Après avoir recueilli de précieux commentaires sur les questions et discussions précédentes, j'ai posé la question suivante: Supposons que le but est de détecter les différences d'effet entre deux groupes, hommes vs femmes par exemple. Il y a deux façons de procéder:
exécuter deux régressions distinctes pour les deux groupes et utiliser le test de Wald pour rejeter (ou non) l'hypothèse nulle : , où est le coefficient d'un IV dans la régression masculine, et est le coefficient de la même IV dans la régression féminine.
regrouper les deux groupes ensemble et exécuter un modèle commun en incluant un mannequin de genre et un terme d'interaction (mannequin de genre IV *). Ensuite, la détection de l'effet de groupe sera basée sur le signe de l'interaction et le test t de signification.
Que se passe-t-il si Ho est rejeté dans le cas (1), c'est-à-dire que la différence de groupe est significative, mais le coefficient du terme d'interaction dans le cas (2) est statistiquement insignifiant, c'est-à-dire que la différence de groupe est insignifiante. Ou vice versa, Ho n'est pas rejeté dans le cas (1) et le terme d'interaction est significatif dans le cas (2). Je me suis retrouvé plusieurs fois avec ce résultat, et je me demandais quel résultat serait le plus fiable et quelle est la raison de cette contradiction.
Merci beaucoup!
Réponses:
Le premier modèle interagira pleinement entre les sexes avec toutes les autres covariables du modèle. Essentiellement, l'effet de chaque covariable (b2, b3 ... bn). Dans le deuxième modèle, l'effet du sexe n'interagit qu'avec votre IV. Donc, en supposant que vous ayez plus de covariables que la IV et le sexe, cela peut conduire à des résultats quelque peu différents.
Si vous venez d'avoir les deux covariables, il existe des cas documentés où la différence de maximisation entre le test de Wald et le test du rapport de vraisemblance conduit à des réponses différentes (voir plus sur wikipedia ).
Dans ma propre expérience, j'essaie de me laisser guider par la théorie. S'il existe une théorie dominante qui suggère que le sexe n'interagirait qu'avec le IV, mais pas les autres covariables, j'irais avec l'interaction partielle.
la source
Chaque fois que deux procédures différentes sont utilisées pour tester une hypothèse particulière, il y aura différentes valeurs de p. Dire que l'un est important et que l'autre ne l'est pas peut être simplement prendre une décision en noir et blanc au niveau 0,05. Si un test donne une valeur de p de 0,03 et l'autre dit 0,07, je n'appellerais pas les résultats contradictoires. Si vous allez être aussi strict dans votre réflexion sur la signification, il est facile de faire surgir la situation (i) ou (ii) lorsque la signification du tableau de bord est le cas.
Comme je l'ai mentionné en réponse à la question précédente, ma préférence pour la recherche d'une interaction est de faire une régression combinée.
la source
Dans le deuxième cas, un logiciel standard vous suggérerait une t-stat avec des valeurs p de t-étudiant alors que pour le premier cas les tests de Wald peuvent avoir deux options. Sous l'hypothèse de normalité des erreurs, la statistique de Wald suit une statistique de Fisher exacte (qui est équivalente à la t-stat car elle suppose la normalité de l'erreur). Alors que dans la normalité asymptotique, la statistique de Wald suit une distribution de Chi2 (qui est analogue à la a-stat suivant une distribution normale de manière asimptotique) Quelle distribution supposez-vous? En fonction de cela, vos valeurs p risquent de vous donner des résultats différents.
Dans les manuels, vous constaterez que pour les tests bilatéraux uniques (un paramètre), les statistiques t-étudiant et Fisher sont équivalentes.
Si votre échantillon n'est pas grand, la comparaison de la comparaison des valeurs p chi2 et t-stat donnerait certainement des résultats différents. Dans ce cas, il ne serait pas raisonnable de supposer une distribution asymptotique. SI votre échantillon est assez petit, alors en supposant que la normalité semble plus raisonnable, cela implique respectivement les valeurs de t-stat et de p de Fisher pour les cas 2 et 1.
la source