Supposons que je m'intéresse à un modèle de régression linéaire, pour , car je voudrais voir si une interaction entre les deux covariables a un effet sur Y.
Dans les notes de cours d'un professeur (avec qui je n'ai pas de contact), il indique: Lorsque vous incluez des termes d'interaction, vous devez inclure leurs termes de deuxième degré. c'est-à-dire devraient être inclus dans la régression.
Pourquoi devrait-on inclure des termes de deuxième degré alors que nous ne nous intéressons qu'aux interactions?
Réponses:
Cela dépend du but de l'inférence. Si vous voulez déduire s'il existe une interaction, par exemple, dans un contexte causal (ou, plus généralement, si vous voulez interpréter le coefficient d'interaction), cette recommandation de votre professeur a du sens, et elle vient du le fait qu'une mauvaise spécification de la forme fonctionnelle peut conduire à de fausses inférences sur l'interaction .
Voici un exemple simple où il n'y a pas de terme d'interaction entre et dans l'équation structurelle de , mais si vous n'incluez pas le terme quadratique de , vous concluriez à tort que interagit avec alors qu'en fait il ne le fait pas '' t.x1 x2 y x1 x1 x2
Cela peut être interprété comme un simple cas de biais de variable omis, et ici est la variable omise. Si vous revenez en arrière et incluez le terme au carré dans votre régression, l'interaction apparente disparaît.x21
Bien sûr, ce raisonnement s'applique non seulement aux termes quadratiques, mais à une erreur de spécification de la forme fonctionnelle en général. Le but ici est de modéliser la fonction d'attente conditionnelle de manière appropriée pour évaluer l'interaction. Si vous vous limitez à la modélisation avec régression linéaire, vous devrez inclure ces termes non linéaires manuellement. Mais une alternative est d'utiliser une modélisation de régression plus flexible, comme la régression de la crête du noyau par exemple.
la source
rm(list=ls())
dans le code affiché ici! Si les gens copient et collent et exécutent le code, ils pourraient obtenir une surprise ... Je l'ai supprimé pour l'instant.Les deux modèles que vous avez énumérés dans votre réponse peuvent être ré-exprimés pour montrer clairement comment l'effet de est supposé dépendre de (ou l'inverse) dans chaque modèle.X1 X2
Le premier modèle peut être ré-exprimé comme ceci:
ce qui montre que, dans ce modèle, est supposé avoir un effet linéaire sur (en contrôlant l'effet de ) mais la magnitude de cet effet linéaire - capturée par le coefficient de pente de - change linéairement en fonction de . Par exemple, l'effet de sur peut augmenter en amplitude à mesure que les valeurs de augmentent.X1 Y X2 X1 X2 X1 Y X2
Le deuxième modèle peut être ré-exprimé comme ceci:
ce qui montre que, dans ce modèle, l'effet de sur (en contrôlant l'effet de ) est supposé être quadratique plutôt que linéaire. Cet effet quadratique est capturé en incluant à la fois et dans le modèle. Alors que le coefficient de est supposé être indépendant de , le coefficient de est supposé dépendre linéairement de .X1 Y X2 X1 X21 X21 X2 X1 X2
L'utilisation de l'un ou l'autre modèle impliquerait que vous émettez des hypothèses entièrement différentes sur la nature de l'effet de sur (en contrôlant l'effet de ).X1 Y X2
Habituellement, les gens correspondent au premier modèle. Ils pourraient ensuite représenter tour à tour les résidus de ce modèle par rapport à et . Si les résidus révèlent un motif quadratique dans les résidus en fonction de et / ou , le modèle peut être augmenté en conséquence pour inclure et / ou (et éventuellement leur interaction).X1 X2 X1 X2 X21 X22
Notez que j'ai simplifié la notation que vous avez utilisée pour la cohérence et également rendu le terme d'erreur explicite dans les deux modèles.
la source