Lorsque nous effectuons plusieurs régressions et disons que nous examinons le changement moyen de la variable pour un changement d'une variable , en maintenant toutes les autres variables constantes, à quelles valeurs maintenons-nous les autres variables constantes? Leur moyenne? Zéro? De n'importe quelle valeur?
J'ai tendance à penser que c'est à n'importe quelle valeur; je cherche juste une clarification. Si quelqu'un avait une preuve, ce serait bien aussi.
multiple-regression
interpretation
least-squares
regression-coefficients
controlling-for-a-variable
EconStats
la source
la source
Réponses:
Vous avez raison. Techniquement, c'est n'importe quelle valeur . Cependant, lorsque j'enseigne cela, je dis généralement aux gens que vous obtenez l'effet d'un changement d'une unité dansXj lorsque toutes les autres variables sont maintenues à leurs moyennes respectives. Je pense que c'est une façon courante de l'expliquer qui ne me concerne pas.
Je continue généralement à mentionner que si vous n'avez aucune interaction, sera l'effet d'un changement d'une unité dans X j , quelles que soient les valeurs de vos autres variables. Mais j'aime commencer par la formulation moyenne. La raison en est qu'il y a deux effets à inclure plusieurs variables dans un modèle de régression. Tout d'abord, vous obtenez l'effet de X j contrôlant les autres variables (voir ma réponse ici ). La seconde est que la présence des autres variables réduit (typiquement) la variance résiduelle du modèle, rendant vos variables (y compris X jβj Xj Xj Xj ) 'plus significatif'. Il est difficile pour les gens de comprendre comment cela fonctionne si les autres variables ont des valeurs qui sont partout. Cela semble augmenter la variabilité d'une manière ou d'une autre. Si vous pensez à ajuster chaque point de données vers le haut ou vers le bas pour la valeur de chaque autre variable jusqu'à ce que toutes les autres variables aient été déplacées vers leurs moyennes respectives, il est plus facile de voir que la variabilité résiduelle a été réduite. X
Je n'arrive pas aux interactions avant une classe ou deux après avoir introduit les bases de la régression multiple. Cependant, quand j'y arrive, je reviens à ce matériel. Ce qui précède s'applique lorsqu'il n'y a pas d' interactions. Quand il y a des interactions, c'est plus compliqué. Dans ce cas, la variable d'interaction [s] est maintenue constante (très précisément) à , et à aucune autre valeur.0
Si vous voulez voir comment cela se déroule algébriquement, c'est plutôt simple. Nous pouvons commencer par le cas sans interaction. Déterminons le changement de Y lorsque toutes les autres variables sont constantes maintenus à leur moyens respectifs. Sans perte de généralité, disons qu'il ya trois X des variables et nous sommes intéressés à comprendre comment le changement de Y est associée à un changement d' une unité de X 3 , la tenue X 1 et X 2 constante à leurs moyens respectifs:Y^ X Y^ X3 X1 X2
Maintenant, il est évident que nous aurions pu mettre n'importe quelle valeur pour et X 2 dans les deux premières équations, tant que nous avons mis la même valeur pour X 1 ( X 2 ) dans les deux. Autrement dit, tant que nous maintenons X 1 et X 2 constants .X1 X2 X1 X2 X1 X2
D'un autre côté, cela ne fonctionne pas de cette façon si vous avez une interaction. Ici, je montre le cas où il existe un terme d'interaction :X1X3
Dans ce cas, il n'est pas possible de maintenir tout le reste constant. Le terme d'interaction étant fonction de et X 3 , il n'est pas possible de modifier X 3 sans que le terme d'interaction ne change également. Ainsi, β 3 est égale à la variationX1 X3 X3 β^3 associé à un changementune unité àX3uniquement lorsquela variableinteraction (X1) est maintenu à0au lieu de ˉ X 1(ou toute autre valeurmais0), auquel cas le dernier terme de l'équation du bas disparaît. Y^ X3 X1 0 X¯1 0
Dans cette discussion, je me suis concentré sur les interactions, mais plus généralement, le problème est quand il y a une variable qui est fonction d'une autre telle qu'il n'est pas possible de changer la valeur de la première sans changer la valeur respective de l'autre variable . Dans de tels cas, le sens de β jβ^j devient plus compliqué. Par exemple, si vous avez un modèle avec et X 2 j , puis β j est le dérivé d YXj X2j β^j tenant toutes les autres égales et tenantXj=0(voir ma réponseici). D'autres formulations encore plus compliquées sont également possibles. dYdXj Xj=0
la source
Le calcul est simple, il suffit de prendre la différence entre 2 modèles avec l'une des variables x modifiée par 1 et vous verrez que peu importe les autres variables (étant donné qu'il n'y a pas d'interactions, de polynômes ou d'autres termes compliquant).
Un exemple:
la source
Je pense que vous faites référence à la dépendance dans les covariables ( ). Donc, si le modèle est Y = β 0 + β 1 X 1 + β 2 X 2, l'effet de X i sur Y toutes choses égales par ailleurs serait Δ YXi
Gardez à l'esprit qu'il est possible que et X 2 soient dépendants (par exemple fonctions l'un de l'autre) sans nécessairement montrer une interaction significative dans le modèle linéaire ( β 12 = 0 dans Y = β 0 + β 1 X 1 + β 2 X 2 +X1 X2 β12=0 Y=β0+β1X1+β2X2+β12X1X2
la source