Pourquoi les résidus dans la régression linéaire totalisent-ils toujours zéro lorsqu'une intersection est incluse?

14

Je prends un cours sur les modèles de régression et l'une des propriétés fournies pour la régression linéaire est que les résidus résument toujours à zéro lorsqu'une interception est incluse.

Quelqu'un peut-il expliquer pourquoi c'est le cas?

dts86
la source
3
Vous voudrez peut-être d'abord réfléchir à la question étroitement liée mais plus simple de savoir pourquoi dans un échantillon univarié, les résidus que vous obtenez en soustrayant la moyenne de l'échantillon de chaque valeur
totalisent
3
Dès que vous reconnaissez que «somme à zéro» signifie «orthogonale à l'une des variables explicatives», la réponse devient géométriquement évidente.
whuber

Réponses:

18

Cela découle directement des équations normales, c'est-à-dire des équations que l'estimateur OLS résout,

X(yXb)e=0

Le vecteur à l'intérieur des parenthèses est bien sûr le vecteur résiduel ou la projection de sur le complément orthogonal de l'espace de colonne de X , si vous aimez l'algèbre linéaire. Maintenant, l'inclusion d'un vecteur de uns dans la matrice X , qui ne doit d'ailleurs pas être dans la première colonne comme cela se fait classiquement, conduit àyXX

1e=0i=1nei=0

Dans le problème à deux variables, cela est encore plus simple à voir, car la minimisation de la somme des résidus au carré nous amène à

i=1n(yiabxi)=0

lorsque nous prenons la dérivée par rapport à l'ordonnée à l'origine. De là, nous procédons à l'obtention de l'estimateur familier

a=y¯bx¯

où l'on voit encore que la construction de nos estimateurs impose cette condition.

JohnK
la source
17

Dans le cas où vous recherchez une explication plutôt intuitive.

Dans un certain sens, le modèle de régression linéaire n'est rien d'autre qu'une moyenne fantaisiste. Pour trouver la moyenne arithmétique x¯ sur certaines valeurs x1,x2,,xn , nous trouvons une valeur qui est une mesure de centralité en ce sens que la somme de tous les écarts (où chaque écart est défini comme ui=xix¯) à droite de la valeur moyenne sont égales à la somme de tous les écarts à gauche de cette moyenne. Il n'y a aucune raison inhérente pour laquelle cette mesure est bonne, encore moins la meilleure façon de décrire la moyenne d'un échantillon, mais elle est certainement intuitive et pratique. Le point important est que, en définissant ainsi la moyenne arithmétique, il s'ensuit nécessairement qu'une fois que nous avons construit la moyenne arithmétique, tous les écarts par rapport à cette moyenne doivent s'additionner à zéro par définition!

En régression linéaire, ce n'est pas différent. Nous ajustons la ligne de telle sorte que la somme de toutes les différences entre nos valeurs ajustées (qui sont sur la ligne de régression) et les valeurs réelles qui sont au - dessus de la ligne soit exactement égale à la somme de toutes les différences entre la ligne de régression et toutes les valeurs en dessous de la ligne. Encore une fois, il n'y a aucune raison inhérente, pourquoi c'est la meilleure façon de construire un ajustement, mais c'est simple et intuitivement attrayant. Tout comme avec la moyenne arithmétique: en construisant nos valeurs ajustées de cette manière, il s'ensuit nécessairement, par construction, que tous les écarts par rapport à cette ligne doivent s'additionner à zéro, sinon ce ne serait pas une régression OLS.

Manuel R
la source
2
+1 pour une réponse directe, simple et intuitive!
3

Lorsque l'ordonnée à l' origine est incluse dans la régression linéaire

y^i=β0+β1xi,1+β2xi,2++βpxi,p
Dans la régression des moindres carrés, la somme des carrés des les erreurs sont minimisées.
SSE=i=1n(ei)2=i=1n(yiyi^)2=i=1n(yiβ0β1xi,1β2xi,2βpxi,p)2
Prendre la dérivée partielle de SSE par rapport àβ0et le mettre à zéro.
SSEβ0=i=1n2(yiβ0β1xi,1β2xi,2βpxi,p)1(1)=2i=1nei=0
Par conséquent, les résidus résument toujours à zéro lorsqu'une ordonnée à l'origine est incluse dans la régression linéaire.

DavidCruise
la source
1

1X

1=Xe,
e1T(yy^)

Donc,

1T(yy^)=1T(IH)y=eTXT(IX(XTX)1XT)y=eT(XTXTX(XTX)1XT)y=eT(XTXT)y=0.

Zhanxiong
la source
0

Une dérivation simple utilisant l'algèbre matricielle:

e1Te

alors

1Te=1T(Mxy)MxMx(Mx1)Ty

Mx1x1

Mino
la source
Je ne pense pas que ce soit juste.
Michael R. Chernick
Si vous expliquez pourquoi, je serai heureux d'apprendre quelque chose
Mino
0
  1. ei=yi[1,X][a,b]=yiXba=via
  2. ddaei2ei1=via=0a^=1nvi
  3. ei=ivia=ivinnivi=0

..

Hunaphu
la source