Régression linéaire: * Pourquoi * pouvez-vous partitionner des sommes de carrés?

9

Cet article fait référence à un modèle de régression linéaire bivariée, . J'ai toujours pris la partition de la somme totale des carrés (SSTO) en somme des carrés pour l'erreur (SSE) et somme des carrés pour le modèle (SSR) sur la foi, mais une fois que j'ai vraiment commencé à y penser, je ne comprends pas pourquoi ça marche ...Yi=β0+β1xi

La partie que je ne comprends:

yi : une valeur observée de y

yiy¯ : La moyenne de tous les s observésyi

y^i : La valeur ajustée / prédite de y pour une observation donnée x

yiy^i : résiduel / erreur (si carré et additionné pour toutes les observations, c'est SSE)

y^iy¯ : dans quelle mesure la valeur ajustée du modèle diffère de la moyenne (si elle est au carré et additionnée pour toutes les observations, c'est SSR)

yiy¯ : Dans quelle mesure une valeur observée diffère de la moyenne (si elle est calculée et additionnée pour toutes les observations, il s'agit de SSTO).

Je peux comprendre pourquoi, pour une seule observation, sans quadrature, . Et je peux comprendre pourquoi, si vous voulez additionner des choses à toutes les observations, vous devez les cadrer ou elles totaliseront 0.(yiy¯)=(y^iy¯)+(yiy^i)

La partie que je ne comprends pas est pourquoi (par exemple. SSTO = SSR + SSE). Il semble que si vous avez une situation où , alors , pas . Pourquoi n'est-ce pas le cas ici? A = B + C A 2 = B 2 + 2 B C + C 2 A 2 = B 2 + C 2(yiy¯)2=(y^iy¯)2+(yiy^i)2A=B+CA2=B2+2BC+C2A2=B2+C2

bluemouse
la source
5
Vous avez omis la sommation dans votre dernier paragraphe. SST = SSR + SSE est une somme sur , mais votre égalité que vous avez écrite immédiatement avant n'est pas réellement vraie sans le signe de sommation. i
Glen_b -Reinstate Monica
1
Dans votre dernier paragraphe, vous ne voulez pas (par exemple SSTO = SSR + SSE) (par exemple SSTO = SSR + SSE). "eg" est l'abréviation de l'expression latine " exempli gratia " ou "par exemple" en anglais. "ie" est l'abréviation de " id est " et peut être lu en anglais comme "c'est-à-dire".
Matthew Gunn

Réponses:

9

Il semble que si vous avez une situation où , alors A 2 = B 2 + 2 B C + C 2 , pas A 2 = B 2 + C 2 . Pourquoi n'est-ce pas le cas ici?A=B+CA2=B2+2BC+C2A2=B2+C2

Conceptuellement, l'idée est que parce que B et C sont orthogonaux (c'est-à-dire perpendiculaires).BC=0BC


Dans le contexte de régression linéaire ici, les résidus sont orthogonales aux prévisions rabaissées y i - ˉ y . La prévision de la régression linéaire crée une décomposition orthogonale de y dans un sens similaire car ( 3 , 4 ) = ( 3 , 0 ) + ( 0 , 4 ) est une décomposition orthogonale.ϵi=yiy^iy^iy¯y(3,4)=(3,0)+(0,4)

Version d'algèbre linéaire:

Laisser:

z=[y1y¯y2y¯yny¯]z^=[y^1y¯y^2y¯y^ny¯]ϵ=[y1y^1y2y^2yny^n]=zz^

La régression linéaire (avec une constante incluse) décompose en la somme de deux vecteurs: une prévision et un résiduz εzz^ϵ

z=z^+ϵ

Soit désigne le produit scalaire . (Plus généralement, peut être le produit intérieur .)X , Y E [ X Y ].,.X,Y E[XY]

z,z=z^+ϵ,z^+ϵ=z^,z^+2z^,ϵ+ϵ,ϵ=z^,z^+ϵ,ϵ

Où la dernière ligne découle du fait que (c'est-à-dire que et sont orthogonaux). Vous pouvez prouver que et sont orthogonaux en fonction de la façon dont la régression des moindres carrés ordinaires construit .z ε = z - z z ε zz^,ϵ=0z^ϵ=zz^z^ϵz^

zx1x2ε z x1x2εz^ est la projection linéaire de sur le sous-espace défini par la plage linéaire des régresseurs , , etc .... le résiduel est orthogonal à tout ce sous-espace, d'où (qui se situe dans la plage de , , etc ...) est orthogonale à .zx1x2ϵz^x1x2ϵ


Notez que comme j'ai défini comme produit scalaire, est simplement une autre manière d'écrire (c'est-à-dire SSTO = SSR + SSE)Z , z= z , z+ e , e .,.z,z=z^,z^+ϵ,ϵi(yiy¯)2=i(y^iy¯)2+i(yiy^i)2

Matthew Gunn
la source
8

Le tout montre que certains vecteurs sont orthogonaux et utilisent alors le théorème de Pythagore.

Considérons la régression linéaire multivariée . Nous savons que l'estimateur OLS est . Considérez maintenant l'estimationβ = ( X t X ) - 1 X t YY=Xβ+ϵβ^=(XtX)1XtY

Y^=Xβ^=X(XtX)1XtY=HY (la matrice H est aussi appelée matrice "hat")

où est une matrice de projection orthogonale de Y sur . Maintenant nous avonsS ( X )HS(X)

YY^=YHY=(IH)Y

où est une matrice de projection sur le complément orthogonal de qui est . Ainsi, nous savons que et sont orthogonaux.S ( X ) S ( X ) Y - Y Y(IH)S(X)S(X)YY^Y^

Considérons maintenant un sous-modèleY=X0β0+ϵ

où et de même, nous avons l'estimateur OLS et estimons et avec la matrice de projection sur . De même, nous avons que et sont orthogonaux. Et maintenant^ β 0 ^ Y 0 H 0 S ( X 0 ) Y - ^ Y 0 ^ Y 0X=[X0|X1]β0^Y0^H0S(X0)YY0^Y0^

Y^Y0^=HYH0Y=HYH0HY=(IH0)HY

où encore est une matrice de projection orthogonale sur le complément de qui est . Nous avons donc une orthogonalité de et . Donc, à la fin, nous avonsS ( X 0 ) S ( X 0 ) Y - ^ Y 0 ^ Y 0(IH0)S(X0)S(X0)Y^Y0^Y0^

||YY^||2=||Y||2||Y^||2=||YY0^||2+||Y0^||2||Y^Y0^||2||Y0^||2

et enfin||YY0^||2=||YY^||2+||Y^Y0^||2

Enfin, la moyenne est simplement le si l'on considère le modèle nul .^ Y 0 Y=β0+eY¯Y0^Y=β0+e

Łukasz Grad
la source
Merci pour votre réponse! Qu'est-ce que S () (comme dans S (X) dans votre message)?
bluemouse
XS(X) est un sous-espace généré par les colonnes de la matriceX
Łukasz Grad