Cet article fait référence à un modèle de régression linéaire bivariée, . J'ai toujours pris la partition de la somme totale des carrés (SSTO) en somme des carrés pour l'erreur (SSE) et somme des carrés pour le modèle (SSR) sur la foi, mais une fois que j'ai vraiment commencé à y penser, je ne comprends pas pourquoi ça marche ...
La partie que je ne comprends:
: une valeur observée de y
yi : La moyenne de tous les s observés
: La valeur ajustée / prédite de y pour une observation donnée x
: résiduel / erreur (si carré et additionné pour toutes les observations, c'est SSE)
: dans quelle mesure la valeur ajustée du modèle diffère de la moyenne (si elle est au carré et additionnée pour toutes les observations, c'est SSR)
: Dans quelle mesure une valeur observée diffère de la moyenne (si elle est calculée et additionnée pour toutes les observations, il s'agit de SSTO).
Je peux comprendre pourquoi, pour une seule observation, sans quadrature, . Et je peux comprendre pourquoi, si vous voulez additionner des choses à toutes les observations, vous devez les cadrer ou elles totaliseront 0.
La partie que je ne comprends pas est pourquoi (par exemple. SSTO = SSR + SSE). Il semble que si vous avez une situation où , alors , pas . Pourquoi n'est-ce pas le cas ici? A = B + C A 2 = B 2 + 2 B C + C 2 A 2 = B 2 + C 2
la source
Réponses:
Conceptuellement, l'idée est que parce que B et C sont orthogonaux (c'est-à-dire perpendiculaires).BC=0 B C
Dans le contexte de régression linéaire ici, les résidus sont orthogonales aux prévisions rabaissées y i - ˉ y . La prévision de la régression linéaire crée une décomposition orthogonale de y dans un sens similaire car ( 3 , 4 ) = ( 3 , 0 ) + ( 0 , 4 ) est une décomposition orthogonale.ϵi=yi−y^i y^i−y¯ y (3,4)=(3,0)+(0,4)
Version d'algèbre linéaire:
Laisser:
La régression linéaire (avec une constante incluse) décompose en la somme de deux vecteurs: une prévision et un résiduz εz z^ ϵ
Soit désigne le produit scalaire . (Plus généralement, peut être le produit intérieur .)⟨ X , Y ⟩ E [ X Y ]⟨.,.⟩ ⟨X,Y⟩ E[XY]
Où la dernière ligne découle du fait que (c'est-à-dire que et sont orthogonaux). Vous pouvez prouver que et sont orthogonaux en fonction de la façon dont la régression des moindres carrés ordinaires construit .z ε = z - z z ε z⟨ z^, E ⟩ = 0 z^ ϵ = z - z^ z^ ϵ z^
zx1x2ε z x1x2εz^ est la projection linéaire de sur le sous-espace défini par la plage linéaire des régresseurs , , etc .... le résiduel est orthogonal à tout ce sous-espace, d'où (qui se situe dans la plage de , , etc ...) est orthogonale à .z X1 X2 ϵ z^ X1 X2 ϵ
Notez que comme j'ai défini comme produit scalaire, est simplement une autre manière d'écrire (c'est-à-dire SSTO = SSR + SSE)⟨ Z , z ⟩ = ⟨ z , z ⟩ + ⟨ e , e ⟩⟨ . , . ⟩ ⟨ Z , z ⟩ = ⟨ z^, z^⟩ + ⟨ E , e ⟩ ∑je( yje- y¯)2= ∑je( y^je- y¯)2+ ∑je( yje- y^je)2
la source
Le tout montre que certains vecteurs sont orthogonaux et utilisent alors le théorème de Pythagore.
Considérons la régression linéaire multivariée . Nous savons que l'estimateur OLS est . Considérez maintenant l'estimationβ = ( X t X ) - 1 X t YOui= Xβ+ ϵ β^= ( XtX)- 1XtOui
où est une matrice de projection orthogonale de Y sur . Maintenant nous avonsS ( X )H S( X)
où est une matrice de projection sur le complément orthogonal de qui est . Ainsi, nous savons que et sont orthogonaux.S ( X ) S ⊥ ( X ) Y - Y Y( Je- H) S( X) S⊥( X) Oui- Oui^ Oui^
Considérons maintenant un sous-modèleOui= X0β0+ ϵ
où et de même, nous avons l'estimateur OLS et estimons et avec la matrice de projection sur . De même, nous avons que et sont orthogonaux. Et maintenant^ β 0 ^ Y 0 H 0 S ( X 0 ) Y - ^ Y 0 ^ Y 0X= [ X0| X1] β0^ Y0^ H0 S(X0) Y−Y0^ Y0^
où encore est une matrice de projection orthogonale sur le complément de qui est . Nous avons donc une orthogonalité de et . Donc, à la fin, nous avonsS ( X 0 ) S ⊥ ( X 0 ) Y - ^ Y 0 ^ Y 0(I−H0) S(X0) S⊥(X0) Y^−Y0^ Y0^
et enfin||Y−Y0^||2=||Y−Y^||2+||Y^−Y0^||2
Enfin, la moyenne est simplement le si l'on considère le modèle nul .^ Y 0 Y=β0+eY¯ Y0^ Y=β0+e
la source