Autre manière de dériver les coefficients OLS

8

Dans une autre de mes questions , un répondeur a utilisé la dérivation suivante du coefficient OLS:

Nous avons un modèle: Z n'est pas observé. Ensuite, nous avons: plim

Y=X1β+X2β2+Zγ+ε,
ZX1 =M2X1etM2=[I-X2(X2 X2)-1X2 ].
plimβ^1=β1+γCov(X1,Z)Var(X1)=β1,
X1=M2X1M2=[IX2(X2X2)1X2]

Cela semble différent de l'habituel que j'ai vu en économétrie. Existe-t-il une explication plus explicite de cette dérivation? Y a-t-il un nom pour la matrice M 2 ?β=(XX)1XYM2

Heisenberg
la source
Je suis presque sûr que c'est décrit dans les notes de cours de Hansen, mais je ne les ai pas en main pour le moment.
FooBar

Réponses:

8

Le matrice est la matrice "annulateur" ou "machine résiduelle" associé à la matrice X . Il est appelé "annihilateur" car M X = 0 (pour sa propre matrice X bien sûr). Est -ce que l' on appelle "faiseur résiduel" parce que M y = e , dans la régression y = X β + e . M=IX(XX)1XXMX=0XMy=e^y=Xβ+e

C'est une matrice symétrique et idempotente. Il est utilisé dans la démonstration du théorème de Gauss-Markov.

En outre, il est utilisé dans le théorème de Frisch – Waugh – Lovell , à partir duquel on peut obtenir des résultats pour la "régression partitionnée", qui dit que dans le modèle (sous forme matricielle)

y=X1β1+X2β2+u

nous avons ça

β^1=(X1M2X1)1(X1M2)y

Puisque est idempotent, nous pouvons réécrire ce qui précède enM2

β^1=(X1M2M2X1)1(X1M2M2)y

et puisque est également symétrique, nous avonsM2

β^1=([M2X1][M2X1])1([M2X1][M2y]

Mais c'est l'estimateur des moindres carrés du modèle

[M2y]=[M2X1]β1+M2u

et aussi sont les résidus de régression y uniquement sur la matrice X 2 . M2yyX2

En d' autres termes: 1) Si on régresse sur la matrice X 2 uniquement, puis régressent les résidus de cette estimation sur la matrice M 2 X 1 uniquement, les β 1 estimations que nous obtiendrons sera mathématiquement égale aux estimations que nous sera obtenu si nous régressons y sur X 1 et X 2 ensemble en même temps, comme une régression multiple habituelle. yX2M2X1β^1yX1X2

Maintenant, supposons que n'est pas une matrice mais juste un régresseur, disons xX1 . Alors M 2 x 1 est le résidu de régression de la variable X 1 sur la matrice de régresseur X 2 . Et cela donne l'intuition ici: β 1 nous donne l'effet que « la partie de X 1 qui est expliquée par X 2 » a sur « la partie de Y qui reste inexpliquée par X 2 ».x1M2x1X1X2β^1X1X2YX2

C'est une partie emblématique de l'algèbre classique des moindres carrés.

Alecos Papadopoulos
la source
J'ai commencé à répondre, mais j'avais beaucoup de chevauchements avec cette réponse. Vous pouvez trouver beaucoup de ces informations dans le chapitre 3.2.4 de la 7e édition de "Econometric Analysis" par Bill Greene.
cc7768
@ cc7768 Oui, c'est une bonne source pour l'algèbre des moindres carrés. Mais n'hésitez pas à publier du matériel supplémentaire. Par exemple, ma réponse ne couvre essentiellement que la deuxième question du PO.
Alecos Papadopoulos
@AlecosPapadopoulos vous dites que si nous régressons sur X 1 , nous obtenons égalementM2yX1β^1M2yM2X1
@Heisenberg Correct. Faute de frappe. Corrigé et ajouté un peu plus.
Alecos Papadopoulos