Dans cet article , ( Inférence bayésienne pour les composants de la variance utilisant uniquement des contrastes d'erreur , Harville, 1974), l'auteur affirme pour être "bien connu" relation ", pour une régression linéaire où y = X β
ϵ ∼ N ( 0 , H ) .
Comment est-ce bien connu? Quelle est la manière la plus simple de le prouver?
regression
regression-coefficients
heteroscedasticity
bias
linear-algebra
Sibbs Gambling
la source
la source
Réponses:
Le dernier terme de l'équation peut s'écrire
Sous cette forme, l'équation dit quelque chose d'intéressant. En supposant que est défini positif et symétrique, il en va de même pour son inverse. Par conséquent, nous pouvons définir un produit intérieur , nous donnant la géométrie. Alors l'égalité ci-dessus dit essentiellement que, < x , y > H - 1 = x ' H - 1 y ( X β - X β ) ⊥ ( y - X β ) .H < x , y>H- 1= x′H- 1y
Je voulais vous donner ce peu d'intuition puisqu'un commentateur a déjà laissé un lien vers la dérivation.
Edit: Pour la postérité
LHS:
RHS:
Relation:
En branchant la relation, vous pouvez montrer que (B) = (F) et que 2 (E) = (D). Terminé.
la source
Ils arrivent à cette identité par une technique appelée achever le carré. Le côté gauche est sous une forme quadratique, alors commencez par le multiplier
continuer et réécrire en termes de . L'algèbre est assez longue mais googlante complétant le carré dans la régression bayésienne et vous pouvez trouver beaucoup d'indices. Par exemple, voir le wikipedia sur la régression linéaire bayésienne , et d'autres réponses CrossValided concernant l'achèvement du carré, comme ici .β^= ( X′H- 1X)- 1X′H- 1y
la source
Si vous connaissez votre algèbre matricielle, cela devrait être possible en multipliant tout et en vérifiant que vous avez bien la même chose des deux côtés. C'est ce que jlimahaverford a démontré.
la source