Quel est ce compromis biais-variance pour les coefficients de régression et comment le dériver?

9

Dans cet article , ( Inférence bayésienne pour les composants de la variance utilisant uniquement des contrastes d'erreur , Harville, 1974), l'auteur affirme pour être "bien connu" relation ", pour une régression linéaire où y = X β

(y-Xβ)H-1(y-Xβ)=(y-Xβ^)H-1(y-Xβ^)+(β-β^)(XH-1X)(β-β^)
ϵ N ( 0 , H ) .
y=Xβ+ϵ,
ϵN(0,H).

Comment est-ce bien connu? Quelle est la manière la plus simple de le prouver?

Sibbs Gambling
la source
1
C'est sur wikipedia , voir 'dérivation' là-bas.
user603
@ user603 Cela vous dérange de rendre le lien plus clair? Merci!
Sibbs Gambling
@ user603 Désolé, je ne vois pas vraiment comment le lien résout le problème. Pour moi, dans mon cas, l'équation est Var (y) = biais + ... Pouvez-vous élaborer?
Sibbs Gambling
4
@SibbsGambling Notez que votre équation a deux termes liés à la variance dans cette formulation d'une régression linéaire pondérée . Le terme de gauche est lié à la variance autour du vrai modèle (pondéré par la matrice de précision ). Le premier terme à droite est lié à la variance autour des modèles ajustés. Le deuxième terme à droite est lié au carré du biais. C'est le compromis biais-variance. H-1
EdM

Réponses:

6

Le dernier terme de l'équation peut s'écrire

(Xβ-Xβ^)H-1(Xβ-Xβ^).

Sous cette forme, l'équation dit quelque chose d'intéressant. En supposant que est défini positif et symétrique, il en va de même pour son inverse. Par conséquent, nous pouvons définir un produit intérieur , nous donnant la géométrie. Alors l'égalité ci-dessus dit essentiellement que, < x , y > H - 1 = x ' H - 1 y ( X β - X β ) ( y - X β ) .H<X,y>H-1=XH-1y

(Xβ-Xβ^)(y-Xβ^).

Je voulais vous donner ce peu d'intuition puisqu'un commentateur a déjà laissé un lien vers la dérivation.

Edit: Pour la postérité

LHS:

(y-Xβ)H-1(y-Xβ)=yH-1y-2yH-1Xβ+βXH-1Xβ=(UNE)-(B)+(C)

RHS:

(y-Xβ^)H-1(y-Xβ^)+(β-β^)(XH-1X)(β-β^)
=yH-1y-2yH-1Xβ^+β^XH-1Xβ^+βXH-1Xβ-2β^XH-1Xβ+β^XH-1Xβ^=(UNE)-()+(E)+(C)-(F)+(E)

Relation:

β^=(XH-1X)-1XH-1y

En branchant la relation, vous pouvez montrer que (B) = (F) et que 2 (E) = (D). Terminé.

jlimahaverford
la source
Désolé, je ne vois pas vraiment comment le lien résout le problème. Pour moi, dans mon cas, l'équation est Var (y) = biais + ... Pouvez-vous élaborer?
Sibbs Gambling
@SibbsGambling a modifié ma réponse, y compris la dérivation.
jlimahaverford
@jlimahaverford n'oublies-tu pas le à la fin de la formule pour ? βyβ^
Gumeo
7

Ils arrivent à cette identité par une technique appelée achever le carré. Le côté gauche est sous une forme quadratique, alors commencez par le multiplier

(y-Xβ)H-1(y-Xβ)=yH-1y-2yH-1Xβ+βXH-1Xβ

continuer et réécrire en termes de . L'algèbre est assez longue mais googlante complétant le carré dans la régression bayésienne et vous pouvez trouver beaucoup d'indices. Par exemple, voir le wikipedia sur la régression linéaire bayésienne , et d'autres réponses CrossValided concernant l'achèvement du carré, comme ici . β^=(XH-1X)-1XH-1y

bill_e
la source
2

Si vous connaissez votre algèbre matricielle, cela devrait être possible en multipliant tout et en vérifiant que vous avez bien la même chose des deux côtés. C'est ce que jlimahaverford a démontré.

β^

XN(μ,Σ).
ΣΣ=PPT
Oui=P-1(X-μ)
N(0,je)β^H=PPT
y=Xβ+ϵP-1y=P-1Xβ+P-1ϵ
ϵcov(P-1ϵ)=je
X~=P-1X,y~=P-1yetϵ~=P-1ϵ.
y~=X~β+ϵ~
β^
β^=(X~TX~)-1X~Ty~=((P-1X)TP-1X)-1(P-1X)TP-1y=(XT(PPT)-1X)-1X(PPT)-1y=(XTH-1X)-1XH-1y
Gumeo
la source