Comment dériver l'erreur standard du coefficient de régression linéaire

20

Pour ce modèle univarié de régression linéaire

yje=β0+β1Xje+ϵje
données ensemble donné ={(X1,y1),...,(Xn,yn)} , les estimations des coefficients sont β 1 = Σ i x i y i - n ˉ x ˉ y β 0= ˉ y - β 1 ˉ x Voici ma question, selon le livre etWikipedia, l'erreur type deest Comment et pourquoi?
β^1=jeXjeyje-nX¯y¯nX¯2-jeXje2
β^0=y¯-β^1X¯
β^1
sβ^1=jeϵ^je2(n-2)je(Xje-X¯)2
Avocat
la source
@ocram, merci, mais je ne suis pas tout à fait capable de gérer les trucs matriciels, je vais essayer.
avocat
1
(n-2)

Réponses:

15

3ème commentaire ci-dessus: j'ai déjà compris comment ça se passe. Mais encore une question: dans mon post, l'erreur standard a (n − 2), où selon votre réponse, ce n'est pas le cas, pourquoi?


se^(b^)=nσ^2nXje2-(Xje)2.
nje(Xje-X¯)2
se^(b^)=σ^2je(Xje-X¯)2

σ^2=1n-2jeϵ^je2
se^(b^)n-2
ocram
la source
1
σ^2=1n-2jeϵ^je2
2

une autre façon de penser le n-2 df est que c'est parce que nous utilisons 2 moyennes pour estimer le coefficient de pente (la moyenne de Y et X)

df de Wikipedia: "... En général, les degrés de liberté d'une estimation d'un paramètre sont égaux au nombre de scores indépendants qui entrent dans l'estimation moins le nombre de paramètres utilisés comme étapes intermédiaires dans l'estimation du paramètre lui-même . "

Eivind
la source
2
Ce n'est pas vraiment une dérivation en tant que telle, bien que ce soit une intuition. Pour certaines subtilités liées à cela, cependant, voir Comment comprendre les degrés de liberté?
Silverfish