Les estimations de l'ordonnée à l'origine et de la pente dans une régression linéaire simple sont-elles indépendantes?

9

Considérons un modèle linéaire

yi=α+βxi+ϵi

et des estimations pour la pente et l'ordonnée à l'origine et utilisant les moindres carrés ordinaires. Cette référence pour une statistique mathématique fait que et sont indépendants (dans leur preuve de leur théorème). la ß alpha la ßα^β^α^β^

Je ne suis pas sûr de comprendre pourquoi. Depuis

α^=y¯β^x¯

Cela ne signifie-t-il pas que et sont corrélés? Il me manque probablement quelque chose de vraiment évident ici. la ßα^β^

WetlabStudent
la source

Réponses:

12

Accédez au même site sur la sous-page suivante:

https://onlinecourses.science.psu.edu/stat414/node/278

Vous verrez plus clairement qu'ils spécifient le modèle de régression linéaire simple avec le régresseur centré sur sa moyenne d'échantillon . Et cela explique pourquoi ils disent par la suite que et sont indépendants. la ßα^β^

Dans le cas où les coefficients sont estimés avec un régresseur non centré, leur covariance est

Cov(α^,β^)=σ2(x¯/Sxx),Sxx=(xi2x¯2)

Vous voyez donc que si nous utilisons un régresseur centré sur , appelons-le , l'expression de covariance ci-dessus utilisera la moyenne d'échantillon du régresseur centré, , qui sera zéro, et ainsi elle aussi sera nulle et les estimateurs de coefficient seront indépendants.˜ x ˜ ˉ xx¯x~x¯~

Cet article contient plus sur l'algèbre OLS de régression linéaire simple.

Alecos Papadopoulos
la source
utiliser au lieu de . Sinon, il estime que et doivent être remplacés par des homologues de population. Ou ai-je tort? C o v ( α , β ) ˉ x S x xCov(α^,β^|X)Cov(α^,β^)x¯Sxx
Richard Hardy