Quelle est la différence entre

9

Supposons que j'ai un échantillon aléatoire {xn,yn}n=1N.

Supposer

yn=β0+β1xn+εn

et

y^n=β^0+β^1xn

Quelle est la différence entre β1 et β^1?

Stan Shunpike
la source
6
β est votre coefficient réel et β^ est votre estimateur de β.
ARAT
1
N'est-ce pas un doublon d'un article précédent? Je serais surpris ...
Richard Hardy

Réponses:

7

β1est une idée - elle n'existe pas vraiment dans la pratique. Mais si l'hypothèse de Gauss-Markov tient,β1 vous donnerait cette pente optimale avec des valeurs au-dessus et en dessous sur une "tranche" verticale à la variable dépendante formant une belle distribution gaussienne normale des résidus. β^1 est l'estimation de β1 sur la base de l'échantillon.

L'idée est que vous travaillez avec un échantillon d'une population. Votre échantillon forme un nuage de données, si vous voulez. L'une des dimensions correspond à la variable dépendante, et vous essayez d'ajuster la ligne qui minimise les termes d'erreur - dans OLS, il s'agit de la projection de la variable dépendante sur le sous-espace vectoriel formé par l'espace de colonne de la matrice de modèle. Ces estimations des paramètres de population sont notées avec leβ^symbole. Plus vous avez de points de données, plus les coefficients estimés sont précis,β^i sont, et meilleure est l’estimation de ces coefficients de population idéalisés, βi.

Voici la différence de pente (β contre β^) entre la "population" en bleu et l'échantillon en points noirs isolés:

entrez la description de l'image ici

La ligne de régression est en pointillés et en noir, tandis que la ligne de "population" synthétiquement parfaite est en bleu uni. L'abondance de points fournit un sens tactile de la normalité de la distribution des résidus.

Antoni Parellada
la source
9

Le symbole "chapeau" dénote généralement une estimation, par opposition à la "vraie" valeur. Doncβ^ est une estimation de β. Quelques symboles ont leurs propres conventions: la variance de l'échantillon, par exemple, est souvent écrite commes2, ne pas σ^2, bien que certaines personnes utilisent les deux pour distinguer les estimations biaisées des estimations non biaisées.

Dans votre cas particulier, le β^les valeurs sont des estimations de paramètres pour un modèle linéaire. Le modèle linéaire suppose que la variable de résultatY est généré par une combinaison linéaire du xis, chacun pondéré par les βivaleur. Dans la pratique, bien sûr, cesβles valeurs sont inconnues et peuvent même ne pas exister (peut-être que les données ne sont pas générées par un modèle linéaire). Néanmoins, nous pouvons estimerβ^ les valeurs des données qui se rapprochent Y.

Matt Krause
la source
4

L'équation

yi=β0+β1xi+ϵi

est ce qu'on appelle le vrai modèle. Cette équation dit que la relation entre la variablex et la variable y peut être expliqué par une ligne y=β0+β1x. Cependant, étant donné que les valeurs observées ne suivront jamais cette équation exacte (en raison d'erreurs), unϵjeun terme d'erreur est ajouté pour indiquer les erreurs. Les erreurs peuvent être interprétées comme des écarts naturels par rapport à la relationX et y. Ci-dessous, je montre deux paires deX et y(les points noirs sont des données). En général, on peut voir queX augmente yaugmente. Pour les deux paires, la véritable équation est

yje=4+3Xje+ϵje
mais les deux graphiques ont des erreurs différentes. Le tracé de gauche comporte de grandes erreurs et le tracé de droite de petites erreurs (car les points sont plus serrés). (Je connais la vraie équation parce que j'ai généré les données par moi-même. En général, on ne connaît jamais la vraie équation) entrez la description de l'image ici

Regardons l'intrigue à gauche. La véritéβ0=4 et le vrai β1= 3. Mais en pratique, lorsque des données sont fournies, nous ne connaissons pas la vérité. Nous estimons donc la vérité. Nous estimonsβ0 avec β^0 et β1 avec β^1. Selon les méthodes statistiques utilisées, les estimations peuvent être très différentes. Dans le cadre de la régression, les estimations sont obtenues via une méthode appelée les moindres carrés ordinaires. Ceci est également connu comme la méthode de ligne de meilleur ajustement. Fondamentalement, vous devez tracer la ligne qui correspond le mieux aux données. Je ne parle pas des formules ici, mais en utilisant la formule pour OLS, vous obtenez

β^0=4,809 et β^1=2,888

et la ligne résultante de meilleur ajustement est, entrez la description de l'image ici

Un exemple simple serait la relation entre les hauteurs des mères et des filles. LaisserX= taille des mères et y= hauteurs des filles. Naturellement, on s'attendrait à ce que les mères plus grandes aient des filles plus grandes (en raison de la similitude génétique). Cependant, pensez-vous qu'une équation peut résumer exactement la taille d'une mère et d'une fille, de sorte que si je connais la taille de la mère, je pourrai prédire la taille exacte de la fille? Non. D'un autre côté, on pourrait résumer la relation avec l'aide d'un en moyenne énoncé .

TL DR: βest la vérité de la population. Il représente la relation inconnue entrey et X. Comme nous ne pouvons pas toujours obtenir toutes les valeurs possibles dey et X, nous collectons un échantillon de la population et essayons d' estimer β en utilisant les données. β^est notre estimation. C'est une fonction des données.βn'est pas fonction des données, mais de la vérité.

Greenparker
la source