Méthodes d'ajustement d'un modèle «simple» d'erreur de mesure

13

Je recherche des méthodes qui peuvent être utilisées pour estimer le modèle d'erreur de mesure "OLS".

yi=Yi+ey,i
xi=Xi+ex,i
Yi=α+βXi

Où les erreurs sont normales indépendantes avec des variances inconnues et . L'OLS "standard" ne fonctionnera pas dans ce cas.σy2σx2

Wikipedia a quelques solutions peu attrayantes - les deux données vous obligent à supposer que le "rapport de variance" ou le " rapport de fiabilité " est connu, oùδ=σy2σx2λ=σX2σx2+σX2σX2 est la variance du vrai régresseur Xi . Je ne suis pas satisfait de cela, car comment quelqu'un qui ne connaît pas les écarts peut-il connaître leur ratio?

Quoi qu'il en soit, y a-t-il d'autres solutions à part ces deux qui ne nécessitent pas que je "sache" rien sur les paramètres?

Les solutions pour l'interception et la pente sont bonnes.

probabilitéislogique
la source
l'article Wikipedia lui-même vous fournit la réponse à cette question. Si vous supposez la normalité du "vrai" régresseur, alors vous avez besoin de conditions supplémentaires sur les distributions des erreurs. Si le vrai régresseur n'est pas gaussien, alors vous avez de l'espoir. Voir Reiersol (1950) .
Cardinal
aussi, que voulez-vous dire par "Les solutions pour l'interception et la pente sont très bien". Ce sont vos deux seuls paramètres! Ou espériez-vous essayer de reculer également le "vrai" régresseur?
Cardinal
@cardinal - Je voulais dire que je ne me souciais pas particulièrement des deux paramètres d'échelle et, comme vous le dites, du "vrai" régresseur . Xi
probabilityislogic
Je vois. Ça a du sens.
cardinal

Réponses:

7

Il existe un éventail de possibilités décrites par JW Gillard dans Un aperçu historique de la régression linéaire avec des erreurs dans les deux variables

Si vous n'êtes pas intéressé par les détails ou les raisons de choisir une méthode sur une autre, rendez - vous avec le plus simple, ce qui est de tracer la ligne à travers le centre de gravité avec une pente de s = de la y / s x , à savoir le rapport des écarts-types observés (en faisant le signe de la pente le même que le signe de la covariance de x et y ); comme vous pouvez travailler, cela donne une interception sur la y axe des x de α = ˉ y - ß ˉ x .(x¯,y¯)β^=sy/sxxyyα^=y¯β^x¯.

Les mérites de cette approche particulière sont

  1. il donne la même ligne comparant contre y que y contre x ,xyyx
  2. il est invariant à l'échelle, vous n'avez donc pas à vous soucier des unités,
  3. il se situe entre les deux droites de régression linéaire ordinaires
  4. il les croise là où ils se croisent au centre de gravité des observations, et
  5. c'est très facile à calculer.

La pente est la moyenne géométrique des pentes des deux pentes de régression linéaire ordinaire. C'est aussi ce que vous obtiendriez si vous standardisiez les observations et y , traciez une ligne à 45 ° (ou 135 ° s'il y a une corrélation négative), puis dépanalisiez la ligne. Cela pourrait également être considéré comme équivalent à faire une supposition implicite que les variances des deux ensembles d'erreurs sont proportionnelles aux variances des deux ensembles d'observations; pour autant que je sache, vous prétendez ne pas savoir de quelle manière cela est faux.xy

YXXY

X0 <- 1600:3600
Y0 <- 5*X0 + 700
X1 <- X0 + 400*rnorm(2001)
Y1 <- Y0 + 2000*rnorm(2001)
slopeOLSXY  <- lm(Y1 ~ X1)$coefficients[2]     #OLS slope of Y on X
slopeOLSYX  <- 1/lm(X1 ~ Y1)$coefficients[2]   #Inverse of OLS slope of X on Y
slopesimple <- sd(Y1)/sd(X1) *sign(cov(X1,Y1)) #Simple slope
c(slopeOLSXY, slopeOLSYX, slopesimple)         #Show the three slopes
plot(Y1~X1)
abline(mean(Y1) - slopeOLSXY  * mean(X1), slopeOLSXY,  col="red")
abline(mean(Y1) - slopeOLSYX  * mean(X1), slopeOLSYX,  col="blue")
abline(mean(Y1) - slopesimple * mean(X1), slopesimple, col="green")
Henri
la source
β^
{yi}{xi}σs
β^xyyxβ^yxxyβ^xy=ρ^sy/sxβ^yx=ρ^sx/syρ^xyρ^
x=by+c1/by=x/bc/byxρ^sy/sxsy/ρ^sxsy/sxyx
YX