La question a déjà été soulevée, mais je veux poser une question spécifique qui tentera d'obtenir une réponse qui la clarifiera (et la classera):
Dans "Poor Man's Asymptotics", on garde une distinction claire entre
- (a) une séquence de variables aléatoires qui converge en probabilité vers une constante
contrairement à
- (b) une séquence de variables aléatoires qui converge en probabilité vers une variable aléatoire (et donc en distribution vers elle).
Mais dans "Wise Man's Asymptotics", on peut aussi avoir le cas de
- (c) une séquence de variables aléatoires qui converge en probabilité vers une constante tout en maintenant une variance non nulle à la limite.
Ma question est (voler de ma propre réponse exploratoire ci-dessous):
Comment pouvons-nous comprendre un estimateur qui est asymptotiquement cohérent mais qui a également une variance finie non nulle? Que reflète cet écart? En quoi son comportement diffère-t-il d'un estimateur cohérent "habituel"?
Fils liés au phénomène décrit en (c) (regardez aussi dans les commentaires):
Quelle est la différence entre un estimateur cohérent et un estimateur sans biais?
/stats/120553/convergence-of-an-estimator-with-infinite-variance
Pourquoi les estimateurs asymptotiquement cohérents n'ont-ils pas de variance nulle à l'infini?
La convergence et la variance limitante sont presque sûres à zéro
la source
Réponses:
27-10-2014: Malheureusement (pour moi, c'est le cas), personne n'a encore apporté de réponse ici, peut-être parce que cela ressemble à un problème théorique étrange et "pathologique" et rien de plus?
Eh bien pour citer un commentaire pour l'utilisateur Cardinal (que j'explorerai par la suite)
La variable aléatoire franc-tireur ici est , alors voyons ce que nous pouvons en dire. La variable prend en charge avec les probabilités correspondantes . Il est symétrique autour de zéro, nous avons doncZn { - a n , 0 , a n } { 1 / n2, 1 - 2 / n2, 1 / n2}
{ 1 / n 2 , 1 - 2 / n 2 , 1 / n 2 }
Ces moments ne dépendent pas de donc je suppose que nous sommes autorisés à écrire trivialementn
Dans Asymptotique du pauvre, nous connaissons une condition pour que les limites des moments soient égales aux moments de la distribution limite. Si le ème moment de la distribution des cas finis converge vers une constante (comme c'est notre cas), alors, si de plus,r
la limite du ème moment sera le ème moment de la distribution limite. Dans notre casrr r
Pour cela diverge pour tout , donc cette condition suffisante ne s'applique pas à la variance (elle s'applique à la moyenne). Prenez l'autre chemin: quelle est la distribution asymptotique de ? Le CDF de converge-t-il vers un CDF non dégénéré à la limite?δ > 0 Z n Z nr ≥ 2 δ> 0
Zn Zn
Cela ne ressemble pas à ça: le support limitant sera (si nous sommes autorisés à écrire ceci), et les probabilités correspondantes . Ça ressemble à une constante pour moi. Mais si nous n'avons pas de distribution limite en premier lieu, comment parler de ses moments? { 0 , 1 , 0 }{ - ∞ , 0 , ∞ } { 0 , 1 , 0 }
Revenons ensuite à l'estimateur , puisque converge également vers une constante, il apparaît que ˉ X nθ^n X¯n
Comment pouvons-nous comprendre cela? Que nous dit-il sur l'estimateur? Quelle est la différence essentielle, à la limite, entre et ? ~ θ n= ˉ X nθ^n= X¯n+ Zn θ~n= X¯n
la source
Je ne donnerai pas une réponse très satisfaisante à votre question, car elle me semble un peu trop ouverte, mais permettez-moi de tenter de vous expliquer pourquoi cette question est difficile.
Je pense que vous avez du mal avec le fait que les topologies conventionnelles que nous utilisons sur les distributions de probabilité et les variables aléatoires sont mauvaises. J'ai écrit un article plus important à ce sujet sur mon blog, mais permettez-moi de résumer: vous pouvez converger dans le sens faible (et la variation totale) tout en violant les hypothèses de sens commun sur ce que signifie la convergence.
Par exemple, vous pouvez converger en topologie faible vers une constante tout en ayant une variance = 1 (ce qui est exactement ce que fait votre séquence ). Il y a alors une distribution limite (dans la topologie faible) qui est cette variable aléatoire monstrueuse qui est la plupart du temps égale à 0 mais infiniment rarement rarement égale à l'infini.Zn
Personnellement, je suppose que cela signifie que la topologie faible (et la topologie à variation totale également) est une mauvaise notion de convergence qui devrait être écartée. La plupart des convergences que nous utilisons réellement sont plus fortes que cela. Cependant, je ne sais pas vraiment quoi utiliser à la place de la topologie faible sooo ...
Si vous voulez vraiment trouver une différence essentielle entre et , voici mon avis: les deux estimateurs sont équivalents pour la perte [0,1] (lorsque la taille de votre erreur n'a pas d'importance). Cependant, est bien meilleur si la taille de vos erreurs est importante, car échoue parfois de manière catastrophique. ~ θ = ˉ X ~ θ θθ^=X¯+Zn θ~=X¯ θ~ θ^
la source
Un estimateur est cohérent en probabilité mais pas en MSE s'il y a une probabilité arbitrairement petite de l'estimateur "explosant". Bien qu'il s'agisse d'une curiosité mathématique intéressante, à des fins pratiques, cela ne devrait pas vous déranger. À toute fin pratique, les estimateurs ont des supports finis et ne peuvent donc pas exploser (le monde réel n'est ni infiniment petit ni grand).
Si vous souhaitez toujours faire appel à une approximation continue du «monde réel» et que votre approximation est telle qu'elle converge en probabilité et non en MSE, alors prenez-la telle quelle: votre estimateur peut avoir raison avec une probabilité arbitrairement grande, mais il y aura toujours une petite chance arbitraire d'explosion. Heureusement, quand il le fera, vous le remarquerez, afin que sinon, vous puissiez lui faire confiance. :-)
la source