Disons que nous connaissons la moyenne d'une distribution donnée. Cela affecte-t-il l'estimation par intervalle de la variance d'une variable aléatoire (qui est par ailleurs calculée à l'aide de la variance de l'échantillon)? Comme dans, pouvons-nous obtenir un intervalle plus petit pour le même niveau de confiance?
normal-distribution
confidence-interval
variance
martianwars
la source
la source
Réponses:
Je ne suis pas tout à fait sûr que ma réponse est correcte, mais je dirais qu'il n'y a pas de relation générale. Voici mon point:
Étudions le cas où l'intervalle de confiance de la variance est bien compris, à savoir. échantillonnage à partir d'une distribution normale (comme vous l'indiquez dans le tag de la question, mais pas vraiment la question elle-même). Voir la discussion ici et ici .
Un intervalle de confiance pour découle du pivot , où . (Ceci est juste une autre façon d'écrire l'expression peut-être plus familière , où )σ2 T=nσ^2/σ2∼χ2n−1 σ^2=1/n∑i(Xi−X¯)2 T=(n−1)s2/σ2∼χ2n−1 s2=1/(n−1)∑i(Xi−X¯)2
Nous avons donc Par conséquent, un intervalle de confiance est . On peut choisir et comme quantiles et .
(Remarquez en passant que, quelle que soit la variance, estimez que, comme la est asymétrique, les quantiles produiront un ci avec la bonne probabilité de couverture, mais ne seront pas optimaux, c'est-à-dire ne seront pas les plus courts possibles. intervalle pour être aussi court que possible, nous exigeons que la densité soit identique à l'extrémité inférieure et supérieure de la ci, étant donné certaines conditions supplémentaires comme l'unimodalité. Je ne sais pas si l'utilisation de cette ci optimale changerait les choses dans cette réponse.)χ2
Comme expliqué dans les liens, , où utilise le connu signifier. Par conséquent, nous obtenons un autre intervalle de confiance valide Ici, et seront donc des quantiles de la 2_n.T′= ns20/σ2∼χ2n s20=1n∑je(Xje- μ)2
Les largeurs des intervalles de confiance sont et La largeur relative est Nous savons que car la moyenne de l' échantillon minimise la somme des écarts au carré. Au-delà de cela, je vois peu de résultats généraux concernant la largeur de l'intervalle, car je ne suis pas au courant de résultats clairs sur la façon dont les différences et les produits des quantiles supérieur et inférieur se comportent lorsque nous augmentons les degrés de liberté de un (mais voir la figure ci-dessous).
Par exemple, laisser
En utilisant le code ci-dessous, j'ai mené une petite étude de simulation suggérant que l'intervalle basé sur gagnera la plupart du temps. (Voir le lien publié dans la réponse d'Aksakal pour une rationalisation à grande échelle de ce résultat.)s20
La probabilité semble se stabiliser en , mais je ne connais pas d'explication analytique sur échantillon fini:n
La figure suivante trace contre , révélant (comme le suggère l'intuition) que le rapport tend vers 1. Comme, de plus, pour grand, la différence entre les largeurs des deux cis sera donc disparaître comme . (Voir à nouveau le lien publié dans la réponse d'Aksakal pour une rationalisation à grande échelle de ce résultat.)rn n X¯→pμ n n→∞
la source
Permettez-moi d'abord de régler le problème. Nous connaissons la population moyenne. C'est un point très important à soulever dès le début, car sans lui, nous n'aurons pas de réponse significative.
Je vais vous expliquer pourquoi. Disons que nous avons un échantillon et que nous ne connaissons pas la moyenne de la population. Nous avons un estimateur habituel de la variance:
Maintenant, on nous dit que la moyenne de la population est . Notre premier réflexe est de le brancher sur l'estimateur de variance:μ
Remarquez que c'est un estimateur différent maintenant! Il a un dénominateur différent, etc. Il a lui-même une variance différente .
Cependant, est-il juste de comparer et ? Non ce n'est pas.Var[σ] Var[σ′]
Nous devons comparer et . Autrement dit il faut comparer la variance de ces deux estimateurs conditionnée à la connaissance de la moyenne de la population! Sinon, nous tomberons dans le paradoxe de @ Scortchi.Var[σ|E[xi]=μ] Var[σ′|E[xi]=μ]
Lorsque vous avez de nouvelles informations, c'est-à-dire , vous devez les inclure dans l'estimation de ! Cela résout le paradoxe de @ Scortchi dans son commentaire directement. Les équations que j'ai vues jusqu'à présent dans les réponses n'incluent pas la connaissance de dans l'IC ou la variance de l'estimateur de variance . Dans l'exemple de @ Scortchi sachant que conduirait à une révision du CI de .E[xi]=μ Var[σ] μ σ x¯>>μ σ
Par conséquent, ma réponse ici suit la configuration que je plaisante décrite.
Oui, l'intervalle de confiance aurait été plus étroit.
D'un point de vue philosophique, la connaissance de la moyenne de la population est une information supplémentaire, donc l'incertitude doit être moindre dans ce cas.
Exemple: si votre distribution est de Poisson, alors la variance est égale à la moyenne. Par conséquent, connaître signifie que vous connaissez également la variance et l'intervalle de confiance se réduit à un point. Il n'y a pas d'intervalle.
MISE À JOUR: Regardez cet article : "Estimation d'une variance de la population avec une moyenne connue" par Zhang, 1996. Il compare l'estimation standard de la variance vs celui utilisant la connaissance de la population signifie . Il arrive à la même conclusion: la variance de la dernière estimation est plus petite que celle de la première, c'est-à-dire que l'intervalle de confiance de l'estimation de la variance serait plus étroit. Il montre également que l'avantage disparaît lorsque la taille de l'échantillon tend vers l'infini.1n−1∑i(xi−x¯)2 1n∑i(xi−μ)2
Je pense que ce document est la réponse définitive à votre question.
la source
Prolonger un peu la réponse de @Cristoph Hanck , et adapter son code…
Supposons que M. A ignore la vraie moyenne ou les statistiques, et M. B n'ignore ni l'un ni l'autre. Il peut sembler étrange, voire injuste, que M. A puisse obtenir un intervalle de confiance plus court pour la variance en utilisant le pivot que M. B en utilisant le pivot . Mais à long terme, M. B gagne dans un sens plutôt fort: ses intervalles de confiance sont stochastiquement plus étroits - pour toute largeur vous souhaitez spécifier, la proportion des IC de M. B plus étroite que est supérieure à la proportion de M. A.T T′ w w
La collecte du sous-ensemble des cas où l'IC de M. A ressort plus étroit montre que dans ces cas, il a une couverture plus faible (environ 91%); mais il le paie avec une couverture plus élevée (environ 96%) dans le sous-ensemble des cas où son intervalle sort plus large, obtenant la couverture correcte (95%) dans l'ensemble. Bien sûr, M. A ne sait pas quand ses CI dans quel sous-ensemble. Et un Mr C rusé qui connaît la vraie moyenne et sélectionne ou selon lequel les résultats dans le CI le plus étroit seront finalement exposés lorsque ses intervalles ne parviennent pas à maintenir leur couverture supposée de 95%.T T′
la source
Je ne peux pas commenter, mais la déclaration radicale d'Aksakal "connaître la moyenne de la population est une information supplémentaire, donc l'incertitude doit être plus petite dans ce cas" n'est pas évident.
Dans le cas normalement distribué, l'estimateur du maximum de vraisemblance de la variance lorsque est inconnu:μ
a une variance uniformément plus faible que
pour toutes les valeurs deμ,σ
la source