Je sais approximativement et officieusement ce qu'est un intervalle de confiance. Cependant, je n'arrive pas à comprendre un détail assez important: selon Wikipedia:
Un intervalle de confiance ne permet pas de prédire que la vraie valeur du paramètre a une probabilité particulière d’être dans l’intervalle de confiance compte tenu des données réellement obtenues.
J'ai également vu des remarques similaires faites à plusieurs endroits sur ce site. Une définition plus correcte, également de Wikipedia, est:
si des intervalles de confiance sont construits pour de nombreuses analyses de données d'expériences répétées (et éventuellement différentes), la proportion de tels intervalles contenant la valeur vraie du paramètre correspondra approximativement au niveau de confiance.
Encore une fois, j'ai vu des points similaires formulés à plusieurs endroits sur ce site. Je ne comprends pas. Si, dans le cadre d'expériences répétées, la fraction des intervalles de confiance calculés contenant le paramètre vrai est , alors comment la probabilité que trouve dans l'intervalle de confiance calculé pour l'expérience réelle est-elle différente de ? Je cherche ce qui suit dans une réponse:( 1 - α ) θ ( 1 - α )
Clarification de la distinction entre les définitions incorrectes et correctes ci-dessus.
Une définition formelle et précise d'un intervalle de confiance qui montre clairement pourquoi la première définition est fausse.
Un exemple concret d'un cas où la première définition est spectaculairement erronée, même si le modèle sous-jacent est correct.
la source
mu
et B) la variabilité de la moyenne de réplication autourmu
. La plupart des gens oublient A: le CI d'origine n'est pas nécessairement construit autourmu
!Réponses:
J'ai trouvé cette expérience de pensée utile lorsque je pensais aux intervalles de confiance. Cela répond également à votre question 3.
Soit et . Considérons deux observations de prenant les valeurs et correspondant aux observations et de , et prenons et . Alors est un intervalle de confiance de 50% pour (puisque l'intervalle comprend si ou , chacun d'eux ayant une probabilité ).Y = X + a - 1X∼U(0,1) Y=X+a−12 Y y1 y2 x1 x2 X yl=min(y1,y2) yu=max(y1,y2) [yl,yu] a a x1<12<x2 x1>12>x2 14
Toutefois, si alors nous savons que la probabilité que l'intervalle contient est , et non . La subtilité est qu'un intervalle de confiance pour un paramètre signifie que les extrémités de l'intervalle (qui sont des variables aléatoires) sont situées de part et d'autre du paramètre avec la probabilité avant de calculer l'intervalle , pas que la probabilité du paramètre après avoir calculé l’intervalle est compris dans l’intervalle .yu−yl>12 a 1 12 z% z% z%
la source
Il y a beaucoup de problèmes concernant les intervalles de confiance, mais concentrons-nous sur les citations. Le problème réside dans les interprétations erronées possibles plutôt que dans la rectitude. Quand les gens disent qu'un "paramètre a une probabilité particulière de" quelque chose, ils pensent que le paramètre est une variable aléatoire. Ce n'est pas le point de vue d'une procédure d'intervalle de confiance (classique), pour laquelle la variable aléatoire est l'intervalle lui-même et le paramètre est déterminé, et non aléatoire, mais inconnu. C'est pourquoi de telles déclarations sont fréquemment attaquées.
Mathématiquement, si on laisse une procédure mappant data à des sous-ensembles de l’espace de paramètre et si (quelle que soit la valeur du paramètre ), l’assertion définit un événement , alors - par définition - il a une probabilité pour toute valeur possible de . Lorsque est une procédure d'intervalle de confiance avec une confiance de alors cette probabilité est supposée avoir un infimum (sur toutes les valeurs de paramètre) det x=(xi) θ θ∈t(x) A(x) Prθ(A(x)) θ t 1−α 1−α . (En fonction de ce critère, nous sélectionnons généralement des procédures qui optimisent certaines propriétés supplémentaires, telles que la production d'intervalles de confiance courts ou symétriques, mais c'est une question distincte.) La loi des faibles nombres en grands justifie alors la deuxième citation. Ce n’est cependant pas une définition des intervalles de confiance: c’est simplement une propriété qu’ils possèdent.
Je pense que cette analyse a répondu à la question 1, montre que la prémisse de la question 2 est incorrecte et rend la question 3 sans objet.
la source
Je ne qualifierais pas la définition d'IC de fausse, mais il est facile de mal interpréter cette notion, car il existe plusieurs définitions de probabilité. Les CI sont basés sur la définition suivante de probabilité (Frequentist ou ontologique)
(1) probabilité d'une proposition = proportion à long terme de fois où cette proposition est considérée comme vraie, en fonction du processus de génération de données
Ainsi, pour être valide sur le plan conceptuel dans l’utilisation d’un CI, vous devez accepter cette définition de probabilité. Si vous ne le faites pas, alors votre intervalle n'est pas un IC, d'un point de vue théorique.
C'est pourquoi la définition a utilisé le mot proportion et PAS le mot probabilité pour indiquer clairement que la définition de la "fréquence à long terme" est utilisée.
La principale définition alternative de la probabilité (épistémologique ou probabilité comme extension de la logique déductive ou bayésienne) est
(2) probabilité d'une proposition = degré rationnel de conviction que la proposition est vraie, conditionnée à un état de connaissance
Les gens mélangent souvent intuitivement ces deux définitions et utilisent l'interprétation qui convient pour faire appel à leur intuition. Cela peut vous mettre dans toutes sortes de situations confuses (surtout lorsque vous passez d'un paradigme à l'autre).
Le fait que les deux approches aboutissent souvent au même résultat signifie que, dans certains cas, nous avons:
degré rationnel de conviction que la proposition est vraie, conditionnée à un état de connaissance = long terme, proportion de fois où cette proposition est considérée comme vraie, à la condition du processus de génération de données
Le fait est que cela ne tient pas universellement , nous ne pouvons donc pas nous attendre à ce que les deux définitions différentes conduisent toujours aux mêmes résultats. Ainsi, à moins que vous élaboriez la solution bayésienne et que vous trouviez qu'il s'agit du même intervalle, vous ne pouvez pas donner à l'intervalle donné par l'interprétation du CI l'interprétation comme une probabilité de contenir la valeur vraie. Et si vous le faites, l'intervalle n'est pas un intervalle de confiance, mais un intervalle crédible.
la source
RA Fisher avait un critère d'utilité des intervalles de confiance: un élément de configuration ne devrait pas admettre de "sous-ensembles identifiables" impliquant un niveau de confiance différent. Dans la plupart des contre-exemples (sinon tous), nous avons des cas où il existe des sous-ensembles identifiables ayant des probabilités de couverture différentes.
Dans ce cas, vous pouvez soit utiliser des intervalles de crédit bayésiens pour spécifier une indication subjective de l'emplacement du paramètre, soit vous pouvez formuler un intervalle de vraisemblance reflétant l'incertitude relative du paramètre, compte tenu des données.
Par exemple, l'intervalle de confiance normal bilatéral pour la moyenne de la population semble être relativement exempt de contradictions. En supposant un échantillonnage d'une population normale avec une donnée donnée, l'IC à 95% n'admet aucun sous-ensemble identifiable qui fournirait plus d'informations sur le paramètre. Cela se voit au fait que la moyenne de l'échantillon constitue une statistique suffisante dans la fonction de vraisemblance - c'est-à-dire que la fonction de vraisemblance est indépendante des valeurs de chaque échantillon une fois que nous connaissons la moyenne de l'échantillon.
La raison pour laquelle nous n’avons aucune confiance subjective dans l’IC symétrique à 95% pour la moyenne normale découle moins de la probabilité de couverture déclarée que du fait que l’IC symétrique de 95% pour la moyenne normale correspond à l’intervalle de "probabilité la plus élevée", c’est-à-dire les valeurs de paramètre dans l'intervalle ont une probabilité plus élevée que toute valeur de paramètre en dehors de l'intervalle. Cependant, comme la probabilité n’est pas une probabilité (au sens de précision à long terme), il s’agit plutôt d’un critère subjectif (tout comme l’utilisation bayésienne de l’antériorité et de la probabilité). En résumé, il y a une infinité d'intervalles pour la moyenne normale qui ont une probabilité de couverture de 95%, mais seul l'IC symétrique a la vraisemblance intuitive que nous attendons d'une estimation d'intervalle.
Par conséquent, le critère de RA Fisher implique que la probabilité de couverture ne doit être assimilée à une confiance subjective que si elle n'admet aucun de ces sous-ensembles identifiables. Si des sous-ensembles sont présents, la probabilité de couverture sera conditionnelle aux valeurs vraies du ou des paramètres décrivant le sous-ensemble. Pour obtenir un intervalle avec le niveau de confiance intuitif, vous devez conditionner l'estiamte d'intervalle sur les statistiques auxiliaires appropriées permettant d'identifier le sous-ensemble. OU, vous pouvez recourir à des modèles de dispersion / mélange, ce qui conduit naturellement à interpréter les paramètres comme des variables aléatoires (statistiques bayésiennes) ou à calculer les probabilités profil / conditionnelles / marginales dans le cadre de vraisemblance. Dans les deux cas, vous avez abandonné tout espoir de trouver une probabilité objectivement vérifiable d’être correcte,
J'espère que cela t'aides.
la source
D'un point de vue théorique, les questions 2 et 3 reposent sur l'hypothèse erronée que les définitions sont fausses. Donc, je suis d’accord avec la réponse de @ whuber à cet égard, et la réponse de @ whuber à la question 1 n’exige aucune autre contribution de ma part.
Toutefois, d’un point de vue plus pratique, on peut donner à un intervalle de confiance sa définition intuitive (probabilité de contenir la valeur vraie) lorsqu’il est numériquement identique à un intervalle crédible bayésien basé sur la même information (c’est-à-dire un préalable non informatif).
Mais ceci est quelque peu décourageant pour le très dur anti-bayésien, car pour vérifier les conditions permettant de donner l’interprétation qu’il veut lui donner, il doit élaborer la solution bayésienne, pour laquelle l’interprétation intuitive tient automatiquement!
L'exemple le plus simple est un intervalle de confiance pour la moyenne normale avec une variance connue et un intervalle crédible postérieur .¯ x ± σ Z α / 2 1 - α ¯ x ± σ Z α / 21−α x¯¯¯±σZα/2 1−α x¯¯¯±σZα/2
Je ne suis pas tout à fait sûr des conditions, mais je sais que les éléments suivants sont importants pour l'interprétation intuitive des éléments de configuration:
1) il existe une statistique de pivot, dont la distribution est indépendante des paramètres (existe-t-il des pivots exacts en dehors des distributions normale et khi-carré?)
2) il n’existe aucun paramètre de nuisance (sauf dans le cas d’une statistique pivot, qui est l’un des rares moyens exacts dont on dispose pour gérer les paramètres de nuisance lorsqu’on établit des CI)
3) il existe une statistique suffisante pour le paramètre d’intérêt et l’intervalle de confiance utilise la statistique suffisante
4) la distribution d'échantillonnage de la statistique suffisante et la distribution postérieure présentent une sorte de symétrie entre la statistique suffisante et le paramètre. Dans le cas normal, la distribution d'échantillonnage dans laquelle se trouve la symétrie tandis que .(u|¯x,σ)~N(¯x,σ(x¯¯¯|μ,σ)∼N(μ,σn√) (μ|x¯¯¯,σ)∼N(x¯¯¯,σn√)
Ces conditions sont généralement difficiles à trouver et il est généralement plus rapide de calculer et de comparer l’intervalle bayésien. Un exercice intéressant peut également consister à essayer de répondre à la question "pour quel antécédent mon IC est-il également un intervalle crédible?" Vous découvrirez peut-être certaines hypothèses cachées à propos de votre procédure d'EC en consultant cette version antérieure.
la source
C'est une chose qui peut être difficile à comprendre:
Un intervalle de confiance se rapporte à la procédure d'échantillonnage. Si vous preniez plusieurs échantillons et calculiez un intervalle de confiance de 95% pour chaque échantillon, vous constateriez que 95% de ces intervalles contiennent la moyenne de la population.
Ceci est utile par exemple pour les services qualité industriels. Ces gars-là prélèvent de nombreux échantillons et ils ont maintenant la certitude que la plupart de leurs estimations seront assez proches de la réalité. Ils savent que 95% de leurs estimations sont assez bonnes, mais ils ne peuvent pas en dire autant de chaque estimation spécifique.
Comparez cela à lancer des dés: si vous lancez 600 dés (équitables), combien en lancerez-vous? Votre meilleure estimation est * 600 = 100.16
Cependant, si vous avez jeté UN dé, il est inutile de dire: "Il y a une probabilité de 1/6 ou de 16,6% que j'ai jeté un 6". Pourquoi? Parce que le dé montre soit un 6, soit un autre chiffre. Vous avez lancé un 6 ou pas. La probabilité est donc 1 ou 0. La probabilité ne peut pas être .16
Quand on lui demandait avant le lancer quelle serait la probabilité de lancer un 6 avec UN dé, un Bayésien répondrait " " (selon des informations antérieures: tout le monde sait qu'un dé a 6 côtés et une chance égale tomber sur l’un d’eux), mais un Frequentist dira "Aucune idée" car le fréquentisme est basé uniquement sur les données, et non sur des a priori ou des informations extérieures.16
De même, si vous n'avez qu'un seul échantillon (donc un intervalle de confiance), vous n'avez aucun moyen de dire quelle est la probabilité que la moyenne de la population se situe dans cet intervalle. La moyenne (ou n'importe quel paramètre) y est, ou pas. La probabilité est 1 ou 0.
En outre, il n’est pas correct de dire que les valeurs comprises dans l’intervalle de confiance sont plus susceptibles que celles situées en dehors de cet intervalle. J'ai fait une petite illustration; tout est mesuré en ° C. N'oubliez pas que l'eau gèle à 0 ° C et bout à 100 ° C.
Le cas: dans un lac froid, nous aimerions estimer la température de l’eau qui coule sous la glace. Nous mesurons la température dans 100 endroits. Voici mes données:
Les températures comprises dans cet intervalle de confiance NE SONT certainement PAS plus probables que celles situées en dehors de celui-ci. La température moyenne de l'eau qui coule dans ce lac NE PEUT PAS être plus froide que 0 ° C, sinon ce ne serait pas de l'eau mais de la glace. Une partie de cet intervalle de confiance (à savoir la section de -0,8 à 0) a en fait une probabilité de 0% de contenir le paramètre vrai.
En conclusion: les intervalles de confiance sont un concept fréquentiste et sont donc basés sur l'idée d'échantillons répétés. Si de nombreux chercheurs prélèvent des échantillons de ce lac et que tous ces chercheurs calculent des intervalles de confiance, 95% de ces intervalles contiendront le vrai paramètre. Mais pour un seul intervalle de confiance, il est impossible de dire quelle est la probabilité qu'il contienne le vrai paramètre.
la source
OK, je réalise que lorsque vous calculez un intervalle de confiance de 95% pour un paramètre à l'aide de méthodes fréquentistes classiques, cela ne signifie pas qu'il existe une probabilité de 95% que le paramètre se situe dans cet intervalle. Et pourtant ... lorsque vous abordez le problème d'un point de vue bayésien et que vous calculez un intervalle crédible à 95% pour le paramètre, vous obtenez (en supposant un préalable non informatif) exactement le même intervalle que celui obtenu avec l'approche classique. Donc, si j'utilise des statistiques classiques pour calculer l'intervalle de confiance à 95% de (par exemple) la moyenne d'un ensemble de données, il est vrai qu'il existe une probabilité de 95% que le paramètre se situe dans cet intervalle.
la source
Vous parlez de l' intervalle de confiance Frequentist . La définition (notez qu'aucune de vos 2 citations n'est une définition! Juste des déclarations, qui sont toutes les deux correctes) est la suivante:
Vous avez donc un modèle (construit à partir de vos données observées) et ses paramètres estimés. Ensuite, si vous générez des ensembles de données hypothétiques en fonction de ce modèle et de ces paramètres, les paramètres estimés tomberont dans l’intervalle de confiance.
Donc, en fait, cette approche fréquentiste considère le modèle et les paramètres estimés comme figés, et traite vos données comme incertaines - en tant qu’échantillon aléatoire de nombreuses autres données possibles.
C’est vraiment difficile à interpréter et cela est souvent utilisé comme argument pour les statistiques bayésiennes ( ce qui, je pense, peut parfois être un peu discutable . Les statistiques bayésiennes, en revanche, prennent vos données comme fixes et traitent les paramètres comme incertains. Les intervalles crédibles bayésiens sont: alors, en fait, intuitif, comme on pouvait s’y attendre: les intervalles bayésiens dignes de foi sont des intervalles où, à 95%, se trouve la valeur réelle du paramètre.
Mais dans la pratique, beaucoup de gens interprètent les intervalles de confiance fréquentistes de la même manière que les intervalles crédibles bayésiens et de nombreux statisticiens ne considèrent pas cela comme un gros problème - bien qu'ils le sachent tous, ce n'est pas exact à 100%. De même, dans la pratique, les intervalles confianceiste / bayésien / crédibles fréquentistes et les intervalles crédibles ne seront pas très différents lors de l'utilisation de priors bayésiens non informatifs .
la source
Supposons que nous sommes dans une situation simple. Vous avez un paramètre inconnu et un estimateur de qui a une imprécision autour de 1 (informellement). Vous pensez (de manière informelle) que devrait être dans plus souvent.θ T θ θ [T−1;T+1]
Dans une expérience réelle, vous observez .T=12
Il est naturel de poser la question "Étant donné ce que je vois ( ), quelle est la probabilité ?". Mathématiquement: . Tout le monde pose naturellement cette question. La théorie des intervalles de confiance devrait logiquement répondre à cette question. Mais ce n'est pas le cas.T=12 θ∈[11;13] P(θ∈[11;13]|T=12)
Les statistiques bayésiennes répondent à cette question. En statistique bayésienne, vous pouvez vraiment calculer . Mais vous devez prendre un avant qui est une distribution pour avant de faire l'expérience et l' observation . Par exemple :P(θ∈[11;13]|T=12) θ T
Mais dans les statistiques fréquentistes, il n’existe pas de prieur et il n’existe donc rien de semblable à . Au lieu de cela, les statisticiens disent quelque chose comme ceci: "Quoi que soit , la probabilité que soit de ". Mathématiquement: "P(θ∈...|T∈...) θ θ∈[T−1;T+1] 0.95 ∀θ,P(θ∈[T−1;T+1]|θ)=0.95
Alors :
La déclaration bayésienne est plus naturelle. Le plus souvent, la déclaration fréquentiste est mal interprétée spontanément comme la déclaration bayésienne (par tout cerveau humain normal qui n'a pas pratiqué la statistique depuis des années). Et honnêtement, beaucoup de statistiques ne rendent pas ce point très clair.
Et pratiquement?
Dans de nombreuses situations habituelles, le fait est que les probabilités obtenues par les approches fréquentiste et bayésienne sont très proches. Donc, confondre la déclaration fréquentiste pour la déclaration bayésienne n’a que peu de conséquences. Mais "philosophiquement", c'est très différent.
la source