À partir de la page Wikipedia sur les intervalles de confiance :
... si des intervalles de confiance sont construits sur de nombreuses analyses de données distinctes d'expériences répétées (et éventuellement différentes), la proportion de ces intervalles qui contiennent la vraie valeur du paramètre correspondra au niveau de confiance ...
Et à partir de la même page:
Un intervalle de confiance ne prévoit pas que la vraie valeur du paramètre a une probabilité particulière d'être dans l'intervalle de confiance compte tenu des données réellement obtenues.
Si j'ai bien compris, cette dernière affirmation est faite en ayant à l'esprit l'interprétation fréquentiste de la probabilité. Cependant, du point de vue de la probabilité bayésienne, pourquoi un intervalle de confiance à 95% ne contient-il pas le vrai paramètre avec une probabilité de 95%? Et si ce n'est pas le cas, quel est le problème avec le raisonnement suivant?
Si j'ai un processus qui, je le sais, produit une réponse correcte dans 95% des cas, la probabilité que la réponse suivante soit correcte est de 0,95 (étant donné que je n'ai pas d'informations supplémentaires concernant le processus). De même, si quelqu'un me montre un intervalle de confiance créé par un processus qui contiendra le vrai paramètre 95% du temps, ne devrais-je pas avoir raison de dire qu'il contient le vrai paramètre avec une probabilité de 0,95, étant donné ce que je sais?
Cette question est similaire, mais pas la même que, Pourquoi un IC à 95% n'implique-t-il pas une chance de 95% de contenir la moyenne? Les réponses à cette question se sont concentrées sur les raisons pour lesquelles un IC à 95% n'implique pas une probabilité de 95% de contenir la moyenne d'un point de vue fréquentiste. Ma question est la même, mais dans une perspective de probabilité bayésienne.
la source
Réponses:
Mise à jour : Avec le recul de quelques années, j'ai rédigé un traitement plus concis essentiellement du même matériau en réponse à une question similaire.
Comment construire une région de confiance
Commençons par une méthode générale de construction des régions de confiance. Il peut être appliqué à un seul paramètre, pour produire un intervalle de confiance ou un ensemble d'intervalles; et il peut être appliqué à deux paramètres ou plus, pour produire des régions de confiance dimensionnelles plus élevées.
Nous affirmons que les statistiques observéesD proviennent d'une distribution avec les paramètres θ , à savoir la distribution d'échantillonnage s(d|θ) sur les statistiques possibles d , et cherchons une région de confiance pour θ dans l'ensemble des valeurs possibles Θ . Définissez une région à plus haute densité (HDR): le h -HDR d'un PDF est le plus petit sous-ensemble de son domaine qui prend en charge la probabilité h . Notons le h -HDR de s(d|ψ) comme Hψ , pour tout ψ∈Θ . Ensuite, larégion de confianceh pourθ , étant donné les donnéesD , est l'ensembleCD={ϕ:D∈Hϕ} . Une valeur typique deh serait 0,95.
Une interprétation fréquentiste
De la définition précédente d'une région de confiance suitd∈Hψ⟷ψ∈Cd
avec Cd={ϕ:d∈Hϕ} . Maintenant , imaginez un grand nombre de ( imaginaires observations) {Di} , pris dans des circonstances similaires à D . ie Ce sont des échantillons de s(d|θ) . Puisque Hθ supporte la masse de probabilité h des PDF s(d|θ) ,P(Di∈Hθ)=h pour touti . Par conséquent, la fraction de{Di} pour laquelleréje∈ Hθ esth . Et donc, en utilisant l'équivalence ci-dessus, la fraction de{ Dje} pour laquelleθ ∈ Créje est égalementh .
C'est donc ce que la revendication fréquentiste pour la région de confianceh pour θ équivaut à:
La région de confianceCré ne prétend donc pas à la probabilité que θ se situe quelque part! La raison en est simplement qu'il n'y a rien dans la fomulation qui nous permette de parler d'une distribution de probabilité sur θ . L'interprétation est juste une superstructure élaborée, qui n'améliore pas la base. La base n'est que s ( d| θ) et ré , où θ n'apparaît pas comme une quantité distribuée, et il n'y a aucune information que nous pouvons utiliser pour y remédier. Il existe essentiellement deux façons d'obtenir une distribution sur θ :
Dans les deux cas,θ doit apparaître quelque part à gauche. Les fréquencistes ne peuvent utiliser aucune des deux méthodes, car elles nécessitent toutes deux un préalable hérétique.
Une vue bayésienne
Tout ce qu'un bayésien peut faire de la région de confianceh CD , donnée sans qualification, est simplement l'interprétation directe: que c'est l'ensemble de ϕ pour lequel D tombe dans le h -HDR Hϕ de la distribution d'échantillonnage s(d|ϕ) . Cela ne nous dit pas nécessairement grand-chose sur θ , et voici pourquoi.
La probabilité queθ∈CD , étant donné D et les informations de base I , soit:
P( θ ∈ Cré| DI)= ∫Crép ( θ | D I) dθ= ∫Crép ( D | θ I) p ( θ | I)p(D|I)dθ
Notez que, contrairement à l'interprétation fréquentiste, nous avons immédiatement demandé une distribution surθ . L'information de baseI nous dit, comme précédemment, que la distribution d'échantillonnage ests(d|θ) :
P(θ∈CD|DI)i.e.P(θ∈CD|DI)=∫CDs(D|θ)p(θ|I)p(D|I)dθ=∫CDs(D|θ)p(θ|I)dθp(D|I)=∫CDs(D|θ)p(θ|I)dθ∫s(D|θ)p(θ|I)dθ
Or, cette expression n'évalue généralement pas enh , c'est-à-dire que larégion de confianceh CD ne contient pas toujoursθ de probabilitéh . En fait, il peut être très différent deh . Il existe cependant de nombreuses situations courantes dans lesquelles ilestévalué àh , c'est pourquoi les régions de confiance sont souvent cohérentes avec nos intuitions probabilistes.
Par exemple, supposons que le joint PDF antérieur ded et θ soit symétrique en ce que pd,θ(d,θ|I)=pd,θ(θ,d|I) . (Cela implique clairement une hypothèse selon laquelle le PDF s'étend sur le même domaine en d et θ .) Ensuite, si l'a priori est p(θ|I)=f(θ) , nous avons s(D|θ)p(θ|I)=s(D|θ)f(θ)=s(θ|D)f(D) . D'où
P(θ∈CD|DI)i.e.P(θ∈CD|DI)=∫CDs(θ|D)dθ∫s(θ|D)dθ=∫CDs(θ|D)dθ
D'après la définition d'un HDR, nous savons que pour toutψ∈Θ
∫Hψs(d|ψ)ddand therefore that∫HDs(d|D)ddor equivalently∫HDs(θ|D)dθ=h=h=h
Therefore, given that s(d|θ)f(θ)=s(θ|d)f(d) , CD=HD implies P(θ∈CD|DI)=h . The antecedent satisfies
CD=HD⟷∀ψ[ψ∈CD↔ψ∈HD]
Applying the equivalence near the top:
CD=HD⟷∀ψ[D∈Hψ↔ψ∈HD]
Thus, the confidence region CD contains θ with probability h if for all possible values ψ of θ , the h -HDR of s(d|ψ) contains D if and only if the h -HDR of s(d|D) contains ψ .
Now the symmetric relationD∈Hψ↔ψ∈HD is satisfied for all ψ when s(ψ+δ|ψ)=s(D−δ|D) for all δ that span the support of s(d|D) and s(d|ψ) . We can therefore form the following argument:
Let's apply the argument to a confidence interval on the mean of a 1-D normal distribution(μ,σ) , given a sample mean x¯ from n measurements. We have θ=μ and d=x¯ , so that the sampling distribution is
s(d|θ)=n−−√σ2π−−√e−n2σ2(d−θ)2
Suppose also that we know nothing about θ before taking the data (except that it's a location parameter) and therefore assign a uniform prior: f(θ)=k . Clearly we now have s(d|θ)f(θ)=s(θ|d)f(d) , so the first premise is satisfied. Let s(d|θ)=g((d−θ)2) . (i.e. It can be written in that form.) Then
s(ψ+δ|ψ)=g((ψ+δ−ψ)2)=g(δ2)ands(D−δ|D)=g((D−δ−D)2)=g(δ2)so that∀ψ∀δ[s(ψ+δ|ψ)=s(D−δ|D)]
whereupon the second premise is satisfied. Both premises being true, the eight-point argument leads us to conclude that the probability that θ lies in the confidence interval CD is h !
We therefore have an amusing irony:
Final Remarks
We have identified conditions (i.e. the two premises) under which theh confidence region does indeed yield probability h that θ∈CD . A frequentist will baulk at the first premise, because it involves a prior on θ , and this sort of deal-breaker is inescapable on the route to a probability. But for a Bayesian, it is acceptable---nay, essential. These conditions are sufficient but not necessary, so there are many other circumstances under which the Bayesian P(θ∈CD|DI) equals h . Equally though, there are many circumstances in which P(θ∈CD|DI)≠h , especially when the prior information is significant.
We have applied a Bayesian analysis just as a consistent Bayesian would, given the information at hand, including statisticsD . But a Bayesian, if he possibly can, will apply his methods to the raw measurements instead---to the {xi} , rather than x¯ . Oftentimes, collapsing the raw data into summary statistics D destroys information in the data; and then the summary statistics are incapable of speaking as eloquently as the original data about the parameters θ .
la source
Two answers to this, the first being less helpful than the second
There are no confidence intervals in Bayesian statistics, so the question doesn't pertain.
In Bayesian statistics, there are however credible intervals, which play a similar role to confidence intervals. If you view priors and posteriors in Bayesian statistics as quantifying the reasonable belief that a parameter takes on certain values, then the answer to your question is yes, a 95% credible interval represents an interval within which a parameter is believed to lie with 95% probability.
yes, the process guesses a right answer with 95% probability
Just the same as your process, the confidence interval guesses the correct answer with 95% probability. We're back in the world of classical statistics here: before you gather the data you can say there's a 95% probability of randomly gathered data determining the bounds of the confidence interval such that the mean is within the bounds.
With your process, after you've gotten your answer, you can't say based on whatever your guess was, that the true answer is the same as your guess with 95% probability. The guess is either right or wrong.
And just the same as your process, in the confidence interval case, after you've gotten the data and have an actual lower and upper bound, the mean is either within those bounds or it isn't, i.e. the chance of the mean being within those particular bounds is either 1 or 0. (Having skimmed the question you refer to it seems this is covered in much more detail there.)
There are a couple of ways of looking at this
Technically, the confidence interval hasn't been produced using a prior and Bayes theorem, so if you had a prior belief about the parameter concerned, there would be no way you could interpret the confidence interval in the Bayesian framework.
Another widely used and respected interpretation of confidence intervals is that they provide a "plausible range" of values for the parameter (see, e.g., here). This de-emphasises the "repeated experiments" interpretation.
Moreover, under certain circumstances, notably when the prior is uninformative (doesn't tell you anything, e.g. flat), confidence intervals can produce exactly the same interval as a credible interval. In these circumstances, as a Bayesianist you could argue that had you taken the Bayesian route you would have gotten exactly the same results and you could interpret the confidence interval in the same way as a credible interval.
la source
I'll give you an extreme example where they are different.
Suppose I create my 95% confidence interval for a parameterθ as follows. Start by sampling the data. Then generate a random number between 0 and 1 . Call this number u . If u is less than 0.95 then return the interval (−∞,∞) . Otherwise return the "null" interval.
Now over continued repititions, 95% of the CIs will be "all numbers" and hence contain the true value. The other 5% contain no values, hence have zero coverage. Overall, this is a useless, but technically correct 95% CI.
The Bayesian credible interval will be either 100% or 0%. Not 95%.
la source
" Du point de vue de la probabilité bayésienne, pourquoi un intervalle de confiance à 95% ne contient-il pas le vrai paramètre avec une probabilité de 95%? "
Dans les statistiques bayésiennes, le paramètre n'est pas une valeur inconnue, c'est une distribution. Il n'y a pas d'intervalle contenant la "vraie valeur", pour un point de vue bayésien cela n'a même pas de sens. Le paramètre est une variable aléatoire, vous pouvez parfaitement connaître la probabilité que cette valeur soit comprise entre x_inf et x_max si vous connaissez la distribution. C'est juste un état d'esprit différent sur les paramètres, généralement les Bayésiens ont utilisé la valeur médiane ou moyenne de la distribution du paramètre comme une "estimation". Il n'y a pas d'intervalle de confiance dans les statistiques bayésiennes, quelque chose de similaire est appelé intervalle de crédibilité .
Maintenant, d'un point de vue fréquenciste, le paramètre est une "valeur fixe", pas une variable aléatoire, pouvez-vous vraiment obtenir un intervalle de probabilité (95%)? N'oubliez pas qu'il s'agit d'une valeur fixe et non d'une variable aléatoire avec une distribution connue. C'est pourquoi vous avez passé le texte : "Un intervalle de confiance ne prédit pas que la vraie valeur du paramètre a une probabilité particulière d'être dans l'intervalle de confiance compte tenu des données réellement obtenues."
L'idée de répéter l'expérience encore et encore ... n'est pas un raisonnement bayésien, c'est un fréquenciste. Imaginez une véritable expérience en direct que vous ne pouvez faire qu'une seule fois dans votre vie, pouvez-vous / devriez-vous construire cet intervalle de confiance (du point de vue classique)?.
But... in real life the results could get pretty close ( Bayesian vs Frequencist), maybe thats why It could be confusing.
la source