«Oubli» du prieur dans le cadre bayésien?

9

Il est bien connu que comme vous avez plus de preuves (par exemple sous la forme d' exemples pour n iid plus grands ), le prieur bayésien est "oublié", et la plupart des inférences sont affectées par les preuves (ou la probabilité).nn

Il est facile de le voir pour divers cas spécifiques (tels que Bernoulli avec Beta prior ou d'autres types d'exemples) - mais existe-t-il un moyen de le voir dans le cas général avec et certains p ( μ ) antérieurs ?x1,,xnp(x|μ)p(μ)

EDIT: Je suppose que cela ne peut être montré dans le cas général pour aucun précédent (par exemple, un a priori en masse ponctuelle garderait le postérieur en masse ponctuelle). Mais il y a peut-être certaines conditions dans lesquelles un prieur est oublié.

Voici le genre de "chemin" auquel je pense montrer quelque chose comme ça:

Supposons que l'espace des paramètres soit , et que p ( θ ) et q ( θ ) soient deux a priori qui placent une masse de probabilité non nulle sur tout Θ . Ainsi, les deux calculs postérieurs pour chaque montant antérieur à:Θp(θ)q(θ)Θ

p(θ|x1,,xn)=ip(xi|θ)p(θ)θip(xi|θ)p(θ)dθ

et

q(θ|x1,,xn)=ip(xi|θ)q(θ)θip(xi|θ)q(θ)dθ

pq

p(θ|x1,,xn)/q(θ|x1,,xn)=p(θ)θip(xi|θ)q(θ)dθq(θ)θip(xi|θ)p(θ)dθ

n1θ

bayesianOrFrequentist
la source
1
Pour une certaine intuition, notez que la probabilité évolue avec la taille de l'échantillon alors que l'a priori ne le fait pas.
Macro
@Macro, merci, j'ai aussi eu cette intuition, mais je n'ai pas pu pousser plus loin. Voir mes modifications ci-dessus.
bayesianOrFrequentist
Les premiers chapitres du manuel Bayoshian Nonparametrics de Ghosh et Ramamoorthi expliquent le genre de choses dont vous parlez (d'abord dans un cadre paramétrique, puis non paramétrique); il est disponible gratuitement sur Springer en ligne si vous êtes dans une institution appropriée. Il existe plusieurs façons de formaliser le manque de dépendance vis-à-vis du prieur asymptotiquement, mais il existe bien sûr quelques conditions de régularité.
gars
Notez que le rapport postérieur est juste proportionnel au rapport précédent, donc le rapport de vraisemblance ni de preuve n'influence pas vraiment cela.
probabilitéislogic

Réponses:

3

Juste une réponse approximative, mais j'espère intuitive.

  1. logP(θ|x1,,xn)=logP(θ)i=1nlogP(xi|θ)Cn
    Cn>0
    Sn=logP(θ)i=1nlogP(xi|θ)
  2. D>0logP(θ)D

  3. SnDD/Sn

Les preuves rigoureuses doivent bien sûr faire face aux détails techniques (et elles peuvent être très difficiles), mais le réglage ci-dessus est à mon humble avis la partie très basique.

Pedro A. Ortega
la source
0

Je suis quelque peu confus par ce que les déclarations «le prieur est oublié» et «la majeure partie de l'inférence est influencée par la preuve» sont censées signifier. Je suppose que vous voulez dire que lorsque la quantité de données augmente, la (séquence) d'estimateur (s) se rapproche de la vraie valeur du paramètre indépendamment de notre précédent.

θ0

E[θ^|θ0]θ0Var(θ^)p0

La convergence ne dépend pas de la forme spécifique de l'a priori, mais seulement du fait que la distribution postérieure obtenue à partir de l'a priori et la vraisemblance satisfont aux conditions de régularité.

La condition de régularité la plus importante mentionnée dans Gelman et al. Est que la probabilité soit une fonction continue du paramètre et que la vraie valeur du paramètre soit à l' intérieur de l'espace des paramètres. De plus, comme vous l'avez noté, le postérieur doit être différent de zéro dans un voisinage ouvert de la vraie valeur de la vraie valeur du paramètre. Habituellement, votre a priori doit être différent de zéro sur tout l'espace des paramètres.

caburke
la source
merci, très perspicace. J'espérais en fait un résultat qui ne serait même pas lié à la "vraie" valeur du paramètre. Juste pour montrer que techniquement, comme vous avez plus de preuves, le postérieur que vous allez obtenir est le même sans égard au prieur avec lequel vous avez commencé. Je vais apporter quelques modifications pour refléter cela.
bayesianOrFrequentist
@bayesianOrFrequentist Jetez un oeil au soi-disant théorème de la limite centrale bayésienne .
Stéphane Laurent