Comprendre les distributions prédictives bayésiennes

9

Je prends un cours d'introduction à Bayes et j'ai du mal à comprendre les distributions prédictives. Je comprends pourquoi ils sont utiles et je connais la définition, mais il y a certaines choses que je ne comprends pas très bien.

1) Comment obtenir la bonne distribution prédictive pour un vecteur de nouvelles observations

Supposons que nous ayons construit un modèle d'échantillonnage p(yje|θ) pour les données et un antérieur p(θ). Supposons que les observations yje soient conditionnellement indépendantes étant donné θ .

Nous avons observé certaines données ={y1,y2,...,yk} , et nous mettons à jour notre antérieurp(θ)au postérieurp(θ|).

Si nous voulions prédire un vecteur de nouvelles observations N={y~1,y~2,...,y~n} , je pense que nous devrions essayer d'obtenir le prédictif postérieur en utilisant cette formule

p(N|)=p(θ|)p(N|θ)θ=p(θ|)je=1np(y~je|θ)θ,
qui n'est pas égal à
je=1np(θ|)p(y~je|θ)θ,
donc les observations prévues ne sont pas indépendantes, non?

Disons que Bêta ( a , b ) et p ( y i | θ ) Binomial ( n , θ ) pour un n fixe . Dans ce cas, si je voulais simuler 6 nouveaux ˜ y , si je comprends bien, il serait faux de simuler 6 tirages indépendamment de la distribution bêta-binomiale qui correspond à la prédiction postérieure pour une seule observation. Est-ce correct? Je ne sais pas comment interpréter que les observations ne sont pas indépendantes de façon marginale, et je ne suis pas sûr de bien comprendre cela.θ|une,bp(yje|θ)n,θny~

Simulation à partir de prédictions postérieures

Plusieurs fois, lorsque nous simulons des données de la prédiction postérieure, nous suivons ce schéma:

Pour de 1 à B :bB

1) Échantillon de p ( θ | D ) .θ(b)p(θ|)

2) Simulez ensuite de nouvelles données partir de p ( N | θ ( b ) ) .N(b)p(N|θ(b))

Je ne sais pas trop comment prouver que ce schéma fonctionne, bien qu'il semble intuitif. Est-ce que cela a aussi un nom? J'ai essayé de chercher une justification et j'ai essayé différents noms, mais je n'ai pas eu de chance.

Merci!

Fred L.
la source
J'ai posé une question similaire sur stats.stackexchange.com/questions/72570/… mais il semble que la vôtre ait reçu plus de votes jusqu'à présent.
John

Réponses:

4

Supposons que sont conditionnellement indépendants étant donné que Θ = θ . Alors, f X n + 1X 1 , , X n ( x n + 1x 1 , , x n ) = f X n + 1 , Θ X 1X1,,Xn,Xn+1Θ=θ= f X n + 1Θ , X 1 , , X n ( x n + 1θ , x 1 , , x n ) f Θ X 1 , , X n ( θ x 1 , , X n )

FXn+1X1,,Xn(Xn+1X1,,Xn)=FXn+1,ΘX1,,Xn(Xn+1,θX1,,Xn)θ
= f X n + 1Θ ( x n + 1θ ) f Θ X 1 , , X n ( θ x 1 , , x n )
=FXn+1Θ,X1,,Xn(Xn+1θ,X1,,Xn)FΘX1,,Xn(θX1,,Xn)θ
dans laquelle la première égalité découle de la loi de probabilité totale, la seconde découle de la règle du produit et la troisième de l'indépendance conditionnelle supposée: étant donné la valeur de Θ , nous n'avons pas besoin des valeurs de X 1 , , X n pour déterminer la distribution de X n + 1 .
=FXn+1Θ(Xn+1θ)FΘX1,,Xn(θX1,,Xn)θ,
ΘX1,,XnXn+1

je=1,,Nθ(je)ΘX1=X1,,Xn=XnXn+1(je)Xn+1Θ=θ(je){Xn+1(je)}je=1NXn+1X1=X1,,Xn=Xn

Zen
la source
θ(je)Xn+j
2

Je vais essayer de passer en revue l'intuition derrière la génération de la distribution prédictive postérieure étape par étape.

yp(y|θ)y~y~yθθθp(θ|y)y~yθy

p(y~|θ,y)=p(y~,y|θ)p(θ)p(θ,y)=p(y~|θ)p(y|θ)p(θ)p(y|θ)p(θ)=p(y~|θ).

y~

p(y~|y)=Θp(y~|θ,y)p(θ|y)θ=Θp(y~|θ)p(θ|y)θ

Θθ

p(y~|y)


pour s = 1,2, ..., S do

θ(s)p(θ|y)

y~(s)p(y~|θ(s))


p(θ|y)

p(y~,θ|y)=p(y~|θ,y)p(θ|y)θ(s)p(θ|y)y~(s)p(y~|θ(s))=p(y~|θ(s),y)p(y~,θ|y)y~(s),s=1,2,...,Sp(y~|y)

baruuum
la source
1

θy~1θ

hr0nix
la source