Je prends un cours d'introduction à Bayes et j'ai du mal à comprendre les distributions prédictives. Je comprends pourquoi ils sont utiles et je connais la définition, mais il y a certaines choses que je ne comprends pas très bien.
1) Comment obtenir la bonne distribution prédictive pour un vecteur de nouvelles observations
Supposons que nous ayons construit un modèle d'échantillonnage pour les données et un antérieur . Supposons que les observations soient conditionnellement indépendantes étant donné .
Nous avons observé certaines données , et nous mettons à jour notre antérieurau postérieur.
Si nous voulions prédire un vecteur de nouvelles observations , je pense que nous devrions essayer d'obtenir le prédictif postérieur en utilisant cette formule
Disons que Bêta ( a , b ) et p ( y i | θ ) ∼ Binomial ( n , θ ) pour un n fixe . Dans ce cas, si je voulais simuler 6 nouveaux ˜ y , si je comprends bien, il serait faux de simuler 6 tirages indépendamment de la distribution bêta-binomiale qui correspond à la prédiction postérieure pour une seule observation. Est-ce correct? Je ne sais pas comment interpréter que les observations ne sont pas indépendantes de façon marginale, et je ne suis pas sûr de bien comprendre cela.
Simulation à partir de prédictions postérieures
Plusieurs fois, lorsque nous simulons des données de la prédiction postérieure, nous suivons ce schéma:
Pour de 1 à B :
1) Échantillon de p ( θ | D ) .
2) Simulez ensuite de nouvelles données partir de p ( N | θ ( b ) ) .
Je ne sais pas trop comment prouver que ce schéma fonctionne, bien qu'il semble intuitif. Est-ce que cela a aussi un nom? J'ai essayé de chercher une justification et j'ai essayé différents noms, mais je n'ai pas eu de chance.
Merci!
la source
Réponses:
Supposons que sont conditionnellement indépendants étant donné que Θ = θ . Alors, f X n + 1 ∣ X 1 , … , X n ( x n + 1 ∣ x 1 , … , x n ) = ∫ f X n + 1 , Θ ∣ X 1X1, … , Xn, Xn + 1 Θ = θ = ∫ f X n + 1 ∣ Θ , X 1 , … , X n ( x n + 1 ∣ θ , x 1 , … , x n ) f Θ ∣ X 1 , … , X n ( θ ∣ x 1 , … , X n )
la source
Je vais essayer de passer en revue l'intuition derrière la génération de la distribution prédictive postérieure étape par étape.
pour s = 1,2, ..., S do
la source
la source