En supposant que je prenne la moyenne de la distribution postérieure plutôt qu'un échantillon aléatoire, est-ce ce que l'on appelle communément Rao-Blackwellization?
Je ne connais pas très bien les modèles de volatilité stochastique, mais je sais que dans la plupart des contextes, la raison pour laquelle nous choisissons les algorithmes de Gibbs ou MH pour dessiner à partir du postérieur, c'est parce que nous ne connaissons pas le postérieur. Souvent, nous voulons estimer la moyenne postérieure, et comme nous ne connaissons pas la moyenne postérieure, nous prélevons des échantillons sur la partie postérieure et l'estimons en utilisant la moyenne de l'échantillon. Donc, je ne sais pas comment vous pourrez prendre la moyenne de la distribution postérieure.
L'estimateur Rao-Blackwellized dépend plutôt de la connaissance de la moyenne du conditionnel complet; mais même dans ce cas, l'échantillonnage est toujours nécessaire. J'explique plus ci-dessous.
Supposons que la distribution postérieure soit définie sur deux variables, θ=(μ,ϕ), de sorte que vous souhaitez estimer la moyenne postérieure: E[θ∣data]. Maintenant, si un échantillonneur Gibbs était disponible, vous pouvez l'exécuter ou exécuter un algorithme MH pour échantillonner à partir de la partie postérieure.
Si vous pouvez exécuter un échantillonneur Gibbs, alors vous savez f(ϕ∣μ,data)sous forme fermée et vous connaissez la moyenne de cette distribution. Que cela signifieϕ∗. Notez queϕ∗ est fonction de μ et les données.
Cela signifie également que vous pouvez intégrer ϕ du postérieur, donc le postérieur marginal de μ est f(μ∣data)(ce n'est pas connu complètement, mais connu jusqu'à une constante). Vous voulez maintenant exécuter une chaîne de Markov telle quef(μ∣data)est la distribution invariante, et vous obtenez des échantillons de cette marge marginale. La question est
Comment pouvez-vous maintenant estimer la moyenne postérieure de ϕ en utilisant uniquement ces échantillons de la partie postérieure marginale de μ?
Cela se fait via Rao-Blackwellization.
E[ϕ∣data]=∫ϕf(μ,ϕ∣data)dμdϕ=∫ϕf(ϕ∣μ,data)f(μ∣data)dμdϕ=∫ϕ∗f(μ∣data)dμ.
Supposons donc que nous ayons obtenu des échantillons X1,X2,…XN du postérieur marginal de μ. alors
ϕ^=1N∑i=1Nϕ∗(Xi),
est appelé l'estimateur Rao-Blackwellized pour ϕ. La même chose peut être faite en simulant également à partir des marginaux conjoints.
Exemple (purement pour démonstration).
Supposons que vous ayez une articulation postérieure inconnue θ=(μ,ϕ)à partir de laquelle vous souhaitez échantillonner. Vos données en sontyet vous disposez des conditions complètes suivantes
μ∣ϕ,y∼N(ϕ2+2y,y2)
ϕ∣μ,y∼Gamma(2μ+y,y+1)
Vous exécutez l'échantillonneur Gibbs à l'aide de ces conditions et vous avez obtenu des échantillons de l'articulation postérieure f(μ,ϕ∣y). Que ces échantillons soient(μ1,ϕ1),(μ2,ϕ2),…,(μN,ϕN). Vous pouvez trouver la moyenne de l'échantillon de laϕs, et ce serait l'estimateur de Monte Carlo habituel pour la moyenne postérieure pour ϕ..
Ou, notez que par les propriétés de la distribution Gamma
E[ϕ|μ,y]=2μ+yy+1=ϕ∗.
Ici ysont les données qui vous sont données et sont donc connues. L'estimateur Rao Blackwellized serait alors
ϕ^=1N∑i=1N2μi+yy+1.
Remarquez comment l'estimateur de la moyenne postérieure de ϕ n'utilise même pas le ϕ échantillons, et utilise uniquement le μéchantillons. Dans tous les cas, comme vous pouvez le voir, vous utilisez toujours les échantillons que vous avez obtenus d'une chaîne de Markov. Ce n'est pas un processus déterministe.
L'échantillonneur Gibbs peut ensuite être utilisé pour améliorer l'efficacité (par exemple) des échantillons à partir d'un postérieur marginal, appelez-leπ2(θ2| y) . Remarque
Ceci est intéressant en raison du lemme de décomposition de la variance
Exemple
SupposerX et Oui sont normaux bivariés avec des moyennes nulles, des variances 1 et une corrélation ρ . C'est,
Étant donné certainsM réalisations de ( X, Y) l'estimation "Rao-Blackwell" de la densité de Oui à y alors c'est
Nous observons que l'estimation RB fait beaucoup mieux (car elle exploite les informations conditionnelles):
la source