Dans une implémentation MCMC de modèles hiérarchiques, avec des effets aléatoires normaux et un Wishart antérieur pour leur matrice de covariance, l'échantillonnage de Gibbs est généralement utilisé.
Cependant, si nous changeons la distribution des effets aléatoires (par exemple, vers Student's-t ou un autre), la conjugaison est perdue. Dans ce cas, quelle serait une distribution de proposition appropriée (c'est-à-dire facilement ajustable) pour la matrice de covariance des effets aléatoires dans un algorithme de Metropolis-Hastings, et quel devrait être le taux d'acceptation cible, là encore 0,234?
Merci d'avance pour tout pointeur.
la source
J'utilise personnellement les propositions de Wishart. Par exemple, si je veux une propositionΣ∗ environ Σ , J'utilise:
Σ∗∼ W( Σ / a , a ) ,
où une est un grand nombre, comme 1000. Avec cette astuce, vous obtiendrez E[Σ∗] = Σ et vous pouvez ajuster la variance avec une . Si je ne me trompe pas, le ratio des propositions de( p × p ) matrices a une forme fermée:
q( Σ →Σ∗)q(Σ∗→ Σ )=(|Σ∗|| Σ |)a - ( p - 1 ) / 2⋅e[ t r (Σ∗- 1Σ ) - t r (Σ- 1Σ∗) ] ⋅ a / 2
la source
Il est bien connu que si vous utilisez des distributions non gaussiennes, la conjugaison du modèle est perdue, voir:
http://www.utstat.toronto.edu/wordpress/WSFiles/technicalreports/0610.pdf
Ensuite, vous devez utiliser d'autres méthodes MCMC, telles que Metropolis dans l'échantillonnage de Gibbs ou une version adaptative de celui-ci. Heureusement, il existe un package R pour le faire:
http://cran.r-project.org/web/packages/spBayes/index.html
Le taux d'acceptation recommandé est de 0,44 mais, bien sûr, certaines hypothèses se cachent derrière ce nombre, tout comme dans le cas du 0,234.
Êtes-vous LE Dimitris Rizopoulos?
la source
Toute proposition peut être utilisée si vous définissez correctement votre log-postérieur. Il vous suffit d'utiliser quelques astuces pour l'implémenter et définir correctement le support de votre postérieur, voir:
Comment trouver le support de la distribution postérieure pour appliquer l'algorithme MCMC de Metropolis-Hastings?
Il existe des tonnes d'exemples où une proposition gaussienne peut être utilisée pour les postérieurs tronqués. Ce n'est qu'une astuce d'implémentation. Encore une fois, vous posez une question sans solution générale. Certaines propositions ont même des performances différentes pour le même modèle et différents ensembles de données.
Bonne chance.
la source