Je passais par quelques conférences liées à MCMC. Cependant, je ne trouve pas un bon exemple de la façon dont il est utilisé. Quelqu'un peut-il me donner un exemple concret? Tout ce que je peux voir, c'est qu'ils dirigent une chaîne de Markov et disent que sa distribution stationnaire est la distribution souhaitée.
Je veux un bon exemple où la distribution souhaitée est difficile à échantillonner. Nous créons donc une chaîne de Markov. Je veux savoir comment sélectionner la matrice de transition pour que sa distribution stationnaire, de la chaîne de Markov soit la distribution cible Merci
probability
bayesian
mcmc
markov-process
user34790
la source
la source
Réponses:
Un bon exemple de distribution difficile à échantillonner est le modèle Hard-Core, voir cette page pour un aperçu:
http://www.mathematik.uni-ulm.de/stochastik/lehre/ss06/markov/skript_engl/node34.html
Ce modèle définit une distribution sur grilles pour certains n fixes , où à chaque point de la grille vous pouvez avoir une valeur de un ou zéro. Pour qu'une grille soit admissible sous le modèle de noyau dur, deux points adjacents sur la grille ne peuvent pas tous deux avoir une valeur de 1.n×n n
L'image ci-dessous montre un exemple de configuration admissible pour une grille sous le modèle à noyau dur. Dans cette image, les uns sont représentés par des points noirs et les zéros par des blancs. Notez que deux points noirs ne sont pas adjacents.8×8
Je crois que l'inspiration pour ce modèle vient de la physique, vous pouvez penser que chaque position dans la grille est une particule, et la valeur à cette position représentant la charge électrique, ou le spin.
Nous voulons échantillonner uniformément à partir de la population de grilles admissibles, c'est-à-dire si est l'ensemble des grilles admissibles, nous voulons échantillonner e ∈ E de telle sorte queE e∈E
où est le nombre de toutes les configurations possibles admissibles.|E|
Cela représente déjà un défi, étant donné que nous considérons grilles, comment pouvons-nous déterminer | E | le nombre de grilles admissibles?n×n |E|
L'une des bonnes choses à propos de MCMC, c'est qu'il vous permet d'échantillonner à partir de distributions où la constante de normalisation est difficile ou impossible à évaluer.
Je vous laisse lire le document sur les détails de la façon d'implémenter MCMC pour ce problème, mais il est relativement simple.
la source
Je pense que le meilleur exemple que je puisse vous donner est le suivant:
Un exemple de Markov Chain Monte Carlo par Murali Haran
Qui inclut du code utile dans R.
Je pense que je pourrais reproduire l'article ici, mais cela n'a aucun sens.
la source
Un autre problème de taille dans les statistiques. La question est ancienne, mais les exemples d'introduction en ligne sont difficiles à trouver. Alors permettez-moi de simplifier deux excellents exemples au cas où quelqu'un suivant la marche aléatoire Markov de PageRank atterrirait ici par MCMC, et plein d'anticipation pour une réponse facile à suivre. Quelle est la probabilité? Cela pourrait être une question complémentaire.
La difficulté est de se rendre compte qu'après avoir traversé toutes les étapes mécaniques, il n'y a qu'une astuce magique: la décision binaire d' accepter ou de rejeter une valeur proposée .
mean
sd
rnorm(10000)
eps
runif(1, - eps, eps)
Chaque valeur proposée différerait donc de la valeur précédente de façon aléatoire et dans les limites de
[- eps,+ eps]
.min(1, dnorm(candidate_value)/dnorm(x))
min(1, ...)
dnorm
min(1, dnorm(candidate_value)/dnorm(x))
runif(1)
x[i+1]
x[i]
sd
x = 0; vec[1] = x
Ceci est plus excitant et fait référence à l' estimation des paramètres d'une courbe de régression linéaire en calculant les log-vraisemblances pour des paramètres aléatoires étant donné un ensemble de données . Cependant, l'exégèse des lignes de code est construite dans la simulation condensée enregistrée ici , en suivant des étapes très similaires au premier exemple.
la source
Cette vidéo Youtube est une très belle visualisation d'un problème simple résolu à l'aide de MCMC.
La distribution d'intérêt est la distribution postérieure sur les pentes possibles et les intersections dans une régression linéaire (panneau supérieur droit). Certaines combinaisons de pentes et d'ordonnées à l'origine sont très probables (c'est-à-dire qu'elles ont une forte probabilité de produire les points de données observés et sont conformes à nos attentes a priori ), elles doivent donc être échantillonnées fréquemment. D'autres combinaisons sont improbables (par exemple, si elles correspondent à une ligne bleue qui ne traverse pas le nuage de points de données), et devraient être échantillonnées moins souvent.
Le grand panneau en bas à gauche montre le chemin emprunté par la chaîne de Markov à travers un espace bidimensionnel de pentes et d'ordonnées. Les histogrammes montrent des résumés unidimensionnels des progrès de la chaîne jusqu'à présent. Une fois la chaîne suffisamment longue, nous avons de très bonnes estimations des distributions pour les valeurs possibles de la pente et de l'ordonnée à l'origine.
Dans ce cas, MCMC est exagéré, mais il y a des problèmes où une solution est difficile à écrire et il est très logique d'explorer les possibilités avec une chaîne de Markov plutôt que d'essayer de la résoudre directement.
la source