Hamiltonian Monte Carlo (HMC): quelle est l'intuition et la justification derrière une variable de moment distribuée gaussienne?

8

Je lis un impressionnant article introductif de HMC par le professeur Michael Betancourt, mais je suis coincé dans la compréhension de la façon dont nous procédons au choix de la distribution de l'élan.

Sommaire

L'idée de base de la console HMC est d'introduire une variable de momentum p en conjonction avec la variable cible q. Ils forment conjointement un espace de phase .

L'énergie totale d'un système conservateur est une constante et le système devrait suivre les équations de Hamilton. Par conséquent, les trajectoires dans l'espace des phases peuvent être décomposées en niveaux d'énergie , chaque niveau correspond à une valeur d'énergie donnéeE et peut être décrit comme un ensemble de points qui satisfait:

H-1(E)={(q,p)|H(q,p)=E}.

Nous aimerions estimer la distribution conjointe π(q,p), de sorte qu'en intégrant p nous obtenons la distribution cible souhaitée π(q). En outre,π(q,p) peut être écrit de manière équivalente comme π(θE|E)π(E), où E correspond à une valeur particulière de l'énergie et θE est la position sur ce niveau d'énergie.

π(q,p)={π(p|q)π(q)π(θE|E)π(E),décomposition microcanonique

Pour une valeur donnée de E, π(θE|E)est relativement plus facile à connaître, car nous pouvons effectuer l'intégration des équations de Hamilton pour obtenir les points de données sur la trajectoire. cependant,π(E) est la partie délicate qui dépend de la façon dont nous spécifions l'élan, qui détermine par conséquent l'énergie totale E.

entrez la description de l'image ici

Des questions

Il me semble que nous recherchons π(E), mais ce que nous pouvons pratiquement estimer π(E|q), sur la base de l'hypothèse que π(E|q) peut être approximativement similaire à π(E), comme illustré sur la figure 23 du document. Cependant, ce que nous échantillonnons semble êtreπ(p|q).

Q1 : Est-ce parce qu'une fois que nous savonsπ(p|q), nous pouvons facilement calculer E et donc estimer π(E|q)?

Pour faire l'hypothèse que π(E)π(E|q) maintenez, nous utilisons un élan distribué gaussien. Deux choix sont mentionnés dans le document:

π(p|q)={N(p|0,M)Énergie cinétique euclidienne-gaussienneN(p|0,Σ(q))Énergie cinétique réimannienne-gaussienne,

M est un ×constante appelée métrique euclidienne, alias matrice de masse .

Dans le cas du premier choix (euclidien-gaussien), la matrice de masse M est en fait indépendant de q, donc la probabilité que nous échantillonnons est en fait π(p). Le choix de la dynamique gaussienne distribuéep avec covariance M implique que la variable cible q est de distribution gaussienne avec matrice de covariance M-1, comme p et q doivent être transformés inversement pour maintenir le volume dans l'espace des phases constant.

Q2 : Ma question est de savoir comment pouvons-nous nous attendreqsuivre une distribution gaussienne? En pratiqueπ(q) pourrait être une distribution compliquée.

cwl
la source

Réponses:

8

Ce n'est pas tant que nous recherchons π(E)c'est juste que si π(E) et π(E|q)sont différents alors notre exploration sera limitée par notre incapacité à explorer toutes les énergies pertinentes. Par conséquent, dans la pratique, les estimations empiriquesπ(E) et π(E|q) sont utiles pour identifier les limites potentielles de notre exploration qui est la motivation pour l'histogramme comparatif et le diagnostic E-BFMI.

Alors, que savons-nous des deux distributions? Alors que nous augmentons la dimensionnalité de notre distribution cible,π(E)sorte de-tend à regarder de plus en plus gaussienne. Si nos temps d'intégration sont suffisamment longs, nos explorations des ensembles de niveaux s'équilibreront et siπ(p|q) est alors gaussien π(E|q) aura également tendance à être de plus en plus gaussienne.

Une énergie cinétique gaussienne-euclidienne est donc un bon point de départ mais elle n'est en aucun cas toujours optimale ! Je passe un bon moment à essayer de monter des modèles où Stan me crie de mauvais diagnostics E-BFMI. Une énergie cinétique gaussienne-riemannienne peut être une amélioration significative dans de nombreux cas comme déterminant logarithmique dépendant de la position dansπ(p|q) peut faire π(E) beaucoup plus gaussien, mais il reste encore beaucoup de recherches à faire pour bien comprendre le problème.

Michael Betancourt
la source
1
J'essayais d'écrire une réponse, mais si LE Michael Betancourt est sur la validation croisée, alors je prendrai un peu de recul :-) juste une note, "la dissuasion du journal" est très probablement une faute de frappe: je parie que vous vouliez dire "déterminant du journal" .
DeltaIV
Flatté d'avoir la réponse de @Michael Betancourt :-) Juste curieux, quand vous avez dit "Alors que nous augmentons la dimensionnalité de notre distribution cible, alors π(E)en quelque sorte de plus en plus gaussien ", y a-t-il une preuve théorique ou est-ce une observation empirique?
cwl
3
@cwl - c'est un argument asymptotique standard. Si la distribution cible converge vers une distribution distribuée indépendamment avec des données ou des paramètres croissants, alorspje(E) va converger vers un chje2qui sera bien approché par un gaussien au-dessus de quelques dimensions. D'un autre côté, nous avons tendance à atteindre Hamiltonio Monte Carlo en pratique lorsque la cible est complexe, de sorte que les asymptotiques peuvent ne pas être particulièrement pertinentes. D'où la couverture.
Michael Betancourt
J'ai compris @Michael Betancourt, merci beaucoup pour l'explication!
cwl