Confusion liée à la distribution prédictive des processus gaussiens

8

J'ai cette confusion liée à la distribution prédictive du processus gaussien. Je lisais ce papier

entrez la description de l'image ici

Je n'ai pas compris comment l'intégration a donné ce résultat. Qu'est-ce que P (u * | x ​​*, u). Aussi comment la covariance de la distribution postérieure est-elleσ2(σ2I+K)1K

user34790
la source
+1, j'ai à peu près le même problème. Après avoir cherché sur le Web, j'ai trouvé quelque chose de plus déroutant. Voir ces notes de cours de Rasmussen, videolectures.net/site/normal_dl/tag=12546/… . Faites attention à la page 15.
avocat

Réponses:

4

P(u|x,u) N(u(x), σ2), directement à partir de la définition de u.

Notez que l'intégration de deux pdf gaussiens est normalisée. Il peut être démontré par le fait que

P(u|x,u)du=uP(u|x,u)P(u|s)dudu=uP(u|s)P(u|x,u)dudu=uP(u|s)N(uu(x);0,σ2)dudu=uP(u|s)duN(u;0,σ2)du=1

Avec la normalisation à l'écart,

uP(u|x,u)P(u|s)du est intégré par les conseils suivants:

  1. Remplacer les 2 pdf normaux dans l'équation et éliminer les termes indépendants de u, comme nous l'avons déjà montré la normalisation.

  2. Utiliser l'achèvement de l'astuce carrée pour intégrer l'exponentielle multivariée, c'est-à-dire construire un pdf normal multivarié avec les termes exponentiels restants. Reportez-vous à cette vidéo YouTube .

  3. Finalement, vous vous retrouvez avec une exponentielle en termes de u, on peut observer que c'est encore un facteur loin d'un pdf normal. Encore une fois, la preuve de normalisation nous donne la certitude que la forme finale est bien un pdf normal. Le pdf est le même que celui donné dans le message d'origine.

Ruohan Wang
la source
1
Cela devrait être la réponse acceptée car elle répond en fait à la question.
Michael
2

Les dérivations détaillées des équations pour la distribution conditionnelle d'un processus gaussien peuvent être trouvées dans le chapitre 2 et l' annexe A du livre [Rasmussen2005].

Jetez un œil à (Eq. 2.23, 2.24) et plus, qui sont basés sur les identités gaussiennes (A.6) et la propriété de la matrice (A.11).


[Rasmussen2005] CE Rasmussen et C. Williams. Processus gaussiens pour l'apprentissage automatique . MIT Press, 2005.

Emile
la source
J'ai le même problème que l'OP, et je dois dire que je n'ai pas découvert les dérivations détaillées dans le livre GPML. Et j'étais encore plus confus après avoir lu les notes de cours que j'ai posté dans le commentaire ci-dessus. Dans ces notes, le postérieurp(u|S) donné par Rasmussen est différent de celui de l'équation de OP (5). J'ai fait la dérivation moi-même, et je suis d'accord sur le postérieurp(u|S) étant le même que l'équation (5), Je pense même que les notes de cours de Rasmussen pourraient être erronées à ce stade. Si je manque quelque chose ou fais une erreur, veuillez me corriger. Et j'espère que vous pourrez élaborer sur la dérivation.
avocat
Cela ne répond pas aux questions.
Nathan Explosion
@avocado Je me rends compte que c'est beaucoup d'années de retard, mais au cas où cela pourrait encore vous aider (ou toute autre personne à venir), veuillez noter que KK(K+σ2I)1K est précisément égal à σ2(K+σ2I)1K, aussi bien que σ2Iσ2I(K+σ2I)1σ2I. Ainsi, le postérieur est le même que l'équation (5) d'OP et comme celui donné dans les notes de cours de Rasmussen, ils sont simplement exprimés différemment.
duckmayr