Dans l'analyse bayésienne conjuguée de Kevin Murphy de la distribution gaussienne , il écrit que la distribution prédictive postérieure est
où est les données sur lesquelles le modèle est ajusté et sont des données invisibles. Ce que je ne comprends pas, c'est pourquoi la dépendance à l'égard de disparaît au premier terme de l'intégrale. En utilisant des règles de probabilité de base, je m'attendais à:
Question: Pourquoi la dépendance à en terme disparaît-elle?
Pour ce que ça vaut, j'ai vu ce genre de formulation (suppression de variables dans les conditions) à d'autres endroits. Par exemple, dans Ryan Adam's Bayesian Online Changepoint Detection , il écrit la prédiction postérieure comme
où encore, puisque , je me serais attendu