Constante de normalisation dans le théorème de Bayes

15

Pr(data)

Pr(parametersdata)=Pr(dataparameters)Pr(parameters)Pr(data)

est appelé une constante de normalisation . C'est quoi exactement? Quel est son objectif? Pourquoi ressemble-t-il à ? Pourquoi cela ne dépend-il pas des paramètres?Pr(data)

amateur
la source
4
Lorsque vous intégrez , vous intégrez sur les paramètres et le résultat n'a donc pas de terme dépendant des paramètres, de la même manière que x = 2 x = 0 x yf(data|params)f(params) ne dépend pas de x . x=0x=2xydx=2yx
Henry

Réponses:

16

Le dénominateur est obtenu en intégrant les paramètres de la probabilité de jointure Pr ( données , paramètres ) . Il s'agit de la probabilité marginale des données et, bien sûr, elle ne dépend pas des paramètres car ceux-ci ont été intégrés.Pr(data)Pr(data,parameters)

Maintenant, depuis:

  • ne dépend pas des paramètres pour lesquels on veut faire l'inférence;Pr(data)
  • est généralement difficile à calculer sous une forme fermée;Pr(data)

on utilise souvent l'adaptation suivante de la formule de Baye:

Pr(parametersdata)Pr(dataparameters)Pr(parameters)

Fondamentalement, n'est rien d'autre qu'une "constante de normalisation", c'est-à-dire une constante qui fait que la densité postérieure s'intègre à une .Pr(data)

ocram
la source
2
Qu'entendez-vous exactement par «en intégrant les paramètres»? Quelle est la signification précise de «l'intégration» dans ce contexte?
nbro
2
@nbro: Je veux dire Pr (données) = intégrale sur les paramètres de Pr (données, paramètres)
ocram
2

Pr(data)

Dur
la source