Quand devrais-je m'inquiéter du paradoxe de Jeffreys-Lindley dans le choix du modèle bayésien?

12

Je considère un grand (mais fini) espace de modèles de complexité variable que j'explore en utilisant RJMCMC . Le prior sur le vecteur de paramètre pour chaque modèle est assez informatif.

  1. Dans quels cas (le cas échéant) devrais-je m'inquiéter du paradoxe de Jeffreys-Lindley favorisant les modèles plus simples alors que l'un des modèles les plus complexes conviendrait mieux?

  2. Existe-t-il des exemples simples qui mettent en évidence les problèmes du paradoxe dans le choix du modèle bayésien?

J'ai lu quelques articles, à savoir le blog de Xi'an et le blog de Andrew Gelman , mais je ne comprends toujours pas tout à fait le problème.

Jeff
la source
1
Je pense qu'il y a trop de questions et elles sont trop distinctes pour être traitées efficacement ici.
jaradniemi
Merci pour la rétroaction, @jaradniemi, j'ai supprimé la question "La procédure RJMCMC, qui renvoie effectivement les probabilités du modèle postérieur, devrait-elle favoriser les mêmes modèles que le DIC?"
Jeff

Réponses:

5

Désolé de ne pas être clair sur mon blog !

Remarque: J'ai fourni quelques informations sur le choix du modèle bayésien et le paradoxe de Jeffreys-Lindley dans cette autre réponse sur Cross validée.

Le paradoxe de Jeffreys-Lindley est lié au choix du modèle bayésien en ce que la vraisemblance marginale perd tout son sens lorsque π est unemesure σ -finie (c'est-à-dire une mesure de masse infinie) plutôt qu'une mesure de probabilité. La raison de cette difficulté est que la masse infinie rend π et c π indiscernables pour toute constante positive c . En particulier, le facteur Bayes ne peut pas être utilisé et ne doit pas être utilisé lorsqu'un modèle est doté d'un préalable "plat".

m(x)=π(θ)f(x|θ)dθ
πσπcπc

xN(0,1)
xN(θ,1)
B12=exp{n(x¯n)2/2}+exp{n(x¯nθ)2/2}π(θ)dθ
πN(0,τ2)θτx¯nnτn
π(θ)=c
cB12
B12=exp{n(x¯n)2/2}c+exp{n(x¯nθ)2/2}dθ=exp{n(x¯n)2/2}c2π/n
c

Maintenant, si vos prieurs sont informatifs (et donc appropriés), il n'y a aucune raison pour que le paradoxe de Jeffreys-Lindley se produise. Avec un nombre suffisant d'observations, le facteur Bayes sélectionnera systématiquement le modèle qui a généré les données. (Ou plus précisément le modèle au sein de la collection de modèles pris en compte pour le choix du modèle qui est le plus proche du "vrai" modèle qui a généré les données.)

Xi'an
la source
2
Merci beaucoup pour votre réponse très détaillée, Xi'an! Votre blog est très clair (j'en ai beaucoup appris) J'ai été un peu lent à comprendre ce problème particulier!
Jeff
En fait, mon blog fonctionne avec des hypothèses très variables sur le fond et les conditions préalables, donc il n'est certainement pas clair parfois et pour de nombreux lecteurs!
Xi'an