Je considère un grand (mais fini) espace de modèles de complexité variable que j'explore en utilisant RJMCMC . Le prior sur le vecteur de paramètre pour chaque modèle est assez informatif.
Dans quels cas (le cas échéant) devrais-je m'inquiéter du paradoxe de Jeffreys-Lindley favorisant les modèles plus simples alors que l'un des modèles les plus complexes conviendrait mieux?
Existe-t-il des exemples simples qui mettent en évidence les problèmes du paradoxe dans le choix du modèle bayésien?
J'ai lu quelques articles, à savoir le blog de Xi'an et le blog de Andrew Gelman , mais je ne comprends toujours pas tout à fait le problème.
Réponses:
Désolé de ne pas être clair sur mon blog !
Remarque: J'ai fourni quelques informations sur le choix du modèle bayésien et le paradoxe de Jeffreys-Lindley dans cette autre réponse sur Cross validée.
Le paradoxe de Jeffreys-Lindley est lié au choix du modèle bayésien en ce que la vraisemblance marginale perd tout son sens lorsque π est unemesure σ -finie (c'est-à-dire une mesure de masse infinie) plutôt qu'une mesure de probabilité. La raison de cette difficulté est que la masse infinie rend π et c π indiscernables pour toute constante positive c . En particulier, le facteur Bayes ne peut pas être utilisé et ne doit pas être utilisé lorsqu'un modèle est doté d'un préalable "plat".
Maintenant, si vos prieurs sont informatifs (et donc appropriés), il n'y a aucune raison pour que le paradoxe de Jeffreys-Lindley se produise. Avec un nombre suffisant d'observations, le facteur Bayes sélectionnera systématiquement le modèle qui a généré les données. (Ou plus précisément le modèle au sein de la collection de modèles pris en compte pour le choix du modèle qui est le plus proche du "vrai" modèle qui a généré les données.)
la source