Définissez le critère d'information bayésien comme (je ne laisse pas tomber le constante, , pour éviter les problèmes lors de l'équation à la vraisemblance marginale)
Étant donné les données et un modèle , la relation approximative entre la vraisemblance marginale et est qui semble impliquer
Étant donné un modèle nul et alternatif, et respectivement, le test d'hypothèse bayésienne pour la probabilité de l'alternative conditionnelle aux données pourrait être calculé comme où la probabilité antérieure, pour . Ma question est de savoir quand, si jamais, est-il correct d'approximer pour le test d'hypothèse bayésienne. Malgré la simplicité de l'équation ci-dessus, je l'ai rarement vue utilisée dans la pratique, ce qui me fait douter de sa fiabilité comme approximation.
la source
Réponses:
Vous pouvez construire une telle approximation asymptotique, mais notez que vous pouvez la réécrire en termes de différence avec (disons) (ou bien n'importe quelle constante pratique). Cela peut aider à éviter les problèmes de sous-dépassement ou de débordement lors de l'exponentiation de nombres qui pourraient être très loin de 0.BIC0
Notez en outre que (en utilisant une approche similaire à celle que vous avez utilisée), il se généralise à une plus grande collection de modèles alternatifs que deux.
Je n'appellerais pas cela "test d'hypothèse"; à mon avis, c'est plus proche de la sélection des modèles bayésiens, mais cela se produit plus souvent dans un contexte connexe mais légèrement différent. (Ne me dérange pas, cependant, d'autres personnes y ont fait référence ou quelque chose de très similaire comme test d'hypothèse, vous pouvez probablement trouver plusieurs exemples parmi les références dans les liens ci-dessous et ailleurs.)
Il (ou une forme légèrement réécrite de celui-ci) est une approximation que j'ai souvent vue (je suppose que cela dépend des choses que vous lisez), et produit une probabilité postérieure approximative des modèles considérés (sous un ensemble particulier de hypothèses).
Cela se produit particulièrement souvent dans le contexte des discussions sur la moyenne ou l' incertitude du modèle , où plutôt que de choisir un modèle particulier et de le conditionner, tous * les modèles sont pondérés par leur probabilité postérieure, afin (par exemple) de produire un distribution des prédictions.
* ou parfois juste un sous-ensemble des modèles avec les probabilités postérieures les plus élevées, souvent comme approximation d'un ensemble global, mais parfois extrêmement large. (voir aussi la fenêtre d'Occam )
Si vous recherchez la moyenne du modèle bayésien et le BIC, vous devriez être en mesure de trouver plusieurs références (des noms comme Hoeting, Raftery ou Madigan figurent sur un grand nombre d'articles, mais de nombreux autres auteurs écrivent à ce sujet); si vous n'en trouvez pas, je peux en signaler.
Tout comme un exemple, dans Raftery [1], équation 35, il utilise exactement une expression comme celle que vous avez ci-dessus mais généralisée à modèles.k
Essayez ces liens, qui ont un certain nombre d'articles qui font quelque chose dans le sens de ce que vous décrivez (pour le premier lien, je ne peux pas charger l'original, je suis donc allé à la dernière version sur archive.org):
https://web.archive.org/web/20150925053749/http://www2.research.att.com/~volinsky/bma.html
http://www.stat.washington.edu/raftery/Research/bma.html
(tous les liens sur ces pages ne seront pas nécessairement ce que vous recherchez, mais chacun aura de nombreux articles qui s'y rapportent.)
[1] Raftery, AE (1995).
"Sélection du modèle bayésien dans la recherche sociale (avec discussion)."
Méthodologie sociologique , 25, 111-196.
la source