Comment transformer un résultat fréquentiste en prior bayésien?
Considérons le scénario assez générique suivant: Une expérience a été menée dans le passé et un résultat sur un paramètre été mesuré. L'analyse a été réalisée avec une méthodologie fréquentiste. Un intervalle de confiance pour ϕ est donné dans les résultats.
Je mène maintenant une nouvelle expérience où je veux mesurer d'autres paramètres, disons à la fois et ϕ . Mon expérience est différente de l'étude précédente --- elle n'est pas réalisée avec la même méthodologie. Je voudrais faire une analyse bayésienne, et donc je devrai placer des a priori sur θ et ϕ .
Aucune mesure antérieure de n'a été effectuée, je place donc un préalable non informatif (disons son uniforme) dessus.
Comme mentionné, il existe un résultat précédent pour , donné comme intervalle de confiance. Pour utiliser ce résultat dans mon analyse actuelle, je devrais traduire le résultat fréquentiste précédent en un préalable informatif pour mon analyse.
Une option qui n'est pas disponible dans ce scénario composé est de répéter l'analyse précédente qui a conduit à la mesure de façon bayésienne. Si je pouvais faire ça, ϕ aurait un postérieur de l'expérience précédente que j'utiliserais alors comme mon préalable, et il n'y aurait aucun problème.
Comment dois-je traduire l'IC fréquentiste en une distribution préalable bayésienne pour mon analyse? Ou, en d'autres termes, comment pourrais-je traduire leur résultat le plus fréquent sur en un postérieur sur ϕ que j'utiliserais ensuite comme a priori dans mon analyse?
Toutes les idées ou références qui traitent de ce type de problème sont les bienvenues.
Réponses:
Version courte: Prenez une gaussienne centrée sur l'estimation précédente, avec std. dev. égal au CI.
Version longue: Soit être la vraie valeur du paramètre, et que φ l'estimation que vous avez. Supposons un a priori uniforme a priori P ( ϕ ) = c t . Vous voulez connaître la distribution de φ 0 étant donné qu'une estimation φ a déjà été obtenu:ϕ0 ϕ^ P(ϕ)=ct ϕ0 ϕ^
Maintenantla seule dépendance deφ0est le termeP( φ |& phiv0), le reste est une constante de normalisation. En supposant que le φ est un estimateur de vraisemblance maximale (ou un autre estimateur), nous pouvons utiliser les faits suivants:
Une autre façon de le dire: le postérieur bayésien et la distribution d'un estimateur cohérent et efficace deviennent asymptotiquement les mêmes.
la source
la source