J'ai deux ensembles de données, l'un à partir d'un ensemble d'observations physiques (températures) et l'autre à partir d'un ensemble de modèles numériques. Je fais une analyse du modèle parfait, en supposant que l'ensemble du modèle représente un véritable échantillon indépendant et je vérifie si les observations sont tirées de cette distribution. La statistique que j'ai calculée est normalisée et devrait théoriquement être une distribution normale standard. Bien sûr, ce n'est pas parfait, donc je veux tester la qualité de l'ajustement.
En utilisant le raisonnement fréquentiste, je pourrais calculer une statistique de Cramér-von Mises (ou Kolmogorov-Smirnov, etc.), ou similaire, et rechercher la valeur dans un tableau pour obtenir une valeur p, pour m'aider à décider dans quelle mesure la valeur I voir est, étant donné que les observations sont les mêmes que le modèle.
Quel serait l'équivalent bayésien de ce processus? Autrement dit, comment puis-je quantifier la force de ma conviction que ces deux distributions (ma statistique calculée et la norme normale) sont différentes?
la source
Réponses:
Je proposerais le livre Bayesian Data Analysis comme une excellente source pour répondre à cette question (en particulier le chapitre 6) et tout ce que je vais dire. Mais l'un des moyens habituels par lesquels les Bayésiens s'attaquent à ce problème est d'utiliser des valeurs P prédictives postérieures (PPP). Avant de passer à la façon dont les PPP résoudraient ce problème, permettez-moi d'abord de définir la notation suivante:
Soit les données observées et θ le vecteur des paramètres. Nous définissons y représentant les répliqués données qui auraient été observés, ou de penser prédictivement, les données que nous pourrions voir demain si l'expérience qui a produit y aujourd'hui ont été reproduites avec le même modèle et la même valeur de θ qui a produit le observé Les données.y θ yreprésentant y θ
Remarque, nous définirons la distribution de étant donné l'état actuel des connaissances avec la distribution prédictive postérieure p ( y rep | y ) = ∫ Θ p ( y rep | θ ) p ( θ | y ) d θyreprésentant
Maintenant, nous pouvons mesurer l'écart entre le modèle et les données en définissant les quantités de test , les aspects des données que nous souhaitons vérifier. Une quantité de test, ou mesure d'écart , , est un résumé scalaire des paramètres et des données qui est utilisé comme standard lors de la comparaison des données aux simulations prédictives. Les quantités de test jouent un rôle dans le modèle bayésien en vérifiant que les statistiques de test jouent dans les tests classiques. On définit la notation T ( y )T( y, θ ) T(y) pour une statistique de test, qui est une quantité de test qui ne dépend que des données; dans le contexte bayésien, nous pouvons généraliser les statistiques de test pour permettre une dépendance aux paramètres du modèle sous leur distribution postérieure.
Contrairement à l'approche classique, la vérification du modèle bayésien ne nécessite pas de méthodes spéciales pour gérer les «paramètres de nuisance». En utilisant des simulations postérieures, nous faisons implicitement la moyenne de tous les paramètres du modèle.
Une autre source, Andrew Gelman, a également un très bon article sur les PPP ici: http://www.stat.columbia.edu/~gelman/research/unpublished/ppc_understand2.pdf
la source
Une possibilité relativement simple: des tests lisses de qualité d'ajustement, par exemple [1] - qui encadrent l'alternative en termes d'écarts lisses par rapport au zéro, construits par des polynômes orthogonaux (en ce qui concerne la densité nulle en tant que fonction de poids) seraient relativement simples à reporter sur un cadre bayésien, car les coefficients des polynômes forment une extension flexible mais paramétrique du nul.
[1]: Rayner, JCW et DJ Best (1990),
«Smooth Tests of Goodness of Fit: An Overview»,
International Statistical Review , 58 : 1 (avril), pp. 9-17
la source