Fonctions discrètes: couverture de l'intervalle de confiance?

9

Comment calculer la couverture d'intervalle discret?

Ce que je sais faire:

Si j'avais un modèle continu, je pourrais définir un intervalle de confiance à 95% pour chacune de mes valeurs prédites, puis voir à quelle fréquence les valeurs réelles se trouvaient dans l'intervalle de confiance. Je pourrais trouver que seulement 88% du temps mon intervalle de confiance à 95% couvrait les valeurs réelles.

Ce que je ne sais pas faire:

Comment dois-je procéder pour un modèle discret, tel que poisson ou gamma-poisson? Ce que j'ai pour ce modèle est le suivant, en prenant une seule observation (sur plus de 100 000, je prévois de générer :)

Observation n °: (arbitraire)

Valeur prédite: 1,5

Probabilité prédite de 0: .223

Probabilité prédite de 1: .335

Probabilité prédite de 2: .251

Probabilité prédite de 3: 0,126

Probabilité prévue de 4: 0,048

Probabilité prédite de 5: 0,014 [et 5 ou plus est 0,019]

...(etc)

Probabilité prévue de 100 (ou à un chiffre par ailleurs irréaliste): .000

Valeur réelle (un entier tel que "4")

Notez que bien que j'ai donné des valeurs de poisson ci-dessus, dans le modèle réel, une valeur prédite de 1,5 peut avoir des probabilités prédites différentes de 0,1, ... 100 à travers les observations.

Je suis confus par la discrétion des valeurs. Un "5" est évidemment en dehors de l'intervalle de 95%, car il n'y a que 0,019 à 5 et plus, ce qui est inférieur à 0,025. Mais il y aura beaucoup de 4 - individuellement, ils sont à l'intérieur, mais comment puis-je évaluer conjointement le nombre de 4 de manière plus appropriée?

Pourquoi je m'inquiète?

Les modèles que j'examine ont été critiqués pour leur précision au niveau agrégé mais pour leurs mauvaises prévisions individuelles. Je veux voir à quel point les mauvaises prévisions individuelles sont pires que les intervalles de confiance intrinsèquement larges prévus par le modèle. Je m'attends à ce que la couverture empirique soit pire (par exemple, je pourrais trouver 88% des valeurs se situent dans l'intervalle de confiance de 95%), mais j'espère seulement un peu pire.

zbicycliste
la source

Réponses:

6

Les intervalles de confiance de Neyman ne tentent pas de fournir une couverture du paramètre dans le cas d'un intervalle particulier. Au lieu de cela, ils fournissent une couverture sur toutes les valeurs de paramètres possibles à long terme. Dans un sens, ils tentent d'être globalement précis au détriment de l'exactitude locale.

Les intervalles de confiance pour les proportions binomiales illustrent clairement ce problème. L'évaluation neymanienne des intervalles donne les parcelles de couverture irrégulières comme celle-ci, qui est pour des intervalles de Clopper-Pearson à 95% pour n = 10 essais binomiaux:

Graphique de couverture de Clopper-Pearson

Il existe une autre façon de faire la couverture, qui, à mon avis, est beaucoup plus accessible et (donc) utile de manière intuitive. La couverture par intervalles peut être spécifiée en fonction du résultat observé. Cette couverture serait une couverture locale. Voici un graphique montrant la couverture locale de trois méthodes différentes de calcul des intervalles de confiance pour les proportions binomiales: Clopper-Pearson, les scores de Wilson, et une méthode exacte conditionnelle qui donne des intervalles identiques aux intervalles bayésiens avec un a priori uniforme:

Couverture conditionnelle pour trois types d'intervalle

Notez que la méthode Clopper-Pearson à 95% donne une couverture locale supérieure à 98% mais les intervalles conditionnels exacts sont, bien, exacts.

Une façon de penser la différence entre les intervalles globaux et locaux consiste à considérer le global comme des inversions des tests d'hypothèse de Neyman-Pearson où le résultat est une décision qui est prise sur la base de la considération des taux d'erreur à long terme pour le courant expérience en tant que membre de l'ensemble global de toutes les expériences pouvant être exécutées. Les intervalles locaux s'apparentent davantage à une inversion des tests de signification de Fisher qui donnent une valeur P qui représente une preuve contre le zéro de cette expérience particulière .

(Pour autant que je sache, la distinction entre les statistiques mondiales et locales a été faite pour la première fois dans une thèse de maîtrise non publiée de Claire F Leslie (1998) Manque de confiance: une étude de la suppression de certains contre-exemples à la théorie de Neyman-Pearson de inférence statistique avec une référence particulière à la théorie des intervalles de confiance. Cette thèse est détenue par la bibliothèque Baillieu de l'Université de Melbourne.)

Michael Lew
la source
2
Je ne pense pas que Claire Leslie ait inventé la distinction globale / locale, mais elle en a donné une description magnifiquement détaillée, avec beaucoup de références. Je recommande trop fortement sa thèse.