Supposons que plusieurs personnes évaluent à quel point elles ont aimé un film sur une échelle discrète de 1 à 10, et que vous souhaitez un intervalle [ l , u ] tel qu'avec (au moins) 95% de confiance, (au moins) 90 % de toutes les personnes qui voient le film le noteront pas plus bas que l et pas plus haut que u . [ l , u ] est alors un intervalle de tolérance (bilatéral) avec une confiance de 95% et une couverture de 90%. (Pour être clair, une confiance de 95% implique que si vous répétiez cette procédure plusieurs fois, 95% des intervalles produits auraient une couverture de la population d'au moins 90%.) Bien sûr, nous voulons généralement que [ l , u ] soit aussi étroit que possible tout en répondant à nos exigences.
J'ai vu diverses méthodes non paramétriques pour construire des intervalles de tolérance pour des variables aléatoires continues. J'ai également vu des méthodes pour construire des intervalles de tolérance pour les variables binomiales et de Poisson. (Le package R tolerance
implémente plusieurs de ces méthodes; Young, 2010.) Mais qu'en est-il des variables discrètes lorsque la distribution est inconnue? C'est généralement le cas pour des échelles de notation comme celle de mon exemple, et en supposant qu'une distribution binomiale ne semble pas sûre car les données réelles de l'échelle de notation présentent souvent des étrangetés telles que la multimodalité.
Serait-il sensé de se rabattre sur les méthodes non paramétriques pour les variables continues? Sinon, qu'en est-il d'une méthode Monte Carlo telle que la génération de 1000 répliques bootstrap de l'échantillon et la recherche d'un intervalle qui capture au moins 90% de l'échantillon dans au moins 950 des répliques?
Young, DS (2010). tolérance: Un package R pour estimer les intervalles de tolérance. Journal of Statistical Software, 36 (5), 1–39. Récupéré de http://www.jstatsoft.org/v36/i05
la source
Réponses:
La variable d'intérêt est distribuée multinomialement avec des probabilités de classe (cellule): . De plus, les classes sont dotées d'un ordre naturel.p1,p2, . . . ,pdix
Première tentative: le plus petit "intervalle prédictif" contenant90 %
Une mesure non paramétrique de l'incertitude (par exemple, variance, confiance) dans les estimations quantiles pourrait en effet être obtenue par des méthodes de bootstrap standard .l , u
Deuxième approche: "recherche bootstrap" directe
Ci-dessous, je fournis du code Matlab exécutable qui aborde la question directement du point de vue du bootstrap (le code n'est pas vectorisé de manière optimale).
Vérifiez que cela a du sens.
Exécutez la simulation d'amorçage.
Le filtre de chaque bootstrap reproduit les intervalles, , qui contiennent au moins masse de probabilité et calcule une estimation de confiance (fréquentiste) de ces intervalles.[ l , u ] 90 %
Sélectionnez ceux qui satisfont le desideratum de confiance.
Vous convaincre que la méthode d'amorçage ci-dessus est valide
Les échantillons de bootstrap sont destinés à remplacer quelque chose que nous aimerions avoir, mais pas, c'est-à-dire: de nouveaux tirages indépendants de la véritable population sous-jacente (bref: nouvelles données).
Dans l'exemple que j'ai donné, nous connaissons le processus de génération de données (DGP), donc nous pourrions "tricher" et remplacer les lignes de code relatives aux rééchantillons de bootstrap par de nouveaux tirages indépendants du DGP réel.
Ensuite, nous pouvons valider l'approche bootstrap en la comparant à l'idéal. Voici les résultats.
La matrice de confiance à partir de nouvelles données indépendantes tire:
Les limites inférieures et supérieures de confiance à correspondantes :95 %
On constate que les matrices de confiance s'accordent étroitement et que les bornes sont identiques ... Validant ainsi l'approche bootstrap.
la source