Pourquoi utiliserait-on une confiance «aléatoire» ou des intervalles crédibles?

16

Je lisais récemment un article qui incorporait le hasard dans sa confiance et ses intervalles crédibles, et je me demandais si c'était standard (et, si oui, pourquoi c'était une chose raisonnable à faire). Pour définir la notation, supposons que nos données sont et que nous souhaitons créer des intervalles pour un paramètre θ Θ . J'ai l'habitude de construire des intervalles de confiance / crédibilité en construisant une fonction:xXθΘ

fx:Θ{0,1}

et en laissant notre intervalle être .I={θΘ:fx(θ)=1}

C'est aléatoire dans le sens où cela dépend des données, mais conditionnellement aux données c'est juste un intervalle. Ce document définit plutôt

gx:Θ[0,1]

et aussi une collection de iid variables aléatoires uniformes sur [ 0 , 1 ] . Il définit l'intervalle associé comme étant I = { θ Θ{Uθ}θΘ[0,1] . Notez que cela dépend beaucoup du caractère aléatoire auxiliaire, au-delà de tout ce qui provient des données.I={θΘ:fx(θ)Uθ}

Je suis très curieux de savoir pourquoi on ferait cela. Je pense que «relâcher» la notion d'intervalle entre des fonctions comme et des fonctions comme g x a un certain sens; c'est une sorte d'intervalle de confiance pondéré. Je ne connais aucune référence pour cela (et j'apprécierais tout pointeur), mais cela semble tout à fait naturel. Cependant, je ne vois aucune raison d'ajouter un caractère aléatoire auxiliaire.fxgx

Tout pointeur sur la littérature / raisons de le faire serait apprécié!

QQQ
la source
5
(+1) C'est ce qu'on appelle une procédure aléatoire. Ils sont une partie standard du cadre d'estimation et de test statistiques, vous pouvez donc vous fier à n'importe quel manuel rigoureux pour fournir des explications. Une motivation supplémentaire pour leur utilisation peut être trouvée dans la littérature sur la théorie des jeux.
whuber
Merci pour la réponse. J'ai réalisé après avoir lu ce commentaire que, par exemple, le bootstrap s'inscrit dans ce cadre, mais dans cette situation, la raison de la randomisation est claire (vous n'avez pas accès à f, juste g). Dans mon cas, les auteurs calculent explicitement et ALORS regardent g x . Bien que j'ai de nombreux manuels de statistiques, je ne vois cela nulle part ... avez-vous un texte suggéré? fxgx
QQQ
3
En fait, l'amorçage n'est pas une procédure aléatoire. Il s'agit d'une procédure déterminée dont le calcul approximatif est effectué au moyen d'un échantillonnage aléatoire.
whuber

Réponses:

4

Les procédures randomisées sont parfois utilisées en théorie car elles simplifient la théorie. Dans les problèmes statistiques typiques, cela n'a pas de sens dans la pratique, tandis que dans les contextes de théorie des jeux, cela peut avoir du sens.

La seule raison que je vois pour l'utiliser dans la pratique, c'est s'il simplifie en quelque sorte les calculs.

Théoriquement, on peut affirmer qu'il ne devrait pas être utilisé, à partir du principe de suffisance : les conclusions statistiques ne devraient être fondées que sur des résumés suffisants des données, et la randomisation introduit la dépendance d'un aléatoire étranger qui ne fait pas partie d'un résumé suffisant des données.U

UPDATE  

Pour répondre aux commentaires de whuber ci-dessous, cités ici: "Pourquoi les procédures randomisées" n'ont-elles pas de sens dans la pratique "? Comme d'autres l'ont noté, les expérimentateurs sont parfaitement disposés à utiliser la randomisation dans la construction de leurs données expérimentales, comme l'assignation aléatoire du traitement et du contrôle , alors qu'est-ce qui est si différent (et peu pratique ou répréhensible) dans l'utilisation de la randomisation dans l'analyse des données qui en résulte?

Eh bien, la randomisation de l'expérience pour obtenir les données est effectuée dans un but, principalement pour briser les chaînes de causalité. Si et quand cela est efficace, c'est une autre discussion. À quoi pourrait servir l'utilisation de la randomisation dans le cadre de l'analyse? La seule raison que j'ai jamais vue, c'est qu'elle rend la théorie mathématique plus complète! C'est OK tant que ça va. Dans les contextes de théorie des jeux, quand il y a un véritable adversaire, la randomisation aide à le confondre. Dans des contextes de décision réels (vendre ou ne pas vendre?), Une décision doit être prise, et s'il n'y a pas de preuves dans les données, on pourrait peut-être simplement jeter une pièce. Mais dans un contexte scientifique, où la question est de savoir ce que nous pouvons apprendreà partir des données, la randomisation semble hors de propos. Je n'en vois aucun avantage réel! Si vous n'êtes pas d'accord, avez-vous un argument qui pourrait convaincre un biologiste ou un chimiste? (Et ici, je ne pense pas à la simulation dans le cadre du bootstrap ou du MCMC.)

kjetil b halvorsen
la source
1
Pourquoi les procédures randomisées "n'ont-elles pas de sens dans la pratique"? Comme d'autres l'ont noté, les expérimentateurs sont parfaitement disposés à utiliser la randomisation dans la construction de leurs données expérimentales, telles que l'attribution randomisée du traitement et du contrôle, donc ce qui est si différent (et peu pratique ou répréhensible) de l'utilisation de la randomisation dans l' analyse qui suit des données ?
whuber
1
@kjetil Je pense que vous n'avez peut-être pas terminé votre déclaration sur le principe de suffisance, il semble avoir été coupé au milieu de la phrase ("les conclusions statistiques devraient ...").
Silverfish
1
U
1
@whuber: C'est un argument clair et fondé sur des principes selon lequel la randomisation dans l'obtention des données peut être avantageuse. (Il brise les chaînes causales). Quel est cet argument de principe pour utiliser la randomisation dans le cadre de l'analyse?
kjetil b halvorsen
1
Kjetil: Il vous permet d'atteindre la fonction de risque souhaitée, plutôt que d'accepter une fonction de risque (souvent sous forme de taille et de puissance nominales) qui n'est pas ce que vous vouliez. De plus, si une procédure est "théoriquement" utile, il ne peut certainement y avoir aucune objection à son utilisation dans la pratique, autre que l'impraticabilité (ce qui n'est généralement pas le cas avec les procédures randomisées). Ainsi , votre question devrait être mis sur la tête: le fardeau est sur vous pour démontrer il y a quelque chose de mal avec l' utilisation de procédures aléatoires. Comment pouvez-vous accomplir cela sans vous contredire?
whuber
3

L'idée fait référence aux tests, mais compte tenu de la dualité des tests et des intervalles de confiance, la même logique s'applique aux IC.

Fondamentalement, les tests randomisés garantissent qu'une taille donnée d'un test peut également être obtenue pour des expériences à valeur discrète.

Supposons que vous vouliez tester, au niveau α=0,05, l'équité d'une pièce (insérez ici un exemple de votre choix qui peut être modélisé avec une expérience binomiale) en utilisant la probabilité pdes têtes. Autrement dit, vous testezH0:p=0,5 contre (disons) H1:p<0,5. Supposons que vous ayez lancé la piècen=dix fois.

De toute évidence, peu de têtes sont des preuves contre H0. Pourk=2 succès, nous pouvons calculer la p-valeur du test par pbinom(2,10,.5)en R, donnant 0,054. Pourk=1, nous obtenons 0,0107. Par conséquent, il n'y a aucun moyen de rejeter un vraiH0 with probability 5% without randomization.

If we randomize over rejection and acceptance when observing k=2, we may still achieve this goal.

Christoph Hanck
la source
This is a nice explanation of the use of randomization, but it would be nice if it explained why we might be interested in attaining arbitrary α in the first place. Why is it a desirable goal?
Silverfish
Well, that I guess brings us back to the history of statistics, when R.A. Fisher somewhat arbitrarily decided to work with a significance level of 5% to decide whether some initial evidence warrants further study. As we know, 5% has since morphed into a sort of gold standard in many fields, despite lacking good decision-theoretic foundation.
Christoph Hanck