Je lisais récemment un article qui incorporait le hasard dans sa confiance et ses intervalles crédibles, et je me demandais si c'était standard (et, si oui, pourquoi c'était une chose raisonnable à faire). Pour définir la notation, supposons que nos données sont et que nous souhaitons créer des intervalles pour un paramètre θ ∈ Θ . J'ai l'habitude de construire des intervalles de confiance / crédibilité en construisant une fonction:
et en laissant notre intervalle être .
C'est aléatoire dans le sens où cela dépend des données, mais conditionnellement aux données c'est juste un intervalle. Ce document définit plutôt
et aussi une collection de iid variables aléatoires uniformes sur [ 0 , 1 ] . Il définit l'intervalle associé comme étant I = { θ ∈ Θ . Notez que cela dépend beaucoup du caractère aléatoire auxiliaire, au-delà de tout ce qui provient des données.
Je suis très curieux de savoir pourquoi on ferait cela. Je pense que «relâcher» la notion d'intervalle entre des fonctions comme et des fonctions comme g x a un certain sens; c'est une sorte d'intervalle de confiance pondéré. Je ne connais aucune référence pour cela (et j'apprécierais tout pointeur), mais cela semble tout à fait naturel. Cependant, je ne vois aucune raison d'ajouter un caractère aléatoire auxiliaire.
Tout pointeur sur la littérature / raisons de le faire serait apprécié!
Réponses:
Les procédures randomisées sont parfois utilisées en théorie car elles simplifient la théorie. Dans les problèmes statistiques typiques, cela n'a pas de sens dans la pratique, tandis que dans les contextes de théorie des jeux, cela peut avoir du sens.
La seule raison que je vois pour l'utiliser dans la pratique, c'est s'il simplifie en quelque sorte les calculs.
Théoriquement, on peut affirmer qu'il ne devrait pas être utilisé, à partir du principe de suffisance : les conclusions statistiques ne devraient être fondées que sur des résumés suffisants des données, et la randomisation introduit la dépendance d'un aléatoire étranger qui ne fait pas partie d'un résumé suffisant des données.U
Pour répondre aux commentaires de whuber ci-dessous, cités ici: "Pourquoi les procédures randomisées" n'ont-elles pas de sens dans la pratique "? Comme d'autres l'ont noté, les expérimentateurs sont parfaitement disposés à utiliser la randomisation dans la construction de leurs données expérimentales, comme l'assignation aléatoire du traitement et du contrôle , alors qu'est-ce qui est si différent (et peu pratique ou répréhensible) dans l'utilisation de la randomisation dans l'analyse des données qui en résulte?
Eh bien, la randomisation de l'expérience pour obtenir les données est effectuée dans un but, principalement pour briser les chaînes de causalité. Si et quand cela est efficace, c'est une autre discussion. À quoi pourrait servir l'utilisation de la randomisation dans le cadre de l'analyse? La seule raison que j'ai jamais vue, c'est qu'elle rend la théorie mathématique plus complète! C'est OK tant que ça va. Dans les contextes de théorie des jeux, quand il y a un véritable adversaire, la randomisation aide à le confondre. Dans des contextes de décision réels (vendre ou ne pas vendre?), Une décision doit être prise, et s'il n'y a pas de preuves dans les données, on pourrait peut-être simplement jeter une pièce. Mais dans un contexte scientifique, où la question est de savoir ce que nous pouvons apprendreà partir des données, la randomisation semble hors de propos. Je n'en vois aucun avantage réel! Si vous n'êtes pas d'accord, avez-vous un argument qui pourrait convaincre un biologiste ou un chimiste? (Et ici, je ne pense pas à la simulation dans le cadre du bootstrap ou du MCMC.)
la source
L'idée fait référence aux tests, mais compte tenu de la dualité des tests et des intervalles de confiance, la même logique s'applique aux IC.
Fondamentalement, les tests randomisés garantissent qu'une taille donnée d'un test peut également être obtenue pour des expériences à valeur discrète.
Supposons que vous vouliez tester, au niveauα = 0,05 , l'équité d'une pièce (insérez ici un exemple de votre choix qui peut être modélisé avec une expérience binomiale) en utilisant la probabilité p des têtes. Autrement dit, vous testezH0: p = 0,5 contre (disons) H1: p < 0,5 . Supposons que vous ayez lancé la piècen = 10 fois.
De toute évidence, peu de têtes sont des preuves contreH0 . Pourk = 2 succès, nous pouvons calculer la p -valeur du test par k = 1 , nous obtenons 0,0107. Par conséquent, il n'y a aucun moyen de rejeter un vraiH0 with probability 5% without randomization.
pbinom(2,10,.5)
en R, donnant 0,054. PourIf we randomize over rejection and acceptance when observingk=2 , we may still achieve this goal.
la source