Je souhaite savoir quelle littérature statistique est pertinente pour le problème suivant, et peut-être même une idée sur la façon de le résoudre.
Imaginez le problème suivant:
Nous avons 4 traitements possibles pour certaines maladies. Afin de vérifier quel traitement est le meilleur, nous effectuons un essai spécial. Dans l'essai, nous commençons par n'avoir aucun sujet, puis, un par un, d'autres sujets sont entrés dans l'essai. Chaque patient est affecté aléatoirement à l'un des 4 traitements possibles. Le résultat final d'un traitement est soit "sain" soit "encore malade", et disons que nous pouvons connaître ce résultat instantanément. Cela signifie qu'à tout moment, nous pouvons créer un tableau de contingence de deux par quatre, indiquant combien de nos sujets sont tombés dans quel traitement / résultat final.
À tout moment, nous pouvons vérifier le tableau de contingence (par exemple, en utilisant un test du chi carré), pour voir s'il existe un traitement statistiquement différent entre les 4 traitements possibles. Si l'un d'eux est meilleur que tous les autres - nous arrêtons le procès et le choisissons comme "gagnant". Si un essai s'avère pire que les trois autres, nous le retirerons de l'essai et cesserons de le donner aux futurs patients.
Cependant, le problème ici est de savoir comment ajuster la valeur de p pour le fait que le test peut être effectué à un moment donné, qu'il existe une corrélation entre les tests et également que la nature adaptative du processus manipule le processus (pour exemple, si un traitement est jugé "mauvais")?
la source
Réponses:
Ce domaine des essais cliniques séquentiels a été largement exploré dans la littérature. Certains des chercheurs notables sont Scott Emerson, Tom Flemming, David DeMets, Stephen Senn et Stuart Pocock, entre autres.
Il est possible de spécifier une "règle de dépenses alpha". Le terme a ses origines dans la nature des tests fréquentistes (non-pêcheurs) où, chaque action qui augmente le risque de faux positifs devrait nécessairement réduire le pouvoir de garder le test de la bonne taille. Cependant, la majorité de ces tests exigent que les "règles d'arrêt" soient prédéfinies sur la base des limites de l'information de l'étude. (pour rappel, plus d'informations signifie plus de puissance lorsque la valeur null est fausse).
Il semble que ce qui vous intéresse soit un processus de surveillance continue dans lequel chaque heure de l'événement justifie un "regard" sur les données. À ma connaissance, un tel test n'a aucun pouvoir. Cela peut être fait avec une analyse bayésienne où le postérieur est continuellement mis à jour en fonction du temps, et les facteurs de Bayes sont utilisés pour résumer les preuves plutôt que les valeurs .p
Voir
[1] www.rctdesign.org/
la source
Cela ressemble à une simulation est en règle.
J'ai donc simulé votre procédure comme suit: personnes sont ajoutées à l'essai une par une, assignées au hasard à l'un des groupes. Le résultat du traitement pour cette personne est choisi au hasard (c'est-à-dire que je simule l'hypothèse nulle de tous les traitements n'ayant aucun effet). Après avoir ajouté chaque personne, j'effectue un test du chi carré sur la table de contingence et vérifie si . Si tel est le cas, alors (et seulement à ce moment-là), j'effectue également des tests de chi carré sur les tables de contingence réduites pour tester chaque groupe par rapport à trois autres groupes regroupés. Si l'un de ces quatre autres tests s'avère significatif (avec le même4 4 × 2 p ≤ α 2 × 2 α N NN=1000 4 4×2 p≤α 2×2 α ), je vérifie ensuite si ce traitement est meilleur ou pire que les trois autres regroupés. Si pire, je rejette ce traitement et continue d'ajouter des gens. Si c'est mieux, j'arrête le procès. Si toutes les personnes sont ajoutées sans aucun traitement gagnant, l'essai est terminé (notez que les résultats de mon analyse dépendront fortement de ).N N
Maintenant, nous pouvons exécuter cela plusieurs fois et savoir dans quelle fraction de séries l'un des traitements sortira vainqueur - ce serait de faux positifs. Si je l'exécute 1000 fois pour un nominal , j'obtiens 282 faux positifs, soit un taux d'erreur de type II.0,28α=0.05 0.28
Nous pouvons répéter toute cette analyse pour plusieurs nominaux et voir quel taux d'erreur réel nous obtenons: Donc, si vous voulez que le taux d'erreur réel soit maintenu par exemple à , vous devez choisir le nominal d'environ - mais bien sûr, il vaut mieux exécuter un simulation plus longue pour estimer cela plus précisément.α taux d'erreur 0,05 ∼ 0,28 0,01 ∼ 0,06 0,001 ∼ 0,008 0,05 α 0,008α
Mon code rapide et sale dans Matlab est ci-dessous. Veuillez noter que ce code est mort de cerveau et n'est pas optimisé du tout; tout tourne en boucle et horriblement lent. Cela peut probablement être beaucoup accéléré.
la source