La correction de Bonferroni est-elle trop anti-conservatrice / libérale pour certaines hypothèses dépendantes?

8

J'ai souvent lu que la correction de Bonferroni fonctionne également pour les hypothèses dépendantes. Cependant, je ne pense pas que ce soit vrai et j'ai un contre-exemple. Quelqu'un peut-il me dire (a) où est mon erreur ou (b) si j'ai raison sur ce point.

Configuration de l'exemple de compteur

Supposons que nous testons deux hypothèses. Soit la première hypothèse est fausse et sinon. Définissez même manière. Soit les valeurs de p associées aux deux hypothèses et que Dénote la fonction d'indicateur pour l'ensemble spécifié entre crochets.H1=0H1=1H2p1,p2[[]]

Pour fixe définir qui sont évidemment des densités de probabilité sur . Voici un tracé des deux densitésθ[0,1]

P(p1,p2|H1=0,H2=0)=12θ[[0p1θ]]+12θ[[0p2θ]]P(p1,p2|H1=0,H2=1)=P(p1,p2|H1=1,H2=0)=1(1-θ)2[[θp11]][[θp21]]
[0,1]2

entrez la description de l'image ici

La marginalisation donne et de même pour .

P(p1|H1=0,H2=0)=12θ[[0p1θ]]+12P(p1|H1=0,H2=1)=1(1-θ)[[θp11]]
p2

De plus, laissons Cela implique que

P(H2=0|H1=0)=P(H1=0|H2=0)=2θ1+θP(H2=1|H1=0)=P(H1=1|H2=0)=1θ1+θ.
P(p1|H1=0)=h2{0,1}P(p1|H1=0,h2)P(h2|H1=0)=12θ[[0p1θ]]2θ1+θ+122θ1+θ+1(1θ)[[θp11]]1θ1+θ=11+θ[[0p1θ]]+θ1+θ+11+θ[[θp11]]=U[0,1]
est uniforme comme requis pour les valeurs de p sous l'hypothèse Null. Il en va de même pour raison de la symétrie.p2

Pour obtenir la distribution conjointe nous calculonsP(H1,H2)

P(H2=0|H1=0)P(H1=0)=P(H1=0|H2=0)P(H2=0)2θ1+θP(H1=0)=2θ1+θP(H2=0)P(H1=0)=P(H2=0):=q
Par conséquent, la distribution conjointe est donnée par ce qui signifie que .
P(H1,H2)=H2=0H2=1H1=02θ1+θq1-θ1+θqH1=11-θ1+θq1+θ-2q1+θ
0q1+θ2

Pourquoi c'est un contre-exemple

Soit maintenant pour le niveau de signification intéresse. La probabilité d'obtenir au moins un faux positif avec le niveau de signification corrigé étant donné que les deux hypothèses sont fausses (ie ) est donnée par car toutes les valeurs de et sont inférieures à étant donné que etθ=α2αα2Hje=0

P((p1α2)(p2α2)|H1=0,H2=0)=1
p1p2α2H1=0H2=0par construction. La correction de Bonferroni, cependant, prétendrait que le FWER est inférieur à .α
fabee
la source
Très bonne question. J'aimerais que quelqu'un réponde
1
L'opposé du conservateur est anticonservateur dans le monde statistique!
AdamO
Je ne le savais pas. J'ai cru lire libéral quelques fois.
fabee
Merci, mais c'est quelque chose de différent. Vous avez besoin d'une hypothèse supplémentaire (la dépendance n'est pas le problème, voir ma réponse ci-dessous).
fabee

Réponses:

3

Bonferroni ne peut pas être libéral, indépendamment de la dépendance, si vos valeurs p sont calculées correctement.

Soit A l'événement d'une erreur de type I dans un test et B l'événement d'une erreur de type I dans un autre test. La probabilité que A ou B (ou les deux) se produisent est:

P (A ou B) = P (A) + P (B) - P (A et B)

Parce que P (A et B) est une probabilité et ne peut donc pas être négatif, cette équation n'a aucun moyen de produire une valeur supérieure à P (A) + P (B). La valeur la plus élevée que l'équation peut produire est lorsque P (A et B) = 0, c'est-à-dire lorsque A et B dépendent parfaitement négativement. Dans ce cas, vous pouvez remplir l'équation comme suit, en supposant que les valeurs nulles sont vraies et un niveau alpha ajusté par Bonferroni de 0,025:

P (A ou B) = P (A) + P (B) - P (A et B) = .025 + .025 - 0 = .05

Sous toute autre structure de dépendance, P (A et B)> 0, l'équation produit donc une valeur encore plus petite que 0,05. Par exemple, sous une dépendance positive parfaite, P (A et B) = P (A), auquel cas vous pouvez remplir l'équation comme suit:

P (A ou B) = P (A) + P (B) - P (A et B) = .025 + .025 - .025 = .025

Autre exemple: sous indépendance, P (A et B) = P (A) P (B). Par conséquent:

P (A ou B) = P (A) + P (B) - P (A et B) = .025 + .025 - .025 * .025 = .0494

Comme vous pouvez le voir, si un événement a une probabilité de 0,025 et qu'un autre événement a également une probabilité de 0,025, il est impossible que la probabilité d'un ou des deux événements soit supérieure à 0,05, car il est impossible pour P ( A ou B) doit être supérieur à P (A) + P (B). Toute affirmation contraire est logiquement absurde.

"Mais cela suppose que les deux valeurs nulles sont vraies", pourrait-on dire. "Et si le premier nul est vrai et le second est faux?" Dans ce cas, B est impossible car vous ne pouvez pas avoir d'erreur de type I lorsque l'hypothèse nulle est fausse. Ainsi, P (B) = 0 et P (A et B) = 0. Remplissons donc notre formule générale pour le FWER de deux tests:

P (A ou B) = P (A) + P (B) - P (A et B) = .025 + 0 - 0 = .025

Donc, encore une fois, le FWER est <0,05. Notez que la dépendance n'est pas pertinente ici parce que P (A et B) est toujours 0. Un autre scénario possible est que les deux valeurs nulles sont fausses, mais il devrait être évident que le FWER serait alors 0, et donc <0,05.

Bonferroni
la source
Merci d'avoir répondu. J'ai lu des dérivations comme la vôtre plusieurs fois et elles ont du sens. Cependant, je ne vois toujours pas l'erreur dans mon exemple. Si c'est absurde, où est mon erreur? J'ai le sentiment que le problème est que vous prenezP(UNE) être P(UNE|H01=True), mais pour le FWER qui vous intéresse réellement P(UNEB|H0(1)=TrueH0(2)=True). Vous pouvez toujours avoirP(UNE|H0(1)=True)=α mais P(UNE|H0(1)=TrueH0(2)=True)>α. C'est ce que j'ai construit dans mon exemple. Votre exemple est correct si l'erreur de type I est indépendante de l'autre hypothèse.
fabee
Le calcul du FWER suppose que les deux valeurs nulles sont vraies, donc P (A) signifie la même chose que P (A | null 1 est vrai) et P (B) signifie la même chose que P (B | null 2 ​​est vrai). Les probabilités conditionnelles sont donc inutiles. Vous devriez peut-être réécrire votre exemple sans eux. Notez que si "toutes les valeurs de p1 et p2 sont inférieures à α / 2 étant donné que H1 = 0 et H2 = 0 par construction", alors vous avez simplement construit un scénario dans lequel les valeurs de p ne sont pas calculées correctement. Si chaque p est testé à α / 2, chaque p doit avoir une chance de signification α / 2 par définition, mais vous avez apparemment donné à chaque p 100% de chance de signification.
Bonferroni
Je ne pense pas que tu aies raison. Si le taux d'erreur FWER suppose que les deux valeurs nulles sont vraies, alors je veux calculer P (A ou B | null 1 et 2 sont vrais). La décomposition que vous avez écrite dans votre réponse nécessite donc la même condition sur le côté droit. Ce n'est qu'en utilisant des probabilités conditionnelles que cela devient clair. Mes valeurs de p sont calculées correctement car P (A | null 1 est vrai) est toujoursαComme il se doit. Mais notez que P (A | null 1 est vrai) n'est généralement pas identique à P (A | null 1 et null 2 ​​sont vrais).
fabee
1
Dessinez un grand carré sur une feuille de papier représentant l'espace total de l'échantillon des résultats possibles. Ensuite, dessinez un cercle qui occupe 2,5% de l'aire du carré et étiquetez-le A. Ensuite, dessinez un autre cercle qui occupe 2,5% de l'aire du carré et étiquetez-le B. Faites en sorte que A et B se chevauchent aussi peu ou autant comme vous le souhaitez (c'est à dire jouer avec la dépendance entre A et B). Vous constaterez qu'il n'y a aucun moyen que la zone combinée de A et B soit supérieure à 2,5% + 2,5% = 5%.
Bonferroni
1
Il semble que vous soyez confus au sujet de la probabilité à un niveau très fondamental et que vous n'êtes pas encore prêt à vous attaquer aux mathématiques. Nous supposons que les deux valeurs nulles sont vraies car c'est la situation qui produit le FWER maximal. Si les deux valeurs nulles sont fausses, il ne peut évidemment y avoir aucune erreur de type I. Et si un nul est vrai et un nul est faux, le taux d'erreur est tout simplement le niveau alpha que vous utilisez pour tester le vrai.
Bonferroni
0

Je pense que j'ai enfin la réponse. J'ai besoin d'une exigence supplémentaire sur la distribution deP(p1,p2|H1=0,H2=0). Avant, je demandais seulement queP(p1|H1=0)est uniforme entre 0 et 1. Dans ce cas mon exemple est correct et Bonferroni serait trop libéral. Cependant, si j’exige en outre l’uniformité desP(p1|H1=0,H2=0)alors il est facile de déduire que Bonferroni ne peut jamais être trop conservateur. Mon exemple viole cette hypothèse. En termes plus généraux, l'hypothèse est que la distribution de toutes les valeurs de p étant donné que toutes les hypothèses nulles sont vraies doit avoir la forme d'une copule : conjointement, elles n'ont pas besoin d'être uniformes, mais marginalement elles le font.

Commentaire: Si quelqu'un peut me pointer vers une source où cette hypothèse est clairement énoncée (manuel, papier), j'accepterai cette réponse.

fabee
la source