Bien que le titre de la question semble trivial, je voudrais expliquer qu'il n'est pas si trivial dans le sens où il est différent de la question d'appliquer le même test statistique dans des ensembles de données similaires pour tester une hypothèse nulle totale (méta-analyse, par exemple en utilisant la méthode de Fisher pour combiner les valeurs de p). Ce que je recherche, c'est une méthode (si elle existe et si la question est valable en termes statistiques) qui combinerait les valeurs de p de deux tests statistiques différents (par exemple un test t et un test u, même si l'un est paramétrique et l'autre non), appliqués pour comparer les centres de deux échantillonnages de deux populations. Jusqu'à présent, j'ai beaucoup cherché sur le Web sans réponse claire. La meilleure réponse que j'ai pu trouver était basée sur les concepts de la théorie des jeux de David Bickel ( http://arxiv.org/pdf/1111.6174.pdf ).
Une solution très simpliste serait un système de vote. Supposons que j'ai deux vecteurs d'observations et et que je souhaite appliquer plusieurs statistiques de type t (test t, test u, même ANOVA 1 voie) pour tester l'hypothèse que les centres (moyennes, médianes, etc.) des deux distributions sous-jacentes sont égaux à l'hypothèse qu'ils ne le sont pas, à un niveau de signification de 0,05. Supposons que je lance 5 tests. Serait-il légitime de dire qu'il existe des preuves suffisantes pour rejeter la distribution nulle si j'ai une valeur de p <0,05 dans 3 tests sur 5?
Une autre solution serait-elle d'utiliser la loi de la probabilité totale ou c'est complètement faux? Par exemple, supposons que est l'événement où la distribution nulle est rejetée. Ensuite, en utilisant 3 tests, , , (ce qui signifie que ), une valeur possible pour serait-elle , où est la probabilité que la distribution nulle soit rejetée sous le test .
Je m'excuse si la réponse est évidente ou la question trop stupide
la source
Réponses:
Utiliser la correction de tests multiples comme préconisé par Corone est correct, mais cela vous coûtera des montagnes de puissance car vos valeurs p seront généralement bien corrélées, même en utilisant la correction de Hommel.
Il existe une solution exigeante en calcul mais qui fera beaucoup mieux en terme de puissance. Sip1,p2, … ,pn sont vos valeurs p, laissez p∗= min (p1, … ,pn) . Considérez que est votre nouvelle statistique de test: plus elle est petite, plus elle est forte contre l'hypothèse nulle.p∗
Vous devez calculer -value la valeur observée de (appeler ). Pour cela, vous pouvez simuler, disons, 100 000 ensembles de données sous les hypothèses nulles, et pour chacun de ces ensembles de données, calculer un . Cela vous donne une distribution empirique de sous l'hypothèse nulle. Votre valeur est la proportion de valeurs simulées qui sont .p p∗ p∗o b s p∗ p∗ p <p∗o b s
Comment simulez-vous les ensembles de données sous l'hypothèse nulle? Dans votre cas, vous avez, si je suppose bien, des cas et des contrôles, et des données RNS-seq pour estimer les niveaux d'expression. Pour simuler un ensemble de données sous la valeur NULL, il est habituel de simplement permuter de manière aléatoire l'état du cas / contrôle.
la source
Ce genre de chose serait généralement couvert par des tests d'hypothèses multiples, bien que ce ne soit pas tout à fait une situation typique.
Vous avez raison de noter que cela est différent de la méta-analyse, en ce que vous utilisez les mêmes données pour plusieurs tests, mais cette situation est toujours couverte par les tests à hypothèses multiples. Ce qui est un peu étrange ici, c'est que c'est presque la même hypothèse que vous testez plusieurs fois, puis que vous voulez l'hypothèse nulle globale qui est l'intersection de tous ceux-ci - il vaut peut-être la peine de se demander pourquoi vous ressentez le besoin de le faire , mais il pourrait y avoir des raisons légitimes.
Si vous faisiez un ensemble de tests plus analytique, on pourrait emprunter l'itinéraire de test Union-Intersection, mais je ne pense pas que cela vous mènerait à quelque chose, donc je vous recommande d'utiliser une correction de multiplicité prête à l'emploi.
Je vous suggère de commencer par jeter un œil à ce que Wikipedia a à dire sur le sujet, mais essayez de ne pas vous enliser trop: http://en.wikipedia.org/wiki/Multiple_comparisons
Donc, vous devez utiliser une correction de multiplicité et exclure Union-Intersection, grossièrement vos options sont les suivantes
Votre plus gros problème est que vous obtiendrez très probablement des valeurs de p très similaires dans vos différents tests. Hommel ne devrait pas trop vous punir pour cela.
Par exemple, vous pouvez ajuster les valeurs de p dans R en utilisant
p.adjust
Ces méthodes contrôlent toutes le taux d'erreur au niveau de la famille, ce qui signifie que si vous testez tour à tour chaque valeur de p en fonction du dépassement de votre seuil, la probabilité d'une ou plusieurs erreurs est toujours contrôlée àα . Cela signifie que vous pouvez rejeter l'hypothèse globale si vous rejetez une ou plusieurs sous-hypothèses, et la taille de votre test est toujours contrôlée àα .
Comme je l'ai laissé entendre au début, ce ne sera pas l'attaque la plus puissante que vous puissiez faire, mais tout ce qui est plus sophistiqué nécessitera beaucoup plus de travail.
Pourquoi cela contrôleα
L'hypothèse nulle globale est que toutes les hypothèses nulles enfants sont vraies.
Que le résultat d'un seul test soitXje prendre la valeur 1 si le null est rejeté, 0 sinon.
DepuisXje sont sans aucun doute positivement corrélés, nous pouvons utiliser Hommel pour contrôler le FWER.
Ce contrôle signifie que la probabilité qu'un ou plusieurs tests rejettent faussement est contrôlée àα
Donc,P( ∑ (Xje) > 0 ) ≤ α
Par conséquent, si vous rejetez l'hypothèse globale si une ou plusieurs hypothèses enfants sont rejetées, la taille du test global est≤ α
la source