Cela semble être une question assez simple, mais quand j'y pense vraiment, la méthode de Stouffer n'a pas de sens pour moi. C'est pourquoi:
Supposons une hypothèse bilatérale. Vous calculez d'abord partir des valeurs de . Prenons donc un exemple assez simple. Prenons deux valeurs de de . Cela signifie que et sont tous deux . Selon la méthode de Stouffer, et sont combinés de telle sorte que:
Cette -Score obtient ensuite converti en un une fois de plus -valeur, résultant en un -valeur de , alors que les -values de chaque est individuellement environ .
En ce sens, il semble que le test de Stouffer modifie artificiellement la valeur résultante en une valeur différente des valeurs de chaque , ce qui pour moi n'a pas de sens.
Suis-je mal compris ce test ou quelqu'un peut-il m'aider à comprendre comment / pourquoi il fonctionne?
R
, calcul utilisantprop.test(535,1000)
, etc.)Réponses:
La taille globale de l'échantillon plus élevée conduit à une puissance plus élevée et donc à une valeur p plus petite (au moins si l'hypothèse de travail est étayée par les données).
C'est généralement le point principal de toute méta-analyse: plusieurs preuves faibles soutenant une hypothèse sont combinées à des preuves solides.
la source
Pour plus de simplicité, pensez en termes de test des moyens. Supposons que sous H0, l'effet de traitement soit nul, de sorte que chaque valeur z est une estimation pondérée de l'effet de traitement θi. La méthode de Stouffer donne une moyenne non pondérée de ces effets de traitement et donnera donc une estimation plus précise (et donc une valeur p plus petite) que chaque valeur z distincte. Cette estimation non pondérée de l'effet du traitement est biaisée, mais une méthode de Stouffer pondérée est possible, et si les poids sont proportionnels à 1 / erreur standard (θi), l'estimation de l'effet du traitement est non biaisée. Cela n'a cependant de sens que si les valeurs z distinctes sont des mesures de la même quantité. Un avantage des méthodes de Stouffer's et Fisher est qu'elles peuvent également être appliquées à des méta-analyses où différentes variables de réponse ont été choisies - afin qu'elles puissent ''
la source
Pensez-y du point de vue de la méta-analyse: s'il n'y a pas eu d'effet (H0 ), p les valeurs seraient également réparties entre 0 et 1. Donc, si vous obtenez p < 0,1 dans plus de 10% de toutes les analyses individuelles (potentiellement un grand nombre d'entre elles), cela peut aboutir à la conclusion que H0 devrait probablement être rejeté.
Je ne vois même pas de problème pour les tests bilatéraux: Dans ce cas, le résultat doit être interprété comme: Il est peu probable que la vraie moyenne soit 0 (dans l'exemple d'un gaussien autour de 0), mais je ne peux pas le dire (à partir de le précédent ou le combinép si la vraie moyenne est au-dessus ou en dessous.
la source
Je pense que ce serait bien de combiner des résultats bilatéraux parce que cela signifie que le résultat serait nul (s'il existe des preuves que le traitement améliore [la queue droite] la maladie d'un patient, mais aussi des preuves qu'elle s'aggrave [gauche -tail], le résultat net n'est pas une preuve d'une hypothèse particulière car ils s'annulent et plus d'observations sont nécessaires.
la source