Test U de Mann-Whitney: intervalle de confiance pour la taille de l'effet

13

Selon Fritz, Morris et Richler (2011; voir ci-dessous), peut être calculé comme une taille d'effet pour le test U de Mann-Whitney en utilisant la formule . moi, comme je signale aussi à d' autres occasions. Je voudrais signaler l'intervalle de confiance pour en plus de la mesure de la taille de l'effet.r = zr rr

r=zN
rr

Voici mes questions :

  • Puis-je calculer les intervalles de confiance pour r comme pour r de Pearson, bien qu'il soit utilisé comme mesure de taille d'effet pour un test non paramétrique?
  • Quels intervalles de confiance doivent être déclarés pour les tests unilatéraux et bilatéraux?

Modifier concernant la deuxième question: "Quels intervalles de confiance doivent être déclarés pour les tests unilatéraux vs bilatéraux?"

J'ai trouvé plus d'informations que IMHO peut répondre à cette question. "Alors que les limites de confiance bilatérales forment un intervalle de confiance, leurs homologues unilatéraux sont appelés limites de confiance inférieures ou supérieures." ( http://en.wikipedia.org/wiki/Confidence_interval ). D'après ces informations, je conclus que ce n'est pas la question principale de savoir si le test de signification (par exemple, le test ) était unilatéral ou bilatéral, mais quelles informations on est intéressé par rapport à l'IC pour la taille de l'effet. Ma conclusion (veuillez me corriger si vous n'êtes pas d'accord):t

  • IC bilatéral intéressé par les limites supérieure et inférieure (en conséquence, il est possible qu'un IC bilatéral entraîne 0 bien que le test de signification unilatéral soit p <0,05, en particulier dans le cas où la valeur était proche de .05.)
  • "CI" unilatéral uniquement intéressé par la limite supérieure ou inférieure (en raison du raisonnement théorique); cependant, ce n'est pas nécessairement la principale question d'intérêt après avoir testé une hypothèse dirigée. Un CI bilatéral est parfaitement approprié si l'accent est mis sur la plage possible d'une taille d'effet. Droite?

Voir ci-dessous le passage du texte de Fritz, Morris et Richler (2011) sur l'estimation de la taille des effets pour le test de Mann-Whitney de l'article auquel je fais référence ci-dessus.

"La plupart des estimations de la taille d'effet que nous avons décrites ici supposent que les données ont une distribution normale. Cependant, certaines données ne répondent pas aux exigences des tests paramétriques, par exemple, des données sur une échelle ordinale mais pas d'intervalle. Pour ces données, les chercheurs se tournent généralement vers des tests statistiques non paramétriques, tels que les tests de Mann – Whitney et de Wilcoxon. L'importance de ces tests est généralement évaluée par l'approximation des distributions des statistiques de test à la distribution lorsque les tailles d'échantillon ne sont pas trop petites et les packages, tels que SPSS, qui exécutent ces tests indiquent la valeur z appropriée en plus des valeurs pour U ou T ; zzzUTzpeut également être calculé à la main (par exemple, Siegel et Castellan, 1988). La valeur peut être utilisée pour calculer une taille d'effet, comme le r proposé par Cohen (1988); Les directives de Cohen pour r sont qu'un effet important est 0,5, un effet moyen est 0,3 et un petit effet est 0,1 (Coolican, 2009, p. 395). Il est facile de calculer r , r 2 ou η 2 à partir de ces valeurs z car r = zzrrr2η2z et r2

r=zN
Ces estimations de la taille de l'effet restent indépendantes de la taille de l'échantillon malgré la présence de N dans les formules. En effet, z est sensible à la taille de l'échantillon; la division par une fonction de N supprime l'effet de la taille de l'échantillon de l'estimation de la taille de l'effet résultant. "(p. 12)
r2orη2=z2N
gris
la source
Le document est disponible gratuitement ici .
asac

Réponses:

9

Un choix de taille d'effet pour le test de Mann-Whitney U est la taille d'effet de langage commun. Pour l'U de Mann-Whitney, il s'agit de la proportion de paires d'échantillons qui soutient une hypothèse énoncée.

Un deuxième choix est la corrélation de rang; parce que la corrélation de rang varie de -1 à +1, il a des propriétés similaires à celles du Pearson r. De plus, par la simple formule de différence, la corrélation de rang est la différence entre la taille de l'effet de langage commun et son complément, un fait qui favorise l'interprétation. Par exemple, s'il existe 100 paires d'échantillons et si 70 paires d'échantillons prennent en charge l'hypothèse, la taille de l'effet de langage commun est de 70% et la corrélation de rang est r = 0,70 = 0,30 = 0,40. Une discussion claire de la taille de l'effet de langage commun et de quatre formules pour calculer la corrélation de rang est donnée par Kerby dans la revue Innovative Teaching: Kerby (2014) Innovative Teaching

Soit dit en passant, bien que l'article ne le mentionne pas, je suis assez certain que Somers d et la corrélation de rang pour Mann-Whitney sont équivalents.

DSK
la source
1
Voulez-vous dire "Par exemple, s'il y a 100 paires possibles "? Le test U de Mann-Whitney est pour les données non appariées, donc le phrasé est ambigu - vous voudrez peut-être clarifier pour les lecteurs quelles sont les paires possibles.
gung - Rétablir Monica
1
Merci pour le commentaire et la chance de clarifier. J'ai fait référence aux paires d' échantillons . S'il y a 10 observations dans l'échantillon expérimental, et s'il y a 10 observations dans l'échantillon témoin, alors il y a 10 * 10 = 100 paires d' échantillons . Selon Robert Grissom, la taille d'effet de l'échantillon est un estimateur non biaisé de la taille d'effet de la population. Ainsi, si la corrélation de rang est r = 0,40 pour l'échantillon, il s'agit d'un estimateur non biaisé de la taille de l'effet de la population.
DSK
Je pensais que c'était ce que tu voulais dire, @DSK. Je pense que cette explication aidera les gens. Vous voudrez peut-être modifier cela dans votre réponse. Bienvenue sur CV.
gung - Rétablir Monica
8

Votre lien m'amène à une opportunité d'acheter l'article.

cHmiscrcorr.censcXyXy=2×(c-12)

Frank Harrell
la source
Merci d'avoir porté cela à ma connaissance (lien). J'ai maintenant inséré le passage sur le test de Mann-Whitney dans ma question.
gris
Merci beaucoup pour votre réponse. Avez-vous éventuellement un lien à portée de main sur la façon d'interpréter le c-index et le D de Somers? Je serais particulièrement intéressé à savoir si ce dernier peut être interprété comme comparable à r. J'ai deux échantillons et dans le deuxième échantillon (N plus grand et distribution normale) je rapporte r. Je pense que cela faciliterait la comparaison des résultats si les mesures utilisées étaient similaires - dans la mesure du possible, bien sûr. C'est pourquoi je me suis intéressé à la formule mentionnée par Fritz et al. (2011). Donc, l'IC pour leur r ne peut pas être calculé comme pour le r de Pearson, je suppose? Merci encore!
gris
zXyOuic
Merci beaucoup pour votre réponse. J'ai cherché plus d'informations sur la façon d'interpréter Somer, mais je n'ai pas réussi jusqu'à présent. Le d de Somer peut-il être compris de manière similaire au coefficient de corrélation de Pearson, par exemple, la mise au carré donne-t-elle un coefficient de détermination? Je serais très heureux de trouver une mesure de taille d'effet qui puisse être interprétée de la même manière que r, s'il en existe une.
gris
J'ai trouvé plus d'informations sur la formule r = Z / √ (N): Rosenthal (1991) écrit que "nous pouvons utilement estimer une taille d'effet r à partir du niveau ap seul tant que nous connaissons la taille de l'étude (N). Nous convertissons le p obtenu en son équivalent d'écart normal standard à l'aide d'un tableau de valeurs Z. "
gris