Si les tests non paramétriques sont supposés avoir moins de puissance que leurs alternatives paramétriques, cela signifie-t-il que si un test paramétrique ne rejette pas null, alors son alternative non paramétrique ne rejette pas aussi null? Comment cela peut-il changer si les hypothèses du test paramétrique ne sont pas remplies et que le test est utilisé de toute façon?
hypothesis-testing
nonparametric
parametric
Miroslav Sabo
la source
la source
Réponses:
Si un test paramétrique ne parvient pas à rejeter l'hypothèse nulle, son équivalent non paramétrique peut définitivement rejeter l'hypothèse nulle. Comme l'a dit @John, cela se produit généralement lorsque les hypothèses qui justifieraient l'utilisation du test paramétrique sont violées. Par exemple, si nous comparons le test t à deux échantillons avec le test de somme de rang de Wilcoxon, nous pouvons obtenir que cette situation se produise si nous incluons les valeurs aberrantes dans nos données (avec les valeurs aberrantes, nous ne devrions pas utiliser le test à deux échantillons).
Les résultats de l'exécution du test:
la source
Non.
Alors que les tests paramétriques peuvent être plus puissants, ce n'est pas toujours le cas. Lorsque ce n'est pas le cas, c'est généralement dans des situations où vous ne devriez pas exécuter les tests paramétriques.
Mais, même si vous collectez des échantillons de taille décente à partir de distributions normales avec une variance égale où le test paramétrique a une puissance plus élevée, cela ne garantit pas que pour une expérience particulière, un test paramétrique non significatif signifie un test non paramétrique non significatif. Voici une simulation qui utilise simplement un échantillonnage aléatoire à partir de distributions normales et constate qu'environ 1,8% du temps lorsque p> 0,05 pour un test t que p <0,05 pour un test de Wilcoxon.
Vous pourriez noter que, dans cette simulation, la puissance du test paramétrique est supérieure à celle du test non paramétrique (bien qu'ils soient similaires).
Mais, comme indiqué ci-dessus, cela ne signifie pas que dans tous les cas où le test paramétrique ne parvient pas à trouver un effet que le test non paramétrique échoue également.
Vous pouvez jouer avec cette simulation. Faites n assez grand, disons 1000, et réduisez la taille de l'effet, disons 0,02 (vous avez besoin d'une faible puissance pour avoir beaucoup d'échantillons là où le test échoue). Vous pouvez être à peu près garanti avec un n de 1000 qu'aucun des échantillons ne serait rejeté pour non-normalité (par inspection, pas un test stupide) ou aurait des valeurs aberrantes suspectes. Pourtant, certains tests paramétriques s'avèrent non significatifs tandis que les tests non paramétriques sont significatifs.
Vous voudrez peut-être aussi regarder Hunter & May (1993).
Hunter, MA et May, RB (1993). Quelques mythes concernant les tests paramétriques et non paramétriques. Psychologie canadienne, 34 (4), 384-389.
la source