J'ai vu de nombreux cas où des erreurs de type I sont prises en compte (désignées par une valeur alpha) dans divers articles de recherche. J'ai trouvé rare qu'un chercheur prenne en considération la puissance ou l'erreur de type II.
Les erreurs de type II peuvent être un gros problème, non? Nous avons accidentellement rejeté l'hypothèse alternative alors qu'elle était en réalité fausse. Pourquoi les valeurs alpha sont-elles tellement mises en évidence au lieu des valeurs bêta?
Quand j'ai pris des statistiques de première année, je n'ai jamais appris la bêta, seulement l'alpha. J'estime que ces deux erreurs devraient être traitées également. Pourtant, seul l'alpha semble être souligné.
Réponses:
C'est une bonne question. Permettez-moi de commencer par quelques clarifications:
Je pense que vous avez (malheureusement) raison de prêter moins d'attention aux erreurs d'alimentation et de type II. Bien que je pense que la situation s'améliore dans la recherche biomédicale (par exemple, les agences de financement et les IRB exigent souvent des analyses de puissance maintenant), je pense qu'il y a plusieurs raisons à cela:
la source
La raison en est que nous ne connaissons tout simplement pas le taux d'erreur réel de type II et nous ne le saurons jamais. Cela dépend d'un paramètre que nous ne connaissons généralement pas. À son tour, si nous connaissions ce paramètre, nous n'aurions pas besoin de faire un test statistique.
Cependant, nous pouvons planifier une expérience de telle sorte qu'un taux d'erreur spécifique de type II soit atteint, étant donné qu'une alternative est vraie. De cette façon, nous choisirions une taille d'échantillon qui ne gaspille pas les ressources: soit parce que le test ne rejette pas à la fin, soit parce que déjà une taille d'échantillon beaucoup plus petite aurait suffi pour rejeter l'hypothèse.
la source