Dans un test t moyen des moyens, en utilisant les méthodes habituelles de test d'hypothèse, nous rejetons le nul ou ne le rejetons pas mais nous n'acceptons jamais le nul. Une des raisons à cela est que si nous obtenions plus de preuves, la même taille d'effet deviendrait significative.
Mais que se passe-t-il dans un test de non infériorité?
C'est:
contre.
où est un montant que nous considérons comme essentiellement le même. Donc, si nous rejetons la valeur nulle, nous disons que est supérieur à d'au moins . Nous ne rejetons pas la nullité s'il n'y a pas de preuves suffisantes. μ 1 μ 0 x
Si la taille de l'effet est ou supérieure, cela est analogue au test t normal. Mais que faire si la taille de l'effet est inférieure à dans l'échantillon que nous avons? Ensuite, si nous augmentions la taille de l'échantillon et conservions le même effet, cela resterait non significatif. Pouvons-nous donc accepter la nullité dans ce cas?x
la source
Réponses:
Votre logique s'applique exactement de la même manière aux bons vieux tests unilatéraux (c'est-à-dire avec ) qui peuvent être plus familiers aux lecteurs. Pour être concret, imaginez que nous testons le rapport à l'alternative que est positif. Ensuite, si true est négatif, l'augmentation de la taille de l'échantillon ne donnera pas de résultat significatif, c'est-à-dire que pour utiliser vos mots, il n'est pas vrai que "si nous obtenions plus de preuves, la même taille d'effet deviendrait significative".H 0 : μ ≤ 0 μ μx=0 H0:μ≤0 μ μ
Si nous testons , nous pouvons avoir trois résultats possibles:H0:μ≤0
Premièrement, intervalle de confiance peut être entièrement supérieur à zéro; alors nous rejetons le null et acceptons l'alternative (que est positif).μ(1−α)⋅100% μ
Deuxièmement, l'intervalle de confiance peut être entièrement inférieur à zéro. Dans ce cas, nous ne rejetons pas le null. Cependant, dans ce cas, je pense qu'il est bon de dire que nous "acceptons le null", car nous pourrions considérer comme un autre null et rejeter celui-ci.H1
Troisièmement, l'intervalle de confiance peut contenir zéro. Ensuite, nous ne pouvons pas rejeter et nous ne pouvons pas non plus rejeter , il n'y a donc rien à accepter.H 1H0 H1
Je dirais donc que dans des situations unilatérales, on peut accepter le nul, oui. Mais nous ne pouvons l'accepter simplement parce que nous ne l'avons pas rejeté; il y a trois possibilités, pas deux.
(Exactement la même chose s'applique aux tests d'équivalence alias "tests bilatéraux" (TOST), tests de non-infériorité, etc. On peut rejeter le null, accepter le null ou obtenir un résultat non concluant.)
En revanche, lorsque est un point nul tel que , nous ne pouvons jamais l'accepter, car ne constitue pas une hypothèse nulle valide.H0 H0:μ=0 H1:μ≠0
(À moins que ne puisse avoir que des valeurs discrètes, par exemple doit être un entier; alors il semble que nous pourrions accepter car constitue maintenant un null valide Ceci est cependant un cas particulier.)H 0 : μ = 0 H 1μ H0:μ=0 H1:μ∈Z,μ≠0
Cette question a été discutée il y a quelque temps dans les commentaires sous la réponse de @ gung ici: pourquoi les statisticiens disent-ils qu'un résultat non significatif signifie "vous ne pouvez pas rejeter le nul" plutôt que d'accepter l'hypothèse nulle?
Voir aussi un fil intéressant (et sous-voté) Le fait de ne pas rejeter le nul dans l'approche Neyman-Pearson signifie-t-il qu'il faut «l'accepter»? , où @Scortchi explique que dans le cadre de Neyman-Pearson, certains auteurs n'ont aucun problème à parler d '"accepter le nul". C'est aussi ce que @Alexis signifie dans le dernier paragraphe de sa réponse ici.
la source
Nous n'acceptons jamais l'hypothèse nulle (sans tenir compte également de la puissance et de la taille minimale de l'effet pertinent). Avec un seul test d'hypothèse, nous posons un état de nature, , puis répondons à une variation de la question "dans quelle mesure est-il peu probable que nous ayons observé les données sous-jacentes à notre statistique de test, en supposant (et notre distribution hypothèse) est vrai? " Nous rejetterons ou échouerons ensuite notre sur la base d'un taux d'erreur de type I préféré, et tirerons une conclusion qui concerne toujours … c'est-à-dire que nous avons trouvé des preuves pour conclure , ou nous l'avons fait pas trouvé de preuves pour conclure . Nous n'acceptons pas H 0 H 0 H A H A H A H 0H0 H0 H0 HA HA HA H0 parce que nous n'avons pas cherché de preuves pour cela. L'absence de preuve (par exemple, d'une différence), n'est pas la même chose que la preuve d'absence (par exemple, d'une différence). .
Cela est vrai pour les tests unilatéraux, tout comme pour les tests bilatéraux: nous recherchons uniquement des preuves en faveur de et les trouvons, ou ne les trouvons pas.HA
Si nous ne posons qu'un seul (sans accorder une attention sérieuse à la fois à la taille minimale de l'effet pertinent et à la puissance statistique), nous nous engageons effectivement a priori en faveur du biais de confirmation , car nous n'avons pas cherché de preuves pour , seule preuve pour . Bien sûr, nous pouvons (et, oserais-je dire, devrions ) poser des hypothèses nulles pour et contre une position ( tests de pertinence qui combinent des tests de différence ( ) avec des tests d'équivalence ( ) faites juste cela). H 0 H A H + 0 H - 0H0 H0 HA H+0 H−0
Il me semble qu'il n'y a aucune raison pour laquelle vous ne pouvez pas combiner l'inférence d'un test unilatéral d'infériorité avec un test unilatéral de non-infériorité pour fournir des preuves (ou un manque de preuves) dans les deux directions simultanément.
Bien sûr, si l'on considère la puissance et la taille de l'effet, et que l'on ne rejette pas , mais que l'on sait qu'il y a (a) une certaine taille minimale d'effet , et (b) que leurs données sont suffisamment puissantes pour détecter pour un test donné, alors on peut interpréter cela comme une preuve de . δ H 0H0 δ H0
la source