Pourquoi utilisons-nous un test F unilatéral dans l'analyse de la variance (ANOVA)?

13

Pouvez-vous donner la raison d'utiliser un test unilatéral dans l'analyse du test de variance?

Pourquoi utilisons-nous un test unilatéral - le test F - en ANOVA?

Cynderella
la source
2
Quelques questions pour guider votre réflexion ... Que signifie une statistique t très négative? Une statistique F négative est-elle possible? Que signifie une statistique F très faible? Que signifie une statistique F élevée?
russellpierce
Pourquoi avez-vous l'impression qu'un test unilatéral doit être un test F? Pour répondre à votre question: Le F-Test permet de tester une hypothèse avec plus d'une combinaison linéaire de paramètres.
IMA
1
Voulez-vous savoir pourquoi on utiliserait un test unilatéral au lieu d'un test bilatéral?
Jens Kouros
@tree qu'est-ce qui constitue une source crédible ou officielle pour vos besoins?
Glen_b -Reinstate Monica
1
@tree note que la question de Cynderella ici ne concerne pas un test de variances, mais spécifiquement un test F d'ANOVA - qui est un test d' égalité des moyens . Si vous êtes intéressé par les tests d'égalité des variances, cela a été discuté dans de nombreuses autres questions sur ce site. (Pour le test de variance, oui, vous vous souciez des deux queues, comme cela est clairement expliqué dans la dernière phrase de cette section , juste au-dessus de `` Propriétés '')
Glen_b -Reinstate Monica

Réponses:

17

Les tests F sont le plus souvent utilisés à deux fins:

  1. en ANOVA, pour tester l'égalité des moyens (et diverses analyses similaires); et

  2. pour tester l'égalité des variances

Examinons chacun à son tour:

1) Les tests F en ANOVA (et de la même manière, les types habituels de tests du khi carré pour les données de comptage) sont construits de telle sorte que plus les données sont cohérentes avec l'hypothèse alternative, plus la statistique du test a tendance à être grande, tandis que les dispositions de l'échantillon les données qui semblent les plus cohérentes avec le zéro correspondent aux plus petites valeurs de la statistique de test.

Considérez trois échantillons (de taille 10, avec une variance d'échantillon égale), et organisez-les pour avoir des moyennes d'échantillon égales, puis déplacez leurs moyennes dans différents modèles. À mesure que la variation des moyennes de l'échantillon augmente à partir de zéro, la statistique F devient plus grande:

Disposition de 3 échantillons et statistique F correspondante

Les lignes noires () sont les valeurs des données. Les lourdes lignes rouges ( | ) sont les moyennes du groupe.||

Si l'hypothèse nulle (égalité des moyennes de population) était vraie, vous vous attendriez à une certaine variation dans les moyennes des échantillons, et vous vous attendriez généralement à voir des rapports F à peu près autour de 1. Des statistiques F plus petites résultent d'échantillons plus proches les uns des autres que vous ne le feriez habituellement attendez ... donc vous n'allez pas conclure que les moyennes de population diffèrent.

Autrement dit, pour l'ANOVA, vous rejetterez l'hypothèse d'égalité des moyennes lorsque vous obtiendrez des valeurs F anormalement grandes et vous ne rejetterez pas l'hypothèse d'égalité des moyennes lorsque vous obtiendrez des valeurs anormalement petites (cela peut indiquer quelque chose , mais pas que la population signifie différer).

Voici une illustration qui pourrait vous aider à voir que nous ne voulons rejeter que lorsque F est dans sa queue supérieure:

Description de F pour ANOVA, rejeter lorsque la statistique F est dans la queue supérieure

2) Tests F pour l'égalité de variance * (basés sur les ratios de variance). Ici, le ratio de deux estimations de la variance de l'échantillon sera grand si la variance de l'échantillon du numérateur est beaucoup plus grande que la variance du dénominateur, et le ratio sera petit si la variance de l'échantillon du dénominateur est beaucoup plus grande que la variance du numérateur.

Autrement dit, pour tester si le rapport des variances de population diffère de 1, vous voudrez rejeter la valeur nulle pour les valeurs grandes et petites de F.

* (Laissant de côté le problème de la sensibilité élevée à l'hypothèse de distribution de ce test (il existe de meilleures alternatives) et aussi le problème selon lequel si vous êtes intéressé par l'adéquation des hypothèses de variance égale de l'ANOVA, votre meilleure stratégie n'est probablement pas un test formel.)

Glen_b -Reinstate Monica
la source
2
Le test de @TaylerJones Levene est un peu plus robuste. Browne-Forsythe est plus robuste (mais perd un peu de puissance près de la normale). Fligner-Killeen encore plus. Depuis plusieurs décennies, j'ai utilisé Levene ou Browne-Forsythe pas plus de deux fois chacun. (Si cela se reproduisait, probablement quelque chose comme Browne-Forsythe me conviendrait très bien, mais je n'ai généralement pas de situations où il est logique de tester l'égalité de plusieurs groupes.)
Glen_b -Reinstate Monica
2
F=MSTREATMENTMSERROR1F
2
@tree, il semble que vous ne compreniez pas quelque chose sur le test d'hypothèse plus généralement, mais il est difficile de savoir exactement où. Vous dites que vous comprenez que si vous obtenez un grand F, vous voulez rejeter et si vous obtenez un petit F, vous ne voulez pas rejeter. Les grandes valeurs de F sont ces valeurs dans la queue supérieure tandis que les petites valeurs de F sont ces valeurs dans la queue inférieure. Vous ne voulez rejeter que lorsque les valeurs sont grandes ... c'est-à-dire dans la queue supérieure, mais pas dans la queue inférieure. Comment pouvez-vous ne pas voir que c'est une queue? Je vais inclure un autre complot qui pourrait aider.
Glen_b -Reinstate Monica
1
@jeramy Mes commentaires se réfèrent aux tests qui reposent sur des ratios de variances (en particulier, j'ai déclaré " Ici, le ratio de deux estimations de variance d'échantillon sera ..."). Les tests auxquels vous vous référez recherchent les différences de localisation dans les résidus absolus à partir de certaines mesures de localisation afin de détecter les différences de propagation; ils fonctionnent naturellement de la même manière que les tests de différences de localisation. Depuis que je suis en train de montrer un cas où vous auriez regarder la queue inférieure de la F, Brown-Forsythe (et d'autres tests qui recherchent des différences de localisation dans une certaine mesure de l' écart des différences de propagation de déduisent) seraient d' aucune aide
Glen_b -Reprise Monica
1
@jeramy J'ai ajouté quelques mots pour le rendre plus explicite. Vous voudrez peut-être noter que même si Brown-Forsythe, Levene et ainsi de suite utilisent des tables F, la distribution des statistiques de test n'est pas réellement F-distribuée, même sous les hypothèses du test.
Glen_b -Reinstate Monica
2

Il faut comprendre que l'objectif de l'ANOVA est de vérifier s'il y a inégalité des moyens ... ce qui implique que l'on se préoccupe des grandes variations entre échantillons (& donc des moyennes puisque les variations sont calculées à partir des moyennes) par rapport aux variations intra échantillons (à nouveau calculé à partir de la moyenne de l'échantillon individuel). Lorsque les variations entre les échantillons sont faibles (ce qui entraîne une valeur F sur le côté gauche), cela n'a pas d'importance car cette différence est insignifiante. Les variations entre les échantillons sont importantes si elles sont significativement supérieures aux variations internes et dans ce cas, la valeur F serait supérieure à 1, et donc dans la queue droite.

La seule question qui reste est de savoir pourquoi mettre tout le niveau de signification dans la queue droite et la réponse est à nouveau similaire. Le rejet ne se produit que lorsque le rapport F est du côté droit et jamais lorsque le rapport F est du côté gauche. Le niveau de signification est la mesure de l'erreur due aux limitations statistiques. Étant donné que le rejet ne se produit qu'à droite, le niveau de signification entier (risque d'erreur de mauvaise inclusion) est conservé à droite. "

Prof Pradeep Pai
la source
0

La valeur attendue pour le carré moyen (MS) dans les traitements est la variance de la population, tandis que la valeur attendue pour la MS entre les traitements est la variance de la population PLUS la variance du traitement. Ainsi, le rapport F = MS entre / MS à l'intérieur est toujours supérieur à 1, et jamais inférieur à 1.

Étant donné que la précision d'un test unilatéral est meilleure que d'un test bilatéral, nous préférons utiliser le test unilatéral.

Jeff Cotter
la source
Je ne crois pas que la revendication de la dernière phrase de votre premier paragraphe soit correcte ... E (numérateur)> E (dénominateur) n'implique pas que numérateur> dénominateur.
Glen_b -Reinstate Monica
Mis à part le point de Glen_b, je ne suis pas sûr de "puisque la précision d'un test unilatéral est meilleure que d'un test bilatéral, nous préférons utiliser le test unilatéral." Pouvez-vous expliquer ce que vous entendez par là? Parler de précision me semble manquer de propos.
Silverfish
La précision est identique à un demi-intervalle de confiance. Pour la même F-stat, un test à 1 queue rejettera l'hypothèse nulle avec une valeur de p plus petite (la moitié, en fait). Dans l'autre sens, un test à 1 queue peut rejeter l'hypothèse nulle avec des valeurs plus petites de la F-stat. Cela implique qu'un test unilatéral peut détecter un effet de traitement avec moins d'échantillons ou avec une variance de cause plus courante présente dans l'échantillon. Cela rend le test 1 queue plus souhaitable, si l'on recherche un effet.
Jeff Cotter
Oui, une statistique F calculée peut être inférieure à 1,0. Cependant, la conclusion serait de ne pas rejeter l'hypothèse nulle de "pas d'effets de traitement". Par conséquent, il n'y a pas de région critique dans la queue inférieure. Par conséquent, le test F est un test unilatéral supérieur. Dans ANOVA, l'argument logique est basé sur les valeurs attendues pour MS_treat et MS_error. Dans l'hypothèse "sans effet de traitement", H0: E (MS_treat) = E (MS_error) = variance de la population. Tout effet de traitement significatif entraîne HA: E (MS_treat)> E (MS_error). (Source tout texte Montgomery couvrant l'ANOVA). Ainsi, HA implique un test unilatéral.
Jeff Cotter du