Comment puis-je obtenir une ANOVA globale significative mais aucune différence significative par paire avec la procédure de Tukey?

18

J'ai joué avec R an ANOVA et j'ai eu des différences significatives. Cependant, en vérifiant quelles paires étaient significativement différentes en utilisant la procédure de Tukey, je n'en ai pas obtenu. Comment cela est-il possible?

Voici le code:

fit5_snow<- lm(Response ~ Stimulus, data=audio_snow)
anova(fit5_snow)

> anova(fit5_snow)
Analysis of Variance Table

Response: Response
          Df Sum Sq Mean Sq F value  Pr(>F)  
Stimulus   5  73.79 14.7578  2.6308 0.02929 *
Residuals 84 471.20  5.6095                  
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 

df<-df.residual(fit5_snow)
MSerror<-deviance(fit5_snow)/df

comparison <-  HSD.test(audio_snow$Response, audio_snow$Stimulus, df, MSerror, group=FALSE)

> comparison <-  HSD.test(audio_snow$Response, audio_snow$Stimulus, df, MSerror, group=FALSE)

Study:

HSD Test for audio_snow$Response 

Mean Square Error:  5.609524 

audio_snow$Stimulus,  means

                audio_snow.Response   std.err replication
snow_dry_leaves            4.933333 0.6208034          15
snow_gravel                6.866667 0.5679258          15
snow_metal                 6.333333 0.5662463          15
snow_sand                  6.733333 0.5114561          15
snow_snow                  7.333333 0.5989409          15
snow_wood                  5.066667 0.7713110          15

alpha: 0.05 ; Df Error: 84 
Critical Value of Studentized Range: 4.124617 

Comparison between treatments means

                              Difference   pvalue sig        LCL      UCL
snow_gravel - snow_dry_leaves  1.9333333 0.232848     -0.5889913 4.455658
snow_metal - snow_dry_leaves   1.4000000 0.588616     -1.1223246 3.922325
snow_sand - snow_dry_leaves    1.8000000 0.307012     -0.7223246 4.322325
snow_snow - snow_dry_leaves    2.4000000 0.071587   . -0.1223246 4.922325
snow_wood - snow_dry_leaves    0.1333333 0.999987     -2.3889913 2.655658
snow_gravel - snow_metal       0.5333333 0.989528     -1.9889913 3.055658
snow_gravel - snow_sand        0.1333333 0.999987     -2.3889913 2.655658
snow_snow - snow_gravel        0.4666667 0.994348     -2.0556579 2.988991
snow_gravel - snow_wood        1.8000000 0.307012     -0.7223246 4.322325
snow_sand - snow_metal         0.4000000 0.997266     -2.1223246 2.922325
snow_snow - snow_metal         1.0000000 0.855987     -1.5223246 3.522325
snow_metal - snow_wood         1.2666667 0.687424     -1.2556579 3.788991
snow_snow - snow_sand          0.6000000 0.982179     -1.9223246 3.122325
snow_sand - snow_wood          1.6666667 0.393171     -0.8556579 4.188991
snow_snow - snow_wood          2.2666667 0.103505     -0.2556579 4.788991
L_T
la source
Pouvez-vous donner les données?
ttnphns
1
J'ai trouvé une réponse à cette question ultérieure stats.stackexchange.com/questions/74174/… (marquée comme duplication de ce fil) particulièrement utile.
Amoeba dit Reinstate Monica

Réponses:

2

Pourquoi cela ne serait-il pas possible?

Le test global et les tests par paire posent des questions différentes, afin qu'ils puissent obtenir des réponses différentes.

Peter Flom - Réintégrer Monica
la source
1
Pourriez-vous s'il vous plaît en dire plus.
rolando2
2
L'ANOVA globale pose une question sur l'ensemble de la variable indépendante et sa relation (ou son absence) avec la variable dépendante. Les comparaisons par paires portent sur les différences entre les paires. Ensuite, la valeur de p regarde le sig statistique. de chacun de ceux-ci, le couple étant ajusté pour des comparaisons multiples (dans ce cas, en utilisant les méthodes HSD de Tukey).
Peter Flom - Réintégrer Monica
1
merci, Peter. C'est peut-être moins qu'ils posent des «questions différentes» et plus l'ajustement pour les comparaisons multiples qui tient compte du résultat différent.
rolando2
17

Cela est principalement dû à la sensibilité de l'ANOVA (supérieure à la sensibilité du test par paire). Ensuite, l'ANOVA détecte une variabilité plus faible autour de la moyenne lorsque le test par paire ne distingue guère la moyenne de la paire. L'analyse doit se concentrer sur les différences, et vous pouvez être plus flexible sur l'analyse post-hoc, sachant que vous venez de rencontrer qu'il existe des différences sur la moyenne. N'oubliez pas de vérifier les hypothèses ANOVA.

D'un autre côté, il y a certains sujets concernant l'utilisation du test par paire sans utiliser ANOVA: Avons-nous besoin d'un test global avant les tests post hoc?

Jose Zubcoff
la source
Certainement pas besoin d'un test global avant de faire des comparaisons hsd Tukey puisque hsd contrôle le taux d'erreur de type I. Je déteste cependant les appeler post hocs, car ils devraient être planifiés a priori.
David Lane