Tests post hoc en ANCOVA

13

Question: Quelle est la bonne méthode pour effectuer des tests post hoc des différences entre les moyennes d'un groupe après ajustement pour l'effet d'une covariable?

Exemple prototype:

  • Quatre groupes, 30 participants par groupe (par exemple, quatre populations différentes de psychologie clinique)
  • La variable dépendante est numérique (par exemple, les scores d'intelligence)
  • La covariable est numérique (p. Ex. Indice du statut socioéconomique)
  • Les questions de recherche concernent la question de savoir si une paire de groupes est significativement différente sur la variable dépendante après contrôle de la covariable

Questions connexes :

  • Quelle est la méthode préférée?
  • Quelles implémentations sont disponibles dans R?
  • Existe-t-il des références générales sur la manière dont une covariable modifie les procédures de conduite des tests post hoc?
Jeromy Anglim
la source
Vous pouvez également lire ici. stackoverflow.com/questions/23628323/…
James Holland

Réponses:

13

Tests multiples suivant ANCOVA, ou plus généralement tout GLM, mais les comparaisons se concentrent désormais sur le groupe / traitement ajusté ou les moyennes marginales (c'est-à-dire quels seraient les scores si les groupes ne différaient pas sur la covariable d'intérêt). A ma connaissance, les tests Tukey HSD et Scheffé sont utilisés. Les deux sont assez conservateurs et auront tendance à limiter le taux d'erreur de type I. Ce dernier est préféré en cas de taille d'échantillon inégale dans chaque groupe. Je semble me souvenir que certaines personnes utilisent également la correction Sidak sur des contrastes spécifiques (quand cela est intéressant bien sûr) car elle est moins conservatrice que la correction Bonferroni.

Ces tests sont facilement disponibles dans le multcomppackage R (voir?glht ). La vignette d'accompagnement comprend un exemple d'utilisation dans le cas d'un modèle linéaire simple (section 2), mais elle peut être étendue à toute autre forme de modèle. D'autres exemples peuvent être trouvés dans les HHpackages (voir ?MMC). Plusieurs procédures MCP et de rééchantillonnage (recommandées pour les inférences fortes, mais qui reposent sur une approche différente de la correction de l'inflation du taux d'erreur de type I) sont également disponibles dans le multtestpackage, via Bioconductor , voir refs (3-4). La référence définitive à la comparaison multiple est le livre des mêmes auteurs: Dudoit, S. et van der Laan, MJ, Multiple Testing Procedures with Applications to Genomics (Springer, 2008).

La référence 2 a expliqué la différence entre MCP dans le cas général (ANOVA, travaillant avec des moyens non ajustés) et ANCOVA. Il y a aussi plusieurs papiers dont je ne me souviens pas réellement, mais je vais les regarder.

Autres références utiles:

  1. Westfall, PH (1997). Tests multiples de contrastes généraux à l'aide de contraintes et corrélations logiques.JASA 92 : 299-306.
  2. Westfall, PH et Young, SS (1993) Rééchantillonnage basé sur des tests multiples, des exemples et des méthodes pour l'ajustement de la valeur de p . John Wiley and Sons: New York.
  3. Pollard, KS, Dudoit, S., et van der Laan, MJ (2004). Procédures de tests multiples: package R multtest et applications à la génomique .
  4. Taylor, SL Lang, DT et Pollard, KS (2007). Améliorations du package de tests multiples multtest . R News 7 (3) : 52-55.
  5. Bretz, F., Genz, A. et Hothorn, LA (2001). Sur la disponibilité numérique de multiples procédures de comparaison. Journal biométrique , 43 (5) : 645–656.
  6. Hothorn, T., Bretz, F. et Westfall, P. (2008). Inférence simultanée dans les modèles paramétriques généraux . Département de statistique: Rapports techniques, Nr. 19.

Les deux premiers sont référencés dans SAS PROC lié à MCP.

chl
la source
3

C'est une question intéressante. Je pense qu'il faut être très prudent avec cela car la plupart des logiciels qui font une comparaison post hoc après les ANCOVA le font MAIS sur des moyens non ajustés.

Le test de Bryan Paulson Tukey (BPT) est recommandé pour une comparaison par paire sur les moyennes AJUSTÉES, une autre procédure pourrait être le test conditionnel de Tukey Kramer.

AnastD
la source
2

En combinant des méthodes simples auxquelles vous pouvez facilement accéder à partir de R et des principes généraux, vous pouvez utiliser le HSD de Tukey simplement. Le terme d'erreur de l'ANCOVA fournira le terme d'erreur pour les intervalles de confiance.

En code R, ce serait ...

#set up some data for an ANCOVA
n <- 30; k <- 4
y <- rnorm(n*k)
a <- factor(rep(1:k, n))
cov <- y + rnorm(n*k)

#the model
m <- aov(y ~ cov + a)

#the test
TukeyHSD(m)

(ignorez l'erreur dans le résultat, cela signifie simplement que la covariable n'a pas été évaluée, ce que vous voulez)

Cela donne des intervalles de confiance plus étroits que ceux obtenus si vous exécutez le modèle sans cov ... comme prévu.

Toute technique post hoc qui s'appuie sur les résidus du modèle pour la variance d'erreur pourrait facilement être utilisée.

John
la source
0

Pourquoi vous donnez-vous tant de peine et vous embrouillez-vous?

Vous pouvez consulter la découverte des statistiques d'Andy Field à l'aide de SPSS (3e édition) pp. 401-404.

En utilisant la fonction des contrastes ou en comparant l'option des effets principaux, vous pouvez facilement faire le post hoc sur des moyens ajustés après avoir pris en compte la covariable.

Masood Siyyari
la source