L'un des principaux avantages des modèles à effets mixtes est qu'ils ne supposent pas l'indépendance des observations et qu'il peut y avoir des observations corrélées au sein d'une unité ou d'un cluster.
Ceci est traité de manière concise dans "Modern Applied Statistics with S" (MASS) dans la première section du chapitre 10 sur "Random and Mixed Effects". V&R passe en revue un exemple avec des données sur l'essence comparant l'ANOVA et la lme dans cette section, c'est donc un bon aperçu. La fonction R à utiliser lme
dans le nlme
package.
La formulation du modèle est basée sur Laird et Ware (1982), vous pouvez donc vous y référer en tant que source principale bien que ce ne soit certainement pas bon pour une introduction.
- Laird, NM et Ware, JH (1982) "Random-Effects Models for Longitudinal Data", Biometrics, 38, 963–974.
- Venables, WN et Ripley, BD (2002) " Modern Applied Statistics with S ", 4e édition, Springer-Verlag.
Vous pouvez également consulter l' annexe «Modèles mixtes linéaires» (PDF) de «Un compagnon R et S-PLUS pour la régression appliquée» de John Fox. Et cette conférence de Roger Levy (PDF) traite des modèles d'effets mixtes par rapport à une distribution normale multivariée.
Un très bon article expliquant l'approche générale des LMM et leur avantage sur l'ANOVA est:
Les modèles à effets mixtes linéaires (LMM) généralisent les modèles de régression pour avoir des composantes de type résiduel, des effets aléatoires, au niveau, par exemple, des personnes ou des éléments et pas seulement au niveau des observations individuelles. Les modèles sont très flexibles, permettant par exemple de modéliser différentes pentes et intersections.
Les LMM fonctionnent en utilisant une fonction de vraisemblance d'un certain type, la probabilité que vos données reçoivent un certain paramètre et une méthode pour maximiser cela (estimation de vraisemblance maximale; MLE) en jouant avec les paramètres. MLE est une technique très générale permettant d'ajuster de nombreux modèles différents, par exemple ceux pour les données binaires et de comptage, aux données, et est expliquée à plusieurs endroits, par exemple,
Les LMM, cependant, ne peuvent pas traiter les données non gaussiennes comme les données binaires ou les comptages; pour cela, vous avez besoin de modèles d'effets mixtes linéaires généralisés (GLMM). Une façon de les comprendre est d'abord d'examiner les GLM; voir également Agresti (2007).
la source
Le principal avantage du LME pour l'analyse des données de précision est la capacité de prendre en compte une série d'effets aléatoires. Dans les expériences de psychologie, les chercheurs regroupent généralement les articles et / ou les participants. Non seulement les gens sont différents les uns des autres, mais les éléments diffèrent également (certains mots peuvent être plus distinctifs ou mémorisables, par exemple). Ignorer ces sources de variabilité conduit généralement à des sous-estimations de la précision (par exemple des valeurs d inférieures). Bien que le problème d'agrégation des participants puisse être traité d'une manière ou d'une autre avec une estimation individuelle, les effets des éléments sont toujours là et sont généralement plus importants que les effets des participants. LME vous permet non seulement de gérer simultanément les deux effets aléatoires, mais également de leur ajouter des variables prédictives supplémentaires spécifiques (âge, niveau d'éducation, longueur des mots, etc.).
Une très bonne référence pour les LME, particulièrement dans les domaines de la linguistique et de la psychologie expérimentale, est l' analyse des données linguistiques: une introduction pratique à la statistique à l'aide de R
à votre santé
la source