Modèles d'effets mixtes linéaires

13

J'ai souvent entendu que les modèles LME sont plus solides dans l'analyse des données de précision (c'est-à-dire dans les expériences de psychologie), en ce sens qu'ils peuvent fonctionner avec des distributions binomiales et autres distributions non normales que les approches traditionnelles (par exemple, l'ANOVA) ne peuvent pas.

Quelle est la base mathématique des modèles LME qui leur permet d'incorporer ces autres distributions, et quels sont les articles pas trop techniques décrivant cela?

Mike Wong
la source

Réponses:

15

L'un des principaux avantages des modèles à effets mixtes est qu'ils ne supposent pas l'indépendance des observations et qu'il peut y avoir des observations corrélées au sein d'une unité ou d'un cluster.

Ceci est traité de manière concise dans "Modern Applied Statistics with S" (MASS) dans la première section du chapitre 10 sur "Random and Mixed Effects". V&R passe en revue un exemple avec des données sur l'essence comparant l'ANOVA et la lme ​​dans cette section, c'est donc un bon aperçu. La fonction R à utiliser lmedans le nlmepackage.

La formulation du modèle est basée sur Laird et Ware (1982), vous pouvez donc vous y référer en tant que source principale bien que ce ne soit certainement pas bon pour une introduction.

  • Laird, NM et Ware, JH (1982) "Random-Effects Models for Longitudinal Data", Biometrics, 38, 963–974.
  • Venables, WN et Ripley, BD (2002) " Modern Applied Statistics with S ", 4e édition, Springer-Verlag.

Vous pouvez également consulter l' annexe «Modèles mixtes linéaires» (PDF) de «Un compagnon R et S-PLUS pour la régression appliquée» de John Fox. Et cette conférence de Roger Levy (PDF) traite des modèles d'effets mixtes par rapport à une distribution normale multivariée.

Shane
la source
Wow, Shane, merci pour la réponse très rapide! Je vais regarder ces références!
Mike Wong
10

Un très bon article expliquant l'approche générale des LMM et leur avantage sur l'ANOVA est:

Les modèles à effets mixtes linéaires (LMM) généralisent les modèles de régression pour avoir des composantes de type résiduel, des effets aléatoires, au niveau, par exemple, des personnes ou des éléments et pas seulement au niveau des observations individuelles. Les modèles sont très flexibles, permettant par exemple de modéliser différentes pentes et intersections.

Les LMM fonctionnent en utilisant une fonction de vraisemblance d'un certain type, la probabilité que vos données reçoivent un certain paramètre et une méthode pour maximiser cela (estimation de vraisemblance maximale; MLE) en jouant avec les paramètres. MLE est une technique très générale permettant d'ajuster de nombreux modèles différents, par exemple ceux pour les données binaires et de comptage, aux données, et est expliquée à plusieurs endroits, par exemple,

  • Agresti, A. (2007). Une introduction à l'analyse des données catégorielles (2e édition) . John Wiley & Sons.

Les LMM, cependant, ne peuvent pas traiter les données non gaussiennes comme les données binaires ou les comptages; pour cela, vous avez besoin de modèles d'effets mixtes linéaires généralisés (GLMM). Une façon de les comprendre est d'abord d'examiner les GLM; voir également Agresti (2007).

AndyF
la source
Existe-t-il des situations pour ne pas choisir lmm sur anova?
Ben
8

Le principal avantage du LME pour l'analyse des données de précision est la capacité de prendre en compte une série d'effets aléatoires. Dans les expériences de psychologie, les chercheurs regroupent généralement les articles et / ou les participants. Non seulement les gens sont différents les uns des autres, mais les éléments diffèrent également (certains mots peuvent être plus distinctifs ou mémorisables, par exemple). Ignorer ces sources de variabilité conduit généralement à des sous-estimations de la précision (par exemple des valeurs d inférieures). Bien que le problème d'agrégation des participants puisse être traité d'une manière ou d'une autre avec une estimation individuelle, les effets des éléments sont toujours là et sont généralement plus importants que les effets des participants. LME vous permet non seulement de gérer simultanément les deux effets aléatoires, mais également de leur ajouter des variables prédictives supplémentaires spécifiques (âge, niveau d'éducation, longueur des mots, etc.).

Une très bonne référence pour les LME, particulièrement dans les domaines de la linguistique et de la psychologie expérimentale, est l' analyse des données linguistiques: une introduction pratique à la statistique à l'aide de R

à votre santé

Dave Kellen
la source
2
... et dans cette veine également le package lme4 (que je trouve plus facile à utiliser que lme ou nlme) et les packages associés du livre référencé ci-dessus de Baayen, languageR.
russellpierce
merci pour le commentaire, je suis totalement d'accord avec vous. lme4 est tout simplement le meilleur du marché.
Dave Kellen