Comparaisons autorisées des modèles à effets mixtes (effets aléatoires principalement)

20

J'ai étudié la modélisation d'effets mixtes à l'aide du package lme4 dans R. J'utilise principalement la lmercommande, je vais donc poser ma question via du code qui utilise cette syntaxe. Je suppose qu'une question générale facile pourrait être, est-il OK de comparer deux modèles construits en lmerutilisant des ratios de vraisemblance basés sur des ensembles de données identiques? Je pense que la réponse doit être «non», mais je peux me tromper. J'ai lu des informations contradictoires sur la question de savoir si les effets aléatoires doivent être identiques ou non, et quelle composante des effets aléatoires signifie cela? Je vais donc vous présenter quelques exemples. Je vais les prendre à partir de données de mesures répétées en utilisant des stimuli de mots, peut-être que quelque chose comme Baayen (2008) serait utile pour l'interprétation.

Disons que j'ai un modèle où il y a deux prédicteurs d'effets fixes, nous les appellerons A et B, et quelques effets aléatoires ... des mots et des sujets qui les ont perçus. Je pourrais construire un modèle comme le suivant.

m <- lmer( y ~ A + B + (1|words) + (1|subjects) )

(Notez que j'ai intentionnellement omis data =et nous supposerons que je veux toujours dire REML = FALSEpar souci de clarté)

Maintenant, parmi les modèles suivants, qui peuvent être comparés avec un rapport de vraisemblance à celui ci-dessus et qui ne le sont pas?

m1 <- lmer( y ~ A + B + (A+B|words) + (1|subjects) )
m2 <- lmer( y ~ A + B + (1|subjects) )              
m3 <- lmer( y ~ A + B + (C|words) + (A+B|subjects) )
m4 <- lmer( y ~ A + B + (1|words) )                 
m5 <- lmer( y ~ A * B + (1|subjects) )   

Je reconnais que l'interprétation de certaines de ces différences peut être difficile, voire impossible. Mais laissons cela de côté pendant une seconde. Je veux juste savoir s'il y a quelque chose de fondamental dans les changements ici qui empêche la possibilité de comparer. Je veux également savoir si, si les LR sont OK, et les comparaisons AIC également.

John
la source
1
Connexes: stats.stackexchange.com/questions/117497 . Voir aussi bbolker.github.io/mixedmodels-misc/… .
amibe dit Réintégrer Monica
(J'ai remarqué que vous avez supprimé la balise [test d'hypothèse] que j'ai ajoutée précédemment. Bon, à vous de voir, mais je pense que c'est approprié: le test du rapport de vraisemblance est clairement une procédure de test d'hypothèse, et [modèle mixte] + [test d'hypothèse) ] est IMHO une combinaison de balises informative, voir stats.stackexchange.com/questions/tagged/… )
amibe dit Reinstate Monica
Modifié pour supprimer "test" de LR. Les LR peuvent être interprétés sans test et cela le rend plus parallèle aux AIC et suit mieux mon intention réelle. Merci d'avoir fait remarquer cela.
John

Réponses:

13

En utilisant le maximum de vraisemblance, n'importe lequel de ces éléments peut être comparé à l'AIC; si les effets fixes sont les mêmes ( m1à m4), utiliser REML ou ML est très bien, avec REML généralement préféré, mais s'ils sont différents, seul ML peut être utilisé. Cependant, l'interprétation est généralement difficile lorsque les effets fixes et les effets aléatoires changent, donc dans la pratique, la plupart recommandent de ne changer que l'un ou l'autre à la fois.

L'utilisation du test du rapport de vraisemblance est possible mais compliquée car l'approximation chi carré habituelle ne tient pas lors du test si une composante de variance est nulle. Voir la réponse d'Aniko pour plus de détails. (Félicitations à Aniko pour avoir lu la question plus attentivement que moi et lu ma réponse originale suffisamment pour remarquer qu'elle a raté ce point. Merci!)

Pinhiero / Bates est la référence classique; il décrit le nlmepaquet, mais la théorie est la même. Eh bien, pratiquement la même chose; Doug Bates a changé ses recommandations sur l'inférence depuis la rédaction de ce livre et les nouvelles recommandations sont reflétées dans le lme4package. Mais c'est plus que ce que je veux aborder ici. Une référence plus lisible est Weiss (2005), Modeling Longitudinal Data.

Aaron - Rétablir Monica
la source
les modèles m2 et m4 ou m1 et m3 n'ont pas pu être comparés au test du rapport de vraisemblance. Ce ne sont pas des modèles imbriqués.
Macro du
Oups, merci d'avoir attrapé ça, @Macro! Voir modifier.
Aaron - Rétablir Monica le
La question était simplement de comparer les modèles au modèle m, et non les uns aux autres. Mais néanmoins, dites-vous que les comparaisons AIC peuvent être faites même lorsqu'elles ne sont pas imbriquées? Les réponses à cette question semblent contredire cela.
John
@John, j'ai lu ces réponses mais j'ai raté où il est question d'AIC et non imbriqué. Je suis sûr que ça va, mais pouvez-vous me donner un pointeur plus précis sur ce point dans les réponses?
Aaron - Rétablir Monica le
J'ai rétrogradé la réponse, parce que vous vous trompez (ou du moins trompez) sur l'applicabilité du test du rapport de vraisemblance.
Aniko
12

mmm4σ2=0

mm212χ12+12χ02χ12

Cependant, comme l'a déclaré @Aaron, de nombreux experts ne recommandent pas de faire un test de rapport de vraisemblance comme celui-ci. Les alternatives potentielles sont les critères d'information (AIC, BIC, etc.) ou l'amorçage du LRT.

[1] Self, SG & Liang, K. Propriétés asymptotiques des estimateurs du maximum de vraisemblance et tests de rapport de vraisemblance dans des conditions non standard J. Amer. Statist. Assoc., 1987, 82, 605-610.

Aniko
la source
1
Merci pour l'info LR. Je n'avais pas vraiment pensé au problème des limites LR lors de la création des modèles pour l'exemple. Je viens de remarquer qu'il n'est pas clair dans votre réponse si vos recommandations s'appliquent à des cas simples comme comparer simplement des modèles avec différents effets fixes (ML estimé bien sûr).
John
Non, ce problème ne survient que lors du test des composants de la variance, pas des effets fixes.
Aaron - Rétablir Monica