Dans un modèle à plusieurs niveaux, quelles sont les implications pratiques et liées à l'interprétation de l'estimation et de la non-estimation des paramètres de corrélation à effet aléatoire? La raison pratique de demander ceci est que dans le cadre de lmer dans R, il n'y a pas de méthode implémentée pour estimer les valeurs de p via des techniques MCMC lorsque des estimations sont faites dans le modèle des corrélations entre paramètres.
Par exemple, en regardant cet exemple (parties citées ci-dessous), quelles sont les implications pratiques de M2 par rapport à M3. De toute évidence, dans un cas, P5 ne sera pas estimé et dans l'autre, il le sera.
Des questions
- Pour des raisons pratiques (le désir d'obtenir une valeur de p grâce aux techniques MCMC), on peut vouloir ajuster un modèle sans corrélation entre les effets aléatoires même si P5 est sensiblement non nul. Si l'on fait cela, puis si l'on estime les valeurs de p via la technique MCMC, les résultats sont-ils interprétables? (Je sais que @Ben Bolker a déjà mentionné que "combiner les tests de signification avec MCMC est un peu incohérent, statistiquement, bien que je comprenne l'envie de le faire (obtenir des intervalles de confiance est plus supportable)" , donc si cela vous fera mieux dormir la nuit, je fais semblant d'avoir dit des intervalles de confiance.)
- Si l'on ne parvient pas à estimer P5, est-ce la même chose que d'affirmer qu'il est égal à 0?
- Si P5 est vraiment non nul, de quelle manière les valeurs estimées de P1-P4 sont-elles affectées?
- Si P5 est vraiment non nul, de quelle manière les estimations d'erreur pour P1-P4 sont-elles affectées?
- Si P5 est vraiment différent de zéro, de quelles manières les interprétations d'un modèle ne parviennent-elles pas à inclure P5?
Empruntant à la réponse de @Mike Lawrence (ceux qui sont mieux informés que moi sont libres de remplacer cela par une notation complète du modèle, je ne suis pas entièrement convaincu de pouvoir le faire avec une fidélité raisonnable):
M2: V1 ~ (1|V2) + V3 + (0+V3|V2)
(estimations P1 - P4)
M3: V1 ~ (1+V3|V2) + V3
(estimations P1-P5)
Paramètres pouvant être estimés:
P1 : Une interception globale
P2 : interceptions à effet aléatoire pour V2 (c'est-à-dire pour chaque niveau de V2, écart de l'interception de ce niveau par rapport à l'interception globale)
P3 : Une seule estimation globale de l'effet (pente) de V3
P4 : L'effet de V3 à l'intérieur de chaque niveau de V2 (plus précisément, le degré auquel l'effet V3 à l'intérieur d'un niveau donné s'écarte de l'effet global de V3), tout en imposant une corrélation nulle entre les écarts d'interception et les écarts d'effet V3 à travers les niveaux de V2.
P5 : La corrélation entre les écarts d'interception et les écarts V3 à travers les niveaux de V2
Les réponses dérivées d'une simulation suffisamment large et large ainsi que le code d'accompagnement dans R utilisant lmer seraient acceptables.
la source
Réponses:
Considérez les données de l'étude du sommeil, incluses dans lme4. Bates en parle dans son livre en ligne sur lme4. Dans le chapitre 3, il considère deux modèles pour les données.
et
L'étude a porté sur 18 sujets, étudiés sur une période de 10 jours sans sommeil. Les temps de réaction ont été calculés au départ et les jours suivants. Il y a un effet clair entre le temps de réaction et la durée de la privation de sommeil. Il existe également des différences significatives entre les sujets. Le modèle A permet la possibilité d'une interaction entre l'interception aléatoire et les effets de pente: imaginons, par exemple, que les personnes ayant de faibles temps de réaction souffrent plus fortement des effets de la privation de sommeil. Cela impliquerait une corrélation positive dans les effets aléatoires.
Dans l'exemple de Bates, il n'y avait aucune corrélation apparente à partir du tracé du réseau et aucune différence significative entre les modèles. Cependant, pour enquêter sur la question posée ci-dessus, j'ai décidé de prendre les valeurs ajustées de l'étude du sommeil, d'augmenter la corrélation et d'examiner les performances des deux modèles.
Comme vous pouvez le voir sur l'image, les longs temps de réaction sont associés à une plus grande perte de performances. La corrélation utilisée pour la simulation était de 0,58
J'ai simulé 1000 échantillons, en utilisant la méthode de simulation dans lme4, sur la base des valeurs ajustées de mes données artificielles. J'ai adapté M0 et Ma à chacun et j'ai regardé les résultats. L'ensemble de données d'origine comportait 180 observations (10 pour chacun des 18 sujets) et les données simulées ont la même structure.
L'essentiel est qu'il y a très peu de différence.
Alors pourquoi cela se produit-il? @gung a deviné, raisonnablement, que le fait de ne pas inclure la possibilité d'une corrélation force les effets aléatoires à ne pas être corrélés. Peut-être que cela devrait; mais dans cette implémentation, les effets aléatoires peuvent être corrélés, ce qui signifie que les données sont capables de tirer les paramètres dans la bonne direction, quel que soit le modèle. La fausseté du mauvais modèle apparaît dans la probabilité, c'est pourquoi vous pouvez (parfois) distinguer les deux modèles à ce niveau. Le modèle à effets mixtes ajuste essentiellement les régressions linéaires à chaque sujet, influencées par ce que le modèle pense qu'elles devraient être. Le mauvais modèle force l'ajustement de valeurs moins plausibles que celles obtenues avec le bon modèle. Mais les paramètres, en fin de compte, sont régis par l'ajustement aux données réelles.
Voici mon code quelque peu maladroit. L'idée était d'ajuster les données de l'étude sur le sommeil, puis de créer un ensemble de données simulées avec les mêmes paramètres, mais une plus grande corrélation pour les effets aléatoires. Cet ensemble de données a été alimenté dans simulate.lmer () pour simuler 1000 échantillons, chacun étant ajusté dans les deux sens. Une fois que j'avais apparié des objets ajustés, je pouvais retirer différentes caractéristiques de l'ajustement et les comparer, en utilisant des tests t, ou autre chose.
la source
Placidia a déjà fourni une réponse complète en utilisant des données simulées basées sur l'
sleepstudy
ensemble de données. Voici une autre réponse (moins rigoureuse) qui utilise également lessleepstudy
données.Nous voyons que l'on peut affecter la corrélation estimée entre l'ordonnée à l'origine aléatoire et la pente aléatoire en «décalant» la variable de prédiction aléatoire. Regardez les résultats des modèles
fm1
etfm2
ci - dessous:De la sortie du modèle, nous voyons que la corrélation de variance aléatoire a changé. Cependant, les pentes (fixes et aléatoires) sont restées les mêmes, tout comme l'estimation de la variance résiduelle. Les estimations des intersections (fixes et aléatoires) ont changé en réponse à la variable décalée.
Décorrélation covariance interception pente aléatoire pour LMM est discuté dans les notes de cours du Dr Jack Weiss ici . Weiss note que la réduction de la corrélation de variance de cette manière peut parfois aider, entre autres, à la convergence des modèles.
L'exemple ci-dessus fait varier la corrélation aléatoire (paramètre "P5"). Concernant partiellement le Q3 de l'OP, nous voyons dans la sortie ci-dessus que:
la source