J'ai le modèle suivant m_plot
équipé d' lme4::lmer
effets aléatoires croisés pour les participants ( lfdn
) et les éléments ( content
):
Random effects:
Groups Name Variance Std.Dev. Corr
lfdn (Intercept) 172.173 13.121
role1 62.351 7.896 0.03
inference1 24.640 4.964 0.08 -0.30
inference2 52.366 7.236 -0.05 0.17 -0.83
inference3 21.295 4.615 -0.03 0.22 0.86 -0.77
content (Intercept) 23.872 4.886
role1 2.497 1.580 -1.00
inference1 18.929 4.351 0.52 -0.52
inference2 14.716 3.836 -0.16 0.16 -0.08
inference3 17.782 4.217 -0.17 0.17 0.25 -0.79
role1:inference1 9.041 3.007 0.10 -0.10 -0.10 -0.21 0.16
role1:inference2 5.968 2.443 -0.60 0.60 -0.11 0.78 -0.48 -0.50
role1:inference3 4.420 2.102 0.30 -0.30 0.05 -0.97 0.71 0.37 -0.90
Residual 553.987 23.537
Number of obs: 3480, groups: lfdn, 435 content, 20
Je veux connaître les coefficients de corrélation intraclasse (ICC) pour les participants et les articles. Grâce à cette excellente réponse, je sais en principe comment obtenir l'ICC pour mon modèle. Cependant, je ne suis pas sûr d'inclure ou non les pentes aléatoires:
vars <- lapply(summary(m_plot)$varcor, diag)
resid_var <- attr(summary(m_plot)$varcor, "sc")^2
total_var <- sum(sapply(vars, sum), resid_var)
# with random slopes
sapply(vars, sum)/total_var
## lfdn content
## 0.33822396 0.09880349
# only random intercepts:
sapply(vars, function(x) x[1]) / total_var
## lfdn.(Intercept) content.(Intercept)
## 0.17496587 0.02425948
Quelle est la mesure appropriée pour la corrélation entre deux réponses d'un même participant respectif au même élément?
Réponses:
Fondamentalement, il n'y a pas de nombre ou d'estimation unique qui puisse résumer le degré de regroupement dans un modèle à pentes aléatoires.
La corrélation intra-classe (ICC) ne peut être écrite que comme une simple proportion de variances dans les modèles à interceptions aléatoires uniquement. Pour voir pourquoi, une esquisse de la dérivation de l'expression ICC peut être trouvée ici .
Lorsque vous lancez des pentes aléatoires dans l'équation du modèle, suivre les mêmes étapes conduit à la place à l'expression ICC à la page 5 de ce document . Comme vous pouvez le voir, cette expression compliquée est fonction du prédicteur X. Pour voir plus intuitivement pourquoi var (Y) dépend de X quand il y a des pentes aléatoires, consultez la page 30 de ces diapositives ("Pourquoi la variance dépend-elle de x ? ") .
Étant donné que l'ICC est une fonction des prédicteurs (les valeurs x), il ne peut être calculé que pour des ensembles particuliers de valeurs x. Vous pourriez peut-être essayer quelque chose comme rapporter l'ICC à la moyenne conjointe des valeurs x, mais cette estimation sera manifestement inexacte pour la majorité des observations.
Tout ce que j'ai dit ne se réfère toujours qu'aux cas où il n'y a qu'un seul facteur aléatoire. Avec plusieurs facteurs aléatoires, cela devient encore plus compliqué. Par exemple, dans un projet multi-sites où les participants de chaque site répondent à un échantillon de stimuli (c.-à-d., 3 facteurs aléatoires: site, participant, stimulus), nous pourrions poser des questions sur de nombreux ICC différents: Quelle est la corrélation attendue entre deux réponses au même site, au même stimulus, de participants différents? Que diriez-vous de différents sites, du même stimulus et de différents participants? Etc. @rvl mentionne ces complications dans la réponse à laquelle l'OP est lié.
Donc, comme vous pouvez le voir, le seul cas où nous pouvons résumer le degré de regroupement avec une seule valeur est le cas à interception aléatoire à facteur aléatoire unique. Parce qu'il s'agit d'une si petite proportion de cas réels, les CPI ne sont pas très utiles la plupart du temps. Donc, ma recommandation générale est de ne même pas s'en soucier. Au lieu de cela, je recommande simplement de signaler les composantes de la variance (de préférence sous forme d'écart type).
la source