Étant donné une variable prédite (P), un effet aléatoire (R) et un effet fixe (F), on pourrait adapter deux * modèles à effets mixtes ( syntaxe lme4 ):
m1 = lmer( P ~ (1|R) + F )
m2 = lmer( P ~ (1+F|R) + F)
Si je comprends bien, le deuxième modèle est celui qui permet à l'effet fixe de varier selon les niveaux de l'effet aléatoire.
Dans mes recherches, j'utilise généralement des modèles à effets mixtes pour analyser les données d'expériences menées auprès de plusieurs participants humains. Je modélise le participant comme un effet aléatoire et les manipulations expérimentales comme des effets fixes. Je pense qu'il est logique a priori de laisser le degré auquel les effets fixes affectent les performances de l'expérience varier d'un participant à l'autre. Cependant, j'ai du mal à imaginer des circonstances dans lesquelles je ne devrais pas autoriser les effets fixes à varier selon les niveaux d'un effet aléatoire, alors ma question est:
Quand ne doit-on pas permettre à un effet fixe de varier selon les niveaux d'un effet aléatoire?
la source
Réponses:
Je ne suis pas un expert en modélisation à effets mixtes, mais la question est beaucoup plus facile à répondre si elle est reformulée dans un contexte de modélisation de régression hiérarchique. Nos observations ont donc deux indicesPij et Fij avec un indice i représentant la classe et j membres de la classe. Les modèles hiérarchiques nous permettent d'ajuster la régression linéaire, où les coefficients varient selon les classes:
Il s'agit de notre régression de premier niveau. La régression de second niveau se fait sur les premiers coefficients de régression:
lorsque nous substituons cela dans la régression de premier niveau, nous obtenons
Ici sont des effets fixes et u sont des effets aléatoires. Le modèle mixte estime γ et les variances de u .γ u γ u
Le modèle que j'ai écrit correspond à la
lmer
syntaxeMaintenant, si nous mettons sans le terme aléatoire, nous obtenonsβ1i=γ01
ce qui correspond à la
lmer
syntaxeDonc, la question devient maintenant quand pouvons-nous exclure le terme d'erreur de la régression de second niveau? La réponse canonique est que lorsque nous sommes sûrs que les régresseurs (ici nous n'en avons pas, mais nous pouvons les inclure, ils sont naturellement constants au sein des classes) dans la régression de deuxième niveau expliquent pleinement la variance des coefficients entre les classes.
Donc, dans ce cas particulier, si le coefficient de ne varie pas, ou bien la variance de u 1 i est très petite, nous devrions avoir l'idée que nous sommes probablement meilleurs avec le premier modèle.Fij u1i
Remarque . Je n'ai donné que des explications algébriques, mais je pense qu'en ayant cela à l'esprit, il est beaucoup plus facile de penser à un exemple d'application particulier.
la source
Vous pouvez considérer un "effet fixe" comme un "effet aléatoire" avec une composante de variance de zéro.
Ainsi, une réponse simple à la raison pour laquelle vous ne laisseriez pas l'effet fixe varier, est une preuve insuffisante pour une composante de variance "assez grande". Les preuves doivent provenir à la fois des informations antérieures et des données. Ceci est conforme au principe de base du «rasoir d'occam»: ne rendez pas votre modèle plus complexe qu'il ne devrait l'être.
J'ai tendance à penser aux modèles mixtes linéaires de la manière suivante, écrivez une régression multiple comme suit:
Compare this to the OLS regression (which hasZ=0 ) and we get:
So the "random" part of the model can be seen as a way of specifying prior information about the correlation structure of the noise or error component in the model. OLS basically assumes that any one error from the fixed part of the model in one case is useless for predicting any other error, even if we knew the fixed part of the model with certainty. Adding a random effect is basically saying that you think some errors are likely to be useful in predicting other errors.
la source
This is quite an old question with some very good answers, however I think it can benefit from a new answer to address a more pragmatic perspective.
I won't address the issues already described in the other answers, instead I will refer to the now-famous, though I would rather say "infamous" paper by Barr et al (2013) often just referred to as "Keep it maximal"
Barr, D.J., Levy, R., Scheepers, C. and Tily, H.J., 2013. Random effects structure for confirmatory hypothesis testing: Keep it maximal. Journal of memory and language, 68(3), pp.255-278.
In this paper the authors argue that all fixed effects should be allowed to vary across levels of the grouping factors (random intercepts). Their argument is quite compelling - basically that by not allowing them to vary, it is imposing constraints on the model. This is well-described in the other answers. However, there are potentially serious problems with this approach, which are described by Bates el al (2015):
Bates, D., Kliegl, R., Vasishth, S. and Baayen, H., 2015. Parsimonious mixed models. arXiv preprint arXiv:1506.04967
It is worth noting here that Bates is the primary author of the
lme4
package for fitting mixed models in R, which is probably the most widely used package for such models. Bates et al note that in many real-world applications, the data simply won't support a maximal random effects structure, often because there are insufficient numbers of observations in each cluster for the relevant variables. This can manifest itself in models that fail to converge, or are singular in the random effects. The large number of questions on this site about such models attests to that. They also note that Barr et al used a relatively simple simulation, with "well-behaved" random effects as the basis for their paper. Instead Bates et al suggest the following approach:In the same paper, they also note:
And:
Bates et al (2015)
From a more applied perspective, a further consideration that should be made is whether or not, the data generation process, the biological/physical/chemical theory that underlies the data, should guide the analyst towards specifying the random effects structure.
la source