Je ne suis pas sûr du commentaire de la méthode de prédiction, mais un problème principal est lié à la génération de mesures de variance facilement interprétables, et non de mesures de variance en soi. Bates ne commente pas dans la première citation si vous pouvez le faire, juste ce que cela signifie.
Prenez un modèle simple à plusieurs niveaux d'une conception de mesures répétées à deux niveaux. Disons que vous disposez des données suivantes où chaque ligne est un sujet:
Dans lmer
le modèle pourrait être exprimé comme:
y ~ x + (1|subject)
Vous prédisez la valeur y de x comme un effet fixe (la différence entre A et B); et l'interception d'un effet aléatoire **. Regardez attentivement le graphique et notez que bien qu'il existe une variabilité dans l'effet x pour chaque sujet (pente de chaque ligne), elle est relativement petite par rapport à la variabilité entre les sujets (la hauteur de chaque ligne).
Le modèle analyse ces deux ensembles de variabilité et chacun est significatif. Vous pouvez utiliser les effets aléatoires pour prédire les hauteurs de lignes et vous pouvez utiliser les effets fixes de x pour prédire les pentes. Vous pouvez même utiliser les deux combinés pour travailler nos valeurs y individuelles. Mais ce que vous ne pouvez pas faire, c'est vraiment dire quelque chose de significatif par rapport à votre modèle lorsque vous combinez la variabilité des pentes et des hauteurs de lignes. Vous devez parler séparément de la variabilité de vos pentes et des hauteurs de lignes. C'est une caractéristique du modèle, pas un passif.
Vous aurez une variabilité de l'effet de x qui est relativement facile à estimer. Vous pourriez dire quelque chose sur un intervalle de confiance autour de cela. Mais notez que cet intervalle de confiance va avoir une petite relation avec la prédiction de toute valeur y particulière car la valeur y est influencée par une combinaison d'effet et de variance de sujet différente de la variabilité de l'effet seul.
Lorsque Bates écrit des choses comme vous l'avez cité, j'imagine qu'il pense souvent à des conceptions à plusieurs niveaux beaucoup plus complexes que cela n'approche même pas. Mais même si vous considérez simplement cet exemple simple, vous vous demandez quel type de sens réel peut être extrait de la combinaison de toutes les mesures de variance.
** J'ai ignoré l'effet fixe de l'interception pour des raisons de simplicité et je l'ai simplement traité comme un effet aléatoire. Vous pouvez extraire des conclusions similaires d'un modèle encore plus simple avec une interception aléatoire et fixe uniquement, mais je pense que ce serait plus difficile à transmettre. Dans ce cas, encore une fois, l'effet fixe et l'effet aléatoire sont analysés pour une raison et signifient des choses différentes et le fait de regrouper leur variabilité pour les valeurs prédites fait que cette variabilité n'a guère de sens par rapport au modèle.
Pendant longtemps, je me suis interrogé sur la croyance apparemment commune qu'il existe une différence fondamentale dans les effets fixes et aléatoires pour les modèles d'effets mixtes (généralement non linéaires). Cette croyance est par exemple exprimée par Bates dans la réponse suivante
https://stat.ethz.ch/pipermail/r-sig-mixed-models/2010q1/003447.html
Bates déclare clairement qu'il pense qu'il existe une différence fondamentale entre les effets fixes et les effets aléatoires, de sorte qu'ils ne peuvent pas être combinés. Je pense qu'il a tort et j'espère convaincre quelques lecteurs d'un point de vue alternatif. Je prends une approche fréquentiste donc ce que je veux faire est de définir une notion de probabilité de profil pour une fonction à la fois des effets fixes et aléatoires. Pour motiver la discussion, supposons que nous ayons un modèle à deux paramètres avec les paramètres x et u (rien sur les effets aléatoires jusqu'à présent). Soit la fonction de vraisemblance où nous supprimons toute référence aux données. Soit g ( x , u ) toute fonction (agréable) de x et u. La probabilité de profilL ( x , u ) g( x , u )
pour la fonction g est donnée parPg( t ) g
Je pense que personne ne contesterait cela. Supposons maintenant que nous ayons une distribution de probabilité antérieure pour u. Je dirais alors que la vraisemblance du profil pour g est toujours logique, mais nous devrions modifier (1) en incluant l'a priori.p ( u ) g
la source