Considérons un modèle mixte linéaire simple, par exemple un modèle d'interception aléatoire où nous estimons la dépendance de sur chez différents sujets, et supposons que chaque sujet a sa propre interception aléatoire:Ici, les interceptions sont modélisées comme provenant d'une distribution gaussienne c_i \ sim \ mathcal N (0, \ tau ^ 2) et le bruit aléatoire est également gaussien \ epsilon \ sim \ mathcal N (0, \ sigma ^ 2). Dans la syntaxe, ce modèle serait écrit comme .x y = a + b x + c i + ϵ . c i c i ∼ N ( 0 , τ 2 ) ϵ ∼ N ( 0 , σ 2 ) .yX
y= a + b x + cje+ ϵ .
cjecje∼ N( 0 , τ2)
ϵ ∼ N( 0 , σ2) .
lme4
y ~ x + (1|subject)
Il est instructif de réécrire ce qui précède comme suit:
y∣ c ∼ N( a + b x + c , σ2)c ∼ N( 0 , τ2)
Il s'agit d'une manière plus formelle de spécifier le même modèle probabiliste. De cette formulation, nous pouvons voir directement que les effets aléatoires ne sont pas des "paramètres": ce sont des variables aléatoires non observées. Alors, comment pouvons-nous estimer les paramètres de variance sans connaître les valeurs de ? ccjec
Notez que la première équation ci-dessus décrit la distribution conditionnelle de étant donné . Si nous connaissons la distribution de et de , alors nous pouvons déterminer la distribution inconditionnelle de en intégrant sur . Vous la connaissez peut-être comme la loi de la probabilité totale . Si les deux distributions sont gaussiennes, alors la distribution inconditionnelle résultante est également gaussienne.c cyccy cy∣ cyc
Dans ce cas, la distribution inconditionnelle est simplement , mais nos observations ne sont pas des échantillons de celle-ci car il existe plusieurs mesures par sujet. Pour continuer, nous devons considérer la distribution de l'ensemble du vecteur à dimensions de toutes les observations: où est une matrice bloc-diagonale composée de et . Vous avez demandé de l'intuition donc je veux éviter les maths. Le point important est que cette équation n'a pasn y y ∼ N ( a + b x , Σ ) Σ = σ 2 I n + τ 2 I N ⊗ 1 M σ 2 τ 2 c c iN( a + b x , σ2+ τ2)ny
y ∼ N( a + b x , Σ )
Σ = σ2jen+τ2IN⊗1Mσ2τ2cplus!
C'est ce que l'on adapte réellement aux données observées, et c'est pourquoi on dit que ne sont pas les paramètres du modèle.
cje
Lorsque les paramètres , , et sont ajustés, on peut déterminer la distribution conditionnelle de pour chaque . Ce que vous voyez dans la sortie du modèle mixte sont les modes de ces distributions, alias les modes conditionnels.b τ 2 σ 2 c i iunebτ2σ2cjeje
Vous pouvez facilement estimer les paramètres de variance et de covariance sans vous fier aux effets aléatoires en utilisant des effets fixes (voir ici pour une discussion effets fixes vs effets aléatoires; sachez qu'il existe différentes définitions de ces termes).
Les effets fixes peuvent être facilement dérivés en ajoutant une variable indicatrice (binaire) pour chaque groupe (ou pour chaque période de temps ou tout ce que vous pensez utiliser comme effets aléatoires; cela équivaut à la transformation intra). Cela vous permet d'estimer facilement les effets fixes (qui peuvent être considérés comme un paramètre).
L'hypothèse des effets fixes ne vous oblige pas à faire une hypothèse de la distribution des effets fixes, vous pouvez facilement estimer la variance des effets fixes (bien que cela soit extrêmement bruyant si le nombre d'observations dans chaque groupe est petit; ils minimisent le biais pour le coût d'une variance beaucoup plus grande par rapport aux effets aléatoires parce que vous perdez un degré de liberté pour chaque groupe en ajoutant ces variables indicatrices). Vous pouvez également estimer les covariances entre différents ensembles d'effets fixes ou entre les effets fixes et d'autres covariables. Nous l'avons fait par exemple dans un article intitulé Competitive Balance and Assortative Matching en Bundesliga allemande pour estimer si de meilleurs joueurs de football jouent de plus en plus pour de meilleures équipes.
Les effets aléatoires nécessitent une hypothèse préalable sur la covariance. Dans les modèles classiques à effets aléatoires, vous supposez que les effets aléatoires sont comme une erreur et qu'ils sont indépendants des autres covariables (de sorte que vous pouvez les ignorer et utiliser OLS et obtenir des estimations cohérentes quoique inefficaces pour l'autre paramètre si les hypothèses du modèle à effets aléatoires est vrai).
De plus amples informations techniques sont disponibles ici . Andrew Gelman a également beaucoup de travail plus intuitif à ce sujet dans son joli livre Analyse des données à l'aide de modèles de régression et multiniveaux / hiérarchiques
la source