Qu'est-ce que le «paramètre de composante de variance» dans le modèle à effets mixtes?

9

À la page 12 du livre de Bates sur le modèle à effets mixtes , il décrit le modèle comme suit:

Le modèle à effets mixtes de Bates

Vers la fin de la capture d'écran, il mentionne le

facteur de covariance relative , en fonction du paramètre de composante de variance ,Λθθ

sans expliquer quelle est exactement la relation. Supposons que l'on nous donne , comment en dériverions-nous ?θΛθ

Sur une note connexe, c'est l'un des nombreux exemples dans lesquels je trouve que l'exposition de Bates manque un peu de détails. Existe-t-il un meilleur texte qui passe réellement par le processus d'optimisation de l'estimation des paramètres et la preuve de la distribution des statistiques de test?

Heisenberg
la source
1
Je pense que signifie simplement le type de composante de variance que vous supposerez, comme AR (1) ou UN, etc.θ
Deep North
@DeepNorth J'ai lu le texte de plus près, et à un moment donné, l'auteur parle d'optimiser la probabilité en ce qui concerne . Je pense donc que doit être un paramètre réel. (page 108, sec 5.4.2)θθ
Heisenberg
Avez-vous réussi à comprendre cela?, J'ai la même difficulté à comprendre la relation entre la matrice de covariance et le thêta.
Avez-vous abandonné la question? Jusqu'à présent, deux réponses ont été fournies, sans un seul commentaire à leur sujet. Veuillez envisager de donner un retour constructif sur les réponses, de sorte que, si elles n'apportent pas de solution (satisfaisante), au moins une discussion peut se développer pour affiner le problème et conduire à sa solution. Ne pas réagir aux réponses à votre question décourage d'autres réponses.
sauter le

Réponses:

3

C'est un raisonnement hiérarchique. Il y a un tas de paramètres dans votre modèle linéaire, les composants de b. Dans un modèle à effets fixes purs, vous obtiendriez simplement des estimations de ceux-ci et ce serait tout. Au lieu de cela, vous imaginez que les valeurs de b elles-mêmes sont tirées d'une distribution normale multivariée avec une matrice de covariance paramétrée par thêta. Voici un exemple simple. Supposons que nous examinions le nombre d'animaux à cinq périodes différentes à 10 endroits différents. Nous obtiendrions un modèle linéaire (j'utilise R talk ici) qui ressemblerait à count ~ time + factor (location), de sorte que vous auriez (dans ce cas) une pente commune pour toute la régression (une à chaque emplacement) mais une interception différente à chaque emplacement. Nous pourrions simplement donner un coup de pied et l'appeler un modèle à effet fixe et estimer toutes les interceptions. cependant, nous voulons peut-être ne pas se soucier des emplacements particuliers s'ils étaient 10 emplacements sélectionnés parmi un grand nombre d'emplacements possibles. Nous avons donc mis un modèle de covariance sur les intersections. Par exemple, nous déclarons que les intersections sont normales à plusieurs variables et indépendantes avec une variance commune sigma2. Alors sigma2 est le paramètre "thêta", car il caractérise la population d'interceptions à chaque emplacement (qui sont donc des effets aléatoires).

AlaskaRon
la source
2

θ~

Λθq×qθq×q

Λθ=θ×jeq

fm01ML

Λθθ

fm03

Idem avec deux termes à effets aléatoires imbriqués (p. 43, Fig. 2.10, non représentés ici).

Λθ

entrez la description de l'image ici

Λθ

entrez la description de l'image ici


Notes complémentaires:

θje=σjeσσjeσ

lme4merModΛθgetME

image(getME(fm01ML, "Lambda"))
sauter
la source