Je lis le document de théorie de Doug Bates sur le package lme4 de R pour mieux comprendre les moindres détails des modèles mixtes, et suis tombé sur un résultat intrigant que j'aimerais mieux comprendre, à propos de l'utilisation du maximum de vraisemblance restreint (REML) pour estimer la variance .
Dans la section 3.3 sur le critère REML, il déclare que l'utilisation de REML dans l'estimation de la variance est étroitement liée à l'utilisation d'une correction des degrés de liberté lors de l'estimation de la variance par rapport aux écarts résiduels dans un modèle linéaire ajusté. En particulier, "bien que ce ne soit généralement pas dérivé de cette manière", les degrés de correction de liberté peuvent être dérivés en estimant la variance par l'optimisation d'un "critère REML" (Eq. (28)). Le critère REML est essentiellement juste la probabilité, mais les paramètres d'ajustement linéaire ont été éliminés en marginalisant (au lieu de les fixer égaux à l'estimation d'ajustement, ce qui donnerait la variance de l'échantillon biaisé).
J'ai fait le calcul et vérifié le résultat revendiqué pour un modèle linéaire simple avec seulement des effets fixes. Ce qui me pose problème, c'est l'interprétation. Existe-t-il une perspective à partir de laquelle il est naturel de dériver une estimation de la variance en optimisant une probabilité où les paramètres d'ajustement ont été marginalisés? Cela ressemble à une sorte de bayésien, comme si je pensais à la probabilité en tant que postérieur et que je marginalisais les paramètres d'ajustement comme s'il s'agissait de variables aléatoires.
Ou la justification est-elle principalement mathématique - elle fonctionne dans le cas linéaire mais est également généralisable?