J'ai lu dans le résumé de cet article que:
"La procédure de maximum de vraisemblance (ML) de Hartley aud Rao est modifiée en adaptant une transformation de Patterson et Thompson qui partage la vraisemblance en normalisant la normalité en deux parties, l’une étant exempte d’effets fixes. Maximiser cette partie donne ce que l’on appelle le maximum de vraisemblance restreint. (REML) estimateurs. "
J'ai aussi lu dans le résumé de cet article que REML:
"prend en compte la perte en degrés de liberté résultant de l'estimation des effets fixes."
Malheureusement, je n'ai pas accès au texte intégral de ces documents (et je ne comprendrais probablement pas si je le faisais).
En outre, quels sont les avantages de REML par rapport à ML? Dans quelles circonstances peut-on préférer REML à ML (ou inversement) lors de l’ajustement d’un modèle à effets mixtes? S'il vous plaît donner une explication appropriée pour quelqu'un avec une formation en mathématiques au lycée (ou juste au-delà)!
la source
Réponses:
Selon la réponse d'Ocram, ML est biaisé pour l'estimation des composantes de la variance. Mais observons que le biais diminue pour des échantillons de plus grande taille. Par conséquent, en réponse à vos questions, " ... quels sont les avantages de REML par rapport à ML? Dans quelles circonstances peut-on préférer REML à ML (ou inversement) lors de l'ajustement d'un modèle à effets mixtes? ", Pour des échantillons de petite taille, on préfère REML. Cependant, les tests de rapport de vraisemblance pour REML nécessitent exactement les mêmes spécifications d'effets fixes dans les deux modèles. Donc, pour comparer des modèles avec différents effets fixes (un scénario commun) avec un test de LR, ML doit être utilisé.
REML prend en compte le nombre de paramètres (effets fixes) estimés, en perdant 1 degré de liberté pour chacun. Ceci est obtenu en appliquant ML aux résidus des moindres carrés, qui sont indépendants des effets fixes.
la source
Voici une réponse rapide ...
Exemple illustratif standard
Soit un échantillon d’une distribution normale ). Les deux et ne sont pas connus. L'estimateur de vraisemblance maximale de , obtenu en prenant la dérivée de log-vraisemblance par rapport à et égal à zéro, est où est l'estimateur du maximum de vraisemblance de . Nous pouvons montrer que [ Commencez par réécrirey=(y1,…,yn) N(μ,σ2 μ σ2 σ2 σ2
Plus techniquement, la probabilité REML est une probabilité de combinaisons linéaires des données d'origine: au lieu de la probabilité de , considérons la probabilité de , où la matrice est telle que .y Ky K E[Ky]=0
L'estimation REML est souvent utilisée dans le contexte plus complexe des modèles mixtes. Chaque livre sur les modèles mixtes comporte une section expliquant plus en détail l'estimation de REML.
Modifier
@ Joe King: Voici l' un de mes livres préférés sur les modèles mixtes entièrement disponible en ligne. La section 2.4.2 traite de l'estimation des composantes de la variance. Bonne lecture :-)
la source
La méthode ML sous-estime les paramètres de variance car elle suppose que les paramètres fixes sont connus sans incertitude lors de l’estimation des paramètres de variance.
La méthode REML utilise une astuce mathématique pour établir les estimations des paramètres de variance indépendamment des estimations des effets fixes. REML fonctionne en obtenant d’abord les résidus de régression pour les observations modélisées par la partie effets fixes du modèle, en ignorant à ce stade toutes les composantes de la variance.
Les estimations de niveau maximal sont non biaisées pour les effets fixes, mais biaisées pour les effets aléatoires, tandis que les estimations du niveau REML sont biaisées pour les effets fixes et non biaisées pour les effets aléatoires.
la source