J'ai une expérience que je vais essayer de résumer ici. Imaginez que je lance trois pierres blanches devant vous et vous demande de juger de leur position. J'enregistre une variété de propriétés des pierres et votre réponse. Je le fais sur un certain nombre de sujets. Je génère deux modèles. L'un est que la pierre la plus proche de vous prédit votre réponse, et l'autre est que le centre géométrique des pierres prédit votre réponse. Donc, utiliser lmer dans RI pourrait écrire.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
MISE À JOUR ET CHANGEMENT - version plus directe qui intègre plusieurs commentaires utiles
Je pourrais essayer
anova(mNear, mCenter)
Ce qui est incorrect, bien sûr, car ils ne sont pas imbriqués et je ne peux pas vraiment les comparer de cette façon. Je m'attendais à ce que anova.mer lance une erreur mais ce n'est pas le cas. Mais l'imbrication possible que je pourrais essayer ici n'est pas naturelle et me laisse encore des déclarations un peu moins analytiques. Lorsque les modèles sont imbriqués naturellement (par exemple quadratique sur linéaire), le test n'est que dans un sens. Mais dans ce cas, que signifierait avoir des résultats asymétriques?
Par exemple, je pourrais faire un modèle trois:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Ensuite, je peux anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
C'est juste à faire et maintenant je trouve que le centre ajoute à l'effet le plus proche (la deuxième commande) mais BIC monte en fait quand le plus proche est ajouté au centre (correction pour la parcimonie inférieure). Cela confirme ce qui était suspecté.
Mais cela suffit-il? Et est-ce juste lorsque le centre et le plus proche sont si fortement corrélés?
Existe-t-il un meilleur moyen de comparer analytiquement les modèles lorsqu'il ne s'agit pas d'ajouter et de soustraire des variables explicatives (degrés de liberté)?
Réponses:
Néanmoins, vous pouvez calculer des intervalles de confiance pour vos effets fixes et signaler AIC ou BIC (voir par exemple Cnann et al. , Stat Med 1997 16: 2349).
Maintenant, vous pourriez être intéressé à jeter un coup d'œil à l' évaluation du mimétisme du modèle à l'aide du bootstrap paramétrique , de Wagenmakers et al. qui semble plus proche de votre question initiale sur l'évaluation de la qualité de deux modèles concurrents.
Sinon, les deux articles sur les mesures de la variance expliquée dans LMM qui me viennent à l'esprit sont:
Mais il y a peut-être de meilleures options.
la source
Suivre la suggestion de ronaf conduit à un article plus récent de Vuong pour un test de rapport de vraisemblance sur des modèles non nichés. Il est basé sur le KLIC (Kullback-Leibler Information Criterion) qui est similaire à l'AIC en ce qu'il minimise la distance KL. Mais il établit une spécification probabiliste pour l'hypothèse de sorte que l'utilisation du TLR mène à une comparaison plus fondée sur des principes. Une version plus accessible des tests de Cox et Vuong est présentée par Clarke et al; voir en particulier la figure 3 qui présente l'algorithme de calcul du test Vuong LRT.
Il semble qu'il existe des implémentations R du test Vuong dans d'autres modèles, mais pas lmer. Néanmoins, le schéma mentionné ci-dessus devrait être suffisant pour en mettre en œuvre un. Je ne pense pas que vous pouvez obtenir la probabilité évaluée à chaque point de données de lmer comme requis pour le calcul. Dans une note sur sig-ME, Douglas Bates a quelques conseils qui pourraient être utiles (en particulier, la vignette qu'il mentionne).
Plus âgée
Une autre option consiste à considérer les valeurs ajustées des modèles dans un test de précision de prédiction. La statistique Williams-Kloot peut être appropriée ici. L'approche de base consiste à régresser les valeurs réelles par rapport à une combinaison linéaire des valeurs ajustées des deux modèles et à tester la pente:
Le premier article décrit le test (et d'autres), tandis que le second a une application de celui-ci dans un modèle de panel économétrique.
Lors de l'utilisation
lmer
et de la comparaison des AIC, la fonction par défaut est d'utiliser la méthode REML (Restricted Maximum Likelihood). C'est très bien pour obtenir des estimations moins biaisées, mais lorsque vous comparez des modèles, vous devez réajuster ceuxREML=FALSE
qui utilisent la méthode du maximum de vraisemblance pour l'ajustement. Le livre Pinheiro / Bates mentionne une condition dans laquelle il est OK de comparer AIC / Likelihood avec REML ou ML, et ceux-ci peuvent très bien s'appliquer dans votre cas. Cependant, la recommandation générale est de simplement réajuster. Par exemple, voir le billet de Douglas Bates ici:la source
il y a un article de drcox qui discute des tests de modèles [non imbriqués] séparés. il considère quelques exemples, qui n'augmentent pas la complexité des modèles mixtes. [Comme mes installations avec le code R sont limitées, je ne sais pas exactement quels sont vos modèles.]
Le papier altho cox peut ne pas résoudre votre problème directement, il peut être utile de deux manières possibles.
vous pouvez rechercher des citations dans son article sur google scholar, pour voir si les résultats ultérieurs se rapprochent de ce que vous voulez.
si vous êtes analytique, vous pouvez essayer d'appliquer la méthode cox à votre problème. [peut-être pas pour les timides.]
btw-cox mentionne en passant l'idée que Srikant a abordée de combiner les deux modèles en un plus grand. il ne cherche pas comment on déciderait alors quel modèle est le meilleur, mais il remarque que même si aucun des deux modèles n'est très bon, le modèle combiné pourrait donner un ajustement adéquat aux données. [il n'est pas clair dans votre situation qu'un modèle combiné aurait du sens.]
la source
Je ne connais pas assez bien R pour analyser votre code mais voici une idée:
Estimez un modèle où vous avez à la fois un centre et un voisin comme covariables (appelez ce mBoth). Ensuite, mCenter et mNear sont imbriqués dans mBoth et vous pouvez utiliser mBoth comme référence pour comparer les performances relatives de mCenter et mNear.
la source