Disons que nous devons les GLMM
mod1 <- glmer(y ~ x + A + (1|g), data = dat)
mod2 <- glmer(y ~ x + B + (1|g), data = dat)
Ces modèles ne sont pas imbriqués dans le sens habituel de:
a <- glmer(y ~ x + A + (1|g), data = dat)
b <- glmer(y ~ x + A + B + (1|g), data = dat)
donc nous ne pouvons pas faire anova(mod1, mod2)
comme nous le ferions avec anova(a ,b)
.
Pouvons-nous utiliser AIC pour dire quel est le meilleur modèle à la place?
la source
Pour référence, un contre-argument: Brian Ripley déclare dans "Sélection parmi de grandes classes de modèles" pp. 6-7
Ripley, BD 2004. «Sélection parmi de grandes classes de modèles». Dans Methods and Models in Statistics , édité par N. Adams, M. Crowder, D. J Hand et D. Stephens, 155–70. Londres, Angleterre: Imperial College Press.
Akaike, H. (1973) Théorie de l'information et extension du principe du maximum de vraisemblance. Dans Second Symposium international sur la théorie de l'information (Eds BN Petrov et F. Cáski), pp. 267-281, Budapest. Akademiai Kaidó. Réimprimé dans Breakthroughs in Statistics , eds Kotz, S. & Johnson, NL (1992), volume I, p. 599–624. New York: Springer.
la source
Il semble qu'Akaike pensait que l'AIC était un outil utile pour comparer les modèles non imbriqués.
(Akaike 1985, p. 399)
Akaike, Hirotugu. "Prédiction et entropie." Articles choisis de Hirotugu Akaike. Springer, New York, NY, 1985. 387-410.
la source