Comme motivé par le récent changement de la statistique de sélection de modèle par défaut dans l'ensemble de prévisions du R de AIC à AICc, je suis curieux de savoir si ce dernier est effectivement applicable où que ce soit le premier. J'ai une série de questions à ce sujet et voici la première.
Je sais que remplacer AIC par AICc partout est ce que recommande le livre bien connu en (1) de Burnham et Anderson (non-statisticiens), comme résumé ici . Le livre est parfois mentionné sans critique par les plus jeunes statisticiens, voir par exemple les commentaires de ce blog de Rob Hyndman , mais le statisticien Brian Ripley a conseillé d'une manière radicalement différente:
“Burnham and Anderson (2002) is a book I would recommend people NOT read until
they have read the primary literature. I see no evidence that the authors have
actually read Akaike’s papers." [quoted from [AIC MYTHS AND MISUNDERSTANDINGS][4] by
Burnham-Anderson]
Il découle de ce que Ripley écrit sur l'AIC et la théorie connexe que l'avertissement doit être pris au sérieux. J'ai à la fois une bonne collection des propres papiers d'Akaike et le livre de Burnham-Anderson. J'aurai éventuellement ma propre opinion sur la qualité du livre, mais cela aidera aussi à savoir ce que la communauté des statisticiens, jeunes et moins jeunes, pense à ce sujet. En particulier, y a-t-il des professeurs de statistique (ou d'autres bons étudiants en statistique) qui ont explicitement recommandé le livre comme un résumé utile des connaissances sur l'utilisation de l'AIC pour la sélection de modèles?
Référence:
(1) Burnham, KP & Anderson, DR Sélection de modèles et inférence multimodèle: une approche pratique de la théorie de l'information Springer, 2002
PS. En réponse à la récente "réponse" indiquant que "Dr.Burnham est un statisticien de doctorat", je voudrais ajouter cette précision. Oui, par lui-même, il est statisticien, membre de l'ASA et récipiendaire de nombreuses récompenses professionnelles, dont la Distinguished Achievement Medal de l'ASA. Mais qui a dit qu'il ne l'était pas? Tout ce que j'ai dit plus haut, c'est qu'en tant qu'auteurs, ils ne sont pas des statisticiens et le livre reflète ce fait.
la source
Réponses:
Le PO semble rechercher une enquête de haute qualité auprès de statisticiens de haute qualité pour aider à évaluer si un livre en particulier est de haute qualité, en particulier en ce qui concerne le débat AIC contre AICc. Ce site n'est pas particulièrement orienté vers des enquêtes systématiques. J'essaierai plutôt d'aborder directement la question sous-jacente.
L'AIC et l'AICc notent tous les deux les modèles selon un compromis heuristique entre l'ajustement du modèle (en termes de probabilité) et l'ajustement (en termes de nombre de paramètres). Dans ce compromis, l'AICc donne une pénalité légèrement plus importante sur le nombre de paramètres. Ainsi, l'AICc recommande toujours en faveur de modèles dont la complexité est inférieure ou égale à la complexité du meilleur modèle AIC. En ce sens, la relation entre les deux est très simple, malgré les arguments horriblement compliqués qui sous-tendent leurs dérivations.
L'AIC et l'AICc ne sont que deux parmi un large éventail de critères d'information candidats, le BIC et le DIC étant peut-être les principales alternatives. Le BIC est beaucoup plus conservateur (pénalisant un grand nombre de paramètres du modèle) que l'AIC ou l'AICc dans la plupart des cas. La question de savoir quel critère est le meilleur est vraiment spécifique au problème. On pourrait légitimement préférer un critère extrêmement conservateur dans les cas où une solide prédiction hors échantillon est nécessaire.
FWIW, j'ai trouvé que le niveau de conservatisme de l'AICc était généralement préférable à l'AIC dans des études de simulation approfondies sur l'erreur de prédiction dans les modèles de capture-recapture.
la source