Le livre de Burnham-Anderson sur l'inférence multimodèle peut-il être recommandé?

14

Comme motivé par le récent changement de la statistique de sélection de modèle par défaut dans l'ensemble de prévisions du R de AIC à AICc, je suis curieux de savoir si ce dernier est effectivement applicable où que ce soit le premier. J'ai une série de questions à ce sujet et voici la première.

Je sais que remplacer AIC par AICc partout est ce que recommande le livre bien connu en (1) de Burnham et Anderson (non-statisticiens), comme résumé ici . Le livre est parfois mentionné sans critique par les plus jeunes statisticiens, voir par exemple les commentaires de ce blog de Rob Hyndman , mais le statisticien Brian Ripley a conseillé d'une manière radicalement différente:

“Burnham and Anderson (2002) is a book I would recommend people NOT read until 
they have read the primary literature. I see no evidence that the authors have 
actually read Akaike’s papers." [quoted from [AIC MYTHS AND MISUNDERSTANDINGS][4] by
Burnham-Anderson]

Il découle de ce que Ripley écrit sur l'AIC et la théorie connexe que l'avertissement doit être pris au sérieux. J'ai à la fois une bonne collection des propres papiers d'Akaike et le livre de Burnham-Anderson. J'aurai éventuellement ma propre opinion sur la qualité du livre, mais cela aidera aussi à savoir ce que la communauté des statisticiens, jeunes et moins jeunes, pense à ce sujet. En particulier, y a-t-il des professeurs de statistique (ou d'autres bons étudiants en statistique) qui ont explicitement recommandé le livre comme un résumé utile des connaissances sur l'utilisation de l'AIC pour la sélection de modèles?

Référence:

(1) Burnham, KP & Anderson, DR Sélection de modèles et inférence multimodèle: une approche pratique de la théorie de l'information Springer, 2002

PS. En réponse à la récente "réponse" indiquant que "Dr.Burnham est un statisticien de doctorat", je voudrais ajouter cette précision. Oui, par lui-même, il est statisticien, membre de l'ASA et récipiendaire de nombreuses récompenses professionnelles, dont la Distinguished Achievement Medal de l'ASA. Mais qui a dit qu'il ne l'était pas? Tout ce que j'ai dit plus haut, c'est qu'en tant qu'auteurs, ils ne sont pas des statisticiens et le livre reflète ce fait.

Hibernation
la source
2
L'article "Mythes et malentendus AIC" est disponible ici . Je ne l'avais pas vu (même si j'avais déjà vu le commentaire de Ripley).
Glen_b -Reinstate Monica
3
La question fournit des liens mais je pense qu'il serait utile pour les lecteurs que la question elle-même donne une idée de ce qui pourrait être mauvais dans le contenu du livre de Burnham et Anderson. (Si ce qu'ils disent est exact, clair, utile, etc., alors peu importe qu'ils lisent réellement les articles d'Akaike.) De plus, il me semble que l'AIC et les méthodes connexes sont toujours controversées; si c'est le cas, alors tout livre les présentant aura des détracteurs. Et une suggestion que tout le monde doit lire les articles originaux avant de lire un livre qui aspire à fournir une introduction à un sujet semble discutable.
Mars
7
J'ai lu les deux principaux articles d'Akaike, celui de Schwarz sur le BIC, et le livre de Burnham et Anderson (il est en ce moment sur mon étagère), et aussi (comme vous le voyez), la brève critique de Ripley. J'aimerais beaucoup voir Ripley expliquer la critique en détail (sans s'interroger sur qui a pu lire quoi) - dans l'état actuel des choses, Burnham et Anderson n'ont vraiment rien de substantiel à répondre. S'il y a quelque chose (et il peut y en avoir pour tout ce que je sais), cela mérite plus que quelques lignes sur une liste de diffusion R-help.
Glen_b -Reinstate Monica
2
@Gleb_b Les vues de Ripley peuvent être déduites de son livre de 1996 sur la reconnaissance des formes, auquel il faisait référence dans cet article de la liste R, voir par exemple le chapitre 2. Les détails mathématiques et les commentaires sur d'autres aspects du travail d'Akaike (par exemple, qu'est-ce que A dans les peuplements AIC) pour) me faire penser qu'il comprend bien ce domaine et avait lu plus que quelques-uns des articles d'Akaike.
Hibernation du
3
Mettre deux sous différents: à quelle fréquence l'AIC et l'AICc donnent-ils des conseils différents? D'après mon expérience, ils suggèrent les mêmes modèles.
Peter Flom - Réintègre Monica

Réponses:

3

Le PO semble rechercher une enquête de haute qualité auprès de statisticiens de haute qualité pour aider à évaluer si un livre en particulier est de haute qualité, en particulier en ce qui concerne le débat AIC contre AICc. Ce site n'est pas particulièrement orienté vers des enquêtes systématiques. J'essaierai plutôt d'aborder directement la question sous-jacente.

L'AIC et l'AICc notent tous les deux les modèles selon un compromis heuristique entre l'ajustement du modèle (en termes de probabilité) et l'ajustement (en termes de nombre de paramètres). Dans ce compromis, l'AICc donne une pénalité légèrement plus importante sur le nombre de paramètres. Ainsi, l'AICc recommande toujours en faveur de modèles dont la complexité est inférieure ou égale à la complexité du meilleur modèle AIC. En ce sens, la relation entre les deux est très simple, malgré les arguments horriblement compliqués qui sous-tendent leurs dérivations.

L'AIC et l'AICc ne sont que deux parmi un large éventail de critères d'information candidats, le BIC et le DIC étant peut-être les principales alternatives. Le BIC est beaucoup plus conservateur (pénalisant un grand nombre de paramètres du modèle) que l'AIC ou l'AICc dans la plupart des cas. La question de savoir quel critère est le meilleur est vraiment spécifique au problème. On pourrait légitimement préférer un critère extrêmement conservateur dans les cas où une solide prédiction hors échantillon est nécessaire.

FWIW, j'ai trouvé que le niveau de conservatisme de l'AICc était généralement préférable à l'AIC dans des études de simulation approfondies sur l'erreur de prédiction dans les modèles de capture-recapture.

zkurtz
la source