Comment utiliser l'AIC ou le BIC à la place de la séparation train / test?

8

J'ai récemment rencontré plusieurs sources "informelles" qui indiquent que dans certaines circonstances, si nous utilisons l' AIC ou le BIC pour former un modèle de série chronologique, nous n'avons pas besoin de diviser les données en test et en formation - nous pouvons utiliser tous les données pour la formation. (Les sources incluent entre autres, une discussion sur le blog de Rob Hyndman sur CV , cette présentation de Stanford ou la section 4 de ce texte ).

En particulier, ils semblent indiquer que l'AIC ou le BIC peuvent être utilisés lorsque l'ensemble de données est trop petit pour permettre une répartition train / essai.

Le commentaire de Rob Hyndman par exemple: "Il est beaucoup plus efficace d'utiliser AIC / BIC que d'utiliser des ensembles de test ou CV, et cela devient essentiel pour les courtes séries chronologiques où il n'y a pas assez de données pour faire autrement."

Je n'arrive cependant pas à trouver de textes ou d'articles qui en discutent en détail.

Une chose qui me rend particulièrement perplexe est que l'AIC et le BIC tendent asymptotiquement vers la validation croisée, ce qui signifie que si possible, ils remplaceraient le CV pour les grands ensembles de données - ce qui va à l'encontre de l'idée qu'ils soient utiles pour les petits ensembles de données.

Quelqu'un peut-il m'indiquer une discussion formelle (chapitres de livre, articles, tutoriels) de cette idée?

Skander H.
la source

Réponses:

4

Dans le chapitre 5.5 de ce livre , ils discutent de la façon dont un grand nombre de ces critères de sélection de modèle se posent. Ils commencent par le critère FPE d'Akaike pour les modèles AR, puis discutent de AIC, AICc et BIC. Ils parcourent les dérivations de manière assez approfondie.

Ce qu'ils ont en commun, c'est qu'ils enquêtent sur ce qui se passe lorsque vous utilisez des données observées dans l'échantillon {Xt} pour estimer les paramètres du modèle, puis examiner une fonction de perte (erreur de prédiction quadratique moyenne ou divergence KL) sur certaines données hors échantillon non observées / hypothétiques {Yt}qui découle de l'utilisation du modèle estimé sur ces nouvelles données. Les idées principales sont les suivantes: a) vous prenez l'attente par rapport à toutes les données et 2) vous utilisez des résultats asymptotiques pour obtenir des expressions pour certaines des attentes. La quantité de (1) vous donne les performances globales attendues, mais (2) suppose que vous avez beaucoup plus de données que vous n'en avez réellement. Je ne suis pas un expert, mais je suppose que les approches de validation croisée ciblent également ces mesures de performance; mais au lieu de considérer les données hors échantillon comme hypothétiques, ils utilisent des données réelles qui ont été séparées des données de formation.

L'exemple le plus simple est le critère FPE. Supposons que vous estimez votre modèle AR sur l'ensemble des données (un peu comme l'ensemble de test) et obtenez{ϕ^i}i. Ensuite, la perte attendue sur les données non observées{Ouit} (c'est hypothétique, pas divisé comme dans la validation croisée) est

E(Ouin+1-ϕ^1Ouin--ϕ^pOuin+1-p)2=E(Ouin+1-ϕ1Ouin--ϕpOuin+1-p-(ϕ^1-ϕ1)Ouin--(ϕ^p-ϕp)Ouin+1-p)2=E(Zt+(ϕ^1-ϕ1)Ouin--(ϕ^p-ϕp)Ouin+1-p)2=σ2+E[E[((ϕ^1-ϕ1)Ouin--(ϕ^p-ϕp)Ouin+1-p)2|{Xt}]]=σ2+E[je=1pj=1p(ϕ^je-ϕje)(ϕ^j-ϕj)E[Ouin+1-jeOuin+1-j|{Xt}]]=σ2+E[(ϕ^p-ϕp)Γp(ϕ^p-ϕp)](faute de frappe dans le livre: n-1/2 devrait être n1/2)σ2(1+pn)(nσ^2/σ2 environ. χn-p2)nσ^2n-p(1+pn)=σ^2n+pn-p.

Je ne connais pas d'articles sur le dessus de ma tête qui comparent empiriquement la performance de ces critères avec des techniques de validation croisée. Cependant, ce livre donne beaucoup de ressources sur la façon dont FPE, AIC, AICc et BIC se comparent.

Taylor
la source