L'intérêt de l'AIC ou de tout autre critère d'information est que moins c'est mieux. Donc, si j'ai deux modèles M1: y = a0 + XA + e et M2: y = b0 + ZB + u, et si l'AIC du premier (A1) est inférieur à celui du second (A2), alors M1 a un meilleur ajustement du point de vue de la théorie de l'information. Mais existe-t-il un point de référence pour la différence A1-A2? Combien moins est en fait moins? En d'autres termes, existe-t-il un test pour (A1-A2) autre que le simple regard?
Edit: Peter / Dmitrij ... Merci d'avoir répondu. En fait, il s'agit d'un cas où mon expertise substantielle est en conflit avec mon expertise statistique. Essentiellement, le problème n'est pas de choisir entre deux modèles, mais de vérifier si deux variables que je sais être largement équivalentes ajoutent des quantités d'informations équivalentes (en fait, une variable dans le premier modèle et un vecteur dans le second. Réfléchissez au cas de un tas de variables par rapport à un index d'entre eux.). Comme l'a souligné Dmitrij, le meilleur pari semble être le test de Cox. Mais existe-t-il un moyen de tester réellement la différence entre le contenu informationnel des deux modèles?
la source
Réponses:
La question de la curiosité, c'est-à-dire que vous n'êtes pas satisfait de ma réponse ici ? Si non...
Un examen plus approfondi de cette question délicate a montré qu'il existe une règle empirique couramment utilisée, selon laquelle deux modèles sont indiscernables par le critère si la différence | A I C 1 - A I C 2 | < 2 . La même chose que vous lirez dans l'article de wikipedia sur A I C (notez que le lien est cliquable!). Pour ceux qui ne cliquent pas sur les liens:A jeC | AjeC1- A IC2| <2 A jeC
Belle explication et suggestions utiles, à mon avis. N'ayez pas peur de lire ce qui est cliquable!
De plus , notez encore une fois, l' est moins préférable pour les ensembles de données à grande échelle. En plus de vous pouvez trouver utile d'appliquer la version corrigée du biais du critère (vous pouvez utiliser ce code ou utiliser la formule , où est le nombre de paramètres estimés). La règle générale sera la même cependant.AIC BIC AIC AICc AICc=AIC+2p(p+1)n−p−1 p
R
la source
Burnham, K. P., and Anderson, D.R. (2002). Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
et la page Wiki de pré-révision est iciJe pense que cela peut être une tentative d'obtenir ce que vous ne voulez pas vraiment.
La sélection des modèles n'est pas une science. Sauf dans de rares circonstances, il n'y a pas de modèle parfait, ni même de «vrai» modèle; il y a rarement même un "meilleur" modèle. Les discussions entre AIC vs AICc vs BIC vs SBC vs quoi que ce soit me laissent un peu perplexe. Je pense que l'idée est d'obtenir de BONS modèles. Vous choisissez ensuite parmi eux sur la base d'une combinaison d'expertise substantielle et d'idées statistiques. Si vous n'avez pas d'expertise substantielle (rarement le cas; beaucoup plus rarement que la plupart des gens ne le pensent), choisissez l'AIC le plus bas (ou AICc ou autre). Mais vous avez généralement une certaine expertise - sinon pourquoi étudiez-vous ces variables particulières?
la source