Explication d'une phrase de l'AIC pour les types non techniques

8

J'ai besoin d'une explication d'une phrase de l'utilisation de l'AIC dans la construction de modèles. Jusqu'à présent, j'ai "En termes simples, l'AIC est une mesure relative de la quantité de variation observée représentée par différents modèles et permet de corriger la complexité du modèle."

Tout conseil très apprécié.

R

Rosser
la source

Réponses:

11

AIC est un nombre qui est utile pour comparer les modèles car il comprend des mesures de la façon dont le modèle s'adapte aux données et de la complexité du modèle.

Peter Flom
la source
8

La meilleure explication dépend de ce que l'on entend exactement par "types non techniques". J'aime les déclarations qui ont été faites jusqu'à présent, mais j'ai un petit problème: elles ont tendance à utiliser le terme "complexe", et ce que cela signifie précisément pourrait varier. Permettez-moi d'offrir cette variation:

L'AIC est une mesure de l'adéquation d' un modèle à un ensemble de données, tout en ajustant la capacité de ce modèle à s'adapter à n'importe quel ensemble de données, qu'il soit lié ou non.

gung - Réintégrer Monica
la source
+1. Je pense que c'est la clé: quand est plus flexible trop flexible? Peut-être que "l'ajustement pour" pourrait être reformulé "pénaliser"? Donc, c'est quelque chose commeThe AIC is a measure of how well a model fits a dataset, penalizing models that are so flexible that they would also fit unrelated datasets just as well.
Wayne
Je suis d'accord que cela dépend de ce que l'on entend par "types non techniques". La plupart des personnes avec qui je travaille sont des docteurs en sciences sociales, médicales ou comportementales; ils sont instruits, mais ne connaissent pas les statistiques. Mais je ne suis pas sûr que j'aime les derniers mots de votre définition, car on ne sait pas ce que signifie "apparenté" ici. Peut-être que dans ma définition, je pourrais substituer "nombre de variables indépendantes" à "complexe". Je pense que beaucoup de gens savent ce qu'est un IV ... Question intéressante!
Peter Flom
@PeterFlom, vous avez raison - nous échangeons en quelque sorte une confusion possible contre une autre. En personne, quand vous savez à qui vous parlez, je doute que l'un ou l'autre d'entre nous ait des problèmes. L'exigence d'une phrase est également assez stricte; donnez-moi quelques chiffres et 5 minutes et je peux avoir n'importe qui à bord. Et juste pour être clair, ce n'était pas une critique, j'ai aimé votre réponse et j'ai voté pour elle.
gung - Réintègre Monica
5

Voici une définition qui situe AIC dans la ménagerie des techniques utilisées pour la sélection des modèles. L'AIC n'est qu'une des nombreuses façons raisonnables de saisir le compromis entre la qualité de l'ajustement (qui est amélioré en ajoutant la complexité du modèle sous la forme de variables explicatives supplémentaires, ou en ajoutant des mises en garde comme «mais seulement le jeudi, quand il pleut») et la parcimonie (plus simple == mieux) pour comparer les modèles non imbriqués. Voici les petits caractères:

  1. Je crois que la définition du PO ne s'applique qu'aux modèles linéaires. Pour des choses comme les probits, l'AIC est généralement défini en termes de log-vraisemblance.
  2. Certains autres critères sont ajustés (qui a le moins d'ajustement pour les variables explicatives supplémentaires), Kullback-Leibler IC, BIC / SC, et encore plus exotiques, comme le critère de prédiction d'Amemiya, rarement vu dans la nature du travail appliqué . Ces critères diffèrent selon la sévérité avec laquelle ils pénalisent la complexité du modèle. Certains ont fait valoir que l'AIC a tendance à sélectionner des modèles qui sont sur-paramétrisés, car la pénalité de taille du modèle est assez faible. Le BIC / SC augmente également la pénalité à mesure que la taille de l'échantillon augmente, ce qui semble être une fonctionnalité pratique.R2
  3. Une bonne façon de contourner la participation au Top Information Criterion américain est d'admettre que ces critères sont arbitraires et que des approximations considérables sont impliquées dans leur dérivation, en particulier dans le cas non linéaire. En pratique, le choix d'un modèle parmi un ensemble de modèles devrait probablement dépendre de l'utilisation prévue de ce modèle. Si le but est d'expliquer les principales caractéristiques d'un problème complexe, la parcimonie devrait valoir son pesant d'or. Si la prédiction est le nom du jeu, la parcimonie devrait être moins chère. Certains ajouteraient même que la connaissance de la théorie / du domaine devrait également jouer un rôle plus important. Dans tous les cas, ce que vous prévoyez de faire avec le modèle devrait déterminer le critère que vous pourriez utiliser.
  4. Pour les modèles imbriqués , le test d'hypothèse standard limitant les paramètres à zéro devrait suffire.
Dimitriy V. Masterov
la source
3

Que diriez-vous:

L'AIC vous aide à trouver le modèle le mieux adapté qui utilise le moins de variables.

Si c'est trop loin dans le sens non technique, faites-le moi savoir dans les commentaires et j'en trouverai un autre.

sparc_spread
la source
2
AIC implémente le rasoir d'Occam?
Dilip Sarwate
@Dilip - si loin de la ligne, vous ne pouvez même plus voir la ligne - lol, merci. Je pense que je vais utiliser quelque chose entre Peter et le mien.
Ross
3

AIC est une mesure de la façon dont les données sont expliquées par le modèle corrigé pour la complexité du modèle.

John
la source
2

Le revers de l'excellente réponse de @ gung:

L'AIC est un nombre qui mesure l'adéquation d'un modèle avec un ensemble de données, sur une échelle mobile qui nécessite des modèles plus élaborés pour être significativement plus précis afin de donner une note plus élevée.

ÉDITER:

L'AIC est un nombre qui mesure l'adéquation d'un modèle à un ensemble de données, sur une échelle mobile qui nécessite des modèles beaucoup plus élaborés ou flexibles pour être également beaucoup plus précis.

Wayne
la source
+1, c'est bien, mais pour être honnête, j'aime mieux votre suggestion "pénalisante". Je peux imaginer des gens qui ne comprendraient pas ce que vous entendez par «élaboré».
gung - Réintégrer Monica
@gung: Je suis d'accord que cela ne le fait pas tout à fait, mais j'essayais de combler l'écart entre les "modèles" et les "explications", où les gens peuvent peut-être imaginer qu'une explication plus élaborée devrait être plus précise pour justifier les mots supplémentaires.
Wayne
-1

Soit k le nombre de paramètres d'un modèle et MaxL la valeur de la fonction de vraisemblance à son maximum. Le critère d'information Akaike est alors défini commeUNEjeC=2k-2ln(MuneXL). Le but est de trouver un modèle qui minimise l'AIC.

Compte tenu de cette définition, l'AIC est un critère utilisé pour choisir le modèle qui donne le meilleur compromis entre la rareté du nombre de paramètres et la probabilité maximale d'estimation de ces paramètres.

Jean-Victor Côté
la source