Signification de «nombre de paramètres» dans AIC

21

Lors du calcul de l'AIC,

AIC=2k2lnL

k signifie «nombre de paramètres». Mais qu'est-ce qui compte comme paramètre? Ainsi, par exemple dans le modèle

y=ax+b

Est-ce que a et b sont toujours comptés comme paramètres? Et si je ne me soucie pas de la valeur de l'interception, puis-je l'ignorer ou est-ce que cela compte toujours?

Et qu'est-ce qui se passerait si

y=af(c,x)+b

f est fonction de c et x, dois-je maintenant compter 3 paramètres?

Sideshow Bob
la source
9
C'est une bonne question, car il y a une subtilité: est le nombre de paramètres identifiables à estimer. Par exemple, bien que dans le modèle de régression Y N ( β 0 + β 1 X 1 + β 2 X 2 + β 3 ( X 1 + X 2 ) , σ 2 ) cinq paramètres sont écrits, néanmoins k = 4 . (Ce modèle est équivalent à Y N (kYN(β0+β1X1+β2X2+β3(X1+X2),σ2) k=4 avec α 1 = β 1 + β 3 et α 2 = β 2 + β 3 , qui n'a explicitement besoin que de quatre paramètres.)YN(β0+α1X1+α2X2,σ2)α1=β1+β3α2=β2+β3
whuber
3
Strictement, vous comptez tous les paramètres identifiables et libres - paramètres moyens, paramètres de forme et d'échelle, peu importe (et cela importe pour AIC C ), mais pour AIC, cela n'a aucune importance si vous omettez les paramètres communs aux modèles comparés. Ainsi, par exemple, dans la régression, vous devez compter le paramètre de variance. Par conséquent, d'après mon décompte, tous vos décomptes de paramètres dans votre question sont un court - mais s'il y en a exactement un dans tous les modèles, cela ne fait pas de mal de le laisser tomber pour AIC. R compte explicitement le paramètre de variance lors du calcul de l'AIC dans les modèles de régression. C
Glen_b -Reinstate Monica
@whuber Pourquoi cet excellent commentaire n'est-il pas affiché comme réponse? :)
Alexis
Merci @Alexis. J'ai posté cette pensée en tant que commentaire car l'idée est suffisamment couverte dans la réponse de P Schnell: je voulais seulement la souligner un peu plus.
whuber

Réponses:

17

Comme mugen l'a mentionné, représente le nombre de paramètres estimés . En d'autres termes, c'est le nombre de quantités supplémentaires que vous devez connaître afin de spécifier complètement le modèle. Dans le modèle de régression linéaire simple y = a x + b, vous pouvez estimer a , b ou les deux. Quelles que soient les quantités que vous n'évaluez pas, vous devez les fixer. Il n'y a pas "ignorer" un paramètre dans le sens où vous ne le connaissez pas et ne vous en souciez pas. Le modèle le plus courant qui n'évalue pas à la fois a et b est le modèle sans interception, où nous fixons b = 0k

y=ax+b
ababb=0. Cela aura 1 paramètre. Vous pouvez tout aussi facilement fixer ou b = 1 si vous avez des raisons de croire que cela reflète la réalité. (Point précis: σ est également un paramètre dans une régression linéaire simple, mais comme il est présent dans chaque modèle, vous pouvez le supprimer sans affecter les comparaisons d'AIC.)a=2b=1σ

Si votre modèle est le nombre de paramètres dépend de si vous fixez l'une de ces valeurs et de la forme de f . Par exemple, si nous voulons estimer a , b , c et savoir que f ( c , x ) = x c , alors lorsque nous écrivons le modèle, nous avons y = a x c + b avec trois paramètres inconnus. Cependant, si f ( c ,

y=af(c,x)+b
fa,b,cf(c,x)=xc
y=axc+b
, alors nous avons le modèle y = a c x + b qui n'a vraiment que deux paramètres: a c et b .f(c,x)=cx
y=acx+b
acb

Il est crucial que soit une famille de fonctions indexées par c . Si tout ce que vous savez, c'est que f ( c , x ) est continu et que cela dépend de c et x , alors vous n'avez pas de chance car il existe d'innombrables fonctions continues.f(c,x)cf(c,x)cx

P Schnell
la source
2
(+1) Il convient peut-être de mentionner que tout au long de "estimation" signifie "estimation par maximum de vraisemblance".
Scortchi - Réintégrer Monica
Est-ce vraiment important? En fait, mon est une énorme simulation, impossible à séparer analytiquement et prenant des heures à calculer. Je l'essaie avec environ 20 valeurs différentes de c parce que c'est tout ce dont nous avons le temps, et je m'en tiens à la valeur de c qui donne le meilleur r 2 à la fin de la journée. Donc, pour ainsi dire, j'ai estimé c du mieux que je peux, mais pas comme vous le feriez dans une régression. Certes, cela compte toujours comme paramètre pour l'AIC? f(c,x)ccr2c
Sideshow Bob
2
@SideshowBob: Oui - lorsque vous comparez deux modèles, la différence dans les logarithmes maximisés est un estimateur biaisé de la différence dans la perte d'informations attendue de Kullback-Leibler et le terme de pénalité dans AIC corrige approximativement ce biais.
Scortchi - Réintégrer Monica
1
@SideshowBob: Je dois mentionner qu'il y a des modifications de l'AIC pour les équations d'estimation généralisées et similaires - ils utilisent une quasi-vraisemblance maximisée et un terme de pénalité plutôt plus complexe.
Scortchi - Réintégrer Monica
4

AIC=2k2ln(L)

(voir ici )

k

k

Je ne me sens pas suffisamment informé pour répondre à votre deuxième question, je vais laisser cela à un autre membre de la communauté.

Mugen
la source
1
λ
1
Oui certainement.
PA6OTA
1

Premièrement, pour ceux qui ne connaissent peut-être pas l'AIC: le critère d'information Akaike (AIC) est une mesure simple conçue pour comparer la «qualité» des modèles.

Selon l'AIC, lorsque l'on essaie de choisir entre deux modèles différents s'appliquant aux mêmes variables d'entrée et de réponse , c'est-à-dire des modèles conçus pour résoudre le même problème, le modèle avec l'AIC inférieur est considéré comme "meilleur".

k

cF(c,X)k

arielf
la source