Les statistiques de validation croisée (CV) et de validation croisée généralisée (GCV)

23

J'ai trouvé des définitions potentiellement contradictoires pour la statistique de validation croisée (CV) et pour la statistique de validation croisée généralisée (GCV) associée à un modèle linéaire (avec un vecteur d'erreur homoscédastique normal ).εOui=Xβ+εε

D'une part, Golub, Heath & Wahba définissent l'estimation GCV λ^ comme (p. 216)

le minimiseur de V(λ) donné par

V(λ)=1n(IA(λ))y2(1ntr(IA(λ)))2
A(λ)=X(XTX+nλI)1XT

D'autre part, Efron définit le même concept que V(0) (p. 24), mais il attribue l'introduction de ce concept à Craven & Wahba, où sa définition (p. 377) est essentiellement la même comme la définition susmentionnée de Golub, Heath & Wahba.

Est-ce à dire que 0 minimise V(λ) ?

De même, Golub, Heath & Wahba définissent l'estimation CV de λ (p. 217) comme le minimiseur de

P(λ)=1nk=1n([Xβ(k)(λ)]kyk)2

β(k)(λ) est l'estimation

β^(λ)=(XTX+nλI)1XTy

of β avec le k ème point de données yi omis.

Les auteurs attribuent l'introduction de l'estimation CV (également appelée estimation PRESS) à Allen ("Allen's PRESS", ibid.). Pourtant, dans l'article d'Allen, l'estimation PRESS est définie (p. 126) comme nP(0) (dans l'article d'Efron, il est défini comme P(0) (p. 24)).

Encore une fois, cela signifie-t-il que 0 minimise P(λ) ?


  1. Allen, David M. La relation entre la sélection des variables et l'agumentation des données et une méthode de prédiction. Technometrics, Vol. 16, n ° 1 (février 1974), p. 125-127

  2. Craven, Peter et Wahba, Grace. Lissage des données bruyantes avec les fonctions Spline. Numerische Mathematik 31, (1979), p. 377-403

  3. Efron, Bradley. Dans quelle mesure le taux d'erreur apparent d'une régression logistique est-il biaisé? Rapport technique no. 232. Département de statistique, Université de Stanford (avril 1985)

  4. Golub, Gene H., Heath et Grace Wahba. La validation croisée généralisée comme méthode de choix d'un bon paramètre de crête. Technometrics, Vol. 21, n ° 2 (mai 1979), pp. 215-223

Evan Aad
la source
7
Avez-vous oublié de mentionner que cela sera équipé d'une régression de crête et non des moindres carrés? J'étais totalement confus quant à ce qu'était jusqu'à ce que je voie les titres papier en basλ
shadowtalker
1
Supprimez la validation croisée généralisée dans le titre et ajoutez la régression de crête dans le titre. Voici ce que GridSearchCV () utilise par défaut pour RidgeCV ():
HoofarLotusX

Réponses:

2

Je pense que les commentaires pointent vers la réponse, mais ne la disent pas sans ambages. Je vais donc être franc.

La formule V citée ici est spécifique à la régression linéaire des crêtes. Ils ne disent pas que c'est la même chose que PRESS, ils disent que c'est une version invariante de rotation de PRESS. La partie "invariante en rotation" est ce qui rend cela généralisé.

L'article d'Efron traite de la régression logistique, adaptée à ce contexte. Si vous voulez voir la traduction mathématique entre les deux contextes, le bon livre à lire est Elements of Statistical Learning, 2ed, par Hastie, Tibshirani et Freedman. Ils proposent ce livre gratuitement en ligne: https://web.stanford.edu/~hastie/Papers/ESLII.pdf . Une autre lecture utile sur GCV est les modèles additifs généralisés de Simon Wood. Son traitement intègre le GCV en général avec des applications en régression et régression logistique.

Si vous regardez le livre ESL, p 244, vous voyez essentiellement la même symbologie. Ils se réfèrent à ce grand produit matriciel que vous avez en tant que matrice plus lisse (je dirais que c'est une matrice Hat ou un proche cousin). Ils décrivent le Smoother comme le mappage de versSyyy^

y^=Sy

S peut être utilisé pour calculer les valeurs de CV, une pour chaque ligne des données. Pour les modèles linéaires , la matrice joue le rôle de la matrice Hat dans les diagnostics de régression. Cependant, ils disent qu'il peut être difficile ou inutile de calculer cela, et l'approche GCV est une version légèrement plus générale de la même idée.SS

Ils proposent une formule pour l' approximation du GCV:

GCV(f^)=1Ni=1N[yif^(xi)1trace(S)/N]2

Ce comportement est assez similaire à l'AIC dans de nombreux modèles. La est le nombre effectif de paramètres.traceS

Le pièce que vous citez est plus généralement une trace de . Pour autant que je puisse comprendre, dans l'abstrait GCV est une version approximative de laisser une validation croisée, mais dans certains cas, (je crois que la régression de crête), c'est exact. C'est un point principal dans le papier Golub.nλS

Bonne chance, réécris si tu en apprends plus.

pauljohn32
la source
Merci. J'ai posté ma question il y a plus de 5 ans, et depuis lors, j'ai oublié la plupart de ce matériel, donc je ne peux pas évaluer votre réponse pour dire si elle est bonne (ce qu'elle semble être) ou mauvaise, et, pour cette raison Je ne peux pas l'accepter non plus. Merci d'avoir posté, cependant. J'espère que cela sera utile pour ceux qui pourraient découvrir cette page.
Evan Aad