Y a-t-il vraiment une différence entre le jackknife et laisser une validation croisée? La procédure semble identique ai-je raté quelque chose?
cross-validation
jackknife
Wintermute
la source
la source
Jackknife fait souvent référence à 2 processus liés mais différents, qui s'appuient tous deux sur une approche de non-retour - conduisant à cette confusion même.
Dans un contexte, le jackknife peut être utilisé pour estimer les paramètres de population et leurs erreurs de normes. Par exemple, pour utiliser une approche jackknife pour estimer la pente et l'ordonnée à l'origine d'un modèle de régression simple, on pourrait:
Les pseudo-valeurs et les estimations jackknife des coefficients peuvent également être utilisées pour déterminer les erreurs standard et donc les intervalles de confiance. En règle générale, cette approche donne des intervalles de confiance plus larges pour les coefficients, car il s'agit d'une meilleure mesure d'incertitude, plus conservatrice. En outre, cette approche peut également être utilisée pour obtenir une estimation jackknife du biais pour les coefficients.
Dans l'autre contexte, jackknife est utilisé pour évaluer les performances du modèle. Dans ce cas, jackknife = validation croisée à laisser-un-out. Les deux font référence à la suppression d'une observation de l'ensemble de données d'étalonnage, au recalibrage du modèle et à la prévision de l'observation qui a été omise. Essentiellement, chaque observation est prédite en utilisant ses «estimations partielles» des prédicteurs.
Voici un petit article intéressant sur jackknife que j'ai trouvé en ligne: https://www.utdallas.edu/~herve/abdi-Jackknife2010-pretty.pdf
la source