Je viens de recevoir une copie des éléments de l'apprentissage statistique par Hastie, Tibshirani et Friedman. Dans le chapitre 2 (Aperçu de l'apprentissage supervisé), section 4 (Théorie de la décision statistique), il donne une dérivation de la fonction de régression.
Soit un vecteur d'entrée aléatoire de valeur réelle et une variable de sortie aléatoire de valeur réelle, avec une distribution conjointe . Nous cherchons une fonction pour la prédiction valeurs données de l'entrée . Cette théorie nécessite une fonction de perte pour pénaliser les erreurs de prédiction, et de loin la plus courante et la plus commode est la perte d'erreur au carré: . Cela nous amène à un critère pour choisir ,
l'attendu (carré) erreur de prédiction.
Je comprends parfaitement le montage et la motivation. Ma première confusion est: veut-il dire ou ? Deuxièmement, je n'ai jamais vu la notation . Est-ce que quelqu'un qui m'a expliqué sa signification? Est-ce juste que ? Hélas ma confusion ne s'arrête pas là,
En conditionnant sur , nous pouvons écrire comme
Il me manque le lien entre ces deux étapes, et je ne connais pas la définition technique du "conditionnement". Faites-moi savoir si je peux clarifier quoi que ce soit! Je pense que la plus grande partie de ma confusion est due à une notation inconnue; Je suis convaincu que si quelqu'un peut décomposer cette dérivation en anglais simple, je l'obtiendrai. Merci stats.SE!
la source