Lors de la réalisation de la classification SVM linéaire, il est souvent utile de normaliser les données d'entraînement, par exemple en soustrayant la moyenne et en les divisant par l'écart type, puis de mettre à l'échelle les données de test avec la moyenne et l'écart type des données d'entraînement. Pourquoi ce processus modifie radicalement les performances de classification?
machine-learning
svm
standardization
Qinghua
la source
la source
Réponses:
Je pense que cela peut être plus clair grâce à un exemple. Disons que vous avez deux vecteurs d'entrée: X1 et X2. et disons que X1 a une plage (0,1 à 0,8) et X2 a une plage (3000 à 50000). Maintenant, votre classificateur SVM sera une frontière linéaire située dans le plan X1-X2. Mon affirmation est que la pente de la frontière de décision linéaire ne devrait pas dépendre de la plage de X1 et X2, mais plutôt de la distribution des points.
Maintenant, faisons une prédiction sur le point (0,1, 4000) et (0,8, 4000). Il n'y aura pratiquement aucune différence dans la valeur de la fonction, rendant ainsi SVM moins précis car il aura moins de sensibilité aux points dans la direction X1.
la source
SVM essaie de maximiser la distance entre le plan de séparation et les vecteurs de support. Si une entité (c.-à-d. Une dimension dans cet espace) a de très grandes valeurs, elle dominera les autres entités lors du calcul de la distance. Si vous redimensionnez toutes les entités (par exemple en [0, 1]), elles ont toutes la même influence sur la métrique de distance.
la source