Je suis un débutant en Machine Learning. Dans SVM, l'hyperplan de séparation est défini comme . Pourquoi dit-on vecteur w orthogonal à l'hyperplan de séparation?
machine-learning
svm
Chong Zheng
la source
la source
Réponses:
Géométriquement, le vecteur w est dirigé orthogonal à la ligne définie par . Cela peut être compris comme suit:wTx = b
Prenez d'abord . Maintenant, il est clair que tous les vecteurs, x , avec un produit intérieur disparaissant avec w satisfont cette équation, c'est-à-dire que tous les vecteurs orthogonaux à w satisfont cette équation.b=0 x w
Maintenant, déplacez l'hyperplan loin de l'origine sur un vecteur a. L'équation pour le plan devient maintenant: , c'est-à-dire que pour le décalage b = a T w , qui est la projection du vecteur a sur le vecteur w .(x−a)Tw=0 b=aTw a w
Sans perte de généralité, nous pouvons donc choisir une perpendiculaire au plan, auquel cas la longueur qui représente la distance orthogonale la plus courte entre l'origine et l'hyperplan.||a||=|b|/||w||
Par conséquent, le vecteur est dit orthogonal à l'hyperplan de séparation.w
la source
La raison pour laquelle est normal à l'hyperplan est parce que nous le définissons de cette façon:w
la source
la source
En utilisant la définition algébrique d'un vecteur orthogonal à un hyperplan:
la source