Il y a déjà eu une excellente discussion sur la façon dont les machines à vecteurs de support gèrent la classification, mais je suis très confus sur la façon dont les machines à vecteurs de support se généralisent à la régression.
Quelqu'un veut-il m'éclairer?
Pour un aperçu de SVM: comment fonctionne une machine à vecteur de support (SVM)?
En ce qui concerne la régression des vecteurs de support (SVR), je trouve ces diapositives de http://cs.adelaide.edu.au/~chhshen/teaching/ML_SVR.pdf ( miroir ) très claires:
La documentation Matlab a également une explication décente et passe en outre sur l'algorithme de résolution d'optimisation: https://www.mathworks.com/help/stats/understanding-support-vector-machine-regression.html ( miroir ).
Jusqu'à présent, cette réponse a présenté la régression dite SVM insensible à epsilon (ε-SVM). Il existe une variante plus récente de SVM pour l'une ou l'autre classification de régression: les moindres carrés supportent la machine vectorielle .
De plus, SVR peut être étendu pour les sorties multiples aka multi-cibles, par exemple voir {1}.
Les références:
la source