Supposons que j'ai un réseau neuronal simple couche, avec n entrées et une seule sortie (tâche de classification binaire). Si je définis la fonction d'activation dans le nœud de sortie comme une fonction sigmoïde, le résultat est un classificateur de régression logistique.
Dans ce même scénario, si je change l'activation de la sortie en ReLU (unité linéaire rectifiée), la structure résultante est-elle identique ou similaire à un SVM?
Sinon pourquoi?
neural-networks
svm
UN D
la source
la source
Réponses:
Pour que la perte de réseau soit sous la même forme que les SVM, nous pouvons simplement supprimer toutes les fonctions d'activation non linéaires de la couche de sortie et utiliser la perte de charnière pour la rétropropagation.
Donc, en termes de fonctions de perte, les SVM et la régression logistique sont assez proches, bien que les SVM utilisent un algorithme très différent pour la formation et l'inférence basé sur des vecteurs de support.
Il y a une belle discussion sur la relation entre SVM et la régression logistique dans la section 7.1.2 du livre Pattern Recognition and Machine Learning .
la source