Existe-t-il de meilleures méthodes alternatives pour choisir C et Gamma qui donnent de meilleures performances d'entraînement?
9
Existe-t-il de meilleures méthodes alternatives pour choisir C et Gamma qui donnent de meilleures performances d'entraînement?
La recherche dans la grille est lente car elle passe beaucoup de temps à étudier les réglages d'hyper-paramètres qui sont loin d'être optimaux. Une meilleure solution est l' algorithme simplex de Nelder-Mead , qui ne nécessite pas de calcul des informations de gradient et est simple à mettre en œuvre (il devrait y avoir suffisamment d'informations sur la page Wikipedia). Il peut également y avoir du code java dans la boîte à outils Weka , mais je travaille dans MATLAB et je n'ai pas examiné Weka en détail.
SMO est un algorithme pour trouver les paramètres du modèle, plutôt que les hyper-paramètres.
La méthode simplex de Nelder-Mead peut impliquer autant d'évaluations de fonctions qu'une simple recherche dans la grille. Habituellement, la surface d'erreur est suffisamment lisse près des valeurs de paramètres optimales qu'une recherche de grille grossière suivie d'une recherche plus fine dans une région plus petite devrait suffire.
Si vous êtes intéressé par l'optimisation en gradient de C et gamma, il existe des méthodes telles que l'optimisation des limites de rayon-marge ou l'optimisation du taux d'erreur sur un ensemble de validation. Le calcul du gradient de la fonction objectif implique quelque chose comme un train SVM mais une simple descente de gradient ne peut impliquer que quelques dizaines d'itérations. (Regardez http://olivier.chapelle.cc/ams/ pour un article et une implémentation de Matlab.)
la source
Voici une entrée dans le blog d'Alex Smola liée à votre question
Voici une citation:
la source