Utilisation d'Adaboost avec SVM pour la classification

11

Je sais qu'Adaboost essaie de générer un classificateur fort en utilisant une combinaison linéaire d'un ensemble de classificateurs faibles.

Cependant, j'ai lu certains articles suggérant qu'Adaboost et les SVM fonctionnent en harmonie (même si SVM est un classificateur puissant) dans certaines conditions et dans certains cas .

Je ne suis pas en mesure de comprendre d'un point de vue architectural et de programmation comment ils fonctionnent en combinaison. J'ai lu de nombreux articles (peut-être les mauvais) qui n'expliquaient pas clairement comment ils fonctionnaient ensemble.

Quelqu'un peut-il éclairer la façon dont ils fonctionnent en combinaison pour une classification efficace? Des pointeurs vers certains articles / articles / revues seraient également appréciés.

garak
la source

Réponses:

8

Ce document est assez bon. Il dit simplement que SVM peut être traité comme un classificateur faible si vous utilisez moins d'échantillons pour l'entraîner (disons moins de la moitié de l'ensemble d'apprentissage). Plus les poids sont élevés, plus il est probable qu'il soit entraîné par le «faible SVM»

modifier: lien corrigé maintenant.

poperin
la source
Je sais que c'est une vieille question, mais le lien est rompu. Connaissez-vous le titre de l'article ou le nom de l'auteur afin que je puisse trouver un lien alternatif?
carlosdc
Dans le cas où le lien disparaîtrait à l'avenir, le document est intitulé "Boosting Support Vector Machines" par Elkin García et Fernando Lozano.
Dougal
2

Le papier AdaBoost avec des classificateurs de composants basés sur SVM par Xuchun Li etal donne également une intuition.
Dans un résumé court mais peut-être biaisé: ils essaient de rendre les classificateurs svm "faibles" (un peu plus de 50%) en ajustant les paramètres pour éviter les cas où un classificateur peut avoir trop de poids ou tous les classificateurs se déclenchent de manière similaire.

ZijunLost
la source