En général, dans un problème de classification où le but est de prédire avec précision l'appartenance à une classe hors échantillon, quand ne devrais-je pas utiliser un classificateur d'ensemble?
Cette question est étroitement liée à Pourquoi ne pas toujours utiliser l'apprentissage d'ensemble? . Cette question demande pourquoi nous n'utilisons pas tout le temps des ensembles. Je veux savoir s'il y a des cas où les ensembles sont connus pour être pires (pas seulement "pas meilleurs et une perte de temps") qu'un équivalent non-ensemble.
Et par «classificateur d'ensemble», je me réfère spécifiquement à des classificateurs comme AdaBoost et des forêts aléatoires, par opposition, par exemple, à une machine à vecteurs de support boostée par vous-même.
la source
Réponses:
Le modèle le plus proche du véritable processus de génération de données sera toujours le meilleur et battra la plupart des méthodes d'ensemble. Donc, si les données proviennent d'un processus linéaire, lm () sera bien supérieur aux forêts aléatoires, par exemple:
la source
Je ne recommande pas d'utiliser un classificateur d'ensemble lorsque votre modèle doit être interprétable et explicable. Parfois, vous avez besoin de prédictions et d' explications sur les prédictions.
Lorsque vous devez convaincre les gens que les prévisions valent la peine d'être crues, un modèle très précis peut être très convaincant, mais j'ai eu du mal à convaincre les gens d'agir sur les prédictions lorsque les méthodes sont trop complexes pour leur niveau de confort.
D'après mon expérience, la plupart des gens sont à l'aise avec les modèles additifs linéaires, les modèles qu'ils pourraient marquer à la main, et si vous essayez d'expliquer le boosting adaptatif, les hyper-plans et les effets d'interaction de 5ème niveau, ils répondront comme si vous leur proposiez de la magie noire.
D'un autre côté, les gens peuvent être à l'aise avec la complexité du modèle, mais veulent toujours intérioriser certaines informations. Les scientifiques, par exemple, pourraient ne pas considérer un modèle de boîte noire comme une avancée dans les connaissances humaines, même si le modèle est très précis.
L'analyse d'importance variable peut aider à la compréhension, mais si l'ensemble est plus précis qu'un modèle additif linéaire, l'ensemble exploite probablement certains effets non linéaires et d'interaction que l'analyse d'importance variable ne peut pas complètement expliquer.
la source
Je voudrais ajouter à la réponse de branco. Les ensembles peuvent être très compétitifs et fournir de très bons résultats. Chez les universitaires par exemple, c'est ce qui compte. Dans l'industrie, les ensembles peuvent être trop difficiles à mettre en œuvre / maintenir / modifier / porter. Le travail de Goef Hinton sur "Dark Knowledge" est exactement à ce sujet: comment transférer les "connaissances" d'un grand ensemble en un modèle facile à déplacer. Il déclare que les ensembles sont mauvais au moment du test: ils sont très redondants et le temps de calcul peut être préoccupant.
Son équipe a obtenu des résultats intéressants, je suggère de consulter ses publications ou au moins les diapositives. Si ma mémoire est bonne, c'était l'un des sujets chauds de 2013 ou 2014.
Les diapositives sur Dark Knowledge peuvent être trouvées ici: http://www.ttic.edu/dl/dark14.pdf
la source