Je recherche des articles ou des textes qui comparent et discutent (empiriquement ou théoriquement):
- Les algorithmes de boosting et d' arbres de décision tels que Random Forests ou AdaBoost et GentleBoost ont été appliqués aux arbres de décision.
avec
- Méthodes d'apprentissage en profondeur telles que les machines Boltzmann restreintes , la mémoire temporelle hiérarchique , les réseaux de neurones convolutifs , etc.
Plus précisément, quelqu'un connaît-il un texte qui discute ou compare ces deux blocs de méthodes ML en termes de vitesse, de précision ou de convergence? Je recherche également des textes qui expliquent ou résument les différences (par exemple les avantages et les inconvénients) entre les modèles ou les méthodes du deuxième bloc.
Tout pointeur ou réponse traitant directement de telles comparaisons serait grandement apprécié.
la source
Grande question! Le renforcement adaptatif et l'apprentissage en profondeur peuvent être classés comme des réseaux d'apprentissage probabilistes. La différence est que «l'apprentissage profond» implique spécifiquement un ou plusieurs «réseaux de neurones», tandis que le «boosting» est un «algorithme de méta-apprentissage» qui nécessite un ou plusieurs réseaux d'apprentissage, appelés apprenants faibles, qui peuvent être «n'importe quoi» (c.-à-d. réseau de neurones, arbre de décision, etc.). L'algorithme de boost prend un ou plusieurs de ses réseaux d'apprenants faibles pour former ce qu'on appelle un "apprenant fort", ce qui peut "booster" de manière significative les résultats globaux des réseaux d'apprentissage (c'est-à-dire Microsoft Alto et Jones Face Detector, OpenCV).
la source