J'ai plusieurs questions étroitement liées concernant les apprenants faibles dans l'apprentissage d'ensemble (par exemple, le renforcement).
- Cela peut sembler stupide, mais quels sont les avantages d'utiliser des apprenants faibles plutôt que des apprenants forts? (par exemple, pourquoi ne pas booster avec des méthodes d'apprentissage "fortes"?)
- Existe-t-il une sorte de force "optimale" pour les apprenants faibles (par exemple en gardant tous les autres paramètres d'ensemble fixes)? Y a-t-il un "sweet spot" en ce qui concerne leur force?
- Comment mesurer la force d'un apprenant faible par rapport à celle de la méthode d'ensemble résultante. Comment mesurer quantitativement les avantages marginaux de l'utilisation d'un ensemble?
- Comment comparer plusieurs algorithmes d'apprentissage faibles pour décider lequel utiliser pour une méthode d'ensemble donnée?
- Si une méthode d'ensemble donnée aide les classificateurs faibles plus que les classificateurs forts, comment pouvons-nous dire qu'un classificateur donné est déjà "trop fort" pour générer des gains significatifs lors de l'augmentation avec?
la source
Premièrement, les notions de «faible» et de «fort» ne sont que faiblement définies. De mon point de vue, ils doivent être définis par rapport au classificateur Bayes optimal, qui est la cible de tout algorithme de formation. Dans cet esprit, ma réponse à trois des points est la suivante.
la source