Quelqu'un peut-il me dire ce que l'on entend par l'expression «apprenant faible»? Est-ce supposé être une hypothèse faible? Je suis confus quant à la relation entre un apprenant faible et un classificateur faible. Les deux sont les mêmes ou y a-t-il une différence?
Dans l'algorithme AdaBoost, T=10
. Que veut-on dire par là? Pourquoi choisissons-nous T=10
?
Réponses:
Un apprenant «faible» (classificateur, prédicteur, etc.) en est un qui fonctionne relativement mal - sa précision est au dessus de la chance, mais à peine. Il y a souvent, mais pas toujours, l’implication supplémentaire que c’est simple en calcul. Un apprenant faible suggère également que de nombreuses instances de l'algorithme sont regroupées (via boosting, bagging, etc.) pour créer un classifieur d'ensemble "fort".
Il est mentionné dans le document original AdaBoost de Freund & Schapire:
mais je pense que la phrase est en réalité plus ancienne que celle-là - j'ai vu des gens citer un terme (?!) de Michael Kearns des années 1980.
L'exemple classique d'un apprenant faible est un Decision Stump, un arbre de décision à un niveau (1R ou OneR est un autre apprenant faible couramment utilisé; il est assez similaire). Il serait un peu étrange d'appeler un SVM un «apprenant faible», même dans les situations où ses performances sont médiocres, mais il serait parfaitement raisonnable d'appeler une seule souche décisionnelle un apprenant faible, même si ses performances sont étonnamment bonnes.
Adaboost est un algorithme itératif et désigne généralement le nombre d'itérations ou "tours". L'algorithme commence par former / tester un apprenant faible sur les données, en pondérant chaque exemple de manière égale. Les exemples mal classés voient leur poids augmenter pour le ou les prochains rounds, alors que ceux qui sont correctement classés voient leur poids diminué.
Je ne suis pas sûr qu'il y ait quelque chose de magique à propos de . Dans le document de 1995, T est donné comme paramètre libre (c’est-à-dire que vous le définissez vous-même).T= 10 T
la source
Un apprenant faible est un apprenant qui, quelle que soit sa répartition sur les données de formation, fera toujours mieux que le hasard, lorsqu'il tente d'étiqueter les données. Faire mieux que le hasard signifie que nous aurons toujours un taux d'erreur inférieur à 1/2.
Cela améliore éventuellement les apprenants faibles et les convertit en apprenants forts.
Pour plus d'informations: https://youtu.be/zUXJb1hdU0k .
la source
Un apprenant faible est identique à un classificateur faible ou à un prédicteur faible. L'idée est que vous utilisiez un classificateur qui est, eh bien ... pas si bon, mais au moins meilleur que le hasard. L'avantage est que le classificateur sera robuste en surajustement. Bien sûr, vous n’utilisez pas un seul mais un grand ensemble, chacun légèrement supérieur à l’aléatoire. La manière exacte dont vous les sélectionnez / combinez dépend de la méthodologie / de l'algorithme, par exemple AdaBoost.
En pratique, en tant que classificateur faible, vous utilisez quelque chose comme un simple seuil pour une seule caractéristique. Si la fonctionnalité est supérieure au seuil, vous prédisez qu'elle appartient aux positifs, sinon vous décidez qu'elle appartient aux négatifs. Pas sûr du T = 10, car il n'y a pas de contexte, mais je peux supposer que c'est un exemple de seuillage de certaines fonctionnalités.
la source