Pour les réseaux de neurones, nous avons le théorème d'approximation universel qui stipule que les réseaux de neurones peuvent approximer n'importe quelle fonction continue sur un sous-ensemble compact de.
Existe-t-il un résultat similaire pour les arbres à gradient amélioré? Cela semble raisonnable car vous pouvez continuer à ajouter plus de branches, mais je ne trouve aucune discussion formelle sur le sujet.
EDIT: Ma question semble très similaire à Est-ce que les arbres de régression peuvent prédire en continu? , mais peut-être ne demandant pas exactement la même chose. Mais voir cette question pour une discussion pertinente.
decision-trees
Imran
la source
la source
Réponses:
Oui - créez une région pour chaque point de données (c.-à-d. Mémorisez les données d'entraînement).
Ainsi, il est possible que les arbres boostés par le gradient correspondent à toutes les données d'apprentissage, mais cela aurait limité la généralisation aux nouvelles données.
la source