Les arbres boostés par gradient peuvent-ils convenir à n'importe quelle fonction?

14

Pour les réseaux de neurones, nous avons le théorème d'approximation universel qui stipule que les réseaux de neurones peuvent approximer n'importe quelle fonction continue sur un sous-ensemble compact deRn.

Existe-t-il un résultat similaire pour les arbres à gradient amélioré? Cela semble raisonnable car vous pouvez continuer à ajouter plus de branches, mais je ne trouve aucune discussion formelle sur le sujet.

EDIT: Ma question semble très similaire à Est-ce que les arbres de régression peuvent prédire en continu? , mais peut-être ne demandant pas exactement la même chose. Mais voir cette question pour une discussion pertinente.

Imran
la source
1
Bonne question! Je n'ai rien trouvé là-dessus, mais voici les limites du PAC sur les arbres de décision. Essayez de demander à nouveau sur cstheory.
Emre
1
Voir ici: projecteuclid.org/download/pdf_1/euclid.aos/1013203451 . C'est une vieille lecture. Je crois qu'il a ce que vous recherchez. Autant que je sache, en principe, ils le peuvent. Faites-moi savoir ce que vous en pensez.
TwinPenguins

Réponses:

1

Oui - créez une région pour chaque point de données (c.-à-d. Mémorisez les données d'entraînement).

Ainsi, il est possible que les arbres boostés par le gradient correspondent à toutes les données d'apprentissage, mais cela aurait limité la généralisation aux nouvelles données.

Brian Spiering
la source