MARS fait cela
Je pense que ce n'est pas plus populaire, c'est qu'une grande partie de la robustesse des ensembles de modèles de style d'arbre de décision vient du fait qu'ils prédisent toujours des valeurs constantes dans la plage qu'ils ont vue.
Les valeurs aberrantes dans les données sont généralement regroupées avec les valeurs normales les plus élevées / les plus basses dans les données de la dernière feuille et ne provoquent pas d'étranges prédictions ou ne jettent pas de coeffichents.
Ils ne souffrent pas autant des problèmes de multicolinéarité que les modèles linéaires.
Vous pouvez migrer pour résoudre ces problèmes dans une implémentation, mais il est probablement plus facile et plus robuste d'ajouter simplement plus d'arbres dans un ensemble via le renforcement ou l'ensachage jusqu'à ce que vous obteniez la fluidité dont vous avez besoin.