Pour autant que je l'ai vu, les opinions ont tendance à différer à ce sujet. Les meilleures pratiques dicteraient certainement l'utilisation de la validation croisée (surtout si l'on compare les RF avec d'autres algorithmes sur le même ensemble de données). D'un autre côté, la source d'origine indique que le fait que l'erreur OOB soit calculée pendant l'apprentissage du modèle est suffisant pour indiquer les performances de l'ensemble de test. Même Trevor Hastie, dans une conférence relativement récente, a déclaré que "les forêts aléatoires fournissent une validation croisée gratuite". Intuitivement, cela a du sens pour moi, si je m'entraîne et essaie d'améliorer un modèle RF sur un ensemble de données.
Quel est ton opinion là-dessus?
Réponses:
L'erreur OOB est calculée par pour chaque observation en utilisant uniquement les arbres qui n'avaient pas cette observation particulière dans leur échantillon bootstrap; voir cette question connexe . Cela équivaut à peu près à une validation croisée double car la probabilité qu'une observation particulière se trouve dans un échantillon de bootstrap particulier est .1−(1−1N)N≈1−e−1≈0.6
Comme le souligne @Wouter, vous souhaiterez probablement effectuer une validation croisée pour le réglage des paramètres, mais comme une estimation de l'erreur de l'ensemble de tests, l'erreur OOB devrait être correcte.
la source