L'ensachage est la génération de plusieurs prédicteurs qui fonctionnent comme un prédicteur unique. Le décrochage est une technique qui enseigne à un réseau de neurones à faire la moyenne de tous les sous-réseaux possibles. En regardant les compétitions les plus importantes de Kaggle, il semble que ces deux techniques soient utilisées très souvent ensemble. Je ne vois aucune différence théorique en dehors de la mise en œuvre réelle. Qui peut m'expliquer pourquoi nous devrions utiliser les deux dans n'importe quelle application réelle? et pourquoi les performances s'améliorent lorsque nous les utilisons tous les deux?
J'ai trouvé une comparaison des deux types de réseaux dans Max Out Networks qui dit:
J'espère que ce sera utile.
la source
Le décrochage est une technique de régularisation utilisée pour éviter le sur-ajustement dans les grands réseaux de neurones, en particulier en omettant certains des neurones dans les couches cachées (d'où le nom de décrochage pour les neurones exclus) après l'entraînement. Fondamentalement, si le réseau a vraiment appris quelque chose pendant l'entraînement, l'abandon de certains neurones ne devrait pas affecter négativement la précision des prédictions.
L'ensachage est également une technique de régularisation efficace, utilisée pour réduire la variance par rapport aux données de formation et améliorer la précision de votre modèle en utilisant plusieurs copies de celui-ci formées sur différents sous-ensembles de données de l'ensemble de données de formation initial / plus grand.
voir cette question
la source