Ayant travaillé avec des réseaux de neurones pendant environ six mois, j'ai expérimenté de première main ce qui est souvent revendiqué comme leurs principaux inconvénients, à savoir le sur-ajustement et le blocage dans les minima locaux. Cependant, grâce à l'optimisation hyperparamétrique et à certaines approches nouvellement inventées, celles-ci ont été surmontées pour mes scénarios. De mes propres expériences:
- Le décrochage semble être une très bonne méthode de régularisation (également un pseudo-assembleur?),
- La normalisation par lots facilite la formation et maintient la force du signal sur plusieurs couches.
- Adadelta atteint constamment de très bons optimas
J'ai expérimenté la mise en œuvre de SciKit-learns de SVM à côté de mes expériences avec les réseaux de neurones, mais je trouve les performances très médiocres en comparaison, même après avoir fait des recherches dans la grille des hyperparamètres. Je me rends compte qu'il existe d'innombrables autres méthodes, et que les SVM peuvent être considérés comme une sous-classe des NN, mais quand même.
Donc, à ma question:
Avec toutes les nouvelles méthodes étudiées pour les réseaux de neurones, sont-elles devenues lentement - ou deviendront-elles - "supérieures" aux autres méthodes? Les réseaux de neurones ont leurs inconvénients, comme d'autres, mais avec toutes les nouvelles méthodes, ces inconvénients ont-ils été atténués à un état d'insignifiance?
Je me rends compte que souvent "moins c'est plus" en termes de complexité du modèle, mais cela aussi peut être conçu pour les réseaux de neurones. L'idée de "pas de déjeuner gratuit" nous interdit de supposer qu'une approche régnera toujours supérieure. C'est juste que mes propres expériences - ainsi que d'innombrables articles sur les performances impressionnantes de divers NN - indiquent qu'il pourrait y avoir, au moins, un déjeuner très bon marché.
la source
Réponses:
Les réseaux de neurones ont également d'autres lacunes.
Dans l'attente de ce que les autres ont à dire ici.
la source
Pour ajouter à ce qui a été dit dans la brillante réponse de @ MikeWise,
Toutes choses égales par ailleurs, les modèles d'apprentissage en profondeur sont généralement prioritaires par rapport à d'autres algorithmes à mesure que la taille de l'ensemble de données augmente:
Comme tout, tout se résume à l'ensemble de données à portée de main, les réseaux de neurones sont bons sur d'autres ensembles de données, mais en même temps, ils seront mauvais sur d'autres ensembles de données. Lorsqu'il s'agit de problèmes non structurés (par exemple visuels, texte, son ), les réseaux de neurones semblent à l'heure actuelle être le meilleur algorithme. Cela dit, en ce qui concerne les données structurées, une analyse rapide du type d'algorithme utilisé pour gagner des concours de science des données en ligne révèle que les algorithmes dits d'apprentissage automatique tels que XGboost sont suprêmes.
En ce qui concerne les autres modèles, l'ingénierie des fonctionnalités joue un grand rôle dans l'efficacité de l'algorithme. L'ingénierie des fonctionnalités est généralement une chose délicate à faire et à bien faire. Les algorithmes d'apprentissage profond ne nécessitent pas autant d'ingénierie des fonctionnalités (voire pas du tout) par rapport aux autres algorithmes, en fait, ils apprennent les fonctionnalités par eux-mêmes .
Si les gars de Google disent qu'ils n'ont pas vu venir l'apprentissage en profondeur, qui exclut la possibilité qu'un algorithme dit d'apprentissage automatique sorte et prenne le monde d'assaut?
Voici un sondage sur ce que le scientifique des données a dit lorsqu'on lui a demandé: si l'apprentissage en profondeur correspond au battage médiatique dans les applications du monde réel? .
Même certaines des applications d'apprentissage en profondeur les plus populaires comme AlphaGo de Google ne sont pas 100% d'apprentissage en profondeur , mais font plutôt partie d'un apprentissage en profondeur, d'un bon vieux "apprentissage machine". Mon 2 cent est, peut-être que nous ne devrions pas encore exclure d'autres algorithmes d'apprentissage automatique.
la source