En termes de différence entre réseau neuronal et apprentissage en profondeur, nous pouvons énumérer plusieurs éléments, tels que davantage de couches sont incluses, un ensemble de données massif, un matériel informatique puissant pour rendre possible la formation d'un modèle compliqué.
En plus de cela, y a-t-il une explication plus détaillée concernant la différence entre NN et DL?
machine-learning
neural-networks
deep-learning
conv-neural-network
deep-belief-networks
user3269
la source
la source
Réponses:
Deep learning = réseaux neuronaux artificiels profonds + autres types de modèles profonds .
Réseaux de neurones artificiels profonds = réseaux de neurones artificiels avec plus d'une couche. (voir le nombre minimum de couches dans un réseau neuronal profond )
la source
Frank Dernoncourt a une meilleure réponse à usage général, mais je pense qu'il vaut la peine de mentionner que lorsque les gens utilisent le terme large "Deep Learning", ils impliquent souvent l'utilisation de techniques récentes, comme la convolution, que vous ne trouverez pas dans l'ancien / traditionnel réseaux de neurones (entièrement connectés). Pour les problèmes de reconnaissance d'image, la convolution peut permettre des réseaux de neurones plus profonds car les neurones / filtres alambiqués réduisent quelque peu le risque de surapprentissage en partageant les poids.
la source
Les réseaux de neurones avec beaucoup de couches sont des architectures profondes.
Cependant, l'algorithme d'apprentissage de rétropropagation utilisé dans les réseaux de neurones ne fonctionne pas bien lorsque le réseau est très profond. L'apprentissage des architectures dans les architectures profondes («deep learning») doit y remédier. Par exemple, les machines Boltzmann utilisent à la place un algorithme d'apprentissage contrastif.
Concevoir une architecture profonde est facile. Concevoir un algorithme d'apprentissage qui fonctionne bien pour une architecture profonde s'est avéré difficile.
la source
L'apprentissage en profondeur nécessite un réseau neuronal ayant plusieurs couches - chaque couche effectuant des transformations mathématiques et alimentant la couche suivante. La sortie de la dernière couche est la décision du réseau pour une entrée donnée. Les couches entre les couches d'entrée et de sortie sont appelées couches cachées.
Un réseau neuronal d'apprentissage en profondeur est une collection massive de perceptrons interconnectés en couches. Les poids et les biais de chaque perceptron dans le réseau influencent la nature de la décision de sortie de l'ensemble du réseau. Dans un réseau neuronal parfaitement réglé, toutes les valeurs de poids et de biais de tout le perceptron sont telles que la décision de sortie est toujours correcte (comme prévu) pour toutes les entrées possibles. Comment les pondérations et les biais sont-ils configurés? Cela se produit de manière itérative lors de la formation du réseau - appelé apprentissage en profondeur. (Sharad Gandhi)
la source