Je suis d'accord que c'est trop large, mais voici une réponse d'une phrase pour la plupart d'entre eux. Ceux que j'ai omis (du bas du tableau) sont très modernes et très spécialisés. Je ne sais pas grand-chose à leur sujet, alors peut-être que quelqu'un qui le fait peut améliorer cette réponse.
- Perceptron: régression linéaire ou logistique (et donc classification).
- Feed Forward: régression ou classification généralement non linéaire avec activation sigmoïdale. Essentiellement un perceptron multicouche.
- Réseau Radial Basis: réseau Feed Forward avec fonctions d'activation Radial Basis. Utilisé pour la classification et certains types de filtrage vidéo / audio
- Deep Feed Forward: Feed Forward avec plus d'une couche cachée. Utilisé pour apprendre des modèles plus complexes de classification ou de régression, peut-être l'apprentissage par renforcement.
- Réseau de neurones récurrents: un réseau de transmission profonde où certains nœuds se connectent aux couches précédentes . Utilisé dans l'apprentissage par renforcement et pour apprendre des modèles dans des données séquentielles comme du texte ou de l'audio.
- LSTM: Un réseau de neurones récurrents avec des neurones de contrôle spécialisés (parfois appelés portes) qui permettent aux signaux d'être mémorisés pendant de plus longues périodes, ou sélectivement oubliés. Utilisé dans n'importe quelle application RNN, et souvent capable d'apprendre des séquences qui ont un temps de répétition très long.
- GRU: Un peu comme LSTM, un autre type de RNN gated avec des neurones de contrôle spécialisés.
- Encodeur automatique: apprend à compresser les données, puis à les décompresser. Après avoir appris ce modèle, il peut être divisé en deux sous-parties utiles: un mappage de l'espace d'entrée vers un espace d'entités de faible dimension, qui peut être plus facile à interpréter ou à comprendre; et une cartographie à partir d'un sous-espace de petite dimension de nombres simples en motifs complexes, qui peuvent être utilisés pour générer ces motifs complexes. Base d'un travail très moderne en vision, langage et traitement audio.
- VAE, DAE, SAE: Spécialisations de l'encodeur automatique.
- Chaîne de Markov: représentation d'un réseau de neurones d'une chaîne de Markov: l'état est codé dans l'ensemble des neurones actifs, et les probabilités de transition sont ainsi définies par les poids. Utilisé pour l'apprentissage des probabilités de transition et l'apprentissage des fonctionnalités non supervisées pour d'autres applications.
- HN, BM, RBM, DBM: architectures spécialisées basées sur l'idée de la chaîne de Markov, utilisées pour apprendre automatiquement des fonctionnalités utiles pour d'autres applications.
Réseau de convolution profond: comme un réseau à action directe, mais chaque nœud est vraiment une banque de nœuds apprenant une convolution à partir de la couche précédente. Cela lui permet essentiellement d'apprendre des filtres, des détecteurs de bord et d'autres modèles d'intérêt dans le traitement vidéo et audio.
Réseau déconvolutionnel profond: opposé à un réseau convolutionnel dans un certain sens. Apprenez un mappage à partir d'entités qui représentent des bords ou d'autres propriétés de haut niveau d'une image invisible, dans l'espace pixel. Générez des images à partir de résumés.
DCIGN: Essentiellement un encodeur automatique composé d'un DCN et d'un DN collés ensemble. Utilisé pour apprendre des modèles génératifs pour des images complexes comme les visages.
Generative Adversarial Network: Utilisé pour apprendre des modèles génératifs pour des images complexes (ou d'autres types de données) lorsque les données de formation sont insuffisantes pour un DCIGN. Un modèle apprend à générer des données à partir de bruit aléatoire, et l'autre apprend à classer la sortie du premier réseau comme distincte des données d'apprentissage disponibles.