Récemment, j'ai étudié les encodeurs automatiques. Si j'ai bien compris, un autoencodeur est un réseau neuronal où la couche d'entrée est identique à la couche de sortie. Ainsi, le réseau neuronal essaie de prédire la sortie en utilisant l'entrée comme standard d'or.
Quelle est l'utilité de ce modèle? Quels sont les avantages d'essayer de reconstruire certains éléments de sortie, en les rendant aussi égaux que possible aux éléments d'entrée? Pourquoi utiliser toute cette machinerie pour arriver au même point de départ?
Il peut également modéliser votre population de sorte que lorsque vous entrez un nouveau vecteur, vous pouvez vérifier la différence entre la sortie de l'entrée. S'ils sont "assez" identiques, vous pouvez supposer que l'entrée correspond à la population. S'ils sont "assez" différents, alors l'entrée n'appartient probablement pas à la population que vous avez modélisée.
Je le vois comme une sorte de "régression par les réseaux de neurones" où vous essayez d'avoir une fonction décrivant vos données: sa sortie est la même que l'entrée.
la source
Peut-être que ces images vous donnent une certaine intuition. Comme commentateur ci-dessus, les encodeurs automatiques essaient d'extraire des fonctionnalités de haut niveau des exemples de formation. Vous pouvez voir comment l'algorithme de pronostic est utilisé pour entraîner chaque niveau caché séparément pour le NN profond sur la deuxième image.
Les photos sont prises à partir de wikipedia russe.
la source