Une limitation des algorithmes de réseau neuronal standard (comme backprop) est que vous devez prendre une décision de conception du nombre de couches cachées et de neurones par couche que vous voulez. Habituellement, le taux d'apprentissage et la généralisation sont très sensibles à ces choix. C'est la raison pour laquelle les algorithmes de réseau neuronal comme la corrélation en cascade ont suscité de l'intérêt. Il commence avec une topologie minimale (juste une unité d'entrée et de sortie) et recrute de nouvelles unités cachées à mesure que l'apprentissage progresse.
L'algorithme CC-NN a été introduit par Fahlman en 1990, et la version récurrente en 1991. Quels sont les algorithmes de réseau neuronal les plus récents (après 1992) qui commencent avec une topologie minimale?
Questions connexes
CogSci.SE: Réseaux de neurones avec des comptes biologiquement plausibles de la neurogenèse
la source
Réponses:
La question implicite ici est de savoir comment déterminer la topologie / structure d'un réseau de neurones ou d'un modèle d'apprentissage automatique afin que le modèle soit «de la bonne taille» et non pas en sur-ajustement / sous-ajustement.
Depuis la corrélation en cascade en 1990, il y a eu une multitude de méthodes pour le faire maintenant, beaucoup d'entre elles avec de bien meilleures propriétés statistiques ou informatiques:
la source
Que diriez-vous de NeuroEvolution of Augmenting Topologies (NEAT) http://www.cs.ucf.edu/~kstanley/neat.html
Il semble fonctionner pour des problèmes simples, mais est incroyablement lent à converger.
la source
Si je comprends bien, le meilleur de la technique aujourd'hui est «l'apprentissage des fonctionnalités non supervisé et l'apprentissage en profondeur». en bref: le réseau est formé de manière non supervisée, chaque couche à la fois:
la source
Il y a déjà eu une mention de NEAT (Neural Evolution with Augmenting Topologies). Il y a des avancées à ce sujet, notamment la spéciation et HyperNEAT. HyperNEAT utilise un réseau «méta» pour optimiser la pondération d'un phénotype entièrement connecté. Cela donne une «conscience spatiale» du réseau qui est inestimable dans les problèmes de reconnaissance d'image et de type de jeu de société. Vous n'êtes pas non plus limité à la 2D. Je l'utilise en 1D pour l'analyse du signal et 2D vers le haut est possible mais devient lourd sur les exigences de traitement. Recherchez les articles de Ken Stanley et un groupe sur Yahoo. Si vous avez un problème qui peut être résolu avec un réseau, alors NEAT et / ou HyperNEAT peuvent bien être applicables.
la source
Il existe un article quelque peu récent sur ce sujet: RP Adams, H. Wallach et Zoubin Ghahramani. Apprentissage de la structure de modèles graphiques clairsemés profonds. C'est un peu en dehors de la communauté habituelle des réseaux de neurones et plus du côté de l'apprentissage automatique. L'article utilise une inférence bayésienne non paramétrique sur la structure du réseau.
la source