Je lis des techniques de calcul de réservoir comme Echo State Networks et Liquid State Machines . Les deux méthodes impliquent de fournir des entrées à une population de neurones de dopage connectés de manière aléatoire (ou non), et un algorithme de lecture relativement simple qui produit la sortie (par exemple, la régression linéaire). Les poids de la population de neurones sont soit fixes, soit entraînés via une règle d'activité locale de type hébbien comme STDP .
Ces techniques fonctionnent bien lors de la modélisation d'entrées multidimensionnelles qui ont des composantes temporelles importantes. Cependant, le calcul des potentiels de membrane des neurones dopants implique l'intégration d'équations différentielles et peut être coûteux en calcul.
Existe-t-il des exemples de cas où la complexité de calcul supplémentaire des techniques de calcul de réservoir est compensée par des gains dans une tâche de prédiction ou de classification?
Par exemple, existe-t-il des cas où les techniques SNN surpassent des architectures complexes comparables basées sur des RNN, des ANN, des SVM, des DNN, des CNN ou d'autres algorithmes?
Réponses:
Ma réponse vient plus de l'expérience que des expériences ou des benchmarks publiés.
Pour autant que je sache, Spiking Neural Networks ne surpasse les autres algorithmes dans aucune tâche. Il y a eu des progrès en robotique et en calcul de réservoir, mais les algorithmes de calcul de réservoir sont aussi bons que d'autres algorithmes (comme l'apprentissage par renforcement) selon des publications récentes. Il y a des rumeurs selon lesquelles certaines entreprises sont intéressées par ces algorithmes parce qu'elles ont récemment embauché quelques chercheurs en informatique de réservoir, mais ce ne sont que des rumeurs.
Voici l'une des publications les plus récentes détaillant les avancées et les limites de l'informatique de réservoir en robotique https://www.cs.unm.edu/~afaust/MLPC15_proceedings/MLPC15_paper_Polydoros.pdf
J'ai commencé à expérimenter avec Liquid State Machines à l'université en utilisant l'architecture proposée par Wolfgang Maass. Cela semblait prometteur, en particulier l'idée de neurones inhibiteurs faisant partie du circuit. Mais en réalité, utiliser ces algorithmes dans des applications de données réelles (classification des langues, classification des images entre autres) n'était pas suffisant pour se rapprocher des références comme les RNN, les ANN et les SVM. Parfois, même les réseaux neuronaux multicouches vanille fonctionnent mieux que les machines à état liquide. Ma compréhension est que ce type de modèles est bon pour la robotique et d'autres tâches connexes autonomes comme les capteurs et la navigation autonome (mais ce n'était pas mon domaine de recherche) mais pas tellement pour d'autres types de données. Il existe quelques laboratoires, principalement en Europe, qui travaillent avec cet algorithme, mais jusqu'à présent, je n'ai pas entendu parler de nombreuses avancées dans ce domaine au cours des dernières années.
Je crois que les algorithmes inspirés du cerveau sont la prochaine grande étape de l'IA, et alors que de nombreuses entreprises comme Numenta et Deepmind font des recherches dans cette direction, à ce jour, il reste encore beaucoup de travail à faire pour avoir la prochaine percée dans AI.
la source