Existe-t-il des modèles de calcul des neurones miroirs?

17

De Wikipédia:

Un neurone miroir est un neurone qui se déclenche à la fois lorsqu'un animal agit et que l'animal observe la même action effectuée par un autre.

Les neurones miroirs sont liés à l'apprentissage par imitation, une fonctionnalité très utile qui manque dans les implémentations actuelles de l'IA dans le monde réel. Au lieu d'apprendre à partir d'exemples d'entrées-sorties (apprentissage supervisé) ou de récompenses (apprentissage par renforcement), un agent doté de neurones miroirs pourrait apprendre en observant simplement d'autres agents, traduisant ses mouvements dans son propre système de coordonnées. Qu'avons-nous à ce sujet concernant les modèles de calcul?

rcpinto
la source

Réponses:

4

Cet article donne une description des neurones miroirs en termes d'apprentissage hébbien, un mécanisme qui a été largement utilisé en IA. Je ne sais pas si la formulation donnée dans l'article a déjà été mise en œuvre par ordinateur.

NietzscheanAI
la source
0

Que "je prenne la balle" ou "qu'il prenne la balle", toutes les instances enregistrées de "prise" et de "balle" seront faiblement activées et "prendre [la] balle" sera fortement activé. N'est-ce pas considéré comme une «mise en miroir»? Si vous savez aussi que "j'ai un bras" et "il a un bras", etc., alors quand "il prend des blocs", il n'est pas trop difficile de penser que "je pourrais prendre des blocs".

Suis-je
la source
0

En fait, nous avons beaucoup de choses le long de cette ligne, la capture de mouvement pour l'instance de films 3D vient à l'esprit presque immédiatement. Le problème si j'y pense est moins une situation dans l'observation d'un autre acteur, les ordinateurs sont déjà bons à le faire avec la quantité de logiciels de reconnaissance d'image que nous avons, c'est plutôt un problème de compréhension si une action a donné un bon résultat en tant que net qui est quelque chose que les ordinateurs ne peuvent pas faire car ce n'est pas un problème de réseau à nœud unique. Par exemple, nous avons déjà programmé un ordinateur pour comprendre le langage humain (Watson, sans doute), mais même Watson ne comprenait pas le concept selon lequel dire "f ***" est mauvais. (Regardez ça, c'est une drôle d'histoire secondaire.)

Mais le fait est que les algorithmes d'apprentissage ne sont pas un véritable apprentissage dans un sens, car un ordinateur n'a actuellement aucun sens de "bon résultat", donc à ce stade, l'apprentissage par observation est très limité dans un sens à "singe voir, singe faire".

Peut-être que la chose la plus proche que j'ai jamais lue à ce sujet était les robots de recherche et de sauvetage de lutte contre les incendies qui étaient sur un réseau et se diffusaient mutuellement lorsque l'un d'eux avait été détruit car les robots savaient que la zone était quelque chose qu'ils devaient éviter.

Sinon, je pense que c'est le problème de l'apprentissage par observation. Une personne peut observer que donner des coups de poing à quelqu'un vous fera généralement riposter, un ordinateur observera et perroquera l'action, bonne ou mauvaise.

Métrique
la source