Un programme d'IA peut-il avoir un égaliseur (intelligence émotionnelle ou quotient émotionnel)?
En d'autres termes, peut-on mesurer l'égalisation d'un programme d'IA?
Si l'égalisation est plus problématique à mesurer que le QI (au moins avec un applicaple standard pour les programmes humains et IA), pourquoi est-ce le cas?
emotional-intelligence
intelligence-testing
1010101 Style de vie
la source
la source
Réponses:
La réponse à votre question est "En principe, oui" - dans sa forme la plus générale, les tests d'égalisation ne sont qu'un cas spécifique du test de Turing ("Comment vous sentiriez-vous à propos de ...?").
Pour voir pourquoi des tests d'égalisation significatifs peuvent être difficiles à réaliser, envisagez les deux tests possibles suivants:
À un extrême de la complexité, le film 'Blade Runner' montre un test pour distinguer l'homme et l'androïde sur la base des réponses à des questions chargées d'émotion.
Si vous avez essayé de poser ces questions (ou même beaucoup plus simples) à un chatbot moderne, vous concluriez probablement rapidement que vous ne parliez pas à une personne.
Le problème de l'évaluation de l'égalisation est que plus le test est sophistiqué émotionnellement, plus le système d'IA doit être général, afin de transformer l'entrée en une représentation significative.
À l'autre extrême de ce qui précède, supposons qu'un test d'égalisation a été formulé d'une manière extrêmement structurée, avec l'entrée structurée fournie par un humain. Dans un tel cas, le succès d'un «test d'égalisation» n'est pas vraiment ancré dans le monde réel.
Dans un essai intitulé "L'effet Eliza indéracinable et ses dangers", Douglas Hofstadter donne l'exemple suivant, dans lequel le programme ACME est revendiqué (et non par Hofstadter) pour "comprendre" l'analogie.
Cette histoire est présentée à ACME sous la forme suivante:
Supposons que l'on demande au programme si le comportement de Jane Doe est moral. Les concepts émotionnels complexes composés tels que «négligent», «solitaire» et «innocent» ne sont ici que des prédicats, non disponibles à l'IA pour un examen introspectif plus approfondi. Ils pourraient tout aussi bien être remplacés par des étiquettes telles que «bling-blang-blong15657».
Donc, dans un sens, l'absence de succès à un test d'égalisation avec une profondeur quelconque est révélatrice du problème général auquel l'IA est actuellement confrontée: l'incapacité de définir (ou autrement apprendre) des représentations significatives des complexités subtiles du monde humain, ce qui est beaucoup plus plus complexe que de pouvoir reconnaître des vidéos de chats.
la source