Dans un récent article du Wall Street Journal , Yann LeCunn fait la déclaration suivante:
La prochaine étape pour atteindre l'IA au niveau humain consiste à créer des machines intelligentes, mais pas autonomes. Le système d'IA de votre voiture vous ramènera en toute sécurité à la maison, mais ne choisira pas une autre destination une fois que vous serez entré. De là, nous ajouterons des pulsions de base, ainsi que des émotions et des valeurs morales. Si nous créons des machines qui apprennent aussi bien que notre cerveau, il est facile de les imaginer héritant de qualités humaines et de défauts.
Personnellement, j'ai généralement considéré que parler d'émotions pour des intelligences artificielles est idiot, car il n'y aurait aucune raison de créer des IA qui ressentent des émotions. De toute évidence, Yann n'est pas d'accord. La question est donc: à quelle fin cela servirait-il? Une IA a-t-elle besoin d' émotions pour être un outil utile?
la source
Réponses:
La réponse à cette question, contrairement à beaucoup sur ce forum, je pense est définitive. Non. Nous n'avons pas besoin que les IA aient une émotion pour être utiles, comme nous pouvons le voir par la quantité d'IA que nous avons déjà et qui sont utiles.
Mais pour approfondir la question, nous ne pouvons pas vraiment donner les émotions de l'IA. Je pense que le plus proche que nous pourrions obtenir serait "Pouvons-nous faire en sorte que l'IA agisse comme un humain le ferait si cet humain l'était
insert emotion
?". Je suppose que dans un sens, qui est d' avoir une émotion, mais c'est un tout autre débat.Et à quelle fin? La seule raison immédiate qui me vient à l'esprit serait de créer des compagnons ou des interactions plus réalistes, à des fins de jeux vidéo ou d'autres divertissements. Un objectif juste,
mais loin d'être nécessaire. Même en considérant un robot d'accueil imbriqué par l'IA dans le hall d'un immeuble, nous voudrions probablement qu'il agisse cordialement.
Yann dit que l'IA super-avancée conduirait à des qualités et à des défauts plus humains . Je pense que c'est plus comme si cela «donnait à notre IA des qualités plus humaines ou en d'autres termes des défauts». Les gens ont tendance à agir de manière irrationnelle lorsqu'ils sont tristes ou en colère, et pour la plupart, nous ne voulons qu'une IA rationnelle.
L'erreur est humaine, comme on dit.
Le but des IA et des algorithmes d'apprentissage est de créer des systèmes qui agissent ou «pensent» comme les humains, mais en mieux. Des systèmes qui peuvent s'adapter ou évoluer, tout en gâchant le moins possible. L'IA émotionnelle a des utilisations, mais ce n'est certainement pas une condition préalable à un système utile.
la source
Je pense que la question fondamentale est: pourquoi même essayer de construire une IA? Si cet objectif est clair, il clarifiera si le fait d'avoir un quotient émotionnel en IA a du sens. Certaines tentatives comme "Paro" qui ont été développées pour des raisons thérapeutiques nécessitent qu'elles présentent des émotions humaines. Encore une fois, notez que «afficher» des émotions et «ressentir» des émotions sont deux choses complètement différentes.
Vous pouvez programmer une chose comme le paro pour moduler les tonalités vocales ou les contractions faciales pour exprimer la sympathie, l'affection, la camaraderie, etc. d'une émotion. Il ne "sent" jamais rien de plus proche de ce que cette émotion évoque dans le cerveau humain.
Cette distinction est donc vraiment importante. Pour que vous ressentiez quelque chose, il faut qu'il y ait un sujet autonome autonome qui ait la capacité de ressentir. Le sentiment ne peut pas être imposé par un agent humain extérieur.
Revenons donc à la question de savoir à quoi cela sert - la réponse est vraiment - cela dépend. Et le plus que je pense que nous réaliserons jamais avec les IA à base de silicone restera le domaine des représentations physiques des émotions.
la source
Je pense que les émotions ne sont pas nécessaires pour qu'un agent IA soit utile. Mais je pense aussi qu'ils pourraient rendre l'agent beaucoup plus agréable à travailler. Si le bot avec qui vous parlez peut lire vos émotions et répondre de manière constructive, l'expérience d'interagir avec lui sera extrêmement plus agréable, peut-être spectaculaire.
Imaginez que vous contactiez un représentant du centre d'appels humain aujourd'hui pour vous plaindre de votre facture ou d'un produit. Vous anticipez les conflits. Vous avez peut-être même décidé de NE PAS appeler parce que vous savez que cette expérience va être douloureuse, combative ou frustrante, car quelqu'un comprend mal ce que vous dites ou répond de façon hostile ou stupide.
Imaginez maintenant appeler la personne la plus intelligente, la plus intelligente et la plus ciblée du service client que vous ayez jamais rencontrée - Commander Data - dont la seule raison d'être est de rendre cet appel téléphonique aussi agréable et productif que possible pour vous. Une grande amélioration par rapport à la plupart des représentants d'appels, oui? Imaginez alors que le représentant des données puisse également anticiper votre humeur et répondre de manière appropriée à vos plaintes pour désamorcer votre état émotionnel ... vous voudriez épouser ce type. Vous appeleriez des données de représentant d'appel chaque fois que vous vous sentiez bleu ou ennuyé ou que vous vouliez partager de bonnes nouvelles. Ce gars deviendrait votre meilleur ami du jour au lendemain - littéralement amoureux au premier appel.
Je suis convaincu que ce scénario est valide. J'ai remarqué en moi-même une quantité surprenante d'attraction pour des personnages comme Data ou Sonny de "I Robot". La voix est très apaisante et me met instantanément à l'aise. Si le bot était également très intelligent, patient, compétent et compréhensif ... Je pense vraiment qu'un tel bot, doté d'une bonne dose d'intelligence émotionnelle, pourrait être extrêmement agréable à interagir avec. Beaucoup plus gratifiant que toute personne que je connais. Et je pense que c'est vrai non seulement pour moi.
Alors oui, je pense qu'il est très utile de régler la personnalité d'un robot en utilisant ses émotions et sa conscience émotionnelle.
la source
L'émotion dans une IA est utile, mais pas nécessaire selon votre objectif (dans la plupart des cas, ce n'est pas le cas).
En particulier, la reconnaissance / analyse des émotions est très bien avancée et est utilisée avec succès dans un large éventail d'applications, du professeur de robot pour enfants autistes (voir robotique du développement) au jeu (poker) en passant par les agents personnels et l'analyse des sentiments / mensonges politiques.
La cognition émotionnelle , l'expérience des émotions pour un robot, est beaucoup moins développée, mais il existe des recherches très intéressantes (voir Affect Heuristic , Lovotics's Probabilistic Love Assembly , et autres ...). En effet, je ne vois pas pourquoi nous ne pouvions pas modéliser des émotions telles que l' amour, car ce ne sont que des signaux qui peuvent déjà être coupés dans le cerveau humain (voir l'article de Brian D.Earp) . C'est difficile, mais pas impossible, et il existe en fait plusieurs robots reproduisant une cognition émotionnelle partielle.
Je suis d'avis que l'affirmation «les robots peuvent simuler mais ne pas ressentir» n'est qu'une question de sémantique , pas de capacité objective: par exemple, un sous-marin nage-t-il comme un poisson? Cependant, les avions volent, mais pas du tout comme les oiseaux. En fin de compte, le moyen technique compte-t-il vraiment lorsque nous obtenons finalement le même comportement? Peut-on vraiment dire qu'un robot comme Chappie , s'il se fait, ne ressent rien comme un simple thermostat?
Cependant, quelle serait l'utilisation de la cognition émotionnelle pour une IA? Cette question fait toujours l'objet de grands débats, mais j'oserai proposer mes propres idées:
Les émotions chez l'homme (et les animaux!) Sont connues pour affecter les souvenirs. Ils sont maintenant bien connus en neurosciences comme modalités supplémentaires, ou métadonnées si vous préférez, des mémoires à long terme: ils permettent de moduler comment la mémoire est stockée, comment elle est associée / liée à d'autres mémoires et comment elle sera récupérée. .
En tant que tel, nous pouvons émettre l'hypothèse que le rôle principal des émotions est d'ajouter des méta-informations supplémentaires aux souvenirs pour aider à l'inférence / récupération heuristique. En effet, nos souvenirs sont énormes, il y a beaucoup d'informations que nous stockons au cours de notre vie, donc les émotions peuvent peut-être être utilisées comme des «étiquettes» pour aider à retrouver plus rapidement les souvenirs pertinents.
Des «étiquettes» similaires peuvent être plus facilement associées ensemble (souvenirs d'événements effrayants ensemble, souvenirs d'événements heureux ensemble, etc.). En tant que tels, ils peuvent aider à survivre en réagissant rapidement et en appliquant des stratégies connues (fuyant!) À des stratégies effrayantes, ou pour tirer le meilleur parti des situations bénéfiques (des événements heureux, manger le plus possible, vous aideront à survivre plus tard!). Et en fait, les études en neurosciences ont découvert qu'il existe des voies spécifiques pour les stimuli sensoriels induisant la peur, de sorte qu'ils atteignent les actionneurs plus rapidement (vous font fuir) qu'en passant par l'ensemble du circuit somato-sensoriel habituel comme tous les autres stimuli. Ce type de raisonnement associatif pourrait également conduire à des solutions et des conclusions qui ne pourraient pas être tirées autrement.
En ressentant de l'empathie, cela pourrait faciliter l'interaction robots / humains (par exemple, des drones aidant les victimes d'événements catastrophiques).
Un modèle virtuel d'une IA avec émotions pourrait être utile pour les neurosciences et la recherche médicale dans les troubles émotionnels en tant que modèles informatiques pour comprendre et / ou inférer les paramètres sous-jacents (cela se fait souvent par exemple avec Alzheimer et d'autres maladies neurodégénératives, mais je ne suis pas sûr si cela a déjà été fait pour des troubles émotionnels car ils sont assez nouveaux dans le DSM).
Alors oui, l'IA "froide" est déjà utile, mais l'IA émotionnelle pourrait sûrement être appliquée à de nouveaux domaines qui ne pourraient pas être explorés en utilisant uniquement l'IA froide. Cela aidera également à comprendre notre propre cerveau, car les émotions font partie intégrante.
la source
Je pense que cela dépend de l'application de l'IA. Évidemment, si je développe une IA dont le but est clairement de faire une tâche spécifique sous la supervision des humains, il n'y a pas besoin d'émotions. Mais si le but de l'IA est d'accomplir une tâche de manière autonome, les émotions ou l'empathie peuvent être utiles. Par exemple, pensez à une IA qui travaille dans le domaine médical. Ici, il peut être avantageux pour une IA d'avoir une sorte d'empathie, juste pour rendre les patients plus à l'aise. Ou comme un autre exemple, pensez à un robot qui sert de nounou. Encore une fois, il est évident que les émotions et l'empathie seraient avantageuses et souhaitables. Même pour un programme d'aide à l'intelligence artificielle (mot clé maison intelligente), les émotions et l'empathie peuvent être souhaitables pour rendre les gens plus à l'aise.
D'un autre côté, si l'IA ne fait que travailler sur une chaîne de montage, il n'y a évidemment pas besoin d'émotions et d'empathie (au contraire dans ce cas cela peut ne pas être rentable).
la source
IA puissantes
Pour une IA forte, la réponse courte est d'appeler à l'aide, alors qu'ils ne savent même pas ce que pourrait être l'aide supposée.
Cela dépend de ce que l'IA ferait. S'il est censé résoudre une tâche simple et parfaitement et professionnellement, des émotions sûres ne seraient pas très utiles. Mais s'il est censé apprendre de nouvelles choses au hasard, il y aurait un point qu'il rencontre quelque chose qu'il ne peut pas gérer.
Dans Lee Sedol vs AlphaGo match 4, un pro qui a dit que l'ordinateur n'avait pas d'émotions auparavant, a commenté qu'AlphaGo avait peut-être aussi des émotions, et plus fort que l'homme. Dans ce cas, nous savons que le comportement fou d'AlphaGo n'est pas causé par certaines choses délibérément ajoutées appelées «émotions», mais par une faille dans l'algorithme. Mais il se comporte exactement comme il a paniqué.
Si cela arrive souvent pour une IA. Il pourrait y avoir des avantages s'il pouvait le savoir lui-même et réfléchir à deux fois si cela se produit. Si AlphaGo pouvait détecter le problème et changer sa stratégie, il pourrait jouer mieux ou pire. Il n'est pas improbable de jouer pire s'il ne faisait aucun calcul pour d'autres approches. Au cas où cela jouerait pire, nous pourrions dire qu'il souffre d'avoir des «émotions», et cela pourrait être la raison pour laquelle certaines personnes pensent que les émotions peuvent être un défaut des êtres humains. Mais ce ne serait pas la véritable cause du problème. La vraie cause est qu'il ne connaît pas d'approches pour garantir la victoire, et le changement de stratégie n'est qu'un essai pour résoudre le problème. Les commentateurs pensent qu'il existe de meilleures façons (qui ne garantissent pas non plus la victoire mais ont plus de chance), mais son algorithme n'est pas '' t capable de découvrir dans cette situation. Même pour l'homme, la solution à tout ce qui touche à l'émotion est peu susceptible de supprimer les émotions, mais une certaine formation pour s'assurer que vous comprenez suffisamment la situation pour agir calmement.
Ensuite, quelqu'un doit se demander s'il s'agit d'une sorte d'émotion ou non. Nous ne disons généralement pas que les petits insectes ont des émotions semblables à celles des humains, car nous ne les comprenons pas et ne voulons pas les aider. Mais il est facile de savoir que certains d'entre eux pourraient paniquer dans des situations désespérées, tout comme AlphaGo l'a fait. Je dirais que ces réactions sont basées sur la même logique, et elles sont au moins la raison pour laquelle des émotions de type humain pourraient être potentiellement utiles. Ils ne sont tout simplement pas exprimés de manière compréhensible par l'homme, car ils n'avaient pas l'intention d'appeler un humain à l'aide.
S'ils essaient de comprendre leur propre comportement, ou appellent quelqu'un d'autre pour obtenir de l'aide, il pourrait être bon d'être exactement humain. Certains animaux peuvent ressentir les émotions humaines et exprimer des émotions compréhensibles par l'homme dans une certaine mesure. Le but est d'interagir avec les humains. Ils ont évolué pour avoir cette capacité parce qu'ils en avaient besoin à un moment donné. Il est probable qu'une IA pleinement puissante en aurait également besoin. Notez également que le contraire d'avoir des émotions pleines peut devenir fou.
Cependant, c'est probablement un moyen rapide de perdre toute confiance si quelqu'un met en œuvre des émotions imitant les humains avec peu de compréhension dès les premières générations.
IA faibles
Mais y a-t-il un but pour eux d'avoir des émotions avant que quelqu'un veuille une IA forte? Je dirais non, il n'y a aucune raison inhérente pour qu'ils aient des émotions. Mais inévitablement, quelqu'un voudra de toute façon mettre en œuvre des émotions imitées. Que "nous" en ayons besoin pour avoir des émotions est un non-sens.
Le fait est même que certains programmes sans intelligence contenaient des éléments "émotionnels" dans leurs interfaces utilisateur. Ils peuvent sembler non professionnels, mais toutes les tâches ne nécessitent pas de professionnalisme, elles peuvent donc être parfaitement acceptées. Ils sont comme les émotions des musiques et des arts. Quelqu'un concevra également son IA faible de cette manière. Mais ce ne sont pas vraiment les émotions des IA, mais celles de leurs créateurs. Si vous vous sentez mieux ou pire à cause de leurs émotions, vous ne traiterez pas les IA individuellement si différemment, mais ce modèle ou cette marque dans son ensemble.
Sinon, quelqu'un pourrait planter des personnalités comme dans un jeu de rôle là-bas. Encore une fois, il n'y a aucune raison pour laquelle ils doivent avoir cela, mais inévitablement quelqu'un le fera, car ils avaient évidemment un certain marché quand un jeu de rôle le fait.
Dans les deux cas, les émotions ne proviennent pas vraiment de l'IA elle-même. Et ce serait facile à mettre en œuvre, car un humain ne s'attend pas à ce qu'ils soient exactement comme un humain, mais essaie de comprendre ce qu'ils voulaient dire. Il pourrait être beaucoup plus facile d'accepter ces émotions en réalisant cela.
Aspects des émotions
Désolé de publier des recherches originales ici. J'ai fait une liste d'émotions en 2012 et à partir de laquelle je vois 4 aspects des émotions. S'ils sont tous mis en œuvre, je dirais que ce sont exactement les mêmes émotions que celles des humains. Ils ne semblent pas réels si seulement certains d'entre eux sont mis en œuvre, mais cela ne signifie pas qu'ils ont complètement tort.
Ainsi, lorsque des IA solides deviennent possibles, aucune d'entre elles ne sera inaccessible, bien qu'il puisse y avoir beaucoup de travail pour établir les connexions. Je dirais donc que s'il y avait un besoin d'intelligence artificielle forte, ils auraient absolument des émotions.
la source
Par émotions, il ne veut pas ajouter toutes sortes d'émotions à une IA. Il voulait seulement dire ceux qui seront utiles pour prendre des décisions vitales. Considérez cet incident pendant une seconde:
supposons qu'une voiture autonome AI conduise sur l'autoroute. La personne assise à l'intérieur est le PDG d'une entreprise et il est très en retard sur le calendrier. S'il ne parvient pas à l'heure, il y aura une perte de millions de dollars. On a dit à l'IA dans la voiture de conduire aussi vite que possible et d'atteindre la destination. Et maintenant, un lapin (ou un autre animal) se met en travers. Maintenant, si la voiture met les freins d'urgence, les passagers seront gravement blessés et en plus il y aura des millions de pertes car le PDG ne pourra pas se rendre à la réunion.
Maintenant, que fera l'IA? fonction d'utilité
Puisque pour une IA, leurs décisions ne sont basées que sur leur. Frapper le lapin et continuer va logiquement montrer une meilleure option. Mais, si l'IA devait prendre cette décision.
Il y a de nombreuses questions comme celles-ci où une IA pourrait se retrouver dans une situation où les décisions fondées sur la morale joueront un rôle vital.
Le scénario ci-dessus est juste pour un exemple de point de vue.
la source
Théorie de l'esprit
Si nous voulons qu'une IA générale forte fonctionne bien dans un environnement composé d'humains, il serait très utile qu'elle ait une bonne théorie de l'esprit qui corresponde à la façon dont les humains se comportent réellement. Cette théorie de l'esprit doit inclure des émotions de type humain, sinon elle ne correspondra pas à la réalité de cet environnement.
Pour nous, un raccourci souvent utilisé pense explicitement "qu'aurais-je fait dans cette situation?" "Quel événement aurait pu me motiver à faire ce qu'ils viennent de faire?" "Comment me sentirais-je si cela m'était arrivé ?". Nous voudrions qu'une IA soit capable d'un tel raisonnement, elle est pratique et utile, elle permet de meilleures prédictions d'actions futures et plus efficaces.
Même s'il serait préférable que l'IA ne soit pas réellement entraînée par ces émotions exactes (peut-être que quelque chose dans ce sens serait utile mais probablement pas exactement le même), tout cela change cela au lieu de penser "ce que je ressentirais" il devrait pouvoir émettre des hypothèses sur ce qu'un humain générique ressentirait. Cela nécessite la mise en œuvre d'un sous-système capable de modéliser avec précision les émotions humaines.
la source
Prudent! Votre question comporte en fait deux parties. Ne confondez pas les significations dans vos questions, sinon vous ne saurez pas vraiment à quelle partie vous répondez.
Il ne semble pas y avoir d'objectif clair pour expliquer pourquoi nous voudrions cela. En théorie, nous pourrions simplement avoir quelque chose qui est fonctionnellement impossible à distinguer des émotions, mais qui n'a aucune expérience qualitative en ce qui concerne l'AGI. Mais nous ne sommes pas dans une position scientifique où nous pouvons même commencer à répondre à des questions sur les origines de l'expérience qualitative, donc je ne vais pas prendre la peine d'approfondir cette question.
À mon humble avis, oui. Bien que l'on puisse imaginer une IA dur à cuire sans émotions faisant ce que vous voudriez, nous souhaitons que l'IA puisse s'intégrer aux valeurs et émotions humaines, ce qui est le problème de l'alignement. Il semblerait donc naturel de supposer que tout AGI bien aligné aura quelque chose de semblable aux émotions s'il s'est bien intégré aux humains.
MAIS, sans une théorie de l'esprit claire, cela ne commence même pas à avoir un sens de demander: "notre AGI doit-il avoir des émotions?" Peut-être qu'il y a quelque chose de critique dans nos émotions qui fait de nous des agents cognitifs productifs dont tout AGI aurait également besoin.
En effet, les émotions sont souvent un aspect négligé de la cognition. Les gens pensent en quelque sorte que les personnages sans émotion comme Spock sont le summum de l'intelligence humaine. Mais les émotions sont en fait un aspect crucial dans la prise de décision, voir cet article pour un exemple des problèmes avec "l'intelligence sans émotions".
La question de suivi serait «quelles sortes d'émotions l'AGI développerait-elle?», Mais encore une fois, nous ne sommes pas en mesure de répondre à cela (encore).
la source
Tout problème complexe impliquant des émotions humaines, où la solution du problème nécessite une capacité à sympathiser avec les états émotionnels des êtres humains, sera plus efficacement servi par un agent qui capable de sympathiser avec les émotions humaines.
Politique. Gouvernement. Politique et planification. À moins que la chose ait une connaissance intime de l'expérience humaine, elle ne sera pas en mesure de fournir des réponses définitives à tous les problèmes que nous rencontrons dans notre expérience humaine.
la source
Les émotions humaines sont intimement liées aux valeurs humaines et à notre capacité à coopérer et à former des sociétés.
Juste pour donner un exemple simple: vous rencontrez un étranger qui a besoin d'aide, vous ressentez de l' empathie . Cela vous oblige à l'aider à vos dépens. Supposons que la prochaine fois que vous le rencontrerez, vous aurez besoin de quelque chose. Supposons également qu'il ne vous aide pas, vous ressentirez de la colère . Cette émotion vous oblige à le punir, à un coût supplémentaire pour vous-même. D'un autre côté, s'il ne vous aide pas, il a honte . Cela l'oblige à vous aider réellement, en évitant votre colère et en rendant votre investissement initial intéressant. Vous en profitez tous les deux.
Ces trois émotions entretiennent donc un cercle d'aide réciproque. Empathie pour commencer, colère pour punir les transfuges et honte pour éviter la colère. Cela conduit également à un concept de justice.
Étant donné que l'alignement des valeurs est l'un des grands problèmes de l'AGI, les émotions de type humain me semblent être une bonne approche envers les IA qui partagent réellement nos valeurs et s'intègrent de manière transparente dans notre société.
la source