The Saturday Papers: AI AI Lie To You? est un article de blog résumant un document de recherche intitulé Toward Characters Who Observe, Tell, Misremember, and Lie . Ce document de recherche détaille les plans de certains chercheurs de mettre en œuvre des «modèles mentaux» pour les PNJ dans les jeux vidéo. Les PNJ collecteront des informations sur le monde et transmettront ces connaissances à d'autres personnes (y compris les joueurs humains). Cependant, ils vont aussi "se souvenir" de cette connaissance (soit "muter" cette connaissance ou simplement l'oublier), ou même mentir:
Lorsqu'un sujet de conversation est évoqué, un personnage peut transmettre de fausses informations - plus précisément, des informations auxquelles elle ne croit pas - à son interlocuteur. Actuellement, cela se produit de manière probabiliste en fonction de l'affinité d'un personnage envers l'interlocuteur, et la désinformation est choisie au hasard.
Plus tard dans le document de recherche, ils ont détaillé leurs plans futurs pour mentir:
Actuellement, les mensonges ne sont stockés que dans la connaissance des personnages qui les reçoivent, mais nous prévoyons d'avoir des personnages qui leur diront également de les suivre afin qu'ils puissent raisonner sur les mensonges passés lors de la construction des mensonges suivants. Bien que les personnages ne mentent actuellement que sur d'autres personnages, nous prévoyons également de mettre en œuvre le mensonge égocentrique (DePaulo 2004), par exemple, les personnages mentant sur leurs titres de fonction ou leurs relations avec d'autres personnages. Enfin, nous imaginons des personnages qui découvrent qu'ils ont menti à réviser leurs affinités avec les menteurs, voire à les affronter.
Le document de recherche a également détaillé comment d'autres développeurs de jeux vidéo ont tenté de créer des PNJ menteurs, en mettant l'accent sur la façon dont leur système diffère:
Les caractères TALE-SPIN peuvent se mentir les uns aux autres (Meehan 1976, 183-84), mais de façon plutôt arbitraire, comme dans notre implémentation actuelle du système. GOLEM implémente une variante du monde des blocs dans laquelle les agents trompent les autres pour atteindre leurs objectifs (Castelfranchi, Falcone et De Rosis 1998), tandis que Mouth of Truth utilise une représentation probabiliste de la croyance des personnages pour alimenter la tromperie des agents dans une variante du jeu d'imitation de Turing (De Rosis et al.2003). Dans Christian (2004), un planificateur de tromperie injecte un état mondial inexact dans les croyances d'un agent cible afin qu'elle puisse sans le savoir mener des actions qui remplissent les objectifs ultérieurs d'un agent trompeur. Enfin, les agents de l'extension de Reis (2012) à FAtiMA emploient plusieurs niveaux de théorie de l'esprit pour se tromper mutuellement dans le jeu de société Werewolf. Bien que tous les systèmes ci-dessus présentent des personnages qui perçoivent - et, dans certains cas, trompent - d'autres caractères, aucun ne semble prendre en charge les composants clés suivants de notre système: propagation des connaissances et faillibilité de la mémoire. ...
Comme quelques autres systèmes mentionnés ci-dessus, Dwarf Fortress propose également des personnages qui mentent de manière autonome. Lorsqu'un personnage commet un crime, il peut impliquer à tort quelqu'un d'autre dans un rapport de témoin à un shérif, pour se protéger ou même pour encadrer un ennemi. Ces rapports de témoins, cependant, ne sont visibles que par le joueur; les personnages ne se font pas de faux témoignages. Ils peuvent cependant mentir sur leurs opinions, par exemple, par crainte des répercussions de la critique d'un leader. Enfin, Dwarf Fortress ne modélise pas actuellement les problèmes de faillibilité de la mémoire - Adams craint que de tels phénomènes ne semblent provenir de bugs s'ils ne sont pas astucieusement exprimés au joueur.
Non.
En ce que la question inclut "sciemment" ce qui exigerait que toute IA sache quelque chose. Si cela ressemble à la façon dont les humains connaissent les choses (même si cela ne nécessite pas de savoir réellement les choses), cela nécessiterait un certain sens de l'individualité, probablement la conscience de soi, peut-être une sorte de conscience, la capacité de rendre une opinion et probablement un moyen de tester ses connaissances. La plupart de ces fonctionnalités n'existent, au mieux, sans doute.
De plus, le terme "mensonge" implique un sens de l'intérêt personnel, une compréhension indépendante du flux des ressources dans un sens théorique du jeu, et non trivialement, une compréhension de savoir si l'autre entité dans la conversation ment, afin de faire un décision avec un certain degré de précision. Ainsi, aucune IA ne peut mentir à quelqu'un d'autre que dans les scénarios triviaux suggérés dans les autres réponses, rendant de fausses informations basées sur certains contextes, ce qui n'est qu'une simple entrée / sortie.
En tant que développeur de logiciels expérimenté, je peux attester du fait que si l'objectif est de rendre la sortie correcte en fonction de n'importe quelle entrée, il est en fait au moins aussi facile, sinon beaucoup plus facile, de rendre de fausses informations.
la source
Oui.
Permettez-moi de démontrer en faisant une IA menteuse en ce moment. (code python)
Et trompeur:
AI est un terme si général. Il pourrait être utilisé pour décrire presque n'importe quoi. Vous n'avez pas précisé qu'il devait s'agir d'une IA générale.
L'IA ne peut pas penser. Ce sont des programmes informatiques. Ils n'ont ni âme ni volonté. Ce n'est que le programmeur (ou s'il a été conçu par l'évolution ... personne , mais c'est hors sujet) qui peut sciemment programmer une IA pour mentir.
Oui, c'est arrivé. Cela s'appelle un malware. Certains logiciels malveillants avancés vous parleront en prétendant être un support technique et répondront par des réponses humaines courantes. Mais vous pouvez dire «eh bien, ça ne« comprend »pas vraiment». Mais ce serait facile. Réseau neuronal + plus de CPU qu'il n'en existe sur la planète * (il existera dans quelques années et sera abordable) + quelques exemples de réponses = Neural Network AI (même chose dans yo noggin) qui comprend et répond.
Mais ce n'est pas nécessaire. Un réseau neuronal relativement `simple avec seulement quelques supercalculateurs pouvant tenir dans une pièce pourrait convaincre un humain. Ça ne comprend pas.
Donc c'est vraiment ...
Techniquement, non, mais c'est possible et si vous étirez les règles oui.
* Ou encore plus simple:
Accréditation: je suis un programmeur (regardez mon compte Stack Overflow) qui connaît un peu l'IA.
la source
Oui.
la source