Imaginez-vous essayer de créer un environnement virtuel simulé qui est suffisamment compliqué pour créer une "IA générale" (que je définis comme une IA consciente de soi) mais qui est aussi simple que possible. À quoi ressemblerait cet environnement minimal?
c'est-à-dire qu'un environnement qui n'était qu'un jeu d'échecs serait trop simple. Un programme d'échecs ne peut pas être une IA générale.
Un environnement avec plusieurs agents jouant aux échecs et se communiquant leurs résultats. Est-ce que cela constituerait une IA générale? (Si vous pouvez dire qu'un grand maître d'échecs qui pense aux échecs toute la journée a une `` IA générale ''? Pendant son temps à penser aux échecs, est-il différent d'un ordinateur d'échecs?).
Qu'en est-il d'un monde simulé en 3D? Cela semble trop compliqué. Après tout, pourquoi une IA générale ne peut-elle pas exister dans un monde 2D.
Quel serait un exemple d'un environnement simple mais pas trop simple pour que la ou les IA puissent avoir conscience de soi?
Réponses:
Je pense que c'est l'une des meilleures questions liées à AGI que j'ai vues dans ce forum.
Je vais sauter toute thématique sur "qu'est-ce qu'un AGI", "jeu de simulation", ... Ces sujets ont été débattus pendant des décennies et aujourd'hui ils sont, à mon avis, une impasse.
Ainsi, je ne peux que répondre avec mon expérience personnelle:
C'est un théorème de base en informatique que n'importe quel nombre de dimensions, y compris temporelles, dans un espace de taille finie, peut être réduit à 1D.
Cependant, dans des exemples pratiques, la représentation 1D devient difficile à analyser et à visualiser. C'est un travail plus pratique avec des graphes, qui peut être vu comme un intermédiaire entre 1D et 2D. Les graphiques permettent de représenter tous les faits et relations nécessaires.
Par exemple, si nous essayons de développer un AGI capable de travailler dans le domaine des mathématiques, toute expression (que les humains nous écrivons dans une représentation 2D avec des rationnels, des indices, des intégrales, ...) peut être représentée comme 1D (comme une expression écrit dans une source de programme) mais ce 1D doit être analysé pour atteindre le graphique qui peut être analysé ou exécuté. Ainsi, le graphique qui résulte après l'analyse de l'expression est la représentation la plus pratique.
Un autre exemple, si nous voulons un agent qui voyage à travers un monde 3D, ce monde peut être vu comme un espace vide avec des objets qui ont des propriétés. Encore une fois, après la phase initiale d'analyse de scène et de reconnaissance d'objet (l'équivalent de l'analyseur dans l'exemple précédent), nous arrivons à un graphique.
Ainsi, pour vraiment travailler dans le domaine de l'AGI, je suggère d'ignorer les problèmes d'analyse de scène, de reconnaissance d'objet, de reconnaissance vocale (IA étroite) et de travailler directement sur les graphiques représentatifs.
la source
Je pense que la chose la plus importante est que le temps doit être simulé d'une manière ou d'une autre. Pensez au chatbot conscient de vous-même. Ensuite, pour être "conscient de soi", l'environnement pourrait être des données qui sont introduites dans le temps et qui peuvent être distinguées comme étant "soi" et "autre". Par cela, je suppose que je veux dire "soi" est la partie qu'il influence directement et "autre" est la partie qui est influencée indirectement ou pas du tout. En dehors de cela, il peut probablement vivre dans des environnements assez abstraits. La raison pour laquelle le temps est si important est que sans lui, l'algorithme cognitif ne fait que résoudre un problème mathématique.
la source
L'IA générale peut absolument exister dans un monde 2D, juste qu'une IA généralisée (définie ici comme «une force cohérente à travers un ensemble de problèmes») dans ce contexte serait encore tout à fait distincte d'une intelligence générale artificielle , définie comme «un algorithme qui peut effectuer toute tâche intellectuelle qu'un être humain peut ".
Même là, la définition de l'AGI est floue, car "quel humain?" (L'intelligence humaine est un spectre, où les individus possèdent différents degrés de capacité de résolution de problèmes dans différents contextes.)
Conscience artificielle : Malheureusement, la conscience de soi / conscience est un problème fortement métaphysique, distinct de la capacité de résolution de problèmes (intelligence).
Vous voulez certainement regarder la " salle chinoise " et les réfutations.
Il vaut probablement la peine d'examiner le principe holographique : "un concept en physique selon lequel un espace est considéré comme un hologramme de n-1 dimensions." Certes, les modèles et les jeux peuvent être structurés de cette manière.
Un autre endroit à explorer est les théories de l'émergence de la superintelligence sur l'infini Game of Life de Conway . (En un mot, ma compréhension est qu'une fois que les chercheurs ont trouvé comment générer un nombre quelconque dans les automates cellulaires, la possibilité d'une sensibilité émergente avec un plateau de jeu de taille suffisante est au moins théoriquement valable.)
la source
Jusqu'à présent, parmi les réponses, celle de @DukeZhou a été la plus provocatrice. Par exemple, la référence à la critique de la salle chinoise fait apparaître la thèse de Searle selon laquelle une certaine forme d'intentionnalité pourrait avoir besoin de soutien dans l'environnement artificiel. Cela pourrait impliquer la nécessité d'un système de valeurs ou d'un système douleur-plaisir, c'est-à-dire quelque chose où de bonnes conséquences peuvent être «ressenties» ou activement recherchées et de mauvaises conséquences évitées. Ou un certain potentiel d'extinction individuelle (décès ou résiliation) pourrait devoir être reconnu. La possibilité de la "mort de l'ego"peut avoir besoin d'avoir une valeur négative élevée. Cela pourrait impliquer qu'un monde artificiel devrait inclure «d'autres esprits» ou d'autres agents, que l'agent intelligent émergent ou apprenant pourrait observer (dans un certain sens) et «réfléchir», c'est-à-dire reconnaître une intelligence comme la sienne. En ce sens, le syllogisme cartésien "je pense donc je suis" se transmute en: je (ou plutôt moi en tant qu'IA) vois des preuves de la pensée des autres, et "par stupide," je "peux aussi". Ces «autres» pourraient être soit d'autres systèmes d'apprentissage (AGI), soit un certain contact avec des intrants discrets humains médiés par l'environnement artificiel. Discussion sur Wikipédia du "test de Turing inversé"
La mention de la dimensionnalité devrait provoquer une discussion sur ce que serait la profondeur de représentation requise d'une "physique" du monde externe à l'IA. Une certaine représentation du temps et de l'espace semble nécessaire, c'est-à-dire une sous-structure dimensionnelle pour progresser vers l'atteinte des objectifs. Le monde des blocs était l'un des premiers problèmes de jouets dont la solution a suscité l'optimisme dans les années 60 et 70 du siècle dernier, selon lequel des progrès substantiels étaient en cours. Je ne suis au courant d'aucun effort pour programmer une douleur ou un plaisir dans le programme SHRDLU de cette époque (pas de blocages sur les orteils du programme), mais toutes les représentations intéressantes de science-fiction des IA ont une certaine reconnaissance des conséquences néfastes "physiques" dans le monde réel".
Edit: je vais ajouter un besoin d '"entités avec des fonctionnalités" dans cet environnement qui pourraient être "perçues" (par l'un des "autres" qui interagissent avec l'AGI) comme entrée de données aux efforts d'induction, d'identification et l'inférence sur les relations. Cela crée une base pour une «expérience» partagée.
la source
Bien qu'une bonne réponse de @pasaba por aqui, je suis d'accord avec @zooby qu'un graphique pourrait être trop simpliste. Si les humains étaient dans un environnement où les options se noyaient ou prenaient 5000 mesures indépendantes pour construire un bateau, nous n'aurions jamais traversé de mers. Je pense que tout graphique, s'il est conçu à la main, ne serait pas assez complexe pour appeler l'agent interne en tant qu'IA générale. Le monde aurait besoin de suffisamment d'états intermédiaires pour qu'il ne soit plus décrit comme un graphique, mais au moins comme un espace multidimensionnel.
Je pense qu'il y a 2 points à considérer. Qu'est-ce qui est "simple" et quand le reconnaîtriez-vous comme une "IA générale"? Je ne trouve pas l'IA consciente de soi satisfaisante, car nous ne pouvons pas mesurer ce que l'on appelle la conscience; on ne voit que son état et son interaction avec l'environnement.
Pour 1. Je dirais que le monde dans lequel nous vivons est en fait assez simple. Il y a 4 forces de la nature, quelques lois de conservation et un tas de types de particules qui expliquent la plupart de tout. C'est juste qu'il y a beaucoup de ces particules et cela a conduit à un monde assez complexe. Bien sûr, cela coûte cher à simuler, mais nous pourrions prendre quelques raccourcis. Il y a 200 ans, les gens n'auraient pas besoin de toute la mécanique quantique pour expliquer le monde. Si nous remplacions les protons, les neutrons et la force forte par les atomes dans le tableau périodique, nous serions surtout bien. Le problème est que nous avons remplacé 3 lois plus générales par 100 instances spécifiques. Pour que l'environnement simulé soit suffisamment complexe, je pense que cette tendance doit se maintenir.
Ce qui m'amène à 2. Je pense que nous ne serions vraiment satisfaits que si l'agent exprime l'IA générale que lorsqu'il peut délibérément interagir avec l'environnement d'une manière qui nous dérouterait, tout en en bénéficiant clairement (donc pas accidentellement). Maintenant, cela pourrait être assez difficile ou prendre beaucoup de temps, donc une condition plus détendue serait de construire des outils que nous nous attendions à ce qu'il construise, montrant ainsi la maîtrise de son propre environnement. Par exemple, des preuves de bateaux ont été trouvées il y a entre 100 000 et 900 000 ans, ce qui correspond à peu près à la même échelle de temps lorsque les premiers humains se sont développés.. Cependant, bien que nous nous considérions comme intelligents, je ne suis pas sûr que nous considérions un agent de fabrication de bateaux comme ayant une intelligence générale, car cela semble être une invention assez simple. Mais je pense que nous serions satisfaits après quelques inventions de ce genre.
Je pense donc que nous aurions besoin d'un monde semblable à un Sim, c'est en fait beaucoup plus compliqué que le jeu. Avec des milliers de types d'éléments, de nombreuses instances de chaque élément et suffisamment de degrés de liberté pour interagir avec tout. Je pense aussi que nous avons besoin de quelque chose qui semble familier pour reconnaître tout agent comme intelligent. Ainsi, un monde en 3D, compliqué, semblable à un minecraft serait le monde le plus simple dans lequel nous reconnaîtrions l'émergence de l'intelligence générale.
la source
L '«intelligence générale artificielle» est quelque chose de différent d'un agent qui agit intelligemment dans un environnement. Parce que, selon la littérature, ces agents sont appelés «IA étroite». Un système AGI est l'environnement. Cela signifie que le dernier défi Micromouse est un système AGI qui a pour objectif de développer des systèmes AI étroits.
Développer une AGI équivaut à développer une compétition de robotique. Il est formalisé dans un livre de règles et agit comme un environnement pour apprendre, programmer des logiciels et discuter des résultats. Dans tous les cas, un système AGI est une compétition sociale, ce qui signifie qu'il est attrayant pour les équipes de participer à la compétition. AGI ne répond pas comment réaliser l'intelligence, c'est un test pour la mesurer. Les soi-disant cerveaux humains, l'architecture cognitive et les résolveurs de problèmes généraux n'ont pas été développés comme une IA étroite pour agir intelligemment, ils ont été développés comme un test de turing pour une machine qui est intelligente.
Comment mesurer avec un programme informatique si un autre programme informatique est intelligent? Une possibilité est la théorie de la simulation humaine. Cela signifie que nous testons si le programme informatique se comporte comme un humain, et le test de Turing a l'obligation de tester la mémoire à court terme, la mémoire à long terme et la capacité d'apprendre de nouvelles choses. Dans sa forme la plus simple, le test de turing peut être fait avec un formulaire simple qui doit être rempli par un humain, mais il est également possible de sortir l'humain de la boucle et d'utiliser un ordinateur pour tester l'intelligence d'un autre ordinateur . C'est le but, SOAR, OpenCog et AIXI a été développé.
la source