De Wikipédia:
AIXI ['ai̯k͡siː] est un formalisme mathématique théorique pour l'intelligence générale artificielle. Il combine l'induction de Solomonoff avec la théorie de la décision séquentielle. AIXI a été proposé pour la première fois par Marcus Hutter en 2000 [1] et les résultats ci-dessous sont prouvés dans le livre de 2005 de Hutter Universal Artificial Intelligence. [2]
Bien que non calculables, des approximations sont possibles, comme AIXItl . Trouver des approximations d'AIXI pourrait être un moyen objectif de résoudre l'IA.
AIXI est-il vraiment un gros problème dans la recherche sur l'intelligence générale artificielle ? Peut-il être pensé comme un concept central du domaine? Si oui, pourquoi n'avons-nous pas plus de publications sur ce sujet (ou peut-être que nous en avons et je ne suis pas au courant)?
Oui, c'est une grande contribution théorique à AGI. AFAIK, c'est la tentative la plus sérieuse de construire un cadre théorique ou une fondation pour AGI. Des œuvres similaires sont les machines Gödel de Schmidhuber et l' architecture SOAR .
AIXI est un cadre abstrait et non anthropomorphe pour AGI qui s'appuie sur le champ d'apprentissage du renforcement, sans quelques hypothèses habituelles (par exemple, sans les hypothèses de Markov et d' ergodicité , ce qui garantit que l'agent peut facilement récupérer de toutes les erreurs qu'il a commises dans le passé). Même si certaines propriétés d'optimalité d'AIXI ont été prouvées, il est (Turing) non calculable (il ne peut pas être exécuté sur un ordinateur), et donc son utilité pratique est très limitée. Néanmoins, dans le livre de Hutter Universal Artificial Intelligence: Sequential Decisions based on Algorithmic Probability(2005), où plusieurs propriétés d'AIXI sont rigoureusement prouvées, une version calculable mais intraitable d'AIXI, AIXItl, est également décrite. De plus, dans l'article A Monte Carlo AIXI Approximation (2009), de Joel Veness et al., Une approximation calculable et traitable d'AIXI est introduite. Il y a donc eu quelques tentatives pour rendre AIXI pratiquement utile.
L'article Qu'est-ce que AIXI? - An Introduction to General Reinforcement Learning (2015), de Jan Leike, qui est l'un des contributeurs au développement et à l'évolution du framework AIXI, donne une introduction en douceur à l'agent AIXI. Voir également The AIXI Architecture at the Stanford Encyclopedia of Philosophy pour une introduction éventuellement plus douce à AIXI.
Oui, l'introduction d'AIXI et des recherches connexes a contribué à l'évolution du domaine AGI. Il y a eu plusieurs discussions et articles publiés, après son introduction en 2000 par Hutter dans l'article A Theory of Universal Artificial Intelligence based on Algorithmic Complexity .
Voir par exemple la section 7, «Exemples de superintelligences», de l'article Artificial General Intelligence and the Human Mental Model (2012), de Roman V. Yampolskiy et Joshua Fox. Voir aussi https://wiki.lesswrong.com/wiki/AIXI qui contient une discussion concernant quelques problèmes liés à AIXI, qui doivent être résolus ou éventuellement évités dans les futurs frameworks AGI. Voir aussi ceci et ces articles.
Il y a eu plusieurs publications, principalement par Marcus Hutter et des chercheurs associés. Vous pouvez voir les publications de Marcus Hutter sur la page Web suivante: http://www.hutter1.net/official/publ.htm .
Si vous souhaitez contribuer à cette théorie, il existe plusieurs façons. Si vous êtes bien éduqué en mathématiques, vous pouvez essayer de résoudre certains des problèmes décrits ici (qui sont également mentionnés dans le livre de Hutter 2005 mentionné ci-dessus). De plus, vous pouvez également contribuer à de nouvelles approximations ou à des améliorations des approximations existantes de l'agent AIXI. Enfin, vous pouvez créer votre nouveau framework AGI en évitant les problèmes associés au framework AIXI. Voir aussi les projets promus par Hutter . Il peut être judicieux de prendre également en compte, par exemple, Gödel Machines et les travaux connexes, avant d'essayer d'introduire un nouveau cadre (à condition que vous en soyez capable).
Je pense que cette théorie n'a pas attiré plus de gens probablement parce qu'elle est très technique et mathématique (donc elle n'est pas très facile à comprendre à moins d'avoir une formation très solide en apprentissage par renforcement, en théorie des probabilités, etc.). Je pense également que la plupart des gens (dans la communauté de l'IA) ne sont pas intéressés par les théories, mais ils sont principalement guidés par des résultats pratiques et utiles.
la source
AIXI est vraiment un cadre conceptuel. Tout le travail acharné de compression de l'environnement demeure.
Pour approfondir la question soulevée dans la réponse de Matthew Graves: étant donné notre niveau limité actuel de capacité à représenter des environnements complexes, il me semble que cela ne fait pas beaucoup de différence pratique que vous commenciez avec AIXI comme définissant le `` haut '' de le système et travailler vers le bas (par exemple via des méthodes de compression soi-disant généralisées) ou commencer par le `` bas '' et essayer de résoudre les problèmes dans un seul domaine via des méthodes spécifiques au domaine qui (vous l'espérez) peuvent ensuite être abstraites pour fournir une compression interdomaine.
la source