Une «intelligence générale» peut être capable d'apprendre beaucoup de choses différentes, mais posséder une capacité n'est pas synonyme de l'avoir. L '"AGI" doit apprendre ... et ce processus d'apprentissage peut prendre du temps. Si vous voulez qu'un AGI conduise une voiture ou joue au Go, vous devez trouver un moyen de "l'enseigner". Gardez à l'esprit que nous n'avons jamais construit d'AGI, nous ne savons donc pas combien de temps le processus de formation peut durer, mais il serait prudent de supposer des estimations pessimistes.
Comparez cela à une "intelligence étroite". L'IA étroite sait déjà conduire une voiture ou jouer au Go. Il a été programmé pour être très excellent dans une tâche spécifique. Vous n'avez pas à vous soucier de la formation de la machine, car elle a déjà été pré-formée.
Une «intelligence générale» semble être plus souple qu'une «intelligence étroite». Vous pouvez acheter un AGI et le faire conduire une voiture et jouer à Go. Et si vous êtes prêt à faire plus de formation, vous pouvez même lui apprendre une nouvelle astuce: comment faire un gâteau . Je n'ai pas à m'inquiéter des tâches inattendues à venir, car l'AGI finira par comprendre comment le faire, avec suffisamment de temps de formation. Je devrais cependant attendre longtemps .
Une «intelligence étroite» semble être plus efficace dans la tâche qui lui est assignée, car elle est programmée spécifiquement pour cette tâche. Il sait exactement quoi faire et n'a pas à perdre de temps à "apprendre" (contrairement à notre copain AGI ici). Au lieu d'acheter un AGI pour gérer mal un tas de tâches différentes, je préférerais acheter un tas d'IA étroites spécialisées. Narrow AI # 1 conduit des voitures, Narrow AI # 2 joue Go, Narrow AI # 3 cake cakes, etc. Ceci étant dit, c'est une approche très fragile, car si une tâche inattendue se présente, aucune de mes IA étroites ne serait capable pour le gérer. Je suis prêt à accepter ce risque.
Ma "pensée" est-elle correcte? Y a-t-il un compromis entre flexibilité (AGI) et efficacité (IA étroite), comme ce que je viens de décrire ci-dessus? Ou est-il théoriquement possible qu'une AGI soit à la fois flexible et efficace?
Réponses:
Le résultat le plus net que nous ayons sur cette question est le théorème du «déjeuner gratuit» . Fondamentalement, pour améliorer les performances d'un système dans une tâche spécifique, vous devez dégrader ses performances sur d'autres tâches, et il y a donc un compromis flexibilité-efficacité.
Mais à la question plus large, ou si votre pensée est correcte ou non, je pense que cela vaut la peine de regarder de plus près ce que vous entendez par «intelligence étroite». Les systèmes d'IA que nous avons qui jouent au Go et conduisent des voitures ne sont pas apparus capables de faire ces choses; ils ont lentement appris comment à travers de nombreux exemples de formation et une architecture bien choisie qui reflète le domaine problématique.
Autrement dit, les «réseaux de neurones» en tant que méthodologie semblent «généraux» d'une manière significative; on pourrait imaginer qu'une intelligence générale pourrait être formée en résolvant le problème du méta-apprentissage (c'est-à-dire apprendre l'architecture qui convient le mieux à un problème particulier tout en apprenant les poids pour ce problème à partir des données de formation).
Même dans ce cas, il y aura toujours un compromis flexibilité-efficacité; l'intelligence générale qui est autorisée à varier son architecture sera en mesure de résoudre de nombreux problèmes différents, mais il faudra un certain temps pour découvrir à quel problème il est confronté. Une intelligence enfermée dans une architecture particulière fonctionnera bien sur des problèmes pour lesquels l'architecture est bien adaptée (mieux que le général, car elle n'a pas besoin d'être découverte) mais moins bien sur d'autres problèmes pour lesquels elle n'est pas aussi bien adaptée.
la source
Comme Matthew Graves l'a expliqué dans une autre réponse, aucun théorème de déjeuner gratuit ne confirme la flexibilité - le compromis d'efficacité. Cependant, ce théorème décrit une situation où vous avez un ensemble de tâches complètement indépendantes. Cela ne tient souvent pas, car de nombreux problèmes différents sont équivalents dans leur cœur ou au moins ont un certain chevauchement. Ensuite, vous pouvez faire quelque chose appelé «transfert d'apprentissage», ce qui signifie qu'en vous entraînant à résoudre une tâche, vous apprenez également quelque chose sur la résolution d'une autre (ou éventuellement de plusieurs tâches différentes).
Par exemple, dans Policy Distillation de Rusu et al. ils ont réussi à "distiller" les connaissances de différents réseaux d'experts en un réseau général qui a finalement surpassé chacun des experts. Les experts ont été formés pour des tâches spécifiques tandis que le généraliste a appris la politique finale de ces "enseignants".
la source
Il semblerait que oui. Un exemple, bien que non spécifiquement lié à l'IA, est vu dans la différence entre les ordinateurs numériques et les ordinateurs analogiques . À peu près tout ce que nous considérons comme un "ordinateur" aujourd'hui est un ordinateur numérique avec une architecture von Neumann. Et c'est parce que les choses sont tellement polyvalentes qu'elles peuvent être facilement programmées pour faire, essentiellement, n'importe quoi. Mais les ordinateurs analogiques peuvent (ou pourraient, dans les années 60 ou à peu près) résoudre certains types de problèmes plus rapidement qu'un ordinateur numérique. Mais ils sont tombés en disgrâce précisément en raison de ce manque de flexibilité. Personne ne veut câbler à la main des circuits avec des amplificateurs opérationnels et des comparateurs à résoudre pour y .
la source