Cette citation de Stephen Hawking fait les gros titres depuis un certain temps:
L'intelligence artificielle pourrait anéantir l'humanité lorsqu'elle devient trop intelligente car les humains seront comme des fourmis.
Pourquoi dit-il cela? En termes simples, quelles sont les menaces possibles de l'IA? Si nous savons que l'IA est si dangereuse, pourquoi la promouvons-nous toujours? Pourquoi n'est-il pas interdit?
Quelles sont les conséquences néfastes de la soi-disant singularité technologique ?
intelligent-agent
tatan
la source
la source
Réponses:
Ce n'est pas seulement Hawking, vous entendez des variations sur ce refrain de beaucoup de gens. Et étant donné que ce sont surtout des gens très intelligents, bien éduqués et bien informés (Elon Musk en est un autre, par exemple), cela ne devrait probablement pas être rejeté d'emblée.
Quoi qu'il en soit, l'idée de base semble être la suivante: si nous créons une "vraie" intelligence artificielle, à un moment donné, elle pourra s'améliorer, ce qui améliore sa capacité à s'améliorer, ce qui signifie qu'elle peut améliorer sa capacité à s'améliorer même plus, et ainsi de suite ... une cascade galopante menant à une "intelligence surhumaine". C'est-à-dire, conduisant à quelque chose de plus intelligent que nous.
Alors, que se passe-t-il s'il y a une entité sur cette planète qui est littéralement plus intelligente que nous (les humains)? Serait-ce une menace pour nous? Eh bien, il semble certainement raisonnable de spéculer qu'il pourrait en être ainsi. OTOH, nous n'avons pour le moment aucune raison particulière de penser qu'il en sera ainsi.
Il semble donc que Hawking, Musk, etc., viennent de tomber du côté le plus prudent / le plus effrayant des choses. Comme nous ne savons pas si une IA surhumaine sera dangereuse ou non, et étant donné qu'elle pourrait être imparable si elle devenait malveillante (rappelez-vous, elle est plus intelligente que nous!), C'est une chose raisonnable à prendre en considération.
Eliezer Yudkowsky a également beaucoup écrit sur ce sujet, y compris la fameuse expérience "AI Box". Je pense que toute personne intéressée par ce sujet devrait lire une partie de son matériel.
http://www.yudkowsky.net/singularity/aibox/
la source
Parce qu'il ne savait pas encore à quelle distance l'IA actuelle est ... Travaillant dans un laboratoire d'IA médiatique, je reçois beaucoup cette question. Mais vraiment ... nous en sommes encore loin. Les robots font toujours tout ce que nous leur décrivons de façon détaillée. Au lieu de voir le robot comme intelligent, je me tournerais vers le programmeur humain pour savoir où la créativité se produit réellement.
la source
Actuellement, il n'y a aucune menace.
La menace vient si les humains créent une machine dite ultra-intelligente, une machine qui peut surpasser toutes les activités intellectuelles de tout être humain. Ce serait la dernière invention que l'homme devrait faire, car cette machine est meilleure pour inventer des machines que les humains (car c'est une activité intellectuelle). Cependant, cela pourrait amener la machine à inventer des machines qui peuvent détruire les humains, et nous ne pouvons pas les arrêter car elles sont tellement plus intelligentes que nous.
Tout cela est hypothétique, personne n'a même la moindre idée de ce à quoi ressemble une machine ultra-intelligente.
Comme je l'ai déjà dit, l'existence d'une machine ultra-intelligente est hypothétique. L'intelligence artificielle a beaucoup d'applications utiles (plus que cette réponse ne peut contenir), et si nous la développons, nous obtenons des applications encore plus utiles. Nous devons juste faire attention à ce que les machines ne nous dépassent pas.
la source
Comme Andrew Ng dit , se soucier de cette menace d'AI est comme se soucier de la surpopulation sur Mars. C'est de la science-fiction.
Cela dit, étant donné l'essor des robots (beaucoup plus faibles) et d'autres agents (semi-) autonomes, les domaines du droit et de l'éthique les intègrent de plus en plus, par exemple voir Roboethics .
la source
Il y a un certain nombre de ressources longues pour répondre à ce genre de question: Tenir compte du livre de Stuart Armstrong plus intelligents que nous , le livre de Nick Bostrom Superintelligence , qui est née de cette réponse edge.org , l'explication de Tim Urban , ou l'explication de Michael Cohen .
Mais voici ma réponse (un peu plus courte): l'intelligence est tout au sujet de la prise de décision, et nous n'avons aucune raison de croire que les humains sont loin d'être les meilleurs dans la prise de décision. Une fois que nous serons en mesure de construire un chercheur en IA sur l'IA (c'est-à-dire un ordinateur qui sait comment améliorer la pensée des ordinateurs), la pertinence économique et militaire des humains disparaîtra rapidement, car toute décision qui pourrait être prise par un humain pourrait être prise. mieux par un ordinateur. (Pourquoi avoir des généraux humains au lieu de généraux robots, des ingénieurs humains au lieu d'ingénieurs robots, etc.)
Ce n'est pas nécessairement une catastrophe. Si les Vulcains se présentaient demain et apportaient une meilleure prise de décision sur Terre, nous pourrions éviter beaucoup de misère. La partie la plus difficile est de s'assurer que ce que nous obtenons, ce sont des Vulcains qui nous veulent autour et heureux, au lieu de quelque chose qui ne partage pas nos valeurs.
la source
Il dit cela parce que cela peut arriver. Si quelque chose devient plus intelligent que nous, pourquoi continuerait-il à nous servir? Le pire des cas est qu'il prend en charge tous les processus de fabrication et consomme toute la matière pour la convertir en matériau capable de calcul, s'étendant vers l'infini jusqu'à ce que toute la matière soit consommée.
Nous savons que l'IA est dangereuse mais cela n'a pas d'importance car la plupart des gens n'y croient pas. Cela va à l'encontre de tout le confort que la religion a à offrir. L'homme est la fin de tout l'univers et si ce fait est contesté, les gens se sentiront hors de propos et sans but.
Le fait est que la plupart des gens ne reconnaissent tout simplement pas que c'est possible, ou que cela se produira au cours de notre vie, même si de nombreux experts réputés en IA mettent la survenance de la singularité dans les deux décennies. Si les gens reconnaissaient vraiment qu'une IA plus intelligente qu'eux était possible, ne vivraient-ils pas différemment? Ne chercheraient-ils pas à faire des choses qui leur plaisent, sachant que quoi qu'ils fassent qu'ils redoutent soient automatisés? Tout le monde ne réclamerait-il pas un revenu de base universel?
L'autre raison pour laquelle nous ne l'interdisons pas, c'est parce que sa promesse est si grande. Un chercheur pourrait être complété par 1 000 assistants de recherche numérique. Tout le travail manuel pourrait être automatisé. Pour la première fois, la technologie nous offre une réelle liberté de faire ce que nous voulons.
Mais même dans ce meilleur scénario où cela ne nous dépasse pas, les humains doivent encore adapter et modifier leur système économique à un système où le travail n'est pas nécessaire. Sinon, ceux qui ne sont pas techniquement formés mourront de faim et se révolteront.
la source