Nous faisons des recherches et passons des heures à découvrir comment améliorer le fonctionnement des vrais logiciels d'IA (agents intelligents). Nous essayons également de mettre en œuvre certaines applications, par exemple dans les affaires, la santé et l'éducation, en utilisant la technologie de l'IA.
Néanmoins, jusqu'à présent, la plupart d'entre nous ont ignoré le côté "sombre" de l'intelligence artificielle. Par exemple, une personne "contraire à l'éthique" pourrait acheter des milliers de drones bon marché, les armer d'armes et les envoyer tirer sur le public. Ce serait une application "contraire à l'éthique" de l'IA.
Pourrait-il y avoir (à l'avenir) des menaces existentielles pour l'humanité dues à l'IA?
human-like
applications
cyberterrorism
quintumnia
la source
la source
Réponses:
Je définirais l'intelligence comme une capacité de prédire l'avenir. Donc, si quelqu'un est intelligent, il peut prédire certains aspects de l'avenir et décider quoi faire en fonction de ses prédictions. Donc, si une personne "intelligente" décide de blesser d'autres personnes, elle pourrait être très efficace à cet égard (par exemple Hitler et son personnel).
L'intelligence artificielle pourrait être extrêmement efficace pour prédire certains aspects d'un avenir incertain. Et cette IMHO conduit à deux scénarios négatifs:
Bien sûr, il existe également des scénarios positifs, mais vous ne vous posez pas de questions à leur sujet.
Je recommande de lire cet article sympa sur la superintelligence artificielle et les résultats possibles de sa création: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
la source
Il ne fait aucun doute que l'IA a le potentiel de représenter une menace existentielle pour l'humanité.
Une intelligence artificielle qui surpasse l'intelligence humaine sera capable d'augmenter de façon exponentielle sa propre intelligence, résultant en un système d'IA qui, pour les humains, sera complètement imparable.
À ce stade, si le système d'intelligence artificielle décide que l'humanité n'est plus utile, il pourrait nous essuyer de la surface de la terre.
Comme le dit Eliezer Yudkowsky dans l'intelligence artificielle en tant que facteur positif et négatif du risque global ,
"L'IA ne vous déteste pas, elle ne vous aime pas non plus, mais vous êtes fait d'atomes qu'elle peut utiliser pour autre chose."
Ici, il est utile de considérer l'expérience de pensée d'optimisation du trombone.
Une IA hautement intelligente chargée de maximiser la production de trombones peut prendre les mesures suivantes pour atteindre son objectif.
1) Réaliser une explosion d'intelligence pour se rendre superintelligent (cela augmentera l'efficacité d'optimisation des trombones)
2) Anéantir l'humanité afin qu'elle ne puisse pas être désactivée (cela minimiserait la production et serait inefficace)
3) Utilisez les ressources de la Terre (y compris la planète elle-même) pour construire des robots auto-reproducteurs hébergeant l'IA
4) Répartis de manière exponentielle dans l'univers, récoltant des planètes et des étoiles, les transformant en matériaux pour construire des usines de trombones
Cela illustre comment les systèmes d'intelligence artificielle superintelligents et hautement intelligents peuvent être le plus grand risque existentiel auquel l'humanité puisse être confrontée.
Murray Shanahan, dans The Technological Singularity , a même proposé que l'IA soit la solution au paradoxe de Fermi: la raison pour laquelle nous ne voyons pas de vie intelligente dans l'univers est peut-être qu'une fois qu'une civilisation deviendra suffisamment avancée, elle développera une IA qui finira par détruire il. Ceci est connu comme l'idée d'un filtre cosmique .
En conclusion, l'intelligence même qui rend l'IA si utile la rend également extrêmement dangereuse.
Des personnalités influentes comme Elon Musk et Stephen Hawking se sont dites préoccupées par le fait que l'IA superintelligente soit la plus grande menace à laquelle nous aurons jamais à faire face.
J'espère que cela répond à votre question :)
la source