Nous entendons souvent dire que l'intelligence artificielle peut nuire à l'homme, voire même le tuer, ce qui peut le rendre dangereux.
Comment l'intelligence artificielle pourrait-elle nous nuire?
philosophy
social
neo-luddism
Manak
la source
la source
Réponses:
tl; dr
Les personnes peuvent craindre (ou plutôt se préoccuper de l' IA) pour de nombreuses raisons valables. Elles n'impliquent pas toutes des robots et des scénarios apocalyptiques.
Pour mieux illustrer ces préoccupations, je vais essayer de les diviser en trois catégories.
IA consciente
C'est le type d'IA auquel votre question fait référence. Une IA consciente super intelligente qui va détruire / asservir l’humanité. Cela nous est principalement apporté par la science-fiction. Quelques exemples notables à Hollywood sont "The Terminator" , "The Matrix" , "Age of Ultron" . Les romans les plus influents ont été écrits par Isaac Asimov et sont appelés la "série Robot" (qui comprend "I, robot" , qui a également été adapté en tant que film).
Le principe de base de la plupart de ces travaux est que l'intelligence artificielle évoluera à un point où elle deviendra consciente et surpassera les humains en intelligence. Alors que les films hollywoodiens se concentrent principalement sur les robots et la bataille qui les oppose aux humains, l’accent n’est pas mis sur l’intelligence artificielle (c’est-à-dire le "cerveau" qui les contrôle). En remarque, à cause du récit, cette IA est généralement décrite comme un superordinateur contrôlant tout (afin que les protagonistes aient une cible spécifique). L'exploration de "l'intelligence ambiguë" (que je pense plus réaliste) n'a pas été suffisamment explorée.
Dans le monde réel, l'IA se concentre sur la résolution de tâches spécifiques! Un agent IA capable de résoudre des problèmes de différents domaines (par exemple comprendre la parole, traiter des images, conduire et ... comme les humains) est appelé "intelligence artificielle générale" et est nécessaire pour que l'IA puisse "penser" et devenir conscient.
De manière réaliste, nous sommes très loin de l'intelligence artificielle générale! Cela étant dit, rien ne prouve pourquoi cela ne peut être réalisé à l'avenir. Donc, actuellement, même si nous sommes encore dans l'enfance de l'intelligence artificielle, nous n'avons aucune raison de croire que l'intelligence artificielle n'évolue pas à un point où elle est plus intelligente que l'homme.
Utiliser l'IA avec une intention malveillante
Même si une IA conquérant le monde est loin d'être arrivée, il y a plusieurs raisons de se préoccuper de l'IA aujourd'hui , cela n'implique pas de robots! La deuxième catégorie sur laquelle je veux me concentrer un peu plus concerne plusieurs utilisations malveillantes de l'IA d'aujourd'hui.
Je vais me concentrer uniquement sur les applications d'intelligence artificielle disponibles aujourd'hui . Quelques exemples d'IA pouvant être utilisés à des fins malveillantes:
DeepFake : une technique pour imposer à quelqu'un le visage d'une image, la vidéo d'une autre personne. Cela a récemment gagné en popularité avec le porno de célébrités et peut être utilisé pour générer de fausses nouvelles et des canulars. Sources: 1 , 2 , 3
Grâce à l'utilisation de systèmes de surveillance de masse et d' un logiciel de reconnaissance faciale capable de reconnaître des millions de visages par seconde , l'IA peut être utilisée pour la surveillance de masse. Même si nous pensons à la surveillance de masse en Chine, de nombreuses villes occidentales telles que Londres , Atlanta et Berlin font partie des villes les plus surveillées au monde . La Chine a franchi une étape supplémentaire en adoptant le système de crédit social , un système d'évaluation des civils qui semble sortir directement des pages de 1984 de George Orwell.
Influencer les gens via les médias sociaux . En plus de reconnaître les goûts des utilisateurs dans le but de marketing ciblé et d’ajout de placements (une pratique courante dans de nombreuses entreprises Internet), l’intelligence artificielle peut être utilisée de manière malveillante pour influencer le vote des utilisateurs (entre autres choses). Sources: 1 , 2 , 3 .
Piratage .
Applications militaires, par exemple attaques de drones, systèmes de ciblage de missiles.
Effets indésirables de l'IA
Cette catégorie est assez subjective, mais le développement de l'IA pourrait avoir des effets secondaires indésirables. La distinction entre cette catégorie et la précédente est que ces effets, bien que dommageables, ne sont pas intentionnels; ils se produisent plutôt avec le développement de l'IA. Certains exemples sont:
Les emplois deviennent redondants . À mesure que l'IA s'améliorera, de nombreux emplois seront remplacés par l'IA. Malheureusement, peu de choses peuvent être faites à ce sujet, car la plupart des développements technologiques ont cet effet secondaire (par exemple, les machines agricoles ont causé la perte de nombreux agriculteurs, l'automatisation a remplacé de nombreux ouvriers d'usine, les ordinateurs ont fait de même).
Renforcer le biais dans nos données . C'est une catégorie très intéressante, car l'IA (et en particulier les réseaux de neurones) ne vaut que par les données sur lesquelles elle est formée et a tendance à perpétuer, voire à renforcer, différentes formes de biais sociaux, déjà présents dans les données. Il existe de nombreux exemples de réseaux affichant des comportements racistes et sexistes. Sources: 1 , 2 , 3 , 4 .
la source
Court terme
Ai-je mentionné que tout cela bat déjà son plein?
Long terme
Bien qu'il n'y ait pas de frontière claire entre AI et AGI, cette section traite davantage de ce qui se passe lorsque nous allons plus loin vers AGI. Je vois deux alternatives:
Dans le premier cas, si une IA "devient fausse", nous pouvons en créer d'autres pour la déjouer et la neutraliser. Dans le second cas, nous ne pouvons pas et nous sommes condamnés. Les IA seront une nouvelle forme de vie et nous pourrions nous éteindre.
Voici quelques problèmes potentiels:
Je pense qu'AGI arrive et nous devons être conscients de ces problèmes afin de pouvoir les minimiser.
la source
En plus des autres réponses, j'aimerais ajouter à l'exemple de la fabrique de biscuits nuking:
Les IA apprenantes en machine essaient fondamentalement d'atteindre un objectif décrit par les humains. Par exemple, les humains créent une IA exécutant une fabrique de cookies. L'objectif qu'ils mettent en œuvre est de vendre autant de cookies que possible pour obtenir la marge bénéficiaire la plus élevée.
Imaginons maintenant une IA suffisamment puissante. L'intelligence artificielle remarquera que s'il détruit toutes les autres usines de fabrication de biscuits, tout le monde doit acheter des biscuits dans son usine, ce qui augmente les ventes et les bénéfices.
Donc, l'erreur humaine ici ne donne aucune pénalité pour l'utilisation de la violence dans l'algorithme. Ceci est facilement négligé parce que les humains ne s'attendaient pas à ce que l'algorithme parvienne à cette conclusion.
la source
Mon scénario favori pour les dommages causés par l'IA implique non pas une intelligence élevée, mais une intelligence faible. Plus précisément, l' hypothèse de la goo grise .
C’est là qu’un processus automatisé qui se réplique de lui-même s’écroule et convertit toutes les ressources en copies.
Le point ici est que l'IA n'est pas "intelligente" dans le sens où elle possède une intelligence élevée ou une intelligence générale - elle est simplement très bonne à une seule chose et a la capacité de se répliquer de manière exponentielle.
la source
Je dirais que la plus grande menace réelle serait le déséquilibre / perturbation que nous constatons déjà. Les changements consistant à mettre 90% du pays au chômage sont réels, et les résultats (avec une distribution encore plus inégale de la richesse) sont terrifiants si vous les réfléchissez.
la source
J'ai un exemple qui va un peu dans le sens opposé aux craintes du public, mais c'est une chose très réelle, que je vois déjà se produire. Ce n'est pas spécifique à l'IA, mais je pense que cela va empirer avec l'IA. C'est le problème des humains qui font aveuglément confiance aux conclusions de l'IA dans des applications critiques.
Nous avons de nombreux domaines dans lesquels des experts humains sont supposés prendre une décision. Prenons par exemple un médicament - devrions-nous donner le médicament X ou le médicament Y? Les situations auxquelles je pense sont souvent des problèmes complexes (au sens de Cynefin) dans lesquels il est très utile que quelqu'un fasse très attention et utilise beaucoup d'expertise, et que le résultat compte vraiment.
Les informaticiens médicaux ont besoin d'écrire des systèmes d'aide à la décision pour ce type de problème dans le médicament (et je suppose pour le même type dans d'autres domaines). Ils font de leur mieux, mais on s'attend toujours à ce qu'un expert humain tienne toujours compte de la suggestion du système comme d'une opinion supplémentaire lorsqu'il prend une décision. Dans de nombreux cas, il serait irresponsable de promettre autre chose, compte tenu de l'état des connaissances et des ressources à la disposition des développeurs. Un exemple typique serait l'utilisation de la vision par ordinateur en radiomique: un patient subit un scanner et l'IA doit traiter l'image et décider si le patient a une tumeur.
Bien sûr, l'IA n'est pas parfaite. Même comparé à l'étalon-or, il n'atteint jamais une précision de 100%. Et puis il y a tous les cas où il fonctionne bien par rapport à ses propres métriques d'objectif, mais le problème était si complexe que la métrique d'objectif ne le rend pas bien - je ne peux pas penser à un exemple dans le contexte du TC, mais j'imagine nous le voyons même ici sur SE, où les algorithmes favorisent la popularité dans les publications, ce qui est un proxy imparfait pour la correction factuelle.
Vous étiez probablement en train de lire ce dernier paragraphe et de hocher la tête: "Oui, j'ai appris cela dans le premier cours d'introduction au ML que j'ai suivi". Devine quoi? Les médecins n'ont jamais suivi de cours d'initiation au niveau supérieur. Ils ont rarement suffisamment de connaissances statistiques pour comprendre les conclusions des articles publiés dans des revues médicales. Quand ils discutent avec leur 27e patient, ils ont faim pendant 7 heures et ils sont épuisés émotionnellement. Prenez dix minutes de plus pour vous concentrer davantage sur l'image, ou cherchez un manuel ou consultez un collègue. Ils vont juste avec ce que dit l'ordinateur, reconnaissant que leur charge cognitive ne monte pas encore en flèche. Ainsi, ils ne sont plus des experts mais des personnes qui lisent quelque chose sur un écran. Pire, dans certains hôpitaux, l’administration ne fait pas seulement confiance aux ordinateurs, elle a également découvert qu’ils sont des boucs émissaires commodes. Ainsi, un médecin a un mauvais pressentiment qui va à l'encontre de la sortie de l'ordinateur, il devient difficile pour eux d'agir et de se défendre s'ils ont choisi de passer outre l'opinion de l'IA.
Les IA sont des outils puissants et utiles, mais il y aura toujours des tâches pour lesquelles ils ne pourront pas remplacer le toolwielder.
la source
Cela ne sert qu'à compléter d'autres réponses, aussi je ne discuterai pas de la possibilité pour Amnesty International d'essayer d'asservir volontairement l'humanité.
Mais un risque différent est déjà là. Je l'appellerais une technologie non maîtrisée . On m'a enseigné la science et la technologie, et à mon humble avis, l'IA n'a en soi aucune notion du bien et du mal, ni de la liberté. Mais il est construit et utilisé par des êtres humains et, à cause de cela, un comportement non rationnel peut être impliqué.
Je commencerais par un exemple concret plus lié à l'informatique générale qu'à l'IA. Je vais parler de virus ou d'autres malwares. Les ordinateurs sont plutôt stupides et permettent de traiter rapidement des données. Donc, la plupart des gens comptent sur eux. Certaines personnes (mauvaises) développent des malwares qui perturberont le comportement correct des ordinateurs. Et nous savons tous qu'ils peuvent avoir des effets terribles sur les petites et moyennes entreprises qui ne sont pas bien préparées à une perte informatique.
L'intelligence artificielle est basée sur l'ordinateur, donc vulnérable aux attaques informatiques. Ici, mon exemple serait une voiture conduite par l'IA. La technologie est presque prête à fonctionner. Mais imaginez l’effet d’un malware qui fait que la voiture tente d’attaquer d’autres personnes sur la route. Même sans accès direct au code de l'IA, il peut être attaqué par des canaux secondaires . Par exemple, il utilise des caméras pour lire les panneaux de signalisation. Mais en raison de la manière dont l’apprentissage automatique est mis en œuvre, l’intelligence artificielle n’analyse généralement pas une scène de la même manière que l’être humain. Des chercheurs ont montré qu'il était possible de changer un signe de manière à ce qu'un humain normal puisse toujours voir le signe d'origine, mais un IA en verrait un autre. Imaginez maintenant que le panneau est le panneau prioritaire sur la route ...
Ce que je veux dire, c'est que même si l'IA n'a pas d'intention perverse, les méchants peuvent essayer de la faire se comporter mal. Et aux actions plus importantes seront déléguées à l'IA (médecine, voitures, avions, ne pas parler de bombes) plus le risque est élevé. Autrement dit, je ne crains pas vraiment l'IA pour elle-même, mais pour la façon dont elle peut être utilisée par des humains.
la source
Je pense que l’un des risques les plus réels (c’est-à-dire liés aux IA actuels) est de s’en remettre aveuglément à des IA non supervisés, et ce pour deux raisons.
1. Les systèmes d'IA peuvent se dégrader
Une erreur physique dans les systèmes d'IA peut commencer à produire des résultats extrêmement erronés dans des régions dans lesquelles ils n'ont pas été testés, car le système physique commence à fournir des valeurs incorrectes. Cette procédure est parfois utilisée par des tests automatiques et par la redondance, mais nécessite toujours une supervision humaine occasionnelle.
Les IA autodidactes ont également une faiblesse logicielle - leurs réseaux de poids ou leurs représentations statistiques peuvent approcher des minima locaux lorsqu'ils sont coincés avec un seul résultat erroné.
2. Les systèmes d'IA sont biaisés
Cela fait heureusement souvent l'objet de discussions, mais il convient de le mentionner: la classification des intrants par les systèmes d'IA est souvent biaisée, car l'ensemble de données formation / tests était également biaisé. Cela a pour résultat que les AI ne reconnaissent pas les personnes de certaines ethnies, par exemple. Cependant, il existe des cas moins évidents qui ne peuvent être découverts qu'après un accident grave, tel que l'IA ne reconnaissant pas certaines données et le déclenchement accidentel d'incendies dans une usine, de bris d'équipement ou de blessures.
la source
Si un robot est similaire à une interface homme-machine, l'appareil est identique à celui d'une voiture télécommandée. Il est possible de discuter avec l'opérateur derrière le joystick et de négocier un comportement pieux. Les robots télécommandés sont des inventions sûres car leurs actions peuvent être retracées jusqu'à l'homme et leur motivation peut être anticipée. Ils peuvent être utilisés pour améliorer la vie quotidienne, et c'est amusant de jouer avec eux.
En revanche, certains robots ne sont pas contrôlés par des manettes de jeu, mais fonctionnent avec un générateur de dés interne. Le jouet de dés est connu pour son rôle social dans le jeu mais il a aussi une signification mystique. Généralement, un générateur aléatoire est fortement lié à un comportement chaotique qui est contrôlé par des forces obscures en dehors de l'influence de l'homme. Un dé électronique intégré dans un robot et amélioré par un algorithme d'apprentissage est l'opposé d'une interface homme-machine, mais il est potentiellement perturbateur car le robot à commande aléatoire jouera à des jeux avec des humains imprévisibles. Il n'est pas possible de prédire le nombre de dés suivant, le robot se comportera donc de manière abrupte.
Le lien entre les jeux contrôlés au hasard et l'impact social négatif a été expliqué dans la phrase suivante.
la source
Les êtres humains existent actuellement dans une niche écologique et économique de "la chose qui pense".
L'intelligence artificielle est aussi une chose qui pense, elle envahira donc notre niche écologique-économique. En écologie et en économie, le fait d’avoir autre chose à occuper votre niche n’est pas un bon plan pour la survie.
Comment exactement cela compromettra-t-il la survie de l'homme? Il y aura de nombreuses manières plausibles que l'IA puisse mettre en danger la survie humaine en tant qu'espèce ou même en tant que forme de vie dominante.
Supposons qu'il existe une IA forte sans "super éthique" qui coûte moins cher à fabriquer qu'un humain (y compris la fabrication d'un "corps" ou une manière de manipuler le monde), et aussi intelligente ou plus intelligente qu'un humain.
C'est un cas où nous commençons à concurrencer l'IA pour obtenir des ressources. Cela se produira à des échelles microéconomiques (engageons-nous un humain ou achetons-nous / construisons-nous / louons-nous un AI pour résoudre ce problème?). En fonction du rythme auquel les IA deviennent moins chers et / ou plus intelligents que les autres, cela peut être lent (peut-être une industrie à la fois) ou extrêmement rapide.
Dans une compétition capitaliste, ceux qui ne se tournent pas vers les IA les moins chères finissent par se faire concurrence.
Maintenant, à court terme, si les avantages de l'intelligence artificielle ne sont que marginaux, le coût élevé de l'éducation des humains pendant une vingtaine d'années avant qu'ils ne deviennent productifs pourrait ralentir ce processus. Dans ce cas, il vaut peut-être la peine de payer un médecin au-dessus du salaire de famine pour diagnostiquer une maladie plutôt qu'un AI, mais cela ne vaut probablement pas la peine de rembourser son prêt étudiant. Ainsi, les nouveaux médecins humains cesseraient rapidement d'être formés et les médecins existants seraient appauvris. Plus de 20 à 30 ans plus tard, l'IA remplacerait complètement les médecins à des fins de diagnostic.
Si les avantages de l'IA sont importants, ce serait rapide. Les médecins ne mériteraient même pas de payer des salaires de pauvreté pour effectuer des diagnostics humains. Vous pouvez voir quelque chose comme cela se produire avec l'agriculture basée sur le muscle lorsque l'agriculture basée sur l'essence a pris le relais.
Au cours des révolutions industrielles passées, le fait que les hommes soient capables de penser signifie que vous pouvez réaffecter des travailleurs humains excédentaires à d'autres actions; lignes de fabrication, emplois dans l’économie de services, programmation informatique, etc. Mais dans ce modèle, l’IA est moins chère à former et à construire et aussi intelligente ou plus intelligente que l’être humain dans ce type de travail.
Comme en témoigne le printemps arabe induit par l'éthanol, les cultures et les terres cultivables peuvent être utilisés pour alimenter à la fois les machines et les humains. Lorsque les machines sont plus efficaces pour transformer les terres en culture en travaux utiles, vous commencez à voir le prix de la nourriture grimper. Cela mène généralement à des émeutes, car les gens n'aiment vraiment pas mourir de faim et sont prêts à risquer leur vie pour renverser le gouvernement afin d'empêcher cela.
Vous pouvez apaiser la population en fournissant des aliments subventionnés, etc. Tant que cela n’est pas économiquement invalidant (c’est-à-dire que si cela coûte assez cher, vous risquez de vous faire concurrence par d’autres endroits qui ne le font pas), c’est simplement politiquement instable.
Comme alternative, à court terme, la caste de propriétaires qui tire des profits de l’économie de plus en plus efficace dirigée par l’IA peut payer une caste policière ou militaire pour réprimer ces émeutes. Cela nécessite que les castes de la police et de l'armée soient de niveau de vie inférieur à moyen, afin de maintenir la loyauté - vous ne voulez pas qu'elles rejoignent les émeutiers.
L'un des centres de profit vers lequel vous pouvez placer l'IA est l'armée et la police basées sur l'IA. Les drones qui livrent des engins meurtriers et non létaux basés sur le traitement de sources de données visuelles et autres peuvent réduire le nombre de policiers / militaires de la classe moyenne nécessaires pour endiguer les émeutes déclenchées par le prix des denrées alimentaires ou toute autre instabilité. Comme nous l'avons déjà supposé, les IA peuvent avoir des corps et un entraînement moins coûteux qu'un humain biologique, ce qui peut également augmenter la force que vous pouvez déployer par dollar dépensé.
À ce stade, nous parlons d'une police et de l'armée dirigées principalement par l'IA qui sont utilisées pour empêcher les humains affamés de renverser l'économie dirigée par l'IA et de s'emparer des moyens de production de son utilisation plus efficace.
Les humains restés qui "possèdent" le système au sommet prennent des décisions localement rationnelles pour optimiser leur richesse et leur pouvoir. Ils peuvent ou non persister longtemps; tant qu'ils ne consomment qu'une quantité relativement faible de ressources et ne perturbent pas l'économie dirigée par l'IA, il n'y aura pas beaucoup de pression de sélection pour les éliminer. D'autre part, comme ils ne contribuent rien de valeur, ils se positionnent «au sommet» comme politiquement instable.
Ce processus supposait une "forte" IA générale. Les IA plus étroits peuvent le réduire en morceaux. Un ordinateur de diagnostic peu coûteux et efficace pourrait, par exemple, réduire la plupart des médecins à la pauvreté en une période étonnamment courte. Les voitures autonomes pourraient absorber 5% à 10% de l'économie. Les technologies de l’information avalent déjà le secteur de la vente au détail avec une IA modeste.
On dit que chaque progrès technologique conduit à des emplois plus nombreux et de meilleure qualité pour les humains. Et cela est vrai depuis plus de 300 ans.
Mais avant 1900, il était également vrai que chaque progrès technologique conduisait à des emplois plus nombreux et de meilleure qualité pour les chevaux. Puis la voiture et la glace sont arrivées et il y a maintenant beaucoup moins de chevaux de trait. les chevaux restants sont fondamentalement l'équivalent de serviteurs personnels humains: réservés à la nouveauté de "wow, cool, cheval" et au plaisir de monter et de contrôler un énorme animal.
la source
Outre les nombreuses réponses déjà fournies, je voudrais aborder la question des exemples contradictoires dans le domaine des modèles d’image.
Les exemples contradictoires sont des images qui ont été perturbées par un bruit spécialement conçu qui est souvent imperceptible pour un observateur humain, mais qui modifie fortement la prédiction d'un modèle.
Les exemples comprennent:
Affectant le diagnostic prévu dans une radiographie pulmonaire
Affectant la détection des panneaux de signalisation nécessaires pour les véhicules autonomes.
la source
L'intelligence artificielle utilisée pour résoudre un problème réel peut poser un risque pour l'humanité et ne nécessite pas exactement de sensibilité, mais également un degré de stupidité humaine.
Contrairement à l'homme, l'IA trouverait la réponse la plus logique sans la contrainte de l'émotion, de l'éthique ou même de la cupidité ... Seule la logique. Demandez à cette IA comment résoudre un problème créé par les humains (par exemple, le changement climatique). La solution pourrait consister à éliminer la totalité de la race humaine pour protéger la planète. Évidemment, cela nécessiterait de donner à l'IA la capacité d'agir sur son résultat, ce qui m'amène à mon point précédent, la stupidité humaine.
la source
L'intelligence artificielle peut nous nuire de n'importe quelle façon de l'intelligence naturelle (de l'homme). La distinction entre intelligence naturelle et intelligence artificielle disparaîtra lorsque les humains commenceront à s'augmenter plus intimement. L'intelligence peut ne plus caractériser l'identité et deviendra une possession illimitée. Les dommages causés seront tout autant que les êtres humains peuvent subir pour préserver leur identité en évolution.
la source
Peu de gens réalisent que notre économie mondiale devrait être considérée comme une IA: - Les transactions monétaires sont les signaux transmis par un réseau neuronal. Les nœuds du réseau neuronal seraient les différentes sociétés ou personnes privées payant ou recevant de l'argent. - Il est fabriqué par l'homme, donc qualifie d'artificiel
Ce réseau de neurones est donc meilleur que l’humain: le capitalisme a toujours vaincu l’économie planifiée par l’homme (économie planifiée).
Ce réseau de neurones est-il dangereux? Peut différer si vous êtes le PDG gagnant gros par rapport à un pêcheur dans une rivière polluée par les déchets de l'entreprise.
Comment cette IA est-elle devenue dangereuse? Vous pouvez répondre que c'est à cause de la cupidité humaine. Notre création se reflète. En d'autres termes: nous n'avons pas entraîné notre réseau neuronal à bien se comporter. Au lieu d’entraîner le réseau neuronal à améliorer la qualité de vie de tous les humains, nous l’avons formé à enrichir les fokes riches.
Serait-il facile de former cette IA pour qu’elle ne soit plus dangereuse? Peut-être que non, peut-être que certaines IA sont plus grandes que la vie. C'est juste la survie du plus apte.
la source