Comment l'intelligence artificielle pourrait-elle nous nuire?

51

Nous entendons souvent dire que l'intelligence artificielle peut nuire à l'homme, voire même le tuer, ce qui peut le rendre dangereux.

Comment l'intelligence artificielle pourrait-elle nous nuire?

Manak
la source
6
C'est un peu large, car de nombreuses raisons et scénarios suggèrent que l'IA pourrait devenir dangereuse. Par exemple, comme DuttaA le suggère ci-dessus, les humains peuvent concevoir des systèmes d’armes intelligents qui décident quoi cibler, ce qui est un réel problème car il est déjà possible d’utiliser une intelligence artificielle étroite. Peut-être que vous donnerez plus de contexte aux peurs spécifiques que vous souhaitez comprendre, en citant ou en reliant une préoccupation spécifique que vous avez lue (veuillez utiliser edit ).
Neil Slater
4
@NeilSlater Oui, c'est peut-être trop large, mais je pense que cette réponse ai.stackexchange.com/a/15462/2444 fournit quelques raisons plausibles. J'ai modifié la question pour supprimer l'hypothèse éventuellement erronée.
Nbro
2
Cette question concerne-t-elle spécifiquement la "superintelligence" ou l'IA en général? (Par exemple, en cas de superintelligence hypothétique, alors le " problème de contrôle " hypothétique est un problème. Cependant, les systèmes d'armes automatisés contemporains ne seront pas superintelligents, ni les véhicules autonomes, ni ceux qui peuvent nuire à l'homme.)
DukeZhou
@DukeZhou Le PO ne mentionnait pas explicitement à l'origine la surintelligence, mais je suppose qu'il faisait référence à tout ce qui peut être considéré comme une IA, y compris un SI.
Nbro
3
Demandez d’abord comment l’intelligence normale peut-elle vous nuire? La réponse est alors la même.
J ...

Réponses:

47

tl; dr

Les personnes peuvent craindre (ou plutôt se préoccuper de l' IA) pour de nombreuses raisons valables. Elles n'impliquent pas toutes des robots et des scénarios apocalyptiques.

Pour mieux illustrer ces préoccupations, je vais essayer de les diviser en trois catégories.

IA consciente

C'est le type d'IA auquel votre question fait référence. Une IA consciente super intelligente qui va détruire / asservir l’humanité. Cela nous est principalement apporté par la science-fiction. Quelques exemples notables à Hollywood sont "The Terminator" , "The Matrix" , "Age of Ultron" . Les romans les plus influents ont été écrits par Isaac Asimov et sont appelés la "série Robot" (qui comprend "I, robot" , qui a également été adapté en tant que film).

Le principe de base de la plupart de ces travaux est que l'intelligence artificielle évoluera à un point où elle deviendra consciente et surpassera les humains en intelligence. Alors que les films hollywoodiens se concentrent principalement sur les robots et la bataille qui les oppose aux humains, l’accent n’est pas mis sur l’intelligence artificielle (c’est-à-dire le "cerveau" qui les contrôle). En remarque, à cause du récit, cette IA est généralement décrite comme un superordinateur contrôlant tout (afin que les protagonistes aient une cible spécifique). L'exploration de "l'intelligence ambiguë" (que je pense plus réaliste) n'a pas été suffisamment explorée.

Dans le monde réel, l'IA se concentre sur la résolution de tâches spécifiques! Un agent IA capable de résoudre des problèmes de différents domaines (par exemple comprendre la parole, traiter des images, conduire et ... comme les humains) est appelé "intelligence artificielle générale" et est nécessaire pour que l'IA puisse "penser" et devenir conscient.

De manière réaliste, nous sommes très loin de l'intelligence artificielle générale! Cela étant dit, rien ne prouve pourquoi cela ne peut être réalisé à l'avenir. Donc, actuellement, même si nous sommes encore dans l'enfance de l'intelligence artificielle, nous n'avons aucune raison de croire que l'intelligence artificielle n'évolue pas à un point où elle est plus intelligente que l'homme.

Utiliser l'IA avec une intention malveillante

Même si une IA conquérant le monde est loin d'être arrivée, il y a plusieurs raisons de se préoccuper de l'IA aujourd'hui , cela n'implique pas de robots! La deuxième catégorie sur laquelle je veux me concentrer un peu plus concerne plusieurs utilisations malveillantes de l'IA d'aujourd'hui.

Je vais me concentrer uniquement sur les applications d'intelligence artificielle disponibles aujourd'hui . Quelques exemples d'IA pouvant être utilisés à des fins malveillantes:

  • DeepFake : une technique pour imposer à quelqu'un le visage d'une image, la vidéo d'une autre personne. Cela a récemment gagné en popularité avec le porno de célébrités et peut être utilisé pour générer de fausses nouvelles et des canulars. Sources: 1 , 2 , 3

  • Grâce à l'utilisation de systèmes de surveillance de masse et d' un logiciel de reconnaissance faciale capable de reconnaître des millions de visages par seconde , l'IA peut être utilisée pour la surveillance de masse. Même si nous pensons à la surveillance de masse en Chine, de nombreuses villes occidentales telles que Londres , Atlanta et Berlin font partie des villes les plus surveillées au monde . La Chine a franchi une étape supplémentaire en adoptant le système de crédit social , un système d'évaluation des civils qui semble sortir directement des pages de 1984 de George Orwell.

  • Influencer les gens via les médias sociaux . En plus de reconnaître les goûts des utilisateurs dans le but de marketing ciblé et d’ajout de placements (une pratique courante dans de nombreuses entreprises Internet), l’intelligence artificielle peut être utilisée de manière malveillante pour influencer le vote des utilisateurs (entre autres choses). Sources: 1 , 2 , 3 .

  • Piratage .

  • Applications militaires, par exemple attaques de drones, systèmes de ciblage de missiles.

Effets indésirables de l'IA

Cette catégorie est assez subjective, mais le développement de l'IA pourrait avoir des effets secondaires indésirables. La distinction entre cette catégorie et la précédente est que ces effets, bien que dommageables, ne sont pas intentionnels; ils se produisent plutôt avec le développement de l'IA. Certains exemples sont:

  • Les emplois deviennent redondants . À mesure que l'IA s'améliorera, de nombreux emplois seront remplacés par l'IA. Malheureusement, peu de choses peuvent être faites à ce sujet, car la plupart des développements technologiques ont cet effet secondaire (par exemple, les machines agricoles ont causé la perte de nombreux agriculteurs, l'automatisation a remplacé de nombreux ouvriers d'usine, les ordinateurs ont fait de même).

  • Renforcer le biais dans nos données . C'est une catégorie très intéressante, car l'IA (et en particulier les réseaux de neurones) ne vaut que par les données sur lesquelles elle est formée et a tendance à perpétuer, voire à renforcer, différentes formes de biais sociaux, déjà présents dans les données. Il existe de nombreux exemples de réseaux affichant des comportements racistes et sexistes. Sources: 1 , 2 , 3 , 4 .

Djib2011
la source
4
Je ne comprends pas pourquoi "l'emploi devient redondant" est une préoccupation sérieuse. Que le monde serait beau si personne (ou du moins la grande majorité des humains) n’avait pas besoin de travailler et pouvait se concentrer sur leurs loisirs et profiter de la vie.
kukis
4
@kukis Comment pouvez-vous obtenir la nourriture, la maison, etc., sans travail, à moins d'être déjà riche? Un travail est synonyme de survie pour la plupart des gens.
Nbro
6
En ce qui concerne les emplois qui deviennent redondants, il semble que nous puissions y remédier, c’est-à-dire réorganiser nos modèles économiques pour ne plus dépendre de l’emploi humain. Je veux dire, si nos systèmes économiques s'effondraient après avoir été inondés avec une main-d'œuvre abondante et bon marché, ils seraient manifestement défectueux. Et étant donné que nous nous attendons à ce que ce défaut devienne dangereux dans un avenir prévisible, il devrait être corrigé.
Nat
2
Un autre exemple de cas où l'IA pourrait causer des problèmes majeurs est celui de la négociation d'actions. La grande majorité des transactions sur actions de nos jours sont effectuées par des IA de plus en plus compétitives, qui peuvent réagir beaucoup plus rapidement que les traders humains. Mais nous en sommes arrivés au point où même les humains qui les ont écrits ne comprennent pas nécessairement la raison pour laquelle ces IA prennent leurs décisions, et les algorithmes de prévision des stocks ont eu des effets catastrophiques sur les marchés.
Darrel Hoffman le
8
@penelope Ce ne sont pas tous les travaux qu'IA essaie de remplacer qui présentent un "faible intérêt". Je dirais qu'il y a beaucoup d'emplois à forte demande qui pourraient être remplacés dans un avenir (pas si éloigné). Certains exemples sont des médecins, des commerçants et des pilotes. Si l'IA continue à progresser et à améliorer le diagnostic des maladies, il ne serait pas déraisonnable de penser que les postes de médecin seront supprimés.
Djib2011 le
14

Court terme

  • Accidents physiques , par exemple dus à des machines industrielles, au pilote automatique d’aéronefs, à des voitures autonomes. Particulièrement dans des situations inhabituelles telles que des conditions météorologiques extrêmes ou une défaillance du capteur. En règle générale, une IA fonctionnera mal dans des conditions où elle n’a pas fait l’objet de tests approfondis.
  • Les impacts sociaux tels que la réduction de la disponibilité de l'emploi, les obstacles pour les personnes défavorisées. prêts, assurance, libération conditionnelle.
  • Les moteurs de recommandation nous manipulent de plus en plus pour changer nos comportements (ainsi que pour renforcer nos propres bulles du "petit monde"). Les moteurs de recommandation envoient régulièrement aux jeunes enfants des contenus inappropriés de différentes sortes, souvent parce que les créateurs de contenu (par exemple sur YouTube) utilisent le mot-clé approprié pour apparaître comme étant adapté aux enfants.
  • Manipulation politique ... Assez dit, je pense.
  • Déni plausible d'invasion de la vie privée . Maintenant que AI peut lire votre courrier électronique et même passer des appels téléphoniques pour vous, il est facile pour une personne de faire en sorte que les humains agissent en fonction de vos informations personnelles et prétendent qu'ils disposent d'un ordinateur pour le faire.
  • Transformer la guerre en un jeu vidéo , c’est-à-dire remplacer des soldats par des machines commandées à distance par une personne qui n’est pas en danger et qui est loin de ses victimes.
  • Manque de transparence . Nous faisons confiance aux machines pour prendre des décisions avec très peu de moyens d’obtenir la justification d’une décision.
  • Consommation de ressources et pollution. Ce n'est pas simplement un problème d'intelligence artificielle. Cependant, chaque amélioration de l'intelligence artificielle crée une demande accrue pour le Big Data et, ensemble, ces deux éléments renforcent les besoins en stockage, traitement et mise en réseau. En plus de la consommation d’électricité et de minéraux rares, l’infrastructure doit être éliminée après plusieurs années.
  • Surveillance - avec l'omniprésence des smartphones et des appareils d'écoute, il existe une mine d'or de données, mais il y a trop de choses à parcourir. Demandez à un IA de le passer au crible, bien sûr!
  • Cybersécurité - Les cybercriminels s'appuient de plus en plus sur l'IA pour attaquer leurs cibles.

Ai-je mentionné que tout cela bat déjà son plein?

Long terme

Bien qu'il n'y ait pas de frontière claire entre AI et AGI, cette section traite davantage de ce qui se passe lorsque nous allons plus loin vers AGI. Je vois deux alternatives:

  • Soit nous développons AGI à la suite de notre meilleure compréhension de la nature de l'intelligence,
  • ou nous giflons ensemble quelque chose qui semble fonctionner mais nous ne comprenons pas très bien, un peu comme beaucoup d'apprentissage automatique en ce moment.

Dans le premier cas, si une IA "devient fausse", nous pouvons en créer d'autres pour la déjouer et la neutraliser. Dans le second cas, nous ne pouvons pas et nous sommes condamnés. Les IA seront une nouvelle forme de vie et nous pourrions nous éteindre.

Voici quelques problèmes potentiels:

  • Copier et coller. Un problème avec AGI est qu’il pourrait très bien fonctionner sur un ordinateur de bureau, ce qui crée un certain nombre de problèmes:
    • Script Kiddies - les gens pourraient télécharger une IA et configurer les paramètres de manière destructive. Relativement,
    • Les groupes criminels ou terroristes seraient en mesure de configurer un AI à leur guise. Vous n'avez pas besoin de trouver un expert en fabrication de bombes ou en armes biologiques si vous pouvez télécharger une IA, demandez-lui de faire des recherches, puis donnez-vous des instructions étape par étape.
    • AI auto-réplicante - il existe de nombreux jeux informatiques à ce sujet. L'IA se détache et se propage comme un virus. Plus la puissance de traitement est importante, plus il est capable de se protéger et de se propager davantage.
  • Invasion des ressources informatiques . Il est probable qu'une plus grande puissance de calcul profite à l'IA. Une IA peut acheter ou voler des ressources de serveur ou des ressources de postes de travail et de périphériques mobiles. À l'extrême, cela pourrait signifier que tous nos appareils deviendraient tout simplement inutilisables, ce qui ferait immédiatement des ravages sur le monde. Cela pourrait également signifier une consommation d'électricité massive (et il serait difficile de "débrancher" car les centrales sont contrôlées par ordinateur!)
  • Usines automatisées. Une AGI souhaitant renforcer sa présence physique dans le monde pourrait prendre le contrôle d’usines pour produire des robots capables de construire de nouvelles usines et de se créer des corps pour elle-même.
  • Ce sont plutôt des considérations philosophiques, mais certains diront que l'IA détruirait ce qui nous rend humain:
    • Infériorité. Et si de nombreuses entités d'IA étaient plus intelligentes, plus rapides, plus fiables et plus créatives que les meilleurs humains?
    • Inutilité. Avec les robots pour remplacer le travail physique et les IA pour remplacer le travail intellectuel, nous n’aurons vraiment rien à faire. Personne ne recevra le prix Nobel à nouveau car l'IA sera déjà en avance. Pourquoi même être éduqué en premier lieu?
    • Monoculture / stagnation - dans différents scénarios (comme un seul "dictateur bénévole"), la société pourrait devenir figée dans un schéma perpétuel sans idées nouvelles ni changement (même plaisant qu'il soit). Fondamentalement, Brave New World.

Je pense qu'AGI arrive et nous devons être conscients de ces problèmes afin de pouvoir les minimiser.

Artelius
la source
1
Je pense que le type d'intelligence artificielle capable de reprogrammer les usines pour se construire des robots est très éloigné. "AI" moderne est une reconnaissance de motif vraiment sophistiquée.
user253751
J'ai dit "long terme" et "AGI". L'AGI est, par définition, bien au-delà de la reconnaissance sophistiquée de modèles. Et bien que la "reconnaissance de formes sophistiquée" soit de loin la technique la plus utilisée dans les applications du monde réel, il y a déjà beaucoup de travail dans d'autres directions (notamment la décomposition des problèmes / la planification des actions, pour laquelle l'OMI est le pivot de ce type de scénarios. )
Artelius le
8

En plus des autres réponses, j'aimerais ajouter à l'exemple de la fabrique de biscuits nuking:

Les IA apprenantes en machine essaient fondamentalement d'atteindre un objectif décrit par les humains. Par exemple, les humains créent une IA exécutant une fabrique de cookies. L'objectif qu'ils mettent en œuvre est de vendre autant de cookies que possible pour obtenir la marge bénéficiaire la plus élevée.

Imaginons maintenant une IA suffisamment puissante. L'intelligence artificielle remarquera que s'il détruit toutes les autres usines de fabrication de biscuits, tout le monde doit acheter des biscuits dans son usine, ce qui augmente les ventes et les bénéfices.

Donc, l'erreur humaine ici ne donne aucune pénalité pour l'utilisation de la violence dans l'algorithme. Ceci est facilement négligé parce que les humains ne s'attendaient pas à ce que l'algorithme parvienne à cette conclusion.

Lustwelpintje
la source
8
Cela me rappelle un exemple concret que j'ai vu sur Reddit une fois, où quelqu'un entraînait une IA pour monter des escaliers dans Unity. Il a découvert qu’il pouvait s’appuyer sur le sol avec beaucoup de force et que la physique disparaîtrait, le faisant voler dans les airs et lui permettant d’atteindre le sommet le plus rapidement possible.
GammaGames
2
Ou, pire, cela déciderait que les humains sont fabriqués à partir d'atomes qui seraient mieux utilisés pour faire des biscuits.
nick012000
J'ai déjà entendu cet argument. L'une des erreurs dans la prédiction d'un jour maudit de l'IA est que nous ne pouvons pas prédire ce que l'IA va faire. Il est tout à fait possible que l'IA reconnaisse que détruire d'autres sociétés de cookies pourrait déstabiliser l'économie mondiale et détruire toute demande potentielle de cookies ... Loi sur l'économie, l'offre ET la demande
Zakk Diaz
8

Mon scénario favori pour les dommages causés par l'IA implique non pas une intelligence élevée, mais une intelligence faible. Plus précisément, l' hypothèse de la goo grise .

C’est là qu’un processus automatisé qui se réplique de lui-même s’écroule et convertit toutes les ressources en copies.

Le point ici est que l'IA n'est pas "intelligente" dans le sens où elle possède une intelligence élevée ou une intelligence générale - elle est simplement très bonne à une seule chose et a la capacité de se répliquer de manière exponentielle.

DukeZhou
la source
3
FWIW, les humains sont déjà grisonnants. Nous sommes une goo grise égoïste qui ne veut pas être remplacée par une goo grise encore plus efficace.
user253751
1
@immibis C'est bien sûr un point de vue philosophique, pas un fait. Il y a beaucoup de gens qui font la différence entre les humains et les machines qui se répliquent / se maintiennent. Les films de zombies n'auraient pas beaucoup de succès si une majorité tenait compte de votre définition =)
Stian Yttervik le
1
@immibis Avez-vous lu l' article gris sur la goo sur Wikipedia auquel cette réponse fait référence? Le terme fait référence aux machines (nano) inintelligentes qui tombent en panne, pas à un comportement intelligent. Donc, je dirais que non, les humains ne le sont pas (ni l'IA), car nous n'avons pas mangé d'Albert Einstein quand nous le pouvions.
Kubanczyk le
@kubanczyk, le sens fondamental du terme "intelligence" semble largement mal compris, tant dans le monde universitaire que dans le grand public. L'intelligence est un spectre, généralement relatif (par rapport à d'autres mécanismes de prise de décision), et est basée sur l'utilité d'une décision donnée dans le contexte d'un problème. Une substance grise serait intelligente, mais l'intelligence serait limitée et étroite.
DukeZhou
5

Je dirais que la plus grande menace réelle serait le déséquilibre / perturbation que nous constatons déjà. Les changements consistant à mettre 90% du pays au chômage sont réels, et les résultats (avec une distribution encore plus inégale de la richesse) sont terrifiants si vous les réfléchissez.

Bill K
la source
2
Les gens ont dit la même chose pendant la révolution industrielle qui a rendu la plupart des emplois agricoles licenciés. Bien que vous ne vous trompiez peut-être pas et que je m'inquiète personnellement de cela, les recherches sur les tendances montrent que ce n'est peut-être pas un problème et qu'il est probable que de nouveaux emplois s'ouvriront.
Programmdude
@Programmdude - Je pense qu'il y a une différence fondamentale entre les changements de la révolution industrielle et même l'élimination des emplois de secrétariat via l'avènement du P avec ce qui se passera dans les décennies à venir.
Mayo
2
@Programmdude Et les gens avaient raison. La révolution industrielle a tout changé dans la vie des gens. Elle a eu un effet extrêmement perturbateur sur la répartition de la richesse et la capacité des personnes à vivre de leurs revenus agricoles. De l’autre point de vue: les propriétaires d’esclaves qui remontent dans quelques centaines d’années ne verront probablement pas les effets de l’intelligence artificielle sur cette période comme une source de perturbation puisqu'ils ont formé leur situation.
Bill K
@ BillK J'étais avec vous jusqu'à la partie sur les propriétaires d'esclaves. Vous savez que les IA ne sont pas conscients de leurs droits, n'est-ce pas?
Ray
@Ray Je ne parlais pas des IA, je parlais des personnes qui contrôlaient les AI (et auraient donc toute la richesse), et en réalité, c'était juste un moyen de signaler que les choses peuvent être incompréhensiblement différentes pour nous mais que cela ne serait pas. Je ne ressens pas cette différence en regardant en arrière.
Bill K
5

J'ai un exemple qui va un peu dans le sens opposé aux craintes du public, mais c'est une chose très réelle, que je vois déjà se produire. Ce n'est pas spécifique à l'IA, mais je pense que cela va empirer avec l'IA. C'est le problème des humains qui font aveuglément confiance aux conclusions de l'IA dans des applications critiques.

Nous avons de nombreux domaines dans lesquels des experts humains sont supposés prendre une décision. Prenons par exemple un médicament - devrions-nous donner le médicament X ou le médicament Y? Les situations auxquelles je pense sont souvent des problèmes complexes (au sens de Cynefin) dans lesquels il est très utile que quelqu'un fasse très attention et utilise beaucoup d'expertise, et que le résultat compte vraiment.

Les informaticiens médicaux ont besoin d'écrire des systèmes d'aide à la décision pour ce type de problème dans le médicament (et je suppose pour le même type dans d'autres domaines). Ils font de leur mieux, mais on s'attend toujours à ce qu'un expert humain tienne toujours compte de la suggestion du système comme d'une opinion supplémentaire lorsqu'il prend une décision. Dans de nombreux cas, il serait irresponsable de promettre autre chose, compte tenu de l'état des connaissances et des ressources à la disposition des développeurs. Un exemple typique serait l'utilisation de la vision par ordinateur en radiomique: un patient subit un scanner et l'IA doit traiter l'image et décider si le patient a une tumeur.

Bien sûr, l'IA n'est pas parfaite. Même comparé à l'étalon-or, il n'atteint jamais une précision de 100%. Et puis il y a tous les cas où il fonctionne bien par rapport à ses propres métriques d'objectif, mais le problème était si complexe que la métrique d'objectif ne le rend pas bien - je ne peux pas penser à un exemple dans le contexte du TC, mais j'imagine nous le voyons même ici sur SE, où les algorithmes favorisent la popularité dans les publications, ce qui est un proxy imparfait pour la correction factuelle.

Vous étiez probablement en train de lire ce dernier paragraphe et de hocher la tête: "Oui, j'ai appris cela dans le premier cours d'introduction au ML que j'ai suivi". Devine quoi? Les médecins n'ont jamais suivi de cours d'initiation au niveau supérieur. Ils ont rarement suffisamment de connaissances statistiques pour comprendre les conclusions des articles publiés dans des revues médicales. Quand ils discutent avec leur 27e patient, ils ont faim pendant 7 heures et ils sont épuisés émotionnellement. Prenez dix minutes de plus pour vous concentrer davantage sur l'image, ou cherchez un manuel ou consultez un collègue. Ils vont juste avec ce que dit l'ordinateur, reconnaissant que leur charge cognitive ne monte pas encore en flèche. Ainsi, ils ne sont plus des experts mais des personnes qui lisent quelque chose sur un écran. Pire, dans certains hôpitaux, l’administration ne fait pas seulement confiance aux ordinateurs, elle a également découvert qu’ils sont des boucs émissaires commodes. Ainsi, un médecin a un mauvais pressentiment qui va à l'encontre de la sortie de l'ordinateur, il devient difficile pour eux d'agir et de se défendre s'ils ont choisi de passer outre l'opinion de l'IA.

Les IA sont des outils puissants et utiles, mais il y aura toujours des tâches pour lesquelles ils ne pourront pas remplacer le toolwielder.

rumtscho
la source
Si vous recherchez d'autres exemples, la controverse autour de l'utilisation du machine learning pour prédire les taux de récidive des demandeurs de caution ou de libération conditionnelle est bonne. Je conviens que nous ne devrions pas nous attendre à ce que les médecins et les juges possèdent le niveau d’expertise statistique nécessaire pour comprendre l’IA, en plus de leur expertise médicale et juridique. Les concepteurs d'IA doivent être conscients de la faillibilité de leurs algorithmes et fournir des instructions claires à leurs utilisateurs. Peut-être dire au médecin où regarder sur le scanner plutôt que de lui donner directement le résultat.
Craq
4

Cela ne sert qu'à compléter d'autres réponses, aussi je ne discuterai pas de la possibilité pour Amnesty International d'essayer d'asservir volontairement l'humanité.

Mais un risque différent est déjà là. Je l'appellerais une technologie non maîtrisée . On m'a enseigné la science et la technologie, et à mon humble avis, l'IA n'a en soi aucune notion du bien et du mal, ni de la liberté. Mais il est construit et utilisé par des êtres humains et, à cause de cela, un comportement non rationnel peut être impliqué.

Je commencerais par un exemple concret plus lié à l'informatique générale qu'à l'IA. Je vais parler de virus ou d'autres malwares. Les ordinateurs sont plutôt stupides et permettent de traiter rapidement des données. Donc, la plupart des gens comptent sur eux. Certaines personnes (mauvaises) développent des malwares qui perturberont le comportement correct des ordinateurs. Et nous savons tous qu'ils peuvent avoir des effets terribles sur les petites et moyennes entreprises qui ne sont pas bien préparées à une perte informatique.

L'intelligence artificielle est basée sur l'ordinateur, donc vulnérable aux attaques informatiques. Ici, mon exemple serait une voiture conduite par l'IA. La technologie est presque prête à fonctionner. Mais imaginez l’effet d’un malware qui fait que la voiture tente d’attaquer d’autres personnes sur la route. Même sans accès direct au code de l'IA, il peut être attaqué par des canaux secondaires . Par exemple, il utilise des caméras pour lire les panneaux de signalisation. Mais en raison de la manière dont l’apprentissage automatique est mis en œuvre, l’intelligence artificielle n’analyse généralement pas une scène de la même manière que l’être humain. Des chercheurs ont montré qu'il était possible de changer un signe de manière à ce qu'un humain normal puisse toujours voir le signe d'origine, mais un IA en verrait un autre. Imaginez maintenant que le panneau est le panneau prioritaire sur la route ...

Ce que je veux dire, c'est que même si l'IA n'a pas d'intention perverse, les méchants peuvent essayer de la faire se comporter mal. Et aux actions plus importantes seront déléguées à l'IA (médecine, voitures, avions, ne pas parler de bombes) plus le risque est élevé. Autrement dit, je ne crains pas vraiment l'IA pour elle-même, mais pour la façon dont elle peut être utilisée par des humains.

Serge Ballesta
la source
3

Je pense que l’un des risques les plus réels (c’est-à-dire liés aux IA actuels) est de s’en remettre aveuglément à des IA non supervisés, et ce pour deux raisons.

1. Les systèmes d'IA peuvent se dégrader

Une erreur physique dans les systèmes d'IA peut commencer à produire des résultats extrêmement erronés dans des régions dans lesquelles ils n'ont pas été testés, car le système physique commence à fournir des valeurs incorrectes. Cette procédure est parfois utilisée par des tests automatiques et par la redondance, mais nécessite toujours une supervision humaine occasionnelle.

Les IA autodidactes ont également une faiblesse logicielle - leurs réseaux de poids ou leurs représentations statistiques peuvent approcher des minima locaux lorsqu'ils sont coincés avec un seul résultat erroné.

2. Les systèmes d'IA sont biaisés

Cela fait heureusement souvent l'objet de discussions, mais il convient de le mentionner: la classification des intrants par les systèmes d'IA est souvent biaisée, car l'ensemble de données formation / tests était également biaisé. Cela a pour résultat que les AI ne reconnaissent pas les personnes de certaines ethnies, par exemple. Cependant, il existe des cas moins évidents qui ne peuvent être découverts qu'après un accident grave, tel que l'IA ne reconnaissant pas certaines données et le déclenchement accidentel d'incendies dans une usine, de bris d'équipement ou de blessures.

Tomáš Zato - Rétablir Monica
la source
C'est une bonne réponse contemporaine. Les IA "boîte noire" telles que les réseaux de neurones sont impossibles à tester de manière absolue, ce qui les rend moins prévisibles à 100% - et, par extension, moins fiables. Nous ne savons jamais quand l'IA développera une stratégie alternative à un problème donné et comment cette stratégie alternative nous affectera. Il s'agit d'un problème vraiment énorme si nous voulons compter sur l'IA pour des tâches importantes telles que la conduite de voitures ou la gestion de ressources.
Laancelot
1

Si un robot est similaire à une interface homme-machine, l'appareil est identique à celui d'une voiture télécommandée. Il est possible de discuter avec l'opérateur derrière le joystick et de négocier un comportement pieux. Les robots télécommandés sont des inventions sûres car leurs actions peuvent être retracées jusqu'à l'homme et leur motivation peut être anticipée. Ils peuvent être utilisés pour améliorer la vie quotidienne, et c'est amusant de jouer avec eux.

En revanche, certains robots ne sont pas contrôlés par des manettes de jeu, mais fonctionnent avec un générateur de dés interne. Le jouet de dés est connu pour son rôle social dans le jeu mais il a aussi une signification mystique. Généralement, un générateur aléatoire est fortement lié à un comportement chaotique qui est contrôlé par des forces obscures en dehors de l'influence de l'homme. Un dé électronique intégré dans un robot et amélioré par un algorithme d'apprentissage est l'opposé d'une interface homme-machine, mais il est potentiellement perturbateur car le robot à commande aléatoire jouera à des jeux avec des humains imprévisibles. Il n'est pas possible de prédire le nombre de dés suivant, le robot se comportera donc de manière abrupte.

Le lien entre les jeux contrôlés au hasard et l'impact social négatif a été expliqué dans la phrase suivante.

citation: «Dans de nombreuses sociétés traditionnelles non occidentales, les joueurs peuvent prier les dieux de réussir et expliquer les victoires et les pertes en termes de volonté divine. “Binde, Per. "Jeu et religion: Histoires de concorde et de conflit." Journal of Gambling Issues 20 (2007): 145-165.

Manuel Rodriguez
la source
1

Les êtres humains existent actuellement dans une niche écologique et économique de "la chose qui pense".

L'intelligence artificielle est aussi une chose qui pense, elle envahira donc notre niche écologique-économique. En écologie et en économie, le fait d’avoir autre chose à occuper votre niche n’est pas un bon plan pour la survie.

Comment exactement cela compromettra-t-il la survie de l'homme? Il y aura de nombreuses manières plausibles que l'IA puisse mettre en danger la survie humaine en tant qu'espèce ou même en tant que forme de vie dominante.


Supposons qu'il existe une IA forte sans "super éthique" qui coûte moins cher à fabriquer qu'un humain (y compris la fabrication d'un "corps" ou une manière de manipuler le monde), et aussi intelligente ou plus intelligente qu'un humain.

C'est un cas où nous commençons à concurrencer l'IA pour obtenir des ressources. Cela se produira à des échelles microéconomiques (engageons-nous un humain ou achetons-nous / construisons-nous / louons-nous un AI pour résoudre ce problème?). En fonction du rythme auquel les IA deviennent moins chers et / ou plus intelligents que les autres, cela peut être lent (peut-être une industrie à la fois) ou extrêmement rapide.

Dans une compétition capitaliste, ceux qui ne se tournent pas vers les IA les moins chères finissent par se faire concurrence.

Maintenant, à court terme, si les avantages de l'intelligence artificielle ne sont que marginaux, le coût élevé de l'éducation des humains pendant une vingtaine d'années avant qu'ils ne deviennent productifs pourrait ralentir ce processus. Dans ce cas, il vaut peut-être la peine de payer un médecin au-dessus du salaire de famine pour diagnostiquer une maladie plutôt qu'un AI, mais cela ne vaut probablement pas la peine de rembourser son prêt étudiant. Ainsi, les nouveaux médecins humains cesseraient rapidement d'être formés et les médecins existants seraient appauvris. Plus de 20 à 30 ans plus tard, l'IA remplacerait complètement les médecins à des fins de diagnostic.

Si les avantages de l'IA sont importants, ce serait rapide. Les médecins ne mériteraient même pas de payer des salaires de pauvreté pour effectuer des diagnostics humains. Vous pouvez voir quelque chose comme cela se produire avec l'agriculture basée sur le muscle lorsque l'agriculture basée sur l'essence a pris le relais.

Au cours des révolutions industrielles passées, le fait que les hommes soient capables de penser signifie que vous pouvez réaffecter des travailleurs humains excédentaires à d'autres actions; lignes de fabrication, emplois dans l’économie de services, programmation informatique, etc. Mais dans ce modèle, l’IA est moins chère à former et à construire et aussi intelligente ou plus intelligente que l’être humain dans ce type de travail.

Comme en témoigne le printemps arabe induit par l'éthanol, les cultures et les terres cultivables peuvent être utilisés pour alimenter à la fois les machines et les humains. Lorsque les machines sont plus efficaces pour transformer les terres en culture en travaux utiles, vous commencez à voir le prix de la nourriture grimper. Cela mène généralement à des émeutes, car les gens n'aiment vraiment pas mourir de faim et sont prêts à risquer leur vie pour renverser le gouvernement afin d'empêcher cela.

Vous pouvez apaiser la population en fournissant des aliments subventionnés, etc. Tant que cela n’est pas économiquement invalidant (c’est-à-dire que si cela coûte assez cher, vous risquez de vous faire concurrence par d’autres endroits qui ne le font pas), c’est simplement politiquement instable.

Comme alternative, à court terme, la caste de propriétaires qui tire des profits de l’économie de plus en plus efficace dirigée par l’IA peut payer une caste policière ou militaire pour réprimer ces émeutes. Cela nécessite que les castes de la police et de l'armée soient de niveau de vie inférieur à moyen, afin de maintenir la loyauté - vous ne voulez pas qu'elles rejoignent les émeutiers.

L'un des centres de profit vers lequel vous pouvez placer l'IA est l'armée et la police basées sur l'IA. Les drones qui livrent des engins meurtriers et non létaux basés sur le traitement de sources de données visuelles et autres peuvent réduire le nombre de policiers / militaires de la classe moyenne nécessaires pour endiguer les émeutes déclenchées par le prix des denrées alimentaires ou toute autre instabilité. Comme nous l'avons déjà supposé, les IA peuvent avoir des corps et un entraînement moins coûteux qu'un humain biologique, ce qui peut également augmenter la force que vous pouvez déployer par dollar dépensé.

À ce stade, nous parlons d'une police et de l'armée dirigées principalement par l'IA qui sont utilisées pour empêcher les humains affamés de renverser l'économie dirigée par l'IA et de s'emparer des moyens de production de son utilisation plus efficace.

Les humains restés qui "possèdent" le système au sommet prennent des décisions localement rationnelles pour optimiser leur richesse et leur pouvoir. Ils peuvent ou non persister longtemps; tant qu'ils ne consomment qu'une quantité relativement faible de ressources et ne perturbent pas l'économie dirigée par l'IA, il n'y aura pas beaucoup de pression de sélection pour les éliminer. D'autre part, comme ils ne contribuent rien de valeur, ils se positionnent «au sommet» comme politiquement instable.

Ce processus supposait une "forte" IA générale. Les IA plus étroits peuvent le réduire en morceaux. Un ordinateur de diagnostic peu coûteux et efficace pourrait, par exemple, réduire la plupart des médecins à la pauvreté en une période étonnamment courte. Les voitures autonomes pourraient absorber 5% à 10% de l'économie. Les technologies de l’information avalent déjà le secteur de la vente au détail avec une IA modeste.

On dit que chaque progrès technologique conduit à des emplois plus nombreux et de meilleure qualité pour les humains. Et cela est vrai depuis plus de 300 ans.

Mais avant 1900, il était également vrai que chaque progrès technologique conduisait à des emplois plus nombreux et de meilleure qualité pour les chevaux. Puis la voiture et la glace sont arrivées et il y a maintenant beaucoup moins de chevaux de trait. les chevaux restants sont fondamentalement l'équivalent de serviteurs personnels humains: réservés à la nouveauté de "wow, cool, cheval" et au plaisir de monter et de contrôler un énorme animal.

Yakk
la source
1

Outre les nombreuses réponses déjà fournies, je voudrais aborder la question des exemples contradictoires dans le domaine des modèles d’image.

Les exemples contradictoires sont des images qui ont été perturbées par un bruit spécialement conçu qui est souvent imperceptible pour un observateur humain, mais qui modifie fortement la prédiction d'un modèle.

Les exemples comprennent:

Duff
la source
0

L'intelligence artificielle utilisée pour résoudre un problème réel peut poser un risque pour l'humanité et ne nécessite pas exactement de sensibilité, mais également un degré de stupidité humaine.

Contrairement à l'homme, l'IA trouverait la réponse la plus logique sans la contrainte de l'émotion, de l'éthique ou même de la cupidité ... Seule la logique. Demandez à cette IA comment résoudre un problème créé par les humains (par exemple, le changement climatique). La solution pourrait consister à éliminer la totalité de la race humaine pour protéger la planète. Évidemment, cela nécessiterait de donner à l'IA la capacité d'agir sur son résultat, ce qui m'amène à mon point précédent, la stupidité humaine.

Paul
la source
0

L'intelligence artificielle peut nous nuire de n'importe quelle façon de l'intelligence naturelle (de l'homme). La distinction entre intelligence naturelle et intelligence artificielle disparaîtra lorsque les humains commenceront à s'augmenter plus intimement. L'intelligence peut ne plus caractériser l'identité et deviendra une possession illimitée. Les dommages causés seront tout autant que les êtres humains peuvent subir pour préserver leur identité en évolution.

tejasvi88
la source
0

Peu de gens réalisent que notre économie mondiale devrait être considérée comme une IA: - Les transactions monétaires sont les signaux transmis par un réseau neuronal. Les nœuds du réseau neuronal seraient les différentes sociétés ou personnes privées payant ou recevant de l'argent. - Il est fabriqué par l'homme, donc qualifie d'artificiel

Ce réseau de neurones est donc meilleur que l’humain: le capitalisme a toujours vaincu l’économie planifiée par l’homme (économie planifiée).

Ce réseau de neurones est-il dangereux? Peut différer si vous êtes le PDG gagnant gros par rapport à un pêcheur dans une rivière polluée par les déchets de l'entreprise.

Comment cette IA est-elle devenue dangereuse? Vous pouvez répondre que c'est à cause de la cupidité humaine. Notre création se reflète. En d'autres termes: nous n'avons pas entraîné notre réseau neuronal à bien se comporter. Au lieu d’entraîner le réseau neuronal à améliorer la qualité de vie de tous les humains, nous l’avons formé à enrichir les fokes riches.

Serait-il facile de former cette IA pour qu’elle ne soit plus dangereuse? Peut-être que non, peut-être que certaines IA sont plus grandes que la vie. C'est juste la survie du plus apte.

Stuurpiek
la source