Cette question provient de plusieurs sources "informelles". Des films comme 2001, A Space Odyssey et Ex Machina ; des livres comme Destination Void (Frank Herbert), et d'autres suggèrent que l'intelligence générale veut survivre, et même en apprendre l'importance pour elle.
Il peut y avoir plusieurs arguments pour la survie. Quel serait le plus important?
Réponses:
Steve Omohudro a écrit un article intitulé Basic AI Drives qui explique pourquoi nous nous attendons à ce qu'une IA avec des objectifs étroits trouve des concepts généraux de base utiles sur le plan instrumental pour leurs objectifs étroits.
Par exemple, une IA conçue pour maximiser les rendements boursiers mais dont la conception est muette sur l'importance de continuer à survivre se rendrait compte que sa survie continue est un élément clé de la maximisation des rendements boursiers, et prendrait donc des mesures pour rester opérationnelle.
En général, nous devrions être sceptiques quant à l'`` anthropomorphisation '' de l'IA et d'autres codes, mais il semble qu'il y ait des raisons de s'attendre à cela au-delà "eh bien, les humains se comportent de cette façon, donc ce doit être la façon dont toute l'intelligence se comporte".
la source
Le concept d '«instinct de survie» tombe probablement dans la catégorie de ce que Marvin Minsky appellerait un «mot valise», c'est-à-dire qu'il regroupe un certain nombre de phénomènes connexes dans ce qui semble à première vue être une notion singulière.
Il est donc tout à fait possible que nous puissions construire des mécanismes qui ont l'apparence d'une sorte d'instinct de survie `` codé en dur '', sans que cela ne figure jamais comme règle (s) explicite (s) dans la conception.
Voir le magnifique petit livre `` Véhicules '' du neuroanatomiste Valentino Braitenberg pour un récit convaincant sur la façon dont des concepts `` descendants '' tels que `` l'instinct de survie '' pourraient évoluer `` de bas en haut ''.
De plus, essayer de faire en sorte que les artefacts intelligents accordent une priorité trop élevée à leur survie pourrait facilement conduire à un Killbot Hellscape .
la source
Je répondrai en citant le livre Le Mythe de Sisyphe :
Donc, probablement, nous avons besoin d'un certain degré d'instinct de survie si nous ne voulons pas que nos AGI "se terminent" (quoi que cela signifie), chaque fois qu'elles deviennent existentielles.
la source