Les célèbres trois lois de la robotique d' Isaac Asimov sont nées dans le contexte des histoires de science-fiction d'Asimov. Dans ces histoires, les trois lois servent de mesure de sécurité, afin d'éviter que des situations intempestives ou manipulées n'explosent en ravages.
Plus souvent qu'autrement, les récits d'Asimov trouveraient un moyen de les briser, amenant l'écrivain à apporter plusieurs modifications aux lois elles-mêmes. Par exemple, dans certaines de ses histoires, il a modifié la première loi , ajouté une quatrième loi (ou Zeroth) , ou même supprimé toutes les lois .
Cependant, il est facile d'affirmer que, dans la culture populaire, et même dans le domaine de la recherche sur l'IA elle-même, les lois de la robotique sont prises très au sérieux. Ignorant le problème secondaire des interprétations différentes, subjectives et mutuellement exclusives des lois, existe-t-il des arguments prouvant que les lois elles-mêmes sont intrinsèquement défectueuses par leur conception, ou, sinon, suffisamment solides pour être utilisées dans la réalité? De même, un ensemble heuristique de sécurité meilleur et plus strict est-il conçu à cet effet?
la source
Réponses:
Les lois d'Asimov ne sont pas assez fortes pour être utilisées dans la pratique. La force n'est même pas une considération, si l'on considère que, puisqu'ils sont écrits en anglais, les mots doivent d'abord être interprétés de manière subjective pour avoir un sens. Vous pouvez trouver une bonne discussion à ce sujet ici .
Pour transcrire un extrait:
On peut facilement imaginer qu'Asimov était suffisamment intelligent pour le savoir et était plus intéressé par l'écriture d'histoires que par la conception de protocoles de contrôle de l'IA réels.
Dans le roman Neuromancer , il a été suggéré que les IA pourraient éventuellement servir de contrôles les uns contre les autres. La singularité imminente de Ray Kurzweil , ou la possibilité d'IGI hyperintelligents autrement, pourrait ne pas laisser beaucoup de possibilité aux humains de contrôler les IA, laissant la régulation par les pairs comme la seule possibilité réalisable.
Il convient de noter qu'Eliezer Yudkowsky et d'autres ont mené une expérience dans laquelle Yudkowsky a joué le rôle d'une IA superintelligente avec la capacité de parler, mais aucune autre connexion en dehors d'une boîte verrouillée. Les challengers devaient simplement garder l'IA dans la boîte à tout prix. Yudkowsky s'est échappé les deux fois.
la source
Asimov a fait les trois lois spécifiquement pour prouver qu'aucune des trois lois n'est suffisante, même si elles semblent raisonnables au premier abord. Je connais un gars qui le connaissait et il l'a confirmé.
la source
Considérez la première loi d'Asimov de la robotique:
Cette loi est déjà problématique, si l'on tient compte des voitures autonomes.
Quel est le problème ici, demandez-vous? Eh bien, vous serez probablement familier avec l'expérience de pensée classique en éthique connue sous le nom de problème du chariot . La forme générale du problème est la suivante:
Les voitures autonomes devront en fait implémenter des variations réelles du problème du chariot, ce qui signifie essentiellement que les voitures autonomes doivent être programmées pour tuer les êtres humains .
Bien sûr, cela ne signifie pas que TOUS les robots devront être programmés pour tuer, mais les voitures autonomes sont un bon exemple d'un type de robot qui le fera.
la source