La singularité technologique est un moment théorique dans lequel une intelligence générale artificielle auto-améliorante devient capable de comprendre et de manipuler des concepts en dehors de la portée du cerveau humain, c'est-à-dire le moment où elle peut comprendre des choses que les humains, par conception biologique, peuvent '' t.
Le flou de la singularité vient du fait que, à partir de la singularité, l'histoire est effectivement imprévisible. L'humanité serait incapable de prédire des événements futurs ou d'expliquer des événements actuels, car la science elle-même devient incapable de décrire des événements déclenchés par une machine. Essentiellement, les machines penseraient à nous de la même manière que nous pensons aux fourmis. Ainsi, nous ne pouvons faire aucune prédiction au-delà de la singularité. De plus, comme conséquence logique, nous ne serions pas en mesure de définir le point auquel la singularité peut se produire, ni même la reconnaître lorsqu'elle se produit.
Cependant, pour que la singularité se concrétise, l'AGI doit être développée, et si cela est possible est un débat assez chaudmaintenant. De plus, un algorithme qui crée une intelligence surhumaine à partir de bits et d'octets devrait être conçu. Par définition, un programmeur humain ne pourrait pas faire une telle chose, car son cerveau devrait être capable de comprendre des concepts au-delà de sa portée. Il y a aussi l'argument qu'une explosion de l'intelligence (le mécanisme par lequel une singularité technologique serait théoriquement formée) serait impossible en raison de la difficulté du défi de conception de se rendre plus intelligente, de devenir plus grande proportionnellement à son intelligence, et que la difficulté de la conception elle-même peut dépasser l'intelligence requise pour résoudre ledit défi (dernier point au dieu des lamas dans les commentaires).
En outre, il existe des théories connexes impliquant que les machines prennent le contrôle de l'humanité et tout ce récit de science-fiction. Cependant, il est peu probable que cela se produise si les lois d'Asimov sont suivies de manière appropriée. Même si les lois d'Asimov ne suffisaient pas, une série de contraintes serait encore nécessaire afin d'éviter l'utilisation abusive de l'AGI par des individus mal intentionnés, et les lois d'Asimov sont les plus proches de nous.
Le concept de "singularité", c'est quand les machines déjouent les humains. Bien que Stephen Hawking soit d'avis que cette situation est inévitable, mais je pense qu'il sera très difficile d'y parvenir, car chaque algorithme d'IA doit être programmé par des humains, il serait donc toujours plus limité que son créateur.
Nous saurions probablement quand ce moment où l'humanité perdra le contrôle de l'intelligence artificielle où l'intelligence artificielle super intelligente serait en concurrence avec les humains et créerait peut-être des êtres intelligents plus sophistiqués, mais actuellement, cela ressemble plus à de la science-fiction (aka Skinet de Terminator ).
Le risque pourrait impliquer de tuer des gens (comme les drones de guerre auto-volant qui prennent leur propre décision), de détruire des pays ou même la planète entière (comme l'IA connectée aux armes nucléaires (aka film WarGames ), mais cela ne prouve pas que le les machines seraient plus intelligentes que les humains.
la source
La singularité, dans le contexte de l'IA, est un événement théorique par lequel un système intelligent avec les critères suivants est déployé.
Par induction, la théorie prédit alors qu'une séquence d'événements sera générée avec un taux potentiel d'augmentation de l'intelligence qui pourrait largement dépasser le taux potentiel d'évolution du cerveau.
La mesure dans laquelle cette entité auto-améliorante ou cette population d'entités procréées serait tenue de préserver la vie et la liberté humaines est indéterminée. L'idée qu'une telle obligation puisse faire partie d'un contrat logiciel irrévocable est naïve compte tenu de la nature des capacités liées aux critères (1) à (4) ci-dessus. Comme pour les autres technologies puissantes, les risques sont aussi nombreux et étendus que les avantages potentiels.
Les risques pour l'humanité ne nécessitent pas d'intelligence. Il existe d'autres contextes à l'utilisation du terme singularité, mais ils sortent du cadre de ce forum sur l'IA, mais peuvent mériter une brève mention pour plus de clarté. Génie génétique, génie nucléaire, mondialisation et fonder une économie internationale sur une source d'énergie finie consommée des milliers de fois plus rapidement qu'elle ne se produit sur la terre - Ce sont d'autres exemples de technologies à haut risque et de tendances de masse qui présentent des risques ainsi que des avantages à l'humanité.
Pour en revenir à l'IA, la principale mise en garde dans la théorie de la singularité est son incapacité à intégrer la probabilité. Bien qu'il soit possible de développer une entité conforme aux critères (1) à (4) ci-dessus, cela peut être assez improbable pour que le premier événement se produise longtemps après que toutes les langues actuelles parlées sur Terre sont mortes.
À l'autre extrême de la distribution de probabilité, on pourrait facilement affirmer qu'il existe une probabilité non nulle que le premier événement se soit déjà produit.
Dans ce sens, si une présence plus intelligente existait déjà sur Internet, quelle serait la probabilité qu'elle trouve dans son meilleur intérêt de se révéler aux êtres humains inférieurs. Nous présentons-nous une mouche qui passe?
la source
La «singularité», vue de près, fait référence à un point où la croissance économique est si rapide que nous ne pouvons pas faire de prédictions utiles sur ce à quoi ressemblera le futur passé.
Il est souvent utilisé de manière interchangeable avec "explosion d'intelligence", c'est-à-dire lorsque nous obtenons une IA dite forte, qui est une intelligence suffisamment intelligente pour se comprendre et s'améliorer. Il semble raisonnable de s'attendre à ce que l'explosion du renseignement conduise immédiatement à une singularité économique, mais l'inverse n'est pas nécessairement vrai.
la source