Le terme singularité est souvent utilisé dans les médias grand public pour décrire une technologie visionnaire. Il a été introduit par Ray Kurzweil dans un livre populaire The Singularity Is Near: When Humans Transcend Biology (2005).
Dans son livre, Kurzweil donne un aperçu d'un futur potentiel de l'humanité qui comprend la nanotechnologie, les ordinateurs, la modification génétique et l'intelligence artificielle. Il soutient que la loi de Moore permettra aux ordinateurs une croissance exponentielle qui se traduit par une superintelligence.
La singularité technologique est-elle prise au sérieux par les développeurs d'IA ou cette théorie n'est-elle qu'une charge de battage médiatique populaire?
philosophy
theory
superintelligence
singularity
mythology-of-ai
Bucky Rogerson
la source
la source
Réponses:
Je peux dire que parmi les chercheurs en IA avec lesquels j'interagis, il est beaucoup plus courant de le voir comme une spéculation sauvage que comme un fait établi.
Cela est confirmé par des enquêtes menées auprès de chercheurs en IA , 80% d'entre eux pensant que des formes fortes d'IA émergeront dans "plus de 50 ans" ou "jamais", et seulement quelques pour cent pensent que ces formes d'IA sont "proches".
Les développeurs de logiciels ne sont pas les mêmes que les chercheurs en IA, et j'ai trouvé que le mythe de la singularité était beaucoup plus répandu parmi les développeurs. Il a une belle résonance: les ordinateurs continuent de s'accélérer, à un moment donné ils seront plus rapides que les cerveaux, à ce stade, nous simulons simplement les cerveaux. Peu de temps après, nous simulons quelque chose de mieux que le cerveau.
Je soupçonne que les raisons pour lesquelles les chercheurs en IA sont moins optimistes trouvent leur origine dans le fait que nous n'avons toujours pas une bonne compréhension de l'intelligence humaine, ni même une compréhension suffisante du cerveau pour la simuler. Par exemple, au cours des deux dernières semaines, nous avons découvert des types de cellules cérébrales jusque-là inconnus . Cela donne l'impression (correcte) que même si nous avions un ordinateur assez rapide, nous ne sommes pas du tout près de pouvoir simuler avec précision un cerveau humain. Nous ne savons pas vraiment ce qu'est un cerveau humain.
Même si nous le savions, les simulations sont nécessairement avec pertes. Nous n'avons peut-être pas de bonnes techniques de simulation. Même si nous avions de bonnes techniques, nous pouvons simuler le cerveau et découvrir que notre simulation ne se comporte pas comme prévu pour des raisons que nous ne comprenons pas. Ceci est très probable lors de la simulation de nouveaux systèmes. Dans un certain sens, les partisans de la singularité ressemblent à des gens prédisant que le contrôle météorologique était proche dans les années 40. Après tout, nous pouvions déjà simuler des conditions météorologiques simples et générer des prévisions qui fonctionnaient. Dans quelle mesure serait-il plus complexe de générer des prévisions parfaites?
la source
Il y a au moins un scientifique de l'IA très important et sérieux qui croit apparemment à la création d'une véritable intelligence artificielle générale et peut-être de la superintelligence: Jürgen Schmidhuber, qui est le co-auteur du LSTM , parmi de nombreuses autres contributions importantes. En fait, il a récemment fondé NNAISENSE dans ce but ultime, c'est-à-dire construire une intelligence générale artificielle à usage général. Dans son discours Quand les machines créatives dépassent l'homme , chez TEDxLausanne, Schmidhuber parle de la singularité (également connue sous le nom d' oméga ). Voir aussi son article Web Is History Converging? Encore? (2012) ou le papier2006: Célébrer 75 ans d'IA - Histoire et perspectives: les 25 prochaines années (2007).
la source
Pour être sur la même page, vous devez donner des références sur la "singularité technologique", car elle comprend plusieurs domaines (mathématiques, statistiques, philosophie des sciences, épistémologie, sociologie, politique, économie, pour n'en citer que quelques-uns).
Généralement, lorsque vous considérez des concepts liés à adj + ai (où adj = {faible, fort, plein, étroit, ...}), le souffle de la spéculation est assez grand et in fieri , donc en tant que développeur (où pour le développeur I supposons que vous travaillez sur des problèmes liés au codage, pas sur le chef de projet chez google x et autres) Je ne serais pas inquiet, sauf si vous prenez une tasse de thé avec vos collègues pendant une pause.
la source