Une singularité technologique ne peut-elle se produire qu'avec la superintelligence?

10

Au chapitre 26 du livre Intelligence artificielle: une approche moderne (3e édition), le manuel traite de la "singularité technologique". Il cite IJ Good, qui a écrit en 1965:

Qu'une machine ultra-intelligente soit définie comme une machine qui peut dépasser de loin toutes les activités intellectuelles de tout homme, aussi intelligent soit-il. La conception de machines étant l'une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures; il y aurait alors incontestablement une «explosion d'intelligence» et l'intelligence de l'homme resterait loin derrière. Ainsi, la première machine ultra-intelligente est la dernière invention que l'homme ait besoin de faire, à condition que la machine soit suffisamment docile pour nous dire comment la garder sous contrôle.

Plus loin dans le manuel, vous avez cette question:

26.7 - IJ Good affirme que l'intelligence est la qualité la plus importante et que la construction de machines ultra-intelligentes changera tout. Un guépard sensible rétorque que "En fait, la vitesse est plus importante; si nous pouvions construire des machines ultrarapides, cela changerait tout" et un éléphant sensible prétend "Vous avez tous les deux tort; ce dont nous avons besoin, ce sont des machines ultrarongues," Que pensez-vous de ces machines? arguments?

Il semble que la question du manuel soit un argument implicite contre IJ Good. Le bien peut considérer l'intelligence comme une valeur, simplement parce que les forces de l'homme résident dans ce trait appelé «intelligence». Mais d'autres traits pourraient être également valorisés à la place (vitesse ou force) et les êtres sensibles peuvent spéculer sauvagement sur le fait que leurs traits préférés soient «maximisés» par une machine ou une autre.

Cela me fait me demander si une singularité pourrait se produire si nous avions construit des machines qui ne maximisent pas l' intelligence, mais maximisent plutôt un autre trait (une machine qui augmente toujours sa force ou une machine qui augmente toujours sa vitesse). Ces types de machines peuvent être tout aussi transformateurs - les machines ultrarapides peuvent résoudre les problèmes rapidement en raison de la «force brute», et les machines ultrastrongues peuvent utiliser sa puissance brute pour une variété de tâches physiques. Peut-être qu'une machine ultra-X ne peut pas construire une autre machine ultra-X (comme IJ Good a traité la conception des machines comme une activité intellectuelle), mais une machine qui s'améliore continuellement laisserait ses créateurs loin derrière et forcerait ses créateurs à être en dépend.

Les singularités technologiques sont-elles limitées aux ultra-intelligences? Ou que les singularités technologiques soient causées par des machines qui ne sont pas des «IA puissantes» mais qui sont toujours des «ultra» optimiseurs?

SE gauche sur 10_6_19
la source

Réponses:

4

Ce serait un non pour la vitesse ou la force, si vous avez une entité super forte mais qu'elle ne peut pas rechercher de nouveaux matériaux, elle sera rapidement limitée, même chose pour la vitesse, en gros, vous avez besoin de quelque chose hors de leur domaine pour les améliorer, ce qui fait une amélioration galopante impossible.

Bien que nous ayons déjà des machines super solides et super rapides, ce sont des voitures, des camions, des presses hydrauliques, des exosquelettes industriels etc ... Mais, même si nous pouvons en construire de meilleurs en utilisant les anciens, nous devons encore rechercher des trucs qui ne peut pas être amélioré par les anciens.

Ce dont nous avons besoin pour une singularité, c'est un domaine où une amélioration rend plus facile encore l'amélioration. Et je ne connais pas un domaine où cela n'implique pas l'intelligence. S'il y en a un, il peut être possible d'y avoir une singularité non basée sur l'intelligence.

satibel
la source
0

"Monte Carlo" semble être la meilleure méthode actuellement pour la créativité algorithmique. (c.-à-d. la machine fait des choix aléatoires et voit s'ils mènent à quelque chose d'utile.)

S'il semble évident que les liens créatifs se sont formés par la compréhension sont supérieures à celles qui sont aléatoires, si la machine est suffisamment rapide, elle devrait pouvoir l'emporter par la «force brute» pure.

c'est-à-dire que l'évolution, avant la direction humaine, n'a pas été basée sur l'intelligence. * L'évolution a plutôt été basée sur des mutations aléatoires qui sont soit bénéfiques, soit préjudiciables.


* La mise en garde est que les humains créant des algorithmes et altérant les gènes (soit en laboratoire, soit par l'élevage et l'horticulture) peuvent être considérés comme comprenant une nouvelle forme d'évolution qui est en fait enracinée dans l'intelligence et le désir humains.

DukeZhou
la source
-1

Ce n'est peut-être pas ce que vous cherchiez, mais techniquement oui. Mais pas pour la vitesse et la force. Mais vous pouvez deviner au hasard de nouvelles solutions mathématiques / physiques / chimiques pour devenir plus efficace dans les devinettes aléatoires (essentiellement tout ce qui permet à la machine de calculer plus rapidement et peut-être de simuler l'effet de ces résultats), réalisant ainsi techniquement quelque chose de similaire à une singularité, sans avoir d'avoir n'importe quelle Intelligence du tout en fait (ou juste au niveau humain), puisque vous pourriez tout simplement forcer brutalement.

Est-ce efficace? Non, même pas du tout réalisable. Est-ce que ça marche? Techniquement, oui.

Ce serait une singularité en quelque sorte, car il s'améliore continuellement, mais il n'a pas besoin d'améliorer sa propre intelligence.

Bien sûr, certains résultats pourraient permettre de devenir plus intelligents, mais supposons simplement qu'il ne s'applique pas à ces résultats.

Lexyth
la source