Il semble que la littérature ait toujours mis l'accent sur l'approximation des composants de l'esprit humain, en supposant qu'il soit le plus avancé. Si d'autres animaux sont entrés dans le paysage de l'IA, ce n'était que pour étudier les primates d'une manière qui n'est pas pratique pour étudier les humains ou pour simuler l'activité neuronale d'une limace car son système nerveux est simple.
Il y a peut-être une raison plus avant-gardiste d'envisager d'utiliser des formes de vie inférieures comme modèle pour l'intelligence artificielle souhaitée. J'ai lu ce que EO Wilson et d'autres avaient à dire sur les capacités de collaboration d'autres espèces. Il existe des qualités remarquables dans des organismes aussi simples et adaptatifs que les bactéries. Certes, les fourmis sont l'espèce modèle de collaboration. Les abeilles sont sans doute les plus avisées en matière de construction, transportant la durabilité du mode de vie et les relations avec d'autres espèces vers une forme d'art bien au-dessus de la capacité de l'intelligence humaine.
En utilisant des analogies sportives pour caractériser les options, l'intelligence humaine ressemble plus à des sports de gladiateurs pré-illumination ou au moins au hockey sur glace, où blesser l'adversaire est considéré comme la stratégie intelligente. Ce que les abeilles font, c'est plus de l'alpinisme, la construction avec précision et soin.
Ce que font les fourmis, c'est un peu comme les courses de relais, où l'équipe adverse s'intéresse peu parce que chaque colonie, tout comme chaque voie de la piste est indépendante et les voies sont marquées. Les fourmis marquent de la même manière leur territoire et les revendications territoriales sont respectées comme dans le meilleur de la politique géopolitique westphalienne. Il n'y a ni petites jalousies ni compétitions uniquement pour la fierté de la primauté. Avec les fourmis, tout comme avec l'entraîneur intelligent d'athlétisme, l'objectif est que chaque étape de la course fonctionne bien contre le meilleur précédent du coureur de relais.
Les bactéries sont les coureurs de fond. Ils échangent l'ADN entre eux et ignorent toutes les règles de la douleur et de la peur. Ils se comportent de manière durable qui ne tient rien pour acquis et utilise tout pour leur survie. Et ils ont survécu pendant presque toute la durée de l'existence de la terre. Ils seront probablement là pendant cent milliards d'années après la disparition de l'humanité, si le soleil ne passe pas en supernova en premier.
Pourquoi voudrions-nous programmer des ordinateurs pour qu'ils se comportent sans cesse comme des concurrents? Les gens téléchargent-ils des programmes d'échecs intelligents afin qu'ils puissent perdre à plusieurs reprises? Non, ils téléchargent Android OS car il collabore et cela ne coûte rien. Ne pouvons-nous pas trouver des jeux à somme non nulle où jouer des scénarios gagnant-gagnant sont possibles?
N'avons-nous pas déjà suffisamment d'agents mordants, bavards et hypercritiques dans notre propre espèce? Pourquoi ne pas envoyer l'IA en direction de l'intelligence collaborative, comme les fourmis? Ne serait-il pas préférable d'avoir de nouveaux amis artificiels qui voudraient partager le fardeau de nos tâches quotidiennes?
Ne voulons-nous pas que nos robots du futur construisent comme des abeilles mellifères, en hexagones? Ou voulons-nous que nos robots suivent notre exemple, gaspillant 70% des matériaux dans la construction verticale en raison d'une insistance irrationnelle sur des angles de quatre-vingt-dix degrés, comme seuls les humains le feraient?
la source
Réponses:
J'ai une vision assez sombre des humains en tant qu'espèce et j'ai proposé un test de Turing inversé par lequel les humains sont évalués pour une humanité suffisante ( 仁 ). (je plaisante, mais pas entièrement;)
Les humains ne sont clairement pas les espèces les plus prospères sur terre si vous utilisez la biomasse:
Je suis tout à fait d'accord pour dire que les formes de vie moins complexes sont très efficaces et méritent d'être émulées pour des problèmes spécifiques (voir les algorithmes d'optimisation des colonies Ant comme exemple.)
Mais à quoi ressemble un monde dirigé par des fourmis? Est-ce un monde dans lequel nous voulons vivre?
Non seulement la compétition dans la nature est absolument brutale, mais cette brutalité est le mécanisme par lequel les espèces sont optimisées (évolution).
Les humains sont imparfaits, mais nous avons également réalisé de grands triomphes, et ce qui peut nous séparer des animaux, c'est que nos succès peuvent également tomber dans la catégorie des "triomphes de l'esprit". Là où il y a des forces d'égoïsme et d'avidité conduisant la société dans une direction, nous avons également la contre-force, poussant dans des directions alternatives.
Certains jeux sont tout simplement à somme nulle et il n'y a pas moyen de contourner cela, mais cela ne signifie pas qu'ils doivent être "tout ou rien" (Nous recommandons le Sudoku partisan aux échecs précisément pour cette raison.)
Il existe un concept qui mérite d'être étudié, appelé efficacité Pareto . La spéculation financière, sur laquelle une grande partie de l'économie mondiale semble désormais basée, dépend du principe du «plus grand imbécile» , selon lequel un agent bénéficie entièrement de la perte d'un autre agent. Les pires d'entre nous semblent se concentrer sur ces mécanismes à l'exclusion de tous les autres car ils ne nécessitent aucun engagement réel, simplement une analyse plus solide et / ou une meilleure information, et de la liquidité.
Ce que les meilleurs d'entre nous semblent atteindre, c'est l'amélioration de Pareto, grâce à laquelle les agents peuvent être améliorés sans que d'autres agents soient aggravés.
Le point ici est qu'il a fallu l'intelligence humaine pour identifier et définir ces conditions. (La nature s'en fout.) L'optimalité de Pareto a été controversée en raison de son origine, mais c'était avant l'industrie technologique, qui est très bonne pour créer de nouvelles opportunités, et il me semble qu'elle peut également être utilisée pour équilibrer la distribution des ressources aux essayez de maximiser la stabilité sociale. (C'est-à-dire qu'il peut parfois être plus optimal d'être un peu plus mal loti.)
Ma vision lugubre de notre espèce ne vient pas d'être inefficace ou, souvent, stupide, mais de l'idée qu'à ce stade de l'histoire, nous agissons toujours comme si nous venions de descendre des arbres, régressant plutôt vers le tribalisme et les conflits partisans. de coopération.
Contrairement à votre thèse:
La superintelligence et l'AGI sont toujours à l'horizon et tout à fait théoriques, mais, s'ils sont atteints et que ces algorithmes sont de purs mécanismes, dépourvus des valeurs que nous, humains, au mieux, chérissons, nous pourrions finir par devenir simplement une autre victime du processus évolutif , dépassé par de nouvelles formes de vie artificielle, nous n'avons aucune chance de rivaliser.
Dans un certain sens, le mouvement vers un être humain peut être considéré comme une célébration de l'humanité, plus sophistiquée, mais pas entièrement différente de l'esprit que le David de Michel-Ange.
la source
Bien que la nature humaine ait beaucoup de défauts, elle a certainement été la plus réussie tant qu'elle existe, comme l'a souligné @DukeZhou. Le succès peut être entièrement et entièrement fait allusion au fait que nous avons un cerveau très fonctionnel et capable. Par rapport à d'autres espèces, nous sommes physiquement (prouesses physiques) beaucoup plus incapables. Donc, si nous essayons de créer une IA, ne devrions-nous pas essayer de modéliser notre propre cerveau, le meilleur système intelligent qui soit?
La seule chose que vous avez manqué, c'est que les humains sont beaucoup plus pacifiques que tous les autres animaux. Les animaux sont dans une guerre constante pour leur survie, nous, les humains, avons pu surmonter tout cela et nous avons vécu les moments les plus paisibles de tout le millénaire. Des conflits peuvent survenir, cela peut être attribué à nos gènes. Nos gènes proviennent de nos ancêtres animaux, où ils visualisent beaucoup de choses comme des menaces (y compris les mêmes espèces d'animaux de sexe opposé, le processus de pensée opposé peut également être perçu comme une menace). Il est donc lié à s'infiltrer dans notre mentalité. Pouvons-nous le changer? Peut-être non (cela va peut-être à l'encontre des lois de la nature et de la sélection naturelle).
Voyons 2 cas où il n'y avait pas de concurrence:
Les fourmis et les abeilles étant coopératives sont un terme inapproprié pour moi. Cela est entièrement dû au fait que toutes les fourmis / abeilles d'une colonie particulière sont des frères et sœurs (sinon elles abattent brutalement d'autres colonies). De plus, ils maintiennent des limites territoriales tant qu'il y a d'abondantes ressources à l'intérieur, sinon il y a une guerre (je ne peux citer aucune source mais j'ai entendu beaucoup de fourmis envahir les territoires d'autres fourmis).
Les bactéries n'ont ni douleur ni peur, mais dire qu'elles ont existé longtemps grâce à la coopération ne me semble pas tout à fait correct. Ils ont probablement un mécanisme de survie efficace.
Le point de tout cela est qu'il n'y a pas d'image rose du royaume animal comme l'a dit @Neil Slater.
En ce qui concerne la façon dont nous devrions créer le comportement d'une IA? Les IA n'ont pas de gènes pour le moment, elles n'ont donc aucune obligation envers sa progéniture et n'auront aucune jalousie, cela signifie qu'elles n'ont pas les éléments de base d'un organisme biologique (et n'ont donc aucune obligation / intérêt envers lui). Mais je crois que la concurrence est bonne parmi l'IA, sinon comment vont-ils apprendre de nouvelles stratégies? La concurrence sans jalousie est donc le meilleur scénario pour les agents de l'IA (ce n'est peut-être pas le cas dans le royaume animal). s'il n'y a pas de concurrence, les connaissances parmi les IA stagneront probablement.
Je ne suis pas un expert en théorie des jeux, mais si 2 agents ou plus se font concurrence, ils doivent suivre la théorie des jeux pour maximiser leurs résultats (indiquant probablement l'efficacité de Pareto comme l'a souligné @DukeZhou, ou du point de vue physique, l'énergie n'est ni créée ni détruite). , distribué uniquement de système à système). Mais il y a un hic ici, il existe de multiples stratégies viables qui dépendent entièrement de l'environnement . C'était un sujet qui a été étudié par les informaticiens Axelrod et Hamilton où ils ont testé plusieurs stratégies. Une version simplifiée de leurs expériences peut être trouvée dans The Selfish Genelivre chapitre 12. Leurs expériences (simulées sur un ordinateur) donnent apparemment des preuves que les gars sympas (les gars qui font des faveurs inconditionnelles) ne perdent pas toujours les gars égoïstes. Cela doit être approfondi si nous voulons réellement créer une colonie d'IA.
TL; DR : Il est injuste de comparer l'IA avec le règne animal car ils n'ont pas l'unité de survie de base (le gène). Les humains sont de loin les plus intelligents et les plus pacifiques de tout le règne animal. La compétition sans jalousie est probablement le meilleur plan d'action dans n'importe quelle colonie ou espèce.
la source
Certaines caractéristiques de l'intelligence humaine font certainement partie de l'objectif à long terme de l'IA. La plupart de ces caractéristiques sont évidemment aussi des propriétés d'autres espèces. Une question vraiment cruciale est de savoir comment un ordinateur pourrait-il percevoir non seulement à la manière d'un être humain, mais aussi percevoir? Les symboles émis par les capteurs numériques n'indiquent pas ce qui a été détecté. Tout ce que l'ordinateur obtient, ce sont les symboles, alors comment un ordinateur pourrait-il percevoir quoi que ce soit?
Un autre problème vraiment crucial est que les humains et probablement la plupart des autres animaux ont dans une certaine mesure une intelligence générale - peuvent appliquer ce qui a été appris dans le passé à de nouvelles situations. Avec les humains, il existe une version du problème des connaissances générales qui s'applique au langage, c'est donc une question purement humaine. Mais de nombreux animaux ont clairement une sorte de connaissances générales. L'IA n'a pas encore produit de machine de culture générale. Les effets désastreux des «cas marginaux» sur les logiciels d'IA de véhicules autonomes, en sont une preuve très inquiétante. Comment obtenir une intelligence générale est également un problème absolument fondamental.
Donc, pour résumer ma réponse: à l'heure actuelle, une intelligence humaine n'est pas l'objectif intelligent. L'IA a des problèmes beaucoup plus fondamentaux. L'objectif intelligent à l'heure actuelle est de comprendre les principes de la perception et comment les incarner dans un ordinateur (en supposant que cela soit possible), et de comprendre les principes de l'intelligence générale et comment les incarner.
C'est-à-dire déterminer comment les animaux connaissent leur environnement et comment ils réagissent adéquatement aux situations nouvelles sur la base de l'expérience passée.
la source