Y a-t-il une raison de l'excès de confiance initiale des scientifiques et des ingénieurs travaillant sur l'intelligence artificielle dans les années 1960?

21

Je viens de commencer un cours d'IA et d'exploration de données et le livre. Programmation d'application AI, commence par un aperçu de l'histoire de l'IA. Le premier chapitre traite de l'histoire de l'IA des années 40 à nos jours. Une déclaration particulière m'est sortie:

[Dans les années 60] Les ingénieurs de l'IA ont fait des promesses excessives et sous-livrés

Quelle était la raison de l'excès de confiance? Était-ce à cause des modèles de prédiction mathématique montrant qu'une percée était imminente, ou à cause de la capacité de plus en plus importante du matériel à en profiter?

Jason
la source
4
Le problème des hubris est universel. Lisez «Fooled by Randomness» pour plus de détails. en.wikipedia.org/wiki/Fooled_by_Randomness
Job
1
Si votre bibliothèque en a une copie, l'article de Doug Lenat, "Pourquoi AM et EURISKO semblent fonctionner". Intelligence artificielle 23 (3): pp. 269-294. pourrait valoir la peine d'être lu. (AM et EURISKO étaient les propres programmes de Doug Lenat). Cependant, c'est bien après les années 60. Personnellement, je pense que c'était parce que certains des premiers projets étaient très réussis, donc il semblait que de nombreux problèmes seraient solubles en utilisant des techniques simples. Hélas, cela ne s'est pas avéré être le cas.
MZB
7
Le problème a été plus difficile que prévu. Plus dur.
8
@ Thorbjørn Je ne sais pas pourquoi, mais je peux imaginer qu'être griffonné dans les marges d'un cahier d'un scientifique d'un ingénieur juste avant qu'il ne quitte le bureau et atteigne le point de basculement, perdant toute raison.
Thomas Owens
3
Cela ne vaut pas la peine de donner une réponse, mais vous devriez également regarder le contexte social de cette époque. Le monde occidental, en particulier les États-Unis, a traversé la Seconde Guerre mondiale et a développé de nombreuses technologies qui ont résolu de nombreux problèmes difficiles. Il y avait un sentiment général que nous pouvions surmonter n'importe quel problème que nous voulions résoudre. L'appeler arrogance ou orgueil est probablement un peu exagéré; J'irais plus pour quelque chose comme un optimisme débridé.
Blrfl

Réponses:

30

Mon opinion personnelle est que c'était dû à l' orgueil . Il y avait de puissants grands egos dans les couloirs du MIT, de Stanford, etc. dans les années 60 et 70 et ils savaient qu'ils avaient résolu ce problème. Droite.

Même si je ne faisais pas partie de cet univers à cette époque, du milieu à la fin des années 80, je travaillais avec la recherche de similitudes. Notre travail était initialement basé sur des recherches effectuées par Gerard Salton à Cornell dans les années 60, qui utilisaient des vecteurs d'attributs pondérés pour représenter des documents et des requêtes. C'était en fait une approche utilisable, mais lorsque les réseaux neuronaux sont tombés en flammes (au moins jusqu'à ce qu'ils découvrent la propagation arrière ), le travail de Salton a été inclus en raison de similitudes (jeu de mots) avec les réseaux neuronaux. Il essayait de faire quelque chose de différent, mais il y a eu plusieurs années où il a été regroupé avec les autres.

Chaque fois que quelqu'un propose une solution pour le mur de briques actuel, il est très excité et déclare que l'IA est un problème résolu. Mais ce n'est pas le cas. Parce que derrière ce mur de briques, il y en a un autre. Ce cycle s'est répété encore et encore et encore et pas seulement en IA. Je crois fermement que tous les futurs informaticiens et ingénieurs devraient être tenus de suivre un cours d'un semestre sur l'histoire de l'informatique, en mettant l'accent sur le nombre de Next Big Things ™ qui ont monté comme des fusées ... et ont ensuite fait un très grand cratère au fond de la vallée.

Addendum: J'ai passé le week-end de la fête du Travail avec un vieil ami et nous en avons parlé un peu. Le contexte - comprendre ce que cela signifie, comment le représenter, puis comment l'utiliser - est apparu comme probablement le plus grand obstacle à franchir. Et plus vous le regardez longtemps, plus il devient difficile à franchir. Les humains sont capables de faire correspondre de façon partielle, quasi instantanée, ce qui se passe avec un vaste stock de ce qui s'est passé auparavant, puis de combiner cette connaissance du passé avec la situation actuelle pour créer un contexte dans lequel la compréhension peut conduire à l'action. Par exemple, nous pouvons l'utiliser comme un puissant filtre des «choses que nous pouvons / ne pouvons pas ignorer» lorsque nous parcourons le Waldo Grade à 60 MPH avec circulation à 4 voies de front et séparées par seulement 3 ou 4 pieds (ou moins!).

Sur le spectre de, stuff > data > information > knowledge > understanding > judgementnous nous efforçons toujours d'accéder aux étapes de l'information / de la connaissance, et même cela est limité à des domaines de discours très contraints .

Peter Rowell
la source
1
L'IA est comme une chaîne de montagnes. Nous sommes quelque part dans les contreforts et nous pouvons voir le sommet que nous voulons escalader, mais nous n'avons aucune idée de ce qui se trouve sur la prochaine colline ou du nombre de collines qu'il nous reste à gravir pour atteindre notre objectif.
CdMnky
1
OMI, cela ne peut pas se produire sans une reconnaissance de formes vraiment sophistiquée et très généralisée. La simple lecture de beaucoup de choses qu'ils ont essayées m'a frappé comme une sorte de naïveté ou peut-être trop de cervelle gauche, dont j'ai l'impression que la programmation est dominée par le sens en général au moins quand j'en ai pris conscience dans les années 80.
Erik Reppen
17

Tout simplement, ils ont massivement sous-estimé l’ampleur du problème, en particulier en ce qui concerne l’explosion combinatoire. De nombreuses solutions d'intelligence artificielle fonctionnent bien pour les échantillons "jouets", mais échouent difficilement lorsqu'elles évoluent vers des problèmes de niveau humain.

Sans doute, ils étaient aussi tout simplement inexpérimentés. L'IA en tant que domaine venait (relativement) juste d'être inventée en termes d'applications pratiques, donc personne n'avait d'expérience significative dans l'application de la théorie à quoi que ce soit.

DeadMG
la source
Je ne sais pas grand-chose à ce sujet, mais j'ai toujours pensé que la plupart des fonctionnalités de Google sont basées sur l'IA, ou est-ce que je comprends mal à ce sujet?
user10326
@ user10326: Ils le sont. Mais je ne vois pas ce que cela a à voir avec le sujet en question - Google n'a pas existé pendant 30 ans après la période en question.
DeadMG
Ok, mais ce que je dis, c'est qu'ils (Google) ont utilisé l'IA de manière pratique, non? Je veux dire que ce n'est peut-être pas ce qu'ils "envisageaient" à l'époque, mais les fonctionnalités de Google peuvent-elles toujours être proposées en utilisant Langage IA?
user10326
4
@ user10326, Si je comprends bien, Google utilise un système de devinettes très avancé. Fondamentalement, il analyse des montagnes d'activité des utilisateurs et tente d'extrapoler des modèles. La vision originale de l'IA était de créer un véritable esprit numérique qui fonctionnait comme un cerveau humain. En fait, le fait de ne même pas s'accorder sur ce qui constitue l'IA est l'un des inconvénients du domaine.
jiggy
@ user10326: Je n'arrive toujours pas à comprendre la pertinence.
DeadMG
15

Je peux penser à quelques raisons.

AI a connu un succès si rapide avec certains des problèmes de jouets abordés à la fin des années 50 et au début des années 60, qu'ils ont surestimé ce qu'ils avaient accompli. ELIZA et SHRDLU ont stupéfait les gens bien qu'ils soient des programmes relativement simples. Malheureusement, une grande partie de ce qui a rendu ces programmes stupéfiants n'était vraiment que de la nouveauté. Personne n'est très impressionné par une conversation avec ELIZA aujourd'hui, mais à l'époque, les gens pensaient que c'était presque miraculeux.

De plus, comme les problèmes sont «résolus» ou du moins deviennent traitables, les gens ne les considèrent plus comme des IA. L'optimisation du code était auparavant un problème d'IA. L'apprentissage statistique est passé de l'IA à sa propre spécialité et a emporté la reconnaissance vocale. À mesure que l'exploration de données devient courante, elle perdra son association avec l'IA. Au fil du temps, l'IA oublie ses succès et reste accrochée aux problèmes insolubles et insolubles, et elle finit par ressembler à un flop.

Charles E. Grant
la source
5
Bon point sur "si ce n'est plus de la magie (3), ce n'est plus de l'IA".
Piskvor
Mais l'apprentissage statistique et l'exploration de données ne sont-ils pas en principe une IA?
user10326
@ user10326, la plupart des références classent toujours le Machine Learning comme une branche de l'IA, mais j'ai l'impression que beaucoup de gens travaillant en ML vous désapprouveraient si vous leur disiez qu'ils travaillaient dans l'IA. Je pense qu'ils vous diraient que, de façon pragmatique, le ML est une branche des statistiques et ne donne aucun aperçu particulier sur l'intelligence, artificielle ou autre.
Charles E. Grant,
12

Je pense que les gens dans les années 60 ont utilisé leur propre expérience humaine pour diviser les problèmes en "problèmes difficiles" et "problèmes faciles": Des choses comme gagner aux échecs, résoudre des énigmes logiques, résoudre des équations mathématiques nous semblent difficiles. Des choses comme comprendre les langues naturelles ou trouver les contours des objets dans une image semblent faciles, car notre cerveau fait tout le travail sans effort conscient. Lorsque nous essayons d'expliquer comment nous faisons ces choses, nous arrivons à des explications simples comme «les phrases en anglais ont toujours la structure sujet-prédicat-objet où sujet peut être un simple terme ou une phrase ...», ou «je suis chercher des bords et les relier aux limites des objets ". Aujourd'hui, nous savons que les choses ne sont pas si simples, mais seulement parce que toutes les solutions simples (et beaucoup moins simples) ont été essayées et n'ont pas été faites.

En outre, cette erreur n'a pas commencé dans les années 60: il y a des siècles de recherche sur la façon de résoudre ces "problèmes difficiles" (heuristique, théorie des jeux, théorie de la décision, mathématiques, logique, etc.) mais je ne suis sûr de personne jamais pris la peine de rechercher comment les langues naturelles pourraient être analysées avant les années 1950.

Et même aujourd'hui, vous pouvez régulièrement trouver des questions sur stackoverflow, où les gens demandent comment ils peuvent analyser des phrases en anglais, estimer l'âge d'une personne dans une image, juger si une image est "sans danger pour le travail" ou si deux images montrent la même chose . Je ne pense pas que les personnes qui posent ces questions souffrent de trop d'orgueil ou d'arrogance: ces problèmes semblent tellement simples, il est incroyable qu'il n'y ait pas d'algorithme simple pour les résoudre.

nikie
la source
3
Je crois que c'est la bonne réponse plutôt que la théorie de l'orgueil, qui semble fortement appuyée sur ce site. Les choses que nous pensions incroyablement difficiles pour les humains se sont avérées relativement faciles pour les machines, par contre les choses incroyablement simples pour les humains sont très difficiles pour les machines.
AlexC
11

L'IA a une longue histoire de déceptions, mais je pense que de nombreux critiques simplifient souvent trop ce qui s'est passé, comme avec votre citation "Les ingénieurs des années 1960 sont trop promis et sous-livrés".

Dans les années 60, l'IA était le domaine d'une poignée de chercheurs (le domaine n'était pas encore suffisamment développé pour l'appeler ingénierie), principalement dans les universités, et très peu d'entre eux étaient des programmeurs accomplis.

La soudaine disponibilité des machines informatiques dans les années 1950 avait suscité de grandes attentes en matière d'automatisation, en particulier dans la traduction automatique du langage naturel, le jeu d'échecs et des problèmes similaires. Vous pourriez trouver des prédictions réelles de succès de ces jours, mais les promesses sont inévitablement venues AVANT que quiconque ne s'attaque à l'un de ces problèmes en profondeur. (Ou, ils ont supposé à tort qu'un succès en garantissait un autre, comme s'attendre à pouvoir mettre en œuvre un bon jeu d'échecs après que Samuel eut autant de succès avec les dames.)

Aussi, méfiez-vous de toute affirmation de "ils ont dit", "ils ont ressenti", "ils ont pensé", etc .; les opinions rétrospectives (comme celle-ci!) sont faciles à jeter, tandis que les preuves documentées de prédictions réelles par des "experts" (ceux qui ont réellement essayé de résoudre un problème donné) peuvent être beaucoup plus difficiles à trouver.

La surproduction et la non-diffusion ont toujours été un symptôme du développement de logiciels, quel que soit le domaine spécifique où la programmation est appliquée. Une difficulté majeure avec l'IA est que les problèmes non triviaux dépassent les capacités de la plupart des ingénieurs. Par exemple, bien que la réponse de Charles E. Grant classe ELIZA et SHRDLU comme "relativement simples", je dirais que cela n'est vrai que d'ELIZA (que la plupart des étudiants en programmation de première année pourraient probablement mettre en œuvre sans trop de difficultés). D'un autre côté, SHRDLU est un grand programme extrêmement sophistiqué que la plupart des programmeurs auraient du mal à inventer et à mettre en œuvre. En effet, deux équipes d'étudiants universitaires n'ont même pas pu faire fonctionner à nouveau le code sourceet les capacités de type SHRDLU sont encore difficiles à trouver de nos jours, plus de 40 ans plus tard.

Étant donné que l'IA est probablement l'un des problèmes les moins compris et les plus insolubles où les ordinateurs peuvent être appliqués, dans l'ensemble, je dirais que les progrès de l'IA ont généralement été à la hauteur du cours. Il y a encore de grandes attentes , et la vitesse et les capacités de notre matériel ont énormément augmenté depuis les années 60, mais je dirais que les capacités des ingénieurs et leur compréhension de l'IA ne s'améliorent pas beaucoup, donc un Saint-Graal comme passer le test de Turing est toujours probablement loin, et les promesses et les livraisons insuffisantes continueront probablement pendant un certain temps.

ID de protection des témoins 44583292
la source
Re: Test de Turing: J'ai lu un programme d'assistant à l'enseignement de Georgia Tech dont la plupart des étudiants ne savent pas qu'il s'agit d'une «IA». Ils ne l'avaient peut-être pas cherché, mais cela ne leur a certainement pas sauté dessus. Je pense que la conversation générale sera bientôt un problème résolu. J'ai vu quelqu'un jouer avec un nouveau truc Google Echo (peu importe son nom) récemment. Pitoyable, mais combien de temps cela restera-t-il ainsi, avec des millions de singes qui lui donneront des échantillons de conversation?
5

Je pense que la raison était l'arrogance. Si j'avais été ingénieur dans les années 60 travaillant sur l'IA, j'aurais été assez arrogant moi-même.

Je pense que pour accomplir de grandes choses, vous devez atteindre de grandes choses. Donc, surprendre n'est pas nécessairement une mauvaise chose tant que vous ne dépassez pas la limite. Les scientifiques d'aujourd'hui sont des choses prometteuses, je ne pense pas que ce sera possible, mais s'ils n'y parviennent pas, nous manquerons ce qui sera accompli en conséquence.

AJC
la source
4

Il peut être très difficile d'arriver quelque part lorsque vous ne savez pas où vous allez.

Si nous avions une sorte d'explication raisonnable de ce qu'est l'intelligence et de son fonctionnement, nous pourrions peut-être essayer de l'imiter efficacement. Le test de Turing est fascinant et utile, mais n'est probablement pas suffisant pour nous aider à modéliser la véritable intelligence. Pour autant que nous le sachions, un "modèle" d'intelligence pourrait ne pas être suffisant non plus pour une véritable intelligence.

Caleb
la source
3
+1 pour la première phrase.
Mason Wheeler
Peut-être que nous ne sommes pas assez intelligents pour pouvoir comprendre l'intelligence, ou même un modèle de celle-ci. Mais nous pourrions construire un modèle minable, puis le faire fonctionner sur lui-même ...
2

Eh bien, je dirais que c'est plus ou moins la même chose qui se produit avec OWL en ce moment. Regardez autour de vous et essayez de faire des parallèles.

Sonne bien sur le papier, semble bien fonctionner sur les problèmes de jouets, devient incroyablement compliqué sur la plupart des données réelles.

Codeur
la source
Qu'est-ce que OWL? Ostwestfalen-Lippe?
sleske
2

En plus des bonnes réponses données, deux observations:

Certaines citations de la journée semblent impliquer que de nombreux chercheurs pensaient que les solutions triviales pourraient être étendues une fois que des ordinateurs plus rapides ont été conçus. Pour certains types de systèmes d'apprentissage, cela était très vrai, mais pour le genre de choses, je pense que le PO en parle, cela ne s'est vraiment pas amélioré à l'échelle.

Les chercheurs de l'époque avaient une estimation très faible de la complexité de l'esprit humain (se concentrer sur des idées comme le test de Turing, l'idée que les gens n'utilisent qu'un petit pourcentage de leur cerveau, etc.). L'IA au niveau d'un simple animal a été réalisée par certaines mesures à mesure que les choses augmentaient, mais le passage à une IA au niveau humain était beaucoup plus important que prévu. Cela a conduit certains chercheurs à essayer d'apprendre les systèmes pour bébés et d'autres simulations basées sur la croissance / évolution pour tenter de combler cette lacune.

Facture
la source
Un simple cerveau (insecte, poisson, reptile) peut bien gérer son comportement , mais le raisonnement est un problème différent. Je pense donc que l'IA sera bientôt en mesure de discuter d'un domaine problématique, mais n'aura rien de significatif à apporter ou pourra résoudre de nouveaux problèmes. La zone intéressante est celle où les petits cerveaux (oiseaux) peuvent faire des choses complexes comme répondre à une conversation et inventer des choses amusantes à faire (perroquet qui imite le son de la sonnette pour regarder les gens aller répondre à la porte, puis émet un rire).
1

L'une des raisons était le succès que nous avions ailleurs dans les années 1960. Nous venions de nous lancer dans l'espace et nous allions bientôt débarquer un homme sur la lune. Nous venions de découvrir des remèdes contre la polio et d'autres grandes maladies.

Mais "l'intelligence artificielle" était un animal différent des problèmes "d'ingénierie" auxquels nous étions confrontés à l'époque. C'était un problème de «raisonnement» plutôt que «mécanique».

Bref, l'IA (dans les années 1960) était une idée "dont le temps n'était pas encore venu". Il a fallu plus de développement, au cours des décennies suivantes, avant de devenir aussi accessible que les autres problèmes.

Tom Au
la source
0

Une autre raison peut être que la maîtrise d'un ordinateur / l'écriture de programmes informatiques nous donne peu de freaks de contrôle un sentiment de toute-puissance - en fait, on crée de petits univers, quoique fermés.

Cela, plus le manque d'éducation philosophique / épistémologique et la confiance naïve dans des explications simples comme "l'intelligence n'est rien d'autre que ...." peut conduire à l'orgueil.

Ingo
la source