Je viens de commencer un cours d'IA et d'exploration de données et le livre. Programmation d'application AI, commence par un aperçu de l'histoire de l'IA. Le premier chapitre traite de l'histoire de l'IA des années 40 à nos jours. Une déclaration particulière m'est sortie:
[Dans les années 60] Les ingénieurs de l'IA ont fait des promesses excessives et sous-livrés
Quelle était la raison de l'excès de confiance? Était-ce à cause des modèles de prédiction mathématique montrant qu'une percée était imminente, ou à cause de la capacité de plus en plus importante du matériel à en profiter?
Réponses:
Mon opinion personnelle est que c'était dû à l' orgueil . Il y avait de puissants grands egos dans les couloirs du MIT, de Stanford, etc. dans les années 60 et 70 et ils savaient qu'ils avaient résolu ce problème. Droite.
Même si je ne faisais pas partie de cet univers à cette époque, du milieu à la fin des années 80, je travaillais avec la recherche de similitudes. Notre travail était initialement basé sur des recherches effectuées par Gerard Salton à Cornell dans les années 60, qui utilisaient des vecteurs d'attributs pondérés pour représenter des documents et des requêtes. C'était en fait une approche utilisable, mais lorsque les réseaux neuronaux sont tombés en flammes (au moins jusqu'à ce qu'ils découvrent la propagation arrière ), le travail de Salton a été inclus en raison de similitudes (jeu de mots) avec les réseaux neuronaux. Il essayait de faire quelque chose de différent, mais il y a eu plusieurs années où il a été regroupé avec les autres.
Chaque fois que quelqu'un propose une solution pour le mur de briques actuel, il est très excité et déclare que l'IA est un problème résolu. Mais ce n'est pas le cas. Parce que derrière ce mur de briques, il y en a un autre. Ce cycle s'est répété encore et encore et encore et pas seulement en IA. Je crois fermement que tous les futurs informaticiens et ingénieurs devraient être tenus de suivre un cours d'un semestre sur l'histoire de l'informatique, en mettant l'accent sur le nombre de Next Big Things ™ qui ont monté comme des fusées ... et ont ensuite fait un très grand cratère au fond de la vallée.
Addendum: J'ai passé le week-end de la fête du Travail avec un vieil ami et nous en avons parlé un peu. Le contexte - comprendre ce que cela signifie, comment le représenter, puis comment l'utiliser - est apparu comme probablement le plus grand obstacle à franchir. Et plus vous le regardez longtemps, plus il devient difficile à franchir. Les humains sont capables de faire correspondre de façon partielle, quasi instantanée, ce qui se passe avec un vaste stock de ce qui s'est passé auparavant, puis de combiner cette connaissance du passé avec la situation actuelle pour créer un contexte dans lequel la compréhension peut conduire à l'action. Par exemple, nous pouvons l'utiliser comme un puissant filtre des «choses que nous pouvons / ne pouvons pas ignorer» lorsque nous parcourons le Waldo Grade à 60 MPH avec circulation à 4 voies de front et séparées par seulement 3 ou 4 pieds (ou moins!).
Sur le spectre de,
stuff > data > information > knowledge > understanding > judgement
nous nous efforçons toujours d'accéder aux étapes de l'information / de la connaissance, et même cela est limité à des domaines de discours très contraints .la source
Tout simplement, ils ont massivement sous-estimé l’ampleur du problème, en particulier en ce qui concerne l’explosion combinatoire. De nombreuses solutions d'intelligence artificielle fonctionnent bien pour les échantillons "jouets", mais échouent difficilement lorsqu'elles évoluent vers des problèmes de niveau humain.
Sans doute, ils étaient aussi tout simplement inexpérimentés. L'IA en tant que domaine venait (relativement) juste d'être inventée en termes d'applications pratiques, donc personne n'avait d'expérience significative dans l'application de la théorie à quoi que ce soit.
la source
Je peux penser à quelques raisons.
AI a connu un succès si rapide avec certains des problèmes de jouets abordés à la fin des années 50 et au début des années 60, qu'ils ont surestimé ce qu'ils avaient accompli. ELIZA et SHRDLU ont stupéfait les gens bien qu'ils soient des programmes relativement simples. Malheureusement, une grande partie de ce qui a rendu ces programmes stupéfiants n'était vraiment que de la nouveauté. Personne n'est très impressionné par une conversation avec ELIZA aujourd'hui, mais à l'époque, les gens pensaient que c'était presque miraculeux.
De plus, comme les problèmes sont «résolus» ou du moins deviennent traitables, les gens ne les considèrent plus comme des IA. L'optimisation du code était auparavant un problème d'IA. L'apprentissage statistique est passé de l'IA à sa propre spécialité et a emporté la reconnaissance vocale. À mesure que l'exploration de données devient courante, elle perdra son association avec l'IA. Au fil du temps, l'IA oublie ses succès et reste accrochée aux problèmes insolubles et insolubles, et elle finit par ressembler à un flop.
la source
Je pense que les gens dans les années 60 ont utilisé leur propre expérience humaine pour diviser les problèmes en "problèmes difficiles" et "problèmes faciles": Des choses comme gagner aux échecs, résoudre des énigmes logiques, résoudre des équations mathématiques nous semblent difficiles. Des choses comme comprendre les langues naturelles ou trouver les contours des objets dans une image semblent faciles, car notre cerveau fait tout le travail sans effort conscient. Lorsque nous essayons d'expliquer comment nous faisons ces choses, nous arrivons à des explications simples comme «les phrases en anglais ont toujours la structure sujet-prédicat-objet où sujet peut être un simple terme ou une phrase ...», ou «je suis chercher des bords et les relier aux limites des objets ". Aujourd'hui, nous savons que les choses ne sont pas si simples, mais seulement parce que toutes les solutions simples (et beaucoup moins simples) ont été essayées et n'ont pas été faites.
En outre, cette erreur n'a pas commencé dans les années 60: il y a des siècles de recherche sur la façon de résoudre ces "problèmes difficiles" (heuristique, théorie des jeux, théorie de la décision, mathématiques, logique, etc.) mais je ne suis sûr de personne jamais pris la peine de rechercher comment les langues naturelles pourraient être analysées avant les années 1950.
Et même aujourd'hui, vous pouvez régulièrement trouver des questions sur stackoverflow, où les gens demandent comment ils peuvent analyser des phrases en anglais, estimer l'âge d'une personne dans une image, juger si une image est "sans danger pour le travail" ou si deux images montrent la même chose . Je ne pense pas que les personnes qui posent ces questions souffrent de trop d'orgueil ou d'arrogance: ces problèmes semblent tellement simples, il est incroyable qu'il n'y ait pas d'algorithme simple pour les résoudre.
la source
L'IA a une longue histoire de déceptions, mais je pense que de nombreux critiques simplifient souvent trop ce qui s'est passé, comme avec votre citation "Les ingénieurs des années 1960 sont trop promis et sous-livrés".
Dans les années 60, l'IA était le domaine d'une poignée de chercheurs (le domaine n'était pas encore suffisamment développé pour l'appeler ingénierie), principalement dans les universités, et très peu d'entre eux étaient des programmeurs accomplis.
La soudaine disponibilité des machines informatiques dans les années 1950 avait suscité de grandes attentes en matière d'automatisation, en particulier dans la traduction automatique du langage naturel, le jeu d'échecs et des problèmes similaires. Vous pourriez trouver des prédictions réelles de succès de ces jours, mais les promesses sont inévitablement venues AVANT que quiconque ne s'attaque à l'un de ces problèmes en profondeur. (Ou, ils ont supposé à tort qu'un succès en garantissait un autre, comme s'attendre à pouvoir mettre en œuvre un bon jeu d'échecs après que Samuel eut autant de succès avec les dames.)
Aussi, méfiez-vous de toute affirmation de "ils ont dit", "ils ont ressenti", "ils ont pensé", etc .; les opinions rétrospectives (comme celle-ci!) sont faciles à jeter, tandis que les preuves documentées de prédictions réelles par des "experts" (ceux qui ont réellement essayé de résoudre un problème donné) peuvent être beaucoup plus difficiles à trouver.
La surproduction et la non-diffusion ont toujours été un symptôme du développement de logiciels, quel que soit le domaine spécifique où la programmation est appliquée. Une difficulté majeure avec l'IA est que les problèmes non triviaux dépassent les capacités de la plupart des ingénieurs. Par exemple, bien que la réponse de Charles E. Grant classe ELIZA et SHRDLU comme "relativement simples", je dirais que cela n'est vrai que d'ELIZA (que la plupart des étudiants en programmation de première année pourraient probablement mettre en œuvre sans trop de difficultés). D'un autre côté, SHRDLU est un grand programme extrêmement sophistiqué que la plupart des programmeurs auraient du mal à inventer et à mettre en œuvre. En effet, deux équipes d'étudiants universitaires n'ont même pas pu faire fonctionner à nouveau le code sourceet les capacités de type SHRDLU sont encore difficiles à trouver de nos jours, plus de 40 ans plus tard.
Étant donné que l'IA est probablement l'un des problèmes les moins compris et les plus insolubles où les ordinateurs peuvent être appliqués, dans l'ensemble, je dirais que les progrès de l'IA ont généralement été à la hauteur du cours. Il y a encore de grandes attentes , et la vitesse et les capacités de notre matériel ont énormément augmenté depuis les années 60, mais je dirais que les capacités des ingénieurs et leur compréhension de l'IA ne s'améliorent pas beaucoup, donc un Saint-Graal comme passer le test de Turing est toujours probablement loin, et les promesses et les livraisons insuffisantes continueront probablement pendant un certain temps.
la source
Je pense que la raison était l'arrogance. Si j'avais été ingénieur dans les années 60 travaillant sur l'IA, j'aurais été assez arrogant moi-même.
Je pense que pour accomplir de grandes choses, vous devez atteindre de grandes choses. Donc, surprendre n'est pas nécessairement une mauvaise chose tant que vous ne dépassez pas la limite. Les scientifiques d'aujourd'hui sont des choses prometteuses, je ne pense pas que ce sera possible, mais s'ils n'y parviennent pas, nous manquerons ce qui sera accompli en conséquence.
la source
Il peut être très difficile d'arriver quelque part lorsque vous ne savez pas où vous allez.
Si nous avions une sorte d'explication raisonnable de ce qu'est l'intelligence et de son fonctionnement, nous pourrions peut-être essayer de l'imiter efficacement. Le test de Turing est fascinant et utile, mais n'est probablement pas suffisant pour nous aider à modéliser la véritable intelligence. Pour autant que nous le sachions, un "modèle" d'intelligence pourrait ne pas être suffisant non plus pour une véritable intelligence.
la source
Eh bien, je dirais que c'est plus ou moins la même chose qui se produit avec OWL en ce moment. Regardez autour de vous et essayez de faire des parallèles.
Sonne bien sur le papier, semble bien fonctionner sur les problèmes de jouets, devient incroyablement compliqué sur la plupart des données réelles.
la source
En plus des bonnes réponses données, deux observations:
Certaines citations de la journée semblent impliquer que de nombreux chercheurs pensaient que les solutions triviales pourraient être étendues une fois que des ordinateurs plus rapides ont été conçus. Pour certains types de systèmes d'apprentissage, cela était très vrai, mais pour le genre de choses, je pense que le PO en parle, cela ne s'est vraiment pas amélioré à l'échelle.
Les chercheurs de l'époque avaient une estimation très faible de la complexité de l'esprit humain (se concentrer sur des idées comme le test de Turing, l'idée que les gens n'utilisent qu'un petit pourcentage de leur cerveau, etc.). L'IA au niveau d'un simple animal a été réalisée par certaines mesures à mesure que les choses augmentaient, mais le passage à une IA au niveau humain était beaucoup plus important que prévu. Cela a conduit certains chercheurs à essayer d'apprendre les systèmes pour bébés et d'autres simulations basées sur la croissance / évolution pour tenter de combler cette lacune.
la source
L'une des raisons était le succès que nous avions ailleurs dans les années 1960. Nous venions de nous lancer dans l'espace et nous allions bientôt débarquer un homme sur la lune. Nous venions de découvrir des remèdes contre la polio et d'autres grandes maladies.
Mais "l'intelligence artificielle" était un animal différent des problèmes "d'ingénierie" auxquels nous étions confrontés à l'époque. C'était un problème de «raisonnement» plutôt que «mécanique».
Bref, l'IA (dans les années 1960) était une idée "dont le temps n'était pas encore venu". Il a fallu plus de développement, au cours des décennies suivantes, avant de devenir aussi accessible que les autres problèmes.
la source
Une autre raison peut être que la maîtrise d'un ordinateur / l'écriture de programmes informatiques nous donne peu de freaks de contrôle un sentiment de toute-puissance - en fait, on crée de petits univers, quoique fermés.
Cela, plus le manque d'éducation philosophique / épistémologique et la confiance naïve dans des explications simples comme "l'intelligence n'est rien d'autre que ...." peut conduire à l'orgueil.
la source