Pourquoi l'OCR ne peut-il pas être perçu comme un bon exemple d'IA?

17

Sur la page wikipedia sur l'IA, on peut lire:

La reconnaissance optique des caractères n'est plus perçue comme un exemple de «l'intelligence artificielle» devenue une technologie de routine.

D'autre part, la base de données MNIST des chiffres manuscrits est spécialement conçue pour la formation et le test des réseaux de neurones et de leurs taux d'erreur (voir: Classificateurs ).

Alors, pourquoi la citation ci-dessus indique-t-elle que l'OCR n'est plus un exemple d'IA?

Kenorb
la source

Réponses:

18

Chaque fois qu'un problème devient résoluble par un ordinateur, les gens commencent à faire valoir qu'il ne nécessite pas d'intelligence. John McCarthy est souvent cité: "Dès qu'il fonctionne, plus personne ne l'appelle IA" ( référencé dans CACM ).

Un de mes professeurs à l'université a dit que dans les années 1950, on avait demandé à un professeur ce qu'il pensait être intelligent pour une machine. Le professeur aurait répondu que si un distributeur automatique lui donnait le bon changement, ce serait intelligent.

Plus tard, jouer aux échecs était considéré comme intelligent. Cependant, les ordinateurs peuvent désormais vaincre les grands maîtres aux échecs, et les gens ne disent plus que c'est une forme d'intelligence.

Maintenant, nous avons l'OCR. Il est déjà indiqué dans une autre réponse que nos méthodes ne disposent pas des moyens de reconnaissance d'un enfant de 5 ans. Dès que cela sera réalisé, les gens diront "meh, ce n'est pas de l'intelligence, un enfant de 5 ans peut faire ça!"

Un parti pris psychologique, un besoin de déclarer que nous sommes en quelque sorte supérieurs aux machines, est à la base de cela.

SL Barth - Réintégrer Monica
la source
1
Peut-être que la phrase principale a besoin d'une référence McCarthy est habituellement cité: "Dès qu'elle fonctionne, personne ne l'appelle AI."
Eric Platon
1
@EricPlaton Bon point, merci! Mis à jour la réponse. Impossible de trouver une référence directe, mais CACM doit être suffisamment fiable.
SL Barth - Reinstate Monica
Si nous sommes dans le déni comme celui-ci, nous ne saurons jamais quand le robot atteindra l'AGI.
logeekal
12

Bien que l'OCR soit désormais une technologie grand public, il reste vrai qu'aucune de nos méthodes n'a vraiment les installations de reconnaissance d'un enfant de 5 ans (malgré le succès annoncé avec CAPTCHAs). Nous ne savons pas comment y parvenir en utilisant des techniques bien comprises, donc l'OCR devrait toujours être considéré à juste titre comme un problème d'IA.

Pour voir pourquoi il pourrait en être ainsi, il est éclairant de lire l'essai "Sur voir les A et voir les AS" de Douglas Hofstadter.

En ce qui concerne un point soulevé dans une autre réponse, le cadrage de l'agent est utile dans la mesure où il motive le succès dans des environnements de plus en plus complexes. Cependant, il existe de nombreux problèmes difficiles (par exemple Bongard) qui n'ont pas besoin d'être énoncés de cette manière.

NietzscheanAI
la source
4

Je ne sais pas si prédire MNIST peut vraiment être considéré comme une tâche d'IA. Les problèmes d'IA peuvent généralement être définis dans le contexte d'un agent agissant dans un environnement. Les réseaux de neurones et les techniques d'apprentissage automatique en général n'ont pas à gérer ce cadrage. Les classificateurs, par exemple, apprennent une correspondance entre deux espaces. Bien que l'on puisse affirmer que vous pouvez encadrer la classification OCR / image comme un problème d'IA - le classificateur est l'agent, chaque prédiction qu'il fait est une action, et il reçoit des récompenses en fonction de sa précision de classification - ce n'est pas naturel et différent des problèmes qui sont généralement considérés comme des problèmes d'IA.

Jacky
la source