Des problèmes que seuls les humains pourront résoudre

17

Avec la complexité croissante de reCAPTCHA, je me suis interrogé sur l'existence d'un problème, que seul un humain sera capable de résoudre (ou que l'IA ne pourra pas résoudre tant qu'elle ne reproduira pas exactement le cerveau humain) .

Par exemple, le texte déformé ne pouvait être résolu que par l'homme. Bien que...

L'ordinateur a maintenant obtenu le bon test [texte déformé] à 99,8%, même dans les situations les plus difficiles.

Il semble également évident que le texte déformé ne peut plus être utilisé pour une véritable détection humaine.

J'aimerais aussi savoir si un algorithme peut être employé pour la création d'un tel problème (comme pour le texte déformé), ou si l'originalité d'un cerveau humain est nécessairement nécessaire.

Marc Perlade
la source

Réponses:

10

De manière informelle, les problèmes d' IA complète sont les problèmes les plus difficiles pour une IA. Le concept n'est pas encore défini mathématiquement , comme par exemple les problèmes NP-complets . Cependant, intuitivement, ce sont les problèmes qui nécessitent la résolution d'une intelligence humaine ou générale .

La véritable compréhension du langage naturel est considérée comme un problème complet de l'IA (cela est également discuté dans le document Making AI Meaningful Again de Jobst Landgrebe et Barry Smith, 2019). Il y a beaucoup plus de problèmes liés à l'intelligence artificielle. Par exemple, des problèmes impliquant des émotions.

nbro
la source
3
Les problèmes NP-complets sont appelés `` complets '' car ils sont les plus difficiles dans un sens précis: tout autre problème dans NP peut être réduit à l'un d'eux par un algorithme déterministe à temps polynomial. Par conséquent, un oracle qui pourrait résoudre n'importe quel problème NP-complet en temps polynomial pourrait être utilisé pour résoudre chaque problème en NP en temps poly. Y a-t-il un signe que votre notion d'exhaustivité de l'IA ait un sens objectif de la même manière?
Mike Spivey
1
@MikeSpivey C'est une bonne question. Je n'ai pas lu une grande quantité de littérature connexe, mais, dans l'article Vers une théorie de l'intégralité de l'IA auquel je vous relie dans ma réponse, les auteurs déclarent: " Ces mesures peuvent également nous dire dans quelle mesure le problème que nous avons déjà géré déléguer à un ordinateur; en utilisant des réductions, la progression dans un problème peut se traduire dans une autre ". Donc, dans cet article, au moins, il y a le désir de développer une théorie formelle de la complexité de l'IA.
nbro
1

Il s'agit plus d'un commentaire et d'une opinion philosophique, mais je ne pense pas qu'il y ait de problèmes qu'une IA ne puisse pas résoudre, qu'un humain peut. Étant nouveau sur ce forum, je ne peux pas faire de commentaire sur la question (et ce serait probablement trop long) - je vous demande pardon à titre préventif.

L'IA imitera éventuellement les humains (et les dépassera)

Les humains par nature sont logiques. La logique est apprise ou câblée et influencée par l'observation et les impulsions chimiques.

Tant qu'une IA peut être formée pour agir comme un humain, elle pourra agir comme telle. Actuellement, ces comportements sont limités à la technologie (espace, connexions, etc.), que le cerveau humain a été optimisé pour exclure ou ignorer certains "peluches" lui permettant automatiquement certains super capacités. Par exemple, tout ce qui est vu n'est pas enregistré par le cerveau; souvent, le cerveau effectue des comparaisons différentielles et met à jour les changements pour réduire le temps de traitement et l'énergie. Ce ne sera qu'une question de temps avant que l'IA puisse également être programmée pour se comporter de cette façon, ou les progrès technologiques lui permettront de ne pas avoir besoin d'une partie de cette fonction, ce qui lui permettra de dépasser les humains.

Dans l'état actuel, nous reconnaissons que les humains sont parfois irrationnels ou incohérents. Dans ces cas, l'IA pourrait imiter les limites humaines avec des modèles de randomisation configurés, mais encore une fois, il n'y aura vraiment pas de besoin car elle peut être programmée et apprendre ces modèles automatiquement (si nécessaire).

Tout se résume à la consommation de données, à la conservation des informations et aux corrections apprises. Ainsi, il n'y a aucun problème qu'un humain puisse effectuer (à ma connaissance) que l'IA ne pourrait théoriquement jamais réaliser. Même dans le cas de la chimie. Comme nous fabriquons des aliments et des organes, une IA pourrait également, théoriquement, se reproduire et survivre un jour via des fonctions biologiques.

Au lieu que la question soit binaire sur la capacité humaine par rapport à celle de l'intelligence artificielle, je serais plus intéressé à voir ce que les gens pensent être les choses les plus difficiles que les humains peuvent faire, ce qui prendra du temps à l'IA pour accomplir.

vol7ron
la source
Salut vol7ron. J'ai rétrogradé cette réponse parce qu'elle est pleine de spéculations, donc je ne pense pas que ce soit une réponse très utile et je ne suis pas d'accord avec beaucoup de vos déclarations. Ne le prends pas personnellement. Quoi qu'il en soit, AFAIK, vous pouvez commenter, car vous avez plus de 50 points de réputation.
nbro
Les commentaires @nbro ont des limites de longueur et je ne pouvais commenter qu'après avoir posté car je n'étais pas membre, je reçois le +100 après.
vol7ron
Vous recevez 100 points de réputation une fois votre compte créé, AFAIK. Cependant, je voudrais souligner quelques-unes de vos déclarations avec lesquelles je ne suis pas d'accord et je pense qu'elles sont incohérentes ou ambiguës. D'abord, vous dites que "les humains par nature sont logiques". Qu'entendez-vous par logique ici? Ensuite, vous dites "Dans l'état actuel, nous reconnaissons que les humains sont parfois irrationnels ou incohérents". Il me semble que vos arguments ne sont pas très cohérents et donc contradictoires. De plus, votre point principal est: l'IA sera capable de faire tout ce que les humains peuvent faire parce que je n'ai aucune preuve contre: c'est un mauvais argument.
nbro
@nbro merci pour vos commentaires! Je dirais que le cœur de ma réponse répond à la question - «non» est la réponse. Il ne s'agit pas uniquement de spéculation, mais je dirais que la question invitait à la spéculation. Le titre dit " pourra jamais ". Comment peut-on prédire l'avenir? C'est spéculatif. Ma spéculation est fondée sur les antécédents et les capacités dans les limites des opérations de l'IA. Il considère les limitations actuelles qui empêchent d'agir comme des humains dans leur état actuel et la spéculation est que ce ne sera plus un problème à l'avenir.
vol7ron
Étant donné que je ne pense pas que les spéculations soient, en général, utiles, j'ai voté contre. Je n'aurais pas voté contre si vous aviez été plus cohérent et si vous aviez soutenu vos déclarations. Par exemple, je ne comprends même pas ce que vous entendez par «corrections apprises» dans l'énoncé «Tout se résume à la consommation de données, à la conservation des informations et aux corrections apprises». Je voudrais également noter, au cas où vous ne le seriez pas, que tout ne peut pas être déduit des données (c'est-à-dire que le ML est souvent insuffisant: par exemple, il ne peut pas détecter les relations causales, mais seulement les corrélations).
nbro