Prenons cet exemple:
C'est l'anniversaire de John, achetons-lui un cerf-volant.
Nous, humains, dirions très probablement que le cerf-volant est un cadeau d'anniversaire, si on lui demande pourquoi il est acheté; et nous appelons ce raisonnement le bon sens .
Pourquoi avons-nous besoin de cela dans des agents artificiellement intelligents? Je pense que cela pourrait causer une pléthore de problèmes, car beaucoup de nos erreurs humaines sont causées par ces hypothèses vagues.
Imaginez une IA ignorant de faire certaines choses, car elle suppose qu'elle a déjà été effectuée par quelqu'un d'autre (ou une autre IA), en utilisant son bon sens.
Cela n'apporterait-il pas des erreurs humaines dans les systèmes d'IA?
Réponses:
La connaissance de bon sens est la collection de prémisses que tout le monde, dans un certain contexte (d'où la connaissance de bon sens peut être fonction du contexte), tient pour acquis. Il y aurait beaucoup de problèmes de communication entre un humain et une IA si l'IA ne possédait pas la connaissance de bon sens. Par conséquent, la connaissance du bon sens est fondamentale pour l'interaction homme-IA .
Il existe également des prémisses que chaque être humain tient pour acquises indépendamment du pays, de la culture ou, en général, du contexte. Par exemple, chaque être humain (presque depuis sa naissance) dispose d'un mécanisme de raisonnement sur la physique naïve, comme l'espace, le temps et les interactions physiques. Si une IA ne possède pas cette connaissance, elle ne peut pas effectuer les tâches qui nécessitent cette connaissance.
Toute tâche qui nécessite qu'une machine ait des connaissances de bon sens (d'un humain moyen ) est considérée comme complète , c'est-à-dire qu'elle nécessite une intelligence de niveau humain (ou générale). Voir la section 3 de l'article Common Sense Knowledge (2009), par Christian Andrich, Leo Novosel et Bojan Hrnkas.
Bien sûr, les problèmes qui surviennent pendant que les humains communiquent en raison d'hypothèses ou de prémisses différentes peuvent également survenir entre les humains et les IA (qui possèdent des connaissances de bon sens).
la source
Nous avons besoin de ce genre de connaissances de bon sens si nous voulons que les ordinateurs comprennent le langage humain. Il est facile pour un programme informatique d'analyser la structure grammaticale de l'exemple que vous donnez, mais pour comprendre sa signification, nous devons connaître les contextes possibles, ce que vous appelez ici le "bon sens".
Cela a été beaucoup souligné dans Roger Schank et al. travaille sur la compréhension informatique des histoires et mène à de nombreuses recherches sur la représentation des connaissances, les scripts, les plans, les objectifs. Un exemple du travail de Schank est Mary avait faim. Elle a ramassé un guide Michelin. - cela ressemble à un non-sequitur: si vous avez faim, pourquoi prendre un livre? Jusqu'à ce que vous réalisiez qu'il s'agit d'un guide de restauration et que Mary prévoit probablement d'aller au restaurant pour manger. Si vous savez qu'aller dans un restaurant est une solution potentielle au problème de la faim, alors vous n'avez aucun problème à comprendre ce fragment d'histoire.
Toute histoire a besoin de bon sens pour être comprise, car aucune histoire n'est complètement explicite. Les choses courantes sont "comprises" et ne sont pas explicitement mentionnées. Les histoires se rapportent à l'expérience humaine, et une histoire qui rendrait tout explicite se lirait probablement comme un programme informatique. Vous avez également besoin de bon sens pour comprendre comment les personnages d'une histoire se comportent et comment ils sont affectés par ce qui se passe. Encore une fois, c'est très subjectif, mais c'est nécessaire. Un certain bon sens pourrait être généralement applicable, d'autres aspects ne le seront pas. C'est un problème complexe, c'est pourquoi les chercheurs se sont débattus avec lui pendant au moins un demi-siècle de recherche sur l'IA.
Bien sûr, cela introduirait des "erreurs humaines" dans un système d'IA. Tout cela est très subjectif et spécifique à la culture. Aller dans un restaurant aux États-Unis est différent d'aller dans un restaurant en France - c'est pourquoi aller à l'étranger peut être un défi. Et ma lecture d'une histoire sera probablement différente de la vôtre. Mais si vous voulez simuler l'intelligence humaine, vous ne pouvez pas le faire sans "erreurs" humaines potentielles.
la source
Je répondrai à cette question en plusieurs parties:
Les humains dans la raison sauvage et communiquent plus avec le bon sens qu'avec une logique stricte, vous pouvez le voir en notant qu'il est plus facile de faire appel à l'émotion de quelqu'un que la logique. Ainsi, tout système qui cherche à reproduire la cognition humaine (comme dans AGI) devrait également reproduire cette tendance à utiliser le bon sens.
Plus simplement, nous souhaiterions que notre système AGI puisse nous parler dans un langage de bon sens simplement parce que c'est ce que nous comprenons le mieux (sinon nous ne comprendrions pas notre AGI amical, n'est-ce pas?). La théorie obscure et la logique stricte peuvent être techniquement correctes, mais ne font pas appel à notre compréhension.
Premièrement, il peut sembler que la logique du bon sens soit "irrationnelle". Il existe peut-être une manière mathématique cohérente de modéliser le bon sens de telle sorte que toutes les subtilités du bon sens soient représentées de manière rigoureuse.
Deuxièmement, les premières études sur l'intelligence artificielle ont commencé dans l'étude des sciences cognitives, où les chercheurs ont tenté de reproduire des «algorithmes de l'esprit», ou plus précisément: des procédures décidables qui reproduisaient la pensée humaine. Dans cette mesure, l'étude de l'IA ne vise donc pas à créer «l'agent cognitif le plus suprême» mais à reproduire simplement la pensée / le comportement humain. Une fois que nous pouvons reproduire le comportement humain, nous pouvons peut-être essayer de créer quelque chose de surhumain en lui donnant plus de puissance de calcul, mais ce n'est pas garanti.
Peut-être alors vous avez un peu une compréhension mal alignée de ce qu'implique AGI. AGI ne signifie pas une puissance de calcul illimitée (physiquement impossible en raison de contraintes physiques sur le calcul telles que la limite de Bremermann ) ou une intelligence illimitée (peut-être physiquement impossible en raison de la contrainte préalable). Cela signifie généralement juste «intelligence générale» artificielle, sens général large et commun.
Les considérations sur les agents illimités sont étudiées plus en détail dans des domaines tels que l'informatique théorique (théorie des types, je crois), la théorie de la décision et peut-être même la théorie des ensembles, où nous pouvons poser des questions sur les agents dotés d'une puissance de calcul illimitée. Nous pourrions dire qu'il y a des questions auxquelles même un système AGI avec une puissance illimitée ne peut pas répondre en raison du problème d'arrêt , mais seulement si les hypothèses sur ces champs correspondent à la structure de l'AGI donné, ce qui pourrait ne pas être vrai.
Pour une meilleure compréhension de ce qu'AGI pourrait impliquer et de ses objectifs, je pourrais recommander deux livres: Artificial Intelligence: The Very Idea de John Haugeland pour une approche plus pragmatique (aussi pragmatique que puisse être la philosophie de l'IA, et On the Origin of Objects by Brian Cantwell Smith pour une approche plus philosophique.
Comme amusement de côté, la collection de Zen koan: The Gateless Gate, comprend le passage suivant: (cité et édité à partir de wikipedia )
Wú (無) se traduit par «aucun», «non» ou «rien», ce qui peut être interprété comme évitant de répondre par oui ou par non. Cet individu éclairé ne cherche pas à répondre strictement à toutes les questions, mais simplement à répondre d'une manière sensée. Peu importe que le chien ait ou non la nature de Bouddha (quelle que soit la nature de Bouddha), le maître par défaut absout la question plutôt que de la résoudre.
la source
Cela pourrait peut-être aider à donner un exemple de ce qui peut mal tourner sans bon sens: au début du roman "Les deux visages de demain" de James Hogan, un superviseur de la construction sur la Lune dépose une demande avec un système automatisé, demandant que un gros matériel de construction particulier soit livré sur son site dans les plus brefs délais. Le système répond qu'il arrivera dans vingt minutes. Vingt minutes plus tard, le superviseur est tué alors que l'équipement s'écrase sur son chantier de construction. Le système avait déterminé que le moyen le plus rapide de livrer l'équipement sur ce site était de le monter sur un pilote de masse et de le lancer sur le site. Si le système en question avait fait preuve de bon sens, il aurait déduit des contraintes supplémentaires non déclarées sur la requête, telles que «l'équipement devrait arriver intact», » l'arrivée de l'équipement ne doit pas causer de dommages ou de pertes de vie », etc. (le reste du roman décrit une expérience conçue pour produire un nouveau système avec bon sens)
la source
Est-ce du bon sens ou cette compréhension du langage naturel?
Il a été dit que la compréhension du langage naturel est l'une des tâches les plus difficiles de l'IA. Ceci est l'un des exemples montrant pourquoi. La première partie de la phrase est liée à la deuxième partie, à savoir comment fonctionnent les phrases.
Maintenant, la question pertinente est de savoir comment les deux parties sont liées. Il existe quelques relations standard que nous rencontrons, par exemple un ordre temporel. Dans cet exemple spécifique, la nature de la relation est plus proche d'une cause à effet.
Vous voyez cet effet lorsque nous insérons un mot pour rendre cette relation explicite:
Il s'agit d'une technique permettant aux humains de rendre explicites ces relations implicites.
Maintenant, comme le note curiousdannii, vous avez également besoin de connaissances culturelles pour comprendre comment un anniversaire peut être une cause de cadeau. Aucun bon sens n'y contribue.
la source