Je suis un doctorant en informatique, et je crée actuellement un aperçu de l'état de l'art dans les applications faites en machine éthique (un domaine multidisciplinaire combinant philosophie et IA, qui cherche à créer des programmes ou agents éthiques explicites). Il semble que le domaine contienne principalement des arguments théoriques et il y a relativement peu d'implémentations, même s'il y a beaucoup de personnes ayant une formation technique dans le domaine.
Je comprends que, parce que l'éthique est impliquée, il n'y a pas de vérité fondamentale et comme cela fait partie de la philosophie, on peut se perdre à discuter du type d'éthique à mettre en œuvre et de la meilleure façon de le faire. Cependant, en informatique, il est habituel d'essayer même une implémentation simple pour montrer les possibilités ou les limites de votre approche.
Quelles sont les raisons possibles pour lesquelles il est si peu fait pour implémenter explicitement l'éthique dans l'IA et l'expérimenter?
la source
Réponses:
C'est nécessairement une réponse de haut niveau et hautement spéculative, mais j'ai réfléchi à cette question, et voici mes réflexions:
Après le fameux échec de Russell & Whitehead et le théorème d'incomplétude de Gödel, cela semble poser problème.
Ainsi, vous le voyez dans les voitures autonomes parce que les ingénieurs n'ont d'autre choix que de s'attaquer au problème. En revanche, je ne pense pas que vous verrez beaucoup de sociétés de négociation d'actions algorithmiques, où l'activité est l'efficacité Pareto , se souciant de l'éthique ou des impacts sociaux de la spéculation financière. (La solution aux «plantages instantanés» semble avoir été des règles de suspension temporaire du commerce, au lieu de s'attaquer à la valeur sociale du commerce algorithmique à haute fréquence.) Un exemple plus évident est que les sociétés de médias sociaux ignorent les quantités extrêmes d'abus d'informations (désinformation) et désinformation) affichés sur leurs sites, plaidant l'ignorance, ce qui est très suspect en ce que l'activité générée par l'abus d'informations affecte positivement leurs résultats.
La principale directive des sociétés est de rendre un bénéfice aux investisseurs. Il n'est pas rare que les entreprises enfreignent la loi lorsque les amendes et les pénalités devraient être inférieures au profit réalisé par une activité illégale. (Il y a le concept d'éthique dans les affaires, mais la culture en général semble juger les gens et les entreprises en fonction de l'argent qu'ils gagnent, quels qu'en soient les moyens.)
Si les superintelligences évoluent et anéantissent l'humanité (comme nous le disent certaines personnes très intelligentes avec des compétences supérieures en mathématiques), ce sera une fonction de la nature, où l'évolution sans restriction de ces algorithmes est due à des moteurs économiques qui se concentrent sur l'hyper - des automates partisans dans des secteurs comme la spéculation financière et la guerre autonome. Essentiellement, la poursuite des profits à tout prix, quels que soient les impacts.
la source
Je pense qu'une partie du problème de savoir pourquoi il existe très peu de mises en œuvre éthiques des technologies d'IA / ML, est tout simplement parce qu'il n'y a pas besoin ou une bonne application des cadres théoriques.
J'entends par là, il n'y a aucun moyen substantiel d'appliquer cette compréhension aux algorithmes et aux modèles qui ne peuvent pas interagir de manière significative. Nous avons un si grand cadre théorique sur la sécurité / l'éthique de l'IA, car il est extrêmement important. Nous devons trouver des directives sûres pour la mise en œuvre d'une IA forte avant sa création.
Certains articles très ciblés ont commencé à réduire les problèmes de création de systèmes d'IA éthiques / sûrs. Voir les problèmes concrets de sécurité de l'IA
la source
Avec la méthode de l'imitation, le comportement le plus approprié peut être intégré à l'intelligence artificielle. L'intelligence artificielle peut être remodelée lorsque la position éthique change. Il est utilisé à des fins idéologiques ou pour recueillir des informations. Ce n'est pas clair ce qu'est le robot.
la source
Nous pouvons prendre en compte le modèle d'erreur. La reconnaissance du biais et de la variance des performances sous les réseaux de neurones peut être une première étape. Et puis nous pouvons discuter si une telle performance est autorisée. À notre connaissance, la pratique de l'ethnie nécessite une étude empirique et sur le terrain. nous ne pouvons pas simplement prendre des justifications et des essais sur papier pour déterminer si les actions des machines apprises sont mauvaises ou non. Il peut être divisé en accidents, erreurs ou même bogues créés par les développeurs.
la source
Intuitivement, il semble qu'il y ait peu de recherches sur la mise en œuvre de l'éthique de l'IA car:
La société dans son ensemble semble confortablement d'accord sur le fait que l'état actuel de l'intelligence artificielle n'est pas assez fort pour être considéré comme conscient ou sensible. Ainsi, nous n'avons pas (encore) besoin de lui donner des droits éthiques.
La mise en œuvre d'un comportement éthique dans un programme nécessite une méthode permettant aux ordinateurs d'être capables d'interpréter le «sens», ce que nous ne savons pas encore faire.
la source