Comment le «droit à l'explication» est-il raisonnable?

8

Il y a eu récemment une hausse de l'intérêt pour e X plainable A Interieur I de renseignements sur le (Xai). Voici la mission de XAI comme indiqué sur sa page DARPA :

Le programme Explainable AI (XAI) vise à créer une suite de techniques d'apprentissage automatique qui:

  • Produire des modèles plus explicables, tout en maintenant un haut niveau de performance d'apprentissage (précision des prédictions); et
  • Permettre aux utilisateurs humains de comprendre, de faire confiance et de gérer efficacement la nouvelle génération de partenaires artificiellement intelligents.

L'article du New York Times peut-on apprendre à l'IA à s'expliquer? fait un bon travail pour expliquer le besoin de XAI du point de vue de l'intérêt humain ainsi que pour fournir un aperçu des techniques développées pour le même. La force derrière le mouvement XAI semble se concentrer sur le concept (en devenir?) De droit à l'explication , c'est-à-dire l'exigence que les applications d'IA qui ont un impact significatif sur la vie humaine via leurs décisions soient en mesure d'expliquer aux parties prenantes les facteurs / raisons qui ont mené à à ladite décision.

Comment le droit à l'explication est-il raisonnable, compte tenu des normes actuelles auxquelles nous nous tenons mutuellement responsables?

LastIronStar
la source
L'article Intelligence artificielle (IA) Computer dit non: pourquoi rendre les IA équitables, responsables et transparentes est essentiel pour dire que l' Europe est en avance sur les autres parties du monde en élaborant des réglementations pour protéger les gens contre l'IA mal faite ou utilisée . Cependant, ces réglementations sont un peu faibles: par exemple, elles ne s'appliquent pas aux cas où il y a implication des humains ou de leurs décisions (hormis celles de l'IA).
nbro

Réponses:

3

Comment le droit à l'explication est-il raisonnable, compte tenu des normes actuelles auxquelles nous nous tenons mutuellement responsables?

Bref, c'est tout à fait raisonnable.

Plus précisément, rendre l'IA responsable et responsable d'expliquer la décision semble raisonnable car

  • Les humains (DARPA dans ce cas) a choisi de créer, augmenter et faire évoluer l'IA avec l'argent des contribuables. Dans notre société également, chaque fois que les humains se sont réunis dans un but (un arrangement formel comme le gouvernement ou autre), la responsabilisation et la responsabilité sont assumées et attribuées. Ainsi, s'attendre à ce que l'IA (qui prendra des décisions en notre nom) explique ses décisions ne semble que l'extension naturelle du fonctionnement actuel des humains .

  • Les humains (en général du moins) n'ont ni superpuissance ni ressources pour contrôler et manipuler le reste de la population. Mais quand ils le font (comme nos dirigeants politiques ), nous voulons qu'ils soient responsables.

  • Dans de rares cas, les humains puissants deviennent puissants en raison de choses accessibles à tous , tandis que la super-puissance de l'IA ne le sera pas. Ainsi, notre civilisation se sentirait plus en sécurité et donc moins précaire avec une IA qui ne ferme pas la porte au nez lorsque des questions sont posées.

Autres avantages de l'IA qui explique comment une décision est prise

  • Beaucoup plus facile à déboguer et à améliorer à ses débuts.

  • Peut être personnalisé davantage (et en cours de route) pour amplifier certains aspects comme le bien-être social sur la rentabilité, etc.

gurvinder372
la source
0

Dans l'article Esclave de l'algorithme? Pourquoi un «droit à une explication» n'est probablement pas le remède que vous recherchez , les auteurs affirment que le «droit à l'explication» est peu susceptible de fournir un remède complet aux préjudices algorithmiques pour au moins deux raisons

  1. On ne sait pas quand un droit lié à une explication peut être déclenché

  2. Les explications requises par la loi, "des informations significatives sur la logique du traitement", peuvent ne pas être fournies par les méthodes d'IA actuelles (explicables)

Les auteurs concluent ensuite que le "droit à l'explication" est gênant , mais que d'autres lois du règlement général de l'Union européenne sur la protection des données, telles que

  1. droit à l'oubli
  2. droit à la portabilité des données
  3. confidentialité par conception

pourrait compenser les défauts du "droit à l'explication".

Pour conclure, le "droit à l'explication" est une tentative de protéger les citoyens contre les éventuelles conséquences indésirables de l'utilisation des méthodes d'IA. Cependant, il n'est pas parfait et des droits plus clairs pourraient devoir être promulgués.

nbro
la source