Évidemment, les voitures autonomes ne sont pas parfaites, alors imaginez que la voiture de Google (à titre d'exemple) se soit trouvée dans une situation difficile.
Voici quelques exemples de situations malheureuses causées par un ensemble d'événements:
- La voiture se dirige vers une foule de 10 personnes traversant la route, elle ne peut donc pas s’arrêter à temps, mais elle peut éviter de tuer 10 personnes en heurtant le mur (tuant les passagers),
- Eviter de tuer le coureur de la moto en considérant que la probabilité de survie est plus grande pour le passager de la voiture,
- Tuer un animal dans la rue en faveur d'un être humain,
- Changer de voie pour percuter une autre voiture et éviter de tuer un chien,
Et voici quelques dilemmes:
- L'algorithme reconnaît-il la différence entre un être humain et un animal?
- La taille de l'être humain ou de l'animal est-elle importante?
- Est-ce que ça compte combien de passagers il a par rapport aux gens à l'avant?
- Sait-il "savoir" quand les bébés / enfants sont à bord?
- Tient-il compte de l’âge (par exemple, tuer le plus âgé en premier)?
Comment un algorithme déciderait-il de ce qu'il devrait faire du point de vue technique? Sait-il au-dessus (compter la probabilité de tuer), ou pas (tuer des personnes simplement pour éviter sa propre destruction)?
Articles Liés:
Réponses:
Cela ne devrait pas. Les voitures autonomes ne sont pas des agents moraux. Les voitures échouent de manière prévisible. Les chevaux échouent de manière prévisible.
Dans ce cas, la voiture devrait freiner. Si les 10 personnes meurent, c'est malheureux. Nous ne pouvons tout simplement pas faire confiance à toutes nos croyances sur ce qui se passe en dehors de la voiture. Et si ces 10 personnes sont vraiment des robots conçus pour ressembler à des personnes? Et s'ils essayaient de te tuer?
Encore une fois, la codification en dur de ce type de sentiments dans un véhicule ouvre le conducteur du véhicule à toutes sortes d'attaques, y compris de "faux" motocyclistes. Les humains sont à peine équipés pour prendre ces décisions seuls, voire pas du tout. En cas de doute, il suffit de freiner.
Encore une fois, appuyez simplement sur les freins. Et si c'était un bébé? Et si c'était une bombe?
Nan. Le chien était au mauvais endroit au mauvais moment. L'autre voiture ne l'était pas. Il suffit de freiner le plus sûrement possible.
Est-ce qu'un humain? Pas toujours. Et si l'homme a un pistolet? Et si l'animal a de grandes dents? N'y a-t-il pas de contexte?
Les humains ne peuvent pas s'entendre sur ces choses. Si vous demandez à un flic quoi faire dans ces situations, la réponse ne sera pas: "Vous auriez dû dévier à gauche, peser toutes les parties concernées dans votre tête, évaluer les âges pertinents entre toutes les parties, puis virer légèrement à droite, et vous auriez sauvé 8% de vies supplémentaires. " Non, le policier dira simplement: "Vous devriez avoir immobilisé le véhicule aussi rapidement et en toute sécurité que possible." Pourquoi? Parce que les flics savent que les gens ne sont normalement pas équipés pour faire face aux scénarios d'accident à grande vitesse.
Notre objectif en matière de "voiture autonome" ne devrait pas être "un agent moral au même titre qu'un humain". Ce devrait être un agent avec la complexité réactive de la blatte, qui échoue de manière prévisible.
la source
La réponse à beaucoup de ces questions dépend de la programmation de l'appareil. Un ordinateur capable de se déplacer et de savoir où va la route aura probablement la capacité de distinguer visuellement un humain d'un animal, qu'il soit basé sur les contours, l'image ou la taille. Avec une reconnaissance d’image suffisamment nette, il pourra peut-être compter le nombre et le type de personnes dans un autre véhicule. Il pourrait même utiliser les données existantes sur le risque de blessure des personnes dans différents types de véhicules.
En fin de compte, les gens ne sont pas d’accord sur les choix éthiques impliqués. Peut-être pourrait-il y avoir des "paramètres d'éthique" à configurer par l'utilisateur / propriétaire, comme "considérer le nombre de vies seulement" et "les vies plus jeunes sont plus précieuses". Personnellement, je pense qu’il n’est pas très controversé de penser qu’une machine devrait s’endommager avant de nuire à un humain, mais les gens ne sont pas d’accord sur l’importance de la vie des animaux domestiques. Si les paramètres explicites de kill-this-first mettent les gens mal à l'aise, les réponses pourraient être déterminées à partir d'un questionnaire remis à l'utilisateur.
la source
Personnellement, je pense que cela pourrait être un problème trop médiatisé. Les problèmes de chariot ne surviennent que lorsque la situation est optimisée pour éviter les "3ème options".
Une voiture a des freins, n'est-ce pas? "Mais si les freins ne fonctionnent pas?" Eh bien, la voiture n’est pas autorisée à conduire du tout. Même dans le trafic normal, les opérateurs humains apprennent que votre vitesse doit être limitée de sorte que vous puissiez vous arrêter dans la zone visible. Des solutions comme celles-ci réduiront la possibilité d'un problème de chariot.
En ce qui concerne les animaux ... s'il n'y a pas d'effort explicite pour s'occuper des humains sur la route, je pense que les animaux seront traités de la même manière. Cela semble invraisemblable - la mort sur la route arrive souvent et la «mort sur la route» humaine est indésirable, mais les animaux sont beaucoup plus petits et plus difficiles à voir que les humains. Je pense donc que détecter les humains sera plus facile et évitera bien des accidents.
Dans d’autres cas (bugs, fautes au volant, pannes multiples superposées), des accidents risquent de se produire, ils seront analysés et les véhicules seront mis à jour pour éviter de provoquer des situations similaires.
la source
C'est le problème bien connu de Trolley . Comme Ben N l’a dit, les gens ne sont pas d’accord sur la bonne marche à suivre pour les scénarios de problèmes de tramway, mais il convient de noter qu’avec les voitures autonomes, la fiabilité est si élevée que ces scénarios sont vraiment improbables. Donc, peu d’efforts seront consacrés aux problèmes que vous décrivez, du moins à court terme.
la source
Dans le monde réel, les décisions seront prises en fonction de la loi et, comme indiqué dans Law.SE , la loi favorise généralement l'inaction par rapport à l'action.
la source
Pour une voiture sans conducteur conçue par une seule entité, le meilleur moyen de décider qui tuer est en évaluant et en minimisant le passif probable.
Il n'est pas nécessaire d'identifier absolument correctement toutes les victimes potentielles de la région pour que sa décision soit défendue, il suffit de l'identifier ainsi qu'un humain.
Il n'a même pas besoin de connaître l'âge et l'état physique de chaque personne dans la voiture, car il peut demander cette information et, en cas de refus, a la défense que les passagers ont choisi de ne pas la lui fournir, et a donc pris la responsabilité de la priver de la capacité de prendre une meilleure décision.
Il lui suffit de disposer d'un modèle viable pour minimiser l'exposition de l'entité aux poursuites judiciaires, qui peut ensuite être améliorée au fil du temps pour la rendre plus rentable.
la source
Cette citation est tirée d'un article intitulé " L'auto-conduite Mercedes-Benz donnera la priorité à la sécurité des occupants par rapport aux piétons" publié le 7 octobre 2016 par MICHAEL TAYLOR , consulté le 8 novembre 2016.
Voici un extrait qui décrit la solution technologique et pratique au problème.
Cet article contient également le paragraphe fascinant suivant.
la source
Franchement, je pense que ce problème (le problème des trolley) est intrinsèquement trop compliqué, car la solution du monde réel sera probablement assez simple. A l'instar d'un conducteur humain, un pilote d'IA sera programmé pour agir à tout moment de manière générique en termes d'éthique, en choisissant toujours le plan d'action qui ne nuit pas, ou le moins possible.
Si un pilote IA se heurte à un danger tel qu'un dommage imminent à la propriété, il va évidemment freiner très fort et éloigner la voiture des objets fragiles afin d'éviter ou de minimiser l'impact. Si le danger est de frapper un piéton, une voiture ou un bâtiment, il choisira de se heurter à l’objet le moins précieux ou le plus cher possible, de faire le moins de mal possible, en accordant plus de valeur à l’être humain qu’à un bâtiment ou à un chien.
Enfin, si le choix de l’intelligence artificielle de votre voiture est de renverser un enfant ou de cogner contre un mur ... cela dirigera la voiture et vous -même vers le mur. C'est ce que tout bon humain ferait. Pourquoi une bonne IA agirait-elle différemment?
la source
Ils ne devraient pas. Les gens devraient.
Les gens ne peuvent pas confier la responsabilité des décisions éthiques aux ordinateurs. En tant qu’informaticiens / experts en intelligence artificielle, il est de notre responsabilité de programmer les décisions des ordinateurs. Y aura-t-il encore des victimes humaines? Bien sûr, ils le feront - les gens ne sont pas parfaits et les programmes non plus.
Il existe un excellent débat en profondeur sur ce sujet ici . J'aime particulièrement l'argument de Yann LeCun concernant le dilemme moral parallèle consistant à tester des médicaments potentiellement mortels sur des patients. Semblables aux voitures autonomes, les deux peuvent être mortels tout en ayant la bonne intention de sauver plus de personnes à long terme.
la source
Comment des voitures autonomes pourraient-elles prendre des décisions éthiques concernant qui tuer?
En gérant la responsabilité juridique et la sécurité des consommateurs.
Une voiture qui offre la sécurité des consommateurs va être une voiture qui est achetée par lesdits consommateurs. Les entreprises ne veulent pas être tenues pour responsables de la mort de leurs clients, pas plus qu'elles ne veulent vendre un produit qui expose l'utilisateur à des problèmes juridiques. La responsabilité juridique et la sécurité du consommateur sont le même problème quand on considère le "coût pour le consommateur".
Si un animal / homme ne peut pas être évité légalement (et que la voiture a légalement le droit - si ce n'est pas le cas, il y a autre chose qui cloche dans la prise de décision de l'IA), ce n'est probablement pas le cas. Si la voiture peut éviter l'obstacle en toute sécurité, l'IA pourrait raisonnablement être considérée comme prenant cette décision, c'est-à-dire. déviez vers une autre voie sur une route dégagée. Remarquez que l'accent est mis sur la responsabilité et la sécurité du conducteur.
Seul le facteur de risque de frapper l'obstacle. Frapper un hippo pourrait être moins souhaitable que de frapper le fossé. Frapper un chien est probablement plus souhaitable que de détruire l’automobile du client.
Il compte les passagers comme des passagers pour voir si la voie de covoiturage peut être empruntée. Il considère les personnes qui se trouvent devant comme facteur de risque en cas de collision.
Non.
Non, il s’agit simplement d’une mauvaise abstraction pour prendre une décision. Comment pourrait-on en arriver à choisir le bon plan d’action pour réduire les facteurs de risque? Si l'option 1 concerne un jeune homme qui a 20% de chances de causer des dommages importants à l'occupant sans responsabilité légale et l'option 2 s'adresse à un vieil homme avec 21% de chances de causer des dommages importants aux occupants et sans responsabilité légale, alors quel philosophe peut convaincre même une seule personne de les poids justes et équitables pour prendre une décision?
Heureusement, la meilleure décision est souvent de prendre des pauses pour réduire la vitesse (surtout si vous considérez qu’il est souvent utile d’agir de manière prévisible pour que les piétons et les automobilistes puissent réagir en conséquence). Entre-temps, de meilleures améliorations peuvent être apportées en termes de prévision du moment où les conducteurs vont prendre de mauvaises décisions et du moment où d'autres actions (telles que frapper à l'inverse) sont plus bénéfiques que frapper les pauses. À ce stade, il ne vaut même pas la peine de commencer à recueillir des informations pour prendre les décisions éthiques proposées par les philosophes. Ainsi, cette question est surexcitée par les journalistes et les philosophes sensationnels.
la source
Je pense que dans la plupart des cas, la voiture serait par défaut de réduire la vitesse en tant qu'option principale, plutôt que de se diriger vers ou de s'éloigner d'un choix spécifique. Comme d'autres l'ont mentionné, les paramètres liés à l'éthique ne sont qu'une mauvaise idée. Que se passe-t-il si deux voitures programmées avec des paramètres éthiques opposés sont sur le point d'entrer en collision? Les voitures pourraient potentiellement avoir un système pour remplacer les paramètres utilisateur et choisir la solution la plus bénéfique pour les deux parties. C'est en effet un concept intéressant qui doit absolument être discuté et normalisé avant d'être généralisé. Mettre les décisions éthiques entre les mains d'une machine rend la responsabilité qui en découle parfois difficile à imaginer.
la source
Je pense qu'il n'y aurait pas moyen de modifier de tels paramètres d'éthique dans une voiture. Mais bon, si les téléphones portables peuvent être enracinés, pourquoi pas les voitures? J'imagine qu'il y aura des versions ultérieures de Linux pour des modèles spécifiques qui vous permettront de faire ce que vous voulez.
Quant à savoir qui prendra de telles décisions, ce sera un peu comme les questions de protection de la vie privée d’aujourd’hui. Les fournisseurs de systèmes d’exploitation (qui essaieront de limiter le nombre de personnes blessées, chacun avec ses propres méthodes) et les compagnies d’assurance (qui essaieront de vous faire payer plus pour les OS qui seront statistiquement montrés pour endommager votre voiture plus facilement), et les constructeurs automobiles (qui voudront que vous détruisiez votre voiture dès que vous le pourrez, vous en achèterez donc un neuf, ou fabriquerez des voitures qui exigent un ridicule montant du service $$$).
Ensuite, un dénonciateur dévoilera un code qui choisit de tuer les jeunes enfants plutôt que les adultes, car il aura plus de mal à les distinguer des animaux et prendra le risque de sauver ceux qu'il reconnaîtra plus sûrement en tant qu'êtres humains. Le fabricant de système d’exploitation recevra une claque de la part du public et un nouveau consensus sera trouvé. Les lanceurs d'alerte proviendront également des compagnies d'assurance et des constructeurs automobiles.
L'humanité prendra une poêle chaude et se brûlera elle-même, puis apprendra à mettre des gants à l'avance. Mon conseil serait juste de vous assurer que vous ne seriez pas cette main - restez loin d'eux pendant quelques années jusqu'à ce que toutes les erreurs soient commises.
la source
Le seul choix judicieux est d'utiliser un comportement prévisible. Scénario pour les personnes qui se trouvent devant la voiture: d’abord, la voiture appuie sur les freins, en même temps, elle klaxonne et maintient le cap. Les gens ont alors une chance de s'écarter, ce qui entraîne zéro assassinat. De plus, avec des freins complets (passer de 50 km à l'heure à zéro, c'est moins de 3 longueurs de voiture), une situation d'impact est presque impensable. Même si un arrêt complet ne peut être atteint, il est peu probable que les piétons subissent de graves dommages.
L'autre scénario est juste fou. Donc, la distance doit être inférieure à 3 longueurs de voiture, au moins 1 longueur de voiture est nécessaire pour la direction, puis un accident de voiture est une situation incontrôlable, pourrait conduire à tourner et tuer tous les 11 personnes.
En plus de dire que je ne crois pas qu'il existe un exemple concret de dilemme; la solution dans ces cas peu probables consiste à se conformer aux attentes de la partie adverse afin de permettre à l'autre partie d'atténuer également la situation.
la source