Le dilemme du train:
"Un train sans conducteur fonce le long d'une voie sur laquelle trois personnes sont attachées. Vous pouvez les sauver en actionnant un aiguillage qui le fera changer de direction, vers une autre voie sur laquelle une seule personne est attachée. Le faites-vous?"

(Ce dilemme est aussi une parfaite métaphore de l'élection en cours)

Follow

J'ai souvent constaté quand on posait cette question aux gens que le premier réflexe était de chercher une échappatoire. :)
En l'occurrence: "on peut pas couper le courant, plutôt?", ou "j'essaie de foncer les détacher". J'ai l'impression que l'esprit a du mal avec les prises de position morales fortes.
Si vous jouez le jeu, sans essayer de tricher avec l'énoncé: vous avez une réponse?

Ce n'est pas une devinette, hein. Je vous donne la réponse majoritaire: la plupart des gens optent pour "le moindre mal" et changent le train de voie.

Après, le twist sur ce dilemme: imaginez maintenant qu'il n'y ait qu'une seule voie avec les trois personnes attachées. Le train peut être arrêté en cas de choc avec quelqu'un de suffisamment lourd. À côté de vous il y a un gros monsieur que vous pouvez faire tomber sur la voie. Le poussez-vous?

Dans les deux cas vous êtes acteur direct du dénouement: vous sacrifiez une vie de vos mains pour en sauver trois. Pourtant on perçoit clairement que les deux situations ne sont pas équivalentes alors qu'elles semblent avoir le même "poids moral".
La raison est bien sûr que la décision n'a pas le même poids émotionnel. Ce qui fait la différence, c'est la proximité.

C'est d'ailleurs ce qu'on essaie de quantifier quand on cherche des échappatoires et des solutions tangentes: qui sont ces gens? Est-ce que je sacrifie un enfant pour sauver trois nazis? Est-ce que je sauve un proche au prix de trois, dix, cent personnes?
Bref, nous ne sommes pas purement "utilitaristes".

C'est une question qui se pose concrètement en intelligence artificielle, notamment pour les voitures sans chauffeurs.
Dilemme 1: la voiture roule entourée de deux voitures. une avec une famille de cinq personnes, une avec une personne seule. Devant elle, un énorme chargement tombe d'un camion. Freiner ne suffira pas. Doit-elle: se déporter à gauche et mettre en danger la voiture avec la famille, à droite vers la voiture avec une seule personne, ou rester/freiner et sacrifier le conducteur?

Dilemme 2: au lieu de deux voitures, c'est un vélo et une voiture avec famille: la voiture a de meilleures chances de subir des dégâts moins important. Mais elle contient cinq personnes là ou le vélo n'en représente qu'une.

Dilemme 3: Deux vélos. L'un a un casque, l'autre non. Celui avec un casque a de meilleures chances, l'autre ne respecte pas la loi. Et de plus, si on le protège, il devient de fait PLUS SÛR de rouler sans casque, puisque les voitures vont davantage vous épargner. Mindfuck

Et surtout, une question essentielle dans ce débat: en cas d'accident mortel, qui est responsable?
Considère-t-on l'I.A. comme une personne?
Si non, est-ce le programmeur de l'I.A.? Le fabricant de la voiture? Le conducteur?
Les intelligences artificielles vont VRAIMENT représenter des casse-tête dans pas longtemps du tout. :-)

@Bouletcorp vu que 3 victimes, c'est plus qu'une victime, bah on dévie le train.

@Bouletcorp s'il n'y a pas d'autres conséquences que "tuer une personne pour en sauver 3" (par exemple : les 3 personnes restant attachées se feront écraser par le prochain train...) il n'y a pas à hésiter, non ?

@Bouletcorp "Est-ce que je peux me mettre en travers de la voie, me suicider, et éviter d'avoir à fait un tel choix ?"

@bnjbvr Ça c'est ce que je définis comme une "tentative d'échappatoire": non. Tu n'as que le choix proposé par le dilemme, c'est tout l'intérêt de l'exercice de pensée.

@Bouletcorp Non, mais je pense que j'actionnerais l'aiguillage (et deviendrait un meurtrier - ce que je n'aurais pas été en laissant aller le train vers les 3 autres). Après, si l'on y fait entrer des trucs du style "l'une des personne est ton gamin" etc., je ne joue plus !

@Bouletcorp

En vrai je pense que j'actionnerait l'aiguillage la mort dans l'âme, après je ne pense pas que ça soit moralement une meilleure chose que de laisser le train sur la voie de départ.

@Bouletcorp le problème c'est qu'il reste un survivant, on devrait pouvoir faire marche arrière, changer l'aiguillage et écraser le dernier pour avoir un perfect.

@Jo_Brown @Bouletcorp Nan, je crois que c'est plutôt "3 morts" contre "un mort".

@Thorn ben oui mais j'ai pas attaché les gens sur les rails pour rien :(

@Jo_Brown surtout qu'ils sont pas coopératifs, je parie.

@Bouletcorp Ça dépend, c'est quoi les orientations politiques des différentes personnes attachées ? :D

@Bouletcorp étant un fan assidu des 'Nuits Originales', je connais merci ;)

@Bouletcorp C'est très intéressant ce que tu dis là, j'avais vu une étude faite par Tesla il me semble (il faudrait retrouver l'info) sur les voitures autonome la question, vous sacrifierez-vous dans un accident pour éviter plus de victime. En gros est-ce qu'une voiture doit protéger son occupant quitte à faire plus de victimes sur la route.

@Bouletcorp Tiens un article qui en parle huffingtonpost.fr/2016/06/24/v

Ce qui en ressort vas de paire avec ta conclusion, car oui les gens vote sur sauver le plus grand nombre, mais non ils ne sont pas prêt à faire ce choix si c'est eux qui sont mis en danger.

@Bouletcorp Nope. S'il est assez lourd pour arrêter un train, c'est qu'il va être trop lourd à pousser, donc il va me defoncer la gueule après.

@Bouletcorp tiens, je place les deux situations sur le même pied. Et pour celle où il faut pousser une personne lourde, on peut pas y mettre trump ? :innocent:

@Bouletcorp L'intelligence artificielle se pose les questions qu'on lui dit de se poser 😂

@Bouletcorp avec une seule personne ou sacrifier le conducteur. (tirage aléatoire ?)

@Bouletcorp et qui sera responsable au final ? le constructeur, le propriétaire, le vendeur, le dev de l'IA...

@Bouletcorp Je crois que c'est le courrier international qui traduisait un article expliquant que les réponses des IA pouvait influencer la réussite ou l'échec de la commercialisation des voitures intelligente dans les années venir, dans le sens où si la voiture choisit de te sacrifier, ça pourrait refroidir l'enthousiasme des achteurs potentiels

@Bouletcorp Cette question n'avait-elle pas été réglé il y a quelques temps ? Je me trompe peut-être (d'autant que je ne retrouve pas l'article, faut que j'approfondisse ma recherche), mais je crois me rappeler avoir lu un truc là dessus

@bouletcorp l'IA appelle le module "valorisation d'une vie" qui prend en compte l'historique médical, l'espérance de vie, la valeur ajoutée pour la société des métiers exercés ou en projet et décide "objectivement". Facile.

D'où l'intérêt d'une réflexion éthique sur l'IA. Quand on sera sortis du déni.

@hipparkhos

Ca a quand même l'air compliqué de récupérer les données de tout ce monde et de lancer le calcul en moins de temps qu'il en faut pour que la décision puisse encore être prise. ^^

@Bouletcorp

@bouletcorp @mimick la voiture d'en face transmet les données des passagers en 10 ms. Pas de problème.

Ceux qui refusent la transmission de leurs données sont sacrifiés.

Ma voiture transmettra des données que je prendrai soin de trafiquer un peu.

@hipparkhos @Bouletcorp

Je sais pas si ça me gêne plus de devoir mettre mes données confidentielles en local dans une voiture que j'emprunte ou de savoir que n'importe qui peut interroger ladite voiture sans identifications pour avoir lesdites données. :D

@bouletcorp le problème du 3 se pose déjà. Il ne faut pas rendre le casque obligatoire pour les vélos :)

@Bouletcorp L'IA ce n'est qu'un tas d'algorithmes écrits par des humains, il ne faut pas s'abriter derrière l'expression "Intelligence Artificielle" pour justifier nos conneries ou des prises de décision hasardeuses.

@Bouletcorp faut-il que le code des algorithmes, et toutes les données utilisées pour produire une décision, soient connus et accessibles publiquement pour permettre de déterminer une responsabilité ?

@gordon @Bouletcorp Au même titre qu'une personne doit expliquer ses choix et décisions devant la justice s'il doit être amené à le faire, une IA le doit aussi. Et le plus simple reste encore que l'algo soit en effet, consultable :)

@gordon peu de chance que ça suffise, une IA peut/pourra apprendre de son environnement et surement qu'une voiture à Paris n'apprendra pas pareil qu'à New Delhi. @Bouletcorp

@shagshag @Bouletcorp c’est pour ça que je ne parle pas seulement du code (l’algorithme), mais aussi des données connues par le programme qui ont servi à construire le modèle décisionnel

@gordon Je doute que ça permette de déterminer une responsabilité, une explication oui, il y en a toujours, mais une responsabilité bof, à part dire c'est à cause de son milieu d'existence (ce qu'on dit aussi pour les humains ceci dit) @Bouletcorp

@shagshag @Bouletcorp justement, si l’analyse de l’algo démontre que l’IA a été conçue pour toujours choisir de se déporter sur la droite, c’est une décision que doit assumer le développeur

@gordon ha oui dans ce cas oui :) même si c'était peut être la moins pire décision dans le cas de l'accident. @Bouletcorp

@Bouletcorp Et si c'est l'IA, s'agit-il de l'IA de cette voiture ou de toutes les voitures du même modèle ?

@Bouletcorp C'est pour ça que je n'aime pas l'utilisation de l'expression "Intelligence Artificielle", c'est une réduction simpliste, les algorithmes si existent et ils ont des auteurs.

@jeancharles Pas forcément, non. Les "auteurs" ont souvent recours aux mathématiques génétiques: on fout plein d'algos avec variables qu'on met en compétition et on sélectionne de nouvelles versions, etc…
Certains algos "poussent" plus qu'ils ne sont écrits. On arrive à des résultats que personne n'aurait pu inventer, qui ont évolués tout seuls.

@Bouletcorp Il y a encore des humains derrière, ne serait-ce que pour sélectionner. C'est trop facile de s'abriter et de masquer le responsabilités derrière l' #AI

@jeancharles @Bouletcorp A vrai dire, non, les algorithmes "évolutifs" apprennent bien d'eux même, de la même manière à laquelle on inculque à un bébé a marcher.

Du coup ces ordinateurs font des choses qui peuvent paraitre insensées d'abords, mais qui sont justifiés.

Par exemple, avec Alpha Go, l'ordinateur à battu un champion du monde de Go grâce à un mouvement qui était au départ considéré insensé et non conventionnel.

@mmmaxou @Bouletcorp Je préfère qu'on parle d'algorithmes et pas d' #AI que je vois comme un danger (pour la démocratie entre autres).

@jeancharles @Bouletcorp La distinction est assez floue, les AI sont des Algorithmes et inversements. Simplement du fait que l'on puisse faire une correlation entre des comportements humains et certains algorithmes, ce terme est apparu.

Je pense personnellement qu'a contraire c'est une aubaine pour la société, mais que c'est extrèmement délicat comme sujet et va demander beaucoups d'efforts ...

@Bouletcorp @jeancharles @mmmaxou bon je suis probablement à la bourre et c'est mais : moralmachine.mit.edu/ allons juger un peu 😋

@Thorn Cette nouille n'est pas sur Mastodon, mais oui, on en parle souvent! :D

@Bouletcorp Il a émis la possibilité de venir, l'autre jour.

@Bouletcorp ces dilemmes m'ont fait penser à ce court métrage animé de TED-ed youtu.be/ixIoDYVfKA0 et cette étude participative du MIT moralmachine.mit.edu/

Sign in to participate in the conversation
Octodon

Octodon is a nice general purpose instance. more