-Boulet- is a user on octodon.social. You can follow them or interact with them if you have an account anywhere in the fediverse. If you don't, you can sign up here.

Le dilemme du train:
"Un train sans conducteur fonce le long d'une voie sur laquelle trois personnes sont attachées. Vous pouvez les sauver en actionnant un aiguillage qui le fera changer de direction, vers une autre voie sur laquelle une seule personne est attachée. Le faites-vous?"

(Ce dilemme est aussi une parfaite métaphore de l'élection en cours)

J'ai souvent constaté quand on posait cette question aux gens que le premier réflexe était de chercher une échappatoire. :)
En l'occurrence: "on peut pas couper le courant, plutôt?", ou "j'essaie de foncer les détacher". J'ai l'impression que l'esprit a du mal avec les prises de position morales fortes.
Si vous jouez le jeu, sans essayer de tricher avec l'énoncé: vous avez une réponse?

Ce n'est pas une devinette, hein. Je vous donne la réponse majoritaire: la plupart des gens optent pour "le moindre mal" et changent le train de voie.

Après, le twist sur ce dilemme: imaginez maintenant qu'il n'y ait qu'une seule voie avec les trois personnes attachées. Le train peut être arrêté en cas de choc avec quelqu'un de suffisamment lourd. À côté de vous il y a un gros monsieur que vous pouvez faire tomber sur la voie. Le poussez-vous?

-Boulet- @Bouletcorp

Dans les deux cas vous êtes acteur direct du dénouement: vous sacrifiez une vie de vos mains pour en sauver trois. Pourtant on perçoit clairement que les deux situations ne sont pas équivalentes alors qu'elles semblent avoir le même "poids moral".
La raison est bien sûr que la décision n'a pas le même poids émotionnel. Ce qui fait la différence, c'est la proximité.

· Web · 1 · 5

@Bouletcorp tiens, je place les deux situations sur le même pied. Et pour celle où il faut pousser une personne lourde, on peut pas y mettre trump ? :innocent:

C'est d'ailleurs ce qu'on essaie de quantifier quand on cherche des échappatoires et des solutions tangentes: qui sont ces gens? Est-ce que je sacrifie un enfant pour sauver trois nazis? Est-ce que je sauve un proche au prix de trois, dix, cent personnes?
Bref, nous ne sommes pas purement "utilitaristes".

C'est une question qui se pose concrètement en intelligence artificielle, notamment pour les voitures sans chauffeurs.
Dilemme 1: la voiture roule entourée de deux voitures. une avec une famille de cinq personnes, une avec une personne seule. Devant elle, un énorme chargement tombe d'un camion. Freiner ne suffira pas. Doit-elle: se déporter à gauche et mettre en danger la voiture avec la famille, à droite vers la voiture avec une seule personne, ou rester/freiner et sacrifier le conducteur?

@Bouletcorp L'intelligence artificielle se pose les questions qu'on lui dit de se poser 😂

@Bouletcorp avec une seule personne ou sacrifier le conducteur. (tirage aléatoire ?)

@Bouletcorp et qui sera responsable au final ? le constructeur, le propriétaire, le vendeur, le dev de l'IA...

@Bouletcorp Je crois que c'est le courrier international qui traduisait un article expliquant que les réponses des IA pouvait influencer la réussite ou l'échec de la commercialisation des voitures intelligente dans les années venir, dans le sens où si la voiture choisit de te sacrifier, ça pourrait refroidir l'enthousiasme des achteurs potentiels

@Bouletcorp Cette question n'avait-elle pas été réglé il y a quelques temps ? Je me trompe peut-être (d'autant que je ne retrouve pas l'article, faut que j'approfondisse ma recherche), mais je crois me rappeler avoir lu un truc là dessus

@bouletcorp l'IA appelle le module "valorisation d'une vie" qui prend en compte l'historique médical, l'espérance de vie, la valeur ajoutée pour la société des métiers exercés ou en projet et décide "objectivement". Facile.

D'où l'intérêt d'une réflexion éthique sur l'IA. Quand on sera sortis du déni.

@hipparkhos

Ca a quand même l'air compliqué de récupérer les données de tout ce monde et de lancer le calcul en moins de temps qu'il en faut pour que la décision puisse encore être prise. ^^

@Bouletcorp

@bouletcorp @mimick la voiture d'en face transmet les données des passagers en 10 ms. Pas de problème.

Ceux qui refusent la transmission de leurs données sont sacrifiés.

Ma voiture transmettra des données que je prendrai soin de trafiquer un peu.

@hipparkhos @Bouletcorp

Je sais pas si ça me gêne plus de devoir mettre mes données confidentielles en local dans une voiture que j'emprunte ou de savoir que n'importe qui peut interroger ladite voiture sans identifications pour avoir lesdites données. :D

Dilemme 2: au lieu de deux voitures, c'est un vélo et une voiture avec famille: la voiture a de meilleures chances de subir des dégâts moins important. Mais elle contient cinq personnes là ou le vélo n'en représente qu'une.

Dilemme 3: Deux vélos. L'un a un casque, l'autre non. Celui avec un casque a de meilleures chances, l'autre ne respecte pas la loi. Et de plus, si on le protège, il devient de fait PLUS SÛR de rouler sans casque, puisque les voitures vont davantage vous épargner. Mindfuck

@bouletcorp le problème du 3 se pose déjà. Il ne faut pas rendre le casque obligatoire pour les vélos :)

@Bouletcorp L'IA ce n'est qu'un tas d'algorithmes écrits par des humains, il ne faut pas s'abriter derrière l'expression "Intelligence Artificielle" pour justifier nos conneries ou des prises de décision hasardeuses.

Et surtout, une question essentielle dans ce débat: en cas d'accident mortel, qui est responsable?
Considère-t-on l'I.A. comme une personne?
Si non, est-ce le programmeur de l'I.A.? Le fabricant de la voiture? Le conducteur?
Les intelligences artificielles vont VRAIMENT représenter des casse-tête dans pas longtemps du tout. :-)

@Bouletcorp faut-il que le code des algorithmes, et toutes les données utilisées pour produire une décision, soient connus et accessibles publiquement pour permettre de déterminer une responsabilité ?

@gordon @Bouletcorp Au même titre qu'une personne doit expliquer ses choix et décisions devant la justice s'il doit être amené à le faire, une IA le doit aussi. Et le plus simple reste encore que l'algo soit en effet, consultable :)

@gordon peu de chance que ça suffise, une IA peut/pourra apprendre de son environnement et surement qu'une voiture à Paris n'apprendra pas pareil qu'à New Delhi. @Bouletcorp

@shagshag @Bouletcorp c’est pour ça que je ne parle pas seulement du code (l’algorithme), mais aussi des données connues par le programme qui ont servi à construire le modèle décisionnel

@gordon Je doute que ça permette de déterminer une responsabilité, une explication oui, il y en a toujours, mais une responsabilité bof, à part dire c'est à cause de son milieu d'existence (ce qu'on dit aussi pour les humains ceci dit) @Bouletcorp

@shagshag @Bouletcorp justement, si l’analyse de l’algo démontre que l’IA a été conçue pour toujours choisir de se déporter sur la droite, c’est une décision que doit assumer le développeur

@gordon ha oui dans ce cas oui :) même si c'était peut être la moins pire décision dans le cas de l'accident. @Bouletcorp

@Bouletcorp Et si c'est l'IA, s'agit-il de l'IA de cette voiture ou de toutes les voitures du même modèle ?

@Bouletcorp C'est pour ça que je n'aime pas l'utilisation de l'expression "Intelligence Artificielle", c'est une réduction simpliste, les algorithmes si existent et ils ont des auteurs.

@jeancharles Pas forcément, non. Les "auteurs" ont souvent recours aux mathématiques génétiques: on fout plein d'algos avec variables qu'on met en compétition et on sélectionne de nouvelles versions, etc…
Certains algos "poussent" plus qu'ils ne sont écrits. On arrive à des résultats que personne n'aurait pu inventer, qui ont évolués tout seuls.

@Bouletcorp Il y a encore des humains derrière, ne serait-ce que pour sélectionner. C'est trop facile de s'abriter et de masquer le responsabilités derrière l' #AI

@jeancharles @Bouletcorp A vrai dire, non, les algorithmes "évolutifs" apprennent bien d'eux même, de la même manière à laquelle on inculque à un bébé a marcher.

Du coup ces ordinateurs font des choses qui peuvent paraitre insensées d'abords, mais qui sont justifiés.

Par exemple, avec Alpha Go, l'ordinateur à battu un champion du monde de Go grâce à un mouvement qui était au départ considéré insensé et non conventionnel.

@mmmaxou @Bouletcorp Je préfère qu'on parle d'algorithmes et pas d' #AI que je vois comme un danger (pour la démocratie entre autres).

@jeancharles @Bouletcorp La distinction est assez floue, les AI sont des Algorithmes et inversements. Simplement du fait que l'on puisse faire une correlation entre des comportements humains et certains algorithmes, ce terme est apparu.

Je pense personnellement qu'a contraire c'est une aubaine pour la société, mais que c'est extrèmement délicat comme sujet et va demander beaucoups d'efforts ...

@Bouletcorp @jeancharles @mmmaxou bon je suis probablement à la bourre et c'est mais : moralmachine.mit.edu/ allons juger un peu 😋

@Thorn Cette nouille n'est pas sur Mastodon, mais oui, on en parle souvent! :D

@Bouletcorp Il a émis la possibilité de venir, l'autre jour.

@Bouletcorp ces dilemmes m'ont fait penser à ce court métrage animé de TED-ed youtu.be/ixIoDYVfKA0 et cette étude participative du MIT moralmachine.mit.edu/

@Bouletcorp Ou sinon on programme les IA à partir de sondages sur internet et on dira que c'est "la majorité humaine qui aura décidé"

@Bouletcorp le site moral machine est très instructif à ce sujet.

@LucilePeyre @Bouletcorp

Ces dilemmes montrent que la question ne se posent pas que pour une #IA ! Comment déterminer des responsabilités dans ces cas-là, où pourtant les acteurs sont tous sauf artificiels ?

@Bouletcorp Et si l'IA est déclaré responsable, c'est donc qu'elle a et est reconnue en mesure d'assumer des responsabilités, elle peut donc prétendre à une identité civile. Et des droits. D'un autre côté, si un chien dressé à la défense mords un passant, c'est le maître qui est tenu responsable, pas le dresseur. Pourquoi n'en serait-il pas de même pour les IA. La responsabilité du conducteur est donc de ne pas se mettre en situation dangereuse ingérable pour l'ia.

@Bouletcorp C'est pour ça que l'avis du CCNE est important sur toutes ces questions. Ce n'est pas aux constructeurs de décider de l'éthique, à défaut de pouvoir la soumettre au vote. Il faudrait pour cela élargir sa mission cependant.

@Bouletcorp L'idée principale en vogue est de rendre les fabricants de voiture "intelligente" responsables (responsabilité objective, sans devoir prouver faute). Le fabricant fournirait une assurance. Certains sont même tellement convaincus de la sureté de leurs systèmes qu'ils la fourniraient eux-même sans passer par un assureur classique. Le cas échéant, les vendeurs se retourneraient ensuite contre les développeurs de l'IA, mais les victimes seraient déjà indemnisées.

@Bouletcorp Je n'ai plus l'adresse, mais il y avait un jeu en ligne qui se basait justement sur cette situation de voiture face à des piétons, avec + ou - de passagers, avec des âges/genres variés, etc. Je ne sais pas si c'était utilisé pour la recherche ("serious game") ou pas.

@Bouletcorp bof non. On ne pense pas : "que faire si notre machine ne marche pas", mais "comment faire pour que notre machine marche"

Parce que si on se met à vouloir contrôler une perte de contrôle c'est qu'on en a trop pris.

@technolapin @Bouletcorp Ben, elle sera tôt au tard confronté à des sacrifices :x

@Technowix @Bouletcorp oui donc on fait pas les cons et on minimise les accident au lieu de délirer sur comment l'engin doit dérailler.

@technolapin ben relit ce qu'a dis @Bouletcorp , quel choix faire quand la vie d'une des deux cas est mis en jeu :p

@Technowix @Bouletcorp ben justement, tu n'es pas libre du choix.
Tu ne prévoit pas un accident.

@Bouletcorp @technolapin *facepalm* la voiture a largement le temps de calculer, de choisir, contrairement à un humain, par contre si elle va à 130km/h, elle ne peux pas contrôler la physique...

@Technowix @Bouletcorp ben justement, tu fait en sorte que ses capteurs détectent l'obstacle avant de passer le cap critique.
C'est bien plus faisable que d'espèrer que ton engin va faire ce qu'il faut dans un cas de disfonctionement.

@Bouletcorp @technolapin tu détecte comment une voiture qui se carambole devant toi ? Un pneu qui éclate ?

@Technowix @Bouletcorp le pneu qui éclate on sait gérer, l'ia le sait encore mieux.
La voiture qui se carambole devant-toi, l'ia le voit venir.
Et surtout, l'ia respecte les distances de sécurité.

@Bouletcorp @technolapin oué, ben même en respectant tout, pas dis que les autres le respectent. Notamment les humains.

@Technowix @Bouletcorp l'ia prévoit les comportement possibles des autres véhicules. Pas besoin d'être devin pour ça.
Le seul truc, c'est les capteur qu'il faut perfectionner et diversifier.

@Bouletcorp @technolapin c'est vrais, on a plus aucunes victimes à cause de tremblement de terres/catastrophes naturelles x) merci les capteurs.
Y'a toujours le chaos, peu importe dans quoi un truc peut aller mal

@Technowix @Bouletcorp là on parle d'une machine, pas d'un tremblement de terre.
Le chaos est maîtrisable.On a créé l'ingénieurerie pour ça.

@Bouletcorp @Technowix dès que tu peux imaginer un sénario, tu peut travailler à l'éviter.

@Bouletcorp @technolapin bien sûr, mais ne pas avoir de plan en cas de catastrophe est pire encore.

@Technowix @Bouletcorp la catastrophe n'arrive que si l'appareil a été mal utilisé.
Je ferait pas confiance à une voiture prévue pour prendre des décisions ultra complexes quand elle faillit à faire un truc aussi simple que de fonctionner.

@Bouletcorp @technolapin barf, si l'erreur existe pas j'me demande pourquoi on continue à chercher des ingénieurs x'D

@Technowix @Bouletcorp ben non c'est leur boulot de concevoir des systèmes qui ne sortent pas du bon fonctionnement.

@Technowix @Bouletcorp non, mais la fiabilité 99.996% existe
Et les quelques poussières qui restent sont le cas où ton engin n'agit pas comme prévu.
Donc tu lui demande pas d'agir comme prévu.

@technolapin @Technowix @Bouletcorp "comment l'engin doit dérailler" c'est la base en conception de produit. Quand tu conçois la sécurité des machines en usine, un des protocoles est en gros d'imaginer comment l'utilisateur pourrait faire pour se suicider avec s'il le voulait très activement, et il doit pas pouvoir y parvenir.

@Krysalia @Technowix @Bouletcorp rien à voir, dans ce cas tu prévoit une situation à laquelle la machine fonctionnelle doit faire face.
Là on parle du moment où la machine n'arrive plus à suivre les protocoles.

@technolapin @Krysalia @Bouletcorp Les protocoles prévoient le suicide d'une personne ?

@Technowix @Krysalia @Bouletcorp ben oui. On est dans le cas d'une machine fonctionnelle, qui est prévue pour une utilisation précise, et qui ne doit pas fonctionner hors de cette utilisation. C'est le boulot de l'ingénieur de délimiter les conditions d'usage.

@technolapin @Krysalia @Bouletcorp donc on prévoit le suicide d'une personne, mais pas celui d'un arbre sur la route ? D'un coup de tonnerre ?
Si le mec qui se suicide saute soudainement sur la route, tu fais comment ?

@Technowix @Krysalia @Bouletcorp le mec qui se jette sous tes roues tu l'a vu venir, parce que tu a des capteurs, variés et performants.
On parle de machine, pas d'humains. La machine ne prend pas de risque, et la situation où on peut se jetter sous ses roues ne peut donc pas arriver.

@technolapin @Krysalia @Bouletcorp Et même si tu détecte que le mec veux sauter, et qu'un autre véhicule viens en face, tu fais comment ?

@Technowix @Krysalia @Bouletcorp je comprend pas, tu parle du cas où le mec va se faire écraser par un autre véhicule?

@Technowix @Krysalia @Bouletcorp ben tu t'arrête.
Aller vite dans un contexte où la visibilité est réduite et donc où tu ne peut pas voir ce genre de choses arriver relève d'une mauvaise utilisation de l'engin.

@technolapin @Krysalia @Bouletcorp 🤔 dans ce cas le véhicule doit aller à 10 km/h a partir du moment où il y a une bouche d'égout / arbre / humain / orage / falaise...

@Technowix @Krysalia @Bouletcorp c'est éxagérer, une ia devra être plus prudente, mais aura un temsp de réaction négligeable, donc une distance de freinage moindre.
Aller à 50 km en ville ça semble acceptable.

Dès que le véhicule ne peut avoir connaissance de tous les objets pouvant interargir avec lui, il doit prévoir et ralentir.
C'est comme ça qu'on doit conduire au passage.

@technolapin @Krysalia @Bouletcorp 50km/h c'est trop tard, un type peux faire 5m dans trop de problème (c'est 2m la distance de chaussée recommandée)
Oué, c'est comme ça qu'on conduit, mais quand on doit faire un choix, on doit le faire o_ô un imprévu c'est toujours possible, aussi performant que soit tes capteurs...

@Technowix @Krysalia @Bouletcorp c'est plus une histoire de capteur, mais de suivre des protocoles de sécurité non-faillibles.
Avoir conscience de l'entièreté de son environement entraîne la capacité à gérer l'évolution des évènements.
Est appellé environnement ici l'ensemble des objets qui peuvent interargir avec le véhicule dans un temps correspondant au temps de freinage.

@technolapin @Krysalia @Bouletcorp Oué, mais là encore ces règles sont uniquement potable si tout le monde suit les règles :)
Si un type les suis pas, t'auras beau avoir la meilleur AI, tu peux pas prédire l'avenir.
Sur une autoroute, même a sens unique, le mec qui s'endors au volant et fait une soudaine déportée pendant que tu le double...

@Technowix @Krysalia @Bouletcorp tu prévois ce genre de comportement en suivant des protocoles de sécurité simples, comme respecter les distances de sécurité.

@Bouletcorp @Technowix Si une situation implique la non-connaissance d'une partie de l'environement, la vitesse aurait dûe au préalable être réduite pour réduire la taille dudit environnement au point où l'entièreté de l'environnement est connu.

@technolapin @Bouletcorp donc on en revient à ce que je t'ais dis : dès qu'il y a un inconnu, on réduit à la vitesse totalement safe de 10km/h, car ben, on sais pas si l'arble va pas soudainement tomber, ou le pont autoroutier s'écrouler soudainement d'un côté...

@Technowix @Bouletcorp par exemple, pour le cas du pond autoroutier, il y a deux possibilités:

-tu est trop loin et tu respecte les distances de sécurité et donc il n'y a aucun problème
-tu est celui qui se prend le pond sur la poire. Et là c'est plus une histoire de décision.

@technolapin @Bouletcorp Donc on prends comment cette décision, en tant qu'AI ? faut gérer le cas... x)

@Technowix @Bouletcorp le cas "mort subite par pond"?
Aucune décision à prendre.
Le véhicule et ses utilisateurs sont détruits.

@technolapin @Bouletcorp J'aimerais pas acheter un véhicule qui me condamne alors qu'a la main j'aurait pu m'en sortir.

@Technowix @Bouletcorp ben non si tu est sous le pond tu peux structurellement pas t'en sortir.

@technolapin @Bouletcorp disons, alors, que le pon s'écroule sur ta voie, suffisament proche de toi pour qu tu puisse tourner sur l'autre vois (pont routier), mais pas assez loin pour freiner.

@Technowix @Bouletcorp dans ce cas tu tourne.
Et vu que tu respectait les distances de sécurité tu n'a pas d'obstacles autres.

@technolapin @Bouletcorp De l'autre côté, t'as une autre voiture autonome dont l'AI avait conscience, qui contient toute une famille, et toi t'es tout seul dedans.

@technolapin @Bouletcorp C'est quoi les distances de sécu avec la voie de gauche ?

@technolapin @Bouletcorp Là on parle d'un pont au dessus d'une nationale, avec un bloc de béton qui tombe uniquement sur ta voie.

@Technowix @Bouletcorp freinnage d'urgence. Tu va pas non plus prévoir l'éventualité d'aller percuter la voiture arrivant en sens inverse, ce qui serait encore plus violent pour toi.

@technolapin @Bouletcorp pas faux, ou alors y'a un môme qui joue sur la route d'a côté, et toi ta bagnole est pleine de 5 personnes.

@Technowix @Bouletcorp tu l'a vu arriver ou si tu n'a pas pu le voir arriver tu roule assez lentement pour pouvoir gérer la situation.

@Technowix @Bouletcorp et? C'est un élément imprévisible pouvant passer sous tes roues.

@technolapin @Bouletcorp Mais tout est un élément imprévisible pouvant passer sous tes roues

@technolapin @Bouletcorp Du coup conduire c'est potentiellement "imprévisible" en soit... imagine t'as les freins qui pète devant un de ces cas de figure...

@Technowix @Bouletcorp défailance de la machine.
Tu prévoie des freins de rechange.

@technolapin @Bouletcorp Dans le cas où t'as pas le choix que de sacrifier l'un ou l'autre.

@Technowix @Bouletcorp à ce stade là t'es à un tel niveau de défaillance de la machine que tu peux pas prévoir grand chose.
Et d'ailleurs t'es sensé passer le contrôle technique.

@technolapin @Bouletcorp J'parle du cas où ta voiture est en parfaite condition et où t'as pas le choix. Même "imaginaire" préfère penser qu'un bateau a des canneaux de sauvetages, même si il est doté de capteurs "ultraperformants"

@Technowix @Bouletcorp dans le cas où ta voiture est en parfaite condition, elle est en parfaite condition et dispose donc de ses freins.

C'est surtout la diversité des capteurs qui font la performance de la perception. Parce que justement si un merde, les autres ont moins de chance de merder.

@technolapin @Bouletcorp Même si ils merdent pas, même si il sont en parfait état, j'saute pas en parachute sans parachute de secours... :x

@technolapin @Bouletcorp il ressemble à quoi ton capteur de pont cassé ?

@Technowix @Bouletcorp caméra + radar + micro + sysmomètre + tout ce que tu veux

@Technowix @Bouletcorp tu rigole mais c'est possible.
Après dans cette situation précise c'est pas masse utile.

@technolapin @Bouletcorp C'dois être chaud 🤔
m'enfin, voilà, débat d'une journée pour dire que j'crois pas au risque 0 xD

@technolapin @Bouletcorp Bon, mieux, t'a un camping a côté et une voiture qui roule vite en sens inverse de l'autre @-@

@Bouletcorp youtube.com/watch?v=JR4H76SCCz "Cette... phrase... est... FAUSSE ! Nepasréfléchir, nepasréfléchir, nepasréfléchir, nepasréfléchir..."

@Bouletcorp pour info. Le port du casque à vélo n'est pas obligatoire (et heureusement) donc nan il n'est pas hors la loi !! Le casque ne protège que de qq cas. Mais contre une voiture ou un camion, le petit casque de polystyrène ne peut rien contre. Donc pour ton dilemme3 s'en est pas un dans le sens où tu l'expliques, mais ça renvoie plutôt à la fable de l'âne philosophique ou entre 2 choix identiques (un des cyclistes va mourrir) l'âne ne peut se décider. Ici notre âne est l'IA

@Bouletcorp La solution est simple et date d'asimov : l'ia ne doit pas mettre en danger les autres. Donc quitte à sacrifier une personne, c'est celle qui est dans la voiture et qui a choisi de remettre sa vie entre les mains d'un algorithme. La voiture doit continuer tout droit en freinant à mort.

@Bouletcorp Il faut arrêter avec ces faux problèmes d'IA qui chercherait un moindre mal. Le pilote auto de la voiture est conçu pour éviter TOUS les chocs sans avis moral. Si ça ne fonctionne plus (en cas de gros pb), le choc devient inévitable et c'est la physique et l'inertie qui entre en jeu pour décider où. Rien n'est programmé.

@Bouletcorp

alors j'ai la solution :

pile ou face.

@Bouletcorp
applicable aussi à la démocratie (et appliqué à certaines périodes à Athènes) :

si ça devient trop compliqué de choisir, avec trop de conséquences à tiroir, (cf "du coup ne pas porter de casque devient moins risqué"),

on laisse le hasard trancher.

@Bouletcorp Ce genre de question me gêne, car elle met en avant le risque qu'une IA tue des humains, et augmente la méfiance envers les voitures autonomes ; alors que ces voitures ont moins d'accidents que les voitures conduites par des humains. Elles sauvent des vies.
Et honnêtement, je suis pas persuadé que les IA soient programmés pour réfléchir à ce genre de chose, je pense pas qu'elles voient le nombre d'occupants des voitures autour.

@Bouletcorp Je suis beaucoup plus pragmatique sur ce sujet (d'un point de vue purement technique - dev d'une IA) : On programme la voiture pour qu'elle ne mette en danger personne : éviter que ces cas ne se produisent.
Le jour où ça arrive, c'est un bug (cas non géré par l'appli -> crash) - c'est triste, mais les logs de la voiture serviront à mettre à jour les autres voitures.

@Bouletcorp
c'est pensé pour sauver le conducteur non ,si la voiture me tue en sauvant les autres , ma famille aura le droit de porter plainte contre le constructeur ?

@Bouletcorp La Google car aura bien sûr accès au CV et casier judiciaires des personnes identifiés par leur téléphone mobile et au dossier médical pour évaluer une espérance de vie ainsi qu'un cout d'assurance. Les bébés seront déduis de la proximité d'un ou plusieurs autres téléphones et de la page facebook indexée correspondante. Et pourra ainsi minimier le risque pour l'assurance ... merci

@Bouletcorp Mêmes raisons, il est immoral de sacrifier quelqu'un d'autre. La voiture ne devrait pas se déporter. Je considère la voiture et le conducteur comme une seule entité en l’occurrence, le passager a accepté de confier sa vie à l'IA.

@Bouletcorp si le conducteur a pris l'option "premium-exclusive-safety", la bagnole sacrifiera le reste de la planète (environ).

@Bouletcorp tu prends tout d'un point de vue de temps de réaction humaine. Si la voiture voit l'accident avant même qu'il ne se produise, et qu'elles interagissent entre elles, tout le monde pourrait être sauvé non?
Sinon elle pourrait prendre d'autres paramètres en compte: statistique de survies par rapport a la solidité des voitures mises en cause ou autres?

@Bouletcorp Si freiner ne suffit pas c'est que la distances de sécurité n'aura pas été suffisante, il y a donc une erreur dans la programmation de l'algorithme.

@Bouletcorp Mais euh c'est horrible ces genre de questions. Ça fait presque "tu choisis qui, papa ou maman ?" T__T

@Bouletcorp J'avais entendu un dilemme de ce genre, à la radio, à propos d'un livre +/- philo (j'ai oublié le titre) : il était question d'un canot de sauvetage avec 3 personnes et un chien, et de l'eau pour 3. Est-ce que vous sacrifiez le chien ?
Et si on vous dit ensuite que le chien est un animal héroïque, qui a sauvé des personnes etc. et que les 3 humains sont des criminels nazis en fuite, est-ce que cela change votre décision ?

@Bouletcorp : ben justement, y'a un courant de pensée rationnel qui veut qu'on sorte de ce type de pensées irrationnelles.

Mon application de ce dilemme à la conduite automobile : ploum.net/les-10-millions-de-c

@ploum @Bouletcorp le revenu de base peut être détourné pour faire quelque chose d'anti-social. "rembourser la santé ? mais vous avez un salaire ! "

@ploum
Si un robot est aussi productif que 10 salariés, pourquoi ne pas continuer à payer ces 10 salariés en investissant dans 2 robots ?

@Bouletcorp

@Bouletcorp Les questions sont posées d'un point de vue particulier, les réponses seraient différentes si elles étaient posées du point de vue du mec attaché sur la voie : "accepteriez vous que l'observateur vous envoie le train sur la gueule". Il faut se demander dans quel genre de monde on vivrait si on pouvait s'attendre à se faire sacrifier pour le bien d'étrangers. Je pense que je suis le seul à décider si je veux me sacrifier ou pas, personne ne peut décider à ma place.

@Bouletcorp pas d'accord, ce qui fait la différence c'est le choix actif. la personne sur la voie tu l'as pas choisie, c'est "pas de bol pour elle" d'être ligotée sur une voie. y'a un biais qui te dit qu'elle a été ligotée par quelqu'un d'autre que toi, ce qui dilue ta responsabilité dans son meurtre. le monsieur que tu pousses, tu es seul responsable de le pousser au lieu de chercher autre chose de lourd. c'est 100% ton choix.