La question se pose de manière sérieuse alors que les véhicules autonomes deviennent une réalité sur les routes : qui devrait-on essayer de sauver en priorité dans le cas d'un accident? Matthieu Dugal parle des résultats d'une étude sortie à ce sujet dans la revue Nature cette semaine.
La question renvoie au dilemme du tramway, une mise en situation utilisée en éthique depuis les années 1960 dans laquelle un tramway fonce en direction d’un groupe de cinq personnes attachées à des rails sur son chemin. Une personne qui est hors de danger peut activer un levier pour faire dévier ce tramway de sa trajectoire. Toutefois, si elle le fait, une autre personne, qui aurait eu la vie sauve sans cette intervention, sera frappée par le véhicule. Doit-on agir ou pas dans cette situation?
Des chercheurs du Massachusetts Institute of Technology (MIT) et du Centre national de la recherche scientifique (CNRS) français ont créé en juin 2016 la Machine morale, un jeu-questionnaire en ligne pour découvrir quelles décisions morales prendraient les internautes par rapport à de tels dilemmes.
Les scientifiques ont compilé près de 40 millions de décisions avant de publier leur étude cette semaine. Dans celle-ci, on découvre que les repères moraux varient selon la région d’origine des répondants.
Ce type de problèmes doit forcément être résolu, si l'on veut que les algorithmes de nos voitures autonomes appliquent les choix jugés les plus moraux. Aujourd’hui, ces dilemmes représentent plus que de simples débats éthiques ou des situations théoriques.