Des véhicules autonomes pourraient devoir décider qui vit et qui meurt en cas de défaillance des freins ou de collision inévitable. Lors d'urgence, pouvons-nous faire confiance aux réactions de ces véhicules? Pouvons-nous même nous entendre sur la manière dont ils devraient réagir?

La course pour développer des véhicules autonomes est en cours ici et ailleurs. En Ontario, des essais avec des voitures sans conducteur au volant ont été approuvés en trafic mixte et des navettes autonomes ont été déployées au Québec, en Alberta et en Colombie-Britannique.

Faites défiler la page pour mieux comprendre les implications éthiques liées au partage de la route avec des véhicules conduits par des algorithmes.

Les deux dilemmes présentés ci-dessus sont similaires, puisqu'ils vous demandent de sacrifier une personne pour en sauver cinq, mais le rôle que vous jouez dans la mort de la personne sacrifiée est différent. Cette nuance subtile est suffisante pour modifier la perception des gens quant au choix conforme à l'éthique.

Les fabricants automobiles devront apprendre à leurs voitures autonomes à se comporter dans des situations mettant des vies en danger. Ces véhicules devraient-ils être programmés pour prendre toutes les mesures pour sauver le plus de vies, même si cela signifie tuer une personne qui n'était pas initialement en danger? Devraient-ils risquer de tuer le conducteur de la voiture pour sauver des piétons? Faut-il donner la priorité aux personnes ou aux biens?

L'expérience Moral Machine du Massachusetts Institute of Technology (MIT) a tenté de répondre à certaines de ces questions. Dès 2016, les chercheurs ont mené une enquête internationale sur le web dans laquelle les répondants étaient invités à résoudre différentes situations inspirées du dilemme du tramway. Edmond Awad, responsable du projet, souligne que leur objectif était d'amasser des données sur « la perception humaine des décisions morales que devraient prendre les voitures sans conducteur » et d'alimenter le débat public.

Selon Marc-Antoine Dilhac, professeur agrégé d’éthique et de philosophie politique à l’Université de Montréal, l’une des limites de ce type d’études est qu’il n’y a pas de bonne réponse à ces questions morales. Les réponses des participants reflètent « les biais de la société dans laquelle évoluent les personnes [...] On n'a pas de critère pour ce qui est correct moralement, indépendamment du jeu. »

Pour M. Awad, il serait irresponsable de déterminer comment les voitures autonomes devraient se comporter sur la seule base d’une enquête populaire telle que l’expérience Moral Machine. Il pense plutôt que la préférence du public ne devrait être qu'un facteur à prendre en compte par les experts et les législateurs dans la réglementation de cette nouvelle technologie.

Si les véhicules autonomes posent autant de questions éthiques, pourquoi les voudrions-nous sur nos routes?

Selon un rapport du Comité sénatorial permanent des transports et des communications sur les véhicules automatisés et branchés, « il ne fait aucun doute que les véhicules automatisés et branchés sauveront des vies ».

En 2016, il y a eu 1669 décès et 116 735 blessés sur les routes du Canada. Environ 94 % des collisions routières étaient dues à une erreur humaine.

Les véhicules autonomes pourraient aussi bonifier l'offre des transports en commun et donner plus de liberté à ceux qui ne peuvent pas conduire, comme les malvoyants et des personnes très âgées.

Toutefois, le rapport du Comité sénatorial indiquait que le déploiement à grande échelle de véhicules autonomes pourrait entraîner des pertes d'emplois, aggraver l'étalement urbain en rendant les longs trajets plus acceptables et présenter d'importants risques de confidentialité et de cybersécurité.

Mary Cummings, directrice du laboratoire de l'humain et l'autonomie à l'Université Duke en Caroline du Nord, estime que nous sommes encore loin d'avoir à discuter des nuances éthiques puisqu'il reste tant de problèmes concrets à résoudre. « Fondamentalement, nous ne savons vraiment pas comment tester [des algorithmes de voiture sans conducteur] pour tous les niveaux de prévisibilité ou de certification. »

Selon Mme Cummings, c’est la qualité du code source des algorithmes qui contrôlent ces véhicules qui devrait nous préoccuper. « Ce qui me tient éveillée la nuit en tant que roboticienne, c'est la fragilité des systèmes de vision par ordinateur. Et c'est le nœud de tous les problèmes liés aux voitures sans conducteur. »

Comme les humains ne peuvent s'entendre sur des principes éthiques de base, et vu l'état actuel de la technologie, certains critiques s'inquiètent de la vitesse à laquelle les véhicules autonomes sont déployés.

La société américaine Uber développe des voitures autonomes et les teste sur les routes ontariennes. Selon Raquel Urtasun, la scientifique en chef du groupe Uber Advanced Technology, basée à Toronto, les questions éthiques comme le dilemme du tramway sont intéressantes du point de vue académique, mais « ce n'est pas notre priorité actuellement », ajoute-t-elle. Mme Urtasun évoque le nombre de décès par accident de voiture dans le monde, près de 1,25 million chaque année, selon les statistiques de l'Organisation mondiale de la santé. « Si nous ne développons pas ces [technologies], cela ne changera pas », précise-t-elle.

Les constructeurs automobiles restent muets par rapport au comportement de leurs voitures autonomes en cas d'urgence.

Ryan Robert Jenkins, professeur adjoint de philosophie à la California Polytechnic State University, indique que ses sources de l'industrie écartent aussi le dilemme du tramway. Il s'attend à ce que les entreprises programment leurs voitures pour freiner en ligne droite, même s'il est possible de sauver des vies en prenant d'autres mesures.

Selon M. Jenkins, les constructeurs de voitures autonomes feraient probablement l'objet de poursuites en cas d'accidents où sont impliqués leurs véhicules, et préféreraient ne pas faire face à une poursuite où des personnes ont été blessées alors qu'elles n'auraient pas dû l'être. « Je soupçonne que les entreprises programmeront leurs voitures pour freiner en ligne droite, car cela leur permettrait de plaider le doute raisonnable ».

Comme le montrent les exemples précédents, ne pas faire de choix est en soi un choix aux conséquences potentiellement mortelles. Et même si les collisions inévitables sont rares, les programmeurs devront tout de même répartir le risque d'accident entre différentes parties, décider avec quelle agressivité les voitures doivent conduire et déterminer à quel moment le véhicule doit freiner ou dévier de sa voie.

Pour l'instant, ces décisions sont surtout prises par les fabricants de véhicules autonomes. Au Canada, les véhicules autonomes sont la responsabilité conjointe des gouvernements fédéral et provinciaux. Les gouvernements provinciaux sont chargés de l’octroi des permis pour les véhicules et de l’approbation des tests, et doivent aussi s'assurer de l'exploitation en toute sécurité des véhicules.

Les gouvernements provinciaux n’ont pas demandé l’accès au code source des algorithmes qui conduisent ces voitures comme condition à la tenue de projets pilotes.

Selon Transports Canada, des essais de véhicules autonomes ont eu lieu en Ontario, au Québec, en Alberta et en Colombie-Britannique.

En 2016, l'Ontario a lancé un programme pilote de 10 ans permettant de tester sur la voie publique des véhicules autonomes. Parmi les participants figurent des entreprises comme Uber et des institutions comme l'Université de Waterloo. Les modifications récemment annoncées au programme permettront aux voitures sans conducteur derrière le volant de circuler sur les routes de la province.

Le ministère des Transports de l'Ontario a refusé de désigner un représentant pour répondre aux questions par téléphone ou en personne. Dans un courriel, un représentant a écrit que l'objectif du programme était « d'optimiser le système de transport, de promouvoir la croissance économique et l'innovation, et de s'aligner sur les autres provinces, dans la mesure du possible, tout en protégeant la sécurité routière ».

À Candiac, au Québec, Keolis Canada exploite une navette électrique fournie par la société française Navya. La navette accueille 15 passagers et roule sur un tronçon de route publique de deux kilomètres. Stéphane Martinez, directeur des politiques de sécurité à Transports Québec, admet que tout ce qui bouge présente un risque, mais que c'est un risque calculé. Selon M. Martinez, les mesures de contrôle des risques pour les navettes autonomes sont nettement plus élevées que pour n'importe quel autre véhicule sur la route. « On ne prend pas la population québécoise en otage ou comme cobaye. »

L'Ontario et le Québec ont récemment approuvé l'utilisation publique de voitures où les systèmes informatiques peuvent contrôler le véhicule, à condition qu'un conducteur soit présent et prêt à intervenir en cas de besoin. Celles-ci sont classées comme ayant une autonomie de niveau 3, selon une échelle établie par l'organisme de normes techniques SAE International (anciennement la Society of Automotive Engineers). Pour l'instant, les véhicules de niveau 3 ne sont pas en vente au Canada.

Toutefois, une étude sur le suivi du regard, publiée par l'Institut d'études sur les transports de l'Université de Leeds, au Royaume-Uni, a démontré que les conducteurs ont besoin de 40 secondes pour reprendre aux systèmes automatisés le « contrôle adéquat et stable » du véhicule. En outre, un rapport de sécurité publié par Waymo, une filiale de la société mère de Google et un leader du secteur des voitures autonomes, indiquait que les conducteurs humains « ne surveillaient pas suffisamment la chaussée pour pouvoir prendre le contrôle en toute sécurité en cas de besoin ». La société se concentre sur des véhicules entièrement autonomes (niveaux SAE 4 et 5) afin d'éviter ce qu'ils appellent le « problème du transfert ».

En mars 2018, un véhicule appartenant à la société américaine de covoiturage Uber a tué la piétonne Elaine Herzberg, 49 ans, alors qu'elle traversait la rue à Tempe, en Arizona. Selon un rapport préliminaire du Conseil national de la sécurité des transports, le véhicule avait été configuré pour exiger l’intervention du conducteur en cas de freinage d’urgence. Cependant, le conducteur n'a pas réussi à prendre le contrôle des systèmes automatisés à temps pour éviter l'accident. Une porte-parole d'Uber, Sarah Abboud, a confirmé qu'à la suite de l'accident, la société a révisé ses pratiques pour s'assurer de moins dépendre du conducteur. Uber, qui participe au programme pilote de voitures autonomes en Ontario, a suspendu les essais sur route en Amérique du Nord à la suite de l'accident, mais a depuis repris des essais limités.

Le système Autopilot du fabricant de voitures électriques Tesla a également été impliqué dans plusieurs accidents mortels à travers le monde.

Avec l'intérêt croissant pour les véhicules autonomes à mesure que la technologie se développe, les gouvernements au Canada sont confrontés à leur propre dilemme moral : quel niveau de risque est acceptable aujourd'hui pour potentiellement sauver des vies dans le futur?

Publicité