La programmation de voitures automatiques pose des questions éthiques. De nouveaux casse-têtes inattendus sont apparus. Certains ne demandent que de petites adaptations, mais d'autres se révèlent, pour l'instant, insolubles.

Accidents : la cohabitation avec la machine

Les machines conduisent-elles moins bien que les humains ? Le peu de recul que l’on a sur la question ne permet pas de trancher de façon certaine. Toutefois, aucun des accidents avérés sur des véhicules autonomes ne permet de mettre en cause l’automatisation. Ainsi, le premier accident d’une Google Car, en février 2016, était imputable au conducteur. La voiture, arrêtée derrière des sacs de sable, devait changer de file. Après avoir vu un bus dans le rétroviseur, le conducteur a parié qu’il ralentirait ou se mettrait à l’arrêt, puis a forcé le passage.

 

En mars 2018, un taxi Uber a renversé et tué une femme. Le rapport provisoire du régulateur des transports américain privilégie le facteur humain, et incite à la prudence dans l’analyse. La victime traversait la route la nuit à une section non éclairée, était habillée en noir et poussait un vélo sans réflecteur. De plus, ses tests toxicologiques se sont révélés positifs. Surtout, le système de freinage d’urgence de la voiture n’était pas activé. La conductrice, censée reprendre la main en cas de problème, regardait son smartphone

 

Günter Radtke’s World of Tomorrow (1960). 

 

Le dilemme du tramway

La philosophe britanno-américaine Philippa Ruth Foot s’est rendue célèbre en 1967 avec son dilemme du tramway. Hors de contrôle, un tram se dirige vers un groupe de cinq personnes. Vous pouvez le stopper avec quelque chose de lourd. Par « chance », une personne énorme passe à ce moment-là. Vous avez le choix : sacrifier cette personne et sauver les cinq autres, ou ne rien faire et laisser les cinq personnes mourir.

 

Des savants du MIT, de l’université de l’Oregon et de l’École d’économie de Toulouse ont cherché une réponse à cette problématique, déclinée pour des voitures autonomes. L’équipe a mis au point un simulateur, Moral Machine. Plusieurs dizaines de millions de scénarios ont été déjà jugés par des internautes d’une centaine de pays. Les lecteurs peuvent contribuer aux tests via le lien Web suivant : moralmachine.mit.edu/hl/fr.

 

Déterminer mathématiquement la responsabilité

Logiquement, un particulier n’envisage pas d’acheter une voiture qui pourrait envisager de le sacrifier. L’équipementier israélien Mobileye, désormais filiale d’Intel, a proposé une solution aux constructeurs : modéliser mathématiquement la responsabilité lors des accidents. L’objectif serait de séparer la programmation des aspects réglementaires.

 

La conduite de confort, basée sur des techniques d’apprentissage, serait séparée des décisions liées à la sécurité, basées sur un modèle prédéfini. Une fois ce modèle validé par les autorités gouvernementales concernées, les constructeurs n’auraient qu’à faire certifier leurs véhicules. Mobileye a publié un document scientifique, que la National Highway Traffic Safety Administration (NHTSA) américaine a épluché : après avoir testé trente-sept scénarios pré-accident, elle n’a détecté aucune erreur.

 

Algorithmes éthiques

L’article 121-1 du Code pénal est clair : c’est le conducteur d’un véhicule qui est responsable des infractions commises par lui dans la conduite dudit véhicule, et non le constructeur, son équipementier, le programmeur du logiciel ou l’auteur de son algorithme. À l’avenir, c’est la pluralité des détenteurs de pouvoirs sur le véhicule autonome et leur force d’interaction ou de correction qui déterminera les responsabilités encourues.

 

Il est toujours possible de faire évoluer le logiciel embarqué, pour lui apprendre à se « méfier » des bus par exemple. Il s’agit d’un processus d’amélioration continue qui comble chaque nouvelle lacune identifiée.

 

Des constructeurs et des chercheurs de l’université de Bologne (Italie) imaginent même un « bouton éthique » qui modifierait le cheminement dans l’algorithme du logiciel embarqué lorsque l’accident et la mort sont inévitables. L’idée est de permettre au conducteur de prendre ses responsabilités : soit il décide de « sauver sa vie » (faisant preuve d’égoïsme), soit il décide de « sauver les autres » (faisant preuve d’altruisme). Laisser le choix présente un autre intérêt : il peut modifier son approche du problème en fonction de sa situation personnelle. Par exemple, on peut imaginer un père de famille qui mettrait le bouton en mode « altruiste » lorsqu’il va au travail, mais en mode « égoïste » lorsqu’il a ses enfants sur la banquette arrière. 

 

Il existe un précédent : l’airbag passager avant d’une voiture étant très dangereux pour les enfants en bas âge, il appartient au conducteur de le désactiver s’il y a lieu.