Les grands débats

Quelle éthique pour les voitures autonomes?

Waymo, la filiale d’Alphabet, s'apprête à tester des voitures sans conducteur : le passage à l’ère des véhicules autonomes est désormais imminent. Et soulève des questionnements éthiques que les constructeurs automobiles ne doivent pas ignorer.

Nous l’annoncions dans un précédent article : la voiture autonome est déjà là, reléguant derrière nous la société automobile. Une nouvelle étape vient d’être franchie : Waymo, la filiale d’Alphabet, a annoncé en novembre un test grandeur nature de véhicules 100 % autonomes, dans les rues de Phoenix, en Arizona. Le but est, à terme, de créer une flotte de taxis sans conducteur, accessibles par abonnement. Contrairement aux Uber “autonomes” de Pittsburgh, les véhicules de Waymo n’auront pas du tout de conducteur. Les passagers y seraient aussi inactifs que dans un bus ou un train – à la différence qu’ici, le chauffeur ne serait pas un humain, mais une intelligence artificielle.


© Waymo

A bord, l’homme privé de toute possibilité d’intervention

« En général, on voit trois avantages à la voiture autonome, résume Estelle Chauvard, à l’origine d’une étude sur le sujet intitulée Les Fous sans volant. La sécurité routière, l’environnement et la décongestion des transports. » Le premier argument est souvent prioritaire. Et pour Waymo, la solution est radicale : sa voiture autonome n’a ni volant, ni pédale. Autrement dit, rien n’est prévu si le passager souhaite reprendre le contrôle. « Waymo part du principe que l’homme est le seul facteur d’échec dans la conduite, analyse Estelle Chauvard, et que l’informatique est plus sûre, moins faillible. Pour eux, la possibilité qu’un humain reprenne le volant est en soi un danger. »

Tout l’enjeu sera donc de programmer l’intelligence artificielle du véhicule pour qu’il agisse en conducteur responsable – c’est-à-dire sans tuer personne, aurait-on tendance à penser spontanément. Dans les faits, l’IA risque d’être confrontée à des dilemmes moraux : comment choisir, par exemple, entre renverser des passants et mettre en danger la vie du passager ? Un conducteur humain réagirait de manière spontanée, par réflexe : une IA, elle, devra nécessairement être programmée en amont pour savoir qui épargner.

 

IA et éthique

Dans cette perspective, des chercheurs du MIT ont mis au point la plateforme Moral Machine, qui vise à « construire une image de l’opinion humaine sur la façon dont les machines doivent prendre des décisions lorsqu’elles sont confrontées à des dilemmes moraux » et « rassembler et débattre des potentiels scenarii à conséquence morale. » Comme les diapositives du code de la route, cette plateforme propose une série de situations rencontrées au volant – exceptions faites que la voiture, ici, est autonome, et que tous les scenarii impliquent une collision mortelle. L’internaute doit par exemple choisir entre sauver les passagers -une famille de trois personnes-, ou les piétons -deux personnes âgées et deux fillettes-, avec la précision que ces derniers traversent au feu rouge.

© Moral Machine

Les scenarii envisagés incluent l’âge, le sexe, la corpulence et même la catégorie socio-professionnelle des victimes potentielles. Autrement dit, il s’agit d’évaluer la valeur d’une vie. Une question que les chercheurs à l’origine de l’étude refusent de laisser à la loi ou aux constructeurs automobiles, et à laquelle ils convient chaque citoyen à trouver une réponse.

Pour aller plus loin