Les grands débats

Faut-il avoir peur des robots tueurs ?

Elon Musk et des spécialistes de l’intelligence artificielle mettent en garde les Nations unies contre les dangers de la légalisation des armes autonomes létales.

« Les armes autonomes létales menacent de constituer la troisième révolution dans la guerre. Une fois développées, elles permettront aux conflits armés de se produire à une échelle plus importante que jamais et à une rapidité supérieure à ce que les humains peuvent appréhender ». La mise en garde vient d’Elon Musk et de 115 autres spécialistes de l’intelligence artificielle. Dans une lettre ouverte à la Convention des Nations Unies, ces ingénieurs et scientifiques s’inquiètent des risques liés aux systèmes d’armement autonomes létaux, autrement dit des robots tueurs.

Le fantasme d’une insurrection de robots

Le terme technique désigne en effet des machines dotées d’une intelligence artificielle capable d’identifier et de détruire une cible sans intervention humaine, violant ainsi la première des trois lois de la robotique d’Isaac Asimov en vertu de laquelle «un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger». Selon l’ONG Human Rights Watch, une douzaine d’Etats travaillent actuellement à l’élaboration de telles armes, parmi lesquels les Etats-Unis, la Chine et la Russie. Difficile de ne pas penser aux hordes de robots tueurs de la série Terminator, en guerre ouverte contre le genre humain qu’ils sont bien décidés à anéantir.

 

Dans quelques décennies, les drones militaires pourraient ne plus être télécommandés par des pilotes à distance, mais par des intelligences artificielles indépendantes, capables de décider sur quelles cibles faire feu.

 

Pas d’armes autonomes avant au moins 20 ans

« Effectivement, c’est un peu le fantasme ultime », convient en souriant Isabelle Dufour, consultante chez Eurocrise et experte de l’adaptation des armées aux conflits contemporains. « D’autant plus que les armes autonomes létales sont effectivement susceptibles de prendre la forme de robots terrestres. C’est encore de la SF pour l’instant, mais on pourrait envisager par exemple un robot terrestre envoyé dans un bastion de Daesh et qui distinguerait les djihadistes des civils. En tout cas, c’est à cela que ça ressemble dans les fantasmes. »

Mais, pour la consultante, ce genre de cas de figure paraît difficilement envisageable dans l’immédiat. « L’être humain a un champ de perception qui dépasse de loin, très loin, celui des machines. Même avec le deep learning, le nombre de situations qu’elles devraient pouvoir reconnaître est phénoménal. »  Selon elle, les armes autonomes ne devraient donc pas voir le jour avant 20 à 25 ans, au mieux. Et le risque d’une rébellion globale des machines serait encore loin. « Vous imaginez une armée de robots mal paramétrés, qui tueraient n’importe qui ? Aucune force militaire ne voudrait de ça. Les armes autonomes seraient forcément surparamétrées, au point que le risque est qu’au contraire, ils soient dotés de tellement de restrictions qu’ils ne pourraient plus rien faire. »

« Un robot ne ressent pas d’émotions négatives, il n’est pas raciste, il ne s’énervera pas si vous lui crachez dessus. »

 

Un robot policier à Dubai – Crédits : Dubai Media

 

Une réunion d’experts gouvernementaux sur les systèmes d’armement autonomes létaux aurait du se tenir le 21 août 2017, à l’initiative de la Convention des Nations Unies sur l’interdiction ou la limitation de l’emploi de certaines armes classiques. Mais la réunion a été reportée au mois de novembre, trop peu d’Etats ayant payé leurs cotisations à l’organisation internationale (sic). Il est cependant encore difficile d’envisager une législation à l’heure actuelle pour une raison (très) simple : les armes autonomes n’existent pas encore.

« On n’est pas en mesure de savoir si les avantages surpasseraient les inconvénients, explique Isabelle Dufour. mais il faut garder à l’esprit que des avantages, il peut y en avoir. Un robot ne ressent pas d’émotions négatives, il n’est pas raciste, il ne s’énervera pas si vous lui crachez dessus. » Un argument non négligeable dans un climat d’indignation mondial autour des violences policières. Peut-être pourrait-on privilégier la recherche autour d’armes autonomes non létales, qui, au lieu de Terminator en puissance, feraient office de robots CRS plutôt que de robots soldats.

 

Crédits couverture –  Terminator 2, 1991, TriStar

Pour aller plus loin

Résolution des conflits : l’horizon du « moindre pire »

Le spectre des guerres mondiales paraît loin. Pourtant, la fracture géopolitique générée par les conflits nationaux ou régionaux ne cesse de se creuser depuis la fin de la guerre froide. Au Nord, les pays membres de l’OCDE ont atteint des niveaux de paix jamais égalée. Ailleurs, plus d’une trentaine de conflits perdurent, certains enlisés de longue date, d’autres métastasés en menaces terroristes diffuses. Les leviers de résolution des conflits sont-ils obsolètes ? Pas si sûr.