Menu
Libération
Décryptage

Des organisations veulent un traité d'interdiction des «robots tueurs»

Alors que s'ouvrent les discussions d'un groupe d'experts à Genève, Amnesty International et Human Rights Watch alertent à nouveau sur les dangers des systèmes d'armes autonome.
Un faux «robot tueur», à Londres, le 23 avril 2013. (Photo Carl Court. AFP)
publié le 28 août 2018 à 12h42

Les robots tueurs appartiennent pour l’instant à la science-fiction. Et qu’ils y restent ! ont lancé, en substance, plusieurs organisations de défense des droits humains lundi. Human Rights Watch (HRW), ainsi qu'Amnesty International, ont réitéré leur appel à interdire les «systèmes d’armes létales autonomes» alors que s’ouvre, à Genève, une nouvelle réunion du groupe d’experts gouvernementaux des Nations Unies sur le sujet.

Les organisations ne sont pas les seules à se préoccuper de l'avènement de ces nouvelles armes. Depuis 2015, des intellectuels, scientifiques ou dirigeants de grandes entreprises du numérique publient régulièrement des lettres ouvertes pour alerter sur les dangers de la militarisation de l'intelligence artificielle. Pour la campagne «Stop Killer Robots», initiée par HRW et rejointe par de nombreuses autres organisations, la solution est l'interdiction totale, par traité ou convention, avant qu'il ne soit trop tard.

Les armes létales autonomes existent-elles déjà ?

L'expression «robot tueur» a l'avantage de la simplicité - tout le monde sait de quoi il s'agit - et son inconvénient : chacun projette ses fantasmes. Deux chercheurs le déploraient dans une tribune parue en mars dans Libération : «Le vocable de robot tueur suggère que le robot serait animé par l'intention de tuer, voire qu'il en serait conscient, ce qui n'a évidemment pas de sens pour une machine, quand bien même elle a été conçue et programmée pour détruire, neutraliser ou tuer : on ne parle pas de "missile tueur".»

Au-delà de la sémantique, le développement de l'intelligence artificielle pose de nouveaux défis, reconnaissaient-ils : «La question est aussi de savoir s'il est éthiquement admissible que la décision de supprimer un être humain identifié par une machine puisse être déléguée à cette machine.» Cette décision est précisément ce qui distingue un système d'armes létales autonomes d'un drone Reaper utilisé aujourd'hui par les forces spéciales américaines. «L'élément à retenir est que le robot choisit de façon autonome de viser telle cible et d'utiliser la force meurtrière», relevait, en 2013, un rapporteur spécial du Conseil des droits de l'homme des Nations unies.

Aujourd'hui, ces systèmes, sans humain dans la boucle, ne sont pas encore déployés. «Des drones terrestres, utilisés pour contrôler des sites sensibles ou en maintien de l'ordre, sont déjà équipés de lanceurs de gaz lacrymogène. On en voit de plus en plus dans les salons d'armement», témoigne Yves Prigent, chargé du programme responsabilité des Etats et des entreprises à Amnesty International France. Ces briques technologiques pourraient servir de base à de futures armes autonomes, ajoute Prigent, tout en se disant conscient qu'un bond technologique sera nécessaire.

Qui veut les interdire ?

A ce jour, 26 Etats se sont prononcés en faveur d'une interdiction totale du développement des armes létales autonomes. Les derniers en date à avoir proposé des mesures d'interdiction sont l'Autriche, la Chine, Djibouti et la Colombie, en avril. «La Chine a une position ambivalente, précise néanmoins Yves Prigent. Elle ne plaide pas pour une interdiction totale, mais pour une limitation, pour éviter la prolifération sur un modèle proche de ce qui existe pour le nucléaire militaire.» L'Autriche est le seul pays européen à avoir pris position dans le sens d'une interdiction.

«Il y a une obligation des Etats par rapport au droit international», soutient Bénédicte Jeannerod. Un rapport de HRW paru le 21 août conclut que les armes autonomes violent la clause de Martens. Cette clause du droit international humanitaire exige que les technologies émergentes soient jugées sur la base des «principes de l'humanité et des exigences de la conscience publique». Des notions certes floues, mais sur lesquelles avait été fondée, en 1995, l'interdiction à titre préventif des armes à laser aveuglantes.

Les soixante-quinze ONG engagées dans la campagne «Stop Killer Robots» militent pour «des outils juridiques contraignants, sous la forme d'un traité d'interdiction», explique la directrice France de HRW. «En l'absence de traité ou de convention, la logique industrielle peut inciter à poursuivre les recherches pour rester dans la course», souligne Yves Prigent. «Stop Killer Robots» réclame des Etats qu'ils aboutissent à un «traité d'interdiction juridiquement contraignant d'ici fin 2019».

Rendez-vous est donné en novembre. «Une échéance importante, sur laquelle on mise beaucoup, affirme Bénédicte Jeannerod. Les réflexions issues de la réunion des experts à Genève vont nourrir celle des Etats en novembre. La perspective y sera plus politique, on pourra pousser à de vraies négociations.»

Et la France ?

«La France était assez en avance sur les discussions, puis il y a eu un infléchissement. On attend qu'elle retrouve cette dynamique et aille au-delà de ses déclarations», souligne Bénédicte Jeannerod. Dans son interview fleuve à Wired, détaillant sa vision de la technologie, Emmanuel Macron s'était dit «catégoriquement opposé» à des systèmes d'armes létales autonomes : «La décision de donner le feu vert doit être prise par un être humain parce qu'il faut quelqu'un qui en prenne la responsabilité.»

Le président français s'inscrit dans la courte tradition française en la matière, puisque c'est Paris qui avait lancé les débats aux Nations Unies sur ces systèmes d'arme. Depuis, la France s'y dit opposée, mais c'est tout. Ce que déplore Bénédicte Jeannerod : «On attend que ces déclarations d'intention soient dépassées, pour aboutir à de vraies initiatives et à un traité.»