Parmi ces associations, Human Rights Watch a réitéré son appel à interdire les «systèmes d’armes létales autonomes» alors que s’ouvre à Genève une réunion du groupe d’experts gouvernementaux de l’ONU sur le sujet. Depuis 2015, ONG, intellectuels, scientifiques ou dirigeants d’entreprises du numérique publient des lettres ouvertes pour alerter sur les dangers de la militarisation de l’intelligence artificielle (IA). Pour la campagne Stop Killer Robots, initiée par HRW, la solution est l’interdiction totale, par traité ou convention.
Les armes létales autonomes existent-elles déjà ?
L'expression «robot tueur» a l'avantage de la simplicité, mais a un inconvénient : chacun y projette ses fantasmes. Deux chercheurs le déploraient en mars dans Libé : «Ce vocable suggère que le robot serait animé par l'intention de tuer, voire qu'il en serait conscient, ce qui n'a pas de sens pour une machine, quand bien même elle a été conçue et programmée pour détruire, neutraliser ou tuer : on ne parle pas de "missile tueur".» Au-delà de la sémantique, le développement de l'IA pose de nouveaux défis, reconnaissaient-ils : «La question est de savoir s'il est éthiquement admissible que la décision de supprimer un être humain identifié par une machine puisse être déléguée à cette machine.» Ces systèmes ne sont pas encore déployés. «Des drones terrestres, utilisés pour contrôler des sites sensibles ou en maintien de l'ordre, sont déjà équipés de lanceurs de gaz lacrymogène», témoigne Yves Prigent, du programme responsabilité des Etats et des entreprises à Amnesty International France.
Qui veut les interdire ?
A ce jour, 26 Etats se sont prononcés en faveur d'une interdiction totale du développement des armes létales autonomes. «La Chine, elle, plaide pour une limitation, afin d'éviter la prolifération sur un modèle proche de ce qui existe pour le nucléaire militaire», précise Yves Prigent. L'Autriche est le seul pays européen à soutenir une interdiction. «Il y a une obligation des Etats par rapport au droit international», soutient Bénédicte Jeannerod, directrice France de HRW, dont un rapport conclut que les armes autonomes violent la clause de Martens, qui exige que les technologies soient jugées sur la base des «principes de l'humanité et des exigences de la conscience publique». Les 75 ONG engagées dans Stop Killer Robots exigent d'ici fin 2019 «des outils juridiques contraignants sous la forme d'un traité d'interdiction», précise HRW.
Et la France ?
«Paris était assez en avance, puis il y a eu un infléchissement», note HRW. Dans Wired, en mars, Macron s'était dit «opposé» aux armes létales autonomes : «La décision de donner le feu vert doit être prise par un être humain parce qu'il faut quelqu'un qui en prenne la responsabilité.» Depuis, Paris continue de se dire opposé, mais c'est tout.