Menu
Libération
TRIBUNE

Armes autonomes : des normes contraignantes sont nécessaires d’urgence

Article réservé aux abonnés
La prolifération des «robots tueurs» constitue une menace pour le droit international humanitaire et la protection des civils. Ils doivent être encadrés par un traité international, assurent un spécialiste de l’armement et des responsables d’ONG.
Des pompiers éteignent une voiture prise pour cible par un drone de l'armée israélienne à Sidon au Liban, le 21 août 2024. (Anadolu. AFP)
par Patrice Bouveret, Bénédicte Jeannerod et Sylvie Brigot
publié le 25 octobre 2024 à 7h45

Le 8 octobre, le prix Nobel de physique était décerné aux professeurs Geoffrey Hinton et John Hopfield, en reconnaissance pour leurs contributions dans le domaine de l’intelligence artificielle. Début novembre, les 193 Etats membres de l’Assemblée générale des Nations unies, réunis à New York, seront appelés à voter sur une résolution concernant les systèmes d’armes autonomes, également appelés «robots tueurs». Bon nombre de ces systèmes d’armes reposent sur l’intelligence artificielle, et le professeur Geoffrey Hinton tire la sonnette d’alarme sur leurs dangers depuis plus de dix ans.

Les armes autonomes sont des systèmes qui, une fois activés, ont la capacité de sélectionner une cible et d’engager une force létale seulement grâce à l’analyse de capteurs, sans intervention humaine. Ces systèmes d’armes soulèvent des questions fondamentales d’ordre éthique, humanitaire, juridique, opérationnel, moral et sécuritaire. La perspective de leur utilisation et leur prolifération est alarmante et constitue une menace sérieuse pour le droit international humanitaire et la protection des civils. Confier à une machine le pouvoir de vie ou de mort sur un être humain franchit une ligne