Menu
Libération
TRIBUNE

Evaluons la vidéoprotection algorithmique avant de la pérenniser

Article réservé aux abonnés
Annoncée plusieurs mois avant la remise du rapport d’évaluation, la généralisation de la vidéoprotection augmentée par l’IA s’inscrit dans une logique de fuite en avant sécuritaire, peu transparente et sans évaluation des conséquences sociales, pointe Raphaël Maurel, directeur de l’Observatoire de l’éthique publique.
Au centre de commandement de la vidéoprotection de la ville de Toulouse, le 20 novembre 2023. (Frédéric Scheiber/Hans Lucas. AFP)
par Raphaël Maurel, Directeur général de l'Observatoire de l'éthique publique et maître de conférences à l'Université de Bourgogne
publié le 6 octobre 2024 à 17h45

C’est sans surprise que le Premier ministre, Michel Barnier, a annoncé, dans son discours de politique générale du 1er octobre, la généralisation de «la méthode expérimentée pendant les Jeux olympiques et paralympiques». En d’autres termes, la vidéoprotection augmentée par algorithmes, adoptée à titre expérimental et temporaire par la loi du 19 mai 2023, est appelée à être pérennisée, avant même la remise du rapport d’évaluation de l’expérimentation.

Le régime de la «vidéosurveillance», c’est-à-dire l’enregistrement et la transmission d’images de la voie publique aux autorités «aux fins d’assurer la protection des bâtiments et installations publics et de leurs abords» est déjà ancien. Introduite par la loi d’orientation et de programmation relative à la sécurité du 21 janvier 1995, la vidéosurveillance a été rebaptisée «vidéoprotection» par la loi d’orientation et de programmation pour la performance de la sécurité intérieure du 14 mars 2011 (Loppsi 2), afin de rendre le terme plus positif : le citoyen doit en permanence être protégé, et non surveillé. La logiqu