Menu
Libération
Témoignages

«Ça peut arriver à votre voisine, votre sœur, votre mère» : des victimes de deepfakes pornographiques racontent

Article réservé aux abonnés
De plus en plus d’affaires de deepfakes à caractère sexuel, de plus en plus de victimes. Surprise, incompréhension, colère… Trois femmes touchées par ce phénomène, connues du grand public ou anonymes, livrent leur témoignage à «Libé».
La journaliste Salomé Saqué et la streameuse gaming Aloonea. (Pablo Porlan/Hans Lucas. AFP et Aloonea. X)
publié le 20 février 2024 à 18h53

Ouvrir ses messages, taper son nom en ligne et découvrir avec stupeur une photographie de soi dénudée. Une photo que l’on n’a jamais prise. Boostés par l’intelligence artificielle (IA) générative, les deepfakes pornographiques, aussi appelés «deepnudes», enchaînent les victimes célèbres – essentiellement des femmes – ces derniers mois. La dernière en date : la chanteuse américaine Taylor Swift, fin janvier. Pourtant, en France, le phénomène passe encore sous les radars.

Aucune affaire «d’envergure impliquant des deepfakes» n’est en cours, assure la Direction générale de la police nationale (DGPN) auprès de Libé. Pas de cas recensés non plus du côté du 3018, numéro d’urgence pour les victimes de cyberharcèlement. Ce qui n’empêche pas les deux organismes d’étudier le sujet. L’Ofmin, l’office chargé des atteintes faites aux mineurs, a «bien identifié» l’utilisation de l’IA «par les pédocriminels et les escrocs pour des faits de sextorsion», ajoute la DGPN. «On pense que ça va être un gros sujet pour 2024-2025. Donc on se forme», souligne de son côté Samuel Comblez, directeur de la ligne d’écoute tenue par l’association E-Enfance. Et côté législatif, aussi, les lignes se mettent peu à peu en mouvement. Le projet de loi pour