Il a fallu attendre 17 heures, 45 millions de vues et des centaines de milliers de likes pour que certaines des images disparaissent. Le week-end dernier, des images pornos générées par IA – des deepfakes appelés «deepnudes» dans ce contexte précis – de la chanteuse américaine Taylor Swift ont bouleversé X (ex-Twitter). Des heures durant, ses fans se sont mobilisés pour tenter de les faire disparaître. Jusqu’à ce que le réseau social suspende enfin les recherches associées au nom de l’icône. Solution de bric et de broc pour endiguer la cohue.
De la youtubeuse Léna Situations à l’actrice Emma Watson, en passant par la journaliste Salomé Saqué… Ces derniers mois, les affaires de deepnudes s’empilent. Et toutes trouvent leur racine dans les allées d’un même labyrinthe souterrain de sites web et chaînes Telegram permettant en quelques clics d’en générer. Pendant plusieurs semaines, Libération a enquêté sur ce business récent mais tentaculaire, dont l’essentiel des victimes – anonymes – ignorent bien souvent en être les marchandises.
Enquête
Une trentenaire brune se photographie dans le miroir d’un ascenseur. Une vacancière sourit en bikini. Coiffures laquées, cinq copines quadras posent hilares. Le brassage de ces photos d’inconnues procure une étrange impression d’indiscrétion. Un jo