Menu
Libération
Intelligence artificielle

Après l’affaire Taylor Swift, sur la piste sinueuse des générateurs de fausses images pornos

Article réservé aux abonnés
Taylor Swift, Léna Situations et Salomé Saqué… Ces derniers mois, les affaires de deepfakes pornographiques générés par IA défilent. «Libé» s’est plongé dans le business souterrain des sites web et groupes Telegram permettant d’en créer, avec une question en tête : qui se cache derrière ?
Montage créé avec une image de fausse femme générée par l’intelligence artificielle et dont la nudité a été obtenue par un logiciel de deepnude. (Montage Libération)
publié le 3 février 2024 à 9h35

Il a fallu attendre 17 heures, 45 millions de vues et des centaines de milliers de likes pour que certaines des images disparaissent. Le week-end dernier, des images pornos générées par IA – des deepfakes appelés «deepnudes» dans ce contexte précis – de la chanteuse américaine Taylor Swift ont bouleversé X (ex-Twitter). Des heures durant, ses fans se sont mobilisés pour tenter de les faire disparaître. Jusqu’à ce que le réseau social suspende enfin les recherches associées au nom de l’icône. Solution de bric et de broc pour endiguer la cohue.

De la youtubeuse Léna Situations à l’actrice Emma Watson, en passant par la journaliste Salomé Saqué… Ces derniers mois, les affaires de deepnudes s’empilent. Et toutes trouvent leur racine dans les allées d’un même labyrinthe souterrain de sites web et chaînes Telegram permettant en quelques clics d’en générer. Pendant plusieurs semaines, Libération a enquêté sur ce business récent mais tentaculaire, dont l’essentiel des victimes – anonymes – ignorent bien souvent en être les marchandises.

Une trentenaire brune se photographie dans le miroir d’un ascenseur. Une vacancière sourit en bikini. Coiffures laquées, cinq copines quadras posent hilares. Le brassage de ces photos d’inconnues procure une étrange impression d’indiscrétion. Un jo