Menu
Libération
Intelligence artificielle

22 plaintes, des adolescentes victimes... dans le sud-ouest de l’Espagne, le «deepfake porn» fait des ravages

A Almendralejo, 22 plaintes ont été déposées après la diffusion d’images pornographiques générées via l’intelligence artificielle mettant en scène des jeunes filles. L’enquête de la police s’annonce épineuse en raison de l’âge des suspects et de la nature de leur délit.
22 plaintes ont été déposées à Almendralejo par des adolescentes ou par leurs parents. (Gabriel Bouys/AFP)
publié le 22 septembre 2023 à 12h55

Grosse bourgade qui s’étale alanguie au milieu de la campagne asséchée d’Estrémadure, Almendralejo n’était jusque-là connue que pour être le point médian des enquêtes d’opinion. Désormais, la ville fait face à un délit qui grandit dans l’ombre et constitue un véritable casse-tête pour les enquêteurs : le «deepfake porn», autrement dit le fait de générer des images pornographiques via l’intelligence artificielle, sans se préoccuper du consentement des personnes concernées. Plusieurs jeunes filles ont vu circuler par des groupes WhatsApp ou Telegram des photos d’elles dénudées : 22 plaintes ont été déposées à Almendralejo par des adolescentes ou par leurs parents.

Photos piochées sur les réseaux sociaux

Tous originaires d’Almendralejo, les suspects, âgés de 12 à 14 ans, ne peuvent pas être poursuivis. La police judiciaire locale a toutefois indiqué que d’autres auteurs pourraient être majeurs et donc s’exposer à des inculpations. La certitude des policiers est que ces jeunes adolescents baignent depuis tout jeune dans la «culture numérique» et possèdent une bonne connaissance des avancées technologiques et des applications les plus récentes. D’où leur facilité à créer des images pornographiques à partir de photos piochées sur les réseaux sociaux.

Pour l’heure, les policiers ne disposent d’aucun élément indiquant que ces images de deepfake porn aient été diffusées au-delà des groupes où elles sont apparues. Mais ce genre d’enquête est très épineux. «Une fois que c’est sur Internet, il est quasiment impossible de le faire entièrement disparaître», a expliqué le chef du groupe de protection des mineurs de l’Unité centrale de cyberdélinquance, Javier Izquierdo. Il existe en partie un vide juridique sur la question, mais le code pénal qualifie la production de ce genre d’images sexuelles via l’IA comme un «délit de pornographie infantile». A la condition que ces photos soient «réalistes».

En constante augmentation

Ces derniers temps, les enquêteurs se sentent plus armés pour poursuivre ce type de délit. L’Agence espagnole de protection des données personnelle (AEPD) a le droit de s’y immiscer car l’image est considérée comme partie prenante de ces données personnelles : la manipulation et la distribution sans consentement peuvent signifier une «violation de privacité» et valoir des amendes allant jusqu’à 10 000 euros. Cette surveillance a été récemment accrue avec la loi sur le consentement sexuel (connue comme la «loi du oui, c’est oui», votée par le gouvernement de Pedro Sánchez), car elle considère ce délit comme une forme d’agression sexuelle, et autorise l’AEPD à garantir une protection toute spéciale aux potentielles victimes féminines.

Les forces de sécurité observent que les délits liés au deepfake porn sont en constante augmentation, même si les médias s’en font peu l’écho et si les enquêteurs préfèrent se maintenir dans la discrétion afin d’éviter un «appel d’air». Les enquêteurs parlent désormais d’un nouveau type de violence machiste, dont a récemment été victime la chanteuse Rosalía – qui l’a rendu public. Cette nouvelle typologie criminelle inclut l’usage du «métavers», ou les retransmissions via streaming d’agressions sexuelles commises sur des mineurs. l’Unité centrale de cyberdélinquance a admis la grande difficulté de contrôler les entreprises produisant ce type de software car on ne peut les localiser.