Menu
Libération
Protection de l'enfance

Deepfakes sexuels : l’Unicef pointe l’explosion d’images d’enfants détournées et dénombre 1,2 million de victimes en 2025

L’organisation interpelle également les puissances publiques pour qu’elles revoient leur définition des contenus pédopornographiques en intégrant le phénomène en expansion.

Une affiche sur un Abribus londonien du groupe protestaire «Everyone Hates Elon» appelle au boycott du réseaux social X après le scandale autour des deepfakes générés par son intelligence artificielle Grok, le 14 janvier. (Chris J Ratcliffe/REUTERS)
Publié aujourd'hui à 18h38

Les enfants, plus exposés et moins protégés. C’est le cri d’alarme du Fonds des Nations unies chargé de la protection de l’enfance à travers le monde (Unicef). Il pointe, dans un rapport paru ce mercredi 4 février, la multiplication d’images d’enfants détournées par l’intelligence artificielle pour réaliser des deepfakes à caractère sexuel.

Selon l’étude réalisée par l’Unicef, Interpol et Ecpat, un réseau d’associations qui lutte contre l’exploitation sexuelle des enfants, «au moins 1,2 million d’enfants auraient été victimes de cette pratique au cours de l’année passée». L’enquête, qui conclut que 1 enfant sur 25 est touché, soit «l’équivalent d’un enfant par classe», a été menée sur 11 pays : l’Arménie, le Brésil, la Colombie, la République dominicaine, le Maroc, le Monténégro, la Macédoine du Nord, le Mexique, le Pakistan, la Serbie et la Tunisie.

«Criminaliser les contenus générés par IA»

Un procédé, tout particulièrement, est dans le viseur de l’agence de l’ONU, la «nudification», qui consiste à modifier ou enlever les vêtements d’une victime. «Il convient de le rappeler clairement : les images d’enfants à caractère sexuel générées ou manipulées à l’aide d’outils d’IA ne sont autres que des contenus montrant des abus sexuels sur enfant. Les abus commis au moyen d’images hypertruquées restent des abus, et les préjudices qu’ils entraînent sont tout sauf fictifs», écrit l’Unicef dans un communiqué.

L’Unicef demande aux gouvernements d’«élargir la définition des contenus montrant des abus sexuels sur enfant pour y inclure les contenus générés par l’IA, et criminaliser leur création, leur acquisition, leur détention et leur diffusion».

Mettre en place «des garde-fous robustes»

L’organisation déplore également que de trop nombreux modèles d’IA restent «encore conçus sans mécanismes de protection appropriés» et que «les risques tendent à se multiplier lorsque les outils d’IA générative sont directement intégrés aux plateformes de médias sociaux, où les images ainsi manipulées se propagent rapidement». L’Unicef réclame donc que les développeurs d’IA mettent en place «des garde-fous robustes» pour empêcher la création de ces deepfakes et que les entreprises du numérique «préviennent leur circulation» plutôt que se limitent à leur retrait après coup.

Le réseau social X, propriété du milliardaire Elon Musk, est sous le coup de plusieurs procédures dans différents pays, notamment en France, en raison de la diffusion par son chatbot Grok de contenus pornographiques à partir d’images réelles. Mi-janvier, l’entreprise américaine affirmait avoir restreint la fonctionnalité permettant de déshabiller des personnes, alors que la haute-commissaire française à l’Enfance, Sarah El Haïry, annonçait saisir la commissaire européenne à la Souveraineté numérique sur le sujet.

Dans la même rubrique