Amnesty International n’en a pas fini avec TikTok. Deux ans après avoir publié le rapport «Poussé(e) s vers les ténèbres» démontrant les effets néfastes du fil de recommandation «Pour toi» sur la santé mentale des jeunes au niveau mondial, l’ONG publie, ce mardi 21 octobre, une toute nouvelle enquête. Et celle-ci s’intéresse, cette fois, exclusivement au contexte français.
Amnesty International France a collaboré avec l’Institut Harris pour interroger, fin 2024, 1 000 jeunes Français âgés de 13 à 25 ans sur leur rapport au réseau social chinois. Sans surprise, les résultats sont accablants. Plus de la moitié des jeunes interrogés, en particulier les femmes âgées de 16 à 25 ans, déclarent être trop souvent exposés à des contenus dérangeants et dégradants. Pire encore, quand ils s’intéressent à des contenus liés à la santé mentale.
Amnesty International a par ailleurs créé des comptes automatisés ou gérés manuellement, se faisant passer pour des adolescents de 13 ans, pour tester le fonctionnement des rabbit holes (spirales de contenus préjudiciables). «Sans interagir, liker, commenter ou faire des recherches, il suffit de passer quelques secondes sur une vidéo pour tomber dans un rabbit hole et se retrouver avec des vidéos qui romantisent et banalisent le suicide», confirme Katia Roux, responsable du plaidoyer technologie et droits humains pour Amnesty International France et coautrice du rapport. De notre côté, en quelques jours de scrolling sur le fil «Pour toi», on est tombé sur pléthore de vidéos problématiques. Et, de fait, le rabbit hole est manifeste. C’est dire la rapidité spectaculaire de l’algorithme du réseau social qui, de plus, se sert de nos données personnelles, comme le rappelle le rapport d’Amnesty. Comment protéger ceux qui sont donc bien moins armés mentalement face à ce type de contenus ? Le 21 octobre, en réaction à la publication de l’étude, un porte-parole de Tik Tok a réagi auprès de Libé, listant les contenus interdits sur la plateforme. «Sans tenir compte de la façon dont les vraies personnes utilisent TikTok, cette “expérience” a été conçue pour aboutir à un résultat prédéterminé», pointe le porte parole, par mail, indiquant qu’Amnesty reconnaît même «que la grande majorité des contenus (95 %) présentés à leurs robots pré-programmés n’étaient en réalité absolument pas liés à l’automutilation».
Des mesures largement insuffisantes et inadaptées
Pourtant, le sondage pointe également que «58 % des jeunes Français interrogés se disent affectés par certains contenus, disent se sentir mal à l’aise, tristes, démoralisés ou touchés dans leur estime de soi». L’ONG dénonce l’inaction du réseau social malgré les alertes répétées. TikTok «n’a pas pris les mesures suffisantes, adéquates et adaptées pour protéger, en ligne, les jeunes et ceux qui s’intéressent à des contenus liés à la santé mentale», pointe encore Katia Roux, qui espère que les conclusions du rapport viendront alimenter l’enquête lancée en février 2024 par la commission européenne. «En mai 2025, TikTok a pris des mesures comme l’intégration à l’appli d’exercices de méditation pour encourager les jeunes à se déconnecter la nuit. Quand on voit la gravité des contenus auxquels ils sont exposés, c’est largement inadapté», rappelle la responsable. C’est également loin d’être suffisant pour la commission d’enquête parlementaire lancée l’été dernier en France, et dont le rapport, publié en septembre, préconisait purement et simplement l’interdiction des réseaux sociaux aux moins de 15 ans, un couvre-feu numérique pour les 15-18 ans ou encore la nécessité d’améliorer davantage la modération des contenus choquants.
L’enquête d’Amnesty International France est d’autant plus révélatrice que l’on y retrouve des témoignages poignants de jeunes en détresse mais aussi de membres du collectif Algos Victima créé en 2024 pour soutenir «les mineurs et leurs familles victimes de préjudices liés aux réseaux sociaux» dans leurs démarches judiciaires. En novembre 2024, après le suicide de deux adolescentes, sept familles françaises, réunies au sein de ce collectif, assignaient le réseau social Tik Tok en justice. Elles l’accusaient d’être responsable, par son contenu, de la dégradation de l’état de santé mentale et physique de leurs enfants. Sur les sept adolescentes concernées, deux, Marie et Charlize, se sont suicidées à 15 ans, respectivement en 2021 et 2023. Quatre ont tenté de le faire et une autre a connu des problèmes d’anorexie. Aujourd’hui, ces familles sont au nombre de 11, précise Amnesty.
«Ça me maintenait la tête sous l’eau»
«Il y a eu une période où je n’avais plus la force de rien faire. Je ne faisais plus de sport. Je n’allais quasiment plus en cours. Pour m’occuper, j’allais sur TikTok et ça me maintenait la tête sous l’eau, témoigne Maëlle, 18 ans, auprès de l’ONG. Voir des gens qui se scarifient en direct, des gens qui disent quoi prendre comme médicaments pour en finir, ça influence et ça t’incite à avoir des comportements délétères. Il y a des vidéos qui sont encore imprimées dans ma rétine. Il y a des choses qui restent.» Toujours dans le rapport, sa mère, Morgane, réagit : «Quoi que nous fassions, quoi que nous disions, c’est comme si elle était happée dans ce monde parallèle et que le monde réel n’avait plus d’impact sur ses émotions ou sur qui elle était.»
Si ce rapport est une somme de nouvelles preuves quant aux manquements de TikTok au regard du DSA, le règlement européen sur les services numériques, Amnesty International France indique également saisir l’Arcom, le gendarme du numérique, ce mardi 21 octobre. «Nous allons envoyer un courrier officiel à l’Arcom, accompagné de notre enquête, pour déposer formellement plainte pour manquement de TikTok à ses obligations liées à la protection des mineurs et la prise en compte des risques systémiques», précise Katia Roux qui ajoute que derrière les algorithmes, il ne faut pas oublier qu’il y a des vies et des familles potentiellement en danger.
Mis à jour, le 22 octobre 2025, avec la réaction de Tik Tok.