«Sadtok», c’est la face obscure de TikTok. Des propositions de contenu générées au fil de ses consultations : on scrolle, on scrolle, on s’attarde sur une vidéo et les suivantes lui ressemblent. C’est le principe de la section «Pour toi» sur la plateforme : elle collecte les données de l’utilisateur pour adapter son contenu. On parle de bulle filtre, la même qui peut vous faire croire que le monde entier est de gauche si l’on s’attarde uniquement sur son fil Twitter. Questionnable, cette personnalisation devient carrément dangereuse quand le contenu en question se rapporte à la santé mentale, à la solitude, la dépression et la fétichisation des comportements à risque. Dans un rapport d’une centaine de pages publié début novembre et intitulé «Poussé·e·s vers les ténèbres», Amnesty International s’est penché sur la manière dont le réseau social prisé par les jeunes pouvait alimenter la détresse d’utilisateurs atteints de dépression ou d’anxiété. Lisa Dittmer, chercheuse spécialisée dans le droit des jeunes en ligne et au cœur de l’étude, en explique les raisons et les conclusions à Libération.
Pourquoi avoir choisi de travailler sur TikTok ?
Avec Amnesty International, on a déjà travaillé sur les entreprises qui basaient leur modèle économique sur la surveillance. On a publié des rapports sur Google et Facebook, mais en se concentrant sur les droits des jeunes et des enfants, TikTok s’est imposé comme un choix évident. La plateforme grandit très très vite chez les