Sur la base de 100 documents et chartes internes de Facebook, le Guardian a pu retracer la politique de modération employée par la société de Mark Zuckerberg. Le quotidien britannique révèle, entre autres, les conditions stressantes de ces travailleurs de l'ombre chargés de réguler la masse des contenus du réseau social.
Une tâche titanesque
Alors que Facebook annonçait début mai une vague de recrutements pour accueillir 3 000 modérateurs en plus des 4 500 existants, d'après le Guardian, la charge de travail qui leur incombe est telle qu'ils n'ont en moyenne que 10 secondes pour prendre une décision. Ces personnes dont le travail consiste à juger et supprimer les contenus indésirables s'occupent de trier les signalements envoyés par les utilisateurs du réseau après «deux semaines de formation qui viennent s'ajouter aux guides normatifs, conçus par des cadres de Facebook, basés au siège social à Menlo Park en Californie», selon le journal. En quelques secondes, les modérateurs doivent choisir d'ignorer ce signalement, de le faire remonter à leur supérieur qui devra lui-même choisir, ou d'effacer le contenu. Selon le quotidien britannique, «Facebook examine plus de 6,5 millions de dossiers par semaine concernant de potentiels faux comptes». Une tâche titanesque qui pèse sur les épaules de ces employés, au point qu'ils souffriraient d'anxiété ou de stress post-traumatique, relate le Guardian.
Une politique de modération plus que confuse
L'amélioration de la modération de Facebook est loin d'être optimale. La société avait déjà été mise en cause, notamment à propos de la prolifération des vidéos jihadistes et de suicides diffusés en direct. Car en plus de crouler sous la masse de travail, les modérateurs doivent composer avec les règles édictées par Facebook, parfois très complexes. Tout ce qui a trait aux sujets relevant de la violence, du sexe, des discours à caractères haineux, du terrorisme, de la pornographie, ou même du cannibalisme est défini par Facebook et la marche à suivre est indiquée aux modérateurs. Problème, les consignes sont peu claires. Le Guardian cite l'exemple de «la vengeance pornographique». Dans son guide interne destiné à aider les modérateurs, Facebook qualifie ce phénomène comme l'action de «partager publiquement des photos nues ou quasi-nues d'une personne ou de personnes qui ne veulent pas se voir dans une position qui les embarrasse ou leur fait honte».
Autre exemple d'imprécision, les documents recueillis par le journal britannique stipulent noir sur blanc que «les vidéos de morts brutales sont dérangeantes mais qu'elles peuvent conduire à une prise de conscience». D'après la politique de Facebook, «les mineurs ont besoin de protection et les adultes ont besoin d'avoir le choix. Nous marquons comme "dérangeantes" les vidéos de morts violentes d'êtres humains». L'approximation de ces règles, ajoutée au peu de temps pour les appliquer, rend les conditions de travail des modérateurs particulièrement dures, ce qui les pousse régulièrement à faire des erreurs. Chez Facebook, Monika Bickert, la directrice de la politique globale de modération du réseau, impute ces écarts à la masse des utilisateurs – 2 milliards – de Facebook et au fait qu'«il est difficile de trouver un consensus sur ce qui est permis ou non», rapporte le Guardian. La directrice a pourtant assuré vouloir protéger la communauté et investir progressivement dans la sécurité du site.