Menu
Libération
Récit

Modération : Facebook en opération transparence

Toujours sous le feu des critiques, le réseau social a rendu publiques ce mardi les «directives internes» appliquées par ses équipes pour décider de la suppression d'un contenu.
Action du mouvement citoyen Avaaz devant le Capitole à Washington, représentant Mark Zuckerberg, mardi. (PHOTO SAUL LOEB. AFP)
publié le 24 avril 2018 à 19h29

Opération déminage, suite. Ce mardi, Facebook a annoncé la publication de ses «directives internes», à savoir l'ensemble des règles appliquées par ses équipes de modération pour décider si un contenu publié sur le réseau social doit être supprimé ou non. Par la voix de sa vice-présidente chargée de la politique de gestion des contenus, Monika Bickert, l'entreprise explique vouloir aider «chacun à comprendre où [elle place] la limite sur les questions complexes et nuancées», et permettre à des «experts» de faire des «observations». Mais cette nouvelle annonce intervient surtout dans un contexte de critiques toujours aussi vives à l'encontre du géant de Menlo Park.

Modération régulièrement mise en cause

Il y a deux semaines, Mark Zuckerberg en personne a dû s'expliquer devant le Congrès américain sur le siphonnage des données de dizaines de millions d'utilisateurs par la firme de «marketing politique» Cambridge Analytica ; ce mardi, Aleksandr Kogan, le chercheur qui a collecté puis vendu ces données, a d'ailleurs été auditionné par le Parlement britannique. Et le week-end dernier, le New York Times a publié une longue enquête accusant Facebook d'avoir laissé se propager des messages de haine contre les minorités musulmanes en Birmanie et au Sri Lanka.

La mise en cause de la politique de modération du réseau social n'est certes pas neuve : ces dernières années, il a été régulièrement accusé de laisser prospérer des contenus haineux ou, a contrario, d'exercer une censure arbitraire. Les «directives internes» ont d'ailleurs longtemps été un secret bien gardé. Elles avaient néanmoins fini par fuiter partiellement dans la presse, notamment dans le Guardian en mai 2017. Elles viennent désormais enrichir les pages web dédiées aux «standards de la communauté» – pour l'essentiel, du moins – : citée par le Monde, la responsable de la politique des contenus, Siobhan Cummiskey, reconnaît que «quelques petits détails» n'ont pas été rendus publics, «afin d'empêcher les gens de contourner le système».

Personnes ou groupes «vulnérables»

Réparti en six rubriques, l'ensemble se révèle en tout cas précis et complexe. Facebook y fait notamment état des critères utilisés pour juger si une menace de violence est «crédible» (cible, lieu, date, méthode, mention d'une arme spécifique…) et définit une catégorie de personnes ou groupes dit «vulnérables» à de telles menaces, comprenant les chefs d'Etat, les militants ou les journalistes. L'entreprise détaille également les cas d'espèce de messages violents et/ou incitant à la haine bannis de sa plate-forme, et explique, par exemple, afficher un message d'avertissement pour «les photos ou vidéos représentant une personne ayant commis un suicide dans le cadre des actualités». Autres questions abordées, «le contenu […] cruel et insensible», les fausses informations, ou encore la nudité. En l'espèce, Facebook dit autoriser «les photos de peintures, sculptures et autres œuvres d'art» – on se souvient pourtant de la polémique provoquée par la censure de l'Origine du monde de Gustave Courbet, représentant un sexe féminin.

Côté nombre de divisions, le réseau social – qui a longtemps refusé de donner des éléments précis – annonce un chiffre de 7 500 «vérificateurs de contenu» aujourd'hui, soit 40% de plus que l'an dernier. Il dit aussi s'appuyer sur «une combinaison d'intelligence artificielle et de signalements». De fait, l'utilisation d'algorithmes ne se limite plus à la détection de contenus couverts par un droit de propriété intellectuelle ou aux images pédopornographiques, mais s'est étendue à l'apologie du terrorisme et même, désormais, aux fausses informations : Facebook dit en effet utiliser des «signaux» – notamment les «avis» de ses utilisateurs – pour «informer un modèle d'apprentissage automatique qui prédit quelles informations peuvent être fausses»

En parallèle de la publication de ses «directives», le géant de Menlo Park a également annoncé qu'il allait ouvrir la possibilité, pour ses utilisateurs, de «faire appel» d'une décision de suppression d'un contenu : ils pourront demander «un deuxième avis». Ce recours sera mis en œuvre «au cours de l'année à venir» (sans plus de précisions) et concernera, dans un premier temps, les publications retirées «pour cause de nudité ou d'activité sexuelle, d'incitation à la haine et à la violence». Autre annonce, qui témoigne là aussi d'une certaine nervosité et d'un besoin pressant de redorer une image ternie : la tenue en mai de «Forums Facebook», présentés comme «des événements publics de dialogue et de débat autour des standards de la communauté», qui seront organisés notamment en Allemagne, aux Etats-Unis, en France, en Inde, au Royaume-Uni et à Singapour.