Depuis quelque temps, le contenu posté par Motaz Azaiza disparaît mystérieusement sur Instagram. Sur le réseau, le photojournaliste palestinien est suivi par plus de 18 millions de personnes, qui, depuis le début de la guerre à Gaza, suivent la situation sur place à travers le regard et l’objectif du professionnel. Ou du moins suivaient. Car, avec les caprices algorithmiques de la plateforme, difficile pour le photographe de partager son travail. Ferras Hamad tombe sur le problème à plus de 7 000 km de là, dans les locaux californiens de la maison mère du réseau social, Meta. L’ingénieur, chargé d’examiner les filtres de contenu Instagram liés aux guerres à Gaza et en Ukraine, enquête. Et découvre que les publications de Motaz Azaiza sont incorrectement classées comme «pornographiques», d’où leur retrait. Consciencieux, il fait part de sa découverte à l’entreprise. Et est viré quelques semaines plus tard.
Accusations de discrimination
La justification que lui aurait fournie la société ? Ferras Hamad a enfreint une politique interne interdisant aux employés de travailler sur des problèmes relatifs à des comptes de proches. Problème : l’ingénieur assure n’avoir jamais rencontré Motaz Azaiza de sa vie. Le Palestino-Américain de confession musulmane est né et a grandi aux Etats-Unis. Il n’a d’ailleurs, assure-t-il, jamais mis les pieds à Gaza. Depuis, l’ancien employé monte au créneau. Mardi 4 juin, il a déposé plainte contre la multinationale en l’accusant de discrimination et de faire preuve d’un «parti pris anti-palestinien chronique et systématique». Et dans sa demande de procès, l’homme, salarié de Meta depuis 2021, partage une longue liste d’accusations.
Le géant de la tech aurait supprimé les publications de ses employés évoquant la mort de proches à Gaza. Il aurait fait disparaître toutes les mentions à la Journée internationale de solidarité avec le peuple palestinien. Y compris dans des groupes internes à son organisation. Il aurait retiré la photo d’une basket Nike Air Jordan «parce qu’elle avait un certain arrangement de couleurs (rouge, vert et blanc : vraisemblablement parce que cela a été associé à un soutien pro-palestinien)», précise la plainte. Ferras Hamad dénonce aussi des enquêtes ouvertes sur l’utilisation de l’émoji du drapeau palestinien, mais pas sur celui d’Israël ou de l’Ukraine. Ou encore la suppression d’une lettre interne rédigée par des employés inquiets quant à la modération des réseaux lorsqu’il s’agissait du peuple de Gaza. Ou plus généralement d’Arabes et de musulmans.
«Que cache Meta ?»
Les accusations de l’ingénieur sont loin d’être les premières à viser Meta depuis le début de la guerre. Dans un rapport paru en décembre 2023, l’organisation non gouvernementale Human Rights Watch taclait le géant des réseaux sociaux pour sa «censure systématique et mondiale» de contenus sur la Palestine. D’après elle, ne serait-ce que d’octobre à novembre, 1 050 publications publiées par des Palestiniens et leurs partisans ont été évincées. Alors que 1 049 d’entre elles «concernaient des contenus pacifiques», précise le rapport.
A lire aussi
Aussi, l’ancien candidat à la présidentielle Bernie Sanders ainsi que la sénatrice démocrate Elizabeth Warren exigent de Meta des explications quant à cette éventuelle censure disproportionnée. Auparavant, rapporte The Intercept à partir d’une lettre rédigée par la société elle-même, Meta avait admis «avoir supprimé ou marqué comme dérangeant plus de 2 200 000 éléments de contenu en hébreu et en arabe pour violation de nos politiques» dans les neuf jours ayant suivi l’attaque du Hamas, le 7 octobre. L’entreprise a refusé de préciser la part représentée par chaque langue dans ces suppressions. «Si […] la suppression de millions de messages ne discriminait pas les contenus liés aux Palestiniens, alors que cache Meta ?» s’agaçait en mai Elizabeth Warren auprès du magazine d’investigation.
Contacté par Libération, un porte-parole de Meta répond que Ferras Hamad «a été licencié pour avoir enfreint les règles d’accès aux données de Meta, ce qui, nous le disons clairement aux employés, entraînera un licenciement immédiat». Dans un article de blog éclairant sa politique de modération concernant le conflit, l’entreprise explique supprimer «les contenus faisant l’éloge du Hamas», le mouvement étant considéré comme terroriste aux Etats-Unis. Ses réseaux font aussi disparaître «les contenus violents et graphiques». «Nos politiques sont conçues pour assurer la sécurité des personnes sur nos applications tout en donnant à chacun la possibilité de s’exprimer. Nous appliquons ces politiques de manière égale partout dans le monde et toutes les affirmations selon lesquelles nous essayons de faire taire certaines voix sont fausses», assure-t-elle.
Mis à jour le lundi 10 juin : réaction de Meta.