Menu
Libération

Facebook, la main dans les urnes ?

Le réseau social, régulièrement taxé de manipulation, est soupçonné de faire jouer ses algorithmes contre le parti républicain en vue de la présidentielle américaine.
publié le 14 mai 2016 à 8h47

Facebook s’est enroulé autour de milliards d’internautes. Il les accompagne dans de nombreux instants de leur vie. Le réseau dissimule ses actions derrière des lignes de code et nous demande de lui faire confiance. Kaa numérique, il nous enjoint de le croire sur parole. Mais des fonctionnements étranges provoquent régulièrement le doute. Aux Etats-Unis cette semaine, une possible censure dans une rubrique mettant en avant les sujets les plus populaires sur le réseau a fait s’étrangler des hommes politiques républicains. Un mois plus tôt, des soupçons de manipulation pour éradiquer Donald Trump du réseau leur faisaient déjà hausser le sourcil. La réponse de Facebook est toujours la même : «Aie confiance. Crois en moi.»

«Biais éditoriaux». La fonctionnalité «Trending» n'existe pour l'instant que chez les utilisateurs américains de Facebook. Y sont sommairement présentés les sujets les plus discutés sur le réseau. Début mai, le site Gizmodo révélait dans une enquête que ce travail était effectué par des journalistes. Ces jeunes gens, sortis des meilleures écoles, récupèrent les sujets populaires et émergents et en font une courte description. Ce travail de rédaction serait partiellement délégué à un algorithme - suite d'opérations informatiques à qui on délègue la prise de décision - élaboré par les ingénieurs de Facebook. Quelques jours plus tard, dans la suite de son enquête, Gizmodo publiait plusieurs témoignages sur les choix guidant la sélection de cette équipe. Parmi ceux-ci, une accusation plutôt grave en période électorale : les équipes chargées de la fonctionnalité Trending éviteraient régulièrement des sujets liés aux figures républicaines ou aux événements du parti. Et ce, même si les sujets figurent parmi les plus discutés du réseau social. «C'est évident que nous avons des biais éditoriaux, témoigne un curateur à Gizmodo, tout dépend de qui est en poste à ce moment-là.» Ce qui est décrit ressemble cependant plus à une sélection de sources sérieuses qu'à une censure de sujets.

Le 10 mai, John Thune, sénateur républicain du Dakota du Sud et membre de la commission du commerce, pose une série de questions à Facebook. En pleines primaires et à quelques mois de la présidentielle, l'affaire est importante. Selon le Digital News Report, qui étudie la consommation en ligne d'information, le réseau est utilisé par 41 % des internautes américains pour s'informer, et il est même la principale source d'information pour les plus jeunes. «Facebook doit répondre à ces allégations sérieuses et prendre ses responsabilités s'il y a eu des biais politiques dans la publication des Trending», dit-il. Sur le fonctionnement de cet outil Trending, Facebook a déjà réagi officiellement : il respecte sur le réseau «tous les points de vue», et la fonctionnalité fait remonter tous les sujets, «quel que soit leur positionnement politique». L'entreprise ajoute que l'équipe en charge de la modération a la consigne «de permettre tous les points de vue». Et promet au sénateur d'autres réponses en temps voulu.

Le responsable des Trending, lui, a démenti sur Facebook toute manipulation. Des démentis remis en cause par la publication par le Guardian, jeudi, des consignes données à l'équipe responsable de Trending. Depuis, Facebook a mis en ligne la dernière version de ces consignes. Elles laissent voir que, cachés derrière les algorithmes, se trouvent des choix humains. Sources acceptables, modalités d'ajout ou de suppression de sujets ou médias de référence sont listés. Un index de médias de référence que beaucoup de républicains n'auront pas de mal à considérer comme partial. Choix humain auquel s'ajoutent les algorithmes utilisés pour faire remonter les sujets les plus importants, qui sont aussi créés par des humains, rappelle le chercheur Tarleton Gillespie du laboratoire Microsoft Research. «Des gens produisent l'activité mesurée par Facebook, des gens conçoivent les algorithmes et définissent leurs critères d'évaluation, des gens décident ce qui est ou non un sujet populaire, des gens résument et éditorialisent ces sujets et des gens ensuite essaient de favoriser les algorithmes en leur faveur», détaille-t-il. Analysant les réponses officielles de Facebook, Gillespie décrypte que le réseau social «semble ne pas comprendre la publication d'information». L'équipe, «menottée à l'algorithme», n'est pas assez bien accompagnée selon lui. Les consignes «ne servent qu'à se protéger», le fonctionnement est obscur, «enveloppé dans la promesse d'un algorithme qui algorithmise». Tripatouillage ou non, il ne reste qu'à croire Facebook sur parole. Surtout, ce ne sont pas les seules inquiétudes à propos de la manipulation à laquelle il pourrait s'adonner.

Message incitatif. En mars, des employés de Facebook ont demandé à leur boss via leur intranet les «responsabilités que Facebook devait avoir pour empêcher la présidence de Trump», comme le rapportait Gizmodo. L'histoire ne dit pas ce qu'il a répondu, si tant est qu'il ait répondu. Les employés de Facebook avaient peut-être en tête une étude de 2012. Selon une équipe de chercheurs menée par Robert Bond, de l'université de Californie à San Diego (Etats-Unis) et l'équipe d'analyse des données de Facebook, la trombine de vos amis, accompagnée d'un fier «J'ai voté», est un moyen efficace de vous faire déplacer jusqu'aux urnes. Certes, la réduction de l'abstention est minime dans leur expérimentation, mais cet écart peut faire la différence dans une élection serrée en choisissant avec soin les électeurs exposés au message incitatif. Du côté de Facebook, on assure qu'aucune manipulation n'est prévue. En 2014, Sheryl Sandberg, numéro 2 de Facebook, a balayé toute inquiétude en déclarant à la télévision indienne que «Facebook n'a jamais essayé et n'essaiera jamais de contrôler des élections».

Les propos tenus par Sandberg, comme on ébouriffe la tête d'un enfant pour le rassurer, n'ont eux aussi qu'à être crus tels quels. Les algorithmes de Facebook restent aussi obscurs que la recette de l'omelette de la Mère Poulard. Les révélations de Gizmodo «sont d'utiles étapes pour éclairer un peu plus le fonctionnement de base des algorithmes», se félicite Gillespie. «Alors que des algorithmes avalent de plus en plus de données, la décision humaine reste une part substantielle et importante du processus qui transforme ces données en assomption sur ce qui est populaire, puis l'affiche à des millions d'utilisateurs.» Et si la transparence des algorithmes est promise pour ceux des services publics français grâce à la loi numérique, qui vient d'être votée au Sénat, elle relève du secret industriel pour les grandes entreprises. La glasnost algorithmique n'est pas pour demain.