Facebook s'est enroulé autour de milliards d'internautes. Il les accompagne dans de nombreux instants de leurs vies. Le réseau dissimule ses actions derrière des lignes de code et nous demande de lui faire confiance. Kaa numérique, il nous enjoint de le croire sur parole. Mais des fonctionnements étranges provoquent régulièrement le doute. Cette semaine, une possible censure dans une rubrique mettant en avant les sujets les plus populaires sur le réseau a fait s'étrangler des hommes politiques républicains. Un mois plus tôt, des soupçons de manipulation pour éradiquer Donald Trump du réseau leur faisaient déjà hausser le sourcil. La réponse de Facebook est toujours la même : «Aie confiance. Crois en moi.»
«Trending» manipulés
La fonctionnalité «Trending» n'existe pour l'instant que chez les utilisateurs américains de Facebook. Y sont présentés très sommairement les sujets les plus discutés sur le réseau. Au début du mois de mai, le site Gizmodo révélait dans une enquête que ce travail était effectué par une équipe de journalistes. Ces jeunes gens, embauchés dans les meilleures écoles, récupèrent les sujets populaires et émergents et en font une courte description. Ce travail de rédaction serait aujourd'hui délégué partiellement à un algorithme – suite d'opérations informatiques à qui on délègue la prise de décision – lui-même élaboré par les ingénieurs de Facebook.
Quelques jours plus tard, dans la suite de leur enquête, Gizmodo publiait plusieurs témoignages sur les choix guidant la sélection de cette équipe. Parmi ceux-ci, une accusation plutôt grave en période électorale : les équipes chargées de la fonctionnalité «Trending» éviteraient régulièrement des sujets liés aux figures républicaines ou aux événements du parti. Et ce, même si les sujets figurent en bonne place parmi les plus discutés du réseau social. «C'est évident que nous avons des biais éditoriaux, témoigne un curateur à Gizmodo, tout dépend de qui est en poste à ce moment-là.» Ce que décrivent les personnes interrogés par le site américain ressemble cependant plus à une sélection de sources sérieuses qu'à une censure de sujets. Ils semblent privilégier les informations venant de médias reconnus et à grande diffusion plutôt que de petits médias habitués de la polémique ou fortement marqué politiquement.
Première source d’info des jeunes
Le 10 mai, John Thune, sénateur républicain du Dakota du Sud membre de la commission du commerce pose une série de questions à Facebook pour comprendre un peu mieux. En pleines primaires et à quelques mois de l'élection présidentielle, l'affaire est importante. Selon le Digital News Report, qui étudie la consommation en ligne d'information, le réseau est utilisé par 41% des internautes américains pour s'informer et il est même la principale source d'information pour les plus jeunes. «Facebook doit répondre à ces allégations sérieuses et prendre ses responsabilités s'il y a eu des biais politiques dans la publication des "Trending"».
Sur le fonctionnement de l'outil «Trending», Facebook a déjà réagi officiellement. Ils respectent sur le réseau «tous les points de vue» et la fonctionnalité fait remonter tous les sujets, «quel que soit leur positionnement sur le spectre politique». L'entreprise ajoute que l'équipe en charge de la modération a reçu comme consigne «de permettre tous les points de vue». Elle promet des réponses au sénateur en temps voulu et le responsable des «Trending» a démenti sur Facebook toute manipulation. Des démentis remis en cause par la publication jeudi soir par le Guardian des consignes données à l'équipe responsable de «Trending». Depuis, Facebook a également mis en ligne la dernière version de ces consignes.
Derrière l’algorithme, le biais humain
Elles laissent voir que, cachés derrière les algorithmes, se trouvent de nombreux choix humains. Choix des sources, modalités d'ajout ou de suppression de sujets ou médias de référence sont listés dans plusieurs documents. Un index de médias de référence que beaucoup de Républicains n'auront pas de mal à considérer comme partial. Facebook a décidé d'ajouter une dose de cerveaux humains à ses algorithmes après des critiques reçues lors de la naissance du mouvement #BlackLivesMatter. En 2014, de nombreux utilisateurs réagissaient au meurtre à Ferguson de Michael Brown, un jeune Noir, en postant sur le sujet. Pendant ce temps-là, dans la rubrique «Trending», des personnalités se renversaient des bassines d'eau glacée sur la tête.
Mais même les algorithmes utilisés pour faire remonter les sujets les plus importants sont créés par des humains, rappelle le chercheur Tarleton Gillespie sur le blog Social Media Collective du laboratoire Microsoft Research. «Des gens produisent l'activité mesurée par Facebook, des gens conçoivent les algorithmes et définissent leurs critères d'évaluation, des gens décident ce qui est ou non un sujet populaire, des gens résument et éditorialisent ces sujets et des gens ensuite essaient de favoriser les algorithmes en leur faveur», détaille-t-il. Analysant les réponses officielles de Facebook, Gillespie décryptait également que le réseau social «semble ne pas comprendre la publication d'information». L'équipe, «menottée à l'algorithme» n'est pas assez bien accompagnée selon lui. Les consignes «ne servent qu'à se protéger», le fonctionnement est obscur, «enveloppé dans la promesse d'un algorithme qui algorithmise.» Tripatouillage ou non, il faut en effet croire Facebook sur parole. Surtout, ce ne sont pas les seules inquiétudes à propos de la manipulation à laquelle pourrait s'adonner le réseau social.
La main dans les urnes
En mars, des employés de Facebook ont demandé à leur boss via leur intranet les «responsabilités que Facebook devait avoir pour empêcher la présidence de Trump», comme le rapportait Gizmodo. Chaque semaine, les salariés peuvent en effet voter dans un sondage interne pour les questions à poser à Zuckerberg. L'histoire ne dit pas ce qu'il a répondu, si tant est qu'il ait répondu. Les employés de Facebook avaient peut-être en tête une étude datant de 2012. Selon une équipe de chercheurs menée par Robert Bond, du département de sciences politiques de l'Université de Californie à San Diego (Etats-Unis) et l'équipe d'analyse des données de Facebook, la trombine de vos amis, accompagné d'un fier «J'ai voté», est un moyen efficace de vous faire déplacer jusqu'aux urnes. Ils l'avaient vérifié pendant les élections en 2012 en s'amusant avec les 60 millions d'utilisateurs du réseau social aux Etats-Unis.
Selon leur calcul, l'affichage d'un bouton «social» d'incitation au vote faisait varier la participation. Certes, la réduction de l'abstention est minime dans leur expérimentation, mais cet écart peut faire la différence dans une élection serrée en choisissant avec soin les électeurs exposés au message incitatif. En deux, trois critères bien choisis parmi l'ensemble des données générées par les utilisateurs, les potentiels électeurs de tel ou tel candidat pourraient voir un message incitatif qui n'apparaîtrait pas chez d'autres. Les candidats ne s'y trompent pas puisqu'il est estimé qu'un milliard de dollars sera dépensé en 2016 pour des publicités politiques sur Facebook. Mais du côté de Facebook, aucune manipulation n'est prévue. En 2014, Sheryl Sandberg, numéro 2 de Facebook, a balayé toute inquiétude en déclarant à la télévision indienne que «Facebook n'a jamais essayé et n'essaiera jamais de contrôler des élections».
Les propos de Sandberg, comme on ébouriffe la tête d'un enfant pour le rassurer, doivent eux aussi être crus tel que. Les algorithmes de Facebook restent aussi obscurs que la recette de l'omelette de La Mère Poulard. Les révélations de Gizmodo «sont d'utiles étapes pour éclairer un peu plus le fonctionnement de base des algorithmes», se félicite le chercheur Gillespie. «Alors que des algorithmes avalent de plus en plus de données, la décision humaine reste une part substantielle et importante du processus qui transforme ces données en assomption sur ce qui est populaire, puis l'affiche à des millions d'utilisateurs.» Et si la transparence des algorithmes publics est promise pour ceux des services publics français grâce à la loi numérique, qui vient d'être votée au Sénat, elle relève du secret industriel pour les grandes entreprises. La glasnost algorithmique n'est pas pour demain.