Fin janvier, le gouvernement turc menace de bloquer l’accès à Facebook s’il ne supprime pas immédiatement des caricatures du prophète : il obtient presque instantanément gain de cause. En 2006, c’est Google qui, pour s’installer sur le marché chinois, acceptait que le régime en place lui donne une liste noire de sites à censurer. Il n’est de nœud gordien difficile à trancher qu’à condition qu’il ne soit pas constitué des seuls cordons de la bourse.
Suite aux événements tragiques de ce début d’année, un rapport de la Commission européenne pour la lutte contre le terrorisme propose une nouvelle réglementation. Elle reviendrait à se passer d’une action en justice et permettrait de négocier directement avec les plateformes pour qu’elles appliquent des mesures de suppressions qui ressemblent à une forme de censure : leurs conditions générales d’utilisation (CGU) sont aussi restrictives qu’absconses et léonines et les contenus visés sont peut-être légitimement choquants mais… parfaitement légaux.
Les contenus qui contreviennent aux CGU, principalement ceux assimilables à de la pornographie - souvent à tort comme l'Origine du monde de Courbet ou ces campagnes de prévention contre le cancer du sein - sont presque immédiatement repérés par l'algorithme ou signalés par les utilisateurs, et immédiatement supprimés (et les comptes associés suspendus ou bloqués). Ce fut le cas, sur Twitter, de la vidéo de décapitation de James Foley. Les contenus qui froissent certaines susceptibilités religieuses, politiques, ou certains ayants droit, sont eux aussi rapidement supprimés dès que le buzz médiatique devient trop fort ou, comme pour la Turquie et les caricatures du prophète, dès que l'enjeu financier pour la plateforme est trop important.
Reste le cas des contenus qui enfreignent la législation d'un pays sans contrevenir aux CGU de la plateforme, choisissant alors de laisser faire et d'attendre un éventuel procès et une décision de justice. Ce fut le cas du hashtag #UnBonJuif sur Twitter, puisque ce n'est qu'après la décision de justice que Twitter transmit des informations sur certains comptes très «actifs». Mais, dans ce dernier cas, entre également l'ensemble des recours d'internautes sur un complexe droit à l'oubli.
Grâce à leurs CGU, Facebook, Twitter, Google ou Apple ont édicté un nouvel ordre documentaire du monde qu'ils sont seuls à maîtriser dans la plus complète opacité. Même si elles ne sont que de simples «règlements intérieurs» à peine différents de celui d'une piscine municipale interdisant les slips de bain, les CGU auraient désormais «force de loi», précisément parce qu'elles n'ont pas besoin d'avoir recours à la loi. Situation dangereuse et paradoxale quand elle concerne aussi bien le milliard et demi de comptes Facebook que les milliards de requêtes déposées sur Google. Et qui s'étend sur un ensemble de plus en plus vaste de sujets de société : ce tableau de Courbet est-il de l'art ou de la pornographie ? Une blague antisémite accolée au hashtag #UnBonJuif fait-elle de vous un nazi ? Une caricature du prophète est-elle un blasphème impubliable ? Qui décide qu'une vidéo de décapitation peut ou non être diffusée et partagée ? C'est une nouvelle police algorithmique qui opère, une police des «policies» qui ressemble à s'y méprendre à une milice privée.
Que doit faire le politique ? La question de la légitimité de son action vient de la frontière délicate entre usages, règlements (CGU) et lois. En face de milices algorithmiques qui s’autosaisissent, il est contraint de naviguer entre ce qui relève de la légitimité d’une réflexion législative, ce qu’il ne peut ignorer tant la résonance sociale du phénomène est massive, et ce sur quoi il ne peut intervenir, puisque cela relève du règlement intérieur du site concerné. Mais ce changement d’échelle fait que certains usages dépassent le cadre des CGU en impactant un grand nombre de pratiques et de représentations sociales qui, elles, nécessitent a minima une réflexion ou un recadrage politique.
Il est vain de réclamer la dissolution de Google ou d’un autre acteur majeur comme il est vain d’espérer un jour voir ces acteurs «ouvrir» complètement leurs algorithmes. Mais il devient essentiel d’inscrire enfin clairement, dans l’agenda politique, la question du rendu public de fonctionnements algorithmiques directement assimilables à des formes classiques d’éditorialisation.
Y surseoir une nouvelle fois serait s’exposer collectivement à valider l’existence de zones de non-droit planétaires fonctionnant sur un double processus de délégitimation : délégitimation rendant possible d’ignorer certaines lois au profit d’un primat des CGU, et délégitimation laissant aux seules plateformes le pouvoir de délibération sur la suppression de tel ou tel contenu. Et l’urgence est réelle. Car au-delà des phénomènes d’audience, moteurs et réseaux sociaux sont également en train de remporter le match de la confiance et de la crédibilité.
Or après que les algorithmes se sont rendus maîtres de l’essentiel du «rendu public» de nos productions documentaires, les plateformes sont en train de reléguer dans d’obscures alcôves l’autre processus de rendu public démocratique : celui de la délibération sur ce qui a légitimité - ou non - à s’inscrire dans l’espace public. Il ne sera pas éternellement possible de s’abriter derrière le fait que ces plateformes ne sont précisément ni des espaces réellement publics ni des espaces entièrement privés.
A l'ordre documentaire qu'elles ont institué, elles ajoutent lentement mais sûrement un «ordre moral réglementaire» sur lequel il nous sera très difficile de revenir si nous n'en débattons pas dès maintenant.