Menu
Libération
Données personnelles

De la division du travail algorithmique

Article réservé aux abonnés
Les conférences de la Cité des sciences et de l’industriedossier
Les programmes qui régissent nos vies numériques ne sont pas que d’étranges boîtes noires qui agissent en fonctions des données qu’on leur donne à manger. Ils sont aussi le résultat d’un processus de création ancré dans le monde qui les entoure. Une approche sociologique peut permettre de repenser l’informatique.
L’exposition «Training Humans», à Milan, en 2019. Les photographies sont issues des collections utilisées par les scientifiques pour entraîner les intelligences artificielles à reconnaître les éléments d’un visage humain. (Marco Cappelletti/Fondazione Prada)
publié le 27 octobre 2021 à 18h45
(mis à jour le 20 avril 2022 à 12h07)
«Libération», partenaire du cycle de conférences «les Nourritures» (février – juin 2022) organisé par la Cité des sciences et de l’industrie, proposera régulièrement articles, interviews et tribunes sur les sujets abordés. A suivre le 21 avril 11 heures, la conférence «Algorithmes et jeux combinatoires : toute une histoire» par Lisa Rougetet, historienne des sciences . Accès gratuit. Rendez-vous à l’auditorium de la Cité des sciences et de l’industrie ou sur cite-sciences.fr.
Article initialement paru le 27 octobre 2021

Les algorithmes n’ont plus le vent en poupe. Il n’y a pourtant pas si longtemps, ils étaient encore présentés comme les instruments de la disruption, et les garants d’une justice objective et équitable. Mais les différents travaux de recherche qui se sont penchés sur les biais algorithmiques et leurs effets sur la société ont sérieusement écorné cette image : il en ressort que l’algorithme de YouTube favorise les contenus complotistes, que celui de Twitter diffuse plus largement les contenus politique de droite, que ceux utilisés par certains Etats américains pour faire de la justice prédictive sont plus sévères contre les Africains-Américains. Ou encore que celui de Google proposait des contenus pornographiques aux requêtes sur les «filles asiatiques» ou les «femmes noires». Tout récemment, Frances Haugen, la lanceuse d’alerte à l’origine d’une fuite de documents internes de Facebook, s’en est pris aux algorithmes de l’entreprise : «Facebook a montré que s’