Menu
Libération
TRIBUNE

Comment l’IA façonne les valeurs des utilisateurs

Article réservé aux abonnés
Pour la chercheuse en neurosciences cognitives, Nadia Guerouaou, les intelligences artificielles génératives agissent comme des agents moraux, en définissant ce qui est acceptable et ce qui nous indigne, et participent à la transformation du paysage éthique de la société.
Donald Trump lors d'un discours sur l'intelligence artificielle au sommet «Winning the AI Race» à Washington, le 23 juillet 2025. (Kent Nishimura/REUTERS)
par Nadia Guerouaou, chercheuse en neurosciences cognitives
publié le 16 août 2025 à 15h04

Le 23 juillet, l’administration Trump publiait son «AI Action Plan». Parmi les points clés de ce plan : la chasse aux «biais idéologiques» dans le développement de l’intelligence artificielle. L’une des mesures phares vise ainsi à interdire aux agences fédérales de contracter avec des entreprises dont les modèles de langage (LLM) feraient la promotion de la diversité, de l’équité, de l’inclusion ou encore de la lutte contre le changement climatique. Les IA devront être exemptées de tout «agenda d’ingénierie sociale». Derrière la rhétorique de l’«objectivité», une volonté assumée de redéfinir les valeurs intégrées dans ces technologies.

Une question reste pourtant trop peu posée : que font ces IA à nos propres valeurs ? Les systèmes génératifs actuellement disponibles sont largement imprégnés des référentiels moraux de leurs concepteurs. Le cas de Grok3, l’IA développée par la start-up xAI d’Elon Musk, est à cet égard emblématique. Présentée comme une alternative aux IA jugées trop «woke», Grok a été entr