Le 23 juillet, l’administration Trump publiait son «AI Action Plan». Parmi les points clés de ce plan : la chasse aux «biais idéologiques» dans le développement de l’intelligence artificielle. L’une des mesures phares vise ainsi à interdire aux agences fédérales de contracter avec des entreprises dont les modèles de langage (LLM) feraient la promotion de la diversité, de l’équité, de l’inclusion ou encore de la lutte contre le changement climatique. Les IA devront être exemptées de tout «agenda d’ingénierie sociale». Derrière la rhétorique de l’«objectivité», une volonté assumée de redéfinir les valeurs intégrées dans ces technologies.
A lire aussi
Une question reste pourtant trop peu posée : que font ces IA à nos propres valeurs ? Les systèmes génératifs actuellement disponibles sont largement imprégnés des référentiels moraux de leurs concepteurs. Le cas de Grok3, l’IA développée par la start-up xAI d’Elon Musk, est à cet égard emblématique. Présentée comme une alternative aux IA jugées trop «woke», Grok a été entr