Menu
Libération
tribune

Avec l’AI Act, l’Europe ne doit pas renoncer à réguler

Réservé aux abonnés

Sous la pression des géants américains de la Tech, l’UE pourrait assouplir ce 19 novembre sa loi sur le secteur de l’IA. Julien Malaurent, enseignant-chercheur à l’Essec, met en garde contre une régulation affaiblie et suggère des pistes de régulation qui ne ralentissent pas l’innovation.

Lors d'une séance plénière au Parlement européen, à Strasbourg, en octobre 2025 (Philipp von Ditfurth/Picture alliance. Getty Images)
Par
Julien Malaurent, enseignant-chercheur à l’Essec
Publié le 18/11/2025 à 6h23

On aime répéter que l’Union européenne est «la première puissance au monde à réguler l’intelligence artificielle». La formule est élégante, rassurante, presque performative. Elle suggère que l’Europe, encore une fois, aurait montré la voie, comme avec le règlement général sur la protection des données (RGPD). Mais cette affirmation sonne aujourd’hui comme un trompe-l’œil. A mesure que l’AI Act approche de son entrée en vigueur, les ambitions initiales du texte sont méthodiquement rabotées. Comme l’a révélé Financial Times, les dispositions les plus structurantes, celles qui devaient encadrer les puissants modèles de fondation, sont en train d’être affaiblies sous la pression directe des «Big Tech» américaines.

Le cœur du problème dépasse largement le débat technique. Pour la première fois dans l’histoire récente de la régulation européenne, des entreprises privées, américaines pour la plupart, ont réussi à réécrire l’essence d’une loi avant même qu’elle ne soit pleinement adoptée. La méthode est connue : rencontres intensives, argumentaire «pro-innovation», promesse d’emplois, menace de perte de compétitivité. Mais l’ampleur, elle, est inédite.

Sous ces pressions, les obligations de transparence des systèmes d’intelligence artificielle générative (de type ChatGPT et autres), de documen

Dans la même rubrique