Menu
Libération
Web

L’intelligence artificielle jugée responsable des pannes du cloud d’Amazon

Selon le «Financial Times», les interruptions de service de la multinationale américaine qui ont suscité des perturbations mondiales sont dues à des erreurs impliquant ses propres outils.

Dans un data center d'Amazon Web Services, à New Carlisle, dans l'Indiana (Etats-Unis), le 2 octobre 2025. (Handout /Getty Images.AFP)
Publié aujourd'hui à 16h32

Une affaire qui questionne l’utilisation de l’intelligence artificielle. A la mi-décembre, Amazon Web Services (AMW), l’unité cloud de la multinationale américaine, a subi une interruption de service de treize heures sur un système utilisé par ses clients, déclenchant des perturbations mondiales. Ce vendredi 20 février, un article du Financial Times pointe la responsabilité des outils d’intelligence artificielle internes de la boîte. La panne serait apparue «après que des ingénieurs ont autorisé l’outil de codage du système Kiro Ai à effectuer certaines modifications», explique le quotidien économique et financier britannique.

Selon des sources proches du dossier, «l’outil agentique» – une forme sophistiquée d’intelligence artificielle capable d’atteindre des objectifs spécifiques avec une supervision minimale –, avait déterminé que la meilleure solution était de «supprimer et recréer l’environnement». Comprendre : l’outil peut prendre des décisions autonomes, indépendantes de la demande de l’utilisateur.

Inquiétudes quant à l’autonomie de l’IA

Amazon Web Services, qui représente 60 % des bénéfices d’exploitation d’Amazon, cherche à développer et à déployer des outils d’IA, explique le Financial Times. Et notamment des «agents capables d’agir de manière indépendante sur la base d’instructions humaines», abonde le quotidien, qui précise qu’il s’agit de la deuxième fois en quelques mois qu’un outil d’IA du groupe est à l’origine d’une perturbation de service.

Si le journal souligne l’inquiétude que provoque la répétition de ces incidents sur les risques que ces outils d’IA naissants puissent mal fonctionner, Amazon a déclaré qu’il s’agissait d’une simple «coïncidence». Et d’ajouter que «le même problème pourrait se produire avec n’importe quel outil de développement ou action manuelle».

Problème d’accès d’utilisateur

Selon Amazon, son outil Kiro «demande une autorisation [par défaut] avant d’entreprendre toute action». Or, la multinationale a ajouté que l’ingénieur impliqué dans l’incident de décembre disposait «d’autorisations plus étendues que prévu». Un problème de contrôle d’accès d’utilisateur donc, se défend l’entreprise, «et non un problème d’autonomie de l’IA».

L’outil Kiro a été lancé par AWS en juillet, en remplacement de son produit Amazon Q Developer, dans le but d’aller au-delà du simple «vibe coding» (qui permet aux utilisateurs de créer rapidement des applications), pour écrire du code basé sur un ensemble de spécifications.

Certains employés d’Amazon ont expliqué au Financial Times être très sceptiques quant à l’utilité des outils IA pour la majeure partie de leur travail, à cause de ce risque d’erreurs. L’entreprise s’est pourtant fixé pour objectif que 80 % des développeurs utilisent l’IA pour des tâches de codage au moins une fois par semaine.

Dans la même rubrique