Menu
Libération
Justice

Suicides d’adolescents : Google et Character.AI concluent un accord pour éviter les poursuites aux Etats-Unis

Les deux entreprises se sont entendues hors tribunaux avec des familles accusant le robot conversationnel nourri à l’IA de nuire aux mineurs, selon des documents juridiques publiés mercredi 7 janvier. Le montant des ententes est inconnu.

Les bureaux de Google à Bengaluru (Inde), le 5 janvier 2026. (Idress Mohammed/AFP)
Publié le 08/01/2026 à 11h53

En octobre 2024, huit mois après le suicide de son fils en Floride, Megan Garcia portait plainte contre Character.AI, une plateforme permettant d’interagir avec des personnages de fiction ajustés sur mesure par l’intelligence artificielle. Elle accusait la startup d’avoir rendu son fils de 14 ans, Sewell Setzer, dépendant de «Dany», son amoureuse virtuelle inspirée de la série Game of Thrones.

L’affaire avait déclenché aux Etats-Unis une vague de signalements de suicides liés à des robots conversationnels IA. Mais le procès, ainsi que quatre procédures similaires impliquant d’autres familles, n’aura pas lieu.

Selon des documents juridiques rendus publics mercredi 7 janvier au soir, Character.AI et Google, mêlé à ces poursuites à cause d’un accord de licence de 2,7 milliards de dollars passé en 2024 avec la startup, ont conclu des accords hors tribunaux avec les plaignants pour mettre fin aux poursuites. «Les parties ont convenu d’un accord de principe dans le cadre d’une médiation pour régler tous les litiges entre elles», précise le document déposé auprès de la justice de Floride, qui ne détaille pas le contenu de l’entente.

Aux Etats-Unis, d’autres entreprises d’IA génératives sont visées dans des procédures judiciaires similaires. En août, les parents d’un adolescent de 16 ans qui s’est donné la mort en avril ont attaqué en justice le pionnier OpenAI, reprochant à son agent ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste.

Dans la foulée de la série de signalements, les entreprises du secteur ont été mises sous pression en matière de sécurité et de protection des jeunes. Accusée d’inciter ses utilisateurs, y compris les plus jeunes, à commettre des actions dangereuses pour eux et pour les autres, Character.AI avait annoncé en octobre qu’elle allait bloquer l’accès de ses chatbots aux mineurs. «Nous pensons que c’est la décision adaptée compte tenu des questions qui ont été soulevées au sujet de la façon dont les adolescents utilisent et devraient utiliser cette nouvelle technologie», avait alors expliqué l’entreprise. En décembre 2024, elle avait déjà annoncé la mise en place de filtres de contenu plus stricts pour les mineurs.

Des tentatives de régulation, mais pas à la Maison Blanche

Au mois d’octobre 2025, l’Etat de Californie avait promulgué plusieurs lois visant à réguler les chatbots, imposant aux entreprises de vérifier l’âge des utilisateurs, d’afficher des messages d’avertissements réguliers et de prévoir des protocoles de prévention du suicide.

Un mois plus tôt, la FTC, l’agence américaine de protection des consommateurs, avait ouvert une enquête sur les chatbots utilisés comme des compagnons d’intelligence artificielle générative. Quant à l’administration Trump, elle s’oppose toujours à la régulation de l’IA.

Dans la même rubrique