En octobre 2024, huit mois après le suicide de son fils en Floride, Megan Garcia portait plainte contre Character.AI, une plateforme permettant d’interagir avec des personnages de fiction ajustés sur mesure par l’intelligence artificielle. Elle accusait la startup d’avoir rendu son fils de 14 ans, Sewell Setzer, dépendant de «Dany», son amoureuse virtuelle inspirée de la série Game of Thrones.
L’affaire avait déclenché aux Etats-Unis une vague de signalements de suicides liés à des robots conversationnels IA. Mais le procès, ainsi que quatre procédures similaires impliquant d’autres familles, n’aura pas lieu.
Selon des documents juridiques rendus publics mercredi 7 janvier au soir, Character.AI et Google, mêlé à ces poursuites à cause d’un accord de licence de 2,7 milliards de dollars passé en 2024 avec la startup, ont conclu des accords hors tribunaux avec les plaignants pour mettre fin aux poursuites. «Les parties ont convenu d’un accord de principe dans le cadre d’une médiation pour régler tous les litiges entre elles», précise le document déposé auprès de la justice de Floride, qui ne détaille pas le contenu de l’entente.
A lire aussi
Aux Etats-Unis, d’autres entreprises d’IA génératives sont visées dans des procédures judiciaires similaires. En août, les parents d’un adolescent de 16 ans qui s’est donné la mort en avril ont attaqué en justice le pionnier OpenAI, reprochant à son agent ChatGPT d’avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d’avoir encouragé son geste.
Dans la foulée de la série de signalements, les entreprises du secteur ont été mises sous pression en matière de sécurité et de protection des jeunes. Accusée d’inciter ses utilisateurs, y compris les plus jeunes, à commettre des actions dangereuses pour eux et pour les autres, Character.AI avait annoncé en octobre qu’elle allait bloquer l’accès de ses chatbots aux mineurs. «Nous pensons que c’est la décision adaptée compte tenu des questions qui ont été soulevées au sujet de la façon dont les adolescents utilisent et devraient utiliser cette nouvelle technologie», avait alors expliqué l’entreprise. En décembre 2024, elle avait déjà annoncé la mise en place de filtres de contenu plus stricts pour les mineurs.
Des tentatives de régulation, mais pas à la Maison Blanche
Au mois d’octobre 2025, l’Etat de Californie avait promulgué plusieurs lois visant à réguler les chatbots, imposant aux entreprises de vérifier l’âge des utilisateurs, d’afficher des messages d’avertissements réguliers et de prévoir des protocoles de prévention du suicide.
Un mois plus tôt, la FTC, l’agence américaine de protection des consommateurs, avait ouvert une enquête sur les chatbots utilisés comme des compagnons d’intelligence artificielle générative. Quant à l’administration Trump, elle s’oppose toujours à la régulation de l’IA.




