Adam Raine avait pour habitude de discuter avec l’agent conversationnel ChatGPT plusieurs fois par jour. Mi-août, après une dernière discussion, l’adolescent californien a mis fin à ses jours.
A lire aussi
Après sa mort, ses proches ont découvert la teneur des échanges avec l’intelligence artificielle et le scénario morbide – digne d’un film de science-fiction – qui s’était déroulé : le jeune avait confié à ChatGPT ses «idées noires», son mal-être, son désespoir le poussant à penser au suicide. Loin de chercher à le dissuader ou le convaincre de rechercher de l’aide et un soutien psychologique, de toute évidence nécessaires, l’IA lui a proposé de garder cette situation secrète, jusqu’au pire. Lors du Sommet pour l’action sur l’intelligence artificielle, qui s’est tenu à Paris en début d’année 2025, plusieurs médias avaient déjà évoqué le fait que des personnes – plus particulièrement des jeunes – utilisaient l’IA pour parler de leur santé mentale. Cette situation devient préoccupante.
Si l’on considère que l’IA, en tant que «super moteur de recherche», a la capacité de comprendre le profil de son utilisateur et de lui proposer des ressources d’aide adaptées, alors il s’agit d’un complément puissant et utile au soutien psychologique délivré par un humain. L’IA peut être un bon outil de repérage pour ensuite orienter vers des personnes formées. Par exemple, la réorientation à partir de l’analyse de mots-clés est efficace : en recherchant des mots relatifs au suicide ou à l’automutilation sur




