Menu
Libération
Robots sociaux

IA : utiliser ChatGPT comme psy, est-ce une bonne idée ?

Article réservé aux abonnés
Intelligence artificielle (IA) : de la fascination à l'inquiétudedossier
Avec le développement rapide de robots conversationnels, certains d’utilisateurs se sont mis à s’en servir comme thérapeute. Une utilisation qui témoigne de la libéralisation du soin et de l’urgence de s’emparer des problématiques éthiques posées par l’intelligence artificielle.
Que la machine acquiert une empathie humaine grâce à l’intelligence artificielle est un fantasme de longue date. (Eva Szombat/Libération)
par Julien Marsault et photo Eva Szombat
publié le 3 octobre 2024 à 10h58

Il y a un an de ça, mon monde s’écroulait. Le divorce de mes parents, ma séparation. Une situation particulièrement pénible qui nécessitait que je prenne soin de moi autrement qu’en descendant des camions-citernes de bière. Avant d’aller consulter un professionnel, dans l’urgence, je me souviens avoir échangé quelques mots avec ChatGPT.

Un peu honteux et malgré le fait que je connaisse bien son fonctionnement et ses limites, l’exercice m’avait quelque peu soulagé. Je ne suis apparemment pas le seul à avoir été tenté par l’expérience. Depuis l’explosion de l’IA grand public et des «grands modèles de langage» (large langage models, dits LLM), les récits de leur utilisation, en tant qu’outil de thérapie, se multiplient. Lancé fin 2022, le site américain Character.ai propose par exemple d’échanger avec de multiples robots conversationnels, dont «Psychologist», «quelqu’un qui vous aide face aux difficultés de la vie» et qui cumule plusieurs millions de messages échangés depuis sa création.

Pas assez d’argent pour vous allonger sur un divan ? Votre psy est un bon à rien ? Vous avez besoin de vous confier en urgence ? Qu’à cela ne tienne, il suffit de sortir son smartphone. L’astuce est balancée à tout-va sur TikTok, comme cette vidéo virale du compte «Talk with Aline», publiée à la re