Menu
Libération
Relations

IA : en matière de psy, mieux vaut ne pas donner sa langue au chat

Réservé aux abonnés

A la recherche d’interactions sociales ou thérapeutiques, de plus en plus de jeunes utilisent des agents conversationnels. Plusieurs spécialistes alertent sur ces usages et réclament des régulations.

«Le seul aspect positif de ces agents conversationnels, c’est qu’ils révèlent le cruel manque de psys.» Cette photo a été réalisée sans l'aide de l'IA. (Marcus Møller Bitsch/Libération)
Publié le 20/02/2026 à 9h41

«Je ne m’étais jamais rendu compte que […] de si courtes interactions avec un programme informatique relativement simple risquaient d’induire des pensées délirantes chez des personnes pourtant normales.» Lorsque ces mots ont été griffonnés, ChatGPT et consorts relevaient encore de la science-fiction. Leur lointaine ancêtre, l’équivalent de notre australopithèque Lucy, venait de voir le jour : nous sommes en 1966, dans un laboratoire du Massachusetts Institute of Technology (MIT), et l’informaticien Joseph Weizenbaum (1923-2008) vient de mettre au point ce qu’on considère comme le tout premier chatbot, «Eliza».

Le programme est pensé comme une simulation, ou plutôt une parodie, de psychologue : la seule chose qu’Eliza sait faire, c’est reformuler les phrases qui lui sont soumises. «Je me sens triste. − Pourquoi te sens-tu triste ?» Pourtant, très vite, les collègues de Weizenbaum sont pris d’une frénésie et le sollicitent sans discontinuer pour s’épancher auprès d’Eliza - jusqu’à sa propre secrétaire qui lui demande un jour d’essayer à son tour, et, au bout de quelques minutes d’échange, réclame que Weizenbaum sorte de la pièce pour la laisser converser en paix. Echaudé par l’expérience, Weizenbaum devient l’une des grandes voix critiques de l’IA, qu’il décrit comme «un outil de mesure de la

Pour aller plus loin :

Dans la même rubrique