Menu
Libération
CheckNews
Vos questions, nos réponses
CheckNews

Pourquoi il faut arrêter d’utiliser Grok ou ChatGPT pour essayer de vérifier (ou chercher) des informations

Article réservé aux abonnés
De plus en plus d’internautes ont le réflexe de se tourner vers l’IA pour trancher un débat sur les réseaux sociaux. Mais ces modèles, qui n’ont pas été conçus pour ça, peuvent inventer des faits de toutes pièces. Même Perplexity, présenté comme plus fiable, peut être victime «d’hallucinations».
Depuis quelques mois, ChatGPT dispose d‘une fonction de recherche, lui permettant d‘aller consulter des sites en temps réel pour obtenir des informations à jouret les citer comme source. (Philippe Turpin/Photononstop)
publié le 21 mai 2025 à 7h54

«Grok, c’est vrai ?» Sur X, anciennement Twitter, c’est devenu un réflexe voire un gimmick. A chaque publication polémique ou factuellement sujette à caution, un ou plusieurs utilisateurs de la plateforme s’en remettent à l’IA développée par la maison mère de X, Grok, en la mentionnant directement dans la conversation.

D‘autres préfèrent s’en remettre à des concurrents, et notamment ChatGPT. Dans la traque publique de Xavier Dupont de Ligonnès, récemment organisée sur Instagram par l’influenceur Aqababe, tant les participants que l’administrateur ont ainsi eu recours à l’IA développée par OpenAI pour lui faire confirmer ou infirmer de prétendues «pistes». Problème : dans un cas comme dans l’autre, l’IA générative montre très vite ses limites. Et se montre bien peu fiable quand on lui demande de vérifier, ou même de chercher, une information.

Exemple ? Sur X, un utilisateur interroge Grok sur une requête qui semble simple de premier abord : il souhaite connaître le nombre d‘entrées réalisé par le film d