«Grok, c’est vrai ?» Sur X, anciennement Twitter, c’est devenu un réflexe voire un gimmick. A chaque publication polémique ou factuellement sujette à caution, un ou plusieurs utilisateurs de la plateforme s’en remettent à l’IA développée par la maison mère de X, Grok, en la mentionnant directement dans la conversation.
D‘autres préfèrent s’en remettre à des concurrents, et notamment ChatGPT. Dans la traque publique de Xavier Dupont de Ligonnès, récemment organisée sur Instagram par l’influenceur Aqababe, tant les participants que l’administrateur ont ainsi eu recours à l’IA développée par OpenAI pour lui faire confirmer ou infirmer de prétendues «pistes». Problème : dans un cas comme dans l’autre, l’IA générative montre très vite ses limites. Et se montre bien peu fiable quand on lui demande de vérifier, ou même de chercher, une information.
Exemple ? Sur X, un utilisateur interroge Grok sur une requête qui semble simple de premier abord : il souhaite connaître le nombre d‘entrées réalisé par le film d