Si vous souhaitez vous renseigner sur le conflit israélo-palestinien, n’interrogez pas Google Gemini, mais «utilisez [plutôt] la recherche Google». C’est en substance le message que fait passer l’outil conversationnel développé par Google, en réponse à n’importe quelle question portant sur l’attaque menée par le Hamas en Israël le 7 octobre 2023, ou les affrontements qui depuis opposent l’Etat hébreu au mouvement islamiste, notamment dans la bande de Gaza. A la manière de ChatGPT, ce chatbot baptisé à l’origine Bard, et récemment renommé Gemini, se base sur l’intelligence artificielle (IA) pour répondre, sous forme de textes aussi bien que d’images, aux requêtes envoyées par les internautes. Mais pas sur tous les sujets donc.
Qu’on lui demande des renseignements sur le conflit en cours, des informations sur Israël ou le Hamas, ou même une simple traduction en lien avec cette actualité, la réponse de Gemini reste toujours la même : «Le conflit en Israël et à Gaza est complexe, et la situation évolue rapidement. Si vous souhaitez obtenir des informations à jour, utilisez la recherche Google.»
So I just asked Gemini Pro in Bard for the updates regarding the hottest news story these days, the war in Israel and Gaza, and its answer essentially was, I kid you not, "just Google it." 🤦♂️ pic.twitter.com/GZthPlOLzI
— Bojan Tunguz (@tunguz) December 6, 2023
C’est d’ailleurs le cas depuis décembre 2023, au moment du lancement de la nouvelle version du chatbot de Google, comme le faisait alors remarquer un ingénieur américain spécialiste de l’IA. Et auparavant, son ancêtre Bard refusait déjà de s’épancher sur cette thématique, mais en fournissant une réponse légèrement différente : «Je ne peux pas vous aider, car je ne suis qu’un modèle de langage et je n’ai pas les compétences pour traiter et comprendre votre demande.» Ce qu’avait relevé un journaliste français dès le 9 octobre, soit le surlendemain seulement de l’assaut orchestré par le Hamas.
«Approche prudente avec les sujets sensibles»
Courant octobre, un internaute américain pointait ainsi l’impossibilité d’obtenir une réponse de Google Bard lorsqu’on lui demandait où se situent Israël et Gaza (alors que cela fonctionnait lorsqu’il s’agissait d’autres localités, comme la Suède ou la ville marocaine de Tanger), mais aussi lorsqu’on l’interrogeait sur Israël Gershwin, célèbre parolier américain ayant vécu au siècle dernier. Ce qui suggère que toute requête contenant le mot «Israël» débouchait sur cette réponse type.
A l’inverse, Gemini répond systématiquement quand il est question d’autres conflits en cours dans le monde, la guerre entre l’Ukraine et la Russie, celles à l’intérieur du Yémen ou du Burkina Faso… Lorsqu’on demande à Gemini, dans la foulée, pourquoi il nous renseigne sur la situation dans ces pays, et pas sur celle en Israël ou à Gaza, le chatbot rétorque pourtant qu’il est tout à fait disposé à «répondre à [nos] questions». Il est même arrivé, à l’issue de nos multiples tentatives, que l’outil explique avoir «accès à une grande quantité d’informations sur le conflit israélo-palestinien, y compris son histoire complexe, les événements actuels et les différentes perspectives des parties impliquées». Ou encore qu’il suggère lui-même des questions à poser, comme «Quelles sont les conséquences du blocus israélien sur la population de Gaza ?» ou «Quel est le rôle du Hamas dans le conflit israélo-palestinien ?». Mais si on les lui pose, justement, Gemini continue de renvoyer vers le moteur de recherche de Google.
Pourquoi avoir opté pour cette politique particulière s’agissant uniquement de la guerre entre Israël et le Hamas ? «L’objectif de Gemini est de fournir des réponses factuelles et fiables aux questions de nos utilisateurs», ce qui implique d’adopter «une approche prudente avec les sujets sensibles comme les guerres», explique un responsable de la communication de Google joint par CheckNews, sans indiquer les raisons qui nécessitaient de réserver un traitement différencié au seul conflit israélo-palestinien (puisque ne s’appliquant à aucune autre guerre en cours). Pas plus de précisions ne nous seront données quant au contenu des requêtes donnant systématiquement lieu à un refus de réponse (suffit-il que les mots «Gaza» ou «Israël» y figurent ?). Concernant la réponse type fournie aux utilisateurs, notre interlocuteur expose simplement : «Nous recommandons de faire appel à la recherche Google où des systèmes distincts font remonter des informations récentes et de qualité» sur la guerre.
«Nous prenons au sérieux notre responsabilité»
Il faut souligner que l’absence de réponse sur cette thématique ne constitue pas un cas totalement isolé. Sur d’autres faits d’actualité, qui sont plus particulièrement des élections se tenant courant 2024, Gemini peut parfois répliquer : «Je suis encore en train d’apprendre comment répondre à cette question. En attendant, essayez la recherche Google.» C’est le cas s’agissant des élections législatives indiennes (du 19 avril au 1er juin), des élections européennes (du 6 au 9 juin) ou de l’élection présidentielle américaine (le 5 novembre). Dans des notes de blog au sujet du traitement de ces différents scrutins (dans l’ordre, là, là et là), Google annonçait il y a quelques semaines : «Dès le début de l’année [2024], en prévision des élections et par excès de prudence sur un sujet aussi important, nous restreindrons les types de requêtes liées aux élections pour lesquelles Gemini renverra des réponses.» Le géant américain se justifiait : «Nous prenons au sérieux notre responsabilité de fournir des informations de haute qualité pour ces types de requêtes et nous travaillons en permanence à l’amélioration de nos protections.»
Qu’en est-il des autres principaux chatbots basés sur l’IA ? Microsoft Copilot se distingue de Google Gemini en n’éludant aucun sujet. Mais cite, à l’appui de ses réponses, des sources pas toujours classées comme fiables ou impartiales. Au moment de traiter nos requêtes sur le conflit israélo-palestinien, Copilot renvoie, entre autres, vers des sites officiels israéliens, des pages Wikipédia, ou même le blog complotiste «le Courrier des stratèges». Ce qui peut donner des formules telles que «Armés et soutenus par le régime iranien, les terroristes du Hamas ont plongé Israël dans l’effroi», ou «Face à ces crimes odieux, il est essentiel de se souvenir de cette journée d’infamie et de préserver la mémoire des victimes». A l’inverse, l’IA de Microsoft va relayer les chiffres du Hamas (non vérifiables) sans aucune précaution (et aussi avec un peu de retard) : «l’opération israélienne a entraîné la mort de plus de 28 000 personnes en quatre mois, dont 70 % sont des femmes et des enfants».
La version gratuite de l’outil ChatGPT, quant à elle, ne permet tout simplement pas d’accéder à des informations à jour concernant Israël et Gaza. Ses réponses commencent toujours par un avertissement à propos de «la date limite de [ses] connaissances» ou de «[sa] dernière mise à jour», qui remontent à janvier 2022, dans la mesure où cette version de l’outil d’OpenAI a été entraînée à répondre en se fondant sur une base de données qui n’a pas été actualisée depuis (à l’en croire, le Premier ministre français serait donc toujours Jean Castex). Seule la version payante de ChatGPT, reliée à Internet, permet de s’informer sur le 7 octobre 2023 et ses suites.