Menu
Libération
Santé

Google retire certains des résumés générés par IA comportant des erreurs médicales

Ces aperçus générés par intelligence artificielle ont été déployés dans une centaine de pays. Mais certains diffusent des informations erronées potentiellement dangereuses, révèle le «Guardian».

La France n'est pas encore concernée par les «AI overviews» de Google. (Dado Ruvic/REUTERS)
Publié le 11/01/2026 à 15h59

Qui n’a pas déjà «googlisé» ses symptômes ? Cette habitude d’utiliser Internet comme source d’information sur la santé est pourtant à manier avec prudence. Et même à éviter. Comme le révèle le Guardian ce dimanche 11 janvier, Google a été contraint de retirer certains des résumés générés par intelligence artificielle de ses résultats de recherches. En cause : la diffusion d’informations fausses dans ces petits textes, qui induisaient les utilisateurs en erreur concernant leur état de santé.

Depuis 2024, Google a déployé les «AI overviews» dans une centaine de pays dont les Etats-Unis, le Royaume-Uni, le Japon, ou encore le Mexique et le Brésil, mais pas en France à ce stade. Concrètement, dans ces pays, tout en haut de la liste de résultats Google, un résumé global généré par IA apparaît. La firme entend ainsi proposer une réponse aux questions des internautes sans qu’ils n’aient besoin de cliquer sur un lien envoyant vers un autre site – et ainsi sortir de Google.

Mais certains de ces aperçus sont qualifiés de «dangereux» et «alarmants» par les experts. Comme l’explique le Guardian, une recherche s’interrogeant sur «la plage normale pour les analyses de sang du foie» renvoyait à un texte IA déballant moult chiffres sans aucune prise en compte du contexte, de la nationalité, du sexe et de l’origine ethnique ou de l’âge des patients.

Résumés supprimés

Problème : les résultats d’analyses considérés comme normaux par l’IA de Google ne l’étaient en réalité pas. Et celles et ceux qui étaient atteints d’insuffisance hépatique étaient donc amenés à penser que les résultats de leurs prises de sang ne présentaient aucun problème, à tort. Avec des conséquences lourdes, comme une absence de recours à un médecin.

C’est en réponse à une première enquête du Guardian parue le 2 janvier, qui révélait ces défaillances de l’IA, que l’entreprise californienne a finalement pris la décision de supprimer ces résumés pour les recherches comportant les termes «quelle est la plage normale des analyses sanguines du foie» et «quelle est la plage normale des tests de la fonction hépatique».

Contacté par le média britannique, un porte-parole de Google s’est contenté d’affirmer que «lorsque les aperçus de l’IA ne prennent pas en compte certains éléments de contexte, nous nous efforçons d’apporter des améliorations générales et nous prenons également des mesures conformément à nos politiques».

Un problème persistant

Selon Vanessa Hebditch, directrice de la communication et des politiques du British Liver Trust, une association caritative engagée pour la santé du foie, ces difficultés ne sont toutefois pas pleinement réglées. En effet, «si la question est posée différemment, une présentation générale de l’IA potentiellement trompeuse peut tout de même être donnée, et nous restons préoccupés par le fait que d’autres informations de santé produites par l’IA peuvent être inexactes et sources de confusion», affirme-t-elle auprès du Guardian.

Ce que le journal britannique confirme ce dimanche : en testant les mêmes recherches sur le foie mais en modifiant légèrement certains mots, un résumé IA erroné apparaît encore. Sollicité par le quotidien, Google a affirmé que ces nouveaux exemples étaient actuellement examinés par ses équipes. Et que, de manière générale, seules les réponses de l’IA jugées «très bonnes» étaient affichées.

Pour autant, selon plusieurs interlocuteurs cités par le Guardian, des erreurs se trouvent potentiellement dans d’autres résumés générés par IA portant sur des questions de santé différentes. Dans un article pour le Search Engine Journal, Matt Southern estime ainsi que «les aperçus de l’IA apparaissent au-dessus des résultats classés», soit à un endroit très visible. Ainsi, «lorsque le sujet est la santé, les erreurs ont plus d’importance» que dans d’autres cas.

Dans la même rubrique