L’intelligence artificielle (IA) est bourrée de biais, rien de nouveau. Les outils Midjourney et Dall-E ont déjà été accusés de générer des images trop stéréotypées. Des études soulignent depuis des années les difficultés de la reconnaissance faciale à fonctionner sur des visages de personnes noires. Mais le tourment dans lequel trempe Google depuis quelques heures est tout autre : en voulant corriger ces biais sur son IA Gemini, le géant de la tech a-t-il eu la main trop lourde ?
Des soldats nazis de la Seconde guerre mondiale à la peau noire, des Vikings asiatiques, un pape d’origine indienne… Après avoir obtenu des résultats très éloignés de la véracité historique, de nombreux internautes s’insurgent sur X (ex-Twitter). Certains accusent la firme californienne de ne pas respecter la réalité. D’autres, notamment des comptes d’extrême droite américaine, la soupçonnent de vouloir carrément effacer les personnes blanches. A la suite de cette levée de boucliers, Google a annoncé ce jeudi 22 février suspendre la création d’images de personnes sur son outil à la suite de «problèmes récents» concernant cette fonctionnalité. Le géant de l’informatique avait lancé début février aux Etats-Unis ce nouveau logiciel, qui n’est pas encore disponible en Europe.
Google AI Gemini shows non-White women when asked to generate pictures of Nazi soldiers.
— AF Post (@AFpost) February 21, 2024
Follow: @AFpost pic.twitter.com/w0ML5TXO04
En l’occurrence, des utilisateurs ont relevé sur X (ex-Twitter) que Gemini semblait sous-représenter les personnes blanches dans les images générées. Parmi les clichés de l’IA les plus controversés, on repère celui de soldats allemands de 1943 représentés sous les traits de militaires asiatiques ou à la peau noire. Numerama relève de son côté que lorsque l’IA devait représenter les créateurs de Google en personne, à savoir Larry Page et Sergey Brin (tous les deux des hommes blancs), le même problème survenait.
A lire aussi
«Nous nous efforçons de résoudre les problèmes récents liés à la fonctionnalité génération d’images de Gemini. Dans l’intervalle, nous allons suspendre la génération d’images de personnes et nous rendrons bientôt disponible une version améliorée de cette fonctionnalité», a expliqué Jack Krawczyk, directeur de produit chez Google en charge de Gemini, dans une déclaration transmise à l’AFP. «La génération d’images par l’IA de Gemini donne lieu à un vaste éventail de personnes. Et c’est généralement une bonne chose car les gens l’utilisent à travers le monde. Mais nous avons raté notre coup dans le cas présent», a insisté Google sur X.
Des «racistes woke» pour Elon Musk
Face à ce raffut, le propriétaire de X Elon Musk n’a pas perdu de temps pour faire sa propre publicité. Dans une réaction publiée sur son compte, le milliardaire a pour sa part publié une image où il fait une distinction entre d’une part son propre projet d’outil IA, assimilé à «la recherche maximale de la vérité», et d’autre part Gemini et le créateur de ChatGPT, OpenAI, qu’il taxe de «racistes woke».
Which path do you want for AI? pic.twitter.com/1OoujRZokn
— Elon Musk (@elonmusk) February 22, 2024
Depuis la fin de l’année 2022 et le succès de ChatGPT, l’IA générative, capable de produire toutes sortes de contenus (textes, sons, images ou vidéos) sur simple requête en langage courant, a suscité un engouement massif et tous les géants de la tech se sont engagés dans une course au déploiement d’outils pour les organisations et les particuliers.
De plus en plus bluffante, jusqu’à la possibilité de créer des vidéos d’une minute grâce au logiciel Sora d’OpenAI présenté mi-février mais encore inaccessible au public, cette technologie a également donné lieu à la mise en place de garde-fous. La semaine passée, vingt des entreprises les plus avancées dans ce domaine, dont Meta, Microsoft, Google et OpenAI, ont ainsi annoncé s’engager à développer de nouvelles techniques pour identifier les contenus de désinformation utilisant l’IA.