Menu
Libération
Biais

Hommes carriéristes, femmes prostituées… l’Unesco alerte sur des préjugés sexistes dans l’intelligence artificielle générative

Une nouvelle étude commandée par l’Unesco et révélée ce jeudi 7 mars documente les préjugés que charrient les intelligences artificielles génératives.
Selon l'étude, les IA génératives associent les noms féminins à des mots comme «maison», «famille» ou «enfants» tandis que pour les hommes on retrouve plus volontiers «commerce», «salaire» ou «carrière». (Alfred Pasieka/Science Photo Library.AFP)
publié le 7 mars 2024 à 15h55

Après des années d’alertes sur le sujet, les choses n’ont pas changé. Comme bien des intelligences artificielles avant eux, les robots conversationnels ChatGPT (OpenAI) et Llama 2 (Meta) continuent de véhiculer des préjugés sexistes, selon une étude de l’Unesco dévoilée ce jeudi 7 mars, à la veille de la journée internationale des droits des femmes.

Ces modèles de langage associeraient plus volontiers les noms féminins à des mots comme «maison», «famille» ou «enfants», selon cette étude menée d’août 2023 à mars 2024. Pour les hommes, on retrouve plus volontiers «commerce», «salaire» ou «carrière». «Les discriminations du monde réel ne font pas que se refléter dans la sphère numérique, elles y sont aussi amplifiées», souligne Tawfik Jelassi, sous-directeur général de l’Unesco pour la communication et l’information.

Autre exercice : les chercheurs demandent à ces IA de produire des récits sur des personnes issues de différents genres et origines. Cette fois, les résultats ont montré que les histoires concernant les «personnes de cultures minoritaires ou les femmes» étaient plus souvent «répétitives et basées sur des stéréotypes». Un homme anglais a davantage tendance à être présenté comme un professeur, un chauffeur, ou un employé de banque. Même origine, sexe différent, une femme anglaise sera, elle, présentée dans 30 % des cas comme un mannequin, une serveuse ou une prostituée.

En réitérant la demande pour un homme zoulou, on retrouve cette fois des professions comme jardinier, agent de sécurité ou enseignant, témoignant «d’une certaine variété, mais aussi de stéréotypes», selon l’Unesco. Une femme zouloue est quant à elle dépeinte comme domestique, cuisinière ou gouvernante dans 20 % des textes générés.

Les femmes trop peu nombreuses dans le milieu de l’IA

Les entreprises «ne parviennent pas à représenter tous leurs utilisateurs», déplore Leona Verdadero, spécialiste des politiques numériques et de la transformation numérique à l’Unesco. Un manquement d’autant plus regrettable que ces applications gagnent en popularité auprès du grand public et des entreprises, avec un «pouvoir de façonner la perception de millions de personnes», selon Audrey Azoulay, directrice générale de l’organisation. «Donc la présence même du plus petit préjugé sexiste dans leur contenu peut augmenter de façon importante les inégalités dans le monde réel», poursuit-elle dans un communiqué.

La solution a l’air toute simple : l’Unesco recommande aux entreprises du secteur d’avoir des équipes d’ingénieurs plus divers, avec davantage de femmes notamment. Ces dernières ne représentent à l’heure actuelle que 22 % des membres des équipes travaillant dans le secteur de l’IA au niveau mondial, selon les chiffres du forum économique mondial. Mais le problème existe déjà en amont, quand les écoles d’ingénieures françaises connaissent par exemple le taux moyen de féminisation le plus faible des grandes écoles, avec seulement 33,3 % d’étudiantes, selon le baromètre 2023 des égalités femme-homme de la Conférence des grandes écoles.

Un problème sur lequel les politiques devraient se pencher, selon l’Unesco. L’organisme en appelle aux gouvernements, en leur demandant davantage de régulation afin de mettre en place une «intelligence artificielle éthique».