Menu
Libération
Fake news

Elections européennes de 2024 : OpenAI va lancer des outils contre la désinformation

Lors d’une année riche en élections, les géants de l’IA peuvent vite devenir un relais de désinformation. Un sujet inquiétant pour la société créatrice de ChatGPT, qui a annoncé lundi 15 janvier sa volonté de lutter contre ce nouveau fléau.
A Des Moines, dans l'Iowa, où Donald Trump a remporté la première primaire républicaine, le 15 janvier. (JIM WATSON/AFP)
publié le 16 janvier 2024 à 13h06

Inde, Etats-Unis, Royaume-Uni… 77 pays et près de la moitié de la population concernée : l’année 2024 sera une année d’élection, et de désinformation. Et au centre de cette guerre à la (dé) crédibilisation, entre création de contenus crédibles et en masse, les IA se font une place de choix. De quoi pousser OpenAI, société californienne créatrice de ChatGPT, à annoncer sur son blog lundi 15 janvier le lancement d’outils pour combattre la désinformation.

«Nous voulons être certains que notre technologie ne sera pas utilisée de manière à porter atteinte» au processus démocratique, explique OpenAI. La société explique ainsi ne «plus permettre aux utilisateurs d’avoir recours à leur IA pour des campagnes politiques ou militantes», en attendant «d’évaluer l’efficacité de [leurs] outils». Ces derniers permettraient de déterminer de manière fiable si un texte a été généré par ChatGPT, ou une image par DALL-E3, le générateur visuel d’OpenAI.

Des «garde-fous» déjà existants

Si depuis peu il est possible de personnaliser son chatbot et de le revendre, OpenAI précise désormais dans ses conditions d’utilisation qu’il n’est plus autorisé de créer des GPTs prétendant être de vraies personnes ou institutions. L’entreprise ne permet plus non plus une utilisation de son IA visant à «dissuader les gens de participer aux processus démocratiques, par exemple en présentant de manière erronée les modalités de vote, ou en décourageant le vote».

Et pour limiter les risques, lorsqu’il sera interrogé sur les élections américaines, ChatGPT orientera par exemple les électeurs vers des sites reconnus. «Les leçons tirées de ce travail seront la base de notre approche pour d’autres pays et régions», explique OpenAI, ajoutant que DALL-E 3 dispose de «garde-fous» pour empêcher les utilisateurs de générer des images de personnes réelles, «notamment de candidats».

La désinformation, une affaire de géants

«Au début de cette année, nous allons mettre en œuvre une coalition pour la provenance et l’authenticité des contenus», ajoute la compagnie. Cette coalition, dite C2PA, réunira notamment Microsoft, Sony, Adobe, Nikon et Canon. Les géants américains Google et Meta ont quant à eux déjà annoncé l’an dernier des initiatives pour cadrer l’utilisation de l’IA dans les campagnes politiques. Le premier demandait alors un affichage clairement visible du recours à ce genre de technologies pour les contenus concernés, quand la maison mère de Facebook optait pour une interdiction de l’usage de ses IA génératives dans leur création.

La désinformation – une fausse information diffusée volontairement – et la mésinformation – une information fausse diffusée involontairement – liées à l’IA pourraient «miner la légitimité des gouvernements nouvellement élus», a averti la semaine dernière le Forum économique mondial, qui se tient jusqu’au 19 janvier à Davos en Suisse.