Les fakes évoluent, les règles aussi. Le géant américain Meta va identifier «dans les prochains mois» toute image générée par l’intelligence artificielle (IA) qui sera publiée sur ses réseaux sociaux, a-t-il annoncé ce mardi 6 février. «Dans les prochains mois, nous étiquetterons les images que les utilisateurs publient sur Facebook, Instagram et Threads lorsque nous pourrons détecter des indicateurs conformes aux normes de l’industrie indiquant qu’elles sont générées par l’IA», a annoncé Nick Clegg, le responsable des affaires internationales de Meta, dans une note de blog.
Si Meta a déjà mis en place ces étiquettes sur les images créées à partir de son propre outil de génération d’images, Meta AI, depuis son lancement en décembre, «nous voulons pouvoir le faire aussi avec des contenus créés avec des outils d’autres entreprises», comme Google, OpenAI, Microsoft, Adobe, Midjourney, ou encore Shutterstock, a-t-il ajouté. «Nous sommes en train de construire cette capacité dès maintenant et, dans les prochains mois, nous commencerons à appliquer des étiquettes dans toutes les langues prises en charge par chaque application», a encore souligné le dirigeant.
Enquête
Cette annonce survient alors que l’essor de l’IA générative fait craindre que des personnes n’utilisent ces outils pour semer le chaos politique, par le biais de la désinformation ou de la mésinformation, à l’approche de plusieurs élections majeures, parmi lesquelles l’élection présidentielle américaine. Elle intervient également en pleine prolifération des deepfakes pornographiques, ayant notamment récemment visé la chanteuse Taylor Swift.
Si Nick Clegg admet que cet étiquetage à grande échelle, par le biais de marqueurs invisibles, «n’éliminera pas» totalement le risque de production de fausses images («deepfakes»), «cela minimiserait certainement» sa prolifération «dans les limites de ce que la technologie permet actuellement». «Ce n’est pas parfait, la technologie n’est pas encore tout à fait au point, mais c’est la tentative la plus avancée de toutes les plateformes jusqu’à présent pour fournir une transparence significative à des milliards de personnes dans le monde», a insisté Nick Clegg auprès de l’AFP.
Technologie ouverte
«J’espère vraiment qu’en faisant cela et en prenant les devants, nous inciterons le reste de l’industrie à travailler ensemble et à essayer de développer les normes (techniques) communes dont nous avons besoin», a poursuivi le dirigeant de Meta, qui se dit prêt à «partager» sa technologie ouverte «le plus largement possible». La société californienne OpenAI, créatrice de ChatGPT, a aussi annoncé mi-janvier le lancement d’outils pour combattre la désinformation, affirmant sa volonté de ne pas permettre l’utilisation de ses outils technologiques, dont ChatGPT et le générateur d’images Dall-E, à des fins politiques.
Pas plus tard que lundi 5 février, la société dirigée par Mark Zuckerberg a reçu une tape sur les doigts de la part de son conseil de surveillance. Ce dernier demandait au réseau d’actualiser impérativement, et rapidement, ses règles sur les contenus manipulés, avec ou sans intelligence artificielle. Le conseil a fait cette recommandation contraignante dans le cadre d’une décision sur un montage vidéo grossier, mettant en scène le président américain Joe Biden.
La vidéo - montrant le chef d’Etat qui touche la poitrine de sa petite-fille adulte, avec une légende qui le décrit comme pédophile - avait été largement relayée en ligne l’année dernière. Meta doit «commencer à étiqueter les contenus manipulés, tels que les vidéos modifiées par l’intelligence artificielle (IA) ou d’autres moyens, lorsque ces contenus sont susceptibles de causer un préjudice», ordonnait le conseil dans un communiqué.