Menu
Libération
CheckNews
Vos questions, nos réponses
CheckNews

Des chercheurs ont-ils développé une intelligence artificielle trop dangereuse pour être mise en service ?

Science tenantedossier
Le centre de recherche privé OpenIA a développé une intelligence artificielle capable de générer du faux texte convaincant et annonce repousser sa publication intégrale pour laisser le temps à la communauté d’en mesurer les conséquences.
Computer hardware (TEK IMAGE/SPL)
publié le 20 février 2019 à 13h16

Question posée par Lorriane le 19/02/2019

Bonjour,

Nous avons reformulé votre question qui était : «Est-il vrai que le groupe OpenAI a créé un générateur de texte appelé GPT2, mais ne le commercialise pas faute à sa trop grande capacité de pouvoir inventer des fake news très réalistes?»

OpenAI est un centre de recherche privée en intelligence artificiel financé par des milliardaires américains comme Elon Musk, PDG de SpaceX ou encore Peter Thiel, co-fondateur de PayPal.

OpenAI a publié un post de blog le 14 février annonçant avoir développé une intelligence artificielle (appelée GPT-2), capable de compléter des textes de manière crédible et en respectant le style. Le Guardian a testé la machine en lui soumettant la première phrase d'un article ou d'un roman et en laissant l'IA compléter le texte. Le résultat est dans la vidéo ci-dessous.

De quoi parle-t-on au juste ? GPT-2 est une IA dont le but est simple : prédire quel sera le prochain mot dans un texte.

L’équipe de recherche a décidé de ne pas publier l’intégralité de son modèle en raison d’inquiétudes sur la possibilité de s’en servir pour générer à large échelle des textes offensants ou faux.

Cette décision permet, selon les auteurs, de «gagner du temps» pour que la communauté de l'intelligence artificielle et les gouvernements réfléchissent aux impacts potentiels du développement des technologies basées sur l'intelligence artificielle.

Cette réticence des chercheurs à publier l'intégralité de leur travail n'est pas passée inaperçue. «Inquiets, des chercheurs bloquent la sortie de leur IA», affirme Usbek et Rica, «GPT-2 : OpenAI ne veut pas diffuser son outil, le jugeant trop dangereux», titre Presse citron, «Une nouvelle IA génératrice de faux texte trop dangereuse pour être publiée, selon les créateurs», juge le Guardian.

Si ce champ de recherche n’a rien de nouveau, GPT-2 impressionne par sa taille. Il s’agit d’un modèle composé de 1,5 milliard de paramètres réglés en s’entraînant sur 8 millions de pages web. Pour le mettre au point, il faut une puissance de calcul phénoménale, ce qui coûte très cher.

Cette taille gigantesque permet donc à l'IA d'avoir des résultats meilleurs que ses prédécesseuses. «Ils ont prouvé que la performance en la matière ne plafonne pas. Si on décuple la puissance de calcul, on améliore le résultat», commente François Yvon, chercheur au CNRS.

GPT-2 n'est pas toute-puissante pour autant. «Il lui faut plusieurs essais pour produire un bon texte. Si on lui fournit des textes proches de ceux présentés dans sa base d'entraînement, elle semble capable de créer un échantillon satisfaisant environ une fois sur deux», commentent les auteurs sur leur blog. Les exemples présentés sont donc un choix de ses meilleurs textes.

Mais cette IA présente d'autres caractéristiques qui la rendent intéressante. Elle est capable de réaliser des tâches pour laquelle elle n'a pas été entraînée. Les scientifiques d'OpenIA eux-même trouvent «surprenant» que leur IA soit capable de traduire des textes, d'en résumer ou de répondre à des questions de compréhension.

«Ces résultats sont moins bons que ceux des IA spécialisées existantes obtenues par apprentissage supervisé», tempère Laurent Besacier, professeur au laboratoire d'informatique de Grenoble.

Enfin, la question de la non-publication du modèle est une preuve de la prise de conscience des possibles conséquences éthiques et sociétales de leurs travaux par les chercheurs en intelligence artificielle.

Cordialement

Plus sur le sujet, avec nos deux hors-séries