L’IA nous sauvera-t-elle de la désinformation ? C‘est le pari de Raphaël-David Lasseri. Depuis sept ans ce docteur en physique théorique développe des solutions technologiques au croisement de l’IA et de l’information. En 2018, l’ancien étudiant de l’ENS-Paris Saclay crée Magic Lemp, un outil dopé aux algorithmes qui se veut apolitique. Cette entreprise de deep tech regroupe aujourd’hui 20 chercheurs et ingénieurs qui accompagnent aussi bien des entreprises et institutions publiques comme Naval Group, la gendarmerie nationale et le Sénat, que des groupes privés comme 2600. Aujourd’hui, elle réfléchit avec plusieurs médias français aux enjeux de la couverture de l’élection présidentielle de 2027.
En 2022, vous avez lancé «Pluralisme», un outil d’intelligence artificielle qui analyse en temps réel les prises de parole de près de 3 000 personnalités publiques. Comment exercez-vous votre algorithme ?
La sphère informationnelle est complexe. On a commencé par l’analyse des textes écrits puis on s’est attaqué au point le plus dur que sont les vidéos. Pendant la présidentielle de 2022, nous avons notamment pu maîtriser deux complexités importantes. Premièrement l’accent du candidat Jean Lassalle qui était mal compris par l’algorithme, cela nous a permis de mieux prendre en compte les particularismes régionaux. Notre deuxième difficulté a été les chroniques de Nicolas Canteloup. Il imite particulièrement bien le Président, surtout en «doublant» de vraies vidéos ! Ses imitations nous ont servis d’entraînement et de préfiguration efficace dans notre lutte actuelle contre les deepfakes. Aujourd’hui, nous étendons notre analyse à d’autres pays comme l’Allemagne, les Etats-Unis et l’Uruguay en gérant d’autres langues que le français.
Ce travail de récolte et d’analyse de la désinformation n’est-il pas déjà celui des journalistes ?
Notre outil n’est pas là pour remplacer les journalistes. Nous voulons donner à tous – qu’ils soient journalistes, politiques ou simples citoyens – l’accès à de la donnée brute, sans filtre éditorial. Concrètement, un youtubeur ou un éditorialiste reprend dans l’une de ses vidéos une phrase du président de la République. La personne qui regarde le contenu n’a pas forcément accès au contexte du propos rapporté. Notre objectif est de pouvoir remonter aux sources dans leur exhaustivité. Nous sommes convaincus que le partage de ces informations peut permettre aux citoyens de sortir de leurs bulles informationnelles et contribuera à renforcer notre démocratie.
En anticipation des élections de 2027 justement, dans quel cadre des médias comme BFM TV, M6 et France Info font appel à vous ?
Pendant les périodes électorales, les médias audiovisuels doivent garantir égalité et équité du temps de parole des candidats. Or, nous avons observé un écart pouvant atteindre 30 % entre les décomptes manuels et ceux effectués par l’algorithme. Dans ce cas, c‘est bien la machine qui était le plus fiable… Pour aller plus loin, notre système répond également au décret du Conseil d’Etat en analysant non seulement les interventions des politiques, mais aussi celles des chroniqueurs, en analysant le contenu des discours et pas seulement les temps de parole.
Comment votre technologie peut aider à lutter contre les ingérences étrangères ?
Nos systèmes d’IA aident à repérer les stratégies d’influence étrangère en révélant des anomalies narratives, donc du contenu, et des réseaux coordonnés de diffusion à travers l’analyse en temps réel des discours et prises de positions.