Menu
Libération
Forum européen de bioéthique

IA générative : il va y avoir du spam

Au Cœur de la Bioéthiquedossier
La démocratisation de l’IA générative dope l’escroquerie dite «sociale», notamment par courriels d’hameçonnage. Les acteurs de la cybersécurité s’attendent désormais à ce que l’IA serve à attaquer… l’IA elle-même.
(Theeraphong Khongchua/Getty)
publié le 29 janvier 2024 à 13h52
Clonage, séquençage du génome, médecine personnalisée, data… Les technologies bouleversent nos vies et nos sociétés. La quatorzième édition du Forum européen de bioéthique, dont Libération est partenaire, aura pour thème «l’Intelligence artificielle et nous». En attendant l’événement, du 7 au 10 février à Strasbourg, Libération publiera dans ce dossier une série d’articles sur les thématiques abordées.

C’est, depuis un an, la grande coqueluche d’Internet, l’outil qu’il faut avoir essayé au moins une fois dans sa vie. Rapports techniques, lettres de motivation, devoirs pour le lycée, … sollicité chaque semaine par quelque 100 millions de visiteurs, ChatGPT, l’agent conversationnel d’OpenAI, turbine comme un damné. Pour l’internaute ravi… mais aussi contre lui. Car il l’ignore sans doute, mais la machine produit, pour d’autres et à la chaîne, ce dont il sera tôt ou tard le destinataire : des spams plus aboutis que jamais.

Avec sa diffusion accélérée, l’IA générative a offert aux acteurs de la cybercriminalité un redoutable outil de plus. Elle dope notamment un secteur que le jargon nomme «l’ingénierie sociale» : la manipulation psychologique des individus, le plus souvent via SMS et mails (le phishing, ou hameçonnage), dans le but de récupérer des informations confidentielles ou transmettre un logiciel malveillant (malware) à des fins d’escroquerie.

La voix d’un proche simulée par un outil d’IA

«En 2023, la démocratisation de l’IA générative a eu un impact très clair sur les attaques de phishing, témoigne Isabelle Ryl, professeure d’informatique à l’université de Lille et directrice du Paris Artificial Intelligence Research Institute (Prairie). Selon l’Agence de l’UE pour la cybersécurité [Enisa], le volume des attaques a ainsi bondi, dans les deux mois qui ont suivi le lancement de ChatGPT, de 135 %…»

Le bond n’est pas uniquement quantitatif. «Avec l’IA générative, les spams opèrent un saut qualitatif en matière de contenu. Là où, il y a dix ans, les mails frauduleux étaient truffés de fautes d’orthographe et d’approximations, les outils actuels produisent des mails de plus en plus crédibles. Et le ciblage des destinataires, permis par la multiplication des données personnelles, progresse lui aussi.» En somme, les attaques vont en se personnalisant.

Une sophistication croissante incarnée par le développement d’une nouvelle ingénierie sociale, sonore cette fois. «Aux Etats-Unis, des cas d’escroquerie par “voice deepfake” [trucage de la voix grâce à l’IA, ndlr] ont d’ores et déjà été documentés, note la spécialiste. Des personnes reçoivent des coups de fil d’un proche, dont la voix est en fait simulée par un outil d’IA, et leur demande de l’argent.»

Un tournant ? Pas forcément. La menace, réelle et en hausse, est pourtant jugée gérable par des acteurs de la cybersécurité loin d’être démunis. Car les progrès de l’IA sont duaux : elle optimise les schémas d’attaque, mais aussi ceux de défense, qui gagnent en analyse, en systématisation et en efficacité.

«Un champ nouveau pour la cybersécurité»

Pour les professionnels, la véritable inquiétude est en fait ailleurs : au-delà du piratage par l’IA, c’est bien le piratage des IA qui s’annonce. «Les cybercriminels auront tendance à utiliser l’IA pour exploiter les vulnérabilités des systèmes d’IA existants, prédit ainsi l’Enisa. Par exemple, ils peuvent essayer de pirater des chatbots dotés d’IA pour voler des données de cartes de crédit ou d’autres données.»

«Les attaques contre les IA ouvrent bel et bien un champ nouveau pour la cybersécurité, confirme Isabelle Ryl. Les risques sont multiples, il va falloir les surveiller sérieusement.» Parmi eux : celui de l’empoisonnement des données. «En abîmant et trafiquant cette matière première, il est possible d’altérer ou de manipuler le fonctionnement d’une IA, en créant par exemple des biais ou des résultats erronés.» Appliquées à des domaines comme la santé ou la défense, les conséquences peuvent être dramatiques.

Autre risque, celui d’intrusion. «On peut imaginer que les IA soient, comme les logiciels classiques, sujettes aux backdoors.» En informatique, une backdoor («porte dérobée») est un accès secret, installé dans le code et ignoré par l’utilisateur, permettant après la livraison du service de continuer à s’y introduire. «Quid, dès lors, d’une IA dont on pourrait subrepticement manipuler le code a posteriori ?» Côté défense, la riposte est déjà dans les tuyaux : il s’agit, pour contrer ces attaques de l’IA sur l’IA, de s’appuyer sur… l’IA.