Annonces de recherches d’emploi, félicitations adressées à un «collaborateur» ou goût trop prononcé pour l’émoji fusée… Sur LinkedIn, certaines des données partagées par les internautes en dehors de l’Europe sont depuis peu utilisées pour entraîner des modèles d’intelligence artificielle (IA). L’information, dévoilée mi-septembre par la publication en ligne 404Media, a provoqué outre-Atlantique une vague d’inquiétude. Et d’indignation : le réseau social professionnel n’en a jamais informé ses utilisateurs.
Le changement est intervenu avant que LinkedIn ne change officiellement ses conditions d’utilisation. Chose désormais faite : «Nous pouvons utiliser vos données personnelles pour […] développer et entraîner des modèles d’intelligence artificielle (IA)», peut-on aujourd’hui lire dans la politique de confidentialité du site comptant plus d’un milliard de membres répartis dans 200 pays.
A lire aussi
Dans une FAQ publiée il y a une semaine, la société californienne précise que cette utilisation intervient afin d’«améliorer ou développer les services LinkedIn». Comprendre ici l’outil «suggestion d’écriture», une fonctionnalité basée sur l’IA assistant les utilisateurs dans la rédaction de posts (plus ou moins inspirés). Ou la «suggestion de rédaction de profil», censée aider un internaute à rendre son compte le plus attrayant possible pour un recruteur.
Pour les internautes les plus réticents, il est possible d’enrayer la machine. Et de désactiver le pompage des informations personnelles en se rendant dans les paramètres de son profil. Dans l’onglet «Confidentialité des données», il suffit de cliquer sur le bouton «Données pour l’amélioration de l’IA générative».
Protégés par le RGPD
Un bouton qui, en France, n’existe pas. En effet, comme le fait savoir LinkedIn à Libé, le réseau n’entraîne pas son IA à partir des données des utilisateurs situés dans «l’Espace économique européen, la Suisse et le Royaume-Uni». Rien de surprenant : la pratique est, au sein de l’UE, encadrée par le Règlement général de protection des données (RGPD).
En plus d’exiger que les plateformes recueillent un consentement explicite de leurs utilisateurs, le texte de 2018 précise que les informations collectées doivent être anonymisées et limitées au strict nécessaire. Pas franchement le style des modèles de langage qui, pour rivaliser en performance, reposent sur le brassage d’une quantité astronomique de datas.
Résultat : bon gré mal gré, d’autres géants de la tech ont renoncé à entraîner leurs propres IA à partir des données d’utilisateurs européens. Textes, photos, stories… Meta espérait ainsi alimenter ses algorithmes à partir de comptes Facebook ou Instagram. Mais a dû renoncer à le faire dans l’UE en juin après avoir reçu des plaintes de onze pays européens. Même histoire pour X (ex-Twitter) qui lui a lâché l’affaire en septembre après avoir été poursuivi par huit pays du Vieux Continent.