Menu
Libération
Privé de datas

LinkedIn utilise les données de ses utilisateurs pour nourrir son IA, sauf en Europe où les règles de confidentialité sont plus strictes

Outre-Atlantique, la nouvelle a provoqué une vague d’indignation. Le réseau social des professionnels n’avait pas franchement prévenu ses utilisateurs en amont.

Sur LinkedIn, certaines des données partagées par les internautes (hors Europe) sont depuis peu utilisées pour entraîner des modèles d’intelligence artificielle (IA). (Jakub Porzycki/NurPhoto.AFP)
Publié le 26/09/2024 à 20h13

Annonces de recherches d’emploi, félicitations adressées à un «collaborateur» ou goût trop prononcé pour l’émoji fusée… Sur LinkedIn, certaines des données partagées par les internautes en dehors de l’Europe sont depuis peu utilisées pour entraîner des modèles d’intelligence artificielle (IA). L’information, dévoilée mi-septembre par la publication en ligne 404Media, a provoqué outre-Atlantique une vague d’inquiétude. Et d’indignation : le réseau social professionnel n’en a jamais informé ses utilisateurs.

Le changement est intervenu avant que LinkedIn ne change officiellement ses conditions d’utilisation. Chose désormais faite : «Nous pouvons utiliser vos données personnelles pour […] développer et entraîner des modèles d’intelligence artificielle (IA)», peut-on aujourd’hui lire dans la politique de confidentialité du site comptant plus d’un milliard de membres répartis dans 200 pays.

Dans une FAQ publiée il y a une semaine, la société californienne précise que cette utilisation intervient afin d’«améliorer ou développer les services LinkedIn». Comprendre ici l’outil «suggestion d’écriture», une fonctionnalité basée sur l’IA assistant les utilisateurs dans la rédaction de posts (plus ou moins inspirés). Ou la «suggestion de rédaction de profil», censée aider un internaute à rendre son compte le plus attrayant possible pour un recruteur.

Pour les internautes les plus réticents, il est possible d’enrayer la machine. Et de désactiver le pompage des informations personnelles en se rendant dans les paramètres de son profil. Dans l’onglet «Confidentialité des données», il suffit de cliquer sur le bouton «Données pour l’amélioration de l’IA générative».

Protégés par le RGPD

Un bouton qui, en France, n’existe pas. En effet, comme le fait savoir LinkedIn à Libé, le réseau n’entraîne pas son IA à partir des données des utilisateurs situés dans «l’Espace économique européen, la Suisse et le Royaume-Uni». Rien de surprenant : la pratique est, au sein de l’UE, encadrée par le Règlement général de protection des données (RGPD).

En plus d’exiger que les plateformes recueillent un consentement explicite de leurs utilisateurs, le texte de 2018 précise que les informations collectées doivent être anonymisées et limitées au strict nécessaire. Pas franchement le style des modèles de langage qui, pour rivaliser en performance, reposent sur le brassage d’une quantité astronomique de datas.

Résultat : bon gré mal gré, d’autres géants de la tech ont renoncé à entraîner leurs propres IA à partir des données d’utilisateurs européens. Textes, photos, stories… Meta espérait ainsi alimenter ses algorithmes à partir de comptes Facebook ou Instagram. Mais a dû renoncer à le faire dans l’UE en juin après avoir reçu des plaintes de onze pays européens. Même histoire pour X (ex-Twitter) qui lui a lâché l’affaire en septembre après avoir été poursuivi par huit pays du Vieux Continent.