Un gros paquet législatif pour une petite avancée. La Californie a promulgué ce lundi 13 octobre une plusieurs lois visant à réguler pour la première fois aux États-Unis les agents conversationnels, ou «chatbots», qui reposent sur de l’intelligence artificielle (IA). Elle fait suite à une série de suicides d’adolescents ayant noué des relations fictives intimes avec ces outils, a annoncé le gouverneur Gavin Newsom. Défiant la pression de la Maison Blanche qui s’oppose à la régulation de l’IA, le dirigeant démocrate a signé une série de lois qui imposent, entre autres, de vérifier l’âge des utilisateurs, d’afficher des messages d’avertissement réguliers et de prévoir des protocoles de prévention du suicide.
A lire aussi
«Nous avons vu des exemples vraiment horribles et tragiques de jeunes qui ont été victimes de technologies peu régulées, et nous ne resterons pas les bras croisés pendant que des entreprises exercent sans limites et sans rendre de comptes, a-t-il déclaré dans un communiqué publié après la promulgation de ce paquet législatif. Nous pouvons continuer à être leader dans le domaine de l’IA […] mais nous devons agir de façon responsable, en protégeant nos enfants tout au long du chemin. […] Les technologies émergentes comme les chatbots et les réseaux sociaux peuvent être source d’inspiration, éduquer et relier les gens, mais sans véritables garde-fous, elles peuvent aussi exploiter, égarer et mettre en danger nos enfants.» La Californie abrite la Silicon Valley et les principaux géants du développement de modèles d’IA comme OpenAI (ChatGPT), Google (Gemini) ou xAI (Grok).
Prévention et détection
Un des principaux textes, la loi SB243, concerne la régulation des chatbots susceptibles de jouer un rôle de compagnon ou confident, tels que ceux développés par des plateformes, comme Replika ou Character. AI. Cette dernière a été l’une des premières poursuivie en justice par les parents d’un adolescent américain de 14 ans, Sewell, qui s’est tué en 2024 après avoir noué une relation amoureuse avec un chatbot inspiré de la série Game of Thrones et soupçonné de l’avoir renforcé dans ses pensées suicidaires.
Outre la vérification de l’âge, cette loi impose d’afficher des messages réguliers pour rappeler à l’utilisateur que son interlocuteur est une machine (toutes les trois heures pour les mineurs). Elle oblige les entreprises à prévoir une détection des pensées suicidaires, à fournir un accès à des programmes de prévention et à transmettre des statistiques sur le sujet aux autorités.
A lire aussi
«L’industrie technologique est encouragée à capter l’attention des jeunes et la retenir au détriment de leurs relations dans le monde réel», avait argué pendant les débats le sénateur californien Steve Padilla, à l’origine du texte. Aux États-Unis, il n’y a pas de règles nationales pour limiter les risques liés à l’IA et la Maison-Blanche essaie d’empêcher les États de produire les leurs.