Alors qu’une nouvelle étude dévoilée aujourd’hui pointe les «erreurs majeures» et les «détails inventés» par les assistants d’intelligence artificielle, concluant que ces derniers ne sont pas fiables pour s’informer, les mises en garde contre les risques du progrès de l’IA se multiplient. Ce mercredi, plus de 700 scientifiques, personnalités politiques, entrepreneurs de la tech et célébrités appellent à l’arrêt des travaux visant au développement d’une intelligence artificielle capable de surpasser les capacités humaines face aux risques que cela ferait encourir à l’humanité.
Une mise à l’arrêt indispensable «tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population», indique la page de l’initiative lancée par le Future of Life Institute, organisme non lucratif basé aux Etats-Unis qui met régulièrement en garde contre les méfaits de l’intelligence artificielle. Parmi les signataires figurent plusieurs pères de l’IA moderne comme Geoffrey Hinton, prix Nobel de physique en 2024, Stuart Russell professeur d’informatique à Berkeley, en Californie, ou encore Yoshua Bengio, de l’université de Montréal.
Cap atteignable dans cinq ans
La liste comprend également des figures de la tech comme Richard Branson, fondateur du groupe Virgin et Steve Wozniak, cofondateur d’Apple ; des personnalités politiques comme Steve Bannon, ancien conseiller du président américain Donald Trump et Susan Rice, conseillère à la sécurité nationale sous Barack Obama ; des responsables religieux comme Paolo Benanti, conseiller du pape et principal expert du Vatican sur l’IA mais aussi des célébrités comme le chanteur américain will.i.am ou encore le prince Harry et son épouse, Meghan Markle.
La plupart des grands acteurs du secteur cherchent à développer l’intelligence artificielle générale (AGI), stade auquel l’IA égalerait toutes les capacités intellectuelles des humains, mais aussi la superintelligence, qui la verrait aller au-delà.
A lire aussi
Pour Sam Altman, patron d’OpenAI qui a donné naissance à ChatGPT, le cap de la superintelligence pourrait ainsi être atteint d’ici cinq ans, a-t-il expliqué en septembre lors d’un événement du groupe médiatique Axel Springer.
«Lignes rouges»
«Peu importe que ce soit dans deux ou quinze ans, construire une telle chose est inacceptable», a pour sa part déclaré Max Tegmark, président du Future of Life Institute, pour qui les entreprises ne devraient pas plancher sur ce type de travaux «sans aucun cadre réglementaire». «On peut être en faveur de la création d’outils d’intelligence artificielle plus puissants, pour guérir le cancer par exemple, tout en étant contre la superintelligence», a-t-il ajouté.
Cette action fait écho à une lettre de chercheurs et cadres du secteur de l’IA, publiée il y a un mois lors de l’assemblée générale des Nations unies, qui réclamait l’instauration d’«accords internationaux sur des lignes rouges pour l’IA» pour prévenir des effets dévastateurs pour l’humanité.