Depuis des mois, elle est attendue comme le messie. Stimule les cerveaux de la Silicon Valley. Et excite l’imaginaire des amoureux de science-fiction : l’intelligence artificielle générale (IAG). Sam Altman, le PDG d’OpenAI, la société à l’origine de ChatGPT, prédit son arrivée dans «un avenir raisonnablement proche». Google met le paquet pour s’en saisir en premier. Jeudi 18 janvier, Meta a à son tour officialisé son entrée dans la compétition. Une interrogation au milieu de cette course reste toutefois en suspens : mais qu’est-ce que l’IAG ?
Certains évoquent une intelligence équivalente à la nôtre. D’autres la considèrent comme supérieure. Interrogé par The Verge, même Mark Zuckerberg botte en touche : «Je n’ai pas de définition concise en une seule phrase.» Auprès de Libé, Pierre-Carl Langlais, chercheur en humanités numériques et en data science chez opsci.ai, se frotte à cette question épineuse et souligne à quel point les spécialistes de l’IA s’y piquent.
Concrètement, qu’est-ce que l’«intelligence artificielle générale» ?
Ce concept est très vieux et remonte aux années 40. Les gens n’en ont pas forcément conscience, mais la plupart des outils que l’on utilise en IA sont assez anciens. Le premier article sur les réseaux de neurones artificiels remonte par exemple à 1942. A cette époque, tout le monde était déjà convaincu que l’on allait réussir à mettre sur pied dans les années à venir des algorithmes aussi intelligents que des humains et pourvus d’autonomie. Soit ce que l’on appelle aujourd’hui une IAG. Concrètement, cela veut dire que l’IA pourrait réaliser n’importe quelle tâche sans restriction. Elle pourrait par exemple coder, trouver seule l’origine des bugs et les résoudre. En robotique, un robot nettoyeur de rue serait, en cas d’imprévu, en mesure de s’adapter sans intervention humaine.
A lire aussi
Les récents progrès de l’IA semblent fulgurants. Où en est-on dans cette quête à l’«intelligence artificielle générale» ?
Une blague circule parmi les spécialistes qui dit que, dans les années 40, on promettait l’IAG pour dans trente ans. La prédiction reste la même aujourd’hui. A l’heure actuelle, on ne parvient pas à faire une intelligence autonome. Même des outils comme GPT-3, l’un des modèles d’OpenAI, n’y arrivent pas. Certes, le domaine a progressé. Depuis cinquante ans, on avait affaire à une IA classique, aussi appelée «symbolique». C’est-à-dire programmée par un algorithme auquel on donne une série d’ordres. Désormais, dans la lignée de ChatGPT, les grands modèles de langue sont probabilistes. Ils ont appris à partir d’une multitude de textes et en tirent des déductions vraisemblables pour répondre. Pour autant, ils ne sont pas en mesure de trouver seuls la meilleure décision.
A quoi cela est-il dû ?
En partie au fait qu’ils sont limités en termes de mémoire. Ainsi, ChatGPT pourrait mémoriser entre 4 000 et 5 000 mots. Il est capable d’écrire une très courte histoire mais il ne peut pas faire de roman. L’IAG, elle, pourrait. Par conséquent, aujourd’hui, les spécialistes de l’IA sont en phase d’introspection. Au-delà de la hype, il y a une crise de réalité qui traverse le domaine et on se demande dans quelle mesure on ne touche pas aux limites d’un paradigme.
Si l’IAG est aussi difficile à atteindre, pourquoi Meta, Google ou encore OpenAI la portent-ils en étendard ?
Depuis le début, avec l’IA, on joue sur les mots et sur le flou des définitions. Dans l’IAG, il y a du marketing science-fictionnel avec l’idée d’une IA qui se réveille du jour au lendemain et qui se retrouve dotée d’une conscience. Dans le cas de Meta, je pense aussi que par «IAG» Mark Zuckerberg fait peut-être davantage référence à l’IA multimodale, composée d’algorithmes capables de comprendre du son, des images ou de la vidéo. Pour le coup, c’est un domaine dont on commence déjà à avoir un aperçu. C’est un objectif réaliste qui devrait aboutir dans les prochaines années.
A lire aussi
Certains spécialistes, à l’image d’un des pères fondateurs de l’IA, Geoffrey Hinton, ont alerté sur les risques accrus de désinformation, de pertes d’emploi voire de survie qu’encourait l’humanité face à une IAG. Qu’en pensez-vous ?
Je pense qu’agiter ces peurs, c’est limite marketing aussi. Car c’est une manière d’insister sur les capacités incroyables de ces modèles. En réalité, ça ne m’inquiète pas tellement. L’éventuel développement d’une IAG s’annonce tellement long, tellement graduel. Les phénomènes d’autonomisation et de conscientisation ne vont pas arriver du jour au lendemain. Ça laisse largement le temps d’élaborer une stratégie d’alignement afin de s’assurer que ces outils sont bien contrôlés.
Vous évoquiez un changement de paradigme dans la recherche en IA. Si ce n’est pas vers une IAG, vers quel objectif les entreprises devraient-elles concentrer leurs efforts ?
C’est compliqué. Un changement s’opère depuis deux ou trois ans. Avant, on était sur des systèmes réalisant un ensemble de tâches assez limité. Aujourd’hui, avec ChatGPT, on a eu une explosion et une diversification énorme des usages. Je pense que la direction vers laquelle on va, c’est une sorte d’IA toujours spécialisée mais enrichie par ces dernières innovations. Ça me semble nécessaire pour résoudre un problème de confiance en ces technologies. On manque de traçabilité quant aux réponses fournies par ces IA. Il faut qu’on sache précisément pourquoi ces outils ont pris telle décision à tel moment, que l’on connaisse les sources de leurs réponses et pour cela il faudrait que les entreprises révèlent les données – jusqu’à présent secrètes – sur lesquelles elles les entraînent. Donc il faut respécialiser les modèles : c’est-à-dire qu’on en prend des très généralistes que l’on réentraîne sur des tâches très précises et très délimitées. Ainsi, les IA conserveraient leur capacité généraliste, mais cela permettrait de rectifier le tir afin de mieux les canaliser et les documenter.