Le 4 janvier, la MIT Technology Review, éditée par la prestigieuse université américaine, s'adonnait à l'exercice périlleux d'établir cinq prédictions pour l'année à venir dans le secteur de l'intelligence artificielle. Après trois points très techniques, et un autre assez attendu sur l'offensive chinoise, le cinquième s'intitulait : «Le contrecoup de la hype». «Difficile d'échapper au sentiment que l'engouement autour de l'IA devient un peu hors de contrôle», pouvait-on lire. Ce sentiment était à l'époque très partagé après une année 2016 marquée par la victoire du programme de Google DeepMind AlphaGo sur le champion de go, Lee Sedol. Surtout, «intelligence artificielle» avait succédé à «Web 2.0», «objets connectés» et autres «réalité virtuelle» dans le rôle du «buzzword» indispensable à toute start-up digne de ce nom pour espérer récolter quelques millions auprès d'investisseurs éblouis. Il fallait que ça retombe.
Ce n’est pas retombé. Même si AlphaGo a officiellement pris sa retraite en mai, l’intelligence artificielle est plus que jamais au cœur des préoccupations de tous les acteurs du numérique. Et pas seulement pour de lointaines promesses, mais pour des applications concrètes, que ce soit pour l’analyse des images, la traduction, ou la reconnaissance vocale, les trois axes majeurs de ces dernières années, mais aussi pour les possibilités qu’elle offre en termes d’apprentissage à partir des masses de données qui circulent aujourd’hui. L’intelligence artificielle est donc beaucoup plus qu’un mot-clé parfois surcoté, c’est une révolution en cours qui modifie, en temps réel, la topographie du paysage numérique.
A lire aussi l'interview de Yann LeCun, «monsieur IA» chez Facebook : «Il faut plus d'intelligence artificielle, pas moins»
Si tout ceci est difficile à appréhender, c'est que tout est allé très vite. Trop vite. L'intelligence artificielle existe peut-être en tant que discipline de recherche depuis 1956, mais ce n'est qu'en 2012, à la faveur du tout jeune concours d'algorithmes de reconnaissance d'images (ImageNET Challenge), que son potentiel démesuré éclate au grand jour. Des programmes classiques s'y affrontent pour espérer faire un peu mieux que 25 % de taux d'erreur (il faut reconnaître les éléments présents dans un stock d'images). En 2012, l'université de Toronto écrase tous les concurrents avec seulement 16 % de taux d'erreurs. Elle a utilisé un «réseau de neurones convolutif», une méthode d'apprentissage mise au point par le chercheur français Yann LeCun dans les années 90 (lire ci-contre) mais dont les possibilités restaient limitées, faute de puissance de calcul et de bases de données suffisamment grandes pour l'entraînement.
Cette victoire retentissante montre que tous les ingrédients sont désormais disponibles pour faire fonctionner les réseaux de neurones sur des sujets complexes. Les années suivantes, il n’y a plus que des réseaux de neurones qui concourent lors de l’ImageNET Challenge, et le taux d’erreur tombe à quelques pourcents.
En cinq petites années, l’IA a commencé, plutôt discrètement d’ailleurs, à s’immiscer dans les applications du quotidien. On peut faire une recherche genre «anniversaire» ou «neige» dans ses photos stockées en ligne ou utiliser les outils de traduction basés sur l’apprentissage machine. De la voiture autonome aux outils d’aide à la décision (économique, juridique, médicale, etc.), les directions prises par la recherche sont nombreuses.
Pour être dans le vrai, la MIT Technology Review aurait dû remplacer sa prédiction sur la fin de la hype par une nouvelle obsession, celle du débat sociétal sur l'impact de l'intelligence artificielle, notamment la problématique autour des biais présents dans les données d'apprentissage (racisme, sexisme, etc.). Ce sujet a agité la communauté scientifique durant toute l'année 2017. Comme nous l'a expliqué Blaise Agüera y Arcas, une des têtes pensantes de Google Brain : «L'IA, c'est avant tout l'apprentissage des processus humains, et ces processus embarquent avec eux des catégorisations, des stéréotypes. Nous avons aujourd'hui les preuves que tous les systèmes que nous avons entraînés pour exécuter une tâche humaine intègre des biais humains. Finalement, c'est l'outil ultime d'introspection, pour faire ressortir nos propres biais et nos propres croyances. Mais maintenant que nous le savons, nous ne pouvons pas déléguer nos préjugés aux algorithmes.» Les données, considérées, à juste titre, comme étant «le pétrole des géants du numérique», ont donc elles aussi besoin d'être affinées. Une tâche qui sera certainement confiée à d'autres systèmes autonomes. Osons, nous aussi, une prédiction : l'éthique des intelligences artificielles restera un sujet capital en 2018.