Menu
Libération
Voyage au cœur de l'IA

«La créativité devient un objet d’étude en soi»

Gerard Assayag est en charge des représentations musicales à l’Ircam (Institut de recherche et coordination acoustique/musique).
Exemple visuel des connexions de l’intelligence digitale pour la musique. (DR)
par Mathieu Vidard
publié le 4 janvier 2018 à 8h22
A quel moment l’IA a-t-elle fait son entrée dans la création musicale et à l’Ircam en particulier ?

Les approches computationnelles de la musique sont intrinsèquement liées à l’histoire de l’informatique et les premiers exemples de génération musicale apparaissent dans les années cinquante, comme la fameuse suite Illiac de Hiller et Isaacson qui utilise des algorithmes (grammaires, chaînes de Markov) qui seront repris par l’Intelligence artificielle.

Inventé en 1958 au MIT par John McCarthy, le langage de programmation LISP, conçu pour manier des expressions symboliques, devint par ses capacités à représenter avec élégance des structures formelles, le langage privilégié de l’intelligence artificielle dans sa première phase d’existence, liée à l’approche computationnelle de la logique et du raisonnement.

En 1973 Patrick Greussay, chercheur à Vincennes et gourou de Lisp en France, expose dans sa thèse des méthodes d’intelligence artificielle au service de l’analyse d’œuvres musicales. Greussay fréquente l’Ircam dès sa création quelques années plus tard et y anime un séminaire d’informatique auquel Pierre Boulez ne dédaigne pas de participer.

Dès la fin des années soixante-dix et au début des années quatre-vingt, les chercheurs en informatique musicale de l’université de Stanford aux Etats unis et de l’Ircam en France s’emparent de ce langage pour développer des environnements créatifs pour le compositeur. FORMES écrit par Pierre Cointe, ainsi que CRIME par Gérard Assayag et Claudy Malherbe constituent à l’Ircam  les premiers environnements Lisp d’assistance à l’invention et à l’écriture musicale, qui connaîtront une nombreuse descendance tels que Esquisse, Patchwork ou OpenMusic; ce dernier toujours utilisé et en évolution. Ces environnements dans un langage de très haut niveau favorisant la modélisation de structures symboliques donneront lieu à toutes sortes d’expériences d’IA autour des grammaires génératives, de la programmation par contraintes, de la représentation des connaissances musicales.

Parallèlement, un autre fil se déroule autour du langage d’IA PROLOG inventé par Alain Comerauer à Marseille en 1972 et basé sur la logique formelle. Le langage visuel CARLA, écrit par Francis Courtot au début des années 90 à l’Ircam, était basé sur Prolog et permettait de concevoir des séquences musicales comme des raisonnements résultant de contraintes logiques.

De quelle façon aujourd’hui l’IA participe au travail des chefs d’orchestre, des musiciens et des chanteurs ?

l’IA elle-même a évolué considérablement à partir des années 80, avec le développement du connexionnisme puis le basculement, au tournant des années 90, dans une vision sub-symbolique, à partir d’une critique profonde du symbolique comme mode privilégié d’accès aux représentations mentales. Cette évolution est parallèle aux progrès des (neuro) sciences cognitives mettant en avant l’incarnation (embodiment) qui relie la connaissance aux données sensibles de la perception et de l’apprentissage plus qu’aux formalisme de la logique pure. Les récents succès de l’IA dans l’apprentissage profond (deep learning) ne font que confirmer et approfondir cette évolution à partir des réseaux connexionnistes dont les premières théorisations datent des années 40 (neurone formel de Pitts et McCulloch).

Les méthodes en informatique musicale suivent bien sur ces évolutions, notamment par une utilisation effrénée de l’apprentissage automatique (machine learning), qu’il ressorte de méthodes connexionnistes, de modèles probabilistes ou d’optimisation. Des machines d’écoutes peuvent ainsi être réalisées par exemple grâce aux modèles de Markov cachés (HMM) entraînés sur des données réelles, et, couplées à des architectures de synchronisation, elles rendent possible la coexistence souple de musiciens humains, de chanteurs, de chefs d’orchestres et d’ordinateurs sur scène autour d’une partition partagée, comme avec le programme Antescofo de l’Ircam.

L’apprentissage est aussi utilisé dans la reconnaissance du geste, la fouille de données musicales, la détection de séries temporelles organisées dans des signaux complexes comme le son orchestral, avec des applications dans la composition, l’orchestration automatique, la conception de nouveaux instruments cyber-physiques, la programmation d’agents créatifs autonomes capables d’improviser librement avec des musciens humains.

Est-ce que l’IA a rencontré des réticences de la part de certains musiciens qui se sont sentis dépossédés de leur travail ?

Le programme OMax de l'Ircam et ses descendants improvisent avec des musiciens après une phase d'apprentissage automatique sur des données musicales et une modélisation du style - notamment celui du musicien même avec qui il joue ! Cela peut évidemment engendrer des réactions contrastées. Un musicien célèbre, grand improvisateur, refuse même de l'essayer déclarant a priori qu'il est terrorisé à l'idée de jouer avec son double / miroir. Bernard Lubat qui a joué avec OMax à de nombreuses reprises et sur toutes sortes de scènes en France et à l'étranger, confesse une fascination pour cette IA facétieuse qui lui ressemble (apprentissage oblige), qui est souvent maladroite, et qui pourtant, au détour d'une phrase bouleversante, lui montre «ce qu'il serait lui-même dans 1000 ans».

Est-ce qu’à terme l’idée est de remplacer les artistes ou bien de compléter leur travail ?

Indépendamment même des aspects éthiques que cela soulève, l’idée de remplacer les artistes est aujourd’hui totalement irréaliste. N’oublions pas d’ailleurs que les deux «glaciations» qu’a connues l’IA dans son soutien institutionnel (au milieu des années 70 puis des années 80) sont intimement liées aux prévisions jugées finalement irréalistes des chercheurs. Une des raisons principales en est que l’IA est efficace quand elle modélise et met en action un secteur très délimité des capacités humaines (la vision ou la marche robotique, la génération de séquences temporelles obéissant à une structure etc). Peut-elle devrait-on parler à cet égard d’ «habileté» artificielle. L’intégration dans une intentionnalité et une créativité de type humain semble à des années-lumière. Cependant tous ces outils deviennent de formidables «compagnons» de jeu dans une interaction complémentaire avec les humains. Cela va plus loin en réalité : l’idée même d’une IA qui se constitue, apprend, progresse, et n’existe que dans une situation interactive est en train de devenir un nouveau paradigme de recherche très fécond, notamment pour les études autour de la créativité computationnelle.

Quel est aujourd’hui l’œuvre la plus aboutie découlant d’une IA?

Il n’y a pas vraiment d’œuvre découlant purement d’une IA, sans intervention humaine plus ou moins profonde, et pas toujours clairement documentée dans les publications de résultats, et il est donc très difficile d’en juger.

Quelles sont les limites d’une IA dans le domaine de la musique?

Les méthodes d’apprentissage couplées à des stratégies de contrôle sophistiquées peuvent faire des merveilles et un système artificiel peut être inventif. Cependant, les limites ont d’évidence à voir avec la notion de créativité et d’intentionnalité. En effet un apprentissage trop poussé d’exemples musicaux peut résulter une génération d’une grande cohérence, mais qui peine à sortir des cadres connus. A l’inverse, une génération moins contrainte peut facilement verser dans le versant aléatoire et être perçue comme insensée. C’est bien l’intentionnalité humaine (quand agir, pourquoi) et la créativité (quoi faire sous l’impulsion du moment ou avec une vision planificatrice) qui remédie à cela, et elles sont encore hors d’atteinte car on n’en comprend pas les mécanismes.

Est-ce que le processus créatif fait l’objet de recherche grâce aux IA ?

La créativité devient un objet d’étude en soi aux confluents des sciences cognitives, des neuro-sciences, des mathématiques, de l’informatique. Les IA, même quand elles sont maladroites voire risibles, nous apprennent toujours quelque chose par leurs manques même.

Est-ce que dans l’avenir la part de production musicale issue des IA va exploser ?

Certainement, et avec le développement du deep learning, en musique comme dans toutes les activités humaines, des sous-modules, pas forcément visibles ou explicites, de nos systèmes, de nos objets, de nos réseaux, seront confiés à l’IA. Un exemple attendu en musique est le développement d’instruments acoustiques ou électroniques «intelligents», c’est-à-dire dotés de la possibilité de prolonger ou d’accompagner le jeu du musicien en utilisant des agents «créatifs» cachés. Une première expérience a été conduite à l’Ircam lors de portes ouvertes à l’aide d’une smart-guitare (guitare augmentée de capteurs et d’actuateurs mécaniques pouvant à la fois percevoir le jeu et augmenter la réalité acoustique) couplée au logiciel d’improvisation OMax. Le résultat en était un instrument «jouant» aux deux sens du mot: produisant des sons, ce qui est le moins, mais aussi prenant l’initiative de rajouter de lignes mélodiques ou harmoniques évolutives au jeu de l’improvisateur humain.

Lire d’autres interviews dans «Voyage au cœur de l’IA», 108 pages, 10 euros, actuellement en kiosque ou disponible sur la boutique Libé.