Les algorithmes composent-ils de la musique ?

Les algorithmes composent-ils de la musique ?

Dossier : ExpressionsMagazine N°773 Mars 2022
Par Robert RANQUET (72)
Par Gérard BERRY (67)

Les domaines d’application de l’intelligence arti­fi­cielle sont mul­ti­ples ; l’image en est un cas frap­pant, qui ren­con­tre un suc­cès énorme dans le ciné­ma ; qu’en est-il du son ?

Musique et algorithmes, n’est-ce pas une vieille histoire ? 

Il y a eu beau­coup de machines et d’algorithmes dans la musique bien avant l’arrivée de l’informatique, puis de l’intelligence arti­fi­cielle. Depuis les débuts avec Thomas Edi­son et Thad­deus Cahill au tour­nant du XXe siè­cle aux États-Unis, faire de la musique avec l’électricité et de l’électronique analogique a été une grande aven­ture, mer­veilleuse­ment racon­tée par Lau­rent de Wilde dans Les fous du son (Gras­set, 2016). On y a beau­coup expéri­men­té, d’abord avec des méth­odes physiques clas­siques. Puis le paysage a totale­ment changé avec les travaux d’un Roger Shep­ard aux Bell Labs dans les années 1960, qui a mis en place la représen­ta­tion infor­ma­tique du son par des suites de nom­bres, ce qui donne tout pou­voir sur sa création.
La musique numérique était née.

L’IA a énormément progressé ces dernières années dans le domaine de l’image et de la vision, avec les travaux de Yann Le Cun et d’autres sur les algorithmes d’apprentissage profond. Aura-t-on la même chose pour le son et la musique ? 

Sché­ma­tique­ment, pour faire de la musique (élec­trique, élec­tron­ique ou infor­ma­tique…), il faut tra­vailler en mode tem­porel : c’est une grande dif­férence entre le son et l’image. Pour la vision, l’œil est un cap­teur fin mais par­tiel : nous ne voyons avec une bonne réso­lu­tion que dans un cône de 6 degrés d’ouverture et nous ne voyons les couleurs que dans un angle de 60°. Ce sont les inces­sants mou­ve­ments de l’œil, asso­ciés aux algo­rithmes de traite­ment de l’information dans le cerveau, qui nous font croire que notre image est large, toute en couleurs et sta­ble (voir là-dessus l’excellent sémi­naire don­né par Botond Ros­ka au Col­lège de France). En bref, on se fait beau­coup d’illusions sur ce que veut dire réelle­ment « voir ». C’est quelque chose que con­nais­sent bien les magi­ciens, passés maîtres dans l’art de tromper notre per­cep­tion visuelle.

“Il y a eu beaucoup de machines et d’algorithmes dans la musique bien avant l’arrivée de l’informatique, puis de l’intelligence artificielle.”

Et, donc, que se passe-t-il pour le son ? 

Pour le son, c’est tout dif­férent : l’oreille est un instru­ment d’une pré­ci­sion et d’une finesse hal­lu­ci­nantes. Mais, autant on com­prend les proces­sus mécaniques de cap­ta­tion du son par l’oreille interne, autant on ignore large­ment ce qui se passe dans le cerveau pour la for­ma­tion de la per­cep­tion sonore. Au pas­sage, not­er qu’on est en présence d’un bel exem­ple de rela­tion d’incertitude de Heisen­berg entre temps et fréquence, qu’on ne peut pas maîtris­er en même temps ! (voir à ce sujet) La musique se déroule dans le temps, ce qui est très dif­férent de la vision, qui se déroule dans l’espace : quand on regarde un tableau, votre œil ne cesse de le par­courir en tous sens pour que votre cerveau en recon­stitue une image glob­ale fixe. L’oreille ne peut évidem­ment pas faire la même chose pour un morceau de musique, qui se déroule sans pos­si­bil­ité pour elle de s’arrêter ni de le par­courir. Il y a aus­si une forte influ­ence de la cul­ture dans notre per­cep­tion du son. Il suf­fit de voir com­bi­en sont dif­férentes la musique occi­den­tale et la musique indi­enne, par exem­ple, qui est mono­phonique mais qui fait des rythmes et des hau­teurs de son un usage très dif­férent et extrême­ment raffiné.

Que font aujourd’hui les algorithmes en musique ? 

Les algo­rithmes sont arrivés en fait avec les travaux de Fouri­er. Comme je le dis­ais au début de notre entre­tien, on a d’abord util­isé des algo­rithmes analogiques, élec­triques ou élec­tron­iques. La restric­tion sys­té­ma­tique à des nom­bres par Shep­ard a été une nou­veauté fon­da­men­tale. Avec le numérique, on pou­vait ne plus se con­tenter d’oscillateurs analogiques sim­ples : on pou­vait enfin vrai­ment créer des sons arbi­traires. Ce fut l’intuition de départ de Pierre Boulez avec son GRM. Les débuts furent dif­fi­ciles : il n’y avait pas vrai­ment d’ordinateurs pour tra­vailler, d’où le développe­ment de la machine 4X pour le traite­ment numérique du sig­nal, et la com­po­si­tion d’Anthèmes 2 par exem­ple. Mais le grand regret de Boulez était que le temps de la machine s’imposait à celui des instru­men­tistes. J’ai inté­gré le con­seil sci­en­tifique de l’Ircam dans les années 2010, au moment où Arshia Cont con­ce­vait le logi­ciel d’accompagnement automa­tique Antesco­fo, bâti sur l’idée inverse que l’électronique doit être fine­ment dirigée en temps réel par les hommes. Là, à l’inverse, l’ordinateur les suiv­ait en détec­tant leur tem­po en temps réel et se syn­chro­ni­sait avec eux : la musique syn­thé­tique leur obéis­sait enfin. Un bel exem­ple fut Ten­sio de Philippe Manoury créé à l’Ircam en 2010. Antesco­fo a été vite adop­té par les com­pos­i­teurs et est main­tenant aus­si disponible pour le grand pub­lic sous le nom de Metronaut.

“On surestime ce que l’IA peut faire en musique.”

Les algorithmes auraient-ils enfin tout résolu ? 

Non, il s’en faut. Par exem­ple se pose dans tout cela le prob­lème des RIM, les « réal­isa­teurs en infor­ma­tique musi­cale », qui sont le pen­dant des inter­prètes « clas­siques », mais du côté du sys­tème infor­ma­tique : com­ment écrit-on pour eux la par­tie algo­rith­mique d’une œuvre, alors qu’on peut tout y faire ? Il n’y a pas de nota­tion pour tout ! Le lan­gage habituel de la musique clas­sique, la par­ti­tion n’est en fait qu’une tab­la­ture d’instruments, avec quelques indi­ca­tions ajoutées à l’usage de l’interprète. On est loin d’avoir l’équivalent pour la par­tie infor­ma­tique, même si les tech­niques que moi-même et d’autres ont dévelop­pées pour l’informatique temps réel dans l’industrie s’y révè­lent utiles. On est devant un nou­veau prob­lème, qui est l’exact opposé de celui de l’apprentissage en IA, qui con­siste d’abord à com­pren­dre comme on fait déjà : com­ment faire quand on peut tout faire en théorie et en pra­tique ? Com­ment écrire ? Cha­cun a inven­té des syn­tax­es. Ain­si, Stock­hausen avait ses cahiers de nota­tion et Manoury fait des choses très intéres­santes en util­isant des chaînes de Markov, auto­mates finis prob­a­bilistes qui per­me­t­tent un beau mélange entre régu­lar­ité et sur­prise. Voir aus­si par exem­ple les travaux récents du com­pos­i­teur Sasha J. Blondeau, qui a bien util­isé des con­cepts math­é­ma­tiques fins emprun­tés à la topolo­gie, comme les com­plex­es sim­pli­ci­aux. Écrire est une chose, mais il faut aus­si pou­voir lire, surtout pour les inter­prètes ! Com­ment con­serv­er la part de l’intuitif, essen­tiel au math­é­mati­cien comme au musicien ?

Quel intérêt vois-tu à l’IA en musique ? 

L’IA sait bien repro­duire « à la façon de », mais il me sem­ble qu’on sures­time beau­coup ce qu’elle peut actuelle­ment faire en musique exigeante. Les chercheurs en IA sont forts, mais beau­coup d’autres gens font des annonces fra­cas­santes alors qu’ils n’en sont qu’au stade de la pre­mière explo­ration. Entre répli­ca­tion et inven­tion, le domaine de l’IA en musique est encore tout neuf. Lais­sons-le vivre et créer, sans le sous-estimer ni le surestimer !


Ressources

Sémi­naire « Opto­ge­net­ics », Botond Ros­ka, Col­lège de France, 30 mars 2016.

Sémi­naire « Une fréquence peut-elle être instan­ta­née ? », Patrick Flan­drin, Col­lège de France, 22 jan­vi­er 2014.

Sémi­naire « Prob­lé­ma­tiques liées au temps réel dans la musique », Gérard Berry et Arshia Cont, Col­lège de France, diffusé
le 4 jan­vi­er 2019 sur France Culture.

Ten­sio, Philippe Manoury

Commentaire

Ajouter un commentaire

Daniel CADErépondre
10 mars 2022 à 9 h 27 min

Bon­jour, deux com­plé­ments à cet arti­cle très intéressant
1.je voudrais rap­pel­er le rôle émi­nent de Ian­nis Xénakis qui a été le pio­nnier de la com­po­si­tion assistée par ordi­na­teur dès la fin des années 50. Il tra­vail­lait avec le CEMAMU de la Sor­bonne qui lui pro­dui­sait les mod­èles math­é­ma­tiques. Il a util­isé des algo­rithmes de pro­duc­tion des sons dans ses pre­mières com­po­si­tions, comme la musique du pavil­lon Philips de Brux­elles en 58, qui généraient des glis­san­dos fig­u­rant les droites du parab­o­loide hyper­bolique qui con­sti­tu­ait l’ar­chi­tec­ture d pavil­lon . J’ai eu la pos­si­bil­ité en tant que pianiste d’analyser Eon­ta que j’ai joué en sa présence en 1978. J’avais recon­nu dans la par­ti­tion des trans­for­ma­tions de cel­lules du 2° con­cer­to de Brahms et Ian­nis s’en été amusé !
2. En ce qui con­cerne la 4X, Pierre Boulez m’avait demandé en 1981 de faire, avec les équipes de l’ENST, un audit afin d’en envis­ager des appli­ca­tions indus­trielles. Le résul­tat a été déce­vant en ce sens que la très grande com­plex­ité de la machine ne se prê­tait pas à la minia­tur­i­sa­tion néces­saire, en l’é­tat de l’élec­tron­ique de l’époque.
Bien amicalement.

Répondre