Les algorithmes composent-ils de la musique ?

Les algorithmes composent-ils de la musique ?

Dossier : ExpressionsMagazine N°773 Mars 2022
Par Robert RANQUET (72)
Par Gérard BERRY (67)

Les domaines d’application de l’intelligence arti­fi­cielle sont mul­tiples ; l’image en est un cas frap­pant, qui ren­contre un suc­cès énorme dans le ciné­ma ; qu’en est-il du son ?

Musique et algorithmes, n’est-ce pas une vieille histoire ? 

Il y a eu beau­coup de machines et d’algorithmes dans la musique bien avant l’arrivée de l’informatique, puis de l’intelligence arti­fi­cielle. Depuis les débuts avec Tho­mas Edi­son et Thad­deus Cahill au tour­nant du XXe siècle aux États-Unis, faire de la musique avec l’électricité et de l’électronique ana­lo­gique a été une grande aven­ture, mer­veilleu­se­ment racon­tée par Laurent de Wilde dans Les fous du son (Gras­set, 2016). On y a beau­coup expé­ri­men­té, d’abord avec des méthodes phy­siques clas­siques. Puis le pay­sage a tota­le­ment chan­gé avec les tra­vaux d’un Roger She­pard aux Bell Labs dans les années 1960, qui a mis en place la repré­sen­ta­tion infor­ma­tique du son par des suites de nombres, ce qui donne tout pou­voir sur sa création.
La musique numé­rique était née.

L’IA a énormément progressé ces dernières années dans le domaine de l’image et de la vision, avec les travaux de Yann Le Cun et d’autres sur les algorithmes d’apprentissage profond. Aura-t-on la même chose pour le son et la musique ? 

Sché­ma­ti­que­ment, pour faire de la musique (élec­trique, élec­tro­nique ou infor­ma­tique…), il faut tra­vailler en mode tem­po­rel : c’est une grande dif­fé­rence entre le son et l’image. Pour la vision, l’œil est un cap­teur fin mais par­tiel : nous ne voyons avec une bonne réso­lu­tion que dans un cône de 6 degrés d’ouverture et nous ne voyons les cou­leurs que dans un angle de 60°. Ce sont les inces­sants mou­ve­ments de l’œil, asso­ciés aux algo­rithmes de trai­te­ment de l’information dans le cer­veau, qui nous font croire que notre image est large, toute en cou­leurs et stable (voir là-des­sus l’excellent sémi­naire don­né par Botond Ros­ka au Col­lège de France). En bref, on se fait beau­coup d’illusions sur ce que veut dire réel­le­ment « voir ». C’est quelque chose que connaissent bien les magi­ciens, pas­sés maîtres dans l’art de trom­per notre per­cep­tion visuelle.

« Il y a eu beaucoup de machines et d’algorithmes dans la musique bien avant l’arrivée de l’informatique, puis de l’intelligence artificielle. »

Et, donc, que se passe-t-il pour le son ? 

Pour le son, c’est tout dif­fé­rent : l’oreille est un ins­tru­ment d’une pré­ci­sion et d’une finesse hal­lu­ci­nantes. Mais, autant on com­prend les pro­ces­sus méca­niques de cap­ta­tion du son par l’oreille interne, autant on ignore lar­ge­ment ce qui se passe dans le cer­veau pour la for­ma­tion de la per­cep­tion sonore. Au pas­sage, noter qu’on est en pré­sence d’un bel exemple de rela­tion d’incertitude de Hei­sen­berg entre temps et fré­quence, qu’on ne peut pas maî­tri­ser en même temps ! (voir à ce sujet) La musique se déroule dans le temps, ce qui est très dif­fé­rent de la vision, qui se déroule dans l’espace : quand on regarde un tableau, votre œil ne cesse de le par­cou­rir en tous sens pour que votre cer­veau en recons­ti­tue une image glo­bale fixe. L’oreille ne peut évi­dem­ment pas faire la même chose pour un mor­ceau de musique, qui se déroule sans pos­si­bi­li­té pour elle de s’arrêter ni de le par­cou­rir. Il y a aus­si une forte influence de la culture dans notre per­cep­tion du son. Il suf­fit de voir com­bien sont dif­fé­rentes la musique occi­den­tale et la musique indienne, par exemple, qui est mono­pho­nique mais qui fait des rythmes et des hau­teurs de son un usage très dif­fé­rent et extrê­me­ment raffiné.

Que font aujourd’hui les algorithmes en musique ? 

Les algo­rithmes sont arri­vés en fait avec les tra­vaux de Fou­rier. Comme je le disais au début de notre entre­tien, on a d’abord uti­li­sé des algo­rithmes ana­lo­giques, élec­triques ou élec­tro­niques. La res­tric­tion sys­té­ma­tique à des nombres par She­pard a été une nou­veau­té fon­da­men­tale. Avec le numé­rique, on pou­vait ne plus se conten­ter d’oscillateurs ana­lo­giques simples : on pou­vait enfin vrai­ment créer des sons arbi­traires. Ce fut l’intuition de départ de Pierre Bou­lez avec son GRM. Les débuts furent dif­fi­ciles : il n’y avait pas vrai­ment d’ordinateurs pour tra­vailler, d’où le déve­lop­pe­ment de la machine 4X pour le trai­te­ment numé­rique du signal, et la com­po­si­tion d’Anthèmes 2 par exemple. Mais le grand regret de Bou­lez était que le temps de la machine s’imposait à celui des ins­tru­men­tistes. J’ai inté­gré le conseil scien­ti­fique de l’Ircam dans les années 2010, au moment où Arshia Cont conce­vait le logi­ciel d’accompagnement auto­ma­tique Antes­co­fo, bâti sur l’idée inverse que l’électronique doit être fine­ment diri­gée en temps réel par les hommes. Là, à l’inverse, l’ordinateur les sui­vait en détec­tant leur tem­po en temps réel et se syn­chro­ni­sait avec eux : la musique syn­thé­tique leur obéis­sait enfin. Un bel exemple fut Ten­sio de Phi­lippe Manou­ry créé à l’Ircam en 2010. Antes­co­fo a été vite adop­té par les com­po­si­teurs et est main­te­nant aus­si dis­po­nible pour le grand public sous le nom de Metronaut.

“On surestime ce que l’IA peut faire en musique.”

Les algorithmes auraient-ils enfin tout résolu ? 

Non, il s’en faut. Par exemple se pose dans tout cela le pro­blème des RIM, les « réa­li­sa­teurs en infor­ma­tique musi­cale », qui sont le pen­dant des inter­prètes « clas­siques », mais du côté du sys­tème infor­ma­tique : com­ment écrit-on pour eux la par­tie algo­rith­mique d’une œuvre, alors qu’on peut tout y faire ? Il n’y a pas de nota­tion pour tout ! Le lan­gage habi­tuel de la musique clas­sique, la par­ti­tion n’est en fait qu’une tabla­ture d’instruments, avec quelques indi­ca­tions ajou­tées à l’usage de l’interprète. On est loin d’avoir l’équivalent pour la par­tie infor­ma­tique, même si les tech­niques que moi-même et d’autres ont déve­lop­pées pour l’informatique temps réel dans l’industrie s’y révèlent utiles. On est devant un nou­veau pro­blème, qui est l’exact oppo­sé de celui de l’apprentissage en IA, qui consiste d’abord à com­prendre comme on fait déjà : com­ment faire quand on peut tout faire en théo­rie et en pra­tique ? Com­ment écrire ? Cha­cun a inven­té des syn­taxes. Ain­si, Stock­hau­sen avait ses cahiers de nota­tion et Manou­ry fait des choses très inté­res­santes en uti­li­sant des chaînes de Mar­kov, auto­mates finis pro­ba­bi­listes qui per­mettent un beau mélange entre régu­la­ri­té et sur­prise. Voir aus­si par exemple les tra­vaux récents du com­po­si­teur Sasha J. Blon­deau, qui a bien uti­li­sé des concepts mathé­ma­tiques fins emprun­tés à la topo­lo­gie, comme les com­plexes sim­pli­ciaux. Écrire est une chose, mais il faut aus­si pou­voir lire, sur­tout pour les inter­prètes ! Com­ment conser­ver la part de l’intuitif, essen­tiel au mathé­ma­ti­cien comme au musicien ?

Quel intérêt vois-tu à l’IA en musique ? 

L’IA sait bien repro­duire « à la façon de », mais il me semble qu’on sur­es­time beau­coup ce qu’elle peut actuel­le­ment faire en musique exi­geante. Les cher­cheurs en IA sont forts, mais beau­coup d’autres gens font des annonces fra­cas­santes alors qu’ils n’en sont qu’au stade de la pre­mière explo­ra­tion. Entre répli­ca­tion et inven­tion, le domaine de l’IA en musique est encore tout neuf. Lais­sons-le vivre et créer, sans le sous-esti­mer ni le surestimer !


Ressources

Sémi­naire « Opto­ge­ne­tics », Botond Ros­ka, Col­lège de France, 30 mars 2016.

Sémi­naire « Une fré­quence peut-elle être ins­tan­ta­née ? », Patrick Flan­drin, Col­lège de France, 22 jan­vier 2014.

Sémi­naire « Pro­blé­ma­tiques liées au temps réel dans la musique », Gérard Ber­ry et Arshia Cont, Col­lège de France, diffusé
le 4 jan­vier 2019 sur France Culture.

Ten­sio, Phi­lippe Manoury

Commentaire

Ajouter un commentaire

Daniel CADErépondre
10 mars 2022 à 9 h 27 min

Bon­jour, deux com­plé­ments à cet article très intéressant
1.je vou­drais rap­pe­ler le rôle émi­nent de Ian­nis Xéna­kis qui a été le pion­nier de la com­po­si­tion assis­tée par ordi­na­teur dès la fin des années 50. Il tra­vaillait avec le CEMAMU de la Sor­bonne qui lui pro­dui­sait les modèles mathé­ma­tiques. Il a uti­li­sé des algo­rithmes de pro­duc­tion des sons dans ses pre­mières com­po­si­tions, comme la musique du pavillon Phi­lips de Bruxelles en 58, qui géné­raient des glis­san­dos figu­rant les droites du para­bo­loide hyper­bo­lique qui consti­tuait l’ar­chi­tec­ture d pavillon . J’ai eu la pos­si­bi­li­té en tant que pia­niste d’a­na­ly­ser Eon­ta que j’ai joué en sa pré­sence en 1978. J’a­vais recon­nu dans la par­ti­tion des trans­for­ma­tions de cel­lules du 2° concer­to de Brahms et Ian­nis s’en été amusé !
2. En ce qui concerne la 4X, Pierre Bou­lez m’a­vait deman­dé en 1981 de faire, avec les équipes de l’ENST, un audit afin d’en envi­sa­ger des appli­ca­tions indus­trielles. Le résul­tat a été déce­vant en ce sens que la très grande com­plexi­té de la machine ne se prê­tait pas à la minia­tu­ri­sa­tion néces­saire, en l’é­tat de l’élec­tro­nique de l’époque.
Bien amicalement.

Répondre