Composer l’espace sonore " href="index.php?page=backend&format=rss&ident=624" />

Logo du site de la Revue Informatique et musique - RFIM - MSH Paris Nord

Composer l’espace sonore
Trois approches en recherche-création

Alain Bonardi
décembre 2020

Résumés   

Résumé

Le titre « Composer l’espace sonore » indique qu’il est ici question de composer le son, en le pensant d’emblée dans son « espace ». La mise en espace n’est plus abordée en post-production de la création sonore. Nous recherchons bien au contraire l’impossibilité de séparer le son de son espace et donc la composition de synthèses sonores nativement « spatiales ».

Nous travaillons dans cette direction depuis 2016, selon des méthodologies de recherche-création ; cette dernière est envisagée ici comme une activité d’expérimentation de situations artistiques et techniques, d’examen critique de ce qui nous est donné par l’état de l’art – notamment les procédés –, et de production d’objets à la fois artistiques et logiciels. C’est un point de vue de musicien qui est exposé ici, centré sur la création, point d’ancrage d’une pratique de recherche interdisciplinaire ouverte.

Trois moments de recherche-création seront les jalons de ce parcours centré sur la musique mixte où viennent coexister des mondes sonores, des pratiques, des savoirs, des objets. Le premier est consacré à la composition du timbre en temps réel, avec l’exemple des pièces Fil de Soi 1 et 2 pour guitare et électronique. Le deuxième concerne le traitement spatial du son, de la 2D à la 3D, autour de Pianotronics 2 pour piano et électronique en temps réel. Le troisième temps de l’article s’intéresse à des recherches récentes menées dans le domaine de la synthèse sonore nativement spatiale, conduisant de l’installation Les Songes de la nef (2018) à la série de pièces acousmatiques Dans la Nef de nos songes (commencées en 2019).

Index   

Index de mots-clés : musique mixte, temps réel, timbre, synthèse et traitement spatial, recherche-création.

Notes de l'auteur

Cet article est issu d’une conférence présentée lors de l’édition 2019 des Journées d’informatique musicale.

Texte intégral   

Introduction

1« Composer l’espace sonore » indique clairement qu’il est question de composer le son, en le pensant d’emblée dans son « espace ». Dans cette perspective, la remarque du compositeur-chercheur John Chowning est particulièrement pertinente : « j’étais convaincu que le contexte spatial du son est tout aussi important que le son lui-même ; on entend le son, mais on sent aussi l’espace » (Chowning, 2012, p. 19). La mise en espace ne peut plus être abordée en post-production de la création sonore. Nous recherchons, bien au contraire, l’impossibilité de séparer le son de son espace. À l’opposé de démarches analytiques, qui isolent en général le phénomène selon des dimensions qui se voudraient indépendantes, nous développons des procédés synthétiques, pensant les opérations sur le son comme d’emblée spatiales.

1. Trois approches en recherche-création

2La dichotomie arts-sciences semble résister aux changements épistémologiques que proposent nos conceptions actuelles de la connaissance et de sa transmission. Cette dichotomie prend ses racines au xixe siècle, dans la distinction entre les verbes « chercher » et « rechercher ». On parle de recherche scientifique dans le fil du positivisme d’Auguste Comte, dans l’idée de mettre en évidence des lois qui sont déjà là, qu’il faut découvrir, mettre au jour et qui permettront d’expliquer et prévoir. À l’opposé, l’artiste ne découvrirait pas, ne rechercherait pas, il chercherait, inventerait, ferait émerger des singularités privées de rationalité : selon le compositeur Philippe Manoury, l’imaginaire commun considère que « l’inspiration descendrait sur le compositeur comme une lumière éclaire les ténèbres » (2017, p. 1).

Seulement, l’inspiration peut venir d’autres arts, de l’observation dans les domaines scientifiques, ou tout simplement du travail de composition lui-même : « les idées musicales peuvent aussi nous arriver par la pratique même de la composition, dans laquelle l’idée invite au travail, qui à son tour engendre une idée » comme le souligne Manoury (Id.).

3À l’opposé de cette dichotomie arts-sciences, la recherche-création en musique pose comme méthode la production d’objets à la fois artistiques et logiciels, permettant l’expérimentation sensible de situations artistiques et techniques en studio ou laboratoire ; c’est par l’écoute que seront validées les hypothèses. La recherche-création ne tente pas d’opérer des inductions dans l’idée d’accéder à des lois universelles, mais ne se contente pas non plus de simples observations éparses. Elle intègre d’emblée l’algorithmique et ses modes de construction de connaissances comme moyen de manipuler la physique et l’acoustique, contournant ainsi la rivalité entre sciences physiques et sciences algorithmiques relevée par le philosophe Michel Serres (2012). La recherche-création élabore des connaissances locales du phénomène sonore, en situation, en relation avec sa construction, associant manipulation et écoute. Elle recourt à l’examen critique de ce qui est donné a priori – notamment les procédés. Dans un second temps, ces connaissances locales sont positionnées et reliées les unes par rapport aux autres, avant de s’agréger éventuellement à d’autres champs de connaissance. Il s’agit in fine de s’adresser à une communauté.

4Pour dépasser les oppositions peu fertiles entre artistes et scientifiques, chercheurs et « rechercheurs », la recherche-création s’appuie sur la figure du compositeur-chercheur. Parmi les compositeurs-chercheurs connus qui nous inspirent, citons Jean-Claude Risset (1938-2016) et Horacio Vaggione (né en 1943), qui ont eu une grande importance dans le positionnement en recherche-création du département musique de l’université Paris 8 et du Centre de recherche informatique et création musicale (CICM). Incarnant les deux versants, recherche et création, que l’on ne devrait pas séparer, ces figures sont au cœur de ce qui rassemble notre communauté lors des Journées d’informatique musicale ou au sein de l’Association francophone d’informatique musicale : il s’agit de dépasser la division entre computer music et informatique musicale.

Les trois volets de recherche-création que nous avons choisi d’exposer dans cet article sont, comme nous l’évoquions plus haut, liés à trois de nos compositions ou cycles de compositions :

  • le premier volet est lié aux pièces Fil de Soi 1 et 2 pour guitare et électronique en temps réel (2016-2018) ; nous évoquerons la composition de « timbres » en temps réel, en donnant un sens un peu particulier au mot « timbre ».

  • le deuxième volet concerne le traitement spatial du son, de la 2D à la 3D, et a pour origine la pièce Pianotronics 2 pour piano et électronique en temps réel (2014-2015).

  • nous exposerons enfin dans le troisième volet des travaux en cours sur le sujet de la synthèse spatiale, partant de l’installation Les Songes de la nef pour aller vers la série de pièces acousmatiques Dans la Nef de nos songes.

2. Composer des « timbres » en temps réel

5Le cycle – pour l’instant composé de deux pièces, des Fil de Soi (2016-2018) – est une exploration du monde de la guitare acoustique traitée en temps réel par ordinateur. Nous nous sommes volontairement contraints à n’utiliser aucun son préenregistré de guitare, en élaborant des compositions imbriquant le son de la guitare et ses transformations en temps réel. Il s’agit d’explorer des interactions entre son acoustique et son électronique, altérant la logique de question/réponse souvent mise en œuvre en musique mixte : l’instrument énonce et l’ordinateur répond en ayant transformé la proposition du musicien. Comment transformer cette logique de procédés techniques en espace compositionnel ?

6Plusieurs approches ont été expérimentées dans cette perspective de remise en question de la causalité instrument/électronique, que ce soit au niveau de l’écriture ou de la conception des traitements. Concernant ces derniers, l’un des principaux axes de travail a été la composition de « timbres » différenciant l’instrument d’origine de ses transformations électroniques, toujours pour atténuer l’effet de question/réponse.

7À un premier niveau, le mot « timbre » renvoie bien entendu au timbre musical et particulièrement au travail sur celui de la guitare, dont les différents modes de jeu produisent une riche palette de sons, hélas souvent inaccessibles à la perception en raison de leur rayonnement acoustique faible. Au-delà de quelques mètres, il n’est plus possible de percevoir les finesses sonores des modes de jeu de l’instrument. Il y a donc un intérêt immédiat à placer la guitare dans une situation de musique mixte, pour travailler une matière riche et variée, lui donner une présence sonore inouïe en la projetant dans des haut-parleurs, en ayant opéré des transformations timbrales. Composer des « timbres » consiste donc d’abord à se saisir de la guitare acoustique comme riche générateur de potentiel sonore ouvrant un vaste espace de composition, de transformation de l’identité de l’instrument.

Figure 1. Exemple sonore : mesure 1 de Fil de Soi 1

img-1-small450.jpg

Note : guitare sur la première portée et transcription de l’électronique sur les portées suivantes. Extrait sonore, Amèlia Mazarico, guitare : https://hal.archives-ouvertes.fr/hal-02408055v1 [consulté le 30/11/2020]

Source : Alain Bonardi, Fil de Soi 1, pour guitare et électronique temps réel, mesure 1

8Dans l’exemple donné dans la figure 1, un silence de deux secondes et demi sépare la note seule de la guitare – un si aigu –, de ses transformations à hauteur déterminée (portée indiquée « Électronique ‘mélodique’ » sur la figure 1), dissociant la note de guitare de la réponse de l’électronique. Par ailleurs, deux autres types de sons proviennent de transformations timbrales de la guitare, assez éloignés du son d’origine, contribuant à une différenciation par rapport à l’instrument acoustique : une percussion ressemblant à un bongo indiquée sur la portée « Électronique ‘percussions’ » et l’équivalent de sistres ou clochettes sur la portée « Électronique ‘clochettes’ ».

9À un second niveau, le mot « timbre » renvoie à l’idée de vignette, comme dans le cas des timbres postaux. L’observation de ces derniers est souvent fascinante, révélant un monde cohérent et autonome dans l’espace d’un rectangle très réduit. Nous avons créé de petites unités, des vignettes sonores, en quelque sorte, de brefs univers temporels et fréquentiels qui sont les briques élémentaires de ces pièces.

10Le travail sur le timbre d’un instrument aussi délicat que celui de la guitare demande une grande qualité de rendu sonore qui semble a priori antinomique avec l’idée de temps réel, dont on sait qu’il ne permet pas toujours d’obtenir cette finesse, comme l’a par exemple souligné Jean-Claude Risset (1999). Pour obtenir un rendu sonore de qualité, nous avons choisi d’écrire les traitements temps réel en langage Faust (Orlarey, 2009), développé par Grame à Lyon. Ce langage permet également une explicitation des traitements temps réel et leur pérennisation1. Les deux pièces Fil de Soi sont construites sur un dispositif d’électronique temps réel développé en Faust, extrêmement simple, fondé sur un seul module instancié plusieurs fois. Ce module est une ligne à retard suivie en série d’un harmonizer, avec la possibilité d’une réinjection ; il constitue l’unité du traitement électronique (voir figure 2).

Figure 2. Bloc-diagramme du module de base (ligne à retard + harmonizer) de l’électronique des pièces Fil de Soi

img-2-small450.png

Source : Alain Bonardi, 2019

11Ce simple module ouvre déjà un vaste espace composable. L’examen critique du module, de son fonctionnement et de ses paramètres de contrôle, nous a conduit à mettre en avant un paramètre de contrôle des harmonizers, en général totalement négligé : il s’agit de la largeur temporelle de fenêtre de transposition, que la majorité des utilisateurs laissent à sa valeur moyenne, considérant que la transposition fonctionne correctement ainsi. Dès le début du travail sur ce paramètre – par essais et erreurs –, nous avons eu non seulement accès à une dimension de transposition, mais aussi de modification du timbre. C’est par ce paramètre que nous avons exploré la transformation de ce dernier, de manière très simple, permettant de créer l’équivalent d’un bongo ou de clochettes à partir d’un son joué dans le suraigu de la guitare.

12Ce module de départ est répété 16 fois, grâce à une matrice de réinjection permettant d’envoyer n’importe laquelle des 16 sorties vers n’importe laquelle des 16 entrées. La matrice comporte donc 16 fois 16, soit 256 éléments. La figure 3 montre l’interface de contrôle de l’électronique : en haut se trouvent les paramètres principaux ; à gauche, les durées des lignes à retard en millisecondes et à droite les valeurs des transpositions en midicents ; en bas à droite, la matrice de 16 par 16 pilotant les réinjections ; les autres contrôles correspondant au niveau de réinjection de chaque sortie (feedback), au pourcentage de la sortie de la ligne à retard qui va dans l’harmonizer (HVD, Harmo versus Delay) et aux niveaux en entrée (IN) et en sortie (OUT).

Figure 3. Tableau des paramètres de contrôle des 16 modules et des réinjections de l’électronique des pièces Fil de Soi

img-3-small450.png

Note : chacun des modules comportant une ligne à retard est suivi d’un harmonizer

Source : Alain Bonardi, 2019

13Le composable semble de prime abord d’une ampleur considérable, difficile à appréhender. Chacun des 16 modules possède 3 paramètres principaux : la durée du retard, la transposition, ainsi que le feedback de la ligne, ce qui donne un total de 48 valeurs. Dans cette implémentation, nous avons choisi de donner la même largeur de fenêtre temporelle de transposition à tous les modules et d’en faire le paramètre principal. Avec les 256 choix binaires (on/off) de la matrice de réinjection, on n’obtient rien de moins que 305 paramètres. Face à cette profusion, une partie importante du travail de composition consiste à réduire la combinatoire de contrôle du sonore, à se donner un petit nombre de dimensions composables que l’esprit et l’oreille peuvent appréhender et manipuler.

14La réduction peut passer par la hiérarchisation des éléments. Nous avions présenté aux Journées d’informatique 2016 une première approche (Bonardi, 2016) orientée objet du contrôle en musique mixte, mise en œuvre dans la pièce Pianotronics 3 (2016) pour piano et électronique en temps réel. Dans ce travail, les 16 modules identiques étaient, comme dans les pièces Fil de Soi, des instances d’une même classe permettant le contrôle d’une unité (ligne à retard + harmonizer). Nous avions ensuite créé d’autres classes appelées instruments, chacune associant plusieurs unités pour définir un type de transformation. Par exemple, la classe Timbales associait 4 unités : 2 lignes à retard de durée longue sans transposition et 2 harmonizers transposant vers l’extrême grave sans retard, avec une matrice 4 × 4 particulière de réinjection. Appliquée au piano, cette transformation évoquait le son de timbales d’orchestre.

15Dans les pièces Fil de Soi 1 et 2, nous reprenons une approche similaire, considérant un petit nombre d’états particuliers de l’ensemble des lignes à retard et harmonizers, ainsi que de la matrice de réinjection, et indexant ces états. L’ensemble des 16 lignes à retard et de leurs transpositions et réinjections constitue une cellule rythmico-mélodico-timbrale à partir du son de la guitare, c’est-à-dire ce que nous avons appelé « timbre » ou brève vignette. Chaque « timbre » est obtenu par la combinaison de 4 paramètres : l’index de l’état du système, la dilatation/contraction temporelle dStretch (un timbre va pouvoir être dilaté ou resserré temporellement), la dilatation/contraction fréquentielle traStretch (la fréquence d’un timbre va pouvoir être dilatée ou resserrée) et la largeur de fenêtre d’harmonizer commune aux 16 lignes que nous avons présentée ci-dessus : partis de 305 paramètres, nous avons donc réduit l’espace de contrôle à 4 paramètres significatifs musicalement.

Donnons un exemple : tout le début de Fil de Soi 1, du chiffre 1 au chiffre 5 inclus, utilise un et un seul état des modules avec les valeurs de retards et transpositions données dans la figure 4, c’est-à-dire un seul « timbre » électronique qui est simplement modulé.

Figure 4. Tableau des valeurs de durée de retard et hauteurs de transposition des 16 modules de l’électronique de Fil de Soi 1 au début de la pièce (chiffres 1 à 5 de la partition)

No de module

Durée du retard (millisecondes)

Transposition (midicents)

1

300

386

2

425

772

3

800

- 386

4

925

180

5

1300

386

6

1800

- 772

7

200

- 45

8

2300

180

9

200

0

10

500

0

11

600

0

12

1000

0

13

3000

- 500

14

2500

50

15

700

- 1000

Source : Alain Bonardi, 2019

Entre les chiffres 1 et 5 de la partition de Fil de Soi 1, seuls évoluent deux des trois autres paramètres traStretch et la largeur de fenêtre des harmonizers, selon les valeurs données à la figure 5, alors que la contraction temporelle dStretch reste constante à 0,8.

Figure 5. Évolution des 3 paramètres de contrôle principaux qui définissent l’espace composable, au cours des chiffres 1 à 5 de Fil de Soi 1

Chiffre de la partition

No de figure de l’extrait de partition

dStretch

traStretch

Largeur de fenêtre

1

1

0,8

4

24

4

6

0,8

2

22

5

7

0,8

- 1

22

Source : Alain Bonardi, 2019

16Les figures 6 et 7 donnent les extraits de la partition respectivement aux chiffres 4 et 5. Le discours de la guitare descend peu à peu depuis le suraigu du chiffre 1, pour se positionner dans le médium aigu en se densifiant au chiffre 4 (figure 6). Ce geste continue jusqu’au grave de l’instrument, atteint au chiffre 5, où le mode de jeu de l’instrument est varié, en faisant appel au pizzicato Bartók pour donner plus d’attaque et de contraste au son de la guitare, qui serait sinon très rond et trop présent dans ce registre (figure 7).

Figure 6. Extrait de Fil de Soi 1, chiffre 4

img-4-small450.jpg

Note : extrait sonore, Amèlia Mazarico, guitare : https://hal.archives-ouvertes.fr/hal-02408066v1 [consulté le 30/11/2020]

Source : Alain Bonardi, Fil de Soi 1, pour guitare et électronique temps réel, chiffre 4

17La notion de réinjection multiple, de n’importe quel module vers n’importe quel autre, joue un rôle important dans la construction de ces pièces mixtes. Elle permet, d’une part, la construction de timbres agrégés à partir de timbres élémentaires modifiant le timbre de l’instrument. Leur combinaison crée un timbre d’ensemble, encore plus éloigné de celui de la guitare, qui contribue un peu plus à séparer l’électronique de son origine instrumentale. D’autre part, certains modules ne sont pas entendus directement mais servent à engendrer des matériaux sonores qui seront envoyés vers d’autre modules. La figure 3 le montre : les lignes 9, 10, 11 et 12 ont un niveau de sortie (OUT) égal à 0. Elles ne sont donc pas diffusées dans le système de haut-parleurs. Cependant, la matrice de réinjection en bas à droite de la figure 3 indique que ces lignes 9 à 12 sont réinjectées en entrée des lignes 1 à 4 et 5 à 8, qu’elles aliment donc en matériau continu et entretenu. En effet, elles sont constituées de durées de retard faibles et d’une réinjection importante qui estompe les attaques de guitare, sans transposer le son original.

Figure 7. Extrait de Fil de Soi 1, chiffre 5

img-5-small450.jpg

Note : extrait sonore, Amèlia Mazarico, guitare : https://hal.archives-ouvertes.fr/hal-02408064v1 [consulté le 30/11/2020]

Source : Alain Bonardi, Fil de Soi 1, pour guitare et électronique temps réel, chiffre 5

18Le début de Fil de Soi 2 illustre ce propos : une simple cellule de neuvième mineure (figure 8) descendante à la guitare et ses variations progressives viennent nourrir les lignes 9 à 12 de l’électronique, qui créent un matériau continu vibré alimentant à son tour les lignes 1 à 8. À ce « timbre » composé s’ajoutent quatre échos dans le grave ressemblant à des timbales, également issus de la guitare.

Figure 8. Extrait de Fil de Soi 2, chiffres 1 à 4

img-6-small450.jpg

Note : extrait sonore, Amèlia Mazarico, guitare : https://hal.archives-ouvertes.fr/hal-02408069 [consulté le 30/11/2020]

Source : Alain Bonardi, Fil de Soi 2, pour guitare et électronique temps réel, chiffre 1 à 4

19La constitution de ce réseau, dont nous venons de montrer quelques éléments, permet d’altérer la logique question-réponse de la musique temps-réel : quand le réseau de modules et de leurs réinjections se met en place, les « timbres » élémentaires s’enchevêtrent, perdant la relation au son d’origine de la guitare. L’idée de niveaux intermédiaires de l’électronique qui ne sont pas diffusés dans les haut-parleurs nous semble importante. En outre, il arrive parfois qu’une partie de la réponse de l’ordinateur arrive au moment de la phrase suivante de guitare, voire même après, rompant ainsi la causalité question/réponse. Enfin, l’entrée de la guitare dans le système temps réel peut être prise en compte de diverses manières, en la composant dans le temps : il est possible de l’ignorer et laisser l’électronique continuer sur la base de la phrase précédente, ou de l’intégrer pour tout ou partie, par exemple en ne considérant que son attaque.

3. Le traitement spatial du son, de la 2D à la 3D

20Nous n’avons pas évoqué la spatialisation dans la partie précédente, consacrée à la composition des « timbres » en temps réel. Sa conception dans les pièces Fil de Soi s’inscrit dans l’esprit des recherches et créations que nous avons menées au CICM/Musidanse depuis 2015 et du développement de la bibliothèque HOA (high order ambisonics), dans le cadre du projet « La spatialisation du son, par et pour les musiciens » soutenu par le Labex Arts-H2H. L’une des idées les plus importantes de ce projet est l’association intime du traitement sonore et de la mise en espace. La spatialisation est modélisée entre deux situations opposées : l’approche classique par les sources ponctuelles d’un côté ; l’approche en champ diffus (Colafrancesco, 2015) de l’autre. Dans les pièces Fil de Soi, la relation des « timbres » créés à leur mise en espace procède essentiellement de leur échelle temporelle. Par exemple, dans la pièce Fil de Soi 2, les échos retardés de plusieurs secondes de la guitare transformés en timbres de timbales graves sont entendus comme des sources ponctuelles en rotation, alors que les longues tenues de l’instrument sont passées dans un granulateur appliquant un trémolo irrégulier qui construit un champ diffus. Ainsi, ce qui relève du macro-temporel est diffusé par des sources ponctuelles, alors que les phénomènes micro-temporels sont construits spatialement en champ diffus.

Figure 9. Représentation des 5 premières harmoniques circulaires d’ordre azimutal 0, -1, 1, -2 et 2 du modèle ambisonique

img-7-small450.png

Note : en rouge sont définies les parties où les fonctions sont positives et en bleu celles où les fonctions sont négatives

Source : Alain Bonardi, 2019

21Nous avons abordé de manière systématique la question de la construction du champ sonore, à partir de la mise en espace de traitements sur le son instrumental, lors du travail de recherche-création mené en 2014-2015 sur la pièce Pianotronics 2, pour piano et électronique en temps réel. Nous sommes partis du modèle ambisonique, 2D puis 3D, et donc des harmoniques spatiales (voir figure 9) que nous préférons nommer ici composantes spatiales. Comment associer ces composantes à des traitements du son que l’on va « diffracter » sur chacune d’entre elles, en décomposant le traitement sur autant de canaux que la résolution spatiale le demande ?

22Dans la bibliothèque HOA développée par le CICM/laboratoire Musidanse, l’instanciation spatiale d’un traitement est fondée sur l’objet process~ : un traitement est implémenté autant de fois qu’il y a de composantes spatiales et les contrôles de chacune des instances sont adaptés à leur numéro d’ordre. La figure 10 donne un exemple de traitement temporel de ligne à retard donné par le patch hoa.syn.delay~. L’ordre de résolution spatiale vaut 7, ce qui signifie que le système gère 2 × 7 + 1 = 15 composantes spatiales, donc 15 lignes à retard ayant un taux de réinjection de 50 % (@feedback 0.5) et une durée de retard proportionnelle à 1 000 / 15 millisecondes (le retard maximal de la dernière instance est donnée par le paramètre @deltime 1 000). Dans ce cas, la distribution des durées de retard entre composantes spatiales est linéaire, mais il est tout à fait possible d’imaginer d’autres répartitions : il s’agit là d’un des axes de la recherche menée avec Pierre Guillot (Bonardi et Guillot, 2015) en 2014-2015. Cette distribution donne une présence et une lisibilité spatiales au discours musical, avant tout par le travail de la dimension temporelle. Nous pouvons ainsi corréler intimement la création du son et sa mise en espace.

Figure 10. Copie d’écran d’un patch Max d’aide concernant le traitement hoa.syn.delay~ implémenté dans un objet hoa.2d.process~ à l’ordre 7

img-8-small450.png

Source : Alain Bonardi, 2015

23La pièce Pianotronics 2 est construite sur deux couches indépendantes d’électronique : d’une part, une synthèse granulaire à partir d’accords pré-enregistrés dans le grave du piano constituant une sorte de pédale harmonique et, d’autre part, des frequency shifters avec des lignes à retard. Ces deux processus alimentent les composantes spatiales, comme le montre la figure 11 : en deux dimensions, dans l’idée d’une projection sur huit haut-parleurs, nous avons adopté l’ordre 3 de résolution spatiale ambisonique. Les sept canaux du granulateur et les sept autres venant du bloc de frequency shifters sont ajoutés et considérés comme des composantes spatiales qu’il suffit de décoder vers le dispositif octophonique de haut-parleurs.

24Examinons chacun de ces traitements, pour montrer comment ils sont construits en détail et mis en espace. La granulation est constituée de n modules de synthèse granulaire décalés de 1/n période, n correspondant au nombre de composantes spatiales. Nous avons adapté le principe de l’overlapping utilisé notamment dans les pitchshifters pour lisser et atténuer l’empreinte des enveloppes utilisées (qui elles-mêmes servent à masquer des passages par zéro de signaux de conduite temporelle, comme les phasors). Puisque l’overlapping propose une sorte de crossfading entre des enveloppes décalées temporellement, nous conservons son principe temporel pour donner une certaine vie spatiale à la pédale grave de sons de piano enregistrés. Au lieu de fondre les sons enveloppés en un seul son mono, nous conservons les signaux décalés temporellement que nous connectons directement au décodeur ambisonique. À l’ordre 3 du modèle ambisonique en deux dimensions, nous constituons ainsi sept composantes. La corrélation entre traitement et mise en espace apparaît de manière forte : en effet, si l’on augmente la résolution spatiale de l’ambisonie, alors le nombre d’enveloppes contribuant à l’overlapping spatialisé augmente également. Nous utilisons ici l’objet process~ de la librairie HOA que nous avons évoquée. Il inclut un patch de lecture enveloppée d’échantillons en boucle présenté à la figure 12. Le traitement dépend ici de l’ordre de l’ambisonie, donc de la mise en espace, renversant l’ordre des choses.

Figure 11. Les deux traitements utilisés dans Pianotronics 2 (granulation et frequency shifters), et leur mise en espace

img-9-small450.png

Source : Alain Bonardi, 2015

Figure 12. Copie d’écran du patch Max instance du traitement de granulation par lecture enveloppée de sons de piano pré-enregistrés

img-10-small450.png

Source : Alain Bonardi, 2015

25Le deuxième traitement (voir schéma de la figure 13) est un bloc de trois frequency shifters, chacun comportant deux sorties de décalage spectral : une sortie dite positive décalant le son du piano d’une certaine fréquence vers l’aigu ; une sortie dite négative opérant au contraire ce décalage vers le grave. Chacune de ces six sorties passe à travers une ligne à retard permettant des décalages temporels et des réinjections. Ce traitement est contrôlé par trois fréquences de décalage des frequency shifters, six durées de décalage des lignes à retard et six taux de réinjection. La dernière sortie du bloc est le signal direct du piano, dont on peut varier l’intensité. Il est envoyé dans la composante H0 isotropique du modèle ambisonique. Les six sorties des frequency shifters et lignes à retard sont envoyées par les composantes H-1, H1, H-2, H2, H-3 et H3. Contrairement au granulateur que nous venons de présenter, il apparaît immédiatement que le nombre de frequency shifters ne peut varier si l’on modifie la résolution spatiale du traitement, sinon, il faudrait re-composer la pièce en ajoutant des couches de contrôle supplémentaires.

Figure 13. Schéma de principe du bloc des frequency shifters et lignes à retard dans Pianotronics 2

img-11-small450.png

Source : Alain Bonardi, 2015

26Le travail de recherche-création mené avec Pierre Guillot a consisté à concevoir et tester le passage de la pièce de deux à trois dimensions. Nous en retraçons les grandes lignes ici, renvoyant le lecteur aux détails exposés dans l’article des actes des Journées d’informatique musicale 2015 déjà cité. Partant de la version 2D de la pièce créée début 2014, la recherche a été conduite en trois étapes : en octobre-novembre 2014 (université Paris 8 et Maison des Sciences de l’Homme Paris Nord) ont été menés les premiers essais prospectifs, en élaborant un système matriciel ouvert de mapping des traitements vers les composantes spatiales ; en décembre 2014, les premiers tests ont été menés au studio multipiste (30 haut-parleurs) de la faculté de musique de l’université de Montréal sur une première version 3D du patch, avec en entrée la partie de piano enregistrée ; enfin, en avril 2015, toujours à Montréal, une deuxième version du patch 3D a été finalisée lors de séances de travail avec la pianiste Katherine Dowling.

27Nous sommes passés, dans un premier temps, d’une version 2D à l’ordre 3 avec 7 composantes circulaires à une version 3D à l’ordre 3 avec 16 composantes spatiales. Pour la granulation fondée sur le principe d’overlapping, le nombre de composantes a considérablement augmenté, passant de 7 à 16. À quelle organisation spatiale pouvons-nous relier l’ordre temporel des 16 enveloppes superposées et décalées de 1/16e de période ? La figure 14 montre les 16 composantes spatiales de l’ordre 3 en 3D dans le modèle ambisonique.

Figure 14. Composantes spatiales du modèle ambisonique 3D à l’ordre 3

img-12-small450.png

Source : Franz Zotter et Matthias Frank, « Ambisonic amplitude panning and decoding in higher orders », in Ambisonics. A Practical 3D Audio Theory for Recording, Studio Production, Sound Reinforcement, and Virtual Reality, Cham, Springer, coll. « Springer Topics in Signal Processing », 2019. DOI : https://doi.org/10.1007/978-3-030-17207-7

28Deux possibilités de mapping ont émergé rapidement : la première consiste à parcourir les composantes spatiales en commençant par celles qui sont horizontales et en continuant vers celles qui sont verticales (voir figure 15) ; la seconde consiste à les parcourir par bandes de même degré (voir figure 16).

Figure 15. Parcours des composantes spatiales de l’horizontale à la verticale

img-13-small450.png

Source : Alain Bonardi, 2015

Figure 16. Parcours des composantes spatiales par bandes de même degré

img-14-small450.png

Source : Alain Bonardi, 2015

29Après de nombreux tests en studio, nous avons choisi le premier ordre de parcours, en allant de l’horizontale à la verticale. Ce choix a été confirmé en passant à l’ordre 4 de résolution spatiale avec 25 composantes spatiales lors de nos tests au studio de la faculté de musique de l’université de Montréal.

30Concernant les frequency shifters, nous devons garder les six sorties d’origine (trois frequency shifters avec chacun une sortie positive et une sortie négative). La question est alors de savoir comment les envoyer dans les composantes spatiales en 3D. Tout d’abord, l’expérimentation en studio a montré la nécessité de travailler à l’ordre 5 en 3D, c’est-à-dire avec 36 composantes, les ordres 3 et 4 manquant de résolution spatiale. Après de nombreuses expérimentations, nous avons finalement choisi d’envoyer la ie source vers les composantes spatiales i et (-i) des bandes i, i +1, i +2, etc., comme le montre la figure 17.

Figure 17. Distribution des 6 composantes des frequency shifters vers les 36 composantes spatiales à l’ordre 5 d’ambisonie dans Pianotronics 2

img-15-small450.png

Source : Alain Bonardi, 2015

31Ce que nous avons mis en évidence dans cette démarche de recherche-création reste lié à la pièce Pianotronics 2. Toutefois, l’approche semble généralisable en séparant les traitements à base micro-temporelle, comme la granulation, qui révèlent leur potentiel en champ diffus avec une possibilité de variation de l’ordre de résolution, de ceux à base fréquentielle ou macro-temporelle comme les frequency shifters et lignes à retards utilisées comme échos, pour lesquels une solution particulière doit être imaginée. Pour ces derniers, la mise à l’échelle ou scalability n’est pas évidente : le passage de la 2D à la 3D transforme la pièce, même si la partie de piano en entrée reste rigoureusement la même.

4. La synthèse sonore spatiale

Figure 18. Photographie de l’Hôtel-Dieu de Tonnerre

img-16-small450.png

Source : Alain Bonardi, 2018

32Le dernier panneau de ce triptyque en recherche-création concerne la synthèse sonore spatiale, c’est-à-dire la mise en espace de procédés de synthèse sonore et non plus des transformations en temps réel d’un son instrumental comme dans les deux cas précédents. Cette recherche est issue de la commande d’une installation sonore conçue pour l’Hôtel-Dieu de Tonnerre en Bourgogne (voir figure 18), présentée pendant l’été 2018 et intitulée Les Songes de la nef. Nous y avions développé le concept de « prise de site » (Bonardi, 2018) musicale, en dialogue avec le philosophe Jean-Louis Déotte et ses écrits, en pensant la relation dynamique associant ce vaste lieu médiéval à la création qui y est présentée. Nous avions pensé l’installation sonore comme un instrument à construire, « un orgue imaginaire », nous référant au compositeur Helmut Lachenmann (1986, p. 134).

33Cette création était également un hommage au compositeur-chercheur Jean-Claude Risset et plus particulièrement à ses travaux sur la modélisation informatique des sons complexes, dont le plus connu est sans doute celui de cloche2 (Risset, 1969), constitué à partir de 11 partiels élémentaires mélangeant rapports harmonique (partiels à deux fois et trois fois la « fondamentale ») et inharmonique (par exemple avec deux paires de partiels en battement à 1 et 1,7 Hz).

34Nous avons étendu cette forme de synthèse de manière récursive : chacun des 11 sons élémentaires du modèle de la cloche devient à son tour le partiel de référence du calcul d’une nouvelle cloche de 11 sons. On obtient rapidement 11 × 11 = 121 sons et beaucoup plus au-delà du premier niveau (au niveau 3, 11 × 11 × 11 = 1 331 sons). La figure 19 illustre ce procédé récursif à l’ordre 2. Ce dernier permet de conserver à tous les niveaux les propriétés de la cloche, tout en ouvrant à un vaste potentiel sonore. Cette approche récursive est l’équivalent de la multiplication d’accords ou de spectres. Ici, on multiplie l’accord-spectre (ambivalence harmonie-timbre) de la cloche par lui-même. Avec un tel modèle, on pourrait très bien, par exemple, multiplier un spectre de Risset par un spectre de Chowning fondé sur le nombre d’or et proposer des alliances de timbres inédites.

Figure 19. Extension récursive du modèle de la cloche de Risset à l’ordre 2

img-17-small450.png

Source : Alain Bonardi, 2019

35La bonne marche d’une installation comme Les Songes de la nef respecte nécessairement des contraintes d’ingénierie : l’installation se devait de fonctionner tous les jours de juillet et août 2018, quelles que soient les conditions de température et d’alimentation électrique. Il y a parfois un écart entre ce que la recherche souhaiterait défricher et ce que l’ingénierie préfère assurer. L’idée d’une synthèse temps réel calculable à la volée a dû être abandonnée, au profit d’une mise en œuvre stable utilisant un fichier multipiste précalculé. Les relations entre le contenu musical et sa mise en espace ont nécessairement été figées.

36De cette installation est né un nouveau projet de recherche-création, intitulé Dans la Nef de nos songes. Nous avons repris ce que nous avions conçu pour Tonnerre en le remettant complètement à plat. Il s’agit maintenant d’aborder la question de la synthèse sonore spatiale dans un cadre de laboratoire et de studio. Alors que l’Hôtel-Dieu accueillait une installation ad hoc en lui donnant sa mesure spatiale, il s’agit de partir maintenant d’une forme de neutralité spatiale, en considérant les approches psychoacoustiques permises par l’ambisonie : désormais la nef, ce sont nos oreilles, car les composantes spatiales se mélangent à leur niveau.

37La première étape a été d’implémenter la synthèse sonore dans un patch Max s’appuyant sur un moteur écrit en langage Faust, à partir de cette idée de multiplication de spectres ou accords. Nous avons spécifié un certain nombre de paramètres de contrôle pour permettre toutes sortes de manipulations, par exemple multiplier un spectre issu du modèle de la cloche de Risset par un spectre issu du modèle de Chowning fondé sur le nombre d’or, comme dans Stria3, la pièce de ce dernier. La figure 20 montre deux choix possibles de spectres.

Figure 20. Exemples de choix pour la synthèse

img-18-small450.png

Note : À gauche, la multiplication d’un spectre d’une cloche de Risset (level 1) par lui-même (level 2). À droite, la multiplication d’un spectre de cloche de Risset (level 1) par un spectre proposé par Chowning sur la base du nombre d’or dans son œuvre Stria.

Source : Alain Bonardi, 2019

38Ce type de génération de matériau spectral produit trois sortes de partiels : des doublons (car la multiplication est commutative), des battements (zones de moins de 20 Hz de largeur denses en partiels) et des fréquences isolées. Dans la configuration de gauche de la figure 20, 72 partiels sur les 121 sont regroupés dans 17 zones de moins de 20 Hz, 49 fréquences sont isolées et 36 apparaissent en double. Toutefois, la configuration spectrale n’est pas le seul aspect à prendre en compte : la conduite temporelle est fondamentale et va permettre de construire des relations avec la conduite spatiale. Nous avons conservé les profils d’attaque et d’extinction du modèle de Risset, mais ajouté une distribution temporelle des attaques qui sont décalées à l’intérieur d’une fenêtre dont la largeur est réglable. Les attaques se trouvent « pulvérisées » dans le temps : pour chacun des 121 partiels, une date d’attaque est tirée au sort (avec un générateur uniforme) à l’intérieur d’une certaine plage conditionnée par la largeur de fenêtre. Si cette dernière vaut 0, tous les sons sont attaqués ensemble ; si elle vaut 5 000 millisecondes, la synthèse égrène les 121 sons sur 5 secondes.

39Comment distribuer ces 121 partiels dotés de leurs comportements temporels dans les composantes spatiales ambisoniques ? Nous avons créé pour cela une matrice de mapping des 121 sons vers les différentes composantes spatiales, avec plusieurs types de répartition ou spatial dispatching. La figure 21 montre une copie d’écran du patch Max qui nous sert de « laboratoire » d’expérimentation et de composition. Sur la figure, nous travaillons à l’ordre 3 d’ambisonie en 2 dimensions et nous manipulons donc 7 composantes spatiales. Dans la configuration choisie (paramètres du spatial dispatching dans le deuxième cadre à gauche de l’écran : ‘by bell’ et ‘increasing’), les 121 sons sont groupés 11 par 11, en conservant les partiels par cloche de niveau 2 de la synthèse récursive telle qu’explicitée sur la figure 19. Ainsi, les 11 premiers sons de la première cloche sont affectés à la composante spatiale isotropique H0, et ainsi de suite. On constate que le résultat est assez équilibré spectralement et spatialement.

Figure 21. Exemples de choix pour la synthèse : affectation de chaque ‘cloche’ de 11 sons à une composante spatiale (spatial dispatching ‘by bell – increasing’)

img-19-small450.png

Extrait binaural, à écouter au casque : https://hal.archives-ouvertes.fr/hal-02408076 [consulté le 30/11/2020]

Source : Alain Bonardi, 2019

40Si nous modifions un seul paramètre, en choisissant par exemple un sens de distribution des composantes spatiales décroissant (decreasing, voir figure 22), alors qu’il était jusque-là croissant (increasing), le rendu sonore est modifié, alors que la source sonore n’a pas été altérée : en effet, les 121 partiels conservent les mêmes valeurs de fréquence, les mêmes dates d’attaque et les mêmes profils temporels d’attaque et d’extinction. La comparaison des deux rendus sonores en stéréo binaurale est intéressante : dans le cas de la distribution décroissante, le complexe sonore semble perdre le grave de la distribution croissante et apparaît comme s’il était filtré. Pourtant, les fréquences graves sont tout aussi présentes dans la synthèse. De plus, l’espace de diffusion semble s’être resserré autour du centre. C’est bien la mise en espace qui produit ce phénomène de filtrage et de resserrement spatial.

Figure 22. Modification du sens de distribution des composantes spatiales (désormais décroissant) par rapport à la figure 21

img-20-small450.png

Extrait binaural, à écouter au casque : https://hal.archives-ouvertes.fr/hal-02408079v1 [consulté le 30/11/2020]

Source : Alain Bonardi, 2019

41Nous avons défini d’autres manières de distribuer les partiels vers les composantes spatiales : le mode ‘by freq – increasing’ classe les 121 fréquences du spectre généré de la plus grave à la plus aiguë et répartit les fréquences linéairement dans les fonctions spatiales. La figure 23 montre la matrice de mapping qui en résulte. Le résultat sonore se rapproche de celui obtenu dans la première situation, par ‘cloche’ de 11 partiels : en effet, ces 11 cloches de 11 sons (voir figure 19) étaient réparties du grave à l’aigu, avec parfois des chevauchements (partiels aigus d’un groupe plus élevés que les partiels graves du suivant), mais finalement une distribution proche du classement exact par fréquences. Le résultat sonore est de nouveau assez équilibré spectralement.

Figure 23. Répartition des partiels par fréquence croissante

img-21-small450.png

Extrait binaural, à écouter au casque : https://hal.archives-ouvertes.fr/hal-02408091 [consulté le 30/11/2020]

Source : Alain Bonardi, 2019

42Un autre mode de distribution s’intéresse aux dates d’attaque des 121 partiels qui sont contraintes par la fenêtre temporelle présentée ci-dessus. Ceux-ci sont classés par date d’attaque croissante ou décroissante et, à partir de ce tri, répartis dans les différentes composantes spatiales. La figure 24 montre cette distribution. À l’écoute, le résultat est encore différent et donne l’impression que les battements ont disparu. Cela peut se comprendre, car le classement par date d’attaque (choisie aléatoirement) peut séparer des partiels pourtant proches en fréquence et qui ne sont pas affectés à la même composante spatiale.

Figure 24. Répartition des partiels par date d’attaque croissante

img-22-small450.png

Extrait binaural, à écouter au casque : https://hal.archives-ouvertes.fr/hal-02408096 [consulté le 30/11/2020]

Source : Alain Bonardi, 2019

Arrivés à cette première étape dans l’écoute comparative, nous pouvons déjà proposer les hypothèses suivantes :

  • bien que ce soit évident, il faut souligner que la mise en espace d’un son de synthèse complexe le rend plus intéressant, plus vivant, que sa simple diffusion en mono ;

  • à paramètres de synthèse identiques, le choix de la distribution spatiale, c’est-à-dire la répartition des partiels dans les composantes spatiales, est fondamental. Il provoque en effet des phénomènes de filtrage et de masquage spectral ainsi que des modifications du rendu spatial ;

  • la synthèse additive, qui est à la base de la constitution du son complexe présenté (par multiplication de spectres), trouve une corrélation assez « naturelle » avec le modèle ambisonique, que l’on pourrait qualifier de mise en espace « additive » par combinaison des composantes spatiales ;

  • même si le temps n’apparaît pas explicitement dans le mapping entre partiels et composantes spatiales, la dimension temporelle joue un rôle important par le jeu des décorrélations multiples entre sons élémentaires qui contribuent à la création d’un champ diffus au sein du champ sonore ;

  • Il convient maintenant de tester la possibilité de mise à l’échelle du dispositif, de sa scalability. Les propriétés sonores sont-elles conservées lorsque l’on augmente l’ordre d’ambisonie ? ou lorsque l’on passe de la 2D à la 3D ?

43Dans les mois qui viennent, nous aborderons ces possibilités de mise à l’échelle du dispositif. Nous travaillerons également sur la comparaison de plusieurs distributions temporelles aléatoires des dates d’attaques des parties. Nous réfléchirons enfin à des paramètres de haut niveau de pilotage du mapping entre partiels et composantes spatiales, comme par exemple la possibilité de geler ou dégeler le champ acoustique, en diminuant ou augmentant la part du champ diffus dans le champ sonore.

Conclusion

44Nous avons montré trois moments de recherche-création consacrés à l’exploration de la composition de l’espace sonore, associant intimement la transformation (projets Fil de Soi et Pianotronics 2) et la synthèse (projet Dans la Nef de nos songes) des sons à leur mise en espace. Si les propositions musicales résultantes sont singulières, elles partagent un socle méthodologique commun fondé sur la mise à distance, la modélisation, l’expérimentation et l’écoute critique. Entre composition et recherche, cette perspective nous a nourri depuis plusieurs années et continue à ouvrir des chemins de synthèse au sens large, où surgissent des entités complexes qui dépassent la juxtaposition de leurs constituants pourtant toujours explicités, où le son ne se donne à percevoir que dans son essence temporelle, spectrale et spatiale.

Bibliographie   

Bonardi Alain (2016), « Composition mixte à base de traitements et contrôles orientés objet – Exemple de mise en œuvre dans Pianotronics 3 », in Actes des Journées d’Informatique Musicale 2016, GMEA – Centre National de Création Musicale d’Albi, 31 mars-2 avril, p. 32-36. URL : http://jim2016.gmea.net/actes [consulté le 06/10/2020]

Bonardi Alain (2018), « Les Songes de la nef, pour une “prise de site” musicale et sonore », Appareil, no 20. DOI : https://doi.org/10.4000/appareil.2873

Bonardi Alain et Guillot Pierre (2015), « Concevoir des traitements ambisoniques en 2D et en 3D – l’exemple de Pianotronics 2 », in Caroline Traube, Pierre Michaud et Julie Delisle (dir.), Actes des Journées d’Informatique Musicale 2015 [en ligne], Montréal, Observatoire interdisciplinaire de création et de recherche en musique (OICRM). URL : https://www.erudit.org/fr/livres/hors-collection/actes-journees-dinformatique-musicale-2015--978-2-9816628-0-4/004416co/ [consulté le 06/10/2020]

Chowning John (2012), « Avant-propos », trad. de l’anglais L. Pottier, in Laurent Pottier (dir.), La spatialisation des musiques électroacoustiques, Saint-Étienne, Publications de l’université de Saint-Étienne, 2012, p. 19-21.

Colafrancesco Julien (2015), « Spatialisation de sources auditives étendues : applications musicales avec la bibliothèque HOA », thèse de doctorat en esthétique, sciences et technologies des arts, sous la direction d’Anne Sèdes, Université Paris 8.

Lachenmann Helmut (2009), « De la composition » [1986], trad. de l’allemand M. Kaltenecker, in Écrits et entretiens, textes choisis et préfacés par Martin Kaltenecker, Genève, Éditions Contrechamps, coll. « Écrits, entretiens ou correspondances », p. 129-141.

Manoury Philippe (2017), L’invention de la musique, Paris, Collège de France, Fayard, coll. « Leçons inaugurales ».

Orlarey Yann, Fober Dominique et Letz Stéphane (2009), « FAUST: an efficient functional approach to DSP programming », in Gérard Assayag et Andrew Gerzso (dir.), New Computational Paradigms for Computer Music, Paris, Ircam-Centre Pompidou, Sampzon, Delatour France, coll. « Musique-sciences », p. 65-96.

Risset Jean-Claude (1969), An Introductory Catalogue of Computer Synthesized Sounds, Murray Hill (NJ), Bell Telephone Laboratories, GRC-11874.

Risset Jean-Claude (1999), « Composing in real-time? », Contemporary Music Review, vol. 18, no 3, p. 31-39. DOI : https://doi.org/10.1080/07494469900640331

Serres Michel (2012), Petite poucette, Paris, Le Pommier, coll. « Manifestes ».

Notes   

1 Il faut mentionner ici l’initiative – encore à ses débuts –, d’un portail de pièces musicales électroacoustiques et mixtes faisant appel au langage Faust, lancée par plusieurs personnes dont Yann Orlarey (Grame) et João Svidzinski (CICM/Musidanse, Université Paris 8). Ce portail documenterait les compositions avec électronique, rendrait leur code Faust accessible et permettrait de les mettre en relation.

2 Extrait sonore : https://hal.archives-ouvertes.fr/hal-02408073v1 [consulté le 30/11/2020]

3 Analyse de Stria de John Chowning par Laura Zattra, disponible en ligne : http://brahms.ircam.fr/analyses/Stria/ [consulté le 10/12/2019]

Citation   

Alain Bonardi, «Composer l’espace sonore», Revue Francophone d'Informatique et Musique [En ligne], Numéros, n° 7-8 - Culture du code, mis à  jour le : 04/01/2021, URL : https://revues.mshparisnord.fr:443/rfim/index.php?id=624.

Auteur   

Quelques mots à propos de :  Alain Bonardi

Maître de Conférences HDR, Centre de recherche informatique et création musicale (CICM)/laboratoire Musidanse, Université Paris 8 ; alain.bonardi@univ-paris8.fr, https://orcid.org/0000-0001-7647-8156