• Aucun résultat trouvé

Auditorium de Gennevilliers

4.3.3 Le choix de l’interaction

Les utilisations, les apports ou les contributions de l’informatique dans le domaine de la musique sont multiples et l’interaction – au sens fort, l’interaction « instrumentale » – ne concerne qu’une partie de ceux-ci. Notre position sur ce sujet se rapproche fortement de la position manourienne, tranchée mais dotée d’un fort potentiel fondateur :

La musique doit être, pour moi, soumise à une interprétation. Le concept d’in-teractivité est le seul qui réunisse les possibilités sonores de l’électroacoustique avec celles de l’interprétation. [Manoury, 1992, p. 44]

Depuis les débuts de la musique électroacoustique, les modalités du concert et de la diffusion ont bien changé, au fil des progrès technologiques, des réussites et des échecs. En particulier, Frédéric Durieux rappelle de façon critique l’éviction de l’interprète pratiquée par nombre d’œuvres, son impact et le type de prise de conscience associée :

La solution adoptée [par les premiers studios électroacoustiques et les instituts de recherche pour faire connaître les œuvres électroacoustiques] fut de plonger la salle dans une lumière tamisée, pour créer l’ambiance, et de placer les auditeurs au milieu d’une armada de haut-parleurs aussi amènes et expressifs qu’un distributeur de boisson. On s’aperçu alors que le concert ne sollicite pas seulement l’oreille mais qu’on a plaisir à voir qui fait quoi et comment. [...] l’absence d’événements concrets rappelle que le concert est un échange d’énergie entre celui qui joue et celui qui écoute. [Durieux, 1992, p. 92]

La conscience de l’importance de cet échange et de l’importance de la présence de l’in-terprète – comme médiateur et comme médiation entre l’œuvre et le public –, constitue la raison première de notre choix pour l’interaction dans notre travail avec l’informa-tique. Car nous n’ignorons pas que l’informatique musicale présente une inclination pour l’auto-suffisance au moins équivalente aux moyens de l’époque prénumérique, dès qu’on considère le potentiel de l’algorithmique entre autres, comme en témoigne l’efficacité des installations sonores informatisées qui fleurissent avec bonheur.

De fait, l’algorithmique ne saurait davantage se substituer à l’humain qu’un mur de haut-parleurs diffusant une bande magnétique seule. Pour reprendre les propos d’Antonia Soulez8, un programme pourrait être défini comme « intentionnalité gelée ». Ce « gel » constitue la deuxième raison pour laquelle nous avons choisi d’explorer des chemins de l’interactivité, pour échapper au déterminisme de l’algorithmique pure, « gelée ». En re-vanche, il faut reconnaître que ce gel de l’intentionnalité possède une propriété singulière : celle de formaliser son objet dans un langage de programmation. Ceci représente l’avan-tage considérable de constituer une mémoire symbolique et donc robuste des opérations, et de rendre ainsi l’objet programmé parfaitement accessible à la réflexion, la prospection, la recherche et à la composition dans la récursivité propre à l’écriture9.

8. Professeur de philosophie du langage et d’épistémologie, séminaire du 4 avril 2007 à la Maison des Sciences de l’Homme – Paris Nord.

9. Bien sûr, l’intentionnalité qui est formalisée ici ne se confond pas avec les raisons profondes ni esthé-tiques de l’acte compositionnel, mais offre un matériel technique formalisé donc exploitable à l’analyse musicologique. « Tout comme un système de notation, un langage de programmation est porteur d’une ergonomie cognitive qui conditionne, d’une part, la facilité avec laquelle on va passer d’une idée à sa

Chapitre 4. Nos collaborations musicales

Néanmoins, les raisons qui nous ont poussé à choisir l’interaction et à la placer au cœur même de ces projets ne sont pas strictement négatives (pour contrer l’éviction de l’interprète et le gel de l’intentionnalité évoqués plus haut) mais aussi positives. En effet, j’ai pu constater a posteriori que chacune des collaborations de la deuxième période a débuté par une discussion sur nos convictions personnelles à propos du rôle de l’interprète dans la musique électroacoustique, toujours dans le sens d’une revalorisation. Un résumé de ma position transparaît dans mon journal de thèse, dans une note datée du 28 octobre 2006 :

Je souhaite construire et défendre une implication du musicien dans le résultat sonore du dispositif électronumérique : c’est important de ne pas le déposséder de cet élément, pour le résultat musical et pour l’évolution des mentalités.

C’est pourquoi j’ai décidé de ne pas adopter la solution traditionnelle, consistant à uti-liser une pédale de déclenchement unique qui incrémente systématiquement un compteur d’états préprogrammés et préordonnés par rapport à la chronologie de la pièce (qu’il y ait répétition d’états ou non). En effet, même si cette solution possède des avantages certains – dont la légèreté du dispositif, un moindre risque d’erreur de la part de l’instrumentiste, ainsi qu’un temps d’apprentissage minimum –, la conscience de cet instrumentiste quant à la partie électronique est nécessairement entravée ou tout du moins ralentie par l’opacité de ce système, alors qu’un pédalier plus complet permet d’assigner beaucoup plus claire-ment un état (ou une fonction) identifiable par pédale. Il s’agit donc ici de permettre à l’instrumentiste de faire la relation entre son geste avec le dispositif matériel de contrôle et les conséquences de ce geste, soient les opérations logicielles et le résultat sonore qui en découlent.

Si l’instrumentiste est une interface privilégiée entre l’œuvre et les auditeurs, doué d’un pouvoir qu’on qualifie d’interprétation, alors je crois que la musique a beaucoup à y gagner dans la clarification des relations sonores de cause à effet qui concernent cet instrumentiste, spécialement avec l’électronique, précisément pour donner les moyens à cette interprétation d’avoir lieu. Pour le dire d’une façon brutale, il me semble que priver l’instrumentiste des moyens de comprendre ce avec quoi il interagit mutile la qualité de son action, et par suite le résultat musical de l’ensemble, puis la musique elle-même.

4.3.4 La prémisse acoustique

La collaboration avec des compositeurs aurait pu aboutir à des projets orientés vers de l’électronique « pure », que ce soit en temps différé – le temps pour ainsi dire le plus naturel aux compositeurs –, ou même en temps réel mais sans la présence d’instrument acoustique. Le choix de l’interaction exposé précédemment n’implique d’ailleurs pas a

priori l’emploi d’instrument acoustique, or chacun des projets entrepris ici implique d’une

manière ou d’une autre l’intervention d’un instrument acoustique, pourquoi ? De façon plus radicale encore, la plupart de ces projets placent l’instrumentiste et son instrument acoustique au cœur du système, et beaucoup vont jusqu’à renoncer à tout déclenchement

formulation dans le langage, et d’autre part, celle avec laquelle on va être capable de comprendre l’idée sous-jacente à sa formulation. C’est en cela qu’il est une interface plus ou moins efficace entre le monde des idées et celui de leurs réalisations concrètes. » [Orlarey et al., 1999]

4.3. Traits communs et positions

de séquences préenregistrées, adoptant une forme de « prémisse acoustique » à l’intérieur de la démarche ; à nouveau, on peut se demander pourquoi.

D’abord, l’idée de prémisse voudrait traduire le fait que la présence d’un instrumentiste et de son instrument acoustique n’a jamais été discutée ni remise en question, pour aucune des collaborations. Cette présence allait de soi en quelque sorte, elle était à la fois admise et invisible, à la manière des prémisses qui s’insinuent dans les raisonnements logiques sans qu’on en ait conscience et qui imposent de se hisser à un niveau méta pour pouvoir les déceler10. Après examen, cette « prémisse acoustique » s’avère cependant ni utopique ni incidieuse, mais seulement « souterraine », au regard son apparition historique consciente tardive. Une adhésion si unanime dans nos collaborations laisse entendre des raisons fortes à cette position, parmi lesquelles je suppose que se trouvent des idées comme la causalité, l’humanisation et la qualité sonore.

La causalité du son, traditionnellement depuis un geste instrumental, disparaît évi-demment dans l’absence d’interprète, et cette disparition entraîne mécaniquement des problèmes d’intelligibilité à la majorité des auditeurs. Jean-Baptiste Barrière éclaircit ce point pour arriver à la question du « communicable » :

La musique contemporaine, surtout lorsqu’elle met en jeu l’électronique, a dé-stabilisé nos habitudes culturelles, nos systèmes de références, aussi bien vis-à-vis des matériaux sonores que des processus d’organisation formelle. Les instruments traditionnels disparaissent ou changent de fonction. Ils sont transformés, voire munis de prothèses (cf. : les hyper-instruments). Ils deviennent parfois méconnaissables.

Les instruments virtuels de l’électronique, sont, quant à eux, inconnaissables, d’autant qu’ils n’ont pour seule dimension tangible que l’écoute : ils ne sont pas visibles sur scène, et leurs manifestations sensibles (les sons !) apparaissent et dispa-raissent, produits d’une volonté compositionnelle souvent manichéenne pour l’audi-teur. En fait, ce ne sont pas des instruments. Ce ne sont même pas des machines (tels les instruments traditionnels) : ce sont des instruments virtuels, des abstrac-tions, des concepts réalisés à partir du mélange – improbable pour le néophyte – de matériels et de logiciels. Avec ces abstractions, tout est imaginable ; mais tout n’est pas nécessairement réalisable, et, peut-être plus important encore, tout n’est pas forcément communicable. [Barrière, 1992, p.77-78]

Ainsi, on peut faire l’hypothèse qu’un souci de communication, ou plus exactement de communicablilité, se tapit sous la prémisse acoustique observée. Même transformé et augmenté, l’instrument acoustique fournit un niveau de causalité acoustique auquel l’auditeur-spectateur peut toujours se raccrocher, sans compter le pédalier multiple qui fournit quant à lui une prise de causalité supplémentaire, pour la partie électroacoustique. L’instrumentiste lui-même intervient fortement dans ce processus de communication en contrebalançant les abstractions, rendant aussi cette musique plus communicable.

Ensuite, sur le plan de la qualité sonore, la confrontation de la sphère acoustique avec la sphère électronique présente quelques risques : l’électronique ne jouit généralement

10. Dans leur essai brillant sur la structure du changement [Watzlawick et al., 1975], les auteurs distinguent le changement 1 (celui qui ne change pas véritablement) et le changement 2 (celui qui est susceptible d’apporter une solution) en rapport avec l’examen des prémisses : « lorsqu’on se place à l’extérieur du système, [le changement 2] n’apparaît comme rien de plus qu’un changement des prémisses qui gouvernent le système en tant que totalité. [...] il suffit, pour effectuer un changement dans le système de référence, d’agir seulement au niveau méta. »

Chapitre 4. Nos collaborations musicales

pas de la même qualité que l’acoustique et, symétriquement, l’acoustique pâtit souvent d’un volume insuffisant devant celui de l’électronique, justement poussé pour combler son manque éventuel de richesse sonore. J’imagine pourtant qu’un désir de qualité sonore a participé à la constitution de la prémisse acoustique, en tirant les développements du dispositif électronumérique « vers le haut », à travers la confrontation permanente avec le son de l’instrument acoustique.

Enfin, je pense que pour notre génération, l’heure est à la synthèse (et donc à la mixité) : schématiquement, l’instrument traditionnel porte les références qui parlent à la mémoire collective, tandis que l’électronique permet de se jouer de ces références, en les déstabilisant. De même, concernant la structuration du discours musical, les dogmes semblent progressivement laisser la place à une intégration libre et cultivée, empruntant tantôt au sérialisme, tantôt à la musique concrète, au spectralisme ou encore au collage. On peut penser que l’espace de création offert par la mixité est potentiellement plus vaste que ce qui reste en musique instrumentale et que ce que permet effectivement l’informa-tique actuelle11. Dans cette intégration globale, technologique et esthétique, l’instrument acoustique assure un pont générationnel et permet d’ouvrir un dialogue entre les an-ciennes et les nouvelles technologies, et, passant, d’éventuellement questionner la place de l’humain dans le monde numérique.