• Aucun résultat trouvé

La dichotomie du temps réel et du temps différé

1.3 Glissement sémantique vers la fonction musicale Philippe Manoury rappelait dans un article récent – Considérations (toujours

1.3.2 Le temps réel comme passerelle vers l’instrumental

Andrew Gerzso, dans le livret qui accompagne le CD « Boulez : Répons42 » avance certaines vertues du temps réel, telles qu’elles ont pu intéresser Pierre Boulez :

42. Pierre Boulez : Répons (1981-1984), Dialogue de l’ombre double (1985) ; Alain Damiens, Ensemble Intercontemporain, Pierre Boulez, enregistré en 1996 à Paris. Deutsche Grammophon 1998. Réalisation électro-acoustique : Andrew Gerzso.

1.3. Glissement sémantique vers la fonction musicale

Dès les années 50, Boulez avait expérimenté dans le domaine électro-acoustique, mais l’aspect figé d’une musique « préfabriquée », qui rendait l’interprète prisonnier de la technique, ne l’avait jamais vraiment satisfait. Avec l’IRCAM, où tout ou presque semblait désormais réalisable, le compositeur put s’aventurer au-delà des sonorités instrumentales traditionnelles. Grâce à l’électronique en temps réel, qui permet d’associer en toute liberté sons synthétiques et sons instrumentaux, il put créer de nouveaux timbres et distribuer les sons dans l’espace à son gré. Boulez imagine ainsi une « musique spatiale », donnant naissance à des dimensions et des couleurs inédites, et c’est ce qu’illustrent merveilleusement Répons et Dialogue de

l’ombre double. Quiconque associe à l’électronique froideur et dénaturation changera

de point de vue en écoutant ces œuvres : on ne peut qu’être fasciné par leur fantaisie, leur spontanéité et leur richesse sonore.

[...] Si Boulez a utilisé des nouvelles technologies dans Répons, c’est qu’il sou-haitait conserver une cohérence entre le monde instrumental et l’électronique : il avait été fréquemment gêné, durant les années 70, par les premières tentatives de mélanger les sons des instruments avec ceux produits par l’ordinateur dans la me-sure où ceux-ci étaient restitués par une bande magnétique pendant l’exécution de l’œuvre. Les instrumentistes devenant de facto prisonniers du temps mécanique de la bande magnétique, toute la vie et la mobilité essentielles à l’exécution musicale étaient perdues. D’où l’intérêt de Boulez pour la technologie du temps réel, déve-loppée à l’Ircam à la fin des années 70 et au début des années 80, qui permit à l’exécution musicale de reprendre ses droits dans le monde de la musique infoma-tique. Dès 1980, au moment où le travail sur Répons a commencé, il était possible de transformer le son d’un instrument en temps réel pendant l’exécution musicale. Sur le plan musical, Boulez utilise les transformations du son produites par l’ordinateur comme un moyen de prolonger une idée musicale du monde instrumental dans le monde électronique. Ainsi, la cohérence entre les deux mondes est préservée et le vocabulaire musical globalement élargi.

Andrew Gerzso semble décrire ici, non sans un certain enthousiasme, le temps réel comme une révolution salutaire dans l’histoire de la musique électroacoustique, permet-tant de dépasser « l’aspect figé d’une musique "préfabriquée" », « d’associer en toute liberté sons synthétiques et sons instrumentaux », d’imaginer une « musique spaciale », et enfin « de prolonger une idée musicale du monde instrumental dans le monde électronique », per-mettant ainsi de préserver « la cohérence entre les deux mondes ». Au-delà de cette quête de la cohérence entre les deux mondes, de l’instrumental à l’électronique, Jean-Claude Risset expose le lien entre l’avènement du temps réel et la place du monde instrumental dans la musique électroacoustique [Risset, 1999a] :

Le temps réel réintroduit l’interprète dans la musique électroacoustique : il ouvre de nouvelles possibilités d’interactivité. Déjà l’électronique avait permis l’appari-tion de nouveaux instruments, mais ces instruments supposaient des interprètes vir-tuoses. Avec l’informatique, la combinatoire et la présence de mémoires permettent de relayer l’instrumentiste dans ses fonctions de déclenchement et de commande, et donc d’instaurer des modes plus complexes de contrôle en temps réel du rendu musical.

D’abord, on voit ainsi comment le temps réel technologique sert de passerelle entre le monde instrumental et le monde électronique.

Ensuite, ces deux citations (datant de la fin des années 90) montrent nettement un sens plus large de l’expression « temps réel » que le strict sens technologique : dans la 31

Chapitre 1. La dichotomie du temps réel et du temps différé

proposition « Le temps réel réintroduit l’interprète dans la musique électroacoustique », la notion historiquement technologique est promue au rang de catégorie, à la fois pratique et musicale. Il ne s’agit plus ici seulement de la puissance de calcul audionumérique, mais bien d’une abstraction qui désigne une pratique musicale (entre un interprète et un système informatique), c’est-à-dire l’usage de l’outil au lieu de l’outil, et plus précisément sa fonction musicale.

1.3.3 Le temps différé comme extension de la composition

Le « temps différé » n’est pas « le différé »

Commençons par étudier ce que ne désigne pas l’expression « temps différé », et pour faire référence au sens commun le plus large, prenons la définition du « différé » proposée par une version récente (2005) du dictionnaire Larousse :

DIFFÉRÉ, E adj. et n.m. Se dit d’un programme radiophonique ou télévisé enregistré avant sa diffusion (par oppos. à en direct) Match retransmis en léger

différé. SYN. : préenregistré.

En musique, l’expression « temps différé » ne désigne ni un programme radiopho-nique, ni un programme télévisé. Néanmoins, le synonyme « préenregistré » indiqué par le Larousse présente un intérêt sur lequel nous reviendrons. Ajoutons, pour abonder dans ce sens, que « différé » se traduit habituellement en anglais par « recorded » ou «

pre-recorded », sans confusion avec « deffered time » pour « temps différé » (parfois aussi « asynchronous »), contrairement à la confusion polysémique du mot français. Par ailleurs,

pour faire référence à l’opposition sémantique avec « temps réel », nous pouvons indiquer que « temps différé » ne désigne rien d’irréel ni de factice, car il possède une existence dans la réalité au moins au titre de catégorie des logiciels dont le temps de latence est supérieur au seuil s, dans sa définition technologique minimale que nous en avons donné précédemment (définition 1.1 page 25).

Ainsi, ni radiophonique, ni télévisuelle, ni non plus irréelle, la notion de temps différé en musique s’appuie sur la pratique compositionnelle, à la fois comme métaphore et comme extension de la composition. Schématiquement, comme nous allons le voir par la suite, les pionniers de l’informatique musicale explorent à partir du milieu des années 50 deux voies différentes du potentiel informatique en musique :

– composer les notes, du côté de la Cmao ; – composer le son, du côté de la synthèse sonore. La CMAO comme activité compositionnelle

Avec son quatuor à corde Illiac Suite, Lejaren Hiller ouvre avec Leonard Isaacson43dès 1956 la voie de la composition musicale assistée par ordinateur au département de chimie

43. Ils publieront un livre en 1959 pour détailler les procédures du développement des quatres mouvements du quatuor : Experimental Music : Composition with an Electronic Computer, aux éditions McGraw-Hill.

1.3. Glissement sémantique vers la fonction musicale

de l’université de l’Illinois, sur l’Illiac (ILLInois Automatic Computer), machine faisant partie des tout premiers ordinateurs, issue de la machine IAS de John von Neumann. Pour assister les compositeurs dans leur tâche, l’ordinateur a certainement toute sa place en tant que machine à calculer ; après tout, les dés, les cartes, le nombre d’or, et d’autres outils plus ou moins directement numériques comme le I Ching44 les accompagnent déjà depuis longtemps ! Le recul historique nous permet toutefois de modérer nos attentes face à l’outil informatique, comme le résume Luc Rondeleux dans son article Quarante années

de représentations numériques au service de la création [Rondeleux, 1997] :

Dans cet art technologique nouveau, une connaissance auparavant intuitive de-vient forcément explicite, même si cette explication ne recouvre pas et ne recouvrira jamais l’ensemble des données de l’art. Les premières déconvenues de l’informatique musicale, précédant de peu celles de la synthèse, proviennent d’une assimilation hâtive entre composition et suite de procédures calculables. Hiller et Isaacson, pré-curseurs du mythe de la machine à composer s’appuyaient sur des règles ; ils furent souvent imités. Mais la musique n’a pas de caractère déductif. Aux États-Unis l’uti-lisation du sérialisme par Milton Babbitt, les compositions de Charles Dodge, Paul Lansky, James Tenney, en France la transposition des modèles de la théorie ci-nétique des gaz par Iannis Xenakis, les oeuvres de Pierre Barbaud, Frank Brown et Geneviève Klein (qui opéraient sous l’acronyme de BBK), celles de Nicole La-chartre, la machine imaginaire (directement calquée des processus informatisables) de Michel Philippot, ou, plus près de nous, les oeuvres d’André Riotte n’ont pas trouvé la théorie universelle. Mais la cherchaient-ils ? Sans doute n’ont-ils jamais eu cette naïveté. Ce dont ont besoin les compositeurs, ce n’est pas d’une machine à composer mais d’un outil qui les guide pour l’exploration du sonore, qui inspire les investigations et soutienne l’intuition musicale.

Bien que le terme ne soit pas très heureux, la fonction « d’assistance » à la composi-tion prodiguée par l’ordinateur s’illustre par ses aptitudes inédites au calcul numérique au sens large. La Cmao prolonge et renforce ainsi le lien intime entre composition et mathématiques, d’une part en accélérant les calculs arithmétiques et logiques, et d’autre part en proposant de nouveaux formalismes et de nouveaux algorithmes, jusqu’aux déve-loppements de l’intelligence artificielle.

La synthèse sonore comme activité compositionnelle

De son côté, Max Mathews, ingénieur électronicien aux Bell Telephone Laboratories, inaugure en 1957 avec ses collègues la synthèse sonore par ordinateur, en développant le programme Music I sur un IBM 704. En 1997, dans son exposé pour la conférence

Horizons in Computer Music45, il revient sur ce moment historique et souligne la rupture technologique qu’il constitue :

44. Il est amusant de remarquer que cette technique ancestrale, utilisée entre autres par John Cage, repose sur 8 symboles (les trigrammes) qui forment une matrice de 64 cases, tant on rencontre fréquemment ces nombres en informatique qui fonctionne en base 2, avec l’octet de 8 bits comme unité et des vecteurs de 64 bits (pour les derniers processeurs personnels Amd ou Intel par exemple).

45. Cette conférence s’est tenue les 8 et 9 mars 1997, au Simon Recital Center of the School of Music de l’université de l’Indiana, à Bloomington.http://www.csounds.com/mathews/.

Chapitre 1. La dichotomie du temps réel et du temps différé

Computer performance of music was born in 1957 when an IBM 704 in NYC played a 17 second composition on the Music I program which I wrote. The timbres and notes were not inspiring, but the technical breakthrough is still reverberating. Music I led me to Music II through V. A host of others wrote Music 10, Music 360, Music 15, Csound, Cmix, and SuperCollider. Many exciting pieces are now performed digitally.

La fin des années 50 a ainsi ouvert la voie à deux branches fondatrices de l’informatique musicale : la composition musicale assistée par ordinateur et la synthèse sonore, avec de nombreux logiciels plutôt dédiés à l’une, comme PatchWork, ou plutôt à l’autre, comme la série Music N. Au delà du fait que ces branches se rejoignent parfois au sein de certains logiciels, elles constituent le socle historique – et surtout le socle pratique – de ce qu’on appelle aujourd’hui en informatique musicale « le temps différé ». En effet, les progrès de la synthèse vers le temps réel, avec le contrôle des paramètres par des interfaces plus ou moins complexes, n’ont pas évincé la synthèse en temps différé ni la Cmao qui restent des pratiques compositionnelles, et ne le peuvent intrinsèquement pas, car la pratique de la composition implique la possibilité du retour. . .