• Aucun résultat trouvé

La façon la plus directe d’obtenir un son est l’utilisation d’un instrument par un musicien. Cette méthode produit le son de la meilleure qualité possible, le son direct. Cependant, le recours à un musicien est tributaire de sa présence et de la disponibilité de son instrument. Le type d’’instrument, à son tour conditionne aussi l’endroit où il pourra être utilisé. Si le recours à cette méthode est possible pour l’expérimentation numéro un, c’est à la condition que le musicien ait un très bon niveau afin qu’il puisse respecter à la lettre la succession des accords à jouer selon l’ordre des questions du protocole. Mais même avec un grand niveau, il ne peut garantir à 100% de jouer sans se tromper. D’autre part, cette solution n’est pas envisageable pour l’expérimentation numéro 2 étant donné que dans ce cas il est nécessaire de jouer certaines notes selon la pression qui est exercée sur les capteurs et cela en temps réel. L’utilisation de ce procédé s’avère donc impossible.

L’enregistrement de sons joués par ce même musicien donnera une qualité moindre, qui ira de tout à fait acceptable à médiocre selon le type de prise de son réalisée. Elle peut être utilisée dans l’expérimentation numéro un sans aucune difficulté. L’utilisation dans l’expérimentation numéro deux serait possible en associant des niveaux de pression à une note ou une autre. Il faudrait par contre veiller aux parasites éventuels dans les successions de notes étant donné qu’elles proviennent de fichiers différents. Les contreparties de cette méthode sont multiples : la première est la nécessité de constituer une palette d’enregistrements d’accords de musiques ainsi que leurs variations en durée et en volume. Il faut également considérer le nombre de notes de musique constituant ces accords, 3 minimum, voire plus. Cela pose un réel problème si le type d’accord choisi doit changer pour une raison donnée. L’autre contrepartie est que la banque de sons constituée est fortement liée à l’instrument utilisé. Si le choix se porte sur un autre instrument il faudra tout reprendre… Et certainement chercher un autre musicien. Enfin, rien ne garantit que toutes les notes enregistrées soient jouées avec la même durée, la même intensité ou le même tonus, produisant en cela la possibilité d’apparition d’un biais. En conséquence, nous avons décidé de ne pas retenir cette solution étant donné que nous n’avions qu’une idée sommaire des accords que nous allions utiliser pas plus que comment ils allaient varier.

Bien que moins purs que les sons provenant d'instruments de musique, l'utilisation de sons synthétiques est une autre possibilité. Ils sont produits à l’origine par un oscillateur générant une fréquence, c’est celle-ci qui conditionne la hauteur du son, Figure 65a. Ce qui

différencie le son d’un instrument de musique d’un autre s’appelle le timbre. Le timbre est une propriété complexe lié principalement à la distribution spectrale des composantes sonores selon une analyse de Fourier. L’autre élément intervenant dans la perception des instruments de musique correspond à la variation de l’amplitude du son entre le moment où une note est produite et celui où elle s’éteint, voir Figure 65b. L’enveloppe, appliquée à l’oscillation, fait varier son amplitude et donne le son final, Figure 65c.

Figure 65 : Production d’un son d’instrument à partir d’une oscillation à laquelle est appliquée une courbe de timbre. (source : http://www.cs.sfu.ca/~tamaras/addSynth/Sinusoid_with_ADSR.htm)

L’enveloppe, dans la production de musique électronique est défini majoritairement à partir du modèle ADSR, Attack, Decay, Sustain, Release (Deutsch & Deutsch, Leslie, 1978). Ce modèle, Figure 66, décrit à travers quatre phases temporelles le comportement d’un instrument de musique. Par exemple, selon que le son soit issu de cordes frappées comme le piano ou de cordes frottées comme le violoncelle, la durée et l’amplitude de chaque phase seront différentes. L’attaque indique le temps nécessaire au son à atteindre son maximum sonore, le déclin indique la vitesse à laquelle le son atteindra la phase maintien. Le maintien débute après la phase déclin et perdure tant que la touche de l’instrument est appuyée (ou

la corde frottée). Une fois que la touche est relâchée, la phase relâchement décrit la diminution du son depuis l’état de maintien jusqu’à zéro69.

Figure 66 : le modèle habituel d'enveloppe "ADSR", attaque, déclin, maintien, relâchement. (source :http://moogfoundation.org)

A l’origine, ce type de sons a été utilisé dans les synthétiseurs. En 1983, le standard MIDI70 a été créé afin de permettre aux instruments électroniques de communiquer entre eux ou de piloter plusieurs autres instruments. Les ordinateurs ont intégré ce standard de façon quasi immédiate. Ce sont principalement des sons produits selon le standard MIDI. Un fichier MIDI est à un fichier audio ce qu’une partition de musique est à un disque ou un Compact disc : c’est une description d’événements auxquels correspondent des notes à produire. Ainsi, comme sur une partition, les notes, le tempo, l’instrument, sont définis mais ils peuvent être modifiés au moment de l’interprétation, quand la musique est jouée. La Figure 67 décrit le principe de la production musicale. Un fichier MIDI contient des notes avec leurs attributs de temps, de hauteur et une description « note ON » ou « note OFF » indiquant à quel moment elles doivent commencer ou se terminer, ainsi qu’avec quel instrument. Ces notes sont réparties sur des pistes indépendantes. Ce fichier est chargé dans le séquenceur qui construit des séquences ou messages qui seront envoyés au synthétiseur à partir des indicateurs de temps inscrits. Le synthétiseur charge les messages dans des canaux correspondant à autant de pistes. Les instruments nécessaires sont chargés depuis une banque de sons d’instruments et mixés avec les notes par le synthétiseur qui produit les fichiers audio synthétiques. Les fichiers audio sont enfin envoyés à la carte son ou au dispositif de restitution sonore puis au haut-parleur.

69

http://moogfoundation.org

70

MIDI : Musical Instrument Digital Interface, protocole normalisé permettant à des instruments de musique électronique et des ordinateurs de communiquer entre eux. http://www.midi.org/

Figure 67 : Fonctionnement de la chaine de production MIDI. Les boites correspondent à autant de classes logicielles à créer pour reproduite la chaine MIDI.

D’autre part, il est possible d’alimenter le séquenceur par l’envoi direct de notes avec le format décrit, ceci permettant de jouer de la musique issue par exemple d’un clavier virtuel ou à partir d’informations reçues en temps réel via une application.

En conclusion, étant donné que l’utilisation des sons MIDI apporte la souplesse nécessaire et suffisante à nos objectifs, nous l’avons retenu comme méthode de production musicale. Nos explorations sonores seront basées sur l’utilisation de ces sons, tant afin d’étudier les niveaux de retour d’informations sonores que les modalités de retour d’informations visuelles et/ou sonores appliquées à la baropodométrie.

Ce choix de la méthode de production de sons se situe dans l’étape rendu de notre cadre de conception. Les sections suivantes détailleront la démarche d’organisation des autres étapes du cadre de conception autour de ce rendu. Cela constituera un exemple d’implémentation de ce cadre, à partir des deux objectifs que constituent la mise au point des expérimentations décrites à la section 4.1 et à la section 4.2.