• Aucun résultat trouvé

142 II.1. Captation et inscription artefactuelles de l’énergie acoustique

La situation de réception seconde est suspendue des contingences du cours d’événement-source. Ceci pourrait souvent laisser croire qu’elle est affranchie de tout ordre de contraintes, d’autant plus qu’elle est souvent adjointe à un discours qui en serait le guide. Il s’agit de souligner combien cette croyance, ou mieux cette présupposition, est illusoire car le lieu de la focalisation optimale n’est aucunement par avance défini, il en existe simplement de plus ou moins profitables à la discrimination qualitative de telle part indicielle. Si les conditions restrictives de la réception artefactuelle autorisent ou du moins facilitent grandement l’activité de l’observation depuis une position apparemment neutre : allocentrée, la dépendance d’au moins un type d’égocentre est impliquée, un égocentre qui est très largement opaque au récepteur second. La fixation matérielle des signaux acoustiques, nécessite en effet un ancrage physique du dispositif au sens strict i.e. selon une somme de règles de transduction toutes spécifiables quantitativement. Ceci suppose un point d’ancrage dont l’optimalité ne peut être au mieux que jugée d’après l’accès perceptif donné, sinon simplement subi. Au final la transformation du signal dépasse à tel point sa simple transduction que parler de l’identité de l’événement entre événement-source et événement second ou événement-cible, et même encore de sa fidélité, ressort surtout d’une aisance rhétorique. Notre dessein dans cette partie sera d’exposer la conjugaison de quelques paramètres inhérents à la captation des phénomènes acoustiques sur le mode sonore. Ici se situe le lieu de transformation de la réception de signaux électro-acoustiques en les valeurs des « objets sonores » introduits par Schaeffer. On peut avant tout caractériser ces derniers par leur statut d’artefacts1. Mais par conséquent le but de cette captation, la

chose n’est pas anodine, est de viser des valeurs qui présentent un intérêt en termes auditifs c’est-à-dire qualitatifs en les « sensibles propres » de l’audition. Nous pouvons ainsi relever un certain hiatus entre l’idéale fixation des indices acoustiques (mécaniques) d’un cours d’action réellement survenu et l’ambition esthétique inhérente à l’activité qui vise proprement le champ sonore. Ceci signifie d’une part que le

document sonore, en vérité son-cible, est le produit d’une certaine ingénierie qui le fera

souvent ajuster de telle manière qu’il ne soit pas désagréable à l’oreille, d’autre part que la situation réelle est d’abord contrainte, entraînant aisément quelques violences, voire douleurs et traumatismes à l’organisme qui y est réellement confronté.

La perception est à l’issue d’une chaîne de processus que nous pouvons caractériser, suivant Bregman2, comme relevant de la mixture sonore. Il sera plus juste

de partir de la traduction que McAdams3 a adoptée pour ce terme : celle du magma

sonore pour substituer au second terme la désignation de sa nature telle que définie par la physique, celle de magma acoustique4. Cette dernière expression permet d’exprimer

plus justement5 ce que nous avons jugé comme la stimulation continue de l’organisme

par des signaux acoustiques placés dans la bande passante propre à leur réception

1 Les « objets sonores » ne peuvent êtres résumés à des inscriptions sur la bande comme l’écrit Schaeffer :

le son obtenu à partir de ce support peut encore être transformé par la vitesse de lecture (1966, p. ; voir II.2). Il convient donc de garder à l’esprit que l’objet sonore est avant tout … sonore et non strictement physique pour l’auteur. Une autre partie des objets sonores discutés est celle des unités linguistiques phonématiques en général depuis le phonème jusqu’au morphème et peut-être même le discours selon la détermination estimée de la durée appartenant à l’objet en question (ibid., p.294 et suiv. ; voir II.3, III.1.).

2 1990 ; voir I.5. 3 1994 ; voir id. 4 Voir I.3. 5 cf. I.3.

143 sonore6. Il ne s’agit encore que de l’agrégat d’ébranlements dont l’inscription sera

limitée à la tranche temporelle la plus simplement définie par les limites de l’activation du système de réception. Comme nous l’avons vu, notre réception procède particulièrement par une suite de filtrages, de transformations du signal par notre appareil naturel dès l’oreille externe. La succession de « conduits »7 n’est pas à départir

de la compréhension de l’oreille, instrument de l’analyse des résonances de l’air aux mouvements mécaniques des matériaux, y ajoutant aussitôt la part active et rétroactive de cette chaîne procédurale. Nous sommes à mi-chemin des déterminations physiologiques – si ce n’est de strict déterminisme – et psychoacoustiques. Bregman parle à cette suite d’un niveau primitif procédant, par addition d’un niveau schématique de traitement principalement basé sur un facteur de redondance8, à la définition de flux

– formes temporelles – par ségrégation et intégration des signaux, ce par la concurrence de multiples paramètres parmi lesquels l’incidence (onset), la fréquence, le contour

temporel, le contour harmonique, mais aussi la situation dans l’espace…

Notre recours au chapitre de l’audition est là pour montrer que la fabrication du document sonore joue d’un analogon de l’oreille. La captation suppose l’imposition d’un filtrage et d’une analyse de la masse acoustique afin que les différents signaux puissent nous êtres rendus de façon distincte. Captation et fixation artefactuelle des sons déterminent une chaîne de transformation alternative à l’énergie acoustique spécifique. En vérité, nous pouvons envisager un tel processus de deux manières. Ou bien la captation est opérée en vue d’une fixation des signaux acoustiques et de leur analyse et observation selon des critères définis par l’étude physique, ou bien la captation est opérée en vue d’une fixation de la matière acoustique i.e. de l’énergie spécifiquement acoustique en tant qu’elle est sonore, c’est-à-dire perçue par le mode d’accès ou de présentation sonore. Nous traiterons dans cette partie de la deuxième dimension. Cependant il est intéressant de noter entre ces deux niveaux n’est pas nette, et plus encore que seulement leur convergence peut donner sens à notre quête de la vertu d’observation, par conséquent de témoignage qui est promise. Ainsi l’enregistrement permet l’indexation de signaux acoustiques non sonores en tant que ceux-ci n’entrent pas dans la bande de fréquence, la fenêtre temporelle ou le milieu adéquat à notre perception sonore, indexation qui permettra leur diffusion sonore, et donc leur saisie épistémique par la perception sonore.

Quelquefois la captation peut être le fruit d’un processus entièrement automatisé, processus dont le fonctionnement sera régi selon des caractères physiques entièrement spécifiables depuis la limite de la membrane9. Toutefois la majeure partie du temps,

c’est un preneur de son que nous nommerons l’opérateur qui est chargé d’accommoder son office en fonction de multiples paramètres. Celui-ci doit traiter moyennant la contrainte de la double dépendance10 par le jugé programmatique de l’effet visé et celui

des contraintes multiples de l’opération. Employons-nous pour l’heure à détailler la chaîne dont il est question afin de mieux comprendre le déterminant des conditions de perception ou mode de présentation. Remarquons d’ores et déjà que l’interface de captation est placée en une forme de mixité entre perception et neutralité physique des

6 cf. I.4.

7 Voir I.4., I.5.1.

8 Notons que McAdams (1994) tend d’avantage vers une partition bien plus nette, c’est-à-dire définissable

et finie, des processus primitifs.

9 Voir I.2.3. 10 Voir I.2.2.

144 processus techniques de l’inscription. Il s’agit par notre exposé de donner des outils d’interprétation de cette détermination critique.

II.1.1. Les microphones ou le choix des instruments

La réception de l’enregistrement nous place en une évidence qui est l’absence de processus de transformations dont la conjonction opérationnelle est le plus communément nommée « la chaîne du son » : son office est présupposé à toute perception seconde. Selon l’exigence technique, il est attendu que celle-ci soit le plus plane possible : c’est la linéarité du traitement du signal qui est visée, alors que nous avons vu combien le champ auditif résultait de transformations non linéaires du signal acoustique11. L’application stricte de ce principe nous placerait en récepteurs

authentiques, au sens où les propriétés acoustiques de la situation source seraient conservées. Il s’agit d’un idéal dont nous viserons à relever les faillites pour l’analyse de ce premier maillon technique qu’est le microphone12 comme pour la suite de cette

chaîne complexe d’opérations. Ici est la base de l’image sonore artificielle des perturbations acoustiques, étant donné que la perception qui en serait accessible à un récepteur en cette stricte même position en différerait certainement à maints égards, nous essaierons de montrer en quoi.

La surface irradiée par le rayonnement acoustique exerce une certaine somme de forces F moyennant une vitesse u, engendrant une somme de pressions lesquelles

devront êtres traduites en une autre quantité normée par une mesure en tension par les volts (V) et en intensité par les ampères (I). Comme nous l’avons vu les valeurs de l’une

et l’autre espèce de signaux sont largement analogues (I.3)13. Pourtant, on peut aussi

bien prendre le voltage comme analogon de la force et conséquemment la vitesse comme celui du courant que l’inverse, à savoir le courant comme analogon de la force et le voltage comme celui de la vitesse du signal acoustique14. La dépendance entre

valeurs acoustiques et électriques reste linéaire, conservant la proportionnalité, et ce sont donc les spécificités de chaque type de microphone et même de chaque microphone15 qui définiront les qualités de la transduction en question.

Différencions rapidement les technologies adoptées. Pour tous les modèles la taille de la membrane est gage de la finesse de la captation autant que de la plus grande fragilité de l’appareil et la plus grande difficulté de son maniement dans des conditions non protégées. D’abord le microphone dynamique : une bobine (enroulement de fil conducteur) mobile solidaire du diaphragme se déplace dans l’entrefer i.e. le champ magnétique d’un aimant cylindrique, les variations de surface de la membrane donnant directement la variation de potentiel électrique. Les microphones à ruban fonctionnent selon le même principe, mais avec la présence comme leur nom l’indique d’un ruban métallique jouant à la fois le rôle de bobine et de membrane, dont les mouvements dans

11 Voir I.4., I.5.1. Nous discuterons ce point plus loin en lien avec la question de la chaîne causale par

laquelle nous pouvons percevoir un cours d’événement de façon seconde.

12 Inventé par Bell (1877).

13 Par le passé les relations de la théorie de Ohm à celles de Hertz et de Helmholtz ont été fort étroites

pour l’élaboration générale de la théorie des signaux de telle sorte que par exemple l’impédance (Z) peut être traduite en ohms mécaniques (1  = 1 N.s/m) ou en ohms électriques (1  = 1V/A) : nous sommes généralement dans le ressort de l’élaboration de la théorie ondulatoire et donc tout terme à son équivalence.

14 Kinsler et al., id., p.390-1.

15 Certains modèles étant très fragiles il est envisageable qu’un microphone particulier puisse laisser sa

« trace » dans le son final, de même que tout élément de la chaîne, par exemple un préampli défectueux. Tous les caprices matériels seront possiblement inscrits.

145 le champ magnétique produisent les changements électriques directement présents sur le ruban16. Ainsi, il s’agit de transformer par la fonction inverse du haut-parleur une

impédance du mouvement acoustique donné à la membrane du microphone en une impédance de mouvement électrique de façon directement analogique17. Ces instruments

ont une très bonne tolérance à de brusques hausses de l’intensité du signal en évitant au maximum leur saturation.

Dans le cas des microphones électrostatiques à condensateur, la membrane vibre sous l’action de différences de potentiels électriques entre les deux bornes du condensateur, polarisé par une tension continue venant d’une alimentation électrique extérieure. Les mouvements de la membrane entraînent une variation de capacité aux bornes. Du fait de la polarisation de la membrane, celle-ci est rendue plus à une transduction plus fine des variations des pressions acoustiques extérieures. Leur maniement impose de ce fait de plus amples précautions. Les microphones dits électret : électrostatiques à polarisation permanente, bien que d’invention ancienne, ont été nettement développés ces dernières années, présentant l’avantage d’un très faible besoin en alimentation électrique. Cette technique permet d’échapper à la contrainte d’une alimentation fantôme qui vaut pour les autres électrostatiques, celle-ci supposant l’emploi d’un appareil d’enregistrement de type professionnel. Les électrets peuvent approcher les performances de ces derniers, peuvent être miniaturisés, mais sont plus sensibles à l’usure du fait de la conservation de la polarité par un matériau diélectrique sujet à la porosité à terme.

D’autres types de microphones ne sont plus utilisés pour la prise de son ordinaire. Les microphones à charbon – première technologie mise à disposition – ont été utilisés pour le téléphone. Leur faible bande passante avait été néanmoins montrée suffisante à la communication par les ancêtres de la théorie de Shannon, permettant d’en rester à un coût modique tout en gardant l’avantage d’une excellente résistance aux impacts. Les microphones piezo à transducteurs quartz ou céramique sont des transducteurs électroacoustiques réciproques18 en tant qu’ils sont en même temps

récepteurs et émetteurs sont utilisés pour l’amplification directe d’un instrument acoustique, mais aussi pour les expériences de miroir acoustique19 et les écoutes sous-

marines depuis Paul Langevin20.

Microphones capteurs de pression, omnidirectionnels car indifférents à l’angle d’incidence du signal source, et microphones capteurs à gradient de pression : directionnels, sont les deux espèces de principes de transduction d’une quantité de signal acoustique. Ainsi est parlé de la conversion d’un effort mécanique combiné avec la résonance du milieu, en une quantité de signal électrique21. Il convient de comprendre

par ces termes une définition du champ de captation acoustique qui peut être mis en

16 Fischetti, 2003, p.185.

17 Le traitement numérique du signal n’intervient que plus tard, au moment de son acquisition, soit son

inscription et son stockage sur un support donné. Remarquons à ce sujet que la prétention à disposer de microphones à traitement numérique est impropre en tant que ceux-ci ne seront que la discrétisation imposée au mouvement nécessairement analogique de la membrane en réponse aux variations de pression acoustique.

18 Tout comme les microphones électrostatiques (Kinsler, id, p.392). 19 p.ex. de Rosny et al., 2004 ; voir III.1.

20 voir II.5 ; II.6.

21 Le microphone à gradient de pression opère par incidence sur les deux faces de la membrane, la

pression totale étant la différence entre les deux pressions (Fischetti, ibid., p.214). Tandis que le microphone peut être considéré comme synonyme de transducteurs électro-acoustiques (Caplan, 2000, p.8) il semble que l’on dissocie la fonction de l’hydrophone de celle du transducteur (Bouvet, 1991 ; voir II.5.).

146 rapport avec la perception sonore naturelle. Dans le premier cas, c’est théoriquement l’ensemble des perturbations acoustiques de l’horizon proximal du dispositif qui sera indicié. Dans le second, un champ sera défini par restriction angulaire par rapport à l’horizon de l’opérateur ou plus généralement ce que serait celui d’une personne humaine en cette même position. Il peut, par conséquent, être parlé de l’imposition d’une focalisation sur la scène globale. La simple captation de pression par un seul micro n’est de toute façon pas homéomorphe au champ acoustique rendu sonore par l’opération de l’organisme humain22. Cette dernière présente toutefois l’avantage par

rapport au gradient de pression, en dépit de son défaut de sélectivité qui rend son usage difficile en conditions naturelles, de fixer – ou de générer23 ? – une image riche en

harmoniques, donc d’une certaine chaleur (voir plus loin). La sensibilité d’un microphone,

est la tension de sortie du microphone obtenue pour un niveau de pression acoustique (SPL) donné » (Rumsey et McCormick, p.87)

La mesure en sera par conséquent celle du rapport entre tension électrique et niveau de pression standard de 1B (74dB) ou de 10 B (94dB) et la sensibilité est spécifiée de deux manières possibles, soit en mVB, soit dBVPa. La transduction du signal

acoustique en signal électrique par un instrument est définie par sa sensibilité, toutefois la notion de sensibilité est à vrai dire assez équivoque. À parler strictement, on peut donc quantifier la réponse du microphone pour les bandes de fréquences choisies afin de spécifier les caractéristiques décrites plus haut. Certains instruments seront donc spécialisés à la captation de telle part du spectre, y compris bien sûr complètement au dehors du champ de l’audible humain. Les microphones les plus communs tout comme les systèmes de diffusion de la même gamme donnent une « bosse » (ou accentuation) dans la bande des haut médiums, sur amplifiants les sélections de notre appareil naturel vers les tranches essentielles à l’expression verbale pour réduisant ainsi aisément à la prise du « message » langagier attendu et gommant certains facteurs de l’expression prosodique. Par contraste, le choix d’un microphone dont la transduction serait orientée vers une bande plus basse présentera l’avantage de donner plus de « chaleur » (voir plus bas) à la voix mais de favoriser à proximité la fixation de contrastes de « bruits de bouche », donnant une plus grande intimité mais un « réalisme » – « un effet de réel » – qui n’est pas ou que fort peu présent dans notre perception de la parole d’autrui. En extérieur, favoriser une telle bande de fréquence exigera l’imposition d’un filtre passe- haut afin de gommer les sons de circulation routière (surtout à proximité du sol) étant donné la grande propagation par diffraction des sons de basse fréquence. En tout état de cause les microphones, si engins de captation sont d’abord des outils de filtrage et de discrimination.

Après ce petit tour d’horizon, il convient de compter avec le facteur du bruit à raison inverse de la sensibilité, lequel est exprimé par l’inévitable « bruit propre » de l’appareil considéré. Lorsqu’il est parlé du bruit propre des microphones à condensateur, ce bruit est lié au préamplificateur qui est situé dans l’appareil dévolu au traitement de la surface porteuse. Le traitement passif du capteur à bobine ou à ruban est, quant à lui, générateur d’un bruit thermique par l’excitation des électrons qui sera

22 voir I.4.3. et plus bas.

23 A partir du moment où il s’agit d’une interface en même temps base de la quantification (cf. I.3.3. ;

Chaigne, 2003, p.104-7) et de la qualité obtenue, il paraît bien difficile de donner une réponse en des termes finis, nous y reviendrons.

147 encore amplifiée par l’adjonction de l’amplificateur. Le niveau de sortie d’un microphone à condensateur est beaucoup plus élevé mais l’appareil génèrera un bruit encore beaucoup plus important. La restitution des plus fins contrastes dans les ambiances les plus silencieuses est tout de même un bel atout de ces instruments.

Les caractéristiques dynamiques du signal, et donc le respect de sa forme temporelle, sont également déterminantes. Nous pourrions donc trouver dans la réponse dynamique un autre double critère de la sensibilité : 1) le contraste en intensité 2) la réponse par différentiation des différentes modulations des ondes dans le temps. Comme nous l’avions noté (en I.3.) par-delà la représentation du spectre par des raies, c’est de la forme temporelle de l’onde qu’il s’agit d’assurer la transduction. Le premier est une analyse discrète des variations d’amplitude, le second est le suivi affiné en continuité. Par caractéristiques dynamiques, il convient d’entendre d’une part l’ordre de discrimination temporel du signal modulations mais aussi, et de façon première les valeurs contrastives en valeur d’intensité du signal, c’est-à-dire l’écart entre le signal le plus faible et le plus fort. L’enregistrement écrase dans une large mesure les deux dimensions juste soulignées de la dynamique du signal.

L’abaissement du contraste des intensités devrait n’apparaître que peu dommageable puisque l’enregistrement peut fort difficilement être reçu dans le respect absolu de la dynamique naturelle des stimulations acoustiques qui sont normalement

Documents relatifs