• Aucun résultat trouvé

1. CONTEXTE THEORIQUE ET SCIENTIFIQUE

1.2. P RESENTATION DU SYSTEME AUDITIF HUMAIN

Afin de mieux cerner l’impact du bruit d’hélicoptère sur l’homme, il convient de rappeler quelques caractéristiques physiologiques du système auditif humain.

L’oreille est composée de trois parties : l’oreille externe, l’oreille moyenne et l’oreille interne.

L’oreille externe comprend le pavillon et le conduit auditif externe, qui aboutit au tympan (Figure 8). Elle permet de capter et d’amplifier les sons : à 3000 Hz, l’oreille externe peut amplifier jusqu’à 23 décibels (dB). Le pavillon de l’oreille nous permet de capter les sons et d’en distinguer l’orientation. Il joue le rôle d’un entonnoir qui dirigerait les sons vers le conduit auditif. L’écoute binaurale se révèle être primordiale pour évaluer la localisation des sources sonores. Pour simplifier, le déphasage de l’onde entre les deux oreilles dû à notre tête qui représente un obstacle, ainsi que la différence d’intensité sonore leur parvenant, permettent de déterminer d’où provient la source sonore sur un plan horizontal.

L’oreille moyenne est constituée du tympan et des osselets (soit le marteau, l’enclume et l’étrier ; Figure 8). Elle a pour rôle d’adapter l’impédance entre le milieu aérien et le milieu liquide de l’oreille. En effet, la surface du tympan est environ 20 fois plus grande que la surface qui reçoit le signal dans l’oreille interne (fenêtre ovale

Figure 6 : Prototype d’appui-tête actif développé par Airbus Helicopters (d’après Macchi, 2015)

Figure 7 : Autospectre d’origine (ligne bleue) et autospectre traité (ligne rouge) afin de réduire les composantes tonales. L’émergence est indiquée pour une des raies caractéristiques présente dans ce signal (d’après Macchi, 2015)

de la cochlée). C’est pourquoi le signal est amplifié une fois de plus afin de pouvoir transmettre les vibrations. Cette amplification est estimée à environ 30 dB à 1500 Hz. La trompe d’Eustache se trouve au niveau de l’oreille moyenne. Elle a pour rôle de modifier la pression afin que celle-ci soit comparable des deux côtés du tympan, ceci permettant d’éviter sa rupture (Figure 8).

L’oreille interne est composée de la cochlée et des voies nerveuses auditives. Elle permet une transduction mécano-électrique ainsi qu’un codage fréquentiel. La cochlée abrite l’organe de Corti, contenant du liquide (périlymphe) et les cellules ciliées. Les cellules ciliées se contractent à l’arrivée d’une vibration et vont transformer cette information mécanique en signal nerveux électrique, qui sera transmis au cerveau par le nerf auditif. Au niveau de la cochlée et jusqu’au cortex auditif primaire, une tonotopie de l’information auditive est réalisée, c’est-à-dire que les fréquences sont représentées de manière ordonnées (S. D. Costa et al., 2011 ; Romani, Williamson, & Kaufman, 1982). Par exemple, à la base de la cochlée se trouvent les cellules sensibles aux hautes fréquences, alors que les cellules sensibles aux basses fréquences sont à l’apex. Le message électrique envoyé par la cochlée passe par plusieurs relais, notamment par le bulbe rachidien, pour ensuite arriver aux aires auditives primaires. Cette étape permet de décoder l’information en sensation ou perception. En retour, le cerveau pourra contrôler le fonctionnement de la cochlée qui pourra se focaliser sur des informations prioritaires, par exemple, une conversation suivie dans un environnement bruyant (Howard & Angus, 2017).

Figure 8 : Schéma de l’oreille humaine présentant les parties externe, moyenne et interne

Figure 9 : Domaine audible de l'oreille humaine

1.2.2. Particularités de l’audition

L’oreille humaine a des capacités limitées en fréquence et en intensité, elle n’est sensible qu’aux sons entre 20 Hz et 20 kHz (Figure 9). La sensibilité de l’oreille est supérieure entre 1000 et 5000 Hz (Fletcher & Munson, 1933) en raison de la résonance du canal auditif et de la fonction de transfert des osselets. La perception du son par l’homme varie de manière logarithmique. Pour cette raison, les niveaux de pression sont évalués grâce aux décibels, qui représentent une échelle logarithmique de mesure de l’intensité par rapport à la pression acoustique. Le résultat du calcul de l’intensité sonore se note en dB(SPL) pour Sound Pressure Level en anglais.

𝐿𝑑𝐵(𝑆𝑃𝐿)= 20 log10 𝑝

𝑝0 (1)

Il s’agit du calcul du niveau sonore L en dB(SPL) avec p la valeur de la pression instantanée et p0 la pression atmosphérique (p0 = 2.10-5 Pa).

Cependant, les décibels ne vont pas traduire la sensation réelle de l’oreille en raison du traitement différent en fonction des fréquences (Fletcher & Munson, 1933). En effet, selon la fréquence du son et à intensité égale, le volume sonore ne sera pas perçu équivalent. Pour pallier ce problème, des courbes d’isosonie ont été créées. Elles permettent de définir les phones qui correspondent à une même sensation auditive mais à des niveaux de bruit différents (Figure 10). Ainsi un son à 20 Hz et 90 dB sera entendu de la même façon (i.e. au même niveau sonore) qu’un son à 1000 Hz à 40 dB. Pour prendre en compte la sensation perçue et non pas le niveau de pression sonore (dB), les instruments de mesures sont équipés de filtres atténuant ou augmentant l’intensité des basses, moyennes ou hautes fréquences. Ces filtres sont obtenus en appliquant des courbes de pondération se basant sur les courbes d’isosonie. Ainsi selon la norme ISO 226:2003, la pondération A, qui est la plus utilisée (notée dB(A)), se base sur la courbe correspondant au phone 40 (courbe étant égale à 40 dB à 1000 Hz ; Figure 11). De la même façon, la pondération B est obtenue à partir du phone 70, la pondération C à partir du phone 90 (Figure 11). La pondération D a été créée pour des niveaux de bruit exceptionnellement élevés et est particulièrement bien adaptée pour les bruits des avions par exemple (Figure 11).

Figure 10 : Courbes d’isosonie issue de la norme ISO 226:2003. Les traits pointillés représentent la limite de l’audible.

Figure 11 : Courbes de pondération : A (en bleu), B (en jaune), C (en rouge) et D (en noir). Les traits pointillés représentent une estimation des courbes en hautes fréquences.

L’exposition au bruit n’est pas sans danger, les niveaux ainsi que la durée d’exposition sont réglementés pour éviter les dégâts irréversibles sur l’oreille. Le réflexe stapédien a pour but de minimiser les dégâts sur l’oreille à partir de niveaux sonores élevés (à partir de 80 dB pour des fréquences entre 250 et 4000Hz ; Dancer, 1991). Ce phénomène se produit grâce à la contraction de muscles de l’oreille moyenne rendant la chaîne des osselets plus rigide afin d’atténuer le son (Møller, 1962). D’après la réglementation, le code du travail français impose une exposition de 8 heures maximum par jour pour un niveau de 80 dB(A) et de deux heures pour un niveau de 86 dB(A). Pour évaluer les capacités auditives d’une personne, on a recours à un audiogramme, qui établit le seuil d’audibilité grâce à des sons purs (8 et 11 fréquences sont testées : 125, 250, 500, 750, 1000, 1500, 2000, 3000, 4000, 6000, 8000 Hz). L’objectif est d’établir le niveau de perte auditive en fonction des fréquences. Les pertes sont considérées comme légères lorsqu’elles ne dépassent pas 25 dB HL (pour Hearing Level) et sévères au-delà de 70 dB HL. Le terme de surdité est utilisé pour une perte de plus de 90 dB. On remarque un effet de l’âge sur les audiogrammes, avec une baisse du seuil de perception des hautes fréquences et sur les sons de faibles intensités (Figure 12). Ce phénomène appelé presbyacousie, se traduit par une perte progressive de l’audition en fonction de l’âge (Huang & Tang, 2010). La presbyacousie est principalement due à des dégénérescences des cellules sensorielles.

Figure 12 : Audiogrammes des pertes auditives types en fonction de l’âge (HL : hearing level)

Cependant, certains déficits auditifs peuvent ne pas être détectés sur un audiogramme. C’est le cas de la synaptopathie cochléaire qui est due à une dégénérescence des synapses et terminaisons nerveuses cochléaires et qui peut générer des problèmes de compréhension de la parole dans des environnements bruyants (Liberman, Epstein, Cleveland, Wang, & Maison, 2016). Cette affectation peut être détectée par émission otoacoustique et électrocochléographie.