• Aucun résultat trouvé

Chapitre 3. Traitement auditif de la parole, surdité et implant cochléaire

2. Système auditif : anatomie et physiologie

Les sons subissent une série de transformations lorsqu’ils traversent l’oreille externe, l’oreille moyenne, l’oreille interne, le nerf auditif, pour être enfin traités par le cerveau (Loizou, 2002) (Figure 8). L’oreille externe, composée du pavillon et du canal auditif externe, capte les ondes acoustiques et les transmet vers l’oreille moyenne. Les ondes acoustiques sont converties en vibrations mécaniques par les 3 osselets présents dans l’oreille moyenne (le marteau, l’enclume et l’étrier). Les vibrations mécaniques sont ensuite transmises à l’oreille interne, qui contient la cochlée. La cochlée est un long cône enroulé en spirale. La cochlée est composée de la membrane basilaire, tapissée de cellules ciliées qui baignent dans un fluide.

Les cellules ciliées sont des cellules sensorielles qui traduisent le mouvement mécanique en stimuli nerveux. Le déplacement de la membrane basilaire et du fluide contenu dans la cochlée cause l’activation des cellules ciliées qui dégagent ainsi une impulsion électrique. Les

6 Un harmonique est un élément constitutif d'un phénomène périodique ou vibratoire.

tel-00585948, version 1 - 14 Apr 2011

54

cellules ciliées traduisent les mouvements mécaniques en activité nerveuse. Il y a alors initiation d’un potentiel d’action dans les neurones du nerf auditif. La cochlée est donc le lieu de transduction des informations mécaniques provenant de l’oreille moyenne en stimulation électrique. Ces impulsions électriques vont stimuler le nerf auditif qui communique avec le système nerveux central et transmet le signal acoustique au cerveau.

Figure 8. Anatomie de l’oreille humaine. La couleur violette représente l’oreille externe, la couleur verte, l’oreille moyenne et la couleur bleue, l’oreille interne (Vander, Sherman, &

Luciano, 2001).

2.1. Physiologie de la cochlée

La cochlée est caractérisée par une sélectivité fréquentielle fine. Les sons entrant dans la cochlée créent une variation de pression sur la membrane basilaire, induisant ainsi la mise en mouvement de la membrane basilaire et des cellules ciliées. La réponse de la membrane basilaire aux sons de différentes fréquences, qui varie de la base à l’apex, est fortement affectée par ses propriétés mécaniques. La base et l’apex représentent les deux extrémités de la membrane basilaire. La base est relativement étroite et rigide, alors que l’apex est large et souple (von Békésy, 1960) (Figure 9). Il en résulte que la position du pic du pattern de vibration de la membrane basilaire varie en fonction de la fréquence de stimulation.

tel-00585948, version 1 - 14 Apr 2011

55 Figure 9. Présentation d’une cochlée déroulée (Kolb et Whishaw, 2002)

Les sons de hautes fréquences produisent un maximum de déplacement de la membrane à la base, ainsi que peu de mouvement sur le reste de la membrane. Les sons de basses fréquences produisent un pattern de vibration qui s’étend tout au long de la membrane basilaire, mais qui atteint un maximum au niveau de l’apex. On parle alors d’une organisation tonotopique (Figure 10a), ce qui signifie que la cochlée est caractérisée par un codage place-fréquence. La cochlée et ses constituants fonctionnent comme un analyseur de fréquence puisque la parole est décomposée en plusieurs bandes fréquentielles. La Figure 10b illustre que les sons de différentes fréquences produisent un déplacement maximum sur différents lieux le long de la membrane basilaire. Cette figure montre les enveloppes de différents patterns de vibration pour des sinusoïdes de fréquences différentes (inspiré de Von Békésy, 1960). En effet, la cochlée présente un comportement similaire à l’analyse de Fourier, bien que moins précise sur l’analyse fréquentielle. La fréquence qui implique une réponse maximale à un point particulier de la membrane basilaire est connue comme étant la fréquence caractéristique de ce point.

Ainsi, la membrane résonne avec des hautes fréquences à la base, et avec des fréquences progressivement plus basses en direction de l’apex. Avec ce mécanisme, la cochlée humaine fournie un filtre de 10 rangs d’octaves et traite les sons complexes par une décomposition fréquentielle.

tel-00585948, version 1 - 14 Apr 2011

56

Figure 10. (a) Correspondance tonotopique entre la position sur la cochlée et la fréquence caractéristique. La réponse de la membrane basilaire dépend de la fréquence du son. (b) Une représentation schématique de la cochlée et des enveloppes de différents patterns de vibration correspondant à des sinusoïdes de fréquences différentes (Kolb et Whishaw, 2002).

2.2. Réponses nerveuses du nerf auditif

Environ 30000 neurones dans chaque nerf auditif transportent l’information de la cochlée au système nerveux central. Les réponses nerveuses semblent être influencées par 3 phénomènes. Premièrement, les fibres montrent une autostimulation spontanée (ou environnementale) en l’absence de stimulation sonore. Deuxièmement, les fibres répondent mieux à certaines fréquences qu’à d’autres ; elles montrent une sélectivité fréquentielle.

Troisièmement, les fibres répondent à un mécanisme de verrouillage en phase (phase-locking). Le mécanisme de verrouillage en phase correspond au pattern temporel des décharges dans les fibres du nerf auditif et représente la modulation du potentiel d’activation des cellules ciliées (e.g. Johnson et Kiang, 1976). La déflection des cellules ciliées, produit par le mouvement de la membrane basilaire, fournit une excitation neuronale. Aucune excitation ne se produit quand la membrane basilaire bouge dans la direction opposée puisque les parties négatives du signal génèrent une hyperpolarisation des cellules ciliées (Ruggero, Robles, et Rich, 1986). A cause de l’absence de décharge pendant l’hyperpolarisation, le signal est modulé par des « trous », des absences de stimulation. Ce phénomène correspond au mécanisme de verrouillage en phase. L’autostimulation spontanée, la sélectivité fréquentielle et le verrouillage en phase sont donc des processus qui influencent la transmission des indices spectraux et temporels du signal de parole.

tel-00585948, version 1 - 14 Apr 2011

57 2.3. Traitement spectro-temporel dans le système auditif

Le système auditif est traditionnellement conçu comme un analyseur de fréquence (Ohm, 1843; Von Helmholtz, 1863), avec une capacité limitée (Plomp, 1964), fournissant une représentation fidèle des propriétés spectro-temporelles du signal acoustique. La parole est décomposée par la cochlée en plusieurs bandes de signal à bande passante étroite. Sa décomposition fréquentielle permet d’obtenir une représentation spectrale, indiquant la répartition de l’énergie du signal dans un grand nombre de bandes fréquentielles. Les informations spectrales du signal de parole sont codées par leur emplacement sur la cochlée.

Le système auditif fourni non seulement des informations fréquentiels au système nerveux central, mais également des informations temporelles. De nombreuses études (e.g., Johnson et Kiang, 1976) ont par exemple démontré que les potentiels d’action dans des fibres du nerf auditif surviennent préférentiellement lors une phase particulière du signal. Les paragraphes suivant décrivent les aspects temporels de la perception des sons. Les informations temporelles correspondent à une dimension importante dans l’audition, puisque la plupart des sons varient au cours du temps. Par exemple, pour les sons de parole, la plupart des informations semble être portée par les variations temporelles, plutôt que par les parties relativement stables du son. Le système auditif traite la résolution temporelle du signal qui se réfère à l’habileté à détecter un changement dans le stimulus au cours du temps, par exemple, un bref trou entre deux stimuli, ou à détecter qu’un son est modulé d’une certaine façon. La résolution temporelle dépend principalement d’un processus : l’analyse des patterns temporels qui s’effectue à l’intérieur de chaque bande de fréquence.

Les informations temporelles présentes dans chaque bande de signal peuvent être de différentes formes. Dudley (1940) a distingué la porteuse (composée de modulations de phase (PM) et de modulations de fréquence (FM)), des modulations d’amplitude de la porteuse au cours du temps (AM). Les modulations de phases peuvent être codées par le mécanisme de « verrouillage en phase ». Les modulations d’amplitude peuvent également être codées par un mécanisme de verrouillage en phase, ainsi que par des variations du taux de décharges des fibres du nerf auditif (e.g., Joris, Schreiner, et Rees, 2004). La porteuse correspond à l’information temporelle la plus rapide alors que les modulations d’amplitude (AM) de la porteuse dans le temps correspondent aux informations temporelles les plus lentes. Ces deux structures temporelles (porteuse et modulations d’amplitude) correspondent respectivement aux concepts de structure temporelle fine (TFS : temporal fine structure) et d’enveloppe temporelle (E). Les stimuli linguistiques d’E et de TFS sont représentés dans la figure 11.

tel-00585948, version 1 - 14 Apr 2011

58

Figure 11. Représentation schématique de la décomposition d’un signal de parole /aba/ par le système auditif périphérique. Le signal de parole est décomposé en différentes bandes fréquentielles (ici 6). Chaque signal à bande passante étroite peut être décomposé comme le produit d’une enveloppe temporelle (E) et d’une structure temporelle fine (TFS). (Figure reproduite avec l’autorisation de Marine Ardoint).