• Aucun résultat trouvé

3. Electrophysiologie de l’audition et autres outils de mesure 49

3.1.3. Electrophysiologie de l’audition

Nous allons désormais entrer dans le domaine des potentiels évoqués. Comme dans tout jargon technique, l’adjectif « évoqué » a ici un sens bien particulier : il désigne une activité dont la latence est toujours identique en réponse aux répétitions d’un même stimulus. Il s’oppose à « induit » qui désigne une réponse au stimulus qui aura une latence variable au fur

ϱϰ

et à mesure des répétions, comme cela peut être le cas à des niveaux de traitement particulièrement élevés, en proie à des mécanismes attentionnels fluctuant de façon incontrôlable pour l’expérimentateur.

Les premiers enregistrements EEG chez l’Homme remontent aux travaux de Hans Berger, en 1924. Quelques années plus tard, Wever & Bray découvrent chez le chat ce qu’ils croient être une activité du nerf auditif, mais qui se révèlera quelques années plus tard être une activité cochléaire (Wever & Bray, 1930 ; Davis et al., 1934).

L’électrocochléographie ainsi nommée est l’enregistrement de l’activité électrique cochléaire générée par les influx ioniques dans les cellules ciliées internes et externes. Elle différencie trois types d’activités : le potentiel microphonique cochléaire, le potentiel de

sommation et le potentiel d’action composé, ce dernier étant généré par le nerf auditif

(Eggermont, 1974 ;Eggermont & Odenthal, 1974). Les potentiels cochléaires microphoniques

révèlent par ailleurs la capacité des cellules ciliées à encoder temporellement par suivi de phase les fréquences jusqu’à environ 5000 Hz : chaque mouvement vers le haut de la membrane basilaire entraine un flux ionique entrant dans les cellules ciliées du fait de la contrainte mécanique appliquée sur leurs stéréocils ; un mouvement vers le bas n’entrainera par conséquent pas de réponse des cellules ciliées, qui ne transmettent donc qu’un seul message par cycle du stimulus acoustique.

Figure 3.3. Potentiels Evoqués Auditifs Précoces (PEAP) en réponse à des clics, chez un sujet normo-entendant (données acquises durant la mise en place du protocole de l’étude 4). Les ondes I, III et V sont représentées par les points jaunes, orange et rouges, respectivement. L’onde II est également observable à 80 et 70 dB nHL. Notons l’effet de l’intensité de stimulation sur la latence de l’onde V.

ϱϱ

Les potentiels évoqués auditifs précoces (PEAP), ou réponses du tronc cérébral auditif aux clics (en anglais Click ABR pour Auditory Brainstem Response), sont une série de 7 ondes arrivant dans les 10 millisecondes suivant l’écoute d’un clic (Jewett & Williston, 1971). Ce

stimulus suit théoriquement une distribution de Dirac, c’est-à-dire qu’elle vaut l’infini en zéro,

et zéro partout ailleurs ; autrement dit, un clic est censé contenir toutes les fréquences en une durée infiniment petite. Ils sont enregistrés à l’aide d’un différentiel d’électrodes placées au vertex (sommet du crâne), et à la mastoïde ou au lobe du côté de l’oreille stimulée. Les latences des différentes ondes informent sur l’intégrité des voies auditives ascendantes sous-corticales, du nerf auditif au colliculus inférieur, comme nous allons le voir en détail dans la prochaine partie. Aussi, la détection de l’onde V, la plus robuste à intensité de stimulation basse (Figure 3.3.), informe de l’audibilité des hautes fréquences de 2 à 4 kHz (Stapells & Oates, 1997).

Du fait que le clic contienne théoriquement toutes les fréquences, l’ensemble de la membrane basilaire (plus précisément des cellules ciliées internes qui s’y situent) va transmettre le signal au nerf auditif. Or nous avons vu que les hautes fréquences sont encodées sur la membrane dans la partie basale de la cochlée, et les basses fréquences à l’apex ; en « entrant » par la fenêtre ovale, les hautes fréquences vont atteindre leur cible avant les moyennes, et encore plus avant les basses fréquences, si bien que le nerf auditif recevra une séquence d’afférences des différentes fréquences. Comme l’amplitude des pics des ABR dépend grandement de la taille de la population neuronale synchronisée, l’idée est apparue de réarranger temporellement les différentes composantes spectrales du clic pour qu’elles arrivent toutes au même instant aux cellules ciliées puis au nerf auditif. Cette technique appelée Chirp

ABR permet alors d’obtenir des réponses plus amples et plus facilement détectables (Dau et al., 2000).

La réponse de suivi de fréquence, ou Frequency-Following Response (FFR) est une activité évoquée soutenue qui représente un stimulus périodique en s’y alignant en phase (Worden & Marsh, 1968 ; Marsh et al., 1970). Elle s’observe entre 6 et 20 ms après le début du stimulus, qui peut être un ton pur d’apparence sinusoïdale lorsqu’il ne contient qu’une seule fréquence, ou un ton complexe lorsqu’il possède plusieurs fréquences (ou encore un son de parole, comme nous allons le voir dans la partie suivante. Cette propriété de suivi de phase (phase-locking) donne à la cette réponse l’apparence du stimulus qui l’évoque.

Les réponses stationnaires auditives, ou Auditory Steady-State Response (ASSR) diffèrent de la FFR en suivant la fréquence (temporelle) de modulation en amplitude d’une fréquence (spectrale) porteuse, plutôt que la fréquence porteuse même (Galambos et al., 1981). Cette réponse est très utilisée dans l’implémentation de mesures objectives de l’audition, car elle apporte une information semblable à l’audiométrie tonale sans nécessiter la participation active du sujet (Herdman & Stapells, 2003). Elles s’enregistrent comme les autres ABR.

ϱϲ

En continuant de monter dans les voies auditives nerveuses humaines, nous arrivons aux Potentiels Evoqués Auditifs de latence moyenne, avec les ondes Pa, Na, Pb et Nb arrivant à des latences comprises entre 20 et 40 ms après la stimulation. La lettre indique le signe de l’onde (Positive ou Négative).

Enfin, les Potentiels Evoqués Auditifs corticaux forment un complexe de 3 ondes principales, P50, N1 et P2 arrivant 50, 100 et 200 ms après une variation conséquente du niveau d’énergie acoustique dans le stimulus (le nombre indique en effet la latence d’apparition de l’onde ; Figure 3.4.).

Figure 3.4. Grande moyenne des Potentiels Evoqués Auditifs corticaux de 4 participants normo-entendants en réponse à une syllabe /ba/, observée en Cz référencée au nez (figure réalisée à l’aide des données de l’étude 4). Un premier complexe P50-N1-P2 s’observe en réponse au début du stimulus (voisement, ou voicing ; en bordeaux), et un second est évoqué par l’explosion du /b/ (relâchement de l’occlusion, ou release ; en rouge).

D’autres ondes corticales liées à l’audition s’observent avec l’EEG, telles que la

Mismatch Negativity (MMN) ou la P300. La MMN est une réponse à l’occurrence d’un intrus

dans une séquence régulière de sons, consistant donc en quelque sorte à une erreur de prédiction codant la surprise dans le cerveau auditif. La P300 se manifeste pour un stimulus attendu, et traduit donc un effet de l’attention.

D’autres outils que l’EEG sont disponibles pour étudier le système auditif humain. La MEG apporte une information complémentaire à l’EEG, le champ magnétique étant

ϱϳ

orthogonal au champ électrique, et décroissant plus rapidement avec la distance. Des PEAP ont tout de même pu être enregistrés malgré cette dernière propriété, avec l’avantage donné par la MEG d’un grand nombre de capteurs permettant une reconstruction de source plus efficace qu’en EEG de scalp (Parkkonen et al., 2009).

Comme nous l’avons vu dans la partie précédente au niveau de la description du parcours cortical de l’information de parole, l’IRMf est utile pour localiser les aires cérébrales impliquées dans un traitement particulier, pour la mise en évidence duquel le protocole expérimental est conçu. Aussi, elle permet de quantifier l’activation d’une aire par contraste à une autre, à la même aire dans une autre condition expérimentale, ou encore à la même aire chez un sujet appartenant à un groupe différent. Elle met cependant plusieurs secondes à mesurer le signal BOLD (Blood-Oxygen-Level Dependent) pour l’ensemble du volume cérébral, et ne permet donc pas de suivre dans le détail l’encodage des sons de parole.

Documents relatifs