• Aucun résultat trouvé

3. Electrophysiologie de l’audition et autres outils de mesure 49

3.2. Speech ABR

3.2.3. Champs d’application

3.2.3.2. Audition

Asymétrie du système auditif

Le traitement de la parole et plus généralement du langage dans le cerveau humain est latéralisé, avec une dominance de l’hémisphère gauche dans le traitement temporel fin des informations formantiques, et du droit pour les variations plus lentes liées par exemple au rythme des syllabes (Zatorre & Belin, 2001).

Des liens entre Speech ABR et latéralisation corticale du traitement de la parole ont été mis en évidence : la précision temporelle de la Speech ABR est corrélée au traitement cortical

ϴϮ

latéralisé des informations acoustiques rapides (Abrams et al., 2006), alors qu’elle n’a pas de lien avec le traitement des informations lentes telles que le rythme syllabique (Abrams et al., 2010). Aussi, pour une syllabe tonale donnée et la même syllabe avec trajectoire de la F0 inversée (donc linguistiquement non-pertinente), la FFR au premier stimulus est plus grande lorsque celui-ci est présenté à l’oreille droite (et donc traité dans l’hémisphère gauche), suggérant une asymétrie des voies auditives ascendantes en amont du cortex auditif (Krishnan

et al., 2011a), en acceptant bien sûr l’idée de générateurs sous-corticaux de la Speech ABR.

Parole et phonétique

De nombreux stimuli approximant les sons de parole naturelle ont été étudiés dans leur

capacité à évoquer la FFR. Ils permettent également d’étudier de façon analytique les différents indices phonétiques encodés par la Speech ABR : formants F1 et F2 (Krishnan, 1999, 2002 ; Johnson et al., 2008a ; Krishnan & Agrawal, 2010), trajectoires fréquentielles (Krishnan & Parkinson, 2000 ; Krisnan et al., 2004), et fréquence fondamentale liée au pitch (Krishnan & Plack, 2011 ; Swaminathan et al., 2008).

La Speech ABR encode d’ailleurs les différents indices phonétiques si bien qu’en la sonorisant, c’est-à-dire en transformant le signal électrophysiologie en son, il est possible de percevoir le stimulus l’ayant évoquée (Galbraith et al., 1995 ; Weiss & Bidelman, 2015).

Parole dans le bruit

De nombreuses études pour la plupart menées par l’équipe de Nina Kraus ont progressivement institué la Speech ABR comme un prédicteur performant des capacités de compréhension de la parole dans le bruit (Anderson et al., 2013b). Pour une personne comprenant mal la parole dans le bruit, l’idée générale est la suivante : la qualité de l’encodage neuronal d’un stimulus de parole est dégradée par le bruit, entrainant une représentation neuronale imprécise de ce stimulus, et donc une baisse de son audibilité (Anderson & Kraus, 2010a,b ; Song et al., 2011b).

Chez des enfants avec troubles de compréhension dans le bruit, la Speech ABR évoquée par une syllabe dans le calme ne présente pas de déficit temporel par rapport à celle d’enfants normo-entendants, mais une syllabe diffusée dans le bruit engendre une réponse dégradée et retardée, spécifiquement au niveau de la transition formantique, plus sensible au bruit des points de vue acoustique et comportemental (Anderson et al., 2010a). Un effet du bruit dépendant de la fréquence a aussi été mis en lumière, avec la même logique : l’encodage était le plus dégradé au niveau des bandes de fréquences correspondant aux parties encodées du

stimulus (basses pendant la transition formantique, hautes pendant la voyelle ; Tierney et al.,

ϴϯ

Concernant l’encodage spectral, un autre groupe d’enfants avec troubles de compréhension dans le bruit a été testé, les Speech ABR desquels présentent un déficit dans l’encodage de F0 et de 3F0 (ou H3, sa deuxième harmonique). L’interprétation proposée était que cette altération entraine une dégradation de la perception du pitch, utilisé pour cibler la voix d’un locuteur dans un environnement bruyant (Anderson et al., 2010b). Aussi, le degré de modulation de l’encodage spectral par le contexte de répétition (réponse au stimulus présenté seul, contre réponse au stimulus accompagné de 7 autres stimuli en quantités égales) a été établi comme un prédicteur des capacités de compréhension dans le bruit (Chandrasekaran et al., 2009).

Dans une étude chez l’adulte âgé comprenant mal dans le bruit (participants entre 60 et 73 ans), l’encodage de F0 est aussi moins robuste, et la réponse à un stimulus présenté dans le bruit est fortement dégradée par rapport à la réponse au même stimulus présenté dans le calme (Anderson et al., 2011).

Des relations ont également été établies entre Speech ABR et PEA corticaux dans le bruit, avec pour la première réponse les effets classiquement observés de retard de latence, diminution d’amplitude et baisse de la précision neuronale, et pour les seconds des ondes N1 augmentée et P2 diminuée. Ce résultat met ainsi en évidence une interaction entre ces deux niveaux de traitement des sons de parole, respectivement sous-cortical et cortical (en considérant effectivement que la Speech ABR soit sous-corticale ; Parbery-Clark et al., 2011a).

Enfin, le SNR d’un stimulus de parole en-dessous duquel la F0 de la Speech ABR correspondante deviendra significativement dégradée a été située à 0 dB. Cela fixe une limite à ne pas franchir lors des expérimentations utilisant la Speech ABR dans le bruit, afin de s’assurer de l’obtention d’une réponse détectable (Li & Jeng, 2011).

Entrainement auditif et plasticité neuronale

Les premiers effets d’un entrainement auditif sur l’encodage neuronal des caractéristiques spectro-temporelles des sons de paroles par la Speech ABR ont été mis en évidence en 2005, avec une plus grande robustesse au bruit de la FFR après un entrainement de 2 mois, consistant en des tests phonologiques et auditifs sous forme de jeux d’ordinateur (Russo et al., 2005). Cette étude succédait alors à une précédente qui n’avait observé ces effets que sur les PEA corticaux (Hayes et al., 2003b).

Plusieurs études ont montré par la suite des effets d’un entrainement sur le suivi de F0 dans la FFR, particulièrement pour les sons de langue tonale les plus complexes (Song et al., 2008b ; Kraus & Chandrasekaran, 2010) et les transitions formantiques (Song et al., 2012 ; Kraus, 2012) ; et sur la robustesse de la Speech ABR dans le bruit (Filippini et al., 2012 ; Anderson et al., 2014).

ϴϰ

En complément de ces effets observés pour un entrainement de plusieurs semaines, une plasticité neuronale à plus court terme a également été montrée, cependant pour des tons complexes et non des sons de parole. Dans une première étude sur l’effet du contexte, une mélodie de cinq notes était délivrée aux sujets de façon répétée durant une heure et demie, laquelle mélodie comprenait deux notes répétées, permettant alors d’étudier l’effet d’une répétition globale vs. locale. La répétition globale entrainait une augmentation en amplitude de la première harmonique 2F0 dans la FFR, d’autant plus importante pour la note répétée localement (Skoe & Kraus, 2010b). Une seconde étude sur l’effet du contexte a montré un effet rapide d’apprentissage implicite, avec un encodage des basses fréquences diminué en amplitude pour une séquence de tons complexes structurée plutôt qu’aléatoire (Skoe et al., 2013). L’interprétation commune à ces études est celle d’une plasticité du tronc cérébral auditif induite par l’entrainement ou le contexte de stimulation, interprétation en outre étayée par une comparaison aux mécanismes de plasticité sous-corticale chez l’animal (Tzounopoulos & Kraus, 2009). Nous verrons dans les sections correspondantes les effets des expertises musicale et linguistique, assimilables à un entrainement auditif chronique.

Développement

Dans une première approche, les Speech ABR d’enfants âgés de 3 à 4 ans ont été comparées à celles d’enfants âgés de 5 à 12 ans : les plus âgés présentaient alors des latences de pics plus précoces, et une plus grande amplitude des composantes spectrales aux fréquences contenues dans le stimulus ; il n’y avait cependant pas de différence au niveau des Click ABR, suggérant alors une maturation spécifique aux sons complexes au cours de l’enfance (Johnson

et al., 2008b). Cette trajectoire développementale commencent dès les premiers mois de vie

(Jeng et al., 2010 ; Anderson et al., 2015 ; White-Schwoch et al., 2015) et peut encore s’observer à l’adolescence avec une réduction en amplitude de composantes spectrales marquant le passage à une fonction auditive mature (Krizman et al., 2015).

Vieillissement

Le vieillissement s’accompagne de déficits multiples, et la fonction auditive est bien loin d’être épargnée. Une première étude de Speech ABR a mis en évidence des composantes retardées et diminuées en amplitude, particulièrement aux latences correspondant aux zones de transitions rapides dans le stimulus de parole, ainsi que des réponses moins consistantes à travers les essais unitaires, se traduisant par une diminution de l’indice de verrouillage de phase (Figure 3.16. ; Anderson et al., 2012). Des études suivantes ont reproduit ces résultats, avec en règle générale des amplitudes réduites et des latences allongées (Clinard & Tremblay, 2013 ; Clinard & Cotter, 2015).

ϴϱ

Figure 3.16. Dégradation de la reproductibilité des essais unitaires chez la personne âgée. Cet effet s’observe sur l’ensemble du spectre, suggérant ainsi une imprécision temporelle générale (Anderson et al., 2012). L’indice de verrouillage de phase (phase-locking factor) représente le degré de consistance de la réponse, ou plus concrètement de reproductibilité des essais unitaires entre eux. Il varie entre 0 et 1 selon que ces essais soient tous déphasés ou tous parfaitement superposables, respectivement.

Une diminution des capacités de discrimination fréquentielle (Clinard et al., 2010), ainsi que des troubles de compréhension de la parole dans le bruit (Anderson et al., 2013c ; Shinn-Cunningham et al., 2013 ; Fujihira & Shiraishi, 2015) et de la perception catégorielle (Bidelman

et al., 2014a) ont également pu être liés à une qualité dégradée de la Speech ABR chez les

individus âgés.

Ces effets délétères de l’âge sur l’encodage neuronal des sons de parole peuvent néanmoins et bienheureusement être réduits par un entrainement auditif, menant à un raccourcissement des latences et à une resynchronisation neuronale (Anderson et al., 2013d). Les corrélats comportementaux sont alors une meilleure intelligibilité de la parole dans le bruit, une mémoire auditive à court terme plus efficace, et une durée de traitement auditif plus courte (temps de réponse réduits). L’entrainement utilisé dans cette étude durait deux mois, à raison d’une heure par jour, cinq jours par semaine (40 heures au total), et s’effectuait au domicile du participant sous forme d’un logiciel proposant six exercices progressifs de discrimination, répétition et mémorisation de syllabes et de mots (Brain Fitness, Posit Science).

ϴϲ

Documents relatifs