• Aucun résultat trouvé

Bases neuronales d’une sémiotique des sons

La quête d’invariants morphologiques m’a naturellement conduite à m’intéresser aux para-digmes et aux méthodes pratiquées dans le domaine des neurosciences cognitives afin d’appro-fondir le vaste champ de la sémiotique des sons et de mieux comprendre les processus céré-braux qui sous-tendent le traitement des sons. Les outils de synthèse développés précédemment offrent ainsi des possibilités de façonner finement les stimuli sonores et d’interroger la percep-tion. D’autre part, les corrélats cérébraux et les paradigmes sous-jacents permettront d’apporter des éléments d’éclairage sur le type de sémiose sous-tendu par ce langage des sons. Ainsi, nous avons mis au point différents protocoles expérimentaux afin d’étudier plus en détail le processus de catégorisation perceptive et de traitement sémiotique entre des sons non linguistiques avec la méthode des Potentiels Evoqués (PEs).

Méthode des Potentiels Evoqués (PEs) Cette méthode d’imagerie cérébrale consiste à enre-gistrer l’activité électrique du cerveau (électroencéphalogramme, EEG) associée au traitement de l’information apportée par un stimulus (sonore, visuel, etc.). Les variations de cette activité électrique synchronisées avec la présentation de ce stimulus sont reflétées par une succession de déflexions positives (P) ou négatives (N) par rapport à un niveau de base appelées compo-santes qui sont caractérisées non seulement par leur polarité, mais aussi par la latence de leur maximum d’amplitude (par rapport au début du stimulus), par leur distribution topographique sur les différentes positions standardisées des électrodes sur le scalp et par leur signification fonctionnelle. Typiquement, il est communément admis que les premières composantes (P100, N100 et P200) reflètent les étapes de traitement sensoriel et perceptif de l’information et sont obligatoirement évoquées à la suite d’une stimulation. Par contre, la nature des composantes apparaissant après 200 ms dépend des caractéristiques de la stimulation, du protocole expéri-mental et de la tâche demandée. L’interprétation de ces composantes plus tardives doit alors prendre en compte l’ensemble de ces facteurs.

2.4.1 Processus de catégorisation perceptive

Nous nous sommes ici intéressés aux processus qui sous-tendent la catégorisation perceptive des sons de matériaux impactés issus du synthétiseur. Dans le test de catégorisation présenté en section 2.1, nous avons également mesuré l’EEG des sujets lorsqu’ils effectuaient la tâche. Les données électrophysiologiques moyennées en fonction de la classification des participants (Bois, Métal ou Verre) ont mis en évidence des processus cérébraux pour les sons de Métal différents de ceux pour les sons de Bois ou de Verre et ce, de manière très précoce, dès 150 ms après le dé-but du son (Aramaki and Besson,2007;Aramaki et al.,2009a,2011). En particulier, les sons de Métal sont associés à une composante P200 de plus faible amplitude et des composantes N280 et

2.4. Bases neuronales d’une sémiotique des sons

NSW (Negative Slow Wave) de plus grande amplitude que les sons de Bois et Verre (Figure2.8, gauche). Sur la base de travaux relatifs aux corrélats acoustiques de ces composantes, on sup-pose que cette différentiation refléterait des processus de traitement de la complexité spectrale (spectres des sons de Métal plus riches que ceux pour le Bois et Verre) et de la durée du son (par conséquent de l’amortissement ; durée plus longue pour les sons de Métal que les sons de Bois et Verre). Par contre, les résultats n’ont pas révélé de différences significatives sur les composantes P100 et N100 dont on sait qu’elles sont notamment influencées par des variations acoustiques liées au transitoire des sons. Ces résultats semblent appuyer le fait que le processus de catégorisation intégrerait les aspects non seulement temporels mais aussi spectraux du son et par conséquent, viennent conforter les résultats acoustiques précédents montrant l’importance conjointe des descripteurs temporels et spectraux dans la perception du matériau.

2.4.2 Relation sémiotique entre deux sons

L’expérience précédente a permis de mieux comprendre les processus de catégorisation as-sociés au traitement de sons isolés. L’expérience que nous avons mis au point par la suite a eu pour objectif de mettre en évidence un traitement du degré de relation sémiotique entre deux sons et, en particulier, de déterminer si ce traitement repose sur la mise en jeu de processus simi-laires ou différents de ceux mis en jeu dans le langage (traitement sémantique). Cette question présente un fort intérêt pour instaurer les fondements du langage des sons qui nous souhaitons élaborer. Le traitement des mots du langage est spécifique dans la mesure où les séquences de phonèmes qui forment les mots n’ont pas de signification en elles-mêmes mais acquièrent une signification par le processus de double articulation (de Saussure,1916). En revanche, il existe une relation intrinsèquement causale entre les sons de l’environnement et la signification que nous leur associons (Ballas, 1993). Ces considérations tendent à conclure que les mots et les sons de l’environnement sont traités différemment par le cerveau. Cependant, des études dans le domaine des PEs ont avancé des arguments en faveur de similarités entre ces 2 processus (Orgs et al.,2006;Plante et al.,2000;Van Petten and Rheinfelder,1995).

Dans le cadre du travail de master de Céline Marie, nous avons mis en place un protocole d’amorçage (largement utilisé pour le langage) avec des sons linguistiques et non linguistiques sur un même groupe de participants (Aramaki et al., 2010). Pour les sons non linguistiques, les mêmes stimuli que l’expérience précédente de catégorisation sonore de matériaux frappés (section 2.1) ont été utilisés mais présentés cette fois-ci par paires. Les sons linguistiques ont consisté en des mots, pseudo-mots et non-mots et ont été enregistrés spécifiquement pour cette expérience. Pour les deux types de stimuli, les sons de chaque paire différaient par leur degré de relation sémiotique/sémantique : paires reliées (deux sons typiques du même matériau pour les sons non linguistiques ; deux mots pour les sons linguistiques), ambiguës (un son typique suivi d’un son ambigu ; mot suivi d’un pseudo-mot) et non reliées (deux sons typiques de

Chapitre 2. Informer par le son

FIGURE 2.8 – Gauche : Potentiels Evoqués associés au processus de catégorisation des sons perçus comme du Métal, du Bois et du Verre. Figure extraite de (Aramaki et al.,2011). Droite : Effet d’amorçage conceptuel révélé par les Potentiels Evoqués associés au stimulus cible relié (en noir), ambigue (en gris) et non reliée (en pointillé), sur les électrodes fronto-centrales. Figure extraite de (Frey et al.,2014).

tériaux différents ; mot suivi d’un non-mot). Nous avons particulièrement exploré l’effet N400, i.e. la différence d’amplitude sur la composante N400 entre les cibles reliées et non reliées ou ambigües. En effet dans le cas du langage, il a été largement montré que l’amplitude de la com-posante N400 est inversement proportionnelle au degré du lien sémantique entre un mot et le contexte qui le précède (Kutas and Hillyard,1984). Les données comportementales ont révélé un pourcentage d’erreurs plus élevé pour les cibles ambiguës que pour les cibles reliées et non reliées pour les deux types de stimuli. Les données électrophysiologiques ont montré des simili-tudes dans les effets obtenus entre sons linguistiques et non linguistiques, se traduisant par une négativité fronto-centrale autour de 450 ms après le début de la cible plus ample pour les cibles ambiguës que pour les cibles reliées, et une positivité (composante P300) plus ample dans les régions pariétales pour les cibles non reliées. Malgré une différence dans la distribution topo-graphique de ces effets, l’ensemble de ces résultats refléterait plutôt la mise en jeu de processus cérébraux d’amorçage conceptuel communs aux deux types de stimuli.

Documents relatifs