• Aucun résultat trouvé

1. M USIQUE ET PAROLE : DIACHRONIE ET SYNCHRONIE

1.2 Parallèles et différences au niveau neurocognitif

1.2.1 Traitement(s) neurocognitifs

De manière générale, les deux hémisphères du cerveau sont comparables en termes de taille et de surface. Les quatre lobes principaux ont un aspect macroscopique sensiblement

similaire (Gazzaniga et al., 2001 : 325). Cependant, depuis le XIXème siècle, il est reconnu que

le cerveau présente une asymétrie fonctionnelle. Ce constat a notamment été conforté par les travaux de Geschwind sur les cerveaux de cent individus droitiers (Geschwind et Levitsky, 1968 : 186-7). Il n'est dès lors plus remis en question que les aires de Broca et Wernicke (Broca, 1861 ; Wernicke, 1874/1977) traiteraient de manière préférentielle respectivement les processus phono-articulatoires et les processus phono-sémantiques. De plus, Hesling (2002 : 7) rappelle que :

25 « a dedicated neural network might be responsible for this sophisticated skill that allows transforming music notation into a precise motor response »

« L’hémisphère droit se caractérise par des zones plus importantes de cortex associatif (aires qui n’ont pas de projections hors du cerveau et dont les neurones communiquent entre eux et avec d’autres neurones du cortex), tandis que l’hémisphère gauche se caractérise par des zones motrices et sensorielles plus importantes. »

Cependant, Peretz (1985 : 575) émet des doutes quant à une dichotomie trop tranchée sur la question en ce qui concerne la musique :

« Les résultats des travaux qui ont étudiés les différences latérales dans la perception des sons simultanés sont dans l'ensemble cohérents avec l'idée que l'hémisphère gauche se caractériserait par un mode analytique de traitement et l'hémisphère droit par un traitement de nature différente. Cependant, le manque d'indications indépendantes des asymétries observées sur le traitement opéré par les sujets laisse encore obscure la nature des opérations mieux effectuées dans l'hémisphère droit. De ce fait, la distinction en termes de modes de traitement analytique et holistique demeure une hypothèse plausible mais non convaincante quant à la division des fonctions entre hémisphères cérébraux dans la perception des sons musicaux. »

Néanmoins, il est communément admis, de nos jours, que les habiletés cognitives comme le langage représentent un ensemble de sous-éléments spécifiques. De cette manière, les recherches actuelles ne permettent pas de déterminer avec précision le rôle de chaque hémisphère dans le traitement de la prosodie, par exemple. Différentes hypothèses se confrontent ou se complètent sur le sujet (Di Cristo, 2002:17) :

la latéralisation radicale : la prosodie implique majoritairement hémisphère droit

(HD),

la latéralisation fonctionnelle : les aspects affectifs sont traités par HD et les aspects

linguistiques de la prosodie par l’hémisphère gauche (HG),

la distribution du traitement des émotions : la prosodie implique majoritairement HD

mais les émotions positives HG et les émotions négatives HD,

la latéralisation paramétrique : les différences de hauteur sont traitées par HD et les

différences de durée par HG.

Malgré ces théories parfois opposées, il semblerait que « les deux hémisphères soient concernés par le traitement de la prosodie en général […] mais on note une nette préférence de HD pour effectuer cette tâche cognitive » (Di Cristo, 2002 : 17). Le traitement de l'information est considéré non pas en fonction de la tâche (langage, musique, syntaxe, sémantique, etc..) mais plutôt en terme d'élément référentiel ou non. Bien qu'il existe une interdépendance des deux hémisphères, le gauche aurait une prédilection pour les éléments référentiels tandis que le droit traiterait l'information de manière non-référentielle.

Nous nous intéressons plus particulièrement à une région nommée la zone de Broca. Cette partie du cerveau est également mise en action pour l'organisation visuelle des mots par le langage des signes (Hickok et al., 1998 : 129-36). En outre, « l'émergence de la faculté créative de langage chez l'homme est sans doute liée à l'accroissement de ses capacités cognitives et des aires cérébrales de Broca et Wernicke » (Vaissière, 2006 : 47). C'est donc le centre d'organisation des informations dans le temps quelle que soit l'origine sensorielle de l'impulse et quelle que soit la région qui l'analysera ensuite. Cette zone est responsable de la structure, la syntaxe des éléments communicatifs. La région de Broca est directement reliée à celle de Wernicke via le faisceau arqué. Cette dernière précède l'aire de Broca dans l'analyse d'un signal sonore, et permet de reconnaître un ensemble de phonèmes connus: « un mot » ou « groupe de sens ».

Il reste à se demander si dans cette perspective, musique et parole peuvent posséder des corrélats neurophysiologiques communs. Depuis les années 1980, le « dual factor model » (modèle du double facteur) propose que la parole soit traitée simultanément de manière linguistique et acoustique. Ces différents traitements peuvent être mis en évidence à travers la variation des caractéristiques de stimuli et du type de tâche dans des expérimentations phonético-phonologiques. Werker & Tee (1984b : 1876) dissocient le traitement linguistique en deux entités :

« le niveau phonémique: les stimuli sont traités comme des évènements de sens qui peuvent être encodés efficacement et représentés dans la mémoire pour une longue période. Le niveau phonétique: le son peut être perçu comme des percepts synthétisés et sans sens et peuvent ainsi être stockés dans la mémoire pour une courte période mais s'amenuise plus rapidement qu'au niveau phonémique. L'information phonétique et phonémique peut être disponible simultanément mais pendant une courte période de temps. »26

Il est probable que nous puissions retrouver des corrélats neurophysiologiques, entre musique et parole, dans le traitement acoustique et éventuellement phonétique, mais un traitement dissocié au niveau phonologique. Précisons que toutes les informations acoustiques sont traitées de manière égale au niveau des aires primaires corticales, et ce quelle que soit leur nature. Le traitement phonologique ou musical qui est mis en place au cours du temps permet de traiter certaines informations pertinentes plus rapidement et plus efficacement dans certaines conditions à travers un système de feedback, notamment (Simmonds et al., 2011).

26 « phonemic level, stimuli are treated as meaningful events that can be efficiently encoded and represented in memory for a long duration. Phonetic level, the sound may be perceived as synthesized (nonmeaningful) percepts, and thus may be retained in memory for a short duration but have a more rapid decay period than phonemic stimuli. Phonemic and phonetic information may be available simultaneously for a short period of time. »

En ce qui concerne la musique, le modèle le plus récent proposé par Peretz & Coltheart (2003 ; Figure 2) propose une représentation modulaire de la musique.

Figure 2: Une représentation modulaire de la musique (Peretz & Coltheart, 2003 : 690). Chaque rectangle représente un bloc processuel et chaque flèche un flux d'information. Les blocs spécifiques à la musique apparaissent en noir foncé et les autres en noir/gris clair. Néanmoins, cette «modularité» serait de nature complexe, mettant en avant une multiplicité de traitements pour la musique et la parole. Patel (2008 : 357) tient à préciser que « les modules peuvent être le produit du développement [cérébral] plutôt que le reflet de spécialisations déterminées de manière innée »27. Des liens au niveau acoustique et prosodique existeraient, comme le proposent Peretz & Coltheart (2003 : 690) dans le modèle ci-dessus (Figure 2). De plus, des travaux tendent en faveur d'une SSIRH : « Shared Syntactic Integration Resources Hypothesis28 » (Grahn, 2011 : 235) proposant que :

« la musique et le langage partagent des ressources impliquées dans les processus d'intégration structurale des événements (musicaux ou linguistiques et des processus de mémoire de travail) […] En revanche, la musique et le langage disposeraient de réseaux neuronaux distincts pour le stockage des représentations musicales et linguistiques à long terme, autorisant ainsi des déficits sélectifs du traitement de la musique (i.e., amusie) et du langage (i.e., aphasie)» (Hoch, 2008 : 39).

27 « modules can be a product of development, rather than reflecting innately specified brain specialization » 28 L'hypothèse de ressources d'intégration syntaxique partagées

Il semble clair qu'il faille dissocier deux ensembles : la syntaxe et la sémantique. Un grand nombre de protocoles expérimentaux ont mis en évidence des processus similaires dans le traitement syntaxique de ces systèmes sonores. Dans les deux cas, une violation syntaxique provoque, lors d'enregistrements électrophysiologiques, l'émission d'une onde P600 (onde positive autour de 600 ms ; Kutas & Hillyard, 1983 ; entre autres). Le processus de violation repose sur le développement d'attentes musicales ou langagières qui facilitent la compréhension. Elles permettent donc d'affirmer que « ces études suggèrent des corrélats électrophysiologiques communs au traitement de la syntaxe en musique et en langage » (Hoch et al., 2008: 37). Cependant, aucun travaux, jusqu'à présent, n'ont permis de montrer de tendance stable en ce qui concerne le plan sémantique. Tandis que la violation sémantique langagière met en évidence l'émission d'une onde N400 (onde négative autour de 400 ms ; Kutas & Hillyard, 1983 ; entre autres), la violation sémantique musicale provoque une onde positive autour de 800 ms (Ibidem : 38) ; cette différence « suggère des ressources distinctes pour les traitements musical et sémantique » (Ibidem : 43), même si le chant montrait des cas d'interaction entre les sémantiques musicales et linguistiques. Le caractère des activités pourrait expliquer les résultats contradictoires. En effet, il semble plus aisé de mettre en corrélation des tâches syntaxiques entre musique et parole que des tâches sémantiques.

Nous mentionnerons que l'approche modulaire proposée par Peretz & Coltheart (2003) peut être reconsidérée au regard des travaux de Chobert & Besson (2012) selon lesquels la pratique musicale chez l'enfant peut avoir des répercussions sur les autres capacités perceptives et cognitives :

« l’apprentissage de la musique influence le traitement des unités de base du langage, les syllabes [allant] à l'encontre d'une conception modulaire et informationnellement encapsulée du langage qui serait indépendante des autres capacités perceptives et cognitives. Ces résultats indiquent que l'apprentissage musical ne facilite pas seulement le traitement des paramètres acoustiques tel que la durée ou la fréquence, mais améliore également la perception de paramètres linguistique plus abstraits tel que le VOT »29 (Chobert & Besson, 2012 : 71).

Ces résultats ont été confirmés par Kraus & Chandrasekaran (2010 : 600) qui affirment que « l’entraînement musical a des effets sur la capacité auditive non-exclusivement avec la musique »30. Ils ont également démontré que les musiciens ont de meilleures représentations (correspondance stimuli – réponse neuronale) en ce qui concerne la perception de la fréquence

29 Voice Onset time : intervalle de temps entre le début du relâchement de la consonne et le début du voisement de la voyelle. Il intervient notamment dans la perception voisée ou non-voisée des consonnes occlusives, en anglais par exemple (Lisker and Abramson, 1964).

fondamentale et les harmoniques du spectre de la parole (Ibidem).

Même si l'ensemble de ces résultats scientifiques donne l'impression du caractère immuable en place dans le traitement des informations par le cerveau, il nous reste à montrer l'impact de l'environnement sur ces structures apparemment fixes.