• Aucun résultat trouvé

Chapitre 2 Communication multimodale et vieillissement ________________________________________ 75

4. Conclusion du Chapitre 2

1. Introduction

Les changements cognitifs et langagiers liés à l’âge font l’objet de recherches de plus en plus étendues depuis les années 1970 (Wright, 2016). Ces recherches intéressent un vaste champ disciplinaire réunissant la psychologie, la gérontologie, les neurosciences et l’orthophonie et, plus récemment la linguistique. L’étude des personnes âgées en situation de Trouble Cognitif Léger (TCL) est particulièrement stimulante pour les recherches sur la communication multimodale car elle prend part à plusieurs niveaux d’implications cognitives, interactionnelles et sociales. Dans ce contexte, l’observation de la communication des personnes TCL serait pertinente afin de se saisir des variations présentes dans le langage et de repérer d’éventuels marqueurs précoces d’entrée dans la démence. La deuxième section de ce chapitre met en évidence les liens existants entre langage et motricité. Les études conduites en communication multimodale proposent depuis plusieurs années, des représentations formelles et fonctionnelles susceptibles d’intéresser le domaine de la psycholinguistique et de les appliquer au champ clinique. Le geste et la parole partagent des réseaux neuronaux robustes distribués à travers plusieurs aires cérébrales. Cette section s’attachera à en proposer une description du point de vue développemental et interactionnel. En effet, les gestes participent à la production du message ; ils permettent de sélectionner, d’organiser, de combiner les informations vocales en unités visuo-spatiales dans le discours. Cependant cet investissement corporel avec la parole résisterait moins bien à l’épreuve des recherches cliniques portant sur des individus à la cognition troublée ou pathologique pour qui le geste peut être facilitateur ou compétiteur avec la parole.

La troisième section développera les caractéristiques du vieillissement langagier normal et pathologique. Pour ce faire, elle documentera dans un premier temps les mécanismes qui sous-tendent le langage en production pour en décrire ensuite les singularités dans le vieillissement sain. Elle abordera ultérieurement ce qui spécifie la communication multimodale des personnes en situation de TCL et dans une moindre mesure, en situation de MA. Enfin, nous aborderons les comportements interactionnels souvent inadaptés de l’entourage vis-à-vis des personnes âgées.

2. La communication multimodale

Dans le cadre des études sur le langage humain, l’approche multimodale offre la possibilité de mettre en relation des informations langagières produites dans différentes modalités communicationnelles, en analysant notamment leurs contributions respectives à l’élaboration et à la perception du message communiqué. Cette deuxième section offre la possibilité de se saisir des niveaux d’implications communicationnelles entre langage et motricité (manuelle). Pour ce faire, nous documenterons cette section en dressant un panorama (Section 2.1.) des données actualisées au sujet des bases phylogénétiques et ontogénétiques qui ont contribué au lien geste-parole ainsi qu’aux fondements neurobiologiques qui le constituent aujourd’hui. La Section 2.2. développera quant à elle les aspects formels et fonctionnels de la gestualité au sein de l’interaction. Par la suite, les théories modélisées sur la manière dont se caractérise cette coopération geste-parole, appelée également synchronisation multimodale, seront présentées dans la Section 2.3. Nous verrons par ailleurs, que cette combinaison des modalités verbales et non-verbales n’est pas systématique, et questionne la communauté scientifique sur la valeur facilitatrice ou compétitive de ces deux modalités dans la communication, à l’aune des recherches cliniques et en sémiotique (Section 2.4.).

Bases évolutionnistes et cognitives de la communication multimodale

Le langage prend part à plusieurs niveaux d’implications cognitives, interactionnelles et sociales. Il module nos interactions, participe à la transmission de nos états mentaux entre locuteurs, en ayant simultanément recourt à plusieurs compétences cognitives (décrites dans le Chapitre 1). Le langage est constitué d’un ensemble discret de symboles structurés à travers différents paradigmes, dont la combinatoire permet de désigner des entités concrètes ou abstraites, que l’esprit humain a été capable de concevoir (ce sont les fonctions phonologique, morphologique, syntaxique et lexicale du langage), pour organiser ces entités entre elles selon une logique universelle (fonction syntaxique) tout en en se référant à un réseau de relations entre ces entités et les concepts qu’elles représentent (c’est la fonction sémantique). Ainsi défini, on pourrait très schématiquement dire que le langage revêt deux particularités : i) celui de permettre la communication entre les individus ; tout en attestant ii) de l’intelligence humaine et de sa progression à travers l’évolution de sa cognition et de sa physiologie (Corballis, 2009; Habib, Joanette, & Lecours, 2000). Le couplage : cerveau et langage a été déterminé

entre autres, avec l’avènement des nouvelles méthodes d’observation en neurosciences, en particulier la neuro-imagerie et la stimulation cérébrale. Cependant d’autres manifestations à visée communicationnelle sont à l’œuvre au cœur des caractéristiques langagières. En effet, le concept d’interrelation qui existe entre la motricité et le langage, observé en imagerie expérimentale, a permis de confirmer les études antérieures en anthropologie et en linguistique sur la communication multimodale. L’étude de la multimodalité dans la communication humaine a pris initialement racine au sein de l’anthropologie, avec notamment E.T. Hall (1971) et R. Birdwhistell (1968). Ce n’est cependant que dans les années 1990, avec le développement des technologies audiovisuelles et informatiques permettant l’analyse d’interactions filmées, que la multimodalité a gagné en recherches dans le champ de la linguistique aux Etats-Unis. L’analyse multimodale consiste à mettre en relation des informations langagières produites dans différentes modalités communicationnelles (niveaux verbal, prosodique et co-verbal : gestualité et mimiques faciales), chacune d’elle contribuant à l’élaboration et à la perception du message communiqué (Ferré, 2011). Comme l’observent McNeill (1992), Kendon (2004), Goldin-Meadow (2003), Capirci & Volterra ( 2008), Mathiot, Leroy, Limousin, & Morgenstern (2009), ou encore Kunene (2010), dans les productions de locuteurs issus de diverses origines et de tous âges : lorsque la parole est en action, elle s’accompagne souvent de gestes communicationnels (gestes impliqués au contenu verbal), porteurs de sens mais également d’éléments prosodiques qui viennent soutenir les intentions, la syntaxe, et les attitudes du locuteur (Lacheret, 2011; Overstreet, 1999; Yoo & Delais-Roussarie, 2011). Dans l’ouvrage Hands and mind: what gestures reveal about thoughts (1992 : 2), McNeill souligne qu’il ne s’agit pas seulement de manière triviale, de l’association de deux modalités à des fins de communication. Selon l’auteur :

« Gestures are an integral part of language as much as words, phrases and sentences – gesture and language are one system ».

Dans ce contexte, il s’agit de considérer le langage comme un objet multimodal issu de milliers d’années d’évolution aux caractéristiques cognitives diversifiées.

2.1.1. Le développement phylogénétique de la communication multimodale

Le caractère ontogénétique de la communication chez l’homme est indissociable de son développement phylogénétique (Capirci & Volterra, 2008). L’analyse des fossiles humains démontre

que les ancêtres d’Homo sapiens possédaient un contrôle cortical essentiellement adapté aux mouvements du corps et des segments corporels, laissant penser qu’ils ont développé des habiletés communicatives prélinguistiques basées sur des gestes (Corballis, 2012). Parmi ces arguments avancés sur l’hypothèse phylogénétique du développement du langage, les scientifiques se sont intéressés à nos proches cousins les chimpanzés, ou du moins aux aires cérébrales que nous partageons avec eux (Gentilucci & Corballis, 2006). Dans le cortex moteur de ces deux espèces, l’aire cérébrale F5 pour les chimpanzés, et l’aire de Broca chez l’humain, en plus de partager la même topographie, activent toutes deux des phénomènes de traitement des actions et des gestes, homologues au niveau neuronal. Il s’agit des neurones miroirs (G Rizzolatti & Sinigaglia, 2008). Ces neurones s’activent lors de l’exécution de mouvement mais également lors de la simple observation du même mouvement facilitant ainsi l’accès au sens de l’action, au sens d’un geste interactif (Courson, Frak, & Nazir, 2014; Gentilucci & Corballis, 2006). Les auteurs ont émis l’hypothèse que compte-tenu de l’analogie fonctionnelle dévolue entre l’aire F5 chez le chimpanzé et l’aire de Broca chez l’Homme, cette dernière après des années d’évolution, participerait à la compréhension de la communication multimodale chez l’humain. Une autre particularité de l’aire de Broca est qu’elle constitue la source cognitive par laquelle parole et gestes-co-verbaux se manifestent (Fadiga & Craighero, 2006). En éthologie, d’autres grands singes font usage de gestes communicationnels et leur rapprochement avec ceux de l’homme, permettrait de nourrir l’hypothèse d’une origine gestuelle du langage. En attestent les études sur les orangs outangs (Liebal, Pika, & Tomasello, 2006) ou encore auprès de la très célèbre gorille Koko, qui maîtrisait plus de 1000 signes de la langue des signes américaine (Bonvillian & Patterson, 1997). Les fondements cognitifs de cette gorille, favorisant l’intentionnalité, la théorie de l’esprit et les gestes interactifs ont été étayés par l’acculturation4 dont elle a bénéficié auprès de son équipe de soigneurs humains. En 2009, Corballis

4 La culture, dans une définition large et applicable à l'ensemble des animaux sociaux, se conçoit comme étant un ensemble de savoirs et de pratiques qui se partagent et se transmettent socialement au sein d'un groupe donné et non par héritage génétique. En éthologie, l’acculturation désigne l’ensemble des phénomènes résultant du contact continu et direct entre groupes d’individus appartenant à des cultures différentes (ici singe et humains) et aboutissant à des transformations affectant les modèles culturels originaux de l’un ou des deux groupes (apprentissage de la langue des signes pour Koko en est un exemple).

a décrit notre communication actuelle comme l’aboutissement d’une transition cognitive graduelle de la communication essentiellement gestuelle à une communication verbale. Les réseaux neuronaux et dendritiques circonscrits d’un point de vue moteur aux seuls gestes manuels, se seraient étendus vers une motricité buccale et laryngée de plus en plus exigeantes en besoins moteurs au point de créer une zone corticale commune : l’aire de Broca (Corballis, 2009). Ces modifications génétiques et cérébrales sont apparues face aux défis que représentaient l’évolution de l’espèce humaine par l’accroissement de ses besoins en interactions sociales et donc de son répertoire moteur (Arbib, 2005; Brunet & Jaeger, 2017; Pinker & Bloom, 1990). Ainsi, les travaux sur l’origine phylogénétique des liens geste-parole suggèrent qu’un système gestuel à visée communicative serait à l’origine de l’émergence du langage et envisagent un système communicationnel bimodal.

2.1.2. Les fondements cognitifs de la communication multimodale

La localisation des aires dévolues au langage se situe autour de la scissure de Sylvius qui divise d’avant en arrière la face latérale de l’hémisphère gauche. C’est autour de cet épicentre que deux cliniciens, le neurochirurgien français Paul Broca et l’anatomo-pathologiste allemand Carl Wernicke ont donné leur nom aux régions cérébrales qui sont les sources neurofonctionnelles de syndromes phasiques qu’ils ont étudié. Ainsi l’aire de Broca (décrite en 1865) recouvrant l’aire 44 et 45 de Brodmann, est dédiée à la production de la parole. L’aire de Wernicke (décrite en 1875) située dans le gyrus temporal supérieur, sur la portion supérieure de l’aire 22 de Brodmann est dévolue à la réception du langage. Aujourd’hui, on ne considère plus ces aires uniquement comme des régions anatomiques et fonctionnelles uniformes (modèles localisationnistes) mais plutôt comme des zones de passages (modèles connexionnistes) qui se distribueraient par paliers de complexité de réseaux spécialisés aux traitements sensoriels, moteurs et langagiers (Bisley et al., 2003). Pour une revue complète, consulter : (Houdé, Mazoyer, & Tzourio-Mazoyer, 2010).

Dans ce contexte, des études en neuro-imagerie rapportent que les zones dédiées aux activités sensori-motrices partagent les mêmes réseaux d’activation que celles qui activent les relations lexico-sémantiques. Par exemple, lorsqu’un participant est confronté au stimulus auditif frapper ou lécher, la circonvolution frontale inférieure de l’hémisphère gauche (aire B44) réservée au traitement réceptif du langage va s’activer en même temps que le cortex moteur, dans une région habituellement dédiée au

pied ou à la langue (Fadiga, Craighero, Buccino, & Rizzolatti, 2002; Kerzel & Bekkering, 2000; Giacomo Rizzolatti & Craighero, 2004).La parole et les gestes reposent sur un support neuronal plus étendu que l’aire de Broca, notamment lorsque la parole s’accompagne de gestes liés au discours. Ces descriptions ne permettent pas encore selon Andric et Small (2012) de déterminer exactement la manière dont le cerveau traite les informations sémantiques à travers les gestes.

Toutefois, les études en cinématique développées chez l’adulte normo-cognitif permettent de répondre aux questions émanant du couplage entre geste et parole. Une pensée computationnelle par niveau d’organisation, de généralisation et de transfert des interactions pendant un échange ou face à un stimulus verbal, serait à l’œuvre. C’est ce que l’étude de Bernardis et Gentilucci a révélé en 2006, où les participants étaient sollicités pour prononcer des mots, exécuter des gestes symboliques, ou encore faire les deux simultanément. Les auteurs ont conclu que la production de gestes renforce celle des mots, la production de mots inhibe celle des gestes (Bernardis & Gentilucci, 2006). En revanche, on n’observe pas d’influence entre les modalités verbale et gestuelle lorsque les mouvements manuels et les mots produits sont dénués de sens. Ces résultats rejoignent ceux de McNeill, en attestant d’un phénomène de co-activation entre domaines collaboratifs pour soutenir un même objectif : communiquer. En 2003, Kita et Özyürek proposent l’existence d’une structure communicationnelle préprogrammée sur le plan cognitif qui permet le traitement en parallèle de deux sous-systèmes étayant l’interaction : un générateur de l’action (le geste) et un générateur du message (parole). L’exécution du geste va faire d’abord appel à un générateur d’action (niveau exécutif) pour ensuite assurer le contrôle moteur. Dans le même principe, l’étape de formulation va être générée au travers d’échanges bidirectionnels, transformant la pensée en action par l’articulation-motrice de la parole. Ces niveaux communiquent, se combinent et se soutiennent en vue de clarifier le message du locuteur (Kita & Özyürek, 2003).

Sur le plan neurologique et exécutif, il a été relevé que lorsque parole et geste se combinaient, on observait un ralentissement significatif du débit de parole et de l’élaboration du geste. Cette donnée indique que malgré un partage topographique et exécutif au niveau cognitif, ces deux modalités sont en conflit et obligent le système exécutif à organiser leur déploiement dans le discours en agissant sur la temporalité (Bernadis & Gentilucci, 2006). La plupart des travaux qui s’intéressent aux enjeux cognitifs de la communication multimodale, convergent vers l’idée que le cortex frontal inférieur

gauche, où se situe l’aire de Broca, ainsi que le gyrus temporal supérieur participent fortement à l’intégration par le locuteur des informations sémantiques provenant à la fois des gestes et de la parole de son interlocuteur (A. B. Hostetter & Alibali, 2008; Skipper, Goldin-Meadow, Nusbaum, & Small, 2007). Des processus sémantiques comparables s’activeraient dans la perception des gestes et des mots (Willems, Özyürek, & Hagoort, 2007), ce qui, selon les auteurs, est en accord avec l’hypothèse d’un système computationnel. Néanmoins, les psychologues Di Pastena et al. (2015) nuancent ces conclusions :

« D’abord, la compréhension des gestes liés au discours semble engager une activation des aires prémotrices non observée pour le langage parlé, notamment lorsque ces gestes ne sont pas congruents avec le contenu du discours (voir aussi Özyürek, Willems, Kita, & Hagoort, 2007). Ensuite, le traitement perceptif des informations sémantiques véhiculées par les gestes accompagnant le discours implique un réseau plus vaste, dont le gyrus frontal inférieur bilatéral où siège l’aire de Broca, mais aussi d’autres régions, notamment temporales postérieures bilatérales et pariétales inférieures (Dick,

Goldin-Meadow, Hasson, Skipper, & Small, 2009). Enfin, cette littérature s’intéresse principalement aux

capacités de décodage de l’individu et à notre connaissance, il n’existe pas de travaux mettant en évidence les substrats anatomiques sollicités lors de l’émission de gestes liés au discours ».

Cette limite soulignée par les auteurs, provient essentiellement du fait qu’il est extrêmement complexe pour l’instant d’obtenir des résultats en imagerie cérébrale, sur le discours naturel en situation écologique. Seules les études en linguistique de corpus multimodaux permettent de donner des hypothèses fonctionnelles préalables, c’est-à-dire en s’intéressant au caractère multimodal de la structuration de l’information du discours par sa modalité verbale, vocale et visuelle. Ainsi, il est indispensable que les méthodologies propres aux sciences du langage proposent des représentations formelles et fonctionnelles susceptibles d’intéresser le domaine de la psycholinguistique, notamment en annotant à l’aide de la linguistique moderne, les attributs et les relations de ces constituants.

Aspects formels et fonctionnels de la gestualité dans le discours

La communication multimodale se décline en plusieurs modalités qui influencent le message du locuteur, se combinant ensemble ou agissant séparément selon nous l’avons vu, les constituants

cognitifs et linguistiques sollicités. On peut décrire ces modalités selon deux niveaux d’organisation dans le discours :

1. La modalité verbale tout d’abord qui comporte plusieurs niveaux d’organisation entités— phonématique, morphologique, lexicale, syntaxique et sémantique— et au cœur de cette modalité on peut ajouter la prosodie—

2. La modalité visuelle — gestualité (manuelle et corporelle) et mimiques faciales.

Les gestes organisent, structurent, activent les représentations lexicales du discours en passant par des unités visuo-spatiales complétant la verbalisation. En France, Cosnier & Brossard (1984), et Calbris & Porcher (1989)ont développé des travaux en sciences du langage sur ce domaine. Mais il a fallu attendre les années 2000 pour que la multimodalité devienne un observable suffisamment pertinent pour analyser les aspects langagiers du discours et de la développer dans des domaines aussi variés que les neurosciences, le machine-learning ou la remédiation thérapeutique (Bartlett, Armstrong, & Roberts, 2005; Lee & Cherney, 2008; Phillips, Tunstall, & Channon, 2007).

2.2.1. La cognition incarnée dans le discours

L’approche incarnée (embodied cognition en anglais) de la communication, fait référence au rôle structurant des expériences sensorimotrices dans l’organisation des représentations conceptuelles dont les productions linguistiques rendent compte, notamment en situation d’interaction pour l’individu. Langage et cognition s’influencent mutuellement. Le sens du mot est à la fois, incarné par les pensées ; les émotions et les manifestations corporelles et physiologiques (Gallese † & Lakoff, 2005; Gibbs, 2003; Glenberg, 1997; Kiefer & Pulvermüller, 2012). Cette théorie de la cognition incarnée pendant l’échange s’est construite en opposition à une approche dite classique qui considère que le sens des mots est généré de façon abstraite et arbitraire (Fodor, 1980, 1987; Pylyshyn, 1986). Pourtant, comme le souligne le neurologue Ajuriaguerra (1959: 433), l’engagement communicationnel ne peut se détacher du milieu social, émotionnel et corporel :

« Le développement du tonus et de la motricité est confondu intimement avec le développement émotionnel de l’orientation, du geste et du langage ».

Le psycholinguiste, Gibbs (2003), souligne également que le langage est à la base de nos processus cognitifs, c’est-à-dire de tout ce qui s’opère lorsque le corps est engagé dans le monde extérieur, physique, et culturel. Ainsi, on doit intégrer les conséquences des interactions dynamiques entre l’homme et son environnement jusque dans la représentation du langage (Gibbs, 2003; Jana M Iverson & Thelen, 1999; Varela, Rosch, & Thompson, 1992). Lors d’une interaction, le processus d’embodiment suit deux modalités opératoires. Le premier mode se déploie dans un mécanisme ascendant dit

bottom-up et induit une action provenant d’abord de la périphérie : les informations du corps, vers la

conscience du sujet et influence donc sa cognition. Le second qui est descendant -top-down-, correspond à la manière dont notre cognition opère sur nos mouvements corporels et notre gestualité pendant l’échange. Dès lors les apprentissages et expériences que nous réalisons tout au long de notre développement et de notre vie vont partager bien plus que des socles cognitifs communs. Ils vont participer à nos représentations sémantiques, à l’organisation de notre discours en coordonnant l’action de nos mouvements. Des études en imagerie montrent à ce sujet que le contexte d’exposition à un mot nouveau va activer l’association de plusieurs aires motrices et langagières afin de faciliter la récupération ultérieure du mot ainsi que son contexte expérientiel (Goldfield, 2000; Kiefer & Pulvermüller, 2012). Pendant l’acquisition du langage, un phénomène de cooccurrence entre les concepts appris au sein d’une expérience enrichie et réitérée (Aliyah Morgenstern, 2011) va faciliter la création de zones de convergence afin de limiter le coût cognitif pendant la communication. Cette collaboration interneuronale était déjà explicitement énoncée par le psychologue Donald Hebb en 1949, avec son célèbre credo : « cells that fire together wie together ». La règle de Hebb également nommée règle des assemblées de neurones participe à la notion de cognition incarnée en décrivant les adaptations neuronales dans le cerveau qui permettent à la fois la communication verbale tout en

Documents relatifs