• Aucun résultat trouvé

Un système intégré ?

1.6 Des langues incarnées

1.6.2 Un système intégré ?

Dans la production Nous avons mentionné précédemment qu’à un certain niveau de description, LS ou LV peuvent être décrites comme des activités neuro-musculaires (Armstrong et al. 1995) ; pour autant, la co-articulation fonctionne-t-elle de la même façon dans l’un et l’autre des systèmes ? Dans le cadre de cette analogie, Bouchard (1996) craint que la dimension séquentielle des LS ne soit en partie occultée et que les transitions gestuelles (i.e. les mouvements de transition entre deux signes linguistiques) ne soient négligées comme pourraient l’être les transitions sonores.

Dans la comparaison entre LS et LV du point de vue articulatoire, Meier (2002 : 7) observe les différences suivantes. Il y a une action co-articulée des deux bras et mains et les articulateurs dédiés aux LS fonctionnent par paire alors que ce n’est pas le cas pour les LV. Par ailleurs l’auteur propose que la “mandibule est l’oscillateur prédominant” alors qu’il n’y a pas d’oscillateur prédominant pour les LS. Enfin, il suggère que l’articulation en signes n’est pas ou peu couplée à la respiration. Pourtant, il indique en note (p.7) que, si l’on a souvent tendance

à identifier des points communs entre LS et LV pour des propriétés langagières ou cognitives à un haut niveau de description, il ne faut pas sous-estimer les analogies dans l’organisation motrice des deux types de modalités, même si elles ont l’air bien différentes. L’auteur ajoute que dans le cas du flux signé comme du flux parlé, on ne peut se figurer les choses comme une suite de perles sur un fil mais que des phénomènes de coarticulation sont identifiables dans chacun des deux flux. Nous argumenterons plutôt en faveur de cette tendance à l’analogie LS/LV, toujours en lien avec cette notion d’incarnation ou de corporéité.

McNeill (2014 :139-140) souligne quand à lui le lien fort et intime qui sous-tend la combinaison geste-parole, et ajoute ainsi la co-articulation entre les modalités à la co-articulation au sein d’une même modalité. Les gestes font partie du système intégré et leur manifestation externe peut se faire sur d’autres articulateurs (pieds, visage) lorsque les mains sont immobilisées, reflétant ainsi leur présence continue en interne. L’auteur propose que les “points de croissance” (ougrowth points) sont les unités minimales d’encodage de ce système intégré : ces unités consistent en des impulsions imagées-parlées associées au processus de “penser pour/pendant que l’on parle” (thinking-for(and while)-speaking) en écho à Slobin’s (1987)Thinking for Speaking. La synchronisation des gestes et des paroles est la clef de cette unité du point de croissance et en retour, ces points de croissance indiquent les points dignes d’intérêt dans le contexte où ils apparaissent. En somme, l’orchestration de la production se fait grâce à des unités de geste-parole, autour de ces points de croissance incarnés (embodied growthpoints).

Ces considérations ont un impact sur la façon dont nous apprécions les mar-queurs non manuels dans les langues des signes. Cecchetto et al. (2009 : 284) considèrent par exemple comme accidentelle la correspondance entre un haus-sement de sourcils (raising) en LS et une intonation montante (raising) en LV, alors que cette correspondance entre certains aspects prosodiques et entre mo-dalités (section 4), nous semble refléter l’intégration des marqueurs non manuels dans un même système multimodal (section 1.5.2).

Dans la réception McBurney (cité par Meier 2002 : 11) distingue la moda-lité du medium, la première renvoyant au système biologique ou physiologique qui soutient une langue et le second renvoyant au canal emprunté par cette langue et caractérisé essentiellement selon la mobilisation ou non des dimen-sions spatio-temporelles. Ainsi le medium d’une LV est unidimensionnel, i.e. selon l’axe temporel, alors que le medium d’une LS est quadri-dimensionnel, i.e. selon les trois axes de l’espace et l’axe temporel. Mais encore une fois, il nous semble que les LV sont alors réduites à un type d’usage, celui qui empêche l’auditeur d’accéder visuellement au locuteur. Autrement dit, le clivage est-il en termes de perception visuelle versus auditive (ce qui permet à Meier 2002 : 4 de proposer une troisième modalité, la gestuelle-tactile) ou faut-il nuancer et pondérer ici encore : Ne peut-on distinguer ces deux types de gestualité selon d’autres critères : une gestualité interne non visible (larynx, cavité buccale) seulement perceptible par l’audition et une gestualité externe visible (labiale,

faciale, manuelle, buste-tête...) ? Les gestes labiaux occasionnent en effet une modification visuelle et sonore ; les gestes manuels et de buste occasionnent une modification visuelle (et tactile, si l’interlocuteur a ses mains positionnées de façon appropriée).

Synchronisation et modélisation La synchronisation est une notion trans-versale aux phénomènes de coarticulation : coarticulation au sein d’une même modalité et coarticulation entre modalités, coarticulation en production et coar-ticulation en réception. Ce processus nous semble particulièrement intéressant à considérer dans la perspective d’un système intégré.

Iversen et al. (2015) s’intéressent ainsi aux procédés de syncronisation entre un stimulus visuel ou sonore et la réponse du participant, sollicitée sous forme de mouvement de battement (tapping) de l’index. A partir d’une expérience dans laquelle ils font varier i) la nature du stimulus (bip sonore vs flash visuel vs mouvement silencieux d’une balle qui rebondit contre une ligne) et ii) le statut auditif des participants (entendants non signeurs et sourds signeurs), les auteurs discutent l’impact de la modalité du stimulus sur le succès plus ou moins grand de la synchronisation de la réponse gestuelle. Les auteurs suggèrent que la structure temporelle du stimulus compte plus que cela n’a été supposé jusqu’alors : si les participants entendants synchronisent plus vite leur réponse avec le stimulus sonore qu’avec le stimulus visuel lorsqu’il s’agit du flash visuel, ils synchronisent mieux un stimulus visuel lorsque ce dernier est structuré avec un “point de collision” comme c’est le cas pour la balle qui rebondit sur une ligne figurant le sol. Quant aux participants sourds, ils synchronisent de manière aussi précise ce stimulus visuel (avec collision) que les entendants ne synchronisent le métronome sonore, indiquant que le traitement d’un événement temporellement structuré pourrait se faire avec le même degré de complexité, quelle que soit la modalité empruntée, en lien avec l’expérience perceptive de chaque participant. Les auteurs distinguent un traitement des événements sonores ou visuels par paire, qu’ils considèrent comme métrique (p. 238). Nous reviendrons en section 3.2.2 sur l’éclairage que peut apporter notre étude du rythme poétique enfantin sur ces considérations rythmiques et métriques.

L’interprétation de ces phénomènes indépendants du canal emprunté est l’occasion de revenir sur une éventuelle “a-modalité” pour ce que les auteurs appellent un “timing center”. Le caractère amodal est opposé au caractère propre à une modalité. Même si cela ne change pas fondamentalement les observations, il nous semble pertinent, là encore, de prendre en compte la dimensionmultimodale des stimuli, et de leur traitement, a fortiori si l’on s’intéresse à l’expérience des participants : les phénomènes rythmiques purement visuels sont très rares dans l’environnement des entendants, qui les associent la plupart du temps à leur impact sonore. Ainsi, en ce qui concerne le mouvement de la balle qui rebondit contre une ligne figurant le sol, il nous semble évident que le participant est en mesure de reconstruire mentalement le son de la collision. De même, le battement de l’index demandé au participant en réponse au stimulus est considéré, dans cette étude, uniquement comme une réponse gestuelle, mais elle

comporte également, selon nous, une dimension sonore, même minime. Par conséquent, nous ne faisons pas l’hypothèse que la multi-dimensionalité est moins ’coûteuse’ per se 19

, à moins justement de respecter des processus d’ajustement et de synchronisation sur lesquels nous reviendrons en section 3.2.2 ; nous nuancerions également le caractère “indépendant” des articulateurs (manuels/non manuels)20

et nous appuierons notre proposition sur les travaux en prosodie des LS (section 4) ainsi que sur l’étude du bilinguisme bimodal (section 5).

Nous essaierons donc tout au long de cette synthèse de revenir sur cette di-chotomie [LS = langues visuo-gestuelles]versus [LV = langues audio-vocales]. Notamment, il nous semble important d’établir quelques nuances en distinguant les modalités impliquées dans la production et celles impliquées dans la récep-tion, tout en étudiant le cycle cognitif et moteur mobilisant éventuellement des compétences motrices dans les représentations neurolinguistiques de la récep-tion.

1.6.3 La place de la prosodie à l’interface de la syntaxe et du discours