• Aucun résultat trouvé

3. D IDACTIQUE DE LA PRONONCIATION EN CONTEXTE FLE/S

3.1 Articulatoire versus perceptif ?

3.1.3 Cibles perceptives et point d'appui

La notion de « paysage sonore » développée par Lhote (1995 : 22) et qu'elle définit comme « par paysage sonore d’une langue, nous entendons tout ce qui participe à la représentation mentale des caractéristiques sonores d’une langue donnée pour un locuteur de cette langue » permet de resituer l'importance de la médiation de la perception des sons en langue(s) étrangère(s). Compte tenu des théories présentées ci-dessus, nous tenons à préciser

qu'un travail sur la perception seule ne permet pas d'induire une médiation pertinente de la production des unités sonores. Néanmoins, il nous semble pertinent de penser qu'un travail basé initialement sur la perception permet de prendre conscience, de manière implicite ou explicite, de comment obtenir les cibles perceptives phonologisées dans une « langue ». Comme nous l'avons montré (chapitre 1, partie 1, c) 3.), « il existe de grandes possibilités de compensation entre les articulateurs, souvent méconnues » (Vaissière, 2006 : 74). Les cibles articulatoires telles que présentées dans un trapèze vocalique ne seraient dès lors pertinentes que pour les grandes oppositions du type /y/-/u/ pour l'antériorité/postériorité, par exemple. Les oppositions

des voyelles moyennes en français, par exemple /e/-

/ɛ/

, peuvent être acoustiquement réalisées

par (1) une augmentation de F1 ou (2) un abaissement de F2 et F3 ou (3) par les deux phénomènes (Figure 28). Dans tous les cas, l'opposition perçue par un francophone natif sera /e/-

/ɛ/.

Figure 28: Représentation spectrographique des quatre voyelles antérieures du français standard. L'opposition /e/-/ɛ/ est réalisée par la double stratégie : une augmentation de F1 et un abaissement de F2 et F3. Calcul formantique automatique par Praat.

Vaissière (2009 : 31-2) propose une classification des voyelles de référence par des cibles acoustico-perceptives plutôt qu'articulatoires car selon elle, « il est nécessaire de fixer des références pour la description phonétique des voyelles. De telles références pourraient correspondre à des critères acoustiques connus »53. Concernant l'enseignement, elle ajoute que « l'affichage en temps réel sur ordinateur (l'affichage de F1-F2 n'est pas suffisant) et la description des caractéristiques acoustiques des sons peut également aider dans l'enseignement des voyelles de référence en langue étrangère ainsi que l'enseignement de la prononciation à

53 « it is necessary to establish fixed references for the phonetic description of vowels. Such references may correspond to well-defined acoustic criteria »

des apprenants mal- et normo-entendants (Lindbom & Sundberg, 1969) »54. Shiller et al. (2010 : 181) ont pu démontrer, dans le champ orthophonique, que « les enfants présentant un trouble phonologique ont, en moyenne, des difficultés significatives avec la connaissance perceptive des sons qu’ils ne prononcent pas correctement ».

D'autre part, comme le rappelle Luzzati (2007 : 24), « tous ceux qui s'y sont confrontés savent combien l'objet « dialogue oral spontané » est insaisissable et fluctuant ». Dans cette perspective, Barth (2004) développe la notion de « point d’appui » selon lequel l'échec scolaire aurait principalement pour origine la difficulté de l'apprenant à conceptualiser ce qui est demandé. Le français a la particularité de ne présenter que des monophtongues plutôt stables même en parole continue, dont l'origine pourrait venir des sept voyelles cardinales primaires en français standard (nous ne prenons pas en compte le /ɑ/ postérieur) et six voyelles focales. Nous pouvons supposer que ces voyelles proposent des cibles perceptives précises et pertinentes à l'acquisition d'un nouveau système phonologique à travers des caractéristiques acoustiques et phonétiques saillantes.

Figure 29: Cochléogramme des onze voyelles orales du français standard. Représentation automatique par Praat. En encadré orange, les renforcements d'énergie les plus saillants pour ce locuteur avec atténuation quasi-totale des autres fréquences et en encadré jaune, les renforcements d'énergie avec une atténuation moindre des autres fréquences.

54 « real time computer displays (F1-F2 displays are not sufficient) and written description of the acoustic characteristics of the sounds may also help teaching reference vowels in second language teaching and the teaching of pronunciations to hearing-impaired and normal-listening students (Lindbom & Sundberg, 1969) »

La représentation par un cochléogramme (Figure 29) permet d'avoir une idée de l'importance de certaines propriétés acoustiques de certains sons vocaliques du français. Un cochléogramme est un « outil de décomposition spectrale de l’oreille. L'excitation de la membrane basilaire dans l'oreille interne est modélisée au cours du temps, en réponse à un échantillon de parole. Le cochléogramme accentue les basses fréquences qui sont consacrées à la prosodie, contrairement à un spectrogramme classique. » (Blanc, 2005 : en ligne, III.2.2.). Même si cette représentation n'est qu'une modélisation, elle nous permet de visualiser, notamment pour les voyelles [i], [y], [u], [o], [ɔ] et [ɑ], une prégnance de certaines fréquences, respectivement des hautes fréquences, moyennes et basses fréquences, au niveau perceptif. Ces caractéristiques sont facilement visualisables par l'utilisation de spectrogrammes en temps réel favorisant un travail qui permet de prendre conscience, de manière intuitive ou explicite, du lien perception-production d'un son. Les logiciels les plus connus actuellement sont :

 analyse en différé : Praat (Boersma & Weenink, 2013), Winsnoori (Laprie, 2009)

 analyse en temps réel : Winpitch (Martin, 2005), RTGram (UCL, 2010)

Ces caractéristiques vocaliques du français nous semblent une piste pertinente dans la médiation de la perception et la production des sons du français standard. Néanmoins, il reste à mener des recherches systématiques et empiriques sur leurs potentialités acquisitionnelles et de l'influence de la visualisation spectrographique des difficultés phonético-phonologiques. Nous noterons que Pillot-Loiseau et al. (2010) ont mesuré l'impact, dans l'enseignement/apprentissage du français en contexte FLE/S, d'autres types de données acoustiques (sortie nasale, niveau laryngé). La formation des enseignants de langue pourrait également être repensée vers une connaissance plus complète de la phonation et des processus d'acquisition des sons d'une langue étrangère afin de leur donner les outils utiles à la gestion des ruptures dans la prononciation de l'apprenant.

Nous avons pu voir que, jusqu'à présent, la didactique traditionnelle de la prononciation porte majoritairement son attention sur des caractéristiques articulatoires et à travers des activités de type béhavioriste. Cette approche tend à perdurer actuellement du fait que la prononciation n’a pas de légitimité assumée dans les approches communicatives et actionnelles. Néanmoins, de nombreux travaux montrent l'importance de la perception et notamment en français dont les caractéristiques acoustiques, au niveau segmental, nous semblent intéressantes. Cependant, ces approches articulatoire et perceptive ne sont pas en opposition. Il faut donc questionner les liens entre ces deux processus.