• Aucun résultat trouvé

Première'partie ! :"Introduction !

4. Enseignement de la phonétique

4.1 Quelques outils de l’enseignement phonétique

L’enseignant de la phonétique d’une LE s’appuie souvent sur l’Alphabet Phonétique International (API) et le triangle (trapèze) vocalique pour représenter les sons étrangers. Il s’agit d’outils traditionnels, qui sont facilement exploitables mais qui peuvent introduire également des erreurs de prononciation car ils créent parfois l’illusion que deux sons, l’un de la LM et l’autre de la LE sont identiques puisqu’on utilise le même symbole phonétique pour les retranscrire. Ainsi, pour une meilleure compréhension des caractéristiques acoustiques des sons et du lien articulatoire-acoustique, il est recommandé d’utiliser également des outils comme le visualiseur des spectrogrammes en temps réel ou bien les modèles articulatoires de la production des sons.

4.1.1 Alphabet Phonétique International (API)

La fin du 19e siècle est marquée par l’apparition de nombreux systèmes de transcription phonétique (Léon, 1993). En France, on utilise l’alphabet des Romanistes ou des Atlas linguistiques et essentiellement l’Alphabet Phonétique International (API) (Léon and Léon, 2007). L’API est proposé en 1886 par des professeurs de langues étrangères, P. Passy, H. Sweet et E. Sievers. Sa création répond aux besoins des enseignants à rendre compte de la prononciation de plusieurs langues étrangères au moyen d’un même alphabet (Léon, 1993). Il s’agit d’un système de notation simple car chaque phonème n’est représenté que par un seul symbole. Grâce à cette invention, la phonétique s’est enfin fait une place dans l’enseignement des langues étrangères (Guimbretière, 1994).

Les principes de la construction de l’API sont décrits dans le livret « The Principles of the International Phonetic Association », publié par l’Association Phonétique Internationale en 1949 (International Phonetic Association, 2010) et ils sont spécifiés pour le français dans l’article de Durand (A paraître). L’alphabet est resté sans grand changement pendant 40 ans (Pullum and Ladusaw, 1996) avant de subir en 1989 une importante révision. D’autres modifications notables sont annoncées en 1993.

Dans sa version d’origine, l’API a été conçu pour représenter les phonèmes de quelques langues, essentiellement le français, l’anglais et l’allemand (Grammont, 1933). Au départ, il ne possédait alors que les symboles de base qui ne permettaient pas de noter des nuances phonétiques. Au fur et à mesure, avec l’apparition de diacritiques, il a été possible de préciser de nombreuses caractéristiques phonétiques, tel que le type de phonation, l’avancement ou rétraction de la langue, l’état du voile du palais ou le rétrécissement secondaire du conduit vocal (Vaissière, 2006). Rochet (1995) souligne l’importance de l’utilisation des diacritiques pour montrer avec précision les différences entre les sons. Ainsi, l’utilisation du symbole [t] sans diacritique ne permet pas de montrer le différent lieu d’articulation de cette consonne en français et en anglais. Alors qu’en français [t̪] est articulé au niveau des dents (c’est une consonne occlusive dentale), en anglais [t̻] s’articule au niveau des alvéoles (c’est donc une consonne occlusive alvéolaire)(Dart, 1998; Delattre, 1953). Mais malgré l’invention de nombreux caractères diacritiques, il est souvent impossible d’exprimer la caractéristique précise du son par un symbole (Vaissière, 2011). C’est en particulier le cas des voyelles.

4.1.2 Triangle vocalique

Un autre outil d’enseignement phonétique proposé au 19e siècle pour représenter les voyelles d’une langue est un triangle vocalique. Les premiers à établir un triangle vocalique, qui est d’abord de nature articulatoire, sont des professeurs de LE : D. Jones et P. Passy (Delattre, 1968). Ilreprésente les voyelles selon leur aperture, sur l’axe vertical, et leur point d’articulation, sur l’axe horizontal. En 1948, M. Joos convertit le triangle articulatoire en triangle acoustique (Borrell, 1993; Delattre, 1951) avec l’axe vertical représentant le premier formant F1 et l’axe horizontal représentant le deuxième formant F2. La similitude entre les deux triangles montre de façon relativement grossière le lien entre les caractéristiques acoustiques et articulatoires. Dans un premier temps, Joos relie le deuxième formant au déplacement horizontal de la langue et le premier formant au point le plus élevé de la langue. Delattre redéfinit ensuite la relation entre l’aperture et le F1 en précisant que ce dernier est relié à l’ouverture générale du conduit vocal (Delattre, 1951). Les données cinéradiographiques montrent par la suite que la relation entre les mouvements des articulateurs et les effets acoustiques n’est pas aussi simple qu’indiqué au départ dans le triangle vocalique. Ainsi le deuxième formant ne dépend pas uniquement du déplacement horizontal de la langue mais il est dépendant également de l’arrondissement des lèvres (Delattre, 1969). La Figure 28 de Crothers (1978) indique la corrélation entre les articulateurs (constriction du dos de la langue, image 2, position des mâchoires, image 3 et position des lèvres, image 4) et les formants vocaliques F1 et F2 (image 1) correspondants.

Figure 28 : Corrélation entre triangle acoustique (image 1) et triangles articulatoires (image 2 à 4), selon Crothers (1978)

Dans le cas de voyelles étirées, le deuxième formant dépend du mouvement du dos de la langue et de l’aperture de la mâchoire (Maeda, 1989b). Pour expliquer ces phénomènes compensatoires, d’autres modèles émergent et ils prennent en compte l’action de tous les articulateurs impliqués dans la construction d’une qualité résonancielle, à savoir la langue, les lèvres, la position du larynx et du vélum ainsi que le degré d’ouverture des mandibules (Fant, 1960).

4.1.3 Modèles articulatoires de la production des sons de la parole

Les modèles articulatoires constituent un excellent outil éducatif pour comprendre les lois acoustiques abstraites car les étudiants peuvent facilement comprendre la relation qui réside entre la forme du conduit vocal, difficilement observable autrement, et les effets acoustiques (Arai, 2001).

VTCalcs (Vocal Tract Calculations) est un logiciel permettant de représenter la relation articulatoire-acoustique des sons. Il se base sur le modèle articulatoire de S. Maeda, calculé à partir de

l’analyse de 1000 images du conduit vocal prises au cours de la production de dix phrases françaises par deux locuteurs (Maeda, 1989b). Ce modèle permet de manipuler sept paramètres articulatoires :

! position de la mâchoire : ouverte/ fermée

! position du dos de la langue : avant/ arrière

! forme du dos de la langue : cambrée/ plate

! position de l’apex : relevé/ abaissé

! aperture des lèvres (arrondies/ étirées)

! protrusion des lèvres

! hauteur du larynx

VTDemo - Vocal Tract Acoustics Demonstrator (Huckvale, 2009) est une extension du logiciel VTCalcs. Il permet de définir la fréquence fondamentale en choisissant de synthétiser une voix d’homme, de femme ou d’enfant. VTdemo, en plus des paramètres articulatoire de VTCalc, rajoute les paramètres suivants :

! aire de la glotte

! port vélo-pharyngal

L’interface du logiciel est illustrée à la Figure 29 où se trouvent les paramètres articulatoires (à gauche), la forme du conduit vocal (à droite) et les formants des sons résultants (en bas à droite).

Figure 29 : Interface graphique du logiciel VTDemo (Huckvale, 2009)

Nous avons utilisé ce logiciel pour prédire les effets acoustiques de labialisation, palatalisation et vélarisation phonétique sur les voyelles dans le chapitre 9.

4.1.4 Spectrogramme en temps réel

Le spectrogramme est l’outil indispensable pour l’analyse acoustique de la parole et il représente le temps sur l’axe horizontal, les fréquences sur l’axe vertical et l’intensité des fréquences encodée par le niveau de noir. Le logiciel open source WaveSurfer (www.speech.kth.se/wavesurfer/) a été développé en 2006 par Kåre Sjölander and Jonas Beskow au Centre de technologie de la parole en Suède et il permet de générer des spectrogrammes en temps réel. L’avantage pour les utilisateurs réside alors en visionnage instantanée des caractéristiques acoustiques des sons qu’ils sont en train d’émettre. L’enseignant peut alors montrer immédiatement les différentes caractéristiques des sons, ce qui est particulièrement intéressant dans le passage des voyelles françaises [i] à [y] par exemple (voir Figure 30) où l’apprenant peut voir le changement d’affiliation de cavités (dans le cas de [i], la cavité

antérieure détermine essentiellement le troisième formant alors que dans le cas de [y], elle détermine essentiellement le deuxième formant).

Figure 30 : Interface graphique du logiciel WaveSurfer avec spectrogramme des voyelles [i, y] produites par un Français natif

Les apprenants peuvent également utiliser le logiciel pour vérifier par exemple le caractère focal dans leur production des voyelles françaises [u, o, ɔ, ɑ, y, i], réalisées par les natifs avec un rapprochement et amplification des premier et deuxième formants des voyelles postérieures, des deuxième et troisième formants du [y] et des troisième et quatrième formants du [i].