• Aucun résultat trouvé

des Langues Assisté par Ordinateur

3.3 Analyse syntaxique et détection d’erreurs

3.3.4 Algorithmes et techniques d’analyse

3.3.4.3 Analyse par morceaux ou analyse superficielle

L’analyse superficielle ou par morceaux (chunk parsing ou shallow par-sing) consiste à ne repérer que certaines relations syntaxiques simples et locales et non pas tous les attachements et dépendances à longue distance.

Blache (2005) définit un analyseur superficiel comme un outil qui fournit une structuration simple et non récursive. On peut définir également une analyse superficielle comme une tête autour de laquelle se trouvent des mots-fonctions qui correspondent à des schémas prédéterminés. Les verbes ne sont pas rattachés aux compléments, sauf les clitiques.

Selon Tschichold (2003), au lieu d’utiliser des techniques de TAL utilisant une analyse profonde qui conduit à des analyses erronées et à des résultats préjudiciables pour les apprenants, il devrait être moins risqué d’utiliser une analyse très locale. La maîtrise de petites unités est plus facile pour les appre-nants, alors que les combinaisons et les attachements de syntagmes sont gui-dés par des sélections lexicales qui varient beaucoup d’une langue à l’autre.

Prolog est notamment utilisé pour l’analyse grammaticale et pour des systèmes experts d’intelligence artificielle (§2.7.4.1).

De plus, l’étendue du lexique nécessaire pour une application d’ALAO est plutôt faible (3000 mots).

Voici quelques logiciels utilisant une analyse superficielle :Herr Kommis-sar(DeSmedt, 1995, §B.3.5),Cordial(§C.8, Laurent, 1999; Campioneet al., 2005),Didalect (Hermetet al., 2006, §B.2.6) etLIPSTIC (Pankhurst, 2005,

§B.5.13).

Pour conclure, il peut sembler raisonnable d’utiliser des techniques ro-bustes, qui ont par essence une large couverture de la langue vu qu’elles ne visent pas à l’exhaustivité des constructions, au lieu de formalismes gram-maticaux complexes, sensibles aux erreurs et aux constructions qu’ils ne couvrent pas. Toutefois, il manque, à notre connaissance, des études sur l’efficacité de ces approches pour la détection d’erreurs et sur la qualité de rétroaction qui peut être atteinte à travers ces analyses moins riches, qui donnent donc moins d’indices sur les erreurs et les relations entre syntagmes.

3.3.5 Formalismes

Dans cette section, nous survolons quelques formalismes grammaticaux intéressants pour leur large couverture de la langue. La théorie du Gouver-nement et du Liage (Government & Binding, GB) est issue des théories de la grammaire générative de Noam Chomsky (Chomsky, 1957, 1981; Tellier, 1995; Laenzlinger, 2003). Elle se base sur le schéma X-barre (fig. 3.6), où chaque catégorie lexicale (D, Adj, N, V, etc.) ou fonctionnelle (I, F)43, en po-sition X0, est la tête d’une projection maximale XP (NP, DP, VP etc.), ce qui implique que ce formalisme est très lexicalisé. D’autres projections peuvent être attachées en position Spéc(ifieur) et Comp(lément) pour constituer fi-nalement une phrase complète. Les niveaux XP et Xpeuvent être dédoublés pour permettre les adjonction. Pour les langues latines, l’adjonction est éga-lement possible au niveau X0pour les clitiques. La théorie GB postule l’exis-tence d’une structure profonde qui représente les structures fondamentales d’une phrase ; les constituants d’une phrase sont ensuite déplacés vers leur position finale en structure de surface. Ces mouvements permettent notam-ment l’interprétation des anaphores et des pronoms interrogatifs et relatifs, qui constituent les relations à longue distance, ainsi que le mouvement du passif. De plus, les rôles thématiques indiquent les types sémantiques des arguments des verbes (Agent, Thème, But, Intrument, Bénéficiaire, etc.).

43. I pourInflection (avec les verbes conjugués) et F pourFunctionqui reçoit les propo-sitions réduites du typeJe crois [cette décision inévitable].

XPHH Voici quelques exemples d’analyse GB :

(20) a. [

En (20a), en linguistiqueprécise le sens d’étudiant; il peut être considéré comme faisant partie de sa sous-catégorisation et est attaché comme com-plément. En revanche, en (20b), le complément de lieu est une adjonction au NP. En (20c), le verbe conjugué est déplacé en position I0 par le mouvement du verbe et une trace est insérée en V0. En (20d), en contraste avec la phrase précédente, on présente le mouvement du passif, où le sujet de la phrase est liée à sa position canonique en complément du VP. En (20e), on illustre le mouvement des interrogatives avec inversion complexe du sujet. Enfin, en (20f), on montre le double mouvement des clitiques (Sportiche, 1996), où le DP repris par le clitique est dans un premier temps déplacé en spécifieur du VP, où a lieu l’accord du participe ; puis la tête est déplacée de D0 en I0.

Parmi les logiciels utilisant GB, on citera BRIDGE et de son successeur MILT (Garman et al., 1993, §B.3.3), le projet Athena (Malone et Felshin, 1991, §B.3.1) ouFreeText (Vandeventer Faltin, 2003, §4).

LaGrammaire Lexicale Fonctionnelle(Lexical Functional Grammar, LFG;

Kaplan et Bresnan, 1982; Abeillé, 1993) décrit les phrases avec un couple de

structures, unestructure de constituants (c-structures) sous forme d’arbres syntaxiques et unestructure fonctionnelle(f-structures) sous forme de traits représentant les fonctions grammaticales (sujet, objet, etc.). Les f-structures sont des couples attribut-valeur représentant des traits sémantiques et syn-taxiques et peuvent être incluses dans d’autres f-structures.

La figure (3.7) illustre une phrase simple avec l’équation qui unifie les traits du NP avec ceux du sujet de la phrase ; les flèches désignent l’unifica-tion des traits des nœuds avec ceux des niveaux inférieurs et supérieurs. Le passif est considéré comme une nouvelle règle fonctionnelle.

c-structure f-structure

Fig.3.7 –LFG – Analyse d’une phrase

Comme exemples de systèmes, citons Reuer (1999, §B.2.29), MSLFG (Cornu, 1997, §C.25), CALLE (Feuerman et al., 1987, §B.4.11), ALICE-chan (Levin et Evans, 1995, §B.4.1) et GETARUNS (Delmonte et Dibat-tista, 2000; Delmonte, 2003, §B.2.10).

LaGrammaire Syntagmatique Guidée par les Têtes (Head-driven Phrase Structure Grammar, HPSG; Pollard et Sag, 1994) est caractérisée par l’in-tégration des niveaux phonétique, syntaxique, sémantique et discursif dans une même structure de traits. Les structures de traits sont représentées sous la forme de matrices attribut-valeur (attribute-value matrixes, AVMs), qui contiennent des informations phonétiques, syntaxiques et sémantiques. La structure contenant ces informations est appeléesigne linguistique. Les traits sont organisés de manière très hiérarchique. Les lexèmes sont par exemple classés en lexèmes flexionnels ou sans flexion, les noms sont décomposés en noms communs, pronoms et noms propres, etc. Chacun de ces types permet ensuite de définir des règles communes sous forme de contraintes. Le passif est une règle lexicale comme pour la LFG. Pour les relations à distance, les traits sont propagés à travers les structures. Comme exemples de systèmes basés sur ce formalisme, mentionnons Textana (Schulze, 1995, §B.4.35) et les systèmes de Heift et McFetridge (1999, §B.4.23).

Enfin, les grammaires de dépendance décrivent les relations entre mots, autrement dit les dépendances des mots les uns par rapport aux autres (Tesnières, 1959; Kahane, 2001). Ainsi, les mots de la phrase ne seront pas représentés de manière ordonnée. Les grammaires de dépendance consistent à associer une tête à un autre élément par un arc portant une étiquette qui définit une relation syntaxique appartenant à un ensemble fini de re-lations comme sujet, objet direct, auxiliaire, etc. (Schröder et al., 2000).

Mentionnons comme exemples d’utilisation des grammaires de dépendances les correcteurs commerciaux Antidote (Brunelle, 2004, §C.3) et Correcteur 101 (§C.9) et les logiciels de Menzel et Schröder (1998b, §B.3.6).

3.3.6 Discussion

Cette section conclut la partie sur la syntaxe et la détection d’erreurs en esquissant un bilan et en proposant quelques perspectives.

Dans cette partie sur l’analyse, nous avons survolé de nombreuses tech-niques. Les applications présentées diffèrent au niveau de la profondeur d’analyse et de la couverture de la langue. Ainsi, certains systèmes pré-sentent de bas taux d’erreurs sur un champ syntaxique et lexical réduit.

Inversement, il est difficile de produire des applications à large couverture.

Cependant, la valeur pédagogique des systèmes se mesure essentielle-ment aux bénéfices d’apprentissage pour les apprenants. Ainsi, une analyse profonde et détaillée d’une phrase permet de fournir une rétroaction plus précise et de donner plus de détail sur les erreurs commises ou de présen-ter les notions de manière ludique (Kempen, 1992, §B.2.15). Par exemple, on peut comparer le système de Heift (2003, §B.4.23), qui fournit une ana-lyse progressive et détaillée des erreurs, àVINCI (Levison et Lessard, 2004,

§B.2.38), dont le diagnostic se borne à une comparaison mot à mot entre une phrase de référence et celle de l’apprenant, avec une analyse très limitée de l’erreur.

En outre, on peut également remarquer que la plupart des projets re-prennent un analyseur existant et en adaptent la grammaire (Heift et Schulze, 2007). Ce fait s’explique en partie par les coûts élevés de développement. Il faut développer un algorithme d’analyse, construire des règles, acheter ou créer un lexique et enfin tester l’analyseur à l’aide d’un corpus de test. En ajoutant les résultats mitigés des performances et les fausses détections, il n’est pas étonnant que le nombre de projets soit plutôt limités.

Selon Bowerman (1990), les apprenants ont des notions grammaticales

vagues tels que sujet, objet et ordre des mots. De telles notions sont vagues et impossibles à traiter de manière informatique. Au contraire, les forma-lismes grammaticaux comme GB ou LFG (§3.3.5) sont adaptés au traitement informatique mais font appel à des notions difficiles à mettre en œuvre pour des apprenants. C’est pourquoi, selon lui, il est nécessaire de décrire des for-malismes compréhensibles pour les apprenants tout en ayant une capacité générative qui permette le traitement informatique.

Suite à l’analyse de la couverture de nombreux logiciels, nous pouvons affirmer que l’approche syntaxique est indispensable à la détection d’erreurs.

L’approche stochastique (§3.3.3.3) peut donner des résultats sur certaines construction très locales, où la distribution des éléments et leur pourcen-tage d’occurrences est important et où un apprentissage automatique sur corpus est possible. De telles techniques peuvent être utilisées en complé-ment avec des méthodes par règles. En outre, nous pouvons remarquer un grand nombre d’analyseurs basés sur LFG (§3.3.5), HPSG (§3.3.5), les DCG (§3.3.4.2) et les grammaires de dépendances (§3.3.5). Nous partageons avec Heift et Schulze (2007) le constat que les meilleurs résultats sont atteints par des analyses à dominante lexicale, qui traitent les dépendances à longue distance. Ces analyses profondes permettent également un diagnostic effi-cace.

Cependant, les résultats mitigés de la correction grammaticale ne per-mettent pas encore son utilisation à grande échelle, selon certains spécia-listes de l’ALAO. Ainsi, Tschichold (1999a,b) souligne le risque de voir des phrases grammaticalement correctes rejetées grâce au relâchement des con-traintes et des phrases incorrectes acceptées. Elle en conclut que les perfor-mances des correcteurs sont encore insuffisantes et que les indications qu’ils fournissent sont trompeuses, voire carrément fausses. Elle propose donc de se contenter d’une aide sensible au contexte et de disposer à côté d’outils d’aide à l’apprentissage : grammaire de référence, dictionnaires bilingues et monolingues, corpora de textes adaptés à l’étude en contexte, etc. De plus, Tschichold (1999a) propose d’améliorer les performances des analyseurs en bloquant certaines entrées lexicales peu probables comme le verbeto table, qui est moins probable que le substantiftable. De même, Tschichold (2006) fait remarquer que les techniques de TAL sont très sensibles à l’ambiguïté et que seules les applications tournant sur un vocabulaire et des structures restreints atteignent un bon taux de précision. Or le vocabulaire et les struc-tures enseignés aux apprenants sont volontairement peu précis et ambigus44. Holland et al. (1993, p. 32) regrettent que la sémantique ne soit pas

44. On apprend notamment aux apprenants à utiliser des paraphrases pour pallier leurs lacunes en vocabulaire.

suffisamment développée, ce qui oblige les logiciels d’ALAO à se concentrer sur la forme plutôt que sur le fond, alors que l’approche pédagogique qui sous-tend la plupart des logiciels es tournée vers la communication de sens.

Par contre, Nerbonne (2003, p. 691) affirme que les utilisateurs sont in-telligents et peu exigeants et peuvent bénéficier d’une technologie qui n’est pas fiable à 100%. Durel (2006) ajoute que lors d’une analyse partielle, il est important de le signaler aux apprenants, qui se méfieront alors davan-tage des indications données par le système. Pour ISCA (§B.5.12), Bolt et Yazdani (1998) propose une correction interactive.

De notre côté, nous estimons qu’il serait optimal d’allier une restriction du champ de l’analyse à une désambiguïsation interactive (Menzel, 2004).

Ainsi, l’apprenant devrait pouvoir choisir entre plusieurs possibilités, aidé d’outils morphologiques et lexicaux. Diverses aides, visuelles ou sous forme de dialogues, peuvent être envisagées.

Par ailleurs, force est de constater que les composantes sémantiques des grammaires ne sont pas suffisantes pour une véritable évaluation automa-tique de la réponse.De facto, la plupart – si ce n’est la totalité – des vérifica-teurs grammaticaux que nous avons étudiés ici se limitent à une vérification grammaticale stricto sensu, sans s’attaquer au sens de la phrase. Les traits sémantiques sont tout juste suffisants pour une vérification rudimentaire de la cohérence d’un énoncé. Les expressions idiomatiques (v. p. 66) ne sont pas prises en considération. En outre, la vérification sémantique implique un lexique complet et consistant, ce qui est loin d’être garanti. Enfin, comme la syntaxe n’étudie que la phrase, la cohérence du discours n’est pas vérifiable.

Dès lors, il n’est envisageable d’utiliser une vérification de la cohérence sé-mantique que sous la forme d’avertissement, qui signale par exemple que le système attendait un objet comestible pour le verbe ronger dans le cadre de l’expressionronger son frein. L’apprenant serait alors incité à utiliser des aides à l’apprentissage telles qu’un dictionnaire pour vérifier que sa produc-tion est correcte.

Pour conclure, nous pouvons remarquer une recrudescence des projets incluant des composantes de traitement du langage depuis quelques années.

Heift et Schulze (2007) recensent environ soixante-dix projets dans la décen-nie 1985–1995 et seulement trente pour la décendécen-nie suivante ; actuellement, les auteurs constatent une recrudescence des projets. Parmi les causes de ce renouveau, on peut citer les progrès effectués en linguistique computation-nelle et les performances accrues des ordinateurs, au niveau de la puissance de calcul, de la taille de la mémoire et de la taille et de la rapidité d’accès aux disques.