• Aucun résultat trouvé

Exemples syntaxiques et sémantiques

Partie II Modélisation de phénomènes linguistiques et grammaires de types lo-

4.4 Apprentissage

4.4.2 Exemples syntaxiques et sémantiques

Nous avons vu dans la section précédente que les exemples fournissaient, en plus de la suite de mots, l’arbre de dérivation. Pour éviter de devoir fournir les arbres de dérivations, [Tel98a] propose que les exemples soient constitués de simples suites de mots, mais avec leur représentation séman-tique. On ne fournit donc plus un ensemble d’expressions bien formées, mais un ensemble de paires constituées d’une expression et de sa représentation sémantique.

Ainsi, prenons comme ensemble d’exemples

Arsène rit rit a et Arsène pleure pleure a

Bien que la méthode proposée par [Tel98b, Tel98a] ne requière que la compositionalité sémantique, nous utilisons ici la sémantique de Montague en considérant les expressions sémantiques comme des

-termes.

Dans une première étape, l’algorithme fait plusieurs hypothèses sur les structures possibles des exemples. On a ici les quatre possibilités de la figure 4.3.

Si l’on ne précise pas les structures correctes, l’algorithme RG donne les quatre lexiques pos-sibles : Arsène pleure S rit S Arsène S pleure rit S S Arsène S pleure S S rit Arsène S pleure rit

Comment donc utiliser la forme sémantique pour les discriminer ? Tout d’abord, les deux possibilités pour Arsène rit des figures 4.3(a) et 4.3(b) permettent les deux hypothèses suivantes :

Arsène a rit S rit ou Arsène S rit rit a

c’est-à-dire que l’on cherche et qui vérifient rit aou rit a. Le problème d’unification des catégories syntaxiques s’augmente d’un problème d’unification de

-termes. Supposons que l’on ait Arsène !#"$

rit. Cet élément lexical doit aussi permettre de calculer dans au moins l’un des deux autres exemples% rit pleure aourit%& pleure a. Or ceci n’est pas possible carritest une constante qui doit apparaître dans les deux termes. On voit donc comment la sémantique permet de discriminer les possibilités, et on sait qu’alors on doit avoir Arsène !

a, et donc aussi rit !

Srit. Et de même que précédemment, les conditions sur le deuxième exemple donnent % a pleure acomme seule solution possible. Donc le lexique finalement construit est celui du tableau 4.5.

Cette méthode présente un certain nombre d’avantages. D’une part les exemples ne nécessitent plus de structure mais ils doivent s’accompagner de leur sémantique, d’autre part, pas plus qu’il n’est nécessaire d’indiquer des types syntaxiques de base aux entrées lexicales, il n’est nécessaire d’indiquer des valeurs sémantiques de base. Seule la commodité nous a amenés à donner des noms commepleureouritaux constantes sémantiques.

[Tel98a] ajoute que d’un point de vue cognitif, la pertinence de cette conception de l’apprentissage rejoint des opinons psycholinguistiques, en évoquant [Pin95] : « Knowing a language is knowing

Arsène rit S rit a

Arsène rit S

(a)

Arsène rit S rit a

Arsène S rit (b)

Arsène pleure S pleure a

Arsène rit S

(c)

Arsène rit S pleure a

Arsène S rit S (d)

FIG. 4.3 – Hypothèses construites à partir des exemples

how to translate mentalese into strings of words and vice-versa », mais également la nécessité de la répétition syntaxico-sémantique dans l’apprentissage [Qui99, Pin95]. Ainsi, si l’on commente la course de quelqu’un par John runs, l’auditeur ne peut pas deviner quel est le prédicat, et quel est l’argument. Cette inférence ne devient possible que si un nouvel exemple est fourni à l’auditeur, tel que Mary runs, ou bien John sleeps. Ce que l’on retrouve dans l’exemple traité ci-dessus.

Par contre cette approche est encore très incomplète. [Tel98a] relève la complexité de l’algorithme envisagé, au moins exponentielle, en soulignant toutefois que la mesure de complexité intéressante correspond à celle relative au nombre de mots nouveaux dans chaque nouvel exemple. On retrouve là une préoccupation de [Adr92].

Également, la procédure d’unification de -termes amène des difficultés, car elle devient très rapidement indécidable [Hue75] (dès le deuxième ordre). Néanmoins, cette approche nous semble intéressante et envisage sous d’autres angles des problèmes que nous avons eu à traiter dans le cas de la génération. En particulier, nous verrons que même si nous faisons de l’unification de -termes, nous pouvons montrer que les problèmes posés (moins généraux que l’unification) restent décidables d’une part, et d’autre part qu’une approche par les réseaux de preuve amène une certaine efficacité. La question se pose alors de savoir dans quelle mesure ces résultats se transposent à ce schéma d’apprentissage.

Calcul de Lambek

Le chapitre précédent a présenté les grammaires catégorielles avec ses deux règles de réécriture

et :

En prenant désormais un point de vue plus logique qu’arithmétique, et en considérant le et le comme des implications (gauche et droite), une signification autre de ces règles apparaît. En effet, supposons que d’une expression on puisse dire qu’elle est de type

(

), et qu’une autre expression soit de type

(

). La règle

nous assure qu’alors l’expression est de type

(

).

Ceci évoque très précisément la règle d’élimination de l’implication en déduction naturelle décrite au chapitre 3 : DN DN DN

c’est-à-dire la règle du Modus Ponens.

Mais la déduction naturelle propose la contrepartie de cette règle : la règle d’introduction de l’implication : DN ! " DN #

Or cette règle manque aux grammaires AB. Cela signifie, pour reprendre un exemple du cha-pitre 4, Marie lit, qu’on ne peut pas déduire de la correction de la phrase Marie lit un livre que Marie

lit est de type S np (en considérant que un livre est de type np), ce qui conduit à introduire des règles

supplémentaires telles que $ %

$

&%'

. Qu’en est-il dans un cadre comme celui de la déduction naturelle où l’on peut faire des hypothèses (présence d’un np après Marie lit qui permet d’obtenir une phrase correcte — on obtient une preuve de S) ?

Ce chapitre répond en présentant tout d’abord les règles

et

plongées dans un système logique similaire à celui de la déduction naturelle, avec les propriétés de décidabilité et d’élimination des coupures qui en découlent. Puis il montre par divers exemples comment ce nouveau calcul étend celui des grammaires AB, résoud élégamment certains problèmes et se combine naturellement à la sémantique de Montague. Cela nous permettra d’évoquer pour la première fois les problèmes de génération avec ce type de grammaire. Enfin, nous montrerons des limitations de ce calcul pour la modélisation et des tentatives pour les dépasser.

5.1 Règles d’inférences et interprétation