• Aucun résultat trouvé

Grammaire sémantique à large couverture

Actuellement, la sémantique et les applications sémantiques sont majoritairement traitées par des approches numériques qui s’intéressent à construire des univers représen-tant les relations exisreprésen-tantes dans les énoncés plutôt qu’à leurs aspects vériconditionnels. On appelle ce type d’approche la sémantique distributionnelle (Harris 1954 ; S. Dumais 2003). Les formalisations les plus utilisées sont la Latent Semantics Analysis, (Landauer et Dutnais 1997 ; S. T. Dumais 2004) ou Vector Space Models (Erk 2012 ; S. Clark 2015). Pour ces approches, il reste ainsi plus difficile de traiter de phénomènes sémantiques particuliers car elles ne disposent pas d’une représentation structurelle de la sémantique. L’approche montagovienne de la sémantique permet d’obtenir ce type de représenta-tion, mais, actuellement, il n’existe pas de grammaire à large couverture réaliste pour le français. S’il est possible de proposer le traitement de phénomènes particuliers (négation, intensionalisation, etc.), la question de la combinaison de ces traitements est en elle-même une autre difficulté. Plusieurs théories de la modélisation du discours sont installées dans le paysage scientifique, mais peu de ressources existent. On retrouve en particulier le Groningen Meaning Bank (Bos et al. to appear in 2016) qui fournit des représentations

9.3 Grammaire sémantique à large couverture

en SDRT pour l’anglais.

Disposer de ces représentations permettrait aux systèmes utilisant la compréhension fine des énoncés en langue naturelle de faire un saut qualitatif. Les applications sont nombreuses du côté des systèmes de dialogue, des interactions Homme-Machine, ainsi que l’identification des éléments pertinents dans de grandes masses de données.

9.3.1 Constitution de la grammaire

Comme nous l’avons vu dans les chapitres précédents, nous disposons d’un envi-ronnement permettant de développer des grammaires sémantiques pour reconnaître des phénomènes particuliers. Nous travaillons également à disposer d’un cadre dans lequel il serait possible de développer des fragments spécifiques qui pourraient être composés, mais nous sommes confrontés à une question récurrente autour de l’évaluation. Une partie du problème est de disposer de lexique suffisamment grand pour procéder à des analyses de données non contrôlées (traitement d’exemples en dehors de grammaires jouets).

Les ACG (de Groote 2001) sont un cadre grammatical dans lequel de nombreux formalismes grammaticaux peuvent être encodés. Elles offrent un contrôle aussi bien sur les structures d’analyse que sur les structures de surface (par exemple une suite de mots). Elles proposent des traitements unifiés permettant de dériver simultanément plusieurs représentations linguistiques : en suite de mots, en structures syntaxiques, en formules logiques, etc. Elles sont basées sur le partage de structures abstraites qui permettent de modéliser l’interface entre la syntaxe et la sémantique. Si le cadre est bien étudié, sa mise en œuvre sur des exemples réalistes n’est pas aboutie. L’outil développé autour de la théorie, ACGtk, est encore uniquement utilisé sur des petites grammaires. Les ACG sont donc le cadre adapté pour lequel il faut développer des ressources spécifiques.

Les grammaires d’arbres adjoints (TAG) sont un formalisme grammatical très ré-pandu pour l’analyse des langues naturelles. Plusieurs grammaires à large couverture ont été développées, en particulier pour le français. En plus de la modélisation syntaxique, SemFrag (Gardent et Parmentier 2005 ; Gardent 2008) permet la construction de repré-sentations sémantiques au moyen de formules logiques à partir des analyses syntaxiques. Le lexique Frigram (Perrier et Guillaume 2013a) qui est développé pour l’analyseur Léo-par et les grammaires d’interaction (Perrier et Guillaume 2013b), est un autre exemple d’une telle ressource pour le français.

Ces deux ressources nous intéressent car elles proposent une couverture du français de bonne qualité. Par ailleurs, les TAG peuvent être encodées dans les ACG (Pogodalla 2004 ; Pogodalla 2009), ce qui nous assure de pouvoir transférer le lexique de SemFrag vers notre nouvelle grammaire. Dans le même temps, la proposition faite pour la modélisation sémantique dans SemFrag se heurte à des difficultés, notamment dues à la gestion de la compositionnalité et plus encore à la gestion de la notion de contexte. Un simple transfert de la modélisation des continuations ne semble pas suffire pour obtenir la couverture sémantique attendue.

Par ailleurs, les hypothèses théoriques qui fondent Frigram sont communes aux ACG. Les deux formalismes sont développés à partir de la logique linéaire. La ressource a cepen-dant été construite pour gérer la syntaxe, et des choix spécifiques ont été formulés. Cette

Chapitre 9. Perspectives et projet de recherche

spécialisation explique qu’il ne soit pas aisé de transférer directement la grammaire de la syntaxe à la sémantique, en particulier parce que l’encodage des grammaires d’interaction dans les ACG nécessite des adaptations pour la gestion des types complexes.

Dans les deux cas, nous disposons de ressources dont la couverture pour le français est indiscutablement importante et nous pouvons proposer des perspectives explicites sur la méthodologie à suivre pour construire la ressource sémantique dans les ACG. Reprendre les principes des continuations dans le λ-calcul par ces formalismes risque d’être compliqué à cause de la définition de mécanismes ad hoc, alors que les ACG peuvent être appréhendées comme un cadre unifiant des différents apports.

L’objectif est double : utiliser la grammaire de SemFrag pour construire une gram-maire sémantique à large couverture dans le cadre ACG, et expérimenter cette gramgram-maire avec l’outil de développement des ACG, ACGtk. Ces tests permettront d’identifier les be-soins pour la couverture de la grammaire qui pourront être comblés par l’intégration d’informations provenant de Frigram.

Des études préliminaires ont pu être réalisées par des étudiants encadrés lors de leur licence et par des étudiants co-encadrés, avec Sylvain Pogodalla, lors de leur seconde année de Télécom-Nancy. Ces études ont montré que la transformation n’était pas ad hoc et qu’il convenait de travailler à l’interprétation des propriétés utilisées dans cha-cune des grammaires pour leur attribuer une contrepartie sémantique. Plusieurs tâches apparaissent :

— la transformation est majoritairement réalisable rapidement. Il convient de la tester sur des exemples issus de corpus réels ;

— des questions spécifiques comme l’interprétation des structures de traits qui contrô-lent largement la surgénération des formalismes restent ouvertes ;

— les résultats doivent être étendus à des phénomènes linguistiques particuliers : réso-lution des anaphores pronominales, chaînes de coréférences, présupposition (Bea-ver 1997), pluriel, temps et aspects, et modalité.

Plusieurs éléments de réponse ont été apportés dans ce document, mais ils doivent être confrontés à l’automatisation.

9.3.2 Tests de couverture des grammaires sémantiques

Une fois les développements de la grammaire sémantique réalisés, il conviendra de la tester. Une première solution serait d’utiliser les mêmes corpus que ceux proposés pour l’évaluation de (Gardent 2008). Le premier avantage est que si le corpus en question est relativement limité il reprend de nombreux phénomènes sémantiques complexes mais déjà identifiés. Cette étape permettrait de construire une grammaire couvrant de nombreux phénomènes, sans toutefois être trop volumineuse. Il ne faut pas négliger que la complexité des algorithmes dépend de la taille des données d’entrée. Ainsi, travailler sur cette version permettrait de faire plusieurs tests qualitatifs.

Il conviendrait par exemple de baser les premières étapes sur la construction de repré-sentations logiques à la Montague, comme (Dowty 1979). Il faut par exemple intégrer en-suite à ces versions la modélisation des événements dans des versions néo-davidsoniennes, et/ou des éléments de temps et aspects des verbes, voire de temporalité en général.