Dans la communication écrite ou parlée, les mots que l’on emploie peuvent
avoir plusieurs sens, qui sont déduits généralement de leur contexte. Par exemple,
dans la phrase «La souris mange le fromage.», on pense tout de suite, pour le mot
souris, au sens du petit rongeur, plutôt que celui du périphérique informatique.
En traitement automatique des langues (TAL), savoir quels sont les sens
véhi-culés par les mots qui sont manipulés peut s’avérer crucial afin de construire des
systèmes plus justes et pertinents. Par exemple, on attend d’un système de
traduc-tion automatique français-anglais qu’il traduise correctement le mot avocat dans
la phrase «Je mange un avocat.» paravocadoet non pas parlawyer.
La désambiguïsation lexicale (DL), en anglais Word Sense Disambiguation
(WSD), est ainsi une tâche centrale du TAL qui vise à résoudre cette ambiguïté
en assignant aux mots contenus dans un texte leur sens le plus probable, à partir
d’un inventaire de sens prédéfini.
Dans ce chapitre, nous allons d’abord faire un rapide historique de la tâche et
décrire les enjeux, avant de voir quelles sont les différentes approches pour la DL
ainsi que les ressources nécessaires à leur mise en œuvre. Nous décrirons ainsi les
principaux systèmes de l’état de l’art, et enfin les méthodes pour leur évaluation.
1.1.1 Historique
La désambiguïsation lexicale, comme elle concerne une notion fondamentale
qui est le sens, est un élément central dans de nombreux champs du TAL et pour la
compréhension de la langue en général. Comme l’écritNavigli(2009), elle
appa-raît d’abord comme une des tâches principales pour la traduction automatique dès
les années 1950 (Weaver, 1955), et elle a ensuite été considérée très rapidement
comme un problème à part entière au vu de sa grande difficulté.
En effet, même si la DL peut être vue comme un simple problème de
clas-sification (tel sens est assigné à tel mot dans tel contexte), elle soulève en fait de
nombreuses questions fondamentales qu’il est nécessaire de se poser. Par exemple :
comment définir précisément un sens ? Est-ce que l’existence d’un sens dépend
d’une langue ou d’un domaine d’application ? Quel niveau de granularité est
sou-haité pour distinguer des sens proches ? etc.
Dans les premiers travaux sur la DL, cette difficulté était accrue par le manque
de ressource sémantique disponible. Sans inventaire de sens standard, base de
don-nées lexicale ou campagne d’évaluation, la comparaison des systèmes n’était pas
évidente, et cette situation est d’ailleurs toujours d’actualité pour la majorité des
langues autres que l’anglais (voir par exemple les travaux de Hadj Salah et al.
(2018) sur la DL de l’arabe).
C’est dans les années 1990 qu’arrivent les premieres bases de données
lexi-cales, et notamment WordNet (Miller et al.,1990), l’inventaire de sens pour
l’an-glais de référence, toujours utilisé de nos jours dans la plupart des travaux de la
DL. Dans la même période est créé le premier corpus annoté en sens à grande
échelle, le SemCor (Miller et al.,1993), puis les premières campagnes
d’évalua-tion comme SensEval (Kilgarriff,1998), qui permettent finalement la création et
l’évaluation de systèmes de DL de façon automatique et à grande échelle.
Il existe aujourd’hui une multitude d’approches pour la DL, qu’on différencie
principalement par la nature et par la quantité des données sur lesquelles elles
s’ap-puient. On trouve ainsi principalement d’un côté les approches supervisées, et de
l’autre, les approches à base de connaissances. Les approches supervisées reposent
sur de grandes quantités de données manuellement annotées, couplées à des
mé-thodes d’apprentissage automatique, afin de prédire le sens d’un mot en fonction
des exemples observés. Les approches à base de connaissances, elles, s’appuient
sur des ressources lexicales telles que des dictionnaires, des thésaurus ou des
ré-seaux lexicaux, couplées à des méthodes telles que des calculs de similarité ou de
parcours de graphe.
1.1.2 Enjeux et applications
La DL a des applications qui semblent évidentes, par exemple en traduction
automatique (TA) français-anglais, où les systèmes doivent être capables de
dis-tinguer les deux sens principaux du mot avocat en fonction du contexte pour le
traduire correctement. Pour la recherche d’information (RI), comprendre la
véri-table intention de l’utilisateur lorsqu’il cherche par exemple l’adresse d’un avocat,
ou lorsqu’il cherche une recette de cuisine avec de l’avocat, semble aussi
fonda-mental pour obtenir des résultats pertinents.
Pourtant en pratique, force est de constater que la désambiguïsation explicite
des termes n’est quasiment jamais employée dans les systèmes état de l’art de TA
ou de RI. Il y a bien sûr eu des travaux qui ont intégré ces informations à des
systèmes de RI ou de TA, mais l’apport réel de cette information sémantique n’est
cependant pas toujours évident.
En effet, on trouve d’un côté des travaux comme l’article deSanderson(1994),
dans lequel l’auteur montre que la DL n’est pas utile aux systèmes de RI, et qu’elle
dégrade même leurs performances si la précision du système de DL utilisé est en
dessous du seuil de 90%. De même,Carpuat et Wu(2005) intègrent des étiquettes
de sens dans un système de TA statistique et ne constatent aucun effet significatif.
Dans l’étude deResnik (2006), l’auteur reconnait ainsi qu’il n’y a pas d’exemple
clair d’applications concrètes dans lesquelles la DL aurait prouvé son utilité.
Cependant, on trouve aussi d’autres travaux comme l’article de Chan et al.
(2007a), qui montre cette fois une amélioration d’un système de TA grâce aux
pré-dictions d’un système de DL. De même, dans l’article deZhong et Ng(2012), leur
méthode d’intégration de la DL dans un système de RI améliore significativement
ses résultats. Plus récemment, les travaux deRios et al.(2017),Liu et al.(2018) et
Hadj Salah(2018) ont mis en avant les difficultés pour un système de traduction
automatique neuronale de faire un choix lorsqu’il est confronté à un mot
poly-sémique, et ils ont intégré avec succès les prédictions d’un système de DL pour
améliorer ses performances.
Finalement, nous pensons que l’apport de la DL à d’autres tâches du TAL
dé-pend de plusieurs critères, notamment :
— de la méthode d’intégration des sens pour la tâche, qui doit permettre aux
sens d’agir comme une information additionnelle aux mots, plutôt qu’en
remplacement de ces mots ;
— des performances du système de DL utilisé, qui ont énormément évolué ces
dernières années (voirsection 1.5.1.3) ;
— de la quantité de données exploitées par le système de base, en effet l’impact
de la DL sur un système de TA exploitant déjà des milliers de documents sera
forcément moins important que sur un système de TA n’ayant accès qu’à peu
de ressources ;
— de l’utilisation ou non d’autres méthodes de désambiguïsation plus
impli-cites, comme des vecteurs de mot et les modèles de langue pré-entraînés.
Dans le document
Modèles neuronaux joints de désambiguïsation lexicale et de traduction automatique
(Page 32-35)