Construction collaborative de données lexicales multilingues

15  Download (0)

Full text

(1)

TAL. Volume 42 – n° 4/2001, pages 1 à X

lexicales multilingues

Le projet Papillon

Mathieu Mangeot-Lerebours* — Gilles Sérasset**— Mathieu Lafourcade***

* National Institute of Informatics

Hitotsubashi 2-1-2-1913 Chiyoda-ku Tokyo 101-8430 Japan mangeot@nii.ac.jp

** GETA-CLIPS — IMAG — Université Joseph Fourier BP 53, 38041 Grenoble cedex 9

Gilles.Serasset@imag.fr

*** TAL-LIRMM — Université de MontpellierII Montpellier

lafourca@lirmm.fr

RÉSUMÉ. Résumé

MOTS-CLÉS : mots-clés.

KEY WORDS : keywords.

Note : Article à envoyer le 5 janvier dernier délai à Michael Zock zockm@noos.fr

Note : l’article doit faire de 25 à 30 pages

(2)

1. Introduction

S : Cet article présente un état de l’art du projet Papillon de construction collaborative sur Internet de données lexicales multilingues.

I : L’intérêt majeur est d’appliquer le paradigme de construction du système d’exploitation LINUX, construction collaborative sur Internet par des bénévoles, à celle de données lexicales multilingues qui seront disponibles gratuitement au grand public. Les enjeux scientifiques sont nombreux. En effet, il n’existe pas à l’heure actuelle de dictionnaire d’usage multilingue incluant un grand nombre de langues. Quelle structure faut-il adopter pour réduire les efforts de construction ? D’autre part, le choix d’interagir avec le serveur à travers le Web pose des problèmes de construction d’interfaces pour l’édition et la manipulation de grandes quantités de données.

P :

2. Motivations du projet

Le projet Papillon fait suite à un premier constat : il n’existe pas à l’heure actuelle de dictionnaire français-japonais électroniques et gratuits. De plus, les dictionnaires existants sont en général conçus pour les japonais. La transcription des kanjis (idéogrammes japonais) est donc la plupart des cas omise. Les francophones ne peuvent donc pas se servir de ces dictionnaires à moins de savoir lire les kanjis. De plus, d’autres informations necessaries pour la comprehension des mots japonais font aussi défaut. Il existe par exemple, une grande variété de spécificateurs numériques en japonais. Certains échappent à toute logique. Il est donc indispensable d’y avoir accès lorsque l’on veut utiliser un nom.

Une autre difficulté subsiste dans la construction de grandes quantités de données : les coûts de construction prohibitifs. Un exemple, le projet Electronic Dictionary Research (EDR) de construction de dictionnaire japonais-anglais a coûté plus de 1200 humains/années. Son prix de vente, 140 000 euros environ, est très inférieur aux coûts réels de construction qui ne seront probablement jamais rentabilisés. Il est cependant encore trop élevé pour un particulier. De ce fait, seules des institutions peuvent l’acquérir.

Pour contourner cette difficulté, nous avons choisi d’appliquer le paradigme de construction de LINUX à celui de l’élaboration de données lexicales : chaque utilisateur contribue bénévolement à la base lexicale et les ressources sont ensuite disponibles gratuitement pour tous. Les utilisateurs mutualisent leurs dictionnaires.

Des projets similaires de construction collaboratives de données lexicales sur le Web existent parfois depuis plusieurs années. Le projet EDICT de construction de dictionnaire japonais-anglais dirigé par Jim Breen, professeur à l’université

(3)

Monash en Australie , a démarré il y a plus de 10 ans. De plus, des projets parallèles de traduction des gloses dans d’autres langues comme le français conduit par Jean-Marc Desperrier ont démarré avec succès. D’autres projets de construction bilingue de dictionnaires incluant le japonais ont été lancés plus récemment comme SAIKAM, japonais-thaï et WaDoKuJiten, allemand-japonais.

Malgré leur succès, ces projets ont des limitations pour nos objectifs : la qualité des données et la simplicité des structures des articles. Edict est un dictionnaire japonais->anglais monodirectionnel. Il est donc très difficile de rechercher une traduction japonaise à partir de l’anglais. D’autre part, ces projets traitent toujours de dictionnaires bilingues. La construction de dictionnaires multilingue n’a pas encore à notre connaissance été abordée dans des projets de ce genre.

Des collaborations existantes entre les membres du projet de construction de dictionnaires avec d’autres langues : dictionnaire français-anglais-malais entre le GETA-CLIPS à Grenoble et l’UTMK en Malaisie, dictionnaires français-anglais thaï et français-anglais-vietnamen sur le même modèle d’une part et le projet SAIKAM entre le NII à Tokyo et l’unversité Kasetsart à Bangkok, Thaïlande d’autre part, nous ont décidé à étendre le nombre de langues et créer ainsi un dictionnaire multilingue. Actuellement, les langues couvertes sont l’allemand, l’anglais, le français, le japonais, le lao, le malais, le thaï et le vietnamien. Des discussions sont en cours concernant les langues indiennes et le chinois.

Une autre extension importante du but initial concerne les utilisateurs. Plutôt que de construire un dictionnaire pour chaque catégorie d’utilisateurs, il nous a semblé plus intéressant de construire une base lexicale riche d’informations puis ensuite d’en extraire des vues personnalisées pour chaque utilisateur ou catégorie d’utilisateur. Nous prévoyons des utilisations de la base par des humains (débutant, expert, traducteur) mais aussi par des machines (lemmatiseurs, traduction automatique, apprentissage assisté par ordinateur, etc.). Pour que les données soient utilsables par des machines, il faut donc prévoir de marquer explicitement toutes les informations.

Le défi est alors lancé : comment construire bénévolement et collaborativement sur le Web un dictionnaire multilingue, multiutilisateurs, de qualité et gratuit.

3. Historique

Ce projet a été lancé en 2000 par Emmanuel Planas et François Brown de Colstoun, chercheurs français travaillant au Japon d’une part et Mutsuko Tomokiyo, chercheur japonaise travaillant en France d’autre part.

Note : est-ce que je parle de tous les principaux acteurs ?

Une première réunion des principaux acteurs du projet a eu lieu au Japon en août 2000. Elle a regroupé au départ, des chercheurs issus de la linguistique informatique (issus principalement du laboratoire GETA/CLIPS de Grenoble),

(4)

plutôt que des linguistes ou lexicographes. Cette réunion a servi principalement à définir les bases de la structure du dictionnaire et les étapes nécessaires au lancement du projet.

Une deuxième réunion a suivi en juillet 2001 à Grenoble, en France. Cette réunion a permis de structurer le projet en s’inspirant de l’organisation du W3C : Un comité de pilotage du projet réunit une dizaine des principaux acteurs les plus influents. Ensuite, une liste des tâches a été établie avec pour chaque tâche, un groupe de travail, un comité directeur, et un cycle de requêtes pour commentaires et recommandations.

Le séminaire Papillon 2002 s’est tenue au Japon en juillet. Des acteurs reconnus dans le monde de la linguistique informatique sur le japonais ont rejoint le projet : Jim Breen, auteur du dictionnaire EDICT, Francis Bond, chercheur au centre de NTT de Keihanna au Japon, Yves Lepage, chercheur au centre ATR de Keihanna au Japon et Ulrich Appel, auteur du dictionnaire allemand-japonais WaDoKuJiten. Durant ce séminaire, il a nottament été décidé que les données du projet seraient disponibles sous licence de logiciel libre.

Le prochain séminaire aura lieu du 3 au 5 juillet 2003 à Sapporo, en marge de la conférence ACL. Le programme, en cours d’élaboration prévoit déjà des ateliers de construction d’articles de dictionnaires dans plusieurs langues.

Un des buts du projet étant de produire des ressources libres de droits, il est donc difficile de trouver des financements. La majorité des acteurs du projet y travaille donc à temps partiel en plus de leur charge habituelle. Nous avons cependant pu financer nottament plusieurs séjours postdoctoraux de français au Japon par le biais de la société japonaise pour la promotion de la science (JSPS).

4. Macrostructure du dictionnaire Papillon

Pur construire un dictionnaire bilingue, le choix d’une macrostructure composée d’un volume composé d’articles de la langue A traduits vers la langue B et d’un autre volume composé d’articles de la langue B traduits vers la langue A semble naturel. Mais, lorsque l’on s’attèle à la construction d’un dictionnaire multiligue avec plus de 5 langues au départ, cette solution n’est rapidement plus envisageable. Pour 5 langues, il faudrait alors (n*n-1)/2 = 10 volumes.

Une autre solution utilisée en terminologie avec succès (voir la base Eurodicautom du service de traduction de la Communauté Européenne) consiste à ne construire qu’un volume avec une colonne pour chaque langue. Chaque terme aura alors un équivalent (et un seul) dans chacune des langues. Cette solution est appliquable en terminologie lorsqu’on traite un domaine particulier mais elle ne peut être utilisée pour la construction d’un dictionnaire d’usage dont le domaine est général et où les mots sont la plupart du temps polysémiques.

(5)

La macrostructure que nous avons choisie provient en grande partie des travaux de thèse de Gilles Sérasset [SER94] et a été expérimentée à petite échelle pour la construction de petites bases lexicales multilingues [BLA96]. Elle consiste à construire un volume monolingue pour chaque langue présente dans le dictionnaire puis à relier chaque sens de mot de chaque article monolingue avec ses correspondants dans les autres langues au moyen de liens interlingues (appelés axies pour acceptions interlingues) regroupés dans un volume interlingue servant de pivot entre les langues. Cette macrostructure pivot, bien que expérimentée avec succès à petite échelle n’a pas encore à notre connaissance été appliquée à grande échelle pour la construction de dictionnaires généraux à usage humain. Cette expérimentation constitue donc pour nous un autre défi à relever.

À retraduire

Real contrastive problems in lexical equivalence (not to be confused with monolingual polysemy, homonymy or synonymy as clearly explained in Mel'cuk and Wanner (2001) are handled by way of a special kind of link between axies.

Figure 2 illustrates this architecture using a classical example involving "Rice" in 4

languages. In this example, we used the word senses as given by the "Petit Robert"

dictionary for French and the "Longman Dictionary of Contemporary English" for English. As shown, the French and English dictionaries do not make any word sense distinction between cooked and uncooked rice seeds. However, this distinction is clearly made in Japanese and Malay. No axie may be used to denote the union of the word senses for Malay "nasi" and "beras" unless we want to consider them as true synonyms in Malay (which would be false). Hence, we have to create 3 different axies: one for the union of "nasi" and å‰î— (gohan), the other for the union of "beras" and ïƒ (kome) and one for the union of "rice" and

"riz". A link (non-continuous line in Figure 1 has to be added between the third axies and the others in order to keep the translation equivalence between the word- senses.

(6)

Note that the links between axies do not bear any particular semantics and should not be confused with some kind of ontological links.

Bilingual dictionaries can then be obtained from the multilingual dictionary.

5. Microstructure des articles

Pour la structure des articles, nous aurions pu définir notre propre structure.

Cependant, il nous a semblé plus judicieux de s’appuyer sur une théorie existante.

Nous avons choisi la lexicographie explicative et combinatoire, issue de la théorie sens-texte principalement pour les raisons suivantes :

- Cette théorie est indépendante des langues. Ce qui permet entre autres d’avoir une seule structure d’article valable pour toutes les langues.

- Elle apporte un cadre théorique et des outils précis pour distinguer les différents sens sémantiques d’un vocable.

- Il existe déjà des dictionnaires basés sur cette théorie.

La théorie sens-texte a été élaborée en Russie par Igor Mel‘cuk et ses collègues à partir de 1965. Cette théorie les outils nécessaires pour passer d’une idée (un sens) à sa réalisation dans une langue donnée (le texte). Elle a été développée par la suite à l’Observatoire de la Linguistique Sens-Text (OLST) de l’université de Montréal et a donné naissance au Dictionnaire Explicatif et Combinatoire (DEC) du français contemporain [MEL84].

Les articles de ce dictionnaire ne sont pas des articles traditionnels regroupant plusieurs sens. Ce sont des lexies. Nous reprenons ici la définition d’une lexie de [POL02] page 41 :

Une lexie, aussi appelée unité lexicale, est un regroupement 1) de mots-formes ou 2) de constructions linguistiques qui ne se distinguent que par la flexion.

Dans le premier cas, il s’agit de lexèmes et dans le second cas, de locutions.

Chaque lexie (lexème ou locution) est associée à un sens donné. Que l’on retrouve dans le signifié de chacun des signes (mots-forms ou constructions linguistiques) auxquels elle correspond.

Les lexies sont ensuite regroupées en vocables. Nous reprenons ici la définition d’un vocable de [POL02] page 42 :

Un vocable est un regroupement de lexies qui sont associées aux mêmes signifiants et qui ont un lien sémantique évident.

Le DEC est actuellement constitué de 4 volumes regroupant 558 vocables en tout. C’est un dictionnaire expérimental avec une structure assez complexe et qui ne peut (encore) servir à un usage général. C’est pourquoi un projet de simplification du DEC a été lancé récemment par Alain Polguère et Igor Mel’cuk

(7)

avec l'aide des étudiants de l'Observatoire de Linguistique Sens-Texte de l'université de Montréal au Canada.

Le projet DiCo [POL00] vise à construire une base lexicale du français de grande taille et à générer à partir de cette base un dictionnaire d'usage public : le Lexique Actif du Français (LAF). La base DiCo est en cours de rédaction. Il est prévu à terme d'obtenir environ 3 000 vocables ayant chacun plusieurs lexies (en moyenne trois lexies).

Cette base lexicale est gérée par l'outil FileMaker®. Chaque entrée de la base correspond à une lexie. Un vocable peut avoir une ou plusieurs lexies selon qu'il est monosémique ou polysémique. Les lexies d'un même vocable auront généralement le même nom et les mêmes propriétés grammaticales. chaque lexie est composée de huit champs différents. Nous donnons dans l'exemple de la figure xxx représentant l'unique lexie du vocable monosémique MEURTRE le nom de tous les champs suivis de leur valeur.

1. Nom de l'unité lexicale : MEURTRE 2. Propriétés grammaticales : nom, masc

3. Formule sémantique : action de tuer: ~ PAR L'individu X DE L'individu Y 4. Régime : X = I = de N, A-possY = II = de N, A-poss

5. (Quasi-)synonymes: {QSyn} assassinat, homicide#1; crime 6. Fonctions lexicales

- {V0} tuer

- {A0} meurtrier-adj

- {S1} auteur [de ART ~ ]//meurtrier-n /* Nom pour X*/

7. Exemples: La mésentente pourrait être le mobile du meurtre.

8. Idiomes: _appel au meurtre_, _crier au meurtre_

Figure xxx : extraits de la lexie MEURTRE de la base DiCo

Les fonctions lexicales de base sont au nombre de 52. Elles peuvent s’appliquer pour toutes les langues même si quelques fonctions n’auront pas de résultat dans certaines langues. Cette microstructure est donc indépendante des langues.

Depuis la base DiCo, il est possible de générer semi-automatiquement des dictionnaires à usage humain tel que le Lexique Actif du Français (LAF). Ce dictionnaire tente de rapprocher la lexicographie "théorique" et la lexicographie

"commerciale" en utilisant la lexicologie explicative et combinatoire.

Ce formalisme est très intéressant puisque, à partir des mêmes données, il permet de produire des ressources aussi bien pour des systèmes lexicaux que pour des dictionnaires d'usage grand public. De plus, il permet de populariser la

(8)

lexicologie explicative et combinatoire provenant de la théorie sens-texte. Nous avons ici un net progrès par rapport aux autres dictionnaires vus précédemment qui n'étaient destinés qu'à un usage uniquement humain et ne pouvaient donc pas être facilement utilisables par une machine sans transformation.

L'utilisation d'une base de donnée limite cependant la structuration des entrées en champs. Pour nos besoins, nous avons donc redéfini la structure d’une lexie au format XML. Ce système de structuration plus élaboré nous permet de noter explicitement toute la structure des articles.

6. Architecture générale de la plateforme

Architecture de ma thèse avec API et modules pré et post consultation, DML, échange de services.

La plateforme est générique. Elle peut servir à la consultation de n’importe quel type de dictionnaire au format XML. Elle peut aussi servir à la construction de dictionnaires dont la structure des articles est comatible avec l’interface d’édition.

Figure avec architecture de la plateforme Figure avec architecture de DML

Personnalisation du résultat avec feuilles de style,

7. Architecture informatique du serveur

Suivant la logique du paradigme de construction de LINUX, nous avons fait le choix de n’utiliser que des outils OpenSource.

Enhydra, serveur Web d’objets dynamiques en Java, architecture classique de serveur web 3/tiers.

Figure avec plateforme + 3 couches enhydra

La couche de business pour la manipulation des données

la couche de présentation pour la communication avec les clients à travers des pages HTML/CSS/Javascript et des formulaires HTML/CGIs.

La couche de données data pour le stockage des données. L’architecture de la palteforme est conçue pour être indépendante de la couche de données. Les données sont pour l’instant stockées dans un SGBD classique. Nous avons choisi PostgreSQL car il répond à notre cahier des charges en gérant de manière transparente les données multioctets comme du texte en UTF-8. La communication se fait à travers le JDBC. Il est donc possible de changer de SGBD en limitant les développements.

(9)

Nous avons ajouté des fonctionnalités pour le travail en communauté :gestion de listes de distributions, entrepôt de documents rédigés par les utilisateurs directement sur le serveur, etc.

8. Récupération de données existantes Données : limbes, purgatoire, paradis, Mécanisme des pointeurs communs CDM

Vecteurs conceptuels pour la fusion de dico existants.

Il est plus facile de corriger des articles existants que d’écrire un article en partant de zéro. De plus, il existe des dictionnaires libres et gratuits sur Internet.

Partant de ce constat, nous avons mis en place une méthodologie de récupération de dictionnaires existants pour construire un squelette de dictionnaire. Les articles seront ensuite révisés et complétés par les contributeurs.

9. Adaptation de l’interface de saisie

L’interface de saisie est générée semi-automatiquement à partir d’un schéma XML décrivant l’article à éditer. La génération est contrôlée par l’outil ArtStudio.

L’interface ainsi générée s’adapte automatiquement à plusieurs types de plateformes (HTML, WML, CHTML, java, waba, etc).

David et moi avons rédigé des rapports techniques pouvant s’intégrer dans ce cadre. On peut supprimer ce paragraphe si on rajoute des détails sur les vecteurs conceptuels.

10. Gestion des contributions

Pour éviter les problèmes de pollution involontaire de la base par des contributions erronées détéctés dans les projets de construction collaborative précédents, les contributions sont d’abord stockées dans l’espace utilisateur avant d’être révisées par des spécialistes et intégrées définitivement à la base.

Contributions espace utilisateur avant integration, possibilité de visualiser ses contributions et celles de ses groupes comme si elles étaient déjà intégré au dictionnaire.

Chacun contribue à son niveau.

Le volume interlingue de base lexicale est considéré comme une soupe chaude toujours en évolution. Des agents travaillent sans cesse à son amélioration.

(10)

Les agents automatiques travaillent en tâche de fond en calculant les vecteurs conceptuels de chaque article relié à un lien interlingue et les distances entre ces vecteurs.

Les agents humains corrigent et modifient certains liens en fonction de leurs connaissances. Bien sûr, un lien calculé par un humain aura plus de poids qu’un lien calculé automatiquement.

Comment ne pas être débordé par les vérifications, d’autant plus que les spécialistes devront certainement être rémunérés pour leur travail ?

3 solutions peuvent s’appliquer :

Les contributeurs peuvent acquérir une note de confiance au fur et à mesure que leur travail est évalué positivement. Les contributeurs de confiance pourront alors intégrer directement leurs contributions à la base.

Il est possible de mettre en place un système de vote et de révision par les pairs : les autres contributeurs voteront sur la qualité d’une contribution.

La troisième solution concerne les agents automatiques qui travaillent en tâche de fond sur l’évaluation de la base lexicale. Il faut donc mettre en place des systèmes de vérifications de contraintes adaptés à la nouvelle architecture de la base.

Le projet ne peut réussir sans l’adhésion du grand public. Il faut donc prendre grand soin à la mise en œuvre du serveur sous peine de ne pas voir les contributeurs revenir.

Il faut aussi trouver le moyen de motiver ces contributeurs avec un tableau des meilleurs contributeurs du mois, etc.

11. Amorçage et vecteurs conceptuels

Afin de peupler automatiquement la base d’acceptions, plusieurs étapdes doivent être considérées. En premier lieu, un amorçage est nécessaire afin de construire un ensemble initial d’acceptions. Ensuite, à partir de deux dictionnaires bilingues (que l’on nommera source et cible), nous associons chaque ensemble de lexies à l’ensemble de sens correspondants dans le dictionnaire monolingue vectorisé puis enseuite aux accpetions.

Constaintes

L’automatisation nous impose un certains nombre de contraintes en ce qui concerne les lexies, les liens et les acceptions :

(11)

1) Il y a, au plus, un seul lien possible d’un sens monolingue vers une acception. Une entrée avec n sens sera indirectement liée à, au plus, n acceptions via ses sens. Certains sens peuvent encore ne pas avoir été mis en correspondance avec une acception.

2) Deux sens ne peuvent pas être liée à la même acception. Si ces sens sont synonymes, cette relation sera explicitée à l’aide d’une fonction lexicales.

Ammorçage

L’ammorcage consite à créer une acception pour chaque sens défini dans le dictionnaire monolingue. Notre approche consiste à utiliser les vecteurs conceptuel (associé à un sens) pour produire une base de vecteur associé aux accpetions.

Liage Lexie-sens

(12)

On considère en toute généralité un dictionnaire bilingue Da-b d’une langue source A evrs une langue cible B. On utilise aussi le dictionnaire inverse Db-a.

Dans les deux dictionnaire, la structure (simplifiée) d’une association bilingue est la suivante:

S(Dab,w) = (cat,glose*,equiv+)+

Dans le dictionnaire Dab, le terme w est associée à n définitions (des lexies).

Chaque lexie contient: une information morphologique (au moins la catégorie morphosyntaxique, Nom, Verbe, Adjectif, Adverbe), zéro ou plus gloses, et au moins un equivalent dans la langue cible. Les gloses sont des termes optionnels qui permettent à l’utilisateur de sélectionner le sens dont il est question si le terme est polysémique. Un exemple typique est :

demand =

1 (VT, {money, explanation, help},{exiger, réclamer}) 2 (VT, {higher pay},{revendiquer, réclamer})

3 (N, {person}, {demande})

4 (N, {duty, problem, siutation}, {revendication, réclamation}) 5 (N, {for help, for money}, {demande})

La structure de nos dictionnaires monolingues vectorisés est la suivante S(Dab,w) = (cat,glose*,equiv+)+

(13)

Liage Sens-acceptions

(14)

12. Conclusion

13. Bibliographie

[BLA 96] BLANC E., « Une maquette de base lexicale multilingue à pivot lexical:

PARAX », Lexicomatique et Dictionnairique, Actes du colloque LTT, Lyon septembre 1995, ed. AUPELF-UREF, Montréal, Canada, pp. 43-58.

[MAN 01] MANGEOT-LEREBOURS M., Environnements centralisés et distribués pour lexicographes et lexicologues en contexte multilingue. Thèse de nouveau doctorat, Spécialité Informatique, Université Joseph Fourier Grenoble I, jeudi 27 septembre 2001, 280 p.

[MAN 02a] MANGEOT-LEREBOURS M., « An XML Markup Language Framework for Lexical Databases Environments: the Dictionary Markup Language », LREC Workshop on International Standards of Terminology and Language Resources Management, Las Palmas, Islas Canarias, Spain, 28 May 2002, pp 37-44.

[MAN 02b] MANGEOT-LEREBOURS M., SÉRASSET G., « Frameworks, Implementation and Open Problems for the Collaborative Building of a Multilingual Lexical Database. », COLING Workshop on Building and Using Semantic Networks SEMANET02, Ed. Grace Ngai, Pascale Fung & Kenneth W. Church Taipei, Taiwan, 31 August 2002, pp 9-15.

A formater

[MEL84] Mel'ãuk, I. A. et al. 1984, 1988, 1992, 1999. Dictionnaire explicatif et combinatoire du français contemporain: Recherches lexico-sémantiques I, II, III, IV.

Presses de l'Université de Montréal, Montreal.

[POL00] Alain Polguère (2000) Towards a theoretically-motivated general public dictionary of semantic derivations and collocations for French. Proceedings of EURALEX'2000, Stuttgart, pp. 517-527.

[POL02] Alain Polguère (2002) Notions de base en lexicologie. OLST-Département de linguistique et de traduction, Université de Montréal, 210 p.

[SER 94] SÉRASSET G., SUBLIM: un Système Universel de Bases Lexicales Multilingues et NADIA: sa spécialisation aux bases lexicales interlingues par acceptions. Thèse de nouveau doctorat, Spécialité Informatique, Université Joseph Fourier Grenoble I, 1994, 280 p

[SER 01] SÉRASSET G., MANGEOT-LEREBOURS M., « Papillon Lexical Database Project:

Monolingual Dictionaries & Interlingual Links. », Proc. NLPRS'2001 The 6th Natural Language Processing Pacific Rim Symposium, Hitotsubashi Memorial Hall, National Center of Sciences, Tokyo, Japon, 27-30 novembre 2001, vol 1/1, pp. 119-125.

(15)

14. Biographie

Mathieu Lafourcade est docteur de l’université Joseph Fourier en informatique. Il est actuellement maître de conférences à l’université Montpellier II et membre du groupe Traitements Algorithmiques des Langages du laboratoire LIRMM. Ses activités de recherche portent sur la mise au point des horloges tournant dans le sens trigonométriques.

Mathieu Mangeot-Lerebours est docteur de l’université Joseph Fourier en Informatique.

Il est actuellement chercheur invité à l’Institut National d’Informatique de Tokyo au Japon, financé par la Société Japonaise pour la Promotion de la Science. Se travaux portent sur les environnements de création, manipulation et édition de données lexicales multilingues en collaboration.

Gilles Sérasset est docteur de l’université Joseph Fourier en informatique. Il est actuellement maître de conférences à l’université Joseph Fourier et membre du Groupe d’Études sur la Traduction Automatique du laboratoire CLIPS. Ses activités de recherche portent sur la confection des carambars à la noix de coco.

Figure

Updating...

References

Related subjects :