• Aucun résultat trouvé

Avant d’évaluer les approches proposées dans cette thèse, nous présentons le corpus MEDIAsur lequel nos expériences ont été réalisées, ainsi que les systèmes de traduction utilisés dans ces expériences et les différentes métriques d’évaluation utilisées.

5.2.1 Le corpus MEDIA

Toutes nos expériences sont fondées sur le corpus de dialogue français MEDIA. Le corpus MEDIAdécrit dans (Bonneau-Maynard et al.,2005) couvre un domaine lié aux réservations d’hôtel et aux informations touristiques. Il s’agit d’une simulation d’un serveur téléphonique en français pour des réservations de chambre d’hôtel. Ce corpus est annoté par des étiquettes qui représentent la sémantique du domaine.

Le corpus est constitué de 1257 dialogues enregistrés par 250 locuteurs différents pour une durée totale de 70 heures d’enregistrement audio. Ces dialogues ont été col-lectés en utilisant un protocole de type “Magiciens d’Oz” (Wizard-of-Oz). Lors de l’en-registrement, un humain simule les réponses d’un serveur de dialogue, alors que

l’uti-tel-00818970, version 1 - 30 Apr 2013

5.2. Matériau expérimental

FIGURE5.1 –Protocole du Magicien d’Oz.

lisateur communique avec ce serveur. Le protocole de collecte des dialogues est illustré dans la FIGURE5.1(prise du “Manuel d’utilisation de l’outil WoZ. Projet MEDIA”).

Les dialogues simulent des conversations téléphoniques pour des réservations tou-ristiques. Les utilisateurs appellent le serveur pour réserver des chambres d’hôtel dans une ou plusieurs villes selon certains critères (distance du centre, période, équipement, prix, ...).

Les dialogues sont ensuite transcrits et annotés manuellement pour obtenir une représentation sémantique du domaine. La collecte et l’annotation du corpus ont été prises en charge par ELDA/ELRA1. L’outil semantizer (Bonneau-Maynard et al.,2005) est utilisé comme interface d’annotation du corpus MEDIA.

Les scénarios sont définis avec différents niveaux de complexité partant de réserva-tions simples et requêtes bien précises jusqu’à des réservaréserva-tions multiples avec différents critères, des hésitations et des changements de plan au cours de la même discussion. Le tableau5.1présente un extrait de dialogue du corpus MEDIA.

Pour standardiser l’utilisation de ce corpus, les dialogues sont regroupés en 3 par-ties : un ensemble d’apprentissage (environ 13k phrases), un ensemble de développe-ment (environ 1,3k phrases) et un ensemble d’évaluation (environ 3,5k phrases). Le tableau5.2donne une description détaillée des caractéristiques techniques du corpus MEDIA.

L’étiquetage sémantique du corpus est effectué par 99 concepts différents. Ces éti-quettes peuvent être simples comme les dates ou les noms de villes ou peuvent être plus complexes comme les étiquettes linguistiques (celui-ci, le même, ...). Cette annota-tion sémantique découpe chaque phrase en plusieurs segments. Chaque segment

cor-1. http ://www.elda.org

tel-00818970, version 1 - 30 Apr 2013

Woz Bienvenue sur le serveur MEDIA système d’information touristique et de réservations d’hôtels. Quelles informations désirez-vous ?

Locuteur Je voudrais réserver un hôtel pour deux personnes à Paris Woz A Paris, quelle est votre date d’arrivée

Locuteur Le huit juin

Woz Pour combien de nuits souhaitez vous réserver ? Locuteur Deux nuits

Woz Dans quel arrondissement souhaitez vous que votre hôtel se situe ? Locuteur Le sixième arrondissement

Woz Trois hôtels correspondent à votre demande

TABLE5.1 –Un extrait de dialogue du corpus MEDIA.

nombre de phrases utilisateur 18.801 nombre de phrases système 19.633 nombre de mots moyen par phrase utilisateur 8,3

nombre de mots moyen par phrase système 14,4 taille du vocabulaire utilisateur 2.715 mots

taille du vocabulaire système 1.932 mots durée moyenne d’un dialogue 3,5 min

TABLE5.2 –Caractéristiques du corpus MEDIA

respond à une unité sémantique. Ce segment est non seulement annoté par le concept lui-même mais aussi par une valeur (une normalisation du segment), une modalité (positive, négative, interrogative) et un specifieur qui représente la relation entre ce segment et les autres segments de la phrase. Un exemple d’annotation de MEDIA est donné dans le tableau5.3.

Dans cet exemple le mode “+” signifie que la requête de l’utilisateur est affirmative.

Cette précision permet de distinguer les modes des différents segments d’un énoncé et d’enlever l’ambiguïté dans des cas où ce n’est pas très clair, à partir d’un dialogue transcrit, si la phrase est affirmative ou interrogative.

Le spécifieur “réservation” permet d’obtenir une structure hiérarchique qui sente une réservation liée au concept “command-tache”, alors que les valeurs repré-sentent des valeurs normalisées correspondantes à la base de données. Il est important de mentionner que les expériences présentées dans cette thèse prennent en compte uni-quement le concept et la modalité du segment.

Un sous-ensemble de données d’apprentissage (environ 5,6k phrases), de même que les ensembles de tests et de développement, ont été manuellement traduits en italien dans le contexte du projet européen LUNA (Servan et al.,2010).

tel-00818970, version 1 - 30 Apr 2013

5.2. Matériau expérimental

concept c mode spécifieur valeur Je voudrais réserver commande-tache + réservation

un hôtel objetBD + réservation hotel

pour deux personnes séjour-nbPersonne + réservation 2

à Paris localisation-ville + hôtel Paris

TABLE5.3 –Exemple d’annotation sémantique du corpus MEDIA.

5.2.2 Les métriques d’évaluation

Dans nos expériences nous utilisons deux métriques d’évaluation différentes. La première métrique est utilisée pour évaluer la performance des moteurs de traduction utilisés pour la portabilité multilingue, alors que la seconde est appliquée pour évaluer les sorties de compréhension obtenues par les différentes approches.

Pour évaluer la traduction, nous proposons d’utiliser le score BLEU (voir section 3.5). Ce score est la métrique la plus souvent utilisée pour comparer les performances de différents systèmes de traduction. Par ailleurs nous proposons d’utiliser le CER (voir la section2.5) pour évaluer les sorties des systèmes de compréhension.

Dans la mesure où seuls les concepts et les modalités sont pris en compte dans l’éva-luation de l’étiquetage sémantique, la segmentation sémantique des phrases n’est pas prise en compte. Les valeurs normalisées sont généralement extraites par un système à base de règles. Notre étude étant dédiée à la portabilité des approches statistiques, ce système n’en fait pas partie et donc n’est pas considéré durant l’évaluation.

5.2.3 Les systèmes de traduction

Pour appliquer nos propositions de portabilité nous proposons d’utiliser des sys-tèmes de traduction automatique spécifiques appris sur des données du domaine.

Pour cela nous construisons deux systèmes de traduction pour obtenir des traductions du français vers l’italien et de l’italien vers le français. Pour réaliser ces systèmes, la boîte à outils MOSES (Koehn et al.,2007) est utilisée avec les paramètres par défaut.

MOSES implémente l’état de l’art des systèmes de traduction par segments utilisant des modèles log-linéaires. Des modèles de langage tri-grammes ont été utilisés pour la construction des différents systèmes de traduction.

La construction d’un système de traduction statistique nécessite un corpus paral-lèle pour apprendre le modèle de traduction et un corpus monolingue dans la langue cible pour apprendre le modèle de langage. Nous avons l’avantage d’avoir une partie de l’ensemble d’apprentissage du corpus MEDIA(5,6k phrases) traduite manuellement en italien et nous utilisons cette traduction manuelle comme corpus parallèle pour en-trainer des modèles de traduction dans les deux directions. Chacune des parties sépa-rément permet l’apprentissage d’un modèle de langage cible. L’ensemble de dévelop-pement (1,3k phrases) avec sa traduction est aussi utilisé comme corpus parallèle pour ajuster les poids du modèle log-linéaire des systèmes appris (voir le tableau5.5pour

tel-00818970, version 1 - 30 Apr 2013

Système FR –> IT IT –> FR MOSES 43,6% 47,2%

En ligne 39,8% 42,6%

TABLE5.4 –Evaluation des systèmes de traduction.

CorpusMEDIA Apprentissage Développement Test

MEDIAfrançais 13K 1,3K 3,5K

Italien manuel 5,6K 1,3K 3,5K

Italien automatique 13K -

-TABLE5.5 –Aperçu du corpusMEDIAet de sa traduction vers l’italien (# phrases).

un aperçu des ensembles de données traduites manuellement). Il est vraisemblable que la taille du corpus de développement est un peu petite pour MERT, mais nous avons souhaité garder la structure initiale du corpus.

Finalement, nous obtenons un système de traduction du français vers l’italien avec un score BLEU de 43,6% et un système de l’italien vers le français avec un score BLEU de 47,2%. Ces scores sont mesurés sur l’ensemble de test de MEDIA manuellement traduit (3,5k phrases). Dans la mesure où une seule référence par phrase est utilisée pour évaluer le score BLEU, de même que l’ensemble d’apprentissage est réduit, ces performances peuvent être considérées comme très acceptables comparées à d’autre tâches comme IWSLT (score autour de 30 % obtenue par des systèmes de traduction anglais-français appris sur un corpus de 30M phrases (Federico et al., 2012)). La per-formance de nos systèmes est comparée avec un traducteur automatique disponible en ligne (Google2) représentatif d’un système à large couverture. Les résultats de cette comparaison sont présentés dans le tableau5.4. Confirmant notre hypothèse de départ, la comparaison montre que l’utilisation de données spécialisées pour apprendre des systèmes de traduction conduit à des systèmes plus performants que les systèmes gé-nériques disponibles en ligne même si ce dernier fournit déjà des performances très correctes.

Le système de traduction français-italien est utilisé pour obtenir une traduction au-tomatique de la partie restante (non traduite manuellement) du corpus d’apprentissage MEDIA. Ainsi une traduction intégrale (manuelle 5,6k + automatique 13K) est dispo-nible. Le système italien-français est utilisé pour traduire le test italien en français, qui sera l’entrée du système de compréhension français comme proposé par l’approche TestOnSource. Le tableau5.5 donne un aperçu des ensembles de données disponibles pour l’ensemble des expériences.

2. ces scores ont été obtenus en janvier 2011

tel-00818970, version 1 - 30 Apr 2013