• Aucun résultat trouvé

Équations de mots

Dans le document Apprendre à résoudre des analogies de forme (Page 100-103)

CHAPITRE 4 : SOLVEUR ANALOGIQUE STRUCTURÉ

4.12 Mesure d’exactitude

4.13.1 Équations de mots

Nous commençons avec des faisceaux de petites tailles pour nos quatre modèles struc- turés (standard, skip, latest et early). Pour que les résultats de notre solveur

STRUCTANALOG et le solveur de référence alea soient comparables, nous procédons

comme suit : nous commençons par prendre des taux d’échantillonnage ρ de 1 jusqu’à 20 pour le nombre de mélanges. De la même façon, nous élargissons le faisceau de 1 jusqu’au 20 pour nos quatre modèles structurés. Dès que la taille du faisceau atteint 20, tous les modèles obtiennent un rappel de 100% comme l’indique la figure 4.19. Les différentes variantes duSTRUCTANALOGdépassent toutes les configurations du solveur aleaou presque. Les quatre variantes ont presque la même performance avec un léger avantage à la version early, cela confirme bien les résultats et l’intuition donnée par Collins et Roark (2004).

Comme les analogies utilisées sont de longueur moyenne de six caractères (de petite taille), les trois autres versions standard, skip et late sont moins bonnes. Mais ça n’empêche pas ces derniers modèles de surpasser la performance du système alea. Nous voulons nous comparer avec d’autres travaux, mais le problème est que la majorité applique leur modèle sur toutes les analogies syntaxiques msr et google-syntax. Nous avons donc réimplémenté la méthode word2vec (skip-gram) de Mikolov et Dean (2013).

google msr 40 60 80 100 5 10 15 20 5 10 15 20 taille du faisceau exactitude alea latest early standard skip w2v

Figure 4.19 : Performance de nos configurations analogiques structurées face aux mo- dèles de référence alea et word2vec.

réutilisé les modèles word2vec déjà entraînés par Mikolov disponibles sur le web8. Nous calculons toutes les sorties des équations analogiques en calculant la distance co- sinus en appliquant sa définition d’analogie déjà décrite en section 4.9.1. Nous avons réussi à reproduire les solutions données par Mikolov et Dean (2013) pour trouver la so- lution d’une équation analogique avec les mêmes performances que celles décrites dans leur article. La performance de word2vec sur msr-form est de 78% et de 71% sur google-form. Nous observons que tous les solveurs analogique (incluant alea) at- teignent 100% d’exactitude, soit un gain de plus de 20% par rapport à word2vec. Ces résultats sont dans le tableau 4.III.

Configuration word2vec early/ alea

msr-form 78% 100%

google-form 71% 100%

Tableau 4.III : Comparaison de la méthode word2vec skip-gram de Mikolov et Dean (2013) avec notre modèle structuré early et le solveur aléatoire alea pour les corpus de msr-form et google-form.

Malgré le fait que toutes les analogies formelles sont de degré deux et donc à priori

simple à résoudre, toutes les configurations du solveur analogique sont largement supé- rieures à word2vec. Cette basse performance de word2vec est due à la difficulté de résolution les équations analogiques de quelques catégories. La figure 4.20 détaille ces performances et compare l’exactitude des solveurs early et word2vec sur chaque ca- tégorie d’équations pour les deux ensembles de données google-form et msr-form. Le solveur early surpasse systématiquement word2vec, en particulier pour quelques catégories telles que NN-NNPOS dans le le jeu de données msr-form ou ADJ-ADV dans le corpus google-form. Il y a principalement deux raisons à cela. Premièrement, la plupart des noms en anglais peuvent aussi être des verbes (ainsi des couples comme walk : walks), cela vient du fait qu’il y a un problème d’homonymie, mais chaque mot de vocabulaire reçoit un seul embedding, ce qui conduit à quelques erreurs. Deuxièmement, word2vecsort très souvent des termes sémantiquement liés à la solution attendue. Par exemple, il produit la forme fantastic à l’équation [cold : colder :: great : ? ].

Figure 4.20 : Mesure d’exactitude entre les deux versions word2vec et early pour les deux jeux de données google-form (partie gauche) et msr-form (partie droite) détaillés par catégories d’équations.

Afin de produire des résultats sur les corpus msr et google-syntax, nous combinons notre solveur early que nous appliquons aux seules analogies formelles, au système word2vec skip-gram de Mikolov et Dean (2013) que nous appliquons sur les autres équations. Les performances de cette hybridation sont rapportées dans le tableau 4.IV.

Configuration word2vec word2vec+early

msr 67% 72 %

google-syntax 63% 71%

Tableau 4.IV : Combinaison de résultats de early avec word2vec.

Notre combinaison dépasse largement la performance de word2vec. Nous gagnons +5% en exactitude pour le corpus msr et plus de +8% pour le corpus google-syntax. La configuration word2vec+early obtient donc des performances compétitives. Il n’en reste pas moins que les résultats sont purement illustratifs dans la mesure où notre hybridation s’appuie sur l’information qu’une équation a une solution formelle, infor- mation qui n’est bien sûr pas disponible en pratique.

Plusieurs travaux se sont intéressés à cette tâche d’analogies en utilisant la méthode word2vec décrite par Mikolov et Dean (2013). Les meilleures performances ont été données par Levy et al. (2015). Les auteurs ont réussi à dépasser les performances de Mi- kolov et Dean (2013). Ils utilisent plusieurs méthodes, mais celle qui a les meilleurs per- formances est SGNS-LS (skip-gram negative sampling large scale) avec une accuraccy de 72,9% sur msr et 75,8% sur google-syntax. Cette méthode nous dépasse de +0,9 (72,9% contre 72%) sur msr et de +4,8% (75,8% contre 71%) sur google-syntax. Ceci nous permet cependant de conclure que les solveurs alea et early sont très compétitifs.

Dans le document Apprendre à résoudre des analogies de forme (Page 100-103)