• Aucun résultat trouvé

4. Systèmes utilisés pour notre expérience

4.2. La traduction automatique neuronale et DeepL

4.2.1. La traduction automatique neuronale

Comme nous l’avons mentionné précédemment, le fonctionnement d’un système de traduction neuronal repose sur l’utilisation de corpus. Il comporte un encodeur et un décodeur qui sont composés de réseaux de neurones. Comme les systèmes statistiques, les systèmes neuronaux sont entrainés avec des corpus bilingues (des corpus monolingues peuvent aussi être utilisés). La structure d’un système neuronal est plus simple que celle d’un statistique. Le système neuronal possède un seul modèle et n’a pas de modèles séparés pour la langue, la traduction ou le réordonnancement (Koehn, 2018). Le rôle de l’encodeur est de donner une représentation de la phrase source tandis que le rôle du décodeur est de prédire la phrase cible en utilisant cette représentation (Koehn, 2017). Ce mode de fonctionnement rappelle celui des systèmes par interlangues décrits dans la section 2.6.1, puisque la traduction est réalisée en utilisant une représentation intermédiaire du sens de la phrase. Cependant, le fonctionnement des systèmes neuronaux est bien plus complexe.

L’un des éléments clés des systèmes de TA neuronale est la représentation intermédiaire générée par l’encodeur et utilisée ensuite par le décodeur, cette représentation prend la forme d’un plongement lexical (word embedding en anglais) (Koehn, 2018). Un plongement lexical est une représentation du sens des mots qui se base sur l’idée que des mots qui apparaissent dans le même contexte sont similaires (Koehn, 2017). Le plongement lexical est un espace multidimensionnel dans lequel chaque mot est représenté par un vecteur (Koehn, 2017). Les mots qui ont des propriétés communes vont se retrouver proches dans une certaine dimension (Systran, 2016). Par exemple, tous les verbes vont être proches dans une dimension donnée, mais les verbes d’état se trouveront aussi proches dans une autre dimension (et donc éloignés des verbes d’action dans cette seconde dimension). Voici une représentation d’un plongement lexical en deux dimensions, qui permet de mieux comprendre ce fonctionnement (Figure 4) :

41 Figure 4 - représentation d’un plongement lexical en 2 dimensions.

Adaptation de Koehn (2017 : 36)

Dans le plongement lexical présenté ci-dessus, on voit que les mots qui ont des similitudes sémantiques se trouvent proches les uns des autres. Le plongement lexical permet donc de regrouper des mots entre eux en fonction de leur sens et d’établir des généralités donnant ainsi au système de TA neuronale la capacité de traiter des séquences de mots nouvelles qui ne figurent pas dans le corpus d’entrainement (Koehn, 2017).

Les systèmes de TA neuronale offrent l’avantage d’être capables de prendre en compte un contexte très large lors de la traduction (bien plus large que les systèmes statistiques classiques), car ils disposent d’une certaine flexibilité lorsqu’ils rencontrent des énoncés inconnus (Koehn, 2017). Si le système est face à une séquence de 5 mots qui n’est pas présente telle qu’elle dans le corpus, par exemple : « le chat mange des croquettes », mais que la phrase « le chien mange des croquettes » est dans le corpus, le système pourra traiter cette phrase, car la proximité des mots « chat » et « chien » dans le plongement lexical lui permet de traiter cette phrase. Nous avons vu dans la section 4.1. que la prise en compte de n-grammes plus longs permet en général d’améliorer la fluidité de l’output d’un système.

Les systèmes neuronaux présentent aussi certains inconvénients. Tout d’abord, contrairement à certains systèmes statistiques comme MTH, les systèmes neuronaux accessibles en ligne ne peuvent pour le moment pas être spécialisés en fonction des données de l’utilisateur. Un autre problème majeur des systèmes neuronaux réside dans la puissance computationnelle qu’ils

42 requièrent. Cela limite grandement la taille du vocabulaire de ces systèmes (Koehn, 2018). De plus, l’entrainement des systèmes neuronaux nécessite d’avoir une grande quantité de données pour obtenir un résultat satisfaisant. La complexité des systèmes fait qu’il est difficile d’identifier et de corriger la source de certaines erreurs. Comme il est plus facile d’intervenir sur un SMT, il est plus facile de corriger certains aspects du système pour en améliorer l’output (Koehn, 2018).

4.2.2. DeepL

5

DeepL est un service de TA lancé publiquement en août 2017 par l’entreprise Linguee, qui est aussi la société qui a créé, en 2010, le moteur de recherche de traduction du même nom.

DeepL est un service de TA en ligne qui supporte 7 langues (français, anglais, allemand, espagnol, italien, néerlandais et polonais) et 42 combinaisons (au 1er mai 2018). Ce système de TA repose sur des réseaux de neurones, ces réseaux fonctionnent sur un superordinateur basé en Islande d’une puissance de 5,1 pétaFLOPS (à titre de comparaison, la puissance moyenne d’un ordinateur grand public est de 0,0001 pétaFLOPS, soit environ 50 000 fois moins (L'Express, 2016). Les réseaux de neurones sont entrainés avec des corpus de traduction collectés sur le web à l’aide du même algorithme que celui qui collecte les traductions pour le moteur de recherche Linguee. Dès son lancement, DeepL affirme que les résultats de son système de TA surpassent ceux des autres systèmes tels que Google Translate (qui fait aussi appel à des réseaux de neurones pour certaines paires de langues) ou MTH. Des évaluations humaines et automatiques conduites par DeepL montrent une nette préférence des traducteurs humains pour DeepL ainsi qu’un score BLEU nettement supérieur par rapport à d’autres systèmes. A l’heure actuelle, DeepL ne donne pas de détail concernant l’architecture de ses réseaux de neurones, mais explique que la qualité de ses résultats est due à un nouvel aménagement des neurones et de leurs connexions. A son lancement, DeepL était accessible uniquement en ligne, mais en mars 2018 la société a lancé DeepL Pro, un service qui permet d’intégrer DeepL à différentes applications et notamment à des logiciels de TAO tels que SDL Trados Studio 2017. DeepL s’adresse donc désormais aussi aux traducteurs professionnels qui souhaitent utiliser la TA.

5 La source principale de cette section est le site de DeepL (DeepL 2018a)

43

Conclusion

Dans ce chapitre, nous avons expliqué le fonctionnement général des systèmes de TAS.

Nous avons aussi présenté le fonctionnement et l’interface de MTH ainsi que les différentes options dont dispose l’utilisateur pour entrainer son propre système. Nous avons tenté d’expliquer, dans ses grandes lignes, le fonctionnement complexe des outils de TAN. Enfin, nous avons présenté le second outil que nous avons utilisé dans le cadre de ce projet, à savoir, le système DeepL.

44