• Aucun résultat trouvé

Post-édition de textes spécialisés dans le domaine économique : comparaison des performances entre traducteurs et experts du domaine

N/A
N/A
Protected

Academic year: 2022

Partager "Post-édition de textes spécialisés dans le domaine économique : comparaison des performances entre traducteurs et experts du domaine"

Copied!
184
0
0

Texte intégral

(1)

Master

Reference

Post-édition de textes spécialisés dans le domaine économique : comparaison des performances entre traducteurs et experts du

domaine

REMONDEULAZ, Eva

Abstract

La première partie de ce travail présente les évolutions récentes de la traduction automatique, notamment l'arrivée des systèmes neuronaux, et les enjeux et difficultés de la post-édition. La seconde partie porte sur la comparaison des performances de trois experts et de quatre traducteurs lors d'un exercice de PE anglais-français sur un texte de type économique.

L'évaluation des performances a permis d'observer des différences entre l'effort et le temps de PE des deux groupes. L'évaluation automatique et l'évaluation humaine ont permis de comparer les traductions post-éditées de tous les participants, afin de déterminer s'il existait des tendances générales et des erreurs typiques pour chaque profil.

REMONDEULAZ, Eva. Post-édition de textes spécialisés dans le domaine économique : comparaison des performances entre traducteurs et experts du domaine. Master : Univ. Genève, 2021

Available at:

http://archive-ouverte.unige.ch/unige:151200

Disclaimer: layout of this document may differ from the published version.

1 / 1

(2)

0

Eva Remondeulaz

Post-édition de textes spécialisés dans le domaine économique : comparaison des performances entre

traducteurs et experts du domaine

Directrice de mémoire : Pierrette Bouillon Jurée : Marie-Cécile Aureille-Attanasio

Mémoire présenté à la Faculté de traduction et d’interprétation (Département de traitement informatique multilingue) pour l’obtention

de la Maîtrise universitaire en traitement informatique multilingue.

Université de Genève

janvier 2021

(3)

1

Déclaration attestant le caractère original du travail

effectué

(4)

2

Remerciements

Je tiens à remercier toutes les personnes qui m’ont aidée lors de la rédaction de ce mémoire.

J’aimerais tout d’abord remercier ma directrice de mémoire, Mme Pierrette Bouillon. Je lui suis reconnaissante de m’avoir encadrée, orientée et conseillée durant la rédaction de ce travail.

Je remercie également Mme Marie-Cécile Aureille-Attanasio qui a gentiment accepté d’être ma jurée et dont les précieux conseils m’ont fourni de précieuses clés d’analyse.

Je tiens à remercier les participants à l’expérience qui, malgré les circonstances particulières de 2020, ont pris le temps de post-éditer quelques extraits de texte. Sans la participation bénévole de ces traducteurs et experts économiques, je n’aurais pas pu réaliser cette expérience et en tirer les observations que j’ai faites.

J’aimerais également remercier Leïla et Elsa, dont la relecture et les nombreux conseils m’ont permis de retravailler, reformuler et améliorer ce travail.

Enfin, je tiens à remercier mes amis et ma famille, dont le soutien m’a été très d’une très grande aide durant mes recherches et tout au long de la rédaction de ce mémoire.

À toutes ces personnes, je présente mes remerciements et ma gratitude les plus sincères.

(5)

3

Table des matières

Déclaration attestant le caractère original du travail effectué 1

Remerciements 2

Table des matières 3

Index des figures et des tableaux 6

Liste des abréviations 9

1 Introduction 10

1.1 Contexte 10

1.2 Méthodologie 12

1.3 Plan 13

2 Traduction automatique 14

2.1 Introduction 14

2.2 Définition(s) 14

2.3 Histoire 17

2.3.1.1 Deux précurseurs 17

2.3.1.2 Le Memorandum de Weaver 19

2.3.1.3 Années 1950 : les années d’engouement 21

2.3.1.4 Années 1960 : les premières désillusions 22 2.3.1.5 Années 1970 et 1980 : TEAHQ, SYSTRAN, EUROTRA 23 2.3.1.6 Années 1990 et 2000 : Internet et mondialisation 24

2.3.1.7 Années 2010 : approche neuronale 25

2.3.1.8 Conclusion historique 26

2.4 Systèmes de TA 26

2.4.1 Les systèmes basés sur les règles (1ère et 2e génération) 27

2.4.1.1 L’approche directe 28

2.4.1.2 L’approche par transfert 29

2.4.1.3 L’approche par interlangue 30

2.4.2 Les systèmes basés sur les corpus (3e génération) 31

2.4.2.1 Les systèmes basés sur les exemples 31

2.4.2.2 Les systèmes statistiques 32

2.4.2.3 Les systèmes neuronaux 36

2.4.2.3.1 IA, AA et AP 36

2.4.2.3.2 Application au TAL 40

2.4.2.3.3 Plongements lexicaux 40

2.4.2.3.4 Word2vec 42

(6)

4

2.4.2.3.5 Application à la TA 43

2.5 Évaluation de la qualité 45

2.5.1 Évaluation automatique 46

2.5.1.1 Score BLEU 47

2.5.1.2 Score TER 48

2.5.2 Évaluation humaine 49

2.5.3 Limites des évaluations 51

2.6 Conclusion 52

3 Post-édition 53

3.1 Introduction 53

3.2 Définition 53

3.3 Effort et niveaux de PE 55

3.4 Consignes et recommandations 57

3.5 Profil d’un bon post-éditeur 59

3.6 Formation 63

3.7 Intégration dans le monde professionnel 65

3.8 Conclusion 67

4 Méthodologie 69

4.1 Objectifs, questions de recherche et hypothèses 69

4.2 Choix méthodologiques 70

4.2.1 Choix du système et du logiciel 70

4.2.1.1 Interface de MateCat 71

4.2.2 Choix du texte 75

4.2.3 Choix des participants 76

4.3 Préparation et déroulement de l’expérience 78

5 Résultats 80

5.1 Données de MateCat 80

5.1.1 Effort de PE 80

5.1.1.1 Analyse par extrait 81

5.1.1.2 Analyse par ordre de PE 83

5.1.2 Temps de PE 85

5.1.2.1 Temps général 85

5.1.2.2 Temps par extrait 88

5.1.3 Synthèse de l’évaluation des données de MateCat 92

5.2 Évaluation automatique : BLEU et TER 93

5.2.1 Score BLEU 93

(7)

5

5.2.2 Score TER 95

5.2.3 Synthèse de l’évaluation automatique 96

5.3 Évaluation humaine : respect des consignes TAUS 97 5.3.1 Viser une traduction correcte au niveau grammatical, syntaxique et

sémantique 98

5.3.2 Vérifier que la terminologie importante est correctement traduite et que les termes non traduits font partie de la liste des termes à ne pas traduire du client

106

5.3.3 Vérifier qu’aucune information n’a été accidentellement ajoutée ou oubliée 110

5.3.4 Exploiter au maximum le résultat brut de la traduction automatique 112 5.3.5 Appliquer les règles fondamentales d’orthographe, de ponctuation et de

coupure des mots 114

5.3.6 Synthèse de l’évaluation humaine 117

5.4 Synthèse des résultats 118

6 Conclusion et perspectives 121

7 Bibliographie et webographie 124

8 Annexes 134

8.1 Annexe 1 : Rapport annuel 2018 de la Banque du Canada 134

8.2 Annexe 2 : E-mail aux participants 142

8.3 Annexe 3 : Formulaire d’information et de consentement 143

8.4 Annexe 4 : Terminologie 151

8.5 Annexe 5 : Corpus 156

(8)

6

Index des figures et des tableaux

Figure 1: Degrés d’intervention humaine (Hutchins & Somers, 1992, p. 148) ... 15

Figure 2 : Architectures des systèmes de TA (Quah, 2006) ... 27

Figure 3 : Triangle de Vauquois (Raybaud, 2012)... 28

Figure 4 : Théorème de Bayes appliqué à la TA ... 33

Figure 5 : Structure des systèmes statistiques (Quah, 2006, p. 78) ... 34

Figure 6: IA, AA et AP (Taandon, 2016) ... 36

Figure 7 : Système neuronal (Goodfellow, I., Bengio, Y. et Courville, A., 2016) ... 39

Figure 8 : Plongements de mots (Gautam, s.d.) ... 41

Figure 9 : Modèles CBOW et Skip-gram (Mikolov, Chen, Corrado & Dean., 2013) ... 43

Figure 10 : Structure des langues (Mikolov, Le, Q. V. et Sutskever, I., 2013) ... 44

Figure 11 : Calcul du score TER (Snover et al., 2006) ... 48

Figure 12 : Classification des erreurs de la TA (Vilar et al., 2006) ... 50

Figure 13 : Compétences de PE (Rico & Torrejón, 2012) ... 61

Figure 14 : Écran de création de nouveau projet sur Matecat ... 72

Figure 15 : Interface de traduction ... 73

Figure 16 : Quality Report de MateCat ... 74

Figure 17 : Données de MateCat par segment individuel ... 82

Figure 18 : Décalages de chronométrage dans MateCat ... 87

Tableau 1: Modèle de traduction et modèle de langage ... 35

Tableau 2 : Score de fluidité et d’adéquation (adapté de Koehn, 2020, p. 46) ... 50

Tableau 3 : Recommandations TAUS (TAUS, 2013) ... 58

Tableau 4 : Effort de PE général chez les experts ... 80

Tableau 5 : Effort de PE général chez les traducteurs ... 81

Tableau 6 : Effort de PE par extrait chez les experts ... 82

Tableau 7 : Effort de PE par extrait chez les traducteurs ... 82

Tableau 8 : Effort de PE des experts dans l’ordre d’édition ... 84

Tableau 9 : Effort de PE des traducteurs dans l’ordre d’édition ... 84

Tableau 10 : Temps de PE des experts ... 85

Tableau 11 : Temps de PE des traducteurs ... 85

Tableau 12 : Temps de PE par extrait chez les experts ... 88

Tableau 13 : Temps de PE par extrait chez les traducteurs ... 88

Tableau 14 : Secondes par mot chez les experts ... 90

Tableau 15 : Secondes par mot chez les traducteurs ... 90

Tableau 16 : Vitesse d’édition par ordre de PE chez les experts ... 91

Tableau 17 : Vitesse d’édition par ordre de PE chez les traducteurs ... 91

Tableau 18 : Résultats généraux des experts ... 92

Tableau 19 : Résultats généraux des traducteurs ... 92

Tableau 20 : Score BLEU des experts ... 94

(9)

7

Tableau 21 : Score BLEU des traducteurs ... 94

Tableau 22 : Score TER des experts ... 95

Tableau 23 : Score TER des traducteurs ... 96

Tableau 24 : Scores BLEU et TER des experts ... 96

Tableau 25 : Scores BLEU et TER des traducteurs ... 96

Tableau 26 : Exemples d’erreurs grammaticales ... 100

Tableau 27 : Exemples d’erreurs syntaxiques ... 101

Tableau 28 : Exemples d’erreurs sémantiques dans l’avant-propos ... 102

Tableau 29 : Erreurs grammaticales, syntaxiques, sémantiques dans le texte final chez les experts ... 104

Tableau 30 : Erreurs grammaticales, syntaxiques, sémantiques dans le texte final chez les traducteurs ... 104

Tableau 31 : Score des experts pour la recommandation « Viser une traduction correcte au niveau grammatical, syntaxique et sémantique » ... 105

Tableau 32 : Score des traducteurs pour la recommandation « Viser une traduction correcte au niveau grammatical, syntaxique et sémantique » ... 106

Tableau 33 : Termes mal traduits par la TA ... 107

Tableau 34 : Erreurs grammaticales, syntaxiques, sémantiques dans le texte final chez les experts ... 109

Tableau 35 : Erreurs grammaticales, syntaxiques, sémantiques dans le texte final chez les traducteurs ... 109

Tableau 36 : Score des experts pour la recommandation « Vérifier que la terminologie importante est correctement traduite et que les termes non traduits font partie de la liste des termes à ne pas traduire du client » ... 110

Tableau 37 : Score des traducteurs pour la recommandation « Vérifier que la terminologie importante est correctement traduite et que les termes non traduits font partie de la liste des termes à ne pas traduire du client » ... 110

Tableau 38 : Score des experts pour la recommandation « Vérifier qu’aucune information n’a été accidentellement ajoutée ou oubliée » ... 112

Tableau 39 : Score des traducteurs pour la recommandation « Vérifier qu’aucune information n’a été accidentellement ajoutée ou oubliée » ... 112

Tableau 40 : Réécriture chez les experts ... 113

Tableau 41 : Réécriture chez les traducteurs ... 113

Tableau 42 : Score des experts pour la recommandation « Exploiter au maximum le résultat brut de la traduction automatique » ... 114

Tableau 43 : Score des traducteurs pour la recommandation « Exploiter au maximum le résultat brut de la traduction automatique » ... 114

Tableau 44 : Erreurs de typographie de la TA ... 115

Tableau 45 : Erreurs de typographie chez les experts ... 116

Tableau 46 : Erreurs de typographie chez les traducteurs ... 116

Tableau 47 : Score des experts pour la recommandation « Appliquer les règles fondamentales d’orthographe, de ponctuation et de coupure des mots » ... 116

(10)

8 Tableau 48 : Score des traducteurs pour la recommandation « Appliquer les règles fondamentales d’orthographe, de ponctuation et de coupure des mots » ... 117 Tableau 49 : Score final de l’évaluation humaine pour les experts et les traducteurs 118 Tableau 50 : Performances sur MateCat chez les experts et les traducteurs ... 118 Tableau 51 : Scores d’évaluation automatique chez les experts et les traducteurs ... 119 Tableau 52 : Scores d’évaluation humaine chez les experts et les traducteurs ... 119

(11)

9

Liste des abréviations

AA apprentissage automatique

AP apprentissage profond

IA intelligence artificielle

MT mémoire de traduction

PE post-édition

TA traduction automatique

TAO traduction assistée par ordinateur

TEAHQ traduction entièrement automatisée de haute

qualité

TH traduction humaine

TMAH traduction machine assistée par l’humain

(12)

10

1 Introduction

1.1 Contexte

Les récents progrès de la traduction automatique semblent avoir bouleversé le monde de la traduction : les performances des systèmes neuronaux, basés sur l’intelligence artificielle et l’apprentissage automatique, dépassent les limites des systèmes statistiques et s’améliorent de jour en jour. L’approche neuronale a propulsé DeepL sur le devant de la scène et a été adoptée par Google, Apple, Facebook, Amazon et Microsoft pour leurs services de traduction ou la traduction de leurs contenus et de leurs interfaces (Google Translate, Apple Translate, Translate Facebook, Amazon Translate, Microsoft Translator). Les institutions et les organisations suisses ne sont pas en reste : ainsi, l’administration fédérale a décidé d’acquérir 2000 licences DeepL PRO pour appuyer son service linguistique1, et depuis 2017, le Département de traitement informatique multilingue (TIM) de la Faculté de Traduction et d’Interprétation de l’Université de Genève collabore avec la Poste Suisse SA pour intégrer la traduction automatique à ses services linguistiques.2

La traduction automatique, dont certaines productions maladroites faisaient sourire il y a seulement dix ans, est aujourd’hui une option sérieuse et viable, moyennant quelques interventions (sous forme de post-édition ou d’adaptation). Même si la traduction automatique ne vise pas (pour l’instant) à remplacer, mais à soutenir la traduction humaine, son adoption et ses progrès promettent de changer le marché de la traduction et des services linguistiques dans leur ensemble. Les enjeux économiques sont énormes : en 2018, le marché mondial de la traduction s’élevait à 46,52 milliards de dollars américains3. L’évolution des technologies de traduction automatique et la fréquence de leur usage influenceront et changeront cet immense marché.

1 https://www.admin.ch/gov/fr/accueil/documentation/communiques.msg-id-77610.html (consulté le 19.09.2020)

2 https://www.unige.ch/fti/fr/faculte/departements/dtim/recherches/ta/ (consulté le 25.11.2020) 3 https://www.gala-global.org/industry/industry-facts-and-data (consulté le 19.09.2020)

(13)

11 Qu’en est-il alors des traducteurs, à l’heure de ces grands changements ? S’il est peu probable que leur profession disparaisse à court terme, il leur sera toutefois indispensable de s’adapter à ces changements. Il serait peu judicieux de limiter leur rôle à celui de simples post-éditeurs ou contrôleurs qualité. Comme souligné par Bernardini et al. (2020), leurs compétences pourraient servir au développement et à l’adaptation des systèmes de traduction automatique à de nouveaux textes, de nouveaux registres, de nouveaux styles et de nouvelles langues. Leur expertise linguistique, culturelle et traductologique fait d’eux de bons évaluateurs de ces nouvelles technologies et des traductions qu’elles produisent.

Pourraient-ils aisément se convertir en post-éditeurs ? Cette conversion nécessiterait- elle une formation spécifique de quelques mois ou de quelques années ? Cette formation spécifique serait-elle uniquement réservée aux traducteurs, ou pourrait-elle accueillir d’autres profils, comme des spécialistes d’autres domaines qui seraient bilingues ou plurilingues ?

Il arrive déjà que divers spécialistes, non-linguistes mais parfaitement bilingues, endossent le rôle de traducteur dans leurs domaines respectifs, par passion ou par nécessité, sans avoir nécessairement suivi de formation en traduction. Ces spécialistes pourraient-ils, eux aussi, devenir de bons post-éditeurs ? Leurs performances pourraient-elles égaler, voire dépasser, celles des traducteurs ?

Ces questions ne sont pas nouvelles. Depuis les débuts de la traduction automatique, beaucoup de chercheurs se sont intéressés aux différents aspects de la post-édition.

García (2012) cite de nombreux exemples d’études qui ont été effectuées au cours des dernières décennies : comparaisons de traductions humaines, traductions automatiques et traductions automatiques post-éditées, vitesse de post-édition, comparaison des performances des post-éditeurs avant et après une formation en post- édition, attitude des traductions vis-à-vis de la post-édition…

Similaire au travail de Terryn et al. (2019) dont le but était de comparer les performances en post-édition de traducteurs et médecins, ce mémoire de maîtrise vise à comparer les performances en post-édition de traducteurs et de spécialistes bilingues

(14)

12 sur un texte économique. Les deux profils disposent en effet de leurs propres compétences, acquises par formation ou par expérience, qui peuvent influencer leur activité de post-édition.

1.2 Méthodologie

L’expérience de post-édition et l’analyse des résultats sont au centre de ce travail de recherche. Afin que ces deux étapes se déroulent sans accroc, une bonne préparation était indispensable.

Cette préparation a été effectuée sur deux plans en parallèle : d’une part, il était nécessaire de définir les critères de sélection des participants (domaine, expertise, expérience, etc.), puis de trouver ces participants et de les contacter (premier contact, explications, confirmation de la participation) ; d’autre part, il fallait sélectionner le(s) texte(s) dont seraient tirés les extraits qu’il faudrait post-éditer (type de texte, source, longueur des extraits, etc.).

Une fois les participants et les extraits choisis, il fallait encore choisir et paramétrer le logiciel qui serait utilisé pour l’expérience. Puis, après quelques derniers tests et vérifications, les extraits ont été envoyés aux participants, qui avaient un mois pour effectuer la post-édition. Un document explicatif et une liste de recommandations accompagnaient ce document pour aider les post-éditeurs dans leur tâche.

Le logiciel utilisé permettait non seulement de récupérer les textes cibles finaux, mais aussi de consulter le temps, l’effort de post-édition et les changements effectués par chaque post-éditeur. Ces informations ont été utilisées comme critères pour une première évaluation.

Les résultats ont également été évalués automatiquement afin de mesurer leur similitude avec une traduction humaine de référence. Enfin, dans le cadre d’une évaluation humaine, ils ont été commentés selon leur adéquation avec les recommandations envoyées aux participants.

(15)

13 L’utilisation de ces différents angles d’évaluation visait à obtenir une appréciation aussi complète que possible des performances des deux groupes, afin d’en cerner les similarités et les différences.

1.3 Plan

Ce travail est divisé en deux parties majeures, l’une plutôt théorique, l’autre plutôt pratique : la première développe les aspects théoriques de la traduction automatique et de la post-édition, la seconde présente l’expérience pratique et l’analyse des résultats.

Le chapitre 2 porte sur la traduction automatique : sa définition et sa place parmi les technologies de la traduction, son histoire, les différents systèmes selon lesquels elle peut fonctionner, et enfin les différentes manières dont elle peut être évaluée.

Le chapitre 3 présente la post-édition. Après les définitions de quelques concepts essentiels, un tour d’horizon de sa mise en œuvre pratique (dans la formation et dans le monde professionnel) permet de mieux comprendre la situation actuelle et les enjeux pour l’avenir, ainsi que les compétences clés indispensables pour les actuels et futurs post-éditeurs.

Le chapitre 4 développe l’expérience pratique, élément central de ce travail de recherche : objectifs, choix méthodologiques, préparation et déroulement, ces différents aspects sont détaillés tout au long du chapitre.

Le chapitre 5 présente les résultats de l’expérience et les analyse selon trois approches principales : temps et effort de post-édition, niveau de similitude avec une traduction humaine et conformité aux recommandations données.

Le chapitre 6, conclusion de ce travail, reprend les éléments théoriques clés et l’analyse des résultats de l’expérience, et tente d’établir un parallèle entre ces différents éléments.

Il présente également des pistes de recherche qui pourraient permettre d’approfondir les conclusions de ce travail.

(16)

14

2 Traduction automatique

2.1 Introduction

Sans traduction automatique (TA), la post-édition (PE) n’aurait pas lieu d’être : en effet, la post-édition consiste en la correction et « l’amélioration » d’un texte qui a été traduit automatiquement. Il convient donc de s’intéresser en premier à cette opération complexe qu’est la TA.

Le présent chapitre propose quelques définitions de la TA (section 2.2), présente un historique de son développement (section 2.3), clarifie les différents types de systèmes (section 2.4) et explique quelques aspects de l’évaluation de la TA (section 2.5).

2.2 Définition(s)

SYSTRAN, l’un des leaders du marché des technologies de la traduction, définit la TA comme un « processus [qui] utilise un logiciel informatique pour transcrire un texte d'une langue naturelle (par exemple, l'anglais) vers une autre (par exemple, l'espagnol) »4. SDL, une autre entreprise dominante sur le marché, connue notamment pour sa suite SDL Trados Studio, la décrit comme « la traduction d'un texte effectuée par ordinateur, sans intervention humaine »5.

Ces deux définitions, destinées à un public non initié (et à de potentiels clients), établissent déjà les principales caractéristiques de la TA : un processus entièrement informatisé qui permet la traduction de textes entre différentes langues naturelles.

Un aspect important semble toutefois omis : pour le grand public, le terme « traduction » est ambigu, car il désigne aussi bien le processus que le résultat de ce processus (« Ce traducteur a terminé la traduction du livre. » et « Le lecteur a lu la traduction du livre. »).

4 https://www.systransoft.com/fr/systran/technologie/traduction-automatique/ (consulté le 21.06.2020)

5 https://www.sdltrados.com/fr/solutions/machine-translation/ (consulté le 21.06.2020)

(17)

15 Ce grand public ne s’intéresse généralement que peu au processus, mais fait particulièrement attention au résultat, qu’il veut de bonne qualité.

Les définitions des deux entreprises portent sur la traduction en tant que processus entièrement automatisé, mais n’en disent pas beaucoup sur le résultat de la TA et sur la qualité de ce résultat : ces aspects sont pourtant décisifs, car ce sont les seules parties visibles pour le grand public.

La raison de cette omission peut s’expliquer simplement : malgré les progrès récents et constants dans le domaine, les résultats de la TA sont encore loin d’égaler les résultats de la traduction humaine (TH).

Comme le remarque Marie-Claude L’Homme dans l’introduction de « Initiation à la traductique », il n'existe encore aucun système qui réussisse à produire des traductions d’excellente qualité, en dehors de certains contextes particuliers (2008, p. 1). Ces contextes correspondent souvent à des domaines très spécialisés, où la syntaxe et le vocabulaire sont limités. On parle alors de traduction entièrement automatique de haute qualité (TEAHQ) (L’Homme, 2008, p. 10).

Mis à part ces contextes très précis, une intervention humaine est donc toujours nécessaire pour obtenir une traduction de bonne qualité. Cette intervention peut se faire à différents degrés et à différents stades du processus de traduction. Hutchins et Somers (1992, p. 148) présentent les différents degrés d’intervention humaine de la façon suivante :

Figure 1: Degrés d’intervention humaine (Hutchins & Somers, 1992, p. 148)

(18)

16 La moitié gauche de ce spectre regroupe les processus où la machine est au centre du processus de traduction : la TEAHQ (FAHQT en anglais), qui ne nécessite aucune intervention humaine, et la traduction machine assistée par l’humain (TMAH, ou HAMT en anglais), où l’intervention humaine se fait avant ou après le processus de traduction.

La moitié droite représente les processus de traduction où l’humain effectue l’essentiel du travail : en TH assistée par l’ordinateur (THAO ou TAO, MAHT en anglais), il s’aide de l’ordinateur pour être plus efficace, et en TH traditionnelle, il n’utilise aucun outil informatique pour effectuer sa traduction.

De nos jours, les deux extrêmes de ce spectre sont relativement rares : comme mentionné précédemment, la TEAHQ ne fonctionne que dans des contextes très précis.

Quant à l’autre bout du spectre, il est difficile d’imaginer une TH « pure et dure » en 2020, si on considère que les logiciels de traitement de texte, les dictionnaires en ligne ou les vérificateurs orthographiques sont déjà des outils informatiques.

L’essentiel des processus de traduction aujourd’hui combine donc l’humain et la machine.

En TMAH (parfois aussi appelée TAAH, traduction automatique assistée par l’humain), l’essentiel du travail est effectué par l’ordinateur et l’intervention humaine permet d’améliorer le résultat brut, grâce à un travail de pré-édition, de post-édition, de rédaction en langage contrôlé, etc.

Dans la THAO (plus connue aujourd’hui sous TAO), c’est le traducteur humain qui effectue la traduction, mais dispose de toute une panoplie d’outils informatiques pour gagner en qualité et en efficacité. Ces outils comprennent les mémoires de traduction, les bases de données terminologiques, les dictionnaires électroniques, les fonctionnalités de gestion de projet, etc. Certains logiciels, comme SDL Trados, intègrent tous ces outils dans ce qu’on appelle un poste de travail du traducteur (PTT).

Ces différentes catégories ne sont pas homogènes et hermétiques. En pratique, le processus de traduction peut varier selon les textes et les personnes impliquées dans un

(19)

17 projet. Voici quelques exemples qui combinent les aspects des différentes catégories, ou qui témoignent des nuances au sein d’une même catégorie :

- certains logiciels de TAO, comme MateCat ou SDL Trados, intègrent depuis peu des suggestions de TA en parallèle avec la mémoire de traduction ;

- une TA aux résultats peu compréhensibles peut nécessiter une intervention

« plus musclée » qu’une simple PE, comme la retraduction de certains segments par un traducteur humain ;

- chaque traducteur humain a une aisance différente avec l’informatique, ce qui peut influencer son usage des outils de TAO.

Le type de traduction abordé dans ce mémoire est donc principalement la TMAH, là où s’inscrit la PE.

2.3 Histoire

La TA répond à un rêve sans doute vieux de plusieurs millénaires, la possibilité de communiquer en temps réel avec des personnes du monde entier sans barrières linguistiques : le mythe de la tour de Babel dépeint la confusion des langues comme un véritable châtiment divin, et de nombreuses « langues universelles », destinées à faire tomber ces barrières, sont apparues et ont disparu au cours des derniers siècles.

Il faut toutefois attendre le XXe siècle pour voir les premières tentatives de TA telle qu’on l’entend aujourd’hui.

2.3.1.1 Deux précurseurs

1933 voit apparaître les premières machines dont l’usage se rapproche de la TA. Deux brevets sont déposés cette année-là, l’un par un ingénieur français, l’autre par un universitaire russe.

Georges Artsrouni, ingénieur français, développe un « cerveau mécanique », un appareil qui permet de stocker et d’imprimer différents types d’informations, comme des horaires de trains, des bottins téléphoniques ou encore des données linguistiques. Grâce

(20)

18 à ces dernières, la machine peut faire office de dictionnaire mécanique et ainsi effectuer des traductions mot à mot (Hutchins, 2004).

Le « cerveau mécanique » d’Artsrouni suscite un grand engouement lors de l’Exposition universelle de 1937 à Paris, mais malgré l’intérêt de grands organismes, il ne dépasse jamais vraiment le stade de prototype et l’apparition d’ordinateurs après la Seconde Guerre mondiale le rendra obsolète (Poibeau, 2019, p. 35).

Petr Trojanskij, professeur russe, crée une machine qui va plus loin que le « cerveau mécanique » d’Artsrouni. Destinée uniquement à la traduction, elle intègre l’analyse logique dans son fonctionnement, grâce à des « logical parsing symbols » (Hutchins, 2004). Ces symboles représentent la nature et la fonction des mots : leur forme canonique est accompagnée de symboles (ou codes) qui indiquent si le nom est au pluriel, l’adjectif au féminin, le pronom à l’accusatif, etc.

La machine décompose le processus de traduction en trois étapes, que Hutchins (2004) décrit de la façon suivante : une transcription de la langue source vers la « logical parsing form », effectuée par un locuteur humain de cette langue, la conversion de la forme logique liée à cette langue source vers la forme logique liée à la langue cible, effectuée par la machine, et enfin la retranscription de cette seconde forme logique vers la langue cible, effectuée par un locuteur de cette langue.

Une traduction effectuée par une telle machine paraît sans doute plus fastidieuse que si elle était effectuée par un humain, d’autant plus qu’il faut deux personnes pour mener à bien la tâche, plutôt qu’un seul traducteur. Trojanskij défend son idée par des arguments économiques et pratiques : selon lui, le volume de traductions nécessaires à cette époque en Union soviétique est si important qu’il n’y a pas assez de traducteurs humains pour les effectuer. Sa machine permettrait donc de réduire le volume de travail, tout en se passant de personnes bilingues, puisque la traduction à proprement parler (d’une forme logique à une autre) est effectuée par la machine (Hutchins, 2004).

Sa machine n’a convaincu ni les autorités soviétiques ni les scientifiques : jugée peu pratique et peu nécessaire, elle n’a jamais dépassé le stade de prototype.

(21)

19 Même si ces deux appareils mécaniques n’ont jamais été utilisés et sont devenus obsolètes avec l’apparition des ordinateurs, leurs créateurs peuvent être considérés comme des précurseurs de la TA : Artsrouni grâce à son « dictionnaire automatique » et Trojanskij grâce à son « environnement de traduction assistée », comme l’appelle Poibeau (2019, p. 36). On pourrait même dire que l’approche de ce dernier est en avance sur son temps, puisque les trois étapes du fonctionnement de la machine ressemblent au fonctionnement des systèmes de TA linguistiques : analyse (conversion en forme canonique et analyse logique), transfert (conversion d’une forme logique à une autre) et génération (retranscription en langue cible).

2.3.1.2 Le Memorandum de Weaver

L’apparition des ordinateurs après la Seconde Guerre mondiale ouvre de nouvelles perspectives pour la TA. Les recherches de l'ingénieur Andrew Booth, menées en collaboration avec le linguiste Richard Richens, portent sur le traitement de la langue par un système automatique, notamment la TA et la reconnaissance de la langue parlée (Poibeau, 2019, p. 40).

L’algorithme qu’il développe identifie des chaînes de caractères et reconnaît ainsi des mots, qui pourront ensuite être traduits grâce à un dictionnaire bilingue. Afin de limiter le nombre d’entrées dans le dictionnaire, toutes les variantes n’y sont pas indexées.

Lorsque le système rencontre un mot qu’il ne connaît pas, il procède à la racinisation, c’est-à-dire qu’il enlève progressivement les dernières lettres du mot inconnu jusqu’à arriver à une forme connue : on passe ainsi de « going » à « go », « done » à « do », etc. La morphologie de l’anglais se prête particulièrement bien à cette stratégie, même si elle a ses limites, par exemple dans le cas des verbes irréguliers) (Poibeau, 2019, p. 40).

En 1948, Warren Weaver rencontre Booth et Richens et prend connaissance de leurs travaux (Weaver, 1949, p. 7). Une année plus tard, il rédige un Memorandum qui est souvent considéré comme l’un des textes pionniers de la TA.

(22)

20 Tout au long de son Memorandum, Weaver reste modeste : il ne se considère pas comme un expert en informatique ou en linguistique, ses idées ne sont que de simples suggestions, son texte n’est qu’une petite contribution.

Selon lui, toutes les langues ont des caractéristiques communes : en effet, elles ont toutes été inventées par les êtres humains, qui ont les mêmes capacités vocales et intellectuelles et qui ont évolué dans des environnements certes différents, mais avec tout de même des caractéristiques communes.

Conscient des progrès technologiques et du développement d’ordinateurs toujours plus puissants, il écrit une lettre à Norbert Wiener, professeur au MIT, dans laquelle il insiste sur l’importance de la traduction pour garantir la communication entre les peuples et demande s’il est possible de créer un ordinateur qui serait capable de traduire, en s’inspirant des méthodes utilisées en cryptographie. Il défend son idée par l’argument que même des traductions imparfaites dans un domaine limité en valent la peine.

Wiener lui répond avec un certain pessimisme : selon lui, les langues sont trop complexes pour être traduites « mécaniquement », notamment à cause de la polysémie des mots.

Weaver a conscience de ces limites : il maintient toutefois que les textes techniques peuvent être traduits par ces appareils sommaires, puisque le risque de polysémie est moindre dans des textes spécialisés.

Il propose alors quatre « angles d’attaque » dans son Memorandum afin d’améliorer les résultats de la TA :

- Comme le contexte détermine le sens d’un mot, il faut intégrer une analyse du contexte dans le processus de traduction afin de résoudre les ambiguïtés.

- Comme les ordinateurs ont des capacités de déduction à partir de certaines règles, on peut utiliser ces règles pour générer des phrases grammaticalement correctes (Poibeau, 2019, p. 43).

(23)

21 - Les méthodes utilisées en cryptographie pour déchiffrer des messages codés sont sans doute transposables à la TA. Selon Weaver, un livre en chinois est simplement un livre écrit en anglais et « codé » en chinois.

- Comme toutes les langues ont des caractéristiques universelles, il est possible de remonter d’une langue source jusqu’à une « universelle » et de redescendre vers la langue cible.

Que dire de ce Memorandum ? Le ton est très optimiste, voire naïf, mais Weaver n’est ni linguiste ni informaticien, comme il le dit lui-même. Ses réflexions sont toutefois pertinentes et il est intéressant de constater que ses « angles d’attaque » sont des intuitions encore pertinentes aujourd’hui.

- L’importance du contexte est au cœur même des systèmes de TA neuronaux, qui identifient les mots selon leur contexte.

- Les règles grammaticales sont au cœur des systèmes linguistiques.

- Les méthodes en cryptographie reposent sur des principes statistiques.

- La « langue universelle » ressemble fortement au concept d’interlangue.

2.3.1.3 Années 1950 : les années d’engouement

L'enthousiasme de Weaver semble contagieux : les années 50 voient apparaître de nombreux projets de recherche portant sur la TA. Comme le dit Poibeau (2019, p. 45), la période y est propice : les travaux en cryptographie constituent une bonne base pour le développement d’outils de TA, et le contexte de Guerre froide crée des besoins en traduction, notamment entre les langues occidentales et le russe.

Le chercheur israélien Joshua Bar-Hillel joue un rôle clé au début de cette décennie.

Chercheur au MIT, il rédige un rapport en 1951 dans lequel il dresse un état des lieux des recherches sur la TA. Selon lui, la TA a un grand intérêt pratique, notamment pour la recherche scientifique : les chercheurs du monde entier auraient plus facilement accès aux travaux de leurs collègues d’autres pays si les publications étaient traduites automatiquement. De plus, la TA, même imparfaite, permettrait de traduire rapidement de grands volumes de texte. Bar-Hillel présente quelques pistes à explorer afin

(24)

22 d’améliorer la TA : ampleur de l’intervention humaine dans le processus de traduction, pré-édition, post-édition, limites du hardware, etc.

Bar-Hillel organise en 1952 la première conférence sur la TA, à laquelle assistent presque tous les chercheurs actifs dans le domaine (Hutchins, 2010). Déjà à cette époque, il semble clair qu’une TEAHQ est impossible. Diverses idées sont mises en avant afin d’en améliorer les résultats : pré-édition, post-édition, glossaires, analyse de la structure syntaxique, etc.

Le financement de ces recherches est un enjeu important. C’est pour cela qu’est organisée en 1954 une démonstration de TA : 49 phrases russes sont traduites en anglais, grâce à un glossaire de 250 mots et 6 règles de grammaire (Hutchins, 2010).

C’est une réussite : l’attention médiatique est au rendez-vous, les sponsors semblent convaincus, de nombreux projets similaires voient le jour aux quatre coins du monde.

2.3.1.4 Années 1960 : les premières désillusions

L’optimisme des années 50 est de courte durée : Bar-Hillel visite de nombreux centres de recherche aux États-Unis et correspond avec les chercheurs des laboratoires américains et britanniques. Dans un rapport de 1959, il est très critique vis-à-vis des travaux effectués jusque-là et se montre pessimiste quant à la réalisation d’un système de TEAHQ à court et moyen terme. Même si de nombreux problèmes ont été résolus par les différentes équipes de chercheurs, il ne s’agit selon lui que de petites avancées. Bar- Hillel met également en garde contre les dangers d’une TA fluide mais incorrecte : celle- ci, bien que facilement lisible, est difficile à post-éditer, car les erreurs sont plus difficiles à repérer. Il préconise une TA moins qualitative mais plus facile à post-éditer : en cas d’ambiguïté sémantique, plusieurs équivalents pourraient être proposés par la machine et le post-éditeur choisirait la meilleure variante.

En conclusion, Bar-Hillel considère que pour être commercialement viable, la TA doit être complétée par la PE, car la TEAHQ ne lui semble pas envisageable dans les années à venir. La répartition des tâches entre l’homme et la machine est encore à définir. Dans ses propositions, il encourage la création d’outils informatiques pour aider les traducteurs dans leur travail, ce qui permettrait la création de centres de traduction qui

(25)

23 pourraient rivaliser à 100 % avec les traducteurs humains. Il encourage également la poursuite des recherches dans le domaine de la linguistique informatique, la formation de scientifiques et la collaboration entre les différentes équipes de recherche.

En 1964, une enquête est demandée par les organismes qui financent les recherches dans le domaine de la linguistique informatique aux États-Unis. Le comité ALPAC (Automatic Language Processing Advisory Committee) publie en 1966 un rapport traitant des enjeux de la traduction à l’époque, comme les coûts, la situation au sein du gouvernement américain ou encore les pistes d’amélioration. Un chapitre traite de la TA, dont on dresse un portrait plutôt négatif : des années après le début des recherches, il n’existe encore aucun système où la traduction aboutit à des résultats satisfaisants sans intervention humaine. Même si certaines traductions sont déchiffrables, elles restent truffées d’erreurs et sont difficiles à lire. La TH est moins compliquée, moins chère et plus rapide. Le comité conclut que la poursuite des recherches est intéressante d’un point de vue scientifique, mais qu’il ne voit aucune application pratique à l’avenir.

Cette conclusion provoquera la réduction du financement des recherches sur la TA aux États-Unis (Hutchins, 2010).

2.3.1.5 Années 1970 et 1980 : TEAHQ, SYSTRAN, EUROTRA

À la suite du rapport ALPAC, le monde académique anglophone semble se désintéresser de la TA, même si quelques groupes de recherche subsistent. Les recherches continuent toutefois dans d’autres pays (Hutchins, 2010). Bien que leurs résultats soient variables, certaines d’entre elles aboutissent à des systèmes de TEAHQ efficaces. Parmi eux, on peut citer METEO et TITUS.

Au Canada, le groupe TAUM (Traduction automatique de l’Université de Montréal) développe et lance en 1977 METEO, un système de TEAHQ capable de traduire des bulletins météorologiques de l’anglais vers le français (Hutchins, 1986, p. 228).

En France, l’Institut Textile de France développe en 1970 le système TITUS. Ce système peut traduire des résumés d’articles sur le textile depuis et vers quatre langues : français, allemand, anglais et espagnol (Loffler-Laurian, 1996, p. 22).

(26)

24 Ces deux systèmes fonctionnent car ils portent sur des microdomaines où le vocabulaire et les structures grammaticales sont limités, ce qui facilite leur encodage dans les machines.

Les années 1970 assistent également au succès de SYSTRAN6 : développé par Peter Toma en 1968 à San Diego, ce système de traduction est adopté par de nombreuses organisations gouvernementales, telles que l’US Air Force et l’OTAN (Hutchins, 2010), et est utilisé pour la traduction des documents relatifs à la mission spatiale Apollo- Soyouz (Loffler-Laurian, 1996, p. 49). Des entreprises comme General Motors, Ford ou Xerox acquièrent également ce système pour la traduction de leurs documents (Hutchins, 2010).

La Commission des Communautés Européennes s’intéresse elle aussi à SYSTRAN : elle acquiert la version français-anglais du système et l’adapte à ses besoins (Hutchins, 1986, p. 258).

En parallèle au développement de SYSTRAN, la Commission européenne lance au début des années 1980 le projet EUROTRA. Ce projet « regroupait diverses universités européennes dans chacun des pays membres de la Communauté et visait l’élaboration d’un système de traduction automatique multilingue » (L’Homme, 2008, p. 15).

Au cours des années 1980, l’informatique s’intègre petit à petit au monde de la traduction : même si les traducteurs sont encore réticents vis-à-vis de la TA, les outils de TAO pour les aider dans leur travail se multiplient au cours de cette décennie (Hutchins, 2010).

2.3.1.6 Années 1990 et 2000 : Internet et mondialisation

La mondialisation et l’apparition d’Internet au cours des années 1990 ont un impact conséquent sur la TA.

6 https://www.systransoft.com/systran/ (consulté le 25.09.2020)

(27)

25 Les besoins en traduction augmentent dans un monde globalisé, et ce pour de nombreuses paires de langues, aussi bien chez des organismes publics et des entreprises privées que chez des particuliers.

L’invention d’Internet, quant à elle, permet la multiplication de textes exploitables directement par les ordinateurs. Cet accès à d’immenses corpus bilingues lance une nouvelle approche en TA, l’approche statistique (Poibeau, 2019, p. 71).

L’accès à Internet et les outils informatiques se démocratisent au cours de ces décennies (Quah, 2006, p. 65). Certains outils de TA peuvent être installés localement sur les ordinateurs personnels ou sont accessibles en ligne (Babel Fish en 1995, Google Translate en 2006, Bing Translator en 2009, etc.). Même si la qualité des résultats est variable, la TA devient accessible au grand public.

2.3.1.7 Années 2010 : approche neuronale

Dans les années 2010, l’apprentissage profond (deep learning en anglais) révolutionne les recherches en intelligence artificielle : inspirée du fonctionnement du cerveau humain, cette méthode permet aux machines d’apprendre par elles-mêmes. Les champs d’application sont nombreux : reconnaissance faciale, voitures autonomes, chatbots… et TA. Les systèmes statistiques, qui avaient remplacé les systèmes linguistiques dans les années 1990, sont à leur tour supplantés par les systèmes neuronaux, qui fonctionnent grâce à l’apprentissage profond.

Les outils de TA les plus populaires adoptent rapidement cette nouvelle approche, ou une approche hybride, qui consiste en une combinaison de l’approche neuronale et de l’approche statistique : en septembre 2016, Google présente « Google Neural Machine Translation system (GNMT) » dans un billet de blog7. La même année, SYSTRAN lance son système neuronal PNMT8. En août 2017, Linguee annonce le lancement de DeepL9,

7 https://ai.googleblog.com/2016/09/a-neural-network-for-machine.html(consulté le 21.06.2020) 8 https://www.systransoft.com/fr/download/product-datasheets/fr/systran-pure-neural-server- factsheet-0120-fr.pdf (consulté le 19.11.2020)

9 https://www.deepl.com/press.html (consulté le 21.06.2020)

(28)

26 un système de TA neuronal ; en septembre 2017, Yandex10 lance un système de TA hybride, qui combine l’approche statistique et l’approche neuronale. Reverso Corporate11 propose également un service de TA neuronale en parallèle de son système basé sur les règles et de son système statistique.

2.3.1.8 Conclusion historique

En un peu plus de 50 ans d’existence, la TA a évolué selon le contexte politique (Guerre froide, mondialisation) et les progrès technologiques (ordinateurs, Internet, apprentissage profond), mais aussi selon l’attitude des chercheurs, des investisseurs et du grand public à son égard. Les attentes démesurées en cette nouvelle technologie expliquent sans doute les désillusions et l’abandon d’une grande partie des recherches lorsque les résultats n’étaient pas de la qualité voulue.

Au cours des décennies, ces attentes semblent avoir changé, ce qui a permis à des projets moins ambitieux de voir le jour, comme la création de systèmes de TEAHQ pour des microdomaines. Les résultats imparfaits de la TA permettent tout de même de gagner du temps et des ressources, car ils peuvent être post-édités. Enfin, les progrès de l’informatique s’accompagnent de nouvelles approches qui améliorent les résultats : c’était le cas lorsqu’Internet a permis l’accès à d’immenses corpus bilingues et a ouvert de nouvelles perspectives à l’approche statistique, ou lorsque l’apprentissage profond a pu être appliqué à la TA, créant ainsi une nouvelle approche, l’approche neuronale.

2.4 Systèmes de TA

De nombreux systèmes de TA ont vu le jour au cours des cinq dernières décennies. Si leurs langues, leurs applications ou leurs spécialisations diffèrent, ils peuvent tous être classés selon leur architecture, c’est-à-dire leur fonctionnement.

10 https://tech.yandex.com/translate/doc/dg/concepts/how-works-machine-translation-docpage/, (consulté le 23.07.2020)

11 https://www.corporate-translation.reverso.com/translation-technologies?lang=fr (consulté le 27.11.2020)

(29)

27 La classification présentée ci-dessous est celle de Quah (2006, p. 68). Depuis 2016, une nouvelle catégorie de systèmes peut être ajoutée aux systèmes basés sur le corpus, celle des systèmes neuronaux.

Figure 2 : Architectures des systèmes de TA (Quah, 2006)

Les sections 2.4.1 et 2.4.2 visent à détailler le fonctionnement de chacun de ces types de systèmes. Les systèmes directs et indirects, aussi appelés « systèmes basés sur les règles », seront traités dans la même section, car leur fonctionnement est similaire.

2.4.1 Les systèmes basés sur les règles (1

ère

et 2

e

génération)

Pour utiliser des termes de cryptographie, les systèmes basés sur les règles « décodent » les informations linguistiques de la phrase source et les « encodent » dans la langue cible.

Ce passage d’une langue à l’autre se fait en trois étapes : analyse, transfert et génération (L’Homme, 2008, p. 246).

Ce fonctionnement est identique pour tous les systèmes basés sur les règles (aussi appelés systèmes linguistiques), mais il existe plusieurs approches, qui diffèrent selon le niveau d’analyse. On distingue trois approches : l’approche directe, l’approche par transfert et l’approche par interlangue (L’Homme, 2008, p. 255). Ces approches fonctionnent toutes phrase par phrase (Poibeau, 2019, p. 22).

Le triangle de Vauquois est une représentation des trois étapes du fonctionnement (axe horizontal) ainsi que du niveau d’analyse (axe vertical).

(30)

28

Figure 3 : Triangle de Vauquois (Raybaud, 2012)12

2.4.1.1 L’approche directe

L’approche directe est représentée à la base du triangle de Vauquois. On la considère comme la première technique utilisée au début des recherches sur la TA (Quah, 2006, p.

69).

L’Homme détaille le fonctionnement de cette approche dans son ouvrage « Initiation à la traductique » (2008, p. 255). Lors de la phase d’analyse, le programme effectue une analyse morphologique des mots et une analyse syntaxique locale de la phrase à traduire. L’analyse morphologique permet au système de « reconnaître » les mots, de les associer à leur forme canonique et d’extraire leurs informations flexionnelles (genre, nombre et cas pour les noms et les adjectifs, temps et mode pour les verbes, etc.). Lors de la phase de transfert, les formes canoniques reconnues lors de l’analyse sont associées à leurs équivalents dans la langue cible. Enfin, lors de la phase de génération, la phrase cible est générée grâce aux équivalents du transfert et aux informations flexionnelles de l’analyse. Les mots sont agencés grâce à des règles syntaxiques locales : Quah (2006, p. 69) donne l’exemple de l’inversion du nom et de l’adjectif lors d’une traduction anglais-français (« the blue chair » devient « la chaise bleue »).

12 https://www.researchgate.net/figure/Le-triangle-de-Vauquois_fig2_297303204 (consulté le 14.01.2021)

(31)

29 Cette approche, relativement simple, s’avère vite insuffisante pour des phrases complexes ou pour la traduction entre des langues dont la structure grammaticale est très différente, puisque les règles de réagencement de mots sont limitées.

De plus, une erreur lors de la phase d’analyse se répercute dans les phases suivantes : ainsi, si dans la phrase « Fumer nuit à la santé. », « fumer » est identifié comme le verbe principal de la phrase plutôt qu’un infinitif utilisé comme sujet de la phrase, « nuit » risque d’être identifié comme le nom « nuit » plutôt que comme le verbe « nuire ». Lors de la phase de transfert, ces mots seront alors associés aux mauvais équivalents. La traduction issue de la phase de génération sera alors erronée (par exemple « To smoke night to health »).

Poibeau (2019, p. 23) remarque toutefois que cette approche peut fonctionner pour des langues proches ou des langues où très peu de ressources textuelles sont disponibles.

Les performances de ces systèmes dépendront alors de la qualité et de la richesse des dictionnaires utilisés.

2.4.1.2 L’approche par transfert

L’approche par transfert fonctionne comme l’approche directe, mais l’analyse effectuée est plus poussée : elle porte non seulement sur les mots, mais aussi sur la structure grammaticale de la phrase dans son ensemble (L’Homme, 2008, p. 256). Lors de la phase de transfert, ce ne sont donc pas seulement les mots qui sont associés à leurs équivalents, mais aussi les structures syntaxiques (représentées sous forme « d’arbre »).

L’approche par transfert ne traduit donc pas « mot à mot » et se détache partiellement du texte source : comme le décrit Quah (2006, p. 73), la phase d’analyse convertit le texte de langue source en une représentation abstraite de langue source. Cette représentation est convertie en une représentation abstraite de langue cible grâce à un module de transfert. Enfin, cette seconde représentation est convertie en texte en langue cible.

Grâce à cette analyse plus poussée, l’approche par transfert produit des traductions plus correctes que l’approche directe. Toutefois, l’ajout de nouvelles langues aux systèmes utilisant cette approche est plus fastidieux : « les règles de représentation des phrases

(32)

30 sources et cibles, ainsi que les règles de correspondances définies dans le module de transfert, sont élaborées pour un couple de langues en particulier [...]. La prise en compte d’un nouveau couple de langues [...] entraîne une redéfinition des règles. » (L’Homme, 2008, p. 256).

2.4.1.3 L’approche par interlangue

L’approche par interlangue, représentée au sommet du triangle de Vauquois, va encore plus loin dans l’analyse de la phrase que l’approche par transfert : en effet, en plus de l’analyse morphologique et de l’analyse syntaxique, une analyse sémantique est effectuée afin de représenter le sens de la phrase dans un langage intermédiaire. La phrase cible est ensuite générée à partir de cette représentation intermédiaire (L’Homme, 2008, p. 257).

Ce langage intermédiaire, l’interlangue, est indépendant de toutes les langues existantes.

Il est propre à la machine, qui s’en sert de « pivot » entre les langues humaines. Toutes les informations syntaxiques et sémantiques nécessaires à la traduction peuvent être représentées, et ce peu importe la langue source et la langue cible (Quah, 2006, p. 71).

Une interlangue suffit donc à traduire toutes les combinaisons linguistiques, à partir du moment où les règles d’analyse et de génération sont définies (L’Homme, 2008, p. 258).

Cette approche ne va pas sans rappeler les réflexions de Weaver (1949) sur les caractéristiques communes des langues : si toutes les langues ont des points communs, il est sans doute possible de construire un langage intermédiaire à partir de ces caractéristiques et de s’en servir comme « passerelle » pour aller d’une langue à l’autre.

Bhattacharyya (2015, p. 139) cite l’UNL (Universal Networking Language) comme exemple d’interlangue. Créé en 1996 par l’Université des Nations unies, l’UNL représente les phrases sous forme de réseau de mots universels (universal words), liés entre eux par différents types de relation (relation labels), le tout enrichi par des attributs (attribute labels) définissant l’aspect, la temporalité, etc.

L’interlangue est une approche attrayante, mais L’Homme (2008), Poibeau (2019) et Quah (2006) s’accordent sur la difficulté (voire l’impossibilité) de la création d’une

(33)

31 interlangue dans laquelle pourraient être représentées toutes les connaissances et toutes les nuances dans toutes les langues. C’est pour cela que cette approche en tant que telle n’a jamais été utilisée à une très large échelle (Poibeau, 2019, p. 25).

L’idée de représenter le sens des phrases traduites est toutefois loin d’avoir disparu : elle est même au centre des systèmes neuronaux, qui parviennent à « comprendre » et à représenter le sens des mots grâce aux contextes dans lesquels ils apparaissent. Le fonctionnement de ces systèmes est expliqué en détail à la section 2.4.2.3.

2.4.2 Les systèmes basés sur les corpus (3

e

génération)

Développés lors les débuts de la TA, puis boudés pendant quelques décennies, les systèmes basés sur les corpus ont suscité un nouvel engouement dans les années 1990.

D’une part, les systèmes à base de règles deviennent difficiles à mettre à jour, car il faut sans cesse ajouter de nouvelles règles pour intégrer de nouvelles langues et résoudre des problèmes. D’autre part, l’apparition du web facilite l’accès à de nombreux corpus multilingues, indispensables pour ces nouveaux systèmes.

Il existe trois types de systèmes basés sur les corpus : les systèmes basés sur les exemples, les systèmes statistiques et les systèmes neuronaux. La qualité des traductions dépend de la qualité, de la taille et de la pertinence du corpus utilisé, mais aussi des langues source et cible.

2.4.2.1 Les systèmes basés sur les exemples

Les systèmes basés sur les exemples se situent entre les systèmes à base de règles et les systèmes statistiques (Quah, 2006, p. 81). Ils sont essentiellement développés au Japon durant les années 1980.

Nagao (1981) explique le raisonnement derrière cette approche : pour traduire, l’esprit humain se base sur des exemples de traductions déjà connues en y apportant quelques modifications. Par conséquent, si on fournit à un ordinateur un corpus bilingue aligné suffisamment grand, il sera capable de traduire de nouvelles phrases en s’inspirant des traductions de phrases similaires. Cette approche permet de résoudre de nombreux

(34)

32 problèmes de traduction, car c’est dans les traductions existantes qu’on retrouve le plus de solutions (Fernández Guerra, 2000, p. 68).

Poibeau (2019, p. 84) détaille le fonctionnement de ces systèmes, en trois étapes : tout d’abord, des segments d’une phrase source sont associés à des segments similaires en langue source dans le corpus bilingue. Puis ces segments similaires sont ensuite associés à leurs équivalents dans la langue cible. Enfin, ces différents segments cibles sont combinés pour reconstituer une phrase complète en langue cible.

Les résultats des systèmes basés sur les exemples dépendent de la combinaison linguistique. Quah (2006, p. 84) remarque que les langues flexionnelles ou agglutinantes posent plus de difficultés aux systèmes de TA : ces derniers ont plus de peine à associer les différentes flexions d’un même lemme.

Il est rare que les correspondances entre les phrases à traduire et les phrases du corpus soient exactes. Des segments provenant de phrases différentes sont alors assemblés au sein d’une même phrase, ce qui peut aboutir à des résultats décousus. Afin d’éviter de telles disparités, il est possible d’effectuer des « traductions par analogie », c’est-à-dire de trouver des liens d’analogie entre les phrases à traduire et les phrases du corpus, plutôt que des correspondances exactes (Poibeau, 2019, p. 86). Il est par exemple possible de comparer leurs structures syntaxiques ou d’ajouter des étiquettes avec des informations morphosyntaxiques ou sémantiques sur les différentes séquences. Ainsi, le système devient capable d’associer des segments similaires même s’ils ne sont pas identiques.

Le fonctionnement de ces systèmes est très proche de celui des mémoires de traduction (MT), ces logiciels qui enregistrent des segments de texte et leurs traductions et proposent ces traductions aux utilisateurs lorsque ces derniers doivent traduire des segments similaires.

2.4.2.2 Les systèmes statistiques

L’approche statistique a fait l’objet de quelques recherches durant les débuts de la TA : inspiré par les méthodes statistiques utilisées en cryptographie, Weaver se demande s’il

(35)

33 est possible de les appliquer à la TA (Somers, 1993, p. 157). Malheureusement, les résultats de cette approche ne sont que peu concluants : cette approche est trop ambitieuse pour l’époque, car elle nécessite des machines puissantes et de grands corpus, qui ne sont pas encore disponibles à cette époque (Somers, 1993, p. 157).

Il faut attendre une trentaine d’années avant que cette approche ne redevienne populaire. En 1988, les chercheurs d’IBM intègrent le théorème de Bayes au système de TA Candide, dont le corpus est composé de plus de deux millions de phrases français- anglais des débats parlementaires canadiens (Quah, 2006, p. 77). La même stratégie a été utilisée avec succès pour des systèmes de reconnaissance automatique de la parole (Somers, 1993, p. 157).

Ce théorème permet de calculer la probabilité conditionnelle d’un événement A sachant qu’un événement B s’est produit auparavant. Appliqué à la TA, ce théorème permet donc de calculer la probabilité qu’un segment cible T soit la traduction d’un segment source S, sachant que le segment source a été traduit de cette façon un certain nombre de fois auparavant.

Voici la formule mathématique de ce théorème :

𝑃𝑟(𝑇|𝑆) = 𝑃𝑟(𝑇)𝑃𝑟(𝑆|𝑇) 𝑃𝑟⁡(𝑆)

Figure 4 : Théorème de Bayes appliqué à la TA

Cette formule peut également se présenter sous la forme ci-dessous, que Brown, S. Della Pietra, V. Della Pietra et Mercer (1993) nomment « the Fundamental Equation of Machine Translation », l’équation fondamentale de la traduction automatique.

T’ = argmaxT [Pr(T) x Pr(S|T)]

Les deux termes de cette équation correspondent au modèle de traduction Pr(S|T) et au modèle de langage Pr(T), qui sont les deux ressources sur lesquelles va s’appuyer le système de TA. Ces deux modèles sont entraînés lors d’une phase d’apprentissage avec un corpus de bi-textes (Poibeau, 2017, p. 141).

(36)

34

Figure 5 : Structure des systèmes statistiques (Quah, 2006, p. 78)

Le modèle de traduction calcule la probabilité du segment source S selon le segment T (Pr(S|T)). Pour ce faire, il consulte le corpus bilingue aligné et compte le nombre de fois où S est apparu en tant que source de T, sur le nombre total d’apparitions de T. Ce modèle garantit que le segment traduit est fidèle au segment source.

Le modèle de langage calcule la probabilité d’apparition du segment cible tel quel. Il travaille avec un corpus monolingue en langue cible. Ce modèle garantit que le segment est grammaticalement correct dans la langue cible.

La traduction qui sera finalement choisie par le système sera celle dont le produit sera le plus élevé, car elle sera (relativement) fidèle et (relativement) correcte.

La traduction de la phrase « The train arrived at the station. » peut se dérouler de la manière suivante :

1. Le système de TA découpe la phrase source en segments.

The train | arrived at | the station

2. Ces segments sont comparés aux paires de segments figurant dans le modèle de traduction.

The train → le train The train → la traîne

arrived at → arriva à arrived at → vint à

the station → la gare the station → l’arrêt

(37)

35 3. Les segments les plus probables selon les deux modèles sont sélectionnés (les

probabilités sont données ici à titre d’exemple).

Modèle de traduction

Segment Probabilité

The train – le train 0,60

The train – la traîne 0,10

Modèle de langage

Segment Probabilité

Le train 0,50

La traîne 0,50

Tableau 1: Modèle de traduction et modèle de langage

La traduction « le train » est donc la plus probable.

4. Le système génère la phrase la plus probable parmi toutes les possibilités.

Le train arriva à la gare.

Ce processus permet de générer des phrases relativement correctes, pour peu que les corpus soient bien construits et que l’alignement soit correct. Deux facteurs peuvent toutefois rendre cet alignement difficile : la fertilité et la distorsion (Somers, 1993, p.

157). La fertilité désigne le fait qu’il n’existe pas toujours des correspondances exactes au niveau des mots entre deux langues (« potato » et « pomme de terre ») et la distorsion est le fait que l’ordre des séquences dans une phrase peut changer entre deux langues.

Même si les résultats des systèmes statistiques sont globalement satisfaisants, l’assemblage de fragments de traduction hétéroclites génère souvent des phrases compréhensibles, mais peu cohérentes. De plus, le découpage ne correspond pas nécessairement aux groupes syntaxiques, ce qui nuit encore à l’homogénéité des phrases. Le système de TA ne représente ni la structure ni le sens des phrases à traduire

(38)

36 et se contente d’assembler les fragments les plus probables, contrairement aux systèmes neuronaux qui sont capables de représenter le sens des phrases.

Pour remédier à certains problèmes, Poibeau (2019, pp. 112-116) cite l’intégration d’une analyse syntaxique ou sémantique au processus d’alignement. Ces solutions sont toutefois difficiles à mettre en œuvre, et ne sont plus vraiment nécessaires avec l’apparition des systèmes neuronaux.

2.4.2.3 Les systèmes neuronaux

L’apparition des systèmes de TA neuronaux a été une véritable révolution dans le monde de la traduction. Ces systèmes sont certes récents, mais l’approche existe déjà depuis un certain temps, objet de recherches de plusieurs décennies. Afin de mieux comprendre leur fonctionnement, il convient de s’intéresser au concept d’intelligence artificielle (IA), d’apprentissage automatique (AA), et plus précisément de l’apprentissage profond (AP, plus connu sous le terme anglais de deep learning).13

2.4.2.3.1 IA, AA et AP

Les notions IA, d’AA et d’AP ne sont pas des synonymes, mais différents concepts imbriqués les uns dans les autres.

Figure 6: IA, AA et AP (Taandon, 2016)

13 Le fonctionnement de ces technologies est très complexe et dépasse la portée de ce mémoire de maîtrise. Les sections suivantes ne sont donc que des résumés de leurs capacités et ne sauraient faire justice aux disciplines mentionnées.

Références

Documents relatifs

En premier lieu, ce mode de constitution suppose – comme pour le premier mode de création prévu par l’art. 25 LTI – la conclusion d’un contrat de sûreté entre le constituant

À l’origine des études engagées par le Céreq pour le compte du CGDD 1 , il y avait l’hypo- thèse que les mesures mises en place pour accompagner les entreprises du bâtiment dans

Le recours à l’interprétariat linguistique dans le domaine de la santé garantit, d’une part, aux patients/usagers les moyens de communication leur permettant

Et l‘on se demande peut-être si ce Français utilisé dans la Trilo- gie est compris uniquement par l‘analyste ou bien éga- lement par les Français... Dans sa culture

La qualification juridique du texte numérique est le préalable indispensable à l ’étude des modalités d’application des droits d’auteur au document numérique par exemple,

appearance (including headboard and end board) in the Arc en Ciel hotel: there was high percentage of users that were satisfied regarding beds comfort, height, length

L'objectif de cette rencontre est de faire le point sur les outils de mesure et les statistiques disponibles pour rendre compte des discriminations et des risques de discrimination

S’agissant plus particulièrement de la gestion des successions vacantes, les services du Domaine situés dans les départements qui ne sont pas pôle de compétence GPP devront