• Aucun résultat trouvé

6. Méthodologie et résultats

6.4. La traduction

(« Where are others of their kind ? » / « Où sont les autres de ce genre ? », « Greyish veins run down her face » / « Des veines grisâtres coulent le long de son visage »). Il y a aussi quelques problèmes liés au contexte (« Je te chanterai quelque chose quand je serai prêt », alors que la locu-trice est une femme, « Il a éclipsé tout ce qui existait avant » alors que le sujet est l’histoire du monde, « Souhaite-lui bonne chance » alors que l’interlocuteur est un inconnu, etc.).

De manière générale, la qualité de la TA brute est loin d’être décevante et une part importante de segments est correcte au niveau du sens, de la langue et de la fidélité au texte source. Les problèmes évoqués sont plutôt liés à la fluidité et à l’idiomaticité. En effet, beaucoup de segments « ne sonnent pas » français et ont l’air « peu naturels » et, ajoutés aux segments qui ne font aucun sens, l’en-semble est plutôt bancal. Pour nous assurer que nos juges ne se contenteraient pas de deviner la nature des traductions mais qu’ils se concentreraient bien sur leur qualité de manière objective, nous avons donc choisi de demander à nos traductrices de post-éditer la TA brute.

6.4. La traduction

6.4.1. Choix des traductrices

Pour garantir la qualité des traductions (et de la PE ensuite), nous n’avons contacté que des per-sonnes issues de la FTI, qu’elles soient en train de finir leur formation ou déjà diplômées, et qui ont l’anglais dans leur combinaison linguistique. Les volontaires ont été contactées par e-mail (An-nexe 1) et ont tout d’abord complété un questionnaire Google Forms (An(An-nexe 5) pour établir leur profil (formation, expérience professionnelle, connaissance du jeu, …).

Des cinq traductrices, deux sont en deuxième année de Maîtrise à la FTI, option MATT. Pour les trois restantes, elles ont toutes obtenu leur Maîtrise MATT et MATS durant l’hiver ou l’été 2018, deux sont des traductrices professionnelles qui travaillent en agence, et la troisième est en recherche d’emploi. Elles ont toutes l’anglais comme langue B dans leur combinaison linguistique.

Nous leurs avons posé des questions sur leur expérience en matière de traduction : deux n’ont traduit des textes que dans le cadre de la FTI, une a déjà effectué une dizaine de mandats pour des privés et deux autres travaillent professionnellement dans le domaine. Concernant leur expérience en TA et en PE, quatre ont indiqué n’avoir de l’expérience que dans le cadre des cours de TA1 et TA2 de la FTI, et seule une traductrice a répondu avoir des connaissances professionnelles en TA et PE. Pour leur ressenti, trois pensent que la TA et la PE sont des outils précieux pour la profession,

65

et deux considèrent qu’il peut s’agir d’outils utiles, mais à utiliser avec parcimonie. Quatre traduc-trices sur cinq ont déclaré être des joueuses de jeux vidéo occasionnelles, la cinquième indique être une joueuse régulière. Enfin, deux personnes ne connaissent pas Divinity : Original Sin 2, une en a entendu parler sans y jouer, une a joué au premier opus, et la dernière a déjà joué au jeu en anglais.

6.4.2. Mise en place du projet et traduction

Nous avons tout d’abord séparé notre corpus de texte en cinq fichiers contenant chacun 50 seg-ments. Pour aider les traductrices à saisir le contexte (ou pour s’y replonger pour celles qui con-naissaient le jeu), nous avons précisé dans ces fichiers et pour chaque segment quel personnage prononçait quelle phrase, dans quelle situation il ou elle se trouvait, ainsi que tous les changements d’interlocuteur (cf. Figure 18) :

Figure 18: Exemple de précisions indiquées en italiques à l’intention des traductrices

Pour la traduction, aucune indication particulière n’a été donnée, mais il a été demandé aux traduc-trices de chronométrer leur temps de travail.

Une fois satisfaites de leur traduction, elles nous ont renvoyé le document initial avec leur traduc-tion française et leur temps chronométré en note de bas de page, que nous avons collecté dans le tableau 2. En outre, il nous a semblé important de sonder nos traductrices sur ce qu’elles avaient ressenti au moment d’effectuer la traduction, car il n’est pas forcément courant dans le domaine de la traduction qu’une personne soit amenée à traduire des textes d’un jeu vidéo : nous avons récolté ces informations grâce à un nouveau document Google Forms (Annexe 6).

66

6.4.3. Temps, difficultés et ressenti

Selon les instructions, chaque traductrice devait chronométrer son temps lors de la traduction et nous le communiquer au moment de rendre leur travail. Les temps de chacune sont répertoriés dans le Tableau 2 :

Lot n° Nombre de mots Temps moyen pour

effectuer la traduction

Secondes / mots

1-50 1035 1:17:00 4,4

50-100 1053 2:15:00 7,7

100-150 967 1:04:00 3,9

150-200 927 1:08:00 4,4

200-250 1021 1:41:00 4,9

Moyennes 1’000,6 mots 1:25:48 5,06 sec.

Tableau 2: Temps pour réaliser la traduction

Nous observons que, mis à part la deuxième traductrice, toutes ont réalisé leur traduction en environ 1h15, ce qui semble approprié pour traduire 50 phrases somme toute assez courtes.

Nous leur avons également demandé la nature des difficultés rencontrées (Annexe 6). Nos traduc-trices ont majoritairement cité le contexte et les liens logiques entre les phrases comme principales difficultés. Dans leurs commentaires, elles expliquent avoir trouvé compliqué de savoir quel per-sonnage énonce quelle phrase, de rendre son ton et d’accorder les adjectifs selon le genre. L’une évoque le problème de l’adaptation à l’univers du jeu vidéo en général et à Divinity : Original Sin 2 en particulier, et regrette de ne pas avoir eu accès à plus de captures d’écran, voire à une vidéo du jeu. Une autre traductrice a plutôt parlé des problèmes liés à la langue, comme le choix des mots, les tournures de phrases, et la syntaxe inhabituelle. Néanmoins, l’une des traductrices (qui a effectué un stage d’une année dans une entreprise de localisation de jeux vidéo) indique que dans

67

le domaine de la traduction et de la localisation de jeux vidéo, le manque de contexte et une mé-connaissance du jeu à traduire sont des situations habituelles, et que dans son cas, il lui a suffi de s’appuyer sur ses connaissances du jeu et d’être cohérente pour faire la plupart de ses choix de traduction.

Pour évaluer leur ressenti sur la traduction, nous leur avons ensuite demandé d’attribuer une note allant de 1 à 6 à la tâche de traduction, selon le système de notation suisse (plus la note est élevée, plus la tâche est facile), qui atteint une moyenne de 4,6. En effet, deux ont attribué la note de 3, en précisant qu’elles avaient trouvé la tâche difficile sans contexte et à cause de « tournures de phrases très particulières ». Les trois autres ont donné la note de 4, en indiquant que la tâche était « un peu difficile », « sans grande difficulté » voire « plutôt facile» et en évoquant aussi des expressions idiomatiques, des liens logiques et des phrases complexes qu’il fallait bien comprendre pour traduire correctement. Nous pouvons donc avancer que la tâche a été plutôt difficile pour nos traductrices, car même celles qui l’ont qualifiée de « plutôt facile » ne lui ont attribué qu’un 4, mais c’était aussi une tâche plaisante et intéressante de par la nature des textes et du contexte du jeu vidéo, comme elles nous en ont toutes fait part au moment de rendre leur travail.

6.4.4. Conclusion

En conclusion, nous observons que la tâche attribuée s’est avérée plutôt difficile pour nos traduc-trices, même si elles ont apprécié la tâche dans son ensemble. C’est le contexte qui leur a le plus posé problème, malgré les indications que nous leur avions fournies. Il est à noter que c’était une volonté assumée de notre part de ne leur avoir envoyé que quelques informations sur les locuteurs, car c’est selon nous (et cela nous a été confirmé par notre traductrice qui a de l’expérience dans ce domaine) la norme dans le jeu vidéo, et nous voulions une expérience qui soit proche de la réalité.

Nous notons comme point positif qu’elles ont toute apprécié de travailler sur ces textes et que malgré les difficultés évoquées, leurs traductions restent de bonne facture.

Une fois la tâche de traduction terminée, nous sommes passées à la deuxième partie de notre expé-rience, à savoir la PE (section 6.5).

68

6.5. La post-édition

6.5.1. Présentation du logiciel de PE : Matecat

Nous avons décidé que le travail de PE serait réalisé grâce au logiciel en ligne et gratuit Matecat18. Ce choix a été fait d’une part parce qu’il s’agit d’un logiciel facile d’utilisation pour le donneur d’ordre et pour le post-éditeur, qui ne requiert aucune installation particulière (mis à part éventuel-lement Google Chrome), qui est gratuit et qui propose de multiples fonctionnalités très intéres-santes réglables avant la PE. En effet, il est possible de paramétrer son projet en indiquant la langue source et cible et le thème du texte, d’inclure une mémoire de traduction personnelle ou publique, de traduire le texte avec Google Translate et DeepL, de procéder à un contrôle-qualité de la ponc-tuation, des chiffres, des symboles, etc., et de laisser Matecat copier les éventuelles balises du texte source.

De plus, une fois le projet terminé (ou toujours en cours), Matecat propose via l’onglet « Suivi du projet » (Project log) de recueillir des informations sur le travail du éditeur ou de la post-éditrice : nombre de mots total du fichier source, temps de PE total, secondes passées par mot, temps de PE par segment et effort de PE moyen. Toutes ces informations sont exportables sous forme de tableur Excel.

6.5.2. Création des projets avec Matecat

Pour nos projets, nous avions d’abord besoin de créer des mémoires de traduction au format TMX pour chaque lot de 50 phrases. Nous avons utilisé SDL Trados et sa fonction « Alignement » pour aligner les fichiers contenant les phrases en langues source et les phrases brutes traduites en français avec DeepL, puis nous avons sauvegardé le résultat en tant que mémoire de traduction au format TMX.

Nous avons ensuite paramétré un projet par lot de 50 phrases. Chaque projet était nommé comme suit : « Memoire_TA_JV_lot de phrases », par exemple « Memoire_TA_JV_1-50 ». Nous avons choisi comme thème des segments « Jeux / Jeux vidéo / Casino » (Games / Video Games / Casino), puis avons sélectionné « Mémoire de traduction et glossaire privés » (Private TM and Glossary) dans l’onglet « Mémoire de traduction et Glossaire » (TM & Glossary).

18 Disponible à l’adresse : https://www.matecat.com/

69

Nous avons ensuite modifié les paramètres de notre projet grâce à l’onglet « Paramètres » (Set-tings). Nous avons décoché l’option MyMemory, qui permet à Matecat de faire des propositions de traduction issues de Google Translate et Microsoft Translator, et avons téléchargé notre mémoire de traduction personnelle sous l’onglet « Importer TMX » (Import TMX). Dans l’onglet « TA » (Machine Translation), nous avons décoché l’option de TA avec Google Translate et DeepL, car nous ne voulions pas ces propositions de traduction, mais uniquement celles que nous avions per-sonnellement effectuées avec DeepL et qui faisaient partie de notre mémoire de traduction. Enfin, dans les options avancées, nous avons choisi de laisser l’option Guess tag position qui permet à Matecat de placer les balises dans le texte cible au même endroit que dans le texte source, ainsi que l’option d’assurance qualité (Quality assurance).

Nous avons ensuite cliqué sur « Ajouter fichiers... » (Add files…) pour ajouter notre fichier en langue source, puis procédé à l’analyse grâce au bouton « Analyse » (Analyze), qui nous indique ensuite quel pourcentage de mots ont été pré-traduits par Matecat grâce à la mémoire de traduction téléchargée.

Nous avons répété l’opération cinq fois pour chaque lot de 50 phrases, avant d’envoyer les projets aux cinq traductrices.Par soucis d’objectivité, chaque traductrice a reçu 50 phrases différentes à post-éditer que celles qu’elles avaient dû traduire. Le Tableau 3 indique les phrases numérotées que chaque traductrice a eu à traduire et à post-éditer :

Traductrice n° Lot de phrases à traduire Lot de phrase à post-éditer

1 1-50 50-100

2 50-100 200-250

3 100-150 150-200

4 150-200 100-150

5 200-250 1-50

Tableau 3: Phrases à traduire et à post-éditer pour chaque traductrice

Chaque traductrice a ensuite reçu un e-mail contenant un lien à cliquer pour arriver sur l’interface de PE de Matecat. En parallèle de ce message, nous avons également envoyé un document PDF contenant les instructions pour procéder à la PE avec Matecat à chaque traductrice (Annexe 2). De plus, afin de se rapprocher le plus possible de la réalité professionnelle, il leur a été demandé

70

d’essayer de ne pas dépasser les 1h30 de travail au maximum et de respecter les consignes du TAUS pour aboutir à une PE complète et de qualité.

6.5.3. Résultats de la PE et effort de PE

Nous reproduisons dans le Tableau 4 les informations récoltées sur le nombre à traduire par traductrice, le temps moyen de PE, la moyenne en secondes par mot, et enfin la moyenne de l’effort de PE :

Lot n° Nombre de mots Temps moyen de PE Moyenne secondes/mots Moyenne effort de PE

1-50 499 00:28:49 3,5 sec. 21,34%

50-100 524 mots 00:57:17 6,6 sec. 26,45%

100-150 478 mots 00:30:28 3,8 sec. 6,1 %

150-200 459 mots 00:33:04 4,3 sec. 26,52%

200-250 483 mots 1:32:15 26,4 sec. 45,11%

Moyennes 489 mots 00:48:12 8, 9 sec. 25,1%

Tableau 4: Résultats de la PE

Nous constatons que pour la majorité des traductrices, l’effort de PE se situe à 25,1% avec un temps général d’environ 48 minutes, et un temps d’édition par mot d’environ 8,9 secondes. Toutefois, pour deux d’entre elles, l’effort de PE est soit très inférieur (6,1%) avec un temps d’édition des mots isolés et des segments en général dans la moyenne, ce qui signifie que la traductrice n’a procédé qu’à de rares modifications mais n’a pas été plus rapides que les autres ; dans le second cas, l’effort de PE est bien supérieur à la moyenne (45,11%) avec un temps d’édition des mots et des segments en général également supérieur aux autres, ce qui signifie cette fois-ci que la traductrice a procédé à beaucoup de modifications et a pris également plus de temps pour le faire.

71

6.5.4. Comparaison des temps de traduction et de PE et ressenti

L’une des raisons pour laquelle la recherche s’intéresse à la PE est le gain de temps et d’argent qu’elle est sensée entraîner. Dans le cas de notre Mémoire, c’est également une question qui fait partie de notre problématique que de savoir s’il serait intéressant en termes de gain de temps de procéder à la TA post-éditée de textes de jeu vidéo par rapport à une TH classique. Pour tenter de répondre à cette question, nous allons comparer les temps que nos traductrices ont mis pour les tâches de traduction et de PE (cf. Figure 19) :

Figure 19: Graphique sur la comparaison des temps entre la PE et la traduction

Nous constatons qu’à part pour la cinquième traductrice, qui a passé presque autant de temps sur la traduction que sur la PE (avec 9 minutes de moins pour la PE), toutes nos volontaires ont passé moins de temps sur la seconde tâche que sur la première : en moyenne, elles ont passé environ deux fois moins de temps à la PE (48 minutes) que sur la traduction (1h25). Au niveau du gain de temps, la PE a donc été largement profitable à nos traductrices.

Evidemment, ce n’est pas uniquement le temps et l’argent qui doivent être les facteurs décisifs pour déterminer si la TA et la PE sont des outils intéressants pour les professionnels, mais également le

1-50 50-100 100-150 150-200 200-250

0 20 40 60 80 100 120 140 160

Comparaison temps Tr - PE (en minutes)

Traduction Post-édition

72

ressenti des personnes qui ont dû travailler avec. Pour avoir un aperçu de ce que nos traductrices ont pensé de la TA et de la PE, nous leur avons demandé de remplir un dernier questionnaire Google Forms (Annexe 7), similaire à celui sur leur travail de traduction, pour collecter des informations sur la PE effectuée (difficulté de la tâche, difficultés rencontrées, commentaire général).

Comme pour le premier formulaire, elles ont attribué une note allant de 1 à 6 à la tâche de PE.

Tandis que pour la traduction, la moyenne atteignait 4,6, ici les notes étaient une fois 3 (« plus facile que la traduction, mais il y a des pièges »), deux fois 4 (« les phrases étaient relativement bien traduites dans l’ensemble ») et deux fois 5 (« il était assez facile de repérer les erreurs et de les corriger ») pour une moyenne de 5,2, ce qui montre que nos traductrices ont trouvé de manière générale la PE relativement plus facile que la traduction. Au niveau des difficultés rencontrées, les réponses sont plus partagées que pour la traduction : curieusement cette fois-ci, le contexte n’a jamais été cité comme source principale de difficultés dans l’exercice de la PE. Cela peut s’expliquer du fait qu’elles ont systématiquement effectué la traduction avant la PE, ce qui a pu rendre le contexte un peu plus clair pour elles au moment d’effectuer la PE. C’est plutôt la PE elle-même et les instructions relatives à celles-ci (respecter le temps imparti, essayer de ne pas trop remanier la TA) qui ont gêné les traductrices. La langue (mots anglais inconnus, choix du registre de langue, difficulté à traduire ou à ne pas traduire) a aussi été citée par une d’entre elles, mais c’est surtout la TA brute elle-même (difficulté à comprendre la phrase proposée par DeepL au niveau du contenu et du sens) relevée par une traductrice qui est le plus intéressant à noter ici. Dans leurs commentaires, nos volontaires ont toutes relevé cette difficulté à ne pas trop remanier la TA et à ne pas perdre trop de temps à retravailler le texte. Deux ont noté avoir été étonnées de la qualité des traductions de DeepL, qui rendait la PE plus rapide qu’avec d’autres outils similaires et plus rapide que la traduction. Une a indiqué que DeepL était utile pour poser les bases des phrases, mais qu’il n’aidait pas pour le ton et le style recherché ici, et que pour ce type de texte, elle avait préféré traduire directement sans passer par la TA et la PE.

6.6. Conclusion

Nous pouvons en conclure qu’il est assez difficile avec notre échantillon restreint à cinq personnes de tirer des conclusions trop générales sur la PE. Nous pouvons nous restreindre à nos résultats si nous les analysons prudemment, par exemple en comparant les temps mis pour chaque tâche, dont

73

notre figure 18 montre que la PE a été presque deux fois plus rapide à réaliser que la traduction, ou la note de difficulté attribuée à la traduction (4,6) et à la PE (5,2), qui montre que nos traductrices ont d’avantage apprécié la seconde tâche que la première au niveau de la difficulté (rappelons qu’il leur était demandé de noter la tâche de 1 à 6 selon le système de notation suisse, c’est-à-dire que plus le score est élevé, plus la tâche était facile : une note de 5 par exemple signifie que la tâche était relativement aisée).

Nous pouvons également nous fier aux commentaires des traductrices, qui indiquent qu’elles ont été surprises de la qualité des traductions de DeepL, mais se sont néanmoins senties restreintes dans leurs choix de par la nécessité de ne pas perdre trop de temps à retoucher le texte. Dans l’ensemble, elles ont semblées convaincues par l’utilité d’un tel outil, notamment au niveau de la qualité des traductions produites et du gain de temps, même si l’une des traductrices n’a pas été persuadée que DeepL était un outil adapté au domaine des jeux vidéo, dont la qualité des textes repose beaucoup sur le style et le ton des phrases.

Nous allons à présent développer dans les points suivants les deux évaluations automatiques et l’évaluation humaine (section 6.7) que nous avons réalisées pour tenter d’évaluer la qualité de nos traductions humaines et post-éditées.