• Aucun résultat trouvé

8 Conclusion

La finalité de ce projet de mémoire est de déterminer si la traduction automatique pour la paire de langues anglais-espagnol peut fournir des résultats satisfaisants lors de la traduction de textes littéraires. Dans un premier temps, nous avons voulu déterminer si l’adaptation d’un système de TA aux textes littéraires peut fournir de meilleurs résultats pour la traduction de prose littéraire qu’un système généra-liste de TA en ligne. Dans un second temps, nous avons comparé, d’un point de vue quantitatif et qualitatif, la traduction humaine, la traduction automatique post-éditée et la traduction automatique brute de textes littéraires, afin de déterminer la relation entre la qualité et l’effort nécessaire pour produire ces trois modalités de traduction. Nous avons souhaité vérifier si la TA post-éditée implique une perte de qualité de la traduction par rapport à la traduction humaine et, si tel est le cas, dans quelle mesure cette perte est compensée par la réduction d’effort temporel et technique.

Afin de déterminer si l’adaptation d’un système de TA aux textes littéraires peut fournir de meilleurs résultats pour la traduction de prose littéraire qu’un système généraliste de TA en ligne, nous nous sommes servis de Custom Translator, une fonctionnalité de Microsoft Translator qui permet aux utilisateurs de créer un mo-dèle de traduction automatique neuronale, adapté à un domaine spécifique. Nous avons donc décidé d’utiliser cette plateforme pour créer notre propre modèle en-traîné uniquement avec textes littéraires. Nous avons mené ensuite une évaluation automatique de six systèmes de TA, y compris notre système, afin de déterminer le système de TA à utiliser comme point de départ pour la tâche de post-édition. Après avoir constaté que DeepL a obtenu les meilleurs scores parmi les six systèmes éva-lués, nous avons décidé d’écarter notre système spécialisé et d’utiliser DeepL pour la tâche de post-édition.

Nous avons constitué un corpus de textes littéraires dotés de certaines caractéris-tiques jugées difficiles pour la traduction automatique. Les participants ont été invi-tés à traduire à partir de zéro et à post-éditer ces textes, en fonction d’un plan selon lequel ils ont travaillé sur des extraits différents mais de nature similaire.

Par la suite, nous avons comparé la qualité et l’effort. Nous avons commencé par mesurer l’effort temporel et technique nécessaire pour produire une traduction hu-maine à partir de zéro et une traduction post-éditée. Nous avons ensuite mené une évaluation automatique avec les métriques BLEU et TER, une évaluation compara-tive et une analyse d’erreurs avec une taxonomie d’erreurs MQM adaptée aux textes littéraires.

Comme on pouvait s’y attendre, la comparaison du temps et du nombre de frappes de clavier ainsi que du score HTER a montré que l’effort temporel et technique dé-ployé pour la PE est considérablement moins élevé que pour la traduction à partir de zéro. En effet, nous avons constaté un gain en effort temporel de plus de 13 heures, et un gain en effort technique de près de 50 000 frappes de clavier, ainsi que 33 points du score HTER.

La perception de la difficulté des deux modalités de traduction par les participants confirme ces estimations d’effort, étant donné que la tâche de traduction a été jugée difficile ou très difficile, tandis que la tâche de post-édition a été jugée de difficulté modérée.

Cependant, contrairement à nos attentes, la traduction humaine a obtenu les scores automatiques les plus faibles et a été jugée de moindre qualité selon l’évaluation hu-maine. En effet, on constate un écart d’environ 9 points entre la traduction humaine et la traduction automatique post-éditée selon les deux métriques automatiques, et cette dernière a été jugée de meilleure qualité par une marge de 20 % selon l’évalua-tion comparative.

Bien que les scores automatiques et l’évaluation comparative ne nous permettent pas de connaître les causes de cette apparente mauvaise qualité, l’analyse d’erreurs nous montre que la traduction humaine présente le plus grand nombre d’erreurs, 137 de plus dans l’ensemble et 67 de plus pour les traductions erronées ou mistrans-lations, le type d’erreur le plus visible.

Nous avons donc les réponses à nos deux questions. Un système généraliste de TA en ligne fournit de meilleurs résultats pour la prose littéraire qu’un système de TA

entraîné exclusivement avec textes littéraires, et l’utilisation de la PE n’implique pas une perte de qualité pour la traduction de la prose littéraire, pour la paire de langues anglais-espagnol. Cependant, nos conclusions risquent de rester très restreintes, car nous y sommes parvenus dans le cadre de notre étude, de nature fort sommaire et limitée par plusieurs facteurs.

Ainsi, en ce qui concerne notre système adapté aux textes littéraires, il faut se rap-peler que, même si l’alignement des segments de notre corpus d’entraînement est de très haute qualité, sa taille reste limitée. Bien que nous disposions de 800 000 segments supplémentaires qui auraient pu être alignés automatiquement par la pla-teforme et atteindre ainsi un million de segments pour l’entraînement de notre sys-tème, nous avons dû les laisser de côté pour des contraintes de temps, car, avant d’être utilisés pour l’entraînement, ces segments avaient besoin d’une révision ma-nuelle et d’un nettoyage pour éliminer les métadonnées, les balises et autres élé-ments superflus. Il serait donc intéressant d’élargir la taille des données d’entraîne-ment, de préférence avec des segments alignés manuellement. Après tout, malgré la taille modeste de notre corpus d’entraînement, il n’y avait qu’une différence de 2 points selon le score BLEU et de 3 selon TER, entre le système le plus performant et le nôtre, lors de la comparaison des systèmes. Une fois que le système aurait été entraîné avec ce plus grand corpus, il serait intéressant pour une étude ultérieure de l’utiliser comme point de départ pour la post-édition, et ensuite de confronter les résultats avec ceux du système le plus performant, vraisemblablement DeepL.

Il serait également intéressant d’explorer la possibilité d’élargir le corpus d’entraî-nement avec des données synthétiques, ou encore de le circonscrire à un domaine encore plus étroit, par exemple, l’utilisation de données portant sur un seul auteur, une seule époque ou un seul mouvement littéraire.

En ce qui concerne l’effort et la qualité de la traduction automatique post-éditée et de la traduction humaine, nous avons également rencontré de nombreuses difficul-tés. La première concerne le nombre, la disponibilité et l’engagement des partici-pants pour les tâches de traduction et de PE. Nous avions préparé d’autres extraits considérés comme difficiles pour la TA mais, faute de participants, nous avons dû les ignorer. Puisque nous nous sommes tourné vers des étudiants, qui n’ont pas été rétribués et qui, de plus, étaient occupés par leurs obligations académiques, l’enga-gement et les performances de certains d’entre eux ont laissé à désirer. Il serait donc

intéressant de mener une étude ultérieure, avec l’aide de traducteurs et de post-éditeurs professionnels. Pour pallier le problème posé par l’absence de contexte, il pourrait être souhaitable de travailler avec des extraits d’œuvres que les participants connaissent déjà bien.

Quant aux évaluateurs responsables de l’évaluation comparative et de la classi-fication d’erreurs, il aurait été souhaitable d’en avoir au moins deux, préférable-ment ayant une expérience préalable dans la classification d’erreurs pour la paire de langues anglais-espagnol, pour évaluer l’ensemble des traductions, ce qui au-rait permis de mesurer l’accord inter-évaluateur et d’avoir ainsi un peu de garantie d’objectivité dans une tâche subjective par nature.

En guise de remarque finale, nous nous permettons de suggérer que la métrique automatique BLEU, que nous avons utilisée lors de notre étude, n’est pas la plus ap-propriée pour l’évaluation de textes littéraires, dans la mesure que les faiblesses de BLEU comportent l’absence de correspondance entre les synonymes et l’incapacité à détecter des variations sémantiques correctes. Autrement dit, la métrique BLEU n’est pas capable de détecter la qualité sémantique, qui s’avère pourtant fondamen-tale pour la traduction de textes littéraires. En effet, tel que nous l’avons constaté lors de l’analyse d’erreurs, il se peut que les mots choisis pour une traduction donnée ne sont pas identiques à ceux de la référence, et même si la traduction est correcte, voire meilleure, ce choix différent de mots entraîne une baisse du score BLEU. Pour une étude ultérieure, nous considérons qu’il serait souhaitable d’utiliser plutôt la mé-trique METEOR car, malgré sa mise en œuvre plus coûteuse, elle prend en compte les synonymes et les variantes morphologiques.

Bibliographie

ALMAHASEES, Z. & MUSTAFA, Z. (2017).Machine Translation Quality of Khalil Gibran’s the Prophet (SSRN Scholarly Paper No ID 3068518). Social Science Research Network. Rochester, NY. https://doi.org/10.2139/ssrn.3068518

ALPAC. (1966).Language and Machines : Computers in Translation and Linguistics. Na-tional Academies Press. https://doi.org/10.17226/9547

ARENAS, A. G. & TORAL, A. (2021).The Impact of Post-editing and Machine Translation on Creativity and Reading Experience.

BAHDANAU, D., CHO, K. & BENGIO, Y. (2015). Neural Machine Translation by Jointly Learning to Align and Translate.ICLR.

BANERJEE, S. & LAVIE, A. (2005). METEOR : An Automatic Metric for MT Evalua-tion with Improved CorrelaEvalua-tion with Human Judgments. Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Trans-lation and/or Summarization, 65-72. Récupérée 5 septembre 2021, à partir de aclanthology.org/W05-0909

BENTIVOGLI, L., BISAZZA, A., CETTOLO, M. & FEDERICO, M. (2016). Neural versus Phrase-Based Machine Translation Quality : a Case Study.Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, 257-267.

https://doi.org/10.18653/v1/D16-1025

BESACIER, L. & SCHWARTZ, L. (2015). Automated Translation of a Literary Work : A Pilot Study.Proceedings of the Fourth Workshop on Computational Linguistics for Literature, 114-122. https://doi.org/10.3115/v1/W15-0713

BOJAR, O., CHATTERJEE, R., FEDERMANN, C., GRAHAM, Y., HADDOW, B., HUCK, M., JIMENO-YEPES, A., KOEHN, P., LOGACHEVA, V., MONZ, C., NEGRI, M., NÉVÉOL, A., NEVES, M., POPEL, M., POST, M., RUBINO, R., SCARTON, C., SPECIA, L., TURCHI, M. & ZAMPIERI, M. (2016). Findings of the 2016 Confe-rence on Machine Translation, 131-198. https://doi.org/10.18653/v1/W16-2301

BROWN, P. F., DELLA PIETRA, S. A., DELLA PIETRA, V. J. & MERCER, R. L. (1993).

The Mathematics of Statistical Machine Translation : Parameter Estimation.

Computational Linguistics,19(2), 263-311. Récupérée 5 septembre 2021, à partir de aclanthology.org/J93-2003

CALLISON-BURCH, C., FORDYCE, C., KOEHN, P., MONZ, C. & SCHROEDER, J. (2007).

(Meta-) evaluation of machine translation, 136-158. https://doi.org/10.3115/

1626355.1626373

CALLISON-BURCH, C., OSBORNE, M. & KOEHN, P. (2006). Re-evaluating the Role of Bleu in Machine Translation Research.11th Conference of the European Chapter of the Association for Computational Linguistics. Récupérée 6 septembre 2021, à partir de aclanthology.org/E06-1032

CAMARGO, D. (2004). An investigation of a literary translator’s style in a novel writ-ten by Jorge Amado.

CARL, M., DRAGSTED, B., ELMING, J., HARDT, D. & JAKOBSEN, A. L. (2011). The Process of Post-Editing : A Pilot Study. Récupérée 6 septembre 2021, à partir de semanticscholar.org/paper/The-Process-of-Post-Editing%3A-A-Pilot-Study-Carl-Dragsted/993cbf1a9e5d531321d879fb5c67a955b26c2f6d

CARL, M. & WAY, A. (Éd.). (2003).Recent Advances in Example-Based Machine Trans-lation. Springer Netherlands. https://doi.org/10.1007/978-94-010-0181-6 CHO, K., van MERRIËNBOER, B., GULCEHRE, C., BOUGARES, F., SCHWENK, H. &

BENGIO, Y. (2014). Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation. https://doi.org/10.3115/v1/

D14-1179

COMELLES, E., ATSERIAS, J., ARRANZ, V. & CASTELLÓN, I. (2012). VERTa : Linguistic Features in MT Evaluation.

DAHLMEIER, D., LIU, C. & NG, H. T. (2011). TESLA at WMT 2011 : Translation Eva-luation and Tunable Metric.Proceedings of the Sixth Workshop on Statistical Ma-chine Translation, 78-84. Récupérée 6 septembre 2021, à partir de aclanthology.

org/W11-2106

DENKOWSKI, M. & LAVIE, A. (2010). Choosing the Right Evaluation for Machine Translation : an Examination of Annotator and Automatic Metric Performance on Human Judgment Tasks, 9.

DIMITROVA, B. E. (2005).Expertise and Explicitation in the Translation Process [Google-Books-ID : IzoseH8t0PgC]. John Benjamins Publishing.

DODDINGTON, G. (2002). Automatic evaluation of machine translation quality using n-gram co-occurrence statistics. Proceedings of the second international confe-rence on Human Language Technology Research, 138-145.

DORR, B. (2009). Part 5 : Machine Translation Evaluation. DARPA GALE program report(p. 95).

EDMUNDSON, H. P. & HAYES, D. G. (1958). Research methodology for machine translation.Machine Translation.

EFRON, B. & TIBSHIRANI, R. (1993).An introduction to the bootstrap. Chapman & Hall.

FONTEYNE, M., TEZCAN, A. & MACKEN, L. (2020). Literary Machine Translation under the Magnifying Glass : Assessing the Quality of an NMT-Translated Detective Novel on Document Level, 9.

FORCADA, M. L. (2017). Making sense of neural machine translation. Translation Spaces,6(2), 291-309. https://doi.org/10.1075/ts.6.2.06for

GARCIA, I. (2012). A brief history of postediting and of research on postediting. Re-vista Anglo Saxonica, 291-310.

GENZEL, D., USZKOREIT, J. & OCH, F. (2010). “Poetic” Statistical Machine Transla-tion : Rhyme and Meter.EMNLP, 158-166.

GHAZVININEJAD, M., CHOI, Y. & KNIGHT, K. (2018). Neural Poetry Translation.

Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics : Human Language Technologies, Volume 2 (Short Papers), 67-71. https://doi.org/10.18653/v1/N18-2011

GOODFELLOW, I., BENGIO, Y. & COURVILLE, A. (2016). Deep Learning. MIT Press.

Récupérée 5 septembre 2021, à partir de deeplearningbook.org/front_matter.

pdf

GREENE, E., BODRUMLU, T. & KNIGHT, K. (2010). Automatic Analysis of Rhyth-mic Poetry with Applications to Generation and Translation. Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, 524-533. Récupérée 23 février 2021, à partir de aclweb.org/anthology/D10-1051 HAN, A. L. F., WONG, D. F. & CHAO, L. S. (2012). LEPOR : A Robust Evaluation

Me-tric for Machine Translation with Augmented Factors.Proceedings of COLING 2012 : Posters, 441-450. Récupérée 5 septembre 2021, à partir de aclanthology.

org/C12-2044

HAN, A. L.-F. & WONG, D. (2016). Machine Translation Evaluation : A Survey.

HEARNE, M. & WAY, A. (2011). Statistical Machine Translation : A Guide for Lin-guists and Translators : SMT for LinLin-guists and Translators.Language and Lin-guistics Compass, 5(5), 205-226. https://doi.org/10.1111/j.1749-818X.2011.

00274.x

HU, C., RESNIK, P., KRONROD, Y., EIDELMAN, V., BUZEK, O. & BEDERSON, B. B.

(2011). The Value of Monolingual Crowdsourcing in a Real-World Transla-tion Scenario : SimulaTransla-tion using Haitian Creole Emergency SMS Messages.

Proceedings of the Sixth Workshop on Statistical Machine Translation, 399-404. Ré-cupérée 6 septembre 2021, à partir de aclanthology.org/W11-2148

HU, K. & CADWELL, P. (2016).A Comparative Study of Post-editing Guidelines. https:

//doi.org/10.13140/RG.2.1.2253.1446

HUTCHINS, J. (1986).Machine Translation : past, present, future. Récupérée 5 décembre 2020, à partir de hutchinsweb.me.uk/PPF-2.pdf

HUTCHINS, J. (2005). The history of machine translation in a nutshell. Récupérée 6 septembre 2021, à partir de translationdirectory.com/article411.htm

HUTCHINS, J. (2006). Machine translation : a concise history.

HUTCHINS, W. J. & SOMERS, H. (1992). An introduction to machine translation.

HUTCHINS, W. J. (1995). Machine Translation : A Brief History.Concise History of the Language Sciences(p. 431-445). Elsevier. https://doi.org/10.1016/B978-0-08-042580-1.50066-0

HYONA, J. U. (1995). Eye movements during reading and discourse processing. Ré-cupérée 6 septembre 2021, à partir de elibrary.ru/item.asp?id=6862976 JONES, R. & IRVINE, A. (2013). The (Un)faithful Machine Translator.Proceedings of the

7th Workshop on Language Technology for Cultural Heritage, Social Sciences, and Humanities, 96-101. Récupérée 8 mai 2020, à partir de aclweb.org/anthology/

W13-2713

JURAFSKY, D. & MARTIN, J. (2009).Speech and Language Processing. Prentice Hall.

JURAFSKY, D. & MARTIN, J. H. (1999).Speech and Language Processing.

JURAFSKY, D. & MARTIN, J. H. (2020). Speech and Language Processing. Récupérée 6 juillet 2021, à partir de web . stanford . edu / ~jurafsky / slp3 / ed3book _ dec302020.pdf

KIT, C. Y. & WONG, B. T.-M. (2014). Evaluation in machine translation and computer-aided translation [Publisher : Routledge]. Routledge Encyclopedia of Transla-tion Technology, 213-236. Récupérée 5 septembre 2021, à partir de scholars .

cityu.edu.hk/en/publications/evaluation- in- machine- translation- and-computeraided-translation(4defd990-5018-4544-89a8-9469a40a2f7a).html KIT, C., PAN, H. & WEBSTER, J. J. (2002). Example-Based Machine Translation : A

New Paradigm, 22.

KOEHN, P. (2004). Statistical Significance Tests for Machine Translation Evaluation.

Proceedings of the 2004 Conference on Empirical Methods in Natural Language Pro-cessing, 388-395. Récupérée 6 septembre 2021, à partir de aclanthology.org/

W04-3250

KOEHN, P. (2010).Statistical Machine Translation. Cambridge University Press. https:

//doi.org/10.1017/CBO9780511815829

KOEHN, P. (2011). What is a Better Translation ? Reflections on Six Years of Running Evaluation Campaigns.

KOEHN, P. (2020).Neural Machine Translation[Google-Books-ID : mdDqygEACAAJ].

Cambridge University Press.

KOEHN, P., HOANG, H., BIRCH, A., CALLISON-BURCH, C., FEDERICO, M., BERTOLDI, N., COWAN, B., SHEN, W., MORAN, C., ZENS, R., DYER, C., BOJAR, O. &

HERBST, E. (2007). Moses : Open Source Toolkit for Statistical Machine Trans-lation.Proceedings of the 45th Annual Meeting of the Association for Computatio-nal Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, 177-180. Récupérée 13 août 2021, à partir de aclanthology.org/P07-2045 KOEHN, P. & MONZ, C. (2006). Manual and Automatic Evaluation of Machine

Trans-lation between European Languages. Proceedings on the Workshop on Statis-tical Machine Translation, 102-121. Récupérée 6 septembre 2021, à partir de aclanthology.org/W06-3114

KOPONEN, M. (2016).Machine Translation Post-editing and Effort, Empirical Studies on the Post-editing Process(thèse de doct.).

KOPONEN, M., SALMI, L. & NIKULIN, M. (2019). A product and process analysis of post-editor corrections on neural, statistical and rule-based machine trans-lation output. Machine Translation, 33(1), 61-90. https://doi.org/10.1007/

s10590-019-09228-7

KRINGS, H. P. (2001).Repairing Texts : Empirical Investigations of Machine Translation Post-Editing Processes (T. 47). The Kent State University Press. Récupérée 6 septembre 2021, à partir de id.erudit.org/iderudit/008026ar

KUZMAN, T., VINTAR, Š. & AR ˇCAN, M. (2019). Neural Machine Translation of Li-terary Texts from English to Slovene. Proceedings of the Qualities of Literary

Machine Translation, 1-9. Récupérée 15 juin 2021, à partir de aclweb . org / anthology/W19-7301

LEHRNDORFER, A. (1996). Kontrolliertes Deutsch : linguistische und sprachpsycholo-gische Leitlinien für eine (maschinell) kontrollierte Sprache in der technischen Do-kumentation[Google-Books-ID : W4axz46aXcMC]. Gunter Narr Verlag.

LEUSCH, G. & NEY, H. (2009). Edit distances with block movements and error rate confidence estimates [Publisher : Springer].Machine Translation,23(2/3), 129-140. Récupérée 6 septembre 2021, à partir de jstor.org/stable/40783464 LEWIS, D. (1992). Computers and Translation.Computers and Written Texts. Oxford :

Blackwell.

LI, L. & SPORLEDER, C. (2009). Unsupervised Recognition of Literal and Non-Literal Use of Idiomatic Expressions., 754-762. https://doi.org/10.3115/1609067.

1609151

LIU, D. & GILDEA, D. (2005). Syntactic Features for Evaluation of Machine Trans-lation. Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, 25-32. Récupérée 6 sep-tembre 2021, à partir de aclanthology.org/W05-0904

LO, C.-k., TUMULURU, A. K. & WU, D. (2012). Fully Automatic Semantic MT Eva-luation.Proceedings of the Seventh Workshop on Statistical Machine Translation, 243-252. Récupérée 6 septembre 2021, à partir de aclanthology.org/W12-3129 LOCKE, W. & BOOTH, A. (Éd.). (1955). Machine translation of languages : Fourteen es-says. Cambridge, MA : Technology Press of the Massachusetts Institute of Technology.

MATUSOV, E. (2019). The Challenges of Using Neural Machine Translation for Lite-rature.Proceedings of the Qualities of Literary Machine Translation, 10-19. Récu-pérée 15 juin 2021, à partir de aclweb.org/anthology/W19-7302

MAUSER, A., HASAN, S. & NEY, H. (2008).Automatic Evaluation Measures for Statisti-cal Machine Translation System Optimization.

MITCHELL, L., ROTURIER, J. & O’BRIEN, S. (2013). Community-based post-editing of machine-translated content : monolingual vs. bilingual.

MOORKENS, J., TORAL, A., CASTILHO, S. & WAY, A. (2018). Translators’ perceptions of literary post-editing using statistical and neural machine translation. Trans-lation Spaces,7, 240-262. https://doi.org/10.1075/ts.18014.moo

MORAN, J., LEWIS, D. & SAAM, C. (2014). Analysis of Post-editing Data : A Producti-vity Field Test Using an Instrumented CAT Tool.Post editing of Machine Trans-lation. Récupérée 6 septembre 2021, à partir de termcoord.eu/wp-content/

uploads/2013/08/Post-editing-of-Machine-Translation.pdf

MURCHÚ, E. P. Ó. (2019). Using Intergaelic to pre-translate and subsequently post-edit a sci-fi novel from Scottish Gaelic to Irish.Proceedings of the Qualities of Literary Machine Translation, 20-25. Récupérée 15 juin 2021, à partir de aclweb.

org/anthology/W19-7303

O’BRIEN, S. (2005). Methodologies for Measuring the Correlations between Post-Editing Effort and Machine Translatability.Machine Translation,19, 37-58. https:

//doi.org/10.1007/s10590-005-2467-1

O’BRIEN, S. (2011). Towards predicting post-editing productivity. Machine Transla-tion,25, 197-215. https://doi.org/10.1007/s10590-011-9096-7

OCH, F. J. & NEY, H. (2002). Discriminative Training and Maximum Entropy Models for Statistical Machine Translation.Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 295-302. https://doi.org/10.3115/

1073083.1073133

PAPINENI, K., ROUKOS, S., WARD, T. & ZHU, W.-J. (2002). Bleu : a Method for Auto-matic Evaluation of Machine Translation.Proceedings of the 40th Annual Mee-ting of the Association for Computational Linguistics, 311-318. https://doi.org/

10.3115/1073083.1073135

PLITT, M. & MASSELOT, F. (2010). A Productivity Test of Statistical Machine Trans-lation Post-Editing in a Typical Localisation Context. The Prague Bulletin of Mathematical Linguistics,93(1).

POPOVIC, M. (2018). Error Classification and Analysis for Machine Translation Qua-lity Assessment. https://doi.org/10.1007/978-3-319-91241-7_7

QUAH, C. K. (2006). Translation and Technology. Palgrave Macmillan UK. https://

doi.org/10.1057/9780230287105

REYES, A., ROSSO, P. & VEALE, T. (2013). A multidimensional approach for detecting irony in Twitter. Language Resources and Evaluation, 47(1), 239-268. https://

doi.org/10.1007/s10579-012-9196-x

SATO, S. & NAGAO, M. (1990). Toward Memory-based Translation. COLING 1990 Volume 3 : Papers presented to the 13th International Conference on Computational Linguistics. Récupérée 5 septembre 2021, à partir de aclanthology.org/C90-3044

SEEWALD-HEEG, U. (2017). Ausbildung von Posteditoren.Maschinelle Übersetzung – Grundlagen für den professionellen Einsatz.Berlin : BDÜ Fachverlag.

SEEWALD-HEEG, U. (2017). Ausbildung von Posteditoren.Maschinelle Übersetzung – Grundlagen für den professionellen Einsatz.Berlin : BDÜ Fachverlag.