• Aucun résultat trouvé

2) La traduction automatique

2.2 Historique

S’il n’y a pas de consensus sur l’identité de la personne qui a eu l’idée d’automatiser le processus de traduction en premier, celle-ci n’est pas nouvelle. En effet, elle remonte au moins au mémorandum rédigé en 1949 par Warren Weaver, un éminent scientifique américain actif à la Fondation Rockefeller.

Mathématicien accompli, ce chercheur est tout à fait conscient de l’utilité des mathématiques appliquées et des techniques statistiques pour déchiffrer les messages codés des ennemis pendant la seconde guerre mondiale. Dans son mémorandum, il se fonde sur ces récents succès en déchiffrage de messages codés pour proposer plusieurs façons d’automatiser le passage d’une langue naturelle vers une autre, avant même que la plupart des gens aient une bonne idée du potentiel des ordinateurs (Hutchins, 1999, pp. 5-6).

Il y écrit entre autres : « J’ai devant moi un texte écrit en russe, mais je vais imaginer qu’il est en réalité écrit en anglais et qu’il a été codé avec d’étranges symboles. Tout ce qu’il

2 Les sources principales de cette section sont Hutchins, 1999 ; Hutchins, 2005 et Arnold et al., 1994.

me reste à faire est de déchiffrer ce code afin de récupérer l’information contenue dans le texte. »3

Cette publication est considérée comme la plus influente des débuts de la traduction automatique, ayant grandement contribué au lancement de la recherche dans ce domaine aux Etats-Unis, puis dans le monde (Hutchins, 1999, pp. 5-6). En 1954 a eu lieu la première démonstration publique d’un système de traduction automatique, œuvre d’une collaboration entre l’entreprise IBM et l’Université de Georgetown. Malgré un vocabulaire et une grammaire basiques, les résultats furent assez impressionnants pour stimuler le financement de la recherche dans le monde (Hutchins, 2005).

Les premiers systèmes se fondaient principalement sur de gros dictionnaires bilingues qui fournissaient des équivalents en langue cible pour les mots en langue source. L’ordre des mots en langue cible était ensuite géré par des règles rudimentaires de réordonnancement. Si ce genre de systèmes atteignit rapidement ses limites, les chercheurs restèrent très optimistes quant à la réussite de leurs divers projets pendant une dizaine d’années (Hutchins, 2005).

Cependant, ils se heurtèrent au problème principal du traitement des langues : l’ambiguïté sémantique, autrement dit, les mots qui peuvent avoir plusieurs sens et qui peuvent uniquement être désambiguïsés grâce au contexte. Un exemple célèbre de ce problème fut donné par Yehoshua Bar-Hillel en 1959 dans un rapport où il prétend que la traduction entièrement automatique de haute qualité (TEAHQ) était en soi impossible :

Little John was looking for his toy box. Finally he found it. The box was in the pen.

Le mot qui pose problème ici est “pen”, qui peut aussi bien désigner un instrument avec lequel on écrit qu’une sorte de conteneur. Selon Bar-Hillel, la seule façon de savoir quelle signification ce mot a dans la phrase ci-dessus est d’avoir des connaissances du monde et il est impossible de donner de telles connaissances à un ordinateur (Hutchins, 2005 ; Arnold et al., 1994).

3 “I have a text in front of me which is written in Russian but I am going to pretend that it is really written in English and that it has been coded in some strange symbols. All I need to do is strip off the code in order to retrieve the information contained in the text.” Cité dans Arnold et al., 1994. Traduction libre.

Au début des années soixante, plusieurs systèmes étaient opérationnels, mais les résultats étaient décevants. Ainsi, en 1964, aux États-Unis, la National Academy of Sciences créa l’Automatic Language Processing Advisory Comittee (ALPAC), auquel elle demanda un rapport sur la qualité, le coût et les perspectives d’avenir actuels de la traduction automatique, et de les comparer aux besoins réels en traduction et aux coûts de la traduction humaine (Hutchins, 2005 ; Arnold et al., 1994).

En 1966, le rapport, communément appelé ALPAC report, conclut que la traduction automatique était plus lente, moins précise et deux fois plus coûteuse que la traduction humaine. De plus, ajoutèrent les auteurs, il y avait suffisamment de traducteurs humains pour la quantité de travail et il était très peu probable que la traduction automatique puisse fournir des traductions utiles de textes scientifiques généraux dans un futur proche (Hutchins, 2005 ; Arnold et al., 1994).

Ces conclusions conduisirent rapidement le gouvernement américain à cesser de financer la recherche dans le domaine et, pendant plus d’une décennie, il n’y eut plus de recherche aux États-Unis dans le domaine. L’impact du rapport se fit également sentir en Europe et en Union soviétique. L’optimisme des années cinquante céda le pas à une démoralisation générale dans le domaine de la traduction automatique (Hutchins, 2005 ; Arnold et al., 1994).

Malgré tout, la recherche continua dans certains pays, tels que le Canada, la France et l’Allemagne. En 1970, la US Air Force commença d’ailleurs à utiliser Systran, et la Commission des Communautés européennes (actuelle Commission européenne) en acheta la version anglais-français en 1976, avant de demander le développement des versions français-anglais et italien-anglais. À la même période, le système TAUM-METEO fut développé par l’Université de Montréal afin de traduire automatiquement des bulletins météorologiques.

Dans les années quatre-vingt, les besoins en traduction changèrent et la demande ne porta plus sur des traductions anglais <-> russe à des fins d’espionnage, mais plutôt sur des traductions dans les domaines commercial et administratif. Ainsi, les systèmes qui furent développés à cette période visaient davantage à répondre à un besoin d’aide à la traduction rentable qui puisse traiter des textes commerciaux et techniques dans les principales langues du commerce international (Hutchins, 2005 ; Arnold et al., 1994).

Au fil du temps, de plus en plus de systèmes virent le jour, avec plus ou moins de succès économique, et l’essor des microordinateurs contribua à créer une demande de systèmes bon marché. Les années nonante virent l’apparition des systèmes statistiques (cf. section 2.3.2), lesquels ne se fondent plus sur une analyse linguistique des textes à traduire, mais sur des corpus dont ils extraient des probabilités de traduction.

La traduction automatique est aujourd’hui très répandue, que ce soit dans les entreprises ou chez les particuliers, chez les professionnels ou chez les non-traducteurs.

Aujourd’hui, il existe aussi bien des logiciels complexes qui permettent d’obtenir une traduction de relative bonne qualité que des logiciels plus simples qui fournissent en temps réel une traduction approximative pour des applications Internet (Hutchins, 2005).