• Aucun résultat trouvé

Aspects de communication verbale et non verbale dans Lost In Translation de Sofia Coppola (2003)

N/A
N/A
Protected

Academic year: 2022

Partager "Aspects de communication verbale et non verbale dans Lost In Translation de Sofia Coppola (2003)"

Copied!
112
0
0

Texte intégral

(1)

Master

Reference

Aspects de communication verbale et non verbale dans Lost In Translation de Sofia Coppola (2003)

DUFFOUR, Émilie

Abstract

Mémoire consacré au thème de la communication, verbale et non verbale, et au manque de communication dans le film Lost In Translation de Sofia Coppola. Nous commencerons par un bref historique de l'histoire de la traduction audiovisuelle, puis nous définirons les notions de communication, verbale et non verbale. Puis, à travers une étude du film et notamment de certaines séquences clés, de certains dialogues et de leurs sous-titres en français, nous tenterons de comprendre la manière dont Coppola aborde ces thèmes dans son film. Par ailleurs, nous nous emploierons à étudier des passages de ce film en nous attachant à la kinésique et à la proxémique des personnages, élément de communication non verbale.

DUFFOUR, Émilie. Aspects de communication verbale et non verbale dans Lost In Translation de Sofia Coppola (2003) . Master : Univ. Genève, 2010

Available at:

http://archive-ouverte.unige.ch/unige:14848

Disclaimer: layout of this document may differ from the published version.

(2)

€PLOLH'XIIRXU

0©PRLUHSU©VHQW© Oȃ‰FROHGH7UDGXFWLRQHWGȃ,QWHUSU©WDWLRQ 0©PRLUHSU©VHQW© Oȃ‰FROHGH7UDGXFWLRQHWGȃ,QWHUSU©WDWLRQ 0©PRLUHSU©VHQW© Oȃ‰FROHGH7UDGXFWLRQHWGȃ,QWHUSU©WDWLRQ 0©PRLUHSU©VHQW© Oȃ‰FROHGH7UDGXFWLRQHWGȃ,QWHUSU©WDWLRQ

SRXUOȃREWHQWLRQGX0 SRXUOȃREWHQWLRQGX0 SRXUOȃREWHQWLRQGX0

SRXUOȃREWHQWLRQGX0DVWHUHQWUDGXFWLRQVS©FLDOLV©H DVWHUHQWUDGXFWLRQVS©FLDOLV©H DVWHUHQWUDGXFWLRQVS©FLDOLV©H DVWHUHQWUDGXFWLRQVS©FLDOLV©H

'LUHFWULFHGHP©PRLUH 0PH0DWKLOGH)RQWDQHW

-XU©

0/DQFH+HZVRQ

8QLYHUVLW©GH*HQ¨YH

$R»W

(3)

Remerciements

En premier lieu, je remercie Mme Mathilde Fontanet, ma directrice de recherches, pour son aide et ses précieux conseils tout au long de ce travail. Je lui suis très reconnaissante pour le temps qu’elle m’a consacré au cours de cette année universitaire.

Je remercie chaleureusement mon frère Arnaud ainsi que Julien, qui m’ont beaucoup aidée pour la mise en page générale de cet ouvrage, ainsi que pour l’élaboration des tableaux d’étude de séquences.

Je tiens ensuite à remercier Takumi, un étudiant japonais qui m’a été d’un grand secours, puisqu’il m’a proposé une traduction possible d’un passage du film qui était en japonais non sous-titré.

Je remercie mes parents de m’avoir toujours encouragée pendant mes études, quels qu’aient été mes choix. Je remercie ma mère de m’avoir soutenue et de ne m’avoir jamais autorisée à baisser les bras.

Je remercie de tout mon cœur Iris et Florence, pour le soutien qu’elles m’ont apporté dans les moments difficiles.

Enfin, je tiens à remercier tout particulièrement mon oncle Christian, professeur de français, qui a eu la gentillesse de bien vouloir relire ce mémoire.

(4)

Introduction

Passionnée depuis toujours par les langues et par l’écriture, tout autant que par le cinéma, nous rêvions déjà, avant d’entamer nos études à l’ÉTI, de devenir traductrice en audiovisuel. Aussi, en arrivant au terme du master en traduction à l’ÉTI, lorsqu’est venu le moment de choisir un sujet de mémoire, c’est tout naturellement que nous avons opté pour un thème lié au cinéma. Au cours de nos études antérieures à l’université, nous avions déjà eu l’occasion de rédiger un mémoire consacré au cinéma de David Lynch pour l’obtention de la Maîtrise en anglais mention langues, littératures et civilisations étrangères (LLCE). À cette occasion, nous avions acquis quelques notions d’analyse filmique.

Il nous fallait établir un lien logique entre cinéma et traduction. Nous avions découvert l’œuvre de Sofia Coppola, Lost in Translation, lors de sa sortie en France en janvier 2004, et ce film nous avait beaucoup marquée. Pendant longtemps, nous nous sommes demandé ce qu’avait bien pu murmurer Bob à l’oreille de Charlotte dans l’inoubliable scène d’adieu. Cette séquence nous avait bouleversée. Les quelques mots prononcés par Bob étaient inaudibles, ce qui voulait dire que Coppola, tout comme Lynch, voulait laisser au spectateur le soin d’écrire sa propre interprétation. C’est la raison pour laquelle nous avons voulu aller plus loin.

Nous nous sommes demandé comment, dans ce film, Sofia Coppola abordait les thèmes du manque de communication et de la solitude, en plaçant deux personnages dans un univers étranger – le Japon – afin d’ajouter aux problèmes de communication celui du choc culturel. Dans une interview pour Filmmaker, Sofia Coppola indique quels sont les thèmes de son film :

It’s about misunderstandings between people and places, [...] It’s about things being disconnected and looking for moments of connection. There are so many moments in life when people don’t say what they mean, when they are just missing each other, waiting to run into each other in a hallway1.

En introduisant les notions de connexion et de déconnexion, Coppola décrit l’état dans lequel se trouvent ses deux personnages, Bob et Charlotte, tout à la fois incompris de leurs proches, déconnectés du monde qui les entoure, et cherchant désespérément à établir un lien qui leur permettra de sortir de leur solitude. Ce lien, ils ne le tisseront pas seulement avec les mots, car bien souvent, les mots que nous prononçons ne reflètent pas notre pensée profonde. Ce lien, ils l’établiront différemment, grâce aux gestes, aux regards, aux non-dits.

1 COPPOLA, Sofia, dans une interview pour Filmmaker, « Tokyo story », parue sur le site : http://www.filmmakermagazine.com/ (2003)

(5)

Aussi avons-nous voulu proposer une étude du film qui soit axée sur la communication tant verbale (les mots) que non verbale (la proxémique). À travers cette étude, nous examinerons de quelle façon Coppola démontre que, si les mots et le fait de parler la même langue et d’appartenir à la même culture facilitent certes la communication, souvent, la communication, la complicité véritable peuvent se passer de mots.

Parce que la communication est avant tout verbale, nous commencerons par donner un aperçu de la traduction audiovisuelle, son historique, son évolution et des différentes techniques employées dans ce contexte. Cela nous aidera dans l’analyse des aspects de communication verbale (les sous-titres, dans le cas présent).

Ensuite, nous introduirons la notion de communication et plus spécifiquement de communication non verbale, et nous commenterons les différences en matière de communication non verbale entre les cultures américaine et japonaise, qui sont présentes dans ce film.

Enfin, nous passerons à l’analyse du film à proprement parler, en examinant dans le détail son affiche, des séquences clés et des dialogues qui nous paraissent révélateurs des aspects de la communication verbale et non verbale qui sont abordés. Il faut savoir qu’un film, comme toute autre œuvre d’art, peut être interprété de diverses manières, selon l’approche choisie. Nous voulons rappeler que notre point de vue est ici celui d’une étudiante francophone cinéphile. Aussi sommes-nous consciente que notre analyse aurait été différente si nous avions été anglophone, par exemple.

(6)

« Un film traduit, même bien, sonne faux et choque : il a les mots d’une langue et les gestes d’une autre » (Abastado, 1980 : 111).

Avant toute chose, nous tenons à préciser que, pour l’écriture de ce chapitre, nous nous sommes fondé principalement sur deux ouvrages : Les transferts linguistiques dans les médias audiovisuels, d’Yves Gambier et La traduction audiovisuelle, approche interdisciplinaire du sous-titrage, de Jean-Marc Lavaur et Adriana Serban. Ces ouvrages sont des recueils de contributions auxquelles nous ferons très souvent référence. Aussi, nous voulons souligner que dans ce chapitre, lorsque nous citerons Jean-François Cornu, Christian Viviani, Jorge Diaz Cintas, Zoë Petit, Daniel Becquemont, Jean Yvane, Jean Renoir, René Prédal ou encore Martine Danan, il s’agira de contributions figurant dans les ouvrages de Gambier et de Lavaur et Serban, la plupart du temps.

1. Étude de la traduction audiovisuelle

La traduction audiovisuelle, également appelée TAV, comprend la traduction de tous les types de programmes audiovisuels, films artistiques, documentaires, séries télévisées, dessins animés, bulletins d'informations, etc. ainsi que la traduction de textes destinés à des spectacles d'opéra ou de théâtre, et toute forme de transfert linguistique visant à donner accès aux médias à un public avec un handicap visuel ou auditif (Lavaur

& Serban, 2008 : 146). La TAV se décline sous différentes formes et, contrairement à ce que l’on pourrait penser de prime abord, elle ne se limite pas au doublage et au sous- titrage. La TAV présente la particularité de faire appel à des paramètres non seulement visuels mais aussi acoustiques. Pour une bonne traduction audiovisuelle, il faut examiner les codes verbaux comme non verbaux. Les signes verbaux peuvent être visuels (panneaux, écriteaux) ou acoustiques (dialogues). Quant aux signes non verbaux, ils peuvent eux aussi être visuels (images) et acoustiques (musique d’accompagnement) (Gambier, 1996 : 39).

La TAV implique donc trois sortes de relations, à savoir : la relation entre images, sons et paroles, la relation entre langue source et langue cible, et enfin la relation entre code oral et code écrit (Gambier, 1996 : 1). Ainsi, la TAV soulève plusieurs questions, notamment : comment le traducteur doit-il aborder les différences entre l’écrit et l’oral ? Comment aborde-t-il les problèmes d’intertextualité ? Comment aborde-t-il les jeux de mots ?

(7)

1.1. Le sous-titrage

Le sous-titrage est la principale technique de traduction audiovisuelle actuellement utilisée. D’une façon générale, le sous-titrage consiste à traduire des textes dans un contexte visuel et audio. C'est une « forme de traduction audiovisuelle et de technique cinématographique consistant en l'affichage du texte traduit en bas de l'écran, lors de la projection d'un film » (Lavaur & Serban, 2008 : 145). Jorge Diaz Cintas, professeur de traductologie et spécialiste de la traduction audiovisuelle, donne la définition suivante du sous-titrage :

Le sous-titrage peut être défini comme une pratique de traduction qui consiste à présenter, en général sur la partie inférieure de l’écran, mais pas toujours, un texte écrit qui s’attache à restituer : le dialogue original des locuteurs, qu’ils soient ou non à l’écran, les éléments discursifs qui apparaissent à l’écran (lettres, insertions, graffiti, pancartes), d’autres éléments discursifs qui font partie de la bande-son (chansons, voix émanant de postes de télévision, de radios ou d’ordinateurs) (Diaz Cintas, 2008 : 27).

Selon Daniel Becquemont, spécialiste de la sémiotique de l’image et de l’analyse filmique, le sous-titrage est « la production de sous-titres par une entreprise de production, qui utilise pour ce faire des procédés chimiques ou électroniques ». Le sous- titrage désigne également « l’opération de traduction / adaptation cinématographique ».

Cette opération comprend quatre étapes, qui sont les suivantes : le repérage des séquences à traduire, l’adaptation cinématographique, la fabrication du sous-titre et l’incrustation par des procédés techniques divers (Becquemont, 1996 : 145). Le sous- titrage est le passage d’un code oral à un code écrit, qui permet au spectateur d’accéder à deux sources linguistiques différentes véhiculant un même signifié. Toujours selon Becquemont, un sous-titre doit faire partie d’un plan du film et d’un seul, ce qui représente parfois une grande difficulté pour le traducteur-adaptateur. Il rappelle qu’un film est une succession de plans et que chaque plan constitue une unité visuelle, raison pour laquelle il est impératif qu’un plan corresponde à un sous-titre. Pour cela, le traducteur-adaptateur doit suivre le rythme imposé par l’image. Daniel Becquemont nomme cela la « règle de discrétion » (Becquemont, ibid).

La personne qui assure le transfert d’une langue à l’autre est appelée soit « sous- titreur », « adaptateur », « traducteur-adaptateur », « traducteur audiovisuel » ou tout simplement « traducteur ». Dans le glossaire de Jean-Marc Lavaur, un adaptateur est un

« professionnel de la traduction audiovisuelle qui adapte une traduction sous la forme de sous-titres ou de descriptions sonores additionnelles, en fonction des différentes contraintes de temps et d'espace, ou qui se charge tant de la traduction que de l'adaptation du texte (dialogues) » (Lavaur & Serban, 2008 : 143). Il est vrai que le sous- titrage est avant tout de la traduction, rappelle Adriana Serban, spécialiste de la traduction audiovisuelle (Lavaur & Serban, 2008 : 85). Elle pose alors la question de la différence entre traduction et adaptation, et se demande où se situe le sous-titrage par rapport à

(8)

celles-ci. Elle cite la définition de l’adaptation de Georges L. Bastin, une méthode de transferts entre langue et culture, un…

…processus, créateur et nécessaire, d’expression d’un sens général visant à rétablir, dans un acte de parole interlinguistique donné, l’équilibre communicationnel qui aurait été rompu s’il y avait simplement eu traduction (Bastin,1993 : 477).

La traduction et l’adaptation étant très proches, le terme de « tradaptation » a été proposé pour indiquer la relation entre traduction et adaptation. L’enjeu de la tradaptation est plus ou moins le même que celui de l’adaptation d’un roman au cinéma : il faut que le même effet soit produit sur le public de l’œuvre adaptée que sur celui de l’œuvre originale. En fait, l'adaptation dans le sous-titrage doit aller dans le sens d'un ajustement de la traduction aux contraintes particulières liées à la nature du médium, le programme audiovisuel, sachant que la principale contrainte rencontrée est l'espace.

Daniel Becquemont indique que deux codes graphiques sont utilisés pour les sous-titres : les caractères droits (pour les dialogues) et les italiques (pour les voix off, les commentaires ou lorsque le personnage qui parle est géographiquement ou temporellement extérieur à l’intrigue ou pour le sous-titrage de chansons et de poèmes).

Dans Lost in Translation, nous observons ces codes graphiques dès le début du film, lorsque les hauts parleurs (voix impersonnelle) annoncent « Bienvenue au nouvel aéroport international de Tokyo », sous-titre écrit en italiques. De même, dans la scène du club de karaoké (minute 50), les paroles des chansons figurent en italiques : “I could feel at the time / There was no way of knowing / Fallen leaves in the night / Who can say where they’re blowing...”

Enfin, les sous-titres sont une sorte de reformulation de la bande son, transposée à l'écrit sur l'écran. Leur bonne qualité dépend de leur adéquation avec l'image, tout comme la relation entre les dialogues et les images est déterminante dans la version originale. Le sous-titreur doit tenir compte du « rapport entre les mots, l’image, la musique, les bruits » (Petit, 2008 : 103). Il lui faut donc prendre en considération tous les éléments du texte multimodal qu'est le texte audiovisuel.

1.2. Les autres formes les plus courantes de traductions audiovisuelles Avant que n’apparaissent les sous-titres, qui ont vu le jour avec l’avènement du cinéma parlant, le cinéma muet avait recours aux intertitres, également appelés

« cartons ». Il s’agissait de textes imprimés qui apparaissaient entre les scènes.

Généralement écrits en blanc sur fond noir, ils permettaient de donner aux spectateurs des explications sur ce qui se passait à l’écran, étant donné l’absence de dialogues.

Parfois, un « maître de cérémonie » traduisait les intertitres en temps réel. Les intertitres ont disparu avec l’apparition du cinéma parlant, et furent remplacés par les sous-titres (Diaz Cintas, 2008 : 27).

(9)

Quant aux surtitres, ils furent imaginés pour la première fois par la Canadian Opera Compagny à Toronto en 1983. C’est un procédé technique qui permet de diffuser, au cours d’un spectacle vivant, la traduction, dans la langue du public, de ce qui est chanté ou récité sur scène. Utilisés à l’opéra et au théâtre, les surtitres sont affichés au- dessus de la scène, pour permettre la vision de tous les spectateurs (Lavaur & Serban, 2008 : 145). Ils sont aussi utilisés dans des événements tels que des conférences, des concerts ou des meetings politiques.

Enfin, les fansubs, la forme la plus récente de sous-titres apparue, sont des sous- titres réalisés par les fans de certaines séries télévisées, souvent américaines, qui proposent leurs sous-titres gratuitement sur internet, afin que les fans européens de ces séries puissent les visionner plus rapidement (Diaz Cintas, 2008 : 27). Le fansubbing est illégal, et a commencé avec les dessins animés japonais. À présent, il s’applique à de nombreuses séries et films américains, la plus connue étant actuellement Lost : Les Disparus (J.J. Abrams, Damon Lindelof et Jeffrey Lieber, 2004).

Comme nous le verrons lorsque nous aborderons l’histoire de la traduction audiovisuelle, le sous-titrage n’a pas connu un franc succès dans tous les pays où il a été utilisé. Pour y remédier, le doublage a été inventé par Jacob Karol en 1930, dans les studios de cinéma de Joinville (Danan, 1996 : 109). C'est une technique de traduction audiovisuelle qui consiste à substituer aux voix des comédiens des voix s'exprimant dans une autre langue de manière synchrone, afin de diffuser l’œuvre concernée dans des pays où ne se parle pas la langue dans laquelle l'œuvre a été tournée. Le doublage est aussi le travail qui consiste à interpréter vocalement, pour un comédien, un rôle qu'il n'a pas interprété à l'image (Lavaur & Serban, 2008 : 144). À l’époque du cinéma muet, la synchronisation existait déjà : des artistes se trouvant dans les coulisses chantaient pour doubler les acteurs que l’on voyait chanter dans les films, au moment de la projection. La post-synchronisation, qui consiste à transformer des films muets en films parlants grâce à ce procédé, a marqué la transition entre le muet et le parlant. La post-synchronisation a connu beaucoup de succès en Europe dans les années 1929-30. Il a ensuite été question de « doublage partiel » : les plans américains des films étaient doublés, et les gros plans étaient rejoués par des acteurs français ressemblant physiquement aux acteurs américains. Pour favoriser ce doublage partiel, qui coûtait deux fois moins cher qu’une version française, les réalisateurs américains devaient privilégier les plans éloignés. Selon Jean Yvane, délégué général de Babel Genève, le doublage filmique constitue un mode de transfert linguistique qui contribue à rompre l’unité qui existait dans la version originale entre l’image et le son. À ce propos, il cite Luyken :

La langue est la propriété intrinsèque de toute production audiovisuelle. Il semble que le changement ou le transfert de cette propriété change également la production proprement dite et risquerait donc éventuellement d’en modifier l’identité même (Luyken, 1991 : 29).

(10)

Pour en terminer avec cet aperçu du vocabulaire de la TAV, il nous faut rappeler que celle-ci est « multimodale » (Petit, 2008 : 101), car elle englobe à la fois l’auditif et le visuel. Quel que soit le niveau de connaissance du spectateur de la langue du film, il va toujours lire les sous-titres, car le regard est attiré vers eux, dès leur apparition. Ainsi, selon les spectateurs, les sous-titres sont considérés comme une nouvelle source d’informations ou une source d’informations supplémentaires. S’ils ne sont pas nécessaires à la compréhension, ils vont tendre à distraire le spectateur. À l’inverse, lorsqu’ils sont nécessaires à la compréhension des dialogues, ils vont faciliter sa tâche.

Jean-Marc Lavaur et Adriana Serban parlent à ce propos de « rôle distracteur » et de

« rôle facilitateur » des sous-titres (Lavaur & Serban, 2008 : 128).

La compréhension se trouve altérée par la quantité d’informations que le spectateur reçoit lorsqu’il regarde un film sous-titré. Dès lors que des sous-titres sont visibles à l’écran, les éléments visuels du film sont moins bien traités par l’œil du spectateur. Le fait de regarder un film sous-titré par rapport à un film doublé lui demande davantage d’efforts sur le plan cognitif, surtout s’il s’agit de sous-titrage interlinguistique.

Lorsque nous regardons un film dans une langue étrangère non sous-titré, nous avons certes des problèmes de compréhension au niveau des dialogues mais nous sommes davantage réceptifs aux images. Il nous faudra garder cette considération à l’esprit lorsque nous étudierons des séquences de Lost in Translation, en nous concentrant sur l’analyse de l’image. Nous devrons nous demander en quoi le visionnage du film doublé et celui du film sous-titré peuvent différer au niveau du traitement du contenu visuel du film. Ainsi, lorsqu’il voit un film en version sous-titrée, le spectateur ne peut pas absorber toute l’information qu’il reçoit par les yeux et par les oreilles. Il y a trop de paramètres à prendre en compte. Pour parvenir à tous les prendre en compte, il lui faudrait, selon René Prédal :

[…] saisir en quelques secondes les doubles sens du dialogue, tenir compte des inflexions de la voix, des mimiques et des gestes (comme au théâtre), mais en y ajoutant le poids d’un bruitage très composé, l’impression donnée que le cadrage tisse à ce moment avec l’environnement naturel et humain, avec les objets placés à des endroits bien précis. Mais il y a encore le travail des éclairages, le mouvement amorcé par la caméra, le jeu entre les flous et la netteté, tout en n’oubliant pas le plan qui précède et aussi une séquence lointaine à laquelle cette scène apporte comme un écho. Triant de cette manière, chacun tisse son interprétation personnelle […] (Prédal, 1995 : 135).

Selon Zoë Petit, lorsque le spectateur visionne un film en version doublée, il parvient davantage à prendre en compte toutes les informations qui sont diffusées, son attention n’étant pas détournée par les sous-titres (Petit, ibid).

2. Historique de la traduction audiovisuelle

Pour commencer cet historique de la traduction audiovisuelle, il nous faut d’abord rappeler qu’il s’agit d’un domaine d’études très récent, les premiers ouvrages théoriques

(11)

consacrés à ce sujet d’étude datant de 1995, soit cent ans après l’invention du cinéma, le 28 décembre 1895. La traduction audiovisuelle a vu le jour avec l’apparition du cinéma parlant, c’est-à-dire en 1927. Comme nous venons de le voir, le doublage a été inventé en 1930, étant donné qu’auparavant, le cinéma était muet, et avait recours seulement à des intertitres, et non des sous-titres.

2.1. Quelques dates clés

Dans les années 1910, les États-Unis ont connu l’essor du taylorisme dans l’industrie, et l’industrie cinématographique n’y a pas échappé. Les films étaient alors le plus souvent considérés comme des produits de consommation, destinés à rapporter de l’argent. Après la guerre de 1914-18, Hollywood était devenu le premier exportateur de films au monde. Il faut savoir également que les sociétés américaines possédaient une grande partie des salles françaises (Danan, 1996 : 109). À l’époque du muet, de la musique accompagnait parfois les films, mais elle était jouée par un orchestre en direct dans la salle, lors de la projection. L’orchestre avait souvent du mal à placer correctement la musique sur les images du film. En outre, des bonimenteurs, ou bonisseurs, avaient pour fonction de commenter le film aux spectateurs. C’était le début du play-back, ou présonorisation. Dans certains films, des chanteurs ou des comédiens jouaient avec une bande son enregistrée, mais il y avait toujours des décalages. Dans beaucoup de films, les personnages remuaient encore les lèvres alors que la chanson était finie, par exemple. Ce fut Léon Gaumont qui parvint à synchroniser le phonographe et le projecteur, au moyen du couplage électrique (Le Nouvel, 2007 : 2).

En 1924, Max Fleischer inaugure une technique de postsynchronisation, qui sera ensuite reprise par Walt Disney en 1928 dans son film Steamboat Willie (Le Nouvel, 2007 : 4). Il s’agissait d’enregistrer le son et de le synchroniser ensuite avec l’image. Le cinéma parlant est apparu aux Etats-Unis en 1927. C’est le compositeur Paul Hindemith qui réussit, lors du festival de Baden-Baden, à faire correspondre la musique et les images, grâce à une machine qui permit de synchroniser le projecteur et le pupitre synchronisateur, outil élaboré par Charles Delacommune en 1920. Cette machine permit à Hindemith de suivre la partition de la bande son qui défilait au rythme où était projeté le film (Le Nouvel, 2007 : 3).

Le premier film parlant projeté aux États-Unis a été Le Chanteur de jazz (The Jazz Singer, Alan Crosland, 1927). Ce film, qui raconte l’histoire d’un homme qui rêve de devenir chanteur de jazz, n’annonce pas seulement le début du genre de la comédie musicale, mais il marque aussi, selon Thierry Le Nouvel,

l’avènement du synchronisme labial : une minute et vingt secondes de parole, trois cent cinquante-quatre mots qui redonnent voix à la confusion des langues et ouvrent la production cinématographique au miracle du doublage (Le Nouvel, 2007 : 3).

(12)

Quant à la version sous-titrée du Chanteur de jazz, elle a été projetée en France deux ans plus tard, en 1929. Dans cette version, les sous-titres étaient affichés en surimpression sur l’image. Ce procédé n’a pas rencontré beaucoup de succès. De façon générale, le public se plaignait que les sous-titres prenaient trop de place à l’écran. Les débuts du sous-titrage ont donc été un échec.

Avec le début du cinéma parlant, les spécificités culturelles qui avaient été gommées par le cinéma muet sont ressorties. Au cinéma, qui était seulement un art visuel, vint s’ajouter la dimension auditive. Avant l’apparition du cinéma parlant, les intertitres empêchaient les personnes ne sachant pas lire de suivre les films. Toutefois, les commentaires des bonimenteurs les y aidaient. Au moment de l’avènement du parlant, les intertitres ont disparu, rendant le cinéma accessible à tous, universel. Ensuite, avec l’arrivée des sous-titres, le problème que posaient les intertitres a ressurgi. Certes, le cinéma a pu s’exporter dans le monde entier, mais il est de ce fait devenu propre à chaque pays, à chaque culture. Jean-François Cornu a même affirmé que « le cinéma parlant a quelque peu pérennisé l’universalité du cinéma » (Cornu, 1996 : 157).

Ainsi, dans les années 1930, les studios Paramount ont cherché à créer le « film international » dans lequel il y aurait très peu de dialogues, donc très peu de passages à traduire. Ils ont tenté au maximum de réduire le nombre de mots dans les dialogues et le nombre de syllabes pour chaque mot. Ainsi, la synchronisation était plus facile dans toutes les langues. Les studios ont également tenté de ne traduire que les répliques essentielles des films, en utilisant des intertitres pour résumer l’action. Enfin, les studios ont fait jouer des acteurs français en anglais dans des films américains, ce qui n’a pas plu au public français (Danan, 1996 : 109). De même, certains acteurs américains ont lu en phonétique plusieurs versions de leurs films en langues étrangères, appelées « versions multiples ». Ces techniques se sont soldées par des échecs. Le problème qu’a entraîné l’apparition du cinéma parlant n’était pas tant linguistique qu’économique : pour s’exporter, les films devaient être traduits dans la langue du pays de diffusion (Le Nouvel, 2007 : 4).

En 1931, le nombre de films américains exportés en France a considérablement diminué : il a chuté de moitié par rapport à 1930. Il faut dire qu’à cette époque, moins de la moitié des salles de cinéma françaises étaient équipées pour le cinéma parlant. Le public français n’était pas réceptif aux différentes techniques utilisées par les studios de la Paramount à Joinville, comme les « versions multiples » ou le fait de dissimuler les éléments étrangers dans les films, pour faire croire aux spectateurs qu’il s’agissait de véritables films français. En fait, le public français n’était pas dupe, et montrait une nette préférence pour les films nationaux. Suite à cet échec, les studios Paramount de Joinville ont cessé de produire des films en plusieurs langues et sont devenus simplement des centres de doublage. Les films en versions multiples ont très vite disparu des écrans. En

(13)

1931, les films les plus demandés en France étaient, dans l’ordre : les films en langue française réalisés en France, les films en langue française réalisés en Allemagne, les films en langue française réalisés ailleurs, les versions bien doublées, les films en langue anglaise, les films en langue anglaise avec sous-titres français en surimpression et, enfin, les films avec suppression du dialogue et rajout d’intertitres (Danan, 1996 : 123).

C’est donc pour remédier à l’échec du sous-titrage que le doublage a été inventé.

Selon les pays, le public a été plus favorable au doublage qu’au sous-titrage, comme c’est le cas en France par exemple. Les critiques et les artistes, quant à eux, qualifiaient le doublage de « fraude commerciale » ou « d’hérésie artistique » (Danan, 1996 : 128). En 1933 est projeté en France la version doublée du film Une histoire d’amour, de Max Ophuls. Le doublage commence alors à être une activité reconnue en France. Ce serait Erich Paul Radzac qui aurait fait connaître en France la bande rythmo, inventée en 1927 à Baden-Baden (Le Nouvel, 2007 : 5). Les films doublés sont donc devenus la norme dans les salles françaises, où les productions nationales manquaient cruellement.

Toutefois, le public demeurait très exigeant : le doublage ne parvenait pas toujours à dissimuler l’écart culturel entre les films français et américains. Au milieu des années 1930, le cinéma français a connu un nouvel essor : 70 % des recettes des salles de cinéma françaises provenaient de productions nationales (Le Nouvel, 2007 : 6).

Toutefois, la présence américaine a continué d’être très marquée sur le marché européen. En 1988, tous les pays européens importaient au moins 45 % de leurs longs- métrages des États-Unis. Seule la France a toujours continué de favoriser ses propres films. À titre d’exemple, en 1993, Les Visiteurs (Jean-Marie Poiré, 1992) totalise plus d’entrées que Jurassic Park (Steven Spielberg, 1993) dans les guichets de cinémas. La France conserve son exception culturelle, car elle défend fermement son industrie cinématographique. En 1994, dans le Livre Vert de la Commission des Communautés européennes, on peut lire que :

Les problèmes de circulation des œuvres et de rejet par le public sont plus souvent liés à la mauvaise qualité des versions doublées ou sous-titrées qu’à l’absence de telles versions (Gambier, 1996 : 25).

En quelques années, l’offre audiovisuelle a explosé : en 1989 il y avait 47 chaînes de télévision, et il y en avait 1500 en 2002. Les grands distributeurs sont toujours plus ou moins les mêmes : Columbia, Fox, Disney, Warner. Depuis 1994, avec l’apparition des cinémas multiplexes (qui comportent au moins huit salles), on cherche avant tout à répondre aux désirs des spectateurs pour ce qui est des versions doublées ou sous- titrées. En 2001, en France, très peu de films ont été distribués par des petites compagnies. Ces considérations nous amènent à nous demander jusqu’à quel point les spectateurs peuvent déterminer les modes de traduction des films dans les différents pays… De plus, depuis 1994, les salaires octroyés aux traducteurs et aux jeunes acteurs

(14)

ont diminué, alors que cela n’a pas été le cas pour les directeurs de doublage…

(Gambier, 2004 : 8)

2.2. Évolution de la traduction audiovisuelle sur le plan technique

La technique la plus ancienne à avoir été utilisée pour le sous-titrage est appelée le contretypage (Cornu, 2008 : 10) : elle consiste à superposer les images des sous-titres sur celles du film. Le résultat obtenu n’est guère satisfaisant. Grâce à l’apparition du sous- titrage chimique (technique d’incrustation chimique des sous-titres sur la pellicule) qui remplace le sous-titrage mécanique et thermique, les sous-titres deviennent plus nets et plus lisibles.

La réalisation des sous-titres s’effectuait en plusieurs étapes. Tout d’abord, le repérage des séquences du film, puis la traduction de chacune de ces séquences, en veillant à respecter la règle qui veut qu’à un plan corresponde un sous-titre. Avec l’apparition de l’informatique, dans les années 1980, il n’a plus été nécessaire d’avoir recours à ces deux étapes : le repérage et la traduction s’effectuent à présent de façon simultanée.

En 1988 est apparu le rayon laser, qui a notamment été utilisé pour la gravure des sous-titres. Le laser est un faisceau d’une grande précision qui permet de graver les sous- titres de façon à ce qu’ils soient plus fins et plus lisibles, surtout lorsqu’ils apparaissent en blanc sur fond noir. Les contours des caractères sont plus précis que ceux des sous-titres chimiques. Le sous-titrage électronique est une autre méthode fréquemment utilisée ; il permet de surimposer les sous-titres à l’écran au lieu de les graver sur l’image. Les sous- titres électroniques sont produits par un synthétiseur d’écriture et envoyés par un projecteur sur l’écran. Le texte est alors projeté en synchronisation avec le film. Cette technique permet de multiplier les sous-titres pour un même film. Puis, la qualité du sous- titrage s’améliore encore avec l’avènement du numérique, qui permet de relever les défis esthétiques que posent les films au montage très rapide par exemple. Pour le doublage, c’est aussi un avantage : avec la numérisation du son, celui-ci est de meilleure qualité. Le fait de pouvoir manipuler facilement les images permet de modifier les mouvements des lèvres des acteurs pour que le doublage soit mieux synchronisé. En numérisant les mouvements d’un acteur, on peut presque le cloner…

Enfin, mentionnons le projet de traduction automatique Eurotra, lancé en 1992, soutenu par la société IBM et par la Communauté européenne, et qui prévoyait de créer une « machine à traduire » (Archibald, 1994 : 184). Ce projet n’a jamais abouti. En fait, même si la traduction audiovisuelle fonctionne toujours selon des principes mécaniques, elle a conservé un visage humain.

Ces dernières années ont marqué l’internationalisation du discours audiovisuel à travers le monde. Toutes les couches sociales de la population ont aujourd’hui accès aux

(15)

médias audiovisuels. C’est donc le public qui choisit la plupart du temps le mode de traduction qu’il préfère. Ainsi, il y a une division entre les pays qui favorisent le doublage (comme la France) et ceux qui privilégient le sous-titrage (Belgique, Canada, Grèce). La cohabitation entre les deux modes de TAV est très rare (Corée du Sud).

Depuis dix ans, on constate que l’offre et la demande sont de plus en plus fortes, alors que les traductions baissent du point de vue de la qualité, ce qui est paradoxal, étant donné tous les moyens techniques dont les traducteurs disposent actuellement. Cela est dû au besoin accru de productivité, qui entraîne une détérioration des conditions de travail dans les laboratoires : les traducteurs sont de moins en moins bien payés, et le budget consacré à l’adaptation des œuvres cinématographiques (sous-titrage ou doublage) est de plus en plus réduit. Certes, les processus de sous-titrage ont évolué rapidement sur le plan technique, mais les traductions sont parfois de moindre qualité, comportent des fautes d’orthographe, des anachronismes, des lacunes, etc. à cause du peu de temps dont disposent les traducteurs pour effectuer les sous-titrages. Nous pouvons à ce titre mentionner les DVD français des films La vie de Brian (Life of Brian), de Terry Jones (1979) et Frères d’armes (Band of Brothers) de Steven Spielberg (2001) dont les sous- titres sont truffés de fautes d’orthographe, par exemple. Les premières victimes de cette baisse de qualité sont les œuvres mais aussi les spectateurs (Cornu, 2008 : 15).

3. Typologie de la traduction audiovisuelle

3.1. Différentes formes de traduction audiovisuelle et leur utilisation

Yves Gambier distingue treize formes de traductions audiovisuelles (Gambier, 2004 : 2) :

- La traduction du scénario d’un film qui ne sera pas éditée ;

- Le sous-titrage intralinguistique, qu’il s’agisse du télétexte pour les sourds et les malentendants, des sous-titres à usage didactique ou des sous-titres utilisés pour le karaoké ;

- Le sous-titrage interlinguistique, qui implique la traduction d’une langue source vers une langue cible ;

- Le sous-titrage direct et en temps réel, lors d’une audition par exemple ; - Le doublage ;

- L’interprétation, simultanée, consécutive ou différée ; - Le voice-over ou demi-doublage (voix-off) ;

- Le commentaire, qui permet d’ajouter ou d’enlever des informations, et de synchroniser la voix avec les images plutôt qu’avec le son original qui est supprimé ; - La narration, qui est préparée puis lue par un journaliste ou un acteur pendant la

projection ;

(16)

- Le surtitrage, qu’on utilise au théâtre et à l’opéra et qui consiste à projeter des sous- titres sur un écran au-dessus de la scène ;

- La traduction à vue à partir d’un script de la langue originale ; - L’audio-description pour aveugles et malvoyants ;

- La production multilingue, où chaque acteur joue dans sa langue avant que l’ensemble ne soit doublé en une seule langue. La production multilingue s’apparente à la localisation, dont nous donnerons la définition un peu plus loin.

Le sous-titrage intralinguistique n’est pas réellement considéré comme de la traduction : on y ajoute des informations paralinguistiques comme les bruits extérieurs, les coups frappés à la porte, les bruits de moteur, etc. Il a plutôt une valeur didactique.

Le sous-titrage interlinguistique est réalisé, sur le plan technique, par un adaptateur dialoguiste. Ce dernier doit posséder les mêmes compétences qu’un sténotypiste2, car il doit pouvoir retranscrire les dialogues à la vitesse à laquelle ils sont prononcés. La principale contrainte à respecter dans le sous-titrage est le temps imparti à la lecture des sous-titres. Le travail de l’adaptateur dialoguiste consiste donc à condenser au maximum les dialogues tout en préservant le sens, ce qui n’est pas tâche aisée et qui fait dire à Paul Memmi que le sous-titrage est « l’art du biais, de la chute, de l’aphorisme et de l’incise » (Memmi dans Le Nouvel, 2007 : 50). Pour ce faire, le traducteur / adaptateur possède une transcription écrite des dialogues, et va proposer une traduction qu’il insérera dans une grille, en veillant à respecter la règle d’un sous-titre par plan. (Le Nouvel, 2007 : 51).

Le doublage peut se faire soit en synchronie labiale (lorsque les lèvres des acteurs figurent en gros plan) ou en synchronie temporelle (les lèvres se voient de loin seulement, ce qui permet plus de souplesse dans la traduction). Le doublage se fait en quatre étapes, à savoir :

- détection, au cours de laquelle le texte original correspondant à l’image est transcrit sur une bande de pellicule, la bande rythmo3, sur laquelle des symboles indiquent les mouvements des lèvres des acteurs, la place du locuteur, la nature des plans, les noms des personnages et la numérotation des séquences ;

- dialogue, établi par le traducteur-adaptateur dans la langue cible, qu’il reporte sur la bande en s’aidant des symboles buccaux mentionnés par le détecteur, pour une meilleure

2 Un sténotypiste est une personne qui pratique la sténotypie, une technique de transcription mécanique de la parole à l'aide d'une sténotype, une machine qui permet de transcrire la parole sous une forme abrégée avec une rapidité supérieure à celle de la sténographie (Trésor de la langue française, http://atilf.atilf.fr/).

3 Abréviation de bande rythmographique : bande de 35 mm non émulsionnée sur laquelle le détecteur codifie l’image et le son du film. Ensuite, l’auteur écrira l’adaptation des dialogues originaux sur cette même bande. Enfin, cette bande sera dédoublée sur une bande de celluloïd transparente qui défilera en bas de l’écran. C’est cette bande que les comédiens du doublage liront lors de l’enregistrement du dialogue (Le Nouvel, 2007 : 78).

(17)

synchronisation (l’adaptation des dialogues doit respecter les contraintes suivantes : longueur de l’énoncé source, débit syllabique, répartition des ouvertures, des fermetures et des pauses liées aux mouvements des lèvres du locuteur et de la position du locuteur dans le champ) ;

- l’enregistrement, qui se fait sous la direction d’un directeur artistique ;

- le mixage, qui permet l’équilibrage des sons en fonction de l’image et des critères de localisation qu’elle impose (Yvane, 1996 : 136). Afin que le défilement de la bande son soit synchrone avec l’image, la bande rythmo défile huit fois moins vite que la bande image (Le Nouvel, 2007 : 20).

Le voice-over a cela de particulier que la lecture de l’adaptation des dialogues par le comédien se fait par-dessus les dialogues originaux. Cette technique est souvent employée dans les documentaires et les entretiens télévisés (Le Nouvel, 2007 : 52).

L’audio-description est un procédé qui date du début des années 1980 et a été mis en place pour les aveugles et les malvoyants. Il consiste à insérer, entre les dialogues, la description audio des images d’un film. L’auteur de l’audio-description a donc pour mission de décrire l’action du film, afin de permettre au spectateur malvoyant de s’immerger dans l’ambiance et d’éprouver les mêmes émotions qu’un spectateur voyant (Le Nouvel, 2007 : 52).

3.2. Avantages et inconvénients respectifs du doublage et du sous-titrage Les formes de traduction audiovisuelle les plus couramment utilisées sont le doublage et le sous-titrage. Le doublage filmique présente l’avantage de protéger les langues nationales des pays importateurs, mais il y a toujours un risque d’altération de l’énoncé original. Le doublage permet de rendre l’œuvre cinématographique accessible à un plus large public que l’œuvre qui est sous-titrée, car il sollicite moins le spectateur.

Le sous-titrage exige quant à lui une activité de la part du spectateur, qui doit pouvoir lire deux lignes de sous-titres en quatre à six secondes, soit le temps estimatif moyen pour assimiler l’information contenue dans deux lignes de sous-titres, si une ligne comprend entre 35 et 37 caractères. Une ligne de sous-titres peut en comprendre entre 24 et 37, la moyenne se situant entre 28 et 32 caractères (Becquemont, 1996 : 149). Pour parvenir à respecter ces contraintes, le traducteur-adaptateur doit apprendre à ne pas tout traduire, et garder à l’esprit que l’essentiel du sens ne se trouve pas toujours dans les dialogues. Par exemple, il faut éliminer les informations secondaires, comme tout ce qui relève de la communication phatique, c’est-à-dire le langage qui sert seulement à établir et maintenir la conversation, ainsi que les interjections, les marques de politesse, les appellations par les noms propres des personnages, etc. Puis, il faut que le traducteur- adaptateur sache hiérarchiser les informations restantes.

(18)

Dans un film qui présente une abondance de dialogues, il peut arriver que le spectateur ait tant de sous-titres à lire qu’il ne puisse plus regarder les images. Cela est souvent le cas dans les films dits « littéraires », comme les comédies de Woody Allen, ou des films non littéraires dont les dialogues sont très riches et le montage très vif. Enfin, il y a un antagonisme entre lecture de l’image et lecture des sous-titres. Pour effectuer ces deux types de lecture, l’œil humain doit adopter des attitudes opposées. En ce qui concerne les Européens et les Indiens, la lecture du sous-titre s’effectue horizontalement et de gauche à droite ; pour un Arabe, c’est horizontalement et de droite à gauche ; enfin, pour un Chinois, c’est verticalement (de haut en bas) et de droite à gauche. La lecture de l’image n’obéit, elle, à aucune convention : l’œil balaie l’image en tous sens, en fonction des mouvements internes à l’image et des personnages présents à l’écran. Ainsi, la lecture des sous-titres et la lecture de l’image se superposent sans coïncider (Cornu, 1996 : 163). Pour conclure, nous pouvons citer Simon Lacks :

Le but suprême d’un sous-titrage est d’assurer, tout le long du film, un parfait équilibre visuel, auditif et psychologique entre la parole et l’écrit, et de créer chez le spectateur une plénitude de perception telle qu’il en ait l’illusion de tout comprendre sans lire les sous-titres (Lacks cité d’après Cornu, 1996 : 163).

Ainsi, le traducteur audiovisuel doit pouvoir se rendre invisible, puisqu’un bon sous-titrage est un sous-titrage qui ne se voit pas, qui donne l’impression au spectateur de suivre le film sans lire les sous-titres. Nous remarquons les sous-titres seulement lorsqu’ils nous paraissent fautifs.

Nous venons de définir quelques modes de traduction audiovisuelle et leur utilisation dans les médias audiovisuels aujourd’hui. Cet aperçu des différents modes de traduction audiovisuelle nous a permis de constater que la TAV ne comprend pas seulement le doublage et le sous-titrage, même si ce sont les formes les plus courantes.

Cela nous sera utile dans l’analyse qui va suivre, puisque notre étude du film se fondera sur sa version sous-titrée ; ainsi, lors de la critique que nous ferons des séquences du film et de certains dialogues, nous serons mieux à même de commenter les sous-titres de ces différents passages.

Auparavant, nous devons à présent définir le concept de communication, qui comprend deux aspects, la communication verbale et la communication non verbale, puisqu’il est la clé de voûte de l’œuvre de Coppola.

(19)

Avant de procéder à l’analyse du film à proprement parler, nous souhaitons définir la notion de communication, puis introduire certaines considérations culturelles concernant les civilisations japonaise, américaine et française en matière de communication non verbale. Mieux appréhender la notion de communication et connaître les différences qui existent entre ces cultures dans la façon de communiquer nous permettra par la suite de mieux interpréter l’origine des problèmes de communication qui sont introduis par Sofia Coppola dans ce film.

La communication verbale : la langue

1.1. La traduction dans la communication multilingue

La communication, c’est d’abord « le fait de communiquer quelque chose à quelqu’un, de lui faire part de, de lui donner connaissance de, par relation plus ou moins directe avec le destinataire4 ». Pour une meilleure définition de la communication, nous avons consulté le Dictionnaire encyclopédique des sciences de l’information et de la communication, dans lequel Lamizet et Silem donnent la définition suivante :

Action d’établir une relation avec quelqu’un, ou de mettre quelque chose en commun avec une autre personne ou un groupe de personnes, et résultat de cette action.

Étymologiquement, communiquer c’est rendre commun (Lamizet et Silem, 1997 : 120).

La communication englobe à la fois le processus et le résultat de ce processus. Du fait de la mondialisation de l’économie et des enjeux en termes de localisation que ce phénomène suscite, l’internationalisation de la communication « a des conséquences directes sur les langues et sur le processus de traduction dans son ensemble » (Guidère, 2008 : 10).

Voyons à présent quel est le rôle de la traduction dans la communication multilingue. Le traducteur est avant tout un communicateur, selon Guidère. Nous avons vu tout à l’heure, lors de notre présentation de la traduction audiovisuelle, que le traducteur audiovisuel est aussi un adaptateur. Ainsi les notions de communication et d’adaptation se trouvent au cœur du processus de traduction, dans le cas de la traduction des médias audiovisuels notamment, mais pas uniquement. Selon que le traducteur souhaite adapter au public cible le support qu’il traduit, ou au contraire proposer une traduction normalisée, il va procéder différemment. Nous n’avons pas eu l’occasion de comparer les versions françaises sous-titrées de Lost in Translation destinées au public

4Trésor de la langue française, http://atilf.atilf.fr/.

(20)

français, au public suisse, au public belge et au public canadien, mais nous pouvons d’ores et déjà imaginer qu’elles diffèrent en plusieurs points. Pour ne citer qu’un seul exemple, nous verrons au chapitre III que le titre, Lost in Translation a été traduit par Traduction infidèle au Canada, alors qu’il n’a pas été traduit pour le public français ni pour le public suisse.

Quelle que soit la stratégie de traduction adoptée, la mission du traducteur- communicateur demeure toujours de faciliter la communication multilingue, qui est le fait de communiquer en plusieurs langues, qu’elle soit interculturelle ou au sein d’une même culture multilingue. Selon Mathieu Guidère, la traduction « rend possible une communication multilingue respectueuse de la diversité linguistique et culturelle » (Guidère, 2008 : 110). Observons plus en détail cette notion de communication interculturelle, qui fait appel au langage, certes, mais ne s’y limite pas.

1.2. Le langage dans la communication interculturelle

Avant toute chose, nous souhaitons rappeler la différence entre langue et langage, afin d’éviter toute confusion dans la partie qui va suivre. Ferdinand De Saussure insiste énormément sur cette distinction. Dans son Cours de linguistique générale, il établit que le langage est la faculté qu’a l’être humain de communiquer, tandis que la langue n’est qu’une partie du langage ; elle est « à la fois un produit social de la faculté du langage et un ensemble de conventions nécessaires, adoptées par le corps social pour permettre l’exercice de cette faculté chez les individus » (De Saussure, 1990 : 25).

Examinons le lien qui existe entre la culture et le langage.

La culture, selon le Trésor de la langue française, est la « fructification des dons naturels permettant à l’homme de s’élever au-dessus de sa condition initiale et d’accéder individuellement ou collectivement à un état supérieur 5». En d’autres termes, c’est un

«travail assidu et méthodique (collectif ou individuel) qui tend à élever un être humain au- dessus de l'état de nature, à développer ses qualités, à pallier ses manques, à favoriser l'éclosion harmonieuse de sa personnalité6 ». Ainsi, la culture est ce qui caractérise l’être humain et permet de distinguer les différents peuples. Nous examinerons plus loin la définition de la culture selon Richard Lewis et la façon dont il classifie les différentes cultures en fonction de leurs modes de communication. Notons déjà qu’il existe deux grandes conceptions de la culture, la « tendance particulariste », qui veut qu’il n’y ait pas une seule culture mais plusieurs cultures au sein d’un même pays, et la « tendance universaliste », qui au contraire valorise l’unité de la culture humaine (Guidère, 2008 : 105). Selon que nous optons pour la première ou la seconde tendance, la démarche de communication sera différente.

5Trésor de la langue française, http://atilf.atilf.fr/.

6Ibid.

(21)

Observons à présent ce qui lie la langue et la culture, et ce qu’est la communication interculturelle.

Ladmiral et Lipiansky donnent la définition suivante de la communication interculturelle :

Par communication interculturelle, il faut d’abord entendre les relations qui s’établissent entre personnes ou groupes appartenant à des cultures différentes. C’est le fait relationnel qui nous intéresse ici, même s’il entraîne avec lui tout un arrière-plan de représentations, de valeurs, de codes, de styles de vie, de modes de penser propres à chaque culture (Ladmiral et Lipiansky, 1989 : 11).

Il est incontestable que la langue constitue une part fondamentale de la culture.

Aussi langue et culture sont-elles indissociables. Deux théories s’affrontent à ce sujet. La première considère que la langue influence la culture, la seconde qu’elle en est le reflet (Ladmiral et Lipiansky, 1989 : 97). De leur côté, Ladmiral et Lipiansky insistent sur l’importance de la langue dans la culture, faisant valoir que le langage est « l’agent fondamental de la socialisation de l’individu et de son intégration à la culture (Ladmiral et Lipiansky, 1989 : 95) ». Ils ajoutent que le langage, non seulement caractérise les individus, mais différencie les individus les uns des autres :

[…] langage et représentation sont des dimensions, et peut-être les plus importantes, sur lesquelles s’édifient les identités collectives. Car c’est dans le discours que le groupe trouve une formulation de son unité et une image de son identité, par différentiation avec d’autres groupes (Ladmiral et Lipiansky, 1989 : 95).

Par ailleurs, il faut garder à l’esprit qu’une même langue peut être parlée dans des zones géographiques appartenant à des cultures très différentes. C’est là une réalité surtout sensible pour le français, l’anglais et l’espagnol, du fait de la colonisation. Ainsi, le film que nous allons étudier a été tourné en anglais, mais il s’agit de l’anglais américain, qui est différent de l’anglais britannique. Nous reviendrons sur certaines caractéristiques en matière de communication dans la culture américaine lorsque nous examinerons la théorie d’Edward T. Hall au sujet de la communication non verbale.

Il apparaît ainsi que le langage n’est pas seulement un outil de communication, mais représente une composante de la société « où se situent les valeurs et se fondent les pratiques collectives » (Greimas cité d’après Ladmiral et Lipiansky, 1989 : 100). Le langage permet de mieux cerner la culture à laquelle il se rapporte, il en est le reflet. De même, lorsqu’un individu veut établir la communication avec des personnes de cultures différentes de la sienne, le premier obstacle qu’il rencontre réside dans le fait que leur culture n’est pas la sienne, qui demeurera toujours sa référence. Pour parvenir à s’ouvrir à une autre culture, nous expliquent Ladmiral et Lipiansky (1989 : 135), l’être humain va devoir apprendre à se décentrer et à cesser de regarder le monde en le comparant systématiquement à son univers de référence, mais en essayant d’adopter un point de vue altérocentré, par opposition au point de vue ethnocentré qui le caractérise habituellement.

(22)

D’où vient cet ethnocentrisme qui caractérise l’homme et pose tant d’obstacles à la communication interculturelle ? Dans son essai intitulé Race et histoire, Claude Lévi- Strauss explique les origines de l’ethnocentrisme. Par nature, l’homme a une tendance à rejeter toute culture qui n’est pas la sienne, à nier la diversité culturelle. Dès qu’il se trouve confronté à une autre culture, il la qualifie de « sauvage » ou de « barbare ». Lévi- Strauss ajoute que la notion d’humanité, qui tente d’abolir ces différences, est très récente (Lévi-Strauss, 1987 : 21). Pendant très longtemps, cette notion était inconnue de nos civilisations. Au cours de ses études, Lévi-Strauss a pu constater que, dans certaines civilisations

l’humanité cesse aux frontières de la tribu, du groupe linguistique, parfois même du village ; à tel point qu’un grand nombre de populations dites primitives se désignent d’un nom qui signifie « hommes » […] impliquant ainsi que les autres tribus, groupes ou villages ne participent pas des vertus – ou même de la nature – humaines, mais sont tout au plus composés de « mauvais », de « singes de terre », ou « d’œufs de pou » (Lévi-Strauss, 1987 : 21).

Ainsi, tout être humain, dès lors qu’il appartient à un groupe socioculturel, fait preuve d’ethnocentrisme. Il met constamment en opposition le groupe auquel il appartient et « les autres », « les étrangers ». Il faut noter toutefois que la vision stéréotypée que l’être humain peut avoir à l’égard de « l’étranger » n’est pas toujours négative, elle est même parfois très positive. Le goût de l’être humain pour l’exotisme (étymologiquement

« extérieur à soi »), en particulier le tourisme, en est l’illustration (Ladmiral et Lipiansky, 1989 : 140). Cependant, cette ouverture à l’autre ne dure que le temps d’un voyage.

Pour pouvoir s’ouvrir durablement à une culture différente de la sienne, l’être humain doit donc apprendre à se décentrer et à accepter l’autre. Toutefois, Ladmiral et Lipiansky soulignent l’idée que

toute tentative véritable de communication interculturelle peut apparaître comme une démarche paradoxale. Elle suppose que celui qui s’y engage reconnaisse à la fois l’étranger comme semblable et comme différent (Ladmiral et Lipiansky, 1989 : 141).

Pour ce faire, l’être humain doit donc accepter que celui qui se trouve en face de lui n’ait pas les mêmes modes de fonctionnement que lui, les mêmes points de vue, le même système de valeurs. En cela, il doit admettre que l’autre est différent. Mais il doit aussi reconnaître que celui qui est en face de lui est un homme comme lui et appartient donc à la même espèce. En cela, il doit admettre que l’autre est aussi son semblable.

C’est seulement lorsqu’il aura admis ces deux postulats que l’homme pourra raisonnablement espérer parvenir à nouer le contact avec l’autre et, ainsi, à établir la communication. Cela est d’autant plus difficile de nos jours que deux courants de pensée s’affrontent. D’une part, nous assistons à un brassage socioculturel de plus en plus important, dans la mesure où un plus grand nombre d’entre nous peuvent voyager et ainsi aller à la rencontre de l’autre. D’autre part, subsiste un « égocentrisme national » (Ladmiral et Lipiansky, 1989 : 144) qui fait que nous avons tous tendance à croire, inconsciemment, que notre culture est supérieure aux autres. Ainsi le poids de l’identité

(23)

culturelle constitue-t-il un obstacle à la communication interculturelle. De même, Ladmiral et Lipiansky mettent en exergue le rôle de l’identité individuelle dans le processus de communication. En effet, pour parvenir à établir la communication avec quelqu’un, nous devons d’abord savoir qui nous sommes. Les premiers échanges entre deux personnes commencent presque toujours par « Qui suis-je ? Qui es-tu ? ». C’est ce qui permet à Ladmiral et Lipiansky d’affirmer que

c’est lorsque je suis suffisamment assuré dans mon identité que je peux prendre le risque de l’exposer dans la communication où elle peut être remise en cause, ébranlée ou modifiée (Ladmiral et Lipiansky, 1989 : 146).

Nous verrons plus loin quels sont les problèmes de communication que rencontre Charlotte, l’héroïne de Lost in Translation, notamment avec son mari. Lorsqu’elle se trouve dans la chambre de Bob (séquence 3), et que ce dernier lui explique “The more you know who you are, the less you let things upset you” (« Plus on apprend à se connaître, et moins on se sent vulnérable »), Charlotte lui répond, désorientée “I don’t even know what I am supposed to be” (« Je ne sais même pas qui je suis censée être »).

Ainsi, la méconnaissance de sa propre identité constitue pour Charlotte un obstacle à la communication avec autrui.

Nous venons de voir que l’identité culturelle et l’identité individuelle sont des éléments essentiels qui vont permettre ou empêcher la communication interculturelle. En tant que principal élément constitutif de cette identité, la langue est le premier obstacle à la communication entre les peuples. Dans une situation de rencontre avec une personne d’une autre culture, nous expliquent Ladmiral et Lipiansky, nous nous donnons en représentation, de sorte que la situation de communication s’apparente presque à du théâtre (Ladmiral et Lipiansky, 1989 : 156). Dans une telle situation, font-ils valoir,

la parole devient une stratégie de séduction ou de pouvoir ; elle se cherche des adversaires et des supporters ; elle est exhibition plus que communication (Ladmiral et Lipiansky, 1989 : 156)

Ainsi, Ladmiral et Lipiansky expliquent que les échanges verbaux dans une telle situation de communication ne sont pas authentiques. Ce qui ressort de ces échanges, soulignent-ils, c’est le besoin de s’affirmer face à l’autre et de se différencier de lui, par crainte de perdre sa propre identité.

Nous venons de voir que la communication, qu’elle ait lieu entre des individus ou des groupes de personnes (groupes socioculturels, par exemple), est avant tout verbale, c’est-à-dire qu’elle passe en premier lieu par le langage. Nous avons vu en quoi celui-ci peut être tantôt un facilitateur de la communication et tantôt un obstacle à celle-ci.

Nous aimerions à présent aborder la notion de communication non verbale et examiner les théories d’un anthropologue puis d’un linguiste à ce sujet, afin de mieux aborder par la suite ces deux aspects de la communication dans l’analyse du film qui nous intéresse.

(24)

La communication non verbale : kinésique et proxémique

La communication non verbale, expliquent Lamizet et Silem, correspond à

la communication entre individus réalisée par tout moyen, autre que la langue parlée ou écrite. Elle comprend : la communication faciale (expression du visage, mouvement des yeux…), la communication gestuelle, la communication gustative, la communication olfactive, communication posturale (attitudes), la communication proximale, la communication tactile (Lamizet et Silem, 1997 : 138).

Lorsque nous analyserons en détail des séquences du film, nous reviendrons plus spécifiquement sur les définitions de kinésique et de proxémique selon Edward T. Hall.

Pour le moment, donnons-en simplement une définition générale, là aussi en se fondant sur le Dictionnaire de Lamizet et Silem. La kinésique, expliquent-ils, est la « théorie qui étudie l’ensemble des signes comportementaux émis naturellement ou culturellement » (Lamizet et Silem, 1997 : 333). Ces signes du comportement regroupent donc les expressions du visage, les gestes des bras et des mains, la position du corps, les différentes postures que nous adoptons, etc. La proxémique est quant à elle la

« discipline issue de l’ethnologie qui a pour objet les espaces et la manière dont ils sont gérés et font sens, au niveau interpersonnel et interculturel » (Lamizet et Silem, 1997 : 458). Il s’agit donc de la façon dont l’être humain se comporte dans l’espace.

À travers l’observation de la théorie de Hall en matière de kinésique et surtout de proxémique, nous voulons souligner que ces comportements diffèrent selon les individus, mais aussi selon les cultures.

2.1. La kinésique et la proxémique selon Hall

Pour commencer concernant la kinésique, Hall a observé que certains signes sont universellement reconnaissables, comme le fait de lever le pouce en ayant le poing fermé, pour signifier que tout va bien. Par contre, si, lorsqu’un occidental remue la tête d’un côté et de l’autre, cela signifie « non », ce même geste veut dire « oui » pour un Japonais, par exemple. Ces différences de signification entre les cultures américaine et japonaise seront à l’origine de certaines incompréhensions entre les personnages de Lost in Translation.

La proxémique, qui est le rapport que l’homme entretien avec l’espace qui l’entoure, « dépend des rapports interindividuels, des sentiments et activités des individus concernés » (Hall cité d’après Petit, 2008 : 103). Ainsi, non seulement la proxémique dépend des individus, mais elle va aussi dépendre des cultures :

Toucher les gens, orienter sa respiration dans leur direction ou en tâchant de les éviter, les regarder en face ou éviter leurs regards, se tenir si près d’eux que l’ajustement visuel devient impossible, tels sont des exemples de comportements proxémiques qui peuvent être parfaitement convenables dans une culture et tout à fait tabous dans une autre (Hall cité d’après Petit, 2008 : 103).

Au cinéma, la proxémique ne se réfère pas seulement à la distance qui existe entre les personnages, mais aussi à celle qui sépare les personnages de la caméra (Journot, 2004 : 40).

Références

Documents relatifs

To reach very low-level currents, we have to acquire the drift of the transistor drain current over very long time, keeping applied biases on the transistor (except on the

The stability issue in inverse coefficients problems stated in an infinite cylindrical waveguide is addressed in [BKS, CKS, CKS1, CS, KKS, Ki, KPS1, KPS2], and a log-log type

num et la commissure antérieure.. Celles-ci ont pour but de mettre en évidence la fonc- tion de suppléance compensatoire de la commissure blanche an- térieure

L'atelier "Chemins d'Ecriture" dans le cadre du Centre d'Accueil Thérapeutique de Nogent-sur-Marne, réunit une fois par semaine des personnes en difficulté avec le

Equipe du CR.DOC/IFPS – DL 10/01/2018 1 L’Institut est géré par le CHU et doté d’une subvention de fonctionnement du Conseil Régional de Bourgogne

http://benjamin.dautrif.free.fr/IMG/pdf/Cadre_de_reference_soins_relationnels.pdf> (consulté le 30/01/2018) Centre pour la santé mentale en milieu de travail, Le

L’Institut est géré par le CHU et doté d’une subvention de fonctionnement du Conseil Régional de Bourgogne

Equipe du CR.DOC/IFPS – CB / DL 24/04/2020 1 L’Institut est géré par le CHU et doté d’une subvention de fonctionnement du Conseil Régional de Bourgogne