• Aucun résultat trouvé

À la base du structuralisme se trouve la recherche de points de com- paraison entre langues, issue des grammaires comparées. Que ces langues soient séparées par l’espace, le temps ou les deux, la méthode consiste en la recherche de stabilités entre figures d’expressions et idées véhiculées (par exemple le proto-morphème pe- dans les diverses expressions de «pied» et de ses dérivés dans les langues indo-européennes).

La grande idée de Saussure [56] fut donc de considérer dans ce cas la na- ture de l’élément de base de la comparaison. Reconnaissant la langue comme système, il exprime que c’est la présomption de connaissance de ce dernier qui permet d’aboutir à l’identification de ses constituants (et donc de com- mencer véritablement la description).

Même si l’on isole le signe dans un schéma de relations entre ses parties (signifié et signifiant), il faut toujours considérer que l’élément est indisso- ciable du tout systémique auquel il appartient et qu’il constitue. L’impor- tance n’est donc pas seulement portée sur la nature et la signification des relations entre les parties du signe, mais surtout sur les relations entre les signes.

Un autre exemple de cette difficulté réside dans la notion même de pa- radigme. Toujours dans le cadre des comparaisons entre langues, on doit identifier des classes de comparaison pour les termes. Par exemple, pour identifier le «sens» du préfixe dé-, il faut considérer un ensemble de termes comme défaire, démonter, démolir, etc. Bien des classes de comparaison sont pourtant disponibles pour chacun de ces termes, comme faire, refaire, dé- faire, mais c’est avant tout la présomption de l’objet à mettre en évidence, et du rôle qu’il joue dans le système de la langue qui détermine les effets locaux utilisés pour mettre en évidence sa nature et même son existence.

Quand nous énonçons le terme de présomption, il faut en fait avouer que l’on s’intéresse à l’identité de l’élément. Plus qu’une évidence, cette iden- tité doit en fait être construite. Les relations paradigmatiques qu’entretient une unité signifiante se basent sur son identité, mais en fait elles la forment par là-même. Un mot (comme signification), par exemple, va pouvoir être classé dans diverses classes sémantiques (et supporter des relations au sein de celles-ci) parce qu’il a été identifié, mais cependant ce sont les classes admises et les classes injustifiées (plus qu’impossibles, puisque l’on peut tou- jours s’amuser à regrouper un ensemble aléatoire de termes et les unifier par un contexte ou même un texte) qui vont construire ou peut-être simplement traduire cette identité. À un autre niveau, si l’on décompose cette entité à classer, c’est sur la base du partage d’un de ses composants avec d’autres entités que son appartenance à une classe sera justifiée. Le morphème ‘faire’ dans l’exemple précédent est «le même» dans tous les verbes énoncés, alors que d’autres composants y entretiennent des relations de différence (‘re’ et ‘dé’ par exemple). Ainsi, dans une approche formelle, un point de départ est nécessaire dans la description d’une unité sémantique (un signifié). Celle-ci peut n’être que partielle, comme l’identification d’une classe qui contient cette unité. À partir d’une spécification minimale, l’ensemble de la notion peut ainsi se construire, cette construction faisant partie d’un processus in- terprétatif. Ainsi, la fameuse notion de généricité - spécificité n’est donc qu’une conséquence de ces deux principes fondamentaux (identité et diffé- rence). L’organisation paradigmatique repose sur la notion de substitution, et suppose donc une identité de l’unité transposée à travers les contextes.

Cet apparent paradoxe n’a, en fait, pas tant d’hermétisme, si l’on consi- dère la double identité du «mot». La première est une identité de forme (une simple chaîne de caractères), la seconde une identité de contenu, du moins pour ce qui est des classes et des relations sémantiques.

Le sauvetage du TALN - C’est ainsi que nous pouvons espérer manipu- ler le sens via l’outil informatique. La machine manipulera de purs signifiants (suites de caractères), auxquels sont naturellement attribuées des relations inhérentes d’identité et de différence formelles. Le signifié ne sera donc capté qu’au prix de la mise en place de relations entre ces signifiants, en fait de paradigmes. Nous pourrons tout de même nous permettre de «confondre», du point de vue de la machine, ces deux notions, puisqu’une seule d’entre elles sera réellement manipulée. La notion de sémème (cf. infra) ne posera donc plus de problème lors de sa formalisation : elle sera considérée dans son autonomie comme étant le signifiant (permettant un pointage vers sa place

dans la chaîne syntagmatique), mais supportera la lourde notion de signifié quand elle sera intégrée dans une structure sémantique. De toute façon, la signification ne viendra pas de la machine, nous exigerons simplement que les manipulations qu’elle aura à effectuer soient en cohérence avec la vision de son utilisateur. L’acte interprétatif de mise en relation du signifiant avec le signifié ne relève que de l’humain.

1.2 Le problème du global et du local. L’alternative hermé- neutique

Reprenons tout de même un instant le paradoxe évoqué précédemment, et qui couvre bien plus de domaines (scientifiques ou non) qu’il n’y paraît. Pour le résumer à nouveau, disons qu’un élément signifiant fait partie d’un système qui lui donne sa signification, basée sur les relations qu’il entretient avec les autres entités, ces relations étant contraintes par la nature même de cet élément... on tourne en rond.

En quelque sorte, pour échapper à ce cercle vicieux (ou vertueux ?), force nous est de prendre parti pour une des deux considérations, du global ou du local. Quelques premiers indices sont que l’on s’occupe de langue natu- relle, que l’on veut traiter des textes, et que l’on a trop de respect pour la notion de sens pour attribuer une seule de ses occurrences à un texte donné, c’est-à-dire que l’on souhaite prendre en compte des données exté- rieures dans l’attribution du sens : «contexte»1, connaissances et intentions de l’interprète, etc.

Il n’y a donc plus de raison de faire durer le suspense : on donnera naturellement la primauté à la notion de globalité, et on couvrira même par la primauté la notion de détermination.

Mais pourquoi ? Naïvement, quand on approche un texte, on n’y verra qu’une suite de symboles, qui, seulement une fois interprétés, permettront d’atteindre une compréhension de l’ensemble. Cette vision est en fait par trop empreinte de la théorie de l’information, et du langage comme simple code à analyser. Le principal problème est en fait la difficulté d’attribuer une signification stable à un élément isolé. Les nombreux travaux sur la polysé- mie qui ravagent le TALN en sont une bonne preuve. Des systèmes d’une complexité effroyable sont développés pour résoudre des problèmes que ne rencontre aucun interprétant humain, puisque ce dernier ne considère pas (et ne peut d’ailleurs pas considérer, la plupart du temps) le terme polysé- mique de façon absolue (voir par exemple [64]). Mais ne sombrons pas dans

une critique trop facile. Les objectifs des outils de traitement qui se heurtent de plein fouet à la polysémie ne sont pas les nôtres, puisqu’ils tentent de parvenir à une compréhension automatisée, alors que nous nous contente- rons largement d’une interprétation assistée. L’approche formalisatrice est dès lors très différente, la polysémie étant rencontrée sur le chemin du calcul du sens, et la notion d’interprétation ne comporte pas de calcul.

Par contre, et comme nous l’avons vu au premier chapitre, il s’agit bien de l’objet texte qui se trouve en situation : avant d’être perçu comme une composition d’unités inférieures, le texte se voit déjà attribuer un ensemble de considérations. Sa situation sociale et historique, l’intention de l’individu qui l’aborde, sont attribuables prioritairement à la totalité du texte (et dans certains cas, avant même que celui-ci soit analysé). Par contre, ces considé- rations globales sur le texte peuvent être projetées sur ses éléments, pour s’y trouver justifiées, modifiées ou servir de base dans la découverte d’autres aspects.

D’un point de vue plus formel, la prise en compte de ces rapports de la globalité vers la localité nécessite des outils de description particuliers. La relation est en effet bien plus qu’une simple projection, puisque des phé- nomènes locaux peuvent également avoir des répercussions sur l’ensemble. Il nous faudra dès lors envisager des rapports bilatéraux, sans nous enfer- mer dans un dogmatisme purement globaliste. La première tâche sera alors de disposer d’un moyen d’expression compatible avec les deux niveaux. De plus, se limiter à deux niveaux (de façon grossière le mot et le texte) n’est pas non plus suffisant. La notion de localité, toute relative, peut s’étendre du morphème jusqu’au syntagme. Des travaux comme ceux de J. Kristeva [33, 34] n’hésitent pas à descendre jusqu’aux qualifications sémantiques des phonèmes pour appuyer des thématiques globales chères à la psychanalyse. Mais ces problèmes pourront être résolus par une souplesse accordée à l’iden- tité formelle des unités locales.

Un deuxième aspect à considérer dans notre approche a bien sûr trait à la simple et incontournable opérationnalité de tout système informatisé. Les principaux paradigmes de description sémantique acceptables dans un en- vironnement structuraliste se limitaient à l’expression de dépendances fonc- tionnelles entre entités lexicales, dépendances dont on regrette la stricte et rigide localité. L’alternative que nous sélectionnerons sera le principe de la microsémantique, ou description de la signification par des éléments séman- tiques inférieurs à l’unité lexicale. Cette description par définition locale nous semble en effet assez souple pour supporter le poids du global dont nous dé- sirons la charger, et de plus essentiellement pratique car manipulable par la machine. Le principe qui servira de liaison entre localité et globalité sera

la justification des entités locales par leur rôle dans des structures dont la zone d’influence n’est rien de moins que le texte. Le principe d’une inter- prétation sera donc la supposition de l’existence de telles structures, et leur actualisation par des unités locales. D’un point de vue informatique, ceci n’a rien que de très connu, puisqu’il se fait une différence simple entre structure déclarée et instanciée. Aborder un texte quelconque sous la lumière d’une symbolique particulière, par exemple, commencera par la mise en place de structures générales, avec de grands thèmes entretenant entre eux des rela- tions également stabilisées. Ces connaissances a priori permettent une mise en place de telles données globales avec un minimum de relations directes avec le texte (repérage de quelques mots ou expressions). Dès lors, un début de justification apparaît, non pas en ce qui concerne l’attribution ex-nihilo d’un trait à une unité linguistique, mais pour l’utilisation d’un tel trait en fonction des objectifs de l’interprétation. Par la suite, nous verrons comment ces attributions minimales permettent d’en repérer d’autres, et d’enrichir les structures du texte, et d’en repérer de nouvelles. Une interprétation sera donc un continuel aller-retour entre ces deux niveaux.

Dès lors, la question se pose quant à la nature de l’outil descriptif local, capable de supporter ces notions qualifiant le texte.