• Aucun résultat trouvé

Article pp.247-259 du Vol.44 n°2 (2003)

N/A
N/A
Protected

Academic year: 2022

Partager "Article pp.247-259 du Vol.44 n°2 (2003)"

Copied!
13
0
0

Texte intégral

(1)

Rubrique préparée par Denis Maurel

LI (Laboratoire d’informatique de l’Université de Tours) maurel@univ-tours.fr

Merrit Ruhlen, L’origine des langues (trad. P. Bancel), Paris, Éditions Belin, 1997, 287 p., ISBN 2701117577.

Jean-Louis Dessalles, Aux Origines du Langage (Une histoire naturelle de la parole), Hermès Science Publications, Paris, 2000, ISBN 2-7462-0119-4.

par Thierry Poibeau INaLCO/CRIM

Thierry.Poibeau@thalesgroup.com

La question de l’origine des langues a longtemps été taboue. Un article du Règlement Intérieur de la Société de Linguistique de Paris de 1866 (levé depuis mais toujours en vigueur implicitement) a en effet interdit de traiter de ce sujet. Il s’agissait, il y a près d’un siècle et demi, de mettre fin à toute une série de débats où la religion, la politique et les nationalismes l’emportaient le plus souvent sur la linguistique quand il ne s’agissait pas de pures et simples élucubrations de la part d’hurluberlus divers. Et, de fait, la question a largement été laissée de côté pendant près d’un siècle, aucun élément nouveau ne permettant de considérer la question autrement que sous la forme d’un faisceau d’hypothèses impossibles à valider. Ces dernières années, la question de l’origine des langues a pourtant été reprise par toute une communauté de chercheurs employant de nouvelles méthodes et de nouvelles données pour reconsidérer ce problème. Nous présentons ci-dessous deux livres : M. Ruhlen pose la question de

(2)

l’origine des langues tandis que J.-L. Dessalles se penche sur l’origine de la langue.

Ces études posent des problèmes fondamentaux sur l’origine des langues et du langage. Elles sont fondées sur des éléments nouveaux qui justifient le regain d’intérêt observé ces dernières années.

Merrit Ruhlen

Merrit Ruhlen, dans son livre L’Origine des langues offre une des contributions récentes les plus populaires de ce domaine. L’auteur a en effet su toucher un public relativement large grâce à un style alerte, prenant à parti le lecteur, lui faisant découvrir des rapprochements soi-disant évidents et faisant passer pour des grincheux ceux qui s’opposent à la thèse défendue, qui a pourtant sauté aux yeux de l’innocent lecteur ! Mais laissons là le procédé pour en venir au fond. Le livre de M. Ruhlen propose une langue originelle commune pour les différentes familles de langues identifiées par le monde. Cette thèse s’accompagne d’une simplification de la carte linguistique mondiale, en proposant des rapprochements entre plusieurs familles de langues actuellement considérées comme distinctes.

Cette thèse est bien évidemment contestée. Les principaux éléments pour le rapprochement entre langues éloignées sont des formes de surface très semblables pour plusieurs ensembles de mots du lexique courant. On sait qu’il s’agit là d’une méthode très insuffisante : il serait aisé de montrer que l’anglais est une langue latine sur la base de son lexique. Les phénomènes d’emprunt peuvent être très importants entre deux langues à un moment donné et brouiller leur histoire, les rendant fortement apparentées si on y jette un œil rapide que contredit l’étude la morphologie ou de la syntaxe. Cette rigueur est la base de l’étude des langues indo- européennes qui est avant tout fondée sur la mise en évidence de règles d’évolution phonétique et morphologique très précises. On sait cependant que des rapprochements sommaires, contestés d’abord, peuvent par la suite s’affermir au fur et à mesure que la connaissance des langues concernées progresse (c’est notamment le cas des travaux de J.H. Greenberg sur les langues africaines ou amérindiennes).

Il faut donc prendre des précautions en lisant le livre de Ruhlen. Les thèses exposées sont assurément aventureuses et le mode de narration de l’auteur peut renforcer ce sentiment d’élucubration scientifique. Il n’empêche qu’il s’agit d’un problème intéressant et crucial. Le matériel présenté est sans doute trop faible pour valider la thèse de l’auteur, mais elle mérite sans doute mieux que d’être balayée d’un revers de main. Les développements dans ce domaine valent d’êtres suivis, d’autant qu’ils sont assez largement corroborés, notamment par des études en génétique des populations (cf. les travaux de Cavalli-Sforza).

(3)

Jean-Louis Dessalles

Le livre de J.-L. Dessalles Aux Origines du langage propose un tableau très complet et cohérent de l’émergence de modes de communication aussi évolués que les langues humaines. Le livre est composé de 3 parties :

La première partie concerne la place du langage dans l’évolution de notre espèce. Cette partie revient sur plusieurs questions anciennes sur l’origine du langage : cette origine est-elle naturelle ou le fruit d’une création culturelle ? Le langage est-il propre à l’homme ou est-il partagé par les sociétés animales ? Le langage est-il le fruit d’une lente évolution et d’une complexification progressive ? etc. Toutes ces questions sont examinées de manière très complète, en examinant à chaque fois les matériaux apportés par les camps défendant les différentes thèses examinées. L’auteur montre souvent que la solution la plus évidente n’est pas obligatoirement la meilleure dans la mesure où elle ne prend pas en compte tous les paramètres en jeu. Concernant l’évolution du langage, il montre notamment qu’un double mécanisme a pu jouer : quelques changements brusques dus à des changements fondamentaux dans l’environnement des individus et une évolution plus lente quand la pression de l’environnement est moins forte.

Cette distinction amène l’auteur à proposer différents stades d’évolution du langage. La deuxième partie intitulée Anatomie fonctionnelle de la parole présente sous un jour nouveau différents niveaux de complexité du langage, allant des sons à la signification en passant par les règles d’agencement entre mots (syntaxe). L’auteur propose surtout un stade primitif de langage appelé proto-langage : à ce niveau, les mots réfèrent à des objets immédiatement accessibles, avec des possibilités d’abstraction fortement limitées. La communication porte sur des situations immédiatement observables où la notion de saillance est fortement mise à contribution. L’interprétation se fait par rapport à la situation courante, elle allie le geste, le regard et le son. Même si l’hypothèse d’un proto-langage n’est pas vraiment nouvelle, elle est particulièrement bien mise en évidence et illustrée par l’auteur, qui se fonde sur différentes situations, notamment des situations de communication enfantine ou de langage développé dans des communautés isolées.

La troisième partie intitulée éthologie du langage vise à examiner, par delà les particularités intrinsèques ou extrinsèques du langage, les véritables causes possibles de l’évolution du langage. L’auteur expose un paradoxe vis-à-vis des théories classiques de l’évolution : l’homme n’aurait aucun avantage à communiquer s’il s’agissait juste d’échanger des informations. En effet, cet échange aboutirait à une aide d’autrui alors que l’évolution est fondée sur l’idée de compétition. Cet apparent paradoxe peut être résolu si l’on prend en compte que l’échange de parole se situe dans le cadre d’un échange social. Il s’agit, de manière indirecte et parfois subtile, d’une façon d’acquérir un statut social privilégié ou non, où l’individu fait montre de sa capacité à analyser et à faire face à une situation. On peut imaginer assez facilement que la parole ait revêtu un caractère particulièrement important dans les

(4)

sociétés primitives (de même que dans nos sociétés modernes) : à savoir égal, il y a toujours une prime à celui qui sait communiquer.

Ces travaux posent malgré tout le problème de la preuve, au sens scientifique du terme. J.-L. Dessalles propose à plusieurs reprises de modéliser les données à traiter au moyen d’algorithmes génétiques. Ce type d’algorithme permet notamment d’étudier l’évolution de populations soumises à différents facteurs. Cette modélisation est particulièrement appropriée à des phénomènes dont on maîtrise largement les différents facteurs. Ainsi, la Naissance d’une langue chez les robots de F. Kaplan (Hermès) montre comment « des dynamiques collectives permettent la convergence vers des notions partagées, assurant progressivement l’émergence de systèmes (...) réguliers, (...) faciles à apprendre et à transmettre ». Mais le passage d’une population de robots à une population humaine soumise à de multiples facteurs extérieurs est problématique. Des facteurs perturbateurs naturels ou non peuvent être intervenus et semblent difficilement intégrables à des modèles informatiques. Le lecteur doit donc s’interroger afin d’évaluer la pertinence des modèles et des hypothèses proposées.

Ces livres posent ainsi des questions passionnantes, sur le plan linguistique bien sûr mais aussi sur les plans méthodologique et épistémologique. Les questions sont exposées de manière très pédagogique dans l’ensemble des livres passés en revue et les réponses suscitent les débats. On ne saurait donc que trop en conseiller la lecture à un large public, qu’il soit linguiste ou, tout simplement, scientifiquement curieux !

Ray Jackendoff, Foundations of Language – How Language Connects to the Brain, the World, Evolution and Thinking, Oxford University Press, 2002, ISBN : 0-19-827012-7.

par Alain Lecomte

Université Pierre Mendès-France, Grenoble Alain.Lecomte@upmf-grenoble.fr

“Foundations of Language”, de Ray Jackendoff, porte en sous-titre : “Brain, Meaning, Grammar, Evolution”. C’est dire l’ambition de l’ouvrage, qui se présente en fait comme étant plutôt destiné au grand public qu’aux chercheurs proprement dits, lesquels sont supposés connaître les travaux de Jackendoff repris ici. Ce livre ne fait pourtant pas doublon avec les précédents du même auteur, tant l’effort de synthèse conduit à une véritable somme en même temps qu’à la présentation cohérente de tout un point de vue sur l’étude scientifique du langage. Ce point de vue est mentaliste, ce qui ne surprendra pas ceux et celles qui connaissent les écrits antérieurs, et est fidèle aux positions de Chomsky depuis au moins Aspects, 1965.

(5)

La thèse fondamentale est que la structure [d’une phrase] est plus qu’une simple description à usage de linguiste ; elle doit être comprise comme

« psychologiquement réelle », c’est-à-dire traitée comme un modèle de quelque chose dans l’esprit du locuteur qui prononce ou interprète la phrase. A la suite de Chomsky et Fodor, Jackendoff reprend l’essentiel de la thèse fonctionnaliste : il s’agit de décrire les phénomènes cognitifs à un niveau intermédiaire entre les phénomènes conscients et le fonctionnement neuronal, au niveau de l’organisation fonctionnelle du cerveau. Afin d’éviter les confusions avec l’usage courant du mot

« esprit », il utilise volontiers le terme de « f-mind » ou « esprit-f », pour « esprit fonctionnel ». Cet esprit-f correspond en quelque sorte à une machine logique, distincte de la machine physique du cerveau tout en la prenant comme support de réalisation.

L’architecture de la faculté de langage

Là où la pensée de Jackendoff se distingue le plus de celle de Chomsky, c’est dans les considérations à propos de l’architecture du langage (thèses déjà exposées en particulier dans « The Architecture of the Language Faculty », MIT Press, 1997), qu’il conçoit comme parallèle. Face à la position chomskyenne orthodoxe qui affirme toujours la prééminence de la structure syntaxique par rapport à toutes les autres (sémantique et phonologique en particulier), Jackendoff considère en effet que phonologie, syntaxe et sémantique donnent lieu à trois systèmes qui se développent en parallèle même s’ils entretiennent des rapports qui lient entre elles les composantes d’une même unité tout au long du processus conjoint. Cette position est illustrée notamment en ce qui concerne la phonologie et la syntaxe. Elle va dans le sens de tous les travaux récents sur la prosodie qui mettent en évidence la non- conformité des syntagmes syntaxiques et prosodiques.

Concernant la sémantique, l’hypothèse de Jackendoff est qu’elle n’est pas

« dérivée » de la syntaxe mais est un système génératif indépendant, corrélé avec la syntaxe au travers d’une interface. Un rôle crucial sera donc dévolu à la notion d’interface, tant entre syntaxe et phonologie qu’entre syntaxe et sémantique, mais aussi entre phonologie et sémantique. Le lexique est un composant d’interface essentiel, mais le rôle formel des items lexicaux n’est pas d’être inséré dans les dérivations syntaxiques, il est plutôt d’établir la correspondance de certains constituants syntaxiques avec les structures phonologiques et conceptuelles.

La sémantique comme entreprise mentaliste

Comme déjà indiqué plus haut, un soin particulier est accordé à la défense du mentalisme dans le domaine de la sémantique. C’est là le nœud du livre et ce qui distingue son contenu des conceptions logicistes en matière de sémantique. Une théorie mentaliste du langage se heurte inévitablement à des difficultés. Comment en

(6)

même temps soutenir que la sémantique permet de relier les éléments du langage au monde et que ces derniers sont tout entiers dans l’esprit fonctionnel des locuteurs ? Ne pas adopter la voie du mentalisme serait pourtant aux yeux de Jackendoff

« réduire l’étude du langage à une simple description des langues existantes et celle de la Grammaire Universelle à un exercice de statistique sur les tendances de ces langues entre elles » en faisant fi de toutes les sources d’évidence en provenance de l’acquisition, de la génétique ou des dommages cérébraux. Finalement Jackendoff argumente en faveur d’une appartenance du « monde » lui-même à l’esprit fonctionnel, la question de la connection avec le monde extérieur devant être écartée puisqu’elle n’a de réponse que métaphysique. Il s’appuie pour cela sur une critique justifiée du réalisme des objets : quelle dénotation sommes nous capables de donner à des expressions comme « le Wyoming », « le Mississipi », « la distance entre New York et Boston » ? « Il peut y avoir des pancartes au bord de la route qui disent

« Welcome to Wyoming », mais ce ne sont pas elles qui font être le Wyoming ce qu’il est. C’est une entité construite de manière purement politique, ses frontières rectilignes étant définies par un acte stipulatif ».

En bref, il n’y a jamais de référence au monde sans que cela ne passe par une conceptualisation minimale : qu’un référent soit présent dans le monde en tant que conceptualisé est la condition nécessaire pour qu’un locuteur puisse référer. On notera ici au passage la compatibilité entre cette thèse et celles qui sont couramment en usage dans les problèmes de sémantique dynamique, en particulier dans la Discourse Representation Theory (H. Kamp).

Référence et vérité

L’étude de l’interface entre syntaxe et sémantique s’avère particulièrement nécessaire. Comme dans le cas des rapports avec la phonologie, où les systèmes de catégories ne coïncident pas (par exemple Mot, Clitique vs NP, N, VP…), il convient en effet, à un certain moment, de passer du système NP, VP, V, etc. au système dont les éléments sont prédicats, arguments, variable, quantifieur, etc. et où se résolvent des questions comme « quel argument pour quel prédicat ? », « quelle variable se trouve liée par quel quantifieur » ou bien « quoi modifie quoi ? ». C’est dans ce passage également que sont récupérés les traits sémantiques des entités, qui demeuraient invisibles tant qu’on en était à la syntaxe, et parmi eux, les traits ontologiques (situations, événements, lieux, directions, chemins, propriétés…). Ces catégories ontologiques jouent un rôle central dans le langage (en ce qu’elles peuvent aussi réaliser un pont avec la perception) et Jackendoff regrette que la logique classique tende à les escamoter (on lui fera remarquer toutefois que des théories plus récentes et plus riches que la logique des prédicats classiques, comme la théorie constructive des types de P. Martin-Löf – cf. A. Ranta « Type-Theoretical Grammar », Oxford UP, 1994 – en tiennent compte).

(7)

D’une manière générale, de nombreuses approches traditionnellement attachées à la sémantique vériconditionnelle peuvent (doivent ?) être reconstruites dans le cadre conceptualiste. La question centrale de la sémantique se trouve ainsi déplacée de

« qu’est-ce qui rend les phrases vraies ? » à « comment nous, humains, comprenons nous la langue ? ».

La conception de la référence est également bouleversée. Loin de n’être que l’application qui associe à des symboles leur dénotation dans le monde extérieur (conception bâtie d’après la théorie des modèles en logique), la référence repose sur un mécanisme complexe, comme le révèle l’exemple du déictique that (hey, look at that !) qui ne fonctionne qu’au prix de la construction d’un percept, structure cognitive qui contient nécessairement trois types de traits : descriptifs (taille, forme, localisation…), indexicaux (distinction fond/forme, donner au f-esprit un « quelque chose » auquel les traits descriptifs peuvent être liés) et liés à des valeurs (externe/interne, familier/nouveau, affectant/non affectant…).

Sémantique lexicale

Si Jackendoff reprend à son compte les analyses déjà anciennes de Gruber (1965), McCawley (1968) ou Lakoff (1970) quand notamment ceux-ci extraient un terme abstrait CAUSE en tant que composant significatif de nombreux verbes (cf. la célèbre analyse par McCawley du verbe tuer : [CAUSE [BECOME [NOT [ALIVE]]]]), il est important de noter que de telles décompositions ne sont pas censées donner le « sens » exact des mots dans l’acception naïve du terme, mais ce qui, de ce sens, est visible par la grammaire. Noter dans cet esprit la remarque de Grimshaw (1992) : “Linguistically speaking, pairs like [break and shatter](cf. en français : casser et fracasser) are synonyms, because they have the same structure.

The differences between them are not visible to the language.”

Pour l’essentiel, Jackendoff reprend de nombreuses analyses à Pustejovsky (“The Generative Lexicon”, MIT Press, 1998). Son apport essentiel concerne deux points : d’une part, le lien du lexique avec le système perceptuel et, d’autre part, la conception défendue de la construction des structures conceptuelles associées aux mots.

Une division majeure apparaît dans la structure de la signification entre deux systèmes : CS (structure conceptuelle) et SpS (structure spatiale). CS encode l’appartenance à une catégorie et la structure prédicat – argument alors que SpS encode la compréhension spatiale du monde physique – pas simplement l’apparence moment après moment, mais l’intégration au long du temps de la forme, du mouvement et de l’occupation de l’espace par les objets. SpS est « géométrique », mais n’est pas

« imagistique » au sens des percepts : elle n’encode pas des « tableaux » ou des

« statues dans la tête » (Jackendoff s’inspire ici du modèle 3D de Marr, assorti de la géonique de Biederman). SpS et CS sont relativement autonomes l’un par rapport à l’autre bien qu’ayant une interface contenant entre autres choses les relations de partie à tout, de localisation ou de causalité, mais selon l’auteur, les aspects grammaticaux du

(8)

langage ne font référence qu’à CS. SpS quant à lui encode les dynamiques, difficilement exprimables dans un système algébrico-logique comme CS (ainsi des différences entre marcher, courir, trotter, sauter).

Sémantique syntagmatique

Concernant la composition des unités lexicales au sein de la phrase, Jackendoff distingue composition simple et composition enrichie. Dans la composition simple (dont les trois mécanismes de base sont la substitution (d’un objet à une place d’argument), la modification et la lambda-extraction) rien n’est ajouté au matériel déjà présent dans les unités que l’on compose entre elles. Dans la composition dite enrichie au contraire, du matériel extérieur, non réalisé syntaxiquement, est rajouté : il s’agit de traiter notamment des exemples comme le fameux l’omelette au jambon est parti sans payer , ici résolu en supposant l’intervention d’un « bout » de structure invisible en syntaxe et qui correspondrait à « PERSONNE ASSOCIEE A », cf. « LA PERSONNE ASSOCIEE A l’omelette au jambon est partie sans payer ». C’est sur ces derniers points que la position de Jackendoff nous paraît la plus critiquable, elle consiste à trouver à tout prix une solution « grammaticale » à des questions qui, selon toute vraisemblance, ne ressortissent pas de la grammaire mais plutôt de la pragmatique, voire d’une théorie sémantique à la Hintikka (cf. « Game Theoretical Semantics », chapitre 6 du Handbook of Logic and Language, J. Van Benthem et A. Ter Meulen eds, North-Holland, 1997). De plus, comme nous le verrons plus loin, la conception proposée de la composition simple elle-même aurait beaucoup à gagner d’une formulation plus rigoureuse en termes de lambda-calcul.

Critique et discussion

Les critiques que nous formulerons seront essentiellement d’ordre technique.

Comme de nombreux linguistes de formation strictement générativiste, il semble que Jackendoff ignore l’usage d’outils qui conviendraient pourtant parfaitement à son entreprise, comme le lambda-calcul. Dans le chapitre 12 (« Phrasal Semantics »), il traite notamment des relatives (the man who Beethoven likes) en ces termes : « le deuxième argument de likes n’est pas satisfait de la manière normale par un objet direct, mais il l’est par le relatif who. D’autre part, la relative fonctionne comme un modifieur de man, mais la connecter à man comme un modifieur ordinaire serait incohérent : un événement par lui-même ne saurait rajouter davantage de spécification à man, au lieu de cela, une relative identifie un individu en vertu de sa participation à la situation qu’elle dénote. » Le deuxième argument de likes est ainsi compris comme l’individu lui-même dont on parle actuellement (qui se trouve modifié), d’où la nécessité d’une autre forme de composition simple à côté de la substitution et de la modification, c’est-à-dire le besoin d’avoir un moyen pour

« extraire » cet individu désigné, à la fois argument de likes et modifié par la relative.

(9)

La notation lambda est ici introduite, « who Beethoven likes » devenant : [Obλx [Ev

LIKE [Ob BEETHOVEN] [Ob x]]], sans que Jackendoff n’établisse un quelconque rapport avec le lambda calcul. Or, il apparaît nettement que : 1) cette expression est bel et bien un lambda terme ! (cf. λx LIKE (BEETHOVEN, x)) et que 2) si on tient au parenthésage typé, on peut la considérer comme un lambda terme typé, comme il est d’usage dans la tradition montagovienne1. On remarque alors que la sémantique d’une relative s’exprime d’une manière analogue à celle d’un modifieur ordinaire comme rouge : λx ROUGE(x), ce qui semble normal puisque une fleur rouge c’est une fleur qui est rouge. On obtient alors une simplification du modèle.

L’un des apports essentiels de Jackendoff semble être que de nombreux outils formels (logiques) peuvent être utilisés, à condition que l’on se débarrasse de la conception « valeurs de vérité » qui leur est en général attachée. De fait, certaines approches formelles (utilisables en TAL) ont été développées qui ne reposent pas principalement sur cette conception, en particulier toutes celles qui s’inscrivent dans le courant « intuitionniste » (incluant donc la théorie des types et la plupart des travaux en grammaire catégorielle). Elles reposent sur la thèse souvent attribuée conjointement à Brouwer, Heyting et Kolmogorov, selon laquelle le sens d’une expression (formule, phrase…) est non dans sa dénotation, mais dans sa preuve. Un calcul des preuves, voilà alors ce qui semblerait requis pour donner corps à l’idée de Jackendoff selon laquelle les structures conceptuelles n’ont pas de sémantique (sous- entendu : dénotationnelle), mais sont elles-mêmes la sémantique.

Conclusion

En conclusion, ce livre offre un panorama extrêmement riche concernant le point de vue mentaliste et cognitiviste en matière de linguistique. Les chercheurs en TAL y trouveront de nombreux arguments qui concernent certaines des questions fondamentales auxquelles ils sont confrontés : comment concevoir une architecture appropriée pour un système de traitement des langues ? quelle conception de la sémantique adopter ? la sémantique dite « logique » est-elle nécessaire ? quelle place accorder au lexique ? à la notion de référent discursif ? quelle articulation avec le perceptuel (dans le cadre notamment des approches multimodales) ? Ils pourront également à notre avis y puiser des idées qu’ils pourront ensuite traduire dans des formalismes opérationnels.

1. Certes, les deux expressions ne représentent pas tout à fait la même chose : le terme de Jackendoff est censé désigner l’individu x qui a été extrait de la représentation alors que le lambda terme représente la fonction qui, à cet individu, associe l’événement auquel il participe.

D’où la distinction des types, pour Jackendoff : Objet et pour le lambda calcul typé : <Obj, Ev>.

Dans le premier cas, le type est obtenu par stipulation par liage avec la partie syntaxique alors que dans le second, il est obtenu par inférence logique. Ceci dit, on ne voit pas très bien l’avantage que Jackendoff tire de cette stipulation, si en revanche on voit bien l’avantage qu’on pourrait tirer du lambda calcul : celui de représenter fidèlement le type d’une relative… qui est celui d’une propriété (donc d’une fonction) plutôt que celui d’un objet !

(10)

Philippe Blache, Les Grammaires de propriétés, Hermès Science Publications, 2001, 228 pages, ISBN : 2-7462-0236-0.

par François Trouilleux

ftrouilleux@yahoo.fr

Les objectifs annoncés des Grammaires de propriétés, sous-titré des contraintes pour le traitement automatique des langues, sont de « faire le point sur l’utilisation des contraintes en linguistique-informatique » et de « proposer un nouveau formalisme pour le traitement automatique des langues ».

L’ouvrage est organisé en trois chapitres principaux. Dans la première partie (Les théories linguistiques face aux contraintes), P. Blache examine trois théories linguistiques : GPSG, HPSG et la théorie de l’optimalité, avec un intérêt plus particulier pour l’usage qu’elles font des contraintes. On retiendra que celles-ci se manifestent sous des formes multiples : règles LP, restrictions de cooccurrence de traits, principes des traits de tête, etc., dans GPSG et/ou HPSG, filtrage des candidats output dans la théorie de l’optimalité. P. Blache propose également deux implantations de GPSG et HPSG dans le paradigme de la programmation par contraintes, occasion pour l’auteur d’insister sur la difficulté « de décrire et d’implanter l’analyse syntaxique dans ces théories comme un véritable processus de satisfaction de contraintes ».

Philippe Blache propose dans le chapitre central du livre (Présentation des grammaires de propriétés) un « nouveau formalisme pour le traitement automatique des langues », qu’il considère « exclusivement fondé sur la notion de contrainte ». Ce formalisme a été conçu à l’origine par Gabriel Bès, qui en a fait une description détaillée dans un long article paru en 19992. P. Blache en donne ici sa version, qu’il présente comme un « prolongement » de celle de Gabriel Bès, mais qui en fait ne s’en distingue pas sensiblement.

Le formalisme des propriétés consiste en un ensemble de formules (les propriétés) portant sur des catégories décrites en termes de structures de traits et qui, interprétées conjonctivement, caractérisent un langage. Sept types de propriétés sont définis : (i) constituance (alphabet du modèle chez G. Bès) : ensemble des catégories pouvant apparaître dans une suite du langage (désormais SL) ; (ii) unicité : catégories ne pouvant apparaître qu’une fois dans SL ; (iii) noyaux (ou obligation) : ensemble des catégories qui peuvent être noyau de SL (par définition, toute suite a un et un seul noyau) ; (iv) exigence : si un ensemble de catégories apparaît dans SL, alors un autre ensemble de catégories doit aussi y apparaître ; (v) exclusion :

2. Gabriel G. Bès. « La phrase verbale noyau en français », in Recherches sur le français parlé, vol. 15, p. 273-358, Université de Provence, 1999. Par la suite (Bès, 1999).

(11)

impossibilité de cooccurrence de deux ensembles de catégories dans SL ; (vi) linéarité : contraintes de précédence linéaire entre ensembles de catégories à l’intérieur de SL ; (vii) dépendance (fléchage chez G. Bès) : liens entre les catégories apparaissant dans les suites de L.

On peut voir dans ce formalisme une systématisation de la décentralisation de l’information initiée par le formalisme ID/LP de GPSG : les informations exprimées par un ensemble de règles ID seront exprimées par un ensemble de propriétés des types (i) à (v) ci-dessus. Conséquence de cette décentralisation : appartiennent au langage spécifié les suites qui satisfont toutes les propriétés, là où des règles de type ID sont interprétées disjonctivement.

On reconnaîtra au formalisme des propriétés deux grandes qualités : sa parfaite déclarativité et la souplesse de description qu’il permet, les propriétés étant indépendantes les unes des autres et véhiculant chacune une information très spécifique3. À ces deux caractéristiques, mises en avant aussi bien par P. Blache que G. Bès, P. Blache ajoute une troisième, qui est que « les grammaires de propriétés visent la description d’un input plutôt que sa grammaticalité », « changement de point de vue par rapport aux approches classiques » sur lequel nous reviendrons plus loin.

La dernière partie du livre (Implantation : l’analyse par contraintes) est consacrée à « l’utilisation des grammaires de propriétés pour l’analyse syntaxique automatique ». Philippe Blache propose plusieurs approches, dont la principale vise une analyse approfondie par un processus de satisfaction de contraintes. Le processus proposé est incrémental et de type « generate and test » : on considère toutes les suites possibles et on applique les contraintes sur ces suites (une technique assez proche de celle mise en œuvre dans la théorie de l’optimalité). Pour qui connaît l’article de Gabriel Bès, ce chapitre constitue la partie la plus originale du livre. À quelques imprécisions près, les techniques utilisées sont clairement décrites.

On regrettera cependant l’absence d’évaluation des méthodes proposées sur des données conséquentes (absence qui rend purement théoriques les références à leur

« efficacité »), ainsi que l’absence totale de référence au système d’analyse implanté par Caroline Hagège4 à partir du même formalisme des propriétés.

Dans sa présentation du formalisme des propriétés, P. Blache adopte des points de vue qui méritent discussion, d’autant plus qu’ils s’écartent sensiblement de ceux de G. Bès et que P. Blache ne met pas en perspective ses idées avec celles de son prédécesseur.

Première idée : les propriétés constituent pour P. Blache un « formalisme fondé sur les contraintes » et l’implantation qu’il en propose « repose exclusivement sur un

3. À cet égard, (Bès, 1999) montre comment il est aisé d’intégrer différents niveaux de granularité dans la description de la phrase verbale noyau, par ajout ou suppression de propriétés.

4. Cf. Caroline Hagège. Analyse syntaxique automatique du portugais. Thèse de doctorat.

GRIL, Université Blaise-Pascal, Clermont-Fd, 2000. Par la suite (Hagège, 2000).

(12)

processus de satisfaction de contraintes ». On reprochera à l’auteur de ne pas donner à son lecteur les éléments qui lui permettraient d’évaluer cette affirmation, la notion de contrainte restant difficile à cerner tout au long de l’ouvrage. Pour l’usage du terme contrainte en linguistique, P. Blache part d’une définition très large5. C’est seulement au fur et à mesure qu’il avance dans le livre que la notion se dessine pour le lecteur, à travers la qualification de tel ou tel aspect d’une théorie comme

« contrainte ». Or, nous l’avons évoqué plus haut, les contraintes, dans les théories examinées, sont multiformes. Pour ce qui est du terme contrainte en informatique, où l’on peut penser que la notion est mieux circonscrite, P. Blache aide peu le lecteur non initié à bien la cerner. Ce dernier aura le sentiment qu’à peu près tout peut être vu comme une contrainte et il n’en sera que plus perplexe sur l’utilité de cette notion, lorsqu’il constatera que G. Bès ne fait jamais appel à elle dans sa présentation du même formalisme.

Autre idée importante pour P. Blache : l’implantation qu’il propose constitue une

« interprétation directe6 » du formalisme des propriétés, ce qui « valide le modèle théorique proposé ». Cette idée contraste avec les objectifs de G. Bès : ce dernier inscrit le formalisme des propriétés dans un paradigme plus général, appelé 5P, et dans lequel il sépare nettement les propriétés (formalisme utilisé pour décrire une langue) des processus de traitement automatique, les premières n’étant pas la source déclarative de ces derniers (cf. Bès, 1999, p. 3487). L’enjeu est aussi de disposer d’un formalisme qui permette la formulation de descriptions utilisables par différents systèmes8.

Enfin, P. Blache place « au centre de sa conception de l’analyse linguistique » l’idée qu’il faut « abandonner la notion de grammaticalité pour celle de caractérisation » et signale que « cette modification de point de vue remet en cause une caractéristique fondamentale de la plupart des théories linguistiques : celui de la générativité. » La modularité d’une description faite en terme de propriétés est telle qu’on pourra, confronté à un énoncé agrammatical, assouplir la description par suppression d’une ou plusieurs propriétés de sorte qu’une analyse soit produite pour

5. « La linguistique fait un usage systématique du terme de contrainte pour exprimer les limites au-delà desquelles un objet linguistique sort du domaine étudié (la langue). […] Dans tous les cas l’idée reste la même : il s’agit de fournir une propriété permettant d’exclure des structures correspondant à des productions n’appartenant pas à la langue. ».

6. Par opposition à une interprétation indirecte, qui consisterait, par exemple, à traduire un ensemble de propriétés en une grammaire hors contexte, puis à utiliser les implantations développées pour ces dernières.

7. L’analyseur implanté par Caroline Hagège, déjà évoqué plus haut, met en pratique cette idée ; cf. (Hagège, 2000), en particulier le chapitre 6, où est définie une fonction qui permet de passer des propriétés aux « feuilles », structures de données utilisées par l’algorithme d’analyse.

8. Dans cette perspective, G. Bès et C. Hagège décrivent comment une grammaire HPSG peut être déduite d’un ensemble de propriétés. Cf. Caroline Hagège et Gabriel G. Bès, “Encoding and Reusing Linguistic Information Expressed by Linguistic Properties”, in Workshop on Grammar Engineering and Evaluation, COLING 2002, Taiwan, 2002.

(13)

cet énoncé. Que cette modularisation possible des propriétés conduise à abandonner la notion de grammaticalité est cependant sujet à caution. En effet, cette notion est celle par quoi on vérifiera l’adéquation d’une description de la langue avec les observations. Philippe Blache l’abandonne, mais ne dit pas comment les caractérisations produites par une description seront alors évaluées. En ce qui concerne la générativité, on trouvera dans (Bès, 1999) la spécification d’un

« générateur de modèles », « outil informatique qui doit permettre de calculer, étant donné un lexique de catégories […] et un ensemble de propriétés, tous et seulement les modèles qui satisfont ces propriétés ». L’abandon de la générativité par P. Blache n’est donc pas une nécessité et on regrettera que l’auteur n’ait pas poussé plus loin son argumentation sur ce sujet qu’il qualifie lui-même de « fondamental ».

Au vu des quelques éléments de discussion que nous avons abordés ici, il apparaît que nous disposons aujourd’hui de deux présentations très contrastées d’un même formalisme, qui s’avère très intéressant pour sa capacité à exprimer des descriptions modulaires et déclaratives des langues naturelles. En schématisant, nous dirions que le point de vue de P. Blache s’inscrit plutôt dans une problématique du développement informatique, tandis que celui de G. Bès s’inscrit plutôt dans une démarche méthodologique qui vise à inscrire la linguistique dans le paradigme des sciences du réel. Selon l’inclination de son esprit, le lecteur pourra préférer l’une ou l’autre des deux approches. Notre conseil serait qu’il n’en néglige aucune.

Références

Documents relatifs

– L’ÉVALUATION COMME OUTIL DE CONTRÔLE EXTERNE L’intégration que nous venons de présenter de l’évaluation ex post de politique au contrôle de gestion se heurte en fait à

Ces probabilités peuvent être exploitées soit en cours d’analyse pour conserver ou guider à chaque instant les analyses candidates localement les plus pro- metteuses (sans certitude

En fait la plus grande partie du chapitre est consacrée à un ensemble de questions méthodologiques importantes : place de l’utilisateur et définition rigoureuse de la tâche ;

Ce groupe prend le nom de « groupe international d’études sur la traduction automatique » et se réunit régulièrement à l’Unesco (voir l’article d’André Lentin dans TAL

L’informatique nous libère donc de la camisole papier (accès basé sur l’orthographe parfaite et l’ordre alphabétique 4 ), mettant l’information recherchée à la portée

Le premier article (Allauzen et al.) de ce numéro spécial montre que l’adaptation dynamique d’un modèle de langage pour la reconnaissance de la parole de type 4-grammes peut

Les auteurs se concentrent sur la présentation de IFSP (Incremental Finite-State-Parsing) développé à Xerox qui permet d’introduire de nouveaux marqueurs dans le texte taggé

La création de plusieurs grammaires rend l’ensemble modulaire et favorise plus d’efficacité du point de vue informatique : plutôt que concevoir une seule grammaire dont la