Le contenu de la théorie : transformations & LF
Jusqu’à présent, nous avons essayé de justifier le cadre syntaxique que nous voulions utiliser comme base pour notre théorie de l’interface langage/pensée.
Nous allons à présent voir quel est exactement le modèle proposé pour le traitement du langage.
Transformations
La grammaire générative est parfois appelée grammaire transformationnelle.
L’un des apports essentiels de Chomsky (cf. Chomsky 1955, 1956, 1957) à la linguistique a été de comprendre que les grammaires à états finis étaient inadéquates pour la production des grammaires de nos langues naturelles et qu’il fallait nécessairement une analyse transformationnelle. L’idée de grammaires à états finis n’est rien d’autre qu’une formalisation de cette théorie de Saussure121 selon laquelle : « les mots, comme les phrases, sont des concaténations de signes le long d’un axe temporel linéaire (le temps nécessaire pour prononcer le mot ou la phrase) »122 Cette concaténation se fait à partir d’un découpage préalable qui classe les morphèmes et les mots sur un axe paradigmatique. Égré (2011 : 589) a le schéma suivant qui permet de voir comment un tel processus pourrait produire des phrases.
Pierre observe Un Très Vieux Chat
Marie mange Le Gros poulet
Susanne peint … Beau chien
… … … … …
121 Notons cependant que les critiques que Chomsky fait à ce modèle s’adressent plus directement à Hockett (1955) qui avait mathématisé les intuitions de Saussure grâce à la théorie de l’information développée par Shannon et Weaver (1949)
122 Nous citons Égré : in Barberousse, A. Bonnay, D. & Cozic, M. (2011 : pp. 572‐642) chez qui nous prenons les schémas qui suivent.
164 Les mêmes procédures qui à partir de ce tableau permettent de produire « Pierre observe un très beau chat. » permettraient également d’engendrer la phrase :
« Marie mange le chien. » En revanche, elles ne pourraient pas permettre de produire : « Observe Susanne beau le. » parce que dans cette grammaire, il faut partir de la gauche à la droite, sélectionner d’abord un sujet possible dans la bonne colonne avant de choisir un verbe, un déterminant, etc… Les colonnes sont donc l’axe paradigmatique et on sélectionne un élément dans chaque colonne si l’on veut engendrer un énoncé bien formé. Les éléments qui se trouvent dans la même colonne sont substituables. La concaténation se fait nécessairement selon l’axe linéaire en partant de gauche à droite. Chomsky (1957 : Chap. 3) montre que l’on peut modéliser ce genre de grammaire comme un automate à états finis dont le schéma ci‐dessous est un exemple.
Automate à état finis (Source Égré 2011 :590)
Il démontre cependant qu’il est impossible à un tel automate d’engendrer toutes les phrases grammaticales de nos langues naturelles parce qu’il ne modélise pas les relations de dépendance qui existent entre les constituants syntaxiques de nos langues naturelles. Le problème, c’est que cette procédure ne nous permet pas de rendre compte des sous‐structures qui existent dans la phrase. Par exemple, n’importe quel locuteur de la langue sait que la chaine « un très gros chien » est un regroupement ‘naturel’ alors que la chaine « Marie mange le » ne l’est pas. Pour rendre compte de ces découpages internes à la phrase, il faut que le mécanisme qui engendre la phrase en fasse apparaître la structure syntagmatique. Cela, une grammaire à états finis en est incapable. C’est pourquoi Chomsky considère comme alternative minimale les grammaires non‐
contextuelles intégrant des règles de récritures qui permettent de faire apparaître le processus de formation des phrases ainsi que leur structure hiérarchique. Une phrase de nos langues naturelles n’est pas seulement une concaténation de mots, c’est une association réglée de constituants qui sont eux même complexes. Cette association ne se fait pas tout simplement de gauche à droite mais obéit à des règles syntaxiques. C’est ce que montre par exemple cet arbre syntaxique.
165 Exemple d’arbre syntaxique (Source Égré 2011 :592)
Cet arbre nous permet au moins trois choses :
• D’abord de voir que les éléments de l’arbre sont étiquetés selon leur catégorie syntaxique
• Ensuite de faire apparaître les règles d’association qui permettent d’engendrer la phrase. Par exemple la branche qui descend vers ‘très vieux’ nous montre qu’une règle de formation de AP est APADV+AP qui nous dit qu’une phrase adjectivale (AP) se forme en concaténant un adverbe (ADV) et une autre phrase adjectivale (AP). Nous voyons également qu’un AP peut ne consister en rien d’autre qu’un ADJ. Le linguiste génératif ambitionne de fournir toutes les règles de formations engendrant les phrases grammaticales de la langue.
• Enfin de montrer que ces règles ne s’appliquent ni arbitrairement, ni de gauche à droite. Par exemple, dans notre arbre nous avons deux NP mais le second est subsumé sous le VP. Cela veut dire que nous avons un syntagme nominal qui est lié au syntagme verbal parce que complément du verbe et un autre qui est au même niveau que le VP.
L’arbre syntaxique n’est qu’un moyen de représentation, ce qui est important c’est de voir qu’une théorie grammaticale assez puissante pour décrire les langues naturelles doit au moins, non seulement être récursive (comme l’étaient les grammaires à états finis), mais également étiqueter les éléments de la langue selon leur catégorie syntaxique et leur appliquer des règles de formation selon un ordre strict. Mais une grammaire qui se limiterait à décrire la phrase telle qu’elle apparaît et à en placer les éléments sur un arbre syntaxique hiérarchisée ne serait pas encore assez puissante pour en expliquer la genèse. C’est pour cette raison que Chomsky introduisit les règles de transformation et proposa de distinguer la structure de surface (SS) de la structure profonde (DS)
Les règles de transformation permettent de ne pas se limiter à décrire la liaison des syntagmes grammaticaux mais de montrer comment se forment ces syntagmes et de rendre compte du lien qui peut exister entre deux phrases. Pour illustrer ce point, revenons à la parenté qui existe entre la forme passive et la forme active. Si nous considérons à nouveau (a) et (b), il nous faut une règle
166 générale qui fait apparaître leur lien tout en bloquant des formes passives non souhaitées comme le passage de (c) à (d).
(a)Jean a épousé Marie
(b)Marie a été épousée par Jean (c)Je mange au restaurant
(d)*Au restaurant est mangé par moi
Une possibilité est de poser une règle du genre :
Si SN1‐ VP‐SN2 est une phrase du langage, alors, SN2‐Aux‐VP‐par‐SN1 est également une phrase du langage.
Il est facile de voir que cette règle permet de rendre compte de la transformation passive. En revanche, on voit mal comment elle pourrait nous permettre de bloquer la dérivation de (d) à partir de (c). Ce qui se passe selon Chomsky, c’est que dans (c), il y a un constituant syntaxique qui est silencieux mais qui explique que nous ne puissions effectuer directement la transformation passive. Le véritable contenu de (c) est : « Je mange PRO au restaurant ». PRO est une entité linguistique phonologiquement non représentée mais qui joue bien un rôle dans la syntaxe. La bonne transformation passive de (c) aurait du être :
(d’) : PRO est mangé au restaurant par moi
Étant donné que le français, contrairement à l’italien (cf. Rizzi 1986) par exemple ne permet pas que le sujet ne soit pas phonologiquement représenté, cette transformation est impossible. Cet exemple nous montre deux choses :
• D’abord que la théorie syntaxique ne saurait se limiter à un simple étiquetage syntaxique et à une description des relations entre les constituants mais doit se donner les moyens d’expliquer et de prédire les relations grammaticales acceptées par les locuteurs natifs et justifier les impossibilités comme la permutation que nous avons essayée en (d)
• Ensuite que pour qu’une telle explication soit adéquate, il nous faut parfois poser des entités théoriques comme PRO qui quoique n’apparaissant pas dans la phrase que nous entendons, sont indispensables pour rendre compte de la structure de la langue.
C’est pour cette raison que Chomsky a distingué deux niveaux linguistiques : la structure de surface (SS) et la structure profonde (DS).
Que ce soit dans notre compréhension ou dans notre production langagière, il y a un certain nombre d’opérations qui prennent place ; certaines sont apparentes et d’autres ‘cachées’. La structure de surface est la phrase telle qu’elle apparaît dans nos productions linguistiques et elle est plus ou moins identifiable à la forme phonologique de cette phrase. Ce que montre l’approche générative cependant, c’est que cette phrase prononcée est le résultat de règles qui s’appliquent sur des entités de base et associent ces entités à des formes phonologiques. Une grammaire de la langue doit donc reconstruire tout le processus et révéler certains entités syntaxiques qui ne sont pas phonologiquement réalisées mais sans lesquelles le fonctionnement de la langue et la structure de surface elle même n’est pas compréhensible. Ce niveau auquel sont révélées toutes les règles a été nommé niveau de la structure profonde. Ce dont les linguistes générativistes se rendent compte, c’est que la structure de surface à elle seule ne suffit à rendre compte ni de la manière dont la phrase est comprise, ni des relations qui existent entre les différents constituants syntaxiques de la phrase.
De ce fait, il a été postulé que la DS est le lieu de l’interprétation sémantique et
167 que les transformations produisent des SS qui elles sont le lieu de l’analyse phonologique. La tâche du linguiste est de mettre à jour l’historique des transformations et de révéler les constituants phonologiquement silencieux tout autant que ceux qui apparaissent dans SS. Nous allons à présent retracer les différents modèles proposés dans le cadre génératif avant de nous focaliser sur le niveau LF. Une chose que nous verrons dans cette description des différentes étapes du programme génératif c’est que, même si le travail sur la syntaxe a toujours été indépendant de la sémantique, des considérations sur l’interprétabilité ont parfois servi de guide à des révisions de l’architecture syntaxique proposée.
De la structure profonde au niveau LF
Si nous suivons Hornstein, 1995, il y a eu au moins quatre évolutions majeures de l’architecture de la théorie générative. La première étape est celle qui va des premiers travaux de Chomsky à la période de Aspects… L’architecture proposée pour rendre compte de la cognition linguistique était en gros celle que nous avons décrite plus haut. Hornstein la schématise comme suit :
La cognition linguistique selon la théorie standard (Source Hornstein 1995)
Dans cette architecture, DS était le lieu de l’interprétation sémantique et SS celui de l’interprétation phonétique. Les transformations qui menaient de la structure profonde à la structure de surface étaient sémantiquement neutres. Tout ce à quoi le linguiste a accès, ce sont évidemment des énoncés en SS et son but est de reconstruire le jeu des transformations qui a donné naissance à ces énoncés.
Cette période est celle de ce que l’on a nommé la théorie standard (TE). Nous avons soutenu plus haut que, quoiqu’il en dise, Chomsky a toujours insisté sur une stricte séparation entre syntaxe et sémantique. On peut voir une illustration de cette insistance dans les motivations qui ont mené au passage de l’architecture proposée dans la TS à celle de la période suivante. A la fin des années 60 en effet, un certain nombre d’étudiants de Chomsky prennent au sérieux l’idée selon laquelle DS est le lieu de l’interprétation sémantique et se mettent à développer ce qui sera connu comme la sémantique générative. Ces étudiants sont principalement John Ross, Paul Postal, Georges Lakoff et James McCawley. En essayant de développer une sémantique de DS, ils se rendent compte qu’il serait plus simple d’abandonner l’idée chomskyenne selon laquelle DS est le lieu de l’insertion lexicale et de développer directement une sémantique qui irait de pair avec les formules de surface. Le niveau DS paraissait donc superflu (cf McCawley 1970, Postal 1970), remplacé qu’il était par un niveau abstrait de forme logique. Les tenants de la sémantique générative développent une « logique naturelle » (cf. Lakoff 1972 par exemple) capable de dériver dans le même mouvement les catégories syntaxiques et sémantiques de nos langues naturelles tout en remplaçant les catégories « arbitraires » de la logique formelle par des catégories « naturelles ».
168 C’est pour s’opposer à cette dérivation concomitante de la syntaxe et de la sémantique qu’a lieu la seconde évolution majeure de la linguistique générative : la théorie standard étendue (TSE). Pour cela, Chomsky montre d’abord que le niveau DS est bien un niveau indispensable. Il s’appuie sur ce qui était connu dans la littérature comme les Bach‐Peters Sentences i.e. des phrases comme : « La personne qui montre qu’elle le mérite aura le prix qu’elle désire. » Le problème avec de telles phrases c’est que, du fait de la circularité des pronoms que nous voyons quand nous les indiçons, nous nous retrouvons devant une boucle potentiellement infinie :
[La personne qui montre qu’elle le j mérite] i aura [le prix qu’elle i désire]j Les sémanticiens générativistes, niant l’existence d’un niveau DS et ne prenant en considération que les catégories de NP et prédicat, ne pouvaient sortir de cette boucle puisque chaque NP contient une référence à l’autre. La solution affirment Chomsky et les tenant de la sémantique interprétative était d’accepter un niveau DS dans lequel les problèmes de coréférence étaient résolus.
L’autre problème avec la TS, c’est qu’on s’était rendu compte que DS ne pouvait être le seul déterminant de la sémantique. Chomsky (1972) donne l’exemple des variations suivantes :
(a)John is tall for a Watusi (b)John is tall even for a Watusi (c)Even John is tall for a Watusi
Ce que (b) et (c) nous montrent, c’est qu’une différence dans le placement en surface du mot « even » a des conséquences sur le sens de la phrase. Or ce placement est affaire de SS plutôt que de DS. La révision proposée consistait à dire que DS n’était pas le lieu exclusif de l’interprétation sémantique mais que certains aspects sémantiques étaient déterminés au niveau de SS. En l’occurrence, c’est en DS que se fait l’interprétation thématique alors que le focus et les présuppositions par exemple sont gérés en SS. Cela donne le schéma suivant :
La cognition linguistique selon la TSE (Source Hornstein 1995)
Une troisième période est celle qui a vu le développement de la théorie des traces. La notion de trace avait été introduite pour rendre compte de certaines impossibilités. Si l’on prend ce qui était connu dans la littérature comme le crossover problem (cf. Postal 1971 ; Newmeyer 2008 :161), la question qui se posait était celle d’expliquer pourquoi nous acceptons une lecture coréférentielle de qui et l dans la première phrase mais pas dans la seconde phrase.
(a)Qui a dit que Marie l’a embrassé ? (b)Qui a‐t‐il dit que Marie l’a embrassé ?
Une solution élégante (cf. Chomsky 1977 :226) est de dire que tout déplacement laisse une trace certes phonologiquement neutre mais bien présente. Du coup (a) et (b) deviennent (a’) et (b’)
(a') Quit [t a dit que Marie l’a embrassé]
(b') Quit [a‐t‐il dit que Marie l’a embrassé t]
169 On pourrait presque lire ici Qui= Quel t. Si ces traces (t) sont bien perçues par notre cerveau quand il reçoit les énoncés SS, il n’est plus besoin de postuler que DS est le lieu de certaines interprétations sémantiques. C’est la raison pour laquelle à cette période a été développée la théorie standard révisée et étendue (REST) qui proposait l’architecture suivante :
La cognition linguistique selon la REST (Source Hornstein 1995)
Dans ce schéma de la REST, il y a bien des transformations qui partent de DS vers SS et aboutissent à une simplification telle que ne subsiste que ce qui est phonologiquement indispensable. Étant donné que chacune de ces transformations laisse des traces, il n’est plus nécessaire de poser que DS est un lieu de l’interprétation sémantique. Ainsi dans Chomsky (1977 :14) DS n’est‐il plus défini que comme un : « indicateur syntagmatique initial, [i.e.] la structure engendrée par la base, qui est sous‐jacente à une phrase »
À ce point, il ne faudra pas longtemps pour que DS cesse totalement d’avoir la moindre pertinence pour la théorie linguistique, sauf peut‐être comme vestige historique. Cela est d’autant plus vrai que, dans les développements des années 80, la fonction Move α jouait un rôle de plus en plus important. Cette fonction affirmait que l’on pouvait déplacer n’importe quel constituant syntaxique à condition de respecter certaines contraintes123. Par exemple, les traces laissées sur place doivent être correctement gouvernées. C’est la période du développement de la théorie du gouvernement et du liage (TGL) dont on peut représenter l’architecture cognitive qu’elle propose comme suit :
123 Pour voir la nécessité de l’opération Move α, considérons comment nous pourrions expliquer l’ellipse dans le contexte de phrases contenant un quantificateur (c’est le phénomène d’ACD : Antecedent Contained Deletion). L’analyse usuelle de (a) veut qu’il y ait effacement du VP redondant ce qui signifie que (a) est véritablement (a’). C’est pour éviter la répétition mécanique du VP que nous l’élidons en laissant une trace
(a) Marie a vu un chien, Pierre aussi.
(a’) Marie a vu un chien, Pierre aussi a vu un chien
Essayons d’appliquer la même analyse à (b). Nous initierions alors une boucle infinie comme le montre (b’)
(b) Marie a lu exactement les mêmes livres que Pierre.
(b’) Marie a lu exactement les mêmes livres que Pierre a lu exactement les mêmes livres que Pierre.
Pour éviter cette boucle infinie, nous pouvons appliquer la règle selon laquelle les groupes nominaux quantifiés (GNQ mais dans le courant du texte, nous utiliserons indifféremment cette abréviation ou son équivalent anglais QNP) sont toujours déplacés en tête de phrases en laissant des traces avant que ne s’appliquent les autres règles comme l’effacement des VP redondants.
C’est la règle de QR dont nous parlerons plus bas. Une fois l’opération de QR effectuée, on peut appliquer la même analyse sans risque de régression à l’infinie ainsi que nous le voyons avec (c’)
(c) [exactement les mêmes livres1 [Marie a lu t1 que Pierre]
(c’) [exactement les mêmes livres1 [Marie a lu t1 que Pierre a lu t1 ]
170
La cognition linguistique selon la TGL (Source Hornstein 1995)
Mais cette architecture accorde encore trop d’importance au niveau DS. Si nous acceptons que toute transformation laisse des traces et qu’à partir de SS, on a directement accès à ces traces phonologiquement neutres mais cognitivement perceptibles, alors on a deux conséquences : la première est que si SS est bien le lieu de l’interprétation sémantique, la tâche du linguiste est de révéler ces traces et de fournir voir comment elles déterminent l’interprétation sémantique. Étant donné que les traces se comportent comme les variables liées de la logique, Chomsky nomme niveau LF (pour Logical Form), ce niveau que le linguiste découvre en faisant apparaître la véritable structure cachée des formules SS . Dans les derniers développements de la linguistique générative (la théorie minimaliste), le niveau DS ne joue absolument plus aucun rôle. C’est pourquoi, le schéma suivant est peut‐être le plus approprié pour décrire l’architecture de la cognition linguistique.
!
!"# !!! $%%$ !!! &'"$
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$狁$
!
!
!
"#$%!&!
'()%*+*,)-.#(!
/,0-(.12%!
La cognition linguistique selon la théorie minimaliste
Dans ce qui suit, nous allons nous focaliser sur ce niveau LF. En quoi consiste‐t‐il exactement ? Appartient‐il au module syntaxique ou bien au module sémantique de l’esprit ?
Le niveau LF
Il est quelque peu ironique qu’au bout de tout ce parcours nous nous retrouvions à considérer un niveau dont le nom même (Logical Form) semble valider un retour à notre point de départ. Nous avons commencé notre exploration par le rejet de l’idée selon laquelle nos langues naturelles sont un masque pour la pensée et que pour accéder à l’intégrité de nos pensées, il faut découvrir la forme logique des énoncés en langue naturelle. D’une certaine manière, les syntacticiens qui posent un niveau LF ne disent pas autre chose. Le niveau SS (i.e.
nos énoncés en langue naturelle) est trompeur parce qu’il ne nous révèle pas
171 tout ce qui est pertinent pour une analyse sémantique. Il y a cependant deux différences essentielles entre le niveau LF et le projet d’enrégimentation des
171 tout ce qui est pertinent pour une analyse sémantique. Il y a cependant deux différences essentielles entre le niveau LF et le projet d’enrégimentation des