Le contenu de la théorie : transformations & LF
Jusqu’à présent, nous avons essayé de justifier le cadre syntaxique que nous voulions utiliser comme base pour notre théorie de l’interface langage/pensée. Nous allons à présent voir quel est exactement le modèle proposé pour le traitement du langage.
Transformations
La grammaire générative est parfois appelée grammaire transformationnelle. L’un des apports essentiels de Chomsky (cf. Chomsky 1955, 1956, 1957) à la linguistique a été de comprendre que les grammaires à états finis étaient inadéquates pour la production des grammaires de nos langues naturelles et qu’il fallait nécessairement une analyse transformationnelle. L’idée de grammaires à états finis n’est rien d’autre qu’une formalisation de cette théorie de Saussure121 selon laquelle : « les mots, comme les phrases, sont des concaténations de signes le long d’un axe temporel linéaire (le temps nécessaire pour prononcer le mot ou la phrase) »122 Cette concaténation se fait à partir d’un découpage préalable qui classe les morphèmes et les mots sur un axe paradigmatique. Égré (2011 : 589) a le schéma suivant qui permet de voir comment un tel processus pourrait produire des phrases.
Pierre observe Un Très Vieux Chat
Marie mange Le Gros poulet
Susanne peint … Beau chien
… … … … …
121 Notons cependant que les critiques que Chomsky fait à ce modèle s’adressent plus directement à Hockett (1955) qui avait mathématisé les intuitions de Saussure grâce à la théorie de l’information développée par Shannon et Weaver (1949)
122 Nous citons Égré : in Barberousse, A. Bonnay, D. & Cozic, M. (2011 : pp. 572‐642) chez qui nous prenons les schémas qui suivent.
164 Les mêmes procédures qui à partir de ce tableau permettent de produire « Pierre observe un très beau chat. » permettraient également d’engendrer la phrase : « Marie mange le chien. » En revanche, elles ne pourraient pas permettre de produire : « Observe Susanne beau le. » parce que dans cette grammaire, il faut partir de la gauche à la droite, sélectionner d’abord un sujet possible dans la bonne colonne avant de choisir un verbe, un déterminant, etc… Les colonnes sont donc l’axe paradigmatique et on sélectionne un élément dans chaque colonne si l’on veut engendrer un énoncé bien formé. Les éléments qui se trouvent dans la même colonne sont substituables. La concaténation se fait nécessairement selon l’axe linéaire en partant de gauche à droite. Chomsky (1957 : Chap. 3) montre que l’on peut modéliser ce genre de grammaire comme un automate à états finis dont le schéma ci‐dessous est un exemple. Automate à état finis (Source Égré 2011 :590) Il démontre cependant qu’il est impossible à un tel automate d’engendrer toutes les phrases grammaticales de nos langues naturelles parce qu’il ne modélise pas les relations de dépendance qui existent entre les constituants syntaxiques de nos langues naturelles. Le problème, c’est que cette procédure ne nous permet pas de rendre compte des sous‐structures qui existent dans la phrase. Par exemple, n’importe quel locuteur de la langue sait que la chaine « un très gros chien » est un regroupement ‘naturel’ alors que la chaine « Marie mange le » ne l’est pas. Pour rendre compte de ces découpages internes à la phrase, il faut que le mécanisme qui engendre la phrase en fasse apparaître la structure syntagmatique. Cela, une grammaire à états finis en est incapable. C’est pourquoi Chomsky considère comme alternative minimale les grammaires non‐ contextuelles intégrant des règles de récritures qui permettent de faire apparaître le processus de formation des phrases ainsi que leur structure hiérarchique. Une phrase de nos langues naturelles n’est pas seulement une concaténation de mots, c’est une association réglée de constituants qui sont eux même complexes. Cette association ne se fait pas tout simplement de gauche à droite mais obéit à des règles syntaxiques. C’est ce que montre par exemple cet arbre syntaxique.
165
Exemple d’arbre syntaxique (Source Égré 2011 :592)
Cet arbre nous permet au moins trois choses :
• D’abord de voir que les éléments de l’arbre sont étiquetés selon leur catégorie syntaxique
• Ensuite de faire apparaître les règles d’association qui permettent d’engendrer la phrase. Par exemple la branche qui descend vers ‘très vieux’ nous montre qu’une règle de formation de AP est APADV+AP qui nous dit qu’une phrase adjectivale (AP) se forme en concaténant un adverbe (ADV) et une autre phrase adjectivale (AP). Nous voyons également qu’un AP peut ne consister en rien d’autre qu’un ADJ. Le linguiste génératif ambitionne de fournir toutes les règles de formations engendrant les phrases grammaticales de la langue.
• Enfin de montrer que ces règles ne s’appliquent ni arbitrairement, ni de gauche à droite. Par exemple, dans notre arbre nous avons deux NP mais le second est subsumé sous le VP. Cela veut dire que nous avons un syntagme nominal qui est lié au syntagme verbal parce que complément du verbe et un autre qui est au même niveau que le VP.
L’arbre syntaxique n’est qu’un moyen de représentation, ce qui est important c’est de voir qu’une théorie grammaticale assez puissante pour décrire les langues naturelles doit au moins, non seulement être récursive (comme l’étaient les grammaires à états finis), mais également étiqueter les éléments de la langue selon leur catégorie syntaxique et leur appliquer des règles de formation selon un ordre strict. Mais une grammaire qui se limiterait à décrire la phrase telle qu’elle apparaît et à en placer les éléments sur un arbre syntaxique hiérarchisée ne serait pas encore assez puissante pour en expliquer la genèse. C’est pour cette raison que Chomsky introduisit les règles de transformation et proposa de distinguer la structure de surface (SS) de la structure profonde (DS)
Les règles de transformation permettent de ne pas se limiter à décrire la liaison des syntagmes grammaticaux mais de montrer comment se forment ces syntagmes et de rendre compte du lien qui peut exister entre deux phrases. Pour illustrer ce point, revenons à la parenté qui existe entre la forme passive et la forme active. Si nous considérons à nouveau (a) et (b), il nous faut une règle
166 générale qui fait apparaître leur lien tout en bloquant des formes passives non souhaitées comme le passage de (c) à (d). (a) Jean a épousé Marie (b) Marie a été épousée par Jean (c) Je mange au restaurant (d) *Au restaurant est mangé par moi Une possibilité est de poser une règle du genre : Si SN1‐ VP‐SN2 est une phrase du langage, alors, SN2‐Aux‐VP‐par‐SN1 est également une phrase du langage. Il est facile de voir que cette règle permet de rendre compte de la transformation passive. En revanche, on voit mal comment elle pourrait nous permettre de bloquer la dérivation de (d) à partir de (c). Ce qui se passe selon Chomsky, c’est que dans (c), il y a un constituant syntaxique qui est silencieux mais qui explique que nous ne puissions effectuer directement la transformation passive. Le véritable contenu de (c) est : « Je mange PRO au restaurant ». PRO est une entité linguistique phonologiquement non représentée mais qui joue bien un rôle dans la syntaxe. La bonne transformation passive de (c) aurait du être :
(d’) : PRO est mangé au restaurant par moi
Étant donné que le français, contrairement à l’italien (cf. Rizzi 1986) par exemple ne permet pas que le sujet ne soit pas phonologiquement représenté, cette transformation est impossible. Cet exemple nous montre deux choses :
• D’abord que la théorie syntaxique ne saurait se limiter à un simple étiquetage syntaxique et à une description des relations entre les constituants mais doit se donner les moyens d’expliquer et de prédire les relations grammaticales acceptées par les locuteurs natifs et justifier les impossibilités comme la permutation que nous avons essayée en (d) • Ensuite que pour qu’une telle explication soit adéquate, il nous faut
parfois poser des entités théoriques comme PRO qui quoique n’apparaissant pas dans la phrase que nous entendons, sont indispensables pour rendre compte de la structure de la langue. C’est pour cette raison que Chomsky a distingué deux niveaux linguistiques : la structure de surface (SS) et la structure profonde (DS). Que ce soit dans notre compréhension ou dans notre production langagière, il y a un certain nombre d’opérations qui prennent place ; certaines sont apparentes et d’autres ‘cachées’. La structure de surface est la phrase telle qu’elle apparaît dans nos productions linguistiques et elle est plus ou moins identifiable à la forme phonologique de cette phrase. Ce que montre l’approche générative cependant, c’est que cette phrase prononcée est le résultat de règles qui s’appliquent sur des entités de base et associent ces entités à des formes phonologiques. Une grammaire de la langue doit donc reconstruire tout le processus et révéler certains entités syntaxiques qui ne sont pas phonologiquement réalisées mais sans lesquelles le fonctionnement de la langue et la structure de surface elle même n’est pas compréhensible. Ce niveau auquel sont révélées toutes les règles a été nommé niveau de la structure profonde. Ce dont les linguistes générativistes se rendent compte, c’est que la structure de surface à elle seule ne suffit à rendre compte ni de la manière dont la phrase est comprise, ni des relations qui existent entre les différents constituants syntaxiques de la phrase. De ce fait, il a été postulé que la DS est le lieu de l’interprétation sémantique et
167 que les transformations produisent des SS qui elles sont le lieu de l’analyse phonologique. La tâche du linguiste est de mettre à jour l’historique des transformations et de révéler les constituants phonologiquement silencieux tout autant que ceux qui apparaissent dans SS. Nous allons à présent retracer les différents modèles proposés dans le cadre génératif avant de nous focaliser sur le niveau LF. Une chose que nous verrons dans cette description des différentes étapes du programme génératif c’est que, même si le travail sur la syntaxe a toujours été indépendant de la sémantique, des considérations sur l’interprétabilité ont parfois servi de guide à des révisions de l’architecture syntaxique proposée.