• Aucun résultat trouvé

Le contenu de la théorie : transformations & LF

Dans le document The DART-Europe E-theses Portal (Page 164-175)

Le contenu de la théorie : transformations & LF  

Jusqu’à  présent,  nous  avons  essayé  de  justifier  le  cadre  syntaxique  que  nous  voulions  utiliser  comme  base  pour  notre  théorie  de  l’interface  langage/pensée. 

Nous  allons  à  présent  voir  quel  est  exactement  le  modèle  proposé  pour  le  traitement du langage.  

Transformations  

La  grammaire  générative  est  parfois  appelée grammaire  transformationnelle. 

L’un  des  apports  essentiels  de  Chomsky  (cf.  Chomsky  1955,  1956,  1957)  à  la  linguistique  a  été  de  comprendre  que  les  grammaires  à  états  finis  étaient  inadéquates  pour  la  production  des  grammaires  de  nos  langues  naturelles  et  qu’il  fallait  nécessairement  une  analyse  transformationnelle.  L’idée  de  grammaires à états finis n’est rien d’autre qu’une formalisation de cette théorie  de  Saussure121 selon  laquelle :  « les  mots,  comme  les  phrases,  sont  des  concaténations de signes le long d’un axe temporel linéaire (le temps nécessaire  pour prononcer le mot ou la phrase) »122 Cette concaténation se fait à partir d’un  découpage  préalable  qui  classe  les  morphèmes  et  les  mots  sur  un  axe  paradigmatique.  Égré  (2011 :  589)  a  le  schéma  suivant  qui  permet  de  voir  comment un tel processus pourrait produire des phrases.  

Pierre observe Un Très Vieux Chat

Marie mange Le Gros poulet

Susanne peint Beau chien

… … …

 

      

121 Notons  cependant  que  les  critiques  que  Chomsky  fait  à  ce  modèle  s’adressent  plus  directement à Hockett (1955) qui avait mathématisé les intuitions de Saussure grâce à la théorie  de l’information développée par Shannon et Weaver (1949)  

122 Nous  citons  Égré :  in  Barberousse,  A.  Bonnay,  D.  &  Cozic,  M.  (2011 :  pp.  572‐642)  chez  qui  nous prenons les schémas qui suivent.   

  164  Les mêmes procédures qui à partir de ce tableau permettent de produire « Pierre  observe  un  très  beau  chat. »  permettraient  également  d’engendrer  la  phrase : 

« Marie  mange  le  chien. »  En  revanche,  elles  ne  pourraient  pas  permettre  de  produire : « Observe Susanne beau le. » parce que dans cette grammaire, il faut  partir  de  la  gauche  à  la  droite,  sélectionner  d’abord  un  sujet  possible  dans  la  bonne  colonne  avant  de  choisir  un  verbe,  un  déterminant,  etc…  Les  colonnes  sont  donc  l’axe  paradigmatique  et  on  sélectionne  un  élément  dans  chaque  colonne  si  l’on  veut  engendrer  un  énoncé  bien  formé.  Les  éléments  qui  se  trouvent  dans  la  même  colonne  sont  substituables.  La  concaténation  se  fait  nécessairement  selon  l’axe  linéaire  en  partant  de  gauche  à  droite.  Chomsky  (1957 : Chap. 3) montre que l’on peut modéliser ce genre de grammaire comme  un automate à états finis dont le schéma ci‐dessous est un exemple. 

Automate à état finis (Source Égré 2011 :590)     

Il démontre cependant qu’il est impossible à un tel automate d’engendrer toutes  les phrases grammaticales de nos langues naturelles parce qu’il ne modélise pas  les  relations  de  dépendance  qui  existent  entre  les  constituants  syntaxiques  de  nos  langues  naturelles.  Le  problème,  c’est  que  cette  procédure  ne  nous  permet  pas  de  rendre  compte  des  sous‐structures  qui  existent  dans  la  phrase.  Par  exemple,  n’importe  quel  locuteur  de  la  langue  sait  que  la  chaine  « un  très  gros  chien » est un regroupement ‘naturel’ alors que la chaine « Marie mange le » ne  l’est pas. Pour rendre compte de ces découpages internes à la phrase, il faut que  le  mécanisme  qui  engendre  la  phrase  en  fasse  apparaître  la  structure  syntagmatique. Cela, une grammaire à états finis en est incapable. C’est pourquoi  Chomsky  considère  comme  alternative  minimale  les  grammaires  non‐

contextuelles  intégrant  des  règles  de  récritures  qui  permettent  de  faire  apparaître  le  processus  de  formation  des  phrases  ainsi  que  leur  structure  hiérarchique.  Une  phrase  de  nos  langues  naturelles  n’est  pas  seulement  une  concaténation de mots, c’est une association réglée de constituants qui sont eux  même  complexes.  Cette  association  ne  se  fait  pas  tout  simplement  de  gauche  à  droite mais obéit à des règles syntaxiques. C’est ce que montre par exemple cet  arbre syntaxique.  

  165  Exemple d’arbre syntaxique (Source Égré 2011 :592)  

 

Cet arbre nous permet au moins trois choses :  

• D’abord  de  voir  que  les  éléments  de  l’arbre  sont  étiquetés  selon  leur  catégorie syntaxique 

• Ensuite  de  faire  apparaître  les  règles  d’association  qui  permettent  d’engendrer  la  phrase.  Par  exemple  la  branche  qui  descend  vers  ‘très  vieux’ nous montre qu’une règle de formation de AP est APADV+AP qui  nous  dit  qu’une  phrase  adjectivale  (AP)  se  forme  en  concaténant  un  adverbe  (ADV)  et  une  autre  phrase  adjectivale  (AP).  Nous  voyons  également  qu’un  AP  peut  ne  consister  en  rien  d’autre  qu’un  ADJ.  Le  linguiste génératif ambitionne de fournir toutes les règles de formations  engendrant les phrases grammaticales de la langue.  

• Enfin de montrer que ces règles ne s’appliquent ni arbitrairement, ni de  gauche à droite. Par exemple, dans notre arbre nous avons deux NP mais  le  second  est  subsumé  sous  le  VP.  Cela  veut  dire  que  nous  avons  un  syntagme nominal qui est lié au syntagme verbal parce que complément  du verbe et un autre qui est au même niveau que le VP.  

L’arbre  syntaxique  n’est  qu’un  moyen  de  représentation,  ce  qui  est  important  c’est  de  voir  qu’une  théorie  grammaticale  assez  puissante  pour  décrire  les  langues naturelles doit au moins, non seulement être récursive (comme l’étaient  les grammaires à états finis), mais également étiqueter les éléments de la langue  selon leur catégorie syntaxique et leur appliquer des règles de formation selon  un  ordre  strict.  Mais  une  grammaire  qui  se  limiterait  à  décrire  la  phrase  telle  qu’elle apparaît et à en placer les éléments sur un arbre syntaxique hiérarchisée  ne serait pas encore assez puissante pour en expliquer la genèse. C’est pour cette  raison  que  Chomsky  introduisit  les règles  de  transformation  et  proposa  de  distinguer la structure de surface (SS) de la structure profonde (DS)  

Les règles de transformation permettent de ne pas se limiter à décrire la liaison  des  syntagmes  grammaticaux  mais  de  montrer  comment  se  forment  ces  syntagmes et de rendre compte du lien qui peut exister entre deux phrases. Pour  illustrer  ce  point,  revenons  à  la  parenté  qui  existe  entre  la  forme  passive  et  la  forme  active.  Si  nous  considérons  à  nouveau  (a)  et  (b),  il  nous  faut  une  règle 

  166  générale qui fait apparaître leur lien tout en bloquant des formes passives non  souhaitées comme le passage de (c) à (d).  

(a)Jean a épousé Marie 

(b)Marie a été épousée par Jean  (c)Je mange au restaurant 

(d)*Au restaurant est mangé par moi    

Une possibilité est de poser une règle du genre :  

Si SN1‐ VP‐SN2 est une phrase du langage, alors, SN2‐Aux‐VP‐par‐SN1 est  également une phrase du langage.  

Il est facile de voir que cette règle permet de rendre compte de la transformation  passive.  En  revanche,  on  voit  mal  comment  elle  pourrait  nous  permettre  de  bloquer la dérivation de (d) à partir de (c). Ce qui se passe selon Chomsky, c’est  que dans (c), il y a un constituant syntaxique qui est silencieux mais qui explique  que  nous  ne  puissions  effectuer  directement  la  transformation  passive.  Le  véritable contenu de (c) est : « Je mange PRO au restaurant ». PRO est une entité  linguistique phonologiquement non représentée mais qui joue bien un rôle dans  la syntaxe. La bonne transformation passive de (c) aurait du être : 

(d’) : PRO est mangé au restaurant par moi 

 Étant  donné  que  le  français,  contrairement  à  l’italien  (cf.  Rizzi  1986)  par  exemple  ne  permet  pas  que  le  sujet  ne  soit  pas  phonologiquement  représenté,  cette transformation est impossible. Cet exemple nous montre deux choses :  

• D’abord  que  la  théorie  syntaxique  ne  saurait  se  limiter  à  un  simple  étiquetage  syntaxique  et  à  une  description  des  relations  entre  les  constituants mais doit se donner les moyens d’expliquer et de prédire les  relations grammaticales acceptées par les locuteurs natifs et justifier les  impossibilités comme la permutation que nous avons essayée en (d) 

• Ensuite  que  pour  qu’une  telle  explication  soit  adéquate,  il  nous  faut  parfois  poser  des  entités  théoriques  comme  PRO  qui  quoique  n’apparaissant  pas  dans  la  phrase  que  nous  entendons,  sont  indispensables pour rendre compte de la structure de la langue. 

C’est pour cette raison que Chomsky a distingué deux niveaux linguistiques : la  structure de surface (SS) et la structure profonde (DS).  

Que ce soit dans notre compréhension ou dans notre production langagière, il y a  un certain nombre d’opérations qui prennent place ; certaines sont apparentes et  d’autres ‘cachées’. La structure de surface est la phrase telle qu’elle apparaît dans  nos  productions  linguistiques  et  elle  est  plus  ou  moins  identifiable  à  la  forme  phonologique de cette phrase. Ce que montre l’approche générative cependant,  c’est que cette phrase prononcée est le résultat de règles qui s’appliquent sur des  entités  de  base  et  associent  ces  entités  à  des  formes  phonologiques.  Une  grammaire  de  la  langue  doit  donc  reconstruire  tout  le  processus  et  révéler  certains  entités  syntaxiques  qui  ne  sont  pas  phonologiquement  réalisées  mais  sans  lesquelles  le  fonctionnement  de  la  langue  et  la  structure  de  surface  elle  même n’est pas compréhensible. Ce niveau auquel sont révélées toutes les règles  a  été  nommé  niveau  de  la  structure  profonde.  Ce  dont  les  linguistes  générativistes se rendent compte, c’est que la structure de surface à elle seule ne  suffit  à  rendre  compte  ni  de  la  manière  dont  la  phrase  est  comprise,  ni  des  relations qui existent entre les différents constituants syntaxiques de la phrase. 

De ce fait, il a été postulé que la DS est le lieu de l’interprétation sémantique et 

  167  que  les  transformations  produisent  des  SS  qui  elles  sont  le  lieu  de  l’analyse  phonologique.  La  tâche  du  linguiste  est  de  mettre  à  jour  l’historique  des  transformations et de révéler les constituants phonologiquement silencieux tout  autant  que  ceux  qui  apparaissent  dans  SS.  Nous  allons  à  présent  retracer  les  différents modèles proposés dans le cadre génératif avant de nous focaliser sur  le niveau LF. Une chose que nous verrons dans cette description des différentes  étapes  du  programme  génératif  c’est  que,  même  si  le  travail  sur  la  syntaxe  a  toujours  été  indépendant  de  la  sémantique,  des  considérations  sur  l’interprétabilité  ont  parfois  servi  de  guide  à  des  révisions  de  l’architecture  syntaxique proposée.  

De la structure profonde au niveau LF  

Si nous suivons Hornstein, 1995, il y a eu au moins quatre évolutions majeures  de l’architecture de la théorie générative. La première étape est celle qui va des  premiers travaux de Chomsky à la période de Aspects…  L’architecture  proposée  pour  rendre  compte  de  la  cognition  linguistique  était  en  gros  celle  que  nous  avons décrite plus haut. Hornstein la schématise comme suit :  

La cognition linguistique selon la théorie standard (Source Hornstein 1995)    

 

Dans cette architecture, DS était le lieu de l’interprétation sémantique et SS celui  de l’interprétation phonétique. Les transformations qui menaient de la structure  profonde  à  la  structure  de  surface  étaient  sémantiquement  neutres.  Tout  ce  à  quoi le linguiste a accès, ce sont évidemment des énoncés en SS et son but est de  reconstruire  le  jeu  des  transformations  qui  a  donné  naissance  à  ces  énoncés. 

Cette  période  est  celle  de  ce  que  l’on  a  nommé  la théorie  standard  (TE).  Nous  avons  soutenu  plus  haut  que,  quoiqu’il  en  dise,  Chomsky  a  toujours  insisté  sur  une stricte séparation entre syntaxe et sémantique. On peut voir une illustration  de  cette  insistance  dans  les  motivations  qui  ont  mené  au  passage  de  l’architecture  proposée  dans  la  TS  à  celle  de  la  période  suivante.  A  la  fin  des  années  60  en  effet,  un  certain  nombre  d’étudiants  de  Chomsky  prennent  au  sérieux  l’idée  selon  laquelle  DS  est  le  lieu  de  l’interprétation  sémantique  et  se  mettent  à  développer  ce  qui  sera  connu  comme  la  sémantique  générative.  Ces  étudiants  sont  principalement  John  Ross,  Paul  Postal,  Georges  Lakoff  et  James  McCawley.  En  essayant  de  développer  une  sémantique  de  DS,  ils  se  rendent  compte qu’il serait plus simple d’abandonner l’idée chomskyenne selon laquelle  DS est le lieu de l’insertion lexicale et de développer directement une sémantique  qui  irait  de  pair  avec  les  formules  de  surface.  Le  niveau  DS  paraissait  donc  superflu  (cf  McCawley  1970,  Postal  1970),  remplacé  qu’il  était  par  un  niveau  abstrait de forme logique. Les tenants de la sémantique générative développent  une « logique naturelle » (cf. Lakoff 1972 par exemple) capable de dériver dans  le même mouvement les catégories syntaxiques et sémantiques de nos langues  naturelles tout en remplaçant les catégories « arbitraires » de la logique formelle  par des catégories « naturelles ».  

 

  168  C’est  pour  s’opposer  à  cette  dérivation  concomitante  de  la  syntaxe  et  de  la  sémantique qu’a lieu la seconde évolution majeure de la linguistique générative :  la  théorie  standard  étendue  (TSE).  Pour  cela,  Chomsky  montre  d’abord  que  le  niveau  DS  est  bien  un  niveau  indispensable.  Il  s’appuie  sur  ce  qui  était  connu  dans la littérature comme les Bach‐Peters Sentences i.e. des phrases comme : « La  personne qui montre qu’elle le mérite aura le prix qu’elle désire. » Le problème  avec de telles phrases c’est que, du fait de la circularité des pronoms que nous  voyons  quand  nous  les  indiçons,  nous  nous  retrouvons  devant  une  boucle  potentiellement infinie : 

[La personne qui montre qu’elle le j mérite] i aura [le prix qu’elle i désire]j  Les  sémanticiens  générativistes,  niant  l’existence  d’un  niveau  DS  et  ne  prenant  en  considération  que  les  catégories  de  NP  et  prédicat,  ne  pouvaient  sortir  de  cette  boucle  puisque  chaque  NP  contient  une  référence  à  l’autre.  La  solution  affirment Chomsky et les tenant de la sémantique interprétative était d’accepter  un niveau DS dans lequel les problèmes de coréférence étaient résolus. 

L’autre problème avec la TS, c’est qu’on s’était rendu compte que DS ne pouvait  être le seul déterminant de la sémantique. Chomsky (1972) donne l’exemple des  variations suivantes :  

(a)John is tall for a Watusi  (b)John is tall even for a Watusi  (c)Even John is tall for a Watusi 

Ce  que  (b)  et  (c)  nous  montrent,  c’est  qu’une  différence  dans  le  placement  en  surface  du  mot  « even »  a  des  conséquences  sur  le  sens  de  la  phrase.  Or  ce  placement  est  affaire  de  SS  plutôt  que  de  DS.  La  révision  proposée  consistait  à  dire  que  DS  n’était  pas  le  lieu  exclusif  de  l’interprétation  sémantique  mais  que  certains  aspects  sémantiques  étaient  déterminés  au  niveau  de  SS.  En  l’occurrence, c’est en DS que se fait l’interprétation thématique alors que le focus  et  les  présuppositions  par  exemple  sont  gérés  en  SS.  Cela  donne  le  schéma  suivant :  

La cognition linguistique selon la TSE (Source Hornstein 1995)     

Une  troisième  période  est  celle  qui  a  vu  le  développement  de  la  théorie  des  traces. La notion de trace avait été introduite pour rendre compte de certaines  impossibilités.  Si  l’on  prend  ce  qui  était  connu  dans  la  littérature  comme  le  crossover  problem (cf.  Postal  1971 ;  Newmeyer  2008 :161),  la  question  qui  se  posait était celle d’expliquer pourquoi nous acceptons une lecture coréférentielle  de qui et l dans la première phrase mais pas dans la seconde phrase. 

(a)Qui a dit que Marie l’a embrassé ?  (b)Qui a‐t‐il dit que Marie l’a embrassé ? 

Une solution élégante (cf. Chomsky 1977 :226) est de dire que tout déplacement  laisse une trace certes phonologiquement neutre mais bien présente. Du coup (a)  et (b) deviennent (a’) et (b’) 

(a') Quit [t a dit que Marie l’a embrassé] 

(b') Quit [a‐t‐il dit que Marie l’a embrassé t] 

  169  On  pourrait  presque  lire  ici  Qui=  Quel  t.  Si  ces  traces  (t)  sont  bien  perçues  par  notre cerveau quand il reçoit les énoncés SS, il n’est plus besoin de postuler que  DS  est  le  lieu  de  certaines  interprétations  sémantiques.  C’est  la  raison  pour  laquelle  à  cette  période  a  été  développée  la théorie standard révisée et étendue  (REST) qui proposait l’architecture suivante : 

La cognition linguistique selon la REST (Source Hornstein 1995)     

Dans ce schéma de la REST, il y a bien des transformations qui partent de DS vers  SS  et  aboutissent  à  une  simplification  telle  que  ne  subsiste  que  ce  qui  est  phonologiquement  indispensable.  Étant  donné  que  chacune  de  ces  transformations laisse des traces, il n’est plus nécessaire de poser que DS est un  lieu  de  l’interprétation  sémantique.  Ainsi  dans  Chomsky  (1977 :14)  DS  n’est‐il  plus  défini  que  comme  un :  « indicateur  syntagmatique  initial, [i.e.]  la  structure  engendrée par la base, qui est sous‐jacente à une phrase » 

 

À  ce  point,  il  ne  faudra  pas  longtemps  pour  que  DS  cesse  totalement  d’avoir  la  moindre  pertinence  pour  la  théorie  linguistique,  sauf  peut‐être  comme  vestige  historique. Cela est d’autant plus vrai que, dans les développements des années  80,  la  fonction  Move α  jouait  un  rôle  de  plus  en  plus  important.  Cette  fonction  affirmait  que  l’on  pouvait  déplacer  n’importe  quel  constituant  syntaxique  à  condition de respecter certaines contraintes123. Par exemple, les traces laissées  sur  place  doivent  être  correctement  gouvernées.  C’est  la  période  du  développement  de  la  théorie  du  gouvernement  et  du  liage  (TGL)  dont  on  peut  représenter l’architecture cognitive qu’elle propose comme suit :  

      

123 Pour voir la nécessité de l’opération Move α, considérons comment nous pourrions expliquer  l’ellipse  dans  le  contexte  de  phrases  contenant  un  quantificateur  (c’est  le  phénomène  d’ACD :  Antecedent  Contained  Deletion).  L’analyse  usuelle  de  (a)  veut  qu’il  y  ait  effacement  du  VP  redondant ce qui signifie que (a) est véritablement (a’). C’est pour éviter la répétition mécanique  du VP que nous l’élidons en laissant une trace  

(a) Marie a vu un chien, Pierre aussi. 

(a’) Marie a vu un chien, Pierre aussi a vu un chien  

Essayons d’appliquer la même analyse à (b). Nous initierions alors une boucle infinie comme le  montre (b’) 

(b) Marie a lu exactement les mêmes livres que Pierre. 

(b’) Marie a lu exactement les mêmes livres que Pierre a lu exactement les mêmes livres  que Pierre. 

Pour  éviter  cette  boucle  infinie,  nous  pouvons  appliquer  la  règle  selon  laquelle  les  groupes  nominaux quantifiés (GNQ mais dans le courant du texte, nous utiliserons indifféremment cette  abréviation ou son équivalent anglais QNP) sont toujours déplacés en tête de phrases en laissant  des  traces  avant  que  ne  s’appliquent  les  autres  règles  comme  l’effacement  des  VP  redondants. 

C’est la règle de QR dont nous parlerons plus bas. Une fois l’opération de QR effectuée, on peut  appliquer la même analyse sans risque de régression à l’infinie ainsi que nous le voyons avec (c’)  

(c) [exactement les mêmes livres1 [Marie a lu t1 que Pierre] 

(c’) [exactement les mêmes livres1 [Marie a lu t1 que Pierre a lu t1 ]   

 

  170 

La cognition linguistique selon la TGL (Source Hornstein 1995)     

Mais cette architecture accorde encore trop d’importance au niveau DS. Si nous  acceptons  que  toute  transformation  laisse  des  traces  et  qu’à  partir  de  SS,  on  a  directement  accès  à  ces  traces  phonologiquement  neutres  mais  cognitivement  perceptibles, alors on a deux conséquences : la première est que si SS est bien le  lieu de l’interprétation sémantique, la tâche du linguiste est de révéler ces traces  et de fournir voir comment elles déterminent l’interprétation sémantique. Étant  donné  que  les  traces  se  comportent  comme  les  variables  liées  de  la  logique,  Chomsky  nomme  niveau  LF  (pour  Logical  Form),  ce  niveau  que  le  linguiste  découvre  en  faisant  apparaître  la  véritable  structure  cachée  des  formules  SS  .  Dans  les  derniers  développements  de  la  linguistique  générative  (la  théorie  minimaliste), le niveau DS ne joue absolument plus aucun rôle. C’est pourquoi, le  schéma suivant est peut‐être le plus approprié pour décrire l’architecture de la  cognition linguistique.  

 

!

!"# !!! $%%$ !!! &'"$

$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$狁$

!

!

!

"#$%!&!

'()%*+*,)-.#(!

/,0-(.12%!

La cognition linguistique selon la théorie minimaliste     

Dans ce qui suit, nous allons nous focaliser sur ce niveau LF. En quoi consiste‐t‐il  exactement ? Appartient‐il au module syntaxique ou bien au module sémantique  de l’esprit ?  

Le niveau LF 

Il est quelque peu ironique qu’au bout de tout ce parcours nous nous retrouvions  à  considérer  un  niveau  dont  le  nom  même  (Logical  Form)  semble  valider  un  retour à notre point de départ. Nous avons commencé notre exploration par le  rejet  de  l’idée  selon  laquelle  nos  langues  naturelles  sont  un  masque  pour  la  pensée et que pour accéder à l’intégrité de nos pensées, il faut découvrir la forme  logique  des  énoncés  en  langue  naturelle.  D’une  certaine  manière,  les  syntacticiens qui posent un niveau LF ne disent pas autre chose. Le niveau SS (i.e. 

nos  énoncés  en  langue  naturelle)  est  trompeur  parce  qu’il  ne  nous  révèle  pas 

  171  tout  ce  qui  est  pertinent  pour  une  analyse  sémantique.  Il  y  a  cependant  deux  différences  essentielles  entre  le  niveau  LF  et  le  projet  d’enrégimentation  des 

  171  tout  ce  qui  est  pertinent  pour  une  analyse  sémantique.  Il  y  a  cependant  deux  différences  essentielles  entre  le  niveau  LF  et  le  projet  d’enrégimentation  des 

Dans le document The DART-Europe E-theses Portal (Page 164-175)