• Aucun résultat trouvé

Le contenu de la théorie : transformations & LF

Dans le document L'interface Langage/Pensée (Page 164-168)

Le contenu de la théorie : transformations & LF  

Jusqu’à  présent,  nous  avons  essayé  de  justifier  le  cadre  syntaxique  que  nous  voulions  utiliser  comme  base  pour  notre  théorie  de  l’interface  langage/pensée.  Nous  allons  à  présent  voir  quel  est  exactement  le  modèle  proposé  pour  le  traitement du langage.  

Transformations  

La  grammaire  générative  est  parfois  appelée  grammaire  transformationnelle.  L’un  des  apports  essentiels  de  Chomsky  (cf.  Chomsky  1955,  1956,  1957)  à  la  linguistique  a  été  de  comprendre  que  les  grammaires  à  états  finis  étaient  inadéquates  pour  la  production  des  grammaires  de  nos  langues  naturelles  et  qu’il  fallait  nécessairement  une  analyse  transformationnelle.  L’idée  de  grammaires à états finis n’est rien d’autre qu’une formalisation de cette théorie  de  Saussure121 selon  laquelle :  « les  mots,  comme  les  phrases,  sont  des  concaténations de signes le long d’un axe temporel linéaire (le temps nécessaire  pour prononcer le mot ou la phrase) »122 Cette concaténation se fait à partir d’un  découpage  préalable  qui  classe  les  morphèmes  et  les  mots  sur  un  axe  paradigmatique.  Égré  (2011 :  589)  a  le  schéma  suivant  qui  permet  de  voir  comment un tel processus pourrait produire des phrases.  

Pierre observe Un Très Vieux Chat

Marie mange Le Gros poulet

Susanne peint Beau chien

… … …

 

      

121 Notons  cependant  que  les  critiques  que  Chomsky  fait  à  ce  modèle  s’adressent  plus  directement à Hockett (1955) qui avait mathématisé les intuitions de Saussure grâce à la théorie  de l’information développée par Shannon et Weaver (1949)  

122 Nous  citons  Égré :  in  Barberousse,  A.  Bonnay,  D.  &  Cozic,  M.  (2011 :  pp.  572‐642)  chez  qui  nous prenons les schémas qui suivent.   

  164  Les mêmes procédures qui à partir de ce tableau permettent de produire « Pierre  observe  un  très  beau  chat. »  permettraient  également  d’engendrer  la  phrase :  « Marie  mange  le  chien. »  En  revanche,  elles  ne  pourraient  pas  permettre  de  produire : « Observe Susanne beau le. » parce que dans cette grammaire, il faut  partir  de  la  gauche  à  la  droite,  sélectionner  d’abord  un  sujet  possible  dans  la  bonne  colonne  avant  de  choisir  un  verbe,  un  déterminant,  etc…  Les  colonnes  sont  donc  l’axe  paradigmatique  et  on  sélectionne  un  élément  dans  chaque  colonne  si  l’on  veut  engendrer  un  énoncé  bien  formé.  Les  éléments  qui  se  trouvent  dans  la  même  colonne  sont  substituables.  La  concaténation  se  fait  nécessairement  selon  l’axe  linéaire  en  partant  de  gauche  à  droite.  Chomsky  (1957 : Chap. 3) montre que l’on peut modéliser ce genre de grammaire comme  un automate à états finis dont le schéma ci‐dessous est un exemple.    Automate à état finis (Source Égré 2011 :590)    Il démontre cependant qu’il est impossible à un tel automate d’engendrer toutes  les phrases grammaticales de nos langues naturelles parce qu’il ne modélise pas  les  relations  de  dépendance  qui  existent  entre  les  constituants  syntaxiques  de  nos  langues  naturelles.  Le  problème,  c’est  que  cette  procédure  ne  nous  permet  pas  de  rendre  compte  des  sous‐structures  qui  existent  dans  la  phrase.  Par  exemple,  n’importe  quel  locuteur  de  la  langue  sait  que  la  chaine  « un  très  gros  chien » est un regroupement ‘naturel’ alors que la chaine « Marie mange le » ne  l’est pas. Pour rendre compte de ces découpages internes à la phrase, il faut que  le  mécanisme  qui  engendre  la  phrase  en  fasse  apparaître  la  structure  syntagmatique. Cela, une grammaire à états finis en est incapable. C’est pourquoi  Chomsky  considère  comme  alternative  minimale  les  grammaires  non‐ contextuelles  intégrant  des  règles  de  récritures  qui  permettent  de  faire  apparaître  le  processus  de  formation  des  phrases  ainsi  que  leur  structure  hiérarchique.  Une  phrase  de  nos  langues  naturelles  n’est  pas  seulement  une  concaténation de mots, c’est une association réglée de constituants qui sont eux  même  complexes.  Cette  association  ne  se  fait  pas  tout  simplement  de  gauche  à  droite mais obéit à des règles syntaxiques. C’est ce que montre par exemple cet  arbre syntaxique.  

  165   

Exemple d’arbre syntaxique (Source Égré 2011 :592)   

Cet arbre nous permet au moins trois choses :  

• D’abord  de  voir  que  les  éléments  de  l’arbre  sont  étiquetés  selon  leur  catégorie syntaxique 

• Ensuite  de  faire  apparaître  les  règles  d’association  qui  permettent  d’engendrer  la  phrase.  Par  exemple  la  branche  qui  descend  vers  ‘très  vieux’ nous montre qu’une règle de formation de AP est APADV+AP qui  nous  dit  qu’une  phrase  adjectivale  (AP)  se  forme  en  concaténant  un  adverbe  (ADV)  et  une  autre  phrase  adjectivale  (AP).  Nous  voyons  également  qu’un  AP  peut  ne  consister  en  rien  d’autre  qu’un  ADJ.  Le  linguiste génératif ambitionne de fournir toutes les règles de formations  engendrant les phrases grammaticales de la langue.  

• Enfin  de  montrer  que  ces  règles  ne  s’appliquent  ni  arbitrairement,  ni  de  gauche à droite. Par exemple, dans notre arbre nous avons deux NP mais  le  second  est  subsumé  sous  le  VP.  Cela  veut  dire  que  nous  avons  un  syntagme nominal qui est lié au syntagme verbal parce que complément  du verbe et un autre qui est au même niveau que le VP.  

L’arbre  syntaxique  n’est  qu’un  moyen  de  représentation,  ce  qui  est  important  c’est  de  voir  qu’une  théorie  grammaticale  assez  puissante  pour  décrire  les  langues naturelles doit au moins, non seulement être récursive (comme l’étaient  les grammaires à états finis), mais également étiqueter les éléments de la langue  selon leur catégorie syntaxique et leur appliquer des règles de formation selon  un  ordre  strict.  Mais  une  grammaire  qui  se  limiterait  à  décrire  la  phrase  telle  qu’elle apparaît et à en placer les éléments sur un arbre syntaxique hiérarchisée  ne serait pas encore assez puissante pour en expliquer la genèse. C’est pour cette  raison  que  Chomsky  introduisit  les  règles  de  transformation  et  proposa  de  distinguer la structure de surface (SS) de la structure profonde (DS)  

Les règles de transformation permettent de ne pas se limiter à décrire la liaison  des  syntagmes  grammaticaux  mais  de  montrer  comment  se  forment  ces  syntagmes et de rendre compte du lien qui peut exister entre deux phrases. Pour  illustrer  ce  point,  revenons  à  la  parenté  qui  existe  entre  la  forme  passive  et  la  forme  active.  Si  nous  considérons  à  nouveau  (a)  et  (b),  il  nous  faut  une  règle 

  166  générale qui fait apparaître leur lien tout en bloquant des formes passives non  souhaitées comme le passage de (c) à (d).   (a) Jean a épousé Marie  (b) Marie a été épousée par Jean  (c) Je mange au restaurant  (d) *Au restaurant est mangé par moi     Une possibilité est de poser une règle du genre :   Si SN1‐ VP‐SN2 est une phrase du langage, alors, SN2‐Aux‐VP‐par‐SN1 est  également une phrase du langage.   Il est facile de voir que cette règle permet de rendre compte de la transformation  passive.  En  revanche,  on  voit  mal  comment  elle  pourrait  nous  permettre  de  bloquer la dérivation de (d) à partir de (c). Ce qui se passe selon Chomsky, c’est  que dans (c), il y a un constituant syntaxique qui est silencieux mais qui explique  que  nous  ne  puissions  effectuer  directement  la  transformation  passive.  Le  véritable contenu de (c) est : « Je mange PRO au restaurant ». PRO est une entité  linguistique phonologiquement non représentée mais qui joue bien un rôle dans  la syntaxe. La bonne transformation passive de (c) aurait du être : 

(d’) : PRO est mangé au restaurant par moi 

 Étant  donné  que  le  français,  contrairement  à  l’italien  (cf.  Rizzi  1986)  par  exemple  ne  permet  pas  que  le  sujet  ne  soit  pas  phonologiquement  représenté,  cette transformation est impossible. Cet exemple nous montre deux choses :  

• D’abord  que  la  théorie  syntaxique  ne  saurait  se  limiter  à  un  simple  étiquetage  syntaxique  et  à  une  description  des  relations  entre  les  constituants mais doit se donner les moyens d’expliquer et de prédire les  relations grammaticales acceptées par les locuteurs natifs et justifier les  impossibilités comme la permutation que nous avons essayée en (d)  • Ensuite  que  pour  qu’une  telle  explication  soit  adéquate,  il  nous  faut 

parfois  poser  des  entités  théoriques  comme  PRO  qui  quoique  n’apparaissant  pas  dans  la  phrase  que  nous  entendons,  sont  indispensables pour rendre compte de la structure de la langue.  C’est pour cette raison que Chomsky a distingué deux niveaux linguistiques : la  structure de surface (SS) et la structure profonde (DS).   Que ce soit dans notre compréhension ou dans notre production langagière, il y a  un certain nombre d’opérations qui prennent place ; certaines sont apparentes et  d’autres ‘cachées’. La structure de surface est la phrase telle qu’elle apparaît dans  nos  productions  linguistiques  et  elle  est  plus  ou  moins  identifiable  à  la  forme  phonologique de cette phrase. Ce que montre l’approche générative cependant,  c’est que cette phrase prononcée est le résultat de règles qui s’appliquent sur des  entités  de  base  et  associent  ces  entités  à  des  formes  phonologiques.  Une  grammaire  de  la  langue  doit  donc  reconstruire  tout  le  processus  et  révéler  certains  entités  syntaxiques  qui  ne  sont  pas  phonologiquement  réalisées  mais  sans  lesquelles  le  fonctionnement  de  la  langue  et  la  structure  de  surface  elle  même n’est pas compréhensible. Ce niveau auquel sont révélées toutes les règles  a  été  nommé  niveau  de  la  structure  profonde.  Ce  dont  les  linguistes  générativistes se rendent compte, c’est que la structure de surface à elle seule ne  suffit  à  rendre  compte  ni  de  la  manière  dont  la  phrase  est  comprise,  ni  des  relations qui existent entre les différents constituants syntaxiques de la phrase.  De ce fait, il a été postulé que la DS est le lieu de l’interprétation sémantique et 

  167  que  les  transformations  produisent  des  SS  qui  elles  sont  le  lieu  de  l’analyse  phonologique.  La  tâche  du  linguiste  est  de  mettre  à  jour  l’historique  des  transformations et de révéler les constituants phonologiquement silencieux tout  autant  que  ceux  qui  apparaissent  dans  SS.  Nous  allons  à  présent  retracer  les  différents modèles proposés dans le cadre génératif avant de nous focaliser sur  le niveau LF. Une chose que nous verrons dans cette description des différentes  étapes  du  programme  génératif  c’est  que,  même  si  le  travail  sur  la  syntaxe  a  toujours  été  indépendant  de  la  sémantique,  des  considérations  sur  l’interprétabilité  ont  parfois  servi  de  guide  à  des  révisions  de  l’architecture  syntaxique proposée.  

Dans le document L'interface Langage/Pensée (Page 164-168)