• Aucun résultat trouvé

Qu'est-ce que le syntactocentrisme ?

i) Le programme minimaliste et l'interface syntaxe-sémantique : une critique de Chomsky

Le programme minimaliste de la grammaire générative (Chomsky (1995)) conçoit le module linguistique comme générant des expressions qui sont des paires son/sens, et délivrant aux interfaces les produits de cette génération. Ainsi, la syntaxe est conçue comme un système permettant d'accomplir une liaison entre les sons et les sens en construisant des expressions porteuses des deux dimensions, phonologiques et sémantiques.

Les deux « interfaces » avec lesquelles le système syntaxique interagit sont l'interface avec le système sensori-moteur, rendant possible l'externalisation sonore de l'expression (cette

interface est nommée PHON) et l'interface avec le système conceptuel-intentionnel, permettant aux expressions d'interagir avec la pensée (cette interface est nommée SEM). La syntaxe envoie aux interfaces des « instructions » qui doivent satisfaire les conditions de lisibilité par l'interface (legibility conditions). Il s'agit alors de poser la question de savoir à quel point la faculté de langage satisfait de manière optimale ces conditions de lisibilité.

Il est important dans le cadre de notre étude de noter que dans le cadre minimaliste standard, l'interface sémantique SEM (comme l'interface PHON) impose des conditions à la syntaxe. Il est clairement supposé qu'il y a un conditionnement de la syntaxe par ce qui lui est extérieur, en l'occurrence le système de la pensée (la même chose serait vraie pour le système d'externalisation sonore). Cela est clairement énoncé par Chomsky (2000b) : Chomsky y imagine la « fable évolutionnaire » selon laquelle un primate pourrait être doté de tout l'appareil mental humain (perception, attitudes propositionnelles, etc.), peut-être d'un Langage de la Pensée à la Fodor, sans pour autant avoir une faculté de langage. Si l'on imagine qu'à un moment, une faculté de langage apparaît, il faut déterminer les conditions auxquelles cette faculté pourra délivrer des expressions lisibles par les autres systèmes mentaux. Le programme minimaliste s'efforce de déterminer ces conditions. Mais on voit que dans ce cadre il y a une prééminence de la « pensée », qui pourrait être exactement telle qu'elle est avec ou sans langage. La faculté de langage se situe par conséquent dans la dépendance de la pensée, elle doit s'adapter à elle, satisfaire des conditions qui lui sont imposées.

Chomsky (2007) affirme également cette dépendance dans des cas concrets, comme dans le passage suivant celui de la quantification :

« CI [= système Conceptuel-Intentionnel] clearly permits interpretation of quantification in some manner. Language should provide such a device if expressive potential is to be adequately utilized... CI permits interpretation of quantification, so that language must generate expressions that yield such interpretation. »

Ainsi, la capacité à quantifier serait une propriété de l'esprit humain indépendante de ses capacités linguistiques. Cela conditionnerait la faculté de langage qui devrait en conséquence être dotée de mécanismes susceptibles d'actualiser cette quantification dans les performances linguistiques.

Wolfram Hinzen (2006b, p. 46) critique ce type d'hypothèses sur les rapports entre le système computationnel et le système conceptuel-intentionnel. Il considère que le recours à l'idée qu'il y aurait un « potentiel expressif » indépendant du langage et que les structures linguistiques devraient permettre de réaliser n'est pas une hypothèse nécessaire. Hinzen

(2002) critique ainsi la tentative de réduire le sens des expressions à ce qu'une pensée correspondante contiendrait, et dont les expressions du langage ne seraient que les véhicules, les supports passifs. Hinzen insiste sur le fait que les expressions ont une signification intrinsèque, en vertu de leur structure notamment : les expressions du langage portent donc

intrinsèquement un potentiel sémantique, et ne sont pas simplement les porteuses d'un

potentiel défini extérieurement. Hinzen appuie son raisonnement sur l'idée que la complexité des structures syntaxiques et de leurs interprétations associées empêche de supposer que ces capacités sémantiques puissent déjà être présentes dans la pensée pré-linguistique :

« However much one wants to dismiss the formative influence of language on thought, and however generously one wants to credit non-human animal thought with compositional and hierarchical structures, one will have to stop at some point. In the presence of significant doubts on the presence of even much simpler structures in the animal mind, interpretations associated to at least the higher functional portions of the clause (or later ‘cycles’ of the derivation) will simply not be there. It is a logical consequence of this that to some extent, for sure, syntax will have to condition itself, instead of being conditioned from the outside. » (Hinzen (2006b), p. 46)

Par exemple, Hinzen (2006b, pp. 46-47) remarque que si l'on suppose l'existence d'un pouvoir quantificationnel au sein même du système conceptuel-intentionnel, on doit en même temps supposer que ce système contient déjà en lui-même les ressources computationnelles pour implémenter de tels mécanismes de quantification. Mais dans ce cas, il n'y a aucune raison de supposer qu'un passage par la syntaxe est nécessaire pour exprimer phonologiquement cette capacité de quantification ; on pourrait avoir un transfert direct du système de la pensée à la forme phonologique des expressions. La syntaxe serait superflue. Mais le fait même qu'elle existe tend à montrer qu'elle apporte elle-même une capacité d'expressivité qu'il n'est pas possible de faire résider dans d'autres systèmes cognitifs que la syntaxe.

Hinzen (2006b) souligne de plus que même si l'on admet l'existence de certaines capacités à la fois dans le langage et dans la pensée, la question de la direction d'explication se pose encore entièrement, et que rien n'empêche que les systèmes non-linguistiques soient modelés par le langage plutôt que l'inverse :

« It is an empirical question entirely, and a widely open one, to what extent the faculty of language, upon generating expressions, has also reorganized the external systems, as opposed to being shaped by them. » (p. 47)

adoptant une conception syntactocentrique, ni même véritablement une conception autonome de la syntaxe, puisque même si les mécanismes syntaxiques peuvent être autonomes, il y a des exigences sémantiques externes que doivent satisfaire les productions du système syntaxique.

Une théorie syntactocentrique est radicalement inverse : elle affirme la prééminence de la syntaxe, et le fait qu'elle n'est pas modelée par des systèmes externes. Dans un tel cadre, la syntaxe est caractérisée comme suit : 1) ses mécanismes de générations d'expressions sont autonomes ; 2) les produits de ces mécanismes n'ont pas à satisfaire d'exigences sémantiques indépendantes de la syntaxe ; 3) c'est au contraire la syntaxe qui impose, en vertu de caractéristiques qui lui sont propres, des contraintes à l'interprétation.

Soulignons ici une éventuelle ambiguïté sémantique : Hinzen récuse l' « accusation », portée par Jackendoff (2002) à l'encontre de la grammaire générative, de « syntactocentrisme » (Hinzen (2006a), p. 154, 274), en assimilant « syntactocentrique » et « non-sémantique ». Au contraire, Boeckx (2008, p. 70, ou 2010, p. 18), assume pleinement le terme, en concevant justement le syntactocentrisme comme la thèse selon laquelle la syntaxe détermine largement l'interprétation. Dans cette acception, le projet d'Hinzen est tout à fait syntactocentrique. En effet, en conformité avec les critères du syntactocentrisme définis ci- dessus, Hinzen (2006b) refuse l'hypothèse selon laquelle on puisse rendre compte de propriétés du système computationnel à partir de conditions sémantiques prédéfinies par le système conceptuel-intentionnel. Il estime que la direction d'explication inverse, celle ayant cours dans un système syntactocentrique, est au moins aussi plausible, et que définir laquelle des deux correspond à la réalité est une question empirique :

« An alternative line of thought that I therefore suggested in MMD [Hinzen (2006a)] was one that makes empirical properties of thought contents derive from the structures generated in the faculty of language, which provides the forms of these thoughts. As noted above, this view must be true at least to some extent, for all minimalist parties involved: this is the extent to which language is productive for certain forms of thought, that is, does not merely ‘answer’ expressive conditions imposed on it from the outside. » (p. 47)

Si l'on prend le cas de la quantification et de la montée de quantificateurs, on peut dire que si cette montée peut sembler être motivée par des exigences d'ordre logique, il est tout à fait plausible de voir la direction d'explication comme inverse : les rapports de portée en logique pourraient être le reflet de cette caractéristique du système syntaxique. Et, de fait, les rapports de portée de la logique reflètent les intuitions interprétatives des locuteurs sur des énoncés des langues naturelles comme « Il y a un médecin qui a examiné les étudiants », qui

ne partage pas l'ambiguïté de la phrase « Les étudiants ont été examinés par un médecin ». On représente la portée dans les représentations logiques par l'ordre linéaire des quantificateurs, mais existe-t-il une raison véritable (autre que conventionnelle) d'interpréter cet ordre comme significatif ? Cet ordre ne pourrait-il pas être le simple reflet des relations de c-commande ayant cours dans les cas de portée syntaxique des quantificateurs : le quantificateur ayant portée large est celui qui c-commande l'autre. Ce serait alors cette relation de c-commande qui conditionnerait l'effet interprétatif de portée. Il n'y a certes pas là non plus de raison d'interpréter ce rapport de c-commande comme ayant les effets notés, mais c'est un cas général en syntaxe que les effets sémantiques déclenchés par les configurations syntaxiques n'ont pas de raison d'être. Par conséquent, il est tout à fait justifié de voir la portée en logique comme le reflet simplifié de la relation de c-commande en syntaxe : la c-commande se traduisant souvent par une précédence linéaire de l'item c-commandant sur l'item c- commandé, la représentation logique ne ferait que reprendre cette forme linéaire, et non la relation véritable permettant de rendre compte de l'effet interprétatif, la c-commande, que la forme logique est incapable de retranscrire. Ainsi, on peut tout à fait concevoir certaines propriétés des systèmes logiques comme des capacités cognitives conditionnées par la syntaxe, et non la syntaxe comme exprimant les propriétés des systèmes logiques ou comme étant leur simple véhicule par transposition dans les langues naturelles.

ii) Un modèle dérivationnel pour une syntaxe aveugle à la signification

Hinzen s'efforce de réaliser un programme authentiquement syntactocentré, où les mécanismes de dérivation syntaxique n'ont pas d'autres motivations que des motivations internes au système computationnel et par conséquent non fondées sur une quelconque raison sémantique ou fonctionnelle – ou même d'architecture générale de notre appareil cognitif. Hinzen, citant le linguiste Juan Uriagereka (2002), résume ainsi sa pensée :

« A derivation does not represent anything, it just proceeds. When syntactic mechanisms operate, they don’t ‘know’ about the meanings they eventually produce, a theme discussed earlier under the heading of ‘semantic blindness’: while there are interfaces, they play no direct role in the process of generation. (…) As Uriagereka puts the same idea, it is ‘as if syntax carved the path interpretation must blindly follow’ ( 2002: 64). » (2006a, p. 250)

L'idée d'« aveuglement sémantique » (semantic blindness) caractérise les dérivations syntaxiques comme n'étant pas guidées par la signification à laquelle la dérivation aboutit. Il

s'agit d'une manière de formuler l'hypothèse selon laquelle la syntaxe n'a pas de motivation sémantique, tout en ayant a des conséquences sémantiques. Il s'agit également d'une manière de dire qu'il n'y a pas de conditions extérieures à la syntaxe s'appliquant sur le résultat global d'une dérivation : en ce sens, une expression ayant abouti à la fin de la dérivation est automatiquement interprétable en principe, puisque dans un cadre privé de contraintes externes, seuls des critères internes peuvent déterminer l'acceptabilité sémantique d'une expression. Il ne s'agit pas de dire, on va le voir, que toute expression générée par le langage peut être intuitivement dotée d'un sens, mais de dire qu'elle est du bon « format » pour être interprétée, dans la mesure où ce format est celui de ce que Uriagereka décrit dans le passage cité comme le « chemin que l'interprétation doit suivre aveuglement ».

Hinzen s'appuie, pour fonder techniquement cette approche théorique des expressions du langage, sur un modèle computationnel où la génération des expressions ne répond qu'à des conditions dérivationnelles, et aucune condition représentationnelle. Ces conditions dérivationnelles s'appliquent à chaque étape de la génération, et bloquent la dérivation si elles ne sont pas respectées. On dit alors que l'expression ne converge pas. On dit qu'elle converge si elle n'est bloquée par aucune contrainte à aucune étape de la dérivation. Il n'y a donc pas lieu, une fois la génération achevée (et donc sans qu'elle ait rompu aucune condition dérivationnelle au cours de la génération), de supposer que des contraintes supplémentaires pourraient s'appliquer à l'interface, à travers une représentation de l'ensemble de l'expression et une évaluation de son acceptabilité sémantique à l'interface, pour bloquer des dérivations qui ne respecteraient pas telle ou telle condition.

Ainsi, des dérivations peuvent avorter pour des raisons formelles, parce qu'elles ne respectent pas telle ou telle contrainte s'appliquant à chaque étape de la dérivation. Tout blocage est donc local, et non global. Cela implique l'impossibilité que des expressions puissent être générées intégralement tout en étant rejetées, à la fin de la dérivation, pour des raisons sémantiques.

Le modèle syntaxique sur lequel s'appuie Hinzen est un modèle dynamique de la dérivation syntaxique connu sous de le nom de Crash-Proof Syntax, proposé par Frampton & Guttman (2002) : « In an optimal system, an impossible meaning would never be produced, and syntax would be ‘crash-proof’ » (Hinzen, 2006a, p. 249). Une telle syntaxe « imperméable à l'échec » est donc caractérisée par le fait que la syntaxe ne peut générer d'expressions dont la signification serait « impossible », c'est-à-dire incompatible avec des exigences sémantiques externes s'appliquant au produit des dérivations, dans la mesure même où ces exigences sémantiques externes n'existent pas.

Décrivons plus précisément ce modèle de la dérivation syntaxique. Frampton & Guttman distinguent deux types de systèmes génératifs : un type où la dérivation est peu contrainte mais associée à des filtres externes qui permettent de ne retenir que les expressions bien formées et d'exclure les autres, et un type où la dérivation est hautement contrainte localement mais peut, en conséquence, se passer de filtres :

« Free generation and filtering: Syntactic representations (or derivations) are freely generated. An extensive system of filters assigns status to these representations or to the derivations which produced them.

Highly constrained generation: Precisely constrained operations iterate to derive a class of representations which are well-formed and interpretable by the interface systems. Output filters play no direct role in the generation process. » (Frampton & Gutmann (2002), p. 90)

Ainsi, dans le premier cas la sélection des expressions signifiantes est effectuée par des filtres externes au système computationnel et où la convergence des expressions est déterminée, selon ces filtres, aux interfaces, dans l'autre la sélection est opérée au sein même du système, pendant la dérivation, en vertu des contraintes imposées par le système computationnel sur ces dérivations.

Les filtres de la première approche s'appliquent à la fin de la dérivation et écartent les expressions ne satisfaisant pas certaines exigences computationnelles globales (si un prédicat n'a pas reçu un argument dont il a besoin par exemple). Dans le cas du critère Théta par exemple, spécifiant qu'une expression ne converge pas si le prédicat ne satisfait pas à l'ensemble des conditions sur sa structure argumentale, cela signifie qu'une condition externe pèse sur les expressions exigeant qu'elles satisfassent au critère pour être acceptées. Mais une dérivation peut être menée à terme malgré une violation d'une exigence de complémentation, tout en étant nécessairement rejetée par les systèmes externes qui constateront l'incapacité à lui donner une interprétation. La considération de l'expression en son entier est nécessaire pour statuer sur le respect du critère Théta et implique une représentation globale de cette expression, et peut donc être dite reposer sur un processus « représentationnel ».

Mais comme le soulignent Frampton & Guttman, le critère Théta, au lieu d'être conçu comme un filtre (s'appliquant globalement à une représentation de l'expression générée), peut être conçu comme une contrainte dérivationnelle : à chaque étape de la dérivation, les positions d'argument doivent recevoir un argument, et si cette contrainte dérivationnelle n'est pas respectée, la dérivation ne peut pas se poursuivre et encore moins aboutir à la transmission d'une expression aux interfaces où elle pourra être interprétée. Cela est rendu

possible par la théorie de la vérification, présentée plus haut, qui définit les exigences de complémentation comme des traits à vérifier, et qui en l'absence de vérification locale, empêche la dérivation de se poursuivre et la bloque.

Dans ce cadre, si une expression où la structure argumentale n'est pas respectée n'est pas interprétée, ce n'est pas en vertu de la propriété qu'elle aurait de ne pas être interprétable dans sa globalité (en vertu de conditions générales sur les représentations syntaxiques), mais simplement parce qu'elle ne parvient pas au point (ultime) de la dérivation où elle serait susceptible d'être interprétée, parce qu'une contrainte locale n'a pas été respectée et a déclenché l'échec immédiat de la dérivation.

Les contraintes dérivationnelles ne sont pas, on le voit, globales, mais locales. Toute rupture avec les contraintes dérivationnelles entraîne automatiquement et immédiatement l'échec de la dérivation.

Dans cette approche, une expression générée ne tend pas vers une fin qui serait de générer une expression signifiante, c'est-à-dire visant à satisfaire certaines exigences d'une interface sémantique externe à la syntaxe, puisque les règles dérivationnelles internes au système computationnel sont en soi le seul critère pertinent de son acceptabilité.

La théorie d'Hinzen est donc effectivement syntactocentrique : il n'y a pas de filtrage des expressions à un niveau sémantique spécifique, car il n'y a pas de module sémantique à la fois séparé de la syntaxe et actif au sein du processus de génération. La syntaxe est autonome et procède à partir de ses propres contraintes sur les dérivations. Mais cela ne signifie pas pour autant qu'il n'y a rien de sémantique dans les expressions. Nous avons précisé que si la dérivation n'était pas contrainte sémantiquement, elle avait néanmoins des effets sémantiques, impliqués par la syntaxe. Mais la sémantique, au moins à un niveau strictement linguistique, devient dans ce cadre un simple appendice de la syntaxe, elle n'a plus d'existence intrinsèque ni de pouvoir contraignant sur la syntaxe, mais au contraire suit de la syntaxe.

iii) Contraintes d'usage

La conclusion de Frampton & Gutmann est donc qu'il est impossible que le système computationnel génère autre chose que des phrases syntaxiquement acceptables, et qu'un filtre externe est donc théoriquement inutile. En conséquence, Frampton & Gutmann estiment que le système syntaxique ne peut pas générer d'expressions telles que le système sémantique ne puisse leur accorder une « interprétation cohérente » (2002, p. 93) et qu'il faut s'efforcer de faire en sorte que le système Crash-Proof Syntax soit apte à écarter ce type de dérivations.

Pourtant il semble bien qu'il existe des phrases auxquelles on ne peut pas intuitivement attribuer de sens, comme la phrase Colorless green ideas sleep furiously, supposée être l'exemple même d'une phrase bien formée mais incohérente sémantiquement. Faut-il supposer que ce type de phrases ne sont pas dérivables par le système computationnel dans le cadre

Crash-Proof Syntax ? Ainsi, nous empruntons à Crash-proof Syntax l'idée qu'il n'y a pas de

filtres sémantiques globaux externes à la syntaxe, mais nous ne partageons pas entièrement l'idée que la syntaxe ne puisse pas générer ce qu'ils appellent « charabia convergent » (converging gibberish) :

« In the crash-proof syntax we envision, there are no formal filters in the syntax. Every derivation