• Aucun résultat trouvé

Réalité qualitative et analyse économique spatiale

N/A
N/A
Protected

Academic year: 2021

Partager "Réalité qualitative et analyse économique spatiale"

Copied!
47
0
0

Texte intégral

(1)

HAL Id: hal-01542061

https://hal.archives-ouvertes.fr/hal-01542061

Submitted on 19 Jun 2017

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Réalité qualitative et analyse économique spatiale

Jean-Marie Huriot, Jacky Perreur

To cite this version:

Jean-Marie Huriot, Jacky Perreur. Réalité qualitative et analyse économique spatiale. [Rapport de

recherche] Institut de mathématiques économiques (IME). 1991, 42 p., ref. bib. : 5 p. �hal-01542061�

(2)

INSTITUT DE MATHEMATIQUES ECONOMIQUES

LATEC C.N.R.S. URA 342

DOCUMENT de TRAVAIL

UNIVERSITE DE BOURGOGNE

FACULTE DE SCIENCE ECONOMIQUE ET DE GESTION

4, boulevard Gabriel -21000 DIJON - Tél. 80395430 -Fax 80395648

(3)

9109

REALITE QUALITATIVE ET ANALYSE ECONOMIQUE

SPATIALE

Jean-Marie HURIOT* - Jacky PERREUR**

octobre 1991

* Institut de Mathématiques Economiques ** Institut d’Economie Régionale

(4)
(5)

LABORATOIRE D ’ANALYSE ET DE TECHNIQUES ECONOMIQUES URA 342 CNRS

4 bd Gabriel F-21000 DIJON

REALITE QUALITATIVE ET ANALYSE ECONOMIQUE SPATIALE

Jean-Marie HURIOT (IME) ET JACKY PERREUR (1ER)

INTRODUCTION.

Cette réflexion est née d’un sentiment un peu imprécis, d'un soupçon sans preuve, d'une interrogation sur la nature de révolution de la science régionale: les aspects qualitatifs ne seraient-ils pas en train de resurgir au premier plan dans un milieu d'où la volonté incessante de quantification les aurait trop longtemps chassés?

Quelques lectures et des heures de discussion nous ont montré que cette question était trop simple, et mal posée.

Il est vrai que le discours commun, et même parfois scientifique, présente une tendance spontanée à opposer qualité et quantité, qualitatif et quantitatif, dans une sorte de dualisme. Alors, très souvent, surtout chez les économistes*, la préférence est donnée au quantitatif, signe de rigueur, source du progrès scientifique. L'opinion inverse, tout aussi simpliste, accuse la quantification de trahir - donc de ne pouvoir expliquer - une réalité qui est tout entière qualitative.

Existe-t-il vraiment un dualisme qualité-quantité? Nous en doutons. Avant tout, il faudrait avoir une idée précise du sens des termes évoqués. C'est la première difficulté de notre tâche. Les mots "qualité", "qualitatif", nous mettent dans une gêne comparable à celle de Saint Augustin face au "temps":

"Le temps, j'ai l'impression de savoir ce que c'est quand on ne me le demande pas. Quand on me le demande, je ne sais plus rien." (cité par Reeves, 1990, 121).

Nous pourrions ajouter que le pire se produit quand on le demande aux

mais aussi chez certains sociologues: Sorokin (1959) dénonce la "quantophrénie" des sociologues américains.

(6)

autres: tout peut arriver ! (la petite enquête à laquelle nous nous sommes livrés en donne une preuve éclatante.)

Les termes qualitatif et quantitatif ne s’opposent pas. Ils caractérisent des approches du réel ni antinomiques, ni exclusives. Ils entretiennent des relations très complexes que nous essaierons de simplifier.

A quel propos faut-il parler de qualitatif et de quantitatif? Faut-il situer le problème au niveau de la nature de ce qu'on observe (les phénomènes), au niveau de la façon dont on agit (la politique) ou au niveau de la manière dont on essaie de comprendre la réalité (méthodes d'analyse)? Nous avons délibérément écarté les deux premiers niveaux pour nous consacrer à l'examen du qualitatif dans les méthodes d'analyse de la science régionale.

La première section est consacrée à une tentative pour comprendre un peu mieux le sens des termes qualité et quantité et leurs relations: nous y donnons les résultats d'une enquête volontairement naïve et quelques réflexions personnelles ou suggérées par nos lectures. La deuxième section présente une sélection de méthodes d'analyse reliées au qualitatif et qui se développent en science régionale.

1

- QUALITÉ ET QUANTITÉ. 1.1. L ’enquête.

Un questionnaire en partie ouvert a été adressé à environ 150 membres de la communauté scientifique concernée par l'analyse spatiale: des universitaires, des praticiens, appartenant pour la plupart à l'Association de Science Régionale de Langue Française. Il s'agissait de les faire réagir à quelques stéréotypes et d'essayer de connaître leur opinion sur la distinction qualitatif-quantitatif. Cette tentative n'avait aucune prétention à la représentativité. Nous commentons ci-dessous les 31 réponses exploitables reçues.

1.1.1. Les définitions.

On demandait d'abord de classer par degré supposé de pertinence trois définitions de l'analyse qualitative, la première émanant de sociologues (Miles et Huberman, 1984, 21; citée dans Gérard et Loriaux, 1988, 47), la

(7)

seconde d'un économiste (Quirk, 1987, 1) et la troisième d’un philosophe (Lalande, 1951, 864). Aucune n’est rejetée: pour les deux premières, seules 5 et 6 notes respectivement sont inférieures à 3 sur 10; la troisième semble emporter plus d’adhésions: elle est classée 12 fois en tête seule et 4 fois ex aequo, mais c’est à son sujet que les opinions sont les plus extrêmes: elle obtient 9 notes inf érieures ou égales à 3 et 16 notes supérieures ou égales à 7. La définition économique, plus technique, est un peu moins bien placée, à cause d’une moins bonne notation de la part des non-économistes.

1.1.2. Qualitatif contre quantitatif.

On proposait ensuite plusieurs oppositions de termes susceptibles d’être associées au couple qualitatif-quantitatif (certaines étant suggérées par Halfpenny, 1979, 799). C’est l’opposition ordinal-cardinal qui est le plus souvent citée (20 fois dont 9 fois en tête et 4 fois en second rang), suivie de non mesurable-mesurable (17 fois dont 10 en tête et 7 en second). Un deuxième groupe d’oppositions apparaît avec soft-hard (citée 11 fois) et imprécis-précis (12 fois), puis un troisième avec flexible-rigide (9 fois), subjectif-objectif (8 fois) et inf ormel-f ormel (7 fois). Enfin, d’autres oppositions sont suggérées par les enquêtés: nominal-cardinal, non réducteur (ou complexe, ou fidèle au réel)-réducteur, sémantique- métrique. Les commentaires sont unanimes pour signaler que l’exercice est difficile et qu’il est mauvais et vain de vouloir opposer qualitatif et quantitatif. Certains soulignent cette difficulté en renversant quelques-unes des oppositions proposées: ainsi la qualitatif serait explicatif et abstrait (et non descriptif et concret) et le quantitatif descriptif et concret (et non explicatif et abstrait). Il ressort enfin que la connaissance et le raisonnement seraient fondamentalement qualitatifs.

1.1.3. Traits distinctifs.

Face aux quatre propositions soumises aux réactions des enquêtés, plus des deux tiers pensent que "la quantité ne paraît pas pouvoir exister sans la qualité", ce qui est à rapprocher de la définition de Lalande. Dans à peine un tiers des cas, on pense que l’analyse qualitative est plus "impressionniste". L ’idée que le développement du qualitatif prend prétexte d’une utilisation abusive du quantitatif reçoit peu d’echos. L ’orientation

(8)

vers l'analyse qualitative tiendrait à des raisons plus profondes: c'est confirmé par le refus quasi général de considérer les tenants du qualitatif comme des idéologues et des doctrinaires.

1.2.4. Les domaines de l'analyse qualitative.

L'interprétation du questionnaire est ici assez délicate: le fait de ne pas reconnaître une méthode proposée peut révéler une mauvaise connaissance de cette méthode plus qu'un refus de la considérer comme quantitative. Avec toute la prudence nécessaire, on peut suggérer trois groupes de méthodes:

■ celles qui semblent relever incontestablement du domaine qualitatif : l'analyse multicritère et l'analyse cognitive et de perception (retenues dans plus des deux tiers des réponses);

■ l'économétrie qualitative et les modèles de choix discrets, retenus dans la moitié des réponses;

■ les mathématiques du flou, les modèles hédoniques et l'analyse structurale, qui ne sont retenus que dans un tiers des réponses.

La statique comparative n'est retenue que 4 fois, ce qui semble correspondre à une mauvaise connaissance de ce que les théoriciens appellent l'économie qualitative.

Ce dépouillement n'a qu'une valeur indicative. Il ne préfigure en rien la façon dont nous avons décidé de traiter les rapports qualitatif- quantitatif.

1.2. Réflexion sur les fondements.

Pour aborder un couple de concepts aussi fuyant, un peu de philosophie nous paraît indispensable. Le lecteur voudra bien nous pardonner ce détour. Bien qu'il soit courant de faire de la philosophie sans le savoir, il est difficile d'en faire en le sachant. N'étant pas philosophes, nous aurons recours à des points de vue autorisés, ce qui explique la densité inhabituelle de citations dans ce texte.

1.2.1. Quelques définitions.

(9)

d’Aristote. La qualité, contrairement à la quantité, n’est pas mesurable et ne comporte que des différences d’intensité (Foulquier, 1962). Un rapprochement est donc à f aire avec la distinction, classique en philosophie, entre grandeur intensive et grandeur extensive:

"Dans tous les phénomènes, le réel, qui est objet de la sensation, a une grandeur intensive, c’est-à-dire un degré. [...] c’est-à-dire un degré d’influence sur les sens." (Critique de la raison pure, dans Kant, 1980, I, 906-907).

"J’appelle grandeur extensive celle dans laquelle la représentation des parties rend possible la représentation du tout (et par conséquent la précède nécessairement)." (Ibid., 903).

Toutefois, les relations entre les deux doublets "intensif-extensif" et "qualitatif-quantitatif" sont complexes. Nous noterons seulement qu’un débat s’est ouvert sur le caractère quantitatif de l’intensité des sensations; celui-ci n’a fait aucun doute pour les "psychophysiciens" (Fechner, 1860, et son Ecole), mais est refusé par Bergson pour qui la mesurabilité de l’intensité n’est que celle des causes de la sensation:

"... nous avons trouvé que les faits psychiques étaient en eux-mêmes qualité pure ou multiplicité qualitative, et que, d’autre part, leur cause située dans l’espace était quantité. En tant que cette qualité devient le signe de cette quantité, et que nous soupçonnons celle-ci derrière celle-là, nous l’appelons intensité." (Bergson, 1889, éd. 1948, 169).

L ’intensité n’est donc rien d’autre que la qualité. Foulquier est plus nuancé:

"La notion d’intensité est intermédiaire entre celle de quantité (impliquant mesure) et celle de qualité (excluant l’échelle plus et moins)." (Foulquier, 1962, 374).

On ne peut pas mesurer l’intensité, mais seulement la repérer indirectement par des nombres.

L ’intensité est aussi conçue comme la manifestation de la variation de la qualité, selon les modalités plus ou moins:

"Les qualités [...] reçoivent du plus ou du moins par plusieurs degrés." (Bossuet, cité par Foulquier, 1962, 598).

Ce débat montre au moins une chose, c’est que le qualitatif et le quantitatif ne sont peut être que les extrêmes d’un continuum dans la possibilité de traduire numériquement la réalité. Nous y reviendrons.

Les choses se compliquent encore quand on considère comment Hegel établit une dialectique entre la qualité et la quantité. D ’une part, un accroissement quantitatif peut entraîner un changement de qualité, par

(10)

exemple à partir d’un certain seuil (passage de la qualité solide à la qualité liquide à partir d’une certaine température); d’autre part, tout changement quantitatif résulte de l’addition ou de la soustraction d’unités, c’est-à-dire de singularités qualitatives (D’Hondt, 1988).

1.2.2. Le débat qualitatif-quantitatif.

Longtemps la quantification a été considérée comme une condition du progrès scientifique, et c’est encore souvent le cas aujourd’hui. Cela n’est pas sans provoquer réactions et controverses. En sociologie, le débat qualitatif-quantitatif a parfois été lié avec les discussions sur le positivisme, sur le scientisme, voire sur la conception de la "science normale" de Kuhn (Mucchielli, 1991), ce qui relève plus d’un amalgame idéologique que d’un examen attentif. Le refus de considérer les faits sociaux, à la manière de Durkheim (1947), comme des "choses", le rejet - aujourd’hui universel - du scientisme, n’impliquent pas l’abandon des méthodes quantitatives. La justification que donne Mucchielli (1991, 15-18) de l’utilité des méthodes qualitatives en sociologie est heureusement plus crédible. Les "faits humains", "par essence, ne sont pas mesurables"; en sciences humaines, le "f ait" est global, il y a une analogie entre l’observateur et l’observé, le "fait" est non une chose mais un ensemble de significations liées à des valeurs, il est l’attestation d’une présence, d’une implication de l’observateur qui est lui aussi observé. L ’étude de ces faits est alors menée

"avec des techniques de recueil et d’analyse qui, échappant à toute codification et programmation systématique, reposent essentiellement sur la présence humaine et la capacité d’empathie, d’une part, et sur l’intelligence inductive et généralisante, d’autre part. [...] Leur valeur ne s’apprécie pas en référence aux canons de la recherche "scientifique" classique." (Mucchielli, 1991, 3).

Il est certain qu’on ne voit pas très bien comment, en l’absence des critères de validité généralement admis, on pourrait accepter les résultats de ces méthodes. N ’y a-t-il pas un risque de retomber dans des croyances, au mépris de la science? Autant que l’excès du scientisme, il faut éviter l’excès inverse.

Le débat rebondit bien sûr en économie, où les méthodes quantitatives ont pris une large place, et se heurtent d’autant plus aux limites de la quantification. D ’un côté, la quantification est jugée difficile, mais nécessaire:

(11)

"... l'appréciation purement qualitative des phénomènes économiques rencontre vite ses limites; elle se réduit en effet [...] , en cas de comparaison avec un phénomène de référence, à une formulation ternaire ("plus", "égal" ou "moins"). C’est un peu juste pour décrire, même grossièrement, la variété et la complexité des relations économiques: le recours aux possibilités infinies des échelles numériques, c'est-à-dire le détour par la mesure quantitative, s'impose vite comme une nécessité" (Chapron, 1988, 1228).

A l'inverse, von Mises (1962) va reprocher à la science économique de vouloir ressembler aux sciences dites exactes et lui dénier toute possibilité de quantification:

"Dans le domaine de l’action humaine, il n'y a aucune relation constante entre les facteurs. En conséquences, il n’y a ni mesure ni quantification possible. Toutes les grandeurs mesurables que prennent en compte les sciences de l’action humaine sont des quantités de l’environnement dans lequel l’Homme vit et agit" (von Mises, 1962, 62).

Von Mises rompt le lien vital établi entre science et mesure. Il va jusqu’à ridiculiser les efforts des économètres:

"En tant que méthode d’analyse économique, l’économétrie est un jeu puéril avec les chiffres qui ne contribue en rien à élucider les problèmes de la réalité économique." (Ibid., 63).

Puisqu’on est dans l’outrance, il est intéressant de rapprocher cette opinion de celle de Thom, contre une certaine inflation expérimentale productrice de données inutiles (voir citation page 11).

Laissons ici les références aux auteurs. Elles ne font que confirmer les résultats de l’enquête: diversité des opinions, mais accord sur le critère de mesurabilité et sur la nécessité de dépasser l’opposition - ou la dualité - qualitatif-quantitatif. Présentons maintenant notre manière de voir, qui n’est qu’une série de postulats émanant de choix que nous avons effectués, au cours de nos discussions, dans les analyses qui s’offraient à nous. Ces choix n’ont d’autre justification que notre façon de penser.

1.2.3. Un Postulat.

L'Homme cherche, par un processus d'abstraction, à quantifier ce qui est df essence qualitatif. La qualité est une catégorie préalable à la quantité.

Le monde est de nature qualitative. Nos sensations, par lesquelles nous avons une première connaissance du monde, sont de nature qualitative

(12)

(Bergson, 1889). La quantité, la mesure, sont les résultats de l'activité intellectuelle délibérément mise en oeuvre dans le but de comprendre le monde et d’agir sur lui:

"Cette abstraction, qui distingue la quantité des choses de leurs qualités, est un caractère spécifique de l’intelligence humaine." (Goblot, cité par Foulquier, 1962, 600).

Dans ce sens, il n’y pas de quantité sans qualité, et il n’y a pas d’opposition entre qualitatif et quantitatif, mais plutôt différence de degré dans la représentation du réel. La quantification du réel évolue avec la nature et la puissance des instruments de mesure et des méthodes d’analyse disponibles. La quantification est abstraction, donc réduction. Mais il faut éviter tout malentendu: la découverte de nouvelles méthodes de quantification n’a pas pour résultat une réduction accrue du réel, mais au contraire une moindre réduction. Il s’agit de quantifier la qualité, et de faire reculer le domaine du résidu qualitatif. Cela peut se faire de plusieurs manières, puisqu’il existe une sorte de continuité de la non-quantification jusqu’à la quantification cardinale. Cela doit se faire, car la quantification présente des avantages certains, avec prudence, car elle a ses limites.

1.2.4. Les modalités de la quantification.

Harvey (1969, 308-315) distingue cinq modalités de quantification, ou d’échelles numériques.

(1) L ’échelle nominale. Elle ne mesure pas mais repère des unités qualitativement différentes: numéros de joueurs de football, code des régions ou des secteurs. Aucune opération mathématique ne peut bien sûr être réalisée sur ces chiffres arbitrairement affectés. N ’importe quels autres signes, des lettres par exemple, pourraient remplir le même rôle. Nous sommes donc au stade du qualitatif pur.

(2) L ’échelle ordinale. Nous désirons seulement ordonner des objets: ils sont donc repérés par des nombres dont l’ordre importe, mais non la valeur absolue. En particulier, les différences entre ces nombres n’ont aucune signification. Il est bien connu que ces valeurs sont alors définies à une transformation monotone croissante près. On distingue habituellement:

■ l’ordre complet, qui est irréflexif, asymétrique, transitif et connexe,

(13)

connexe,

■ Tordre partiel, qui est un ordre faible non connexe.

(3) L ’échelle d’intervalle. On peut y mesurer la distance entre deux objets, mais il n’existe pas de zéro naturel: c’est le cas des températures. L ’échelle est unique à une transformation affine près. Cela n’a aucun sens de dire que 20 °c est deux fois plus chaud que 10°c; les différences de températures peuvent être ordonnées: on a une grandeur cardinale; mais cela n’a aucun sens d’additionner des températures

(4) L ’échelle de rapport possède en plus un zéro naturel. On peut dire que 30 km est deux fois plus long que 15 km. Les grandeurs ainsi mesurées sont cardinales et additives. Le dénombrement, qui est la modalité la plus simple de quantification, est fait à l’aide d’une telle échelle.

(5) L ’échelle multidimensionnelle. Elle suppose que des objets sont situés dans un espace à n dimensions et que l’on cherche à mesurer des distances entre ces objets. Elle est très utilisée en psychologie et en géographie.

1.2.5. Quantification et formalisation.

Les deux termes ne sont ni confondus, ni disjoints. Les méthodes et modèles quantitatifs sont en général formalisés. Même les comptabilités les plus simples se font dans un cadre formel. Mais inversement, un modèle formel peut ne pas être quantitatif au sens où il ne manipule aucune information chiffrée, même ordinale. C’est le cas de ce que les économistes théoriciens nomment Y économie qualitative et dont Hicks et Samuelson ont été les initiateurs. La statique comparée théorique en est une illustation:

"La méthode de la statique comparée consiste à étudier les réponses des inconnues d’équilibre à des variations données des paramètres; [...] En l’absence d’information quantitative complète sur les équations d’équilibre, nous espérons pouvoir formuler des restrictions qualitatives sur les pentes, les courbures, etc... des équations d’équilibre ..." (Samuelson, 1947, trad. de 1965, 47).

L ’économie qualitative est très bien décrite par Quirk (1987) et dans un récent article de Lin et Farley (1990):

En l’absence d’information quantitative complète et précise sur la structure et le comportement des systèmes économiques complexes, les économistes ont depuis longtemps utilisé des techniques de modélisation qualitative et de statique comparée pour décrire les comportements économiques et prévoir les événements futurs [...]. Un modèle purement qualitatif exige seulement la connaissance du signe (+, - ou 0) pour le niveau, la direction du changement, et les interdépendances fonctionnelles des variables et des paramètres concernés. En général, les économistes

(14)

n’associent pas d’information exacte, numérique, à la description qualitative d’un élément de modèle. La modélisation qualitative exige du constructeur de modèle qu’il exprime seulement ce qui est connu en théorie et permet l’ignorance des relations exactes à exprimer." (Lin et Farley, 1990, 50)

Papageorgiou (notamment dans son livre, 1990) a beaucoup utilisé ces méthodes dans la théorie de la ville.

1.2.6. Les attraits de la quantification.

Ils sont bien connus. La quantification permet de caractériser de f açon précise une variable observée, et de la soumettre au calcul mathématique. Elle est une sorte de garde-fou pour le raisonnement, un "anti-déconomètre" (Dumolard, réponse à notre enquête). L ’argumentation classique est la suivante:

"La supériorité des mathématiques est d’apporter un guide logique au raisonnement. On décèle sans ambiguïté des erreurs qui peuvent se glisser dans le raisonnement, et après les avoir éliminées, on obtient un consensus de nature scientifique sur sa validité." (Plassard, 1989).

Un aspect moins souvent mis en avant est qu’elle favorise la falsifiabilité d’une proposition, que Popper considère comme la condition de sa

2

scientificité . Bonnafous (réponse à notre enquête) considère que le qualitatif n’est pas directement falsifiable, au contraire du quantitatif, qui l’est généralement. Valéry, dans le même esprit, parle seulement de vérification, mais donne en même temps d’autres avantages peu connus de la quantification:

"La quantité... [...] Elle s’est introduite et imposée, car elle est le nom précis de la possibilité de vérifier, de retrouver, - et de la conservation - transtemporelle et transspatiale." (Valéry, 1974, II, 880)

1.2.7. Les limites de la quantification.

(1) Y a-t-il des phénomènes qui par essence ne sont pas quantifiables? On l’admet généralement, mais il faut garder à l’esprit que le non-quantifiable a déjà beaucoup reculé depuis l’enfance de la science.

(2) La quantification est une abstraction: elle ne représente donc pas

tout le réel et laisse un résidu qualitatif:

Toutefois, Popper considère que les énoncés de probabilité "se trouvent être en principe inaccessibles à une falsification au sens strict" (Popper, 1959, 146).

(15)

"La quantité présuppose l'abstraction de toute variation qualitative ..." (Georgescu-Roegen, 1971, 97).

"... puisque la quantification ne fait pas disparaître la qualité, elle laisse un résidu qualitatif ..." (Ibid., 101).

(3) La quantification ne peut s'opérer que lors des phases intermédiaires du raisonnement scientifique. Les autres phases sont nécessairement de nature qualitative. Sous-jacente ou préalable à toute démarche scientifique, tout particulièrement en économie, il y a une "vision" du monde au sens schumpeterien:

"... le travail analytique est de toute nécessité précédé par une prise de connaissance pré-analytique, qui fournit la matière première de l'analyse. Dans ce livre, on nommera Vision l'effort de connaissance pré-analytique." (Schumpeter, 1954, trad. de 1983, I, 74).

Cette vision, clairement qualitative, conditionne le choix des problèmes à traiter et des variables à privilégier, se traduit dans les hypothèses simplificatrices, et aboutit à la formulation d'hypothèses théoriques a priori (tous les "méthodologues" reconnaissent qu'aucune observation n'est exempte de cette vision théorique préalable: par exemple Bonnafous, 1989, 41 et svtes).

A l'issue d'un raisonnement quantitatif, qu'il soit déductif ou inductif, on retrouve encore inévitablement le qualitatif, dans les commentaires des résultats statistiques ou économétriques, les hypothèses d'interprétation causales, les nuances apportées à un résultat quantitatif par souci de réintégrer le résidu qualitatif...

On peut dire à la limite que tout énoncé théorique suffisamment

général est de nature qualitative, et que la quantification ne sert que

d'outil pour l'établir: son domaine est donc par nature limité.

(4) Le désir de quantification peut conduire à des abus de plusieurs types.

■ Il peut apporter une accumulation de chiffres inutiles et détourner de l'effort de réflexion fondamentale:

"... c'est uniquement par le biais du perfectionnement des "entités théoriques", comme disent les positivistes, qu'une discipline quelconque peut espérer faire des progrès vraiment significatifs. [...] L'"inflation expérimentale" n'est pas moins pernicieuse que l'inflation économique: on a des instruments, on les utilise massivement et on en tire une masse infinie de données desquelles, à la fin, on ne peut rien tirer. Les données emplissent des bibliothèques entières, dorment ensuite dans des archives poussiéreuses et personne ne s'en occupe plus." (Thom, 1983, 54).

(16)

la précision des chiffres, sans rapport ni avec notre véritable capacité d’appréciation de la réalité, ni avec les besoins de l’analyse. Ce piège est bien souvent évoqué en économie, et il est remarquablement décrit, dans un contexte plus général, par Bachelard dans un chapitre sur "les obstacles de la connaissance quantitative":

"L’excès de précision, dans le règne de la quantité, correspond très exactement à l’excès de pittoresque, dans le règne de la qualité. La précision numérique est souvent une émeute de chiffres, comme le pittoresque est, pour parler comme Baudelaire, "une émeute de détails". On peut y voir des marques les plus nettes d’un esprit non scientifique, dans le même temps où cet esprit a des prétentions à l’objectivité scientifique. En effet, une des exigences primordiales de l’esprit scientifique, c’est que la précision d’une mesure doit se référer constamment à la sensibilité de la méthode de mesure et qu’elle doit naturellement tenir compte des conditions de permanence de l’objet mesuré. Mesurer exactement un objet fuyant ou indéterminé, mesurer exactement un objet fixe et bien déterminé avec un instrument grossier, voilà deux types d’occupations vaines que rejette de prime abord la discipline scientifique." (Bachelard, 1983, 212-213).

■ Il peut conduire à substituer la technique à l’objet de la science, à privilégier la forme au détriment du fond, la syntaxe au mépris

de la sémantique (Schmidt, 1985), et à engendrer une véritable "mathémanie", selon l’expression qu’utilise Piettre (1988) pour dénoncer une certaine domination du quantitatif et de l’abstraction. Ce type d’abus engendre généralement des réactions encore plus abusives de rejet de la quantification et des mathématiques. Il faut souligner que l’abus ne vient pas de la nature des méthodes quantitatives et mathématiques (elles prennent une part importante au développement scientifique) mais d’un usage de ces méthodes sans considération de leur production de sens:

"Ce qui limite le vrai n’est pas le faux mais l’insignifiant!" (Thom, 1983, 127).

1.2.8. Les difficultés de la quantification du qualitatif.

Supposons que la quantification, à condition d’éviter les excès que l’on vient de dénoncer (et ceux qui viennent à l’esprit du lecteur), ait une utilité marginale positive. Quelles sont les difficultés principales auxquelles elle se heurte? La réalité - ou ce que nous pensons être la réalité - est qualité . Toute quantification la simplifie. Nous suggérons ci-dessous quelques traits de la réalité-qualité qui, par nature, rendent difficile une quantification ou qui l’amènent à être simplificatrice à

(17)

l'excès et à laisser un important résidu qualitatif . L'ordre de présentation n'a pas de signification. Le réel est:

(1) non homogène. Or toute quantification suppose des unités ou des parties homogènes. Kant note que toute grandeur extensive résulte d'une synthèse de l'homogène (Critique de la raison pure, dans Kant, 1980, I, 901n et 902-903):

"... l'unité de la composition du divers homogène est pensée dans le concept d'une grandeur;" (Ibid., 903).

Bergson souligne également que:

"Il ne suffit pas de dire que le nombre est une collection d'unités; il faut ajouter que ces unités sont identiques entre elles, ou du moins qu'on les suppose identiques dès qu'on les compte." (Bergson, 1889, 57).

(2) multidimensionnel. Chaque objet, chaque phénomène, peut être appréhendé selon un certain nombre - souvent très grand - de points de vue, ou de dimensions quantitatives qui ne sont pas agrégeables, ou pas facilement, et qui sont un obstacle à la réduction de cet objet ou de ce phénomène à une forme quantitative simple.

(3) imprécis. Un objet ou un phénomène peut être imprécis, comme le disait Bachelard plus haut, soit parce qu'il est "fuyant ou indéterminé", soit parce qu'il est mesuré "avec un instrument grossier". Il peut donc être imprécis dans sa nature ou dans la f açon dont nous pouvons le connaître, ces deux sources d'imprécision étant d'ailleurs difficilement séparables. Cette imprécision, outre le fait qu'elle rend la précision quantitative illusoire, est un aspect fondamental du réel que la quantification classique ne peut pas saisir: c'est un important résidu qualitatif. Les nuances du langage imprécis sont une richesse négligée:

"... il y a aussi deux types de rigueur: la rigueur quantitative et la rigueur qualitative. En ce sens, l'apparente imprécision du langage naturel est supérieure à la rigidité du langage formel." (Guitton, 1986, repris en 1987, 5).

(4) non déterministe. Nous n'entrerons pas dans le débat autour de la question de savoir si l'aléa n'est qu'une apparence venant d'une méconnaissance de l'ensemble des causes qui déterminent un phénomène ou si le réel est d'essence aléatoire. Il semble que la physique moderne ait donné tort à la célèbre affirmation d'Einstein: "Dieu ne joue pas aux dés",

Le terme "résidu" est pris ici dans son sens étymologique non péjoratif : c'est la partie du réel qui échappe à la quantification.

(18)

qui résumait si bien le premier point de vue, illustré naïvement par le

4

démon déterministe de Laplace et inévitablement associé à Poincaré:

"Si nous n’étions pas ignorants, il n’y aurait pas de probabilité, il n’y aurait de place que pour la certitude." (Poincaré, 1902, rééd. de 1968, 196).

A plus forte raison, ce point de vue ne peut être accepté en sciences humaines: l’aléa est un trait essentiel de la nature humaine.

(5) global. Ce n’est qu’artificiellement, poussé par les besoins de ses instruments d’analyse et par son esprit imbibé de culture cartésienne que le chercheur sépare, décompose, et voit dans la partie l’explication du tout. On sait que la seconde des "règles de la méthode" de Descartes recommande

"de diviser chacune des difficultés que j’examinerais en autant de parcelles qu’il se pourrait et qu’il serait requis pour les mieux résoudre." (Discours de la méthode, dans Descartes, 1953, 138).

En physique, ce principe de "divisibilité par la pensée" a clairement été réfuté par d’Espagnat (1990, 131-135). Plus généralement, les réactions contre ce principe ont suscité le développement d’approches "holistiques" des phénomènes, quelquefois plus fantaisistes que scientifiques lorsqu’elles amènent par exemple Capra à penser la physique à travers le Taoïsme. On a vu que le caractère global du fait humain peut être un argument pour l’adoption de méthodes purement qualitatives (et non de quantification du qualitatif).

(6) irréversible. La mécanique classique repose sur les principes de réversibilité et de conservation. La plus grande partie des théories économiques qui en sont plus ou moins dérivées décrivent également des processus réversibles. Tout processus de rééquilibrage automatique est une manifestation de la réversibilité. C’est encore Bergson (1907) qui attire l’attention sur l’incapacité de la science moderne à prendre en compte les contraintes et les spécificités de la flèche du temps, c’est-à-dire à intégrer le fait que l’évolution est créatrice: c’est bien une marque de l’irréversibilité. Cet échec apparaît aujourd’hui évident:

"... le temps de la dynamique n’affirme pas seulement l’enchaînement déterministe des causes et des effets, mais aussi l’équivalence essentielle entre les deux directions du temps, celle que nous connaissons et qui définit notre avenir, et celle que nous pouvons imaginer lorsque nous nous

capable de déduire l’évolution universelle, passée et future, à partir de la connaissance exhaustive des données présentes.

(19)

représentons un système qui "remonte" vers son passé". (Prigogine et Stengers, 1988, 25).

Outre cet ouvrage de Prigogine et Stengers, de nombreuses contributions de vulgarisation scientifique mettent aujourd’hui l’accent sur l’irréversibilité, par exemple celle de Hawking (1988):

"Il y a au moins trois flèches du temps différentes: D ’abord, il y a la "flèche thermodynamique" du temps, la direction du temps dans laquelle le désordre ou l’entropie croît. Ensuite, il y a la "flèche psychologique". C’est la direction selon laquelle nous sentons le temps passer, dans laquelle nous nous souvenons du passé mais pas du futur. Enfin, il y a la "flèche cosmologique", direction du temps dans laquelle l’univers se dilate au lieu de se contracter." (Hawking, 1988, trad. de 1989, 182)

La question de la flèche du temps est constamment sous-jacente aux réflexions des économistes (Barre, 1950, mais surtout Georgescu-Roegen, 1971), mais disparaît le plus souvent au cours de leurs efforts de quantification. Il semble que l’irréversibilité fasse récemment une apparition sur le devant de la scène (Boyer, Chavance et Godard, 1991).

On a parfois opposé l’irréversibilité des phénomènes dans le temps à leur réversibilité dans l’espace (Phlips, 1983, 118 et svtes):

"Le temps diffère de l’espace du fait qu’il n’a qu’une direction. [...] Le transport dans l’espace peut se faire dans n’importe quelle direction (y compris le retour au point de départ)" (Phlips, 1983, 121).

Bien sûr, il y a une flèche du temps, mais rien de tel dans l’espace. Mais si on approfondit la question, la réponse n’est pas si simple. Si on fait référence à la possibilité d’une succession des mouvements de a vers b et de b vers a, il ne peut s’agir d’une réversibilité puisque le mouvement suppose le temps, de même que la succession des mouvements. L ’espace n’existe pas sans le temps: le "retour vers a" n’est donc pas une véritable réversibilité. Si on fait abstraction du temps réel, de la "durée" de Bergson, on peut dire que le passage (dans un temps abstrait, irréel) de a à b est tout aussi possible que le passage de b vers a: mais c’est faire

Yhypothèse de la réversibilité, par le même processus simplificateur que

celui qui conduit à dire qu’on peut retrouver "le même" équilibre après une perturbation: c’est une illusion facilement créée par les modèles mathématiques.

(7) perçu. Il est donc relatif à l’acteur observé ou observant. Il est

devenu banal de constater que le réel est d’abord perçu avant d’être connu. Des distorsions interviennent alors à deux niveaux: celui de la perception du phénomène par le chercheur qui l’observe, et celui de la perception de

(20)

son environnement par l'agent observé par le chercheur. La première est sournoise puisque le plus souvent le chercheur n'en a pas conscience. La seconde, plus facile à connaître, est difficile à comprendre puisque ses causes se situent dans la psychologie profonde des agents étudiés. Ces distorsions sont une nouvelle source de résidu qualitatif.

La liste de ces difficultés n'est pas exhaustive. Les différents points évoqués sont souvent reliés les uns aux autres: on n'aura aucun mal à relier non homogénéité et multidimensionalité, ou imprécis et perçu, entre autres.

Chacune de ces difficultés a suscité et suscite la recherche de méthodes quantitatives susceptibles de traiter de nouvelles zones du qualitatif. Certaines sont explorées depuis longtemps, comme la théorie des probabilités et ses applications, pour quantifier l'aléa. D'autres sont en développement et présentent d'intéressantes applications à la science régionale. C'est vers elles que nous nous tournerons.

La théorie des sous ensembles flous permet de traiter l'imprécis, le non homogène, le perçu.

Uéconométrie des variables qualitatives prend en compte des informations considérées comme non quantifiables par nature, et les modèles

de choix discrets offrent une façon de comprendre les choix probabilistes

entre des alternatives purement nominales.

Les modèles hédoniques et les méthodes multicritères introduisent la quantification du non homogène et du multidimensionnel.

A côté de ces méthodes générales appliquées à l'espace, des efforts sont faits pour quantifier le qualitatif spécifiquement spatial: dans ce sens, par exemple, les diverses mesures non euclidiennes de la distance enrichissent les modèles par la présence du multidimensionnel et du perçu.

Nous ne dirons rien concernant le caractère global et l'irréversibilité du réel. Sur le premier point, il faudrait évoquer la théorie des systèmes. Sur le second, il serait utile de réfléchir aux applications de la thermodynamique et de loi d'entropie. Mais ces méthodes n'ont pas encore suffisamment d'applications à la science régionale. De plus, il paraît difficile de construire une mathématique de l'irréversibilité (Thom, 1980, 38).

(21)

2

- LA QUANTIFICATION DU QUALITATIF EN SCIENCE RÉGIONALE.

Il n’est pas dans notre intention de présenter ici un catalogue de méthodes assorti des modes d’emploi correspondants. Il faudrait un ouvrage complet pour les aborder de façon directement utilisable, et la littérature est déjà suffisamment abondante sur chacune d’elles. Nous souhaitons seulement évoquer les fondements de ces méthodes, dans l’esprit de la discussion de la première section.

2.1. L ’imprécision et le flou.

2.1.1. Les fondements.

Notre connaissance du monde est imprécise, non seulement parce que les instruments de cette connaissance sont imparfaits, mais parce que le monde est imprécis dans sa nature. C’est pour cela que Guitton juge l’imprécision du langage qualitatif supérieure à la précision du discours quantitatif (citation p. 13). Parmi toutes les connaissances, celles de l’Homme ont une raison supplémentaire d’être imprécises: la nature humaine, complexe, diverse, changeante, chargée d’affectivité. La science régionale est donc imprécise par nature. Les systèmes spatiaux, organisations humaines hautement complexes, sont décrits de façon très imparfaite par une quantification précise. L ’information qu’on peut en avoir est imparfaite. Les critères de comportement spatial sont eux-mêmes imprécis. Le concept général d’utilité en est un exemple: il est peu probable que les individus aient une vision précise de l’utilité que peuvent leur procurer différents paniers de biens: les économistes, conscients du problème, ont réussi à introduire indirectement cette imprécision sous la f orme de courbes d’indifférence "épaisses", qui résultent soit de l’hypothèse d’un seuil de sensibilité à la différence d’utilité (Armstrong, 1939), soit, plus généralement, de l’hypothèse de convexité faible des préférences (Takayama, 1985, 182). Notons que l’idée d’un seuil de préférence résultait déjà des observations de Fechner (1860) et se trouve chez Poincaré (1902, ed. de 1968, 58). L ’évaluation des arguments de la fonction d’utilité est elle-même qualitative, subjective et imprécise, mais chargée de sens: l’entreprise désire un climat social calme, le cadre souhaite une localisation convenable. Parf ois le choix de localisation met en oeuvre différentes dimensions (par exemple pour la résidence: emploi, éducation

(22)

des enfants, loisirs, ...) dont V interdépendance impose une flexibilité peu compatible avec un modèle trop précis.

L ’esprit scientifique classique et les méthodes d’investigation habituelles s’accommodent mal de lM,à peu près"; la logique binâire l’emporte le plus souvent: "tout doit être ou ne pas être", comme l’énonce le "principe de l'exclusion des milieux" (Russel, 1912, trad. de 1980, 85). Pourtant, dès le IVème siècle avant J.C., le philosophe socratique Eubulide énonce le paradoxe du tas de sable: nous pensons savoir de façon précise ce qu’est un tas; mais deux grains ne forment pas un tas, trois non plus; à partir de quand avons-nous un tas? Le concept de tas n’est pas binaire si on ne peut pas répondre à cette question (Billot, 1986, 22; Leung, 1988, 8; Brun, 1988, 39). De nombreux autres logiciens s’élèvent contre l’exclusion des milieux (par exemple, Pierce, 1902; Black, 1937; Copilowish, 1939). En particulier, Russel reprend l’idée d’Eubulide sous la forme du paradoxe de l’homme chauve et donne sans le savoir les fondements du flou:

"La plupart des gens admettraient que, si un homme n’est pas chauve, la perte d’un cheveu ne le rendra pas chauve; il en résulte par induction mathématique que la perte de tous ses cheveux ne le rendra pas chauve, ce qui est absurde. De même, si une nuance de couleur est rouge, un très faible changement ne la fera pas cesser d’être rouge, d’où il résulte que toutes les couleurs sont rouges. [...]

Il découle de ces considérations que toute définition de "rouge" qui se déclare précise est prétentieuse et frauduleuse.

Nous devons définir "rouge", ou toute autre qualité vague, par une méthode du genre de la suivante. Quand les couleurs du spectre sont étalées devant nous, tout le monde s’accordera à juger que certaines sont "rouges" et certaines "non-rouges", mais entre ces deux régions du spectre, il y a une région de doute. Si nous parcourons cette région, nous commençons à dire "Je suis presque certain que ceci est rouge", et terminons en disant "Je suis presque certain que ceci n’est pas rouge", tandis qu’au milieu il y a une région où nous n’avons d’inclination prépondérante ni pour oui ni pour non. Tous les concepts empiriques ont ce caractère." (Russel, 1948, 276-277).

L ’approche traditionnelle consiste à forcer la précision en spécifiant un concept imprécis pour le rendre précis: le tas de sable est alors défini par un nombre de grains au moins égal à n. Le concept en est évidemment appauvri.

La théorie des sous-ensembles flous suggère de quitter la logique réductrice binaire et d’accepter les états intermédiaires. Dès 1922, Lubasiewicz, après avoir construit une logique ternaire qui ne pouvait que repousser le problème, propose une logique infinitaire dont les valeurs de vérité sont définies sur l’intervalle [0,1] (cité par Billot, 1986, 25).

(23)

2.1.2. Imprécision, erreur et incertitude.

Ponsard (1975) souligne avec raison que l'imprécision n'est ni l'erreur ni l'incertitude. Ces concepts ne sont pas réductibles l'un à l'autre, pas plus que les méthodes qui leur sont associées.

L'erreur est bien connue dans les sciences dites exactes où l'on a développé des méthodes pour déterminer l'intervalle où elle se situe. C'est un écart à la vérité, une approximation liée aux difficultés de repérage ou de mesure, ou aux insuffisances des outils de calcul. On peut rencontrer aussi des erreurs de spécification des relations entre variables.

Le problème de la distinction entre l'imprécision et l'incertitude est plus fondamental et plus délicat: si les concepts sont identiques, il est inutile de développer de nouveaux instruments (sous-ensembles flous) là où ceux qui existent (théorie des probabilités, théorie des jeux) sont efficaces. Mais l'imprécision, liée à la complexité des systèmes humains, au langage, à la perception, ne peut être appréhendée en termes de probabilités. L'incertitude, comme le note Ponsard (1975), est liée au temps, elle concerne l'avenir,

"chaque fois que l'ensemble des événements possibles [...] comprend plus d'un élément et que ces éléments n'obéissent pas à un déterminisme strict et connu" (Ponsard, 1975, 18);

le passé ou le présent ne sont pas incertains, mais leur connaissance est entachée d'erreur s'ils sont mal appréciés.

Dubois précise la distinction imprécision-incertitude:

"Si on représente une information sous la forme d'une proposition logique, l'imprécision réfère au contenu de cette proposition, l'incertitude réfère à sa vérité, entendue au sens de sa conformité à une réalité" (Dubois, 1983, 5).

Erreur et incertitude ne suffisent pas à appréhender tous les aspects de l'inexactitude des connaissances. Il existe un état d'imprécision que caractérisent de nombreux adjectifs: flou, vague, vaporeux, fondu, indécis, ... L'imprécision est alors "un manque de justesse d'une mesure" et non un écart à la vérité:

"le flou qui enveloppe la vérité imprécise est vrai." (Ponsard, 1975, 19).

Il n'y a plus de distinction tranchée entre "urbain" et "rural", et pour marquer la transition du rural vers l'urbain, certains auteurs ont créé le néologisme "rurbain" (Bauer et Roux, 1976); mais cette logique

(24)

ternaire est encore mutilante: entre l’urbain incontesté et le rural profond il y a une continuité d’états où l’on est "plus ou moins" urbain, et "plus ou moins" rural.

2.1.3. La théorie des sous-ensembles flous.

La théorie des sous-ensembles flous permet de traiter l’imprécision qualitative avec une élégance qui n’a rien à envier à celle qui l’avait éliminée pour une précision illusoire. Elle permet de traiter formellement et quantitativement ce qui est intrinsèquement imprécis.

Perçue depuis longtemps par les philosophes, l’imprécision n’est apparue au niveau des concepts mathématiques qu’avec les travaux de Zadeh (1965). Le concept de sous-ensemble flou peut être défini ainsi:

Soit E un référentiel, et un ensemble A inclus dans E. Dans le langage traditionnel, un élément x de E appartient ou n’appartient pas à A. Dans la théorie des sous-ensembles flous, x peut appartenir à A, ne pas lui appartenir, ou encore lui appartenir plus ou moins: c’est là la richesse de la méthode. On définit alors une fonction d’appartenance qui indique le degré d’appartenance de x à l’ensemble A et qui prend ses valeurs dans un ensemble M totalement ordonné ou pré-ordonné, numérique ou non. Le plus simple est de considérer que ¡ j l prend ses valeurs dans l’ensemble [0,1]

(sous-ensemble flou de Zadeh). Mais il est possible d’utiliser de façon plus générale un treillis spécifique ordonné et de cardinal supérieur ou égal à 2 (Goguen, 1967). Le référentiel E n’est pas flou; seuls ses sous- ensembles ainsi définis sont flous, d’où le nom de la méthode.

Si on reprend l’exemple précédent, une commune peut appartenir au sous- ensemble flou des communes urbaines avec un degré fd. = 0,8 et à celui

A

des communes rurales avec un degré ¡ j l = 0,3 .

A partir de ces sous-ensembles on construit une logique floue et des opérations floues. Les valeurs de la fonction d’appartenance sont subjectives, comme le sont les pondérations des critères en taxinomie numérique ou en analyse multicritère, ou certaines probabilités.

Revenons au débat imprécision-incertitude. La conf usion peut être favorisée par le fait que la fonction d’appartenance peut prendre ses valeurs sur l’intervalle [0,1]. Y a-t-il une utilité propre de la théorie des sous-ensembles flous? A-t-elle une spécificité par rapport à celle des probabilités? Il est différent de dire "une commune appartient au sous- ensemble des communes urbaines avec un degré de 0,8" et de dire "compte

(25)

tenu de Timportance de l'activité agricole dans une région, la probabilité pour qu'une commune soit urbaine est de 0,8". Dans ce dernier cas la commune est soit urbaine (événement précis) à 8 chances sur 10, soit rurale (événement précis) à 2 chances sur 10. Dans le premier cas, elle est fortement urbaine, mais pas sous tous ses aspects. Les probabilités résultent de l’aléa inhérent à certaines relations de causalité; le flou est lié à l’imprécision résultant du rejet de la logique binaire.

Si les théories sont différentes dans leurs fondements philosophiques, elles le sont aussi dans leurs expressions mathématiques. Billot (1986), à la suite de Nahmias (1978), procède à une comparaison très rigoureuse qu’il est difficile de résumer en quelques lignes mais d’où il ressort que

"Le flou, en nécessitant une axiomatique moins rigide, est un outil plus souple, moins contraignant." (Billot, 1986, 37).

Par exemple, la probabilité d’avoir simultanément A et B (indépendants et non flous), P(AnB), est égale au produit P(A) P(B), alors que le degré d'appartenance à l'intersection des deux sous-ensembles flous A et B est égale au minimum des degrés d'appartenance:

^AnB = min 1 “ A' WB 1 :

l'ensemble de définition des probabilités est [0,1], et l'ensemble d'appartenance, ensemble de définition de ¡j, est M, numérique ou non, que

l'on peut réduire axiomatiquement à l'ensemble [0,1].

Mais différence ne signifie pas incompatibilité, et on peut étudier la réalisation aléatoire d'un événement flou. Leung (1988, 65) suggère aussi de rendre floues les probabilités elles-mêmes d'événements précis ou imprécis pour formaliser le langage de tous les jours: "il est hautement probable que...", "il est tout-à-fait possible que"...

1.2.4. Application.

Les systèmes spatiaux sont très complexes et leur imprécision en est d'autant plus grande. Dans l'espace, on trouve rarement des coupures brusques. Le passage d'un état à un autre, lors d'un déplacement, se fait graduellement avec des zones de transition plus ou moins importantes. On ne passe pas brutalement de la ville à la campagne, pas plus qu'on ne quitte brusquement la zone d'attraction d'un centre commercial ou d'une ville. Les distances, les propriétés de l'espace, sont perçues, donc subjectives et/ou imprécises. Au niveau des choix, des éléments qualitatifs interviennent. Il

(26)

n’est donc pas surprenant que le flou ait pénétré l’analyse spatiale sous l’impulsion de quelques précurseurs comme Ponsard dès 1975 et Leung dès 1979. Ainsi furent abordés, entre autres, les thèmes:

■ des zones d’attraction floues (Fustier, 1975; Dubois, 1979); ■ des zones d’interaction floues (Fustier, 1979);

■ des régions floues (Ponsard, 1977a; Gale, 1976; Leung, 1985, 1987; Tranqui, 1978);

■ des relations interrégionales floues (de Mesnard, 1978);

■ de la hiérarchie floue et des places centrales (Ponsard, 1977b); ■ des espaces urbains flous (Rouget, 1975; Maurice-Baumont, 1990).

Nous prendrons comme exemple le problème du découpage régional. Il s’agit de savoir si un lieu (unité spatiale élémentaire au sens de Béguin et Thisse, 1979) doit ou non être rattaché à un ensemble dans le but de former une région. La logique binaire largement développée (dont on peut avoir une synthèse par exemple dans Grigg, 1967 ou Meyer, 1963) n’est pas en mesure de saisir la gradation dans la transition qui fait qu’un lieu se rattache plus ou moins à une région. Comment déterminer une région caractérisée par un terme qualitatif, comme une région chaude, une région touristique, une région ouverte, ... Si l’on refuse de forcer la réalité à entrer dans le carcan des seuils arbitraires, il faut admettre qu’un lieu appartient plus ou moins à la région chaude ou à la région touristique.

Dans un espace plus ou moins continu où les phénomènes se différentient de façon plus ou moins continue, l’imposition d’une frontière précise devient arbitraire (Ponsard, 1977*; Leung, 1988). De plus, la similitude et la différence sont des questions de degré et non de nature (Leung, 1988). Si l’on veut tenir compte de ces constats et intégrer des données imprécises mais significatives, il faut adopter un mode de représentation plus fin et des procédures de régionalisation plus flexibles.

Gale (1976) a proposé une version limitée des sous-ensembles flous, avec trois valeurs de la fonction d’appartenance. Les travaux de Ponsard (1977), Ponsard et Tranqui (1984) et de Leung (1985) sont plus généraux. La construction de la région repose sur la définition d’un ou plusieurs critères quantitatif s ou qualitatif s. Un lieu a un certain degré d’appartenance à une région donnée si ses caractéristiques se rapprochent de l’une ou de l’ensemble des caractéristiques retenues comme critères. Dans le premier cas, l’hétérogénéité intrarégionale et l’homogénéité

(27)

interrégionale sont plus grandes que dans le second cas. La région peut aussi apparaître comme étant formée (1) d’un coeur comprenant les lieux dont les caractéristiques sont les plus compatibles avec les critères, et (2) d’une frontière, zone intermédiaire où les lieux se conforment plus ou moins aux critères. Mais la frontière entre ces deux parties est elle-même floue. En dépit du découpage administratif, les lieux proches de la frontière appartiennent plus ou moins aux régions qu’elle sépare, la frontière s’estompe, le modèle gagne en réalisme: on sait bien que des zones frontalières contigües, même si elles relèvent d’entités politiques différentes, sont plus proches les unes des autres qu’elles ne le sont d’autres zones du même pays.

La construction ne se contente pas d’utiliser les sous-ensembles flous au niveau des caractéristiques des lieux, elle recourt aux opérations floues et à une véritable taxinomie floue (Deloche, 1977).

Soulignons enfin que les applications de la théorie des sous-ensembles flous ne se limitent pas à la description positive des comportements. L ’existence de procédures d’optimisation unicr itères ou multicritères floues leur ouvre le domaine du normatif.

2.2. Variables qualitatives et choix discrets'*.

Quittons l’imprécis pour l’aléatoire; pas seulement pour l’aléatoire lui-même en tant qu’expression d’un résidu qualitatif des modèles déterministes, mais aussi pour les manifestations de l’aléatoire dans la réalisation d’événements de nature qualitative et discrète.

Le flou a pour objectif d’enrichir l’analyse par la prise en compte quantitative de toutes les nuances qualitatives qui existent entre "rouge" et "non-rouge": il nous fait passer du discret au continu. Dans un certain sens, la démarche est ici, au départ, presque opposée: des méthodes quantitatives conçues pour l’analyse de grandeurs endogènes continues par nature doivent être adaptées au traitement de variables endogènes qualitatives discrètes.

Les aspects techniques de la question figurent dans de bons manuels

Merci à Marie-Claude Pichery pour sa relecture attentive de cette section. Les imperf ections qui subsistent nous sont intégralement imputables.

(28)

d'économétrie (par exemple: Maddala, 1983; Gouriéroux, 1984). Les modèles de choix discrets, encore nommés modèles de choix qualitatifs ou de choix probabilistes, sont particulièrement bien présentés par de Palma et Thisse (1987). On trouve aussi de nombreuses présentations plus partielles à l'occasion d'applications particulières (par exemple, Pichery, 1990).

2.2.1. Les variables qualitatives discrètes.

Il existe plusieurs catégories de variables discrètes. La classification suivante s'inspire de celle de Maddala (1983).

■ les variables binaires ne peuvent prendre que deux valeurs numériques, par exemple 0 et 1, qui repèrent respectivement la réalisation d'un événement et de son complémentaire (urbain et rural);

■ Les variables trichotomiques ou polytomiques sont elles-mêmes de plusieurs types;

* les variables "catégoriques" expriment une échelle nominale, un codage associé aux modalités d'un caractère qualitatif; par exemple, pour le mode de transport utilisé:

y = 1 si c'est la voiture, y = 2 si c'est le bus, y = 3 si c'est le train.

Dans cet exemple, elles sont "non-ordonnées".

Elles peuvent être "ordonnées" si elles représentent des classes quantitatives ou des modalités d'intensités du type "pas du tout, un peu, beaucoup, passionnément, à la folie".

Elles peuvent être séquentielles dans des cas comme celui-ci:

y = 1 si une agglomération a seulement les fonctions centrales d'un village,

y = 2 si elle a les fonctions d'un bourg, mais pas d'une ville,

y = 3 si elle a les fonctions d'une ville, mais pas d'une capitale régionale,

y = 4 si elle a les fonctions d'une capitale régionale.

* Pour mémoire, citons enfin les variables "non catégoriques" mesurant cardinalement des grandeurs par nature discrètes, comme le nombre de déplacements qu'effectue un individu vers un centres commercial donné en un mois: elles n'ont rien de qualitatif.

Le traitement de ces variables diffère selon leur type. Nous ne retenons ici que les variables dichotomiques et polytomiques catégoriques non ordonnées: le traitement des variables catégoriques ordonnées ou séquentielles n'a qu'un intérêt technique.

(29)

2.2.2. L ’économétrie des variables qualitatives.

Supposons que la variable endogène d’un modèle soit un caractère qualitatif. On peut toujours lui associer une variable quantitative, par codage. Mais ceci impose la prudence: les caractères centraux de cette variable n’ont en général pas de sens; la valeur et le signe du coefficient de corrélation dépendent du codage; l’indépendance ne peut être étudiée; le modèle de régression linéaire n’est pas adapté (Gouriéroux, 1984). Il s’agit alors de trouver un biais technique pour résoudre le problème.

Soit un caractère dichotomique: y = 0, 1 , supposé dépendre d’une variable explicative x , et soit I individus i = 1, — ,1 ; parmi différentes solutions, citons celle qui conduit aux modèles probit et logit. Elle suppose qu’il existe une variable continue sous-jacente y* définie par la relation de régression linéaire:

y * = 8x + u ;

' i i

y^* est une variable aléatoire non directement observable. La variable y est définie par:

r y = l s i y * < s ,

J i J i i y = 0 sinon,

J i V

s étant donné. Ainsi, i

Probiy^ = 1) = Probiy^* < s^) =

où F est la fonction de distribution cumulée de la variable aléatoire y *. i

On admet que les comportements des individus sont indépendants et régis par la même loi de probabilité. Donc la probabilité qu’un individu quelconque présente la modalité 1 du caractère qualitatif est:

Prob(y = 1) = F(s) .

La formulation finale dépend de la nature de F. Si y* est distribuée selon une loi normale, on a la version la plus simple du modèle probit. Si elle suit une distribution logistique, on a un modèle logit. Le second, ayant une forme fonctionnelle explicite, est souvent préféré au premier, qui n’en a pas.

A la suite des hypothèses de Fechner (1860) en psychophysique, ces modèles sont apparus en biologie pour étudier les réponses d’individus à des stimuli s ; l’individu supporte (y = 0) ou non (y = 1) le traitement selon que le stimulus s est inférieur ou supérieur au seuil de tolérance y* (par exemple, Finney, 1978). Cela nous renvoie au débat Fechner-Bergson sur la mesurabilité des grandeurs intensives, évoqué dans notre première

Références

Documents relatifs

Après avoir bousculé le modèle d'Erd®s-Rényi dans ses indépendances et son homogénéité, on peut se demander quelles sont les propriétés que l'on attend d'un modèle de

A drawback of such methods is that they all partition the vertices into disjoint clusters, while lots of objects in real world applications typically belong to multiple groups

Modifie l'arrière-plan, ainsi que le programme et fais des tests : au bout de combien de pas atteint-on la zone d'ombre en se promenant aléatoirement dans la zone éclairée.. D3

Pour obtenir une valeur approchée de p, on effectue des tirs aléatoires sur un carré de côté 1. Si les tirs sont suffisamment nombreux et uniformément répartis, le rapport du

Dans ce chapitre on désigne par (Ω, A , P) un espace probabilisé, c’est-à-dire, un espace mesurable (Ω, A ) muni d’une probabilité P.. Sont écrites en rouge les parties

GAUSSIAN FREE FIELD AND LIOUVILLE QUANTUM GRAVITY14 the construction of LQG can be treated as a special case of a more general Gaussian multiplicative chaos theory developed in 80th

En pratique, pour réaliser une MAMA, on tire d’abord le milieu aléatoire, puis on lance la marche aléatoire dans ce milieu.. L’ordre est

La thèse se compose de quatre parties, qui traitent successivement : du comportement des moments empiriques du processus MRW dans un cadre asymptotique général qui combine