• Aucun résultat trouvé

Des approches alternatives à l’évaluation économique et à la monétarisation

bilan des connaissances scientifiques

Q 0 Consentements à payer

V.1.5. Des approches alternatives à l’évaluation économique et à la monétarisation

Des considérations pratiques (il n’est pas techniquement possible d’obtenir des valeurs utilisables) ou de légitimité (les valeurs ne sont pas socialement acceptées) peuvent conduire à renoncer à évaluer les avantages de la conservation en termes monétaires. Plusieurs voies alternatives sont possibles qui ont chacune leur intérêt et leurs limites.

a. Normes minimales de sécurité, viabilité, précaution

Quand des espaces naturels sont transformés, des écosystèmes détruits, de la biodiversité perdue, les conséquences sont mal connues et difficiles à percevoir alors qu’elles pourraient à terme menacer des aspects fondamentaux de nos existences. Cette perspective doit conduire à adopter une attitude prudente, qui peut se décliner en plusieurs modalités.

Suggérées par Ciriacy-Wantrup en 1952 comme règle de décision pour la gestion des ressources renouvelables, les normes minimales de sécurité (« safe minimum standards ») ont été largement débattues, notamment aux États-Unis pour la mise en œuvre de l’Endangered Species Act (ESA). L’idée est que la préservation d’une espèce est supposée avantageuse aussi longtemps qu’elle n’entraîne pas de coût intolérable. Certains auteurs (OCDE, 2002) considèrent que les NMS impliquent que la charge de la preuve incombe à ceux qui veulent accroître le risque, par exemple en réduisant la biodiversité. Il ne s’agirait donc pas de montrer l’intérêt de préserver ; seule la mise en évidence de « coûts excessifs » pourrait conduire à y renoncer. Malgré une présence répétée dans la littérature économique (Bishop, 1978 ; Randall, 1991 ; Ready et Bishop, 1991 ; Randall et Farmer, 1995 ; etc.), les NMS constituent un défi analytique, car elles introduisent une asymétrie entre les coûts dont le statut reste à préciser : l’affirmation que les pertes de biodiversité constituent un plus grand accroissement de risque reste contestable, bien que cela s’accorde avec l’idée que les conséquences de la destruction, même locale, d’éléments déterminants de la résilience des écosystèmes peuvent avoir des effets en cascade (Kinzig et al., 2005)

Un ensemble de travaux sur la viabilité et la précaution ont tenté d’expliciter les raisons qui fondent l’intérêt de préserver. Les approches en termes de viabilité consistent à modéliser l’évolution de variables d’état (le niveau de biodiversité ou de services écosystémiques, par exemple) en fonction des paramètres de sa dynamique et de variables de contrôle (les pressions exercées par certaines activités humaines sur les écosystèmes, par exemple) qui ne peuvent varier que dans certaines limites. Cette démarche permet de définir, pour les variables d’état, un domaine de viabilité en dehors duquel les variables de contrôle ne permettent plus de revenir. Béné et Doyen (2008) ont montré, sur la base de simulations numériques, que la biodiversité (mesurée par un indice de Shannon) a un effet positif sur les performances des écosystèmes mesurées en termes écologiques et économiques.

Les interprétations de la précaution restent un sujet de controverse, même si on écarte la définition naïve et inutilisable de l’abstention face aux incertitudes. De nombreux auteurs la définissent par l’idée de choix prudent et raisonné face à l’incertitude. Une telle définition ne donne pas de règle précise de décision mais conduit à affirmer la nécessité d’organiser un processus interactif régulier entre connaissance et action qui doit déboucher sur une approche dynamique des mesures à prendre98. C’est dans cette perspective que se sont développées des analyses économiques comme celle de Gollier et al. (2000) qui ont clarifié la notion de précaution relativement à l’anticipation d’une amélioration de l’information. Henry et Henry (2002) ont formalisé la connaissance scientifique relative à la plausibilité d’événements, ainsi que les concepts d’événements et d’actes scientifiquement non ambigus ; ce qui leur permet de mettre en évidence le caractère sous-optimal de choix basés sur les seules informations non ambiguës. Henry (2006) a précisé la notion d’information incertaine fiable ; ce qui le conduit, tout en reconnaissant la difficulté d’utiliser les modèles de décisions avec « aversion à l’ambiguïté »99, à proposer des critères de choix qui, généralisant le critère de von Neumann-Mongerstern, sont susceptibles de fournir des instruments opérationnels de décisions en incertitude.

Plusieurs auteurs (Pearce, 1976 ; Page, 1977 ; Randall, 1991 ; OCDE, 2002) ont suggéré qu’il était possible de combiner une approche instrumentale comme l’ACA et une approche de prudence visant à préserver « le tissu de la vie » : la préservation d’un niveau minimal de biodiversité serait un impératif de durabilité mais au-delà de cette limite, l’ACA ou d’autres formes de mise en équivalence pourraient s’appliquer. On peut retenir, a minima, que la logique de précaution implique la mise en place de structures de vigilance et la révision périodique des évaluations et des mesures.

b. Les analyses multicritères

Les analyses multicritères permettent d’éviter de ramener les différentes dimensions d’un choix à une mesure unique en comparant les différentes options de choix. On

98

« Lorsque la réalisation d’un dommage, bien qu’incertaine en l’état des connaissances scienti- fiques, pourrait affecter de manière grave et irréversible l’environnement, les autorités publiques veilleront, par application du principe de précaution, et dans leurs domaines d’attribution, à la mise en œuvre de procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage » (article 5 de la Charte de l’environne- ment, 2005).

99

L’aversion à l’ambiguïté se traduit par une pondération différenciée des informations certaines et controversées (pour une présentation simple voir Henry, 2006).

définit une série de critères qui seront évalués indépendamment (par exemple en utilisant une batterie d’indicateurs), puis on construit une forme d’agrégation qui permette de hiérarchiser les options. La différence avec une mesure unique tient principalement à deux points :

– les différents critères peuvent être traités différemment, en intégrant des aspects qualitatifs ou en distinguant des critères substituables (une détérioration de l’un peut être compensée par une amélioration de l’autre) et des critères essentiels (leur mesure doit impérativement atteindre une valeur minimale) ;

– la fonction de composition est explicite, le poids de chaque critère reste visible, par exemple pendant un processus de concertation ou de négociation (elle peut donc être manipulée rétrospectivement en fonction des choix qu’elle conduit à préconiser ; ce qui peut être vu comme un avantage ou une faiblesse).

Il existe deux grandes catégories de méthodes de composition des poids des différents critères. La première consiste à agréger puis comparer. Il s’agit de résumer la valeur de toute alternative par une note globale v(a) calculée à partir de son vecteur de performances. Cette note est sensée résumer la valeur globale de l’alternative et sert de base à la comparaison multicritère des alternatives. Cette façon de procéder est très répandue, par exemple dans l’enseignement où la comparaison de deux élèves est basée sur la moyenne de leurs notes.

La seconde consiste à comparer puis agréger. Il s’agit de comparer d’abord les performances des alternatives critère par critère. Pour chaque paire d’alternative et pour chaque critère, on peut définir un indice binaire de préférence partielle qui est une fonction croissante du premier argument, décroissante du second. La préférence entre les deux alternatives est alors définie par agrégation des indices de préférence partielle. Dans cette approche, une même fonction est utilisée pour comparer les performances de deux alternatives sur le même critère. On ne compare jamais directement deux performances associées à des critères différents. Il n’est donc pas nécessaire de supposer que l’on sait comparer les performances d’une alternative sur différents critères. En revanche, on doit supposer que l’on sait comparer des indices binaires de préférence partielle pour deux critères différents. Cette seconde méthode, plus complexe à mettre en œuvre, est considérée comme moins subjective et moins manipulable.

c. Les analyses basées sur des mesures objectives

Un ensemble de méthodes ont cherché à s’affranchir de la dimension subjective de la monnaie en définissant des unités de mesures plus objectives. On quitte ainsi l’espace de l’utilité et des valeurs humaines pour mesurer des grandeurs physiques ou biologiques. Trois approches ont connu un certain intérêt dans les dernières décennies, car elles ont su répondre à des attentes. La première est essentiellement descriptive, les deux autres ont une ambition plus prescriptive, au moins en permettant des classements.

Le bilan matières consiste à mesurer les flux entrants et sortants d’une entité (Ayres et Kneese, 1969). Partant du principe de conservation de la matière, cette approche

et, par différence, de mesurer a priori de ce qui va se retrouver dans l’environnement naturel. Elle constitue une base intéressante pour les démarches du type « écologie industrielle » qui visent à limiter l’impact des installations. Si elle apporte des informations potentiellement intéressantes, elle ne permet cependant pas seule de guider des choix car elle ne s’appuie pas réellement sur un principe d’efficacité. La minimisation d’un certain type d’effluent ne constitue pas a priori un objectif pertinent, sauf s’il existe une bonne raison de penser que cette forme est d’un moindre intérêt qu’une autre. C’est en partie pour répondre à cette question que se sont développées des démarches visant à ramener les flux dans une unité commune : l’énergie.

Fondée sur l’écologie des frères Odum (Pillet et Odum, 1987), l’analyse éco- énergétique part du constat que l’énergie est une grandeur commune à l’analyse des écosystèmes et des systèmes sociotechniques (« l’énergie est la monnaie de la Nature »). En mesurant les flux en termes d’énergie, on peut les suivre d’une sphère à l’autre et analyser leur devenir au sein de chacune. Les principes de la thermodynamique vont fournir les cadres d’analyse (ou les métaphores) visant à évaluer les performances relatives des différentes options de choix. Plusieurs approches ont été étudiées selon qu’on part du contenu énergétique des flux (« émergie » pour « embodied energy ») ou de l’énergie libre qu’ils véhiculent et libèrent (« exergie »). Cette démarche n’est peut-être pas très adaptée à mesurer des impacts qualitatifs sur la diversité du vivant, mais elle peut fournir des informations pertinentes pour évaluer l’impact quantitatif d’une infrastructure ou d’un projet industriel sur le milieu naturel, notamment dans une perspective comparative100. La question est ici de définir un numéraire qui intégrerait ce type d’information au côté des autres dimensions d’efficacité économique ou de justice sociale. Mais les informations objectives issues des analyses éco-énergétiques ou des bilans-matière peuvent figurer parmi les indicateurs d’une analyse multicritère.

Plus récemment, W. Rees et Wackernagel (Rees, 1992 ; Wackernagel et Rees, 1996) ont proposé la notion d’empreinte écologique. Il s’agit de ramener les différentes formes d’impact des activités humaines, tant en termes d’utilisation de l’espace et de consommation de ressources que de mobilisation du fonctionnement des écosys- tèmes pour traiter nos déchets et pollutions, à une surface équivalente nécessaire, mesurée en « hectares globaux ». Cette approche a été appliquée à des pays, des villes, des entreprises et même à un individu ; elle pourrait donc apporter des éléments de réponse non monétarisés à la question de l’impact des projets sur la biodiversité, si l’on est en mesure de construire une pondération des surfaces affectées par un projet en fonction des services et de la diversité biologiques qu’ils supportent (Senbel et al., 2003). Une abondante critique a mis en évidence certaines faiblesses des mesures d’empreinte écologique, considérant que son usage était entaché de limites (concernant, notamment, certaines conventions de calcul) qui en faisaient plus un outil de communication politique qu’un concept scientifique (van Kooten et Bulte, 2000 ; Fiala, 2008). Mais les usages qui sont fait d’un outil par une organisation « militante », ne doivent pas discréditer son utilisation dans un but de connaissance (Foley et al., 2007 ; Haberl et al., 2007) et d’appréciation des pressions

100

Les travaux qui, dans la perspective ouverte par N. Georgescu-Roegen dans les années 1970, ont posé la question des limites à l’efficacité technique du développement économique, en termes d’entropie, peuvent être rapprochés de ces analyses, bien qu’ils se retrouvent parfois en concurrence, opposant à l’économie écologique la vision plus radicale d’une « bio-économie » qui prône la décroissance et la réorientation du développement.

exercées par les activités humaines sur les écosystèmes. On peut cependant remarquer que, même si les débats en cours permettront sans doute d’améliorer la qualité des informations véhiculées par les mesures d’empreinte écologique, cela ne lui confère a priori aucune valeur normative101

.

Enfin, il faut mentionner l’intérêt renouvelé pour des procédures délibératives dans lesquelles la perception des problèmes est construite avec les personnes concernées ou un échantillon représentatif. Ces procédures peuvent rester qualitatives et viser à un enrichissement mutuel de la perception des enjeux par les responsables et les individus concernés, comme dans les jurys de citoyens. Elles peuvent viser à créer une fertilisation avec les techniques d’évaluation économique en structurant les échanges de façon à déboucher sur l’expression de préférences raisonnées, éventuellement monétarisables102

.

Outline

Documents relatifs