• Aucun résultat trouvé

La méthode d’évaluation contingente face aux critiques

2.1. Typologie des critiques formulées à l’encontre de la MEC

2.1.2. La notion de validité

La validité de la MEC peut être analysée à travers 3 éléments : la validité de contenu (content/face validity), la validité de critère (criterion validity) et la validité de construit (construct validity) (Mitchell et Carson, 1989).

La validité de contenu fait référence au questionnaire et à son administration. Comme l’indiquent Desvouges et al. (1996) « The content of the contingent valuation survey is valid if the survey is designed and conducted in a way that induces respondents to give unbiased statements about their willingness to pay ».

La MEC étant une méthode de révélation directe des préférences, l’intérêt des résultats produits est, avant tout, tributaire de la qualité du questionnaire puisque c’est sur la base des informations contenues dans celui-ci que chaque individu va construire sa valeur pour le bien étudié. Un questionnaire clair, soigneusement élaboré et convenablement administré est un

27 Les deux enquêtes ont été effectuées à 5 ans d’intervalle.

28 A moins que l’intervalle de temps entre les deux études soit très court (quelques jours, par exemple), auquel cas de gros doutes subsisteraient sur la pertinence des résultats.

gage de validité des résultats. A cette fin, la commission américaine de la NOAA (National Oceanic and Atmospheric Administration) a mis au point un protocole d’utilisation de la MEC. Ce protocole étant aujourd’hui largement connu, on se contente de ne mentionner ici que les éléments essentiels relevés par Portney (1994) cité par Willinger (1996)29 :

réaliser les enquêtes directement plutôt que par téléphone ou par courrier ; privilégier l’indicateur CAP à la place du CAR (consentement à recevoir) ; employer la technique du référendum plutôt que le questionnaire ouvert ;

décrire de façon claire et compréhensible le scénario proposé par le questionnaire ; rappeler aux personnes interrogées que leur contribution équivaut à une baisse de leur budget disponible pour leurs autres dépenses ;

rappeler aux personnes interrogées l’existence de substituts potentiels ;

poser en fin de questionnaire des questions subsidiaires afin de s’assurer que les personnes interviewées ont bien compris les choix qu’ils ont exprimés et leur demander les raisons de leurs choix.

La littérature économique propose plusieurs pistes permettant d’améliorer la qualité du questionnaire : la pré-enquête, le focus groupe et le protocole verbal (Desvousges et Smith, 1988 cités par Desvousges et al., 1996). La pré-enquête consiste à passer le questionnaire dans les mêmes conditions prévues pour l’enquête finale auprès d’un nombre limité de sujets afin d’identifier les difficultés rencontrées par ces derniers à répondre aux questions. Pour ce faire, la pré-enquête doit être complétée par une discussion entre l’enquêteur et chaque enquêté sur l’appréciation du questionnaire et des questions (Berthier, 2006). Le focus groupe s’inscrit dans cette même logique. Mais, à la différence de la pré-enquête, l’enquêteur joue un rôle de modérateur en conduisant des interviews auprès d’un groupe restreint de participants (6-12) rémunérés pour l’occasion et homogènes sur des facteurs tels que l’âge, le sexe, le niveau d’éducation (Bateman et al. 2002). Le focus groupe permet au modérateur de comprendre comment les intéressés interprètent les questions posées. Une autre technique efficace revient à leur demander de «penser à voix haute» pendant qu’ils répondent au questionnaire. Cette approche est connue sous le nom de protocole verbal (Bateman et al., 2002).

29

Mais ces pré-tests ne permettent pas de juger de la validité de contenu. Leur rôle est plutôt de fournir des informations nécessaires en vue d’une amélioration du questionnaire. Il existe des tests empiriques de validité de contenu comme le taux de faux zéros obtenu. Une proportion importante de ces derniers (autour de 50%, par exemple) est souvent liée à des problèmes au niveau du questionnaire, notamment un manque de réalisme du programme contingent (Desvousges et al. 1996). On abordera au chapitre 2 les solutions économétriques envisageables aux difficultés que posent les valeurs nulles dans l’analyse contingente.

La validité de critère s’interroge sur la validité des montants déclarés par les enquêtés par rapport « au prix du marché » qualifié de « critère ». Son objet peut être résumé par la question suivante : l’individu enquêté, aurait-il payé exactement le même montant déclaré lors de l’enquête (marché hypothétique) s’il avait été sur un marché réel?. En d’autres termes, le CAP annoncé traduit-il vraiment la préférence de l’agent comme le suppose la MEC30?. Etant donné qu’il n’y a pas un marché réel pour les biens et services non marchands, il est difficile de se prononcer avec certitude sur l’existence ou non d’une divergence significative entre les intentions des individus et leur comportement effectif sur un marché réel. Toutefois, des tests de validité de critère ont été effectués en laboratoire sur des biens semi-publics (quasi-public goods) et des biens publics purs, et les résultats obtenus tendent plutôt vers une surestimation des CAP (voir Venkatachalam, 2004). Mais, ces résultats doivent être pris avec précaution car s’agissant des biens semi-publics (ex. : un site historique), le prix payé par le consommateur n’en reflète pas la valeur totale, la valeur de non-usage étant ignorée (Chambers et al. 1998). Par conséquent, pour ce type de bien, le prix utilisé au laboratoire ne constitue pas un critère idéal. C’est donc, à notre sens, en travaillant avec des biens privés qu’on peut réellement juger de la validité de critère de la méthode. A ce propos, Boyle (2003), citant l’étude de Dickie et al. (1987) sur les fraises, étude qui a conclu à une différence non significative entre les CAP annoncés et les valeurs réelles, soutient que la MEC produit des résultats valides.

La validité de construit englobe deux notions: la validité théorique (expectation-based validity) et la validité de convergence (convergent validity) (Bateman et al., 2002). La validité théorique porte sur la cohérence des résultats observés avec ceux prévus par la théorie micro-économique. Desvousges et al. (1996) ont recensé divers tests de validité théorique. D’abord,

30 On rappelle que la MEC suppose que les intentions des agents prédisent parfaitement leurs comportements effectifs (Desaigues et Point, 1993).

il y a le test d’envergure ou scope test31. Ce test a pour objectif de vérifier l’axiome de la monotonicité des préférences (non saturation des préférences). Pour ce faire, les enquêtés sont soumis à plusieurs scénarios impliquant un seul bien (par exemple : les oiseaux) dont la taille varie dans chaque scénario (protection de 2000, 20000,...,200000 oiseaux). Les auteurs ayant réalisé ce test ont abouti à des résultats divergents. Certains ont mis en évidence l’insensibilité du CAP des agents à la taille de l’objet évalué (Desvousges et al., 1993; Diamond et al., 1993 cités par Heberlein et al., 2005). D’autres, en particulier Smith et Osborne (1996), s’appuyant sur une méta-analyse réalisée à partir de 5 articles sur la visibilité dans les parcs nationaux américains, ont montré un lien positif et significatif entre le CAP et le degré (en pourcentage) d’amélioration de la visibilité.

Outre le test d’envergure, il y a également le test de l’effet d’ordre (sequencing effect test). Il consiste à vérifier si, dans le cas d’une évaluation de plusieurs biens (les baleines et les phoques, par exemple), la valeur attribuée à l’un d’entre eux dépend de l’ordre dans lequel on pose la question de son évaluation. A la lecture de Venkatachlam (2004), il apparaît que les résultats sont là-encore plutôt mitigés: Samples et Hollyer (1990), Hammitt et Graham (1999) ont relevé un effet d’ordre tandis que Boyle et al. (1993), Ajzen et al. (1996) ne l’ont pas constaté.

Enfin, un autre type de test de validité théorique revient à régresser les différents CAP sur les variables explicatives construites à partir des informations fournies par le questionnaire (Bateman et al. 2002) et à s’assurer que le signe des déterminants est conforme aux attentes a priori ou, en l’absence de repère théorique, qu’il concorde avec d’autres travaux s’inscrivant dans la même thématique de recherche (validité empirique).

Pour finir, la validité de convergence suit le même procédé que la validité de critère, sauf qu’au lieu de comparer les résultats issus de la MEC avec ceux provenus des expériences de laboratoire, il est plutôt question ici de les rapprocher de ceux obtenus par les méthodes

31

Dans la littérature, certains auteurs emploient indifféremment scope test et embedding test pour désigner un test de biais d’envergure. Cependant, Bateman et al. (2002) estime que les deux termes sont différents. Le « scope » implique un changement au niveau d’un seul argument de la fonction d’utilité multivariée du consommateur tandis que l’«embedding » suppose un changement au niveau d’au moins deux arguments. Par exemple, passer d’un projet de protection de 100 hectares d’une zone humide à un autre protégeant 150 hectares de la même zone relève du « scope effect », d’un effet de champ. En revanche, passer d’un projet de protection de 100 hectares d’une zone humide à un autre préservant les 100 hectares de cette même zone plus 50 hectares de forêt relève de «l’embedding effect » qu’on peut qualifier d’effet imbrication (le premier projet étant imbriqué dans le second).

indirectes. L’un des cas classiques de test de validité de convergence est la méta-analyse de Carson et al. (1996) faite sur des travaux portant sur des biens quasi-publics. Dans cette étude, ils montrent que le ratio entre les CAP moyens fournis par la MEC et les autres techniques est de 0.89. Sur la base de ce chiffre, ils considèrent que la MEC est valide. Cependant, ce type de comparaison n’est possible que si les méthodes des préférences révélées sont applicables. Or, dans bien de circonstances, celles-ci sont hors d’usage. Aussi, des solutions alternatives ont-elles été proposées (Desvousges et al. 1996). L’une des solutions revient à comparer les CAP exprimés à l’aide de plusieurs supports de paiement (Morrison et al., 2000). Dans la sous-section suivante, on propose une revue des articles ayant appliqué ce type de test.

Figure 6. Récapitulatif des éléments de critique discutés ci-dessus