• Aucun résultat trouvé

PUBLICATIONS 2016 27 14 26 12 24 10 8 20 6 16 4 DOSSIERS SPÉCIAUX ZOOM SUR LA RECHERCHE

N/A
N/A
Protected

Academic year: 2022

Partager "PUBLICATIONS 2016 27 14 26 12 24 10 8 20 6 16 4 DOSSIERS SPÉCIAUX ZOOM SUR LA RECHERCHE"

Copied!
17
0
0

Texte intégral

(1)
(2)

ZOOM SUR LA RECHERCHE

4

Valeria Maggian

Les femmes viennent de la terre et les hommes viennent de la terre. Quel parcours vers l’égalité des genres ?

6

Stéphane Gonzalez

Démocratie, équité et stabilité dans les problèmes de coûts sociaux

8

Nelly Exbrayat

Qui supporte réellement le

« poids » de l’imposition des sociétés ?

10

Philippe Solal Partage des coûts et

réglementation européenne REACH

12

Nicolas Barbaroux

Politique monétaire : quand règle monétaire rime avec discrétion

14

Fabio Galeotti

Les mesures de la malhonnêteté en laboratoire permettent- elles de prédire la fraude sur le terrain ?

DOSSIERS SPÉCIAUX

16

Luc Baumstark La valorisation socio- économique des risques sanitaires : calcul économique et « valeur statistique de la vie humaine »

20

Béatrice Rey

Risque et désagrégation des peines

FORMATIONS ADOSSÉES AU GATE

24

Philippe Polomé

Master Risques et environnement

26

Aurélien Eyquem

Master Economie et Finance

PUBLICATIONS 2016 27

SOMMAIRE

• Responsable de la rédaction: Sonia Paty

• Relecture : Annick Blainville et Nelly Wirth

• Conception: Taï Dao

(3)

GATE

Magazine

GATE

Magazine

ZOOM SUR LA RECHERCHE

N° 4- 2016 N° 4 - 2016

ZOOM SUR LA RECHERCHE

Dans une expérience récente1, réalisée dans une école primaire en Angleterre, on a demandé à des enfants de dessiner un(e) pompier(e), un(e) chirurgien(ne) et un(e) pilote de chasse : 61 dessins représentent des hommes et 5 représentent des femmes. Cette anecdote reflète la réalité du monde du travail : en Angleterre, seulement 10.5% des chirurgiens2 et 7% des pompiers3 sont des femmes.

Il est intéressant de noter que dans tous les secteurs occupationnels européens, y compris les secteurs à majorité féminine, les superviseurs sont le plus souvent des hommes (Burchell et al. 2015). Trois questions apparaissent donc immédiatement : (i) Est- ce important et/ou économiquement pertinent d’avoir la même proportion de femmes que d’hommes dans les différents domaines et niveaux de qualification 1- Voir la vidéo ici : https://www.youtube.com/

watch?v=qv8VZVP5csA

2- The Royal College of Surgeons of England 3- http://www.telegraph.co.uk/women/womens-

business/11838955/Sexism-Britains-women-firefighters-need-to- extinguish-it.html

Hyde (2005) démontre que c’est plutôt les différences sociales et culturelles qui influent sur la différence de performance perçue ou réelle entre hommes et femmes. Pourtant, des expériences en laboratoire ont démontré que les différentes préférences par rapport au moyen de paiement dans une tâche réelle5, compétitive pour les hommes (Niederle &

Vesterlund, 2007) et coopérative pour les femmes (Kuhn & Villeval, 2015), peuvent expliquer les différents choix de candidatures dans le monde du travail. L’étude menée par Gneezy & List (2009) dans l’une des (rares) sociétés matriarcales au monde semble démontrer que cette différence n’est pas nécessairement biologique mais peut-être culturelle.

Si Sutter & Glätzle-Rützler (2015) observent une attitude différente envers la compétition entre femmes et hommes dès l’âge de trois ans, Dreber et al. (2015) soulignent à quel point la typologie de la tâche choisie dans l’expérience est importante (verbale, mathématique, etc.), en mettant en évidence le rôle du stéréotype dans ce processus. Il est donc possible que, si les femmes pensent (à tort) ne pas être suffisamment compétentes dans un domaine (stéréotypé), elles ne postulent pas, ce qui conduit à une mauvaise allocation des postes (Maggian &

Nicolo). Testé en laboratoire, le quota de genre, une des solutions proposées pour lutter contre l’inégalité de genre, démontre que l’on peut encourager l’entrée des femmes dans des domaines compétitifs sans affecter négativement les hommes (Niederle and Vesterlund, 2013 ; Balafoutas and Sutter, 2012).

5- Dans l’exécution de la tâche réelle, les participants doivent faire la somme du plus de séries de 5 numéros à 3 chiffres pos- sibles.

dans le du monde du travail ? (ii) Les différences que l’on observe sont-elles tout simplement le reflet de compétences différentes ou de préférences différentes par rapport à ce que chacun (genre) veut faire dans sa vie ? (iii) Peut-on changer cela ?

L’égalité des genres est considérée par l’UNESCO comme un droit fondamental de la personne humaine. L’égalité dans le monde du travail et, par conséquent, l’indépendance économique des femmes (et des hommes) est un prérequis essentiel pour leur permettre d’avoir le contrôle de leurs vies et de faire de véritables choix politiques, économiques, et sociétaux en général. L’égalité des genres est aussi économiquement pertinente : la valeur de la disparité mondiale entre hommes et femmes dans l’emploi et les salaires se monte à 17 billions de dollars4. Cette situation s’explique souvent par la façon dont sont évaluées les compétences des femmes par rapport à celles des hommes. Toutefois, une méta-étude de 4- Actionaid, (2015). Close the Gap! The cost of inequality in women’s work.

Toutefois, les effets sur le long terme ainsi que les possibles effets pervers des quotas ne sont pas encore suffisamment connus.

• Balafoutas, L., Sutter, M. (2012) « Affirmative action policies promote women & do not harm efficiency in the lab » Science, 335, 579–582.

• Burchell, B., Hardy, V., Rubery, J., Smith, M. (2015)

« A New Method to Understand Occupational Gender Segregation in European Labour Markets

» European Commission, 2015.

• Dreber, A., von Essen, E., Ranehill, E. (2014)

« Gender and competition in adolescence: task matters » Experimental Economics, 17: 154.

• Hyde, J.S. (2005) « The gender similarities hypothesis » American Psychologist, 60 (6), 581- 592

• Kuhn, P., Villeval, M.C. (2015) « Are women more attracted by cooperative work environments? » Economic Journal, 125 (582), 115-140.

• Maggian, V., Nicolo, A. « The wrong man for the job? Biased beliefs & job mis-matching » Mimeo.

• Niederle, M., Vesterlund, L. (2007) « Do women shy away from competition? Do men compete too much? » Quarterly Journal of Economics, 122:1067-1101.

• Niederle, M., Segal, C., Vesterlund, L. (2013)

« How costly is diversity? Affirmative action in light of gender differences in competitiveness » Management Science, 59, 1–16.

• Sutter, M., Glätzle-Rützler, D. (2015) « Gender differences in the willingness to compete emerge early in life and persist » Management Science, 62: 2339-2354.

Valeria Maggian

Les femmes viennent de la terre et les hommes viennent de la terre. Quel parcours vers l’égalité des genres ?

Chercheuse postdoctorale, Valeria

Maggian est membre de l’axe «Économie

comportementale» du GATE Lyon Saint-

Etienne.

(4)

Ronald Coase (1960) est considéré dans la littérature comme l’un des pionniers de l’analyse économique du droit. Particulièrement connu pour avoir remis en cause le principe du pollueur-payeur, ses travaux ont eu un impact considérable sur la manière d’analyser les questions liées à l’internalisation par le marché des effets externes comme la pollution. On pense notamment à l’ouverture de marchés de droits à polluer. En 1966, George Stigler résume l’analyse coasienne en deux messages : le premier est que, en présence d’effets externes, si les coûts de transaction sont nuls, l’émetteur et le récepteur de l’externalité négative négocieront à leur avantage une allocation optimale des ressources (thèse de l’efficience) ; le second est que cette allocation optimale est indépendante de la distribution des droits de propriété (thèse de la neutralité du droit).

Ainsi, selon Stigler, le marché serait toujours efficace pour allouer les ressources. Ces deux thèses forment ce que l’on appelle le « théorème de Coase ».

En réalité, Coase, qui réfléchit exclusivement à travers des cas d’espèce et refuse toute formalisation, s’est cantonné à l’étude de l’interaction entre un pollueur et une victime potentielle. Cette interaction bilatérale a fourni le cadre d’analyse de la plupart des résultats formels en économie théorique (cf., par exemple,

pollueur de limiter son activité au moyen d’un accord gagnant-gagnant. Si, au contraire, le pollueur est responsable des effets sociaux de son activité, alors de nombreuses règles de droit, inexistantes à deux agents, deviennent possibles lorsqu’il existe plusieurs victimes potentielles. Par exemple, dans le cas de l’installation de l’aéroport de Notre-Dame-des- Landes, la règle de droit - le référendum - consiste à dire que le pollueur détient le droit de polluer dès lors qu’il obtient l’accord d’une majorité de victimes.

Il s’agit là d’une règle démocratique parmi d’autres.

D’autres règles de droit sont possibles. On peut envisager la règle de droit où le pollueur détient le droit de polluer dès qu’il obtient l’autorisation de toutes les victimes (principe de l’unanimité) ou encore le pollueur peut polluer dès qu’il obtient l’accord d’une coalition représentative des victimes (une majorité des élus, les associations pouvant former une class action, etc.).

Une solution pour le problème du coût social est définie par une distribution des droits et un paiement pour chaque agent. Pour concevoir une solution à ce problème, on adopte une démarche axiomatique propre à l’analyse normative. On introduit trois axiomes, chacun reflétant un principe socialement désirable.

Le premier axiome traduit un principe démocratique.

On dit que la règle de droit est démocratique si une quelconque victime potentielle n’a pas le droit d’empêcher le reste de la société de signer des accords. La règle du référendum satisfait à cette propriété.

Le second axiome reflète un principe de stabilité.

On dit que les paiements distribués aux agents, suite à leur participation à un problème du coût social, sont stables si (a) ils sont efficients, (b) aucun Hurwicz, 1995, Chipman et Tian, 2012), qu’ils aient

infirmé ou confirmé les intuitions de Coase.

Au-delà de l’interaction bilatérale, les conditions sous lesquelles le « théorème de Coase » est validé ont été relativement peu abordées par la littérature.

Pourtant, que ce soit l’installation d’une usine polluante, d’une déchetterie ou encore d’un aéroport engendrant de multiples nuisances pour les riverains, les exemples qui mettent en scène un pollueur et un nombre important de victimes potentielles ne manquent pas. Valider le « théorème de Coase » dans un cadre multilatéral exige tout d’abord une définition rigoureuse des droits, puis l’existence d’un accord socialement optimal entre le pollueur et les victimes qui prend la forme de paiements/transferts monétaires.

Dans cet article* les droits sont distribués à chaque coalition d’agents susceptibles de collaborer pour négocier un accord optimal pour eux-mêmes. Si le pollueur n’est pas considéré comme responsable des nuisances occasionnées, c’est-à-dire qu’il possède le droit de polluer sans considération pour ceux qui subissent la pollution, alors on fait l’hypothèse que toute coalition d’agents contenant le pollueur peut négocier un accord sur l’activité maximale du pollueur.

Ainsi, tout groupe de victimes devra convaincre le

groupe d’agents n’a intérêt à faire scission de la grande coalition afin de proposer un accord et des paiements alternatifs. Formellement, les paiements doivent appartenir au cœur d’un jeu coopératif construit à partir de la règle de droit, des fonctions de dommages des victimes et de la fonction des bénéfices du pollueur. Notons que par (a), la stabilité implique l’efficience.

Le troisième axiome décrit un principe d’équité.

Des paiements sont équitables s’ils dédommagent intégralement l’ensemble des victimes des nuisances subies.

Existe-t-il une solution qui satisfait à ces trois axiomes ? On montre que la réponse à cette question est négative. En revanche, on montre qu’il existe une solution qui satisfait aux axiomes de démocratie et de stabilité. Une telle solution implique la non- responsabilité du pollueur. On montre également qu’il existe une solution qui satisfait aux axiomes d’équité et de stabilité. Une telle solution implique un principe d’unanimité pour la règle de droit. Enfin, les seules solutions qui satisfont à l’axiome de stabilité sont celles qui impliquent la non-responsabilité du pollueur ou le principe d’unanimité pour la règle de droit. Ces résultats mettent donc à mal la thèse de neutralité du droit, même en l’absence de coûts de transaction positifs.

*Stéphane Gonzalez, Alain Marciano, Philippe Solal, (2016)

« The social cost problem, rights and the (non) empty core », WP. GATE.

• Chipman J., Tian G. (2012) « Detrimental externalities, pollution rights, and the ʺCoase

• Theoremʺ» Economic Theory, 49: 309-327.

• Coase R.H. (1960) « The problem of social cost » Journal of Law and Economics, 3: 1-44.

• Hurwicz L. (1995) « What is the Coase theorem? » Japan and the World Economics, 7:49-74.

• Stigler G.J. (1966) « The theory of price » University of Chicago Press, Chicago.

Stéphane Gonzalez

Démocratie, équité et stabilité dans les problèmes de coûts sociaux

Maître de conférences à l’Université Jean

Monnet, Stéphane Gonzalez est membre de

l’axe « Théorie des jeux, choix collectifs et

marchés » au GATE Lyon Saint-Etienne.

(5)

GATE

Magazine

GATE

Magazine

ZOOM SUR LA RECHERCHE

N° 4- 2016 N° 4 - 2016

ZOOM SUR LA RECHERCHE

En économie publique, il est bien connu que celui qui s’acquitte légalement de l’impôt n’est pas nécessairement celui qui en supporte in fine la charge. Cet effet, qualifié d’incidence fiscale, résulte de l’ajustement des prix des produits et des facteurs en réaction aux variations de taxe. Savoir mesurer l’incidence fiscale constitue un enjeu de taille puisque ces variations de prix sont susceptibles d’altérer la distribution des revenus entre les différentes catégories d’agents économiques.

Récemment, des chercheurs se sont intéressés à la part de l’imposition des sociétés transmise aux travailleurs par le biais de salaires plus faibles (Clausing, 2013). Deux effets sont mis en évidence.

Il existe un effet direct dès lors qu’une hausse de l’imposition des sociétés réduit la part des profits faisant l’objet des négociations salariales. À cela s’ajoute un effet indirect qui opère à long terme : une hausse de l’imposition des entreprises décourage

aujourd’hui. Les études économétriques confirment que la concurrence fiscale internationale participe à cette baisse tendancielle (Exbrayat, 2016). Or, ce phénomène n’est pas sans conséquence pour l’étude de la relation entre les niveaux de salaire et d’imposition des sociétés. Plus le coût du travail est élevé dans un pays, plus leurs gouvernements seront enclins à réduire l’imposition des sociétés car le risque de fuite des capitaux est accru (Haufler et Mittermaier, 2011 ; Gaigné et al., 2012).

N. Exbrayat et B. Geys (2016) s’attachent à étudier cette double relation entre taux d’imposition des sociétés et niveaux de salaire.

Contrairement à la littérature existante qui s’intéresse à chacune de ces relations séparément, nous estimons à la fois l’influence de l’imposition des entreprises sur le coût du travail et celle du coût du travail sur l’imposition des entreprises, à partir d’une base de données de 24 pays de l’OCDE sur la période 1982- 2007. Les résultats permettent de vérifier que chacune de ces relations est bien à l’œuvre, à condition que soit pris en considération leur caractère réciproque par le biais d’un modèle à équations simultanées.

De plus, nous montrons que ces relations entre imposition des sociétés et coût du travail sont plus fortes dans les économies les plus ouvertes aux mouvements de capitaux, conformément à ce que suggère la littérature théorique.

Il serait intéressant d’approfondir l’analyse de cette double relation dans le cas particulier des firmes multinationales. Des travaux théoriques récents suggèrent qu’elles peuvent utiliser des menaces de délocalisation ou avoir recours à des pratiques d’optimisation fiscale afin d’améliorer leur pouvoir de négociation vis-à-vis des travailleurs (Ecker et Egger, 2009 ; Krautheim et Schmidt-Eisenlohr, 2016). La mesure de l’effet d’incidence fiscale sur les salaires fixés par les multinationales commence à l’investissement en capital, et peut réduire les salaires

via la baisse de la productivité marginale du travail.

Ces deux effets ont pour ultime conséquence de faire supporter aux employés une partie de l’imposition des sociétés, quand bien même ils ne sont pas légalement soumis à cet impôt. À partir de données d’entreprises localisées dans neuf pays européens sur la période 1960-2003, Arulampalam et al. (2015) concluent qu’une augmentation de l’imposition des sociétés à hauteur de 1$ réduit le salaire de 49 centimes.

Si l’imposition des entreprises peut se répercuter sur les salaires, le coût du travail n’est pas non plus sans conséquences sur le niveau de pression fiscale envers les entreprises. L’intégration économique internationale a pour effet de mettre les systèmes fiscaux nationaux en concurrence les uns avec les autres, générant une course au moins-disant fiscal.

Ainsi, le taux d’imposition des sociétés dans les pays de l’OCDE est passé de 49,1% en 1980 à 32,5%

faire l’objet de travaux empiriques dont les résultats permettront de mieux caractériser la spécificité de leur comportement (Fuest et al., 2016).

• Arulampalam, W. ; Devereux, M. P. and G. Maffini (2012) « The Direct Incidence of Corporate Income Tax on Wages » European Economic Review, 56(6), 1038–1054.

• Clausing, K. (2013) « Who Pays the Corporate Tax in a Global Economy? » National Tax Journal, 66, 1, 151–84.

• Eckel, C., and Egger, P. (2009) « Wage bargaining and multinational firms », Journal of International Economics, 77, 2, 206-214.

• Exbrayat, N. (2016) « Does trade liberalization trigger tax competition? Theory and evidence from OECD countries », The World Economy, à paraître.

• Exbrayat, N., Gaigné, C. and Riou, S. (2012) « The effects of labor unions on international capital tax competition » Canadian Journal of Economics, 45(4), 1480-1503.

• Exbrayat, N. and Geys, B. (2016) « Economic Integration, Corporate Tax Incidence and Fiscal Compensation », The World Economy, 39(11), 1792-1811.

• Fuest, C., Peichl, A. and Siegloch, S., (2016).

“Do Higher Corporate Taxes Reduce Wages?

Micro Evidence from Germany”, ZEW Discussion Paper N°. 16-003, Mannheim.

• Haufler, A. and Mittermaier, F. (2011) « Unionisation triggers tax incentives to attract foreign direct investment » Economic Journal, 121, 793–818.

• Krautheim, S., and Schmidt-Eisenlohr, T. (2016)

« Wages and international tax competition ».

Review of international economics, à paraître.

Nelly Exbrayat

Qui supporte réellement le

« poids » de l’imposition des sociétés ?

Maître de conférences à l’Université Jean Monnet, ses recherches en économie publique et en économie internationale

s’inscrivent dans l’axe « Politiques publiques et

espace » qu’elle co-dirige au GATE Lyon Saint-

Etienne.

(6)

La réglementation REACH (Registration, Evaluation, Authorisation and Restriction of Chemicals) est un système européen unique concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques, ainsi que les restrictions applicables à ces substances. À travers cette réglementation, la Commission européenne vise à harmoniser la politique européenne concernant les substances chimiques. L’étape d’enregistrement, obligatoire pour toute substance chimique, possède trois caractéristiques remarquables (cf., Béal et al.

2011) :

(1) REACH consacre un principe juridique de renversement de la charge de la preuve, qui transfère aux entreprises l’obligation de démontrer l’innocuité des produits chimiques qu’elles utilisent.

(2) La seconde nouveauté, une conséquence de (1), est l’obligation pour chaque entreprise de fournir toutes les informations ou données toxicologiques et environnementales dont elles disposent sur les substances qu’elles utilisent. L’échange de ces données prend place au sein de structures de partage et de mutualisation, appelées Substance Information Exchange Forum (SIEF).

(3) La production de ces données étant coûteuse,

Cinq axiomes sont proposés pour les mécanismes de compensation.

Le premier traduit un principe d’équilibre budgétaire : la somme des compensations entre les membres d’un SIEF est nulle.

Le deuxième, appelé axiome d’égale concession, traduit un principe d’équité pour les situations particulières où toutes les données sont exclusives (il n’existe pas deux membres du SIEF qui détiennent une même donnée). Cet axiome signale que la différence entre la compensation allouée à un membre du SIEF et la somme des coûts des données (exclusives) dont il est propriétaire ne dépend pas du choix de ce membre. Autrement dit, chaque membre du SIEF fait la même concession monétaire calculée en référence au coût total des données dont il est propriétaire. Remarquons que le coût total de ses données correspond au versement maximal auquel il peut raisonnablement s’attendre au sein de ce type de SIEF, i.e. la compensation qui couvre la totalité des coûts des données qu’il communique aux membres du SIEF.

Le troisième incorpore un principe de neutralité au regroupement des données. Le principe en est le suivant. Si deux SIEF associés à des ensembles de données distincts mais composés d’un même ensemble d’agents, sont réunis pour former un unique SIEF, alors la compensation d’un membre de ce nouveau SIEF est égale à la somme des compensations que le mécanisme lui alloue dans chacun des deux SIEF que l’on a regroupés.

Le quatrième, appelé axiome des contributions équilibrées, est emprunté à Myerson (1980). Il indique que la différence de compensation allouée à un membre entre une situation où tous les membres du SIEF coopèrent, et la situation où un autre membre quitte le SIEF, ne doit pas dépendre de l’identité du membre qui fait défection. En d’autres termes, le pouvoir d’un membre sur la variation de compensation d’un autre membre est également distribué entre les membres du SIEF.

Le cinquième, appelé axiome des contributions collectives équilibrées, est construit dans le même esprit que le précédent, la seule différence réside REACH prévoit des dédommagements financiers en

contrepartie du partage des données à l’intérieur d’un SIEF.

Nous abordons essentiellement la question de ces compensations ou dédommagements financiers (point (3)) d’un point de vue de la théorie des jeux coopératifs. À la suite de Déhez et Tellone (2013), nous introduisons la classe des jeux de partage de données. À chaque SIEF est associé un ensemble de données. Il s’agit de l’ensemble des données dont les propriétaires sont les membres de ce SIEF. Le coût d’une coalition au sein d’un SIEF est défini par la somme des coûts des données que ses membres ne possèdent pas relativement à ce SIEF. La coalition formée par l’ensemble des membres du SIEF a donc un coût nul puisque, par définition, ses membres détiennent l’ensemble des données associé à ce SIEF. Le principal résultat de cet article* est de fournir deux caractérisations axiomatiques comparables de deux mécanismes de compensation. Le premier est le mécanisme de Shapley (1953) ; le second est le mécanisme de partage égalitaire des coûts non séparables popularisé par Moulin (1985).

Dans le cadre des jeux de données, le mécanisme de partage égalitaire des coûts non séparables est défini, pour chaque membre du SIEF, par la somme de deux termes : le premier terme indique qu’un membre doit verser une part égalitaire de la somme des coûts des données exclusives du SIEF (une donnée est dite exclusive si elle est détenue uniquement par un seul membre du SIEF) ; le second terme indique qu’un membre reçoit un montant égal à la somme des coûts des données exclusives qu’il détient (si, bien sûr, il en détient). Le mécanisme de Shapley est similaire, la seule différence réside dans le calcul de la compensation. Ce calcul ne se réalise pas sur l’ensemble des données exclusives, mais sur l’ensemble des données du SIEF. Notons que si la compensation monétaire d’un membre est positive/

négative, alors cela signifie qu’il encaisse/verse de l’argent.

dans le fait que l’on prend en compte dans le calcul, non pas la différence de compensation d’un membre du SIEF entre une situation où tous les membres du SIEF coopèrent et la situation où un autre membre quitte le SIEF, mais la moyenne de ces différences de compensation, calculée sur les membres du SIEF qui continuent à coopérer.

Le seul mécanisme de compensation qui satisfait aux axiomes d’équilibre budgétaire, d’égale concession, de neutralité au regroupement des données et des contributions équilibrées est le mécanisme de Shapley. Si, dans cette liste, on remplace l’axiome des contributions équilibrées par l’axiome des contributions collectives équilibrées, on obtient que le seul mécanisme de compensation qui satisfait à cette nouvelle liste de quatre axiomes est le mécanisme de partage égalitaire des coûts non séparables.

*S. Béal, M. Deschamps, P. Solal, (2016) « Comparable axiomatizations of two allocation rules for cooperative games with transferable utility and their subclass of data games » Journal of Public Economic Theory, à paraître.

• Béal S., Deschamps M., Ravix J-T., Sautel O., (2011) « Les effets d’une réglementation sur la concurrence et l’innovation : première analyse de la réglementation européenne REACH » Economie et Prévision, 197, 198:63-80

• Dehez, P., Tellone, D., (2013) « Data games:

Sharing public goods with exclusion » Journal of Public Economic Theory, 15, 654–673.

• Moulin, H., (1985) « The separability axiom and equal sharing method » Journal of Economic Theory, 36, 120–148.

• Myerson, R. B., (1980) « Conference structures and fair allocation rules » International Journal of Game Theory, 9, 169–182.

• Shapley, L.S., (1953) « A value for n-person games ». In: Contribution to the Theory of Games, vol. II (H.W. Kuhn and A.W. Tucker eds). Annals of Mathematics Studies 28. Princeton University Press, Princeton.

Philippe Solal

Partage des coûts et réglementation

européenne REACH

Professeur à l’Université Jean Monnet, Philippe Solal est responsable de l’axe

« Théorie des jeux, choix collectifs et

marché » au GATE Lyon Saint-Etienne.

(7)

GATE

Magazine

GATE

Magazine

ZOOM SUR LA RECHERCHE

N° 4- 2016 N° 4 - 2016

ZOOM SUR LA RECHERCHE

L’une des règles monétaires les plus connues et les plus usitées par les macroéconomistes modernes (lorsqu’ils fixent un objectif de stabilité des prix) a longtemps été celle proposée par John B. Taylor.

En 1993, Taylor propose une équation simpliste qui relie la fixation du taux directeur nominal des banques centrales aux variations de l’output-gap et à celle de l’écart d’inflation par rapport à son taux objectif. Bien qu’aucune banque centrale n’ait reconnu officiellement que la règle de Taylor était un outil lors des délibérations de réunions de politique monétaire, beaucoup d’économistes ont démontré la proximité des variations de taux directeur avec celle préconisée par Taylor. La grande crise financière initiée en 2007 par la crise des crédits subprimes a

en 2015, intitulé « Monetary Policy Rule in Theory and Practice : facing the internal vs external stability dilemma » fournit une explication à cette réalité dans le cas français et suédois de l’entre-deux guerres au moment où le système d’étalon-or s’effondre. Partant de la politique menée par la Banque de France dès 1928, et sur la base d’archives, l’ouvrage démontre comment la banque centrale française a su jouer d’ingéniosité pour se détacher des règles d’étalon- or au profit de préoccupations plus personnelles.

Plutôt que de faire varier son taux d’escompte, taux directeur de l’époque, la Banque de France a préféré manipuler un autre taux, celui des avances au Trésor, et parallèlement elle a accumulé des réserves d’or au-delà du pourcentage exigé (80% de la masse monétaire en 1934 au lieu des 40% exigés). Ce refus, non officiel, de collaborer aux règles internationales monétaires permettait ainsi à la France de relancer son dynamisme économique, via un taux d’escompte stable, et de ne pas alourdir le poids de la dette publique. Le cas suédois fournit un contre-exemple intéressant face au cas français puisque dès lors que les règles d’étalon-or furent inefficaces pour assurer la stabilité, la Suède a fait le choix de quitter ce système en 1931 au profit d’un système monétaire plus flexible qui autorise plus de pouvoir discrétionnaire de la part de la banque centrale suédoise. La Suède fut pionnière, sur la base des travaux de K. Wicksell (1898), dans l’adoption d’une politique monétaire moderne de stabilité des prix via la fluctuation du taux d’intérêt (directeur).

Cette histoire monétaire nous permet de retirer deux enseignements. Premièrement, l’histoire des règles monétaires a trait surtout à l’histoire des déviations à la règle par les banques centrales plutôt qu’à leur présupposée fidélité. Deuxièmement, l’histoire témoigne que les règles de politique monétaire ont toujours été accompagnées par des pratiques discrétionnaires de la part des banques centrales car cela leur permettait d’affronter une double forme d’instabilité : l’instabilité interne (variation de été expliquée, par certains, par un comportement de

déviation à cette règle de Taylor. Cette thèse d’un taux anormalement «too low for too long» a occupé une place non négligeable parmi les principaux mécanismes responsables de la crise.

Cependant, l’histoire monétaire témoigne d’une toute autre réalité. À chaque fois que des règles monétaires explicites ont été adoptées par les banques centrales, comme lors du système de l’étalon-or dès la fin du 19ème siècle, les banques centrales se sont davantage attelées à violer délibérément ces règles plutôt qu’à les respecter. Cette infidélité à la règle a été souvent justifiée comme une nécessité dès lors qu’on veut atteindre la stabilité économique voire financière.

L’ouvrage publié chez Routledge en 2013, et réédité

prix, de PIB...) et l’instabilité externe (variation des réserves or, variation des taux de change...). En ce sens, la thèse défendue par mon ouvrage prend position à l’encontre de l’article fondateur de 1936 de H.C Simons de l’École de Chicago où il défend la supériorité d’une politique monétaire de règle dans la mesure où elle assure la prospérité économique en limitant la ʺdictature de l’arbitraireʺ (Simons, 1936 : 5).

Aujourd’hui ce débat de ʺrègles versus discrétionʺ s’est métamorphosé en un débat tout aussi intense entre ʺcrédibilité versus flexibilitéʺ (Warin, 2006).

• Nicolas Barbaroux, (2013) « Monetary Policy Rule in Theory and Practice : facing internal vs external stability dilemma », Abingdon: Routledge, Series : Routledge International Studies in Money and Banking, 248 pages, ISBN : 978-0-415-50180-4.

• Claes Berg & Lars Jonung, (1998) « Pioneering Price Level Targeting: The Swedish Experience 1931-1937 » SSE/EFI Working Paper Series in Economics and Finance, no 290, Décembre.

• Henry C. Simons, (1936) « Rules versus Authorities in Monetary Policy » The Journal of Political Economy, Vol. 44, No. 1. (Feb., 1936), pp. 1-30.

• Warin, Thierry, (2006) « A Note on Post-Modern Monetary Policy » Middlebury College Working Paper Series, Middlebury College, Department of Economics.

• Knut Wicksell, (1898) «Geldzins und Güterpreise.

Eine Untersuchung über die den Tauschwert des Geldes bestimmenden Ursachen ». Jena: Gustav Fischer (tr., 1936: Interest and Prices. A Study of the Causes Regulating the Value of Money, London: Macmillan).

Nicolas Barbaroux

Politique monétaire : quand règle monétaire rime avec discrétion

Maître de conférences à l’IUT de Saint Étienne, Nicolas Barbaroux est membre de l’axe

« Macroéconomie, finance et histoire » du GATE Lyon Saint-Etienne. Ses travaux portent sur l’histoire de la pensée monétaire et

bancaire et il s’intéresse plus particulièrement

aux canaux de transmission de la politique

monétaire de la Banque de France.

(8)

La malhonnêteté est un phénomène répandu dans de nombreux domaines de la vie économique et qui se manifeste sous de nombreuses formes, du secteur économique et financier à la vie de tous les jours.

Les coûts des fraudes diverses pour la société sont énormes. « L’économie du crime » (Becker, 1968) constitue l’approche traditionnelle du phénomène en économie. Elle suppose que l’activité criminelle ou la violation d’une norme peut être interprétée comme le résultat d’une analyse rationnelle prenant en compte l’évaluation des bénéfices (revenu accru) et des coûts (risque de pénalité) anticipés de cette action. Cette approche a cependant montré quelques limites. En particulier, la prédiction des modèles issus de cette approche est souvent démentie par l’observation faite à partir d’études empiriques. D’autres facteurs que les arbitrages coûts/bénéfices monétaires influencent le processus de décision dans le domaine éthique, en particulier des facteurs moraux, émotionnels et psychologiques.

Les expériences en laboratoire fournissent la plupart des preuves de l’importance du coût moral associé aux comportements déviants sur le plan éthique. En effet, la malhonnêteté est difficile à étudier sur le terrain puisqu’il s’agit d’activités par

Dans l’une de ces tâches, le sujet devait lancer un dé en privé et rapporter le résultat sur sa tablette.

Les diverses faces du dé rapportaient un gain d’un montant différent. Il était tout à fait clair que seul le participant pouvait connaître le résultat du lancer du dé ; l’expérimentaliste n’avait aucun moyen de connaître le résultat véritable. Le participant pouvait donc tricher et gagner plus d’argent en mentant sur le résultat rapporté sans risque de contrôle et d’observation. Le seul obstacle à la tricherie dans ce contexte est la conscience de l’individu. Ce jeu est l’un des tests simples qui permettent de mesurer le «coût moral» d’une fraude dans une population donnée6. Bien entendu, le protocole ne permet pas de savoir si telle ou telle personne a menti, mais il permet de comparer la distribution des résultats rapportés avec la distribution théorique.

Les participants à l’expérience ont également participé à un jeu de transport qui consistait à prendre la décision d’acheter ou non un ticket pour emprunter un bus imaginaire. Emprunter le bus était intéressant pour les sujets en termes de gain de temps (transformé en un équivalent monétaire). L’achat d’un ticket était coûteux, mais dans un des traitements, les passagers étaient informés qu’il n’y avait pas de contrôle (et donc pas de risque de pénalité en cas d’absence de ticket).

À la fin de l’expérience, les participants ont été invités à indiquer la fréquence de leur usage des transports 6- Nous avons mesuré la malhonnêteté en comparant la distri- bution des résultats rapportés avec une répartition uniforme. Si les gens sont honnêtes, ils doivent toujours rapporter le résultat réel obtenu. Cela implique que nous devrions observer le même pourcentage pour chaque résultat. Dans le cas contraire, cela signifie que les gens ne sont pas honnêtes.

définition gardées secrètes. Les gens reconnaissent difficilement qu’il leur arrive de tricher et les données de terrain ne sont guère fiables puisque par définition on ne peut observer que la fraude détectée. Le laboratoire permet de mettre en œuvre une batterie de protocoles permettant d’identifier la malhonnêteté et ses déterminants dans un environnement contrôlé. Ceci constitue un avantage majeur de la méthode expérimentale. Mais dans quelle mesure la malhonnêteté observée en laboratoire est-elle prédictive de la malhonnêteté sur le terrain ? Quelle est la validité externe de ces résultats ?

Pour répondre à cette question dont on mesure bien l’enjeu, nous avons récemment mené une expérience de terrain à grande échelle concernant la fraude des usagers des transports publics à Lyon (Dai, Galeotti et Villeval, 2016a; 2016b). L’expérience a été menée grâce au laboratoire mobile de GATE-Lab (voir la figure 1) à côté de la gare de la Part-Dieu à Lyon.

244 voyageurs ont été recrutés au moment même où ils descendaient du tram ou du bus en excluant les détenteurs d’abonnements. Lors de l’expérience, les sujets devaient prendre un certain nombre de décisions individuelles.

en commun sans ticket dans la vraie vie, ainsi qu’à échanger leur ticket validé, s’ils en avaient un le jour de l’expérience, contre un nouveau ticket (ces deux informations ont constitué les principales mesures de la malhonnêteté sur le terrain).

Notre expérience a montré que, quand il y a une possibilité de gagner plus d’argent en se comportant de façon malhonnête et qu’il n’y a aucun risque de détection, les gens affichent des comportements très hétérogènes : certains ne trichent pas du tout, tandis que d’autres fraudent partiellement et d’autres encore trichent complétement pour maximiser leurs gains. Mais le résultat majeur de notre expérience est que cette diversité de comportements dans les tâches de laboratoire reproduit en fait la diversité des degrés de fermeté morale des mêmes individus dans leur vie de passagers des transports en commun au quotidien. Nous avons montré que ceux qui trichent dans le laboratoire trichent aussi dans la vie réelle, tel que nous avons mesuré ces comportements.

Ces résultats démontrent que des expériences de laboratoire simples peuvent déceler le comportement malhonnête des gens ordinaires dans la vie réelle.

Les implications méthodologiques sont importantes, car ces résultats confortent la validité externe des expériences de laboratoire dans un domaine où les données observationnelles de terrain ne sont pas disponibles.

• Becker, G. (1968) « Crime and Punishment:

An Economic Approach » Journal of Political Economy, 76, 169-217.

• Dai, Z., F. Galeotti, and MC. Villeval (2016a)

« Cheating in the Lab Predicts Fraud in the Field:

An Experiment in Public Transportations ». À paraître in Management Science.

• Dai, Z., F. Galeotti, and MC. Villeval (2016b)

« The Efficiency of Crackdowns: A Lab-in-the- Field Experiment in Public Transportations ». À paraître in Theory & Decision.

Fabio Galeotti

Les mesures de la malhonnêteté en laboratoire permettent-elles de prédire la fraude sur le

terrain ?

Chercheur post-doctoral et titulaire d’une bourse Marie-Curie, Fabio Galeotti est membre de l’axe

«Économie comportementale» du GATE Lyon Saint-Etienne et du Labex CORTEX. Ses centres d’intérêt sont l’économie comportementale et expérimentale.

Figure 1

(9)

GATE

Magazine

GATE

Magazine

DOSSIER SPÉCIAL : RISQUES SANITAIRES

N° 4 - 2016 N° 4 - 2016

DOSSIER SPÉCIAL : RISQUES SANITAIRES

Les enjeux d’un référentiel Il ne se passe pas un jour sans que les médias décrivent des situations parfois dramatiques mettant en jeu la santé de la population voire la vie de nombreuses personnes : impact sanitaire de divers polluants, accidents dans le secteur des transports, effets des inondations, etc. Aut ant de situations qui à chaque fois soulèvent des controverses sur l’absence de précautions, des investissements insuffisants, des réglementations trop laxistes ou mal calibrées, des contrôles peu efficaces, des comportements inadaptés, etc.

La puissance publique se trouve alors fréquemment interpellée.

Elle devrait pouvoir mettre en b a l a n c e l e s g a i n s e n s a n t é

la pollution atmosphérique, on cherchera à calculer de manière la plus exhaustive possible les coûts des soins qu’il faut engager pour traiter les populations atteintes, le coût des journées de travail perdues, etc. Ces approches c h e r c h e nt à m o nt r e r c e qu e l’inaction coûte à la collectivité.

C’est dans cet esprit que les a d m i n i s t r a t i o n s p r o p o s e n t régulièrement des bilans des coûts sociaux. Dans l’exemple suivant, les référentiels sont utilisés comme des moyennes et transposés au nombre de cas constatés dans les statistiques.

De l’analyse coût-efficacité vers l’analyse coût-avantage

Si l’approche précédente n’est pas sans intérêt pour caractériser les enjeux des risques de mortalité morbidité, cela reste insuffisant pour discuter de la pertinence des décisions. Pour répondre à cette ambition, il est possible de ramener at te n dus d ’une dé c i si o n au x

efforts qu’il convient d’engager pour les obtenir. Cette question devient d’autant plus délicate que les contraintes budgétaires ne permettent pas d’envisager toutes les opérations possibles et que le risque zéro est hors d’atteinte même en y consacrant la totalité des ressources disponibles.

Si l’on souhaite optimiser l’utilisation des ressources disponibles : sauver le maximum de vies, augmenter au mieux la qualité de vie des individus d’une société, réduire les risques de santé pour la population et si l’on souhaite éclairer les décideurs pour at teindre c es objectifs, il est incontournable de disposer d’indicateurs caractérisant correctement les gains en santé

simplement un gain en santé aux coûts qui sont engagés. Dans cette approche coût-efficacité, les ratios permettent des comparaisons utiles entre différentes alternatives d’un même projet, voire entre différents projets. On préfèrera agir là où l’effet est le plus important pour un effort donné. Mais dans certaines situations, ce type d’approche peut ne pas être suffisant pour conclure. Ces ratios construits sur un seul objectif (diminuer le nombre de mort, améliorer la santé de la population) ne permettent pas de comparer les gains de santé à d’autres avantages qui ne sont pas nécessairement compatibles.

C’est le cas par exemple dans les évaluations des infrastructures du secteur des transports dans lesquelles la collectivité doit arbitrer entre faire gagner du temps sur une infrastructure en permettant des augmentations de vitesse et limiter cette même vitesse pour réduire le risque et la gravité de ces accidents.

Luc Baumstark

La valorisation socio-

économique des risques

sanitaires : calcul économique et « valeur statistique de la vie humaine »

Maître de conférences à l’Université Lumière Lyon 2, Luc Baumstark est Conseiller scientifique à France Stratégie et membre de l’axe

« Politiques publiques et espace » au GATE Lyon Saint-Etienne. Il a contribué à animer plusieurs rapports sur la méthodologique de l’évaluation des investissements publics. Ses travaux portent particulièrement sur la valorisation des risques sanitaires.

I l s ’a g i t d e d é f i n i r l ’e f f o r t supplémentaire que la collectivité est prête à consentir (ou qu’elle consent de fait dans ces décisions) p o u r d i m i n u e r u n r i s q u e d e mortalité. Quelles sont les règles qui permettent d’assurer que les efforts consentis soient cohérents au regard de ce qui est investi ? On comprend que ces référentiels ont moins pour objet de montrer les coûts sociaux que d’éclairer les arbitrages entre des alternatives, d’aider à hiérarchiser les différentes manières d’intervenir pour réduire au mieux ces coûts sociaux.

La construction du référentiel La construction d’un référentiel collectif est un exercice complexe q ui s’a p p ui e su r d e s ét u d e s très disparates reposant elles- mêmes sur des méthodologies et des terrains très différents. Les dif férentes valeurs mobilisées dans cette construction peuvent être obtenues, comme cela se pratique maintenant pour beaucoup de travaux sur la valeur des biens environnementaux, sur la base de valeurs révélées par les comportements des individus (par exemple en analysant le montant des primes de risque négocié sur le marché du travail pour certains types d’emplois) ou bien sur la base de valeurs déclarées dans des enquêtes spécifiques dont attendus (c’est déjà une première

difficulté) et de pouvoir ensuite associer à ces gains une valeur économique (c’est ce qui nous préoccupe ici).

De la démarche comptable à l’analyse économique

Une des premières manières de répondre à la question est de faire la recension des coûts associés aux situations de crise qu’on souhaite éviter (certains sont faciles à identifier, d’autres plus complexes à apprécier, certains sont valorisés par des prix de marchés, d’autres par des prix administrés, d’autres n’ont tout simplement aucun prix).

P a r e x e m p l e p o u r l ’ i m p a c t s a n i t a i r e d e

Un exemple de l’usage des référentiels (économie de la sécurité routière)

La sécurité routière en France - bilan 2015 – ONISR, p. 34

(10)

les protocoles se complexifient pour encadrer de nombreux biais.

Pour expliquer les différences des valeurs produites, on évoque le contexte du risque de mortalité, les réalités différentes selon le secteur économique, les différences de nature entre le risque appréhendé et le partage des responsabilités, les différences de comportements des individus en fonction de leur âge, de leur revenu, etc.

L’ambition est de tirer par ti de ces différentes valeurs pour en déduire une valeur collective de référence qui pourra ensuite être transférée dans les évaluations de manière systématique. Ce travail d’agrégation repose tout à la fois sur des méta-analyses des différentes études, des avis d’experts, des compromis entre différentes approches.

Par exemple, c’est sur la base d’une recension quasi exhaustive des études faite par l’OCDE (2012) et en tenant compte du niveau de vie moyen des français que la Commission Quinet va réviser la valeur tutélaire de l’administration française en la fixant à 3 millions d’euros (base 2010) contre 1,9 million auparavant. Cette référence est définie précisément comme l’effort maximal que la collectivité est prête à consentir pour réduire le risque de mortalité. Cela signifie que toute chose égale par ailleurs, il est raisonnable d’investir, d’agir, tant que l’effort pour éviter un mort supplémentaire est inférieur à 3 millions d’euros.

Du risque décès au risque sanitaire : la question de

L’opinion relayée par les médias, et donc in fine les décideurs, vont ainsi réagir plus fortement vis-à- vis des accidents d’autocars ou de trains qu’à l’égard des accidents plus courants de la circulation routière impliquant des véhicules particuliers (et conduisant pourtant à un nombre de mor ts par an bien supérieur !). L’opinion va également refuser la répétition d’accidents déjà survenus si bien que le juge accusera de négligence tout responsable dont le tunnel routier ou l’ascenseur n’auront pas bénéficié des aménagements techniques les plus modernes, entraînant des dépenses révélant une valeur implicite de la vie humaine sans rapport avec les référenc es utilisées dans les évaluations socioéconomiques habituelles. L’étude des écarts entre ces différentes valeurs de la vie humaine et des situations correspondantes devrait ainsi no n seulement p er met t re de la valeur de l’année de vie

pondérée par la qualité de vie Cet te approche reste enc ore i n s u f f i s a n t e p o u r t r a i t e r l e s principaux problèmes auxquels il faut faire face. L’analyse du risque de mortalité reste en effet peu adaptée pour traiter les cas, plus nombreux, dans lesquels la question est moins celle d’une diminution du risque de mortalité, que celle de la diminution de l ’e s p é r a n c e d e v i e e t d ’u n e éventuelle dégradation de la qualité de celle-ci.

La construction théorique doit alors envisager de passer de la valeur statistique de la vie humaine à celle de la valeur de l’année de vie épargnée, pondérée par la qualité. Au moins deux options sont possibles : tirer la valeur de l’année de vie directement de la valeur statistique de la vie humaine, ou bien l’appréhender pour elle-même. La première option, celle qu’ont retenue l’OCDE et la Commission Quinet, a le mérite de la simplicité. Elle assure une cohérence immédiate entre la manière de saisir les enjeux économiques en matière de mortalité et celle de la morbidité, mais il faut pour cela faire des hypothèses fortes et contestables, notamment en neutralisant la relation qui existe entre cette valorisation et l’âge des individus.

La seconde, pour laquelle il existe beaucoup moins de travaux, est aussi plus intéressante et plus proche des enjeux de morbidité, mais les études sont beaucoup plus complexes à mener.

mieux appréhender la demande sociale, mais de servir de guide au décideur qui, confronté à de telles décisions, ne pourra se justifier devant la justice que s’il a pris sa décision de manière totalement transparente. Enfin, le recensement des différents référents implicites de la vie humaine révélés par les décisions publiques effectives et l’analyse des écarts observés par rapport à la valeur tutélaire actuelle permettrait d’alimenter le débat sur les réalités politiques et éthiques de certaines situations qui conduisent à s’écarter des référentiels admis.

Les perspectives de recherche Cette rapide présentation a planté le décor et a mis en valeur les principaux points sur lesquels la recherche théorique et empirique doit avancer si l’on souhaite voir s’améliorer les évaluations a priori des décisions publiques.

Des améliorations substantielles peuvent être obtenues par : Dès lors qu’on veut s’attaquer aux

enjeux de morbidité, il devient nécessaire d’intégrer la dimension de la qualité des années de vie épar gné e s. C ’e st dans c et te perspective qu’a été développé dans le secteur de la santé, une méthode et un indicateur, le QALY (Quality adjusted life year), qui pondère la valeur des années par des scores de préférence liés à la qualité de vie : 1 pour une parfaite santé et 0 pour un décès.

C’est un outil aujourd’hui utilisé par le National Institute for Health and Care E xc ellenc e (NICE), autorité indépendante, placée sous la tutelle du National Health Service (NHS), et qui a en charge d’apporter une aide à la décision en matière de définition du périmètre des soins au Royaume-Uni. Les analyses coût-efficacité engagées systématiquement permettent ainsi d’intégrer un coût par Qaly utile pour discriminer les différentes alternatives. Reste à définir les modalités d’intégration de ces indicateurs dans les analyses coûts-avantage.

Un système de valeur parfois en déconnexion avec la réalité des décisions

Il existe une différence entre la valeur statistique de la vie humaine telle qu’elle est déf inie dans ces référentiels et celle révélée a posteriori par les décisions publiques et qui varient fortement e n f o n c t i o n d e s s i t u a t i o n s . Cet écar t mérite une analyse complémentaire : il traduit une différence entre l’analyse a priori et la réalité sociale qui conduit de fait à s’en écarter notablement.

• Le croisement des différentes approches dans les différents secteurs

• Une meilleure articulation entre les approches théoriques sur la valeur statistique de la vie humaine et les indicateurs de qualité de vie.

• Les modalités opérationnelles de l’intégration des préoccupations de morbidité dans les évaluations

• Une avancée sur la

construction et l’élaboration des grilles utilisées pour saisir les préférences en matière de qualité de vie

• Une analyse comparée des valeurs implicites des différentes décisions en matière de sécurité.

• Andersson H. et Treich N. (2011) « The value of a statistical life », in de Palma A., Lindsey R., Quinet É.

et Vickerman R. (eds.) Handbook of Transport Economics, Edward Elgar Publishing, Cheltenham, UK, p.

396-424.

• Baumstark L., Dervaux B., Treich N. (2013) « Eléments pour une révision de la valeur statistique de la vie humaine » in L’évaluation socio-économique en période de transition, Rapport de la Commission présidée par E. Quinet, Rapports et Documents, Tome 2 : contributions, Paris : Commissariat général à la stratégie et à la prospective, 2013, 28 pages En ligne

• Hammitt, James K. (2002) « QALYs Versus WTP », Risk Analysis 22, 985–1001.

• Haute Autorité de Santé (France), (2011) « Choix méthodologiques pour l’évaluation économique à la HAS », Guide méthodologique, Service de l’évaluation économique et de santé publique, 83 pages (en ligne www.has-sante.fr).

• Mason H., Jones-Lee M., Donaldson C. (2009) « Modelling the Monetary Value of a Qaly : a New approch based on UK Data », Health Economics N° 18, pp. 933–950.

• OCDE (2012) « Mortality Risk Valuation in Environment, Health and Transport Policies », Editions OCDE.

154 pages.

(11)

GATE

Magazine

GATE

Magazine

DOSSIER SPÉCIAL : ÉCONOMIE DU RISQUE

N° 4 - 2016 N° 4 - 2016

DOSSIER SPÉCIAL : ÉCONOMIE DU RISQUE

Qu’ils soient financiers, industriels, climatiques ou de santé, les risques sont partout. Leur omniprésence rend leur analyse indispensable. Le modèle de l’utilité espérée apparaît comme le point de départ de la théorie de la décision en univers risqué. Dans ce cadre, l’analyse des préférences des agents économiques (à travers les propriétés de la fonction d’utilité) joue un rôle essentiel. Depuis les travaux de Pratt (1964) et Arrow (1965), la notion d’aversion vis-à-vis du risque est connue de tous. Alors que Mossin (1968) montre que cette notion explique les comportements d’assurance, Leland (1968), Sandmo (1970) et Drèze et Modigliani (1972) observent que l’aversion pour le risque n’est pas suffisante pour expliquer un autre comportement de protection vis- à-vis du risque, à savoir l’épargne de précaution.

appliquée à des choix (assurance, portefeuilles, production). Pour ce qui concerne la prudence et la tempérance, le processus s’est inversé : l’analyse d’une décision (épargne, prévention, décision en risques multiples) a débouché sur des propriétés.

La question qui s’est alors posée aux économistes est la suivante : peut-on caractériser, comme c’est le cas pour l’aversion au risque, les notions de prudence et de tempérance sans faire référence à une situation de risque particulière mais comme une relation de préférence ?

Une caractérisation des concepts indépendante du contexte d’application

Cette question est essentielle pour mieux comprendre la perception que les agents ont du risque indépendamment du contexte. Eeckhoudt et Schlesinger (2006) apportent la réponse et caractérisent de manière simple et intuitive ces relations. Ils montrent que les concepts de prudence et tempérance se caractérisent par une préférence pour associer une « mauvaise nouvelle » à un état favorable plutôt que défavorable. Ainsi un agent prudent préfère subir un risque lorsqu’il est riche plutôt que pauvre (moins riche). Un agent tempérant préfère, lui, subir ce risque dans un environnement certain plutôt que risqué. Dans les deux cas, on observe que l’agent préfère désagréger les mauvaises nouvelles. Par itération, les auteurs caractérisent les relations de préférence pour des situations de risque plus détaillées.

Cet article majeur a été généralisé (Eeckhoudt et al. [2009]) et depuis, nous savons mieux expliquer les comportements des agents économiques, comportements qui peuvent toujours s’interpréter comme une préférence pour combiner « good with bad and bad with good » plutôt que pour combiner « good with good and bad with bad » selon la terminologie Une caractérisation « plus fine » de la perception du

risque est alors nécessaire. C’est ainsi qu’apparaît une notion de troisième ordre, la prudence (Kimball [1990]). La tempérance, définie comme une des quatre vertus cardinales par les philosophes grecs, est associée, en économie du risque, à un effet de quatrième ordre. Introduite par Kimball (1992), cette notion s’avère nécessaire pour expliquer par exemple des choix de portefeuilles avec risques multiples et de manière plus générale, les variations du degré d’aversion au risque lorsque l’environnement du décideur se complexifie.

Soulignons l’analyse asymétrique de ces concepts.

En effet, l’aversion vis-à-vis du risque a d’abord été définie comme une propriété traduisant une relation de préférence sur des revenus pour être ensuite

employée par les auteurs. On parle alors de risk apportionment d’ordre n (l’aversion, la prudence et la tempérance correspondant respectivement au risk apportionment d’ordre 2, 3 et 4). Ces deux articles marquent une avancée considérable dans l’étude et la compréhension des décisions individuelles en contexte risqué.

Ce que l’on apprend sur des contextes plus complexes

Les résultats d’Eeckhoudt et Schlesinger (2006) et Eeckhoudt et al. (2009) s’appliquent à des risques de même nature, forfaitaires et indépendants. Peut- on étendre les résultats à des risques de nature différente (un risque monétaire et un risque de santé ou d’environnement par exemple) ou à des risques de même nature mais apparaissant à des périodes différentes ? De même, peut-on étendre les résultats à des risques proportionnels (risque de perdre x% de son revenu) ? Enfin, que peut-on dire si les risques ne sont pas indépendants (risque de maladie et risque de chômage par exemple) ? Des travaux récents répondent à ces différentes questions (voir par exemple Eeckhoudt et al. [2007], Jokung [2011], Chiu et al. [2012], Denuit et Rey [2013]).

L’ensemble de ces résultats qui s’inscrivent dans le modèle de l’utilité espérée permet de mieux analyser les décisions des agents dans de nombreux domaines d’application (risques financiers, risques de santé, risques d’environnement). Cette meilleure compréhension des choix permet aussi d’analyser des comportements dans des modèles plus généraux (modèles d’ambigüité par exemple ; Baillon [2016], Courbage et Rey [2016]). Ce champ de recherche théorique est vaste. De nombreuses questions très intéressantes restent en effet encore ouvertes que ce soit avec le modèle d’utilité espérée ou avec des modèles plus généraux.

Béatrice Rey

Risque et désagrégation des peines

Professeure à l’Université Lumière Lyon 2, Béatrice Rey est membre de l’axe

« Macroéconomie, finance et histoire

économique » du GATE Lyon Saint-Etienne.

Ses travaux portent sur l’analyse de la

perception des risques.

(12)

Quelles conclusions dans des contextes appliqués ?

À partir d’une situation d’un risque de dommage simple (Courbage et Rey [2016]), nous montrons le rôle important des concepts de prudence, tempérance, et plus généralement de risk apportionment d’ordre n dans l’analyse d’un comportement de prévention.

L’article est présenté dans un contexte de risque de santé mais les résultats peuvent parfaitement s’appliquer à un contexte de risque purement matériel, d’environnement ou sanitaire par exemple.

L’agent peut bénéficier d’un traitement préventif qui réduit la sévérité de la maladie en cas de survenance de celle-ci (d’une action de prévention qui réduit l’étendue du dommage en cas d’occurrence du risque de manière plus générale). Nous étudions alors les facteurs qui conduisent l’agent à accepter ou non le traitement préventif. Plus précisément, l’article étudie comment différents changements du contexte risqué

modifient le comportement de l’agent. Il montre par exemple qu’un agent prudent acceptera moins souvent le traitement si l’efficacité du traitement devient plus risquée, et qu’un agent tempérant l’acceptera plus souvent si le risque de gravité de la maladie augmente. L’article explique aussi pourquoi un accroissement de risque du coût de la prévention ne conduit pas toujours l’agent à moins de prévention, contrairement à ce que suggère l’intuition. De manière plus générale, notre étude montre que les accroissements de niveaux de risque ont des effets différents sur les comportements des agents selon la source du risque mais aussi selon leurs préférences.

À travers cette application, on comprend mieux l’importance de la perception du risque par les agents lors d’une prise de décision. Les conclusions de ce travail apportent quelques éléments de réponse sur l’ordre de priorité des facteurs risqués sur lesquels les décideurs doivent porter leur vigilance.

Bibliographie indicative

• Baillon A., (2016) « Prudence with respect to ambiguity » The Economic Journal, à paraitre.

• Chiu, H., Eeckhoudt, L., Rey, B., (2012) « On Relative and Partial Risk Attitudes : Theory and Implications » Economic Theory, 50 : 151-167.

• Courbage, C., Rey, B., (2016) « Decision thresholds and changes in risk for preventive treatment » Health Economics, 25 : 111-124.

• Eeckhoudt, L., Schlesinger, H., (2006) « Putting risk in its proper place ». American Economic Review, 96, 280-289.

• Eeckhoudt, L., Rey, B., Schlesinger, H., (2007) « A good sign for multivariate risk taking » Management Science, 53, 117-124.

• Eeckhoudt, L., Schlesinger H., Tsetlin, I., (2009) « Apportioning risks via stochastic dominance » Journal of Economic Theory, 144, 994-1003.

• Jokung, O., (2011) « Risk apportionment via bivariate stochastic dominance » Journal of Mathematical Economics, 47, 448-452.

Quelques définitions :

Dans toutes les définitions proposées, le(s) risque(s) considéré(s) est (sont) d’espérance nulle.

• Un agent averse vis-à-vis du risque est un agent dont l’utilité diminue suite à l’introduction successive de risques indépendants.

• Un agent prudent est un agent dont l’utilité marginale augmente suite à l’introduction successive de risques indépendants.

• Un agent dont le degré d’aversion au risque diminue avec le niveau de richesse est prudent.

• Un agent dont le degré d’aversion au risque augmente avec l’introduction d’un risque est tempérant.

Sensibilité de la pénibilité d’un risque

La mesure la plus utilisée du coût d’un risque est une mesure monétaire : la prime de risque. Il existe aussi une mesure non monétaire du risque (Friedman et Savage [1948]) qui se définit comme la perte d’utilité engendrée par l’introduction d’un risque. Elle représente la pénibilité du risque. Ne permettant pas des comparaisons interpersonnelles, cette mesure du risque est moins utilisée. Elle présente toutefois l’avantage de donner une interprétation simple et intuitive aux concepts de prudence et tempérance (Eeckhoudt et Schlesinger [2006]).

Comment varie cette pénibilité suite à une augmentation du revenu ?

Il semble raisonnable de poser qu’elle diminue lorsque l’agent s’enrichit et que la valeur de cette diminution, suite à un même accroissement de revenu, se réduit au fur et à mesure que l’agent s’enrichit. Ces deux hypothèses correspondent respectivement à la prudence et la tempérance.

Friedman Savage

(13)

GATE

Magazine

GATE

Magazine

FORMATIONS À LA RECHERCHE ADOSSÉES AU GATE

N° 4 - 2016 N° 4 - 2016

FORMATIONS À LA RECHERCHE ADOSSÉES AU GATE

Le Master accrédité «Risques et environnement»

regroupe 8 établissements de la COMUE de l’Université de Lyon : Lyon 1, Lyon 2, Lyon 3, ECL, ENTPE, EMSE, INSA de Lyon et IEP de Lyon autour de trois parcours :

• Gouvernance des Risques Environnementaux, RISE, porté par Lyon 2, Lyon 3, et l’ECL, en partenariat avec l’IEP de Lyon

• Sciences de l’Environnement Industriel et Urbain, SEIU, porté par l’ENTPE et l’EMSE, en partenariat avec l’INSA de Lyon

• Environnement et Risques Industriels et Urbains, ERIU, porté par Lyon 1 et localisé à l’Institut Génie de l’Environnement Écodéveloppement IG2E La formation est organisée autour d’un objet commun : le risque environnemental. Les différents parcours rassemblent des étudiants spécialisés dans différentes disciplines. Au sein de chaque parcours, et entre parcours, les étudiants sont formés au dialogue pluridisciplinaire autour du risque environnemental :

c’est la principale compétence transverse qu’ils acquièrent.

Le Master vise, dans ses trois parcours, à préparer des professionnels capables de porter des projets stratégiques dans les domaines de l’environnement et des risques, se destinant à des carrières en entreprises, bureaux d’études, sociétés de services, collectivités locales ou territoriales, organismes ou structures de recherche publics ou privés.

Le GATE adosse le parcours RISE Gouvernance des Risques Environnementaux. Au niveau M1, le parcours est entièrement mutualisé avec le master

« Analyse des politiques économiques ». Au niveau M2, le parcours s’adresse à des étudiants détenteurs du niveau M1 en économie, en droit public, en sciences politiques ou en ingénierie généraliste.

Sur le plan pédagogique, le M2 offre des modules Environnement et Risques qui permettent d’acquérir le socle des connaissances juridiques, économiques et technologiques nécessaires au

Philippe Polomé

Master «Risques et environnement»

Professeur à l’Université Lumière Lyon 2, Philippe Polomé est responsable du Master recherche

« Risques et environnement ».

dialogue pluridisciplinaire sur la problématique des risques environnementaux, ainsi que des outils de pilotage dans les sphères publique et privée (études d’impacts, indicateurs). Les étudiants préparent la mise en application de leurs compétences par des ateliers, des conférences et des débats avec des professionnels du risque environnemental.

Les étudiants terminent le M2 avec un stage de 5 mois au moins, qui peut être un stage recherche hébergé au laboratoire. Le stage se conclut avec un mémoire soutenu publiquement.

Plus de détails sur le site du master http://risques- environnement.universite-lyon.fr/

Sur le plan recherche, le M2 est associé au Labex IMU via le thème «Résilience, risque, sécurité, vulnérabilité, santé», qui participe à l’organisation des conférences du master. Il est également adossé à l’Institut du Droit de l’Environnement, équipe de l’UMR Environnement, Ville, Société, à l’UMR Triangle et à l’UMR Laboratory of Fluid Mechanics and Acoustics. Les autres parcours sont adossés à d’autres laboratoires, pour un total de 10 UMR pour le master.

Quel risque environnemental ?

• Risques naturels : crues, tempêtes, canicules, géorisques...

• Risques technologiques : installations classées, agriculture, accidents industriels ou nucléaires, pollutions, ruptures de barrage...

• Risques sanitaires et écotoxicologiques : impacts des polluants sur la santé humaine et les écosystèmes terrestres et aquatiques.

Le site www.gouvernement.fr/risques pour une vision nationale.

Cette multiplicité des adossements crée de fait un réseau qui offre un accès facile à une part substantielle des chercheurs et des enseignants- chercheurs impliqués dans le risque environnemental, et plus généralement en environnement, dans la COMUE de Lyon. Cet accès peut être capitalisé pour la recherche en économie de l’environnement, entre autres dans la recherche de projet pluridisciplinaire.

Nous avons par exemple obtenu cette année un

« projet exploratoire premier soutien » PEPS sur le risque environnemental.

Références

Documents relatifs

Un élève a lu un sujet lié à l'eau de mer dans une revue scientifique «L'eau de mer contient des particules en suspension comme de la boue et d'autres comme des sels.

Deux séries de six cartes portant les mêmes nombres ; chaque série est marquée d’un signe distinctif, une troisième série « neutre », sans signe distinctif, porte des

Deux séries de six cartes portant les mêmes nombres ; chaque série est marquée d’un signe distinctif, une troisième série « neutre », sans signe distinctif, porte des

Le calcul de la somme de deux nombres qui se suivent est facile quand on connaît bien les

Consolider les numéros et les planches, en les collant sur du carton et en les plastifiant. Le jeu comporte 50

Colorie le dessin en respectant le code de couleurs... Colorie le dessin en respectant le code

[r]

Pour certaines cartes, le joueur dispose de plusieurs choix, il doit donc déterminer son produit en fonction des valeurs encore dispo- nibles.. Variante : le joueur passe son tour