Quelle modélisation « quand plus rien ne tient » ?
1 Un lien nécessaire entre modélisation de second rang et posture prospective L’analyse économique des effets « indirects » d’une taxe carbone et des modalités d’usage de
2.1 Les contraintes techniques et l’évolution des besoins en énergie
La justification d’une taxe incitative repose sur l’hypothèse qu’il est possible de découpler le développement économique d’un recours intensif aux ressources fossiles. Ce sont les potentiels d’évolution technique qui conditionnent l’efficacité de l’instrument, tout comme d’ailleurs son incidence sur les différentes activités et les divers groupes de population28. Or, estimer avec réalisme ces potentiels est un exercice particulièrement difficile ; il faut tenir compte d’un côté, des inerties
des systèmes techniques actuels et au‐delà des contraintes à un changement structurel. L’évolution
des besoins en énergie carbonée dans le système économique résulte en effet de la nature et de l’ampleur à la fois des limites à la libération des potentiels techniques et technologiques disponibles et des interdépendances complexes entre les choix techniques, les changements de localisation et l’évolution des modes de consommation (Hourcade, 1993)29.
Les limites des pratiques standard de représentations du changement technique
C’est en spécifiant les marges de manœuvre techniques disponibles que les modélisateurs distinguent les trajectoires de développement potentielles des trajectoires qui ne sont pas
techniquement réalisables et délimitent ainsi une frontière des possibles. Historiquement, les
représentations du changement technique ont donné lieu à des controverses permanentes entre deux pratiques historiques de modélisation (Grubb et al., 1993)30.
L’analyse technico‐économique est fondée sur une représentation explicite et précise des
systèmes techniques engagés dans les processus de production et de consommation. Les ingénieurs
qui la développent se limitent généralement à l’étude d’un secteur particulier : l’énergie, les transports, le bâtiment, l’agriculture, etc. Elle prend soin de tenir compte des contraintes physiques, technologiques et économiques qui caractérisent le secteur étudié et elle se fixe comme objectif d’identifier précisément les choix techniques disponibles et d’évaluer si la rentabilité attendue couvre les coûts d’investissement. Ces analyses portent une attention particulière à la dynamique du processus : la rapidité avec laquelle on peut espérer faire « pénétrer » les nouvelles technologies bas‐ carbone, étant donné les informations dont on dispose sur la durée de vie des équipements, des infrastructures et des capacités productives, les taux de renouvellement et de rénovation du bâti, l’évolution attendue de la demande, etc. L’évaluation des potentiels et des coûts résulte alors d’une démarche ascendante (dite « Bottom up »), par laquelle les résultats obtenus à l’échelle sectorielle sont agrégés pour atteindre le niveau national.
L’analyse macroéconomique se fonde, elle, sur une représentation très stylisée et agrégée
des systèmes techniques mais qu’elle incorpore dans une vision plus complète des interdépendances
mutuelles qui caractérisent le fonctionnement de l’économie. Les développements apportés pour
28 Les désaccords au sujet de ce que nous avons appelé les « potentiels de décarbonisation » nourrissent aussi les débats sur
l’efficacité relative du signal prix par rapport à celle des autres instruments d’intervention : réglementaires, informationnels, etc. (cf. chapitre 1, page 33).
29 Les conceptions les plus larges envisagent le changement technique comme « le résultat de l’interaction permanente entre (i)
des possibilités technologiques existantes, et forcément celles qui sont déjà ‘ installées ‘ dans les équipements et infrastructures en place, (ii) des usages et des comportements courants, responsables de l’évolution de la demande, (iii) du contexte économique général, des prix relatifs - qui conditionnent la profitabilité respective des différentes technologies - et du revenu disponible - qui conditionne la capacité de financement des nouveaux équipements et des nouvelles infrastructures » (Crassous, 2008, page 87).
30 Ces deux traditions de modélisation se sont notamment illustrées en s’opposant dans la controverse sur l’existence d’un
l’étude des politiques climatiques concernent essentiellement les conditions d’un changement
technique endogène et induit par les prix31 dans une économie de marché où l’innovation résulte, non seulement des sources de progrès techniques sectoriels (effort en R&D, apprentissage par la pratique, etc.), mais aussi de la disponibilité en ressources pour investir et embaucher, de l’évolution simultanée de la demande finale des ménages et des demandes des autres secteurs d’activité (analyse input‐output) ; autant de variables qui sont données et supposées indépendantes de l’évolution des systèmes techniques dans l’analyse technico‐économique. Le changement technique n’est donc plus un phénomène sectoriel circonscrit, mais un phénomène systémique contraint en premier lieu par la nature des relations entre l’offre et la demande sur les marchés.
Si les limites des modèles technico‐économiques sont évidentes et assumées par leurs constructeurs ‐ à savoir que le raisonnement néglige toute rétroaction du changement technique sur le reste de l’économie – il faut entrer dans des considérations techniques pour saisir celles qui caractérisent les modèles macroéconomiques. Leurs limites viennent de la façon dont est traditionnellement représentée et estimée la réponse des systèmes techniques à une évolution du prix relatif des intrants (les possibilités de substitution des intrants dans la production).
Le contenu physique de l’économie n’apparaît pas explicitement, il est traité par « subrogation » (Samuelson, 1962), c’est‐à‐dire en représentant d’une façon synthétique des relations de complémentarité/substituabilité entre des agrégats d’intrants ‐ le capital productif, le travail et, d’une façon similaire, les autres consommations intermédiaires comme l’énergie – au moyen de fonctions de production agrégées au lieu d’une description technico‐économique explicite des différents procédés (Ghersi et Hourcade, 2006). Si ce principe d’une description synthétique des techniques au moyen d’une fonction de production agrégée n’est pas remis en cause, l’hypothèse d’une fonction immuable l’a été, tout comme son estimation à partir de données monétaires tirées de l’observation du passé et sans aucun recours aux grandeurs physiques (Ayres et Warr, 2009).
Historiquement, ce procédé d’estimation fut initié par Solow qui le présente comme une « astuce »32 pour répondre à la théorie du modèle de croissance de Harrod. Elle consiste à « révéler » économétriquement les paramètres du changement technique dans la fonction de production agrégée (les élasticité de substitution) en recourant d’une part, aux données historiques sur la part de la rémunération du travail et de la propriété dans le revenu nominal, et d’autre part, à l’hypothèse selon laquelle ces facteurs sont rémunérés à leur productivité marginale (Solow, 1957). Cette pratique fut ensuite étendue dans les années 80 au paramétrage de modèles plus désagrégés (multisectoriels), avant de devenir une pratique dominante en analyse appliquée33.
Mais ce procédé pose problème dès lors que l’on souhaite étudier un changement non marginal et inédit des systèmes énergétiques, comme dans le cas d’une politique climatique. D’une
31 Dans le quatrième rapport du GIEC les progrès sur ce chantier majeur de la modélisation macroéconomique sont clairement
reconnus : “A major development since the TAR has been the treatment of technological change in many models as endogeneous,
and therefore potentially induced by climate policy, compared to previous assumptions of exogenous technological change that is unaffected by climate policies.” (Barker et al., 2007, section 11.5.1). Le progrès technique était en effet traité initialement dans
la théorie de la croissance comme un phénomène « exogène et autonome » (cf. Sassi, 2008).
32 « I did have a new wrinkle in mind: to use observed factor prices as indicators of current marginal productivities, so that each observation would give me not only an approximate point on the production function but also an approximate indication of its slopes. » (Solow 1988, page 313).
33L’auteur qui a le plus contribué à systématiser cette pratique dans le domaine énergétique est Jorgenson
part, les estimations économétriques à partir des statistiques de la part des coûts de l’énergie reflètent mal les complémentarités réelles entre capital et énergie (Frondel et Schmidt, 2002)34. D’autre part, ces estimations sont extrapolées dans l’espace de variation des prix relatifs au‐delà du domaine expérimenté historiquement, et ce, en choisissant arbitrairement des fonctions de production « well‐behaved » (régulières) qui ne dérivent d’aucun travail empirique pour cerner la réalité des techniques. Ainsi, dans de nombreux cas, le recours à des élasticités de substitution constantes ne tient pas compte des effets de saturation dus aux inerties des infrastructures, des équipements et des localisations (Ghersi et Hourcade 2006).
Par ailleurs, ce procédé est contraignant pour modéliser des mondes de second rang. Le lemme de Shephard, qui permet de déduire des quantités d’énergie à partir d’une information sur les coûts, n’est valide que pour certaines hypothèses concernant le comportement des producteurs ; l’astuce est de ce point de vue ancrée dans la tradition de l’analyse de premier rang, car elle suppose que l’évolution de la structure des coûts reflète des ajustements faits au voisinage d’un optimum. Il existe donc un risque d’interpréter l’évolution historique de la rémunération des facteurs de production comme le résultat de contraintes techniques immuables, alors qu’il est tout autant possible, si on se réfère à un modèle de second rang, qu’elle reflète surtout le jeu d’autres contraintes, comportementales, physiques ou sociales, qui sont propres à un contexte historique singulier et ne sont pas forcément optimales.
Au total, le fait de recourir à cette pratique pour simuler les effets futurs d’un doublement ou triplement des prix de l’énergie peut aussi bien nous amener à envisager des états techniques irréalistes, susceptibles à l’extrême de violer les principes de la thermodynamique (Lindenberger et Kümmel, 2011)35, ou au contraire, à juger que des états réalisables sont en fait techniquement impossibles.
L’hybridation et le contrôle des analyses du changement technique
En fait, cette astuce, nécessaire en son temps, n’est plus aujourd’hui requise. Les approches des ingénieurs et des macroéconomistes ne sont pas incompatibles ; elles se focalisent simplement sur des aspects et des niveaux d’agrégation différents36. Ces approches apportent des éléments complémentaires pour décrire les potentiels et les contraintes d’un changement structurel profond qui suppose, non une évolution autonome des systèmes techniques, mais une mutation conjointe et
34On ne rentrera pas ici dans le détail de la littérature fournie qui vise à estimer économétriquement la
complémentarité/substituabilité de l’énergie aux autres facteurs de production ; on notera simplement que ces travaux se confrontent à de nombreuses difficultés : distinguer des élasticités de court et de long terme (Espey, 1998), tenir compte du caractère erratique des prix de l’énergie et d’effets d’irréversibilité ou d’asymétrie à la hausse ou à la baisse (Meyer et von Cramon-Taubadel, 2004 ; Hamilton, 2003), prendre en compte l’évolution de la qualité réelle des équipements ou l’effet d’autres signaux-prix, comme la hausse des prix de l’immobilier qui est un facteur important de la demande de mobilité à long terme (Gusdorf et Hallegatte, 2007) ; il ne décrivent pas non plus l’évolution des déterminants techniques et spatiaux des besoins essentiels des ménages et des asymptotes à l’amélioration de l’efficacité énergétique des procédés, des équipements et des bâtiments. Enfin, l’absence de données de panels sur longue période et de catégories de ménages variées, rend impossible une évaluation de l’hétérogénéité des comportements sur la durée (Calvet et Marical, 2011).
35 En effet, les fonctions de production incorporent souvent des élasticités de substitution constantes qui ne tiennent pas compte
des effets de saturation dus aux inerties des infrastructures, des équipements, des localisations à un horizon donné. Par ailleurs, le recours à une fonction de production constante à différents horizons néglige aussi les déformations de la frontière des possibles, dans le temps, en raison du processus d’innovation (Ghersi et Hourcade, 2006).
36 La première met l’accent sur les informations qui permettent de dire si une trajectoire technique est physiquement réalisable,
tandis que la seconde étudie plutôt si cette trajectoire est économiquement faisable étant donné les interdépendances qui caractérisent le fonctionnement d’une économie.
compatible des techniques, des relations économiques et des modes de vie37. Pour faire le lien entre les dimensions techniques et économiques, il faut concevoir des approches qui puissent faire le pont. Des modèles « hybrides » ont donc été développés pour établir un dialogue entre ces deux domaines d’expertise, sur les déterminants techniques et économiques d’un changement structurel induit (Crassous, 2008). Ces avancées méthodologiques ont permis de synthétiser les connaissances et de clarifier le rôle des croyances sur la nature des contraintes techniques pour l’élaboration et le choix des politiques climatiques (Ghersi, 2003 ; Sassi, 2008). Dans le cas d’un « couplage fort » des deux approches, il est tenté de pallier leurs limites respectives en combinant avec cohérence, dans une même architecture de modélisation, des descriptions réalistes et précises des technologies, des comportements et des interdépendances macroéconomiques (Hourcade et al., 2006).
Ces développements sont nécessaires pour explorer des mondes prospectifs au contenu physique inédit, sans pour autant perdre le contrôle de l’interface entre système économique et réalisme technique. Mais ils exigent un travail préalable de recueil et de traitement de données en amont de la construction du modèle. Les modèles macroéconomiques standards sont en effet construits exclusivement à partir des données monétaires de la comptabilité nationale ‐ parfois mises sous la forme d’une « matrice de comptabilité sociale » ‐ et ce, bien qu’ils reposent sur le principe de l’axiomatique d’Arrow‐Debreu : la représentation duale des flux de biens et services dans l’économie en quantités et en valeurs. Mais les quantités ne sont pas décrites au moyen de grandeurs physiques, elles sont déduites des données monétaires sous l’hypothèse d’un prix fictif normalisé. Or, la synthèse des connaissances disponibles sur les possibilités d’un changement structurel profond requiert un dialogue entretenu entre économistes et ingénieurs puisqu’il s’agit d’un processus d’innovation complexe. Mais ce dialogue ne peut s’organiser sans l’adoption d’une description commune du contenu physique (réel) de l’économie.
Cela suppose la construction préalable d’une comptabilité hybride qui ne déduit pas les quantités de données monétaires mais utilise l’information contenues dans des bilans de matière qui comptabilisent les quantités en unités physiques, par source d’approvisionnement et par usage.
Cette traduction opérationnelle du principe d’Arrow‐Debreu ‐ sans recours à des formes fonctionnelles « bien‐élevées » pour représenter l’espace des possibilités techniques ‐ n’était pas envisageable auparavant en raison des techniques de modélisation, des contraintes calculatoires et du manque de données. Mais l’explosion des potentiels de calcul, des méthodes de récupération d’information ainsi que la disponibilité d’un plus grand nombre d’enquêtes statistiques rendent possibles ces développements. La construction d’un système de comptabilité hybride en unités
monétaires et physiques est aujourd’hui faisable mais ce que nous appellerons les techniques
d’hybridation des flux de matière ‐ les principes et manipulations grâce auxquels on parvient à un
37 On observe historiquement que les deux catégories de modèle ont été mobilisées pour illustrer des visions plus ou moins
optimistes ou pessimistes sur les marges de manœuvre technique. Il existe tout de même un lien historique entre les croyances et les cultures des modélisateurs ; en caricaturant, on peut y distinguer deux extrêmes : une confiance sans faille dans le progrès technologique et une croyance excessive dans l’efficacité des marchés. Ainsi, de nombreuses expertises d’ingénieurs, comme celles du groupe Mc Kinsey (2009), font apparaître d’importants potentiels de baisse d’émissions à coûts négatifs (un gain dû à la pénétration d’une technologie moins onéreuse), menant à penser que la transition vers une économie bas-carbone ne coûterait rien. De leur côté, les analyses macroéconomiques réduisent parfois les réponses aux prix à des réflexes quasi pavloviens, négligeant l’ampleur des inerties, et donc, le temps nécessaire au renouvellement des infrastructures, des équipements et à la diffusion des innovations ; mais elles négligent surtout, bien souvent, les possibilités d’un phénomène de rupture profonde, d’une bifurcation inédite des systèmes techniques.
système de tableaux statistiques cohérent en partant de sources de données physiques et monétaires diverses ‐ ne sont pas encore réalisées par les statisticiens, ni répandues dans la communauté des modélisateurs.
Nous décrirons au chapitre 4 l’élaboration d’une compatibilité hybride et nous verrons qu’elle présente pour l’analyse deux intérêts majeurs38.
Elle améliore l’évaluation de l’effet de l’introduction d’un prix du carbone dans l’économie. Nous verrons qu’elle aboutit à une description différente des flux d’énergie dans l’économie, ce qui a un effet sur l’évaluation des effets macroéconomiques et distributifs d’une taxation du carbone. Selon la méthode mise en œuvre, non seulement le poids économique des flux d’énergie dans l’économie est modifié (leur valeur ajoutée marchande), mais le sont aussi l’attribution des consommations d’énergie et des émissions de CO2 (aux ménages et secteurs productifs) et la description de l’hétérogénéité des tarifs d’achat auxquels sont soumis les agents économiques. La mise en œuvre ou non de l’hybridation détermine donc l’évolution respective des coûts de production des secteurs productifs et du pouvoir d’achat des populations de ménages. L’hybridation est particulièrement importante dès lors que l’on envisage une politique non marginale, par exemple un niveau de taxe carbone de plusieurs centaines d’euros qui est atteint sur une période de 20 ans39.
Elle assure le contrôle du réalisme d’évolutions techniques simulées, car elle donne des indicateurs physiques (« Tonnes équivalent pétrole » d’énergie, m2 de surfaces habitées, passager‐ km parcourus, etc.), nécessaires pour borner les possibilités d’économie d’énergie à un horizon donné et contrôler la crédibilité des effets de substitution induits par de hauts niveaux de taxe et de prix des énergies. Ces indicateurs sont nécessaires pour mobiliser, au niveau de description agrégé, l’information des analyses technico‐économiques sur l’efficacité énergétique et l’inertie des stocks existants d’infrastructures ou d’équipements. Ces indicateurs non monétaires permettent aussi d’intégrer dans l’analyse les informations disponibles sur le rythme de renouvellement des équipements (par exemple, la rénovation du bâti), sur le temps que demande l’adoption de nouvelles techniques, et sur l’évolution des quantités d’énergie nécessaires pour produire et satisfaire les besoins essentiels des populations (mobilité, chauffage, alimentation, etc.). L’hybridation offre donc une interface pour organiser le dialogue et représenter la diversité des croyances d’acteurs sur les « potentiels de décarbonisation » et la capacité d’un signal‐prix à les libérer40.
38 Nous développerons ces points par la suite. Au chapitre 4, nous montrerons en quoi l’hybridation modifie la description
quantitative des flux d’énergie dans l’économie à partir des statistiques françaises (section 1.2, page 123). Au chapitre 5, nous illustrerons l’importance de cette description pour l’évaluation en étudiant analytiquement les effets de la réforme sur l’activité et l’emploi à partir d’un modèle d’équilibre général très simple (section 2.1 à 2.3, pages 163-172). Une démonstration plus complète de l’influence des techniques d’hybridation sur les évaluations fait l’objet d’un article à paraître (titre provisoire : « How to build a statistical system to evaluate climate policies? Methods of hybridizing energy flows in physical and monetary
unit »).
39 Dans ces circonstances, si la métaphore du « ragoût fait d’un éléphant et d’un lapin » de Hogan et Manne (1977) n’est plus
valide, à savoir que ce qui arrive dans le secteur énergétique (2% du produit intérieur brut en France) ne peut être négligé dans l’analyse des effets macroéconomiques de la réforme.
40 La façon de formaliser, d’une façon simple, différentes croyances sur les potentiels techniques est présentée au chapitre
2.2 L’hétérogénéité des ménages et les liens entre distribution et croissance
Dans la théorie moderne des incitations, l’asymétrie d’information entre les administrations publiques et les agents privés limite en pratique la vertu des transferts forfaitaires. Contrairement à l’analyse de Sandmo41, il est possible de recourir à ces derniers pour redistribuer les richesses, mais il devient pratiquement impossible de ne pas introduire une réaction des ménages qui risquerait d’altérer l’allocation des ressources. C’est pourtant sur cette hypothèse de travail que repose la grande majorité des évaluations d’un prix du carbone, qui estiment, d’un côté, le coût global des projets de réformes, et de l’autre, leurs effets distributifs42. En fait, en se penchant sur les données disponibles, on observe que les conditions requises en théorie ne sont pas réunies en pratique.
Les conditions d’une séparabilité de traitement ne sont pas réunies
En théorie économique, le critère de Pareto (1896)43 sert à juger si un projet est susceptible d’améliorer l’état social. Un projet est strictement efficace au sens Pareto s’il améliore la situation d’au moins une personne sans dégrader celle d’aucune autre, ce qui est théoriquement attrayant ; mais il est rare, en pratique, qu’un projet passe le test (même en supposant que le fonctionnement du monde fasse l’objet d’un consensus). Le critère que proposent Kaldor (1939) et Hicks (1939) est