• Aucun résultat trouvé

3.2 La validité externe : imitation et calibration

3.2.3 L’expérience computationnelle

La condition de validité externe des modèles RBC établit que les résultats du modèle doivent mimer quantitativement les faits. Pour Danthine et Donaldson, cette exigence tend à marginaliser toute forme d’évaluation qualitative de la validité externe :

The recourse to what has been called ‘quantitative theory’, i.e. the building of small micro-based, computable general equilibrium dynamic models which can be evaluated not only qualitatively but also quantitatively in terms of their ability to replicate the basic business cycle stylized facts [...] This additional requirement— that a successful model should not only replicate the data qualitatively but also quantitatively—may appear quite natural. In practice, however, it tends to reduce the relative significance of the qualitative approach.

(Danthine et Donaldson, 1993, 2-3)

En réalité, comme on l’a vu au chapitre 2, Lucas considérait également que l’évaluation de la validité externe devait reposer sur une base quantitative, même si son travail était loin de développer une telle évaluation. Rétrospectivement, Prescott décrit l’écriture de Kydland et Prescott (1982) comme une tentative, couronnée de succès, de dépasser cette lacune :

Lucas’s work is not quantitative general equilibrium, and only nine years later did Finn and I figure out how to quantitatively derive the implications of theory and measurement for business cycle fluctuations.

(Prescott, 2006, 232)

Comme l’atteste plus généralement Young (2014, 75), Kydland et Prescott travaillaient donc sur leur article fondateur dans l’optique d’opérationnaliser la conception de la mo- délisation de Lucas, c’est-à-dire de produire une évaluation quantitative de la validité externe. Cet objectif est également poursuivi par la nouvelle macroéconométrie clas- sique. Toutefois, cette approche se trouvait dans une impasse, en raison de la difficulté à développer la conception lucasienne de la modélisation dans le cadre d’un travail écono- métrique suivant les méthodes économétriques de la Cowles Commission. L’introduction de la calibration par Kydland et Prescott (1982) permet justement à dépasser ces diffi- cultés183.

183. Il semble difficile de prétendre que la calibration ait été consciemment développée par Kydland et Prescott dans ce but. Eux-mêmes ne présentent pas rétrospectivement les choses dans cette optique (Young, 2014, 26). À l’époque, ils défendent aussi l’idée que la calibration représente une solution tem- poraire aux impasses de l’approche macroéconométrique (« in spite of the considerable advances recently made by Hansen et Sargent (1980b), further advances are needed before formal econometric methods can

En cohérence avec le rejet de la testabilité des hypothèses du modèle, l’approche RBC abandonne donc la tradition de l’économétrie structurelle, pour proposer une méthode où la valeur des paramètres est assignée a priori par le modélisateur184. Pour Cooley (1997,

56), la calibration représente « une stratégie pour trouver des valeurs numériques pour les paramètres de mondes économiques artificiels ». La calibration consiste effectivement à attribuer des valeurs à un ensemble de paramètres caractérisant les hypothèses du modèle185. Le choix des valeurs des paramètres peut répondre à l’une des quatre logiques

suivantes186 :

– choisir de façon instrumentale une valeur qui assure de manière ad hoc la cohérence entre les résultats du modèle et les faits ;

– choisir une valeur proche des mesures effectuées dans d’autres littératures (par exemple, dans des études microéconométriques) pour des paramètres conceptuel- lement analogues ;

– reprendre les valeurs de calibration déjà utilisées dans d’autres modèles RBC ; – choisir de façon arbitraire une valeur qui lui semble « raisonnable » à la lumière de

différentes considérations (vraisemblance, intuition, ...).

En s’inspirant du modèle de Prescott (1986b), l’annexe C détaille une procédure de calibration et illustre par des exemples ces trois logiques.

Une fois les procédures de calibration réalisées – c’est-à-dire, une fois les valeurs des paramètres attribuées – le modélisateur procède à ce que Kydland et Prescott baptise- ront plus tard une « expérience computationnelle » (computational experiment, Kydland et Prescott, 1991, 1996). À partir d’une version informatisée du modèle calibré, le modéli- sateur demande à l’ordinateur de calculer le sentier d’équilibre pour l’économie modélisée. Kydland et Prescott définissent cette méthode dans les termes suivants :

The instrument [of the computational experiment] is a computer program that

be fruitfully applied to testing this theory of aggregate fluctuations » ; Kydland et Prescott, 1982, 1369). Ce qu’on suggère ici est que, même si telle n’était pas l’intention de Kydland et Prescott, de facto leur proposition vient constituer une piste de recherche alternative à celle de la nouvelle macroéconométrie classique.

184. Hansen et Heckman (1996) et Hoover (1995a) associent la calibration avec la tradition de l’équilibre général calculable (Shoven et Whalley, 1972). Cette filiation est reprise par exemple de Plosser (1989, 70), Kydland et Prescott (1996, 69) ou Cooley (1997, 56). Cependant, comme le remarque Young (2014, chap. 1), elle ne correspond pas vraiment à l’inspiration originelle de Kydland et Prescott ; il semble plus vraisemblable qu’ils aient plus simplement puisé dans une forme de quantification proposée, pour des raisons pédagogiques, dans le manuel de Miller et Upton (1974).

185. Dans le cadre de cette thèse, on a défini les hypothèses comme l’ensemble des concepts et des formalismes caractérisant la sémantique et la syntaxe du modèle (cf. 0.3.1). Suivant cette définition, un paramètre est un élément particulier de l’ensemble des hypothèses. Il peut disposer à la fois d’une caractérisation formelle et conceptuelle. Ainsi, par exemple : dans l’ensemble d’hypothèses et de forma- lismes caractérisant le comportement du consommateur comme un programme max�t=0

t=∞βtU (xt), β,

un paramètre représente un élément particulier dans l’ensemble des hypothèses. Il constitue en même temps un élément de la syntaxe formelle et un élément particulier de la sémantique – à savoir, le poids accordé par le consommateur à différentes périodes. L’attribution d’une valeur à ce paramètre peut avoir également des implications conceptuelles (si 0 < β < 1, on parle par exemple de préférence pour le présent).

186. Remarquons au passage que les mêmes trois logiques guident le choix du modélisateur quant aux formes fonctionnelles à utiliser.

determines the equilibrium process of the model economy and uses this equilibrium process to generate equilibrium realizations of the model economy. The computatio- nal experiment, then, is the act of using this instrument.

(Kydland et Prescott, 1996, 75)

Cette procédure est réitérée à plusieurs reprises. Les réalisations du sentier d’équilibre peuvent ensuite être confrontées avec les séries temporelles réelles – les faits, tels qu’ils ont été redéfinis dans la sous-section précédente. Cette confrontation porte plus précisé- ment sur les moments d’ordre deux du cycle, donc les fluctuations de chaque série par rapport à sa tendance (calculée grâce au filtre HP) et les covariances entre les séries. Cette comparaison se fait soit sous forme de tableau récapitulatif (deux colonnes re- portant respectivement les valeurs des moments simulés et des moments observés, pour chaque variable) soit sous forme de graphique (deux courbes, l’une montrant l’évolution simulée des variables, l’autre l’évolution observée). L’approche RBC n’a cependant pas recours à des outils quantitatifs pour apprécier la cohérence entre les moments simulés et les moments réels. Le modélisateur commente simplement de façon littéraire la cohérence entre les moments simulés et les moments observés, en vérifiant que, pour chaque ligne du tableau (ou sur chaque graphique), on retrouve le même sens de variation et une ma- gnitude qui semble « comparable » – voir par exemple Plosser (1989, 62-66). Cet exercice peut éventuellement être réitérée aussi, en utilisant différentes calibrations, dans l’esprit d’une analyse de sensibilité – pour donner un ordre de grandeur moins approximatif à l’appréciation de la cohérence entre résultats et observations. Notons par ailleurs que cette cohérence est considérée explicitement comme un test indirect et a posteriori des valeurs choisies pour la calibration. En effet, comme le remarque Plosser (1989, 63) au sujet de la mesure des chocs de productivité, « si [cette mesure] était une estimation peu fondée, [...] alors l’utiliser dans notre modèle du cycle réel donnerait lieu à des prédic- tions peu fondées du comportement de la consommation, de l’investissement, des heures travaillées, des salaires et de l’output »187.

187. « If the measured technological shock are poor estimates, [...] then feeding these values into our real business cycle model should result in poor predictions for the behavior of consumption, investment, hours worked, wages and output ». Notons que Plosser utilise ici le mot « estimation » non pas au sens d’une estimation économétrique, mais au sens général d’une mesure statistique (fondée sur la méthode du résidu de Solow).

3.3

Les conditions contradictoires de la hiérarchie entre va-