• Aucun résultat trouvé

Les nouvelles pistes de réflexion et effets de la crise financière : vers un nouveau paradigme

Les Nouveaux Modèles du Risque de Financement : L’Approche de Portefeuille et les nouvelles pistes de réflexion

Section 3 Les nouvelles pistes de réflexion et effets de la crise financière : vers un nouveau paradigme

Nous avons essayé jusqu’à présent à travers les chapitres et sections précédentes de faire une présentation des apports de la théorie financière au risque de crédit qui représente l’objet de notre recherche. Nous avons passé en revue les principaux modèles pratiques de ce risque depuis l’approche structurelle jusqu’aux modèles de portefeuille tout en passant par les modèles de rating. La littérature consultée à ce sujet était réellement dense et les déductions faites par nos soins sont pratiquement immenses ; Pour être concis et précis, nous retenons les déductions les plus remarquables et également les plus déterminantes :

- Suivant le principe de l’intermédiation, l’activité crédit est risquée, - Pour se prémunir contre ce risque il a fallu trouver des méthodes,

- Les méthodes préconisées étaient basées sur des calculs probabilistes en vue de: déterminer la probabilité de défaillance de l’emprunteur et ensuite estimer la perte en cas de défaut,

- Ces méthodes ont donné lieu à une modélisation systématique en se basant sur une approche statistique à travers l’utilisation de logiciels sophistiqués,

- Les imputs servant de base à la construction de ces modèles reposent sur des suppositions et l’imagination d’un certain nombre de scénarios

- Pour réussir la démarche, comme pour toute logique mathématique, il a fallu des variables et des hypothèses,

- En fait les hypothèses ayant servi de base à la réussite de la démarche sont principalement de deux sortes : d’un côté le principe de la rationalité illimitée et de l’autre son corollaire la perfection des marchés (la théorie de l’efficience des marchés financiers), propres au paradigme néoclassique,

- L’objectif ultime était de déterminer les fonds propres minimaux (réglementaires) à garder par la banque pour faire face aux défaillances probables.

Il s’agit en fait d’une démarche légitime imposée par l’obligation de se prémunir contre le risque. Mais ce qui ne parait peut être pas légitime, ce sont les hypothèses sur lesquels l’approche s’est édifiée : la rationalité est pratiquement limitée et les marchés sont réellement imparfaits. Et voilà qu’on peut déduire que, basée sur des hypothèses irréalistes ou erronées, l’approche risque d’être erronée. Et les crises successives viennent corroborer cette déduction.

151

L’approche standard s’est construite autour de deux postulats centraux: la rationalité des individus et l’efficience des marchés. Forte de ces deux piliers, l’approche standard a pu selon Mickaël Mangot (2013)367modéliser de manière élégante les équilibres de marchés avec des conclusions fortes aussi bien au niveau microéconomique (à l’équilibre tous les agents atteignent leur optimum avec des portefeuilles qui maximisent le couple rentabilité-risque) que macroéconomique (les prix de marché reflètent parfaitement les valeurs fondamentales compte tenu de l’information disponible).

Michel Armatte368 (2009) avance de son côté que l’erreur sur les hypothèses est d’autant plus grave qu’elle est intégrée à des modèles d’évaluation et à des procédures de gestion. A vrai dire, les marchés financiers sont pensés et régulés selon des modèles dont le soubassement scientifique représente un paradigme largement épuisé et contesté.

Les hypothèses de l’efficience des marchés et de la rationalité qui sont la clé de voûte de la théorie financière néoclassique ne sont plus reconnues par la communauté scientifique comme le bon modèle explicatif du risque de financement. Les faits viennent contredire de plus en plus constamment ces hypothèses.

S’il est acquis aujourd’hui, qu’aucun financier ne saurait remettre en cause les réserves contre la théorie financière orthodoxe, on peut néanmoins noter le bon nombre d’outils qui ont commencé à être développés pour pallier ces manquements et se rapprocher, de plus en plus, de la réalité des marchés.

C’est en fait l’avis de plusieurs chercheurs et spécialistes dans le domaine, qui face aux lacunes constatés sur le fond de la théorie financière en général et sur le risque de financement en particulier, ont réorienté la réflexion vers d’autres rivages. Certain essayent d’apporter des modifications de forme, à caractère cosmétique, et d’autres proclament un changement de fond en proposant catégoriquement de nouveaux paradigmes.

Devant la multitude de ces nouveaux courants de pensée, nous allons nous limiter, de manière arbitraire, aux travaux de Mandelbrot sur les modèles fractals et la loi des puissances, aux travaux de Christian Walter et le virus brownien, à la finance comportementale de Daniel Kahneman et enfin à la finance éthique comme finance alternative, comme il a été introduit dans notre premier chapitre.

Dans cette symbiose et avant d’aborder ces nouveaux courants de pensée nous avons jugé utiles de rapporter dans une première sous-section, à travers une revue de la littérature, quelques avis et suggestions de certains chercheurs dans ce domaine : François Horn, Paul Jorion, Michel Armatte, Andrew Sheng, Arnaud de Servigny , Ivan Zelenco, Paul Krugman, Joseph Stiglitz, Nicole El Karoui, Eric Briy et AndréLévy-Lang.

367Mickaël Mangot, 25 ans de finance comportementale ou l’émergence d’un nouveau paradigme, In Grandeur et Misere de la Financier moderne, Regards croisés de 45 économistes, Le Cercle Turgot, éd, Eyrolles, du 03/01/2013, p 71.

368

152

1. L’avènement des théories critiques : rejet des hypothèses classiques

Il s’agit en fait d’une remise en cause, et à l’unanimité, des théories dominantes prouvé défaillantes dans le temps et dans l’espace. François Horn369 (2010) atteste que ces remises en cause de la théorie néoclassique provoquent un regain d’intérêt pour les théories critiques. Comme le note Paul Krugman370 [2009], " bien entendu, il y avait quelques économistes qui contestaient l’idée d’un comportement rationnel et se demandaient si l’on pouvait réellement faire confiance aux marchés, se référant au temps long des crises financières aux conséquences économiques dévastatrices. Mais ils nageaient à contre-courant, ajouta-t-il, incapables de se faire entendre face à une complaisance largement répandue, et qui rétrospectivement nous paraît "stupide".

Paul Jorion371 (2012) explique que les deux hypothèses de la théorie néoclassique qui sont d’ailleurs fausses aboutissent souvent à des catastrophes récurrentes ; d’abord celle de l'individualisme méthodologique, retenue par l'analyse néoclassique, très largement dominante qui consiste à supposer que rien n'apparaît de plus dans un processus collectif que la simple addition des comportements individuels et ensuite, l'idée d'homoeconomicus qui

n'est guidé que par son "intérêt égoïste".

Les théories dominantes ont prouvé leurs limites ouvrant la voie à des questionnements formulés par un grand nombre de spécialistes. François Horn372 (2010) s’interroge si le paradigme néoclassique ne devrait-il pas être une victime collatérale de cette crise qu’il n’a pas vu venir et à laquelle il a contribué ?... Si les économistes néoclassiques se font plus discrets au début de la crise, la parenthèse est vite refermée. Paul Krugman373 [2009] affirmant que ceux-ci ‘ ressortent les idioties d’avant les années 1930 en croyant livrer un discours nouveau et profond’

.

Les crises successives et récidives ont accéléré la réflexion sur l’aspect théorique et idéologique. Dans l’enceinte d’un système capitaliste sans limite et un libéralisme débridé, des progrès ont certes été réalisés mais des dégâts fâcheux se sont avérés.

François Horn374 (2010) se demande si la crise actuelle ne devrait-elle pas porter un coup fatal au seul courant mainstream auquel est assimilé un peu rapidement par les médias dominant l’ensemble des économistes, comme si la science économique était a priori indépendante, homogène, idéologiquement neutre.

369

François Horn, La théorie économique dominante, victime collatérale de la crise ?Revue Française de Socio-Économie

2/2010 n° 6

370

KrugmanPaul , « How Did Economists Get It So Wrong? », New York Times, 2 septembre 2009.

371

JorionPaul, Misère de la pensée économique, éd Fayard, 2012, p 272.

372

François Horn, La théorie économique dominante, victime collatérale de la crise ?Revue Française de Socio-Économie 2/2010 n° 6

373

KrugmanPaul , « How Did Economists Get It So Wrong? », New York Times, 2 septembre 2009.

374François Horn, La théorie économique dominante, victime collatérale de la crise ?Revue Française de Socio-Économie 2/2010 n° 6

153

Joseph Stiglitz375 (2002) estime de son côté que ce paradigme repose sur un modèle simpliste de l’économie de marché, le modèle de l’équilibre concurrentiel, où la main invisible d’Adam Smith fonctionne, et fonctionne à la perfection. Il rajoute que dans ce modèle, il n’est nul besoin d’État – les marchés libres sans entraves, fonctionnent parfaitement.

Le marché est un acteur neutre et capable d’assurer, en toute indépendance, la cohérence de la multiplicité des choix individuels et de contribuer au bien-être de tous. Cette vision ancienne et idéalisée de l’économie dans laquelle des individus rationnels – y compris dans leurs anticipations – interagissent sur des marchés parfaitement efficients n’a-t-elle pas été définitivement invalidée par l’histoire récente ? (François Horn, 2010)376.

Il paraît plus raisonnable de penser comme le mentionne Michel Armatte377 (2009) que les erreurs des modèles sont seulement des erreurs de représentation des marchés financiers, et que le vers n’est pas dans le fruit des mathématiciens de la finance mais dans les usages qu’en font les opérateurs de marchés. Car dans le procès d’attribution, les mathématiques ne sont pas le coupable idéal ; l’idéologie libérale qui a accouché de la déréglementation des marchés, l’invention des produits toxiques, et les rémunérations hors de proportion des traders et des managers semblent plus faciles à accuser.

Eric Briys378 (2008) estime à ce sujet que la complicité des théoriciens, qui portent une immense responsabilité dans la crise, était tacite puisqu’on a utilisé les modèles mathématiques pour tricher avec les risques, en faisant croire que l’on pouvait transformer le plomb en or.

Dans la formule de Black et Scholes, la représentation du comportement d'un marché par un mouvement brownien d’après AndréLévy-Lang379 (2010) ne rend pas compte des grandes variations très peu fréquentes mais brutales que l'on sait possibles. Les travaux de Benoît Mandelbrot sur les fractales ont largement développé ce sujet ajoute l’auteur. C'est en fait la faiblesse la plus grave des premiers modèles utilisés par les financiers. Ils ne prennent pas en compte les comportements des acteurs des marchés, investisseurs et banquiers, chacun anticipant les décisions des autres pour se couvrir ou prendre des positions spéculatives. C'est ce qui explique l'accélération des mouvements de baisse, la disparition quasi instantanée de la liquidité observée en 2007 et 2008 et plus généralement la survenue des situations extrêmes que les modèles basés sur des statistiques historiques ne prévoient pas. Et pourtant, avec ces modèles très imparfaits, voire faux, les marchés de dérivés se sont développés et ils ont

375

StiglitzJoseph (Prix Nobel d’économie 2001), La grande désillusion, Fayard, Paris, 2002,p 105, 107.

376

François Horn, La théorie économique dominante, victime collatérale de la crise? Revue Française de Socio-Économie 2/2010 n° 6

377

Michel Armatte, Crise financière : modèles du risque et risque de modèle. Publié par Mouvements, le 15 février 2009

378Eric Briys, La Tribune, 3 novembre 2008

379

André Lévy-Lang, Les modèles mathématiques des activités financières, Revue mensuelle des anciens élève de l’école polytechnique Magazine N°656 Juin/Juillet 2010 - Après la crise : Les nouveaux défis de la théorie économique.www.lajauneetlarouge.com

154

permis, en trente ans, de créer beaucoup de richesses, non seulement pour les financiers mais pour l'ensemble des économies mondiales.

De nature scientifiquement logique, laquelle modélisation mérite d’être mise en place dans l’environnement qui soit, le plus logique possible. Le terrain devant être balisé à ce niveau pour réussir la mise en œuvre. Le succès des techniques de modélisation dans le domaine technologique n’est pas le bon exemple à suivre surtout dans un domaine qui incarne des comportements humains non calculés et non métrisables de nature à fausser les calculs en perdant sur le degré de pertinence. La modélisation du risque de crédit parait être fondée sur une technologie un peu à l’image d’une technologie industrielle. Toutefois, de Servigny et Zelenco380(2010) soulignent que le fonctionnement de cette technologie repose sur une fondation fragile : l’existence de marchés liquides. Dans une phase d’euphorie et de liquidité abondante cette condition paraît aller de soi. Or, là est le talon d’Achille (point faible) du système : sans liquidité les modèles ne mesurent plus la véritable valeur, ce que l’on appelle la juste valeur (faire value) -qui n’est autre que la valeur d’échange des actifs-. Un cercle vicieux et une situation d’impasse peuvent survenir : la disparition de la liquidité rend impossible la valorisation, donc rend impossible les transactions, donc supprime la liquidité, etc. »

Une autre critique adressée aux modèles réside dans le risque d’erreur du modèle lui-même, qui n’est que la différence ou l’écart entre ce que prévoit le modèle et ce qu’on observe dans la réalité (pour un portefeuille par exemple) ; ce que la communauté financière appelle un risque de modèle. La probabilité que les résultats des modèles s’écartent de ce qui se réalise effectivement dans les faits s’joute donc aux probabilités en jeux dans le modèle lui-même reposant d’ailleurs sur de simples hypothèses.

Ce risque consiste, selon Michel Armatte381 (2009), à gérer les affaires financières comme si le modèle était la réalité. Alors que tout modèle est un jeu d’hypothèses sur cette réalité, elle-même en partie le produit du consensus et des conventions rendues opérationnelles par ce même modèle. L’erreur du modèle est évaluée selon le même auteur comme la différence entre ce qu’il prévoit et ce qu’on observe pour un certain portefeuille. L’écart peut se calculer sur différentes mesures comme la volatilité, la VaR382, ou la durée de retour d’un événement rare. Quant à la probabilité que les résultats des modèles s’écartent des observations de telle valeur (à ne pas confondre avec les probabilités en jeu dans le modèle lui-même), elle supposerait que l’on puisse la déterminer soit subjectivement soit à partir d’une statistique de ces écarts.

A ce sujet, Mandelbrot et Hudson383 (2005) affirment que les modèles standard ont évalué la probabilité de l'effondrement du 31 août 1998 à un pour 20 millions, (un événement censé n'arriver qu'une fois tous les 100 000 ans). Toutefois en juillet 2002, l'indice avait enregistré

380

Arnaud de Servigny et Ivan Zelenco, Le Risque de Crédit Face à la Crise, éd DUNOD 2010, p 4

381

Michel Armatte, Crise financière : modèles du risque et risque de modèle. Publié par Mouvements, le 15 février 2009

382VAR ou Value at Risk est le montant des pertes d’un portefeuille qui ne sauraient être dépassées avec une probabilité donnée.

383

Benoît Mandelbrot et Richard L. Hudson Une approche fractale des marchés : risquer, perdre et gagner, éd. Odile Jacob, 2005, p. 22

155

trois décrochages en sept jours consécutifs d'activité (probabilité : une sur 4000 milliards). Et le 19 octobre 1987, la pire journée boursière depuis au moins un siècle, l'indice avait décroché de 29,2%. La probabilité de cet événement, si l'on se fie aux calculs des théoriciens de la finance, est inférieure à un sur 10 puissance 50.

Il serait peut-être plus sage par conséquent comme le souligne Michel Armatte384 (2009) de parler d’incertitude des modèles comme on le fait d’ailleurs dans d’autres domaines (environnement et changement climatique par exemple). Mais le problème demeure : peut-on se débarrasser de cette incertitude ou la réduire ?

De l’inefficacité prouvée et de l’obsolescence discernée des théories ‘complaisantes’ dominantes, de nouveaux paradigmes devaient donc naître pour donner vie à des approches plus conformes à la réalité. La conférence de l’INET385 tenue à Berlin en Avril 2012 sur le "Paradigme perdu" s’inscrit dans cette logique. Cette rencontre a selon Andrew Sheng386 (2012), réuni plus de 300 économistes, politologues, analystes de système et écologistes. Il s'agissait de repenser la théorie économique et politique dans le contexte des inégalités croissantes, de la vague de chômage, des désordres financiers et du réchauffement climatique. Presque tous les participants se sont accordés pour reconnaître que le vieux paradigme de l'économie néo-classique n'est plus applicable, mais ils ont exprimé des divergences quant à la manière de le remplacer.

2. Les modèles fractals et la loi des puissances de Benoit Mandelbrot

Benoit Mandelbrot, mathématicien franco-américain d’origine polonaise et savant multidisciplinaire est connu pour ses travaux sur la géométrie fractale et l’analyse multifractale. Il s’agit d’un cadre conceptuel pour décrire et modéliser de nombreux objets mathématiques à caractères irréguliers, comme l’ensemble du plan complexe qui porte son nom. Dans son approche Benoit Mandelbrot s’intéresse aux phénomènes irréguliers de toute sorte, qu’ils fussent mathématiques, physiques, biologiques ou économiques. C’est donc un penseur de la rugosité et un chasseur de la régularité dans l’irrégularité. Il s’agit pour lui de passer d’une science classique ‘lisse’ à une étude du ‘rugueux’.

Le monde de la finance ainsi appréhendé par Mandelbrot n’échappe pas à cette règle. En s’intéressant à l’étude statistique des données économiques et financières Mandelbrot était à l’origine de nombreuses idées importantes et fécondes dans la modélisation statistique des risques financiers. Il a porté un intérêt particulier à la modélisation des fluctuations boursières, dont l’irrégularité est une caractéristique intrinsèque. Il était à l'origine d'un modèle d'évolution des cours de la bourse basé sur la géométrie fractale, sans oublier sa critique féroce à la théorie dominante et à l'utilisation en mathématiques financières du

384

Michel Armatte, Crise financière : modèles du risque et risque de modèle. Publié par Mouvements, le 15 février 2009

385

L’Institute for New Economic Thinking (INET) est une fondation privée à but non lucratif créée par George Soros en 2009. Elle a pour objectif d’encourager et d’accélérer l’émergence d’une nouvelle pensée économique génératrice de solutions aux défis majeurs du XXIe siècle.

386

Andrew Sheng,PrésidentFung Global Institute, « Quel consensus pour la planète ?, Le Cercle les Echos, 02/05/2012 (Fung Global Institute, Groupe de réflexion situé à Hong Kong dont la mission est d'analyser les problèmes mondiaux du point de vue de l'Asie.)

156

modèle de Black, Scholes et Merton, de nombreuses années avant que la crise ne lui donne raison.

2.1 Les modèles fractals

Le terme « fractale » est un néologisme créé par Mandelbrot en 1974 qui signifie brisé, irrégulier. Une fractale désigne des objets dont la structure est liée à l’échelle. Les fractales sont des objets géométriques qui ont la propriété qu’ils peuvent être décomposés en fragments dont chacun a la même forme que le tout. Forgé à partir du latin ‘fractus’ du verbe franger qui signifie ‘briser’, le terme fractal souligne le caractère fractionné à l’infini de ces ensembles présentant des irrégularités à toutes les échelles.

Ses travaux novateurs permettent une approche totalement nouvelle de certains problèmes grâce à une description géométrique. La géométrie fractale dont il est le père fondateur avait pour objectif d'étudier et de classifier des phénomènes naturels que l'on pensait non susceptibles d'une modélisation mathématique, car présentant une très grande complexité à toutes les échelles. Son apport le plus spectaculaire fut l'élaboration de concepts et d'outils mathématiques qui ont permis de dévoiler des correspondances insoupçonnées entre des parties de la Science aussi diverses que l'astronomie, la turbulence, la physique des matériaux, la géologie, l'hydrologie, la chimie, la médecine, l'économie, le traitement du signal et de l'image ou encore la linguistique.

Ayant travaillé pendant 35 années pour la société américaine IBM (1958-1993), il a pu développer ses représentations géométriques de problèmes très divers en disposant des ordinateurs les plus sophistiqués de cette société. Il fut un pionnier de l'utilisation de l'informatique comme outil d'expérimentation mathématique.

Dans la carrière atypique de Mandelbrot, deux livres font date : Les objets fractals, forme, hasard et dimension, publié en français en 1975 ; puis The Fractal Geometry of Nature (La géométrie fractale de la nature) publié en 1982.

Mandelbrot portait un vif intérêt à la modélisation mathématique en finance. En 2005, dans son livre « Une approche fractale des marchés », il critiquait les modèles mathématiques utilisés par les principaux acteurs des marchés: «Les modèles ne sont pas simplement faux. Ils