• Aucun résultat trouvé

Méthodologie d’estimation : pouvoir de marché, risque indi- indi-viduel et contribution au risque systémiqueindi-viduel et contribution au risque systémique

Concurrence et stabilité en Union européenne

1.1 Concurrence et stabilité : Une synthèse de la littéra- littéra-turelittéra-ture

1.2.2 Méthodologie d’estimation : pouvoir de marché, risque indi- indi-viduel et contribution au risque systémiqueindi-viduel et contribution au risque systémique

Alors que l’essentiel de la littérature a porté son attention sur les effets du pouvoir de marché sur le niveau de prise de risque individuel, nous considérons éga-lement, dans cette présente étude, les effets du pouvoir de marché et de l’intensité concurrentielle sur la contribution des banques au risque systémique. Dans cette optique, nous sommes ainsi amené à distinguer et à utiliser deux types de mesure de risque : d’une part, des mesures de risque individuel, qui s’avèrent être relativement communes dans la littérature, et, d’autre part, des mesures de contribution des entités bancaires au risque systémique. Ces dernières font écho aux développements récents de l’économie bancaire et financière à la suite de la crise de 2007-2008 et s’avèrent, de ce fait, au cœur de nombreuses discussions.

Cette sous-section fera bien évidemment part de ces discussions. Cependant, il sera ici avant tout question de présenter les méthodologies d’estimation employées afin d’approcher ces différentes notions de risque, ainsi que l’approche retenue pour estimer le pouvoir de marché des institutions bancaires.

Évaluation du risque individuel : Z-score et Distance au défaut Z-score

Afin de mesurer le niveau de risque individuel d’une banque, l’approche conven-tionnelle, dans la littérature, consiste à utiliser le Z-score. Cet indicateur, que l’on attribue généralement à Boyd et Graham (1986), Hannan et Hanweck (1988) et Boyd et al. (1993), reflète la probabilité d’insolvabilité d’une entité et est construit à partir de deux variables : le ratio de capital (CAR) et le taux de rendement des actifs investis (ROA). Partant du fait qu’une entité est insolvable lorsque (CAR + ROA)60, c’est-à-dire lorsque les pertes (ROA < 0) dépassent la capacité d’absorption de ces dernières (CAR), et en considérant que le taux de rendement des actifs investis est une variable aléatoire, avec une espérance,µROA, et une variance finie,σROA, Hannan et Hanweck (1988) montrent que l’inégalité de Bienaymé-Chebyshev permet d’obtenir la limite supérieure de la probabilité d’insolvabilité. Celle-ci est donnée par :

pr (ROA < −CAR) ≤ Z−2 (1.1)

où Z =CAR + µROA

Alors que l’utilisation du Z-score ne présente aucune limite importante dans les analyses en coupe transversale31, la construction d’un indicateur d’insolvabilité dynamique est sujette à certaines discussions (voir, notamment, Lepetit et Strobel (2013)). Celles-ci portent, en particulier, sur la méthodologie la plus à même d’es-timer de manière dynamique les deux premiers moments du rendement des actifs investis (ROA). Plusieurs méthodologies cohabitent ainsi dans la littérature afin d’estimer le Z-score. La structure en panel des données utilisées dans cette section nous conduit à rechercher un indicateur d’insolvabilité variant dans le temps. À cet égard, nous reprenons, en grande partie, la typologie dressée par Lepetit et Strobel (2013) et recensons finalement, dans la littérature, six manières distinctes de construire le Z-score. Celles-ci sont présentées ci-dessous :

1. Approche utilisée par De Nicoló et al. (2006). Les auteurs utilisent la moyenne et l’écart-type en considérant une fenêtre temporelle mobile d’ordre trois afin d’estimer :µCARROAetσROA

2. Approche utilisée par Yeyati et Micco (2007). Les auteurs reprennent l’approche de De Nicoló et al. (2006) à la différence qu’ils considèrent l’observation pré-sente de CAR et non sa moyenne mobile.

3. Approche utilisée par Hesse et Cihak (2007). Les auteurs calculent l’écart-type sur l’ensemble des observations afin d’estimerσROA, les autres valeurs corres-pondent aux observations présentes de ROA et de CAR.

4. Approche utilisée par De Nicoló et al. (2006). Les auteurs construisent ce que Lepetit et Strobel (2013) nomment un écart-type instantané : σi nst

ROA =| ROA − µROA| avec µROA correspondant à la moyenne sur l’ensemble de l’échantillon d’observation. CAR et ROA correspondent pour leur part à la valeur présente de ces deux variables.

5. Approche utilisée par Beck et al. (2013). Les auteurs considèrent la valeur pré-sente de CAR et de ROA et l’écart-type sur une fenêtre temporelle mobile de 3 ans32.

6. Approche utilisée par Lepetit et Strobel (2013). Les auteurs calculent la moyenne et l’écart-type du rendement des actifs sur l’ensemble de la période d’étude et utilisent la valeur présente du ratio de capital.

Dans le cadre de notre étude, nous préférons l’approche de Beck et al. (2013) aux autres méthodologies de construction du Z-score. Étant donné la nature non cylin-drée de notre panel, cette approche évite, tout d’abord, que le dénominateur (c.-à-d., σROA) soit construit sur des fenêtres temporelles distinctes. Par ailleurs, l’approche assure que la dynamique de probabilité d’insolvabilité n’a pas, pour seule origine, la variation du ratio de capital à travers le temps, mais également la variation de la pro-fitabilité de l’activité bancaire. Malgré tout, nos résultats s’avèrent peu dépendants 31. En considérant que la profondeur temporelle du taux de rendement des actifs investis est suffi-samment importante afin de disposer d’une bonne variance empirique.

de la méthodologie choisie. Les résultats présentés dans la sous-section 1.2.4 étant robustes face à différentes méthodologies testées33.

Distance au défaut

Mesure alternative au Z-score, la distance au défaut permet également d’appré-cier la probabilité de faillite individuelle d’une institution financière. D’un point de vue conceptuel, les deux indicateurs s’avèrent très proches. Ils expriment, en effet, le nombre d’écarts-types qui séparent la banque de la faillite34et s’avèrent robustes dans la mesure où, face à trois situations - une diminution de la valeur de l’actif, une augmentation de la volatilité de l’actif et une augmentation du levier - ils indiquent une augmentation de la probabilité de défaut (Gropp et al., 2004). Les deux indi-cateurs diffèrent essentiellement dans les données utilisées pour leur construction. Ainsi, le Z-score utilise exclusivement des données comptables, alors que le calcul de la distance au défaut requiert, en plus de celles-ci, la compilation de données de marché. Par ce biais, la distance au défaut obtenue permet de fournir une meilleure évaluation de la probabilité de faillite individuelle. Les cours de cotation des actions incorporent, en effet, un plus large niveau d’information que les seules informations comptables publiées. Ils permettent notamment de refléter, en dehors de la situa-tion de l’entreprise en t , ses perspectives de profits futurs. Ils incorporent, en outre, de l’information sur la situation sectorielle, ce qui permet de prendre en compte la santé financière des entités attenantes.

Définition

La distance au défaut (DD) repose sur la théorie de l’évaluation des options (Black et Scholes, 1973 ; Merton, 1974) et, en particulier, sur l’idée suggérée par Mer-ton (1974) de considérer la détention de capital comme une option d’achat sur les actifs de l’entreprise. Le parallèle entre possession d’une part de capital et option peut s’entendre de la manière suivante. À maturité de la dette, c’est-à-dire à la date d’échéance, si la valeur des actifs est inférieure à celle de la dette, l’entreprise en si-tuation d’insolvabilité, du fait de la responsabilité limitée des actionnaires, n’exercera pas son option sur la dette. Conséquemment, la dette ne sera pas acquittée et l’en-treprise se retrouvera en situation de faillite. Il s’ensuit que les actionnaires perdront leur mise initiale ou, en reprenant le parallèle dressé avec les options, la prime payée. A contrario, dans le cas où la valeur de la dette (D) est inférieure à celle de l’actif, les actionnaires de la banque auront intérêt à exercer l’option d’achat qu’ils possèdent, puisqu’en remboursant la dette émise (D), ils auront la pleine propriété des actifs de la société (V), avec V > D. Ainsi, la valeur du capital d’une entreprise à maturité de la dette (dans notre cas 1 an) est égale à :

Max(Vt +1− Dt +1, 0) (1.3)

33. Il s’avère que les corrélations entre les différentes approches de calculs du Z-score sont fortes et conduisent à des classements ordinaux des banques semblables.

avec Dt +1la valeur des dettes et Vt +1la valeur de marché de l’entreprise.

L’analogie du capital avec une option d’achat s’avère donc parfaite. Or, les travaux de Black et Scholes (1973) et Merton (1974) permettent d’évaluer le prix d’une telle option sous certaines hypothèses. Ainsi, la valeur de marché de l’actif d’une entre-prise (Vt) doit être égale à la somme de la valeur des dettes, Dt et du capital, Et :

Vt= Et+ Dt (1.4)

Par ailleurs, une des hypothèses canoniques du modèle d’évaluation des options en temps continu est que la valeur de l’actif suit un mouvement brownien géomé-trique, tel que :

d Vt= µVtd t + σVtd W (1.5)

oùµ est l’espérance de rendement de l’actif, σ son écart type et W un processus de Wiener. Dès lors, d’après Black et Scholes (1973), la valeur de l’option est donnée par : Et= VtΦ(d1) − Dte−r (T−t )Φ(d1− σpT − t) (1.6) avec r le taux sans risque, approché, par exemple, par l’Euribor 12 mois et Φ la fonction de densité de la loi statistique retenue35.

Par ailleurs d1est égal à :

d1=l n(Vt/Dt) + (rt+ 0.5σ2)(T − t)

σpT − t (1.7)

La probabilité de défaut correspond à la probabilité de ne pas exercer l’option, c’est-à-dire àΦ(dt− σpT − t). Toutefois, plutôt que de prendre en considération la probabilité de défaut, la littérature opte souvent pour la distance au défaut (DD), c’est-à-dire pour dt− σpT − t. En effet, cette mesure permet de rendre compte du nombre d’écarts-types séparant la banque du défaut puisqu’elle est égal à :

DD =l n(Vt/Dt) + (µ − 0.5σ

2

)(T − t)

σpT − t (1.8)

De nombreuses études ont précédemment justifié la pertinence d’une telle me-sure. Gropp et al. (2004) montrent ainsi que la DD est un indicateur direct de fragilité individuelle des banques et qu’elle prévaut sur des indicateurs obtenus à partir de données comptables ainsi que des séries de rendements bruts. La mesure n’est, en ef-fet, pas influencée par l’existence d’assurances étatiques plus ou moins implicites36.

35. Traditionnellement la loi normale.

36. Contrairement à la méthodologie consistant à observer les écarts de rendement avec la dette subordonnée par exemple.

De plus, la mesure rend compte du risque à partir de l’évolution des rendements des actions, mais également à partir du levier de la banque, qui constitue un des concepts de risque les plus importants, n’étant pourtant pas retranscrit dans la volatilité des titres bancaires (Gropp et al., 2004). Néanmoins, l’inconvénient majeur de cet in-dicateur est qu’il circonscrit l’étude aux banques cotées et exclut donc les banques mutualistes et coopératives de l’échantillon d’étude. L’implication paraît toutefois li-mitée dans la mesure où la part des banques cotées, en termes d’actifs bancaires, est prédominante dans l’industrie bancaire européenne (Baele et al., 2007), même si elle n’équivaut pas à celle de l’industrie bancaire nord-américaine.

Estimation

La difficulté du modèle de Merton (1974) réside essentiellement dans l’estima-tion de la valeur de marché de l’actif d’une banque ainsi que de ses deux premiers moments. La valeur de marché de l’actif bancaire est, en effet, une valeur latente. Des méthodologies ont toutefois peu à peu vu le jour afin d’approximer la valeur de l’actif et ainsi permettre l’estimation des paramètresµ et σ. La méthode la plus simple fait appel aux méthodes d’évaluation d’entreprise utilisées en finance d’en-treprise. Ainsi, la valeur totale des actifs est obtenue en sommant la valeur de marché des actions de l’entreprise et la valeur comptable de ses dettes. Brockman et Turtle (2003), parmi beaucoup d’autres, utilisent cette approche qui reste malgré tout im-parfaite et source de biais dans les estimations (voir, Wong et Choi, 2009). Un se-cond ensemble d’approches comprend la méthode de Ronn et Verma (1986) et la méthode KMV, présentée par Crosbie et Bohn (2003)37. Un grand nombre de travaux utilisent ces méthodologies, parmi lesquels ceux d’Akhigbe et al. (2007), Vassalou et Xing (2004), Hillegeist et al. (2004) ainsi que Vallascas et Hagendorff (2011). La mé-thode KMV permet de calculer la volatilité de l’actif en considérant une procédure de calculs itérative. Cette dernière utilise un algorithme de recherche de Newton pour estimer la valeur de V etσ à partir de deux équations obtenues sous les hypothèses du modèle de Merton (1974). La première est l’équation de Black Scholes et Merton (équation (1.6)) présentée précédemment. La seconde équation lie la volatilité de l’actif à la volatilité de la valeur de marché des actions. Sous les hypothèses de Black et Scholes (1973), la valeur du capital est une fonction de la valeur de la firme et du temps. Formellement, en considérant le lemne d’Ito, il s’ensuit que :

σE=V E

δE

δVσ (1.9)

Sous les hypothèses du modèle de Merton (1974) (d E

d V = N(d1)), avec N la fonction de densité d’une loi normale. La volatilité de la firme et de son capital sont donc liées 37. Un certain nombre de différences demeurent entre ces deux méthodologies, même si les sou-bassements sont semblables. Par exemple, le point de défaut diffère entre les deux méthodologies. Se référer à Duan et Wang (2012) pour une comparaison plus fournie des deux méthodologies.

par :

σE=V

EN(d1)σ (1.10)

L’algorithme de résolution utilisant les équations (1.6) et (1.9) conduit à estimer préalablement la volatilité des actions de la banque,σE, ce qui peut être réalisé en calculant l’écart-type des cours journaliers sur les 12 derniers mois, par exemple. La méthode KMV permet, par la suite, de résoudre ce système de deux équations non linéaires par le biais d’une procédure itérative, en employant comme valeur initiale deσ, la valeur de σEmultipliée par le rapport de la valeur des actions sur la valeur de l’entreprise (V) égale à la valeur des actions plus celle de la dette. Un algorithme de recherche de Newton permet ensuite d’identifier les valeurs journalières de V dans ce processus itératif.

La deuxième étape de résolution du modèle consiste à calculer le rendement im-plicite de l’actif, r V, permettant de déterminer l’espérance de rendement de l’actifµ et la volatilité du rendement de l’actifσ selon les formules suivantes :

r Vt= l nVt− l nVt −1 (1.11) ˆ σt2= 1 nh n X k=1 (r Vt− ¯r Vt) avec r V¯t= 1 n n X k=1 (r Vt) (1.12) ˆ µ = 1 hr V¯t+1 2( ˆσt)2 (1.13)

avec h le temps exprimé en années séparant deux observations et n le nombre d’observations.

Certains débats portent également sur la valeur adéquate du point de défaut. Alors que dans la modèle de Merton (1974), le point de défaut correspond à l’en-semble des engagements (des dettes), Crosbie et Bohn (2003) considèrent que le point de défaut est plus faible et compris entre la valeur totale des engagements et la valeur des engagements de court terme. Aussi, les auteurs fixent de manière arbi-traire la valeur du point de défaut comme étant égale au total de la dette de court terme et à la moitié de la dette de long terme. Duan et Wang (2012) souligne que la valeur retenue du point de défaut par Crosbie et Bohn (2003) dans la méthode KMV pourrait conduire à une mauvaise appréciation du risque des banques38. Duan (2010), Duan et Wang (2012), Duan et al. (2012) proposent, en réponse, une troisième voie pour estimer la distance au défaut. Celle-ci considère ainsi un point de défaut 38. Les dépôts qui constituent une part importante du passif des banques en seraient à l’origine. En effet, les dépôts auraient un statut mixte faisant qu’ils ne peuvent être classés strictement et complè-tement en tant qu’engagements de court terme (passif à moins d’un an) ni en tant qu’engagement de long terme. Ce faisant, la méthode standard KMV telle que présentée par Crosbie et Bohn (2003), qui fixe la valeur de la dette exigible à un an égale au passif de court terme et à la moitié de la dette de long terme, conduit à ignorer une part importante du passif des banques.

différent39 ainsi qu’une méthodologie d’estimation distincte, développée par Duan (1994) et Duan (2000)40.

Mesurer le risque systémique

Outre des mesures de risque individuel, notre étude conduit également à définir des mesures de contribution au risque systémique. La dichotomie s’explique par le fait que les deux types de mesure recouvrent des dimensions extrêmement dif-férentes. Alors que les mesures de risque individuel définissent un niveau de prise de risque, une mesure de contribution au risque systémique évalue les externalités d’une banque sur le système financier pris dans son ensemble à travers, notamment dans cette étude, les corrélations dans les rendements entre la banque et le système financier. En somme, la distinction faite entre nos mesures de risque est semblable au distinguo établi entre évaluation micro-prudentielle et macro-prudentielle des risques.

Le risque systémique a une dimension incontestablement protéiforme. Cela nous a, au demeurant, conduit à mener, dans ce chapitre premier, une analyse duale des effets du pouvoir de marché et de la concurrence sur le risque systémique. Le risque systémique peut, en effet, être appréhendé à travers deux dimensions principales : (1) la stabilité du système en coupe, c’est-à-dire la distribution du risque à travers les différents acteurs du système, et (2) la stabilité du système à travers le temps, qui renvoie notamment à la procyclicité des systèmes financiers et à la formation de bulles financières. Bien évidemment, dans la présente analyse, notre intérêt se porte sur la première dimension définie du risque systémique. Celle-ci comporte une abondance de mesures potentielles. Cependant, en dépit de la kyrielle d’indicateurs, peu sont en réalité estimables à l’échelle individuelle. Ainsi, seules les mesures construites à partir de données de marché se révèlent être des alternatives plausibles. Cette famille d’indicateurs englobe notamment la ∆CoVar et la SRISK qui sont, tous deux, parmi les mesures de risque systémique les plus répandues et discutées dans la littérature. Une limite de ces indicateurs réside, toutefois, dans le fait que leurs fondements sont uniquement statistiques et, par conséquent, athéoriques, ce qui ne permet pas de distinguer ni de tester les mécanismes et canaux de transmission du risque systémique. Sans revenir sur les débats épistémologiques, cette limite pourrait tout aussi bien être un avantage. En effet, par son approche agnostique, cette famille d’indicateurs s’affranchit des 39. Duan (2010) propose, par conséquent, une fractionδ des ressources autres que des engage-ments de court terme ou de long terme afin, notamment, de prendre en considération les dépôts des banques. Ainsi pour Duan (2010), le niveau de dette exigible à 1 an est égal aux engagements de court terme, la moitié de la dette de long terme et une fractionδ des autres ressources.

40. Duan (1994) propose une estimation des paramètres du modèle structurel par l’utilisation d’un estimateur du maximum de vraisemblance. Cet estimateur conduit à des estimations de la distance au défaut identique à celle de la méthode KMV sous les hypothèses classiques du modèle de Merton (1974), mais à la différence de la méthodologie utilisée par la méthode KMV, le recours à cet estimateur permet d’estimer un paramètre supplémentaire (δ), nécessaire afin de déterminer un point de défaut corrigé, tel que le définit Duan et Wang (2012) par exemple.

erreurs théoriques potentielles sur les fondements du risque systémique, mais surtout permet de prendre en compte simultanément différents canaux théoriques de diffusion du risque systémique.

Dans notre analyse, afin d’évaluer la contribution des banques au risque sys-témique, nous considérons la SRISK (Acharya et al., 2012a ; Brownlees et Engle, 2015)41. Celle-ci est définie comme : la contribution individuelle d’une banque à la détérioration de la capitalisation du système financier dans son ensemble lors d’une crise (Acharya et al., 2012a ; Brownlees et Engle, 2015). Le risque systémique est donc apprécié à travers les pertes anticipées de capital (Expected capital shortfall) conditionnellement à une situation de crise sur les marchés financiers. Selon cette perspective, plus les pertes anticipées de capital sont grandes, plus la contribution au risque systémique d’une institution donnée est importante.

Plus formellement, la SRISK est une extension de la Marginal Expected Shorfall (MES, pour perte marginale anticipée) proposée par Acharya et al. (2010). La MES correspond à la contribution marginale d’une entité donnée au risque systémique, mesurée par l’Expected Shortfall du marché. Selon Acharya et al. (2010), l’Expected Shortfall correspond à l’espérance de perte de rendement conditionnellement au fait que la perte de rendement ait dépassé un seuil donné, C, et revêt la forme suivante :

ESt = Et −1(rt | rt < C) =

N

X

i =1

wi tEt −1(ri t| rt< C) (1.14) avec N le nombre de banques, ri tle rendement de la banque i en date t , et rtle rende-ment du marché en t . Le renderende-ment du marché correspond à la moyenne pondérée