• Aucun résultat trouvé

CHAPITRE 3 : DES DIFFICULTES DE LA GESTION DU RISQUE DE CREDIT AU SEIN DES

3.1. LA GESTION DU RISQUE DE CREDIT

3.1.3 Les méthodes de gestion du risque de crédit

Pour gérer le risque de crédit ou pour bien le gérer, il est indispensable de le mesurer. Et, selon [Kharoubi & Thomas, 2013], « mesurer le risque de crédit d’un emprunteur vise à

évaluer, plus ou moins formellement, et plus ou moins quantitativement, la probabilité qu’il rencontre des difficultés financières et n’honore pas ses engagements, c’est-à-dire la probabilité que sa possible détresse financière génère un « incident de crédit » ».

Cette mesure se fait au travers de l’analyse du risque de crédit, laquelle analyse poursuit plusieurs objectifs :

D’abord, il faut évaluer le niveau de risque présenté par un débiteur pour son créancier à l’instant t et anticiper son évolution probable.

Ensuite, il faut exprimer clairement ce risque pour qu’il soit facilement situé dans un système ou une échelle de notation.

Enfin, il faudra traduire la note en probabilité d’occurrence, en cherchant à mesurer une probabilité mathématique de défaillance ou de défaut.

Par ailleurs, pour une présentation détaillée des méthodes de gestion du risque de crédit au sein des établissements bancaires, nous renvoyons à [Kharoubi & Thomas, 2013] qui propose une classification pertinente des différentes méthodes utilisées actuellement. Cette classification distingue principalement les méthodes empiriques, les méthodes statistiques et les méthodes théoriques.

LES METHODES EMPIRIQUES

Les méthodes empiriques sont, historiquement, les premières à être utilisées dans l’appréciation et la mesure du risque de crédit. Elles consistent généralement en un raisonnement pragmatique qui, à travers l’analyse de certains critères choisis arbitrairement, permet de détecter le risque de défaillance présenté par un débiteur. Ces méthodes s’inscrivent dans une logique heuristique c’est-à-dire intuitive et permettant de trouver une solution à un problème sans garantir qu’elle soit optimale. Elles adoptent également une démarche fondamentale selon laquelle le risque de défaillance dépend tout d’abord de la situation de l’emprunteur ; cette situation se trouve résumée par les données financières et/ou qualitatives passées de l’emprunteur, et notamment ses critères financiers fondamentaux.

Les méthodes empiriques regroupent les méthodes positives, qui passent en revue une série de critères pour en déduire une mesure du risque de crédit (analyse financière, notamment), ainsi que les méthodes normatives qui appréhendent le risque au regard d’une norme préétablie et apprécient le risque par rapport à cette norme, et la notation ou le rating.

Faciles à comprendre, d’élaboration rapide et ayant aussi l’avantage de mélanger différents types de données, ces méthodes empiriques nécessitent cependant d’importantes ressources humaines dans leurs mises en œuvre.

Il s’agit ici, par exemple, de choisir comme critère principal d’octroi d’un crédit à la consommation un taux d’endettement maximum de 33% pour l’emprunteur. Ainsi, le

crédit sollicité sera systématiquement accordé à tout candidat dont les charges de remboursement de prêt seront inférieures à 33% de ses revenus totaux.

LES METHODES STATISTIQUES

Les méthodes statistiques s’appuient sur un raisonnement intuitif : l’observation mathématique des entreprises qui ont fait faillite permet de déterminer les caractéristiques qui les distinguent des sociétés saines. Par conséquent, on peut modéliser l’appartenance à l’un des deux groupes par comparaison des fondamentaux des entreprises défaillantes à ceux des entreprises saines.

Ces méthodes qui s’inscrivent dans une démarche scientifique et non plus empirique, associent des données financières historiques à des méthodes statistiques ou économétriques. Elles s’appuient sur des ratios de valeurs significativement différentes quand il s’agit d’entreprises en bonne santé, par rapport à celles qui font faillite.

Elles regroupent les méthodes liées à l’analyse statistique classique, les méthodes de classification paramétrique (Analyse Discriminante Linéaire, Analyse Discriminante

Quadratique), les méthodes de classification semi-paramétrique (modèle Logit, modèle

Probit), ainsi que les méthodes non paramétriques (partitionnement non récursif, réseaux de neurones, algorithmes génétiques).

La méthode la plus utilisée dans cette catégorie est l’analyse discriminante multidimensionnelle qui permet la construction d’une fonction linéaire optimale, le score S, qui combine différentes variables explicatives indépendantes :

S = (∑Cp . Re) + X

Dans cette formule, Cp représente le coefficient de pondération et Re les ratios explicatifs retenus.

Le principal avantage de ces méthodes statistiques est d’être plus objectives que les méthodes empiriques car elles sont généralement fondées sur une analyse statistique approfondie des débiteurs. Ensuite, ces méthodes sont relativement simples à mettre en œuvre et sont également des instruments utiles à la prise de décision.

En revanche, les limites des méthodes statistiques sont essentiellement liées à la difficulté d’élaborer un score unique pour tous les débiteurs, notamment quand il s’agit, par exemple, d’entreprises de secteurs différents. D’autres limites sont relatives à la difficulté de s’adapter facilement aux évolutions dans le temps, ainsi qu’à l’utilisation de données financières passées, ce qui réduit significativement la capacité prédictive de ces modèles. Pour illustrer ces méthodes statistiques, nous allons prendre l’exemple de la cotation

Banque de France qui est une appréciation portée par la Banque de France sur « la

capacité de l’entreprise à honorer ses engagements financiers à un horizon de trois ans »60. Cette cotation respecte les critères internationaux en vigueur pour ce qui concerne l’évaluation du risque de crédit, à savoir : objectivité et indépendance de l’attribution de

la cotation, examen régulier de celle-ci, transparence et publicité de la méthode, large utilisation par les établissements bancaires.

La cotation banque de France est composée :

- d’une cote d’activité allant de A à M suivant le chiffre d’affaires de l’entreprise (de moins de 100 000€ à plus de 750 millions d’euro), avec N (non significatif) pour les entreprises qui n’exercent pas directement une activité commerciale ou industrielle et X pour les entreprises dont le chiffre d’affaire est trop ancien ou bien n’est pas connu de la Banque de France.

- d’une cote du crédit que nous détaillons dans le tableau ci-dessous qui qualifie la capacité de l’entreprise à honorer ses engagements financiers.

[3++]

Excellente [3+]Très forte [3]Forte [4+]Assez forte

[4]

Correcte [5+]Assez faible [5]Faible [6]Très faible

[7]

Attention spécifique [8]Menacée [9]Compromise [P]Procédure collective

[O]

Aucune information défavorable

FIGURE 12:COTE DU CREDIT DE LA BANQUE DE FRANCE60

Ainsi, une cotation G8 représentera une entreprise réalisant un chiffre d’affaires compris entre 1,5 et 7,5 millions d’euro dont la capacité à honorer ses engagements financiers est jugée menacée.

LES METHODES THEORIQUES

Les méthodes théoriques, dont l’objectif est de construire des modèles d’évaluation du risque de crédit, relèvent d’une logique conceptuelle et formalisée à partir de la théorie financière. Pour ces méthodes, qui procèdent en réalité d’une démarche quantitative, le défaut est calculé à partir de différentes méthodologies mathématiques. La conception des modèles, leur application et leur estimation, reposent sur une série de paramètres collectés parmi les données disponibles sur les marchés financiers.

A la différence des méthodes empiriques et statistiques, les méthodes théoriques ne cherchent pas à anticiper la faillite ou la défaillance, mais le risque de défaut. Ces méthodes ainsi que les modèles liés permettent donc une meilleure anticipation du risque de crédit grâce à une détection plus précoce du risque de défaut.

Les modèles théoriques sont généralement élaborés suivant deux principaux types d’approches : une approche empirique par les spreads de crédit61, ou bien des approches

paramétriques du risque de crédit (modèles structurels fondés sur le modèle de Merton, et modèles à intensité). Ces modèles ont connu un fort développement lors de la mise en œuvre au sein des établissements financiers des normes prudentielles édictées par les Accords de Bâle II.

Ces modèles théoriques ont pour principal mérite de rechercher le développement d’une vision dynamique de l’anticipation du risque de défaut ; laquelle anticipation devient de plus en plus complexe, au fur et à mesure que l’horizon considéré s’éloigne.

Cependant, le champ d’application de ces modèles demeure restreint [Kharoubi & Thomas, 2013]. De plus, l’incertitude sur le taux de recouvrement, qui est un élément incontournable dans l’estimation du risque de crédit, est souvent occultée dans ces modèles. Enfin, contrairement aux hypothèses sous-jacentes à ces modèles théoriques, les marchés du crédit ne sont pas parfaits, mais souvent illiquides et incomplets.

Enfin, dans le cadre de l’enquête que nous avions menée auprès des acteurs de la gestion

du risque de crédit dans les banques pour présenter notre modèle (cf. 4.5.6 Enquête

auprès d’acteurs locaux de la gestion du risque de crédit bancaire : retours sur les coûts/avantages de la mise en place d’un système d’informations stratégiques dédiés à la gestion du risque de crédit), nous avions eu l’opportunité d’échanger avec Alexis THIERY, responsable du Pôle « Alimentation et risques de marchés » de la Direction des Systèmes

d’Informations Risques de la Banque NATIXIS62. Nous reprenons ici l’essentiel de ces

échanges qui ont porté sur le Return on Equity (ROE) ou le Regulatory Adjusted Return on Equity (RAROE) qui constitue l’une mesure de rentabilité des engagements financiers. Il sert d’élément quantitatif à la décision d’octroi de crédit ou de mise en place de solution de financement ou de couverture dans les différents comités d’engagement. Cette mesure peut être établie avec différents niveaux de complexité mais elle consiste généralement à mesurer le ratio :

(Revenus – Coûts de portage de l’opération – Pertes) / Capital immobilisé

Si ce ratio dépasse un seuil de rentabilité choisi par la banque, l’opération est considérée comme acceptable « quantitativement ». D’autres paramètres rentrent bien évidemment en compte, car il ne s’agit ici que d’un outil à la décision parmi d’autres.

Ce ratio peut être directement relié au pilotage financier d’un établissement bancaire car, en supposant que la banque dispose de fonds propres à hauteur de 100 millions et vise un objectif de résultat d’un montant de 15 millions par an, elle doit donc cibler des opérations dont le RAROE est de 15%.

Pour préciser les éléments composant ce ratio, il faut savoir que les revenus sont constitués des divers flux de commissions ou de primes qui sont demandées ainsi que les

62 NATIXIS (www.natixis.fr ) est la banque internationale de financement, de gestion, d’assurances et de

flux d’intérêts perçus dans le cadre d’un prêt consenti. L’objectif est de mesurer la valeur actualisée, en tenant compte des taux d’intérêt, de ces flux futurs.

Le coût de portage consiste à mesurer essentiellement deux choses :

• Le fait qu’il faut généralement payer les employés, les locaux, les différents frais

généraux... Pour ce faire, on mesure donc le coefficient d’exploitation du pôle ou du métier considéré, ce coefficient étant généralement un ratio « Revenu/coûts de fonctionnement », puis on retire [(1- Coefficient d’exploitation)*Revenus] ;

• Le fait que la banque ne finance pas sur ses deniers propres mais va se financer sur

les marchés. Ceci implique qu’il faut intégrer un coût de « funding » (coût de

refinancement de la banque sur les marchés). Supposons, par exemple, que la banque peut se financer sur les marchés avec un taux de 1%, il faudrait donc soustraire des Revenus pris en compte ici ce coût.

Pour mesurer les pertes, il faut s’intéresser à la mesure de la solvabilité des contreparties. Les normes comptables récentes imposent aux banques de provisionner leurs pertes, c’est-à-dire de constituer des réserves financières qui seront déduites du résultat. Ceci, afin de matérialiser le fait que la valeur de leur engagements (prêts, produits dérivés, titres détenus) doit tenir compte du risque intrinsèque de l’opération. Pour bien comprendre la logique, il est indispensable de savoir que le risque n’est pas le même entre l’achat d’obligations de la société « Total » et un prêt bancaire à un particulier

frappé d’une interdiction bancaire ou d’un fichage FICP63. Même à montants équivalents

et taux d’intérêt équivalents, ces deux engagements ne valent pas la même chose. Le provisionnement consiste généralement à considérer le produit suivant :

Montant engagé * Probabilité de défaut sur la période * (1-taux de recouvrement)

Le montant engagé ou nominal est le montant contractuel du prêt ou du financement accordé par la banque.

La probabilité de défaut est la mesure de la probabilité d’occurrence d’un défaut de paiement dans le remboursement des intérêts et du principal. Suivant la taille et la spécialité de l’établissement financier, la méthode de définition de la probabilité de défaut du client peut considérablement varier. Cela dépend également du type de contrepartie :

• Une grande banque dispose de son propre service de notation de ses

contreparties. Ce scoring est directement transposé au travers de modèles fondés sur les historiques de défaut en probabilités de défaut sur une période qui est généralement d’une année.

63 FICP : Fichier des Incidents de remboursement des Crédits des Particuliers, est un fichier informatique

• Pour un établissement plus petit, les notations externes des agences peuvent parfaitement suffire.

• Pour la clientèle de particuliers, les établissements vont chercher à définir des

règles de « pooling ». Cela consiste à établir un profil pour le client et ainsi définir sa catégorie. L’exemple le plus connu est la dichotomie prime/subprime qui était appliquée aux Etats-Unis et qui traduisait très simplement la classification « client non risqué / client à risque ».

Le taux de recouvrement est une mesure statistique du taux de retour sur les litiges. C’est-à-dire la capacité à récupérer, au travers des actions de suivi du contentieux, tout ou partie des sommes dues lors du défaut. La réassurance, les actions juridiques (condamnations, saisies, etc.) mais également la capacité de « persuasion » du service contentieux sont ici prises en compte. Le taux de recouvrement peut être totalement forfaitaire ou issu de modèles internes complexes.

Enfin le dénominateur du ratio est construit à partir de la mesure du capital réglementaire ou économique (issu d’un modèle spécifique de gestion du capital en pluriannuel) que l’établissement doit immobiliser pour satisfaire aux exigences réglementaires.

Ces mesures sont fondées sur les réglementations issues du Comité de Bâle et vont dépendre de l’approche retenue par l’établissement pour son estimation. Généralement, plus un établissement est spécialisé dans un domaine, plus son modèle est optimisé pour calculer le montant de fonds propre le plus précis ou le plus adapté à ses activités.

Rappelons également que la démarche et la logique de construction de l’indicateur RAROC (Risk Adjusted Return On Capital) ont été explicitées par [Ory, 2002].

Dans la majorité des banques et des établissements bancaires, il n’existe pas de méthode prédominante. On note plutôt une coexistence historique de modèles provenant des trois principaux types de méthodes présentées ci-dessus. Les établissements bancaires, dans leur processus de mesure du risque de crédit et/ou de gestion de ce risque, utilisent parfois de manière concomitante, différents types de modèle. Nous y reviendrons de

façon plus détaillée dans le paragraphe « 3.3 Exemple pratique de gestion du risque de

crédit dans un établissement bancaire ».

Après avoir défini le risque de crédit et rappelé son historique, son processus et ses méthodes de gestion, nous nous intéressons désormais aux principaux outils existants qui permettent une mesure pertinente du risque de crédit.