• Aucun résultat trouvé

Sur la calibration des corrélations dans un modèle interne non-vie sous Solvabilité 2. Talel HAMMAMI

N/A
N/A
Protected

Academic year: 2022

Partager "Sur la calibration des corrélations dans un modèle interne non-vie sous Solvabilité 2. Talel HAMMAMI"

Copied!
118
0
0

Texte intégral

(1)
(2)

Sur la calibration des corrélations dans un modèle interne non-vie sous Solvabilité 2.

Talel H

AMMAMI

16 Octobre 2017

(3)

Sommaire

Remerciements . . . 3

Résumé . . . 5

Abstract . . . 14

Lexique . . . 23

I Introduction : Les différents paramètres de corrélation à calibrer et les concepts mathématiques de dépendance 26

1 Autour de Solvablilité II 27 2 Relation entre capital économique et corrélations 28 2.1 Qu’est ce que le STEC ? . . . 30

2.2 Importance des paramètres de corrélation dans le calcul du STEC : . . . 30

3 Concepts mathématiques de la dépendance : 32 3.1 Fonction de répartition conjointe et notion de dépendance : . . . 32

3.2 Mesures de dépendance : . . . 34

3.2.1 Définition : . . . 34

3.2.2 Corrélation=Mesure de dépendance ? . . . 35

3.2.3 Trois idées fausses à rejeter : . . . 36

3.3 Théorie des copules : . . . 37

3.3.1 Définitions et théorèmes fondamentaux : . . . 38

3.3.2 Copules utilisées dans ce mémoire : . . . 40

II Calibration des corrélations entre les années de survenance dans

(4)

le risque de réserve d’une LoB 41

4 Présentation de la problématique : 42

4.1 Notations utilisées : . . . 42 4.2 Méthodologie de calibration : . . . 43 4.2.1 Triangle utilisé : . . . 43 4.2.2 Détermination des ultimes pour chaque année accident et chaque

année de développement : . . . 43 4.2.3 Determination des réalisation boni-mali pour chaque année d’acci-

dent et chaque année de développement : . . . 44 4.2.4 Calcul des corrélations entre années de survenance des sinistres : . . 47

5 Exemple pratique : 50

5.1 Calibration des corrélations : . . . 50 5.1.1 Triangle utilisé : . . . 50 5.1.2 Calibration des corrélations entre les années de survenance des si-

nistres : . . . 52 5.2 Conclusion : . . . 57

III Calibration de la corrélation entre sévérité des pertes futures et

fréquence des pertes futures : 58

6 Présentation de la problématique : 59

6.1 Présentation du modèle Fréquence/Sévérité d’AXA : . . . 59 6.1.1 Retour sur la définition du modèle collectif : . . . 59 6.1.2 Modèle interne : . . . 60 6.2 Calcul des moyenne et des écart-types de la fréquence et de la sévérité des

pertes futures attritionnelles selon le modèle interne d’AXA : . . . 62 6.2.1 Moyennes et écart-types de la fréquence . . . 63 6.2.2 Moyennes et écart-types de la sévérité des pertes : . . . 68 6.3 Calibration des corrélations pour les risques des pertes futures attritionnelles : 70 6.3.1 Tests de binormalité : . . . 70 6.3.2 Calcul des corrélations : . . . 74 6.4 Test de l’impact de la dépendance entre Sévérité et Fréquence des pertes

futures attritionnelles sur le STEC Proxy : . . . 76

(5)

6.4.1 Tests de lognormalité : . . . 78

6.4.2 Test de l’impact de la dépendance Fréquence/Sévérité sur le STEC Proxy : . . . 79

6.5 Calibration et choix de la copule optimale : . . . 80

6.5.1 Copule empirique de Deheuvels : . . . 80

6.5.2 Calibration de la copule paramètrique : . . . 81

6.5.3 Choix de la copule optimale : . . . 83

7 Exemple pratique : 86 7.1 Choix des modèles adéquats pour la fréquence et la sévérité : . . . 86

7.1.1 Choix du modèle adéquat pour la fréquence : . . . 86

7.1.2 Choix du modèle adéquat pour la sévérité : . . . 87

7.2 Etudes effectuées en supposant l’indépendance entre fréquence et sévérité : 89 7.3 Etudes effectuées en stressant fréquence et sévérité à la dépendance : . . . . 90

7.4 Calibration de la copule optimale : . . . 94

7.4.1 Copule empirique : . . . 95

7.4.2 Estimation des paramètres des copules : . . . 96

7.4.3 Choix de la copule optimale : . . . 96

7.4.4 Impact du choix de la copule optimale sur le STEC : . . . 100

7.5 Conclusion : . . . 102

Conclusion 103

Annexe 107

A Représentations des copules : 108

Bibliographie 114

(6)

Remerciements

Avant de commencer, je tiens à remercier et à exprimer toute ma gratitude à :

— Mes deux maîtres de stages au sein d’AXA GIE, Ioan MARA et Fabrice BALLAND pour leur grande contribution à la création de ce mémoire et à leur présence conti- nue pour répondre à toutes mes questions tout au long de mon stage.

— L’ensemble de l’équipe P&C au département GRM pour leur accueil et leur sup- port, ce qui a beaucoup facilité mon intégration.

— Mon tuteur académique é Paris Dauphine, M. Pierre CRADALIAGUET, pour ses conseils et la confiance qu’il m’a accordée à chaque fois que j’en avait besoin.

— Ma mère pour le support moral et la motivation continue tout au long de mon par- cours ainsi que mes amis, mes professeurs et toute autre personne qui a contribué, de proche ou de loin à ma formation.

(7)

Résumé

Mots-clés : SCR, modèle interne, événements bicentenaires, corrélations, AY (Accident Year), LoBs (Lines of Business), risque de réserve1, risques de prime2, copule, jugement d’expert.

Ce mémoire a été réalisé au sein du Group Risk Management (GRM) d’AXA qui réunit les équipes dédiées à la modélisation et à la gestion des risques auxquels font face les entités du groupe AXA. En accord avec la Directive Solvabilité 2 et le Régulateur, AXA a développé un modèle interne qui permet d’évaluer les capitaux à détenir nécessaires pour garantir la solvabilité de l’ensemble de ses engagements face à un risque bicentenaire. Ces capitaux, nommés Solvency Capital Requirement (SCR) dans la Directive, sont également nommés Short Term Economic Capital (STEC) dans le modèle interne d’AXA. Les risques modélisés sont structurés autour de 5 grandes familles de risques :

— Les risques liés aux engagements des contrats Vie,

— Les risques liés aux engagements des contrats Non-Vie,

— Les risques liés aux instruments financiers,

— Les risques liés aux engagements de Crédits

— Les risques opérationnels.

Dans le cadre de ce mémoire, les travaux ont concerné les risques portés par les contrats non-vie, en particulier : le risque de pertes futures (attritionnelles ou atypiques) et le risque de Réserve.

L’identification des risques de réserves (liés à l’écoulement des réserves) s’effectue en pre- nant compte de différents classes de corrélations comme :

— Les corrélations entre années d’accident au sein d’un même portefeuille (AYs : ac- cident years).

— Les corrélations entre différents portefeuilles (Lignes of Business - LoBs).

— Les corrélations entre les entités d’assurance du groupe AXA.

La première partie de ce mémoire traitera des corrélations entre les années de surve- nance au sein du risque de réserves.

L’analyse des triangles de réserve détenues par année d’accident permet d’étudier une possible relation de dépendance entre différentes années d’accidents d’un même porte-

1. Risque de sous-estimation des réserves concernant des sinistres déjà survenus durant les années de souscription passées.

2. Risque de sous-estimation des pertes futures donc des sinistres non encore survenus et qui vont sur- venir au cours de l’année de souscription future.

(8)

feuille. Le modèle interne d’AXA suppose une corrélation constante 50% entre les ré- serves des différentes années d’accidents d’un portefeuille. Ce mémoire proposera d’éva- luer la bonne adéquation de cette hypothèse et discuter d’hypothèses de corrélation al- ternatives. La question est : Deux années de survenance/souscription différées de 10 ans (Par exemple 2000 et 2010) ont-elles la même corrélation que deux années de souscriptions voisines ?

La seconde partie de ce mémoire proposera de d’approfondir une hypothèse fréquem- ment utilisée dans la modélisation de phénomènes actuariels : l’indépendance entre la fréquence et le coût dans un modèle fréquence × coût3. La bonne adéquation de cette hypothèse sera notamment discutée au regard de l’historique disponible de sinistralité passé.

Les pertes attritionnelles sont des pertes ayant un montant relativement petit (c.à.d que la probabilité qu’elles nécessitent le recours à la réassurance est faible) et une fréquence re- lativement grande. La modélisation de la charge des coûts d’un portefeuille sera faite via un modèle composé de la forme :S =PN bre d0accidents

i=1 Xi oùXi , i∈ {1..N bre d0accidents}

sont les montants des pertes.

Pour vérifier que l’indépendance entre sévérité et fréquence peut être admise au regard de l’historique des sinistres d’un portefeuille, une première méthode sera introduite pour estimer l’impact de l’introduction des corrélations empiriques dans le modèle Sévérité- Fréquence. Plusieurs approches seront ensuite proposées pour capturer les relations de dépendances grâce à une modélisation statistique de la corrélation et à l’introduction de copules. L’enjeu de ces approches sera de comprendre l’importance d’une éventuelle ca- libration de ces paramètres de corrélation dans le contexte où la directive Solvabilité II privilégie une meilleure connaissance de la réalité plutôt que l’utilisation de valeurs for- faitaires dans le calcul du capital réglementaire.

3. également appelé Fréquence×Sévérité

(9)

Note de synthèse

Problématiques :

— Problématique 1 : Le risque de réserve entre en jeu dans le calcul du capital ré- glementaire STEC d’AXA. Une mauvaise estimation de ce dernier entraînera une valeur sur-estimée ou sous-estimée des capitaux réglementaires.

Pour bien estimer les risques de Réserve, il faut identifier les relations qui peuvent exister à l’intérieur d’un triangle de réserves, entre les triangles de réserves de dif- férents portefeuilles (LoBs), mais aussi entre les réserves de différentes entités. Ce mémoire se focalise sur les relations de corrélation qui peuvent exister à l’intérieur du triangle de réserves relatif à une LoB et en particulier sur les corrélations entre différentes années de survenance (AY : années d’accidents).

Le modèle interne d’AXA fixe cette corrélation à une valeur théorique 50% entre toute année d’accident passée pour la modélisation stochastique du bilan et du compte de résultat (DFA, Dynamic Financial Analysis).

Pour étayer cette hypothèse, différents tests sont étudiés sur les données de por- tefeuille. Il est montré dans ce mémoire que cette supposition est une borne haute prudente, mais elle semble un conservatrice lorsque la différence entre les deux an- nées choisies s’agrandit.

— Problématique 2 : L’historique des sinistres attritionnels (Forte fréquence contre un coût relativement faible) et Atypiques d’un portefeuille (fréquence basse mais générant des coûts importants et le recours éventuel à des couvertures de réassu- rance) apporte des informations importante pour modéliser la sinistralité future.

Ces risques entrent en jeu dans le calcul du capital réglementaire de Solvabilité 2.

La problématique qui se pose pour ces risques est le test d’indépendance et l’éva- luation des corrélations, s’il s’avère qu’une structure de dépendance entre les coûts et les fréquences de sinistralité ne peut pas être négligée.

Dans une deuxième partie, ce mémoire propose d’évaluer différents méthodes pour la bonne calibration de ces corrélations, lorsqu’elle sont significatives..

(10)

Calibration des corrélations entre années d’accidents :

La corrélation de 50% donnée par le modèle DFA reste encore un sujet d’études dans le Group Risk Management vu qu’il semble qu’il y a une prudence vis à vis la réalité de la force de corrélation entre les années d’accidents. On a donc essayé d’envisager des mé- thodes de calculs qui permettent de se rapprocher d’une corrélation moins prudente que celle théorique et assez suffisante pour être proche de la corrélation réelle entre les années d’accident.

L’article de Merz et Wüthrich a procuré, de façon partielle, une réponse aux questions posées par les entités et a, même, procuré une approche qui pourra aider ces dernières à mieux calibrer ces corrélations entre AY. Cette méthode se base essentiellement sur la calibration des boni-malis calculés par une formule mathématique (ou observés en réa- lité) selon une loi lognormale qui a comme volatilité, une fonction des erreurs carrées moyennes de prédiction (MSEP : Mean Squared Errors of Prediction) calculée à partir de la formule de Merz et Wüthrich. Donc, on a, pour touti, j ∈ {1..I}(I le nombre d’années d’accidents/développement) :

1 +BMi,j ∼LN

1,

qmsepˆ CDRiˆ (i+j)|Di+j−1(0) Rˆi,j

Après, on normalize ces facteurs pour qu’on puisse calculer les corrélations de Pearson, de Spearman et celles de Merz et Wüthrich, pour aboutir à deux tableaux de corrélations de Pearson et de Spearman. Les tableaux de corrélation trouvés ont donc cette forme :

(11)

FIGURE1 – Matrice de corrélation de Pearsonρˆ0P earson

FIGURE2 – Matrice de corrélation de Pearsonρˆ0Spearman→P earson

On déduit, donc, selon les valeurs du tableau que les corrélations tendent à être très différente de celle théorique plus on s’éloigne de la diagonale, c.à.d, plus la différence entre deux années d’accident choisies augmente, moins serait la valeur de corrélation.

Ce qui a été proposé pour calibrer cette corrélation est une formule qui calcule une corré- lation équivalenteρEquivalentqui unit toutes les corrélations empiriques trouvées.

(12)

La formule de cette corrélation s’écrit :

ρequiv =

SEw2 −PI i=1

h ˆ

msepCDRˆ i(I)|DI−1(0)i h

ˆ

sepCDR(I)|Dˆ I−1(0) iT

×A×h ˆ

sepCDR(I)|Dˆ I−1(0) i

−PI i=1

h ˆ

msepCDRˆ i(I)|DI−1(0) i

où :A=

1 · · · 1 ... . .. ...

1 · · · 1

 SEw2 ∈n

SEP earson2 , SESpearman2 ,msepˆ PI

i=1CDRˆ i(I)|DI−1(0)o

On retrouve donc un nouveau tableau de corrélation :ρ0h,i= eρEquiv.σh.σi−1 q

(eσ2h−1)(eσi2−1)

FIGURE3 – Calcul des corrélations équivalentes par trois méthodes.

Principaux résultats de la calibration des corrélations entre années d’ac- cidents :

Après calibration des corrélations théoriques de 50%, les nouveaux STEC obtenus (Pearson, Spearman et Merz et Wüthrich) sont généralement plus petits que le STEC Proxy théorique, ce qui montre qu’en calibrant les corrélations théoriques, on évite de tomber dans la sur-estimation du capital économique à conserver pour le risque de Réserves. On trouve, ainsi, les résultats suivants pour la LoB Santé d’AXA UK :

(13)

Les résultats déduits aussi à partir des calculs effectués sont les suivants :

— En général (Ce n’est pas toujours le cas), la corrélation tend à diminuer en fonction de la différence entre les deux années d’accidents choisies, c’est à dire, les années d’accidents les plus proches ont tendance à être bien corrélées or que les années d’accidents ayant une grande différence ont une corrélation presque nulle.

— La plupart des corrélations trouvées sont inférieurs à 50%, ce qui montre que cette corrélation théorique donne une vision prudente et sur-estime le capital écono- mique qu’on doit conserver.

Calibration des corrélations entre Sévérité et Fréquence pour les risques attritionnels :

L’indépendance entre Nombre de sinistres et Coût de sinistres est une hypothèse sta- tistique classique souvent utilisée par les statisticiens pour faciliter la modélisation de la loi jointe Sévérité/Fréquence et pour rendre les calculs plus clairs et moins compliqués.

Mais, il s’est avéré, après certains tests sur la nature de relation entre Sévérité/Fréquence que l’indépendance ne peut être postulée de manière systématique sur la distribution des pertes relative aux entités d’AXA.

Implique, une relation de dépendance a été découverte entre ces deux dernières.

La question qui s’est posée au sein des entités était, si cette corrélation introduite (ou di- sons si cette relation de dépendance introduite) aura un effet sur le STEC Proxy comparée la l’hypothèse d’indépendance utilisée auparavant.

Un test a été mis en place par AXA pour déterminer la matérialité de la relation de dé- pendance mesurée empiriquement sur le montant du STEC attritionnel. Ce test consiste à vérifier si :

ST ECDependance

ST ECIndependance

≤106%

(14)

Où :

— ST ECDpendance est le STEC Proxy des risques de sinistralité future calculé en pre- nant en compte la relation de dépendance existante entre Fréquence/Sévérité.

— ST ECIndpendance est le STEC Proxy des risques de sinistralité future calculé en né- gligeant la relation de dépendance existante entre Fréquence/Sévérité.

Le test passe si cette relation est vérifié. Sinon, il échoue.

L’étude effectuée durant la création de ce mémoire était menée pour voir, avant l’appli- cation du test sur les STECs, si la corrélation reflète un degré de dépendance réel entre Fréquence/Sévérité. La corrélation calculée entre la distribution de fréquence et celle de sévérité est mesurée au travers de la corrélation de Pearson. Or, au sein des entités d’AXA, quatre différents modèles sont proposés pour la distribution des charges - Modèle sans tendance, Modèle avec tendance, Modèle avec un Break Year et Modèle sinusoïdal - et six modèles pour la distribution des fréquences - Modèle sans tendance, Modèle avec ten- dance, Modèle avec Risk Driver, Modèle avec tendance et Risk Driver, Modèle avec Break Year et Modèle sinusoïdal.

Ces modèles de coûts et de fréquences sont adaptés d’une distribution à une autre selon leur projection future et le besoin de l’entité.

Ce qui a été remarqué durant les études est que ces modèles affectent le calcul des moyennes et des écart-types des échantillons, mais, n’étaient pas prises en compte lors des calculs des corrélations. D’où, la formation de l’un des résultats essentiels dans ce mémoire qui calculent la corrélation en prenant compte du modèle suivi par chaque distribution (Dis- tribution des charges vs. Distribution des fréquences).

Par exemple, si le modèle choisi pour les coûts de sinistres est avec tendance (c.à.d La distribution s’écrit de la forme :

Si =a×(CurrentY ear−AY1) +b+i, où :

— a et b sont les coefficients de la droite de régression linéaire appliquée sur la distri- bution des coûts.

— est un bruit de moyenne nulle et de variance 1.

— CurrentYear est l’année choisie.

— AY1 est la première année de la distribution.)

(15)

et le modèle choisi pour la fréquence est avec Risk Driver (c.à.d la fréquence s’écrit de la forme :

Fi =a×RDi+b+i, où

— a et b sont les coefficient correspondant au Risk Driver après régression linéaire.

— RDi est la valeur du Risk Driver pour l’annéei.) , la corrélation entre les deux distribution sera donc :

ρF req,Sev = Pn

i=1

(Si−(a×(CurrentY eari−AY1)+b))×(Fi−(a×RDi+b)) n

σSevF req ,

où :

— σSev =Pn i=1

(Si−(a×(CurrentY eari−AY1)+b))2

n .

— σF req =Pn i=1

(Fi−(a×RDi+b))2

n .

— n est le nombre de variables observées pour les coûts de sinistres/fréquence de sinistres.

Des tests de corrélations ont ainsi été appliqués sur les résidus trouvés après application de l’un des modèles d’AXA pour vérifier la crédibilité des corrélations trouvées. Pour chacune des trois corrélations mesurées (Pearson, Spearman et Kendall), la p-value était significative à un seuil de5%, ce qui montre que l’hypothèse que ces corrélations sont non nulles ne peut pas être rejetée. C’est un premier argument qui montre que la fréquence et la sévérité de l’échantillon choisit ont possiblement un degré de dépendance non négli- geable.

Dans une partie ultérieure, dans le but de structurer la dépendance trouvée, une co- pule optimale a été sélectionnée parmi cinq copules bien connues et dont chacune a des propriétés différentes qui la distinguent des autres, notamment pour la queue des des distributions. Les copules proposées font partie de deux grandes familles de copules :

— Copules elliptiques

— Copule Gaussienne

— Copule de Student

— Copules archimédiennes

— Copule de Gumbel

— Copule de Clayton

— Copule de Frank

Après création de la copule empirique de Deheuvels qui représente les données ob-

(16)

servées, on a procédé à la paramètrisation de toutes les copules pré choisies afin qu’elles reproduisent au mieux les caractéristiques de l’échantillon. La paramètrisation a été effec- tuée par deux méthodes :

— Méthodes de calcul du maximum de vraisemblance de la copule.

— Méthodes d’inversion du tau de Kendall.

Après paramètrisation, on a procédé au choix de la copule optimale en se basant sur quatre critères ; deux se basant sur les distances (Statistique de Kolmogorov Smirnov et statistique de Cramer-Von Mises) et deux autres se basant sur les critères d’information (Critère d’information d’Akaike et critère d’information Bayésien).

Les quatre critères ont montré que la copule optimale qui peut être choisie est la copule de Frank de paramètreθ = 8.954.

FIGURE4 – Représentation de la densité de la copule de Frank de paramètreθ = 8.954

Ceci a montré, enfin, que l’hypothèse d’indépendance entre fréquence et sévérité qui est fréquemment utilisée dans les modélisations statistiques est une hypothèse sensible qui peux mener à des résultats erronés, et notamment à un impact important sur le capital économique modélisé.

(17)

Abstract

Keywords : SCR, bicentenary events, correlations, AY (Accident Year),LoBs (Lines of Business), Premium risk4, reserve risk5, internal model, copula

This memory was created in the department of Group Risk Management (GRM) of AXA GIE which has several teams trying to manage the different risks related to AXA’s enti- ties. With the acceptance of Solvency II and the french regulator, AXA has developed an internal model that helps with the evaluation of the minimal capitals required to resist bicentenary risks. These capitals, called Solvency Capital Requirement (SCR) by the Di- rective, are also called Short Term Economic Capital (STEC) in AXA’s internal model.

We can identify 5 big families of risks :

— Risks related to Life contracts,

— Risks related to Non-Life contracts,

— Risks related to financial instruments,

— risks related to credits,

— Operational risks.

This memory emphasizes risks related to Non-Life contracts, more particularly, risks of (attritional or atypical) future losses and reserve risks.

The identification of reserve risks (related to the use of reserves) is done through the iden- tification of several correlation classes such as :

— Correlations between accident years within the same portfolio (AYs : accident years).

— Correlations between different portfolios (We can also call them Lignes of Business - LoBs).

— Correlations between insurance entities of the group AXA.

The first part of this memory will focus on the correlations between accident years wi- thin the reserve risk.

The analysis of reserve triangles assessed each accident year leads to the study of a pos- sible dependency link between accident years within the same portfolio. The internal mo- del of AXA assumes the existence of a 50% correlation between reserves of different acci- dent years. The aim of the first part of this memory is to test the adequacy of this value

4. Risks of under-estimation of reserves linked to the losses which occurred during the several past years.

5. Risk of under-estimation of future losses, i.e, of claims which did not occur but will take place during the future year.

(18)

and discusses the possibility of the existence of alternative correlation hypothesis. The question is wether two 10-year-distant accident years (For example 2000 and 2010) have the same correlation as two adjacent accident years.

The second part of this memory suggests the deep analysis of an hypothesis frequently used in the statistical world and in the actuarial modelization which is the independency between frequency and cost of a frequency model×cost6. The good adequacy of this hy- pothesis will also be treated and discussed using the historical observation of claims.

Attritional losses are defined as the losses with small amounts (i.e the probability to use reinsurance due to these claims is small) and a relatively big frequency. The mo- delization of the claims costs will be represented by a compound model as follows : S =PN Accidents

i=1 Xi whereXi , i∈ {1..N Accidents}are the amounts of losses.

To verify the the adequacy of the independency hypothesis between severity and fre- quency of future losses, a first method will be introduced and it will focus on the use of the empirical correlation assessed within the Severity-Frequency model. Many other approaches are then introduced to help capture the dependency structure that may exist through the copula approaches. The aim of these approaches is to get the importance of eventual calibrations and their impact on the assessment of the required capital.

Overview

Problematics :

— Problematic 1 : The Reserve risk is a delicate risk for AXA’s entities because of its major role in the assessment of the economic capital. A false estimation of of this risk would affects the STEC value which means less (or more) prudence in the al- location of the economic capital required.

To have the best estimation of the Reserve risk, we have to identify the dependency relationship that exists inside the triangle of Reserves of different LoBs (Lines of Business), but also, between reserves of different entities. What interests us in this memory is the identification of the correlation that exists between accident years (AY) given the fact that it has a pre-fixed value.

6. also noted Frequency×Severity

(19)

The DFA (Dynamic Financial Analysis), which focuses of the stochastic modeliza- tion of the balance sheet and the income statement, supposes that the correlation that exists between accident years is fixed to 50%.

Some tests have been done to see the adequacy of this assumption and it has been concluded that ; this assumption is good as an approximation since it’s a careful one, however, for some LoBs, it’s been proved that it is sometimes over careful es- pecially when the gap between accident years tends to grow.

So, in a first part, this memory will present a study that has been done in order to calibrate these correlations until better results, in terms of closeness to reality, are found.

— Problematic 2 : Attritional risks (Big frequency against little costs) and Atypical risks (Events with much less frequency the the attriritional one but with large amounts of costs that may require the call of reinsurance) are the risks that are linked to the future claims. It is crucial to be careful when assessing these risks and take onto consideration all the factors that may affect it because the impact of a false calculus on the economic capital needed can be important.

The problematic that concerns these risks is the probability of existence of a depen- dency relationship between frequency and severity while the hypothesis we use in the assessment of STEC is the independency between the two.

During the second part of this memory, this hypothesis is going to be challenged to check if it’s applicable between the frequency and severity of some LoBs.

Calibration of correlations between accident years :

The 50% correlation assumption is yet a subject of studies inside the Group Risk Ma- nagement department because it seems that it does not replicate the reality of the depen- dency link between accident years. That’s why, this hypothesis has been challenged by many tools in order to correctly asses the nature of the inter-year dependency.

The Merz and Wüthrich article "Modeling the claims Development Result For Solvency Purposes" gives a possible response around the AY correlations by introducing some for- mulas that permits the GRM to assess the square error between boni-malis in order to have a better calibration for these measures of dependency. This method is basically ba- sed on the assumption of the Boni-Malis law, which is supposed to be lognormal with a volatility equal to the MSEP (Mean Squared Errors of Prediction) value deduced directly from the Merz and Wüthrich article. We suppose that for alli, j ∈ {1..I}(I the number of

(20)

accident/development years) :

1 +BMi,j ∼LN

1,

qmsepˆ CDRiˆ (i+j)|Di+j−1(0) Rˆi,j

Then, we normalize the factors so we can assess the Pearson, Spearman and Merz and Wüthrich’s correlation, in order to find two final Pearson and Spearman correlation matrixes. These matrixes are represented as follows :

FIGURE5 – Pearsonρˆ0P earson correlation matrix.

(21)

FIGURE6 – Pearsonρˆ0Spearman→P earson

correlation matrix.

We deduce from the matrixes that the correlations tend to get very different from the theoretical correlation the more we get further from the diagonal, which means, the bigger the gap between accident years, the less the correlation.

After this assessment, we calibrate the correlation by deducing an equivalent corre- lation that optimizes all the correlations found between accident years. This is the final correlation to be compared to 50%. This correlation is written as follows :

ρequiv =

SEw2 −PI i=1

h ˆ msepCDRˆ

i(I)|DI−1(0)i h

ˆ

sepCDR(I)|Dˆ I−1(0)iT

×A×h ˆ

sepCDR(I)|Dˆ I−1(0)i

−PI i=1

h ˆ

msepCDRˆ i(I)|DI−1(0)i

Where :A=

1 · · · 1 ... . .. ...

1 · · · 1

 SEw2 ∈n

SEP earson2 , SESpearman2 ,msepˆ PI

i=1CDRˆ i(I)|DI−1(0) o

The we have a new correlation table which is found using the following formula :ρ0h,i =

eρEquiv.σh.σi−1 q

(eσ2h−1)(eσi2−1)

(22)

FIGURE7 – Correlation assessment using three methods.

Principles results of the calibration between accident years :

After calibrating the theoretical correlations of 50%, the new STECs obtained (using Pearson, Spearman and Merz & Wüthrich correlations) are generally smaller that the STEC Proxy calculated theoretically (using 50% as a correlation), which means that the calibration may help the AXA entities avoid an over-estimation of their economic capital reserved. We, then, find the following results for the LoB Health of AXA UK :

Therefore, there are many conclusions we can come out with :

— Generally, not always the case, the correlation tends to decrease the more the gap between accident years increases, which means, adjacent accident years have the biggest correlations. On the opposite, accident years with big gaps tend to be less correlated and sometimes, they even achieve a null value of correlation.

— The assumption of 50% of correlation between accident years is often a prudential assumption and it over estimates the real value of the STEC that an entity of AXA should hold.

(23)

Calibration of the correlations between severity and frequency inside the Attritional risk :

The independency between the number of claims and their cost is a classical statistical hypothesis often used by the statisticians in order to facilitate the modelisation of the joint law Frequency/Severity and to make the results clearer and less complicated. But, a lot of critics came later to prove that this assumption is not always valid. That’s why AXA’s GRM decided to challenge this assumption and see till what point it might be true.

After several tests done in this memory, it has been proved that, in fact, there is a whole structure of dependency between Frequency and Severity.

After this structure has been deduced, it was pretty important to see if the consideration of this correlation has a big impact on the final STEC Proxy assessed.

That’s why a test has been introduced by AXA in order to see the impact of the introduc- tion of this dependency on the final results. This test verifies the following inequality :

ST ECDependance ST ECIndependance

≤106%

Where :

— ST ECDependance is the STEC Proxy of the future sinistrality risks assessed taking into account the dependency link existing between Frequency/Severity.

— ST ECIndependanceis the STEC Proxy of the future sinistrality risks assessed ignoring the dependency link existing between Frequency/Severity.

The test passes if this inequality is verified, otherwise, it fails.

The studies done during the creation of this memory had the aim to prove, before as- sessing the STECs, if the correlation, if it exists, between Frequency and Severity is strong enough (in terms of p-value) so we admit that there is a real dependency link between these two.

After testing the bi-normality of the chosen LoB’s data, we found it is verified. Therefore, we applied the Pearson’s correlation.

But, this Pearson’s correlation factor is applied in a different way. When it comes to AXA’s internal model, we have four types of modeling that represent the superposition of the observation of either the severity of the attritional charges ; Model with No Trend (which adds nothing to the observed distribution), Model with Trend, Model with a Break Year and a Sinusoïdal model, or the frequency of the attritional charges ; Model with No Trend,

(24)

Model with Trend, Model with Risk Driver, Model with Trend and Risk Driver, Model with Break Year and Sinusoïdal Model.

These models are adapted from a sample to another and it depends on responding at some questions, most importantly : Where do we see the projection of out data ? Is it increasing of decreasing over time ?

What’s been discovered during the studies on this matter, is that the choice of the model affects the assessment of the means and the standard deviations of the samples but did not affect at all the methodology used in the correlation assessment.

That’s why, a new formula of assessment has been introduced which takes into account the choice of the model.

For example, if the chosen model is a model with Trend for the severity of losses, which means :

Si =a×(CurrentY ear−AY1) +b+i, where :

— a et b are the coefficients of the regression line applied on the costs.

— is a noise of mean equal to zero.

— CurrentYear is the current year.

— AY1 is the first year of observation.

and the chosen model for the frequency is with Risk Driver : Fi =a×RDi+b+i,

where

— a et b are the coefficients of the Risk Driver.

— RDi is the Risk Driver value for the yeari.) , lthe correlation between the two variables will be :

ρF req,Sev = Pn

i=1

(Si−(a×(CurrentY eari−AY1)+b))×(Fi−(a×RDi+b)) n

σSevF req ,

where :

— σSev =Pn i=1

(Si−(a×(CurrentY eari−AY1)+b))2

n .

— σF req =Pn i=1

(Fi−(a×RDi+b))2

n .

— n is the number of the observations of the costs of losses/frequency of losses.

(25)

Some correlation tests were then applied on the assessed residues after the application of a chosen AXA model to check the credibility of found correlations and for the three correlations (Pearson, Spearman and Kendall), the p-value was bigger than 5%, which proves that the hypothesis of a non-null corrélation can be kept. That’s the first argument to prove that the severity and frequency have a non-negligeable structure of dependency.

In a next part, to represents the dependency structure found, we tried to calibrate an optimal copula chosen from other five copulas that have different properties, especially, in the extreme values. We chose the copulas from two copula families ; the elliptical copulas and the archimedian copulas :

— Elliptical copulas

— Guassian copula

— Student Copula

— Archimedean copulas

— Gumbel copula

— Clayton copula

— Frank copula

After creating the empirical Deheuvels copula which represents the joint law of the data, we proceeded to the parametrization of all pre-selected copulas in order to get the closest fit to the observed data. Parametrization was done using two methods :

— Method of maximum of likelihood.

— Method of inversion of Kendall’s tau.

After this parametrization, we proceeded on choosing the optimal copula using four criterias ; two based on distances between copulas (Kolmogorov-Smirnov’s statistic and Cramer-Von Mises statistic) and two others based of information criterias (Akaike Infor- mation Criteria and Bayesian Information Criteria)

Finally, using these criterias, we deduced that the optimal copula is the Frank copula with a parameterθ= 8.954.

Ceci a montré, enfin, que l’hypothèse indépendance fréquence /sévérité qu’on utilise beaucoup dans les calculs statistiques est souvent erronée et pourra résulter à des faux calculs, d’où un impact important sur le minimum de capital économique retenu.

(26)

FIGURE8 – Representation of the density of a Frank copula with a parameterθ = 8.954

(27)

Lexique

STEC : Short Term Economic Capital ce qui est équivalent au SCR pour le modèle in- terne d’AXA.

GRM :Group Risk Management VaR : Value at Risk

QIS : Quantitative Impact Study

Backtesting : Le fait de tester la cohérence d’un paramètre avec un historique connu.

Proxy : Approximation

AY : Accident Years : année de survenance d’un sinistre.

LoB : Line of Business

GES : Gross earned size : le nombre de risques TF ou Tail Factor : Facteur de queue

(28)

Première partie

Introduction : Les différents paramètres de corrélation à calibrer et les concepts

mathématiques de dépendance

(29)

Chapitre 1

Autour de Solvablilité II

Solvabilité II est le nom de du régime prudentiel qui s’applique aux assureurs et aux réassureurs à travers l’Europe. Le but essentiel de ce régime tourne autour d’un niveau de capital (ce qu’on appelle "Une marge de solvabilité") qu’on doit maintenir. Solvabilité II est basée sur trois grands piliers :

Pilier 1 Exigences quantitatives : C’est le pilier qui a l’aspect technique le plus impor- tant et qui sert à calculer les différents capitaux (MCR et SCR) requis pour mainte- nir le bon fonctionnement d’une entreprise d’assurance. Ce mémoire est basé sur ce pilier et il étudie les différents corrélations dont le bon/mauvais calcul peuvent entraîner un impact important positif ou négatif sur le STEC (Equivalent du SCR).

On cherche à vérifiercalibrer certains paramètres (Ici il s’agit des corrélations) pour pouvoir calculer le capital économique et le niveau de risque.

Pilier 2 Gouvernance des risques : C’est le pilier basé sur les exigences "qualitatives"

que doit respecter le capital d’une entreprise. Ici on parle de l’ORSA (Own Risk and Solvency Assessment) et des systèmes de gouvernance qui veillent sur la cohérence du profil de risque avec la situation financière, la conformité des risques ALM avec la réglementation et la production des indicatifs de risques préventifs.

Pilier 3 Discipline de marché : Ce pilier met en évidence les méthodes de communica- tion financière qu’utilise une compagnie pour partager les outils impliquées dans les piliers précédents et leur relation avec son propre capital économique.

(30)

Chapitre 2

Relation entre capital économique et corrélations

Définition SCR : Le SCR est le niveau de fonds propres minimal que doit détenir l’en- treprise pour observer les pertes potentielles qui arrivent une fois par 200 ans. Il corres- pond aussi au niveau de capital à avoir pour une probabilité de ruine de 0.5% dans un horizon d’un an.

Ci-dessous, on trouve les différents risques dont on peut calculer l’SCR. C’est à partir de ces SCR partiels qu’on retrouve ce montant de capital minimum (SCR total) dont l’assu- reur doit disposer pour couvrir ces différents risques encourues :

(31)

En fait, ce schéma représente les différentes parties supposées, par Solvabilité II, exis- tantes à l’intérieur du SCR. D’où, tenir compte des relations de corrélation qui peuvent exister entre ces parties lors du calcul de son capital économique est important. Ci-dessous une version minimaliste du tableau de corrélation donné par la QIS5 :

Ce tableau souligne l’importance de prise en compte des corrélations entre risques afin de calculer l’SCR.

Vu les nouvelles exigences de Solvabilité II, certaines grandes entreprises d’assurance ont consacré un temps énorme pour implémenter différents modèles internes qui servent au

(32)

calcul du capital économique ainsi que les corrélations entre les différents pôles d’assu- rance. C’est la cas du groupe AXA qui a réussi à créer son modèle interne permettant le cal- cul de son STEC. Mais, jusqu’aujourd’hui, les corrélations prises en compte sont données à l’avance. Donc, AXA cherche encore à "challenger" ces corrélations prédéfinies afin de s’adapter au mieux avec la nature de chaque portefeuille, chaque entité, chaque risque...

C’est la problématique que traite ce mémoire dans ses différentes parties.

2.1 Qu’est ce que le STEC ?

Le STEC (Short Term Economic Capital) est l’équivalent du SCR au sein du groupe AXA qui sert à refléter le profil de risque du groupe. Il est basé sur un VaR d’un horizon un an et d’intervalle de confiance de 99.5%. Le modèle du STEC a été créé pour mieux répondre aux exigences de Solvabilité II requises par la réglementation que la formule standard. Il est un élément important dans la gestion du capital et dans la mesure de performance des produits. A un niveau local ainsi qu’au niveau du groupe, les résultats du STEC contribuent à la création des outils de prise de décision majeure tel que le Risk- Appetite, la stratégie de réassurance et la tarification.

2.2 Importance des paramètres de corrélation dans le calcul du STEC :

Tout comme l’SCR, le STEC traite différents risques relatifs à l’activité du groupe AXA.

En parlant de risques techniques, il s’agit de :

— Risques attritionnels et risques atypiques : reliés à la sinistralité traitée par le groupe.

— Risques du portefeuille : reliés aux primes encaissées (Quantification du risque).

— Inflation.

— Réserves : reliés au provisionnements prises en compte par le groupe.

— CAT : reliés aux risques de catastrophes naturelles ; vent, grêle, tremblements de terre, Man-Made (terrorisme, industriel...).

— Contrepartie : reliés au risque de défaut de contrepartie.

— Paramètre de corrélations (Partie autour de laquelle ce mémoire est conçu) : Dans

(33)

le modèle interne d’AXA, on parle de :

* Corrélations entre AY dans le cadre d’une même LoB.

* Corrélation entre fréquence et sévérité dans une même LoB.

* Entre différents LoB pour les risques de Primes et Réserves.

* Entre le couple (Primes, réserves) et le risque CAT

Selon le QIS5, certaines hypothèses sont faites sur le degré de corrélation entre les différents risques cités ci-dessus. On traitera ces hypothèses et les mesures que prend le groupe vis à vis ces dernières en detail dans la section suivante. Pour le moment, on se limitera à montrer l’impact des corrélations, avant et après calibration, sur le montant du STEC approximatif.

Ci dessous un exemple de l’impact sur le STEC des corrélations théoriques1puis des cor- rélations recalculées.

D’après les résultats précédents, on remarque que l’impact des corrélations après cali- bration est très important.Cela nous montre le niveau de prudence des corrélations de la formule standard par rapport au profil du risque d’AXA.Il s’agit de faire l’analyse des dif- férents paramètres de corrélation, d’implémenter la méthode utilisée pour le backtesting et le calibrage sous R, de critiquer les résultats obtenus et ainsi d’envisager de nouvelles approches pouvant améliorer les calculs effectués.

1. Ce qu’on veut dire par théorique (Ici et dans le reste du mémoire) est, en effet, la valeur de corrélation donnée par le modèle interne. Par exemple, selon le modèle interne, la corrélation entre les boni-malis des années d’accidents est présupposée égale à 50%.

(34)

Chapitre 3

Concepts mathématiques de la dépendance :

3.1 Fonction de répartition conjointe et notion de dépen- dance :

Durant les études statistiques, il est souvent important de comprendre la relation entre deux ou plusieurs variables pour avoir une meilleure conclusion d’une analyse effectuée.

Sans prise compte de cette relation, on tombe souvent sur des analyses fausses, d’où des résultats faux.

De nombreuses situations nécessitent de prendre en compte la notion de dépendance sto- chastiques entre variables aléatoires, comme le calcul du capital économiques par exemple, mais aussi la gestion des risques, la tarification (marge pour risque, CDS, ...), la réassu- rance, etc.

Pour cela, la notion de fonction de la dépendance entre deux variable a été introduite ainsi que la notion de fonction de répartition conjointe.

Pour des raisons de simplification des calculs, on suppose que le nombre de variables est égal à 2.

Fonction de répartition conjointe :

SoitX etY deux variables aléatoires sur(Ω, P). La fonctionFX,Y de répartition conjointe deX etY est définie comme suit.

Pour touta, b∈R:

FX,Y(a, b) =P(X ≤a, Y ≤b)

(35)

Fonction de répartition marginale :

On peut déduire la fonction de répartition de X (ou de Y) de la fonction de répartition conjointeFX,Y comme suit :

FX(a) =P(X ≤a) =P(X ≤a, Y <∞)

=P( lim

b→∞{X≤a, Y ≤b})

= lim

b→∞P({X≤a, Y ≤b})

= lim

b→∞FX,Y(a, b) =F(a,∞)

Notion de dépendance parfaite, monotonie et antimonotonie :

On parle de dépendance entre deux variablesX etY si et seulement si il existe un couple (a, b)tel que :

FX,Y(a, b)6=FX(a)FY(b)

Donc, l’indépendance entre deux variables est vérifiée si et seulement si pour tout couple (a, b)∈R:

FX,Y(a, b) =FX(a)FY(b)

Deux risques X etY sont dits en dépendance parfaite s’ils peuvent s’écrire tous deux comme des fonctions croissantes ou décroissantes d’un même risqueZ . Cela sera réalisé si on aX =γ(Z)etY =φ(Z), avecγ etφtoutes deux croissantes ou toutes deux décrois- santes, ou encore l’une croissante et l’autre décroissante.

Un couple (X, Y) est dit comonotone s’il existe deux fonctions croissantes f et g et une variable aléatoireZ vérifiant :

(X, Y)∼ 1(f(Z), g(Z))

Un couple X = (X, y) est dit antimonotone s’il existe deux fonctions monotones f et g, l’une croissante et l’autre décroissante, et une variable aléatoire Z vérifiant :

(X, Y)∼(f(Z), g(Z))

Exemples :

— On suppose qu’on a un call et un put européens de même date d’exercice et notons

1. suit la même loi que

(36)

T le cours du sous- jacent à terme.

SiKcdésigne le prix d’exercice du call (resp.Kp celui du put), la valeur de l’option à la date d’exercice Vc = max(0, T −Kc)(resp. Vp = max(0, Kv−T)). Ceci montre que les variables aléatoiresVcetVp sont antimonotones.

— La comonotonie s’introduit naturellement dans les contrats comportant un partage de risque entre assureur et réassureur.

On suppose qu’on a ici deux traités stop-loss correspondant à deux tranches de montant différents. Le premier couvre la tranche[a, a+k[et le deuxième la tranche [b, b+h[, oùa, b≥0.

Soit X le montant global des sinistres d’une ligne de business, alors les montants

correspondants à la charge du réassureur sont respectivementX[a, a+k[=min(k, max(0, X− a))etX[b, b+h[=min(h, max(0, X−b)). On conclut, donc, que(X[a, a+h[, X[b, b+

k[)est donc comonotone.

3.2 Mesures de dépendance :

3.2.1 Définition :

Lorsqu’on parle des mesures de dépendance, la notion de corrélation est bien ancrée dans l’inconscient collectif.

Mais, d’une façon plus générale, une mesure de dépendance est une application qui as- socie à deux variables aléatoires un réel permettant de quantifier la force de la relation qui leur lie. Une mesure de dépendance doit satisfaire cinq conditions. Une mesure de dépendanceψdoit être :

(1) Normée :|ψ(X, Y)| ≤1, ∀(X, Y)

(2) Symétrique :ψ(X, Y) =ψ(Y, X), ∀(X, Y)

(3) Invariante par transformationf, oùfest une fonction réelle strictement croissante : ψ[f(X), f(Y)] =ψ(X, Y), ∀(X, Y)

(4) ψ(X, Y) = 1 ssi (X, Y)est comonotone et ψ(X, Y) = −1ssi (X, Y) est antimono- tone.

(5) Nulle siXetY sont deux variables indépendantes ;ψ(X, Y) = 0

(37)

3.2.2 Corrélation=Mesure de dépendance ?

Les coefficients de corrélation permettent de donner une mesure synthétique de l’in- tensité de la relation entre deux caractères et de son sens lorsque cette relation est mono- tone.

Corrélation linéaire (Corrélation de Pearson) :

La mesure de corrélation de Pearson mesure le degré de liaison linéaire entre deux variables quantitatives. Pour la corrélation de Pearson, une valeur absolue de 1 indique une relation linéaire parfaite. Une corrélation proche de 0 indique l’absence de relation linéaire entre les variables.

Le coefficient de corrélation linéaire de deux caractèresX etY est égal à la covariance de X etY divisée par le produit des écarts-types deXetY.

ρP earson = CoV(X, Y) σXσY

Le signe du coefficient indique la direction de la relation. Si les deux variables ont ten- dance à augmenter ou à diminuer ensemble, le coefficient est positif, et la ligne qui repré- sente la corrélation s’incline vers le haut. Si une variable a tendance à augmenter lorsque l’autre diminue, le coefficient est négatif, et la ligne représentant la corrélation s’incline vers le bas.

Ainsi, nous pouvons voir que le coefficient de corrélation linéaire de Pearson ne vérifie que (1), (2) et (5) de la définition précédente. De ce fait, il ne peut être considéré comme une mesure de dépendance.

Corrélations de rangs :

Corrélation de Spearman : Le coefficient de corrélation de Spearman,ρSpearman, mesure la liaison monotone entre 2 variables. Il est calculé sur les rangs des variables. Si on note, (ri, si)les rangs de(xi, yi)dans(X, Y), un couple de variables aléatoires,i∈1, .., n(n=taille de l’échantillon) alors on a :

ρSpearman = 1− 6Pn

i=1(ri−si)2 n(n2−1)

(38)

Pour des variables aléatoires(X, Y)de marginalesFX etFYSpearmanest défini, aussi, par le coefficient de corrélation linéaire deFX(X)etFY(Y).

ρSpearmanP earson((FX(X), FY(Y)))

Il est donc égal au coefficient de corrélation linéaire de Pearson appliqué aux fonctions de répartition deX etY.

Ainsi, nous pouvons voir que le coefficient de corrélation Spearman vérifie toutes les propriétés de la définition précédente. De ce fait, il ne peut être considéré comme une mesure de dépendance.

Corrélation de Kendall : Le Tau de Kendall est une mesure de corrélation des rangs . Il s’agit d’une mesure de concordance qui est définie comme suit :

Soit(X, Y)et(X0, Y0)deux couples de variables aléatoires indépendantes et identique- ment distribuées. On a alors :τ(X, Y) =P[(X−X0)(Y−Y0)>0]−P[(X−X0)(Y −Y0)<0]

Cette définition permet d’écrire, pour un échantillon de données(xi, yi),1≤i ≤n, un es- timateur naturelτˆpourτ. On peut en effet poser :

ˆ

τ(X, Y) = 2 n(n−1)

n

X

i=2 i−1

X

j=1

signe[(xi−xj)(yi−yj)]

oùsigne(x) = 1six >0et−1sinon.

3.2.3 Trois idées fausses à rejeter :

1 La corrélation et la dépendance sont deux notions équivalentes.

Faux : Par exemple, la corrélation linéaire de Pearson a pour objectif de quantifier que le degré de dépendance linéaire entre 2 variables aléatoires. Donc, la corréla- tion obtenue par cette mesure est souvent erronée lorsque la distribution de don- nées n’est pas bi-normale.

Déduire de l’existence d’une corrélation entre deux séries de données une relation de causalité entre les deux variables constitue une erreur de raisonnement : l’exis- tence de la corrélation implique simplement que les deux variables ne sont pas indépendantes, mais ne renseigne en rien sur un éventuel lien de causalité.

La référence au taux de corrélation pour mesurer l’intensité de la dépendance entre variables aléatoires est très contestable et l’usage de cette mesure conduit à des

(39)

erreurs d’interprétation récurrentes.

2 Les distributions marginales et les corrélations linéaires deux à deux déterminent la distribution jointe.

Faux : En effet, siXetY ont des marginales continuesFX etFY et une distribution jointeC(FX, FY)pour une copule C. Si leur coefficient de corrélation est ρ, alors il est possible de trouver une autre copuleC0 différente deC et de trouver une paire de variablesAetB de distribution jointeC0(FX(a), FY(b))et de même corrélation.

Exemple :

Soit X suit une loi normaleN(0, I2)et (Z, T) = (X, V X)avecP(V = 1) = P(V =

−1) = 0,5.(Z, T)a aussi des marginales normales et une corrélation nulle.

3 Pour des distributions univariées données FX et FY et un facteur de corrélation ρ∈[−1,1], il est toujours possible de construire une distribution jointe F de margi- nalesFX etFY et de corrélationρ.

Faux : Les corrélations atteignables peuvent former un sous-ensemble strict de l’in- tervalle[−1,1].On peut, donc, avoir des variables aléatoires comonotones avec une très petite corrélation linéaire.

3.3 Théorie des copules :

L’introduction de la théorie de copules a été faite par Aber Sklar en 1959. Il s’agit donc d’un outil statistique qui non seulement structure une forme et un niveau de dépendance entre deux ou plusieurs variables aléatoires, mais permet une réécriture non-biaisée de la fonction de répartition jointe sans prenant compte le fait que les variables soient indépen- dantes ou non. C’est ainsi que cette théorie commença à prouver son importance dans la modélisation des distributions multivariées en assurance et en finance.

L’exemple qui a toujours servi comme modèle est la distribution normale multivariée vu la simplicité relative des calculs et le fait que la dépendance est entièrement déterminée par le coefficient de corrélation. Malheureusement, la loi normale s’ajuste mal à certains problèmes en assurance.

La copule à 2-dimensions n’est autre que la fonction de répartition de deux variables aléatoires (X1, X2), dont les marginales sont contraintes à être de loi continue uniforme sur [0,1].

Ce concept a l’avantage d’être un outil puissant et flexible dans la mesure où il permet de modéliser la dépendance sans tenir compte de l’effet du comportement des marginales,

(40)

c’est-à-dire des fonctions de répartition F1, F2 des variables aléatoiresX1, X2 prises indi- viduellement.

3.3.1 Définitions et théorèmes fondamentaux :

Définition d’une fonction copule :

Une copule C à 2 dimensions est une fonction de répartition bivariée dont le domaine est :

— En cas de fonctions marginales continues :[0,1]2

— En cas de fonctions marginales discrètes :S1×S2oùS1, S2sont des sous ensembles de[0,1]contenant 0 et 1.

et elle vérifie les propriétés suivantes :

— C est caractérisée "grounded", c’est à dire,

C(0, u) =C(v,0) = 0pour tout u et v∈[0,1]

— Les marges de C sont uniformes :

C(u,1) =u et C(1, v) = v

— pour toutuetv ∈[0,1]2 si les marges sont continues.

— pour toutuetv ∈S1×S2sinon.

— C est supermodulaire, autrement dit, si u1, u2, v1 et v2 ∈ [0,1] si les marges sont continues (sinon siu1et u2∈S1 et v1et v2∈S2),

C(u2, v2)−C(u2, v1)−C(u1, v2) +C(u1, v1)≥0 Réciproquement, une fonction vérifiant ces trois propriétés est une copule.

On peut également donner une définition des copules à l’aide des probabilités.

Soient U1 et U2 deux variables aléatoires uniformes sur [0,1]2, alors on a C(u1, u2) = P(U1 ≤u1, U2 ≤u2), pour tout(u1, u2)in[0,1]2.

Cette définition probabiliste assure donc que la copule est une distribution de probabilité avec des marges uniformes. Dans la pratique, on ne travaille donc plus avec les réalisa- tions des v.a.r. mais avec les uniformes empiriques.

Autrement dit, on transforme les réalisations(X1, ..., Xn)en uniformes empiriques(u1, ..., un)

(41)

oùui = Rang(Xn+1 i) pour i ∈ (1, .., n). La copule devient alors la fonction liant les rangs des observations.

Théorème central : Le théorème de Sklar 1959 :

SoientX etY des v.a.r. de f.r.FX etFY et de f.r. jointeFX,Y.

Dans ses travaux, Sklar a montré le théorème central qui a permis le développement de la théorie des copules. Ce théorème précise le lien défini par la copule C, entre les fonctions de répartition marginales uni- variéesFX etFYet la distribution complète bi-variéeFX,Y. Sous l’hypothèse de continuité des fonctions marginales FX et FY, il existe une unique copule C telle que :

— On a :

FX,Y(x, y) =C(FX(x), FY(y)),∀(x, y)∈R

— Réciproquement, si C est une copule et si FX et FY sont des fonctions de réparti- tion univariées, alors la fonctionFX,Y(x, y) = C(FX(x), FY(y))est une fonction de répartition bivariée des marginalesFX etFY.

Remarque : Lorsque les marginales ne sont pas continues, il est toujours possible de définir une copule, mais celle-ci n’est plus unique et perd beaucoup d’intérêt. On peut en effet toujours poser :

C(u1, u2) =F(FX−1(u1), FY−1(u2))

Ce cadre présente son importance en pratique pour les applications à l’assurance et à la finance dans le sens où il indique que dans le cadre d’une analyse d’une problématique bivariée. On pourra, ainsi, passer par les étapes suivantes :

— L’identification desFX etFY.

— Le choix d’une copule qui présente le mieux la structure de dépendance.

Densité d’une fonction copule :

Si elle existe, la densité d’une copule se définit par : c(u, v) = ∂2C

∂u∂v(u, v)

(42)

On peut donc en déduire la densité f de la variable aléatoire Z=(X,Y) : f(x, y) =c(FX(x), FY(y))×Y

fX(x)fY(y) OùfX etfY sont respectivement les densités deX etY.

3.3.2 Copules utilisées dans ce mémoire :

L’objectif de notre étude est de trouver une copule paramétrique adaptée à la structure de dépendance entre la fréquence et sévérité de certaines lignes de business. La recherche de la copule optimale est réalisée sur un ensemble de cinq copules sélectionnées a priori et présentées dans cette section. La flexibilité, la simplicité analytique et la diversité des formes de dépendance sont, entre autres, les critères du choix de ces copules. Cet ensemble présélectionné comprend deux familles de copules. On retrouve ainsi deux copules de la famille des copules elliptiques et trois copules de la famille des copules archimédiennes.

— Copules elliptiques

— Copule Gaussienne

— Copule de Student

— Copules archimédiennes

— Copule de Gumbel

— Copule de Clayton

— Copule de Frank

(43)

Deuxième partie

Calibration des corrélations entre les années de survenance dans le risque de

réserve d’une LoB

(44)

Chapitre 4

Présentation de la problématique :

On a vu dans les chapitres précédents que l’effet de mutualisation entre les années de survenance de sinistres ou entre la fréquence et la sévérité des pertes futures est important dans la calibration des risques de primes et de réserves. Puisque le risque de réserves est calculé par AY, on devra prendre en considération la dépendance qui peut exister entre ces AY pour éviter la sous-estimation de ce risque, mais aussi la sur-estimation du risque puisque le but de Solvabilité II et d’AXA elle même est d’être le plus proche de la réalité.

On a parlé dans des sections précédentes du fait que, selon le modèle DFA, la variabilité du boni-mali est projeté en supposant qu’il y’a une corrélation de 50% entre ces AY. Dans ce premier exemple pratique, une étude a été menée dans l’équipe P&C du GRM pour essayer d’implémenter un programme sous le logiciel statistique R afin de tester puis ca- librer les corrélations théoriques de 50% déjà évoquées. Cette méthode pratique est basée sur l’article de Merz et Wüthrich qui traite les triangles de données en leur forme ultime que nous expliquerons dans les sections suivantes.

4.1 Notations utilisées :

Dans cette étude, pour une meilleure approche de la réalité du comportement des cor- rélations, les calculs ont été fait sur les triangles Paid1 et Incurred2 de 20 entités d’AXA des années N, N-1 et N-2. Par exemple, si on prend un triangle qui contient les valeurs des charges de l’année 2001 à l’année 2015, le triangle N-1 est en fait, le même triangle N mais en enlevant la dernière diagonale correspondante à l’année 2015. De même, le triangle N-

1. Triangle des payements

2. Triangle des charges : Payements + charges dossier/dossier

Références

Documents relatifs

2) On suppose que l’énergie mécanique est conservée et que la bille quitte le ressort quand celui-ci reprend sa longueur à vide l 0. Faire le bilan des énergies transmises en entre

Dans cet article, nous considérons le problème de la cal- ibration géométrique dt’un projecteur vidéo à l’aide dt’un plan (mur) non marqué et dt’une caméra partiellement

Calibration of the Proposed 5 th International Standard for Thromboplastin, human, recombinant, plain (rTF/16; study code 14/001) and the Proposed 5 th International Standard

[r]

On obtient un intervalle de dates en années réelles, plus ou moins étendu suivant la précision de la mesure et la séquence de la courbe de calibration

In three different models: local and stochastic volatility, local correlation and hybrid local volatility with stochastic rates, this calibration boils down to the resolution of

Découvrir du monde GS (numération): associer le nombre à la quantité.. Consigne : Colorie la case qui indique le bon

Si c’est correct, le joueur peut avancer du nombre de cases indiqué sur le dé de la carte. Sinon, il reste à