• Aucun résultat trouvé

I.3. Etat de l’art des outils mis à disposition de la profession

I.3.2. Les outils de modélisation de catastrophes

Les sociétés ont à l’heure actuelle du mal à percevoir ce qu’il est possible de faire en interne avec ces données sur les aléas qui sont pour l’essentiel des données publiques, spécialisées sur les aléas, avec des degrés plus ou moins importants d’hétérogénéité d’un territoire à un autre ou d’un producteur à un autre : pour des professionnels de l’assurance non spécialisés en hydrologie ou en géotechnique il est difficile de s’approprier des informations pour les utiliser sur un plan opérationnel. C’est pourquoi sur des besoins ciblés, comme par exemple la négociation de traités de réassurance, les sociétés d’assurance sous-traitent la modélisation à des sociétés privées spécialisées dans la modélisation des catastrophes reposant sur une approche probabiliste. Cette pratique est généralisée dans les pays anglo-saxons mais pas encore utilisée en France. L’absence d’outil probabiliste de modélisation des catastrophes en

France s’explique par la nature même du système de l’assurance des risques naturels français où l’Etat est le producteur unique de données de référence sur les aléas naturels et il contrôle la réassurance puisque il se porte garant financièrement via la CCR sur tous les aléas naturels faisant partie du régime catnat (inondations, sécheresse, séisme, mouvements de terrain, etc.).

I.3.2.i. Les modèles probabilistes de catastrophes

Les modèles probabilistes de catastrophes sont des outils proposés pour évaluer les dommages sur des portefeuilles d’assurés et calculer des probabilités annuelles de survenance d’événements catastrophiques. On distingue notamment des agences privées anglo-saxonnes telles que AIR [AIR, 20008], EQECAT [EQECAT, 2008] et Risk Management Solutions [RMS, 2008], des courtiers en réassurance se spécialisant sur certains aléas naturels tels que Guy Carpenter, Benfield, ou Willis et des réassureurs ayant décider d’investir sur la conception de leurs propres systèmes de modélisation [SwissRe, 2008], [MunichRe, 2008]. Les premiers développements de la modélisation géographique des risques à l’usage de l’assurance ou de la réassurance sont d’abord apparus sur les événements climatiques aux Etats-Unis suite à l’Ouragan Hugo en Floride et le séisme de Loma Prieta en Californie et ont ensuite été introduits en Europe à la suite des nombreuses tempêtes du début des années 90. Les tempêtes et les cyclones représentent la cause des dommages assurés les plus importants en Europe et aux Etats-Unis. En France, les tempêtes Lothar et Martin en 1999 ont renforcé la sensibilisation des entreprises d’assurance et de réassurance à la mesure de l’exposition de leurs portefeuilles du point de vue géographique.

L’objectif de ces modèles est de fournir des probabilités sur des montants de pertes annuelles sur un seul sinistre extrême (Occurrence Exceedance Probability curve) et sur l’agrégation de montant de sinistres probables entraînant le dépassement de seuils de pertes (Aggregate Exceedance Probability curve) [Kunreuther et al., 2005], [Brehm, 2007]. Ces éléments permettent ensuite de définir la prime pure de la société d’assurance cédante, la limite et les incertitudes associées pour pouvoir ensuite consolider le traité de réassurance conclu entre l’assureur et le réassureur sur un portefeuille d’assurés donné.

Les outils proposés sont généralement composés de plusieurs modules mobilisant plusieurs profils de compétence comme des ingénieurs spécialisés dans la constitution de courbes de vulnérabilité, des scientifiques, des géophysiciens mais aussi des économistes et des analystes financiers. On trouve en général trois modules :

- Module Aléa : L’exposition aux aléas naturels dépend de la répartition géographique, de la fréquence d’occurrence et de l’intensité des événements. D’une part sont pris en compte des inventaires d’événements antérieurs et d’autre part des connaissances scientifiques concernant les propriétés physiques des aléas. Afin de disposer d’un échantillon significatif d’événements catastrophiques pour établir des probabilités d’occurrence, ce module utilise un moteur stochastique pour simuler des événements calibrés en fonction des événements historiques observés ayant des propriétés physiques et une trajectoire géographique comparable. Chaque événement a donc une probabilité de survenance, une trajectoire géographique et des paramètres caractérisant l’intensité sur toutes les portions géographiques qui le compose : pour les événements

cycloniques il s’agira de la vitesse et de la direction du vent, pour les phénomènes de crue il s’agira du débit, du volume de précipitation, de la hauteur d’eau calculée à partir des caractéristiques du sol, enfin pour les séismes il s’agit de prendre en compte la distance à l’épicentre.

- Module Vulnérabilité : Pour une même intensité de l’aléa, on constate que l’ampleur des dommages occasionnés peut être très diverse : les dégâts subis par des bâtiments sont plus ou moins importants selon le type de construction, leur ancienneté ou leur hauteur. Le contenu du bâtiment est aussi important. Le taux moyen de sinistralité (« mean damage ratio ») est le montant total du sinistre par rapport à la valeur totale de tous les objets d’assurance dans la zone considérée. Il dépend donc de l’intensité du phénomène et des spécificités des objets assurés. Ainsi on définit une multitude de courbes de vulnérabilité ou encore appelées « courbes d’endommagement » qui expriment le rapport entre l’intensité et le taux moyen de sinistralité. Ces courbes de vulnérabilité sont appliquées pour chaque type de bâtis, d’activités ou de biens contenu dans le portefeuille d’assurés à analyser en appliquant l’impact de chaque événement simulé (intensité de crue, tempête, séisme) sur les localisations géographiques des sites assurés.

- Module Finance : Afin de déterminer les montants financiers des pertes potentielles, il s’agit de rattacher la valeur de remplacement des dommages ainsi que les conditions d’assurance correspondantes pour chaque lieu de risque balayé par l’événement (primes, limites de garantie, franchise). Ainsi il est possible de déterminer le sinistre brut et le sinistre net pour l’assureur. Ces conditions s’appliquent à des couvertures d’assurance individuelles comme les logements des particuliers ou à plusieurs couvertures d’assurance concernant un même lieu comme les professionnels ou les entreprises (machines, stocks, marchandises et pertes d’exploitation).

La combinaison de ces trois modules sur un portefeuille d’assurés permet d’obtenir en sortie des courbes de fréquence des sinistres (cf. figure 9). Les sociétés d’assurance n’ont qu’à fournir, aux organismes utilisant ces modèles, les données sur leurs assurés avec les conditions d’assurance ainsi que leur localisation géographique (au zipcode le plus souvent). Ces informations sont ensuite disposées sur une grille spatiale de haute résolution où chaque cellule contient les propriétés relatives à l’aléa et à la topographie.

Figure 8 - Illustration de la méthode de modélisation probabiliste des catastrophes pour le secteur de l’assurance et de la réassurance [SwissRe, 2007]

L’ensemble de la profession à l’international salue la pertinence des outils et les moyens mis en œuvre sur ces thèmes. Cependant il est aussi admis que ces outils présentent des limites. La principale repose essentiellement sur l’incertitude des probabilités résultant de ces simulations. James Orr, spécialiste de la modélisation de catastrophe à la Lloyd’s of London, estime qu’une des principales sources d’amélioration concerne les périodes de retours des événements [Orr et al., 2003]. James Orr souligne les insuffisances de ces modèles :

- insuffisance de données homogènes, précises et longues sur les périls : des appareils de mesures ont été ajoutés pour l’analyse des séismes et des tempêtes depuis quelques décennies ce qui complique l’analyse de séries longues ;

- insuffisance des informations : manque d’information sur les sinistres par exemple pour le calibrage de fonctions d’endommagement. Il est alors nécessaire de reconstituer ces fonctions sur différentes hypothèses ou bien d’utiliser des fonctions d’endommagement d’autres pays en faisant des recoupements hydrologiques, atmosphériques ;

- imperfection de la connaissance de certains périls : apparition de tempêtes et les phénomènes induits par les inondations (remontée progressives de nappes phréatiques, affaiblissement de fondations de bâtiments) ;

- informations insuffisantes en matières d’exposition : problème de localisation des enjeux ; le risque est souvent localisé par l’adresse du souscripteur et non par l’adresse du bien lui-même. Par ailleurs le découpage administratif au code postal ou à la commune ne permet pas une localisation précise. Les valeurs assurées en terme de bâti sont souvent mal ou non évaluées car la tarification est faite au nombre de pièces sans présager de la valeur de reconstruction du bâtiment.

Dans la pratique les résultats des simulations sont utilisés dans les pays anglo-saxons comme support à la discussion et à la négociation entre assureurs et réassureurs sur les catastrophes naturelles car il s’agit d’outils riches en information permettant de donner plus de lisibilité sur l’impact potentiel des aléas. En France, du fait de la complexité des données (hétérogénéité, absence dans certains départements, etc.) et du fait de la structure du régime d’indemnisation, les principaux périls que sont les inondations et la sécheresse ne sont pas modélisés par les agences spécialisées dans le domaine. La réforme du régime pourrait pousser ces compagnies à investir pour homogénéiser les données afin de mettre en place des modèles probabilistes.

I.3.2.ii. La modélisation des catastrophes en France

A la demande des pouvoirs publics, la Caisse Centrale de Réassurance a initié en 1997 un programme d’analyse des indemnisations avec la participation des assureurs. La CCR a réalisé une modélisation interne pour reconstituer une partie de l’historique des événements catastrophiques. Le processus comprend trois étapes distinctes :

- la création du catalogue des événements ;

- la transformation de chaque événement du catalogue en montant de sinistres ;

- l’interprétation en termes de prix de la fonction de répartition des sinistres. L’objectif de la modélisation est de répondre à trois objectifs :

- concourir au développement de la prévention ;

- évaluer l’engagement de l’Etat ;

- garantir l’équilibre à long terme du régime d’indemnisation.

Suivant le type d’aléa, le catalogue d’événements est constitué sur une base historique ou bien sur une base probabiliste. Concernant les inondations il y a débat sur le choix d’un catalogue historique ou probabiliste. La réalité historique fait apparaître une répétition d’événements d’ampleur moyenne de l’ordre de quelques centaines de millions d’euros. Ces répétitions se sont faites souvent dans les mêmes bassins hydrographiques. Les scientifiques ont plutôt développé leurs activités en direction des événements de période de retour centennale, bicentennale, cinqcentennale. Il s’agit donc de prioriser les événements suivant leur période de retour ; si l’on reste sur des périodes trop grandes on restera sur une approche purement historique ou déterministe, dans le cas contraire si l’on prend des périodes de retour trop courtes alors le risque est de ne pas prendre en compte les catastrophes mais seulement les risques de moyen ampleur. Le débat ne semble pas être tranché.

Ainsi à partir de la collecte d’informations sur les portefeuilles de risques assurés et les sinistres auprès de chaque société participante la CCR a mis au point deux outils : ATHENA (Analyse et Traitement de l’Historique des Evènements Naturels Assurés) et ARTEMIS (Analyse des Risques Traités par Evènements, Modélisation Informatique et Statistique). ATHENA a le double objectif de contribuer à une meilleure appréciation des engagements des sociétés, de la CCR et de l’Etat, et de permettre une modélisation des catastrophes naturelles. Les données brutes des sociétés d’assurances sont compilées et extrapolées pour obtenir une base de marché et permettent un retour d’expérience sur les événements récents. Le projet ARTEMIS consiste à modéliser plus finement les catastrophes naturelles relevant du régime, et les charges de sinistres qu’elles ont engendrées. Les objectifs sont d’estimer le coût

d’un événement et d’évaluer l’exposition de l’État, de la CCR et des sociétés d’assurance, notamment par la simulation d’événements historiques de référence sur les portefeuilles actuels, comme l’inondation de Paris en 1910 par exemple. Ces outils se composent de données statistiques géoréférencées soient à l’adresse soient à l’échelle d’un îlot de l’INSEE soient à l’échelle d’une commune. Le module d’aléa utilise pour chaque événement reconstitué des données pluviométriques de Météo France, des données hydrométriques du MEEDDAT et enfin des données topologiques permettant en tout point de la zone affectée de calculer une hauteur d’eau [Bidan, 2007], [Blondeau et al., 2004]. Cette approche est limitée à la reconstitution uniquement de quelques événements naturels de grandes ampleurs tels que la crue du Rhône, les crues du Gard en 2002 ou encore la crue de la Seine de 1910. Le reste du réseau hydrographique n’est pas couvert.

I.3.3. Les outils de diagnostic et de zonage du risque pour le

Documents relatifs