• Aucun résultat trouvé

Étude de cas 1. Inondations

Évaluation des risques liés aux inondations

Il existe une panoplie de méthodes permettant d’apprécier les différents éléments du risque d’inondation sur un territoire donné (étendue des zones inondables, les caractéristiques hydrauliques de la submersion, etc.).

La modélisation est une approche très répandue. Il s’agit de simuler l’écoulement et le débordement des cours d’eau pour des crues réelles (observées dans le passé) ou théoriques (jamais observées), et pour différents états physiques du lit et du champ d’inondation. Les modèles peuvent être physiques (maquettes) ou mathématiques, ces derniers ayant fait d’énormes progrès ces dernières années, parallèlement à l’augmentation constante de la puissance de calcul des ordinateurs.

La modélisation mathématique consiste à reproduire par le calcul les cotes et l’extension d’inondations connues (calage du modèle) puis à simuler le passage de débits imposés, généralement plus importants, pour délimiter la zone submergée et définir les hauteurs d’eau correspondantes (exploitation du modèle).

Ces modèles ne visent pas à reproduire exactement l’événement réel. Ils comportent des marges d’erreur et d’incertitude qui varient selon les échelles utilisées et la précision avec laquelle sont connus les divers paramètres nécessaires à leur élaboration (notamment la topographie). Les modèles mathématiques de portée globale ne peuvent pas rendre compte de la topographie locale. Les systèmes de traitement des eaux de pluie sont rarement pris en compte dans les modèles. La modélisation des écoulements en milieu urbain est délicate. Celle du transport solide l’est également, ce qui rend aléatoire la simulation des crues des torrents de montagne.

L’analyse hydrologique statistique est essentielle pour caractériser l’occurrence de la crue analysée. Le débit des crues rares, en particulier, est estimé en extrapolant des ajustements statistiques. La pertinence des résultats d’un modèle est donc également tributaire de la qualité de l’analyse hydrologique. Enfin, les méthodes de modélisation mathématique ou physique sont relativement lourdes et coûteuses.

Il existe d’autres techniques de détermination des aléas, plus légères. La méthode hydrogéomorphologique s’appuie sur l’analyse des formes de relief façonnées par le cours d’eau pour délimiter les surfaces inondables par les plus grandes crues et celles qui seraient submergées par des crues plus fréquentes.

L’analyse morphologique permet de construire un modèle simple du milieu alluvial grâce à la détermination précise des divers types de lits (mineur, moyen, majeur) qui correspondent chacun à une catégorie de débits : moyen annuel, de crue fréquente et de crue exceptionnelle. Quant à l’analyse historique, elle consiste à rechercher dans les archives des descriptions des plus grandes crues observées pour en déduire les zones qui seraient probablement affectées dans les conditions présentes.

Le couplage de ces méthodes avec les systèmes d’information géographique (SIG) permet des croisements intéressants avec les données administratives et socio-économiques, notamment, d’où une communication plus satisfaisante des résultats aux décideurs et au grand public.

Ce volet « communication » est fondamental – pour que les acteurs locaux intègrent la notion de risque dans leur culture – mais, pour autant, la modélisation ne va pas sans inconvénients : son caractère « scientifique » peut laisser croire – aux non scientifiques – que les résultats du modèle correspondent à la réalité. A l’évidence, rien n’est moins vrai. Certes, la modélisation permet un certain niveau de

« prédiction », mais elle n’est pas à l’abri d’erreurs et la transcription sur plan des résultats obtenus est parfois incertaine.

Le risque – fréquemment observé – est de vouloir faire découler

« mécaniquement » un zonage réglementaire à partir des résultats du modèle.

Évaluation de la variabilité climatique

L’évolution du climat de la planète est déterminée par l’action de l’atmosphère, des océans, de la biosphère terrestre, de la cryosphère (comprenant la glace marine, les glaciers et la couverture neigeuse) et la terre émergée. Par conséquent, une représentation des phénomènes climatiques à l’échelle mondiale doit modéliser chacun de ces éléments, ainsi que leurs interactions. Notre connaissance de ces interactions et, partant, notre capacité à simuler les évolutions climatiques se sont considérablement améliorées ces dernières années. Dorénavant, les simulations mathématiques font appel à un large éventail de modèles climatiques qui varient en fonction, entre autres, de la précision avec laquelle sont modélisés les divers éléments (les nuages, par exemple), de leur résolution spatiale (c’est-à-dire du nombre de points de référence représentant les conditions climatiques), et de leur complexité globale.

Cependant, un modèle intégrant toutes les connaissances disponibles relatives au système climatique est totalement inenvisageable à ce jour. C’est pourquoi il est d’usage de simplifier les modèles, notamment en remplaçant la modélisation détaillée de certains processus par des paramètres estimés de façon empirique, afin d’obtenir des représentations fiables, et en même temps exploitables, des phénomènes climatiques utiles pour une question déterminée. Les projections de la concentration en CO2 dans l’atmosphère, par exemple, mettent l’accent sur le cycle du carbone, c’est à dire les échanges de CO2 entre l’atmosphère, les océans et la biosphère terrestre (Groupe d’experts intergouvernemental sur l’évolution du climat, 2000).

Un large éventail de catastrophes naturelles, en particulier les inondations, les tempêtes de vent, les tempêtes de verglas et les sécheresses, sont liées à la fréquence et à l’intensité d’événements climatiques extrêmes, et plus généralement à la variabilité climatique. Les prévisions concernant les conditions climatiques moyennes donnent de plus en plus à penser que la probabilité de tels événements extrêmes augmentera dans de nombreuses régions du monde pendant le vingt et unième siècle. La concentration de vapeur d’eau dans l’atmosphère devrait grimper de façon exponentielle du fait de l’augmentation des températures imputable au réchauffement planétaire, d’où un accroissement du nombre et de l’intensité des épisodes de fortes précipitations. En conséquence, les inondations, glissements de terrains, coulées de boue et phénomènes d’érosion des sols devraient se multiplier dans l’avenir. Les autres dangers dont l’aggravation est prévisible sont notamment : les sécheresses dans la plupart des zones continentales situées dans les latitudes moyennes, les cyclones tropicaux, et les moussons d’été en Asie (Groupe d’experts intergouvernemental sur l’évolution du climat, 2001).

Cependant, prévoir plus précisément les changements qui affecteront dans le long terme la variabilité des conditions météorologiques dans une aire limitée suppose des modèles très détaillés et complexes où viennent s’ajouter aux modifications moyennes à l’échelle planétaire une batterie de facteurs spécifiques, tels que l’action des aérosols (dont les concentrations peuvent varier très fortement selon les régions), l’influence des vents et des courants océaniques, ou la rétroaction à partir des nuages et la couverture

neigeuse (Groupe d’experts intergouvernemental sur l’évolution du climat, 1997).

Certaines des interactions fondamentales, telles que celles qui se produisent entre les océans et l’atmosphère sont encore mal comprises. En outre, l’échelle des événements les plus extrêmes est plus petite que le maillage des modèles mathématiques, même ceux dont la résolution est la plus élevée. La caractérisation de la variabilité climatique décennale à centennale demeure un thème de recherche de première importance (National Research Council, 1998). Aussi, selon un rapport sur les conséquences du changement climatique pour l’Europe, les politiques ne peuvent pas actuellement se fonder sur des évaluations spatialement complètes des menaces régionales susceptibles de se matérialiser dans l’avenir (Parry, 2000).