• Aucun résultat trouvé

A.2.1 Généralités sur les approches probabilistes

La recherche de lois de probabilité décrivant directement les phénomènes aléatoires extrêmes a connu de nombreux développements de part les enjeux qu’elle représente pour la gestion des risques qui leur sont associés (naturels mais aussi économiques, sociologiques et autres). Une branche des statistiques s’est donc intéressée au domaine des valeurs extrêmes en développant des lois théoriques fondées sur la théorie dites des valeurs extrêmes [Stuart. Coles, 2001]. Ces lois, utilisées en hydrologie, sont présentées dans de nombreux ouvrages destinés à des applications concrètes d’ingénierie [Chow et al., 1988; Lang and Lavabre, 2007; Llamas, 1993].

L’ajustement d’un modèle probabiliste (loi de probabilité) passe par différentes étapes qui multiplient les chemins pour estimer l’aléa : choix de la variable, choix de la méthode d’échantillonnage, choix de la loi de probabilité, choix de la méthode d’ajustement des paramètres,… (Figure 2).

Figure 2 : Etapes associées à l’ajustement d’une loi de probabilité.

A partir d’une série chronologique, l’objectif est bien d’aboutir à une distribution de probabilité théorique en adéquation avec la distribution de fréquence empirique de la variable étudiée. Parmi les étapes à réaliser, les options qui s’offrent à l’hydrologue sont nombreuses :

a) L’échantillonnage de la variable d’intérêt : l’étude d’un phénomène hydrométéorologique se fait généralement à partir de chroniques d’observations du phénomène, à un pas de temps donné (parfois variable). Pour l’étude des caractéristiques extrêmes du phénomène, des valeurs maximales sont échantillonnées à partir de ces observations. Ces valeurs maximales peuvent être échantillonnées de deux façons : un échantillonnage de valeurs maximales par bloc (la chronique est découpée en périodes d’observations définies sur lesquelles la valeur observée maximale est extraite) ou un échantillonnage par valeurs supérieures à un seuil élevé (toutes les valeurs supérieures à un seuil suffisamment élevé, pour ne retenir que les valeurs « record » indépendantes entre elles). Les valeurs maximales ainsi échantillonnées seront alors considérées comme les réalisations d’une variable aléatoire dont on cherchera à identifier la distribution de probabilité par l’ajustement d’une loi de probabilité théorique. Au-delà de la méthode d'échantillonnage, il est bien clair que l'échantillon est tributaire des caractéristiques de la période d'observation, c’est à dire de sa durée (plus la durée d’observation sera grande, plus l’échantillon sera représentatif) et de sa position par rapport à des successions d'années sèches et humides (bien que les hypothèses de stationnarité du phénomène et de l’indépendance des années successives soient généralement faites). L’objectif de l’échantillonnage reste de déterminer un ensemble de valeurs indépendantes, appartenant à une même population.

Les deux types d’échantillonnage présentés sont généralement réalisés sur l’ensemble des valeurs observées d’une série chronologique, en faisant l’hypothèse que ces valeurs représentent un même phénomène. Cette hypothèse peut être remise en cause, en mettant en avant des processus différents au cours de l’année (par exemple, certains bassins présentent des crues issues d’un régime « nival » et « pluvial » n’ayant pas les mêmes caractéristiques). La chronique des observations peut alors être découpée en « sous chroniques » dans lesquelles le phénomène observé sera alors plus facilement considéré comme appartenant à une même population. C’est le cas des analyses réalisées par saison, ou par type de temps [Garavaglia et al., 2011]. Dans ce cas, chaque « sous-chronique » est analysée séparément par des lois « saisonnières » qui seront combinées pour fournir une loi de probabilité composite, annuelle. b) Le choix d’une loi de probabilité : ce choix va dépendre de la méthode d’échantillonnage

utilisé. L’étude des valeurs maximales par bloc (comme par exemple les valeurs maximales annuelles) ont conduit Fisher et Tippett [1928] à montrer que la distribution de ces variables ne peut suivre que trois lois de probabilité : la loi de Fréchet [1927], de Gumbel [1935] et de Weibull [1951]. Ces lois seront reformulées en une loi plus générale appelée loi GEV (loi généralisée des extrêmes ou Generalized Extreme Value distribution) [Jenkinson, 1955]. Des développements similaires ont été réalisés pour un échantillonnage de valeurs supérieures à un seuil élevé et ont conduit à définir la loi GP (loi Pareto généralisée ou Generalized Pareto distribution) [Pickands, 1975] dont la loi exponentielle est un cas particulier. L’étude des valeurs supérieures à un seuil permet de s’affranchir du coté réducteur d’un échantillonnage par bloc qui impose un seul maximum par bloc (par an par exemple). La difficulté réside cependant dans la détermination du seuil de sélection qui ne doit, ni être trop élevé ni trop bas. Les ouvrages de Coles [2001] ou Beirlant et al. [2004] réalisent une synthèse des multiples travaux sur la théorie des valeurs extrêmes en présentant les différentes lois qui en résultent en fonction de l’échantillonnage choisi, les différentes méthodes d’estimation des paramètres (vraisemblance, L-moments, moments pondérés,…), l’estimation des intervalles de confiances

associés,… D’autres lois de probabilité théoriques peuvent être utilisées comme la loi log-Pearson Type III retenue par le gouvernement fédéral américain [(WRC), 1967].

c) L’estimation des paramètres : La plupart des lois de probabilités utilisées en hydrologie pour étudier les valeurs extrêmes, présentent 2 ou 3 paramètres. Ces paramètres permettent généralement de caractériser la tendance centrale de la variable (paramètre de position), la dispersion des valeurs autour de ces valeurs « centrales » (paramètre d’échelle) et la dissymétrie de la distribution (paramètre de forme). Il existe de nombreuses méthodes d’estimation des paramètres, étudiées par de nombreux auteurs en fonction de la loi de probabilité utilisée. Parmi ces méthodes il y a : la méthode des moments (elle consiste à mettre en lien les moments de la variable avec les paramètres de la loi de probabilité théorique), la méthode du maximum de vraisemblance (introduite par Fisher en 1922 [Aldrich, 1997], elle vise à déterminer le paramétrage qui maximise les probabilités des réalisations observées), la méthode des L-moment (basée sur des combinaisons linéaires des moments de probabilité pondérés),…

L’application de ces méthodes statistiques sur des données locales reste particulièrement sensible aux problèmes de l'échantillonnage. L'ajustement statistique reste très fortement influencé par la présence, ou l'absence, des valeurs "exceptionnelles" dans l'échantillon des observations, en particulier lors de la détermination d’un paramètre de forme. Le poids de ces valeurs, souvent entachées d'une forte incertitude métrologique, devient extrêmement important dans la prédétermination des quantiles rares (extrapolation en fréquence). De manière générale, il n’est pas recommandé d’utiliser ces approches pour une extrapolation des distributions de fréquences vers les valeurs extrêmes, lorsqu’elles sont calées localement [Lang et al., 2013].

Pour réduire les effets de l’échantillonnage, très dommageable pour l’estimation des valeurs rares et extrêmes, des approches complémentaires ont été développées. Afin de mieux prendre en compte le poids des valeurs extrêmes, une des solutions est donc d’enrichir l’échantillon des valeurs observées, pour augmenter sa représentativité. Pour cela, la recherche d’informations sur d’autres sites de mesure (approche régionale), sur différentes variables caractéristiques (approche multi-durées), sur des données historiques (approche historique) est réalisée. Un bref aperçu du principe des approches les plus courantes est donné dans les paragraphes suivants.

A.2.2 Les méthodes régionales

La méthode dite des « années-stations » ou les approches régionales utilisent l'information de plusieurs stations pour réduire l'influence des erreurs sur les données et l’influence de l’échantillonnage des valeurs exceptionnelles. Elles peuvent être utilisées pour le traitement statistique des pluies, comme pour les débits. Il y a la méthode de l’index de crue [Darlymple, 1960] qui a initié ces approches, largement utilisées actuellement [J.R.M. Hosking and Wallis, 1997; Merz and Blöschl, 2005; Ribatet et al., 2007; Stedinger and Tasker, 1985]. L’homogénéité spatiale des données doit être vérifiée par diverses méthodes statistiques [J. R. M. Hosking and Wallis, 1993]. Après « homogénéisation » ou « normalisation », les données de différentes stations de mesure sont agglomérées et étudiées de façon régionale. L'accroissement de l'effectif permet l'utilisation de

façon robuste de lois à 3 paramètres, comme la loi GEV [Neppel et al., 2007a], voire des lois à 4 paramètres comme la loi TCEV présentée par Rossi [1984].

Notons que de nombreuses applications de méthodes régionales conduisent à des valeurs négatives pour les coefficients de forme de la loi GEV ou GPD utilisées sur des données de pluies journalières (0.15 en Espagne [Ferrer, 1992] ; 0.15 en Grèce [Demetris Koutsoyiannis, 2004] ; -0.13 sur la région Languedoc [Dominguez et al., 2005]), signifiant un comportement asymptotique plus qu’exponentiel pour cette variable. Les approches régionales sont largement préférables aux approches locales, à condition de s’assurer de l’indépendance des données agglomérées et de leur homogénéité.

A.2.3 Les approches multi-variées

Une autre façon d’augmenter la représentativité de l’échantillon des données observées est d’étudier en même temps plusieurs variables d’un même phénomène. C’est le cas par exemple lorsque la pluviométrie est étudiée sur l’ensemble de ces durées, à travers l’analyse des courbes IDF (Intensité-Durée-Fréquence)[Demetris. Koutsoyiannis et al., 1998]. Des approches du type QdF (Débit-Durée-Fréquence) étudient aussi l’ensemble des durées pour les débits [Pierre Javelle et al., 1999]. L’hypothèse sous-jacente est que les pluies (ou les débits) de différentes durées sont dépendantes entre elles et leur dépendance est liée à la durée sur laquelle le phénomène est étudié. C’est aussi une hypothèse des méthodes multifractales qui considère une certaine invariance d’échelle du phénomène. Cette hypothèse permet une nette réduction du nombre de paramètres pour modéliser un phénomène complexe [Burlando and Rosso, 1996].

Les modèles multi-durées présentent un grand intérêt en ingénierie puisque des données journalières peuvent être utilisées pour estimer des quantiles à des pas de temps plus fins. Ces données journalières, plus largement disponibles que les données à pas de temps plus fins peuvent alors améliorer l’estimation des pluies à pas de temps fins. Par exemple, Muller et al. [2009] montrent, sur une longue chronique de pluies à Marseille, que les enregistrements journaliers sont de meilleure qualité et présentent moins de lacunes que les enregistrements horaires, en particulier lors des événements extrêmes. Dans ce cas, les estimations des quantiles de pluies de courtes durées réalisées par une approche multi-durées sont plus robustes et plus fiables que celles obtenues par une approche classique par durée de pluie.

A.2.4 Les approches historiques

Leur objectif est d’utiliser une information historique pour consolider la distribution des valeurs observées avec des valeurs plus anciennes que les données systématiques (chroniques) [J. Miquel, 1983; J Miquel, 1984]. L'utilisation de l'information historique dans une analyse fréquentielle permet de mieux intégrer l'information réellement disponible et devrait donc permettre d'améliorer l'estimation des quantiles de grandes périodes de retour. Ces approches sont surtout appliquées pour intégrer l’information relative aux grandes crues qui se sont produites avant le début de la période de mesures systématiques. Des approches bayésiennes sont alors utilisées pour traiter des informations partielles et souvent associées à de fortes incertitudes [Gaume et al., 2010;

Naulet et al., 2005; Neppel et al., 2010; Payrastre et al., 2011]. De façon générale, l'utilisation de l'information historique conduit à une diminution de l'impact des valeurs singulières dans les séries d'enregistrements systématiques et à une diminution de l'écart-type des estimations [Ouarda et al., 1998]. L’incertitude d’échantillonnage sur les quantiles estimés est donc réduite lorsque l’information historique est exploitée. Une des difficultés de cette approche est peut être l’estimation des débits de crues historiques, en particulier le passage des hauteurs d’eau (niveaux historiques atteints) aux débits [Naulet, 2002; Naulet et al., 2005]. Des efforts particuliers sont réalisés pour centraliser cette information indispensable pour consolider l’estimation des valeurs extrêmes. A titre d’exemple, la base nationale BDHI recense les crues mémorables observées en France (http://bdhi.fr/appli/web/welcome), surtout pour les grands cours d’eau traversant les grandes villes. Les pluies extrêmes sont aussi renseignées par Météo-France pour maintenir la mémoire des records observés (http://pluiesextremes.meteo.fr/). A noter que la pluviométrie bénéficie généralement de données systématiques plus longues que les données de débit.

A.2.5 Combinaison de lois ajustées sur différentes variables d’int érêt

La prédétermination des débits peut aussi être approchée par l'étude statistique des pluies. Généralement, cette étude amène à la détermination d'une pluie de projet liée à une probabilité d'apparition. Cette pluie de projet peut être établie de deux façons [C.I.G.B., 1992] :

- par une approche probabiliste utilisant les méthodes statistiques locales appliquées sur la pluie. Dans ce cas, la pluie de projet est liée à une probabilité d'apparition ou une période de retour. Son élaboration repose sur l'analyse statistique de divers éléments (hauteur, durée, forme) des événements pluvieux [Sighomnou and Desbordes, 1988].

- par une approche maximaliste ou d'événement maximal probable : la pluie de projet est alors définie comme la plus forte précipitation physiquement possible sur une surface donnée, pour un site et une époque donnés [Collier and Hardaker, 1996; Hershfield, 1961; D. Koutsoyiannis, 1999].

La pluie de projet est transformée en crue de projet par une modélisation hydrologique simple. Cette crue de projet sert alors directement au dimensionnement des ouvrages hydrauliques. Divers problèmes apparaissent alors, comme le problème d'échantillonnage sous-jacent à l'étude statistique des pluies servant à l'élaboration de la pluie de projet (problème identique à l'étude statistique des débits seuls) ou le problème de l'affectation d'une fréquence à une pluie de projet synthétique, puis celui de l'affectation d'une fréquence à l'hydrogramme qui en résulte.

L'information fréquentielle des pluies peut aussi être utilisée directement pour renseigner le comportement des débits vers les fréquences rares. C'est le principe de la méthode du Gradex mise au point par Guillot et Duband [1967]. Dans un diagramme de Gumbel, l'extrapolation de la distribution de fréquences des débits est réalisée de façon parallèle à la distribution de fréquences des pluies, en faisant l'hypothèse de la saturation des sols pour les pluies de fréquences rares. Des variantes à la méthode du Gradex ont été développées en faisant varier progressivement le comportement asymptotique des débits en fonction de la période de retour étudiée [Margoum et al., 1994].

L'utilisation de l'information pluviométrique améliore la connaissance des quantiles de crues rares. Cependant, l'absence de chroniques suffisamment longues, les problèmes de métrologie lors de l'observation de forts événements (pluviomètres qui débordent, stations limnimétriques noyées ou emportées) et la difficulté d'attribuer une fréquence aux valeurs exceptionnelles observées, rendent les résultats de ces méthodes statistiques extrêmement sensibles à l'échantillonnage des valeurs fortes.

Les approches probabilistes directes s’appuient sur des développements théoriques en statistiques, liés en particulier aux recherches issues de la théorie des valeurs extrêmes. Cet aspect de l’hydrologie statistique fait l’objet de nombreux travaux à la frontière entre l’hydrologie et les mathématiques appliquées.

Les méthodes présentées bénéficient donc d’un cadre théorique fort, mais s’appuient aussi sur des approches plus empiriques essayant de mettre en avant les processus, à l’instar des méthodes prenant en compte la pluie pour estimer des débits.

La pratique a conduit aussi les hydrologues à essayer de s’affranchir au mieux des problèmes d’échantillonnage particulièrement importants pour l’estimation de valeurs extrêmes. L’échantillon des valeurs traitées est donc régulièrement enrichi par de l’information soit historique soit régionale.

Les méthodes présentées restent cependant strictement liées à l’étude de la variable d’intérêt et ne permettent pas la prise en compte du phénomène dans sa complexité temporelle. C’est pour essayer de répondre à cette limitation que les méthodes par simulation ont été développées.