• Aucun résultat trouvé

5.1.1 Les modèles comparés

Afin d’identifier quels sont les apports ou intérêts des modèles conceptuels, ceux-ci vont être éva- lués avec d’autres modèles pluie-débit globaux, selon la même procédure. Nous les avons compa- rés à des modèles « basés sur les données » (ou « modèles boîtes-noires ») : des modèles linéaires de régression sur les données1, des modèles de réseaux de neurones artificiels et également, le plus simple des modèles basés sur les données, le modèle de persistance. Tous ces modèles ont pour point commun d’être utilisés selon une approche globale, en continu et au pas de temps horaire. Ces modèles ont tous été présentés, calés et évalués, séparément, dans un travail préliminaire, pré- senté en annexe : les modèles linéraires en B.4 (pages 419-442), les réseaux de neurones artificiels en B.5 (pages 443-471) et les modèles conceptuels en B.6 (pages 472-497).

5.1.1.1 Les modèles conceptuels

Synthèse de l’étude préliminaire Dans une analyse préalable (cf. B.6, pages 472 à 497), six modèles conceptuels globaux ont été calés et validés en parallèle. Il s’agit de modèles développés ou transformés par Perrin (2000) et Mathevet (2005). Les résultats de ces travaux préliminaires montrent plusieurs éléments intéressants qui sont rappelés ici synthétiquement.

Le calage a été réalisé de la manière suivante : pour chacun des bassins, la période totale à été divisée en sous-périodes de 2 ans, puis en sous périodes de 3 ans, . . . , puis de k ans, avec k tel que l’on puisse obtenir au moins deux sous-périodes pour les séries les plus courtes et trois sous- périodes pour les séries les plus longues. Les jeux de paramètres obtenus en calage sur chacune des sous-périodes ont tous été conservés, analysés, puis utilisés en contrôle sur d’autres périodes. Ceci a permis de mettre en avant l’apparition de quelques cas d’optimums locaux2.

Lors du calage de ces six modèles3, il a été montré que les performances s’améliorent au cours du temps. Ceci est notamment lié à une amélioration de la qualité générale des jeux de données. Il a également été montré que dans l’ensemble, les paramètres obtenus sont relativement stables d’une période à l’autre.

L’évaluation de ces modèles4 a montré que la dégradation classique des performances lors du passage des calages aux contrôles est assez limitée dans le cas présent. Quatre des six modèles testés sont apparus particulièrement robustes et performants lors d’une évaluation classique de si- mulations en continu (performances évaluées avec le critère de Nash & Sutcliffe (1970) en « split sample test »(Klemeš, 1986)), ce sont les bassins les plus petits qui obtiennent les meilleures per- formances. Lorsqu’un report d’erreur (c’est-à-dire une technique de mise à jour assez basique5) est utilisé, les performances sont augmentées de manière significative. Pour de faibles horizons de prévision avec un scénario « de pluie future parfaitement connue », tous les modèles obtiennent alors des performances très proches, alors que lorsque l’horizon de prévision augmente, les écarts entre les modèles se creusent – et les performances décroissent. Il a également été montré que l’ef- fet d’une mise à jour sur les débits ne profite pas à tous les modèles de la même façon. Parmi les quatre modèles identifiés précédemment, trois se sont montrés plus performants lorsqu’une mise à jour est utilisée.

1. Des modèles autorégressifs avec données exogènes qui seront définis ci-après.

2. On parle ici d’optimums locaux lorsqu’un critère calculé sur la période de calage est inférieur à la même formu- lation du critère calculée sur la même période mais sur des simulations dont les jeux de paramètres ont été calés sur une période différente.

3. cf. à partir de la page 479 et la synthèse page 488. 4. cf. la synthèse page 496.

Le modèle utilisé Au sortir de cette étude préliminaire, il a été choisi de conserver pour ce premier travail de comparaison, le modèle conceptuel le plus parcimonieux, et parmi les plus efficaces : le modèle GR4J. Il s’agit de la version adaptée pour le pas de temps horaire, d’un modèle développé pour le pas de temps journalier à travers de nombreux travaux de recherche et sur un nombre et une variété de bassins de plus en plus larges au cours du temps. La dernière version est celle de Perrin (2000) et adaptée au pas de temps horaire par Mathevet (2005)1. Sauf indication contraire, ces modèles sont utilisés en simulation d’ensemble afin de prendre en compte une part de l’incertitude sur l’estimation de leurs paramètres (cf. B.6).

La mise à jour utilisée consiste à soustraire au débit simulé la dernière erreur observée (cf. EQ.5.1). Une autre façon de concevoir cette mise à jour consiste à dire que le modèle conceptuel ne prévoit que les variations de débits, et donc à utiliser cette variation prévue par rapport au dernier débit observé (cf. EQ.5.2).

Qtprev.ma j+L = Qt+Lprev+ Erreurt = Qt+Lprev+ (Qtobs− Qt

prev) (5.1)

Qtprev.ma j+L = Qtobs+ ∆Qprev = Qtobs+ Qt+Lprev− Q

t

prev (5.2)

5.1.1.2 Le modèle de persistance

Le modèle de persistance consiste à supposer que le débit observé à un horizon de temps donné sera le même que celui qui est actuellement observé. Par exemple, « Le débit prévu dans 5 heures est le même que le débit actuellement observé ». Cela revient en fait à décaler la chronique de données observées d’un certain nombre de pas de temps, correspondant à l’horizon de prévision concerné. Ce modèle permet ainsi d’obtenir une référence « naïve » à laquelle comparer des mo- dèles en prévision. D’une manière générale, ce modèle peut sembler « idiot ». Pourtant, dire que

0 200 400 600 800 1000 1200 1400 1600 1800 01 déc 02 déc 03 déc 04 déc 05 déc

Débit observé à Bas-en-Basset Persistance à 3 heures 0 50 100 150 200 250 300 350 400

20oct-00h 20oct-12h 21oct-00h Débit observé à Rieutord Persistance à 3 heures

FIG. 5.1 – Exemple de prévision avec un modèle de persistance : prévision à 3 heures à Bas-en-Basset 3234 km2 (crue de décembre 2003, à gauche) et à Rieutord 62 km2 (crue d’octobre 2001, à droite).

le débit dans quelques pas de temps, sera proche de celui qui est observé actuellement, n’est pas si aberrant, lorsque les débits sont très autocorrélés, ce qui est souvent le cas lors des périodes de non crue – ou en période de crue, sur de grands bassins, et sur une fraction raisonnable des temps caractéristiques de la dynamique des débits. Dans le cas de périodes de crues sur de petits bas-

sins qui réagissent rapidement, l’utilisation de ce modèle peut sembler davantage déraisonnable (FIG.5.1) : cela sera évalué dans le cadre de cette comparaison.

5.1.1.3 Les modèles linéaires

Les modèles de régression linéaire se présentent comme une combinaison linéaire des débits an- térieurs (composante autorégressive) et éventuellement de données de pluies antérieures (données exogènes) constituant ainsi un modèle ARX (modèle autorégressif avec des données exogènes)1. Pour dimensionner ces modèles, c’est-à-dire choisir le nombre et la nature des données sur les- quelles ils s’appuient, une analyse préliminaire a été réalisée afin d’évaluer la sensibilité du choix de cette structure sur les performances des modèles (cf. B.4, page 419). Cette analyse a mon- tré que si le seul critère de performances utilisé est un critère de Nash & Sutcliffe (1970) (noté NSE, cf. EQ.5.5 page 94) alors, les structures de modèles permettant d’obtenir les meilleures per- formances sont celles basées uniquement sur des données de débits. Au contraire, si le critère d’évaluation utilisé se base non plus sur l’erreur sur la valeur du débit prévue, mais sur la variation de débit prévue (critère NDi, cf. EQ.5.6, page 94), alors ce sont les modèles n’utilisant que les données de précipitations en entrée qui sont les plus performants. Ceci met en évidence que ce modèle parvient à utiliser les données de précipitations, uniquement lorsque les données de débits en entrée ne sont pas trop nombreuses. Cela montre également que lorsqu’il n’est pas fourni à ces modèles linéaires de données de débits antérieurs en entrée, il peut y avoir un décalage impor- tant entre les valeurs simulées à partir des pluies et les débits réellement observés. Il a, de plus, été observé, lors de cette étude préliminaire, que lorsque plus de deux données de débits antécé- dents sont utilisées, alors le critère sur les variations de débits chute fortement. Il a donc été choisi comme compromis de ne prendre en compte que deux données de débits antérieurs et d’y associer des données de précipitations relatives à une fraction du temps caractéristique du bassin (un tiers) plus deux pas de temps (afin d’avoir une information pluviométrique suffisante même sur les plus petits bassins). ˆ Qt+l= q−1

i=0 αiQt−i+ p−1

i=0 βiPt−i+ γ0 (5.3)

où : l est l’horizon de prévision

q est l’ordre du modèle pour les termes auto-régressifs (c’est-à-dire les débits) p est l’ordre du modèle pour les données exogènes (c’est-à-dire les pluies)

ˆ

Qt+l est le débit prévu à l’instant t pour l’horizon l Qt−i est le débit observé à l’instant t − i

Pt−i est la pluie mesurée sur l’intervalle de temps [t − i − 1; t − i]

αk, βket γk sont des poids (ou paramètres)

Et dans le cas où on suppose connaître parfaitement la pluie future – i.e. la pluie précipitée entre l’instant où est émise la prévision et la date qui est prévue –, alors l’équation EQ.5.3 devient :

ˆ Qt+l= q−1

i=0 αiQt−i+ p−1

i=0 βiPt+l−i+ γ0 (5.4)

1. Ce type de modèle est utilisé pour la prévision de crues en temps réel par le service de prévision wallon, le WACONDAH (modèle HYDROMAX). Les crues concernées sont plus lentes que celles qui concernent la présente étude, et les horizons de prévision vont de 2 à 10 heures (court terme) (Pellet et al., 2004).

5.1.1.4 Les modèles de réseaux de neurones artificiels

Les réseaux de neurones artificiels (RNA) sont des outils basés sur les données très largement utilisés en hydrologie. Il est donc intéressant d’examiner sur les bassins de la Loire supérieure, avec des données issues de services opérationnels et avec des critères basés sur la prévision des crues, quel est leur intérêt. Après les références naïves du modèle de persistance et des modèles linéaires, les performances obtenues avec les réseaux de neurones peuvent constituer un repère supplémentaire intéressant.

Les caractéristiques des réseaux de neurones utilisés, ainsi que celles de leur mise en œuvre, sont très classiques (cf. revue de la littérature en annexe B.5.2, page 449) :

– un réseau à propagation avant à apprentissage rétro propagé : ce sont (i) le type de RNA et (ii) l’algorithme d’apprentissage les plus utilisés (Maier & Dandy, 2000; RIO2, 2004) – une fonction d’apprentissage : « Levenberg-Marquardt backpropagation », associée à la mé-

thode d’optimisation locale du gradient le plus élevé.

– deux types de fonctions de transfert, très classiques, également : une fonction en log-sigmoide pour les neurones de la couche cachée et une fonction linéaire pour les neurones de la couche de sortie.

– l’erreur quadratique moyenne « MSE » comme fonction objectif de calage, permettant de prendre en compte les erreurs les plus fortes.

Par ailleurs le nombre de données d’entrées a été choisi identique à celui des modèles linéaires – et correspond à peu près au nombre de données utilisées dans les études de la littérature (cf. B.5.2, page 449). Les données sont utilisées au pas de temps horaire même pour des prévisions à plu- sieurs heures ce qui est également une méthode fréquemment utilisée. L’alternative consistant à travailler directement avec des données agrégées sur la durée de l’horizon de prévision désiré pré- sente le principal inconvénient de s’éloigner des données instantannées souvent indispensables en prévision des crues. Il a également été montré lors de l’analyse préalable que des RNA avec un faible nombre de neurones sur la couche cachée fournissaient les résultats les plus robustes sur ces données : de 1 à 4 neurones cachés sont utilisés.

5.1.1.5 Synthèse

Tous les modèles mis en œuvre et comparés dans cette étude sont utilisés en continu, à pas de temps fixe (pas de temps horaire) et avec une représentation globale du bassin versant1. Ces mo- dèles utilisent comme données d’entrée les données de pluie2 et les dernières données de débits observés3.

De plus, ils sont tous calés et évalués sur des périodes différentes (Split Sample Test (Klemeš, 1986)), à l’exception, bien sûr, de l’évaluation des performances en calage quand cela est précisé.

Nombre de paramètres Chaque modèle conceptuel a un nombre fixe de paramètres (ici de 4 à 8 pour les modèles choisis) ; le modèle de persistance n’a aucun paramètre ; le nombre de paramètres des modèles linéaires dépend du bassin concerné4; enfin le nombre de paramètres des RNA est k× n+ 1 paramètres où k est le même nombre de données d’entrée que pour les modèles linéaires

1. Il faut de plus noter que ces modèles ne tiennent pas compte de l’effet de la neige et des barrages-réservoirs – dont les impacts peuvent ne pas être négligeables sur nos bassins d’étude.

2. Les modèles conceptuels utilisent également des données d’ETP en entrée.

3. Dans le cas des modèles conceptuels, uniquement lorsqu’une mise à jour est utilisée.

4. En fait cela dépend du nombre k d’entrées : ce nombre varie de 5 paramètres pour le Tauron à Cros de Géorand (2 pas de temps antérieurs de débits et 3 pas de temps de pluies) à 11 paramètres (2 débits ; 9 pluies) pour la Loire à Bas-en-Basset.

et n le nombre de neurones sur la couche cachée, soit de 6 paramètres pour une solution à 1 neurone caché à Cros de Géorand à 48 paramètres pour une solution à 4 neurones cachés à Bas-en-Basset.

5.1.2 Les données pour la comparaison

Les bassins d’étude sont ceux qui ont été présentés dans le chapitre 3 (en 3.1.4, page 56). Dans ce même chapitre 3, les données ont également été présentées. Il a été choisi dans ce travail de comparaison de différentes options de modélisation, de diviser la période d’étude en trois sous parties de longueurs équivalentes. Par exemple, pour les bassins dont les données commencent en 1977 et se terminent en 2003, les périodes d’étude sont approximativement les suivantes : la première période va de 1977 à 1985, la seconde de 1986 à 1994 et la troisième de 1995 à 2003. Néanmoins, alors que les modèles conceptuels peuvent parfaitement intégrer des lacunes dans des données de débits, ce n’est pas le cas pour les modèles basés sur les données (modèles linéaires et réseaux de neurones). Pour pallier cette difficulté, lorsque les séries comportent un nombre important de périodes de lacunes, le choix des périodes a été réalisé de façon à exclure ces lacunes, soit en ne commençant qu’après les lacunes1, soit en se servant des lacunes comme limites entre deux sous périodes2.

Les caractéristiques de chacune des trois sous-périodes sont décrites pour chacun des bassins en annexe B.3 (page 417).

5.1.3 Les critères

5.1.3.1 Analyse quantitative sur toute la série

Le premier type d’analyse concerne l’ensemble de la chronique. Est tout d’abord utilisé un critère classique de Nash & Sutcliffe (1970), noté NSE (cf. EQ.5.5) et comparant les résultats de modé-

lisation à un modèle naïf simulant à chaque instant le débit moyen du bassin. En complément, un critère plus adapté à la prévision des crues est également utilisé : un critère de persistance sur les variations de débits, noté NDi (EQ.5.6) qui compare l’erreur sur les variations de débits prévues au modèle de persistance (c’est-à-dire une variation future des débits supposée nulle).

NSE= 1 −∑(Q t obs− Q t sim)2 ∑(Qtobs− Qobs)2 (5.5) NDi= 1 −∑((Q t+i obs− Q t

obs) − (Qt+iprev− Qtprev))2

∑(Qt+iobs− Qtobs)2

= 1 −∑(∆iQobs− ∆iQprev)2

∑(∆iQobs)2

(5.6)

où :

Qtobsest le débit observé (mesuré) à l’instant t Qobsest la valeur moyenne des débits observés

Qtsimest le débit simulé par le modèle pour l’instant t Qt+iprevest lé débit prévu par le modèle pour l’instant t+ i

∆iQest l’écart entre des données de débits (observés ou prévus) à un intervalle de i pas

de temps.

Ces critères varient dans l’intervalle] − ∞, + 1], la meilleure valeur est 1, une valeur de 0 indique que les résultats de modélisation n’apportent rien par rapport au modèle auquel on se compare (débit moyen sur le bassin, variation de débit nulle).

1. C’est le cas pour Vaubarlet : la première sous période commence en 1991.

2. C’est le cas à Chadrac, où les données de débits ne sont pas disponibles de fin 1996 à mi 1998 : la seconde période s’arrête ainsi fin 1996 au lieu de 1994, et la troisième ne débute qu’en 1998 au lieu de 1995.

5.1.3.2 Analyse qualitative sur les caractéristiques des crues

Une évaluation qualitative consiste à comparer visuellement les prévisions ou simulations des différents modèles par rapport aux observations – voire à simplement comparer les prévisions ou simulations entre elles. Les parties de l’hydrogramme plus particulièrement intéressantes pour la prévision des crues sont les suivantes :

la montée de crue : les prévisions des modèles doivent détecter les montées de crues observées : un retard trop important discréditerait les prévisions des modèles soit ne détectant pas de montée de crue, soit prévoyant à l’horizon i un débit équivalent à celui actuellement – ou déjà – observé.

la valeur du pic de crue : cette valeur extrême est importante dans la mesure où elle correspond à une hauteur, et à celle-ci peuvent correspondre des dégâts spécifiques : débordements par dessus des digues, surpassement de pont, rupture de réseau routier, inondations de certaines surfaces sensibles (par exemple des aires d’habitation).

le timing du pic de crue : cela informe le prévisionniste, le décideur, de la fin de la montée de la crue et par conséquent la fin de la surenchère dans les mesures de remédiation à la crue. le volume de la crue : cette valeur est surtout intéressante s’il existe un barrage à l’aval du point

de prévision afin de pouvoir anticiper le volume en entrée de la retenue. Par exemple, parmi les bassins concernés par cette étude, plusieurs d’entre eux sont concernés par cette situa- tion : à l’aval du bassin de la Loire à Rieutord et du Tauron à Cros de Géorand se trouve le barrage de La Palisse ; à l’aval du bassin du Lignon au Chambon sur Lignon, le barrage de Lavalette ; à l’aval de la Loire à Bas-en-Basset, le barrage de Grangent.

le gradient de la montée de crue : c’est-à-dire le taux de variation des débits par rapport au temps. Cette valeur est particulièrement intéressante car elle informe de temps disponibles pour ré- agir face à la crue, prendre des décisions, etc.