• Aucun résultat trouvé

L’optimisation des paramètres est un problème purement numérique, elle permet ‘d’habiller’ un modèle au travers de ces paramètres. Nous avons porté en annexe 1 une discussion sur les différentes méthodologies d’optimisation et leurs caractéristiques.

Dans le cas théoriq ue (données synthétiques), les paramètres obtenus par une méthode globale permettent dans une majorité de cas un meilleur ajustement des sorties du modèle aux données de calage que les méthodes locales. Cependant cet avantage devient faible lorsque des données réelles sont utilisées. Avec une méthode globale, contrairement à une méthode locale, la stabilité des paramètres est moins garantie lorsque l’on change de période car on peut changer de région où se trouve l’optimum. Cette stabilité est primordiale si on passe à la régionalisation ou à l’explication des paramètres. Les raisons profondes des problèmes d’optimisation des paramètres semblent plutôt résider dans les maladresses ou les excès de paramétrisation et surtout dans l’inadéquation des formulations mathématiques des structures des modèles.

Rappelons que l’un des objectifs de la présente thèse est de voir l’évolution de la structure d’un modèle en passant d’un pas de temps à un autre. Il est alors indispensable de garder le même plan de travail en passant d’une échelle de temps à une autre. Au pas de temps journalier, Perrin (2000) a réussi à améliorer le modèle GR4J. La méthode ‘pas à pas’ a été choisie et évaluée.

Pour ces raisons, nous avons choisi d’adopter la même méthode de calage, soit la méthode locale dite ‘pas à pas’ dont nous présentons l’algorithme d’après les travaux de Perrin (2000) : La méthode ‘pas-à-pas’ (Michel, 1989; Nascimento, 1995) a été développée à la Division Hydrologie du Cemagref d’Antony. La figure 6 illustre les étapes adoptées par l’algorithme. C’est une méthode locale qui opère une optimisation (maximisation ou minimisation) d’une fonction objectif choisie par l’utilisateur (indépendamment de la méthode). Nous adopterons dans ce travail une maximisation du critère de Nash-Sutcliffe (1970) calculé sur les racines carrées des débits, noté ici R2 ( F dans paragraphe précédent).

Supposons que l’on ait à caler un vecteur x de paramètres ayant n composantes (x1, x2,..., xn).

On désire trouver le vecteur x* qui maximise le critère R2 (F) dont la valeur dépend, par l’intermédiaire des débits calculés, des valeurs des paramètres (x1, x2,..., xn).

Partie I/ 2. Méthodologie de modélisation

Figure 6 : Diagramme schématique de la méthode de calage ‘pas-à-pas’ (d’après Perrin, 2000)

Le processus d’optimisation est itératif. La méthode adopte une stratégie de déplacement, la plupart du temps, le long des axes de l’espace des paramètres, avec un pas de recherche pouvant varier d’une itération à l’autre. L’amplitude du pas de recherche étant ici la même pour tous les paramètres, des transformations mathématiques préalables (transformations logarithmiques ou puissance par exemple) peuvent être appliquées pour garantir des

Vecteur initial des paramètres X (X10, X20,...., Xn0) Evaluation de la fonction objectif F0 Pas de recherche initial ∆X0 Modification de la ième composante de X par ±∆X i = 1 ia=0 Evaluation de la fonction objectif Fi Fi > G ? oui non H = Fi ia = i i ≥ n ? oui non i = i + 1

Nouveau pas de recherche

∆X = ∆X / 2 H > G ? oui iter2 = iter 2 + 1 non iter 2 = 0 ∆X = ∆X0 pour iter1 = 1

Nouveau vecteur des paramètres avec la composante ia modifiée

Si iter2 > 2n, ∆X = ∆X * 2 Actualisation des valeurs des SDXi

G = H ∆X < ∆Xmin ? oui non Fin Optimum identifié si Xi > Ximax, Xi = Ximax si Xi < Ximin, Xi = Ximin iter1 = iter1 + 1 Fin Optimum non identifié iter1 > 100. n ? oui non iter 1 = 1, iter 2 = 0 SDXi = 0, 1 ≤ i n G = F0 iter 1 > 4.n ? oui non

Evaluation de la fonction objectif F avec les paramètres Zi = Xi + SDXi, 1 ≤ i n F > G ? non oui G = F Xi = Zi, 1 ≤ i n si ∆X > ∆Xmax, ∆X = ∆Xmax

Partie I/ 2. Méthodologie de modélisation

La recherche démarre à partir d’un vecteur initial des paramètres x0, de composantes (x10, x20,..., xn0). On calcule alors la valeur correspondante de la fonction objectif. On fait

ensuite varier successivement chacune des valeurs des paramètres d’une déviation initiale

±∆xini (ici on adopte ∆xini = 0,64, ce qui revient à multiplier ou diviser par deux la valeur du

paramètre lorsque la transformation est logarithmique). Lorsque la valeur du ième paramètre est modifiée, les deux vecteurs de paramètres testés sont donc (x10, x20,..., xi0+∆xini,..., xn0) et

(x10, x20,..., xi0-∆xini,..., xn0). A chaque fois la valeur de la fonction objectif correspondante est

calculée.

Lorsque tous les paramètres ont été modifiés un à un, deux cas de figure peuvent se présenter:

Ø il y a une amélioration de la valeur de la fonction objectif pour un ou plusieurs des

nouveaux vecteurs des paramètres. On retient dans ce cas le vecteur x1 qui correspond à la meilleure amélioration de la fonc tion. Ce vecteur, dont les composantes correspondent à celles du vecteur x0 sauf la composante i qui correspond à xi0 + ∆x ou xi0 - ∆x , devient le

nouveau vecteur ‘initial’ de recherche. S’il y a 2n améliorations successives de la fonction dans une même direction, le pas de recherche est alors multiplié par deux pour accélérer la recherche (dans la limite de ∆xmax, que l’on prendra ici égal à 2). La procédure peut

également être affinée et/ou accélérée en utilisant, au delà de 4n itérations de calcul, un pas de recherche correspondant à un lissage exponentiel sur les déplacements effectués aux itérations précédentes. Ceci a pour but d’accélérer et d’améliorer la recherche, en particulier dans le cas où il existe sur la surface de réponse une vallée qui ne soit pas dans la direction de l’axe de variation d’un des paramètres. Ce sont les seuls cas où la méthode adopte un déplacement non parallèle à l’un des axes de l’espace des paramètres.

Ø il n’y a amélioration de la valeur de la fonction critère pour aucune des modifications des

paramètres. On affine alors la recherche en divisant le pas de recherche par deux, et on réitère les modifications des paramètres sur le même vecteur initial x0 avec ce nouveau pas de recherche.

A chaque itération, on vérifie que les valeurs des paramètres appartiennent au domaine des paramètres transformés possibles préalablement spécifié, ce domaine correspondant a une zone de sensibilité algébrique des paramètres définie a priori.

La procédure s’arrête lorsque la déviation minimale ∆xmin spécifiée sur les paramètres (ici, on

adopte ∆xmin = 0,01) n’apporte plus d’amélioration de la fonction critère. On a alors localisé

l’optimum x* (ou un optimum) avec une précision relative à la déviation minimale. Par sécurité, pour ne pas avoir des temps de calcul trop longs, la procédure se termine si le nombre d’itérations est supérieur à 100n (cas que nous n’avons jamais rencontré). La méthode

Partie I/ 2. Méthodologie de modélisation

Nascimento(1995) a réalisé une évaluation de cette méthode en l’appliquant au modèle simple GR4J à quatre paramètres. Pour cela, il l’a comparée à des méthodes globales suivant la méthodologie de Duan et al. (1992) sur des données du bassin versant de l’Orgeval. Les résultats montrent que malgré l’existence de maxima locaux et de régions de l’hypersurface faiblement sensibles à la variation des paramètres, la méthode donne de bons résultats. Le faible nombre de paramètres du modèle GR4J et le bon degré d’indépendance entre eux permettent à la méthode ‘pas-à-pas’ d’avoir ce bon comportement. Même si les résultats ne concernent qu’un bassin, la méthode parait fiable à plus de 90 %.

I) 2.4.

Mise en œuvre et évaluation de la robustesse d’un

Documents relatifs