• Aucun résultat trouvé

Calibration : philosophie, optimums multiples et équifinalité La calibration est le processus par lequel les paramètres sont estimés dans les

CONTEXTE SCIENTIFIQUE ET ETAT DE L’ART

CHAPITRE 2 2 Processus et modèles existants

3.3 Calibration : philosophie, optimums multiples et équifinalité La calibration est le processus par lequel les paramètres sont estimés dans les

modèles conceptuels (lorsque le paramètre n’a pas de sens physique susceptible de le relier à des mesures de terrain). Il s’agit par exemple des paramètres de capacité de stockage d’eau dans le sol, de taux de ruissellement et du taux de percolation dans modèles hydrologiques à réservoir.

3.3.1 Définition de la calibration

Il existe plusieurs problèmes de calibration (Janssen et Heuberger, 1995). Le plus classique est l'optimisation. On minimise une ou plusieurs fonctions coût, qui quantifient l'écart entre données observées et simulées.

CHAPITRE 2 3. Modélisation

- 121 -

La calibration considère une certaine gamme de valeurs pouvant être prises par le paramètre et définie par l’opérateur (par expérience du modèle, ou valeurs prises dans la littérature). Classiquement, une valeur de départ est choisie dans cette gamme, puis ajustée par calibration manuelle ou automatique pour minimiser les erreurs entre sorties du modèle et observations (débits modélisés et mesurés en un point du bassin en hydrologie).

La minimisation de cette (ou ces) fonctions par changement des valeurs des paramètres calibrés peut se faire à la main (essai-erreur). La calibration manuelle

demande beaucoup d’expérience pour donner de bons résultats en un temps raisonnable et se base sur des critères subjectifs, ou du moins non normalisés et donc non reproductibles par un tiers, tels que la comparaison visuelle des hydrogrammes modélisés et mesurés. C’est donc pour gagner du temps dans la calibration par des non- experts et pour introduire un peu d’objectivité dans le processus que la calibration automatique s’est développée. Le modélisateur doit cependant rester actif et critique (Dubus, 2002).

La calibration automatique se base sur un algorithme d’optimisation qui minimise une fonction objectif choisie, fonction quantifiant les erreurs entre variable modélisée et variable mesurée sur le terrain. La somme des moindres carrés est la fonction objectif la plus largement utilisée (Sorooshian et Gupta, 1995). Sorooshian et Gupta (1995) proposent une revue détaillée des différents algorithmes existants et des concepts et hypothèses qui les sous-tendent. Tous les algorithmes cherchent à explorer la surface réponse du modèle, qui décrit l’évolution de la fonction objectif dans l’espace des paramètres. Sorooshian et Gupta (1995) séparent les algorithmes en deux familles : les méthodes locales et les méthodes globales.

3.3.1.1 Méthodes locales de calibration automatique

Les méthodes locales partent d’un point de l’espace des paramètres et avancent selon une direction choisie en fonction : (i) des informations issues de la seule valeur de la fonction objectif, ce sont les méthodes directes, (ii) des informations issues de la valeur de la fonction objectif et de la valeur du gradient de la fonction, ce sont les méthodes gradient. L’opération se répète jusqu’à ce que la variation de la valeur de la fonction objective (et/ou de la fonction gradient) ne soit plus significative (critère d’arrêt).

Les limites principales des méthodes locales résident dans leurs difficulté à investiguer les surfaces réponse des modèles non-linéaires, qui présentent généralement des optimums locaux (Sorooshian et Gupta, 1995, Duan et al., 1992). Le résultat de l’algorithme dépend alors fortement du point de départ dans l’espace des paramètres.

C’est pour pallier ces limites que les méthodes globales ont été développées.

3.3.1.2 Méthodes globales de calibration automatique

Parmi les méthodes globales, Sorooshian et Gupta (1995) distinguent : (i) les méthodes stochastiques, ou aléatoire, qui échantillonnent aléatoirement l’espace des paramètres d’après leurs distributions, généralement considérées uniformes, (ii) l’ Adaptative Random Search (ARS) (Duan et al., 1992), qui permet de tenir compte des informations collectées au court de l’échantillonnage pour guider la recherche vers la région de l’optimum global (Duan et al., 1992) (iii) les algorithmes à départs multiples qui mènent plusieurs recherches locales à partir de points distribués dans l’espace des paramètres et qui apparaît plus performante que les deux première (Duan et al., 1992) (iv) le Shuffled Complex Evolution Algorithme (SCE_UA) (Duan et al., 1992) qui gagne en efficacité par rapport aux algorithmes à départs multiples sur lesquels elle est

CHAPITRE 2 3. Modélisation

- 122 -

basée, en permettant de croiser les informations des différents recherches locales, qui ne sont donc plus menées indépendemment les unes des autres.

L’algorithme SCE est considéré comme l’algorithme le plus performant et a été utilisé dans de nombreuses études : (i) pour le modèle bassin versant distribué SWAT (Eckhardt et Arnold, 2001), (ii) dans le cadre d’une calibration multi-objectifs (Madsen, 2000) combinant les mesures par RMSE des erreurs sur différents aspects de l’hydrogramme (le volume total, la forme générale de l’hydrogramme, les pics de débits, les débits de base). Yapo et al. (1998) présentent d’ailleurs une extension de l’algorithme SCE au cas de l’optimisation multi-objectif, le MOCOM_UA (multi- objective complex evolution).

Mais il reste difficile, si ce n’est impossible, d’obtenir un jeu unique de paramètres pour un modèle pluie-débit conceptuel par une méthode de calibration automatique : la non-linéarité typique de ces modèles conduit à l’existence de plusieurs optimums et les procédures de calibration automatiques, même globales, sont incapables d’estimer l’optimum global avec confiance (Duan et al., 1992). Face à l’échec de détermination d’un optimum globale, la notion d’optimum multiples et le

concept d’équifinalité sont apparus.

3.3.2 Optimums multiples et concept d’équifinalité

3.3.2.1 Optimums multiples

Duan et al. (1992) recensent les cinq caractéristiques majeures qui compliquent le problème d’optimisation dans la calibration des modèles pluie-débit conceptuels : (i) à l’échelle globale il existe plusieurs régions d’attraction, (ii) à l’échelle locale de la région d’attraction il existe plusieurs optimum locaux, (iii) la fonction objectif n’est pas lisse et ses dérivées sont discontinues, variant de manière imprévisible à travers l’espace des paramètres, c’est pourquoi les méthodes locales d’optimisation basées sur les dérivées n’aboutissent pas, (iv) la surface réponse autour de l’optimum n’est pas nécessairement convexe, (v) sensibilité faible de la surface réponse dans la région de l’optimum et interaction des paramètres.

Différents pièges dans la surface réponse peuvent désorienter les algorithmes de calibration : (i) les optimums secondaires, que l’on peut parer en lançant l’algorithme de calibration depuis différents points initiaux de la surface réponse, (ii) les points de selle, qui correspondent à un maximum dans une direction mais qui sont des minimums le long d’une autre direction, (iii) les vallées qui traduisent l’interdépendance d’au moins deux paramètres, (iv) les plateaux qui caractérisent l’insensibilité aux paramètres concernés (Rakem, 1999). Plus le nombre de paramètres est important et plus ces problèmes s’aggravent, particulièrement avec les modèles physiques et les modèles distribués (Beven et Binley, 1992, Beven et Freer, 2001).

L’existence d’un optimum global n’est cependant pas remis en cause par ces auteurs qui concluent simplement sur l’incapacité des méthodes de calibration à détecter avec confiance cet optimum global et à rester bloquer sur les optimums secondaires de la surface réponse.

Cette vision est remise en cause par Beven qui défend le principe de l’équifinalité (Beven, 1993, Beven and Freer, 2001).

3.3.2.2 Concept d’équifinalité

D’une part la calibration classique suppose que la structure du modèle soit adéquate, or les erreurs sur la valeur des paramètres d'entrée et sur la structure du modèle peuvent se compenser pour ajuster les données observées (Dubus, 2002).

CHAPITRE 2 3. Modélisation

- 123 -

D’autre part elle ne prend pas en compte les incertitudes sur les données observées

(qui ne sont qu'une réalisation possible du système (Loehle, 1997)). Une corrélation

entre deux ou plusieurs paramètres peut également mener à une compensation des valeurs de ces paramètres, plusieurs jeux menant alors à des prédictions équivalentes. Il existe donc plusieurs jeux de paramètres fournissant des représentations également acceptables du système, sans qu’aucun d’eux ne soit « vrais » (Beven et Binley, 1992, Beven, 2005). De même, Kuczera et Parent (1998) justifient le concept d’équifinalité pour les modèles conceptuels, avançant qu’il serait naïf de compter sur une valeur unique de chaque paramètre étant donné que les modèles conceptuels ne sont rien d’autre que la combinaison empirique d’opérateurs mathématiques décrivant les caractéristqiues principales d’un cycle hydrologique idéalisé.

Bien sûr, pour un jeu de données en calibration et un critère de qualité il se dégagera toujours un modèle meilleur que les autres parmi les modèles acceptables. Mais plusieurs études d’optimisation montrent que le jeu optimal calibré dépend des données utilisées en calibration, ce qui traduit un phénomène de compensation entre erreur de structure du modèle, erreur sur les données de calibration et valeurs des paramètres. D’ailleurs, Grayson et al. (1992) mettent en garde les modélisateurs sur la compensation des erreurs de structure par les valeurs de paramètres calés. Le modèle peut ainsi reproduire les observations pour de mauvaises raisons (Table 2- 2), c’est-à- dire avec une mauvaise représentation du fonctionnement du bassin, grâce à la compensation des erreurs au sein du bassin versant (Senarath et al., 2000, Anderton et al. 2002).

1 2 3 4

structure OK OK NON NON

valeur paramètres OK NON NON OK

1. Bonne estimation pour les bonnes raisons ; 2. Mauvaise estimation pour les mauvaises raisons ; 3. Mauvaise estimation pour les bonnes raisons ; 4. Bonne estimation pour les mauvaises raisons.

Table 2- 2 Détail des quatres interactions possibles entre la qualité de la structure du modèle et la qualité de détermination des valeurs de paramètres du modèle pour la qualité finale de la modélisation (d’après Grayson et al., 1992).

Ainsi, les modèles hydrologiques Hortoniens distribués sont particulièrement sensibles à la teneur en eau initiale des sols (Senarath et al., 2000), qui est une valeur sujette à incertitude. Les paramètres Ks et n étant souvent ajustés par calibration, cette calibration est compromise par l’incertitude sur Oi. Il en résulte des problèmes d’équifinalité avéré (Downer et al., 2002).

Compte-tenu des sources d’erreur dans le processus de modélisation, les autres jeux de paramètres acceptables ne peuvent donc pas être rejetés (Beven, 2005). D'autres méthodes de calibration permettent la prise en compte de ce problème d'équifinalité dans la calibration des paramètres (Janssen and Heuberger, 1995, Loehle, 1997). La méthode GLUE (Beven et Binley, 1992) a été développée à partir de la méthode d’analyse de sensibilité de Hornberger-Spear-Young (Hornberger et Spear, 1981) dans l’optique de prendre en compte tous les jeux acceptables dans la modélisation. Elle se base sur ce concept d’équifinalité et reconnaît l’équivalence (ou la quasi-équivalence) de différents jeux de paramètres dans la calibration de modèles. Elle permet ainsi de prendre en compte la non-linéarité du modèle (Beven et Freer, 2001), celle là même qui

CHAPITRE 2 3. Modélisation

- 124 -

engendre minimas locaux, plateaux et vallées de la surface réponse qui gênent la démarche classique de calibration.

Le modèle conceptuel global que l’on se propose d’utiliser, et dans une moindre mesure le modèle conceptuel semi-distribué, nécessitent une calibration des paramètres.

Mais il est, d’une part, impossible de fixer une seule valeur de paramètre, principalement à cause de l’existence de plusieurs optimums pour les modèles non-linéaires que sont les modèles pluie-débit.

D’autre part, prenant en compte le fait que, face à des systèmes complexes, on ne peut pas assurer que la structure du modèle soit correcte, et admettant que les modèles utilisés sont souvent surparamétrés par rapport aux données de calibration disponibles, d’autant que ces données de calibration peuvent elles-mêmes être sujettes à des erreurs, on ne peut pas raisonnablement attendre qu’il y ait un optimum clairement défini dans la surface réponse des modèles.

Nous adhérons à ce concept d’équifinalité et recherchons tous les jeux de paramètres acceptables compte-tenu des sources d’erreur dans le processus de modélisation. Ca n’est d’ailleurs qu’en prenant en compte ces sources d’erreur, détaillées plus loin, que nous pouvons étudier complètement la capacité intrinsèque des modèles et définir des stratégies d’échantillonnage en lien avec ces capacités.

3.4 Incertitudes dans la modélisation