• Aucun résultat trouvé

Variabilité spatio-temporelle

IV. Calibration des modèles et falsification des hypothèses : outils intéressants

On retrouve comme un thème omniprésent la nécessité de mesures de terrain, d'une part pour comprendre les processus considérés, d'autre part pour juger de la modélisation à adopter et, une fois ce choix fait, pour permettre le développement optimal du modèle. Les campagnes de mesures et la conceptualisation doivent être décidées de pair : il faut restreindre les mesures à ce qui est nécessaire, mais en avoir assez pour pouvoir mener une modélisation cohérente. Cette nécessité de conduire les mesures en fonction de la structure de modélisation adoptée, plutôt que d'aller de mesures a priori vers une modélisation a posteriori, a déjà été soulignée (Oberlin 1990).

Par exemple, les mesures de conductivité hydraulique (voir annexe 1) sont des mesures quasi-ponctuelles, et nous verrons qu'elles ne permettent pas le plus souvent d'expliquer les débits observés sur un bassin versant, peut-être parce qu'elles n'intègrent pas l'effet des macropores. Il faut donc trouver des modes de mesure nouveaux, qui permettent d'identifier de façon plus globale les fonctions de distribution, ou de caractériser le fonctionnement du sous-système d'intérêt, sans passer par des campagnes de terrain titanesques pour déterminer les fonctions de distribution à partir de variables ponctuelles. Des outils et méthodes existent pour ce faire, par exemple la géochimie, le traçage isotopique, ou la télédétection.

Nous ne détaillons pas la théorie relative à ces disciplines, le lecteur intéressé trouvera plus de détails dans (Pionke et DeWalle, 1994, DeWalle et Pionke, 1994, Sigg et al., 1992) pour la géochimie, (Blavoux, 1978) pour le traçage isotopique, et (Gineste, 1998, Cognard-Plancq, 1996) pour la télédétection.

Là encore toutefois, l'application d'un seul de ces outils ne suffit pas, ils demandent à être utilisés en parallèle avec d'autres méthodes, et l'interprétation du fonctionnement d'un bassin versant à laquelle ils conduisent demande à être confrontée à d'autres sources de données et interprétation.

Ces techniques peuvent également apporter une aide précieuse dans la phase de calage ou de validation d’un modèle. En effet, l'adéquation à des débits à l'exutoire observés ne suffit pas pour juger d'un modèle : il peut y avoir des problèmes de structure, de telle sorte que différents ensembles de paramètres peuvent conduire aux mêmes résultats. Pour juger de la bonne structure d'un modèle, il faut alors pouvoir vérifier la prévision de variables intermédiaires (par exemple l’humidité du sol, la position de la nappe, l’extension des zones saturées, le débit produit par chaque versant). Ceci permet la validation des processus individuels et permet éventuellement d'améliorer certaines composantes. Si l'on veut en effet pouvoir transposer le modèle à d'autres bassins, ou y greffer des modules de qualité, il est nécessaire de respecter dans une certaine mesure les processus intervenant (Rogers, 1987). On conçoit donc que des méthodes de mesures qui donnent accès à des variables intégrant le fonctionnement du bassin ou de certaines de ses composantes, comme la géochimie ou la télédétection, puissent être d’intérêt, à condition de savoir exploiter les informations qu’elles nous apportent (Gineste, 1998).

IV.1. Modélisation stochastique

Compte tenu des incertitudes sur les données et quelquefois même sur les processus en jeu, et de la variabilité des grandeurs d'intérêt, une modélisation stochastique peut sembler appropriée, qu'il s'agisse de l'hydrologie ou du devenir de substances polluantes. Ainsi Jensen (1992) considère qu'une approche stochastique est un moyen rationnel de traiter la caractérisation spatiale de la variabilité, et d'établir un lien entre les incertitudes des paramètres et celles des prédictions. Toutefois cette approche, qui semble par ailleurs le meilleur moyen de caractériser la variabilité des grandeurs, nécessite la connaissance des lois de probabilité les plus courantes pour la variable considérée, ou au moins de leurs premiers moments.

Nous présentons tout d’abord quelques définitions propres à ce domaine afin d’utiliser les termes appropriés, puis les principales approches que nous avons rencontrées, avant que de réfléchir à l’utilité réelle que nous lui voyons.

IV.1.a. Définitions

L’incertitude (TUMEO, non daté) désigne la part de doute à propos d'une valeur. Ce terme ne comporte pas de jugement sur le degré de "correction" (dans le sens d'être exact) d'une valeur : c'est là une différence cruciale entre erreur et incertitude.

• L'erreur est la déviation d'un résultat par rapport à une valeur ou un ensemble de valeurs historiques supposé être la "vraie" valeur pour ce lieu, cet ensemble de conditions, ce moment.

• L'incertitude appliquée à un modèle implique seulement qu'une valeur donnée peut advenir ou pas dans le futur. La connaissance incomplète des processus ou l'échec à inclure tous les facteurs pertinents qui influent sur la variable d'intérêt résulteront en incertitude. Pour un processus déterministe, une connaissance accrue ou une meilleure compréhension des processus naturels et une représentation plus précise de l'environnement réduiront l'incertitude.

Aléatoire : désigne le caractère de phénomènes non prédictibles dans le temps ou l'espace ; c'est un concept bien défini en mathématiques. Un processus est aléatoire si, étant donné une connaissance complète de toutes les sorties antérieures, on ne peut prévoir la prochaine. De par la nature complexe des systèmes environnementaux, les processus naturels se répètent rarement exactement, même si toutes les conditions semblent les mêmes. A chaque moment ou à chaque point de l'espace, il y a donc une gamme de réalisations possible des processus. Une caractéristique importante de l'aléatoire est son lien ou non aux probabilités : si un phénomène est aléatoire et totalement imprédictible, il est chaotique ; si le processus est aléatoire mais que le résultat suit un schéma tel que la connaissance des résultats antérieurs permet l'identification des probabilités des résultats à la prochaine itération, le processus est stochastique. Stochastique : les variations aléatoires de processus stochastiques dans le temps et/ou l'espace, peuvent être décrites par des théories probabilistes. Les phénomènes stochastiques représentent en fait une partie des phénomènes aléatoires, qui incluent également les phénomènes chaotiques.

Au total, l'incertitude englobe, mais n'équivaut pas à l'erreur ou la notion de probabilité. Les raisons pour lesquelles les réponses d'un modèle sont incertaines sont entre autres qu'il peut y avoir erreur dans les données avec lesquelles le modèle est calibré, dans les hypothèses sous-jacentes au modèle ou à sa simplification, ou dans les paramètres et les variables d'entrées. Quand bien même toutes ces erreurs seraient éliminées, il resterait une incertitude : les processus naturels sont en effet intrinsèquement aléatoires, à la fois stochastiques et chaotiques.

IV.1.b. Méthodes employées

L’essentiel des articles consultés traite de l’écoulement subsurfacique saturé, ou de la modélisation de la qualité de l’eau (le plus souvent dans la rivière, du point de vue biochimique). Seuls quelques articles concernent la zone non saturée, ou le transfert de produits chimiques dans les sols. Nous ne détaillerons pas les méthodes employées, qui passent le plus souvent par des développements mathématiques assez lourds, et qui représentent un vaste champ de recherche. Nous nous contenterons d’en donner les grandes lignes.

Il existe essentiellement deux approches pour la modélisation stochastique (Zielinski, 1991), suivant que l’on considère que les phénomènes sont connus et que seules les valeurs d’entrée du modèle sont aléatoires, ou que les phénomènes eux-mêmes sont incertains.

• Dans le premier cas, on peut appliquer la méthode de Monte Carlo, qui consiste à appliquer plusieurs fois le modèle, avec un jeu de paramètres à chaque fois différent, issu des distributions de probabilité relatives à chaque paramètre (en respectant les fonctions de corrélation, quand elles sont connues). L'ensemble des résultats conduit alors un résultat "moyen", et une estimation de l'incertitude associée. Une autre méthode est celle nommée "fonction de probabilité/moment" (PDF/M) par ses auteurs (Tumeo et Orlob, 1989). C'est un processus en deux étapes : on étend d'abord les équations gouvernantes de base pour y inclure les termes stochastiques. Ceux-ci sont alors séparés des termes non fluctuants et les ensembles d'équations résultant sont résolus simultanément. Cette approche fournit donc des solutions analytiques, et ses auteurs la jugent plus flexible que la méthode de Monte-Carlo pour traiter des situations environnementales complexes. L'exemple donné est toutefois très simple (modélisation de la demande biologique en oxygène dans un cours d'eau, qui passe par une simple équation différentielle du premier ordre), comme d'ailleurs

tous ceux qu'on a rencontrés dans cette recherche bibliographique et qui utilisent une solution analytique.

• Le deuxième cas est plus compliqué du point de vue mathématique, et il n'existe pas de solution analytique, sauf si le processus d'entrée est gaussien (Zielinski, 1991).

Notons que pour ce qui est du comportement hydrologique d’un bassin, et notamment des phénomènes générant sa réponse rapide aux événements pluvieux, les processus dominants mêmes sont inconnus, et que l’on se trouve donc plutôt dans le deuxième cas, bien que l’on puisse arguer qu’une connaissance parfaite du système permettrait d’identifier ces processus dominants.

L’ensemble des solutions analytiques passaient par l'hypothèse de fluctuations faibles par rapport à la moyenne, et de processus relativement linéaires. L'analyse spectrale par exemple, utilisée en hydrogéologie stochastique (Gelhar, 1986) suppose que les perturbations sont relativement faibles, et que les perturbations de la charge hydraulique sont un phénomène stationnaire. L'application de ce type de solutions aux processus se déroulant dans la zone non saturée nous paraît donc sujette à caution.

Par contre, si l'on suppose les processus connus, et que seules les données sont incertaines, l'application de la méthode de Monte Carlo peut donner des indications sur le comportement prévisible du système, et éventuellement mettre en évidence les paramètres entraînant la plus grande incertitude, et sur lesquels il est bon de faire porter les efforts de mesure. Une autre application intéressante de cette méthode part du constat qu'il n'existe pas un jeu unique de paramètres optimaux, mais que plusieurs ensembles de paramètres sont équivalents, en termes d'adéquation aux débits, de par la surparamétrisation de la grande majorité des modèles (Freer, 1996). On conditionne alors l'acceptabilité d'un jeu de paramètres à la vraisemblance des simulations auxquels il conduit, en appliquant le théorème de Bayes sur les probabilités conditionnelles. Cette technique (Generalised Likelihood Uncertainty Estimation : GLUE ; Beven, 1991) permet de mettre à profit des données nouvelles, en augmentant les contraintes auxquelles doivent satisfaire les paramètres. La pondération de la fonction de vraisemblance utilisée est évidemment subjective, même si l'on peut juger de la pertinence des coefficients de pondération choisis à la qualité des simulations obtenues. Cette vraisemblance peut être basée sur les seuls débits, ou sur d'autres données, par exemple l'extension de surfaces saturées (Franks et al., 1998). Une telle démarche est évidemment peu compatible avec l'application d'un modèle mécaniste.

IV.1.c. Conclusion concernant la modélisation stochastique

Si la modélisation stochastique paraissait au premier abord prometteuse pour permettre de prendre en compte de façon "naturelle" la variabilité spatio-temporelle des paramètres déterminant le comportement hydrologique global d'un versant ou d'un bassin versant, on voit que sa mise en oeuvre est compromise par la variabilité importante des paramètres, et la non linéarité marquée des processus en jeu. De plus, les fonctions de distributions de probabilité des paramètres ne sont le plus souvent pas connues, et on ne peut guère pour l'instant passer par une modélisation inverse pour déterminer ces distributions de probabilité : cela supposerait de s'appuyer sur un modèle dont on est sûr qu'il représente les processus dominants, ce qui est justement l'objectif recherché.

Malgré ces considérations quelque peu pessimistes, la modélisation stochastique nous paraît toutefois digne d’intérêt dans le domaine de la modélisation hydrologique des petits bassins versants, en permettant par exemple de caractériser le fonctionnement de sous-systèmes, ou de certaines composantes de ces sous-systèmes. Notamment, on ne voit guère comment réussir à caractériser les propriétés hydrodynamiques des sols sans s’appuyer sur des concepts de probabilité. Ainsi, Chappell et Ternan (1992) considèrent que, pour ce qui concerne ces caractéristiques, on peut limiter les mesures à effectuer en reconnaissant la structure spatiale des hétérogénéités, dont une grande partie est liée aux horizons pédologiques et à la végétation. Il affirme que des études finalisées permettraient de relier les caractéristiques hydrologiques importantes (conductivité hydraulique à saturation, perméabilité, capacité d'humidité spécifique) à la morphologie du bassin et de caractériser la variabilité existant à l'intérieur de chaque couche.

V. Conclusions

Ces considérations sur la variabilité spatio-temporelle inhérente aux systèmes naturels et ses implications pour la construction de modèles ont montré la nécessité d’une approche multidisciplinaire, afin d’exploiter au mieux les données disponibles. Le jeu de la modélisation consiste en effet à formuler des hypothèses sur le comportement du système, en s’appuyant sur certaines sources de données, et à chercher à les valider, ou au contraire les infirmer, en confrontant les conséquences qu’elles impliquent à d’autres jeux de données. Ce n’est en effet pas tant la quantité de données qui importe, que l'information qu'elles apportent pour le problème à traiter ; il nous semble donc plus pertinent de varier les sources de données que d’accroître le nombre de données relatives au même domaine.

Une question essentielle dans la prise en compte de la variabilité dans la modélisation est de juger si la somme des variabilités à petite échelle conduit à une convergence ou une divergence pour un domaine plus grand.

En fait, la réponse varie avec le problème considéré :

• on peut penser qu’en stricts termes de flux, il y a convergence pour l’eau, et dans une moindre mesure pour des polluants au comportement assez linéaire (ce qui explique l'intérêt des modèles conceptuels globaux). Des paramètres effectifs suffisent alors, et on peut ne représenter que les processus dominants,

• pour certaines composantes de l’écoulement (macropores, intumescence de la nappe...) et les variables observables qui en découlent, et surtout pour le devenir des produits phytosanitaires, la prise en compte explicite de la variabilité s’impose, et on voit mal comment faire l’économie d’une certaine représentation de phénomènes locaux.