• Aucun résultat trouvé

1.3 Objectif et démarche de modélisation

1.3.1 Boucle de progrès des modèles

La (re)formulation des modèles, leur calibration et leur évaluation sont des étapes primor- diales pour permettre leur application. L’utilisation des données observées joue un rôle central dans la calibration et l’évaluation des modèles. Williams et al. (2009) définit le concept de “fu- sion modèle-données” (model-data fusion, MDF) comme une série de procédures qui combine les données avec le modèle, tout en quantifiant l’incertitude respective des deux parties. Notre démarche se rapproche de celle-ci en suivant les étapes décrites en Fig. 1.10.

La boucle de progrès a comme intérêt d’intégrer les nouvelles connaissances sur les processus élémentaires. Elle a pour effet le développement d’un système complexe qui intègre différentes

1.3. OBJECTIF ET DÉMARCHE DE MODÉLISATION 25

FIG. 1.10 : Schéma de développement et d’application des modèles d’agro-écosystème (adapté de Williams et al. (2009) et Gabrielle (2006a)).

composantes (eau, sol, plante, microflore du sol) et différents niveaux d’organisation. Le carac- tère heuristique de la boucle de progrès permet d’améliorer la compréhension du fonctionnement des écosystèmes. La boucle a également un intérêt opérationnel, elle peut commencer par une définition d’un objectif de développement en relation avec son application future. Pour cela, les équations relatives aux processus étudiés sont sélectionnées et formulées, avant d’être intégrées au code existant sous forme d’un module qui doit rester compréhensible séparément du reste du modèle.

La calibration est une étape majeure. En effet, les modèles décrits ci-dessus ont l’inconvé- nient d’impliquer un nombre très important de paramètres pour simuler les nombreux processus en jeu. Chaque paramètre contient une part d’incertitude qui lui est propre et souvent mal connue, ce qui rend les sorties des modèles très incertaines. La mise au point de méthodes de calibration des paramètres couplées avec une quantification de l’incertitude des paramètres et des sorties du modèle est un défi majeur (Sutton et al., 2007). Les principales méthodes de calibration des modèles sont décrites dans l’encadré 4.

Comme il semble illusoire de pouvoir estimer simultanément un nombre important de para- mètres (>20), une étape de sélection d’un sous-ensemble de paramètres en amont de l’étape de calibration est nécessaire (Harmon et Challenor, 1997; Makowski et al., 2006). Les méthodes d’analyse de sensibilité globale permettent d’estimer les paramètres qui ont le plus d’influence sur les variables de sorties et donc de déterminer les paramètres à estimer avec les données. Les paramètres qui ont le moins d’influence conservent leurs valeurs nominales (Monod et al., 2006).

Encadré 4 :

Méthodes de calibration des paramètres

L’objectif de l’étape de calibration (ou d’estimation) des paramètres est de déterminer une valeur approchée des paramètres du modèle à partir de données observées. Deux grandes familles de méthodes d’estimation se différencient selon une approche fréquentiste ou une approche bayésienne.

La description des méthodes ci dessous provient de Makowski et Jeuffroy (2002a) et Makowski et al. (2006). Les approches fréquentistes utilisent des méthodes d’estimation qui permettent d’approcher une valeur fixe du vecteur de paramètres en utilisant un échantillon de données. Elles utilisent des fonctions appelées estimateurs qui permettent de relier les valeurs estimées des paramètres aux données observées.

La méthode des moindres carrés ordinaires est appliquée quand un seul de type de mesure est utilisé pour calculer l’estimateur du vecteur des paramètres. Celui-ci minimise la somme des carrés des écarts entre les observations et les prédictions. Cette méthode est mise en application pour des modèles non-linéaires avec des algorithmes itératifs de type Gauss-Newton. Le principal défaut de ces méthodes locales est que le résultat est très dépendant de la valeur de départ du vecteur de paramètres et que l’algorithme peut converger vers un minimum local. Des algorithmes itératifs d’optimisation globale permettent de s’assurer d’une convergence vers le minimum global (eg, l’algorithme du «recuit simulé»). La méthode des moindres carrés pondérés permet d’estimer les paramètres quand plusieurs types de mesures sont disponibles. L’estimateur des moindres carrés pondérés minimise la somme des carrés des écarts pondérés par les variances sur les mesures obtenues par les répétitions. Dans les cas où il n’y a pas ou peu de répétitions, on peut définir un modèle de variance et utiliser la méthode du maximum de vraisemblance pour estimer les paramètres.

L’utilisation de la connaissance a priori sur les paramètres peut être mise à profit avec les mé-

thodes bayésiennes, dont la première étape est la définition de la distribution a priori et la

deuxième étape est le calcul de la distribution a posteriori.

La distribution a priori peut être définie comme une loi uniforme dont les bornes définissent une

gamme de variation des paramètres et reflète le niveau d’incertitude des valeurs de paramètres avant de les confronter avec les données observées. L’étape suivante consiste à estimer une nou- velle distribution des paramètres à partir des données expérimentales en utilisant le théorème de Bayes. La distribution des paramètres obtenue est alors appelée distribution a posteriori et reflète à la fois les données de la littérature et les données expérimentales. Différentes valeurs des paramètres, par exemple l’espérance ou le mode de la distribution a posteriori, peuvent alors être utilisés dans le modèle. De plus, la distribution a posteriori permet de générer la distribution de probabilité des sorties du modèle et ainsi de quantifier l’incertitude du modèle. L’application des méthodes bayésiennes aux modèles non-linéaires requiert l’utilisation d’algorithmes de type Markov Chain Monte Carlo (MCMC), comme l’algorithme de Metropolis-Hastings décrit en détail dans le chapitre 2.

1.3. OBJECTIF ET DÉMARCHE DE MODÉLISATION 27

L’évaluation des modèles est réalisée en aval de la calibration. Les prédictions sont confron-

tées aux mesures observées indépendantes et des indicateurs statistiques permettent de juger de la performance du modèle (Makowski et Jeuffroy, 2002b; Wallach, 2006). Les données pour l’évaluation doivent être indépendantes des données utilisées pour construire ou calibrer les mo- dèles. L’évaluation permet de juger de la qualité de prédiction du modèle et quantifie l’erreur de prédiction (Wallach, 2006). Un choix doit donc être effectué quant à l’utilisation des données pour la calibration ou l’évaluation. Par ailleurs, le test multi-sites du modèle, grâce à un réseau multi-local de mesures, permet de s’assurer de sa robustesse à couvrir diverses conditions agro- pédoclimatiques. Cette étape est indispensable avant d’envisager une extrapolation spatiale du modèle. Une étape supplémentaire pour l’évaluation concerne la comparaison des modèles sur la base de jeux de données identiques. Nous avons vu dans la section 1.2.4.3 qu’elle a été assez peu appliquée pour les modèles d’écosystème mais est envisagée en perspective de cette thèse.

La mise en place d’expérimentations détaillées ou allégées permet d’appliquer les étapes de calibration et d’évaluation. Les données nécessaires pour la calibration des modèles ont besoin d’être détaillées, d’être mises en place sur plusieurs années avec une fine résolution temporelle et avec une incertitude quantifiée. Les observations doivent comprendre à la fois les données de flux mais aussi les variables qui régulent les processus. Par exemple, le suivi de l’humidité du sol, de sa concentration en azote et de la production de biomasse sont des données indispensables qui permettent de s’assurer de la pertinence globale du système simulé. Les mesures intensives de flux de GES peuvent être assurées en continu par la méthode des chambres automatiques ou par les méthodes micrométéorologiques. Les données pour le test multi-sites sont plus allégées et les points de mesure peuvent être ponctuels dans le temps. La mise en place de chambres manuelles convient à ce type de suivi.

L’étape d’application du modèle permet d’extrapoler les flux dans le temps, pour produire des bilans, ou dans l’espace, pour produire des inventaires. Cette étape ne peut être envisagée à condition que les étapes de calibration et d’évaluation aient été réalisées. Le passage de l’étape de la formulation ou d’intégration directement à l’étape d’application n’est pas concevable sans un minimum de vérifications de la performance avec des données expérimentales.

La confrontation du modèle avec des données expérimentales et son application permet d’identifier les processus manquants qui nécessitent d’être examiné. Par exemple, les processus

d’échanges de CH4, de consommation de N2O par le sol, et les émissions de N2O consécutives

aux épisodes de gel-dégel ont été identifiés comme manquants ou inadaptés dans les modèles d’agro-écosystème (Frolking et al., 1998). Ils devront être caractérisés par des mesures au la- boratoire et au champ puis intégrés au modèle. Le retour à l’étape d’analyse des processus ou d’intégration peut également être envisagé à la suite de l’étape de calibration ou d’évaluation. Si un paramètre considéré comme universel se révèle varier d’un site à un autre ou varier dans le temps, il est probable que certains mécanismes sont manquants dans le modèle et qu’il faut de nouveau analyser les processus. De même, si l’étape d’évaluation montre que la qualité de

prédiction du modèle est faible, la comparaison de modules puis leur intégration dans le modèle peuvent être requises.

Documents relatifs