• Aucun résultat trouvé

2.4 Discussion et conclusion

3.1.1 Analyse d’incertitudes

Une analyse d’incertitudes vise à mesurer le degré de confiance que l’on peut espérer des sorties d’un modèle en fonction des valeurs de facteurs d’entrée dits incertains. Les quatre sources d’in- certitudes d’un modèle sont sa structure, le choix des équations utilisées, la précision de mesure des variables d’entrée et la précision d’estimation des paramètres du modèle. Nous analyserons ici les incertitudes liées à la paramétrisation uniquement. Le terme générique "facteur" et le mot "paramètre" seront donc indistinctement employés.

La première étape consiste à définir quels sont les paramètres incertains et dans quelle mesure ils sont amenés à varier, c’est-à-dire quelle est la distribution de probabilité des valeurs qu’ils peuvent prendre. On définit la distribution en s’appuyant sur des fondements théoriques (ex : tel paramètre est strictement positif, tel autre est inférieur/supérieur à tel seuil, etc.) et sur des estimations venant de données expérimentales quand elles sont accessibles. On peut estimer des paramètres d’après les données d’expérimentation de calibration ou recenser les valeurs trouvées par d’autres auteurs pour les mêmes processus et les mêmes équations. La sélection de valeurs pertinentes et la densité des observations sont primordiales pour garantir la robustesse de l’analyse. Lorsque la connaissance de la distribution d’un paramètres et le nombre d’observations expérimentales sont jugés insuffisants, une distribution uniforme est choisie. Seules les bornes du domaine de validité présumé doivent alors être renseignées. L’approximation sur la forme de la distribution est supposée plus petite que celle sur l’intervalle des valeurs possibles [Helton et Davis, 2000].

On s’intéresse ensuite à la distribution de probabilité de variable(s) de sortie d’intérêt, déter- minée par celle des facteurs incertains. Les modèles sont le plus souvent trop complexes pour que celles-ci puissent être calculées analytiquement. Des stratégies probabilistes ont donc été dévelop- pées pour approximer numériquement ces distributions.

Les techniques d’échantillonnage Monte-Carlo se prêtent bien à l’analyse d’incertitudes et peuvent aussi être utilisées pour étudier la sensibilité d’un modèle [Campolongo et al., 2000]. Ce sont des méthodes itératives qui consistent à exécuter des simulations en sélectionnant les va- leurs des paramètres incertains par un tirage aléatoire selon leur distribution. Plusieurs variantes existent. Dans la plus simple d’entre elle – échantillonnage aléatoire –, le très grand nombre de tirage est censé assurer la bonne couverture de l’espace des paramètres et les facteurs sont consi- dérés indépendants a priori. Si des corrélations existent entre certains facteurs, l’impact parfois considérable de combinaisons aberrantes peut maximiser les incertitudes, puis peut fausser l’ana- lyse de sensibilité selon la méthode utilisée. Une variante reposant sur la transformation de rangs des valeurs de paramètres permet de spécifier les corrélations et d’en tenir compte lors de l’échan- tillonnage [Helton et Davis, 2000].

Nous avons choisi d’analyser les incertitudes par une approche Monte-Carlo avec échantillonnage aléatoire. Cette méthode est simple et robuste si le nombre de simulations est suffisamment grand [Wallach et al., 2013]. Le nombre de simulations ne constituait pas une véritable contrainte pour nous, en raison de la brièveté de chaque simulation (environ une seconde) et grâce aux capacités de calcul disponibles. Reste la question des corrélations entre paramètres.

Nous avions fait des premiers tests de régression pour mettre en évidence d’éventuelles corré- lations. Ceux-ci n’ont pas permis d’identifier de couples de paramètres corrélés. Nous avons donc

choisi la méthode la plus simple à mettre en place, sans spécification d’interactions entre para- mètres. Les résultats de l’analyse révèleront donc un degré d’incertitudes maximum, comprenant éventuellement des combinaisons non naturelles entre paramètres.

3.1.2

Analyse de sensibilité

L’analyse de sensibilité permet de hiérarchiser les facteurs selon leur influence sur les sorties, c’est-à-dire selon leur contribution à la quantité d’incertitudes des variables de sortie. De très nombreuses méthodes sont disponibles. Certaines ont été conçues pour détecter rapidement les facteurs influents (méthodes de screening), d’autres étudient le comportement du modèle en réponse à la perturbation locale d’un seul facteur (méthodes locales) [Saltelli, 2000]. Les méthodes globales fournissent l’information la plus complète sur le fonctionnement du modèle car elles permettent d’apprécier son comportement sur tout l’espace des paramètres, en faisant varier l’ensemble des facteurs incertains simultanément et selon leur loi de distribution. C’est donc une méthode globale que nous devions choisir pour espérer répondre à nos objectifs.

Il serait long de présenter ici toutes les méthodes globales ainsi que les atouts et limitations de chacune. Notre choix s’est plus précisément articulé entre deux alternatives, pour des raisons pratiques. Nous aurions pu analyser la sensibilité à partir des résultats des scénarios obtenus à la suite du tirage Monte-Carlo opéré pour l’analyse des incertitudes. On peut par exemple approximer les résultats des scénarios par un modèle de régression linéaire. Les coefficients de cette régression s’interprètent alors comme des indices de sensibilité, donnant le sens et l’amplitude de l’influence de chaque terme – facteur ou interaction de facteurs – causant la variabilité. Comme pour l’ana- lyse d’incertitudes, l’échantillonnage par tirage Monte-Carlo permet d’explorer scrupuleusement l’espace des paramètres en faisant des combinaisons suivant la distribution de chacun. Cependant, ayant choisi au préalable un échantillonnage sans prise en compte d’éventuelles corrélations entre facteurs, nous nous exposions au risque que celles-ci faussent de manière significative les résultats de l’analyse de sensibilité [Helton et Davis, 2000].

Nous avions également pensé à la méthode utilisée dans le chapitre 2 pour quantifier l’influence de facteurs biotiques et abiotiques dans des conditions physiques hétérogènes. Il s’agissait d’une approche d’analyse de variance (ANOVA) sur un plan factoriel complet. L’ANOVA peut être appliquée à des facteurs qualitatifs (comme dans le chapitre 2) ou quantitatifs (comme par exemple ici, des paramètres). Cette méthode d’analyse de sensibilité est particulièrement avantageuse dans notre cas puisqu’elle car permet de détecter et de quantifier les interactions [Wallach et al., 2013] pas forcément connues a priori. En revanche, l’ANOVA traite les facteurs quantitatifs en un jeu restreint de niveaux discrets. La couverture de l’espace des paramètres est donc supposée partielle, par rapport aux méthodes basées sur un tirage Monte-Carlo [Campolongo et al., 2000]. De plus, les indices de sensibilité obtenus par ANOVA ne donnent pas d’indication sur le sens de la variation imprimée aux variables d’intérêt.

Il nous a cependant paru judicieux d’utiliser l’ANOVA comme méthode d’analyse de sensibilité du module de biodégradation pour sa simplicité vis-à-vis de la prise en compte des interactions, sans précautions nécessaires au préalable. Cette technique nous permettra de quantifier les interactions sans étape de travail supplémentaire. De plus, cette solution est la plus naturelle pour comparer les résultats de l’effet de facteurs physiques (chapitre 2) et des paramètres biologiques, puisque les deux auront été obtenus selon la même procédure.

3.2

Démarche conçue pour l’analyse des incertitudes et de la