• Aucun résultat trouvé

CHAPITRE 2 REVUE DE LA LITTÉRATURE

2.3 Incertitudes en ACV et aide à la décision

2.3.4 Approches pour mener des analyses de sensibilité en ACV

Pour identifier les paramètres clefs ayant le plus d’influence sur l’incertitude des résultats d’ACV, plusieurs types d’analyses de sensibilité peuvent être menées (Borgonovo & Plischke, 2016; Igos et al., 2015).

Les analyses de sensibilité locale permettent d’étudier les effets de petites variations des données d’entrée sur les résultats ACV. Ces analyses sont déterministes par nature car aucune distribution de probabilité n’est associée aux données d’entrée. La plus courante est l’analyse des perturbations qui consiste à faire varier un seul paramètre à la fois et à calculer le facteur de sensibilité du paramètre d’après son influence sur les résultats (M. Huijbregts, Norris, & Bretz, 2001). Les variations peuvent être représentées sur des diagrammes tornades. Plusieurs paramètres peuvent également être modifiés en même temps afin de réaliser une analyse de scénarios. Ces pratiques trouvent vite leur limite car elles supposent une sélection des paramètres testés au préalable, elles ignorent la corrélation possible entre les paramètres et elles n’explorent pas non plus toutes les combinaisons possibles entre ces paramètres (C. L. Mutel et al., 2013). Des facteurs de sensibilité des données d’entrées peuvent également être calculés à partir de la structure matricielle de l’ACV (Sakai & Yokoyama, 2002). Même si toutes les données d’entrée sont prises en compte, cette méthode teste leur sensibilité sur une variation minime (dérivée première autour de la valeur déterministe), elle ne prend donc pas en compte les véritables plages de variation des données d’entrées en ACV.

Les analyses de sensibilité globale permettent d’explorer l’ensemble de l’espace des données

nature car une distribution de probabilité doit être associée aux données d’entrée. Les méthodes les plus courantes pour réaliser des analyses de sensibilité globale en ACV sont les suivantes :

• Méthodes analytiques. L’utilisation des méthodes analytiques pour calculer les facteurs de sensibilité grâce à la structure matricielle de l’ACV ont été proposées (Heijungs, 2010; Imbeault-Tétreault, 2010). Ces approches souffrent de certaines limites soulignées par les auteurs : elles ne fournissent des résultats plus robustes que pour de faibles variations et ne prennent pas en compte la corrélation entre les données d’entrée. Cependant Heijungs (2010) insiste sur le fait que cette méthode est applicable quelle que soit la loi de distribution des données d’entrée pourvu qu’une variance puisse être définie.

• Méthodes basées sur des régressions. Ces méthodes sont non-paramétriques (ne dépendent pas de la nature de la distribution de probabilité) et permettent de calculer des indicateurs de mesures de sensibilité basé sur des régressions (souvent linéaires) directement à partir de résultats de Monte Carlo. Ces indicateurs peuvent être par exemple le coefficient de régression standard ou le coefficient de corrélation de Pearson. Le coefficient de détermination permet de mesurer le pouvoir explicatif de la régression, et donc la confiance à accorder aux indicateurs de mesures de sensibilité. Lorsque le modèle évalué est non-linéaire et contient des interactions entre ses variables, comme c’est le cas en ACV, le pouvoir explicatif de la régression est souvent faible (Borgonovo & Plischke, 2016), et donc l’utilisation des méthodes basées sur des régressions est à éviter. L’utilisation des rangs plutôt que des valeurs originales pour calculer la corrélation de Pearson permet d’obtenir le coefficient de corrélation de Spearman. Il peut être utilisé pour des modèles non-linéaire et monotone. Ce coefficient permet de calculer la contribution à la variance des données d’entrée à la variance du résultat, qui a été utilisé en ACV pour identifier les plus gros contributeurs à l’impact (Geisler, Hellweg, & Hungerbühler, 2005; C. L. Mutel et al., 2013; Pfister & Scherer, 2015a). Toutefois, Pfister et al. (2015) note que la contribution à la variance basée sur le coefficient de corrélation de Spearman n’est pas une mesure de sensibilité robuste à cause du grand nombre de variables d’entrée en ACV (Pfister & Scherer, 2015a). En effet, les conclusions basées sur les rangs ne peuvent pas être si facilement transposées au modèle original car le coefficient de corrélation de Spearman tend à surestimer les effets moyens au détriment des effets dues aux interactions entre variables (Saltelli & Sobol’, 1995). De ce fait, plus le niveau d’interaction entre les

variables est élevé, comme c’est le cas en ACV, plus le coefficient de corrélation de Spearman risque d’être erroné. Par ailleurs, le calcul des coefficients de corrélation se base sur les résultats des simulations de Monte Carlo et est donc soumis au problème de temps de calcul lié à cette méthode. Mutel et al. (2013) proposent donc d’y ajouter une étape de sélection des données d’entrée les plus sensibles grâce à la méthode des effets élémentaires qui permet de prendre en compte les plages de variation des données d’entrée (Saltelli & Annoni, 2010). Cette étape supplémentaire permet de réduire le temps de calcul d’un ordre de grandeur mais cela reste néanmoins insuffisant pour une identification rapide des données d’entrée les plus influentes (C. L. Mutel et al., 2013). Une solution proposée par l’auteur est que les développeurs de bases de données calculent à l’avance les paramètres les plus sensibles pour leurs jeux de données.

• Méthodes basées sur la variance. Ces méthodes évaluent l’importance d’une variable d’entrée pour la réduction de variance des résultats du modèle attendue si la valeur de cette variable était connue avec certitude. Un exemple de méthode de décomposition de la variance déjà utilisé en ACV est la méthode FAST (De Koning et al., 2010). Cependant cette méthode est efficace pour des modèles avec aucune ou très peu d’interactions entre variables (Saltelli & Bolado, 1998). Un autre exemple de méthode de décomposition de la variance déjà utilisée en ACV sont les indices de Sobol (Padey, Girard, le Boulch, & Blanc, 2013; Sobol, 1993; Wei et al., 2015). Ces indices permettent de quantifier l’influence d’une donnée d’entrée sur l’incertitude des résultats. Ils sont non paramétriques et peuvent être calculés même lorsque le modèle contient des interactions (modèle non linéaire) ou des corrélations entre variables (Most, 2012; Saltelli et al., 2010; Xu & Gertner, 2008). Cependant, les méthodes basées sur la variance nécessitent de connaitre les distributions de probabilité de chaque donnée d’entrée et requièrent un temps de calcul qui peut être très long si le nombre de données incertaines est élevé.