• Aucun résultat trouvé

3.2 Analyse de sensibilité globale

3.2.3 Analyse de sensibilité avec des entrées fonctionnelles

3.2.3.2 Réduction de la dimension

La deuxième approche étudiée consiste à réduire la dimension des variables fonctionnelles en entrée de M en les approchant par des variables scalaires. En effet, il est plus simple d’estimer la distribution de variables scalaires et de réaliser ensuite des tirages Monte Carlo de ces variables.

Discrétisation des variables fonctionnelles

Une première manière de résumer une variable fonctionnelle par des variables scalaires consiste à la discrétiser. La densité jointe de la variable discrétisée est ensuite estimée afin de pouvoir réaliser les simulations Monte Carlo nécessaires à l’estimation des indices de Sobol’. Il peut cependant être difficile d’estimer la densité de probabilité jointe des points discrétisés, surtout si le nombre de points de discrétisation est élevé. Pour contourner cette difficulté, une solution grossière peut être de négliger la dépendance entre les points de la discrétisation et d’approcher la densité de probabilité jointe par le produit des densités marginales en chaque point, chacune de ces marginales étant plus facile à estimer que la loi jointe. Cette approche est détaillée dans l’algorithme 3.2. Cette hypothèse est très restrictive et n’est pas adaptée à tous les cas d’application. Heuvelink et al. (2010) ont utilisé cette approche sur un code de calcul d’étude des infiltrations de pesticides dont plusieurs entrées sont des variables spatiales. Ces variables étaient discrétisées sur 258 points. Les points de la grille de discrétisation étaient considérés comme suffisamment éloignés les uns des autres pour que la dépendance entre les différents points soit négligée. Dans cet exemple, les densités de probabilité pour les différents points de la discrétisation étaient modélisées par des lois log-normales indépendantes.

Division des domaines de définition des variables fonctionnelles

Une modélisation assez similaire consiste à séparer le domaine de variation de la variable fonctionnelle en quelques zones et à décrire chacune de ces zones par une ou plusieurs variables scalaires. Les variables scalaires relatives à une même sous-région peuvent être considérées comme dépendantes, alors que des variables de deux sous-régions différentes sont supposées indépendantes. Cette méthode repose sur une hypothèse d’indépendance entre les sous-régions, ce qui peut être une hypothèse très forte dans certains cas. Cette approche a été mise en œuvre notamment par Hall et al. (2005) et Volkova et al. (2008). Ces derniers ont appliqué cette méthode à un modèle d’étude du transport de radionucléides dans les nappes

Algorithme 3.2 Estimation par discrétisation des variables fonctionnelles

1. Générer les réalisations z1

i, . . . , zini des variables Zi, i ∈ {1, . . . , mX}.

2. Discrétiser ces réalisations.

3. Modéliser la densité de probabilité des variables fonctionnelles en chaque point de la discrétisation. 4. Créer un échantillon Monte Carlo en simulant selon la densité de probabilité estimée et selon les

distributions des variables scalaires.

5. Evaluer le code de calcul pour chaque point de l’échantillon.

6. Estimer les indices de sensibilité pour les variables scalaires et fonctionnelles.

phréatiques. Ils séparent en quatre sous-régions le domaine de variation des variables spatiales en entrée du modèle et décrivent chacune de ces sous-régions par une variable aléatoire : la valeur moyenne de la variable fonctionnelle sur la zone. Les quatre variables ainsi obtenues sont ensuite considérées comme indépendantes pour le calcul des indices de Sobol’.

Décomposition fonctionnelle

Il est aussi possible de décomposer les variables aléatoires fonctionnelles sur une base fonctionnelle. Pour chaque variable fonctionnelle Zi, di fonctions de base sont retenues dans la décomposition. Ainsi,

chaque variable est résumée par les di coefficients de sa décomposition sur la base. Pour chaque variable

fonctionnelle, les coefficients de la décomposition sont des variables scalaires dépendantes. La distribution jointe de ces variables scalaires est ensuite modélisée. Plusieurs méthodes de décomposition fonctionnelle et de modélisation de densités jointes peuvent être trouvées dans le chapitre 2. L’indice de sensibilité d’une variable fonctionnelle est alors approché par l’indice de sensibilité du groupe de ses coefficients sur la base (Jacques et al. 2006). L’algorithme 3.3 décrit les différentes étapes de cette méthodologie. Anstett-Collin et al. (2015) proposent une application de cette approche sur un code de calcul modélisant les flux thermiques d’un bâtiment. Parmi les entrées de ce simulateur, six sont des variables aléatoires temporelles. Anstett-Collin et al. (2015) proposent une décomposition fonctionnelle sur une base de Karhunen-Loève (Loève 1955).

Algorithme 3.3 Estimation par décomposition fonctionnelle

1. Générer les réalisations z1

i, . . . , zini des variables Zi, i ∈ {1, . . . , m}.

2. Appliquer une méthode de décomposition fonctionnelle aux réalisations des variables fonctionnelles et tronquer la base estimée.

3. Modéliser la densité de probabilité des coefficients de la décomposition.

4. Créer un échantillon Monte Carlo en simulant selon la densité de probabilité estimée des coeffi- cients de la décomposition et selon les distributions des variables scalaires. Construire les fonctions correspondant aux jeux de coefficients simulés.

5. Evaluer le code de calcul pour chaque point de l’échantillon.

6. Estimer les indices de sensibilité pour les variables scalaires et fonctionnelles.

Décomposition fonctionnelle et modèles fonctionnels linéaires

Enfin, Fort et al. (2013) étudient le cas particulier où M peut être approché par le modèle fonctionnel linéaire suivant : Y = µ + mZ X k=1 hZk, βki + ε,

où µ ∈ R, βk, 1 ≤ k ≤ mZ, sont des fonctions, h, i un produit scalaire et ε est un bruit centré et indépen-

dant des variables Z1, . . . , ZmZ. Pour ce faire, chaque variable fonctionnelle Zk, pour k ∈ {1, . . . , mX}, est décomposée selon la transformation de Karhunen-Loève (Loève 1955) :

Zkd X l=1 q λk k iφkl, où λk

1. . . , λkdet φk1, . . . , φkdsont respectivement les valeurs propres et les fonctions propres de l’opérateur de

covariance de Zk défini par f 7→ E (hZk, fiZk), et ξk1, . . . , ξkd sont des variables aléatoires indépendantes,

centrées et de variance 1. Pour l’échantillon de réalisations i.i.d. Z1

i, . . . , Z

mX

i , Yi1≤i≤n, Fort et al.

(2013) définissent l’estimateur suivant de l’indice de Sobol’ de Zk :

ˆ Sk= Pd l=1λ1k l 1 n(n−1) P 1≤i6=j≤nhZik, φkliYihZjk, φkliYj 1 n−1 Pn i=1 Yi− ¯Yn 2 ,

où ¯Yn est la moyenne des Y1, . . . , Yn. Le numérateur de cet estimateur est biaisé et son biais est égal

à P∞

l=d+1λklγl, avec β = P∞l=1γlφl. La limitation principale de cette méthode est qu’elle suppose la

linéarité du code M par rapport à ses entrées fonctionnelles.

Parmi les méthodes basées sur la réduction de dimension des variables fonctionnelles, celle utilisant la décomposition fonctionnelle semble être la plus prometteuse, car elle nécessite moins d’hypothèses sur les variables d’entrée, comme dans les deux premières méthodes, ou sur le code, comme dans la méthode proposée par Fort et al. (2013).

Documents relatifs