• Aucun résultat trouvé

1.6 Introduction au Chapitre 4

1.6.2 Approches existantes

Nous présentons maintenant les deux approches existant dans la littérature.

Paramétrisation de la viscosité

L’approche décrite ici est celle de [71]. Dans cette approche, la condition

initiale et la condition aux limites sont fixées (à zéro), et le terme de forçage

est fixé (à 1). Le seul paramètre est donc la viscosité ν. Nous résumons

rapidement les caractéristiques de cette approche ; en effet, ces dernières sont

reprises dans notre approche, les détails peuvent donc être trouvés dans la

section suivante ou dans le chapitre 4.

Gestion de la dépendance en temps et de la non-linéarité. L’équation

de Burgers est d’abord discrétisée en temps suivant un schéma implicite,

c’est-à-dire que l’on se donne un pas de temps ∆t > 0 et que l’on cherche

u

1

, . . . , u

T /∆t

satisfaisant la relation de récurrence :

u

t+1

−∆tF(t, u

t+1

) =u

t

,t,

F(t,·) est un opérateur différentiel en espace.

Chacune de ces relations est une EDP (non-linéaire) faisant intervenir

seule-ment les variables d’espace. L’étape suivante est de discrétiser en espace, par

une méthode d’éléments finis P

1

, ce qui transforme l’EDP non-linéaire en

système d’équations algébriques non-linéaires.

La résolution de ce système non-linéaire est alors effectuée à l’aide de la

méthode de Newton, qui ramène le problème non-linéaire à une succession

de problèmes linéaires. Chacun de ces problèmes linéaires peut être alors

traité par la méthode base réduite, ce qui donne une procédure offline/online

de calcul deue.

Choix de base. Les auteurs proposent d’utiliser une variante de la

mé-thode greedy, adaptée afin de tenir compte de la dépendance temporelle.

Borne d’erreur. Pour chaque pas de temps t

k

, une borne d’erreur sur

ku(t

k

)ue(t

k

)k est établie, où k·k est la norme L

2

(0,1). Les auteurs

dé-plorent la croissance exponentielle de cette borne d’erreur en fonction du

temps et constatent que cette croissance est encore plus importante dans le

cas des faibles viscosités.

Paramétrisation complète

L’autre référence existante est [59]. L’approche est très similaire à celle

dé-crite plus haut, à ceci près qu’elle permet la paramétrisation de la condition

initiale, de la condition aux limites de Dirichlet et du forçage sous la forme

(1.6.1).

La paramétrisation de la condition de Dirichlet se fait en se ramenant

d’abord, par translation, au cas où cette condition est nulle.

Signalons que les résultats numériques ayant trait à la borne d’erreur ne sont

pas présentés dans cette publication (c’est la vraie erreur qui est représentée,

et le calcul de cette vraie erreur nécessite de calculer la « vraie » solution

numérique, et c’est précisément ce que l’on souhaite éviter en utilisant une

réduction de modèle). Par ailleurs, les tests numériques sont faits avec des

conditions aux limites très proches (numériquement indiscernables) d’une

condition nulle.

1.6.3 Notre approche

Phase offline/online. Nous choisissons, c’est là une des différences entre

notre approche et celles présentées plus haut, d’intégrer la condition aux

limites de Dirichlet sous forme faible, c’est-à-dire que nous modifions la

forme faible de l’équation de Burgers (4.1.6) en une forme faible pénalisée

(4.1.9) imposant une valeur au bord proche de celle souhaitée. L’intérêt de

cette technique, comparée à l’approche décrite ci-dessus, est qu’elle introduit

moins de termes dans la décomposition affine des problèmes variationnels (le

nombre Q dans 1.3.3), ce qui diminue les temps de calcul offline et online,

ainsi que le besoin en espace de stockage des éléments calculés lors de la

phase offline.

Le reste de la réduction est similaire aux approches existantes : la forme

faible pénalisée (4.1.9) est discrétisée en espace pour obtenir (4.1.11), puis

en temps (section 4.1.2). Enfin, la méthode de Newton est appliquée pour

obtenir l’équation linéarisée (4.1.14), qui est ensuite réduite dans la section

4.2, en suivant le principe donné en section1.3.3.

Choix de base. Nous considérons trois méthodes de choix de base réduite :

1. le choix basé sur la POD, qui est une adaptation de la méthode POD

présentée en section 1.3.3; ce choix est décrit en section 4.2.3;

2. le choix basé sur un algorithme glouton (greedy), qui est utilisé dans

[71] ; l’algorithme est rebaptisé « local greedy » et est détaillé section

4.2.3;

3. le choix hybride « POD-Greedy », qui prend sa source dans [46] et que

nous décrivons section 4.2.3.

Borne d’erreur. Un aspect important de cette contribution est la borne

d’erreur a posteriori, qui est obtenue par une méthode différente de celle

existant dans la littérature, et qui permet d’effectuer une majoration plus

fine. Cette borne d’erreur, ainsi que sa méthode de calcul, est décrite en

détail dans la section4.3.

Résultats obtenus. Les résultats numériques, présentés dans la section

4.4, montrent notamment que la réduction de l’équation de Burgers permet

un gain en temps de calcul significatif, tel qu’un gain de 85% en temps de

calcul, au prix d’une erreur relative certifiée deun pour mille(section4.4.2).

Par ailleurs, notre borne d’erreur est comparée avec la borne existante

(sec-tion4.4.5), et la comparaison est clairement à l’avantage de notre approche.

Enfin, les trois procédures de choix de base sont comparées en termes de

borne d’erreur relative moyenne et de borne d’erreur maximale (Figure4.7).

Nous voyons que le choix POD donne le meilleur résultat en termes de borne

moyenne, alors que le greedy local permet de minimiser la borne maximale.

Ce résultat, peu surprenant au regard de la construction de ces méthodes,

est confirmé par la Figure4.6(même si pourn= 10 la méthode POD semble

en-dessous de la méthode greedy, il faut remarquer qu’à ce stade, l’erreur

relative, de l’ordre de 10

−6

est inférieure à la précision numérique).

1.7 Introduction au Chapitre 5

Estimation d’erreur sortie-dépendante pour la

mé-thode base réduite

Le chapitre5 fait l’objet d’une publication soumise [Janon4]. Il a pour but

d’apporter une réponse à la question 5, à savoir le développement d’une

borne d’erreur métamodèle dépendant de la sortie (quantité d’intérêt)

consi-dérée.

Cette section d’introduction au chapitre5 procède dans le même ordre que

la section précédente : description de la problématique, présentation des

approches existantes, résumé de notre approche et résultats obtenus.

1.7.1 Problématique

Avant de décrire la problématique de ce chapitre, commençons par introduire

son contexte et ses notations.

Dans le chapitre 5, nous considérons un espace de dimension finieX, nous

notonsµle paramètre d’entrée et nous considérons la solutionu(µ)X du

système d’équations linéaires :

A(µ)u(µ) =f(µ),

pour une matriceA(µ) et un vecteur f(µ) pouvant s’écrire :

A(µ) =

Q

X

q=1

Θ

q

(µ)A

q

, f(µ) =

Q

X

q=1

γ

q

(µ)f

q

.

Typiquement, ce système d’équations est obtenu en discrétisant la forme

faible d’une équation aux dérivées partielles, dans l’espace de grande

di-mension X. L’application de la méthode base réduite (voir 1.3.3) à cette

équation mène au système d’équations réduit :

e

A(µ)eu(µ) =fe(µ),

d’inconnueue(µ) appartenant à un espace réduitXe ⊂Xfixé (Xe est l’espace

engendré par la base réduite, choisie par exemple par l’une des méthodes

présentée en section 1.3.3).

Remarquons que, comme dans le chapitre précédent, le vecteur d’entrée est

notéµ et non X, et que la sortie du modèle n’est pas notée f mais s:

s(µ) =σ(u(µ)).

Cette sortie est supposée linéaire en u(µ). Autrement dit, σ est une forme

linéaire deX.

On définitsepar :

e

s(µ) =σ(ue(µ)).

Une fois qu’ont été calculés, grâce à une procédure offline/online dont la

procédure online est de complexité indépendante de dimX, les coefficients

de ue(µ) dans la base réduite engendrant Xe, le scalaire se(µ) est rapide à

calculer. Il est donc naturel de le considérer comme « sortie réduite » du

modèle, et d’utiliser escomme métamodèle en lieu et place des.

La problématique principale du chapitre est celle de la question 5 de la

section 1.1, à savoir de donner une borne explicitement calculable, via une

procédure offline/online avec phase online de complexité indépendante de

dimX, pour l’erreur de métamodèle|s(µ)es(µ)|. Dans notre contexte, une

telle borne d’erreur sortie-dépendante est motivée par le fait qu’en analyse

de sensibilité, on considère le modèle uniquement au travers de cette quantité

d’intérêt.

Nous souhaitons également pouvoir utiliser cette borne pour certifier le

cal-cul des indices de Sobol à partir du métamodèle, rejoignant en cela notre

question 3.

1.7.2 Approches existantes

Approche « borne Lipschitz »

La première possibilité est d’utiliser la norme duale de s:

L= sup

vX,v6=0

s(v)

kvk

et d’utiliser la linéarité despour écrire la borne suivante :

|s(µ)se(µ)| ≤Lku(µ)eu(µ)k ≤

u

(µ),

ε

u

(µ) désigne la borne supérieure sur ku(µ)ue(µ)k donnée par la

mé-thode base réduite (voir section 1.3.3).

Nous avons donné le nom de « borne Lipschitz » à cette borne, puisqueL

coïncide avec la constante de Lipschitz de s dans le cas où s est linéaire.

Dans le cas où sn’est pas linéaire, cette borne est toujours valable si sest

L-lipschitzienne.

Approche basée sur l’adjoint

Dans cette section nous supposons, pour simplifier, que la matriceA(µ) est

symétrique pour tout µ. Nous supposons également que A(µ) est définie

positive.

L’autre approche disponible dans la littérature, décrite dans [72] et prenant

sa source dans [76], est de considérer la solutionu

a

(µ) du problème adjoint :

A(µ)u

a

(µ) =l, (1.7.1)

l est le vecteur deX représentant la forme linéaire s:

s=hl,·i.

Le problème 1.7.1 peut se voir appliquer la méthode base réduite, ce qui

permet de calculer une solution réduite adjointeue

a

(µ).

L’approche basée sur l’adjoint consiste à considérer comme sortie réduite la

sortie réduite « corrigée » :

e

s

a

(µ) =σ(ue(µ)) +hA(µ)ue(µ)f(µ),eu

a

(µ)i.

Cette sortie corrigée admet la borne d’erreur suivante :

|s(µ)se

a

(µ)| ≤ kr(µ)k

kr

a

(µ)k

α(µ) , (1.7.2)

r(µ) et r

a

(µ) désignent les formes linéaires surX suivantes :

r(µ)(v) =v

t

A(µ)ue(µ)v

t

f(µ) r

a

(µ)(v) =v

t

A(µ)ue

a

(µ) +v

t

l,

où, pour toute forme linéaire φsurX,

kφk

= sup

vX,v6=0

φ(v)

kvk,

et oùα(µ) est la constante de coercivité deA(µ) :

α(µ) = inf

v,wX,v6=0,w6=0

v

t

A(µ)w

kvk kwk.

Remarquons queα(µ)>0 par définie-positivité de A(µ).

En pratique, la borne (1.7.2) est calculable, grâce à une procédure offline/online

de calcul des normes des résidus kr(µ)k et kr

a

(µ)k (voir [Janon5] §3.2 et

[72]), et d’une borne inférieure sur α(µ) (voir [Janon5] §3.3 et [72]).

1.7.3 Notre approche

Borne d’erreur

Nous pouvons faire les remarques suivantes sur les deux approches proposées

plus haut :

– d’une part, la borne Lipschitz est une borne optimale, parmi les bornes

qui ne dépendent que de la borneε

u

surkuuek;

– d’autre part, la borne basée sur l’adjoint donne de meilleurs résultats

que la borne Lipschitz mais elle nécessite l’application de la méthode base

réduite sur le problème adjoint, ce qui double le temps de calcul nécessaire

aux phases offline et online.

La borne d’erreur que nous proposons au chapitre5 est intermédiaire entre

ces deux approches, c’est-à-dire qu’elle fait entrer en jeu d’autres quantités

que ε

u

, afin d’obtenir une borne d’erreur plus performante que la borne

Lipschitz, tout en ne nécessitant pas la considération du problème adjoint,

afin de ne pas augmenter le temps de calcul outre mesure.

L’idée principale est de remarquer que les deux bornes précédentes se basent

toutes sur un calcul offline/online de la norme du résidukr(µ)k

, alors qu’il

est également possible de donner une procédure offline/online efficace pour

calculer le produit scalaire der(µ) avec un vecteur déterminé durant la phase

offline.

Nous proposons donc de choisir une base orthonormée Φ ={φ

1

, . . . , φ

dimX

}

de X, de tronquer cette base en ne gardant que N <dimX vecteurs, et de

borner|s−es|en fonction desN produits scalaires :

hr(µ), φ

1

i, . . . ,hr(µ), φ

N

i.

Plus spécifiquement, nous obtenons une borne en probabilité (relativement

àµ), c’est-à-dire que nous explicitons une quantité ε(µ, α, N,Φ) telle que :

P(|sse| ≥ε(µ, α))α, (1.7.3)

pour un niveau de risqueα]0; 1[ fixé.

L’expression deε(µ, α, N,Φ) est la suivante :

ε(µ, α, N,Φ) =T

1

(µ, N,Φ) +T

2

(N,Φ)

α ,

T

1

(µ, N,Φ) et T

2

(N,Φ) sont définies section 5.1.2. La justification de

(1.7.3) fait l’objet du théorème 5du chapitre 5.

Dans la suite du chapitre, nous donnons une heuristique pour le choix de Φ,

basée sur le théorème6 chapitre5, et, dans la section 5.1.3, nous décrivons

la procédure offline/online de calcul et d’estimation deT

1

etT

2

.

Application à l’analyse de sensibilité

La borne d’erreur que nous obtenons est de nature probabiliste. La méthode

développée au chapitre2 nécessitant une borne déterministe, il convient de

l’adapter afin de tenir compte du risque probabiliste de la borne métamodèle.

C’est ce qui est fait dans la section 5.2, où, dans le théorème 7, nous

corri-geons le risque de l’intervalle de confiance combiné décrit au chapitre 2 en

fonction du risque de la borne d’erreur.

Résultats obtenus

L’évaluation de notre méthode s’est faite sur deux cas test (sections 5.3 et

5.4).

Dans les deux cas test, nous constatons (figures5.1et5.2) que la borne que

nous proposons donne de meilleurs résultats (en termes de borne d’erreur

moyennée sur un échantillon de paramètres de tests) que la borne Lipschitz

et que la borne basée sur le dual. Cette dernière nécessitant plus de calculs

que les autres bornes, nous avons dû corriger la taille de base réduite utilisée

(en abscisse sur les figures) afin de tenir compte de cette différence de

com-plexité entre les méthodes. Par ailleurs, nous prenons des niveaux de risques

petits (α = 10

−2

ouα= 10

−4

) afin de ne pas trop biaiser la comparaison de

notre borne avec risqueα avec les autres, qui sont déterministes.

Enfin, nous montrons (table5.1) que, comme le niveau de risque peut être

choisi très petit sans déteriorer significativement notre borne, la correction

du niveau de l’intervalle de confiance proposée dans le théorème 7 permet

d’utiliser la borne que nous proposons pour faire de l’analyse de sensibilité

certifiée.

Uncertainties assessment in

global sensitivity indices

estimation from metamodels

Résumé: L’analyse de sensibilité globale nécessite de nombreuses

exécu-tions du modèle considéré et, de ce fait, elle est souvent impraticable pour

les modèles complexes et/ou nécessitant beaucoup de ressources de calcul

afin d’être évalués. L’approche métamodèle consiste à remplacer le modèle

original par un modèle approchant qui est beaucoup plus rapide à exécuter.

Cet article traite de la perte d’information lors de l’estimation des indices

de sensibilité due à l’approximation par le métamodèle. Nous présentons

une méthode permettant une analyse robuste de l’erreur, ouvrant ainsi la

voie à des gains significatifs en temps de calcul, sans contrepartie en termes

de précision et de rigueur. La méthodologie proposée est illustré sur deux

types de métamodèles différents: les métamodèles obtenus par base réduite

et ceux obtenus par interpolation à noyau (interpolation RKHS).

Abstract: Global sensitivity analysis is often impracticable for complex and

resource intensive numerical models, as it requires a large number of runs.

The metamodel approach replaces the original model by an approximated

code that is much faster to run. This paper deals with the information loss

in the estimation of sensitivity indices due to the metamodel

approxima-tion. A method for providing a robust error assessment is presented, hence

enabling significant time savings without sacrificing on precision and rigor.

The methodology is illustrated on two different types of metamodels: one

based on reduced basis, the other one on RKHS interpolation.

2.1 Introduction

Many mathematical models use a large number of poorly-known

parame-ters as inputs. The impact of parameter uncertainty on the model output

is important for the user of these models. This problem can be tackled

by considering the uncertain input parameters as random variables, whose

probability distribution reflects the practitioner’s belief in the precision of

the parameter values. Model output, as function of the model inputs, is

then a random variable. Its probability distribution, uniquely determined

by the model and the distribution of the inputs, can give detailed and

valu-able information about the behavior of the output when input parameters

vary: range of attained values, mean value and dispersion about the mean,

most probable values (modes), etc.

Sensitivity analysis aims to identify the sensitive parameters, that is,

pa-rameters for which a small variation implies a large variation of the model

output. In global sensitivity analysis, one makes use of the probability

distribution of the outputs to define (amongst other sensitivity measures)

sensitivity indices (also known asSobol indices). The sensitivity index of an

output with respect to an input variable is the fraction of output variance

which can be “explained” by the variation of the input variable, either alone

(one then speaks about main effect), or in conjunction with other input

vari-ables (total effect). This way, input varivari-ables can be sorted by the order of

importance they have on the output. One can also consider the proportion

of variance due to the variation of groups of two or more inputs, although

main effects and total effects are generally sufficient to produce a satisfying

sensitivity analysis; see, e.g., [48,88] for more information about uncertainty

and sensitivity analysis.

Once these indices have been defined, the question of their effective

calcula-tion remains open. For most models, an exact, analytic computacalcula-tion is not

attainable (even expressing an output as an analytic function of the inputs

is infeasible) and one has to use numerical approximations.

A robust, popular way to obtain such approximations is Monte Carlo

esti-mation. This method simulates randomness in inputs by sampling a large

number of parameter values (from the selected input distribution). The

model output is then computed for each sampled value of the parameters.

This way, one obtains a sample of outputs, under the conjugate action of the

model and the input distribution. A suitable statistical estimator can then

be applied to form a numerical estimate of the sensitivity index based on the

sample of outputs. The Monte Carlo approach to Sobol indices computation

is described in [98], together with improvements in [49,86].

A major drawback of the Monte Carlo estimation is that a large number of

model outputs have to be evaluated for the resulting approximation of the

sensitivity index to be accurate enough to be useful. In complex models, in

which a simulation for one single value of the parameters may take several

minutes, using these methods “as-is” is impracticable. In those cases, one

generally makes use of a surrogate model (also known as reduced model,

emulator, metamodel or response surface). The surrogate model has to

approximate the original model (called the full model) well, while being

many times faster to evaluate. The sensitivity index is then calculated via

a sample of outputs, each generated by a call to the surrogate model, thus

accelerating the overall computation. The aim of this paper is to quantify

accuracy loss due to the use of a metamodel combined to a Monte-Carlo

method to compute sensitivity indices.

The sensitivity index produced by Monte Carlo estimation with a surrogate

model is tainted by a twofold error. Firstly, our Monte-Carlo sampling

procedure assimilates the whole (generally infinite) population of possible

inputs with the finite, randomly chosen, sample; this producessampling, or

Monte-Carlo error. Secondly, using a surrogate model biases the estimation

of the Sobol index, as what is actually estimated is sensitivity of surrogate

output, and not the full one; we call this bias themetamodel error.

A variation on the bootstrap, which addresses sampling error as well as

metamodel error, has been proposed in [100]; in this work, the authors

propose to use a bootstrap strategy on the metamodel residuals to estimate

metamodel error and Monte-Carlo error simultaneously. In [66], confidence

intervals for the Sobol index are estimated using the conditional distribution

of the Kriging predictor given the learning sample. This approach is limited

to Kriging metamodels. Finally, the paper by [11] makes use of the

reduced-basis output error bound to certify computation of the expectation and the

variance of a model output (and not, as in this paper, the Sobol indices)

with neglected sampling error.

In this paper, we want to make a rigorous sensitivity analysis, so it is

impor-tant to assess the magnitude of these two combined errors on the estimated

sensitivity indices. We will also use such assessment to help with the choice

of correct approximation parameters (Monte-Carlo sample size and

meta-model fidelity) to achieve a desired precision in estimated indices.

We estimate sampling error by using a classical method, which comes at a

moderate numerical cost: bootstrap resampling ([33,1]). Based on

statisti-cal estimation theory, the bootstrap technique involves the generation of a

sample of sensitivity index estimator replications, whose empirical

distribu-tion serves as approximadistribu-tion of the true (unknown) estimator distribudistribu-tion,

in order to produce asymptotic confidence intervals that give good results

in many practical cases.

To estimate metamodel error, we will use the surrogate models coming with

error bounds, that is, computable (or at least estimable) upper bounds on

the error between the original and the surrogate outputs. The reduced

Documents relatifs