1.6 Introduction au Chapitre 4
1.6.2 Approches existantes
Nous présentons maintenant les deux approches existant dans la littérature.
Paramétrisation de la viscosité
L’approche décrite ici est celle de [71]. Dans cette approche, la condition
initiale et la condition aux limites sont fixées (à zéro), et le terme de forçage
est fixé (à 1). Le seul paramètre est donc la viscosité ν. Nous résumons
rapidement les caractéristiques de cette approche ; en effet, ces dernières sont
reprises dans notre approche, les détails peuvent donc être trouvés dans la
section suivante ou dans le chapitre 4.
Gestion de la dépendance en temps et de la non-linéarité. L’équation
de Burgers est d’abord discrétisée en temps suivant un schéma implicite,
c’est-à-dire que l’on se donne un pas de temps ∆t > 0 et que l’on cherche
u
1, . . . , u
T /∆tsatisfaisant la relation de récurrence :
u
t+1−∆tF(t, u
t+1) =u
t, ∀t,
où F(t,·) est un opérateur différentiel en espace.
Chacune de ces relations est une EDP (non-linéaire) faisant intervenir
seule-ment les variables d’espace. L’étape suivante est de discrétiser en espace, par
une méthode d’éléments finis P
1, ce qui transforme l’EDP non-linéaire en
système d’équations algébriques non-linéaires.
La résolution de ce système non-linéaire est alors effectuée à l’aide de la
méthode de Newton, qui ramène le problème non-linéaire à une succession
de problèmes linéaires. Chacun de ces problèmes linéaires peut être alors
traité par la méthode base réduite, ce qui donne une procédure offline/online
de calcul deue.
Choix de base. Les auteurs proposent d’utiliser une variante de la
mé-thode greedy, adaptée afin de tenir compte de la dépendance temporelle.
Borne d’erreur. Pour chaque pas de temps t
k, une borne d’erreur sur
ku(t
k)−ue(t
k)k est établie, où k·k est la norme L
2(0,1). Les auteurs
dé-plorent la croissance exponentielle de cette borne d’erreur en fonction du
temps et constatent que cette croissance est encore plus importante dans le
cas des faibles viscosités.
Paramétrisation complète
L’autre référence existante est [59]. L’approche est très similaire à celle
dé-crite plus haut, à ceci près qu’elle permet la paramétrisation de la condition
initiale, de la condition aux limites de Dirichlet et du forçage sous la forme
(1.6.1).
La paramétrisation de la condition de Dirichlet se fait en se ramenant
d’abord, par translation, au cas où cette condition est nulle.
Signalons que les résultats numériques ayant trait à la borne d’erreur ne sont
pas présentés dans cette publication (c’est la vraie erreur qui est représentée,
et le calcul de cette vraie erreur nécessite de calculer la « vraie » solution
numérique, et c’est précisément ce que l’on souhaite éviter en utilisant une
réduction de modèle). Par ailleurs, les tests numériques sont faits avec des
conditions aux limites très proches (numériquement indiscernables) d’une
condition nulle.
1.6.3 Notre approche
Phase offline/online. Nous choisissons, c’est là une des différences entre
notre approche et celles présentées plus haut, d’intégrer la condition aux
limites de Dirichlet sous forme faible, c’est-à-dire que nous modifions la
forme faible de l’équation de Burgers (4.1.6) en une forme faible pénalisée
(4.1.9) imposant une valeur au bord proche de celle souhaitée. L’intérêt de
cette technique, comparée à l’approche décrite ci-dessus, est qu’elle introduit
moins de termes dans la décomposition affine des problèmes variationnels (le
nombre Q dans 1.3.3), ce qui diminue les temps de calcul offline et online,
ainsi que le besoin en espace de stockage des éléments calculés lors de la
phase offline.
Le reste de la réduction est similaire aux approches existantes : la forme
faible pénalisée (4.1.9) est discrétisée en espace pour obtenir (4.1.11), puis
en temps (section 4.1.2). Enfin, la méthode de Newton est appliquée pour
obtenir l’équation linéarisée (4.1.14), qui est ensuite réduite dans la section
4.2, en suivant le principe donné en section1.3.3.
Choix de base. Nous considérons trois méthodes de choix de base réduite :
1. le choix basé sur la POD, qui est une adaptation de la méthode POD
présentée en section 1.3.3; ce choix est décrit en section 4.2.3;
2. le choix basé sur un algorithme glouton (greedy), qui est utilisé dans
[71] ; l’algorithme est rebaptisé « local greedy » et est détaillé section
4.2.3;
3. le choix hybride « POD-Greedy », qui prend sa source dans [46] et que
nous décrivons section 4.2.3.
Borne d’erreur. Un aspect important de cette contribution est la borne
d’erreur a posteriori, qui est obtenue par une méthode différente de celle
existant dans la littérature, et qui permet d’effectuer une majoration plus
fine. Cette borne d’erreur, ainsi que sa méthode de calcul, est décrite en
détail dans la section4.3.
Résultats obtenus. Les résultats numériques, présentés dans la section
4.4, montrent notamment que la réduction de l’équation de Burgers permet
un gain en temps de calcul significatif, tel qu’un gain de 85% en temps de
calcul, au prix d’une erreur relative certifiée deun pour mille(section4.4.2).
Par ailleurs, notre borne d’erreur est comparée avec la borne existante
(sec-tion4.4.5), et la comparaison est clairement à l’avantage de notre approche.
Enfin, les trois procédures de choix de base sont comparées en termes de
borne d’erreur relative moyenne et de borne d’erreur maximale (Figure4.7).
Nous voyons que le choix POD donne le meilleur résultat en termes de borne
moyenne, alors que le greedy local permet de minimiser la borne maximale.
Ce résultat, peu surprenant au regard de la construction de ces méthodes,
est confirmé par la Figure4.6(même si pourn= 10 la méthode POD semble
en-dessous de la méthode greedy, il faut remarquer qu’à ce stade, l’erreur
relative, de l’ordre de 10
−6est inférieure à la précision numérique).
1.7 Introduction au Chapitre 5
Estimation d’erreur sortie-dépendante pour la
mé-thode base réduite
Le chapitre5 fait l’objet d’une publication soumise [Janon4]. Il a pour but
d’apporter une réponse à la question 5, à savoir le développement d’une
borne d’erreur métamodèle dépendant de la sortie (quantité d’intérêt)
consi-dérée.
Cette section d’introduction au chapitre5 procède dans le même ordre que
la section précédente : description de la problématique, présentation des
approches existantes, résumé de notre approche et résultats obtenus.
1.7.1 Problématique
Avant de décrire la problématique de ce chapitre, commençons par introduire
son contexte et ses notations.
Dans le chapitre 5, nous considérons un espace de dimension finieX, nous
notonsµle paramètre d’entrée et nous considérons la solutionu(µ)∈X du
système d’équations linéaires :
A(µ)u(µ) =f(µ),
pour une matriceA(µ) et un vecteur f(µ) pouvant s’écrire :
A(µ) =
QX
q=1Θ
q(µ)A
q, f(µ) =
Q′X
q′=1γ
q′(µ)f
q′.
Typiquement, ce système d’équations est obtenu en discrétisant la forme
faible d’une équation aux dérivées partielles, dans l’espace de grande
di-mension X. L’application de la méthode base réduite (voir 1.3.3) à cette
équation mène au système d’équations réduit :
e
A(µ)eu(µ) =fe(µ),
d’inconnueue(µ) appartenant à un espace réduitXe ⊂Xfixé (Xe est l’espace
engendré par la base réduite, choisie par exemple par l’une des méthodes
présentée en section 1.3.3).
Remarquons que, comme dans le chapitre précédent, le vecteur d’entrée est
notéµ et non X, et que la sortie du modèle n’est pas notée f mais s:
s(µ) =σ(u(µ)).
Cette sortie est supposée linéaire en u(µ). Autrement dit, σ est une forme
linéaire deX.
On définitsepar :
e
s(µ) =σ(ue(µ)).
Une fois qu’ont été calculés, grâce à une procédure offline/online dont la
procédure online est de complexité indépendante de dimX, les coefficients
de ue(µ) dans la base réduite engendrant Xe, le scalaire se(µ) est rapide à
calculer. Il est donc naturel de le considérer comme « sortie réduite » du
modèle, et d’utiliser escomme métamodèle en lieu et place des.
La problématique principale du chapitre est celle de la question 5 de la
section 1.1, à savoir de donner une borne explicitement calculable, via une
procédure offline/online avec phase online de complexité indépendante de
dimX, pour l’erreur de métamodèle|s(µ)−es(µ)|. Dans notre contexte, une
telle borne d’erreur sortie-dépendante est motivée par le fait qu’en analyse
de sensibilité, on considère le modèle uniquement au travers de cette quantité
d’intérêt.
Nous souhaitons également pouvoir utiliser cette borne pour certifier le
cal-cul des indices de Sobol à partir du métamodèle, rejoignant en cela notre
question 3.
1.7.2 Approches existantes
Approche « borne Lipschitz »
La première possibilité est d’utiliser la norme duale de s:
L= sup
v∈X,v6=0
s(v)
kvk
et d’utiliser la linéarité despour écrire la borne suivante :
|s(µ)−se(µ)| ≤Lku(µ)−eu(µ)k ≤Lε
u(µ),
où ε
u(µ) désigne la borne supérieure sur ku(µ)−ue(µ)k donnée par la
mé-thode base réduite (voir section 1.3.3).
Nous avons donné le nom de « borne Lipschitz » à cette borne, puisqueL
coïncide avec la constante de Lipschitz de s dans le cas où s est linéaire.
Dans le cas où sn’est pas linéaire, cette borne est toujours valable si sest
L-lipschitzienne.
Approche basée sur l’adjoint
Dans cette section nous supposons, pour simplifier, que la matriceA(µ) est
symétrique pour tout µ. Nous supposons également que A(µ) est définie
positive.
L’autre approche disponible dans la littérature, décrite dans [72] et prenant
sa source dans [76], est de considérer la solutionu
a(µ) du problème adjoint :
A(µ)u
a(µ) =−l, (1.7.1)
oùl est le vecteur deX représentant la forme linéaire s:
s=hl,·i.
Le problème 1.7.1 peut se voir appliquer la méthode base réduite, ce qui
permet de calculer une solution réduite adjointeue
a(µ).
L’approche basée sur l’adjoint consiste à considérer comme sortie réduite la
sortie réduite « corrigée » :
e
s
a(µ) =σ(ue(µ)) +hA(µ)ue(µ)−f(µ),eu
a(µ)i.
Cette sortie corrigée admet la borne d’erreur suivante :
|s(µ)−se
a(µ)| ≤ kr(µ)k
∗kr
a(µ)k
∗α(µ) , (1.7.2)
oùr(µ) et r
a(µ) désignent les formes linéaires surX suivantes :
r(µ)(v) =v
tA(µ)ue(µ)−v
tf(µ) r
a(µ)(v) =v
tA(µ)ue
a(µ) +v
tl,
où, pour toute forme linéaire φsurX,
kφk
∗= sup
v∈X,v6=0
φ(v)
kvk,
et oùα(µ) est la constante de coercivité deA(µ) :
α(µ) = inf
v,w∈X,v6=0,w6=0
v
tA(µ)w
kvk kwk.
Remarquons queα(µ)>0 par définie-positivité de A(µ).
En pratique, la borne (1.7.2) est calculable, grâce à une procédure offline/online
de calcul des normes des résidus kr(µ)k et kr
a(µ)k (voir [Janon5] §3.2 et
[72]), et d’une borne inférieure sur α(µ) (voir [Janon5] §3.3 et [72]).
1.7.3 Notre approche
Borne d’erreur
Nous pouvons faire les remarques suivantes sur les deux approches proposées
plus haut :
– d’une part, la borne Lipschitz est une borne optimale, parmi les bornes
qui ne dépendent que de la borneε
usurku−uek;
– d’autre part, la borne basée sur l’adjoint donne de meilleurs résultats
que la borne Lipschitz mais elle nécessite l’application de la méthode base
réduite sur le problème adjoint, ce qui double le temps de calcul nécessaire
aux phases offline et online.
La borne d’erreur que nous proposons au chapitre5 est intermédiaire entre
ces deux approches, c’est-à-dire qu’elle fait entrer en jeu d’autres quantités
que ε
u, afin d’obtenir une borne d’erreur plus performante que la borne
Lipschitz, tout en ne nécessitant pas la considération du problème adjoint,
afin de ne pas augmenter le temps de calcul outre mesure.
L’idée principale est de remarquer que les deux bornes précédentes se basent
toutes sur un calcul offline/online de la norme du résidukr(µ)k
∗, alors qu’il
est également possible de donner une procédure offline/online efficace pour
calculer le produit scalaire der(µ) avec un vecteur déterminé durant la phase
offline.
Nous proposons donc de choisir une base orthonormée Φ ={φ
1, . . . , φ
dimX}
de X, de tronquer cette base en ne gardant que N <dimX vecteurs, et de
borner|s−es|en fonction desN produits scalaires :
hr(µ), φ
1i, . . . ,hr(µ), φ
Ni.
Plus spécifiquement, nous obtenons une borne en probabilité (relativement
àµ), c’est-à-dire que nous explicitons une quantité ε(µ, α, N,Φ) telle que :
P(|s−se| ≥ε(µ, α))≤α, (1.7.3)
pour un niveau de risqueα∈]0; 1[ fixé.
L’expression deε(µ, α, N,Φ) est la suivante :
ε(µ, α, N,Φ) =T
1(µ, N,Φ) +T
2(N,Φ)
α ,
où T
1(µ, N,Φ) et T
2(N,Φ) sont définies section 5.1.2. La justification de
(1.7.3) fait l’objet du théorème 5du chapitre 5.
Dans la suite du chapitre, nous donnons une heuristique pour le choix de Φ,
basée sur le théorème6 chapitre5, et, dans la section 5.1.3, nous décrivons
la procédure offline/online de calcul et d’estimation deT
1etT
2.
Application à l’analyse de sensibilité
La borne d’erreur que nous obtenons est de nature probabiliste. La méthode
développée au chapitre2 nécessitant une borne déterministe, il convient de
l’adapter afin de tenir compte du risque probabiliste de la borne métamodèle.
C’est ce qui est fait dans la section 5.2, où, dans le théorème 7, nous
corri-geons le risque de l’intervalle de confiance combiné décrit au chapitre 2 en
fonction du risque de la borne d’erreur.
Résultats obtenus
L’évaluation de notre méthode s’est faite sur deux cas test (sections 5.3 et
5.4).
Dans les deux cas test, nous constatons (figures5.1et5.2) que la borne que
nous proposons donne de meilleurs résultats (en termes de borne d’erreur
moyennée sur un échantillon de paramètres de tests) que la borne Lipschitz
et que la borne basée sur le dual. Cette dernière nécessitant plus de calculs
que les autres bornes, nous avons dû corriger la taille de base réduite utilisée
(en abscisse sur les figures) afin de tenir compte de cette différence de
com-plexité entre les méthodes. Par ailleurs, nous prenons des niveaux de risques
petits (α = 10
−2ouα= 10
−4) afin de ne pas trop biaiser la comparaison de
notre borne avec risqueα avec les autres, qui sont déterministes.
Enfin, nous montrons (table5.1) que, comme le niveau de risque peut être
choisi très petit sans déteriorer significativement notre borne, la correction
du niveau de l’intervalle de confiance proposée dans le théorème 7 permet
d’utiliser la borne que nous proposons pour faire de l’analyse de sensibilité
certifiée.
Uncertainties assessment in
global sensitivity indices
estimation from metamodels
Résumé: L’analyse de sensibilité globale nécessite de nombreuses
exécu-tions du modèle considéré et, de ce fait, elle est souvent impraticable pour
les modèles complexes et/ou nécessitant beaucoup de ressources de calcul
afin d’être évalués. L’approche métamodèle consiste à remplacer le modèle
original par un modèle approchant qui est beaucoup plus rapide à exécuter.
Cet article traite de la perte d’information lors de l’estimation des indices
de sensibilité due à l’approximation par le métamodèle. Nous présentons
une méthode permettant une analyse robuste de l’erreur, ouvrant ainsi la
voie à des gains significatifs en temps de calcul, sans contrepartie en termes
de précision et de rigueur. La méthodologie proposée est illustré sur deux
types de métamodèles différents: les métamodèles obtenus par base réduite
et ceux obtenus par interpolation à noyau (interpolation RKHS).
Abstract: Global sensitivity analysis is often impracticable for complex and
resource intensive numerical models, as it requires a large number of runs.
The metamodel approach replaces the original model by an approximated
code that is much faster to run. This paper deals with the information loss
in the estimation of sensitivity indices due to the metamodel
approxima-tion. A method for providing a robust error assessment is presented, hence
enabling significant time savings without sacrificing on precision and rigor.
The methodology is illustrated on two different types of metamodels: one
based on reduced basis, the other one on RKHS interpolation.
2.1 Introduction
Many mathematical models use a large number of poorly-known
parame-ters as inputs. The impact of parameter uncertainty on the model output
is important for the user of these models. This problem can be tackled
by considering the uncertain input parameters as random variables, whose
probability distribution reflects the practitioner’s belief in the precision of
the parameter values. Model output, as function of the model inputs, is
then a random variable. Its probability distribution, uniquely determined
by the model and the distribution of the inputs, can give detailed and
valu-able information about the behavior of the output when input parameters
vary: range of attained values, mean value and dispersion about the mean,
most probable values (modes), etc.
Sensitivity analysis aims to identify the sensitive parameters, that is,
pa-rameters for which a small variation implies a large variation of the model
output. In global sensitivity analysis, one makes use of the probability
distribution of the outputs to define (amongst other sensitivity measures)
sensitivity indices (also known asSobol indices). The sensitivity index of an
output with respect to an input variable is the fraction of output variance
which can be “explained” by the variation of the input variable, either alone
(one then speaks about main effect), or in conjunction with other input
vari-ables (total effect). This way, input varivari-ables can be sorted by the order of
importance they have on the output. One can also consider the proportion
of variance due to the variation of groups of two or more inputs, although
main effects and total effects are generally sufficient to produce a satisfying
sensitivity analysis; see, e.g., [48,88] for more information about uncertainty
and sensitivity analysis.
Once these indices have been defined, the question of their effective
calcula-tion remains open. For most models, an exact, analytic computacalcula-tion is not
attainable (even expressing an output as an analytic function of the inputs
is infeasible) and one has to use numerical approximations.
A robust, popular way to obtain such approximations is Monte Carlo
esti-mation. This method simulates randomness in inputs by sampling a large
number of parameter values (from the selected input distribution). The
model output is then computed for each sampled value of the parameters.
This way, one obtains a sample of outputs, under the conjugate action of the
model and the input distribution. A suitable statistical estimator can then
be applied to form a numerical estimate of the sensitivity index based on the
sample of outputs. The Monte Carlo approach to Sobol indices computation
is described in [98], together with improvements in [49,86].
A major drawback of the Monte Carlo estimation is that a large number of
model outputs have to be evaluated for the resulting approximation of the
sensitivity index to be accurate enough to be useful. In complex models, in
which a simulation for one single value of the parameters may take several
minutes, using these methods “as-is” is impracticable. In those cases, one
generally makes use of a surrogate model (also known as reduced model,
emulator, metamodel or response surface). The surrogate model has to
approximate the original model (called the full model) well, while being
many times faster to evaluate. The sensitivity index is then calculated via
a sample of outputs, each generated by a call to the surrogate model, thus
accelerating the overall computation. The aim of this paper is to quantify
accuracy loss due to the use of a metamodel combined to a Monte-Carlo
method to compute sensitivity indices.
The sensitivity index produced by Monte Carlo estimation with a surrogate
model is tainted by a twofold error. Firstly, our Monte-Carlo sampling
procedure assimilates the whole (generally infinite) population of possible
inputs with the finite, randomly chosen, sample; this producessampling, or
Monte-Carlo error. Secondly, using a surrogate model biases the estimation
of the Sobol index, as what is actually estimated is sensitivity of surrogate
output, and not the full one; we call this bias themetamodel error.
A variation on the bootstrap, which addresses sampling error as well as
metamodel error, has been proposed in [100]; in this work, the authors
propose to use a bootstrap strategy on the metamodel residuals to estimate
metamodel error and Monte-Carlo error simultaneously. In [66], confidence
intervals for the Sobol index are estimated using the conditional distribution
of the Kriging predictor given the learning sample. This approach is limited
to Kriging metamodels. Finally, the paper by [11] makes use of the
reduced-basis output error bound to certify computation of the expectation and the
variance of a model output (and not, as in this paper, the Sobol indices)
with neglected sampling error.
In this paper, we want to make a rigorous sensitivity analysis, so it is
impor-tant to assess the magnitude of these two combined errors on the estimated
sensitivity indices. We will also use such assessment to help with the choice
of correct approximation parameters (Monte-Carlo sample size and
meta-model fidelity) to achieve a desired precision in estimated indices.
We estimate sampling error by using a classical method, which comes at a
moderate numerical cost: bootstrap resampling ([33,1]). Based on
statisti-cal estimation theory, the bootstrap technique involves the generation of a
sample of sensitivity index estimator replications, whose empirical
distribu-tion serves as approximadistribu-tion of the true (unknown) estimator distribudistribu-tion,
in order to produce asymptotic confidence intervals that give good results
in many practical cases.
To estimate metamodel error, we will use the surrogate models coming with
error bounds, that is, computable (or at least estimable) upper bounds on
the error between the original and the surrogate outputs. The reduced
Dans le document
Analyse de sensibilité et réduction de dimension. Application à l'océanographie
(Page 70-83)