• Aucun résultat trouvé

Constantes de rang

Dans le document THÈSE THÈSE (Page 187-198)

6.6 Preuves

6.7.2 Constantes de rang

D7(d, α, x) = D6(x, d) N(1β)(1/2+1/d)

3

+ D5

N(16β)/2+γ1/(2(1+d))+eta/2 3

+D4(x, d, α) + max

nN3+1C1exp−3 8n1ǫ

n(1β)/2+1/(2(1+d))η/2+γ.

D8(x, d, α) = n−γ+(1−β)/dD6(d,x) +D5+(N D4(x,d,α)

3)−γ−(1−β)/2+1/(2(1+d))+η/2+maxnN0+1C1exp38n1ǫnβ+1.

D9(x, α, d) =D6(x, d) + D5

N3γ(1β)/d + D4(d, x, α)

N(1β)(1/2+1/d)+1/(2(1+d))η/2 3

+ max

nN0+1C1exp−3 8n1ǫ

n(1β)(1+1/d)+γ.

D10(x, α, d) :=D7(x, d, α)21β/2+1/(2(1+d))η/2ǫ3γ+ǫ.

D11(x, d, α) :=D8(x, d, α)2γβ+1ǫ3γ+ǫ.

D12(x, d, α) :=D9(x, d, α)2(1+1/d)(1β)ǫ3γ+ǫ.

D13= N2

0+1 +(N 3

0+1)2 + 1.

D14(x, α, d) est la constante valant la valeur minimale des constantesD10, D11 et D12 calculée avec des paramètres de la zone optimale.

6.7.2 Constantes de rang

Les rangs (Ni) ont été définis dans le Chapitre 5. Les rangs qui apparaissent seulement dans ce chapitre 6 sont les suivants.

N0:= 2ǫ−(1−β)1 .

M1(x, d, α) est le rang à partir duquel

n

2⌋ ≥N4(x, d, α) + 1.

M2 est le rang à partir duquel

n

2⌋+ 1≥ 2 γ+ǫ.

M3(x, d, α) est le rang à partir duquel

• Dans la zoneA,

Tn0+Tn1+Tn3+Tn4+S1D10(x, d, α) 2n1−β2 +1/(2(1+d))η/2ǫ,

• Dans la zoneB,

T0+T1+T3+T4+SD11(x, d, α) ,

CHAPTER 6. ESTIMATION DE SUPERQUANTILE DANS LES CODES STOCHASTIQUES

• Dans la zoneC,

Tn0+Tn1+Tn3+Tn4+S1D12(x,d,α) 2nǫ+(1+1/d)(1β),

M4(x, α, d) := max (N4(x, α, d) + 2, M1(x, d, α), M2, M3(x, d, α),).

188

Conclusion

La deuxième partie de cette thèse concernait l’estimation séquentielle à un pas de quantile et superquantile par algorithme stochastique. Nous avons vu comment utiliser la théorie des algorithmes de Robbins-Monro pour estimer ces deux quantités d’intérêt dans un cadre numérique. Pour gérer le cadre stochastique, nous avons proposé une localisation des al-gorithmes stochastiques de type Robbins Monro à l’aide de la méthode des k-plus proches voisins. Les algorithmes que nous avons étudiés dépendent de certains paramètres (pas de descente de gradient pour les algorithmes stochastiques dans le cadre numérique auxquels s’ajoutent le nombre de voisins dans le cadre stochastique) Tout au long de ce chapitre, nous avons donc étudié comment choisir ces paramètres pour que les algorithmes soient les plus performants possible (d’un point de vue asymptotique comme non asymptotique).

Au cours de ces études, nous avons rencontré plusieurs difficultés. dans un premier temps, il nous ait apparu qu’il était difficile de sortir de l’hypothèse H1 de densité minorée pour étudier le comportement non-asymptotique de l’estimateur du quantile. Un travail impor-tant de cette thèse a consisté a bien comprendre et expliquer d’où venait cette difficulté.

Une perspective intéressante à ce travail serait maintenant de trouver comment résoudre le problème. Dans un second temps, nous avons remarqué que la mauvaise compréhension de la dépendance entre (qn) et (Pn) dans le cadre stochastique, nous empêchait de conclure à des inégalités non-asymptotiques optimales. Une piste de recherche pour la suite pourrait donc consister à l’étude plus précise de cette dépendance.

Enfin, même si les simulations numériques semblent montrer que les bornes supérieures que nous avons obtenues dans les Chapitres 4 et 5 sont du bon ordre en n, il serait très intéressant de confirmer cette optimalité en montrant des bornes inférieures.

Si nous nous sommes intéressés à une méthode séquentielle à un pas plutôt qu’à une méthode empirique, c’est parce que nous voulions pouvoir contrôler, pas à pas, la précision de notre algorithme. En reprenant les preuves de cette deuxième partie, on constate aisément pourquoi cela était indispensable. En effet, tous nos raisonnements reposent sur des inégalité de récurrence. Mais si on regarde les différents algorithmes de cette partie, on constate qu’il est en réalité possible de construire l’échantillon de la loi de Y en entier, avant même de commencer à faire tourner l’algorithme. En effet, notre algorithme dépend complètement de l’échantillon, mais l’échantillon ne dépend absolument pas de l’algorithme. Il semble donc que nous n’ayons pas exploité pleinement cette idée de construction d’un algorithme pas à pas. On pourrait alors imaginer un algorithme qui, à chaque étape n, mettrait à jour son estimateur mais déciderait aussi de la nouvelle entrée à fournir au code, en fonction de toutes les connaissances et absences de connaissances qu’il aurait sur le code, à cette étape. En clair, puisque nous ne pouvons pas faire beaucoup d’appels au code, il serait pertinent de choisir les entrées que nous fournissons à ce code, plutôt que de les tirer aléatoirement selon la loi deX. C’est ce type de stratégie, appeléerecherche de plan d’expérience que nous proposons d’étudier dans la troisième partie de cette thèse.

Part III

Estimation séquentielle bayésienne

et planification d’expériences

Introduction

Dans cette partie, on se place sous le modèle d’un code numérique très coûteux. Nous souhaitons estimer le quantile de sa sortieY mais ne pouvons évaluer qu’un très petit nombre d’entréesx. Construire préalablement un échantillon deY à partir de l’évaluation de points tirés aléatoirement selon la loi deX, pour utiliser les méthodes des Parties 1 et 2 ne semblent donc pas très pertinent. Il est en effet plus judicieux de sélectionner les points à évaluer, pour choisir ceux qui donneront l’information la plus utile pour l’estimation du quantile.

Pour faire évoluer le plus précisément possible lebesoin d’information, il semble intéressant de rechercher une méthode à un pas, c’est-à-dire une méthode qui sélectionnera les points un par un en mettant à jour l’information disponible à chaque étape. Les stratégies que nous allons étudier sont donc totalement différentes de celles développées dans les parties précédentes puisque dès lors que nous choisissons les points à évaluer au lieu de les tirer aléatoirement, nous ne construisons plus un échantillon deY (la loi est biaisée). Il faut donc bâtir entièrement une nouvelle méthode d’estimation.

Nous avons déjà vu dans l’Introduction qu’un type de modélisation permettant la mise en place de telles stratégies séquentielles est la modélisation gaussienne. En effet, si on suppose queg est la réalisation d’un processus gaussien (noté G) centré et de fonction de covariance c connue définie positive, les formules de krigeage que nous redonnerons dans le Chapitre 7 montrent que la loi a posteriori après chaque nouvelle évaluation reste gaussienne et qu’il est facile de calculer ses paramètres.

Sous cette hypothèse gaussienne et pour construire une telle stratégie de planification, il est nécessaire de trouver, d’une part un bon estimateur séquentiel du quantileqn et d’autre part un bon critère pour choisir le design (c’est-à-dire des points à évaluer).

Concernant le choix de l’estimateur qn, on peut trouver deux idées différentes dans la littérature. Elles sont inspirées des deux estimateurs de la probabilité de défaillance présentés dans l’Introduction et introduits par Bect et al. dans [9]. La premier consiste à calculer le quantile demn(X) puisquemnest la meilleure approximation deGà l’étapen. L’estimateur

qn=q(mn(X)) (6.5)

est celui qu’utilise Oakley dans [74]. On peut déjà remarquer que cet estimateur n’a pas une forme analytique facilement identifiable. En revanche, si on l’approche par sa version empirique, il est facilement implémentable (et avec une complexité de calcul raisonnable).

En effet, si on dispose d’un échantillon XM C = (x1M C, . . . , xlM C) de X (qui est différent des entrées (x1, . . . , xn) ne formant pas un échantillon de X), alors on peut calculer

qn=mn(XM C)(+1). (6.6) On verra dans le Chapitre 7 qu’il est même possible de trouver une forme analytique de cette version empirique : ayant à disposition A , q et un nouveau couple (x , y ), il existe

INTRODUCTION

La seconde idée que l’on peut avoir pour estimer ce quantile, c’est de prendre l’estimateur

qn=E[q(G(x))|An] (6.7)

c’est à dire l’estimateur An-mesurable de risque quadratique minimal. C’est cet estimateur qui est utilisé dans les articles [6] et [56] dont nous reparlerons ci-dessous. Le problème de cet estimateur, comme nous allons le voir, est qu’il n’en existe pas de forme analytique.

Même sa version empirique nécessite des simulations Monte Carlo de processus gaussiens et la complexité de calcul en devient trop importante. On notera que d’un point de vue purement théorique, c’est encore un problème ouvert de savoir lequel de ces deux estimateurs est le plus performant.

A propos du plan d’expériences, nous avons vu dans l’Introduction qu’il existe deux types de critères pour choisir le nouveau point à évaluer : le premier utilise une fonction de confiance et le second une fonction d’amélioration. Commençons par faire un rapide état de l’art des techniques utilisant des bornes de confiance. Jala et al. proposent dans [57] une adaptation intéressante de l’algorithme GP-UCB dans le cadre de l’estimation du quantile. L’idée est la suivante : au lieu de faire une réduction globale d’incertitude sur toute la fonction en minimisant sa variance, on fait un réduction d’incertitude sur une zone restreinte où l’on sait que le quantile se trouve avec grande probabilité (c’est le même genre d’idée qu’avait eu Oakley dans [74] mais en version séquentielle). Pour cela, grâce à la Propriété 0.0.12, on construit à chaque étape net pour tout x, des intervalles de confiance sur G(x)|An. En utilisant la fonction de répartition empirique, on en déduit un intervalle de confiance pour le quantile qui est la zone de confiance précédemment citée. Cet algorithme s’appelle GPQE.

Les auteurs proposent aussi une version améliorée de l’algorithme, nommée GPQE+, dans laquelle on ajoute une partie exploration pour accélérer la convergence. C’est-à-dire qu’à certaines étapes, on décide d’aller chercher un point ailleurs que dans la zone de confiance.

Ces algorithmes semblent fonctionner très bien, et ont une complexité de calcul raisonnable.

Aucune garantie théorique n’a cependant encore été montrée.

Comme nous l’avons expliqué dans l’Introduction, ce sont les critères basés sur des fonc-tions d’amélioration qui nous intéressent dans cette thèse. En particulier, nous souhaitons étudier l’adaptation de la méthode SUR introduite dans [9] pour estimer une probabilité de défaillance, au cas de l’estimation du quantile. Cela a déjà été fait par Arnaud et al. dans [6] et Jala et al. dans [56]. Nous allons faire un résumé de leur raisonnement qui conduit à une stratégie statistiquement performante mais dont la complexité de calcul explose lorsque la dimension des entrées augmente.

Dans ces deux papiers, le point de départ de la réflexion est le même que le notre dans cette thèse : l’estimateur du quantile qui semble le plus naturel est l’estimateur empirique.

Pour un échantillon (XM Ci )i=1,...,l de loiX, on voudrait construire grâce à des évaluations du code g, un échantillon (Yi)i=1,...,l de Y et calculer

ˆ

ql(g) =Y(+1).

Comme le code est trop coûteux, cela n’est pas possible. L’idée est alors de choisir intelligem-ment les points à évaluer pour construire, à chaque étape, un méta-estimateur qn qui soit très proche de ˆql(g), pour n << l. Les auteurs proposent de choisir pour méta-estimateur, l’estimateur (6.7), à savoir

qn=E(ˆq(G)|An)

que l’on peut approcher par sa version empirique qn calculable via des simulations Monte Carlo de la manière suivante.

194

INTRODUCTION

1) Pouriallant de 1 àN :

a) On génère une trajectoire de G|An nommée Gin.

b) On calculeq(n,i)= ˆql(Gin) en utilisant l’échantillon (Gin(XM Cj ))j=1,...,l

2) Grâce à l’échantillon (q(n,1), . . . , q(n,N)) distribué selon la loi a posteriori de ˆql(G) on calcule la moyenne empirique

qn = 1 N

XN i=1

q(n,i).

On peut d’ores et déjà constater que cet estimateur est relativement coûteux. En effet, pour calculer sa version empirique (avec quantile et moyenne empiriques) à une étape fixée, il est nécessaire de simulerN trajectoires du processus gaussien G|An.

En suivant le principe de la méthode SUR, les auteurs proposent donc de choisir le nou-veau point à évaluer en minimisant la distance L2 entre le méta-estimateur et l’estimateur empirique. Ainsi, le nouveau point à évaluer est

xn+1= argminxn+1Xγn+1(xn+1) :=Eql(G)−qn+1)2|An

qn+1 est donc calculé à partir deAn mais aussi dexn+1 et de son évaluation g(xn+1) qui n’a pas été observé. Une fois encore, il est nécessaire d’avoir recours à des simulations Monte Carlo pour accéder à la quantitéγn+1(xn+1) pour toutxn+1. Pour cela, on remarque d’abord que

γn+1(xn+1) =EhEql(G)−qn)2|An+1

|An

i.

On approche alors l’espérance conditionnelle àAnpar méthode de Monte Carlo parce qu’on connait la loi de G(xn+1)|An (étapes 1, 2 et 3), et l’espérance conditionnelle àAn+1 par le raisonnement précédent (étapes a, b et c). Cela donne

1) Pourj allant de 1 àN, on simule une trajectoireG(j)n de la loi à posteriori deG|An. 2) Pour toutj allant de 1 àN, on calculey =G(j)n (xn+1) et

a) On calcule comme expliqué plus haut les élémentsq(n+1,i) pour iallant de 1 à N mais avec les informationsAnet (G(xn+1), y) (on rappelle que cette étape implique la simulation de N trajectoires de processus gaussien).

b) On calcule la moyenne empirique

qn+1(x, y) = 1 N

XN i=1

q(n+1,i).

c) On calcule la variance empirique Γn+1(x, y) = 1

N −1 XN i=1

q(n+1,i)qn(xn+1, y)2.

3) On calcule la seconde espérance conditionnelle par méthode Monte Carlo 1 XN

INTRODUCTION

Cette méthode est statistiquement bien justifiée et elle fonctionne très bien en pratique pour les petites dimensions, comme on peut le voir dans les simulations numériques des articles [6] et [56]. Malheureusement, il apparaît clairement que la seule évaluation de ce critère en un point a une complexité de calcul énorme. Elle nécessite la simulation deN trajectoires du processus gaussienG|Anpuis pour chacune de ces trajectoiresi,N trajectoires du processus gaussien a posteriori G|An∪(x, Gin(x)). Le but étant de trouver le xn+1 qui minimise ce critère, il faut en plus faire cela pour tous les xn+1 candidats à l’évaluation. Même si l’étape 1 est commune à tous ces pointsxn+1la complexité de calcul de la méthode SUR ainsi définie est très importante et ne peut pas être raisonnablement utilisée en dimension supérieure ou égale à 3.

Ces deux références sont, à notre connaissance, les méthodes actuellement les plus perfor-mantes dans la catégorie des critères avec fonctions d’amélioration, pour estimer le quantile dans un contexte de code numérique très coûteux. Nous avons pu voir que le problème de complexité de calcul s’expliquait en grande partie parce que l’estimateur courant (6.7) est très peu manipulable. En effet, on est obligé d’avoir recourt à des simulations coûteuses pour le calculer, même si l’on considère sa version empirique. Dans le Chapitre 7, nous proposons donc d’étudier d’avantage le second estimateur du quantile (6.6). Nous verrons qu’il existe une forme analytique de la version empirique de cet estimateur qui le rendra beaucoup plus manipulable. Cela nous permettra de proposer deux nouvelles stratégies de type SUR avec des complexités de calcul plus raisonnables. Nous appliquerons ces stratégies sur des exemples numériques pour montrer qu’elles fonctionnent bien.

196

Chapter 7

Estimation of percentile in numerical black box

The results of this chapter are derived from the paper "Sequential design of experiments for estimating percentiles of black-box functions" of T. Labopin-Richard and V. Picheny, submitted in the journalStatistica Sinica.

7.1 Introduction

In the last decades, the question of designing experiments for the efficient exploration and analysis of numerical black-box models has received a wide interest, and metamodel-based strategies have been shown to offer efficient alternatives in many contexts, such as optimiza-tion or uncertainty quantificaoptimiza-tion.

We consider here the question of estimating percentiles of the output of a black-box model, with the help of Gaussian Process (GP) metamodels and sequential sampling. More precisely, letg:X⊂Rd→Rdenote the output of interest of the model, the inputs of which can vary within X. We assume here that the multivariate input X is modelled as a random vector;

then, our objective is to estimate a percentile ofg(X):

qα(g(X)) =qα(Y) =FY1(α), (7.1) for a fixed level α ∈]0,1[, where FU1 := inf{x:FU(x) ≥u} denotes the generalized inverse of the cumulative distribution function of a random variable U. We consider here only random vectors X and functions g regular enough to haveFY FY1(α)=α (that is,FY is continuous). Since the levelα is fixed, we omit the index in the sequel.

A natural idea to estimate a percentile consists in using its empirical estimator: having at hand a sample (Xi)i=1,...,n of the input law X, we run it through the computer model to obtain a sample (Yi)i=1,...,n of the output Y. Then, denoted Y(k) the k-th order statistic of the previous sample, the estimator

qn:=Y(+1), (7.2)

is consistent and asymptotically Gaussian under weak assumptions on the model (see [35] for more details). However, for computationally expensive models, the sample size is drastically limited, which makes the estimator (7.2) impractical. In that case, one may replace the sample (Xi)i by a sequence of well-chosen points that provide a useful information for the percentile estimation. Besides, if the points X are not sampled with the distribution of X,

CHAPTER 7. ESTIMATION OF PERCENTILE IN NUMERICAL BLACK BOX

In [21], the authors proposed an estimator based on the variance reduction or on the controlled stratification and give asymptotic results. Nevertheless, the most usual approach of this problem is a Bayesian method which consists in assuming that g is the realization of a well-chosen Gaussian process. In this context, [74] propose a two-step strategy: first, generate an initial set of observations to train a GP model and obtain a first estimator of the percentile, then increase the set of observations by a second set likely to improve the estimator. In [57], the authors proposed a sequential method (called GPQE and GPQE+

algorithms), based on the GP-UCB algorithm of [42], that is, making use of the confidence bounds provided by the Gaussian Process model.

In this paper we propose two new algorithms with acceptable computing-time. They are based on Stepwise Uncertainty Reduction(SUR), a framework that has been successfully applied to closely related problem such as optimization [76], or the dual problem of percentile estimation, the estimation of a probability of exceedance [9, 29]. A first strategy has been proposed for the percentile case in [6] and [56] that rely on expensive simulation procedures.

Nevertheless, finding a statistically sound algorithm with a reasonable cost of computation, even when the problem dimension increases, is still an open problem.

This chapter is organized as follow. In Section 7.2, we introduce the basics of Gaussian Process modelling, our percentile estimator and the Stepwise Uncertainty Reduction frame-work. Section 7.3 describes our two algorithms to estimate a percentile. Some numerical simulations to test the two methods are presented in Section 7.4, followed by concluding comments in Section 7.5. Most of the proofs are deferred to the appendix.

Dans le document THÈSE THÈSE (Page 187-198)