• Aucun résultat trouvé

incertitudes en entrée d’un modèle boîte noire

4.2 Estimation des mesures de risque

Dans cette partie, il est question de l’estimation des mesures de type quantile et super-quantile à l’aide de méthodes numériques. De ce fait, beaucoup de techniques qui ne sont adaptées qu’à l’estimation de mesures exprimables sous la forme d’une espérance (comme la variance ou les probabilités de dépassement de seuil) ne sont ici pas utilisables. Par exemple, la méthode des moments [Padulo et Guenov, 2011] ou les polynômes de chaos [Blatman et Sudret, 2011] [Rajabi et al., 2015] sans simulations Monte-Carlo ne sont pas adaptées à l’estimation de ces mesures de risque. En effet, ces modèles de substitution ne permettent d’évaluer analytiquement que l’espérance et la variance de la sortie.

Les méthodes de Monte-Carlo étant les plus répandues, leur utilisation dans le but d’estimer un quantile ou un superquantile sont présentées. Toutefois, ces mesures ont pour vocation d’être utilisées dans le cadre d’un problème d’optimisation. Il est donc primordial que le nombre d’évaluations nécessaires à la fonction déterministe soit réduit et la méthode de Monte-Carlo nécessite trop d’appels afin d’obtenir une précision suffisante lorsqu’elle est utilisée sur des quantiles. Pour diminuer la taille de l’échantillon requise pour une bonne précision d’estimation, les méthodes permettant de réduire la variance sont présentées. L’échantillonnage préférentiel (appelé Importance sampling en anglais) ou l’échantillonnage stratifié (appelé Importance splitting en anglais) en sont deux exemples. Enfin, afin de réduire davantage le nombre d’appels nécessaires à la fonction φ afin d’obtenir des estimateurs de précision suffisante, l’assistance par krigeage de ces méthodes de Monte-Carlo modifiées est détaillée.

4.2.1 Limite des estimateurs par méthodes de Monte-Carlo

La méthode de Monte-Carlo consiste à tirer un échantillon de NM C points



ξ1,· · · , ξNM C à partir de la loi h des entrées afin d’estimer les diverses mesures de robustesse.

Estimation du quantile : sachant que sa définition mathématique est basée sur la connaissance de la fonction de répartition H, l’estimateur par Monte-Carlo du quantile est donc basé sur l’approximation de la fonction de répartition ˜HNM C par Monte-Carlo :

˜ HNM C(χ) = 1 NM C NM C X i=1 1φ(ξi )6χ ˜qM C α = minn χ : ˜HNM C(χ) > αo (4.4)

D’après [David et Nagaraja, 2004], on peut montrer que l’erreur commise par cet estima-teur se comporte asymptotiquement de la manière suivante :

p NM C˜qM C α − qα  L −→ NM Cσq,M CN (0, 1) avec σq,M C = p α(1 − α) hY(qα) (4.5) avec hY la densité de la sortie. Ce résultat est démontré dans la partie suivante dans le cas plus général de l’échantillonnage préférentiel. Sa démonstration repose sur l’utilisation du théorème de Berry-Esseen. Or, la densité a dans le cas général une valeur faible au niveau du quantile, ce qui se traduit par un hY(qα) →α→10. Ceci implique que la taille de

l’échantillon Monte-Carlo NM Cdoit être grande afin que sa racine carrée compense ce com-portement. Par exemple, il est rarement envisageable d’utiliser moins de 104 échantillons pour un quantile de l’ordre de α ' 10−2.

Estimation du superquantile : Une manière alternative de calculer le superquantile, équivalente à sa définition, est proposée par Rockafellar [Rockafellar et Uryasev, 2000]. Elle est donnée par la formule variationnelle suivante :

Qα = inf γ∈RΨ(γ) = inf γ∈R " γ+ 1 1 − α Z χ∈R 1φ(χ)>γ(φ(χ) − γ) h(χ)dχ # (4.6) L’une des valeurs de γ où se réalise le minimum de la fonction Ψ(γ) est égale à la valeur de

qα. Plus précisément il s’agit de la plus petite valeur de γ où se réalise ce minimum. Dans le cas où l’on suppose que la distribution de la sortie est continue, ceci provient du fait que Ψ(γ) est convexe et continûment différentiable et que l’équation d’optimalité (annulation du gradient) est satisfaite par le quantile. Enfin, en posant γ = qα on retrouve la formule du superquantile de l’équation (4.3). Dans le cas plus général où la distribution de sortie est continue par morceaux (contenant donc des sauts), Rockafellar et Uryasev ont fourni une preuve de convergence dans l’étude [Rockafellar et Uryasev, 2002].

En évaluant l’intégrale par la méthode de Monte-Carlo, on obtient donc comme esti-mateur Monte-Carlo : ˜ QM Cα = inf γ∈R γ+ 1 NM C(1 − α) NM C X i=1 1φ(ξi )>γ  φi) − γ (4.7)

Au niveau de l’erreur d’estimation, on a, d’après [Hong et al., 2014] :

p NM CQ˜M C α − Qα  L −→ NM CσQ,M CN (0, 1) avec σQ,M C = r Var 1φ(ξ)>qα(φ(ξ) − qα) (1 − α) (4.8) Comme précédemment pour le quantile, cette variance nécessite un nombre d’échantillons

NM C grand afin d’être petite. En effet, la valeur de 1 − α au dénominateur a tendance à être petite, de l’ordre de 10−2, il est donc nécessaire de compenser suffisamment cela par la racine carrée du nombre de points. Une fois encore, il est inenvisageable d’utiliser un nombre de points NM C <104

4.2.2 Estimateurs par méthodes de Monte-Carlo à variance réduite

Dans le but de réduire la taille de l’échantillon nécessaire à l’estimation du quantile et du superquantile avec un précision suffisante, il existe deux principales stratégies d’échan-tillonnage notamment développées dans [Morio et Balesdent, 2015] et [Caron et al., 2014] : la première est l’échantillonnage stratifié et repose sur la décomposition de l’estimation du quantile en l’estimation de probabilités conditionnelles estimées sur des sous-ensembles définis itérativement. La seconde est l’échantillonnage préférentiel et repose sur le tirage des échantillons à l’aide d’une loi biaisée afin que ces échantillons soient générés dans la zone d’intérêt, et ainsi diminuer la variance de l’estimateur. La difficulté dans le cas de l’échantillonnage préférentiel réside dans le choix de la loi biaisée et un algorithme séquentiel est détaillé.

4.2.2.1 Échantillonnage stratifié

Initialement développée afin d’estimer des probabilités de dépassement de seuil P (φ(ξ) > S), cette méthode d’échantillonnage s’applique également à l’estimation de quantile [Guyader et al., 2011] [Morio et Balesdent, 2015]. Son principe repose sur la dé-composition du problème en sous-problèmes plus faciles à résoudre. Pour ce faire, l’idée est de décomposer la probabilité à estimer en probabilités conditionnelles à l’aide de la formule de Bayes. Soit Ω l’évènement dont on souhaite calculer la probabilité, par exemple ici Ω = {ξ : φ (ξ) > S}. Afin de décomposer le calcul de cette probabi-lité il faut introduire une séquence décroissante d’évènements de la manière suivante : Ω1 ⊃ Ω2 ⊃ · · · ⊃ Ωm = Ω. Cette séquence peut en particulier être définie de la manière suivante : Ωi = {ξ : φ (ξ) > Si} avec S1 < S2 < · · · < Sm = S. Alors P(ξ ∈ Ω) se décompose ainsi : P(ξ∈ Ω) = P (ξ∈ ∩m i=1i) = Bayes P  ξ ∈ Ωm ξ∈ ∩m−1 i=1i  P  ξ∈ ∩m−1 i=1i  = def Ωi P (ξ∈ Ωm | ξ ∈ Ωm−1) P ξ∈ ∩m−1 i=1i  = · · · = récurrence P (ξ∈ Ω1) Πm−1 i=1 P (ξ ∈ Ωi+1| ξ ∈ Ωi) (4.9)

Afin d’estimer les probabilités conditionnelles P (ξ ∈ Ωi+1| ξ ∈ Ωi) par Monte-Carlo, il est nécessaire de générer des points selon la densité conditionnelle hi :

hi = 1ξ∈Ωih(ξ) P (ξ∈ Ωi) =

1φ(ξ)>Sih(ξ)

P (φ (ξ) > Si) (4.10) Cette génération peut se faire à l’aide de l’algorithme de Metropolis-Hastings [Chib et Greenberg, 1995]. C’est un algorithme basé sur la théorie des chaînes de Markov, donc itératif, permettant de générer une densité inconnue. Elle consiste principalement à faire des tirages par acceptation-rejet à partir de l’état courant.

En ce qui concerne les seuils Si, le choix diminuant le plus la variance est celui dont les probabilités conditionnelles obtenues sont constantes [Pastel et al., 2014]. De ce fait, le

β-quantile empirique des échantillons générés selon la loi conditionnelle est utilisé avec β à fixer par l’utilisateur. Ceci permet d’obtenir :

P (ξ∈ Ωi+1| ξ ∈ Ωi) = 1 − β

Le choix de ce β est par ailleurs très sensible puisqu’un β trop faible implique une convergence lente alors qu’un β trop grand induit un biais d’estimation important.

L’inconvénient de cette méthode est le nombre important de paramètres à fixer. Par exemple, le nombre de points nISp par estimation de P (ξ ∈ Ωi+1| ξ ∈ Ωi), la valeur de β, ou encore les paramètres que nécessitent l’algorithme de Metropolis-Hastings.

Estimation du quantile par stratification : Dans le cas de l’estimation d’un α-quantile et non plus d’une probabilité de dépassement de seuil, la probabilité P(ξ ∈ Ω) = 1−α est connue mais c’est la valeur du seuil S qui est recherchée. Grâce à cela, il est possible de fixer le seuil de quantile empirique β dès que le nombre de strates m souhaité par l’utilisateur est connu. En effet, α = 1 − P(ξ ∈ Ω) = 1 − (1 − β)m. Or α et m sont connus,

Algorithme 4.1 Échantillonnage stratifié pour l’estimation de quantile