• Aucun résultat trouvé

II.4 Méthode de décomposition de la dimension

II.4.3 Résolution de problèmes d’analyse de tendance centrale

II.4.3.1 Evaluation des moments statistiques

En se référant à la méthode d’intégration par réduction de la dimension, ou plus précisément en se référent à l’équation (II.103), le moment statistique ,+- peut être approximé par :

,+- ≅ A −1 + J‹m J Dt A … A /ZJˆ-B'QW,QY,…,QðØ"C[ QðØ"DQðØ"ØWm J‹m m QWD . 105 où Jˆ est l’approximation par décomposition de la dimension de la fonction générique dans l’espace standard et la notation 'QW,QY,…,QðØ" désigne le vecteur BM, … , MQWJ , MQW, MQWm , … , MQðØ"J , MQðØ", MQðØ"m , … , MC où seuls les paramètres d’indices d , d;, … , d‹J sont variables et les autres sont fixés aux coordonnées du point de référence '.

Par définition la quantité /ZJˆ-B'QW,QY,…,QðØ"C[ s’écrit : /ZJˆ-B'QW,QY,…,QðØ"C[ = 2 Jˆ-B'QW,QY,…,QðØ"C

ℝðØ" ŽB'QW,QY,…,QðØ"C3MQW… 3MQðØ" . 106 On peut constater que le calcul du moment statistique d’ordre . est réduit au calcul d’une série d’intégrales dont la dimension ne dépasse pas î − , qui peuvent être facilement calculées par une technique de quadrature. Ainsi cette méthode sera plus efficace que le calcul d’une seule intégrale N-dimensionnelle, en particulier lorsque le nombre de paramètres incertains est élevé. On note que, plus l’ordre î de la réduction de la dimension d’intégration augmente, plus l’erreur d’approximation diminue ; cependant les efforts de calcul deviennent considérables. Ainsi, il faut trouver l’ordre de réduction qui garantit le meilleur compromis entre la précision des estimations et le nombre d’appels au modèle. A titre illustratif, si l’intégrale définie par l’équation (II.106) est calculée par quadrature de Gauss-Hermite basée sur U points et pondérations d’intégration, le nombre total d’appels au modèle nécessité par la

118 méthode de réduction de la dimension est ∑ + ‹J U‹J

Dt . Par contre, U appels au modèle sont nécessaires si le moment statistique est évaluée directement par quadrature de Gauss-Hermite. Les figures II.12a et II.12b illustrent l’évolution du rapport ∑ + ‹JU‹J

Dt ⁄ en U

fonction de l’ordre î de la réduction de la dimension et pour différents nombres de paramètres incertains, respectivement quand l’ordre de la quadrature de Gauss-Hermite employé pour le calcul des grandeurs /ZJˆ-B'QW,QY,…,QðØ"C[ vaut 3 et 4. La méthode d’intégration par réduction de la dimension est jugée plus efficace quand le rapport ∑ + ‹JU‹J

Dt ⁄ tend vers 0. On constate à partir des figures II.12a et II.12b que l’efficacité U de la méthode d’intégration par réduction de la dimension est fortement dépendante des deux paramètres U et , représentant respectivement le nombre de points d’intégration employé dans le schéma d’intégration par quadrature de Gauss-Hermite et la dimension de l’intégrale.

Figure II. 12 : Evolutions du rapport du nombre d’appels au modèle demandé par la méthode

d’intégration par réduction de la dimension et par la méthode d’intégration directe en fonction des paramètres s et N : (a) n = 3 et (b) n = 4

A titre d’exemple, quand la dimension de l’intégrale à évaluer est = 10, les méthodes de réduction d’ordres î = 1, î = 2 et î = 3 permettent de réduire le nombre d’appels au modèle par rapport à la méthode d’intégration directe respectivement par un facteur de 1969, 136, 17 lorsque le nombre de points d’intégrations U = 3, et respectivement par un facteur de 26215, 1380, 125 lorsque le nombre de points d’intégration U = 4. Ainsi, on constate que les efforts de calcul en terme d’appels au modèle sont considérablement réduits lorsque le nombre de points d’intégration U augmente, et l’efficacité de la méthode de réduction est plus remarquable lorsque la dimension de l’intégrale augmente. Il faut signaler tout de même que cette efficacité reste relative puisqu’on compare à la méthode d’intégration directe. On note que grâce à la formulation de la méthode de réduction de la dimension dans l’espace standard, les intégrales élémentaires /ZJˆ-B'QW,QY,…,QðØ"C[ sont toujours évaluées par quadrature de Gauss-Hermite quelle que soit la distribution des paramètres d’entrée . On signale aussi que le fait de supposer la réponse du modèle scalaire était une simplification pour la présentation de la méthode et ne doit pas être vu comme une limite. En effet, si on s’intéresse à une réponse vectorielle du modèle r = : , ;, … , <= , l’efficacité de la méthode d’intégration par réduction de la dimension ne sera pas affectée puisque le nombre d’appels au modèle est le même que lorsque la réponse du modèle est scalaire. Les deux premiers moments statistiques 8 et +, respectivement la moyenne et la matrice de covariance de la

119 variable aléatoire M-dimensionnelle • associée à l’aléa de la réponse r sont donnés respectivement par : 8 = /0•1 ≅ A −1 + J‹m J Dt A … A /Z•‘BMQW, MQY, … , MQðØ"C[ QðØ"DQðØ"ØWm J‹m m QWD . 107 + = /0•• 1 − 88 ≅ A −1 + J‹m J Dt A … A /Z•‘B'QW,QY,…,QðØ"C•‘ B'QW,QY,…,QðØ"C[ QðØ"DQðØ"ØWm J‹m m QWD −88 . 108 Les espérances mathématiques figurant dans les équations (II.107) et (II.108) sont calculées par quadrature de Gauss-Hermite puisqu’elles correspondent à des intégrales dont la dimension ne dépasse pas î − .

II.4.3.2 Exemple d’illustration

Dans ce paragraphe, nous nous proposons de mettre en évidence les différentes constations exposées précédemment. Dans cette perspective, nous reprenons le modèle polynômial défini par l’équation (II.67), étudié dans le paragraphe II.3.5.1.3. Nous nous intéressons à la convergence des quatre premiers moments statistiques de la réponse en fonction de la dispersion 9 des paramètres d’entrée et de l’ordre î de la méthode d’intégration par réduction de la dimension. Le tableau II.5 donne les résultats obtenus pour différents ordres de la méthode de réduction de la dimension et pour 9 = 0,4, sachant que les intégrales élémentaires sont calculées par quadrature de Gauss-Hermite d’ordre U = 3.

Tableau II. 5 : Moments statistiques de la réponse du modèle pour σ = 0,4

Moments statistiques

Ordre de la méthode de réduction

Exacte î = 1 î = 2 î = 3 8+ 10,48 10,48 10,48 10,48 9+ 4,698 4,771 4,771 4,777 i+ 0,0007 0,682 0,686 0,687 {+ 1,163 3,416 3,635 3,634

On constate que la méthode de réduction d’ordre 1 permet d’estimer les deux premiers moments statistiques avec une assez bonne précision. Cependant, les moments statistiques d’ordre plus élevé tels que le coefficient d’asymétrie i et le coefficient d’aplatissement {+ exigent l’augmentation de l’ordre de réduction. En effet, pour î = 3, les estimations de tous les moments statistiques sont en bon accord avec la solution exacte obtenue par un calcul analytique.

Si nous nous intéressons à la convergence de la densité de probabilité + de la variable

aléatoire scalaire , la figure II.13 permet de comparer les évolutions de la densité de probabilité + construites par la méthode de Pearson [14] à partir des moments statistiques obtenus par différents ordres de réduction et celle obtenue par 106 simulations de Monte-Carlo sur l’équation (II.67). On constate que la méthode des moments converge vers la solution de référence, obtenue par les simulations de Monte-Carlo, lorsque les moments statistiques correspondent aux estimations données par des réductions d’ordre 2 et d’ordre 3. Cependant, lorsque les moments statistiques sont issus d’une estimation par une réduction d’ordre 1, la densité de probabilité est peu précise, car seuls la moyenne et l’écart-type de la réponse sont

120 précis. En effet, la précision de la méthode des moments est fortement liée à la précision des moments statistiques.

Figure II. 13 : Comparaison de la densité de probabilité fY(y) de la réponse du modèle obtenue par la méthode des moments et les simulations de Monte-Carlo