• Aucun résultat trouvé

2.3 Estimation de densité de probabilité

2.3.6 Application des méthodes d’estimation de densités de probabilité

2.3.6.2 Application au cas du choc thermique pressurisé

EM sEM sEM2.1 sEM2.2 sEM2.3 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0 20 40 60 80 2 6 10 14 2 6 10 14 2 6 10 14 2 6 10 14 2 6 10 14

Taille de la base de décomposition d

Erreur relativ e (%) 2 4 6 8 10 12 14 16

Figure 2.27 – Cas analytique : boxplot des erreurs relatives d’approximation entre la probabilité estimée ˆ

p et p en fonction de la taille de la base et pour chaque algorithme d’estimation des paramètres du mélange

de gaussiennes.

Rappels sur le cas du choc thermique pressurisé

Dans le cas du PTS, trois variables fonctionnelles ou transitoires T-H sont considérées : la tempé- rature, la pression et le coefficient d’échange thermique. Ces trois variables sont liées via le code CAST3M à une covariable, appelée CS, dépendant aussi de variables scalaires. Un échantillon pro- babilisé de 1000 réalisations des transitoires T-H et des variables scalaires ainsi que les valeurs de la covariable correspondantes est disponible.

A l’issue de l’étude réalisée dans la section 2.2.7.1, la décomposition SPLS a été retenue pour décomposer les trois variables fonctionnelles. La taille d de la décomposition n’a pas été choisie à l’issue de l’étape de décomposition fonctionnelle.

On cherche dans cette section à choisir le nombre d de composantes de la base de décomposition, et à modéliser la densité de probabilité des d coefficients sélectionnés. Comme dans l’exemple analytique, le nombre de gaussiennes dans le mélange est choisi en maximisant le critère BIC. Le paramètre λ de la pénalisation est sélectionné par validation croisée pour les méthodes sEM et sEM2..

Les trois critères définis dans la section 2.3.5 sont appliqués pour les cinq méthodes étudiées et pour différentes tailles de la base de décomposition. Comme le nombre de réalisations des variables fonctionnelles est limité, contrairement au cas analytique dans la section précédente, on choisit de calculer les critères par validation croisée. L’échantillon de n = 1000 réalisations des variables fonctionnelles est partitionné aléatoirement en un échantillon d’apprentissage de taille 600 et un échantillon de test de 400 réalisations. Pour une paire d’échantillons d’apprentissage et de test, la distribution de probabilité des coefficients est estimée sur l’échantillon d’apprentissage et les critères sont calculés à l’aide de l’échantillon de test et d’échantillons générés selon la densité estimée. Pour le critère Ce

1, le taux d’acceptation est

calculé à partir de 100 échantillons générés selon la densité estimée, et est représenté en fonction de la taille de la base de décomposition sur la Figure 2.28. L’évolution du critère Ce

1 a la même forme que

dans le cas analytique. Il augmente puis diminue rapidement. Avec la méthode sEM de Krishnamurthy (2012), la décroissance pour d > 10 est plus rapide qu’avec les autres méthodes. Les trois méthodes sEM2. donnent des résultats très proches. La décroissance du taux d’acceptation pour sEM2.2 est légèrement plus lente pour d > 10. Les méthodes sEM2. donnent des taux sensiblement meilleurs que EM pour des bases de décomposition de tailles comprises entre 6 et 16. En particulier, pour d = 10, la modélisation avec l’algorithme EM a un taux d’acceptation de 82% alors que, pour sEM2., le taux est d’environ 92%. La taille de base qui donne le taux maximal est d = 8 pour l’algorithme EM et d = 10 avec les méthodes sEM2.1, sEM2.2 et sEM2.3.

EM sEM sEM2.1 sEM2.2 sEM2.3 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0 25 50 75 100 2 6 10 14 2 6 10 14 2 6 10 14 2 6 10 14 2 6 10 14

Taille de la base de décomposition d

T aux d'acceptation (%) 2 4 6 8 10 12 14 16

Figure 2.28 – Cas PTS : boxplots du critère C1e, taux d’acceptation du test d’adéquation sur les coeffi-

cients, en fonction de la taille d de la base de décomposition.

EM sEM sEM2.1 sEM2.2 sEM2.3

0.02 0.05 0.10 0.20

2 6 10 14 2 6 10 14 2 6 10 14 2 6 10 14 2 6 10 14

Taille de la base de décomposition d

Erreur quadr atique 2 4 6 8 10 12 14 16

Figure 2.29 – Cas PTS : boxplots du critère C2e, erreur sur la corrélation temps par temps, en fonction

de la taille d de la base de décomposition (échelle logarithmique).

Le critère Ce

2 évalue la capacité de la méthodologie globale de quantification des incertitudes à ap-

procher les corrélations temps par temps entre les variables fonctionnelles. La Figure 2.29 représente le critère C2e, i.e. la somme des erreurs quadratiques sur les corrélations temps par temps entre chaque couple de variables fonctionnelles. Les erreurs quadratiques des différentes méthodes sont relativement proches pour une taille de base donnée et décroissent rapidement quand la taille de la base augmente.

A partir des critères Ce

1 et C2e, on peut sélectionner une taille de base. Pour l’algorithme sEM2., le

critère Ce

1 est maximal pour d = 10 et, pour d ≥ 10, l’erreur quadratique moyenne sur la corrélation est

en-dessous de 0,05. De plus, pour d = 10, Cd

2, la variance expliquée définie dans la section 2.2.6, vaut

environ 80%, et le critère Cd

3 vaut 90%. Ainsi, les variables fonctionnelles sont assez bien approchées par

une décomposition PLS sur 10 composantes, et les caractéristiques des variables fonctionnelles retenues par la décomposition expliquent bien la covariable. On choisit donc de retenir d = 10 composantes

dans la décomposition PLS simultanée.

Le calcul du dernier critère, C3enécessite un grand nombre d’évaluations du code M. Le code CAST3M

de même le nombre de calculs possibles à quelques milliers ou dizaines de milliers – moins que le nombre d’évaluations qui seraient nécessaires pour calculer le critère C3eentre d = 2 et 16. Ainsi, seuls quelques

milliers d’appels au code ont été réalisés avec en entrée des fonctions simulées selon la modélisation estimée avec d = 10 et la méthode sEM2.3. Pour ces réalisations de la covariable, l’hypothèse d’adéquation est acceptée dans le test de Kolmogorov-Smirnov à 5%.

La méthode d’estimation de matrices de covariances creuses proposée avec la troisième matrice de pénalisation (sEM2.3) donne les meilleurs résultats en matière d’estimation de densité et pour l’approximation de la corrélation entre les transitoires. L’algorithme sEM2. s’avère moins sensible au choix de la matrice de pénalisation que dans l’exemple analytique.

La Figure 2.30 représente à gauche 100 réalisations des variables fonctionnelles et à droite 100 réali- sations simulées selon la distribution estimée pour la température, la pression et le coefficient d’échange respectivement. Pour générer ces courbes, la décomposition fonctionnelle utilisée est la PLS simultanée. La densité de probabilité des coefficients de la PLS simultanée a été modélisée par un mélange de 3 gaus- siennes estimé par l’algorithme sEM2.3. Dans l’ensemble, les trois variables fonctionnelles sont assez bien modélisées. Pour la température, la forme générale des courbes est bien conservée. L’intervalle [0; 1500] est aussi particulièrement bien reproduit. Cependant, les courbes simulées n’ont pas la même variabilité que les courbes de l’échantillon d’apprentissage. En effet, certains profils de courbes, rares dans l’échan- tillon d’apprentissage, ne sont pas « capturés » par la décomposition fonctionnelle. La pression semble bien mieux approchée. La variabilité de l’échantillon initial semble bien conservée dans la modélisation. Le transitoire du coefficient d’échange est très bien reproduit jusqu’au pas de temps t = 500s environ. Il est moins bien modélisé au-delà. En effet, les petites fluctuations visibles sur les courbes réelles n’appa- raissent pas sur les courbes simulées. Cependant, selon les avis d’experts, cette partie de la courbe aurait

a priori peu d’effet sur la valeur du critère de sécurité.