• Aucun résultat trouvé

Chapitre 4 : Application des méthodes sélectionnées

4.4. Analyses de fiabilité

Dans cette partie, nous allons comparer les méthodes de fiabilité qui permettent de calculer la probabilité de dépasser un seuil fixé. Au vu des études de dispersion précédentes, nous fixons arbitrairement un seuil de consommation à 115 MWh. Dans un cas réel, le choix du seuil

Les méthodes d’échantillonnage permettent de calculer la probabilité de dépassement d’un seuil en calculant le rapport du nombre de simulations dont le résultat se trouve dans l’espace de défaillance par rapport au nombre de simulations total. La méthode de Monte Carlo et de l’Hypercube Latin peuvent permettre de remplir cet objectif. Néanmoins, ici aussi, plus la probabilité de défaillance est souhaitée précise, plus le temps de calcul sera important. C’est pourquoi des méthodes d’accélération du tirage propres aux problèmes de fiabilité ont été mises en place : le tirage directionnel, le tirage d’importance et les méthodes de Quasi-monte Carlo. Les méthodes d’échantillonnage, sauf la méthode de Quasi Monte Carlo qui n’est pas une séquence aléatoire, permettent d’obtenir des intervalles de confiance encadrant les résultats obtenus.

La méthode du tirage directionnel nécessite d’évaluer l’intersection de chaque direction avec la limite de l’espace de défaillance afin de prendre en compte la contribution de la nouvelle direction vers la probabilité de dépassement. De ce fait, chaque étape de calcul dépendant du pas de temps précédent, il n’est pas possible de paralléliser la procédure. La méthode est donc très coûteuse en temps. Nous l’avons tout de même testée afin de vérifier si le gain de temps permet de concurrencer une méthode classique distribuée sur 16 threads. Au bout de 24 h c’est-à-dire plus de 100 simulations, malgré les différentes stratégies d’optimisation de recherche de la direction testées, le modèle n’a pas convergé.

La méthode du tirage d’importance nécessite de remplacer la densité de probabilité initiale par une autre qui permettra de s’approcher plus rapidement de l’espace de défaillance. Pour cela, il faut définir une distribution d’importance permettant de générer les nouveaux échantillons. L’inconvénient majeur de cette méthode est qu’il n’est pas aisé de savoir en amont de l’expérience quelle distribution d’importance choisir. Nous ne l’utiliserons pas seule car dans un cas pratique, il sera extrêmement rare voire impossible qu’un modélisateur sache quelle distribution choisir.

Les méthodes d’approximation que nous avons testées sont les méthodes FORM et SORM. Ces méthodes demandent de convertir l’espace des entrées en un espace standard, puis, la probabilité de défaillance est approchée soit par un demi-plan (FORM), soit par une surface quadratique (SORM). La distance entre l’origine de l’espace standard et le point limite de l’espace de défaillance le plus proche de l’origine est calculé grâce à un algorithme d’optimisation et permet d’obtenir la probabilité de dépassement du seuil fixé.

Trois algorithmes d’optimisation sont implémentés dans la bibliothèque d’OpenTURNS pour traiter ce problème : Abdo-Rackwitz (du nom de ses créateurs), SQP (Sequential Quadratic Programing) et Cobyla (Constrained Optimization By Linear Approximation). Le dernier algorithme, Cobyla, n’est pas parallélisable car le point suivant est calculé à chaque pas de temps par linéarisation des gradients dans la région de confiance. Les méthodes Abdo-Rackwitz et SQP demandent de calculer les gradients et hessiens des fonctions. La méthode SQP reposant sur le calcul les dérivées secondes du lagrangien du modèle ne sera pas utilisée car beaucoup trop longue en temps calcul lorsque le nombre de paramètres est élevé. Nous utiliserons donc l’algorithme d’Abdo-Rackwitz réalisant un calcul de différences finies au premier ordre.

La méthode FORM a l’avantage de proposer un résultat très rapidement, mais ne permet pas, contrairement aux méthodes d’échantillonnage, de calculer l’intervalle de confiance du résultat. Aussi, nous proposons, comme suggéré par OpenTURNS (EDF, EADS, and PhiMeca 2014), de coupler la méthode FORM à la méthode du tirage d’importance afin, d’une part, de définir la distribution d’importance comme une loi normale centrée autour du point standard de défaillance calculé lors de la méthode FORM. Ce couplage permet d’obtenir, d’autre part, l’intervalle de confiance autour du résultat. La méthode SORM présente les mêmes désavantages que la méthode FORM, à ceci près que pour ce cas d’étude, elle a nécessité 13 fois plus de simulations que FORM pour converger. Les résultats de cette méthode peuvent être très intéressants lorsque l’on souhaite connaître la fonction d’état limite avec précision afin d’appréhender de petites probabilités de dépassement (cas de sûreté nucléaire, typiquement). Dans notre cas, il n’est pas nécessaire d’étudier des probabilités inférieures à 0.1%.

Les résultats obtenus grâce aux différentes méthodes de fiabilité pour un seuil fixé à 115 MWh et un coefficient de variation de l’intervalle de confiance souhaité de 0.1 sont les suivantes :

Tableau 4.3 : Comparaison des méthodes de fiabilité

Probabilité de

dépassement Intervalle de confiance simulations Nombre de simulation Temps de Monte Carlo 4,55 % [3,6% ; 5,3%] 2272 22 h 54 Hypercube Latin 4,7 % [3,8% ; 5,7%] 2048 19h 55 Quasi Monte-Carlo 4,2% - 2160 21 h Tirage directionnel Pas de convergence au bout de 24 h de simulation Tirage d’importance

(+FORM) 4,6 % [3,8% ; 5,4%] 1312 12h43

FORM 6 % - 100 58 mn

SORM 5,3 % - 1301 12 h 32

Pour conclure, lorsqu’on recherche seulement une probabilité de dépassement de seuil, la méthode FORM est préconisée. En effet, même si elle surestime le résultat au vu des autres méthodes, elle permet, dans notre cas, d’obtenir un ordre de grandeur en 13 fois moins de temps que la méthode d’échantillonnage la plus rapide avec une erreur de 30%. L’intérêt de coupler la méthode FORM avec le tirage d’importance réside dans la possibilité d’obtenir l’intervalle de confiance du résultat.

Documents relatifs