• Aucun résultat trouvé

Recherche du point de conception

1.4 Méthodes de fiabilité : le couplage mécano-fiabiliste

1.4.3 Méthodes d’approximation FORM/SORM

1.4.3.2 Recherche du point de conception

La deuxième étape des méthodes FORM/SORM est de déterminer le point de concep- tion, c’est-à-dire le point appartenant au domaine de défaillance et le plus proche de l’origine dans l’espace normé [45]. Dans l’espace normé, les contours de densité de proba- bilité sont des sphères concentriques et la densité de probabilité décroît avec la distance à l’origine. Donc, le point de conception u∗ a la probabilité d’occurrence la plus haute parmi tous les points d’échec. Le point de conception dans l’espace normal standard, u∗, peut être inversement calculé dans l’espace physique afin de donner une interprétation plus significative de ce point. Le point de conception est alors la solution du problème d’optimisation non-linéaire suivant :

u∗ = minp< u > {u} sous la contrainte : H(uk) ≤ 0 (1.31)

Formulation du problème d’optimisation Le problème d’optimisation dans un cas général peut être écrit avec les fonctions de Lagrange en transformant les contraintes d’inégalité de l’optimisation en contraintes d’égalité avec les multiplicateurs de Lagrange :

L(U, λ) =< u > {u} +X

j

λjHj(u) (1.32)

où λj sont respectivement les multiplicateurs de Lagrange associé à la fonction d’état

limite Hj(u) traduisant l’appartenance au domaine de défaillance : λj = 0 si u ∈ Df ⇔

Hj(u) < 0 et λj > 0 pour {u| Hj(u) < 0}. Le point (U∗, λ∗) est l’optimum recherché s’il

rend stationnaire la fonction de Lagrange L(U, λ). Les conditions de Kuhn-Tucker s’écrivent alors : 5 L(U, λ) = 0 ⇒      ∂L(U,λ) ∂ui = 0 ∂L(U,λj)

∂λl = 0 si la contrainte est active

λl = 0 si la contrainte est inactive

(1.33)

En supposant que le mode de défaillance se définit à l’aide d’une seul fonction d’état limite et en remarquant que ∂ (< u > {u}) /∂ui = 2ui, les conditions précédentes de-

1.4. MÉTHODES DE FIABILITÉ : LE COUPLAGE MÉCANO-FIABILISTE 35 2ui+ λH(u)∂u i = 0 ⇔ ui = − λ 2 H(u) ∂ui H(u) = 0 (1.34)

Puisque λ est défini positif ou nul, la solution est alors un minimum pour u et un maximum pour le multiplicateur λ.

Le degré de difficulté impliqué dans la détermination du point de conception u∗dépend du problème de départ. Par exemple, en fiabilité construite par la méthode des éléments finis, la fonction d’état limite G n’est pas définie explicitement. Cela peut présenter un certain nombre de défis :

– La fonction d’état limite G peut exposer des non-linéarités en raison de la non- linéarité de la réponse calculée par éléments finis.

– Des non-linéarités locales ou des "bruits" dans G peuvent être rencontrés en raison des approximations de calcul numérique dans la solution par élément fini. Ceux-ci sont considérés comme des approximations "intérieures", tandis que les tolérances de convergence du point de conception dans l’analyse de fiabilité sont considérées comme des approximations "extérieures".

– Le gradient de la fonction de performance, qui est nécessaire dans la recherche du point de conception, peut exposer des discontinuités, notamment dans le cas de la mécanique non-linéaire. La figure (1.4) montre la valeur du nombre de cycle avant défaillance, sortie du calcul élément fini suivant l’évolution du module d’Young E. Dans le contexte du calcul Éléments finis non linéaire matériau, les résultats mettent en évidence la discontinuité de la valeur de son gradient évaluée par différence finie pour de petits pas h.

0 5.91 5.92 5.93 5.94 5.95 5.96x 10 4

Finite element Ouput Number of cycle

0.1σ 0.05σ 0.075σ 0.025σ h ∆εcr err= 0.1 ∆εcr err= 0.01 ∆εcr err= 0.001

(a) Valeur de G suivant l’évolution du module d’Young 0 −6 −4 −2 0 2 4

Finite element Ouput Number of cycle

0.1σ 0.05σ 0.075σ 0.025σ h ∆εcr err= 0.1 ∆εcr err= 0.01 ∆εcr err= 0.001

(b) Valeur du gradient de G suivant l’évolution du module d’Young

Fig. 1.4 – Évaluation des gradients pour un calcul non linéaire.

– Une analyse par éléments finis non-linéaires peut ne pas converger à l’équilibre. C’est le cas, par exemple, quand le choix des paramètres du modèle constitue une confi- guration non-physique. De là, pour quelques réalisations des variables aléatoires, il peut ne pas être possible d’évaluer la fonction de performance. Dans le plus mauvais cas, le code informatique se termine en raison du manque de convergence de la so- lution. Il est alors raisonnable de supposer que cette situation peut arriver surtout dans le domaine de défaillance où des non-linéarités structurelles peuvent apparaître dans la réponse.

Les méthodes par éléments finis se retrouvent donc compromises pour ce genre de mé- thodes et feront donc l’objet de notre propos dans la partie suivante.

Algorithme d’optimisation

Principe Le problème d’optimisation est fondé sur la construction d’une séquence de points u(1), u(2), ..., u(n) , avec u(1) le point initial de l’algorithme. La détermination

des points suivants se fait de manière itérative en fonction du point obtenu à l’itération précédente et d’une direction d’avance :

u(k+1)= u(k)+ δ(k)d(k) (1.35) avec δ(k) la longueur du pas d’avance à la k-ième itération et d(k) la direction de descente. Plusieurs algorithmes sont présentés dans la littérature pour la solution de ce problème [64, 114, 60]. Ceux-ci incluent plusieurs méthodes en fonction du degré de celle-ci pour évaluer d :

1. Les méthodes de degré 0 ou algorithmes directs. Elles ne font appel qu’à la valeur de la fonction pour l’optimisation. Nous pouvons noter les méthodes de dichotomie, du simplexe et de Nelder et Mead. Ces méthodes peuvent être intéressantes lorsqu’il faut surmonter la difficulté énoncée plus haut où l’évaluation des gradients peut poser quelques problèmes mais la lenteur de convergence est souvent un frein pour ce type d’algorithme.

2. Les algorithmes de degré 1, faisant appel à la valeur de la fonction d’état limite ainsi qu’à ces gradients. Nous pouvons mentionner tous les algorithmes classiques d’optimisation tels que la méthode du gradient projeté. Nous présenterons ici les méthodes d’Hasofer-Lind Rackwitz Fiessler qui est une adaptation de l’algorithme du gradient projeté spécialement adaptée pour les problèmes de recherche de point de conception.

3. Les algorithmes de degré 2 nécessitent quant à eux le calcul du Hessien. Nous pou- vons noter les algorithmes de Newton, SQP. Ce sont ici des algorithmes fortement robustes et rapides au vue du nombre d’itérations nécessaires mais peuvent rapi- dement être pénalisantes avec l’évaluation du Hessien dans le cas d’un nombre de variables aléatoires élevé.

4. Enfin les méthodes hybrides qui comme leur nom l’indique, mixent plusieurs mé- thodes de degrés différentes. Ce sont, en fait, des méthodes de degré 2 dont le calcul du Hessien est approché dans un premier temps et converge au cours des itérations. Nous pouvons retenir les algorithmes d’Abdo-Rackwitz [2] ainsi que l’algorithme BFGS de de Broyden-Fletcher-Goldfarb-Shanno.

1.4. MÉTHODES DE FIABILITÉ : LE COUPLAGE MÉCANO-FIABILISTE 37

Algorithmes d’Hasofer-Lind-Rackwitz-Fiessler (HLRF, iHLRF) La mé- thode HL-RF a été à l’origine développée par Hasofer et Lind (1974) et plus tard éten- due par Rackwitz et Fiessler (1978) pour inclure les variables aléatoires non-normales [134]. Cette méthode est particulièrement adaptée pour les problèmes de recherche du point de défaillance bien que sa convergence ne soit pas assurée.

La construction de la séquence de points u1, ..., un , avec u1 le point initial de l’algo-

rithme, suit la relation :

u(k+1) =  α(k)u(k)+ H(u (k)) k ∇H(u)|u=u(k)k  < α(k)> (1.36) où ∇H(u)|u=u(k) =  ∂H(u(k)) ∂u1 , ..., ∂H(u (k)) ∂un  (1.37) est le gradient de la fonction H(u) au point u(k)et :

α(k) = − ∇H(u)|u=u(k) k ∇H(u)|u=u(k)k

(1.38) est le vecteur unitaire dirigé dans le sens opposé à la direction du gradient.

Le premier terme de la fonction (1.36) correspond à la projection sur la droite orientée par α(k) et passant par l’origine, transformant ainsi le point Pk au point Pk0 de la figure (1.5a). Le deuxième terme apporte un coefficient correctif afin de transformer Pk0 en Pk+1

selon le gradient de H intervenant dans le cas où le point n’appartient pas à la fonction d’état limite. Si le point u(k) | H(u(k)) = 0, l’algorithme revient alors à la méthode du

gradient projeté. H(u) < 0 P′ k Pk+1 u1 u1 u2 u2 Pk H(u) = 0 H(u) = cte α α

(a) Construction de la séquence de point uk [95]. 0 1 τ τ2 τn H(λ) λ ∇H Ψ H (b) Règle d’Armijo

Le vecteur gradient est évalué dans l’espace physique, ∇xH(x), et transformé ensuite

dans l’espace normal standard par :

∇H(u)|u=u(k) = { ∇G(x)|x=x(k)} J

−1

u,x (1.39)

où Ju,x−1 représente le jacobien de la transformation entre l’espace physique et l’espace normé.

Zhang et Der Kiurghian apportent l’assurance de convergence de cet algorithme en optimisant le pas d’avance δ(k)[184]. L’équation (1.36) peut être réécrite sous la forme

de (1.35) : u(k+1) = u(k)+ δ(k) < u (k)> α(k)− H(u(k)) k ∇H(u)|u=u(k)k α(k)− u(k)  (1.40) L’algorithme initial HLRF prend un pas d’avance unitaire : δ(k) = 1. Il est possible d’optimiser ce pas suivant la règle d’Armijo représentée en figure (1.5b) puisque pour une fonction mérite comprise entre 0 et le gradient, il existera toujours un réel δ tel que la fonction H(u(k)+ δ(k)d(k)) soit plus petite que H(u(k)). La fonction de mérite Ψ proposée par Zhang [183] :

Ψ(u) = 1 2kuk

2

+ c |H(u)| (1.41)

avec le choix de la constante c > kuk k∇H(u)|

u=u(k)k

assure la convergence inconditionnelle de l’algorithme.

Méthode “Sequential quadratic Programming” (SQP) La méthode SQP est consi- déré de nos jours comme l’un des algorithmes les plus efficaces et robustes, si bien que la plupart des codes d’optimisation la propose par défaut [167, 129]. Cet algorithme repose sur le calcul des dérivées seconde du Lagrangien. Le développement en série de Taylor des conditions d’optimalité (1.33) sur 5L(U, λ) et H(u) = 0 au voisinage du point u(k)nous donne alors le système :

 52

uL(U, λ)|u=u(k) ∇H(u)|u=u(k)

< ∇H(u)|u=u(k) > 0   u − uk λ  =  −2u(k) −H(u(k))  (1.42) L’efficacité de ce type d’algorithme peut devenir également un de ses défaut puisque le calcul du Hessien peut être coûteux dans le cas d’un nombre de variables important. Algorithme d’Abdo-Rackwitz Pour palier à l’inconvénient d’un calcul lourd du Hessien, Abdo Rackwitz adapte la méthode SQP de la même façon que dans l’algo- rithme HLRF, le calcul du second ordre a la forme particulière de la fonction H. Elle ne peut donc s’appliquer qu’à la recherche du point de conception suivant le schéma d’optimisation (1.31). Le calcul du Lagrangien est ici approché par :

52uL(U, λ)

u=u(k) ≈ 5

2

(kuk2) = 2[I] (1.43)

1.4. MÉTHODES DE FIABILITÉ : LE COUPLAGE MÉCANO-FIABILISTE 39



2[I] ∇H(u)|u=u(k)

< ∇H(u)|u=u(k) > 0   u − uk λ  =  −2u(k) −H(u(k))  (1.44) La solution est alors :

u(k+1) = −λ 2 ∇H(u)|u=u(k) (1.45) avec λ = 2 H(u k)− < ∇H(u)| u=u(k)> u(k)  k ∇H(u)|u=u(k)k 2 (1.46)

Cette méthode revient alors à la méthode de Newton et comme dans le cas HLRF, la convergence n’est pas assurée. Il est tout de même possible d’imposer un contrôle du pas d’avance par une technique du Lagrangien augmenté qui rend l’algorithme globalement convergent [43].

Cette méthode est particulièrement efficace pour une grande taille du vecteur de va- riables de base mais couplée avec un contrôle du pas, elle converge moins vite que la méthode SQP.

1.4.3.3 Approximation de la surface d’état limite et calcul de la probabilité