• Aucun résultat trouvé

Projection : λi+1 t = PC(λi+1 n )  λi t+ rNtui

L’algorithme de Newton modifié est très similaire à un algorithme d’Uzawa [Alart and Curnier, 1991].

Remarque 1.19

Newton généralisé Contrairement à l’algorithme de Newton modifié pour lequel l’opérateur tan-gent est restreint au jacobien lié aux lois d’équilibre, ici le jacobien généralisé [Clarke, 1990, Qi and Sun, 1993] des lois de contact est pris en compte ce qui conduit à un schéma du type :

xi+1= xi−(K+ J)−1(G(xi)+ H(xi)) (1.67)

L’expression du jacobien généralisé peut être trouvé dans [Curnier and Alart, 1988]. Les condi-tions de stabilité et de convergence sont présentées dans [Alart and Curnier, 1991,Alart, 1997]

Remarque 1.20

5 Prise en compte du contact en décomposition de domaine

Dans le contexte des assemblages le contact intervient aux interfaces entre les différentes pièces. Les non-linéarités de contact sont donc traitées aux interfaces des sous-domaines. Les conditions d’interface ne consistent plus à imposer l’équilibre des efforts et la continuité des déplacements. Puisque il n’y a pas nécessairement continuité du déplacement, les approches primales ne sont pas adaptées aux problèmes de contact. Nous présentons en particulier dans cette section les adaptations de la méthode FETI pour le contact. Les approches mixtes permettent aussi de gérer des problèmes de contact frottant, elles seront abordées au sein des chapitres2et4.

5.1 FETI pour le contact

Le problème de contact peut s’écrire comme une minimisation sous contrainte d’inégalité telle que les variables duales sont cherchées dans un sous-espace lié à la loi de contact. La minimisa-tion sous contrainte d’inégalité se fait par une stratégie d’active-set dont l’idée est de prédire les

contraintes actives au cours des itérations. [Dureisseix and Farhat, 2001,Avery et al., 2004,Avery and Farhat, 2009] proposent des versions de FETI et FETI-DP pour le contact sans frottement nom-mées respectivement FETI-C et FETI-DPC. L’intégration des comportements de frottement pose de grandes difficultés. Pour gérer les problèmes de contact avec ou sans frottement, [Dostál and Horák, 2003, Dostál and Horák, 2004,Dostál et al., 2005, Dostál et al., 2009, Dostál et al., 2010, Dostál et al., 2012] ont proposé une méthodologie précise afin de gérer les contraintes d’inégalité. Cette méthode est basée sur des algorithmes d’optimisation dans le but de minimiser une fonctionnelle sous contraintes convexes [Kuˇcera, 2008,Dostál and Kuˇcera, 2010]. Nous présentons en particulier l’algorithme SMALBE proposé par [Dostál et al., 2003,Dostál and Horák, 2003].

5.1.1 Définition du problème et notations

Suivant les notations de [Dostál et al., 2012], le problème FETI à résoudre consiste à minimiser le lagrangien augmenté suivant :

L(λ, µ, ρ) = 1 2λ T PSdP+ ρQ λ − λTPd+ µT Gλ (1.68)

avec P et Q les projecteurs orthogonaux respectivement sur le noyau de G et l’image de GT, d lié aux conditions limites. Nous notons g le gradient du lagrangien par rapport à λ :

g(λ, µ, ρ)=

PSdP+ ρQ

λ − Pd+ GT

µ (1.69)

Le problème consiste à minimiser L sous la contrainte d’admissibilité de λ ∈Λ, avec :

Λ = {λ, λn 6 0 et kλtk 6 µ|λn|} (1.70)

Remarque 1.21

S’il est considéré N = {1, 2, . . . , n} avec n le nombre de degrés de liberté du problème, il est possible de construire les ensembles : I l’ensemble des indices des variables contraintes, E l’ensemble des variables non contraintes, A un active set de λ et F un free set de λ.

A(λ)= {i ∈ I, λi = 0}

F (λ)= {i ∈ E, ou λi < 0} (1.71)

Nous définissons maintenant le gradient projeté gPtel que

gP(λ)= φ(λ) + β(λ) (1.72)

avec φ et β respectivement le free gradient et le chopped gradient définis par : φi(λ)=(gi(λ) pour i ∈ F (λ)

0 pour i ∈ A(λ) βi(λ)=(0 pour i ∈ F (λ)

Le problème est résolu grâce à un algorithme d’optimisation à deux niveaux. Une boucle ex-terne permet l’approximation des multiplicateurs liés aux contraintes d’égalité alors que la mini-misation due aux contraintes d’inégalité est traitée au sein de la boucle interne. Nous présentons premièrement la boucle externe qui correspond à l’algorithme SMALBE (Semi Monotonic Aug-mented Lagrangian for Bound and Equality constrained QP problems) proposé par [Conn et al., 1991, Dostál and Horák, 2003]. Dans un second temps est détaillé l’algorithme interne de mi-nimisation sous contrainte d’inégalité MPRGP (Modified Proportioning with Reduced Gradient Projection) [Dostál and Schoberl, 2002].

5.1.2 SMALBE : Semi Monotonic Augmented Lagrangian for Bound and Equality constrai-ned QP problems

De nombreuses applications et résultats de convergence peuvent être trouvées dans [Dostál and Horák, 2003, Dostál, 2006a,Dostál, 2006b] en ce qui concerne la première version de l’algo-rithme5.1.

Algorithme 5.1 : SMALBE

Input :α ∈ ]0, 1[ , β > 1, ρ0 > 0, η0 > 0, M > 0, µ0 for k=0,. . .,m do

Trouver λk ∈Λ tel que kgPk, µk, ρk)k6 MkGλkk if kgPk, µk, ρk)k et kGλkk sont assez petits then

stop else

Mise à jour des multiplicateurs : µk+1= µk+ ρk

Mise à jour de la pénalisation : if kGλkk 6 ηk then ρk+1= ρk ηk+1= αηk else ρk+1= βρk ηk+1= ηk

La première étape de l’algorithme qui consiste à effectuer une minimisation d’une fonction convexe quadratique sous contrainte d’inégalité est résolue par un algorithme spécifique décrit à la partie5.1.3.

Une version de l’algorithme avec mise à jour du coefficient M (Algorithme 5.2) sans mettre à jour la pénalisation est présentée dans [Dostál, 2009, Dostál and Kuˇcera, 2010]. Dans ce cas le gradient projeté est modifié en K-gradient gK = φ + β avec φ le free gradient et β le K-boundary gradientdéfinis par :

φi(λ)=(gi(λ) pour i ∈ F (λ) 0 pour i ∈ A(λ) βi(λ)=            0 pour i ∈ F (λ) gi+ kgik k∇λik∇λi pour i ∈ A(λ) (1.74) Algorithme 5.2 : SMALBE-M Input :α ∈ ]0, 1[ , β > 1, ρ > 0, M0 > 0, µ0 for k=0,. . .,m do

Trouver λk ∈Λ tel que kgPk, µk, ρk)k6 MkGλkk if kgPk, µk, ρk)k et kGλkk sont assez petits then

stop else

Mise à jour des multiplicateurs : µk+1= µk+ ρkGλ Mise à jour du coefficient M :

if k > 0 et L(λk, µk, ρ) < L(λk−1, µk−1, ρ) +ρ 2k|Gλkk 2then Mk+1= Mk β else Mk+1= Mk

Une version pour prendre en compte une plus grande variété de contraintes est SMALSE-M pour Semi Monotonic Augmented Lagrangian for Separable and Equality constraints [Dostál and Kuˇcera, 2010,Dostál et al., 2012]. Il s’agit d’introduire au sein du problème de minimisation sous contrainte un paramètre de contrôle η tel que cela devienne :

Trouver λk ∈Λ tel que kgP

k, µk, ρk)k6 min (MkGλkk, η) (1.75)

5.1.3 Minimisation sous contrainte

L’algorithme de minimisation est dérivé des travaux de [Polyak, 1969] qui proposait un algo-rithme de résolution de problème quadratique contraint par des bornes simples sur le domaine de définition : par exemple en 1DΩS = [0, ∞]. Cette méthode était basée sur un restarted conjugate gradientqui permettait à chaque itération de définir un sous-ensemble de variables contraintes sur les bords du domaineΩS. Un gradient conjugué était ensuite appliqué pour minimiser la fonction-nelle voulue. Des améliorations à cet algorithme ont été proposées afin de prendre en compte des contraintes plus complexes. En particulier l’ajout de projections du gradient a été introduite par [More and Toraldo, 1991]. La résolution d’un problème inexact dans la boucle interne permet un

gain en temps de calcul et cela doit être couplé à un contrôle adaptatif de la précision du calcul [Friedlander and Martinez, 1994,Dostál, 1997]. Nous présentons le principe de l’algorithme dans un cas général de minimisation sous contrainte de non négativité [Dostál and Schoberl, 2002]. Une version dans le cadre de contraintes plus générales peut être trouvée dans [Kuˇcera, 2008, Dostál and Kuˇcera, 2010].

minimiser q(λ)= 1 2λ

T

Aλ − b tel que λ ∈ I= {λ, λ > 0} (1.76) De la même façon que précédemment il est défini un gradient projeté gPà partir du free gradient φ et du chopped gradient β. L’algorithme est basé sur trois étapes :

1. Expansion step :

λk+1= PI 

λk−αφ(λk) (1.77)

avec α ∈ 0, kAk−1ile pas de l’expansion, PIle projecteur sur le domaineΩS. L’étape d’ex-pansion a pour objectif d’étendre le domaine des variables contraintes. En introduisant le reduced free gradient ˜φi = min

λi/α, φi 

, l’itéré λk est dit strictement proportionnel pour un Γ donné s’il vérifie :

kβ(λk)k2 6 Γ2φ(λ˜ k)Tφ(λk) (1.78) Le principe de cette étape d’expansion est illustré à la Figure1.14a.

2. Proportioning step :

λk+1= λk −αcgφ(λk) (1.79)

avec αcgqui minimise q(λk−αφ(λk)) :

αcg = φ(λk)Tg(λk)

φ(λk)TAφ(λk)T (1.80)

Cette étape de proportioning a pour objectif de réduire le champ des variables contraintes. Le principe est illustré à la Figure1.14b.

3. Conjugate gradient step :

λk+1= λk −αcgpk (1.81)

avec p la direction du gradient conjugué déterminée par :

pk+1 = φ(λk+1) − γpk (1.82)

avec γ= φ(λ T k+1Apk) pTkApk

Algorithme 5.3 : MPRGP : Modified Proportioning with Reduced Gradient Projection Input : λ0 ∈ I, α ∈ 0, kAk−1i , Γ > 0 for k= 1, . . . , m do if gPk)= 0 then λk+1= λk

else if λk est strictement proportionnel et gPk) , 0 then Etape de GC pour générer λk+1/2

if λk+1/2 ∈ I then λk+1= λk+1/2 else

Etape d’expansion pour générer λk+1à partir de λk+1/2 else if λk n’est pas strictement proportionnel then

Etape de proportioning pour générer λk+1

Un version appelée KPRGP utilise le K-gradient à la place du gradient projeté [Kuˇcera, 2008]. Une description avec une vision plus algébrique est présentée à l’algorithme 5.4tiré de [Dostál and Schoberl, 2002].

Remarque 1.23

I λi k, gP i , 0 GC λi k+1/2 expansion λi k+1

(a) étape d’expansion après un gradient conjugué - i est inséré dans l’active set

I λi k proportioning λi k+1

(b) étape de proportioning pour un λi knon strictement proportionnel - i est retiré de l’active set

Algorithme 5.4 : MPRGP : Modified Proportioning with Reduced Gradient Projection Input : λ0 ∈ΩS, α ∈

0, kAk−1i , Γ > 0, k = 0, r = Aλ0− b, p0 = φ(λ0) while gPk) >  do

if kβ(λk)k26 Γ2φ(λ˜ k)Tφ(λk) then

Etape de proportioning et test du gradient conjugué : αcg = rTpk

pTAp, y = λk−αcgpk

αf = max (α, λk−αpk ∈ I) if αcg 6 αf then Etape de gradient conjugué :

λk+1= y, r = r − αcgApk γ = φ(y)TApk pT kApk , pk+1= φ(y) − γpk else Etape d’expansion : λk+1/2 = λk−αfpkr= r − αfApk λk+1= PI  λk+1/2αφ(λk+1/2)  r = Aλk+1− b, pk+1 = φ(λk+1) else Etape de proportioning : d = β(λk), αcg = rTd dTAd λk+1= λk−αcgd, r = r − αcgAd, pk+1= φ(λk+1) k= k + 1

Documents relatifs