• Aucun résultat trouvé

L’assemblage, le stockage et la résolution directe sur un seul processeur du pro-blème macroscopique (5.20) peuvent devenir inefficaces et parfois prohibitifs dès que la taille de la structure augmente (le nombre de sous-structures progresse linéaire-ment avec le nombre de plis du stratifié et de manière quadratique avec ses dimen-sions dans le plan). Dans des travaux précédents sur la méthode de décomposition de domaine LaTIn micro-macro, deux solutions distinctes ont été proposées pour résoudre le problème macroscopique. Toutes les deux reposent sur l’introduction d’une troisième échelle, dite super-macro, par le regroupement de sous-structures en super-sous-structures séparées par des super-interfaces.

La première possibilité propose une solution approchée du problème macrosco-pique par la définition d’un opérateur d’approximation entre les inconnues super-macro et les inconnues super-macroscopiques qui permet de définir le problème grossier. La résolution du problème super-macro se fait ensuite de manière directe, sa taille est très largement diminuée si les cellules super-macro contiennent de nombreuses interfaces. Le point clé de cette approximation super-macro repose dans le choix des opérateurs d’approximation. Dans les thèses de [Loiseau, 2001; Nouy, 2003], une approximation du déplacement par une cinématique de type milieu de Cosserat est

116 Une méthode multiéchelle pour le couplage flambage-délaminage

Algorithme 1 : Algorithme LaTIn micro-macro incrémental

 ∀ E ∈ E, calcul de kE;

 ∀ E ∈ E, ∀ E0∈ VE, détermination de BME

0E00;

pour (t = t1, . . . , tN) faire

 Initialisation des quantités d’interface ;

pour (n = 0, . . . , N ) faire Étape d’admissibilité;

 ∀ E ∈ E, mise à jour éventuelle de kE;

pour (i = 0, . . . , M ) faire

 ∀ E ∈ E, calcul de iKE et assemblage de (iKE+ kE);  ∀ E ∈ E, calcul de (iLME )E∈E;

 Assemblage de iL;

 ∀ E ∈ E, résolution de (iKE+ kE)iδu1E= fdE+FbbE+iFEint;  ∀ E ∈ E, calcul de i+1u1E =iu1E+iδu1E ;

 ∀ E ∈ E, obtention de i+1FeEM ;

 Assemblage de i+1FM et résolution de iLi+1WfM =i+1FM ;  ∀ E ∈ E, résolution de (iKE+ kE)iδu2E= kEi+1WfEM ;  ∀ E ∈ E, calcul de i+1u2E =iu2E+iδu2E;

 ∀ E ∈ E, calcul de la solution i+1uE =i+1u1E+i+1u2E;  Calcul d’erreur Newton

fin

 Étape de relaxation;

Étape locale;

 ∀ E ∈ E, en tout point d’intégration de ΓE, calculer (WcE,FbE) ;  Calcul d’erreur LaTIn

fin fin

proposée. Une autre approche basée sur une homogénéisation du problème macro-scopique est introduite dans le travail de thèse de [Violeau, 2007]. Ces méthodes sont avantageuses dans les zones où la solution ne présente que de faibles gradients. Un raffinement local de la super-sous-structuration dans les zones à fort gradient doit être considéré pour rendre la méthode plus efficace.

La deuxième solution est constituée de véritables stratégies de calcul à trois échelles qui consistent à une résolution exacte du problème macroscopique par une méthode de décomposition de domaine posée sur les super-sous-structures et les super-interfaces. Une possibilité a été proposée par [Nouy, 2003], elle consiste à résoudre le problème macroscopique par une méthode LaTIn micro-macro. La dif-ficulté potentielle de cette méthode réside dans le choix de bonnes directions de recherche, dont les propriétés de rigidité ne sont pas intuitives. Pour s’affranchir de cette complexité, les travaux de thèse de [Kerfriden, 2008] ont utilisé une

décom-Stratégie de résolution numérique 117

position de domaine primale BDD pour la résolution du problème macroscopique. Nous avons retenu cette dernière démarche pour la résolution parallèle du problème macroscopique.

3.5.1 Condensation statique primale

La résolution du problème macroscopique par la méthode de décomposition de domaine primale est faite sur des super-sous-structures ¯E (regroupement de sous-structures E ) occupant initialement un domaine ΩE¯0 de bord ∂ΩE¯0. Le nombre total de super-sous-structures de la structure E est noté ¯NE. À l’intersection entre deux super-sous-structures adjacentes ¯E et ¯E0, on définit une super-interface ΓE¯

0E¯0 0. En pratique, chaque super-sous-structure est composée de l’ensemble des sous-structures traitées sur un même processeur par la stratégie de décompositions de domaine mixte micro-macro.

La condensation primale (Sec. 2.2.2.1, Chap. 4) du problème macroscopique (5.20) sur les inconnues des super-interfaces de chaque super-sous-structure ¯E, s’écrit :

Sp( ¯E) WfΓ( ¯E)= b( ¯pE) , avec : S( ¯pE)= L( ¯ΓΓE)− L( ¯ΓiE) L( ¯E) −1 ii L( ¯E) b( ¯pE) = FΓ( ¯E)− L( ¯ΓiE) L( ¯E) −1 ii Fi( ¯E)

où, les indices (·)i désignent les degrés de liberté internes à la super-sous-structure ¯

E ; les indices (·)Γ désignent les degrés de liberté de super-interface communs avec une super-sous-structure voisine ; S( ¯PE) est le complément de Schur macroscopique primal de la super-sous-structure ¯E et b( ¯pE) est le second membre macroscopique local condensé de la super-sous-structure ¯E. Les exposants (·)M, (·)i+1 et (·)i du multiplicateur macroscopique, des opérateurs de rigidité homogénéisés et du second membre macroscopique ont été omis afin d’alléger les écritures.

Le problème macroscopique condensé peut être écrit, après assemblage sur toutes les super-sous-structures, sous la forme :

Sp WfΓ= bp , avec : Sp=X ¯ E A( ¯E)S( ¯pE)A( ¯E)T bp=X ¯ E A( ¯E)b( ¯pE) (5.21)

où, A( ¯E) est un opérateur d’assemblage. Ce problème est résolu par un algorithme itératif de type gradient conjugué qui permet aisément de paralléliser sa résolution. Pour ce faire, les opérations nécessaires de transfert ainsi que le stockage de donnés concernent uniquement des vecteurs de super-interfaces issus d’opérations locales effectuées sur chaque processeur (multiplication d’un vecteur par le complément de Schur local, addition de deux vecteurs, multiplication d’un vecteur par un scalaire). La solution est ensuite reconstruite localement sur les noeuds intérieurs de chaque super-sous-structure.

118 Une méthode multiéchelle pour le couplage flambage-délaminage

3.5.2 Résolution en parallèle par un gradient conjugué préconditionné projeté

L’utilisation d’un gradient conjugué pour résoudre le problème d’interface né-cessite l’utilisation d’un bon préconditionneur d’une part et d’un projecteur d’autre part, afin de transmettre rapidement l’information à grande longueur de variation au cours des itérations.

Préconditionneur. L’introduction du projecteur dans la méthode de décomposi-tion de domaine primale est associée à la résoludécomposi-tion itérative du problème d’interface en utilisant le préconditionneur de Neumann :

e S−1p =X ¯ E f A( ¯E)S( ¯E) + p fA( ¯E) T , où, S( ¯E) +

p est une pseudo-inverse du complément de Schur primal de la super-sous-structure ¯E. L’opérateur d’assemblage et de scaling est considéré comme fA( ¯E) =

1

multiplicité A( ¯E)= 12 A( ¯E) (la définition des quantités macroscopiques exclue la pos-sibilité d’avoir des ordres de multiplicité des degrés de liberté macroscopiques d’inter-face supérieurs à 2). Cette opération est suffisante pour assurer une bonne conver-gence de l’algorithme si les super-sous-structures ne sont pas macroscopiquement trop hétérogènes.

Projection sur une grille grossière. Le préconditionneur Se−1p est appliqué au résidu r = bp− SpWfb. Ainsi, effectuer le produit Se−1p r consiste à résoudre des pro-blèmes de Neumann sur chaque super-sous-structure avant d’effectuer une opération d’assemblage. Il est alors nécessaire d’assurer que le chargement r est autoéquilibré au sens de chaque super-sous-structure ¯E. Cette relation s’écrit algébriquement :

R( ¯bE) T f A( ¯E) T r( ¯E)= 0 , (5.22)

où, Rb( ¯E) est une base du noyau du complément de Schur primal de la super-sous-structure S( ¯pE). En définissant C = fA(1)Rb(1) ... fA( ¯NE)R( ¯NE)

b



, les contraintes locales (5.22) s’écrivent globalement :

CTr = 0 . (5.23)

Cette contrainte est traitée classiquement en recherchant la solution du problème macroscopique condensé sous la forme :

f

Stratégie de résolution numérique 119

La contrainte (5.23), pour l’initialisation Wfb0 et pour son complémentaire PWfb?, peut s’écrire :

(

CT(bp− SpWfb0) = 0

CTSpPWfb?= 0

Pour respecter ces conditions d’orthogonalité, on choisit usuellement :

( f

Wb0 = C(CTSpC)−1 CTbp

P = I − C(CTSpC)−1CTSp

L’opérateur SGp = (CTSpC) est une représentation grossière de la rigidité globale

de la structure qui définit ce qu’on appelle problème super-macroscopique. L’ini-tialisation Wfb0 est une combinaison des traces sur les super-interfaces des modes à énergie nulle des super-sous-structures : Wfb0∈ Im(C). Par projection orthogonale, la partie complémentaire PWfb? est recherchée de manière itérative dans l’espace supplémentaire Ker(CTSp).

L’algorithme 2 décrit le gradient conjugué préconditionné projeté utilisé.

Algorithme 2 : Algorithme du gradient conjugué préconditionné projeté

Calculer P = I − C(CTSpC)−1CTSp ; Calculer Wfb0= C(CTSpC)−1CTbp ; Calculer r0= bp− SpWfb0; Calculer z0= PSe−1p r0 et initaliser w0= z0; pour j = 0, . . . , m faire pj= Spwj; αj= (zj, rj)/(pj, wj); f Wbj+1=Wfbj+ αjwj; rj+1= rj− αjpj; zj+1= PSe−1p rj+1; pour 0 ≤ i ≤ j faire βji= −(zj+1, pi)/(wi, pi) fin wj+1= zj+1+Pj i=1βjiwi fin

La convergence de l’algorithme est évaluée en calculant la norme du résidu global à la fin de chaque itération, rapportée à la norme du résidu initial.