• Aucun résultat trouvé

Contribution au calcul en moyenne fréquence

Dans le document Extension du domaine de la décomposition (Page 34-37)

Enfin je termine ce chapitre en citant ma collaboration avec Louis Kovalevsky qui

a conduit à la rédaction de l’article [Kovalevsky et Gosselet, 2016], où l’on propose la

construction d’un problème grossier quasi-optimal pour résoudre un problème

d’acous-tique moyenne fréquence (équation de Helmholtz) par la TVRC [Ladevèze, 1996].

La TVRC est une méthode de Galerkin-discontinue [Di Pietro et Ern, 2012]

anti-hermitienne couplée à une approximation de Trefftz indirecte [Weck, 2004; Gittelson et

Hiptmair, 2014]. Dans cet article, on remonte à la source du mauvais conditionnement

(la compacité de l’opérateur de Herglotz [Colton et Kress, 2001]) et par une procédure

parallélisée sur les sous-domaines, on montre que l’on peut contrôler le conditionnement

du problème dans un sous-espace au prix d’une légère perte de précision qui peut être

comblée si le sous-espace sert d’augmentation à un solveur de Krylov.

Sur les cas étudiés, on montre qu’en se fixant l’objectif de capturer 99,99999% de

l’énergie du problème, on restaure le conditionnement du problème (on passe de 10

20

à

10

4

) et la solution dans le sous-espace est de très bonne qualité (mesurée par le résidu). En

quelques itérations d’un solveur LSQR [Paige et Saunders, 1982], on obtient une qualité

supérieure à ce que donne un solveur direct sur le problème initial. De plus avec notre

pro-cédure nous stabilisons la représentation des pressions dans l’espace des amplitudes, ce

qui ouvre la possibilité d’exploiter cette information (normalement extrêmement bruitée)

pour l’ingénierie.

4 Vérification des calculs par décomposition de domaine

La vérification des calculs de mécanique est un point fort du laboratoire, notamment

grâce aux nombreuses contributions de Pierre Ladevèze autour de l’erreur en relation de

comportement, régulièrement enrichies depuis les premiers travaux [Ladevèze, 1975].

L’objectif est de donner des bornes supérieures et inférieures calculables de l’erreur

e = ~u−u

h

~où u est la solution exacte (inconnue) du problème mécanique, u

h

une solution

approchée (typiquement obtenue par élément fini), et ~⋅~ est une norme bien choisie. On

peut également s’intéresser à l’erreur sur des quantités d’intérêt, comme par exemple la

contrainte moyenne sur une zone ou un facteur d’intensité de contrainte en pointe de

fissure [Panetier et al., 2009].

S’il existe de nombreuses heuristiques permettant d’obtenir à moindre coût des

esti-mations efficaces de l’erreur, notamment à l’aide d’estimateur en régularité de contraintes

[Zienkiewicz et Zhu, 1987; Zhu et Zienkiewicz, 1988], les bornes rigoureuses s’appuient

sur la construction de champs duaux qui satisfont les équations d’équilibres. Suivant les

communautés, on parle de champs statiquement admissibles ou de résidus équilibrés.

Outre un calcul dual direct (à l’aide d’une formulation dédiée et d’un élément fini adapté

à H

div

), ces champs équilibrés peuvent être obtenus par un post-processing de la solution

élément fini en déplacement.

Le post-processing de champ de contrainte admissible implique d’assurer l’équilibre

des tractions entre éléments et l’équilibre interne des éléments. Traditionnellement, le

premier point se traite à l’échelle d’un patch d’éléments partageant un noeud (star-patch)

et le second se traite par des calculs raffinés locaux sur le même patch [Parés et al., 2006;

Cottereau et al., 2009; Parés et al., 2009] ou sur les éléments [Ladevèze et Leguillon,

1983; Ladevèze et al., 2012b]. Bien que ces calculs aient des supports limités, leur grand

nombre, associé à la structure assez peu naturelle du star-patch (du point de vue logiciel),

conduit à des coûts de calcul non-négligeables, de l’ordre de ceux du calcul direct qui a

donné l’approximation dont on souhaite vérifier la qualité.

La première partie de mes travaux a donc consisté à montrer qu’il était possible, dans

un calcul par décomposition de domaine, de paralléliser l’étape du calcul de champ

sta-tiquement admissible. Ceci a permis d’obtenir une première borne supérieure de l’erreur.

Ensuite les travaux se sont portés sur l’amélioration de la borne. Ces études se sont

dé-veloppées au cours des thèses d’Augustin Parret-Fréaud et Valentine Rey dirigées par

Christian Rey,

4.1 Reconstruction parallèle de champs admissibles

Nous avons étudié dans quelle mesure il était possible de reconstruire des champs

globalement admissibles à partir des champs calculés naturellement au cours d’une

mé-thode de décomposition de domaine. Plus précisément, il s’agit de construire un champ

de déplacement ˆu ∈ KA(Ω) et un champ de contrainte ˆσ ∈ SA(Ω) où Ω est le domaine

global d’étude, KA(Ω) est l’espace des champs ayant la régularité H

1

(Ω) et

satisfai-sant les conditions limites de Dirichlet et SA(Ω) est l’espace des contraintes satisfaisatisfai-sant

Reconstruction parallèle de champs admissibles 35

l’équilibre au sens faible, c’est un sous-espace de H

div(Ω)

.

Pour une partition deΩ en sous-domaines non-recouvrants (Ω

s

), les propriétés

clas-siques des espaces cités montrent que l’admissibilité globale (sur Ω) est équivalente à

l’admissibilité locale (sur chacun desΩ

s

) sous réserve de continuité des traces et des flux

normaux sur les interfaces.

Parmi les méthodes de décomposition de domaine, la construction de tels champs est

particulièrement simple pour BDD [Mandel, 1993; Le Tallec, 1994] et pour FETI [Farhat

et Roux, 1994]. En fait, il s’agit d’exploiter l’analyse faite par Daniel Rixen sur le rôle du

scaling dans les préconditioneurs [Rixen et Farhat, 1999b] dans un contexte différent.

Fondamentalement, il s’agit d’interpréter BDD et FETI comme la recherche d’un

point fixe où l’on alterne résolution de Dirichlet à déplacement (continu) imposé sur

l’in-terface et résolution de Neumann à effort (équilibré) imposé sur les inl’in-terfaces. La subtilité

est que ce point fixe n’est pas contractant, un solveur de Krylov doit être utilisé. Suivant

l’approche (BDD ou FETI) les champs continus ou équilibrés ne sont pas tous

directe-ment accessibles mais ils peuvent tous être reconstruits à coût nul. Cela est illustré sur la

figure 4.1 pour la méthode primale (BDD).

-+ coarse pb

F

IGURE

4.1 – Illustration de la méthode BDD par un point fixe (non-contractant), en

réalité un solveur de Krylov est utilisé. La couleur correspond à l’état de contrainte.

En pratique, il faut prendre en compte le fait que les efforts d’interface ne sont connus

qu’au travers des réactions nodales. Afin d’appliquer sur chaque sous-domaine une

tech-nique de reconstruction séquentielle de champ admissible, on intercale une phase de

re-construction d’un champ continu d’intereffort générant le même travail. Tous les détails,

y compris la prise en compte des sous-structures flottantes, sont donnés dans

[Parret-Fréaud et al., 2010]. Malheureusement, cet article restait imprécis sur les précautions à

prendre en présence de points multiples, cela a été amélioré dans[Parret-Fréaud et al.,

2016]où l’on montre qu’il est nécessaire d’effectuer un échange entre voisins partageant

un point multiple avant de pouvoir reconstruire des champs équilibrés. Ce résultat permet

d’étendre les résultats de nos études aux méthodes avec contraintes primales FETI-DP

[Farhat et al., 2001] et BDDC [Dohrmann, 2003]. À l’occasion de cet article, on montre

également qu’il est possible d’améliorer le champ statiquement admissible en fonction

des différentes rigidités en présence.

Pour conclure cette section, nous avons montré que pour une famille de méthodes de

décomposition de domaine (BDD, FETI, BDDC, FETIDP), il était possible à tout instant

de calculer sans coût supplémentaire les champs suivants :

— u

D

un champ de déplacement admissible sur l’ensemble de la structure, et en

par-ticulier continu aux interfaces ;

— u

N

un champ de déplacement dont la contrainte associéeσ

N

est en équilibre (au

sens élément fini) sur l’ensemble de la structure.

σ

N

peut être utilisée comme donnée d’entrée à un algorithme de reconstruction de champ

équilibré ˆσ

N

[Ladevèze et Leguillon, 1983; Ladevèze et al., 1993; Parés et al., 2006; Pled

et al., 2011] exécuté indépendamment sur chacun des sous-domaines.

À cet occasion, notons une contribution personnelle au calcul de champs admissibles

en séquentiel : la méthode STARFLEET [Rey et al., 2014b] qui revisite la méthode

d’équilibrage par élément [Ladevèze et Leguillon, 1983], en cherchant une mise en œuvre

efficace et en se laissant l’opportunité d’optimiser le champ reconstruit.

Les principales questions ouvertes concernant la reconstruction de champs en

paral-lèle concernent l’extension des méthodes précédentes à d’autres méthodes de

décomposi-tion de domaine comme les approches hybrides primales-duales[Gosselet et Rey, 2007]

ou les méthodes mixtes (Schwarz-optimisées).

Dans le document Extension du domaine de la décomposition (Page 34-37)

Documents relatifs