• Aucun résultat trouvé

Les méthodes de décomposition de domaine comme préconditionneur pour

1.3 Étude de méthodes itératives de résolution

1.3.4 Les méthodes de décomposition de domaine comme préconditionneur pour

La méthode de Schwarz présentée précédemment appartient aux méthodes dites station-

naires, comme les méthodes de Jacobi ou Gauss-Seidel (cf [83]). Le principale défaut de ces méthodes est que la convergence ne peut pas être assurée en général. Nous avons donc voulu utiliser une méthode itérative type GMRES qui assure la convergence. GMRES appartient à la famille des méthodes de Krylov (comme le gradient conjugué) et assure la convergence en construisant itérativement une base pour la solution.

Bien que la convergence soit assurée avec GMRES, pour avoir une vitesse de convergence raisonnable, il est nécessaire d’utiliser un bon préconditionneur. Considérons le système linéaire suivant :

M U “ F,

où M est une matrice carrée inversible, F un vecteur représentant le second membre et U la solution recherchée. Un choix classique de préconditionneur est de prendre les matrices utilisées dans les algorithmes stationnaires :

— c’est à dire la diagonale de M pour la méthode de Jacobi,

— ou la partie triangulaire inférieure pour la méthode de Gauss-Seidel.

Ces choix algébriques ont le défaut qu’il est difficile d’obtenir des informations sur le taux de convergence de la méthode.

1.3. Étude de méthodes itératives de résolution 37

De manière générale, si on considère une décomposition de M “ A ` K pour laquelle l’algorithme itératif "naïf" associé :

AUpn`1q “ ´KUpnq` F,

a de bonnes propriétés, dans le sens que les valeurs propres de A´1K sont presque toutes proches

de 0, alors l’algorithme GMRES préconditionné par A aura un bon taux de convergence. Cette propriété sera justifiée dans la suite.

Nous proposons d’appliquer comme préconditionneur la matrice A utilisée dans la méthode de décomposition de domaine (1.47) (ce qui revient à la discrétisation de l’inverse de l’opérateur de résolution R donné dans la définition1.3.2). La matrice K correspond elle à la discrétisation des opérateurs TDÑNl,˘ . Ce choix de préconditionneur présente deux avantages :

1. la matrice A étant creuse et symétrique, on peut utiliser des algorithmes performants de factorisation LU ,

2. la matrice A´1K a presque toutes ses valeurs propres regroupées autour de 0 (pour l ą 0) car elle correspond à la discrétisation de l’opérateur RTDÑNl,` p¨|Σ`aq dont on sait par la proposition 1.3.9 que les valeurs propres tendent vers 0.

Justifions maintenant l’intérêt d’avoir les valeurs propres de A´1K regroupées autour de 0.

Pour ce faire, nous avons besoin de rappeler un résultat de [83] :

Proposition 1.3.10 Supposons la matrice M diagonalisable telle que M “ XDX´1, où D est diagonale et notons par pλkqk la suite de ses valeurs propres. L’erreur de résidu obtenue après

la mème étape de GMRES peut être majorée par : rpmqď κpXqrp0q min pPPm,pp0q“1 ˆ max j |ppλjq| ˙ (1.49) où κpXq “k X kk X´1 k, r

pmq “k M Upmq´ F k (Upmq est la mème approximation de la solution U du système linéaire) et Pm désigne l’espace des polynômes de degré inférieur ou égal à m

vérifiant pp0q “ 1.

On déduit de cette proposition que si les valeurs propres de M sont regroupées, alors GMRES converge rapidement. Pour comprendre cela, imaginons que toutes les valeurs propres soient réunies dans un disque de rayon  petit centré en 1. Alors, si on choisit le polynôme :

J1pzq “ λ ´ z

λ ,

où λ est l’une des valeurs propres λk, on peut utiliser la propriété ci-dessus (car J1p0q “ 1) pour

majorer l’erreur de résidu ainsi :

rp1qď κpXqrp0qmax

zPpλjqj

|J1pzq| ď κpXqrp0q

2 |λ|. En effet, par hypothèse sur les λk, nous avons que

@k, |λ ´ λk| ď 2.

De plus, sachant que λ est dans le disque centré en 1, nous avons |λ| ą 1 ´ .

On en déduit qu’en une itération, l’erreur de résidu est de l’ordre de . Ce résultat se généralise avec la

Proposition 1.3.11 Supposons que les valeurs propres pλkqkde la matrice M soient regroupées

dans un disque D de rayon  et centré en 1, sauf pour m d’entre elles. Alors, la norme du résidu

après m ` 1 itérations est au plus en Opq.

Preuve : La démonstration repose sur les mêmes arguments que l’exemple ci-dessus. Considé-

rons le polynôme :

Jm`1pzq “

Πj“0,mpλj ´ zq

Πj“0,mλj

,

qui vérifie Jmp0q “ 1. On suppose que :

— les m valeurs propres de λ0 à λm´1 sont hors de D,

— et que λm est dans le disque D.

Étant donné cette numérotation des pλkqk, il vient pour tout λk

j“0,mpλj ´ λkq| $ & % “ 0 si k ď m, ď 2Lm si k ě m ` 1, (1.50)

où L désigne la plus grande distance entre les pλkqk“0,m et D :

L “ max

pPD, jPr0,ms

|λj´ p|.

On obtient l’expression ci-dessus (1.50) car pour tout k ě m, la valeur propre λk est dans D

et donc :

|λk´ λm| ď 2.

Nous avons alors à la mème étape de GMRES la majoration suivante de l’erreur de résidu :

rpm`1q ď κpXqrp0q Lm

Πj“0,mλj

.



Remarque 1.3.12 Soulignons que l’analyse de convergence de GMRES que nous venons de

faire ici est valable dans le cas d’une arithmétique exacte. En arithmétique flottante, il est nécessaire de prendre en compte l’inexactitude des calculs, et ces aspects sont notamment discutés dans [60, 78]

Dans notre cas, choisir comme préconditionneur la matrice A utilisée dans la méthode de dé- composition de domaine conduit à résoudre le système linéaire :

pId ` A´1KqU “ A´1F,

et nous savons que les valeurs propres de Id ` A´1K se concentrent autour de 1, car celles de A´1K se regroupent autour de 0.

Par conséquent, l’ajout du recouvrement devrait permettre une résolution plus rapide. Afin de valider numériquement ce résultat, nous avons considéré le problème :

Trouver pb P H1pΩ bq telle que ∆pb` ω2pb “ f dans Ωb, Bνpb “ 0 sur BΩb X BΩ, pBν ` γqpb “ TDÑRl,` ppb|Σ`aq sur Σ ` b, (1.51)

1.3. Étude de méthodes itératives de résolution 39

et pour différentes fréquences et différents recouvrements, nous avons indiqué dans le tableau ci-après le nombre d’itérations nécessaires à GMRES pour atteindre une erreur de résidu inférieure à 10´14 :

l “ 0 l “ 0.1 l “ 0.2 l “ 0.5 l “ 1 l “ 2

ω “ 5 10 ité. 7 ité. 6 ité. 6 ité. 4 ité. 3 ité.

ω “ 10 14 ité. 8 ité. 6 ité. 6 ité. 7 ité. 5 ité.

ω “ 20 19 ité. 9 ité. 8 ité. 8 ité. 7 ité. 9 ité.

ω “ 50 22 ité. 12 ité. 12 ité. 11 ité. 11 ité. 12 ité.

Ces résultats ont été obtenus en considérant une géométrie perturbée du domaine Ωb, avec les

paramètres suivants :

a “ 1, γ “ ´iω,

et une source f gaussienne centrée en p0.5, 0.5q. Nous pouvons constater sur ces résultats plu- sieurs choses :

— l’ajout d’un recouvrement, même petit, améliore la vitesse de convergence par rapport au cas sans recouvrement.

— lorsque la fréquence augmente, le nombre d’itérations nécessaires pour avoir la conver- gence augmente. Il est difficile de construire des méthodes itératives pour l’équation de Helmholtz dont le nombre d’itérations pour assurer la convergence soit indépendant de la fréquence, voir par exemple les travaux de M. Gander [37] dans le cas d’un domaine borné.

— plus la fréquence augmente, moins le paramètre l a d’influence. Pour ω “ 50, on observe que le nombre d’itérations ne change quasiment pas avec l.

— à partir d’un certain recouvrement, le nombre d’itérations stagne et l’ajout du recouvre- ment n’améliore plus le taux de convergence.

Essayons d’expliquer un peu ces deux derniers points dans le cas de la géométrie régulière (voir l’analyse spectrale section1.3.2). Dans ce cas, nous avons l’expression explicite des valeurs propres λket on montre facilement pour les k ą k0associés aux modes évanescents (k0représente

l’indice du dernier mode propagatif) que :

|λk| „ e´|βk|l.

Il vient par conséquent que pour l suffisamment grand, tous les λk associés aux modes éva-

nescents sont regroupés autour de 0 dans le plan complexe, comme nous l’avons déjà vu, voir équation (1.46). Ainsi, augmenter l ne permet plus de regrouper davantage de valeurs propres, ce qui explique la stagnation observée sur le nombre d’itérations à partir d’un certain l.

D’autre part, on peut montrer que la suite des modules t|βk0`n|

2u

nPN˚ associés aux modes

évanescents augmente de plus en plus vite avec la fréquence ω (simplement parce que k0 aug-

mente avec ω). À titre d’exemple, nous avons indiqué ci-dessous les premiers termes de cette suite pour ω “ 10 et ω “ 50 :

n “ 1 n “ 2 n “ 3 n “ 4 n “ 5

ω “ 10 „ 57 „ 146 „ 255 „ 383 „ 531

La conséquence de cette remarque est que les |λk| tendent plus vite vers 0 (avec k). Pour une

valeur de l fixée, on regroupe donc plus "vite" les valeurs propres associées aux modes évanescents autour de 0 en augmentant la fréquence ω.

Remarques sur l’optimisation du calcul avec la méthode GMRES

Pour résoudre le système linéaire

M U “ F,

par GMRES, on construit itérativement la base de Krylov :

κrpM, F q “ tF, M F, M2F, ¨ ¨ ¨ , Mr´1F u

dans laquelle la solution est décomposée. Ainsi, pour construire cette base, il est nécessaire d’effectuer une série de produit matrice vecteur M F .

Avec notre choix de préconditionneur, nous avons donc à calculer une série de produit du type pId ` A´1KqV , où V est un vecteur arbitraire. Ce produit matrice vecteur peut être

optimisé simplement en calculant successivement : 1. le produit KV ,

2. étant donné un calcul préalable de la factorisation LU de A, on applique la descente- remonté pour calculer A´1KV ,

3. et enfin, on termine en effectuant simplement la somme des vecteurs V et A´1KV .

De plus, le produit matrice-vecteur KV peut également être optimisé. Notons par exemple par K` la partie de la matrice issue de la discrétisation de Tl,`

DÑN. Ces éléments Kij` sont

construits avec les fonctions de base wj à support intersectant Σ`a et wi à support sur Σ`b ainsi :

K` ijN ÿ k“0 pwj, ϕkqL2` aqpiβk` γq e iβkl pwi, ϕkqL2` bq,

où N désigne le nombre de modes considéré dans la série définissant TDÑRl,` (voir section 1.2.3). Cette construction de K` induit la factorisation naturelle :

K` “ ” pwi, ϕkqi,k ı Nb`,N ” ` piβk` γq eiβkl ˘ k,k ı N,Npϕk, wjqk,j ı N,Na` , où N`

b et Na` sont les nombres de degrés de liberté sur Σ

`

b et Σ`a, et la matrice au centre est

diagonale. On ramène donc le calcul du produit K`V à

1. un produit matrice vecteur avec une matrice rectangulaire de taille N ˆ N`

a ,

2. un produit matrice-vecteur par une matrice diagonale de taille N , 3. un produit matrice-vecteur par une matrice rectangulaire de taille N`

CHAPITRE

DEUX

G

UIDE ACOUSTIQUE ANISOTROPE

Sommaire

2.1 Introduction . . . . 41

Documents relatifs