En contraste au cas T M z et T Ez en 2d, où la méthode de Schwarz classique peut converger, en 3d nous avons vu qu’on ne peut pas garantir la convergence pour une condition initiale arbitraire, donc la nécessité de chercher des méthodes de Schwarz optimisées est plus important que jamais.

Pour trouver des conditions de Schwarz optimisées on considère la formulation de se-cond ordre de l’algorithme (3.1.4) avec une modification dans les se-conditions de trans-mission (3.1.5)





−ω2ε1E1,n+∇ ×(µ1

1(∇ ×E1,n)) = 0, dans Ω1, Tn1(E1,n) = Tn1(E2,n−1), sur Γ,

−ω2ε2E2,n+∇ ×(µ1

2(∇ ×E2,n)) = 0, dans Ω2, Tn2(E2,n) = Tn2(E1,n−1), sur Γ,

(3.3.1) avec

Tnj(Em) = (Id−(γSµSε)( 1

µmnj×∇×Em)−iωj

µj (Id+γSµSε) (nj×(Em×nj)), (3.3.2) avec les opérateurs transverse magnétique Sµ = ∇τ(∇τ·), l’opérateur transverse élec-triqueSε =∇τ× ∇τ×et les 4 variablesγ etγ,j = 1,2pour optimiser l’algorithme.

Pour simplifier on note Em au lieu de Em,n, avec m qui indique l’indice du domaine où nous nous trouvons. Avec cette notation on a le résultat suivant sur le facteur de convergence optimisé :

Proposition 3.3.1 L’algorithme de Schwarz (3.3.1) avec les conditions de transmis-sion (3.3.2) a un facteur de convergence

|ρ(k, ω, ε1, ε2, µ1, µ2, γ, γ, γ, γ)|=p

max{|ρ1|,|ρ2|}, avec

ρ1 = ((λ1−iω(2ω1/Z)−γ|k|21+iω1/Z))((λ2−iω2Z)−γ|k|22+iω2Z))

1−i(λ1−iω1)(1−γ|k|2))(2ω2−i(λ2−iω2)(1−γ|k|2))

ρ2 = ((λ1−iω((1−γ1Z)−γ|k|21+iω1Z))((λ2−iω2/Z)−γ|k|22+iω2/Z))

|k|2)(λ1−iω1)+2iω1)((1−γ|k|2)(λ2−iω2)+2iω2) .

Démonstration On considère une base particulière pour les espacesEˆj avecj = 1,2; on peut écrire

j =Ajµj,µ+Ajεj,ε,

avec

On peut vérifier que ce sont bien des bases de Eˆj à l’aide de la relation (3.2.3) et l’indépendance linéaire entre les vecteurs. Cette base à des propriétés bien particulières pour les opérateurs Sµ et Sε (voir l’article [25]).

Les conditions de transmission (3.3.2) donnent le système

 avec n = n1 et n2 = −n. On écrit dans la base transverse électrique et magnétique Em =AmµEm,µ+Amε Em,ε,

On applique les propriétés suivantes (pour la démonstration voir [25]) :

— Sε(n× ∇ ×Em,µ) = Sε(n×(Em,µ×n)) = 0,

On remplace les valeurs de Eε etEµ et on écrit sous forme matricielle

On obtient ainsi les matrices d’itération

A1 = Comme c’est une matrice diagonale on a les valeurs propres sur la diagonale.

On peut facilement vérifier que si on pose γ = λ2−iω2Z

on aura la matrice IT = 0 et on aura convergence en deux itérations. C’est-à-dire que les conditions (3.3.4) sont les conditions optimales (les conditions transparentes) pour l’algorithme de Schwarz (3.3.1). Maintenant on cherche à faire des approximations d’ordre0des conditions transparentes, en fait on approcheλ1 etλ2 par des constantes adéquates. Nous avons le résultat suivant :

Proposition 3.3.2 Si on pose

γ = s−iω2Z

|k|2(s+iω2Z), γ = s−iω1/Z

|k|2(s+iω1/Z), γ = s−iω1Z

|k|2(s+iω1Z), γ = s−iω2/Z

|k|2(s+iω2/Z), le facteur de convergence de l’algorithme (3.3.1) est

opt(k, s, s, s, s)|=p

max{|ρT M|,|ρT E|}, avec

ρT M(k, s, s) = 2−s)(λ1−s)

2+sε21)(λ1+sε12), ρT E(k, s, s) = 1−s)(λ2−s)

2+sµ21)(λ1+sµ12).

Démonstration Si on remplace les conditions d’hypothèse dans (3.3.3) on obtient IT =

" 2−s)(λ1−s)

2+sε21)(λ1+sε12) 0 0 1−s)(λ2−s)

2+sµ21)(λ1+sµ12)

# .

Pour éviter d’alourdir la notation nous écrivons à la place deρopt(k, ω1, ω2, µ, s, s, s, s) simplementρopt(k, s, s, s, s),ρT M(k, s, s)au lieu deρT M(k, ω1, ω2, µ, s, s) etρT E(k, s, s) au lieu de ρT E(k, ω1, ω2, µ, s, s).

Remarque 3.3.1 ρT E et ρT M ne dépendant pas des mêmes variables d’optimisation, donc on peut faire l’optimisation de façon indépendante une de l’autre. De plus ρT M et ρT E sont des facteurs de convergence pour algorithme de Schwarz optimisé pour le cas T M z et T Ez en deux dimensions pour lesquels les résultats d’optimisation sont disponibles dans la section 2.

Le problème d’optimisation est de trouver min

s,s,s,sC

{maxk∈K{|ρopt(k, s, s, s, s)|}},

avec K = [kmin, kmax], kmin la plus petite fréquence pertinente au sous domaines (dé-pend de la géométrie du domaine) etkmax= cmaxh la plus grande fréquence d’oscillation supportée par la grille numérique. Ce problème min-max d’après la remarque est équi-valent à

max{ min

s,sC

{maxk∈K ρT M(k, s, s)}, min

s,sC

{maxk∈K ρT E(k, s, s)}}.

On a les résultats suivantes :

Théorème 3.3.3 Si µ12 ou ε12 alors l’algorithme de Schwarz optimisé a un comportement asymptotique

ρopt = 1− O(h1/4).

Démonstration Siµ12 etε12 on est sur le cas constant qui est analyse dans [26]. Qui a une convergence de l’ordre 1− O(h1/4).

Si µ12 etε1 6=ε2 le théorème (2.4.1) implique que ρT M = 1− O(h1/4),

et le théorème (2.5.1) adapté au cas TEz nous donne une convergence indépendante du maillage d’une des formes

ρT E = p4

1/2 +O(h1/2), ρT E = q

εmin

εmax +O(h1/2),

qui sont bien inférieures que 1− O(h1/4)quand on raffine le maillage h.

Considérons maintenant le cas où les deux variables sont différentes sous la condition µ1ε1 6=µ2ε2. Pour ce cas on a le résultat suivant :

Théorème 3.3.4 Si µ1 6=µ2, ε1 6=ε2 et µ1ε1 6=µ2ε2 et

— si max{µµmin

max,εεmin

max} < 1

2 l’algorithme de Schwarz optimisé a un comportement asymptotique de la forme

ρopt =p4

1/2 +O(h1/2).

— Si εεmin

max ≥max{1

2, µµmin

max} alors l’algorithme de Schwarz optimisé a un comporte-ment asymptotique de la forme

ρopt =

min

εmax +O(h1/2).

— Si µµmin

max ≥max{1

2, εεmin

max} alors l’algorithme de Schwarz optimisé a un comporte-ment asymptotique de la forme

ρopt =

min µmax

+O(h1/2).

Démonstration Pour le premier cas max{µµmin

max,εεmin

max} < 1

2, et on se retrouve dans le premier et troisième cas du théorème 2.5.1 pourρT M et pour ρT E, donc le théorème 2.5.1 nous donne le comportement asymptotique

ρopt =p4

1/2 +O(h1/2).

Pour le deuxième cas εεmin

max ≥max{1

2, µµmin

max}. Par la condition εεmin

max1

2 on sait d’après les cas 2 et 4 du théorème 2.5.1 que

ρT E =

min

εmax +O(h1/2).

Puis pour ρT M on sait d’après le théorème 2.5.1 qu’il aura un comportement asymp-totique de la forme

ρT M = max{

min

µmax,p4

1/2}+O(h1/2).

Dans tous les cas on a que max{qµ

min

µmax,p4

1/2} < q

εmin

εmax par hypothèse du cas. Le troisième cas est complètement symétrique au deuxième en échangeant les rôles de µ

etε.

Siµ1ε12ε2 on a

ρopt1, s, s, s, s) = max

ρT M1, s, s) = 1, ρT E1, s, s) = 1.

On a stagnation pour la fréquence de résonanceω1, la solution à ce problème tel qu’on la fait à la section 2 est d’enlever la fréquence de résonance de la gamme de fréquences K, et considérer un problème min-max modifié sans la fréquence de résonance, après l’exclusion de telle fréquence on a le résultat suivant :

Théorème 3.3.5 Si µ1ε12ε2 et µ1 6=µ2, alors l’algorithme de Schwarz optimisé a un comportement asymptotique

ρopt =

min

µmax +O(h1/2).

Démonstration Siµ1ε12ε2le théorème 2.6.1 nous donne le comportement asymp-totique deρT M et de ρT E, on a

ρT M = qµ

min

µmax +O(h1/2), ρT E = qε

min

εmax +O(h1/2).

Vu que dans ce cas µµmin

max = εεmin

max on peut conclure directement.

Chapitre 4

Algorithme de Schwarz pour les équations de Helmholtz en deux dimensions

4.1 Algorithme de Schwarz optimisé

On considère le problème de résoudre les équations de Helmholtz en dimension deux dans un milieu hétérogène avec densitéρcontinue par morceaux et vitessecaussi continue par morceaux. Les équations définies dans tout le domaine Ω = R2 sont :

∇(1

ρ∇ ·u) + ω2

c2ρu=f, dans Ω, (4.1.1)

avec

ρ=

ρ1 dans Ω1,

ρ2 dans Ω2, c=

c1 dans Ω1, c2 dans Ω2,

avec Ω1 =R×R, Ω2 =R+×R et la condition de radiation de Sommerfeld à l’infini est

|x|→∞lim

p|x| ∂|x|u−iωu

= 0, (4.1.2)

pour toutes les directions possibles |x|x.

On définie l’algorithme de Schwarz pour les équations (4.1.1) avec les conditions de transmission de Robin et interface aligné avec la discontinuité de coefficients,

∇(ρ1

1∇ ·un1) + cω22

1ρ1un1 = f, dans Ω1,

(ρ1

1n1 + ρ1

2s2)un1 = (ρ1

2n1 + ρ1

2s2)un−12 , surΓ,

∇(ρ1

2∇ ·un2) + cω22

2ρ1un2 = f, dans Ω2,

(ρ1

2n2 + ρ1

1s1)un2 = (ρ1

1n2 + ρ1

1s1)un−11 , surΓ.

(4.1.3)

Théorème 4.1.1 Le facteur de convergence pour l’algorithme (4.1.3) est

ρopt(k, ρ1, ρ2, ω, c1, c2, s1, s2) =

1−s1)(λ2−s2) (λ1+s2ρρ1

2)(λ2+s1ρρ2

1)

1/2

, (4.1.4)

avec λi =q

k2−ωj2, ωj = cω

j pour j = 1,2.

Démonstration On fait une analyse de Fourier de l’algorithme (4.1.3). Dans chaque domaine après la transformation de Fourier on obtient

−k2j +∂xxjj2j = 0, avec k le symbole de Fourier et ωj = cω

j, j = 1,2. Facilement, on peut voir que la solution générale de l’équation précédente est

ˆ

uj =m1eλjx+m2e−λjx, avec mj des constantes et λj =q

k2−ω2j pour j = 1,2.

La condition de radiation de Sommerfeld nous permet de simplifier pour chaque do-maine, et on trouve

ˆ

u1 =αeλ1x, uˆ2 =βe−λ2x. Les conditions de transmission nous donnent le système

1 ρ1

d

dn1n+11 +sρ2

2n+11 = ρ1

2

d

dn1n2 + sρ2

2n2,

1 ρ2

d

dn2n+12 +sρ1

1n+12 = ρ1

1

d

dn2n1 + sρ1

1n1. Après l’évaluation de la dérivée et simplification on a

λ1

ρ1 +ρs2

2

αn+1 =

λρ2

2 +ρs2

2

βn, λ2

ρ2 + sρ1

1

βn+1 =

λρ1

1 +ρs1

1

αn. La considération de deux itérations donne

opt|=

αn+1 αn−1

1/2

=

1−s1)(λ2−s2) (λ1+s2ρ)(λ2+s1/ρ)

1/2

, avec ρ= ρρ1

2.

Afin d’avoir un algorithme efficace, on doit choisir s1 ets2 de tel façon queρopt soit le plus petit possible pour toutes fréquences numériques pertinentesk∈K := [kmin, kmax], oùkmin est la plus petite fréquence pertinente (kmin dépend de la géométrie du milieu) etkmax= cmaxh est la plus grande fréquence numérique supporté par la grille numérique.

On cherchera des constantes de la forme s1 =P1(1 +i) and s2 =P2(1 +i) (ce choix a été justifié dans [57]) pour être les solutions du problème min-max suivant :

ρopt = min

P1,P2>0max

k∈Kopt(k, ρ1, ρ2, ω, c1, c2, P1(1 +i), P2(1 +i))|. (4.1.5) Remarque 4.1.1 Il est intéressant de voir comment les algorithmes (4.1.3) et (2.1.1) avec les conditions (2.2.1) qui sont apparemment différentes, posées de différente façon peuvent donner le même facteur de convergence.

Si on fait la relation ρj = µj et cj = ε1

jµj on peut utiliser tous les résultats du chapitre 2 pour les équations de Helmholtz et aussi tous les résultats qu’on obtient pour les équations de Helmholtz peuvent s’appliquer pour les équations de Maxwell en deux dimensions.

On déduit de la remarque 4.1.1 ci-dessus le théorème suivant :

Théorème 4.1.2 Siρ12, c1 6=c2,s1 = (1 +i)P1,s2 = (1 +i)P2 etr =p

12−ω22|, alors les deux solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par

P1 = r 2

14 cmax h

34

, P2 = 1 2

r 2

34 cmax h

14 , ρopt = 1−

r 2cmax

14

h14 +O(h12), ou par

P1 = 1 2

r 2

34 cmax h

14

P2 = r 2

14 cmax h

34 , ρopt = 1−

r 2cmax

14

h14 +O(h12).

On obtient de même

Théorème 4.1.3 Sis1 = (1 +i)P1,s2 = (1 +i)P2,r =p

22−ω12|, ρ=p

ρ12, cmax

donné par la relation kmax= cmaxh et

— si ω1 < ω2 et √

1 < ρ2 ou si ω2 < ω1 et √

2 < ρ1, les solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par

P1 ≥ cmaxρ √

3 + 4ρ−1−2ρ

2h(1−2ρ2) , P2 =r, ρopt = 4

r1

2+O(h1/2).

— Si ω1 < ω2 et ρ1 < ρ2 ≤ √

1 ou si ω2 < ω1 et ρ2 < ρ1 ≤ √

2, les solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par

P1 ≥ cmax(1−ρ)

2h , r

1 +p

2−1 ≤P2 ≤ r 1−p

2−1, ρopt =

1

ρ2 +O(h1/2).

— Si ω1 < ω2 et √

2 < ρ1 ou si ω2 < ω1 et √

1 < ρ2 alors les solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par

P1 =r, P2 ≥ cmax 2h

p3ρ2+ 4ρ−ρ−2 ρ2−2 , ρopt = 4

r1

2+O(h1/2).

— Siω1 < ω2 etρ2 < ρ1 ≤√

2 ou si ω2 < ω1 etρ1 < ρ2 ≤√

1 alors les solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par

rρ ρ+p

2−ρ2 ≤P1 ≤ rρ ρ−p

2−ρ2, P2 ≥ cmax(ρ−1) 2hρ , ρopt =

2

ρ1 +O(h1/2).

Si c1 = c212) il n’est pas très difficile à vérifier que ρopt = 1 tel qu’on vu pour le cas de Maxwell. Encore une fois on est face à la fréquence de résonance et pour avoir un algorithme convergent il faut exclure la fréquence de résonance des gammes de fréquences K dans le problème min-max (4.1.5). Alors on a le problème min-max modifié suivant :

ρopt = min

P1,P2>0max

k∈K1opt(k, ρ1, ρ2,ω, p˜ 1(1 +i), p2(1 +i))|, (4.1.6) avec K1 = [kmin, k]∪[k+, kmax]et ω˜ = cω

1.

Dans ce cas on a aussi le résultat qui vient grâce à la remarque 4.1.1 Théorème 4.1.4 Si s1 = (1 +i)P1, s2 = (1 +i)P2, λ+ =p

k2+−ω˜2, ω12, ρ= ρρ1

2

et si ρ1 < ρ2 on a les solutions asymptotiques du problème min-max modifié (4.1.6) pour h petit sont données par

P1 ≥ 1

2h(1−ρ)cmax, P2 ≤ λ+

1−ρ, ρopt =√

ρ+O(h1/2).

Si ρ1 > ρ2, les solutions asymptotiques du problème min-max modifié (4.1.6) pour h petit sont données par

P1 ≤ ρλ+

ρ−1, P2 ≥ cmax(ρ−1) 2ρh , ρopt =p

ρ−1+O(h1/2).

Il est courant dans la résolution numérique qu’on ait une relation entre la longueur d’onde et le nombre de points de discrétisation. Un nombre minimum des points est nécessaire pour capturer la variation dans l’onde mais ce n’est pas suffisant à cause de l’erreur de pollution. Pour cela on considère trois relations importantes ωh = c, ω2h = c et ω3/2h = c. Pour pouvoir faire les optimisations on a besoin de définir les fonctions sur les trois intervalles des fréquences[0, ωmin], [ωmin, ωmax]et[ωmax, kmax], tel qu’on a fait pour les équations de Maxwell

R1(k, ω1, ω2, ρ, p1 hα, p2

hβ) = ρ4opt = (hp21 + (˜λ1hpα1)2)(hp22 + (˜λ2hpβ2)2) (ρh2p22 + (˜λ1+ρphβ2)2)(ρh2p21 + (˜λ2+ρhp1α)2)

, (4.1.7)

R2(k, ω1, ω2, ρ, p1 hα, p2

hβ) = ρ4opt = (hp21 + (λ1hpα1)2)(hp22 + (˜λ2hpβ2)2) (ρh2p22 + (λ1+ρphβ2)2)(ρ2ph21 + (˜λ2+ρhp1α)2)

, (4.1.8)

R3(k, ω1, ω2, ρ, p1 hα, p2

hβ) = ρ4opt = (hp21 + (λ1hpα1)2)(hp22 + (λ2hpβ2)2) (ρh2p22 + (λ1+ρphβ2)2)(ρ2ph21 + (λ2+ρhp1α)2)

. (4.1.9) On utilises les expressions (4.1.7), (4.1.8) et (4.1.9) pour évaluer dans les différents cas avec des valeurs α et β déterminés numériquement.

Dans le document Méthodes de décomposition de domaines pour des problèmes de propagation d&#039;ondes hétérogènes (Page 120-130)