En contraste au cas T M z et T Ez en 2d, où la méthode de Schwarz classique peut converger, en 3d nous avons vu qu’on ne peut pas garantir la convergence pour une condition initiale arbitraire, donc la nécessité de chercher des méthodes de Schwarz optimisées est plus important que jamais.
Pour trouver des conditions de Schwarz optimisées on considère la formulation de se-cond ordre de l’algorithme (3.1.4) avec une modification dans les se-conditions de trans-mission (3.1.5)
−ω2ε1E1,n+∇ ×(µ1
1(∇ ×E1,n)) = 0, dans Ω1, Tn1(E1,n) = Tn1(E2,n−1), sur Γ,
−ω2ε2E2,n+∇ ×(µ1
2(∇ ×E2,n)) = 0, dans Ω2, Tn2(E2,n) = Tn2(E1,n−1), sur Γ,
(3.3.1) avec
Tnj(Em) = (Id−(γjµSµ+γjεSε)( 1
µmnj×∇×Em)−iωj
µj (Id+γjµSµ+γjεSε) (nj×(Em×nj)), (3.3.2) avec les opérateurs transverse magnétique Sµ = ∇τ(∇τ·), l’opérateur transverse élec-triqueSε =∇τ× ∇τ×et les 4 variablesγjµ etγjε,j = 1,2pour optimiser l’algorithme.
Pour simplifier on note Em au lieu de Em,n, avec m qui indique l’indice du domaine où nous nous trouvons. Avec cette notation on a le résultat suivant sur le facteur de convergence optimisé :
Proposition 3.3.1 L’algorithme de Schwarz (3.3.1) avec les conditions de transmis-sion (3.3.2) a un facteur de convergence
|ρ(k, ω, ε1, ε2, µ1, µ2, γ1µ, γ2µ, γ1ε, γ2ε)|=p
max{|ρ1|,|ρ2|}, avec
ρ1 = ((λ1−iω(2ω1/Z)−γ2µ|k|2(λ1+iω1/Z))((λ2−iω2Z)−γ1µ|k|2(λ2+iω2Z))
1−i(λ1−iω1)(1−γ1µ|k|2))(2ω2−i(λ2−iω2)(1−γ2µ|k|2))
ρ2 = ((λ1−iω((1−γ1Z)−γ2ε|k|2(λ1+iω1Z))((λ2−iω2/Z)−γ1ε|k|2(λ2+iω2/Z))
1ε|k|2)(λ1−iω1)+2iω1)((1−γ2ε|k|2)(λ2−iω2)+2iω2) .
Démonstration On considère une base particulière pour les espacesEˆj avecj = 1,2; on peut écrire
Eˆj =AjµEˆj,µ+AjεEˆj,ε,
avec
On peut vérifier que ce sont bien des bases de Eˆj à l’aide de la relation (3.2.3) et l’indépendance linéaire entre les vecteurs. Cette base à des propriétés bien particulières pour les opérateurs Sµ et Sε (voir l’article [25]).
Les conditions de transmission (3.3.2) donnent le système
avec n = n1 et n2 = −n. On écrit dans la base transverse électrique et magnétique Em =AmµEm,µ+Amε Em,ε,
On applique les propriétés suivantes (pour la démonstration voir [25]) :
— Sε(n× ∇ ×Em,µ) = Sε(n×(Em,µ×n)) = 0,
On remplace les valeurs de Eε etEµ et on écrit sous forme matricielle
On obtient ainsi les matrices d’itération
A1 = Comme c’est une matrice diagonale on a les valeurs propres sur la diagonale.
On peut facilement vérifier que si on pose γ1µ = λ2−iω2Z
on aura la matrice IT = 0 et on aura convergence en deux itérations. C’est-à-dire que les conditions (3.3.4) sont les conditions optimales (les conditions transparentes) pour l’algorithme de Schwarz (3.3.1). Maintenant on cherche à faire des approximations d’ordre0des conditions transparentes, en fait on approcheλ1 etλ2 par des constantes adéquates. Nous avons le résultat suivant :
Proposition 3.3.2 Si on pose
γ1µ = s2µ−iω2Z
|k|2(s2µ+iω2Z), γ2µ = s1µ−iω1/Z
|k|2(s1µ+iω1/Z), γ2ε = s1ε−iω1Z
|k|2(s1ε+iω1Z), γ1ε = s2ε−iω2/Z
|k|2(s2ε+iω2/Z), le facteur de convergence de l’algorithme (3.3.1) est
|ρopt(k, s1µ, s2µ, s1ε, s2ε)|=p
max{|ρT M|,|ρT E|}, avec
ρT M(k, s1µ, s2µ) = (λ (λ2−s2µ)(λ1−s1µ)
2+s1µε2/ε1)(λ1+s2µε1/ε2), ρT E(k, s1ε, s2ε) = (λ (λ1−s1ε)(λ2−s2ε)
2+s1εµ2/µ1)(λ1+s2εµ1/µ2).
Démonstration Si on remplace les conditions d’hypothèse dans (3.3.3) on obtient IT =
" (λ2−s2µ)(λ1−s1µ)
(λ2+s1µε2/ε1)(λ1+s2µε1/ε2) 0 0 (λ (λ1−s1ε)(λ2−s2ε)
2+s1εµ2/µ1)(λ1+s2εµ1/µ2)
# .
Pour éviter d’alourdir la notation nous écrivons à la place deρopt(k, ω1, ω2, µ, s1µ, s2µ, s1ε, s2ε) simplementρopt(k, s1µ, s2µ, s1ε, s2ε),ρT M(k, s1µ, s2µ)au lieu deρT M(k, ω1, ω2, µ, s1µ, s2µ) etρT E(k, s1ε, s2ε) au lieu de ρT E(k, ω1, ω2, µ, s1ε, s2ε).
Remarque 3.3.1 ρT E et ρT M ne dépendant pas des mêmes variables d’optimisation, donc on peut faire l’optimisation de façon indépendante une de l’autre. De plus ρT M et ρT E sont des facteurs de convergence pour algorithme de Schwarz optimisé pour le cas T M z et T Ez en deux dimensions pour lesquels les résultats d’optimisation sont disponibles dans la section 2.
Le problème d’optimisation est de trouver min
s1µ,s2µ,s1ε,s2ε∈C
{maxk∈K{|ρopt(k, s1µ, s2µ, s1ε, s2ε)|}},
avec K = [kmin, kmax], kmin la plus petite fréquence pertinente au sous domaines (dé-pend de la géométrie du domaine) etkmax= cmaxh la plus grande fréquence d’oscillation supportée par la grille numérique. Ce problème min-max d’après la remarque est équi-valent à
max{ min
s1µ,s2µ∈C
{maxk∈K ρT M(k, s1µ, s2µ)}, min
s1ε,s2ε∈C
{maxk∈K ρT E(k, s1ε, s2ε)}}.
On a les résultats suivantes :
Théorème 3.3.3 Si µ1 =µ2 ou ε1 =ε2 alors l’algorithme de Schwarz optimisé a un comportement asymptotique
ρ∗opt = 1− O(h1/4).
Démonstration Siµ1 =µ2 etε1 =ε2 on est sur le cas constant qui est analyse dans [26]. Qui a une convergence de l’ordre 1− O(h1/4).
Si µ1 =µ2 etε1 6=ε2 le théorème (2.4.1) implique que ρ∗T M = 1− O(h1/4),
et le théorème (2.5.1) adapté au cas TEz nous donne une convergence indépendante du maillage d’une des formes
ρ∗T E = p4
1/2 +O(h1/2), ρ∗T E = q
εmin
εmax +O(h1/2),
qui sont bien inférieures que 1− O(h1/4)quand on raffine le maillage h.
Considérons maintenant le cas où les deux variables sont différentes sous la condition µ1ε1 6=µ2ε2. Pour ce cas on a le résultat suivant :
Théorème 3.3.4 Si µ1 6=µ2, ε1 6=ε2 et µ1ε1 6=µ2ε2 et
— si max{µµmin
max,εεmin
max} < √1
2 l’algorithme de Schwarz optimisé a un comportement asymptotique de la forme
ρ∗opt =p4
1/2 +O(h1/2).
— Si εεmin
max ≥max{√1
2, µµmin
max} alors l’algorithme de Schwarz optimisé a un comporte-ment asymptotique de la forme
ρ∗opt =
rεmin
εmax +O(h1/2).
— Si µµmin
max ≥max{√1
2, εεmin
max} alors l’algorithme de Schwarz optimisé a un comporte-ment asymptotique de la forme
ρ∗opt =
rµmin µmax
+O(h1/2).
Démonstration Pour le premier cas max{µµmin
max,εεmin
max} < √1
2, et on se retrouve dans le premier et troisième cas du théorème 2.5.1 pourρT M et pour ρT E, donc le théorème 2.5.1 nous donne le comportement asymptotique
ρopt =p4
1/2 +O(h1/2).
Pour le deuxième cas εεmin
max ≥max{√1
2, µµmin
max}. Par la condition εεmin
max ≥ √1
2 on sait d’après les cas 2 et 4 du théorème 2.5.1 que
ρ∗T E =
rεmin
εmax +O(h1/2).
Puis pour ρT M on sait d’après le théorème 2.5.1 qu’il aura un comportement asymp-totique de la forme
ρ∗T M = max{
rµmin
µmax,p4
1/2}+O(h1/2).
Dans tous les cas on a que max{qµ
min
µmax,p4
1/2} < q
εmin
εmax par hypothèse du cas. Le troisième cas est complètement symétrique au deuxième en échangeant les rôles de µ
etε.
Siµ1ε1 =µ2ε2 on a
ρopt(ω1, s1µ, s2µ, s1ε, s2ε) = max
ρT M(ω1, s1µ, s2µ) = 1, ρT E(ω1, s1ε, s2ε) = 1.
On a stagnation pour la fréquence de résonanceω1, la solution à ce problème tel qu’on la fait à la section 2 est d’enlever la fréquence de résonance de la gamme de fréquences K, et considérer un problème min-max modifié sans la fréquence de résonance, après l’exclusion de telle fréquence on a le résultat suivant :
Théorème 3.3.5 Si µ1ε1 =µ2ε2 et µ1 6=µ2, alors l’algorithme de Schwarz optimisé a un comportement asymptotique
ρ∗opt =
rµmin
µmax +O(h1/2).
Démonstration Siµ1ε1 =µ2ε2le théorème 2.6.1 nous donne le comportement asymp-totique deρ∗T M et de ρ∗T E, on a
ρ∗T M = qµ
min
µmax +O(h1/2), ρ∗T E = qε
min
εmax +O(h1/2).
Vu que dans ce cas µµmin
max = εεmin
max on peut conclure directement.
Chapitre 4
Algorithme de Schwarz pour les équations de Helmholtz en deux dimensions
4.1 Algorithme de Schwarz optimisé
On considère le problème de résoudre les équations de Helmholtz en dimension deux dans un milieu hétérogène avec densitéρcontinue par morceaux et vitessecaussi continue par morceaux. Les équations définies dans tout le domaine Ω = R2 sont :
∇(1
ρ∇ ·u) + ω2
c2ρu=f, dans Ω, (4.1.1)
avec
ρ=
ρ1 dans Ω1,
ρ2 dans Ω2, c=
c1 dans Ω1, c2 dans Ω2,
avec Ω1 =R−×R, Ω2 =R+×R et la condition de radiation de Sommerfeld à l’infini est
|x|→∞lim
p|x| ∂|x|u−iωu
= 0, (4.1.2)
pour toutes les directions possibles |x|x.
On définie l’algorithme de Schwarz pour les équations (4.1.1) avec les conditions de transmission de Robin et interface aligné avec la discontinuité de coefficients,
∇(ρ1
1∇ ·un1) + cω22
1ρ1un1 = f, dans Ω1,
(ρ1
1∂n1 + ρ1
2s2)un1 = (ρ1
2∂n1 + ρ1
2s2)un−12 , surΓ,
∇(ρ1
2∇ ·un2) + cω22
2ρ1un2 = f, dans Ω2,
(ρ1
2∂n2 + ρ1
1s1)un2 = (ρ1
1∂n2 + ρ1
1s1)un−11 , surΓ.
(4.1.3)
Théorème 4.1.1 Le facteur de convergence pour l’algorithme (4.1.3) est
ρopt(k, ρ1, ρ2, ω, c1, c2, s1, s2) =
(λ1−s1)(λ2−s2) (λ1+s2ρρ1
2)(λ2+s1ρρ2
1)
1/2
, (4.1.4)
avec λi =q
k2−ωj2, ωj = cω
j pour j = 1,2.
Démonstration On fait une analyse de Fourier de l’algorithme (4.1.3). Dans chaque domaine après la transformation de Fourier on obtient
−k2uˆj +∂xxuˆj+ωj2uˆj = 0, avec k le symbole de Fourier et ωj = cω
j, j = 1,2. Facilement, on peut voir que la solution générale de l’équation précédente est
ˆ
uj =m1eλjx+m2e−λjx, avec mj des constantes et λj =q
k2−ω2j pour j = 1,2.
La condition de radiation de Sommerfeld nous permet de simplifier pour chaque do-maine, et on trouve
ˆ
u1 =αeλ1x, uˆ2 =βe−λ2x. Les conditions de transmission nous donnent le système
1 ρ1
d
dn1uˆn+11 +sρ2
2uˆn+11 = ρ1
2
d
dn1uˆn2 + sρ2
2uˆn2,
1 ρ2
d
dn2uˆn+12 +sρ1
1uˆn+12 = ρ1
1
d
dn2uˆn1 + sρ1
1uˆn1. Après l’évaluation de la dérivée et simplification on a
λ1
ρ1 +ρs2
2
αn+1 =
−λρ2
2 +ρs2
2
βn, λ2
ρ2 + sρ1
1
βn+1 =
−λρ1
1 +ρs1
1
αn. La considération de deux itérations donne
|ρopt|=
αn+1 αn−1
1/2
=
(λ1−s1)(λ2−s2) (λ1+s2ρ)(λ2+s1/ρ)
1/2
, avec ρ= ρρ1
2.
Afin d’avoir un algorithme efficace, on doit choisir s1 ets2 de tel façon queρopt soit le plus petit possible pour toutes fréquences numériques pertinentesk∈K := [kmin, kmax], oùkmin est la plus petite fréquence pertinente (kmin dépend de la géométrie du milieu) etkmax= cmaxh est la plus grande fréquence numérique supporté par la grille numérique.
On cherchera des constantes de la forme s1 =P1(1 +i) and s2 =P2(1 +i) (ce choix a été justifié dans [57]) pour être les solutions du problème min-max suivant :
ρ∗opt = min
P1,P2>0max
k∈K |ρopt(k, ρ1, ρ2, ω, c1, c2, P1(1 +i), P2(1 +i))|. (4.1.5) Remarque 4.1.1 Il est intéressant de voir comment les algorithmes (4.1.3) et (2.1.1) avec les conditions (2.2.1) qui sont apparemment différentes, posées de différente façon peuvent donner le même facteur de convergence.
Si on fait la relation ρj = µj et cj = √ε1
jµj on peut utiliser tous les résultats du chapitre 2 pour les équations de Helmholtz et aussi tous les résultats qu’on obtient pour les équations de Helmholtz peuvent s’appliquer pour les équations de Maxwell en deux dimensions.
On déduit de la remarque 4.1.1 ci-dessus le théorème suivant :
Théorème 4.1.2 Siρ1 =ρ2, c1 6=c2,s1 = (1 +i)P1,s2 = (1 +i)P2 etr =p
|ω12−ω22|, alors les deux solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par
P1∗ = r 2
14 cmax h
34
, P2∗ = 1 2
r 2
34 cmax h
14 , ρ∗opt = 1−
r 2cmax
14
h14 +O(h12), ou par
P1∗ = 1 2
r 2
34 cmax h
14
P2∗ = r 2
14 cmax h
34 , ρ∗opt = 1−
r 2cmax
14
h14 +O(h12).
On obtient de même
Théorème 4.1.3 Sis1 = (1 +i)P1,s2 = (1 +i)P2,r =p
|ω22−ω12|, ρ=p
ρ1/ρ2, cmax
donné par la relation kmax= cmaxh et
— si ω1 < ω2 et √
2ρ1 < ρ2 ou si ω2 < ω1 et √
2ρ2 < ρ1, les solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par
P1∗ ≥ cmaxρ √
3 + 4ρ−1−2ρ
2h(1−2ρ2) , P2∗ =r, ρ∗opt = 4
r1
2+O(h1/2).
— Si ω1 < ω2 et ρ1 < ρ2 ≤ √
2ρ1 ou si ω2 < ω1 et ρ2 < ρ1 ≤ √
2ρ2, les solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par
P1∗ ≥ cmax(1−ρ)
2h , r
1 +p
2ρ2−1 ≤P2∗ ≤ r 1−p
2ρ2−1, ρ∗opt =
rρ1
ρ2 +O(h1/2).
— Si ω1 < ω2 et √
2ρ2 < ρ1 ou si ω2 < ω1 et √
2ρ1 < ρ2 alors les solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par
P1∗ =r, P2∗ ≥ cmax 2h
p3ρ2+ 4ρ−ρ−2 ρ2−2 , ρ∗opt = 4
r1
2+O(h1/2).
— Siω1 < ω2 etρ2 < ρ1 ≤√
2ρ2 ou si ω2 < ω1 etρ1 < ρ2 ≤√
2ρ1 alors les solutions asymptotiques du problème min-max (4.1.5) pour h petit sont données par
rρ ρ+p
2−ρ2 ≤P1∗ ≤ rρ ρ−p
2−ρ2, P2∗ ≥ cmax(ρ−1) 2hρ , ρ∗opt =
rρ2
ρ1 +O(h1/2).
Si c1 = c2 (ω1 =ω2) il n’est pas très difficile à vérifier que ρopt = 1 tel qu’on vu pour le cas de Maxwell. Encore une fois on est face à la fréquence de résonance et pour avoir un algorithme convergent il faut exclure la fréquence de résonance des gammes de fréquences K dans le problème min-max (4.1.5). Alors on a le problème min-max modifié suivant :
ρ∗opt = min
P1,P2>0max
k∈K1|ρopt(k, ρ1, ρ2,ω, p˜ 1(1 +i), p2(1 +i))|, (4.1.6) avec K1 = [kmin, k−]∪[k+, kmax]et ω˜ = cω
1.
Dans ce cas on a aussi le résultat qui vient grâce à la remarque 4.1.1 Théorème 4.1.4 Si s1 = (1 +i)P1, s2 = (1 +i)P2, λ+ =p
k2+−ω˜2, ω1 =ω2, ρ= ρρ1
2
et si ρ1 < ρ2 on a les solutions asymptotiques du problème min-max modifié (4.1.6) pour h petit sont données par
P1∗ ≥ 1
2h(1−ρ)cmax, P2∗ ≤ λ+
1−ρ, ρ∗opt =√
ρ+O(h1/2).
Si ρ1 > ρ2, les solutions asymptotiques du problème min-max modifié (4.1.6) pour h petit sont données par
P1∗ ≤ ρλ+
ρ−1, P2∗ ≥ cmax(ρ−1) 2ρh , ρ∗opt =p
ρ−1+O(h1/2).
Il est courant dans la résolution numérique qu’on ait une relation entre la longueur d’onde et le nombre de points de discrétisation. Un nombre minimum des points est nécessaire pour capturer la variation dans l’onde mais ce n’est pas suffisant à cause de l’erreur de pollution. Pour cela on considère trois relations importantes ωh = c, ω2h = c et ω3/2h = c. Pour pouvoir faire les optimisations on a besoin de définir les fonctions sur les trois intervalles des fréquences[0, ωmin], [ωmin, ωmax]et[ωmax, kmax], tel qu’on a fait pour les équations de Maxwell
R1(k, ω1, ω2, ρ, p1 hα, p2
hβ) = ρ4opt = (hp2α21 + (˜λ1− hpα1)2)(hp2β22 + (˜λ2− hpβ2)2) (ρh22βp22 + (˜λ1+ρphβ2)2)(ρh22αp21 + (˜λ2+ρhp1α)2)
, (4.1.7)
R2(k, ω1, ω2, ρ, p1 hα, p2
hβ) = ρ4opt = (hp2α21 + (λ1− hpα1)2)(hp2β22 + (˜λ2− hpβ2)2) (ρh22βp22 + (λ1+ρphβ2)2)(ρ2ph212α + (˜λ2+ρhp1α)2)
, (4.1.8)
R3(k, ω1, ω2, ρ, p1 hα, p2
hβ) = ρ4opt = (hp2α21 + (λ1− hpα1)2)(hp2β22 + (λ2− hpβ2)2) (ρh22βp22 + (λ1+ρphβ2)2)(ρ2ph212α + (λ2+ρhp1α)2)
. (4.1.9) On utilises les expressions (4.1.7), (4.1.8) et (4.1.9) pour évaluer dans les différents cas avec des valeurs α et β déterminés numériquement.