• Aucun résultat trouvé

Pour illustrer l’efficacité des algorithmes de Schwarz Classique et optimisé on pré-sente quelques résultats numériques. On considère un domaine rectangulaire Ω = [−1,1] × [0,1] qui est partitionné en deux sous-domaines Ω1 = [−1,0] × [0,1] et Ω2 = [0,1]2, dans chaque domaine on considère des coefficients constants εj, µj avec j = 1,2 et ω fixé. On discrétise l’algorithme avec un schème de volumes finis basé sur le schème de Yee.

Le schème de Yee est un schème de second ordre pour les équations de Maxwell qui utilise deux grilles différents où on localise les variables E et H. Les champs E sont positionnés au milieu des arêtes de même direction alors que les champs H sont au centre des faces perpendiculaires à leur direction, voir figure 2.7.1. Le schème de Yee est très connu dans l’électromagnétisme parce que depuis sa publication en 1966 le nombre d’articles basés sur ce schèma augmente presque exponentiellement (pour voir l’article original de Kane Yee consulter [83]).

On impose aux bords la condition d’impédance ZE

j ×nj +nj ×(H×nj) = 0, avec

Figure 2.7.1 – On peut observer le schème de Yee et sa position dans le carré de la discrétisation.

On voit bien que les champsE sont placés au milieu des arêtes et les champsH sont placés au milieu des faces.

j = 1,2. La condition de transmission initial est égal à 1.

Pour illustrer les théorèmes classiques on peut voir la figure 2.7.2. A gauche on peut observer la convergence de la méthode de Schwarz classique. La ligne bleu représente le cas µ1 = µ2 qui est décrit par le théorème 2.1.3, on a µ1 = µ2 = ε1 = 1, ε2 = 3

0 5 10 15 20 25 10−3

10−2 10−1 100

Graph of errors

err

2*iter

e1=u1=1 e2=3 u2=1 e1=u1=1 e2=3 u2=2

0 5 10 15 20 25

10−1 100 101 102 103

Graph of errors

err

2*iter

e1=u1=1 e2=1 u2=5 e1=u1=1 e2=2 u2=5

Figure 2.7.2 – Historiques de convergence de l’algorithme de Schwarz classique. A gauche deux cas de convergence, quandµest continue (ligne bleu) et quand µest discontinue (ligne rouge). A droite deux cas de divergence, quandεest continue (ligne bleu) et quand εest discontinue (ligne rouge).

et ω = 2π pour ce cas. La ligne rouge représente le cas µ discontinue décrit par le théorème 2.1.4 (le cas se trouve dans la zone 7 du théorème qui peut être convergent), dans ce cas on a µ1 = ε1 = 1, µ2 = 2, ε2 = 3 et ω = 2π. A droite on peut observer la divergence des méthodes de Schwarz classiques comme prédit par le théorème 2.1.4 pour ε continue en bleu (zone 6 du théorème) dans ce cas on a µ1 = ε1 = ε2 = 1, µ2 = 5 etω= 2π, aussi pour εdiscontinue en rouge (zone 5 du théorème), pour ce cas on a µ11 = 1, ε2 = 2, µ2 = 5 et ω= 2π.

On peut observer dans les figures 2.7.3, 2.7.4, 2.7.5 et 2.7.6 la comparaison des fac-teurs de convergence optimisés théoriques et numériques. On peut observer que même si h n’est pas encore suffisamment fin, les asymptotes sont assez bien respectés. On voit clairement que le facteur de convergence numérique est bien prédit par les théo-rèmes 2.4.1, 2.5.1 et 2.6.1 avec ses respectives corollaires 2.4.2, 2.5.2 et 2.6.2. Tous ces exemples numériques ont été faits avec ω= 2π et h= 641 et les ε’s et µ’s adéquats.

k

0 10 20 30 40 50 60 70

rho

0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.7 0.75

Num Theo Asym

k

0 10 20 30 40 50 60 70

rho

0.3 0.4 0.5 0.6 0.7 0.8 0.9

Num Theo Asym

Figure2.7.3 – On peut observer le facteur de convergence optimisé qui illustre le théorème 2.4.1 et son corollaire 2.4.2. Dans les deux cas on aµ1=ε1=µ2= 1,ε2= 2,h=641 etω= 2π.

Pour illustrer les théorèmes 2.4.1, 2.5.1 et 2.6.1 avec ses termes asymptotiques on fait un tableau avec le nombre d’itérations nécessaires pour réduire l’erreur relative à 10−6 si on raffine la taille du pas de maillage h. Pour justifier la relation entre le nombre d’itérations et le comportement asymptotique on part de la définition de

k

0 10 20 30 40 50 60 70

rho

0.45 0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85

Num Theo Asym

k

0 10 20 30 40 50 60 70

rho

0.5 0.55 0.6 0.65 0.7 0.75 0.8 0.85 0.9 0.95 1

Num Theo Asym

Figure 2.7.4 – On peut observer le facteur de convergence optimisé qui illustre le théorème 2.5.1 ; à gauche la première partie du théorème et à droite la quatrième partie. Dans les deux cas on a ε1=ε2=µ1= 1,h= 641 et ω= 2π. A gauche on aµ2= 2et a droite on aµ2= 1.4<

2.

k

0 10 20 30 40 50 60 70

rho

0.4 0.5 0.6 0.7 0.8 0.9 1

Num Theo Asym

k

0 10 20 30 40 50 60 70

rho

0.5 0.55 0.6 0.65 0.7 0.75

Num Theo Asym

Figure2.7.5 – On peut observer le facteur de convergence optimisé qui illustre le théorème 2.6.1 et le corollaire 2.5.2 ; à gauche on illustre le corollaire 2.5.2, on a dans ce casµ1=ε1=ε2= 1etµ2= 2.

A droite on illustre le théorème 2.6.1 et dans ce cas on a ε2 =µ1= 1et ε1=µ2 = 2. Dans les deux cas on ah= 641 et ω= 2π.

l’erreur relative,

opt)n = en e0,

avecen l’erreur à l’itérationn ete0 l’erreur à l’étape initiale. On a posé comme condi-tions initiales 1 sur l’interface, donc on ae0 = 1, l’erreur à l’itérationnest la condition d’arrêt, c’est à dire que en ' 10−6. Le facteur de convergence ρopt doit contracter comme1−hm dans les cas qui dépendent du maillage (théorème 2.4.1 et les corollaires 2.4.2, 2.5.2 et 2.6.2), donc on a la relation

1−hm =e1/nn .

Un développement de Taylor de e1/nn = 1 + lnenn +O((lnenn)2)nous permet d’écrire 1−e1/nn ' c

n,

avec cune constante positive. Maintenant on peut écrire nc =hm. Ceci équivaut à

logn =−mlogh+ ˜c,

k

0 10 20 30 40 50 60 70

rho

0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Num Theo Asym

h 18 161 321 641 1281 2561

Théoreme 2.4.1 24 25 30 34 40 46

Corollaire 2.4.2 18 25 35 48 68 95 Théoreme 2.5.1(Cas 1) 28 28 30 30 30 30 Théoreme 2.5.1(Cas 2) 25 31 31 31 29 29 Corollaire 2.5.2 21 29 40 55 77 108

Théoreme 2.6.1 10 11 11 11 11 11

Corollaire 2.6.2 22 31 43 59 83 117

Figure2.7.6 – A gauche on peut observer le facteur de convergence optimisé qui illustre le corollaire 2.6.2 ; dans ce cas on aε2 =µ1 = 1, ε1 =µ2 = 2 et h= 641 et ω = 2π. A droite on a le tableau de nombre d’itérations nécessaires pour réduire l’erreur relative à 10−6 pour différents choix de la taille du maillageh. Ceci illustre bien le comportement asymptotique prédit par les théorèmes 2.5.1 et 2.6.1 dans lequel on voit un comportement indépendant du maillageh.

avec c˜une nouvelle constante. Donc on cherche à vérifier qu’en échelle logarithmique on a des droites de pente −m. Chose faite dans la figure 2.7.7.

On peut voir dans la figure 2.7.7 à gauche le comportement asymptotique du facteur de convergenceρopt, on voit un comportement de l’ordre de1− O(h1/4)quandµ12 tel qu’il est prédit par le théorème 2.4.1 ; on voit un comportement indépendant du maillage h si µ1 6= µ2 tel qu’il est prédit par les théorèmes 2.5.1 et 2.6.1 ; on voit le comportement indépendant du maillage aussi dans le tableau de la figure 2.7.6. Dans la figure 2.7.7 à droite on voit le comportement asymptotique des corollaires 2.4.2, 2.5.2 et 2.6.2 ; il est claire que le facteur de convergenceρopt dans ces trois cas est1−O(h1/2).

10-2 10-1

10 15 20 25 30 35 40

45 T1

T2-1 T2-2T3 O(h(-1/4))

10-2 10-1

20 30 40 50 60 70 80 90 100

110 Cor1

Cor2Cor3 O(h(-1/2))

Figure2.7.7 – Nombre d’itérations contre la taille du pas de maillagehpour atteindre une erreur de 10−6. A gauche pour les théorèmes et à droite pour les corollaires

Chapitre 3

Algorithme de Schwarz pour les Équations de Maxwell en trois dimensions

3.1 Formulation de deuxième ordre

On considère l’algorithme de Schwarz classique pour les équations de Maxwell har-moniques en trois dimensions, ceci est déjà calculé dans la section précédente (2.1.3) à partir des equations de Maxwell présentées dans l’introduction (1.2.22)

iωε1E1,n− ∇ ×H1,n = 0, dans Ω1, iωµ1H1,n+∇ ×E1,n = 0, dans Ω1, Bn1(E1,n,H1,n) = Bn1(E2,n−1,H2,n−1) surΓ,

iωε2E2,n− ∇ ×H2,n = 0, dans Ω2, iωµ2H2,n+∇ ×E2,n = 0, dans Ω2, Bn2(E2,n,H2,n) = Bn2(E1,n−1,H1,n−1) surΓ,

(3.1.1)

avecΩ1 = (−∞,0]×R2,Ω2 = [0,∞)×R2 les deux sous-domaines deR3,Γ ={0} ×R2 l’interface entre les domaines. Aussi les conductivités électriques εj, j = 1,2 et les perméabilités magnétiques µj, j = 1,2, n1 = (1,0,0)T et n2 = (−1,0,0)T les vecteurs normales à la surface et les conditions de transmission

Bnk(Ej,n,Hj,n) = 1

ZjEj,n×nj +nj ×(Hj,n×nk), j = 1,2, k = 1,2, (3.1.2) et

r→∞lim r(H×n−E) = 0. (3.1.3) Pour avoir un problème bien posé dans un domaine non borné il faut rajouter la condition de radiation de Silver-Müller (3.1.3), pour plus de détails voir [73].

On considère aussi l’algorithme





−ω2ε1E1,n+∇ ×(µ1

1(∇ ×E1,n)) = 0, dans Ω1, Bˆn1(E1,n) = Bˆn1(E2,n−1), sur Γ,

−ω2ε2E2,n+∇ ×(µ1

2(∇ ×E2,n)) = 0, dans Ω2, Bˆn2(E2,n) = Bˆn2(E1,n−1), sur Γ,

(3.1.4)

avec

nk(Ej,n) = 1 µj

nk×(∇ ×Ej,n)− iω Zj

nk×(Ej,n×nk), (3.1.5) avec la condition de radiation de Silver-Muller (3.1.3) en formulation de deuxième ordre etZk =qµ

k

εk.

Proposition 3.1.1 Les algorithmes (3.1.1) et (3.1.4) avec ses conditions de transmis-sion (3.1.2) et (3.1.5) sont équivalentes

Démonstration Montrons que les equations différentielles aux dérivées partielles sont équivalentes. De la deuxième équation de chaque système de (3.1.1) on obtient

Hj,n =− 1

iωµj∇ ×Ej,n, (3.1.6)

que l’on peut remplacer dans la première équation de (3.1.1) et cela nous donne iωεjEj,n− ∇ ×

iωµ1

j∇ ×Ej,n

= 0,

−ω2εjEj,n+∇ ×

1

µj∇ ×Ej,n

= 0, qui est le système de (3.1.4).

De façon analogue on peut obtenir les équations de (3.1.1) à partir de (3.1.4) si on pose comme nouvelle variable Hj,n = µ1

k∇ ×Ej,n. Vérifions maintenant que les conditions de transmission (3.1.2) et (3.1.5) sont équivalentes.

La condition Z1

jEj,n×nk+nk×(Hj,n×nk),par un produit vectoriel avec nk (rotation de 90 degrés) et remplacement de (3.1.6) implique la condition

1

Zjnk×(Ej,n ×nk) + 1

iωµjnk×(∇ ×Ej,n), que n’est rien d’autre que la condition (3.1.5) multiplie par 1.

Pour montrer que (3.1.5) implique (3.1.2) il suffit de faire le chemin inverse.

En fait le système de (3.1.4) est aussi le système de Maxwell mais en formulation de second ordre. Pour la suite de la section on utilisera la formulation qui nous convient le plus dans chaque étape.

Documents relatifs