• Aucun résultat trouvé

M ´ ETHODES IT ERATIVES PARALL ´ ELES `

LIN EAIRES CREUX DES PROBL ´ EMES DE `

4.2/ M ´ ETHODES IT ERATIVES PARALL ´ ELES `

       

Trouver U∈ RM tels que (A + δI)U− G ≥ 0, U≥ ¯Φ, ((A + δI)U− G)T(U− ¯Φ) = 0,

(4.5)

o `u A est une matrice obtenue apr `es la discr ´etisation spatiale par la m ´ethode des diff ´erences finies, G est issu de la d ´eriv ´ee partielle de premier ordre du sch ´ema `a pas de temps implicite par la m ´ethode d’Euler et de la discr ´etisation du vecteur second membre du probl `eme de l’obstacle, δ est l’inverse du pas de temps k et I est la matrice identit ´e. La matrice A est sym ´etrique dans le cas d’un op ´erateur autoadjoint et asym ´etrique dans le cas contraire.

En fonction du sch ´ema de discr ´etisation du Laplacien choisi, A est une M-matrice (irr ´eductiblement diagonale dominante, voir [76]) et, par cons ´equent, la matrice (A+δI) est aussi une M-matrice. Cette propri ´et ´e est importante pour la convergence des m ´ethodes it ´eratives de r ´esolution.

4.2/ M ´

ETHODES ITERATIVES PARALL

´

ELES

`

De nombreux auteurs [44, 52, 8, 72, 74, 73, 7, 54, 24] ont d ´ej `a ´etudi ´e l’ana-lyse num ´erique et la r ´esolution des ´equations non lin ´eaires issues des probl `emes de l’obstacle, par des m ´ethodes de r ´esolution s ´equentielles ou parall `eles synchrones/a-synchrones sur des calculateurs CPU. Cependant, dans ce document, nous nous

int ´eressons `a la r ´esolution de probl `emes compl ´ementaires (4.5) issus de la discr ´etisation de probl `emes de l’obstacle de grandes dimensions. Pour cela, nous nous int ´eressons `a deux m ´ethodes it ´eratives parall `eles synchrones ou asynchrones (voir [25, 57, 12, 15, 9]),

`a savoir :

– la m ´ethode Richardson projet ´ee pour la r ´esolution du probl `eme de diffusion et, – la m ´ethode de relaxation par blocs projet ´ee pour la r ´esolution du probl `eme de

convection-diffusion.

Dans cette section, nous pr ´esentons le principe g ´en ´eral de la parall ´elisation de ces deux m ´ethodes de r ´esolution.

4.2.1/ PRELIMINAIRES´

Soient E = RM un espace de Hilbert et α ∈ N un entier naturel. De plus, E = Qα i=1Ei

est un produit de α sous-espaces de Hilbert Ei = Rmi, tel que M =Pα

i=1mi. Chaque sous-espace Eiest muni d’un produit scalaire h . , . ii et d’une norme | . |i pour tout i ∈ {1, . . . , α}. Enfin, pour tout U, V ∈ E, hU , Vi = Pα

i=1hUi, Viii et k . k d ´efinissent, respectivement, le produit scalaire et la norme dans E.

Dans ce qui suit, nous consid ´erons le probl `eme de point fixe g ´en ´eral suivant : (

Trouver U∈ Etel que

U= F(U) (4.6)

o `u U 7→ F(U) est une application de E dans E. Soit U ∈ E, les d ´ecompositions par blocs de U et de F sont pr ´esent ´ees comme suit :

U = (U1, . . . , Uα) F(U) = (F1(U), . . . , Fα(U))

Les it ´erations parall `eles asynchrones (voir section 2.3.3) pour la r ´esolution du probl `eme (4.6) sont d ´efinies comme suit : soit U0 ∈ E une solution initiale donn ´ee, alors pour tout p ∈ N, Up+1est d ´efini r ´ecursivement par :

Uip+1=        Fi(Uρ1(p) 1 , . . . , Uρj(p) j , . . . , Uρα(p) α )si i ∈ s(p) Uipsinon (4.7) o `u ( ∀p ∈ N, s(p) ⊂ {1, . . . , α}et s(p) , ∅

∀i ∈ {1, . . . , α}, {p | i ∈ s(p)}est d ´enombrable (4.8) et ∀ j ∈ {1, . . . , α},        ∀p ∈ N, ρj(p) ∈ N, 0 ≤ ρj(p) ≤ pet ρj(p) = p si j ∈ s(p) lim p→∞ρj(p) = +∞. (4.9)

Le sch ´ema it ´eratif asynchrone, pr ´esent ´e ci-dessus, mod ´elise des calculs parall `eles effectu ´es sans un ordre pr ´ecis ni synchronisation et il d ´ecrit une m ´ethode de sous-domaines sans recouvrement. Plus pr ´ecis ´ement, il permet de d ´efinir des calculs dis-tribu ´es dans lesquels les processeurs calculent `a leurs propres rythmes en fonction de leurs caract ´eristiques intrins `eques et de leurs charges de calcul. Le parall ´elisme entre les processeurs est bien d ´efini par l’ensemble s(p) qui contient `a chaque ´etape p l’indice

des ´el ´ements de vecteur relax ´es en parall `ele par chaque processeur. De plus, l’utilisa-tion des ´el ´ements rec¸us en retard dans (4.7) permet de d ´efinir un comportement non d ´eterministe et non celui d’une inefficacit ´e du sch ´ema de calcul distribu ´e. Il est `a noter que th ´eoriquement, d’apr `es [57], chaque ´el ´ement de vecteur doit ˆetre relax ´e une infinit ´e de fois. Le choix des ´el ´ements relax ´es peut ˆetre guid ´e par un crit `ere quelconque. Ce-pendant, le crit `ere de choix le plus ´evident consiste `a utiliser les ´el ´ements de vecteur disponibles et r ´ecemment calcul ´es par les processeurs.

Ce sch ´ema it ´eratif asynchrone (pr ´esent ´e ci-dessus) permet de d ´ecrire le mod `ele g ´en ´eral des algorithmes it ´eratifs parall `eles, entre autres, celui des it ´erations synchrones si :

∀ j ∈ {1, . . . , α}, ∀p ∈ N, ρj(p) = p.

Dans ce mod `ele, l’erreur absolue eip du bloc i est d ´efinie par la norme euclidienne de la diff ´erence entre les deux valeurs du bloc Ui calcul ´ees par le processeur i aux deux it ´erations successives p − 1 et p comme suit :

eip = kUip− Uip−1k2, (4.10)

o `u Uipest le bloc i du vecteur U calcul ´e `a l’it ´eration p.

Afin d’ ´evaluer la quantit ´e de calcul n ´ecessaire pour atteindre la convergence, nous prenons en consid ´eration dans les exp ´erimentations (voir section 4.4) le nombre de re-laxations au lieu de celui des it ´erations. En effet, une relaxation peut ˆetre d ´efinie comme la mise `a jour locale des ´el ´ements d’un bloc i du vecteur it ´er ´e U en fonction de l’application Fi (voir formule (4.7)). Cette d ´efinition s’applique aux deux cas : s ´equentiel et parall `ele synchrone ou asynchrone. Par contre, une it ´eration est la mise `a jour des ´el ´ements de tous les blocs i du vecteur it ´er ´e U en fonction des applications Fi, o `u i ∈ {1, . . . , α}, de fac¸on s ´equentielle ou parall `ele synchrone. Donc, puisque cette derni `ere d ´efinition ne peut pas ˆetre appliqu ´ee au cas parall `ele asynchrone, nous utilisons le nombre de re-laxations comme indicateur du nombre d’op ´erations flottantes n ´ecessaires pour atteindre la convergence.

4.2.2/ M ´ETHODE PARALLELE DE` RICHARDSON PROJETEE´

Dans cette section, nous pr ´esentons un algorithme it ´eratif parall `ele pour la r ´esolution du probl `eme aux limites d ´efini par un op ´erateur de diffusion (4.4) et associ ´e `a un probl `eme d’optimisation avec des contraintes sur la solution. Soit K un ensemble convexe ferm ´e d ´efini comme suit :

K = {U | U ≥ ¯Φ partout dans E}

o `u ¯Φ est la fonction d’obstacle discr `ete. En fait, le probl `eme de l’obstacle (4.5) peut ˆetre d ´efini comme un probl `eme d’optimisation avec contraintes suivant :

(

Trouver U∈ Ktel que ∀V ∈ K, J(U) ≤ J(V) o `u la fonction de co ˆut est donn ´ee comme suit :

J(U) = 1

o `u h. , .i d ´efinit un produit scalaire dans E, A = A + δI est une matrice sym ´etrique positive d ´efinie et A est la matrice de discr ´etisation associ ´ee `a l’op ´erateur autoadjoint (4.4) apr `es changement de variables.

Dans ce document, nous consid ´erons des probl `emes de l’obstacle de tr `es grandes tailles. Donc, afin de r ´eduire les temps de calcul, le probl `eme d’optimisation (pr ´esent ´e ci-dessus) peut ˆetre r ´esolu en utilisant une m ´ethode parall `ele asynchrone projet ´ee sur l’ensemble convexe K. Plus pr ´ecis ´ement, nous utilisons un algorithme parall `ele asyn-chrone de la m ´ethode Richardson projet ´ee [61].

Nous ´etendons le formalisme pr ´esent ´e dans la section 4.2.1 pour d ´efinir la m ´ethode Richardson parall `ele asynchrone projet ´ee comme suit. Soient ∀i ∈ {1, . . . , α}, Ki ⊂ Ei, Ki est un ensemble convexe ferm ´e, K = Qα

i=1Ki et G = (G1, . . . , Gα) ∈ E. Pour tout U ∈ E, soit PK(U) une projection de U sur K tel que Pk(U) = (PK1(U1), . . . , PKα(Uα)) o `u ∀i ∈ {1, . . . , α}, PKi est une projection de Ei sur Ki.

Pour tout γ ∈ R, γ > 0 param `etre de relaxation, soit un sch ´ema de point fixe Fγ d ´efini par :

U= PK(U− γ(AU− G)) = Fγ(U), (4.11) qui peut ˆetre aussi d ´efini comme suit, tel que Fγ(U) = (F1,γ(U), . . . , Fα,γ(U)):

∀U ∈ E, Fi,γ(U) = PKi(Ui− γ(AiU − Gi)).

4.2.3/ M ´ETHODE PARALLELE DE RELAXATION PAR BLOCS PROJET` EE´

Dans cette section, nous utilisons la m ´ethode parall `ele asynchrone de relaxation par blocs projet ´ee, qui est li ´ee directement `a la d ´ecomposition naturelle par blocs de l’op ´erateur discr ´etis ´e avec la m ˆeme notation utilis ´ee dans la section 4.2.2. Cette m ´ethode peut ˆetre appliqu ´ee dans les deux cas o `u la matrice A est sym ´etrique ou asym ´etrique. Ceci signifie qu’elle peut ˆetre utilis ´ee pour r ´esoudre les probl `emes discr ´etis ´es de diffusion ou ceux de convection-diffusion. C’est une m ´ethode parall `ele de sous-domaines sans re-couvrement.

L’algorithme de relaxation par blocs projet ´ee est associ ´e au sch ´ema de point fixe sui-vant :

Ui= PKi(A−1i,i(GiX

j,i

Ai, jUj)) = FBi(U), ∀i ∈ {1, . . . , α}. (4.12)

Nous pouvons associer `a ce sch ´ema de point fixe FB une m ´ethode par blocs parall `ele asynchrone d ´efinie par (4.7), (4.8) et (4.9).

4.2.4/ CONVERGENCE DES METHODES´

La propri ´et ´e la plus importante pour assurer la convergence des deux m ´ethodes, d ´efinies ci-dessous, est le fait que la matrice A soit une M-matrice [23]. De plus, la convergence de la m ´ethode Richardson projet ´ee est assur ´ee selon les travaux pr ´esent ´es dans [61, 24] alors que, celle de la m ´ethode de relaxation par blocs projet ´ee peut ˆetre ´etablie en utilisant, par exemple, des techniques de contraction [43, 62] ou d’ordre par-tiel [59, 60, 58].

Donc, il existe une valeur γ0 > 0, tel que ∀γ ∈]0, γ0[, les it ´erations synchrones et asyn-chrones (4.7), (4.8) et (4.9) de la m ´ethode Richardson projet ´ee, associ ´ees au sch ´ema de point fixe Fγ (4.11), convergent vers une solution unique Udu probl `eme discr ´etis ´e pour toute solution initiale U0.

Nous supposons que le syst `eme alg ´ebrique, issu de la discr ´etisation du probl `eme de l’obstacle, est d ´ecompos ´e en q blocs, q ≥ α, sans recouvrement. Les it ´erations syn-chrones et asynsyn-chrones de la m ´ethode de relaxation par blocs projet ´ee (4.7), (4.8) et (4.9), associ ´ees au sch ´ema de point fixe FB(4.12), convergent vers la solution unique U

et ce, pour les deux types de d ´ecomposition : par blocs ou par points (α = M).