• Aucun résultat trouvé

M´ethodes it´eratives

N/A
N/A
Protected

Academic year: 2022

Partager "M´ethodes it´eratives"

Copied!
15
0
0

Texte intégral

(1)

logo

M´ ethodes it´ eratives

MR. BEY Mohamed-Amine

Module Analyse Num´erique (MI2E) Fiche : M´ethodes it´eratives 2013/2014 1 / 1

(2)

Jacobi

C = D et α = 1

xk+1 = xk + D1(b − Axk) Dxk+1 = b − (A − D)xk Pour i = 1, · · · ,n:

Ai,ixik+1 = bi − X

j6=i

Ai,jxjk

(3)

Gauss Seidel A = D − E − F

C = D − E et α = 1

xk+1 = xk + (D − E)1(b − Axk) (D − E)xk+1 = b + Fxk

Pour i = 1, · · · ,n:

Ai,ixik+1 = bi − X

j<i

Ai,jxjk+1 − X

j>i

Ai,jxjk

(4)

SOR A = D − E − F

Pour i = 1, · · · ,n:

Ai,iik+1 = bi − P

j<i Ai,jxjk+1 − P

j>i Ai,jxjk xik+1 = ωx˜ik+1 + (1 − ω)xik

V´erification de C = Dω − E.

Ai,ixik+1

ω − (1 − ω)

ω xik

= bi − X

j<i

Ai,jxjk+1 − X

j>i

Ai,jxjk

(D

ω − E)xk+1 = b −

−F − (1 − ω)

ω D

xk = (D

ω − E)xk + (b − Axk)

(5)

Convergence de Gauss Seidel

Si A est une matrice SDP, alors ρ

I − (D − E)1A

< 1 et la m´ethode de Gauss Seidel converge

On va montrer que pour tous A SDP et M inversible telle que

Mt + M − A

SDP alors

ρ(I − M1A) < 1

Preuve: on consid`ere la norme sur Rn kxk2 = (Ax,x) et on va montrer que kI − M1Ak2 = sup

x6=0

k(I − M1A)xk2

kxk2 < 1 Soit x 6= 0, on d´efinit y 6= 0 tel que Ax = My

k(I − M1A)xk2 = (A(x − y),(x − y))

= kxk2 + (Ay, y) − 2(Ax,y)

= kxk2 + (Ay, y) − 2(My, y)

= kxk2 − ((Mt + M − A)y,y) < kxk2 On conclut pour Gauss Seidel avec

Mt + M − A = D − E + D − F − D + E + F = D > 0

(6)

M´ ethode de Richardson

Soit A ∈ Mn inversible et b ∈ Rn. Soit x ∈ Rn solution de Ax = b.

M´ethode de Richardson: soit α ∈ R, on construit une suite de solution xk de la forme

xk+1 = xk + α(b − Axk).

On a donc

(xk+1 − x) = (I − αA)(xk − x), (xk+1 − x) = (I − αA)k(x1 − x),

B = (I − αA)

Convergence: ssi ρ(B) < 1

Taux de convergence: kBkk1/k → ρ(I − αA)

(7)

M´ ethode de Richardon pour les matrices SDP

Soit A ∈ Mn SDP (Sym´etrique D´efinie Positive) et λi > 0, i = 1,· · · , n ses valeurs propres par ordre croissant

ρ(I − αA) = max

|1 − αλ1|,|1 − αλn| αopt = argminαRmax

|1 − αλ1|, |1 − αλn| αopt = 2

λ1 + λn, ρ(I − αoptA) = λn − λ1

λ1 + λn = κ − 1

κ + 1 < 1 Probl`eme: on ne connait pas les valeurs propres de A

Voir Exercice: M´ethode de Richardson `a pas variable

(8)

M´ ethode de Richardon pour les matrices SDP

Nombre d’it´erations pour une pr´ecision fix´ee:

kxk+1 − xk2

ρ(I − αoptA)k

kx1 − xk2, kxk+1 − xk2 ≤ κ − 1

κ + 1 k

kx1 − xk2,

On cherche le nb d’it´eration k pour atteindre une pr´ecision ǫ, ie κ − 1

κ + 1 k

≤ ǫ,

k ≥ ln(1ǫ) ln(11+κ11 κ

) Pour κ grand:

k >

∼ κ

2 ln(1 ǫ )

(9)

M´ ethode de Richardon ` a pas variable pour les matrices SDP

Soit A ∈ Mn SDP (Sym´etrique D´efinie Positive).

On pose ek = x − xk, rk = Aek = b − Axk, et on consid`ere l’algorithme it´eratif: x1 donn´e et pour k = 1,· · ·



αk = (rk,rk) (Ark,rk), xk+1 = xk + αk rk. On montre que

αk = ArgminαR(Aek+1, ek+1) = α2(Ark,rk) − 2α(rk, rk) + (Aek,ek), et

(Aek+1, ek+1) =

1 − (rk, rk)2

(Ark,rk)(A1rk,rk)

(Aek, ek),

d’o`u

(Aek+1, ek+1) ≤

1 − 1

Cond2(A)

(Aek,ek)

(10)

M´ ethode de Richardon ` a pas variable pour les matrices SDP: algorithme

Ax = b avec A matrice SDP

Choix de la pr´ecision ǫ sur le r´esidu relatif

Initialisation: x1,r1 = b − Ax1,nr = nr0 = kr1k It´erer tant que nrnr0 ≥ ǫ

pk = Ark αk = (r

k,rk) (pk,rk)

xk+1 = xk + αkrk rk+1 = rk αkpk nr = krk+1k

(11)

M´ ethode de Richardon pr´ econditionn´ ee

Pr´econditionnement: matrice C ∈ Mn inversible

xk+1 = xk + αC1(b − Axk) (xk+1 − x) = (I − αC1A)(xk − x)

B = (I − αC1A) On cherche un pr´econditionnement C tel que

C ∼ α A ie ρ(I − αC1A) << 1

le syst`eme Cy = r est peu coˆuteux `a r´esoudre

(12)

Exemple des matrices et pr´ econditionnements SDP

A, C ∈ Mn sym´etriques d´efinies positives.

Soient y = C1/2x, yk = C1/2xk, c = C1/2b on a

C1/2AC1/2

y = c, La matrice C1/2AC1/2 est SDP, et

yk+1 = yk + α

c − C1/2AC1/2yk

Convergence ssi ρ(I − αC1/2AC1/2) < 1

αopt = 2

λmin(C1/2AC1/2) + λmax(C1/2AC1/2)

ρ(I − αoptC1/2AC1/2) = λmax(C1/2AC1/2) − λmin(C1/2AC1/2) λmin(C1/2AC1/2) + λmax(C1/2AC1/2)

(13)

Exemple des matrices et pr´ econditionnements SDP

A, C ∈ Mn sym´etriques d´efinies positives.

Soient y = C1/2x, yk = C1/2xk, c = C1/2b on a

C1/2AC1/2

y = c, La matrice C1/2AC1/2 est SDP, et

yk+1 = yk + α

c − C1/2AC1/2yk

Convergence ssi ρ(I − αC1/2AC1/2) < 1

αopt = 2

λmin(C1/2AC1/2) + λmax(C1/2AC1/2)

ρ(I − αoptC1/2AC1/2) = λmax(C1/2AC1/2) − λmin(C1/2AC1/2) λmin(C1/2AC1/2) + λmax(C1/2AC1/2)

(14)

M´ ethode de Richardon pr´ econditionn´ ee ` a pas variable pour les matrices et pr´ econditionnements SDP: algorithme

Soient A et C SDP et le syst`eme Ax = b.

On applique l’algorithme de Richardon `a pas variable au syst`eme C1/2AC1/2y = C1/2b.

Il se formule comme pr´ec´edemment avec la matrice Ae = C1/2AC1/2, le

second membre c = C1/2b, les it´er´es yk = C1/2xk et les r´esidus ˜rk = C1/2rk. En repassant `a A, x, r on obtient:

Choix de la pr´ecision ǫ sur le r´esidu relatif

Initialisation: x1,r1 = b − Ax1,nr = nr0 = kr1k It´erer tant que nrnr0 ≥ ǫ

qk = C1rk pk = Aqk αk = (q

k,rk) (pk,qk)

xk+1 = xk + αkqk rk+1 = rk αkpk nr = krk+1k

(15)

Exemples de pr´ econditionnements

A = D − E − F

avec D diagonale de A (suppos´ee inversible), D − E = tril(A), D − F = triu(A) Jacobi:

C = D Gauss Seidel

C = D − E ou C = D − F SOR (Successive over relaxation) ω ∈ (0, 2)

C = D

ω − E

SSOR (Symmetric Successive over relaxation) ω ∈ (0, 2) C = D

ω − ED

ω − F

Références

Documents relatifs

Donnons un exemple : lors d’un devoir surveill´e comportant deux exercices, vous utilisez trois copies pour le premier exercice et deux copies pour le second.. Vous num´eroterez

Pour l’instant, l’objet fraction poss`ede trois propri´et´es, son num´erateur, son d´enominateur et sa valeur approch´ee (calcul´ee avec le maximum de pr´ecision permise

A doit être à « dominante diagonale » i.e ABS( diagonale )soit être &gt; somme des v.abs des élements sur la ligne pour être sûr de la convergence…... Nous avons vu 2 familles

M´ ethodes

Faire un programme qui calcule l’int´egrale d’une fonction donn´ee `a l’aide de la m´ethode des rectangles, des trap`ezes, de Simpson et de Gauss `a deux points. Tracer le

a diagonale strictement dominante est inversible et la m´ ethode de Jacobi converge pour cette matrice.. Voir les exercices 5 et

Pour cela, on dispose de trois ´equations, qui sont les ´equations d’´equilibre que l’on va formuler en d´eplacements en utilisant la loi de compor- tement et le d´efinition

– L’axiome d’´equilibre impose que, pour tout milieu mat´eriel isol´e, de do- maine Ω, rep´er´e dans un r´ef´erentiel absolu, `a chaque instant et pour tout mouvement