• Aucun résultat trouvé

M´ ethode de Richardson

N/A
N/A
Protected

Academic year: 2022

Partager "M´ ethode de Richardson"

Copied!
10
0
0

Texte intégral

(1)

M´ ethode de Richardson

Soit A ∈ Mn inversible et b ∈ Rn. Soit x ∈ Rn solution de Ax = b.

M´ethode de Richardson: soit α ∈ R, on construit une suite de solution xk de la forme

xk+1 = xk + α(b − Axk).

On a donc

(xk+1 − x) = (I − αA)(xk − x), (xk+1 − x) = (I − αA)k(x1 − x),

B = (I − αA)

Convergence: ssi ρ(B) < 1

Taux de convergence: kBkk1/k → ρ(I − αA)

(2)

M´ ethode de Richardon pour les matrices SDP

Soit A ∈ Mn SDP (Sym´etrique D´efinie Positive) et λi > 0, i = 1,· · · , n ses valeurs propres par ordre croissant

ρ(I − αA) = max

|1 − αλ1|,|1 − αλn| αopt = argminαRmax

|1 − αλ1|, |1 − αλn| αopt = 2

λ1 + λn, ρ(I − αoptA) = λn − λ1

λ1 + λn = κ − 1

κ + 1 < 1 Probl`eme: on ne connait pas les valeurs propres de A

Voir Exercice: M´ethode de Richardson `a pas variable

(3)

M´ ethode de Richardon pour les matrices SDP

Nombre d’it´erations pour une pr´ecision fix´ee:

kxk+1 − xk2

ρ(I − αoptA)k

kx1 − xk2, kxk+1 − xk2 ≤ κ − 1

κ + 1 k

kx1 − xk2,

On cherche le nb d’it´eration k pour atteindre une pr´ecision ǫ, ie κ − 1

κ + 1 k

≤ ǫ,

k ≥ ln(1ǫ) ln(11+κ11 κ

) Pour κ grand:

k >

∼ κ

2 ln(1 ǫ )

(4)

M´ ethode de Richardon ` a pas variable pour les matrices SDP

Soit A ∈ Mn SDP (Sym´etrique D´efinie Positive).

On pose ek = x − xk, rk = Aek = b − Axk, et on consid`ere l’algorithme it´eratif: x1 donn´e et pour k = 1,· · ·



αk = (rk,rk) (Ark,rk), xk+1 = xk + αk rk. On montre que

αk = ArgminαR(Aek+1, ek+1) = α2(Ark,rk) − 2α(rk, rk) + (Aek,ek), et

(Aek+1, ek+1) =

1 − (rk,rk)2

(Ark,rk)(A1rk,rk)

(Aek, ek),

d’o`u

(Aek+1,ek+1) ≤

1 − 1

Cond2(A)

(Aek,ek)

(5)

M´ ethode de Richardon ` a pas variable pour les matrices SDP: algorithme

Ax = b avec A matrice SDP

Choix de la pr´ecision ǫ sur le r´esidu relatif

Initialisation: x1,r1 = b − Ax1,nr = nr0 = kr1k It´erer tant que nrnr0 ≥ ǫ

pk = Ark αk = (r

k,rk) (pk,rk)

xk+1 = xk + αkrk rk+1 = rk αkpk nr = krk+1k

(6)

M´ ethode de Richardon pr´ econditionn´ ee

Pr´econditionnement: matrice C ∈ Mn inversible

xk+1 = xk + αC1(b − Axk) (xk+1 − x) = (I − αC1A)(xk − x)

B = (I − αC1A) On cherche un pr´econditionnement C tel que

C ∼ α A ie ρ(I − αC1A) << 1

le syst`eme Cy = r est peu coˆuteux `a r´esoudre

(7)

Exemple des matrices et pr´ econditionnements SDP

A,C ∈ Mn sym´etriques d´efinies positives.

Soient y = C1/2x, yk = C1/2xk, c = C1/2b on a

C1/2AC1/2

y = c, La matrice C1/2AC1/2 est SDP, et

yk+1 = yk + α

c − C1/2AC1/2yk

Convergence ssi ρ(I − αC1/2AC1/2) < 1

αopt = 2

λmin(C1/2AC1/2) + λmax(C1/2AC1/2)

ρ(I − αoptC1/2AC1/2) = λmax(C1/2AC1/2) − λmin(C1/2AC1/2) λmin(C1/2AC1/2) + λmax(C1/2AC1/2)

(8)

Exemple des matrices et pr´ econditionnements SDP

A,C ∈ Mn sym´etriques d´efinies positives.

Soient y = C1/2x, yk = C1/2xk, c = C1/2b on a

C1/2AC1/2

y = c, La matrice C1/2AC1/2 est SDP, et

yk+1 = yk + α

c − C1/2AC1/2yk

Convergence ssi ρ(I − αC1/2AC1/2) < 1

αopt = 2

λmin(C1/2AC1/2) + λmax(C1/2AC1/2)

ρ(I − αoptC1/2AC1/2) = λmax(C1/2AC1/2) − λmin(C1/2AC1/2) λmin(C1/2AC1/2) + λmax(C1/2AC1/2)

(9)

M´ ethode de Richardon pr´ econditionn´ ee ` a pas variable pour les matrices et pr´ econditionnements SDP: algorithme

Soient A et C SDP et le syst`eme Ax = b.

On applique l’algorithme de Richardon `a pas variable au syst`eme C1/2AC1/2y = C1/2b.

Il se formule comme pr´ec´edemment avec la matrice Ae = C1/2AC1/2, le

second membre c = C1/2b, les it´er´es yk = C1/2xk et les r´esidus ˜rk = C1/2rk. En repassant `a A, x, r on obtient:

Choix de la pr´ecision ǫ sur le r´esidu relatif

Initialisation: x1,r1 = b − Ax1,nr = nr0 = kr1k It´erer tant que nrnr0 ≥ ǫ

qk = C−1rk pk = Aqk αk = (q

k,rk) (pk,qk)

xk+1 = xk + αkqk rk+1 = rk αkpk nr = krk+1k

(10)

Exemples de pr´ econditionnements

A = D − E − F

avec D diagonale de A (suppos´ee inversible), D − E = tril(A), D − F = triu(A) Jacobi:

C = D Gauss Seidel

C = D − E ou C = D − F SOR (Successive over relaxation) ω ∈ (0, 2)

C = D

ω − E

SSOR (Symmetric Successive over relaxation) ω ∈ (0, 2) C = D

ω − ED

ω − F

Références

Documents relatifs

Ecrire le processus it´ eratif de Newton pour cette ´ equation.. quel est dans ce cas l’ordre de convergence de la

On peut alors choisir comme matrice de pr´econditionnement une matrice L voisine de B T en effectuant ce que l’on appelle une d´ecomposition de Cholesky incompl`ete qui consiste `a

Le syst` eme admet un d´ eterminant diff´ erent de 0 (il vaut − 34), il admet donc une unique solution qui est la solution nulle (et on n’a pas besoin des formules de Cramer

Examen d’analyse num´ erique.. Aucun document n’est

On se propose de trouver un point o` u le minimum de J est atteint `a l’aide de

La permutation de cartes entre des cases adjacentes (not´ ee H ), ou entre la derni` ere case d’une ligne et la premi` ere de la ligne suivante (not´ ee S ) coˆ ute 1 euro et celle

[r]

La formule (8) peut ˆ etre utilis´ ee pour n &gt; 1, le calcul de y 1 se faisant par exemple en utilisant la m´ ethode