• Aucun résultat trouvé

Introduction aux m ́ethodes it ́eratives

N/A
N/A
Protected

Academic year: 2021

Partager "Introduction aux m ́ethodes it ́eratives"

Copied!
84
0
0

Texte intégral

(1)

Universit´ e Mohamed Seddik Ben Yahia - Jijel

Facult´ e des Sciences Exactes et Informatique D´ epartement de Math´ ematiques

N d’ordre : N de s´ erie :

M´ emoire

Pour l’obtention du diplˆ ome de : Master Sp´ ecialit´ e :Math´ ematiques Appliqu´ ees

Option :EDP et Applications

Th` eme

Introduction aux m´ ethodes it´ eratives

Pr´ esent´ e par :

Benchabane Hayat Belhour Faiza Devant le jury :

Pr´ esident : S.Lounis M.C.B Univ. Jijel Encadreur : I.Kecis M.C.B Univ. Jijel Examinateur : S.Maarouf M.C.B Univ. Jijel

2016-2017

(2)

N os remerciements vont tout premi` erement ` a Dieu tout puissant pour la volont´ e, la sant´ e, et la patience qu’il nous a donn´ e pour terminer ce m´ emoire.

N ous remercions vivement Docteur Ilyas Kecis , enseignant ` a l’universit´ e de Jijel, D’avoir voulu proposer le sujet et assurer la direction de ce m´ emoire, sa disponibilit´ e, son soutien, ses encouragements et ses pr´ ecieux conseils tout au long de ce travail nous

ont beaucoup aid´ e. Nous tenons ` a lui exprimer ici toute notre reconnaissance et tout notre respect.

N ous remercions vivement Madame Sabrina Lounis pour avoir accept´ e de pr´ esider le jury et ´ evaluer ce m´ emoire.

N ous adressons ´ egalement nos sinc` eres remerciements ` a mademoiselle sara maarouf pour avoir bien voulu prendre la responsabilit´ e d’´ evaluer ce travail.

F inalement, nous tenons ` a remercier chaleureusement nos ch´ eres familles pour leur soutien, leur patience, leurs encouragements et tout ce qu’elles ont fait pour nous tout

au long de cette p´ eriode.

Sans oublier de remercier tous les enseignants du d´ epartement de math´ ematiques qui de pr` es ou de loin ont contribu´ e ` a notre formation.

Merci

(3)

J e remercie Dieu de m’avoir donn´ ee la sant´ e pour finir ce travail

J e d´ edie ce modeste travail :

A ma m` ere Rachida, A la m´ emoire de mon p` ere Ahmed qui a fait de moi ce que je suit aujourd’hui.

A leur amour et leurs sacrifices.

A mes fr` eres :Houssem,Mohammed,Karim .

A mes sœurs Adila,Safia et son mari´ e N oro

A toutes la famille benchabane sans exception

A mes amis : Naima ,Nadjma,Faiza,Sara,Meriem,Saida,Houda,Zahra.

Ainsi que tous les coll` egues de ma promotion

A tous qui m’ont aid´ e de pr´ es ou de loin

A tous mes enseignants depuis le primaire jusqu’` a maintenant.

T oxicologie de l’environnement ann´ ee 2016-2017

Hayat

(4)

J e remercie dieu de m’avoir donn´ ee la sant´ e pour finir ce travail

J e d´ edi´ e ce travail :

C elle pour laquelle je ne rendrais jamais assez ma tr` es ch` ere m` ere.

Celui qui repr´ esente pour moi l’exemple de courage de volont´ e et l’´ ecole de la patience mon tr` es ch` ere p` ere.

A mon mari : Imad.

A mes fr` eres : Youcef, Abd Ennour.

A mes sœurs : Ranya, Imene .

A mon binˆ ome Hayat qui a partag´ e avec moi les moments difficiles de ce travail et ` a sa famille.

E t ` a toute ma grande famille.

T out mes amies : Ines, Djahida, Sihem, Houda, Ilhem, Mofida.

T out la promotion : MI 2016-2017.

E t ` a tous qui ne sont chers.

Faiza

(5)

Introduction iii

1 Pr´ eliminaires 1

1.1 Quelques d´ efinitions et propri´ et´ es sur les matrices . . . . 2

1.2 Valeurs et vecteurs propres . . . . 3

1.3 Normes matricielles . . . . 5

1.4 Matrices d´ efinies positives . . . . 7

2 M´ ethodes it´ eratives 9 2.1 Notations et d´ efinitions . . . . 9

2.1.1 Point fixe . . . . 10

2.1.2 la consistance . . . . 11

2.1.3 La convergence . . . . 11

2.2 M´ ethodes it´ eratives lin´ eaires . . . . 13

2.2.1 Trois formes normales . . . . 13

2.2.2 R´ esultats de convergence . . . . 16

2.2.3 Choix d’un test d’arrˆ et . . . . 20

2.2.4 It´ erations ` a deux termes . . . . 22

2.3 M´ ethodes it´ eratives classiques . . . . 23

2.3.1 It´ eration de Richardson . . . . 23

2.3.2 It´ eration de Jacobi, Gauss-Seidel et relaxation . . . . 32

2.3.3 Convergence de Jacobi, Gauss-Seidel et relaxation . . . . 36

3 Alg` ebre des it´ erations lin´ eaires. 39 3.1 It´ eration adjointe, sym´ etrique et d´ efinie positive . . . . 39

3.1.1 It´ eration adjointe . . . . 39

3.1.2 It´ erations sym´ etriques . . . . 42

3.1.3 It´ erations d´ efinies positives . . . . 44

3.2 It´ erations lin´ eaires damped . . . . 46

3.2.1 L’it´ eration damped de Jacobi . . . . 48

3.3 Addition des it´ erations lin´ eaires . . . . 48

i

(6)

3.4 Produit (compos´ ee) des it´ erations . . . . 51

3.4.1 D´ efinitions et propri´ et´ es . . . . 51

3.4.2 Construction d’it´ erations sym´ etriques . . . . 54

3.5 Transformation (pr´ econditionnement) . . . . 57

3.5.1 Transformation ` a gauche . . . . 57

3.5.2 Transformation ` a droite . . . . 60

3.5.3 Transformation centr´ ee . . . . 62

4 Analyse des it´ erations d´ efinies positives 64 4.1 Diff´ erents cas de positivit´ e . . . . 64

4.2 Analyse de convergence . . . . 68

4.2.1 Cas 1, Cas 2 et Cas 3 . . . . 68

4.2.2 Cas 4 : W + W

H

ou N + N

H

d´ efinie positive . . . . 70

4.2.3 Cas 5 :It´ eration sym´ etrique Φ

sym

. . . . 72

4.2.4 Cas 6 : d´ ecomposition hermitienne de A . . . . 73

Bibliographie 75

(7)

Les m´ ethodes it´ eratives ont presque 200 ans. La premi` ere m´ ethode it´ erative pour les syst` emes des ´ equations lin´ eaires est due ` a Carl Friedrich Gauss [16]. Sa m´ ethode des moindres carr´ es a conduit ` a un grand syst` eme des ´ equations o` u la m´ ethode de l’´ elimination de Gauss ne peut pas ˆ etre appliqu´ ee. Vingt ans plus tard, Carl Gustav Jacobi [12] a d´ ecrit une m´ ethode tr` es similaire ` a celle de Gauss. En 1874, Philips Lundwig Seidel [13], un ´ etudiant de Jacobi, a ´ ecrit ´ egalement sur une m´ ethode it´ erative pour r´ esoudre des

´

equations dues ` a la m´ ethode des moindres carr´ ees.

Un syst` eme lin´ eaire de n ´ equations et n inconnus x

i

 

 

a

11

x

1

+ a

12

x

2

+ . . . + a

1n

x

n

= b

1

, .. .

a

n1

x

1

+ a

n2

x

2

+ . . . + a

nn

x

n

= b

n

s’´ ecrit sous la forme Ax = b. Ces syst` emes lin´ eaires interviennent dans un grand nombre de probl` emes num´ eriques, par exemple

(a) L’approximation des solutions des EDP, que ce soit par les diff´ erences finies ou par les ´ el´ ements finis. Le probl` eme model se donne par l’´ equation de la chaleur. Dans ce cas, les syst` emes lin´ eaires sont des variantes discr` etes de probl` emes continus.

( −∆u(x, y) = f (x, y) sur Ω ⊂ R

2

,

u(x, y) = 0 sur ∂Ω (1)

(b) les probl` emes d’interpolation, lorsque l’on cherche ` a approcher une fonction connue seulement ` a un nombre fini de n points par un polynˆ ome P

n

. le Calcul de P

n

revient

`

a r´ esoudre un syst` eme de n equations.

(c) Les probl` emes d’optimisation qui utilisent les moindres carr´ ees.

Les algorithmes de r´ esolutions des syst` emes lin´ eaires se classent en trois grandes cat´ egories : les m´ ethodes directes (´ el´ emination de Gauss, factorisation de Cholesky, etc), les m´ ethodes it´ eratives (Jacobi, Gauss-seidel, etc) et les m´ ethodes projectives (gradient conjugu´ e, etc).

Les m´ ethodes directes sont les plus efficaces parce qu’elles fournissent la solution exacte en un nombre fini d’it´ erations. La strat´ egie est de transformer le syst` eme Ax = b en deux syst` emes dont les matrices sont triangulaires o` u la r´ esolution est particuli` erement simple.

Les m´ ethodes directes ont l’inconv´ enient de n´ ecessiter une assez grande place de m´ emoire.

elles deviennent coˆ uteuses en temps et en m´ emoire lorsque la taille du syst` eme est ´ elev´ ee.

iii

(8)

L’utilisation des m´ ethodes it´ eratives a tendance ` a s’imposer avec l’augmentation de la puissance des ordinateurs. Le principe consiste ` a construire une suite des solutions approch´ ees convergent vers la solution exacte. Ces m´ ethodes s’appliquent surtout aux syst` emes dont la matrice est creuse (contient beaucoup de z´ ero) ce qu’est le cas dans les syst` emes issus d’une discr´ etisation par ´ el´ ements finis ou diff´ erences finies. En g´ en´ eral, les m´ ethodes it´ eratives ne permettent pas d’obtenir la solution exacte, n´ eanmoins, chaque it´ eration donne une meilleure approximation de la solution. On s’arrˆ ete d´ es que la pr´ ecision (condition d’arrˆ et) d´ esir´ ee est atteinte.

Ce m´ emoire est constitu´ e de quatre chapitres :

On commence par un chapitre introductif qui rappelle et pr´ esente les r´ esultats fondamen-

taux du calcul matriciel ainsi que les notions et les th´ eor` emes utilis´ es pour d´ emontrer

les r´ esultats des autres chapitres. On aborde dans le deuxi` eme chapitre les m´ ethodes

it´ eratives lin´ eaires en donnant les propri´ et´ es majeures notamment la consistance et la

convergence. On pr´ esente ´ egalement une ´ etude d´ etaill´ ee sur les quatre it´ erations les plus

fr´ equentes Richardson, Jacobi, Gauss-Seidel et la relaxation. L’ensemble des it´ erations

lin´ eaires forme un alg` ebre, sur lequel, plusieurs op´ erations sont d´ efinies. L’´ etude de ces

op´ erations fait l’objet du chapitre 3. Le dernier chapitre est consacr´ e ` a donner quelques

crit` eres de convergence sur les it´ erations lin´ eaires qui poss` edent certaines propri´ et´ es de

positivit´ e.

(9)

Pr´ eliminaires

Ce chapitre introductif a pour but de rappeler les r´ esultats fondamentaux de l’analyse matricielle que l’on va utiliser dans les autres chapitres. Selon les probl` emes qui se posent plus tard, on est amen´ e ` a utiliser un grand nombre d’outils diff´ erents que l’on accepte sans d´ emonstration. Pour plus d’information on se r´ ef` ere ` a [17, 18].

Notation

• K le corps R ou C .

• A

T

, A

H

respectivement, la matrice transpos´ ee et hermitienne de A.

• A

−T

= (A

T

)

−1

, A

−H

= (A

H

)

−1

.

• h·, ·i produit scalaire.

• k · k

2

norme euclidienne.

• hx, yi

A

= hAx, yi.

• k · k

A

norme associ´ ee ` a h·, ·i

A

.

• k · k

norme infini.

• | · | valeur absolue dans R (module dans C ).

• λ

max

(A) plus grande valeur propre de A.

• λ

min

(A) plus petite valeur propre de A.

• ρ(A) rayon spectral de la matrice A.

• spec (A) spectre de la matrice A.

• Cond (A) conditionnement de A.

• D(Φ) domaine de d´ efinition de l’it´ eration Φ.

• det(A) determinant de A.

• Re(z) partie r´ eelle de z ∈ C .

• M

N

( K ) l’espace des matrices.

• ker(A) noyau de A.

• L ensemble des it´ eration lin´ eaires et consistantes.

• L

pos

ensemble des it´ erations d´ efinies positives.

1

(10)

• L

semi

ensemble des it´ erations semi-d´ efinies positives.

• L

sym

ensemble des it´ erations sym´ etriques.

• L

>0

ensemble des it´ erations directement d´ efinies positives

• N = {0, 1, 2, 3, . . .}.

• resp. : respectivement.

• P

n

ensemble des polynˆ ome dont le degr´ e ≤ n.

1.1 Quelques d´ efinitions et propri´ et´ es sur les ma- trices

Dans tous les chapitres M

pq

( K ), p, q ∈ N est l’espace vectoriel sur le corps K form´ e par les matrices de taille p (lignes) ×q (colonnes), ` a ´ el´ ements dans K . Dans les cas o` u les corps des scalaires peut ˆ etre choisi indiff´ eremment ´ egal ` a R ou C , on le d´ esignera par K . D´ efinition 1.1.1 Soit A = (a

ij

) ∈ M

pq

( K ), on d´ efinit la transpos´ ee et l’adjointe de A respectivement par

A

T

:= (a

ji

)

ji

, A

H

:= (a

ji

)

ji

. Si K = R alors A

H

= A

T

.

Lemme 1.1.2 les propri´ et´ es suivantes ont lieu

(A

T

)

T

= A, (A + B)

T

= A

T

+ B

T

, (λA)

T

= λA

T

, λ ∈ K (AB)

T

= B

T

A

T

, (A

−1

)

T

= (A

T

)

−1

(A + B)

H

= A

H

+ B

H

, (λA)

H

= λA

H

, λ ∈ K (AB)

H

= B

H

A

H

, (A

−1

)

H

= (A

H

)

−1

la d´ efinition suivante donne les classes des matrices tr` es couramment utilis´ ees que ce soit dans l’analyse num´ erique ou dans l’alg` ebre.

D´ efinition 1.1.3

(a) Une matrice A = (a

ij

) ∈ M

N

( K ) est dite :

(1) diagonale si a

ij

= 0 pour tout i 6= j. Dans ce cas, on note A = diag (a

11

, a

22

, . . . , a

nn

), (2) identit´ e si elle est diagonale et a

ii

= 1, ∀i. On la note I

N

= diag(1, 1, . . . , 1),

(3) triangulaire sup´ erieure si a

ij

= 0 pour tout i > j, (4) triangulaire inf´ erieure si a

ij

= 0 pour tout i < j, (5) sym´ etrique si K = R et A = A

T

,

(7) hermitienne si K = C et A = A

H

,

(8) orthogonale si K = R et AA

T

= A

T

A = I

N

,

(11)

(9) unitaire si K = C et AA

H

= A

H

A = I

N

, (10) Normale si AA

H

= A

H

A.

(b) les matrices A et B commutent si

AB = BA.

(c) Les matrices A, B ∈ M

N

( K ) sont dites semblable s’il existe une matrice r´ eguli` ere T , telle que

A = T

−1

BT.

Si T est unitaire, les matrices A et B sont dites unitairement semblables.

D´ efinition 1.1.4 L’application h·, ·i : K

N

× K

N

→ K d´ efinie par hx, yi =

( y

T

x = P

N

i=1

x

i

y

i

si K = R y

H

x = P

N

i=1

x

i

y

i

si K = C

est appel´ ee produit scalaire euclidien si K = R et hermitien si K = C . On a aussi hAx, yi = hx, A

H

yi.

Matrice inversible

D´ efinition 1.1.5 On dit que la matrice carr´ ee A de taille N est inversible ou r´ eguli` ere s’il existe une matrice B de taille N telle que AB = BA = I

N

. La matrice B est appel´ ee inverse de A et on note A

−1

. De plus

(AB)

−1

= B

−1

A

−1

, (A

T

)

−1

= (A

−1

)

T

, (A

H

)

−1

= (A

−1

)

H

. Th´ eor` eme 1.1.6 Soit A ∈ M

N

( K ), les propri´ et´ es suivantes sont ´ equivalentes

(a) A est r´ eguli` ere (inversible), (b) rang (A) = N ,

(c) det(A) 6= 0,

(d) Ax = 0 si et seulement si x = 0,

(e) pour tout b ∈ K

N

: Ax = b poss` ede une unique solution.

(e) ker A = {0}.

1.2 Valeurs et vecteurs propres

D´ efinition 1.2.1

(a) On dit que λ ∈ K est une valeur propre de A s’il existe x 6= 0 tel que Ax = λx. Le

(12)

vecteur x est le vecteur propre associ´ e ` a λ. L’ensemble de toutes les valeurs propres est appel´ e le spectre de A not´ e par spec (A). On a

spec (A

T

) = spec (A) et spec (A

H

) = { ¯ λ : λ ∈ spec (A)}.

(b) Le rayon spectral de A que l’on note ρ(A) se donne par ρ(A) := max{|λ| : λ ∈ spec (A)}

Le rayon spectral v´ erifi´ e les propri´ et´ es suivantes

ρ(ζA) = |ζ|ρ(A) ∀ζ ∈ K , ∀A ∈ M

N

( K ), ρ(A

k

) = (ρ(A))

k

∀k ∈ N

et , ∀A ∈ M

N

( K ),

ρ(A) = ρ(B) ∀A, B ∈ M

N

( K ),

ρ(A) = ρ(A

H

) = ρ(A

T

) ∀A ∈ M

N

( K ), ρ(AB) = ρ(BA)∀A ∈ M

M N

( K ), B ∈ M

N M

( K ).

Th´ eor` eme 1.2.2

(a) Les valeurs propres des matrices semblables A et B co¨ıncident spec (A) = spec (B).

(b) Soit P

n

∈ P

n

, alors

spec (P

n

(A)) = {P

n

(λ) : λ ∈ spec (A)}.

D´ ecomposition de Schur

Pour une matrice arbitraire, on peut prouver qu’elle est unitairement semblable ` a une matrice triangulaire, comme l’affirme le r´ esultat suivant.

Th´ eor` eme 1.2.3 (voir [17])

(a) Pour toute matrice A ∈ M

N

( K ), il existe une matrice unitaire U ∈ M

N

( K ) et une matrice triangulaire sup´ erieure R telles que

A = U RU

H

Les ´ el´ ement diagonaux de R sont les valeurs propres de A.

(b) Si A est normale alors, il existe D diagonale et U unitaire telles que A = U DU

H

avec D = diag (λ

i

), λ

i

∈ spec (A).

(c) Si de plus, A est hermitienne alors, on a la mˆ eme d´ ecomposition que (b) avec

λ

i

∈ R .

(13)

Th´ eor` eme 1.2.4 Soient A, B deux matrices normales alors, A et B commutent si et seulement si il existe une matrice unitaire Q telle que

Q

H

AQ = diag {λ

i

}, Q

H

BQ = diag {µ

i

}. (1.1) o` u λ

i

∈ spec (A) et µ

i

∈ spec (B).

1.3 Normes matricielles

D´ efinition 1.3.1 Une norme matricielle est une application k · k : M

M N

( K ) → R telle que pour toutes A, B ∈ M

M N

( K ) on a

(1) kAk ≥ 0 et kAk = 0 si et seulement si A = 0, (2) kαAk = |α|kAk, ∀α ∈ K

(3) kA + Bk ≤ kAk + kBk (in´ egalit´ e triangulaire),

(4) kABk ≤ kAkkB k, A ∈ M

M N

( K ), BA ∈ M

M P

( K )( norme multiplicative).

D´ efinition 1.3.2 On dit qu’une norme matricielle k·k est compatible ou consistante avec une norme vectorielle k · k

si

kAxk

≤ kAkkxk

, ∀x ∈ R

N

, ∀x ∈ K

M

, A ∈ M

N M

( K ) Proposition 1.3.3 L’application k · k d´ efinie sur M

N M

( K ) par

kAk = sup

v∈KM−{0}

kAvk

kv k

= sup

kvk≤1

kAvk = sup

kvk=1

kAvk,

est une norme matricielle appel´ ee la norme matricielle subordonn´ ee ou induite par la norme vectoriel.

Lemme 1.3.4

(a) Les valeurs propres d’une matrice hermitienne sont r´ eelles.

(b)

spec (A

H

A) ⊂ R

+

. Preuve.

Soient λ ∈ spec (A

H

A) et x 6= 0 le vecteur propre associ´ e ` a λ.

(a)

hAx, xi = hx, A

H

xi = hx, Axi ⇒ hλx, xi = hx, λxi

⇒ λkxk

2

= λkxk

2

⇒ λ = λ ⇔ λ ∈ R . (b)

kAxk

2

= hAx, Axi = hA

H

Ax, xi = hλx, xi = λkxk

2

> 0 ⇒ λ > 0.

(14)

Proposition 1.3.5 Soit A ∈ M

N

( C ). On a kAk

1

= max

1≤j≤n n

X

i=1

|a

ij

|,

kAk

2

= p

ρ(A

H

A) = p

ρ(AA

H

) = kA

H

k

2

, kAk

= max

1≤i≤n n

X

j=1

|a

ij

|.

Conditionnement

D´ efinition 1.3.6 Soit k·k une norme matricielle subordonn´ ee. Pour toute matrice inver- sible A ∈ M

N

( C ), on appelle conditionnement de A relativement ` a la norme matricielle k · k le nombre

cond(A) = kA

−1

kkAk.

Th´ eor` eme 1.3.7 Soit A ∈ M

N

( C ) une matrice inversible, nous avons les propri´ et´ es suivantes

(a) Cond (A) = Cond (A

−1

) et Cond (αA) = Cond (A) pour tout α ∈ K − {0}, (b) Si A est une matrice normale, on a

Cond

2

(A) = λ

max

(A)/λ

min

(A).

Proposition 1.3.8 Soient A ∈ M

N

( K ) et k · k une norme consistante, alors (a)

ρ(A) ≤ kAk. (1.2)

(b)

m→+∞

lim kA

m

k

m1

= ρ(A). (1.3) (c) Soient A ∈ M

N

( K ) et ε > 0. Il existe une norme matricielle consistante k · k

A,ε

(d´ ependant de ε) telle que

kAk

A,ε

≤ ρ(A) + ε (1.4)

Ainsi, pour une tol´ erance fix´ ee aussi petite que voulue, il existe toujours une norme matri- cielle telle que la norme de A soit arbitrairement proche du rayon spectral de A, c’est-` a-dire

ρ(A) = inf

k·k

kAk.

l’infimum ´ etant pris sur l’ensemble de toutes les normes consistantes.

Th´ eor` eme 1.3.9 Soit A ∈ M

N

( K ), alors

m→∞

lim kA

m

k = 0 ⇔ ρ(A) < 1

n

X

k=0

A

k

converge et

X

k=0

A

k

= (I − A)

−1

(15)

1.4 Matrices d´ efinies positives

D´ efinition 1.4.1

Une matrice A ∈ M

N

( K ) est dite

(a) d´ efinie positive, si A = A

H

et hAx, xi > 0 pour tout x ∈ K

N

− {0}, (b) semi-d´ efinie positive, si A = A

H

et hAx, xi ≥ 0 pour tout x ∈ K

N

, (c) d´ efinie n´ egative, si −A est d´ efinie positive

(d) semi-d´ efinie n´ egative, si −A est semi-d´ efinie n´ egative.

Notation

On ´ ecrit A > 0 pour toute matrice d´ efinie positive A. On ´ ecrit ´ egalement A ≥ 0, A < 0 et A ≤ 0 respectivement, pour exprimer les d´ efinitions (b)-(d).

Les termes (semi) d´ efinie positive et (semi) d´ efinie n´ egative (semi-d´ efinie n´ egative) d´ efinissent un ordre partial sur l’ensemble des matrices hermitiennes. Ce qui justifie la d´ efinition sui- vante

D´ efinition 1.4.2

Pour toutes matrices hermitiennes A et B, on d´ efinit

A > B ⇔ A − B > 0 ⇔ A − B est d´ efinie positive .

A ≥ B, A < B et A ≤ B sont d´ efinies de fa¸con similaire. Toute in´ egalit´ e de la forme A > B implique implicitement que les deux matrices A et B sont hermitiennes.

Lemme 1.4.3 (voir Lemme C2 [5])

Soient A, B ∈ M

N

( K ), les propri´ et´ es suivantes ont lieu

A > 0 ⇔ CAC

H

> 0 ∀C ∈ M

N

( K ) r´ eguli` ere , (1.5) A > B ⇔ CAC

H

> CBC

H

∀C ∈ M

N

( K ) r´ eguli` ere , (1.6) A ≥ 0 ⇔ CAC

H

≥ 0 ∀C ∈ M

N

( K ), (1.7) A ≥ B ⇔ CAC

H

≥ CBC

H

∀C ∈ M

N

( K ), (1.8) A ≥ B ⇔ C

H

AC ≥ C

H

BC ∀C ∈ M

N

( K ), (1.9)

A, B ≥ 0 ⇒ A + B ≥ 0, (1.10)

A, B ≥ 0 ⇒ A + B > 0 si A > 0 ou B > 0, (1.11) A > 0 ⇔ ζA > 0 ∀ζ > 0, (1.12) ζI ≤ A ≤ ξI ⇔ spec (A) ⊂ [ζ, ξ] si A hermitienne , (1.13)

−ξ ≤ A ≤ ξ ⇔ kAk

2

≤ ξ si A hermitienne , (1.14)

A ≥ B > 0 ⇔ 0 < A

−1

≤ B

−1

. (1.15)

(16)

Lemme 1.4.4 A > 0 (resp. A ≥ 0) si et seulement si la matrice A est hermitienne, et toutes les valeurs propres de A sont strictement positives (resp. positive).

Corollaire 1.4.5 La matrice A

H

A est d´ efinie positive.(Il suffit d’utiliser Lemme 1.3.4 et le fait que A

H

A est hermitienne)

Lemme 1.4.6

(a) Toute matrice d´ efinie positive est r´ eguli` ere.

(b)

A > 0 ⇔ A

−1

> 0.

(c) Soit A = (a

ij

)

i,j

∈ M

N

( K ) alors

A > 0 ⇒ a

ii

> 0 et A ≥ 0 ⇒ a

ii

≥ 0 i = 1 · · · N. (1.16) Par cons´ equent, diag {a

ii

} est d´ efinie positive (semi-d´ efinie positive)

Lemme 1.4.7

(a) 0 ≤ A ≤ B implique que kAk

2

≤ kBk

2

et ρ(A) ≤ ρ(B).

(b) 0 ≤ A < B implique que kAk

2

< kBk

2

et ρ(A) < ρ(B).

Remarque 1.4.8 Si les matrices A et B sont d´ efinies positives (semi-d´ efinie positive), le produit AB n’a que des valeurs propres strictement positives ( positives).

Th´ eor` eme 1.4.9 (voir Th´ eor` eme 1.7 [17])

(a) Pour toute matrice(semi) d´ efinie positive A, il existe une et une seule matrice B qui soit (semi) d´ efinie postive et qui v´ erifie B

2

= A. On l’appelle la racine carr´ ee de A et on la note A

12

. Pour son inverse on utilise la notation A

12

= (A

−1

)

12

.

(b) A

12

commute avec A et tout polynˆ ome de A.

(c) A

12

est l’unique solution (semi) d´ efinie positive de l’´ equation matricielle X

2

= A o` u A est (semi) d´ efinie positive.

D´ efinition 1.4.10 Soit A une matrice d´ efinie positive, on d´ efinit le produit scalaire as- soci´ e ` a A par

hx, yi

A

:= hAx, yi. (1.17) La norme associ´ ee ` a h·, ·i

A

est

kxk

A

= p

hAx, xi = q

hA

12

x, A

12

xi = kA

12

xk

2

. (1.18) La norme matricielle induite par k · k

A

est

kBk

A

= kA

12

BA

−12

k. B ∈ M

N

( K ). (1.19)

(17)

M´ ethodes it´ eratives

Dans ce chapitre, on ´ etudie les propri´ et´ es fondamentales des m´ ethodes it´ eratives no- tamment la consistance et la convergence. Une ´ etude d´ etaill´ ee a ´ et´ e ´ etablie sur les quatre it´ erations de base : Richardson, Jacobi, Gausse-Seidel et la relaxation.

2.1 Notations et d´ efinitions

Au cours de ce travail, on cherche ` a r´ esoudre le syst` eme

Ax = b (2.1)

o` u A ∈ M

N

( K ) est une matrice suppos´ ee r´ eguli` ere afin de garantir la solvabilit´ e de (2.1) pour tout b ∈ K

N

.

D´ efinition 2.1.1 Une m´ ethode it´ erative (non n´ ecessairement lin´ eaire) est une applica- tion

Φ : K

N

× K

N

× K

N×N

→ K

N

(x, b, A) →Φ(x, b, A).

On note x

m

= x

m

(x

0

, b, A), m ∈ N , les it´ er´ es g´ en´ er´ es par la m´ ethode Φ ` a partir d’une condition (valeur) initiale x

0

∈ K

N

. La suite g´ en´ er´ ee se donne par

( x

0

(y, b, A) := y,

x

m+1

(y, b, A) := Φ(x

m

(y, b, A), b, A), m ≥ 0. (2.2) Parfois, on ´ ecrit

x

m+1

:= Φ(x

m

, b, A), m ≥ 0 (2.3)

Remarque 2.1.2 L’´ ecriture Φ(x, b, A) signifie que la m´ ethode Φ est d´ ependante et ap- plicable aux donn´ ees (data) A et b. Ici, le mot ”applicable” dit que l’it´ eration Φ est bien

9

(18)

d´ efinie (mˆ eme si la suite (x

m

) est divergente). Comme la matrice A est suppos´ ee fix´ ee dans la plus part des cas, on ´ ecrit souvent x

m+1

(y, b) := Φ(x

m

(y, b), b). Par Φ(·, ·, A), on exprime le fait que l’it´ eration (2.2) est appliqu´ ee exclusivement ` a la matrice A.

D´ efinition 2.1.3

(a) D(Φ) := {A : Φ(·, ·, A) est bien d´ efinie} est le domaine de d´ efinition de Φ.

(b) Une it´ eration est dite ”alg´ ebrique” si la d´ efinition de Φ(·, ·, A) est bas´ ee seulement sur les donn´ ees de A ∈ D(Φ).

2.1.1 Point fixe

Les m´ ethodes it´ eratives de la r´ esolution du syst` eme Ax = b s’´ ecrivent en g´ en´ erales sous la forme x = Φ(x), ce qui repr´ esente une m´ ethode de point fixe.

D´ efinition 2.1.4 Un point x

= x

(b, A) est dit point fixe de l’it´ eration Φ correspondant

`

a b ∈ K

N

et A ∈ D(Φ) si : x

= Φ(x

, b, A).

Le lemme suivant donne une relation entre le point fixe de Φ et la suite g´ en´ er´ ee par (2.2).

Lemme 2.1.5 supposons que Φ soit continue par rapport ` a la premi` ere variable. Si lim

m−→∞

x

m

(y, b, A) =: x

existe, alors x

= Φ(x

, b, A).

Preuve.

On a

x

m+1

= Φ(x

m

, b, A) si

x

m

→ x

⇒ x

m+1

→ x

alors

m→+∞

lim x

m+1

= lim

m→+∞

Φ(x

m

, b, A) Φ est continue, donc

m→+∞

lim x

m+1

= Φ( lim

m→+∞

x

m

, b, A) d’o` u

x

= Φ(x

, b, A)

donc x

est un point fixe de Φ(·, b, A).

(19)

2.1.2 la consistance

Le Lemme 2.1.5 dit que les r´ esultats possibles d’une m´ ethode it´ erative doivent ˆ etre cherch´ ees dans l’ensemble des points fixes. En effet, les approximations x

m

de la solution x sont consistantes de fa¸con qu’elles convergent vers une limite x

qui se consid` ere (sous certaines conditions) comme la solution du syst` eme. Ce point x

, d’apr` es le dernier lemme, appartient ` a l’ensemble des points fixes. Cette relation entre la solution et le point fixe fait l’objet de la d´ efinition suivante.

D´ efinition 2.1.6 On dit qu’une m´ ethode it´ erative Φ est consistante si pour tous b ∈ K

N

et A ∈ D(Φ) : toute solution du syst` eme Ax = b est un point fixe de Φ(·, b, A).

Remarque 2.1.7 Selon la D´ efinition 2.1.6, la consistance signifie que pour tous b, x ∈ K

N

et toute matrice A ∈ D(Φ), l’implication suivante est satisfaite

Ax = b ⇒ x = Φ(x, b, A).

L’implication inverse donne une forme alternative (non ´ equivalente) de la consistance, et r´ epond ` a la question : est-ce-que chaque point fixe est une solution ?, c’est-` a-dire :

∀x un point fixe de Φ ⇒ ∀b ∈ K

N

, ∀A ∈ D(Φ) : Ax = b. (2.4) Notons que les deux variantes de consistantes ci-dessus, n’exigent pas la r´ egularit´ e de A.

Mˆ eme si la matrice A n’est pas r´ eguli` ere (singuli` ere), le syst` eme Ax = b peut avoir une solution pour certain b ∈ K

N

. Alors, la D´ efinition 2.1.6 implique l’existence d’un point fixe de Φ(·, b, A). Vice versa, (2.4) assure l’existence d’une solution d´ es que Φ(·, b, A) admet un point fixe.

2.1.3 La convergence

Une d´ efinition naturelle de la convergence d’une m´ ethode it´ erative Φ semble d’ˆ etre

m→+∞

lim x

m

(y, b, A) existe pour tous y, b ∈ K

N

. (2.5) O` u x

m

(y, b, A) est la suite g´ en´ er´ ee par (2.3) et li´ ee ` a la valeur initiale x

0

:= y, tandis que A ∈ D(Φ) est une matrice fix´ ee. D’apr` es cette d´ efinition, la m´ ethode it´ erative peut converger vers des limites diff´ erentes selon la valeur initiale y qu’est choisie arbitrairement dans K

N

. Il est donc int´ eressant de donner une d´ efinition plus forte rendant la convergence ind´ ependante de la condition initiale.

D´ efinition 2.1.8 Soit A ∈ D(Φ) fix´ ee.

La m´ ethode it´ erative Φ(·, ·, A) est dite convergente si pour tout b ∈ K

N

, il existe une limite

x

(b, A) de (2.3) ind´ ependamment de la premi` ere variable (condition initiale).

(20)

Remarque 2.1.9 Dans tout ce qui suit, on suppose souvent que la m´ ethode it´ erative est consistante et convergente dans le sens : Φ consistante pour toute matrice A ∈ D(Φ) et l’it´ eration particuli` ere Φ(·, ·, A) associ´ ee ` a A est convergente.

Th´ eor` eme 2.1.10 On suppose que Φ soit continue par rapport ` a la premi` ere variable, alors

Φ est consistante et convergente si et seulement si A r´ eguli` ere et Φ v´ erifie (2.4) et (2.5).

Preuve.

(i) La propri´ et´ e (2.5) d´ ecoule de la D´ efinition 2.1.8. Supposons que A soit singuli` ere, alors l’´ equation Ax = 0 admet une autre solution y

6= 0 avec la solution trivial x

= 0. La consistance implique que x

et y

sont des points fixes de Φ par rapport ` a b = 0. On d´ efinit les deux suites constantes

x

m

(x

, 0, A) = Φ(x

, 0, A) = x

x

m

(y

, 0, A) = Φ(y

, 0, A) = y

d’apr` es la d´ efinition de la convergence on obtient x

= y

, ce qui contredit l’hypoth` ese x

6= y

. Il nous reste qu’` a montrer (2.4). La d´ efinition de la convergence montre que Φ ne peut avoir qu’un seul point fixe par rapport ` a b (il suffit de prendre deux suites avec deux valeurs initiales diff´ erentes). La r´ egularit´ e de A assure l’existence et l’unicit´ e de la solution de Ax = b, il d´ ecoule de la consistance que cette solution est le seul point fixe de Φ par rapport ` a b, ce qui traduit (2.4).

(ii) Soit x

m

(y, b) la suite g´ en´ er´ ee par l’it´ eration Φ. D’apr` es le Lemme 2.1.5 x

:= lim

m→+∞

x

m

(y, b) est un point fixe de Φ par rapport ` a b,

la propri´ et´ e (2.4) implique que ce point fixe est une solution de syst` eme Ax = b. De plus cette solution est unique selon la r´ egularit´ e de A. Comme ce point est la limite de x

m

(y, b), alors cette suite poss` ede seulement une limite ind´ ependante de y, ce qui traduit la convergente au sens de la D´ efinition 2.1.8.

La convergence implique l’unicit´ e du point fixe par rapport ` a b selon la premi` ere impli- cation (i), et par (2.4) ce point fixe est l’unique solution de Ax = b, ce qui ´ etablit la consistance de Φ.

Remarque 2.1.11 La consistance n’est pas suffisante pour assurer la convergence.

Exemple 2.1.12 consid´ erons le syst` eme

2Ix = b (A = 2I ).

(21)

On veut r´ esoudre ce syst` eme avec la m´ ethode it´ erative ( x

m+1

= Φ(x

m

, b, A) = −x

m

+ b

x

0

= 0. (2.6)

Soit x la solution de Ax = b, est-ce que Φ(x, b, A) = x ?

Φ(x, b, A) = −x + b = −x + Ax = −x + 2x = x, donc (2.6) est consistante.

D’autre part

x

2m+1

= −x

2m

+ b = x

2m−1

− b + b, ∀m = 1, 2, 3, . . .

⇒ x

2m+1

= x

2m−1

, m = 1, 2, 3, . . . et

x

2(m+1)

= x

2m+2

= −x

2m+1

+ b = x

2m

− b + b

⇒ x

2(m+1)

= x

2m

, m = 0, 1, 2, . . . ce qui implique

( x

2m+1

= x

2m−1

= x

1

= b x

2m+2

= x

2m

= x

0

= 0 alors

x

m

=

( b si m est impair 0 si m est pair, d’o` u (x

m

) est divergente.

2.2 M´ ethodes it´ eratives lin´ eaires

2.2.1 Trois formes normales

Premi` ere forme normale

D´ efinition 2.2.1 (L’it´ eration lin´ eaire, la matrice d’it´ eration)

Une m´ ethode it´ erative Φ est dite lin´ eaire si Φ(x, b) est lin´ eaire par rapport ` a (x, b), de fa¸ con plus pr´ ecise, s’il existe deux matrices M et N telle que

Φ(x, b, A) = M [A]x + N [A]b. (2.7)

Dans la plupart des cas, A est suppos´ ee fix´ ee, on ´ ecrit alors

Φ(x, b) = M x + N b. (2.8)

La matrice M = M [A] est appel´ ee la matrice d’it´ eration de Φ.

(22)

Φ est lin´ eaire en (x, b), en effet, on prend (x, b) et (y, c) ∈ k

2N

associ´ es aux syst` emes Ax = b et Ay = c, alors

Φ((x, b) + (y, c)) = Φ(x + y, b + c) = M(x + y) + N(b + c)

= (M x + N b) + (M y + N c) = Φ(x, b) + Φ(y, c).

De plus, pour α ∈ K , on a

Φ(α(x, y)) = Φ(αx, αy) = M (αx) + N (αy)

= αM x + αN y = α(M x + N y) = αΦ(x, y).

L’it´ eration (2.3) s’´ ecrit sous la forme (2.9) qui repr´ esente la premi` ere forme normale de la m´ ethode Φ.

x

m+1

= Φ(x

m

, b, A) = M x

m

+ N b, m ≥ 0. (2.9) Notation 2.2.2 On note M

XY

la matrice d’it´ eration d’une m´ ethode it´ erative appel´ ee

0

XY

0

. Lorsque Φ doit ˆ etre pr´ eciser, on note M

Φ

.

Remarque 2.2.3 L’it´ eration Φ(·, ·, A) est alg´ ebrique au sens (b) de la D´ efinition 2.1.3 si et seulement si les matrices M et N sont des fonctions explicites de A.

Consistance et deuxi` eme forme normale

Pour une m´ ethode it´ erative lin´ eaire et consistante Φ, toute solution du syst` eme Ax = b est un point fixe par rapport ` a b, avec x = M x+N b. Chaque x ∈ K

N

peut ˆ etre une solution du syst` eme Ax = b (en prenant b := Ax), alors

x = M x + N b = M x + N Ax = (M + N A)x, ∀x ∈ K

N

, (2.10) ce qui conduit ` a

M [A] + N [A]A = I, (2.11)

o` u, bri` evement

M + N A = I. (2.12)

Th´ eor` eme 2.2.4 (La consistance)

Une it´ eration lin´ eaire Φ est consistante si et seulement si la matrice d’it´ eration M peut ˆ

etre d´ etermin´ ee ` a partir de N par

M [A] = I − N [A]A , ∀A ∈ D(Φ), (2.13)

de plus, si A est r´ eguli` ere alors N se repr´ esente en fonction de M

N [A] = (I − M[A])A

−1

. (2.14)

(23)

Preuve

⇒) ´ Evident(d’apr` es la d´ efinition (2.11)).

⇐) Soit x ∈ K

N

: Ax = b. Supposons que la matrice d’it´ eration M s’´ ecrive sous la forme M [A] = I − N [A]A pour toute A ∈ D(Φ).

On a

M[A] = I − N [A]A ⇒ M [A]x = x − N [A]Ax, ∀x ∈ K

N

⇒ x = M [A]x + N [A]b

⇒ x = Φ(x, b).

La combinaison de (2.13) dans (2.9) donne

x

m+1

= M [A]x

m

+ N [A]b

= (I − N [A]A)x

m

+ N [A]b d’o` u

x

m+1

= x

m

− N [A](Ax

m

− b), m > 0. (2.15) L’it´ eration (2.15) s’appelle la deuxi` eme forme normale de Φ dont la matrice de la deuxi` eme forme normale est

N = N [A] = N

Φ

= N

Φ

[A].

Remarque 2.2.5 La deuxi` eme forme normale associ´ ee au syst` eme Ax = b se d´ etermine seulement via la matrice N [A]. Ce qui permet ` a l’it´ eration (2.15), avec N choisie arbi- trairement dans M

n

( K ), de repr´ esenter toutes les it´ erations lin´ eaires et consistantes. On note

L = {Φ : K

N

× K

N

× K

N×N

→ K

N

lin´ eaire et consistance} (2.16) Troisi` eme forme normale

La troisi` eme forme normale d’une it´ eration lin´ eaire s’´ ecrit comme suit

W [A](x

m

− x

m+1

) = Ax

m

− b, m ≥ 0. (2.17) W = W [A] = W

Φ

= W

Φ

[A] est appel´ ee la matrice de la troisi` eme forme normale de Φ.

L’it´ eration (2.17) donne une forme implicite de x

m+1

, elle peut s’´ ecrire sous la forme du probl` eme

( r´ esoudre W δ = Ax

m

− b

avec δ = x

m

− x

m+1

(2.18)

cela, repr´ esente une d´ efinition de x

m+1

sous une condition de r´ egularit´ e de W .

(24)

Remarque 2.2.6 Si la matrice W est r´ eguli` ere, alors

x

m

− x

m+1

= W [A]

−1

(Ax

m

− b) ⇒ x

m+1

= x

m

− W [A]

−1

(Ax

m

− b),

une comparaison avec la deuxi` eme forme normale donne N = W

−1

. D’autre part, (2.15) avec N r´ eguli` ere peut s’´ ecrire sous la forme de (2.17) avec W = N

−1

. Dans ce cas

M [A] = I − N [A] = I − W [A]

−1

A. (2.19) L’it´ eration lin´ eaire x

m+1

(x

0

, b, A) = Φ(x

m

(x

0

, b, A), b, A) donne une relation r´ ecurrente entre x

m+1

et x

m

, cela nous oblige ` a passer par tous les it´ er´ es x

m

, i = 0, m, afin que l’on puisse calculer x

m+1

. La repr´ esentation suivante donne une formule explicite de la suite (x

m

) permettant de calculer chaque it´ er´ e x

m

directement ` a partir de x

0

et b.

Th´ eor` eme 2.2.7 L’it´ eration lin´ eaire (2.9) se donne par

x

m

(x

0

, b, A) = M [A]

m

x

0

+

m−1

X

k=0

M [A]

k

N [A]b pour m ≥ 0 et A ∈ D(Φ). (2.20) Preuve

On proc` ede par r´ ecurrence.

Pour m = 0, on a

M [A]

0

x

0

+

0−1

X

k=0

M [A]

k

N [A]b = x

0

= x

0

(x

0

, b, A).

Supposons que (2.20) soit vraie pour m − 1. D’apr` es la formule (2.8) x

m

(x

0

, b, A) = M [A]x

m−1

+ N [A]b

= M [A] M [A]

m−1

x

0

+

m−2

X

k=0

M [A]

k

N [A]b

+ N [A]b

= M [A]

m

x

0

+

m−1

X

k=1

M [A]

k

N [A]b + N [A]b

= M [A]

m

x

0

+

m−1

X

k=0

M [A]

k

N [A]b.

2.2.2 R´ esultats de convergence

L’id´ ee de base des m´ ethodes it´ eratives est de construire une suite (x

m

) telle que

lim

m

x

m

= x (2.21)

(25)

o` u x est la solution du syst` eme Ax = b. Comme la solution exacte n’est ´ evidemment pas connue, on est oblig´ e de calculer une valeur approximative x

m

de x d´ etermin´ ee par un crit` ere d’arrˆ et plus commode (par exemple |x − x

m

| < ε, o` u ε est une tol´ erance fix´ ee).

Cela conduit ` a des erreurs dans le calcul de la solution. Dans la suit, on note

e

m

= x

m

− x o` u x est la solution de Ax = b (2.22) l’erreur ` a l’it´ eration m.

La condition (2.21) revient ` a lim

m

e

m

= 0 pour toute valeur initiale x

0

.

On suppose que la m´ ethode soit consistante, alors x = M x + N b o` u x d´ efini dans (2.22).

En combinant avec (2.9), on obtient

x

m+1

− x = M x

m

− M x = M (x

m

− x), donc

e

m+1

= M e

m

, m ≥ 0. (2.23)

Par cons´ equent

e

m

= M

m

e

0

, m ≥ 0. (2.24)

La quantit´ e r

m

:= Ax − b (ou r

m

= b − Ax

m

) repr´ esente le r´ esidu ` a l’it´ eration m.

Le th´ eor` eme suivant donne le crit` ere fondamental de convergence des m´ ethodes it´ eratives lin´ eaires (condition n´ ecessaire et suffisante).

Th´ eor` eme 2.2.8 (Th´ eor` eme de convergence)

L’it´ eration lin´ eaire (2.9) est convergente si et seulement si

ρ(M [A]) < 1. (2.25)

Preuve

Supposons que l’it´ eration (2.9) soit convergente. Dans la formule (2.20), on prend b = 0, alors x

m

(x

0

, 0, A) = M [A]

m

x

0

pour tout x

0

∈ K

N

. En particulier x

m

(0, 0, A) = 0, ce qui entraine la convergence de x

m

(0, 0, A) vers 0. En tenant compte de la d´ efinition de la convergence, on obtient

lim

m

x

m

(x

0

, 0, A) = 0, ∀x

0

∈ K

N

. (2.26) Supposons que ρ(M[A]) ≥ 1, alors, il existe λ ∈ spec(M ) : |λ| ≥ 1 et x ∈ K

N

− {0} : M x = λx.

Le choix x

0

= x donne x

m

(x

0

, 0, A) = λ

m

x

0

qui ne peut pas converger vers 0 (car |λ| ≥ 1).

Ce qui contredit (2.26).

R´ eciproquement, supposons que ρ(M [A]) < 1. Il r´ esulte du Th´ eor` eme 1.3.9 que

m→∞

lim M

m

x

0

= 0,

(26)

tandis que le Th´ eor` eme 1.3.9 implique X

m≥0

M

m

= (I − M [A])

−1

, grˆ ace ` a la repr´ esentation (2.20), (x

m

)

m

converge vers

x

= (I − M [A])

−1

N [A]b. (2.27)

Par cons´ equent, l’it´ eration (2.9) est convergente grˆ ace ` a l’ind´ ependance de sa limite x

de la valeur initiale x

0

.

Lemme 2.2.9 Soit Φ ∈ L d´ efinie par Φ(x, b, A) = x − N

Φ

(Ax − b), avec A r´ eguli` ere.

Si ker(N

Φ

) 6= {0}, alors Φ est divergente.

Preuve

Soit x 6= 0 tel que N

Φ

x = 0 (c’est-` a-dire x ∈ ker(N

Φ

)). Comme A est r´ eguli` ere, alors Ax 6= 0. Posons 0 6= y := A

−1

x, donc

M

Φ

y = (I − N

Φ

A)(y) = y − N

Φ

Ay = y − N

Φ

x = y,

alors λ = 1 est une valeur propre de M

Φ

, par cons´ equent ρ(M

Φ

) ≥ 1. Il r´ esulte du Th´ eor` eme 2.2.8 que Φ est divergente.

Corollaire 2.2.10

(a) Si la m´ ethode it´ erative Φ(x, b) = M [A]x + N [A]b est convergente, alors la suite g´ en´ er´ ee (x

m

) converge vers (I − M )

−1

N b.

(b) Si l’it´ eration est consistante et convergente, alors A et N = N [A] sont r´ eguliers, de plus, la suite g´ en´ er´ ee x

m

converge vers l’unique solution x = A

−1

b.

Preuve

(b) Montrons par l’absurde. Supposons que A ou N soit singuli` ere, le produit N A l’est aussi. Alors, il existe x 6= 0 tel que N Ax = 0. Comme M = I−N A (grˆ ace ` a la consistance), x est un vecteur propre de M associ´ e ` a la valeur propre λ = 1. Donc ρ(M) ≥ 1 ce qui contredit la convergence.

D’autre part, on a x

m+1

= x

m

−N (Ax

m

−b) avec A et N inversibles, de plus (x

m

) converge vers (I − M )

−1

N b, donc

(I − M )

−1

N b = (I − M)

−1

N b − N A(I − M )

−1

N b − b

⇒ N A(I − M)

−1

N b = N b

⇒ (I − M )

−1

N b = A

−1

b

c’est-` a-dire, (x

m

) converge vers l’unique solution de Ax = b.

(27)

D´ efinition 2.2.11 On dit que la convergence d’une m´ ethode it´ erative Φ est monotone par rapport ` a une norme (induite) k · k si kM

Φ

k < 1.

Le crit` ere de convergence ρ(M) < 1 donn´ e par le Th´ eor` eme 2.2.8 ne fournit aucune conclusion ou estimation concernant l’erreur e

m

= x

m

− x pour certain m fix´ e. La formule de l’erreur (2.24) est donn´ ee via la norme matricielle kM k, ce qui rend cette norme un crit` ere alternatif de convergence. L’in´ egalit´ e (1.4) permet d’´ etablir une condition suffisante de convergence.

Th´ eor` eme 2.2.12 Soit k · k une norme matricielle consistante. Une condition suffisante de la convergence d’une it´ eration est

kM k < 1. (2.28)

De plus

ke

m+1

k ≤ kM kke

m

k et ke

m

k ≤ kM k

m

ke

0

k. (2.29) Preuve

D’apr` es (1.2), on a ρ(M ) ≤ kM k, alors comme kMk < 1, on obtient ρ(M ) < 1, ce qui implique la convergence d’apr` es le Th´ eor` eme 2.2.8. D’apr` es (2.23), on a

e

m+1

= M e

m

, donc

ke

m+1

k = kM e

m

k ≤ kM kke

m

k.

D’autre part, on a

e

m

= M

m

e

0

. Alors

ke

m

k = kM

m

e

0

k ≤ kM

m

kke

0

k ≤ kMkkM k...kM kke

0

k = kM k

m

ke

0

k.

Remarque 2.2.13 D’apr` es l’in´ egalit´ e (2.29), il est important que kM k soit assez petit pour assurer une vitesse de convergence tr` es rapide de e

m

vers 0. L’in´ egalit´ e (1.4) montre que l’on peut remplacer la petitesse de kM k par celle de ρ(M ), c’est-` a-dire, la convergence est d’autant plus rapide que ρ(M ) est petit. Alors, une estimation de ρ(M ) peut fournir une bonne indication sur la convergence. La d´ efinition suivant introduit d’autres quantit´ es utiles ` a l’´ etude de la convergence.

D´ efinition 2.2.14 Soit M = M [A] la matrice d’it´ eration, on appelle (a) kMk le facteur de convergence ` a l’it´ eration m.

(b) kM

m

k

m1

le facteur moyen de convergence ` a l’it´ eration m

(c) R

m

(M ) =

−1m

log kM

m

k le taux moyen de convergence ` a l’it´ eration m.

(28)

Le calcul de ces quantit´ es est tr` es coˆ uteux car il requiert l’´ evolution de M

m

. On pr´ ef` ere donc en g´ en´ eral estimer le taux de convergence asymptotique d´ efini par

R(M ) = lim

k→∞

R

k

(M ) = − log ρ(M ) o` u on a utilis´ e (1.3).

2.2.3 Choix d’un test d’arrˆ et

Les m´ ethode directes donnent la solution du syst` eme dans un nombre fini des it´ erations, tandis que les m´ ethodes it´ eratives g´ en` erent une suite de solutions approch´ ees. Ce processus it´ eratif doit avoir un crit` ere permettant d’estimer si on est proche de la solution d´ esir´ ee.

Cela nous conduit ` a d´ efinir ce que l’on appelle le test d’arrˆ et. Le test naturel consiste

`

a arrˆ eter le processus lorsque l’erreur est assez petite avec une certaine tol´ erance ε > 0, c-` a-d kx − x

m

k < ε o` u x est la solution. Comme la solution est inconnue, on va d´ efinir deux type de tests : un test bas´ e sur l’incr´ ement

kx

m+1

− x

m

k ≤ ε et un autre bas´ e sur le r´ esidu

kAx

m

− bk ≤ ε

La proposition suivante donne le comportement de l’erreur selon le test choisi.

Proposition 2.2.15 Soit x

m+1

= Φ(x

m

, b, A) = M x

m

+N b une m´ ethode it´ erative consis- tante, alors

(a) Si kAx

m

− bk ≤ ε alors

kx

m

− xk ≤ kA

−1

kε et kx

m

− xk

kxk ≤ Cond (A) ε kbk . (a) Si kx

m

− x

m−1

k ≤ ε alors

kx

m

− xk ≤ k(I − M )

−1

kε et kx

m

− xk

kxk ≤ Cond (I − M ) ε kN bk . Preuve.

(a) On a

kx

m

− xk = kA

−1

(Ax

m

− b)k ≤ kA

−1

kkAx

m

− bk ≤ kA

−1

kε de plus

kx

m

− xk ≤ kA

−1

kε = kA

−1

kkbk

kbk ε

Ax=b

≤ kA

−1

kkAk kbk kxkε

= Cond (A)

kbk kxkε

(29)

(b) La m´ ethode ´ etant consistante alors, selon (2.13)

M x = x − N Ax = x − N b ⇒ N b = x − M x. (2.30) On a

x

m

− x = (I − M

−1

)(I − M )(x

m

− x) = (I − M )

−1

(x

m

− M x

m

+ M x − x)

(2.30)

= (I − M )

−1

(x

m

− M x

m

− N b) = (I − M )

−1

(x

m

− x

m+1

) donc

kx

m

− xk ≤ k(I − M )

−1

kkx

m+1

− x

m

k ≤ k(I − M )

−1

kε.

Remarque 2.2.16 Il est clair que le test d’arrˆ et bas´ e sur le r´ esidu d´ epend du condition- nement de A, alors il est d´ econseill´ e de l’utiliser si la matrice A est mal conditionn´ ee.

L’absence d’accumulation des erreurs d’arrondi se consid` ere comme un avantage pour les m´ ethodes lin´ eaires, o` u on peut utiliser l’it´ er´ e x

m

ou une valeur voisine e x

m

dans l’it´ eration Φ. Ce r´ esultat est justifi´ e par la proposition suivante

Proposition 2.2.17 On consid` ere l’it´ eration Φ(x

m

, b, A) = M x

m

+ N b avec kM k ≤ λ <

1, alors pour tout ε > 0 et toute suite ( e x

m

) v´ erifiant k x e

m+1

− (M x

m

+ N b)k ≤ ε on a k x e

m+1

− xk ≤ λ

m+1

kx

0

− xk + ε

1 − λ (2.31)

Preuve.

Tout d’abord, on a

m−1

X

i=0

λ

i

= 1 − λ

m

1 − λ

m−1

X

i=0

λ

i

≤ 1 1 − λ On utilise la r´ ecurrence sur m pour d´ emontrer que

kx

m

− xk ≤ λ

m

kx

0

− xk + ε

m−1

X

i=0

λ

i

l’in´ egalit´ e est clair pour m = 0. Supposons qu’elle est vraie pour m, alors kx

m+1

− xk

(2.30)

= kM x

m

+ N b − M x − N bk = kM (x

m

− x)k

≤ kM kkx

m

− xk ≤ λkx

m

− xk

≤ λ

m+1

kx

0

− xk + ε

m

X

i=1

λ

i

Références

Documents relatifs

A doit être à « dominante diagonale » i.e ABS( diagonale )soit être &gt; somme des v.abs des élements sur la ligne pour être sûr de la convergence…... Nous avons vu 2 familles

Un peu plus subtile, ne modifie pas b, donc on peut utiliser la même décomposition pour tout vecteur b, donne A-1 et les vecteurs propres.. Gauss Jordan (pivot

En g´en´eral, celui-ci n’est pas connu avec une pr´ecision infinie car il peut y avoir des erreurs de mesures et car la pr´ecision des instruments et de l’ordinateur n’est

La loi hydraulique permettant de calculer le d´ ebit s’´ enonce Q = α∆P , o` u Q est le d´ ebit du tuyau, ∆P la diff´ erence des pressions en entr´ ee et sortie et α est

a diagonale strictement dominante est inversible et la m´ ethode de Jacobi converge pour cette matrice.. Voir les exercices 5 et

Mass transportation methods] [Cordero-Erausquin, Gangbo, Houdr´ e], [Cordero-Erausquin, Nazaret, Villani], [Agueh, Ghoussoub, Kang].. Existence and

Matrice de Van Der Monde et polynˆ omes d’in- terpollation de Lagrange.. Soient a

En principe, r´ esoudre un syst` eme lin´ eaire, c’est montrer qu’il n’a pas de solution, ou alors en exhiber une r´ esolution (en justifiant). En pratique, on applique la m´