• Aucun résultat trouvé

Etude de la convergence

Dans le document Analyse numérique élémentaire (Page 118-131)

Résolution de systèmes linéaires

3.4 Méthodes itératives

3.4.3 Etude de la convergence

2

Théorème 3.45

SoitAune matrice régulière décomposée sous la formeAM´NavecMrégulière. On pose BM-1N et ccc“M-1bbb.

Alors la suite dénie par

xxxr0sPKn et xxxrk`1sBxxxrks`ccc converge versxxx¯“A-1bbbquelque soitxxxr0s si et seulement siρpBq ă1.

3

Proof. Commexxx¯“A-1bbb(sans présupposer la convergence) on axxx“xxx`bbbet alors

4

¯ x x

x“M-1xxx`M-1bbb“xxx`ccc On obtient donc

5

¯ x

xx´xxxrk`1sBp¯xxx´xxxrksq

Or la suitexxxrks converge versxxx¯ si et seulement si la suiteeeerksdef“xx¯x´xxxrks converge vers000.On a

6

eeerksBkeeer0s, @kPN.

D'après le Théoréme 3.37, page 105, on alimkÑ`8Bkeeer0s “0, @eeer0s PKn si et seulement si ρpBq ă1.

7 8

Corollaire 3.46

SoitA une matrice vériant ai,i‰0@i. Une condition nécessaire de convergence pour la méthode S.O.R. est que0ăwă2.

9

Proof. On a vu en (voir Proposition 3.44, page 111) que ρpLwq ě |w´1|. Donc si ρpLwq ě 1, la

10

non-convergence est certaine d'après le Théoréme 3.37, page 105. Une condition nécessaire (mais non

11

susante) de convergence est que|w´1| ă1 i.e. wPs0,2r.

12

Théorème 3.47

SoitA une matrice à diagonale strictement dominante ou une matrice inversible à diagonale forte-ment dominante alors

• la méthode de Jacobi est convergente,

• siwPs0,1sla méthode de Relaxation est convergente.

13

Proof. voir [7], vol.2, Théorème 19 et 20, pages 346 à 349.

14

Théorème 3.48

Soit A une matrice hermitienne inversible en décomposée en AM´NM est inversible. Soit BI´M-1A, la matrice de l'itération. Supposons que M˚`N(qui est hermitienne) soit dénie positive. AlorsρpBq ă1si et seulement siAest dénie positive.

15

Proof. (voir Exercice 3.4.2, page 113) 1

Méthodes itératives

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.4Algorithmes 113

Exercice 3.4.2

SoitAPMn,npCqune matrice hermitienne inversible décomposée enAM´NMest inversible.

On noteBI´M-1A.

Q. 1 Montrer que la matriceM˚`Nest hermitienne.

On suppose maintenant queM˚`Nest dénie positive.

Q. 2 Soitxxxun vecteur quelconque de Cn etyyy“Bxxx.

1. Montrer que

xxxx,Axxxy ´ xyyy,Ayyyy “@ x

xx,AM-1AxxxD

`@

M-1Axxx,AxxxD

´@

M-1Axxx,AM-1AxxxD

(3.73) et

x x

x´yyy“M-1Axxx. (3.74)

2. En déduire que

xxxx,Axxxy ´ xyyy,Ayyyy “ xpxxx´yyyq,pM˚`Nqpxxx´yyyqy. (3.75) Q. 3 Montrer que siA est dénie positive alorsρpBq ă1.

Q. 4 Démontrer par l'absurde que si ρpBq ă1alors A est dénie positive.

2

Théorème 3.49

SoitAune matrice hermitienne dénie positive, alors la méthode de relaxation converge si et

seule-ment siwPs0,2r. 3

Proof. voir [7], vol.2, Corollaire 24, page 351. 4

3.4.4 Algorithmes

5

Nous allons écrire des algorithmes pour chacune des méthodes itératives proposées. L'objectif n'est pas 6 d'écrire des algorithmes "optimisés" mais de voir la méthodologie permettant la construction d'algorithmes 7

simples et fonctionnels. 8

Principe de base 9

Les méthodes itératives pour la résolution d'un système linéaireAxxx“bbbs'écrivent sous la forme 10 xxxr0sPKn et xxxrk`1sBxxxrks`ccc

La matrice d'itérationB et le vecteurccc sont construits de telle sorte que si la suite pxxxrksqkPN converge 11 versx¯xxalorsxxx¯ est aussi solution du système linéaireAxxx“bbb. 12

Comme pour les méthodes de point xe, La convergence de ces méthodes n'est pas assurées et si il y a 13 convergence le nombre d'itération nécessaire n'est (à priori) pas connu. C'est pourquoi algorithmiquement 14 on utilise une boucle Tantque. On déni alors un nombre maximum d'itérations au delà du quel 15 les calculs itératifs sont stoppés et une valeur ε ą 0 permettant d'arrêter les calculs lorsquexxxrks est 16 susament proche dex¯xx.Pour être plus précis, on noterrrrks“bbb´Axxxrks le résidu. On a alors 17

rrrrksxxx´AxxxrksAeeerks Si on prend comme critère d'arrêt

1

››rrrrks

› }bbb} ďε alors

›eeerks

›“

A-1rrrrks

›ď›

›A-1

›rrrrks

›ďε›

›A-1

›}bbb} “ε›

›A-1

›}A¯xxx} ďε›

›A-1

›}A} }¯xxx} “εcondpAq }¯xxx}

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.4Algorithmes

et donc

2

››eeerks

}¯xxx} ďεcondpAq

Pour éviter des soucis lorsque}bbb} est proche de zéro, on peut utiliser comme critère d'arrêt de

con-3

vergence

4

››rrrrks

› }bbb} `1 ďε.

Comme vu avec les méthodes itératives de type point xe (voir section 2.3.3, page 31), il n'est pas

5

forcément utile de stocker l'intégralité des termes de la suitexxxrkspuisque seul le "dernier" nous intéresse.

6

On a alors L'Algorithme 3.19 correspondant à un algorithme itératif générique sans stockage des valeurs

7

intermédiaires.

8

Algorithme 3.19 Méthode itérative pour la résolution d'un système linéaireAxxx“bbb Données :

A : matrice deMnpKq, bbb : vecteur deKn, xx

x0 : vecteur initial deKn, ε : la tolérence,εPR`,

kmax : nombre maximum d'itérations,kmaxPN˚ Résultat :

x x

xtol : un vecteur deKn si convergence, sinonH

1: kÐ0, xxxtolÐ H

2: xxxÐxxx0, rrrÐbbb´Axxx,

3: tolÐεp}bbb} `1q

4: Tantque }rrr} ątoletkďkmaxfaire

5: kÐk`1

6: pppÐxxx Źpppcontient le vecteur précédent

7: xxxÐcalcul de l'itérée suivante en fonction deppp, A, bbb,...

8: rrrÐbbb´Axxx,

9: Fin Tantque

10: Si}rrr} ďtolalors Ź Convergence

11: xxxtolÐxxx

12: Fin Si

9

Méthode de Jacobi

10

Pour Jacobi, la suite des itérées est dénie par

11

xrk`1si “ 1 aii

˜ bi´

n

ÿ

j“1,j‰i

aijxrksj

¸

, @iP v1, nw.

Cette formule donne explicitement les composantes du vecteurxxxrk`1sen fonction de la matriceA,et des

12

vecteursbbbetxxxrks.A partir de l'Algorithme 3.19, on va construire par ranements successifs la RSLJacobi

13

donnée dans l'Algorithme 3.20. 1

Méthodes itératives

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.4Algorithmes 115

Algorithme3.20 R0

1: kÐ0, xxxtolÐ H

11: Si}rrr} ďtolalors ŹConvergene

12: xxxtolÐxxx

13: FinSi

Algorithme3.20 R1

1: kÐ0, xxxtolÐ H

11: FinTantque

12: Si}rrr} ďtolalors ŹConvergene

13: xxxtolÐxxx

14: FinSi

2

Algorithme3.20 R1

1: kÐ0, xxxtolÐ H

Algorithme3.20 R2

1: kÐ0, xxxtolÐ H

15: FinTantque

16: Si}rrr} ďtolalors

17: xxxtolÐxxx

18: FinSi

3

On peut alors écrire la fonction RSLJacobi :

1

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.4Algorithmes

Algorithme 3.20 Méthode itérative de Jacobi pour la résolution d'un système linéaireAxxx“bbb

Données :

A : matrice deMnpKq, bbb : vecteur deKn, x

x

x0 : vecteur initial deKn, ε : la tolérence,εPR`,

kmax : nombre maximum d'itérations,kmaxPN˚ Résultat :

XX

X : un vecteur deKn

1: FonctionXXXÐ RSLJacobi (A, bbb, xxx0, ε,kmax)

2: kÐ0, XXX Ð H

3: xxxÐxxx0, rrrÐbbb´A˚xxx,

4: tolÐεp}bbb} `1q

5: Tantque }rrr} ątoletkďkmaxfaire

6: kÐk`1

7: pppÐxxx

8: PouriÐ1 ànfaire

9: SÐ0

10: PourjÐ1ànpj‰iqfaire

11: SÐS`Api, jq ˚ppjq

12: Fin Pour

13: xpiq Ð pbpiq ´Sq{Api, iq

14: Fin Pour

15: rrrÐbbb´A˚xxx,

16: Fin Tantque

17: Si}rrr} ďtolalors

18: XXXÐxxx

19: Fin Si

20: Fin Fonction

2

Méthode de Gauss-Seidel

3

Pour Gauss-Seidel, la suite des itérées est dénie par

4

xpk`1qi “ 1 aii

˜ bi´

i´1

ÿ

j“1

aijxrk`1sj ´

n

ÿ

j“i`1

aijxrksj

¸

@iP v1, nw

Cette formule donne explicitement la composanteidu vecteurxxxrk`1s en fonction de la matriceA,et des

5

vecteursbbbetxxxrks,mais aussi desi´1 premières composantes dexxxrk`1s.Contrairement à la méthode de

6

Jacobi, il est impératif de calculer sussessivementxrk`1s1 , xrk`1s2 ,... A partir de l'Algorithme 3.19, on va

7

construire par ranements successifs la RSLGaussSeidel donnée dans l'Algorithme 3.21. 1

Méthodes itératives

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.4Algorithmes 117

Algorithme3.21 R0

1: kÐ0, xxxtolÐ H

Algorithme3.21 R1

1: kÐ0, xxxtolÐ H

11: FinTantque

12: Si}rrr} ďtolalors

13: xxxtolÐxxx

14: FinSi

2 3

Algorithme3.21 R1

1: kÐ0, xxxtolÐ H

Algorithme3.21 R2

1: kÐ0, xxxtolÐ H

18: FinTantque

19: Si}rrr} ďtolalors

20: xxxtolÐxxx

21: FinSi

4

On peut alors écrire la fonction RSLGaussSeidel :

1

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.4Algorithmes

Algorithme 3.21 Méthode itérative de Gauss-Seidel pour la résolution d'un sys-tème linéaire Axxx“bbb

Données :

A : matrice deMnpKq, bbb : vecteur deKn, x

x

x0 : vecteur initial deKn, ε : la tolérence,εPR`,

kmax : nombre maximum d'itérations,kmaxPN˚ Résultat :

XX

X : un vecteur deKn

1: FonctionXXXÐ RSLGaussSeidel (A, bbb, xxx0, ε,kmax)

2: kÐ0, XXX Ð H

3: xxxÐxxx0, rrrÐbbb´A˚xxx,

4: tolÐεp}bbb} `1q

5: Tantque }rrr} ątoletkďkmaxfaire

6: kÐk`1

7: pppÐxxx

8: PouriÐ1 ànfaire

9: SÐ0

10: PourjÐ1ài´1 faire

11: SÐS`Api, jq ˚xpjq

12: Fin Pour

13: PourjÐi`1àn faire

14: SÐS`Api, jq ˚ppjq

15: Fin Pour

16: xpiq Ð pbpiq ´Sq{Api, iq

17: Fin Pour

18: rrrÐbbb´A˚xxx,

19: Fin Tantque

20: Si}rrr} ďtolalors

21: XXXÐxxx

22: Fin Si

23: Fin Fonction

2

Jeux algorithmiques

3

On a bien sûr noté que les fonctions RSLJacobi et RSLGaussSeidel ont la même ossature puisque

4

toutes deux basées sur l'Algorithme 3.19 générique. En eet seule la transcription de la ligne 7 de

5

l'Algorithme 3.19 diére : 1

Méthodes itératives

On va écrire les fonctions algorithmiques IterJacobi et IterGaussSeidel permettant le calcul 3 d'une itérée respectivement pour les méthodes de Jacobi et Gauss-Seidel (voir Algorithmes 3.22 et 3.23). 4

Algorithme 3.22 Itération de Jacobi : calcul dexxxtel que

Algorithme 3.23 Itération de Gauss-Seidel : calcul dexxx tel que

En utilisant ces deux fonctions, les algorithmes de résolutions de systèmes linéaires par les méthodes 6

de Jacobi et Gauss-Seidel peuvent se réécrire sous la forme suivante : 7

FonctionXXXÐ RSLJacobiV2 (A, bbb, xxx0, ε,kmax)

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.4Algorithmes

En programmation, dès que l'on commence à faire des copier/coller1il faut se poser la question : est-il

2

possible de faire sans?

3

La plupart du temps la réponse est oui, et celà permet souvent de simplier, clarier et racourcir le code ce qui simplie grandement sa maitenance. Dans notre cas, on écrit l'Algorithme générique 3.19 sous forme d'une fonction à laquelle on ajoute aux paramètres d'entrées une fonction formelleIterFonc

permettant le calcul d'une itérée : x

xxÐIterFoncpA, bbb, yyyq.

Cette fonction est donc une donnée du problème. On a alors

4

Algorithme 3.24 Méthode itérative pour la résolution d'un système linéaireAxxx“bbb Données :

A : matrice deMnpKq, bbb : vecteur deKn,

IterFonc : fonction de paramètres une matrice d'ordren, : et deux vecteurs deKn.retourne un vecteur deKn. x

x

x0 : vecteur initial deKn, ε : la tolérence,εPR`,

kmax : nombre maximum d'itérations,kmaxPN˚ Résultat :

xx

xtol : un vecteur deKn si convergence, sinonH

1: FonctionXXXÐRSLMethIter (A, bbb,IterFonc, xxx0, ε,kmax)

2: kÐ0, xxxtolÐ H

3: xxxÐxxx0, rrrÐbbb´Axxx,

4: tolÐεp}bbb} `1q

5: Tantque }rrr} ątoletkďkmaxfaire

6: kÐk`1

7: pppÐxxx

8: xxxÐIterFoncpA, bbb, pppq

9: rrrÐbbb´Axxx,

10: Fin Tantque

11: Si}rrr} ďtolalors

12: xxxtolÐxxx

13: Fin Si

14: Fin Fonction

5

En utilisant cette fonction, les algorithmes de résolutions de systèmes linéaires par les méthodes de

6

Jacobi et Gauss-Seidel peuvent se réécrire sous la forme suivante :

7

FonctionXXXÐ RSLJacobiV3 (A, bbb, xxx0, ε,kmax) X

X

XÐRSLMethIterpA, bbb,IterJacobi, xxx0, ε,kmaxq Fin Fonction

FonctionXXXÐ RSLGaussSeidelV3 (A, bbb, xxx0, ε,kmax )

XX

XÐRSLMethIterpA, bbb,IterGaussSeidel, xxx0, ε,kmaxq Fin Fonction

8

Méthode S.O.R.

9

Pour la méthode de relaxation utilisant Gauss-Seidel,avecwPR˚,la suite des itérées est dénie par 1

xrk`1si “ w aii

˜ bi´

i´1

ÿ

j“1

aijxrk`1sj ´

n

ÿ

j“i`1

aijxrksj

¸

` p1´wqxrksi @iP v1, nw

1Opération qui pour un bon programmeur est une chose très fatiguante!

Méthodes itératives

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.5Exercices 121

Algorithme 3.25 Itération S.O.R. : calcul dexxxtel que xi w

aii

˜ bi´

i´1

ÿ

j“1

aijxj´

n

ÿ

j“i`1

aijyj

¸

` p1´wqxi

Données :

A : matrice deMnpKq, b : vecteur deKn, y : vecteur deKn, w : réel non nul.

Résultat :

x : un vecteur deKn

1: FonctionxÐ IterSOR (A,b,y, w)

2: PouriÐ1ànfaire

3: SÐ0

4: PourjÐ1ài´1faire

5: SÐS`Api, jq ˚xpjq

6: Fin Pour

7: PourjÐi`1ànfaire

8: SÐS`Api, jq ˚ypjq

9: Fin Pour

10: xpiq Ðw˚ pbpiq ´Sq{Api, iq ` p1´wq ˚xpiq

11: Fin Pour

12: Fin Fonction

FonctionXXXÐ RSLSORV3 (A, bbb, w, xxx0, ε,kmax) IterFunÐ ppM, rrr, sssq ÞÑIterSORpM, rrr, sss, wqq X

XXÐRSLMethIterpA, bbb,IterFun, xxx0, ε,kmaxq Fin Fonction

2

Une ch'tite remarque 3

Les méthodes itératives que l'on a étudiées sont basées sur l'expression x

x

xrk`1sBxxxrks`ccc Si l'on pose

Φ Φ

Φ :xxxÞÑBxxx`ccc alors

xx

xrk`1s“ΦΦΦpxxxrksq.

Celà vous rappelle-t'il quelque chose? 4

3.4.5 Exercices

5

Exercice 3.4.3

Q. 1 Montrer que pour la matrice

A1

¨

˝

1 2 ´2 1 1 1 2 2 1

˛

la méthode de Jacobi converge, tandis que la méthode de Gauss-Seidel diverge.

Q. 2 Montrer que pour la matrice

A2

¨

˝

2 ´1 1

2 2 2

´1 ´1 2

˛

la méthode de Jacobi diverge, tandis que la méthode de Gauss-Seidel converge.

6

Exercice 3.4.4

1

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.5Exercices

Soit A P MnpCq une matrice hermitienne dénie positive décomposée (par points) sous la forme AD´E´FD“diagpAq,Eest triangulaire inférieure et d'éléments nuls sur la diagonale etF est triangulaire supérieure et d'éléments nuls sur la diagonale.

On étudie une méthode itérative de résolution su système linéaire Axxx “ bbb. Soit xxx0 P Cn, on dénit la suitepxxxkqkPN par

pD´Eqxxxk`1{2Fxxxk`bbb (3.76)

pD´Fqxxxk`1Exxxk`1{2`bbb (3.77)

Q. 1 Ecrire le vecteurxxxk`1 sous la forme

xxxk`1Bxxxk`ccc (3.78)

en explicitant le matrice Bet le vecteurccc.

Q. 2 1. Montrer que

D-1“ pD´Eq´1´D-1EpD´Eq´1. (3.79) 2. Soit pλ, pppq un élément propre de la matriceB. Montrer que

λAppp` pλ´1qED-1Fppp“0. (3.80) Q. 3 En déduire la convergence de cette méthode vers la solutionxxxdeAxxx“bbb.

Q. 4 Etendre ces résultats au cas d'une décomposition AD´E´Fpar blocs.

2

Correction Exercice

3

Q. 1 La matriceD est inversible. En eet, pour toutiP v1, nw, di,i “ai,i “ xAeeei, eeeiy ą0car A dénie

4

positive eteeei, i-ème vecteur de la base canonique est non nul.

5

On en déduit que les matricesD´E (triangulaire inférieure de diagonale la diagonale de D) et D´F

6

(triangulaire supérieure de diagonale la diagonale deD) sont inversibles.

7

De (3.76), on obtient en multipliant à gauche parpD´Eq-1 xxxk`1{2“ pD´Eq-1Fxxxk` pD´Eq-1bbb.

En remplaçant cette expression dexxxk`1{2 dans (3.77), on a

8

pD´Fqxxxk`1E´

pD´Eq-1Fxxxk` pD´Eq-1bbb¯

`bbb

EpD´Eq-1Fxxxk`

´

EpD´Eq-1`I

¯ bbb En multipliant à gauche cette équation parpD´Fq-1, on abouti a

xxxk`1“ pD´Fq-1EpD´Eq-1FxxxkpD´Fq-1

´

EpD´Eq-1`I

¯ bbb En posant

B“ pD´Fq-1EpD´Eq-1F ccc“ pD´Fq-1´

EpD´Eq-1`I¯ bbb on obtient (3.78).

9

Q. 2 1. L'expression à démontrer est bien dénie carD etD´Einversibles. De plus on a I“ pD´EqpD´Eq-1

En multipliant à gauche cette équation parD-1 on obtient 1

D-1D-1pD´EqpD´Eq-1

“ pD´Eq-1´D-1EpD´Eq-1.

Méthodes itératives

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.5Exercices 123

2. Soitpλ, pppqun élément propre de la matriceB.on a alors 2

Bppp“λppp ô pD´Fq-1EpD´Eq-1Fppp“λppp ô EpD´Eq-1Fppp“λpD´Fqppp ô D-1EpD´Eq-1Fppp“λD-1pD´Fqppp De (3.79), on a

D-1EpD´Eq-1 “ pD´Eq-1´D-1

et donc 3

Bppp“λppp ô

´

pD´Eq-1´D-1

¯

Fppp“λD-1pD´Fqppp ô pD´Eq

´

pD´Eq-1´D-1

¯

Fppp“λpD´EqD-1pD´Fqppp ô `

I´I`ED-1˘

Fppp“λpI´ED-1qpD´Fqppp ô ED-1Fppp“λpD´E´F`ED-1Fqppp ô ED-1Fppp“λpA`ED-1Fqppp

On en déduit alors

λAppp` pλ´1qED-1Fppp“0.

Q. 3 La matrice A est inversible car elle est dénie positive et doncxxxest bien dénie. De l'équation (3.76), on déduit

pD´Eqxxxk`1{2Fxxxk`Axxx“Fxxxk` pD´E´Fqxxx

et donc 4

pD´Eqpxxxk`1{2´xxxq “Fpxxxk´xxxq (3.81)

De la même manière à partir de l'équation (3.77), on déduit 5

pD´Fqpxxxk`1´xxxq “Epxxxk`1{2´xxxq (3.82) En utilisant (3.81), l'équation (3.83) devient

pD´Fqpxxxk`1´xxxq “EpD´Eq-1Fpxxxk´xxxq c'est à dire

x x

xk`1´xxx“Bpxxxk´xxxq.

En posanteeek“xxxk´xxxon a alors

eeekBkeee0, @kě0.

Or la suite xxxk converge vers xxx si et seulement si la suite eeek converge vers 000. Pour celà, d'après le 6

Théorème 3.37, page 105, il est nécessaire et susant d'avoirρpBq ă1. 7

Soitpλ, pppqun élément propre deB.Montrons que|λ| ă1. 8

On déduit de l'équation (3.80)

1

0 “ @

ppp, λAppp` pλ´1qED-1FpppD

“ λxppp,Apppy ` pλ´1q@ p p

p,ED-1FpppD

(3.83) Comme la matriceA est dénie positive on axAppp, pppy ą0carppp‰000(vecteur propre) et donc

xppp,Apppy “ xAppp, pppy “ xAppp, pppy ą0.

De plus on a

@ppp,ED-1FpppD

“@

E˚ppp,D-1FpppD .

La matriceAétant hermitienne, on aE˚F.La matriceAétant dénie positive, la matrice diagonaleD est dénie positive car di,i ą0, @iP v1, nw, et doncD-1 aussi. CommeFpppn'est pas nécessairement non nul, on a

@D-1Fppp,FpppD PR`. On en déduit

@Fppp,D-1FpppD

“ xD-1Fppp,Fpppy “@

D-1Fppp,FpppD ě0.

3.Résolutiondesystèmeslinéaires 3.4.Méthodesitératives3.4.5Exercices

De l'équation (3.83), on obtient

λpxppp,Apppy `@

Fppp,D-1FpppD q “@

Fppp,D-1FpppD or

xppp,Apppy `@

Fppp,D-1FpppD

‰0 ce qui donne

λ“ xFppp,D-1Fpppy xppp,Apppy ` xFppp,D-1Fpppy. On a alorsλP r0,1r.

2

Q. 4 Comme la matrice A est hermitienne dénie positive, chaque bloc diadonal l'est aussi. Donc la

3

matrice diagonale bloc D est aussi hermitienne dénie positive ainsi que son inverse . Les résultats

4

précédents sont donc toujours valable.

5

˛

6

1

Dans le document Analyse numérique élémentaire (Page 118-131)