• Aucun résultat trouvé

Résolution des Systèmes Linéaires par les Méthodes de type Lanczos : Etude Théorique, Algorithmique et Applications

N/A
N/A
Protected

Academic year: 2021

Partager "Résolution des Systèmes Linéaires par les Méthodes de type Lanczos : Etude Théorique, Algorithmique et Applications"

Copied!
131
0
0

Texte intégral

(1)

Rabat

Faculté des Sciences, 4 Avenue Ibn Battouta B.P. 1014 RP, Rabat – Maroc Tel +212 (0) 37 77 18 34/35/38, Fax : +212 (0) 37 77 42 61, http://www.fsr.ac.ma

N° d’ordre 2782

THÈSE DE DOCTORAT

Présentée par

ESGHIR Mustapha

Discipline : Mathématiques Appliquées

Spécialité : Mathématiques Appliquées

Titre

Résolution des systèmes linéaires par les méthodes de type Lanczos:

Etude théorique, Algorithmique et Applications

Soutenue le 10/07/2015

Devant le jury

Présidente :

Souad EL BERNOUSSI : Professeur (PES), Faculté des Sciences, Rabat

Examinateurs :

Abderrahim BENAZZOUZ : Professeur (PES), ENS, Rabat

Said EL HAJJI

: Professeur (PES), Faculté des Sciences, Rabat

Rachid SADAKA

: Professeur (PES), ENS, Rabat

Aziz SOULHI : Professeur (PES), ENSMR, Rabat

Invité(e)s :

Mouna ESSAOUINI : Professeur assistant, Faculté des sciences, Eljadida

Abdelatif EL GHAZI : Professeur assistant, Université International, Rabat

(2)

Ce travail a ´et´e effectu´e au laboratoire Math´ematiques, Informatique et Applications de la Facult´e des Sciences de Rabat, sous la direction du Professeur Said EL HAJJI.

Je tiens tout d’abord `a remercier chaleureusement mon directeur de th`ese Said EL HAJJI, Professeur de l’enseignement sup´erieur, d’avoir accept´e de diriger ce travail de recherche. Je lui exprime ma plus profonde gratitude et mes vifs remerciements de m’avoir remotiv´e quand le besoin s’en est fait ressentir. Ses qualit´es scientifiques, p´edagogiques et humaines continueront toujours `a m’inspirer.

Mes remerciements vont aussi `a tous les membres du jury pour l’int´erˆet qu’ils ont bien voulu porter `a ce travail de th`ese : Je suis tr`es reconnaissant envers Madame Souad EL BERNOUSSI, professeur de l’enseignement sup´erieur `a la Facult´e des Sciences de Rabat, d’avoir accept´e d’honorer cette th`ese par la pr´esidence de son jury.

Je remercie Monsieur Abderrahim BENAZZOUZ, professeur de l’enseignement su-p´erieur `a l’Ecole Normale Susu-p´erieure de Rabat, d’avoir accept´e d’ˆetre membre de jury. Je le remercie ´egalement de me faire l’honneur d’examiner ce travail.

Je remercie tr`es vivement Monsieur le Professeur Rachid SADAKA professeur de l’enseignement sup´erieur `a l’Ecole Normale Sup´erieure de Rabat, de m’avoir honor´e en acceptant la tˆache de rapporteur et d’avoir consacr´e une partie de son temps pour juger ce travail.

Je tiens `a remercier le Professeur Aziz SOULHI professeur de l’enseignement sup´erieur `a l’Ecole Nationale Sup´erieure des Mines de Rabat pour l’int´erˆet qu’il a port´e `a mon travail et d’avoir consacr´e une partie de son temps pour rapporter cette th`ese et de participer `a ce jury.

(3)

Je remercie sinc`erement Abdelatif EL GHAZI Professeur assistant `a l’Universit´e International de Rabat qui m’a fait l’honneur d’accepter d’ˆetre membre du jury.

Je remercie ´egalement tous mes coll`egues. Leurs encouragements et soutien moral m’ont ´et´e tr`es utiles.

(4)

Mes parents

A tous les membres de ma famille

A Mes professeurs, mes amis et mes coll`egues

(5)

Nom et Pr´enom de l’auteur : ESGHIR Mustapha

Titre de la th`ese : R´esolution des syst`emes lin´eaires par les m´ethodes de type Lanczos : Etude th´eorique, Algorithmique et Applications

Directeur de la th`ese : Professeur EL HAJJI Said Sp´ecialit´e : Math´ematiques Appliqu´ees

Ce travail a donn´e lieu aux r´esultats suivants (publications, communications,...) :

Publications :

1. M. Esghir, O. Ibrihich, M. Essaouini and S. El Hajji, Transfer function matrices of state-space models, Applied Mathematical Sciences, Vol. 9, no. 19, 935-948, 2015.

2. Y. Louartassi, M. Esghir, E. El Mazoudi and N. Elalami, Global Stabilization of a Fish Population System Using Criteria Sample of Stability, Int. J. Advance. Soft Comput. Appl., Vol. 5, No. 2, ISSN 2074-8523, 2013.

3. M. Esghir and N. Elalami, New Implementation for Nonsymmetric Lanczos Me-thod, Applied Mathematical Sciences, Vol. 7, no. 49, 2407 - 2419, 2013.

4. M. Esghir, Y. Louartassi and N. Elalami, New Algorithm for computing Transfert Function from State Equation, Applied Mathematical Sciences, Vol. 7, no. 24, 1171-1182, 2013.

5. M. Esghir, Birecursive Interpolation Algorithm, A Formalism for solving Systems of Linear Equations, Applied Mathematical Sciences, Vol. 7, no. 24, 1157-1169, 2013.

(6)

1. M. Esghir, S. El Hajji, Solving large linear systems with multiple right hand sides, Congr`es MOCASIM, FST, Marrakech, 2014.

2. M. Esghir, S. El Hajji, New convergence results on the Lanczos method Workshop, Ecole de recherche CIMPA EDPs Non Lin´eaires et Applications, 2014.

3. M. Esghir, N. Elalami, New implementation for nonsymmetric Lanczos method Congr`es International du Laboratoire Euro-Maghr´ebin de Math´ematiques et de leurs Interactions, ENIM,Rabat, 2013.

4. M. Esghir, N. Elalami : New algorithm for computing transfer function from state equation, 3rd International Conference, SM2A, Marrakesh, 2012.

5. M. Esghir, A. Messaoudi : Seconde formulation de l’algorithme bi-r´ecursif d’inter-polation et propri´et´es, JANO9, 9 i`emes Journ´ees d’Analyse Num´erique et d’Op-timisation, FST Mohammedia, Maroc, 2008.

6. M. Esghir, A. Messaoudi : Les algorithmes bi-r´ecursifs d’interpolation, Premier congr`es de la SM2A, ENIM, Rabat, Maroc, 2008.

(7)

Introduction g´en´erale 12

1 Pr´eliminaires 17

1.1 Introduction . . . 17

1.2 Notations et d´efinitions . . . 18

1.3 Les m´ethodes de type Krylov . . . 21

1.4 Compl´ements de Schur . . . 25

I

esolution des syst`

emes lin´

eaires par les m´

ethodes de

type Lanczos

28

2 M´ethodes de Lanczos 29 2.1 Introduction . . . 29

2.2 Proc´essus de Lanczos . . . 30

2.2.1 Proc´essus de Lanczos non sym´etrique . . . 31

2.2.2 Proc´essus de Lanczos sym´etrique . . . 33

(8)

2.3.1 M´ethode de Lanczos non sym´etrique . . . 35

2.3.2 M´ethode de Lanczos sym´etrique . . . 44

2.4 Exemples num´eriques et simulation . . . 46

2.5 Conclusion . . . 48

3 M´ethodes de Lanczos par blocs 49 3.1 Introduction . . . 49

3.2 M´ethode de Lanczos non sym´etrique par blocs . . . 51

3.2.1 D´escription du processus de Lanczos non sym´etrique par blocs . 51 3.2.2 Etude de la m´ethode de Lanczos non sym´etrique par blocs . . . 53

3.3 M´ethode de Lanczos sym´etrique par blocs . . . 62

3.3.1 Description du processus de Lanczos sym´etique pa blocs . . . . 62

3.3.2 Etude de la m´ethode de Lanczos sym´etique par blocs . . . 63

3.4 M´ethode de Lanczos sym´etrique par blocs et ´equations normales . . . 65

3.4.1 Deriv´e du Processus de Lanczos sym´etrique par blocs . . . 66

3.4.2 M´ethode de Lanczos sym´etrique par blocs appliqu´ee aux ´equa-tions normales . . . 66

3.5 Exemples Num´eriques et simulation . . . 67

3.6 Conclusion . . . 74

(9)

de transfert

75

4 Approximation de la fonction de transfert 76

4.1 Introduction . . . 76

4.2 Approximation de la fonction de transfert . . . 77

4.3 Approximation du syst`eme SISO et SIMO . . . 79

4.4 Approximation du syst`eme MIMO et MISO . . . 87

4.5 Exemples num´eriques et simulation . . . 97

4.6 Conclusion . . . 100

III

Application d’un formalisme bi-r´

ecursif aux m´

ethodes

de type Lanczos

101

5 Algorithme bi-r´ecursif d’interpolation 102 5.1 Introduction . . . 102

5.2 Algorithme R´ecursuf d’Interpolation : RIA . . . 103

5.2.1 Formulation du RIA . . . 103

5.2.2 Applications du RIA : M´ethode de type Arnoldi . . . 105

5.3 Algorithme bi-r´ecursif d’interpolation : Bi-RIA . . . 106

5.3.1 Formulation du Bi-RIA . . . 106

5.3.2 Propri´et´es du Bi-RIA . . . 108

(10)

5.4.1 Proc´ed´e de biorthogonalisation de Lanczos . . . 110

5.4.2 M´ethode de Lanczos non sym´etrique . . . 111

5.4.3 M´ethode du Gradient Biconjugu´e (Bi-CG) . . . 112

5.4.4 M´ethode du r´esidu quasi minimal (QMR) . . . 114

5.5 Conclusion . . . 118

Conclusion G´en´erale et perspectives 119

Bibliographie 122

(11)

1.1 Processus de Gram-Schmidt Modifi´e . . . 20

1.2 Processus d’Arnoldi Modifi´e . . . 23

1.3 Processus d’Arnoldi par blocs . . . 24

2.1 Processus de biorthogonalisation de Lanczos . . . 32

2.2 Processus de Lanczos sym´etrique . . . 34

2.3 M´ethode de Lanczos non sym´etrique . . . 36

2.4 Nouvelle variante de la m´ethode de Lanczos non sym´etrique . . . 43

2.5 Nouvelle variante de la m´ethode de Lanczos sym´etrique . . . 45

3.1 Processus de Lanczos non sym´etrique par blocs . . . 52

3.2 M´ethode de Lanczos non sym´etrique par blocs . . . 62

3.3 Processus de Lanczos sym´etrique par blocs . . . 63

3.4 M´ethode de Lanczos sym´etrique par blocs . . . 65

3.5 Deriv´e du Processus de Lanczos sym´etrique par blocs . . . 66

3.6 Bl-SLMNE . . . 67

4.1 Approximation du syst`eme SISO et SIMO, cas non sym´etrique . . . 86

4.2 Approximation du syst`eme SISO et SIMO, cas sym´etrique . . . 86

4.3 Approximation du syst`eme MIMO et MISO, cas non sym´etrique . . . . 96

4.4 Approximation du syst`eme MIMO et MISO, cas sym´etrique . . . 97

5.1 RIA . . . 104

5.2 Bi-RIA . . . 107

5.3 Algorithme modifi´e du proc´ed´e de biorthogonalisation de Lanczos . . . 111 10

(12)
(13)

Un des probl`emes majeurs rencontr´es en analyse num´erique est la capacit´e de r´e-soudre un syst`eme d’´equations lin´eaires de grande taille issu de la mod´elisation des probl`emes rencontr´es en physique, en m´ecanique, en chimie, en ´economie ou d’une fa-¸con g´en´erale les projets provenants de l’ing´enierie. Il est connu que la discr´etisation ou la lin´earisation des ´equations non lin´eaires produit des syst`emes d’´equations lin´eaires de taille finie li´ee au nombre de points de discr´etisation. La r´esolution d’un tel sys-t`eme lorsque sa taille est tr`es grande est assez coˆuteuse en coˆut de temps, de calculs et en espace m´emoire. La recherche actuelle en mati`ere de r´esolution de syst`emes li-n´eaires consiste `a r´eduire le nombre d’it´erations, de calculs et du temps d’ex´ecution des programmes. De nombreuses m´ethodes existent dans la litt´erature et le choix d’une d’entre elles se fait selon la structure de la matrice (pleine, creuse, sym´etrique, d´efinie positive,...)

En r´ealit´e, les m´ethodes de r´esolution s’articulent autour de deux axes : Le premier occupe les m´ethodes directes, qui consistent `a factoriser la matrice A en un produit de matrices faciles `a inverser. En fait, les grands syst`emes d’´equations sont souvent creux, dans une telle situation une m´ethode directe effectue un grand nombre d’op´erations redondantes. Les deux factorisations LU avec pivotage et QR de la matrice A sont les plus utilis´ees en raison de leur stabilit´e num´erique [35, 50]. Le deuxi`eme axe concerne Les m´ethodes it´eratives, qui consistent `a construire une suite de solutions approxima-tives convergeantes vers la solution exacte, toute en partant d’une solution arbitraire

(14)

suppos´ee comme solution aproch´ee de d´epart. Contrairement aux m´ethodes directes, ces m´ethodes proc`edent simplement `a des produits matrice-vecteur et il devient alors facile de programmer ce produit de sorte `a ´eviter des op´erations redondantes impliquant des ´el´ements nuls de la matrice.

Rappelons que Les premi`eres m´ethodes it´eratives classiques et basiques utilis´ees pour r´esoudre des syst`emes lin´eaires de grande taille reposent sur la relaxation des coordon-n´ees telles que les methodes Jacobi [50, 61], Gauss-Seidel [50, 61] et SOR [50, 61]. Ces m´ethodes sont rarement utilis´ees `a cause de leur convergence, qui est en g´en´eral lente est n’est pas toujours assur´ee surtout pour les syst`emes de grande taille. N´eamoins, elles servent `a acc´el´erer la convergence d’une classe importante de m´ethodes it´eratives, appel´ees m´ethodes polynomiales. Pour une description d´etaill´ee de ces m´ethodes, on pourra consulter [5, 10, 40, 50].

Actuellement, les m´ethodes it´eratives les plus connues et utilis´ees sont celles de type Krylov, se sont des m´ethodes de pojection et elles consistent `a chercher une approxima-tion de la soluapproxima-tion dans un sous espace de Krylov. Elles sont r´eparties selon la condiapproxima-tion d’orthogonalit´e utilis´ee en deux classes . La premi`ere est celle des m´ethodes RO (R´esi-dus Orthogonaux) obtenue en imposant la condition de Petrov Galerkin. Elle contient la m´ethode d’arnoldi [29, 50] la m´ethode de Lanzos sym´etrique [29, 50] et non sym´e-trique [20, 50, 51], la m´ethode BiCG [24, 50], la m´ethode CGS [50, 56] et la m´ethode de Bi-CGStab [50, 59] . La seconde classe est obtenue en utilisant une condition de mi-nimisation et est not´ee RM (R´esidus Minimaux). Cette d´erni`ere contient la m´ethode GMRES (Generalized Minimal Residual) [49, 50], la m´ethode QMR (Quasi Minimal Residual) [28, 50].

Derni`erement des g´en´eralisations des m´ethodes classiques de type Krylov ont ´et´e propos´ees et d´evelopp´ees pour r´esoudre les syst`emes d’´equations lin´eaires avec plu-sieurs secondes membres. La premi`ere classe de ces m´ethodes contient les solveurs par blocs comme la m´ethode de Lanczos par blocs [4, 16], la m´ethode BL-BCG (Block

(15)

Bi-Conjugate Gradient method) [44, 36], la m´ethode BL-CG (Block-Bi-Conjugate Gradient Methods) [36, 50], la m´ethode BL-GMRES (Block Generalized minim) [47], la m´ethode BL-QMR [26] (Block Quasi Minimal residual methode), et la m´ethode BL-BiCGStab (Block Bi-Conjugate Gradient method Stabilized) [16] . La seconde classe contient la m´ethode globale de FOM [18], la m´ethode globale de GMRES [18], la m´ethode globale de BiCG [62], la m´ethode globale de CGS [62] et la m´ethode globale de BiCGStab [62]. Une troisi`eme classe de ces m´ethodes consiste `a r´esoudre un syst`eme particulier appel´e ”single-seed” et projeter les r´esidus des autres syst`emes sur le sous-espace de Krylov obtenu. Le processus est r´ep´et´e jusqu’`a la convergence [55]. Notons que l’id´ee des deux premi`eres classes consiste `a projeter le r´esidu de la matrice initiale sur un sous-espace matrice de Krylov.

L’objectif principal de ce travail est la r´esolution num´erique des syst`emes lin´eaires de grande taille par les m´ethodes it´eratives de type Lanczos.

Le chapitre I sera consacr´e aux rappels de plusieurs d´efinitions, th´eor`emes et r´esul-tats n´ecessaires qui seront utilis´es tout au long de cette th`ese.

Trois parties s’en suivent, la premi`ere concerne la proposition de nouvelles variantes des m´ethodes de type Lanczos dans le cas standard et dans le cas par blocs, la deuxi`eme partie concerne l’application de ces m´ethodes pour l’approximation de la fonction de transfert et la troisi`eme partie pr´esente un formalisme qui g´en´eralise et regroupe les m´ethodes it´eratives de type Lanczos.

Partie I : Elle contient deux chapitres.

Au chapitre 2, apr`es avoir d´ecrit les processus de Lanczos sym´etrique et non m´etrique, nous pr´esentons une nouvelle impl´ementation des m´ethodes de Lanczos sy-m´etrique et non sysy-m´etrique. En particulier, nous proposons deux nouvelles variantes des m´ethodes de Lanczos sym´etriques et non sym´etriques et leurs propri´et´es. Nous pr´e-sentons les algorithmes r´ecursifs de ces m´ethodes. Nous terminons ce chapitre par une

(16)

comparaison num´erique de ces deux m´ethodes avec d’autres m´ethodes de type Krylov. Le chapitre 3 est consacr´e `a l’´etude des m´ethodes de Lanczos par blocs, nous don-nons les processus de Lanczos par blocs sym´etriques et non sym´etriques qui permettent de construire des sous espaces de Krylov par blocs. Nous d´eveloppons trois m´ethodes it´eratives de type Lanczos par blocs, la premi`ere consiste `a r´esoudre plusieurs sys-t`emes lin´eaires avec une mˆeme matrice non sym´etrique et diff´erents seconds membres, la deuxi`eme m´ethode consiste aussi `a r´esoudre plusieurs syst`emes lin´eaires avec une mˆeme matrice sym´etrique et diff´erents seconds membres. Nous d´eveloppons une va-riante du proc´essus de Lanczos par blocs sym´etrique et par suite une nouvelle m´ethode par blocs. Nous t´erminons ce chapitre en comparant l’´efficacit´e num´erique de ces m´e-thodes par la m´ethode par blocs de BiCGstab (Bl-BiCGstab) et la m´ethode par blocs de BiCG (Bl-BICG).

Partie II : Cette partie est compos´ee d’un seul chapitre

Dans le chapitre 4, nous verrons comment appliquer les m´ethodes de type Kry-lov pour calculer la fonction de transfert de l’´equation d’´etat. Nous allons d´evelopper deux algorithmes pour le syst`eme SISO Input Single-Output) et SIMO (Single-Input Multiple-Output). Le premier algorithme sert `a approcher la fonction de transfert dans le cas non sym´etrique, tandis que le second algorithme est utilis´e dans le cas sy-m´etrique. Nous proposons ainsi deux autres algorithmes par blocs pour les syst`emes MISO (Multi-Input Single-Output) et MIMO (Multiple-Input Multiple-Output), dans le cas sym´etrique et non sym´etrque.

Partie III : Elle contient un chapitre.

Finalement, dans le chapitre 5, apr`es avoir d´ecrit le formalisme RIA (Recursive Interpolation Algorithm) qui regroupe les m´ethodes it´eratives de type Arnoldi, nous proposons un formalisme Bi-RIA (Birecursif Interpolation Algorithm) qui regroupe les m´ethodes it´eratives de type Lanczos. Nous pr´esentons la formulation du Bi-RIA et

(17)

nous donnons l’algorithme associ´e et quelques unes de ses propri´et´es. De plus, nous introduisons de nouveaux r´esultats concernant les m´ethodes de type Lanczos. Enfin, Nous montrons comment choisir les param`etres pour regrouper quelques m´ethodes it´eratives de type Lanczos.

(18)

Pr´

eliminaires

1.1

Introduction

Le but de ce chapitre est de faire un rappel `a un certain nombre de d´efinitions et de r´esultats de l’alg`ebre lin´eaire qui seront utiles pour la suite de ce travail. Nous com-men¸cons par rappeler quelques d´efintions et r´esultats fondamentaux et nous donnons l’algorithme de Gram Schmidt [50]. Ensuite, nous pr´esentons quelques propri´et´es sur les m´ethodes de type Krylov [50], nous rappelons les d´efintions des sous espaces de Kry-lov dans le cas standard et dans le cas par blocs et nous pr´esentons aussi l’algorithme d’Arnoldi dans le cas standard et dans le cas par blocs [50]. Enfin nous terminons ce chapitre en donnant quelques d´efinitions et propri´et´es des compl´ements de Schur.

(19)

1.2

Notations et d´

efinitions

On note un vecteur colonne de IRn par

v =         v1 v2 ... vn         et un vecteur ligne de IRn par

v = (v1, v2, . . . , vn)

Pour deux vecteurs r´eels u et v de IRn, le produit scalaire euclidien de u et v est not´e par (u, v) et d´efini par :

(u, v) = vTu =

n

X

i=1

uivi,

La norme Euclidienne associ´ee `a ce produit est d´efinie par : kvk = (v, v)12

Une matrice r´eelle A de taille n × m est un tableau de nombres r´eels aij, i = 1 . . . n,

j = 1, . . . , m A = (aij) 1≤ i ≤ n 1≤ j ≤ m =            a11 a12 . . . a1m a21 a22 . . . a2m ... ... ... ... ... . .. ... ... an1 . . . anm           

L’ensemble de toutes les matrices de type n × m est un espace vectoriel r´eel not´e par IRn×m.

(20)

Parfois, on utilise la notation de la matrice A des vecteurs colonnes comme suit : A = [a∗1, a∗2, . . . , a∗n],

o`u a∗j est le vecteur colonne constitu´e de la ji`eme colonne de la matrice A

a∗j =         a1j a2j ... anj         ,

de mˆeme, on utilise la notation de la matrice A des vecteurs lignes comme suit :

A =         a1∗ a2∗ ... an∗         ,

o`u ai∗ d´esigne la ii`eme ligne de la matrice A

ai∗ = (ai1, ai2, . . . , ain).

D´efinition 1.1 Soit A une matrice de IKn×m ( IK = IR ou C ). La matrice A est dite : – symm´etriques si AT = A, – hermitiennes si AH = A et IK = C, – antisym´etriques si AT = −A, – antihermitienne si AH = −A, – normale si AHA = AAH, – unitaire si AHA = I, – diagonale si aij = 0 pour j 6= i,

– triangulaire sup´erieure si : aij = 0 pour i > j,

(21)

– tridiagonale : aij = 0 pour chaque couple i, j tel que |i − j| > 1,

– Hessenberg sup´erieure : si aij = 0 pour tout couple i, j tel que i > j + 1.

Les matrices de Hessenberg inf´erieures peuvent ˆetre d´efinies de la mˆeme mani`ere, – diagonale par blocs : g´en´eralise la matrice diagonale en rempla¸cant chaque ´el´ement

sur la diagonale par une matrice,

– tridiagonale par blocs : g´en´eralise la matrice tridiagonale en rempla¸cant chaque ´el´ement non nul par une matrice carr´ee.

Maintenant, on ´etablit un proc´ed´e d’orthonormalisation de Gram-Schmidt [50], qui nous permet de construire, `a partir d’une famille libre finie, une base orthonorm´ee du sous espace qu’elle engendre. Le proc´ed´e de Gram-Schmidt peut ˆetre utilis´e dans la d´ecomposition QR d’une matrice. Il est uitilis´e dans l’algorithme d’Arnoldi pour construire les bases des sous espaces de Krylov. Il existe plusieurs formulations de l’Al-gorithme de Gram Schmidt qui ont de meilleures propri´et´es num´eriques. Le plus connu et le plus utilis´e d’entre eux est l’algorithme de Gram Schmidt modifi´e (MGS) [50]. Ce choix est fond´e sur la performance en temps de calcul et sur une pr´ecision acceptable [50]. Soient x1, x2, . . . , xrdes vecteurs lin´eairement ind´ependants, le processus de Gram

Schmidt modifi´e est donn´e comme suit :

Algorithme 1.1 Processus de Gram-Schmidt Modifi´e

1. D´efinir r11:= kx1k2. Si r11 = 0 arrˆeter, sinon q1:= x1/r11.

2. Pour j = 2, . . . , r faire : 3. D´efinir ˆq := xj 4. Pour i = 1, . . . j − 1 faire 5. rij := (ˆq, qi) 6. q := ˆˆ q − rijqi 7. Fin 8. Calculer rjj:= kˆqk2,

9. Si rjj = 0 alors arrˆeter, sinon qj := ˆq/rjj

(22)

1.3

Les m´

ethodes de type Krylov

On consid`ere le syst`eme lin´eaire suivant :

Ax = b (1.1),

o`u A ∈ IRn×n est une matrice inversible et b ∈ IRn est le vecteur second membre. Les m´ethodes it´eratives de type Krylov consistent `a projeter le syst`eme lin´eaire (1.1) sur un sous espace Km de dimension m inf´erieur `a la dimension n du syst`eme,

or-thogonalement `a un second sous espace de Lm ´egalement de dimension m et appel´e

sous espace des constraintes. La dimension de ces deux sous espaces augmente selon le nombre d’it´eration. On trouve deux classes de ces m´ethodes, la premi`ere est obtenue par imposition de la condition de Petrov-Galerkin d´esign´ee par des m´ethodes RO (R´e-sidus Orthogonaux). La seconde classe est celle des m´ethodes RM (R´e(R´e-sidus Minimaux) est obtenue par imposition d’une condition de minimisation.

Dans tout ce qui suit, on note x0 le vecteur de d´epart, r0 = b − Ax0 le r´esidu associ´e

`a x0, xm l’approximation de la solution `a l’it´ertion m, rm= b − Axm le r´esidu associ´e

`a xm et em= x − xm l’erreur de sorte que rm= Aem.

efinitions et Propri´

et´

es

D´efinition 1.2 On appelle sous espace de Krylov d’ordre m associ´e `a la matrice A et au vecteur r0 not´e Km(A, r0), le sous-espace vectoriel de IRn engendr´e par r0,

Ar0, A2r0, · · · , Am−1r0 :

Km(A, r0) = vect{r0, Ar0, · · · , Am−1r0}

D´efinition 1.3 On appelle polynˆome minimale de A pour r0 le polynˆome p(t) de

(23)

Le polynˆome minimal de A pour r0 existe toujours et a un degr´e inf´erieur ou ´egale `a

n, ceci est une cons´equence du th´eor`eme de Cayley Hamilton [50].

Proposition 1.1 Soit µ le degr´e du polynˆome minimale de A pour r0 (i.e.pµ(A)r0 =

0). Kµ(A, r0) est invariant par A et Km(A, r0) = Kµ(A, r0) pour tout m ≥ µ.

Les approximations de la solution du syst`eme lin´eaire Ax = b obtenues `a partir d’une m´ethode de sous-espace de Krylov sont de la forme

A−1b ≈ xm= x0 + qm−1(A)r0,

o`u r0 = b − Ax0, qm−1 est un polynˆome de degr´e m − 1. Dans le cas le plus simple on

prend x0= 0, et par suite

A−1b ≈ qm−1(A)b.

En d’autres termes, A−1b est approch´ee par q

m−1(A)b.

Processus d’Arnoldi

Le processus d’Arnoldi consiste `a construire une base orthonorm´ee du sous espace de Krylov Km(A, r0) et une matrice de Hessenberg ˜Hm+1,m = (hij)1≤i≤m+1,1≤j≤m de

taille (m + 1) × m. Il permet de r´eduire une matrice dense A sous forme d’une matrice de Hessenberg avec une transformation unitaire. Diff´erentes versions de ce processus existent, citons l’algorithme Gram-Schmidt standard, l’algorithme d’Arnoldi-Gram-Schmidt modifi´e et l’algorithme d’Arnoldi-Householder qui est tr`es stable num´e-riquement mais couteux par rapport aux processus pr´ec´edents. Dans la pratique, l’uti-lisation de l’algorithme de Gram-Schmidt modifi´e ou de l’algorithme de Householder est pr´ef´erable que l’algorithme de Gram- Schmidt standard [50]. Nous pr´esentons une illustration de la version d’Arnoldi modifi´e [50]. Souvent, nous prenons le vecteur v1

(24)

Algorithme 1.2 Processus d’Arnoldi Modifi´e 1. Choisir un vecteur v1 de norme 1.

2. Pour j = 1, 2, . . . , m faire : 3. Calculer wj := Avj 4. Pour i = 1, 2, . . . , j faire : 5. hij := (wj, vi), 6. wj = wj− hijvi. 7. Fin i 8. hj+1,j = kwjk2. Si hj+1,j = 0 arrˆeter 9. vj+1 = wj/hj+1,j. 10. Fin j

Lorsque hj+1,j = 0, alors le sous espace de Krylov engendr´e par A et r0 devient

invariant `a la j`eme it´eration, c’est `a dire :

AKj(A, r0) = Kj(A, r0).

De plus, ces espaces v´erifient la chaˆıne d’inclusions

K1 = vect{r0} ⊂ K2 ⊂ . . . ⊂ Km⊂ Km+1⊂ IRn.

Supposons que l’algorithme d’Arnoldi ne s’arrˆete pas avant l’´etape m. Alors, les vecteurs v1, v2, . . . , vm forment une base orthonorm´ee de l’espace de Krylov Km(A, r0).

Proposition 1.2 Notons par Vmla matrie de taille n×m avec les vecteurs colonnes

v1, . . . , vm, et notons par ˜Hm la matrice de Hessenberg de taille (m + 1) × m dont les

´el´ements non nuls hij sont d´efinis par l’algorithme 1.2 et par Hm la matrice obtenue `a

(25)

suivantes :

AVm = VmHm+ hm+1,mvm+1eTm,

= Vm+1H˜m,

VT

mAVm = Hm.

Processus d’Arnoldi par blocs

D´efinition 1.4 On appelle sous espacce de Krylov par blocs Km(A, V ) le sous espace

engendr´e par les matrices {V, AV, . . . , Am−1V }, dont chaque ´el´ement Z ∈ K

m(A, V )

s’´ecrit sous la forme suivante : Z =

m−1

X

i=0

AiV Ωi, avec Ωi∈ IRs×s, pour i = 0, . . . , m − 1.

Le processus d’Arnoldi par blocs [50, 52] consiste `a construire une base orthonormale {V1, V2, . . . , Vm} du sous espace de Krylov par blocs. Km(A, V )

Algorithme 1.3 Processus d’Arnoldi par blocs

1. Calculer la d´ecomposition QR de V = Q0R0 et poser V1 = Q0.

2. Pour j = 1, . . . , m 3. V = AV˜ j, 4. Pour i = 1, . . . , j 5. Hi,j = ViTV ,˜ 6. V = ˜˜ V − ViHij. 7. Fin i 8. Calculer la d´ecomposition QR de ˜V = QjRj, 9. Hj+1,j = Rj, 10. Vj+1 = Qj. 11. Fin j

Proposition 1.3 Posons Vm la matrice de type n × ms d´efinie par Vm =

(26)

dont les entr´ees non nulles sont les matrices Hi,j calcul´ees par le processus

d’Ar-noldi par blocs, Hm la matrice de type ms × ms obtenue `a partir de ˜Hm en

´elimi-nant les s derni`eres lignes et ET

m est la matrice des s deni`eres colonnes de Ims, i.e,

ET

m = [0s, . . . , 0s, Is] ∈ Rs×ms , alors nous avons les relations suivantes [52]

AVm = VmHm+ Vm+1Hm+1,mEmT,

= Vm+1H˜m,

VT

mAVm = Hm.

1.4

Compl´

ements de Schur

Les compl´ements de Schur [8, 11, 12] sont des outils de base de plusieurs domaines qui utilisent l’analyse matrici`elle. Ils ont nombreuses applications en statistiques, analyse num´erique, alg`ebre lin´eaire et plus pr´ecis´ement en th´eorie des matrices. Nous les utili-serons pour construire les algorithmes de type Lanczos, ils nous permettent de calculer l’it´eration courante `a partir de l’it´eration pr´ec´edente.

efinions et Propri´

et´

es

D´efinition 1.5 Soit M une matrice partionn´ee en quatre blocs M =   A B C D  . (1.2)

D est matrice suppos´ee carr´ee et inversible. Le compl´ement de Schur de D dans M , not´e par (M/D), est d´efini par

(M/D) = A − BD−1C. (1.3) Remarquons que l’on peut d´efinir aussi les compl´ements de Schur de A, de B et de C dans M lorsqu’ils existent, comme suit :

(27)

(M/B) = C − DB−1A, (1.5) (M/C) = B − AC−1D. (1.6) La relation entre les d´et´erminants et les compl´ements de schur est donn´ee par la propri´et´e suivante. [8]

Proposition 1.4 Si le compl´ement de Schur (1.3) est bien d´efini et si M est une matrice carr´ee, alors on a

|(M/D)| = |M |

|D|, (1.7)

o`u |.| d´esigne le d´eterminant.

Les propri´et´es des compl´ements de Schur suivantes sont faciles `a v´erifier. Proposition 1.5 Si D est une matrice inversible, alors on a

    A B C D  /D   =     D C B A  /D  , =     C D A B  /D  , =     B A D C  /D  . (1.8)

(28)

ma-trice tel que le produit EA soit bien d´efini, alors on a E     A B C D  /D  =     EA EB C D  /D  . (1.9)

Identit´

e Matricielle de Sylvester

1.3 Identit´e Matricielle de Sylvester. Soit M la matrice d´efinie par(1.2) et K la matrice partionn´ee en neuf blocs

K =      E F G H A B L C D      (1.10)

Si les matrices A et M sont inversibles, alors on a la proposition suivante.

Proposition 1.7 (Identit´e Matricielle de Sylvester)[8] (K/M ) = ((K/A)/(M/A)) =     E F H A  /A  −     F G A B  /A  (M/A)−1     H A L C  /A   (1.11)

D´efinition 1.6 Soit Tm une matrice carr´ee de taille m × m .

• On dit que Tm est une matrice fortement inversible si

|Tk| 6= 0 pour k = 1, . . . , m.

• On dit que Tm est une matrice fortement inversible par blocs si

(29)

esolution des syst`

emes lin´

eaires

par les m´

ethodes de type Lanczos

(30)

ethodes de Lanczos

2.1

Introduction

Les m´ethodes de Lanczos sont des m´ethodes it´eratives de projection de type Krylov qui permettent de r´esoudre un syst`eme lin´eaire creux de grande taille. Elles n’acc`edent pas aux ´el´ements de la matrice directement, mais effectuent un produit matrice vec-teur. En 1950 et 1952 Lanczos [33, 34] a propos´e respectivement deux processus pour r´eduire une matrice A en une matrice tridiagonale T semblable `a A et de construire les bases des sous-espaces de Krylov souhait´ees. Cependant, si la matrice A est sym´etrique le processus de Lanczos peut se d´eduire du processus d’Arnoldi. Une version ´equiva-lente `a cet algorithme a ´et´e introduite par M. Hestnes E. steifel [29] est la m´ethode du gradient Conjugu´e (CG). Dans le cas non sym´etrique de la matrice A, Lanczos a propos´e un processus de biorthogonalisation, qui est distinct dans son principe `a celui de l’algorithme d’Arnoldi. Une variante de cette m´ethode a ´et´e propos´ee par Fletcher [24] est la m´ethode bi-conjugate gradient (Bi-CG). L’int´erˆet principale des processus de Lanczos est qu’ils permettent de conserver une r´ecurrence courte (`a trois termes) pour la construction des bases des sous espaces de Krylov.

(31)

En raison de leurs propri´et´es num´eriques efficaces, les processus de Lanczos sont maintenant introduits dans de nombreux algorithmes et utilis´es dans plusieurs do-maines, ils peuvent ˆetre ´egalement utilis´es pour r´esoudre un syst`eme d’´equations li-n´eaires, ils aboutissent `a des m´ethodes it´eratives qui donnent la solution exacte en un nombre fini d’it´erations inf´erieur ou ´egal `a la dimension du syst`eme. La mise en œuvre de ces m´ethodes est ´effectu´ee par diff´erents algorithmes. Pour cel`a consid´erons le syst`eme d’´equations lin´eaire suivant :

Ax = b, (2.1)

o`u A est une matrice r´eelle inversible d’ordre n et b est un vecteur donn´e de IRn.

L’obectif principal de ce chapitre est de pr´esenter une nouvelle approche pour la mise en œuvre des m´ethodes de Lanczos sym´etrique et non sym´etrique. Nous pr´esen-tons deux nouvelles variantes. La premi`ere consiste `a r´esoudre le syst`eme lin´eaire (2.1) r´ecursivement dans le cas o`u la matrice A est quelconque, tandis que la seconde m´e-thode nous permet ainsi de r´esoudre le mˆeme syst`eme lin´eaire dans le cas particulier o`u la matrice A est sym´etrique. Apr`es avoir d´ecrit les processus de Lanczos sym´etrique et non sym´etrique, nous ´elaborons quelques nouveaux r´esultats th´eoriques associ´es `a l’implementation de ces m´ethodes, puis nous pr´esentons les nouveaux algorithmes as-soci´es `a ces m´ethodes. Nous terminons ce chapitre par une comparaison num´erique de ces deux m´ethodes avec les m´ethodes de GMRES [49], BiCG [24] et BiCGstab [59].

2.2

Proc´

essus de Lanczos

Les processus de Lanczos consistent `a effectuer une projection orthogonale d’une matrice A, de tr`es grande taille sur un sous espaces de Krylov. Nous pr´esentons deux types de proc´essus de Lanczos. Le premier est utilis´e lorsque la matrice A est non

(32)

sym´etrique, il consiste `a construire simultan´ement une base {v1, . . . , vm} de Km(A, v1)

et une base {w1, . . . , wm} de Km(AT, w1). Ces deux bases sont construites de telle

fa¸con qu’elles soient biorthonormales. Le second processus de Lanczos peut ˆetre vu comme une simplification du proc´essus d’Arnoldi pour le cas particulier o`u la matrice est sym´etrique, il consiste `a construire une base orthonormale {v1, . . . , vm} du sous

espace de Krylov Km(A, v1).

2.2.1

Proc´

essus de Lanczos non sym´

etrique

Le proc´essus de Lanczos non sym´etrique est une extension du proc´essus de Lanczos sym´etrique. Cependant, il est tr`es diff´erent dans le concept de l’algorithme d’Arnoldi, car il repose sur des suites biorthogonaux au lieu des suites orthogonaux. L’algorithme propos´e par Lanczos [33, 34] pour les matrices non sym´etriques consiste `a transformer une matrice A ∈ IRn×n en une matrice tridiagonale semlable, et permet de construire une paire de bases biorthonormales {v1, v2, . . . , vm} et {w1, w2, . . . , wm} pour les deux

sous espaces de Krylov suivants :

Km(A, v1) = vect{v1, Av1, . . . , Am−1v1}, (2.2)

et

Km(AT, w1) = vect{w1, ATv1, . . . , (AT)m−1v1}. (2.3)

Le processus de Lanczos non sym´etrique g´en`ere les vecteurs de bases souhait´es vi

et wi, connus comme les vecteurs de Lanczos. On commence les it´erations par deux

vecteurs de d´epart v1 et w1, tels que (v1, w1) = 1. En outre, ces vecteurs de Lanczos

sont construits de fa¸con qu’ils soient biorthonormales, c’est `a dire : (vi, wj) =    1 si i = j, 0 si i 6= j. pour i = 1, . . . , m et j = 1, . . . , m.

(33)

r´ecurrences `a trois termes suivantes

δi+1vi+1= Avi− αivi− βivi−1

βi+1wi+1 = ATwi− αiwi− δiwi−1

L’algorithme de biorthogonalisation de Lanczos [34, 50] est donn´e comme suit : Algorithme 2.1 Processus de biorthogonalisation de Lanczos

1. Choisir deux vecteurs v1 et w1 tel que (v1,w1)=1,

2. Poser β1=δ1=0, w0 ≡ v0 ≡ 0, 3. Pour j = 1, 2, · · · , m faire 4. αj = (Avj, wj), 5. v˜j+1 = Avj − αjvj− βjvj−1, 6. w˜j+1 = ATwj− αjwj− δjwj−1, 7. δj+1 = |(˜vj+1, ˜wj+1)| 1 2, si δ j+1 = 0 arrˆeter 8. βj+1 = (˜vj+1δj+1, ˜wj+1), 9. wj+1 = wβ˜j+1j+1, 10. vj+1 = ˜vδj+1j+1, 4. Fin j.

Les vecteurs de Lanczos peuvent ˆetre g´en´er´es par trois termes de r´ecurrences. Ces r´ecurrences peuvent ˆetre indiqu´es de mani`ere compacte sous forme de matrice comme suit :

AVm = VmTm+ δm+1vm+1eTm, (2.4)

ATWm = WmTmT + βm+1wm+1eTm, (2.5)

WmTAVm= Tm et WmTVm = Im, (2.6)

avec Im est la matrice d’identit´e, Vm, Wm et Tm sont des matrices donn´ees par :

(34)

Wm= [w1, w2, . . . , wm], et Tm =         α1 β2 δ2 α2 . .. . .. ... βm δm αm         . (2.7)

2.2.2

Proc´

essus de Lanczos sym´

etrique

Le processus de Lanczos sym´etrique peut ˆetre consid´er´e comme une variante de l’algorithme d’Arnoldi pour le cas particulier o`u la matrice A est sym´etrique. En effet, Lorsque la matrice A est sym´etrique, alors la matrice VT

mAVm = Hm construit par

l’algorithme d’Arnoldi est une matrice sym´etrique et de Hessenberg. Par cons´equent Hm devient tridiagonale et sym´etrique (qui sera not´ee par Tm) avec pour diagonale les

αj ,1 ≤ j ≤ m et pour les sur et sous diagonale les βj, 1 ≤ j ≤ m.

Tm = Hm=         α1 β2 β2 α2 . .. . .. ... βm βm αm         , (2.8)

Le processus de Lanczos sym´etrique consiste `a construire une suite de vecteurs vj par

une formule de r´ecurrence `a trois termes. En effet, il suffit de disposer seulement des vecteurs vj−1 et vj pour pouvoir calculer les vj+1 et le coˆut de calcul est ind´ependant

du num´ero de l’it´eration. Ceci explique pourquoi une relation seulement tri-r´ecursive est effectu´ee dans le cas sym´etrique. On a alors les propri´et`es suivantes :

AVm = VmTm+ βm+1vm+1eTm, (2.9)

(35)

Le Processus de Lanczos sym´etrique [33, 50] qui nous permet d’avoir ces propri´et`es est d´ecrit comme suit :

Algorithme 2.2 Processus de Lanczos sym´etrique 1. Choisir un vecteur initial v1 tel que kv1k=1,

2. Poser β1=0, v0 ≡ 0, 3. Pour j = 1, 2, · · · , m faire 4. wj = Avj− βjvj−1, 5. αj = (wj, vj), 6. wj = wj− αjvj, 7. βj+1 = kwjk2. si βj+1 = 0 arrˆeter. 8. vj+1 = βwj+1j , 9. Fin j.

Remarque 2.1 Ces algorithmes risquent d’´echouer et de s’arrˆeter sans converger, une division par z´ero peut se produire. Dans ce cas, une division par z´ero (appell´ee breakdown) peut se produire. En r´ealit´e, l’orthogonalit´e ou la biorthogonalit´e exacte de ces vecteurs n’est observ´ee qu’au d´ebut des processus, `a un certain point les vecteurs commencent `a perdre rapidement leur orthogonalit´e global. Pour ´eviter ces situations plusieurs strat´egies ont ´et´e propos´ees et ´etudi´ees et de nombreuses recherches ont ´et´e consacr´ees `a trouver des moyens pour r´ecup´erer soit l’orthogonalit´e soit la biorthogona-lit´e, ou au moins diminuer ses effets par l’orthogonalisation partielle ou s´elective, voir [45, 50]. Ici pour simplifier nous allons utiliser les processus classiques de Lanczos.

2.3

ethodes de Lanczos

Les m´ethodes de Lanczos peuvent ˆetre utilis´ees pour r´esoudre un syst`eme lin´eaire en effectuant une projection sur un sous-espace de Krylov Km, orthogonalement `a un

(36)

xm = x0+ zm du syst`eme (2.1), o`u x0 est un vecteur de d´epart et zm est un vecteur de

l’espace Km.

2.3.1

ethode de Lanczos non sym´

etrique

Nous pr´esentons une br`eve description de la m´ethode de Lanczos non sym´etriques pour la r´esolution d’un syst`eme lin´eaire donn´e par la relation (2, 1). Soit x0 un vecteur

initial suppos´e comme solution de d´epart et soit r0 = b − Ax0 le vecteur r´esidu associ´e

`a x0. Nous posons v1 = r0/β et β = kr0k2. La m´ethode de Lanczos consiste `a construire

une suite de vecteurs xm d´efinis par les deux conditions suivantes :

1. xm− x0∈ Km(A, v1),

2. rm = b − Axm⊥Km(AT, w1).

o`u Km(A, v1) et Km(AT, w1) sont des sous espaces de Krylov et w1 est un vecteur

quelconque tel que (v1, w1) = 1. Nous notons par Vm et Wm les bases de Km(A, v1) et

Km(AT, w1) respectivement. Tmest une matrice tridagonale donn´ee par Tm= WmTAVm.

La condition 1, nous permet d’exprimer la solution approximative sous la forme suivante :

xm= x0+ Vmym. (2.11)

Le r´esidu rm associ´e `a xm peut ˆetre exprim´e sous la forme suivante

rm = b − Axm

= b − A(x0+ Vmym)

= (b − Ax0) − AVmym

= r0− AVmym (2.12)

Le probl`eme d’orthogonalit´e donn´e par la condition 2 peut ˆetre exprim´e par : WmTrm = WmTr0− WmTAVmym= 0,

(37)

comme Tm = WmTAVm nous obtenons ym comme suit :

ym= Tm−1WmTr0,

nous avons alors WT

mr0= βe1 o`u e1 d´esigne le premier vecteur unitaire dans IRn, donc

ym = Tm−1βe1, (2.13)

et par suite :

xm = x0+ VmTm−1βe1. (2.14)

L’algorithme de Lanczos pour r´esoudre le syst`eme lin´eaire non sym´etrique est d´ecrit comme suit.

Algorithme 2.3 M´ethode de Lanczos non sym´etrique 1. Calculer r0 = b − Ax0 et β = kr0k2,

2. Ex´ecutez m ´etapes de l’algorithme de Lanczos non sym´etrique, i.e., 3. Commencer par v1= r0/β et tout vecteur w1 tel que (v1, w1) = 1,

4. G´en´erer les vecteurs de Lanczos v1, . . . , vm, w1, . . . , wm,

5. et la matrice tridiagonale Tm par l’algorithme 2.1,

6. Calculer ym= Tm−1(βe1) et xm = x0+ Vmym.

Nous donnons ici une description d’une nouvelle variante de la m´ethode de Lanczos non nsym´etrique. Ce nouvel algorithme consiste `a construire par r´ecurrence une suite de vecteurs xm dans l’espace x0+ Km(A, v1). L’id´ee est de faire un changement de base de

{v1, v2, . . . , vm} `a {g1, g2, . . . , gm} de sous espace de Krylov Km(A, v1), puis trouver une

relation de r´ecurrence entre les vecteurs xm, enfin mettre en œuvre le nouvel algorithme

de la m´ethode de Lanczos non sym´etrique.

Lemme 2.1 Si la matrice Tm donn´ee par la relation 2.7 est fortement inversible

(38)

1. |Tm| = η1η2. . . ηm, (2.15)

avec |.| est le d´eterminant, o`u ηm peut ˆetre calcul´e r´ecursivement comme suit :

η1 = α1, pour j = 2, . . . , m ηj = αj−ηj−1δj βj, (2.16) f in j. 2. (Tm/Tm−1)−1= η1m (2.17) Preuve

1) Nous calculons le d´eterminant de de la matrice tridiagonale Tm en utilisant la

factorisation LU de Tm. Nous exploitons la structure tridiagonale particuli`ere de Tm

(Tm = LmUm), la matrice Lm est bidiagonale inf´erieure d’´el´ements 1 sur la diagonale,

et Um est une matrice bidiagonale sup´erieure. Ainsi, la matrice Tm a une factorisation

de la forme Tm = LmUm=         α1 β2 δ2 . .. ... . .. ... βm δm αm         =         1 µ2 . .. . .. ... µm 1                 η1 β2 . .. ... . .. βm ηm         ,

alors nous avons pour i = 1, . . . , m − 1, δi+1 = µi+1ηi,

(39)

et par suite, nous obtenons

ηi+1= αi+1−

βi+1δi+1

ηi

, pour i = 1, . . . , m − 1, avec η1 = α1.

Alors ηm peut ˆetre calcul´e comme suit :

η1 = α1,

pour j = 2, . . . , m ηj = αj−ηj−1δj βj,

f in j

d’o`u le r´esultat.

2) La proposition 1.2 du chapitre pr´ec´edent nous permet d’´ecrire :

(Tm/Tm−1)−1 =

|Tm−1|

|Tm|

Ce qui donne le r´esultat souhait´e.

Le vecteur xm donn´e par la relation (2.14) est un compl´ement de Schur, et par

cons´equent nous obtenons un premier r´esultat important suivant :

Th´eor`eme 2.1 Soit xm la solution approch´ee de x donn´ee par la relation (2.14).

Si Tm est une matrice fortement inversible, alors le vecteur xm est un compl´ement de

Schur et on peut le calculer comme suit :

(40)

avec gm est le vecteur auxiliaire donn´e par : gm=                             vm v1 . . . vm−1 0 α1 β2 0 . . . 0 0 δ2 . .. ... ... ... ... ... ... ... ... 0 0 . . . 0 . .. ... βm−1 βm 0 . . . 0 δm−1 αm−1               /Tm−1               . (2.19)

Preuve Nous observons que le vecteur xm donn´e par la relation (2.14) est un

compl´e-ment de Schur, il peut ˆetre exprim´e comme un rapport de deux facteurs de d´etermi-nants : xm = −                             −x0 v1 . . . vm β α1 β2 0 . . . 0 0 δ2 . .. ... ... ... ... . .. ... ... ... 0 ... . .. ... ... βm 0 . . . 0 δm αm               /Tm               . (2.20)

En utilisant l’identit´e de Sylvester ´enonc´ee pr´ec´edement, l’approximation xm peut ˆetre

calcul´ee de fa¸con r´ecursive de la mani`ere suivante :

xm= xm−1+ (Em/Tm−1) × (Tm/Tm−1)−1× (Fm/Tm−1) , (2.21)

o`u Em et Fm sont deux matrices donn´ees par :

Em=               v1 . . . vm−1 vm α1 β2 0 . . . 0 δ2 . .. ... ... ... 0 . .. ... ... . .. ... ... ... ... ... βm−1 0 0 . . . 0 δm−1 αm−1 βm               ,

(41)

Fm=               β α1 β2 0 . . . 0 0 δ2 . .. ... ... ... ... ... ... ... ... 0 ... . .. ... ... βm−1 ... . .. ... αm−1 0 . . . 0 δm               .

En utilisant la proposition 1.3 du chapitre pr´ec´edent nous obtenons : (Em/Tm−1) = gm.

`

A l’aide de la mˆeme proposition 1.3 nous pouvons ´ecrire :

(Fm/Tm−1) =                             0 . . . 0 δm β α1 β2 0 . . . 0 0 δ2 . .. ... ... ... ... ... ... ... ... 0 ... . .. ... ... βm−1 0 . . . 0 δm−1 αm−1               /Tm−1               = (−1)m+1δ m ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ β α1 β2 0 . . . 0 0 δ2 . .. ... ... ... ... ... ... ... ... 0 ... ... ... ... ... βm−2 ... . .. ... ... αm−2 0 . . . 0 δm−1 ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ ˛ |Tm−1| = (−1)m+1βδ2δ3...δm |Tm−1| ,

(42)

donc, la solution approch´ee xm peut ˆetre r´eecrite sous la forme suivante :

xm= xm−1+ (−1)mβ

δ2δ3. . . δm

|Tm|

gm.

En rempla¸cant Tm= η1η2. . . ηm dans l’´egalit´e ci-dessus, nous obtenons

xm= xm−1+ (−1)mβ δ2δ3. . . δm η1η2. . . ηm gm (2.22) posons λm= (−1)mβ δ2δ3. . . δm η1η2. . . ηm (2.23) donc on peut calculer λm par la relation de r´ecurrence suivante :

λ1 = −ηβ1

pour m = 2, . . . , n

λm = −δηmmλm−1 (2.24)

f in m,

finalement la solution approch´ee xmpeut ˆetre mise `a jour `a chaque ´etape par la relation :

xm = xm−1+ λmgm. (2.25)

ce qui donne le r´esultat souhait´e.

Th´eor`eme 2.2 Soit gmle vecteur d´efini par la relation (2.19). Si Tmest une matrice

fortement inversible alors le vecteur auxiliare gm est un compl´ement de Schur et peut

ˆ

etre calcul´e r´ecursivement comme suit : gm+1= vm+1−

βm+1

ηm

gm. (2.26)

Preuve

Nous remarquons que gms’´ecrit sous la forme d’un compl´ement de Schur, en utilisant

l’identit´e de Sylvester ´enonc´e dans le chapitre pr´ec´edent, nous pouvons exprimer gm

par la relation suivante :

(43)

avec Lm=                vm v1 . . . vm−2 0 α1 β2 0 . . . 0 0 δ2 . .. ... ... ... .. . . .. ... ... ... 0 .. . . .. ... ... βm−2 0 . . . 0 δm−2 αm−2                , et Mm=                0 α1 β2 0 . . . 0 0 δ2 . .. ... ... ... .. . . .. ... ... ... 0 .. . . .. ... ... βm−2 0 . .. ... αm−2 βm 0 . . . 0 δm−1                .

En utilisant les propri`et´es de compl´ements de Schur ´enonc´ees dans le chapitre pr´ecedent, nous pouvons ´ecrire,

(Lm/Tm−2) = vm (Tm−1/Tm−2)−1= |Tm−2| |Tm−1| = 1 ηm−1 , (Mm/Tm−2) =  ˜ Mm/Tm−2  , = M˜m |Tm−2| . Donc nous obtenons

(Tm−1/Tm−2)−1 = βm α1 β2 δ2 . .. ... . .. ... βm−2 δm−2 αm−2 |Tm−2| = βm,

(44)

avec ˜ Mm=               βm 0 . . . 0 δm−1 0 α1 β2 0 . . . 0 0 δ2 . .. ... ... ... ... . .. ... ... ... 0 ... . .. ... ... βm−2 0 . . . 0 δm−2 αm−2               ,

En utilisant la proc´edure de biorthogonalisation de Lanczos, le lemme 2.1 et les th´eor`emes 2.1 et 2.2, on obtient une nouvelle variante de la m´ethode de Lanczos non sym´etrique, elle est donn´ee par l’algorithme suivant

Algorithme 2.4 Nouvelle variante de la m´ethode de Lanczos non sym´etrique 1. Choisir x0, Poser r0= b − Ax0, β = kr0k2 et v1 = rβ0,

2. Choisir w1 stel que (v1, w1) = 1,

3. Poser β1 = δ1 = 0, v0 = w0 = 0, g1 = v1, α1= (Av1, w1), η1 = α1 and λ1= ηβ1,

4. Pour j = 1, · · · , m faire : 5. xj = xj−1+ λjgj, 6. v˜j+1 = Avj− αjvj− βjvj−1, 7. w˜j+1 = ATwj− αjwj − δjwj−1, 8. δj+1 = |(˜vj+1, ˜wj+1)| 1 2 si δ j+1 = 0 arrˆeter, 9. βj+1 = (˜vj+1δ, ˜wj+1) j+1 , 10. wj+1 = wβ˜j+1j+1, 11. vj+1 = ˜vδj+1j+1, 12. gj+1 = vj+1− βj+1ηj gj, 13. αj+1 = (Avj+1, wj+1), 14. ηj+1 = αj+1−δj+1η j βj+1, 15. λj+1 = −λjδηj+1j+1, 16. Fin j

(45)

2.3.2

ethode de Lanczos sym´

etrique

Nous ´elaborons la m´ethode de Lanczos sym´etrique pour la r´esolution d’un syst`eme lin´eaire sym´etrique donn´e par la relation (2, 1), o`u A est une matrice sym´etrique. De nombreuses m´ethodes sont obtenues `a partir de la m´ethode d’Arnoldi. Dans le cas o`u la matrice A est sym´etrique, on trouve la m´ethode du gradient conjugu´e qui peut ˆetre d´eriv´ee de la m´ethode de Lanczos sym´etrique [50]. En fait, l’algorithme du gra-dient conjugu´e peut ˆetre consid´er´e comme une variante de DIOM (Direct Incomplete Orthogonalization Method) [50] dans le cas o`u A est sym´etrique.

Soit x0 un vecteur initial suppos´e comme solution de d´epart et soit r0 = b − Ax0 le

vecteur r´esidu associ´e `a x0. Nous posons v1 = r0/β avec β = kr0k2. La m´ethode de

Lanczos sym´etrique consiste `a construire une suite de vecteurs xm d´efinie par les deux

conditions suivantes : 1. xm− x0∈ Km(A, v1)

2. rm = b − Axm⊥Km(A, v1)

o`u Km(A, v1) est un sous espaces de Krylov. Nous notons Vm la base de Km(A, v1)

et Tm la matrice tridagonale construite par le proc´essus de Lanczos sym´etrique, alors

Tm= VmTAVm.

La condition 1, nous permet d’exprimer la solution approch´ee sous la forme suivante : xm= x0+ Vmym, (2.27)

le r´esidu associ´e `a xm peut ˆetre exprim´e sous la forme suivante

rm = b − Axm

= b − A(x0+ Vmym)

= (b − Ax0) − AVmym

= r0− AVmym (2.28)

le probl`eme d’orthogonalit´e donn´e par la condition 2 peut ˆetre exprime par : VT

(46)

comme Tm = VmTAVm nous obtenons ym comme suit :

ym= (VmTAVm)−1VmTr0 = Tm−1VmTr0,

nous avons VT

mr0= βe1 o`u e1 d´esigne le premier vecteur unitaire dans IRn,

donc

ym = Tm−1βe1, (2.29)

et par suite :

xm = x0+ VmTm−1βe1. (2.30)

Nous proc´edons de la mˆeme fa¸con que pour la m´ethode de lanczos non sym´etrique pour donner la solutions approch´ee xm, le vecteurs auxilaire gm+1 et les scalaires ηm+1

et λm+1 `a l’etape m `a partir de la solution approch´ee pr´ec´edente xm−1 et le vecteur

auxilaire pr´ec´edent gm et les scalaires ηm et λm pr´ec´edents `a l’etape m − 1, par suite

construire le nouvel algorithme de la m´ethode de Lanczos sym´etrique d´ecrit comme suit :

Algorithme 2.5 Nouvelle variante de la m´ethode de Lanczos sym´etrique 1. Choisir x0, poser r0 = b − Ax0, β = kr0k2 et v1 = rβ0, 2. Poser β1=0, v0 ≡ 0, g1 = v1, w1 = Av1, α1 = (w1, v1), η1 = α1 et λ1 = ηβ1, 3. Pour j = 1, 2, · · · , m faire 4. xj = xj−1+ λjgj, 5. wj = wj− αjvj, 6. βj+1 = kwjk2, si βj+1 = 0 arrˆeter, 7. vj+1 = βwj+1j , gj+1 = vj+1−βj+1ηj gj, 8. wj+1 = Avj+1− βj+1vj, 9. αj+1 = (wj+1, vj+1), 10. ηj+1 = αj+1− β2 j+1 ηj+1, 11. λj+1 = −λjβηj+1j+1, 12 Fin j.

(47)

2.4

Exemples num´

eriques et simulation

La discretisation de l’operateur d

dx2 − dyd2 + δdxd2 sur une zone rectangulaire aboutit

`a la matrice A, qui est rectangulaire par blocs et d´ecrite par les relations (2.31) et (2.32). Le second membre est consid´er´e ´egal `a b = Ax avec X = (1, 1, ..., 1)T est la

solution du syst`eme. Nous allons comparer maintenant ce nouvel algorithme, avec ceux de BiCGstab et GMRES sur cet exemple qui est donn´e dans [2].

A =                  B −I 0 · · · 0 −I B −I . .. ... 0 . .. ... ... ... ... ... ... ... ... ... ... ... ... . .. ... ... −I 0 ... . .. −I B −I 0 · · · 0 −I B                  (2.31) avec B =                  4 α 0 · · · 0 β 4 α . .. ... 0 . .. ... ... ... ... ... ... ... ... ... ... ... ... . .. ... ... α 0 ... . .. β 4 α 0 · · · 0 β 4                  (2.32)

et α = −1 + δ, β = −1 − δ le param`etre δ est pris ´egal `a 5. Pour la premi`ere figure, nous avons pris la dimension de B ´egale `a 45 donc la dimension de A est n = 2025. Pour la deuxi`eme figure, nous avons pris la dimension de B ´egale `a 60 et la dimension de A est n = 3600.

(48)

Fig. 2.1 – n = 2025

(49)

Dans notre exemple, les r´esultats obtenus ci dessus montrent que le nouvel algorithme de la m´ethode de lanczos non sym´etrique et l’algorithme de GMRES convergent dans un nombre d’it´erations tr`es proche.

2.5

Conclusion

Nous avons donn´e une autre mani`ere pour implementer les m´ethodes de Lanczos sym´etrique et non sym´etrique. Ces algorithmes sont bas´es sur le processus sym´etrique de Lanczos et le proc´essus de biorthogonalisation non sym´etrique de Lanczos. la mise en œuvre de ces algorithmes fait appel `a des techniques et propri´et´es des complements de Schur et quelques propri´et´es de l’alg`ebre lin´eaire. Nous avons aussi compar´e l’ef-ficaciti´e de ces algorithmes en les appliquant sur un exemple choisi. Cela est prouv´e num´eriquement en comparant Les deux variantes propos´ees, Nous concluons que ces deux m´ethodes fonctionnent tr`es bien pour certaines type de matrices.

(50)

ethodes de Lanczos par blocs

3.1

Introduction

Certains probl`emes d’application exigent la r´esolution de plusieurs syst`emes lin´eaires avec la mˆeme matrice et diff´erents seconds membres

Ax(i) = b(i), i = 1, ..., s (3.1)

o`u A est une matrice r´eelle non singuli`ere de dimension n×n, o`u n est grand et s << n. X = [x(1), x(2), · · · , x(s)] et B = [b(1), b(2), . . . , b(s)] sont deux matrices rectangulaires

de dimension n × s. R´esoudre s syst`emes d’´equations lin´eaires (3.1) simultan´ement est ´equivalent `a r´esoudre le syst`eme lin´eaire par blocs donn´e par l’´equation suivante.

AX = B. (3.2)

Plusieurs m´ethodes it´eratives de sous-espaces de Krylov, ont ´et´e ´etudi´ees et propo-s´ees pour r´esoudre le syst`eme lin´eaire (3.1), nous citons par exemple la m´ethode BiCG [24, 50], la m´ethode de Lanczos [20], la m´ethode de GMRES [50] et la m´ethode BiCG-STAB [59]. Au lieu de r´esoudre chaque syst`eme lin´eaire par les m´ethodes it´eratives

(51)

de type Krylov, il est plus efficace d’utiliser une version par blocs et de g´en´erer une it´eration pour tous les s syst`emes lin´eaires simultan´ement. Dans ces derni`eres ann´ees, des g´en´eralisations des m´ethodes classiques de sous-espace de Krylov ont ´et´e propos´ees et d´evelopp´ees pour r´esoudre le syst`eme d’´equations lin´eaires avec plusieurs secondes membres, du fait que les s syst`emes lin´eaires ont la mˆeme matrice de coefficients et plusieurs secondes membres. La premi`ere classe de ces m´ethodes contient les solveurs par blocs comme la m´ethode de Lanczos par blocs [4, 15], la m´ethode BL-BCG (Block Bi-Conjugate Gradient method) [36, 44], la m´ethode BL-CG (Block-Conjugate Gra-dient Methods) [36, 50], la m´ethode BL-GMRES (Block Generalized minim) [47], la m´ethode QMR [26] (Block Quasi Minimal residual methode) et la m´ethode BL-BiCGSTAB [16] (Block Bi). La seconde classe contient la m´ethode globale de FOM [18], la m´ethode globale de GMRES [18], la m´ethode globale de BiCG[62], la m´ethode globale de CGS [62] et la m´ethode globale de BiCGSTAB [62]. L’id´ee de ces deux classes consiste `a projeter le r´esidu initial de type matrice sur un sous-espace de Krylov par blocs. Une troizi`eme classe de ces m´ethodes consiste `a r´esoudre un syst`eme particulier appel´e ”single-seed” et projeter les r´esidus des autres syst`emes sur le sous-espace de Krylov obtenu. Le processus est r´ep´et´e jusqu’`a la convergence [55].

Essentiellement, ces m´ethodes cherchent des solutions dans le sous-espace de Krylov par blocs, engendr´e par la matrice A et le r´esidu R0 = B − AX0 de type n × s. Plus

pr´ecis´ement, l’id´ee de cette technique de projection est de choisir l’un des syst`emes lin´eaires et de le r´esoudre par une m´ethode it´erative des sous espaces de Krylov par blocs. Comme les sous-espaces de Krylov par blocs sont construits, les approximations des autres syst`emes sont mis `a jour simultan´ement par projection du r´esidu de type matrice sur un sous-espace de Krylov par blocs particulier par application d’une condi-tion de type Galerkin ou en minimisant le r´esidu projet´e sur le sous espace de Krylov par blocs, voir [47, 50].

(52)

r´esoudre les grands syst`emes lin´eaires avec plusieurs seconds membres. La premi`ere m´ethode est une g´en´eralisation de la m´ethode de Lanczos standard non sym´etrique, nous utilisons le processus de Lanczos non sym´etrique et les compl´ements de Schur pour d´efinir et ainsi donner le nouveau algorithme de cette m´ethode. La deuxi`eme m´ethode peut ˆetre utilis´ee pour r´esoudre les syst`emes lin´eaires sym´etriques avec la mˆeme matrice A et plusieurs seconds membres. Ensuite, nous employons le processus de Lancsos sym´etrique par blocs pour aboutir `a l’algorithme de la m´ethode de Lanczos sym´etrique par blocs. Enfin, nous donnons une variante de la proc´edure sym´etrique de Lanczos par blocs qui nous permet de d´evelopper une troisi`eme m´ethode par blocs appliqu´ee aux ´equations normales.

3.2

ethode de Lanczos non sym´

etrique par blocs

3.2.1

escription du processus de Lanczos non sym´

etrique par

blocs

Le processus de Lanczos par blocs est un algorithme qui permet de transformer une matrice non sym´etrique en une matrice tridiagonale par blocs en utilisant une projection oblique par rapport aux sous-espaces de Krylov par blocs. Cette projection d´efinit la proc´edure de Lanczos par blocs qui nous permettra par la suite d’introduire des algorithmes par blocs pour r´esoudre les syst´emes lin´eaires avec plusieurs seconds membres.

Etant donn´e une matrice A de dimension n × n et deux vecteurs par blocs arbi-traires V1 et W1 de taille n × s de sorte que W1TV1 = I. Le processus de Lanczos par

blocs [4] consiste `a g´en´erer une matrice bande non sym´etrique tridiagonale par blocs Tm semblable `a la matrice A, une base de matrices par blocs Vm = [V1, V2, · · · , Vm]

(53)

[W1, W2, · · · , Wm] de sous espace de Krylov Km(AT, W1). Les matrices par blocs {Vj}

et {Wi} sont construites de fa¸con que :

WiTVj =    Is, si i = j, 0s si i 6= j. pour i = 1, . . . , m et j = 1, . . . , m. (3.3)

Le Processus de Lanczos non sym´etrique par blocs (Voir [4]) qui nous permet d’avoir ces propri´et´es est donn´e comme suit :

Algorithme 3.1 Processus de Lanczos non sym´etrique par blocs 1. Choisir deux matrices V1 et W1 ∈ IRn×s de sorte que W1TV1 = Is,

2. Poser R1 = (W1TA)T et S1 = AV1,

3. Pour j = 1, 2, . . . 4. Aj = WjTSj,

5. Rj = Rj− WjAjT et Sj = Sj− VjAj,

6. Calculer la decomposition QR : Rj = Wj+1Bj+1T et Sj = Vj+1Cj+1,

7. Calculer la decomposition de valeurs singuli`eres : WT

j+1Vj+1 = ˜UjPjV˜jT, 8. Bj+1 = Bj+1U˜jP 1 2 j et Cj+1 =P 1 2 j V˜jTCj+1, 9. Wj+1 = Wj+1U˜jP −1 2 j et Vj+1 = Vj+1V˜jP −1 2 j , 10. Rj+1 = (Wj+1T A − Cj+1WjT)T et Sj+1 = AVj+1 − VjBj+1, 11. Fin.

Cet algorithme g´en`ere une matrice bande tridiagonale par blocs non sym´etrique, Tm

semblable `a A Tm= WmTAVm=            A1 B2 C2 A2 B3 . .. . .. . .. Cm−1 Am−1 Bm Cm Am            , (3.4)

les matrices par blocs construites par cet algorithme v´erifient les propri´et´es suivantes : WT

(54)

AVm= VmTm+ Vm+1Cm+1EmT,

WT

mVm = Ims

avec ET

m= [0s, . . . , 0s, Is] ∈ IRs×ms .

Des situations de breakdown peuvent survenir dans l’algorithme 3.1 si RT

jSj ou si Sj

et Rj ne sont pas de rang plein. Pour r´esoudre ce probl`eme et pour ´eviter les situations

de pannes, plusieurs strat´egies ont ´et´e propos´ees et ´etudi´ees afin de pr´eserver la stabilit´e num´erique du processus de Lanczos par blocs, voir par exemple [4].

3.2.2

Etude de la m´

ethode de Lanczos non sym´

etrique par

blocs

Soit X0 ∈ IRn×s une solution initale, R0 = B − AX0 est le r´esidu de type matrice

associ´e `a X0. Effectuons une factorisation QR `a R0 i.e. R0 = V1R (QR factorisation)

et soit W1 une matrice par blocs `a chosir dans IRn×s tel que W1TV1 = Is. Nous

sup-posons ici que les matrices V1 et W1 soient de rang plein. La m´ethode de Lanczos non

sym´etrique par blocs consiste `a construire une suite de matrices Xm de type n × s ,

d´efinies par les deux conditions suivantes : 1. Xm− X0∈ Km(A, V1)

2. Rm = B − AXm⊥Km(AT, W1)

En utilisant la premi`ere condition, la solution approch´ee peut ˆetre exprim´ee comme suit : Xm= X0+ VmYm, (3.5) avec Vm= [V1, . . . , Vm], Wm= [W1, . . . , Wm], YT m= [Ω1, . . . , Ωm]T.

(55)

La deuxi`eme condition nous permet d’´ecrire

WmTRm = WmTR0− WmTAVmYm= 0ms×s,

si Tm = WmTAVm est une matrice non singuli`ere, la matrice Ym peut ˆetre exprim´ee

comme suit : Ym = Tm−1WmTR0, nous avons WmTR0 = RE1, avec E1T = (Is, 0s, . . . , 0s) ∈ IRs×ms,

est une matrice par blocs dont sa premi`ere matrice est la matrice identit´e et des matrices nulles partout ailleurs, alors la matrice Ym peut ˆetre r´eecrite comme suit

Ym= Tm−1RE1,

par cons´equent :

Xm= X0+ VmTm−1RE1. (3.6)

Nous notons que la matrice Xm donn´ee par l’´equation (3.1) est un compl´ement de

Schur et nous obtenons un r´esultat important suivant :

Th´eor`eme 3.1 Soit Xm la matrice approch´ee de la solution X donn´ee par la

rela-tion (3.1). Si Tm est une matrice fortement inversible par blocs, alors la matrice Xm

est un compl´ement de Schur, elle peut ˆetre calcul´ee r´ecursivement comme suit : Xm = Xm−1+ Gm(Tm/Tm−1)−1G′m, (3.7)

(56)

avec Gm et G′m sont deux matrices donn´ees par : Gm =                       Vm V1· · · Vm−1 0 ... 0 Bm Tm−1            /Tm−1            , (3.8) G′m =                       0 · · · 0 Cm R 0 ... 0 Tm−1            /Tm−1            . (3.9)

Preuve. A l’´etape m, la solution approch´ee Xm = X0+ VmTm−1RE1 est un

compl´e-ment de Schur. Elle peut ˆetre r´eecrite sous la forme suivante :

Xm = −                             −X0 V1 . . . Vm R A1 B2 0 . . . 0 0 C2 . .. ... ... ... ... . .. ... ... ... 0 ... . .. ... ... Bm 0 . . . 0 Cm Am               /Tm               .

En utilisant l’identit´e de Sylvester ´enonc´ee dans le chapitre 1, la matrice Xm peut

ˆ

etre exprim´ee r´ecursivement par la relation suivante :

Xm = Xm−1+ (Em/Tm−1) × (Tm/Tm−1)−1× (Em′ /Tm−1) ,

(57)

Em=               V1 . . . Vm−1 Vm A1 B2 0 . . . 0 C2 . .. ... . .. ... 0 . .. ... . .. . .. ... ... ... ... ... Bm−1 0 0 . . . 0 Cm−1 Am−1 Bm               , Em′ =               R A1 B2 0 . . . 0 0 C2 . .. ... ... ... ... ... ... ... ... 0 ... . .. ... ... Bm−1 ... . .. ... Am−1 0 . . . 0 Cm               . Nous avons (Em/Tm−1) =                       V1· · · Vm−1 Vm Tm−1 0 ... 0 Bm            /Tm−1            .

En utilisant la proposition (1.3) du chapitre 1, nous obtenons

(Em/Tm−1) =                       Vm V1· · · Vm−1 0 ... 0 Bm Tm−1            /Tm−1            = Gm.

(58)

Nous avons ainsi : (E′ m/Tm−1) =                 R 0 ... Tm−1 0 · · · 0 Cm         /Tm−1         =                       0 · · · 0 Cm R 0 ... 0 Tm−1            /Tm−1            = G′ m,

qui donne le r´esultat souhait´e.

Les matrices Gmet G′mutilis´ees pour calculer la solution approch´ee Xmde X v´erifient

le nouveau r´esultat suivant :

Th´eor`eme 3.2 Soient Gm et G′m les matrices d´efinies par (3.8) et (3.9). Si Tm

est une matrice fortement inversible par blocs, alors :

Gm = Vm− Gm−1(Tm−1/Tm−2)−1Bm,

(59)

Preuve. Nous remarquons que Gm et G′m sont des matrices sous forme de

compl´e-ments de Schur donn´ees par :

Gm =                       Vm V1· · · Vm−1 0 ... 0 Bm Tm−1            /Tm−1            =                       Vm V1· · · Vm−2 Vm−1 0 ... 0 Tm−2 0 ... Bm−1 Bm 0 · · · 0 Cm−1 Am−1            /Tm−1            , et G′ m =                       0 · · · 0 Cm R 0 ... 0 Tm−1            /Tm−1            =                       0 0 · · · 0 Cm R ... 0 Tm−2 0 ... Bm−1 0 0 · · · 0 Cm−1 Am−1            /Tm−1            .

Figure

Table 1 Matrices et r´esultats num´eriques de Bl-NLM et Bl-BiCGSTAB
Fig. 3.3 – Convergence de Bl-NLM et Bl-BiCGSTAB pour gr-30-30
Fig. 3.4 – Convergence de Bl-SLMNE et Bl-BiCGSTAB pour cdde2
Table 3 Matrices et r´esultats num´eriques de Bl-SLM et Bl-BiCGSTAB
+4

Références

Documents relatifs

[r]

On ne change pas le rang d’une matrice en effectuant des op´ erations ´ el´ ementaires sur ses lignes et ses colonnes.. On transforme donc la matrice par op´ erations ´ el´

M´ ethodes it´

A doit être à « dominante diagonale » i.e ABS( diagonale )soit être &gt; somme des v.abs des élements sur la ligne pour être sûr de la convergence…... Nous avons vu 2 familles

Un peu plus subtile, ne modifie pas b, donc on peut utiliser la même décomposition pour tout vecteur b, donne A-1 et les vecteurs propres.. Gauss Jordan (pivot

En g´en´eral, celui-ci n’est pas connu avec une pr´ecision infinie car il peut y avoir des erreurs de mesures et car la pr´ecision des instruments et de l’ordinateur n’est

We prove the convexity of the set which is delimited by the free boundary corresponding to a quasi-linear elliptic equation in a 2-dimensional convex domain.. The method relies on

Fast diffusion equations on the Euclidean space (without weights) B Euclidean space: R´enyi entropy powers.. B Euclidean space: self-similar variables and relative entropies B The