• Aucun résultat trouvé

Méthodes Numériques

N/A
N/A
Protected

Academic year: 2022

Partager "Méthodes Numériques"

Copied!
540
0
0

Texte intégral

(1)
(2)

Méthodes Numériques

(3)

Riccardo Sacco Fausto Saleri

Méthodes Numériques

Algorithmes, analyse et applications

(4)

Alfio Quarteroni

MOX – Dipartimento di Matematica Politecnico di Milano et

Ecole Polytechnique F´ed´erale de Lausanne Riccardo Sacco

Dipartimento di Matematica Politecnico di Milano

Fausto Saleri

MOX – Dipartimento di Matematica Politecnico di Milano

Traduit de l’italien par:

Jean-Fr´ed´eric Gerbeau INRIA – Rocquencourt

Traduction `a partir de l’ouvrage italien:

Matematica Numerica – A. Quarteroni, R. Sacco, F. Saleri

©Springer-Verlag Italia, Milano 2004

ISBN 13 978-88-470-0495-5 Springer Milan Berlin Heidelberg New York

Springer-Verlag Italia est membre de Springer Science+Business Media springer.com

©Springer-Verlag Italia, Milano 2007

Cet ouvrage est soumis au copyright. Tous droits réservés, notamment la reproduction et la représentation, la traduction, la réimpression, l’exposé, la reproduction des illustrations et des tableaux, la transmission par voie d’enregistrement sonore ou visuel, la reproduction par microfilm ou tout autre moyen ainsi que la conservation des banques de données. La loi sur le copyright n’autorise une reproduction intégrale ou partielle que dans certains cas, et en principe ömoyennant les paiements des droits. Toute représentation, reproduction, contrefaçon ou conservation dans une banque de données par quelque procédé que ce soit est sanctionée par la loi pénale sur le copyright.

L’utilisation dans cet ouvrage de désignations, dénominations commerciales, marques de fabrique, etc.

même sans spécification ne signifie pas que ces termes soient libres de la législation sur les marques de fabrique et la protection des marques et qu’il puissent être utilisés par chacun.

Mise en page: PTP-Berlin GmbH, Protago TEX-Production, www.ptp-berlin.eu Maquette de couverture: Simona Colombo, Milano

Imprimé en Italie: Signum Srl, Bollate (Milano)

Springer-Verlag Italia Via Decembrio 28 20137 Milano, Italia

(5)

Le calcul scientifique est une discipline qui consiste `a d´evelopper, analyser et appliquer des m´ethodes relevant de domaines math´ematiques aussi vari´es que l’analyse, l’alg`ebre lin´eaire, la g´eom´etrie, la th´eorie de l’approximation, les

´

equations fonctionnelles, l’optimisation ou le calcul diff´erentiel. Les m´ethodes num´eriques trouvent des applications naturelles dans de nombreux probl`emes pos´es par la physique, les sciences biologiques, les sciences de l’ing´enieur, l’´eco- nomie et la finance.

Le calcul scientifique se trouve donc au carrefour de nombreuses disciplines des sciences appliqu´ees modernes, auxquelles il peut fournir de puissants ou- tils d’analyse, aussi bien qualitative que quantitative. Ce rˆole est renforc´e par l’´evolution permanente des ordinateurs et des algorithmes : la taille des probl`emes que l’on sait r´esoudre aujourd’hui est telle qu’il devient possible d’envisager la simulation de ph´enom`enes r´eels.

La communaut´e scientifique b´en´eficie largement de la grande diffusion des logiciels de calcul num´erique. N´eanmoins, les utilisateurs doivent toujours choisir avec soin les m´ethodes les mieux adapt´ees `a leurs cas particuliers : il n’existe en effet aucune “boite noire” qui puisse r´esoudre avec pr´ecision tous les types de probl`eme.

Un des objectifs de ce livre est de pr´esenter les fondements math´ema- tiques du calcul scientifique en analysant les propri´et´es th´eoriques des m´e- thodes num´eriques, tout en illustrant leurs avantages et inconv´enients `a l’aide d’exemples. La mise en oeuvre pratique est propos´ee dans le langage MATLAB1qui pr´esente l’avantage d’ˆetre d’une utilisation ais´ee et de b´en´e- ficier d’une large diffusion.

1MATLAB est une marque d´epos´ee de The MathWorks, Inc. Pour plus d’informations sur MATLAB et sur les autres produits de MathWorks, en particulier les outils d’analyse et de visualisation (“MATLAB Application Toolboxes”) contactez : The MathWorks Inc., 3 Apple Hill Drive, Natick, MA 01760, Tel : 001+508-647-7000, Fax : 001+508-647-7001, e-mail : info@mathworks.com, www : http ://www.mathworks.com.

(6)

Chaque chapitre comporte des exemples, des exercices et des programmes.

Plusieurs applications `a des probl`emes concrets sont rassembl´ees `a la fin de l’ouvrage. Le lecteur peut donc `a la fois acqu´erir les connaissances th´eoriques qui lui permettront d’effectuer le bon choix parmi les m´ethodes num´eriques et appliquer effectivement ces m´ethodes en impl´ementant les programmes cor- respondants.

Cet ouvrage est principalement destin´e aux ´etudiants de second cycle des universit´es et aux ´el`eves des ´ecoles d’ing´enieurs. Mais l’attention qui est ac- cord´ee aux applications et aux questions d’impl´ementation le rend ´egalement utile aux ´etudiants de troisi`eme cycle, aux chercheurs et, plus g´en´eralement,

`

a tous les utilisateurs du calcul scientifique.

Le livre est organis´e en 13 chapitres. Les deux premiers sont introductifs : on y trouvera des rappels d’alg`ebre lin´eaire, une explication des concepts g´e- n´eraux de consistance, stabilit´e et convergence des m´ethodes num´eriques ainsi que des notions de bases sur l’arithm´etique des ordinateurs.

Les chapitres 3, 4 et 5 traitent des probl`emes classiques de l’alg`ebre lin´eaire num´erique : r´esolution des syst`emes lin´eaires, calcul des valeurs propres et des vecteurs propres d’une matrice. La r´esolution des ´equations et des syst`emes non lin´eaires est pr´esent´ee dans le chapitre 6.

On aborde ensuite les probl`emes de l’interpolation polynomiale (cha- pitre 7) et du calcul num´erique des int´egrales (chapitre 8). Le chapitre 9 pr´esente la th´eorie des polynˆomes orthogonaux et ses applications aux pro- bl`emes de l’approximation et de l’int´egration.

On traite de la r´esolution num´erique des ´equations diff´erentielles ordinaires dans le chapitre 10. Dans le chapitre 11, on aborde la r´esolution de probl`emes aux limites en dimension 1 par la m´ethode des diff´erences finies et des ´el´ements finis. On y pr´esente ´egalement quelques extensions au cas bidimensionnel.

Des exemples d’´equations aux d´eriv´ees partielles d´ependant du temps, comme l’´equation de la chaleur et l’´equation des ondes, sont trait´es au chapitre 12.

Le chapitre 13 regroupe plusieurs exemples, issus de la physique et des sciences de l’ing´enieur, r´esolus `a l’aide des m´ethodes pr´esent´ees dans les cha- pitres pr´ec´edents.

Chaque programme MATLAB est accompagn´e d’une br`eve description des param`etres d’entr´ee et de sortie. Un index en fin d’ouvrage r´eunit l’en- semble des titres des programmes. Afin d’´eviter au lecteur un travail fasti- dieux de saisie, les sources sont ´egalement disponibles sur internet `a l’adresse http ://www1.mate.polimi.it/~calnum/programs.html.

Nous exprimons notre reconnaissance `a Jean-Fr´ed´eric Gerbeau, traduc- teur de l’ouvrage, pour sa lecture soigneuse et critique ainsi que pour ses nombreuses suggestions. Nous remercions ´egalement Eric Canc`es, Dominique Chapelle, Claude Le Bris et Marina Vidrascu qui ont aimablement accept´e de relire certains chapitres. Nos remerciements s’adressent ´egalement `a Fran- cesca Bonadei de Springer-Italie et `a Nathalie Huilleret de Springer-France pour leur pr´ecieuse collaboration en vue de la r´eussite de ce projet.

(7)

Le pr´esent ouvrage est une ´edition revue et augment´ee de notre livre intitul´e M´ethodes num´eriques pour le calcul scientifique, publi´e par Sprin- ger France en 2000. Il comporte en particulier deux nouveaux chapitres qui traitent de l’approximation d’´equations aux d´eriv´ees partielles par diff´erences finies et ´el´ements finis.

Milan et Lausanne Alfio Quarteroni

f´evrier 2007 Riccardo Sacco

Fausto Saleri

(8)

Table des mati` eres

I Notions de base

1 El´´ements d’analyse matricielle. . . 3

1.1 Espaces vectoriels . . . 3

1.2 Matrices . . . 5

1.3 Op´erations sur les matrices . . . 6

1.3.1 Inverse d’une matrice . . . 7

1.3.2 Matrices et applications lin´eaires . . . 8

1.4 Trace et d´eterminant d’une matrice . . . 9

1.5 Rang et noyau d’une matrice . . . 10

1.6 Matrices particuli`eres . . . 11

1.6.1 Matrices diagonales par blocs . . . 11

1.6.2 Matrices trap´ezo¨ıdales et triangulaires . . . 11

1.6.3 Matrices bandes . . . 12

1.7 Valeurs propres et vecteurs propres . . . 13

1.8 Matrices semblables . . . 14

1.9 D´ecomposition en valeurs singuli`eres . . . 17

1.10 Produits scalaires vectoriels et normes vectorielles . . . 18

1.11 Normes matricielles . . . 22

1.11.1 Relation entre normes et rayon spectral d’une matrice . . . 26

1.11.2 Suites et s´eries de matrices . . . 27

1.12 Matrices d´efinies positives, matrices `a diagonale dominante et M-matrices . . . 28

1.13 Exercices . . . 31

2 Les fondements du calcul scientifique . . . 33

2.1 Probl`emes bien pos´es et conditionnements . . . 33

2.2 Stabilit´e des m´ethodes num´eriques . . . 37

2.2.1 Relations entre stabilit´e et convergence . . . 41

(9)

2.3 Analysea prioriet a posteriori . . . 42

2.4 Sources d’erreurs dans un mod`ele num´erique . . . 43

2.5 Repr´esentation des nombres en machine . . . 45

2.5.1 Le syst`eme positionnel . . . 45

2.5.2 Le syst`eme des nombres `a virgule flottante . . . 47

2.5.3 R´epartition des nombres `a virgule flottante . . . 49

2.5.4 Arithm´etique IEC/IEEE . . . 49

2.5.5 Arrondi d’un nombre r´eel en repr´esentation machine . . . 51

2.5.6 Op´erations machines en virgule flottante . . . 52

2.6 Exercices . . . 54

II Alg`ebre lin´eaire num´erique 3 M´ethodes directes pour la r´esolution des syst`emes lin´eaires. . . 61

3.1 Analyse de stabilit´e des syst`emes lin´eaires . . . 62

3.1.1 Conditionnement d’une matrice . . . 62

3.1.2 Analysea priori directe . . . 64

3.1.3 Analysea priori r´etrograde . . . 66

3.1.4 Analysea posteriori . . . 66

3.2 R´esolution d’un syst`eme triangulaire . . . 67

3.2.1 Impl´ementation des m´ethodes de substitution . . . 68

3.2.2 Analyse des erreurs d’arrondi . . . 70

3.2.3 Inverse d’une matrice triangulaire . . . 71

3.3 M´ethode d’´elimination de Gauss et factorisation LU . . . 72

3.3.1 La m´ethode de Gauss comme m´ethode de factorisation . . . 75

3.3.2 Effets des erreurs d’arrondi . . . 79

3.3.3 Impl´ementation de la factorisation LU . . . 80

3.3.4 Formes compactes de factorisation . . . 81

3.4 Autres types de factorisation . . . 83

3.4.1 La factorisation LDMT . . . 83

3.4.2 Matrices sym´etriques d´efinies positives : la factorisation de Cholesky . . . 84

3.4.3 Matrices rectangulaires : la factorisation QR . . . 86

3.5 Changement de pivot . . . 89

3.6 Calculer l’inverse d’une matrice . . . 94

3.7 Syst`emes bandes . . . 94

3.7.1 Matrices tridiagonales . . . 95

3.7.2 Impl´ementations . . . 97

3.8 Syst`emes par blocs . . . 99

3.8.1 La factorisation LU par blocs . . . 99

(10)

3.8.2 Inverse d’une matrice par blocs . . . 100

3.8.3 Syst`emes tridiagonaux par blocs . . . 101

3.9 Pr´ecision de la m´ethode de Gauss . . . 102

3.10 Un calcul approch´e deK(A) . . . 105

3.11 Am´eliorer la pr´ecision de la m´ethode de Gauss . . . 106

3.11.1 Scaling . . . 106

3.11.2 Raffinement it´eratif . . . 107

3.12 Syst`emes ind´etermin´es . . . 108

3.13 Exercices . . . 112

4 M´ethodes it´eratives pour la r´esolution des syst`emes lin´eaires. . . 115

4.1 Convergence des m´ethodes it´eratives . . . 115

4.2 M´ethodes it´eratives lin´eaires . . . 118

4.2.1 Les m´ethodes de Jacobi, de Gauss-Seidel et de relaxation . . . 119

4.2.2 R´esultats de convergence pour les m´ethodes de Jacobi et de Gauss-Seidel . . . 120

4.2.3 R´esultats de convergence pour la m´ethode de relaxation . . . 123

4.2.4 Matrices par blocs . . . 124

4.2.5 Forme sym´etrique des m´ethodes SOR et de Gauss-Seidel . . . 124

4.2.6 Impl´ementations . . . 125

4.3 M´ethodes it´eratives stationnaires et instationnaires . . . 127

4.3.1 Analyse de la convergence des m´ethodes de Richardson . . . 128

4.3.2 Matrices de pr´econditionnement . . . 130

4.3.3 La m´ethode du gradient . . . 138

4.3.4 La m´ethode du gradient conjugu´e . . . 142

4.3.5 La m´ethode du gradient conjugu´e pr´econditionn´e . . . . 146

4.4 M´ethodes de Krylov . . . 148

4.4.1 La m´ethode d’Arnoldi pour les syst`emes lin´eaires . . . . 152

4.4.2 La m´ethode GMRES . . . 155

4.5 Tests d’arrˆet . . . 157

4.5.1 Un test d’arrˆet bas´e sur l’incr´ement . . . 158

4.5.2 Un test d’arrˆet bas´e sur le r´esidu . . . 159

4.6 Exercices . . . 160

5 Approximation des valeurs propres et des vecteurs propres . . . 163

5.1 Localisation g´eom´etrique des valeurs propres . . . 163

5.2 Analyse de stabilit´e et conditionnement . . . 166

5.2.1 Estimationsa priori . . . 166

(11)

5.2.2 Estimationsa posteriori . . . 170

5.3 La m´ethode de la puissance . . . 171

5.3.1 Approximation de la valeur propre de plus grand module . . . 172

5.3.2 M´ethode de la puissance inverse . . . 174

5.3.3 Impl´ementations . . . 176

5.4 La m´ethode QR . . . 179

5.5 La m´ethode QR “de base” . . . 181

5.6 La m´ethode QR pour les matrices de Hessenberg . . . 183

5.6.1 Matrices de transformation de Householder et Givens . . . 184

5.6.2 R´eduction d’une matrice sous la forme de Hessenberg . . . 187

5.6.3 Factorisation QR d’une matrice de Hessenberg . . . 189

5.6.4 M´ethode QR de base en partant d’une matrice de Hessenberg sup´erieure . . . 190

5.6.5 Impl´ementation des matrices de transformation . . . 192

5.7 La m´ethode QR avec translations . . . 195

5.7.1 La m´ethode QR avec translations . . . 195

5.8 Calcul des valeurs propres des matrices sym´etriques . . . 198

5.8.1 La m´ethode de Jacobi . . . 198

5.8.2 La m´ethode des suites de Sturm . . . 202

5.9 Exercices . . . 206

III Sur les fonctions et les fonctionnelles 6 R´esolution des ´equations et des syst`emes non lin´eaires. . . 211

6.1 Conditionnement d’une ´equation . . . 212

6.2 Une approche g´eom´etrique de la d´etermination des racines . . 214

6.2.1 M´ethode de dichotomie . . . 214

6.2.2 Les m´ethodes de la corde, de la s´ecante, de la fausse position et de Newton . . . 217

6.3 It´erations de point fixe pour les ´equations non lin´eaires . . . 223

6.3.1 R´esultats de convergence pour des m´ethodes de point fixe . . . 226

6.4 Racines des ´equations alg´ebriques . . . 227

6.4.1 M´ethode de Horner et d´eflation . . . 228

6.4.2 La m´ethode de Newton-Horner . . . 229

6.4.3 La m´ethode de Muller . . . 233

6.5 Crit`eres d’arrˆet . . . 236

6.6 Techniques de post-traitement pour les m´ethodes it´eratives . . 238

6.6.1 Acc´el´eration d’Aitken . . . 238

6.6.2 Techniques pour les racines multiples . . . 241

(12)

6.7 R´esolution des syst`emes d’´equations non lin´eaires . . . 243

6.7.1 La m´ethode de Newton et ses variantes . . . 244

6.7.2 M´ethodes de Newton modifi´ees . . . 246

6.7.3 M´ethodes de Quasi-Newton . . . 249

6.7.4 M´ethodes de type s´ecante . . . 249

6.7.5 M´ethodes de point fixe . . . 252

6.8 Exercices . . . 255

7 Interpolation polynomiale . . . 259

7.1 Interpolation polynomiale . . . 259

7.1.1 Erreur d’interpolation . . . 261

7.1.2 Les d´efauts de l’interpolation polynomiale avec noeuds ´equir´epartis et le contre-exemple de Runge . . . 262

7.1.3 Stabilit´e du polynˆome d’interpolation . . . 264

7.2 Forme de Newton du polynˆome d’interpolation . . . 264

7.2.1 Quelques propri´et´es des diff´erences divis´ees de Newton . . . 266

7.2.2 Erreur d’interpolation avec les diff´erences divis´ees . . . . 269

7.3 Interpolation de Lagrange par morceaux . . . 270

7.4 Interpolation d’Hermite-Birkoff . . . 270

7.5 Extension au cas bidimensionnel . . . 273

7.5.1 Polynˆome d’interpolation . . . 273

7.5.2 Interpolation polynomiale par morceaux . . . 274

7.6 Splines . . . 277

7.6.1 Splines d’interpolation cubiques . . . 278

7.6.2 B-splines . . . 282

7.7 Splines param´etriques . . . 286

7.8 Exercices . . . 288

8 Int´egration num´erique. . . 291

8.1 Formules de quadrature . . . 291

8.2 Quadratures interpolatoires . . . 293

8.2.1 Formule du rectangle ou du point milieu . . . 293

8.2.2 La formule du trap`eze . . . 295

8.2.3 La formule de Cavalieri-Simpson . . . 297

8.3 Les formules de Newton-Cotes . . . 299

8.4 Formules composites de Newton-Cotes . . . 304

8.5 Extrapolation de Richardson . . . 307

8.5.1 Int´egration de Romberg . . . 309

8.6 Int´egration automatique . . . 310

8.6.1 Algorithmes d’int´egration non adaptatifs . . . 311

8.6.2 Algorithmes d’int´egration adaptatifs . . . 313

8.7 Int´egrales singuli`eres . . . 317

8.7.1 Int´egrales des fonctions pr´esentant des sauts finis . . . . 318

(13)

8.7.2 Int´egrales de fonctions tendant vers l’infini . . . 318

8.7.3 Int´egrales sur des intervalles non born´es . . . 320

8.8 Int´egration num´erique multidimensionnelle . . . 322

8.8.1 La m´ethode de r´eduction . . . 322

8.8.2 Quadratures composites bidimensionnelles . . . 324

8.9 Exercices . . . 327

IV Transformations, d´erivations et discr´etisations 9 Polynˆomes orthogonaux en th´eorie de l’approximation. . . 333

9.1 Approximation de fonctions par des s´eries de Fourier g´en´eralis´ees . . . 333

9.1.1 Les polynˆomes de Chebyshev . . . 335

9.1.2 Les polynˆomes de Legendre . . . 336

9.2 Interpolation et int´egration de Gauss . . . 337

9.3 Interpolation et int´egration de Chebyshev . . . 341

9.4 Interpolation et int´egration de Legendre . . . 344

9.5 Int´egration de Gauss sur des intervalles non born´es . . . 346

9.6 Impl´ementations des quadratures de Gauss . . . 347

9.7 Approximation d’une fonction au sens des moindres carr´es . . . 349

9.7.1 Approximation au sens des moindres carr´es discrets . . 349

9.8 Le polynˆome de meilleure approximation . . . 351

9.9 Polynˆome trigonom´etrique de Fourier . . . 353

9.9.1 La transformation de Fourier rapide . . . 358

9.10 Approximation des d´eriv´ees . . . 359

9.10.1 M´ethodes des diff´erences finies classiques . . . 359

9.10.2 Diff´erences finies compactes . . . 361

9.10.3 D´eriv´ee pseudo-spectrale . . . 364

9.11 Exercices . . . 366

10 R´esolution num´erique des ´equations diff´erentielles ordinaires. . . 369

10.1 Le probl`eme de Cauchy . . . 369

10.2 M´ethodes num´eriques `a un pas . . . 372

10.3 Analyse des m´ethodes `a un pas . . . 373

10.3.1 La z´ero-stabilit´e . . . 375

10.3.2 Analyse de la convergence . . . 377

10.3.3 Stabilit´e absolue . . . 379

10.4 Equations aux diff´erences . . . 382

10.5 M´ethodes multi-pas . . . 388

10.5.1 M´ethodes d’Adams . . . 391

10.5.2 M´ethodes BDF . . . 392

10.6 Analyse des m´ethodes multi-pas . . . 393

(14)

10.6.1 Consistance . . . 393

10.6.2 Les conditions de racines . . . 394

10.6.3 Analyse de stabilit´e et convergence des m´ethodes multi-pas . . . 396

10.6.4 Stabilit´e absolue des m´ethodes multi-pas . . . 397

10.7 M´ethodes pr´edicteur-correcteur . . . 400

10.8 M´ethodes de Runge-Kutta . . . 406

10.8.1 Construction d’une m´ethode RK explicite . . . 409

10.8.2 Pas de discr´etisation adaptatif pour les m´ethodes RK 410 10.8.3 R´egions de stabilit´e absolue des m´ethodes RK . . . 413

10.9 Syst`emes d’´equations diff´erentielles ordinaires . . . 414

10.10 Probl`emes raides . . . 415

10.11 Exercices . . . 418

11 Probl`emes aux limites en dimension un. . . 421

11.1 Un probl`eme mod`ele . . . 421

11.2 Approximation par diff´erences finies . . . 423

11.2.1 Analyse de stabilit´e par la m´ethode de l’´energie . . . 424

11.2.2 Analyse de convergence . . . 428

11.2.3 Diff´erences finies pour des probl`emes aux limites 1D avec coefficients variables . . . 430

11.3 M´ethode de Galerkin . . . 431

11.3.1 Formulation int´egrale des probl`emes aux limites . . . 432

11.3.2 Notions sur les distributions . . . 433

11.3.3 Formulation et propri´et´es de la m´ethode de Galerkin . . . 435

11.3.4 Analyse de la m´ethode de Galerkin . . . 436

11.3.5 M´ethode des ´el´ements finis . . . 438

11.3.6 Equations d’advection-diffusion . . . 444

11.3.7 Probl`emes d’impl´ementation . . . 445

11.4 Un aper¸cu du cas bidimensionnel . . . 449

11.5 Exercices . . . 452

12 Probl`emes transitoires paraboliques et hyperboliques. . . 455

12.1 Equation de la chaleur . . . 455

12.2 Approximation par diff´erences finies de l’´equation de la chaleur . . . 458

12.3 Approximation par ´el´ements finis de l’´equation de la chaleur . . . 459

12.3.1 Analyse de stabilit´e duθ-sch´ema . . . 462

12.4 Equations hyperboliques : un probl`eme de transport scalaire . . . 467

12.5 Syst`emes d’´equations lin´eaires hyperboliques . . . 468

12.5.1 Equation des ondes . . . 469

(15)

!

"#

$% & &' ( ) & ( $ & ( & ' )*&( ( ( +, ( ,- ( . / 01 ( 2 2''

$3 $2'

. !4 , 2'

& $ 2'& ( # / 2

' $ , ,2

2

5 / , $ 2

2

2

2

(16)

Partie I

Notions de base

(17)

El´ ´ ements d’analyse matricielle

Dans ce chapitre, nous rappelons les notions ´el´ementaires d’alg`ebre lin´eaire que nous utiliserons dans le reste de l’ouvrage. Pour les d´emonstrations et pour plus de d´etails, nous renvoyons `a [Bra75], [Nob69], [Hal58]. On trouvera

´

egalement des r´esultats compl´ementaires sur les valeurs propres dans [Hou75]

et [Wil65].

1.1 Espaces vectoriels

D´efinition 1.1 Un espace vectorielsur un corpsK (K =Rou K=C) est un ensemble non videV sur lequel on d´efinit une loi interne not´ee +, appel´ee addition, et une loi externe, not´ee·, appel´eemultiplication par un scalaire, qui poss`edent les propri´et´es suivantes :

1. (V,+) est un groupe commutatif ;

2. la loi externe satisfait ∀α ∈ K,∀v,w ∈ V, α(v+w) = αv+αw; ∀α, β∈K,∀v∈V, (α+β)v =αv+βv et (αβ)v=α(βv) ; 1·v=v, o`u 1 est l’´el´ement unit´e de K. Les ´el´ements de V sont appel´es vecteurs, ceux

deK sont lesscalaires.

Exemple 1.1 Voici des exemples d’espace vectoriel :

– V =Rn (resp.V =Cn) : l’ensemble des n-uples de nombres r´eels (resp. com- plexes),n≥1 ;

– V =Pn : l’ensemble des polynˆomes pn(x) =n

k=0akxk, de degr´e inf´erieur ou

´

egal `an,n≥0, `a coefficients r´eels ou complexesak;

– V =Cp([a, b]) : l’ensemble des fonctions, `a valeurs r´eelles ou complexes,pfois continˆument d´erivables sur [a, b], 0≤p <∞. •

(18)

D´efinition 1.2 On dit qu’une partie non vide W de V est un sous-espace vectorieldeV si et seulement si

∀(v,w)∈W2, ∀(α, β)∈K2, αv+βw∈W.

En particulier, l’ensemble W des combinaisons lin´eaires d’une famille de p vecteurs de V, {v1, . . . ,vp}, est un sous-espace vectoriel de V, appel´esous- espace engendr´epar la famille de vecteurs. On le note

W = vect{v1, . . . ,vp}

={v=α1v1+. . .+αpvp avecαi∈K, i= 1, . . . , p}. (1.1) La famille{v1, . . . ,vp}est appel´eefamille g´en´eratricedeW.

SiW1, . . . , Wmsont des sous-espaces vectoriels de V, alors l’ensemble S={w: w=v1+. . .+vm avecvi∈Wi, i= 1, . . . , m} est aussi un sous-espace vectoriel de V.

D´efinition 1.3 On dit queSest lasomme directedes sous-espacesWisi tout

´

el´ements∈S admet une unique d´ecomposition de la formes=v1+. . .+vm

avecvi∈Wi eti= 1, . . . , m. Dans ce cas, on ´ecritS=W1⊕. . .⊕Wm. D´efinition 1.4 Une famille de vecteurs{v1, . . . ,vm}d’un espace vectorielV est dite libresi les vecteurs v1, . . . ,vmsont lin´eairement ind´ependants c’est-

`

a-dire si la relation

α1v12v2+. . .+αmvm=0,

avec α1, α2, . . . , αm ∈ K, impliqueα1 = α2 = . . . = αm = 0 (on a not´e 0 l’´el´ement nul deV). Dans le cas contraire, la famille est diteli´ee.

On appellebasedeV toute famille libre et g´en´eratrice deV. Si{u1, . . . ,un}est une base de V, l’expressionv=v1u1+. . .+vnun est appel´eed´ecomposition de v et les scalaires v1, . . . , vn ∈ K sont les composantes de v sur la base donn´ee. On a de plus la propri´et´e suivante :

Propri´et´e 1.1 (th´eor`eme de la dimension) Si V est un espace vectoriel muni d’une base de n vecteurs, alors toute famille libre de V a au plus n

´

el´ements et toute autre base deV a exactement n´el´ements. Le nombre nest appel´e dimension de V et on note dim(V) =n.

Si pour tout n il existe n vecteurs de V lin´eairement ind´ependants, l’espace vectoriel est dit de dimension infinie.

Exemple 1.2 Pour toutp, l’espaceCp([a, b]) est de dimension infinie. Les espaces RnetCnsont de dimensionn. La base usuelle (oucanonique) deRnest l’ensemble desvecteurs unitaires{e1, . . . ,en}avec (ei)jijpouri, j= 1, . . . n, o`uδijd´esigne lesymbole de Kronecker(i.e.0 sii=jet 1 sii=j). Ce choix n’est naturellement

pas le seul possible (voir Exercice 2). •

(19)

1.2 Matrices

Soientmetndeux entiers positifs. On appellematrice`amlignes etncolonnes, ou matricem×n, ou matrice (m, n), `a coefficients dans K, un ensemble de mn scalaires aij ∈ K, avec i = 1, . . . , m et j = 1, . . . n, repr´esent´es dans le tableau rectangulaire suivant

A =

⎢⎢

⎢⎣

a11 a12 . . . a1n a21 a22 . . . a2n ... ... ... am1 am2 . . . amn

⎥⎥

⎥⎦. (1.2)

Quand K=RouK =C, on ´ecrit respectivement A∈Rm×n ou A∈Cm×n, afin de mettre explicitement en ´evidence le corps auquel appartiennent les

´

el´ements de A. Nous d´esignerons une matrice par une lettre majuscule, et les coefficients de cette matrice par la lettre minuscule correspondante.

Pour ´ecrire (1.2), nous utiliserons l’abr´eviation A = (aij) aveci = 1, . . . , m et j = 1, . . . n. L’entier i est appel´e indice de ligne, et l’entier j indice de colonne. L’ensemble (ai1, ai2, . . . , ain) est la i-i`eme ligne de A ; de mˆeme, (a1j, a2j, . . . , amj) est laj-i`eme colonnede A.

Si n = m, on dit que la matrice est carr´ee ou d’ordre n et on appelle diagonale principalele n-uple (a11, a22, . . . , ann).

On appellevecteur ligne(resp.vecteur colonne) une matrice n’ayant qu’une ligne (resp. colonne). Sauf mention explicite du contraire, nous supposerons toujours qu’un vecteur est un vecteur colonne. Dans le cas n = m = 1, la matrice d´esigne simplement un scalaire deK.

Il est quelquefois utile de distinguer, `a l’int´erieur d’une matrice, l’ensemble constitu´e de lignes et de colonnes particuli`eres. Ceci nous conduit `a introduire la d´efinition suivante :

D´efinition 1.5 Soit A une matricem×n. Soient 1≤i1< i2< . . . < ik ≤m et 1 ≤j1 < j2< . . . < jl ≤n deux ensembles d’indices. La matrice S(k×l) ayant pour coefficients spq =aipjq avecp= 1, . . . , k, q= 1, . . . , lest appel´ee sous-matricede A. Sik=letir=jrpourr= 1, . . . , k, S est unesous-matrice

principalede A.

D´efinition 1.6 Une matrice A(m×n) est dited´ecompos´ee en blocs ou d´e- compos´ee en sous-matricessi

A =

⎢⎢

⎢⎣

A11 A12. . .A1l

A21 A22. . .A2l ... ... . .. ... Ak1Ak2. . .Akl

⎥⎥

⎥⎦,

o`u les Aij sont des sous-matrices de A.

(20)

Parmi toutes les partitions possibles de A, mentionnons en particulier la par- tition en colonnes

A = (a1, a2, . . . ,an),

ai´etant lei-i`eme vecteur colonne de A. On d´efinit de fa¸con analogue la par- tition de A en lignes. Pour pr´eciser les notations, si A est une matricem×n, nous d´esignerons par

A(i1:i2, j1:j2) = (aij)i1≤i≤i2, j1≤j≤j2

la sous-matrice de A de taille (i2−i1+ 1)×(j2−j1+ 1) comprise entre les lignesi1 et i2 et les colonnes j1 et j2. De mˆeme, sivest un vecteur de taille n, nous d´esignerons parv(i1:i2) le vecteur de taillei2−i1+ 1 compris entre lai1-i`eme et lai2-i`eme composante dev.

Ces notations sont utiles pour l’impl´ementation des algorithmes dans des langages de programmation tels que Fortran 90 ou MATLAB.

1.3 Op´ erations sur les matrices

Soient A = (aij) et B = (bij) deux matricesm×n surK. On dit que A est

´

egale `a B, siaij =bij pour i= 1, . . . , m, j = 1, . . . , n. On d´efinit de plus les op´erations suivantes :

– somme de matrices : on appelle somme des matrices A et B la matrice C(m×n) dont les coefficients sont cij = aij +bij, i = 1, . . . , m, j = 1, . . . , n. L’´el´ement neutre pour la somme matricielle est lamatrice nulle, not´ee 0m,n ou plus simplement 0, constitu´ee de coefficients tous nuls ; – multiplication d’une matrice par un scalaire : la multiplication de A par

λ ∈ K, est la matrice C(m×n) dont les coefficients sont donn´es par cij =λaij, i= 1, . . . , m, j= 1, . . . , n;

– produit de deux matrices: le produit d’une matrices A de taille (m, p) par une matrice B de taille (p, n) est la matrice C(m, n), dont les coefficients sont donn´es parcij =

p k=1

aikbkj, i= 1, . . . , m, j= 1, . . . , n.

Le produit matriciel est associatif et distributif par rapport `a la somme ma- tricielle, mais il n’est pas commutatif en g´en´eral. On dira que deux matrices carr´eescommutent si AB = BA.

Dans le cas des matrices carr´ees, l’´el´ement neutre pour le produit matri- ciel est la matrice carr´ee d’ordren, appel´ee matrice unit´e d’ordre n ou, plus fr´equemment,matrice identit´e, d´efinie par In= (δij).

La matrice identit´e est, par d´efinition, la seule matricen×ntelle que AIn = InA = A pour toutes les matrices carr´ees A. Dans la suite nous omettrons l’indice n `a moins qu’il ne soit vraiment n´ecessaire. La matrice identit´e est

(21)

un cas particulier de matrice diagonale d’ordre n, c’est-`a-dire une matrice ayant tous ses termes nuls except´es ceux de la diagonale qui valentdii, ce qu’on peut ´ecrire D = (diiδij). On utilisera le plus souvent la notation D = diag(d11, d22, . . . , dnn).

Enfin, si A est une matrice carr´ee d’ordre n et p un entier, on d´efinit Ap comme le produit de A par elle-mˆeme r´ep´et´epfois. On pose A0= I.

Abordons `a pr´esent les op´erations ´el´ementaires sur les lignes d’une matrice.

Elles consistent en :

– la multiplication de lai-i`eme ligne d’une matrice par un scalaire α; cette op´eration est ´equivalente `a la multiplication de A par la matrice D = diag(1, . . . ,1, α,1, . . . ,1), o`uαest `a lai-i`eme place ;

– l’´echange de la i-i`eme et de la j-i`eme ligne d’une matrice ; ceci peut ˆetre effectu´e en multipliant A par la matrice P(i,j)d´efinie par

p(rsi,j)=

⎧⎪

⎪⎪

⎪⎪

⎪⎩

1 si r=s= 1, . . . , i−1, i+ 1, . . . , j−1, j+ 1, . . . , n, 1 si r=j, s=i our=i, s=j,

0 autrement.

(1.3)

Les matrices du type (1.3) sont appel´eesmatrices ´el´ementaires de permu- tation. Le produit de matrices ´el´ementaires de permutation est appel´ema- trice de permutation, et il effectue les ´echanges de lignes associ´es `a chaque matrice ´el´ementaire. En pratique, on obtient une matrice de permutation en r´eordonnant les lignes de la matrice identit´e ;

– la somme de lai-i`eme ligne d’une matrice avecαfois saj-i`eme ligne. Cette op´eration peut aussi ˆetre effectu´ee en multipliant A par la matrice I+N(αi,j), o`u N(αi,j) est une matrice dont les coefficients sont tous nuls except´e celui situ´e eni, j dont la valeur est α.

1.3.1 Inverse d’une matrice

D´efinition 1.7 Un matrice carr´ee A d’ordrenest diteinversible(our´eguli`ere ou non singuli`ere) s’il existe une matrice carr´ee B d’ordren telle que A B = B A = I. On dit que B est la matrice inverse de A et on la note A−1. Une matrice qui n’est pas inversible est ditesinguli`ere.

Si A est inversible, son inverse est aussi inversible et (A−1)−1= A. De plus, si A et B sont deux matrices inversibles d’ordren, leur produit AB est aussi inversible et(A B)−1= B−1A−1. On a la propri´et´e suivante :

Propri´et´e 1.2 Une matrice carr´ee est inversible si et seulement si ses vec- teurs colonnes sont lin´eairement ind´ependants.

(22)

D´efinition 1.8 On appelle transpos´ee d’une matrice A∈ Rm×n la matrice n×m, not´ee AT, obtenue en ´echangeant les lignes et les colonnes de A.

On a clairement, (AT)T = A, (A + B)T = AT + BT, (AB)T = BTAT et (αA)T =αAT ∀α∈ R. Si A est inversible, on a aussi (AT)−1 = (A−1)T = AT.

D´efinition 1.9 Soit A ∈ Cm×n; la matrice B = A ∈ Cn×m est appel´ee adjointe (outranspos´ee conjugu´ee) de A si bij = ¯aji, o`u ¯aji est le complexe

conjugu´e de aji.

On a (A + B)= A+ B, (AB)= BA et (αA)= ¯αA∀α∈C. D´efinition 1.10 Une matrice A ∈ Rn×n est dite sym´etriquesi A = AT, et antisym´etrique si A = −AT. Elle est dite orthogonale si ATA = AAT = I,

c’est-`a-dire si A−1= AT.

Les matrices de permutation sont orthogonales et le produit de matrices or- thogonales est orthogonale.

D´efinition 1.11 Une matrice A∈Cn×nest ditehermitienneouautoadjointe si AT = ¯A, c’est-`a-dire si A= A, et elle est dite unitairesi AA = AA= I.

Enfin, si AA= AA, A est ditenormale.

Par cons´equent, une matrice unitaire est telle que A−1= A. Naturellement, une matrice unitaire est ´egalement normale, mais elle n’est en g´en´eral pas hermitienne.

On notera enfin que les coefficients diagonaux d’une matrice hermitienne sont n´ecessairement r´eels (voir aussi l’Exercice 5).

1.3.2 Matrices et applications lin´eaires

D´efinition 1.12 Une application lin´eairedeCn surCmest une fonctionf : Cn−→Cmtelle quef(αx+βy) =αf(x) +βf(y), ∀α, β∈Ket ∀x,y∈Cn.

Le r´esultat suivant relie matrices et applications lin´eaires.

Propri´et´e 1.3 Sif :Cn−→Cm est une application lin´eaire, alors il existe une unique matriceAf ∈Cm×n telle que

f(x) = Afx ∀x∈Cn. (1.4)

Inversement, si Af ∈Cm×n, alors la fonction d´efinie par (1.4)est une appli- cation lin´eaire deCn surCm.

(23)

Exemple 1.3 Un exemple important d’application lin´eaire est la rotationd’angle ϑdans le sens trigonom´etrique dans le plan (x1, x2). La matrice associ´ee est donn´ee par

G(ϑ) = c−s

s c

, c= cos(ϑ), s= sin(ϑ)

et on l’appellematrice de rotation. Remarquer que G(ϑ) fournit un exemple suppl´e-

mentaire de matrice unitaire non sym´etrique. •

Toutes les op´erations introduites pr´ec´edemment peuvent ˆetre ´etendues au cas d’une matrice A par blocs, pourvu que la taille de chacun des blocs soit telle que toutes les op´erations matricielles soient bien d´efinies.

1.4 Trace et d´ eterminant d’une matrice

Consid´erons une matrice carr´ee A d’ordre n. Latracede cette matrice est la somme des coefficients diagonaux de A : tr(A) =

n i=1

aii.

On appelled´eterminantde A le scalaire d´efini par la formule suivante : d´et(A) =

π ∈P

signe(π)a1π1a2π2. . . an,

o`u P =

π= (π1, . . . , πn)T

est l’ensemble desn! multi-indices obtenus par permutation du multi-indice i= (1, . . . , n)T et signe(π) vaut 1 (respective- ment−1) si on effectue un nombre pair (respectivement impair) de transpo- sitions pour obtenirπ`a partir dei.

Dans le cas des matrices carr´ees d’ordren, on a les propri´et´es suivantes : d´et(A) = d´et(AT), d´et(AB) = d´et(A)d´et(B),

d´et(A−1) = 1/d´et(A),

d´et(A) = d´et(A), d´et(αA) =αnd´et(A), ∀α∈K.

De plus, si deux lignes ou deux colonnes d’une matrice co¨ıncident, le d´eter- minant de cette matrice est nul. Quand on ´echange deux lignes (ou deux colonnes), on change le signe du d´eterminant. Enfin, le d´eterminant d’une matrice diagonale est le produit des ´el´ements diagonaux.

Si on note Aij la matrice d’ordren−1 obtenue `a partir de A en ´eliminant la i-i`eme ligne et la j-i`eme colonne, on appellemineur associ´e au coefficient aij le d´eterminant de la matrice Aij. On appellek-i`eme mineur principalde A le d´eterminantdkde la sous-matrice principale d’ordrek, Ak = A(1 :k,1 :k).

(24)

Le cofacteurdeaij est d´efini par ∆ij = (−1)i+jd´et(Aij), le calcul effectif du d´eterminant de A peut ˆetre effectu´e en utilisant la relation de r´ecurrence

d´et(A) =

⎧⎪

⎪⎪

⎪⎪

⎪⎩

a11 sin= 1,

n j=1

ijaij pourn >1,

(1.5)

qui est connue sous le nom deloi de Laplace. Si A est une matrice inversible d’ordren, alors

A−1= 1 d´et(A)C,

o`u C est la matrice de coefficients ∆ji,i= 1, . . . , n,j= 1, . . . , n.

Par cons´equent, une matrice carr´ee est inversible si et seulement si son d´eter- minant est non nul. Dans le cas d’une matrice diagonale inversible, l’inverse est encore une matrice diagonale ayant pour ´el´ements les inverses des ´el´ements de la matrice.

Toutematrice orthogonale est inversible, son inverse est AT et d´et(A) =

±1.

1.5 Rang et noyau d’une matrice

Soit A une matrice rectangulairem×n. On appelled´eterminant extrait d’ordre q (avecq≥1), le d´eterminant de n’importe quelle matrice d’ordreqobtenue

`

a partir de A en ´eliminantm−q lignes etn−qcolonnes.

D´efinition 1.13 Le rang de A, not´e rg(A), est l’ordre maximum des d´eter- minants extraits non nuls de A. Une matrice est de rang maximum si rg(A)

= min(m,n).

Remarquer que le rang de A repr´esente le nombre maximum de vecteurs co- lonnes de A lin´eairement ind´ependants. Autrement dit, c’est la dimension de l’imagede A, d´efinie par

Im(A) ={y∈Rm: y= Axpourx∈Rn}. (1.6) Il faudrait distinguera priori le rang des colonnes de A et le rang des lignes de A, ce dernier ´etant le nombre maximum de vecteurs lignes lin´eairement ind´ependants. Mais en fait, on peut prouver que le rang des lignes et le rang des colonnes co¨ıncident.

Lenoyaude A est le sous-espace vectoriel d´efini par Ker(A) ={x∈Rn: Ax=0}.

(25)

Soit A∈Rm×n; on a les relations suivantes :

1.rg(A) = rg(AT) (si A∈Cm×n, rg(A) = rg(A)) ; 2.rg(A) + dim(Ker(A)) =n.

(1.7) En g´en´eral, dim(Ker(A))= dim(Ker(AT)). Si A est une matrice carr´ee inver- sible, alors rg(A) =net dim(Ker(A)) = 0.

Exemple 1.4 La matrice

A =

1 1 0 1−1 1

,

est de rang 2, dim(Ker(A)) = 1 et dim(Ker(AT)) = 0. • On note enfin que pour une matrice A∈ Cn×n les propri´et´es suivantes sont

´

equivalentes : (i) A est inversible ; (ii) d´et(A) = 0 ; (iii) Ker(A) = {0}; (iv) rg(A) =n; (v) les colonnes et les lignes de A sont lin´eairement ind´ependantes.

1.6 Matrices particuli` eres

1.6.1 Matrices diagonales par blocs

Ce sont les matrices de la forme D = diag(D1, . . . ,Dn), o`u Di, i = 1, . . . , n, sont des matrices carr´ees. Naturellement, chaque bloc peut ˆetre de taille dif- f´erente. Nous dirons qu’une matrice diagonale par blocs est de taillensi elle comporte n blocs diagonaux. Le d´eterminant d’une matrice diagonale par blocs est ´egal au produit des d´eterminants des blocs diagonaux.

1.6.2 Matrices trap´ezo¨ıdales et triangulaires

Une matrice A(m×n) est ditetrap´ezo¨ıdale sup´erieure siaij = 0 pouri > j, et trap´ezo¨ıdale inf´erieure si aij = 0 pour i < j. Ce nom vient du fait que, quand m < n, les termes non nuls des matrices trap´ezo¨ıdales sup´erieures ont la forme d’un trap`eze.

Unematrice triangulaireest une matrice trap´ezo¨ıdale carr´ee d’ordre nde la forme

L =

⎢⎢

⎢⎣

l11 0 . . . 0 l21 l22 . . . 0 ... ... ... ln1 ln2 . . . lnn

⎥⎥

⎥⎦ou U =

⎢⎢

⎢⎣

u11u12. . . u1n

0 u22. . . u2n

... ... ... 0 0 . . . unn

⎥⎥

⎥⎦.

La matrice L est ditetriangulaire inf´erieuretandis que U est ditetriangulaire sup´erieure(les notations L et U viennent de l’anglaislower triangularetupper triangular).

(26)

Rappelons quelques propri´et´es alg´ebriques ´el´ementaires des matrices triangu- laires :

– le d´eterminant d’une matrice triangulaire est le produit des termes diago- naux ;

– l’inverse d’une matrice triangulaire inf´erieure est encore une matrice tri- angulaire inf´erieure ;

– le produit de deux matrices triangulaires inf´erieures est encore une matrice triangulaire inf´erieure ;

– le produit de deux matrices triangulaires inf´erieures dont les ´el´ements dia- gonaux sont ´egaux `a 1 est encore une matrice triangulaire inf´erieure dont les ´el´ements diagonaux sont ´egaux `a 1.

Ces propri´et´es sont encore vraies si on remplace “inf´erieure” par “sup´erieure”.

1.6.3 Matrices bandes

On dit qu’une matrice A ∈ Rm×n (ouCm×n) est une matrice bande si elle n’admet des ´el´ements non nuls que sur un “certain nombre” de diagonales autour de la diagonale principale. Plus pr´ecis´ement, on dit que A est une matricebande-p inf´erieure siaij= 0 quandi > j+petbande-q sup´erieuresi aij = 0 quandj > i+q. On appelle simplementmatrice bande-p une matrice qui est bande-p inf´erieure et sup´erieure.

Les matrices introduites dans la section pr´ec´edente sont des cas particuliers de matrices bandes. Les matrices diagonales sont des matrices bandes pour lesquelles p=q = 0. Les matrices triangulaires correspondent `a p=m−1, q= 0 (triangulaires inf´erieures), oup= 0,q=n−1 (triangulaires sup´erieures).

Il existe d’autres cat´egories int´eressantes de matrices bandes : lesmatrices tridiagonales(p=q= 1), lesbidiagonales sup´erieures(p= 0,q= 1) et lesbi- diagonales inf´erieures(p= 1,q= 0). Dans la suite, tridiagn(b,d,c) d´esignera la matrice tridiagonale de taillenayant sur la diagonale principale inf´erieure (resp. sup´erieure) le vecteur b= (b1, . . . , bn−1)T (resp. c= (c1, . . . , cn−1)T), et sur la diagonale principale le vecteurd= (d1, . . . , dn)T. Sibi=β,di=δet ci=γ, o`uβ,δetγsont des constantes, la matrice sera not´ee tridiagn(β, δ, γ).

Mentionnons ´egalement lesmatrices de Hessenberg inf´erieures(p=m−1, q = 1) et lesmatrices de Hessenberg sup´erieures(p= 1, q=n−1) qui ont respectivement les structures suivantes

H =

⎢⎢

⎢⎢

h11 h12

0

h21 h22 . .. ... . ..hm−1n hm1 . . . hmn

⎥⎥

⎥⎥

⎦ ou H =

⎢⎢

⎢⎢

h11h12 . . . h1n h21h22 h2n . .. ... ...

0

hmn−1hmn

⎥⎥

⎥⎥

⎦. On peut ´egalement ´ecrire des matrices par blocs sous cette forme.

(27)

1.7 Valeurs propres et vecteurs propres

Soit A une matrice carr´ee d’ordren`a valeurs r´eelles ou complexes ; on dit que λ ∈ Cest une valeur proprede A s’il existe un vecteur non nul x ∈ Cn tel que Ax =λx. Le vecteur x est le vecteur propre associ´e `a la valeur propre λet l’ensemble des valeurs propres de A est appel´espectrede A. On le note σ(A). On dit quexetysont respectivementvecteur propre `a droiteetvecteur propre `a gauchede A associ´es `a la valeur propreλ, si

Ax=λx,yA =λy.

La valeur propreλcorrespondant au vecteur proprexpeut ˆetre d´etermin´ee en calculant lequotient de Rayleighλ=xAx/(xx). Le nombreλest solution de l’´equation caract´eristique

pA(λ) = d´et(A−λI) = 0,

o`u pA(λ) est le polynˆome caract´eristique. Ce polynˆome ´etant de degr´en par rapport `a λ, on sait qu’il existe n valeurs propres (non n´ecessairement dis- tinctes).

On peut d´emontrer la propri´et´e suivante : d´et(A) =

n i=1

λi, tr(A) = n i=1

λi, (1.8)

et puisque d´et(AT −λI) = d´et((A−λI)T) = d´et(A−λI) on en d´eduit que σ(A) =σ(AT) et, de mani`ere analogue, queσ(A) =σ( ¯A).

Partant de la premi`ere relation de (1.8), on peut conclure qu’une matrice est singuli`ere si et seulement si elle a au moins une valeur propre nulle. En effet pA(0) = d´et(A) = Πni=1λi.

De plus, si A est une matrice r´eelle,pA(λ) est un polynˆome `a coefficients r´eels. Les valeurs propres complexes de A sont donc deux `a deux conjugu´ees.

Enfin, le th´eor`eme de Cayley-Hamilton assure que, sipA(λ) est le polynˆome caract´eristique de A, alorspA(A) = 0, o`upA(A) d´esigne un polynˆome matriciel (pour la d´emonstration, voir p. ex. [Axe94], p. 51).

Le plus grand des modules des valeurs propres de A est appel´e rayon spectralde A et il est not´eρ(A) :

ρ(A) = max

λσ(A)|λ|.

En utilisant la caract´erisation des valeurs propres d’une matrice comme racines du polynˆome caract´eristique, on voit en particulier queλest une valeur propre de A∈Cn×nsi et seulement si ¯λest une valeur propre de A. Une cons´equence imm´ediate est que ρ(A) = ρ(A). De plus, ∀A ∈ Cn×n et ∀α ∈ C on a ρ(αA) =|α|ρ(A) etρ(Ak) = [ρ(A)]k,∀k∈N.

Références

Documents relatifs

Un peu plus subtile, ne modifie pas b, donc on peut utiliser la même décomposition pour tout vecteur b, donne A-1 et les vecteurs propres.. Gauss Jordan (pivot

En g´en´eral, celui-ci n’est pas connu avec une pr´ecision infinie car il peut y avoir des erreurs de mesures et car la pr´ecision des instruments et de l’ordinateur n’est

La loi hydraulique permettant de calculer le d´ ebit s’´ enonce Q = α∆P , o` u Q est le d´ ebit du tuyau, ∆P la diff´ erence des pressions en entr´ ee et sortie et α est

Donner les valeurs propres et vecteurs propres de A. On rappelle que la m´ethode QR 1.. consiste `a ´ecrire A sous la forme QR avec Q unitaire et R triangulaire sup´erieure

Matrice de Van Der Monde et polynˆ omes d’in- terpollation de Lagrange.. Soient a

En principe, r´ esoudre un syst` eme lin´ eaire, c’est montrer qu’il n’a pas de solution, ou alors en exhiber une r´ esolution (en justifiant). En pratique, on applique la m´

[r]

[r]