• Aucun résultat trouvé

Analyse Numérique et Algorithme - Cours 4 PDF

N/A
N/A
Protected

Academic year: 2022

Partager "Analyse Numérique et Algorithme - Cours 4 PDF"

Copied!
48
0
0

Texte intégral

(1)

www.alloacademy.com

(2)

L’analyse numérique a commencé bien avant la conception des ordinateurs et leur utilisation quotidienne que nous connaissons aujourd’hui. Les premières méthodes ont été développées pour essayer de trouver des moyens rapides et efficaces de s’attaquer à des problèmes soit fastidieux à ré- soudre à cause de leur grande dimension (systèmes à plusieurs dizaines d’équations par exemple), soit parce qu’il n’existe pas solutions explicites connues même pour certaines équations assez simples en apparence.

Dès que les premiers ordinateurs sont apparus, ce domaine des mathématiques a pris son envol et continue encore à se développer de façon très soutenue.

Les applications extraordinairement nombreuses sont entrées dans notre vie quotidienne directe- ment ou indirectement. Nous les utilisons désormais sans nous en rendre compte mais surtout en ignorant la plupart du temps toute la théorie, l’expertise, le développement des compétences et l’in- géniosité des chercheurs pour en arriver là. Nous pouvons téléphoner, communiquer par satellite, faire des recherches sur internet, regarder des films où plus rien n’est réel sur l’écran, amélio- rer la sécurité des voitures, des trains, des avions, connaître le temps qu’il fera une semaine à l’avance,...et ce n’est qu’une infime partie de ce que l’on peut faire.

Le but de ce cours et s’initier aux bases de l’analyse numérique en espérant qu’elles éveilleront de l’intérêt, de la curiosité et pourquoi pas une vocation.

FIGURE 1 – Entre le Tintin dessiné à la main dans les années 6 par Hergé et celui mis à l’écran par Spielberg, un monde numérique les sépare. Un peu comme les premiers développements à la main des pionniers du numérique et les effets dernier cri des plus puissants des ordinateurs.

www.alloacademy.com

(3)

1 Les systèmes linéaires 5

1.1 Introduction . . . 5

1.1.1 Gestion des erreurs . . . 5

1.1.2 Exemple de problème menant à la résolution d’un système linéaire . . . 6

1.2 Quelques rappels sur les matrices . . . 9

1.2.1 Notations . . . 9

1.2.2 Lien avec les applications linéaires . . . 9

1.2.3 Opérations . . . 11

1.2.4 Trace et déterminant . . . 13

1.2.5 Matrice et produit scalaire . . . 14

1.2.6 Valeurs propres, vecteurs propres et réduction de matrices . . . 16

1.3 Normes vectorielles et matricielles . . . 18

1.3.1 Rappels sur les normes vectorielles . . . 18

1.3.2 Boules . . . 19

1.3.3 Normes matricielles . . . 20

1.3.4 Conditionnement . . . 21

1.4 Méthodes directes de résolution de systèmes linéaires . . . 24

1.4.1 Principe des méthodes directes . . . 25

1.4.2 Pivot de Gauss - DécompositionLU . . . 25

1.4.3 Cas des matrices symétriques définies positives :la factorisation de Cholesky 28 1.4.4 FactorisationQR . . . 28

1.5 Méthodes itératives de résolution de systèmes linéaires . . . 28

1.5.1 Principe des méthodes itératives . . . 29

1.5.2 Trois méthodes classiques . . . 30

1.5.3 Critère général de convergence, étude des suites d’itérées de matrices . . . 31

1.5.4 Quelques cas particuliers de convergence . . . 32

1.6 Méthodes numériques de calcul de valeurs propres et vecteurs propres . . . 33

1.6.1 Motivation : modes propres . . . 33

1.6.2 Difficultés . . . 34

1.6.3 Conditionnement spectral . . . 34

1.6.4 Méthode de la puissance . . . 36

1.6.5 Généralisation de la méthode de la puissance : la méthodeQR . . . 37

www.alloacademy.com

(4)

2 Résolution approchée d’équations non linaires 41

2.1 Introduction . . . 41

2.2 Dichotomie . . . 42

2.3 Méthode de type point fixe . . . 42

2.3.1 Théorème-énoncé général . . . 42

2.3.2 Construction de méthodes pourf(x) = 0 . . . 43

2.3.3 Vitesse de convergence . . . 44

2.4 Méthode de Newton . . . 44

2.4.1 Principe . . . 44

2.4.2 Théorème de convergence . . . 45

2.5 Méthode de la sécante . . . 46

2.6 Ordre d’une méthode itérative . . . 46

2.7 Systèmes d’équations non linéaires . . . 47

2.7.1 Point fixe . . . 47

2.7.2 Méthode de Newton dansRn . . . 48

2.7.3 Retour sur les systèmes linéaires et aux méthodes itératives . . . 48

3 Interpolation et approximation (polynomiales) 49 3.1 Introduction . . . 49

3.2 Interpolation polynomiale . . . 50

3.2.1 Interpolation de Lagrange . . . 50

3.2.2 Interpolation d’Hermite . . . 53

3.3 Approximation polynomiale au sens des moindres carrés . . . 54

www.alloacademy.com

(5)

Les systèmes linéaires

(a) Johann Carl Friedrich Gauss (1777- 1855), mathématicien, as- tronome et physicien allemand.

Considéré comme l’un des plus grands mathématiciens de tous les temps, nous utiliserons ici une mé- thode numérique qui porte son nom.

(b) Charles Gustave Jacob Ja- cobi (1804-1851), un mathéma- ticien allemand surtout connu pour ses travaux sur les inté- grales elliptiques, les équations aux dérivées partielles et leur application à la mécanique ana- lytique. On lui doit une mé- thode que l’on présentera ici

(c) André-Louis Cholesky (1875- 1918 ), polytechnicien et officier français, ingénieur topographe et géodésien. On lui doit une méthode que l’on présentera ici

FIGURE 1.1 – Quelques mathématiciens célèbres liés à l’étude des nombres entiers, rationnels et réels.

1.1 Introduction

1.1.1 Gestion des erreurs

Il arrive souvent lors de calcul que nous soyons obligés de donner une valeur approchée de la solution (0,333 pour 1/3 par exemple), c’est ce que l’on appelle la représentation des nombres

www.alloacademy.com

(6)

en virgule flottante (8 ou 16 chiffres significatifs après la virgule). Il se peut également qu’une méthode employée pour résoudre un problème ne nous amène pas exactement à la solution mais à côté, on dit alors que l’on a une approximation de la solution (c’est souvent le cas pour les problèmes non linéaires que nous verrons dans le chapitre suivant et moins fréquent pour les pro- blèmes linéaires). Le but est de pouvoir maîtriser ces erreurs de sorte qu’elles ne s’accumulent pas au cours des opérations successives. C’est un des chevaux de bataille des numériciens qui ne souhaitent pas voir leurs approximation s’éloigner des solutions exactes, ce qui rendrait leur travail complètement inefficace.

L’objectif est donc de chercher à élaborer des méthodes numériques qui n’amplifient pas trop les erreurs d’arrondi au cours des calculs. Intuitivement, nous imaginons bien que cette amplifica- tion est d’autant plus grande que le nombre d’opérations est important (additions, multiplications, etc.).Nous cherchons donc à réduire le nombre d’opérations au maximum et par voie de consé- quence le temps de calcul.

A titre d’exemple, pour calculer le déterminant d’une matrice carrée24⇥24par la méthode clas- sique de Cramer il faudrait plus de 20 ans à un ordinateur capable de faire 1015 opérations à la seconde (un Peta-flops) ! On voit donc qu’il est plus que nécessaire de trouver des méthodes beau- coup plus efficaces que celle-là.

Nous introduirons donc les notions de stabilité et d’efficacité. Et suivant les méthodes utilisées, nous aurons affaire à tel ou tel type d’erreur. Pour les systèmes linéaires par exemple nous étudie- rons deux types de méthodes bien distinctes :

1. les méthodes directes : qui consistent en des algorithmes qui permettent de calculer la solution exacte (mis à part les erreurs d’arrondis en virgule flottante) en un nombre fini d’opération,

2. les méthodes itératives: qui consistent en l’approche de la solution exactexpar une suite (xn)n2N de solutions approchées. Nous arrêtons alors les calculs lorsque nous atteignons un certainxn0. Nous avons alors une erreur de troncature due à l’approximation de la so- lution exacte que nous mesurons à l’aide d’une norme appropriée (suivant la dimension de l’espace dans lequelxse trouve)kx xn0k.

1.1.2 Exemple de problème menant à la résolution d’un système linéaire

On considère l’équation différentielle du second ordre posée sur l’intervalle[0,1], u00(x) +c(x)u(x) =f(x)pour toutx2]0,1[,

définie en0et1par

u(0) =↵etu(1) = ,

où↵et sont des réels donnés, f : [0,1] !Rest continue et donnée, etc: [0,1] ! R+est une fonction continue positive donnée.

L’inconnue est ici la fonctionu: [0,1]!Rqui est de classeC2.

On discrétise cette équation par ce que l’on appelle la méthode des différences finies (voir chapitre sur les équations différentielles). On se donne un nombre fini de points dans[0,1]espacés à égale distanceh. Nous avons alors pour toutn 2N,h= 1

n que l’on appelle le “pas du maillage”.

www.alloacademy.com

(7)

On note pour toutj = 0, ..., n,xj = j n.

Nous allons essayer alors de calculer une valeur approchée de la solution u aux points x0,...xn. Nous passons donc d’un problème continu à un problème discret.

Pour touti = 0, ..., non poseci = c(xi), fi =f(xi)etui la valeur approchée desu(xi)calculée par le schéma numérique.

Le problème est le suivant : comment approcheru00(xi)? Une des méthodes consiste d’abord à estimer :

1. la dérivée première:

on approcheu0(xi)par un taux d’accroissement. Et on a le choix : -soit

u0(xi)' u(xi) u(xi 1)

xi xi 1 ' ui ui 1

h ,

-soit

u0(xi)' u(xi+1) u(xi)

xi+1 xi ' ui+1 ui

h .

Tout le problème quand nous construisons une telle méthode est de savoir comment contrô- ler le “'”. Nous voulons que la solution approchée ui soit proche de la solution exacte u(xi). Une notion que nous utiliserons pour cela sera la consistance (voir chapitre sur les équations différentielles).

Si on considère la seconde méthode, commeu2C2, nous utilisons une développement de Taylor à l’ordre 1 entrexi etxi+1,

u(xi+1) = u(xi) +hu0(xi) + h2

2u00(✓i), où✓i 2]xi, xi+1[.

Ce qui nous donne par un calcul simple : u(xi+1) u(xi)

h u0(xi) = h 2u00(✓i).

Nous voyons donc que la différence entre la valeur exacte de la dérivée et son approxi- mation par le taux d’accroissement est égal à h

2u00(✓i), c’est à dire de l’ordre de h. Nous choisissons alorshtrès petit (c’est à dire le nombrende points entre 0 et 1 très grand).

2. la dérivée seconde:

on considère la seconde méthode ci-dessus, et on fait applque Taylor à l’ordre 3 (en suppo- sant queusoit dérivable jusqu’à l’ordre 4 sur [0,1])

-entrexi etxi+1:

u(xi+1) = u(xi) +hu0(xi) + h2

2 u00(xi) + h3

6u000(xi) + h4

24u(4)(✓1i), -entrexi 1etxi:

u(xi 1) = u(xi) hu0(xi) + h2

2 u00(xi) h3

6 u000(xi) + h4

24u(4)(✓2i), où✓1i 2]xi, xi+1[et✓2i 2]xi 1, xi[.

En faisant la somme nous avons

www.alloacademy.com

(8)

u00(xi) = u(xi+1) 2u(xi) +u(xi 1) h2

h

24(u(4)(✓1i) +u(4)(✓2i)), ce qui nous permet d’écrire

u00(xi)' ui+1 2ui+ui 1 h2

et l’erreur locale est donc de l’ordre deh2.

Si l’on poseu(0) =u0 etu(1) =un, le schéma ainsi obtenu est finalement : 8>

<

>:

ui+1+ 2ui ui 1

h2 +ciui = fi, pour tout i= 1, ..., n 1, u0 = ↵,

un = .

Nous avons bienn+1équations àn+1inconnues, que nous pouvons écrire sous forme matricielle

(An+Cn)Un =bn, (1.1)

An= 0 BB BB B@

2 1 0 · · · 0

1 2 1 · · · 0

0 ... ... ... ...

... ... ... ... 1

0 · · · 0 1 2

1 CC CC CA

, Cn= 0 BB B@

c1 0 · · · 0

0 c2 · · · 0

... ... ... ...

0 · · · 0 cn 1

1 CC CA, bn

0 BB BB BB B@

f1+ ↵ h2 f2

...

fn 2

fn1 + h2

1 CC CC CC CA

et Un= 0 B@

u1

...

un 1

1 CA.

Notons qu’étant donné que la matriceAn+Cnest symétrique définie positive, alors elle est inver- sible et le système (1.1) possède une unique solution.

Une question que nous pouvons nous poser est la suivante :

-Comment évaluer l’erreur ? Si pour touti = 1, ..., n, nous avonsu(xi)la solution exacte etui la solution approchée, nous pouvons montrer que l’erreur notée

0maxin|u(xi) ui|, est de l’ordre deh2.

Remarque Nous pouvons faire plusieurs remarques à ce stade du cours :

1. le système linéaire (1.1) peut devenir très grand, et donc difficile voire impossible à ré- soudre à la main,

2. pour tracer une courbe régulière reliant les valeurs discrètes approchéesu0,u1, ...,undes solutions nous devrons utiliser une méthode appelée méthode d’interpolation,

www.alloacademy.com

(9)

3. enfin, pour montrer l’existence et l’unicité de la solution de ce système nous avons utilisé un résultat de cours d’algèbre sur les matrices (matrice symétrique définie positive). Etant donné que nous souhaitons que ce cours soit le plus autonome possible, nous allons faire un rappel (non exhaustif) de plusieurs résultats sur les matrices. Pour plus de détails, nous vous conseillons de vous replonger dans votre cours d’algèbre linéaire.

1.2 Quelques rappels sur les matrices

Dans toute la suite,Kdésignera le corps des scalaires qui vaudra soitRpour les réels, soitCpour les complexes.

1.2.1 Notations

Soient m, n 2 N. Une matrice de type (m, n) surK est un tableau de scalaires (réels ou com- plexes) à àmlignes etncolonnes

A= 0 BB B@

a11 a12 · · · a1n

a21 a22 · · · a2n

... ... ... ...

am1 am2 · · · amn

1 CC CA

Nous notonsMmn(K)l’ensemble des matrices(m, n)surK.

Sim =n, nous notons justeMn(K)l’ensemble des matrices carrées(n, n)surK.

De plus, quand aucune autre notation ne sera précisée, nous noteronsAij le coefficient de la matrice Aà l’intersection de la ligneiet de la colonnej.

1.2.2 Lien avec les applications linéaires

Vecteurs

Soit E un espace vectoriel surK de dimension n 2 N (appelé également K-espace vectoriel).

SoitB = (ej)1jnune base deE. Tout vecteurxdeE admet une décomposition unique x=

Xn j=1

xjej,

où les scalairesxj sont les composantes dexdans la baseB.

Lorsqu’une base est fixée, on peut identifierEàKn. On notera alorsx= (xj)1jn. En notation matricielle, le vecteurxsera toujours représenté par le vecteur colonne

x= 0 BB B@

x1

x2

...

xn

1 CC CA.

Avec nos notations,

www.alloacademy.com

xest une matrice de type(n,1).

(10)

Représentation matricielle d’une application linéaire

SoientEetF deuxK-espaces vectoriels de dimension finie avecdimE =netdimF =m. Nous fixons deux bases :

B = (ej)1jnune base deEetB0 = (fj)1jm une base deF. Soitu:E !F une application linéaire. Toutx2Es’écrit alors

x= Xn

j=1

xjej, et donc par linéarité,

u(x) = Xn

j=1

xju(ej).

Pour chaque indicej,u(ej)est un vecteur deF qui se décompose dans la baseB0, autrement dit il existe des scalaires(aij)1i,jmtels que

u(ej) = Xm

i=1

aijfi. On a alors

u(x) = Xn

j=1

Xm i=1

xjaijfi.

Ainsi, relativement aux basesBetB0, l’application linéaireuest représentée par la matrice

A= 0 BB B@

a11 a12 · · · a1n

a21 a22 · · · a2n

... ... ... ...

am1 am2 · · · amn

1 CC CA.

De telle sorte que les composantes deu(x)dansB0s’obtiennent en faisant le produit de la matrice A par le vecteur colonne des composantes dex dansB (voir la section (1.2.3) pour le calcul du produit de deux matrices). On a alors

0 BB B@

(u(x))1

(u(x))2 ...

(u(x))m 1 CC CA=A

0 BB B@

x1

x2 ...

xn 1 CC CA. Lejème vecteur colonne deAque l’on écrit

0 BB B@

a1j

a3j

...

amj

1 CC CA. représente le vecteuru(ej)dans la base deB0.

inversement, à une matrice donnéeA 2Mmn(K), on peut associer une application linéaire cano- niqueu

www.alloacademy.com

:Kn !Km de matriceAassociée dans les bases canoniques deKnetKm.

(11)

Noyau, image et rang

SoitA 2Mmn(K). Le noyau, l’image et le rang sont définis comme étant le noyau, l’image et le rang de l’application linéaireucanonique associée àA.

Autrement dit l’image deAest définie par

Im(A) = {y2Km, il existe x2Kn, Ax=y}, et le noyau deApar

ker(A) = {x2Kn, Ax= 0}. Enfin, le rang deAnoté rg(A)est défini pardim(Im(A)).

On rappelle que

uest surjective si et seulement si rg(A) = m, uinjective si et seulement siker(A) ={0},

rg(A) + dim(ker(A)) =n.

1.2.3 Opérations

Somme

Nous pouvons ajouter deux matrices de mêmes dimensions(m, n), et nous avons naturellement (A+B)ij =Aij +Bij pour tousi= 1, ..., metj = 1, ..., n.

Multiplication par un scalaire

Pour↵ 2KetAune matrice(m, n), le produit↵Aest une matrice(m, n)et (↵A)ij =↵Aij pour tousi= 1, ..., metj = 1, ..., n.

Produit de deux matrices

SiA 2 Mmn(K) etB 2 Mnp(K), nous pouvons faire le produitAB, il s’agit d’une matrice de Mmp(K), et

(AB)ij = Xn k=1

AikBkj pour tousi= 1, ..., metj = 1, ..., p.

Remarque Si u : Kn ! Km (respectivement Si u : Kp ! Kn) est l’application linéaire ca- nonique associée àA (respectivementB), alors AB est la matrice dans les bases canoniques de u v :K

www.alloacademy.com

p !Km.

(12)

Transposée

SiA 2Mmn(K), la transposée deAnotéeAT, est la matrice deMnm(K)définie par (AT)ij =Ajipour tousi= 1, ..., netj = 1, ..., m.

SiA 2Mmn(R), nous avons les résultats suivants : 1. (AT)T =A,

2. (A+B)T =AT +BT, 3. ( A)T = AT, 2R, 4. (AB)T =BTAT, 5. (A 1)T = (AT) 1. Matrice adjointe

SiA 2Mmn(K), la matrice adjointe deA, notéeA, est la matrice deMnm(K)définie par (A)ij =Aji pour tousi= 1, ..., netj = 1, ..., m.

Remarque Notons que la matrice adjointe d’une matriceA à coefficients complexes est la ma- trice transposée de la matrice conjuguée deA, autrement dit

A =AT. SiA 2Mmn(R), nous avons les résultats suivants :

1. (A) =A,

2. (A+B) =A+B, 3. ( A) = A, 2C, 4. (AB) =BA, 5. (A 1) = (A) 1. Matrices particulières

Une matrice carréeA2Mn(K)de coefficients(aij)2Kpour tousi, j = 1, ..., n. est

1. diagonale : siaij = 0pour touti6=j. On note en généralA=diag(a11, a22, ..., ann), 2. une matrice diagonale de taillenparticulière est la matrice identitéIndont tous les coeffi-

cients valent1, autrement ditIn =diag(1,1, ...,1), 3. triangulaire supérieure siaij = 0pour touti > j, 4. triangulaire inférieure siaij = 0pour touti < j, 5. symétrique siAest réelle et siA=AT,

6. hermitienne siAest complexe et siA=A, 7. orthogonale siAest réelle et siAAT =ATA=In, 8. unitaire siAest complexe et siAA =AA=In, 9. normale siAA =AA.

Remarque

www.alloacademy.com

Une matrice à éléments réels est hermitienne si et seulement si elle est symétrique

(13)

1.2.4 Trace et déterminant

Trace

SoitA 2Mn(K)une matrice carrée de coefficients(aij)2Kpour tousi, j = 1, ..., n, sa trace est la somme de ses termes diagonaux

Tr(A) = Xn

i=1

aii.

On a les propriétés suivantes

Tr(A+B) = Tr(A) +Tr(B), Tr(AB) = Tr(BA).

Déterminant

Le déterminant d’une matrice carrée(n, n)est notédet(A)ou encore

detA=

a11 a12 · · · a1n

a21 a22 · · · a2n

... ... ... ...

am1 am2 · · · amn

.

Il est défini par la formule suivante

detA= X

2Sn

"( )a1 (1)...an (n)

oùSn est le groupe des permutations, c’est à dire des bijections de {1, ..., n} dans lui-même, et pour tout 2Sn,"( )est la signature de .

Les déterminants possèdent les propriétés suivantes : 1. detIn = 1,

2. detAT = detA, 3. detA = detA,

4. det(AB) = detAdetB,

5. pour tout scalaire↵2K,det(↵A) =↵ndetA,

6. le déterminant d’une matrice triangulaire (a fortiori diagonale) est égal au produit de ses termes diagonaux.

Inverse

On dit que la matrice carréeA de taillen est inversible s’il existe une matriceB de taillen telle queAB =BA =In.

La matrice

www.alloacademy.com

Best appelée inverse deAet notéeA 1.

(14)

Inverse et opérations

Nous avons les résultats suivants sur les inverses :

(AB) 1 =B 1A 1,(AT) 1 = (A 1)T,(A) 1 = (A 1). Caractérisation d’une matrice inversible

SoitA 2Mn(K). Les propositions suivantes sont équivalentes 1. Aest inversible,

2. detA6= 0,

3. Ax= 0a pour seule solutionx= 0,

4. pour toutb2Kn,Ax=bpossède une unique solution.

Théorème 1(MATRICE INVERSIBLE)

1.2.5 Matrice et produit scalaire

Dans cette section, nous travaillerons dans Kn, mais toutes les définitions se généralisent à un espace vectoriel surKde dimensionn, une fois fixée une base.

L’application< ., . >:Kn⇥Kn !Kdéfinie par

< x, y > = yTx = xTy = Xn

j=1

xjyj siK = R,

< x, y > = yx = xy = Xn

j=1

xjyj siK = C,

est appelé produit scalaire euclidien sur Rn si K = R, hermitien sur Cn si K = C, ou encore produit scalaire canonique si l’on ne précise pas le corps.

Deux vecteursxetydeKnsont orthogonaux si

< x, y >= 0.

Une famille de vecteurs deKn,(x1, ..., xp)est orthonormale si pour tous1j, k p,

< xj, xk>= jk =

⇢ 1 si j =k, 0 si j 6=k.

Produit scalaire et transposée ou adjointe 1. Cas réel :

pour toute matriceA2Mn(R), tous vecteursx, y 2Rn,

< Ax, y >=< x, ATy >.

www.alloacademy.com

(15)

SiAest orthogonale, elle “conserve” le produit scalaire euclidien : autrement dit pour tous vecteursx, y 2Rn,

< Ax, y >=< x, ATAy >=< x, y >.

2. Cas complexe :

de même, pour toute matriceA2Mn(C), tous vecteursx, y 2Cn,

< Ax, y >=< x, Ay >.

Si A est unitaire, elle “conserve” le produit scalaire hermitien : autrement dit pour tous vecteursx, y 2Cn,

< Ax, y >=< x, AAy >=< x, y >.

Matrices positives, définitions 1. Cas réel :

soitAune matrice symétrique réelle dansMn(R). On peut lui associer une forme quadra- tique surRn

x7!< Ax, x >=xTAx = Xn i,j=1

aijxixj.

Nous dirons queAest une matrice définie positive si cette forme quadratique vérifie

< Ax, x >>0pour toutx2Rn,x6= 0, et nous dirons queAest une matrice positive si elle vérifie “seulement”

< Ax, x > 0pour toutx2Rn. 2. Cas complexe :

SoitAune matrice hermitienne dans Mn(C). On peut lui associer une forme hermitienne surCn

x7!< Ax, x >=xTAx = Xn i,j=1

aijxixj.

Nous remarquerons que cette quantité est toujours réelle. Il est assez facile de montrer en effet, en utilisant la définition du produit scalaire et en l’appliquant à< Ax, x >que l’on a l’égalité :

< Ax, x >=< Ax, x >.

Nous dirons queAest définie positive si cette forme hermitienne vérifie

< Ax, x >>0pour toutx2Cn,x6= 0, et nous dirons queAest une matrice positive si elle vérifie “seulement”

< Ax, x > 0pour toutx2Cn.

www.alloacademy.com

(16)

1.2.6 Valeurs propres, vecteurs propres et réduction de matrices

Définitions

(a) Cas des matrices complexes :

soitA 2 Mn(C) une matrice carrée de taillen à coefficients complexes. Les valeurs propres de A sont les n racines complexes (distinctes ou confondues) du polynôme caractéristique deAdéfini par

PA( ) = det(A In), et sont données par 1, ..., nou 1(A), ..., n(A).

La multiplicité d’une valeur propre est sa multiplicité en tant que racine de PA. Une valeur propre de multiplicité égale à un est dite simple.

Le spectre deA est l’ensemble des valeurs propres de A(sous ensemble de C), il est noté sp(A).

Le rayon spectral de la matriceAest le nombre réel positif défini par

⇢(A) = max{| i(A)|, 1in}, où|.|désigne le module d’un nombre complexe.

A toute valeur propre de A est associé (au-moins) un vecteur x 2 Cn non nul tel que Ax= x. On dit alors quexest un vecteur propre deAassocié à la valeur propre . On appelle sous-espace propre associé à la valeur propre le sous-espace vectoriel deCn:

E = ker(A In) = {x2Cn, Ax= x}.

Rappelons les expressions de la trace et le déterminant en fonction des valeurs propres Tr(A) =

Xn i=1

i(A),det(A) = Yn i=1

i(A).

3. Cas des matrices réelles :

pour les matrices à coefficients réels, deux points de vue sont possibles :

(a) nous pouvons voirA 2 Mn(R) comme une matrice à coefficients complexes, et nous reprenons alors la définition des valeurs propres et vecteurs propres donnés plus haut.

Ces quantités sont alors a priori respectivement dansCetCn.

(b) nous ne sortons pas du corps des réels : les valeurs propres deA 2Mn(R)sont les ra- cines réelles du polynôme caractéristique. Un vecteur propre associé à la valeur propre

2Rest alors un vecteurxnon nul deRntel queAx= x.

Le sous-espace propre associé à la valeur propre 2Rest alors le sous-espace vectoriel deRn:

E = ker(A In) = {x2Rn, Ax= x}.

Notons qu’avec cette dernière définition, une matrice peut ne pas avoir de valeurs propres.

Remarque

www.alloacademy.com

(17)

1. Attention : dans la suite de ce cours, la définition de rayon spectral fait intervenir les valeurs propres dansC même pour une matrice réelle : queAsoit dans Mn(C) ou dans Mn(R)son rayon spectral est défini comme

⇢(A) = max{| |, racines dansCdePA}.

2. Pour la réduction (diagonalisation,...) des matrices réelles, il est important de préciser dans quel corps nous raisonnons :RouC.

Quelques résultats sur la réduction des matrices

SoitEunK-espace vectoriel de dimensionnetu:E !Eun application linéaire représentée par la matriceA= (aij)relativement à une baseB = (ej).

Relativement à une autre base deE,B0 = (e0j), la même application linéaireuest représentée par la matrice

B =P 1AP,

oùP est la matrice de passage de la baseB = (ej)à la baseB0 = (e0j).P est la matrice inversible dont lejème vecteur colonne est formé des composantes du vecteure0j dans la base(ej).

Une même application linéaire est donc représentée par différentes matrices selon la base choisie.

Le problème de réduction de matrices est de trouver une base pour laquelle la matrice est la plus simple possible, le cas d’une matrice diagonale étant le plus favorable.

Diagonalisation

Une matrice A est dite diagonalisable sur Ks’il existe une matrice P 2 Mn(K) inversible telle queP 1AP soit diagonale.

Cette diagonale contient alors exactement les valeurs propres deA, et les vecteurs colonnes deP sont des vecteurs propres deA.

Autrement dit, une matrice est diagonalisable si et seulement s’il existe une base de vecteurs propres.

La matriceA 2Mn(K)est diagonalisable surR(respectivement surC) si et seulement si

1. ses valeurs propres sont toutes dansR(respectivement dansC),

2. pour chacune de ses valeurs propres , la dimension du sous-espace propre E est égale à la multiplicité de (en tant que racine du polynôme caractéristique).

Théorème 2(MATRICE DIAGONALISABLE)

De ce qui précède nous pouvons déduire le corollaire suivant :

www.alloacademy.com

(18)

Une matrice dont toutes les valeurs propres sont simples est diagonalisable.

Corollaire 1(VALEURS PROPRES SIMPLES)

1. Matrices normales :

soit A 2 Mn(C) une matrice normale (c’est à dire que AA = AA). Alors il existe une matrice unitaireU(c’est à direU U =UU =In)telle queUAU soit diagonale, autrement ditUAU = diag( 1, ..., n)où 1, ..., n sont les valeurs propres deA.

2. Matrices symétriques réelles :

une matrice symétrique réelle est diagonalisable dans une base orthonormale, autrement dit, il existe une matrice orthogonale O ( OTO = OOT = In) telle queOTAO soit diagonale.

Théorème 3(MATRICE SYMETRIQUE DIAGONALISABLE)

Triangularisation

Il existe des matrices réelles ou complexes qui ne sont pas diagonalisables. Mais dans C, nous pouvons toujours triangulariser une matrice, autrement dit, pour toute matrice A 2 Mn(C), il existe une matrice inversibleP 2Mn(C)telle queP 1AP soit une matrice triangulaire.

La réduction sous forme de Jordan, vue en deuxième année de licence donne une forme réduite simple. Mais nous n’utiliserons pas ce résultat dans ce cours-ci. Voici un résultat plus facile à montrer qui nous suffira.

Pour toute matrice A 2 Mn(C), il existe une matrice unitaireU telle que UAU soit triangulaire.

Théorème 4(FACTORISATION DE SCHUR)

1.3 Normes vectorielles et matricielles

Etant donné que nous allons travailler sur les matrices : étudier la convergence de suites de ma- trices, mesurer des erreurs, etc., il est important de donner quelques résultats utiles qui nous servi- ront d’outils pour les méthodes de résolution de systèmes linéaires.

1.3.1 Rappels sur les normes vectorielles

Ici,K=

www.alloacademy.com

RouC.

(19)

Une norme surKnest une applicationk.k:Kn!R+telle que 1. pour toutx2Kn,kxk= 0K impliquex= 0n,

2. pour toutx2Kn, pour tout 2K,k xk=| |kxk,

3. pour tousx, y 2Kn,kx+yk  kxk+kyk(inégalité triangulaire).

Définition 1(NORME DE VECTEUR)

Les normes usuelles que l’on utilisera le plus souvent sont : 1. la norme

kxk1 = Xn

j=1

|xj|

2. la norme associée au produit scalaire (appelée aussi norme euclidienne surRn) : kxk2 =p< x, x >=

Xn j=1

|xj|2

!1/2

3. la norme l1(appelée également norme du sup) : kxk1 = max

1jn|xj|, 4. la norme lp, pour1p <+1:

kxkp = Xn

j=1

|xj|p

!1/p

.

1.3.2 Boules

Définissons maintenant les boules ouvertes et fermées.

-Pour les boules ouvertes centrées ena2Knde rayonr >0:

B(a, r) = {x2Kn tel que kx ak< r} -Pour les boules fermées centrées ena2Knde rayonr >0:

B(a, r) ={x2Kn tel que kx ak|r}

SurKn, toutes les normes sont équivalentes.

Autrement dit, si N1 et N2 sont deux normes, il existe deux réels c et C strictement positifs, tels que pour toutx2Kn,

cN2(x)N1(x)CN2(x).

Théorème 5(NORMES ÉQUIVALENTES)

On choisit la norme qui convient le mieux suivant le contexte du problème considéré.

www.alloacademy.com

(20)

1.3.3 Normes matricielles

1. Mn(K)vu commeKn2 :

Nous considéronsMn(K)comme unK-espace vectoriel de dimensionn2. Nous pouvons définir toutes les normes lp, avec1p <1de la façon suivante :

kAklp = Xn

i=1

Xn j=1

|aij|p

!1/p

.

Pourp= 2, nous notons

kAkF =kAkl2 = Xn

i=1

Xn j=1

|aij|2

!1/2

, (norme de Frobenius) et

kAkl1 = max

1i,jn|aij|.

Mais en général, ces normes n’ont pas de bonnes propriétés par rapport au produit matriciel.

D’où la section suivante.

2. Normes matricielles :

Une norme matricielle est une norme surMn(K)qui vérifie de plus

|||AB||||||A||||||B|||, pour tousA, B 2Mn(K).

Définition 2(NORME MATRICIELLE)

Exemple

(a) La norme de Frobenius est une norme matricielle,

(b) la norme|||A|||l1 n’est pas une norme matricielle comme nous l’avons définie dans la section précédente.

3. Normes subordonnées : énonçons une manière de construire des normes matricielles.

Nous nous donnons une norme vectorielle k.k sur K. Nous lui associons ensuite une norme surMn(K), notée encore|||.|||que nous définissons pour toutA 2Mn(K)par

|||A|||= sup

x2Kn\{0n}

kAxk kxk Définition 3(NORME MATRICIELLE SUBORDONNÉE)

Nous l’appellerons norme subordonnée à la norme vectoriellek.k.

www.alloacademy.com

(21)

SoientA2Mn(K)etx2Kn, pour toute norme matricielle subordonnée, kAxk |||A|||kxk.

Propriété 1(PROPRIÉTÉS DES NORMES SUBORDONNÉES)

Soit|||.|||une norme subordonnée. Nous avons alors les propriétés suivantes : (a) |||A|||= sup

x2Kn\{0n}

kAxk

kxk = sup

kxk=1kAxk,

|||A|||est bien définie, autrement dit lesupest bien<+1,

(b) le sup est atteint, c’est à dire qu’il existe un x 2 Kn\{0n} tel que kAxk =

|||A|||kxk,

(c) |||.|||est une norme matricielle, (d) |||In|||= 1.

Propriété 2(PROPRIÉTÉS DES NORMES SUBORDONNÉES)

Nous pouvons alors définir les normes subordonnées aux normes vectorielles k.k1, k.k2, k.k1de la façon suivante :

(a) |||A|||1 = max

j=1,...,n

Xn

i=1

|aij|, (b) |||A|||1= max

i=1,...,n

Xn

j=1

|aij|, (c) |||A|||2 =p

⇢(AA) =p

⇢(AA) =|||A|||2,

(d) si en plusAest normale (AA=AA), alors|||A|||2 =⇢(A).

Propriété 3(NORMES SUBORDONNÉES CLASSIQUES)

1.3.4 Conditionnement

L’objectif de cette section est de répondre à la question suivante : peut-on dire a priori qu’une matrice est sensible aux erreurs et à des petites perturbations en général ?

Dans toute la section, nous allons considérer

www.alloacademy.com

A2Mn(K)une matrice inversible. Et nous considé-

(22)

rons le système

Ax =b, (1.2)

oùbetxsont des vecteurs deKn. Plusieurs cas se présentent à nous.

1. Cas 1 : si nous perturbonsb

Nous considérons ici le système suivant

A(x+ x) = b+ b, (1.3)

où bet xsont des vecteurs deKnconsidérés comme des “petites” perturbations debetx respectivement.

Le système(1.3)s’écrit alors

Ax+A x=b+ b, et commexest solution de(1.2)il vient

x=A 1 b.

Avec une norme subordonnée, nous obtenons

k xk=kA 1 bk |||A 1|||k bk. D’autre part,

kbk=kAxk |||A|||kxk, et donc

1

kxk  |||A|||

kbk ,

en supposant bien entendu quex6= 0n(ce que nous supposons pour avoir la norme subor- donnée) et queb6= 0n, mais ce cas là serait trivial puisqu’étant donné que la matriceAest inversible la seule solution serait alorsx= 0n).

Ainsi, on obtient

k xk

kxk (|||A||||||A 1|||)k bk kbk . 2. Cas 2 : si nous perturbonsA:

Nous considérons maintenant le système suivant

(A+ A)(x+ x) =b. (1.4)

Dans ce cas là, en développant, nous obtenons

Ax+ A(x+ x) +A x=b, soit encore

x= A 1( A(x+ x)).

Ainsi, en considérant les normes,

www.alloacademy.com

(23)

k xk = kA 1 A(x+ x)k,

 |||A 1 A|||kx+ xk,

 |||A 1|||||| A|||kx+ xk. Et finalement

k xk

kx+ xk (|||A 1||||||A|||)||| A|||

|||A||| ,

en supposant bien entendu que la perturbation xn’annule pas le vecteur xetAsoit une matrice non nulle.

La quantité cond(A) =|||A 1||||||A|||est appelée conditionnement deArelativement à la norme matricielle|||.|||.

Définition 4(CONDITIONNEMENT DEA)

Nous pouvons alors énoncer un résultat plus précisviale théorème suivant.

SoientA 2Mn(K)une matrice inversible et|||.|||sa norme subordonnée.

1. Pourb2Kn,b 6= 0net b2Kn, siAx=betA(x+ x) = b+ b, alors k xk

kxk cond(A)k bk kbk .

Cette majoration est optimale. C’est à dire qu’il existeb 6= 0net btels que k xk

kxk =cond(A)k bk kbk .

2. Pour tout A2Mn(K)et pour toutb 2Mn(K), si siAx =bet(A+ A)(x+ x) =b, alors

k xk

kx+ xk cond(A)||| A|||

|||A||| .

Cette majoration est optimale. C’est à dire qu’il existeAmatrice non nulle et A telles que

k xk

kx+ xk =cond(A)||| A|||

|||A||| . Théorème 6(CONDITIONNEMENT OPTIMAL)

Il arrive que certains systèmes linéaires soient très sensibles aux erreurs, c’est à dire mal condi- tionnés, indépendamment de la méthode de résolution utilisée. Nous allons donc énoncer quelques propriétés sur les conditionnements de matrices qui pourront nous être fortement utiles dans des

cas pratiques.

www.alloacademy.com

(24)

SoitA 2Mn(K)une matrice inversible, nous avons les propriétés suivantes : 1. cond(A) 1,

2. cond(A) =cond(A 1),

3. cond(↵A) = cond(A), pour tout↵2K/{0}, 4. cond2(A) = |||A|||2|||A 1|||2 = µn(A)

µ1(A) où 0 < µ1(A) < ... < µn(A) sont les racines carrées des valeurs propres deAA(valeurs singulières deA),

5. siAest normale alors cond2(A) = | max(A)|

| min(A)|, où max(A)et min(A)sont res- pectivement la plus grande et la plus petite valeur propre en module deA, 6. siU est unitaire, cond2(U) = 1.

Propriété 4(PROPRIÉTÉS DES CONDITIONNEMENTS)

Remarque Remèdes à un mauvais conditionnement.

Malheureusement il n’y a pas de méthode universelle. Une solution possible est l’équilibrage.

Il s’agit de remplacerAx=bpar un système équivalentBAx =Bb, oùBest inversible.

S’il n’y a pas de0sur la diagonale, D = diag(a11, ..., ann)est inversible et on résout le système D 1Ax=D 1b.

Nous avons parfois cond(D 1A⌧cond(A).

1.4 Méthodes directes de résolution de systèmes linéaires

un système linéaire est la donnée denéquations àminconnues du type 8>

<

>:

a11x1 + a12x2 + ... + a1mxm = b1, ...

an1x1 + an2x2 + ... + anmxm = bn. Les inconnues ici sontx1,x2,...xm.

Sous forme matricielle, ce système s’écrit

Ax=b où

x= 0 BB B@

x1 x2

...

xm

1 CC

CA2Km, b= 0 BB B@

b1 b2

...

bn

1 CC

CA2Knet, A= 0 BB B@

a11 a12 · · · a1n

a21 a22 · · · a2n

... ... ... ...

am1 am2 · · · amn

1 CC

CA2Mnm(K).

Trois cas se présentent :

www.alloacademy.com

(25)

1. si n < m : il y a moins d’équations que d’inconnues. Le système est sous-déterminé.

L’ensemble des solutions est un sous espace affine,

2. sin > m: il y a plus d’équations que d’inconnues. Le système est sur-déterminé,

3. sin =m= il y a exactement le même nombre d’équations que d’inconnues. Dans la suite nous considérerons (sauf exceptions) ces systèmes carrés.

Dans ce cas, il existe une unique solution x à Ax = b pour tout vecteur b 2 Kn si et seulement siA2Mnn(K)est inversible.

Il existe plusieurs méthodes pour résoudre ces systèmes : les méthodes directes et les méthodes ité- ratives. Commençons par étudier les méthodes directes comme l’indique l’intitulé de cette section.

1.4.1 Principe des méthodes directes

Nous nous ramenons en un nombre fini d’opérations à un système simple à résoudre en général triangulaire (parfois une matrice orthogonale). Ces méthodes reviennent souvent à écrire une dé- composition de la matriceA=BC, oùBetCont des propriétés particulières.

Ainsi résoudreAx=béquivaut à résoudreB(Cx) = bce qui est équivalent à résoudre By =b,

puis

Cx=y.

La plus célèbre des méthodes est appelée pivot de Gauss.

1.4.2 Pivot de Gauss - Décomposition LU

Le pivot de Gauss (ou méthode d’élimination de Gauss), permet de décomposer la matriceA en produit de deux matricesLU où :

-Lest une matrice triangulaire inférieure (Lower en anglais), -U est une matrice triangulaire supérieure (Upper en anglais).

Nous avons le résultat suivant.

L’algorithme de Gauss

Pour toute matriceA 2 Mn(K), il existe une matrice inversibleM telle queT = M A soit triangulaire.

Théorème 7(PIVOT DE GAUSS)

Remarque

1. Ce résultat reste vrai pourAnon inversible, mais alorsT n’est pas inversible non plus et on ne peut résoudre le système triangulaire obtenu.

2. Ce résultat n’est pas un théorème de réduction de matrice.

www.alloacademy.com

(26)

La factorisationLU

Nous allons montrer ici que l’algorithme permettant de prouver le résultat du théorème de la section précédente permet d’écrire (dans certains cas)

A =LU,

oùLest une matrice triangulaire inférieure etU est une matrice triangulaire supérieure.

Par conséquent, résoudre le systèmeAx=brevient à résoudre les deux systèmes triangulaires

⇢ Ly = b, U x = y.

Cette méthode est intéressante quand on doit résoudre beaucoup de systèmes du type Axj =bj,

parce que L et U sont calculées une fois pour toute et nous n’avons plus qu’à les utiliser pour chacun des cas.

Notation :on notera dans la suite de ce chapitre, la matrice

k(A) = 0 BB B@

a11 a12 · · · a1k

a21 a22 · · · a2k

... ... ... ...

ak1 ak2 · · · akk

1 CC

CA2Mk(K).

SoitA 2 Mn(K). Si pour tout1  k  n, la matrice k(A)est inversible (autrement ditdet k(A)6= 0), alors il existe une unique décomposition deAde la formeA=LU avecLune matrice triangulaire inférieure ne possédant que des1sur la diagonale, etU une matrice triangulaire inférieure.

Théorème 8(DÉCOMPOSITIONLU)

La méthode de Crout

Cette méthode permet de calculer la décompositionLU =A (voir détails en cours).

Complexité de la méthode de Crout

Il faut environ 2n3/3 opérations pour calculer les matrices LU. Pour résoudre un système tri- angulaire il faut n2 opérations. Rien à voir avec le nombre d’opérations de l’ordre de (n+ 1)!

nécessaires.

www.alloacademy.com

(27)

Application au calcul du déterminant et de l’inverse -pour le déterminant :

une fois obtenue la décompositionA=LU, nous avons

detA= detLdetU. Il est facile de remarquer quedetL= 1. Par conséquent,

detA= detU = Qn i=1

uii.

-pour l’inverse : on note

A 1 = (x1|...|xn),

où chacun des vecteurs xi est solution deAxi = ei, avecei le ième vecteur de la base canonique (composé de 0 partout sauf la ième composante qui vaut 1). Nous procédons alors de la façon suivante :

- nous calculons la décompositionLU, - nous résolvons

⇢ Lyi = ei,

U xi = yi, pour touti= 1, ..., n.

Au total le nombre d’opérations sera de l’ordre de8n3/3.

Recherche de pivot

Si nous tombons sur un pivot nul, nous procédons à une permutation. Si nous tombons sur un pivot très petit, nous l’utilisons alors au risque de commettre de grosses erreurs de calculs d’arrondis.

Comment y remédier ?

Nous procédons à la recherche de pivot.

-pivot partiel : nous recherchons le plus grand coefficient de la ligne (ou de la colonne) considérée et nous faisons une permutation avant de continuer.

-pivot total : nous cherchons le plus grand coefficient dans toute la matrice.

Complexité des algorithmes de tri : -n2log2(n)pour le pivot partiel, -n3log2(n)pour le pivot total.

Or,n2log

www.alloacademy.com

2(n) =o(n3)donc en général on utilise le pivot partiel.

(28)

1.4.3 Cas des matrices symétriques définies positives :la factorisation de Cholesky

SiA2Mn(K)est une matrice symétrique réelle définie positive, il existe au-moins une matriceB triangulaire inférieure telle que

A=BBT.

De plus, on peut imposer que les coefficients diagonaux deB soient strictement positifs et alors la décomposition est unique.

Théorème 9(CHOLESKY)

Complexité : nous calculonsBpar identificationBBT =A. Nous obtenons alors un ordre enn3/6 additions,n3/6multiplications etnextractions de racines, ce qui est moins que la méthodeLU.

1.4.4 Factorisation QR

SoitA2Mn(K)une matrice inversible. Il existe un unique couple(Q, R)tel queQest orthogonale etRest une matrice triangulaire supérieure à diagonale strictement positive telles queA=QR.

Théorème 10(DÉCOMPOSITIONQR)

Remarque RésoudreAx=best alors équivalent à résoudre le système

⇢ Qy = b, Rx = y.

Sachant queQy =bs’inverse facilement en donnant carQ 1 =QT et doncy=QTb.

La preuve s’inspire du procédé d’orthogonalisation de Gram-Schmidt.

1.5 Méthodes itératives de résolution de systèmes linéaires

Dans la section précédente, nous avons vu les méthodes appelées méthodes directes car elles four- nissent des solutions exactes (aux erreurs d’arrondis près bien entendu, ce qui n’est pas rien).Cependant, ces calculs peuvent être lourds pour de très grandes matrices.

Une alternative consiste à faire converger des suites vers la solutions. Nous perdrons alors l’exac- titude de la solution, mais nous gagnerons en rapidité d’exécution dans l’approximation de la solution (suivant le degré de précision voulu).

www.alloacademy.com

(29)

1.5.1 Principe des méthodes itératives

Nous décomposonsAinversible sous la formeA =M N. Nous avons alors Ax=béquivalent àM x=N x+b.

Sous cette forme, nous cherchons à approcher la solution du problème par la méthode itérative suivante :

⇢ x0 2Kn donné,

M xk+1 =N xk+b, pour tout entier k 0.

A chaque itération, nous devons résoudre un système linéaire de matriceM pour calculerxk+1 en fonction dexk.

La méthode est ‘intéressante” quand M est “facile” à inverser (ou plutôt le système facile à ré- soudre).

Montrons que cette méthode, si elle converge, approche bien la solution deAx=b.

Soitx2Knsolution deAx=b.

Supposons que la suite(xk)k2Nconverge versx0 2Knnous avons

k!lim+1kxk x0k= 0 pour une norme quelconque.

CommeM etN sont linéaires, elles sont continues (nous sommes en dimension finie), donc à la limitek !+1dansM xk+1 =N xk+b. Nous obtenons

M x1=N x1+b,soit encoreAx1 =b.

Et commeAest inversible, par unicité de la solution nous avonsx1 =x -Étude de la convergence :

Notonsek =xk x, l’erreur commise au rangk. La méthode converge si et seulement si lim

k!+1ek= 0ou encore lim

k!+1kekk= 0.

Pour toutk2N, on a

ek+1 =xk+1 x.

Nous choisironsM inversible dans cette décomposition. De telle sorte que M xk+1 =N xk+b,

équivalent à

xk+1 =M 1N xk+M 1b.

De même

Ax=b =M x N x, qui est équivalent à

x=M 1N x+M 1b.

www.alloacademy.com

(30)

Nous pouvons en déduire que

ek+1 =M 1N ek. Par une récurrence immédiate nous obtenons

ek = (M 1N)ke0.

Nous démontrerons dans les sections suivantes les résultats permettant d’énoncer le théorème de convergence.

Soit A 2 Mn(K)une matrice inversible. La méthode itérative associée à la décompo- sition A = M N, avec M inversible, converge si et seulement si le rayon spectral

⇢(M 1N)<1.

Théorème 11(CONVERGENCE DE LA MÉTHODE ITÉRATIVE)

Tout le problème consiste dès lors à bien choisir la décompositionM N. Les trois décompositions proposées ci-dessous sont les trois méthodes les plus connues.

1.5.2 Trois méthodes classiques

Nous écrivons

A=D E F, de la façon suivante

0

@ F

D E

1 A

oùD=diag(a11, ..., ann), etE etF sont des matrices triangulaires définies par (E)ij =

⇢ aij sii > j,

0 sinon, et (F)ij =

⇢ aij sii < j, 0 sinon, Nous supposerons queAne possède pas de zéros sur sa diagonale.

Méthode de Jacobi

Dans cette méthode, nous prenons

M =D, et N =E+F,

l’avantage de cette méthode est que dans ce cas là, M est très facile à inverser. La méthode de Jacobi s’exprime alors par la suite

⇢ x0 2Kn donné,

Dxk+1 = (E+F)xk+b, pour tout entier k 0.

www.alloacademy.com

(31)

Méthode de Gauss-Seidel

Dans cette méthode, nous prenons

M =D E, et N =F.

La méthode de Gauss-Seidel s’exprime alors par la suite

⇢ x0 2Kn donné,

(D E)xk+1 =F xk+b, pour tout entier k 0.

Méthode de relaxation

C’est une méthode intermédiaire entre les deux méthodes précédentes. Nous mettons un peu de diagonale de chaque côté en posant Dans cette méthode, nous prenons

M = 1

!D E, et N = 1 !

! D+F,

où! 6= 0est un paramètre de relaxation. La méthode de relaxation s’exprime alors par la suite ( x0 2Kn donné,

(1

!D E)xk+1 = (1 !

! D+F)xk+b, pour tout entier k 0.

1.5.3 Critère général de convergence, étude des suites d’itérées de matrices

Lien entre rayon spectral et normes matricielles

1. Pour toute norme matricielle sur Mn(C) et pour toute matrice A 2 Mn(C),

⇢(A) kAk.

2. Pour toute matriceA 2Mn(C)et pour tout">0, il existe une norme subordon- née telle quekAk ⇢(A) +". Attention : dans ce cas là la normek.kdépend de Aet de".

Théorème 12(CONVERGENCE DE LA MÉTHODE ITÉRATIVE)

www.alloacademy.com

(32)

Suites d’itérés de matrices

SoitB 2Mn(C)les assertions suivantes sont équivalentes : 1. lim

k!+1Bk = 0(autrement dit lim

k!+1 Bk = 0pour|||.|||norme quelconque sur Mn(C),

2. pour tout x 2 Cn, lim

k!+1Bkx = 0 (autrement dit lim

k!+1kBkxk = 0 pour k.k norme quelconque surMn(C),

3. ⇢(B)<1,

4. il existe une norme matricielle telle que|||B|||<1.

Théorème 13(CONVERGENCE ET ÉQUIVALENCES)

1.5.4 Quelques cas particuliers de convergence

Cas des matrices symétriques (ou hermitiennes)

SoitA2Mn(R)une matrice symétrique réelle, définie, positive. Nous la décomposons sous la formeA=M N, oùM est inversible. Alors

1. MT +N est symétrique,

2. si de plusMT +N est définie positive, alors⇢(M 1N)<1.

Théorème 14(CONVERGENCE ET MATRICE SYMÉTRIQUE)

Applications

1. Si A est symétrique, si A et 2D A sont définies positives alors la méthode de Jacobi converge.

2. SiAest symétrique définie positive, alors la méthode de Gauss-Seidel converge.

3. Si A est symétrique définie positive, et si 0 < ! < 2, alors la méthode de relaxation converge.

www.alloacademy.com

(33)

Matrice à diagonale strictement dominante

On dit queA2Mn(C)est à diagonales strictement dominantes si pour tout1in,

|aii|>P

j6=i|aij|.

Définition 5(MATRICE A DIAGONALE STRICTEMENT DOMINANTE)

Si A 2 Mn(C) est à diagonales strictement dominante, alors la méthode de Jacobi converge.

Théorème 15(CONVERGENCE MATRICE DIAGONALE STRICT. DOM.)

Remarque Une matrice à diagonale strictement dominante est inversible.

1.6 Méthodes numériques de calcul de valeurs propres et vec- teurs propres

1.6.1 Motivation : modes propres

Exemple L’étude des valeurs est par exemple un outil fondamental pour l’étude des vibrations de structures mécaniques : comme pour la résistance aux séismes dans la construction d’immeubles.

Un modèle très simplifié alternant les murs de massem1 avec des ressorts de raideur ki oùi = 1, ..,3. Le principe fondamental de la dynamique nous permet d’écrire le système d’équations :

8<

:

m1y100+k1y1+k2(y1 y2) = 0, m2y200+k2(y2 y1) +k3(y2 y3) = 0, m3y300+k3(y3 y2) = 0.

Notons

y(t) = 0

@y1(t) y2(t) y3(t)

1

A, M = 0

@m1 0 0 0 m2 0 0 0 m3

1

A et M = 0

@k1+k2 k2 0 k2 k2+k3 k3

0 k3 k3

1 A.

Le système se réécrit alors

M y00(t) +Ky(t) = 0.

Nous cherchons des solutions périodiques en tempsssous la forme y(t) =y(0)ei!t,

www.alloacademy.com

(34)

oùy(0)est le vecteur condition initiale.

Alors

y00(t) = !2ei!ty(0).

Nous obtenons alors

( !2M y(0) +Ky(0))ei!t= 0, pour toutt >0.

Soit encore,

(M 1K)y(0) =!2y(0).

Les modes qui peuvent se propager sont telles que!2 est valeur propre deM 1K.

1.6.2 Difficultés

La recherche des éléments propres est un problème beaucoup plus difficile que celui de la réso- lution de systèmes linéaires. c’est un problème d’algèbre linéaire mais ce n’est pas un problème linéaire. Les valeurs propres deA+B ne sont en général pas la somme de celles deAet de celles deB.

Il n’existe pas de méthode directe (calcul exacte en un nombre fini d’étapes). Les valeurs propres sont les racines d’un polynôme. Depuis Galois et Abel, nous savons que ce n’est pas possible au- delà du degré5.

Par conséquent, il n’y a que des méthodes itératives pour résoudre ce problème.

Il n’y a pas de méthodes pour laquelle nous savons prouver la convergence pour toute matrice.

Nous ne calculerons pas le polynôme caractéristique puis ses racines pour calculer les valeurs propres (sauf éventuellement pour des petites matrices (inférieur ou égal à 3).

1.6.3 Conditionnement spectral

Nous nous intéressons à l’amplification des erreurs, ici pour le problème de recherche des valeurs propres.

Exemple Considérons le bloc de Jordan suivant

A= 0 BB B@

0 1 · · · 0

0 0 ... ...

... ... ... 1

0 0 · · · 0

1 CC

CA2Mk(C) , et pour " >0,A(") = 0 BB B@

0 1 · · · 0

0 0 ... ...

... ... ... 1

" 0 · · · 0 1 CC CA.

Le polynôme caractéristique deA(")estX"(x) =xn "(matrice compagne) dont les racines sont

"1/nei2k⇡/n, pourk = 0, ..., n 1.

Une erreur d’ordre " (par exemple 10 20), entraînera une erreur d’ordre "1/n sur les valeurs propres. Par exemple, pourn= 20, cela donnerait"1/n = 10 1.

Cette matrice est mal conditionnée pour le problème de recherche de valeurs propres.

www.alloacademy.com

Références

Documents relatifs

(R´ ep : Je sugg´ ererais ` a l’´ el` eve de placer le r´ eseau en incidence normale (cf 2), dans le but de tracer la courbe sin i 0 en fonction de λ grˆ ace ` a la lampe au

Donner une d´ emonstration directe du fait que la suite (f n ) ne converge pas uniform´ ement sur [0, 1]..

Disons simplement qu'on écrit la relation de Chasles après avoir susamment divisé l'intervalle [a, b] ( en chaque point où f et g dièrent) et de se rendre compte que sur

Elle est également composée de 2 moteurs (moto-réducteurs) qui donneront le mouvement de rotation aux roues du véhicule afin de le faire avancer. Cliquer sur l’image

Si une suite de polynômes CVU sur un intervalle non borné, sa limite est un

Une façon de le voir est d’observer, comme Jean-Nicolas Pasquay, que les rapports de similitude des triangles AEF , DBF , DEC avec le triangle ABC sont respectivement cos A, cos B,

Autre conséquence de l’indépendance : Cov(X,Y)=0.. Autrement dit, à une valeur donnée de X correspond une et une seule valeur de Y et vice versa.. 2°) Présenter les lois

1.d.En référence au PIB pm à prix constants, peut-on affirmer que le secteur du «commerce, des transports et de l’horeca» a connu un croissance constante entre 2006 et