• Aucun résultat trouvé

Algorithmique algébrique MHT 631

N/A
N/A
Protected

Academic year: 2022

Partager "Algorithmique algébrique MHT 631"

Copied!
93
0
0

Texte intégral

(1)

Algorithmique algébrique MHT 631

Jean-Paul Cerri

2008-2009

(2)

2

(3)

Table des matières

1 Algèbre linéaire, préliminaires 5

1.1 Gerschgörin-Hadamard . . . 6

1.2 Normes sur Mn,n(K) . . . 9

1.3 Suites de matrices, convergence . . . 14

1.3.1 Généralités . . . 14

1.3.2 Exponentielle de matrices . . . 17

1.3.3 Généralisation. Autres exemples . . . 19

1.3.4 Application aux systèmes différentiels . . . 22

2 Le pivot de Gauss 27 2.1 Rappels sur les matrices de permutations . . . 27

2.2 Exemples concrets, le principe . . . 28

2.3 Le théorème principal . . . 33

2.4 Le coût . . . 33

2.5 Mise en oeuvre effective et variantes . . . 34

3 Conditionnement 37 3.1 Définition . . . 37

3.2 Erreurs relatives . . . 38

3.3 Propriétés élémentaires . . . 40

4 Méthodes itératives 43 4.1 Le lemme fondamental . . . 43

4.2 La méthode de Jacobi . . . 44

4.3 La méthode de Gauss-Seidel . . . 45

4.4 Relaxation . . . 48

4.5 Programmation . . . 48

4.5.1 Jacobi . . . 49

4.5.2 Gauss-Seidel . . . 49

4.5.3 Relaxation avec Gauss-Seidel . . . 50 3

(4)

4 TABLE DES MATIÈRES

5 Calculs effectifs divers 51

5.1 Polynôme caractéristique . . . 51

5.2 Valeurs propres . . . 54

5.2.1 Méthode des puissances . . . 54

5.2.2 Méthode de la déflation . . . 56

5.2.3 Méthode QR . . . 57

6 Espaces euclidiens 59 6.1 introduction . . . 59

6.2 Orthogonalisation de Schmidt . . . 64

7 Décompositions 67 7.1 Décomposition QR . . . 67

7.2 Décomposition de Cholesky . . . 69

7.3 La méthode QR . . . 71

8 Méthodes de calcul 73 8.1 Cholesky pratique . . . 73

8.1.1 Gram-Schmidt . . . 73

8.1.2 Identification . . . 74

8.1.3 Variante . . . 75

8.1.4 Méthode de Gauss . . . 76

8.2 Moindres carrés . . . 77

8.3 La méthode de Householder . . . 79

8.3.1 Préliminaires . . . 80

8.3.2 La méthode . . . 81

9 Polynômes orthogonaux 85 9.1 Généralités . . . 85

9.2 Un cas particulier . . . 86

9.3 Exemples . . . 88

9.3.1 Polynômes de Tchebycheff . . . 88

9.3.2 Polynômes de Legendre . . . 91

9.3.3 Polynômes de Hermite . . . 91

10 Compléments 93 10.1 Extensions de certains résultats aux matrices “quelconques” . . 93

10.2 Décomposition en valeur singulière (SVD) . . . 93

10.3 Pseudo-inverse . . . 93

(5)

Chapitre 1

Algèbre linéaire, préliminaires

Éléments supposés connus en algèbre linéaire

• Corps commutatifK : ici, sauf mention explicite, K =R ou C;

• K-espace vectoriel, sous-espace vectoriel, familles libres, familles géné- ratrices, bases ;

• K espace vectoriel de dimension finien , sous-espaces, bases ;

• Déterminant d’une famille de vecteurs d’unK-espace vectoriel (suivant une base), propriétés du déterminant ;

• L(E, F) oùE etF sont deux K-ev, propriétés de L(E, F); – L(E, F)est un K-ev ;

– Noyau Kerf et image Imf d’un élément f deL(E, F); – Propriétés et lien avec surjectivité et injectivité de f; – Théorème du rang en dimension finie ;

• L(E) oùE est un K-ev, propriétés de L(E);

– L(E) est une algèbre en général non commutative ; – Éléments inversibles : GL(E);

– Cas de la dimension finie : lien avec image, noyau (une condition suffit) ;

– Déterminant d’un élément deL(E)et lien avec l’inversibilité ; – Valeur propre et vecteur propre d’un élément de L(E); – Polynômes minimal et caractéristique d’un élément de L(E); – Théorème de Cayley-Hamilton ;

– Critères de diagonalisabilité ;

• Matrices associées aux éléments de L(E, F) (siE et F sont de dimen- sions finies et si une base de E et une base de F sont fixées) ;

• Notations Mp,q(K), et isomorphismes standards, opérations dans les espaces de matrices ;

5

(6)

6 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES

• Changement de bases, similitude ;

• Noyau, image, rang, déterminant, polynômes minimal et caractéris- tique, valeurs propres et vecteurs propres d’une matrice de Mn,n(K);

• Pratique de la diagonalisation, de la triangularisation ;

• Autres éléments de la théorie de la réduction (Dunford, Jordan) ;

• Matrices symétriques, matrices orthogonales. Diagonalisation des ma- trices symétriques.

1.1 Gerschgörin-Hadamard

Théorème 1.1. (Premier théorème de Gerschgörin-Hadamard)Soit A∈Mn,n(K). Pour tout k, 1≤k ≤n posons

Rk =X

j6=k

|akj|

et

Dk =n

z ∈C; |z−akk| ≤Rko . Alors on a

SpecA⊂

n

[

k=1

Dk

i.e. pour toute valeur propre λ de A, il existe k tel que λ∈Dk.

Preuve. Soit λ∈SpecAet soit X 6= 0 un vecteur propre associé. On a pour tout i :

(1.1)

n

X

j=1

aijxj =λxi. Soitk tel que|xk|= max

j |xj|. On a|xk|>0car X 6= 0. De plus Par (1.1) on a

(λ−akk)xk=X

j6=k

akjxj,

d’où l’on tire

|λ−akk| ≤X

j6=k

|akj||xj|

|xk| ≤X

j6=k

|akj|=Rk.

(7)

1.1. GERSCHGÖRIN-HADAMARD 7 Remarque 1.2. CommeA etAt ont le même polynôme caractéristique (en effet det(A−XIdn) =det(A−XIdn)t =det(At−XIdtn) =det(At−XIdn)), elles ont mêmes valeurs propres et le résultat est encore vrai si l’on remplace lesDk par lesD0k définis par

Dk0 =n

z ∈C; |z−akk| ≤R0ko , où

R0k =X

j6=k

|ajk|.

Définition 1.3. Soit A ∈ Mn,n(K). On appelle rayon spectral de A et on note ρ(A) le réel positif ou nul défini par

ρ(A) = max

λ∈SpecA|λ|.

Corollaire 1.4. Soit A∈Mn,n(K). Alors on a ρ(A)≤ max

1≤i≤n n

X

j=1

|aij|.

Preuve. Pour tout λ∈SpecA, il existek tel que

|λ−akk| ≤X

j6=k

|akj| par le théorème 1.1. Ceci implique que

|λ| ≤

n

X

j=1

|akj| ≤ max

1≤i≤n n

X

j=1

|aij|.

Remarque 1.5. En lien avec la remarque 1.2, on peut remplacer ici

1≤i≤nmax

n

X

j=1

|aij| par

1≤i≤nmax

n

X

j=1

|aji|, et l’on a donc

ρ(A)≤min

1≤i≤nmax

n

X

j=1

|aij|, max

1≤i≤n n

X

j=1

|aji| .

(8)

8 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES Corollaire 1.6. Soit A∈Mn,n(K). Avec les notations précédentes, on a

06∈

n

[

k=1

Dk⇒A∈GLn(K).

Preuve. Par contraposition, si A n’est pas inversible, 0 est valeur propre de A et par le théorème 1.1, appartient à l’un des Dk.

Remarque 1.7. Toujours en lien avec la remarque 1.2, on peut remplacer ici les Dk par lesD0k.

Remarque 1.8. La condition est suffisante mais non nécessaire comme le montre l’exemple

A=

1 1 1 0

.

Ici on a D1 = {z; |z −1| ≤ 1} et D2 = {z; |z| ≤ 1}. Ainsi 0∈ D1∪D2 et pourtant A est inversible.

Définition 1.9. Soit A∈Mn,n(K). On dit queA està diagonale dominante (par rapport aux lignes) si pour toutk,

|akk| ≥X

j6=k

|akj|,

et que A est à diagonale strictement dominante (par rapport aux lignes) si pour toutk,

|akk|>X

j6=k

|akj|.

Corollaire 1.10. Soit A ∈ Mn,n(K) à diagonale strictement dominante, alors A∈GLn(K).

Preuve. C’est en fait une reformulation du corollaire 1.6 car

|akk|>X

j6=k

|akj| ⇐⇒06∈Dk.

Remarque 1.11. En revanche, une matrice à diagonale dominante n’est pas nécessairement inversible comme le montre l’exemple élémentaire

A=

1 1 1 1

.

(9)

1.2. NORMES SUR MN,N(K) 9 Corollaire 1.12. Soit A ∈ Mn,n(K) à diagonale strictement dominante.

Supposons que pour tout k, on ait akk ∈R+. Alors, toute valeur propreλ de A vérifie <(λ)>0.

Preuve. Il est facile de voir que lesakkétant sur la demi-droite réelle{(x,0);x >

0} (car |akk|=akk >P

j6=k|akj| ≥0) et les Rk vérifiant Rk < akk, les diques Dksont inclus dans le demi-plan<(z)>0. Le théorème 1.1 donne la conclu- sion.

Remarque 1.13. On aurait pu aussi bien définir les notions de diagonale dominante ou strictement dominante par rapport aux colonnes. On aurait alors eu des résultats similaires (voir remarque 1.2 et suivantes).

1.2 Normes sur M

n,n

(K)

Définition 1.14. Soit E un K-espace vectoriel. On appelle norme de E toute applicationN : E −→R+ vérifiant :

(i) N(x) = 0⇐⇒x= 0;

(ii) N(λx) =|λ|N(x) pour tout(λ, x)∈K×E;

(iii) N(x+y)≤N(x) +N(y) pour tout(x, y)∈E×E.

Proposition 1.15. (exemples standards) Si E = Kn (où n ≥ 1), les applications suivantes sont des normes de E.













kxk = max

i |xi|; kxk1 =

n

P

i=1

|xi|; kxk2 =

r n P

i=1

|xi|2.

Preuve. Tout est trivial à l’exception de l’inégalité triangulaire pourk k2. Il faut établir que pour tout x, y ∈Kn on a

v u u t

n

X

i=1

|xi+yi|2 ≤ v u u t

n

X

i=1

|xi|2+ v u u t

n

X

i=1

|yi|2.

Après élévation au carré, développement et simplification, on voit que cela équivaut à

(1.2)

n

X

i=1

(xiyi+xiyi)≤2 v u u t

n

X

i=1

|xi|2

n

X

i=1

|yi|2,

(10)

10 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES le calcul dans C généralisant évidemment celui que l’on ferait sur R avec z =z. Or on a

n

X

i=1

(xiyi+xiyi)≤2

n

X

i=1

|xiyi|.

Pour établir (1.2) il suffit donc d’établir

(1.3)

n

X

i=1

|xiyi| ≤ v u u t

n

X

i=1

|xi|2

n

X

i=1

|yi|2.

Considérons alors le polynôme deR[X] défini par P(t) =

n

X

i=1

(t|xi|+|yi|)2

= t2

n

X

i=1

|xi|2+ 2t

n

X

i=1

|xiyi|+

n

X

i=1

|yi|2

Ce polynôme qui est positif pour tout t réel a son discriminant négatif ou nul. On a donc

Xn

i=1

|xiyi|2

n

X

i=1

|xi|2

n

X

i=1

|yi|2 ≤0, d’où l’on tire (1.3).

Définition 1.16. Soient N et N0 deux normes d’un K-espace vectoriel E.

On dit queN0 estéquivalenteàN s’il existe deux réelsα, β >0tels que pour tout x∈E on ait

αN(x)≤N0(x)≤βN(x).

Proposition 1.17. Il s’agit d’une relation d’équivalence.

Preuve. Élémentaire.

Ceci autorise à parler de normes équivalentes. Pour exprimer que N et N0 sont équivalentes on notera

N ∼N0.

Proposition 1.18. Les normes k k, k k1 et k k2 définies dans la propo- sition 1.15 sont équivalentes.

(11)

1.2. NORMES SUR MN,N(K) 11 Preuve. Il suffit par exemple d’établir k k1 ∼k k etk k2 ∼k k. Or on a trivialement pour tout xde Kn,

kxk ≤ kxk1 ≤nkxk

et

kxk ≤ kxk2 ≤√

nkxk.

Ce résultat est en fait une conséquence immédiate du théorème suivant.

Théorème 1.19. Si E est un K-espace vectoriel de dimension finie (avec K =R ou C), toutes les normes de E sont équivalentes.

Preuve. En TD numéro 2.

Remarque 1.20. L’hypothèse sur la dimension et l’hypothèse sur le corps de base sont essentielles. Voir des contre-exemples en TD.

Des considérations topologiques élémentaires (si k k est une norme sur Kn, et siA∈Mn,n(K),x7−→Axest continue surKnet{x∈Kn; kxk= 1}

est compact) montrent que la définition suivante est licite.

Définition 1.21. Soit k kune norme sur Kn et soitA ∈Mn,n(K). On pose kAk= sup

kxk=1

kAxk.

Il s’agit d’un réel positif ou nul et l’applicationk kainsi définie surMn,n(K) est appelée la «norme»induitepar (ou subordonnéeà) la norme k kdeKn. Remarque 1.22. Il est facile de vérifier que

kAk= sup

x6=0

kAxk

kxk = sup

kxk≤1

kAxk.

Théorème 1.23. Avec les notations précédentes la norme induite par k k est bien une norme de Mn,n(K). En outre, elle vérifie :

(i) kAxk ≤ kAk · kxk pour tout (x, A)∈Kn×Mn,n(K);

(ii) kABk ≤ kAk · kBk pour tout (A, B)∈Mn,n(K)×Mn,n(K); (iii) kAkk ≤ kAkk pour tout (k, A)∈N×Mn,n(K).

Preuve. Élémentaire.

(12)

12 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES Définition 1.24. Une norme k k de Mn,n(K) vérifiant la condition (ii) ci-dessus est appeléenorme matricielle.

Proposition 1.25. Soit k k une norme matricielle de Mn,n(K). Alors k k vérifie également (iii).

Preuve. Élémentaire.

Remarque 1.26. Attention une norme sur Mn,n(K) n’est pas nécessaire- ment matricielle. Voir au moins un contre-exemple en TD numéro 3. De même une norme matriciellek kne vérifie pas forcémentN(AX)≤kAkN(X)où N est la norme de Kn. En revanche, on peut construire aisément une norme surKnvérifiant cette identité (prendreN(X) =k[AX,0, . . . ,0]k). Pour plus de détails voir l’exercice sur les normes compatibles en TD.

Théorème 1.27. Si k k est la norme induite sur Mn,n(K) par k k, alors pour tout A ∈Mn,n(K) on a

kAk = max

i n

X

j=1

|aij|.

Preuve. Soit x∈Kn vérifiant kxk= 1. On a kAxk = max

i

X

j

aijxj

≤max

i

X

j

|aij||xj|

≤ max

i

X

j

|aij|kxk = max

i

X

j

|aij|.

On a donc

kAk ≤max

i

X

j

|aij|.

Pour montrer qu’il y a égalité, il suffit de trouver x∈Knvérifiant kxk= 1 etkAxk = maxiP

j|aij|.

Tout d’abord siaij = 0 pour toutiet tout j, l’égalité est triviale. Sinon, soit i0 un indice tel que maxiP

j|aij|=P

j|ai0j|. Prenons alors x défini par xj =

0 siai0j = 0 ai0j/|ai0j| siai0j 6= 0.

Il y a au moins un indice j tel que ai0j 6= 0 car on a écarté le cas A = 0.

Ainsi le vecteurx vérifie kxk= 1 et l’on a kAxk

X

j

ai0jxj

= X

j ai0j6=0

|ai0j|=X

j

|ai0j|.

D’où la conclusion.

(13)

1.2. NORMES SUR MN,N(K) 13 Théorème 1.28. Si k k1 est la norme induite sur Mn,n(K) par k k1, alors pour tout A ∈Mn,n(K) on a

kAk1 = max

j n

X

i=1

|aij|.

Preuve. Soit x∈Kn vérifiantkxk1 = 1. On a kAxk1 = X

i

X

j

aijxj ≤X

i

X

j

|aij||xj|

≤ X

j

X

i

|aij||xj| ≤X

j

|xj|max

j

X

i

|aij|= max

j

X

i

|aij|.

On a donc

kAk1 ≤max

j

X

i

|aij|.

Pour montrer qu’il y a égalité, il suffit de trouver x∈Kn vérifiant kxk1 = 1 etkAxk1 = maxjP

i|aij|.

Soitj0 un indice tel quemaxjP

i|aij|=P

j0|aij0|. Prenons alorsxdéfini par xj =

1 si j =j0

0 sinon.

Le vecteur x vérifie kxk1 = 1. On a alors kAxk1 =X

i

|aij0|, et la conclusion.

Corollaire 1.29. Si A∈Mn,n(K) on a kAk1 =kAtk.

Remarque 1.30. Le corollaire 1.4 et la remarque 1.5 montre que l’on a ρ(A) ≤ kAk1 et ρ(A) ≤ kAk. Nous verrons en TD numéro 3 que si N est une norme matricielle (ce qui est le cas pourk k1etk k) on aρ(A)≤N(A).

Théorème 1.31. Si k k2 est la norme induite sur Mn,n(K) par k k2, alors pour tout A ∈Mn,n(K) on a

kAk2 = q

ρ(AtA).

Preuve. La démonstration fera l’objet d’un exercice de TD numéro 3.

(14)

14 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES Corollaire 1.32. Par conséquent

• Pour toute A∈Mn,n(K), on a kAk2 =kAtk2;

• Si A∈Mn,n(K) est symétrique ou hermitienne (suivant que K =Rou C), on a kAk2 =ρ(A);

Preuve. Le premier point vient du fait que ρ(AtA) = ρ(AAt) (il est bien connu que deux matrices deC, D ∈Mn,n(K)étant données on aχCDDC et donc que CD etDC ont les mêmes spectres).

Le second point découle de kAk2 =

q

ρ(AtA) =p

ρ(A2) = p

ρ(A)2 =ρ(A).

Remarque 1.33. Si l’on identifieMn,n(K)avec Kn2 via la base(Eij)1≤i,j≤n définie par

(Eij)kli,kδj,l

oùδ est le symbole de Kronecker, on pourrait définirk k,k k1 etk k2 par









kAk = max

i,j |aij| kAk1 = P

i,j

|aij| kAk2 = r

P

i,j

|aij|2.

Nous éviterons par la suite ces notations qui pourraient prêter à confusion.

Elles ne sont pas en effet égales aux normes induites pour lesquelles nous avons utilisé ces notations. ConsidérerIdn pour s’en convaincre avec k k1 et k k2 etIdn+Eij aveci6=j pour k k.

1.3 Suites de matrices, convergence

1.3.1 Généralités

On définit classiquement la convergence d’une suite d’éléments (uk)d’un K-espace vectoriel E pour la normeN vers u par

k→∞lim N(uk−u) = 0.

Or si E est un K-espace vectoriel (avec K = R ou C) de dimension finie, toutes les normes sont équivalentes. Ainsi si N et N0 sont deux normes de

(15)

1.3. SUITES DE MATRICES, CONVERGENCE 15 E et si une suite (uk) converge vers u pour N, il en est de même pour N0. Ceci autorise à parler de convergence sans préciser la norme utilisée. On aura donc

k→∞lim uk =u ⇐⇒ lim

k→∞N(uk−u) = 0 pour toute norme N

⇐⇒ lim

k→∞N(uk−u) = 0 pour une norme N.

Ce sera bien sûr le cas pour E =Kn (de dimension n) ou E =Mn,n(K)(de dimension n2).

Remarque 1.34. Notons que si(Ak)est une suite de matrices de Mn,n(K) convergeant vers A, alors pour tout v ∈ Kn on a limkAkv = Av. En effet prenons une norme quelconqueN deKn et considérons la norme induite par N sur Mn,n(K) encore notée N. On a N(Akv −Av) ≤ N(Ak−A)N(v) et comme N(Ak−A) tend vers 0quand k tend vers l’infini, il en est de même deN(Akv−Av).

Donnons maintenant quelques résultats utiles concernant la convergence de certaines suites (ou séries) de vecteurs et de matrices.

Lemme 1.35. Soit A ∈Mn,n(K) et soit ε > 0. Il existe sur Kn une norme N telle que la norme induite par N sur Mn,n(K) encore notée N vérifie

N(A)≤ρ(A) +ε.

Preuve. On triangularise A dans C. Il existe P ∈GLn(C)telle que

P−1AP =

λ1 t1,2 t1,3 · · · t1,n 0 λ2 t2,3 · · · t2,n ... 0 . .. . .. ... ... ... λn−1 tn−1,n

0 0 · · · 0 λn

 .

On prend

D= diag(1, δ, δ2, . . . , δn−1),

oùδ est un réel positif qui sera choisi ultérieurement. On a alors

(P D)−1A(P D) =

λ1 δt1,2 δ2t1,3 · · · δn−1t1,n 0 λ2 δt2,3 · · · δn−2t2,n

... 0 . .. . .. ...

... ... λn−1 δtn−1,n

0 0 · · · 0 λn

 .

(16)

16 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES Choisissons δ de telle sorte que pour tout 1≤i≤n−1on ait

n

X

j=i+1

j−iti,j| ≤ε.

Posons alors pour tout B ∈Mn,n(C),

N(B) = k(P D)−1B(P D)k.

La fonctionN est une norme surMn,n(C) et elle est induite par la norme de Cn définie par

N(v) = k(P D)−1vk. Or on a par le théorème 1.27

kCk= max

i n

X

j=1

|cij|, ce qui entraîne ici

N(A)≤max

ii|+ε ≤ρ(A) +ε.

Théorème 1.36. Soit A ∈ Mn,n(K). Les affirmations suivantes sont équi- valentes :

(i) (Ak)k≥0 converge vers 0;

(ii) Pour tout v ∈Kn, (Akv)k≥0 converge vers 0; (iii) ρ(A)<1;

(iv) Il existe une norme induite N pour laquelle N(A)<1.

Preuve. Montrons (i)⇒(ii)⇒(iii)⇒(iv)⇒(i).

(i)⇒(ii) : c’est une conséquence directe de la remarque 1.34.

(ii)⇒(iii) : soit λ une valeur propre deA et v 6= 0 un vecteur propre associé à λ. On a Akv = λkv et donc limk→∞λkv = 0. Ceci n’est possible que si

|λ|<1. On en déduit ρ(A)<1.

(iii)⇒(iv) : siρ(A)<1, en prenantεsuffisamment petit, on sait par le lemme 1.35 qu’il existe une norme induite N telle queN(A)<1.

(iv)⇒(i) : Si N est induite, c’est une norme matricielle. On a alors N(Ak)≤ N(A)k et donclimk→∞Ak = 0.

Remarque 1.37. On pouvait ajouter une autre condition équivalente

(17)

1.3. SUITES DE MATRICES, CONVERGENCE 17 (v) :Il existe une norme matricielle N pour laquelle N(A)<1.

Corollaire 1.38. Soit k k une norme matricielle de Mn,n(K). Alors pour tout matrice A∈Mn,n(K), on a

k→∞lim kAkk1/k =ρ(A).

Preuve. Soit k k une norme matricielle. Comme indiqué dans la remarque 1.30, on a : ρ(M)≤ kMkpour toute matrice M (voir preuve en TD numéro 3). AvecM =Ak, cela donneρ(A)k =ρ(Ak)≤ kAkket en prenant les racines k-ièmes on obtient

ρ(A)≤ kAkk1/k.

Pour avoir la conclusion il suffit d’établir que pour toutε >0, il existek0 tel que pour tout k ≥k0, on a

kAkk1/k ≤ρ(A) +ε.

Posons

B = A

ρ(A) +ε.

On a trivialement ρ(B) < 1, et par le théorème 1.36 on a limk→∞Bk = 0.

Ceci entraîne en particulier l’existence d’un k0 tel que pour toutk ≥k0, on ait kBkk ≤1. Or

kBkk= kAkk (ρ(A) +ε)k, et

kBkk ≤1 =⇒ kAkk1/k ≤ρ(A) +ε, ce qui est précisément ce que l’on veut.

1.3.2 Exponentielle de matrices

Théorème 1.39. Pour toute A∈Mn,n(K) la suite (AN) définie par AN =

N

X

k=0

1 k!Ak converge.

Preuve. On choisit surMn,n(K)une norme matricielle, par exemple induite.

La série est absolument convergente carPN

k=0k1/k!Akk ≤PN

k=01/k!kAkk ≤ expkAk. CommeMn,n(K)est complet, en tant queK-espace vectoriel de di- mension finie (car K =R ouC est complet), toute série absolument conver- gente est convergente et on a le résultat.

(18)

18 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES On note expA la limite de la suite (AN). On a donc

expA=

X

k=0

1 k!Ak.

Exemple 1.40. Donnons quelques exemples élémentaires :

• SiD= diag(d1, . . . , dn) est une matrice diagonale, alors on a expD= diag(expd1, . . . ,expdn) ;

• SiA et B sont semblables avec B =P AP−1 etP ∈GLn(K) alors expB =P(expA)P−1 ;

• SiA est nilpotente, on An= 0 (cf TD) et expA=

n−1

X

k=0

1 k!Ak. Proposition 1.41. Si A et B commutent, on a

exp(A+B) = expAexpB = expBexpA.

Preuve. En TD.

Remarque 1.42. Nous verrons en TD numéro 5 des exemples de matricesA etB (qui ne commutent pas) et pour lesquelles on aexpAexpB 6= exp(A+B) etexpAexpB 6= expBexpA.

Procédé général de calcul. On se sert d’un décomposition de Dunford de A : A =D+N où D est diagonalisable, N nilpotente et où DN =N D. Si D=P dP−1 (avec d=diag(d1, . . . , dn) diagonale etP ∈GLn(K)), on a alors par ce qui précède

expA = Pdiag(expd1, . . . ,expdn)P−1

n−1

X

k=0

1 k!Nk

=

n−1

X

k=0

1

k!NkPdiag(expd1, . . . ,expdn)P−1 Donnons enfin un résultat élémentaire.

Proposition 1.43. La fonction exp est continue sur Mn,n(K).

Preuve. Exercice.

(19)

1.3. SUITES DE MATRICES, CONVERGENCE 19

1.3.3 Généralisation. Autres exemples

Soit

f(z) =

X

k=0

akzk

une série entière de rayon de convergence R >0 (on peut avoir R =∞). Si elle est définie on note

f(A) =

X

k=0

akAk= lim

p→∞

p

X

k=0

akAk.

Théorème 1.44. On considère sur Mn,n(K) une norme matricielle k k.

Pour tout A∈Mn,n(K) vérifiant kAk< R, f(A) est définie.

Preuve. Classiquement désormais, Mn,n(K) est complet (indépendamment de la norme choisie) et il suffit de prouver que la série est absolument conver- gente pour une norme donnée. Prenonsk k. Par propriété des séries entières,

X

k=0

|ak|rk<∞ si 0≤r < R. Or comme

p

X

k=0

kakAk k=

p

X

k=0

|ak| kAk k≤

p

X

k=0

|ak| kAkk,

car k k est matricielle, la série converge absolument pour k k dès que kAk< R.

Remarque 1.45. Ce résultat généralise ce qu’on a vu à propos de l’expo- nentielle, cas dans lequel on a R =∞.

Remarque 1.46. Suppososons queR < ∞. Alors on peut avoir convergence même sikA k≥R. On peut en effet avoir N(A)< R pour une autre norme matricielle N. À titre d’exemple considérons

f(z) =

X

k=1

zk

(de rayon de convergence 1) et A=

2/3 2/3

0 0

.

(20)

20 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES On a

kAk= 4

3 >1 mais kA k1= 2 3 <1.

De faitf(A) est bien définie est vaut 2 2

0 0

.

Ceci conduit au critère plus explicite suivant.

Théorème 1.47. Soit A ∈ Mn,n(K). Si ρ(A) < R, f(A) est définie et si ρ(A)> R, f(A) n’est pas définie.

Preuve. Si ρ(A) < R, il existe une norme induite donc matricielle N telle queN(A)< R par le lemme 1.35. Le théorème 1.44 donne la convergence.

Siρ(A)> R il existe une valeur propre deA, λ telle que|λ|> R. Soit v 6= 0 un vecteur propre associé à λ. On a

p

X

k=0

akAkv =

p

X

k=0

akλkv

et comme (Pp

k=0akλk)p≥0 diverge par propriété générale des séries entières, on ne peut avoir convergence de (Pp

k=0akAk)p≥0 dans Mn,n(K) (voir re- marque 1.34).

Remarque 1.48. En revanche si ρ(A) = R < ∞ on ne peut rien dire. Si par exemple

f(z) =

X

k=1

zk k alors f(Idn)n’est pas définie mais f(B) l’est si

B =

−1 0 0 −1

.

On a bien ici ρ(Idn) = ρ(B) =R = 1.

Exemple 1.49. On aurait pu définir à l’instar de expA les fonctions chA, shA,cosA, sinA et logA de la façon suivante.

• Posons

chA=

X

k=0

1 2k!A2k. Elle est définie pour touteA.

(21)

1.3. SUITES DE MATRICES, CONVERGENCE 21

• Posons

shA=

X

k=0

1

2k+ 1!A2k+1. Elle est définie pour toute A.

• Posons

cosA=

X

k=0

(−1)k 1 2k!A2k. Elle est définie pour toute A.

• Posons

sinA =

X

k=0

(−1)k 1

2k+ 1!A2k+1. Elle est définie pour toute A.

• Posons

logA=

X

k=1

(−1)k+1

k (A−Idn)k.

Elle est bien définie par exemple si k k est une norme matricielle et si kA−Idn k<1 ou encore siρ(A−Idn)<1.

On pourrait alors prouver certaines propriétés de ces fonctions similaires à celles dont elles jouissent sur les nombres mais ce n’est pas l’objet ici.

Citons pour finir quelques propriétés élémentaires qui peuvent servir.

Proposition 1.50. Soient f et g des séries entières.

1. Si f(A) est définie, on a Af(A) = f(A)A;

2. Si f(A) et g(A) sont définies on a f(A)g(A) =g(A)f(A);

3. Soit f une série entière de rayon de convergence R >0 (on peut avoir R=∞) et k k une norme matricielle. Alors f (au sens matriciel) est continue sur

{A∈Mn,n(K);kAk< R}.

Preuve. Élémentaire. En particulier le point (3) généralise ce qui a été dit pourexp.

(22)

22 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES

1.3.4 Application aux systèmes différentiels

L’exponentielle de matrices intervient dans la résolution de systèmes dif- férentiels de la forme :

 y10(t) y20(t)

... y0n(t)

=A

 y1(t) y2(t)

... yn(t)

 +

 b1(t) b2(t)

... bn(t)

 ,

oùA ∈Mn,n(R)et où lesbi etyisont des fonctions à valeurs réelles, dérivables sur un intervalle I ⊆ R, système que l’on peut écrire avec des notations évidentes :

Y0 =AY +B.

Remarque 1.51. On pourrait prendre A∈Mn,n(C), et lesbi etyi à valeurs complexes sur I. Cela ne changerait rien.

Commençons par traiter le cas homogène B = 0.

Lemme 1.52. L’application R −→Mn,n(K) définie par g(t) = exp(tA) est dérivable sur R et l’on a

g0(t) =Aexp(tA).

Preuve. Sit0 6=t on a

g(t0)−g(t) =

X

k=1

1

k!(t0k−tk)Ak, d’où

g(t0)−g(t) t0−t =

X

k=1

t0k−1+t0k−2t+· · ·+t0tk−2+tk−1

k! Ak.

On en déduit que g(t0)−g(t)

t0−t −Aexp(tA) =

X

k=1

t0k−1+t0k−2t+· · ·+tk−1−ktk−1

k! Ak

=

X

k=2

t0k−1+t0k−2t+· · ·+tk−1−ktk−1

k! Ak.

Or

t0k−1+t0k−2t+· · ·+tk−1−ktk−1

(23)

1.3. SUITES DE MATRICES, CONVERGENCE 23 est égal à

(t0k−1−tk−1) + (t0k−2−tk−2)t+· · ·+ (t0−t)tk−2 et en se servant de l’inégalité

|t0p−tp| ≤p|t0−t|

|t|+|t0|p−1

directement issue du théorème des accroissements finis, on voit que

|t0k−1+t0k−2t+· · ·+tk−1−ktk−1| ≤ k(k−1)

2 |t0 −t|

|t|+|t0|k−2

. On en déduit que si k kest une norme matricielle, on a

k g(t0)−g(t)

t0−t −Aexp(tA)k≤ |t0−t|

2 kAk2 exp

(|t|+|t0|)kAk , et

tlim0→tk g(t0)−g(t)

t0−t −Aexp(tA)k= 0, par continuité deexp. D’où la conclusion.

Théorème 1.53. La solution générale de Y0(t) = AY(t) est Y(t) = exp(tA)C

où C∈Rn. Preuve. On pose

H(t) = exp(−tA)Y(t).

On a alors par le lemme 1.52,

H0(t) =−Aexp(−tA)Y(t) + exp(−tA)Y0(t) = 0

pour tout t ∈R. On en déduit que la fonction H est une constante C ∈Rn et la conclusion par multiplication à gauche par exp(tA).

Qu’advient-il maintenant dans le cas non homogène ? Posons de nouveau H(t) = exp(−tA)Y(t). Il vient

H0(t) = exp(−tA)B(t).

et si H(t) = (h1(t), . . . , hn(t)on a pour tout i

(1.4) h0i(t) = fi(t)

(24)

24 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES où

exp(−tA)

 b1(t)

... bn(t)

=

 f1(t)

... fn(t)

.

Il suffit alors d’intégrer (1.4) pour avoir les hi. On en déduit alors Y(t) = exp(tA)H(t).

En fait, il suffit même d’obtenir une solution particulière hi de chaque (1.4) ce qui donne une solution particulière du système. En effet toute solution du système est la somme de cette solution particulière et d’une solution du système homogène facile à intégrer, comme on l’a vu.

Exemple 1.54. Soit à résoudre la système

x0(t) = 5x(t) +y(t) + expt y0(t) = −4x(t) +y(t) + exp(−t).

On a

tA=

5t t

−4t t

. On calcule facilement

χtA(X) =x2−6tx+ 9t2 = (x−3t)2

et3t est valeur propre double. Ainsi pourt6= 0,tAn’est pas diagonalisable, sinon on aurait tA= 3tId2. Il convient de rechercher une décomposition de Dunford detApour calculer son exponentielle. Un vecteur propre detApour 3t estf1 = (1,−2). Complétons en (f1, f2) avec f2 = (0,1). Si

P =

1 0

−2 1

d’inverse P−1 =

1 0 2 1

, on a

A0 =P−1(tA)P =

3t t 0 3t

. Ainsi une décomposition de Dunford deA0 est

A0 =t(3 Id2+N) avec N = 0 1

0 0

.

CommeN2 = 0 on obtient facilement expA0 = exp(3t)(Id2+tN) =

exp(3t) texp(3t) 0 exp(3t)

,

(25)

1.3. SUITES DE MATRICES, CONVERGENCE 25 d’où l’on tire

exp(tA) =P expA0P−1 =

(1 + 2t) exp(3t) texp(3t)

−4texp(3t) (1−2t) exp(3t)

.

La solution générale du système homogène est donc x(t) = (1 + 2t) exp(3t)C1+texp(3t)C2

y(t) = −4texp(3t)C1+ (1−2t) exp(3t)C2, avec(C1, C2)∈R2.

Passons maintenat au système non homogène. Posons H(t) =

h1(t) h2(t)

= exp(−tA) x(t)

y(t)

.

Il vient

H0(t) = exp(−tA)

expt exp(−t)

=

(1−2t) exp(−2t)−texp(−4t) 4texp(−2t) + (1 + 2t) exp(−4t)

.

Une solution particulière est facile à trouver et l’on obtient par exemple h1(t) = exp(−2t) + 4t+116 exp(−4t)

h2(t) = −(2t+ 1) exp(−2t)− 4t+38 exp(−4t).

On en déduit une solution particulière du système non homogène xp(t) = (−2t2+t+ 1) expt+ 161 exp(−t)

yp(t) = (4t2−4t−1) expt−38 exp(−t) et la solution générale du système :

x(t) = xp(t) + (1 + 2t) exp(3t)C1+texp(3t)C2 y(t) = yp(t)−4texp(3t)C1+ (1−2t) exp(3t)C2.

(26)

26 CHAPITRE 1. ALGÈBRE LINÉAIRE, PRÉLIMINAIRES

(27)

Chapitre 2

Le pivot de Gauss

2.1 Rappels sur les matrices de permutations

Définition 2.1. Soit σ ∈ Sn une permutation de {1, . . . , n}. On appelle matrice de σ et on note Pσ la matrice de (pi,j)∈Mn,n(Z) définie par

pi,ji,σ(j). Exemple 2.2. Soit σ∈S4 définie par

σ =

1 2 3 4 2 3 4 1

.

Alors

Pσ =

0 0 0 1 1 0 0 0 0 1 0 0 0 0 1 0

 .

Remarque 2.3. Une autre définition possible eût été : matrice dont chaque ligne et chaque colonne ne comporte qu’un coefficient non nul valant 1.

Proposition 2.4. On a les propriétés élémentaires suivantes.

1. Pσei =eσ(i) (où (ei)1≤i≤n est la base canonique de Rn) 2. Pσ◦σ0 =PσPσ0

3. PId{1,...,n} = Idn.

4. Pσ est inversible d’inverse Pσ−1 =Pσt. Ainsi Pσ est orthogonale.

Preuve. Exercice.

27

(28)

28 CHAPITRE 2. LE PIVOT DE GAUSS Un exemple fondamental est celui des matrices de transpositions. Si τ = (i, j)est une transposition,Pτ est la matrice dont la diagonale comporte des 1 partout sauf en lignesietj où le coefficient est nul, tous les coefficients non diagonaux étant nuls sauf les coefficients indexés par(i, j)et(j, i)qui valent 1. En s’appuyant sur les propriétés des transpositions, on peut montrer que :

1. Toute Pσ est produit d’au plus n−1 matrices de transpositions.

2. Si τ est une transpositiondetPτ =−1.

3. Pour toute permutation σ∈Sn, detPσ = sign (σ).

Remarque 2.5. Il est facile de voir que multiplier à gauche une matrice A par une matrice de permutationPσ revient à permuter les lignes deAsuivant σ (la ligne i de A est envoyée en ligne σ(i)) et que multiplier à droite une matriceApar une matrice de permutationPσ revient à permuter les colonnes deA suivantσ−1 (la colonnei deA est envoyée en colonneσ−1(i) ou, si l’on préfère, la colonne ide APσ est la colonne σ(i) deA).

2.2 Exemples concrets, le principe

Soient A ∈ GLn(K), B ∈ Kn (vu comme vecteur colonne). On désire résoudre AX =B. En théorie, on dispose de plusieurs approches.

• Calculer A−1;

• Les formules de Cramer :

xi = detAi detA,

oùAi est la matrice A avecB à la place de la i-ème colonne.

Mais tout ceci est très coûteux en pratique. Une idée élémentaire consiste à transformer A de manière à se ramener à un système triangulaire. Donnons quelques exemples concrets.

Exemple 2.6. Soient A=

2 1 1 4 1 3 6 5 2

 et B =

 1 4 2

.

On veut donc résoudre

2x+y+z = 1 4x+y+ 3z = 4 6x+ 5y+ 2z = 2

(29)

2.2. EXEMPLES CONCRETS, LE PRINCIPE 29 1. On considére le pivot 2 de la première ligne et on fait L2 ←−L2−2L1

puis L3 ←−L3−3L1. On obtient le système équivalent :

2x+y+z = 1

−y+z = 2 2y−z = −1

2. On considère lepivot−1de la deuxième ligne et on faitL3 ←−L3+2L2. On obtient le système équivalent :

2x+y+z = 1

−y+z = 2 z = 3

que l’on résout facilement en remontant :z = 3,y = 1, x=−3/2.

C’est l’idée de base que nous interprétons maintenant matriciellement. On a successivement fait les choses suivantes.

1. On a utilisé la matrice L01 =

1 0 0

−2 1 0

−3 0 1

 d’inverse L1 =

1 0 0 2 1 0 3 0 1

et on s’est ramené au système

L01AX =L01B.

2. On a utilisé la matrice L02 =

1 0 0 0 1 0 0 2 1

 d’inverse L2 =

1 0 0 0 1 0 0 −2 1

et on s’est ramené au système

L02L01AX =L02L01B.

En posant

U =L02L01A

qui est triangulaire supérieure on s’est donc ramené au système plus simple U X =L02L01B.

On a donc implicitement utilisé la fait queA=L1L2U se décompose sous la forme

A=LU,

où L = L1L2 est triangulaire inférieure ne comportant que des 1 sur la diagonale et oùU esttriangulaire supérieure.

(30)

30 CHAPITRE 2. LE PIVOT DE GAUSS Mais cela n’est pas toujours aussi simple et l’on peut par exemple tomber sur un pivot nul (cas extrême : a1,1 = 0). On joue alors sur les permutations de lignes. Donnons un nouvel exemple pour illustrer ce cas.

Exemple 2.7. Soient

A =

2 1 0 4

−4 −2 3 −7

4 1 −2 8

0 −3 −12 −1

et B =

 2

−9 2 2

 .

1. Servons-nous du pivot2et faisonsL2 ←−L2+ 2L1 etL3 ←−L3−2L1. Avec les notations précedentes on a

L01 =

1 0 0 0 2 1 0 0

−2 0 1 0 0 0 0 1

d’inverse L1 =

1 0 0 0

−2 1 0 0 2 0 1 0 0 0 0 1

 .

Ce qui conduit à

A(1) =L01A=

2 1 0 4

0 0 3 1

0 −1 −2 0 0 −3 −12 −1

et B(1) =L01B =

 2

−5

−2 2

 ,

et au systèmeA(1)X =B(1). Mais alors le pivot suivant a(1)2,2 est nul.

2. L’idée naturelle est d’échanger les lignes 2 et 3, ce qui revient à multi- plier à gauche par la matrice de transposition Pτ avec τ = (2,3)(voir section précédente) :

Pτ =

1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1

 .

On est alors ramené au systèmeA(2)X =B(2)

A(2) =PτL01A=

2 1 0 4

0 −1 −2 0

0 0 3 1

0 −3 −12 −1

(31)

2.2. EXEMPLES CONCRETS, LE PRINCIPE 31 et

B(2) =PτL01B =

 2

−2

−5 2

 .

3. On peut alors poursuivre. On fait L4 ←− L4 −3L2 ce qui revient à utiliser

L02 =

1 0 0 0 0 1 0 0 0 0 1 0 0 −3 0 1

d’inverse L2 =

1 0 0 0 0 1 0 0 0 0 1 0 0 3 0 1

 .

On obtient alors le système A(3)X =B(3)

A(3) =L02PτL01A=

2 1 0 4

0 −1 −2 0

0 0 3 1

0 0 −6 −1

et

B(3) =L02PτL01B =

 2

−2

−5 8

 .

4. Finalement on fait L4 ←−L4+ 2L3 ce qui revient à utiliser

L03 =

1 0 0 0 0 1 0 0 0 0 1 0 0 0 2 1

d’inverse L3 =

1 0 0 0 0 1 0 0 0 0 1 0 0 0 −2 1

 .

On obtient alors le système A(4)X =B(4)

A(4) =L03L02PτL01A=

2 1 0 4

0 −1 −2 0

0 0 3 1

0 0 0 1

et

B(4) =L03L02PτL01B =

 2

−2

−5

−2

 .

La résolution en cascade mène à :x4 =−2, x3 =−1,x2 = 4 etx1 = 3.

(32)

32 CHAPITRE 2. LE PIVOT DE GAUSS Quid d’une éventuelle décompositionLU deA? Posons U =A(4). C’est une matrice triangulaire supérieure. On a

U = L03L02PτL01A

= L03L02PτL01Pτ−1PτA

= L03L02L04PτA, où

L04 = PτL01Pτ−1

= PτL01Pτ

=

1 0 0 0

−2 1 0 0 2 0 1 0 0 0 0 1

d’inverse

L4 =

1 0 0 0 2 1 0 0

−2 0 1 0 0 0 0 1

 .

Ceci donne

PτA =LU

avec L = L4L2L3 triangulaire inférieure dont la diagonale ne comporte que des 1 :

L=

1 0 0 0

2 1 0 0

−2 0 1 0 0 3 −2 1

 .

Remarque 2.8. Il est intéressant de noter que lesL0i qui sont égales à l’iden- tité, aux coefficients d’une seule colonne près, situés sous la diagonale, s’in- versent facilement : il suffit de prendre les opposés de ces coefficients. Par ailleurs, si l’on calcule un produit de telles matrices, ces matrices étant or- données de gauche à droite, de la plus haute sous-colonne non nulle vers la plus basse (ces sous-colonnes ayant toutes des hauteurs différentes), il suffit en fait de recopier les sous-colonnes pour obtenir le produit recherché. Ainsi L est obtenue sans calcul.

(33)

2.3. LE THÉORÈME PRINCIPAL 33

2.3 Le théorème principal

Donnons maintenant le théorème qui généralise ce que l’on vient de voir.

Théorème 2.9. Soit A∈GLn(K). Il existe P matrice de permutation (pas nécessairement transposition), L triangulaire inférieure à termes diagonaux égaux à 1 et U triangulaire supérieure telles que

P A=LU.

De plus, P étant fixée, L et U sont uniques.

Preuve. Voir TD numéro 8.

Corollaire 2.10. Si on connaît une telle décomposition avec P = Pσ, on peut calculer A−1 et detA de façon très pratique. En effet il est facile de voir que

A−1 =U−1L−1P et

detA= sign(σ)

n

Y

i=1

ui,i.

Notons que la procédure de résolution de AX = B qui se dégage de ce résultat consiste à factoriser A sous la forme P A = LU puis à résoudre AX =B par LY =P B puis U X = Y. Ce qui est d’autant plus intéressant qu’on a plusieurs B à tester.

2.4 Le coût

Quel est le coût de cette procédure pour un seul B? On a trois phases : factorisation LU, résolution de LY =B puis résolution deU X =Y.

1. À l’étape k (1≤k ≤n−1) de la factorisation :

• n−k multiplications ou divisions pour déterminer L0k, ce qui donne Lk sans calcul ;

• (n−k)2 additions et multiplications pour calculerL0kA(k−1) (avec la conventionA(0)=A) ;

• Les permutations n’induisent pas d’opérations.

À la fin on a U, et L s’obtient sans calcul (par recopiage). En tout on a donc

n−1

X

k=1

(n−k)2+

n−1

X

k=1

(n−k) = 1

3n(n−1

2)(n−1) +1

2n(n−1) opérations.

(34)

34 CHAPITRE 2. LE PIVOT DE GAUSS 2. La résolution d’un système triangulaire nécessite n(n−1)/2additions et multiplications etn divisions par les pivots (ou multiplications si les inverses ont été stockés en amont) et ces dernières opérations ne sont pas nécessaires pour LY = P B car les termes diagonaux de L valent 1. D’où en tout pour les deux systèmes

n(n−1) +n=n2 opérations.

Finalement, quand n est grand on a une complexité algébrique qui vaut 1

3n(n− 1

2)(n−1) + 1

2n(n−1) +n2 ∼ 1 3n3 .

2.5 Mise en oeuvre effective et variantes

Le problème auquel on est concrètement inévitablement confronté est celui de la précision des calculs. Car quand bien même il serait possible de travailler exactement (par exemple siA∈ Mn(Z)auquel cas tous les calculs peuvent se faire dans Q), la taille des nombres (ou seulement des parties des fractions manipulées) peut exploser. Il est alors intéressant de pouvoir majorer l’erreur globale en fonction d’un erreur d’arrondi tolérée sur chaque opération élémentaire. Citons sans preuve.

Théorème 2.11. Soit K le plus grand coefficient en valeur absolue des ma- tricesA(k) intervenant dans la factorisation de Gauss. Soit εune majoration de l’erreur d’arrondi sur chaque opération élémentaire. si Lc et Uc sont les matrices effectivement calculées, on a

P A=LcUc +E où, avec une notation naturelle,

|E| ≤3Kε

0 0 · · · 0 1 1 · · · 1 1 2 2 · · · 2 1 2 3 · · · 3 ... ... ... ... 1 2 3 · · · n−1

 .

Le problème est avant tout tout de savoir juguler K. Et le moyen d’y parvenir est d’utiliser des variantes appropriées permettant de ne pas avoir à manipuler des pivots trop petits. Il en existe essentiellement deux.

Références

Documents relatifs

Pour multiplier des polynômes, dans l’algorithme Toom-Cook, on a utilisé des évaluations et interpolations de polynômes en certains points.. On peut choisir les points

On va montrer qu’on peut trouver des réels R, qui peuvent s’exprimer en fonction des coefficients de P, tels qu’il existe au moins une racine de P dans {z ∈ C |z| ≤

[r]

[r]

Si l’on applique la méthode de Horner, combien d’additions et de multiplications dans R doit-on

Mais, lorsque X n'est pas n u l surtaxe réel, il n'y a pas en général de col aux points de l'axe réel où la phase est stationnaire- En ces points, une ligne de plus grande pente de

Voici ce qu'il donne comme dénition d'un algorithme : un algorithme a des entrées (zéro ou plusieurs) qui lui sont données avant qu'il ne commence et qui sont prises dans un

Or,ff !l étant positif, il est clair qu'en valeur absolue le dénominateur est plus petit que nf'\ la correction proposée est donc supérieure à celle qui résulte de la formule