• Aucun résultat trouvé

Analyse Numérique

N/A
N/A
Protected

Academic year: 2022

Partager "Analyse Numérique"

Copied!
141
0
0

Texte intégral

(1)

Analyse Numérique

Salem MATHLOUTHI

Université Virtuelle de Tunis

2007

(2)

Chapitre 1

Introduction

1.1 Rappels sur les matrices

Soit V un espace vectoriel de dimension finie n sur un corps K ( K = R ou C ). Soit B = {e

1

, e

2

, · · · , e

n

} une base de V , un vecteur v ∈ V admet une repr´ esentation unique dans la base B :

v =

n

X

i=1

v

i

e

i

,

En notation matricielle, le vecteur v s’identifie ` a un vecteur colonne de K

n

:

v =

 v

1

v

2

.. . v

n

 ,

on notera par v

T

et v

les vecteurs lignes :

v

T

= (v

1

v

2

· · · v

n

), v

= (¯ v

1

¯ v

2

· · · v ¯

n

).

On d´ efinit le produit scalaire dans le cas K = R (resp. le produit hermitien dans le cas K = C ) par :

(u, v) = u

T

v =

n

X

i=1

u

i

v

i

, (resp.

(u, v) = u

v =

n

X

i=1

¯ u

i

v

i

).

On dit qu’une base B = {e

1

, e

2

, · · · , e

n

} est orthonorm´ ee si : e

i

e

j

= δ

i,j

o` u δ

i,j

est le symbole de Kronecker : δ

i,j

= 1 si i = j, δ

i,j

= 0 si i 6= j.

(3)

Soient V et W deux espaces vectoriels sur le mˆ eme corps K , munis de bases {e

1

, e

2

, · · · , e

n

} et {f

1

, f

2

, · · · , f

m

} respectivement. On rappelle qu’une applica- tion lin´ eaire L de l’espace vectoriel V dans l’espace vectoriel W est d´ efinie d’une mani` ere unique par l’image de la base de V , c’est-` a-dire

Le

j

=

m

X

i=1

a

ij

f

i

, 1 ≤ j ≤ n.

Si on note A la matrice m × n ( m lignes et n colonnes) d´ efinie par :

A =

a

11

a

12

· · · a

1n

a

21

a

22

· · · a

2n

.. . .. . .. . a

m1

a

m2

· · · a

mn

on voit que la j` eme colonne de la matrice A repr´ esente le vecteur Le

j

et on v´ erifie facilement que pour tout v ∈ V le vecteur Lv de W est repr´ esent´ e par le vecteur colonne not´ e Av suivant :

(Av)

i

= ( i` eme ligne de A) v, 1 ≤ i ≤ m.

On d´ efinit la matrice transpos´ ee de A, not´ ee A

T

, (resp. la matrice adjointe de A, not´ ee A

) :

(A

T

)

ij

= (A)

ji

= a

ji

(resp.

(A

)

ij

= (A)

ji

= a

ji

).

Dans toute la suite, sauf mention du contraire, les matrices consid´ er´ ees seront suppos´ ees carr´ ees d’ordre n, c’est-` a-dire le nombre de lignes est ´ egal au nombre de colonnes qui est ´ egal ` a n.

Une matrice A carr´ ee est par d´ efinition dite inversible s’il existe une matrice not´ ee A

−1

, telle que :

AA

−1

= A

−1

A = (δ

ij

) = I = matrice identit´ e.

On v´ erifie facilement que si A et B sont deux matrices inversibles, alors : (BA)

−1

= A

−1

B

−1

, (A

T

)

−1

= (A

−1

)

T

, (A

)

−1

= (A

−1

)

. Une matrice carr´ ee A = (a

ij

) est par d´ efinition :

• sym´ etrique si A est r´ eelle et A

T

= A,

• hermitienne si A

= A,

• orthogonale si A est r´ eelle et A

T

A = AA

T

= I,

• unitaire si A

A = AA

= I,

• normale si A

A = AA

,

• diagonale si a

ij

= 0 pour i 6= j, on note A = diag(a

ii

),

• triangulaire sup´ erieure (resp. inf´ erieure) si a

ij

= 0 pour i > j (resp. a

ij

= 0 pour i < j),

• semblable ` a une matrice B s’il existe une matrice P inversible,

dite matrice de passage, telle que P

−1

AP = B,

(4)

• diagonalisable si elle est semblable ` a une matrice diagonale.

La trace d’une matrice A = (a

ij

) carr´ ee d’ordre n est d´ efinie par tr(A) =

n

X

i=1

a

ii

,

et son d´ eterminant est d´ efini par det(A) = X

σ∈Gn

ε

σ

a

σ(1)1

a

σ(2)2

· · · a

σ(n)n

o` u G

n

est l’ensemble de toutes les permutations de l’ensemble {1, 2, · · · , n} et ε

σ

d´ esigne la signature de σ.

Les valeurs propres λ

i

(A), 1 ≤ i ≤ n, d’une matrice A carr´ ee d’ordre n sont les n racines de son polynˆ ome caract´ eristique :

P

A

(x) = det(xI − A).

Le spectre de la matrice A est d´ efini par

sp(A) = {λ

1

(A), λ

2

(A), · · · , λ

n

(A)}.

Le rayon spectral d’une matrice A carr´ ee d’ordre n est d´ efini par ρ(A) = max

i

{| λ

i

(A) |}.

On rappelle que pour toute valeur propre λ ∈ sp(A), il existe au moins un vecteur v 6= 0 tel que Av = λv appel´ e vecteur propre.

THEOREME 1.1.1 Soit A une matrice carr´ ee d’ordre n, il existe une matrice unitaire U telle que U

AU soit triangulaire. Si de plus les coefficients de la matrice A sont r´ eels et ses valeurs propres sont r´ eelles, alors, il existe une matrice orthogonale O telle que O

T

AO soit triangulaire.

DEMONSTRATION. Soient E un espace vectoriel de dimension finie n sur le corps C et {e

1

, e

2

, · · · , e

n

} une base de E orthonorm´ ee au sens du produit hermitien :

e

i

e

j

= δ

ij

, 1 ≤ i, j ≤ n

Soit A = (a

ij

) une matrice carr´ ee d’ordre n ` a coefficients complexes, on peut toujours l’associer ` a une application lin´ eaire A : E → E relativement ` a la base {e

1

, e

2

, · · · , e

n

} par l’image de la base :

A(e

j

) =

n

X

i=1

a

ij

e

i

, 1 ≤ j ≤ n

et si λ est une valeur propre de la matrice A, alors, il existe un vecteur non nul v ∈ E tel que :

A(v) = λv

(5)

En utilisant l’application lin´ eaire A, la premi` ere partie du th´ eor` eme consiste ` a prouver l’existence d’une nouvelle base orthonorm´ ee (au sens du produit hermi- tien) {f

1

, f

2

, · · · , f

n

} telle que :

∀1 ≤ j ≤ n, Af

j

∈< f

1

, f

2

, · · · , f

j

>

o` u, < f

1

, f

2

, · · · , f

j

> repr´ esente le sous-espace de E engendr´ e par les vecteurs f

1

, f

2

, · · · , f

j

sur le corps C . Ce qui prouve l’existence d’une matrice T tri- angulaire sup´ erieure associ´ ee ` a l’application lin´ eaire A relativement ` a la base {f

1

, f

2

, · · · , f

n

}. D’autre part, la nouvelle base {f

1

, f

2

, · · · , f

n

} est orthonorm´ ee au sens du produit hermitien, ce qui prouve que la matrice de passage, qu’on note U , est unitaire ( U

U = I ) et on a : T = U

AU .

Montrons par r´ ecurrence l’existence d’une base orthonorm´ ee {f

1

, f

2

, · · · , f

n

} telle que :

∀1 ≤ j ≤ n, Af

j

∈< f

1

, f

2

, · · · , f

j

>

Pour n = 1 le r´ esultat est ´ evident. Supposons qu’il est vrai jusqu’` a l’odre m. Soit A est une application lin´ eaire de E → E avec E espace vectoriel de dimension n = m + 1 sur le corps C . Soit λ ∈ C une valeur propre de la matrice associ´ ee ` a l’application lin´ eaire A et v

1

∈ E un vecteur propre associ´ e ` a λ, donc :

Av

1

= λv

1

Quitte ` a diviser par v

1

v

1

, on peut supposer que v

1

v

1

= 1. Soit v

2

, v

3

, · · · , v

n

, n − 1 vecteurs de E tels que {v

1

, v

2

, · · · , v

n

} soit une base orthonorm´ ee de E.

Donc

Av

1

= λv

1

Av

2

= P

n

k=1

α

k,2

v

k

.. . Av

n

= P

n

k=1

α

k,n

v

k

Soit B l’application lin´ eaire de l’espace vectoriel F =< v

2

, v

3

, · · · , v

n

>, sur le corps C , dans lui mˆ eme d´ efinie par :

∀ 2 ≤ j ≤ n, Bv

j

=

n

X

k=2

α

k,j

v

k

d’apr` es l’hypoth` ese de r´ ecurrence, il existe une base orthonorm´ ee {f

2

, f

3

, · · · , f

n

} de F telle que :

∀ 2 ≤ j ≤ n,

f

j

= P

n i=2

γ

i,j

v

i

Bf

j

∈ < f

2

, f

3

, · · · , f

j

>

On pose f

1

= v

1

. Il est clair que {f

1

, f

2

, · · · , f

n

} est une base orthonorm´ ee et on a :

Af

1

= λf

1

Af

j

= P

n

i=2

γ

i,j

Av

i

= P

n

i=2

γ

i,j

1,i

v

1

+ Bv

i

)

= ( P

n

i=2

γ

i,j

α

1,i

)f

1

+ Bf

j

∈ < f

1

, f

2

, · · · , f

j

>

ce qui termine la d´ emonstration par r´ ecurrence. La mˆ eme d´ emotranstion reste

valable si on remplace le corps C par le corps R et on suppose que les valeurs

propres de A sont r´ eelles ; dans ce cas tous les coefficients seront dans R ce qui

d´ emontre la deuxi` eme partie du th´ eor` eme.

(6)

COROLLAIRE 1.1.1 1) Toute matrice normale est diagonalisable et admet une base orthonorm´ ee (pour le produit hermitien) de vecteurs propres. En par- ticulier, les matrices unitaires, orthogonales, hermitiennes et sym´ etriques sont diagonalisables.

2) Les valeurs propres d’une matrice hermitienne ou sym´ etrique sont r´ eelles.

3) Toute matrice sym´ etrique admet une base r´ eelle orthonorm´ ee de vecteurs propres, c’est-` a-dire il existe une matrice orthogonale O telle que O

T

AO soit diagonale.

DEMONSTRATION.

1/ D’apr` es le th´ eor` eme 1.1.1, il existe une matrice U unitaire telle que : U

AU = T = (t

ij

) = une matrice triangulaire. Si on note par p

1

, p

2

, · · · , p

n

, les colonnes de U , alors, p

1

, p

2

, · · · , p

n

sont les lignes de U

. Par cons´ equent, U est une matrice unitaire ( U

U = I ) est ´ equivalent ` a

∀i = 1, n, ∀j = 1, n, (p

i

)

(p

j

) = δ

ij

On va d´ emontrer que T est une matrice diagonale lorsque la matrice A est normale. Montrons d’abord que T est normale :

T

= (U

AU )

= U

A

(U

)

= U

A

U T

T = U

A

U U

AU = U

A

AU = U

AA

U = T T

ce qui prouve que T est normale. Pour d´ emontrer que T est diagonale, on va comparer les coefficients de T

T et T T

d’indice 11 :

(T

T )

11

=

n

X

i=1

t

i1

t

i1

= |t

11

|

2

(T T

)

11

=

n

X

i=1

t

1i

t

1i

= |t

11

|

2

+ |t

12

|

2

+ · · · + |t

1n

|

2

ce qui donne : t

12

= t

13

= · · · = t

1n

= 0. On refait la mˆ eme chose avec les coefficients d’indice 22 pour d´ emontrer que les coefficients de la deuxi` eme ligne de T en dehors de la diagonale sont nuls, puis avec les coefficients d’indice 33, etc ...

2/ On a :

U

AU = D = diag(λ

1

, λ

2

, · · · , λ

n

) comme A est hermitienne, alors :

D

= diag(λ

1

, λ

2

, · · · , λ

n

)

= (U

AU )

= U

A

U

= U

AU = D

= diag(λ

1

, λ

2

, · · · , λ

n

) c.q.f.d.

3/ On utilise la deuxi` eme partie du th´ eor` eme 1.1.1.

Exercice d’application :

(7)

a) Montrer que si une matrice carr´ ee A est triangulaire et normale, alors, elle est diagonale.

b) Montrer les relations

(i) det(matrice triangulaire) = a

11

a

22

· · · a

nn

, (ii) sp(matrice triangulaire) = {a

ii

, i = 1, n},

(iii) tr(A + B) = tr(A) + tr(B), tr(AB) = tr(BA), tr(A) = P

n

i=1

λ

i

(A),

(iv) det(A

T

) = det(A) = λ

1

(A)λ

2

(A) · · · λ

n

(A), det(AB) = det(BA), (v) sp(A

T

) = sp(A), sp(AB) = sp(BA),

(vi) k ∈ N , sp(A

k

) = {(λ

i

(A))

k

, i = 1, n}, (utiliser le th´ eor` eme 1.1.1).

R´ eponse :

a) Voir la d´ emonstration du corollaire 1.1.1.

b)(i) Supposons que A = (a

ij

) est une matrice triangulaire sup´ erieure, c’est ` a dire : a

ij

= 0 pour i > j, (mˆ eme raisonnement dans le cas triangulaire inf´ erieure, en utilisant (iv)). Soit σ une permutation. Si le produit a

σ(1)1

a

σ(2)2

· · · a

σ(n)n

est non nul, alors, n´ ec´ essairement σ(i) ≤ i pour tout i = 1, n . D’o` u :

σ(1) ≤ 1 ⇒ σ(1) = 1

σ(2) 6= σ(1) = 1; σ(2) ≤ 2 ⇒ σ(2) = 2 .. .

σ(n) 6= σ(i) = i, 1 ≤ i ≤ n − 1; σ(n) ≤ n ⇒ σ(n) = n

donc, toutes les permutations donnent un produit nul, sauf peut-ˆ etre l’identit´ e.

Ce qui donne :

det(A) = a

11

a

22

· · · a

nn

(ii) Si A est une matrice triangulaire, alors, A − xI est aussi triangulaire et les coefficients de la diagonale sont : a

ii

− x , i = 1, n . D’apr` es (i), le polynˆ ome caract´ eristique de A est ´ egal ` a :

P

A

(x) = (a

11

− x)(a

22

− x) · · · (a

nn

− x) c.q.f.d.

(iii)(iv)(v) A = (a

ij

), B = (b

ij

), AB = (c

ij

), BA = (d

ij

), par d´ efinition du produit de deux matrices, on a :

c

ij

=

n

X

k=1

a

ik

b

kj

, d

ij

=

n

X

k=1

b

ik

a

kj

d’o` u

tr(A + B) = P

n

k=1

(a

ii

+ b

ii

)

= P

n

k=1

a

ii

+ P

n k=1

b

ii

= tr(A) + tr(B) tr(AB) = P

n

i=1

c

ii

= P

n i=1

P

n

k=1

a

ik

b

ki

= P

n k=1

P

n

i=1

b

ki

a

ik

= P

n k=1

d

kk

= tr(BA)

(8)

D’apr` es le th´ eor` eme 1.1.1, toute matrice est semblable ` a une matrice triangu- laire T. D’apr` es (ii), les valeurs propres d’une matrice triangulaire T sont les coefficients de la diagonale de T . Montrons que deux matrices semblables ont les mˆ emes valeurs propres : soit λ ∈ sp(P

−1

AP ), par d´ efinition, il existe v 6= 0 tel que P

−1

AP v = λv, d’o` u AP v = λP v et comme P est inversible, alors P v 6= 0, par suite P v est un vecteur propre de A associ´ e ` a λ, ce qui montre que λ ∈ sp(A).

De la mˆ eme mani` ere, on montre que les valeurs propres de A sont des valeurs propres de P

−1

AP . Donc, la matrice A et la matrice triangulaire associ´ ee ` a A par le th´ eor` eme 1.1.1 ont le mˆ eme polynˆ ome caract´ eristique puisqu’elles ont les mˆ emes valeurs propres. D’autre part, un calcul simple nous montre que :

P

B

(x) = det(B − xI) = (−1)

n

[x

n

− tr(B)x

n−1

+ · · · + (−1)

n

det(B)]

ce qui montre que tr(A) = tr(T ) et det(A) = det(T ) , soit encore : tr(A) = P

n

i=1

λ

i

(A) det(A) = Q

n

i=1

λ

i

(A)

Montrons que : det(A) = det(A

T

) . Il suffit de remarquer que si une matrice B est semblable ` a une matrice C , alors, B

T

est semblable ` a C

T

. Donc, A

T

est semblable ` a T

T

qui est une matrice triangulaire inf´ erieure ( ses valeurs propres sont sur sa diagonale, mˆ eme raisonnement que le cas d’une matrice triangulaire sup´ erieure). Or, la diagonale de T est la mˆ eme que la diagonale de T

T

, donc, T et T

T

ont les mˆ emes valeurs propres. Par cons´ equent, A

T

et A ont les mˆ emes valeurs propres. Ce qui prouve que : det(A) = det(A

T

) et sp(A) = sp(A

T

). Montrons que : sp(AB) = sp(BA) (ce qui prouve en particulier que det(AB) = det(BA) ). Il suffit de prouver que sp(AB) ⊂ sp(BA) et par sym´ etrie on a l’autre inclusion. Soit λ ∈ sp(AB), alors il existe v 6= 0 tel que ABv = λv :

1. Si Bv 6= 0 , alors, BA(Bv) = λBv (on applique B de deux cˆ ot´ es) d’o` u Bv est un vecteur propre de BA associ´ e ` a la valeur propre λ , ce qui montre que λ ∈ sp(BA).

2. Si Bv = 0 , alors n´ ec´ essairement λ = 0. D’autre part, si A est inversible, il existe w 6= 0 tel que Aw = v, sinon, il existe w 6= 0 tel que Aw = 0. Dans les deux cas BAw = 0, ce qui montre que w est un vecteur propre de BA associ´ e ` a la valeur propre λ = 0, d’o` u λ = 0 ∈ sp(BA).

(vi) On v´ erifie facilement que si B est semblable ` a C alors B

k

est semblable ` a C

k

, k ∈ N . D’o` u, A

k

est semblable ` a T

k

(T est la matrice triangulaire donn´ ee par le th´ eor` eme 1.1.1). Un calcul simple nous montre que T

k

, k ∈ N , est aussi triangulaire sup´ erieure et les coefficients de sa diagonale sont les t

kii

, i = 1, n.

REMARQUE 1.1.1 D’apr` es le corollaire 1.1.1, si A est une matrice hermi- tienne, il existe une matrice unitaire P = U

= U

−1

telle que :

A = P

diag(λ

i

) P d’o` u, pour tout v ∈ V :

v

Av = v

P

diag(λ

i

) P v = (P v)

diag(λ

i

) (P v) =

n

X

i=1

λ

i

|˜ v

i

|

2

(9)

avec v ˜

i

la i` eme composante du vecteur P v, d’o` u : λ

max

||P v||

22

= λ

max

n

X

i=1

|˜ v

i

|

2

≥ v

Av ≥ λ

min

||P v||

22

= λ

min n

X

i=1

|˜ v

i

|

2

avec λ

max

la plus grande valeur propre de A et λ

min

la plus petite valeur propre de A. D’autre part, la matrice P est unitaire ce qui donne ||P v||

2

= ||v||

2

, d’o` u :

λ

max

||v||

22

= λ

max n

X

i=1

|v

i

|

2

≥ v

Av ≥ λ

min

||v||

22

= λ

min n

X

i=1

|v

i

|

2

ce qui prouve en particulier que :

λ

max

= max

||u||2=1

u

Au; λ

min

= min

||u||2=1

u

Au

Le maximum est atteint pour un vecteur propre de A associ´ e ` a λ

max

de norme 2

´

egale ` a 1 et le minimum est atteint pour un vecteur propre de A associ´ e ` a λ

min

de norme 2 ´ egale ` a 1.

DEFINITION et REMARQUE

On dit qu’une matrice hermitienne est d´ efinie positive (resp. positive) si : v

Av > 0, ∀v ∈ V − {0}, (resp.v

Av ≥ 0, ∀v ∈ V ) ;

d’apr` es ce qui pr´ ec` ede, on a

v

Av ≥ λ

min

v

v, pour tout v ∈ V ;

d’o` u, une matrice hermitienne est d´ efinie positive (resp. positive) si et seulement si λ

min

> 0 (resp.λ

min

≥ 0 ).

1.2 Normes et suites de matrices

Soit V un espace vectoriel de dimension finie. On rappelle les trois normes vectorielles suivantes :

k v k

1

= X

i

| v

i

| k v k

2

= ( X

i

| v

i

|

2

)

1/2

k v k

= max

i

| v

i

|

DEFINITION 1.2.1 Une norme matricielle, not´ ee comme la norme vecto- rielle par k . k, est par d´ efinition une norme vectorielle :

(i) k A k≥ 0 et k A k= 0 ⇐⇒ A = 0, (ii) k γA k=| γ |k A k pour tout scalaire γ, (iii) k A + B k≤k A k + k B k,

de plus elle v´ erifie :

(iv) k AB k≤k A kk B k.

(10)

Etant donn´ e une norme vectorielle k . k, on lui associe une norme matricielle, appel´ ee norme matricielle subordonn´ ee, de la mani` ere suivante :

k A k= max

x6=0

k Ax k k x k (noter que les normes ` a droite sont vectorielles).

Exercice d’application : V´ erifier que

(i) la norme subordonn´ ee est bien une norme matricielle, (ii) k A k= max

x6=0

k Ax k

k x k = max

kuk=1

k Au k R´ eponse :

1. (a)

kAk = 0 ⇐⇒ sup

x6=0kAxkkxk

= 0 ⇐⇒ ∀x 6= 0,

kAxkkxk

= 0

⇐⇒ ∀x, kAxk = 0 ⇐⇒ A = 0

(b) kλAk = sup

x6=0kλAxkkxk

= sup

x6=0|λ|kAxkkxk

= |λ| sup

x6=0kAxkkxk

=|λ|kAk (c) A et B deux matrices de mˆ eme ordre :

∀x 6= 0,

k(A+B)xkkxk

=

kAx+Bxkkxk

kAxk+kBxkkxk

kAxkkxk

+

kBxkkxk

≤ kAk + kBk d’o` u : kA + Bk = sup

x6=0 k(A+B)xkkxk

≤ kAk + kBk.

(d) De la d´ efinition de kAk = sup

x6=0kAxkkxk

, on d´ eduit que : kAxk ≤ kAkkxk pour tout x. Soient A et B deux matrices de mˆ eme ordre, on a :

∀x 6= 0, kABxk

kxk = kA(Bx)k

kxk ≤ kAkkBxk

kxk ≤ kAkkBkkxk

kxk = kAkkBk

ce qui prouve que : kABk ≤ kAkkBk.

2.

kAk = sup

x6=0kAxkkxk

= sup

x6=0

kA(

kxkx

)k

≤ sup

kuk=1

kAuk = sup

kuk=1kAukkuk

≤ sup

u6=0kAukkuk

= kAk

Les normes matricielles subordonn´ ees aux normes k . k

1

, k . k

2

et k . k

sont donn´ ees par le th´ eor` eme suivant :

THEOREME 1.2.1 (1) k A k

1

= max

j

k a

j

k

1

, ( a

j

: j` eme colonne de A), (2)k A k

2

= p

ρ(A

A), (3) k A k

= max

i

k a

0i

k

1

, ( a

0i

: i` eme ligne de A),

DEMONSTRATION.

(11)

(1) u ∈ R

n

, k u k

1

= 1, alors : k Au k

1

= X

k=1,n

| X

j=1,n

a

k,j

u

j

|

≤ X

k=1,n

X

j=1,n

| a

k,j

u

j

|

≤ X

j=1,n

( X

k=1,n

| a

k,j

|) | u

j

|

≤ max

j

( X

k=1,n

| a

k,j

|) X

j=1,n

| u

j

|

ce qui prouve que

k A k

1

≤ max

j

k a

j

k

1

D’autre part, soit j

0

tel que : max

j

k a

j

k

1

=k a

j0

k

1

on pose

v

j0

= 1, v

j

= 0, ∀j 6= j

0

on obtient que k v k

1

= 1 et k Av k

1

= max

j

k a

j

k

1

≤k A k

1

, d’o` u l’autre in´ egalit´ e.

(2)

k A k

2

= max

kuk2=1

k Au k

2

= max

kuk2=1

u

A

Au

= p

ρ(A

A)

car la matrice A

A est hermitienne positive (voir remarque 1.1.1).

(3) u ∈ R

n

, k u k

= 1, alors : k Au k

= max

k

| X

j=1,n

a

k,j

u

j

|

≤ max

k

X

j=1,n

| a

k,j

u

j

|

≤ k u k

max

k

( X

j=1,n

| a

k,j

|)

ce qui prouve que

k A k

≤ max

k

k a

0k

k

1

D’autre part, soit k

0

tel que : max

k

k a

0k

k

1

=k a

0k0

k

1

on pose

∀j, v

j

=

signe(a

k0,j

) , si a

k0,j

6= 0,

0 , sinon

on obtient que k v k

= 1 et k Av k

= max

k

k a

0k

k

1

≤k A k

, d’o` u l’autre

in´ egalit´ e.

(12)

On v´ erifie sans peine que la norme matricielle subordonn´ ee ` a la norme 2 d’une matrice normale est ´ egale ` a son rayon spectral (Indication : utiliser le corollaire 1.1.1 et le fait que la norme 2 est invariante par transformation uni- taire). Une question s’impose, le rayon spectral d´ efinit-il une norme matricielle ? La r´ eponse est donn´ ee par l’exemple suivant :

A =

0 1 0 0

on a que A est une matrice non nulle et son rayon spectral est nul.

Le th´ eor` eme suivant compare le rayon spectral et une norme matricielle quelconque,

THEOREME 1.2.2 (1) Soit A une matrice quelconque et k . k une norme matricielle quelconque. Alors

ρ(A) ≤k A k .

(2) Etant donn´ e une matrice A et ε > 0, il existe au moins une norme matri- cielle subordonn´ ee telle que

k A k≤ ρ(A) + ε.

DEMONSTRATION.

(1) Soit λ une valeur propre de A telle que ρ(A) =| λ |. Soit v 6= 0 un vecteur propre de A associ´ e ` a λ. Soit B la matrice carr´ ee d’ordre n d´ efinie par :

Bx = (v

x)v, ∀x ∈ C

n

On a :

k AB k≤k A kk B k, et k B k6= 0 D’autre part

ABx = A(v

x)v = (v

x)λv, ∀x ∈ C

n

par cons´ equent AB = λB, d’o` u k AB k=| λ |k B k. Comme k B k6= 0, alors ρ(A) =| λ |≤k A k

(2) D’apr` es le th´ eor` eme 1.1.1, il existe une matrice unitaire U telle que : T = U

−1

AU

est une matrice triangulaire sup´ erieure :

T =

t

11

· · · · · · t

1n

0 . . . .. . .. . . . . . . . .. . 0 · · · 0 t

nn

avec sp(A) = {t

11

, t

22

, t

33

, · · · , t

nn

}. Soit δ > 0, on pose :

P

δ

= diag{1, δ, δ

2

, · · · , δ

n−1

}

(13)

On v´ erifie facilement que

δ→0

lim P

δ−1

T P

δ

= diag{t

11

, t

22

, · · · , t

nn

} d’o` u

δ→0

lim k P

δ−1

U

−1

AU P

δ

k

2

=k diag{t

11

, t

22

, · · · , t

nn

} k

2

= ρ(A) Soit ε > 0, on choisit δ > 0 tel que :

k P

δ−1

U

−1

AU P

δ

k

2

≤ ρ(A) + ε

et on d´ efinit l’application de l’espace des matrices carr´ ees d’ordre n dans R

+

B →k B k=k P

δ−1

U

−1

BU P

δ

k

2

on v´ erifie facilement que k . k est une norme matricielle subordonn´ ee ` a la norme vectorielle suivante :

v →k v k=k P

δ−1

U

−1

v k

2

La notion de convergence d’une suite de matrices n’est autre que la notion classique de convergence dans les espaces vectoriels norm´ es.

THEOREME 1.2.3 Soit B une matrice carr´ ee. Les conditions suivantes sont

´

equivalentes : (1) lim

k→∞

B

k

= 0, (2) lim

k→∞

B

k

v = 0, pour tout vecteur v, (3) ρ(B ) < 1,

(4) k B k< 1 pour au moins une norme matricielle subordonn´ ee.

DEMONSTRATION.

(1) = ⇒ (2) ´ evidente.

(2) = ⇒ (3) Soit λ une valeur propre de B telle que ρ(B) =| λ |. Soit v 6= 0 un vecteur propre de B associ´ e ` a λ. On a :

B

k

v = λ

k

v d’o` u

k B

k

v k= (ρ(B))

k

k v k

ce qui prouve que lim

k→∞

ρ(B)

k

= 0 car k v k6= 0, d’o` u, ρ(B ) < 1.

(3) = ⇒ (4) on applique (2) du th´ eor` eme 1.2.2 avec ε =

1−ρ(B)2

.

(4) = ⇒ (1) ´ evidente en utilisant la propri´ et´ e de la norme matricielle suivante :

k B

k

k≤k B k

k

THEOREME 1.2.4 Soit B une matrice carr´ ee, et k . k une norme matricielle quelconque. Alors

k→∞

lim k B

k

k

1/k

= ρ(B).

(14)

DEMONSTRATION.

En utilisant le th´ eor` eme 1.1.1, on v´ erifie facilement que : sp(B

k

) = {λ

k

; λ ∈ sp(B)}

d’o` u

ρ(B

k

) = (ρ(B ))

k

d’apr` es le th´ eor` eme 1.2.2, on a :

ρ(B

k

) ≤k B

k

k d’o` u

ρ(B) ≤k B

k

k

1/k

Soit ε > 0, d’apr` es (2) du th´ eor` eme 1.2.2, il existe une norme matricielle k . k

ε

telle que :

k B k

ε

≤ ρ(B) + ε

D’autre part, toutes les normes sont ´ equivalentes car l’espace vectoriel des ma- trices est un espace vectoriel de dimension finie et la norme matricielle et en particulier une norme vectorielle, donc :

∃c

ε

> 0 ; k A k≤ c

ε

k A k

ε

, ∀ A Par cons´ equent :

ρ(B) ≤k B

k

k

1/k

≤ c

1/kε

k B

k

k

1/kε

≤ c

1/kε

(ρ(B) + ε) Par passage ` a la limite sur k puis sur ε, on obtient ce qu’il faut.

Une importante norme matricielle non subordonn´ ee ` a une norme vecto- rielle est la norme de Frobenius d´ efinie pour toute matrice A ∈ M

mn

( R ) par :

k A k

F

= (

m

X

i=1 n

X

j=1

| a

ij

|

2

)

1/2

,

on v´ erifie que

k A k

2F

= trace(A

A)

ce qui prouve que la norme de Frobenius est invariante par transformation uni- taire. La norme de Frobenius est essentiellement la norme Euclidienne appliqu´ ee

`

a un vecteur de mn composantes. Il est facile de voir que la norme de l’identit´ e I est toujours ´ egale ` a 1 pour une norme subordonn´ ee. D’autre part, il est clair que k I k

F

= √

n. D’o` u, pour n ≥ 2, la norme de Frobenius ne peut pas ˆ etre subordonn´ ee ` a une norme vectorielle.

1.3 M´ ethode de Gauss pour la r´ esolution des syst` emes lin´ eaires

L’id´ ee de base derri` ere les m´ ethodes de r´ esolution de Ax = b est la

transformation de ce probl` eme en un probl` eme facile ` a r´ esoudre. Consid´ erons

(15)

l’exemple d’un syst` eme en trois dimensions :

x

1

+ x

2

+ 2x

3

= 3 2x

1

+ 3x

2

+ x

3

= 2 3x

1

− x

2

− x

3

= 6 ,

ce qui corresponds ` a

A =

1 1 2

2 3 1

3 −1 −1

 , b =

 3 2 6

 .

L’inconnu x

1

peut-ˆ etre ´ eliminer de la deuxi` eme ´ equation et de la troisi` eme

´

equation en retranchant de la deuxi` eme ´ equation deux fois la premi` ere ´ equation et de la troisi` eme ´ equation trois fois la premi` ere ´ equation, on obtient alors, le syst` eme suivant

x

1

+ x

2

+ 2x

3

= 3 x

2

− 3x

3

= −4

− 4x

2

− 7x

3

= −3 .

(Il est clair que ces transformations ne changent pas la solution.)

L’inconnu x

2

peut-ˆ etre ´ eliminer de la troisi` eme ´ equation du syst` eme en ajoutant ` a la derni` ere ´ equation quatre fois la deuxi` eme ´ equation, on obtient, le syst` eme triangulaire suivant :

x

1

+ x

2

+ 2x

3

= 3 x

2

− 3x

3

= −4

− 19x

3

= −19 .

La solution de notre syst` eme de d´ epart peut-ˆ etre d´ etermin´ ee directement

`

a partir des ´ equations du dernier syst` eme. Dans la derni` ere ´ equation il y a seulement x

3

, et on a x

3

= 1. En rempla¸ cant x

3

par sa valeur dans la deuxi` eme

´

equation, on obtient

x

2

= −1.

Enfin, en rempla¸ cant x

3

et x

2

dans la premi` ere ´ equation, on obtient x

1

= 2

soit

x =

 2

−1 1

 .

On a donc transform´ e notre syst` eme en un syst` eme qui a la mˆ eme solution et qui est facile ` a r´ esoudre, c’est le syst` eme triangulaire.

1.3.1 Syst` eme lin´ eaire triangulaire. M´ ethode de remont´ ee.

Supposons que nous voulons r´ esoudre

U x = b,

(16)

o` u U est une matrice triangulaire sup´ erieure n × n inversible. On a alors, n

´

equations sous la forme :

u

11

x

1

+ u

12

x

2

+ · · · + u

1n

x

n

= b

1

u

22

x

2

+ · · · + u

2n

x

n

= b

2

. . . .. . .. . u

nn

x

n

= b

n

.

( La matrice U est inversible si et seulement si les ´ el´ ements de la diagonale sont non nuls.)

La n

eme

´ equation d´ epend uniquement de l’inconnu x

n

, on a u

nn

x

n

= b

n

, soit x

n

= b

n

u

nn

. La (n − 1)

eme

´ equation

u

n−1,n−1

x

n−1

+ u

n−1,n

x

n

= b

n−1

d´ epend uniquement de x

n

et x

n−1

, or, x

n

est connu, d’o` u x

n−1

= 1

u

n−1,n−1

(b

n−1

− u

n−1,n

x

n

).

Pour k > 0, x

k

est d´ etermin´ e de la mˆ eme mani` ere que les inconnus x

n

, x

n−1

, · · · , x

k+1

par

x

k

= 1 u

kk

(b

k

− u

k,k+1

x

k+1

− u

k,k+2

x

k+2

− · · · − u

k,n

x

n

).

Pour tout k = 1, · · · , n, le calcul de x

k

n´ ecessite une division, n − k additions et n − k multiplications. D’o` u, le nombre n´ ecessaire d’op´ erations

´

el´ ementaires pour r´ esoudre par la m´ ethode de remont´ ee un syst` eme triangu- laire est :

n divisions

(n − 1) + (n − 2) + · · · + 2 + 1 =

n(n−1)2

n22

additions (n − 1) + (n − 2) + · · · + 2 + 1 =

n(n−1)2

n22

multiplications

.

Dans le cas d’un syst` eme lin´ eaire triangulaire inf´ erieure Lx = b,

on utilise les mˆ emes techniques de la m´ ethode de remont´ ee, au lieu de commencer par l’inconnu x

n

et on monte ` a x

1

, on commence par x

1

puis on descend ` a x

n

. On appelle cette proc´ edure la m´ ethode de descente.

Exercice d’application

Montrer en utilisant la m´ ethode de remont´ ee que l’inverse d’une matrice triangulaire T = (t

ij

) inversible est une matrice triangulaire de mˆ eme nature.

De plus, les ´ el´ ements de la diagonale de la matrice inverse sont les inverses des

´

el´ ements de la diagonale de la matrice T. (Indication : la ji` eme colonne de la

matrice T

−1

est ´ egale ` a la solution du syst` eme triangulaire T x = e

j

avec e

j

est

le ji` eme vecteur de la base canonique.)

(17)

1.3.2 La m´ ethode d’´ elimination de Gauss

La r´ esolution d’un syst` eme lin´ eaire triangulaire est facile. Exactement comme le travail ` a la main de l’exemple, on va transformer le syst` eme lin´ eaire Ax = b en un syst` eme lin´ eaire triangulaire ayant la mˆ eme solution.

Soit A une matrice carr´ ee d’ordre n

A =

a

11

a

12

· · · a

1n

a

21

a

22

· · · a

2n

.. . .. . .. . a

n1

a

n2

· · · a

nn

=

 a

01

a

02

.. . a

0n

o` u a

ij

∈ R pour 1 ≤ i, j ≤ n et a

0i

repr´ esente la i

eme

ligne de la matrice A, 1 ≤ i ≤ n.

La premi` ere ´ etape de la r´ esolution de Ax = b consiste ` a ´ eliminer x

1

de toutes les ´ equations sauf la premi` ere. Dans le cas o` u a

11

6= 0, on applique la technique de l’exemple, c’est ` a dire :

la ligne a

02

est remplac´ ee par a

02

aa21

11

a

01

la ligne a

03

est remplac´ ee par a

03

aa31

11

a

01

.. .

la ligne a

0n

est remplac´ ee par a

0n

aan1

11

a

01

,

de mˆ eme pour le vecteur b :

la composante b

2

est remplac´ ee par b

2

aa21

11

b

1

la composante b

3

est remplac´ ee par b

3

aa31

11

b

1

.. .

la composante b

n

est remplac´ ee par b

n

aan1

11

b

1

.

L’´ el´ ement a

11

s’appelle le pivot. Si a

11

= 0, on cherche un coefficient non nul a

i1

, i = 2, · · · , n, (un tel coefficient existe, sinon la matrice est non inversible) et on permute la ligne i avec la premi` ere ligne pour que le nouveau pivot qui est le coefficient ` a la position 1, 1 soit non nul.

A l’´ etape k, la matrice A

(k)

a la forme suivante :

A

(k)

=

a

11

a

12

· · · a

1k

· · · a

1n

0 a

(2)22

· · · a

(2)2k

· · · a

(2)2n

.. . . . . . . . .. . .. . 0 · · · 0 a

(k)kk

· · · a

(k)kn

.. . .. . .. . .. . 0 · · · 0 a

(k)nk

· · · a

(k)nn

=

 a

01

a

(2)2 0

.. . a

(k)k 0

.. . a

(k)n

0

L’´ etape k de la r´ esolution consiste ` a ´ eliminer l’inconnu x

k

de toutes les ´ equations

sauf les k-premi` eres. De la mˆ eme mani` ere que la premi` ere ´ etape, si le pivot

(18)

a

(k)kk

6= 0, on fait les transformations suivantes :

la ligne a

(k)k+10

est remplac´ ee par a

(k)k+10

a

(k) k+1k

a(k)kk

a

(k)k 0

la ligne a

(k)k+20

est remplac´ ee par a

(k)k+20

a

(k) k+2k

a(k)kk

a

(k)k 0

.. .

la ligne a

(k)n 0

est remplac´ ee par a

(k)n 0

a

(k) nk

a(k)kk

a

(k)k 0

de mˆ eme pour le vecteur b

(k)

la composante b

(k)k+1

est remplac´ ee par b

(k)k+1

a

(k) k+1k

a(k)kk

b

(k)k

la composante b

(k)k+2

est remplac´ ee par b

(k)k+2

a

(k) k+2k

a(k)kk

b

(k)k

.. .

la composante b

(k)n

est remplac´ ee par b

(k)n

a(k)nk

a(k)kk

b

(k)k

Si le coefficient a

(k)kk

= 0, on cherche un coefficient a

(k)ik

6= 0, i = k+1, · · · , n, (un tel coefficient existe sinon la matrice est non inversible) et on permute la ligne i avec la ligne k pour que le nouveau pivot qui est le coefficient ` a la position kk soit non nul.

Au bout de n − 1 ´ etapes, on obtient un syst` eme triangulaire.

1.4 Calcul de l’inverse d’une matrice

Dans la pratique, on ´ evite le calcul de l’inverse A

−1

d’une matrice inver- sible A. Dans le cas particulier o` u on a vraiment besoin de l’expression de la matrice A

−1

, on utilise l’algorithme de Gauss Jordan. Le principe de la m´ ethode de Gauss-Jordan est le mˆ eme que celui de la m´ ethode de Gauss. On initialise une matrice B ` a l’identit´ e, cette matrice va jouer le rˆ ole du second membre de la m´ ethode de Gauss.

La premi` ere ´ etape de la m´ ethode de Gauss-Jordan est la mˆ eme que celle de la m´ ethode de Gauss, de plus, on applique les mˆ emes transformations ` a la matrice B. Supposons que le r´ esultat de la (k − 1)-` eme ´ etape est :

A

(k)

=

a

(k)11

a

(k)1k

· · · a

(k)1n

. . . .. . .. .

a

(k)k−1,k−1

.. . .. . a

(k)kk

· · · a

(k)kn

.. . .. . a

(k)nk

· · · a

(k)nn

, B

(k)

=

b

(k)11

b

(k)12

· · · b

(k)1n

b

(k)21

b

(k)22

· · · b

(k)2n

.. . .. . .. . b

(k)n1

b

(k)n2

· · · b

(k)nn

On cherche un pivot non nul (par exemple par la strat´ egie du pivot partiel) : a

(k)lk

/ | a

(k)lk

|= sup

k≤i≤n

| a

(k)ik

| .

(19)

Si k 6= l, on ´ echange la ligne k avec la ligne l dans les deux matrices A

(k)

et B

(k)

. On notera encore par A

(k)

la matrice obtenue apr` es permutation de la matrice A

(k)

. Puis, on fait l’´ elimination dans les deux matrices A

(k)

et B

(k)

de la mani` ere suivante :

(la ligne i) est remplac´ ee par

{(la ligne i) −

pivotxi

(la ligne de pivot)}

x

i

= le coefficient ` a la position (i, k) de la matrice A

(k)

avec i allant de 1 ` a k − 1 et de k + 1 ` a n. Au bout de n ´ etapes, on obtient : A

(n)

= diag(a

(n)kk

) B

(n)

Pour finir, on divise les lignes de k = 1, · · · , n, par a

(n)kk

, on obtient alors : ` a gauche la matrice identit´ e et ` a droite la matrice A

−1

.

1.5 Conditionnement d’un syst` eme lin´ eaire

Soit A une matrice carr´ ee d’ordre n inversible et b un vecteur de R

n

. On consid` ere le syst` eme lin´ eaire

Au = b, de solution exacte et unique u = A

−1

b.

Dans un premier cas, supposons que le second membre du syst` eme Au = b est perturb´ e en b + δb et A restant inchang´ ee. Soit u + δu la solution exacte du syst` eme perturb´ e

A(u + δu) = b + δb.

Comme Au = b, la relation pr´ ec´ edente implique que Aδu = δb, d’o` u δu = A

−1

δb.

Utilisant une norme subordonn´ ee, nous obtenons une majoration de k δu k : k δu k≤k A

−1

kk δb k .

La relation pr´ ec´ edente montre que la norme de la perturbation de la solution exacte du syst` eme Au = b due ` a une perturbation du second membre δb est au plus ´ egale ` a k A

−1

k multipli´ ee par k δb k. D’autre part, la relation Au = b implique que

k b k≤k A kk u k .

Combinons les deux in´ egalit´ es pr´ ec´ edentes, nous obtenons l’in´ egalit´ e importante suivante :

k δu k

k u k ≤k A kk A

−1

k k δb k k b k .

Par cons´ equent, le rapport d’amplification des erreurs relatives est au plus ´ egal

`

a k A kk A

−1

k.

EXEMPLE

(20)

Soit A la matrice

A =

10 7 8 7

7 5 6 5

8 6 10 9

7 5 9 10

 ,

elle est sym´ etrique, son d´ eterminant vaut 1 et sa matrice inverse

A

−1

=

25 −41 10 −6

−41 68 −17 10

10 −17 5 −3

−6 10 −3 2

 .

On consid` ere le syst` eme lin´ eaire

Au =

 32 23 33 31

, de solution

 1 1 1 1

 ,

et on consid` ere le syst` eme perturb´ e, o` u le second membre est l´ eg` erement modifi´ e, la matrice A restant inchang´ ee :

A(u + δu) =

 32.1 22.9 33.1 30.9

, de solution

 9.2

−12.6 4.5

−1.1

ce qui donne un rapport d’amplification des erreurs relatives de l’ordre de 2000 (avec k . k

1

). Th´ eoriquement, on obtient avec la mˆ eme norme un maximum pour le rapport d’amplification ´ egale ` a

k A k

1

k A

−1

k

1

= 136 × 33 = 4488.

Maintenant, nous perturbons la matrice A et nous laissons b fixe. Soit u + ∆u la solution exacte du syst` eme perturb´ e :

(A + ∆A)(u + ∆u) = b.

On suppose que ∆A est assez petit pour que la matrice perturb´ ee reste inver- sible. De la mˆ eme mani` ere que le premier cas on montre l’in´ egalit´ e suivante :

k ∆u k

k u + ∆u k ≤k A kk A

−1

k k ∆A k k A k .

La quantit´ e k A kk A

−1

k apparait ` a nouveau pour contrˆ oler l’amplifica- tion des erreurs relatives.

EXEMPLE

Consid´ erons le mˆ eme syst` eme que l’exemple pr´ ec´ edent o` u, cette fois on perturbe la matrice A

10 7 8, 1 7, 2

7, 08 5, 04 6 5 8 5, 98 9, 89 9 6, 99 4, 99 9 9, 98

(u + ∆u) = b, de solution

−81 137

−34 22

(21)

Nous d´ efinissons le nombre conditionnement de la matrice inversible A par :

cond(A) =k A kk A

−1

k .

Pour n’importe quelle norme matricielle subordonn´ ee, la norme de la matrice identit´ e I est ´ egale ` a un. D’autre part, I = AA

−1

et k AA

−1

k≤k A kk A

−1

k, ce qui montre que cond(A) ≥ 1. On dit qu’un syst` eme est bien conditionn´ e si le conditionnement de sa matrice est de l’ordre de 1 et il est mal conditionn´ e si le conditionnement de sa matrice est tr` es grand par rapport ` a 1.

1.6 Exercices : chapitre 1

Exercice 1

1. Soit A ∈ M

n

( R ). Montrer que si rang(A) = 1 alors il existe u, v ∈ R

n

tels que A = uv

T

.

2. On consid` ere la matrice ´ el´ ementaire

E = I

n

− α uv

T

(a) Montrer que E est inversible si et seulement si α u

T

v 6= 1.

(b) On suppose que α u

T

v 6= 1, montrer que

E

−1

= I

n

− β uv

T

o` u β = α α u

T

v − 1 . (c) D´ eterminer les valeurs propres de E.

(d) En d´ eduire que si M ∈ M

n

( R ) est inversible et u ∈ R

n

, alors det(M + uu

T

) = (1 + u

T

M

−1

u) det M.

Exercice 2

Dans M

n

( R ), on consid` ere la matrice tridiagonale suivante :

A(a, b) =

a b 0 · · · · · · 0 b . . . . . . . . . 0 0 . . . . . . . . . . . . . . .

. .

. . . . . . . . . . . . . 0 0 . . . . . . . . . b 0 · · · · · · 0 b a

, a, b ∈ R

Jusqu’` a la troisi` eme question, on supposera que a = 0 et b = 1.

1. V´ erifier que : u

Tk

= (sin(

n+1

), sin(

n+12kπ

), · · · , sin(

nkπn+1

)), k = 1, · · · , n sont des vecteurs propres de A(0, 1). D´ eduire le sp(A(0, 1)).

2. En d´ eduire le spectre de A(a, b) et des vecteurs propres associ´ es.

Exercice 3

Etant donn´ e une norme vectorielle k.k, la norme matricielle subordonn´ ee as- soci´ ee est d´ efinie par :

kAk = sup

u6=0

kAuk kuk (Les normes ` a droite sont vectorielles).

V´ erifier que

(22)

1. kAk = sup

kuk≤1

kAuk = sup

kuk=1

kAuk 2. kAk = inf{k > 0; kAuk ≤ kkuk, ∀u}

Exercice 4

Soit A = (a

ij

) ∈ M

n

( R ). Montrer les propri´ et´ es suivantes 1. La norme k.k

2

est invariante par transformation unitaire.

2. Si A est une matrice normale alors kAk

2

= ρ(A).

Exercice 5

On munit R

n

de la norme euclidienne not´ ee k.k

2

. On munit M

n

( R ) de la norme induite (not´ ee aussi k.k

2

) et le conditionnement associ´ e est not´ e cond

2

(A).

Soit A une matrice inversible de M

n

( R ).

1. Montrer que si A est normale alors

cond

2

(A) = max

i

i

(A)|

min

i

i

(A)|

o` u les nombres λ

i

(A) d´ esignent les valeurs propres de A.

2. Montrer que cond

2

(A) = 1 si et seulement si A = αQ, α ∈ R

et Q est une matrice orthogonale.

Exercice 6

Soit A ∈ M

n

( R ) la matrice d´ efinie par :

A =

 1 2

1 2

. . . . . .

1 2

1

1. Soit x = (x

1

· · · x

n

)

T

∈ R

n

la solution du syst` eme lin´ eaire Ax = b o` u b = (b

1

· · · b

n

)

T

est un vecteur donn´ e de R

n

.

(a) Montrer que x

k

= P

n−k

i=0

(−2)

i

b

k+i

, k = 1, . . . , n.

(b) En d´ eduire A

−1

et un vecteur v 6= 0 tel que kA

−1

k

=

kAkvk−1vk

. (c) Calculer cond

(A) et cond

1

(A).

2. Soit (e

1

, · · · , e

n

) la base canonique de R

n

.

(a) Calculer kA

−1

e

n

k

2

. En d´ eduire un minorant de kA

−1

k

2

. (b) Calculer kAe

2

k

2

. En d´ eduire que cond

2

(A) > 2

n

. Exercice 7

R´ esoudre, par la m´ ethode de Gauss, le syst` eme lin´ eaire AX = b avec :

A =

2 1 0 4

−4 −2 3 −7

4 1 −2 8

0 −3 −12 −1

; b =

 2

−9 2 2

Exercice 8 (Algorithme de la m´ ethode de Gauss)

1. Ecrire un algorithme d’´ echange de deux vecteurs de R

n

.

2. Ecrire un algorithme de r´ esolution de Ax = b dans le cas o` u la matrice A est

triangulaire.

(23)

3. Ecrire l’algorithme de la m´ ethode de Gauss pour la r´ esolution de Ax = b (sans strat´ egie de pivot) ; puis avec pivot partiel.

Exercice 9 (M´ ethode de Gauss-Jordan)

Appliquer la m´ ethode de Gauss-Jordan pour calculer l’inverse de la matrice

A =

10 1 4 0

1 10 5 −1

4 5 10 7

0 −1 7 9

1.7 Corrig´ e des exercices : chapitre 1

R´ eponse 1

1. Si rang(A) = 1, alors, il existe u ∈ R

n

, u 6= 0, tel que :

∀x ∈ R

n

, ∃α

x

∈ R /Ax = α

x

u en particulier :

∀i ∈ {1, · · · , n}, ∃v

i

∈ R /Ae

i

= v

i

u

o` u (e

i

)

i=1,n

est la base canonique de R

n

. D’o` u, si on ´ ecrit x = P

n

i=0

x

i

e

i

, on obtient :

Ax = P

n i=0

x

i

Ae

i

= ( P

n

i=0

v

i

x

i

)u

= (v

T

x)u

= (uv

T

)x ce qui prouve que A = uv

T

.

2. On remarque que pour z ∈ R

n

:

Ez = 0 = ⇒ z − α(v

T

z)u = 0 = ⇒ z ∈< u >

d’o` u : KerE ⊂< u >= le sous-espace de R

n

engendr´ e par u. On supposera que u 6= 0 et v 6= 0, sinon E = I

n

.

(a) E inveresible ⇐⇒ kerE = {0} ⇐⇒ Eu 6= 0 (car kerE ⊂< u >)

⇐⇒ Eu = (1 − α(v

T

u))u 6= 0 ⇐⇒ 1 − α(v

T

u) 6= 0.

(b)

∀x ∈ R

n

, EE

−1

x = E(x − β(v

T

x)u)

= Ex − β(v

T

x)Eu

= x − α(v

T

x)u − β(v

T

x)(u − α(v

T

u)u)

= x − α(v

T

x)u − (v

T

x)β(1 − α(v

T

u))u

= x − α(v

T

x)u + α(v

T

x)u

= x

(c) Soit V =< v >

=le sous-espace R

n

orthogonal au sous-espace engendr´ e par v. On a :

∀x ∈ V, Ex = x

ce qui prouve que 1 est une valeur propre de multiplicit´ e au moins n − 1 = dim V . Si α(v

T

u) 6= 0, alors, la ni` eme valeur propre est ´ egale ` a λ

n

= 1 − α(v

T

u) 6= 1, car Eu = (1 − α(v

T

u))u. Si α(v

T

u) = 0, alors :

Ex = λ

n

x = ⇒ x − α(v

T

x)u = λ

n

x = ⇒ (1 − λ

n

)x = α(v

T

x)u

Références

Documents relatifs

Pour montrer qu’une suite n’a pas de limite, il suffit d’en trouver deux suites extraites qui ont.. des limites

Nous nous int´eressons maintenant aux suites (de r´eels ou de complexes) dont le terme g´en´eral u n v´erifie u n+1 = au n + b (suites r´ecurrentes lin´eaires du premier ordre) puis

[r]

Propri´ et´ es g´ en´ erales des fonctions.. Calcul des fonctions

Propri´ et´ es g´ en´ erales des fonctions.. Calcul des fonctions

Toute suite croissante majorée (respectivement décroissante minorée) converge, la limite étant la borne supérieure (respectivement inférieure) de l’ensemble des valeurs de la

• L’ing´ enieur WINDOWS : Tout le monde sait qu’il ne peut pas faire une chose correctement, mais personne ne peut s’en passer de ses services!. • L’ing´ enieur

Pour établir la deuxième appartenance, nous allons utiliser le fait que l’idéal ( ) a 2 est premier.. Le résultat est