Analyse Numérique
Salem MATHLOUTHI
Université Virtuelle de Tunis
2007
Chapitre 1
Introduction
1.1 Rappels sur les matrices
Soit V un espace vectoriel de dimension finie n sur un corps K ( K = R ou C ). Soit B = {e
1, e
2, · · · , e
n} une base de V , un vecteur v ∈ V admet une repr´ esentation unique dans la base B :
v =
n
X
i=1
v
ie
i,
En notation matricielle, le vecteur v s’identifie ` a un vecteur colonne de K
n:
v =
v
1v
2.. . v
n
,
on notera par v
Tet v
∗les vecteurs lignes :
v
T= (v
1v
2· · · v
n), v
∗= (¯ v
1¯ v
2· · · v ¯
n).
On d´ efinit le produit scalaire dans le cas K = R (resp. le produit hermitien dans le cas K = C ) par :
(u, v) = u
Tv =
n
X
i=1
u
iv
i, (resp.
(u, v) = u
∗v =
n
X
i=1
¯ u
iv
i).
On dit qu’une base B = {e
1, e
2, · · · , e
n} est orthonorm´ ee si : e
∗ie
j= δ
i,jo` u δ
i,jest le symbole de Kronecker : δ
i,j= 1 si i = j, δ
i,j= 0 si i 6= j.
Soient V et W deux espaces vectoriels sur le mˆ eme corps K , munis de bases {e
1, e
2, · · · , e
n} et {f
1, f
2, · · · , f
m} respectivement. On rappelle qu’une applica- tion lin´ eaire L de l’espace vectoriel V dans l’espace vectoriel W est d´ efinie d’une mani` ere unique par l’image de la base de V , c’est-` a-dire
Le
j=
m
X
i=1
a
ijf
i, 1 ≤ j ≤ n.
Si on note A la matrice m × n ( m lignes et n colonnes) d´ efinie par :
A =
a
11a
12· · · a
1na
21a
22· · · a
2n.. . .. . .. . a
m1a
m2· · · a
mn
on voit que la j` eme colonne de la matrice A repr´ esente le vecteur Le
jet on v´ erifie facilement que pour tout v ∈ V le vecteur Lv de W est repr´ esent´ e par le vecteur colonne not´ e Av suivant :
(Av)
i= ( i` eme ligne de A) v, 1 ≤ i ≤ m.
On d´ efinit la matrice transpos´ ee de A, not´ ee A
T, (resp. la matrice adjointe de A, not´ ee A
∗) :
(A
T)
ij= (A)
ji= a
ji(resp.
(A
∗)
ij= (A)
ji= a
ji).
Dans toute la suite, sauf mention du contraire, les matrices consid´ er´ ees seront suppos´ ees carr´ ees d’ordre n, c’est-` a-dire le nombre de lignes est ´ egal au nombre de colonnes qui est ´ egal ` a n.
Une matrice A carr´ ee est par d´ efinition dite inversible s’il existe une matrice not´ ee A
−1, telle que :
AA
−1= A
−1A = (δ
ij) = I = matrice identit´ e.
On v´ erifie facilement que si A et B sont deux matrices inversibles, alors : (BA)
−1= A
−1B
−1, (A
T)
−1= (A
−1)
T, (A
∗)
−1= (A
−1)
∗. Une matrice carr´ ee A = (a
ij) est par d´ efinition :
• sym´ etrique si A est r´ eelle et A
T= A,
• hermitienne si A
∗= A,
• orthogonale si A est r´ eelle et A
TA = AA
T= I,
• unitaire si A
∗A = AA
∗= I,
• normale si A
∗A = AA
∗,
• diagonale si a
ij= 0 pour i 6= j, on note A = diag(a
ii),
• triangulaire sup´ erieure (resp. inf´ erieure) si a
ij= 0 pour i > j (resp. a
ij= 0 pour i < j),
• semblable ` a une matrice B s’il existe une matrice P inversible,
dite matrice de passage, telle que P
−1AP = B,
• diagonalisable si elle est semblable ` a une matrice diagonale.
La trace d’une matrice A = (a
ij) carr´ ee d’ordre n est d´ efinie par tr(A) =
n
X
i=1
a
ii,
et son d´ eterminant est d´ efini par det(A) = X
σ∈Gn
ε
σa
σ(1)1a
σ(2)2· · · a
σ(n)no` u G
nest l’ensemble de toutes les permutations de l’ensemble {1, 2, · · · , n} et ε
σd´ esigne la signature de σ.
Les valeurs propres λ
i(A), 1 ≤ i ≤ n, d’une matrice A carr´ ee d’ordre n sont les n racines de son polynˆ ome caract´ eristique :
P
A(x) = det(xI − A).
Le spectre de la matrice A est d´ efini par
sp(A) = {λ
1(A), λ
2(A), · · · , λ
n(A)}.
Le rayon spectral d’une matrice A carr´ ee d’ordre n est d´ efini par ρ(A) = max
i
{| λ
i(A) |}.
On rappelle que pour toute valeur propre λ ∈ sp(A), il existe au moins un vecteur v 6= 0 tel que Av = λv appel´ e vecteur propre.
THEOREME 1.1.1 Soit A une matrice carr´ ee d’ordre n, il existe une matrice unitaire U telle que U
∗AU soit triangulaire. Si de plus les coefficients de la matrice A sont r´ eels et ses valeurs propres sont r´ eelles, alors, il existe une matrice orthogonale O telle que O
TAO soit triangulaire.
DEMONSTRATION. Soient E un espace vectoriel de dimension finie n sur le corps C et {e
1, e
2, · · · , e
n} une base de E orthonorm´ ee au sens du produit hermitien :
e
∗ie
j= δ
ij, 1 ≤ i, j ≤ n
Soit A = (a
ij) une matrice carr´ ee d’ordre n ` a coefficients complexes, on peut toujours l’associer ` a une application lin´ eaire A : E → E relativement ` a la base {e
1, e
2, · · · , e
n} par l’image de la base :
A(e
j) =
n
X
i=1
a
ije
i, 1 ≤ j ≤ n
et si λ est une valeur propre de la matrice A, alors, il existe un vecteur non nul v ∈ E tel que :
A(v) = λv
En utilisant l’application lin´ eaire A, la premi` ere partie du th´ eor` eme consiste ` a prouver l’existence d’une nouvelle base orthonorm´ ee (au sens du produit hermi- tien) {f
1, f
2, · · · , f
n} telle que :
∀1 ≤ j ≤ n, Af
j∈< f
1, f
2, · · · , f
j>
o` u, < f
1, f
2, · · · , f
j> repr´ esente le sous-espace de E engendr´ e par les vecteurs f
1, f
2, · · · , f
jsur le corps C . Ce qui prouve l’existence d’une matrice T tri- angulaire sup´ erieure associ´ ee ` a l’application lin´ eaire A relativement ` a la base {f
1, f
2, · · · , f
n}. D’autre part, la nouvelle base {f
1, f
2, · · · , f
n} est orthonorm´ ee au sens du produit hermitien, ce qui prouve que la matrice de passage, qu’on note U , est unitaire ( U
∗U = I ) et on a : T = U
∗AU .
Montrons par r´ ecurrence l’existence d’une base orthonorm´ ee {f
1, f
2, · · · , f
n} telle que :
∀1 ≤ j ≤ n, Af
j∈< f
1, f
2, · · · , f
j>
Pour n = 1 le r´ esultat est ´ evident. Supposons qu’il est vrai jusqu’` a l’odre m. Soit A est une application lin´ eaire de E → E avec E espace vectoriel de dimension n = m + 1 sur le corps C . Soit λ ∈ C une valeur propre de la matrice associ´ ee ` a l’application lin´ eaire A et v
1∈ E un vecteur propre associ´ e ` a λ, donc :
Av
1= λv
1Quitte ` a diviser par v
1∗v
1, on peut supposer que v
∗1v
1= 1. Soit v
2, v
3, · · · , v
n, n − 1 vecteurs de E tels que {v
1, v
2, · · · , v
n} soit une base orthonorm´ ee de E.
Donc
Av
1= λv
1Av
2= P
nk=1
α
k,2v
k.. . Av
n= P
nk=1
α
k,nv
kSoit B l’application lin´ eaire de l’espace vectoriel F =< v
2, v
3, · · · , v
n>, sur le corps C , dans lui mˆ eme d´ efinie par :
∀ 2 ≤ j ≤ n, Bv
j=
n
X
k=2
α
k,jv
kd’apr` es l’hypoth` ese de r´ ecurrence, il existe une base orthonorm´ ee {f
2, f
3, · · · , f
n} de F telle que :
∀ 2 ≤ j ≤ n,
f
j= P
n i=2γ
i,jv
iBf
j∈ < f
2, f
3, · · · , f
j>
On pose f
1= v
1. Il est clair que {f
1, f
2, · · · , f
n} est une base orthonorm´ ee et on a :
Af
1= λf
1Af
j= P
ni=2
γ
i,jAv
i= P
ni=2
γ
i,j(α
1,iv
1+ Bv
i)
= ( P
ni=2
γ
i,jα
1,i)f
1+ Bf
j∈ < f
1, f
2, · · · , f
j>
ce qui termine la d´ emonstration par r´ ecurrence. La mˆ eme d´ emotranstion reste
valable si on remplace le corps C par le corps R et on suppose que les valeurs
propres de A sont r´ eelles ; dans ce cas tous les coefficients seront dans R ce qui
d´ emontre la deuxi` eme partie du th´ eor` eme.
COROLLAIRE 1.1.1 1) Toute matrice normale est diagonalisable et admet une base orthonorm´ ee (pour le produit hermitien) de vecteurs propres. En par- ticulier, les matrices unitaires, orthogonales, hermitiennes et sym´ etriques sont diagonalisables.
2) Les valeurs propres d’une matrice hermitienne ou sym´ etrique sont r´ eelles.
3) Toute matrice sym´ etrique admet une base r´ eelle orthonorm´ ee de vecteurs propres, c’est-` a-dire il existe une matrice orthogonale O telle que O
TAO soit diagonale.
DEMONSTRATION.
1/ D’apr` es le th´ eor` eme 1.1.1, il existe une matrice U unitaire telle que : U
∗AU = T = (t
ij) = une matrice triangulaire. Si on note par p
1, p
2, · · · , p
n, les colonnes de U , alors, p
∗1, p
∗2, · · · , p
∗nsont les lignes de U
∗. Par cons´ equent, U est une matrice unitaire ( U
∗U = I ) est ´ equivalent ` a
∀i = 1, n, ∀j = 1, n, (p
i)
∗(p
j) = δ
ijOn va d´ emontrer que T est une matrice diagonale lorsque la matrice A est normale. Montrons d’abord que T est normale :
T
∗= (U
∗AU )
∗= U
∗A
∗(U
∗)
∗= U
∗A
∗U T
∗T = U
∗A
∗U U
∗AU = U
∗A
∗AU = U
∗AA
∗U = T T
∗ce qui prouve que T est normale. Pour d´ emontrer que T est diagonale, on va comparer les coefficients de T
∗T et T T
∗d’indice 11 :
(T
∗T )
11=
n
X
i=1
t
i1t
i1= |t
11|
2(T T
∗)
11=
n
X
i=1
t
1it
1i= |t
11|
2+ |t
12|
2+ · · · + |t
1n|
2ce qui donne : t
12= t
13= · · · = t
1n= 0. On refait la mˆ eme chose avec les coefficients d’indice 22 pour d´ emontrer que les coefficients de la deuxi` eme ligne de T en dehors de la diagonale sont nuls, puis avec les coefficients d’indice 33, etc ...
2/ On a :
U
∗AU = D = diag(λ
1, λ
2, · · · , λ
n) comme A est hermitienne, alors :
D
∗= diag(λ
1, λ
2, · · · , λ
n)
= (U
∗AU )
∗= U
∗A
∗U
= U
∗AU = D
= diag(λ
1, λ
2, · · · , λ
n) c.q.f.d.
3/ On utilise la deuxi` eme partie du th´ eor` eme 1.1.1.
Exercice d’application :
a) Montrer que si une matrice carr´ ee A est triangulaire et normale, alors, elle est diagonale.
b) Montrer les relations
(i) det(matrice triangulaire) = a
11a
22· · · a
nn, (ii) sp(matrice triangulaire) = {a
ii, i = 1, n},
(iii) tr(A + B) = tr(A) + tr(B), tr(AB) = tr(BA), tr(A) = P
ni=1
λ
i(A),
(iv) det(A
T) = det(A) = λ
1(A)λ
2(A) · · · λ
n(A), det(AB) = det(BA), (v) sp(A
T) = sp(A), sp(AB) = sp(BA),
(vi) k ∈ N , sp(A
k) = {(λ
i(A))
k, i = 1, n}, (utiliser le th´ eor` eme 1.1.1).
R´ eponse :
a) Voir la d´ emonstration du corollaire 1.1.1.
b)(i) Supposons que A = (a
ij) est une matrice triangulaire sup´ erieure, c’est ` a dire : a
ij= 0 pour i > j, (mˆ eme raisonnement dans le cas triangulaire inf´ erieure, en utilisant (iv)). Soit σ une permutation. Si le produit a
σ(1)1a
σ(2)2· · · a
σ(n)nest non nul, alors, n´ ec´ essairement σ(i) ≤ i pour tout i = 1, n . D’o` u :
σ(1) ≤ 1 ⇒ σ(1) = 1
σ(2) 6= σ(1) = 1; σ(2) ≤ 2 ⇒ σ(2) = 2 .. .
σ(n) 6= σ(i) = i, 1 ≤ i ≤ n − 1; σ(n) ≤ n ⇒ σ(n) = n
donc, toutes les permutations donnent un produit nul, sauf peut-ˆ etre l’identit´ e.
Ce qui donne :
det(A) = a
11a
22· · · a
nn(ii) Si A est une matrice triangulaire, alors, A − xI est aussi triangulaire et les coefficients de la diagonale sont : a
ii− x , i = 1, n . D’apr` es (i), le polynˆ ome caract´ eristique de A est ´ egal ` a :
P
A(x) = (a
11− x)(a
22− x) · · · (a
nn− x) c.q.f.d.
(iii)(iv)(v) A = (a
ij), B = (b
ij), AB = (c
ij), BA = (d
ij), par d´ efinition du produit de deux matrices, on a :
c
ij=
n
X
k=1
a
ikb
kj, d
ij=
n
X
k=1
b
ika
kjd’o` u
tr(A + B) = P
nk=1
(a
ii+ b
ii)
= P
nk=1
a
ii+ P
n k=1b
ii= tr(A) + tr(B) tr(AB) = P
ni=1
c
ii= P
n i=1P
nk=1
a
ikb
ki= P
n k=1P
ni=1
b
kia
ik= P
n k=1d
kk= tr(BA)
D’apr` es le th´ eor` eme 1.1.1, toute matrice est semblable ` a une matrice triangu- laire T. D’apr` es (ii), les valeurs propres d’une matrice triangulaire T sont les coefficients de la diagonale de T . Montrons que deux matrices semblables ont les mˆ emes valeurs propres : soit λ ∈ sp(P
−1AP ), par d´ efinition, il existe v 6= 0 tel que P
−1AP v = λv, d’o` u AP v = λP v et comme P est inversible, alors P v 6= 0, par suite P v est un vecteur propre de A associ´ e ` a λ, ce qui montre que λ ∈ sp(A).
De la mˆ eme mani` ere, on montre que les valeurs propres de A sont des valeurs propres de P
−1AP . Donc, la matrice A et la matrice triangulaire associ´ ee ` a A par le th´ eor` eme 1.1.1 ont le mˆ eme polynˆ ome caract´ eristique puisqu’elles ont les mˆ emes valeurs propres. D’autre part, un calcul simple nous montre que :
P
B(x) = det(B − xI) = (−1)
n[x
n− tr(B)x
n−1+ · · · + (−1)
ndet(B)]
ce qui montre que tr(A) = tr(T ) et det(A) = det(T ) , soit encore : tr(A) = P
ni=1
λ
i(A) det(A) = Q
ni=1
λ
i(A)
Montrons que : det(A) = det(A
T) . Il suffit de remarquer que si une matrice B est semblable ` a une matrice C , alors, B
Test semblable ` a C
T. Donc, A
Test semblable ` a T
Tqui est une matrice triangulaire inf´ erieure ( ses valeurs propres sont sur sa diagonale, mˆ eme raisonnement que le cas d’une matrice triangulaire sup´ erieure). Or, la diagonale de T est la mˆ eme que la diagonale de T
T, donc, T et T
Tont les mˆ emes valeurs propres. Par cons´ equent, A
Tet A ont les mˆ emes valeurs propres. Ce qui prouve que : det(A) = det(A
T) et sp(A) = sp(A
T). Montrons que : sp(AB) = sp(BA) (ce qui prouve en particulier que det(AB) = det(BA) ). Il suffit de prouver que sp(AB) ⊂ sp(BA) et par sym´ etrie on a l’autre inclusion. Soit λ ∈ sp(AB), alors il existe v 6= 0 tel que ABv = λv :
1. Si Bv 6= 0 , alors, BA(Bv) = λBv (on applique B de deux cˆ ot´ es) d’o` u Bv est un vecteur propre de BA associ´ e ` a la valeur propre λ , ce qui montre que λ ∈ sp(BA).
2. Si Bv = 0 , alors n´ ec´ essairement λ = 0. D’autre part, si A est inversible, il existe w 6= 0 tel que Aw = v, sinon, il existe w 6= 0 tel que Aw = 0. Dans les deux cas BAw = 0, ce qui montre que w est un vecteur propre de BA associ´ e ` a la valeur propre λ = 0, d’o` u λ = 0 ∈ sp(BA).
(vi) On v´ erifie facilement que si B est semblable ` a C alors B
kest semblable ` a C
k, k ∈ N . D’o` u, A
kest semblable ` a T
k(T est la matrice triangulaire donn´ ee par le th´ eor` eme 1.1.1). Un calcul simple nous montre que T
k, k ∈ N , est aussi triangulaire sup´ erieure et les coefficients de sa diagonale sont les t
kii, i = 1, n.
REMARQUE 1.1.1 D’apr` es le corollaire 1.1.1, si A est une matrice hermi- tienne, il existe une matrice unitaire P = U
∗= U
−1telle que :
A = P
∗diag(λ
i) P d’o` u, pour tout v ∈ V :
v
∗Av = v
∗P
∗diag(λ
i) P v = (P v)
∗diag(λ
i) (P v) =
n
X
i=1
λ
i|˜ v
i|
2avec v ˜
ila i` eme composante du vecteur P v, d’o` u : λ
max||P v||
22= λ
maxn
X
i=1
|˜ v
i|
2≥ v
∗Av ≥ λ
min||P v||
22= λ
min nX
i=1
|˜ v
i|
2avec λ
maxla plus grande valeur propre de A et λ
minla plus petite valeur propre de A. D’autre part, la matrice P est unitaire ce qui donne ||P v||
2= ||v||
2, d’o` u :
λ
max||v||
22= λ
max nX
i=1
|v
i|
2≥ v
∗Av ≥ λ
min||v||
22= λ
min nX
i=1
|v
i|
2ce qui prouve en particulier que :
λ
max= max
||u||2=1
u
∗Au; λ
min= min
||u||2=1
u
∗Au
Le maximum est atteint pour un vecteur propre de A associ´ e ` a λ
maxde norme 2
´
egale ` a 1 et le minimum est atteint pour un vecteur propre de A associ´ e ` a λ
minde norme 2 ´ egale ` a 1.
DEFINITION et REMARQUE
On dit qu’une matrice hermitienne est d´ efinie positive (resp. positive) si : v
∗Av > 0, ∀v ∈ V − {0}, (resp.v
∗Av ≥ 0, ∀v ∈ V ) ;
d’apr` es ce qui pr´ ec` ede, on a
v
∗Av ≥ λ
minv
∗v, pour tout v ∈ V ;
d’o` u, une matrice hermitienne est d´ efinie positive (resp. positive) si et seulement si λ
min> 0 (resp.λ
min≥ 0 ).
1.2 Normes et suites de matrices
Soit V un espace vectoriel de dimension finie. On rappelle les trois normes vectorielles suivantes :
k v k
1= X
i
| v
i| k v k
2= ( X
i
| v
i|
2)
1/2k v k
∞= max
i
| v
i|
DEFINITION 1.2.1 Une norme matricielle, not´ ee comme la norme vecto- rielle par k . k, est par d´ efinition une norme vectorielle :
(i) k A k≥ 0 et k A k= 0 ⇐⇒ A = 0, (ii) k γA k=| γ |k A k pour tout scalaire γ, (iii) k A + B k≤k A k + k B k,
de plus elle v´ erifie :
(iv) k AB k≤k A kk B k.
Etant donn´ e une norme vectorielle k . k, on lui associe une norme matricielle, appel´ ee norme matricielle subordonn´ ee, de la mani` ere suivante :
k A k= max
x6=0
k Ax k k x k (noter que les normes ` a droite sont vectorielles).
Exercice d’application : V´ erifier que
(i) la norme subordonn´ ee est bien une norme matricielle, (ii) k A k= max
x6=0
k Ax k
k x k = max
kuk=1
k Au k R´ eponse :
1. (a)
kAk = 0 ⇐⇒ sup
x6=0kAxkkxk= 0 ⇐⇒ ∀x 6= 0,
kAxkkxk= 0
⇐⇒ ∀x, kAxk = 0 ⇐⇒ A = 0
(b) kλAk = sup
x6=0kλAxkkxk= sup
x6=0|λ|kAxkkxk= |λ| sup
x6=0kAxkkxk=|λ|kAk (c) A et B deux matrices de mˆ eme ordre :
∀x 6= 0,
k(A+B)xkkxk=
kAx+Bxkkxk≤
kAxk+kBxkkxk≤
kAxkkxk+
kBxkkxk≤ kAk + kBk d’o` u : kA + Bk = sup
x6=0 k(A+B)xkkxk≤ kAk + kBk.
(d) De la d´ efinition de kAk = sup
x6=0kAxkkxk, on d´ eduit que : kAxk ≤ kAkkxk pour tout x. Soient A et B deux matrices de mˆ eme ordre, on a :
∀x 6= 0, kABxk
kxk = kA(Bx)k
kxk ≤ kAkkBxk
kxk ≤ kAkkBkkxk
kxk = kAkkBk
ce qui prouve que : kABk ≤ kAkkBk.
2.
kAk = sup
x6=0kAxkkxk= sup
x6=0kA(
kxkx)k
≤ sup
kuk=1kAuk = sup
kuk=1kAukkuk≤ sup
u6=0kAukkuk= kAk
Les normes matricielles subordonn´ ees aux normes k . k
1, k . k
2et k . k
∞sont donn´ ees par le th´ eor` eme suivant :
THEOREME 1.2.1 (1) k A k
1= max
j
k a
jk
1, ( a
j: j` eme colonne de A), (2)k A k
2= p
ρ(A
∗A), (3) k A k
∞= max
i
k a
0ik
1, ( a
0i: i` eme ligne de A),
DEMONSTRATION.
(1) u ∈ R
n, k u k
1= 1, alors : k Au k
1= X
k=1,n
| X
j=1,n
a
k,ju
j|
≤ X
k=1,n
X
j=1,n
| a
k,ju
j|
≤ X
j=1,n
( X
k=1,n
| a
k,j|) | u
j|
≤ max
j
( X
k=1,n
| a
k,j|) X
j=1,n
| u
j|
ce qui prouve que
k A k
1≤ max
j
k a
jk
1D’autre part, soit j
0tel que : max
j
k a
jk
1=k a
j0k
1on pose
v
j0= 1, v
j= 0, ∀j 6= j
0on obtient que k v k
1= 1 et k Av k
1= max
jk a
jk
1≤k A k
1, d’o` u l’autre in´ egalit´ e.
(2)
k A k
2= max
kuk2=1
k Au k
2= max
kuk2=1
√
u
∗A
∗Au
= p
ρ(A
∗A)
car la matrice A
∗A est hermitienne positive (voir remarque 1.1.1).
(3) u ∈ R
n, k u k
∞= 1, alors : k Au k
∞= max
k
| X
j=1,n
a
k,ju
j|
≤ max
k
X
j=1,n
| a
k,ju
j|
≤ k u k
∞max
k
( X
j=1,n
| a
k,j|)
ce qui prouve que
k A k
∞≤ max
k
k a
0kk
1D’autre part, soit k
0tel que : max
k
k a
0kk
1=k a
0k0k
1on pose
∀j, v
j=
signe(a
k0,j) , si a
k0,j6= 0,
0 , sinon
on obtient que k v k
∞= 1 et k Av k
∞= max
kk a
0kk
1≤k A k
∞, d’o` u l’autre
in´ egalit´ e.
On v´ erifie sans peine que la norme matricielle subordonn´ ee ` a la norme 2 d’une matrice normale est ´ egale ` a son rayon spectral (Indication : utiliser le corollaire 1.1.1 et le fait que la norme 2 est invariante par transformation uni- taire). Une question s’impose, le rayon spectral d´ efinit-il une norme matricielle ? La r´ eponse est donn´ ee par l’exemple suivant :
A =
0 1 0 0
on a que A est une matrice non nulle et son rayon spectral est nul.
Le th´ eor` eme suivant compare le rayon spectral et une norme matricielle quelconque,
THEOREME 1.2.2 (1) Soit A une matrice quelconque et k . k une norme matricielle quelconque. Alors
ρ(A) ≤k A k .
(2) Etant donn´ e une matrice A et ε > 0, il existe au moins une norme matri- cielle subordonn´ ee telle que
k A k≤ ρ(A) + ε.
DEMONSTRATION.
(1) Soit λ une valeur propre de A telle que ρ(A) =| λ |. Soit v 6= 0 un vecteur propre de A associ´ e ` a λ. Soit B la matrice carr´ ee d’ordre n d´ efinie par :
Bx = (v
∗x)v, ∀x ∈ C
nOn a :
k AB k≤k A kk B k, et k B k6= 0 D’autre part
ABx = A(v
∗x)v = (v
∗x)λv, ∀x ∈ C
npar cons´ equent AB = λB, d’o` u k AB k=| λ |k B k. Comme k B k6= 0, alors ρ(A) =| λ |≤k A k
(2) D’apr` es le th´ eor` eme 1.1.1, il existe une matrice unitaire U telle que : T = U
−1AU
est une matrice triangulaire sup´ erieure :
T =
t
11· · · · · · t
1n0 . . . .. . .. . . . . . . . .. . 0 · · · 0 t
nn
avec sp(A) = {t
11, t
22, t
33, · · · , t
nn}. Soit δ > 0, on pose :
P
δ= diag{1, δ, δ
2, · · · , δ
n−1}
On v´ erifie facilement que
δ→0
lim P
δ−1T P
δ= diag{t
11, t
22, · · · , t
nn} d’o` u
δ→0
lim k P
δ−1U
−1AU P
δk
2=k diag{t
11, t
22, · · · , t
nn} k
2= ρ(A) Soit ε > 0, on choisit δ > 0 tel que :
k P
δ−1U
−1AU P
δk
2≤ ρ(A) + ε
et on d´ efinit l’application de l’espace des matrices carr´ ees d’ordre n dans R
+B →k B k=k P
δ−1U
−1BU P
δk
2on v´ erifie facilement que k . k est une norme matricielle subordonn´ ee ` a la norme vectorielle suivante :
v →k v k=k P
δ−1U
−1v k
2La notion de convergence d’une suite de matrices n’est autre que la notion classique de convergence dans les espaces vectoriels norm´ es.
THEOREME 1.2.3 Soit B une matrice carr´ ee. Les conditions suivantes sont
´
equivalentes : (1) lim
k→∞
B
k= 0, (2) lim
k→∞
B
kv = 0, pour tout vecteur v, (3) ρ(B ) < 1,
(4) k B k< 1 pour au moins une norme matricielle subordonn´ ee.
DEMONSTRATION.
(1) = ⇒ (2) ´ evidente.
(2) = ⇒ (3) Soit λ une valeur propre de B telle que ρ(B) =| λ |. Soit v 6= 0 un vecteur propre de B associ´ e ` a λ. On a :
B
kv = λ
kv d’o` u
k B
kv k= (ρ(B))
kk v k
ce qui prouve que lim
k→∞ρ(B)
k= 0 car k v k6= 0, d’o` u, ρ(B ) < 1.
(3) = ⇒ (4) on applique (2) du th´ eor` eme 1.2.2 avec ε =
1−ρ(B)2.
(4) = ⇒ (1) ´ evidente en utilisant la propri´ et´ e de la norme matricielle suivante :
k B
kk≤k B k
kTHEOREME 1.2.4 Soit B une matrice carr´ ee, et k . k une norme matricielle quelconque. Alors
k→∞
lim k B
kk
1/k= ρ(B).
DEMONSTRATION.
En utilisant le th´ eor` eme 1.1.1, on v´ erifie facilement que : sp(B
k) = {λ
k; λ ∈ sp(B)}
d’o` u
ρ(B
k) = (ρ(B ))
kd’apr` es le th´ eor` eme 1.2.2, on a :
ρ(B
k) ≤k B
kk d’o` u
ρ(B) ≤k B
kk
1/kSoit ε > 0, d’apr` es (2) du th´ eor` eme 1.2.2, il existe une norme matricielle k . k
εtelle que :
k B k
ε≤ ρ(B) + ε
D’autre part, toutes les normes sont ´ equivalentes car l’espace vectoriel des ma- trices est un espace vectoriel de dimension finie et la norme matricielle et en particulier une norme vectorielle, donc :
∃c
ε> 0 ; k A k≤ c
εk A k
ε, ∀ A Par cons´ equent :
ρ(B) ≤k B
kk
1/k≤ c
1/kεk B
kk
1/kε≤ c
1/kε(ρ(B) + ε) Par passage ` a la limite sur k puis sur ε, on obtient ce qu’il faut.
Une importante norme matricielle non subordonn´ ee ` a une norme vecto- rielle est la norme de Frobenius d´ efinie pour toute matrice A ∈ M
mn( R ) par :
k A k
F= (
m
X
i=1 n
X
j=1
| a
ij|
2)
1/2,
on v´ erifie que
k A k
2F= trace(A
∗A)
ce qui prouve que la norme de Frobenius est invariante par transformation uni- taire. La norme de Frobenius est essentiellement la norme Euclidienne appliqu´ ee
`
a un vecteur de mn composantes. Il est facile de voir que la norme de l’identit´ e I est toujours ´ egale ` a 1 pour une norme subordonn´ ee. D’autre part, il est clair que k I k
F= √
n. D’o` u, pour n ≥ 2, la norme de Frobenius ne peut pas ˆ etre subordonn´ ee ` a une norme vectorielle.
1.3 M´ ethode de Gauss pour la r´ esolution des syst` emes lin´ eaires
L’id´ ee de base derri` ere les m´ ethodes de r´ esolution de Ax = b est la
transformation de ce probl` eme en un probl` eme facile ` a r´ esoudre. Consid´ erons
l’exemple d’un syst` eme en trois dimensions :
x
1+ x
2+ 2x
3= 3 2x
1+ 3x
2+ x
3= 2 3x
1− x
2− x
3= 6 ,
ce qui corresponds ` a
A =
1 1 2
2 3 1
3 −1 −1
, b =
3 2 6
.
L’inconnu x
1peut-ˆ etre ´ eliminer de la deuxi` eme ´ equation et de la troisi` eme
´
equation en retranchant de la deuxi` eme ´ equation deux fois la premi` ere ´ equation et de la troisi` eme ´ equation trois fois la premi` ere ´ equation, on obtient alors, le syst` eme suivant
x
1+ x
2+ 2x
3= 3 x
2− 3x
3= −4
− 4x
2− 7x
3= −3 .
(Il est clair que ces transformations ne changent pas la solution.)
L’inconnu x
2peut-ˆ etre ´ eliminer de la troisi` eme ´ equation du syst` eme en ajoutant ` a la derni` ere ´ equation quatre fois la deuxi` eme ´ equation, on obtient, le syst` eme triangulaire suivant :
x
1+ x
2+ 2x
3= 3 x
2− 3x
3= −4
− 19x
3= −19 .
La solution de notre syst` eme de d´ epart peut-ˆ etre d´ etermin´ ee directement
`
a partir des ´ equations du dernier syst` eme. Dans la derni` ere ´ equation il y a seulement x
3, et on a x
3= 1. En rempla¸ cant x
3par sa valeur dans la deuxi` eme
´
equation, on obtient
x
2= −1.
Enfin, en rempla¸ cant x
3et x
2dans la premi` ere ´ equation, on obtient x
1= 2
soit
x =
2
−1 1
.
On a donc transform´ e notre syst` eme en un syst` eme qui a la mˆ eme solution et qui est facile ` a r´ esoudre, c’est le syst` eme triangulaire.
1.3.1 Syst` eme lin´ eaire triangulaire. M´ ethode de remont´ ee.
Supposons que nous voulons r´ esoudre
U x = b,
o` u U est une matrice triangulaire sup´ erieure n × n inversible. On a alors, n
´
equations sous la forme :
u
11x
1+ u
12x
2+ · · · + u
1nx
n= b
1u
22x
2+ · · · + u
2nx
n= b
2. . . .. . .. . u
nnx
n= b
n.
( La matrice U est inversible si et seulement si les ´ el´ ements de la diagonale sont non nuls.)
La n
eme´ equation d´ epend uniquement de l’inconnu x
n, on a u
nnx
n= b
n, soit x
n= b
nu
nn. La (n − 1)
eme´ equation
u
n−1,n−1x
n−1+ u
n−1,nx
n= b
n−1d´ epend uniquement de x
net x
n−1, or, x
nest connu, d’o` u x
n−1= 1
u
n−1,n−1(b
n−1− u
n−1,nx
n).
Pour k > 0, x
kest d´ etermin´ e de la mˆ eme mani` ere que les inconnus x
n, x
n−1, · · · , x
k+1par
x
k= 1 u
kk(b
k− u
k,k+1x
k+1− u
k,k+2x
k+2− · · · − u
k,nx
n).
Pour tout k = 1, · · · , n, le calcul de x
kn´ ecessite une division, n − k additions et n − k multiplications. D’o` u, le nombre n´ ecessaire d’op´ erations
´
el´ ementaires pour r´ esoudre par la m´ ethode de remont´ ee un syst` eme triangu- laire est :
n divisions
(n − 1) + (n − 2) + · · · + 2 + 1 =
n(n−1)2≈
n22additions (n − 1) + (n − 2) + · · · + 2 + 1 =
n(n−1)2≈
n22multiplications
.
Dans le cas d’un syst` eme lin´ eaire triangulaire inf´ erieure Lx = b,
on utilise les mˆ emes techniques de la m´ ethode de remont´ ee, au lieu de commencer par l’inconnu x
net on monte ` a x
1, on commence par x
1puis on descend ` a x
n. On appelle cette proc´ edure la m´ ethode de descente.
Exercice d’application
Montrer en utilisant la m´ ethode de remont´ ee que l’inverse d’une matrice triangulaire T = (t
ij) inversible est une matrice triangulaire de mˆ eme nature.
De plus, les ´ el´ ements de la diagonale de la matrice inverse sont les inverses des
´
el´ ements de la diagonale de la matrice T. (Indication : la ji` eme colonne de la
matrice T
−1est ´ egale ` a la solution du syst` eme triangulaire T x = e
javec e
jest
le ji` eme vecteur de la base canonique.)
1.3.2 La m´ ethode d’´ elimination de Gauss
La r´ esolution d’un syst` eme lin´ eaire triangulaire est facile. Exactement comme le travail ` a la main de l’exemple, on va transformer le syst` eme lin´ eaire Ax = b en un syst` eme lin´ eaire triangulaire ayant la mˆ eme solution.
Soit A une matrice carr´ ee d’ordre n
A =
a
11a
12· · · a
1na
21a
22· · · a
2n.. . .. . .. . a
n1a
n2· · · a
nn
=
a
01a
02.. . a
0n
o` u a
ij∈ R pour 1 ≤ i, j ≤ n et a
0irepr´ esente la i
emeligne de la matrice A, 1 ≤ i ≤ n.
La premi` ere ´ etape de la r´ esolution de Ax = b consiste ` a ´ eliminer x
1de toutes les ´ equations sauf la premi` ere. Dans le cas o` u a
116= 0, on applique la technique de l’exemple, c’est ` a dire :
la ligne a
02est remplac´ ee par a
02−
aa2111
a
01la ligne a
03est remplac´ ee par a
03−
aa3111
a
01.. .
la ligne a
0nest remplac´ ee par a
0n−
aan111
a
01,
de mˆ eme pour le vecteur b :
la composante b
2est remplac´ ee par b
2−
aa2111
b
1la composante b
3est remplac´ ee par b
3−
aa3111
b
1.. .
la composante b
nest remplac´ ee par b
n−
aan111
b
1.
L’´ el´ ement a
11s’appelle le pivot. Si a
11= 0, on cherche un coefficient non nul a
i1, i = 2, · · · , n, (un tel coefficient existe, sinon la matrice est non inversible) et on permute la ligne i avec la premi` ere ligne pour que le nouveau pivot qui est le coefficient ` a la position 1, 1 soit non nul.
A l’´ etape k, la matrice A
(k)a la forme suivante :
A
(k)=
a
11a
12· · · a
1k· · · a
1n0 a
(2)22· · · a
(2)2k· · · a
(2)2n.. . . . . . . . .. . .. . 0 · · · 0 a
(k)kk· · · a
(k)kn.. . .. . .. . .. . 0 · · · 0 a
(k)nk· · · a
(k)nn
=
a
01a
(2)2 0.. . a
(k)k 0.. . a
(k)n0
L’´ etape k de la r´ esolution consiste ` a ´ eliminer l’inconnu x
kde toutes les ´ equations
sauf les k-premi` eres. De la mˆ eme mani` ere que la premi` ere ´ etape, si le pivot
a
(k)kk6= 0, on fait les transformations suivantes :
la ligne a
(k)k+10est remplac´ ee par a
(k)k+10−
a(k) k+1k
a(k)kk
a
(k)k 0la ligne a
(k)k+20est remplac´ ee par a
(k)k+20−
a(k) k+2k
a(k)kk
a
(k)k 0.. .
la ligne a
(k)n 0est remplac´ ee par a
(k)n 0−
a(k) nk
a(k)kk
a
(k)k 0de mˆ eme pour le vecteur b
(k)la composante b
(k)k+1est remplac´ ee par b
(k)k+1−
a(k) k+1k
a(k)kk
b
(k)kla composante b
(k)k+2est remplac´ ee par b
(k)k+2−
a(k) k+2k
a(k)kk
b
(k)k.. .
la composante b
(k)nest remplac´ ee par b
(k)n−
a(k)nka(k)kk
b
(k)kSi le coefficient a
(k)kk= 0, on cherche un coefficient a
(k)ik6= 0, i = k+1, · · · , n, (un tel coefficient existe sinon la matrice est non inversible) et on permute la ligne i avec la ligne k pour que le nouveau pivot qui est le coefficient ` a la position kk soit non nul.
Au bout de n − 1 ´ etapes, on obtient un syst` eme triangulaire.
1.4 Calcul de l’inverse d’une matrice
Dans la pratique, on ´ evite le calcul de l’inverse A
−1d’une matrice inver- sible A. Dans le cas particulier o` u on a vraiment besoin de l’expression de la matrice A
−1, on utilise l’algorithme de Gauss Jordan. Le principe de la m´ ethode de Gauss-Jordan est le mˆ eme que celui de la m´ ethode de Gauss. On initialise une matrice B ` a l’identit´ e, cette matrice va jouer le rˆ ole du second membre de la m´ ethode de Gauss.
La premi` ere ´ etape de la m´ ethode de Gauss-Jordan est la mˆ eme que celle de la m´ ethode de Gauss, de plus, on applique les mˆ emes transformations ` a la matrice B. Supposons que le r´ esultat de la (k − 1)-` eme ´ etape est :
A
(k)=
a
(k)11a
(k)1k· · · a
(k)1n. . . .. . .. .
a
(k)k−1,k−1.. . .. . a
(k)kk· · · a
(k)kn.. . .. . a
(k)nk· · · a
(k)nn
, B
(k)=
b
(k)11b
(k)12· · · b
(k)1nb
(k)21b
(k)22· · · b
(k)2n.. . .. . .. . b
(k)n1b
(k)n2· · · b
(k)nn
On cherche un pivot non nul (par exemple par la strat´ egie du pivot partiel) : a
(k)lk/ | a
(k)lk|= sup
k≤i≤n
| a
(k)ik| .
Si k 6= l, on ´ echange la ligne k avec la ligne l dans les deux matrices A
(k)et B
(k). On notera encore par A
(k)la matrice obtenue apr` es permutation de la matrice A
(k). Puis, on fait l’´ elimination dans les deux matrices A
(k)et B
(k)de la mani` ere suivante :
(la ligne i) est remplac´ ee par
{(la ligne i) −
pivotxi(la ligne de pivot)}
x
i= le coefficient ` a la position (i, k) de la matrice A
(k)avec i allant de 1 ` a k − 1 et de k + 1 ` a n. Au bout de n ´ etapes, on obtient : A
(n)= diag(a
(n)kk) B
(n)Pour finir, on divise les lignes de k = 1, · · · , n, par a
(n)kk, on obtient alors : ` a gauche la matrice identit´ e et ` a droite la matrice A
−1.
1.5 Conditionnement d’un syst` eme lin´ eaire
Soit A une matrice carr´ ee d’ordre n inversible et b un vecteur de R
n. On consid` ere le syst` eme lin´ eaire
Au = b, de solution exacte et unique u = A
−1b.
Dans un premier cas, supposons que le second membre du syst` eme Au = b est perturb´ e en b + δb et A restant inchang´ ee. Soit u + δu la solution exacte du syst` eme perturb´ e
A(u + δu) = b + δb.
Comme Au = b, la relation pr´ ec´ edente implique que Aδu = δb, d’o` u δu = A
−1δb.
Utilisant une norme subordonn´ ee, nous obtenons une majoration de k δu k : k δu k≤k A
−1kk δb k .
La relation pr´ ec´ edente montre que la norme de la perturbation de la solution exacte du syst` eme Au = b due ` a une perturbation du second membre δb est au plus ´ egale ` a k A
−1k multipli´ ee par k δb k. D’autre part, la relation Au = b implique que
k b k≤k A kk u k .
Combinons les deux in´ egalit´ es pr´ ec´ edentes, nous obtenons l’in´ egalit´ e importante suivante :
k δu k
k u k ≤k A kk A
−1k k δb k k b k .
Par cons´ equent, le rapport d’amplification des erreurs relatives est au plus ´ egal
`
a k A kk A
−1k.
EXEMPLE
Soit A la matrice
A =
10 7 8 7
7 5 6 5
8 6 10 9
7 5 9 10
,
elle est sym´ etrique, son d´ eterminant vaut 1 et sa matrice inverse
A
−1=
25 −41 10 −6
−41 68 −17 10
10 −17 5 −3
−6 10 −3 2
.
On consid` ere le syst` eme lin´ eaire
Au =
32 23 33 31
, de solution
1 1 1 1
,
et on consid` ere le syst` eme perturb´ e, o` u le second membre est l´ eg` erement modifi´ e, la matrice A restant inchang´ ee :
A(u + δu) =
32.1 22.9 33.1 30.9
, de solution
9.2
−12.6 4.5
−1.1
ce qui donne un rapport d’amplification des erreurs relatives de l’ordre de 2000 (avec k . k
1). Th´ eoriquement, on obtient avec la mˆ eme norme un maximum pour le rapport d’amplification ´ egale ` a
k A k
1k A
−1k
1= 136 × 33 = 4488.
Maintenant, nous perturbons la matrice A et nous laissons b fixe. Soit u + ∆u la solution exacte du syst` eme perturb´ e :
(A + ∆A)(u + ∆u) = b.
On suppose que ∆A est assez petit pour que la matrice perturb´ ee reste inver- sible. De la mˆ eme mani` ere que le premier cas on montre l’in´ egalit´ e suivante :
k ∆u k
k u + ∆u k ≤k A kk A
−1k k ∆A k k A k .
La quantit´ e k A kk A
−1k apparait ` a nouveau pour contrˆ oler l’amplifica- tion des erreurs relatives.
EXEMPLE
Consid´ erons le mˆ eme syst` eme que l’exemple pr´ ec´ edent o` u, cette fois on perturbe la matrice A
10 7 8, 1 7, 2
7, 08 5, 04 6 5 8 5, 98 9, 89 9 6, 99 4, 99 9 9, 98
(u + ∆u) = b, de solution
−81 137
−34 22
Nous d´ efinissons le nombre conditionnement de la matrice inversible A par :
cond(A) =k A kk A
−1k .
Pour n’importe quelle norme matricielle subordonn´ ee, la norme de la matrice identit´ e I est ´ egale ` a un. D’autre part, I = AA
−1et k AA
−1k≤k A kk A
−1k, ce qui montre que cond(A) ≥ 1. On dit qu’un syst` eme est bien conditionn´ e si le conditionnement de sa matrice est de l’ordre de 1 et il est mal conditionn´ e si le conditionnement de sa matrice est tr` es grand par rapport ` a 1.
1.6 Exercices : chapitre 1
Exercice 1
1. Soit A ∈ M
n( R ). Montrer que si rang(A) = 1 alors il existe u, v ∈ R
ntels que A = uv
T.
2. On consid` ere la matrice ´ el´ ementaire
E = I
n− α uv
T(a) Montrer que E est inversible si et seulement si α u
Tv 6= 1.
(b) On suppose que α u
Tv 6= 1, montrer que
E
−1= I
n− β uv
To` u β = α α u
Tv − 1 . (c) D´ eterminer les valeurs propres de E.
(d) En d´ eduire que si M ∈ M
n( R ) est inversible et u ∈ R
n, alors det(M + uu
T) = (1 + u
TM
−1u) det M.
Exercice 2
Dans M
n( R ), on consid` ere la matrice tridiagonale suivante :
A(a, b) =
a b 0 · · · · · · 0 b . . . . . . . . . 0 0 . . . . . . . . . . . . . . .
. .
. . . . . . . . . . . . . 0 0 . . . . . . . . . b 0 · · · · · · 0 b a
, a, b ∈ R
Jusqu’` a la troisi` eme question, on supposera que a = 0 et b = 1.
1. V´ erifier que : u
Tk= (sin(
n+1kπ), sin(
n+12kπ), · · · , sin(
nkπn+1)), k = 1, · · · , n sont des vecteurs propres de A(0, 1). D´ eduire le sp(A(0, 1)).
2. En d´ eduire le spectre de A(a, b) et des vecteurs propres associ´ es.
Exercice 3
Etant donn´ e une norme vectorielle k.k, la norme matricielle subordonn´ ee as- soci´ ee est d´ efinie par :
kAk = sup
u6=0
kAuk kuk (Les normes ` a droite sont vectorielles).
V´ erifier que
1. kAk = sup
kuk≤1kAuk = sup
kuk=1kAuk 2. kAk = inf{k > 0; kAuk ≤ kkuk, ∀u}
Exercice 4
Soit A = (a
ij) ∈ M
n( R ). Montrer les propri´ et´ es suivantes 1. La norme k.k
2est invariante par transformation unitaire.
2. Si A est une matrice normale alors kAk
2= ρ(A).
Exercice 5
On munit R
nde la norme euclidienne not´ ee k.k
2. On munit M
n( R ) de la norme induite (not´ ee aussi k.k
2) et le conditionnement associ´ e est not´ e cond
2(A).
Soit A une matrice inversible de M
n( R ).
1. Montrer que si A est normale alors
cond
2(A) = max
i|λ
i(A)|
min
i|λ
i(A)|
o` u les nombres λ
i(A) d´ esignent les valeurs propres de A.
2. Montrer que cond
2(A) = 1 si et seulement si A = αQ, α ∈ R
∗et Q est une matrice orthogonale.
Exercice 6
Soit A ∈ M
n( R ) la matrice d´ efinie par :
A =
1 2
1 2
. . . . . .
1 2
1
1. Soit x = (x
1· · · x
n)
T∈ R
nla solution du syst` eme lin´ eaire Ax = b o` u b = (b
1· · · b
n)
Test un vecteur donn´ e de R
n.
(a) Montrer que x
k= P
n−ki=0
(−2)
ib
k+i, k = 1, . . . , n.
(b) En d´ eduire A
−1et un vecteur v 6= 0 tel que kA
−1k
∞=
kAkvk−1vk∞∞
. (c) Calculer cond
∞(A) et cond
1(A).
2. Soit (e
1, · · · , e
n) la base canonique de R
n.
(a) Calculer kA
−1e
nk
2. En d´ eduire un minorant de kA
−1k
2. (b) Calculer kAe
2k
2. En d´ eduire que cond
2(A) > 2
n. Exercice 7
R´ esoudre, par la m´ ethode de Gauss, le syst` eme lin´ eaire AX = b avec :
A =
2 1 0 4
−4 −2 3 −7
4 1 −2 8
0 −3 −12 −1
; b =
2
−9 2 2
Exercice 8 (Algorithme de la m´ ethode de Gauss)
1. Ecrire un algorithme d’´ echange de deux vecteurs de R
n.
2. Ecrire un algorithme de r´ esolution de Ax = b dans le cas o` u la matrice A est
triangulaire.
3. Ecrire l’algorithme de la m´ ethode de Gauss pour la r´ esolution de Ax = b (sans strat´ egie de pivot) ; puis avec pivot partiel.
Exercice 9 (M´ ethode de Gauss-Jordan)
Appliquer la m´ ethode de Gauss-Jordan pour calculer l’inverse de la matrice
A =
10 1 4 0
1 10 5 −1
4 5 10 7
0 −1 7 9
1.7 Corrig´ e des exercices : chapitre 1
R´ eponse 1
1. Si rang(A) = 1, alors, il existe u ∈ R
n, u 6= 0, tel que :
∀x ∈ R
n, ∃α
x∈ R /Ax = α
xu en particulier :
∀i ∈ {1, · · · , n}, ∃v
i∈ R /Ae
i= v
iu
o` u (e
i)
i=1,nest la base canonique de R
n. D’o` u, si on ´ ecrit x = P
ni=0
x
ie
i, on obtient :
Ax = P
n i=0x
iAe
i= ( P
ni=0