EPFLAlgèbre linéaire 1ère année 2007-2008
Corrigé de la série 4
Exercice 1. Vérions que les axiomes sont satisfaits. Dans ce qui suit, M, N, P sont des matrices dans Mat(m, n;F) et λ, µ ∈ F des scalaires. On remarque que deux matrices sont égales si et seulement si toutes les entrées correspondantes sont égales.
Commutativité de+: Pour montrer queM+N =N+M, il faut montrer que(M+N)i,j = (N+M)i,j pour touti, j par la remarque ci-dessus. Or on a(M+N)i,j = (M)i,j+(N)i,j = (N)i,j + (M)i,j = (N +M)i,j par la commutativité de +dans F.
Associativité de+:((M+N) +P)i,j = (M+N)i,j+ (P)i,j = ((M)i,j+ (N)i,j) + (P)i,j = (M)i,j+ ((N)i,j+ (P)i,j) = (M)i,j+ (N+P)i,j = (M+ (N+P))i,j ∀i, j par l'associativité de+ dans F. Donc (M +N) +P =M + (N+P).
Elément neutre de + : Soit 0 la matrice donnée par (0)i,j = 0 pour tout i, j. Alors (M + 0)i,j = (M)i,j + (0)i,j = (M)i,j + 0 = (M)i,j ∀i, j. Donc M + 0 =M.
Inverse additive : Dénissons −M par (−M)i,j = −(M)i,j ∀i, j. Alors (M + (−M))i,j = (M)i,j + (−M)i,j = (M)i,j −(M)i,j = 0 pour tout i, j. Donc M + (−M) = 0.
On laisse le soin au lecteur de vérier les autres axiomes de manière similaire.
Exercice 2.
Montrons que la première liste est une liste génératrice. Il nous faut démontrer que n'im- porte quel vecteur de Mat(2,2;F)peut être exprimé comme une combinaison linéaire des éléments de la liste. Soit alorsM =
α β γ δ
∈Mat(2,2;F). Par dénition de la structure d'espace vectoriel, nous avons :
M =α 1 0
0 0
+β 0 1
0 0
+γ
0 0 1 0
+δ 0 0
0 1
. CommeM était arbitraire, ça démontre l'énoncé.
Pour voir qu'elle est libre, supposons que ξ, η, ζ, ω ∈F soient tels que ξ
1 0 0 0
+η
0 1 0 0
+ζ 0 0
1 0
+ω 0 0
0 1
= 0.
Par conséquent, on a
ξ η ζ ω
= 0, et donc ξ =η=ζ =ω= 0. On calcule facilement qu'on peut écrire M =
α β γ δ
∈Mat(2,2;F)comme
M =α 1 0
0 0
+ β−γ 2
0 1
−1 0
+ β+γ 2
0 1 1 0
+δ
0 0 0 1
.
Donc on a bien que Mat(2,2;F) = span
1 0 0 0
,
0 1
−1 0
, 0 1
1 0
, 0 0
0 1
.
1
Supposons que α, β, γ, δ∈F soient tels que α
1 0 0 0
+β
0 1
−1 0
+γ
0 1 1 0
+δ 0 0
0 1
= 0.
Alors
α β+γ
−β+γ δ
= 0. Par conséquent α = β = γ = δ = 0. La liste est donc linéairement indépendante.
Exercice 3.
1. Soit (x1, x2, x3, x4, x5)∈U. Puisque x1 = 2x5 etx3 =x2+ 5x5, on peut écrire (x1, x2, x3, x4, x5) = (2x5, x2, x2+ 5x5, x4, x5)
= x2(0,1,1,0,0) +x4(0,0,0,1,0) +x5(2,0,5,0,1).
Alors tout élément de U est une combinaison linéaire de (0,1,1,0,0), (0,0,0,1,0), et (2,0,5,0,1), c'est-à-dire
U = span((0,1,1,0,0),(0,0,0,1,0),(2,0,5,0,1)).
2. La famille de l'énoncé n'est pas linéairement indépendante car :
(1,2,1,2,1) + (2,1,2,1,2) = 3 ((1,0,1,1,0) + (0,1,0,0,1)).
Ce n'est pas non-plus une famille génératrice car
(1,0,0,0,0)6∈E = span((1,2,1,2,1), (2,1,2,1,2), (1,0,1,1,0), (0,1,0,0,1)).
En eet, raisonnons par l'absurde et supposons que (1,0,0,0,0)∈ E. Par dénition, on aurait l'existence de scalaires α, β, γ etδ tels que :
α(1,2,1,2,1) +β(2,1,2,1,2) +γ(1,0,1,1,0) +δ(0,1,0,0,1) = (1,0,0,0,0).
Or, pour la première coordonnée, cette égalité fournit l'équation α+ 2β +γ = 1 et la troisième coordonnée fournit l'équation α+ 2β+γ = 0. Ce qui fournit une contradiction.
Remarque : On verra plus tard dans le cours, qu'une famille génératrice d'un espace vectoriel de dimension n a, au moins, n éléments et qu'une famille linéairement indépen- dante d'un espace vectoriel de dimension n a, au plus, n éléments. Ici, R5 est un espace vectoriel de dimension 5 et la famille a 4éléments. Par conséquent, elle ne peut pas être génératrice.
Exercice 4.
1. Il s'agit du sous-espace des matrices antisymétriques, donc de l'ensemble des matrices M ∈ Mat(n, n;F) qui ont la propriété que (M)i,j = −(M)j,i pour i, j ∈ {1, . . . , n}. Remarquons que (M)i,i = 0 pour un tel M.
Les matrices Ak,l sont clairement antisymétriques. Prenons maintenant un élément M arbitraire de l'espace A(n) engendré par les matrices Ak,l. C'est donc une combinaison linéaire des Ak,l, i.e. ∃ α1,2, α1,3, . . . , α2,3, α2,4, . . . , αn−1,n ∈F tels que
M =α1,2A1,2+· · ·+αn−1,nAn−1,n.
2
Pour i, j ∈ {1, . . . , n} quelconques, on trouve :
(M)i,j =
n−1
X
p=1 n
X
q=p+1
αp,qAp,q
!
i,j
=
n−1
X
p=1 n
X
q=p+1
αp,q(Ap,q)i,j
=
n−1
X
p=1 n
X
q=p+1
−αp,q(Ap,q)j,i=
n−1
X
p=1 n
X
q=p+1
−αp,q(Ap,q)
!
j,i
=−(M)j,i.
Cela nous montre queM est bien antisymétrique. CommeM était un élément arbitraire de A(n), nous concluons queA(n)est contenu dans l'ensemble des matrices antisymétriques.
Inversément, soit N une matrice antisymétrique. Nous devons montrer que N ∈A(n) = span{Ak,l|1≤k, l≤n, k < l}.
Pour k, l∈ {1, . . . , n} et k < l, dénissonsαk,l = (N)k,l. Soit
N0 =
n−1
X
p=1 n
X
q=p+1
αp,qAp,q.
Nous armons que N0 =N. En eet, pour i, j ∈ {1, . . . , n}quelconques : (N0)i,j =α1,2(A1,2)i,j +· · ·+αn−1,n(An−1,n)i,j =αi,j(Ai,j)i,j
=
(αi,j = (N)i,j, sii < j
−αj,i =−(N)j,i = (N)i,j sinon.
2. Un raisonnement toute à fait analogue à celui de 1. montre que S(n) est le sous-espace des matrices symétriques, i.e. des matrices M telles que(M)i,j = (M)j,i pour touti, j. 3. Soit M ∈A(n)∩S(n) et i, j ∈ {1, . . . , n} quelconques. Alors (M)i,j = (M)j,i comme M
et symétrique et (M)j,i = −(M)i,j comme M est antisymétrique. Donc 2(M)i,j = 0 et alors (M)i,j = 0. Par conséquent : A(n)∩S(n) ={0}.
4. Armation : Mat(n, n;F) =A(n)⊕S(n).
Par le résultat de 3., il reste à montrer que A(n) +S(n) = Mat(n, n;F). Nous devons alors écrire n'importe quelle matriceM ∈Mat(n, n;F) comme une somme d'une matrice antisymétriqueA et d'une matrice symétrique B. Dénissant A et B par
(A)i,j = 1
2 (M)i,j+ (M)j,i
∀i, j ∈ {1, . . . , n}, (B)i,j = 1
2 (M)i,j−(M)j,i
∀i, j ∈ {1, . . . , n},
nous obtenons bien une matrice antisymétrique et symétrique, respectivement, telles que A+B =M.
Exercice 5.
1. SoitU ⊆R3 un sous-espace qui est engendré par un~v ∈R3. Explicitement, cela veut dire queU ={α~v|α∈R}. Si~v 6=~0,U est alors la droite qui passe par l'origine et~v. Si~v =~0, U consiste juste en l'origine~0.
3
2. Soit V = span(~v, ~w)⊆R3. S'il existeλ ∈R tel que~v =λ ~w (i.e. ~v etw~ sont colinéaires), alors V = span(~v) est engendré par ~v et est donc une droite passante par l'origine ou V = {~0}, par le 1. Si ce n'est pas le cas, un argument de géométrie élémentaire montre que V est le plan qui contient~0, ~v, ~w.
3. Soit W ⊆ R3 un sous-espace quelconque. Si W peut être engendré par deux ou moins vecteurs, il s'agit d'un plan qui contient l'origine, d'une droite qui contient l'origine ou W ={~0}, par 1. et 2.
Supposons que W n'est pas engendré par deux vecteurs. Choisissons~0 6= ~v ∈ W. Par hypothèse, on aspan(~v)$W. Il existe alorsw~ ∈W\span(~v). De nouveau, par hypothèse, span(~v, ~w)$W. Il existe donc un vecteur ~u∈ W qui n'est pas contenu dans le plan qui passe par~0, ~v, ~w. De nouveau, un raisonnement géométrique implique facilement qu'alors span(~v, ~w, ~u) =R3 et donc W =R3.
4. (a) Pour le sous-espace {0}, on a {0}+G = G 6= R3. Lorsque le sous-espace est une droite G0, on aG0+G =G si G0 = G ou bien G0 +G est le plan qui contient G et G0 si G0 6=G. Pour un plan (contenant zéro) E, on a E +G= E quand G⊆ E et E+G=R3 siE ne contient pasG. Finalement, on aR3+G=R3. PourP, on peut donc prendre ou bien un plan qui ne contient pas le vecteur(1,1,1) ou bienR3. (b) Par (a), il faut que P soit un plan P 6⊇ G ou bien R3. Dans le premier cas, on a
P ∩G={0}, et la somme est donc directe. Pour R3 par contre, on aR3∩G=G6=
{0}, et donc une somme non-directe.
Exercice 6.
1. Soient les scalaires λ1, λ2, λ3 ∈ R tels que λ1 ·1 +λ2 ·sin +λ3 ·cos = ~0. Ceci équivaut à λ1 +λ2 ·sin(x) +λ3 ·cos(x) = 0 pour tout x ∈ R. En écrivant cette identité pour x= 0,π2, π, on obtient le système suivant :
λ1+λ3 = 0, λ1+λ2 = 0, λ1−λ3 = 0,
qui a comme unique solution λ1 = λ2 = λ3 = 0. La liste (1,sin,cos) est donc libre dans F(R,R). Par contre, la liste (1,sin,cos,sin2,cos2) est liée car 1 = sin2+ cos2.
2. Par dénition, la famille indiquée est libre si et seulement si tout sous-ensemble ni est libre. Comme un sous-ensemble d'un ensemble libre est automatiquement libre, il sut de montrer que (ϕ0, . . . , ϕn) est libre. On procède par récurrence. Le cas n = 0 est évident. Supposons que la propriété est vraie pour n et montrons-la pour n+ 1. Soient λ0, . . . , λn, λn+1 ∈R tels que
λ0+λ1cos(x) +· · ·+λncos(nx) +λn+1cos (n+ 1)x
= 0 ∀x∈R. (1) Si une fonction est nulle, alors sa dérivée l'est aussi. En dérivant deux fois, on obtient :
−λ1cos(x)− · · · −n2λncos(nx)−(n+ 1)2λn+1cos (n+ 1)x
= 0 ∀x∈R. (2) En multipliant (1) par (n+ 1)2 et en additionnant le résultat à (2), on obtient :
(n+ 1)2λ0+ ((n+ 1)2−1)λ1cos(x) + +· · ·+ ((n+ 1)2−n2)λncos(nx) = 0 ∀x∈R. (3) L'hypothèse de récurrence implique :
(n+ 1)2λ0 = 0,((n+ 1)2 −1)λ1 = 0, . . . ,((n+ 1)2−n2)λn = 0.
Doncλ0 =λ1 =· · ·=λn = 0. Revenant à (1), nous trouvons que λn+1 = 0 également.
4