COURS DE MATH ´EMATIQUES : ALG `EBRE LIN ´EAIRE III.
Table des mati`eres
1. Op´erations sur les matrices. 1
1.1. Somme. 1
1.2. Produit par un r´eel. 2
1.3. Produit de deux matrices. 3
2. Interprˆetation matricielle des syst`emes lin´eaires. 5
3. Applications lin´eaires de Rndans Rp. 5
3.1. D´efinition et exemples. 5
3.2. Application lin´eaire associ´ee `a une matrice. 6
3.3. Matrices d’une application lin´eaire. 7
3.4. Equations matricielles d’une application lin´eaire. 8
3.5. Equation matricielle dans les bases canoniques. 10
4. Etude de l’´equation f(u) =v. Noyau et image d’une application lin´eaire. 11
5. Etude de l’´equation matricielle AU =V. 15
6. Matrices de passage. 17
1. Op´erations sur les matrices.
1.1. Somme.
Exemple 1.1 (somme de deux matrices).
(1) : 1 −1 0 2
+ 3 4 −2 −5
= 1 + 3 −1 + 4 0 + (−2) 2 + (−5)
= 4 3 −2 −3
(2) :
2 0 1
−1
+
1 4
−2 0
=
2 + 1 0 + 4 1 + (−2)
−1 + 0
=
3 4
−1
−1
(3) :
−2 0 1
3 2 −4
+
4 5 6
−7 −8 −9
=
−2 + 4 0 + 5 1 + 6 3 + (−7) 2 + (−8) −4 + (−9)
=
2 5 7
−4 −6 −13
D´efinition 1.2 (somme de deux matrices). SoientAetBdeux matrices `aplignes etncolonnes. Soient aij etbij les coefficients de A et B situ´es `a l’intersection de lai-`eme ligne et de la j-`eme colonne. On d´efinit alors la matrice A+B (appel´eesomme de A et de B) comme la matrice dont le coefficient ij est aij +bij.
Remarque 1.3 (identifications des matrices p×navec des pn-vecteurs). Une matrice p×nc’est un tableau de pnnombres r´eels, donc cela contient la mˆeme information qu’un pn-vecteur, mais pas rang´e sous forme de suite. Alors l’op´eration A+B d´efinie ci-dessus correspond simplement `a l’addition des pn-vecteurs , elle se fait composantes par composantes.
Date: 9 avril 2009.
1
Attention cependant : en g´en´eral, il n’y a pas de mani`ere naturelle de transformer une matricep×n en pn-vecteur. Par exemple une matrice 2×2 peut correspondre `a plusieurs vecteurs deR4 :
1 2
−1 0
=A←→(1,2,−1,0)? A←→(1,−1,2,0)? A←→(1,0,−1,2)?
Il y a pourtant un cas o`u on a une identification plus naturelle que les autres : dans le cas des matrices colonnes.
D´efinition 1.4 (colonnes et vecteurs colonnes). Soit A une matricep×n. Rappelons que lapremi`ere colonne de Aest la matricep×1 de coefficients (ai1), ladeuxi`eme colonne de Aest la matricep×1 de coefficients (ai2), etc...
Lepremier vecteur colonne de Aest lep-vecteur (a11, a21, . . . , ap1), ledeuxi`eme vecteur colonne de A est le p-vecteur (a12, a22, . . . , ap2), etc...
Ne pas confondre la j-`eme colonne avec le j-`eme vecteur colonne, mˆeme s’ils se correspondent, et contiennent exactement la mˆeme information - simplement cette information n’est pas sous la mˆeme forme.
Exemple 1.5. Soit A =
1 2
−1 0
3 1
. Alors la premi`ere colonne de A est C1 =
1
−1 3
, et le pre-
mier vecteur colonne de A est (1,−1,3). Et la matrice A contient la mˆeme information que la suite ((1,−1,3),(2,0,1)) de ses deux vecteurs colonnes.
D´efinition 1.6 (image d’une matrice). Soit A une matrice p×n. L’image de A est par d´efinition le sous-espace vectoriel de Rp engendr´e par les vecteurs colonnes. Nous le noterons Im(A).
D´efinition 1.7 (rang d’une matrice). SoitAune matricep×n. Lerang deA est par d´efinition le rang de la suite de ses vecteurs colonnes. Nous le noterons rg(A).
Ainsi rg(A) = dim (Im(A)).
D´efinition 1.8 (noyau d’une matrice). Soit A une matrice p×n. Le noyau deA est par d´efinition le sous-espace vectoriel deRn form´e par les solutions du syst`eme homog`ene associ´e `a la matriceA. Nous le noterons Ker(A).
1.2. Produit par un r´eel.
Exemple 1.9 (produit d’une matrice par un r´eel).
(1) : 3× 1 −1 0 2
= 3×1 3×(−1) 3×0 3×2
= 3 −3 0 6
(2) : (−2)×
2 0 1
−1
=
(−2)×2 (−2)×0 (−2)×1 (−2)×(−1)
=
−4 0
−2 2
(3) : 4×
−2 0 1
3 2 −4
=
4×(−2) 4×0 4×1 4×3 4×2 4×(−4)
=
−8 0 4 12 8 −16
D´efinition 1.10 (produit d’une matrice par un r´eel). SoitAune matrices `aplignes etncolonnes, soit λ un r´eel. Soient aij le coefficient de A situ´e `a l’intersection de la i-`eme ligne et de la j-`eme colonne.
On d´efinit alors la matriceλA (appel´eeproduit de A parλ) comme la matrice dont le coefficient ij est λaij.
Remarque 1.11. La multiplication par un r´eel des p×n-matrices correspond `a la multiplication par un r´eel despn-vecteurs correspondants : la multiplication se fait composantes par composantes dans les deux cas.
Par exemple les matrices colonne `a p lignes correspondent `a l’espace vectoriel Rp avec ses deux op´erations. On peut faire des combinaisons lin´eaires de matrices colonnes, et plus g´en´eralement de matrices A1, . . . , Ak (du moment qu’elles sont toutes de mˆeme taille p×n).
Par exemple :
2
1 0 −1
0 −1 1
+ 3
−2 1 1
1 0 −2
=
−4 3 1
3 −2 −4
ou
a b c d
=a 1 0
0 0
+b 0 1
0 0
+c 0 0
1 0
+d 0 0
0 1
1.3. Produit de deux matrices.
Exemple 1.12 (quelques produits).
Une ligne fois une colonne : 3 −1 2
1 2
−3
= 3×1 + (−1)×2 + 2×(−3)
= −5 Deux lignes fois une colonne :
3 −1 2
1 4 1
1 2
−3
=
3×1 + (−1)×2 + 2×(−3) 1×1 + 4×2 + 1×(−3)
= −5
6
Deux lignes fois trois colonnes :
3 −1 2
1 4 1
1 −1 0
2 3 1
−3 1 2
=
3×1 + (−1)×2 + 2×(−3) 3×(−1) + (−1)×3 + 2×1 3×0 + (−1)×1 + 2×2 1×1 + 4×2 + 1×(−3) 1×(−1) + 4×3 + 1×1 1×0 + 4×1 + 1×2
=
−5 −4 3
6 12 6
D´efinition 1.13. Soient A etB deux matrices. On suppose que A a autant de colonnes que B a de lignes. Mettons que A a p lignes et n colonnes et B a n lignes et m colonnes. Soient aij et bij les coefficients de A et B situ´es `a l’intersection de la i-`eme ligne et de la j-`eme colonne. On d´efinit alors la matrice A.B (appel´ee produit de A par B) comme la matrice C `a p lignes et m colonnes dont le coefficientcij est :
cij =
k=n
X
k=1
aik.bkj.
Concr`etement : le coefficient ij du produit s’obtient en faisant le produit de la i-`eme ligne de A par la j-`eme colonne de B.
En particulier le produit AX, o`u A est une matrice de taille p×net X est un vecteur colonne `a n lignes est encore un vecteur colonne, cette fois `a p lignes.
Attention si une matrice An’est pascarr´ee (autant de lignes que de colonnes) il est impossible de la multiplier par elle-mˆeme !
Proposition 1.14 (premi`eres propri´et´es du produit de matrices).
(1) La multiplication par la matrice nulle donne la matrice nulle.
(2) SoitA une matrice ayant p lignes et ncolonnes, et soit Ej la matrice colonne `a p lignes ayant des 0 partout sauf `a laj-`eme ligne o`u il y a un 1. AlorsA.Ej est la j-`eme colonne deA.
(3) On note In la matrice n×n qui a des 1 sur la diagonale et des 0 ailleurs. Si A une matrice ayant p lignes et n colonnes, alors AIn =A. (Et Ip.A=A.) Egalement : A(λIn) =λA (noter queλIn est la matrice n×n qui a des λsur la diagonale et des 0 ailleurs).
(4) (associativit´e) A(BC) = (AB)C.
(5) (distributivit´e) Pour A une matrice p×n et B, B0 deux matrices n×m on a A(B +B0) = AB+AB0. PourA, A0 des matricesp×netB une matricen×mon a(A+A0).B=AB+A0B.
(6) A(λB) =λAB.
(7) A(λB+λ0B0) =λAB+λ0AB0.
Attention ! ! !: on peut avoirAB=AC avec A6= 0 etB 6=C.
Exemple :A= 1 0
0 0
, B= 0
0
, C= 0
1
. Attention ! ! !: en g´en´eral AB6=BA.
Exemple :A= 1 0
0 2
, B= 1 1
1 0
.
D´emonstration. (1) La matrice nulle, c’est la matrice dont tous les coefficients sont nuls. Donc la propri´et´e est ´evidente.
(2) D’abord A.Ej est bien une matrice colonne ayant p ligne. D’apr`es la formule du produit son i-`eme coefficient estai,1×0 +· · ·+ai,j−1×0 +ai,j×1 +ai,j+1×0 +· · ·+ai,n×0, autrement dit c’estaij. Donc A.Ej a les mˆemes coefficients que la j-`eme colonne de A - `a laquelle elle est donc ´egale.
(3) Laj-`eme colonne deAInest le produit deAavec laj-`eme colonne de In- c’est `a direEj. Donc laj-`eme colonne deAIn est laj-`eme colonne deA. Il en r´esulte queAIn=A.
Nous laissons la preuve de Ip.A=A etA(λIn) =λAau lecteur.
(4) Supposons A = (aij)1≤i≤p,1≤j≤m, B = (bjk)1≤j≤m,1≤k≤n, C = (ck`)1≤k≤n,1≤`≤l, de sorte que les produitsAB, BC,(AB)C, A(BC) sont bien d´efinis.
Le coefficient i, k de AB et le coefficient j, `de BC sont donn´es par les formules :
[AB]i,k =
j=m
X
j=1
ai,jbj,k,[BC]j,`=
k=n
X
k=1
bj,kck,`
Donc les coefficient i, `de (AB)C et deA(BC) sont donn´es par les formules :
[(AB)C]i,`=
k=n(
X
k=1 j=m
X
j=1
ai,jbj,k)ck,`,[A(BC)]i,` =
j=m
X
j=1
ai,j(
k=n
X
k=1
bj,kck,`)
Ainsi les coefficients i, `des deux matrices (AB)CetA(BC) sont tous deux ´egaux `a la mˆeme somme double :
X
1≤j≤m,1≤k≤n
ai,jbj,kck,`
(5) Le coefficient i, k de A(B+B0) est X
j
ai,j(bj,k+b0j,k) Et le coefficienti, k de AB+AB0 est
(X
j
ai,jbj,k) + (X
j
ai,jb0j,k)
qui est la premi`ere formule d´evelopp´ee. On a bien A(B+B0) =AB+AB0. On montre de la mˆeme mani`ere que (A+A0).B=AB+A0B.
(6) Le coefficient i, k de A(λB) est
X
j
ai,j(λbj,k) Et le coefficienti, k de λAB est
λ(X
j
ai,jbj,k) On a donc bienA(λB) =λAB.
(7) La relationA(λB+λ0B0) =λAB+λ0AB0 est la combinaison des deux propri´et´es pr´ec´edentes.
2. Interprˆetation matricielle des syst`emes lin´eaires.
Proposition 2.1. Soit A une matrice p×n et soit B une colonne `a p lignes. Consid´erons le syst`eme lin´eaire associ´e `a la matrice A et de second membre B :
a11x1+· · ·+a1nxn =b1 a21x1+· · ·+a2nxn =b2
. . .
an1x1+· · ·+annxn =bn Alors(x1, . . . , xn)est une solution si et seulement si la colonneX =
x1
. . . xn
(qui correspond `a(x1, . . . , xn)) est solution de l’´equation matricielle AX =B.
Par exemple les solutions d’un syst`eme lin´eaire homog`ene (de matrice A) correspondent au noyau de Ker(A).
3. Applications lin´eaires de Rn dans Rp. 3.1. D´efinition et exemples.
D´efinition 3.1 (applications lin´eaires). Soitf :Rn→Rp une application. On dit quef est lin´eaire si f conserve les combinaisons lin´eaires, autrement dit si pour tout choix de deux vecteurs u, v de Rn et tout choix de deux r´eelsλ, µon af(λu+µv) =λf(u) +µf(v).
Exemple 3.2.
1) Consid´erons l’application f : R2 → R d´efinie par f(x, y) = x (la premi`ere composante). Alors f est lin´eaire. En effet pour u = (x, y), u0 = (x0, y0) et λ, λ0 ∈R on a λu+λ0u0 = (λx+λ0x0, λy+λ0y0), doncf(λu+λ0u0) =λx+λ0x0. Orλx+λ0x0 =λf(u) +λ0f(u0).
2) f(x, y, z) = 2x −y + 3z. Pour u = (x, y, z), u0 = (x0, y0, z0) et λ, λ0 ∈ R on a λu+λ0u0 = (λx+λ0x0, λy+λ0y0, λz+λ0z0), donc
f(λu+λ0u0) = 2(λx+λ0x0)−(λy+λ0y0) + 3(λz+λ0z0) =λ(2x−y+ 3z) +λ0(2x0−y0+ 3z0).
Et
λ(2x−y+ 3z) +λ0(2x0−y0+ 3z0) =λf(u) +λ0f(u0).
3) Plus g´en´eralement si on se fixe des r´eelsa1, . . . , an, alors l’application (x1, . . . , xn)7→a1x1+· · ·+ anxn est lin´eaire deRn dansR.
4) Les coordonn´ees sont lin´eaires.
SiBB est une base de Rn et si on note (y1(u), . . . , yn(u)) les coordonn´ees d’un vecteuru dans cette base, alors chacune des applications u7→y1(u), . . . , u7→yn(u) est lin´eaire.
5) Projections et sym´etries.
Supposons que Rn = E ⊕E0. Rappelons qu’alors tout vecteur u de Rn s’´ecrit d’une unique fa¸con u=v+v0 avec v∈E etv0 ∈E0. On pose p(u) = v, qu’on appelle le projet´e de u sur E parall`element
`
a E0. Alors u7→p(u) est lin´eaire (appel´ee laprojection sur E parall`element `a (ou dans la direction de) E0).
AinsiR2 =D⊕D0 avec D= Vect(1,1) etD0 = Vect(−2,1).
De mˆeme l’application s:u 7→ 2p(u)−u est lin´eaire, on l’appelle la sym´etrie par rapport `a E dans la direction de E0. Siv ∈E on as(v) = 2v−v =v, et siv0 ∈E0 on a s(v0) = 0−v0 =−v0. En g´en´eral siu=v+v0 avec v∈E etv0 ∈E0 on auras(u) =v−v0.
3.2. Application lin´eaire associ´ee `a une matrice.
Exemple 3.3 (exemple d’application associ´ee `a une matrice). Soit A=
2 3 1 −1
, de sorte que pour toute colonne X =
x y
on a AX =
2x+ 3y x−y
. Alors l’application associ´ee `a A envoie (x, y) sur (2x+ 3y, x−y)
Plus g´en´eralement, quand on a une matriceA`ap lignes etncolonnes, on peut consid´erer la fonction F qui envoie une colonne X `a n lignes sur la matrice colonne produit AX (qui, elle, a p lignes). En utilisant la correspondance naturelle entre les matrices colonnes et les vecteurs, on peut interprˆeter F :X 7→AX comme une fonction f :Rn→Rp, qui se trouve ˆetre lin´eaire :
Proposition 3.4 (l’application associ´ee `a une matrice). Soit A une matrice p×n. L’application f : Rn→Rpd´efinie parf(x1, . . . , xn) =le vecteur correspondant `a la colonne produitA
x1 . . . xn
est lin´eaire, on l’appelle l’application lin´eaire associ´ee `aA.
D´emonstration. Dans les propri´et´es du produit de matrice, on a vu queA(λX+λ0X0) =λAX+λ0AX0, autrement ditF(λX+λ0X0) =λF(X) +λ0F(X0). Si on traduit cette relation en termes def, on trouve exactementF(λ(x1, . . . , xn) +λ0(x01, . . . , x0n)) =λF(x1, . . . , xn) +λ0F(x01, . . . , x0n).
Cela signifie que toute application f :Rn→Rp dont la i-`eme composante est de la forme fi(x1, . . . , xn) =ai1x1+· · ·+ainxn
est toujours lin´eaire (puisqu’une telle application est l’application lin´eaire associ´ee `aA= (aij)1≤i≤p,1≤j≤n).
Il n’est donc pas n´ecessaire de le rev´erifier `a chaque fois.
Par exemple (x, y, z, t) 7→ (3x−y+ 5z−4t, x+ 2y+z+ 3t,−x−y−z−t) est clairement lin´eaire (puisque associ´ee `a A =
3 −1 5 −4
1 2 1 3
−1 −1 −1 −1
). Nous verrons bientˆot que toute application lin´eaire f :Rn→Rp est de cette forme, donc est associ´ee `a une (unique) matriceA `a plignes et ncolonnes.
Notons d’ores et d´ej`a que par exemple f(x, y) =x+y+ 1n’est pas lin´eaire. En effetf(0,0) = 1, or sif ´etait lin´eaire elle devrait v´erifierf(0,0) = 0, d’apr`es le r´esultat suivant :
Lemme 3.5.
Soit f :Rn→Rp une application lin´eaire. Alors f(0Rn) = 0Rp.
D´emonstration. En effet 0Rn = 0Rn + 0Rn, donc f(0Rn) = f(0Rn + 0Rn) et comme f est lin´eaire cela donne f(0Rn) = f(0Rn) + f(0Rn) = 2f(0Rn). Mais le seul vecteur v ∈ Rp qui v´erifie v = 2v c’est
v= 0Rp.
3.3. Matrices d’une application lin´eaire.
D´efinition 3.6 (matrice d’une application lin´eaire dans des bases donn´ees).
Soit f :Rn →Rp une application lin´eaire. Soit B= (u1, . . . , un) une base de Rn et B0 = (u01, . . . , u0p) une base deRp.
Alors la matrice def de la baseBdans la baseB0 est une matricep×n, dont laj-`eme colonne donne les coordonn´ees dansB0 de f(uj). On la note Mat(f,B → B0).
Ainsi la matrice de f de B dans B0 est l’unique matrice A = (aij)1≤i≤p,1≤j≤n telle que pour tout j= 1, . . . , non a :
f(uj) =a1ju01+a2ju02+· · ·+anju0n
Notation. Lorsque p=net la base de l’espace d’arriv´eeB0 co¨ıncide avec la baseB au d´epart on note la matrice Mat(f;B) au lieu de Mat(f;B → B).
Exemple 3.7.
1) Soit f(x, y, z) = (y − 2z, x+y +z,3x −y −2z), qui est facilement lin´eaire. Soit B la base canonique, d´eterminons Mat(f;B). On a f(1,0,0) = (0,1,3), puis f(010,0) = (1,1,−1) et enfin f(0,0,1) = (−2,1,−2). Donc
Mat(f;B) =
0 1 −2
1 1 1
3 −1 −2
Pour rire (et comprendre qu’il faut faire tr`es attention aux bases choisies) : remarquons que la suite des vecteurs colonnes B0 = ((0,1,3),(1,1,−1),(−2,1,−2)) est une base ! Calculons alors Mat(f;B → B0) : on trouve ...
Mat(f;B → B0) =
1 0 0 0 1 0 0 0 1
=I3
2) Nouvel exemple : matrice d’une projection. Soit D = Vect(u1 = (1,0)) et soit D0 = Vect(u2 = (−1,1)). Comme B= ((1,0),(−1,1)) est une base de R2 (elle est ´evidemment libre...) nous savons que D⊕D0 =R2. Soit alors p:R2 →R2 qui envoie tout vecteuru=v+v0 sur p(u) =v.
Il n’est pas imm´ediat de trouver p(x, y). Mais il est imm´ediat de d´eterminer Mat(p;B). En effet trouver cette matrice, c’est ´ecrire chacun des vecteursp(u1), p(u2) sur la base (u1, u2). Oru1 ∈D, donc u1 =u1+ 0 etp(u1) =u1. Alors que u2 ∈D0 doncu2= 0 +u2 etp(u2) = 0. D’o`u :
Mat(p;B) = 1 0
0 0
En fait comme (u1, u2) est une base on peut ´ecrire les vecteurs de base canonique sur cette base : e1 = u1 et e2 = u2 +u1, et se servir de cette d´ecomposition pour trouver Mat(p;B2 → B2). Alors p(e1) =p(u1) =u1 =e1 etp(e2) =p(u2+u1) =p(u2) +p(u1) = 0 +u1=e1. Ainsi :
Mat(p;B2 → B2) = 1 1
0 0
Ensuitep(x, y) =p(xe1+ye2) =xp(e1) +yp(e2) = (x+y)e1 = (x+y,0).
Remarque 3.8(la matrice d´epend des bases consid´er´ees !). Comme on vient de le voir sur les exemples la matrice d´epend tr`es fortement des bases choisies.
Proposition 3.9.
Consid´erons une matrice A `a p lignes et n colonnes, et l’application F : X 7→ AX envoyant une colonne `a nlignes sur une colonne `a p lignes. Soitf :Rn→Rp l’application lin´eaire correspondante.
Alors la matrice de f de la base canonique de Rn dans la base canonique de Rp est la matrice A de d´epart.
D´emonstration. En effet, par d´efinition de f, l’image f(ej) du j-`eme vecteur de la base canonique correspond `a la colonne AEj. Et nous savons queAEj est la j-`eme colonne deA.
3.4. Equations matricielles d’une application lin´eaire.
On remarque d’abord qu’une application lin´eaire pr´eserve les combinaisons lin´eaires `a un nombre arbitraire de termes (et non pas seulement `a deux termes, comme dans la d´efinition).
Lemme 3.10 (d’autres caract´erisations de la lin´earit´e).
Soit f :Rn→Rp une application. Alors les propri´et´es suivantes sont ´equivalentes :
(1) pour deux vecteurs quelconquesu, v dansRn et deux r´eels quelconquesλ, λ0 on a f(λu+λ0u0) = λf(u) +λ0f(u0) (autrement dit f est lin´eaire) ;
(2) (1bis) pour deux vecteurs quelconquesu, vdansRn on af(u+v) =f(u) +f(v) (f est additive) et pour tout vecteuru∈Rn et tout r´eel λon a f(λu) =λf(u) (f est homog`ene (de degr´e 1)) (3) pour tout entierk≥2, pour toute suite de kvecteurs u1, u2, . . . , uk dansRn et toute suite de k
r´eels λ1, λ2, . . . , λk on a f(λ1u1+λ2u2+· · ·+λkuk) =λ1f(u1) +λ2f(u2) +· · ·+λkf(uk) D´emonstration. (1)⇒(1bis) en faisant d’abord λ=λ0= 1, puis u0 = 0Rn. Et si (1bis) est v´erifi´ee alors (1) est v´erifi´e : pour montrer quef(λu+λ0u0) =λf(u) +λ0f(u0) on applique d’abord l’additivit´e, puis deux fois l’homog´en´eit´e.
La propri´et´e (2) entraˆıne (1), en prenant k = 2. Montrons par r´ecurrence que si (1) est vraie alors pour toutk≥2, l’applicationf transforme une combinaison lin´eaire `aktermesλ1u1+λ2u2+· · ·+λkuk en la combinaison lin´eaire=λ1f(u1) +λ2f(u2) +· · ·+λkf(uk).
C’est vrai pour k= 2 par d´efinition de la lin´earit´e. Ensuite supposons que ce soit vrai au rang k et consid´erons une combinaison lin´eaire `ak= 1 termes :w=λ1u1+λ2u2+· · ·+λkuk+λk+1uk+1. Posons u=λ1u1+λ2u2+· · ·+λkuk,λ= 1,u0=uk+1,λ0 =λk+1, de sorte quew=λu+λ0u0. D’apr`es (1) on a doncf(w) =λf(u) +λ0f(u0), soitf(w) =f(λ1u1+λ2u2+· · ·+λkuk) +λk+1f(uk+1). Par l’hypoth`ese de r´ecurrence on sait que f(λ1u1+λ2u2+· · ·+λkuk) = λ1f(u1) +λ2f(u2) +· · ·+λkf(uk). D’o`u la
propri´et´e au rang k+ 1.
Le r´esultat suivant montre comment calculer l’image d’un vecteur en utilisant la matrice de l’appli- cation lin´eaire.
Th´eor`eme 3.11.
Soit f :Rn→ Rp une application lin´eaire. Soit B une base de Rn et soit B0 une base de Rp. Posons A=Mat(f,B → B0).
Pour tout vecteur u ∈Rn soit X la colonne des coordonn´ees de u dans B. Notons f(u) = v, et soit Y la colonne des coordonn´ees de v dansB.
Alors Y =AX.
D´emonstration. NotonsB = (u1, . . . , un) et B0 = (u01, . . . , u0p). Ecrivons alorsu =x1u1+· · ·+xnun et v=y1u01+· · ·+ypu0p, de sorte queX=
x1
· · · xn
etY =
y1
· · · yp
.
Commev=f(u) etf est lin´eaire nous savons, d’apr`es le lemme 3.10, quev=x1f(u1)+· · ·+xnf(un).
D’apr`es la d´efinition de la matriceA, la colonne des coordonn´ees def(u1) dans la baseB0est justement la premi`ere colonne deA. Ainsif(u1) =a11u01+a21u02+· · ·+ap1u0p. Et on a de mˆeme
f(u2) =a12u01+a22u02+· · ·+ap2u0p, . . . , f(un) =a1nu01+a2nu02+· · ·+apnu0p
Dans la relation v=x1f(u1) +· · ·+xnf(un) rempla¸cons maintenant chaque f(uj) par son expression sur la baseB0, puis mettons chaque vecteur u0i en facteur. Nous obtenons alors :
v = x1(a11u01+a21u02+· · ·+ap1u0p) +· · ·+xn(a1nu01+a2nu02+· · ·+apnu0p)
= (x1a11+· · ·+xna1n)u01+· · ·+ (x1ap1+· · ·+xnapn)u0p CommeB0 est une base nous avons identifi´e les coordonn´ees dev :
y1 =x1a11+· · ·+xna1n=a11x1+· · ·+a1nxn
· · ·
yp =x1ap1+· · ·+xnapn =ap1x1+· · ·+apnxn
Ce syst`eme de p´equations traduit exactement l’´egalit´e matricielle Y =AX.
Th´eor`eme 3.12 (une application lin´eaire est compl`etement d´etermin´ee par sa matrice).
Soit A une matrice `a p lignes et ncolonnes. Soit B une base de Rn et soit B0 une base de Rp. Alors il existe une unique application lin´eaire f :Rn→Rp telle que Mat(f;B → B0) =A.
Formule pour f :
Notons c1 le vecteur de Rp dont les coordonn´ees dans B0 correspondent au premier vecteur colonne.
Introduisons de mˆeme le vecteur c2 de Rp dont les coordonn´ees dans B0 correspondent au deuxi`eme vecteur colonne, ainsi que c3, . . . , cn [c comme colonne]. Alors f est l’application qui envoie le vecteur u∈Rn de coordonn´ees (y1, . . . , yn) dans la base B sur le vecteur y1c1+· · ·+yncn. Autrement dit :
f(y1u1+· · ·+ynun) =y1c1+· · ·+yncn D´emonstration. PosonsB= (u1, u2, . . . , un).
• Unicit´e (et formule).
Supposons quef :Rn→Rp est une application lin´eaire et que Mat(f;B → B0) =A. Alors f(u1) est le vecteur dont les coordonn´ees dans B0 correspondent au premier vecteur colonne - c’est le vecteur que l’on a not´ec1. Ainsif(u1) =c1. De mˆemef(u2) =c2, . . . f(un) =cn. Maintenant, commef est lin´eaire, pour toute combinaison lin´eaireu=y1u1+· · ·+ynun on aura :
f(u) =f(y1u1+· · ·+ynun) =y1f(u1) +· · ·+ynf(un) =y1c1+· · ·+yncn.
On aurait aussi pu d´eduire l’unicit´e (et mˆeme la formule) de l’´equation matricielle des applications lin´eaires (th´eor`eme 3.11 ci-dessus). En effet d’apr`es cette ´equation nous savons que f(u) est le vecteur
dont les coordonn´ees dans B0 sont donn´ees par la colonneA
y1
· · · yn
. Or nous pouvons ´ecrire
y1
· · · yn
=y1
1
· · · 0
+· · ·+yn
0
· · · 1
=y1E1+· · ·+ynEn. Par la lin´earit´e du produit matriciel nous avons alors
A
y1
· · · yn
=y1AE1+· · ·+ynAEn
La colonneAEj est simplement laj-`eme colonne de A, et par d´efinition l’unique vecteur deRp dont les coordonn´ees dans B0 sontAEj estcj. Un calcul facile montre que y1AE1+· · ·+ynAEn est la colonne des coordonn´ees dans B0 de la combinaison lin´eairey1c1+· · ·+yncn. Ainsi nous retrouvons la formule f(u) =y1c1+· · ·+yncn.
• Existence.
Consid´erons l’application f :Rn →Rp d´efinie comme suit. Pour tout vecteuru de Rn soit (y1, . . . , yn) les coordonn´ees deu dansB : on posef(u) =y1c1+· · ·+yncn. V´erifions que f r´epond au probl`eme.
D’abordf est lin´eaire. En effet siu=y1u1+· · ·+ynun, siu0 =y10u1+· · ·+yn0un et siλ, λ0∈Rnous devons d´eterminerf(λu+λ0u0). Or il est facile de trouver les coordonn´ees (z1, . . . , zn) de w=λu+λ0u0, car
w=λ(y1u1+· · ·+ynun) +λ0(y10u1+· · ·+y0nun) = (λy1+λ0y10)u1+· · ·+ (λyn+λ0yn0)un , doncz1=λy1+λ0y10, . . . , zn=λyn+λ0yn0.
Par d´efinition de f cela donne f(w) = (λy1+λ0y01)c1+· · ·+ (λyn+λ0yn0)cn. En distribuant puis en regroupant, enfin en factorisant `a nouveau on obtient :
f(w) = (λy1c1+λ0y01c1) +· · ·+ (λyncn+λ0yn0cn) =λ(y1c1+· · ·+yncn) +λ0(y10c1+· · ·+y0ncn) ce qui signifie que f(λu+λ0u0) =λf(u) +λ0f(u0), autrement dit f est lin´eaire.
Reste `a v´erifier que Mat(f;B → B0) =A. Or (pour tout j= 1, . . . , n) on a f(uj) =cj par d´efinition mˆeme def. Et par la d´efinition decj cela veut exactement dire que la colonne des coordonn´ees def(uj) dansB0 est la j-`eme colonne de A.
3.5. Equation matricielle dans les bases canoniques. On reprend les r´esultats pr´ec´edents dans le cas o`u les bases sont les bases canoniques.
Soit f : Rn → Rp une application lin´eaire, soit A sa matrice dans les bases canoniques. D’apr`es la formule du th´eor`eme 3.12 on obtient
f(x1, . . . , xn) =x1c1+· · ·+xncn
o`uci est le vecteur dont les coordonn´ees dans la base canonique correspondent `a lai-´eme colonne deA, brefci est le i-´eme vecteur-colonne de la matrice A.
La i-`eme composante de f(x1, . . . , xn) est donc ai1x1+· · ·+ainxn, ce qui correspond au produit de la i-`eme ligne de A par le vecteur colonne X correspondant `a (x1, . . . , xn). Autrement dit la colonne correspondant `af(x1, . . . , xn) est AX. Donc f est la version vectorielle de l’application entre colonnes X7→AX : ainsif co¨ıncide avec l’application lin´eaire d´ej`a associ´ee `a une matrice.
Ceci prouve que toute application lin´eaire f :Rn → Rp est associ´ee `a une matrice convenablement choisie.
Une autre fa¸con de faire cette identification :
A
x1
x2 . . . xn
=A(x1
1 0 . . .
0
+x2
0 1 . . .
0
+· · ·+xn
0 0 . . .
1
) =x1A
1 0 . . .
0
+x2A
0 1 . . .
0
+· · ·+xnA
0 0 . . .
1
Or on sait que AEi =Ci, lai-`eme colonne de A. Donc finalement :
A
x1 x2 . . . xn
=x1C1 +x2C2+· · ·+xnCn C’est la version en colonnes de l’´equation
f(x1, x2, . . . , xn) =x1c1+x2c2+· · ·+xncn
4. Etude de l’´equation f(u) =v. Noyau et image d’une application lin´eaire.
Voici un probl`eme g´en´eral concernant les applications (lin´eaires)f :Rn→Rp :
un vecteurv dans l’espace d’arriv´eeRp ´etant fix´e, l’´equation f(u) =v a t-elle une solution enu? si oui, combien ? quel est l’ensemble de toutes les solutions ?
D´efinition 4.1 (noyau, image).
Soit f : Rn → Rp une application lin´eaire. Alors le noyau de f est l’ensemble Ker(f) = {u ∈ Rn, f(u) = 0Rp}. Et l’image def est l’ensemble Im(f) ={f(u), u∈Rn} ⊂Rp.
Ainsi Im(f) correspond `a l’ensemble des vecteursvpour lesquels l’´equationf(u) =vadmet au moins une solution en u. Et Ker(f) est l’ensemble des solutions de l’´equation f(u) = 0Rp.
Remarque 4.2. Soit f : Rn → Rp une application lin´eaire, soit v ∈ Rp. Alors l’´equation f(u) = v admet une solution si et seulement si v a un ant´ec´edent, c’est `a direv∈Im(f).
Donc ou bien v n’a aucun ant´ec´edent (v 6∈ Im(f)), et dans ce cas l’´equation f(u) = v n’a aucune solution (enu). Ou bienvadmet (au moins) un ant´ec´edentu0 (f(u0) =v doncv ∈Im(f)). Dans ce cas l’ensemble de tous les ant´ec´edents devest l’ensemble de tous les vecteurs de la formeu=u0+w, avec w∈Ker(f). En effet siu=u0+wavecw∈Ker(f) alors par lin´earit´ef(u) =f(u0)+f(w) =v+0Rp =v, donc u est un ant´ec´edent de v. R´eciproquement si f(u) = v, alors f(u)−f(u0) = v−v = 0. Or par lin´earit´e f(u)−f(u0) = f(u −u0), ce qui donne f(u −u0) = 0 et donc u−u0 ∈ Ker(f). Ainsi u= (u−u0) +u0 et nous venons de voir queu−u0∈Ker(f).
En utilisant l’interprˆetation matricielle des syst`emes, l’ensemble des solutions de l’´equationf(u) =v est aussi l’ensemble des solutions du syst`eme lin´eaire correspondant `a l’´equation matricielle AU = V. Nous en d´eduisons que l’ensemble des solutions d’un syst`eme lin´eaire est une solution particuli`ereU0 + l’ensemble des solutions du syst`eme lin´eaire homog`ene associ´e (souvenir, souvenir).
Proposition 4.3 (surjectivit´e et image, injectivit´e et noyau).
Soit f :Rn→Rp une application lin´eaire. Alors : 1) f est surjective ⇐⇒ Im(f) =Rp.
2) f est injective ⇐⇒ Ker(f) ={0}.
Rappelons qu’une application est surjective si et injective si .
D´emonstration. 1) Par d´efinition f est surjective ⇐⇒ tout vecteur v∈Rp a au moins un ant´ec´edent parf. Or justement Im(f) est l’ensemble des vecteursv∈Rp qui ont au moins un ant´ec´edent.
2) Sif est injective, alors 0Rp a au plus un ant´ec´edent. Mais 0Rn est toujours un ant´ec´edent (d’apr`es le lemme ). Donc Ker(f) ={0Rn.
R´eciproquement supposons Ker(f) ={0Rn}. Soitu, u0deux vecteurs deRnayant mˆeme imagevalors 0Rp =v−v=f(u)−f(u0). Orf est lin´eaire, doncf(u)−f(u0) =f(u−u0). On obtientf(u−u0) = 0Rp, donc u−u0 ∈ Ker(f). Par hypoth`ese Ker(f) = {0Rn}, donc u−u0 = 0Rn, autrement dit u = u0. On a donc montr´e que quand un vecteur v a deux ant´ec´edents u et u0 alors n´ecessairement u =u0 : c’est l’injectivit´e def.
Lemme 4.4 (le noyau et l’image sont des sous-espaces vectoriels). Soit f :Rn → Rp une application lin´eaire. Alors Im(f) est un sous-espace vectoriel deRp et Ker(f) est un sous-espace vectoriel de Rn. D´emonstration. Soientv, v0∈Im(f) et soientµ, µ0 ∈R. Par d´efinition de l’image il existeu∈Rntel que f(u) =v. Et de mˆeme il existeu0 ∈Rn tel quef(u0) =v0. Alorsf(µu+µ0u0) =µf(u) +µ0f(u0) =µv+ µ0v0, de sorte que la combinaison lin´eairemuv+µ0v0 est encore dans l’image. D’autre partf(0Rn = 0Rp, donc 0Rp ∈Im(f). Nous avons v´erifi´e les deux axiomes de sous-espace vectoriel pour Im(f).
Soient maintenantu, u0∈Ker(f) et soientλ, λ0 ∈R. Par d´efinition du noyau on af(u) =f(u0) = 0Rp. Donc en utilisant la lin´earit´e de f on obtient f(λu+λ0u0) = λf(u) +λ0f(u0) = 0Rp. Ainsi bien la combinaison lin´eaireλu+λ0u0 appartient bien au noyau. D’autre part f(0Rn = 0Rp, donc 0Rn∈Ker(f).
Nous avons v´erifi´e les deux axiomes de sous-espace vectoriel pour Ker(f).
Lemme 4.5. Soit f :Rn→Rp une application lin´eaire. Soit A sa matrice dans les bases canoniques.
Alors le noyau et l’image de f sont le noyau et l’image de A.
D´emonstration. On a vu quef correspond `a X7→AX.
Doncu= (x1, . . . , xn) est dans le noyau def ssi AX = 0, ce qui d´efinit le noyau de A!
Im(f) est{f(u), u∈Rn}. Or on a vu que f(u) =f(x1, . . . , xn) =x1c1+· · ·+xncno`u c1, . . . , cn sont les vecteurs colonnes de A.
Donc tout vecteur de Im(f) est combinaison lin´eaire des vecteurs colonnes deA. R´eciproquement une combinaison lin´eaire des vecteurs colonnes s’´ecritv =x1c1+· · ·+xncn pour un certain choix de r´eels x1, . . . , xn. Alors le vecteur u d´efinit par u = (x1, . . . , xn) v´erifie f(u) = x1c1 +· · ·+xncn = v, donc v∈Im(f).
Nous avons montr´e que Im(f) est l’ensemble des combinaisons lin´eaires des vecteurs colonnes - par d´efinition ceci est Im(A). D’o`u Im(f) = Im(A).
Corollaire 4.6. Ker(f) est l’ensemble des solutions du syst`eme homog`ene de matrice A (d’o`u un syst`eme d’´equations cart´esiennes du noyau, AX = 0). Et Im(f) est le sous-espace vectoriel engendr´e par les vecteurs colonnes de A (d’o`u une partie g´en´eratrice de l’image).
D´efinition 4.7. Le rang de f est rg(f) = dim (Im(f)). D’apr`es le lemme 4.5 c’est aussi le rang de la matrice de f dans les bases canoniques.
Pour trouver une base de Im(f)- et du mˆeme coup le rang de f - il suffit donc d’appliquer l’algorithme du rang `a la suite des vecteurs colonnes.
Proposition 4.8 (image d’une suite g´en´eratrice, image d’une suite li´ee).
Soit f : Rn → Rp une application lin´eaire. Soit (u1, . . . , uk) une suite de vecteur et pour chaque i= 1, . . . , k notons vi =f(ui).
1) Soit E le sous-espace vectoriel engendr´e par (u1, . . . , uk). Alors f(E) = {f(u), u ∈ E} est un sous-espace vectoriel, et il est engendr´e par la suite des images (v1, . . . , vk).
2) Si (u1, . . . , uk) est li´ee alors (v1, . . . , vk) est li´ee.
2bis) Si (v1, . . . , vk) est libre alors (u1, . . . , uk) est libre.
D´emonstration. 1) (On proc`ede comme lorsque E=Rn... ) Montrons quef(E) = Vect(v1, . . . , vk) - par double inclusion.
Si v ∈ f(E) alors v = f(u) pour un certain u ∈ E. Comme (u1, . . . , uk) engendre E, on peut trouver des coefficients λ1, . . . , λk tels que u = λ1u1 +· · ·+λkuk. Comme f est lin´eaire on obtient f(u) = f(λ1u1 +· · ·+λkuk) = λ1f(u1) +· · ·+λkf(uk), donc v = λ1v1+· · ·+λkvk. Autrement dit v∈Vect(v1, . . . , vk).
R´eciproquement si v ∈ Vect(v1, . . . , vk) alors v peut s’´ecrire v = λ1v1 +· · ·+λkvk pour certains coefficients r´eelsλi, et en posant u=λ1u1+· · ·+λkuk on voit que le calcul ci-dessus donne f(u) =v, doncv∈f(E).
2) Si (u1, . . . , uk) est li´ee alors il y a des coefficients r´eels non tous nuls λ1, . . . , λk tels que λ1u1 +
· · ·+λkuk = 0. En appliquant f on obtient f(λ1u1 +· · ·+λkuk) = f(0), donc par lin´earit´e de f λ1f(u1) +· · ·+λkf(uk) = 0. Autrement ditλ1v1+· · ·+λkvk= 0 ce qui prouve que (v1, . . . , vk) est li´ee, puisque l’un au moins des coefficients λ1, . . . , λk n’est pas nul.
2bis) C’est une cons´equence directe de 2) : si (u1, . . . , uk) ´etait li´ee alors (v1, . . . , vk) serait li´ee, or elle est suppos´ee libre.
Une application lin´eaire ne peut pas d´elier ce qui ´etait li´e, une application lin´eaire conserve les relations de d´ependance lin´eaire.
Lemme 4.9. Soit f :Rn→Rp une application lin´eaire et soitr son rang. Soit (v1, . . . , vr) une base de Im(f). Pour chaque vi soitui un vecteur deRn tel que f(ui) =vi.
Alors (u1, . . . , ur) est libre. De plus si on pose E=Vect(u1, . . . , ur) alors E⊕Ker(f) =Rn.
D´emonstration. (u1, . . . , ur) est libre car son image par f est (v1, . . . , vr), une base de Im(f), donc en particulier une suite libre.
Montrons d’abordE∩Ker(f) ={0}(la somme est directe).
Pour cela soitu∈E∩Ker(f). D’une partu∈E doncu peut s’´ecrireu=y1u1+· · ·+yrur. D’autre part u ∈Ker(f) donc f(u) = 0. Or par lin´earit´e f(u) = y1f(u1) +· · ·+yrf(ur) = y1v1+· · ·+yrvr. On obtient 0 = y1v1+· · ·+yrvr et comme (v1, . . . , vr) est libre, cela donne y1 =· · · = yr = 0, donc finalementu= 0. r´eciproquement bien sˆur 0∈E∩Ker(f) car une intersection de sous-espaces vectoriels est un sous-espace vectoriel.
Montrons enfin E+ Ker(f) =Rn (la somme est tout).
Pour w ∈ Rn consid´erons l’image v = f(w). Alors v ∈ Im(f). Donc on peut d´ecomposer v sur la base (v1, . . . , vr) : v = y1v1 +· · ·+yrvr. Posons u = y1u1 +· · ·+yrur. Par lin´earit´e on obtient f(u) =y1f(u1)+· · ·+yrf(ur) =y1v1+· · ·+yrvr=v, doncf(u) =f(w). Alorsf(w−u) =f(w)−f(u) = v−v= 0. Donc w−u∈Ker(f), et ainsiw= (w−u) +uappartient `a Ker(f) +E.
Nous avons montr´e que tout w ∈Rn est dans E+ Ker(f), soit l’inclusion Rn ⊂E + Ker(f). Mais
l’inclusion inverse est toujours vraie.
Le sous-espace E du lemme est suppl´ementaire du noyau. Donc d’apr`es la formule de la dimension dim (Ker(f)) + dim (E) =n. Mais justementE a mˆeme dimension que Im(f), le rangr. Nous obtenons donc :
Th´eor`eme 4.10 (th´eor`eme noyau-image). Soit f :Rn→Rp une application lin´eaire.
Alors dim(Ker(f)) +dim(Im(f)) =n, autrement dit dim(Ker(f)) +rg(f) =n.
Exemple 4.11.
1) Pour A =
1 2 3 6
les deux vecteurs colonnes sont (1,2) et (3,6) , donc proportionnels. Une base de l’image est donc (1,2). Alors n´ecessairement le noyau est une droite vectorielle. La relation (3,6) = 3(1,2) signifie que f(e2) = 3f(e1) donc f(3e1−e2) = 0, d’o`u le noyau contient le vecteur non
nul (3,−1). Mais comme le noyau et de dimension 1, ce vecteur non nul en est une base. Dans ce cas ((1,2),(3,−1)) est libre. Donc la droite image et la droite noyau sont suppl´ementaires dansR2. Mais ce n’est pas toujours le cas.
2) Ainsi pourA=
3 9
−1 −3
l’image est : Vect(3,−1) ; et le noyau est : Vect(3,−1), la mˆeme droite vectorielle. Donc mˆeme si la somme des deux dimension vaut bien 2, les deux sous-espaces ne sont pas suppl´ementaires.
Corollaire 4.12 (th´eor`eme noyau-image pour les matrices).
Soit A une matricep×n. Alors dim(Ker(A)) +rg(A) =n
D´emonstration. On applique le th´eor`eme noyau-image `a l’application lin´eaire f de matriceA dans les bases canoniques. Puis on conclut avec les identifications Im(A) = Im(f), Ker(A) = Ker(f).
On rappelle qu’une application f : Rn → Rp est bijective si tout ´el´ement v admet un et un seul ant´ec´edent (not´e f−1(v)).
Corollaire 4.13. Soit f : Rn → Rp une application lin´eaire. Si f est injective alors n ≤ p. Si est surjective alors n≥p. Et si f est bijective alors n=p.
D´emonstration. Nous avons dim (Ker(f)) + dim (Im(f)) =n.
Sif est injective alors Ker(f) ={0Rn}donc dim (Ker(f)) = 0 et dim (Im(f)) =n. Comme Im(f)⊂Rp il en r´esulte que n≤p.
Sif est surjective alors Im(f) =Rp, donc dim (Im(f)) =p et il en r´esulta que dim (Ker(f)) =n−p.
Comme une dimension est toujours≥0 il en r´esulte que n≥p.
Le cas bijectif est la combinaison des deux cas injectif et surjectif.
En particulier il n’existe pas d’application lin´eaire injective de Rn dansRp si n > p, ni d’application lin´eaire surjective si n < p.
On peut dire pr´ecis´ement ce qui se passe lorsqu’une application lin´eaire lie ce qui ´etait libre : Lemme 4.14 (relation de d´ependance lin´eaire entre vecteurs colonnes ⇒ vecteur du noyau).
Soit f : Rn → Rp une application lin´eaire. Soit (u1, . . . , uk) une suite libre de Rn telle que la suite (v1 =f(u1), . . . , vk =f(uk)) est li´ee. Alors toute relation de d´ependance lin´eaire α1v1+· · ·+αkvk= 0 non triviale (αi non tous nuls) entre les vi fabrique un vecteuru=α1u1+· · ·+αkuk = 0qui est dans le noyau et est non nul.
Corollaire 4.15.
Soit f :Rn → Rp une application lin´eaire. Si f est injective et (u1, . . . , uk) est une suite libre alors la suite (v1 =f(u1), . . . , vk=f(uk))est libre.
Proposition 4.16 (base du noyau).
Soitf :Rn→Rp une application lin´eaire de rangr. SoitAsa matrice dans les bases canoniques. Soit (c1, . . . , cn) la suite des vecteurs colonnes de A. On applique l’algorithme du rang `a (c1, . . . , cn), il reste donc r vecteurs. Autrement dit l’algorithme rejette n−r vecteurs-colonnes, car ils sont combinaisons lin´eaires de vecteurs-colonnes pr´ec´edents.
Pour chaque vecteur-colonne rejet´e ci, on obtient une relation de d´ependance lin´eaire entre certains vecteurs colonnes de la forme ci = α1c1 +· · ·+αi−1ci−1, ce qui fournit un vecteur du noyau ui = ei−(α1e1+· · ·+αi−1ei−1). Alors la suite des vecteurs du noyau ainsi obtenue est libre (car ´echelonn´ee) et donc forme en fait une base du noyau.
Exemple 4.17.
A=
1 1 1 1
1 −1 2 −3
2 0 3 −2
Dans ce cas f(x, y, z, t) = x−y+ 2z −3t,2x+ 3z−2t). La suite des vecteurs colonnes est (c1 = (1,1,2), c2 = (1,−1,0), c3 = (1,2,3), c4 = (1,−3,−2)).
On applique l’algorithme du rang : alors (c1, c2) est une base de Im(f) , et on trouve 2c3= 3c1−c2, etc4 =−c1+ 2c2. Ensuite commef de rang 2 on sait d’apr`es le TNI que dim (Ker(f)) = 2. La relation 2c3 = 3c1 −c2 s’´ecrit aussi 3c1−c2 −2c3 = 0, soit (3e1 −e2−2e3) = 0, donc v1 = (3,−1,−2,0) ∈ Ker(f). En utilisant la deuxi`eme relation obtenue (pour rejeterc4) on trouvef(e1−2e2+e4) = 0 donc v2 = (1,−2,0,1)∈Ker(f). La suite (v1, v2) est libre donc c’est une base de Ker(f).
5. Etude de l’´equation matricielle AU =V.
Donnons nous une matriceA `aplignes etncolonnes, ainsi qu’une matrice colonne `aplignes V. On va traduire certaines propri´et´es de l’´equationAU =V (o`uU est une matrice colonne `anlignes recherch´ee) en des propri´et´es de la matrice A. On sait que cela est ´equivalent `a rechercher les solutions du syst`eme lin´eaire associ´e `a A, de second membre V. Ou encore : r´esoudreAU =V revient `a r´esoudre f(u) = v pour f l’application lin´eaire dont la matrice dans les bases canoniques est A, et u, v les vecteurs de Rn,Rp correspondant aux colonnesU, V.
(1) En termes des vecteurs v, l’ensemble des V tels que AU = V poss`ede au moins une solution correspond exactement `a Im(A).
(2) De mˆeme, en termes des vecteurs u, l’ensemble des U tels que AU = 0 correspond exactement `a Ker(A).
(3) L’´equation a au moins une solution pour tout second membre V ssi Im(A) = Rp (donc en particuliern≥p). Par abus de langage on dit parfois queAestsurjective (mais en fait c’est l’application lin´eaire associ´ee `a Aqui l’est).
(4) L’´equation a au plus une solution pour tout second membre V ssi Ker(A) = {0Rn} (donc en particuliern≤p). Par abus de langage on dit parfois queAestinjective (mais en fait c’est l’application lin´eaire associ´ee `a Aqui l’est).
(5) L’´equation a toujours une et une seule solution ssi Im(A) =Rp et Ker(A) = {0Rn} (dans ce cas p=nla matrice est dite carr´ee de taille n).
Th´eor`eme 5.1 (caract´erisation des matrices inversibles). Soit A une matrice carr´ee de taille n. Les propri´et´es suivantes sont ´equivalentes :
(1) Im(A) =Rn et Ker(A) ={0Rn} (2) Im(A) =Rn
(2bis) la suite(c1, . . . , cn) des vecteurs colonne deA est une baseRn (3) Ker(A) ={0Rn}
(4) Il existe une matriceB carr´ee de taille n telle que AB=In (5) Il existe une matriceB carr´ee de taille n telle que BA=In
(6) Il existe une matriceB carr´ee de taille n telle que AB=In et BA=In.
Lorsque ces conditions sont v´erifi´ees on dit queAest inversibleet il existe alors exactement une matrice B v´erifiant l’une des trois derni`eres conditions - qu’on appelle l’inverse deA, et qu’on note A−1.
Remarque : la matrice A−1 v´erifie A.A−1 = A−1.A = In, elle est donc ´egalement inversible et son inverse est la matriceA de d´epart (prendre l’inverse est une op´eration sym´etrique).