• Aucun résultat trouvé

(1)COURS DE MATH ´EMATIQUES : ALG `EBRE LIN ´EAIRE III

N/A
N/A
Protected

Academic year: 2022

Partager "(1)COURS DE MATH ´EMATIQUES : ALG `EBRE LIN ´EAIRE III"

Copied!
18
0
0

Texte intégral

(1)

COURS DE MATH ´EMATIQUES : ALG `EBRE LIN ´EAIRE III.

Table des mati`eres

1. Op´erations sur les matrices. 1

1.1. Somme. 1

1.2. Produit par un r´eel. 2

1.3. Produit de deux matrices. 3

2. Interprˆetation matricielle des syst`emes lin´eaires. 5

3. Applications lin´eaires de Rndans Rp. 5

3.1. D´efinition et exemples. 5

3.2. Application lin´eaire associ´ee `a une matrice. 6

3.3. Matrices d’une application lin´eaire. 7

3.4. Equations matricielles d’une application lin´eaire. 8

3.5. Equation matricielle dans les bases canoniques. 10

4. Etude de l’´equation f(u) =v. Noyau et image d’une application lin´eaire. 11

5. Etude de l’´equation matricielle AU =V. 15

6. Matrices de passage. 17

1. Op´erations sur les matrices.

1.1. Somme.

Exemple 1.1 (somme de deux matrices).

(1) : 1 −1 0 2

+ 3 4 −2 −5

= 1 + 3 −1 + 4 0 + (−2) 2 + (−5)

= 4 3 −2 −3

(2) :

 2 0 1

−1

 +

 1 4

−2 0

=

 2 + 1 0 + 4 1 + (−2)

−1 + 0

=

 3 4

−1

−1

(3) :

−2 0 1

3 2 −4

+

4 5 6

−7 −8 −9

=

−2 + 4 0 + 5 1 + 6 3 + (−7) 2 + (−8) −4 + (−9)

=

2 5 7

−4 −6 −13

D´efinition 1.2 (somme de deux matrices). SoientAetBdeux matrices `aplignes etncolonnes. Soient aij etbij les coefficients de A et B situ´es `a l’intersection de lai-`eme ligne et de la j-`eme colonne. On d´efinit alors la matrice A+B (appel´eesomme de A et de B) comme la matrice dont le coefficient ij est aij +bij.

Remarque 1.3 (identifications des matrices p×navec des pn-vecteurs). Une matrice p×nc’est un tableau de pnnombres r´eels, donc cela contient la mˆeme information qu’un pn-vecteur, mais pas rang´e sous forme de suite. Alors l’op´eration A+B d´efinie ci-dessus correspond simplement `a l’addition des pn-vecteurs , elle se fait composantes par composantes.

Date: 9 avril 2009.

1

(2)

Attention cependant : en g´en´eral, il n’y a pas de mani`ere naturelle de transformer une matricep×n en pn-vecteur. Par exemple une matrice 2×2 peut correspondre `a plusieurs vecteurs deR4 :

1 2

−1 0

=A←→(1,2,−1,0)? A←→(1,−1,2,0)? A←→(1,0,−1,2)?

Il y a pourtant un cas o`u on a une identification plus naturelle que les autres : dans le cas des matrices colonnes.

D´efinition 1.4 (colonnes et vecteurs colonnes). Soit A une matricep×n. Rappelons que lapremi`ere colonne de Aest la matricep×1 de coefficients (ai1), ladeuxi`eme colonne de Aest la matricep×1 de coefficients (ai2), etc...

Lepremier vecteur colonne de Aest lep-vecteur (a11, a21, . . . , ap1), ledeuxi`eme vecteur colonne de A est le p-vecteur (a12, a22, . . . , ap2), etc...

Ne pas confondre la j-`eme colonne avec le j-`eme vecteur colonne, mˆeme s’ils se correspondent, et contiennent exactement la mˆeme information - simplement cette information n’est pas sous la mˆeme forme.

Exemple 1.5. Soit A =

1 2

−1 0

3 1

. Alors la premi`ere colonne de A est C1 =

 1

−1 3

, et le pre-

mier vecteur colonne de A est (1,−1,3). Et la matrice A contient la mˆeme information que la suite ((1,−1,3),(2,0,1)) de ses deux vecteurs colonnes.

D´efinition 1.6 (image d’une matrice). Soit A une matrice p×n. L’image de A est par d´efinition le sous-espace vectoriel de Rp engendr´e par les vecteurs colonnes. Nous le noterons Im(A).

D´efinition 1.7 (rang d’une matrice). SoitAune matricep×n. Lerang deA est par d´efinition le rang de la suite de ses vecteurs colonnes. Nous le noterons rg(A).

Ainsi rg(A) = dim (Im(A)).

D´efinition 1.8 (noyau d’une matrice). Soit A une matrice p×n. Le noyau deA est par d´efinition le sous-espace vectoriel deRn form´e par les solutions du syst`eme homog`ene associ´e `a la matriceA. Nous le noterons Ker(A).

1.2. Produit par un r´eel.

Exemple 1.9 (produit d’une matrice par un r´eel).

(1) : 3× 1 −1 0 2

= 3×1 3×(−1) 3×0 3×2

= 3 −3 0 6

(2) : (−2)×

 2 0 1

−1

=

(−2)×2 (−2)×0 (−2)×1 (−2)×(−1)

=

−4 0

−2 2

(3) : 4×

−2 0 1

3 2 −4

=

4×(−2) 4×0 4×1 4×3 4×2 4×(−4)

=

−8 0 4 12 8 −16

D´efinition 1.10 (produit d’une matrice par un r´eel). SoitAune matrices `aplignes etncolonnes, soit λ un r´eel. Soient aij le coefficient de A situ´e `a l’intersection de la i-`eme ligne et de la j-`eme colonne.

On d´efinit alors la matriceλA (appel´eeproduit de A parλ) comme la matrice dont le coefficient ij est λaij.

(3)

Remarque 1.11. La multiplication par un r´eel des p×n-matrices correspond `a la multiplication par un r´eel despn-vecteurs correspondants : la multiplication se fait composantes par composantes dans les deux cas.

Par exemple les matrices colonne `a p lignes correspondent `a l’espace vectoriel Rp avec ses deux op´erations. On peut faire des combinaisons lin´eaires de matrices colonnes, et plus g´en´eralement de matrices A1, . . . , Ak (du moment qu’elles sont toutes de mˆeme taille p×n).

Par exemple :

2

1 0 −1

0 −1 1

+ 3

−2 1 1

1 0 −2

=

−4 3 1

3 −2 −4

ou

a b c d

=a 1 0

0 0

+b 0 1

0 0

+c 0 0

1 0

+d 0 0

0 1

1.3. Produit de deux matrices.

Exemple 1.12 (quelques produits).

Une ligne fois une colonne : 3 −1 2

 1 2

−3

= 3×1 + (−1)×2 + 2×(−3)

= −5 Deux lignes fois une colonne :

3 −1 2

1 4 1

 1 2

−3

=

3×1 + (−1)×2 + 2×(−3) 1×1 + 4×2 + 1×(−3)

= −5

6

Deux lignes fois trois colonnes :

3 −1 2

1 4 1

1 −1 0

2 3 1

−3 1 2

=

3×1 + (−1)×2 + 2×(−3) 3×(−1) + (−1)×3 + 2×1 3×0 + (−1)×1 + 2×2 1×1 + 4×2 + 1×(−3) 1×(−1) + 4×3 + 1×1 1×0 + 4×1 + 1×2

=

−5 −4 3

6 12 6

D´efinition 1.13. Soient A etB deux matrices. On suppose que A a autant de colonnes que B a de lignes. Mettons que A a p lignes et n colonnes et B a n lignes et m colonnes. Soient aij et bij les coefficients de A et B situ´es `a l’intersection de la i-`eme ligne et de la j-`eme colonne. On d´efinit alors la matrice A.B (appel´ee produit de A par B) comme la matrice C `a p lignes et m colonnes dont le coefficientcij est :

cij =

k=n

X

k=1

aik.bkj.

Concr`etement : le coefficient ij du produit s’obtient en faisant le produit de la i-`eme ligne de A par la j-`eme colonne de B.

En particulier le produit AX, o`u A est une matrice de taille p×net X est un vecteur colonne `a n lignes est encore un vecteur colonne, cette fois `a p lignes.

Attention si une matrice An’est pascarr´ee (autant de lignes que de colonnes) il est impossible de la multiplier par elle-mˆeme !

(4)

Proposition 1.14 (premi`eres propri´et´es du produit de matrices).

(1) La multiplication par la matrice nulle donne la matrice nulle.

(2) SoitA une matrice ayant p lignes et ncolonnes, et soit Ej la matrice colonne `a p lignes ayant des 0 partout sauf `a laj-`eme ligne o`u il y a un 1. AlorsA.Ej est la j-`eme colonne deA.

(3) On note In la matrice n×n qui a des 1 sur la diagonale et des 0 ailleurs. Si A une matrice ayant p lignes et n colonnes, alors AIn =A. (Et Ip.A=A.) Egalement : A(λIn) =λA (noter queλIn est la matrice n×n qui a des λsur la diagonale et des 0 ailleurs).

(4) (associativit´e) A(BC) = (AB)C.

(5) (distributivit´e) Pour A une matrice p×n et B, B0 deux matrices n×m on a A(B +B0) = AB+AB0. PourA, A0 des matricesp×netB une matricen×mon a(A+A0).B=AB+A0B.

(6) A(λB) =λAB.

(7) A(λB+λ0B0) =λAB+λ0AB0.

Attention ! ! !: on peut avoirAB=AC avec A6= 0 etB 6=C.

Exemple :A= 1 0

0 0

, B= 0

0

, C= 0

1

. Attention ! ! !: en g´en´eral AB6=BA.

Exemple :A= 1 0

0 2

, B= 1 1

1 0

.

D´emonstration. (1) La matrice nulle, c’est la matrice dont tous les coefficients sont nuls. Donc la propri´et´e est ´evidente.

(2) D’abord A.Ej est bien une matrice colonne ayant p ligne. D’apr`es la formule du produit son i-`eme coefficient estai,1×0 +· · ·+ai,j−1×0 +ai,j×1 +ai,j+1×0 +· · ·+ai,n×0, autrement dit c’estaij. Donc A.Ej a les mˆemes coefficients que la j-`eme colonne de A - `a laquelle elle est donc ´egale.

(3) Laj-`eme colonne deAInest le produit deAavec laj-`eme colonne de In- c’est `a direEj. Donc laj-`eme colonne deAIn est laj-`eme colonne deA. Il en r´esulte queAIn=A.

Nous laissons la preuve de Ip.A=A etA(λIn) =λAau lecteur.

(4) Supposons A = (aij)1≤i≤p,1≤j≤m, B = (bjk)1≤j≤m,1≤k≤n, C = (ck`)1≤k≤n,1≤`≤l, de sorte que les produitsAB, BC,(AB)C, A(BC) sont bien d´efinis.

Le coefficient i, k de AB et le coefficient j, `de BC sont donn´es par les formules :

[AB]i,k =

j=m

X

j=1

ai,jbj,k,[BC]j,`=

k=n

X

k=1

bj,kck,`

Donc les coefficient i, `de (AB)C et deA(BC) sont donn´es par les formules :

[(AB)C]i,`=

k=n(

X

k=1 j=m

X

j=1

ai,jbj,k)ck,`,[A(BC)]i,` =

j=m

X

j=1

ai,j(

k=n

X

k=1

bj,kck,`)

Ainsi les coefficients i, `des deux matrices (AB)CetA(BC) sont tous deux ´egaux `a la mˆeme somme double :

X

1≤j≤m,1≤k≤n

ai,jbj,kck,`

(5)

(5) Le coefficient i, k de A(B+B0) est X

j

ai,j(bj,k+b0j,k) Et le coefficienti, k de AB+AB0 est

(X

j

ai,jbj,k) + (X

j

ai,jb0j,k)

qui est la premi`ere formule d´evelopp´ee. On a bien A(B+B0) =AB+AB0. On montre de la mˆeme mani`ere que (A+A0).B=AB+A0B.

(6) Le coefficient i, k de A(λB) est

X

j

ai,j(λbj,k) Et le coefficienti, k de λAB est

λ(X

j

ai,jbj,k) On a donc bienA(λB) =λAB.

(7) La relationA(λB+λ0B0) =λAB+λ0AB0 est la combinaison des deux propri´et´es pr´ec´edentes.

2. Interprˆetation matricielle des syst`emes lin´eaires.

Proposition 2.1. Soit A une matrice p×n et soit B une colonne `a p lignes. Consid´erons le syst`eme lin´eaire associ´e `a la matrice A et de second membre B :









a11x1+· · ·+a1nxn =b1 a21x1+· · ·+a2nxn =b2

. . .

an1x1+· · ·+annxn =bn Alors(x1, . . . , xn)est une solution si et seulement si la colonneX =

 x1

. . . xn

(qui correspond `a(x1, . . . , xn)) est solution de l’´equation matricielle AX =B.

Par exemple les solutions d’un syst`eme lin´eaire homog`ene (de matrice A) correspondent au noyau de Ker(A).

3. Applications lin´eaires de Rn dans Rp. 3.1. D´efinition et exemples.

D´efinition 3.1 (applications lin´eaires). Soitf :Rn→Rp une application. On dit quef est lin´eaire si f conserve les combinaisons lin´eaires, autrement dit si pour tout choix de deux vecteurs u, v de Rn et tout choix de deux r´eelsλ, µon af(λu+µv) =λf(u) +µf(v).

Exemple 3.2.

1) Consid´erons l’application f : R2 → R d´efinie par f(x, y) = x (la premi`ere composante). Alors f est lin´eaire. En effet pour u = (x, y), u0 = (x0, y0) et λ, λ0 ∈R on a λu+λ0u0 = (λx+λ0x0, λy+λ0y0), doncf(λu+λ0u0) =λx+λ0x0. Orλx+λ0x0 =λf(u) +λ0f(u0).

(6)

2) f(x, y, z) = 2x −y + 3z. Pour u = (x, y, z), u0 = (x0, y0, z0) et λ, λ0 ∈ R on a λu+λ0u0 = (λx+λ0x0, λy+λ0y0, λz+λ0z0), donc

f(λu+λ0u0) = 2(λx+λ0x0)−(λy+λ0y0) + 3(λz+λ0z0) =λ(2x−y+ 3z) +λ0(2x0−y0+ 3z0).

Et

λ(2x−y+ 3z) +λ0(2x0−y0+ 3z0) =λf(u) +λ0f(u0).

3) Plus g´en´eralement si on se fixe des r´eelsa1, . . . , an, alors l’application (x1, . . . , xn)7→a1x1+· · ·+ anxn est lin´eaire deRn dansR.

4) Les coordonn´ees sont lin´eaires.

SiBB est une base de Rn et si on note (y1(u), . . . , yn(u)) les coordonn´ees d’un vecteuru dans cette base, alors chacune des applications u7→y1(u), . . . , u7→yn(u) est lin´eaire.

5) Projections et sym´etries.

Supposons que Rn = E ⊕E0. Rappelons qu’alors tout vecteur u de Rn s’´ecrit d’une unique fa¸con u=v+v0 avec v∈E etv0 ∈E0. On pose p(u) = v, qu’on appelle le projet´e de u sur E parall`element

`

a E0. Alors u7→p(u) est lin´eaire (appel´ee laprojection sur E parall`element `a (ou dans la direction de) E0).

AinsiR2 =D⊕D0 avec D= Vect(1,1) etD0 = Vect(−2,1).

De mˆeme l’application s:u 7→ 2p(u)−u est lin´eaire, on l’appelle la sym´etrie par rapport `a E dans la direction de E0. Siv ∈E on as(v) = 2v−v =v, et siv0 ∈E0 on a s(v0) = 0−v0 =−v0. En g´en´eral siu=v+v0 avec v∈E etv0 ∈E0 on auras(u) =v−v0.

3.2. Application lin´eaire associ´ee `a une matrice.

Exemple 3.3 (exemple d’application associ´ee `a une matrice). Soit A=

2 3 1 −1

, de sorte que pour toute colonne X =

x y

on a AX =

2x+ 3y x−y

. Alors l’application associ´ee `a A envoie (x, y) sur (2x+ 3y, x−y)

Plus g´en´eralement, quand on a une matriceA`ap lignes etncolonnes, on peut consid´erer la fonction F qui envoie une colonne X `a n lignes sur la matrice colonne produit AX (qui, elle, a p lignes). En utilisant la correspondance naturelle entre les matrices colonnes et les vecteurs, on peut interprˆeter F :X 7→AX comme une fonction f :Rn→Rp, qui se trouve ˆetre lin´eaire :

Proposition 3.4 (l’application associ´ee `a une matrice). Soit A une matrice p×n. L’application f : Rn→Rpd´efinie parf(x1, . . . , xn) =le vecteur correspondant `a la colonne produitA

 x1 . . . xn

est lin´eaire, on l’appelle l’application lin´eaire associ´ee `aA.

D´emonstration. Dans les propri´et´es du produit de matrice, on a vu queA(λX+λ0X0) =λAX+λ0AX0, autrement ditF(λX+λ0X0) =λF(X) +λ0F(X0). Si on traduit cette relation en termes def, on trouve exactementF(λ(x1, . . . , xn) +λ0(x01, . . . , x0n)) =λF(x1, . . . , xn) +λ0F(x01, . . . , x0n).

Cela signifie que toute application f :Rn→Rp dont la i-`eme composante est de la forme fi(x1, . . . , xn) =ai1x1+· · ·+ainxn

est toujours lin´eaire (puisqu’une telle application est l’application lin´eaire associ´ee `aA= (aij)1≤i≤p,1≤j≤n).

Il n’est donc pas n´ecessaire de le rev´erifier `a chaque fois.

(7)

Par exemple (x, y, z, t) 7→ (3x−y+ 5z−4t, x+ 2y+z+ 3t,−x−y−z−t) est clairement lin´eaire (puisque associ´ee `a A =

3 −1 5 −4

1 2 1 3

−1 −1 −1 −1

). Nous verrons bientˆot que toute application lin´eaire f :Rn→Rp est de cette forme, donc est associ´ee `a une (unique) matriceA `a plignes et ncolonnes.

Notons d’ores et d´ej`a que par exemple f(x, y) =x+y+ 1n’est pas lin´eaire. En effetf(0,0) = 1, or sif ´etait lin´eaire elle devrait v´erifierf(0,0) = 0, d’apr`es le r´esultat suivant :

Lemme 3.5.

Soit f :Rn→Rp une application lin´eaire. Alors f(0Rn) = 0Rp.

D´emonstration. En effet 0Rn = 0Rn + 0Rn, donc f(0Rn) = f(0Rn + 0Rn) et comme f est lin´eaire cela donne f(0Rn) = f(0Rn) + f(0Rn) = 2f(0Rn). Mais le seul vecteur v ∈ Rp qui v´erifie v = 2v c’est

v= 0Rp.

3.3. Matrices d’une application lin´eaire.

D´efinition 3.6 (matrice d’une application lin´eaire dans des bases donn´ees).

Soit f :Rn →Rp une application lin´eaire. Soit B= (u1, . . . , un) une base de Rn et B0 = (u01, . . . , u0p) une base deRp.

Alors la matrice def de la baseBdans la baseB0 est une matricep×n, dont laj-`eme colonne donne les coordonn´ees dansB0 de f(uj). On la note Mat(f,B → B0).

Ainsi la matrice de f de B dans B0 est l’unique matrice A = (aij)1≤i≤p,1≤j≤n telle que pour tout j= 1, . . . , non a :

f(uj) =a1ju01+a2ju02+· · ·+anju0n

Notation. Lorsque p=net la base de l’espace d’arriv´eeB0 co¨ıncide avec la baseB au d´epart on note la matrice Mat(f;B) au lieu de Mat(f;B → B).

Exemple 3.7.

1) Soit f(x, y, z) = (y − 2z, x+y +z,3x −y −2z), qui est facilement lin´eaire. Soit B la base canonique, d´eterminons Mat(f;B). On a f(1,0,0) = (0,1,3), puis f(010,0) = (1,1,−1) et enfin f(0,0,1) = (−2,1,−2). Donc

Mat(f;B) =

0 1 −2

1 1 1

3 −1 −2

Pour rire (et comprendre qu’il faut faire tr`es attention aux bases choisies) : remarquons que la suite des vecteurs colonnes B0 = ((0,1,3),(1,1,−1),(−2,1,−2)) est une base ! Calculons alors Mat(f;B → B0) : on trouve ...

Mat(f;B → B0) =

1 0 0 0 1 0 0 0 1

=I3

2) Nouvel exemple : matrice d’une projection. Soit D = Vect(u1 = (1,0)) et soit D0 = Vect(u2 = (−1,1)). Comme B= ((1,0),(−1,1)) est une base de R2 (elle est ´evidemment libre...) nous savons que D⊕D0 =R2. Soit alors p:R2 →R2 qui envoie tout vecteuru=v+v0 sur p(u) =v.

Il n’est pas imm´ediat de trouver p(x, y). Mais il est imm´ediat de d´eterminer Mat(p;B). En effet trouver cette matrice, c’est ´ecrire chacun des vecteursp(u1), p(u2) sur la base (u1, u2). Oru1 ∈D, donc u1 =u1+ 0 etp(u1) =u1. Alors que u2 ∈D0 doncu2= 0 +u2 etp(u2) = 0. D’o`u :

Mat(p;B) = 1 0

0 0

(8)

En fait comme (u1, u2) est une base on peut ´ecrire les vecteurs de base canonique sur cette base : e1 = u1 et e2 = u2 +u1, et se servir de cette d´ecomposition pour trouver Mat(p;B2 → B2). Alors p(e1) =p(u1) =u1 =e1 etp(e2) =p(u2+u1) =p(u2) +p(u1) = 0 +u1=e1. Ainsi :

Mat(p;B2 → B2) = 1 1

0 0

Ensuitep(x, y) =p(xe1+ye2) =xp(e1) +yp(e2) = (x+y)e1 = (x+y,0).

Remarque 3.8(la matrice d´epend des bases consid´er´ees !). Comme on vient de le voir sur les exemples la matrice d´epend tr`es fortement des bases choisies.

Proposition 3.9.

Consid´erons une matrice A `a p lignes et n colonnes, et l’application F : X 7→ AX envoyant une colonne `a nlignes sur une colonne `a p lignes. Soitf :Rn→Rp l’application lin´eaire correspondante.

Alors la matrice de f de la base canonique de Rn dans la base canonique de Rp est la matrice A de d´epart.

D´emonstration. En effet, par d´efinition de f, l’image f(ej) du j-`eme vecteur de la base canonique correspond `a la colonne AEj. Et nous savons queAEj est la j-`eme colonne deA.

3.4. Equations matricielles d’une application lin´eaire.

On remarque d’abord qu’une application lin´eaire pr´eserve les combinaisons lin´eaires `a un nombre arbitraire de termes (et non pas seulement `a deux termes, comme dans la d´efinition).

Lemme 3.10 (d’autres caract´erisations de la lin´earit´e).

Soit f :Rn→Rp une application. Alors les propri´et´es suivantes sont ´equivalentes :

(1) pour deux vecteurs quelconquesu, v dansRn et deux r´eels quelconquesλ, λ0 on a f(λu+λ0u0) = λf(u) +λ0f(u0) (autrement dit f est lin´eaire) ;

(2) (1bis) pour deux vecteurs quelconquesu, vdansRn on af(u+v) =f(u) +f(v) (f est additive) et pour tout vecteuru∈Rn et tout r´eel λon a f(λu) =λf(u) (f est homog`ene (de degr´e 1)) (3) pour tout entierk≥2, pour toute suite de kvecteurs u1, u2, . . . , uk dansRn et toute suite de k

r´eels λ1, λ2, . . . , λk on a f(λ1u12u2+· · ·+λkuk) =λ1f(u1) +λ2f(u2) +· · ·+λkf(uk) D´emonstration. (1)⇒(1bis) en faisant d’abord λ=λ0= 1, puis u0 = 0Rn. Et si (1bis) est v´erifi´ee alors (1) est v´erifi´e : pour montrer quef(λu+λ0u0) =λf(u) +λ0f(u0) on applique d’abord l’additivit´e, puis deux fois l’homog´en´eit´e.

La propri´et´e (2) entraˆıne (1), en prenant k = 2. Montrons par r´ecurrence que si (1) est vraie alors pour toutk≥2, l’applicationf transforme une combinaison lin´eaire `aktermesλ1u12u2+· · ·+λkuk en la combinaison lin´eaire=λ1f(u1) +λ2f(u2) +· · ·+λkf(uk).

C’est vrai pour k= 2 par d´efinition de la lin´earit´e. Ensuite supposons que ce soit vrai au rang k et consid´erons une combinaison lin´eaire `ak= 1 termes :w=λ1u12u2+· · ·+λkukk+1uk+1. Posons u=λ1u12u2+· · ·+λkuk,λ= 1,u0=uk+10k+1, de sorte quew=λu+λ0u0. D’apr`es (1) on a doncf(w) =λf(u) +λ0f(u0), soitf(w) =f(λ1u12u2+· · ·+λkuk) +λk+1f(uk+1). Par l’hypoth`ese de r´ecurrence on sait que f(λ1u12u2+· · ·+λkuk) = λ1f(u1) +λ2f(u2) +· · ·+λkf(uk). D’o`u la

propri´et´e au rang k+ 1.

Le r´esultat suivant montre comment calculer l’image d’un vecteur en utilisant la matrice de l’appli- cation lin´eaire.

Th´eor`eme 3.11.

Soit f :Rn→ Rp une application lin´eaire. Soit B une base de Rn et soit B0 une base de Rp. Posons A=Mat(f,B → B0).

(9)

Pour tout vecteur u ∈Rn soit X la colonne des coordonn´ees de u dans B. Notons f(u) = v, et soit Y la colonne des coordonn´ees de v dansB.

Alors Y =AX.

D´emonstration. NotonsB = (u1, . . . , un) et B0 = (u01, . . . , u0p). Ecrivons alorsu =x1u1+· · ·+xnun et v=y1u01+· · ·+ypu0p, de sorte queX=

 x1

· · · xn

 etY =

 y1

· · · yp

.

Commev=f(u) etf est lin´eaire nous savons, d’apr`es le lemme 3.10, quev=x1f(u1)+· · ·+xnf(un).

D’apr`es la d´efinition de la matriceA, la colonne des coordonn´ees def(u1) dans la baseB0est justement la premi`ere colonne deA. Ainsif(u1) =a11u01+a21u02+· · ·+ap1u0p. Et on a de mˆeme

f(u2) =a12u01+a22u02+· · ·+ap2u0p, . . . , f(un) =a1nu01+a2nu02+· · ·+apnu0p

Dans la relation v=x1f(u1) +· · ·+xnf(un) rempla¸cons maintenant chaque f(uj) par son expression sur la baseB0, puis mettons chaque vecteur u0i en facteur. Nous obtenons alors :

v = x1(a11u01+a21u02+· · ·+ap1u0p) +· · ·+xn(a1nu01+a2nu02+· · ·+apnu0p)

= (x1a11+· · ·+xna1n)u01+· · ·+ (x1ap1+· · ·+xnapn)u0p CommeB0 est une base nous avons identifi´e les coordonn´ees dev :





y1 =x1a11+· · ·+xna1n=a11x1+· · ·+a1nxn

· · ·

yp =x1ap1+· · ·+xnapn =ap1x1+· · ·+apnxn

Ce syst`eme de p´equations traduit exactement l’´egalit´e matricielle Y =AX.

Th´eor`eme 3.12 (une application lin´eaire est compl`etement d´etermin´ee par sa matrice).

Soit A une matrice `a p lignes et ncolonnes. Soit B une base de Rn et soit B0 une base de Rp. Alors il existe une unique application lin´eaire f :Rn→Rp telle que Mat(f;B → B0) =A.

Formule pour f :

Notons c1 le vecteur de Rp dont les coordonn´ees dans B0 correspondent au premier vecteur colonne.

Introduisons de mˆeme le vecteur c2 de Rp dont les coordonn´ees dans B0 correspondent au deuxi`eme vecteur colonne, ainsi que c3, . . . , cn [c comme colonne]. Alors f est l’application qui envoie le vecteur u∈Rn de coordonn´ees (y1, . . . , yn) dans la base B sur le vecteur y1c1+· · ·+yncn. Autrement dit :

f(y1u1+· · ·+ynun) =y1c1+· · ·+yncn D´emonstration. PosonsB= (u1, u2, . . . , un).

• Unicit´e (et formule).

Supposons quef :Rn→Rp est une application lin´eaire et que Mat(f;B → B0) =A. Alors f(u1) est le vecteur dont les coordonn´ees dans B0 correspondent au premier vecteur colonne - c’est le vecteur que l’on a not´ec1. Ainsif(u1) =c1. De mˆemef(u2) =c2, . . . f(un) =cn. Maintenant, commef est lin´eaire, pour toute combinaison lin´eaireu=y1u1+· · ·+ynun on aura :

f(u) =f(y1u1+· · ·+ynun) =y1f(u1) +· · ·+ynf(un) =y1c1+· · ·+yncn.

On aurait aussi pu d´eduire l’unicit´e (et mˆeme la formule) de l’´equation matricielle des applications lin´eaires (th´eor`eme 3.11 ci-dessus). En effet d’apr`es cette ´equation nous savons que f(u) est le vecteur

(10)

dont les coordonn´ees dans B0 sont donn´ees par la colonneA

 y1

· · · yn

. Or nous pouvons ´ecrire

 y1

· · · yn

=y1

 1

· · · 0

+· · ·+yn

 0

· · · 1

=y1E1+· · ·+ynEn. Par la lin´earit´e du produit matriciel nous avons alors

A

 y1

· · · yn

=y1AE1+· · ·+ynAEn

La colonneAEj est simplement laj-`eme colonne de A, et par d´efinition l’unique vecteur deRp dont les coordonn´ees dans B0 sontAEj estcj. Un calcul facile montre que y1AE1+· · ·+ynAEn est la colonne des coordonn´ees dans B0 de la combinaison lin´eairey1c1+· · ·+yncn. Ainsi nous retrouvons la formule f(u) =y1c1+· · ·+yncn.

• Existence.

Consid´erons l’application f :Rn →Rp d´efinie comme suit. Pour tout vecteuru de Rn soit (y1, . . . , yn) les coordonn´ees deu dansB : on posef(u) =y1c1+· · ·+yncn. V´erifions que f r´epond au probl`eme.

D’abordf est lin´eaire. En effet siu=y1u1+· · ·+ynun, siu0 =y10u1+· · ·+yn0un et siλ, λ0∈Rnous devons d´eterminerf(λu+λ0u0). Or il est facile de trouver les coordonn´ees (z1, . . . , zn) de w=λu+λ0u0, car

w=λ(y1u1+· · ·+ynun) +λ0(y10u1+· · ·+y0nun) = (λy10y10)u1+· · ·+ (λyn0yn0)un , doncz1=λy10y10, . . . , zn=λyn0yn0.

Par d´efinition de f cela donne f(w) = (λy10y01)c1+· · ·+ (λyn0yn0)cn. En distribuant puis en regroupant, enfin en factorisant `a nouveau on obtient :

f(w) = (λy1c10y01c1) +· · ·+ (λyncn0yn0cn) =λ(y1c1+· · ·+yncn) +λ0(y10c1+· · ·+y0ncn) ce qui signifie que f(λu+λ0u0) =λf(u) +λ0f(u0), autrement dit f est lin´eaire.

Reste `a v´erifier que Mat(f;B → B0) =A. Or (pour tout j= 1, . . . , n) on a f(uj) =cj par d´efinition mˆeme def. Et par la d´efinition decj cela veut exactement dire que la colonne des coordonn´ees def(uj) dansB0 est la j-`eme colonne de A.

3.5. Equation matricielle dans les bases canoniques. On reprend les r´esultats pr´ec´edents dans le cas o`u les bases sont les bases canoniques.

Soit f : Rn → Rp une application lin´eaire, soit A sa matrice dans les bases canoniques. D’apr`es la formule du th´eor`eme 3.12 on obtient

f(x1, . . . , xn) =x1c1+· · ·+xncn

o`uci est le vecteur dont les coordonn´ees dans la base canonique correspondent `a lai-´eme colonne deA, brefci est le i-´eme vecteur-colonne de la matrice A.

La i-`eme composante de f(x1, . . . , xn) est donc ai1x1+· · ·+ainxn, ce qui correspond au produit de la i-`eme ligne de A par le vecteur colonne X correspondant `a (x1, . . . , xn). Autrement dit la colonne correspondant `af(x1, . . . , xn) est AX. Donc f est la version vectorielle de l’application entre colonnes X7→AX : ainsif co¨ıncide avec l’application lin´eaire d´ej`a associ´ee `a une matrice.

Ceci prouve que toute application lin´eaire f :Rn → Rp est associ´ee `a une matrice convenablement choisie.

Une autre fa¸con de faire cette identification :

(11)

A

 x1

x2 . . . xn

=A(x1

 1 0 . . .

0

 +x2

 0 1 . . .

0

+· · ·+xn

 0 0 . . .

1

) =x1A

 1 0 . . .

0

 +x2A

 0 1 . . .

0

+· · ·+xnA

 0 0 . . .

1

Or on sait que AEi =Ci, lai-`eme colonne de A. Donc finalement :

A

 x1 x2 . . . xn

=x1C1 +x2C2+· · ·+xnCn C’est la version en colonnes de l’´equation

f(x1, x2, . . . , xn) =x1c1+x2c2+· · ·+xncn

4. Etude de l’´equation f(u) =v. Noyau et image d’une application lin´eaire.

Voici un probl`eme g´en´eral concernant les applications (lin´eaires)f :Rn→Rp :

un vecteurv dans l’espace d’arriv´eeRp ´etant fix´e, l’´equation f(u) =v a t-elle une solution enu? si oui, combien ? quel est l’ensemble de toutes les solutions ?

D´efinition 4.1 (noyau, image).

Soit f : Rn → Rp une application lin´eaire. Alors le noyau de f est l’ensemble Ker(f) = {u ∈ Rn, f(u) = 0Rp}. Et l’image def est l’ensemble Im(f) ={f(u), u∈Rn} ⊂Rp.

Ainsi Im(f) correspond `a l’ensemble des vecteursvpour lesquels l’´equationf(u) =vadmet au moins une solution en u. Et Ker(f) est l’ensemble des solutions de l’´equation f(u) = 0Rp.

Remarque 4.2. Soit f : Rn → Rp une application lin´eaire, soit v ∈ Rp. Alors l’´equation f(u) = v admet une solution si et seulement si v a un ant´ec´edent, c’est `a direv∈Im(f).

Donc ou bien v n’a aucun ant´ec´edent (v 6∈ Im(f)), et dans ce cas l’´equation f(u) = v n’a aucune solution (enu). Ou bienvadmet (au moins) un ant´ec´edentu0 (f(u0) =v doncv ∈Im(f)). Dans ce cas l’ensemble de tous les ant´ec´edents devest l’ensemble de tous les vecteurs de la formeu=u0+w, avec w∈Ker(f). En effet siu=u0+wavecw∈Ker(f) alors par lin´earit´ef(u) =f(u0)+f(w) =v+0Rp =v, donc u est un ant´ec´edent de v. R´eciproquement si f(u) = v, alors f(u)−f(u0) = v−v = 0. Or par lin´earit´e f(u)−f(u0) = f(u −u0), ce qui donne f(u −u0) = 0 et donc u−u0 ∈ Ker(f). Ainsi u= (u−u0) +u0 et nous venons de voir queu−u0∈Ker(f).

En utilisant l’interprˆetation matricielle des syst`emes, l’ensemble des solutions de l’´equationf(u) =v est aussi l’ensemble des solutions du syst`eme lin´eaire correspondant `a l’´equation matricielle AU = V. Nous en d´eduisons que l’ensemble des solutions d’un syst`eme lin´eaire est une solution particuli`ereU0 + l’ensemble des solutions du syst`eme lin´eaire homog`ene associ´e (souvenir, souvenir).

Proposition 4.3 (surjectivit´e et image, injectivit´e et noyau).

Soit f :Rn→Rp une application lin´eaire. Alors : 1) f est surjective ⇐⇒ Im(f) =Rp.

2) f est injective ⇐⇒ Ker(f) ={0}.

Rappelons qu’une application est surjective si et injective si .

D´emonstration. 1) Par d´efinition f est surjective ⇐⇒ tout vecteur v∈Rp a au moins un ant´ec´edent parf. Or justement Im(f) est l’ensemble des vecteursv∈Rp qui ont au moins un ant´ec´edent.

2) Sif est injective, alors 0Rp a au plus un ant´ec´edent. Mais 0Rn est toujours un ant´ec´edent (d’apr`es le lemme ). Donc Ker(f) ={0Rn.

(12)

R´eciproquement supposons Ker(f) ={0Rn}. Soitu, u0deux vecteurs deRnayant mˆeme imagevalors 0Rp =v−v=f(u)−f(u0). Orf est lin´eaire, doncf(u)−f(u0) =f(u−u0). On obtientf(u−u0) = 0Rp, donc u−u0 ∈ Ker(f). Par hypoth`ese Ker(f) = {0Rn}, donc u−u0 = 0Rn, autrement dit u = u0. On a donc montr´e que quand un vecteur v a deux ant´ec´edents u et u0 alors n´ecessairement u =u0 : c’est l’injectivit´e def.

Lemme 4.4 (le noyau et l’image sont des sous-espaces vectoriels). Soit f :Rn → Rp une application lin´eaire. Alors Im(f) est un sous-espace vectoriel deRp et Ker(f) est un sous-espace vectoriel de Rn. D´emonstration. Soientv, v0∈Im(f) et soientµ, µ0 ∈R. Par d´efinition de l’image il existeu∈Rntel que f(u) =v. Et de mˆeme il existeu0 ∈Rn tel quef(u0) =v0. Alorsf(µu+µ0u0) =µf(u) +µ0f(u0) =µv+ µ0v0, de sorte que la combinaison lin´eairemuv+µ0v0 est encore dans l’image. D’autre partf(0Rn = 0Rp, donc 0Rp ∈Im(f). Nous avons v´erifi´e les deux axiomes de sous-espace vectoriel pour Im(f).

Soient maintenantu, u0∈Ker(f) et soientλ, λ0 ∈R. Par d´efinition du noyau on af(u) =f(u0) = 0Rp. Donc en utilisant la lin´earit´e de f on obtient f(λu+λ0u0) = λf(u) +λ0f(u0) = 0Rp. Ainsi bien la combinaison lin´eaireλu+λ0u0 appartient bien au noyau. D’autre part f(0Rn = 0Rp, donc 0Rn∈Ker(f).

Nous avons v´erifi´e les deux axiomes de sous-espace vectoriel pour Ker(f).

Lemme 4.5. Soit f :Rn→Rp une application lin´eaire. Soit A sa matrice dans les bases canoniques.

Alors le noyau et l’image de f sont le noyau et l’image de A.

D´emonstration. On a vu quef correspond `a X7→AX.

Doncu= (x1, . . . , xn) est dans le noyau def ssi AX = 0, ce qui d´efinit le noyau de A!

Im(f) est{f(u), u∈Rn}. Or on a vu que f(u) =f(x1, . . . , xn) =x1c1+· · ·+xncno`u c1, . . . , cn sont les vecteurs colonnes de A.

Donc tout vecteur de Im(f) est combinaison lin´eaire des vecteurs colonnes deA. R´eciproquement une combinaison lin´eaire des vecteurs colonnes s’´ecritv =x1c1+· · ·+xncn pour un certain choix de r´eels x1, . . . , xn. Alors le vecteur u d´efinit par u = (x1, . . . , xn) v´erifie f(u) = x1c1 +· · ·+xncn = v, donc v∈Im(f).

Nous avons montr´e que Im(f) est l’ensemble des combinaisons lin´eaires des vecteurs colonnes - par d´efinition ceci est Im(A). D’o`u Im(f) = Im(A).

Corollaire 4.6. Ker(f) est l’ensemble des solutions du syst`eme homog`ene de matrice A (d’o`u un syst`eme d’´equations cart´esiennes du noyau, AX = 0). Et Im(f) est le sous-espace vectoriel engendr´e par les vecteurs colonnes de A (d’o`u une partie g´en´eratrice de l’image).

D´efinition 4.7. Le rang de f est rg(f) = dim (Im(f)). D’apr`es le lemme 4.5 c’est aussi le rang de la matrice de f dans les bases canoniques.

Pour trouver une base de Im(f)- et du mˆeme coup le rang de f - il suffit donc d’appliquer l’algorithme du rang `a la suite des vecteurs colonnes.

Proposition 4.8 (image d’une suite g´en´eratrice, image d’une suite li´ee).

Soit f : Rn → Rp une application lin´eaire. Soit (u1, . . . , uk) une suite de vecteur et pour chaque i= 1, . . . , k notons vi =f(ui).

1) Soit E le sous-espace vectoriel engendr´e par (u1, . . . , uk). Alors f(E) = {f(u), u ∈ E} est un sous-espace vectoriel, et il est engendr´e par la suite des images (v1, . . . , vk).

2) Si (u1, . . . , uk) est li´ee alors (v1, . . . , vk) est li´ee.

2bis) Si (v1, . . . , vk) est libre alors (u1, . . . , uk) est libre.

(13)

D´emonstration. 1) (On proc`ede comme lorsque E=Rn... ) Montrons quef(E) = Vect(v1, . . . , vk) - par double inclusion.

Si v ∈ f(E) alors v = f(u) pour un certain u ∈ E. Comme (u1, . . . , uk) engendre E, on peut trouver des coefficients λ1, . . . , λk tels que u = λ1u1 +· · ·+λkuk. Comme f est lin´eaire on obtient f(u) = f(λ1u1 +· · ·+λkuk) = λ1f(u1) +· · ·+λkf(uk), donc v = λ1v1+· · ·+λkvk. Autrement dit v∈Vect(v1, . . . , vk).

R´eciproquement si v ∈ Vect(v1, . . . , vk) alors v peut s’´ecrire v = λ1v1 +· · ·+λkvk pour certains coefficients r´eelsλi, et en posant u=λ1u1+· · ·+λkuk on voit que le calcul ci-dessus donne f(u) =v, doncv∈f(E).

2) Si (u1, . . . , uk) est li´ee alors il y a des coefficients r´eels non tous nuls λ1, . . . , λk tels que λ1u1 +

· · ·+λkuk = 0. En appliquant f on obtient f(λ1u1 +· · ·+λkuk) = f(0), donc par lin´earit´e de f λ1f(u1) +· · ·+λkf(uk) = 0. Autrement ditλ1v1+· · ·+λkvk= 0 ce qui prouve que (v1, . . . , vk) est li´ee, puisque l’un au moins des coefficients λ1, . . . , λk n’est pas nul.

2bis) C’est une cons´equence directe de 2) : si (u1, . . . , uk) ´etait li´ee alors (v1, . . . , vk) serait li´ee, or elle est suppos´ee libre.

Une application lin´eaire ne peut pas d´elier ce qui ´etait li´e, une application lin´eaire conserve les relations de d´ependance lin´eaire.

Lemme 4.9. Soit f :Rn→Rp une application lin´eaire et soitr son rang. Soit (v1, . . . , vr) une base de Im(f). Pour chaque vi soitui un vecteur deRn tel que f(ui) =vi.

Alors (u1, . . . , ur) est libre. De plus si on pose E=Vect(u1, . . . , ur) alors E⊕Ker(f) =Rn.

D´emonstration. (u1, . . . , ur) est libre car son image par f est (v1, . . . , vr), une base de Im(f), donc en particulier une suite libre.

Montrons d’abordE∩Ker(f) ={0}(la somme est directe).

Pour cela soitu∈E∩Ker(f). D’une partu∈E doncu peut s’´ecrireu=y1u1+· · ·+yrur. D’autre part u ∈Ker(f) donc f(u) = 0. Or par lin´earit´e f(u) = y1f(u1) +· · ·+yrf(ur) = y1v1+· · ·+yrvr. On obtient 0 = y1v1+· · ·+yrvr et comme (v1, . . . , vr) est libre, cela donne y1 =· · · = yr = 0, donc finalementu= 0. r´eciproquement bien sˆur 0∈E∩Ker(f) car une intersection de sous-espaces vectoriels est un sous-espace vectoriel.

Montrons enfin E+ Ker(f) =Rn (la somme est tout).

Pour w ∈ Rn consid´erons l’image v = f(w). Alors v ∈ Im(f). Donc on peut d´ecomposer v sur la base (v1, . . . , vr) : v = y1v1 +· · ·+yrvr. Posons u = y1u1 +· · ·+yrur. Par lin´earit´e on obtient f(u) =y1f(u1)+· · ·+yrf(ur) =y1v1+· · ·+yrvr=v, doncf(u) =f(w). Alorsf(w−u) =f(w)−f(u) = v−v= 0. Donc w−u∈Ker(f), et ainsiw= (w−u) +uappartient `a Ker(f) +E.

Nous avons montr´e que tout w ∈Rn est dans E+ Ker(f), soit l’inclusion Rn ⊂E + Ker(f). Mais

l’inclusion inverse est toujours vraie.

Le sous-espace E du lemme est suppl´ementaire du noyau. Donc d’apr`es la formule de la dimension dim (Ker(f)) + dim (E) =n. Mais justementE a mˆeme dimension que Im(f), le rangr. Nous obtenons donc :

Th´eor`eme 4.10 (th´eor`eme noyau-image). Soit f :Rn→Rp une application lin´eaire.

Alors dim(Ker(f)) +dim(Im(f)) =n, autrement dit dim(Ker(f)) +rg(f) =n.

Exemple 4.11.

1) Pour A =

1 2 3 6

les deux vecteurs colonnes sont (1,2) et (3,6) , donc proportionnels. Une base de l’image est donc (1,2). Alors n´ecessairement le noyau est une droite vectorielle. La relation (3,6) = 3(1,2) signifie que f(e2) = 3f(e1) donc f(3e1−e2) = 0, d’o`u le noyau contient le vecteur non

(14)

nul (3,−1). Mais comme le noyau et de dimension 1, ce vecteur non nul en est une base. Dans ce cas ((1,2),(3,−1)) est libre. Donc la droite image et la droite noyau sont suppl´ementaires dansR2. Mais ce n’est pas toujours le cas.

2) Ainsi pourA=

3 9

−1 −3

l’image est : Vect(3,−1) ; et le noyau est : Vect(3,−1), la mˆeme droite vectorielle. Donc mˆeme si la somme des deux dimension vaut bien 2, les deux sous-espaces ne sont pas suppl´ementaires.

Corollaire 4.12 (th´eor`eme noyau-image pour les matrices).

Soit A une matricep×n. Alors dim(Ker(A)) +rg(A) =n

D´emonstration. On applique le th´eor`eme noyau-image `a l’application lin´eaire f de matriceA dans les bases canoniques. Puis on conclut avec les identifications Im(A) = Im(f), Ker(A) = Ker(f).

On rappelle qu’une application f : Rn → Rp est bijective si tout ´el´ement v admet un et un seul ant´ec´edent (not´e f−1(v)).

Corollaire 4.13. Soit f : Rn → Rp une application lin´eaire. Si f est injective alors n ≤ p. Si est surjective alors n≥p. Et si f est bijective alors n=p.

D´emonstration. Nous avons dim (Ker(f)) + dim (Im(f)) =n.

Sif est injective alors Ker(f) ={0Rn}donc dim (Ker(f)) = 0 et dim (Im(f)) =n. Comme Im(f)⊂Rp il en r´esulte que n≤p.

Sif est surjective alors Im(f) =Rp, donc dim (Im(f)) =p et il en r´esulta que dim (Ker(f)) =n−p.

Comme une dimension est toujours≥0 il en r´esulte que n≥p.

Le cas bijectif est la combinaison des deux cas injectif et surjectif.

En particulier il n’existe pas d’application lin´eaire injective de Rn dansRp si n > p, ni d’application lin´eaire surjective si n < p.

On peut dire pr´ecis´ement ce qui se passe lorsqu’une application lin´eaire lie ce qui ´etait libre : Lemme 4.14 (relation de d´ependance lin´eaire entre vecteurs colonnes ⇒ vecteur du noyau).

Soit f : Rn → Rp une application lin´eaire. Soit (u1, . . . , uk) une suite libre de Rn telle que la suite (v1 =f(u1), . . . , vk =f(uk)) est li´ee. Alors toute relation de d´ependance lin´eaire α1v1+· · ·+αkvk= 0 non triviale (αi non tous nuls) entre les vi fabrique un vecteuru=α1u1+· · ·+αkuk = 0qui est dans le noyau et est non nul.

Corollaire 4.15.

Soit f :Rn → Rp une application lin´eaire. Si f est injective et (u1, . . . , uk) est une suite libre alors la suite (v1 =f(u1), . . . , vk=f(uk))est libre.

Proposition 4.16 (base du noyau).

Soitf :Rn→Rp une application lin´eaire de rangr. SoitAsa matrice dans les bases canoniques. Soit (c1, . . . , cn) la suite des vecteurs colonnes de A. On applique l’algorithme du rang `a (c1, . . . , cn), il reste donc r vecteurs. Autrement dit l’algorithme rejette n−r vecteurs-colonnes, car ils sont combinaisons lin´eaires de vecteurs-colonnes pr´ec´edents.

Pour chaque vecteur-colonne rejet´e ci, on obtient une relation de d´ependance lin´eaire entre certains vecteurs colonnes de la forme ci = α1c1 +· · ·+αi−1ci−1, ce qui fournit un vecteur du noyau ui = ei−(α1e1+· · ·+αi−1ei−1). Alors la suite des vecteurs du noyau ainsi obtenue est libre (car ´echelonn´ee) et donc forme en fait une base du noyau.

(15)

Exemple 4.17.

A=

1 1 1 1

1 −1 2 −3

2 0 3 −2

Dans ce cas f(x, y, z, t) = x−y+ 2z −3t,2x+ 3z−2t). La suite des vecteurs colonnes est (c1 = (1,1,2), c2 = (1,−1,0), c3 = (1,2,3), c4 = (1,−3,−2)).

On applique l’algorithme du rang : alors (c1, c2) est une base de Im(f) , et on trouve 2c3= 3c1−c2, etc4 =−c1+ 2c2. Ensuite commef de rang 2 on sait d’apr`es le TNI que dim (Ker(f)) = 2. La relation 2c3 = 3c1 −c2 s’´ecrit aussi 3c1−c2 −2c3 = 0, soit (3e1 −e2−2e3) = 0, donc v1 = (3,−1,−2,0) ∈ Ker(f). En utilisant la deuxi`eme relation obtenue (pour rejeterc4) on trouvef(e1−2e2+e4) = 0 donc v2 = (1,−2,0,1)∈Ker(f). La suite (v1, v2) est libre donc c’est une base de Ker(f).

5. Etude de l’´equation matricielle AU =V.

Donnons nous une matriceA `aplignes etncolonnes, ainsi qu’une matrice colonne `aplignes V. On va traduire certaines propri´et´es de l’´equationAU =V (o`uU est une matrice colonne `anlignes recherch´ee) en des propri´et´es de la matrice A. On sait que cela est ´equivalent `a rechercher les solutions du syst`eme lin´eaire associ´e `a A, de second membre V. Ou encore : r´esoudreAU =V revient `a r´esoudre f(u) = v pour f l’application lin´eaire dont la matrice dans les bases canoniques est A, et u, v les vecteurs de Rn,Rp correspondant aux colonnesU, V.

(1) En termes des vecteurs v, l’ensemble des V tels que AU = V poss`ede au moins une solution correspond exactement `a Im(A).

(2) De mˆeme, en termes des vecteurs u, l’ensemble des U tels que AU = 0 correspond exactement `a Ker(A).

(3) L’´equation a au moins une solution pour tout second membre V ssi Im(A) = Rp (donc en particuliern≥p). Par abus de langage on dit parfois queAestsurjective (mais en fait c’est l’application lin´eaire associ´ee `a Aqui l’est).

(4) L’´equation a au plus une solution pour tout second membre V ssi Ker(A) = {0Rn} (donc en particuliern≤p). Par abus de langage on dit parfois queAestinjective (mais en fait c’est l’application lin´eaire associ´ee `a Aqui l’est).

(5) L’´equation a toujours une et une seule solution ssi Im(A) =Rp et Ker(A) = {0Rn} (dans ce cas p=nla matrice est dite carr´ee de taille n).

Th´eor`eme 5.1 (caract´erisation des matrices inversibles). Soit A une matrice carr´ee de taille n. Les propri´et´es suivantes sont ´equivalentes :

(1) Im(A) =Rn et Ker(A) ={0Rn} (2) Im(A) =Rn

(2bis) la suite(c1, . . . , cn) des vecteurs colonne deA est une baseRn (3) Ker(A) ={0Rn}

(4) Il existe une matriceB carr´ee de taille n telle que AB=In (5) Il existe une matriceB carr´ee de taille n telle que BA=In

(6) Il existe une matriceB carr´ee de taille n telle que AB=In et BA=In.

Lorsque ces conditions sont v´erifi´ees on dit queAest inversibleet il existe alors exactement une matrice B v´erifiant l’une des trois derni`eres conditions - qu’on appelle l’inverse deA, et qu’on note A−1.

Remarque : la matrice A−1 v´erifie A.A−1 = A−1.A = In, elle est donc ´egalement inversible et son inverse est la matriceA de d´epart (prendre l’inverse est une op´eration sym´etrique).

Références

Documents relatifs

Peut-on en conclure qu’elle n’est ni injective, ni

Le caissier vous rend la monnaie avec des pi` eces de 1 euro, 10 centimes d’euro et 2

On dit qu’une matrice ´ echelonn´ ee (en colonnes) est r´ eduite si tous ses pivots valent 1 et si tous les coefficients ` a gauche d’un pivot sont nuls.. Lorsque’lle est r´

Jordan qui est la matrice des coefficients d’un syst` eme dont l’ensemble des solutions est encore V. Cette hypoth` ese ne restreint pas la g´ en´ eralit´ e, car on peut toujours

Matrices (canoniques) des applications lin´ eaires.

On note la multiplication externe des applications sans aucun signe (ou parfois avec un point) exactement comme la multiplication externe des vecteurs.

Matrices canoniques des applications lin´ eaires..

puisqu’on sait faire des combinaisons lin´ eaires de matrices, on sait d´ efinir les relations lin´ eaires entre matrices... Syst` emes libres