• Aucun résultat trouvé

I.1Applicationlinéairecanoniquementassociéeàunematrice IReprésentationd’unapplicationlinéaireparunema-trice MatricesetapplicationslinéairesIntroduction

N/A
N/A
Protected

Academic year: 2022

Partager "I.1Applicationlinéairecanoniquementassociéeàunematrice IReprésentationd’unapplicationlinéaireparunema-trice MatricesetapplicationslinéairesIntroduction"

Copied!
8
0
0

Texte intégral

(1)

Matrices et applications linéaires Introduction

Un hommage à René Descartes (17ième siècle) : en fixant un repère (resp. une base) un point M (resp. un vecteur) objet géométrique est «numérisé» et devient alors un couple de nombres, ses coordonnées ( x, y ), donc un objet numérique. De même une droite est alors représentée par une équation cartésienne par exemple y = 2x − 3 ou une équation paramétrée (x(t), y(t)) = (t, 2t − 3), c’est-à-dire une relation vérifiée par les coordonnées. Tout objet géo- métrique admet ainsi une représentation numérique plus ou moins simple. Le cercle unité a par exemple pour équation cartésienne x

2

+ y

2

= 1, ou pour paramétrage (x(t), y(t)) = (cos t, sin t), le demi-plan supérieur a pour équation y > 0... De même, les transformations géométriques classiques, translations, rotations, symétries, homothéties (on dit «zoom» en infographie), se- ront codées par des matrices. Cette numérisation, permet de faire de la géométrie en faisant des calculs dans le monde numérique. Il est intéressant à ce titre de regarder avec votre moteur de recherche favori les mathématiques utilisées en infographie...

Si l’on change de repère ou de base, les coordonnées et les équations sont modifiées. Certaines bases permettent d’avoir des calculs plus simples. La problématique du changement de base est donc un enjeu majeur de l’Algèbre Linéaire, qui est en quelque sorte «la géométrie dans des espaces de dimension quelconque».

La morale de ce chapitre pourrait se résumer à ceci : je veux étudier un endomorphisme u de E. Pour cela je cherche une «bonne» base dans laquelle la matrice de u est «sympatique», l’idéal étant qu’elle soit diagonale (car faire des calculs avec une matrice diagonale, c’est très simple). Pour trouver de bonnes bases, très souvent, on décompose E en somme directe de

«bons» sous-espaces, et on recolle les bases des sous-espaces pour obtenir une base de E.

L’année prochaine, vous apprendrez des techniques qui permettent d’obtenir ces bonnes bases, les polynômes annulateurs de matrices joueront un rôle majeur.

I Représentation d’un application linéaire par une ma- trice

I.1 Application linéaire canoniquement associée à une matrice

On considère la matrice A de M

3,2

( K ) et l’application linéaire u : K

2

→ K

3

définies par :

A =

2 3

−4 5

3 7

et u ( x, y ) = (2 x + 3 y, −4 x + 5 y, 3 x + 7 y ) . Observons le produit matriciel

2 3

−4 5

3 7

x y

!

=

2x + 3y

−4x + 5y 3 x + 7 y

.

(2)

On dit que u ∈ L( K

2

, K

3

) est l’application linéaire canoniquement associée à la matrice A . On peut l’indentifier à l’application linéaire ˜ u : M

2,1

( K ) → M

3,1

( K ) définie par ˜ u(X) = AX .

Grâce à cette identification, on pourra parler de noyau et d’image de la matrice A , qui s’identifieront au noyau et à l’image de l’application linéaire ˜ u. On remarque alors que :

• les colonnes de A engendrent l’image

• les lignes de A donnent un système d’équations cartésiennes du noyau.

Remarquons enfin que si ( e

1

, e

2

) est la base canonique de K

2

et ( f

1

, f

2

, f

3

) celle de K

3

, on a :

u(e

1

) = f(1, 0) = (2, 4, −3) = 2f

1

+ 4f

2

− 3f

3

et u(e

2

) = 3f

1

+ 5f

2

+ 7f

3

.

Autrement dit, les coefficients de ces deux combinaisons linéaires constituent les colonnes de la matrice A . C’est ce point de vue avec les bases que nous allons généraliser dans la sous-section suivante.

I.2 Matrice d’une application linéaire

Définition 1 Soit u ∈ L(E, F ), B

E

= (e

1

, . . . , e

p

) une base de E et B

F

= (f

1

, . . . , f

n

) une base de F . On appelle matrice de u relative aux bases B

E

, B

F

, la matrice de M

n,p

( K ) notée Mat

BE,BF

(u) dont les coefficients a

i,j

sont définies par la relation :

∀j ∈ J1, pK, u(e

j

) =

n

X

i=1

a

i,j

f

i

.

Réciproquement si A = (a

i,j

) est une matrice de M

n,p

( K ), il existe une unique application linéaire u ∈ L(E, F ) telle que A = Mat

BE,BF

(u).

Remarques :

• si u est un endomorphisme de E donc E = F , on prend en général la même base de

«départ» et d’«arrivée». On note alors plus simplement Mat

B

(u) au lieu de Mat

B,B

(u).

• soit F = ( x

1

, . . . , x

p

) est une famille de vecteurs de F dont les coordonnées dans B

F

sont définies par :

j ∈ J1 , p K , x

j

=

n

X

i=1

a

i,j

f

i

.

On dit que la matrice A = ( a

i,j

) est la matrice de la famille F dans la base B

F

.

En particulier, si un vecteur x de F a pour coordonnées ( c

1

, . . . , c

n

) dans B

F

, sa matrice

dans B

F

est la matrice colonne

t

(c

1

· · · c

n

).

(3)

I.3 Un véritable dictionnaire : correspondance entre opérations sur les applications linéaires et opérations sur les matrices

Proposition 2 (Dictionnaire et opérations)

1. Soit u et v dans L(E, F ), λ ∈ K , B

E

= (e

1

, . . . , e

p

) une base de E et B

F

= (f

1

, . . . , f

n

) une base de F . Alors

Mat

BE,BF

(λu + v) = λMat

BE,BF

(u) + Mat

BE,BF

(v) 2. Soit u ∈ L( E, F ), v ∈ L( F, G ). Alors

Mat

BE,BG

(v ◦ u) = Mat

BF,BG

(v) × Mat

BE,BF

(u) Remarques :

• comme on a prouvé que la composée d’applications linéaires était bilinéaire et associative, on en déduit que le produit matriciel est bilinéaire et associatif.

• A l’inverse, une information sur la matrice donne de l’information sur l’application li- néaire : si par exemple A

p

= 0 où A est la matrice d’un endomorphisme u , alors u

p

= 0.

• L’application u 7→ Mat

BE,BF

(u) est ainsi un isomorphisme entre les espaces vectoriels L(E, F ) et M

n,p

( K ). Cela permet de retrouver que

dim L(E, F ) = dim E × dim F.

Proposition 3 (Dictionnaire et inverse) Soit E et F deux K -espaces vectoriels de même dimension de bases respectives B

E

et B

F

. Soit u ∈ L(E, F ) et A sa matrice relative aux bases B et B

. Alors on a : u est un isomorphisme de E sur F ssi la matrice A est inversible, et alors

(Mat

B,B

(u))

−1

= Mat

B,B

(u

−1

)

Remarque : cela fournit un nouveau moyen de prouver qu’une matrice est inversible. Par exemple, on peut montrer que la matrice A ∈ M

n+1

( K ) définie par a

i,j

=

ji−1−1

est inversible car matrice dans la base canonique de K

n+1

[ X ] de l’endomorphisme bijectif P 7→ P ( X + 1).

Corollaire 4 (Inverse à gauche ou à droite suffit) Soit A ∈ M

n

( K ). Les trois proposi- tions suivantes sont équivalentes :

A est inversible

• il existe B ∈ M

n

( K ) tel que AB = I

n

.

• il existe C ∈ M

n

( K ) tel que CA = I

n

.

Remarque : la preuve de ce corollaire repose sur le fait qu’un endomorphisme en dimension finie est bijectif ssi il est injectif.

Proposition 5 (Dictionnaire et image d’un vecteur) Soit u ∈ L(E, F ) et A sa matrice dans les bases B

E

et B

F

. Soit x un vecteur de E et X la matrice colonne de ses coordonnées dans B

E

. Alors la matrice colonne des coordonnées du vecteur u(x) dans la base B

F

est la matrice colonne AX.

Remarque : on retrouve donc que si u est l’endormorphisme de K

2

canoniquement associé à la matrice A = 1 3

2 4

!

, on a u (2 , 3) = (11 , 16), car 1 3 2 4

!

2 3

!

= 11 16

!

(4)

I.4 Notion de rang d’une matrice

Proposition 6 (dictionnaire) Soit A ∈ M

n,p

( K ). On appelle rang de la matrice A le rang de la famille (C

1

, . . . , C

p

) de K

n

formée par les colonnes de A. Le rang de A est aussi égal au rang de toute application linéaire représentée par A par rapport à n’importe quel couple de base.

Application : on calcule rg(A), on en déduit la dimension du noyau et on obtient alors rapidement une base du noyau sans résoudre le système linéaire AX = 0. Par exemple, soit u l’endomorphisme de K

3

canoniquement associé à la matrice

A =

2 2 6 3 0 9 4 4 12

.

On a rg(A) = rg(C

1

, C

2

, C

3

) = rg(C

1

, C

2

)=2 car C

3

= 3C

1

et (C

1

, C

2

) libre. Ainsi Im u est engendré par (2 , 3 , 4) et (2 , 0 , 4). De plus, par le théorème du rang dim Ker u = 3 − rg( u ) = 1.

Or C

3

= 3 C

1

donne u ( e

3

) = 3 u ( e

1

) donc u ( e

3

− 3 e

1

) = 0. Le vecteur e

3

− 3 e

1

constitue donc une base du noyau car de dimension 1.

Corollaire 7 (Propriétés du rang d’une matrice)

• Soit A ∈ M

n,p

( K ) on a rg(A) 6 min(n, p).

• Soit A ∈ M

n

( K ), A est inversible ssi rg( A ) = n .

• Le rang d’une matrice n’est pas modifié si on la mulitiplie par une matrice inversible.

Nous verrons dans la dernière section, que les opérations élémentaires conservent le rang d’une matrice, et qu’on pourra ainsi appliquer l’algorithme du pivot de Gauss pour calculer le rang d’une matrice.

II Changements de base

Problématique : soit u ∈ L( E, F ), On note A sa matrice relative au couple de base (B

E

, B

F

) et A

sa matrice relative au couple de base (B

E

, B

F

). Quel est le lien matriciel entre les matrices A et A

?

II.1 Matrices de passage

Proposition 8 Si B et si B

sont deux bases de E , on appelle matrice de passage de B à B

la matrice notée Pass(B, B

) dont les colonnes sont les coordonnées des vecteurs de B

dans la

base B. On a aussi Pass(B, B

) = Mat

B,B

(id

E

), ainsi l’application identité étant bijective, on

en déduit (DICO) que Pass(B , B

) est inversible et que son inverse est Pass(B

, B).

(5)

II.2 Formules de changement de base

Proposition 9 (Relation entre deux matrices d’une même application linéaire) Si u ∈ L( E, F ), (avec des notations évidentes) si A = Mat

BE,BF

( u ) , A

= Mat

BE,BF

( u ), P = Pass(B

E

, B

E

) et Q = Pass(B

F

, B

F

), on a

A = QA

P

−1

.

En particulier si u est un endomorphisme donc E = F , on a A = P A

P

−1

.

Exemple «ma première réduction» : soit u l’endomorphisme de K

2

canoniquement associé

à A = 5 4

−3 −2

!

. On sait que le polynôme P = X

2

− Tr(A)X + det A = (X − 1)(X − 2) est annulateur de A . Les noyaux Ker( u − id) et Ker( u − 2 id) vont ainsi jouer un rôle crucial

1

: ils sont engendrés respectivement par u

1

= (1, 1) et u

2

= (4, −3). La famille (u

1

, u

2

) est une base de K

2

et dans cette base, la matrice de u est D = diag(1, 2). On a ainsi A = P DP

−1

avec

P = 1 4

−1 −3

!

.

Proposition 10 (Formule de changement de coordonnées) Soit x un vecteur de E. Soit X la matrice colonne des coordonnées de x dans la base B et X

la matrice colonne des coor- données de x dans la base B

. On note P = Pass(B, B

). Alors

X = P X

et X

= P

−1

X.

II.3 Applications des changements de base

En trouvant de «bonnes bases», les objets géométriques (vecteurs ou applications linéaires) ont des représentations numériques plus simples qui facilitent les calculs :

• réduction de coniques en prenant une base polaire.

• calculs de puissances et de racines carrées de matrices

• calculs de commutants

• classification des matrices à équivalence et à similitude près (cf section suivante).

III Classification des matrices

III.1 Matrices équivalentes

Définition 11 Deux matrices A et B de M

n,p

( K ) sont dites équivalentes s’il existe deux ma- trices inversibles PGL

n

( K ) et QGL

p

( K ) telles que A = P BQ. Cela revient à dire que A et B codent une même application linéaire mais relativement à deux couples de base (éventuel- lement) différents.

1. Vous verrez l’année prochaine, «le lemme des noyaux» qui justifie que l’on auraK2= Ker(u−id)⊕Ker(u− 2 id) car (X−2) et (X−1) sont premiers entre eux.

(6)

Remarque : la relation «matrices équivalentes» est une relation d’équivalence sur M

n,p

( K ).

Le résultat suivant donne un représentant simple des matrices de rang r .

Théorème 12 (Représentant d’une matrice de rang r) Soit A une matrice de M

n,p

( K ) de rang r. Alors A est équivalente à la matrice bloc J

r

= diag(I

r

, 0).

Corollaire 13 (Le rang, invariant total) Deux matrices de M

n,p

( K ) sont équivalentes ssi elles ont même rang.

Corollaire 14 (Conservation du rang par transposition) Une matrice et sa transposée ont même rang.

Puisque le rang d’une matrice est le rang des ses vecteurs colonnes, par transposition, on en déduit qu’il est aussi égal au rang de ses vecteurs lignes.

III.2 Matrices semblables

Définition 15 Deux matrices A et B de M

n

( K ) sont dites semblables s’il existe une matrice inversible PGL

n

( K ) telles que A = P BP

−1

. Cela revient à dire que A et B codent un même endomorphisme mais dans une base différente (sauf si A = B).

Remarques :

• la notion de matrices semblables ne vaut que pour des matrices carrées.

• la relation «matrices semblables» est une relation d’équivalence sur M

n

( K ).

• Si deux matrices sont semblables, elles sont en particulier équivalentes. La réciproque est fausse, car par exemple I

2

et diag(1, 1) sont équivalentes car de rang 2 mais non semblables car la seule matrice semblable à I

n

est I

n

.

Proposition 16 (Deux invariants de similitude) Si deux matrices sont semblables, alors elles ont même trace et même déterminant. Les réciproques sont fausses.

Par exemple, la matrice nulle et la matrice élémentaire E

1,2

ont une trace et un déterminant nul mais ne sont pas semblables.

On étudiera en TD la description complète des classes de similitude de M

2

( K ). Le cas général est très difficile, il repose essentiellement sur la classification des matrices nilpotentes, que l’on étudiera toutefois en exercice pour M

3

( K ).

IV Matrices d’opérations élémentaires, application au calcul de rang

IV.1 Conservation du rang par opérations élémentaires

Soit i et j deux entiers distincts de {1 , . . . , n } et λ ∈ K .

On appelle opération élémentaire sur les lignes d’une matrice :

(7)

• ajouter à la ligne i la ligne j , codée par L

i

L

i

+ λL

j

• multiplier la ligne i par un scalaire λ non nul, codée par L

i

λL

i

• permuter les lignes i et j, codée par L

i

L

j

On définit de même les opérations élémentaires sur les colonnes d’une matrice.

Les opérations élémentaires sont inversibles, l’inverse des précédentes étant respectivement : L

i

L

i

λL

j

L

i

← 1

λ L

i

L

i

L

j

Effectuer ces opérations élémentaires sur une matrice A revient à multiplier A par des matrices.

• On note T

i,j

( λ ) la matrice obtenue à partir de I

n

en ajoutant à la ligne i , λ fois la ligne j . On dit que T

i,j

(λ) est une matrice de transvection.

• On note D

i

(λ) la matrice obtenue à partir de I

n

en multipliant la ligne i par λ.

Lorsque λ est non nul, on dit que D

i

( λ ) est une matrice de dilatation.

• On note P

i,j

la matrice obtenue à partir de I

n

en permutant les lignes i et j. On dit que P

i,j

est une matrice de transposition.

Appliquer les opérations élémentaires L

i

L

i

+ λL

j

, L

i

λL

i

et L

i

L

j

à une matrice A revient à multiplier A par la gauche par les matrices respectives T

i,j

(λ), D

i

(λ) et P

i,j

.

Appliquer les opérations élémentaires C

i

C

i

+ λC

j

, C

i

λC

i

et C

i

C

j

à une matrice A revient à multiplier A par la droite par les matrices respectives T

j,i

(λ), D

i

(λ) et P

i,j

(attention, il n’y a pas d’erreur c’est bien T

j,i

(λ)).

Les opérations élémentaires étant inversibles, il en est de même de leur matrice associée, le tableau ci-dessous le résume.

opération L

i

L

i

+ λL

j

L

i

λL

i

L

i

L

j

opération inverse L

i

L

i

λL

j

L

i

← 1

λ L

i

L

i

L

j

matrice T

i,j

( λ ) D

i

( λ ) P

i,j

inverse matrice T

i,j

(−λ) D

i

1 λ

P

i,j

Puisque le rang d’une matrice n’est pas modifié si on la multiplie par une matrice inversible, on en déduit

Proposition 17 Si l’on transforme une matrice par une opération élémentaire sur une ligne ou une colonne, son rang n’est pas modifié.

On pourra donc appliquer l’algorithme du pivot de Gauss, pour transformer une matrice en

une matrice triangulaire ou échelonnée pour en calculer le rang.

(8)

IV.2 Complément : notion de matrice échelonnée

On note M

n,p

( R ) l’ensemble des matrices à coefficients réels à n lignes et p colonnes.

Définition 18 Une matrice A de M

n,p

( R ) est dite échelonnée (en ligne) si :

• les lignes nulles de A sont en-dessous de toutes les lignes non nulles.

• chaque ligne non nulle de A commence avec strictement plus de zéros que la précédente.

On appelle pivot, le premier coefficient non nul d’une ligne non nulle.

Exemples : considérons les matrices

A =

0 2 3 0 1

0 0 0 3 5

0 0 0 0 7

0 0 0 0 0

et B =

0 2 3 0 1 0 0 0 3 5 0 0 0 1 0 0 0 0 0 0

.

La matrice A est échelonnée, elle possède trois pivots que l’on a encadrés. En revanche, la matrice B n’est pas échelonnée car sa troisième ligne commence avec le même nombre de zéros que la seconde ligne.

Voici d’autres exemples de matrices échelonnées, où les pivots sont symbolisés par des carrés et les étoiles désignent des coefficients pouvant prendre n’importe quelle valeur.

C =

∗ ∗ ∗

0 ∗ ∗

0 0 0 0

0 0 0 0

D =

0 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗

0 0 0 ∗ ∗ ∗ ∗ ∗ ∗

0 0 0 0 ∗ ∗ ∗ ∗ ∗

0 0 0 0 0 ∗ ∗ ∗ ∗

0 0 0 0 0 0 0 0 ∗

Remarque : si une matrice carrée est échelonnée en ligne, alors elle est forcément triangulaire supérieure. En revanche une matrice triangulaire supérieure n’est pas forcément échelonnée, prendre 0 1

0 1

!

.

L’algorithme du pivot de Gauss permet d’échelonner une matrice A à l’aide des opérations élémentaires. On obtient alors son rang en comptant le nombre de pivots.

Proposition 19 Le rang d’une matrice échelonnée est égal à son nombre de pivots.

Par exemple, si on revient aux exemples du début de cette sous-section, le rang des matrices

A, C et D vaut respectivement 3, 2 et 5.

Références

Documents relatifs

Dans une classe de 30 élèves, déterminer la probabilité qu'au moins deux personnes soient nées le même jour?.

3- Ne cessant d’améliorer notre commande, nous avons constaté qu’un phénomène d’oscillation de l’eau autour d’un niveau provoque de nombreux démarrage et arrêt

Le joueur dont deux de ses nombres sont strictement plus élevés que ceux de l’adversaire gagne

Estimant que les délai d’instruction constituent un déni de justice et que les actes d’instruction ont été inefficaces et lacunaires, l’Association de défense des familles

Le Discours de la méthode s'ouvre sur une remarque proverbiale « Le bon sens est la chose du monde la mieux partagée » pour insister davantage sur l'importance

[r]

L’inverse et le produit de matrices triangulaires inf´ erieures (resp. sup´

a) Montrer que deux vecteurs non-nuls u, v dans R 2 forment une famille libre si et seulement si ils ne sont pas colin´ eaires; montrer g´ eom´ etriquement que dans ce cas,