• Aucun résultat trouvé

Calcul matriciel

N/A
N/A
Protected

Academic year: 2022

Partager " Calcul matriciel "

Copied!
49
0
0

Texte intégral

(1)

Calcul matriciel

1. Définitions ; opérations matricielles.

2. Matrices et applications linéaires.

3. Changements de bases.

4. Rang d’une matrice, matrices équivalentes.

5. Matrices semblables.

6. Matrices remarquables.

7. Matrices inversibles ; méthodes d’inversion.

8. Applications des matrices.

à la mémoire de Nicolas Chiesura, mon élève, mon ami,

Pierre-Jean Hormière ___________

« Et c'est la fin. Opérateurs, vecteurs, foutus « Le calcul, c’est l’abîme. » Une matrice immonde expire... »

Victor Hugo André Weil

Introduction

Le plus ancien traité sur les systèmes d’équations linéaires est le Chiu chang suan shu (Mathématiques en neuf livres). Il fut élaboré vers 160 av. J. C., d’après des documents anciens, par Chang Ts’ang, maire du palais de l’empereur de Chine, et imprimé en 1084. Chang Ts’ang regroupait les coefficients du système dans un tableau rectangulaire, qu’il transformait pas à pas pour résoudre le système, selon un algorithme appelé fang-cheng. Cette méthode supposait connus les nombres négatifs, familiers aux savants chinois de cette époque.

Sautons 20 siècles. C’est en 1850 que le mathématicien anglais James Joseph Sylvester (1814- 1897) introduisit le terme de matrice pour désigner un tableau rectangulaire de nombres. Les premiers éléments d’une théorie des matrices parurent en 1853 dans un article de William Rowan Hamilton (1805-1865) intitulé «Linear and vector functions». Mais c’est Arthur Cayley (1821-1895) qui le premier considéra les matrices générales comme des tableaux soumis à certaines lois de combinaison, dans un article intitulé «A memoir on the theory of matrices», publié en 1858.

L’approche de Cayley était motivée par l’étude des transformations linéaires.

Selon un travers théoriciste bien français, les matrices seraient des objets immondes relevant des mathématiques appliquées. Elles ne serviraient qu’à représenter des applications linéaires, activité réservée à d’obscurs tacherons, comme s’il ne valait pas mieux être un bon esprit de second ordre qu’un grand esprit de troisième ordre. «Il ne suffit pas de cracher sous la table pour être Beethoven», disait déjà Gustav Mahler... Représenter une application linéaire permet de la voir et d’effectuer des calculs. Il y a une intuition du calcul matriciel qu’il est bon de développer : avec un peu d’habitude, on arrive à lire la géométrie d’une application linéaire sur sa matrice. Pourquoi s’en priver ? Tous les calculs de l’algèbre linéaire : résolutions de systèmes, calculs de rang et de déterminants, inversions de matrices, détermination d’images et de noyaux, vérification de la liberté ou du caractère générateur d’une famille de vecteurs, complétion d’une famille libre en une base et extraction de base d’une famille génératrice, peuvent s’effectuer par des procédés entièrement mécaniques, connus depuis longtemps, et que l’on a depuis implantés en machine : il faut les connaître. Enfin, les matrices ne servent pas qu’en algèbre linéaire ; elles sont aussi utiles en théorie des graphes, calcul des probabilités, économie mathématique, etc.

(2)

1. Définitions ; opérations matricielles.

Définition 1 : Soient K un corps commutatif, I et J deux ensembles finis. On appelle matrice de type (I, J) à coefficients dans K toute application de I×J dans K, ou encore toute famille

A = (αij)(i,j)∈I×J d’éléments de K indexée par l’ensemble I×J.

On note MK(I, J) = KI×J l’ensemble de ces matrices. Le plus souvent, I = [1, n] et J = [1, p] et on note MK(n, p) l’ensemble de ces matrices. On représente alors A comme un tableau rectangulaire à n lignes et p colonnes :

A =









nj np n

ip i ij

p j

α α α

α α α

α α α

...

...

...

...

...

...

...

...

...

...

...

...

1 1

1 1 11

, où i est l’indice de la ligne et j celui de la colonne.

A est dite matrice-colonne si p = 1, matrice-ligne si n = 1, carrée si n = p.

On convient d’identifier les matrices-colonnes A ∈ MK(n, 1) avec les vecteurs de Kn .

Quant aux matrices lignes A ∈ MK(1, p), on les identifie avec les formes linéaires X → A.X sur Kp On appelle sous-matrice de A = (αij)(i,j)∈I×J une matrice A' = (αij)(i,j)∈I'×J' indexée par l’ensemble I'×J' ⊂ I×J. Elle s’obtient en supprimant les lignes d’indice i ∈ I−I' et les colonnes d’indice j ∈ J−J'. Inversement, on dit que A s’obtient en bordant A' par les lignes d’indice i ∈ I−I' et les colonnes d’indice j ∈ J−J'.

Par exemple, 

 3 4

2

1 est une sous-matrice de





−5 21 0 3 4

1 2 1

, 



−5 3 4

1 9 0

2 5 1

et de





− 3 4 7

2 1 8

0 9 6

Addition, produit par un scalaire.

Soient A = (αij)(i,j)∈I×J et B = (βij)(i,j)∈I×J deux éléments de MK(I, J).

On note A + B = (αij ij)(i,j)∈I×J et λ.A = (λ.αij)(i,j)∈I×J .

Proposition 1 : Pour l’addition et le produit par un scalaire, MK(n, p) est un espace vectoriel de dimension np. Une base de cet espace est formée des matrices élémentaires (Eij)(i,j)∈[1,n]×[1,p] . Multiplication matricielle de Cayley.

Définition 2 : Si A = (αij) ∈ MK(n, p) et B = (βjk) ∈ MK(p, q), on appelle produit de A et B la matrice C = (γik) ∈ MK(n, q), notée C = A.B, définie par : ∀(i, k) γik =

= p

j ij jk 1

.

β α

.

Disposition pratique : produit ligne-colonnes.

(

αi1 ...αip

)

.

pj j

β β ...

1 → γik .

On notera que le produit A.B n’est défini que si le nombre de colonnes de A est égal au nombre de lignes de B. Dans le § 2, nous expliquerons pourquoi cette définition est pertinente.

Proposition 2 : i) Le produit matriciel est bilinéaire.

ii) Il est « associatif », en ce sens que A.(B.C) = (A.B).C dès que les formats le permettent.

iii) Il a un neutre à droite et à gauche. A.Ip = A et In.A = A , où A ∈ MK(n, p) et In = diag(1, …, 1) iv) Si (Eij), (E'kl) et (E"il) sont les bases canoniques respectives de MK(n, p), MK(p, q) et MK(n, q), on a les formules : Eij.E'kl = δjk.E"il ( symbole de Kronecker : δjk = 1 si j = k, 0 sinon )

(3)

Proposition 3 : Mn(K) est une K-algèbre associative et unifère de dimension n2. Si n ≥ 2, elle est non commutative et elle a des diviseurs de zéro à droite et à gauche.

Preuve : Tout cela découle de la prop. 2. On a : E11.E12 = E12 ≠ O = E12.E11 et E11.E22 = O.

Définition 3 : On note Gln(K) le groupe multiplicatif des éléments inversibles de Mn(K).

Les exercices suivants, élémentaires mais recommandés, ont pour but de familiariser le lecteur avec la mécanique du produit matriciel.

Exercice 1 : Soient X =

[

0 01

]

, A =





− −

− − − 85 69 4 38

112 78 97 15

46 52 29 83

,Y =





 01 00

. Calculer X.A, A.Y et X.A.Y.

Exercice 2 : Soient X =

[

p q r

]

, A =





'' '' '' ''

' ' ' '

d c b a

d c b a

d c b a

et Y =





zt yx

. Calculer X.A, A.Y et X.A.Y.

Cas où X =

[ ]

111 et Y =





 11 11

?

Exercice 3 : Soient J =





 1 1 1

0 1 1

0 0 1

et K =





5 0 0 1

0 2 1 0

3 1 1 0

1 0 0 1

. Calculer J.A et A.K.

Exercice 4 : Soient J =





 0 0 1

0 1 0

1 0 0

, A =





'' '' '' ''

' ' ' '

d c b a

d c b a

d c b a

et K =





 0 0 0 1

0 0 1 0

0 1 0 0

1 0 0 0

.

Calculer J2 , K2 , J.A , A.K et J.A.K.

Exercice 5 : On considère les matrices A =





d c

b

a et B =

+ + + +

+ ++

d c b a d b c a

d c d c

b a b a

. Exprimer B en fonction de A, puis A en fonction de B, à l’aide de produits matriciels.

Exercice 6 : Calculer le produit :









1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

0 0 0 0 1

d c b a









1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1 0

0 0 0 0 1

g f e









1 0 0 0

0 1 0 0

0 0 1 0 0

0 0 0 1 0

0 0 0 0 1

i

h 





1 0 0 0

0 1 0 0 0

0 0 1 0 0

0 0 0 1 0

0 0 0 0 1

j .

Exercice 7 : Calculer les puissances successives de N =





 0 0 0 0

1 0 0 0

0 1 0 0

0 0 1 0

et de A =





 λ λ λ λ

0 0 0

1 0 0

0 1 0

0 0 1

.

Exercice 8 : Calculer les produits suivants : A =

[

x ...1 xn

]





yn

y

...1 et B =

xn

x

...1

[

y1 ... yp

]

.

Exprimer B2 en fonction de B.

Il est important de noter que :

Si A∈MK(n, p) et X∈MK(p, 1), Y = A.X ∈MK(n, 1) est combinaison linéaire des colonnes de A.

Si A∈MK(n, p) et X∈MK(1, n), Y = X.A ∈MK(1, p) est combinaison linéaire des lignes de A.

Les colonnes de A.B sont des combinaisons linéaires des colonnes de A.

Les lignes de A.B sont des combinaisons linéaires des lignes de B.

(4)

Transposition.

Définition 4 : On appelle transposée de A = (αij) ∈ MK(n, p) la matrice tA = (αji) ∈ MK(p, n) . Exemples : Si A =





 6 5 4

3 2

1 , tA =

 6 3

5 2

4 1

; si A =





d c

b

a , tA =





d b

c a .

Proposition 4 : L’application A∈MK(n, p) → tA∈MK(p, n) est isomorphisme d’espaces vectoriels.

On a t(A.B) = tB.tA si les formats le permettent. Si A ∈ Gln(K), tA ∈ Gln(K) et (tA)−1 = t(A−1) . Définition 5 : A ∈ Mn(K) est dite symétrique si tA = A, antisymétrique si tA = −−−−A.1

Proposition 5 : Si K est de caractéristique ≠ 2, on a : Mn(K) = Sn(K) ⊕ An(K) , dim Sn(K) =

2 ) 1 (n+

n et dim An(K) = 2

) 1 (nn , en notant Sn(K), resp. An(K), l’ensemble des matrices symétriques, resp. antisymétriques.

Exercice 9 : Que se passe-t-il en caractéristique 2 ? Présentation matricielle d’un système linéaire.

Le système linéaire de n équations à p inconnues :



a11.x1 + ... + a1p.xp = b1



 . . .



an1.x1 + ... + anp.xp = bn s’écrit matriciellement :

A.x = b, où A = (aij) ∈ MK(n, p), x =





xp

x

...1 ∈ MK(p, 1) et b =





bn

b

...1 ∈ MK(n, 1).

Autres opérations matricielles.

Outre les opérations déjà mentionnées, on rencontre d’autres opérations matricielles, moins usitées.

La concaténation de deux matrices A = (αij) ∈ MK(n, p) et B = (βik) ∈ MK(n, q).

Il s’agit de la matrice C = concat(A, B) = (A | B) ∈ MK(n, p+q) obtenue en juxtaposant A et B.

La superposition de deux matrices A = (αik) ∈ MK(m, p) et B = (βjk) ∈ MK(n, p).

Il s’agit de la matrice C = stack(A, B) =

(

B

A

)

∈ MK(m+n, p) obtenue en superposant A et B.

On a : t

(

B

A

)

= (tA |tB) .

La somme directe de deux matrices A = (αik) ∈ MK(m, p) et B = (βjk) ∈ MK(n, p).

Il s’agit de la matrice C = A ⊕ B = diag(A, B) =





B O

O

A , de format (m+n , p+q).

Les matrices-blocs (A, B, C, D) → M =





D C

B

A , si les formats le permettent.

Notons que M = concat(stack(A, C) , stack(B, D)) = stack(concat(A, B) , concat(C, D)).

Cela s’étend à des tableaux rectangulaires de n×p matrices.

Le produit kroneckérien ou tensoriel de deux matrices A = (αij) ∈ MK(m, p) et B = (βij) ∈ MK(n, q). Il s’agit de la matrice-blocs C = (γij) ∈ MK(m.n, p.q), notée C = A ⊗ B, définie par :

1

(5)

C =





B B

B B

n np

p

α α

α α

...

...

...

...

...

1 1 11

Le produit terme à terme, dit aussi produit de Schur ou de Hadamard, de deux matrices de mêmes formats A = (αij) ∈ MK(n, p) et B = (βij) ∈ MK(n, p).

Il s’agit de la matrice C = (γij) ∈ MK(n, p) définie par γijijij . On la note C = A B.

Exercice 10 : Montrer que le produit de Schur de deux matrices de même format est une sous- matrice de leur produit kroneckérien.

• Pour les matrices à coefficients complexes, on définit la conjugaison et la transconjugaison : A → A et A → A* = tA, dont les premières propriétés sont laissées en exercice, et les autres seront vues dans le chapitre sur les espaces hermitiens.

Exemple d’écriture matricelle :

La courbe du second degré d’équation : a.x2 + 2b.xy + c.y2 + 2d.x + 2e.y + f = 0 , s’écrit matriciellement : [x y 1]





f e d

e c b

d b a





 1 xy

= 0 ou [x y].



 c b

b a .





y

x + 2 [d e].





y

x + f = 0 .

Plus généralement

∑∑

= = n

i p

j

j ij ia y x

1 1

= [x1 … xn]

n np p

a a

a a

...

...

...

...

...

1 1 11





yp

y ...

1

.

Exercice 11 : Pour tout naturel n on note Pyth(n) =

 

+ +++

1 2

² 222² 21

n nnn n

.

1) Trouver une matrice A constante à coefficients dans Z telle que n Pyth(n + 1) = A.Pyth(n).

2) Vérifier que A conserve la forme quadratique q : X = (x, y, z) ∈ Z3→ x2 + y2 – z2 , en ce sens que ∀X q(A.X) = q(X).

Introduction aux codes correcteurs.

L’exercice suivant me semble idéal pour illustrer une leçon de capes ou un cours de taupe.

Exercice 12 : Soit A =





n np p

a a

a a

...

...

...

...

...

1 1

11 ∈ MK(n, p). Pour tout couple (i, j) on pose :

si =

= p

j

aij 1

, tj =

= n

i

aij 1

, S =

∑∑

= = n

i p

j

aij

1 1

et A’ =





S t t

s a a

s a a

p n n np

p

....

. ...

...

...

...

...

...

1 1

1 1 11

∈ MK(n+1, p+1)

la matrice A bordée par ses totaux marginaux en ligne et en colonnes.

1) Exprimer la matrice A’ en fonction de A, et A en fonction de A’, à l’aide de produits matriciels par des matrices convenables.

2) En déduire que l’application F : A → A’ est linéaire de MK(n, p) dans MK(n+1, p+1).

3) Soit B ∈ MK(n+1, p+1). Comment caractériser B ∈ Im F à l’aide de produits matriciels ? 4) Un émetteur souhaite transmettre la matrice A à son destinataire. Pour cela, il calcule la matrice A’ et l’envoie au destinataire. Démontrer que, s’il y a au plus une erreur lors de la transmission, le destinataire peut à coup sûr retrouver la matrice A.

(6)

Solution : 1) On a A = [ In | 0 ].A’.





−− 0 Ip

et surtout A’ =.





 1 ...

1 1 ...

0 ...

...

...

0 ...

1

.A. 



1 1 ...

0

...

...

...

...

1 0 ...

1

2) Il découle de la seconde relation que l’application F est linéaire. Elle est bien sûr injective.

3) Soit B ∈ MK(n+1, p+1). Pour qu’elle appartienne à Im F, il faut et il suffit que ∀(i, j) ∈ [1, n]×[1, p] bi,p+1 =

= p

j

aij 1

, tn+1,j =

= n

i

aij 1

, bn+1,p+1 =

∑∑

= = n

i p

j

aij

1 1

autrement dit B.





−11 ...1

= 



 00 ...0

et [ 1 … 1 –1].B = [ 0 … 0 0 ] Remarque : en termes savants, on a une belle suite exacte :

MK(n, p). → MK(n+1, p+1) → MK(1, p+1) × MK(n+1, 1).

F G où G(B) = ( [ 1 … 1 –1].B , B.t[ 1 … 1 –1]. ) .

4) L’émetteur transmet une matrice  = A’ + ε où ε ∈ MK(n+1, p+1) contient au plus un élément non nul.

• Si  ∈ Im B, il est sûr que ε est la matrice nulle. Il n’y a pas eu d’erreur et A = [ In | 0 ]. .





−− 0 Ip

• Sinon, il est facile de localiser l’erreur, et de trouver la matrice A’, puis la matrice A. Du reste, si l’erreur affecte la dernière ligne ou la dernière colonne, il n’y a pas de souci.

Exercice 13 : Soit A une matrice rectangulaire. On lui fait subir autour de son « centre » O, les rotations d’angles

π4 , π2,

4

3π , et les symétries par rapport aux deux diagonales et aux deux axes vertical et horizontal passant par O, bref les 8 transformations du groupe diédral du carré.

Exprimer au moyen de multiplications et de transpositions les matrices obtenues à l’aide de A et de matrices simples.

Exercice 14 : Démontrer que les matrices qui commutent avec une matrice carrée donnée A forment une sous-algèbre de Mn(K). Trouver les matrices carrées réelles qui commutent resp. avec

A =





 4 3

2

1 , A =





 3 0 0

0 2 0

0 0 1

, A =





 2 0 0

0 1 0

0 0 1

. Exercice 15 : factorisation L-U.

Démontrer que, lorsque (x1, x2, …, x6) décrit K6, le produit





3 2

1 0

x x

x .





6 4 5

0 x x

x décrit

{ A ∈ M2(K) ; a11≠ 0 } ∪ { A ∈ M2(K) ; a11 = a12 = 0 } ∪ { A ∈ M2(K) ; a11 = a21 = 0 } Exercice 16 : Vérifier que, pour tout nombre complexe x





− + x x

x x 1

1 2 = I

2 et





+

− +

− +

−−−+ − −−+ x x

x

x x

x

x x

x

2 2 2 3 2 3

2 1 2 2 1

4 2 4 2 4

3 2

= I3 .

(7)

Exercice 17 : Soit A =





c b a 1 0

0 1

0

0 ∈ M3(K). Démontrer que B ∈ M3(K) commute avec A si et

seulement si B est un « polynôme » en A, i.e. est de la forme x.A2 + y.A + z.I.

Exercice 18 : racines carrées de matrices.

Trouver les matrices A ∈ M2(K) vérifiant A2 =





 0 0

0 0 ,





 1 0

0 1 ,





 0 0

1 0 ,





 1 0

0 0 . Cet exercice sera repris plus tard.

Exercice 19 : Soient A et B ∈ Mn(K) telles que AB = A et BA = B.

Démontrer que A et B sont idempotentes, i.e. A2 = A et B2 = B.

Exercice 20 : Soient A et B ∈ Mn(K) telles que A et AB – BA commutent.

Démontrer que pour tout entier k ≥ 0 Ak.B – B.Ak = k.(AB – BA).Ak1.

Exercice 21 : Montrer que le centre de Mn(K) est formé des matrices scalaires, i.e. de la forme λ.In. Exercice 22 : Démontrer que les seuls idéaux bilatères de Mn(K) sont {0} et Mn(K).

( Un idéal bilatère est un sous-espace vectoriel ℑ tel que : ∀A ∈ ℑ ∀M ∈ Mn(K) AM et MA ∈ ℑ.

Les algèbres dont les idéaux bilatères sont triviaux sont dites simples.) Exercice 23 : Soient A ∈ MK(m, n) et B ∈ MK(p, q).

Démontrer que ∀X ∈ MK(n, p) A.X.B = O ⇒ A = O ou B = O.

2. Matrices et applications linéaires.

Tous les espaces vectoriels considérés dans ce § sont de dimension finie.

2.1. Matrice d’une application linéaire.

Définition 1 : Soient E un espace vectoriel de dimension p, F un espace vectoriel de dimension n, u une application linéaire de E dans F. Soient BBBBE = (a1, ..., ap) une base de E, et BBBBF = (b1, ..., bn) une base de F. On appelle matrice de u relative aux bases BBBBE et BBBBF la matrice A = (αij) ∈ MK(n, p) à n lignes et p colonnes, dont la j-ème colonne est formée des coordonnées de u(aj) relatives à la base B

B B

BF : u(aj) =

= n

i i ijb

1

α . ( 1 ≤ j ≤ p ) . u(a1) ... u(aj) ... u(ap)

A = Mat(u ; BBBBE , BBBBF) =









nj np n

ip i ij

p j

α α α

α α α

α α α

...

...

...

...

...

...

...

...

...

...

...

...

...

...

...

...

1 1

1 1 11

Proposition 1 : Soient x un vecteur de E, X le vecteur-colonne de ses coordonnées dans la base BBBBE . Si y = u(x) a pour vecteur-colonne Y dans la base BBBBF , on a : Y = A.X .

Ainsi la matrice d’une application linéaire permet de calculer les coordonnées de n’importe quel vecteur image.

Exemple 1 : Rotations et symétries planes.

Soit E un plan euclidien rapporté à une base orthonormée BBBB = (i, j).

(8)

• La rotation d’angle θ a pour matrice R(θ) = 

 −

θ θ θ θ

cos sin

sin

cos .

car elle envoie i sur u(θ) = cos(θ).i+ sin(θ). j et j sur v(θ) = u(θ + π/2) . • La symétrie orthogonale par rapport à R.u(θ) a pour matrice S = 



θ

θ θ θ

2 cos 2

sin

2 sin 2

cos .

car elle envoie i sur u(2θ) et j sur −v(2θ) .

Exemple 2 : Considérons, dans ce même plan, la droite D d’équation x.cos θ + y.sin θ = p.

Cherchons l’équation de la droite D’ image de D par rotation Rot(O, α) ? Soient M(x, y) un point du plan, M’(X, Y) son image par Rot(O, α).

On a

[

YX

]

= cossin

α α

cossin

α α



[

xy

]

, donc

[

yx

]

= cossin

α α

cossin

α α



[

YX

]

.

M appartient à D ssi [ cos θ sin θ ]

[

xy

]

= p.

Il vient [ cos θ sin θ ] 



α α α α

cos sin

sin

cos

[

YX

]

= p, donc [ cos(α + θ) sin(α + θ) ]

[

YX

]

= p.

La droite D’ a donc pour équation cos(α + θ).X + sin(α + θ).Y = p.

Plus généralement, si C est la « courbe » plane d’équation F(x, y) = 0, son image par Rot(O, α) aura pour équation F(X.cos α + Y.sin α, −X.sin α + Y.cos α) = 0.

Exemple 3 : Projecteurs et symétries.

Dans Kn, soient H l’hyperplan d’équation a1.x1 + ... + an.xn = 0 et D la droite K.u , où : u = (b1, ... , bn) ∉ H . Matrices des projecteurs et symétries associées à cette somme directe.

2.2. Correspondance entre matrices et applications linéaires.

Proposition 2 : Si E est rapporté à la base BBBBE = (a1, ..., ap) et F à la base BBBBF = (b1, ..., bn), l’application : u ∈ LLLL(E, F) → Mat(u ; BBBBE , BBBBF) ∈ MK(n, p)

est un isomorphisme d’espaces vectoriels.

Preuve : Si u et v sont linéaires E → F, il est facile de vérifier que :

Mat(λ.u + v ; BBBBE , BBBBF) = λ.Mat(u ; BBBBE , BBBBF) + Mat(v ; BBBBE , BBBBF) ;

Enfin, la correspondance est bijective, car toute matrice A = (αij) ∈ MK(n, p) est la matrice d’une et une seule application linéaire u ∈ LLLL (E, F) par rapport aux bases BBBBE et BBBBF ; elle est donnée par :

u(aj) =

= n

i i ijb

1

α . (1 ≤ j ≤ p) . Corollaire : dim LLLL(E, F) = dim(E).dim(F).

Proposition 3 : Si E est rapporté à la base BBBBE = (a1, ..., aq) , F à la base BBBBF = (b1, ..., bp) et G à la base BBBBG = (c1, ..., cn), et si u : E → F et v : F → G sont linéaires, on a :

Mat(v o u ; BBBBE , BBBBG) = Mat(v ; BBBBF , BBBBG).Mat(u ; BBBBE , BBBBF) .

Preuve : Soient A = (αjk) ∈ MK(p, q) et B = (βij) ∈ MK(n, p) les matrices respectives de u et v.

On a : ( v o u )(ak) = v (

= p

j jkbj 1

α . ) =

= p

j

jkv bj 1

) (

α . =

∑ ∑

= =

p

j

i n

i

jk ijc

1 1

) . .( β

α

=

∑∑

= = n

i

jk i p

j

ij c

1 1

α .

β =

∑ ∑

= =

n

i

jk i p

j

ij c

1 1

).

( β α =

= n

i ikci 1

γ . (« Fubini »)

(9)

où : ∀(i, k) γik =

= p

j ij jk 1

.

α

β

. cqfd.

Remarque : L’associativité du produit matriciel pourrait donc se déduire de celle de la composition des applications linéaires.

Corollaire : Soit u ∈LLLL(E, F) ; on a l’équivalence : i) u est un isomorphisme ;

ii) Pour toutes bases BBBBE de E, et BBBBF de F, Mat(u ; BBBBE , BBBBF) est carrée inversible ;

iii) Il existe une base BBBBE de E et une base BBBBF de F telles que Mat(u; BBBBE , BBBBF) soit carrée inversible.

Proposition 4 : Si BBBBE et BBBBF ont pour bases duales respectives BBBBE* et BBBBF*, on a : Mat( tu ; BBBBF* , BBBBE* ) = tMat( u ; BBBBE , BBBBF ) .

Preuve : cf chapitre sur la dualité.

Exercice : Soient A, B, C, D quatre matrices de formats convenables.

1) Interpréter en termes d’applications linéaires la concaténée (A | B) et la superposée

(

B A

)

. 2) Interpréter de même les matrices-blocs A ⊕ B et M = 

 D C

B A .

2.3. Matrice d’un endomorphisme.

Définition 2 : Soient E un espace vectoriel de dimension n, rapporté à la base BBBBE = (a1, ..., an), u un endomorphisme de E. On appelle matrice de u relativement à la base BBBBE, la matrice carrée d’ordre n Mat(u ; BBBBE) = Mat(u ; BBBBE , BBBBE) .

La j-ème colonne de cette matrice A = (αij)∈ Mn(K) donne les coordonnées de u(aj) dans la base BB

BBE u(aj) =

= n

i i ija

1

α . (1 ≤ j ≤ n) .

Exemples : 1) L’homothétie λ.idE a pour matrice λ.In dans n’importe quelle base.

2) Soient E = F ⊕ G, p le projecteur sur F parallèlement à G, s la symétrie par rapport à F parallè- lement à G (en car. ≠ 2). Si BBBBE = (a1, ..., an) est une base de E obtenue en recollant une base (a1, ..., ar) de F et une base (ar+1, ..., an) de G, alors :

Mat(p ; BBBBE) =





O O

O Ir

et Mat(s ; BBBBE) =





n−r r

I O

O I

Proposition 5 : L’application u ∈LLLL(E) Mat(u ; BBBBE) Mn(K) est un isomorphisme d’algèbres.

Remarque : Il faudrait avoir l’esprit compliqué pour représenter un endomorphisme de E dans un couple de bases distinctes. Cependant, il ne faut jamais dire « Fontaine !... » car il arrive que certains problèmes relatifs à des endomorphismes de E soient plus faciles à résoudre en les généralisant à des applications linéaires de E dans F, où F = E. Dans ce type de problèmes, on a intérêt à raisonner comme si E et F étaient distincts, et à désolidariser les bases de E et F.

2.4. Application linéaire canoniquement associée à une matrice.

Soit A ∈ MK(n, p) une matrice à n lignes et p colonnes. L’application ϕA : X ∈ MK(p, 1) Kp → Y = A.X ∈ M(n, 1) Kn est linéaire, et dite canoniquement associée, ou attachée, à A.

A est la matrice de ϕA relativement aux bases canoniques de Kp et Kn.

(10)

On confond parfois A et ϕA, et l’on note Im A = Im ϕA et Ker A = Ker ϕA.

Cette identification pose quelques problèmes, quand on passe de la base canonique à une autre base, et quand on change de corps : si A ∈ MR(n, p) ⊂ MC(n, p), Im A et Ker A doivent être clairement définies.

2.5. Présentation fonctorielle des résultats précédents.

Dans l’ensemble Mat(K) =

U

p n

K n p

M

,

) ,

( des matrices de toutes tailles à éléments dans K, l’addition et la multiplication sont des lois de composition interne non partout définies. Quel statut théorique donner à cette situation ? En fait, Mat(K) est une petite catégorie, plus précisément, c’est l’ensemble des flèches d’une petite catégorie.

Soient K-Vectf la catégorie dont les objets sont K-espaces vectoriels de dimension finie et les flèches les applications K-linéaires, et Mat(K) la sous-catégorie pleine de K-Vect dont les objets sont les espaces Kn, où n décrit N, et dont les flèches sont les applications K-linéaires de Kp dans Kn, identifées à leurs matrices (rapportées bien sûr aux bases canoniques). La composition des flèches est le produit matriciel.

Mat(K) est un squelette de K-Vectf.

Soit K-Vect la catégorie dont les objets sont les couples (E, BBBB), où E est un K-espace vectoriel de dimension finie et BBBB une base de E, et les flèches u : (E, BBBB) (F, BBBB’) les applications linéaires E → F. Il y a un foncteur de K-Vect dans K-Vectf qui à (E, BBBB) associe E ; il est pleinement fidèle.

Et surtout, il y a un foncteur M de K-Vect dans Mat(K), qui

• à tout (E,BBBB) associe M(E,BBBB) = Kn, où n = dim E,

• à toute u : (E, BBBB) (F, BBBB’) associe la matrice A = M(u) = Mat(u, BBBB, BBBB’) en tant que flèche de M(E, BBBB) = Kp, dans M(F, BBBB’) = Kn, où p = dim E, n = dim F.

Enfin, la dualité-transposition définit un foncteur contravariant de K-Vectf dans elle-même Ce foncteur induit un foncteur contravariant de Mat(K) dans elle-même, et un foncteur contravariant de K-Vect dans elle-même, qui à (E, BBBB) associe (E*, BBBB*) et à u associe sa tranposée.

3. Changements de bases.

Le monde va changer de base, Nous n’étions rien, soyons tout.

Eugène Potier, L'Internationale Lorsqu’on change les bases de E et F, il est clair que la matrice de l’application linéaire u va changer. Étudions ceci.

3.1. Matrice de passage d'une base à une autre.

Définition 1 : Soient BBBBE = (a1, ..., an) et BBBB'E = (a'1, ..., a'n) deux bases de E. On appelle matrice de passage de BBBBE à BBBB'E la matrice P = (pij) dont la j-ème colonne est formée des coordonnées de a'j dans la base BBBBE : a'j =

= n

i i ija p

1

. ( 1 ≤ j n ) .

Remarque 1 : Si l’on appelle BBBBE l’ancienne base et BBBB'E la nouvelle base, P donne donc les anciennes coordonnées des nouveaux vecteurs de base.

Remarque 2 : La matrice P admet deux interprétations géométriques :

1) Si u est l’isomorphisme de E tel que (∀j) u(aj) = a'j , alors P = Mat(u ; BBBBE , BBBBE) .

(11)

C’est le point de vue « la base ne change pas, on change les vecteurs » .

2) P est aussi la matrice de l’identité de E rapportée à des bases distinctes : P = Mat(idE ; BBBB'E , B

B B

BE). C’est le point de vue : « la base change, mais les vecteurs ne changent pas ».

Les deux interprétations montrent que P est inversible.

Remarque 3 : Réciproquement, toute matrice carrée inversible P = (pij) est une matrice de passage.

Il suffit de se donner une base quelconque BBBBE = (a1, ..., an). La famille BBBB'E = (a'1, ..., a'n) donnée par a'j =

= n

i i ija p

1

. (1 ≤ j n) est une base de E, et P est la matrice de passage de BBBBE à BBBB'E . Exercice 1 : Montrer que la matrice de passage de BBBB'E à BBBBE est P−1.

Exercice 2 : Si Q est la matrice de passage de BBBB'E à BBBB''E , montrer que P.Q est la matrice de passage de BBBBE à BBBB''E .

Exemple : Soient E l’espace Kn[X], a0, …, an n+1 scalaires distincts, (L0, …, Ln) la base de Lagrange Li(X) =

jiaXiaajj . Comme P Kn[X] P(X) =

i

i

i L X

a

P( ). ( ), la matrice de passage

de ( L0, …, Ln ) à ( 1, X, … , Xn ) est la matrice de Vandermonde





nn n

n n

a a

a a

a a

...

1

...

...

...

...

...

1 ...

1

1 1

0 0

.

La matrice de passage de ( 1, X, … , Xn ) à ( L0, L1, …, Ln ) est en l’inverse.

3.2. Effet d’un changement de base sur les composantes d’un vecteur.

Proposition 1 : Soient x un vecteur de E, X le vecteur-colonne de ses anciennes coordonnées, X' le vecteur-colonne de ses nouvelles coordonnées. On a :

X = P.X' , donc X' = P−1.X .

Preuve : x =

i xi.ai =

j x'j.a'j =

j x'j.(

i pij.ai) =

i (

j pij.x'j ).ai , D’où : (∀i) xi =

= n

j j ijx p

1

. . cqfd.

Application : Dans les petites classes, les célèbres formules trigonométriques d’addition cos(a + b) = cos a .cos b – sin a. sin b , sin(a + b) = sin a.cos b + sin b.cos a

s’établissent ainsi. Rapportons le plan euclidien à une base orthonormée BBBB = (i, j) et considérons, pour tout angle θ, la base BBBB(θ) = (u(θ), v(θ)), où u(θ) = cos θ.i + sin θ. j et v(θ) = u(θ + π/2).

Considérons le vecteur x = u(a+b):

1) Ses coordonnées dans la base BBBB = BBBB(0) sont

[

cos(sin(aa++bb))

]

. 2) Ses coordonnées dans la base BBBB(a) sont

[

cos(sin(bb))

]

.

3) La matrice de passage de BBBB à BBBB(a) est





 −

a a

a a

cos sin

sin

cos .

En vertu de la formule ci-dessus :

[

cos(sin(aa++bb))

] =

cossinaa cossinaa.

[

cos(sin(bb))

]

. Cqfd !

Dans la figure ci-jointe : OI = i , OJ = j , OA = u(a) , OB = u(a+b) , OC = v(a).

(12)

Remarque : La formule X = PX’ donne les anciennes coordonnées en fonction des nouvelles.

Si l’on veut les nouvelles en fonction des anciennes, il faut inverser P, ce qui renvoie au § 7.

• Si un lieu géométrique est rapporté dans l’ancien repère sous forme d’équations implicites, il suffit de remplacer les anciennes coordonnées par leur expression en fonction des nouvelles pour trouver la nouvelle équation du lieu. La formule X = P.X' fait alors merveille.

• Si un lieu géométrique est représenté sous forme paramétrée X = X(t), ou X(u, v), alors ses équations dans le nouveau repère X' = P−1.X(t), ou X' = P−1.X(u, v), nécessitent l’inversion de P.

Exemple 1 : Considérons la courbe H d’équation

²

² ax

²

² b

y = 1 ( a et b > 0 ).

Cette équation s’écrit ( a x

b y).(

a x +

b y ) = 1, c’est-à-dire X.Y = 1 dans un répère où X =

a x

b

y et Y = a x +

b y (matrice inversible ! les formules s’inversent en x =

2

a ( X + Y ) , y = 2

b ( Y – X ) ).

On reconnaît une hyperbole, d’asymptotes X = 0 et Y = 0, c’est-à-dire b y = ±

ax.

Exemple 2 : Considérons la courbe Γ d’équation ax2 + 2bxy + cy2 = d , où (a, b, c) ≠ (0, 0, 0) , dans le plan euclidien R2 rapporté à sa base orthonorméeBBBB = (i, j)

Cette équation s’écrit aussi [ x y ] 

 c b

b

a

[

yx

]

= d .

Quelle est l’équation de Γ dans la base BBBB(θ) = (u(θ), v(θ)), où

u(θ) = cos θ.i + sin θ. j et v(θ) = u(θ + π/2) = − sin θ.i + cos θ. j . Elle s’écrit [ X Y ]





θ θ θ θ

cos sin

sin

cos 

 c b

b

a 

 −

θ θ θ θ

cos sin

sin

cos

[

YX

]

= d,

c’est-à-dire Ax2 + 2Bxy + Cy2 = d , où

 A = a.cos2 θ + 2b.sin θ.cos θ + c.sin2 θ  B = b.( cos2θ− sin2θ ) + ( c – a ).sin θ.cos θ.  C = a.sin2θ− 2b.sin θ.cos θ + c.cos2θ

On observera que A + C = a + c, ce que nous retrouverons plus tard grâce à la notion de trace.

Et surtout B = b.cos(2θ) + 2

a

c.sin(2θ) , ou encore B = )² ( 2

² c a

b + − .sin(2θ + ϕ), où b =

( 2

² c a

b + − .sin ϕ et 2

a

c = )² ( 2

² c a

b+ − .cos ϕ. Si l’on choisit θ = −ϕ/2, l’équation de Γ est de la forme A.X2 + C.Y2 = d.

Théorème : La courbe Γ d’équation ax2 + 2bxy + cy2 = d , où (a, b, c) ≠ (0, 0, 0) , a pour équation A.X2 + C.Y2 = d dans une base orthonormée convenable BBBB(θ) = (u(

θ

), v(

θ

)).

(13)

Exemple 3 : Considérons la courbe plane (C) d’équation : x3 + y3 3a.xy = 0 .

Il s’agit d’une cubique donnée par son équation implicite. On voit aussitôt qu’elle est symétrique par rapport à la première bissectrice. Plaçons-nous dans le repère

I = 2

1 ( i + j) , J = 2

1 ( −i + j ).

Les formules de passage sont : x = 2

Y

X , y = 2

Y X+ . L’équation de (C) dans le nouveau repère s’obtient par simple substitution : Y2 = X2.

X a

X a

3 2 3

2 3

+− , qui permet de représenter (C) comme réunion de deux graphes fonctionnels Y = ± F(X).

En fait, mieux vaut ne pas changer de repère, et paramétrer (C) en posant

x

y = t. On obtient : x = 3 1

3 t

+at , y = 1 3

² 3

t +at (C) est un folium de Descartes (1638).

Exemple 4 : Considérons la courbe plane (K) d’équation :

49 (2x + 1)(− x + y 3+ 1)(−x − y 3 + 1) − 3 [ 7( x2 + y2 ) – 4 ]2 = 0.

Il s’agit d’une quartique donnée par son équation implicite, la quartique de Klein (1879).

On constate qu’elle est invariante par les 3 rotations Rot(O, 3

2k

π

) et la symétrie par rapport à Ox, autrement dit par le groupe diédral DDDD3 des isométries d’un triangle équilatéral.

La feuille de calculs Maple ci-dessous justifie ces affirmations.

> with(plots):

> P:=49*(2*x+1)*(-x+y*sqrt(3)+1)*(-x-y*sqrt(3)+1)-3*(7*(x^2+y^2)-4)^2;

Q:=49*(2*x+1)*(-x+y*sqrt(3)+1)*(-x-y*sqrt(3)+1);

> p:=implicitplot(P=0,x=-1..1.3,y=-1..1,numpoints=20000,thickness=2):

q:=implicitplot(Q=0,x=-1..1.3,y=-1..1,numpoints=20000,color=blue, thickness=2): display({p,q},scaling=constrained);

> sort(expand(P));sort(simplify(subs([x=-1/2*X-sqrt(3)/2*Y,y=sqrt(3)/2*X- 1/2*Y],P)));

147 x4294 x2y2147 y4 + 98 x3294 x y2 + 21 x2 + 21 y2 + 1

147 X4294 X2Y2147 Y4 + 98 X3294 X Y2 + 21 X2 + 21 Y2 + 1

> expand(subs([x=(Z+Zb)/2,y=(Z-Zb)/(2*I)],P));

+ + + −

1 21 Z Zb 49 Zb3 49 Z3 147 Z2Zb2 Remarque : Si l’on passe en complexes, (K) a pour équation

Références

Documents relatifs

Les propriétés du n-forcing sont en tout point semblables à celles du forcing infini de R,ohinson et elles s’établissent de manière analogue. Nous allons énoncer

L'équation de condition qu'on obtiendrait pour ^ renfermerait les dérivées partielles de ^(z, a?), par rapport à ce, jusqu'à l'ordre m, et, en général, ne pourrait être inté-

Si n est le nombre des racines distinctes de l'équation fondamentale, P == o admet comme intégrales linéairement indépendantes au moins n fonctions périodiques de seconde espèce,

— Pour qu'une équation linéaire et homogène (i) soit réductible à une équation à coefficients constants par unes substitution simultanée de variable et de fonction (2), il faut

THÉORÈME IV. — Si deux polynômes^ aux deux variables u[x} et u\x}, dont les coefficients admettent les périodes de seconde espèce wet û/, avec.. ÉQUATIONS DIFFÉRENTIELLES

Définir la dimension de la matrice A, ici, 2x2.Valider par entrer Saisir les éléments de la matrice et utiliser les flèches ou la touche entrer pour valider. Procéder de même

[r]

Expressions d’une aplication linéaire.. Matrice d’une