• Aucun résultat trouvé

ENDOMORPHISMES REMARQUABLES

Étudions les propriétés topologiques des sous-ensembles suivants de Mn (OC) : - Vn(OC) l'ensemble des matrices diagonalisables,

- 'T.i(OC) l'ensemble des matrices trigonalisables,

- Cn(OC) l'ensemble des matrices diagonalisables à valeurs propres distinctes. 179

Remarquez que, d'après la proposition 4.67, Cn est l'ensemble des matrices diagona­ lisables et cycliques. Observez aussi que

Cn(OC) c Vn (OC) c 'T.i(OC) c Mn (OC).

Relativement à 'T.i(OC) , les propriétés topologiques sont identiques pour OC = � ou OC = C. En revanche, les deux situations se distinguent en passant à Mn(OC).

Proposition 4.69 - Adhérence et intérieur d e 1>n(1K} dans Tn(JK).

Dans l'espace topologique 'T.i(OC), on a Cn(OC) = 'T.i(OC) En particulier, ceci montre que

- Cn (OC) est un ouvert de Tn (OC) ;

et

- Cn(OC) et donc Vn(OC) sont denses dans T.i(OC).

Preuve. Remarquez que la preuve de la question a de l'exercice 1 de [GOUl, p.184] montre en fait que toute matrice trigonalisable de Mn(OC) est limite d'une suite de matrices de Cn(OC). On a ainsi Cn(OC) = 'T.i(OC).

Considérons à présent l'application

{

'T.i(OC) � OC

'l/J: U

res(xu , xl;).

qui est continue (car polynomiale en les coefficients de U). L'ensemble des ma­ trices trigonalisables telles que xu et Xu n'ont pas de racines communes, est égal à 'ljJ-1 (0C " {O}) (cf. application 4.82) . Autrement dit, 'ljJ-1 (0C " {O}) est l'ensemble des matrices dont toutes les valeurs propres sont simples, c'est-à-dire

'ljJ-1 (0C " {O}) = Cn(OC).

Ainsi Cn(OC) est un ouvert de 'T.i(OC) contenu dans Vn(OC), d'où

0

Cn(OC) c 'Dn(OC).

Pour obtenir l'inclusion inverse, passons au complémentaire et montrons que

CCn(OC) c cvn(OC) (les complémentaires étant pris relativement à T.i(OC)). Il s'agit donc de montrer qu'une matrice U trigonalisable qui n'est pas à valeurs propres distinctes est limite de matrices trigonalisables qui ne sont pas diagonalisables. Si U n'est pas diagonalisable, on prend la suite constante égale à U. Si U est diagonalisable, on écrit

Ainsi, U est la limite d'une suite de matrices trigonalisables mais qui ne sont pas diagonalisables. En effet, le bloc

V =

[�

2

m

]

180 CHAPITRE 4 - ALGÈBRE LINÉAIRE 4.4.1 Voyons maintenant comment ces résultats se traduisent dans Mn{OC). C'est ici qu'apparaissent les différences entre le cas réel et le cas complexe. ·

{i) Dans le cas complexe, la situation est simple puisque T.i(C) = Mn(C) . Ainsi,

Cn(R.) est un ouvert dense de Mn (C) qui est en fait l'intérieur de Vn(C) . ( ii) Dans le cas réel, pour obtenir des propriétés supplémentaires, on a besoin de

mieux connaître la nature topologique de T.i(R.) {lemme 4.70). On déduit alors que l'adhérence dans Mn(R.) des ensembles Cn(R.) et 'Dn(R.) est T.i(R.).

Lemme 4.70 - Nature topologique de Tn(R). L'ensemble T.i(R.) est un fermé de l'espace topologique Mn(R.).

Preuve. Les polynômes scindés dans R. sont caractérisés par une condition fermée : P E R.(X) unitaire de degré n est scindé {::::::::} \:/ z E C, IP{z) I ;;:: j.JPm(z) ln.

Commençons par montrer cette équivalence. Si IP(z) I ;;:: j.JPm(z) ln pour tout z E C,

alors toute racine complexe de P vérifie Jfm(z) = 0 et donc est réelle. Réciproque­ ment, soit P E R.(X) unitaire de degré n et scindé que l'on écrit

n

P = f1 (X - ai), avec ai E R.. i=l

On a alors IP{z) I = TI n - ai)2 + (J1m z)2 ;;:: j.JPm(z) ln·

i=l

On en déduit que l'ensemble Y des polynômes unitaires scindés de degré n forme un fermé de l'ensemble %' des polynômes unitaires de degré n.

Considérons à présent l'application continue

{

Mn(R.) � %'

1/J :

U 1--+ (-l)nXu·

D'après le théorème 4.46, on a '.Tn (R.) = 1/J-1 (.9'). On conclut que '.Tn(R.) est un fermé de Mn (R.).

Remarque 4.71 - Nature topologique de Cn(R). L'application 1/J de la dé­ monstration précédente permet aussi de montrer que l'ensemble Cn(R.) est un ou­ vert de Mn (R.). En effet, soit Yrs l'ensemble des polynômes de R.n(X) scindés avec n racines simples. On a alors

L'application 1.27 établit que Yrs est un ouvert de R.n(X), donc Yrs n %' est ouvert de %'. Comme 1/J est continue, Cn(R.) est un ouvert.

Exemple 4.72 - Une utilisation de 1'n(C) = Mn(C). Soit cp l'application de

Mn(C) dans lui-même qui à M associe D la partie diagonalisable de sa décomposition de Dunford. Alors, si n ;;:: 2, l'application cp n'est pas continue.

Par unicité de la décomposition de Dunford, cp(D) = D si D E 'Dn(C). Autrement dit, cp est l'application identique sur Vn(C). Si cp était continue sur Mn{C), la densité de Vn dans Mn(C) impliquerait que cp(M) = M pour tout M E Mn(C). Toute matrice serait donc diagonalisable, ce qui n'est pas le cas si n ;;:: 2 puisqu'il existe des matrices nilpotentes non nulles. Bref cp n'est pas continue.

L'exercice 4.19 propose un autre type d'utilisation de la densité des matrices diagonalisables.

4.4. 1 D 'AUTRES OUTILS D'ALGÈBRE LINÉAIRE

4.4 D 'AUTRES OUTILS D 'ALGÈBRE LINÉAIRE

4.4.1 DÉTERMINANT

181

Soient A un anneau commutatif et U = (uij )i,j E Mn(A) une matrice de taille n x n à coefficients dans A. On appelle déterminant de U l'élément de A défini par

n

det(U) = L: ê( a) Il ui,a( i) . ( *)

aE 6n i=l

Cette définition est valable en particulier lorsque A = k est un corps, où elle coïncide avec la définition de [RDOl, 10.2.1.2°) . Les propriétés classiques du détermi­ nant (comme par exemple <let UV = <let U <let V) proviennent de la propriété fon­ damentale suivante. Soit E un k-espace vectoriel de dimension n ; alors l'espace vectoriel des formes n-linéaires alternées est un k-espace vectoriel de dimension 1 (voir [RDOl, 10.2.1.2°)).

Ce résultat s'étend aux A-modules (voir le chapitre 6 pour le vocabulaire) . Soit M un A-module libre de rang n ; alors le A-module des formes n-linéaires alternées est un A-module libre de rang 1. Ceci permet ainsi de démontrer directement les propriétés du déterminant de la même façon que pour un corps. L'exercice 4.19 donne une autre démonstration de ces propriétés.

Exemple 4.73 - Cofacteurs. Soit U = (uij)ij E Mn(A) ; on appelle comatrice

de U la matrice Com(U) = ( Vij) Vij est le cofacteur de Uij c'est-à-dire le produit de ( -1 )i+i par le déterminant de la matrice créée à partir de U en enlevant la i-iême ligne et la j-iême colonne.

.

Remarque 4. 7 4 - Polynôme caractéristique. Il est important de ne pas restreindre la définition du déterminant au cas où A est un corps. Par exemple pour définir direc­ tement le polynôme caractéristique, on utilise le déterminant dans l'anneau A = k!XJ . Remarque 4.75 - Polynôme. Par définition, le déterminant est une application polynomiale en les coefficients de la matrice. Cette propriété fondamentale permet notamment d'étendre à un anneau quelconque les propriétés du déterminant valables lorsque A est un corps. Ceci fait l'objet de l'exercice 4.19 où l'on démontre par exemple que

V U, V E Mn(A), <let UV = <let U <let V,

et V U E Mn(A), tcom(U) U = U tCom(U) = det(U)Id.

Par ailleurs, si A = lR ou C, le déterminant est une application continue puisque c'est une application polynomiale. Cette propriété implique par exemple, que l'en­ semble GLn(C) = det-1 (C*) est un ouvert de Mn(C) (voir aussi l'application 4.22).

CALCULS ET APP LICATIONS

Voici une petite liste de méthodes de calcul de déterminants.

- Les déterminants de matrices triangulaires ou triangulaires par blocs sont simples à calculer [aou1, p.136). On essaie souvent de s'y ramener par opérations élémen­ taires.

- Le développement selon les lignes et les colonnes est utilisé par exemple pour calcu­ ler le polynôme caractéristique d'une matrice compagnon (voir la sous-section 4.3.2), ou pour démontrer les formules de Cramer (voir ci-dessous). Il est aussi bien utile lors des calculs par récurrence (voir par exemple l'exercice 2 de [aou 1 , p.139)).

182 CHAPITRE 4 - ALGÈBRE LINÉAIRE 4.4.1

- La multilinéarité du déterminant est une propriété aussi utile pour les calculs : on s'en sert par exemple pour calculer le déterminant d'une matrice de permutation

(voir la remarque 4.89), ou dans les exercices 1 et 7 de [GOUl, p.139].

Exemples 4.76 Le chapitre III de [aou1] propose de nombreux calculs de détermi­ nants classiques.

- Le déterminant de Vandermonde (voir [aou1 , p.137]) est d'usage fréquent. On l'uti­ lise pour le calcul du déterminant circulant (voir l'exercice 12 de [GOUl, p. 147]) ou pour l'interpolation de Lagrange (voir [CM, 1.1]).

- Le déterminant de Cauchy [GOUl, p.144] s'utilise lors de la preuve du théorème de Müntz ([GOUl , p.286]).

- Le déterminant circulant (aou1 , p.147] est associé à des opérateurs de convolution (exercices 1.1 et IIl.5 de [PEY]) .

Application* 4.77 - Formule de Cramer. Soient U E Mn(k) une matrice inversible, (U 1 , . . . , Un) ses vecteurs colonnes et V E Mn x 1 ( k) un vecteur colonne. Alors le système linéaire UX = V admet une unique solution X = (xih�i�n donnée par

det(Ui , . . . , Ui-i . V, Ui+1, . . . , Un)

[ ]

Xi = det(U) , pour tout i E 1 , n .

Ces formules sont utiles pour montrer des propriétés de régularité lorsque les coefficients dépendent d'un paramètre. En revanche, un logiciel de calcul numérique comme Matlab ou Scilab n'utilise pas ces formules pour résoudre un système linéaire : c'est beaucoup trop lourd numériquement (voir [CIA, p.81]). Il existe des méthodes bien plus performantes. Les premiers chapitres de [CIA] proposent en particulier une très bonne introduction la résolution numérique des systèmes linéaires en distin­ guant :

- les méthodes basées sur les opérations élémentaires, - les méthodes itératives.

Remarque 4. 78 - En pratique. La formule du déterminant sous la forme dévelop­ pée ( *) n'a pas d'intérêt pratique pour calculer numériquement le déterminant d'une matrice. Un logiciel de calcul numérique comme Matlab ou Scilab calcule seulement les déterminants des matrices triangulaires. Le calcul du déterminant d'une matrice quelconque s'y ramène en opérant une décomposition LU.

DÉTERMINANT : UN CRITÈRE D 'INVERSIBILITÉ

Soit U E Mn(A) ; on dit que U est inversible dans Mn(A) si U est un élément inver­ sible de l'anneau Mn(A) c'est-à-dire s'il existe V E Mn(A) telle que UV = VU = Id. On note GLn(A) l'ensemble des matrices inversibles de Mn(A), qui est le groupe des inversibles de l'anneau Mn(A) .

Proposition 4.79 Soit U E Mn(A) ; alors

U est inversible dans Mn(A) <===> det U est inversible dans A.

De plus, l'application det : GLn(A) -+ A x est un morphisme de groupe. Preuve.

{ =?) Soit V E Mn (A) telle que UV = VU = Id. Ainsi det U E A vérifie det U det V = det V det U = 1

4.4. 1 D 'AUTRES OUTILS D'ALGÈBRE LINÉAIRE

({::) Comme det(U) E A x , la matrice

V = (det U)-1

C

comu

)

183

est bien définie et appartient à Mn(A). D'après la relation (**) sur la comatrice, on a UV = VU = Id. Ainsi U est inversible dans Mn(A).

Le fait que det : GLn(A) ---+ A x est un morphisme provient simplement de la

pro-priété det(UV) = det U det V.

Par exemple pour A = Z,

U est inversible dans Mn(Z) -Ç=} det U E zx = {-1, 1}. Attention à l'anneau de base : la matrice

U =

[� �]

E M2(Z} c M2{Q)

est de déterminant 3. On en déduit que U n'est pas inversible dans M2 (Z) {puisque 3 � zx }, mais elle l'est dans M2 (Q) (puisque 3 E Qx = Q " {O} ).

Dans le cas où A = k est un corps, on retrouve le critère U est inversible dans Mn(k) -Ç=} det U =fa O.

On a ainsi une caractérisation supplémentaire de l'inversibilité qui s'ajoute au théo­ rème [RDOl, 9.2.4.3°].

Exemple 4.80

-

GLn{k}. Dans le chapitre IV de [PER], on trouve notamment les résultats suivants à propos du groupe GLn (k) :

- GLn(k) est engendré par les transvections et les dilatations (voir par exemple [ARN, Xl.5.1]).

- Le centre est l'ensemble des homothéties [PER, IV.2.6] (attention, il y a une erreur dans la preuve de l'exercice 6 de [GOUl, p.117] : g n'est pas inversible).

- Le groupe dérivé est SLn(k) = det-1 {{1}) sauf cas particuliers (voir [PER, IV.3]). Par ailleurs, l'exercice 5.4 propose une preuve du joli théorème de Frobenius-Zolotarev basée sur les propriétés du groupe GLn (k).

Remarque 4.81

-

Surjectivité et bijectivité. Soit U E Mn(A). Quelques notions du chapitre 6 permettent de compléter la proposition 4. 79 :

U est surjective -Ç=} U E GLn(A) -Ç=} det U E A x .

Il reste à montrer que si U est surjective alors det U E A x . Soit (el , . . . , en) la base canonique de An. Considérons u l'endomorphisme {de A-module) de An dont la ma­ trice dans la base canonique est U. La surjectivité de u permet d'exhiber (x1 , . . . , xn) telle que u(xi) = ei. Définissons l'endomorphisme de An sur la base canonique par v(ei) = Xi· Par construction u o v = id et donc det u det v = l . Ainsi, det u = det U est inversible.

Si A = k, la bijectivité est aussi équivalente à l'injectivité (voir [RDOl, 9.2.4.3°]). Ceci est faux pour un anneau quelconque. Par exemple dans A = Z, la multiplication par 2 est injective mais non bijective.

Application 4.82 - Résultant. On considère deux polynômes P et Q de k[X] res­ pectivement de degré n et m :

184 CHAPITRE 4 - ALGÈBRE LINÉAIRE

Leur résultant de P et Q est le déterminant de la matrice

m bo bi bo bi ao bm-1 bo ai bm bm-1 bi bm · .. an-1 · . brr:,_ 1 an bm n E Mn+m(k). 4.4. l

Le résultant de P et Q est nul si, et seulement si, P et Q ne sont pas premiers entre eux (voir [RDOl, 8.2.2) OU l'exercice (FRA, 5.8)).

DÉTERMINANT : UNE EXPRESSION D U VOLUME

Le déterminant a une interprétation géométrique : c'est le facteur de dilatation des volumes.

Théorème 4.83 - Déterminant et mesure de Lebesgue. Soient µ la mesure de Lebesgue sur ]Rn, u E 2'(1Rn) et X C JR.n une partie mesurable. Alors

µ(u(X)) = ldet ul µ(X).

Preuve. Ce théorème repose sur la propriété [RUD, 2.20( d)) de la mesure de Lebesgue. La preuve correspond aux points [RUD, 2.20(e)) et [RUD, 2.23). Ce théorème est à la base du théorème 1.18 de changement de variables. En effet, une application différentiable agit localement comme sa différentielle qui est une application linéaire. Par ailleurs, le théorème 4.83 permet d'interpréter le déterminant comme le volume d'un parallélépipède.

Application 4.84 - Volume d'un parallélépipède. Soient V1 , .. . , Vn appartenant

à JRn ; on note P(vi, . . . , Vn) le parallélépipède engendré par Vi , . . . , Vn, c'est-à-dire de l'ensemble

{ w E lRn, w = À1 V1 + · · · + Àn Vn avec Ài E [ 0 , 1 J , i = 1, . . . , n}.

Alors on a µ (P(v1 , . . . , Vn)) = ldet(v1 , . . . , vn) I .

En effet, on a P = v([ 0 , 1 t) où v est l'endomorphisme de JR.n défini par v( ei) = vi

pour i E [ 1 , n], avec ( ei, . . . , en) la base canonique de JR.n.

Application 4.85 - Autour du volume maximum. Notons li · li la norme euclidienne canonique sur JR.n. L'inégalité d'Hadamard (voir par exemple [Gou1 , V.3.3)) établit que les vecteurs v1 , . . . , Vn de JR.n vérifient

De plus, il y a égalité dans cette inégalité si, et seulement si, les Vi forment une famille orthogonale. Autrement dit, le volume du parallélépipède P est borné par le produit des longueurs des arêtes de P, et ce volume est maximum si, et seulement si, P est un parallélépipède rectangle.

4.4. 1 D'AUTRES OUTILS D'ALGÈBRE LINÉAIRE 185 Si l'on se place dans un espace vectoriel normé de dimension finie dont la norme n'est pas euclidienne, un résultat du même type existe : c'est le théorème d'Auerbach (voir [zQ, V.lY.3]).

Remarque 4.86 - Déterminant d e Gram. Soit E un k-espace vectoriel muni d'une forme bilinéaire symétrique cp. La matrice de Gram de v1 , . . . , Vn E E est la matrice symétrique ( cp( Vi , Vj ) )i,j , notée MG( V1 , . . . , vn)· Le déterminant de Gram de ces vecteurs est le déterminant de cette matrice, noté G( vi , . . . , vn) · Les propriétés des déterminants de Gram sont étudiés dans [RD02, 1.1.2.2°] .

Dans le cas particulier où k = R et E est un espace préhilbertien (c'est-à-dire si cp est définie positive), on dispose, de plus, du résultat suivant (théorème 8 de

[aou1 , V.3.4]) : la distance d de x E E à un sous-espace F de dimension n, de base ( V1 , . . . , vn), s'exprime à l'aide de déterminants de Gram

. . . (*)

G(v1 , . . . ,vn)

Plaçons-nous à présent dans E = RP muni du produit scalaire canonique (., -) . Montrons que G(v1 , . . . , vp) est le carré du volume du parallélépipède P(vi , . . . , vp) de RP. Soit V E Mp (R) la matrice de la famille ( vi , . . . , Vp) écrite dans la base canonique. On constate alors que

MG(v1 , . . . , Vn) =

ty

V.

Ainsi G( vi , . . . , vn) = det(

ty

V) = ( det V)2 = µ(P( vi , . . . , vp) )2• ( **) Cette dernière égalité permet

d'interpré-ter géométriquement l'égalité ( * ). En ef­ fet, ( **) montre que, le carré du volu-me de P(v1 , . . . ,vni x) dans l'espace vec-toriel vect ( vi , . . . , Vn, x) est le détermi-nant de Gram G(v1 , . . . ,vn, x). De même, G(vi , . . . , vn) est le carré du volume du parallélépipède P( v1 , . . . , vn) dans l'espace vectoriel vect (v1 , . . . , Vn)·

L'égalité (*) exprime donc simplement que le volume de P(v1 , . . . ,vn, x) est égal au produit du volume de P( vi , . . . , vn) par d. On retrouve ainsi

« volume = base x hauteur » .

Application 4.87 - Volume d'un ellipso'ide. Soient (Rn, (., ·}) l'espace euclidien muni du produit scalaire (., ·} canonique et A E S;i+ une matrice symétrique définie positive. Remarquez que l'application ( ·, ·}A définie par

(x, y) A = (Ax, y)

est un produit scalaire sur Rn. Le produit scalaire canonique est simplement (·, -)Id" On définit alors l' ellipsoïde &(A) associé à A E S;i+ comme la partie de Rn

&(A) = {x E Rn, (Ax, x} :::; 1}.

L'ellipsoïde &(A) est en fait la boule unité fermée de l'espace euclidien (Rn, (·, ·}A) . En particulier, &(Id) est la boule unité fermée de l'espace Rn muni du produit scalaire canonique. Par ailleurs, &(A) est l'image de la boule unité &(Id) par une application linéaire. En effet, puisque A est définie positive, il existe (un unique) B E S;i+ tel que B2 = A (voir l'exercice 1 [aou1 , p.242]), et ainsi on a

186 CHAPITRE 4 - ALGÈBRE LINÉAIRE

On en déduit alors, grâce au théorème 4.83, que µ(&(A)) = idet(B-1 )i µ(E(I)) =

det(A) Cette application est extraite du sujet d'algèbre de 2001.

4.4.2 OP ÉRATIONS ÉLÉMENTAIRES

4.4.2

Les opérations élémentaires sont des outils primordiaux en algèbre linéaire. Elles fournissent des méthodes de calculs du rang, du déterminant ou même des facteurs invariants d'une matrice (théorème 6.76).

Les opérations élémentaires sont simplement des multiplications par des matrices dites « élémentaires » . Ces matrices élémentaires sont de trois types : les matrices de transvection, les matrices de dilatation et enfin les matrices de transposition. Pour définir ces matrices élémentaires et comprendre leur action, on peut considérer des matrices à coefficients dans un anneau commutatif unitaire A. On va voir que multiplier à gauche une matrice V par une matrice élémentaire revient à effectuer une opération sur les lignes de V. Symétriquement, multiplier à droite sur une matrice V par une matrice élémentaire revient à effectuer une opération sur les colonnes de V.

MATRICES DE TRANSVECTION

Une matrice U E Mn(A) est une matrice de transvection si elle s'écrit

i

u = ld + aE,; =

[

1 · · . . .

lJ

j

avec i =f= j et a E A '- {O}. Le coefficient a est supposé non nul pour que Id ne soit pas une matrice de transvection. On remarque que U E GLn(A) puisque

( Id - aE - ·) ( Id + aE· ·) = ( Id + aE · ·) ( Id - aE· ·) = Id. i,3 i ,3 i,3 i ,3 De plus, on calcule directement det(U) = 1.

A quel type d'opérations élémentaires correspondent les matrices de transvec­ tion ? Multiplier à gauche la matrice V E Mnxm(A) par la matrice de transvec­ tion U = Id + aEi,j E GLn(A) revient à effectuer Li +--i Li + aLi > c'est-à-dire ajouter a fois la j-ième ligne de V à la i-ième ligne de V. Multiplier à droite une matrice V E Mnxm(A) par la matrice de transvection U = Id + aEi,j E GLm(A) revient à effectuer Ci +--i Ci + aCi, c'est-à-dire ajouter a fois la i-ième colonne de V à la j-ième colonne de V.

Remarque 4.88 - Transvections et matrices de transvection. Soient A = k un corps et E un k-espace vectoriel. Il existe une notion de transvection pour les éléments u E 2'(E) (voir [PER, IV.2.b]). Une transvection dans 2'(E) est alors un endomorphisme u pour lequel il existe une base de E dans laquelle la matrice de u