• Aucun résultat trouvé

1 A IRES ET VOLUMES ORIENTÉS RELATIVEMENT À UNE BASE

N/A
N/A
Protected

Academic year: 2021

Partager "1 A IRES ET VOLUMES ORIENTÉS RELATIVEMENT À UNE BASE"

Copied!
15
0
0

Texte intégral

(1)

D ÉTERMINANTS

Dans tout ce chapitre, K est l’un des corps R ou C . Les résultats présentés, sauf un ou deux, demeurent vrais dans un contexte plus général, mais nous ne nous en préoccuperons pas ici.

1 A IRES ET VOLUMES ORIENTÉS RELATIVEMENT À UNE BASE

Il est difficile de définir proprement les notions d’« aire » dans le plan et de « volume » dans l’espace. Nous n’y arriverons pas pour des surfaces ou des volumes quelconques, mais ce que nous allons faire n’est pas rien. Point de départ de nos investigations : la donnée d’une « unité d’aire orientée » dans le plan et d’une « unité de volume orienté » dans l’espace.

b

e 1

e 2

b

e 1

e 2

e 3

— Une unité d’aire orientée dans le plan, ce sera pour nous un parallélogramme orienté, i.e. une base B = (e 1 , e 2 ) du plan que nous décrétons directe.

— Une unité de volume orienté dans l’espace, ce sera pour nous un parallélépipède orienté, i.e. une base B = (e 1 , e 2 , e 3 ) de l’espace que nous décrétons directe.

À partir de cette brique élémentaire, nous pouvons donner une aire (resp. un volume) à n’importe quel parallélogramme (resp. parallélépipède) du plan (resp. de l’espace). Nous noterons det B (x 1 , x 2 ) l’aire orientée du parallélogramme engendré par une famille (x 1 , x 2 ) de vecteurs dans le plan et det B (x 1 , x 2 , x 3 ) le volume orienté du parallélépipède engendré par une famille (x 1 , x 2 , x 3 ) de vecteurs de l’espace. L’indice « B » indique que ces aires/volumes orientés sont calculés relativement à l’unité d’aire/volume orienté que B représente en tant que brique élémentaire. En particulier : det B (B) = 1.

Quant à l’orientation d’une aire dans le plan, que signifie-t-elle ? Simplement qu’on comptera positivement l’aire d’un parallélogramme engendré par une base directe et négativement l’aire d’un parallélogramme engendré par une base indirecte.

Même principe pour les volumes orientés. Par exemple, dans le plan : det B (e 2 , e 1 ) = −det B (B) = −1 car la base (e 2 , e 1 ) est indirecte.

b

3e 1

2 2e 2

det B

 2e 2 , 3e 1

2

‹

= 2 × 3

2 det B (e 2 , e 1 )

= −3det B (B ) = −3

b

u

v

w

b

2u

2v

2w

det B (2u, 2v, 2w) = 2 3 det B (u, v, w)

b

u v

b

u

v

det B (u + u , v)

= det B (u, v) + det B (u , v) Ces figures nous permettent de comprendre quelques propriétés des aires et des volumes orientés. Plus précisément :

Caractérisation des bases :

(u, v) est une base du plan ⇐⇒ det B (u, v) 6= 0.

(u, v, w) est une base de l’espace ⇐⇒ det B (u, v, w) 6= 0.

En d’autres termes, la colinéarité de deux vecteurs est caractérisée dans le plan par le caractère aplati du parallélo- gramme qu’ils engendrent. Même principe dans l’espace.

En particulier, dans le plan : det B (u, u) = 0 et dans l’espace, dès que deux des trois vecteurs u, v et w sont égaux : det B (u, v, w) = 0 — c’est ce qu’on appelle le caractère alterné de l’application det B .

Antisymétrie : Le signe de det B (u, v) et det B (u, v, w) est changé chaque fois qu’on permute deux vecteurs.

Multilinéarité : L’application det B est linéaire par rapport à chacune de ses variables.

Caractérisation de l’orientation : (u, v) est une base directe du plan ⇐⇒ det B (u, v) > 0.

(u, v, w) est une base directe de l’espace ⇐⇒ det B (u, v, w) > 0.

(2)

2 F ORMES MULTILINÉAIRES ALTERNÉES

Nous allons dans ce paragraphe tâcher de prendre de la hauteur par rapport au précédent en abandonnant le strict point de vue d’une géométrie du plan et de l’espace. Par quoi les notions d’aire et volume orientés pourraient-elles bien être remplacées en dimension finie quelconque ?

Définition (Application multilinéaire) Soient E 1 , . . . , E n et F des K -espaces vectoriels et f : E 1 × . . . × E n −→ F une application. On dit que f est n-linéaire si :

pour tout k ∈ ¹1, et pour tout (x 1 , . . . , x k−1 , x k+1 , . . . , x n ) ∈ E 1 × . . . × E k−1 × E k+1 × . . . × E n fixé, l’application x 7−→ f (x 1 , . . . , x k−1 , x, x k+1 , . . . , x n ) est linéaire de E k dans F.

On dit que f est bilinéaire si : n = 2, trilinéaire si : n = 3, et si : F = K , que f est une forme n-linéaire.

En résumé, pour tout k ∈ ¹1, nº, f est linéaire par rapport à sa k ème variable quand on fixe les n − 1 variables restantes.

Bien sûr, une application 1-linéaire n’est rien d’autre qu’une application linéaire.

Exemple

• Dans l’espace, le produit scalaire et le produit vectoriel sont bilinéaires.

• Pour tout K -espace vectoriel E, la multiplication par un scalaire (λ, x) 7−→ λx est bilinéaire de K × E dans E.

• Le produit matriciel (A, B) 7−→ AB est bilinéaire de M p,q ( K ) × M q,r ( K ) dans M p,r ( K ).

• Le produit fonctionnel ( f , g) 7−→ f g est bilinéaire de R R × R R dans R R .

• Pour tous K -espaces vectoriels E, E et E ′′ , la composition ( f , g) 7−→ gf est bilinéaire de L (E, E ) × L (E , E ′′ ) dans L (E, E ′′ ).

Définition (Forme multilinéaire alternée) Soient E un K -espace vectoriel et f une forme n-linéaire de E n . On dit que f est alternée si f est nulle sur toute famille de vecteurs dont au moins deux sont égaux.

Théorème (Propriétés des formes multilinéaires alternées) Soient E un K -espace vectoriel et f une forme n-linéaire alternée de E n .

(i) f est nulle sur toute famille liée.

(ii) On ne change pas la valeur de f quand on ajoute à l’une de ses variables une combinaison linéaire des autres.

(iii) f est antisymétrique — cela revient à dire que pour tous x 1 , . . . , x nE et i, j ∈ ¹ 1, avec i < j : f (. . . , x j , . . . , x i , . . .) = − f (. . . , x i , . . . , x j , . . .).

Démonstration

(i) Soit (x 1 , . . . , x n ) une famille liée de E, avec disons : x k = X

i6=k

λ i x i pour un certain k ∈ ¹1, et pour certains λ 1 , . . . , λ k−1 , λ k+1 , . . . ,λ ∈ K . Alors :

f (x 1 , . . . , x n ) = f

. . . , x k−1 , X

i6=k

λ i x i , x k+1 , . . .

Linéarité

=

k ème variable

X

i6=k

λ i

x i apparaît deux fois

z }| { f (. . . , x k−1 , x i , x k+1 , . . .) = 0.

(ii) Soient x 1 , . . . , x nE et λ 1 , . . . , λ k−1 , λ k+1 , . . . , λ n ∈ K . Seule la k ème variable est explicitée ci-après : f

. . . , x k + X

i6=k

λ i x i , . . .

Linéarité

=

k ème variable f (. . . , x k , . . .) + X

i6=k

λ i f (. . . , x i , . . .)

| {z }

x i apparaît deux fois

= f (. . . , x k , . . .).

(iii) Seules les i ème et j ème variables sont explicitées ci-après. Par n-linéarité et caractère alternée de f : f (. . . , x i + x j , . . . , x i + x j , . . .)

| {z }

= 0

= f (. . . , x i , . . . , x i , . . .)

| {z }

= 0

+ f (. . . , x i , . . . , x j , . . .)+ f (. . . , x j , . . . , x i , . . .)+ f (. . . , x j , . . . , x j , . . .)

| {z }

= 0

,

donc en effet : f (. . . , x j , . . . , x i , . . .) = − f (. . . , x i , . . . , x j , . . .). „

(3)

À présent, afin de généraliser les notions d’aire orientée dans le plan et de volume orienté dans l’espace, nous allons tâcher de déterminer toutes les formes n -linéaires alternées d’un K -espace vectoriel E de dimension finie n .

Soient donc E 6=

0 E un K -espace vectoriel de dimension n, f une forme n-linéaire alternée de E n , B = (e 1 , . . . , e n ) une base de E et (x 1 , . . . , x n ) une famille de n vecteurs de E de matrice A dans B. Par n-linéarité de f :

f (x 1 , . . . , x n ) = f X n

k 1 =1

a k 1 1 e k 1 , . . . , X n

k n =1

a k n n e k n

!

= X

(k 1 ,...,k n )∈¹1,nº n

a k 1 1 . . . a k n n f e k 1 , . . . , e k n . Dans cette somme : f e k 1 , . . . , e k n

= 0 dès que deux des vecteurs e k i sont égaux, donc nous pouvons n’y conserver que les n-listes (k 1 , . . . , k n ) d’éléments DISTINCTS , i.e. les n-arrangements de ¹ 1, n º . Par ailleurs, nous savons bien que la donnée d’un n-arrangement (k 1 , . . . , k n ) de ¹ 1, n º est équivalente à la donnée d’une permutation σ de ¹ 1, n º , avec pour tout i ∈ ¹ 1, n º : σ(i) = k i . Finalement, si nous notons S n le groupe symétrique de ¹ 1, n º , dit groupe symétrique de degré n :

f (x 1 , . . . , x n ) = X

σ∈S n

‚ n Y

i=1

a σ(i)i

Œ

f e σ(1) , . . . , e σ(n) . Pour aller plus loin, nous allons devoir étudier davantage les quantités f e σ(1) , . . . , e σ(n)

qui viennent d’apparaître. Donnons- en deux exemples dans le cas : n = 4. L’outil majeur des calculs qui suivent, c’est l’ ANTISYMÉTRIE de f .

— Si σ est définie par les relations : σ(1) = 3, σ(2) = 4, σ(3) = 1 et σ(4) = 2, alors : f e σ(1) , e σ(2) , e σ(3) , e σ(4)

= f (e 3 , e 4 , e 1 , e 2 ) e 1 ↔e = 3f (e 1 , e 4 , e 3 , e 2 ) e 2 ↔e = 4 + f (e 1 , e 2 , e 3 , e 4 ).

— Si σ est définie par les relations : σ(1) = 2, σ(2) = 4, σ(3) = 1 et σ(4) = 3, alors : f e σ(1) , e σ(2) , e σ(3) , e σ(4)

= f (e 2 , e 4 , e 1 , e 3 ) e 1 ↔e = 2f (e 1 , e 4 , e 2 , e 3 ) e 2 ↔e = 4 f (e 1 , e 2 , e 4 , e 3 ) e 3 ↔e = 4f (e 1 , e 2 , e 3 , e 4 ).

Deux questions s’imposent après ces exemples. Peut-on « défaire » TOUTE permutation par des échanges successifs de deux valeurs ? Que dire de général sur ces signes « + » et « − » qui en résultent en facteur ?

3 G ROUPES SYMÉTRIQUES

On peut représenter de plusieurs façons une permutation σ de ¹ 1, n º . La première consiste à écrire σ sous la forme d’une matrice

1 2 · · · n

σ(1) σ(2) · · · σ(n)

. Par exemple, la permutation σ de ¹ 1, 4 º définie par les égalités : σ(1) = 2, σ(2) = 4, σ(3) = 1 et σ(4) = 3 peut être représentée par la matrice

1 2 3 4

2 4 1 3

.

Le produit de deux permutations est facile à effectuer à partir de cette représentation. Par exemple, dans S 5 : 1 2 3 4 5

1 4 2 5 3

1 2 3 4 5

2 1 4 5 3

=

1 2 3 4 5

4 1 5 3 2

. L’inverse d’une permutation est tout aussi facile à calculer. Par exemple, l’inverse de σ =

1 2 3 4

3 4 2 1

dans S 4 est σ −1 =

1 2 3 4

4 3 1 2

— lisez simplement la matrice de σ du bas vers le haut au lieu de la lire du haut vers le bas.

Définition-théorème (Support d’une permutation, permutations disjointes)

• Soit σS n . On appelle support de σ l’ensemble : supp(σ) = ¦

x ∈ ¹1, | σ(x) 6= x ©

des éléments de

¹1, qui NE sont PAS fixés par σ.

• On dit que deux permutations de ¹ 1, sont disjointes si leurs supports sont disjoints.

Propriété remarquable : Deux permutations disjointes commutent.

Démonstration Soient σ, σ S n disjointes et x ∈ ¹1, nº. Montrons que σ et σ commutent.

— Si : x/ supp(σ) et x/ supp(σ ), alors : σσ (x) = σ(x ) = x = σ (x) = σ σ(x).

— Supposons maintenant que : x ∈ supp(σ) — on traiterait de même le cas où : x ∈ supp(σ ).

Comme σ et σ sont disjointes : x/ supp(σ ), donc : σ (x) = x, donc : σσ (x) = σ(x).

Ensuite : σ(x) 6= x et σ est injective, donc : σ σ(x)

6= σ(x), donc : σ(x) ∈ supp(σ), or σ et σ sont disjointes, donc : σ σ(x) = σ(x). Finalement : σσ (x) = σ(x ) = σ σ(x).

Dans tous les cas : σσ (x) = σ σ(x ), donc comme c’est vrai pour tout x ∈ ¹ 1, n º : σσ = σ σ. „

(4)

Exemple La permutation

1 2 3 4 5

2 4 3 1 5

admet

1, 2, 4 pour support.

Définition (Cycle, transposition)

• Soit p ∈ ¹2, nº. On appelle p-cycle de ¹1, ou cycle de longueur p de ¹1, toute permutation σ de ¹1, pour laquelle il existe des éléments distincts x 1 , . . . , x p de ¹1, tels que :

σ(x 1 ) = x 2 , σ(x 2 ) = x 3 , . . . σ(x p−1 ) = x p et σ(x p ) = x 1 et σ(x) = x si x n’est aucun des éléments x 1 , . . . , x p . Un tel p-cycle est alors noté (x 1 x 2 . . . x p ), ou (x 2 x 3 . . . x p x 1 ), ou (x 3 x 4 . . . x p x 1 x 2 ), etc.

• Un 2-cycle de ¹1, est aussi appelé une transposition de ¹1, nº.

Exemple On peut bien sûr composer des cycles pour obtenir de nouvelles permutations.

Dans S 4 : (2 3) (4 3 1) (4 2 3) =

1 2 3 4

4 1 2 3

. Démonstration €

(2 3) ◦ (4 3 1) ◦ (4 2 3) Š (1) = €

(2 3) ◦ (4 3 1) Š (1) = €

(2 3) Š (4) = 4 et : €

(2 3) ◦ (4 3 1) ◦ (4 2 3) Š (2) = €

(2 3) ◦ (4 3 1) Š (3) = €

(2 3) Š

(1) = 1, etc.

Théorème (Décomposition d’une permutation en produit de cycles disjoints) Toute permutation de ¹ 1, n º peut être décomposée d’une et une seule manière — à l’ordre des facteurs près — comme un produit de cycles disjoints.

Les cycles évoqués étant disjoints, ils commutent comme on l’a vu, donc l’ordre dans lequel on les écrit est sans importance.

Démonstration Nous prouverons seulement l’existence d’une telle décomposition. Soit σS n . On définit une relation ∼ sur ¹ 1, n º de la manière suivante — pour tous x, y ∈ ¹ 1, n º : xy ⇐⇒ ∃ k ∈ Z , y = σ k (x).

• La relation ∼ ainsi définie est une relation d’équivalence. En effet, soient x , y,z ∈ ¹ 1, n º .

Réflexivité : x = Id(x ) = σ 0 (x), donc : xx.

Symétrie : Si : xy, disons : y = σ k (x) pour un certain k ∈ Z , alors : x = σ −k (x), donc : yx.

Transitivité : Si : xy et yz, disons : y = σ k (x) et z = σ l (y) pour certains k, l ∈ Z , alors : z = σ k+l (x), donc : xz.

Notons alors X 1 , . . . , X r les classes d’équivalence de ¹ 1, n º pour ∼ et choisissons x 1 dans X 1 , . . . , x r dans X r . Par définition, pour tout i ∈ ¹1, : X i = ¦

σ k (x i ) | k ∈ Z © .

• Soit i ∈ ¹1, rº. Comme X i est un ensemble fini : σ k (x i ) = σ l (x i ) pour certains k, l ∈ N avec : k < l, et donc : σ l−k (x i ) = x i . Nous pouvons dès lors noter p i le plus entier naturel non nul pour lequel : σ p i (x i ) = x i . Il n’est alors pas trop dur de se convaincre — petite division euclidienne par p i — que : X i = ¦

x i , σ(x i ), . . . , σ p i −1 (x i ) ©

avec : |X i | = p i .

• Pour tout i ∈ ¹1, rº, notons finalement σ i le p i -cycle x i σ(x i ) . . . σ p i −1 (x i )

de support X i . Ce sont là r cycles disjoints et pour tout i ∈ ¹1, : σ i X

i = σ X

i et σ i X

i = Id X

i . Il en découle que : σ = σ 1 . . . σ r et c’est bien une telle décomposition qu’on cherchait. „ Exemple

1 2 3 4 5 6

5 2 6 1 4 3

admet (1 5 4) (3 6) = (3 6) (1 5 4) pour décomposition en produit de cycles disjoints.

Démonstration La permutation de gauche agit circulairement sur certains paquets d’éléments. Elle envoie ainsi 1 sur 5, 5 sur 4 et 4 sur 1, elle fixe 2, et enfin elle envoie 3 sur 6 et 6 sur 3. C’est exactement ce que fait aussi la permutation (1 5 4) (3 6) = (3 6) (1 5 4) — d’où l’égalité.

Exemple Quelques exemples sur lesquels vous pouvez vous entraîner : (1 2 3 4 5 6) (1 2 4 6) (1 3 5) = (1 4) (2 5 3 6),

(1 2 4 6) (2 5) (3 4 1) = (1 3 6) (2 5 4), (1 3) (3 2 1 4) (3 1 4) (2 1 4) = (1 2) (3 4), (4 5 1 2) (3 4 1 6) (5 4 1 6) (4 2) = (1 3 5 2 6).

(5)

Théorème (Le groupe symétrique est engendré par ses transpositions) Toute permutation de ¹1, peut être décomposée comme un produit de transpositions.

En d’autres termes, quand on doit permuter n objets — quelle que soit la complexité apparente de la permutation — on peut TOUJOURS le faire progressivement par des échanges de deux objets.

$ Attention ! Une telle décomposition n’est en aucun cas unique. Par exemple : (1 2 3) = (1 2) (2 3) = (1 3) (1 2).

Démonstration Grâce au théorème précédent, il nous suffit d’établir le résultat dans le seul cas des cycles. Or tout simplement, pour tous x 1 , . . . , x p ∈ ¹1, distincts : (x 1 . . . x p ) = (x 1 x 2 ) (x 2 x 3 ) . . . (x p−1 x p ), donc

en effet tout cycle est un produit de transpositions. „

L’intégralité de ce chapitre repose sur le théorème suivant.

Définition-théorème (Signature)

• Il existe une et une seule application ǫ : S n −→

− 1, 1 , appelée signature, qui donne à toute transposition la valeur −1 et telle que pour tous σ, σ S n : ǫ(σσ ) = ǫ(σ)ǫ(σ ).

• Pour tout σS n , on dit que σ est paire si : ǫ(σ) = 1 et impaire si : ǫ(σ) = −1.

Sans nous garantir d’unicité, l’existence de la signature nous garantit une certaine ressemblance des différentes décom- positions possibles d’une même permutation comme produit de transpositions. Deux décompositions ne font pas forcément intervenir les mêmes nombres p et p de transpositions, mais en tout cas p et p ont la même parité.

Démonstration

• Notons P l’ensemble des paires

i, j d’entiers i, j ∈ ¹ 1, n º distincts, et pour toute permutation σS n , µ σ l’application

P −→ P i, j 7−→

σ(i), σ( j) . Il est facile de vérifier que µ σ est bijective de réciproque µ σ −1 . Du coup : Y

{i,j}∈P

σ(j)σ(i)

= Y

{u,v}∈P

|v − u| = Y

{i,j}∈P

| ji| après le changement d’indice : u, v = µ σ €

i, j Š

. Ce calcul prouve que le produit Y

{i,j}∈P

σ(j)σ(i)

ji vaut ±1. Notons-le ǫ(σ).

• Pour tous σ, σ S n : ǫ(σσ ) = Y

{i,j}∈P

σσ ( j)σσ (i)

ji = Y

{i,j}∈P

σσ (j) − σσ (i)

σ (j) − σ (i) × Y

{i, j}∈P

σ ( j)σ (i) ji

= Y

{u,v}∈P

σ(v)σ(u)

vu × Y

{i,j}∈P

σ ( j)σ (i)

ji = ǫ(σ)ǫ(σ ) après le changement d’indice

u, v = µ σ € i, j Š

.

• Soit τ = (a b) ∈ S n une transposition avec : a < b. Pour montrer l’égalité : ǫ(τ) = −1, nous allons simplement passer en revue les uns après les autres les termes du produit : ǫ(τ) = Y

{i,j}∈P

τ(j)τ(i) ji .

— Si

i, j ∈ P ne contient ni a ni b, alors : τ( j)τ(i) ji = ji

ji = 1.

— Pour tout i ∈ ¹1, distinct de a et b, regroupons les termes d’indices

i, a et

i, b . Leur contribution au produit vaut : τ(a)τ(i)

ai × τ(b)τ(i) bi = bi

ai × ai bi = 1.

— Pour finir, le terme d’indice

a, b vaut −1 car : τ(b)τ(a)

ba = ab ba = −1.

Conclusion : ǫ(τ) = −1 par produit.

• Montrons l’unicité de la signature sur S n . Soient η et η deux applications de S n dans

−1, 1 qui satisfont la conclusion du théorème. Pour tout σS n , disons : σ = τ 1 . . . τ pτ 1 , . . . , τ p sont des transpositions : η(σ) = η(τ 1 . . . τ p ) = η(τ 1 ) . . . η(τ p ) = (−1) p = η 1 ) . . . η p ) = η 1 . . . τ p ) = η (σ), donc comme

voulu : η = η . „

(6)

Théorème (Signature d’un cycle) Soit p ∈ ¹ 2, . La signature d’un p-cycle de ¹ 1, est (−1) p−1 .

Démonstration On a vu que pour tous x 1 , . . . , x p ∈ ¹ 1, distincts : (x 1 . . . x p ) = (x 1 x 2 ) (x 2 x 3 ) . . . (x p−1 x p ).

Cette décomposition fait intervenir p − 1 transpositions, donc en effet : ǫ €

(x 1 . . . x p ) Š

= (−1) p−1 . „ Exemple (1 5 3) (2 4 6 1) (3 4) est une permutation paire.

Démonstration ǫ €

(1 5 3) (2 4 6 1) (3 4) Š

= ǫ € (1 5 3) Š

ǫ €

(2 4 6 1) Š ǫ €

(3 4) Š

= (−1) 3−1 (−1) 4−1 (−1) 2−1 = 1.

Théorème (Caractérisation des formes multilinéaires alternées par la signature) Soient E un K -espace vectoriel et f une forme n-linéaire de E n . Alors f est alternée si et seulement si pour tous x 1 , . . . , x nE et σS n :

f x σ(1) , . . . , x σ(n)

= ǫ(σ) f (x 1 , . . . , x n ).

Ce résultat nous permet de conclure le calcul savant que nous avons amorcé plus haut. Si E 6=

0 E est un K -espace vectoriel de dimension n, f une forme n-linéaire alternée de E n , B = (e 1 , . . . , e n ) une base de E et enfin (x 1 , . . . , x n ) une famille de n vecteurs de E de matrice A dans B, alors :

f (x 1 , . . . , x n ) = X

σ∈S n

‚ n Y

i=1

a σ(i)i

Œ

f e σ(1) , . . . , e σ(n)

= X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)i

!

f (e 1 , . . . , e n ).

Démonstration

• Faisons l’hypothèse que pour tous x 1 , . . . , x nE et σS n : f x σ(1) , . . . , x σ(n)

= ǫ(σ) f (x 1 , . . . , x n ).

Soit alors x 1 , . . . , x nE. On suppose que : x i = x j pour certains i, j ∈ ¹ 1, n º avec : i < j et on note τ la transposition (i j). Dans ces conditions :

f (x 1 , . . . , x n ) x i = =x j f (. . . , x i−1 , x j , x i+1 , . . . , x j−1 , x i , x j+1 , . . .) = f x τ(1) , . . . , x τ(n)

= ǫ(τ) f (x 1 , . . . , x n ) = − f (x 1 , . . . , x n ).

Conclusion : f (x 1 , . . . , x n ) = 0, et donc f est alternée.

• Réciproquement, supposons f alternée. Comme S n est engendré par ses transpositions et comme la signa- ture d’un produit de p transpositions vaut (−1) p , il nous suffit d’établir le résultat dans le seul cas où σ est une transposition. Or nous l’avons déjà fait, c’est la propriété d’antisymétrie de f . „

4 D ÉTERMINANT D UNE FAMILLE DE VECTEURS DANS UNE BASE

Définition-théorème (Déterminant d’une famille de vecteurs dans une base) Soient E 6=

0 E un K -espace vectoriel de dimension n et B une base de E.

• Pour toute famille X de n vecteurs de E de matrice A dans B, on appelle déterminant de X dans B le scalaire : det B (X ) = X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)i .

• L’application det B ainsi définie sur E n est une forme n-linéaire alternée de E n et : det B (B ) = 1.

$ Attention ! Seul le déterminant d’une famille de n vecteurs dans un espace vectoriel de dimension n se trouve ainsi défini.

Démonstration

Multilinéarité : Vous la démontrerez seuls si vous voulez vous en convaincre.

Caractère alterné : Soient x 1 , . . . , x nE et ϕS n . Dans le calcul suivant, on effectue le changement

d’indice : j = ϕ(i) associé à la bijection ϕ, puis le changement d’indice : θ = σϕ −1 associé à la

bijection σ 7−→ σϕ −1 de S n sur lui-même.

(7)

det B x ϕ(1) , . . . , x ϕ(n)

= X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)ϕ(i) j=ϕ(i) = X

σ∈S n

ǫ(σ) Y n

j=1

a σϕ −1 (j)j θ=σϕ −1

= X

θ∈S n

ǫ(θ ϕ) Y n

j=1

a θ(j) j

= X

θ∈S n

ǫ(θ) ǫ(ϕ) Y n

i=1

a θ(i)i = ǫ(ϕ) X

θ∈S n

ǫ(θ ) Y n

i=1

a θ(i)i = ǫ(ϕ) det B (x 1 , . . . , x n ).

Calcul de det B (B) : La matrice B de B dans B est I n , donc pour tout σS n distinct de l’identité : Y n

i=1

b σ(i)i = 0. Conclusion : det B (B) = X

σ∈S n

ǫ(σ) Y n

i=1

b σ(i)i = ǫ(Id) Y n

i=1

b Id(i)i = 1. „

Théorème (Toute forme multilinéaire alternée est un multiple du déterminant dans une base donnée) Soient E 6=

0 E un K -espace vectoriel de dimension n, B une base de E et f une forme n-alternée de E n . Alors : f = f (B) det B .

Démonstration Résultat déjà prouvé : f (x 1 , . . . , x n ) = X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)i

!

f (e 1 , . . . , e n ). „

Théorème (Déterminants en dimensions 2 et 3)

(i) Soient E un K -espace vectoriel de dimension 2 de base B et x , yE de coordonnées respectives (x 1 , x 2 ) et (y 1 , y 2 ) dans B. Alors :

det B (x, y) = x 1 y 2x 2 y 1 , quantité que l’on note aussi : x x 1 2 y y 1 2

.

(ii) Soient E un K -espace vectoriel de dimension 3 de base B et x, y, zE de coordonnées respectives (x 1 , x 2 , x 3 ), (y 1 , y 2 , y 3 ) et (z 1 , z 2 ,z 3 ) dans B. Alors :

det B (x, y, z) = x 1 y 2 z 3 + x 2 y 3 z 1 + x 3 y 1 z 2x 3 y 2 z 1x 2 y 1 z 3x 1 y 3 z 2 (règle de Sarrus), quantité que l’on note aussi :

x 1 y 1 z 1 x 2 y 2 z 2 x 3 y 3 z 3

.

Démonstration

(i) det B (x, y ) = X

σ∈S 2

ǫ(σ) x σ(1) y σ(2) , or : S 2 = ¦

Id, (1 2) ©

, donc : det B (x, y) = x 1 y 2

|{z}

Id

x 2 y 1

|{z}

(1 2)

. (ii) det B (x, y, z) = X

σ∈S 3

ǫ(σ) x σ(1) y σ(2) z σ(3) , or : S 3 = ¦

Id, (1 2 3), (1 3 2), (1 3), (1 2), (2 3) ©

, donc : det B (x, y, z) = x 1 y 2 z 3

| {z }

Id

+ x 2 y 3 z 1

| {z }

(1 2 3)

+ x 3 y 1 z 2

| {z }

(1 3 2)

x 3 y 2 z 1

| {z }

(1 3)

x 2 y 1 z 3

| {z }

(1 2)

x 1 y 3 z 2

| {z }

(2 3)

. „

Nous avons motivé l’introduction des déterminants par les notions d’aire orientée en dimension 2 et de volume orienté en dimension 3. La notion abstraite de déterminant que nous venons d’introduire est-elle a posteriori satisfaisante ? Notons B 2 la base canonique de R 2 . Le petit carré élémentaire que B 2 engendre est à nos yeux, dans le monde physique, d’aire orientée 1. Nous nous attendons donc à ce que l’application det B 2 soit une mesure de l’aire orientée des parallélogrammes au sens le plus intuitif du terme. Les figures ci-dessous sont particulièrement convaincantes. Rappelons au passage que l’aire d’un parallélogramme peut être calculée selon le principe « base × hauteur » — et au pire, vous pouvez toujours utiliser les petits carreaux du grillage !

b

v u

0 3 2

2 0

= −3

b

u v

2 1 0

2 1

= 2

b

v u

θ 2

2 cos 2 sin θ θ −2 sin 2 cos θ θ = 4

b

u v

2

1 1 2

2 2

= 15

4

(8)

Théorème (Propriétés du déterminant d’une famille de vecteurs dans une base) Soient E 6=

0 E un K -espace vectoriel de dimension n, B et B deux bases de E et X une famille de n vecteurs de E.

(i) Formule de changement de base : det B (X ) = det B (B )det B ′ (X ).

(ii) Caractérisation des bases : X est une base de E si et seulement si : det B (X ) 6= 0.

Dans ce cas : det X (B) = 1 det B (X ) .

Démonstration

(i) L’application det B est n-linéaire alternée, donc de la forme : det B = det B (B ) det B ′ d’après un théo- rème précédent. Pour conclure, évaluer en X .

(ii) Si X est une base de E, alors d’après (i) : 1 = det B (B) = det B (X ) det X (B), donc det B (X ) est non nul d’inverse det X (B).

Réciproquement, par contraposition, si X n’est pas une base de E, alors X est liée — car de cardinal n en dimension n. Or det B est n-linéaire alternée, donc : det B (X ) = 0. „

$ Attention ! Dans la définition qui suit, on travaille seulement avec le corps K = R .

Définition-théorème (Orientation d’un R -espace vectoriel de dimension finie) Soit E 6=

0 E un R -espace vectoriel de dimension finie. On définit sur l’ensemble des bases de E une relation « avoir la même orientation que » de la façon suivante — pour toutes bases B et B de E :

B a la même orientation que B si et seulement si : det B (B ) > 0.

La relation ainsi définie est une relation d’équivalence. Il existe exactement deux orientations possibles — si B n’a pas la même orientation que B et B ′′ , alors B et B ′′ ont la même orientation.

Orienter E, c’est par définition décréter arbitrairement qu’une certaine base fixée B de E est directe. Toutes les bases de E de même orientation que B sont alors aussi qualifiées de directes et les autres d’indirectes.

Par exemple, on dit que R n est muni de son orientation canonique quand sa base canonique est considérée directe.

Jusqu’ici, personne n’a pu vous définir proprement le concept d’orientation — et pour cause, c’est compliqué. À présent, l’orientation d’un R -espace vectoriel repose sur l’idée que ses bases sont de deux sortes et que le choix d’une orientation est totalement arbitraire — certaines sont dites « directes » et les autres « indirectes ». Cet arbitraire n’est pas vraiment surprenant cela dit, vous n’appréciez pas l’orientation d’un plan de la même façon selon que vous vous placez au-dessus ou au-dessous de lui — les bases qui paraissent directes d’un côté paraissent indirectes de l’autre. La notion d’orientation ne s’en trouve pas ruinée car l’essentiel c’est ceci — deux bases qui ont la même orientation quand on regarde le plan d’en haut ont aussi la même orientation quand on le regarde d’en bas.

Démonstration Soient B, B et B ′′ trois bases de E.

Réflexivité : det B (B) = 1 > 0.

Symétrie : Si B a la même orientation que B : det B (B ) > 0 donc : det B ′ (B ) = 1

det B (B ) > 0, et ainsi B a bien la même orientation que B .

Transitivité : Si B a la même orientation que B et si B ′′ a la même orientation que B , alors : det B (B ) > 0 et det B (B ′′ ) > 0, donc : det B (B ′′ ) = det B (B ) det B (B ′′ ) > 0, et ainsi B ′′ a la même orientation que B.

Exactement deux orientations : Il s’agit de montrer que si B n’a pas la même orientation que B et B ′′ , alors B et B ′′ ont la même. Dans ce contexte : det B (B ) < 0 et det B (B ′′ ) < 0, donc : det B ′ (B ′′ ) = det B ′ (B)det B (B ′′ ) = det B (B ′′ )

det B (B ) > 0, et ainsi B et B ′′ ont la même orientation. „

(9)

5 D ÉTERMINANT D UNE MATRICE CARRÉE

5.1 D ÉFINITION ET PREMIÈRES PROPRIÉTÉS

Définition (Déterminant d’une matrice carrée) Soit A ∈ M n ( K ). On appelle déterminant de A le déterminant de la famille des colonnes de A dans la base canonique de K n , noté : det(A) ou

a 11 · · · a 1n

bbb b

b

b bbb

a n1 · · · a nn

ou

a 11 · · · a 1n

bbb b

b

b bbb

a n1 · · · a nn

[n]

. Par définition, donc : det(A) = X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)i .

$ Attention ! Seul le déterminant d’une matrice CARRÉE est ainsi défini.

Exemple det(I n ) = det B n B n

= 1 si on note B n la base canonique de K n .

Théorème (Lien entre le déterminant d’une matrice carrée et celui d’une famille de vecteurs dans une base) Soient E 6=

0 E un K -espace vectoriel de dimension n, B une base de E et X une famille de n vecteurs de E.

Alors : det B (X ) = det €

Mat B (X ) Š .

Démonstration Évident, les colonnes de Mat B (X ) sont exactement les coordonnées des vecteurs de X dans

B et les déterminants sont définis par la même formule. „

Théorème (Premières propriétés du déterminant d’une matrice carrée) Soient A, B ∈ M n ( K ).

(i) Multilinéarité par rapport aux colonnes : L’application A 7−→ det(A ) sur M n ( K ) est n-linéaire par rapport aux colonnes de A.

En particulier, pour tout λ ∈ K : det(λA) = λ n det(A).

A T TENTION !

(ii) Déterminant d’un produit : det(AB) = det(A) det(B).

(iii) Caractérisation de l’inversibilité : A est inversible si et seulement si : det(A) 6= 0.

En outre, dans ce cas : det A −1

= 1

det(A) . (iv) Invariance par similitude : Deux matrices semblables de M n ( K ) ont même déterminant.

(v) Invariance par transposition : det A

= det(A).

A fortiori, l’application A 7−→ det(A) sur M n ( K ) est également n-linéaire par rapport aux lignes de A.

L’invariance du déterminant par transposition signifie que dans l’expression : X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)i , on peut si on le souhaite remplacer a σ(i)i par a iσ(i) , c’est indolore.

$ Attention ! Le déterminant n’est pas linéaire. En général, si λ, µ ∈ K : det(λA+ µB) = λdet(A ) + µdet(B).

Démonstration

(i) Tout simplement, si on note B n la base canonique de K n , l’application det B n est n-linéaire.

(ii) Notons A 1 , . . . ,A n les colonnes de A, B 1 , . . . , B n celles de B, B n désigne la base canonique de K n et ϕ l’application (C 1 , . . . , C n ) 7−→ det B n AC 1 , . . . , AC n

de K n n

dans K .

Multilinéarité : Pour tous k ∈ ¹ 1, , C k , C k ∈ K n et λ ∈ K — les autres variables étant fixées : ϕ . . . , λC k + C k , . . .

= det B n . . . , A(λC k + C k ), . . .

= det B n . . . , λAC k + AC k , . . .

= λdet B

n . . . , AC k , . . .

+ det B n . . . , AC k , . . .

= λϕ . . . , C k , . . .

+ ϕ . . . , C k , . . . .

Caractère alterné : Si deux des colonnes C 1 , . . . , C n au moins sont égales : ϕ(C 1 , . . . , C n ) = 0

puisque det B n est alterné.

(10)

Conclusion : ϕ = ϕ B n

det B n = det B n (A 1 , . . . , A n ) det B n = det(A)det B n , donc : det(AB) = det B n AB 1 , . . . , AB n

= ϕ(B 1 , . . . , B n ) = det(A) det B n (B 1 , . . . , B n ) = det(A) det(B).

(iii) Pour les familles de vecteurs, le résultat a été démontré dans les paragraphes précédents, or la matrice A est inversible si et seulement si la famille de ses colonnes est une base de K n .

(iv) Pour tous A ∈ M n ( K ) et P ∈ GL n ( K ), d’après (ii) et (iii) : det P −1 AP

= det(P) −1 det(A )det(P) = det(A).

(v) Nous devons montrer l’égalité : X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)i = X

σ∈S n

ǫ(σ) Y n

i=1

a iσ(i) . Dans le calcul qui suit, on effectue le changement d’indice : j = σ(i) associé à la bijection σ, puis le changement d’indice : ϕ = σ −1 associé à la bijection σ 7−→ σ −1 de S n sur S n (de réciproque elle-même). Remarquons par ailleurs que pour tout ϕS n : ǫ(ϕ) = ±1 donc : ǫ ϕ −1

= ǫ(ϕ) −1 = ǫ(ϕ).

X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)i j=σ(i) = X

σ∈S n

ǫ(σ) Y n

j=1

a −1 ( j) ϕ=σ

−1

= X

ϕ∈S n

ǫ ϕ −1 Y n

j=1

a jϕ(j) = X

ϕ∈S n

ǫ(ϕ) Y n

j=1

a jϕ(j) = X

σ∈S n

ǫ(σ) Y n

i=1

a iσ(i) . „

La notion de polynôme caractéristique n’est pas au programme de MPSI mais je tiens à ce que vous la connaissiez déjà, et vous l’étudierez de toute façon en deuxième année. Jusqu’ici, nos matrices ont toutes été à coefficients dans le corps C et non pas dans le corps C (X ) des fractions rationnelles à coefficients dans C , mais en réalité la théorie que nous venons de développer sur C est valable sur C (X ). Le déterminant d’une matrice de M n C (X )

est toujours un scalaire, mais donc ici une fraction rationnelle.

Théorème (Polynôme caractéristique d’une matrice carrée) Soit A ∈ M n ( C ). On pose : χ A (X ) = det(X I nA).

(i) χ A est un polynôme unitaire de degré n appelé le polynôme caractéristique de A.

(ii) Les racines (complexes) de χ A sont exactement les valeurs propres (complexes) de A.

Démonstration (i) χ A = X

σ∈S n

ǫ(σ) Y n

i=1

X δ σ(i)ia σ(i)i

, donc χ A est un polynôme de degré inférieur ou égal à n, mais dans cette somme, le terme associé à une permutation σS n peut-il être de degré n ? Oui, mais seulement si : σ(i) = i pour tout i ∈ ¹1, nº, i.e. si : σ = Id, auquel cas : ǫ(σ)

Y n

i=1

X δ σ(i)ia σ(i)i

= Y n

i=1

(X − a ii ).

Conclusion : χ A est unitaire de degré n.

(ii) Pour tout λ ∈ C : λ est valeur propre de A ⇐⇒ Ker(A−λ I n ) 6=

0 ⇐⇒ A−λI n est NON inversible

⇐⇒ det(λI nA) = 0 ⇐⇒ χ A (λ) = 0 ⇐⇒ λ est racine de χ A . „

5.2 D ÉTERMINANT D UNE MATRICE TRIANGULAIRE PAR BLOCS

Théorème (Déterminant d’une matrice triangulaire par blocs) Pour tous A 1 ∈ M p

1 ( K ), . . . , A r ∈ M p

r ( K ) :

A 1 × × ... × A r

=

A 1

× ...

× × A r

= det(A 1 ) . . . det(A r ).

En particulier, le déterminant d’une matrice triangulaire est le produit de ses coefficients diagonaux.

Démonstration L’invariance par transposition permet de ne travailler qu’avec des matrices triangulaires supé- rieures par blocs.

Cas d’une matrice triangulaire tout court : Soit A ∈ M n ( K ) triangulaire supérieure. Dans la relation : det(A) = X

σ∈S n

ǫ(σ) Y n

i=1

a σ(i)i , si le terme associé à une permutation σ est non nul, alors : a σ(i)i 6= 0

pour tout i ∈ ¹ 1, n º , donc : σ(i)i, mais nous allons voir qu’en fait : σ(i) = i par récurrence forte.

(11)

Initialisation : σ(1) ¶ 1 et σ(1) ∈ ¹ 1, , donc : σ(1) = 1.

Hérédité : Soit i ∈ ¹1, n − 1º. On suppose que : σ( j) = j pour tous j ∈ ¹1, iº. Que vaut σ(i + 1) ? Par hypothèse de récurrence et injectivité de σ : σ(i + 1) ¶ i + 1, mais nous savons par hypothèse de récurrence et injectivité que : σ(i + 1) ∈ / ¹ 1, — d’où l’égalité comme voulu.

Conclusion : si le terme associé à une permutation σ est non nul dans la définition de det(A), forcément : σ = Id. En retour, finalement : det(A) = ǫ(Id)

Y n

i=1

a Id(i)i = a 1 . . . a n .

Cas d’une matrice triangulaire par blocs : Nous prouverons seulement le résultat pour : r = 2, le cas général s’obtient ensuite aisément par récurrence. Fixons A ∈ M p ( K ), B ∈ M q ( K ) et X ∈ M p,q ( K ), et notons B p (resp. B q ) la base canonique de K p (resp. K q ). Objectif :

A X

0 B

= det(A)det(B).

L’application (M 1 , . . . , M p ) 7−→ ϕ

M X

0 B

de K p p

dans K — où M est la matrice de colonnes M 1 , . . . , M p — est clairement linéaire alternée, donc : ϕ = ϕ B p

det B p . A fortiori, en notant C 1 , . . . , C p les colonnes de A :

A X

0 B

= ϕ(C 1 , . . . , C p ) = det B p (C 1 , . . . , C p )ϕ B p

= det(A) I p X

0 B

. De même, l’application (N 1 , . . . , N q ) 7−→ ψ

I p X

0 N

de K q q

dans K — où N est la matrice de lignes N 1 , . . . , N q

— est linéaire alternée, donc : ψ = ψ B q

det B q , et en notant L 1 , . . . , L q les lignes de B :

A X

0 B

= det(A) I p X

0 B

= det(A)ψ(L 1 , . . . , L q ) = det(A)det B q (L 1 , . . . , L q )ψ B q

= det(A)det(B) I p X

0 I q , et donc comme la matrice

 I p X 0 I q

‹

est « vraiment » triangulaire : A X

0 B

= det(A) det(B). „

Exemple

2 4 −2 3

3 −1 2 5

0 0 4 1

0 0 1 0

= 2 3 −1 4

×

4 1 1 0

= (−14) × (−1) = 14 et

2 4 7

0 1 3

0 0 −1

= 2 × 1 × (−1) = −2.

5.3 C ALCUL DE DÉTERMINANTS PAR LA MÉTHODE DU PIVOT Fixons à présent A ∈ M n ( K ) de colonnes C 1 , . . . , C n et notons B n la base canonique de K n .

— Par linéarité par rapport à la j ème variable et caractère alterné de l’application det B n :

det B n (. . . , C j + λC i , . . .) = det B n (C 1 , . . . , C n ) + λdet B n (. . . , C i , . . .) = det(A) + 0 = det(A).

— Par linéarité par rapport à la j ème variable : det B n (. . . , λC j , . . .) = λdet B

n (C 1 , . . . , C n ) = λdet(A).

— Par caractère alterné : det B n (. . . , C j , . . . , C i , . . .) = −det B

n (. . . , C i , . . . , C j , . . .) = −det(A).

Ces petits calculs de rien du tout sont notre prochain théorème.

Théorème (Déterminant d’une matrice et opérations élémentaires) Soient i, j ∈ ¹1, avec : i 6= j et λ ∈ K .

• Les opérations élémentaires : L iL i + λ L j et C jC j + λC i ne modifient pas les déterminants.

• Les opérations élémentaires : L iλL i et C jλC j multiplient les déterminants par λ.

• Les opérations élémentaires : L iL j et C jC i multiplient les déterminants par −1.

Il nous a suffi de montrer le résultat sur les colonnes car le déterminant est invariant par transposition.

Exemple

1 5 0 −1

4 4 2 1

3 9 4 0

2 0 1 1

=

3 5 1 0

2 4 1 0

3 9 4 0

2 0 1 1

L 1L 1 + L 4 L 2L 2L 4

=

3 5 1

2 4 1

3 9 4

× 1

= −

1 5 3

1 4 2

4 9 3

C 1 C 3 =

1 5 3

0 −1 −1

0 −11 −9

L L 2 L 2 L 1

3 ← L 3 − 4L 1

= 1 ×

−11 −1 −1 −9

= 2.

Références

Documents relatifs

En envisageant toutes les surfaces intégrales de (6), on obtient, par le procédé indiqué, toutes les correspondances par aires constantes du plan Oxy, dans

Définition : Diluer un sirop 10 fois, c’est ajouter de l’eau au sirop dans les proportions : 1 volume de sirop pour 9 volumes d’eau.?. Tony Leparoux, professeur de physique-chimie

Soit AB une courbe plane quelconque; en tournant autour d'un axe z situé dans son plan, elle engendrera une surface de révolution. Supposons que le plan méri- dien ait tourné d'un

Le centre de gravité G d'une surface plane S se meut avec une vitesse constante dans son plan, pendant que ce plan tourne uniformément autour d'une droite qu'il contient5 le

[r]

[r]

Pour construire son cube avec des petits cubes, Sabrina a mis des rangées complètes de cubes bleus dont une extrémité est vi- siblea. Combien a-t-elle utilisé de

Pour construire son cube avec des petits cubes, Sabrina a mis des rangées complètes de cubes bleus dont une extrémité est vi- siblea. Combien a-t-elle utilisé de