• Aucun résultat trouvé

I. Formes multilinéaires . . . . 1

N/A
N/A
Protected

Academic year: 2022

Partager "I. Formes multilinéaires . . . . 1"

Copied!
10
0
0

Texte intégral

(1)

Déterminants

Rédaction incomplète. Version 0.3

le 3 juin 2020

Plan

I. Formes multilinéaires . . . . 1

1. Dénitions . . . . 1

2. Formes alternées . . . . 2

II. Déterminants de famille de vecteurs . . . . 4

1. Déterminant d'une famille de vecteurs dans une base . . . . 4

2. Orientation d'un espace vectoriel réel . . . . 5

III. Déterminant d'un endomorphisme . . . . 6

IV. Déterminant d'une matrice carrée . . . . 7

1. Les matrices pour elles mêmes . . . . 7

2. Matrices de familles de vecteurs . . . . 8

3. Matrices d'endomorphismes . . . . 8

4. Développements suivant une ligne ou une colonne . . . . 9

5. Calculs pratiques . . . . 9

Index

base directe, 6 base indirecte, 6 cofacteurs, 9

déterminant d'un endomorphisme, 6 déterminant d'une famille dans une base, 4 déterminant de la composée de deux endomor-

phismes, 7

déterminant de VanderMonde, 10

forme multilinéaire, 1

forme multilinéaire alternée, 2 forme multilinéaire antisymétrique, 2 formules de Cramer, 5, 7

matrice des cofacteurs, 9 mineurs, 9

orientation d'un espace vectoriel réel, 5 orientation d'un plan autour d'un vecteur, 6

I. Formes multilinéaires

1. Dénitions

Notation. Soit E , F deux K -espaces vectoriels, p ∈ N

et ω une fonction de E

p

dans F . Pour tout i ∈ J 1, n K et tout (x

1

, · · · , x

p

) ∈ E

p

; on dénit les fonctions de la i -ème place

ω(x

1

, · · · , x

i−1

, •, x

i+1

, · · · , x

p

) :

( E → F

x 7→ ω(x

1

, · · · , x

i−1

, x, x

i+1

, · · · , x

p

) .

Dénition (Application p -linéaire). Soit E , F deux K -espaces vectoriels et p ∈ N

. Une application ω de E

p

dans F est dite p -linéaire si et seulement si

∀i ∈ J 1, p K , ∀(x

1

, · · · , x

p

) ∈ E

p

, ω(x

1

, · · · , x

i−1

, •, x

i+1

, · · · , x

p

) ∈ L(E, F ).

Lorsque F = K , une application p -linéaire est appelée forme p -linéaire.

Proposition 1. L'ensemble des formes p -linéaires est un sous-espace vectoriel de l'espace fonctionnel F(E

p

, K) . Preuve. On vérie avec la dénition des opérations fonctionnelles que toute combinaison de deux formes p -linéaires et encore p -linéaire.

Dénition. Soit σ ∈ S

p

et ω une application p -linéaire sur un espace E . L'application σ

ω est dénie par :

∀(x

1

, · · · , x

p

) ∈ E

p

: (σ

ω)(x

1

, · · · , x

p

) = ω(x

σ

(1), · · · , x

σ

(p)).

(2)

Proposition 2. Soit σ et σ

0

dans S

p

et ω , ω

0

des applications p -linéaires sur un espace E . Alors :

∀λ ∈ K, σ

(ω + ω

0

) = σ

ω + σ

ω

0

et σ

(λω) = λσ

ω.

De plus, la forme σ

ω est p -linéaire et

σ

0∗

ω) = (σ

0

◦ σ)

ω.

Preuve. Notons ω

1

= σ

ω . La i -ème place de σ

1

est la σ(i) -ème de σ . Comme ω est linéaire par rapport à chacune de ses places, il en est de même de ω

1

.

Soit x = (x

1

, · · · , x

p

) ∈ E

p

, notons y

1

= x

σ0(1)

, · · · , y

i

= x

σ0(i)

, · · · y

p

= x

σ0(p)

.

σ

0∗

ω

1

(x

1

, · · · , x

p

) = ω

1

(x

σ0(1)

, · · · , x

σ0(p)

) = ω(y

σ(1)

, · · · , y

σ(p)

) = ω(x

σ0(σ(1))

, · · · , x

σ0(σ(p))

)

= ((σ

0

◦ σ)

ω) (x

1

, · · · , x

p

) car y

i

= x

σ0(i)

⇒ y

σ(i)

= x

σ0(σ(i))

.

Dénition. Une forme p -linéaire ω est dite alternée (ou antisymétrique) si et seulement si σ

ω = ε(σ)ω pour toute permutation σ ∈ S

p

.

Une forme p -linéaire ω est dite symétrique si et seulement si σ

ω = ω pour toute permutation σ ∈ S

p

.

Proposition 3. L'ensemble des formes p -linéaires alternées sur E est un sous-espace vectoriel de l'espace des formes p -linéaires. Il est noté Λ

p

(E) .

Preuve. Pas de diculté pour vérier la stabilité.

2. Formes alternées

Proposition 4. Soit ω une forme p -linéaire alternée sur E , soit (x

1

, · · · , x

p

) ∈ E

p

.

∃i tq x

i

= 0 ou

∃(i, j) ∈ J 1, p K

2

tq i 6= j et x

i

= x

j

 

 

⇒ ω(x

1

, · · · , x

p

) = 0.

Preuve. L'application ω est linéaire par rapport à la i -ème place. Donc x

i

= 0

E

⇒ ω(x

1

, · · · , x

p

) = 0

R

. Supposons i < j avec x

i

= x

j

= x . Alors

ω(x

1

, · · · , x

i

, · · · , x

j

, · · · , x

p

)

| {z }

=ω(x1,···,x,···,x,···,xp)

= −ω(x

1

, · · · , x

j

, · · · , x

i

, · · · , x

p

)

| {z }

=ω(x1,···,x,···,x,···,xp)

⇒ ω(x

1

, · · · , x

i

, · · · , x

j

, · · · , x

p

) = 0.

Proposition 5. Soit ω une forme p -linéaire alternée et F une famille liée de vecteurs de E alors ω(F) = 0 . Preuve. Supposons F = (x

1

, · · · , x

p

) liée. Un de ses vecteurs est combinaison linéaire des autres :

x

i

= X

j6=i

λ

j

x

j

.

Par linéarité par rapport à la i -ème place, ω(x

1

, · · · , x

p

) = X

j6=i

λ

j

ω(x

1

, · · · , x

i−1

, x

j

, x

i+1

, · · · x

p

) = 0

car chaque terme de la somme est nul d'après la proposition précédente. En eet x

j

gure toujours à deux places distinctes parmi les arguments de ω .

L'application nulle est la seule forme p -linéaire alternée de E lorsque p > dim E . On peut démontrer (on ne le fera pas ici) que l'espace des formes p -inéaires alternées dans E est de dimension

dim E p

.

Ceci est compatible avec les dimensions déjà connues : dim Λ

1

(E) = dim E car Λ

p

(E) = E

, dim Λ

1

(E) = 0 si

p > dim E . C'est compatible aussi avec le théorème suivant pour p = dim E .

(3)

Proposition 6. L'espace des formes p -linéaires alternées dans un espace de dimension p est de dimension 1 . Preuve. La démonstration se fait en deux parties. Une analyse qui consiste à considérer une forme p linéaire alternée et à montrer qu'elle doit s'écrire d'une manière très particulière. Une synthèse qui consiste à vérier que l'expression qui se dégage du développement précédent dénit bien une forme p linéaire alternée.

Analyse.

Soit δ une forme p -linéaire aternée sur un espace E de dimension p . Soit A = (a

1

, · · · , a

p

) une base de E . On considère une famille quelconque (x

1

, · · · , x

p

) de vecteurs de E . Notons Λ la matrice de ces vecteurs dans la base de sorte qu'ils se décomposent en

∀j ∈ J 1, p K , x

j

=

p

X

i=1

λ

i,j

a

i

Pour exploiter la multilinéarité de δ , on va développer ainsi tous les x

i

. Un problème de notation se pose alors. Il faut trouver une notation diérente pour le i de chaque somme qui marque sa dépendance vis à vis de j . Le plus naturel est d'utiliser un indice. On notera donc

∀j ∈ J 1, p K , x

j

=

p

X

ij=1

λ

ij,j

a

ij

d'où

δ(x

1

, · · · , x

p

) = δ

p

X

i1=1

λ

i1,1

a

i1

,

p

X

i2=1

λ

i2,2

a

i2

, · · · ,

p

X

ip=1

λ

ip,p

a

ip

 .

Quand on développe par mutilinéarité, on obtient une somme qui porte sur les p -uplets d'indices δ(x

1

, · · · , x

p

) = X

(i1,···,ip)∈J1,pKp

λ

i1,1

λ

i2,2

· · · λ

ip,p

δ a

i1

, a

i2

, · · · , a

ip

.

Chaque p -uplet dénit une unique fonction f de J 1, p K dans lui même f (1) = i

1

, f(2) = i

2

, · · · f (p) = i

p

. En notant F l'ensemble des fonctions de J 1, p K dans lui même, le développement s'écrit

δ(x

1

, · · · , x

p

) = X

f∈F

λ

f(1),1

λ

f(2),2

· · · λ

f(p),p

δ a

f(1)

, a

f(2)

, · · · , a

f(p)

Quelles fonctions contribuent rééllement à la somme ?

Comme δ est alternée, seules les f injectives ont une contribution non nulle. Chaque fois que f n'est pas injective, un vecteur a se retrouve deux fois dans le δ . Or ici, injective est équivalent à surjective. On est donc amené à sommer uniquement sur les permutations

δ(x

1

, · · · , x

p

) = X

σ∈Sp

λ

σ(1),1

λ

σ(2),2

· · · λ

σ(p),p

δ a

σ(1)

, a

σ(2)

, · · · , a

σ(p)

.

| {z }

δ)(a1,···,ap)

Comme δ est alternée, σ

δ = ε(σ)δ . On peut donc mettre en facteur le scalaire δ(a

1

, · · · , a

p

) et obtenir δ(x

1

, · · · , x

p

) =

 X

σ∈Sp

ε(σ)λ

σ(1),1

λ

σ(2),2

· · · λ

σ(p),p

 δ(a

1

, · · · , a

p

).

Introduisons la base duale A

= (α

1

, · · · , α

p

) des formes coordonnées dans la base A et réécrivons les coordonnées : λ

i,j

= α

i

(x

j

) . On en déduit

δ(x

1

, · · · , x

p

) =

 X

σ∈Sp

ε(σ)α

σ(1)

(x

1

σ(2)

(x

2

) · · · α

σ(p)

(x

p

)

 δ(a

1

, · · · , a

p

).

Ceci achève l'analyse.

Synthèse. Considérons l'application δ

0

de E

p

dans K dénie par :

δ

0

(x

1

, · · · , x

p

) = X

σ∈Sp

ε(σ)α

σ(1)

(x

1

σ(2)

(x

2

) · · · α

σ(p)

(x

p

) = X

σ∈Sp

ε(σ)

p

Y

j=1

α

σ(j)

(x

j

).

(4)

L'analyse montre la relation fonctionnelle δ = δ(a

1

, · · · , a

p

0

. L'espace des formes p -linéaires alternées est de dimension au plus 1 . Pour montrer qu'il est exactement de dimension 1 , il reste à montrer que δ

0

est eectivement p -linéaire et alternée.

La fonction δ

0

= P

σ∈Sp

c

σ

est une somme de p! fonctions avec

c

id

(x

1

, · · · , x

p

) = α

1

(x

1

) · · · α

p

(x

p

) associée à l'identité et c

σ

= σ

c

id

.

Dans c

id

, un vecteur particulier x

j

ne gure qu'une fois. La fonction de la place j associée à c

id

est Kα

j

où K est le produit (constant) des α

i

(x

i

) pour i 6= j . La multilinéarité est conservée par σ

et addition ce qui montre que δ

0

est multilinéaire.

Pour le caractère alterné, considérons une permutation quelconque σ

0

.

0

δ

0

)(x

1

, · · · , x

p

) = δ

0

(x

σ0(1)

, · · · , x

σ0(p)

) = X

σ∈Sp

ε(σ)

p

Y

j=1

α

σ(j)

(x

σ0(j)

).

Lorsque j décrit J 1, p K, il en est de même pour σ

0

(j) . On peut donc poser j

0

= σ

0

(j) dans le produit d'où j = σ

0−1

(j

0

) puis revenir à la notation j

p

Y

j=1

α

σ(j)

(x

σ0(j)

) =

p

Y

j0=1

α

σ◦σ−1

0 (j0))

(x

j0

) =

p

Y

j0=1

α

σ◦σ−1

0 (j))

(x

j

).

De même, σ

0

= σ ◦ σ

−10

décrit S

p

et

0

δ

0

)(x

1

, · · · , x

p

) = X

σ0∈Sp

ε(σ

0

◦ σ

0

)

p

Y

j=1

α

σ0(j)

(x

j

) = X

σ∈Sp

ε(σ ◦ σ

0

)

p

Y

j=1

α

σ(j)

(x

j

).

On termine en utilisant la propriété de la signature : ε(σ ◦ σ

0

) = ε(σ)ε(σ

0

) .

La dénition du déterminant est un cas particulier d'un procédé plus général que l'on pourrait appeler antisy- métrisation d'une forme.

Soit ω une forme p -linéaire sur un espace vectoriel E . La forme ω n'est pas alternée. Dénissons une forme notée ω

a

par :

ω

a

= X

σ∈S

ε(σ)σ

ω.

On vérie avec la proposition 2 que ω

a

est alternée. Pour la dénition du déterminant, considérons une base (a

1

, · · · , a

p

) de E et (α

1

, · · · , α

p

) la base duale des formes coordonnées. Dénissons une p -forme par :

∀(x

1

, · · · , x

p

) ∈ E

n

, ω(x

1

, · · · , x

p

) = α

1

(x

1

) · · · α

p

(x

p

).

Cette forme n'est pas alternée, son antisymétrisée est la forme linéaire alternée précédente qui est appelée déter- minant dans la base (a

1

, · · · , a

p

) .

II. Déterminants de famille de vecteurs

1. Déterminant d'une famille de vecteurs dans une base

Proposition 7 (déterminant d'une famille dans une base). Soit A une base d'un K -espace vectoriel E de dimension p . Il existe une unique forme p -linéaire alternée qui prend en A la valeur 1 . Cette forme est notée det

A

et appelée déterminant dans la base A .

Preuve. C'est une conséquence des calculs de la section précédente. Ils montrent en particulier que

det

B

((x

1

, · · · , x

p

)) = X

σ∈Sp

ε(σ)

p

Y

j=1

α

σ(j)

(x

j

)

où les α

i

sont les fonctions coordonnées dans la base A . Proposition 8. Soit A et B deux bases de E , alors :

det

B

= det

B

(A) det

A

(égalité entre p -formes) , 1 = det

B

(A) det

A

(B) (égalité entre scalaires)

(5)

Preuve. Bien noter qu'il s'agit d'une égalité entre formes p -linéaires altenées. Comme det

A

n'est pas la p -forme alternée identiquement nulle car elle prend la valeur 1 en A , c'est une base de Λ

p

(E) . Il existe donc un scalaire λ ∈ K tel que det

B

= λ det

A

(égalité entre p -formes). Si on prend la valeur en A pour cette égalité fonctionnelle, on obtient

det

B

(A) = λ det

A

(A)

| {z }

=1

= λ

Pour obtenir la deuxième égalité, il sut de prendre la valeur en B dans l'égalité fonctionnelle.

Théorème. Soit A une base d'un K -espace vectoriel E de dimension p et F une famille de p vecteurs de E . Cette famille est une base si et seulement si det

A

(F) 6= 0 .

Preuve. Comme det

B

est une forme p -linéaire alternée, on sait déjà que si F est liée, son déterminant est nul. Donc det

B

(F) 6= 0 entraine F non liée c'est à dire libre donc une base car c'est une famille avec p = dim E vecteurs.

Réciproquement, si F est une base, on peut considérer la forme déterminant qu'elle dénit. Elle vérie l'identité fonctionnelle det

F

= det

F

(A) det

A

.

Si on prend la valeur en F , on obtient 1 = det

F

(A) det

A

(F) qui prouve bien que det

A

(F) 6= 0 .

Proposition 9 (formules de Cramer pour les coordonnées dans une base). Soit A = (a

1

, · · · , a

p

) une base d'un K -espace vectoriel E et b ∈ E . La i -ème coordonnée de b dans A est

det

A

(a

1

, · · · a

i−1

, b, a

i+1

, · · · , a

p

)

c'est à dire le déterminant de la famille obtenue à partir de A en remplaçant a

i

par b .

Preuve. Notons (λ

1

, · · · , λ

p

) les coordonnées de b et remplaçons b par son expression dans la base :

det

A

(a

1

, · · · a

i−1

, b, a

i+1

, · · · , a

p

) = det

A

(a

1

, · · · a

i−1

,

p

X

j=1

λ

j

a

j

, a

i+1

, · · · , a

p

)

=

p

X

j=1

λ

j

det

A

(a

1

, · · · a

i−1

, a

j

, a

i+1

, · · · , a

p

) = λ

i

det

A

(a

1

, · · · a

i−1

, a

i

, a

i+1

, · · · , a

p

)

| {z }

= detA(A)=1

car seul j = i contribue vraiment à la somme. Pour toute autre valeur de j , le vecteur x

j

gure à deux places diérentes dans le déterminant.

Remarque. Pour les formules de Cramer, on peut utiliser une base U quelconque au lieu de A . En reprenant le même raisonnement, on obtient

∀j ∈ J 1, p K , λ

i

= det

U

(a

1

, · · · , a

i−1

, b, a

i+1

, · · · , a

p

) det

U

(a

1

, · · · , a

i−1

, a

i

, a

i+1

, · · · , a

p

) .

Exemple (Déterminant d'une famille échelonnée dans une base.). Soit A = (a

1

, · · · , a

p

) une base et B = (b

1

, · · · , b

p

) . On note M la matrice de B dans A et on suppose que B est triangulaire supérieure. Alors

det

A

(b

1

, · · · , b

p

) = m

11

· · · m

pp

.

Quand on développe le déterminant, toutes les composantes en a

1

dans a

2

, a

p

disparaissent car m

11

a

1

est seul à la première place. De même, touts les composantes en a

2

dans a

3

, · · · , a

p

disparaissent car m

22

a

2

est seul à la deuxième place et ainsi de suite.

2. Orientation d'un espace vectoriel réel

Le déterminant dans une base donnée d'une autre base est un élément non nul du corps. Lorsque le corps est R, ce nombre est strictement positif ou strictement négatif.

Dénition. Deux bases A

1

et A

2

ont la même orientation si et seulement le déterminant d'une base dans l'autre est strictement positif c'est à dire

det

A1

(A

2

) > 0.

(6)

Proposition 10. La relation avoir la même orientation dans l'ensemble des bases d'un R-espace vectoriel de dimension nie est une relation d'équivalence. Pour cette relation, il existe deux classes d'équivalence.

Preuve. La relation est réexive car det

A

(A) = 1 . Elle est symétrique car det

A

(B) det

B

(A) = 1 . Supposons que A ait la même orientation que B et que B ait la même orientation que C . Alors :

det

A

(C) = det

A

(B)

| {z }

>0

det

B

(C)

| {z }

>0

> 0

donc A a la même orientation que C . La relation est transitive.

Dénition. Orienter un R-espace vectoriel c'est choisir une des deux classes et décréter que les bases de cette classe seront appelées directes et les autres indirectes.

Exemple. L'orientation usuelle de R

n

est celle pour laquelle la base canonique est directe.

Les propriétés du déterminant permettent de formuler quelques propriétés.

Proposition 11. Soit E un R-espace orienté et A une base de E .

Si A

0

est obtenue à partir de A en permutant deux vecteurs, A et A

0

ont des orientations diérentes.

Si A

0

est obtenue à partir de A en multipliant un vecteur par un réel strictement positif, A et A

0

ont la même orientation.

Si A

0

est obtenue à partir de A en multipliant un vecteur par un réel strictement négtif, A et A

0

ont des orientations diérentes.

Si A

0

est obtenue à partir de A en ajoutant à un vecteur une combinaison linéaire des autres, A et A

0

ont la même orientation.

Une des dicultés de cette notion d'orientation est que lorsque un espace orienté, ses sous-espaces n'héritent pas naturellement d'une orientation.

Par exemple, soit E un R-espace vectoriel de dimension 3 orienté et P un sous-espace de dimension 2 c'est à dire un plan. Pour orienter P , on doit utiliser un vecteur w / ∈ P .

On dira que P est orienté autour de w en décrétant que les bases directes de P sont les bases (u, v) de P telles que (u, v, w) soit une base directe de E . Plus généralement, dans un espace orienté, on peut orienter ainsi un hyperplan H autour d'un vecteur w / ∈ H .

III. Déterminant d'un endomorphisme

Proposition - Dénition. Soit E un K -espace vectoriel de dimension nie p et f un endomorphisme de E . Il existe un unique nombre noté det(f ) tel que, pour toute forme p -linéaire alternée non nulle δ , on ait f

δ = det(f )δ . Preuve. Soit δ

0

une forme p -linéaire alternée (par exemple det

A

où A est une base de E ). Dénissons f

δ

0

dans E

p

par :

∀(x

1

, · · · , x

p

) ∈ E

p

, (f

δ

0

)(x

1

, · · · , x

p

) = δ

0

(f (x

1

), · · · , f(x

p

)).

On peut vérier que f

δ

0

est encore une forme p -linéaire alternée. Comme l'espace des formes p -linéaires alternées est de dimension 1 , il existe λ

f

∈ R tel que f

δ

0

= λ

f

δ

0

. Ce réel λ

f

ne dépend que de f et pas de δ

0

. En eet, si δ

1

est une autre forme p -linéaire alternée non nulle, il existe µ

1

∈ R non nul tel que δ

1

= µ

1

δ

0

. Par linéarité,

f

δ

1

= f

1

δ

0

) = µ

1

f

δ

0

= µ

1

λ

f

δ

0

= λ

f

µ

1

δ

0

= λ

f

δ

1

.

Remarques. Bien noter que cette dénition est indépendante de toute base. C'est bien le déterminant de l'endomorphisme pour lui même seulement.

Par application directe de la dénition : det(Id

E

) = 1, det(λf ) = λ

dim(E)

det(f ).

Proposition 12. Soit E un K -espace vectoriel de dimension nie p et f ∈ L(E) . Pour toute base A = (a

1

, · · · , a

p

) , det(f ) = det

A

(f (a

1

), · · · , f (a

p

)).

(7)

Preuve. On utilise la dénition du déterminant de f avec la forme p -linéaire det

A

puis on spécialise en A = (a

1

, · · · , a

p

) ∈ E

p

:

f

det

A

= det(f ) det

A

⇒ (f

det

A

)(A)

| {z }

=detA(f(a1),···,f(ap))

= det(f )det

A

(A)

| {z }

=1

.

Proposition 13. Soit E de dimension nie et f , g deux endomorphismes de E . Alors : det(f ◦ g) = det(f ) det(g).

Preuve. Soit δ une forme p -linéaire alternée non nulle. Montrons que (f ◦ g)

δ = g

(f

δ) . Par dénition

∀(x

1

, · · · , x

p

) ∈ E

p

, ((f ◦ g)

δ) (x

1

, · · · , x

p

) = δ(f (g(x

1

)), · · · , f (g(x

p

)))

= (f

δ)(g(x

1

), · · · , g(x

p

)) = (g

(f

δ))(x

1

, · · · , x

p

).

Ensuite, par linéarité et dénition du déterminant d'un endomorphisme

(f ◦ g)

δ = g

(f

δ) ⇒ det(f ◦ g)δ = det(g)(f

δ) = det(g) det(f ) δ.

De cette égalité entre formes p -linéaires alternées, on déduit l'égalité det(f ◦ g) = det(f ) det(g) dans K .

IV. Déterminant d'une matrice carrée

1. Les matrices pour elles mêmes

Dénition. Soit A ∈ M

p

(K) , le déterminant de la matrice A est :

det A = X

σ∈sp

ε(σ)

p

Y

j=1

a

σ(j)j

Remarques. On peut exprimer det A avec le déterminant dans la base canonique X des colonnes : det A = det

X

(C

1

(A), · · · , C

p

(A)).

On en déduit le caractère multilinéaire et antisymétrique (alterné) par rapport aux colonnes.

Expression en énumérant les permutations pour p = 2 ou 3 . Pour p = 2 . i : paire, (12) : impaire

det

a

11

a

12

a

21

a

22

= a

11

a

22

− a

21

a

12

. Pour p = 3 . i , (1 2 3) , (1 3 2) : paires ; (3 2) , (1 3) , (1 2) : impaires

det

a

11

a

12

a

13

a

21

a

22

a

23

a

31

a

32

a

33

 = a

11

a

22

a

33

+ a

21

a

32

a

13

+ a

31

a

12

a

23

− a

11

a

32

a

23

− a

31

a

22

a

13

− a

21

a

12

a

33

.

Proposition 14 (Formules de Cramer). Soit A ∈ M

n

(K) inversible et Y ∈ M

n,1

(K) . L'équation AX = Y d'inconnue X =

 x

1

...

x

n

 admet une unique solution avec ∀i ∈ J 1, n K, x

i

=

detMdetMi

où M

i

est obtenue à partir de M en remplaçant la colonne i par Y .

Preuve. On se contente de vérier. Si X est solution alors Y est combinaison des colonnes de A Y = x

1

C

1

(A) + · · · + x

p

C

p

(A).

Quand on remplace Y dans M

i

par cette combinaison et que l'on développe par rapport à la place i , les termes avec la même colonne j (pour j 6= i ) en deux places diérentes sont nuls et il reste seulement

det(M

i

) = det(C

1

(A), · · · , Y, · · · , C

p

(A)) = x

i

det(C

1

(A), · · · , C

i

(A), · · · , C

p

(A)) = x

i

det(M ).

(8)

Proposition 15. Le déterminant d'une matrice triangulaire (supérieure ou inférieure) est égal au produit de ses termes diagonaux.

Remarque. En particulier det I

p

= 1 .

Preuve. On examine les contraintes que doit vérier une permutation σ pour que le produit Q

p

j=1

a

σ(j)j

soit non nul. Le caractère triangulaire supérieur de la matrice impose

∀j ∈ J 1, p K , σ(j) ≤ j ce qui entraine que seule l'identité contribue réellement à la somme.

Proposition 16. Le déterminant d'une matrice est égal à celui de sa transposée.

Preuve. Dans la somme étendue aux permutations σ qui dénit le déterminant, on pose σ

0

= σ

−1

et on exprime le produit avec σ

0

. On tombe naturellement sur le déterminant de la transposée.

Proposition 17. Le déterminant d'une matrice de permutation est égal à la signature de la permutation.

Preuve. Soit θ ∈ S

p

en examinant les contraintes pour une contribution non nulle, on prouve que la seule permu- tation σ qui contribue vraiment au déterminant de P

θ

est θ elle même. On en déduit det P

θ

= ε(θ) . Cette propriété peut aussi être vue comme une conséquence directe du caractère alternée par rapport aux colonnes.

Formule pour les matrices triangulaires par blocs. (admettre) à rédiger

2. Matrices de familles de vecteurs

Par dénition même des deux déterminants, pour toute base A de E et toute famille F de vecteurs de E : det

A

(F ) = det

Mat

A

F

on en déduit

Proposition 18. Le déterminant matriciel est une forme p -linéaire alternée de ses colonnes.

et en utilisant la transposition :

Proposition 19. Le déterminant matriciel est une forme p -linéaire alternée de ses lignes.

Attention, le déterminant n'est pas linéaire. En particulier : det (λA) = λ

p

det A.

3. Matrices d'endomorphismes

Par dénition même des deux déterminants, pour toute base A de E et tout endomorphisme f ∈ L(E) : det(f ) = det

Mat

A

f .

On en déduit

Proposition 20. Le déterminant du produit de deux matrices est égal au produit des déterminants des matrices.

Dénition. On note SL

p

(K) le sous-groupe de GL

p

(K) formé par les matrices de déterminant 1 .

Remarque sur le déterminant et la formule de changement de base pour la matrice d'un endomorphisme.

(9)

4. Développements suivant une ligne ou une colonne

Dénition.

Le mineur d'indice i, j est le déterminant de la matrice obtenue en supprimant la i -ème ligne et la j -ème colonne.

Le cofacteur d'indice i, j est le mineur multiplié par (−1)

i+j

Retenir l'aspect en damier du signe aecté aux cofacteurs avec des +1 sur la diagonale et changement de signe à chaque changement de case.

Proposition 21. Soit A ∈ M

p

(K) une matrice carrée dont le mineur d'indice (i, j) est noté A

i,j

. Formule du développement suivant la ligne i

det A =

p

X

j=1

(−1)

i+j

A

i,j

a

ij

Formule du développement suivant la colonne j det A =

p

X

i=1

(−1)

i+j

A

i,j

a

ij

Preuve. On donne seulement une ébauche de démonstration de la formule de développement suivant la colonne j

0

. Le déterminant est une fonction linéaire de la colonne j

0

. De la dénition même, on peut tirer les coecients devant les éléments de cette colonne en rassemblant les permutations σ qui ont le même σ(j

0

) .

det A =

p

X

i=1

X

σ∈sptqσ(j0)=i

ε(σ) Y

j∈J1,pK−{j0}

a

σ(j)j

 a

ij0

Notons α

ij0

le coecient devant a

ij0

dans l'expression précédente (la grande parenthèse). Il est assez facile de se convaincre que

α

nn

= A

n,n

.

Quant au reste, on se contentera de dire que l'on peut amener le terme i, j

0

en n, n en utilisant des permutations circulaires

entre les colonnes j

0

, j

0

+ 1, · · · , n entre les lignes i, i + 1, · · · , n

ce qui introduit des changements de signe dans les mineurs en multipliant par :

(−1)

n−j0

(−1)

n−i

= (−1)

i+j

.

Une autre preuve possible serait de noter δ la fonction dénie par la formule du développement suivant la colonne j .

Dénition. On désigne par Com(A) la matrice des cofacteurs de A c'est à dire que son terme d'indice (i, j) est (−1)

i+j

A

i,j

où A

i,j

est le mineur d'indice i, j) .

Proposition 22.

t

Com(A) A = A

t

Com(A) = det(A) I.

Si A est inversible,

A

−1

= 1 det A

t

Com(A).

Preuve. à compléter

5. Calculs pratiques

Signalons 3 méthodes pour calculer pratiquement le déterminant d'une matrice.

1. Utiliser des opérations élémentaires pour se ramener au déterminant d'une matrice triangulaire qui est le

produit des termes de la diagonale. L'eet des opérations élémentaires est le suivant

(10)

permuter 2 lignes (colonnes) multiplication par −1 multiplier une ligne (colonne) par λ multiplication par λ ajouter à une ligne (colonne) une combinaison des autres conservation

2. Développer suivant une ligne ou une colonne : en dimension 3 seulement ou alors en liaison avec une relation de récurrence et la conservation d'une certaine structure.

3. Lorsqu'une colonne particulière gure dans l'expression de toutes les colonnes. Il peut être intéressant de tout développer car chaque fois que la colonne particulière apparait deux fois, le déterminant associé est nul.

matrice de VanderMonde à compléter

Références

Documents relatifs

[r]

• Lorsque n = p et A est inversible, la forme réduite est triangulaire supérieure avec coe�icients non nuls et on peut via des opérations élémentaires sur les colonnes se ramener

Imprimer poly exercices maison nombres premiers et démonstrations. Equations diophantiennes

Se procurer les énoncés des exercices classe du chapitre 3 suites de matrices. 28 novembre

Quand on approche le ballon chargé ………., les charges alors que les charges : les palettes se chargent donc toutes les deux d’une électricité ………., elles se

Calculer le volume en cm³ des pièces suivantes (les cotes sont en mm). Pièce 1

Etre capable de citer les noms de formes simples. Projection des volumes

Etre capable de citer les noms de formes simples. Projection des volumes