• Aucun résultat trouvé

I.3 Décomposition d’une permutation ; signature

N/A
N/A
Protected

Academic year: 2021

Partager "I.3 Décomposition d’une permutation ; signature"

Copied!
20
0
0

Texte intégral

(1)

I Groupe symétrique

I.1 Définition

a Groupe symétrique

SoitEun ensemble. L’ensemble des bijections deEdans lui-même (appelées aussi permutations deE), muni de la loi◦de composition des applications, est un groupe, appelé groupe symétrique de l’ensembleE, et notéS(E) (« sigma de E ») classique- ment, ouSE au programme.

Il n’est pas commutatif, sauf lorsqueEa 1 ou 2 éléments.

b Cardinal

Rappelons que siEetF sont des ensembles ayant respectivementnetpéléments, sinpil y ap(p−1) . . . (p−n+1) applications injectives deEdansF. On verra dans le chapitre sur le dénombrement comment rédiger ce résultat de manière satisfai- sante, mais ce n’est pas mal de savoir « le voir » : numérotons pour cela les éléments deE,

E={e1, . . . ,en}

Pour définir une injectionudeEdansF, on apchoix pouru(e1). A chacun de ces choix on associep−1 choix pouru(e2) (la seule contrainte étantu(e2)6=u(e1)). Etc. . . Répétons-le : cette rédaction n’est pas très satisfaisante mathématiquement, mais on verra plus tard comment faire mieux, et de toute façon c’est comme cela qu’on trouve le résultat. . .Et en particulier :

Proposition : Lorsque l’ensembleE est fini àn éléments,SE est fini àn! élé- ments.

Et donc, siEetF ont même cardinaln,SE etSF ont même cardinaln!. Mais il y a beaucoup mieux :

Proposition : S’il y a une bijection entreE etF, il y a un isomorphisme entre SE,◦) et (SF,◦).

Démonstration Pas fondamentale, mais très intéressante à écrire. On part d’une bijection

E f //F

(2)

et on souhaiterait définir un isomorphisme deSE,◦) surSF,◦). On se pose donc naturellement la question : siφSE, comment définirψSF à partir deφet de f? C’est assez simple si on fait un petit diagramme. . .à complé- ter. . .puis terminer la démonstration !

F ? //

?

F

E φ //E

f

OO

Signification SiEetFont même cardinal, étudierSE,◦) ouSF,◦), c’est la même chose.

Définition On appelle parfois groupe symétrique d’indicen, et on note en gé- néralSn(en fait, la notation du programme estSn, mais c’est moins joli), le groupe des permutations de l’ensemble

E={1, 2, . . . ,n}= ‚1,nƒ.

. . .qui pourra être remplacé par‚0,n−1ƒpour des besoins de programmation Python.

Attention au vocabulaire : l’ordre du groupeSn, c’est-à-dire son cardinal, estn!. A ne pas confondre avec l’indicen.

Pour les exemples, on décrira un élément de ce groupe en écrivant les éléments de

‚1,nƒen ligne et, en-dessous de chaque élément, son image. Par exemple : σ=

Ã1 2 3 4 5 6 7 8 9 10

10 3 9 7 5 4 6 8 2 1

!

signifieraσ(1)=10,σ(2)=3, etc. . .Evidemment, il existe de meilleures façons de noterσ. . .voir plus loin !

Signalons enfin que l’on note courammentσ.xouσxà la place deσ(x).

I.2 Cycles, transpositions

a Orbites pour une permutation

Soitσun élément deSn. On définit sur l’ensembleE= ‚1,nƒla relationRσpar xRσy ⇐⇒ ∃kZ y=σk(x) .

On définit ainsi une relation d’équivalence sur‚1,nƒ.

Définition Les classes d’équivalence pour cette relation sont appeléesorbites pourσou sousσ.

(3)

Proposition Les orbites sousσforment une partition de‚1,nƒ.

On remarque qu’un point est fixe parσsi et seulement si son orbite est réduite à un singleton.

b Cycles

Définitions On dit que la permutationσ∈Snest un cycle lorsqu’elle admet une unique orbite non réduite à un point.

Cette orbite est appelée support du cycle.

Exemple, notation

Ã1 2 3 4 5 6 7 8 9 10

10 2 7 4 1 6 5 8 9 3

!

est un cycle de support {1, 3, 5, 7, 10}, qu’il est avantageux de noter (1 10 3 7 5).

Même si en fait le mieux serait de le noter sur un cercle (la notation en ligne a pour inconvénient, entre autres, de privilégier un élément « de départ »).

Longueur d’un cycle Le nombre`d’éléments de l’orbite non réduite à un point est la longueur du cycle, on dit queσest un`-cycle. On peut alors énoncer le Lemme Un cycle de longueur`est d’ordre`.

c Transposition

Définition On appelletranspositiontout 2-cycle, c’est-à-dire tout cycle de la forme (x y).

I.3 Décomposition d’une permutation ; signature

a Théorèmes de décomposition

Proposition 1 Soitn≥2. Pour toutσ∈Sn, il existe des transpositionsτ1, . . . ,τq

telles que

σ=τ1τ2◦ · · · ◦τq

Proposition 2 Soitn≥2. Pour toutσ∈Sn, il existe des cycles à supports deux à deux disjointsc1, . . . ,cptels que

σ=c1c2◦ · · · ◦cp

Cette décomposition est alors commutative : on peut changer l’ordre desci. Et elle est unique, à l’ordre des facteurs près évidemment.

(4)

Formulations alternatives Toute permutation se décompose en produit (on de- vrait plutôt dire : composée) de cycles. Toute permutation se décompose en produit (ou composée) de transpositions.

Les cycles, les transpositions engendrent le groupe symétrique.

Remarque sur les notations Généralement, quand on travaille dans le groupe symétriqueSn, on abandonne les◦, on noteσσ0plutôt queσσ0, on parle de « produit » alors qu’il s’agit de composition. Mais attention, ça ne rend pas la composition commutative. . .

Une démonstration par récurrence de la proposition 1 :

L’initialisation (n=2 est plus intéressant quen=1) ne pose pas de difficulté.

On notePnla propriété « Tout élément deSns’écrit comme composée de transpo- sitions. »

En supposantPnvraie, soitσun élément deSn+1. On distingue alors deux cas : Siσ(n+1)=n+1, on applique l’hypothèse de récurrence à la permutation de {1, . . . ,n}

« induite » parσ. Rédigeons (mais c’est à peine nécessaire) :σinduit une permuta- tionσ|n de‚1,nƒ. Par hypothèse de récurrence, il existeτ1,τ2,. . . ,τp transpositions de l’ensemble‚1,nƒtelles que

σ|n=τ1. . .τp

Notons alors, pour toutk,fτkla transposition de‚1,n+1ƒdéfinie par

k∈ ‚1,nƒ τfk(j)=τk(j) et fτk(n+1)=n+1

(τfk« étend »τkà‚1,n+1ƒ). Il est clair queτfkest une transposition (d’ailleurs, même s’il ne faudrait pas a priori confondre les deux, siτk=(i j) alorsfτk=(i j). . .la même notation pour deux choses différentes).

Sinon,σ(n+1)=mavecm∈{1, . . . ,n}. On définit alors σ0=

et on se ramène au cas précédent.

Cette démonstration est utile, à comprendre, surtout la dernière idée.

Le programme stipule que l’on doit savoir décomposer une permutation (voir exemples dans Ag2).

(5)

b Un invariant

Proposition :Soitσ=τ1. . .τp =τ01. . .τ0mune permutation décomposée (de deux façons) en produit de transpositions. Alorspetmont même parité.

c Morphisme signature

Définition Siσpeut se décomposer en produit d’un nombre pair (respective- ment : impair) de permutations, on dit queσest une permutation paire (res- pectivement : impaire). On définit sa signature :²(σ)=1 (respectivement :

²(σ)= −1).

Proposition L’application²qui à une permutation associe sa signature est un morphisme (surjectif dès quen ≥2) du groupe symétrique (Sn,◦) dans le groupe ({−1, 1},×).

Formule Siσ=τ1. . .τpalors²(σ)=(−1)p. Formule La signature d’unp-cycle est (−1)p−1.

Calcul On peut ainsi calculer de deux manières différentes²(σ), soit par ce qui précède, soit en utilisant la formule suivante (conséquence de la précédente et de la décomposition en cycles) :

Si {X1, . . . ,Xp} est l’ensemble des orbites deσ, siN(σ)=

p

X

k=1

(|Xk| −1), alors

²(σ)=(−1)N(σ).

d Groupe alterné

Définition :L’ensemble des permutations paires de l’ensemble‚1,nƒest un sous- groupe de (Sn,◦), appelé sous-groupe alterné d’ordren et notéAn. Il est d’ordre

n!

2.

(6)

II Déterminant dans une base

Attention aux notations. On manipule dans la suite de ce chapitre beaucoup den- uplets de vecteurs d’un espaceE de dimensionn. Si(x1, . . . ,xn)est un teln-uplet, chaquexja aussi unn-uplet de composantes dans une base(e1, . . . ,en)quelconque deE:xj =

n

X

i=1

ai,jei ouxj =

n

X

i=1

xi,jei. Il y a donc desn-uplets de vecteurs, desn- uplets d’éléments deK, si on confond les deux on se perd.

II.1 Définitions

a Application multilinéaire Une application

f :E1× · · ·En−→F

définie sur un produitE1× · · ·End’espaces vectoriels à valeurs dans un espace vec- torielFest dite multilinéaire lorsque, pour touti, pour tout

(x1, . . . ,xj1,xj+1, . . . ,xn)∈E1× · · ·Ej1×Ej+1× · · ·En, l’application x7−→f(x1, . . .xi−1,x,xi+1, . . . ,xn)

est linéaire deEi dansF.

LorsqueEi=Epour touti, on dit que

f :EnF est une applicationp-linéaire surE.

b Applicationn-linéaire alternée, antisymétrique Reprenons les notations du paragraphe précédent.

Définition L’applicationp-linéairef est dite alternée lorsque, s’il existei6=j tel quexi=xj, alorsf(x1, . . . ,xn)=0.

Autrement dit, de manière plus détaillée, pour toutxE, pour tousi,j tels que 1≤i<jn, pour tout (x1, . . . ,xi−1,xi+1, . . . ,xj−1,xj+1, . . . ,xn)∈En2,

f¡

x1, . . . ,xi1,x,xi+1, . . . ,xj1,x,xj+1, . . . ,xn¢

=0

Définition L’applicationn-linéaire f est dite antisymétrique lorsque pour tout (x,y)∈E2, pour tousi,jtels que 1≤i<jn, pour tout

(x1, . . . ,xi−1,xi+1, . . . ,xj−1,xj+1, . . . ,xn)∈En2, f¡

x1, . . . ,xi−1,x,xi+1, . . . ,xj−1,y,xj+1, . . . ,xn¢

= −f¡

x1, . . . ,xi−1,y,xi+1, . . . ,xj−1,x,xj+1, . . . ,xn¢

(7)

Ecriture avec permutations f est antisymétrique si et seulement si, pour toute transpositionτ∈Sn,

f(xτ(1), . . . ,xτ(n))= −f(x1, . . . ,xn) C’est quand même plus clair !

Proposition f est antisymétrique si et seulement si, pour toute permutationσ∈ Sn

f(xσ(1), . . . ,xσ(n))=²(σ)f(x1, . . . ,xn) où²(σ) est la signature deσ.

Démonstration (pas compliquée, mais il est utile de savoir l’écrire)

Lien entre antisymétrique et alternée Toute applicationn-linéaire alternée est antisymétrique. La réciproque est vraie lorsque Kest un sous-corps deC, mais il y a des corps sur lesquels cette réciproque est fausse.

Démonstration

c Formen-linéaire alternée

On appelle formen-linéaire alternée sur unK-espace vectorielEtoute application f :En−→K

n-linéaire et alternée. Une telle forme est donc antisymétrique.

(8)

III Théorème de structure

III.1 Le théorème de structure

Enoncé 1 Très structurel justement ! simple et bref.

SoitEunK-espace vectoriel de dimensionn. L’espace des formesn-linéaires alternées surEest unK-espace vectoriel de dimension 1.

Bien sûr,n=n. . .

Enoncé 2 Un peu plus « analysé ». Inconvénient, cet énoncé est plus lourd. Avan- tage, il est plus prêt à être utilisé.

SoitEun espace vectoriel de dimension finien. SoitB=(e1, . . . ,en) une base deE. Il existe une unique formen-linéaire alternéeφsurEtelle queφ(e1,e2, . . . ,en)= 1. Et toute formen-linéaire alternée surEest de la formeλφavecλK.

Equivalence Si l’énoncé 2 est vrai, il montre l’existence d’une formen-linéaire alternéeφsurE telle que l’ensemble des formesn-linéaires alternées surE soit

{λφ;λK}

c’est-à-dire Vect(φ), donc un espace vectoriel de dimension 1.

Si l’énoncé 1 est vrai, l’énoncé 2 l’est aussi. . .mais dans ce sens l’implication est un peu moins évidente, et comme on va démontrer l’énoncé 2, ce n’est pas indispensable de se fatiguer.

III.2 Déterminant de n vecteurs dans une base d’un espace vecto- riel de dimension n

Définition-Notation SoitB=(e1, . . . ,en) une base deE. L’unique formen-linéaire alternéeφsurEtelle que

φ(e1, . . . ,en)=1

est appelée déterminant dans la baseBet est notée detB. Formule Si, pour toutj,xj=

n

X

i=1

ai,jei, alors

detB(x1, . . . ,xn)= X

σ∈σn

²(σ)aσ(1),1. . .aσ(n),n.

Il arrive qu’on ne se souvienne pas bien, et qu’on écrive X

σ∈σn

²(σ)a1,σ(1). . .an,σ(n).

Une réindexation et le fait que²(σ1)=²(σ) montrent que ce n’est pas bien grave.

(9)

Proposition SoitBune base deE, avec dim(E)=n. Les formesn-linéaires al- ternées surEsont lesλdetBλest un élément deK.

Proposition bis Les formesn-linéaires alternées sur unK-espace vectoriel de dimensionnforment un espace vectoriel de dimension 1.

Recette d’utilisation - mode d’emploi Il faut penser à ce résultat lorsqu’on doit montrer un résultat de la forme

∀(x1, . . . ,xp)∈Ep φ(x1, . . . ,xp)=αdetB(x1, . . . ,xp)

(oùEest un espace de dimensionp). On doit alors penser à la méthode sui- vante :

On montre queφest une formep-linéaire alternée. Cela donne déjà l’exis- tence deα, par le théorème de structure. Puis, pour déterminerα, on prend (x1, . . . ,xp)=B=(e1, . . . ,ep). On a alorsα=φ(e1, . . . ,ep).

Ce schéma de démonstration se rencontre assez couramment.

III.3 Changement de bases

Proposition :SoitB,B0deux bases deE. Alors, pour toute famille (x1, . . . ,xn) d’élé- ments deE, on a

• detB0(x1, . . . ,xn)=detB0(B)detB(x1, . . . ,xn)

• detB(x1, . . . ,xn)=detB(B0)detB0(x1, . . . ,xn) et donc : detB(B0)=(detB0(B))−1

Démonstration :Relire le mode d’emploi si nécessaire.

III.4 Formes alternées et indépendance linéaire

Proposition :Soitφune formen-linéaire alternée sur un espace vectoriel de di- mensionn. On suppose queφn’est pas la forme nulle (i.e.φ6=e0, ce qui n’empêche évidemment pasφde s’annuler), alors, pour toute famille (x1, . . . ,xn) d’éléments de E,

³φ(x1, . . . ,xn)=0´

⇐⇒³

(x1, . . . ,xn) liée´

Démonstration :Si la famille (x1, . . . ,xn) est liée, un desxi, par exemplexk, est com- binaison linéaire des autres :

xk=

n

X

i=1 i6=k

αixi

En développantφ(x1, . . . ,xn) par linéarité par rapport auk-ième vecteur et en utili- sant le caractère alterné deφ, on obtient

φ(x1, . . . ,xn)=

n

X

i=1 i6=k

αiφ(x1, . . . ,xk1,xi,xk+1, . . . ,xn)=0

(10)

Si, maintenant, la famille (x1, . . . ,xn) est libre, c’est une baseBdeE. Et on retourne au théorème de structure : soitφ0=detB; alors siφest une forme linéaire non nulle, il existeλtel queφ=λφ0. Nécessairement λ6=0, doncφ(x1, . . . ,xn)=λ6=0. On utilise presque tout le temps ce résultat sous la forme suivante, qui donc est la plus importante :

Corollaire :Pour toute famille (x1, . . . ,xn) d’éléments deE,

³

detB(x1, . . . ,xn)6=0´

⇐⇒

³

(x1, . . . ,xn) base deE´

IV Déterminant d’un endomorphisme

IV.1 Définition

Définir le déterminant d’un endomorphisme demande un petit peu d’attention, mais c’est la formule qu’il faut retenir.

Définition Soituun endomorphisme d’un espace vectoriel de dimension finie n. SoitBune base deE. L’application

φ: (x1, . . . ,xn)7−→detB¡

u(x1), . . . ,u(xn)¢ est une formen-linéaire alternée surE, il existe donc unλtel que φ=λdetB, i.e., pour toute famille (x1, . . . ,xn) d’éléments deE,

detB¡

u(x1), . . . ,u(xn

=λdetB(x1, . . . ,xn)

Ceλ, unique, ne dépend pas de la base choisie (démonstration simple en uti- lisant les relations entre detBet detB0). On l’appelle déterminant deuet on le note det(u). On a donc la caractérisation :

Formule Pour toute baseBdeE, pour toute famille (x1, . . . ,xn) d’éléments deE,

detB¡

u(x1), . . . ,u(xn

=det(u) detB(x1, . . . ,xn) Et en particulier, siB=(e1, . . . ,en),

det(u)=det(e1,...,en)¡

u(e1), . . . ,u(en

(11)

IV.2 Propriétés fondamentales

a Déterminant d’une composée

SoitEunK-espace vectoriel de dimension finie.

∀(u,v)∈(L(E))2 det(v◦u)=det(v)det(u) . . .et donc, en particulier,

∀(u,v)∈(L(E))2 det(v◦u)=det(u◦v) b Caractérisation des automorphismes

SoitEunK-espace vectoriel de dimension finie. SoituL(E).

uGL(E)⇐⇒ det(u)6=0

V Déterminant d’une matrice carrée

V.1 Définition, formule

On peut définir le déterminant d’une matrice carrée soit comme le déterminant de l’endomorphisme qui lui est canoniquement associé, soit comme le déterminant dans la base canonique de la famille de ses vecteurs colonnes, c’est la même chose.

Et la manière dont on « définit » n’est pas très importante. Ce qui importe, ce sont les formules. Et ici, en particulier, on a la formule :

Formule

det(A)= X

σ∈Sn

²(σ)aσ(1),1. . .aσ(n),n

(d’ailleurs on pourrait prendre cela comme définition du déterminant d’une ma- trice). Il faut se pencher un peu sur cette formule pour y voir autre chose qu’un

« gros machin ». Il s’agit d’une somme de produits obtenus en prenant un terme et un seul dans chaque ligne et dans chaque colonne (une fois que vous avez pris un ai,j dans votre produit, vous n’avez plus le droit de toucher à la lignei ni à la co- lonnej), chaque produit étant affecté d’un signe (et c’est là qu’intervient la notion de signature d’une permutation).

Comme vu plus haut, si on écrit det(A)= X

σ∈Sn

²(σ)a1,σ(1). . .an,σ(n)

c’est encore vrai !

(12)

V.2 Remarques banales mais importantes

a Polynomialité

« det(A) est une fonction polynomiale des composantes deAdans la base canonique deMn(K) »

Ceci exprime seulement que det(A) est une combinaison linéaire de produit de puis- sances desai,j, les coefficients deA. On utilisera cet argument en topologie matri- cielle pour dire que l’applicationA7−→det(A) est continue surMn(K) avecK=Rou K=C.

b Une fonction simple Que peut-on dire de la fonction

x7−→

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

x a2,1 . . . a1,n

a2,1 a2,2 . .. ... ... . .. . .. . .. ...

... . .. . .. an−1,n

an,1 . . . an,n1 an,n

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

?

(le fait que la variable soit en haut à gauche n’a aucune importance : on met unx quelque part dans la matrice, et on fixe tous les autres coefficients).

Cette remarque sera utilisée pour calculer la différentielle du déterminant à partir de ses dérivées partielles (voir fonctions de plusieurs variables).

(13)

V.3 n=2 et n=3, Sarrus

Comme|S2| =2 et|S3| =6, on peut développer brutalement des déterminants 2×2 et 3×3. A partir de 4×4 c’est une autre histoire.

a n=2

S2={Id, (1 2)}, donc

¯

¯

¯

¯

¯

a1,1 a1,2 a2,1 a2,2

¯

¯

¯

¯

¯

=a1,1a2,2a2,1a1,2

b n=3

S3={Id, (1 2), (1 3), (2 3), (1 2 3), (1 3 2)}, signature−1 pour les transpositions et 1 pour les autres. Donc

¯

¯

¯

¯

¯

¯

¯

a1,1 a1,2 a1,3 a2,1 a2,2 a2,3

a3,1 a3,2 a3,3

¯

¯

¯

¯

¯

¯

¯

=a1,1a2,2a3,3a2,1a1,2a3,3a3,1a2,2a1,3a1,1a3,2a2,3+a2,1a3,2a1,3+a3,1a1,2a2,3

qui serait quand même un peu pénible à savoir par cœur, si on n’avait pas la mné- motechnique règle de Sarrus :

a11 a12 a13 a11 a12

a21 a22 a23 a21 a22

a31 a32 a33 a31 a32

(signes+pour les diagonales en traits pleins, signes−pour les antidiagonales en pointillés).

V.4 Lien avec les autres déterminants

On vérifie alors que, pour tout endomorphismeud’un espace de dimension finieE, pour toute baseBdeE,

det(u)=det¡

MatB(u)¢

En particulier, si A∈Mn(K), siBC est la base canonique deKn, si (c1, . . . ,cn) est la famille des vecteurs colonnes deA,

det(A)=detBC(c1, . . . ,cn)

(14)

V.5 Propriétés

a Déterminant d’un produit

Proposition Pour toutes matrices carréesAetB, det(AB)=det(A) det(B)

Démonstration En utilisant la propriété analogue pour les endomorphismes, et le paragraphe précédent.

et donc

det(AB)=det(B A)

Remarquons l’analogie avec la trace. . .mais cette analogie a ses limites. Par exemple, siA,B,Csont trois matrices carrées, det(ABC)=det(B AC)

Mais en revanche, il n’y a pas de raison pour que l’on ait Tr(ABC)=Tr(B AC).

b Déterminant d’une transposée

Proposition Le déterminant de la transposée d’une matrice carrée est égal au déterminant de cette matrice :

det(AT)=det(A) Démonstration Intéressante, déjà à peu près vue.

Corollaire et donc le déterminant d’une matrice est celui de la famille de ses vecteurs lignes dans la base canonique.

c Caractérisation de l’inversibilité

Proposition Une matrice est inversible si et seulement si son déterminant est non nul :

det(A)6=0 ⇐⇒ AGLn(K)

Démonstration En utilisant la propriété analogue pour les endomorphismes.

d Remarque On a

det(λA) =λn det(A) On n’a évidemment pas det(A+B)=det(A)+det(B). . .

Le déterminant n’est pas une formen-linéaire alternée surMn(K). Dire cela, c’est mélanger les contextes, c’est plus un non-sens qu’une erreur.

(15)

VI Développement par rapport à une ligne ou une co- lonne

VI.1 Mineurs, cofacteurs, formules

Mineurs SoitAune matrice carrée d’ordren. On note, pour tout couple d’in- dices (i,j),Di,j le déterminant de la matrice carrée (n−1)×(n−1) obtenue en supprimant lai-ème ligne et laj-ième colonne deA.Di,j est appelé mi- neur associé àai,j.

Formules On démontre alors les formules suivantes : Pour touti∈ ‚1,nƒ

detA=

n

X

j=1

(−1)i+jai,jDi,j (développement par rapport à lai-ème ligne) et Pour toutj∈ ‚1,nƒ,

detA=

n

X

i=1

(−1)i+jai,jDi,j

(développement par rapport à laj-ème colonne).

Démonstration Technique, jamais demandée aux concours, on peut s’en pas- ser. . .ou reprendre le cours de mpsi !

Cofacteurs (−1)i+jDi,jest le cofacteur deai,j.

Remarquons que les formules ramènent le calcul d’un déterminantn×nàndéter- minants (n−1)×(n−1), d’où un coût de calcul identique (n!) à la formule avec lesσ s’il n’y a pas suffisamment de zéros.

A propos des cofacteurs

Le « mineur (i,j) », c’est le déterminant obtenu en ôtant la lignei et la colonnej. Facile à retenir.

On pourrait donc se dire que le cofacteur, c’est la même chose avec un signe. Ce n’est pas faux, mais ce n’est pas une compréhension suffisante du cofacteur. Il faut comprendre que :

Le cofacteur deai,j, c’est (d’où son nom) ce qui est en facteur deai,jdans le déve- loppement du déterminant.

(16)

VI.2 Déterminant d’une matrice triangulaire

Par récurrence surn, en développant par rapport à la première colonne, on obtient

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

a1,1 a2,1 . . . a1,n 0 a2,2 . .. ...

... . .. . .. . .. ... ... . .. . .. an−1,n 0 . . . 0 an,n

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

=

n

Y

i=1

ai,i

Résultat à connaître. Il n’est nullement indispensable de connaître la théorie du dé- terminant pour montrer que

a1,1 a2,1 . . . a1,n 0 a2,2 . .. ...

... . .. . .. . .. ... ... . .. . .. an1,n

0 . . . 0 an,n

GLn(K) ⇐⇒ ∀i∈ ‚1,nƒ ai,i6=0

(il suffit de dire que la matrice est inversible si et seulement si la famille de ses vec- teurs colonnes est indépendante, ce qui équivaut assez facilement à dire que tous lesai,i sont non nuls), mais comme le déterminant est au programme, on a le droit de s’en servir.

VI.3 Comatrice, formule pour l’inverse d’une matrice

a Résultats

Reprenons les notations du paragraphe précédent.

Comatrice La comatrice deAest la matrice¡

(−1)i+jDi,j¢

1≤i,jndes cofacteurs.

On la noteraAeou Com(A), suivant les cas.

Formule Les formules de développement donnent alors A×(Com(A))T=(Com(A))T×A=(detA)In

Formule pour l’inverse On retrouve le fait queAest inversible si et seulement si son déterminant n’est pas nul, et si c’est le cas :

A−1= 1 detA

t

Ae

VII Opérations sur les lignes ou les colonnes

Echanger deux lignes ou deux colonnes multiplie le déterminant par -1.

(17)

Ajouter à une ligne (ou à une colonne)λfois une autre ne change pas le déterminant.

Multiplier une ligne ou une colonne parλmultiplie le déterminant parλ(multiplier la matrice parλmultiplie son déterminant parλn).

Tous ces résultats se montrent facilement en utilisant le fait que le déterminant est une formen-linéaire alternée, et en interprétant le déterminant d’une matrice comme le déterminant dans la base canonique de la famille de ses vecteurs lignes (ou colonnes).

UtilisationOn utilise souvent les opérations élémentaires pour annuler beaucoup de coefficients dans une ligne ou une colonne. Puis on développe par rapport à cette ligne ou colonne.

Exercice classiqueCalculer

Dn(x)=

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

xa1 −1 0 . . . 0

a2 x . .. . .. ...

a3 0 . .. . .. 0 ... ... . .. . .. −1

an 0 . . . 0 x

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

(polynôme caractéristique d’une matrice compagne, voir chapitre sur la réduction).

(18)

VIII Déterminant par blocs

Proposition SoitA∈Mp(K),B∈Mq(K),U∈Mp,q(K) etM∈Mp+q(K) définie par blocs de la manière suivante :

M=

A

(0) B

U

Alors

det(M)=det(A) det(B)

Extension SoitAla matrice triangulaire par blocs (lesAi sont des matrices car- rées)

M=

A1 . . . (∗) O A2 ...

... . .. . .. ... O . . . O An

Alors

det(M)=

n

Y

i=1

det(Ai)

IX Déterminant de Vandermonde

Formule :On note

V(x1, . . . ,xn)=

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

1 x1 x21 . . . xn−11 1 x2 x22 . . . xn21 ... ... ... ... ... ... ... ... 1 xn xn2 . . . xn−1n

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯

¯ .

AlorsV(x1, . . . ,xn)= Y

1i<j

(xjxi).

Remarque - Exercice :La condition nécessaire et suffisante d’inversibilité de la ma- trice de Vandermonde (lesxi deux à deux distincts) peut s’obtenir sans le calcul du déterminant de Vandermonde. C’est d’ailleurs intéressant.

Démonstration de la formule

Deux démonstrations envisageables : par opérations élémentaires ou en considé- rant les propriétés du polynômeV(x1, . . . ,xn−1,X). Cette dernière est à privilégier et à savoir rédiger correctement.

(19)

Table des matières

I Groupe symétrique 1

I.1 Définition . . . 1

a Groupe symétrique . . . 1

b Cardinal . . . 1

I.2 Cycles, transpositions . . . 2

a Orbites pour une permutation . . . 2

b Cycles . . . 3

c Transposition . . . 3

I.3 Décomposition d’une permutation ; signature . . . 3

a Théorèmes de décomposition . . . 3

b Un invariant . . . 5

c Morphisme signature . . . 5

d Groupe alterné . . . 5

II Déterminant dans une base 5 II.1 Définitions . . . 6

a Application multilinéaire . . . 6

b Applicationn-linéaire alternée, antisymétrique . . . . 6

c Formen-linéaire alternée . . . . 7

III Théorème de structure 8 III.1 Le théorème de structure . . . 8

III.2 Déterminant denvecteurs dans une base d’un espace vectoriel de di- mensionn . . . 8

III.3 Changement de bases . . . 9

III.4 Formes alternées et indépendance linéaire . . . 9

IV Déterminant d’un endomorphisme 10 IV.1 Définition . . . 10

IV.2 Propriétés fondamentales . . . 11

a Déterminant d’une composée . . . 11

b Caractérisation des automorphismes . . . 11

V Déterminant d’une matrice carrée 11 V.1 Définition, formule . . . 11

V.2 Remarques banales mais importantes . . . 12

a Polynomialité . . . 12

b Une fonction simple . . . 12

V.3 n=2 et n=3, Sarrus . . . 13

a n=2 . . . 13

b n=3 . . . 13

(20)

V.4 Lien avec les autres déterminants . . . 13

V.5 Propriétés . . . 14

a Déterminant d’un produit . . . 14

b Déterminant d’une transposée . . . 14

c Caractérisation de l’inversibilité . . . 14

d Remarque . . . 14

VI Développement par rapport à une ligne ou une colonne 15 VI.1 Mineurs, cofacteurs, formules . . . 15

VI.2 Déterminant d’une matrice triangulaire . . . 16

VI.3 Comatrice, formule pour l’inverse d’une matrice . . . 16

a Résultats . . . 16

VIIOpérations sur les lignes ou les colonnes 16

VIIIDéterminant par blocs 18

IX Déterminant de Vandermonde 18

Références

Documents relatifs

Ou encore : le rang d’une matrice A de dimension quelconque est l’ordre de la plus grande sous-matrice carrée régulière que l’on peut extraire de A. Une matrice nulle est de

On appelle déterminant de l’endomorphisme f, le déterminant de sa matrice dans n’importe quelle base de E (il ne dépend pas de la base choisie).

Comme aucune de ces fonctions polynomiales n’est nulle, c’est donc une

Maintenant, notre but est de montrer 1’existence d’une famille de symetries de Hecke r6elles de rang 2 dont le determinant associ6 est central. Cette existence permet

On peut voir également de façon très naturelle, en regardant les valeurs propres de α, que si l’on part d’un quadrilatère, alors la construction du théorème de Thébault, après

un grand château une fleur fanée des œufs durs ce petit chat les rues étroites ma vieille voiture l’eau froide nos jouets cassés cette cour déserte le nuage gris ton livre

un grand château une fleur fanée des œufs durs ce petit chat les rues étroites ma vieille voiture l’eau froide nos jouets cassés cette cour déserte le nuage gris ton livre

 On peut remplacer « son » par un autre déterminant « le, mon, ton ».. Il exprime l’idée