I Groupe symétrique
I.1 Définition
a Groupe symétrique
SoitEun ensemble. L’ensemble des bijections deEdans lui-même (appelées aussi permutations deE), muni de la loi◦de composition des applications, est un groupe, appelé groupe symétrique de l’ensembleE, et notéS(E) (« sigma de E ») classique- ment, ouSE au programme.
Il n’est pas commutatif, sauf lorsqueEa 1 ou 2 éléments.
b Cardinal
Rappelons que siEetF sont des ensembles ayant respectivementnetpéléments, sin≤pil y ap(p−1) . . . (p−n+1) applications injectives deEdansF. On verra dans le chapitre sur le dénombrement comment rédiger ce résultat de manière satisfai- sante, mais ce n’est pas mal de savoir « le voir » : numérotons pour cela les éléments deE,
E={e1, . . . ,en}
Pour définir une injectionudeEdansF, on apchoix pouru(e1). A chacun de ces choix on associep−1 choix pouru(e2) (la seule contrainte étantu(e2)6=u(e1)). Etc. . . Répétons-le : cette rédaction n’est pas très satisfaisante mathématiquement, mais on verra plus tard comment faire mieux, et de toute façon c’est comme cela qu’on trouve le résultat. . .Et en particulier :
Proposition : Lorsque l’ensembleE est fini àn éléments,SE est fini àn! élé- ments.
Et donc, siEetF ont même cardinaln,SE etSF ont même cardinaln!. Mais il y a beaucoup mieux :
Proposition : S’il y a une bijection entreE etF, il y a un isomorphisme entre SE,◦) et (SF,◦).
Démonstration Pas fondamentale, mais très intéressante à écrire. On part d’une bijection
E f //F
et on souhaiterait définir un isomorphisme deSE,◦) surSF,◦). On se pose donc naturellement la question : siφ∈SE, comment définirψ∈SF à partir deφet de f? C’est assez simple si on fait un petit diagramme. . .à complé- ter. . .puis terminer la démonstration !
F ? //
?
F
E φ //E
f
OO
Signification SiEetFont même cardinal, étudierSE,◦) ouSF,◦), c’est la même chose.
Définition On appelle parfois groupe symétrique d’indicen, et on note en gé- néralSn(en fait, la notation du programme estSn, mais c’est moins joli), le groupe des permutations de l’ensemble
E={1, 2, . . . ,n}= 1,n.
. . .qui pourra être remplacé par0,n−1pour des besoins de programmation Python.
Attention au vocabulaire : l’ordre du groupeSn, c’est-à-dire son cardinal, estn!. A ne pas confondre avec l’indicen.
Pour les exemples, on décrira un élément de ce groupe en écrivant les éléments de
1,nen ligne et, en-dessous de chaque élément, son image. Par exemple : σ=
Ã1 2 3 4 5 6 7 8 9 10
10 3 9 7 5 4 6 8 2 1
!
signifieraσ(1)=10,σ(2)=3, etc. . .Evidemment, il existe de meilleures façons de noterσ. . .voir plus loin !
Signalons enfin que l’on note courammentσ.xouσxà la place deσ(x).
I.2 Cycles, transpositions
a Orbites pour une permutation
Soitσun élément deSn. On définit sur l’ensembleE= 1,nla relationRσpar xRσy ⇐⇒ ∃k∈Z y=σk(x) .
On définit ainsi une relation d’équivalence sur1,n.
Définition Les classes d’équivalence pour cette relation sont appeléesorbites pourσou sousσ.
Proposition Les orbites sousσforment une partition de1,n.
On remarque qu’un point est fixe parσsi et seulement si son orbite est réduite à un singleton.
b Cycles
Définitions On dit que la permutationσ∈Snest un cycle lorsqu’elle admet une unique orbite non réduite à un point.
Cette orbite est appelée support du cycle.
Exemple, notation
Ã1 2 3 4 5 6 7 8 9 10
10 2 7 4 1 6 5 8 9 3
!
est un cycle de support {1, 3, 5, 7, 10}, qu’il est avantageux de noter (1 10 3 7 5).
Même si en fait le mieux serait de le noter sur un cercle (la notation en ligne a pour inconvénient, entre autres, de privilégier un élément « de départ »).
Longueur d’un cycle Le nombre`d’éléments de l’orbite non réduite à un point est la longueur du cycle, on dit queσest un`-cycle. On peut alors énoncer le Lemme Un cycle de longueur`est d’ordre`.
c Transposition
Définition On appelletranspositiontout 2-cycle, c’est-à-dire tout cycle de la forme (x y).
I.3 Décomposition d’une permutation ; signature
a Théorèmes de décomposition
Proposition 1 Soitn≥2. Pour toutσ∈Sn, il existe des transpositionsτ1, . . . ,τq
telles que
σ=τ1◦τ2◦ · · · ◦τq
Proposition 2 Soitn≥2. Pour toutσ∈Sn, il existe des cycles à supports deux à deux disjointsc1, . . . ,cptels que
σ=c1◦c2◦ · · · ◦cp
Cette décomposition est alors commutative : on peut changer l’ordre desci. Et elle est unique, à l’ordre des facteurs près évidemment.
Formulations alternatives Toute permutation se décompose en produit (on de- vrait plutôt dire : composée) de cycles. Toute permutation se décompose en produit (ou composée) de transpositions.
Les cycles, les transpositions engendrent le groupe symétrique.
Remarque sur les notations Généralement, quand on travaille dans le groupe symétriqueSn, on abandonne les◦, on noteσσ0plutôt queσ◦σ0, on parle de « produit » alors qu’il s’agit de composition. Mais attention, ça ne rend pas la composition commutative. . .
Une démonstration par récurrence de la proposition 1 :
L’initialisation (n=2 est plus intéressant quen=1) ne pose pas de difficulté.
On notePnla propriété « Tout élément deSns’écrit comme composée de transpo- sitions. »
En supposantPnvraie, soitσun élément deSn+1. On distingue alors deux cas : Siσ(n+1)=n+1, on applique l’hypothèse de récurrence à la permutation de {1, . . . ,n}
« induite » parσ. Rédigeons (mais c’est à peine nécessaire) :σinduit une permuta- tionσ|n de1,n. Par hypothèse de récurrence, il existeτ1,τ2,. . . ,τp transpositions de l’ensemble1,ntelles que
σ|n=τ1. . .τp
Notons alors, pour toutk,fτkla transposition de1,n+1définie par
∀k∈ 1,n τfk(j)=τk(j) et fτk(n+1)=n+1
(τfk« étend »τkà1,n+1). Il est clair queτfkest une transposition (d’ailleurs, même s’il ne faudrait pas a priori confondre les deux, siτk=(i j) alorsfτk=(i j). . .la même notation pour deux choses différentes).
Sinon,σ(n+1)=mavecm∈{1, . . . ,n}. On définit alors σ0=
et on se ramène au cas précédent.
Cette démonstration est utile, à comprendre, surtout la dernière idée.
Le programme stipule que l’on doit savoir décomposer une permutation (voir exemples dans Ag2).
b Un invariant
Proposition :Soitσ=τ1. . .τp =τ01. . .τ0mune permutation décomposée (de deux façons) en produit de transpositions. Alorspetmont même parité.
c Morphisme signature
Définition Siσpeut se décomposer en produit d’un nombre pair (respective- ment : impair) de permutations, on dit queσest une permutation paire (res- pectivement : impaire). On définit sa signature :²(σ)=1 (respectivement :
²(σ)= −1).
Proposition L’application²qui à une permutation associe sa signature est un morphisme (surjectif dès quen ≥2) du groupe symétrique (Sn,◦) dans le groupe ({−1, 1},×).
Formule Siσ=τ1. . .τpalors²(σ)=(−1)p. Formule La signature d’unp-cycle est (−1)p−1.
Calcul On peut ainsi calculer de deux manières différentes²(σ), soit par ce qui précède, soit en utilisant la formule suivante (conséquence de la précédente et de la décomposition en cycles) :
Si {X1, . . . ,Xp} est l’ensemble des orbites deσ, siN(σ)=
p
X
k=1
(|Xk| −1), alors
²(σ)=(−1)N(σ).
d Groupe alterné
Définition :L’ensemble des permutations paires de l’ensemble1,nest un sous- groupe de (Sn,◦), appelé sous-groupe alterné d’ordren et notéAn. Il est d’ordre
n!
2.
II Déterminant dans une base
Attention aux notations. On manipule dans la suite de ce chapitre beaucoup den- uplets de vecteurs d’un espaceE de dimensionn. Si(x1, . . . ,xn)est un teln-uplet, chaquexja aussi unn-uplet de composantes dans une base(e1, . . . ,en)quelconque deE:xj =
n
X
i=1
ai,jei ouxj =
n
X
i=1
xi,jei. Il y a donc desn-uplets de vecteurs, desn- uplets d’éléments deK, si on confond les deux on se perd.
II.1 Définitions
a Application multilinéaire Une application
f :E1× · · ·En−→F
définie sur un produitE1× · · ·End’espaces vectoriels à valeurs dans un espace vec- torielFest dite multilinéaire lorsque, pour touti, pour tout
(x1, . . . ,xj−1,xj+1, . . . ,xn)∈E1× · · ·Ej−1×Ej+1× · · ·En, l’application x7−→f(x1, . . .xi−1,x,xi+1, . . . ,xn)
est linéaire deEi dansF.
LorsqueEi=Epour touti, on dit que
f :En→F est une applicationp-linéaire surE.
b Applicationn-linéaire alternée, antisymétrique Reprenons les notations du paragraphe précédent.
Définition L’applicationp-linéairef est dite alternée lorsque, s’il existei6=j tel quexi=xj, alorsf(x1, . . . ,xn)=0.
Autrement dit, de manière plus détaillée, pour toutx ∈E, pour tousi,j tels que 1≤i<j≤n, pour tout (x1, . . . ,xi−1,xi+1, . . . ,xj−1,xj+1, . . . ,xn)∈En−2,
f¡
x1, . . . ,xi−1,x,xi+1, . . . ,xj−1,x,xj+1, . . . ,xn¢
=0
Définition L’applicationn-linéaire f est dite antisymétrique lorsque pour tout (x,y)∈E2, pour tousi,jtels que 1≤i<j≤n, pour tout
(x1, . . . ,xi−1,xi+1, . . . ,xj−1,xj+1, . . . ,xn)∈En−2, f¡
x1, . . . ,xi−1,x,xi+1, . . . ,xj−1,y,xj+1, . . . ,xn¢
= −f¡
x1, . . . ,xi−1,y,xi+1, . . . ,xj−1,x,xj+1, . . . ,xn¢
Ecriture avec permutations f est antisymétrique si et seulement si, pour toute transpositionτ∈Sn,
f(xτ(1), . . . ,xτ(n))= −f(x1, . . . ,xn) C’est quand même plus clair !
Proposition f est antisymétrique si et seulement si, pour toute permutationσ∈ Sn
f(xσ(1), . . . ,xσ(n))=²(σ)f(x1, . . . ,xn) où²(σ) est la signature deσ.
Démonstration (pas compliquée, mais il est utile de savoir l’écrire)
Lien entre antisymétrique et alternée Toute applicationn-linéaire alternée est antisymétrique. La réciproque est vraie lorsque Kest un sous-corps deC, mais il y a des corps sur lesquels cette réciproque est fausse.
Démonstration
c Formen-linéaire alternée
On appelle formen-linéaire alternée sur unK-espace vectorielEtoute application f :En−→K
n-linéaire et alternée. Une telle forme est donc antisymétrique.
III Théorème de structure
III.1 Le théorème de structure
Enoncé 1 Très structurel justement ! simple et bref.
SoitEunK-espace vectoriel de dimensionn. L’espace des formesn-linéaires alternées surEest unK-espace vectoriel de dimension 1.
Bien sûr,n=n. . .
Enoncé 2 Un peu plus « analysé ». Inconvénient, cet énoncé est plus lourd. Avan- tage, il est plus prêt à être utilisé.
SoitEun espace vectoriel de dimension finien. SoitB=(e1, . . . ,en) une base deE. Il existe une unique formen-linéaire alternéeφsurEtelle queφ(e1,e2, . . . ,en)= 1. Et toute formen-linéaire alternée surEest de la formeλφavecλ∈K.
Equivalence Si l’énoncé 2 est vrai, il montre l’existence d’une formen-linéaire alternéeφsurE telle que l’ensemble des formesn-linéaires alternées surE soit
{λφ;λ∈K}
c’est-à-dire Vect(φ), donc un espace vectoriel de dimension 1.
Si l’énoncé 1 est vrai, l’énoncé 2 l’est aussi. . .mais dans ce sens l’implication est un peu moins évidente, et comme on va démontrer l’énoncé 2, ce n’est pas indispensable de se fatiguer.
III.2 Déterminant de n vecteurs dans une base d’un espace vecto- riel de dimension n
Définition-Notation SoitB=(e1, . . . ,en) une base deE. L’unique formen-linéaire alternéeφsurEtelle que
φ(e1, . . . ,en)=1
est appelée déterminant dans la baseBet est notée detB. Formule Si, pour toutj,xj=
n
X
i=1
ai,jei, alors
detB(x1, . . . ,xn)= X
σ∈σn
²(σ)aσ(1),1. . .aσ(n),n.
Il arrive qu’on ne se souvienne pas bien, et qu’on écrive X
σ∈σn
²(σ)a1,σ(1). . .an,σ(n).
Une réindexation et le fait que²(σ−1)=²(σ) montrent que ce n’est pas bien grave.
Proposition SoitBune base deE, avec dim(E)=n. Les formesn-linéaires al- ternées surEsont lesλdetBoùλest un élément deK.
Proposition bis Les formesn-linéaires alternées sur unK-espace vectoriel de dimensionnforment un espace vectoriel de dimension 1.
Recette d’utilisation - mode d’emploi Il faut penser à ce résultat lorsqu’on doit montrer un résultat de la forme
∀(x1, . . . ,xp)∈Ep φ(x1, . . . ,xp)=αdetB(x1, . . . ,xp)
(oùEest un espace de dimensionp). On doit alors penser à la méthode sui- vante :
On montre queφest une formep-linéaire alternée. Cela donne déjà l’exis- tence deα, par le théorème de structure. Puis, pour déterminerα, on prend (x1, . . . ,xp)=B=(e1, . . . ,ep). On a alorsα=φ(e1, . . . ,ep).
Ce schéma de démonstration se rencontre assez couramment.
III.3 Changement de bases
Proposition :SoitB,B0deux bases deE. Alors, pour toute famille (x1, . . . ,xn) d’élé- ments deE, on a
• detB0(x1, . . . ,xn)=detB0(B)detB(x1, . . . ,xn)
• detB(x1, . . . ,xn)=detB(B0)detB0(x1, . . . ,xn) et donc : detB(B0)=(detB0(B))−1
Démonstration :Relire le mode d’emploi si nécessaire.
III.4 Formes alternées et indépendance linéaire
Proposition :Soitφune formen-linéaire alternée sur un espace vectoriel de di- mensionn. On suppose queφn’est pas la forme nulle (i.e.φ6=e0, ce qui n’empêche évidemment pasφde s’annuler), alors, pour toute famille (x1, . . . ,xn) d’éléments de E,
³φ(x1, . . . ,xn)=0´
⇐⇒³
(x1, . . . ,xn) liée´
Démonstration :Si la famille (x1, . . . ,xn) est liée, un desxi, par exemplexk, est com- binaison linéaire des autres :
xk=
n
X
i=1 i6=k
αixi
En développantφ(x1, . . . ,xn) par linéarité par rapport auk-ième vecteur et en utili- sant le caractère alterné deφ, on obtient
φ(x1, . . . ,xn)=
n
X
i=1 i6=k
αiφ(x1, . . . ,xk−1,xi,xk+1, . . . ,xn)=0
Si, maintenant, la famille (x1, . . . ,xn) est libre, c’est une baseBdeE. Et on retourne au théorème de structure : soitφ0=detB; alors siφest une forme linéaire non nulle, il existeλtel queφ=λφ0. Nécessairement λ6=0, doncφ(x1, . . . ,xn)=λ6=0. On utilise presque tout le temps ce résultat sous la forme suivante, qui donc est la plus importante :
Corollaire :Pour toute famille (x1, . . . ,xn) d’éléments deE,
³
detB(x1, . . . ,xn)6=0´
⇐⇒
³
(x1, . . . ,xn) base deE´
IV Déterminant d’un endomorphisme
IV.1 Définition
Définir le déterminant d’un endomorphisme demande un petit peu d’attention, mais c’est la formule qu’il faut retenir.
Définition Soituun endomorphisme d’un espace vectoriel de dimension finie n. SoitBune base deE. L’application
φ: (x1, . . . ,xn)7−→detB¡
u(x1), . . . ,u(xn)¢ est une formen-linéaire alternée surE, il existe donc unλtel que φ=λdetB, i.e., pour toute famille (x1, . . . ,xn) d’éléments deE,
detB¡
u(x1), . . . ,u(xn)¢
=λdetB(x1, . . . ,xn)
Ceλ, unique, ne dépend pas de la base choisie (démonstration simple en uti- lisant les relations entre detBet detB0). On l’appelle déterminant deuet on le note det(u). On a donc la caractérisation :
Formule Pour toute baseBdeE, pour toute famille (x1, . . . ,xn) d’éléments deE,
detB¡
u(x1), . . . ,u(xn)¢
=det(u) detB(x1, . . . ,xn) Et en particulier, siB=(e1, . . . ,en),
det(u)=det(e1,...,en)¡
u(e1), . . . ,u(en)¢
IV.2 Propriétés fondamentales
a Déterminant d’une composée
SoitEunK-espace vectoriel de dimension finie.
∀(u,v)∈(L(E))2 det(v◦u)=det(v)det(u) . . .et donc, en particulier,
∀(u,v)∈(L(E))2 det(v◦u)=det(u◦v) b Caractérisation des automorphismes
SoitEunK-espace vectoriel de dimension finie. Soitu∈L(E).
u∈GL(E)⇐⇒ det(u)6=0
V Déterminant d’une matrice carrée
V.1 Définition, formule
On peut définir le déterminant d’une matrice carrée soit comme le déterminant de l’endomorphisme qui lui est canoniquement associé, soit comme le déterminant dans la base canonique de la famille de ses vecteurs colonnes, c’est la même chose.
Et la manière dont on « définit » n’est pas très importante. Ce qui importe, ce sont les formules. Et ici, en particulier, on a la formule :
Formule
det(A)= X
σ∈Sn
²(σ)aσ(1),1. . .aσ(n),n
(d’ailleurs on pourrait prendre cela comme définition du déterminant d’une ma- trice). Il faut se pencher un peu sur cette formule pour y voir autre chose qu’un
« gros machin ». Il s’agit d’une somme de produits obtenus en prenant un terme et un seul dans chaque ligne et dans chaque colonne (une fois que vous avez pris un ai,j dans votre produit, vous n’avez plus le droit de toucher à la lignei ni à la co- lonnej), chaque produit étant affecté d’un signe (et c’est là qu’intervient la notion de signature d’une permutation).
Comme vu plus haut, si on écrit det(A)= X
σ∈Sn
²(σ)a1,σ(1). . .an,σ(n)
c’est encore vrai !
V.2 Remarques banales mais importantes
a Polynomialité
« det(A) est une fonction polynomiale des composantes deAdans la base canonique deMn(K) »
Ceci exprime seulement que det(A) est une combinaison linéaire de produit de puis- sances desai,j, les coefficients deA. On utilisera cet argument en topologie matri- cielle pour dire que l’applicationA7−→det(A) est continue surMn(K) avecK=Rou K=C.
b Une fonction simple Que peut-on dire de la fonction
x7−→
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
x a2,1 . . . a1,n
a2,1 a2,2 . .. ... ... . .. . .. . .. ...
... . .. . .. an−1,n
an,1 . . . an,n−1 an,n
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
?
(le fait que la variable soit en haut à gauche n’a aucune importance : on met unx quelque part dans la matrice, et on fixe tous les autres coefficients).
Cette remarque sera utilisée pour calculer la différentielle du déterminant à partir de ses dérivées partielles (voir fonctions de plusieurs variables).
V.3 n=2 et n=3, Sarrus
Comme|S2| =2 et|S3| =6, on peut développer brutalement des déterminants 2×2 et 3×3. A partir de 4×4 c’est une autre histoire.
a n=2
S2={Id, (1 2)}, donc
¯
¯
¯
¯
¯
a1,1 a1,2 a2,1 a2,2
¯
¯
¯
¯
¯
=a1,1a2,2−a2,1a1,2
b n=3
S3={Id, (1 2), (1 3), (2 3), (1 2 3), (1 3 2)}, signature−1 pour les transpositions et 1 pour les autres. Donc
¯
¯
¯
¯
¯
¯
¯
a1,1 a1,2 a1,3 a2,1 a2,2 a2,3
a3,1 a3,2 a3,3
¯
¯
¯
¯
¯
¯
¯
=a1,1a2,2a3,3−a2,1a1,2a3,3−a3,1a2,2a1,3−a1,1a3,2a2,3+a2,1a3,2a1,3+a3,1a1,2a2,3
qui serait quand même un peu pénible à savoir par cœur, si on n’avait pas la mné- motechnique règle de Sarrus :
a11 a12 a13 a11 a12
a21 a22 a23 a21 a22
a31 a32 a33 a31 a32
(signes+pour les diagonales en traits pleins, signes−pour les antidiagonales en pointillés).
V.4 Lien avec les autres déterminants
On vérifie alors que, pour tout endomorphismeud’un espace de dimension finieE, pour toute baseBdeE,
det(u)=det¡
MatB(u)¢
En particulier, si A∈Mn(K), siBC est la base canonique deKn, si (c1, . . . ,cn) est la famille des vecteurs colonnes deA,
det(A)=detBC(c1, . . . ,cn)
V.5 Propriétés
a Déterminant d’un produit
Proposition Pour toutes matrices carréesAetB, det(AB)=det(A) det(B)
Démonstration En utilisant la propriété analogue pour les endomorphismes, et le paragraphe précédent.
et donc
det(AB)=det(B A)
Remarquons l’analogie avec la trace. . .mais cette analogie a ses limites. Par exemple, siA,B,Csont trois matrices carrées, det(ABC)=det(B AC)
Mais en revanche, il n’y a pas de raison pour que l’on ait Tr(ABC)=Tr(B AC).
b Déterminant d’une transposée
Proposition Le déterminant de la transposée d’une matrice carrée est égal au déterminant de cette matrice :
det(AT)=det(A) Démonstration Intéressante, déjà à peu près vue.
Corollaire et donc le déterminant d’une matrice est celui de la famille de ses vecteurs lignes dans la base canonique.
c Caractérisation de l’inversibilité
Proposition Une matrice est inversible si et seulement si son déterminant est non nul :
det(A)6=0 ⇐⇒ A∈GLn(K)
Démonstration En utilisant la propriété analogue pour les endomorphismes.
d Remarque On a
det(λA) =λn det(A) On n’a évidemment pas det(A+B)=det(A)+det(B). . .
Le déterminant n’est pas une formen-linéaire alternée surMn(K). Dire cela, c’est mélanger les contextes, c’est plus un non-sens qu’une erreur.
VI Développement par rapport à une ligne ou une co- lonne
VI.1 Mineurs, cofacteurs, formules
Mineurs SoitAune matrice carrée d’ordren. On note, pour tout couple d’in- dices (i,j),Di,j le déterminant de la matrice carrée (n−1)×(n−1) obtenue en supprimant lai-ème ligne et laj-ième colonne deA.Di,j est appelé mi- neur associé àai,j.
Formules On démontre alors les formules suivantes : Pour touti∈ 1,n
detA=
n
X
j=1
(−1)i+jai,jDi,j (développement par rapport à lai-ème ligne) et Pour toutj∈ 1,n,
detA=
n
X
i=1
(−1)i+jai,jDi,j
(développement par rapport à laj-ème colonne).
Démonstration Technique, jamais demandée aux concours, on peut s’en pas- ser. . .ou reprendre le cours de mpsi !
Cofacteurs (−1)i+jDi,jest le cofacteur deai,j.
Remarquons que les formules ramènent le calcul d’un déterminantn×nàndéter- minants (n−1)×(n−1), d’où un coût de calcul identique (n!) à la formule avec lesσ s’il n’y a pas suffisamment de zéros.
A propos des cofacteurs
Le « mineur (i,j) », c’est le déterminant obtenu en ôtant la lignei et la colonnej. Facile à retenir.
On pourrait donc se dire que le cofacteur, c’est la même chose avec un signe. Ce n’est pas faux, mais ce n’est pas une compréhension suffisante du cofacteur. Il faut comprendre que :
Le cofacteur deai,j, c’est (d’où son nom) ce qui est en facteur deai,jdans le déve- loppement du déterminant.
VI.2 Déterminant d’une matrice triangulaire
Par récurrence surn, en développant par rapport à la première colonne, on obtient
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
a1,1 a2,1 . . . a1,n 0 a2,2 . .. ...
... . .. . .. . .. ... ... . .. . .. an−1,n 0 . . . 0 an,n
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
=
n
Y
i=1
ai,i
Résultat à connaître. Il n’est nullement indispensable de connaître la théorie du dé- terminant pour montrer que
a1,1 a2,1 . . . a1,n 0 a2,2 . .. ...
... . .. . .. . .. ... ... . .. . .. an−1,n
0 . . . 0 an,n
∈GLn(K) ⇐⇒ ∀i∈ 1,n ai,i6=0
(il suffit de dire que la matrice est inversible si et seulement si la famille de ses vec- teurs colonnes est indépendante, ce qui équivaut assez facilement à dire que tous lesai,i sont non nuls), mais comme le déterminant est au programme, on a le droit de s’en servir.
VI.3 Comatrice, formule pour l’inverse d’une matrice
a Résultats
Reprenons les notations du paragraphe précédent.
Comatrice La comatrice deAest la matrice¡
(−1)i+jDi,j¢
1≤i,j≤ndes cofacteurs.
On la noteraAeou Com(A), suivant les cas.
Formule Les formules de développement donnent alors A×(Com(A))T=(Com(A))T×A=(detA)In
Formule pour l’inverse On retrouve le fait queAest inversible si et seulement si son déterminant n’est pas nul, et si c’est le cas :
A−1= 1 detA
t
Ae
VII Opérations sur les lignes ou les colonnes
Echanger deux lignes ou deux colonnes multiplie le déterminant par -1.
Ajouter à une ligne (ou à une colonne)λfois une autre ne change pas le déterminant.
Multiplier une ligne ou une colonne parλmultiplie le déterminant parλ(multiplier la matrice parλmultiplie son déterminant parλn).
Tous ces résultats se montrent facilement en utilisant le fait que le déterminant est une formen-linéaire alternée, et en interprétant le déterminant d’une matrice comme le déterminant dans la base canonique de la famille de ses vecteurs lignes (ou colonnes).
UtilisationOn utilise souvent les opérations élémentaires pour annuler beaucoup de coefficients dans une ligne ou une colonne. Puis on développe par rapport à cette ligne ou colonne.
Exercice classiqueCalculer
Dn(x)=
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
x−a1 −1 0 . . . 0
−a2 x . .. . .. ...
−a3 0 . .. . .. 0 ... ... . .. . .. −1
−an 0 . . . 0 x
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
(polynôme caractéristique d’une matrice compagne, voir chapitre sur la réduction).
VIII Déterminant par blocs
Proposition SoitA∈Mp(K),B∈Mq(K),U∈Mp,q(K) etM∈Mp+q(K) définie par blocs de la manière suivante :
M=
A
(0) B
U
Alors
det(M)=det(A) det(B)
Extension SoitAla matrice triangulaire par blocs (lesAi sont des matrices car- rées)
M=
A1 . . . (∗) O A2 ...
... . .. . .. ... O . . . O An
Alors
det(M)=
n
Y
i=1
det(Ai)
IX Déterminant de Vandermonde
Formule :On note
V(x1, . . . ,xn)=
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
1 x1 x21 . . . xn−11 1 x2 x22 . . . xn2−1 ... ... ... ... ... ... ... ... 1 xn xn2 . . . xn−1n
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯ .
AlorsV(x1, . . . ,xn)= Y
1≤i<j≤
(xj−xi).
Remarque - Exercice :La condition nécessaire et suffisante d’inversibilité de la ma- trice de Vandermonde (lesxi deux à deux distincts) peut s’obtenir sans le calcul du déterminant de Vandermonde. C’est d’ailleurs intéressant.
Démonstration de la formule
Deux démonstrations envisageables : par opérations élémentaires ou en considé- rant les propriétés du polynômeV(x1, . . . ,xn−1,X). Cette dernière est à privilégier et à savoir rédiger correctement.
Table des matières
I Groupe symétrique 1
I.1 Définition . . . 1
a Groupe symétrique . . . 1
b Cardinal . . . 1
I.2 Cycles, transpositions . . . 2
a Orbites pour une permutation . . . 2
b Cycles . . . 3
c Transposition . . . 3
I.3 Décomposition d’une permutation ; signature . . . 3
a Théorèmes de décomposition . . . 3
b Un invariant . . . 5
c Morphisme signature . . . 5
d Groupe alterné . . . 5
II Déterminant dans une base 5 II.1 Définitions . . . 6
a Application multilinéaire . . . 6
b Applicationn-linéaire alternée, antisymétrique . . . . 6
c Formen-linéaire alternée . . . . 7
III Théorème de structure 8 III.1 Le théorème de structure . . . 8
III.2 Déterminant denvecteurs dans une base d’un espace vectoriel de di- mensionn . . . 8
III.3 Changement de bases . . . 9
III.4 Formes alternées et indépendance linéaire . . . 9
IV Déterminant d’un endomorphisme 10 IV.1 Définition . . . 10
IV.2 Propriétés fondamentales . . . 11
a Déterminant d’une composée . . . 11
b Caractérisation des automorphismes . . . 11
V Déterminant d’une matrice carrée 11 V.1 Définition, formule . . . 11
V.2 Remarques banales mais importantes . . . 12
a Polynomialité . . . 12
b Une fonction simple . . . 12
V.3 n=2 et n=3, Sarrus . . . 13
a n=2 . . . 13
b n=3 . . . 13
V.4 Lien avec les autres déterminants . . . 13
V.5 Propriétés . . . 14
a Déterminant d’un produit . . . 14
b Déterminant d’une transposée . . . 14
c Caractérisation de l’inversibilité . . . 14
d Remarque . . . 14
VI Développement par rapport à une ligne ou une colonne 15 VI.1 Mineurs, cofacteurs, formules . . . 15
VI.2 Déterminant d’une matrice triangulaire . . . 16
VI.3 Comatrice, formule pour l’inverse d’une matrice . . . 16
a Résultats . . . 16
VIIOpérations sur les lignes ou les colonnes 16
VIIIDéterminant par blocs 18
IX Déterminant de Vandermonde 18