Systèmes d’équations linéaire ; opérations
élémentaires, aspects algorithmiques, conséquences théoriques
Gabriel L
EPETITMémoire de master 2 MEEF dirigé par GuyCASALEsur une leçon présentée en collaboration avec AntoineDIEZ.
Table des matières
1 Théorie générale des systèmes linéaires 2
1.1 Systèmes de Cramer . . . 2
1.2 Cas général : le théorème de Rouché-Fontené . . . 3
1.3 Le cas des systèmes homogènes . . . 4
2 Sur les opérations élémentaires 7 2.1 Définitions . . . 7
2.2 L’algorithme du pivot de Gauss . . . 8
2.3 Interprétation en termes d’actions de groupes . . . 9
2.4 Sur un anneau euclidien : l’algorithme des facteurs invariants . . . 12
3 Résolution effective des systèmes linéaires 14 3.1 Méthodes directes . . . 14
3.2 Méthodes itératives de résolution d’un système linéaire . . . 15
3.3 Méthodes de gradient . . . 17
3.3.1 Méthode de gradient conjugué . . . 18
3.3.2 Méthode de gradient à pas optimal . . . 19
***
La résolution de systèmes linéaires sur un corps est un problème de base, aussi bien en algèbre qu’en analyse. En effet, la résolution numérique d’un problème d’équations aux dé- rivées partielles passe souvent par une discrétisation nécessitant la résolution d’un système linéaire. En outre, le calcul de la transformée de Fourier rapide, central en traitement numé- rique du signal, fait appel à cette notion. L’étude de systèmes linéaires sur un anneau dans le cadre de la théorie des modules donne lieu à de riches développements en arithmétique.
La recherche de méthodes efficaces pour résoudre ce genre de systèmes est cruciale car les systèmes apparaissant dans la pratique sont souvent de très grande taille.
Dans ce mémoire, on présentera tout d’abord une théorie générale des systèmes linéaires, notamment le théorème de Rouché-Fontené qui donne des conditions d’existence des solu- tions, puis on développera une méthode algorithmique de résolution par opérations élémen- taires, le pivot de Gauss, qu’on interprétera en termes d’actions de groupe sur l’espace des matrices. Enfin, la troisième partie sera l’occasion de s’intéresser à des méthodes directes ou itératives efficaces de résolution.
1 Théorie générale des systèmes linéaires
On se donne un corpsK etA∈ Mm,n(K),b∈ Mm,1(K). On cherche à étudier le système linéaire Ax =b. On se demande d’abord s’il admet des solutions, quelle est la structure de l’espace des solutions, s’il est possible de calculer ces solutions explicitement. La recherche de l’efficacité dans cette démarche fera l’objet des parties suivantes.
Définition 1.1
Le systèmeAx = best ditcompatibles’il admet au moins une solution x ∈ Mm,1(K). Le rangdu système est le rang deA.
1.1 Systèmes de Cramer
Définition 1.2
On parle desystème de CramerquandAest dansGLn(K).
Un système de Cramer admet donc une unique solution x =A−1b.
Théorème 1.3 (Formules de Cramer)
Si A = (ai j)1¶i,j¶n, l’unique solution du système de Cramer Ax = b est donnée par x =
x1
... xn
où
∀i∈J1,nK,xi =
a11 . . . a1,i−1 b1 a1,i+1 . . . a1,n ... ... ... ... ... an,1 an,i−1 bn an,i+1 . . . an,n
detA
Démonstration.En notantC1, . . . ,Cn les colonnes deA, on a b=Pn
i=1
xiCi.
On noteAk la matrice obtenue en remplaçant lak-ème colonne par b, etBi,k la matrice obtenue en remplaçant lak-ème colonne parCi. Par linéarité du déterminant par rapport à lak-ème colonne et en utilisant son caractère alterné, on a :
det(Ak) = Xn
i=1
xidet(Bi,k) = xkdetBk,k=xkdetA
Le calcul de la solution demande de l’ordre de(n+1)! opérations. En effet, il faut calculer n+1 déterminants, chacun se calculant en n! opérations.
Exemple 1.4.ConsidéronsA=
2 −5 2
1 2 −4
3 −4 −6
etb=
7 3 5
. Alors on ax1=−1 46
7 −5 2
3 2 −4
5 −4 −6
=
5, x2=−1 46
2 7 2
1 3 −4 3 5 −6
=1, x3 =−1 46
2 −5 7
1 2 3
3 −4 5
=1.
1.2 Cas général : le théorème de Rouché-Fontené
Soit A ∈ Mm,n(K), on note r ¶ min(n,m) le rang du système. Quitte à permuter et renuméroter les équations, on peut supposer que δ=
a11 . . . a1,r ... ... ar,1 . . . ar,r
6=0 Définition 1.5
On appelledéterminants caractéristiquesdu systèmeAx =bles déterminants
∆s =
a11 . . . a1,r b1 ... ... ... ar,1 . . . ar,r br as,1 . . . as,r bs
pours∈Jr+1,nK
Théorème 1.6 (Rouché-Fontené)
Le systèmeAx = b est compatible si et seulement si ∆s =0 pour touts ∈Jr+1,nK. Dans ce cas, les solutions forment un espace affine de dimension n−r. Une solution x est obtenue en donnant à xr+1, . . . ,xn des valeurs arbitraires puis en calculant l’unique solution du système
a11x1+· · ·+a1,rxr = b1−a1,r+1xr+1− · · · −a1,nxn
... ... ...
ar,1x1+· · ·+ar,rxr = br−ar,r+1xr+1− · · · −ar,nxn La preuve présentée est issue de[5], p. 144.
Démonstration.Notons C1, . . . ,Cn les colonnes de A. Comme δ est un mineur non nul de taille rde(C1. . .Cr), lesrpremières colonnes deAforment une famille libre, donc une base de ImA. Ainsi, le systèmeAx =best compatible si et seulement si(C1, . . .Cr,b)est liée, c’est à dire de rangr, ce qui équivaut à la nullité de tous les mineurs de tailler+1 de(C1. . .Crb), qui ne sont autre que les déterminants caractéristiques∆s, pours∈Jr+1,nK.
Sous ces conditions,B= (C1. . .Cnb)est de rangrdonc ses lignes constituent une famille
de rang r. MaisB =
a11 . . . a1r . . . a1n b1 ... ... ... ... ar1 . . . ar r . . . ar n br
... ... ...
ap1 . . . apr . . . apn bp
donc puisqueδ6=0, lesr premières
lignes sont indépendantes. Les p−r dernières lignes sont donc combinaisons linéaires des r premières, ce qui permet leur élimination du système d’équations linéaires, qui devient équivalent au système d’équations principalessuivant :
a11x1+· · ·+a1rxr+a1,r+1xr+1+· · ·+a1,nxn = b1
... ...
ar,1x1+· · ·+ar,rxr+ar,r+1xr+1+· · ·+ar,nxn. . . = br
A nouveau, le fait que δ 6= 0 garantit qu’une fois xr+1, . . . ,xn arbitrairement choisis, il existe un unique (x1, . . . ,xr)tel que (x1, . . . ,xn) soit solution deAx = b. En particulier, l’espace des solutions est un espace affine de dimensionn−r.
Exemple 1.7.Soit la matrice réelle de rang 2A =
1 2 −1 1
1 0 −1 −1
−1 1 1 2
et b =
1 1 m
,m ∈
R. Le seul déterminant caractéristique est ∆ =
1 2 1
1 0 1
−1 1 m
= −2(m+1). Le système admet donc des solutions si et seulement si m = −1 et dans ce cas, il est équivalent à
§ x1 = 1+x3+x4 x2 = −x4 .
1.3 Le cas des systèmes homogènes
Proposition 1.8
SoitA∈ Mm,n(K). SiAest de rangr, alors les solutions deAx=0constituent un espace vectoriel de dimensionn−r.
Ce résultat de base peut être appliqué par exemple pour prouver le théorème d’Artin, résultat de théorie de Galois. On s’appuie sur la démonstration de[6].
Lemme 1.9 (Dedekind)
SoientK, Ldeux corps et(ϕ1, . . . ,ϕn)une famille de morphismes de corps distincts de K dans L. Alors elle est linéairement indépendante sur L: si∀x ∈K,
n
P
i=1αiϕi(x) =0, on aα1 =· · ·=αn=0.
Démonstration.Supposons qu’il existeα1, . . . ,αnnon tous nuls tels que∀x ∈K,
n
P
i=1
αiϕi(x) = 0. Quitte à réordonner les termes de la somme, on peut trouver r ∈N∗ tels queα1, . . . ,αr
sont non nuls etαr+1=· · ·=αn=0, et on peut choisir(αi)i de sorte que ce r soit minimal.
Soity ∈Ktel queϕ1(y)6=ϕr(y). On a pour toutx ∈K,0=Pr
i=1
αiϕi(y x) = Pr
i=1
αiϕi(y)ϕi(x). De plus,ϕ1(y)Pr
i=1
αiϕi(x) =0 donc en soustrayant ces deux équations,
∀x ∈K,
r
X
i=2
αi(ϕi(y)−ϕ1(x))ϕi(x) =0
Comme par hypothèseαr(ϕr(y)−ϕ1(y))6=0, on a une combinaison linéaire à coefficients non tous nuls de r−1 termes de(ϕi)i ce qui contredit la minimalité der.
Théorème 1.10
Si L est un corps et H est un groupe fini du groupe des automorphismes de L, alors si LH ={x ∈L:∀σ∈H,σ(x) = x}, L/LH est une extension finie,|H|= [L: LH]et H est le groupe desLH-automorphismes de L.
Démonstration.On notem= [L: LH](éventuellement égal à∞) etn=|H|. On va vérifier dans un premier temps que m=n.
1 Supposons que m<n<+∞. Fixons x1, . . . ,xm une base de L sur LH et notonsH = {σ1, . . . ,σn}. Considérons le système deméquations àninconnues dans L,Y1, . . . ,Yn défini par :
∀j∈J1,mK,σ1(xj)Y1+. . .σn(xj)Yn=0
C’est un système surdéterminé donc il admet une solution non nulle(y1, . . . ,yn). Par suite, pour tout x =Pm
j=1
αjxj ∈L, oùαj ∈LH, on a
n
X
i=1
σi(x)yi=
n
X
i=1 m
X
j=1
αjσi(xj)yi =
m
X
j=1
αj
m X
i=1
σi(xj)yi
=0 On a donc Pn
i=1 yiσi =0 avec les yi non tous nuls ce qui contredit le lemme d’indé- pendance de Dedekind ci-dessous. Doncm¾n.
2 Supposons que m>n. Il existe donc une famille (x1, . . . ,xn+1)d’éléments de L libre sur LH. Selon le même argument que pour le premier point, on peut trouver une famille non nulle(y1, . . . ,yn+1)∈Ln+1)vérifiant (S):
∀i∈J1,nK,σi(x1)y1+· · ·+σi(xn+1)yn+1=0
Sans perte de généralité, on peut supposer que parmi toutes les solutions non nulles, (y1, . . . ,yn+1)a un nombre minimalr de termes non nuls. Alors quitte à renuméroter, on peut supposer que∀i¶r,yi 6=0 et∀i>r,yi=0. Ainsi,(S)se réécrit :
∀i∈J1,nK,σi(x1)y1+· · ·+σi(xr)yr=0
Soit σ∈H, appliquonsσ au système(S): ∀i∈J1,nK,(σ◦σi)(x1)σ(y1) +· · ·+ (σ◦ σi)σ(yr) =0. Commeτ7→σ◦τest une permutation de l’ensemble finiH, on a donc (∆):
∀i∈J1,nK,σi(x1)y1+· · ·+σi(xr)yr=0
En multipliant (S) par σ(y1), (∆) par y1 et en additionnant les deux systèmes, on obtient
∀i∈J1,nK,σi(x2)(σ(y1)y2−σ(y2)y1) +· · ·+σi(xr)(σ(y1)yr−σ(yr)y1) =0 L’entier r étant le nombre minimal de termes non nuls d’une solution non triviale de (S), on a ∀j ∈ J2,rK,σ(y1)yj −y1σ(yj) = 0, soit σ(y1y−j 1) = y1y−j1 donc ∀j ∈ J2,rK,y1y−1j ∈LH. Ainsi pour tout 2¶ j¶r, il existezj∈(LH)∗ tel que yj=zjy1. La ligne de(S)correspondant àσi=idLdevient alors :x1y1+x2z2y1+· · ·+xrzry1=0 donc comme y1 6=0, on a x1+x2z2+· · ·+xrzr=0, de sorte que(x1, . . . ,xr)est une famille liée, ce qui contredit l’hypothèse initiale. Donc m ¶ n< +∞ et finalement m=n.
3 Notons G le groupe des LH-automorphismes de L. Il contientH de manière évidente.
Montrons que G est fini. Soit (a1, . . . ,an) une base de L sur LH, Π1, . . . ,Πr les poly- nômes minimaux respectifs des ai sur LH et f =Π1. . .Πr ∈LH[X]. SoitR l’ensemble (fini) des racines de f dans L. CommeΠj(aj) =0 pour tout j,R contient{a1, . . .an}. De plus, si x = Pn
i=1
αiai ∈ L, où αi ∈ LH, alors, pour tout élément σ de G, on a σ(x) = Pn
i=1
αiσ(ai). Cela nous assure que ψ: G −→ S(R) σ 7−→ σ|R
est injective et donc que G est fini.
On a LH ⊂LG⊂Lpar définition deG, et LG⊂LH⊂LcarH ⊂Gdonc LH =LG. Selon la conclusion du deuxième point, on a|G|= [L: LH] = [L:LG] =|H|donc G=H.
Donnons quelques précisions supplémentaires sur la théorie de Galois. Étant donné une extension de corpsL/K, on s’intéresse à songroupe de GaloisGal(L/K)qui est le groupe des K-automorphismes de corps de L. Le résultat majeur de cette théorie est la correspondance de Galois entre les corps intermédiaires K⊂M ⊂L et les sous-groupesH de Gal(L/K): Théorème 1.11
Si L/K est une extension galoisienne, les applications Fix : H 7→ LH et Gal : M 7→
Gal(L/M)sont réciproques l’une de l’autre, oùLH, comme défini dans l’énoncé du théo- rème d’Artin est appelésous-corps fixede Lassocié àH
Il est remarquable qu’en vertu du théorème d’Artin, toute extension finie vérifie Gal◦ Fix=id.
Définition 1.12
SoitL/Kune extension algébrique. On dit que c’est une extensiongaloisiennesiLGal(L/K)= K.
On suppose à présent queKest un corps parfait, c’est-à-dire que siL/Kest une extension algébrique, alors tout polynôme de L[X]n’admet que des racines simples dans son corps de décomposition – L est ditséparable. La plupart des corps usuels sont parfaits :Q,R,C, les corps finis. En revanche pour ppremier,Fp(T)n’est pas parfait.
Définition 1.13
L’extension algébrique L/K est dite normale si tout polynôme irréductible f ∈ K[X] admettant une racine dansL se décompose en produit de facteurs de degré 1 dansL.
Par exempleC/Rest une extension normale.
Proposition 1.14
Soit L/K une extension finie, alors on a l’équivalence entre : 1 L/K est galoisienne ;
2 L/K est normale ;
3 Lest le corps de décomposition d’un polynôme f ∈K[X]; 4 Gal(L/K)est d’ordre[L:K];
Démonstration.Montrons la première implication. Comme l’extension L/K est finie, son groupe de Galois G est fini (vu dans le troisième point de la démonstration du théorème d’Artin). Soit f ∈K[X] irréductible admettant une racine a dans L. Introduisons P(X) =
Q
σ∈G(X−σ(a)). Siτ∈G, en notant encoreτson prolongement naturel à L[X], on aτ(P) = Q
σ∈G(X −(τ◦σ)(a)) =P carσ7→τ◦σest une permutation deG. Donc P ∈LG[X] =K[X] carL/Kest galoisienne ; et de plusP(a) =0. Mais f étant irréductible, c’est à constante près le polynôme minimal de a sur K donc f divise P dans K[X]. Ainsi, f est scindé à racines simples sur L.
En particulier si L/K est galoisienne finie etK⊂M ⊂Lest un corps intermédiaire, alors L/M est galoisienne puisque L est le corps de décomposition de f ∈K[X]⊂M[X], ce qui
prouve la correspondance de Galois.
Voir également[11]pour un point de vue concis sur la théorie de Galois.
2 Sur les opérations élémentaires
2.1 Définitions
Unematrice de dilatationest une matrice de la forme Di(α) =Diag(1, . . . , 1,α, 1, . . . , 1) oùα6=0 est en i-ème position dans la diagonale. Son inverse estDi(α−1).
Unematrice de transvectionest une matrice de SLn(K)de la formeTi j(λ) =
1
1 λ
...
1
oùλest en position(i,j)et i6=j. L’inverse de Ti j(λ)estTi j(−λ).
Une matrice de permutation est une matrice Pi j de la forme
Ii−1 0
U
0 In−1−i−j
avec
U =
0 1
1 ...
1 0
bloc carré de taillei+j+1. La matrice Pi j est inversible d’inversePji.
Proposition 2.1
SoitA∈ Mm,n(K). On note Li lai-ème ligne deA.
• CalculerDi(α)A, c’est faire l’opération élémentaire Li ←αLi.
• CalculerTi,j(λ)A, c’est faire l’opération élémentaire Li← Li+λLj.
• CalculerPi jA, c’est faire l’opération d’échange Li ↔Lj.
Remarque.Par multiplication à droite par ces matrices, on obtient les opérations élémen- taires analogues sur les colonnes.
Le théorème suivant peut être prouvé de plusieurs manières. C’est soit une conséquence de la terminaison de l’algorithme du pivot de Gauss qu’on verra dans la section suivante, soit un résultat théorique comme montré dans[8], chapitre IV.
Théorème 2.2
• Les matrices de transvection de taillenengendrentSLn(K).
• Les matrices de transvection et de dilatation de taillenengendrentGLn(K).
Corollaire 2.3
SiK est de caractéristique différente de 2 ou 3,SLn(K))est son propre groupe dérivé.
Exemple 2.4.Une application de ce résultat est le théorème de Frobenius-Zolotarev : sipest un nombre premier supérieur à 5, etu∈GLn(Fp)alors la signature deuest"(u) =detu
p
.
2.2 L’algorithme du pivot de Gauss
Ce lemme donne l’idée de base de l’algorithme, qui est utilisé au moins depuis le Iersiècle en Chine, mais a été formalisé par Gauss en 1810.
Lemme 2.5
Toute matrice A ∈ Mm,n(K) à première colonne non nulle peut être transformée par multiplication à gauche par des transvections en une matrice de la forme
β ? 0 A˜
où A˜∈ Mm−1,n−1(K).
Démonstration.En effet, il suffit d’effectuer pour i¾2, l’opération élémentaire Li ← Li− ai,1
a11L1, ce qui revient à multiplier par la matrice de transvection Ti,1
−ai,1 a11
.
Corollaire 2.6
Soit A ∈ Mm,n(K). Il existe M ∈ GLn(K) produit de matrices de transvections trian- gulaires supérieures et de matrices de permutation telle que T = M Aest triangulaire supérieure.
Remarque.Ainsi,AX =best équivalent àT X =M b.
L’algorithme du pivot de Gauss détermine si un système du typeAX =B,A∈ Mm,n(K),B∈ Mm,1(K)est compatible, et s’il l’est le réduit à un système d’équations du type
a11 ?
0 ... T
0 0 ar,r
x1
... xr
=B0
où r¶inf(m,n)est le rang deA, lesai,i sont tous non nuls etT ∈ Mr,n−r(K),B0∈ Mr,1(K). En vertu du théorème de Rouché-Fontené, l’espace des solutions deAX =Best de dimension n−ret une solutionx = (x1, . . . ,xn)s’obtient en donnant une valeur arbitraire àxr+1, . . . ,xn et en résolvant par remontée le système triangulaire supérieur
a11x1+· · ·+a1,rxr = b10 −a1,r+1xr+1− · · · −a1,nxn
... ...
ar,rxr = b0r−ar,r+1xr+1− · · · −ar,nxn Description de l’algorithme
Entrées: une matriceA= (ai,j)i,j de taille m×n, un vecteur colonne B de taille m. On note L1, . . . ,Lm les lignes de la matrice A B
. Pour1¶k¶n−1 :
Siil existe r¾ktel quear,k6=0 : Trouver r¾ktel que|ar,k|=max
k¶i¶n|ai,k|. Échanger Lk et Lr
Pouri¾k+1 :
Effectuer Li ← Li− ai,k ak,kLk. Si Li est de la forme(0 . . . 0,b0i):
Si b0i6=0 : terminer et renvoyer ("non compatible",A,B).
Sinon, supprimer Li de la matrice.
Renvoyer ("compatible",A0,B0), oùB0est la dernière colonne deAetA0la matrice consti- tuée des npremières colonnes deA.
Remarque. • Cet algorithme nécessiteO(n3)opérations.
• Sa bonne terminaison est assurée par le lemme.
• On choisit le pivot de module maximal pour des raisons de stabilité numérique : un exemple spectaculaire est donné dans[3], p. 78.
Le résultat suivant est une application de la méthode du pivot : Théorème 2.7 (décomposition de Bruhat)
Si Ts est le groupe des matrices triangulaires supérieures inversibles de Mn(K), on a GLn(K) = `
σ∈Sn
TsPσTs où Pσ= (δi,σ(j))i,j est la matrice de permutation associée àσ. En utilisant le pivot de Gauss sur une matrice rationnelle, on peut obtenir des résultats sur les systèmes diophantiens, comme par exemple cette proposition :
Proposition 2.8
SoitA∈ Mn(Z). Le système diophantienAx =0admet une solution non nulle dansNn si et seulement0Rn est dans l’enveloppe convexe des colonnes deA.
Démonstration.On note Ai lai-ème colonne deA.
⇐ : soit x solution non nulle dans Nn, alors 0 = (A1. . .An)
x1
... xn
= Pn
i=1
xiAi donc en divisant parn, on obtient le résultat.
⇒: soitlminimal tel que 0 s’écrive comme combinaison convexe altermes Pl j=1
xjAij des colonnes deA. Selon le théorème de Carathéodory, en notant r le rang surQde la matrice (Ai
1, . . . ,Ai
l), on a l ¶ r+1. Mais puisqu’on a exhibé une relation de dépendance linéaire entre ces colonnes, r <l. Ainsi r =l−1 et par l’algorithme du pivot de Gauss sur Q, on peut trouver P ∈ GLm(Q) tel que P(Ai
1. . .Ai
r) =
M 0
où M ∈ Mr,r+1(Z) est de rang r.
Donc kerQM est de dimension 1 surQet de plus M
x1
... xr
=0 donc x0= (x1, . . . ,xr)est un vecteur directeur à coefficients positifs de kerQM.
Or kerQM ⊂kerRM donc x0est également un vecteur directeur de kerRM, de sorte que tous ses éléments ont leurs coefficients tous positifs ou tous négatifs. En multipliant x0 par un coefficient bien choisi, on peut donc trouver y0∈Nr tel que(Ai
1. . .Ai
r)y0=0. On obtient y ∈Nntel que Ay=0 en complétant y0 avec des 0.
2.3 Interprétation en termes d’actions de groupes
Dans cette sous-section, on cherche à étudier les orbites de l’action de GLm(K)surMm,n(K) par multiplication à gauche, ce qui correspond à des opérations sur les lignes. Dans le contexte de la résolution de systèmes linéaires, cela est plus naturel que la multiplication à droite, qui correspond à un changement de variable affine des inconnues.
Des précisions supplémentaires ainsi qu’une application à l’étude des grassmanniennes peuvent être trouvés dans[2], chapitre IV.
Définition 2.9
On appelle pivotd’une ligne le coefficient non nul (s’il existe) situé dans la colonne la plus à gauche. Une matrice est dite échelonnée réduite lorsqu’elle vérifie les conditions suivantes :
• Si une ligne est nulle, toutes les lignes suivantes sont nulles ;
• Le pivot d’une ligne est strictement plus à droite que ceux des lignes précédents ;
• Tous les pivots sont égaux à 1 et sont les seuls coefficients non nuls de leur colonne.
Une matrice échelonné réduite est déterminée par la liste (j1, . . . ,jr) des colonnes des pivots, qu’on appelle sontype.
Exemple 2.10.La matrice
0 1 0 ? 0 ? ?
0 0 1 ? 0 ? ?
0 0 0 0 1 ? ?
0 0 0 0 0 0 0
est échelonnée réduite.
On note Em,n l’ensemble des matrices échelonnées réduites de Mm,n(K). Le théorème suivant montre qu’elles constituent une classe de représentations pour l’action considérée.
Théorème 2.11
SoientA,A0 ∈ Mm,n(K). Alors AetA0 sont dans la même orbite pour l’action par multi- plication à gauche si et seulement sikerA=kerA0. On aMm,n(K) = `
E∈Em,n
Orb(E). Démonstration. • Supposons kerA = kerA0 = F ⊂ Km. Soit une base (e1, . . . ,ep) de
F, qu’on complète en une base (e1, . . . ,ep,fp+1, . . . ,fm) de Km. Alors (vp+1, . . . ,vm) = (A(fp+1), . . . ,A(fm))(resp.(vp0+1, . . . ,vm0) = (A0(fp+1), . . . ,A0(fm))) est une base de ImA (resp. de ImA0). En complétant chacune de ces deux familles libres en des basesB, B0 deKmet en notant P la matrice de passage deB àB0, on aA0=PA.
• Le fait que toute matrice est dans l’orbite d’une matrice échelonnée réduite résulte de la méthode du pivot de Gauss : en effet, partant d’une matrice réduite selon l’al- gorithme décrit ci-dessus, quitte à multiplier par des matrices de dilatation, on peut supposer que le pivot de chaque ligne est 1 ; de plus, si le pivot d’une ligne iest situé en jièmeposition, on peut annuler par des opérationsLk←Lk−?Li tous les coefficients ak,j pourk6=i.
• Montrons enfin que deux matrices distinctesE,E0∈ Em,nne peuvent être dans la même orbite.
Procédons par récurrence sur m. Supposons que le résultat soit vrai pour toutes ma- trices échelonnées réduites àm−1 lignes. Supposons qu’il existePinversible telle que E=P E0. Notons(j1, . . . ,jr)et(j10, . . . ,js0)leurs types respectifs. Alorss=r est le rang de E,E0. De plus, les j1-1 premières colonnes deP E sont nulles et celle d’indice j1 est la première colonne de P. Donc j1= j10. Prenons P =
1 p12 . . . p1m 0
... Q
0
,E = L F
,
E0=
L F
L,L0∈ M1,n(K), des décompositions par blocs de P,E,E0. Alors F et F0sont
échelonnées réduites etP E=
L+ (p12. . .p1m)F QF
=E0d’oùQF =F0et par hypothèse de récurrence F = F0, d’oùQ= Im−1. De plus, comme F est de type(j2, . . . ,jr), pour k¾2, le coefficient d’indice(1,jk)deP Eest p1k et d’autre part, le coefficient d’indice (1,jk)de E0est 0 car j1= j10. D’où P=Im et E=E0.
Remarque.On peut conduire la même étude pour l’action par multiplication à droite. Dans ce cas, deux matrices sont dans la même orbite si et seulement si elles ont la même image.
En utilisant la notion duale dematrice échelonnée réduite en lignes, on peut obtenir une description pratique des grassmanniennes de taille r de Kn, c’est à dire les sous-espaces vectoriels de dimension r deKn :
Proposition 2.12
SiF est un sous-espace vectoriel deKnde dimension r, il existe une unique suite stricte- ment croissantei= (i1, . . . ,ir)et une matrice échelonnéeAF réduite en lignes de typei dansMn,r(K)telle queAF est la matrice d’une base de F dans la base canonique deKn. Démonstration.Voir[2]p. 137.
L’étude duplongement de Plückerpermet de prolonger cette étude et de réaliser l’espace des grassmanniennes comme un sous-ensemble d’un espace projectif.
Notation: On noteΛ(r,n)l’ensemble des parties àr éléments deJ,nK, et Grr,n l’espace des grassmanniennes de taille r de Kn.
En utilisant la multilinéarité par rapport aux colonnes du déterminant, on obtient la formule suivante :
Proposition 2.13 (formule de Binet-Cauchy)
SiA∈ Mm,n,B ∈ Mn,l, alors pour tout r¶min(m,n,l), I ∈Λ(r,m),J ∈Λ(r,l), on a la relation sur les mineurs suivante :
∆I,J(AB) = X
K∈Λ(r,n)
∆I,K(A)∆K,J(B) Si A∈ Mm,n(K), r ¶min(m,n)on définit Λr(A) = (∆I,J)I∈Λ(r,m)
J∈Λ(r,n). On peut voir cet objet comme une matrice dansM(mr),(rn). La formule ci-dessus se réécrit alorsΛr(AB) =Λr(A)Λr(B).
En particulier, siA∈ Mn,r(K),Q∈GLr(K), alorsΛr(AQ) =detQΛr(A). Théorème 2.14
Soit F ∈Grr,n,AF ∈ Mn,r(K)matrice d’une base B de F dans la base canonique deKn. La droite engendrée parΛr(AF)∈ M(nr),1(K)ne dépend que deF, l’application
ψ: Grr,n −→ P(rn)−1(K) F 7−→ [Λr(AF)]
est bien définie, et injective. De plus,ψ commute aux actions naturelles deGLn(K) surGrr,n etP(rn)−1(K), son image est une orbite deP(rn)−1(K)sous cette action.
Démonstration.Puisque AF est de rang r, Λr(AF) 6= 0. Soit B0 autre base de F et A0F la matrice associée, soit Q ∈ GLr(K) matrice de passage de B à B0. Alors A0F = AFQ donc
Λr(A0F) = detQΛr(AF), de sorte que les droites engendrées par Λr(A0F) et Λr(AF) sont les mêmes. Doncψest bien définie.
Pour tout v∈Kn, v∈ F si et seulement si la matrice (AF v)∈ Mn,r+1(K)est de rang r, c’est à dire si tous ses mineurs de taille r+1 sont nuls.
En développant pour toutI ∈Λ(r+1,n)par rapport à la dernière colonne le mineur de taille r+1 associé àI de(AF v), on obtient
∀v∈Kn,v∈F ⇔ ∀I ∈Λ(r+1,n),∆I =X
i∈I
(−1)ivi∆I\{i}(AF) =0
Cette équation est homogène donc ne dépend pas de l’élément de la droite engendrée parΛr(AF)choisi. Ainsi,ψest injectif.
Le groupe linéaire GLn(K)agit sur Grr,n via P·F = P(F)et sur P(rn)−1(K) via P ·[v] = [Λr(P)v]. Alors∀P ∈GLn(K),ψ(P·F) = [Λr(PAF)] = [Λr(P)Λr(AF)] =P·[Λr(AF)].
En outre, l’action de GLn(K) sur Grr,n est évidemment transitive donc l’image de ψ est une orbite dansP(rn)−1(K).
2.4 Sur un anneau euclidien : l’algorithme des facteurs invariants
On s’appuie sur[1], pp.286-287.
Théorème 2.15
Soit Aun anneau euclidien, U ∈ Mm,n(A). Alors il existe s ∈ Net (d1, . . . ,ds) ∈As tels queds|. . .|d1 et(P,Q)∈GLm(A)×GLn(A)tels que
U =P
d1 (0)
...
ds
(0) 0
Q
De plus, si U vérifie une relation de cette forme avec (d10, . . . ,dr0), alorsr=s et pour tout i,di0 etdi sont associés.
Remarque.Le résultat est encore vrai si Aest un anneau principal, cependant, la preuve n’est alors plus algorithmique.
Décrivons l’algorithme permettant d’obtenir une telle réduction.
Algorithme des facteurs invariants
Entrées:Aun anneau euclidien de stathmeϕ,U ∈ Mm,n(A). On noteCj sa jème colonne et Li saièmeligne.
SiU 6=0 :
1 Choisir(i0,j0)tel queϕ(ui
0,j0)est minimal parmi les stathmes des coefficients non nuls de U.
ÉchangerC1 etCj
0, L1 et Li
0. 2 Pour2¶i¶m:
(a) Effectuer la division euclidienneui,1=u11q+ri. Effectuer Li ←Li−q L1
(b) Si ri 6=0, échanger Li et L1 et retourner en2(a) 3 Pour2¶j¶n:
(a) Effectuer la division euclidienneu1,j=u11q+sj. EffectuerCj←Cj−qC1
(b) Sisj6=0, échangerCj etC1, retourner en2
4 (a) Si il existe i1 ¾2, j1 ¾2 tels que u11 ne divise pasui1,j1, faire C1 ← C1+Cj1 et retourner en2.
(b) Sinon, appliquer l’algorithme à(ui,j)2¶i,j¶n
Expliquons le principe : les étapes1à3visent à obtenir une matrice de la forme
β 0 0 A˜
où ˜U ∈ Mm−1,n−1(A). Pour ce faire, on procède de manière analogue au pivot de Gauss en utilisant cette fois la terminaison de l’algorithme d’Euclide en un nombre fini d’étapes. En effet, pour annuler ui,1, on retranche à Li le quotient de la division euclidienne par u11 et on échange Li et L1 puis on recommence, ce qui revient à placer à l’étapeklekièmereste de l’algorithme d’Euclide en place(1, 1).
Exemple 2.16(résolution de systèmes diophantiens).SoitA∈ Mm,n(Z), b∈ Mm,1(Z). Soit (P,Q)∈GLm(Z)×GLn(Z)tel que PAQ=D=
d1 (0)
...
dr
(0) 0
oùd1|. . .|dr. Alors∀x ∈ Mn,1(Z),Ax = b⇔D y =b0où y =U−1x, b0=U b. Le système admet donc une solution si et seulement si∀1¶i¶r,di|b0i.
Proposition 2.17 (théorème de la base adaptée)
SoientAun anneau euclidien, L unA-module de rang net R⊂L un sousA-module. Il existe une base(e1, . . . ,en)de L et(d1, . . . ,dk)∈Ak tels qued1|. . .|dk et(d1e1, . . . ,dkek) est une base deR.
Dans le cas des groupes abéliens finis, qui sont des Z-modules, on obtient le résultat suivant :
Proposition 2.18
Si G est un groupe abélien fini, il existe un unique(d1, . . . ,dr)∈Zr tel quedr|. . .|d1 et G'Z/d1Z×. . .Z/drZ.
Mentionnons également que, siK est un corps, l’utilisation de l’algorithme des facteurs invariants sur un certain K[X]-module de type fini permet d’obtenir les invariants de simi- litude d’un endomorphisme de u de Kn, c’est-à-dire l’unique (P1, . . . ,Pr) ∈ K[X]r tel que Pr|. . .P1 et dans une base B bien choisie, MB(u) =
CP
1 0
. . .
0 CP
r
, avec CPi la matrice compagnon associée à Pi.
3 Résolution effective des systèmes linéaires
3.1 Méthodes directes
Commençons par remarquer le fait suivant : la résolution d’un système triangulaire supé- rieur de taillendemandeO(n2)opérations. En effet, si
t11x1+· · ·+t1,nxn = b1
... ...
tn−1,n−1xn−1+tn−1,nxn = bn−1 tn,nxn = bn
, on calcule xn en une opération, puis xn−1 en trois opérations (une multiplication, une soustraction, une division), puis xn−2 en cinq, ..., x1 en 1+2(n−1) opérations. Comme Pn
i=11+2(n−i) =n+n(n−1) =n2, c’est bien le nombre d’opérations nécessaires.
Définition 3.1
LeconditionnementdeA∈ Mn(C)relativement à la norme subordonnéek·kestcond(A) = kAkkA−1k¾1.
Le conditionnement quantifie la dépendance de la solution deAx=bpar rapport à une petite variation de bou deA, comme le montre la proposition suivante :
Proposition 3.2
• SiAx=betA(x+δx) = b+δb, alors kδxk
kxk ¶cond(A)kδbk kbk
• Si(A+δA)(x+δx) =b, alors kδxk
kx+δxk ¶cond(A)kδAk kAk Ces inégalités sont optimales.
Une méthode directe vise à obtenir une solution exacte en un nombre fini d’étapes. On s’appuie pour cela sur des décompositions de A permettant de se ramener à la résolution d’un système triangulaire supérieure.
Théorème 3.3 (décomposition LU)
SoitA∈GLn(C)telle que tous ses mineurs principaux sont non nuls. Il existe un unique couple(L,U)avec U triangulaire supérieure et L triangulaire inférieure ayant unique- ment des 1 sur la diagonale tel queA=LU.
Par conséquent, pour tout x ∈Rn,Ax = b⇔
§ U x =y
L y =b . La décomposition LU et la résolution du système se font enO(n3)opérations.
Définition 3.4
Unematrice bande pest une matriceA= (ai j)i,j telle queai j =0pour|i−j|>p.
Proposition 3.5
La décomposition LU préserve la structure bande des matrices.
Théorème 3.6
SoitA∈ Mn(C). Il existeQ∈ Mn(C)unitaire etR∈ Mn(C)triangulaire supérieure telle queA=QR.
Démonstration.Essentiellement, pour une matrice Ainversible, il s’agit du procédé d’or- thonormalisation de Gram-Schmidt. En effet, soit〈·,·〉le produit scalaire canonique deCn.