• Aucun résultat trouvé

Systèmes d’équations linéaire ; opérations élémentaires, aspects algorithmiques, conséquences théoriques

N/A
N/A
Protected

Academic year: 2022

Partager "Systèmes d’équations linéaire ; opérations élémentaires, aspects algorithmiques, conséquences théoriques"

Copied!
21
0
0

Texte intégral

(1)

Systèmes d’équations linéaire ; opérations

élémentaires, aspects algorithmiques, conséquences théoriques

Gabriel L

EPETIT

Mémoire de master 2 MEEF dirigé par GuyCASALEsur une leçon présentée en collaboration avec AntoineDIEZ.

Table des matières

1 Théorie générale des systèmes linéaires 2

1.1 Systèmes de Cramer . . . 2

1.2 Cas général : le théorème de Rouché-Fontené . . . 3

1.3 Le cas des systèmes homogènes . . . 4

2 Sur les opérations élémentaires 7 2.1 Définitions . . . 7

2.2 L’algorithme du pivot de Gauss . . . 8

2.3 Interprétation en termes d’actions de groupes . . . 9

2.4 Sur un anneau euclidien : l’algorithme des facteurs invariants . . . 12

3 Résolution effective des systèmes linéaires 14 3.1 Méthodes directes . . . 14

3.2 Méthodes itératives de résolution d’un système linéaire . . . 15

3.3 Méthodes de gradient . . . 17

3.3.1 Méthode de gradient conjugué . . . 18

3.3.2 Méthode de gradient à pas optimal . . . 19

***

La résolution de systèmes linéaires sur un corps est un problème de base, aussi bien en algèbre qu’en analyse. En effet, la résolution numérique d’un problème d’équations aux dé- rivées partielles passe souvent par une discrétisation nécessitant la résolution d’un système linéaire. En outre, le calcul de la transformée de Fourier rapide, central en traitement numé- rique du signal, fait appel à cette notion. L’étude de systèmes linéaires sur un anneau dans le cadre de la théorie des modules donne lieu à de riches développements en arithmétique.

La recherche de méthodes efficaces pour résoudre ce genre de systèmes est cruciale car les systèmes apparaissant dans la pratique sont souvent de très grande taille.

Dans ce mémoire, on présentera tout d’abord une théorie générale des systèmes linéaires, notamment le théorème de Rouché-Fontené qui donne des conditions d’existence des solu- tions, puis on développera une méthode algorithmique de résolution par opérations élémen- taires, le pivot de Gauss, qu’on interprétera en termes d’actions de groupe sur l’espace des matrices. Enfin, la troisième partie sera l’occasion de s’intéresser à des méthodes directes ou itératives efficaces de résolution.

(2)

1 Théorie générale des systèmes linéaires

On se donne un corpsK etA∈ Mm,n(K),b∈ Mm,1(K). On cherche à étudier le système linéaire Ax =b. On se demande d’abord s’il admet des solutions, quelle est la structure de l’espace des solutions, s’il est possible de calculer ces solutions explicitement. La recherche de l’efficacité dans cette démarche fera l’objet des parties suivantes.

Définition 1.1

Le systèmeAx = best ditcompatibles’il admet au moins une solution x ∈ Mm,1(K). Le rangdu système est le rang deA.

1.1 Systèmes de Cramer

Définition 1.2

On parle desystème de CramerquandAest dansGLn(K).

Un système de Cramer admet donc une unique solution x =A1b.

Théorème 1.3 (Formules de Cramer)

Si A = (ai j)1i,jn, l’unique solution du système de Cramer Ax = b est donnée par x =

x1

... xn

où

i∈J1,nK,xi =

a11 . . . a1,i−1 b1 a1,i+1 . . . a1,n ... ... ... ... ... an,1 an,i−1 bn an,i+1 . . . an,n

detA

Démonstration.En notantC1, . . . ,Cn les colonnes deA, on a b=Pn

i=1

xiCi.

On noteAk la matrice obtenue en remplaçant lak-ème colonne par b, etBi,k la matrice obtenue en remplaçant lak-ème colonne parCi. Par linéarité du déterminant par rapport à lak-ème colonne et en utilisant son caractère alterné, on a :

det(Ak) = Xn

i=1

xidet(Bi,k) = xkdetBk,k=xkdetA

Le calcul de la solution demande de l’ordre de(n+1)! opérations. En effet, il faut calculer n+1 déterminants, chacun se calculant en n! opérations.

Exemple 1.4.ConsidéronsA=

2 −5 2

1 2 −4

3 −4 −6

etb=

 7 3 5

. Alors on ax1=−1 46

7 −5 2

3 2 −4

5 −4 −6

=

5, x2=−1 46

2 7 2

1 3 −4 3 5 −6

=1, x3 =−1 46

2 −5 7

1 2 3

3 −4 5

=1.

(3)

1.2 Cas général : le théorème de Rouché-Fontené

Soit A ∈ Mm,n(K), on note r ¶ min(n,m) le rang du système. Quitte à permuter et renuméroter les équations, on peut supposer que δ=

a11 . . . a1,r ... ... ar,1 . . . ar,r

6=0 Définition 1.5

On appelledéterminants caractéristiquesdu systèmeAx =bles déterminants

s =

a11 . . . a1,r b1 ... ... ... ar,1 . . . ar,r br as,1 . . . as,r bs

pours∈Jr+1,nK

Théorème 1.6 (Rouché-Fontené)

Le systèmeAx = b est compatible si et seulement si s =0 pour touts ∈Jr+1,nK. Dans ce cas, les solutions forment un espace affine de dimension nr. Une solution x est obtenue en donnant à xr+1, . . . ,xn des valeurs arbitraires puis en calculant l’unique solution du système

a11x1+· · ·+a1,rxr = b1a1,r+1xr+1− · · · −a1,nxn

... ... ...

ar,1x1+· · ·+ar,rxr = brar,r+1xr+1− · · · −ar,nxn La preuve présentée est issue de[5], p. 144.

Démonstration.Notons C1, . . . ,Cn les colonnes de A. Comme δ est un mineur non nul de taille rde(C1. . .Cr), lesrpremières colonnes deAforment une famille libre, donc une base de ImA. Ainsi, le systèmeAx =best compatible si et seulement si(C1, . . .Cr,b)est liée, c’est à dire de rangr, ce qui équivaut à la nullité de tous les mineurs de tailler+1 de(C1. . .Crb), qui ne sont autre que les déterminants caractéristiquess, pours∈Jr+1,nK.

Sous ces conditions,B= (C1. . .Cnb)est de rangrdonc ses lignes constituent une famille

de rang r. MaisB =

a11 . . . a1r . . . a1n b1 ... ... ... ... ar1 . . . ar r . . . ar n br

... ... ...

ap1 . . . apr . . . apn bp

donc puisqueδ6=0, lesr premières

lignes sont indépendantes. Les pr dernières lignes sont donc combinaisons linéaires des r premières, ce qui permet leur élimination du système d’équations linéaires, qui devient équivalent au système d’équations principalessuivant :

a11x1+· · ·+a1rxr+a1,r+1xr+1+· · ·+a1,nxn = b1

... ...

ar,1x1+· · ·+ar,rxr+ar,r+1xr+1+· · ·+ar,nxn. . . = br

A nouveau, le fait que δ 6= 0 garantit qu’une fois xr+1, . . . ,xn arbitrairement choisis, il existe un unique (x1, . . . ,xr)tel que (x1, . . . ,xn) soit solution deAx = b. En particulier, l’espace des solutions est un espace affine de dimensionnr.

(4)

Exemple 1.7.Soit la matrice réelle de rang 2A =

1 2 −1 1

1 0 −1 −1

−1 1 1 2

 et b =

 1 1 m

,m

R. Le seul déterminant caractéristique est =

1 2 1

1 0 1

−1 1 m

= −2(m+1). Le système admet donc des solutions si et seulement si m = −1 et dans ce cas, il est équivalent à

§ x1 = 1+x3+x4 x2 = −x4 .

1.3 Le cas des systèmes homogènes

Proposition 1.8

SoitA∈ Mm,n(K). SiAest de rangr, alors les solutions deAx=0constituent un espace vectoriel de dimensionnr.

Ce résultat de base peut être appliqué par exemple pour prouver le théorème d’Artin, résultat de théorie de Galois. On s’appuie sur la démonstration de[6].

Lemme 1.9 (Dedekind)

SoientK, Ldeux corps et(ϕ1, . . . ,ϕn)une famille de morphismes de corps distincts de K dans L. Alors elle est linéairement indépendante sur L: si∀xK,

n

P

i=1αiϕi(x) =0, on aα1 =· · ·=αn=0.

Démonstration.Supposons qu’il existeα1, . . . ,αnnon tous nuls tels que∀xK,

n

P

i=1

αiϕi(x) = 0. Quitte à réordonner les termes de la somme, on peut trouver r ∈N tels queα1, . . . ,αr

sont non nuls etαr+1=· · ·=αn=0, et on peut choisir(αi)i de sorte que ce r soit minimal.

SoityKtel queϕ1(y)6=ϕr(y). On a pour toutxK,0=Pr

i=1

αiϕi(y x) = Pr

i=1

αiϕi(yi(x). De plus,ϕ1(y)Pr

i=1

αiϕi(x) =0 donc en soustrayant ces deux équations,

xK,

r

X

i=2

αii(y)−ϕ1(x))ϕi(x) =0

Comme par hypothèseαrr(y)−ϕ1(y))6=0, on a une combinaison linéaire à coefficients non tous nuls de r−1 termes de(ϕi)i ce qui contredit la minimalité der.

Théorème 1.10

Si L est un corps et H est un groupe fini du groupe des automorphismes de L, alors si LH ={xL:∀σ∈H,σ(x) = x}, L/LH est une extension finie,|H|= [L: LH]et H est le groupe desLH-automorphismes de L.

Démonstration.On notem= [L: LH](éventuellement égal à∞) etn=|H|. On va vérifier dans un premier temps que m=n.

1 Supposons que m<n<+∞. Fixons x1, . . . ,xm une base de L sur LH et notonsH = {σ1, . . . ,σn}. Considérons le système deméquations àninconnues dans L,Y1, . . . ,Yn défini par :

j∈J1,mK,σ1(xj)Y1+. . .σn(xj)Yn=0

(5)

C’est un système surdéterminé donc il admet une solution non nulle(y1, . . . ,yn). Par suite, pour tout x =Pm

j=1

αjxjL, oùαjLH, on a

n

X

i=1

σi(x)yi=

n

X

i=1 m

X

j=1

αjσi(xj)yi =

m

X

j=1

αj

‚ m X

i=1

σi(xj)yi

Œ

=0 On a donc Pn

i=1 yiσi =0 avec les yi non tous nuls ce qui contredit le lemme d’indé- pendance de Dedekind ci-dessous. Doncm¾n.

2 Supposons que m>n. Il existe donc une famille (x1, . . . ,xn+1)d’éléments de L libre sur LH. Selon le même argument que pour le premier point, on peut trouver une famille non nulle(y1, . . . ,yn+1)∈Ln+1)vérifiant (S):

i∈J1,nK,σi(x1)y1+· · ·+σi(xn+1)yn+1=0

Sans perte de généralité, on peut supposer que parmi toutes les solutions non nulles, (y1, . . . ,yn+1)a un nombre minimalr de termes non nuls. Alors quitte à renuméroter, on peut supposer que∀ir,yi 6=0 et∀i>r,yi=0. Ainsi,(S)se réécrit :

i∈J1,nK,σi(x1)y1+· · ·+σi(xr)yr=0

Soit σH, appliquonsσ au système(S): ∀i∈J1,nK,(σ◦σi)(x1)σ(y1) +· · ·+ (σ◦ σi)σ(yr) =0. Commeτ7→στest une permutation de l’ensemble finiH, on a donc (∆):

i∈J1,nK,σi(x1)y1+· · ·+σi(xr)yr=0

En multipliant (S) par σ(y1), (∆) par y1 et en additionnant les deux systèmes, on obtient

i∈J1,nK,σi(x2)(σ(y1)y2σ(y2)y1) +· · ·+σi(xr)(σ(y1)yrσ(yr)y1) =0 L’entier r étant le nombre minimal de termes non nuls d’une solution non triviale de (S), on a ∀j ∈ J2,rK,σ(y1)yjy1σ(yj) = 0, soit σ(y1yj 1) = y1yj1 donc ∀j ∈ J2,rK,y1y−1jLH. Ainsi pour tout 2¶ jr, il existezj∈(LH) tel que yj=zjy1. La ligne de(S)correspondant àσi=idLdevient alors :x1y1+x2z2y1+· · ·+xrzry1=0 donc comme y1 6=0, on a x1+x2z2+· · ·+xrzr=0, de sorte que(x1, . . . ,xr)est une famille liée, ce qui contredit l’hypothèse initiale. Donc mn< +∞ et finalement m=n.

3 Notons G le groupe des LH-automorphismes de L. Il contientH de manière évidente.

Montrons que G est fini. Soit (a1, . . . ,an) une base de L sur LH, Π1, . . . ,Πr les poly- nômes minimaux respectifs des ai sur LH et f =Π1. . .ΠrLH[X]. SoitR l’ensemble (fini) des racines de f dans L. CommeΠj(aj) =0 pour tout j,R contient{a1, . . .an}. De plus, si x = Pn

i=1

αiaiL, où αiLH, alors, pour tout élément σ de G, on a σ(x) = Pn

i=1

αiσ(ai). Cela nous assure que ψ: G −→ S(R) σ 7−→ σ|R

est injective et donc que G est fini.

On a LHLGLpar définition deG, et LGLHLcarHGdonc LH =LG. Selon la conclusion du deuxième point, on a|G|= [L: LH] = [L:LG] =|H|donc G=H.

(6)

Donnons quelques précisions supplémentaires sur la théorie de Galois. Étant donné une extension de corpsL/K, on s’intéresse à songroupe de GaloisGal(L/K)qui est le groupe des K-automorphismes de corps de L. Le résultat majeur de cette théorie est la correspondance de Galois entre les corps intermédiaires KML et les sous-groupesH de Gal(L/K): Théorème 1.11

Si L/K est une extension galoisienne, les applications Fix : H 7→ LH et Gal : M 7→

Gal(L/M)sont réciproques l’une de l’autre, oùLH, comme défini dans l’énoncé du théo- rème d’Artin est appelésous-corps fixede Lassocié àH

Il est remarquable qu’en vertu du théorème d’Artin, toute extension finie vérifie Gal◦ Fix=id.

Définition 1.12

SoitL/Kune extension algébrique. On dit que c’est une extensiongaloisiennesiLGal(L/K)= K.

On suppose à présent queKest un corps parfait, c’est-à-dire que siL/Kest une extension algébrique, alors tout polynôme de L[X]n’admet que des racines simples dans son corps de décomposition – L est ditséparable. La plupart des corps usuels sont parfaits :Q,R,C, les corps finis. En revanche pour ppremier,Fp(T)n’est pas parfait.

Définition 1.13

L’extension algébrique L/K est dite normale si tout polynôme irréductible fK[X] admettant une racine dansL se décompose en produit de facteurs de degré 1 dansL.

Par exempleC/Rest une extension normale.

Proposition 1.14

Soit L/K une extension finie, alors on a l’équivalence entre : 1 L/K est galoisienne ;

2 L/K est normale ;

3 Lest le corps de décomposition d’un polynôme fK[X]; 4 Gal(L/K)est d’ordre[L:K];

Démonstration.Montrons la première implication. Comme l’extension L/K est finie, son groupe de Galois G est fini (vu dans le troisième point de la démonstration du théorème d’Artin). Soit fK[X] irréductible admettant une racine a dans L. Introduisons P(X) =

Q

σ∈G(Xσ(a)). SiτG, en notant encoreτson prolongement naturel à L[X], on aτ(P) = Q

σ∈G(X −(τ◦σ)(a)) =P carσ7→τσest une permutation deG. Donc PLG[X] =K[X] carL/Kest galoisienne ; et de plusP(a) =0. Mais f étant irréductible, c’est à constante près le polynôme minimal de a sur K donc f divise P dans K[X]. Ainsi, f est scindé à racines simples sur L.

En particulier si L/K est galoisienne finie etKMLest un corps intermédiaire, alors L/M est galoisienne puisque L est le corps de décomposition de fK[X]⊂M[X], ce qui

(7)

prouve la correspondance de Galois.

Voir également[11]pour un point de vue concis sur la théorie de Galois.

2 Sur les opérations élémentaires

2.1 Définitions

Unematrice de dilatationest une matrice de la forme Di(α) =Diag(1, . . . , 1,α, 1, . . . , 1) oùα6=0 est en i-ème position dans la diagonale. Son inverse estDi1).

Unematrice de transvectionest une matrice de SLn(K)de la formeTi j(λ) =

 1

1 λ

...

1

 oùλest en position(i,j)et i6=j. L’inverse de Ti j(λ)estTi j(−λ).

Une matrice de permutation est une matrice Pi j de la forme

Ii−1 0

U

0 In1ij

 avec

U =

0 1

1 ...

1 0

bloc carré de taillei+j+1. La matrice Pi j est inversible d’inversePji.

Proposition 2.1

SoitA∈ Mm,n(K). On note Li lai-ème ligne deA.

• CalculerDi(α)A, c’est faire l’opération élémentaire LiαLi.

• CalculerTi,j(λ)A, c’est faire l’opération élémentaire LiLi+λLj.

• CalculerPi jA, c’est faire l’opération d’échange LiLj.

Remarque.Par multiplication à droite par ces matrices, on obtient les opérations élémen- taires analogues sur les colonnes.

Le théorème suivant peut être prouvé de plusieurs manières. C’est soit une conséquence de la terminaison de l’algorithme du pivot de Gauss qu’on verra dans la section suivante, soit un résultat théorique comme montré dans[8], chapitre IV.

Théorème 2.2

• Les matrices de transvection de taillenengendrentSLn(K).

• Les matrices de transvection et de dilatation de taillenengendrentGLn(K).

Corollaire 2.3

SiK est de caractéristique différente de 2 ou 3,SLn(K))est son propre groupe dérivé.

Exemple 2.4.Une application de ce résultat est le théorème de Frobenius-Zolotarev : sipest un nombre premier supérieur à 5, etu∈GLn(Fp)alors la signature deuest"(u) =detu

p

‹ .

(8)

2.2 L’algorithme du pivot de Gauss

Ce lemme donne l’idée de base de l’algorithme, qui est utilisé au moins depuis le Iersiècle en Chine, mais a été formalisé par Gauss en 1810.

Lemme 2.5

Toute matrice A ∈ Mm,n(K) à première colonne non nulle peut être transformée par multiplication à gauche par des transvections en une matrice de la forme

β ? 0 A˜

‹ où A˜∈ Mm1,n1(K).

Démonstration.En effet, il suffit d’effectuer pour i¾2, l’opération élémentaire LiLiai,1

a11L1, ce qui revient à multiplier par la matrice de transvection Ti,1



ai,1 a11

‹ .

Corollaire 2.6

Soit A ∈ Mm,n(K). Il existe M ∈ GLn(K) produit de matrices de transvections trian- gulaires supérieures et de matrices de permutation telle que T = M Aest triangulaire supérieure.

Remarque.Ainsi,AX =best équivalent àT X =M b.

L’algorithme du pivot de Gauss détermine si un système du typeAX =B,A∈ Mm,n(K),B∈ Mm,1(K)est compatible, et s’il l’est le réduit à un système d’équations du type

a11 ?

0 ... T

0 0 ar,r

x1

... xr

=B0

r¶inf(m,n)est le rang deA, lesai,i sont tous non nuls etT ∈ Mr,n−r(K),B0∈ Mr,1(K). En vertu du théorème de Rouché-Fontené, l’espace des solutions deAX =Best de dimension nret une solutionx = (x1, . . . ,xn)s’obtient en donnant une valeur arbitraire àxr+1, . . . ,xn et en résolvant par remontée le système triangulaire supérieur

a11x1+· · ·+a1,rxr = b10a1,r+1xr+1− · · · −a1,nxn

... ...

ar,rxr = b0rar,r+1xr+1− · · · −ar,nxn Description de l’algorithme

Entrées: une matriceA= (ai,j)i,j de taille m×n, un vecteur colonne B de taille m. On note L1, . . . ,Lm les lignes de la matrice A B

. Pourkn−1 :

Siil existe r¾ktel quear,k6=0 : Trouver r¾ktel que|ar,k|=max

kin|ai,k|. Échanger Lk et Lr

Pouri¾k+1 :

Effectuer LiLiai,k ak,kLk. Si Li est de la forme(0 . . . 0,b0i):

Si b0i6=0 : terminer et renvoyer ("non compatible",A,B).

Sinon, supprimer Li de la matrice.

(9)

Renvoyer ("compatible",A0,B0), oùB0est la dernière colonne deAetA0la matrice consti- tuée des npremières colonnes deA.

Remarque. • Cet algorithme nécessiteO(n3)opérations.

• Sa bonne terminaison est assurée par le lemme.

• On choisit le pivot de module maximal pour des raisons de stabilité numérique : un exemple spectaculaire est donné dans[3], p. 78.

Le résultat suivant est une application de la méthode du pivot : Théorème 2.7 (décomposition de Bruhat)

Si Ts est le groupe des matrices triangulaires supérieures inversibles de Mn(K), on a GLn(K) = `

σ∈Sn

TsPσTsPσ= (δi,σ(j))i,j est la matrice de permutation associée àσ. En utilisant le pivot de Gauss sur une matrice rationnelle, on peut obtenir des résultats sur les systèmes diophantiens, comme par exemple cette proposition :

Proposition 2.8

SoitA∈ Mn(Z). Le système diophantienAx =0admet une solution non nulle dansNn si et seulement0Rn est dans l’enveloppe convexe des colonnes deA.

Démonstration.On note Ai lai-ème colonne deA.

⇐ : soit x solution non nulle dans Nn, alors 0 = (A1. . .An)

x1

... xn

 = Pn

i=1

xiAi donc en divisant parn, on obtient le résultat.

⇒: soitlminimal tel que 0 s’écrive comme combinaison convexe altermes Pl j=1

xjAij des colonnes deA. Selon le théorème de Carathéodory, en notant r le rang surQde la matrice (Ai

1, . . . ,Ai

l), on a lr+1. Mais puisqu’on a exhibé une relation de dépendance linéaire entre ces colonnes, r <l. Ainsi r =l−1 et par l’algorithme du pivot de Gauss sur Q, on peut trouver P ∈ GLm(Q) tel que P(Ai

1. . .Ai

r) = 

M 0

‹

M ∈ Mr,r+1(Z) est de rang r.

Donc kerQM est de dimension 1 surQet de plus M

x1

... xr

=0 donc x0= (x1, . . . ,xr)est un vecteur directeur à coefficients positifs de kerQM.

Or kerQM ⊂kerRM donc x0est également un vecteur directeur de kerRM, de sorte que tous ses éléments ont leurs coefficients tous positifs ou tous négatifs. En multipliant x0 par un coefficient bien choisi, on peut donc trouver y0∈Nr tel que(Ai

1. . .Ai

r)y0=0. On obtient y ∈Nntel que Ay=0 en complétant y0 avec des 0.

2.3 Interprétation en termes d’actions de groupes

Dans cette sous-section, on cherche à étudier les orbites de l’action de GLm(K)surMm,n(K) par multiplication à gauche, ce qui correspond à des opérations sur les lignes. Dans le contexte de la résolution de systèmes linéaires, cela est plus naturel que la multiplication à droite, qui correspond à un changement de variable affine des inconnues.

(10)

Des précisions supplémentaires ainsi qu’une application à l’étude des grassmanniennes peuvent être trouvés dans[2], chapitre IV.

Définition 2.9

On appelle pivotd’une ligne le coefficient non nul (s’il existe) situé dans la colonne la plus à gauche. Une matrice est dite échelonnée réduite lorsqu’elle vérifie les conditions suivantes :

• Si une ligne est nulle, toutes les lignes suivantes sont nulles ;

• Le pivot d’une ligne est strictement plus à droite que ceux des lignes précédents ;

• Tous les pivots sont égaux à 1 et sont les seuls coefficients non nuls de leur colonne.

Une matrice échelonné réduite est déterminée par la liste (j1, . . . ,jr) des colonnes des pivots, qu’on appelle sontype.

Exemple 2.10.La matrice

0 1 0 ? 0 ? ?

0 0 1 ? 0 ? ?

0 0 0 0 1 ? ?

0 0 0 0 0 0 0

est échelonnée réduite.

On note Em,n l’ensemble des matrices échelonnées réduites de Mm,n(K). Le théorème suivant montre qu’elles constituent une classe de représentations pour l’action considérée.

Théorème 2.11

SoientA,A0 ∈ Mm,n(K). Alors AetA0 sont dans la même orbite pour l’action par multi- plication à gauche si et seulement sikerA=kerA0. On aMm,n(K) = `

E∈Em,n

Orb(E). Démonstration. • Supposons kerA = kerA0 = FKm. Soit une base (e1, . . . ,ep) de

F, qu’on complète en une base (e1, . . . ,ep,fp+1, . . . ,fm) de Km. Alors (vp+1, . . . ,vm) = (A(fp+1), . . . ,A(fm))(resp.(vp0+1, . . . ,vm0) = (A0(fp+1), . . . ,A0(fm))) est une base de ImA (resp. de ImA0). En complétant chacune de ces deux familles libres en des basesB, B0 deKmet en notant P la matrice de passage deB àB0, on aA0=PA.

• Le fait que toute matrice est dans l’orbite d’une matrice échelonnée réduite résulte de la méthode du pivot de Gauss : en effet, partant d’une matrice réduite selon l’al- gorithme décrit ci-dessus, quitte à multiplier par des matrices de dilatation, on peut supposer que le pivot de chaque ligne est 1 ; de plus, si le pivot d’une ligne iest situé en jièmeposition, on peut annuler par des opérationsLkLk−?Li tous les coefficients ak,j pourk6=i.

• Montrons enfin que deux matrices distinctesE,E0∈ Em,nne peuvent être dans la même orbite.

Procédons par récurrence sur m. Supposons que le résultat soit vrai pour toutes ma- trices échelonnées réduites àm−1 lignes. Supposons qu’il existePinversible telle que E=P E0. Notons(j1, . . . ,jr)et(j10, . . . ,js0)leurs types respectifs. Alorss=r est le rang de E,E0. De plus, les j1-1 premières colonnes deP E sont nulles et celle d’indice j1 est la première colonne de P. Donc j1= j10. Prenons P =

1 p12 . . . p1m 0

... Q

0

,EL F

‹ ,

E0=

L F

‹

L,L0∈ M1,n(K), des décompositions par blocs de P,E,E0. Alors F et F0sont

(11)

échelonnées réduites etP E

L+ (p12. . .p1m)F QF

‹

=E0d’oùQF =F0et par hypothèse de récurrence F = F0, d’oùQ= Im−1. De plus, comme F est de type(j2, . . . ,jr), pour k¾2, le coefficient d’indice(1,jk)deP Eest p1k et d’autre part, le coefficient d’indice (1,jk)de E0est 0 car j1= j10. D’où P=Im et E=E0.

Remarque.On peut conduire la même étude pour l’action par multiplication à droite. Dans ce cas, deux matrices sont dans la même orbite si et seulement si elles ont la même image.

En utilisant la notion duale dematrice échelonnée réduite en lignes, on peut obtenir une description pratique des grassmanniennes de taille r de Kn, c’est à dire les sous-espaces vectoriels de dimension r deKn :

Proposition 2.12

SiF est un sous-espace vectoriel deKnde dimension r, il existe une unique suite stricte- ment croissantei= (i1, . . . ,ir)et une matrice échelonnéeAF réduite en lignes de typei dansMn,r(K)telle queAF est la matrice d’une base de F dans la base canonique deKn. Démonstration.Voir[2]p. 137.

L’étude duplongement de Plückerpermet de prolonger cette étude et de réaliser l’espace des grassmanniennes comme un sous-ensemble d’un espace projectif.

Notation: On noteΛ(r,n)l’ensemble des parties àr éléments deJ,nK, et Grr,n l’espace des grassmanniennes de taille r de Kn.

En utilisant la multilinéarité par rapport aux colonnes du déterminant, on obtient la formule suivante :

Proposition 2.13 (formule de Binet-Cauchy)

SiA∈ Mm,n,B ∈ Mn,l, alors pour tout r¶min(m,n,l), IΛ(r,m),JΛ(r,l), on a la relation sur les mineurs suivante :

I,J(AB) = X

K∈Λ(r,n)

I,K(A)∆K,J(B) Si A∈ Mm,n(K), r ¶min(m,n)on définit Λr(A) = (∆I,J)I∈Λ(r,m)

J∈Λ(r,n). On peut voir cet objet comme une matrice dansM(mr),(rn). La formule ci-dessus se réécrit alorsΛr(AB) =Λr(Ar(B).

En particulier, siA∈ Mn,r(K),Q∈GLr(K), alorsΛr(AQ) =detr(A). Théorème 2.14

Soit F ∈Grr,n,AF ∈ Mn,r(K)matrice d’une base B de F dans la base canonique deKn. La droite engendrée parΛr(AF)∈ M(nr),1(K)ne dépend que deF, l’application

ψ: Grr,n −→ P(rn)1(K) F 7−→ [Λr(AF)]

est bien définie, et injective. De plus,ψ commute aux actions naturelles deGLn(K) surGrr,n etP(rn)1(K), son image est une orbite deP(rn)1(K)sous cette action.

Démonstration.Puisque AF est de rang r, Λr(AF) 6= 0. Soit B0 autre base de F et A0F la matrice associée, soit Q ∈ GLr(K) matrice de passage de B à B0. Alors A0F = AFQ donc

(12)

Λr(A0F) = detr(AF), de sorte que les droites engendrées par Λr(A0F) et Λr(AF) sont les mêmes. Doncψest bien définie.

Pour tout vKn, vF si et seulement si la matrice (AF v)∈ Mn,r+1(K)est de rang r, c’est à dire si tous ses mineurs de taille r+1 sont nuls.

En développant pour toutIΛ(r+1,n)par rapport à la dernière colonne le mineur de taille r+1 associé àI de(AF v), on obtient

vKn,vF ⇔ ∀IΛ(r+1,n),I =X

i∈I

(−1)iviI\{i}(AF) =0

Cette équation est homogène donc ne dépend pas de l’élément de la droite engendrée parΛr(AF)choisi. Ainsi,ψest injectif.

Le groupe linéaire GLn(K)agit sur Grr,n via P·F = P(F)et sur P(rn)1(K) via P ·[v] = [Λr(P)v]. Alors∀P ∈GLn(K),ψ(P·F) = [Λr(PAF)] = [Λr(Pr(AF)] =P·[Λr(AF)].

En outre, l’action de GLn(K) sur Grr,n est évidemment transitive donc l’image de ψ est une orbite dansP(rn)1(K).

2.4 Sur un anneau euclidien : l’algorithme des facteurs invariants

On s’appuie sur[1], pp.286-287.

Théorème 2.15

Soit Aun anneau euclidien, U ∈ Mm,n(A). Alors il existe s ∈ Net (d1, . . . ,ds) ∈As tels queds|. . .|d1 et(P,Q)∈GLm(A)×GLn(A)tels que

U =P

d1 (0)

...

ds

(0) 0

Q

De plus, si U vérifie une relation de cette forme avec (d10, . . . ,dr0), alorsr=s et pour tout i,di0 etdi sont associés.

Remarque.Le résultat est encore vrai si Aest un anneau principal, cependant, la preuve n’est alors plus algorithmique.

Décrivons l’algorithme permettant d’obtenir une telle réduction.

Algorithme des facteurs invariants

Entrées:Aun anneau euclidien de stathmeϕ,U ∈ Mm,n(A). On noteCj sa jème colonne et Li saièmeligne.

SiU 6=0 :

1 Choisir(i0,j0)tel queϕ(ui

0,j0)est minimal parmi les stathmes des coefficients non nuls de U.

ÉchangerC1 etCj

0, L1 et Li

0. 2 Pourim:

(a) Effectuer la division euclidienneui,1=u11q+ri. Effectuer LiLiq L1

(13)

(b) Si ri 6=0, échanger Li et L1 et retourner en2(a) 3 Pourjn:

(a) Effectuer la division euclidienneu1,j=u11q+sj. EffectuerCjCjqC1

(b) Sisj6=0, échangerCj etC1, retourner en2

4 (a) Si il existe i1 ¾2, j1 ¾2 tels que u11 ne divise pasui1,j1, faire C1C1+Cj1 et retourner en2.

(b) Sinon, appliquer l’algorithme à(ui,j)2¶i,j¶n

Expliquons le principe : les étapes1à3visent à obtenir une matrice de la forme

β 0 0 A˜

‹

où ˜U ∈ Mm−1,n−1(A). Pour ce faire, on procède de manière analogue au pivot de Gauss en utilisant cette fois la terminaison de l’algorithme d’Euclide en un nombre fini d’étapes. En effet, pour annuler ui,1, on retranche à Li le quotient de la division euclidienne par u11 et on échange Li et L1 puis on recommence, ce qui revient à placer à l’étapeklekièmereste de l’algorithme d’Euclide en place(1, 1).

Exemple 2.16(résolution de systèmes diophantiens).SoitA∈ Mm,n(Z), b∈ Mm,1(Z). Soit (P,Q)∈GLm(Z)×GLn(Z)tel que PAQ=D=

d1 (0)

...

dr

(0) 0

d1|. . .|dr. Alors∀x ∈ Mn,1(Z),Ax = bD y =b0y =U1x, b0=U b. Le système admet donc une solution si et seulement si∀1¶ir,di|b0i.

Proposition 2.17 (théorème de la base adaptée)

SoientAun anneau euclidien, L unA-module de rang net RL un sousA-module. Il existe une base(e1, . . . ,en)de L et(d1, . . . ,dk)∈Ak tels qued1|. . .|dk et(d1e1, . . . ,dkek) est une base deR.

Dans le cas des groupes abéliens finis, qui sont des Z-modules, on obtient le résultat suivant :

Proposition 2.18

Si G est un groupe abélien fini, il existe un unique(d1, . . . ,dr)∈Zr tel quedr|. . .|d1 et G'Z/d1Z×. . .Z/drZ.

Mentionnons également que, siK est un corps, l’utilisation de l’algorithme des facteurs invariants sur un certain K[X]-module de type fini permet d’obtenir les invariants de simi- litude d’un endomorphisme de u de Kn, c’est-à-dire l’unique (P1, . . . ,Pr) ∈ K[X]r tel que Pr|. . .P1 et dans une base B bien choisie, MB(u) =

CP

1 0

. . .

0 CP

r

, avec CPi la matrice compagnon associée à Pi.

(14)

3 Résolution effective des systèmes linéaires

3.1 Méthodes directes

Commençons par remarquer le fait suivant : la résolution d’un système triangulaire supé- rieur de taillendemandeO(n2)opérations. En effet, si





t11x1+· · ·+t1,nxn = b1

... ...

tn−1,n−1xn−1+tn−1,nxn = bn−1 tn,nxn = bn

, on calcule xn en une opération, puis xn1 en trois opérations (une multiplication, une soustraction, une division), puis xn2 en cinq, ..., x1 en 1+2(n−1) opérations. Comme Pn

i=11+2(ni) =n+n(n−1) =n2, c’est bien le nombre d’opérations nécessaires.

Définition 3.1

LeconditionnementdeA∈ Mn(C)relativement à la norme subordonnéek·kestcond(A) = kAkkA1k¾1.

Le conditionnement quantifie la dépendance de la solution deAx=bpar rapport à une petite variation de bou deA, comme le montre la proposition suivante :

Proposition 3.2

• SiAx=betA(x+δx) = b+δb, alorsxk

kxk ¶cond(A)kδbk kbk

• Si(A+δA)(x+δx) =b, alorsxk

kx+δxk ¶cond(A)kδAk kAk Ces inégalités sont optimales.

Une méthode directe vise à obtenir une solution exacte en un nombre fini d’étapes. On s’appuie pour cela sur des décompositions de A permettant de se ramener à la résolution d’un système triangulaire supérieure.

Théorème 3.3 (décomposition LU)

SoitA∈GLn(C)telle que tous ses mineurs principaux sont non nuls. Il existe un unique couple(L,U)avec U triangulaire supérieure et L triangulaire inférieure ayant unique- ment des 1 sur la diagonale tel queA=LU.

Par conséquent, pour tout x ∈Rn,Ax = b

§ U x =y

L y =b . La décomposition LU et la résolution du système se font enO(n3)opérations.

Définition 3.4

Unematrice bande pest une matriceA= (ai j)i,j telle queai j =0pour|ij|>p.

Proposition 3.5

La décomposition LU préserve la structure bande des matrices.

Théorème 3.6

SoitA∈ Mn(C). Il existeQ∈ Mn(C)unitaire etR∈ Mn(C)triangulaire supérieure telle queA=QR.

Démonstration.Essentiellement, pour une matrice Ainversible, il s’agit du procédé d’or- thonormalisation de Gram-Schmidt. En effet, soit〈·,·〉le produit scalaire canonique deCn.

Références

Documents relatifs

Dans les systèmes dont tous les rayons sont normaux à une surface, les deux plans focaux de chaque rayon coïncident avec ses deux plans principaux, et ses deux foyers coïncident

Nommons plans principaux les plans qui passent par uu rayon et sont perpendiculaires aux plus courtes dis- tances de ce rayon aux rayons infiniment voisins qui donnent les

Celle où tout rayon est coupé par deux rayons infiniment voisins, et celle où cette intersection n'a lieu pour aucun rayon infiniment voisin.Il existe une troisième catégorie

Nous voulons maintenant étudier directement le système spécial de solutions des équations (A). Nous considérerons ce système comme étant seul de son espèce, quoiqu’il

primer les éléments en fonctions linéaires, homogènes, à coefficients constants des éléments du premier système fondamental On aura donc des relations de.. , n)

Toute solution du système d’équations (A) peut s’obtenir par des com- linéaires et homogènes à coefficients constants des éléments d’un. fondamental

Soit ^ une solution complète de S, laissée indéterminée et soit R(^) une fonction de ^, rationnelle, dans d3, c'est-à-dire une fonction rationnelle dans (Q de ses

Donc les substitutions de G transformeront les unes dans les autres les fonctions du faisceau aY+a'Y'-h ••• • Le noirtbre des fonctions distinctes Yp ...,Y^ contenues dans