• Aucun résultat trouvé

Sur les Matrices à Coefficients Entiers

N/A
N/A
Protected

Academic year: 2021

Partager "Sur les Matrices à Coefficients Entiers"

Copied!
59
0
0

Texte intégral

(1)

Ministère de l’Enseignement Supérieur et de la Recherche

Scientifique

Université 8 Mai 1945 Guelma

Faculté des Mathématiques et de l’Informatique

et des Sciences de la Matière

Département de Mathématiques

Mémoire

Présenté en vue de l’obtention du diplôme de

Master Académique en Mathématiques

Option : Equations aux Dérivées Partielles

Et analyse numérique

Présenté Par :

ABDEL-KANI IBRAHIM ANNOUR

Intitulé

Dirigé par :

Dr. Djamel Bellaouar

Devant le jury

PRESIDENT Dr. Noureddine Azzouza MCA Univ-Guelma EXAMINATEUR Dr. MOURAD KERBOUA MCA Univ-Guelma

Sur les Matrices à Coefficients

Entiers

(2)

J'adresse ce travail

à mes chers parents mon père Ibrahim Annour et ma mère

Aminé Mahamat pour leur soutien infaillible durant toute mes

années d’étude.

Ainsi qu’à mes frères Oumar, Youssouf, Abdou daim et mes

sœurs Fatima Zahra, Khadija, Kouzaifa.

Et à mon cher encadreur, Mr: Djamel Bellaouar.

Ainsi qu’a tous mes amis, en particulier collègues de la

spécialité à l’université 08 Mai 1945 Guelma, Algérie.

Ainsi qu

à tous ceux qui me connaissent ; qui m’ont aidé et qui

sont toujours

présents à mes côtés, avec qui j’ai partagé le bon et le

mauvais,

Et a toute la famille IBRAHIM

(3)

Entiers

ABDEL-KAN IBRAHIM ANNOUR (Tchad)

Université 8 Mai 1945 Guelma

Mémoire de Master en mathématiques

Option : EDP Et Analyse Numérique

(4)

Résumé 2

Abstract 2

Table des notations 2

Introduction 4

1 Notions élémentaires 8

1.1 Définitions et Notations . . . 8

1.2 Théorème de Calley-Hamilton et Théorème de décomposition de Schur . . . 12

1.3 Matrices unimodulaires . . . 15

1.3.1 Propriétés des matrices unimodulaires . . . 16

1.3.2 Condition suffisante pour être totalement unimodulaire 17 1.3.3 Question . . . 17

2 Divisibilité du Déterminant d’une classe de matrices à coef-ficients entiers 18 2.1 Introduction . . . 18

2.2 Exemples sur M2(Z) et M3(Z) . . . 20

2.3 Preuve du Théorème 2.1.1 . . . 24

3 Quelques résultats de l’arithmétique matricielle 26 3.1 Matrice inversible dont l’inverse appartient à Mn(Z) . . . 26

3.2 Forme normale de Smith . . . 30

3.2.1 Comment calculer la forme de Smith . . . 34

3.2.2 Les unités . . . 37

(5)

3.2.4 Inverses de Siegel et matrices primitives . . . 38

3.3 Système d’équations linéaires Diophantiennes . . . 40

4 Quelques types de factorisation 46

4.1 Exemples sur le produit de deux matrices ayant des éléments

suffisamment grands . . . 47

(6)

Résumé

Ma thèse finale traite de quelques notions de théorie élémentaire des nombres pour les matrices à coefficients entiers. Tout d’abord, on donne quelques notions élémentaires et quelques définitions, et nous avons présenté la preuve du théorème de Cayley-Hamilton, et théorème de décomposition de Schur : pour toute matrice à coefficients dans Z, on peut la factoriser comme

produit de trois matrices P T P−1, où T est triangulaire supérieure. Nous

allons donner quelques propriétés des matrices unimodulaires. Nous allons compris que, si le nombre d divise tous les représentation décimales des ligne

d’une matrice de Mn(Z), alors d divise le déterminant de cette matrice. On

a donné les conditions nécessaires et suffisantes pour une matrice soit dans

GLn(Z). Et on a donné la forme normale de Smith, et comment résoudre un

système d’équations linéaires Diophantiennes par la méthode de Smith. En-fin, on a donné quelques exemples sur la représentation d’une matrice comme le produit de matrices élémentaires.

Mots clés. matrices à coefficients entiers, factorisation, matrices élé-mentaires, forme normale de Smith, Système d’équations linéaires Diophan-tiennes.

(7)

Abstract

The manuscript deals essentially with some arithmetical properties of matrices with integer entries. At first, basic notations and definitions are given as well as the proof of both Cayley-Hamilton theorem and the theorem of decomposition of Shuer. We have introduced the properties of unimodular matrices which are important on the factoring of invertible matrices over the ring of integers. Next, we have understood a result about divisibility properties involving some class of integer matrices and their determinants. Further, there are several necessary and sufficient conditions for which a given matrix has inverse with integer entries. Also we present Smith normal form for a given matrix by which we can solve a system of linear Diophantine equations. At the end, there are several types on the factorization as well as the product of elementary matrices.

(8)

Table des notations

Notation Explication

a | b, a divise b.

a - b a ne divise pas b.

Mn(Z) L’ensemble des matrices à coefficients entiers.

GLn(Z) L’ensemble des matrices inversibles à coefficients entiers.

diag {d1, d2, 0} Matrice diagonale et ses éléments diagonaux sont d1, d2 et 0.

lcm (a, b) Le plus petit commun multiple de a et b.

Zn L’ensemble de tous les points entiers de Rn

In ou En La matrice identité de Mn(R)

Ei,j Ei,j = (aij), où aij = 0 sauf la i-ième ligne et j-ième colonne qui vaut 1

SLn(Z) L’ensemble des matrices à coefficients entiers et déterminant est égal à 1

rg(A) Le rang de A

(a, b) Le plus grand commun diviseur de a et b (ou gcd (a, b)).

bac La partie entière d’un réel a

{a} La partie fractionnaire de a

cab Le plus grand entier strictement inférieur à a.

com(A) Comatrice de A

det (A) Déterminant de A

adj(A) La matrice adjointe de A

A ≡ B A et B sont équivalentes

Mn(F) L’ensemble des matrices à coefficients dans un corps F.

FNS Forme Normale de Smith

(d) Un idéal engendré par d

A ∼ T La matrice A est similaire avec T

pA(X) Le polynôme caractéristique de A

(ei)1≤i≤n Une base canonique

0 D 

FNS (diagonale croissante pour la relation de divisibilité)

(9)

Le manuscrit traite essentiellement de quelques notions sur la théorie élé-mentaire des nombres pour les matrices. Notons que l’étude des matrices à coefficients entiers trouvées dans le domaine de l’Algèbre linéaire sur Z où nous pouvons travailler avec des vecteurs ayant des combinaisons linéaires à coefficients entiers, des modules sur Z (Z-modules) et des systèmes

d’équa-tions linéaires Diophantiennes [10]. La théorie des matrices à coefficients

entiers est importante car il est intéressant de voir dans quelle mesure les propriétés des entiers ordinaires sont susceptibles de généralisation.

Dans ce travail, on examine quelques exemples d’algorithmes d’algèbre linéaire sur les entiers [9]. Ici, nous allons travailler sur l’anneau des entiers Z et voir comment des problèmes concrets sur les entiers d’essence linéaire peuvent se résoudre de manière effective, qui est un domaine ancien et avait été créé à partir d’équations diophantiennes. D’autre part, l’étude des pro-priétés arithmétiques des matrices à coefficients dans un corps de nombres algébrique a été commencée par Siegel dans les années 30, dans le contexte des formes quadratiques et des fonctions modulaires de degré supérieur, voir [2] et [1]. Nous ne réintroduirons pas tout le vocabulaire très semblable à celui des espaces vectoriels : on parlera donc librement de matrices (à coefficients

(10)

dans Z, on montre que ce sont les matrices dont le déterminant est inversible dans Z, c’est-à-dire égal à ±1).

La factorisation des matrices à coefficients entiers comme produits de matrices triangulaires, involutions, unimodulaires, idempotentes, nilpotentes et commutateurs constituent une partie importante de la théorie des matrices et de la théorie des groupes classiques (voir [7], [8], [3]). Dans la troisième section, un certain nombre de ces résultats sont présentés pour des matrices intégrales. Nous ne considérons que des matrices sur Z, mais toutes les notions introduites ici s’étendent au cas d’un anneau principal. Bien que les matrices intégrales aient été intensivement étudiées (voir, par exemple, [10], [2]) et que certaines notions arithmétiques comme GCD et la divisibilité aient été introduites, l’ensemble des classes de diviseurs d’une matrice donnée reste encore mal compris.

Notons que pour une matrice donnée à coefficients entiers. On va adapter les méthodes de factorisation pour d’une part rester dans Z.

Plan de travail

L’objet de ce travail est de voir dans quelle mesure les propriétés arith-métiques des entiers sont susceptibles de généralisation. Dans le chapitre 1, il y a quelques outils de base, quelques notations, la preuve du théorème de Cayley-Hamilton et du Théorème de décomposition de Schur. Aussi, quelques notes sur les matrices unimodilaires. Au chapitre 2, nous avons présenté une propriété de divisibilité. Plus précisément, si un entier d divise la représen-tation décimale de n’importe quelle ligne d’une matrice, alors d divise son

(11)

déterminant. Dans le chapitre 3, nous avons présenté quelques résultats de l’arithmétique matricielle qui inclut matrice inversible dont l’inverse

appar-tien à Mn(Z), la forme normale de Smith et comment résoudre un système

d’équations polynomiales dont on cherche les solutions en nombres entiers. Au chapitre 4, nous étudierons la représentation des matrices à coefficients entiers comme le produit de matrices élémentaires.

(12)

Notions élémentaires

Dans la section suivante, nous présentons les outils de base, définitions et notions dont nous avons besoin dans le reste de ce travail [9]. Nous présentons aussi la preuve de deux théorèmes principaux qui sont assez importants dans la théorie de l’analyse matricielle, qui ont été utilisées dans les Chapitres 3,4. Le premier s’appelle ”Théorème de Calley-Hamilton” dit que chaque matrice est une racine de son polynôme caractéristique. Le second s’appelle ”Théorème de décomposition de Schur ” qui traite de la factorisation de toute matrice comme le produit de trois matrices ; matrice inversible P , matrice triangulaire supérieure T et l’inverse de P . Concernant les matrices sur Z il y a une factorisation similaire qui s’appelle ”Forme Normale de Smith” (voir Chapitre 3).

1.1

Définitions et Notations

1. Soit n ≥ 1 un entier. On appelle point entier de Rn un point dont

(13)

2. Une équation Diophantienne est une équation polynomiale à une ou plusieurs inconnues dont les solutions sont cherchées parmi les nombres entiers.

3. On note Mn(Z) l’ensemble des matrices de Mn(R) dont tous les

co-efficients sont entiers. On vérifie trivialement que Mn(Z) est un

sous-anneau de Mn(R).

4. Si A ∈ Mn(K), on note pour tout entier n, An le produit n fois de A

par elle-même.

5. On note In la matrice identité de Mn(R) et Ei,j la matrice de Mn(R)

dont tous les coefficients sont nuls sauf celui de la i-ième ligne et j-ième colonne qui vaut 1.

6. En algèbre linéaire, une matrice carrée A d’ordre n est dite inversible ou régulière ou encore non singulière s’il existe une matrice B d’ordre

n, appelée matrice inverse de A et notée : B = A−1 telle que AB =

BA = In.

7. Si M = (mi,j) est une matrice de Mn(Z), mi,j est le coefficient de la

i-ème ligne et de la j-ième colonne.

8. On note x1 x2 · · · xn  la matrice de Mn(Z) dont les colonnes

sont les vecteurs x1, x2, ..., xn de Zn.

9. Pour des entiers a1, a2, ..., ak non tous nuls, on note pgcd (a1, a2, ..., ak)

ou (a1, a2, ..., ak) le plus grand entier (strictement positif) qui divise

(14)

10. On note bac la partie entière d’un réel a : c’est le plus grand entier inférieur ou égal à a ; et {a} = a − bac ∈ [0, 1[ la partie fractionnaire de a. On note cab le plus grand entier strictement inférieur à a.

11. Une matrice idempotente est une matrice (carrée mais pas

nécessaire-ment symétrique) telle que A2 = A. Notons que le rang d’une matrice

idempotente symétrique est égal à sa trace. La seule matrice idempo-tente symétrique de plein rang est la matrice d’identité. De plus, toutes les matrices idempotentes symétriques, sauf la matrice d’identité, sont singulières.

12. J est une involution dans Mn(Z), c’est-à-dire J2 = In.

13. GLn(Z) = {A ∈ Mn(Z) ; det A = ±1}.

14. SLn(Z) = {A ∈ Mn(Z) ; det A = 1}.

15. Une matrice A a un commutateur s’il existe une matrice L non nulle telle que AL − LA = 0.

16. Soit A un anneau. Un A-module est un groupe abélien (M, +) muni d’une loi externe A × M → M vérifiant les mêmes axiomes que ceux d’un espace vectoriel. Le terme Z-module est simplement un autre nom pour un groupe abélien additif.

Définition 1.1.1 Un Z-module libre (de rang n) L est un Z-module tel qu’il existe une suite (e1, ..., en) (appelée base) de n éléments de L vérifiant : tout

élément de L s’écrit comme combinaison linéaire de (e1, e2, ..., en), de manière

unique.

(15)

plus grand commun diviseur (ou pgcd, gcd) de a et b, noté (a, b), est l’entier positif d qui satisfait aux deux conditions

(i) d | a et d | b,

(ii) Si c | a et c | b, alors c ≤ d.

De même, si a1, a2, ..., ar ∈ Z− {0}, alors le plus grand commun diviseur

de a1, a2, ..., ar, noté (a1, a2, ..., ar), est l’entier positif d qui satisfait aux deux

conditions

(i) d | ai pour i = 1, 2, ..., r

(ii) Si c | ai pour i = 1, 2, ..., r, alors c ≤ d.

Théorème 1.1.1 Soit a1, a2, ..., ar ∈ Z− {0}. Alors il existe des entiers

x1, x2, ..., xr tels que

(a1, a2, ..., ar) = a1x1+ a2x2+ ... + arxr.

Définition 1.1.3 Une matrice est dite élémentaire lorsqu’elle est obtenue en appliquant une seule opération élémentaire sur les lignes de la matrice identité.

Les opérations élémentaires sur les lignes d’une matrice sont les suivantes : 1. Permuter deux lignes entre elles ;

2. Ajouter un multiple d’une ligne à une autre ligne ; 3. Multiplier une ligne par un scalaire non nul.

(16)

1.2

Théorème de Calley-Hamilton et Théorème

de décomposition de Schur

Commençons par l’énocé du trés classique théorème de Calley-Hamilton, voir [9].

Théorème 1.2.1 Soient A ∈ Mn(C) et pA(x) son polynôme caractristique,

alors pA(A) = 0.

Lemme 1.2.1 Pour toute matrice A ∈ Mn(C), on a

A(com(A))t = det(A)In. Par exemple, si A = a b c d  ∈ Mn(R), on a A(com(A))t =  a b c d   d −b −c a  = ad − bc 0 0 ad − bc  = (ad − bc) 1 0 0 1  = det(A)In.

Preuve du théoirème de Cayley-Hamilton. Soit

A =      a11 a12 ... a1n a21 a22 ... a2n .. . ... . .. ... an1 an2 ... ann      .

De plus, supposons que pA(x) = xn+ cn−1xn−1+ cn−2xn−2+ ... + cx + c0. En

appliquant le Lemme 1.2.1 pour la matrice xIn− A, on obtient

(17)

où xIn− A =      x − a11 a12 ... a1n a21 x − a22 ... a2n .. . ... . .. ... an1 an2 ... x − ann      . Posons

com(xIn−A)t= B0+xB1+x2B2+...+xn−1Bn−1, où (Bi)i=1,2,...,n−1 ∈ Mn(R) .

On en déduit alors

(xIn− A)(B0+ xB1+ x2B2+ ... + xn−1Bn−1)

= det(xIn− A).In= xnIn+ cn−1xn−1In+ ... + cxIn+ cIn,

il vient aussi xnBn−1+ xn(Bn−2− ABn−1) + ... + x(B0− AB1) − AB0 = xnIn+ cn−1xn−1In+ cn−2xn−2In+ ... + c1xIn+ c0In. Donc            Bn−1 = In, Bn−2− ABn−1= cn−1In, ... = ... B0− AB1 = c1In, −AB0 = c0In. (1.1) En utilisant (1.1), il vient pA(A) = An+ cn−1An−1+ cn−2An−2+ ... + c1A + c0In = AnBn−1+ An−1(Bn−2− ABn−1) + ... + A(B0 − AB1) − AB0 = AnBn−1+ An−1Bn−2− AnBn−1+ ... + AB0 − A2B1− AB0 = 0.

(18)

Ce qui conclut la démonstration.

Nous montrons que toute matrice à coefficients complexes est trigonali-sable, c’est-à-dire semblable a une matrice triangulaire supérieure. Notons que l’une des premières applications de la trigonalisation des matrices avec le calcul des puissances des matrices et la résolution de systèmes d’équations différentielles linéaires.

Théorème 1.2.2 (Théorème de décomposition de Schur) Toute

ma-trice à coefficients complexes est trigonalisable dans Mn(C). C’est-à-dire,

pour toute matrice A ∈ Mn(C) ils existent une matrice P inversible et une

matrice triangulaire supérieure T telles que A = P T P−1.

Preuve. Soit A ∈ Mn(C). Montrons que A est trigonalisable dans Mn(C).

La démonstration se fait par récurrence sur n. En effet, pour n = 1 on a

A = a11, où a11∈ C. Dans ce cas on peut écrire

A = I(a11)I−1 = P T P−1 avec P = I = (1) et T = (a11) = A.

Supposons que toute matrice A1 ∈ Mn(C) est trigonalisable. Soient (λ, x)

un élément propre de A et {x, u2, ..., un} une base de Cn. Posons U =

(x, u2, ..., un), alors

AU = ( Ax Au2 . . . Aun ) = λx Au2 . . . Aun



Maintenant, calculons U−1AU . En effet, on a

U−1= U−1U e1 = e1,

où e1 = (1, 0, ..., 0). D’où

U−1AU = U−1 λx Au2 . . . Aun  = λe1 U−1Au2 . . . U−1Aun

(19)

On obtient aussi U−1AU =      λ × ... × 0 ∗ ... ∗ .. . ... . .. ... 0 ∗ ... ∗      = λ C 0 A1  = T1,

où C ∈ M1,n−1(C) et A1 ∈ Mn−1(C). D’après l’hypothèse de la récurrence,

il existe donc une matrice inversible W telle que

 1 0 0 W−1   λ C 0 A1   1 0 0 W  = λ CW 0 W−1A1W  = λ CW 0 T0  . Il vient A ∼ T1 ∼  λ CW 0 T0  = T , où T est triangulaire sépurieure. Ainsi, A ∼ T .

Dans l’anneau Z, nous avons une relation binaire similaire donnée par la définition suivante :

Définition 1.2.1 Deux matrices A et B sur Z de type m × n sont dites équivalentes et on écrit A ≡ B s’il existent une matrice P de type m × m et une matrice Q de type n × n, les deux inversibles sur Z, telles que

P AQ−1 = B.

Il s’agit d’une relation d’équivalence sur chaque ensemble de matrices d’une taille donnée.

1.3

Matrices unimodulaires

(20)

est une matrice carrée à coefficients entiers dont le déterminant vaut +1 ou −1. Plus généralement, une matrice unimodulaire sur un anneau commutatif A est une matrice inversible à coefficients dans A, dont l’inverse est aussi à

coefficients dans A. Le groupe général linéaire GLn(A) des matrices

unimo-dulaires de taille n sur l’anneau A est donc constitué des matrices dont le déterminant est inversible dans A.

1.3.1

Propriétés des matrices unimodulaires

Les matrices unimodulaires d’ordre n forment un groupe pour le produit, c’est-à-dire que les matrices suivantes sont unimodulaires :

1. La matrice unité ;

2. L’inverse d’une matrice unimodulaire ; 3. Le produit de deux matrices unimodulaires.

De plus, le produit de Kronecker de deux matrices unimodulaires est unimodulaire.

Définition 1.3.2 Une matrice totalement unimodulaire (TUM) est une ma-trice (non nécessairement carrée) à coefficients entiers dont chaque sous-matrice carrée de déterminant non nul est unimodulaire. On déduit de cette définition que les éléments d’une TUM peuvent uniquement être −1, 0 ou +1.

La matrice suivante est totalement unimodulaire :

A =     −1 −1 0 0 0 1 1 0 −1 −1 0 0 0 1 1 0 −1 0 0 0 0 1 1 −1    

(21)

1.3.2

Condition suffisante pour être totalement

unimo-dulaire

Une condition suffisante mais pas nécessaire pour qu’une matrice A soit totalement unimodulaire :

Soit A une matrice rectangulaire dont les lignes sont partitionnées en 2 ensembles disjoints B et C avec les propriétés suivantes :

1. Chaque colonne de A contient au plus 2 éléments non nuls ; 2. Chaque élément de A vaut −1, 0 ou +1 ;

3. Si 2 éléments d’une colonne de A ont le même signe, alors la ligne de l’un est dans B, l’autre dans C ;

4. Si 2 éléments d’une colonne de A ont des signes opposés, alors les lignes des 2 éléments sont dans B ou toutes les 2 dans C ;

alors les déterminants des sous-matrices de A sont −1, 0 ou +1.

1.3.3

Question

Soit A ∈ Mn(Z). Est-ce-que A peut toujours être représentée comme le

(22)

Divisibilité du Déterminant d’une

classe de matrices à coefficients

entiers

2.1

Introduction

Dans la section suivante on présente une propriété sur la divisibilité entre le déterminant d’une classe de matrices à coefficients entiers et l’écriture

décimale d’un entier positif (voir [5]). En effet, Soit bi =

Pn

j=1aij10n−j, où

i = 1, ..., n et aij ∈ Z. Soient A = (aij) ∈ Mn(Z) et k ∈ Z∗. On a

Théorème 2.1.1 Si chaque bi est divisible par k, alors le déterminant de la

maxtrice A est également divisible par k, i.e.,

Si k | bi, pour i = 1, ..., n ⇒ k | det (A) .

On sait que les nombres 14529, 15197, 20541, 38911 et 59619 sont des multiples de 167. Sans calculer réellement, le déterminant de la matrice A ∈

(23)

M5(Z) est également un multiple de 167, où A =       1 4 5 2 9 1 5 1 9 7 2 0 5 4 1 3 8 9 1 1 5 9 6 1 9       .

En effet, on a det (A) = 13 861 = 83 × 167.

Dans ce problème, nous avons donné une matrice de type 5 × 5 et le calcul de son déterminant à la main est fastidieux. Nous examinons un problème similaire, mais avec une dimension plus petite. Tout d’abord, nous examinons des exemples impliquant des matrices 2 × 2 pour savoir si ce cas est valable : si on donne des entiers à deux chiffres (disons, x = a1a2 et y = b1b2) et si ces

entiers sont divisibles par un entier donné k, est-il vrai que k divise aussi le

déterminant de la matrice  a1 a2

b1 b2

 ?

Nous enquêtons sur ce cas et voyons s’il s’étend à des dimensions plus élevées, c’est-à-dire au cas 3 × 3, au cas 4 × 4, et en général, au cas n × n. Bien que le problème d’origine ait donné une matrice très spécifique, nous résolvons une généralisation de ce problème et examinons également d’autres problèmes concernant le déterminant d’une matrice.

Soit Z l’ensemble de tous les entiers, N l’ensemble de tous les nombres

naturels, et nous laissons Mn(Z) l’ensemble de toutes les matrices n × n à

coefficients entiers. On note également le déterminant d’une matrice A par det(A).

Un nombre naturel à deux chiffres ab est vraiment a(10)+b, et un nombre naturel à trois chiffres abc est en fait a(102) + b(101) + c(100). En général, un

nombre naturel à n chiffres a1a2a3...an−1an peut s’écrire sous la forme :

(24)

où 0 ≤ ai ≤ 9 pour tout i = 1, 2, ..., n avec a1 6= 0.

2.2

Exemples sur M

2

(Z) et M

3

(Z)

Exemple 2.2.1 Les nombres 72 et 18 sont divisibles par 3. La matrice  7 2

1 8 

a le déterminant 7(8) − 2(1) = 54, qui est également divisible par 3. Exemple 2.2.2 Les nombres 16 et 36 sont divisibles par 4. La matrice

 1 6 3 6



a le déterminant 1(6) − 6(3) = −12, qui est également divisible par 4.

Dans ces exemples, nous voyons que si deux nombres entiers positifs a1a2

et b1b2 sont des multiples d’un entier positif k, alors le déterminant de la

matrice A =  a1 a2

b1 b2



(lequel est a1b2 − a2b1), est également divisible par

k. Notons que même lorsque le déterminant de A est 0, alors k également divise le déterminant de A.

Proposition 2.2.1 Soient e, f ∈ N deux entiers à deux chiffres, i.e., e =

10a + b et f = 10c + d , et soit A = a b

c d 

. Si k (un entier positif ) divise à la fois e et f , alors k divise det(A).

Preuve. Nous avons les deux équations

10a + b = e, (2.1)

(25)

En multipliant l’équation (2.1) par −c et l’équation (2.2) par a et en ajoutant ces équations, on obtient

ad − bc = af − ce

Maintenant, e = kr et f = kg, où r et g sont des entiers. Ainsi, ad − bc = a(kg) − c(kr) = k(ag − cr), pour que k divise (ab − bc). Par suite, k divise det(A).

Ensuite, nous examinons un exemple particulier sur une matrice de type 3 × 3.

Exemple 2.2.3 Les nombres 156, 228 et 276 sont des multiples de 12. Un calcul simple montre que le déterminant de la matrice

  1 5 6 2 2 8 2 7 6   est 36,

qui est également un multiple de 12.

Regardons maintenant de plus près le cas n = 3. Soit

A =   a b c d e f g h i  

et notons que det(A) = aei − af h + bf g − bdi + cdh − ceg.

Supposons que m, n et p sont des entiers à trois chiffres, i.e., m = 100a + 10b + c, n = 100d + 10e + f , et p = 100g + 10h + i. Supposons que m, n et p soient divisibles par k. On montre que k divise det(A).

Nous avons le système d’équations suivant :

100a + 10b + c = m, (2.3)

(26)

100g + 10h + i = p. (2.5) Si a = d = g = 0, alors det(A) = 0, qui est divisible par k. Ainsi, nous pouvons supposer que l’un des nombres a, d ou g est différent de zéro. Sans perte de généralité, supposons que d 6= 0. En multipliant (2.3) par d des deux côtés, en multipliant (2.4) par −a et en ajoutant ces équations, on obtient

10(bd − ea) + cd − f a = md − na. (2.6)

De même si nous multiplions (2.4) par g et si nous multiplions (2.5) par −d et ajoutons ces équations, on obtient aussi

10(ge − hd) + gf − id = gn − pd. (2.7)

Multiplions (2.6) par −(ge − hd), multiplions (2.7) par (bd − ea) et ajoutons ces deux équations : (bd − ea)(gf − id) − (cd − f a)(ge − hd) = (bd − ea)(gn − pd) − (md − na)(ge − hd). En simplifiant le côté gauche, nous obtenons

d(aei − af h + bf g − bdi + cdh − ceg), mais sur le côté droit, nous avons

d(dhm − egm − ahn + bdp − bgn − aep). Lorsque d 6= 0, on peut diviser par d pour obtenir

aei − af h + bf g − bdi + cdh − ceg = dhm − egm − ahn + bdp − bgn − aep. Le côté gauche de cette équation est det(A). Lorsque m, n, et p sont divisibles par k, alors chacune des sommes du côté droit est divisible par k. On en déduit que k divise det(A).

(27)

Notons bien que cette méthode fonctionne, elle peut devenir très fasti-dieuse lorsque la taille de la matrice devient grande. Cela nécessite de recher-cher une approche différente.

Avant d’examiner le cas général de ce problème, nous définissons une terminologie et des faits importants sur les matrices.

Soit A = (aij) une matrice de type n × n et soit Mij la matrice de type

(n − 1) × (n − 1) obtenue à partir de A en supprimant la ligne et la colonne contenant aij. Le déterminant de Mij est appelé le mineur de aij. Le cofacteur

de aij [9, page 102-103] est Aij = (−1)i+jdet(Mij). L’adjoint de A est adj(A) =      A11 A12 · · · A1n A21 A22 · · · A2n .. . ... . .. ... An1 An2 · · · Ann      .

Exemple 2.2.4 Par exemple, supposons que A =   3 8 7 2 6 0 5 4 3  . Alors A11= 6 0 4 3 = 18, A12 = − 2 0 5 3 = −6,..., et A33= 3 8 2 6 = 2, adj(A) =   18 −6 −22 4 −26 28 −42 14 2  , et det(A) = 3(18) − 8(6) + 7(−22) = −148.

Si A = (aij) ∈ Mn(Z) alors adj(A) ∈ Mn(Z) puisque adj(A) est calculé

(28)

est une connexion entre une matrice non singulière et son adjoint [9, page 116].

Lemme 2.2.1 Soit A une matrice non singulière de type n × n. Alors A−1 =

1

det(A)adj(A).

Maintenant, nous sommes prêts à résoudre le problème précédent.

2.3

Preuve du Théorème 2.1.1

Preuve. Soit A =      a11 a12 · · · a1n a21 a22 · · · a2n .. . ... · · · ... an1 an2 · · · ann      ∈ Mn(Z)

une matrice donnée. Tout d’abord, notons que si A est singulière, alors det(A) = 0 est divisible par k. Ainsi, on peut supposer que A est non singu-lière. De plus, si k = 1 alors k divise (bi)1≤i≤n et k divise det (A).

Maintenant, supposons que k ≥ 2. Soit z = 10n−1 10n−2 · · · 100 t,

il vient Az =      a11 a12 · · · a1n a21 a22 · · · a2n .. . ... · · · ... an1 an2 · · · ann           10n−1 10n−2 .. . 100      =      b1 b2 .. . bn      = b.

Nous avons donné cela pour chaque i = 1, ..., n, nous avons aussi bi = kri

pour un certain ri ∈ Z. Posons r = r1 ... rn

t

. Alors b = kr. Maintenant,

A−1 = 1

det(A)adj(A). Par conséquent

z = A−1b = 1

det(A)adj(A)b =

1

(29)

Ce qui donne

det(A)

k z = adj(A)r. (2.8)

Comme adj(A)r ∈ Z, alors (2.8) donne det(A)

k ∈ Z. Ainsi det(A) est divisible

par k, puisque k - z.

Une question naturelle à se poser est : pour A ∈ Mn(Z), quand est

A−1 ∈ Mn(Z) ?

Proposition 2.3.1 Soit A ∈ Mn(Z) une matrice non singulière. Alors A−1 ∈

Mn(Z) si et seulement si det(A) = ±1.

Preuve. Soit A ∈ Mn(Z). Alors det(A) ∈ Z parce que le déterminant est

calculé en ajoutant, en soustrayant et en multipliant les coefficients d’une matrice.

Si A−1 ∈ Mn(Z), alors det(A−1) ∈ Z. Mais, det(A−1) =

1

det(A). Par

conséquent, 1

det(A) est également un entier et par suite, det(A) = ±1.

Réciproquement, si det(A−1) = 1

det(A)adj(A) ∈ Mn(Z) puisque adj(A) ∈

(30)

Quelques résultats de

l’arithmétique matricielle

3.1

Matrice inversible dont l’inverse appartient

à M

n

(Z)

Dans la section suivante, nous présentons quelques conditions nécessaires

et suffisantes pour lesquelles A−1 ∈ Mn(Z).

Proposition 3.1.1 Soit A ∈ Mn(Z) une matrice inversible et à coefficients

entiers. Alors A−1 est à coefficients rationnels.

Preuve. On a Mn(Z) ⊂ Mn(Q). Donc si A est inversible elle est

inver-sible en tant que matrice à coefficients dans le corps Q. Son inverse A−1

est donc encore à coefficients rationnels. On sait que A−1 = 1

det (A)C

t, où

Ct= (comA)t

est la transposée de la matrice des cofacteurs de A. Comme le déterminant de A est entier et ses cofacteurs aussi (ce sont tous des détermi-nants de matrices à coefficients entiers), A−1est bien à coefficients rationnels.

(31)

Nous avons :

A ∈ Mn(Z) ∩ GLn(R) ⇒ A−1 ∈ Mn(Q).

Montrons l’équivalence des propositions suivantes : 1. A−1 est à coefficients entiers.

2. det (A) vaut −1 ou 1.

Si A ∈ Mn(Z) est inversible telle que A et A−1 sont à coefficients entiers,

alors det (A) et det (A−1) sont dans Z tels que

1 = det (In) = det (A) det A−1 .

Donc det (A) est un diviseur de 1, i.e., vaut −1 ou 1. Si A ∈ Mn(Z) est telle

que det (A) ∈ {−1, 1}, comme on a déjà dit que si A est à coefficients entiers,

alors il en est de même de At et en divisant par 1 ou par −1, A−1 ∈ M

n(Z).

On a

Pour A ∈ Mn(Z), A−1 ∈ Mn(Z) ⇔ det (A) = ±1.

Dans la suite on note GLn(Z) l’ensemble des matrices carrées de taille n

à coefficients entiers et de déterminant ±1. C’est un sous-groupe de GLn(R).

On remarque que pour i 6= j et c ∈ Z, la matrice In+ cEi,j appartient à

GLn(Z). En effet, comme In commute avec tout le monde et puisque i 6=

j ⇒ E2

i,j = 0. De plus, on a

(In+ cEi,j) (In− cEi,j) = In− c2Ei,j2 = In.

Donc In+ cEi,j ∈ GLn(Z). On peut aussi dire que le déterminant d’une telle

matrice vaut 1.

(32)

Théorème 3.1.1 Soit A = x1 x2 · · · xn  ∈ GLn(R). Alors

A ∈ GLn(Z) si et seulement si A (Zn) = Zn. (3.1)

Preuve. Commençons par remarquer que si A ∈ Mn(Z) alors pour toute

co-lonne (ou vecteur) x à coefficients entiers Ax est encore à coefficients entiers. Ainsi A (Zn) ⊂ Zn et c’est l’inclusion contraire qui pose problème ...

– Supposons que A (Zn) = Zn. Notons que e1, e2, ..., en ∈ Zn = A (Zn),

donc l’image de A (en tant qu’endomorphisme de Rn ou Qn) contient

une base de Rn(ou de Qn) et A est surjectif, donc bijectif. Cela prouve

que A ∈ GLn(R). Par hypothèse, pour tout j = 1, 2, ..., n, il existe

yj ∈ Zn tel que Ayj = ej. Comme A ∈ GLn(Z), on a en fait yj = A−1ej

et on vient donc de montrer que pour tout j, la jèmecolonne de A−1

est à coefficients entiers. Ainsi A−1 ∈ Mn(Z). Donc A et A−1 sont à

coefficients entiers et A ∈ GLn(Z).

– Si A ∈ GLn(Z). A et A−1 sont à coefficients entiers. Alors pour tout

vecteur y ∈ Zn, le vecteur x = A−1y est à coefficients entiers et Ax = y.

Cela prouve que contient A (Zn) contient Zn et comme on a dit que

A (Zn) ⊂ Zn est triviale, on a A (Zn) = Zn. Ce qui preuve (3.1). Ce

que l’on peut aussi écrire

A ∈ GLn(Z) ⇔ (x ∈ Zn ⇔ Ax ∈ Zn) ,

car si A ∈ GLn(Z) on a banalement x ∈ Zn ⇒ Ax ∈ Zn et on a aussi

Ax ∈ Zn ⇒ x = A−1

(Ax) ∈ Zn.

(33)

1. A ∈ GLn(Z).

2. Les points entiers du parallélépipède

p= ( n X i=1 tixi; ∀ i ∈ {1, 2, ..., n} , ti ∈ [0, 1] )

sont exactement les 2n points Pn

i=1

εixi, où εi ∈ {0, 1} pour tout i ∈

{1, 2, ..., n}.

Preuve. 1 ⇒ 2) On suppose donc que l’on a A ∈ GLn(Z). Pour t =

(t1, t2, ..., tn), on a n X j=1 tjxj = n X j=1 tjAej = A n X j=1 tjej = At.

Donc, par le résultat (3.1), t ∈ Zn ⇔ A (t) = Pn

j=1 tjxj ∈ Zn. Si pour tout j ∈ {1, 2, ..., n} on a tj ∈ [0, 1] alors n P j=1 tjxj ∈ Zn si et seulement si chaque tj

est entier donc vaut 0 ou 1, ce qui fait donc 2n listes possibles et 2n points, car la famille (x1, x2, ..., xn) est une base de Rn (image de la base canonique

par M inversible) et donc des listes de coordonnées différentes donnent des points différents.

2 ⇒ 1) En prenant tous les ti nuls sauf l’un qui vaut 1, l’hypothèse

entraîne que les vecteurs x1, x2, ..., xn sont tous des points entiers et A ∈

Mn(Z). Réciproquement, soit j ∈ {1, 2, ..., n} et z = A−1ej ∈ Rn. On a donc

Az = ej. On peut écrire :

z = (z1, z2, ..., zn) = (bz1c , bz2c , ..., bznc) + ({z1} , {z2} , ..., {zn})

et chaque {zi} appartient à [0, 1]. En notant bzc = (bz1c , bz2c , ..., bznc) et

{z} = ({z1} , {z2} , ..., {zn}), on a donc :

(34)

Comme bzc est à coefficients entiers, il en est de même de A bzc et donc A {z} =

n

P

j=1

{zj} xj est à coefficients entiers, les {zj} valent tous 0, ce qui

prouve z est à coefficients entiers. On vient donc de montrer que les colonnes

de A−1 sont à coefficients entiers et A−1 ∈ Mn(Z). Ainsi A et A−1sont à

coefficients entiers et A ∈ GLn(Z).

3.2

Forme normale de Smith

Commençons par la notion d’une matrice échelonnée suivant les lignes, voir [2].

Définition 3.2.1 Soit A ∈ Mm,n(Z) une matrice à m lignes et n colonnes

à coefficients ai,j. Pour i allant de 1 à m, posons p(i) le plus petit indice j

tel que ai,j 6= 0 (avec la convention p(i) = ∞ si la i-ème ligne est nulle).

Alors la matrice A est dite échelonnée suivant les lignes quand on a, pour tout i = 2, ..., m, p(i) = ∞ ou p(i − 1) < p(i). Autrement dit, le premier coefficient non nul d’une ligne est toujours strictement à droite du premier coefficient non nul de la ligne précédente.

Le résultat de base pour l’échelonnement est le suivant :

Proposition 3.2.1 Soit (a, b) un vecteur de Z2, d = gcd (a, b). Alors on peut

calculer une matrice A ∈ GL2(Z) telle que

A a b  = d 0  .

Preuve. On suppose a et b non tous les deux nuls (car sinon il suffit de

(35)

peut calculer des entiers relatifs u et v tels que au + bv = d. Soient a0 et b0

les entiers relatifs définis par a = da0 et b = db0. On prend alors

A =  u v −b0 a0  . Dans ce cas, on a A a b  =  u v −b0 a0   a b  = d 0  .

Notons que que A ∈ GL2(Z) ; sinon a0u = −b0v et par suite, da0u + db0v = 0,

i.e., au + bv = 0. Une contradiction.

On peut appliquer la proposition 2 à des vecteurs de longueur n > 2, quand on veut en modifier deux des composantes d’indices i et j. On « gonfle » alors les matrices 2 × 2 en remplaçant par leurs coefficients les coefficients d’indices (i, i), (i, j), (j, i) et (j, j) de la matrice identité In. En utilisant

plusieurs fois la proposition ainsi étendue, on obtient sans peine le résultat suivant :

Corollaire 3.2.1 Soit (a1, a2, ..., an) un vecteur de Zn, d = gcd (a1, a2, ..., an).

Alors on peut calculer une matrice A ∈ GLn(Z) telle que

A      a1 a2 .. . an      =      d 0 .. . 0      .

Le calcul successif d’identités de Bézout entre deux coefficients n’est sans doute pas le procédé le plus efficace pour trouver la matrice A du corollaire. On peut plutôt répéter l’opération qui consiste à choisir un coefficient du vecteur de valeur absolue non nulle minimale, et à faire la division euclidienne

(36)

des autres coefficients par celui-ci. Remarquez que chaque division euclidienne se fait par multiplication à gauche par une matrice élémentaire à coefficients entiers. A la fin, on peut multiplier à gauche par une matrice de transposition pour amener le pgcd obtenu en première position.

Nous considérons l’effet de l’application d’opérations élémentaires sur les lignes (eros) sur Z et colonne élémentaire opérations (ecos) sur Z à la matrice A, c’est-à-dire des opérations des types suivants :

(i) échange de deux lignes ou deux colonnes (ii) changer le signe d’une ligne ou d’une colonne

(iii) ajout d’un multiple entier d’une ligne / colonne à une ligne / colonne différente.

Soit A une matrice de type m × n sur Z. Notre but dans cette section est de montrer que A peut être réduite à une seule matrice D sous la forme normale de Smith.

Proposition 3.2.2 Soit A une matrice diagonale de type 2 × 2 sur Z à coefficients non nuls. Alors A peut être changé en forme normale de Smith D en utilisant au plus cinq opérations élémentaires de type (iii).

Preuve. Supposons que A = diag {l, m}. Dans le cas l|m, il n’y a rien à faire car A = D. Sinon on pose d = gcd{l, m}. Alors d > 0 et il y a des entiers a, b avec al + bm = d. La suite suivante d’opérations élémentaires de type (iii)

(37)

change A en D : A =  l 0 0 m  c2+ac1 ≡  l al 0 m  r1+br2 ≡  l d 0 m  c1−(d1−1)c2 ≡  d d −lm /d + m m  c2−c1 ≡  d 0 −lm /d + m lm /d  r2+(md)(dll−1)r1 ≡  d 0 0 lm /d  = D.

En appliquant la Proposition 3.2.2 posons l = 21, m = 35. Alors 2 × 21 + (−1) × 35 = 7 = d et par suite a = 2, b = −1. C’est-à-dire gcd{21, 35} = 7 et lcm{21, 35} = (21 × 35)/7 = 105. Ainsi A =  21 0 0 35  c2+2c1 ≡ 21 42 0 35  r1−r2 ≡ 21 7 0 35  c1−2c2 ≡  7 7 −70 35  c2−c1 ≡  7 0 −70 105  r2+10r1 ≡ 7 0 0 105  = D. Nous sommes maintenant prêts pour le théorème principal de la Section 3.

Théorème 3.2.1 (L’existence de la forme normale de Smith sur Z) Toute matrice A de type m × n sur Z peut être réduite à une matrice D de type m × n sous la forme normale de Smith en utilisant des opérations élé-mentaires sur Z.

Corollaire 3.2.2 Soit A une matrice de type m × n sur Z. Il existe des

matrices inversibles P et Q sur Z telles que P AQ−1 = D, où D est sous la

(38)

Exemple 3.2.1 Soit A = 4 6 8 10



. Nous nous concentrons d’abord sur la ligne une en appliquant les opérations élémentaires suivantes sur A :

A =  4 6 8 10  c2−c1 ≡ 4 2 8 2  c1−2c2 ≡ 0 2 4 2  c1↔c2 ≡  2 0 2 4  r2−r1 ≡ 2 0 0 4  = D. Ainsi, A ≡ D.

Définition 3.2.2 Une matrice (0 | D) ou 

0 D



est dans une forme

nor-male de Smith (FNS) si D est diagonale, de diagonale d1, ..., dn formée

d’en-tiers positifs telle que dn | . . . | d1 (en terme d’idéaux, telle que (d1) ⊂ (d2) ⊂

...).

Théorème 3.2.2 Si A est une matrice n × n à coefficients dans Z non singulière, il existe des matrices U et V unimodulaires (à coefficients dans Z de déterminant 1) tels que U AV soit une matrice diagonale à coefficients dans Z, de diagonale d1, ..., dn tels que dn| . . . | d1.

Théorème 3.2.3 Soit A une matrice entière n × m. Il existe des matrices U et V unimodulaires et une unique matrice S de Smith telles que

U AV = S =  0 0

0 D 

,

avec U carrée d’ordre n, V carrée d’ordre m, D diagonale de diagonale (d1, ..., dr) avec dr | . . . | d1, di > 0.

3.2.1

Comment calculer la forme de Smith

Regardons simplement le cas des matrices 2 × 2, qui montre bien les difficultés. Notons que l’opération de réinterpréter les multiplications par des

(39)

matrices comme des opérations sur les lignes ou les colonnes pour comprendre ce qu’on fait. On considère la matrice  a b c d  .

Soit d1 le pgcd de b et d. Si d1 = d, c’est-à-dire si d divise b, on multiplie à

gauche par la matrice 1 −

b d 0 1 ! : 1 −b d 0 1 !  a b c d  = a1 0 c d  .

Si d1 est différent de d (on a donc d1 ≤ d), en utilisant bu + dv = d1, s =

−b d1 , t = d d1 on obtient  t s u v   a b c d  = a1 0 c1 d1  .

(on remplace donc la colonne  b d  par  0 d1  =  0 p gcd (b, d)  . Si d1

divise c1, on multiplie à droite par

1 0

−c1

d1

1 !

pour obtenir une matrice

diagonale  ∗ 0 0 d1  . Sinon, soit d2 le pgcd de d1 et c1 :  a1 0 c1 d1   t0 u0 s0 v0  = ∗ ∗ 0 d2 

On a peut-être perdu le zéro sur la première ligne ... Mais on a quand même

gagné un peu car d2 divise strictement d. En recommençant ces opérations

autant de fois qu’il le faut, on obtient au bout d’un certain temps une matrice diagonale :

 a 0 0 b

(40)

On veut maintenant obtenir la matrice  c 0 0 d  avec d le pgcd de a et b et d | c (le déterminant de ces matrices est inchangée au signe près, on a alors

nécessairement c = ±ab

d ). Pour cela, soient u et v tels que au + bv = d, on a

b d −au d 1 v !  1 u 0 1     bv d u −a d 1   = ab d 0 0 d !

Ces matrices sont composées d’opérations élémentaires comme le montrent les produits suivants :

   bv d u −a d 1   =    bv d u −a d 1    1 0 −a d 1 ! et b d −au d 1 v ! = 1 b d 0 1 !  0 −1 1 0   1 v 0 1  .

En pratique, on commence par amener par des permutations de lignes ou de colonnes l’élément de plus petite valeur absolue en bas à droite et on refait cette opération avant de recommencer.

Remarque 3.2.1 La discussion ci-dessus montre que chaque élément de

SLn(Z) peut être écrit comme un produit de matrices élémentaires. Par

exemple, pour A = 13 9

36 25 

, on voit que det A = 1. De plus, on a

A = 1 0 3 1   1 0 0 −1   0 1 1 0   1 0 4 1   1 2 0 1   1 0 1 1  . Notons que A ≡ B si et seulement si A peut être obtenu à partir de B par des opérations élémentaires.

(41)

3.2.2

Les unités

En raison de la non-commutativité de la multiplication et de l’existence de matrices singulières, les unités pour la multiplication sont unilatérales et dépendent du rang. Une matrice idempotente (les matrices idempotentes sont égales à leurs carrés) G de même rang qu’une matrice donnée A et qui satisfait la condition AG = A est appelée une unité à droite pour A. Si les coefficients de G appartiennent à Q, nous dirons que G est une unité fractionnaire à droite, mais si ces coefficients appartiennent à Z, nous l’appellerons une unité entière à droite, souvent écourté en unité à droite. Comme exemple, nous constatons que   1 0 8 0 1 −13 0 0 0  

est une unité à droite de la matrice 2 1 3

5 3 1 

. De façon similaire, si G∗2 =

G∗, si rg(G∗) = rg(A) et si G∗A = A, nous dirons que G∗ est une unité à

gauche pour A. Elle est fractionnaire ou entière selon que ses coefficients appartiennent à Q ou à Z. En ce qui concerne les matrices non-singulières, leurs seules unités sont l’identité usuelle, c’est-à-dire

Er =    1 . .. 1   ,

où r est le nombre de lignes (ou de colonnes).

3.2.3

Décomposition en produit

Nous considérons une décomposition A = M N comme licite si le nombre de colonnes de M égale le nombre de lignes de N et si il existe une unité

(42)

(entière) à droite pour M qui soit aussi une unité à gauche pour N . Nous dirons alors que M et N admettent une unité simultanée (attention cette notion n’est pas symétrique !). Cette condition, qui n’apparaît pas sur des anneaux intègres, est nécessaire ici pour tenir compte des diviseurs de 0. A partir des idées présentées dans ce mémoire, il est possible de montrer que, si une unité simultanée existe, alors elle est unique. Deux matrices de même rang ayant une unité fractionnaire simultanée peuvent ne pas avoir d’unité simultanée et la factorisation résultante n’est pas considérée comme étant licite. Par exemple,

A = 6 0 0 0  = 2 0 0 0   3 0 1 0  = M N .

Mais, il n’y a aucune unités entières simultanées entre M et N (Il est facile de voir que les unités à droite de M sont de la forme

 1 0 x 0



; si cette matrice doit aussi être une unité à gauche pour N , alors il faut prendre x = 1/3). Laffey a montré [8] que toute matrice singulière s’écrit comme pro-duit d’idempotents sur un anneau euclidien, ce qui montre clairement qu’une condition est nécessaire pour que le produit M N soit arithmétiquement inté-ressant. Remarquons finalement que dans le cas de matrices non-singulières, la condition d’existence d’une unité simultanée est automatiquement satis-faite.

3.2.4

Inverses de Siegel et matrices primitives

Nous nous tournons maintenant vers une notion assez courante en ma-thématiques, qui est celle d’inverse généralisé. L’inverse généralisé de Moore-Penrose par exemple est bien expliqué dans [12]. Nous considérons un inverse

(43)

bien adapté à notre situation : l’inverse de Siegel. Cet inverse dépend d’un choix d’unités à droite et à gauche.

Plus précisément, supposons que les deux matrices entières A et X aient

une unité simultanée G et que X et A aient une unité simultanée G∗.

Suppo-sons en outre que XA = G et que AX = G∗. Alors nous appelons X l’inverse

de Siegel de A (relativement aux unités G et G∗). Remarquons que la liste

suivante d’égalités est satisfaite : G2 = G, G∗2

= G∗, AG = A, G∗A = A,

XG∗ = X, GX = X, AX = G∗ et XA = G. Si A admet un inverse de Siegel,

A est dite primitive. Bien que X dépende de G et de G∗, son existence et le

fait qu’elle soit entière sont eux indépendants des unités choisis. En ce qui concerne les matrices nonsingulières, l’inverse de Siegel est l’inverse usuel et les matrices primitives sont les matrices unimodulaires. Voici deux exemples : la matrice

A = 2 2 1

2 1 1 

est primitive ; en prenant G∗ = E2 et

G =   0 0 0 0 1 0 2 0 1  

qui sont des unités respectivement à gauche et à droite de A, la matrice

X =   0 0 1 −1 −1 2  

est son inverse de Siegel. Par contre la matrice B =   2 0 0 2 0 0   n’est pas

primitive car, étant données des unités G = E2 et G∗ =

  1 0 0 0 1 0 0 0 0  , il n’y

(44)

a aucun inverse entier bien qu’un inverse fractionnaire X =

 1

2 0 0

0 13 0



existe. Nous pouvons établir que les matrices primitives ont un discrimi-nant égal à 1 et que les matrices primitives de rang maximal sont préci-sément celles qui peuvent être complétées en des matrices unimodulaires,

i.e., P ∈ Mm,n(Z) de rang maximal est primitive si il existe une matrice

M ∈ Mm,m−n(Z) (ou dans Mn−m,n(Z) selon que m ≥ n ou que m < n)

telle que la matrice 

P M



(ou P M ) soit dans GLm(Z) (resp. dans

GLn(Z)). Dans les exemples précédents, nous remarquons que

 A M

 avec

M = 1 0 0  est unimodulaire, mais il n’y a aucune matrice M entière

telle que B M  soit dans GL3(Z).

3.3

Système d’équations linéaires Diophantiennes

Une équation Diophantienne, en mathématiques, est une équation polyno-miale à une ou plusieurs inconnues dont les solutions sont cherchées parmi les nombres entiers. Nous traitons ici avec des système d’équations polynomiales dont on cherche les solutions en nombres entiers. Bien sûr, les polynômes sont à coefficients entiers. On peut soit vouloir seulement connaître l’existence de solutions, soit demander une description complète de l’ensemble des solu-tions. Nous présentons ici une première application de la forme normale de Smith des matrices ; c’est la résolution de systèmes d’équations linéaires Dio-phantiennes.

Étant donné un système d’équations linéaires Ax = b, où A = (ai,j) est

une matrice de type m × n à coefficients entiers, et b est un vecteur colonne de type m × 1 avec des composants entiers, le système a-t-il une solution

(45)

entière, c’est-à-dire un vecteur solution x de type n × 1 avec des composants entiers ? Comment savoir si un système d’équations Diophantiennes linéaires a un Solution ? Si des solutions existent, comment peut-on en trouver une ou toutes ? (*)

Notons que pour résoudre un système linéaire AX = b, où A ∈ Mm,n(Z),

B ∈ Mm,1(Z) et X ∈ Mn,1(Z) on peut commencer par trouver P ∈

GLm(Z), Q ∈ GLn(Z) et D ∈ Mm,n(Z) diagonale (avec diagonale croissante

pour la relation de divisibilité) telles que LAR = D. Il y a un algorithme pour

cela. Donc, AX = B équivaut à LAX = LB, LARR−1X = LB, i.e.,

l’équa-tion s’écrit DX0 = B0 où X0 = R−1X (changement d’inconnue). Comme D

est diagonale, c’est trivial à résoudre.

Théorème 3.3.1 (Théorème de Van Der Waerden) Une solution entière du système existe si et seulement si, pour chaque vecteur ligne v avec des com-posants rationnels tels que vA a des comcom-posants entiers, vb est un entier.

Soit Z l’anneau des nombres entiers, Mm,m−n(Z), 1 ≤ m ≤ n, l’anneau

de toutes les matrices entières de type m × n, GLk(Z) l’ensemble de toutes

les matrices carrées de type k ×k à coefficients entiers et déterminant 1 ou −1 (matrices nimodulaires). On note par D = diag (d1, d2, ..., dm) ∈ Mm,m−n(Z)

la matrice diagonale qui a un entier di dans la position (i, i), i = 1, ..., m et

zéros ailleurs. Ensuite on a :

Théorème 3.3.2 Soit A ∈ Mm,m−n(Z). Ils existent L ∈ GLm(Z) et R ∈

GLn(Z) telles que

(46)

où di > 0, i = 1, ..., s, et di | di+1, i = 1, ..., s − 1.

De plus, si A est une matrice à coefficients dans cet anneau, il existe d1, d2, ..., ds éléments non nuls tels que di divise di+1 et A est similaire à

D =      d1 0 · · · 0 0 . .. 0 0 .. . · · · dr ... 0 · · · 0 0      .

Une preuve peut être trouvée, par exemple, dans [11].

L’idée est d’utiliser des opérations élémentaires de lignes et les colonnes de A. Les matrices L et R correspondent aux compositions de ces opérations. Bien que les matrices L et R dans le théorème 1 peuvent varier, la matrice D est définie uniquement par A et elle est appelée ”forme normale de Smith” de la matrice A.

Notons tout de suite que le Théorème 1 peut être utilisé pour répondre à la question (*). Étant donné Ax = b, réécrivez-le comme Dy = c avec Ry = x, LAR = D et c = Lb. Mais la solution au système diagonal Dy = c est facile. Plus de détails et une application numérique sont donnés dans l’Exemple 3.3.2.

Notre première application est liée à la question (*). Il contient également une preuve du théorème de Van Der Waerden. Soit Q le corps des nombres rationnels.

Théorème 3.3.3 . Soit A, L, R, D comme dans le Théorème 3.3.2, b ∈ Zn

et c = Lb. Les quatre propositions suivantes sont équivalentes : 1. Le système d’équations linéaires Ax = b a une solution entière,

(47)

2. Le système d’équations linéaires Dy = c a une solution entière,

3. Pour tout vecteur rationnel u tel que uA est un vecteur entier, le nombre ub est un entier,

4. Pour tout vecteur rationnel v tel que vD est un vecteur entier, le nombre vc est un entier.

Preuve. (1) ⇔ (2). En effet on a, Ax = b ⇔ (L−1DR−1)x = b ⇔ D(R−1x) =

c ⇔ Dy = c, où y = R−1x. Comme R ∈ GLm(Z), alors R−1 ∈ GLm(Z). Par

suite x ∈ Zn ⇔ y = R−1 x ∈ Zn. (3) ⇔ (4). En effet, vD ∈ Zn⇔ v(LAR) ∈ Zn ⇔ (vL)AR ∈ Zn⇔ (vL)A ∈ ZnR−1 = Zn ⇔ uA ∈ Zn, où u = vL. Comme L ∈ GL n(Z), alors u ∈ Qm ⇔ v ∈ Qm , et par (3), ub ∈ Z. Mais ub ∈ Z ⇔ (vL)(L−1c) ∈ Z ⇔ vc ∈ Z.

Donc (3) implique (4). En inversant l’ordre de l’argument, on obtient uA ∈

Zn ⇔ vD ∈ Zn et vc ∈ Z ⇔ ub ∈ Z. Donc (4) implique (3).

(2) ⇔ (4). Dy = c implique v(Dy) = vc pour tout v ∈ Qm, par

conséquent (vD)y = vc. Si vD ∈ Zn, alors vc ∈ Z. Ainsi (2) implique

(4). Afin de prouver que (4) implique (2), nous observons d’abord que c = (c1, ..., cs, 0, ..., 0). Pour supposer cj 6= 0, j > s. Posons v = (0, ..., 0,

1 2cj

, 0, ..., 0),

où 1

2cj apparaît en j-ième position. Puisque vD = 0 ∈ Z

n, alors d’après (4)

vc = 1

2 ∈ Z, et nous arrivons à une contradiction. Ainsi cj = 0 pour j > s. En-suite, pour i = 1, ..., s, nous considérons des vecteurs vi = (0, ..., 0,

1 di

, 0, ..., 0).

Comme viD ∈ Zn, alors d’après (4), vic ∈ Z et donc

ci di ∈ Z. Soit y = (y1, ..., ys, 0..., 0), où yi = ci di, i = 1, ..., s. Alors y ∈ Z n, et Dy = c.

Avec des notations comme dans la proposition 3.3.3, on peut réduire la solution du système Ax = b à une solution de Dy = c en effectuant des

(48)

transformations élémentaires (sur Z) de lignes et de colonnes d’une matrice A augmenté de vecteur b. Les matrices L et R peuvent être construites en multipliant les matrices correspondant à ces transformations. Le système

Dy = c a une solution si et seulement si cs+1 = ... = cm = 0, et di|ci

pour i = 1, ..., s. Une solution générale de Dy = c peut être donné sous la forme y = (y1, ..., ys, t1..., tm−s), où yi =

ci

di

, i = 1, ..., s, et t1..., tm−s sont des

paramètres entiers libres. Puis la solution générale de Ax = b est juste Ry. De toute évidence, nous pouvons supposer que chaque équation est réduite du plus grand diviseur commun des coefficients des variables.

Exemple 3.3.1 Calculer l’ensemble des solutions entières du système dio-phantien AX = B avec A et B des matrices à coefficients dans Z. Ici, X est un vecteur colonne.

Il s’agit de calculer l’ensemble des solutions entières d’un système AX = B. Si B est nul, c’est aussi le noyau de l’application linéaire de Z-modules donnée par A dans la base canonique.

Utilisons la forme normale de Smith. Soit U AV = S la forme normale de Smith. Résoudre en entiers AX = B est équivalent à résoudre SY = C en entiers avec C = U B, le lien étant donné par X = V Y . Le système SY = C est de la forme :    d1yn−t+1 = cn−t+1 ... = ... dtyn = cn

Lorsqu’une solution existe, ce qui se vérifie facilement sur C, il est maintenant facile de finir la résolution.

(49)

Exemple 3.3.2 Résoudre le système d’équations diophantiennes Ax = b, où A =  2 1 4 −5 2 6  , x =   x1 x2 x3   et b =  17 −13  .

Solution. Considérons une suite de transformations élémentaires de lignes et de colonnes de A. Il est bien connu qu’elles peuvent être réalisées en mul-tipliant A par des matrices unimodulaires. Représentons la transformation des lignes par matrices Li de type 2 × 2 et celles des colonnes par matrices Rj

de type 3 × 3, où les indices inférieurs reflètent l’ordre des multiplications. Nous considérons les transformations (matrices) suivantes :

R1 =   0 1 0 1 0 0 0 0 1  , R2 =   1 −2 0 0 1 0 0 0 1  , R3 =   1 0 −4 0 1 0 0 0 1   L4 =  1 0 −2 1  , R5 =   1 0 0 0 1 0 0 −5 1  , R6 =   1 0 0 0 1 2 0 0 1  . Soit L = L4 et R = R1R2R3R5R6. Alors D = LAR =  1 0 −2 1   2 1 4 −5 2 6    0 1 2 1 18 32 0 −5 −9  =  1 0 0 0 1 0  , et c = Lb =  17 −47 

. Résoudre Dy = c. En posant x = Ry, on trouve

x =   0 1 2 1 18 32 0 −5 −9     17 −47 t1  =   2t1− 47 32t1− 829 235 − 9t1  , t1 ∈ Z.

(50)

Quelques types de factorisation

Nous présentons une section importante dans la théorie de l’analyse ma-tricielle traite de la factorisation des matrices entières comme le produit de matrices élémentaires. Dans certaines applications, on a besoin d’une

ma-trice P telle que A−1 = P Pt, la décomposition spectrale, la factorisation de

Cholesky d’une matrice définie positive symétrique est une représentation al-ternative très utile dans l’analyse de régression. Toute matrice définie positive symétrique A peut-être écrite comme le produit d’une matrice triangulaire inférieure L et sa transposée (qui est une matrice triangulaire supérieure)

Lt = U . Ainsi, A = LU . En général, ces méthodes de factorisation LU ou

QR ne sont pas utilisés de la même manière avec l’anneau Z ; car les éléments de L, U doivent être dans Z. En général, i.e., le cas n × n, il est très difficile

de factoriser une matrice A ∈ Mn(Z) sous la forme LU ou QR, où L, U ou

Q, R sont unimodulaires dans Mn(Z). Cependant, pour toute matrice

car-rée symétrique inversible à coefficients complexes A, on peut démontrer qu’il

existe une matrice P tell que A = P Pt. Mais, cette dernière propriété tient

(51)

de la factorisation des entiers dans le produit de puissances premières dis-tinctes ; dans cette section, nous visons à voir des résultats similaires sur la factorisation des matrices à coefficients entiers comme le produit des matrices idempotents, nilpotents, unimodulaires,... Etc.

D’abord ; on parle de la factorisation d’une matrice A ∈ Mn(Z) comme

le produit de deux matrices W1, W2 ∈ Mn(Z), qui ont des éléments

suffisam-ment grands. Voici quelques exemples :

4.1

Exemples sur le produit de deux matrices

ayant des éléments suffisamment grands

Exemple 4.1.1 On Considère la matrice suivante A =  3 1 −2 0  .

Alors Aω peut s’écrire sous la forme S + W

1W2, où W1, W2 ∈ M2(Z) sont en

fonction de ω et S ∈ M2(Z∗) indépendant de ω.

En effet, d’aprés un calcul simple, on obtient

Aω =  2 ω+1− 1 2ω− 1 2 − 2ω+1 2 − 2ω  = −1 −1 2 2  + 2ω  2 1 −2 −1  =  −1 −1 2 2  + 2ω  2 0 −2 0   1 1 2 0 1  =           −1 −1 2 2  +  2ω2+1 0 −2ω2+1 0   2ω 2 2 ω 2−1 0 2ω2  , si ω est pair  −1 −1 2 2  + 2 ω−1 2 +2 0 −2ω−12 +2 0 ! 2ω−12 2 ω−1 2 −1 0 2ω−12 ! , si ω est impair.

(52)

pair, on voit que Aω = I + Aω2 − I A ω 2 + I =  1 0 0 1  + 2 ω 2+1− 2 2 ω 2 − 1 2 − 2ω2+1 1 − 2 ω 2   2ω2+1 2 ω 2 − 1 2 − 2ω2+1 3 − 2 ω 2  . Dans le cas où ω est impair, on voit aussi que

Aω = A + AAω−12 − I   Aω−12 + I  =  3 1 −2 0  + 2 ω−1 2 +1− 2 2 ω−1 2 − 1 2 − 2ω−12 +1 1 − 2 ω−1 2 ! 2ω−12 +1 2 ω−1 2 − 1 2 − 2ω−12 +1 3 − 2 ω−1 2 ! .

Proposition 4.1.1 Soit A une matrice de la forme

A =      d aij d . .. aji d      ,

où d est suffisamment petits et au moins un des aij est suffisamment grand,

et soit k ≥ 2. Alors Ak est de la forme dkI + W

1W2, où W1, W2 ∈ Mn(Z)

ont des éléments suffisamment grands.1

Preuve. Il est clair que

A =      d 0 d . .. 0 d      D +      0 aij 0 . .. aji 0      B ,

1. Notons que si k est impair avec k ≥ 3, alors Ak peut être écrit simultanément sous la forme I + W1W2 et −I + W1W2pour toute matrice A de type n × n, où I est la matrice

d’identité et W1, W2 sont deux matrices qui ont des éléments suffisamment grands. En

(53)

où D est une matrice diagonale et B a au moins un élément suffisamment grand. Puisque D = dI et B commutent, en appliquant le théorème binomial, on a Ak= k X i=0 CkiDiBk−i= dkI + B k−1 X i=0 CkiDiBk−i−1 ! , (4.1)

où le côté droit entre parenthèses (4.1) est suffisamment grand puisque k ≥ 2. Ce qui achève la démonstration.

Corollaire 4.1.1 Soit ω un entier positif suffisamment grand et soit A une matrice carrée à coefficients entiers de la forme

An =        1 −ω 1 −ω . .. ... 1 −ω 1        .

Alors pour tout k ∈ Z∗, A−kn est de la forme S + W1W2, où S ∈ Mn(Z) et

W1, W2 ∈ Mn(Z) sont en fonction de ω.

Preuve. Notons que pour tout entier k ≥ 1, A−kn ∈ M∗

n(Z) car det (An) = 1.

En effet, d’après un calcul simple, on obtient

A−1n =        1 ω ω2 · · · ωn−1 1 ω · · · ωn−2 . .. ... ... 1 ω 1        .

Comme les éléments diagonaux de A−1n sont égaux à 1, alors le résultat suit

(54)

on voit que A−1n =        1 1 . .. 1 1        I +        0 ω ω2 · · · ωn−1 0 ω · · · ωn−2 . .. ... ... 0 ω 0        = I +        0 ω 0 · · · 0 0 0 ω · · · . .. ... ... 0 0 0 ω 0 0 0 0               0 0 0 · · · 0 1 ω · · · ωn−2 . .. ... ... 0 0 1 ω 0 0 1        .

Ce qui achève la démonstration.

Corollaire 4.1.2 Soit N = Akune matrice de type n×n contient des entiers

positifs suffisamment grands avec k ≥ 2. Alors N est de la forme S + W1W2,

où S ∈ Mn(Z) et W1, W2 ∈ Mn(Z) ont des éléments suffisamment grands.

Preuve. En effet, il y a deux cas :

1. Supposons que A contient des entiers positifs suffisamment grands. On voit que

N = I + Ak− Ik

= I + (A − I) Ak−1+ Ak−2+ ... + A + I ,

qui est de la forme I + W1W2, où W1 = A − I, W2 = Ak−1 + Ak−2+

... + A + I ont des éléments suffisamment grands.

2. Supposons que A a des éléments suffisamment petits, i.e., k est suffi-samment grand. Dans ce cas, si k est pair on a

(55)

Ak= I +Ak2 − I

 

Ak2 + I



, (4.2)

et si k est impair on a aussi

Ak= A + AAk−12 − I   Ak−12 + I  , comme demandé.

Remarque 4.1.2 Soit A ∈ M2(Z) une matrice contient des entiers positifs

suffisamment grands avec tr (A) = 1 et det (A) est suffisamment petit. Alors

A est de la forme S + W1W2, où S ∈ Mn(Z) et W1, W2 ∈ Mn(Z) ont

des éléments suffisamment grands. En effet, d’après le théorème de Cayley-Hamilton nous avons

A2+ A + det (A) I = 0,

et d’après le corollaire 4.1.2, A2 = S + W1W2 où S, W1, W2 ∈ M2(Z) avec S

a des éléments suffisamment petits et W1, W2 ont des éléments suffisamment

grands. Ainsi, on obtient

A = − (S + det (A) I) − W1W2.

Enfin, nous présentons quelques bons résultats sur la factorisation ci-dessus qui se trouvent dans de nouveaux articles publiés. Notons que leur preuve est peu de difficultés et nécessite trop de bagages.

4.2

Quelques résultats typiques sur un corps F

1. (Gustafson, Halmos, Radja vi [7]) Si A ∈ Mn(F) avec det A = ±1

alors A = J1J2J3J4, où chaque Ji est une involution dans Mn(F),

(c’est-à-dire J2

(56)

2. (Ballantine [7]) Si A ∈ Mn(F) et det A = 0, alors A est le produit de

n matrices idempotents.

3. Si A ∈ GLn(F) alors A est similaire à LU où L est triangulaire

infé-rieure et U est triangulaire supéinfé-rieure. 4. Quelques résultats sur l’anneau Z :

Théorème 4.2.1 Soit D = diag (d1, d2, ..., dn−1, 0) ∈ Mn(Z) une matrice

diagonale singulière. Alors D est le produit de n matrices idempotents dans

Mn(Z).

Dans M2(Z), notons que

 d 0 0 0  = 1 1 0 0   1 0 d − 1 0  .

Théorème 4.2.2 Soit A ∈ SLn(Z) avec n ≥ 3. Alors A est le produit de

(I + R1) (I + R2) ... (I + Rk), où k = 5n + 31 et R1, R2, ..., Rk ont la trace 0

et rang au plus un.

Théorème 4.2.3 (Yuan [7]) Si det A = 0 et A n’est pas similaire à 0 1

0 0 

, alors A = N1N2 où N1, N2 sont nilpotentes.

En 1988 [7, p. 32], Vaserstein prouvé que si A ∈ M2(Z) a la trace 0,

alors A = P Q − QP pour certains P, Q ∈ M2(Z) et a demandé si le résultat

peut être étendu à Mn(Z) (n ≥ 3). En 1994 (après six ans), Reams et Laffey

prouvé le théorème suivant :

Théorème 4.2.4 (voir [11]) Si A ∈ Mn(Z) a la trace 0, alors A = P Q −

(57)

Théorème 4.2.5 Soit n ≥ 3. Chaque élément A ∈ Mn(Z) avec det A = 0

peut s’écrire comme produit de 36n + 217 matrices idempotentes et 72n + 434

matrice nilpotentes dans M2(Z).

5. Questions ouvertes, voir [11].

– Supposons que R est un anneau euclidien (par exemple C[x], Q[x]) et

A ∈ Mn(R) a trace 0. Est-ce-que A = P Q − QP pour certains P, Q

∈ Mn(R) ?

– On considère l’équation

f (X) = A, (P)

où A, X ∈ Mn(Z) et f : Z → Z est une fonction arithmétique (X c’est

la matrice inconnue). Si A est unimodulaire, est-ce-que l’équation (P)

(58)

[1] C. S. Ballantine, Products of idempotent matrices. Linear Algebra Appl. 19,(1978), 81–86.

[2] G. Bhowmik, Fonctions diviseurs de matrices, l’Université des

Sciences et Technologies de Lille, (1998) http

://math.univ-lille1.fr/~bhowmik/files/Memoire.pdf.

[3] D. Carter and G. Keller, Elementary expressions for unimodular ma-trices. Comm. Algebra, 12,(1984),379–389.

[4] H. Cohen, A course in computational algebraic number theory. Graduate Texts in Mathematics, 138,Springer-V erlag, Berlin, 1993.

[5] Problem Department, Pi Mu Epsilon Journal, 12 No. 8 (2008) 494-496. [6] T.J. Laffey, Products of idempotent matrices, Lin. and Multilinear

Al-gebra 14 (1983), pages 309–314.

[7] T.J. Laffey, Lectures on Integer, Matrices.

https ://pdfs.semanticscholar.org/3dfe/57pdf

[8] T. J. Laffey, Factorizations of integer matrices as products of idempo-tents and nilpoidempo-tents. Linear Algebra Appl, 120,(1989),81–94.

[9] S.J. Leon. Linear Algebra with Applications, Sixth Edition. Prentice Hall, Upper Saddle River,N.J, 2002.

(59)

[10] M. Newman, Integral Matrices. Academic Press, 1972.

[11] C. Norman, Finitely Generated Abelian Groups and Similarity of Ma-trices over a Field, Springer-Verlag London Limited, 2012.

[12] R.C. Radhakrishna ; M.S. Kumar, Generalized Inverse of Matrices and its Applications. New York : John Wiley & Sons, 1971.

Références

Documents relatifs

Figure 5 : Gains en SDR et SIR, et SAR pour les 2 méthodes de type EMD proposées par les participants 1 et 2 de [9] et pour nos méthodes basées sur la NMF avec sélection manuelle

Pour la d´etection chez l’homme de fluorophores en profondeur (4 cm), il s’av`ere utile de s’affranchir de tout signal parasite qui pourrait interf´erer avec le signal de

Nous étendons ces travaux de plusieurs manières : utilisation de la transfor- mée à Q-constant, algorithme itératif de reconstruction de la phase pour une trans- formée à

Le couple (M, N ) est donc caractéristique de chaque structures. Les trans- formations eectuées au moyen des matrices M et N doivent être simple. Elles sont donc

• Ecris les expressions suivantes sans

L’objectif de ce problème assez long est de présenter quelques-unes des propriétés des réseaux de C (sous-ensembles de C de la forme Z α + Z β, où (α, β) est une base de C sur R

Les notes sont stockées dans des fichiers CSV (à télécharger dans le répertoire de la classe) selon le format suivant : chaque ligne correspond à un élève ; les nombres sont

en fait les calculs pour les premières valeurs de k sont négligeables par rapport à ceux de la dernière factorisation. Chaque étape a des calculs dominés par le produit de polynômes