• Aucun résultat trouvé

Alg` ebre et analyse ´ el´ ementaires II Alg` ebre lin´ eaire

N/A
N/A
Protected

Academic year: 2022

Partager "Alg` ebre et analyse ´ el´ ementaires II Alg` ebre lin´ eaire"

Copied!
13
0
0

Texte intégral

(1)

Alg` ebre et analyse ´ el´ ementaires II Alg` ebre lin´ eaire

Syst` emes lin´ eaires

Nous allons commencer par indiquer une m´ ethode g´ en´ erale de r´ esolution des syst` emes (d’´ equations) lin´ eaires. Vous avez appris dans le secondaire comment r´ esoudre l’´ equation ax = b o` u x est une variable r´ eelle inconnue et a et b des param` etres r´ eels.

En effet, si a = 0 , on sait qu’il n’y a pas de solution en x si b 6= 0 et que tout valeur r´ eelle est solution si b = 0 . Enfin, si a 6= 0 , il existe une seule solution x = b/a .

Nous allons g´ en´ eraliser ce r´ esultat ` a l’´ equation AX = B o` u nous allons pr´ eciser rapidement ce que repr´ esentent A , X et B . Par ailleurs nous remarquerons que la solution est algorithmique (autrement dit il est facile de la transformer en un programme). C’est pourquoi les syst` emes de calcul peuvent r´ esoudre de tels syst` emes d’´ equation et que les syst` emes de calcul formel peuvent comporter des modules d´ edi´ es

`

a l’alg` ebre lin´ eaire.

1 Syst` emes lin´ eaires. Matrices. D´ efinitions g´ en´ erales. Exemples.

D´ efinition. On appelle syst` eme lin´ eaire (de n ´ equations ` a m inconnues) la donn´ ee d’un tableau (` a n lignes et m colonnes) de n × m coefficients scalaires (not´ e a ij o` u i d´ ecrit {1 . . . n} et j d´ ecrit {1 . . . m}) et d’un second membre de n coefficients scalaires b i (i ∈ {1 . . . n}). R´ esoudre ce syst` eme lin´ eaire c’est trouver m scalaires x j tels que

 

  P m

j=1 a 1j x j = b 1

.. . .. .

P m

j=1 a nj x j = b n ou

 

 

a 11 x 1 + . . . + a 1m x m = b 1

.. . .. . .. .

a n1 x 1 + . . . + a nm x m = b n .

On parle de syst` eme lin´ eaire homog` ene lorsque tous les coefficients b i sont nuls ou encore, lorsque le vecteur b = (b 1 , . . . , b n ) est nul.

Introduisons alors la notion de matrice afin de simplifier l’´ ecriture des syst` emes lin´ eaires.

D´ efinition. On appelle matrice (` a n lignes et m colonnes) la donn´ ee d’un tableau de n × m scalaires :

a 11 . . . a 1m

.. . .. . a n1 . . . a nm

 .

D´ efinition. Soit A une matrice de n lignes et m colonnes. Soit x i la donn´ ee de m scalaires. Nous les noterons en colonne soit X (ayant m lignes). Le produit de la matrice A par la colonne X (` a droite) est une matrice colonne (ayant n lignes) donn´ ee par les formules :

a 11 . . . a 1m

.. . .. . a n1 . . . a nm

 x 1

.. . x m

 =

 P m

j=1 a 1j x j

.. . P m

j=1 a nj x j

 .

Autrement dit on multiplie une matrice par une matrice colonne en multipliant, ligne par ligne, chaque

coefficient par le coefficient respectif de la colonne et en ajoutant tous ces produits.

(2)

Remarque. Avec ces notations, le syst` eme lin´ eaire introduit plus haut s’´ ecrit

AX = B

o` u B (resp. X) est la matrice colonne (ayant n lignes) (resp. m lignes) associ´ ee au vecteur b (resp.

(x 1 , . . . , x m )).

Remarque. On pourra aussi associer au syst` eme AX = B la matrice (A|B) form´ ee en rajoutant la colonne B ` a la matrice A . On constatera plus loin que cette notation est bien adapt´ ee ` a l’application de la m´ ethode de Gauss.

Remarque. Expliquons pourquoi ces syst` emes sont appel´ es lin´ eaires. Si le vecteur b du second membre est multipli´ e par un scalaire λ non nul, il est imm´ ediat de constater que x 1 , . . . , x m sera solution du syst` eme avec second membre b si et seulement si λx 1 , . . . , λx m est solution du syst` eme avec second membre λb .

De mˆ eme si le second membre b s’´ ecrit comme une somme de deux vecteurs b 1 et b 2 , si y 1 , . . . , y m est solution du syst` eme avec second membre b et si z 1 , . . . , z m est solution du syst` eme avec second membre b 0 alors z 1 + y 1 , . . . , z n + y n est solution du syst` eme avec second membre b .

Ajoutons que (0, . . . , 0) est toujours solution du syst` eme homog` ene.

Nous dirons que l’expression des solutions est lin´ eaire en fonction du second membre.

Remarque. Introduisons la notion de combinaison lin´ eaire. Si le second membre est de la forme λb +µb 0 (c’est ` a dire (λb 1 + µb 0 1 , . . . , λb n + µb 0 n )) et si y 1 , . . . , y m est solution du syst` eme avec second membre b et si z 1 , . . . , z m est solution du syst` eme avec second membre b 0 , alors λy 1 + µz 1 , . . . , λy n + µz n est solution du syst` eme avec second membre λb + µb 0 .

Donnons quelques exemples.

Exemple. Consid´ erons le syst` eme

1 1 1 1

x 1 x 2

= b 1

b 2

.

Soit encore

x 1 + x 2 = b 1 x 1 + x 2 = b 2 .

On cherche (par exemple) quand le vecteur (b 1 , b 2 ) est combinaison lin´ eaire des vecteurs (1, 1) et (1, 1) ! La r´ eponse est donc tr` es simple : soit b 1 = b 2 et l’on a une infinit´ e de solutions (b 1 − x 2 , x 2 ) o` u x 2 est quelconque car, alors les deux ´ equations (de premier membre identique) sont compatibles ; soit b 1 6= b 2 et il n’y a pas de solution (les deux ´ equations ´ etant incompatibles).

Exemple. Consid´ erons le syst` eme

1 1 1 −1

x 1

x 2

= b 1

b 2

.

Soit encore

x 1 + x 2 = b 1

x 1 − x 2 = b 2

.

On cherche (par exemple) quand le vecteur (b 1 , b 2 ) de R 2 est combinaison lin´ eaire des vecteurs (1, 1) et

(1, −1) .

(3)

La r´ esolution de ce syst` eme est simple. On peut ainsi remarquer que la variable x 2 s’exprime sim- plement en fonction de x 1 d’apr` es la seconde ´ equation : x 2 = x 1 − b 2 puis reporter dans la premi` ere

´

equation pour arriver au syst` eme ´ equivalent :

x 2 = x 1 − b 2

x 1 + x 1 − b 2 = b 1

d’o` u x 1 = b

1

+b 2

2

et x 2 = b

1

−b 2

2

. Dans ce cas notre syst` eme a exactement une (et une seule) solution.

Nous allons voir que ces deux exemples couvrent toutes les situations possibles pour un syst` eme lin´ eaire : absence de solutions, solution unique, infinit´ e de solutions avec param` etres.

Exprimons la m´ ethode dite du pivot de Gauss dans les deux cas qui pr´ ec` edent. Consid´ erons la variable x 1 . Elle apparaˆıt dans les ´ equations avec les coefficients a i1 . Dans nos deux cas a 11 est non nul. En g´ en´ eral, l’un au moins de ces coefficients est sˆ urement non nul (sinon la variable x 1 n’apparaˆıtrait pas).

Quitte ` a intervertir les ´ equations entre elles, on peut donc supposer que a 11 est non nul. Alors la premi` ere

´

equation permet d’exprimer x 1 en fonction des autres variables et l’on peut reporter cette expression dans les n − 1 autres ´ equations qui ne comporteront plus que m − 1 variables (au plus) x 2 , . . . , x m . La m´ ethode dite ”du pivot de Gauss” consiste alors ` a remarquer que l’on peut r´ eit´ erer l’op´ eration : si dans les m − 1 derni` eres ´ equations, apparaˆıt encore une variable avec un coefficient non nul, on choisit une ligne o` u apparaˆıt cette variable et un tel coefficient pour exprimer cette variable en fonction des autres et on reporte dans les autres ´ equations. Sinon on a termin´ e.

Appliquons cela dans nos deux exemples :

x 1 + x 2 = b 1 x 1 + x 2 = b 2 .

Si l’on exprime x 1 ` a l’aide de la premi` ere ´ equation et que l’on reporte, le syst` eme devient x 1 + x 2 = b 1

b 1 = b 2

.

Pour

x 1 + x 2 = b 1 x 1 − x 2 = b 2

il devient

x 1 + x 2 = b 1

b 1 − 2x 2 = b 2 soit encore

x 1 + x 2 = b 1

−2x 2 = −b 1 + b 2 .

2 R´ esolution de syst` emes lin´ eaires. M´ ethode.

Reprenons le syst` eme

 

  P m

j=1 a 1j x j = b 1

.. . .. . P m

j=1 a nj x j = b n

ou

 

 

a 11 x 1 + . . . + a 1m x m = b 1

.. . .. . .. .

a n1 x 1 + . . . + a nm x m = b n

ou AX = B .

(4)

D´ efinition. M´ ethode (du pivot) de Gauss. On peut transformer un syst` eme lin´ eaire en un syst` eme lin´ eaire ´ equivalent (c’est-` a-dire ayant les mˆ emes solutions) en

— ´ echangeant deux ´ equations (puisqu’il suffit de les ´ echanger ` a nouveau pour retrouver le syst` eme initial) ;

— multipliant une ´ equation par un scalaire non nul (puisqu’il suffit de multiplier cette ´ equation par son inverse pour retrouver le syst` eme initial) ;

— ajouter ` a une ´ equation un multiple quelconque d’un autre ´ equation (puisqu’il suffit alors de lui retrancher ce mˆ eme multiple pour revenir en arri` ere).

Ces op´ erations sont dites ´ el´ ementaires.

Remarque 2.1. L’´ enonc´ e met en ´ evidence que ces trois op´ erations ´ el´ ementaires sont faciles ` a inverser

`

a l’aide d’op´ erations ´ el´ ementaires (´ echanger deux lignes qui viennent d’ˆ etre ´ echang´ ees permet de revenir

`

a l’ordre initial des ´ equations ; multiplier une ´ equation multipli´ ee par un scalaire non nul par l’inverse de ce scalaire non nul permet de retrouver l’´ equation initiale et, enfin, retrancher ` a l’´ equation ` a laquelle vient d’ˆ etre ajout´ e µ-fois une autre ´ equation µ-fois cette derni` ere permet de revenir ` a l’´ equation intiale)

Et c’est exactement cette remarque qui prouve la justesse de la m´ ethode.

Remarque 2.2. En termes d’algorithme, il est ´ egalement tr` es facile de concevoir trois proc´ edures :

— une proc´ edure prenant en entr´ ee un tableau (n lignes et m colonnes), deux entiers (i, k) distincts (et inf´ erieurs ou ´ egaux ` a n) et donnant en sortie le tableau o` u les lignes i et k ont ´ et´ e ´ echang´ ees (les autres lignes restant inchang´ ees) ;

— une proc´ edure prenant en entr´ ee un tableau (n lignes et m colonnes), un entier i (inf´ erieur ou

´ egal ` a n), un scalaire r´ eel non nul λ et donnant en sortie un tableau o` u la ligne i a ´ et´ e multipli´ ee par λ (les autres lignes restant inchang´ ees) ;

— une proc´ edure prenant en entr´ ee un tableau (n lignes et m colonnes), deux entiers (i, k) distincts (et inf´ erieurs ou ´ egaux ` a n), un scalaire µ et donnant en sortie le tableau o` u on a ajout´ e ` a la ligne d’indice k la ligne d’indice i multipli´ ee par µ (les autres lignes restant inchang´ ees).

Th´ eor` eme 1. La m´ ethode (du pivot) de Gauss. Soit AX = B un syst` eme lin´ eaire. Il est ´ equivalent (au sens o` u il admet le mˆ eme ensemble de solutions) ` a un syst` eme (toujours de n ´ equations) dit ´ echelonn´ e c’est ` a dire de la forme

 

 

 

 

 

 

 

 

x j

1

+ P m

j>j

1

u 0 1j x j = b 0 1

.. . .. .

x j

r

+ P m

j>j

r

u 0 nj x j = b 0 r

0 = b 0 r+1

.. . .. .

0 = b 0 n

.

Les entiers j k , k = 1 . . . r v´ erifient 1 ≤ j 1 < j 2 < . . . < j r ≤ m . Enfin les b 0 i sont des combinaisons lin´ eaires des b i .

Pourquoi un syst` eme lin´ eaire ´ echelonn´ e est-il plus simple ? Examinons-le. Les n−r derni` eres ´ equations ne comportent pas de variables. On parle parfois d’´ equations de compatibilit´ e. Soit tous les scalaires b 0 i (i = r + 1, . . . , n) sont nuls et ces ´ equations sont trivialement v´ erifi´ ees. Soit l’une d’entre elles n’est pas possible et ce syst` eme ne peut avoir de solutions. Dans le cas o` u les ´ equations de compatibilit´ e sont satisfaites, reste donc ` a examiner les r premi` eres ´ equations. On remarque que l’´ equation

x j

r

+

m

X

j>j

r

u 0 nj x j = b 0 r

permet d’exprimer x j

r

en fonction d’un scalaire et (´ eventuellement) une combinaison lin´ eaire de variables

initiales (celles dont l’indice n’est pas de la forme j k ). Plus g´ en´ eralement les variables x j

k

s’expriment

(5)

´

egalement ainsi puisque, si les variables x j

k0

apparaissent, on peut leur substituer leur expression en fonction des autres. On a donc bien r´ esolu le syst` eme ´ echelonn´ e, et par voie de cons´ equence, le syst` eme initial.

Exemple. Reprenons les deux exemples.

Le syst` eme

x 1 + x 2 = b 1

x 1 + x 2 = b 2

devient le syst` eme ´ echelonn´ e suivant :

x 1 + x 2 = b 1

b 1 = b 2

.

On retrouve notre r´ esultat : soit b 1 6= b 2 et il n’y a pas de solution. Soit b 1 = b 2 et il y a une infinit´ e de solutions (b 1 − x 2 , x 2 ) .

Le syst` eme

x 1 + x 2 = b 1

x 1 − x 2 = b 2

devient

x 1 + x 2 = b 1

−2x 2 = −b 1 + b 2

.

Soit une unique solution ( b

1

+b 2

2

, b

1

−b 2

2

) .

Montrons le principe de la m´ ethode du pivot de Gauss. Partons du principe que l’on parcourt (par ordre croissant) les colonnes de M . Soit la premi` ere colonne est form´ ee de coefficients dont l’un au moins est non nul (ce qui signifie que la variable x 1 apparaˆıt bien dans le syst` eme), soit on regarde les colonnes jusqu’` a la premi` ere colonne non nulle, disons d’indice j 1 ≥ 1 . Si une telle colonne n’existait pas c’est que la matrice M serait nulle et cette matrice est ´ echelonn´ ee !

Ainsi sur l’exemple

0 0 1 1

0 −1 1 −1

0 1 −1 1

 x 1

x 2

x 3

x 4

=

 b 1

b 2

b 3

on voit que i 1 = 2 puisque la variable x 1 n’apparaˆıt pas dans le syst` eme.

On va alors parcourir la colonne j 1 coefficient par coefficient (ligne par ligne). On sait qu’il y aura un premier coefficient non nul. On le choisit. Dans notre exemple, il apparaˆıt ` a la ligne 2 . Dans tous les cas, s’il n’apparaˆıt pas en premi` ere ligne, par une op´ eration ´ el´ ementaire (´ echange de la premi` ere ´ equation et de la ligne i 1 o` u apparaˆıt ce premier coefficient non nul), On peut donc supposer que a 1j

1

est non nul.

Le syst` eme initial s’´ ecrivait

 

 

 

 

 

 

 

 

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a 1m x m = b 1

.. . .. . .. . .. .

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a i

1

−1,j

1

x m = b i

1

−1

. . . + 0x j

1

−1 + a i

1

,j

1

x j

1

+ . . . + a i

1

,m x m = b i

1

.. . .. . .. . .. .

. . . + 0x j

1

−1 + a n,j

1

x j

1

+ . . . + a nm x m = b n

(6)

et on le remplace par

 

 

 

 

 

 

 

 

 

 

 

 

. . . + 0x j

1

−1 + a i

1

,j

1

x j

1

+ . . . + a i

1

,m x m = b i

1

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a 2m x m = b 2

.. . .. . .. . .. .

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a i

1

−1,m x m = b i

1

−1

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a 1m x m = b 1

. . . + 0x j

1

−1 + a i

1

+1,j

1

x j

1

+ . . . + a i

1

+1,m x m = b i

1

+1

.. . .. . .. . .. .

. . . + 0x j

1

−1 + a n,j

1

x j

1

+ . . . + a nm x m = b n Dans notre exemple, notre syst` eme devient

0 −1 1 −1

0 0 1 1

0 1 −1 1

 x 1

x 2

x 3 x 4

=

 b 2

b 1 b 3

 .

On peut alors, quitte ` a multiplier par a 1

1j1

, supposer que a 1j

1

= 1 (c’est une op´ eration ´ el´ ementaire).

Dans notre exemple :

0 1 −1 1

0 0 1 1

0 1 −1 1

 x 1

x 2 x 3 x 4

=

−b 2

b 1 b 3

 .

Et notre syst` eme g´ en´ eral devient

 

 

 

 

 

 

 

 

 

 

 

 

 

 

. . . + 0x j

1

−1 + x j

1

+ . . . + a i

1

,m x m = a b

i1

i1,j1

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a 2m x m = b 2

.. . .. . .. . .. .

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a i

1

−1,m x m = b i

1

−1

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a 1m x m = b 1

. . . + 0x j

1

−1 + a i

1

+1,j

1

x j

1

+ . . . + a i

1

+1,m x m = b i

1

+1

.. . .. . .. . .. .

. . . + 0x j

1

−1 + a n,j

1

x j

1

+ . . . + a nm x m = b n

.

Alors on remarque que l’on peut retrancher ` a chacune des lignes d’indice I 1 + 1 ` a n la (nouvelle) premi` ere ligne multipli´ ee par a ii,j

1

ce qui annule tous les coefficients de x j

1

. Ceci est encore une suite d’op´ eration ´ el´ ementaires. Dans notre exemple, on retranchera cette premi` ere ligne ` a la troisi` eme. Soit

0 1 −1 1

0 0 1 1

0 0 0 0

 x 1

x 2

x 3

x 4

=

−b 2

b 1

b 3 + b 2

 .

(7)

Dans le cas g´ en´ eral, notre syst` eme devient

 

 

 

 

 

 

 

 

 

 

 

 

 

 

. . . + 0x j

1

−1 + x j

1

+ . . . + a i

1

,m x m = a b

i1

i1,j1

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a 2m x m = b 2

.. . .. . .. . .. .

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a i

1

−1,m x m = b i

1

−1 . . . + 0x j

1

−1 + 0x j

1

+ . . . + a 1m x m = b 1 . . . + 0x j

1

−1 + 0x j

1

+ . . . + a i

1

+1,m x m = b i

1

+1a

i1 +1

a

,j1

b

i1

i1,j1

.. . .. . .. . .. .

. . . + 0x j

1

−1 + 0x j

1

+ . . . + a nm x m = b n − a

n,j

a

1

b

i1

i1,j1

.

On recommence alors le processus mais avec le syst` eme extrait

 

 

 

 

 

 

 

 

 

 

 

 

. . . + 0x j

1

+ a 2,j

1

+1 x j

1

+1 + . . . + a 2m x m = b 2

.. . .. . .. . .. .

. . . + 0x j

1

+ a i

1

−1,j

1

+1 x j

1

+1 + . . . + a i

1

−1,m x m = b i

1

−1 . . . + 0x j

1

+ a 1,j

1

+1 x j

1

+1 + . . . + a 1m x m = b 1 . . . + 0x j

1

+ a i

1

+1,j

1

+1 x j

1

+1 + . . . + a i

1

+1,m x m = b i

1

+1a

i1 +1

a

,j1

b

i1

i1,j1

.. . .. . .. . .. .

. . . + 0x j

1

+ a n,j

1

+1 x j

1

+1 + . . . + a nm x m = b n − a

n,j

a

1

b

i1

i1,j1

.

Mais c’est une matrice ayant une ligne de moins. On peut donc it´ erer le processus. Dans notre exemple, la matrice obtenue est ´ echelonn´ ee.

D´ efinition. L’entier r ainsi mis en ´ evidence s’appelle le rang du syst` eme lin´ eaire. On remarquera que cet entier est n´ ecessairement plus petit ou ´ egal ` a m ou ` a n .

Remarque. On remarquera que le rang r d’un syst` eme lin´ eaire ne d´ epend pas du second membre (d’apr` es le d´ eroulement de la m´ ethode de Gauss).

Les indices d’indice ´ etant plutˆ ot d´ esagr´ eables, on va supposer que j k = k, k = 1 . . . r (on peut toujours le faire quitte ` a re-num´ eroter les variables du syst` eme). Le syst` eme ´ echelonn´ e

 

 

 

 

 

 

 

 

x j

1

+ P m

j>j

1

u 0 1j x j = b 0 1

.. . .. .

x j

r

+ P m

j>j

r

u 0 rj x j = b 0 r

0 = b 0 r+1

.. . .. .

0 = b 0 n

sera donc pris sous la forme :

 

 

 

 

 

 

 

 

x 1 + P m

j>1 u 0 1j x j = b 0 1

.. . .. .

x r + P m

j>r u 0 rj x j = b 0 r

0 = b 0 r+1

.. . .. .

0 = b 0 n

.

(8)

Examinons tout d’abord le cas des syst` emes homog` enes. Dans ce cas on voit que la m´ ethode de Gauss conduit ` a des ´ equations de compatibilit´ e trivialement v´ erifi´ ees - lorsqu’elles existent- (en effet les constantes qui apparaissent au second membre apr` es une op´ eration ´ el´ ementaire sont des combinaisons lin´ eaires des scalaires b i ).

Dans un premier temps, examinons le cas o` u r = m ≥ n . Les ´ equations de compatibilit´ e (puisque n ≥ r = m) sont donc triviales et le syst` eme ´ echelonn´ e s’´ ecrit

 

 

 

 

x 1 + P m

j=2 u 0 1j x j = 0 x 2 + P m

j=3 u 0 2j x j = 0

.. . .. .

x m = 0

.

On voit donc imm´ ediatement que la seule solution est la solution nulle (x 1 , . . . , x m ) = (0, . . . , 0) . Proposition. Soit un syst` eme lin´ eaire homog` ene comportant n ´ equations ` a m variables (il est donc associ´ e ` a une matrice ayant n lignes et m colonnes). On suppose qu’il est de rang m (donc r = m ≤ n).

Alors il admet la solution nulle pour unique solution.

Examinons le cas r < m . Le syst` eme ´ echelonn´ e s’´ ecrit donc

 

 

 

 

 

 

 

 

x 1 + P m

j>1 u 0 1j x j = 0

.. . .. .

x r + P m

j>r u 0 nj x j = 0

0 = 0

.. . .. .

0 = 0

.

Si l’on exprime x r en fonction des variables d’indice sup´ erieur dans les ´ equations pr´ ec´ edentes puis x r−1 etc.. on voit que l’on aboutit ` a

 

 

x 1 = P m j≥r u 0 1j x j

.. . .. . x r = P m

j≥r u 0 nj x j

.

Alors les solutions du syst` eme homog` ene s’expriment de la fa¸ con suivante :

 P m

j=r+1 u 0 1j x j

.. . P m

j=r+1 u 0 rj x j

x r+1

.. . x m

= x r+1

 u 0 1r+1

.. . u 0 rr+1

1 0 .. . 0

+ . . . + x m

 u 0 1m

.. . u 0 rm

0 .. . 0 1

 .

Exemple 2.3. Revenons sur l’exemple trait´ e. Il s’´ ecrit

0 1 −1 1

0 0 1 1

0 0 0 0

 x 1

x 2

x 3

x 4

=

 0 0 0

 ⇔

x 2 − x 3 + x 4 = 0

x 3 + x 4 = 0 .

(9)

Aussi les solutions de ce syst` eme s’´ ecrivent-elles

(x 1 , −2x 4 , −x 4 , x 4 ); x 1 ∈ R ; x 4 ∈ R ou encore

x 1 (1, 0, 0, 0) + x 4 (0, −2, −1, 1); x 1 ∈ R ; x 4 ∈ R . Exemple 2.4. Traitons un second exemple.

0 0 −1 1

−1 2 −1 1

2 −4 3 −1

 x 1

x 2

x 3

x 4

=

 b 1

b 2

b 3

pour lequel nous allons travailler avec la seule matrice

0 0 −1 1 b 1

−1 2 −1 1 b 2

2 −4 3 −1 b 3

 .

On a alors

−1 2 −1 1 b 2

0 0 −1 1 b 1

2 −4 3 −1 b 3

 puis

1 −2 1 −1 −b 2

0 0 −1 1 b 1

0 0 1 1 b 3 + 2b 2

 .

Soit finalement

1 −2 1 −1 −b 2

0 0 1 1 b 3 + 2b 2

0 0 0 2 b 1 + b 3 + 2b 2

 ou

1 −2 1 −1 −b 2

0 0 1 1 b 3 + 2b 2

0 0 0 1 (b 1 + b 3 + 2b 2 )/2

Les solutions du syst` eme homog` ene s’´ ecrivent donc

{(x 1 , x 2 , x 3 , x 4 ); x 1 −2x 2 +x 3 −x 4 = 0, x 3 +x 4 = 0 et x 4 = 0} = {x 1 , x 2 , x 3 , x 4 ); x 1 = 2x 2 et x 3 = x 4 = 0} . Proposition. Soit un syst` eme lin´ eaire homog` ene ayant n lignes et m colonnes. On suppose qu’il est de rang r < m . Alors il admet une infinit´ e de solutions (dont la solution nulle) et ces solutions s’expriment en fonction de m − r param` etres.

Remarque. Dans l’´ ecriture des solutions, on a introduit les vecteurs colonnes

 u 0 1r+1

.. . u 0 rr+1

1 0 .. . 0

 , . . . ,

 u 0 1m

.. . u 0 rm

0 .. . 0 1

;

on remarquera qu’ils v´ erifient la propri´ et´ e particuli` ere suivante : la seule combinaison lin´ eaire nulle de ces vecteurs est celle obtenue avec des coefficients tous nuls.

Passons aux syst` emes non homog` enes.

(10)

Dans un premier temps, examinons le cas o` u n = r ≤ m . Il n’y a alors pas d’´ equation de compatibilit´ e et le syst` eme ´ echelonn´ e s’´ ecrit

 

 

 

 

x 1 + P m

j=2 u 0 1j x j = b 0 1

x 2 + P m

j=3 u 0 2j x j = b 0 2

.. . .. .

x n + P m

j=n+1 u 0 nj x j = b 0 n .

On voit donc imm´ ediatement que ce syst` eme admet alors une solution d´ ependant des m − n param` etres que sont les variables d’indice sup´ erieur strictement ` a n (solution unique si r = n = m).

Examinons le cas r < n . Le syst` eme ´ echelonn´ e s’´ ecrit donc

 

 

 

 

 

 

 

 

x 1 + P m

j>1 u 0 1j x j = b 0 1

.. . .. .

x r + P m

j>r u 0 rj x j = b 0 r

0 = b 0 r+1

.. . .. .

0 = b 0 n

.

Soit les ´ equations de compatibilit´ e sont impossibles (si l’une des contantes b 0 k pour k ∈ {r + 1, . . . , n}

n’est pas nulle) et le syst` eme n’admet aucune solution ; soit les b 0 k (k = r + 1, . . . , m) sont identiquement nuls et l’on peut poursuivre la r´ esolution. Si l’on exprime x r en fonction des variables d’indice sup´ erieur dans les ´ equations pr´ ec´ edentes puis x r−1 etc.. on voit que l’on aboutit ` a

 

 

x 1 = b” 1 + P m

j6=1,...,i

r

u 0 1j x j

.. . .. . x r = b” r + P m

j6=1,...,r u 0 rj x j

.

Alors les solutions du syst` eme homog` ene s’expriment de la fa¸ con suivante :

 P m

j=r+1 u 0 1j x j

.. . P m

j=r+1 u 0 rj x j

x r+1

.. . x m

=

 b” 1

.. . b” r+1

0 0 .. . 0

 + x r+1

 u 0 1r+1

.. . u 0 rr+1

1 0 .. . 0

+ . . . + x m

 u 0 1m

.. . u 0 rm

0 .. . 0 1

 .

Examinons nos deux exemples.

Exemple 2.5. On a obtenu

0 1 −1 1

0 0 1 1

0 0 0 0

 x 1 x 2 x 3 x 4

=

−b 2 b 1 b 3 + b 2

 .

Il y a donc une ´ equation de compatibilit´ e (b 3 +b 2 = 0). Soit elle est non nulle et le syst` eme est impossible.

Soit elle est nulle et le syst` eme admet une infinit´ e de solutions d´ ependant de 2 param` etres (soit m − r = 4 − 2). Ces solutions s’´ ecrivent

(x 1 , x 3 − x 4 − b 2 , −x 4 + b 1 , x 4 ) = (x 1 , −2x 4 + b 1 − b 2 , −x 4 + b 1 , x 4 )

(11)

soit

(0, −b 2 , b 1 , 0) + x 1 (1, 0, 0, 0) + x 4 (0, −2, −1, 1) . Exemple 2.6. On a obtenu

1 −2 1 −1 −b 2

0 0 1 1 b 3 + 2b 2

0 0 0 1 (b 1 + b 3 + 2b 2 )/2

 .

Dans ce cas il n’y a aucune ´ equation de compatibilit´ e (r = 3 = n). Les solutions s’´ ecrivent

(2x 2 − b 3 − 2b 2 + b 2 + b 1 + b 3

2 + b 2 + b 1 + b 3

2 , x 2 , b 3 + 2b 2 − b 2 − b 1 + b 3

2 , b 2 + b 1 + b 3 2 ) soit

(b 1 + b 3 , 0, − b 1

2 + b 2 + b 3

2 , b 1

2 + b 2 + b 3

2 ) + x 2 (2, 1, 0, 0) .

Proposition. Soit un syst` eme lin´ eaire ayant n lignes et m colonnes. Alors soit il n’admet aucune solution (si r < n et lorsque l’une des ´ equations de compatibilit´ e est impossible) soit, si r = m , il admet une unique solution et, si r < m , il admet une infinit´ e de solutions et ces solutions s’expriment en fonction de m − r param` etres.

D´ efinition 2.7. Soit M X = B un syst` eme lin´ eaire. On suppose qu’il admet n ´ equations et m = n inconnues. Enfin on suppose que son rang est maximal (r = n = m). On dira que le syst` eme est de Cramer. On sait qu’il admet une unique solution quelque soit la valeur du second membre B .

3 R´ esolution de syst` emes lin´ eaires. Un exemple d’application.

Exemple. Examinons pour terminer ce paragraphe un exemple d’application un peu plus complexe.

Bref nous allons ´ etudier le syst` eme

 

 

x + y + 3t + u = a

x − 3z − u = b

y + 2z + 2t + u = c 2x + 2y − z + 5t + u = d

.

Si l’on applique le pivot, on voit qu’il est moins fatiguant d’intervertir les deux premi` eres ´ equations puis de retrancher le bon multiple de cette deuxi` eme ´ equation dans les premi` ere et derni` ere ´ equations :

 

 

x = 3z + u + b

y + 3z + 3t + 2u = a − b

y + 2z + 2t + u = c

2y + 5z + 5t + 3u = d − 2b .

Utilisons alors la troisi` eme ´ equation pour ´ eliminer la pr´ esence de y dans la seconde et dans la troisi` eme :

 

 

x = 3z + u + b

y = −2z − 2t − u + c z + t + u = a − b − c z + t + u = d − 2b − 2c

.

(12)

On constate alors que les premiers membres des deux derni` eres ´ equations co¨ıncident. D’o` u

 

 

x = 3z + u + b

y = −2z − 2t − u + c

z + t + u = a − b − c 0 = d − 2b − 2c − a + b + c

.

Le syst` eme est ´ echelonn´ e. Il est donc de rang 3 . Il y a n − r = 4 − 3 = 1 ´ equation de compatibilit´ e : d − 2b − 2c − a + b + c = −a − b − c + d .

Donc, soit −a −b−c +d = 0 et le syst` eme admet une infinit´ e de solutions ` a m−r = 5−3 = 2 param` etres, soit −a − b − c + d 6= 0 et le syst` eme est impossible.

Terminons la r´ esolution en exprimant les solutions lorsque le syst` eme admet des solutions (c’est ` a dire que −a − b − c + d = 0). Nous devons r´ esoudre

x = 3z + u + b

y = −2z − 2t − u + c z + t + u = a − b − c

.

Comme x s’exprime naturellement en fonction de z et u , on va choisir les inconnues z et u comme les inconnues libres. Alors on a

x = b + 3z + u

t = (a − b − c) − z − u

y = c − 2z − 2t − u = c − 2z − 2(a − b − c) + 2z + 2u − u = (−2a + 2b + 3c) + u .

Bref les solutions s’´ ecrivent

(b + 3z + u, (−2a + 2b + 3c) + u, z, (a − b − c) − z − u, u) soit encore

(b, −2a + 2b + 3c, 0, a − b − c, 0) + z(3, 0, 1, −1, 0) + u(1, 1, 0, −1, 1) .

On notera que (b, −2a + 2b + 3c, 0, a − b − c, 0) est une solution particuli` ere du syst` eme avec second membre et que (3, 0, 1, −1, 0) et (1, 1, 0, −1, 1) deux solutions particuli` eres du syst` eme homog` ene.

A ce moment du cours, on peut se demander ce qui se passerait dans cette r´ ` esolution si l’on op´ erait d’autres choix d’´ echelonnement. Op´ erons donc un autre choix (et travaillons avec la matrice (A|B))

1 1 0 3 1 | a

1 0 −3 0 −1 | b

0 1 2 2 1 | c

2 2 −1 5 1 | d

1 1 0 3 1 | a

0 −1 −3 −3 −2 | b − a

0 1 2 2 1 | c

0 0 −1 −1 −1 | d − 2a

puis

1 1 0 3 1 | a

1 0 −3 0 −1 | b

0 1 2 2 1 | c

2 2 −1 5 1 | d

1 1 0 3 1 | a

0 0 −1 −1 −1 | b + c − a

0 1 2 2 1 | c

0 0 −1 −1 −1 | d − 2a

soit finalement

1 1 0 3 1 | a

1 0 −3 0 −1 | b

0 1 2 2 1 | c

2 2 −1 5 1 | d

1 1 0 3 1 | a

0 1 2 2 1 | c

0 0 1 1 1 | a − b − c 0 0 0 0 0 | d − 2a − b − c + a

.

(13)

On voit donc que le rang est toujours 3 et que l’´ equation de compatibilit´ e reste d − a − b − c = 0 (c’est heureux et c’est ´ evidemment un r´ esultat g´ en´ eral). Exprimons d´ esormais les solutions avec ce nouvel

´

echelonnement (lorsque d=a+b+c) :

x + y + 3t + u = a y + 2z + 2t + u = c

z + t + u = a − b − c .

On aura successivement z = (a −b −c) −t −u , y = c − 2(a −b − c) + 2t + 2u−2t −u = (−2a+ 2b + 3c) + u et x = a − (−2a + 2b + 3c) − u − 3t − u = (3a − 2b − 3c) − 3t − 2u . D’o` u des solutions de la forme

(3a − 2b − 3c, −2a + 2b + 3c, a − b − c, 0, 0) + t(−3, 0, −1, 1, 0) + u(−2, 1, −1, 0, 1) . Les solutions s’expriment donc sous les deux formes :

(b, −2a + 2b + 3c, 0, a − b − c, 0) + z(3, 0, 1, −1, 0) + u(1, 1, 0, −1, 1) ou

(3a − 2b − 3c, −2a + 2b + 3c, a − b − c, 0, 0) + t(−3, 0, −1, 1, 0) + u(−2, 1, −1, 0, 1) . Comparons tout d’abord les solutions (particuli` eres) du syst` eme homog` enes. On a

(−3, 0, −1, 1, 0) = −(3, 0, 1, −1, 0) et (−2, 1, −1, 0, 1) = (1, 1, 0, −1, 1) + (−3, 0, −1, 1, 0) .

Ainsi les solutions particuli` eres (seconde expression) sont combinaisons lin´ eaires des solutions parti- culi` eres (premi` ere expression) et vice-versa.

Reste les solutions particuli` eres du syst` eme avec second membre. On a

(3a−2b−3c, −2a+2b+3c, a−b−c, 0, 0)−(b, −2a+2b+3c, 0, a−b−c, 0) = (3a−3b−3c, 0, a−b−c, −a+b+c, 0) soit

(3a − 2b − 3c, −2a + 2b + 3c, a − b − c, 0, 0) − (b, −2a + 2b + 3c, 0, a − b − c, 0) = (a − b − c)(3, 0, 1, −1, 0) . Elles diff` erent donc d’une solution du syst` eme homog` ene. Nous venons de v´ erifier que les deux expressions des solutions correspondent bien aux mˆ emes solutions.

En guise de conclusion, on peut garder les principes suivants. Soit un syst` eme lin´ eaire de n ´ equations

`

a m inconnues. Apr` es ´ echelonnement ´ eventuel, il peut ˆ etre ramen´ e ` a un syst` eme ´ equivalent (ayant les mˆ emes solutions) comportant r ´ equations mettant en ´ evidence r inconnues de telle fa¸ con qu’elles puissent s’exprimer en fonction des m − r autres inconnues et n − r identit´ es. On a bien ´ evidemment r ≤ n et r ≤ m .

Si le syst` eme est homog` ene, le syst` eme admet comme unique solution la solution nulle si et seulement si r = m (et donc r = m ≤ n). Si m > r , le syst` eme admet une infinit´ e de solutions ayant m − r param` etres.

Si le syst` eme n’est pas homog` ene, le syst` eme est impossible si r < n et que l’une des n − r identit´ es

(apr` es ´ echelonnement) n’est pas triviale. Si toutes les n − r identit´ es sont triviales ou que r = n , le

syst` eme admet une unique solution si et seulement si r = m . Si toutes les n − r identit´ es sont triviales,

et que r < m , le syst` eme admet une infinit´ e de solutions ayant m − r param` etres.

Références

Documents relatifs

(e) En utilisant solution, d´efinir trois vecteurs u1, u2, u3, en Maple, formant une famille g´en´eratrice de F.. Mot cl´e :

Un endomorphisme u est trigonalisable si et seulement s’il existe une base dans laquelle la matrice de u est triangulaire sup´ erieure..

10.4.2. Soit E un espace vectoriel de dimension finie. D´ emontrer qu’il existe une base orthonormale de E dans laquelle la matrice de u est triangulaire. Soient E un espace

Les ´el´ements inversibles d’un anneau forment un groupe multiplicatif.. Tout morphisme de corps

´ Ecrire la matrice de ϕ dans la base pr´ ec´ edente, donner la trace, le d´ eterminant et le polynˆ ome caract´ eristique de ϕ.. Donner son polynˆ ome caract´ eristique et

Le proc´ed´e de Gram-Schmidt nous assure l’existence d’une base orthonormale pour tout espace vectoriel de dimension finie muni d’un produit scalaire.. Nous pouvons par

La diagonalisation en base orthonorm´ ee d’une matrice sym´ etrique r´ eelle n’est pas unique, dans le sens o` u P et ∆ dans l’´ ecriture (22) ne le sont pas. Dans la preuve

Si on regarde `a pr´esent l’´equation x 2 +2 = 0, on s’aper¸coit qu’elle ne poss`ede aucune solution r´eelle (en effet, le carr´e d’un nombre r´eel est toujours positif ou