1. D´efinitions
Dans ce chapitre, p est un entier sup´erieur ou ´egal `a 2, n est un entier positif.
D´efinition VI.1.1. Un syst`eme d’´equations lin´eaires `a n ´equations et p inconnues est un syst`eme de la forme
(S)
a11x1 + a12x2 + · · · + a1pxp = b1
... ... ...
an1x1 + an2x2 + · · · + anpxp = bn
.
Ce syst`eme peut encore se mettre sous forme matricielle
a11 · · · a1p
... ... an1 · · · anp
x1
... xp
=
b1
... bn
.
On dit que A= (aij) ∈Knp est la matrice du syst`eme, x= (xi) ∈Kp est le vecteur desinconnuesetb= (bi)∈Knest lesecond membredu syst`eme. Les matrices Aet b sont suppos´ees connues. Ainsi, on d´enote encore le syst`eme (S) sous la forme
Ax=b.
Tout vecteur x qui v´erifieAx=b est ditsolution du syst`eme. Cela signifie que x doit satisfaire simultan´ement lesn´equations.
Si on d´esigne les colonnes deAparC1, . . . , Cp, le syst`eme (S) peut encore se mettre sous la forme vectorielle,
Xn j=1
xjCj =b.
D´efinition VI.1.2. Un syst`eme de la forme Ax = b tel que b = 0 est dit homog`ene. Un syst`eme est compatible s’il poss`ede au moins une solu-tion. Sinon, il est dit incompatible. Par exemple, un syst`eme homog`ene est toujours compatible puisqu’il poss`ede toujours la solution x= 0.
SoitAx=b, un syst`eme (S). Le syst`eme obtenu en rempla¸cant le second membre bpar 0 est appel´e le syst`eme homog`ene associ´e`a (S).
Si un syst`eme poss`ede une et une seule solution, il est ditd´etermin´e. S’il poss`ede plus d’une solution, il est ditind´etermin´e .
Enfin, deux syst`emes sont´equivalentss’ils poss`edent les mˆemes solutions.
101
102 Chapitre VI. Syst`emes d’´equations
2. Premi`eres propri´et´es
Cette premi`ere propri´et´e1 assez ´el´ementaire sera revue en d´etail `a la section suivante.
Proposition VI.2.1. SoientA∈Kkp une matrice donn´ee par ses lignes A=
tels que le syst`eme (S) : Ax=b soit compatible.
Si les vecteurs (Lk+1|bk+1), . . . ,(Ln|bn) ∈ Kp+1 sont combinaisons
D´emonstration. Il est clair que toute solution de (S’) est aussi solution de (S)puisque dans(S), elle doit uniquement satisfaire certaines ´equations de (S’).
et xest encore solution du syst`eme (S’).
1Les propositions de cette section, relatives aux syst`emes lin´eaires, sont les seules `a ˆetre utilis´ees dans la preuve de la proposition V.3.2. Remarquer qu’on y fait nullement r´ef´erence `a la notion rang.
VI.3. Structure des solutions et compatibilit´e 103
Exemple VI.2.2. Consid´erons le syst`eme x+y+z = 1
x−2y+ 3z = 2 .
Ce syst`eme est ´equivalent au syst`eme suivant, o`u la troisi`eme ligne est la somme des deux premi`eres,
x+y+z = 1 x−2y+ 3z = 2 2x−y+ 4z = 3
.
Proposition VI.2.3. Si A∈Knn est inversible, le syst`eme Ax=b poss`ede l’unique solution A−1b.
D´emonstration. Tout d’abord, A−1b est bien solution du syst`eme car A(A−1b) = (AA−1)b=Ib=b.
De plus, si x est une solution, il v´erifie Ax = b et alors en mutlipliant les deux membres par A−1, on trouve x=A−1b.
Proposition VI.2.4. Soit A∈Knn. Le syst`eme homog`ene Ax= 0poss`ede l’unique solution x= 0 si et seulement si A est inversible.
D´emonstration. Si A est inversible, par la proposition pr´ec´edente, le syst`eme poss`ede l’unique solution A−10 = 0.
Si A n’est pas inversible, son d´eterminant est nul et les colonnes de A sont lin´eairement d´ependantes (cf. proposition V.3.1). Il existe donc des coefficients non tous nulsx1, . . . , xn tels que
Xn i=1
xiCi = 0.
Ainsi, (x1, . . . , xn) est une solution non nulle du syst`eme homog`ene.
3. Structure des solutions et compatibilit´e
La proposition suivante donne la structure des solutions d’un syst`eme d’´equations. On obtient toutes les solutions2 d’un syst`eme (S) en ajoutant
`a une solution particuli`ere x0 de (S), les solutions du syst`eme homog`ene associ´e `a (S).
Proposition VI.3.1. Soit A ∈Knp. Si x0 v´erifie Ax0 =b, alors les solu-tions du syst`eme Ax=b sont de la forme
x0+y o`uy v´erifieAy = 0.
2L’ensemble des solutions d’un syst`eme homog`ene est un sous-espace vectoriel deKp. Par cons´equent, l’ensemble des solutions d’un syst`eme est une vari´et´e affine.
104 Chapitre VI. Syst`emes d’´equations
D´emonstration. SiAx0 =betAy = 0, alors il est clair queA(x0+y) =b et donc x0+y est solution du syst`eme.
Soit x une solution du syst`eme Ax = b. V´erifions qu’elle a la forme prescrite. Six0est aussi solution, alorsx−x0 v´erifieA(x−x0) =Ax−Ax0 = b−b= 0 et
x=x0+ (x−x0).
D´efinition VI.3.2. On appelle rang du syst`eme Ax = b, le rang de la matrice A.
La propri´et´e suivante a un int´erˆet double. Elle s’av`ere utile dans des argumentationss th´eoriques mais aussi, tr`es souvent, dans les discussions de syst`emes apparaissant dans l’´etude de lieux g´eom´etriques. En effet, par la m´ethode des g´en´eratrices, l’´elimination des param`etres revient souvent `a exprimer la compatibilit´e d’un syst`eme.
Proposition VI.3.3 (Rouch´e). Soient A∈ Knp et b ∈Kn. Les conditions suivantes sont ´equivalentes.
i) Le syst`eme(S) : Ax=b est compatible,
ii) tout vecteur y∈Kn satisfaisant yA= 0 est tel que yb= 0, iii) le rang de A est ´egal au rang de (A|b).
RemarqueVI.3.4. On appelle parfois (A|b) lamatrice augment´ee de (S).
La condition ii) montre que toute relation lin´eaire ayant lieu entre les lignes de Adoit aussi avoir lieu entre les ´el´ements correspondants du second mem-bre b.
D´emonstration. i) implique ii). Six0 est une solution de (S) et siyA= 0, alors en multipliant `a droite parx0, il vient
yAx0 =yb= 0.
ii) implique iii). La condition ii) signifie que toute relation lin´eaire ayant lieu entre les lignes deAa aussi lieu entre les lignes de la matrice augment´ee (A|b). Ainsi, le nombre de lignes lin´eairement ind´ependantes dansAest ´egal au nombre de lignes lin´eairement ind´ependantes dans (A|b). Ceci signifie que rg(A) = rg(A|b).
iii) implique i). Soitrle rang deA. La matriceAposs`ede doncrcolonnes lin´eairement ind´ependantes : Ci1, . . . , Cir. Les vecteurs Ci1, . . . , Cir, b sont lin´eairement d´ependants car par hypoth`ese, rg(A|b) =r. En d’autres termes, best combinaison lin´eaire deCi1, . . . , Cir donc deC1, . . . , Cp. Ainsi, il existe x1, . . . , xp tels que
Xp j=1
xjCj =b et le syst`eme (S) poss`ede une solution.
VI.3. Structure des solutions et compatibilit´e 105
Exprimer les conditions n´ecessaire et suffisante sous lesquelles un sys-t`eme Ax = b est compatible s’appelle l’´elimination de x dans le syst`eme.
L’expression de ces conditions revient donc `a ´egaler le rang de A avec celui de (A|b).
Exemple VI.3.5. Si on consid`ere le syst`eme
x+y−2z= 1 2x+y+z= 3 3x+ 2y−z= 4
Il est clair que l’on peut par exemple supprimer la troisi`eme ´equation et con-server un syst`eme ´equivalent car, cette derni`ere ´equation s’obtenant comme combinaison lin´eaire des deux pr´ec´edentes, elle n’apporte aucune contrainte suppl´ementaire sur les solutions. On obtient ainsi le syst`eme ´equivalent
x+y−2z= 1 2x+y+z= 3
Peut-on continuer de la sorte et supprimer, par exemple, la seconde ´equa-tion ? La r´eponse est non car, par exemple, x = 1, y = z = 0 satisfait la premi`ere ´equation mais pas la seconde. Ainsi, l’ensemble des solutions du syst`eme ci-dessus est un sous-ensemble strict des solutions du syst`eme r´eduit `a une seule ´equation x +y −2z = 1. En fait, on conserve deux
´equations “ind´ependantes” (i.e., correspondant `a des lignes lin´eairement in-d´ependantes dans la matrice du syst`eme) car c’est exactement la valeur du rang du syst`eme.
Cette constatation est en fait g´en´erale et est traduite par le r´esultat suivant.
CorollaireVI.3.6. Si le syst`eme(S): Ax=best compatible, il est ´equiva-lent `a tout syst`eme(S0)obtenu en ne consid´erant que les lignes de la matrice A qui sont lin´eairement ind´ependantes et en nombre ´egal au rang deA.
D´emonstration. Toute solution de (S) est solution de (S0) puisque dans (S0), elle doit satisfaire uniquement certaines ´equations de (S).
Montrons `a pr´esent que toute solution de (S0) est solution de (S). Par construction de (S0), toute ligne Li de A est combinaison lin´eaire des r = rg(A) lignes de la matrice de (S0). Ces lignes sont des lignes deAet quitte `a permuter les ´equations de (S), on peut supposer qu’il s’agit desrpremi`eres : L1, . . . , Lr. Autrement dit, pour tout i ∈ {1, . . . , n}, il existe des scalaires λ(i)k tels que
Li= Xr k=1
λ(i)k Lk.
Puisque le syst`eme (S) est compatible, en vertu de la proposition pr´ec´edente, ces relations ont aussi lieu entre les composantes de b,
bi = Xr k=1
λ(i)k bk.
106 Chapitre VI. Syst`emes d’´equations Donc x est aussi solution de (S).
RemarqueVI.3.7. SiA∈Knp, on sait que rg(A)≤p. Ainsi, si le syst`eme Ax = b est compatible, alors il est ´equivalent `a un syst`eme contenant un nombre nd’´equations inf´erieur ou ´egal au nombrep d’inconnues.
4. R´esolution
Consid´erons un syst`eme compatible (S) : Ax=b. Dans la section pr´ec´e-dente, nous avons montr´e que nous pouvions uniquement consid´erer les lignes deAlin´eairement ind´ependantes et en nombre ´egal au rang. Supposons ˆetre dans une telle situation, i.e., A ∈ Knp et rg(A) = n ≤ p. La matrice A poss`ede donc n colonnes lin´eairement ind´ependantes. En toute g´en´eralit´e, supposons que ces colonnes sont les n premi`eres colonnesC1, . . . , Cn de A.
Ainsi, vu la forme vectorielle sous laquelle peut ˆetre mis (S), on a C1 · · · Cn
o`u on n’a conserv´e dans le premier membre que les inconnues correspondant auxncolonnes lin´eairement ind´ependantes. La matriceC = C1 · · · Cn est donc inversible. En multipliant par son inverse C−1, on s’aper¸coit que le syst`eme (S) est ´equivalent `a
Ainsi, toute solution de (S) peut s’´ecrire
(7) de cette fa¸con est solution de (S).
VI.5. Quelques exemples 107
Remarque VI.4.1. Nous pouvons faire les observations suivantes.
I Si on pose λ1 = · · · = λp−n = 0, alors on trouve une solution particuli`ere du syst`eme.
I Si on pose b= 0, c’est-`a-dire si on consid`ere le syst`eme homog`ene associ´e, on voit que les solutions de ce dernier syst`eme sont les combinaisons lin´eaires dep−rg(A) vecteurs lin´eairement ind´epen-dants3.
I On retrouve (cf. proposition VI.3.1) le fait que les solutions d’un syst`eme lin´eaire compatible s’obtiennent en ajoutant `a une solution particuli`ere les solutions du syst`eme homog`ene associ´e.
Consid´erons, pour conclure, le cas des syst`emes de Cramer.
D´efinition VI.4.2. Un syst`eme (S) : Ax=b d’´equations lin´eaires est dit de Cramer, siA est une matrice carr´ee inversible.
En vertu de la proposition VI.2.3, si (S) est de Cramer, il poss`ede l’unique solution x=A−1b.
Il vient,
xj = (A−1b)j = 1 detA
cof(A)b^
j
Or, on a
(cof(A)b)^ j = Xp k=1
cof(A)^
jkbk= Xp k=1
cofkj(A)bk.
En se rappelant le lemme V.2.11, on obtient cof(A)kj en rempla¸cant la j-i`eme colonne de A parek. Ainsi,
xj = 1 detA
Xp k=1
bkdet C1 · · · ek · · · Cp
= det C1 · · · b · · · Cp detA
o`u on a utilis´e la multilin´earit´e du d´eterminant par rapport aux colonnes.
En r´esum´e, xj est le quotient du d´eterminant de la matriceAdu syst`eme o`u on a remplac´e la j-i`eme colonne par le second membreb, par le d´eterminant de A. Ces formules sont appel´ees les formules de G. Cramer.
5. Quelques exemples Exemple VI.5.1. Consid´erons le syst`eme homog`ene
x+ 2y+z= 0 x−y+ 2z= 0 3y−z= 0
3Les solutions du syst`eme homog`eneAx= 0 `apinconnues est un sous-espace vectoriel de dimension p−rg(A). En effet, il s’agit de l’enveloppe lin´eaire dep−rg(A) vecteurs lin´eairement ind´ependants.
108 Chapitre VI. Syst`emes d’´equations
Il est facile de voir que ce syst`eme est de rang 2, on peut donc conserver deux lignes lin´eairement ind´ependantes et obtenir un syst`eme ´equivalent.
Sous forme vectorielle, on a 1 2
Exemple VI.5.2. Reprenons le syst`eme de l’exemple VI.3.5.
x+y−2z= 1 solution du syst`eme. Ainsi, pour obtenir une expression semblable `a (7), on
´ecrit la forme g´en´erale d’une solution du syst`eme comme
sys-t`eme et que l’ensemble des solutions du syssys-t`eme homog`ene associ´e est ex-actement
Enfin, il est normal d’avoir la pr´esence d’un unique param`etre λ puisque nous avons 3 inconnues et le rang du syst`eme vaut 2 (i.e., 3−2 = 1).
Exemple VI.5.3. Voici un autre exemple du mˆeme type que le pr´ec´edent, mais r´eduit cette fois `a une seule ´equation,
x+y−2z= 1.
VI.5. Quelques exemples 109
Comme en (7), la forme g´en´erale d’une solution du syst`eme est directement
Ici, une solution particuli`ere du syst`eme est donn´ee par (x, y, z) = (1,0,0) et l’ensemble des solutions du syst`eme homog`ene associ´e est exactement
i
Exemple VI.5.4. Voici `a pr´esent un exemple emprunt´e `a la g´eom´etrie analytique.
On consid`ere un espace affin euclidien muni d’un rep`ere orthonorm´e d’axes Ox et Oy. Soit A, un point n’appartenant ni `a Ox ni `a Oy. On m`ene par ce point une droite variable Dqui coupeOx enB. On d´esigne par P le point de Oy dont l’ordonn´ee est ´egale `a l’abscisse de B. Rechercher le lieu de la projection orthogonale de P sur la droite D.
A
Figure VI.1. Un lieu g´eom´etrique.
Les points A, B et P ont pour coordonn´ees respectives (a1, a2), (λ,0) et (0, λ), avecλparam`etre r´eel. Les g´en´eratrices du lieu ont pour ´equations respectives
−a2(x−λ)−y(λ−a1) = 0 et
x(λ−a1)−a2(y−λ) = 0.
Un point M de coordonn´ees (x, y) appartient au lieu si et seulement si il existe λ∈Rtel que le syst`eme
(a2−y)λ=a2x−a1y (x+a2)λ=a1x+a2y
poss`ede une solution. L’´elimination de λ revient `a ´etudier la compatibi-lit´e du syst`eme (en l’inconnue λ). Par la proposition VI.3.3, le syst`eme est
110 Chapitre VI. Syst`emes d’´equations
compatible si et seulement si rg
Premier cas : le rang de la matrice du syst`eme est nul. Ceci a lieu si y =a2 et x=−a2. Le syst`eme est donc compatible si
Second cas : le rang de la matrice du syst`eme vaut 1. La compatibilit´e du syst`eme revient `a ce que la matrice augment´ee
a2−y a2x−a1y x+a2 a1x+a2y
soit de rang 1 donc `a ce que son d´eterminant soit nul. En annulant ce d´eterminant, on trouve
Le point (−a2, a2) v´erifie n´ecessairement cette ´equation. On en conclut que le lieu recherch´e est un cercle de centre (a1−2a2,a1+a2 2) et de rayon
√2 2
pa21+a22 priv´e du point (−a2, a2).
RemarqueVI.5.5. Cet exemple nous montre que la discussion sur le rang du syst`eme permet une d´etection facile des parties parasites du lieu.
Exemple VI.5.6. Voici `a pr´esent un syst`eme lin´eaire pr´esentant une dis-cussion compl`ete en fonction du rang (a et b sont deux param`etres com-plexes)
Sous forme matricielle, ce syst`eme se r´e´ecrit
AX =B avecA=
La matriceAa 3 colonnes. Son rang est au plus 3. Le syst`eme est compatible si et seulement si rgA = rg(A|B). En particulier, si la matrice (A|B) est de rang maximal ´egal `a 4, c’est-`a-dire si det(A|B)6= 0, alors le syst`eme est incompatible. Si on calcule ce d´eterminant, on trouve
det(A|B) =−a2(a+ib).
VI.5. Quelques exemples 111
Donc, si a6= 0 et a6=−ib, le syst`eme est incompatible. (Cas I) Dans les autres cas, c’est-`a-dire si a = 0 ou a = −ib, le rang de (A|B)
est inf´erieur ou ´egal `a 3. (Cas II)
La sous-matrice constitu´ee des quatre coins de A est de d´eterminant non nul. La matrice A est au moins de rang 2. Elle est exactement de rang 2 si et seulement si les deux matrices qui bordent
1 i 0 1
dans A sont nuls.
Ces deux sous-matrices ont pour d´eterminant 1 0 i
et le syst`eme est compatible. De plus, le nombre d’inconnues moins le rang du syst`eme donne 3-2=1 param`etre dans l’expression des solutions. Le sys-t`eme admet une infinit´e simple de solutions.
Si a=−1 etb=−i, alors (Cas II.ii) le syst`eme admet une solution unique. (Cas II.iii) Ce cas se pr´esente si et seulement si rg(A|B) = rg(A) = 3, c’est-`a-dire si
(a= 0 oua=−ib) et (a, b)6= (0,0) et (a, b)6= (−1,−i) ou encore si
(a= 0 et b6= 0) ou (a=−ibet b6= 0 et b6=−i).
En conclusion, le syst`eme
112 Chapitre VI. Syst`emes d’´equations
I est incompatible si (a6= 0 et a6=−ib) ou (a=−1 etb=−i),
I admet une solution unique si (a= 0 et b 6= 0) ou (a= −ibet b 6= 0 et b6=−i),
I admet une infinit´e simple de solutions sia=b= 0.
6. Compl´ement : Algorithme de Gauss-Jordan
Les m´ethodes de r´esolution de syst`emes lin´eaires d´evelopp´ees jusqu’`a pr´esent ont des avantages certains au point de vue de l’´elimination d’´eventuels param`etres et des discussions th´eoriques. Cependant, si l’on d´esire r´esoudre un syst`eme de mani`ere efficace (en particulier, au moyen d’un ordinateur), on a le plus souvent recours `a d’autres m´ethodes comme celle d´ecrite ci-dessous.
Soit un syst`eme (S) den´equations `ap inconnues,
a11x1 + a12x2 + · · · + a1pxp = b1
... ... ...
an1x1 + an2x2 + · · · + anpxp = bn .
Notons parLi lai-`eme ligne ai1 · · · aip bi
de la matrice augment´ee du syst`eme. Par les r´esultats ´enonc´es dans les sections pr´ec´edentes, il est clair que les op´erations ´el´ementairessuivantes transforment le syst`eme (S) en un syst`eme ´equivalent :
I multiplier une ligne par un scalaire non nul : Li ←λLi, λ∈K\ {0},
I ajouter `a une ligne une combinaison lin´eaire d’autres lignes : Li←Li+λLj, λ∈K, i6=j,
I permuter deux lignes :
Li ↔Lj, i6=j.
Proposition VI.6.1 (Phase d’´elimination). Par des op´erations ´el´emen-taires sur les lignes, le syst`eme (S) peut ˆetre transform´e en un syst`eme
´equivalent de la forme
xµ1 + α1µ2xµ2 + · · · + α1µkxµk + · · · + α1µpxµp = β1 xµ2 + · · · + α2µkxµk + · · · + α2µpxµp = β2
. .. ...
xµk + · · · + αkµpxµp = βk 0 = βk+1
... 0 = βn
.
o`uµ est une permutation de {1, . . . , p} et k est le rang du syst`eme.
VI.6. Compl´ement : Algorithme de Gauss-Jordan 113
D´emonstration. On proc`ede par r´ecurrence sur p, le nombre d’inconnues du syst`eme. Si la matrice du syst`eme est nulle, il n’y a rien `a d´emontrer.
Sinon, choisissons une variable qui intervient avec un coefficient non nul dans une des ´equations du syst`eme. Quitte `a permuter les lignes du syst`eme et les inconnues, on peut supposer que a11 6= 0. On transforme le syst`eme en effectuant les transformations ´el´ementaires
L1 ← 1 a11
L1 et pour i6= 1,
Li ←Li− ai1 a11
L1.
L’´el´ementa11est appel´epivot. On obtient alors un syst`eme ´equivalent ayant la forme
x1 + a012x2 + · · · + a01pxp = b01 a022x2 + · · · + a01pxp = b02
... ... ...
a0n2x2 + · · · + a0npxp = b0n .
Le syst`eme priv´e de la premi`ere ligne poss`eden−1 inconnues. On peut donc lui appliquer l’hypoth`ese de r´ecurrence et obtenir un syst`eme ´equivalent du type prescrit.
Proposition VI.6.2 (Phase de substitution). Par des op´erations ´el´emen-taires sur les lignes, un syst`eme de la forme
x1 + a12x2 + · · · + a1kxk + · · · + a1pxp = b1 x2 + · · · + a2kxk + · · · + a2pxp = b2
. .. ...
xk + · · · + akpxp = bk peut ˆetre transform´e en un syst`eme ´equivalent du type
x1 + α1k+1xk+1 + · · · + α1pxp = β1 x2 + α2k+1xk+1 + · · · + α2pxp = β2
...
xk + αkk+1xk+1 + · · · + αkpxp = βk .
D´emonstration. Pour j = 1, . . . , k −1, on effectue la transformation
´el´ementaire
Lj ←Lj−ajkLk
pour annuler le coefficient de xk dans lesk−1 premi`eres ´equations.
Pour j= 1, . . . , k−2, on effectue la transformation ´el´ementaire Lj ←Lj−ajk−1Lk−1
pour annuler le coefficient de xk−1 dans les k−2 premi`eres ´equations. On continue de cette mani`ere jusqu’`a obtenir la forme indiqu´ee.
114 Chapitre VI. Syst`emes d’´equations
En effectuant la phase d’´elimination, suivie de la phase de substitution, le syst`eme (S) de d´epart peut se mettre sous la forme
syst`eme poss`ede alors une infinit´e de solutions4. Pour tout choix de valeurs pour
On retrouve les r´esultats donn´es `a la section 4 de ce chapitre concernant la structure des solutions d’un syst`eme d’´equations lin´eaires.
Exemple VI.6.3. Voici trois exemples de syst`emes r´esolus par la m´ethode de Gauss-Jordan.
Pour terminer la phase d’´elimination, L3 ← 13L3 donne
4Bien ´evidemment, il faut queKsoit infini.
VI.6. Compl´ement : Algorithme de Gauss-Jordan 115
En substituant, on trouve z= 2
3, y= 1
3, x= 1 3.
Le syst`eme poss`ede une unique solution (syst`eme d´etermin´e).
Consid´erons `a pr´esent le syst`eme
3x + 2y − z = 1
x + y − z = 0
4x + 3y − 2z = 1
.
La phase d’´elimination donne d’abord
x + 23y − 13z = 13
1
3y − 23z = −13
1
3y − 23z = −13 ,
puis
x + 23y − 13z = 13 y − 2z = −1
0 = 0
.
Ainsi, z peut prendre n’importe quelle valeur et pour chacune d’elles, on a x = 1−z
y = −1 + 2z .
On est dans le cas d’un syst`eme ind´etermin´e (le syst`eme est de rang 2 et on a trois inconnues).
Enfin, consid´erons le syst`eme
3x + 2y − z = 1
x + y − z = 0
4x + 3y − 2z = 2
.
La seule diff´erence avec l’exemple pr´ec´edent est le second membre de la troisi`eme ´equation. La phase d’´elimination donne
x + 23y − 13z = 13 y − 2z = −1
0 = 1
.
On s’aper¸coit donc que le syst`eme est incompatible.
Remarque VI.6.4. On peut aussi utiliser l’algorithme de Gauss-Jordan pour rechercher l’´eventuel inverse d’une matrice carr´ee. En effet, si A est une matrice carr´ee inversible de dimensionn et X l’inverse deA, alors
AX =I.
Si X1, . . . , Xn sont les colonnes de X, l’´equation matricielle pr´ec´edente est
´equivalente aux n´equations
AXi =ei, i= 1, . . . , n.
116 Chapitre VI. Syst`emes d’´equations
RechercherX revient donc `a r´esoudrensyst`emes d’´equations lin´eaires ayant mˆeme matrice A. Dans l’algorithme de Gauss-Jordan, seuls les coefficients de A jouent un rˆole dans la phase d’´elimination. On peut donc r´esoudre les n syst`emes en parall`ele.
Exemple VI.6.5. Soit la matrice A=
1 2 1 1 0 1 2 1 3
Effectuons les phases d’´elimination en parall`ele. On a tout d’abord 1 2 1 1 0 0
1 0 1 0 1 0 2 1 3 0 0 1 ,
et si L2 ←L2−L1, L3 ←L3−2L1,
1 2 1 1 0 0
0 −2 0 −1 1 0 0 −3 1 −2 0 1 .
Enfin, si L2 ← −12L2, L3 ←L3−32L2,
1 2 1 1 0 0
0 1 0 12 −12 0 0 0 1 −12 −32 1 .
Pour la phase de substitution, si on s’int´eresse `a la premi`ere colonne, on trouve x31=−12,x21= 12 et x11= 12. Pour la deuxi`eme colonne,x32=−32, x22=−12 et x12= 52 et enfin, avec la troisi`eme colonne, x33= 1,x23= 0 et x13=−1. Donc
A−1 =
1
2 5
2 −1
1
2 −12 0
−12 −32 1
.
7. Impl´ementation de l’algorithme de Gauss-Jordan
Nous donnons dans ce compl´ement5, deux impl´ementations de la
Nous donnons dans ce compl´ement5, deux impl´ementations de la