• Aucun résultat trouvé

Syst` emes d’´ equations

Dans le document Alg` ebre lin´ eaire (Page 111-131)

1. D´efinitions

Dans ce chapitre, p est un entier sup´erieur ou ´egal `a 2, n est un entier positif.

efinition VI.1.1. Un syst`eme d’´equations lin´eaires `a n ´equations et p inconnues est un syst`eme de la forme

(S)





a11x1 + a12x2 + · · · + a1pxp = b1

... ... ...

an1x1 + an2x2 + · · · + anpxp = bn

.

Ce syst`eme peut encore se mettre sous forme matricielle



a11 · · · a1p

... ... an1 · · · anp



 x1

... xp

=

 b1

... bn

.

On dit que A= (aij) ∈Knp est la matrice du syst`eme, x= (xi) ∈Kp est le vecteur desinconnuesetb= (bi)∈Knest lesecond membredu syst`eme. Les matrices Aet b sont suppos´ees connues. Ainsi, on d´enote encore le syst`eme (S) sous la forme

Ax=b.

Tout vecteur x qui v´erifieAx=b est ditsolution du syst`eme. Cela signifie que x doit satisfaire simultan´ement lesn´equations.

Si on d´esigne les colonnes deAparC1, . . . , Cp, le syst`eme (S) peut encore se mettre sous la forme vectorielle,

Xn j=1

xjCj =b.

efinition VI.1.2. Un syst`eme de la forme Ax = b tel que b = 0 est dit homog`ene. Un syst`eme est compatible s’il poss`ede au moins une solu-tion. Sinon, il est dit incompatible. Par exemple, un syst`eme homog`ene est toujours compatible puisqu’il poss`ede toujours la solution x= 0.

SoitAx=b, un syst`eme (S). Le syst`eme obtenu en rempla¸cant le second membre bpar 0 est appel´e le syst`eme homog`ene associ´e`a (S).

Si un syst`eme poss`ede une et une seule solution, il est ditd´etermin´e. S’il poss`ede plus d’une solution, il est ditind´etermin´e .

Enfin, deux syst`emes sont´equivalentss’ils poss`edent les mˆemes solutions.

101

102 Chapitre VI. Syst`emes d’´equations

2. Premi`eres propri´et´es

Cette premi`ere propri´et´e1 assez ´el´ementaire sera revue en d´etail `a la section suivante.

Proposition VI.2.1. SoientA∈Kkp une matrice donn´ee par ses lignes A=

tels que le syst`eme (S) : Ax=b soit compatible.

Si les vecteurs (Lk+1|bk+1), . . . ,(Ln|bn) ∈ Kp+1 sont combinaisons

emonstration. Il est clair que toute solution de (S’) est aussi solution de (S)puisque dans(S), elle doit uniquement satisfaire certaines ´equations de (S’).

et xest encore solution du syst`eme (S’).

1Les propositions de cette section, relatives aux syst`emes lin´eaires, sont les seules `a ˆetre utilis´ees dans la preuve de la proposition V.3.2. Remarquer qu’on y fait nullement r´ef´erence `a la notion rang.

VI.3. Structure des solutions et compatibilit´e 103

Exemple VI.2.2. Consid´erons le syst`eme x+y+z = 1

x−2y+ 3z = 2 .

Ce syst`eme est ´equivalent au syst`eme suivant, o`u la troisi`eme ligne est la somme des deux premi`eres,



x+y+z = 1 x−2y+ 3z = 2 2x−y+ 4z = 3

.

Proposition VI.2.3. Si A∈Knn est inversible, le syst`eme Ax=b poss`ede l’unique solution A1b.

emonstration. Tout d’abord, A1b est bien solution du syst`eme car A(A1b) = (AA1)b=Ib=b.

De plus, si x est une solution, il v´erifie Ax = b et alors en mutlipliant les deux membres par A1, on trouve x=A1b.

Proposition VI.2.4. Soit A∈Knn. Le syst`eme homog`ene Ax= 0poss`ede l’unique solution x= 0 si et seulement si A est inversible.

emonstration. Si A est inversible, par la proposition pr´ec´edente, le syst`eme poss`ede l’unique solution A10 = 0.

Si A n’est pas inversible, son d´eterminant est nul et les colonnes de A sont lin´eairement d´ependantes (cf. proposition V.3.1). Il existe donc des coefficients non tous nulsx1, . . . , xn tels que

Xn i=1

xiCi = 0.

Ainsi, (x1, . . . , xn) est une solution non nulle du syst`eme homog`ene.

3. Structure des solutions et compatibilit´e

La proposition suivante donne la structure des solutions d’un syst`eme d’´equations. On obtient toutes les solutions2 d’un syst`eme (S) en ajoutant

`a une solution particuli`ere x0 de (S), les solutions du syst`eme homog`ene associ´e `a (S).

Proposition VI.3.1. Soit A ∈Knp. Si x0 v´erifie Ax0 =b, alors les solu-tions du syst`eme Ax=b sont de la forme

x0+y o`uy v´erifieAy = 0.

2L’ensemble des solutions d’un syst`eme homog`ene est un sous-espace vectoriel deKp. Par cons´equent, l’ensemble des solutions d’un syst`eme est une vari´et´e affine.

104 Chapitre VI. Syst`emes d’´equations

emonstration. SiAx0 =betAy = 0, alors il est clair queA(x0+y) =b et donc x0+y est solution du syst`eme.

Soit x une solution du syst`eme Ax = b. V´erifions qu’elle a la forme prescrite. Six0est aussi solution, alorsx−x0 v´erifieA(x−x0) =Ax−Ax0 = b−b= 0 et

x=x0+ (x−x0).

efinition VI.3.2. On appelle rang du syst`eme Ax = b, le rang de la matrice A.

La propri´et´e suivante a un int´erˆet double. Elle s’av`ere utile dans des argumentationss th´eoriques mais aussi, tr`es souvent, dans les discussions de syst`emes apparaissant dans l’´etude de lieux g´eom´etriques. En effet, par la m´ethode des g´en´eratrices, l’´elimination des param`etres revient souvent `a exprimer la compatibilit´e d’un syst`eme.

Proposition VI.3.3 (Rouch´e). Soient A∈ Knp et b ∈Kn. Les conditions suivantes sont ´equivalentes.

i) Le syst`eme(S) : Ax=b est compatible,

ii) tout vecteur y∈Kn satisfaisant yA= 0 est tel que yb= 0, iii) le rang de A est ´egal au rang de (A|b).

RemarqueVI.3.4. On appelle parfois (A|b) lamatrice augment´ee de (S).

La condition ii) montre que toute relation lin´eaire ayant lieu entre les lignes de Adoit aussi avoir lieu entre les ´el´ements correspondants du second mem-bre b.

emonstration. i) implique ii). Six0 est une solution de (S) et siyA= 0, alors en multipliant `a droite parx0, il vient

yAx0 =yb= 0.

ii) implique iii). La condition ii) signifie que toute relation lin´eaire ayant lieu entre les lignes deAa aussi lieu entre les lignes de la matrice augment´ee (A|b). Ainsi, le nombre de lignes lin´eairement ind´ependantes dansAest ´egal au nombre de lignes lin´eairement ind´ependantes dans (A|b). Ceci signifie que rg(A) = rg(A|b).

iii) implique i). Soitrle rang deA. La matriceAposs`ede doncrcolonnes lin´eairement ind´ependantes : Ci1, . . . , Cir. Les vecteurs Ci1, . . . , Cir, b sont lin´eairement d´ependants car par hypoth`ese, rg(A|b) =r. En d’autres termes, best combinaison lin´eaire deCi1, . . . , Cir donc deC1, . . . , Cp. Ainsi, il existe x1, . . . , xp tels que

Xp j=1

xjCj =b et le syst`eme (S) poss`ede une solution.

VI.3. Structure des solutions et compatibilit´e 105

Exprimer les conditions n´ecessaire et suffisante sous lesquelles un sys-t`eme Ax = b est compatible s’appelle l’´elimination de x dans le syst`eme.

L’expression de ces conditions revient donc `a ´egaler le rang de A avec celui de (A|b).

Exemple VI.3.5. Si on consid`ere le syst`eme



x+y−2z= 1 2x+y+z= 3 3x+ 2y−z= 4

Il est clair que l’on peut par exemple supprimer la troisi`eme ´equation et con-server un syst`eme ´equivalent car, cette derni`ere ´equation s’obtenant comme combinaison lin´eaire des deux pr´ec´edentes, elle n’apporte aucune contrainte suppl´ementaire sur les solutions. On obtient ainsi le syst`eme ´equivalent

x+y−2z= 1 2x+y+z= 3

Peut-on continuer de la sorte et supprimer, par exemple, la seconde ´equa-tion ? La r´eponse est non car, par exemple, x = 1, y = z = 0 satisfait la premi`ere ´equation mais pas la seconde. Ainsi, l’ensemble des solutions du syst`eme ci-dessus est un sous-ensemble strict des solutions du syst`eme r´eduit `a une seule ´equation x +y −2z = 1. En fait, on conserve deux

´equations “ind´ependantes” (i.e., correspondant `a des lignes lin´eairement in-d´ependantes dans la matrice du syst`eme) car c’est exactement la valeur du rang du syst`eme.

Cette constatation est en fait g´en´erale et est traduite par le r´esultat suivant.

CorollaireVI.3.6. Si le syst`eme(S): Ax=best compatible, il est ´equiva-lent `a tout syst`eme(S0)obtenu en ne consid´erant que les lignes de la matrice A qui sont lin´eairement ind´ependantes et en nombre ´egal au rang deA.

emonstration. Toute solution de (S) est solution de (S0) puisque dans (S0), elle doit satisfaire uniquement certaines ´equations de (S).

Montrons `a pr´esent que toute solution de (S0) est solution de (S). Par construction de (S0), toute ligne Li de A est combinaison lin´eaire des r = rg(A) lignes de la matrice de (S0). Ces lignes sont des lignes deAet quitte `a permuter les ´equations de (S), on peut supposer qu’il s’agit desrpremi`eres : L1, . . . , Lr. Autrement dit, pour tout i ∈ {1, . . . , n}, il existe des scalaires λ(i)k tels que

Li= Xr k=1

λ(i)k Lk.

Puisque le syst`eme (S) est compatible, en vertu de la proposition pr´ec´edente, ces relations ont aussi lieu entre les composantes de b,

bi = Xr k=1

λ(i)k bk.

106 Chapitre VI. Syst`emes d’´equations Donc x est aussi solution de (S).

RemarqueVI.3.7. SiA∈Knp, on sait que rg(A)≤p. Ainsi, si le syst`eme Ax = b est compatible, alors il est ´equivalent `a un syst`eme contenant un nombre nd’´equations inf´erieur ou ´egal au nombrep d’inconnues.

4. R´esolution

Consid´erons un syst`eme compatible (S) : Ax=b. Dans la section pr´ec´e-dente, nous avons montr´e que nous pouvions uniquement consid´erer les lignes deAlin´eairement ind´ependantes et en nombre ´egal au rang. Supposons ˆetre dans une telle situation, i.e., A ∈ Knp et rg(A) = n ≤ p. La matrice A poss`ede donc n colonnes lin´eairement ind´ependantes. En toute g´en´eralit´e, supposons que ces colonnes sont les n premi`eres colonnesC1, . . . , Cn de A.

Ainsi, vu la forme vectorielle sous laquelle peut ˆetre mis (S), on a C1 · · · Cn

o`u on n’a conserv´e dans le premier membre que les inconnues correspondant auxncolonnes lin´eairement ind´ependantes. La matriceC = C1 · · · Cn est donc inversible. En multipliant par son inverse C1, on s’aper¸coit que le syst`eme (S) est ´equivalent `a

 Ainsi, toute solution de (S) peut s’´ecrire

(7) de cette fa¸con est solution de (S).

VI.5. Quelques exemples 107

Remarque VI.4.1. Nous pouvons faire les observations suivantes.

I Si on pose λ1 = · · · = λp−n = 0, alors on trouve une solution particuli`ere du syst`eme.

I Si on pose b= 0, c’est-`a-dire si on consid`ere le syst`eme homog`ene associ´e, on voit que les solutions de ce dernier syst`eme sont les combinaisons lin´eaires dep−rg(A) vecteurs lin´eairement ind´epen-dants3.

I On retrouve (cf. proposition VI.3.1) le fait que les solutions d’un syst`eme lin´eaire compatible s’obtiennent en ajoutant `a une solution particuli`ere les solutions du syst`eme homog`ene associ´e.

Consid´erons, pour conclure, le cas des syst`emes de Cramer.

efinition VI.4.2. Un syst`eme (S) : Ax=b d’´equations lin´eaires est dit de Cramer, siA est une matrice carr´ee inversible.

En vertu de la proposition VI.2.3, si (S) est de Cramer, il poss`ede l’unique solution x=A1b.

Il vient,

xj = (A−1b)j = 1 detA

cof(A)b^

j

Or, on a

(cof(A)b)^ j = Xp k=1

cof(A)^

jkbk= Xp k=1

cofkj(A)bk.

En se rappelant le lemme V.2.11, on obtient cof(A)kj en rempla¸cant la j-i`eme colonne de A parek. Ainsi,

xj = 1 detA

Xp k=1

bkdet C1 · · · ek · · · Cp

= det C1 · · · b · · · Cp detA

o`u on a utilis´e la multilin´earit´e du d´eterminant par rapport aux colonnes.

En r´esum´e, xj est le quotient du d´eterminant de la matriceAdu syst`eme o`u on a remplac´e la j-i`eme colonne par le second membreb, par le d´eterminant de A. Ces formules sont appel´ees les formules de G. Cramer.

5. Quelques exemples Exemple VI.5.1. Consid´erons le syst`eme homog`ene



x+ 2y+z= 0 x−y+ 2z= 0 3y−z= 0

3Les solutions du syst`eme homog`eneAx= 0 `apinconnues est un sous-espace vectoriel de dimension prg(A). En effet, il s’agit de l’enveloppe lin´eaire deprg(A) vecteurs lin´eairement ind´ependants.

108 Chapitre VI. Syst`emes d’´equations

Il est facile de voir que ce syst`eme est de rang 2, on peut donc conserver deux lignes lin´eairement ind´ependantes et obtenir un syst`eme ´equivalent.

Sous forme vectorielle, on a 1 2

Exemple VI.5.2. Reprenons le syst`eme de l’exemple VI.3.5.

x+y−2z= 1 solution du syst`eme. Ainsi, pour obtenir une expression semblable `a (7), on

´ecrit la forme g´en´erale d’une solution du syst`eme comme

 sys-t`eme et que l’ensemble des solutions du syssys-t`eme homog`ene associ´e est ex-actement

Enfin, il est normal d’avoir la pr´esence d’un unique param`etre λ puisque nous avons 3 inconnues et le rang du syst`eme vaut 2 (i.e., 3−2 = 1).

Exemple VI.5.3. Voici un autre exemple du mˆeme type que le pr´ec´edent, mais r´eduit cette fois `a une seule ´equation,

x+y−2z= 1.

VI.5. Quelques exemples 109

Comme en (7), la forme g´en´erale d’une solution du syst`eme est directement

Ici, une solution particuli`ere du syst`eme est donn´ee par (x, y, z) = (1,0,0) et l’ensemble des solutions du syst`eme homog`ene associ´e est exactement

i

Exemple VI.5.4. Voici `a pr´esent un exemple emprunt´e `a la g´eom´etrie analytique.

On consid`ere un espace affin euclidien muni d’un rep`ere orthonorm´e d’axes Ox et Oy. Soit A, un point n’appartenant ni `a Ox ni `a Oy. On m`ene par ce point une droite variable Dqui coupeOx enB. On d´esigne par P le point de Oy dont l’ordonn´ee est ´egale `a l’abscisse de B. Rechercher le lieu de la projection orthogonale de P sur la droite D.

A

Figure VI.1. Un lieu g´eom´etrique.

Les points A, B et P ont pour coordonn´ees respectives (a1, a2), (λ,0) et (0, λ), avecλparam`etre r´eel. Les g´en´eratrices du lieu ont pour ´equations respectives

−a2(x−λ)−y(λ−a1) = 0 et

x(λ−a1)−a2(y−λ) = 0.

Un point M de coordonn´ees (x, y) appartient au lieu si et seulement si il existe λ∈Rtel que le syst`eme

(a2−y)λ=a2x−a1y (x+a2)λ=a1x+a2y

poss`ede une solution. L’´elimination de λ revient `a ´etudier la compatibi-lit´e du syst`eme (en l’inconnue λ). Par la proposition VI.3.3, le syst`eme est

110 Chapitre VI. Syst`emes d’´equations

compatible si et seulement si rg

Premier cas : le rang de la matrice du syst`eme est nul. Ceci a lieu si y =a2 et x=−a2. Le syst`eme est donc compatible si

Second cas : le rang de la matrice du syst`eme vaut 1. La compatibilit´e du syst`eme revient `a ce que la matrice augment´ee

a2−y a2x−a1y x+a2 a1x+a2y

soit de rang 1 donc `a ce que son d´eterminant soit nul. En annulant ce d´eterminant, on trouve

Le point (−a2, a2) v´erifie n´ecessairement cette ´equation. On en conclut que le lieu recherch´e est un cercle de centre (a12a2,a1+a2 2) et de rayon

2 2

pa21+a22 priv´e du point (−a2, a2).

RemarqueVI.5.5. Cet exemple nous montre que la discussion sur le rang du syst`eme permet une d´etection facile des parties parasites du lieu.

Exemple VI.5.6. Voici `a pr´esent un syst`eme lin´eaire pr´esentant une dis-cussion compl`ete en fonction du rang (a et b sont deux param`etres com-plexes)

Sous forme matricielle, ce syst`eme se r´e´ecrit

AX =B avecA=

La matriceAa 3 colonnes. Son rang est au plus 3. Le syst`eme est compatible si et seulement si rgA = rg(A|B). En particulier, si la matrice (A|B) est de rang maximal ´egal `a 4, c’est-`a-dire si det(A|B)6= 0, alors le syst`eme est incompatible. Si on calcule ce d´eterminant, on trouve

det(A|B) =−a2(a+ib).

VI.5. Quelques exemples 111

Donc, si a6= 0 et a6=−ib, le syst`eme est incompatible. (Cas I) Dans les autres cas, c’est-`a-dire si a = 0 ou a = −ib, le rang de (A|B)

est inf´erieur ou ´egal `a 3. (Cas II)

La sous-matrice constitu´ee des quatre coins de A est de d´eterminant non nul. La matrice A est au moins de rang 2. Elle est exactement de rang 2 si et seulement si les deux matrices qui bordent

1 i 0 1

dans A sont nuls.

Ces deux sous-matrices ont pour d´eterminant 1 0 i

et le syst`eme est compatible. De plus, le nombre d’inconnues moins le rang du syst`eme donne 3-2=1 param`etre dans l’expression des solutions. Le sys-t`eme admet une infinit´e simple de solutions.

Si a=−1 etb=−i, alors (Cas II.ii) le syst`eme admet une solution unique. (Cas II.iii) Ce cas se pr´esente si et seulement si rg(A|B) = rg(A) = 3, c’est-`a-dire si

(a= 0 oua=−ib) et (a, b)6= (0,0) et (a, b)6= (−1,−i) ou encore si

(a= 0 et b6= 0) ou (a=−ibet b6= 0 et b6=−i).

En conclusion, le syst`eme

112 Chapitre VI. Syst`emes d’´equations

I est incompatible si (a6= 0 et a6=−ib) ou (a=−1 etb=−i),

I admet une solution unique si (a= 0 et b 6= 0) ou (a= −ibet b 6= 0 et b6=−i),

I admet une infinit´e simple de solutions sia=b= 0.

6. Compl´ement : Algorithme de Gauss-Jordan

Les m´ethodes de r´esolution de syst`emes lin´eaires d´evelopp´ees jusqu’`a pr´esent ont des avantages certains au point de vue de l’´elimination d’´eventuels param`etres et des discussions th´eoriques. Cependant, si l’on d´esire r´esoudre un syst`eme de mani`ere efficace (en particulier, au moyen d’un ordinateur), on a le plus souvent recours `a d’autres m´ethodes comme celle d´ecrite ci-dessous.

Soit un syst`eme (S) den´equations `ap inconnues,





a11x1 + a12x2 + · · · + a1pxp = b1

... ... ...

an1x1 + an2x2 + · · · + anpxp = bn .

Notons parLi lai-`eme ligne ai1 · · · aip bi

de la matrice augment´ee du syst`eme. Par les r´esultats ´enonc´es dans les sections pr´ec´edentes, il est clair que les op´erations ´el´ementairessuivantes transforment le syst`eme (S) en un syst`eme ´equivalent :

I multiplier une ligne par un scalaire non nul : Li ←λLi, λ∈K\ {0},

I ajouter `a une ligne une combinaison lin´eaire d’autres lignes : Li←Li+λLj, λ∈K, i6=j,

I permuter deux lignes :

Li ↔Lj, i6=j.

Proposition VI.6.1 (Phase d’´elimination). Par des op´erations ´el´emen-taires sur les lignes, le syst`eme (S) peut ˆetre transform´e en un syst`eme

´equivalent de la forme

























xµ1 + α2xµ2 + · · · + αkxµk + · · · + αpxµp = β1 xµ2 + · · · + αkxµk + · · · + αpxµp = β2

. .. ...

xµk + · · · + αpxµp = βk 0 = βk+1

... 0 = βn

.

o`uµ est une permutation de {1, . . . , p} et k est le rang du syst`eme.

VI.6. Compl´ement : Algorithme de Gauss-Jordan 113

emonstration. On proc`ede par r´ecurrence sur p, le nombre d’inconnues du syst`eme. Si la matrice du syst`eme est nulle, il n’y a rien `a d´emontrer.

Sinon, choisissons une variable qui intervient avec un coefficient non nul dans une des ´equations du syst`eme. Quitte `a permuter les lignes du syst`eme et les inconnues, on peut supposer que a11 6= 0. On transforme le syst`eme en effectuant les transformations ´el´ementaires

L1 ← 1 a11

L1 et pour i6= 1,

Li ←Li− ai1 a11

L1.

L’´el´ementa11est appel´epivot. On obtient alors un syst`eme ´equivalent ayant la forme 









x1 + a012x2 + · · · + a01pxp = b01 a022x2 + · · · + a01pxp = b02

... ... ...

a0n2x2 + · · · + a0npxp = b0n .

Le syst`eme priv´e de la premi`ere ligne poss`eden−1 inconnues. On peut donc lui appliquer l’hypoth`ese de r´ecurrence et obtenir un syst`eme ´equivalent du type prescrit.

Proposition VI.6.2 (Phase de substitution). Par des op´erations ´el´emen-taires sur les lignes, un syst`eme de la forme









x1 + a12x2 + · · · + a1kxk + · · · + a1pxp = b1 x2 + · · · + a2kxk + · · · + a2pxp = b2

. .. ...

xk + · · · + akpxp = bk peut ˆetre transform´e en un syst`eme ´equivalent du type









x1 + α1k+1xk+1 + · · · + α1pxp = β1 x2 + α2k+1xk+1 + · · · + α2pxp = β2

...

xk + αkk+1xk+1 + · · · + αkpxp = βk .

emonstration. Pour j = 1, . . . , k −1, on effectue la transformation

´el´ementaire

Lj ←Lj−ajkLk

pour annuler le coefficient de xk dans lesk−1 premi`eres ´equations.

Pour j= 1, . . . , k−2, on effectue la transformation ´el´ementaire Lj ←Lj−ajk1Lk1

pour annuler le coefficient de xk1 dans les k−2 premi`eres ´equations. On continue de cette mani`ere jusqu’`a obtenir la forme indiqu´ee.

114 Chapitre VI. Syst`emes d’´equations

En effectuant la phase d’´elimination, suivie de la phase de substitution, le syst`eme (S) de d´epart peut se mettre sous la forme

 syst`eme poss`ede alors une infinit´e de solutions4. Pour tout choix de valeurs pour

On retrouve les r´esultats donn´es `a la section 4 de ce chapitre concernant la structure des solutions d’un syst`eme d’´equations lin´eaires.

Exemple VI.6.3. Voici trois exemples de syst`emes r´esolus par la m´ethode de Gauss-Jordan. 

Pour terminer la phase d’´elimination, L313L3 donne



4Bien ´evidemment, il faut queKsoit infini.

VI.6. Compl´ement : Algorithme de Gauss-Jordan 115

En substituant, on trouve z= 2

3, y= 1

3, x= 1 3.

Le syst`eme poss`ede une unique solution (syst`eme d´etermin´e).

Consid´erons `a pr´esent le syst`eme



3x + 2y − z = 1

x + y − z = 0

4x + 3y − 2z = 1

.

La phase d’´elimination donne d’abord



x + 23y − 13z = 13

1

3y − 23z = −13

1

3y − 23z = −13 ,

puis 

x + 23y − 13z = 13 y − 2z = −1

0 = 0

.

Ainsi, z peut prendre n’importe quelle valeur et pour chacune d’elles, on a x = 1−z

y = −1 + 2z .

On est dans le cas d’un syst`eme ind´etermin´e (le syst`eme est de rang 2 et on a trois inconnues).

Enfin, consid´erons le syst`eme



3x + 2y − z = 1

x + y − z = 0

4x + 3y − 2z = 2

.

La seule diff´erence avec l’exemple pr´ec´edent est le second membre de la troisi`eme ´equation. La phase d’´elimination donne



x + 23y − 13z = 13 y − 2z = −1

0 = 1

.

On s’aper¸coit donc que le syst`eme est incompatible.

Remarque VI.6.4. On peut aussi utiliser l’algorithme de Gauss-Jordan pour rechercher l’´eventuel inverse d’une matrice carr´ee. En effet, si A est une matrice carr´ee inversible de dimensionn et X l’inverse deA, alors

AX =I.

Si X1, . . . , Xn sont les colonnes de X, l’´equation matricielle pr´ec´edente est

´equivalente aux n´equations

AXi =ei, i= 1, . . . , n.

116 Chapitre VI. Syst`emes d’´equations

RechercherX revient donc `a r´esoudrensyst`emes d’´equations lin´eaires ayant mˆeme matrice A. Dans l’algorithme de Gauss-Jordan, seuls les coefficients de A jouent un rˆole dans la phase d’´elimination. On peut donc r´esoudre les n syst`emes en parall`ele.

Exemple VI.6.5. Soit la matrice A=

1 2 1 1 0 1 2 1 3

Effectuons les phases d’´elimination en parall`ele. On a tout d’abord 1 2 1 1 0 0

1 0 1 0 1 0 2 1 3 0 0 1 ,

et si L2 ←L2−L1, L3 ←L3−2L1,

1 2 1 1 0 0

0 −2 0 −1 1 0 0 −3 1 −2 0 1 .

Enfin, si L2 ← −12L2, L3 ←L332L2,

1 2 1 1 0 0

0 1 0 1212 0 0 0 1 −1232 1 .

Pour la phase de substitution, si on s’int´eresse `a la premi`ere colonne, on trouve x31=−12,x21= 12 et x11= 12. Pour la deuxi`eme colonne,x32=−32, x22=−12 et x12= 52 et enfin, avec la troisi`eme colonne, x33= 1,x23= 0 et x13=−1. Donc

A1 =

1

2 5

2 −1

1

212 0

1232 1

.

7. Impl´ementation de l’algorithme de Gauss-Jordan

Nous donnons dans ce compl´ement5, deux impl´ementations de la

Nous donnons dans ce compl´ement5, deux impl´ementations de la

Dans le document Alg` ebre lin´ eaire (Page 111-131)

Documents relatifs