• Aucun résultat trouvé

Systèmes linéaires

N/A
N/A
Protected

Academic year: 2022

Partager "Systèmes linéaires"

Copied!
17
0
0

Texte intégral

(1)

Systèmes linéaires

1. Equations linéaires.

2. Systèmes linéaires.

3. Résolution par déterminants.

4. Résolution par méthode de pivot.

5. Résolution par réduction.

6. Conditionnement d’un système linéaire.

7. Méthodes itératives de résolution.

A mon père Pierre-Jean Hormière __________

Introduction

Dans tout ce chapitre, nous nous plaçons une fois pour toutes dans un corps commutatif K. Nous noterons M(n, p) l’espace des matrices à n lignes et p colonnes à coefficients dans K. Il y a deux grandes classes de méthodes de résolution de systèmes linéaires : les méthodes de résolution exactes, et les méthodes approchées.

Les méthodes de résolution par déterminants sont impeccables pour l’algébriste féru de formules exactes, mais désastreuses en pratique, le nombre d’opérations qu’elles nécessitent étant prohibitif.

Aussi leur préfère-t-on les méthodes de pivot, qui remontent à l’antiquité chinoise. Les algorithmes de pivot, dans leurs multiples variantes, fonctionnent parfaitement dans les corps finis Fp et Fq, le corps Q des rationnels et ses extensions de dimension finie.

Dès qu’on se place dans R ou C, des erreurs d’arrondis sont à prévoir, qui entraînent des conséquences plus ou moins graves, surtout pour des systèmes de grandes tailles ou « mal conditionnés » (c’est-à-dire instables numériquement). On leur préfère alors des méthodes de résolution approchées, qui ne prétendent pas donner la solution, mais une solution voisine, obtenue par itérations, l’erreur étant contrôlée.

La théorie développée dans ce chapitre admet des prolongements dans trois directions bien différentes : les méthodes de moindres carrés 1, les systèmes d’inéquations linéaires, point de départ de la programmation linéaire et de l’étude des polyèdres 2, les systèmes d’équations linéaires à coefficients et inconnues dans Z 3 ou dans un anneau commutatif.

1. Equations linéaires.

Définition : Soient E et F deux K-espaces vectoriels, u une application linéaire de E dans F.

On appelle équation linéaire une équation de la forme u(x) = b (1)

où b est un vecteur de F, l’inconnue x étant un vecteur de E. b est appelé second membre.

Si b = 0, l’équation (1) est dite homogène ou « sans second membre ».

L’équation u(x) = 0 (2) est appelée équation homogène associée à (1).

Résolution de l’équation (1).

• Si b ∉ Im u, l’équation (1) est sans solution.

1 cf. chapitre sur les espaces euclidiens.

2 dont le point de départ est le théorème de projection convexe, cf. chapitre sur les espaces préhilbertiens.

3 cf. chapitre sur les systèmes linéaires diophantiens.

(2)

• Si b ∈ Im u, l’équation (1) a au moins une solution x0. Les autres solutions sont de la forme x0 + y, où y décrit Ker u. En effet, u(x) = b ⇔ u(x − x0) = 0 ⇔ x − x0∈ Ker u.

Proposition 1 : La solution générale de (1) est la somme d’une solution particulière et de la solution générale de l’équation homogène associée.

Autrement dit, S = { x ∈ E ; u(x) = b } est un sous-espace affine de E de direction vectorielle Ker u.

Ainsi, la résolution complète de l’équation (1) se ramène à deux problèmes : la résolution de l’équation (2), c’est-à-dire la recherche du noyau de u, et la recherche d’une solution particulière.

Recherche d’une solution particulière de (1).

1) Si l’on se donne un supplémentaire E1 de Ker u dans E, on sait que, lorsque b appartient à Im u, l’équation u(x) = b a une unique solution x0 appartenant à E1. Cette solution dépend linéairement de b : x0 = v(b), où v est une application linéaire de Im u dans E., à savoir v = ( Im()

1

u

uE )1. Nous reviendrons sur ce sujet dans le problème final.

2) Lorsque b se présente sous la forme d’une combinaison linéaire de vecteurs b =

= p

i i i b

1

λ. , si, pour tout i, on connaît une solution particulière xi de l’équation u(x) = bi, alors x =

= p

i i ix

1

λ. est solution particulière de u(x) = b. C’est ce qu’on appelle le « principe de superposition ».

Ce principe de superposition peut être étendu au cas où b est somme d’une série.

Exemple 1 : la division vectorielle.

Soient E un espace euclidien orienté de dimension 3,

ω

un vecteur non nul, a un vecteur quelconque.

Cherchons à résoudre l’équation

ω

∧∧∧∧ x = a (1).

Il s’agit d’une équation linéaire f(x) = a, où f est l’endomorphisme x

ω

∧∧∧∧ x de E.

Le noyau de f est la droite vectorielle D = R.

ω

. L’image de f est incluse dans le plan P = D perpendiculaire à D ; en vertu du théorème du rang, elle est égale à ce plan. D’où la discussion : • Si

ω

.x ≠ 0, l’équation (1) est sans solution.

• Si

ω

.x = 0, l’équation (1) a pour solutions les vecteurs d’une droite affine de E.

Il est loisible de chercher celle des solutions qui appartient à P, supplémentaire du noyau.

x est orthogonal à

ω

et à a, donc colinéaire à

ω

∧∧∧∧ a : x = α(

ω

∧∧∧∧ a ). Reportant dans (1) et utilisant la formule du double produit vectoriel, il vient : α.

ω

∧∧∧∧ (

ω

∧∧∧∧ a) = α.

[

(

ω

.a).

ω

− (

ω

.

ω

).a

]

= − α.(

ω

.

ω

).a , d’où : x =

² 1

ω (

ω

∧∧∧∧ a) Les solutions de (1) sont donc : x =

² 1

ω

(

ω

∧∧∧∧ a) + λ.

ω

.

Exemple 2 : interpolation de Lagrange.

Soient a0, …, an n + 1 éléments distincts de K.

Cherchons les polynômes P ∈ K[X] tels que P(a0) = b0 , …, P(an) = bn .

L’application u : P ∈ K[X] ( P(a0), P(a1), …, P(an) ) ∈ Kn+1 étant linéaire, il s’agit de résoudre l’équation linéaire u(P) = ( b0, b1, …, bn ) .

Le noyau de u est formé des polynômes de la forme A(X).(X − a0) … (X − an), où A(X) décrit K[X].

En vertu du théorème de division euclidienne, Kn[X] est un supplémentaire de ce noyau.

(3)

Du coup, u induit un isomorphisme de Kn[X] sur Im u. Par suite, Im u = Kn+1, et u est surjective.

Il en résulte que, pour tout (b0, …, bn) ∈ Kn+1, il existe un unique polynôme P ∈ Kn[X] tel que (∀i) P(ai) = bi .

Les autres sont de la forme A(X).(X − a0) … (X − an), où A(X) décrit K[X].

Pour trouver le polynôme d’interpolation P ∈ Kn[X], il suffit de faire fonctionner le principe de super-position, et de chercher d’abord le polynôme Li ∈ Kn[X] tel que u(Li) = (0, …, 0, 1, 0, …, 0).

On trouve aussitôt Li(X) =

jiaXiaajj, d’où P(X) =

= n

i i

i L X

b

1

) (

. .

Exemple 3 : équations du second degré.

Soit K un corps commutatif. Une équation du second degré a.x2 + b.x + c = 0 n’est pas une équation linéaire, sauf dans un cas : si le corps K est de caractéristique 2, car alors K peut être muni d’une structure de F2-espace vectoriel, et les applications σ : x → x2 et u : x → a.x2 + b.x sont des endomorphismes de K. Cette remarque serait anecdotique si le 0-1 n’avait envahi le monde…

Exemple 4 : suites récurrentes linéaires.

Soit (un) la suite de Fibonacci, définie par : u0 = 0 , u1 = 1 , un+2 = un+1 + un .

On définit la suite (xn) par : x0 = 0 , x1 = 1 et xn+2 = xn+1 + xn + un . Calculer xn .

Notons E = FFFF(N, R) l’espace des suites numériques, et T l’opérateur de décalage : (un) → (un+1) u = (un) appartient à Ker( T2− T − I ), et x = (xn) vérifie Ker( T2− T − I )(x) = u, et a fortiori : ( T2 − T − I )2(x) = 0 .

La donnée de x0= 0 , x1 = 1 , x2 = 1 et x3= 3 permet de calculer (xn) via le th. des noyaux.

Exemple 5 : équations différentielles linéaires.

Beaucoup d’équations différentielles ou aux dérivées partielles sont linéaires. Donnons-en un exemple classique. Soient I un intervalle de R, a, b et c trois fonctions numériques continues sur I.

Considérons l’équation différentielle y’’ + a(x).y’ + b(x).y = c(x) (1) Ses solutions sont de classe C2(I, R). L’équation (1) s’écrit u(y) = c (2) où u est l’application linéaire y → y’’ + a(x).y’ + b(x).y de C2(I, R) dans C0(I, R).

Du coup, la solution générale de (1) est la somme d’une solution particulière et de la solution générale de l’équation homogène associée y’’ + a(x).y’ + b(x).y = 0 (3)

Le théorème de Cauchy linéaire affirme que, pour tout triplet (x0, y0, y’0) ∈ I×R×R, il existe une unique solution de (1) telle que y(x0) = y0 et y’(x0 ) = y’0 .

Il en résulte que l’ensemble H des solutions de (3) est un plan vectoriel inclus dans C2(I, R).

En effet, soit x0 ∈ I. L’application ϕ(x0) : y ∈ H → (y(x0), y’(x0)) ∈ R×R est linéaire, et bijective en vertu du théorème 1 ; c’est donc un isomorphisme.

Une base (y1, y2) de H s’appelle un système fondamental de solutions de (3).

Il en résulte que l’application linéaire u : y → y’’ + a(x).y’ + b(x).y de C2(I, R) dans C0(I, R) est surjective, et que les solutions de (1) forment un sous-espace affine de C2(I, R) de direction H = Ker(u). Un supplémentaire de H est le sous-espace de codimension 2 de C2(I, R) formé des y telles que y(x0) = y’(x0) = 0.

N.B. : Il n’y a pas de méthode générale d’intégration de (3), autrement dit on ne sait pas obtenir concrètement un système fondamental de solutions de (3). Cependant, si l’on connaît un système

(4)

fondamental (y1, y2) de solutions de (3), on peut résoudre l’équation (1) par la méthode de variation des constantes : voir chapitre sur les équations différentielles.

Exemples : la méthode précédente permet d’établir que : • l’équation y’’ −ω2 y = f(x) (ω > 0) a pour solutions : y(x) =

ω

1

xx f t sh xt dt

0

)).

( ( ).

( ω + A.ch(ωx) + B.sh(ωx)

• l’équation y’’ + ω2 y = f(x) (ω > 0) a pour solutions : y(x) =

ω

1

xx f t xt dt

0

)).

( sin ).

( ω + A.cos(ωx) + B.sin(ωx)

• l’équation y’’ = f(x) a pour solutions y(x) =

xx xt f t dt

0

).

( ).

( + A.x + B.

z(x) =

xx xt f t dt

0

).

( ).

( est la solution de y’’ = f(x) telle que z(x0) = z’(x0) = 0.

Exercice : 1) Résoudre l’équation différentielle y’’ + y = cos(nt).

2) Soit

+∞

=0 n

an une série absolument convergente. Résoudre l’équation y’’ + y = .cos( )

0

nt a

n

+∞ n

=

. Problème : Soient E et F deux K-espaces vectoriels, u ∈ LLLL(E, F).

L’application v ∈ LLLL(F, E) est appelée inverse généralisée, ou g-inverse de u si u.v.u = u 1) Dans cette question, on suppose que u admet une g-inverse v , et l’on note p = v.u et q = u.v.

a) Calculer p2, q2 . Montrer que Im q = Im u, Ker p = Ker u . Conséquences ?

b) Pour tout supplémentaire E1 de Ker u dans E, on note u|E1 l’isomorphisme de E1 sur Im u, induit par u. Montrer qu’il existe un supplémentaire E1 de Ker u dans E, tel que v prolonge (u|E1)1. 2) Montrer que u admet au moins une g-inverse.

3) Déduire de ce qui précède que si b ∈ Im u, les solutions de l’équation u(x) = b sont de la forme x = v(b) + ( IdE− v.u )(y) , où v est une g-inverse de u et y décrit E.

4) Exemples :

a) Lorsque u est injective, montrer que les g-inverses sont les inverses à gauche.

b) Lorsque u est surjective, ce sont ses inverses à droite.

c) Lorsque u est bijective, que dire de v ?

2. Systèmes linéaires.

2.1. Définition, généralités.

Définition : Un système linéaire de n équations à p inconnues est un système d’équations de la forme :  a11.x1 + ... + a1p.xp = b1

(S)  . . .  an1.x1 + ... + anp.xp = bn

où les scalaires aij et bi sont donnés, et les inconnues sont x1, x2, …, xp. On appelle système homogène associé :

 a11.x1 + ... + a1p.xp = 0 (S0)  . . .

 an1.x1 + ... + anp.xp = 0 Donnons diverses interprétations de (S) :

(5)

1) Interprétation matricielle.

(S) s’écrit A.x = b, où A =





n np p

a a

a a

...

...

...

...

...

1 1

11 ∈ M(n, p), x =





xp

x

...1 M(p, 1) et b =





bn

b

...1 M(n, 1).

2) Interprétation linéaire.

Soit u l’application linéaire de E =Kp dans F = Kn de matrice A dans les bases canoniques.

(S) s’écrit alors u(x) = b, où x =





xp

x

...1 ∈ E et b =





bn

b

...1 ∈ F.

3) Interprétation vectorielle.

Si l’on note c , 1 …,cp les colonnes de A dans F, il s’agit de chercher les (x1, …, xp) ∈ Kp tels que : x1.c + 1 …+ xp.cp = b.

4) Interprétation duale.

Si l’on note l1* , …, ln* les lignes de A, considérées comme formes linéaires sur E, il s’agit de chercher les vecteurs x ∈ M(p, 1) = Kp = F tels que < l1*, x > = b1 , …, < ln*, x > = bn .

Définitions : A est appelée matrice du système (S). On appelle rang du système le rang de sa matrice. On appelle matrice bordée du système (S) la matrice Aˆ = (A | b).

Le rang de (S) est aussi le rang de l’application linéaire u, le rang de la famille (c1 , …,cp) des colonnes de A, et celui de la famille (l1* , …, ln* ) des lignes de A.

Remarque : (S) s’écrit aussi : Aˆ. = 0 , où = t(x1 , … , xp , −1).

2.2. Résultats relatifs à un second membre quelconque.

Proposition 1 : structure de l’ensemble des solutions de (S).

i) L’ensemble des solutions de (S0) est un sev de E = Kp de dimension p−r.

ii) L’ensemble des solutions de (S) est ∅ ou est un sous-espace affine de E = Kp de dimension p−r.

Proposition 2 : existence de solutions quel que soit le second membre.

Les propriétés suivantes sont équivalentes :

i) Pour tout (b1, …, bn) ∈ Kn , (S) admet au moins une solution ; ii) L’application u : E → F est surjective ;

iii) Les colonnes (c1, …,cp ) de A engendrent F = Kn ;

iv) Les lignes (l1* , …, ln*) de A sont linéairement indépendantes dans E* ; v) r = n ≤ p.

Proposition 3 : unicité de la solution quel que soit le second membre.

Les propriétés suivantes sont équivalentes :

i) Pour tout (b1, …, bn) ∈ Kn , (S) admet au plus une solution ; ii) L’application u : E → F est injective ;

iii) Les colonnes (c1, …, cp ) de A sont linéairement indépendantes dans F = Kn ; iv) Les lignes (l1*, …, ln*) de A engendrent linéairement E* ;

v) r = p ≤ n.

Proposition 4 : existence et unicité de la solution. Les propriétés suivantes sont équivalentes :

(6)

i) Pour tout, (S) admet une solution unique ; ii) L’application u : E → F est un isomorphisme ;

iii) Les colonnes (c1, …,cp ) de A forment une base de F = Kn ; iv) Les lignes (l1* , …, ln*) de A forment une base de E* ; v) La matrice A est carrée et inversible ;

vi) r = n = p.

Le système (S) est alors dit de Cramer.

2.3. Résultats relatifs à un second membre donné.

Théorème 5 : existence de solutions de (S) à second membre donné. On a l’équivalence : i) (S) admet au moins une solution ;

ii) b∈ Im u = Vect (c1 , …,cp ) ;

iii) La matrice A et la matrice bordée Aˆ = (A | b) ont même rang ;

iv) Toute relation linéaire entre les formes linéaires l1* , …, ln* est aussi satisfaite par b1, …, bn : ∀(λ1, …, λn) ∈ Kn λ1.l1* + … + λn.ln* = 0 ⇒λ1.b1 + … + λn.bn = 0.

Théorème 6 (Rouché-Fontené). Soit (S) un système linéaire à n équations et p inconnues, de rang r.

a) Si r = n = p, il y a existence et unicité de la solution.

b) Si r = n < p, il y a existence et non unicité des solutions ; celles-ci forment un sous-espace affine de dimension p−r de E = Kp .

c) Si r < n, il y a existence d’une solution sous les conditions du théorème 5.

Lorsqu’il y a existence : i) si r = p, il y a unicité

ii) si r < p, les solutions forment un sous-espace affine de dimension p−r de E = Kp. 3. Résolution par déterminants.

3.1. Résolution d’un système linéaire : formules de Cramer.

Théorème : Un système de Cramer a une unique solution, donnée par les formules de Cramer 4 : xi =

A det

1 det( c

1, ... , ci1 , b , ci+1, ... , cn) où cj désigne la j-ème colonne de A et b le vecteur du second membre.

Preuve : L’existence et l’unicité de la solution vient de l’inversibilité de A : Ax = b ⇔ x = A1.b.

Pour vérifier les formules de Cramer, il suffit de développer par multilinéarité : det(c1, ... , ci−1, b , ci+1, ... , cn) = det(c1, ... , ci−1 ,

= n

k

xk 1

.ck , ci+1, ... , cn) =

= n

k

xk 1

.det(c1, ... , ci−1 , ck , ci+1, ... , cn)

= xi.det(c1, ... , ci−1 , ci , ci+1, ... , cn) = xi.det A . Mais l’on peut aussi partir de x = A1.b et utiliser l’expression de A1à l’aide des cofacteurs.

4 Gabriel CRAMER (Genève, 1704 – Bagnols-sur-Cèze, 1752) fut professeur de mathématiques et de philosophie à l’université de Genève. Dans son Introduction à l'analyse des lignes courbes algébriques (1750), il introduit la notion de déterminant en cherchant une courbe plane passant par des points donnés. Il montre également qu’une courbe plane de degré n est en général déterminée par la donnée de n(n+3)/2 points.

(7)

3.2. Résolution d’un système linéaire : caractéristiques.

Considérons maintenant un système linéaire général de n équations à p inconnues :  a11.x1 + ... + a1p.xp = b1

(S)  . . .  an1.x1 + ... + anp.xp = bn

Introduisons les matrices A = (aij) ∈ M(n, p) et  = (A | b) ∈ M(n, p+1) (matrice bordée).

Appelons sous-matrice principale de A toute matrice inversible d’ordre r extraite. Il peut y avoir plusieurs sous-matrices principales, mais, une fois choisie l’une d’elles, les lignes, les colonnes, et les inconnues correspondantes, sont dites principales ; les autres sont dites auxiliaires. Insistons sur le fait qu’une colonne, une ligne, une inconnue ne sont pas principales en soi, mais seulement une fois opéré ce choix.

À permutation près des équations et des inconnues, on peut supposer P = (aij)1i,jr inversible ; prenons-là pour sous-matrice principale. On appelle déterminants caractéristiques les n−r déter- minants extraits de Â, obtenus en bordant P par une colonne extraite de b :

∆s =

s s sr

r r rr

r

b a a

b a a

b a a

...

...

...

...

...

...

...

1 1

1 1 11

( r+1 ≤ s ≤ n ) .

Théorème de Rouché-Fontené :

1) Si l’un au moins des caractéristiques ∆s est non nul, le système (S) est impossible.

2) Si tous les caractéristiques ∆s sont nuls, le système a au moins une solution ; pour le résoudre, on supprime les équations r+1 à n, qui sont redondantes, on utilise les inconnues auxiliaires xr+1, ... , xp comme paramètres, et l’on résout le système cramérien d’inconnues x1 , ... , xp formé des r premières équations :

a11.x1 + ... + a1r.xr = b1− a1,r+1.xr+1 − ... − a1p.xp (S')  . . .

ar1.x1 + ... + arr.xr = br ar,r+1.xr+1 ... arp.xp On obtient un sous-espace affine de dimension p − r de Kp.

Preuve : La matrice bordée  est de rang r ou r+1, selon que b est, ou n’est pas, combinaison linéaire des colonnes de A, i.e. selon que (S) a, ou n’a pas, de solution.

• Si l’un des caractéristiques est ≠ 0, Â est de rang r+1, et le système est impossible.

• Si tous les caractéristiques sont nuls,  est de rang r, car tous les déterminants bordants de P sont nuls (ceux qui sont extraits de A sont déjà nuls par hypothèse). Les lignes r+1 à n de  sont combinaisons linéaires des lignes 1 à r, ce qui signifie que les équations r+1 à n sont redondantes : on peut donc les supprimer. Le système (S) équivaut donc au système (S'), qui est visiblement cramérien en les inconnues principales.

Exemple 1 : Considérons un système de p+1 équations à p inconnues, de rang p :  a11.x1 + ... + a1p.xp = b1

(S)  . . .  ap+1,1.x1 + ... + ap+1,p.xp = bp+1

Le système a une solution ssi

1 , 1 1

, 1

2 2 12

1 1 11

...

...

...

...

...

...

. ...

+ +

+ p p p

p

p p

b a a

b a a

b a a

= 0 ; elle est unique.

(8)

Exemple 2 : Considérons un système de n1 équations à n inconnues, de rang n−1 :  a11.x1 + ... + a1n.xn = 0

(S)  . . .  an-1,1.x1 + ... + an-1,n.xn = 0

Géométriquement, c’est l’intersection de n−1 hyperplans “indépendants”, i.e. une droite vectorielle.

On montrera que cette droite est engendrée par le vecteur (A1, A2, …, An), où Ai est le cofacteur de αi dans la matrice

i n

n n i n n

n i

a a

a

a a

a

α α

α

...... ......

...

...

...

...

...

...

...

1

, 1 ,

1 1 , 1

1 1

11

.

4. Résolution par méthode de pivot.

4.1. La méthode d’échelonnement en lignes.

Traitons-la sur un exemple. Considérons le système linéaire à coefficients dans le corps Q :  0.x1 + 0.x2 + 0.x3 + 0.x4 + 0.x5 + 0.x6 = b1

 2.x2 + 4.x3 + 6.x4 + 2.x6 = b2 (S)  x2 + 2.x3 + 3.x4 + 3.x5 +

2 1.x

6 = b3  3.x2 + 6.x3 + 7.x4 + x5 + 2.x6 = b4  x2 + 2.x3 + 5.x4 + 3.x5 +

3 4.x

6 = b5

Il s’écrit A.x = b, où A =









3 / 4 3 5 2 1 0

2 1 7 6 3 0

2 / 1 3 3 2 1 0

2 0 6 4 2 0

0 0 0 0 0 0

, x =









6 5 4 3 2 1

x x x x x x

et b =









5 4 3 2 1

b b b b b

.

Nous avons vu dans le chapitre de Calcul matriciel, § 4.2. comment échelonner en ligne A :

La matrice inversible Q =









− − −

1 1 3 / 4 3 / 4 0

0 0 0 0 1

0 0 3 / 1 6 / 1 0

0 2 / 1 6 / 1 3 / 2 0

0 2 / 3 2 / 1 2 / 3 0

vérifie Q.A =









0 0 0 0 0 0

0 0 0 0 0 0

6 / 1 1 0 0 0 0

12 / 5 0 1 0 0 0

4 / 1 0 0 2 1 0

.

Le système A.x = b équivaut à Q.A.x = Q.b.

 x2 + 2.x3 − 4 1.x

6 = − 2 3.b

2− 2 1.b

3 + 2 3.b

4  x4 +

12 5 .x

6 = 3 2.b

2 + 6 1.b

3− 2 1.b

4

(S)  x5 − 6 1.x

6 = − 6 1.b

2 + 3 1.b

3

 0 = b1  0 = −

3 4.b

2− 3 4.b

3 + b4 + b5 Discussion : si b1≠ 0 ou −

3 4.b

2− 3 4.b

3 + b4 + b5 ≠ 0, système impossible.

Sinon, on prend x3 et x6 comme inconnues auxiliaires (ou paramètres), et alors :  x2 = −

2 3.b

2 − 2 1.b

3 + 2 3.b

4 − 2.x3 + 4 1.x

6

(9)

 x4 = 3 2.b

2 + 6 1.b

3− 2 1.b

4 − 12

5 .x

6

 x5 = −

6 1.b

2 + 3 1.b

3 + 6 1.x

6

Les solutions forment un plan affine.

L’image de A a pour équations b1 = 0 et − 3 4 b

2− 3 4 b

3 + b4 + b5 = 0 et pour base les trois vecteurs t (0, 1, 0, 0,

3

4) , t (0, 0, 1, 0, 3

4) et t (0, 0, 0, 1, −1) Le noyau de A a pour équations x2 = − 2 x3 +

4 1x

6 , x4 = − 12

5 x

6 , x5 = 6 1 x

6

et pour base les trois vecteurs t (1, 0, 0, 0, 0, 0) , t (0, −2, 1, 0, 0, 0) et t (0, 3, 0, −5, 2, 12).

La méthode précédente est tout à fait générale, mais dans R ou C des erreurs d’arrondi sont à prévoir, sujet partiellement abordé dans le § 6 (dans le cas des systèmes de Cramer).

4.2. Systèmes tridiagonaux.

On nomme ainsi les matrices carrées de la forme









n n

n n

a c

b a c

b a c

b a

1 1 1 2

2 2 1

1 1

0 ...

0 ...

...

...

0 ...

...

0

...

0 ...

0

.

Exercice : 1) Montrer que ces matrices forment un espace vectoriel.

2) Que dire du produit de deux matrices tridiagonales ?

3) On définit la suite (Dk)1≤k≤n , où D0 = 1, et Dk est le déterminant de la sous-matrice formée des k premières lignes et colonnes de A. Trouver une formule de récurrence entre les Dk.

On suppose les Dk tous non nuls. Montrer qu’en posant dk =

1 k

k

D

D et ek =

k k

d

c , on a :









n n

n n

a c

b a c

b a c

b a

1 1 1 2

2 2 1

1 1

0 ...

0 ...

...

...

0 ...

...

0

...

0 ...

0

=









1 0 ...

0

0 1 ...

...

...

0 ...

...

0

...

0 1

0 ...

0 0 1

1 2 1

en

e e

.









n n n

d b d b d b d

0 0 ...

0 ...

...

...

0 ...

...

0 0

...

0

0 ...

0

1 1 2 2 1 1

En déduire une méthode de résolution du système linéaire A.X = b.

Cas particulier où ak = 2, bk = ck = −1.

5. Résolution par réduction.

Bien que ce ne soit pas son principal objectif, la réduction des matrices permet de résoudre des systèmes linéaires à n équations et n inconnues. Qui peut le plus, peut le moins...

− Supposons A diagonalisable : P1.A.P = D = diag(λ1, ..., λr, 0 , ... , 0).

Le système A.X = B (1) s’écrit P.D.P1.X = B,

C’est-à-dire, en changeant d’inconnues Y = P−1.X , et de second membre C = P−1.B : D.Y = C (2)

Résoudre et discuter (2) est alors un jeu d’enfant :

a) si l’un des ci , r+1 ≤ i ≤ n, est ≠ 0, le système est impossible ; b) si tous les ci, r+1 ≤ i ≤ n, sont nuls, alors yi =

i

ci

λ pour 1 i r, les autres étant quelconques.

La structure affine de l’ensemble des solutions apparaît clairement.

(10)

− Supposons A trigonalisable : P−1.A.P = T , trigonale supérieure.

Le système A.X = B (1) s’écrit P.T.P−1.X = B, c’est-à-dire,

en changeant d’inconnues Y = P1.X , et de second membre C = P1.B : T.Y = C (3)

On peut alors le résoudre et le discuter par remontée. Si T est sous forme trigonale supérieure réduite, ou sous forme de Jordan, la discussion est bien sûr facilitée.

L’exemple le plus classique est celui des déterminants et systèmes cycliques.

On appelle matrice cyclique une matrice de la forme :

M = M(a0, ... , an−1) =









0 1 2

1

1 0 2

1 0 1

1 1

0

...

...

...

...

...

...

...

...

...

...

...

...

a a a a

a a a

a a a

a a

a

n n

n

∈ Mn(C) .

Au fond, M(a0, ... , a n−1) = (mij), où mij = aj−i , les calculs étant effectués modulo n.

Il n’est pas du tout évident que M est diagonalisable, mais si l’on note :

Ω = M(0, 1, 0, ..., 0) =









0 0 ...

0 1

1 0 ...

0 0

...

...

...

...

...

0 ...

1 0 0

0 ...

0 1 0

,

je dis que M(a0 , ..., an1) = a0.I + a1.Ω + ... + an1.Ωn1 = f(Ω) , où f est le polynôme f(X) = a0+ a1X + ... + an−1.Xn1.

De plus, Ωn = I, et Xn− 1 est le polynôme minimal de Ω.

Par suite, l’ensemble des matrices cycliques est une sous-algèbre commutative Γn(C) de Mn(C).

Ω est diagonalisable et de spectre Sp Ω = Un(C).

Notant ω = exp n i

π

2 , la matrice des vecteurs propres de Ω est V = (ω(j−1)(k−1))

1j,kn∈ Mn(C) : V1.Ω.V = diag (1 , ω , ω2 , ... , ωn1) .

Du coup, V1.M.V = diag (f(1) , f(ω) , f(ω2) , ... , f(ωn1)) , et : det M(a0, ..., an−1) = f(1).f(ω).f(ω2) ... f(ωn−1) . 6. Conditionnement d’un système linéaire.

En analyse numérique, le conditionnement mesure l’influence des erreurs d’arrondi sur la solution d’un problème donné. On le met en évidence en perturbant légèrement les conditions initiales. C’est une notion générale qui s’applique aussi bien aux racines d’un polynôme vis-à-vis de la variation de ses coefficients qu’aux valeurs propres ou vecteurs propres d’une matrice lorsqu’on perturbe légèrement ses éléments. Traitons ici le cas des systèmes linéaires.

Soit K = R ou C ; on munit Kn d’une norme ||x|| et L(Kn) = Mn(K) de la norme subordonnée, notée ici ||A||. Le système linéaire de Cramer A.x = b est dit mal conditionné si une légère modi- fication des coefficients de A ou des coordonnées de b entraîne une forte modification de la solution x = A1.b.

Exemple 1 : Considérons les deux systèmes

 240.x − 319,5.y = 3  240.x − 319.y = 3  −179,5.x + 240.y = 4 −179.x + 240.y = 4

Le premier a pour solution (8, 6), le second (4, 3). Une erreur de 1/600 sur les données entraîne une erreur relative de l’ordre de 2/1 sur la solution : le rapport d’amplification est de l’ordre de 1200.

(11)

Exemple 2 : Considérons les trois systèmes :





−12 25 14

1 10 12

12 9 23





z xy

= 

 

 2723 44 ,





−12 25 14

1 10 12

12 9 23





z yx

= 



 73 , 26

77 , 22

44 , 44

, 



−11,88 25,25 14

, 14

01 , 1 9 , 9 12 , 12

12 , 12 09 , 9 23 , 23





z yx

= 

 

 272344 Le premier système admet pour solution (1, 1, 1).

Le 2ème système a pour solution (6,23 ; 4,73 ; 4,69). Une erreur de 1/100 sur les données entraîne une erreur relative de l’ordre de 5/1 sur la solution, les composantes du vecteur sont multipliées par 5.

Le 3ème système a pour solution (6,89 ; 5,56 ; 5,40). Une erreur de 1/100 sur les données entraîne une erreur de l’ordre de 6/1 sur la solution. L’amplification des erreurs relatives est d’environ 600.

Exemple 3 : Considérons les trois systèmes :





10 9 5 7

9 10 6 8

5 6 5 7

7 8 7 10





tz yx

= 



 333123 32

,





10 9 5 7

9 10 6 8

5 6 5 7

7 8 7 10





tz yx

=





 9 , 30

1 , 33

9 , 2232,1

,





98 , 9 9 99 , 4 99 , 6

9 89 , 9 98 , 5 8

5 6 04 , 5 08 , 7

2 , 7 1 , 8 7 10





tz yx

= 



 3133 2332

Le premier système a pour solution (1, 1, 1, 1). Le second système a pour solution (9,2 ; −12,6 ; 4,5 ;

−1,1). Une erreur relative de l’ordre de 1/200 sur les données entraîne une erreur relative de l’ordre de 10/1 sur le résultat, soit un rapport d’amplification des erreurs relatives de l’ordre de 2000. Le 3ème système a pour solution (−81 ; 137 ; −34 ; 22). Même commentaire. Pourtant, la matrice initiale a l’air sympathique, elle est symétrique, de déterminant 1, et d’inverse :





− − − −

− − −

2 3 10 6

3 5 17 10

10 17 68 41

6 10 41 25

Ces trois systèmes sont « mal conditionnés ». Le problème suivant creuse ce sujet.

Problème

1) a) Soit N ∈ Mn(K) telle que ||N|| < 1. Montrer que I − N ∈ Gln(K) et exprimer ( I − N )1 sous forme de série.

b) Soient A ∈ Gln(K) et εA ∈ Mn(K). Montrer que pour ||εA|| assez petit, A + εA ∈ Gln(K).

On suppose cette condition remplie dans la suite.

2) On suppose b ≠ 0. Soient A’ = A + εA et x’ la solution de A’.x = b.

On pose : ∆A= A

ε

A

et ∆x = x x−( x

. Montrer que ∆x

A A

A A

A A

. . 1

. .

1 1

Plus généralement, soit x’ la solution de A’.x = b’ et ∆b = b

b b(−

. Montrer ∆x

A b A

A A A A

∆ +

. . 1

) .(

.

1 1

. 3) On appelle conditionnement de A le réel : cond(A) = |||A|||.|||A−1|||.

a) Vérifier que cond(A) ≥ 1, cond(A) = cond(A−1) et cond(A) = cond(αA) pour α≠ 0.

b) Que se passe-t-il dans la majoration de b) lorsque cond(A) ≈ 1, lorsque cond(A) est grand ? c) Exemples : Calculer cond(A) lorsqu’on munit Rn de ||.||∞, puis de ||.||1, pour :

A = 



− −

240 179

319

240 ,





−12 25 14

1 10 12

12 9 23

,





5 / 1 4 / 1 3 / 1

4 / 1 3 / 1 2 / 1

3 / 1 2 / 1 1

,





10 9 5 7

9 10 6 8

5 6 5 7

7 8 7 10

(On rappelle que ||A|| = maxi

= n

j

aij 1

et que ||A||1 =

= n

i

ij ja

1

max . On pourra consulter Maple).

(12)

7. Méthodes itératives de résolution.

Soit A ∈ Gln(K) une matrice inversible d’ordre n, K = R ou C. On veut résoudre de manière itérative le système linéaire A.x = b, c’est-à-dire trouver une suite récurrente (xp) de vecteurs de Kn qui tend vers la solution x = A1.b quel que soit le vecteur initial (x0).

Ces méthodes itératives reposent toutes sur le même principe : ramener la résolution du système A.x = b à celle d’un système de la forme x = B.x + c, où B est contractante pour une certaine norme sur Kn, c’est-à-dire telle que ||| B ||| < 1. Dès lors, la fonction affine T(x) = B.x + c est contractante, et obéit au théorème de point fixe de Picard-Banach.

Par exemple A.x = b ⇔ x = x − ( A.x − b ) ⇔ x = ( I − A ).x + b ,

ou A.x = b ⇔ x = x −

λ

1 ( A.x b ) x = ( I

λ

1 A ).x +

λ

1b pour tout λ∈ K* , ou A.x = b ⇔ x = x − D.( A.x − b ) ⇔ x = ( I − D.A ).x + D.b pour toute D ∈ Gln(K).

Si I − A est contractante pour une certaine norme, ou si l’on peut choisir λ∈ K* tel que I

λ

1 A le

soit, ou si l’on peut choisir D inversible telle que I − D.A le soit, c’est gagné.

Cela se produit dans deux situations fréquemment rencontrées en pratique :lorsque A est« diago- nalement dominante », c’est-à-dire vérifie ∀i ∈ [1, n] |aii| >

≠i j

aij (cf. chap. Calcul matriciel, § 7.1.), et lorsque A est symétrique réelle définie positive.

• Lorsque A est diagonalement dominante, il suffit de poser D = diag(

11

1

a , ... ,ann

1 ).

Alors B = I − D.A =





− − −

0 ...

/ /

...

...

...

...

/ ...

0 /

/ ...

/ 0

2 1

22 2 22

21

11 1 11 12

n nn n nn

n n

a a a a

a a a

a

a a a

a

.

On vérifiera que B = I − D.A est k-contractante pour la norme ||x||. où k = maxi aii

1

≠i j

aij . Exemple : Considérons le système  4x + 2y + z = 4

 − x + 2y = 2  2x + y + 4z = 9

Sa matrice est diagonalement dominante. Le système s’écrit encore  x = 1 − y/2 − z/4  y = 1 + x/2  z = 9/4 − x/2 − y/4 Posant X = t(x, y, z), il s’écrit X = B.X + c , où B est ¾-contractante pour la norme ||X||. La suite X0 = t(0, 0, 0), X1 = t(1, 1, 9/4), X2 = t(−1/16, 3/2, 3/2), X3 = t(−1/8, −1/32, 61/32), X4 = t(5/128, 15/16, 265/128), X5 = t(7/512, 261/256, 511/256)

converge vers la solution du système X = t(0, 1, 2)

• Lorsque A est symétrique réelle définie positive, il suffit de prendre D = λ−1.I, avec λ > λ1, plus grande valeur propre de A. On vérifiera que B = I − D.A est contractante pour la norme ||x||2. Pour cela, on fera les calculs dans une base orthonormée propre de A.

Exemple : Considérer le système 2x − y = 4 , − x + 2y − z = 2 , − y + 2z = 9.

(13)

Tout cela ne fait qu’esquisser le sujet. Je renvoie aux ouvrages spécialisés (Ciarlet, Stoer, etc.), qui détaillent les méthodes itératives de Jacobi, de Gauss-Seidel, de relaxation, ainsi que les diverses méthodes de gradient.

___________

Exercices Exercices Exercices Exercices

1. Clin d’œil à la tradition.

Exercice 1 : Une petite fille affirme : « J’ai autant de frères que de sœurs ». Son frère répond : « J’ai deux fois plus de sœurs que de frères ». Combien y a-t-il d’enfants dans cette famille ?

Exercice 2 : J’ai deux fois l’âge que vous aviez quand j’avais l’âge que vous avez. Et quand vous aurez l’âge que j’ai, nous aurons à nous deux 72 ans. Quels sont les âges de ces deux personnes ? Exercice 3 : Mina a deux fois l’âge qu’avait Tina lorsque Anna avait l’âge de Mina. Lorsque Mina aura l’âge d’Anna, l’âge de Tina sera le triple de l’âge qu’avait Anna lorsque Anna avait l’âge de Mina. Lorsque la plus jeune aura triplé son âge, les deux autres auront ensemble 160 ans.

Quel âge a aujourd’hui chacune des trois sœurs ?

Exercice 4 : Une ânesse portait du vin côte à côte avec un mulet, et, écrasée sous le poids, elle se plaignait amèrement. Alors le mulet mit fin à ses plaintes en disant :

« Qu’as-tu à te plaindre, la mère ? Si je prenais une de tes mesures, ma charge serait double de la tienne, et si tu prenais une des miennes, j’en aurais encore autant que toi. »

Dis-moi, savant mathématicien, combien de mesures portent l’ânesse et le mulet.

Exercice 5 : Les Neuf chapitres sur les procédures mathématiques, huitième rouleau.

Supposons que 5 moineaux et 6 hirondelles se réunissent sur le fléau d’une balance et que l’ensemble des moineaux soit plus lourd que l’ensemble des hirondelles. Si un moineau et une hirondelle échangent leur place, le fléau est juste à l’horizontale. Si l’on assemble moineaux et hirondelles, le poids est de 1 jin. On demande combien pèsent respectivement un moineau et une hirondelle.

Moineaux et hirondelles (extrait des Neuf chapitres, Dunod, p. 636)

Exercice 6 : Concours d’entrée à l’école mandarinale supérieure T’ai-hsueh de Xi’an (époque Han, 123 avant notre ère). Les candidats devront résoudre : 9 boisseaux de chanvre, 7 de froment, 3 de haricots, 2 de fèves et 5 de millet coûtent 140 pièces de monnaie. 7 boisseaux de chanvre, 6 de froment, 4 de haricots, 5 de fèves et 3 de millet coûtent 128 pièces de monnaie. 3 boisseaux de chanvre, 5 de froment, 7 de haricots, 6 de fèves et 4 de millet coûtent 116 pièces de monnaie. 2 boisseaux de chanvre, 5 de froment, 3 de haricots, 9 de fèves et 4 de millet coûtent 112 pièces de monnaie. 1 boisseau de chanvre, 3 de froment, 2 de haricots, 8 de fèves et 5 de millet coûtent 95 pièces de monnaie. Combien coûte un boisseau de chaque denrée ?

(14)

Exercice 7 : L’Épanthème de Thyramydas.

L’alexandrin Jamblique (IIIème siècle après J.-C.) nous a conservé l’énoncé et la solution de ce problème, qu’il attribue au pythagoricien Thyramydas de Paros (env. 400-350 av. J.-C.).

Il consiste à résoudre le système linéaire :  x1 + x2 + … + xn = s  x1 + x2 = a1

 . . . .

 x1 + xn = an−1 Exercice 8 : Hommage à Colette.

« ... Un ouvrier plante des piquets pour faire une palissade. Il les enfonce à une distance telle les uns des autres que le seau de goudron dans lequel il trempe l’extrémité inférieure jusqu’à une hauteur de trente centimètres se trouve vide au bout de trois heures. Étant donné que la quantité de goudron qui reste attachée au piquet égale dix centimètres cubes, que le seau est un cylindre de 0,15 m de rayon à la base et de 0,75 m de hauteur, plein aux 3/4, que l’ouvrier trempe quarante piquets par heure et se repose huit minutes environ dans le même temps, quel est le nombre des piquets, et quelle est la surface de la propriété, qui a la forme d’un carré parfait ? Dire également quel serait le nombre de piquets nécessaire si on les plantait distants de dix centimètres de plus. Dire aussi le prix de revient de cette opération dans les deux cas, si les piquets valent 3 F le cent, et si l’ouvrier est payé 0,50 de l’heure. » (Claudine à l’école)

Exercice 9 : Hommage à Yôko Ogawa.

« J’ai acheté 2 mouchoirs et 2 paires de chaussettes pour 380 yens. Si j’avais acheté 2 mouchoirs identiques et 5 paires de chaussettes, cela m’aurait coûté 710 yens. Quel est le prix d’un mouchoir et d’une paire de chaussettes ? » (La Formule préférée du professeur, p. 53)

Exercice 10 : Sangaku.

Dans la figure ci-dessous, inscrite dans un carré, les trois cercles verts ont même rayon r, le cercle rose a pour rayon R. On demande de calculer R/r.

Exercice 11 : Un problème de baignoires.

Les recueils d’arithmétique abondent en problèmes de ce genre. Le plus simple d’entre eux est dû à Nelly Kaplan : « En additionnant la quantité de sperme que j’ai su déclencher, pourrait-on remplir une baignoire ? ».

Exercice 12 : Un problème de Franck L*.

Une mère a 21 ans de plus que son fils. Dans 6 ans, elle aura 5 fois son âge. Où est le père ?

Références

Documents relatifs

Toute solution du système d’équations (A) peut s’obtenir par des com- linéaires et homogènes à coefficients constants des éléments d’un. fondamental

L’accès aux archives de la revue « Annali della Scuola Normale Superiore di Pisa, Classe di Scienze » ( http://www.sns.it/it/edizioni/riviste/annaliscienze/ ) implique l’accord

Appell, et je ne crois pas qu'on puisse faire d'objection à la méthode que je propose pour démontrer que cette solution satisfait effectivement aux équations (4). Mais cette

[r]

Trouvez des ensembles d’entiers naturels strictement positifs, dont la somme des éléments est minimale et qui contiennent exactement k multiples de k dans les cas suivants :Q1 :

Les 4 tableaux ci-après donnent les entiers qui sont retenus dans chacun des cas avec un astérisque pour repérer les entiers divisibles par l’un des facteurs premiers 2 ou 3 ou 5 ou

[r]

Appelons M 1 la méthode exposée ci-dessus et M 2, la méthode suivante : à chaque itération on considère, parmi les sommets mémorisés, le sommet S pour lequel &lt;p s est le