• Aucun résultat trouvé

PLAN MATRICES

N/A
N/A
Protected

Academic year: 2022

Partager "PLAN MATRICES"

Copied!
14
0
0

Texte intégral

(1)

MATRICES

PLAN

1 DEFINITIONS ET PROPRIETES ... 1

1.1 MATRICE DE DIMENSION (N, P) ... 1

1.2 MATRICES CARREES ET VECTEURS ... 1

1.3 MATRICES CARREES PARTICULIERES ... 1

1.4 MATRICE TRANSPOSEE ... 2

2 OPERATIONS SUR LES MATRICES ... 2

2.1 MULTIPLICATION DUNE MATRICE PAR UN SCALAIRE ... 2

2.2 ADDITION MATRICIELLE ... 2

2.3 PRODUIT MATRICIEL ... 3

2.3.1 Cas général ... 3

2.3.2 Multiplication d’une matrice par un vecteur ... 4

2.3.3 Élément neutre de la multiplication ... 4

2.3.4 Notion d’inverse... 4

2.3.5 Propriétés ... 4

3 DETERMINANT D’UNE MATRICE CARREE ... 5

3.1 CALCUL DU DETERMINANT ... 5

3.1.1 Déterminant d’une matrice (1, 1) ... 5

3.1.2 Déterminant d’une matrice (2, 2) ... 5

3.1.3 Déterminant d’une matrice (3, 3) ... 5

3.1.4 Méthode générale : méthode des cofacteurs ... 6

3.2 PROPRIETES ... 7

4 MATRICE INVERSE ... 8

4.1 DEFINITION ET PROPRIETES... 8

4.2 METHODE DES COFACTEURS ... 8

4.3 METHODE DE GAUSS ... 8

5 RESOLUTION D’UN SYSTEME D’EQUATIONS ...10

5.1 INTRODUCTION ...10

5.2 ECRITURE MATRICIELLE DUN TEL SYSTEME ...10

5.3 ALGORITHME DU PIVOT DE GAUSS ...10

5.4 METHODE DE CRAMER (DES DETERMINANTS) ...13

5.5 METHODE PAR LINVERSION DE A ...13

(2)

1 Définitions et propriétés 1.1 Matrice de dimension (n, p)

Une matrice (n, p)est simplement un tableau de scalaires (en général : nombres réels ou nombres complexes) composé de n lignes

( )

Li 1≤ ≤i n et de p colonnes

( )

Cj 1 j p

≤ ≤ . Ainsi la matrice Anp contient n×p termes (ou facteurs) aij rangés comme suit (par convention d’indices) :

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

11 12 1 1

21 22 2 2

1 2

1 2

A

j p

j p

np

i i ij ip

n n nj np

a a a a

a a a a

a a a a

a a a a

 

 

 

 

= 

 

 

 

 

 

Une matrice se note principalement entre parenthèses (parfois entre crochets : Anp = [aij]).

Deux matrices sont égales si elles sont identiques. Ainsi, elles sont nécessairement de même dimension (n, p) et de sorte que : A B= ⇔ ∀

( )

i j,

[ ] [ ]

1,n ×1,p a, ij =bij

Les termes (ou facteurs) aij de la matrice sont à choisir dans un corps K (suivant les cas : ℝ ℂ, ou ℤ).

Les matrices de n lignes et p colonnes appartiennent à un ensemble noté Mn p,

( )

K .

1.2 Matrices carrées et vecteurs

Lorsque p et n sont égaux , la matrice est dite carrée de dimension (n, n) ou plus

simplement de dimension n.

( ) ( )

A∈Mn n, K =Mn K .

Pour une telle matrice, on nomme diagonale principale la liste

( )

aii 1≤ ≤i n.

Exemple :

1 3 1

A 3 4 5

2 0 2

 

 

= 

− 

 

Lorsque p = 1, on parle de matrice colonne, ou encore de vecteur.

( )

V∈Mn,1 K

Exemple (dimension 3) : 1

V 5

3

 

 

= 

− 

 

Nous travaillerons plus principalement sur ces deux types d’objets, en dimension 2 ou 3.

1.3 Matrices carrées particulières

Matrices carrées symétriques

Une matrice carrée est symétrique lorsque l’on a :

[ ]

,

, 1 ij ji

i j n a a

∀ ∈ = Ex :

1 3 1

A 3 2 5

1 5 4

 

 

= − 

− 

 

a ij j

= N° de colonne

i

= N° de ligne L2

Cj

a ij

(3)

Matrices carrées triangulaires

Une matrice carrée est triangulaire lorsque tous les éléments situés soit en-dessus soit en- dessous de sa diagonale sont nuls :

0 ou 0

ij ij

j< ⇔i a = j> ⇔i a =

Exemple :

1 1 4 1 0 0

A 0 2 8 ou A 6 2 0

0 0 3 5 0 4

   

   

=  = − 

   

   

triangulaire supérieure / inférieure Matrices carrées diagonales

Une matrice carrée est diagonale lorsque tous les éléments situés en dehors de sa diagonale principale

sont nuls : i≠ ⇔j aij =0 Exemple :

1 0 0

A 0 2 0

0 0 4

 

 

= − 

 

 

définition : matrice Identité : matrice diagonale dont les termes diagonaux valent 1. Ci-contre, exemple en dimension 3 :

Toute matrice multiple de la matrice identité est dite matrice scalaire.

 

 

= 

 

 

3

1 0 0 0 1 0 0 0 1 I

1.4 Matrice transposée

La matrice transposée d’une matrice A, notée TA, est obtenue à partir de A en échangeant lignes et colonnes.

[ ] [ ]

, 1, 1, ij ji

i j n p aa

∀ ∈ × =

Si A est de dimension (n, p), alors TA est de dimension (p, n).

Donc pour une matrice carrée de dimension n : pas de changement de dimension. Il suffit d’opérer une symétrie par rapport à la diagonale principale. Enfin, les éléments aii

situés sur cette diagonale ne « bougent » pas.

Remarques : toute matrice symétrique est sa propre transposée, et pour toute A, T(TA) = A.

Exemple :

T

1 4 7 A 2 5 8 3 6 9

1 2 3 A 4 5 6 7 8 9

 

 

= 

 

 

 

 

= 

 

 

2 Opérations sur les matrices

2.1 Multiplication d’une matrice par un scalaire

Multiplier une matrice par un scalaire λ, c’est multiplier chacun de ses termes par λ :

( )

,

[ ] [ ]

, , ,

B=

λ

A⇔ ∀ i j ∈1 n × 1 p bij =

λ

aij Propositions : ∀ ∈A Mn p,

( )

K , , λ λ1 2K,

( ) ( ) ( )

,

1 2A 2 1A 1 2 A , 0.A O et 1.A A

λ λ =λ λ = λ λ = n p = démo. en TD

Transposition : T

( )

λA =λTA

2.2 Addition matricielle

L’addition de deux matrices est définie à condition qu’elles soient de même dimension.

Le résultat est une matrice de même dimension.

Soient A et B deux matrices de dimension (n, p), la matrice somme C est de même dimension et obtenue en additionnant les éléments de même position : C= + ⇔A B cij =aij +bij

(4)

Élément neutre de l’addition

Une dimension (n, p) choisie, l’élément neutre de l’addition est la matrice nulle O = [0] telle que A + O = A. Tous les éléments de cette matrice sont égaux à zéro.

Opposée d’une matrice

Par définition, l’opposée de A est la matrice « –A » telle que A + –A = O Proposition : L’opposée de A est –1 × A.

Propriétés : ∀A B C, , ∈Mn p,

( )

K , , λ λ1 2K,

( ) ( )

( ) (

1 2

)

1 2

"associativité" : A B C A B C ; "commutativité" : A B B A

"double distributivité" : λ A B λA λB ; λ λ A λA λA

+ + = + + + = +

+ = + + = +

L’addition est une opération bilinéaire : C =

λ

1A+

λ

2B⇔cij =

λ

1aij +

λ

2bij Transposition : T

(

A B+ =

)

TA+TB

2.3 Produit matriciel

2.3.1 Cas général

Pour pourvoir multiplier une matrice A de dimension (n, p) par une matrice B , il faut et il suffit que B ait autant de lignes que A a de colonnes : que B soit de dimension (p, r).

À ce moment-là :

• La matrice produit AB a le même nombre de lignes que A, soit n

• La matrice produit AB a le même nombre de colonnes que B, soit r A(n,p) que multiplie B(p,r) donne AB(n,r)

(on entrevoit que le produit AB ne vaut sans doute pas BA, si toutefois ce dernier existe !) Ainsi dans le cas courant des matrices carrées, celles-ci doivent être de même dimension.

Méthodologie :

(on note C la matrice produit AB)

Le calcul de chaque facteur cik est vu comme le produit scalaire des vecteurs

( )

aij j et

( )

bjk j.

. .

. .

. . . . . .

. . . . . .

. .

. . . . . .

. . . . . .

. .

b b b b

b b b b

b b b b

b b b b

k r

k r

j j jk jr

p p pk pr

11 12 1 1

21 22 2 2

1 2

1 2

. .

. .

. . . .

. .

. . . .

. .

c c c c

c c c c

c c c c

c c c c

k r

k r

i i ik ir

n n nk nr

 

 

 

 

 

 

 

 

 

 

11 12 1 1

21 22 2 2

1 2

1 2

Ligne i de A avec colonne k de B

donnent

c

ik

1 q p

ik iq qk

q

c a b

=

=

= ∑

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

a a a a

a a a a

a a a a

a a a a

j p

j p

i i ij ip

n n nj np

 

 

 

 

 

 

 

 

 

 

11 12 1 1

21 22 2 2

1 2

1 2

. . . .

. . . .

. . . . . . . . .

. . . .

. . . . . . . . .

. . . .

0 0 0 0 0

0 0 0 0 0

0 0 0 0 0

0 0 0 0 0

(5)

2.3.2 Multiplication d’une matrice par un vecteur Un cas particulier de ce qu’on vient de voir :

Soit un vecteur Vde dimension p. Nous pouvons le multiplier à gauche par une matrice A de dimension (n, p). Il en résultera un vecteur Wde dimension n. On écrit :

A.V W =

La méthode de calcul est la même que celle employée pour le produit de deux matrices. Il suffit de considérer le vecteur Vcomme une matrice de dimension (p, 1) :

. . . .

. . . . .

. . . .

. . . . .

. . . .

. . . . .

j p

j p

i i ij ip j i

n n nj np n

p

v

a a a a v w

a a a a w

a a a a v w

a a a a w

v

 

 

     

     

     

     

=

     

     

     

     

 

 

   

 

 

1

11 12 1 1 2 1

21 22 2 2 2

1 1

1 2

q p

i iq q

q

w a v

=

=

= ∑

1

Cas particulier important : Si on multiplie une matrice carrée de dimension n par un vecteur de dimension n, le résultat est un nouveau vecteur de dimension n.

2.3.3 Élément neutre de la multiplication

L’élément neutre de la multiplication est, dans une certaine dimension et s’il existe,

une matrice I telle que A.I = A. (I ne peut être qu’une matrice carrée, dont la dimension est le nombre de colonnes de A). On admet que : I est la matrice identité telle que définie en 1.1.3 Dans Mn

( )

K , on a en outre la commutativité :

A.I = I.A = A

Dans un espace vectoriel de dimension n, I est l’élément neutre par multiplication à droite seulement :

I.V = V

(attention, V.I n’existe pas !)

2.3.4 Notion d’inverse

Plaçons-nous dans Mn

( )

K . Une matrice A étant donnée, existe-t-il une matrice B telle que AB = I ? Si tel est le cas B est dite matrice inverse de A, notée A-1.

AA

-1

= A

-1

A = I

Inverser une matrice est une opération délicate, qui peut se faire soit grâce à son déterminant, soit en employant la méthode de Gauss (extension du pivot de Gauss). Nous verrons ces points en- dessous.

2.3.5 Propriétés

Propriétés : A, B, C de dimensions cohérentes entre elles,∀

( ) ( )

( ) ( )

( )

T T T

"associativité" : AB C A BC

"double distributivité sur l'addition" : A B C AC BC ; A B C AB AC Transposée : AB B A

=

+ = + + = +

=

Proposition : A, B de dimensions cohérentes,∀ ∀ ∈λ K

( ) ( ) ( )

AO O ; OA O ;= = λ AB = λA B A= λB noté ABλ

(6)

Attention :

1. La multiplication matricielle n’est pas commutative (sauf cas particuliers) : en général,

AB

BA

2.

AB = O peut être obtenu avec deux matrices A et B non nulles !

par exemple : 2 1 2 1 0 0

2 1 4 2 0 0

    

− − −  = 

    

Autre exemple : dans l'espace des matrices carrées de dimension 2, posons A² – 3A + 2I = O.

On peut être tenté d'identifier cette équation à x² – 3x + 2 = 0, calculer son discriminant, égal à 1, et citer ses solutions, 1 et 2, pour conclure que A = I ou A = 2I. Effectivement, ces deux matrices sont solutions de l'équation de départ, et d'ailleurs A² – 3A + 2I = (A – I)(A – 2I). Mais il y a d'autres solutions A qui annulent ce produit ? Il se trouve que oui ! Par exemple : A = 1 0

0 2

 

 

 

(sauriez-vous trouver toutes les matrices A, carrées de dimension 2, solutions de A² – 3A + 2I = O ?)

Définition et propriétés supplémentaires (complément) :

* S'il existe un entier k tel que Ak = O, alors la matrice A est dite nilpotente.

Si A et B commutent (AB = BA), alors A+B et AB sont deux matrices nilpotentes.

* Si A et B sont diagonales (resp. scalaires), alors AB l'est aussi (constituée, sur la diagonale, des produits deux à deux des termes diagonaux de A et de B).

Si A et B sont triangulaires supérieures (resp. inférieures), alors AB l'est aussi.

3 Déterminant d’une matrice carrée

Le déterminant d’une matrice carrée A est un scalaire issu d’un calcul sur ses termes aij, que l’on peut noter de trois manières différentes, comme suit :

( ) ( )

. .

. . . .

det . . . .

. . . .

11 12 1 11 12 1

21 22 21 22

1 1

A A où A

 

 

 

∆ = = = 

 

 

n n

n nn n nn

a a a a a a

a a a a

a a a a

3.1 Calcul du déterminant

3.1.1 Déterminant d’une matrice (1, 1)

Le déterminant d’une matrice (1, 1) est tout simplement égal à son unique élément ! 3.1.2 Déterminant d’une matrice (2, 2)

11 12

21 22

A a a a a

 

= 

  : det

( )

A =a a11 22a a21 12 (différence des produits en croix) 3.1.3 Déterminant d’une matrice (3, 3)

Pour calculer le déterminant d’une telle matrice, il est commode d’utiliser la « règle de Sarrus » : 1. Répéter les DEUX PREMIERES colonnes à la suite de la dernière.

2. Effectuer les produits en diagonale « principale » (trait plein) et les cumuler (total1) 3. Effectuer les produits en diagonale « secondaire » (pointillés) et les cumuler (total2) 4. Déterminant = total1 – total2.

( )

det

11 12 13 11 12 13 11 12

21 22 23 21 22 23 21 22

31 32 33 31 32 33 31 32

A ; A

a a a a a a a a

a a a a a a a a

a a a a a a a a

 

 

=   =

 

 

( )

det A =a a a11 22 33 +a a a12 23 31+a a a13 21 32a a a31 22 13a a a32 23 11a a a33 21 12

(7)

3.1.4 Méthode générale : méthode des cofacteurs

La méthode générale de calcul d’un déterminant est celle des cofacteurs, quelle que soit la dimension.

Ici, le calcul d’un déterminant (n, n) revient au calcul de n déterminants (n-1, n-1), et ainsi de suite (c’est une procédure récursive)…

dans le détail : A∈Mn

( )

K .

1. On sélectionne une ligne quelconque

i0

L ou une colonne quelconque

j0

C de la matrice A.

( ( ) )

. 1

2 , on appelle de le nombre M , déterminant de la matrice M formée à partir de la matrice A dont on a retiré la ligne et la colonne .

ij ij ij n

i j a K

i j

mineur ∈M

( )

Le cofacteur du facteur aij de A est alors le nombre cij = −1 i+j Mij .

Pour calculer det

( )

A , on aura besoin des facteurs de la ligne ou colonne sélectionnée, ainsi que de leurs cofacteurs associés.

3. On a alors det

( )

0 0

1

A

n i j i j j

a c

=

=

(si choix de

i0

L ) ou det

( )

0 0

1

A

n ij ij i

a c

=

=

(si choix de

j0

C ) un exemple pour l’illustrer : A∈M3

( )

K .

1. On sélectionne la ligne L2.

3. det

( )

3 2 2 21 21 22 22 23 23

1

A j j

j

a c a c a c a c

=

=

= + +

Remarque 1 : le coefficient

( )

1 i j+ intervenant dans le calcul d’un cofacteur vaut +1 ou –1, suivant la position du facteur correspondant. Si i+ j est pair, il vaut 1, sinon il vaut –1.

Cette alternance de signes est visualisable facilement ci-contre.

Remarque 2 : le choix d’une ligne ou d’une colonne ne se fait généralement pas par hasard : si une ligne ou une colonne contient des valeurs zéro, le calcul du déterminant de la matrice en est grandement simplifié !

Lien avec la règle de Sarrus en dimension 3 : Pour

11 12 13

21 22 23

31 32 33

A

a a a

a a a

a a a

 

 

= 

 

 

et en développant suivant la première ligne, on obtient :

( )

( ) ( ) ( ) ( )

( ) ( )

det det det det

22 23 21 23 21 22

11 12 13

32 33 31 33 31 32

11 22 33 32 23 12 21 33 31 23 13 21 32 31 22

11 22 33 11 32 23 12 21 33 12 31 23 13 21 32 13 31 22 11 22 33 12 23 31 13

A A A A

a a a a a a

a a a

a a a a a a

a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a a

= − +

= − − − + −

= − − + + −

= + + 21 32aa a a31 22 13a a a32 23 11a a a33 21 12

… et on retrouve Sarrus, celui-ci étant valable en dimension 3 uniquement.

On vérifiera que l’on obtient le même résultat en développant selon la première colonne :

( )

det 11 22 23 21 12 13 31 12 13

32 33 32 33 22 23

A a a a a a a

a a a

a a a a a a

= − + etc.

Remarque : le déterminant d’une matrice triangulaire est le produit de ses termes diagonaux.

En conséquence : det(I) = 1 en toute dimension.

+ – + etc – + – etc + – + etc etc etc etc

(8)

3.2 Propriétés

Propriétés de relations entre matrices : A, B Mn

( )

K ,

(i) Les déterminants de A et de sa transposée TA sont égaux. det

( )

TA =det

( )

A

(ii) det

( )

AB =det

( )

A ×det

( )

B , ce qui implique la propriété (iii).

(iii) Les déterminants de A et de son inverse A-1 sont inverses. det

( )

A1 =det1

( )

A

(en effet : 1=det

( )

I =det

( )

AA-1 ( )=iidet

( )

A ×det

( )

A-1 , d'où (iii))

(iv) Corollaire : une matrice A est inversible si, et seulement si, son déterminant est non nul.

Définition : Une matrice de déterminant nul est dite singulière.

Propriétés de transformation d’un déterminant : ∀ ∈A Mn

( )

K ,∀λ α β, ,K

(v) Si on multiplie tous les éléments d’une même ligne ou d’une même colonne par un nombre λ, le déterminant est multiplié par ce même nombre :

( ) ( )

det A det A

i i

L →λL ⇒ →λ et Cj→λCjdet

( )

A →λdet

( )

A

(vi)

(v) ⇒ det

( )

λA =λndet

( )

A

(vii) L’échange de deux lignes, ou de deux colonnes, change le signe du déterminant :

( ) ( )

det A det A

i j

LL ⇒ → − et CiCjdet

( )

A → −det

( )

A

(viii) Si une ligne (ou colonne) est additionnée d’une combinaison linéaire des autres, le déterminant reste inchangé :

( ) ( )

... det A det A

i i k r

L → +L αLL + ⇒ → et CjCj+αCk+βCr+...det

( )

A det

( )

A

Propriétés d’annulation d’un déterminant : ∀ ∈A Mn

( )

K ,∀ ∈αj K

(ix) Si une ligne est une combinaison linéaire des autres, alors le déterminant est nul :

( )

... ... det

1 1 1 1 1 1 A 0

i i i i i n n

LL + +α L+ L+ + +α L ⇒ = (idem pour les colonnes) (ix) découle de (v) et (viii) ; (x) et (xi) découlent de (ix) :

(x) Si une ligne d’une matrice est nulle, alors son déterminant est nul.

En effet : si tous les αj sont nuls, alors Li est nulle et (ix) ⇒ det

( )

A =0

(xi) Si deux lignes sont égales ou multiples l’une de l’autre, alors le déterminant est nul.

En effet : si tous les αj sont nuls, sauf

j0

α alors Lij0Lj0 et (ix) ⇒ det

( )

A =0

Remarque : pour calculer le déterminant d’une matrice, il peut être très utile de créer des combinaisons linéaires (entre lignes ou entre colonnes), utilisant efficacement les points (v), (vii) et (viii) ci-dessus, pour transformer la matrice de départ en une matrice triangulaire, notamment, et utiliser le résultat de la remarque du bas de la page précédente.

(9)

4 Matrice inverse

4.1 Définition et propriétés

Soit une matrice carrée A. Cette matrice est dite inversible s’il existe une matrice carrée de même dimension, A-1 , appelée inverse de A, telle que :

AA

1

= I

* Propriété d’existence ((iv) page 7) : A est inversible ⇔ det

( )

A ≠0

* Commutativité : dans ce cas, AA1 =A A1 =I. Autres propriétés :

* l'inverse de A-1 est A

* I est inversible et est sa propre inverse

* [AC = BC (resp. CA = CB) et C inversible] ⇒ A = B

* si A et B sont inversibles, alors AB l'est aussi, et (AB)-1 = B-1A-1

* si A ≠ O, B ≠ O et AB = O, alors A et B ne sont pas inversibles

4.2 Méthode des cofacteurs

Pour illustrer cette procédure, prenons l’exemple d’une matrice A de dimension (3, 3) : 1. Calculer le déterminant de la matrice : det(A), s’assurer qu’il est non nul.

2. Établir la comatrice de A, Com(A) : matrice de ses cofacteurs.

Le cofacteur de l’élément aij d’une matrice carrée A de dimension n est le déterminant de la matrice de dimension n – 1 obtenue en supprimant la colonne n°i et la ligne n°j de A, multiplié par –1 si la somme i + j est impaire, donc par (–1)i+j.

par exemple en dimension 3 :

( )

22 23 21 23 21 22

32 33 31 33 31 32

12 13 11 13 11 12

32 33 31 33 31 32

12 13 11 13 11 12

22 23 21 23 21 22

Com A

 

 

 

 

 

= − −

 

 

 

 − 

 

a a a a a a

a a a a a a

a a a a a a

a a a a a a

a a a a a a

a a a a a a

3. On a alors :

( ) ( )

det

1 1 T

A Com A

A

=

4.3 Méthode de Gauss

Cette méthode est basée sur la constatation AA-1 = I.

Elle correspond à la résolution de systèmes linéaires de n équations à n inconnues telle qu’on

pourrait la mettre en œuvre par combinaison linéaire des équations, opérations valides ne modifiant pas la nature du système et menant à sa solution (si elle est unique), consistant en une série

d’éliminations systématiques des inconnues, rendant le système triangulaire.

L’algorithme du pivot de Gauss sera vu dans la partie 1.5

Ici, nous irons plus loin : par des opérations similaires, nous la transformerons en une matrice diagonale, puis en la matrice identité (pivot de Gauss « prolongé »).

Sur la matrice que l’on est en train de traiter, les opérations « valides », que nous sommes en droit d’effectuer, sont soit des échanges de deux lignes (ou de deux colonnes), soit le remplacement d’une ligne Li (ou une colonne Cj) par une combinaison linéaire faisant impérativement intervenir Li (ou Cj), donc, pour le cas de Li, une forme a1L1 + a2L2 + … + anLn, où les coefficients a1, a2, …, an seront

« bien choisis » et où ai sera différent de zéro.

(10)

Entre les échanges et les combinaisons linéaires, s’offrent à nous une infinité de possibilités.

La méthode de Gauss consiste à transformer pas à pas la matrice A en la matrice identité I.

En parallèle, si nous appliquons à I les mêmes transformations dans le même ordre, nous obtenons A-1 ! Attention : * ces transformations doivent se faire uniquement sur les lignes (ou uniquement sur les

colonnes), il faut faire un choix au début !

* la transformée d’une ligne par combinaison doit utiliser cette même ligne exemple :

/ / /

2 2 1

3 3 1

1 1 2

3 3 2

1 1 3

2 2 3

1 1

2 2

3 3

3 2 1

A 1 4 3 3

2 1 2 3 2

3 2 1 5

0 10 10

0 7 4 10 7

15 0 15 2

0 10 10 3

0 0 30

30 0 0 30

0 30 0 30

0 0 30 30

1 0 0 0 1 0 0 0 1

L L L

L L L

L L L

L L L

L L L

L L L

L L

L L

L L

 

 

=  ← −

−  ← +

 

− ← −

 

 

 

  ← −

 

− ← −

 

 

← +

 

 − 

 

 

  ←

 

 −  ← −

 

 

 

 =

 

 

I

/ / /

2 2 1

3 3 1

1 1 2

3 3 2

1 1 3

2 2 3

1 1

2 2

3 3

1 0 0

0 1 0 3

0 0 1 3 2

1 0 0 5

1 3 0

2 0 3 10 7

6 3 0 2

1 3 0 3

27 21 30

15 15 30 30

24 12 30 30

27 21 30 30

0,5 0,5 1 0,8 0,4 1

0,

L L L

L L L

L L L

L L L

L L L

L L L

L L

L L

L L

 

 

=  ← −

  ← +

 

← −

 

− 

 

  ← −

 

− ← −

 

 

− ← +

 

 − 

 

− − ←

 

 −  ←

 

 −  ← −

 

− −

I

A 1

9 0,7 1

 

 

 =

 − 

 

On s’est attaché, à partir de A, à faire apparaître des zéros par combinaisons successives sur

certaines lignes (dans l’ordre : zéros dans colonne 1 puis 2 puis 3) ; enfin, il ne restait qu’à diviser (ou multiplier) les lignes de la matrice diagonale obtenue pour la transformer en la matrice identité.

En seconde partie (à droite), on a réédité les mêmes combinaisons à partir de la matrice identité et donc obtenu la matrice inverse de A.

(11)

5 Résolution d’un système d’équations 5.1 Introduction

On propose ici des méthodes matricielles de résolution des systèmes linéaires (n, n) (ayant autant d’inconnues x x1, 2,...,xn que d’équations E E1, 2,...,En).

Ces systèmes ont en général une solution unique : un unique n-uplet

(

x x1, 2,...,xn

)

vérifie les n équations. On parle alors de système de Cramer.

Dans certains cas particuliers, ils ne présentent aucune solution, et dans d’autres une infinité de solutions (mais que l’on pourra décrire).

Plus bas sont présentées trois méthodes : l’algorithme du pivot de Gauss (qui permet de trouver la solution unique ou de savoir s’il y a zéro ou une infinité de solutions), et les deux autres méthodes – méthode de Cramer et passage à l’inverse – qui permettent de calculer la solution lorsqu’elle est unique.

5.2 Ecriture matricielle d’un tel système

Soit le système linéaire formalisé comme suit :

...

...

: : : : : :

...

11 1 12 2 1 1 1

21 1 22 2 2 2 2

1 1 2 2

n n n n

n n nn n n n

a x a x a x b E

a x a x a x b E

a x a x a x b E

+ + + =

 + + + =



 =

 + + + =

.

* On appelle matrice du système la matrice carrée A composée des coefficients aij.

* Si on nomme X le vecteur inconnu dont les coordonnées sont x x1, 2,...,xn et B le vecteur

« second membre » dont les coordonnées sont b b1, 2,...,bn, alors le système est :

A . X = B 5.3 Algorithme du pivot de Gauss

1. On crée la matrice

...

...

: : : : : :

...

11 12 1 1 1

21 22 2 2 1

1 2

C

n n

n n nn n n

a a a b L

a a a b L

a a a b L

 

 

 

= 

 

 

Objectif : triangulariser le système, c’est-à-dire ici : rendre nuls, par combinaisons linéaires, tous les termes situés au-dessous des termes aii.

2. Si a11 =0, on permute la ligne 1 avec une autre ligne dont le premier coefficient n’est pas nul.

3. Travail sur les lignes n°2 à n : chaque ligne dont le premier coefficient est non nul doit être remplacée par une combinaison linéaire entre elle-même et la première ligne, combinaison choisie spécialement pour que le premier coefficient devienne nul. « pivot » : a′11

On obtient ainsi une matrice transformée

...

...

: : : : : :

...

11 12 1 1 1

22 2 2 1

2

C 0 0

n n

n nn n n

a a a b L

a a b L

a a b L

′ ′ ′ ′

 

 ′ ′ ′

 

′ = 

 

′ ′ ′

 

(la première ligne est éventuellement modifiée si l’étape 2 a dû être menée à bien)

4. On retourne à l’étape 2, puis 3, mais cette fois en se concentrant sur les termes de la colonne 2 pour faire apparaître des zéros en-dessous de a′22.

(12)

Les nouvelles étapes sont donc :

2. Si a′ =22 0, ligne 2 permutée avec une ligne plus bas, de deuxième coefficient non nul.

3. Travail sur les lignes n°3 à n : chaque ligne dont le deuxième coefficient est non nul sera remplacée par une combinaison linéaire d’elle-même avec la deuxième ligne, combinaison choisie spécialement pour que le deuxième coefficient devienne nul. « pivot » : a′′22

Et ainsi de suite jusqu’à annuler le coefficient n – 1 de la ligne n.

On obtient finalement la matrice ( )

( ) ( )

, , , ,

...

...

: : :

: : : :

...

1 1 1

11 12 1 1

2 2 2

22 2 1

C 0

0 0 0

n n

n n n

n n

nn nn n

a b L

a a a

a b L

a a

a b L

′ ′

′ ′ ′

 

 ′′ ′′ ′′ ′′

 

= 

 

 

 

dans laquelle tous les termes situés sous la diagonale a′11, a′′22, …, ann( )n sont nuls, et donc à partir de laquelle il sera aisé de déterminer les valeurs x x1, 2,...,xn… à condition qu’aucun des termes

a′11, a′′22, …, ann( )n ne soit nul.

Exemple 1 :

1 2 3

2 3 1 2 3 1 1

2 1 C 1 2 1 1

2 0 1 2 1 0

x y z L

x z y L

y x z L

+ − = −

  

  

− + = − ⇒ = − −

  

 − − = − − 

  

* 1er pivot: 2 (ligne 1). Objectif : faire apparaître des valeurs 0 en lignes 2 et 3 (première colonne).

Méthode : remplacer chacune de ces deux lignes par des combinaisons d’elles-mêmes avec la ligne 1.

1

2 1 2

3 1 3

2 3 1 1 2 3 1 1

C 1 2 1 1 2 C 0 1 1 3

1 2 1 0 2 0 7 3 1

L

L L L

L L L

− −

   

  ′  

= − −  ← − + ⇒ = − − 

− −  ← +  − 

   

* 2e pivot: 1 (ligne 2). Objectif : faire apparaître une valeur 0 en ligne 3 (deuxième colonne).

Méthode : remplacer la ligne 3 par une combinaison d’elle-même avec la ligne 2.

1 2

3 2 3

2 3 1 1 2 3 1 1

C 0 1 1 3 C 0 1 1 3

0 7 3 1 7 0 0 4 22

L L

L L L

− −

   

   

′= − −  ⇒ ′′= − − 

 −  ← − +  

   

* Le système est maintenant triangularisé. Il reste à terminer les calculs des inconnues.

5 11 1

2 3 1

2 2 2

2 3 1

11 5 5

3 3

2 2 2

4 22

11 11

2 2

x x

x y z

y z y y

z

z z

 

+ × − = = −

 

+ − =

  

  

− = − ⇒ = − = ⇒ =

  

 =  

  

= =

 

 

(13)

Exemple 2 :

1 2 3

2 1 2 1 1 1

1 C 1 1 1 1

6 4 2 6 0 4 2

x y z L

x y z L

x z L

+ + =

  

  

− + = − ⇒ = − −

  

− − = − − 

  

* 1er pivot: 2 (ligne 1). Objectif : faire apparaître des valeurs 0 en lignes 2 et 3 (première colonne).

Méthode : remplacer chacune de ces deux lignes par des combinaisons d’elles-mêmes avec la ligne 1.

1

2 1 2

3 1 3

2 1 1 1 2 1 1 1

C 1 1 1 1 2 C 0 3 1 3

6 0 4 2 3 0 3 1 5

L

L L L

L L L

   

  ′  

= − −  ← − + ⇒ = − − 

− −  ← +  − 

   

Dès cette première étape, les lignes 2 et 3 montrent une incohérence : comment 3yz pourrait être égal à la fois à 3 (ligne 2) et à 5 (ligne 3) ? Poursuivons quand même…

* 2e pivot: –3 (ligne 2). Objectif : faire apparaître une valeur 0 en ligne 3 (deuxième colonne).

Méthode : remplacer la ligne 3 par une combinaison d’elle-même avec la ligne 2.

1 2

3 3 2

2 1 1 1 2 1 1 1

C 0 3 1 3 C 0 3 1 3

0 3 1 5 0 0 0 2

L L

L L L

   

   

′= − −  ⇒ ′′= − − 

 −  ← +  

   

* Le système est maintenant triangularisé. Il reste à terminer les calculs des inconnues.

2 1

3 3 impossible !

0 2 x y z

y z + + =



− + = − ⇒

 =

Le système de départ n’admet pas de solution.

Remarque : si la matrice C’ avait révélé deux lignes identiques (plutôt qu’incompatibles), cela aurait signifié une infinité de solutions pour les triplets

(

x y z, ,

)

. Par exemple :

2 1 1 1

C 0 3 1 3

0 3 1 3

 

 

′ = − − 

 − 

 

revient au système 2 1

3 3

x y z y z + + =



 − = , que l’on traite manuellement :

2 3 3 1 2 2

3 3 3 3

x y y x y

z y z y

+ + − = = −

 

 

= − = −

  et les solutions sont tous les triplets

(

2 2 y y, ,3y3

)

,y

Théorème : (pivot de Gauss)

Soit un système linéaire S

( )

n n, . Si, après triangularisation, les termes diagonaux de la matrice du système sont tous non nuls, alors S admet un unique n-uplet solution.

Remarque : on a vu dans l’exemple 2 que le dernier terme diagonal était nul, ce qui a impliqué l’absence d’une solution unique (ici : aucune solution), et dans la remarque qui a suivi cet exemple, un dernier terme diagonal nul également, avec cette fois une infinité de solutions.

Démonstration :

Soit A( )n la matrice triangulaire obtenue à partir de A par la méthode du pivot de Gauss (donc la matrice C( )n dont on retire la dernière colonne).

Alors det

( )

A( )n =kdet

( )

A , k 0 (d’après les propriétés (v), (vii) et (viii) page 7).

Comme la matrice A( )n est triangulaire, son déterminant est le produit de ses termes diagonaux (remarque bas de page 6) ; et comme aucun d’eux n’est nul : det

( )

A( )n 0.

(14)

Ainsi, det

( )

A 0 et A est donc inversible ((iv) page 7).

Le système S, on l’a vu page 10, se traduit matriciellement par : A.X =B. En multipliant chaque membre à gauche par A-1, on obtient : A A1 .X=A1BI.X=A1B⇔ =X A1B, produit dont le résultat existe et est unique. X existe et est unique.

Remarque : la réciproque du théorème précédent est vraie aussi !

Corollaire : Une matrice A singulière (non inversible), multipliée par un vecteur non nul bien choisi, peut avoir pour résultat le vecteur nul : A.X =0 est possible avec X ≠0.

Explication : Soit un système linéaire S

( )

n n, admettant une infinité de solutions. det

( )

A =0. Soit X1 et X2 deux de ses solutions, distinctes, et notons X =X1X2≠0.

Alors A.X =A.

(

X1X2

)

=A.X1A.X2= − =B B 0.

En conclusion :

det

(A)

0

⇔ le système admet un

unique vecteur solution

.

Si det(A) = 0, on se trouve dans les cas particuliers où le système admet soit aucune solution, soit une infinité. Cela se produit si toutes les équations ne sont pas indépendantes, c’est à dire si le membre de gauche de l’une est multiple du membre de gauche d’une autre ou s’il est une combinaison linéaire des membres de gauche d’au moins deux autres.

5.4 Méthode de Cramer (des déterminants)

On suppose que A-1 existe, c’est à dire que det(A) est non nul (système de Cramer).

À tout i compris entre 1 et n on peut associer la construction d’une matrice Ai formée à partir de la matrice A dans laquelle la colonne n°i a été remplacée par le vecteur B.

On peut calculer alors directement la valeur de chaque inconnue :

( ) ( )

det det

i

xi = A A

5.5 Méthode par l’inversion de A

On a vu que le système revient à poser A.X =B. Considérons à nouveau un système de Cramer.

On a vu dans la preuve en haut de cette page que AX = ⇔ =B X A1B.

Nous obtenons donc un calcul direct de la solution unique X du système :

1 1

2 A 1 2

n n

x b

x b

x b

   

   

 =  

   

   

   

… …

Références

Documents relatifs

Cette relation permet de dénir le Pfaen d'un endomorphisme antisymétrique : il s'agit du Pfaen de sa matrice écrite dans n'importe qu'elle base orthonormée directe ; la quantité

Ces mesures sont toutefois particulièrement intéressantes – et peuvent largement différer les unes des autres – lorsque ces échanges sont plus déséquilibrés..

Comme aucune de ces fonctions polynomiales n’est nulle, c’est donc une

Montrer que les trois propriétés suivantes sont équivalentes :. (i) la famille

[r]

Nous pouvons, par exemple, essayer de conjecturer le résultat à partir de quelques matrices simples (ce n’est en rien une obligation !). Ce résultat serait-il valable quelle que

Le fait que la condition soit suffisante ne pose pas de difficulté particulière mais on notera le rôle déterminant joué par l’inversibilité de

Si un candidat est amené à repérer ce qui peut lui sembler être une erreur d'énoncé, il le signalera sur sa copie et devra poursuivre sa composition en expliquant les raisons