• Aucun résultat trouvé

Algèbre linéaire

N/A
N/A
Protected

Academic year: 2022

Partager "Algèbre linéaire"

Copied!
49
0
0

Texte intégral

(1)

Université de Bourgogne

Algèbre linéaire 1

2017-2018

1. Ce polycopié a été rédigé par Johan Taflin et modifié à la marge par Emmanuel Wagner.

(2)

emmanuel.wagner@u-bourgogne.fr Bureau A322

(3)

3

Préface

Ce texte est destiné aux étudiants de première année de licence physique/chimie à l’uni- versité de Bourgogne. Il s’agit d’une introduction à l’algèbre linéaire et au calcul matriciel.

Cette version est susceptible de contenir des coquilles et des erreurs. Tout commentaire est le bienvenu.

Méthodologie :L’assimilation d’un nouveau cours est difficile et exige un travail person- nel assidu. Il est important de s’approprier les notions, de trouver ses propres exemples et contre-exemples, de connaître les définitions, de s’interroger sur les hypothèses des énoncés etc.

Par ailleurs, il est illusoire de penser que ces notes de cours puissent remplacer une présence attentive en cours magistral.

(4)
(5)

Table des matières

1 Matrices 1

1.1 Calcul matriciel . . . 1

1.2 Systèmes linéaires . . . 6

1.3 La méthode du pivot . . . 6

1.4 Résolution des systèmes linéaires . . . 10

1.5 Rang et noyau d’une matrice. . . 12

1.6 Inversion de matrices . . . 13

2 Espaces Vectoriels 15 2.1 Définitions et exemples . . . 15

2.2 Sous-espaces vectoriels . . . 16

2.3 Familles génératrices, familles libres . . . 18

2.4 Bases et dimension . . . 21

2.5 Rang d’un système de vecteurs et rang d’une matrice . . . 22

2.6 L’espace vectoriel des polynômes . . . 23

3 Applications linéaires 27 3.1 Définition et premières propriétés . . . 27

3.2 Noyau, image et rang . . . 29

3.2.1 Calculs pratiques . . . 32

3.3 Matrices d’une application linéaire, matrices de passage . . . 33

4 Déterminant 35 4.1 Formes n-linéaires, formes alternées, déterminant . . . 35

4.2 Calculs pratiques . . . 38

5 Valeurs propres, vecteurs propres 41 5.1 Valeurs propres, spectres et polynômes caractéristiques . . . 41

(6)
(7)

Chapitre 1

Matrices

Ce chapitre introduit des objets très pratiques en algèbre linéaire : les matrices. Ce sont des tableaux de nombres sur lesquels il est possible de faire une série d’opérations.

Bien que leur manipulation soit très simple, elles interviennent dans de nombreux pro- blèmes. Nous les utiliserons par la suite aussi bien pour résoudre des systèmes linéaires que pour représenter des applications linéaires. Par ailleurs, les méthodes introduites dans ce chapitre sont algorithmiques, elles jouent un rôle important en informatique et sont présentes dans presque toutes les modélisations.

1.1 Calcul matriciel

Définition 1.1. Soit metn deux entiers. Unematrice de taille m×nest un tableau de nombres avecmlignes et ncolonnes de la forme

A=

a11 a12 · · · a1n a21 a22 · · · a2n

... ... . .. ... am1 am2 · · · amn

,

Lesaij sont des réels appelés coefficientsde A.On notera aussi A= (aij)1≤i≤m

1≤j≤n

ouA= (aij), s’il n’y a pas d’ambiguïté sur les indices.

Exemple 1.2. La matrice

A= (aij) = 0 5 8 −1

1 −4 18 2

!

est de taille 2×4.Le coefficient a23 est 18 et le a12 est 5.

Définition 1.3. L’ensemble des matrices de taillem×nsera notéMm,n(R).

Définition 1.4. Un élément deMm,1(R) est unvecteur colonne de taille m. Un élément deM1,n(R) est unvecteur ligne de taille n.

Exemple 1.5. La matrice

1 2 10 −8 3

(8)

est un vecteur ligne de taille 5 alors que la matrice

3 1

−5 7

est un vecteur colonne de taille 4.

Définition 1.6. Soit A = (aij) une matrice de Mm,n(R). La i-ème ligne de A est le vecteur ligneai1 ai2 . . . ain.La i-ème colonne deA est le vecteur colonne

a1j a2j ... amj

.

Exemple 1.7. Soit A la matrice 3×4 donnée par A=

5 −1 0 3

0 1 2 3

−1 −7 0 12

.

La troisième ligne deA est −1 −7 0 12et sa deuxième colonne

−1 1

−7

.

Définition 1.8. Soit A= (aij)∈Mm,n(R).La transposée de A est la matrice B = (bij) deMn,m(R) avec bij =aji.On la note tA.

Exemple 1.9. Si on reprend l’exemple précédent, la transposée de A=

5 −1 0 3

0 1 2 3

−1 −7 0 12

est

tA=

5 0 −1

−1 1 −7

0 2 0

3 3 12

.

Il est possible de définir deux opérations naturelles sur les matrices : l’addition de deux matrices de même taille et la multiplication d’une matrice par un nombre réel.

Définition 1.10. SiA= (aij) etB = (bij) sont deux éléments deMm,n(R),lasomme de AetB, notéeA+B,est la matrice C= (cij) aveccij =aij+bij.

Exemple 1.11. Par exemple dans le cas de matrice 2×4

0 2 7 9

17 −4 0 1

!

+ 1 −2 0 −5

−12 −1 −1 0

!

= 1 0 7 4

5 −5 −1 1

! .

(9)

1.1. Calcul matriciel 3 Définition 1.12. SiA= (aij) est une matrice de taillem×net λun nombre réel alors lamultiplication de A parλest donnée par la matrice λA= (λaij).

Exemple 1.13. Si la matriceA est donnée par

A= 8 2 −1 6

7 4 0 −4

!

alors la matrice (1/2)A est

4 1 −(1/2) 3

7/2 2 0 −2

! .

Définition 1.14. Pour m≥1 et n≥1 deux entiers fixés, on définit la matrice 0Mm,n(R) comme étant la matrice deMm,n(R) dont tous les coefficients sont nuls. On l’appellezéro deMm,n(R).Par exemple, si m= 2 etn= 4 alors

0M2,4(R) = 0 0 0 0 0 0 0 0

! .

Il est facile de voir qu’il s’agit de l’une unique matriceAdeMm,n(R) telle queA+B =B pour toute matriceB de Mm,n(R).S’il n’y a pas d’ambiguïté sur les indices, on la notera simplement par 0.

Il existe une troisième opération sur les matrices, à première vue moins intuitive mais essentielle pour la suite.

Définition 1.15. Soit m, n etp trois entiers. La multiplication d’une matrice A= (aij) de taillem×npar une matrice B = (bij) de taille n×p est une matrice AB = (cij) de taillem×p

cij =

n

X

k=1

aikbkj.

Remarque 1.16. Il n’est pas possible en général de faire la multiplication de deux ma- trices quelconques. Le produitABn’est possible que si le nombre de colonnes de la matrice Aest égal au nombre de lignes de la matriceB.

Exemple 1.17. 1) Un cas simple mais intéressant est celui de la multiplication d’un vecteur ligne par un vecteur colonne de même taille. Le résultat est un réel donné par

a1 a2 · · · an

×

b1 b2 ... bn

=a1b1+a2b2+· · ·+anbn.

2) De manière plus générale siA= (aij)∈Mm,n(R) etB = (bij)∈Mn,p(R),le coefficient cij de AB = (cij)∈Mm,p(R) est donnée par la multiplication de la i-ème ligne de A par la j-ème colonne deB.

a11 · · · a1n

... ... ... ai1 · · · ain

... ... ... am1 · · · amn

b11 · · · b1j · · · b1p ... ... ... ... ... bn1 · · · bnj · · · bnp

=

c11 · · · c1j · · · c1

... ... ... ... ... ci1 · · · cij · · · cip

... ... ... ... ... cm1 · · · cmj · · · cmp

(10)

aveccij =ai1b1j+ai2b2j+· · ·+ainbnj. 3) De manière plus concrète :

0 −1 3 4

1 2 −3 4

!

1 1 0

1 2 1

0 −1 −1

−1 0 0

= −5 −5 −4

−1 8 5

! .

Attention : Même si le produit AB est défini, ce n’est pas forcément le cas pour le produit BA. Et quand bien même les deux produits seraient bien définis, en général AB6=BA.Le produit matriciel n’est pas commutatif !

Exemple 1.18. Soit A= 0 1 0 0

!

etB = 1 1 0 0

!

.On peut vérifier que

AB= 0 0 0 0

!

6=BA= 0 1 0 0

!

=A.

Attention : Comme on vient de le voir dans l’exemple précédent, le fait que AB = 0 n’implique pas queA= 0 ou B = 0.

Néanmoins, il est facile de vérifier que les opérations sur les matrices vérifient les règles suivantes.

Proposition 1.19. 1) Le produit est distributif : A(B+C) =AB+AC, et

(A+B)C=AC+BC.

2) Le produit est associatif :

(AB)C =A(BC).

3) Si λ∈R alors

λ(AB) = (λA)B =A(λB).

4) Si A∈Mm,n(R) alors

0Mq,m(R)×A= 0Mq,n(R) et A×0Mn,p(R)= 0Mm,p(R).

Proposition 1.20. Soit A et B deux matrices. Si le produit AB est bien défini alors le produittBtA l’est aussi et tBtA=t(AB).

Les matrices avec autant de lignes que de colonnes interviennent souvent dans la pra- tique.

Définition 1.21. Une matrice de taille n×n est dite carrée. L’ensemble de toutes ces matrices est noté Mn(R). Pour une matrice A = (aij) ∈ Mn(R), les coefficients aii, 1≤in, sont appelés les coefficients diagonaux de A.

Parmi les matrices carrées, une est particulièrement importante.

(11)

1.1. Calcul matriciel 5 Définition 1.22. La matrice identité de taille nest la matrice de Mn(R) dont les coef- ficients diagonaux valent 1 et tous les autres coefficients valent 0. On la note In,Idn ou simplement Id.

In=

1 0 · · · 0

0 1 ...

... . .. 0 0 · · · 0 1

Comme son nom l’indique, la multiplication parIn agit par identité.

Proposition 1.23. Si A∈Mm,n(R) alors

AIn=ImA=A.

Définition 1.24. Une matrice A ∈ Mn(R) est dite inversible s’il existe B ∈Mn(R) tel que

AB=BA=In.

Dans ce cas,Best appeléinversedeAet est notéA−1.L’ensemble des matrices inversibles deMn(R) est désigné par Gln(R),pour groupe linéaire.

Attention : SiA etB sont dans Gln(R) alors le produitAB l’est aussi et (AB)−1 =B−1A−1.

Remarque 1.25. Nous verrons dans le chapitre sur les applications linéaires que pour qu’une matriceAsoit inversible, il suffit qu’elle ait un inverse à gauche (c.à.d une matrice B telle que BA=In) ou un inverse à droite (c.à.d une matrice C telle que AC =In).

Dans la suite du cours, nous rencontrerons un certain nombre d’ensembles de matrices particulières.

Définition 1.26. SoitA= (aij)∈Mn(R).

1) Siaij = 0 dès quei > j alors la matrice Aest dite triangulaire supérieure, 2) Siaij = 0 dès quei < j alors la matrice Aest dite triangulaire inférieure,

3) Siaij =ajipour tout 1≤i, jn(autrement dit sitA=A) alorsAest ditesymétrique, 4) Siaij =−aji pour tout 1≤i, jn (autrement dit sitA=−A) alors A est diteanti- symétrique. En particulier, les coefficients diagonaux de Asont nuls.

Exemple 1.27. 1) La matrice

2 4 −8

0 7 1

0 0 −1

est triangulaire supérieure alors que

3 0 0 0

1 4 0 0

2 −1 0 0

1 2 3 4

est triangulaire inférieure.

2) La matrice

1 2 −3 −1

2 0 9 7

−3 9 5 1

−1 7 1 8

(12)

est symétrique alors que

0 1 2

−1 0 −5

−2 5 0

est anti-symétrique.

1.2 Systèmes linéaires

Un des avantages des matrices est qu’elles permettent de réécrire les systèmes linéaire de manière concise et manipulable. Rappelons qu’un système linéaire est un système d’équations linéaires

a11x1+a12x2+ · · · +a1nxn= b1 a21x1+a22x2+ · · · +a2nxn= b2

... ... ... ...

am1x1+am2x2+ · · · +amnxn= bm

.

Dans cette exemple, il y a m équations avec n inconnues x1, . . . , xn. En utilisant une écriture matricielle, le système linéaire est équivalent à

AX =BA = (aij)∈ Mm,n(R), X =

x1

... xn

et B =

b1

... bm

. Résoudre un tel système revient à déterminer tous lesn-uplets (x1, . . . , xn)∈Rn tels que toutes les équations sont vérifiées.

Nous verrons dans la section suivante qu’en utilisant la méthode du pivot, il est possible de résoudre de manière systématique tout système linéaire.

Dans le cas particulier où il y a autant d’équations que d’inconnues, c’est-à-dire quand A est une matrice carrée, et que de plus A est inversible alors pour tout B il existe un uniqueX vérifiantAX =B,donné par X=A−1B.

1.3 La méthode du pivot

Le but de cette section est d’expliquer une méthode, souvent dite du pivot de Gauss, particulièrement efficace pour résoudre des systèmes linéaires. Elle repose sur seulement trois opérations sur les matrices.

Définition 1.28. Soit A une matrice dont on note par Li la i-ème ligne. Une opération élémentairesur les lignes de A consiste à

1. remplacer une ligneLi parLi+Lj, 2. échanger deux lignes,

3. ou multiplier une ligne par un scalaire non nul.

On notera AA0 quand on passe d’une matriceA à une matrice A0 par une opération élémentaire. Dans ce poly, on écrira les opérations à gauche de la nouvelle matrice.

Exemple 1.29.

1 2 3 4 5 6

L2

L1

4 6 3 4 5 6

L3

L2

4 6 5 6 3 4

→ 2L3

4 6 5 6 6 8

.

(13)

1.3. La méthode du pivot 7 Remarque 1.30. 1) Il est aussi possible de faire plusieurs opérations élémentaires à la fois, tant qu’elles restent réversibles. De cette façon, on peut remplacer Li par Li+λLj

avecλ∈Reti6=j.

2) Par contre, il n’est pas possible de multiplier une ligne par 0 ou de faire des opérations du type

1 2 3 4 5 6

L1+L2 L1+L2

4 6 4 6 5 6

.

Les systèmes linéaires associés aux matrices suivantes sont particulièrement simples à résoudre.

Définition 1.31. Une matrice est dite échelonnée si le premier coefficient non nul de la ligne i+ 1 est à droite de celui de la ligne i. Dans ce cas, le premier coefficient non nul d’une ligne est appelépivot.

Définition 1.32. Une matrice est diteéchelonnée réduite si elle est échelonnée et vérifie les deux propriétés suivantes :

1) Les pivots valent tous 1.

2) Dans sa colonne, le pivot est le seul coefficient non nul.

Exemple 1.33. 1) Les matrices

1 0 2 0 0 1 1 0 0

,

1 2 2 0 0 1 0 0 2

ne sont pas échelonnées alors que

1 2 2 0 0 1 0 0 0

,

0 4 2 3

0 0 −1 5

0 0 0 7

, 9 0 2 8 0 0 1 1

!

le sont et leurs pivots sont marqués en bleu. Par contre elles ne sont pas échelonnées réduites.

2) La matrice

0 1 0 6 0

0 0 1 4 0

0 0 0 0 1

est échelonnée réduite.

Avant d’introduire la méthode du pivot, il reste à fixer quelques notations.

Si A et B sont deux matrices avec le même nombre de lignes, on notera (A|B) la matrice obtenue en juxtaposantA à côté deB.Par exemple, si

A= 1 0 2 1

!

etB = 9 7 −1

5 −2 8

!

alors (A|B) = 1 0 9 7 −1

2 1 5 −2 8

! .

Plus généralement, on notera parfois les matrices avec des blocs. Par exemple, si A=

1 2 3 4 5 6 7 8 9

(14)

alors

A=

1 2 3

4 B

7

avec B= 5 6 8 9

!

ou encore

A=

1

4 C

7

avec C=

2 3 5 6 8 9

.

La méthode

La méthode du pivot fournit un algorithme pour passer d’une matrice quelconque à une matrice échelonnée (voire échelonnée réduite) en utilisant des opérations élémentaires.

Voici les différentes étapes pour une matriceA.

Etape 1 (On ignore les colonnes nulles)

Si la première colonne de Aest nulle, c’est-à-dire

A=

0

... A0 0

on reprend l’étape 1 avecA0.Sinon on passe à l’étape suivante.

Etape 2 (Installation du pivot)

On choisit une ligne dont le premier coefficient est non nul et on la place en première ligne.

Etape 3 (Nettoyage sous le pivot)

On remplace chacune des lignesLi (i6= 1) parLiλiL1 avec λi choisi de sorte que le premier coefficient de la nouvelle ligneLi s’annule.

Etape 4 (Itération)

La matrice qu’on obtient est maintenant de la forme

p × · · · × 0

... A0 0

.

SiA0 est non nulle, on reprend l’étape 1 avec elle. Sinon, on arrête l’algorithme.

Puisque après une boucle, l’algorithme reprend avec une matrice plus petite et que la matrice d’origine est de taille finie, l’algorithme aboutit forcément. De cette manière, en partant de n’importe quelle matrice, on arrive à une matrice échelonnée. De là, on peut faire deux étapes supplémentaires pour obtenir une matrice échelonnée réduite.

(15)

1.3. La méthode du pivot 9 Etape 5

On multiplie les lignes avec pivots pour qu’ils valent 1.

Etage 6

On nettoie au dessus des pivots.

Remarque 1.34. Il est toujours possible de faire des étapes intermédiaires si cela semble simplifier les calculs.

Exemple 1.35. Considérons la matrice suivante

A=

0 4 2 6 0 2 2 3 0 1 0 1 0 0 4 2

.

Puisque la première colonne est nulle, on considère la sous-matrice en bleu

0 4 2 6 0 2 2 3 0 1 0 1 0 0 4 2

.

On choisit une ligne de la matrice en question dont le premier coefficient est non nul. Pour simplifier les calculs, il peut être astucieux de prendre un pivot simple, par exemple 1 dans notre cas.

0 4 2 6 0 2 2 3 0 1 0 1 0 0 4 2

L3

L1

0 1 0 1 0 2 2 3 0 4 2 6 0 0 4 2

.

Puis on nettoie sous le pivot

0 1 0 1 0 2 2 3 0 4 2 6 0 0 4 2

L2−2L1

L3−4L1

0 1 0 1 0 0 2 1 0 0 2 2 0 0 4 2

.

Et on recommence

0 1 0 1 0 0 2 1 0 0 2 2 0 0 4 2

L3L2 L4−2L2

0 1 0 1 0 0 2 1 0 0 0 1 0 0 0 0

pour obtenir une matrice échelonnée. Il reste à la réduire

0 1 0 1 0 0 2 1 0 0 0 1 0 0 0 0

L2/2

0 1 0 1

0 0 1 1/2

0 0 0 1

0 0 0 0

L1L3

L2L3/2

0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0

.

Remarque 1.36. La forme échelonnée d’une matrice n’est pas unique mais par contre la forme échelonnée réduite l’est.

(16)

1.4 Résolution des systèmes linéaires

La première application de la méthode du pivot est de résoudre les systèmes linéaires.

En effet, il est évident que les solutions d’un système linéaire ne change pas si on inter- change deux équations, si on multiplie une équation par une constante non nulle ou encore si on remplace une équation par sa somme avec une autre équation.

Définition 1.37. Soit AX =B et A0X =B0 deux systèmes linéaires. On dit qu’ils sont équivalentssi l’on peut passer de la matrice (A|B) à la matrice (A0|B0) par des opérations élémentaires.

La discussion ci-dessus implique le résultat suivant.

Théorème 1.38. Deux systèmes équivalents ont même ensemble de solutions.

Une manière plus formelle de le voir est d’introduire les matrices suivantes. Soitn≥1 et 1≤k, lntrois entiers. La matrice Ekl= (eij)∈Mn(R) est définie par ekl=elk= 1, ekk =ell = 0, eii = 1 pour tout i6=k, l et eij = 0 sinon. Multiplier à gauche une matrice AparEkl revient à inverser la lignekavec la lignel.

Exemple 1.39. Sin= 2 etA= 1 0 9 8

−2 −3 4 5

! alors

E12A= 0 1 1 0

! 1 0 9 8

−2 −3 4 5

!

= −2 −3 4 5

1 0 9 8

! .

De même, la matrice Fkl = (fij) ∈ Mn(R) est définie par fkl = 1, fii = 1 pour tout 1≤inetfij = 0 sinon. Multiplier à gaucheAparFklrevient à échanger la ligne kpar sa somme avec la lignel.

Exemple 1.40.

F12A= 1 1 0 1

! 1 0 9 8

−2 −3 4 5

!

= −1 −3 13 13

−2 −3 4 5

! .

Enfin, siα∈R, α6= 0,alors la matriceGk(α) = (gij)∈Mn(R) est définie pargkk=α, gii = 1 si i 6= k et gij = 0 sinon. La multiplication à gauche de A par Gk(α) revient à multiplier la lignekpar α.

Exemple 1.41.

G1(3)A= 3 0 0 1

! 1 0 9 8

−2 −3 4 5

!

= 3 0 27 24

−2 −3 4 5

! .

Ces trois types de matrices s’appellent des matrices élémentaires.

Remarque 1.42. Ces matrices sont inversibles, d’inverseEkl−1=Ekl, Gk(α)−1=Gk−1) etFkl−1 =Gk(−1)FklGk(−1).

Pour résumer, la multiplication à gauche par une matrice élémentaire revient exac- tement à faire une des trois opérations élémentaires sur les lignes d’une matrice. Par conséquent, appliquer la méthode du pivot, revient à faire une succession de multiplica- tions à gauches par des matrices élémentaires. Le théorème découle alors de la proposition élémentaire suivante.

(17)

1.4. Résolution des systèmes linéaires 11 Proposition 1.43. Si AetB sont des matrices avecnlignes et que C ancolonnes alors

C(A|B) = (CA|CB).

Démonstration du théorème. Si on passe de (A|B) à (A0|B0) par une suite d’opération élémentaires, cela veut dire qu’il existe une suite de matrices élémentairesE1, . . . , EN telle que (A0|B0) = E1E2· · ·EN(A|B). La Proposition 1.43 implique que A0 = E1· · ·ENA et queB0 =E1· · ·ENB.Donc si X vérifieAX =B il vérifie aussi

E1· · ·ENAX=E1· · ·ENB c’est-à-dire A0X =B0. Inversement, siA0X=B0 on a aussi AX=B car lesEi sont inversibles.

Par ailleurs, à tout systèmeAX=B,on peut associer grâce à la méthode du pivot un systèmeA0X=B0 avec (A0|B0) échelonnée réduite. Il ne reste plus qu’a résoudre ce type de système.

Théorème 1.44. Soit AX = B un système linéaire tel que la matrice (A|B) soit éche- lonnée réduite. Le système a au moins une solution si et seulement si il n’y a pas de pivot dans la dernière colonne.

Dans ce cas, les inconnues correspondant à une colonne avec pivot sont dites contraintes et les autres sont dites libres. L’ensemble des solutions s’obtient en fixant arbitrairement chacune des inconnues libres et en calculant à partir de là les variables contraintes.

Exemple 1.45. SiA =

0 1 2 0 9

0 0 0 1 8

0 0 0 0 0

et B =

0 0 1

alors la matrice (A|B) est éche- lonnée réduite et correspond au système linéaire

x2+ 2x3 +9x5 = 0 x4 +8x5 = 0

0 = 1

,

qui n’a évidemment pas de solution car la dernière ligne est contradictoire. Cela vient du fait que (A|B) a un pivot dans ça dernière colonne.

En revanche, si C =

2

−4 0

alors la matrice (A|C) est aussi échelonnée et le système correspondant est

x2+ 2x3 +9x5 = 2 x4 +8x5 =−4

0 = 0

.

Cette fois il n’y a pas de pivot dans la dernière colonne. Les variablesx2etx4correspondent à une colonne avec un pivot, elles sont donc contraintes, alors que les colonnes dex1, x3

etx5 sont sans pivot et ces variables sont libres. L’ensemble des solutions deAX =C est donc

S={(x1, x2, x3, x4, x5)∈R5|x2 = 2−2x3−9x5, x4 =−4−8x5}.

Si l’on veut une solution particulière, il suffit de choisir les variables libres de manière arbitraire, par exemple icix1= 12, x3=−1 etx5= 1,et d’en déduire les autres variables, icix2=−5 et x4 =−12.

(18)

Une conséquence de ce théorème est que l’ensemble des solutions d’un système linéaire est soit vide, soit réduit à un élément, soit infini. Dans le cas d’un système homogène, le premier cas n’est pas possible car il y a toujours au moins une solution qui est 0.

Corollaire 1.46. Si un système homogène a (strictement) plus d’inconnues que d’équa- tions alors il a une infinité de solutions.

1.5 Rang et noyau d’une matrice.

On définit ici, le rang et le noyau d’une matrice, ainsi que la méthode pour les calcu- ler. Ces notions seront reprise dans les deux chapîtres suivant pour parler et calculer le rang d’un système de vecteurs ou d’une application linéaire et déterminer le noyau d’une application linéaire.

Définition 1.47. Le rang d’une matrice A est le nombre de pivot d’une de ses formes échelonnées.

Pour calculer le rang d’une matriceAil suffit donc de la mettre sous-forme échelonnée réduite.

Définition 1.48. Le noyau d’une matrice A est l’ensemble des solutions du système homogèneAX = 0. On le note Ker(A).

Trouver le noyau d’une matriceArevient donc à résoudre le systèmeAX = 0 et encore une fois on échelonne et on réduit la matriceA.

On verra dans le chapître suivant que Ker(A) est un exemple d’espace vectoriel, et obtenir une forme échélonnée réduite pourApermettra de donner des solutions deAX = 0 préférée à partir desquelles retrouver toutes les autres, cet ensemble de solutions préférées formeront ce qu’on appelera une base deKer(A).

Exemple 1.49. On considère :

A=

1 2 0 2 0 0 0 1 1 0 0 0 1 1 1 1 2 0 2 0 1 2 1 3 0 0 0 0 0 0

,

dont une forme échélonnée réduite est donnée par :

A0=

1 2 0 2 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

.

Le rang deA est donc de 3. Trouver le noyau revient donc à résoudre

x1+ 2x2+ 2x4= 0 x3+x4 = 0

x5 = 0

(19)

1.6. Inversion de matrices 13 En mettant à gauche les variables correspondants aux colonnes contenant un pivot et à droite les autres :

x1 =−2x2−2x4 x3=−x4

x5 = 0

On peut choisir librement les valeurs de x2 et x4 et n’importe quelle choix détermine de manière unique les valeurs pour dex1,x3 etx5 (x5 étant déjà égal à zéro.)

On notera que la somme du nombre de variables pouvant être choisis librement dans le calcul du noyau et du rang est évidement égal au nombre de colonnes. On reverra cette propriété dans le chapître 3, sous le nom de Théorème du rang.

1.6 Inversion de matrices

Il n’est pas évident à première vue de voir si une matrice est inversible ni de trouver cet inverse s’il existe. La méthode du pivot permet de répondre à ces deux questions.

Théorème 1.50. Soit A ∈ Mn(R). La matrice A est inversible si et seulement si la matrice échelonnée réduite associée à(A|In) est de la forme(In|B).Dans ce cas, l’inverse deA est précisément la matrice B,c’est-à-dire A−1=B.

Démonstration. Si la forme échelonnée réduite de (A|In) est (In|B), cela signifie qu’il existe une suite de matrices élémentairesE1, . . . , EN telle que (In|B) = E1· · ·EN(A|In).

Cela implique, d’après la Proposition 1.43, que E1· · ·ENA = In et que B = E1· · ·EN, c’est-à-dire queBA=In et donc que A est inversible avecA−1=B.

Inversement, puisque la seule matrice échelonnée réduite qui est inversible est In, si A est inversible alors la forme échelonnée réduite de (A|In) est forcement de la forme (In|B).

Exemple 1.51. 1) Soit A=

1 2 3 4 5 6 7 8 9

.Vérifions si elle est inversible.

(A|I3) =

1 2 3 1 0 0

4 5 6 0 1 0

7 8 9 0 0 1

L2−4L1 L3−7L1

1 2 3 1 0 0

0 −3 −6 −4 1 0

0 −6 −12 −7 0 1

L3−2L2

1 2 3 1 0 0

0 −3 −6 −4 1 0

0 0 0 1 −2 1

.

A cette étape, on voit que l’on n’arrivera jamais à avoir In à gauche et donc que A n’est pas inversible.

2) Par contre siA0=

1 1 1 0 1 0 2 3 3

alors

(A0|In) =

1 1 1 1 0 0

0 1 0 0 1 0

2 3 3 0 0 1

L3−2L1

1 1 1 1 0 0

0 1 0 0 1 0

0 1 1 −2 0 1

(20)

L3L2

1 1 1 1 0 0

0 1 0 0 1 0

0 0 1 −2 −1 1

L1L2L3

1 0 0 3 0 −1

0 1 0 0 1 0

0 0 1 −2 −1 1

.

DoncA0 est inversible etA−1 =

3 0 −1

0 1 0

−2 −1 1

.

(21)

Chapitre 2

Espaces Vectoriels

La notion d’espace vectoriel est centrale aussi bien en mathématiques qu’en physique ou en informatique. Elle cherche à formaliser l’intuition d’"espace ambiant" à trois dimensions et ce faisant, donne un cadre bien plus général.

L’algèbre linéaire fournit un ensemble de techniques de calcul dans les espaces vectoriels qui s’avèrent particulièrement efficaces dans de nombreux problèmes, aussi bien théoriques qu’appliqués.

2.1 Définitions et exemples

La définition d’un espace vectoriel est abstraite et est rarement utilisée directement.

Néanmoins, il est important de bien se familiariser avec.

Définition 2.1. Un espace vectoriel (E,+,·) est un ensemble E muni de deux lois

— une loi interne, notée + : E×EE,(u, v)7→u+v,

— une loi externe, notée·:R×EE,(λ, u)7→λ·u, telles que les relations suivantes soient vérifiées :

1)∀(u, v)∈E2, u+v=v+u, (+ est commutative)

2)∀(u, v, w)∈E3, u+ (v+w) = (u+v) +w, (+ est associative) 3)∃0EE,∀u∈E, u+ 0E =u, (0E est l’élément neutre de +) 4)∀u∈E,∃ −uE, u+ (−u) = 0E, (tout élément de E a un inverse) 5)∀λ∈R,(u, v)∈E2, λ·(u+v) =λ·u+λ·v

6)∀(λ, µ)∈R2,∀u∈E, λ·u+µ·u= (λ+µ)·u 7)∀(λ, µ)∈R2,∀u∈E, λ·(µ·u) = (λµ)·u

8)∀u∈E,u=u.

Notation 2.2. On abrégera “espace vectoriel” par “e.v”.

Définition 2.3. Les éléments d’un e.v sont appelés desvecteurset ceux deRdesscalaires.

L’exemple le plus élémentaire d’e.v est Rn.

Exemple 2.4. Soitn≥1 un entier. On noteRnl’ensemble desn-uplets d’éléments deR, c-à-d les objets de la forme (x1, x2, . . . , xn) où pour tout 1≤in, xi est un élément de Ret tel que (x1, . . . , xn) = (x01, . . . , x0n) si et seulement si xi =x0i pour tout 1≤in.

L’ensembleRn muni des lois

(22)

— (x1, . . . , xn) + (y1, . . . , yn) = (x1+y1, . . . , xn+yn),

λ·(x1, . . . , xn) = (λx1, . . . , λxn), est un e.v.

En fait, la Définition 2.1 généralise les règles de calcul surRnsans utiliser de système de coordonnées.

Proposition 2.5. Soit E un e.v, uE et λ∈R.Alors on a 1) λ·u= 0E si et seulement si λ= 0R ou u= 0E, 2) −u= (−1)·u.

Démonstration. 1) Siλ= 0R alors

0R·u= (0R+ 0Ru= 0R·u+ 0R·u, d’où 0R·u= 0E.De manière similaire, si u= 0E alors

λ·(0E) =λ·(0E + 0E) =λ·0E+λ·0E, et on obtientλ·0E = 0E.

Inversement, siλ·u= 0E etλ6= 0R alors

0E =λ−1·0E =λ−1·(λ·u) = (λ−1λ)·u= 1·u=u.

2)u+ (−1)·u= (1−1)·u= 0R·u= 0E.

Notation 2.6. Pour simplicité, s’il n’y a pas de confusion possible le symbole·sera omis et on écrira 0 au lieu de 0E ou 0R.

Voici d’autres exemples d’e.v.

Exemple 2.7. 1) Si m ≥ 1 et n ≥ 1 sont deux entiers, alors Mm,n(R) munit des deux lois définies dans la Définition 1.10 et la Définition 1.12 est un e.v.

2) L’ensemble F(R,R) des fonctions de Rdans R est un e.v. muni des lois suivantes. Si f et g sont deux fonctions de F(R,R) alors la valeur de f +g en x est par définition (f +g)(x) :=f(x) +g(x). De même, siλ∈R est un scalaire alors (λf)(x) :=λf(x) par définition.

3) Soita∈R.L’ensemble{(x, y)∈R2|y=ax} muni des lois induites par celles deR2 est un e.v.

4) Soit (a, b)∈R2.L’ensemble{(x, y)∈R2|y=ax+b}n’est pas un e.v si b6= 0.

Définition 2.8. Soit E un e.v etn≥1 un entier. Soit u1, . . . , un des éléments deE. On appellecombinaison linéairedeu1, . . . , untout vecteurvde la formev=λ1u1+· · ·+λnun

avecλi ∈R.On dira que la combinaison estnon triviale si lesλi ne sont pas tous nuls.

2.2 Sous-espaces vectoriels

Un moyen simple de vérifier qu’un ensemble est un e.v est de montrer qu’il est un sous-espace vectoriel d’un e.v qu’on connaît déjà.

(23)

2.2. Sous-espaces vectoriels 17 Définition 2.9. Soit (E,+,·) un e.v. Un sous-ensemble F de E est une sous-espace vectoriel si

1)F est non vide, 2)F est stable pour + :

∀(u, v)∈F2, u+vF.

3)F est stable pour·:

∀u∈F,∀λ∈R, λuF.

Si F est un sous-espace vectoriel de E,on le munit des lois induites par celles de E, ce qui en fait naturellement un e.v.

Notation 2.10. On abrégera “sous-espace vectoriel” par “s.e.v”.

Exemple 2.11. 1) L’ensemble défini dans l’Exemple 2.7 3) est un s.e.v de R2.

2) Sin≥1 est un entier alors l’ensemble des matrices triangulaires supérieures de Mn(R) forme un s.e.v de Mn(R). Il en est de même avec l’ensemble de matrices triangulaires inférieures, les matrices symétriques ou encore les matrices anti-symétriques.

3) L’ensembleC(R) des fonctions continues deRdansRest un s.e.v deF(R,R).En effet, C(R) n’est pas vide car les fonctions constantes sont dedans. De plus la somme de deux fonctions continues est continue et le produit d’une fonction continue par une constante est encore continue.

4) Si on considère l’équation différentielley00+y = 0 alors l’ensemble des solutions S:={f ∈F(R,R)|f est deux fois dérivable etf00+f = 0}

est un s.e.v deF(R,R).

Un moyen de détecter qu’un sous-ensemble n’est pas un s.e.v est donné par l’exercice suivant.

Exercice 2.12. Montrer que si FE est un s.e.v alors 0E appartient àF.

Néanmoins, il n’est pas suffisant.

Exemple 2.13. Le sous-ensemble deR2 défini par F :={(x, y)∈R2|y=x2} n’est pas un s.e.v de R2 bien que (0,0) = 0

R2F. En effet, (1,1) appartient à F mais (−1)·(1,1) = (−1,−1) n’est pas dans F,doncF ne peut pas être un s.e.v.

La proposition suivante permet de vérifier plus rapidement qu’un sous-ensemble est un s.e.v.

Proposition 2.14. Soit (E,+,·) un e.v. Un sous-ensemble FE est un s.e.v si et seulement si

1) F est non vide.

2) ∀(u, v)∈F2,∀λ∈R, u+λvF.

Plus généralement, un s.e.v est un sous-ensemble stable par combinaisons linéaires.

Proposition 2.15. Soit u1, . . . , un des vecteurs d’un e.vE.Si F est un s.e.v de E conte- nant u1, . . . , un alors F contient toutes les combinaisons linéaires de u1, . . . , un.

(24)

Démonstration. On raisonne par récurrence sur n. Pour n= 1,une combinaison linéaire de u1 est de la forme λ1u1 avec λ1 ∈ R. Mais si u1 appartient à F,alors, par définition d’un s.e.v,λ1u1 aussi. Maintenant, supposons qu’il existe un n≥1 tel que la proposition soit vérifiée pour toute famille de n vecteurs. On en déduit que si Pn+1i=1 λiui est une combinaison linéaire den+1 vecteursu1, . . . , un+1deFalors par l’hypothèse de récurrence, Pn

i=1λiui appartient à F. Mais, par la Proposition 2.14 cela implique que Pn+1i=1 λiui = Pn

i=1λiui+λn+1un+1 est aussi un élément de F.

Il est facile de voir que l’intersection de s.e.v est encore un s.e.v.

Proposition 2.16. L’intersection de deux s.e.v est un s.e.v. Plus généralement, l’inter- section d’une famille de s.e.v est encore un s.e.v.

Exemple 2.17. DansMn(R),l’intersection de l’ensemble de matrices triangulaires supé- rieures avec celui des matrices triangulaires inférieures est égale à l’ensemble de matrices diagonales qui est lui aussi un s.e.v.

Attention : En général, l’union de deux s.e.v n’en est pas un !

Exercice 2.18. SoitF etGdeux s.e.v deE.Montrer queF∪Gest un s.e.v si et seulement siFGou GF.

En revanche, il est possible de définir la somme de deux s.e.v F1 et F2 de E, qui est encore un s.e.v deE.

Définition 2.19. SoitE un e.v et F1, F2E des s.e.v. Lasomme F1+F2 de F1 avec F2 est définie par

F1+F2 ={u=u1+u2|u1F1, u2F2}.

La somme est ditedirectesiF1F2 ={0},et on écrira dans ce casF1F2.Dans ce cas, le couple (u1, u2)∈F1×F2 tel queu=u1+u2 est unique.

Définition 2.20. Soit E un e.v et FE un s.e.v. Un supplémentaire GE de F est un s.e.v tel queE =FG. On dit aussi queF etG sont supplémentaires.

Attention : En général, le supplémentaire à F n’est pas unique !

Exemple 2.21. Soit F ={(x,0)∈ R2}.Les s.e.v G1 ={(0, x) ∈R2} et G2 ={(x, x)∈ R2} sont deux supplémentaires différents deF.

Exercice 2.22. Soit P ⊂F(R,R) l’ensemble des fonctions paires deR dansR etI ⊂ F(R,R) l’ensemble des fonctions impaires.

1) Montrer queP etI sont des s.e.v deF(R,R).

2) Montrer queP etI sont supplémentaires dansF(R,R).

2.3 Familles génératrices, familles libres

Définition 2.23. Unefamilled’un s.e.vE est simplement un sous-ensemble deEdont les éléments sont indexés. Dans ce cours, nous considérerons uniquement des familles finies, c-à-d de la forme (u1, . . . , un) où chaque ui est un vecteur de E pour 1≤in.

Définition 2.24. Soit (u1, . . . , un) une famille d’un e.vE.Lesous-espace vectoriel engen- dré par la famille (u1, . . . , un) est l’ensemble de toutes les combinaisons linéaires possibles desu1, . . . , un.On le note Vect(u1, . . . , un).

Références

Documents relatifs

[r]

Soit E un ev de dimension finie n ∈ N ∗.. VI.1.d) Lien entre éléments propres d’un endomorphisme et élé- ments propres de sa matrice représentative dans une base Théorème

Démontrer que ces matrices sont inversibles et calculer leur inverse.. Retrouver le fait que A est inversible ainsi que l'inverse

« Certains auteurs, parlant de leurs ouvrages, disent : mon livre, mon commentaire, mon histoire… ils feraient mieux de dire : notre livre, notre commentaire,

[Mines] Soient E un C-espace vectoriel de dimension nie et u un endomorphisme de E.. Formes linéaires

e) Déterminer une base B' de E dans laquelle la matrice A' de  est diagonale. ii) Pour tout nombre entier naturel n, exprimer u n en fonction de n et de c.. iii) Montrer que

Ainsi, la matrice échelonnée (réduite ou non) obtenue à partir de la matrice augmentée d’un système d’équations linéaires en appliquant les opérations élémentaires sur

Elles ne sont pas en somme directe, mais en somme directe deux à deux... On suppose E de