• Aucun résultat trouvé

3) Espace vectoriel produit

N/A
N/A
Protected

Academic year: 2022

Partager "3) Espace vectoriel produit"

Copied!
15
0
0

Texte intégral

(1)

II - Structure d’espace vectoriel

Kdésigne Rou C.

1) Définition

On appelle K-espace vectoriel tout triplet(E,+, .) où :

1) E est un ensemble dont les éléments sont appelés vecteurs.

2) +est une loi de composition interne surE telle que(E,+) soit un groupe abélien.

L’élément neutre0 est appelévecteur nul.

3) .: K×E → E (λ, x) → λ.x

est une loi de composition externe vérifiant :

∗ ∀(λ, µ)∈K2 ∀x∈E (λ+µ).x=λ.x+µ.x;

∗ ∀λ∈K ∀(x, y)∈E λ.(x+y) =λ.x+λ.y ;

∗ ∀(λ, µ)∈K2 ∀x∈E λ.(µ.x) = (λµ).x ;

∗ ∀x∈E 1.x=x.

Exemples : 1)(K,+, .) où . est la multiplication dansK.

2) L’ensembleEDdes applications d’un ensembleDdans un espace vectorielE(les opéra- tions dansEDétant définies grâce à celles deE: f+g:x→f(x)+g(x);λ.f :x→λ.f(x)).

2) Propriétés élémentaires

• ∀x∈E 0.x= 0.

• ∀λ∈K λ.0 = 0.

• ∀(λ, x)∈K×E λ.x= 0⇔(λ= 0oux= 0).

• ∀(λ, x)∈K×E (−λ).x=−(λ.x) =λ.(−x).

3) Espace vectoriel produit

Soit (Ek,+, .) 1≤k≤n une famille deK-espaces vectoriels.

L’ensemble E1× · · · ×En muni des lois +et.définies par :

•(x1, . . . , xn) + (y1, . . . , yn) = (x1+y1, . . . , xn+yn)

•λ.(x1, . . . , xn) = (λ.x1, . . . , λ.xn)

est un K-espace vectoriel, appelé espace vectoriel produit deE1, . . . , En. Exemples : 1) L’exemple canonique estKn.

2)Cs’identifie à R2 en tant que R-espace vectoriel.

II

II - Sous-espaces vectoriels

E désigne unK-espace vectoriel.

1) Définition

Soit F une partie deE. On dit queF est unsous-espace vectoriel deE si et seulement si la restriction de la loi + à F ×F et la restriction de la loi . à K×F induisent sur F une structure de K-espace vectoriel.

(2)

2) Caractérisations

Une partie F deE est un sous-espace vectoriel deE si et seulement si

• 0∈F et

∀(x, y)∈F2 x+y ∈F et

∀(λ, x)∈K×F λ.x∈F ; ou bien

• 0∈F et

∀λ∈K ∀(x, y)∈F2 λ.x+y∈F.

3) Intersection de sous-espaces vectoriels

Théorème :l’intersection d’une famille quelconque de sous-espaces vectoriels de E est un sous-espace vectoriel de E.

Attention ! En général, l’union de deux sous-espaces vectoriels deE n’est pas un sous-espace vectoriel de E (c’en est un si et seulement si l’un des deux sous-espaces considérés est inclus dans l’autre. . .).

4) Sous-espace engendré par une partie ou une famille

Soit A une partie de E. On appelle sous-espace vectoriel engendré par A l’intersection de tous les sous-espaces vectoriels de E contenant A, notée VectA.

VectA est le plus petit (au sens de l’inclusion) des sous-espaces deE contenant A.

VectA est l’ensemble formé du vecteur nul et des vecteurs de la forme

p

k=1

λk.ak , où les λk sont des scalaires et lesak des vecteurs deA (Vect∅={0}).

Si (xi)i∈I est une famille de vecteurs de E, on noteVect (xi)i∈I les sous-espace engendré par la partie {xi, i∈I}.

5) Somme de deux sous-espaces vectoriels

Définition :soient F etG deux sous-espaces vectoriels de E, on appellesomme de F et G la partie de E notée F +Gdéfinie par : F+G={x∈E /∃(y, z)∈F×G x=y+z}.

Théorème :F +G est un sous-espace vectoriel de E. C’est le plus petit sous-espace vectoriel de E contenant F etG (autrement ditF+G= Vect (F∪G)).

6) Sous-espaces vectoriels supplémentaires

Définition :deux sous-espaces vectorielsF etGdeEsont ditssupplémentaires dans Esi et seulement si tout vecteur de E se décompose de façon unique comme somme d’un vecteur de F et d’un vecteur de G, c’est-à-dire si et seulement si :

∀x∈E ∃!(y, z)∈F×G x=y+z . Théorème :les assertions suivantes sont équivalentes :

a)F etGsont supplémentaires dans E.

b)E ⊂F+GetF ∩G={0}.

Attention ! Ne pas confondreun supplémentaire etle complémentaire. Si x est un vecteur deE qui n’appartient pas àF,xn’est pas pour autant nécessairement dansG! On peut seulement affirmera priori que x s’écrity+z, avec(y, z)∈F ×Get z= 0. . .

(3)

III

III - Translations, sous-espaces affines (hors programme en PCSI)

Soit E unK-espace vectoriel.

1) Translations

Définition :pour tout vecteuradeE, on appelletranslation de vecteur al’applicationτa:v→a+v, de E dans E .

Propriétés :1)τ0 = IdE et ∀(a, b)∈E2 τa◦τba+b. 2) Pour tout adeE,τa est bijective etτ−1a−a.

2) Sous-espaces affines

Définition :on appelle sous-espace affine de E toute partie W de E de la forme a+F, où F est un sous-espace vectoriel de E et où l’on note :

a+F =τa(F) ={a+v, v ∈F} Exemples : 1) Pour tout ade E,a+{0}={a}.

2) Pour v vecteur non nul de E, et a∈ E, a+ Vectv est la droite affine passant par a dirigée par v.

Théorème et définition :soit W =a+F un sous-espace affine deE ; alors pour toutb de W, on a W =b+F ; par contre, le sous-espace vectorielF est unique, on l’appelle la direction deW.

NB : dans un contexte géométrique, les éléments deE sont aussi appeléspoints.

A etB étant deux points deE,−−→

AB=B−Aest appelé vecteur d’origine Aet d’extrémité B.

Ainsi,v étant un vecteur de E,B=A+v=τv(A) équivaut à−−→

AB=v.

IV

IV - Applications linéaires

1) Définition

Soient E et F deux K-espaces vectoriels et u une application de E dans F.

On dit que u estlinéaire (ou encore unmorphisme d’espaces vectoriels) si et seulement si :

∀(x, y)∈E2 u(x+y) =u(x) +u(y)

∀λ∈K ∀x∈E u(λ.x) =λ.u(x)

(ou bien : ∀λ∈K ∀(x, y)∈E2 u(λ.x+y) =λ.u(x) +u(y)) Si, de plus :

•u est bijective, on dit queu est unisomorphisme (E et F sont ditsisomorphes) ;

•E=F, on dit que u est un endomorphisme deE ;

•E=F etu bijective, on dit que u est unautomorphisme deE ;

•F =K, on dit que u est une forme linéaire surE. Notations : on désigne par

• L(E, F)l’ensemble des applications linéaires de E dansF ;

• L(E) l’ensemble des endomorphismes de E (IdE ∈ L(E)).

Propriétés :soitu∈ L(E, F).

1) u(0E) = 0F.

2) SiE est un sous-espace vectoriel deE, alorsu(E) est un sous-espace vectoriel deF. 3) SiF est un sous-espace vectoriel deF, alors u1(F) est un sous-espace vectoriel deE.

(4)

2) Image

Définition :soitu∈ L(E, F). On appelleimage de u le sous-espaceu(E) deF notéImu : Imu={y∈F /∃x∈E u(x) =y}={u(x), x∈E} .

Propriété : u est surjective si et seulement si Imu=F.

3) Noyau

Définition :soitu∈ L(E, F). On appellenoyau de u le sous-espaceu1({0F}) de E noté Keru : Keru={x∈E / u(x) = 0F}.

Propriété : u est injective si et seulement siKeru={0E}

(ou encore si et seulement si : ∀x∈E u(x) = 0F ⇒x= 0E ).

4) Équations linéaires

Étant donnésu dansL(E, F) etbdansF, la résolution de l’équation linéaire u(x) =best la recherche de l’ensembleS des vecteursx deE tels queu(x) =b.

S est vide si et seulement sib n’appartient pas àImu.

Lorsqueb est dansImu, S est non vide et pour toutx0 dans S,S est l’ensemble des vecteurs deE de la forme x0+z, zdécrivantKeru :

S=x0+ Keru={x0+z, z∈Keru}.

5) Exemples fondamentaux d’isomorphismes

•Tous les supplémentaires dansE d’un même sous-espace vectoriel deE sont isomorphes.

•Soit u∈ L(E, F). Tout supplémentaire deKeru dans E est isomorphe àImu.

•Soient F et G deux sous-espaces vectoriels de E. L’application ϕ : F×G −→ F +G (y, z) −→ y+z

est linéaire surjective. C’est un isomorphisme si et seulement siF ∩G={0}.

6) Opérations sur les applications linéaires

a) Structure de L(E, F)

SiE etF sont deux K-espaces vectoriels, alors(L(E, F),+, .) est unK-espace vectoriel.

b) Composition des applications linéaires

SiE, F, Gsont des K-espaces vectoriels et siu∈ L(E, F),v∈ L(F, G), alors v◦u∈ L(E, G).

Pourφfixé dansL(E, F), l’applicationv→v◦φest une application linéaire deL(F, G)dansL(E, G).

Pourψfixé dansL(F, G), l’applicationu→ψ◦uest une application linéaire deL(E, F)dansL(E, G).

Théorème :si u est un isomorphisme deE dans F, alorsu−1 est linéaire (donc un isomorphisme) de F dans E.

c) Structure de L(E)

SiE est unK-espace vectoriel, alors(L(E),+, .,◦) est une K-algèbre.

Théorème et définition :soitGL(E)l’ensemble des automorphismes deE. (GL(E),◦)est un groupe (non abélien en général), appelé groupe linéaire de E.

(5)

V

V - Projecteurs et symétries

1) Projecteurs

Définition :soientF etG deux sous-espaces supplémentaires de E ; l’applicationp deE dansE qui à tout vecteur x deE associe le vecteury deF tel quex=y+zavec (y, z)∈F ×G est appelée projecteur (ouprojection vectorielle) de E sur F parallèlement à G.

Propriétés :soitp le projecteur de E surF parallèlement àG.

a)pest un endomorphisme de E.

b)Kerp=GetImp=F ;F est l’ensemble des vecteurs invariants par p.

c)IdE−p est le projecteur deE sur Gparallèlement à F.

Caractérisation :soitp∈ L(E). p est un projecteur si et seulement sip◦p=p.

Dans ce cas, pest le projecteur deE surImpparallèlement à Kerp.

2) Symétries vectorielles

Définition :soientF etG deux sous-espaces supplémentaires deE ; l’application sdeE dansE qui à tout vecteur x deE associe le vecteur y−z deE où (y, z) est le couple de F ×G tel que x=y+z est appelée symétrie vectorielle par rapport àF parallèlement à G.

Propriétés :soits la symétrie vectorielle par rapport àF parallèlement àG.

a)s est un automorphisme involutif deE.

b)L’ensemble des vecteurs invariants par sest F ; l’ensemble des vecteurs transformés en leur opposé estG.

c)−sest la symétrie vectorielle par rapport à Gparallèlement à F. d)Sipest le projecteur deE sur F parallèlement àG, on a les relations :

s= 2p−IdE , p= 1

2 ·(IdE +s).

Caractérisation :soits∈ L(E). s est une symétrie vectorielle si et seulement sis◦s= IdE.

Alors s est la symétrie par rapport à F = {x ∈ E / s(x) = x} = Ker (s−IdE) parallèlement àG={x∈E / s(x) =−x}= Ker (s+ IdE).

VI

VI - Familles libres, génératrices ; bases

1) Familles génératrices

Définition :soit F = (xi)i∈I une famille finie de vecteurs de E. On dit qu’un vecteur x de E est combinaison linéaire des vecteurs de F si et seulement s’il existe une famille(λi)i∈I∈KI telle quex=

i∈I

λi.xi.

Définition :soit F une famille finie de vecteurs de E. On dit que F est une famille génératrice de E si et seulement si tout vecteur de E est combinaison linéaire des vecteurs de F (i.e.

VectF =E).

Propriétés :1) Toute sur-famille d’une famille génératrice est génératrice.

2) Soit (xi)i∈I une famille finie, génératrice deE et J une partie de I. (xi)i∈J est aussi une famille génératrice de E si et seulement si, pour tout k de I\J, xk est combinaison linéaire des vecteurs de (xi)i∈J.

(6)

2) Familles libres

Définition :soit F = (x1, . . . , xp) une famille finie de vecteurs de E. On dit que F est libre si et seulement si la seule combinaison linéaire nulle des vecteurs de F est celle dont tous les coefficients sont nuls :

∀(λ1, . . . , λp)∈Kp

p

k=1

λk.xk = 0 =⇒ ∀k∈Np λk= 0 .

Une famille quelconque(xi)i∈I de vecteurs de E est dite libre si et seulement si toutes ses sous-familles finies sont libres.

Une partie AdeE est dite libre si et seulement si la famille(x)x∈A est libre.

Par convention, ∅est libre.

Propriétés :1) Soit x ∈E. La famille (x) formée du seul vecteurx est libre si et seulement six est non nul.

2) Toute sous-famille d’une famille libre est libre.

3) Une famille (xi)i∈I est libre si et seulement si, pour toute famille de scalaires(λi)i∈I à support fini,

i∈I

λi.xi= 0⇒ ∀i∈I λi = 0.

4) Si une partie A de E est libre et si x est un vecteur de E, A∪ {x} est libre si et seulement si x n’est pas combinaison linéaire des vecteurs deA (i.e. x /∈VectA).

3) Familles liées

Définition :une famille F de vecteurs de E (resp. une partie A de E) est dite liée si et seulement si elle n’est pas libre. On dit alors que les vecteurs de F (resp. de A) sont linéairement dépendants.

Deux vecteurs sont dits colinéaires si et seulement s’ils sont linéairement dépendants.

Caractérisation :1) Une famille F de vecteurs de E est liée si et seulement s’il existe des vecteurs x1, . . . , xp deF et une famille (λ1, . . . , λp) de scalaires non tous nuls telle que

p

k=1

λk.xk= 0 (relation de dépendance linéaire).

2) Une famille d’au moins deux vecteurs est liée si et seulement si l’un au moins de ses vecteurs est combinaison linéaire des autres.

3) Deux vecteursx, ysont colinéaires si et seulement si : x= 0ou∃λ∈K y=λ.x.

Propriétés :1) Toute sur-famille d’une famille liée est liée ; toute famille contenant le vecteur nul est liée.

2) Si une partieAdeEest libre et sixest un vecteur deE,A∪{x}est liée si et seulement si x est combinaison linéaire des vecteurs deA (i.e. x∈VectA).

4) Bases

Définition :soitF une famille finie de vecteurs deE.

On dit que F est une base deE si et seulement siF est libre et génératrice.

Une famille B= (ei)i∈I de vecteurs deE est une base deE si et seulement si tout vecteur deE s’écrit de manière unique comme combinaison linéaire des vecteurs de B. Dans ce cas, si x =

i∈I

λi.ei, la famille (λi)i∈I est appelée la famille des coordonnées de xdans la base B.

(7)

5) Caractérisation des familles libres et génératrices, des bases

Soit (x1, . . . , xp) une famille de vecteurs deE. On lui associe l’application linéaireφdeKp dansE qui, à (λ1, . . . , λp) associe la combinaison linéaire

p

k=1

λkxk.

Propriétés :1)(x1, . . . , xp) est libre si et seulement si φest injective ; 2)Imφ= Vect (x1, . . . , xp) ;

(x1, . . . , xp)est génératrice si et seulement si φest surjective ;

3)(x1, . . . , xp) est une base deE si et seulement siφest un isomorphisme.

6) Image d’une famille de vecteurs par une application linéaire

E etF sont deuxK-espaces vectoriels.

Théorème :soientu∈ L(E, F),F = (xi)i∈I une famille finie de vecteurs deE etu(F) = (u(xi))i∈I. a)SiF est une famille génératrice de E, alors u(F) est une famille génératrice deImu.

b)SiF est liée, alors u(F) est liée.

c)SiF est libre et u injective, alorsu(F) est libre.

Théorème :soitu∈ L(E, F) etB une base de E.

a)u est surjective si et seulement si u(B) est une famille génératrice deF. b)u est injective si et seulement si u(B)est libre.

c)u est bijective si et seulement si u(B)est une base de F.

7) Caractérisation d’une application linéaire par l’image d’une base

Théorème :soientE etF deux K-espaces vectoriels,B= (ei)i∈I une base de E et(yi)i∈I une famille de vecteurs de F (indexées par le même ensembleI).

Il existe une unique application linéaireu deE dans F telle que :

∀i∈I u(ei) =yi . En outre :

∗ u est injective si et seulement si la famille(yi)i∈I est libre.

∗ u est surjective si et seulement si la famille (yi)i∈I est génératrice de F.

∗ u est bijective si et seulement si la famille(yi)i∈I est une base deF.

VII

VII - Notion de dimension

Définition :on dit qu’un K-espace vectoriel est de dimension finie si, et seulement si, il admet une famille génératrice finie.

Lemme de Steinitz

Si E est un K-espace vectoriel admettant une famille génératrice à p éléments (p ∈ N), alors toute famille d’au moins p+ 1éléments est liée.

Existence d’une base

Tout espace vectoriel de dimension finie non réduit à{0}admet au moins une base.

Théorème et définition :soit E un K-espace vectoriel de dimension finie, non réduit à{0}.

1)E admet au moins une base finie B.

2) Toutes les bases de E ont le même cardinal n.

Cet entier est appelé dimension deE et est noté dimE ou dimKE.

On convient que {0} est de dimension nulle.

Caractérisation des bases :

Soit E unK-espace vectoriel de dimensionnet F une famille de p vecteurs deE.

•SiF est libre, alorsp≤navec égalité si et seulement si F est une base deE.

•SiF est génératrice, alorsp≥navec égalité si et seulement si F est une base de E.

(8)

VIII

VIII - Théorème de la base incomplète

Soit E unK-espace vectoriel de dimension finie.

Pour toute famille libre LdeE et toute famille génératriceG deE, il existe au moins une baseBdeE obtenue en complétantL à l’aide de vecteurs deG.

En particulier, pour toute famille libreLdeE, il existe au moins une baseBdeEobtenue en complétant L à l’aide de vecteurs deE.

IX

IX - Sous-espaces d’un espace vectoriel de dimension finie

1) Dimension d’un sous-espace

Théorème :soitE unK-espace vectoriel de dimension finie et F un sous-espace vectoriel de E.

F est de dimension finie etdimF ≤dimE.

De plus, F =E si et seulement sidimF = dimE.

Définition :on appelle rang d’une famille de vecteurs de E la dimension du sous-espace vectoriel de E engendré par cette famille.

2) Sous-espaces vectoriels supplémentaires

Caractérisation :soientF etG deux sous-espaces vectoriels non réduits à{0} d’un espace vectoriel E de dimension finie. F et G sont supplémentaires dans E si et seulement s’ils admettent pour bases respectives deux parties complémentaires d’une base deE.

Conséquence :si E =F⊕G, alorsdimE = dimF + dimG.

Théorème :tout sous-espace vectoriel d’un espace vectoriel E de dimension finie admet au moins un supplémentaire dansE.

Théorème :soientF et Gdeux sous-espaces vectoriels d’un espace vectorielE de dimension finie.

E =F ⊕G⇔(F∩G={0} et dimF + dimG= dimE).

3) Dimension d’une somme quelconque de sous-espaces

Théorème :soientF et Gdeux sous-espaces vectoriels d’un espace vectorielE de dimension finie dim(F+G) = dimF+ dimG−dim(F ∩G)(formule de Grassmann).

Conséquence : soientF etGdeux sous-espaces vectoriels d’un espace vectorielE de dimension finie E=F⊕G⇔(F +G=E et dimF+ dimG= dimE).

X

X - Théorème du rang

1) Théorème d’isomorphisme

Théorème :deux espaces vectorielsEetF de dimension finie sont isomorphes si et seulement s’ils ont la même dimension.

2) Rang d’une application linéaire

Théorème du rang

Soit u∈ L(E, F). Si E est de dimension finie, alors Imu est de dimension finie et dimE= dim Imu+ dim Keru.

Définition :soitu ∈ L(E, F) avecE de dimension finie. On appelle rang de u la dimension deImu, notée rgu.

Propriété : si E etF sont de dimension finie et si u∈ L(E, F), alors :

u injective⇒dimE≤dimF ; usurjective ⇒dimE ≥dimF.

(9)

Caractérisation des isomorphismes

SiE etF sont demême dimension finie (dimE = dimF =n) et siu∈ L(E, F), alors les propositions suivantes sont équivalentes :

•u est bijective ;

•u est injective (i.e. Keru={0}) ;

•u est surjective (i.e. rgu=n) ;

•u est inversible à droite ;

•u est inversible à gauche.

Propriété : le rang d’une application linéaire est invariant par composition avec un isomorphisme.

XI

XI - Opérations sur les dimensions

Théorème :soientE etF deux K-espaces vectoriels de dimension finie.

1)E×F est de dimension finie et : dimE×F = dimE+ dimF. 2)L(E, F) est de dimension finie et : dimL(E, F) = dimE×dimF. Dém : on considère(ej)1≤j≤p une base deE et(fi)1≤i≤n une base de F.

1) En posant v1 = (e1,0F),· · · , vp = (ep,0F) ; vp+1 = (0E, f1),· · ·, vp+n = (0E, fn) , on vérifie que (vi)1≤i≤p+n est une base deE×F.

2) Pour tout élément(i, j) de Nn×Np , on désigne parui,j l’unique application linéaire de E vers F telle que (δj,k désignant le symbole de Kronecker) :

∀k∈Np ui,j(ek) =δj,k.fi

On vérifie que(ui,j)1≤i≤n 1≤j≤p

est une base de L(E, F).

XII

XII - Matrices — Généralités

1) Définition - notations

Soient netp deux entiers naturels non nuls.

On appellematrice de type (n, p)à coefficients dansKtout tableauMconstitué denlignes etpcolonnes d’éléments deK. On écritM = (ai,j)1≤i≤n

1≤j≤p

,ai,j étant le terme situé à l’intersection de laie ligne et de la je colonne deM.

Mn,p(K) désigne l’ensemble des matrices de type(n, p) à coefficients dansK.

Mn(K) désigne l’ensemble Mn,n(K) des matrices carrées d’ordre n à coefficients dans K.

2) Matrice d’une application linéaire

Soient E et F deux K-espaces vectoriels de bases respectives B= (e1, . . . , ep) etC= (f1, . . . , fn).

Pouru∈ L(E, F), on appelle matrice de u dans les bases B et C la matrice MB,C(u) deMn,p(K) dont les colonnes contiennent les coordonnées des vecteurs u(e1), . . . , u(ep) dans la baseC de F :

MB,C(u) = (ai,j)1≤i≤n 1≤j≤p

avec ∀j∈Np u(ej) =

n

i=1

ai,j.fi. NB : le nombre de lignes nest la dimension de l’espace d’arrivée ;

le nombre de colonnesp est la dimension de l’espacede départ.

Pour u ∈ L(E), on appelle matrice de u dans la base B la matrice carrée MB(u) de Mp(K) dont les colonnes contiennent les coordonnées des vecteurs u(e1), . . . , u(ep) dans la même base BdeE.

(10)

XIII

XIII - Opérations sur les matrices

1) Structure de

Mn,p(K) Soient A= (ai,j)1≤i≤n

1≤j≤p

,B= (bi,j)1≤i≤n 1≤j≤p

, et λ∈K. On pose, par définition : A+B= (ai,j+bi,j)1≤i≤n

1≤j≤p

etλ.A= (λai,j)1≤i≤n 1≤j≤p

. Théorème :(Mn,p(K),+, .) est unK-espace vectoriel de dimensionnp.

La base canonique deMn,p(K) est (Ei,j)1≤i≤n 1≤j≤p

où Ei,j est lamatrice élémentaire dont tous les termes sont nuls, sauf celui situé à l’intersection de laieligne et de lajecolonne, valant 1 : Eij= (δk,iδℓ,j)1≤k≤n

1≤ℓ≤p

. Avec les notations précédentes, l’applicationu→MB,C(u)est un isomorphisme deL(E, F)surMn,p(K).

Inversement, étant donnée A ∈ Mn,p(K), on note souvent CanA l’application linéaire de Kp dansKn de matrice Adans les bases canoniques.

2) Produit matriciel

Définition :soientA= (ai,j)1≤i≤m 1≤j≤n

etB= (bj,k)1≤j≤n 1≤k≤p

. A×Best la matrice de Mm,p(K)définie par :

A×B= (ci,k)1≤i≤m 1≤k≤p

où ∀(i, k)∈Nm×Np ci,k=

n

j=1

ai,jbj,k .

Propriété : si u ∈ L(E, F) a pour matrice A dans les bases B et C, si X est la matrice colonne des coordonnées d’un vecteurxdeEdans la baseB, alors le produitAX est la matrice colonne des coordonnées deu(x) dans la baseC.

Produit de matrices élémentaires : siEi,j et Ek,ℓ sont des matrices élémentaires de tailles conve- nables pour que le produit soit défini, on aEi,j×Ek,ℓj,k.Ei,ℓ.

(où Ei,ℓ a bien sûr le nombre de lignes de Ei,j et le nombre de colonnes deEk,ℓ).

3) Structure de

Mn(K)

(Mn(K),+, .,×) est une K-algèbre (non commutative pour n ≥ 2). Avec les notations précédentes, l’applicationu→MB(u) est un isomorphisme d’algèbres deL(E) surMn(K).

L’élément neutre de la multiplication est lamatrice identité d’ordre n : In= (δi,j)1≤i,j≤n. Définition :soitA∈ Mn(K). On dit que :

•a1,1, . . . , an,n constituent ladiagonale principale deA ;

•A est unematrice scalaire si et seulement si A est de la formeλ.In, λ∈K;

•A est unematrice diagonale si et seulement sii=j⇒ai,j= 0; dans ce cas on noteA= diag(a1,1, . . . an,n) ;

•A est unematrice triangulaire supérieure si et seulement si i > j⇒ai,j = 0;

•A est unematrice triangulaire inférieure si et seulement si i < j⇒ai,j = 0.

Propriétés :les matrices scalaires forment un corps isomorphe àK.

Les matrices diagonales forment une sous-algèbre commutative de (Mn(K),+, .,×).

Les matrices triangulaires supérieures (resp. inférieures) forment une sous-algèbre de (Mn(K),+, .,×).

4) Matrices carrées inversibles

Soit A∈ Mn(K) ;A est inversible si et seulement si

∃A ∈ Mn(K) A×A =A×A=In

Soit GLn(K) l’ensemble des matrices carrées d’ordre n inversibles. (GLn(K),×) est un groupe (non commutatif pour n≥2).

(11)

Théorème :soitA∈ Mn(K). Les assertions suivantes sont équivalentes : a)A est inversible.

b)∃B∈ Mn(K) A×B=In (dans ce casA1=B).

c)∃C ∈ Mn(K) C×A=In (dans ce cas A−1 =C ).

Propriété : une matrice triangulaire est inversible si et seulement si les éléments de sa diagonale principale sont tous non nuls.

5) Transposition

Définition :soit A = (ai,j)1≤i≤n 1≤j≤p

∈ Mn,p(K). On appelle transposée de A la matrice de Mp,n(K), notée tA (ouAT), définie par

tA= (ai,j)1≤i≤p 1≤j≤n

où ∀(i, j)∈Np×Nn ai,j =aj,i . Propriétés :

1) L’application Mn,p(K) → Mp,n(K)

A → tA

est un isomorphisme de K-espaces vectoriels.

2) ∀(A, B)∈ Mm,n(K)× Mn,p(K) t(AB) =ttA.

3) Soit A∈ Mn(K). A est inversible si et seulement sitA est inversible, auquel cas(tA)−1 =t(A−1).

Définition :soitA∈ Mn(K). On dit que :

∗ A est symétrique si et seulement sitA=A (∀(i, j)∈N2n ai,j =aj,i ) ;

∗ A est antisymétrique si et seulement si tA=−A

(∀(i, j)∈N2n ai,j =−aj,i ; en particulier ∀i∈Nn ai,i= 0).

Propriété : les matrices symétriques d’une part, antisymétriques d’autre part, forment deux sous- espaces supplémentaires de Mn(K), de dimensions respectives n(n+ 1)

2 et n(n−1)

2 .

XIV

XIV - Changements de bases

1) Matrice d’un système de vecteurs dans une base

SoitBune base d’unK-espace vectorielEde dimensionnetF = (x1, . . . , xp)une famille de vecteurs de E. On appellematrice de F dans la base B la matriceM de type(n, p) dont laje colonne (1≤j≤p) contient les coordonnées du vecteurxj dans la baseB.

2) Matrice de passage

Soient BetB deux bases d’un K-espace vectorielE de dimensionn. On appelle matrice de passage de B à B la matrice de la famille B dans la baseB, notée PB,B.

NB : PB,B est la matrice dans la baseBde l’endomorphisme deE qui transformeBenB ; c’est aussi la matrice de IdE dans les bases B (dans E considéré comme espace de départ) et B (dans E considéré comme espace d’arrivée).

Propriétés :soientB etB deux bases de E.

a)si X et X sont les matrices colonnes des coordonnées d’un vecteur u de E dans les basesBet B respectivement, on a : X=PB,B X.

b)PB,B est inversible et son inverse est la matrice de passage deB à B.

c)Si B′′ est une troisième base de E, on a : PB,B′′ =PB,B×PB,B′′.

(12)

3) Changement de bases pour une application linéaire

Théorème :soient B et B deux bases de E, P = PB,B , C et C deux bases de F, Q = PC,C et f ∈ L(E, F). SiA est la matrice de u dans les bases B, C et A la matrice deu dans les bases B,C, alors A =Q1AP.

4) Changement de base pour un endomorphisme

Théorème :soientB etB deux bases deE,P =PB,B etu∈ L(E). Si Aest la matrice de u dans la base BetA la matrice de u dans la baseB, alorsA =P−1AP.

Définition :deux matrices carréesA et Bd’ordre nsontsemblables si et seulement si :

∃P ∈GLn(K) B=P1AP.

i.e. si et seulement si AetB représentent un même endomorphisme dans deux bases.

XV

XV - Rang d’une matrice

Définition :soit A∈ Mn,p(K). On appelle rang de A le rang du système de ses p vecteurs colonnes dansKn, notérgA.

Théorème :soientE et F deux K-espaces vectoriels de dimensions respectives p etn, rapportés aux bases B et C. Si u est une application linéaire de E dans F, de matriceA dans les bases B etC, alors rgu= rgA.

Conséquences :

1) SoitA∈ Mn,p(K). rgA=r si et seulement siAest de la forme UJrV, où U, V sont deux matrices carrées inversibles etJr= (αi,j) est définie par : αi,j = 1si i=j≤r, αi,j = 0sinon.

2) rgtA= rgA (le rang d’une matrice est aussi le rang du système de ses vecteurs lignes).

3) Le rang d’une matrice est inchangé lorsqu’on la multiplie par une matrice carrée inversible.

4) Une matrice carrée d’ordren est inversible si et seulement si son rang est égal à n.

XVI

XVI - Opérations élémentaires sur les matrices

1) Définitions

On appelle opération élémentaire sur une matrice AdeMn,p(K) : 1) l’échange de deux lignes (resp. colonnes) deA

(codageLi↔Lj (resp. Ci ↔Cj)) ;

2) la multiplication d’une ligne (resp. colonne) deA par un scalaire non nul (codageLi←λ.Li (resp. Ci←λ.Ci) avec λ= 0) ;

3) l’ajout à une ligne (resp. colonne) le produit d’une autre ligne (resp. colonne) deA par un scalaire (codageLi←Li+λ.Lj (resp. Ci ←Ci+λ.Cj) avecj =i).

Deux matrices A et A sont dites équivalentes par lignes (resp. colonnes) si et seulement si elles se déduisent l’une de l’autre par une suite finie d’opérations élémentaires sur les lignes (resp. colonnes), ce que l’on noteA∼

L A (resp. A∼

C A).

(13)

2) Interprétation en termes de produit matriciel

SiA∈ Mn,p(K)et siEi,j est une matrice élémentaire deMn(K), alors le produitEi,j×Aest la matrice de Mn,p(K) dont la ie ligne est constituée par la je ligne de A et dont toutes les autres lignes sont nulles. Il en résulte les correspondances suivantes :

Opération Interprétation matricielle Dénomination Li ←Li+λ.Lj A←(In+λ.Ei,j)A transvection

Li←λ.Li A←(In+ (λ−1).Ei,i)A dilatation Li ↔Lj A←(In−Ei,i−Ej,j+Ei,j +Ej,i)A transposition

.

Les opérations sur les colonnes de A s’obtiennent par multiplication à droite par des matrices carrées d’ordre p inversibles analogues.

Théorème :deux matrices équivalentes par lignes ou par colonnes ont le même rang (on vérifie que les matricesIn+λ.Ei,j (j=i),In+ (λ−1).Ei,i (λ= 0) et In−Ei,i−Ej,j+Ei,j+Ej,i

sont inversibles).

3) Applications

a) Calcul du rang d’une matrice

Laphase de descente de l’algorithme dupivot de Gauss-Jordan permet, en utilisant exclusivement des opérations élémentaires sur les lignes, de transformer toute matrice A de Mn,p(K) en une matrice échelonnée par lignes, c’est-à-dire vérifiant les deux propriétés suivantes :

•si une ligne est nulle, toutes les lignes suivantes le sont aussi

•à partir de la 2e ligne, dans chaque ligne non nulle, le 1er coefficient non nul à partir de la gauche est situé à droite du premier coefficient non nul de la ligne précédente

autrement dit de la forme suivante (en anglais row echelon form, voir la fonction ref de certaines calculatrices) :

Aref =













piv1 * · · · * * * · · · * * * · · · * 0 0 · · · 0 piv2 * · · · * * * · · · * 0 0 · · · 0 0 0 · · · ... * * * · · · *

... ... ... ... ... ... * * * · · · *

0 0 · · · 0 0 0 · · · 0 pivr * · · · * 0 0 · · · 0 0 0 · · · 0 0 0 · · · 0

... ... ... ... ... ... ... ... ...

0 0 · · · 0 0 0 · · · 0 0 0 · · · 0













où piv1,. . ., pivr sont des scalaires non nuls, lespivots.

Le nombrer desdits pivots n’est autre que le rang de la matrice A(puisqu’elle a même rang que Aref).

b) Calcul de l’inverse d’une matrice carrée

La phase de remontée de l’algorithme du pivot de Gauss-Jordan permet, toujours par des opérations élémentaires sur les lignes, de transformer la matriceArefprécédente en une matriceéchelonnée réduite par lignes, c’est-à-dire nulle ou échelonnée par lignes avec tous ses pivots égaux à 1 et seuls éléments non nuls de leur colonne, autrement dit de la forme suivante (en anglais reduced row echelon form, fonction rref) :

Arref =













1 * · · · * 0 * · · · * 0 * · · · * 0 0 · · · 0 1 * · · · * 0 * · · · * 0 0 · · · 0 0 0 · · · ... * 0 * · · · * ... ... ... ... ... ... * 0 * · · · * 0 0 · · · 0 0 0 · · · 0 1 * · · · * 0 0 · · · 0 0 0 · · · 0 0 0 · · · 0 ... ... ... ... ... ... ... ... ...

0 0 · · · 0 0 0 · · · 0 0 0 · · · 0













(14)

(on a divisé la ligne de chaque pivot par ledit pivot et fait ensuite apparaître des 0 au dessus dudit pivot, le tout “en remontant”).

Théorème :toute matrice est équivalente par lignes à une unique matrice échelonnée réduite par lignes.

La matrice initiale A est inversible si et seulement sin=p=r, c’est-à-dire si et seulement si A∼

L In, auquel casArref n’est autre queIn, ce qui fournit une méthode “pratique” de calcul de l’inverse de A lorsqu’elle existe : en effet, si je note Ω1, . . . ,Ωk les matrices associées aux opérations élémentaires sur les lignes utilisées pour transformerA en Arref =In, j’ai

k. . .Ω1A=In d’où A1 = Ωk. . .Ω1= Ωk. . .Ω1In (!!)

Il en résulte que A1 s’obtient en faisant subir à la matrice In, successivement et dans le même ordre, les opérations élémentaires sur les lignes qui permettent de transformer A enIn.

c) Résolution d’un système linéaire

Par des opérations élémentaires sur les lignes, on transforme tout système linéaire AX = B en un système équivalent ayant une matrice de la forme Arref ci-dessus. Les n−r dernières lignes sont de la forme : 0 =βjj étant l’expression au second membre résultant des opérations sur les lignes, expression

“constante”, indépendante des inconnues du système, pouvant par contre dépendre de paramètres initialement présents dans les coefficients du système. . . ).

Ces n−r dernières lignes sont les conditions de compatibilité du système. En effet, l’ensemble S des solutions est non vide si et seulement si les βj,j∈[[r+ 1, n]], sont tous nuls.

Lorsque lesdites conditions de compatibilité sont satisfaites, on achève la résolution en renvoyant au second membres lesp−rinconnues ne correspondant pas aux colonnes des pivots (inconnues auxiliaires ou paramètres) et l’on exprime lesr inconnues correspondant aux colonnes des pivots (inconnues prin- cipales) en fonction des coefficients du système et des inconnues auxiliaires, qui peuvent être choisies arbitrairement. Cela fournit une représentation paramétrique de l’ensemble des solutions. Noter la présence de p−r paramètres, alors que l’on savait queS (ici non vide !) était un sous-espace affine de Kp de directionKer CanA, justement de dimension p−r (cf. le théorème du rang !!).

On en déduit une “solution particulière”aet une base deKer CanA, en faisant apparaître la “solution générale” comme élément d’un sous-espace affine de la formeW =a+Vect (v1, . . . , vp−r)(les coefficients des vecteursv1, . . . , vp−rétant les inconnues auxiliaires). On a ainsi S ⊂W, avec S de dimensionp−r et W de dimension au plus p−r : par conséquent S = W, Ker CanA = Vect (v1, . . . , vp−r) et donc (v1, . . . , vp−r) est une base deKer CanA.

D’un point de vue informatique, on applique l’algorithme du pivot à la matrice augmentée, obtenue en ajoutant B comme(p+ 1)-ième colonne à la matrice A.

XVII

XVII - Déterminants

Dans cette section, nest un entier supérieur ou égal à 2 et E un K-espace vectoriel de dimensionn.

1) Déterminant d’une matrice carrée

Il existe une unique application f :Mn(K)→Kvérifiant les trois propriétés suivantes : 1) f est linéaire par rapport à chacune des colonnes de sa variable ;

2) f est antisymétrique par rapport aux colonnes de sa variable, c’est-à-dire que si A se déduit de A par transposition de deux colonnes,f(A) =−f(A) ;

3) f(In) = 1.

On note det (A) le nombref(A)pour toute matrice AdeMn(K).

2) Propriétés du déterminant

1) ∀(λ, A)∈K× Mn(K) det (λA) =λndet (A).

2) Le déterminant d’une matrice ayant deux colonnes identiques est nul.

3) On peut ajouter à une colonne une combinaison linéaire des autres sans modifier le déterminant.

(15)

4) Le déterminant d’une matrice triangulaire est le produit des coefficients de la diagonale.

5) Le déterminant d’un produit de matricescarréesest le produit de leurs déterminants.

6) Une matrice carréeAest inversible si et seulement sidet (A) = 0. Si c’est le cas,det A−1 = 1 det (A). Par conséquent, pour toute matriceA de Mn(K) et toute matriceP deGLn(K), on a

det P1AP = det (A). 7) Toute matrice carrée a même déterminant que sa transposée.

Par conséquent, le déterminant vérifie les mêmes propriétés vis à vis des lignes que des colonnes.

3) Développement d’un déterminant

Définition :soitM = (ai,j)∈ Mn(K) ; pour tout couple (i, j) dansN2n, lecofacteur de l’élément d’indice (i, j)dans M est le scalaire

Ai,j= (−1)i+jdetMi,j

où Mi,j est la matrice deMn−1(K) obtenue à partir de M en supprimant la ligne iet la colonne j.

Théorème :soitM = (ai,j)∈ Mn(K) ; on a :

1)développement par rapport à la colonne j : pourj fixé dansNn, detM =

n i=1

ai,jAi,j

2)développement par rapport à la ligne i : pourifixé dansNn, detM =

n j=1

ai,jAi,j

4) Déterminant d’une famille de vecteurs dans une base

Étant données une base B deE et une familleU = (u1, . . . , un) denvecteurs de E (oùn= dimE), on appelle déterminant de la famille U dans la base B le déterminant de la matrice (carrée !) de U dans B, notédetBU.

Théorème :U est une base de E si et seulement si detBU = 0, dans une (toute) base B de E.

NB : si B est une autre base de E,detBB est le déterminant de la matrice de passage de B àB.

5) Déterminant d’un endomorphisme

D’après la propriété6ci-dessus, pouru∈ L(E), le déterminant de la matrice deu dans une base de E ne dépend pas du choix de ladite base.

Ce déterminant commun est appelé déterminant de u, noté det (u).

Les propriétés suivantes découlent immédiatement de celles du déterminant des matrices carrées.

1) Pour toute baseB= (e1, . . . , en) deE, on a :

∀(v1, . . . vn)∈En detB u(v1), . . . u(vn) = det (u).detB v1, . . . vn

et en particulier : det (u) = detMB(u) = detB u(e1), . . . u(en) . 2) ∀(λ, u)∈K× L(E) det (λu) =λndet (u).

3) Le déterminant d’une composée d’endomorphismes est le produit de leurs déterminants.

4) Un endomorphisme uest bijectif si et seulement sidet (u) = 0. Si c’est le cas,det u−1 = 1 det (u).

Références

Documents relatifs

Un espace vectoriel complexe E non nécessairement de dimension finie, muni d’un produit scalaire hermitien est dit préhilbertien complexe.. De même un espace vectoriel réel,

Expliciter dans les diérents cas, une base de l'image et une base du noyau de f.. Montrer que ces conditions dénissent

Montrer que le noyau de f est de dimension

[r]

Cette famille n’est pas génératrice car la fonction constante égale à 1 ne s’écrit pas comme une combinaison linéaire des fonctions proposées (en effet toute CL des trois

Toute forme linéaire sur un espace vectoriel euclidien peut s’interpréter comme le produit scalaire avec un vecteur fixé.. On effectuera le calcul du vecteur servant à représenter

La seconde forme provient d'une équation complète du quatrième degré, mais dont le premier membre est la diffé- rence de deux carrés,. et il est clair que toute équation complète

Pour r´ esoudre cette ´ equation diff´ erentielle, il nous faut trigonaliser la