• Aucun résultat trouvé

Sous-espacesvectorielssupplémentaires Sommedirected’unefamillefiniedesous-espacesvectoriels Sous-espacesvectoriels Applicationslinéaires Définition Espacesvectoriels-Applicationslinéaires

N/A
N/A
Protected

Academic year: 2022

Partager "Sous-espacesvectorielssupplémentaires Sommedirected’unefamillefiniedesous-espacesvectoriels Sous-espacesvectoriels Applicationslinéaires Définition Espacesvectoriels-Applicationslinéaires"

Copied!
19
0
0

Texte intégral

(1)

CAPES de Mathématiques Université de Cergy Pontoise

Résumé de cours d’algèbre linéaire Valérie Nachef

2001/2002 Alexandre Mizrahi

Espaces vectoriels - Applications linéaires

Définition

SoitKun sous-corps deC(Par exempleQ,R, mais aussiQ(√

2)). On appelle espace vectoriel surKun ensemble Emuni d’une loi interne notée+et d’une loi externe notée . avec les propriétés suivantes :

1. (E,+)est un groupe abélien 2. La loi externe . vérifie

(a) ∀λ∈K∀x∈E∀y∈E λ.(x+y) =λ.x+λ.y (b) ∀λ∈K∀µ∈K∀x∈E (λ+µ).x=λ.x+µ.x (c) ∀λ∈K∀µ∈K∀x∈E (λµ).x=λ(µ.x) (d) ∀x∈E 1.x=x

On a les propriétés suivantes :α.0 = 0,0.x= 0,α.(−x) =−α.x= (−α).x

Applications linéaires

SoientEetF deux espaces vectoriels etuune application deEdansF. On dit queuest linéaire siu(x+y) = u(x) +u(y)etu(λ.x) =λ.u(x)

On noteL(E)l’ensembles des endomorphismes deE. C’est une algèbre pour les lois+,0.0et◦. On noteGL(E)le groupe des automorphimes deEmuni de la loi◦.

Sous-espaces vectoriels

Un ensembleE0⊂Enon vide est un sous-espace vectoriel deEsiE0est stable pour les lois + et ’.’. Siu:E→F est une application linéaire alorsE0ss-ev deE⇒u(E0)ss-ev deF etF0ss-ev deF ⇒u−1(F0)ss-ev deE. On a les cas particuliers :imu=u(E)etkeru=u−1(0F)sont des sous-espaces vectoriels deF etErespectivement.

On appelle sous-espace vectoriel engendré par une partieX de E et on note vect(X)le plus petit sous-espace vectoriel deE qui contientX. Sivect(X) = E,X est une partie génératrice de E. L’ensemble des combinaisons linéaires d’une famille(xi)d’éléments d’un espace vectorielEest le sous-espace vectoriel engendré par la famille.

Somme directe d’une famille finie de sous-espaces vectoriels

Soit(Mi)1≤i≤nune famille finie de sous-espaces vectoriels d’un espace vectorielE. L’applicationΨ :Qn

i=1Mi→ E,(x1,· · ·, xn) → x1 +· · ·+xn est linéaire. La sommePn

i=1Mi qui est l’image deΨest dite directe ssiΨest injective. On note alors la sommeM1⊕ · · · ⊕Mn.

Cette définition est équivalente àPn

i=1Miest directe ssi

∀x∈F, ∃!(x1, x2, ...xn)∈M1×M2×...×Mn, x=

n

X

j=1

xj

On a le Théorème : La sommePn

i=1Miest directe ssi∀i∈ {2,· · ·,0}, Mi∩Pi−1

j=1Mj ={0}

Sous-espaces vectoriels supplémentaires

SoientM etNdeux sous-espaces vectoriels deE. Les assertions suivantes sont équivalentes : 1. E=M ⊕N

2. E=M +NetM∩N ={0}

3. ∀x∈E, ∃!(x , x )∈M×N, x=x +x

(2)

On a le Théorème : Sipest un projecteur surEalorsE=imp⊕kerp.

Équivalence des notions de projections et de projecteurs

Partie libre - Partie génératrice

On appelle famille (ou suite) presque nulle d’éléments du corpsKtoute suite(αi)i∈I telle queJ ={i∈I; αi6=

0}est fini. On noteK(I)l’ensemble des familles presque nulles indicées parI, d’éléments du corps K.

(xi)i∈I est une famille génératrice si∀x∈E, ∃α∈K(I), x=P

i∈Iαixi

(xi)i∈I est une famille libre si∀α∈K(I), P

i∈Iαixi= 0⇒ ∀i∈Iαi= 0

Une base est une famille libre et génératrice et on a :(xi)i∈Iest une base ssi∀x∈E, ∃!α∈K(I)x=P

i∈Iαixi

Soite= (ei)i∈I une famille de vecteurs deE. Les assertions suivantes sont équivalentes.

1. eest une base deE.

2. eest une famille génératrice minimale pour l’inclusion.

3. eest une famille libre maximale pour l’inclusion.

Toute sous-famille d’une partie libre est une partie libre et toute sur-famille d’une partie génératrice est une partie génératrice.

L’image par une surjection linéaire d’une famille génératrice est une famille génératrice. L’image par une injection linéaire d’une famille libre est une famille libre.

L’image par un isomorphisme d’une base est une base.

L’image par une application linéaireud’une famille génératrice est une famille génératrice deimu.

L’image d’une famille liée par une application linéaire est une famille liée.

On a le Théorème : SoientEetF deux espaces vectoriels,e= (ei)i∈I une base deEetf = (fi)i∈I une famille d’éléments deF. Alors

∃!u∈ L(E, F), ∀i∈I, u(ei) =fi De plus

1. uest surjective ssif est une famille génératrice deF. 2. uest injective ssif est une famille libre.

3. uest bijective ssi f est une base deF.

Cas de la dimension finie

Un espace vectoriel est dit de dimension finie s’il possède une famille génératrice finie. Sinon, il est dit de dimension infinie.

On a le théorème de la base incomplète SoientEun espace vectoriel,(ei)i∈Iune famille libre de vecteurs deEet (xj)j∈June famille génératrice deE. Il existe une partieLdeJ telle que(ei)i∈I∪(xj)j∈Lsoit une base deE.

Tout espace vectoriel possède des bases.

Théorème : SoitE un espace vectoriel de dimension finie. AlorsEpossède des bases. Toutes les bases deE ont même cardinal fini appelé la dimension deEet notédimE

SoientEun espace vectoriel de dimension finie,lune famille libre,gune famille génératrice. Alors on peut com- pléterlen une base deEen utilisant exclusivement des éléments deg.

SoitEun espace vectoriel de dimension infinie. Tout sous-espaceF deEadmet au moins un sous-espace supplé- mentaireGet on adimF+ dimG= dimE

SoientEun espace vectoriel de dimension finie,F etGdeux sous-espaces deE, alors

dim(F+G) = dimF+ dimG−dimF\ G

SoientEetFdeux espaces vectoriels de dimensions finiesnetprespectivement, alorsdimL(E, F) =np.

Siu∈ L(E, F), on appelle rang deula dimension deimuet on notergu. On a alors le théorème : dim keru+ rgu= dimE

de plusrgu≤inf(dimE,dimF).

SidimE= dimF=netu∈ L(E, F), les assertions suivantes sont équivalentes :

(3)

1. uest injective.

2. uest surjective.

3. uest bijective.

4. rgu=n.

Dualité

SoitEun espace vectoriel surKde dimension finie. On noteE=L(E, K)l’espace des formes linéaires surE. Il est appelé l’espace dual deE. On a la propriété :dimE= dimE.

Un sous espace vectoriel est un hyperplan si il est le noyau d’une forme linéaire non nulle, ce qui revient à dire que son noyau possède un supplémentaire de dimension 1, ou encore que sa dimension estdimE−1

SoitB= (ei)i≤n une base deE, il existe une unique baseB = (ei)i≤ndeEappelée base duale deBtelle que

∀i, j≤n, ei(ej) =δij

SoitB0= (fi)i≤nune base deE, il existe une unique baseB= (ei)i≤ndeEtelle queB0soit la base duale deB.

Pour une partieA⊂E, on définitA ={ϕ∈E;∀x∈A ϕ(x) = 0}. C’est un sous-espace-vectoriel deE, on aE={0},A⊂B⇒B⊂A.

On a les relationsdimA+ dimA= dimE.

On définit également pourA0⊂E,A0>={x∈E;∀ϕ∈A0ϕ(x) = 0}. C’est un sous-espace vectoriel deE, on aE∗>={0}.A0⊂B0⇒B0>⇒A0>.

On a les relations :dimA>+ dimA= dimE.

(4)

Matrices

Définitions

SoitKun sous-corps deC. Une matrice à coefficients dansKest notée :A= (aij)1≤i≤p

1≤j≤q

oùpreprésente le nombre de lignes etqle nombre de colonnes. On écritA∈ Mpq(K). SoientAetBdeux matrices deMnp(K).

On définit la matrice C = A+B oùC = (cij) avec cij = aij +bij, la matriceA0 = λA où A0 = (a0ij) avec a0ij = λaij. SiA ∈ Mnp(K)etB ∈ Mpq(K), on définit la matriceP = AB par pij = Pq

k=1aikbkj et P ∈ Mnq(K).Mnn(K)que l’on noteMn(K)est une algèbre.

PourA ∈ Mnp(K), on définit la matrice transposée de Apar tA = M ∈ Mpn(K)avec mij = aji. On a la propriété suivante :t(AB) =tBtA.

SoitA ∈ Mn(K).A est dite triangulaire supérieure si∀(i, j) j < i ⇒ aij = 0et triangulaire inférieure si∀(i, j) i < j ⇒ aij = 0. On dit queAest diagonale si i 6= j ⇒ aij = 0. Une matriceA ∈ M(K)est dite symétrique siA=tAet antisymétrique siA=−tA.

On noteGln(K)le groupe des matrices inversibles.Mn(K)est un anneau non commutatif et non intègre.

Une matrice extraite de la matriceAest une matrice obtenue à partir deAen supprimant certaines lignes et certaines colonnes .

Matrice d’une application linéaire

SoientEetFdeux espaces vectoriels de dimension finie etuune application linéaire deEdansF. Si(e1, e2,· · · , en) est une base deEet(f1, f2,· · · , fp)est une base deF, on peut écrireu(ej) =Pp

i=1αijfipour1≤j ≤p. Alors la matriceA = (αij)1≤i≤p

1≤j≤n

est la matrice deudans les basesBe = (e1,· · ·, en)etBf = (f1,· · · , fp). Six=Pxiei

alorsu(x) =P

ijαijxjfi.

Siy=u(x),Xla matrice colonne des coordonnées dexdans la baseBe,Y la matrice colonne des coordonnées de ydans la baseBfetM la matrice deudans les basesBeetBf, on a alors

Y =M X

On peut remarquer queBeetBfétant fixées l’application qui à un élémentudeL(E, F)associe sa matrice dans les basesBeetBfet un morphisme d’espace vectoriel et d’anneau.

Trace d’une matrice

SoitA∈ Mnp(K). La trace deAest par définition trA=P

iaii. On a la propriété suivante pour tout couple de matrices(A, B)tel queABetBAsoient définies : trAB=trBA.

Rang d’une matrice

SoitA ∈ Mnp(K). Le rangde Aest le rang du système de ses vecteurs colonnes (c’est à dire le plus grand nombre de vecteurs colonnes indépendants) ; si une application linéaireua pour matriceM dans certaines bases alors rgu=rgM. On a rgM =rgtM.

Propriété : Le rang deAest le plus grand entierstel qu’il existe une matrice inversible extraite deAàslignes ets colonnes.

Changement de bases

SoientE un K-espace vectoriel,e= (e1,· · ·, en)ete0 = (e01,· · ·, e0n)deux bases deE. On définit la matrice de passage deeàe0 de la façon suivante :P = (pij)oùpij =hei, e0jic’est à diree0j =Pn

i=1pijei. C’est la matrice de l’application identique de la basee0 vers la basee. Les colonnes deP sont les coordonnées dese0i dans la basee. Si x=Pn

i=1ξieietx0 =Pn

j=0ξ0je0j, on ax=P x0. Soientu∈ L(E, F),eete0 deux bases deE,f etf0deux bases de F. On noteM la matrice deuexprimée dans les baseseetf etM0celle deuexprimée dans les basese0etf0. On note égalementP la matrice de passage deeàe0etQla matrice de passage defetf0. On a alors :M0 =Q−1M P.

(5)

Dans le cas d’un endomorphismeu, siPest la matrice de passage deeàe0,M la matrice deudanseete,M0 la matrice deudanse0ete0alorsM0=P−1M P.

Matrices équivalentes

DansMnp(K)on définit la relationARBssi il existeP ∈GLn(K)etQ∈GLp(K)telles queB =QAP. C’est une relation d’équivalence appelée équivalence des matricesAetB.

Théorème : Les conditions suivantes sont équivalentes 1. AetBsont équivalentes.

2. AetBont même rang.

Matrices semblables

DansMn(K), on définit la relationASB ssi il existeP ∈ GLn(K)telle queB = P−1AP. C’est une relation d’équivalence appelée la similitude des matrices carrées de taille n. Si ASB, on dit que les matricesA et B sont semblables.

Théorème : SoientAetBdeux matrices semblables. Alors 1. tAettBsont semblables.

2. Pour toutm∈N, les matricesAmetBmsont semblables. C’est encore vrai pourm∈ZsiAetBsont inversibles.

3. trA=trB

(6)

Systèmes linéaires

SoitKun sous-corps deC

Définitions

Soit(S)le système ànéquations etminconnues suivant :

(S) =



 Pm

j=1a1jxj = b1

... = ...

Pm

j=1anjxj = bn

(S0) =



 Pm

j=1a1jxj = 0

... = ...

Pm

j=1anjxj = 0 On appelle ième ligne de(S)l’équationPm

j=1aijxj=bi.

On appelle système homogène associé à (S)le système(S0). Matriciellement(S)peut s’écrireAX = B avecA ∈ Mnm(K), B∈ Mn1(K)

Opérations élémentaires sur les lignes

Il existe trois sortes d’opérations élémentaires : 1. Échanger deux lignes :Li↔Lj.

2. Multiplier une ligne par un scalaire non nul :Li←αLi. 3. Ajouter à une ligne le multiple d’une autre :Li←Li+λLj.

Proposition : Le système obtenu à partir de(S)à l’aide d’une opération élémentaire sur les lignes est équivalent à (S)c’est à dire que les deux systèmes ont même ensemble de solutions.

Remarque : Matriciellement l’opérationLi ↔Lj revient à multiplier à gaucheAX=Bpar la matrice de permu- tationMτij, l’opérationLi←αLirevient à multiplier à gaucheAX=Bpar la matrice d’affinitéDi(α), et l’opération Li ←Li+λLjrevient à multiplier à gaucheAX=Bpar la matrice de transvectionUij(λ)avec par exemple :

Mτ23 =

1 0 0 0 · · · 0 0 0 1 0 · · · 0 0 1 0 0 · · · 0 0 0 0 1 · · · 0 ... . .. . .. ... 0 0 0 · · · 0 1

D1(α) =

α 0 · · · 0 0 1 · · · 0 ... ... . .. . .. 0 0 · · · 1

U13(λ) =

1 0 λ 0 · · · 0 0 1 0 0 · · · 0 0 0 1 0 · · · 0

0 0 0 1 0

... ... . .. ... 0 0 · · · 0 1

Méthode du pivot de Gauss

C’est un algorithme qui permet d’utiliser de façon efficace les opérations élémentaires sur les lignes pour trouver un système équivalent à(S)et triangulaire, c’est à dire(i > j=⇒aij= 0)

Soitp < n, msupposons queHp:∀j < p,∀i, i > j=⇒aij = 0 – Si pour tous lesi≥pon aaip = 0le résultat est vrai jusqu’àp.

– Sinon en échangeant deux lignes , on obtientapp 6= 0et en faisant successivement les n−p−1opérations Li←Liaaij

ppLppouri > p, on obtient un système équivalent qui vérifieHp+1.

Forme des solutions

Proposition : Les solutionsS de(S0)forment un sous espace vectoriel de Km. Sa dimension estdim kerA = m−rgA.

Proposition : SiB∈imA, les solutions de(S)forment un sous espace affine deKmde directionS, on dit alors que le système est compatible. SiBn’appartient pas à imAil n’y a pas de solution, on dit que le système est incompatible.

Proposition : Le système est compatible ssi rg(B∪(∪Ci)) =rgAoù lesCisont les colonnes deA.

(7)

Définition : On appelle système de Cramer un système pour lequelm =n=rgA. Dans ce cas il y a une unique solution.

Proposition : Si le système est compatible et rgA=rle système est équivalent à un système ayantrlignes. Il existe rcolonnes deAindépendantes, on appelle inconnues principales les inconnues associées à ces colonnes et inconnues secondaires les autres. En regardant les inconnues secondaires comme des paramètres, on se ramène à un système de Cramer en les inconnues principales.

On remarquera qu’il y a en général plusieurs familles de colonnes indépendantes possibles et donc plusieurs familles d’inconnues principales.

Utilisation des déterminants

Formules de Cramer Soit(S)un système de Cramer l’unique solution est définie par :

xi=detBi

detA

oùBiest la matriceAdans laquelle la ième colonne a été remplacée parB.

Théorème : Si rgA =r, il existe une matrice extraite deAàrlignes etrcolonnes quitte à échanger des lignes (opération sur les lignes) et des colonnes (renumérotation des inconnues) on peut supposer

a11 a12 ... a1r

a21 a22 ... a2r

... ... . .. ... ar1 ar2 ... arr

6= 0

Le système est compatible ssi soitn=r

soit∀s > r:

a11 a12 ... a1r b1

a21 a22 ... a2r b2

... ... . .. ... ar1 ar2 ... arr br

as1 as2 ... asr bs

= 0

(8)

Déterminants

Notion d’application p-linéaire

L’applicationf : E1×E2× · · · ×Ep → F estp-linéaire si elle est linéaire par rapport à chacune des variables lorsque les autres variables sont fixées. SiF =K, on a une formep-linéaire.Lp(E1×E2× · · · ×Ep;F)est un espace vectoriel surK.

Soit σ ∈ Sp une permutation, on note σ(f)(x1,· · ·, xp) = f(xσ(1),· · · , xσ(p)). f est symétrique si ∀σ ∈ Sp, σ(f) = f etf est antisymétrique si∀σ ∈ Sp, σ(f) = (σ)f où(σ)est la signature de la permutationσ.f est alternée si elle associe le vecteur nul à toutp-uple deEpdont deux vecteurs sont égaux. On a la propriété suivante f ∈ Lp(E, F)est alternée ssi elle est antisymétrique.

On a la caractérisation suivante :fest symétrique (resp. antisymétrique) ssi pour toute transpositionτon a :τ(f) =f (resp.τ(f) =−f).

Pourf ∈ Lp(E, F), on définitS(f) =P

σ∈Spσ(f)qui est symétrique. On noteSp(E;F)le sous-espace vectoriel des applicationsp-linéaire symétriques. On définit égalementA(f) =P

σ∈Sp(σ)σ(f)qui est antisymétrique. On note Ap(E;F)le sous-espace vectoriel des applicationsp-linéaire antisymétriques. Soitf ∈ Ap(E;F). On ne change pas la valeur prise parf sur unp-uple deEpen ajoutant à l’un des vecteurs une combinaison linéaire des autres. En particulier, f prend la valeur 0 sur toutp-uple constituant un système lié.

Déterminants

SoitEun espace vectoriel de dimension finiendont une base est donnée pare= (e1,· · ·, en). Le dual deEnotéE est également de dimensionn. On notee= (e1,· · · , en)la base duale dee. Il existe une et une seule formen-linéaire alternée surEprenant la valeur 1 sur la basee. On l’appelle déterminant et on la notedete. L’espace vectorielAn(E) admet pour base(dete)et toutf ∈ An(E)s’ecritf =λdeteavecλ=f(e1,· · ·, en). Le scalairedete(x1,· · ·, xn) est dit déterminant dans la baseedes vecteurs(x1,· · ·, xn). Il admet les deux expressions :

P

σ∈Sn(σ)Qn

j=1ξj,σ(j) ξj,σ(j)=hej, xσ(j)i (jième coordonnée dexσ(j)) P

σ∈Sn(σ)Qn

j=1ξσ(j),j ξσ(j),j =heσ(j), xji

Siaest une autre basea= (a1,· · · , an)alorsdete=λdetaavecλ= dete(a1,· · ·, an) Un système denvecteurs est libre ssi le déterminant du système dans la baseeest non nul.

Déterminant d’un endomorphisme

Soitu ∈ L(E). Alors il existe un unique scalaire appelédetutel que ∀f ∈ An(E), f(u(x1),· · ·, u(xn)) = detuf(x1,· · ·, xn). On obtientdetu= dete(u(e1),· · ·, u(en))

On a les propriétés suivantes : – detId= 1

– det(λu) =λndetu – dettu= detu

– det(u◦v) = (detu)(detv)

– uest inversible ssidetu6= 0et alorsdetu−1= (detu)−1

Déterminant d’une matrice carrée

SoitM = (α)ij une matrice carrée d’ordren. Le déterminant deM est le déterminant du système des vecteurs colonnes de la matrice. On a :

detM = X

σ∈Sn

(σ)

n

Y

j=1

αj,σ(j)

ou

detM = X

σ∈Sn

(σ)

n

Y

j=1

ασ(j),j

(9)

Si on effectue sur le système de vecteurs colonnes d’une matrice une permutation σ, le déterminant est multiplié par (σ). Le déterminant dépend linéairement de chacun des vecteurs colonnes. Le déterminant d’une matrice ne change pas quand on ajoute à l’un des vecteurs colonnes une combinaison linéaire des autres vecteurs colonnes. Il est nul si l’un des vecteurs colonnes est combinaison linéaire des autres vecteurs colonnes.

On obtient des énoncés identiques en remplaçant les colonnes par les lignes.

Théorème

Soituun endomorphisme deE. On adetu= detM oùM est une matrice deudans une base quelconque. On a égalementdetI = 1,det(λM) = λndetM,det(M N) = (detM)(detN)etM est inversible ssidetM 6= 0et detM−1= (detM)−1

Calcul de déterminants

Soit

M =

A C 0 B

M ∈ Mn(K)avecn= p+p,A ∈ Mp(K),B ∈ Mq(K),0 ∈ M(q,p)(K), etC ∈ M(p,q)(K). Alors,detM = (detA)(detB)

Plus généralement, soitM la matrice suivante

M =

N11 N12 · · · N1m 0 N22 · · · N2m ... ... . .. ... 0 0 · · · Nmm

AlorsdetM =Qm

i=1detNii

Dans le cas particulier d’une matrice triangulaire supérieure ou d’une matrice diagonale le déterminant est égal au produit des éléments diagonaux.

SoitM = (αij)une matrice carrée(n, n) (n >0). On appelle mineur relatif à l’élémentαij, le déterminant de la matrice carrée(n−1, n−1),Mijdéduite deM en supprimant la i-ème ligne et la j-ème colonne. On appelle cofacteur deαijle scalaireαˆij = (−1)i+jdetMij.

On peut développer un déterminant par rapport à une colonne :∀j ∈Nn, detM =Pn

k=1αˆkjAkjou par rapport à une ligne ∀i∈Nn, detM =Pn

k=1αˆikAik.

Calcul de l’inverse d’une matrice

Pour calculer l’inverse d’un matrice la méthode du pivot de Gauss est très efficace, en effet on a pour des matrices carréesM etN:∀X, X0,(M X =X0⇐⇒X =N X0)ssiM =N−1

SoitM = (αij)une matrice carrée d’ordren. La comatriceMˆ deM est la matrice( ˆαij)oùαˆijest le cofacteur de αijdansM.

On a le résultat :MtMˆ =tM Mˆ = (detM)In. D’où siM est inversibleM−1=det1Mt

Rang d’une matrice

SoitM une matrice(n, p)et soitP une matrice carrée(s, s)extraite de la matriceM, tel ques <min(n, p). On appelle matrice bordante deP dansM, toute matrice(s+ 1, s+ 1)extraite deM qui admetPpour matrice extraite . P admet donc au plus(n−s)(p−s)matrices bordantes.

Théorème : SoientM une matrice de type(n, p), de rangretP une sous-matrice carrée(s, s)inversible tel que s < r. Alors il existe au moins une matrice inversible parmi les(n−s)(p−s)extraites deM bordantes deP.

Définition : SoitM une matrice non nulle. On appelle matrice principale de M, toute matrice carrée inversible extraite deM dont l’ordre est égal au rang deM.

Théorème : SoitM une matrice non nulle.M est de rangrssi il existe une matrice(r, r)inversible, extraite deM et n’admettant pour matrice bordante dansM aucune matrice inversible.

(10)

Calcul matriciel

Calcul par bloc

SoientA1, A2 ∈ M(n1, p1),B1, B2 ∈ M(n1, p2),C1, C2 ∈ M(n2, p1),D1, D2 ∈ M(n2, p2), on peut alors définir des matricesMi∈ M(n1+n2, p1+p2)par bloc,

Mi=

Ai Bi Ci Di

ainsi

A1 B1

C1 D1

A2 B2

C2 D2

=

A1+λA2 B1+λB2

C1+λC2 D1+λD2

De même siA3∈ M(p1, p3),B3∈ M(p1, p4),C3∈ M(p2, p3),D3∈ M(p2, p4) A1 B1

C1 D1

A3 B3

C3 D3

=

A1A3+B1C3 A1B3+B1D3

C1A3+D1C3 C1B3+D1D3

On remarque que si la taille des matrices permettent de faire les calculs précédents alors l’égalité est vrai.

Norme matricielle

On suppose dans cette partie et la suivante queK =RouC.Mp(K)est un espace vectoriel, on dit qu’une norme k.ksurMp(K)est matricielle si∀M, N ∈ Mp(K), kM Nk ≤ kMkkNk. Si on a une normek.ksurKn et que l’on pose|||M||| = sup{kM Xk|X ∈ KnetkXk = 1}alors|||.||| est une norme matricielle surMp(K), appelée norme subordonnée.

Conditionnement

Soitk.k,|||.|||définies comme précédemment, le conditionnement d’une matrice inversibleMest définie par cond(M)=|||M||| |||M−1|||

. Ceci permet de majorer l’erreur relative commise lors de la résolution d’un système linéaire dont les données de départ sont entachées d’erreurs.

Matrices de permutation

Soientn∈Netσ∈Sn. On noteMσ= (µkl)1≤k≤n

1≤l≤n

oùµklkσ(l). On alorsdetM =(σ)etMσ−1 =tMσ. SoitM = (αij)1≤i≤n

1≤j≤p

∈ M(n, p). On aMσ.A= (βkl)(k,l)∈Nn×Np oùβklσ−1(k)l. En particulier, siσest la transposition qui échangeietj,MσAse déduit deAen échangeant les lignes d’indiceietj. On note(li ↔ lj). De même, si A∈ M(p, n),AMσse déduit deAen échangeant les colonnes d’indiceietj. On note(ci↔cj)

Matrices d’affinité

Soit(i, α)∈Nn×k. On noteDi(α) = diag (1,1,· · · , α,1,· · ·)oùαse situe eni-ème position. AlorsdetDi(α) = α. SiA∈ M(n, p),Di(α)Ase déduit deAen multipliant lai-ème ligne parα. On note(li →αli). SiA∈ M(p, n), ADi(α)se déduit deAen multipliant lai-ème colonne parα. On note(ci→αci).

Matrices de transvections

Soientn∈Net((i, j), λ)∈(Nn)2×K,i6=j. On noteUij(λ) =In+λMijoùMij = (δikδjl)klest un élément de la base canonique deMn(K). On adetUij(λ) = 1. SiA∈ M(n, p),i6=jetλ∈K,Uij(λ)Ase déduit deApar (li→li+λlj). SiA∈ M(m, n), etλ∈K,AUijse déduit deApar(ci→ci+λcj).

(11)

Cas particulier : Propriété

Soientn, p∈ N etA, B ∈ M(n, p). SiBse déduit deApar des opérations élémentaires (permutation, affinité, transvection), alorsAetBont même rang.

Application aux matrices inversibles

On a la propriété suivante : SiA ∈ Gln(K), il existe un produitP de matrices de permutations, d’affinités et de transvections tel queP A=In. Ceci donne une méthode pour calculer l’inverse d’une matrice.

Application au calcul du rang

On a la Proposition suivante : Soientn, p∈NetM ∈ M(n, p)et de rangr. Alors

1. Il existeP ∈Gln(K),Q∈Glp(K), produits de matrices de transvections, d’affinités et de permutations, tels que P AQsoit de la forme

M =

T B 0 0

avecT ∈Glr(K)triangulaire supérieure,B∈ M(r, p−r).

2. Il existeP ∈Gln(K),Q∈Glp(K), produits de matrices de transvections, d’affinités et de permutations, tels que P AQsoit de la forme

M = Ir 0

0 0

On a le corollaire : Soientn, p∈NetA, B∈ M(n, p). AlorsAetBsont équivalentes si et seulement si on peut passer de l’une à l’autre par une suite d’opérations élémentaires.

Application au calcul de déterminant

Lorsquen = p, une méthode semblable à la précédente permet de calculer le déterminant d’une matrice carrée.

Cependant, il faut faire attention car la permutationsMσmultiplie le déterminant par(σ)et l’affinitéDi(α)multiplie le déterminant parα.

Application aux systèmes linéaires

SoientM ∈ M(n, p)etB∈ M(n,1)et le système linéaireM X =B. Par opérations élémentaires, on le transforme en système équivalentT X = B1 avecT ∈ M(n, p)triangulaire supérieure etB1 ∈ M(n,1). La résolution de ce dernier système (lorsqu’il est compatible), est alors facile de proche en proche.

Méthode du pivot de Gauss

Cette méthode est utilisée pour la transformation des matrices, déterminants, systèmes linéaires pour obtenir des expressions plus simples. On peut supposerM = (aij)non nulle et de première colonne non nulle. Soitα1un coefficient non nul de la première colonne de M (on dit que l’on choisitα1pour pivot). En permutant des lignes lignes , on peut amenerα1en première ligne et première colonne. Utilisant ensuite pour2≤i ≤ndes opérationsLi → −α−11 ai1L1

on se ramène à une matrice de la forme :

P.M=

α1 β12 ... β1p 0 β22 ... β2p ... ... . .. ...

0 βn2 ... βnp

On pose

M1=

β22 ... β2p ... . .. ... βn2 ... βnp

SiM1 = 0, on a terminé. Sinon, à permutation des colonnes près, on peut supposer que la première colonne deM1est non nulle. Recommençant l’opération, on parvient, de proche en proche à obtenir une matrice triangulaire supérieure. On

(12)

Réduction des endomorphismes et des matrices carrées

Dans cette partieK=RouCetEunK-espace vectoriel.

Théorème

Soientu , vdes endomorphismes deEqui commutent. Alors 1. Tout-sous espace propre relativement àuest stable parv.

2. keruetimusont stables parv.

Polynômes d’endomorphismes

Soitu∈ L(E). On définit l’applicationφu:K[X]→ L(E), φu(P) =P(u)C’est un morphisme de laK-algèbre K[X]dans laK-algèbreL(E).imφuest une sous-algèbre commutative deL(E)appelée algèbre des polynômes deu et notéeK[u].kerφuest un idéal deK[X]appelé idéal annulateur deuet notéJu

Décomposition des noyaux

Théorème Soitu∈ L(E),P1,· · ·, Ppdes polynômes deK[X]premiers entre eux deux à deux etP le produit de ces polynômes. On a alors :kerP(u) =⊕pi=1kerPi(u)

Valeurs propres - Vecteurs propres

SoientE un espace vectoriel de dimension finie etuun endomorphisme deE. S’il existeλ∈ Ketx∈E− {0}

tels queu(x) = λx, on dit queλest une valeur propre deuet quexest un vecteur propre deuassocié à la valeur propreλ. Le spectre deunotéSp(u)est l’ensemble des valeurs propres deu. On noteEλ = ker(u−λId). C’est le sous-espace propre deuassocié àλ. On a :

λvaleur propre⇔ker(u−λId)6={0}

c’est à dire queλest valeur propre ssiu−λId n’est pas injectif.

SoitPun polynôme tel queP(u) = 0, siλest une valeur propre deualorsP(λ) = 0.

Somme directe de sous espaces propres

Soituun endomorphisme deEet(λi)1≤i≤nune famille finie de valeurs propres deu, deux à deux distinctes. Alors la somme des sous-espaces propres associés est directe.

Dans la suite on suppose queEest de dimension finie.

Définition : endomorphisme diagonalisable

Soitu∈ L(E). Si la somme des sous-espaces propresker(u−λId)oùλ∈Sp(u)(qui est directe) est égale àE, on dit que l’endomorphismeuest diagonalisable.

Proposition :uest diagonalisable ssi il existe un polynôme annulateur scindé dont toutes les racines sont simples.

Polynôme caractéristique

Soitu∈ L(E)représenté par la matriceM ∈ Mn(K)dans une base arbitraire. On sait queλest valeur propre ssiu−λId est non inversible, c’est à dire ssidet(M −λId) = 0. Ce dernier déterminant est un polynôme, appelé le polynôme caractéristique deM et il est notéχM. On a donc :

χM(λ) =

α11−λ α12 ... α1n

α21 α22−λ ... α2n

... ... . .. ... αn1 αn2 ... αnn−λ

(13)

Le polynôme caractéristique de la matrice qui représente udans une base est indépendant du choix de la base. On l’appelle polynôme caractéristique deuet on le noteχu. Les valeurs propres deusont les racines deχu. L’ordre de multiplicité d’une racineλdeχuest dit multiplicité de la valeur propreλet est notém(λ). Un endomorphismeu∈ L(E) surCa au moins une valeur propre.

SupposonsEde dimensionn. On a :

χu(X) = (−X)n+

n

X

k=1

(−1)n−kγkXn−k

De plus :

1. γn = detu.

2. γ1=trM

3. γn−1=trMˆ oùMˆ est la comatrice deM.

4. Si le polynôme caractéristiqueχuse factorise sous la formeQn

i=1(X−λi), lesλi n’étant pas nécessairement distincts, on a :

γk= X

1≤i1<···<in≤n

λi1· · ·λik

5. uettuont le même polynôme caractéristique.

Théorème

Soientu∈ L(E)etE0un sous-espace deEstable paru. on noteu0la restriction deuàE0. Alorsχu0 diviseχu.

Théorème de Hamilton-Cayley

Soientu∈ L(E),χuson polynôme caractéristique . Alorsχu(u) = 0.

Théorème

Soientuun endomorphisme deEetλune valeur propre deude multiplicitém(λ). On a l’inégalité 1≤dimEλ≤m(λ)

Le sous-espace propre associé à une racine simple du polynôme caractéristique est de dimension 1.

Caractérisation des endomorphismes diagonalisables

On a le Théorème : Soitu∈ L(E)oùdimE=n. Les assertions suivantes sont équivalentes : 1. uest diagonalisable.

2. Il existe une base deEdans laquelleuest représenté par une matrice diagonale.

3. χuest scindé surKet pour toute valeur propre deu, la multiplicité est égale à la dimension du sous-espace propre associé.

On a le cas particulier : tout endomorphisme d’un espace vectoriel de dimensionnqui admetn valeurs propres distinctes est diagonalisable.

Puissance p-ième d’une matrice diagonalisable

SoitM ∈ Mn(K)une matrice diagonalisable. Alors, il existe une matriceP inversible telle queM =P DP−1 avecD diagonale etD = P−1M P. Alors ∀q ∈ N Mq = P DqP−1 et siD = diag (λ1,· · ·, λn)alorsDq = diag (λq1,· · ·λqn). De plus,M etDsont semblables et elles sont inversibles ssi∀i λi 6= 0et dans ce cas, on aM−1 = P D−1P−1.

(14)

laquelleuest représenté par une matrice triangulaire.

2. Théorème :uest trigonalisable ssiχuest scindé surK.

Ceci est toujours réalisé siK=C.

Puissances d’un endomorphisme - Noyaux itérés

Soitv ∈ L(E). On définit les puissances dev par :v0 = e,∀k ∈ N vk = v◦vk−1. On a alors : vp◦vq = vq◦vp=vp+qet doncvk =vk−1◦v. PosonsF0= kere={0}et pourk∈N:Fk = kervk. Alors la suite(Fk)est croissante. On pose :F =∪kFk. Alors deux cas se présentent : soit la suite est strictement croissante (ce qui impose à la suite(dimFk)d’être non bornée et donc àEd’être de dimension infinie), soit il existe un plus petit indice notérà partir duquel la suite est stationnaire. On a donc

{0} ⊂F1⊂ · · · ⊂Fr=Fr+1=· · ·=F

Dans le cas particulier d’un endomorphisme nilpotent d’indice de nilpotenceq, on aFq=F =E. Alors, on trouve une base de trigonalisation devde la façon suivante : on obtient une base dekerv. L’image parvdes éléments de cette base est le vecteur nul. Puis on complète cette base pour obtenir un base dekerv2et l’image parudes éléments de cette base est alors danskervet ainsi de suite. De proche en proche, on construit une base deEdans laquelle la matrice devest triangulaire supérieure avec uniquement des 0 sur la diagonale. Un endomorphisme nilpotent est donc trigonalisable et admet uniquement 0 comme valeur propre.

Sous-espaces caractéristiques

Soitu∈ L(E)tel queχuest scindé surK(toujours vrai siK=C). On pose

χu=

p

Y

i=1

(X−λi)mi

D’aprés le théorème de décomposition des noyaux et Hamilton-Cayley on a E=⊕pi=1ker(u−λi)mi

On poseFi = ker(u−λi)mi, on appelle ces SEV les sous espaces caractéristiques deudimFi =miet on remarque queu|Fi−λiId est nilpotent.

Polynôme minimal

(Hors programme)

Soitu∈ L(E). CommeE est de dimension finie, le morphismeφuest non injectif (en effet lesn2+ 1endomor- phismesuk 0≤k≤n2sont linéairement dépendants). AlorsJu6={0}et il existe un unique polynôme unitaireP tel queJu= (P). On appelle ce polynôme polynôme minimal et on le noteµu.

On a la Proposition : Soientu∈ L(E)de polynôme minimalµuetE0un sous-espace vectoriel deEstable paru.

On note u’ la restriction deuàE0etµu0son polynôme minimal. Alorsµu0diviseµu. On a les propriétés suivantes :

1. PourP∈K[X],kerP(u)etimP(u)sont stables paru(en effetuetP(u)commutent).

2. ∀(P, λ, q)∈K[X]×K×N ker(u−λId)q⊂ker(P(u)−P(λ)e)q

3. λ ∈ Sp(u) ⇒ ∀P ∈ K[X] P(λ) ∈ Sp(P(u)). Le sous-espace propre de uassocié àλest inclus dans le sous-espace propre deP(u)associé àP(λ).

4. Toute valeur propre deuest racine de tout polynôme de l’idéal annulateur deuet en particulier deµu.

5. Un endomorphisme d’un espace vectorielEde dimension finie est diagonalisable ssi son polynôme minimal est scindé surKet n’a que des racines simples.

Décomposition de Dunford

Soituun endomorphisme trigonalisable d’un espace vectoriel de dimension finie. Il existe un unique couple(d, n) tel quedsoit diagonalisable,nsoit nilpotent etdn=ndvérifiantu=n+d.

(15)

CAPES de Mathématiques Université de Cergy Pontoise

Résumé de cours d’algèbre linéaire Valérie Nachef

2001/2002 Alexandre Mizrahi

Espaces euclidiens

Définition - Exemples

Un espace euclidien est défini par la donnée : 1. D’un espace vectoriel surR,Ede dimension finie.

2. D’un produit scalaire (forme bilinéaire, symétrique, définie positive) surE, souvent noté< . Exemples

1. Sur l’espaceE =Rn, la forme(x, y)→ Pxiyiest un produit scalaire dont la forme quadratique associée est x→Px2i. Muni de ce produit scalaire,Eest donc un espace euclidien.

2. SoitC([0,1],R)leR-espace vectoriel des applications continues de[0,1]→R. L’application(f, g)→R1

0 f(t)g(t)dt est une forme bilinéaire définie positive. C’est donc un produit scalaire qui fait deC([0,1],R)un espace préhil- bertien réel.

Isomorphisme SoitEest un espace euclidien, il existe un isomorphe canoniqueψdeE vers son dualE, défini par ψ(x) : E → R

y 7→ < x, y > . On peut remarquer que la notion d’orthogonalité est transportée ainsi deEdansE.

Métrique associée à un espace euclidien

SoitEun espace euclidien. Si on posekxk= (< x, x >)12 pourx∈E, alors la fonctionk kest une norme surE, c’est-à-dire que l’on a :

1. ∀λ∈R∀x∈E kλxk=|λ|kxk.

2. kxk= 0⇔x= 0.

3. Inégalité triangulaire :∀x∀y ∈E kx+yk ≤ kxk+kyk

k kest appelée la norme euclidienne associée au produit scalaire. On peut alors définir surE une structure d’espace métrique en posantd(x, y) =kx−yk.

La démonstration de ce résultat repose sur l’Inégalité de Cauchy-Schwarz :

< x, y >2≤ kxk2kyk2 l’égalité étant réalisée ssixetysont colinéaires.

Sous-espaces d’un espace euclidien de dimension finie

SoitEun espace euclidien de dimensionn. SiF est un sous-espace deE, on a 1. dimF+ dimF=n

2. (F)=F 3. E=F⊕F

F est appelé le supplémentaire orthogonal deF. Six ∈E est tel quex = y+zavecy ∈ F etz ∈ F, alors kxk2=kyk2+kzk2qui est la forme générale du théorème de Pythagore. On peut étendre ce résultat par récurrence : SoientEun espace euclidien de dimensionn, etF1,· · · , Fkdes sous-espaces orthogonaux deux à deux tels queEsoit somme directe desFi. Six=Pk

i=1xiest la décomposition dexsur lesFi, alors on a :

kxk2=

k

X

i=1

kxik2

(16)

deux à deux orthogonaux et si leur norme est égale à 1 ie si(ei|ej) =δij

Tout système orthonormal d’un espace euclidien de dimension peut être complété en une base orthonormale de tout l’espace.

Soit(v1,· · ·, vn)une base quelconque de l’espace euclidienE. Il existe une base orthonormale(e1,· · ·, en)unique deEvérifiant les conditions suivantes :

1. ∀p (ep|vp)>0

2. ∀p V ect(e1,· · · , ep) =V ect(v1,· · · , vp)

Projections

SoitE un espace euclidien de dimensionn. On rappelle que la distance d’un pointa ∈ E à une partieAde E est le nombre positif défini par :d(a, A) = infx∈Ad(a, x). On dira que deux sous-espaces affinesH etKdeE sont orthogonaux si leurs directionsH0etK0sont orthogonales.

Théorème : SoientEun espace euclidien de dimensionnetH un sous-espace affine deE. Quelque soit le pointa deE, il existe un unique pointq(a)∈Htel qued(a, H) =d(a, q(a)). Ce pointq(a)est appelé le projeté orthogonal deasurH, car c’est l’unique pointb∈H telb−asoit orthogonal àH. Enfin, l’applicationa→q(a)deEsurH est une application affine, surjective, appelée projection orthogonale deEsurH.

On remarque que l’image réciproque debparqest le sous-espace affineb+L0oùL0est le supplémentaire orthogonal H0deH.

Symétrie par rapport à un sous-espace affine H de E

Définition :H désignant un sous-espace affine deEespace euclidien de dimensionnetqla projection orthogonale surH, la symétrie par rapport àHest l’applicationa→sH(a) = 2q(a)−a. C’est une application affine. On remarque que l’on asH◦sH =idEet doncsHest bijective.

Soienta, bdeux points distincts deE. On cherche l’ensemble des pointsx∈ Etels qued(x, a) = d(x, b). Ceci équivaut à

2(b−a).x=|b|2− |a|2 (∗)

L’ensemble desx∈Evérifiant (*) est un hyperplan affineH, dont la direction est l’hyperplan vectorielH0d’équation (b−a).x= 0.H0est le supplémentaire orthogonal de la droite engendrée par le vecteurb−a. De plus, d’après (*),H contient le point a+b2 , c’est-à-dire le milieu de[a, b]

Définition : L’hyperplan affineH défini précédemment est appelé l’hyperplan médiateur du segment[a, b]C’est l’ensemble des points équidistants deaetb.

Groupe orthogonal

SoitEun espace euclidien, . Les automorphismesφdeEtels que

∀x∈E∀y∈E, < φ(x), φ(y)>=< x, y > (∗)

forment un groupe pour la loi de composition. De plus, (*) est équivalente à

∀x∈E, kφ(x)k=kxk

Il est donc équivalent de dire que l’automorphismeφconserve le produit scalaire ou qu’il conserve la norme. Définition : Le sous-groupe du groupe linéaireGl(E)formé des automorphismesφqui conservent la norme est appelé le groupe orthogonal. On le noteO(E)et ses éléments sont dits orthogonaux.

Soite= (e1,· · ·, en)une base orthonormale deE. Pour qu’un endomorphismeu∈ L(E)soit un élément deO(E), il faut et il suffit que sa matriceMudansevérifie :

tMuMu=I (∗)

Définition : Une matrice qui vérifietM M =Iest dite orthogonale, on noteOn(R)l’ensemble des matrices ortho- gonales deMn(R).

De la relation (*), on déduit :[det(Mu)]2 = 1. Donc l’applicationd:u→detuest un homomorphisme surjectif deO(E)dans le sous-groupeG={−1,1}deK.

(17)

Définition : On appelle groupe spécial orthogonal et on noteSO(E)le sous-groupe deO(E)formé desu ∈ O(E)tels quedet(u) = 1. C’est le noyau dedc’est donc un sous-groupe distingué deO(E)et le groupe quotient O(E)/SO(E)est isomorphe àG.

Groupe SO(n)

L’applicationM →detM est un homomorphisme deO(n)dans le groupe multiplicatif{−1,1}. Il est surjectif : en effet, la symétrie par rapport à l’hyperplanxn= 0appartient àO(n)et a pour déterminant−1

Définition : Le sous-groupe des éléments de O(n) de déterminant +1est appelé le groupe spécial orthogonal d’ordrenet est notéSO(n)

Exemples :

1. O(1)est formé des matricesM d’ordre 1 telles queMtM =I1, c’est à dire des élémentsa∈Rtel quea2= 1.

O(1)est donc le groupe à deux éléments{−1,1}. L’élément−1représente la symétrie par rapport à l’origine,+1 représente l’identité.SO(1)est réduit à{1}

2. SO(2)est formé des matrices :

M =

cosθ −sinθ sinθ cosθ

Changement de base

Soit(ei)1≤i≤nune base orthonormale de l’espace euclidienE. Pour qu’un endomorphismeφde E soit un auto- morphisme orthogonal, il faut et il suffit que lesnvecteursfi =φ(ei) 1 ≤1≤ nforment une base orthonormale de E

SoientBune base orthonormale de l’espace euclidienE, etB0une base deE.B0est orthonormale ssi la matrice de passage deB0àBest orthogonale.

Orientation

SoitEun espace vectoriel de dimensionnsurR. Étant donné deux bases ordonnées(e1,· · ·, en)et(f1,· · ·, fn).

On dit que la seconde a la même orientation que la première si la matrice de passage de la base(ei)à la base(fi) a un déterminant positif. On obtient une relation d’équivalence, qui a deux classes d’équivalences. Orienter l’espace, c’est choisir une de ces classes, dont les éléments sont appelés bases directes. SiEa une structure euclidienne, on peut se borner à considérer des bases orthonormales : deux bases orthonormales ont même orientation si le déterminant de la matrice de passage est égal à+1. Donc les isométries qui conservent l’orientation de l’espace euclidienEsont les isométries directes.

Produit mixte et produit vectoriel en dimension 3

Le produit mixte de3vecteursV1, V2, V3de l’espace euclidien orientéEde dimension 3 , est le déterminant des composantesvijdesVidans une base orthonormale directe deE. Cette définition est indépendante du choix de la base (mais dépend de son orientation). Il est noté[V1, V2, V3]. C’est une fonction3-linéaire alternée surE.

Étant donné2vecteursV1, V2de l’espace euclidien orientéE, il existe un vecteurW unique tel que pour tout vecteur V deE, on ait :

< W|V >= [V1, V2, V]

Ce vecteur est appelé produit vectoriel des vecteursV1, V2et est noté :V1∧V2. Il est remplacé par son opposé si on change l’orientation deE.

Les composantesWidu produit vectorielW =V1∧V2sont données par Wi= (−1)i+1i

où∆i désigne le déterminant2×2obtenu en enlevant la ligneià la matrice des composantes desVk dans une base orthonormale.

Le produit vectoriel est une fonction2-linéaire alternée surE.

Le produit mixte et produit vectoriel sont des exemples de quantités invariantes parSO(n)mais non parO(n)car les transformations orthogonales de déterminant−1changent le produit mixte et le produit vectoriel en leurs opposés.

(18)

linéaire< x, . >

Proposition : SoientEun espace euclidien etu∈ L(E). Il existe une unique applicationv:E→Equi vérifie :

∀(x, y)∈E2 < u(x)|y >=< x|v(y)>

Cette applicationvest linéaire.

Définition : SoientEun espace euclidien etu∈ L(E). L’unique applicationvdéfinie ci-dessus s’appelle endomor- phisme adjoint deuet se noteu.

Propriétés : SoitEun espace euclidien 1. ∀u∈ L(E) (u)=u

2. ∀u∈ L(E)∀v∈ L(E) (u◦v)=v◦u

Théorème : SoitEun espace euclidien de dimensionn. Soite= (e1,· · · , en)une base orthonormale deE. Alors M ate(u) =t(M ate(u))

Endomorphismes symétriques, antisymétriques

Définition : SoientEun espace euclidien etu∈ L(E) 1. uest dit auto-adjoint ou symétrique siu=u 2. uest dit antisymétrique siu=−u

Propriétés :

1. uest symétrique⇔ ∀(x, y)∈E2 < u(x), y >=< x, u(y)>

2. uest antisymétrique⇔ ∀(x, y)∈E2 < u(x), y >=−< x, u(y)>

Théorème : SoientEun espace euclidien etu∈ L(E). Les propriétés suivantes sont équivalentes : 1. u∈O(E)

2. u◦u=IdE

3. u◦u=IdE

4. u∈Gl(E)etu−1=u

Diagonalisation des endomorphismes symétriques

SoientEun espace euclidien de dimensionnetuun endomorphisme symétrique deE. Alorsuest diagonalisable et ses sous-espaces propres sont deux à deux orthogonaux. De façon équivalente,Eadmet une base orthonormale formée de vecteurs propres deu. Le polynôme caractéristique deuest scindé Donc toute matrice symétriqueM est diagonalisable.

De plus, il existe une matrice diagonaleDet une matrice orthonormale directeΩtelles que :M = ΩDtΩ.

Définitions - Propriétés

Une forme bilinéaire sur leK-espace vectorielEest une applicationB:E×E→K, linéaire par rapport à chacune des variables. SiE est de dimension finie et si(e1,· · ·, en)est une base deE, on a :B(Pn

i=1λiei,Pn

j=1µjej) = Pn

i=1

Pn

j=1λiµjbij oùbij = B(ei, ej). On voit que l’espaceB(E)des formes bilinéaires sur E est engendré par lesn2 formesBij définies par Bij(ei, ej) = 1 etBij(ek, el) = 0 si(i, j) 6= (k, l). Ces formes étant linéairement indépendantes, ceci montre queB(E)est de dimensionn2. Il en résulte queB(E)est isomorphe à l’espace des matrices carrées d’ordren: la matriceM = (bij)définie parbij=B(ei, ej)est appelée la matrice deBdans la base(e1,· · ·, en).

Une forme bilinéaireBsur l’espace vectorielEest dite symétrique si

∀x∈E∀y∈E B(x, y) =B(y, x) La formeBest symétrique ssi sa matrice dans toute base est symétrique.

(19)

Changement de base pour les formes bilinéaires

Soient(e1,· · · , en)et(f1,· · · , fn)deux bases de l’espace vectorielEetPla matrice de passage de la première à la seconde. On considèreBune forme bilinéaire symétrique surE. On noteM la matrice deBdans la base(e1,· · ·, en)et N la matrice deBdans la base(f1,· · · , fn). Six=Pn

i=1xieiety=Pn

j=1yjej, on aB(x, y) =tXM Y =tY M X oùX etY représentent les vecteurs colonnes obtenus avec les coordonnées dexety. En appliquant aux vecteurs de base, cette formule permet également d’obtenir la matriceM. Un calcul analogue avec les coordonnées dexetydans la base(f1,· · ·, fn)montre que l’on a :N =tP M P.

Réduction

SoitEun espace euclidien, l’application qui a un endomorphisme auto-adjointuassocie la forme bilinéaire symé- triqueBudéfinie parBu(x, y) =< x, u(y)>est un isomorphisme d’espace vectoriel, on peut remarquer queuetBu ont même matrice dans les bases orthonormale.

D’après le théorème de réduction des endomorphismes symétriques, il existe donc une base orthonormale(e1, . . . , en) de(E, < , >)pour laquelleB(ei, ej) =δi,j. Autrement dit une base orthonormale pour<, >et orthogonale pourB, c’est ce que l’on utilise pour trouver une bon dans laquelle une conique donnée s’écrit sous sa forme réduite.

Références

Documents relatifs

Dans chacun des exemples suivants, justifier rapidement pourquoi la partie considérée est un sous-espace vectoriel de R 2 ou de R 3 , en donner la dimension et trouver une base

Dans le R-espace vectoriel C, il existe une relation linéaire entre les vecteurs de la famille (1, j, j 2 ).. (la somme est nulle, les trois coecients étant égaux à

105, version 2009-2010] Si le système (S )Ax = b est compatible, il est équivalent à tout système (S 0 ) obtenu en ne considérant que les lignes de la matrice A qui sont

105, version 2009-2010] Si le système (S )Ax = b est compatible, il est équivalent à tout système (S 0 ) obtenu en ne considérant que les lignes de la matrice A qui sont

Sans résoudre ce système, rappeler pourquoi l’ensemble E est un sous-espace vectoriel de R 4?. Résoudre le

Pour ces questions, nous noterons les opérations sur les rangées en précisant tout d’abord le type de rangée (ligne ou colonne) puis en numérotant ces rangées par ordre

Finalement une matrice c’est pareil (de deux fa¸ cons) qu’un syst` eme de vecteurs de R n , et comme on parle de rang d’une matrice, on peut parler de rang d’un syst` eme de

Que peut-on dire du rang d’un syst` eme de sept vecteurs de R 6 sachant que : a) chacun des quatre premiers est combinaison lin´ eaire des trois derniers.2. b) chacun des