• Aucun résultat trouvé

UNIVERSITÉ PAUL SABATIER ALGÈBRE LINÉAIRE

N/A
N/A
Protected

Academic year: 2022

Partager "UNIVERSITÉ PAUL SABATIER ALGÈBRE LINÉAIRE"

Copied!
31
0
0

Texte intégral

(1)

0

(2)

UNIVERSITÉ PAUL SABATIER

ALGÈBRE LINÉAIRE

ET

BILINÉAIRE

(Résumé de cours)

Claude WAGSCHAL

(3)

Avertissement

Ce texte est un résumé du cours d’algèbre linéaire et bilinéaire de la Licence (L2). Ce texte ne comporte aucune démonstration.

(4)

Chapitre 1

Rappels et Notations

1.1 Espaces vectoriels

Tous les espaces vectoriels seront des espaces vectoriels (en abrégé e.v.) sur un corpsKqui sera soit le corpsRdes nombres réels, soit le corpsCdes nombres complexes.

SiE est un e.v., un sous-espace vectoriel (en abrégé s.e.v.) est une partie non videF ⊂Estable par les opérations deE, c’est-à-dire

(x, y)∈F×F ⇒x+y∈Fet(λ, x)∈K×F⇒λx∈F.

L’addition (resp. la multiplication par les scalaires) par restriction àF ×F (resp.

K×F) définissent une structure vectorielle surF.

SiB est une partie deE, il existe un plus petit (pour l’inclusion) sous-espace vectoriel contenantB, appelé sous-espace vectoriel engendré parBque nous no- teronss.e.v.(B). Ce sous-espace vectoriel coïncide avec l’ensemble des combi- naisons linéaires (finies) d’éléments deB.

Une partieBdeEest dite libre si pour toute famille finie(xi)i∈I d’éléments distincts deBet toute famille(λi)i∈I de scalaires

X

i∈I

λixi= 0⇒λi= 0pour touti∈I.

On dit qu’une famille(xi)i∈I d’éléments deEest libre si, pour toute partie finie

(5)

4 CHAPITRE 1 RAPPELS ET NOTATIONS

J deIet toute famille(λi)i∈Jde scalaires X

i∈J

λixi= 0⇒λi= 0pour touti∈J.

Ceci signifie que lesxisont distincts et que la partieS

i∈I{xi}est libre.

On dit qu’une partieBdeEengendreE, ou queBest une partie génératrice, si toutx∈Epeut s’écrire comme une combinaison linéaire d’éléments deB, soit

x=X

i∈I

λixioùIest un ensemble fini, xi∈B, λi∈K. Une partie libre qui engendre l’espaceEest appelée une base deE.

Si un e.v. admet une base finie admettantnéléments, toute autre base est fi- nie et admetnéléments. Cet entiernest alors appelé la dimension deE, il sera noté dimKE ou simplement dimE s’il n’y a pas d’ambiguïté sur le corps. Si B = (e1, . . . , en)[on notera que nous avons ordonné les vecteurs de base, ceci est essentiel pour l’écriture matricielle des applications linéaires] est une base d’un espace de dimensionn, toutxdeEs’écrit d’une seule façon

x=

n

X

i=1

xieioùxi∈K.

Dans un e.v. de dimensionn, toute partie libre admet au plusnéléments ; toute partie libre admettantnéléments est une base et toute partie libre est contenue dans une base (théorème de la base incomplète).

Si un e.v.Eadmet une partie génératrice finieM, alorsEest de dimension fi- nie etMcontient une base deE. De plus, siEest de dimension finien, toute partie génératrice admet au moinsnéléments et c’est une base si elle admet exactement néléments.

Tout sous-espace vectorielF d’un e.v.Ede dimension finie est de dimension finie et dimF ≤dimE ; de plus,

E=F ⇐⇒dimE=dimF.

1.2 Application linéaire

Étant donné deux e.v.EetF, on noteL(E;F)l’espace vectoriel des applica- tions linéaires deEdansF. LorsqueE =F, une aplication linéaire deEdansE est appelée un endomorphisme deEet on poseL(E) =L(E;E).

Rappelons qu’une algèbreAest un e.v. muni d’une loi de composition interne (x, y) 7→ xyassociative et bilinéaire. Une algèbre est dite unitaire s’il existe un élément e ∈ A tel que ex = xe = xpour tout x ∈ A. Par exemple, L(E) est pour la composition des endomorphismes une algèbre unitaire (e =IE) non commutative si dimE≥2.

SoitT∈L(E;F), on définit le noyau et l’image deTpar KerT =T−1(0) ={x∈E;T x= 0}et ImT =T(E).

(6)

1.3 REPRÉSENTATION MATRICIELLE 5

Ce sont des s.e.v. deE etF respectivement et l’applicationT est injective si, et seulement si, son noyau est réduit à0.

Si T ∈ L(E;F) est une bijection linéaire, la bijection réciproque T−1 :F →Eest linéaire ; on dit queT est un isomorphisme et que les espaces EetF sont isomorphes. LorsqueE=F, on parle d’automorphisme.

SiE etF sont isomorphes et siEest de dimension finie, alorsF est de di- mension finie et dimE =dimF. Tout e.v. de dimension finienest isomorphe à Kn.

SoitT∈L(E;F)oùEetFsont de dimension finie, alors dimE=dim KerT+dim ImT.

Si, de plus,EetFsont de même dimension, on a les équivalences Test injective ⇔T est surjective ⇔Test un isomorphisme.

1.3 Représentation matricielle

SoientEetFdeux e.v. de dimension finie, on pose q=dimEetp=dimF.

Soient BE = (e1, . . . , eq)et BF = (f1, . . . , fp) des bases deE et F et soit T ∈L(E;F). On pose

T ej =

p

X

i=1

aijfi, aij ∈K. Six=Pq

j=1xjej ∈E, on a alors T x=

p

X

i=1

yifioùyi =

q

X

j=1

aijxj. La matrice

AT = (aij)1≤i≤p 1≤j≤q

est une matrice de type(p, q), c’est-à-dire àplignes etqcolonnes, dite matrice représentative deT dans les basesBE etBF. On noteraMp,q(K)l’espace vec- toriel des matrices de type(p, q). L’applicationT 7→AT est un isomorphisme de L(E;F)surMp,q(K). SiGest un troisième e.v. de dimension finie muni d’une baseBGet siS∈L(F;G), on a alors

AS◦T =ASAT(produit des matrices représentatives).

LorsqueEest un espace de dimension finienmuni d’une baseBE, la matrice représentative d’un endomorphisme deE est une matrice carrée de type(n, n); l’espaceMn,n(K)des matrices carrées est une algèbre unitaire, l’élément unité, notéIn, est la matrice diagonale dont les éléments diagonaux valent1et l’appli- cationA∈L(E)7→AT ∈Mn,n(K)est un isomorphisme d’algèbre. L’ensemble

(7)

6 CHAPITRE 1 RAPPELS ET NOTATIONS

GL(E)des automorphismes deEest un groupe pour la composition des applica- tions qu’on appelle le groupe linéaire deE ; de même l’ensembleGL(n;K)des matricesA ∈ Mn,n(K)inversibles est un groupe pour le produit des matrices et l’applicationA∈GL(E)7→AT ∈GL(n;K)est un homomorphisme de groupe.

Revenons à la situation envisagée au début de ce paragraphe et considérons deux autres basesBE0 = (e01, . . . , e0q)etBF0 = (f10, . . . , fp0)deEetF repective- men. On appelle matrice de passage de la base BE (dite ancienne base) à la base BE0 (dite nouvelle base) la matrice représentative de l’application IE : (E, BE0 ) → (E, BE). SiQ = (qij)1≤i,j≤q désigne cette matrice, on a par définition

e0j =

q

X

i=1

qijei.

On retiendra que les vecteurs colonnes de la matrice de passage sont les coordon- nées dans l’ancienne base des vecteurs de la nouvelle base. Rappelons que cette matriceQest inversible, soitQ ∈ GL(q;K), la matrice inverse étant la matrice de passage de la baseBE0 à la baseBE. On définit de même la matrice de passage P ∈GL(p;K)de la baseBFà la baseB0F. NotonsAetA0les matrices représen- tatives deT ∈L(E;F)dans les basesBE,BF etBE0 ,BF0 respectivement. On a alors la relation

A0=P−1AQ.

Deux matricesA, A0 ∈ Mp,q(K)liées par une telle relation oùP ∈ GL(p;K), Q∈GL(q;K)sont dites équivalentes. LorsqueE =F (BE =BF,BE0 =BF0 ) la relation précédente s’écrit

A0=P−1AP

et on dit que les matrices AetA0 sont semblables. Ces relations sont des rela- tions d’équivalence. La matrice repésentative d’un endomorphisme T ∈ L(E) n’est donc définie qu’à une similitude près. Le problème étudié dans les chapitres suivants est de déterminer une base de E telle que la matrice repésentative de T ∈L(E)soit aussi simple que possible.

1.4 Déterminants

SoitEun e.v. de dimensionnmuni d’une baseB = (e1, . . . , en), alors il existe une unique formen-linéaire alternée (ou antisymétrique) notée détB : En → K telle que détB(e1, . . . , en) = 1. Elle est donnée par la formule suivante. Soient xi=Pn

j=1xijejnvecteurs deE, alors détB(x1, . . . , xn) = X

σ∈Sn

ε(σ)x1σ(1)×. . .×xn σ(n)

où Sn désigne le groupe symétrique, groupe des permutations de l’ensemble {1, . . . , n}, etε(σ)est la signature de la permutationσ.

(8)

1.4 DÉTERMINANTS 7

On définit alors le déterminant d’un endomorphismeT ∈L(E)par détT =détB(T e1, . . . , T en) ;

ce scalaire ne dépend pas du choix de la base B. Les propriétés du détermi- nant sont supposées connues. Rappelons simplement qu’un endomorphisme T est un automorphisme si, et seulement si, détT 6= 0 et que l’application dét : GL(E) → K est un homomorphisme de groupe sur le groupe multipli- catifK.

Une matrice carréeA = (aij)1≤i,j≤n peut toujours être considérée comme la matrice représentative d’un endomorphisme T ∈ L(E); on définit alors le déterminant deAen posant détA=détT. On vérifie que

détA= X

σ∈Sn

ε(σ)aσ(1) 1×. . .×aσ(n)n

et ceci prouve que le scalaire détAne dépend pas du choix de l’espaceEet de la base de cet espace. Les règles usuelles de calcul des déterminants sont supposées acquises.

(9)

8 CHAPITRE 1 RAPPELS ET NOTATIONS

(10)

Chapitre 2

Réduction des endomorphismes

2.1 Valeur propre, vecteur propre

SoientEun e.v. de dimensionn≥1,T ∈L(E)un endomorphisme etλ∈K un scalaire, on pose

Tλ=T−λIE et

Eλ=KerTλ={x∈E;T x=λx}.

Alors, ou bienTλest un automorphisme, ou bienTλn’est pas injectif, c’est-à-dire Eλ6={0}. Ceci conduit à la définition suivante.

Définition 2.1.1 Un scalaireλ∈Kest appelé une valeur propre deTsiTλn’est pas injectif. Un vecteur x ∈ Eλ, x 6= 0, est appelé un vecteur propre associé à la valeur propre λetEλ le sous-espace propre associé à la valeur propreλ.

L’ensembleσ(T)⊂Kdes valeurs propres est appelé le spectre deT. Dire queλest une valeur propre signifie donc que

P(λ)≡détTλ=dét(T−λIE) = 0.

(11)

10 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

SiB = (e1, . . . en)est une base deE etA = (aij)1≤i,j≤n ∈ Mn,n(K)la matrice représentative deTdans cette base, on a

P(λ) =dét(A−λIn) = X

σ∈Sn

ε(σ) aσ(1) 1−λδσ(1) 1

×. . .× aσ(n)n−λδσ(n)n oùδij désigne le symbole de Kronecker. Ceci montre queP est un polynôme de degrénde la forme

P(λ) = (−1)nλn+

n−1

X

j=0

αjλj, αj∈K.

Ce polynôme s’appelle le polynôme caractéristique de l’endomorphisme T ; les scalaires αj ne dépendent que de l’endomorphisme T. On a par exemple α0=détT et on définit la trace deT par

TrT = (−1)n−1αn−1=

n

X

j=1

ajj.

Un endomorphisme T admet au plusn valeurs propres. LorsqueK = C, le théorème de D’Alembert permer d’affirmer qu’il existe exactementnvaleurs propresλ1, . . . , λn, chaque valeur propre étant répétée un nombre de fois égal à sa multiplicité. On a alors

P(λ) = (−1)n

n

Y

j=1

(λ−λj), d’où

détT =

n

Y

j=1

λj,TrT =

n

X

j=1

λj.

Remarque 2.1.1 Une matriceA= (aij)1≤i,j≤n∈Mn,n(K)peut être considérée comme la matrice représentative d’un unique endomorphisme T ∈ L(Kn),Kn étant muni de sa base canonique, à savoir

T :x= (xj)1≤j≤n∈Kn7→Xn

j=1

aijxj

1≤i≤n∈Kn.

Les valeurs propres deAseront par définition les valeurs propres deT, etc. Dans la pratique, on notera encore Al’endomorphisme associé à la matrice A et on utilisera pour les matrices la même terminologie que pour les endomorphismes.

Une matrice à coefficients réels peut être considérée comme une matrice à coefficients complexes et il faut éventuellement préciser le corps. Par exemple, si on noteσK(A)le spectre deA, on a

σR(A) =σC(A)∩R

et il faut bien distinguer le spectre réel et le spectre complexe.

Proposition 2.1.1 Soientλ1. . . , λp pvaleurs propres distintes de T ∈ L(E)et x1, . . . , xp des vecteurs propres associés à ces valeurs propres, alors la famille (xi)1≤i≤pest libre.

(12)

2.2 ENDOMORPHISME DIAGONALISABLE 11

Ceci peut être précisé comme suit.

Définition 2.1.2 SoientEun e.v.,E1, . . .,Epdes s.e.v., on définit la somme de ces sous-espaces vectoriels par

F ≡E1+. . .+Ep=

p

X

i=1

Ei={x1+. . .+xp;xi∈Eipour tout1≤i≤p}.

Alors,F est un s.e.v. deEet on dit queF est la somme directe des sous-espaces Eisi toutx∈Fs’écrit d’une seule manière

x=x1+. . .+xpoùxi∈Ei. On écrit alors

F =

p

M

i=1

Ei. Dire que la sommePp

i=1Eiest directe signifie donc que

∀xi∈Ei, x1+. . .+xp = 0 =⇒xi= 0pour tout1≤i≤p.

On peut alors définir des projecteurs linéairespi:F →Eien posant pi(x) =xisix=x1+. . .+xp, xj∈Ej.

Proposition 2.1.2 Soient λ1. . . , λp p valeurs propres distintes deT ∈ L(E), alors la sommePp

i=1Eλiest directe.

On utilisera ultérieurement la caractérisation suivante.

Proposition 2.1.3 On supposeEde dimension finie, avec les notations de la défi- nition 2.1.2 on a l’équivalence des propriétés suivantes

1. la sommeF =Pp

i=1Eiest directe,

2. soitBi= (eij)1≤j≤ni,ni=dimEi, une base deEi, alorsB = (eij)1≤i≤p

1≤j≤ni

est une base deF, 3. dimF =Pp

i=1dimEi.

2.2 Endomorphisme diagonalisable

Définition 2.2.1 Un endomorphismeT ∈ L(E)est dit diagonalisable s’il existe une base deEtelle que sa matrice représentative dans cette base soit diagonale.

Une matrice A ∈ Mn,n(K)est dite diagonalisable si elle est semblable à une matrice diagonale.

Une matrice diagonaleA = (aij)1≤i,j≤n sera notéeA = diag(λ1, . . . , λn) oùλi=aii. Son polynôme caractéristique s’écrit

(−1)n

n

Y

i=1

(λ−λi).

Ceci conduit à la définition suivante.

(13)

12 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

Définition 2.2.2 Un polynômeP ∈K[λ]de degrénest dit scindé si P(λ) =a

n

Y

i=1

(λ−λi)oùa∈Ketλi∈K.

LorsqueK=C, tout polynôme est scindé (D’Alembert) ; il n’en est rien surR. Le polynôme caractéristique d’un endomorphisme diagonalisable est néces- sairement scindé ; sur R, on obtient ainsi une condition nécessaire pour qu’un endomorphisme soit diagonalisable, mais cette condition n’est pas suffisante.

Théorème 2.2.1 (caractérisation des endomorphismes diagonalisables) Soient λ1, . . . , λples valeurs propres distinctes d’un endomorphismeT ∈ L(E), alors les propriétés suivantes sont équivalentes

1.Test diagonalisable,

2. il existe une base deEconstituée de vecteurs propres, 3.E=Lp

i=1Eλi, 4. dimE=Pp

i=1dimEλi.

Corollaire 2.2.2 Un endomorphisme admettant n valeurs propres distinctes est diagonalisable et ses sous-espaces propres sont de dimension1.

Définition 2.2.3 Un endomorphismeT ∈L(E)(resp. une matriceA∈Mn,n(K)) est dit nilpotent s’il existe un entierk≥1tel queTk = 0(resp.Ak = 0). Le plus petit entierk≥1tel queTk = 0(resp.Ak= 0) est appelé l’indice de nilpotence deT (resp.A).

On a alors la

Proposition 2.2.3 Un endomorphisme nilpotent diagonalisable est nécessairement nul.

Considérons par exemple la matrice A=

0 1 0 0

.

On vérifie queA2= 0 ; cette matrice est donc nilpotente, donc non diagonalisable, alors que son polynôme caractéristiqueP(λ) =λ2est scindé.

Voici enfin une propriété concernant la dimension des sous-espaces propres qui permettra d’établir une autre caractérisation des endomorphismes diagonalisables.

Proposition 2.2.4 Soientλune valeur propre deTde multiplicitém, c’est-à-dire P(X) = (X−λ)mQ(X)oùQ∈K[X], Q(λ)6= 0,

alors

dimEλ≤m.

En particulier, siλest une valeur propre simple (m = 1), le sous-espace propre est de dimension1.

Corollaire 2.2.5 Un endomorphismeT ∈ L(E)est diagonalisable si, et seule- ment si, son polynôme caractéristique est scindé et si, pour toute valeur propreλ, la dimension du sous-espace propre est égale à la multiplicité deλ.

(14)

2.3 POLYNÔMES D’ENDOMORPHISME 13

Remarque 2.2.1 Pour calculer la dimension des sous-espaces propres, on peut utiliser la formule

dimEλ=n−r

oùrest le rang deT−λIE ; rappelons que, par définition, ce rang est la dimension de l’image deT −λIE.

Un endomorphisme dont le polynôme caractéristique est scindé n’est pas né- cessairement diagonalisable, mais nous allons montrer qu’il est toujours trigonali- sable.

Une matriceA = (aij)1≤i,j≤n ∈ Mn,n(K)est dite triangulaire supérieure (resp. inférieure) siaij = 0sii > j(resp.i < j). On vérifie qu’une matrice tri- angulaire inférieure est toujours semblable à une matrice triangulaire supérieure ; nous raisonnerons donc avec des matrices triangulaires supérieures.

Définition 2.2.4 Un endomorphismeT ∈ L(E)est dit trigonalisable s’il existe une base deEpour laquelle la matrice représentative deT est triangulaire supé- rieure.

On a alors la caratérisation suivante.

Proposition 2.2.6 Un endomorphismeT ∈ L(E)est trigonalisable si, et seule- ment si, son polynôme caractéristique est scindé.

2.3 Polynômes d’endomorphisme

SoientT ∈L(E)un endomorphisme etP ∈K[X]un polynôme à une indé- terminée, on pose

P(T) =

m

X

j=0

ajTjsiP(X) =

m

X

j=0

ajXj, aj ∈K

oùT0 = IE. On définit ainsi un endomorphismeP(T) ∈ L(E). On définit de même P(A) si A ∈ Mn,n(K) est une matrice. On notera que, pour tout P, Q∈K[X],

(P+Q)(T) =P(T) +Q(T)et(P Q)(T) =P(T)◦Q(T) =Q(T)◦P(T).

Théorème 2.3.1 (Cayley-Hamilton) SoientT ∈L(E),P son polynôme caracté- ristique, alorsP(T) = 0.

Corollaire 2.3.2 SoitT ∈L(E)un endomorphisme dont le polynôme caractéris- tique est scindé, alors les propriétés suivantes sont équivalentes

1.Test nilpotent,

2. toutes les valeurs propres deTsont nulles,

3. le polynôme caractéristique deTestP(X) = (−1)nXn.

Le théorème de Cayley-Hamilton conduit à s’intéresser à l’ensemble des poly- nômes annulateurs deT, soit

Z={P ∈K[X] ;P(T) = 0}.

(15)

14 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

On a alors la

Proposition 2.3.3 SoitT ∈L(E), il existe un unique polynôme unitairem∈Z, m6= 0, dit polynôme minimal deT, tel que

1≤degrém≤degréPpour toutP ∈Z, P 6= 0.

De plus, un polynômeP ∈ K[X]appartient àZsi, et seulement si, il existe un polynômeQ∈K[X]tel queP =mQ.

Proposition 2.3.4 L’ensemble des racines du polynôme minimal coïncide avec le spectre deT. Plus précisément, siλest une valeur propre de multiplicitéq, soit

P(X) = (X−λ)qQ(X), Q(λ)6= 0, alors

m(X) = (X−λ)rR(X), R(λ)6= 0et1≤r≤q.

Corollaire 2.3.5 Si le polynôme caractéristique deTest scindé, il en est de même du polynôme minimal.

Le polynôme minimal va nous permettre de donner une nouvelle caractérisa- tion des endomorphismes diagonalisables. Nous utiliserons le résultat suivant.

Théorème 2.3.6 (lemme des noyaux) Soient T ∈ L(E) un endomorphisme, P1, . . . , Pk ∈K[X]des polynômes deux à deux premiers entre eux etP =P1× . . .×Pk, alors

KerP(T) =

k

M

j=1

KerPj(T).

Théorème 2.3.7 Un endomorphismeT ∈ L(E)est diagonalisable si, et seule- ment si, son polynôme minimal est scindé et à racines simples.

Corollaire 2.3.8 Soient T ∈ L(E)un endomorphisme diagonalisable etF un s.e.v. deEstable parT, alorsT|F ∈L(F)est un endomorphisme diagonalisable.

Corollaire 2.3.9 SiT, T0 ∈L(E)sont des endomorphismes diagonalisables qui commutent, alorsT+T0est un endomorphisme diagonalisable. Plus précisément, il existe une base de vecteurs propres communs.

Exemple 2.3.1 SoitT ∈L(E)tel queTk =IE,k≥1, on supposeK=C, alors T est diagonalisable et ses valeurs propres sont des racineskième de l’unité.

2.4 Sous-espaces caractéristiques

SoitT ∈L(E)un endomorphisme, dans ce paragraphe on suppose son poly- nôme caractéristique scindé, soit

P(X) = (−1)n

p

Y

i=1

(X−λi)mioùλi6=λjsii6=j.

(16)

2.4 SOUS-ESPACES CARACTÉRISTIQUES 15

D’après le lemme des noyaux, on a E=

p

M

i=1

CioùCi=Ker(T−λiIE)mi.

Le s.e.v.Cis’appelle le sous-espace caractéristique associé à la valeur propreλi. On vérifie que

Eλi ⊂CietT(Ci)⊂Ci.

On peut donc définir des endomorphismesTi ∈ L(Ci)en posant Ti = T|Ci ; notonsPile polynôme caractéristique deTi.

Choisissons une baseBideCiet soitAila matrice représentative deTidans cette base. AlorsB= (B1, . . . , Bp)est une base deEet la matrice représentative deT dans cette base est la matrice diagonale par blocsA=diag(A1, . . . , Ap). Il en résulte queP =Qp

i=1Pi.

Lemme 2.4.1 On a dimCi=mietPi = (−1)mi(X−λi)mi.

Remarque 2.4.1 Les polynômes Pi étant scindés, on peut choisir les basesBi

telles que les matricesAisoient triangulaires supérieures, la matriceAest alors tri- angulaire supérieure. De plus, on observera que la matrice Ai s’écrit alors Ai=Di+NioùDi=diag(λi, . . . , λi)etNiest une matrice triangulaire supé- rieure dont la diagonale est nulle, donc nilpotente d’après le théorème de Cayley- Hamilton.

Voici une application de ce qui précède à la résolution des relations de récur- rence linéaires. On se donne un entierk≥1, des nombres complexesα0, . . . , αk−1 oùα06= 0et on cherche les suites(un)n≥0telles que

un+kk−1un+k−1+. . .+α0unpour tout entiern≥0.

(2.4.1)

NotonsE l’espace de toutes les solutions de (2.4.1) ;Eest un s.e.v. deCN. Dé- finissons une application f : Ck → E : siv = (vj)0≤j≤k−1 ∈ Ck, on note u=f(v)∈Ela solution de (2.4.1) telle queuj =vjpour0≤j≤k−1. Alors, f :Ck →Eest un isomorphisme etEest de dimensionk.

Afin de déterminer une base deE, on considère l’application linéaire Φ : (un)n≥0∈CN7→(un+1)n≥0∈CN.

Vu que Φ(E) ⊂ E, on peut définir un endomorphisme Ψ = Φ|E ∈ L(E)et l’application

g=f−1◦Ψ◦f : (u0, . . . , uk−1)∈Ck 7→(u1, . . . , uk)∈Ck.

On aukk−1uk−1+. . .+α0u0et la matrice représentative degdans la base canonique deCkest

0 1 0 . . . 0

. 0 1 0 . . 0 . . . 0 . . . 0 . . . 0 . . . 0 1 α0 α1 . . . . αk−1

 .

(17)

16 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

Le polynôme caractéristique deΨest égal à celui de la matriceAet on vérifie que P(X) = (−1)k

Xk−αk−1Xk−1−. . .−α0 . On pose

P(X) = (−1)k

p

Y

i=1

(X−λi)mi, Ci=Ker(Ψ−λiIE)mi. On a doncE=Lp

i=1Ciet dimCi=mi. On vérifie queCi=Ker(Φ−λiICN)mi et on en déduit queu = (un)n≥0 appartient àCi si, et seulement si, pour tout n≥0,

un+mi− mi

1

λiun+mi−1+ mi

2

λ2iun+mi−2− · · · +(−1)mi mi

mi

λmi iun = 0.

On montre que ces équations admettent pour solutions lesmisuites linéaire- ment indépendantes

unninq, n∈Noù0≤q≤mi−1.

On obtient ainsi une base deCi, d’où une base deE.

2.5 Décomposition de Dunford

Théorème 2.5.1 SoitT ∈L(E)un endomorphisme dont le polynôme caractéris- tique est scindé, alorsT s’écrit d’une façon unique sous la forme

T =D+N(décomposition de Dunford)

où D est un endomorphisme diagonalisable, N un endomorphisme nilpotent et les endomorphismesDetN commutent. De pus, on peut choisir une baseBide chaque sous-espace caractéristique telle que, dans cette base, la matrice repré- sentativeAi deTisoit de la formeAi =Di+NioùDi =diag(λi, . . . , λi)et Niest une matrice triangulaire supérieure dont la diagonale est nulle.

Remarque 2.5.1 L’endomorphismeT =D+N est diagonalisable si, et seule- ment si,N = 0.

L’existence d’une telle décomposition résulte de la remarque 2.4.1. Notons T =D+Ncette décomposition qui vérifie la propriété suivante

six=

p

X

i=1

xi, xi∈Ci, alorsDx=

p

X

i=1

λixi.

Pour établir l’unicité, on utilisera la proposition 2.2.3, le corollaire 2.3.9 et les lemmes suivants.

Lemme 2.5.2 SoitT =D0+N0une autre décomposition de Dunford, alorsDet D0commutent, ainsi queN etN0.

Lemme 2.5.3 SiN, N0 ∈ L(E)sont deux endomorphismes nilpotents qui com- mutent,N+N0est un endomorphisme nilpotent.

(18)

2.6 RÉDUCTION DES ENDOMORPHISMES NILPOTENTS 17

2.6 Réduction des endomorphismes nilpotents

Théorème 2.6.1 SoitT ∈ L(E)un endomorphisme nilpotent dont le polynôme caractéristique est scindé, alors il existe une base deEdans laquelle la matrice représentative deTest diagonale par blocs, chaque bloc étant de la forme

0 1 0 . . . . . 0 1 0 . . . . . 0 1 0 . . . . . . . . . . 0 1 0 . . . 0 1 . . . 0

(matrice nilpotente de Jordan.)

La preuve de ce théorème s’effectue comme suit. SoientP(X) = (−1)nXn le polynôme caractéristique deT (corollaire 2.3.2) et1 ≤ p ≤ nson indice de nilpotence. On considère les s.e.v.

Ni=KerTipour0≤i≤p; on a

{0}=N0⊂N1⊂ · · · ⊂Np=E

et on construit une suite(Mi)1≤i≤pde s.e.v. non réduits à0telle que Ni=Ni−1⊕Mipour1≤i≤petT(Mi)⊂Mi−1pour2≤i≤p.

On a alors

E=

p

M

i=1

Mi

et on vérifie que l’applicationT|Mi :Mi→Mi−1est injective ; simi=dimMi, on en déduit que

m1≥m2≥ · · · ≥mp>0.

On construit ensuite une base deE

eij,1≤i≤p,1≤j≤mi

de la façon suivante :(epj)1≤j≤mp est une base deMpet, pour1 ≤ q ≤ p−1, (eqj)1≤j≤mq est une base de Mq complètant la famille libre(T eq+1j )1≤j≤mq+1. Pour1≤j≤m1, on noteEjle s.e.v. engendré par les vecteurs

eij,1≤i≤p, mi ≥j.

(2.6.1)

On vérifie queE =Lm1

j=1Ej, queT(Ej)⊂Ej et que la matrice représentative deT|Ej dans la base (2.6.1) est une matrice nilpotente de Jordan, ce qui prouve le théorème.

On en déduit le

Théorème 2.6.2 (Jordan) SoitT ∈ L(E)un endomorphisme dont le polynôme caractéristique est scindé, alors il existe une base deEdans laquelle la matrice

(19)

18 CHAPITRE 2 RÉDUCTION DES ENDOMORPHISMES

représentative deTest diagonale par blocs, chaque bloc étant de la forme

λ 1 0 . . . . . λ 1 0 . . . . . λ 1 0 . . . . . . . . . . λ 1 0 . . . λ 1 . . . λ

(bloc de Jordan)oùλ∈σ(T).

(20)

Chapitre 3

Espaces euclidiens

3.1 Forme bilinéaire

SoitE un e.v., rappelons qu’une forme bilinéaire sur E est une application B :E×E→Ktelle que

pour touty∈E, l’applicationx7→B(x, y)est linéaire et

pour toutx∈E, l’applicationy7→B(x, y)est linéaire.

NotonsB(E)l’ensemble des formes bilinéaires surE ; il s’agit d’un s.e.v. de l’e.v.

F(E×E;K).

LorsqueEest de dimension finien, étant donné une baseB= (e1,· · ·, en)de E, six=Pn

i=1xiei,y=Pn

i=1yiei, on peut écrire B(x, y) =

n

X

i,j=1

bijxiyjoùbij =B(ei, ej).

On définit ainsi une matrice b = (bij)1≤i,j≤n ∈ Mn,n(K), appelée matrice de la forme bilinéaire B dans la baseB. L’applicationB 7→ best évidemment un isomorphisme deB(E)surMn,n(K); l’e.v.B(E)est donc de dimensionn2. Si B0est une autre base deE,b0la matrice représentative de la formeBdans cette base, on vérifie que

b0=tP b P

(21)

20 CHAPITRE 3 ESPACES EUCLIDIENS

oùP est la matrice de passage deB àB0. Le rangr(B)d’une forme bilinéaire est par définition le rang de sa matrice représentative dans une base, ce rang ne dépendant pas du choix de la base. La forme est dit non dégénérée si ce rang est maximum, soitr(B) =n, c’est-à-dire si la matricebest inversible ; sinon, on dit que la forme est dégénérée. Le déterminant deb est appelé le discriminant de la formeBdans la baseB.

Une forme bilinéaireBest dite symétrique si

B(x, y) =B(y, x)pour toutx, y∈E.

Ceci signifie que sa matrice représentative dans une base est symétrique, soit

tb = b. L’espace S(E)des formes bilinéaires symétriques est donc un e.v. de dimensionn(n+ 1)/2.

3.2 Espace euclidien

Définition 3.2.1 SoitEun e.v. réel de dimension finien, une structure euclidienne surEest définie par la donnée d’une forme bilinéaire symétrique

(•|•) : (x, y)∈E×E7→(x|y)∈R définie positive, c’est-à-dire telle que

(x|x)>0pour toutx∈E, x6= 0.

Le réel(x|y)est appelé le produit scalaire dexety. La norme d’un vecteurx est définie par

kxk= (x|x)1/2. On notera que

kλxk=|λ| kxkpour toutλ∈Ret toutx∈E et quekxk= 0équivaut àx= 0.

Exemple 3.2.1 SiB = (e1,· · ·, en)est une base deE, on définit une structure euclidienne surEen posant

(x|y) =

n

X

i=1

xiyisix=

n

X

i=1

xiei, y=

n

X

i=1

yiei. On a alors

kxk=Xn

i=1

x2i1/2

. Proposition 3.2.1 Pour toutx, y∈E, on a

|(x|y)| ≤ kxk kyk(inégalité de Cauchy-Schwarz), kx+yk ≤ kxk+kyk(inégalité triangulaire),

kx+yk2+kx−yk2= 2(kxk2+kyk2) (identité du parallèlogramme).

Dans un espace euclidien, on dit que deux vecteursxetysont orthogonaux si leur produit scalaire est nul, soit(x|y) = 0.

(22)

3.3 BASE ORTHONORMALE 21

Théorème 3.2.2 (Pythagore) Soientx1,· · ·, xp ∈ E des vecteurs orthogonaus deux à deux, alors

k

p

X

i=1

xik2=

p

X

i=1

kxik2.

Remarque 3.2.1 SiFest un s.e.v. d’un espace euclidienE, la restriction àF×F du produit scalaire deEdéfinit une structure euclidienne surF : on dit queF est un sous-espace euclidien deE.

3.3 Base orthonormale

Dans un espace euclidienE, on dit qu’une famille(xi)i∈I de vecteurs deE est une famille orthonormale si

(xi|xj) =δij pour touti, j∈I.

Ce sont donc des vecteurs unitaires orthogonaux deux à deux. On vérifie qu’une telle famille est libre, donc CardI≤n.

Une famille orthonormale qui est une base est appelée une base orthonormale.

SiB = (e1,· · ·, en)est une base orthonormale, on a pourx, y∈E x=

n

X

i=1

xiei, kxk2=

n

X

i=1

x2i oùxi= (x|ei) et

(x|y) =

n

X

i=1

xiyioùxi= (x|ei), yi= (y|ei).

Théorème 3.3.1 Tout espace euclidien admet une base orthonormale.

SiAest une partie deE, on définit l’orthogonal deApar A ={x∈E; (x|y) = 0pour touty∈A}.

Proposition 3.3.2 Pour toutA⊂E,Aest un s.e.v. deEetA=s.e.v.(A). Théorème 3.3.3 1. SoientFun s.e.v. d’un espace euclidienEetx∈E, il existe un uniquey ∈F tel quex−y∈F. On dit queyest la projection orthogonale dexsurF, on le notey=PFx. L’applicationPF :E→F est linéaire.

2. La projection orthogonale dexsurF est l’unique pointy∈F tel que kx−yk= inf

z∈Fkx−zk=d(x, F) (distance dexàF).

3. On aE=F⊕F.

Corollaire 3.3.4 (théorème de la base incomplète) Toute famile orthonormale est contenue dans une base orthonormale.

Proposition 3.3.5 (orthonormalisation de Schmidt) Soit(a1,· · ·, an)une base de E, alors il existe une unique base orthonormale(e1,· · ·, en)telle que, pour tout 1≤p≤n,

(23)

22 CHAPITRE 3 ESPACES EUCLIDIENS

1. s.e.v.(e1,· · ·, ep) =s.e.v.(a1,· · ·, ap), 2.(ep|ap)>0.

3.4 Le groupe orthogonal

SoientE un e.v. de dimensionnetB,B0deux bases orthonormales, alors la matrice de passagePdeBàB0vérifie

tP P =In. (3.4.1)

Une telle matrice est appelée une matrice orthogonale et l’ensembleO(n)des ma- trices orthogonales est un sous-groupe du groupe linéaireGL(n;R). Étant donné une baseB, une matrice orthogonale peut toujours être considérée comme la ma- trice de passage de la base B à une base B0 et, si l’une des bases est une base orthonormale, il en est de même de l’autre.

On remarquera que détP = ±1 siP ∈ O(n), on peut donc définir le sous- groupe, groupe spécial orthogonal,

SO(n) ={P∈O(n) ; détP = 1}.

Proposition 3.4.1 SoientEun espace euclidien etT ∈L(E)un endomorphisme, alors les propriétés suivantes sont équivalentes

1. pour toutx∈E,kT xk=kxk, 2. pour toutx, y∈E,(T x|T y) = (x|y),

3. la matrice représentative deT dans une base orthonormale est une matrice orthogonale.

Un endomorphismeT ∈L(E)vérifiant ces propriétés est appelé une isométrie ou une transformation orthogonale ; un tel endomorphisme est un automorphisme deE. On noteraO(E)l’ensemble des transformations orthogonales ; il s’agit d’un sous-groupe du groupe linéaireGL(E)isomorphe (en tant que groupe) au groupe O(n).

Étudions ce groupe O(E) lorsque n = 1,2ou3. Soient T ∈ O(E) et A∈O(n)sa matrice représentative dans une base orthonormale.

Lorsquen= 1, on aA= (±1); siA= (1),T =IEet siA= (−1),Test la symétrie par rapport à l’origine.

Lorsquen = 2, prenonsE =R2muni de la stucture euclidienne associée à sa base canonique (exemple 3.2.1). La transformation orthogonaleT s’écrit dans cette base

X Y

=A x

y

oùA=

cosθ −sinθ sinθ cosθ

ou

cosθ sinθ sinθ −cosθ

,0≤θ <2π.

En posantZ=X+iY etz=x+iy, on aZ=ezdans le premier cas (rotation d’angleθ) etZ=ezdans le second cas (symétrie par rapport à l’axe desxsuivie d’une rotation d’angleθ, c’est-à-dire symétrie par rapport à la droite d’angleθ/2).

Lorsquen= 3, prenonsE=R3muni de la stucture euclidienne associée à sa base canonique (exemple 3.2.1). On peut supposer détT = 1 : si

(24)

3.5 ADJOINT D’UN ENDOMORPHISME 23

détT = −1, dét(−T) = 1 et il suffit de composer avec la symétrie par rap- port à l’origine. Notonsλ1, λ2, λ3les valeurs propres réelles ou complexes deA.

On a alors3cas posssibles

123= 1)ou(λ1= 1, λ23=−1)ou

1= 1, λ2=µ, λ3=µ, µ∈C−R).

NotonsE1le sous-espace propre associé à la valeur propre1

E1={x∈R3;T x=x}(ensemble des points invariants par T).

Lemme 3.4.2 SiT 6=IR3, dimE1= 1.

SupposonsT 6=IR3, alorsE1est un s.e.v. de dimension2stable parTetT|E 1

est une isométrie de ce sous-espace. Choisissons une base orthonormale(e1, e2) de E1et un vecteur unitairee3 ∈ E1. On obtient ainsi une base orthonormale (e1, e2, e3)deR3et dans cette base la matrice représentative deTs’écrit

cosθ −sinθ 0 sinθ cosθ 0

0 0 1

 où0≤θ <2π.

La transformationTest une rotation d’angleθautour de l’axee3.

3.5 Adjoint d’un endomorphisme

Soient E un espace euclidien et E? son dual, on définit une application j:E→Epar

j(y) :x∈E7→(x|y)∈Roùy∈E.

Théorème 3.5.1 L’applicationj : E→E?est un isomorphisme. Autrement dit, pour toute forme linéaireT ∈E?, il existe un uniquey∈Etel que

T x= (x|y)pour toutx∈E.

SoitT ∈ L(E)un endomorphisme, pour touty ∈ E, il existe un unique point y?=T?y∈Etel que

(T x|y) = (x|T?y)pour toutx∈E.

Proposition 3.5.2 L’applicationT?:F →Eest linéaire.

L’endomorphismeT? est appelé l’adjoint de l’endomorphismeT. On vérifie que

l’applicationT ∈L(E)7→T?∈L(E)est un isomorphisme, et, pour toutS, T∈L(E),

T??=T et(T◦S)?=S?◦T?.

Proposition 3.5.3 Dans une base orthonormale, la matrice représentative deT? est la transposée de celle deT.

Définition 3.5.1 Un endomorphismeT ∈L(E)est dit symétrique siT =T?.

(25)

24 CHAPITRE 3 ESPACES EUCLIDIENS

Proposition 3.5.4 Un endomorphisme est symétrique si, et seulement si, sa ma- trice représentativeAdans une base orthonormale est symétrique :A=tA.

Proposition 3.5.5 Le polynôme caractéristique d’un endomorphisme symétrique est scindé et des vecteurs propres associés à des valeurs propres distinctes sont orthogonaux.

Théorème 3.5.6 Tout endomorphisme symétriqueT ∈ L(E)est diagonalisable.

Plus précisément, il existe une base orthonormale dans laquelle la matrice repré- sentative deT est diagonale.

3.6 Forme quadratique

SoientEun e.v. réel de dimensionn,B = (e1,· · ·, en)une base deE etB une forme bilinéaire de matriceb= (bij)1≤i,j≤n. On pose

Q(x) =B(x, x) =

n

X

i,j=1

bijxixjsix=

n

X

i=1

xiei.

On dit queQest une forme quadratique ; une forme quadratique est simplement un polynôme homogène de degré2.

Proposition 3.6.1 SoitBune forme bilinéaire symétrique, alors B(x, y) =1

2

B(x+y, x+y)−B(x, x)−B(y, y)

(formule de polarisation).

Ceci montre que, siQest une forme quadratique, il existe une unique forme bilinéaire symétriqueBtelle queQ(x) =B(x, x). On l’appelle la forme polaire deQ; elle est donnée également par la formule

B(x, y) =

n

X

i=1

Qi(x)yi=

n

X

i=1

Qi(y)xioùQi(x) = 1 2

∂Q

∂xi

(x).

Théorème 3.6.2 (loi d’inertie de Sylvester) SoitQune forme quadratique, il existe une baseB= (e1,· · ·, en)deEtelle que dans cette base

Q(x) =x21+· · ·+x2p− x2p+1+· · ·+x2r

oùrest le rang de la forme polaire deQet0≤p≤r. L’entierpne dépend pas du choix de la baseBet le couple(p, q)oùq=r−pest appelé la signature de la forme quadratique.

On dit qu’on a réduitQà une somme de carrés. Une autre façon d’exprimer ce résultat consiste à prendre une forme quadratique surRn

Q(x) =

n

X

i,j=1

aijxixj.

Alors, il existe des formes linéaires, linéairement indépendantes, li(x) =

n

X

j=1

lijxj,1≤i≤n,

(26)

3.6 FORME QUADRATIQUE 25

et des réelsλitels que

Q(x) =

n

X

i=1

λili(x)2.

L’entierp(resp.q) est le nombre deλi >0(resp.λi <0). La méthode de Gauss permet d’effectuer pratiquement cette réduction.

(27)

26 CHAPITRE 3 ESPACES EUCLIDIENS

(28)

Chapitre 4

Espaces hermitiens

4.1 Forme hermitienne

On considère ici un espce vectoriel complexe de dimension finien.

Définition 4.1.1 SoitE un espace vectoriel complexe, une applicationB : E× E → Cest appelée une forme sesquilinéaire si, pour toutx,y,x1,x2,y1,y2de Eet toutλ12deC

B(λ1x12x2, y) =λ1B(x1, y) +λ2B(x2, y), B(x, λ1y12y2) =λ1B(x, y1) +λ2B(x, y2).

On dit queBest une forme hermitienne si on a de plus, pour toutx, ydeE, B(x, y) =B(y, x).

SiB est une forme sesquilinéaire, l’applicationB(•, y)est, pour touty, une forme linéaire surE ; pour toutx, l’applicationB(x,•)est dite semi-linéaire.

SiBest une forme hermitienne,B(x, x)est réel pour toutx; autrement dit, une forme hermitienne est réelle sur la diagonale deE. Cette propriété caractérise les formes. hermitiennes.

Proposition 4.1.1 SoitEun espace vectoriel complexe, alors toute forme sesqui- linéaire réelle sur la diagonale deEest hermitienne.

(29)

28 CHAPITRE 4 ESPACES HERMITIENS

Une forme hermitienneB :E×E →Cest dite positive siB(x, x)≥0pour toutx∈Eet elle est dite définie positive ou positive non dégénérée siB(x, x)>0 pour toutx∈E− {0}.

Soient B une forme sesquilinéaire et B = (e1,· · ·, en) une base de E, si x=Pn

i=1xiei,y=Pn

i=1yiei, on a B(x, y) =

n

X

i,j=1

bijxiyjoùbij =B(ei, ej).

On définit ainsi une matriceb= (bij)1≤i,j≤n ∈Mn,n(K), appelée matrice de la forme sesquilinéaireBdans la baseB. La formeBest hermitienne si, et seulement si,bji=bij, soittb=b; on dit que la matricebest hermitienne.

La forme hermitienneBest positive (resp. définie positive) si, et seulement si, Pn

i,j=1bijxixj≥0(resp.Pn

i,j=1bijxixj>0) pour toutx6= 0.

SiB0est une autre base deE,b0la matrice représentative de la formeBdans cette base, on vérifie que

b0=tP b P oùPest la matrice de passage deBàB0.

4.2 Espaces hermitiens

Définition 4.2.1 SoitEun e.v. complexe de dimension finien, une structure her- mitienne surEest définie par la donnée d’une forme hermitienne

(•|•) : (x, y)∈E×E7→(x|y)∈C définie positive.

Le complexe(x|y)est appelé le produit scalaire de xety. La norme d’un vecteurxest définie par

kxk= (x|x)1/2. On notera que

kλxk=|λ| kxkpour toutλ∈Cet toutx∈E et quekxk= 0équivaut àx= 0.

Exemple 4.2.1 SiB = (e1,· · ·, en)est une base deE, on définit une structure hermitienne surEen posant

(x|y) =

n

X

i=1

xiyisix=

n

X

i=1

xiei, y=

n

X

i=1

yiei. On a alors

kxk=Xn

i=1

|xi|21/2

.

(30)

4.3 ADJOINT D’UN ENDOMORPHISME 29

La proposition 3.2.1, le théorème 3.2.2 et la remarque 3.2.1 valent encore dans le cas hermitien. Le paragraphe 3.3 concernant les bases orthonormales subsiste également.

SoientBetB0deux bases deEetPla matrice de passage deBàB0, alors, si Best une base orthonormale, il en est de même deB0si, et seulement si,

PP =In (4.2.1)

oùP = tP est appelée la matrice adjointe deP. Une matrice vérifiant (4.2.1) est dite unitaire. L’ensemble U(n)des matrices unitaires est un sous-groupe du groupe linéaireGL(n:C), appelé groupe unitaire. SiP est une matrice unitaire, on notera que|détP|= 1.

4.3 Adjoint d’un endomorphisme

Soient E un espace hermitien, E le dual de E, on définit une application j:E→Een posant poury∈E

j(y) :x∈E7→(x|y)∈C.

Théorème 4.3.1 L’applicationj : E →E? est une bijection semi-linéaire. Au- trement dit, pour toute forme linéaireT ∈E?, il existe un uniquey∈Etel que

T x= (x|y)pour toutx∈E.

On dit quejest un semi-isomorphisme.

SoientE etF deux espaces hermitiens etT ∈ L(E;F), pour touty ∈F, il existe un unique pointy?=T?y∈Etel que

(T x|y)F = (x|T?y)Epour toutx∈E.

Proposition 4.3.2 L’applicationT?:F →Eest linéaire.

L’applicationT?est appelée l’adjointe deT. On vérifie que l’applicationT ∈ L(E)7→T?∈L(E)est un semi-isomorphisme et, siE,F etGsont des espaces hermitiens,S∈L(E;F),T ∈L(F;G),

(T ◦S)?=S?◦T?.

Proposition 4.3.3 Dans une base orthonormale, la matrice représentative deT? est l’adjointe de celle deT.

Définition 4.3.1 Un endomorphismeT ∈L(E)est dit hermitien siT =T?. Proposition 4.3.4 Un endomorphisme est hermitien si, et seulement si, sa matrice représentativeAdans une base orthonormale est hermitienne :A=A?.

Proposition 4.3.5 Les valeurs propres d’un endomorphisme hermitiens sont réelles et des vecteurs propres associés à des valeurs propres distinctes sont orthogonaux.

(31)

30 CHAPITRE 4 ESPACES HERMITIENS

4.4 Opérateurs normaux

On dit qu’un opératreurT ∈ L(E) est normal siT ◦T? = T?◦T. SiA est la matrice représentative deT dans une base orthonormale, ceci signifie que la matriceAest normale, c’est-à-dire queA A? =A?A. Tout opérateur hermitien, ainsi que tout opérateur unitaire, est normal.

Lemme 4.4.1 SoitT∈L(E)un opérateur normal, alors KerT =KerT?. Lemme 4.4.2 SoitT∈L(E)un opérateur normal, alors

λ∈σ(T)⇐⇒λ∈σ(T?)etEλ(T) =Eλ(T?).

Lemme 4.4.3 SoientT ∈L(E)un opérateur normal,λ, µ∈σ(T),λ6=µ, alors les sous-espaces propresEλ(T)etEµ(T)sont orthogonaux.

Lemme 4.4.4 SoientT ∈L(E)un endomorphisme etF un s.e.v. stable parTet T?, alorsFest stable parTetT?.

Théorème 4.4.5 SoientT ∈ L(E)un opérateur normal, alorsT est diagonali- sable et il existe une base orthonormale dans laquelle la matrice représentative de Test diagonale, autrement dit il existe une base orthonormale de vecteurs propres.

En termes de matrices, siA∈Mn(C)est une matrice normale, il existe une ma- trice unitaireP ∈U(n)telle queP?AP soit diagonale.

On a alors

E=⊕λ∈σ(T)Eλ(T),

les sous-espaces propresEλ(T)étant orthogonaux deux à deux.

On en déduit qu’une matrice normale est hermitienne si, et seulement si, toutes ses valeurs propres sont réelles et qu’elle est unitaire si, et seulement si, toutes ses valeurs propres sont de module1.

Références

Documents relatifs

Nous prétendons apporter en pédagogie cette perspective claire, cette force d'.orientation et les résultats pratiques qui donnent $1, nos travaux le caractère

Dans cette partie, on suppose que A admet une décomposition LU et on voit comment mettre en œuvre une méthode pratique de calcul des matrices L

sexe et poste : deux variables de type caractère ('f' pour féminin, 'm' pour masculin; 'a' pour analyste, 'p' pour programmeur, 'o' pour opérateur).. numero : numéro de l'employé

Exercice 8 Écrire deux fonctions diérentes (max34,max35)pour le calcul du maximum de trois entiers et ceci en utilisant la fonction max vue en cours (qui calcule le maximum de

Barbaud propose une règle très simple pour cette opération (« règle des indices », [Barbaud 1968], p. 51), dans le cas d'accords tous à l'état fondamental et dans la même

Il existe des moyens simples de construire cette relation d'équivalence : on peut par exemple utiliser les matrices booléenes; c'est un problème classique de la théorie des graphes

Montrons l’autre inclusion.. En effet, C poss`ede un nombre infini d’´el´ements. Par cons´equent, tous les ´el´ements λv pour λ ∈ C sont diff´erents.. Donc tout

géométrie de référence – afficher/supprimer les relations -convertir les entités – dôme –