• Aucun résultat trouvé

SoitE un espace euclidien

N/A
N/A
Protected

Academic year: 2022

Partager "SoitE un espace euclidien"

Copied!
12
0
0

Texte intégral

(1)

SEMAINE 16 ESPACES EUCLIDIENS EXERCICE 1 :

SoitC une partie convexe d’un IR-espace vectorielE. Un pointxdeC est ditextr´emalsi

x= y+z

2 avec y∈C , z∈C

=⇒ (y=z=x). SoitE un espace euclidien. On note

C={u∈ L(E)| ∀x∈E ku(x)k ≤ kxk}.

Montrer que C est une partie convexe de L(E) et que l’ensemble de ses points extr´emaux est exactement le groupe orthogonalO(E).

- - - -

• La partie C est la boule unit´e ferm´ee de L(E) muni de la norme subordonn´ee `a la norme euclidienne de E, et il est imm´ediat de v´erifier (grˆace `a l’in´egalit´e triangulaire) qu’une boule dans un espace vectoriel norm´e est toujours convexe.

• Soitf ∈O(E), on a alorsf ∈C. Supposonsf = u+v

2 avecu∈C,v∈C. Pour tout vecteur xnon nul deE, on a

kxk=kf(x)k=1

2 ku(x) +v(x)k ≤ 1

2 ku(x)k+kv(x)k

≤1

2 kxk+kxk

=kxk. On en d´eduit ku(x)k+kv(x)k= 2kxket, chacun des deux termes ´etant inf´erieur ou ´egal `a kxk, cela entraˆıne ku(x)k=kv(x)k=kxk. Enfin,ku(x) +v(x)k=ku(x)k+kv(x)kimplique que les vecteursu(x) etv(x) sont colin´eaires et de mˆeme sens, donc finalement ´egaux. Donc u=v=f.

•Soitf ∈C, suppos´e non orthogonal. Utilisons la d´ecomposition polaire : il existeω∈O(E) et s∈ L(E) auto-adjoint d´efini positif tels quef =ωs. L’endomorphismesest diagonalisable dans une base orthonormale B de E, soit MB(s) = diag(λ1,· · ·, λn). Les λi sont des r´eels appartenant `a ]0,1]. Ils ne sont pas tous ´egaux `a 1, sinon on auraits= idE et f ∈O(E).

Supposons par exempleλ1∈]0,1[. Consid´erons alors les endomorphismesuetv, de matrices diag(1, λ2,· · ·, λn) et diag(2λ1−1, λ2,· · ·, λn) respectivement dans la baseB, puisg=ωu et h=ωv. Comme |2λ1−1| ≤1, les endomorphismes g et happartiennent `a C ; ils sont tous deux distincts de f, etf = g+h

2 , doncf n’est pas un ´el´ement extr´emal deC.

Rappel sur la d´ecomposition polaire :

Soit f un automorphisme d’un espace euclidien E. Alors il existe un unique couple (ω, s), avec ω∈O(E) ets∈ L(E) auto-adjoint d´efini positif, tel que f =ωs.

Preuve : Commen¸cons par d´emontrer que tout endomorphisme auto-adjoint d´efini positifsadmet une unique racine carr´eeσauto-adjointe d´efinie positive : en effet, dans une certaine base orthonormale BdeE, la matrice des estdiag(λ1,· · ·, λn) avec lesλi srictement positifs ; l’endomorphismeσdont la matrice dans la baseBestdiag(p

λ1,· · ·,p

λn)est auto-adjoint d´efini positif et v´erifie σ2σ=s, d’o`u l’existence.

Pour l’unicit´e, si σ est un endomorphisme auto-adjoint d´efini positif v´erifiant σ2 = s, alors σ et s commutent ; les sous-espaces propres E1, . . ., Em de s associ´es aux valeurs propresλ1,. . .,λm(ici suppos´ees deux `a deux distinctes) sont donc stables par σ. Comme l’endomorphisme σ est diagonalisable, sa restriction σi au sous-espace Ei l’est aussi : si µ est une valeur propre de σi et x un vecteur propre associ´e, on a σ(x) = µx d’o`u s(x) =µ2x, maiss(x) =λix, doncµ2i etµ=p

λi puisqueσest positif. La restriction σi deσau sous-espaceEi est doncp

λi idEi, ce qui d´etermine enti`erementσ.

(2)

Soit maintenant f ∈GL(E), l’endomorphismeff est auto-adjoint d´efini positif, donc admet une racine carr´ee auto-adjointe d´efinie positive s ; il reste `a v´erifier que ω = f s−1 est orthogonal, ce qui est une pure formalit´e, d’o`u l’existence. Enfin, sif =ωs, alorsff =s2 doncsest n´ecessairement la racine carr´ee auto-adjointe d´efinie positive deff etω=f s−1, d’o`u l’unicit´e.

D´emontrons maintenant le r´esultat suivant :

Soitf un endomorphisme d’un espace euclidienE. Alors il existe au moins un couple (ω, s), avec ω∈O(E) ets∈ L(E) auto-adjoint positif, tel quef =ωs.

Preuve : L’ensemble GL(E) des automorphismes de E est un ouvert dense de L(E). Si f ∈ L(E), il existe donc une suite (fp) d’automorphismes de E qui tend vers f. Pour toutp, soitfppsp la d´ecomposition polaire defp. Comme O(E)est compact, il existe une suite extraite (ωϕ(p)) qui converge vers un automorphisme ω de O(E). L’application Φ :

(GL(E)× L(E) → L(E)

(u, f) 7→ u−1f ´etant continue, on a lim

p→∞ωϕ(p)−1 fϕ(p)−1f et, en notant s=ω−1f, l’endomorphisme s appartient `a l’adh´erence de l’ensemble des endomorphismes auto-adjoints d´efinis positifs, c’est-`a-dire est sym´etrique positif, et f =ωs, ce qu’il fallait prouver.

Remarquons que l’unicit´e de cette d´ecomposition n’est plus garantie : si, par exemple,f = 0, alorss= 0 etω∈O(E)est quelconque.

EXERCICE 2 :

SoientA1,· · ·,Ap des matrices sym´etriques positives d’ordren. Montrer que det(A1· · ·Ap)

1p

≤det

A1+· · ·+Ap p

.

Source : RMS (Revue des Math´ematiques de l’Enseignement Sup´erieur), janvier 2000, ´Editions Vuibert, solution emprunt´ee `a Moubinool OMARJEE

- - - - La matrice S = 1

p(A1+· · ·+Ap) est sym´etrique positive, donc de d´eterminant positif ou nul.

L’in´egalit´e `a d´emontrer est donc triviale si l’une des matricesAiest de d´eterminant nul. On peut donc supposer d´esormais que toutes les matricesAisont sym´etriques d´efinies positives.

Notons Sn++ l’ensemble des matrices sym´etriques d´efinies positives d’ordre n. C’est une partie convexe deMn(IR). L’in´egalit´e `a d´emontrer se ram`ene `a

1 p

p

X

i=1

ln(detAi)≤ln det1 p

p

X

i=1

Ai

!

et, pour cela, il suffit de prouver la concavit´e de l’applicationf :

(Sn++ → IR S 7→ ln(detS).

(3)

Soient donc A et B deux matrices sym´etriques d´efinies positives. Il est possible de les r´eduire simultan´ement, c’est-`a-dire il existe P ∈ GLn(IR) et D diagonale telle que A = tP P et B= tP DP. Rappelons une d´emonstration de ce r´esultat important :

Soient A sym´etrique d´efinie positive et B sym´etrique (ces hypoth`eses sont suffisantes). La matriceAadmet une racine carr´ee sym´etrique d´efinie positiveM (siA=U∆U−1=U∆tU avec U orthogonale et ∆ = diag(λ1,· · ·, λn), poser M = U δ U−1 = U δtU avec δ = diag(p

λ1,· · ·,p

λn) : A = M2 = tM M). La matrice C = tM−1BM−1 est alors sym´etrique (v´erification imm´ediate), donc on peut ´ecrire C=QDtQ avec D diagonale et Qorthogonale ; on a alors

A= tM M= tM QtQM = tP P et B= tM CM = tM QDtQM = tP DP en posant P = tQM.

Soit alors t ∈ [0,1]. Posons D = diag(λ1,· · ·, λn), les λi ´etant strictement positifs puisque B ∈ Sn++. Alors (1−t)A+tB = tP∆P avec ∆ = diag (1−t) +tλ1,· · ·,(1−t) +tλn

, donc

f (1−t)A+tB

= 2 ln|detP|+

n

X

i=1

ln (1−t) +tλi .

Par ailleurs,

(1−t)f(A) +tf(B) = (1−t) ln det(tP P)

+t ln det(tP DP)

= (1−t) (2 ln|detP|) +t 2 ln|detP|+

n

X

i=1

lnλi

= 2 ln|detP|+t

n

X

i=1

lnλi.

Or,λti(1−t)0+t1i ≤(1−t)λ0i +tλ1i = (1−t) +tλi car la fonctionx7→λxi est convexe, et cela permet de conclure.

EXERCICE 3 :

SoitA= (aij)∈ Mn(IR) une matrice sym´etrique positive, telle que

∀(i, j)∈[[1, n]]2 aij 6= 0. Soit la matriceB = (bij), avecbij = 1

aij

.

On suppose que la matriceB (qui est bien sˆur sym´etrique), est aussi positive.

Montrer qu’il existe une matrice-colonneV (`a coefficients tous non nuls) telle queA=VtV. - - - -

La matrice A admet une racine carr´ee sym´etrique positive : il existe P ∈ O(n) et D diago- nale, D = diag(λ1,· · ·, λn) avec les λi ≥ 0, tels que A = P DP−1 = P DtP ; en posant

∆ = diag(p

λ1,· · ·,p

λn) et M =P∆P−1=P∆tP, la matriceM est sym´etrique positive et M2= tM M =A.

(4)

En notant (·|·) le produit scalaire canonique sur IRn, et en notant (e1,· · ·, en) la base canonique de IRn, on a, pour tout (i, j),

aij = (Aei|ej) = (tM M ei|ej) = (M ei|M ej), donc, par Cauchy-Schwarz,

a2ij= (M ei|M ej)2≤ kM eik2kM ejk2=aiiajj . Si B est aussi positive, on a aussib2ij ≤biibjj, soit 1

a2ij ≤ 1 aiiajj

.

Finalement,a2ij=aiiajjpour tout couple (i, j)∈[[1, n]]2, c’est-`a-dire (M ei|M ej)2=kM eik2kM ejk2 (cas d’´egalit´e dans Cauchy-Schwarz), les vecteursM ei(1≤i≤n) sont donc tous colin´eaires, d’o`u rg(M)≤ 1 et mˆeme rg(M) = 1 puisque M 6= 0. Si C est une colonne non nulle de la matrice M alors, pour tout i ∈[[1, n]], il existeλi tel que la i-i`eme colonne de M soit Ci = λiC : en notant L la matrice-ligne L = (λ1 · · · λn), on a M = CL. Ensuite, A= tM M= tL(tCC)L, mais tCC est un scalaire strictement positifr(c’est la somme des carr´es des ´el´ements de la colonne C), donc A=r tLL. En posant V =√

r tL, on a bien A=V tV, doncA= (vivj) en notantV = t(v1 · · · vn). Les coefficients deA´etant non nuls, aucun coefficient deV ne peut ˆetre nul.

R´eciproquement, si V = t(v1 · · · vn) est une matrice-colonne `a coefficients tous non nuls, alors la matrice A=V tV = (aij) = (vivj)est sym´etrique positive `a coefficients tous non nuls, et la matriceBde coefficient g´en´eriquebij = 1

aij

est aussi sym´etrique positive, puisque

B=WtW avec W = t 1

v1 · · · 1 vn

.

EXERCICE 4 :

On noteSn le sous-espace vectoriel deMn(IR) form´e des matrices sym´etriques, etSn++ le sous- ensemble des matrices sym´etriques d´efinies positives.

1. Soit S ∈ Sn++. Montrer qu’il existe une unique matrice sym´etrique A telle que eA = S.

On notera A= LogS.

2.Soient S1∈ Sn++,S2∈ Sn++ telles queS1S2=S2S1. Montrer que Log(S1S2) = Log(S1) + Log(S2).

3. SoitS ∈ Sn dont toutes les valeurs propres appartiennent `a l’intervalle ]−1,1[. Montrer que In+S∈ Sn++ et prouver la relation

Log(In+S) =

X

k=1

(−1)k−1 k Sk.

- - - -

1. • Pour l’existence de A, on diagonalise S `a l’aide d’une matrice de passage orthogonale : S = P DP−1 = P DtP. On a D = diag(λ1, . . . , λn) o`u les λi sont des r´eels strictement

(5)

positifs. Posons ∆ = diag(lnλ1, . . . ,lnλn) etA=P∆P−1. Alors,A=P∆tPest sym´etrique et, par un calcul classique,

eA=eP∆P−1 =P eP−1=P DP−1=S .

• Pour l’unicit´e, on proc`ede comme pour d´emontrer l’unicit´e de la racine carr´ee sym´etrique d´efinie positive d’une matrice du mˆeme m´etal (utile pour prouver l’unicit´e de la d´ecomposition polaire d’une matrice inversible, cf. exercice 1). SiA est une matrice sym´etrique v´erifiant eA =S, alors A et S commutent ; les sous-espaces propres E1, . . ., Em deS associ´es aux valeurs propres λ1, . . ., λm(ici suppos´ees deux `a deux distinctes) sont donc stables par A (enfin, par l’endomorphisme adeIRn canoniquement associ´e). Comme l’endomorphismea est diagonalisable, sa restrictionai au sous-espaceEil’est aussi : siµest une valeur propre de ai et X un vecteur propre associ´e, on a AX =µX d’o`u SX =eAX = eµX, mais SX =λiX, doncµ= lnλi ; la restrictionai de aau sous-espaceEi (1≤i≤m) est donc ai= ln(λi) idEi, ce qui garantit l’unicit´e dea.

Remarque : Il est imm´ediat par ailleurs que l’exponentielle d’une matrice sym´etrique est une matrice sym´etrique d´efinie positive (si A = P DP−1 avec P orthogonale et D diagonale, alorseA=P eDP−1∈ Sn++). L’application exponentielle r´ealise donc une bijection deSn

surSn++.

2.PosonsA1= LogS1etA2= LogS2. SiA1etA2 commutent, alorsA1+A2 est sym´etrique et eA1+A2 =eA1eA2 =S1S2. Prouvons donc queA1etA2 commutent, ce qui nous conduit au Lemme. Deux endomorphismes sym´etriques (deE euclidien) qui commutent sont

diagonalisables dans une mˆeme base orthonormale.

D´emonstration du lemme : notons uet v ces deux endomorphismes, E est la somme directe orthogonale des sous-espaces propres de u, notonsE= ⊕

λ∈Sp(u)

Eλ(u). Pour toutλ∈Sp(u), le sous-espace propre Eλ(u) est stable par v ; la restriction ˜v de v `a Eλ(u) est un endo- morphisme sym´etrique (auto-adjoint), donc diagonalisable dans une base orthonormale Bλ

deEλ(u). Il ne reste plus qu’`a construire une base Bde E par concat´enation desBλ pour obtenir une base orthonormale de E dans laquelleuetv sont repr´esent´es par des matrices diagonales.

Revenons `a la question pos´ee : les matrices sym´etriques d´efinies positivesS1etS2commutent, donc le produitS1S2est sym´etrique, etS1etS2se diagonalisent `a l’aide d’une mˆeme matrice de passage orthogonale P (on d´eduit au passage que S1S2 est aussi d´efinie positive) ; la construction des “logarithmes”A1 etA2des matricesS1 etS2, explicit´ee dans la question 1., montre que ces deux matrices peuvent aussi ˆetre diagonalis´ees grˆace `a la mˆeme matrice de passageP, donc elles commutent, ce qu’il fallait d´emontrer.

3.La matriceI+S est sym´etrique et ses valeurs propres sont les 1 +λi(o`u lesλi sont les valeurs propres deS), elles sont donc toutes strictement positives et I+S∈ Sn++.

PosonsS=P DP−1=P DtP avecD= diag(λ1, . . . , λn) etP ∈O(n).

AlorsI+S=P(I+D)P−1; posons ∆ = diag ln(1 +λ1), . . . ,ln(1 +λn) . Comme |λi| < 1, on a ln(1 + λi) =

X

k=1

(−1)k−1

k λki pour tout i ∈ [[1, n]], donc

(6)

∆ =

X

k=1

(−1)k−1

k Dk, puis

Log(I+S) = P∆P−1=P

X

k=1

(−1)k−1 k Dk

! P−1

=

X

k=1

(−1)k−1

k (P DkP−1) =

X

k=1

(−1)k−1 k Sk.

EXERCICE 5 :

SoitEun espace pr´ehilbertien r´eel. Une famille (x1,· · ·, xp) de vecteurs deEest diteobtusangle si

i6=j=⇒(xi|xj)<0. 1.Soit (x1,· · ·, xp) une famille obtusangle. D´emontrer l’in´egalit´e

p

X

i=1

i|xi

p

X

i=1

λixi

.

2. Dans un espace euclidien de dimensionn, montrer qu’une famille obtusangle a au plusn+ 1

´

el´ements.

3. Soit E un espace euclidien de dimension n. Montrer que l’on peut construire une famille (u1,· · ·, un+1) de vecteurs unitaires de E v´erifiant (ui|uj) =−1

n pouri6=j.

4.SoitEeuclidien de dimensionn. Montrer que le seul r´eelαdiff´erent de 1 pour lequel il existe une famille (u1,· · ·, un+1) de vecteurs unitaires telle que (ui|uj) =αpour tout couple (i, j) aveci6=j, estα=−1

n.

Source : Jacques CHEVALLET, Alg`ebre MP/PSI, collection Vuibert Sup´erieur, ISBN 2-7117- 2092-6

- - - - 1.Posons u=

p

X

i=1

λixi et v=

p

X

i=1

i|xi. Alors

kuk2=

p

X

i=1

λ2ikxik2+ 2 X

i<j

λiλj(xi|xj) et kvk2=

p

X

i=1

λ2ikxik2+ 2 X

i<j

iλj|(xi|xj),

donc kvk2− kuk2 = 2 X

i<j

iλj| −λiλj

(xi|xj) et chaque terme de cette somme est n´egatif ou nul, donckvk2− kuk2≤0, ce qu’il fallait d´emontrer.

(7)

2. Nous allons d’abord d´emontrer que toute famille obtusangle de cardinal p dans un espace pr´ehilbertien r´eel E est de rang au moins ´egal `a p−1 : soit X = (x1,· · ·, xp) une telle famille. Si on avait rgX ≤p−2, alors la sous-famille (x1,· · ·, xp−1) serait li´ee : il existerait doncp−1 r´eelsλ1,· · ·,λp−1, non tous nuls, tels que

p−1

X

i=1

λixi= 0E. Mais, d’apr`es la question 1., une telle relation entraˆıne

p−1

X

i=1

i|xi= 0E, d’o`u

p−1

X

i=1

i|(xi|xp) = 0. Dans cette derni`ere somme, tous les termes sont n´egatifs ou nuls, ils sont donc tous nuls, donc lesλi sont tous nuls, ce qui est bˆete.

Dans un espace euclidien E de dimension n, une famille obtusangle est donc de cardinal au plusn+ 1. La question suivante prouvera qu’il existe effectivement des familles obtusangles de cardinaln+ 1 dansE.

3.Proc´edons par r´ecurrence surn= dimE.

• pourn= 1, c’est imm´ediat (prendre les deux vecteurs unitaires oppos´es) ;

•soitn≥2, supposons la propri´et´e vraie en dimensionn−1, soitEeuclidien de dimensionn.

Soitxun vecteur unitaire deE, soitH = (IRx)l’hyperplan orthogonal `ax. Par hypoth`ese, dans H, il existe une famille (v1,· · ·, vn) de vecteurs unitaires tels que (vi|vj) = − 1

n−1 pour i6=j. Soit, dansE, une famille de vecteurs U = (u1,· · ·, un, un+1) avecun+1 =xet ui= viix

p1 +λ2i pour touti∈[[1, n]]. Pour que la familleU (dont les vecteurs sont unitaires) v´erifie les conditions impos´ees, il faut et il suffit que

- pour touti∈[[1, n]] (x|ui) =−1

n, ce qui est r´ealis´e si et seulement si λi=− 1

√n2−1 ; - pour tout couple (i, j) avec i6= j, (ui|uj) =−1

n et on v´erifie que cette condition est bien r´ealis´ee siλij =− 1

√n2−1.

La famille U = (u1,· · ·, ub, un+1), avec un+1 = x et ui = 1 n

pn2−1vi−x

pour tout i∈[[1, n]], satisfait aux conditions de l’´enonc´e.

Une famille(u1,· · ·, un+1)satisfaisant `a ces conditions dans un espace euclidien de dimension nest appel´ee unsimplexe r´egulier. On peut v´erifier (c’est facile) que

n+1

X

k=1

uk= 0E et que, sii6=j, on a kui−ujk=

r2(n+ 1) n .

4. Soit U = (u1,· · ·, up) une famille ´equiangulaire de vecteurs unitaires (c’est-`a-dire telle que les produits scalaires (ui|uj) avec i 6=j, aient une valeur communeα). Soit G la matrice de Gram de cette famille, `a savoir la matrice carr´ee d’ordre p de coefficient g´en´erique gij = (ui|uj). On v´erifie facilement que, siBest une base orthonormale deE, on aG= tU U, o`u U ∈ Mn,p(IR) est la matrice de la famille de vecteurs U relativement `a la base B.

(8)

On a donc rg(U) = rg(U) = rg(G) puisque les matrices U et tU U (ou les applications

lin´eaires canoniquement associ´ees) ont le mˆeme noyau. Ici, on a G=

1 α . . . α α 1 . .. ...

... . .. . .. α α . . . α 1

 et detG= 1 + (p−1)α

(1−α)p−1. La famille U est donc libre sauf pourα= 1 (auquel cas tous les vecteurs sont ´egaux) et pourα=− 1

p−1. Pour quen+ 1 tels vecteurs existent en dimensionn, la famille doit ˆetre li´ee, donc n´ecessairement α=−1

n. EXERCICE 6 :

Notations : soitnun entier naturel non nul ; on note O(n) le groupe orthogonal d’ordren;

Sn+l’ensemble des matrices sym´etriques positives d’ordren;

Sn++ l’ensemble des matrices sym´etriques d´efinies positives d’ordren;

siE est un espace euclidien etX = (x1,· · ·, xp) une famille finie de vecteurs deE, on note G(X) la matrice de Gram de la familleX, c’est-`a-dire la matrice sym´etrique d’ordrep, de coefficient g´en´erique gij = (xi|xj).

1.SoitA∈ Mn(IR). Montrer l’existence d’une matrice Ω∈O(n) et d’une matriceS∈ Sn telles queA= ΩS (on pourra commencer par supposerA inversible, puis conclure en invoquant la compacit´e deO(n)).

2.SoitE un espace euclidien, soitBune base deE, soitf un endomorphisme deE, de matrice M relativement `a la base B. Montrer quef est un automorphisme orthogonal de E si et seulement si tM G(B)M =G(B).

3.SoitEun espace euclidien de dimension 2n, soientF etGdeux sous-espaces suppl´ementaires, chacun de dimensionn. Montrer qu’il existe une sym´etrie orthogonale ´echangeantF etG.

Source : Jean-Marie ARNAUDI `ES et Henri FRAYSSE, Alg`ebre bilin´eaire et g´eom´etrie, ´Editions Dunod, ISBN 2-04-016550-9

- - - -

1.LorsqueAest inversible, il s’agit de lad´ecomposition polaire: la matrice tAAest sym´etrique d´efinie positive, donc admet une racine carr´eeS elle aussi dansSn++ (´evident en diagona- lisant tAA en base orthonormale). En posant Ω = AS−1, il suffit de v´erifier que Ω est orthogonale.

Dans le cas o`uAest inversible, on peut d´emontrer l’unicit´e du couple(Ω, S), mais ce n’est pas utile ici, cf. exercice 1.

L’ensemble GL(n,IR) des matrices inversibles est un ouvert dense de Mn(IR). Si A est une matrice deMn(IR), il existe donc une suite (Ap) de matrices inversibles qui tend versA.

Pour tout p, soit Ap = ΩpSp la d´ecomposition polaire de Ap. Comme O(n) est compact,

(9)

il existe une suite extraite (Ωϕ(p)) qui converge vers une matrice Ω de O(n). L’application Φ :

(GLn(IR)× Mn(IR) → Mn(IR)

(U, M) 7→ U−1M ´etant continue, on a lim

p→∞−1ϕ(p)Aϕ(p) = Ω−1A et, en notant S = Ω−1A, la matrice S appartient `a l’adh´erence deSn++, c’est-`a-dire `a Sn+, et A= ΩS, ce qu’il fallait prouver.

Remarquons que l’unicit´e de cette d´ecomposition n’est plus garantie : si, par exemple,A est la matrice nulle, alors S= 0et Ω∈O(n)est quelconque.

2.Manipulons un peu les matrices de Gram : soitE un espace euclidien de dimensionn.

•SiB0est une base orthonormale deE, siF= (x1,· · ·, xp) est une famille depvecteurs deEde matriceF =MB0(F)∈ Mn,p(IR) relativement `a la baseB0, alorsG(F) = tF F ∈ Mp(IR).

• SiB= (e1,· · ·, en) et B0 = (e01,· · ·, e0n) sont deux bases de E, siP =PB,B0 =MB(B0) est la matrice de passage de B versB0, on a B0 : =MB0(B0) = PB0,B0 =PB0,BPB,B0 =BP avec B=MB0(B), donc

G(B0) = tB0B0= t(BP)(BP) = tPtBBP = tP G(B)P (cela sera utile pour la question suivante).

•Si maintenantB= (e1,· · ·, en) est une base quelconque deE, six=

n

X

i=1

xieiety=

n

X

j=1

yjej

sont deux vecteurs de E, on a (x|y) =X

i,j

xiyj(ei|ej) = tX G(B)Y, en notantX =MB(x) et Y =MB(y) les matrices-colonnes constitu´ees des coordonn´ees des vecteurs xet y dans la baseB.

De cette derni`ere remarque, on d´eduit que, si f est un endomorphisme de E de matrice M relativement `a la baseB, on a

f ∈O(E) ⇐⇒ ∀(x, y)∈E2 f(x)|f(y)

= (x|y)

⇐⇒ ∀(X, Y)∈ Mn,1(IR)2 t(M X)G(B) (M Y) = tX G(B)Y

⇐⇒ tM G(B)M =G(B).

3. Soit E euclidien de dimension 2n, soient F et G suppl´ementaires de dimension n. Con- sid´erons une baseB = (B1,B2) de E obtenue par concat´enation d’une base orthonormale B1 = (e1,· · ·, en) de F et d’une base orthonormale B2 = (en+1,· · ·, e2n) de G. On a alors G(B) =

I A

tA I

, en notant I =In la matrice-unit´e d’ordren et avecA ∈ Mn(IR), de coefficient g´en´erique aij= (ei|en+j).

D’apr`es la question1., il existe Ω∈O(n) etS∈ Sn+telles queA= ΩS, doncS = Ω−1A= tΩA et aussiS= tS= tAΩ. PosonsP =

Ω 0 0 I

. AlorsP ∈O(2n) et

P−1= tP =

tΩ 0

0 I

=

−1 0

0 I

.

(10)

SoitB0 = (B10,B2) la base deE telle que P=PB,B0 (alorsB10 = (e01,· · ·, e0n) est encore une base orthonormale de F). On a

G(B0) = tP G(B)P =

tΩΩ tΩA

tAΩ I

=

I S S I

.

Soit maintenantf l’endomorphisme deE tel queMB0(f) =M = 0 I

I 0

. De M2=I2n, on d´eduit quef est une sym´etrie. Il est clair quef(F) =Getf(G) =F. Enfin,

tM G(B0)M = 0 I

I 0

I S S I

0 I I 0

=

I S S I

=G(B0), doncf ∈O(E) par la question2.

EXERCICE 7 :

Soient p et q deux projecteurs orthogonaux dans un espace euclidienE, soit l’endomorphisme f =pq.

a.Montrer que les valeurs propres de f appartiennent au segment [0,1].

b.Montrer quef est diagonalisable.On pourra introduire l’endomorphisme g=pqp.

- - - - a.Un projecteur orthogonal v´erifie les propri´et´es

∀(y, z)∈E2 p(y)|p(z)

= p(y)|z

; (1)

∀y∈E kp(y)k ≤ kyk. (2)

Donc, siλ∈Sp(f) est non nul et sixest un vecteur propre associ´e, on a kpq(x)k2= pq(x)|pq(x)

= pq(x)|q(x)

=λ x|q(x)

=λkq(x)k2 avecq(x)6= 0, donc λ= kpq(x)k2

kq(x)k2 ∈]0,1]. Tenant compte de l’´eventuelle valeur propre 0, on a Sp(f)⊂[0,1].

b. L’endomorphisme g = pqp est autoadjoint (car p = p et q = q), donc diagonalisable.

On a donc X

λ∈Sp(g)

dimEλ(g) = dimE. Nous allons montrer que Sp(f) = Sp(g) et que

∀λ ∈ Sp(f) dimEλ(f) = dimEλ(g), d’o`u il r´esultera que X

λ∈Sp(f)

dimEλ(f) = dimE et quef est diagonalisable.

• Soit d’abordλune valeur proprenon nulle deg.

Si x∈ Eλ(g), alors pqp(x) = λx et, en appliquant p, on a pqp(x) = λp(x), on en d´eduit p(x) =x(carλ6= 0), doncf(x) =pq(x) =pqp(x) =λxetx∈Eλ(f) ; on a ainsi l’inclusion Eλ(g)⊂Eλ(f).

Si x ∈ Eλ(f), alors pq(x) =λx et, toujours en appliquant p, on a pq(x) = λp(x) donc p(x) =x, doncg(x) =pqp(x) =pq(x) =λxet x∈Eλ(g), d’o`u l’autre inclusion.

(11)

On a ainsi montr´e Eλ(f) =Eλ(g).

• On v´erifie facilement que, pour tout endomorphisme u de E, on a Ker(uu) = Ker(u).

On a pq = (qp), donc les endomorphismespq et qp ont le mˆeme rang, et dim Ker(pq) = dim Ker(qp). Mais Ker(qp) = Ker (qp)(qp)

= Ker(pqp) = Ker(g). Ainsi, les sous-espaces propres E0(f) = Ker(pq) et E0(g) = Ker(pqp) ont la mˆeme dimension, ce qui ach`eve la d´emonstration.

EXERCICE 8 :

1.Soituun endomorphisme autoadjoint positif dans un espace euclidienE. Montrer l’´equivalence

∀x∈E u(x)|x

= 0 ⇐⇒ x∈Keru .

2.Soient aetbdeux endomorphismes autoadjoints positifs dans un espace euclidienE.

a.Montrer l’existence d’un endomorphisme autoadjoint positifhtel queh2=b.

b.Montrer que l’endomorphismef =abest diagonalisable.On pourra consid´erer l’endomorphisme g=hah.

- - - -

1. Notons λ1, · · ·, λm les valeur propres distinctes et strictement positives de u. On a alors, d’apr`es le th´eor`eme spectral, E =

M

0≤i≤m

Ei avec E0 = Ker(u) (´eventuellement r´eduit `a {0}) et Ei =Eλi(u) = Ker(u−λi idE) pouri ∈ [[1, m]]. Soit x=x0+

m

X

i=1

xi ∈E, alors

u(x) =

m

X

i=1

λixiet u(x)|x

=

m

X

i=1

λikxik2; cette derni`ere somme, dont tous les termes sont positifs, est nulle si et seulement si tous les termes sont nuls, soit ssi ∀i∈[[1, m]] xi = 0, doncssix∈E0= Ker(u).

2.a. Question classique : avec les notations de la question pr´ec´edente (et en posantλ0 = 0), on prend pour h l’endomorphisme co¨ıncidant avec l’homoth´etie de rapport p

λi sur chaque sous-espaceEi.On peut prouver l’unicit´e deh, mais ce n’est pas demand´e, cf.exercice 1.

b. On a f =ab =ah2 = (ah)h et g =h(ah). L’endomorphisme g =hah est autoadjoint, donc diagonalisable, donc X

λ∈Sp(g)

dimEλ(g) = dimE. Comme dans l’exercice pr´ec´edent, nous allons montrer quef etgont les mˆemes valeurs propres, avec des sous-espaces propres associ´es de mˆeme dimension.

Lemme : Soient u et v deux endomorphismes d’un IK-espace vectoriel E de dimension finie. Alors toute valeur propre λ non nulle de uv est aussi valeur propre de vu et on a dimEλ(vu) = dimEλ(uv).

D´emonstration du lemme : sixest un vecteur propre (donc non nul) de uvpour la valeur propre non nulleλ, on auv(x) =λx, d’o`uvuv(x) =λv(x). Maisv(x)6= 0(sinon on aurait uv(x) = 0 donc λx = 0, ce qui est absurde), donc v(x) est un vecteur propre de vu pour la valeur propre λ, ainsi λ∈ Sp(vu). On a aussi prouv´e que v Eλ(uv)

⊂Eλ(vu), mais

(12)

la restriction de v `aEλ(uv) est injective donc dimv Eλ(uv)

= dimEλ(uv). L’inclusion obtenue ci-dessus montre alors quedimEλ(uv)≤dimEλ(vu). Les endomorphismesuetv jouant le mˆeme rˆole, il y a ´egalit´e des dimensions.

En appliquant le lemme avec u=ahet v =h, on voit que toute valeur propre non nulle de g=hahest aussi valeur propre def =ab=ah2 (et r´eciproquement), les sous-espaces propres ayant mˆeme dimension.

Par ailleurs, on a Ker(ah) = Ker(hah) : l’inclusion directe est imm´ediate et, si x∈Ker(hah), alors 0 = hah(x)|x

= ah(x)|h(x)

donch(x)∈Kerad’apr`es la question 1.et x∈Ker(ah). Enfin, rg(f) = rg(ah2)≤rg(ah), donc

dim Ker(f) = dim Ker(ah2)≥dim Ker(ah) = dim Ker(hah) = dim Ker(g). On a finalement prouv´e que Sp(g) = Sp(f) et X

λ∈Sp(f)

dimEλ(f)≥dimE (in´egalit´e qui est forc´ement une ´egalit´e), etf est diagonalisable.

Références

Documents relatifs

de sortie (qu’il appelle plus simplement canaux) d’une chaîne de Markov, qu’elle soit ou non stationnaire et nous ramenons l’étude de la frontière de sortie

Cela montre que l’´ equation propos´ ee admet au plus une solution et que s’il existe une solution cela ne peut ˆ etre que S 0.. On s’apprˆ ete donc gentiment ` a montrer que S

Savoir calculer le rang d’une matrice et en d´eduire la dimension de l’espace (vectoriel ou affine) des solutions du syst`eme lin´eaire associ´e).. Savoir d´ecomposer une

On dispose maintenant des outils pour d´ emontrer le th´ eor`

Montrer que toute forme bilin´ eaire ∆ : E ×E → R s’´ ecrit de fa¸ con unique comme la somme de deux formes bilin´ eaires, l’une sym´ etrique, l’autre antisym´ etrique,

On peut montrer que dans C toute matrice inversible admet, au moins, une racine carrée (par exemple en utilisant la surjectivité de l’exponentielle).. En revanche, la matrice

On appelle transposition toute permutation dont le sup- port est form´ e par deux ´ el´ ements.. Toute permutation peut s’´ ecrire comme produit de

En effet, sur un corps fini, toutes les fonctions sont des polynˆ omes, ce qui simplifie grandement les calculs : il n’y a ni sinus ni cosinus (cela d´ ecoule du fait que pour tout