• Aucun résultat trouvé

Espaces préhilbertiens réels et espaces euclidiens

N/A
N/A
Protected

Academic year: 2022

Partager "Espaces préhilbertiens réels et espaces euclidiens"

Copied!
14
0
0

Texte intégral

(1)

Espaces préhilbertiens réels et espaces euclidiens

0 Rappels de première année

0.1 Produit scalaire réel, espace euclidien

Définition 0.1.1. Produit scalaire réel

Etant donné unR-espace vectorielE, on appelle produit scalaire surEtoute applicationB:EE!Rtelle que : pour toutu2E, les applicationsx7!B(x; u)ety7!B(u; y) sont des formes linéaires surE,

l'application Best symétrique : 8x; y2E ; B(y; x) =B(x; y);

B est définie positive : 8x2Enf0g; B(x; x)>0.

Remarque.

1. La linéarité à droite et la symétrie entraînent la linéarité à gauche.

2. B( x; x) =2B(x; x)entraîneB(0E;0E) = 0.

Proposition 0.1.2. [inégalité de Cauchy-Schwarz0.1.1]

On considère un produit scalaire h:; :isur un R-espace vectorielE.

i. Pour tous x; y2E :

hx; yi26hx; xi hy; yi:

ii. Cette inégalité est une égalité si et seulement sixety sont proportionnels.

Démonstration. Posons, pour toutx2E,Q(x) =B(x; x).

La fonctionf:2R7!Q( x¡y) =2Q(x)¡2hx; yi+Q(y)est à valeurs positives.

1. Si Q(x) =/ 0, f est du second degré et = 4 (hx; yi2¡Q(x)Q(y))60 ce qui est l'inégalité cherchée.

Si Q(x) = 0, f est affine, positive donc constante, doncB(x; y) = 0.

2. L'égalité est vraie six; ysont liés.

Réciproquement,B est définie positive donc = 0)Q( x¡y)a une racine0donc y=0x.

Définition 0.1.3. espace préhilbertien, espace euclidien

On considère un R-espace vectorielE. On suppose défini un produit scalaire h:; :isurE.

Le couple (E ;h:; :i) est appelé espace préhilbertien réel. Il est appelé espace euclidien si, de plus, E est de dimension finie.

Proposition 0.1.4. [norme associée à un produit scalaire]

Si h: ; :i est un produit scalaire sur un espace vectoriel réel E, on définit une norme sur E, dite norme ou euclidienne associée, en posant :

kxk=phx; xi :

Démonstration. h:; :idéfinie positive donckxk= 0)x= 0Eet k xk=ph x; xi

=p2

kxk=jj kxk. Enfin, par Cauchy-Schwarz,kx+yk2=kxk2+ 2hx; yi+kyk26kxk2+ 2kxk kyk+kyk2= (kxk+kyk)2. Remarque. la dernière ligne montre quekx+yk=kxk+kyk si et seulement sihx; yi=kxk kyk, c'est-à-dire lorsquexet y sont colinéaires (Cauchy-Schwarz) et de même sens (hx; yi>0).

0.1.1. d'Augustin Cauchy (1789-1857) et Hermann Schwarz (1843-1921).

(2)

Exemple.

1. Rnmuni du produit scalaire canonique(x; y)7! hx; yi=tXY =X

k=1 n

xkyk est un espace euclidien.

2. (A; B)7!tr(tAB) =P

i;jai; jbi; j définit un produit scalaire surMn(R).

3. Soit`2(N)l'ensemble des suites réellesu= (un)pour lesquelles la sérieP

un2 converge.

Le réelhu; vi=P

k=0

+1unvn existe et définit un produit scalaire sur`2(N).

On noterak:k2la norme associée à ce produit scalaire.

4. Si¡16a < b6+1, on a vu que(f ; g)7!

Z

a b

f g définit un produit scalaire sur leR-e.v. des fonctions continues intégrables sur]a; b[.

5. Si¡16a < b6+1, soitwcontinue strictement positive sur]a; b[telle que, pour toutn2N,t7!tnw(t) soit intégrable sur]a; b[. Alors(P ; Q)7!

Z

a b

P Q w est un produit scalaire surR[X].

Démonstration. P Q west intégrable sur]a; b[et la bilinéarité et la symétrie sont claires etR

P2w>0et ne s'annule que

siP2w, soit siP, est identiquement nul.

Exercice. [identité de polarisation]

On considère unR-e.v.E. SiBest un produit scalaire surEetk:kest la norme euclidienne associée àBalors : 8x; y2E ; B(x; y) =1

4(kx+yk2¡ kx¡yk2) Le produit scalaireBest donc parfaitement déterminé park:k.

Démonstration. Il suffit de développer le membre de droite de l'égalité.

Remarque. On a aussiB(x; y) =12(kx+y2k ¡ kxk2¡ kyk2).

Proposition 0.1.5. [égalité du parallélogramme]

Si h:; :iest un produit scalaire sur un espace vectoriel réelE, la norme associée vérifie l'égalité suivante, dite égalité du parallélogramme ou de la médiane :

8x; y2E ; kx+yk2+kx¡yk2= 2 (kxk2+kyk2):

Démonstration. Il suffit de développerkx+yk2+kx¡yk2. Interprétation géométrique. Dans un paralléllogramme, la somme des carré des diagonales est égale à la somme des carrés des quatre côtés.

Exercice. (difficile)On considère une normek:ksurEvérifiant l'égalité du parallélogramme et on se propose d'établir qu'elle est associée à un produit scalaire. Pour cela, on pose :

8x; y2E ; B(x; y) =1

4(kx+yk2¡ kx¡yk2):

a)En remarquant que B(x; y) = 14¡

kx+y2+y2k2+kx+y2¡y2k2¡ kx+y2¡y2k2¡ kx¡y2¡y2k2, établir, pourx; y2E, la relationB(x; y) = 2B(x; y/2).

En déduire par une méthode analogue, pourx1; x2; y2E, la relationB(x1+x2; y) =B(x1; y) +B(x2; y).

b)Établir, pourx; y2E, la relationB( x; y) = B(x; y)pour2Npuis pour2Qet2R.

Établir enfin queBest un produit scalaire surEdontk:kest la norme associée.

Démonstration. a) B(x; y) = 14¡

kx+y2+y2k2+kx+y2¡y2k2¡ kx+y2¡y2k2¡ kx¡y2¡y2k2 doncB(x; y) = 1

42 kx+y

2k2+ky

2k2¡ kx¡y 2k2¡ ky

2k2

= 21 4

kx+y

2k2¡ kx¡y 2k2

= 2B(x;y 2) de même,

B(x1+x2; y) = 1 4

kx1+y 2+x2+y

2k2+kx1+y 2¡x2¡y

2k2¡ kx1+y 2¡x2¡y

2k2¡ kx1¡y 2+x2¡y

2k2

= 1 42

kx1+y

2k2+kx2+y

2k2¡ kx1¡y

2k2¡ kx2¡y 2k2

= 21 4

kx1+y

2k2¡ kx1¡y

2k2+kx2+y

2k2¡ kx2¡ y

2k2

= 2B(x1;y

2) + 2B(x2;y

2) = B(x1; y) +B(x2; y)

(3)

b) Par récurrence,8p2Z; p B(x; y) =B(p x; y)d'oùq B(1qx; y) =B(x; y)ce qui donneB(pqx; y) =p B(1qx; y) =pqB(x; y).

Par continuité de 7!B( x; y)¡ B(x; y), on a l'égalité cherchée pour tout2R.

Il reste à prouver queBest symétrique définie positive.

0.2 Orthogonalité

0.2.1 Vecteurs orthogonaux

Définition 0.2.1. vecteurs orthogonaux On considère un espace préhilbertien réel (E ;h:; :i).

¡ On dit que deux vecteurs xety deE sont orthogonaux et l'on notex?ysi hx; yi= 0.

¡ On dit qu'une famille de vecteurs (vi)i2Iest orthogonale si : 8i; j2I ; i=/j ) hvi; vji= 0.

Une telle famille orthogonale est dite orthonormale si on a de plus : 8i2I ; kvik= 1.

¡ On dit enfin que deux partiesA etB deEsont orthogonales si : 8x2A; 8y2B; x?y.

Remarque 0.2.2.

1. x?y,y?x

2. (vi)i2I est orthonormale lorsque8i; j2I ; hvi; vji=ij.

Une caractérisation pratique :Si V est un s.e.v. deE et six2E, alors :

xest orthogonal àV si et seulement s'il existe une famille génératrice deV dont tout élément est orthogonal àx.

!Il est inutile de vérifier quex?v pour tout vecteur v2V. Proposition 0.2.3. [théorème de Pythagore]

On considère un espace préhilbertien réel (E ;h:; :i).

Pour toute famille orthogonale (v1; :::; vn)de vecteurs de E, on a : kX

i=1 n

vik2=X

i=1 n

kvik2: Démonstration. kP

i=1

n vik2=P

16i; j6nhvi; vji=P

i=1

n hvi; vii=P

i=1

n kvik2.

Proposition 0.2.4. [indépendance des familles orthogonales de vecteurs non nuls]

On considère un espace préhilbertien réel (E ;h:; :i).

Toute famille orthogonale de vecteurs non nuls de Eest libre.

En particulier, toute famille orthonormale est libre.

Démonstration. Si(i)i2I est une famille de réels,P

iivi= 0E ) hvj;P

iivii= 0 ) jkvjk2= 0.

Proposition 0.2.5. [existence de bases orthonormales en dimension finie]

Tout espace euclidien non réduit au vecteur nul admet des bases orthonormales.

Démonstration. Récurrence surn=dimE : soitenvecteur unitaire deE,H=Ker(x7! hen; xi)est un sous- espace deEde dimension1, par le théorème du rang, que l'on munit de la structure d'espace euclidien induite parE. Hypothèse de récurrence :9(e1; :::; en¡1)base orthonormale deH donc(e1; :::; en) base orthonormale

deE.

Exercice 0.2.1. Polynômes de Hermite (1822-1901)

1. Justifier l'existence de l'intégrale suivante pourP ; Q2RN[X], puis démontrer que l'application(P ; Q)7! hP ; Qidéfinit un produit scalaire surRN[X]:

hP ; Qi= Z

R

P(t)Q(t)e¡t2dt:

2. Notonsu:t7!e¡t2. On poseHn(t) =et2ddtnun(t)pour tout entier natureln.

a. Montrer par récurrence surnqueHnest polynômiale de degrén.

b. Montrer que chaqueHnest orthogonal àRn¡1[X].

Rappels de première année 3

(4)

c.En déduire que la famille(Hn)n6Nest orthogonale pour ce produit scalaire.

Démonstration. t7!P(t)Q(t)e¡t2continue intégrable caro(t¡2)en1donc l'intégrale est bien définie. L'applicationh:; :i est bien bilinéaire symétrique définie positive.

Récurrence :H0est un polynôme de degré0et si c'est vrai pourn,Hn+1(t) =et2d(u Hdtn)(t) =¡2t Hn(t) +Hn0(t).

Sik < n,hHn; XkiIPP= [u(n)(t)tk]¡1+1¡kR

Ru(n¡1)(t)tk¡1dt= [e¡t2Hn¡1(t)tk]¡1+1¡kR

Ru(n¡1)(t)tk¡1dt où le crochet est nul. En réitérant, on obtienthHn; Xki= (¡1)kk!R

Ru(n¡k¡1)(t) dt= (¡1)kk! [e¡t2Hn¡k¡1(t) ]¡1+1= 0doncHnest orthogonal àRn¡1[X]et donc auxHkpourk < n.

!

Méthode :(cf caractérisation pratique, remarque0.2.2) pour montrer queHnest orthogonal àRn¡1[X], il a suffi de montrer qu'il est orthogonal à une famille génératrice (ici la base canonique) deRn¡1[X].

0.2.2 Sous-espaces orthogonaux

Définition 0.2.6. orthogonal d'une partie On considère un espace préhilbertien réel (E ;h:; :i).

On appelle orthogonal d'une partieAnon vide deEl'ensemble, notéA?, des vecteurs orthogonaux à tout vecteur deA, c'est-à-dire :

A?=fx2E / 8a2A; ha; xi= 0g: Proposition 0.2.7. [structure de l'orthogonal d'une partie]

On considère un espace préhilbertien réel (E ;h:; :i).

L'orthogonal d'une partie non vide A de E est un sous-espace vectoriel de E et on a l'inclusion : A(A?)? (mais pas nécessairement l'inclusion réciproque).

LorsqueFest un sous-espace vectoriel deE, alors la sommeFF?est directe (non nécessairement égale àE).

Démonstration. A?est non vide, stable par combinaisons linéaires et8a2A;8x2A?;hx; ai=ha; xi= 0donc a2(A?)?. Enfin, six2A\A?, alorskxk2=hx; xi= 0doncx= 0.

Attention ! Dans tous les cas,F etF?sont en somme directe.

MaisFF?=E peut être faux sidimF= +1.

Exemple. SiE=`2(N)etF=Vect(en)n2Nest l'ensemble des suites presque nulles (c'est-à-dire à support fini) alorsF?=f0Egmais F=/E (car 1

n+ 1

n>02/F).

Proposition 0.2.8. [des sous-espaces orthogonaux sont en somme directe]

Si (Fi)i2Iest une famille finie de sous-espaces vectoriels deEdeux à deux orthogonaux, alors la somme L

i2IFi

est directe.

Démonstration. Si x=P

i2Ixiest élément de cette somme écrit dans cette décomposition, x= 0implique, par Pythagore, que0 =kxk2=P

kxik2et donc que, pour touti2I,xi= 0.

Définition 0.2.9. supplémentaires orthogonaux On considère un espace préhilbertien réel (E ;h:; :i).

On dit que les sous-espaces FetGsont supplémentaires orthogonaux si : ils sont supplémentaires dans E, soit E=FG,

ils sont orthogonaux, soit : 8u2F ; 8v2G; hu; vi= 0.

On appelle alors projecteurs orthogonaux associés à ces supplémentaires orthogonaux les projecteurs sur F parallèlement à Get surGparallèlement à F.

Proposition 0.2.10. orthogonalité de deux sous-espaces supplémentaires

On considère deux sous-espaces vectoriels FetGd'un espace préhilbertien réel (E ;h:; :i).

Alors, si FetGsont supplémentaires, les assertions suivantes sont équivalentes : i. FetGsont orthogonaux

ii. F=G? iii. G=F?

(5)

Démonstration. ii.)i et iii.)i.sont clairs.

i.)ii.SachantE=FGet FG?, si x2G?, écrivonsx=f+g2FG.

Alors0 =hx; gi=hf ; gi+hg; gi=hg; gidoncg= 0Eet x=f2F. (i.)iii.est prouvé par symétrie.) Remarque. On a supposéa priori queF etGsont supplémentaires, ce qui n'est pas nécessairement le cas de F et de F? en dimension quelconque (cf l'exemple précédent). En revanche, on va voir que c'est toujours le cas siF est de dimension finie.

0.3 Projection orthogonale

Proposition 0.3.1. [FetF?sont supplémentaires lorsque dimF <+1] On considère un espace préhilbertien réel (E ;h:; :i).

Pour tout sous-espaceFde dimension finie,FetF?sont supplémentaires orthogonaux et, si (e1; :::; en)est une base orthonormale deF, alors le projeté orthogonal d'un vecteur xsurFest :

pF(x) =X

k=1 n

hek; xiek:

Démonstration. F, muni de la structure préhilbertienne induite de E, est de dimension finie donc possède une base orthonormale(e1; :::; en).

Analyse :soitx=y+z2F+F?,y=P

iyieiet doncz=P

iyiei. z2F?, 8k;hek; zi= 0soithek; xi=yk. La décomposition est unique (donc la somme est directe) et s'écrit :x= (P

16i6nhei; xiei) + (x¡P

ihei; xiei).

Synthèse : Pour toutx2E, la décomposition ci-dessus est bien suivantFF?(on ahek; x¡P

ihei; xieii= 0)

doncE=FF?et pF est de la forme annoncée.

A retenir :pour toutx2E, pF(x)est défini par :

pF(x)2F ET x¡pF(x)2F?

!SiB= (ei)16i6n est une base deF, on vérifiera donc : 1. pF(x)2Vect(B)donc s'écrit sous la formeP

i=1 n iei

2. x¡pF(x)est orthogonal à chaque vecteur de B, soit8i2J1; nK, hx¡P

j=1

n jej; eii= 0

!résolution d'un système linéaire denéquations àninconnuesi.

!SiB est orthonormale, on peut utiliser la formule p(x) =P

hx; eiieidirectement.

Remarque. Ne pas oublier queId=pF+pF?et que pF?peut se révéler plus simple à déterminer...

Proposition 0.3.2. [projection orthogonale surFet distance à F]

SiFest un sous-espace de dimension finie d'un espace préhilbertien réelEet sixest un vecteur deE, la fonction v7!d(x; v)admet un minimum global strict surF. Il est atteint enpF(x). On a donc :

d(x; F) =min

v2Fkx¡vk=kx¡pF(x)k

Démonstration. Par Pythagore, siv2F,kx¡vk2=kx¡pF(x) +pF(x)¡vk2=kx¡pF(x)k2+kpF(x)¡vk2, carx¡pF(x)2F?et pF(x)¡v2F donckx¡vk>kx¡pF(x)k avec égalité ssiv=pF(x).

Exercice. Autres formules pour la distanced(x; F):

1. d2(x; F) =kx¡pF(x)k2=kxk2¡ kpF(x)k2carkxk2=k(x¡pF(x)) +pF(x)k2=kx¡pF(x)k2+kpF(x)k2. 2. d2(x; F) =hx¡pF(x); x¡pF(x)i=hx¡pF(x); xi

Proposition 0.3.3. [orthonormalisation de Gram-Schmidt (1876-1959)]

On considère un espace préhilbertien réel ou complexe (E ;h:; :i).

Pour toute suite libre (v0; :::; vn; :::)deE, il existe une et une seule suite (e0; :::; en; :::)dite orthonormalisée de Schmidt, telle que :

la famille (e0; :::; en; :::)est orthonormale,

Rappels de première année 5

(6)

8k>0; Vect(e0; :::; ek) =Vect(v0; :::; vk), 8k>0; hek; vki>0.

Démonstration. Construction deenpar récurrence surn: e0=v0/kv0k. Supposons(e0; :::; en¡1)construits.

On veutenunitaire dirigeant la droite deVect(v0; :::; vn)orthogonale àVect(e0; :::; en¡1) =Vect(v0; :::; vn¡1).

Un vecteur directeur en estvn¡pn¡1(vn)où pn¡1est le projecteur orthogonal surVect(e0; :::; en¡1), soit pn¡1(vn) =P

16j6n¡1hej; vniej.

Un vecteur directeuren est alors unitaire ssien=(vn¡pn¡1(vn))avec j1j=kvn¡pn¡1(vn)k(=/ 0).

Soitvn=¡1en+pn¡1(vn)et donchen; vni=¡1>0,=kvn¡pn¡1(vn)k¡1. D'où l'existence et l'unicité.

en= vn¡P

j6n¡1hej; vniej

kvn¡P

j6n¡1hej; vniejk

!voir illustration en ligne :http://math.pc1sl.fr/cours/C12a.Gram-Schmidt.pdf Remarque. démonstration algorithmique qui permet le calcul effectif de(en).

Exercice 0.3.1. SoitE=R2[X]ethP ; Qi=P(1)Q(1) +P(0)Q(0) +P(¡1)Q(¡1).

Vérifier qu'il s'agit bien d'un produit scalaire et trouver(P0; P1; P2)une base deEorthonormale telle quedegPi=i.

Solution. Gram-Schmidt donne :Q0= 1,Q1=X,Q2=p6

/2(X2¡2/3).

Exercice 0.3.2. Quelques résultats sur les polynômes orthogonaux.

On considère une fonction continue strictement positive!:I!Ret on suppose, pour tout polynômeP2R[X], que la fonction P2!est intégrable sur l'intervalleI.

a)Montrer que l'intégralehP ; Qi= Z

I

P(t)Q(t)!(t) dtexiste et définit un produit scalaire surR[X].

On désigne alors par(Pn)l'orthonormalisée de Schmidt de la base canonique(Xn).

b)Établir, pour tout entiern>1, qu'il existe trois nombres réelsan; bnetcntels que : X Pn(X) =anPn+1(X) +bnPn(X) +cnPn¡1(X) Établir de plus, pourn>1, quecn=an¡1.

c) Soientx1; :::; xples racines distinctes d'ordre de multiplicité impair dePnappartenant àI.

Établir, sip < n, quehPn(X);(X¡x1) (X¡x2):::(X¡xp)iest à la fois nul et non nul.

En déduire quePnanracines simples réelles, qui sont situées dansI.

Démonstration.

a)P Q !est continue et2jP Q !j6P2!+Q2!donc l'intégrale existe.

Produit scalaire simple à établir carP2!>0.

b)Vect(P0; :::; Pn) =Rn[X] donc, par récurrence,dPn=n.

Dans la b.o.n. (P0; :::; Pn+1)deRn+1[X],X Pn=P

k6n+1hPk; X PniPket, sik6n¡2,hPk; X Pni=hX Pk; Pni= 0 d'où l'égalité en posantan=hPn+1; X Pni,bn=hPn; X Pnietcn=hPn¡1; X Pni.

Enfin,cn=hPn¡1; X Pni=hX Pn¡1; Pni=an.

c) sip < n,d(X¡x1) (X¡x2):::(X¡xp) =p < ndoncPnlui est orthogonal. Mais(X¡x1) (X¡x2):::(X¡xp)Pnest de signe constant car toutes ses racines sont d'ordre pair. Or, l'intégrale de(X¡x1) (X¡x2):::(X¡xp)Pn!est nulle doncPn= 0 ce qui contreditdPn=n. Doncp>ndoncp=net ces racines sont simples.

0.4 Inégalité de Bessel

Proposition 0.4.1. [inégalité de Bessel]

SiE est un espace préhilbertien réel, si (e1; :::; en) est une famille orthonormale etxun vecteur deE, alors : X

i=1 n

jhei; xij26kxk2

Démonstration. Le membre de gauche estkpF(x)k2F=Vect(e1; :::; en).

On akpF(x)k26kxk2car kxk2=kpF(x)k2+kx¡pF(x)k2.

(7)

Remarque. (Pas tout à fait au programme)Par majoration des sommes partielles de la série à termes positifs, si(en)n2Nest une famille (infinie) orthonormale deE,P

jhen; xij2converge et l'on a encoreX

n=0 +1

jhen; xij26kxk2. Dans toute la suite du chapitre,E désigne un espace euclidien de dimensionn.

1 Groupe orthogonal

1.1 Endomorphismes orthogonaux

Théorème 1.1.1. [et définition] endomorphisme orthogonal Soitu2 L(E). Les assertions suivantes sont équivalentes :

i. 8(x; y)2E2; hu(x); u(y)i=hx; yi ii. 8x2E ; ku(x)k=kxk

iii. pour toute base orthonormaleBde E,u(B)est orthonormale

iv. il existe une baseB deEorthonormale telle que u(B) soit orthonormale.

Lorsqu'elles sont vérifiées, on dit queuest une isométrie vectorielle ou un endomorphisme orthogonal.

Démonstration.

i.)ii.est claire.

ii.)iii. Par l'identité de polarisation, 8x; y2E ; hu(x); u(y)i=1

2(ku(x) +u(y)k2¡ ku(x)k2¡ kv(x)k2) =1

2(kx+yk2¡ kxk2¡ kyk2) =hx; yi iii.)iv.est évidente.

iv.)i.provient de l'écriture du produit scalaire en base orthonormale.

Définition 1.1.2. Groupe orthogonalO(E)

L'ensemble des endomorphismes orthogonaux deE appelé le groupe orthogonal de E et on le noteO(E). Il est stable pour la composition et le passage à l'inverse.

Démonstration. Id2 O(E). Soientu; v2 O(E). Alorsu2 GL(E)et, six2E,ku¡1(x)k=kxketkuv(x)k=kxk

doncu¡1; u v2 O(E).

Définition 1.1.3. Symétrie orthogonale

Une symétrie orthogonale de E est une symétrie (vectorielle) s dont la base et la direction sont orthogonales entre elles :

E=E1(s)?E¡1(s) Proposition 1.1.4. [caractérisation des symétries orthogonales]

Soits2 L(E). Alors sest une symétrie orthogonale deE si et seulement sis2 O(E)ets2=IdE. Définition 1.1.5. Réflexion

Une réflexion deEest une symétrie orthogonale dont l'ensemble des points fixes est un hyperplan de E.

Exercice. Soitsune réflexion.

On noteF=Ker(s¡IdE)etG=F?=Ker(s+IdE).

i. Calculertrsetdets.

ii. Soitu2Gde norme1. Calculer l'images(x)de toutx2Eà l'aide de la projection orthogonaleqsurGpuis à l'aide deu.

En déduire une expression matricielle des.

iii. Sif2 O(E)vérifief2=IdEettrf=n¡2, montrer queuest une réflexion.

Proposition 1.1.6. [orthogonal d'un sous-espace stable par une isométrie vectorielle]

Soituun endomorphisme orthogonal de E.

SiFest un s.e.v. deEstable par u, alorsF?est stable par uet les endomorphismes induits parusurFetF? sont orthogonaux.

Groupe orthogonal 7

(8)

Démonstration. F étant stable et Ker(ujF) =f0Eg, l'endomorphisme induit par usur F est injectif donc bijectif.

Six2F et y2F?, posantz=u¡1(x)2F,hx; u(y)i=hu(z); u(y)i=hz; yi= 0doncu(y)?x. Soitu(F?)F?.

Le reste est clair.

1.2 Matrices orthogonales

Proposition 1.2.1. [et définition] Matrices orthogonales SoitA2 Mn(R). Les assertions suivantes sont équivalentes :

i. il existe une base orthonormaleBd'un espace euclidien Eet u2 O(E) tels queA=Mat(u;B).

ii. A At =In

iii. tAA=In

iv. A est une matrice de changement de base entre deux bases orthonormales

v. la famille des colonnes deA est une base orthonormale deMn;1(R) pour le produit scalaire canonique vi. la famille des lignes de Aest une base orthonormale deM1;n(R) pour le produit scalaire canonique.

Lorsqu'elles sont vérifiées, on dit queA est une matrice orthogonale.

Démonstration. Les propriétési.etiv.sont équivalentes par les propriétés des endomorphismes orthogonaux.

De plus, le coefficient(i; j)detAAest (tAA)i; j=P

kak;iak;j=hCi(A); Cj(A)iM1;n(R)donciii.,v.

Donc, par transposition,ii.,vi.

ii.,iii. est évident.

Si i.est vérifié, pour tousX ; Y 2Rn, tXtAA Y =t(A X) (A Y) =tXY et donctAA=In. Réciproquement, si

tAA=Inalors, pour tousX ; Y 2Rn, t(A X) (A Y) =tXtAA Y =tXY. Donci.,iii.

Définition 1.2.2. Groupe orthogonal O(n)

L'ensemble, notéO(n)ou On(R), des matrices orthogonales de Mn(R)est stable pour la multiplication et le passage à l'inverse. On l'appelle groupe orthogonal d'ordren.

Proposition 1.2.3. [déterminant d'un endomorphisme orthogonal]

Siu2 O(E),detu2 f¡1;1g.

Démonstration. SiA=Mat(u;B),(detu)2=detAdettA= 1.

Définition 1.2.4. Groupe spécial orthogonal O+(n)

L'ensemble, notéO+(n),SO(n)ouSOn(R), des matrices orthogonales de déterminant 1 deMn(R)est stable par produit et passage à l'inverse. Il est appelé groupe spécial orthogonal d'ordre n. Ses éléments sont appelés les rotations ou les matrices de rotation.

Notation. Le complémentaireO(n)nSO(n)sera notéO¡(n).

On a doncO¡(n) =fu2O(n)j det(u) =¡1g

Proposition 1.2.5. [changement de base orthonormale]

SoientBetB0deux bases orthonormales d'un espace euclidienEetPla matrice de changement de base deBàB0. Siu2 L(E)alors Mat(u;B0) =tPMat(u;B)P.

Démonstration. En effet,P est orthogonale et donc P¡1=tP. Définition 1.2.6. Orientation d'un espace euclidien

On dit que deux bases B etB0 orthonormales d'un espace euclidien E définissent la même orientation lorsque la matrice de passage deB àB0 est une rotation.

La relation définir la même orientation est une relation d'équivalence sur l'ensemble des bases orthonormales deE.

Lorsqu'on a choisi une base orthonormale, on dit qu'on a orientéE. Toute base de même orientation est alors dite directe, toute autre est dite indirecte ou rétrograde.

(9)

1.3 Groupe O (2)

Définition 1.3.1. Groupe spécial orthogonal, rotation

L'ensembleSO(2)ouO+(2) =fA2 O(2); detA >0gest un sous-groupe deO(2)appelé groupe spécial orthogonal.

On appelle ses éléments les rotations.

L'ensemble O(2)n SO(2) est notéO¡(2).

Théorème 1.3.2. [mesure d'une rotation du plan]

L'application ': (R;+) ! (SO(2);)

7! R

R=

cos ¡sin sin cos

est un morphisme surjectif de groupes de noyau 2Z. L'unique réel modulo 2est appelé mesure de la rotation R.

Démonstration. Les formules de trigonométrie montrent que 'est un morphisme de noyau2Z.

Surjectivité : soitA=a bc dune rotation. Commea2+b2= 1, il existe2Rtel quea=cos etc=sin. De même,b=sinet d=cos2R. De plus,1 =detA=cos(+)soit ¡ [2].

Proposition 1.3.3. [écriture complexe d'une rotation du plan]

Siuetu0 sont deux vecteurs du plan d'affixes respectiveszetz0 et si2R, alors : u0=Ru,z0= eiz

On dit quez7!eiz est l'expression complexe de la rotation d'angle . Théorème 1.3.4. [les éléments deO¡(2)sont les réflexions]

SoitA2 M2(R). AlorsA2 O¡(2)si et seulement s'il existe 2[0;2[tel queA=

cos sin sin ¡cos

. Les éléments de O¡(2)sont les réflexions.

Démonstration. Soit S =10 0

¡1

, alors S2 O(2) et l'application O(2) ! O(2)

M 7! M S est une involution qui induit une bijection entreO+(2)etO¡(2). Toute matriceAdeO¡(2)s'écrit donc de façon unique sous la forme RS, ce qui est la forme cherchée.

Toute réflexion est de déterminant¡1.

Réciproquement, siA=

cos sin sin ¡cos

, alorsA2=I2ettrA= 0(=dimE1(A)¡dimE¡1(A)).

En résumé : automorphismes orthogonaux en dimension2

Spu sous espaces propres nature deu detu

? aucun rotation d'angle=/ 0 [] 1

f1g E1(u) =E IdE (rotation d'angle0 [2] 1 1g E¡1(u) =E ¡IdE(rotation d'angle[2]) 1 1;1g droitesE1(u)?E¡1(u) réflexion par rapport àE1(u) ¡1

2 Endomorphismes autoadjoints d'un espace euclidien

2.1 Endomorphismes et matrices symétriques

Définition 2.1.1. Endomorphisme autoadjoint

Un endomorphismeudeE est dit symétrique ou autoadjoint lorsque : 8x; y2E ;hu(x); yi=hx; u(y)i: Proposition 2.1.2. [matrice d'un endomorphisme autoadjoint]

SoientB unebase orthonorméede E etu2 L(E),uest symétrique ssi Mat(u;B) =tMat(u;B).

Endomorphismes autoadjoints d'un espace euclidien 9

Références