• Aucun résultat trouvé

G ´EOM ´ETRIE EUCLIDIENNE

Dans le document Notes du cours de g´eom´etrie (Page 24-52)

2.I. Espaces euclidiens, rappels

Nous rappelons dans la suite quelques notions de base sur les espaces euclidiens.

2.I.A. Produit scalaire. —

D´efinition 2.I.1. — SoitEun espace vectoriel r´eel. Unproduit scalairesurEest une forme bilin´eaire sym´etrique d´efinie surE, dont la forme quadratique associ´ee est d´efinie positive.

Si la forme quadratique est seulement positive, on parle d’unsemi-produitscalaire.

Nous notons souventhu, vipour le produit scalaire de deux vecteursu, vE. On notera,·ile produit scalaire en tant que application bilin´eaire sym´etrique.

D´efinition 2.I.2. — Unespace euclidien(E,h·,·i) est un espace vectorielEde dimension fi-nie surRmuni d’un produit scalaireh·,·i. Si la dimension deEest infinie, on parlera plus en g´en´eral d’espace pr´ehilbertiens r´eel s´epar´e. Lanormed’un vecteurud’un espace pr´ehilbertien r´eel s´epar´eE, not´eekukestkuk=√

hu, ui.

Pour un espace vectoriel r´eel muni d’un semi-produit r´eel, on parle d’espace pr´ehilbertiens r´eel. On parle dans ce cas de lasemi-normedeupour√

hu, ui.

Exemple 2.I.3(Produit scalaire canonique). — DansE =Rn, on d´efinit le produit sca-laire canonique par :

h(x1, . . . , xn),(y1, . . . , yn)i=x1y1+· · ·+xnyn.

Exemple 2.I.4. — SoitE= Mn(R) et munissonsEde la forme bilin´eaire sym´etrique : hA, Bi= tr(tAB),

pour touteA, BE. AlorsEest un espace euclidien, de dimensionn2.

Exemple 2.I.5. — Soit E l’espace des fonctions continues, d´efinies sur [−1,1], `a valeurs dansR, et munissonsEde la forme bilin´eaire sym´etrique :

hf1, f2i= Z1

1

f1(x)f2(x)dx

pour toutef , gE. AlorsEest un espace pr´ehilbertien r´eel s´epar´e, de dimension infinie.

Si on consid`ere la mˆeme forme bilin´eaire sym´etrique sur l’espace des fonctions int´egrables d´efinies sur [−1,1] `a valeurs dansR, on obtient un espace pr´ehilbertien r´eel qui n’est pas s´epar´e.

2.I.B. Orthogonalit´e, bases orthonorm´ees. — SoitEun espace pr´ehilbertien r´eel s´epar´e, muni du produit scalaireh·,·i.

2.I.B.1. Vecteurs orthogonaux. — Deux vecteursu, vdeEsontorthogonauxssihu, vi= 0.

Remarque 2.I.6. — SoituE. Sihu, wi=hv, wipour toutwE, alorsu=v. On a la mˆeme conclusion siwvarie dans une famille g´en´eratrice deE.

D´emonstration. — Sihuv, wi= 0 pour toutwE, alorsuvappartient `aE. MaisE= 0, car le produit scalaire est non d´eg´en´er´ee. Doncu=v. De mˆeme, sihuv, wi= 0 pour tout wdans une base deE, alorshuv, wi= 0 pour toutwE, ce qui prouve la remarque.

Remarque 2.I.7. — Soit (v1, . . . , v`) des vecteurs orthogonaux non nuls d’un espace eucli-dien. Alors (v1, . . . , v`) sont libres.

D´emonstration. — Soitλ1, . . . , λn∈Ret supposons que la combinaison lin´eaireλ1v1+· · ·+ λnvn s’annule. Prenant le produit scalaire entrevi et cette combinaison lin´eaire, nous ob-tenons l’annulation deλikvik2 puisquevivj sii,j. Commevi ,0 pour touti, nous en d´eduisons queλi = 0 pour touti, autrement dit que la famille en question est libre.

Le r´esultat suivant est appel´e th´eor`eme d’Al-Kashi, ou aussi th´eor`eme de Pythagore.

Proposition 2.I.8. — Soitu, vdeux vecteurs deE. Alors on a : ku+vk2=kuk2+kvk2+ 2hu, vi.

En particulier,ku+vk2=kuk2+kvk2si et seulement siuetvsont orthogonaux.

D´emonstration. — La preuve repose simplement sur la formuleϕ(u, v) = 1/2(q(u+v)−q(u)q(v)), pour la forme bilin´eaireϕassoci´ee `a une forme quadratiqueq. Ici, nous obtenons :

2hu, vi=ku+vk2− kuk2− kvk2,

ce qui impliqueku+vk2=kuk2+kvk2+2hu, vi. Clairement,ku+vk2=kuk2+kvk2ssi 2hu, vi= 0, i. e. ssiuv.

2.I.B.2. ´Ecart angulaire. — Dans un espace muni d’un produit scalaire, nous pouvons d´efinir l’angle entre deux vecteurs. A proprement parler, on peut d´efinir plutˆot ce qu’on appelle l’´ecart angulaire, qui est un angle d´efini au signe pr`es.

D´efinition 2.I.9. — Soitu, vdeux vecteurs non nuls deE. L’´ecart angulaireuvc∈[0, π] est d´efini par :

uvc= arccos hu, vi kukkvk

! , donc :

cos(cuv) = hu, vi kukkvk.

En utilisant cette d´efinition, la formule d’Al-Kashi devient : ku+vk2=kuk2+kvk2+ 2 cos(cuv).

Remarque 2.I.10. — Soituvdeux vecteurs de norme 1 deEetF= vect(u, v). Soitwun vecteur de norme 1 deF. Alors cos(uw)uc et cos(vw)vc sont les projections orthogonales de wsur les droites vect(u) et vect(v).

2.I.B.3. Bases orthogonales et orthonorm´ees. —

D´efinition 2.I.11. — Une familleB= (e1, e2, . . .) d’un espace pr´ehilbertien r´eel s´epar´e est orthogonalesieiejpour touti,j. Elle estorthonorm´eesi de pluskeik= 1 pour touti.

Proposition 2.I.12. — Une familleB= (e1, . . . , en)d’un espace euclidienEde dimensionnest une base orthonorm´ee ssihei, eji=δi,j. De plus, tout vecteurvEs’´ecrit :

v= X

i=1,...,n

hv, eiiei.

D´emonstration. — SiBest une base orthonorm´ee, nous avonshei, eji= 0 sii,jcar dans ce caseiej, ethei, eii=keik2= 1, donchei, eji=δi,j.

R´eciproquement, sihei, eji=δi,j, alorsBest une famille libre d’apr`es la Remarque 2.I.7.

De plus, nous avons l’orthogonalit´e entreei etejpouri,j, et la normalisation deei. Pour la formule, comparons hv, eji et le produit scalaire entre P

i=1,...,nhv, eiiei et ej. Puisquehei, eji=δi,j, nous obtenons dans les deux cashv, eji. Doncv=P

i=1,...,nhv, eiiei. Remarque 2.I.13. — SoitB= (e1, . . . , en) une base orthonorm´ee etB= (e1, . . . , en) sa base duale. Alors pour toutj,ej est l’application d´efinie parv7→ hv, eji.

D´emonstration. — Il suffit de montrer que, pour touti, j, on aej(ei) =hei, eji. Mais les deux expressions sont ´egales `aδi,j.

2.I.B.4. Matrices orthogonales. — Les matrices orthogonales sont celles qui expriment le passage entre deux bases orthonorm´ees.

D´efinition 2.I.14. — Une matrice M de Mn(R) est orthogonale si tMM = 1n. Ceci est

´equivalent `a ce queMsoit inversible, avecM1=tM, donc ´equivalent aussi `aMtM=1n. Remarque 2.I.15. — SoitBune base orthonorm´ee d’un espace euclidienE,P un matrice Mn(R) etC=BP. AlorsCest une base orthonorm´ee si et seulement siP est orthogonale.

D´emonstration. — Soit B = (e1, . . . , en) et C = (v1, . . . , vn) les deux bases et posons P = (pi,j)1i,jn, ainsi :

vj= X

j=1,...,n

pi,jei. On calcule alorshvi, vkipar :

hvj, vki=h X

i=1,...,n

pi,jei, X

k=1,...,n

pk,heki= X

i,k=1,...,n

pi,jpk,hhei, eki=

= X

i,k=1,...,n

pi,jpk,hδi,k= X

k=1,...,n

pk,jpk,h= (PtP)j,h.

On en d´eduit quePtP =1n (i.e., P est orthogonale) si et seulement siC est une famille orthonorm´ee (i.e.,Cest une base orthonorm´ee d’apr`es la proposition 2.I.12).

2.I.B.5. Algorithme de Gram-Schmidt. —

Th´eor`eme 2.I.16(Algorithme de Gram-Schmidt). — SoitB= (e1, . . . , en)une famille libre dansE. Alors il existe une famille orthonorm´eeC= (u1, . . . , un)deEtelle que, pour toutkn, on aitvect(e1, . . . , ek) = vect(u1, . . . , uk).

D´emonstration. — Pour commencer, posons : u1= 1

ke1ke1.

Nous construisonsuk par r´ecurrence, ayant suppos´e construits (u1, . . . , uk1) avec les pro-pri´et´es souhait´ees. De mani`ere similaire `a ce que nous faisions lors de la preuve du crit`ere de Sylvester, nous posons :

(4) u˜k=ek− X

j=1,...,k1

hek, ujiuj.

On calcule alorshui,u˜ki= 0 pour 1≤ik−1. En effet,hui, uji= 0 sii,j, donchui,u˜ki= hek, uii − hek, uiikuik2= 0 puisque lesui sont normalis´es `a 1 pouri= 1, . . . , k−1.

Donc ˜uk est orthogonale `a u1, . . . , uk1, et nous posons uk = 1/kukkuk. Remarquons que cela est bien pos´e car ˜uk , 0, puisqueuj ∈ vect(e1, . . . , ek1) si jk−1 donc ek est ind´ependant deu1, . . . , uk1, donc l’expression de ˜ukgarantit ˜uk,0.

Nous avons construit la famille (u1, . . . , uk) orthonorm´ee. Comme cette proc´edure est valide pour tout kn, nous avons la famille cherch´ee C. La famille C est libre, car la matrice qui exprime (u1, . . . , un) comme combinaison lin´eaire de (e1, . . . , en) est triangulaire sup´erieure, avec des 1 sur la diagonale, ce qui est clair d’apr`es l’expression (4), puisque ujLk1= vect(e1, . . . , ek1) pourjk−1.

De plus, nous avons vect(u1, . . . , uk) = vect(e1, . . . , ek1, uk) par hypoth`ese de r´ecurrence, et cet espace est ´egale `a vect(e1, . . . , ek1, ek) =Lk, puisqueuk s’´ecrit comme combinaison lin´eaire deeket deu1, . . . , uk1, i. e. dee1, . . . , ek1.

2.I.C. Sous espaces, projections et sym´etries. — Nous revenons sur les projections dans le cadre des espaces vectoriels quelconques, ensuite nous traitons le cas des projections et des sym´etries orthogonales. Nous noteronsV un espace vectoriel sur un corpsK. La lettre Esera r´eserv´ee `a un espace euclidien.

2.I.C.1. Endomorphismes diagonalisables `a deux valeurs propres. — SoitV un espace vecto-riel sur un corpsKet soitf un endomorphisme deV.

Th´eor`eme 2.I.17. — Soitλ,µ∈K. Les conditions suivantes sont ´equivalentes : i) on a(f −λidV)◦(f−µidV) = 0;

ii) on a une d´ecompositionV =UW, avecf|U=λidU etf|W =µidW.

On peut dire que f est diagonalisables, ses espaces propres ´etant U et W, donc ses valeurs propres sont λ et/ouµ, car un des deux espaces U,W pourrait ˆetre r´eduit `a 0, auquel casf est un multiple de l’identit´e (une homoth´etie).

D´emonstration. — Supposons que (fλidV)◦(f −µidV) = 0, et posons : U= ker(f −λidV), W= ker(f −µidV).

´Evidemment,U et W sont des sous espaces vectoriels deV, et nous avonsf|U =λidU et f|W =µidW.

Montrons queV =UW. D’abord, v´erifionsUW = 0. Soit doncvUW, i. e. soitv tel quef(v) =λvetf(v) =µv. On a (λµ)v= 0, doncv= 0 puisqueλ,µ.

Montrons donc que tout vecteurv de V s’´ecrit comme u+w, avecuU et wW. Puisqueλ,µnous pouvons poser :

u= 1

λµ(f(v)−µv), w= 1

µλ(f(v)−λv).

On calcule facilementv=u+w. Il suffit donc de montrer queuU etwW. Remarquons queu∈Im(f−µidV) et quew∈Im(f−λidV). Or l’hypoth`ese (f −λidV)◦(f−µidV) = 0 fait

que Im(f−µidV)⊂ker(f−λidV) =U, doncuU. De plus, on a (f−µidV)◦(f −λidV) = 0, car cette composition estf2−(µ+λ)f +λµidV = (f −λidV)◦(f −µidV) = 0 (autrement dit, (f −λidV) et (f −µidV) commutent). Donc Im(f −λidV)⊂ker(f−µidV) =W, etwW.

R´eciproquement, supposonsV =UWavecf|U=λidUetf|W =µidW. Soitvun vecteur deV et montrons (f −λidV)◦(f −µidV)(v) = 0. Nous pouvons ´ecrirev =u+w, pour un unique couple de vecteursuU etwW. On a (fµidV)(v) = (f −µidV)(u+w) = (fµidV)(u) carf|W =µidW doncf(w)−µw= 0. De nouveau, (f−λidV) et (f−µidV) commutent, donc :

(f −λidV)◦(f −µidV)(v) = (f −λidV)◦(f −µidV)(u) = (f −µidV)◦(f −λidV)(u) = 0, carf|U=λidUdoncf(u)−λu= 0. Ceci termine la d´emonstration.

2.I.C.2. Projection sur un sous espace parall`ele `a un suppl´ementaire. — SoitV un espace vec-toriel sur un corpsK.

D´efinition 2.I.18(Projection surU parall`ele `aW). — SoitU un sous espace deV et soit W un suppl´ementaire deU, i. e.V=UW. Un vecteurv deV s’´ecrit de mani`ere unique commeu+w, avecuU et wW. Alors laprojectionπsurU, parall`ele `aW est d´efinie par :

π(v) =u.

Proposition 2.I.19. — La projectionπest un endomorphisme deV.

D´emonstration. — Clairementπest une application deV dansV, et nous devons montrer qu’elle est lin´eaire. Soitv =λ1v1+λ2v2, avecviV et λi ∈R. Pouri= 1,2, il existe des vecteursui etwi tels queuiU,wiW, uniquement d´etermin´es, satisfaisant :

v1=u1+w1, v2=u2+w2.

Alorsv=u+wavecu=λ1u1+λ2u2etw=λ1w1+λ2w2etuU etwW. Donc : π(λ1v1+λ2v2) =π(v) =u=λ1u1+λ2u2=λ1π(v1) +λ2π(v2), ce qui prouve queπest lin´eaire.

Proposition 2.I.20(Caract´erisation des projections). — Soit f un endomorphisme de V. Les affirmations suivantes sont ´equivalentes :

i) f est une projection ;

ii) l’endomorphismef est idempotent, i. e.f2=f; iii) on aV=UW avecf|U= idU etf|W = 0.

Si ces conditions sont v´erifi´ees,f est la projection surU = Im(f)parall`ele `aW = ker(f).

D´emonstration. — Grˆace au Th´eor`eme 2.I.17, nous avons l’´equivalence entre ii) et iii). En effet, la condition ii) s’´ecritf(f −idV) = 0.

Montrons que i) implique iii). Soit doncf est une projection, disons une projection sur U parall`ele `aW, ainsiV =UW. Alors, pourvV, on ´ecrit de mani`ere uniquev=u+w, avecuUetwW, etf(v) =u. OrvVimpliquew= 0 doncf(v) =f(u) =u, etf|U= idU. Par contre,vW impliqueu= 0 doncf(v) =f(w) = 0, etf|W = 0. Nous avons montr´e iii).

R´eciproquement, supposant valide iii), nous avonsV =UW, avecf|U= idUetf|W = 0, et pourvV, on ´ecrit de mani`ere uniquev =u+w, avec uU et wW. On calcule f(v) =f(u+w) =upuisquef(w) = 0 etf(u) =u. Il en r´esulte quef est la projection surU parall`ele `aW, et nous avons i).

Si ces conditions sont v´erifi´ees, nous avonsV =UW, avecf|U= idU etf|W = 0. Nous avons vu quef est la projection surUparall`ele `aW, donc il suffit de montrer queU= Im(f) et W = ker(f). Clairement W ⊂ ker(f) car f|W = 0. Mais, pour tout vV, en ´ecrivant

v=u+wavecuUetwW, on af(v) =u. Alorsf(u) = 0 impliqueu= 0, donc ker(f)⊂W, et nous obtenons ker(f) =W. De mˆeme, U ⊂Im(f) carf|U = idU, etf(v) =u implique Im(f)⊂U doncU = Im(f).

2.I.C.3. Sous espaces euclidiens et projections orthogonales. — SoitEun espace pr´ehilbertien r´eel s´epar´e, muni du produit scalaireh·,·i.

Proposition 2.I.21. — SoitFun sous espace vectoriel deE. AlorsFest un espace pr´ehilbertien s´epar´e, muni du produit scalaire induit par restriction.

D´emonstration. — La restriction du produit scalaire `aF est bien s ˆur une forme bilin´eaire sym´etrique, positive carhv, vi ≥0 pour toutvE(en particulier pour toutvF) et en fait d´efinie positive, puisquehv, vi= 0 impliquev= 0 dansE, et en particulier dansF. Donc,F est un espace pr´ehilbertien s´epar´e r´eel.

LorsqueFest de dimension finie, d’apr`es la proposition suivante on a toujoursE=FF, et nous pouvons ´ecrire la formule de la projection orthogonaleπF.

D´efinition 2.I.22. — SoitF un sous espace deE, tel queE=FF. Laprojection orthogo-naleπFest d´efinie comme la projection surF, parall`ele `aF.

Th´eor`eme 2.I.23. — SoitFun sous espace de dimension finie d’un espace pr´ehilbertien s´epar´e.

Alors nous avonsE =FF. De plus, si(e1, . . . , en)est une base orthonorm´ee deF, alorsπF

s’´ecrit :

πF(v) = X

i=1,...,n

hv, eiiei.

D´emonstration. — SiF est de dimension finie, disons dim(F) =n, nous pouvons choisir une base orthonorm´ee (e1, . . . , en) deF(une telle base existe d’apr`es le chapitre 2.I.

L’application suivante est un endomorphisme deE: ξ:EE, v7→ X

i=1,...,n

hv, eiiei,

ce que l’on v´erifie imm´ediatement grˆace `a la lin´earit´e du produit scalaire en la premi`ere variable, une fois fix´ee la deuxi`eme.

Montrons queξest la projection orthogonale deEsurF, parall`ele `aF. Cela implique, bien entendu, queE=FF. Pour montrer queξest une projection, on peut v´erifier que ξ2=ξ, ce qui vient de la formule :

ξ2(v) =ξ(ξ(v)) = X

i=1,...,n

hξ(v), eiiei =

= X

i=1,...,n

h X

j=1,...,n

hv, ejiej, eiiei=

= X

i,j=1,...,n

hv, ejihej, eiiei=

= X

i,j=1,...,n

hv, ejiδi,jei = X

i=1,...,n

hv, eiiei=ξ(v).

Sivest un vecteur deE, ´evidemmentξ(v) appartient `aFdonc Im(ξ)⊂F. De plus,ξ(ei) =ei doncξ|F = idF, donc Im(f) =F. De plus, sivFalors ξ(v) = 0 carvei pour tout i.

Finalement, siv∈ker(ξ) on aP

i=1,...,nhv, eiiei = 0 donchv, eii= 0 pour toutipuisque lesei

sont libres, doncvFpuisque lesei engendrentF. On en obtient que ker(ξ) =F, donc ξest bien la projection surF, parall`ele `aF.

2.I.D. Projection orthogonale sur une droite. — Soit E un espace pr´ehilbertien r´eel s´epar´e, et soit 0,u un vecteur deE. La droiteL= vect(u) est form´ee par le vecteurs de la formeλu, o `uλvarie dansR.

La projection orthogonaleπLprend la forme : πL(v) =hv, ui

kuk2 u.

En coordonn´ees, siB= (e1, . . . , en) est une base orthonorm´ee d’un espace euclidienEet L est une droite engendr´ee par le vecteuru=y1e1+· · ·+ynen, alorsπLprend la forme :

πL(x1e1+· · ·+xnen) = Pn

j=1xjyj

Pn j=1y2j

n

X

i=1

yiei.

2.I.E. Projection orthogonale sur un hyperplan. — SoitE un espace euclidien, etHun hyperplan deE, autrement dit un sous espace vectoriel de codimension 1 dansE. AlorsH est d´efini par une ´equation donn´ee par une forme lin´eairefE:

H={vE|f(v) = 0}.

Supposons avoir fix´e une base orthonorm´eeBdeEet sa base dualeB. Soitf =a1e1 +

· · ·+anen. L’orthogonal deHest alors la droite engendr´ee par le vecteurnH = (a1e1+· · ·+ anen), que nous pouvons penser comme un vecteur normal deH.

H= vect(nH).

En effet, il suffit de montrer que :

nH=H, ce qui est clair puisque, siv=x1e1+· · ·+xnen, on a :

hnH, vi=a1x1+· · ·+anxn=f(v), doncvHssif(v) = 0 ssivnH.

La projection orthogonaleπHprend la forme : πH(x1e1+· · ·+xnen) = X

i=1,...,n







1− ai

Pn j=1a2j





 xiei.

2.I.E.1. Sym´etrie relative `a un sous espace, parall`ele `a un suppl´ementaire. — SoitVun espace vectoriel sur un corpsK.

D´efinition 2.I.24(Sym´etrie relative `aUparall`ele `aW). — Soit U un sous espace de V et soitW un suppl´ementaire deU, i. e.V =UW. Un vecteurv deV s’´ecrit de mani`ere unique commeu+w, avecuU etwW. Lasym´etrieσpar rapport `aU et parall`ele `aW est d´efinie par par :

σ(v) =uw.

On dira aussi queUest l’axedeσ.

Nous avons que les sym´etries sont des applications involutives, ce qui par d´efinition veut dire que, appliqu´ees deux fois, donnent l’identit´e.

Proposition 2.I.25. — La sym´etrieσ par rapport `a un sous espace est un endomorphisme in-volutif deV.

D´emonstration. — Bien entendu,σ est une application deV dansV. Le mˆeme argument utilis´e pour montrer la Proposition 2.I.19 peut ˆetre utilis´e pour prouver queσ est lin´eaire.

De plus, on montre directement de la formuleσ(u) =u0u00 queσ(σ(u)) =u0+u00=u, donc :

σ2= idV, doncσ=σ1, ce qui dit queσest involutive.

Proposition 2.I.26(Caract´erisation des sym´etries). — Soitf un endomorphisme deV. Le affirmations suivantes sont ´equivalentes :

i) f est une sym´etrie ;

ii) f est une involution, i. e.f2= idV;

iii) on aV=UW avecf|U= idU etf|W =−idW.

Si ces conditions sont v´erifi´ees, alorsf est la sym´etrie d’axeker(f−idV), parall`ele `aker(f+idV).

D´emonstration. — L’´equivalente entre ii) et iii) est claire d’apr`es le Th´eor`eme 2.I.17, puisque la condition ii) s’´ecritf2−idV = 0, ce qui ´equivaut `a (f+ idV)◦(f −idV) = 0.

La proposition pr´ec´edente montre que i) implique ii). De plus, si iii) est valide, alors V =UW, ainsi un vecteur udeV s’´ecrit uniquement commev =u+wavecuU et wW. Nous avons alorsf(v) =f(u) +f(w) =uwpuisquef|U = idUetf|W =−idW, donc f est la sym´etrie par rapport `aU, parall`ele `aW, et nous avons i).

Pour montrer le dernier ´enonc´e, remarquons que si uU alors f(u) = u donc U ⊂ ker(f −idV). Pour l’autre inclusion, pour toutvV, nous ´ecrivons uniquementv comme u+wavecuU etwW, etf(v) =uw. Doncv∈ker(f −idV) impliquef(v) =v, ce qui entraˆıneu+w=uwdoncw= 0. AinsivU et ker(f −idV)⊂U.

De mˆeme, siwW alors f(w) = −w donc W ⊂ ker(f + idV). Pour l’autre inclusion, soit vV sous la forme u+w avec uU et wW, ainsi f(v) = uw, et supposons v∈ker(f + idV). Alorsf(v) =−v, ce qui impliqueuw=−uwdoncu= 0. AinsivW et ker(f+ idV)⊂W.

2.I.E.2. Sym´etries orthogonales. — Soit maintenantEun espace euclidien, muni du produit scalaireh·,·i. ´Etant donn´e un sous espaceFdeE, nous avonsE=FF.

D´efinition 2.I.27. — Lasym´etrie orthogonaleσFest d´efinie comme la sym´etrie par rapport

`aF, parall`ele `aF.

Proposition 2.I.28. — SoitF un sous espace de dimensionkdeE, et soit(e1, . . . , en)une base orthonorm´ee deEaveceiFssiik. Alors la sym´etrie orthogonaleσF s’´ecrit :

σF(v) = X

i=1,...,k

hv, eiiei− X

i=k+1,...,n

hv, eiiei. D´emonstration. — Montrons que :

σF=πFπF.

En effet, si uF, on a σF(u) = u=πF(u) = πFπF(u). Si wF, on a σF(w) = −w=

πF(w) =πFπF(w). PuisqueF=UV, etσF co¨ıncide avecπFπFsurUet surW, on aσF=πFπF.

D’apr`es le Th´eor`eme 2.I.23 nous avonsπF(v) =P

i=1,...,khv, eiiei. De mani`ere analogue, on obtientπF(v) =P

i=k+1,...,nhv, eiiei. Donc : σF(v) =πF(v)−πF(v) = X

i=1,...,k

hv, eiiei− X

i=k+1,...,n

hv, eiiei.

D´efinition 2.I.29. — On parle der´eflexion orthogonalesiF est un hyperplan. On parle de renversementsiFa codimension 2.

2.II. Automorphismes orthogonaux FixonsEun espace euclidien.

2.II.A. Isom´etries vectorielles. —

2.II.A.1. Lin´earit´e des isom´etries vectorielles. —

D´efinition 2.II.1. — SoitF un espace euclidien. Uneisom´etrie vectorielleest une applica-tionf :EFavecf(0) = 0 et telle que, pour toutu, vE, on aitkuvkE=kf(u)−f(v)kF. Proposition 2.II.2. — Une isom´etrie vectorielle est un isomorphisme lin´eaire sur son image et respecte le produit scalaire.

D´emonstration. — Pour commencer, on af est injective, car siu, vEsatisfontf(u) =f(v) alorskf(u)−f(v)k=kuvk= 0 doncu=v. Aussi,f respecte la norme car, pour toutuE, on akf(u)k=kf(u)−f(0)k=kuk.

Montrons quef respecte le produit scalaire. On a, pour toutu, vE: hf(u), f(v)i=1

2(kf(u)k2+kf(v)k2− kf(u)−f(v)k2) =1

2(kuk2+kvk2− kuvk2) =hu, vi. Montrons quef est lin´eaire. Fixons B= (u1, . . . , un) base orthonorm´ee deE et posons, pour touti∈~1, n,vi =f(ui). Commef respecte le produit scalair, la famille (v1, . . . , vn) est orthonorm´ee, donc libre, dansF. Pour montrer quef est lin´eaire il suffit de v´erifier que, pour tout (x1, . . . , xn)∈Rn, on a :

f(x1u1+· · ·+xnun) =x1v1+· · ·+xnvn.

Soitu=x1u1+· · ·+xnunetv=x1v1+· · ·+xnvnet montronsf(u) =v. Comme (u1, . . . , un) et (v1, . . . , vn) sont orthonorm´ees, on a :

kuk2=x12+. . .+xn2=kvk2.

Ensuite, on a montr´e quef respecte la norme et le produit scalaire donc on calcule : kf(u)−vk2=kf(u)k2+kvk2−2hf(u), vi=

=kf(u)k2+kvk2−2 Xn

i=1

xihf(u), vii=

=kuk2+kvk2−2 Xn

i=1

xihu, uii=

= 2 Xn

i=1

x2i −2 Xn

i,j=1

xixjhuj, uii=

= 2 Xn

i=1

x2i −2 Xn

i,j=1

xixjδi,j= 0.

Nous avons montr´e quef est une application lin´eaire injective, c’est donc un isomor-phisme sur son image.

2.II.A.2. Automorphismes orthogonaux. —

D´efinition 2.II.3. — Un endomorphisme deEqui est une isom´etrie vectorielle est appel´e unautomorphisme orthogonal.

Remarque 2.II.4. — Les valeurs propres d’un automorphisme orthogonal ont module 1.

D´emonstration. — Fixons une base orthonorm´eeBde E. Soitλ∈Cune valeur propre def automorphisme orthogonal et soitZ∈Cn\ {0}tel queMZ=λZ, o `uM= MatB(f). On a :

kZk2=hZ, Zi=hMZ, MZi=hλZ, λZi=|λ|2kZk2. Donc|λ|= 1.

2.II.B. Automorphismes orthogonaux et matrices orthogonales. —

Th´eor`eme 2.II.5. — Soit f un endomorphisme de E. Alors les conditions suivantes sont

´equivalentes :

i) f est orthogonal ;

ii) pour toute base orthonorm´eeBdeE, on a quef(B)est une base orthonorm´ee ; iii) il existe une base orthonorm´eeBdeEtelle quef(B)est une base orthonorm´ee ;

iv) f est isom´etrique.

D´emonstration. — Montrons que i) implique ii), donc soitf est orthogonal et soit B = (e1, . . . , en) une base orthonorm´ee deE. Nous avons, pour toutu, vE,hf(u), f(v)i=hu, vi, en particulierhf(ei), f(ej)i=hei, ejidoncf(B) est une famille orthonorm´ee denvecteurs, donc une base orthonorm´ee.

Il est ´evident que ii) implique iii), car nous avons prouv´e queEadmet une base ortho-gonale.

Pour voir que iii) implique iv), nous consid´erons une base orthonorm´eeB= (e1, . . . , en) telle quef(B) est orthonorm´ee, et nous calculonskf(v)ken coordonn´ees. Nous avonsv= x1e1+· · ·+xnen, pour un certain vecteur colonneX=t(x1, . . . , xn). CommeBest orthonorm´ee, on akvk2 =x21+· · ·+xn2. De plus,f(v) =x1f(e1) +· · ·+xnf(en) donckf(v)k2=x12+· · ·+x2n puisquef(B) = (f(e1), . . . , f(en)) est une base orthonorm´ee. Doncf est une isom´etrie.

Enfin, montrons que iv) implique i), i. e. qu’un endomorphisme isom´etrique est ortho-gonal. ´Etant donn´esu, vE, on sait :

hu, vi=1 2

ku+vk2− kuk2− kvk2 ,

et de mˆemehf(u), f(v)i= 1/2(kf(u+v)k2− kf(u)k2− kf(v)k2). Donc sikf(w)k=kwkpour tout wE, les trois termes deku+vk2− kuk2− kvk2co¨ıncident un par un avec les trois termes de kf(u+v)k2− kf(u)k2− kf(v)k2, donchu, vi=hf(u), f(v)i.

2.II.C. Orbites du groupe orthogonal. —

Remarque 2.II.6. — Les orbites de SO(E) sont les sph`eres constitu´ees des vecteurs de normer, pourr∈[0,+∞[.

D´emonstration. — SoituE. Commef pr´eserve la norme, sikuk=ralorskf(u)k=rdonc l’orbite deu est contenue dans la sph`ere de centre 0 et rayonr. Aussi, siv appartient `a cette sph`ere, on peut compl´eterupuisv `a deux bases orthonorm´ees deE, (u, u2, . . . , un) et (v, v2, . . . , vn), puis envoyerusurvetui survipour se rendre compte quevest dans l’orbite deu.

Remarque 2.II.7. — Soitkn. Le groupe SO(E) op`ere transitivement sur l’ensemble des sous espaces deEde dimensionk.

D´emonstration. — SoitFetF0deux sous espaces de dimensionkdeE. On choisit des bases orthonorm´ees (e1, . . . , en) et (e01, . . . , e0n) deE de sorte quee1, . . . , ekF ete10, . . . , ek0F0 puis on d´efinitf parf(ei) =e0i. On af ∈O(E), et quitte `a remplacere10 pare01, on peut obtenir f ∈SO(E). En tout cas,f(F) =F0.

Lemme 2.II.8. — SoitEunK-espace vectoriel,f , g∈GL(E)etF= Fix(g). AlorsFix(f gf1) = f(F).

D´emonstration. — SoituEetv =f1(u) de sorte queu=f(v). On auf(F) ssivF.

Dans ce cas on trouvef gf1(f(v)) =f(g(v)) =f(v) i.e.u∈Fix(f gf1). Et r´eciproquement sif gf1(f(v)) =f(v) alorsg(v) =vdoncv∈Fix(g) etuf(F).

Lemme 2.II.9. — SoitEunK-espace vectoriel de dimension finie. Sif ∈GL(E)laisse fixe toute droite,f est une homoth´etie.

D´emonstration. — SoitB= (e1, . . . , en) une base deE. Sif laisse fixe toute droite, pour tout i∈~1, non af(ei) =λei, pour certains scalairsλ1, . . . , λn∈K. Mais il existeλ∈K tel que f(e1+· · ·+en) =λ(e1+· · ·+en). Doncλ(e1+· · ·+en) =λ1e1+· · ·+λnen, ainsiλi=λpour tout i∈~1, n. Ainsif est une homoth´etie.

Interlude : orientation. — Soit E unR-espace vectoriel de dimension 0< n <∞. Etant donn´ee deux basesBetB0 deE, leur matrice de transitionP a d´eterminant det(P) qui est positif ou n´egatif, strictement.

D´efinition 2.II.10. — On dit queBetB0ontmˆeme orientationsi det(P)>0, ouorientations oppos´eessi det(P)<0.

Le fait d’avoir mˆeme orientation est une relation d’´equivalence sur l’ensemble des bases deE. UneorientationsurEest une classe d’´equivalence cette relation d’´equivalence. On dit queEest orient´e si on fixe une orientation surE. Une base deEorient´e estpositivesi elle est dans la classe d’´equivalence fix´ee par l’orientation, autrement elle estn´egative.

D´efinition 2.II.11. — Soit B une base de E. On dit que f ∈ GL(E) est direct si det(MatB(f))>0,indirectsinon.

SiB= (e1, . . . , en) etB0= (e01, . . . , e0n) est une autre base deE, l’automorphismef d´efini par f(ei) =e0i est direct si et seulement siB0etBont mˆeme orientation.

2.II.D. Automorphismes orthogonaux du plan. — Dans cette section, E est un espace euclidien de dimension 2.

2.II.D.1. Matrices orthogonales de taille 2. — ´Etudions les matrices orthogonales de taille 2, donc les automorphismes orthogonaux deE.

2.II.D.1. Matrices orthogonales de taille 2. — ´Etudions les matrices orthogonales de taille 2, donc les automorphismes orthogonaux deE.

Dans le document Notes du cours de g´eom´etrie (Page 24-52)

Documents relatifs