2.I. Espaces euclidiens, rappels
Nous rappelons dans la suite quelques notions de base sur les espaces euclidiens.
2.I.A. Produit scalaire. —
D´efinition 2.I.1. — SoitEun espace vectoriel r´eel. Unproduit scalairesurEest une forme bilin´eaire sym´etrique d´efinie surE, dont la forme quadratique associ´ee est d´efinie positive.
Si la forme quadratique est seulement positive, on parle d’unsemi-produitscalaire.
Nous notons souventhu, vipour le produit scalaire de deux vecteursu, v∈E. On notera h·,·ile produit scalaire en tant que application bilin´eaire sym´etrique.
D´efinition 2.I.2. — Unespace euclidien(E,h·,·i) est un espace vectorielEde dimension fi-nie surRmuni d’un produit scalaireh·,·i. Si la dimension deEest infinie, on parlera plus en g´en´eral d’espace pr´ehilbertiens r´eel s´epar´e. Lanormed’un vecteurud’un espace pr´ehilbertien r´eel s´epar´eE, not´eekukestkuk=√
hu, ui.
Pour un espace vectoriel r´eel muni d’un semi-produit r´eel, on parle d’espace pr´ehilbertiens r´eel. On parle dans ce cas de lasemi-normedeupour√
hu, ui.
Exemple 2.I.3(Produit scalaire canonique). — DansE =Rn, on d´efinit le produit sca-laire canonique par :
h(x1, . . . , xn),(y1, . . . , yn)i=x1y1+· · ·+xnyn.
Exemple 2.I.4. — SoitE= Mn(R) et munissonsEde la forme bilin´eaire sym´etrique : hA, Bi= tr(tAB),
pour touteA, B∈E. AlorsEest un espace euclidien, de dimensionn2.
Exemple 2.I.5. — Soit E l’espace des fonctions continues, d´efinies sur [−1,1], `a valeurs dansR, et munissonsEde la forme bilin´eaire sym´etrique :
hf1, f2i= Z1
−1
f1(x)f2(x)dx
pour toutef , g∈E. AlorsEest un espace pr´ehilbertien r´eel s´epar´e, de dimension infinie.
Si on consid`ere la mˆeme forme bilin´eaire sym´etrique sur l’espace des fonctions int´egrables d´efinies sur [−1,1] `a valeurs dansR, on obtient un espace pr´ehilbertien r´eel qui n’est pas s´epar´e.
2.I.B. Orthogonalit´e, bases orthonorm´ees. — SoitEun espace pr´ehilbertien r´eel s´epar´e, muni du produit scalaireh·,·i.
2.I.B.1. Vecteurs orthogonaux. — Deux vecteursu, vdeEsontorthogonauxssihu, vi= 0.
Remarque 2.I.6. — Soitu∈E. Sihu, wi=hv, wipour toutw∈E, alorsu=v. On a la mˆeme conclusion siwvarie dans une famille g´en´eratrice deE.
D´emonstration. — Sihu−v, wi= 0 pour toutw∈E, alorsu−vappartient `aE⊥. MaisE⊥= 0, car le produit scalaire est non d´eg´en´er´ee. Doncu=v. De mˆeme, sihu−v, wi= 0 pour tout wdans une base deE, alorshu−v, wi= 0 pour toutw∈E, ce qui prouve la remarque.
Remarque 2.I.7. — Soit (v1, . . . , v`) des vecteurs orthogonaux non nuls d’un espace eucli-dien. Alors (v1, . . . , v`) sont libres.
D´emonstration. — Soitλ1, . . . , λn∈Ret supposons que la combinaison lin´eaireλ1v1+· · ·+ λnvn s’annule. Prenant le produit scalaire entrevi et cette combinaison lin´eaire, nous ob-tenons l’annulation deλikvik2 puisquevi ⊥vj sii,j. Commevi ,0 pour touti, nous en d´eduisons queλi = 0 pour touti, autrement dit que la famille en question est libre.
Le r´esultat suivant est appel´e th´eor`eme d’Al-Kashi, ou aussi th´eor`eme de Pythagore.
Proposition 2.I.8. — Soitu, vdeux vecteurs deE. Alors on a : ku+vk2=kuk2+kvk2+ 2hu, vi.
En particulier,ku+vk2=kuk2+kvk2si et seulement siuetvsont orthogonaux.
D´emonstration. — La preuve repose simplement sur la formuleϕ(u, v) = 1/2(q(u+v)−q(u)− q(v)), pour la forme bilin´eaireϕassoci´ee `a une forme quadratiqueq. Ici, nous obtenons :
2hu, vi=ku+vk2− kuk2− kvk2,
ce qui impliqueku+vk2=kuk2+kvk2+2hu, vi. Clairement,ku+vk2=kuk2+kvk2ssi 2hu, vi= 0, i. e. ssiu⊥v.
2.I.B.2. ´Ecart angulaire. — Dans un espace muni d’un produit scalaire, nous pouvons d´efinir l’angle entre deux vecteurs. A proprement parler, on peut d´efinir plutˆot ce qu’on appelle l’´ecart angulaire, qui est un angle d´efini au signe pr`es.
D´efinition 2.I.9. — Soitu, vdeux vecteurs non nuls deE. L’´ecart angulaireuvc∈[0, π] est d´efini par :
uvc= arccos hu, vi kukkvk
! , donc :
cos(cuv) = hu, vi kukkvk.
En utilisant cette d´efinition, la formule d’Al-Kashi devient : ku+vk2=kuk2+kvk2+ 2 cos(cuv).
Remarque 2.I.10. — Soitu⊥vdeux vecteurs de norme 1 deEetF= vect(u, v). Soitwun vecteur de norme 1 deF. Alors cos(uw)uc et cos(vw)vc sont les projections orthogonales de wsur les droites vect(u) et vect(v).
2.I.B.3. Bases orthogonales et orthonorm´ees. —
D´efinition 2.I.11. — Une familleB= (e1, e2, . . .) d’un espace pr´ehilbertien r´eel s´epar´e est orthogonalesiei⊥ejpour touti,j. Elle estorthonorm´eesi de pluskeik= 1 pour touti.
Proposition 2.I.12. — Une familleB= (e1, . . . , en)d’un espace euclidienEde dimensionnest une base orthonorm´ee ssihei, eji=δi,j. De plus, tout vecteurv∈Es’´ecrit :
v= X
i=1,...,n
hv, eiiei.
D´emonstration. — SiBest une base orthonorm´ee, nous avonshei, eji= 0 sii,jcar dans ce casei⊥ej, ethei, eii=keik2= 1, donchei, eji=δi,j.
R´eciproquement, sihei, eji=δi,j, alorsBest une famille libre d’apr`es la Remarque 2.I.7.
De plus, nous avons l’orthogonalit´e entreei etejpouri,j, et la normalisation deei. Pour la formule, comparons hv, eji et le produit scalaire entre P
i=1,...,nhv, eiiei et ej. Puisquehei, eji=δi,j, nous obtenons dans les deux cashv, eji. Doncv=P
i=1,...,nhv, eiiei. Remarque 2.I.13. — SoitB= (e1, . . . , en) une base orthonorm´ee etB∨= (e1∨, . . . , e∨n) sa base duale. Alors pour toutj,e∨j est l’application d´efinie parv7→ hv, eji.
D´emonstration. — Il suffit de montrer que, pour touti, j, on ae∨j(ei) =hei, eji. Mais les deux expressions sont ´egales `aδi,j.
2.I.B.4. Matrices orthogonales. — Les matrices orthogonales sont celles qui expriment le passage entre deux bases orthonorm´ees.
D´efinition 2.I.14. — Une matrice M de Mn(R) est orthogonale si tMM = 1n. Ceci est
´equivalent `a ce queMsoit inversible, avecM−1=tM, donc ´equivalent aussi `aMtM=1n. Remarque 2.I.15. — SoitBune base orthonorm´ee d’un espace euclidienE,P un matrice Mn(R) etC=BP. AlorsCest une base orthonorm´ee si et seulement siP est orthogonale.
D´emonstration. — Soit B = (e1, . . . , en) et C = (v1, . . . , vn) les deux bases et posons P = (pi,j)1≤i,j≤n, ainsi :
vj= X
j=1,...,n
pi,jei. On calcule alorshvi, vkipar :
hvj, vki=h X
i=1,...,n
pi,jei, X
k=1,...,n
pk,heki= X
i,k=1,...,n
pi,jpk,hhei, eki=
= X
i,k=1,...,n
pi,jpk,hδi,k= X
k=1,...,n
pk,jpk,h= (PtP)j,h.
On en d´eduit quePtP =1n (i.e., P est orthogonale) si et seulement siC est une famille orthonorm´ee (i.e.,Cest une base orthonorm´ee d’apr`es la proposition 2.I.12).
2.I.B.5. Algorithme de Gram-Schmidt. —
Th´eor`eme 2.I.16(Algorithme de Gram-Schmidt). — SoitB= (e1, . . . , en)une famille libre dansE. Alors il existe une famille orthonorm´eeC= (u1, . . . , un)deEtelle que, pour toutk≤n, on aitvect(e1, . . . , ek) = vect(u1, . . . , uk).
D´emonstration. — Pour commencer, posons : u1= 1
ke1ke1.
Nous construisonsuk par r´ecurrence, ayant suppos´e construits (u1, . . . , uk−1) avec les pro-pri´et´es souhait´ees. De mani`ere similaire `a ce que nous faisions lors de la preuve du crit`ere de Sylvester, nous posons :
(4) u˜k=ek− X
j=1,...,k−1
hek, ujiuj.
On calcule alorshui,u˜ki= 0 pour 1≤i≤k−1. En effet,hui, uji= 0 sii,j, donchui,u˜ki= hek, uii − hek, uiikuik2= 0 puisque lesui sont normalis´es `a 1 pouri= 1, . . . , k−1.
Donc ˜uk est orthogonale `a u1, . . . , uk−1, et nous posons uk = 1/kukkuk. Remarquons que cela est bien pos´e car ˜uk , 0, puisqueuj ∈ vect(e1, . . . , ek−1) si j ≤k−1 donc ek est ind´ependant deu1, . . . , uk−1, donc l’expression de ˜ukgarantit ˜uk,0.
Nous avons construit la famille (u1, . . . , uk) orthonorm´ee. Comme cette proc´edure est valide pour tout k ≤ n, nous avons la famille cherch´ee C. La famille C est libre, car la matrice qui exprime (u1, . . . , un) comme combinaison lin´eaire de (e1, . . . , en) est triangulaire sup´erieure, avec des 1 sur la diagonale, ce qui est clair d’apr`es l’expression (4), puisque uj∈Lk−1= vect(e1, . . . , ek−1) pourj≤k−1.
De plus, nous avons vect(u1, . . . , uk) = vect(e1, . . . , ek−1, uk) par hypoth`ese de r´ecurrence, et cet espace est ´egale `a vect(e1, . . . , ek−1, ek) =Lk, puisqueuk s’´ecrit comme combinaison lin´eaire deeket deu1, . . . , uk−1, i. e. dee1, . . . , ek−1.
2.I.C. Sous espaces, projections et sym´etries. — Nous revenons sur les projections dans le cadre des espaces vectoriels quelconques, ensuite nous traitons le cas des projections et des sym´etries orthogonales. Nous noteronsV un espace vectoriel sur un corpsK. La lettre Esera r´eserv´ee `a un espace euclidien.
2.I.C.1. Endomorphismes diagonalisables `a deux valeurs propres. — SoitV un espace vecto-riel sur un corpsKet soitf un endomorphisme deV.
Th´eor`eme 2.I.17. — Soitλ,µ∈K. Les conditions suivantes sont ´equivalentes : i) on a(f −λidV)◦(f−µidV) = 0;
ii) on a une d´ecompositionV =U⊕W, avecf|U=λidU etf|W =µidW.
On peut dire que f est diagonalisables, ses espaces propres ´etant U et W, donc ses valeurs propres sont λ et/ouµ, car un des deux espaces U,W pourrait ˆetre r´eduit `a 0, auquel casf est un multiple de l’identit´e (une homoth´etie).
D´emonstration. — Supposons que (f −λidV)◦(f −µidV) = 0, et posons : U= ker(f −λidV), W= ker(f −µidV).
´Evidemment,U et W sont des sous espaces vectoriels deV, et nous avonsf|U =λidU et f|W =µidW.
Montrons queV =U⊕W. D’abord, v´erifionsU∩W = 0. Soit doncv∈U∩W, i. e. soitv tel quef(v) =λvetf(v) =µv. On a (λ−µ)v= 0, doncv= 0 puisqueλ,µ.
Montrons donc que tout vecteurv de V s’´ecrit comme u+w, avecu ∈ U et w∈ W. Puisqueλ,µnous pouvons poser :
u= 1
λ−µ(f(v)−µv), w= 1
µ−λ(f(v)−λv).
On calcule facilementv=u+w. Il suffit donc de montrer queu∈U etw∈W. Remarquons queu∈Im(f−µidV) et quew∈Im(f−λidV). Or l’hypoth`ese (f −λidV)◦(f−µidV) = 0 fait
que Im(f−µidV)⊂ker(f−λidV) =U, doncu∈U. De plus, on a (f−µidV)◦(f −λidV) = 0, car cette composition estf2−(µ+λ)f +λµidV = (f −λidV)◦(f −µidV) = 0 (autrement dit, (f −λidV) et (f −µidV) commutent). Donc Im(f −λidV)⊂ker(f−µidV) =W, etw∈W.
R´eciproquement, supposonsV =U⊕Wavecf|U=λidUetf|W =µidW. Soitvun vecteur deV et montrons (f −λidV)◦(f −µidV)(v) = 0. Nous pouvons ´ecrirev =u+w, pour un unique couple de vecteursu∈U etw∈W. On a (f −µidV)(v) = (f −µidV)(u+w) = (f − µidV)(u) carf|W =µidW doncf(w)−µw= 0. De nouveau, (f−λidV) et (f−µidV) commutent, donc :
(f −λidV)◦(f −µidV)(v) = (f −λidV)◦(f −µidV)(u) = (f −µidV)◦(f −λidV)(u) = 0, carf|U=λidUdoncf(u)−λu= 0. Ceci termine la d´emonstration.
2.I.C.2. Projection sur un sous espace parall`ele `a un suppl´ementaire. — SoitV un espace vec-toriel sur un corpsK.
D´efinition 2.I.18(Projection surU parall`ele `aW). — SoitU un sous espace deV et soit W un suppl´ementaire deU, i. e.V=U⊕W. Un vecteurv deV s’´ecrit de mani`ere unique commeu+w, avecu∈U et w∈W. Alors laprojectionπsurU, parall`ele `aW est d´efinie par :
π(v) =u.
Proposition 2.I.19. — La projectionπest un endomorphisme deV.
D´emonstration. — Clairementπest une application deV dansV, et nous devons montrer qu’elle est lin´eaire. Soitv =λ1v1+λ2v2, avecvi ∈V et λi ∈R. Pouri= 1,2, il existe des vecteursui etwi tels queui ∈U,wi∈W, uniquement d´etermin´es, satisfaisant :
v1=u1+w1, v2=u2+w2.
Alorsv=u+wavecu=λ1u1+λ2u2etw=λ1w1+λ2w2etu∈U etw∈W. Donc : π(λ1v1+λ2v2) =π(v) =u=λ1u1+λ2u2=λ1π(v1) +λ2π(v2), ce qui prouve queπest lin´eaire.
Proposition 2.I.20(Caract´erisation des projections). — Soit f un endomorphisme de V. Les affirmations suivantes sont ´equivalentes :
i) f est une projection ;
ii) l’endomorphismef est idempotent, i. e.f2=f; iii) on aV=U⊕W avecf|U= idU etf|W = 0.
Si ces conditions sont v´erifi´ees,f est la projection surU = Im(f)parall`ele `aW = ker(f).
D´emonstration. — Grˆace au Th´eor`eme 2.I.17, nous avons l’´equivalence entre ii) et iii). En effet, la condition ii) s’´ecritf(f −idV) = 0.
Montrons que i) implique iii). Soit doncf est une projection, disons une projection sur U parall`ele `aW, ainsiV =U⊕W. Alors, pourv∈V, on ´ecrit de mani`ere uniquev=u+w, avecu∈Uetw∈W, etf(v) =u. Orv∈Vimpliquew= 0 doncf(v) =f(u) =u, etf|U= idU. Par contre,v∈W impliqueu= 0 doncf(v) =f(w) = 0, etf|W = 0. Nous avons montr´e iii).
R´eciproquement, supposant valide iii), nous avonsV =U⊕W, avecf|U= idUetf|W = 0, et pourv ∈ V, on ´ecrit de mani`ere uniquev =u+w, avec u ∈U et w∈ W. On calcule f(v) =f(u+w) =upuisquef(w) = 0 etf(u) =u. Il en r´esulte quef est la projection surU parall`ele `aW, et nous avons i).
Si ces conditions sont v´erifi´ees, nous avonsV =U⊕W, avecf|U= idU etf|W = 0. Nous avons vu quef est la projection surUparall`ele `aW, donc il suffit de montrer queU= Im(f) et W = ker(f). Clairement W ⊂ ker(f) car f|W = 0. Mais, pour tout v ∈ V, en ´ecrivant
v=u+wavecu∈Uetw∈W, on af(v) =u. Alorsf(u) = 0 impliqueu= 0, donc ker(f)⊂W, et nous obtenons ker(f) =W. De mˆeme, U ⊂Im(f) carf|U = idU, etf(v) =u implique Im(f)⊂U doncU = Im(f).
2.I.C.3. Sous espaces euclidiens et projections orthogonales. — SoitEun espace pr´ehilbertien r´eel s´epar´e, muni du produit scalaireh·,·i.
Proposition 2.I.21. — SoitFun sous espace vectoriel deE. AlorsFest un espace pr´ehilbertien s´epar´e, muni du produit scalaire induit par restriction.
D´emonstration. — La restriction du produit scalaire `aF est bien s ˆur une forme bilin´eaire sym´etrique, positive carhv, vi ≥0 pour toutv∈E(en particulier pour toutv∈F) et en fait d´efinie positive, puisquehv, vi= 0 impliquev= 0 dansE, et en particulier dansF. Donc,F est un espace pr´ehilbertien s´epar´e r´eel.
LorsqueFest de dimension finie, d’apr`es la proposition suivante on a toujoursE=F⊕ F⊥, et nous pouvons ´ecrire la formule de la projection orthogonaleπF.
D´efinition 2.I.22. — SoitF un sous espace deE, tel queE=F⊕F⊥. Laprojection orthogo-naleπFest d´efinie comme la projection surF, parall`ele `aF⊥.
Th´eor`eme 2.I.23. — SoitFun sous espace de dimension finie d’un espace pr´ehilbertien s´epar´e.
Alors nous avonsE =F⊕F⊥. De plus, si(e1, . . . , en)est une base orthonorm´ee deF, alorsπF
s’´ecrit :
πF(v) = X
i=1,...,n
hv, eiiei.
D´emonstration. — SiF est de dimension finie, disons dim(F) =n, nous pouvons choisir une base orthonorm´ee (e1, . . . , en) deF(une telle base existe d’apr`es le chapitre 2.I.
L’application suivante est un endomorphisme deE: ξ:E→E, v7→ X
i=1,...,n
hv, eiiei,
ce que l’on v´erifie imm´ediatement grˆace `a la lin´earit´e du produit scalaire en la premi`ere variable, une fois fix´ee la deuxi`eme.
Montrons queξest la projection orthogonale deEsurF, parall`ele `aF⊥. Cela implique, bien entendu, queE=F⊕F⊥. Pour montrer queξest une projection, on peut v´erifier que ξ2=ξ, ce qui vient de la formule :
ξ2(v) =ξ(ξ(v)) = X
i=1,...,n
hξ(v), eiiei =
= X
i=1,...,n
h X
j=1,...,n
hv, ejiej, eiiei=
= X
i,j=1,...,n
hv, ejihej, eiiei=
= X
i,j=1,...,n
hv, ejiδi,jei = X
i=1,...,n
hv, eiiei=ξ(v).
Sivest un vecteur deE, ´evidemmentξ(v) appartient `aFdonc Im(ξ)⊂F. De plus,ξ(ei) =ei doncξ|F = idF, donc Im(f) =F. De plus, siv ∈F⊥alors ξ(v) = 0 carv ⊥ei pour tout i.
Finalement, siv∈ker(ξ) on aP
i=1,...,nhv, eiiei = 0 donchv, eii= 0 pour toutipuisque lesei
sont libres, doncv∈F⊥puisque lesei engendrentF. On en obtient que ker(ξ) =F⊥, donc ξest bien la projection surF, parall`ele `aF⊥.
2.I.D. Projection orthogonale sur une droite. — Soit E un espace pr´ehilbertien r´eel s´epar´e, et soit 0,u un vecteur deE. La droiteL= vect(u) est form´ee par le vecteurs de la formeλu, o `uλvarie dansR.
La projection orthogonaleπLprend la forme : πL(v) =hv, ui
kuk2 u.
En coordonn´ees, siB= (e1, . . . , en) est une base orthonorm´ee d’un espace euclidienEet L est une droite engendr´ee par le vecteuru=y1e1+· · ·+ynen, alorsπLprend la forme :
πL(x1e1+· · ·+xnen) = Pn
j=1xjyj
Pn j=1y2j
n
X
i=1
yiei.
2.I.E. Projection orthogonale sur un hyperplan. — SoitE un espace euclidien, etHun hyperplan deE, autrement dit un sous espace vectoriel de codimension 1 dansE. AlorsH est d´efini par une ´equation donn´ee par une forme lin´eairef ∈E∨:
H={v∈E|f(v) = 0}.
Supposons avoir fix´e une base orthonorm´eeBdeEet sa base dualeB∨. Soitf =a1e∨1 +
· · ·+anen∨. L’orthogonal deHest alors la droite engendr´ee par le vecteurnH = (a1e1+· · ·+ anen), que nous pouvons penser comme un vecteur normal deH.
H⊥= vect(nH).
En effet, il suffit de montrer que :
n⊥H=H, ce qui est clair puisque, siv=x1e1+· · ·+xnen, on a :
hnH, vi=a1x1+· · ·+anxn=f(v), doncv∈Hssif(v) = 0 ssiv⊥nH.
La projection orthogonaleπHprend la forme : πH(x1e1+· · ·+xnen) = X
i=1,...,n
1− ai
Pn j=1a2j
xiei.
2.I.E.1. Sym´etrie relative `a un sous espace, parall`ele `a un suppl´ementaire. — SoitVun espace vectoriel sur un corpsK.
D´efinition 2.I.24(Sym´etrie relative `aUparall`ele `aW). — Soit U un sous espace de V et soitW un suppl´ementaire deU, i. e.V =U⊕W. Un vecteurv deV s’´ecrit de mani`ere unique commeu+w, avecu∈U etw∈W. Lasym´etrieσpar rapport `aU et parall`ele `aW est d´efinie par par :
σ(v) =u−w.
On dira aussi queUest l’axedeσ.
Nous avons que les sym´etries sont des applications involutives, ce qui par d´efinition veut dire que, appliqu´ees deux fois, donnent l’identit´e.
Proposition 2.I.25. — La sym´etrieσ par rapport `a un sous espace est un endomorphisme in-volutif deV.
D´emonstration. — Bien entendu,σ est une application deV dansV. Le mˆeme argument utilis´e pour montrer la Proposition 2.I.19 peut ˆetre utilis´e pour prouver queσ est lin´eaire.
De plus, on montre directement de la formuleσ(u) =u0−u00 queσ(σ(u)) =u0+u00=u, donc :
σ2= idV, doncσ=σ−1, ce qui dit queσest involutive.
Proposition 2.I.26(Caract´erisation des sym´etries). — Soitf un endomorphisme deV. Le affirmations suivantes sont ´equivalentes :
i) f est une sym´etrie ;
ii) f est une involution, i. e.f2= idV;
iii) on aV=U⊕W avecf|U= idU etf|W =−idW.
Si ces conditions sont v´erifi´ees, alorsf est la sym´etrie d’axeker(f−idV), parall`ele `aker(f+idV).
D´emonstration. — L’´equivalente entre ii) et iii) est claire d’apr`es le Th´eor`eme 2.I.17, puisque la condition ii) s’´ecritf2−idV = 0, ce qui ´equivaut `a (f+ idV)◦(f −idV) = 0.
La proposition pr´ec´edente montre que i) implique ii). De plus, si iii) est valide, alors V =U⊕W, ainsi un vecteur udeV s’´ecrit uniquement commev =u+wavecu∈U et w∈W. Nous avons alorsf(v) =f(u) +f(w) =u−wpuisquef|U = idUetf|W =−idW, donc f est la sym´etrie par rapport `aU, parall`ele `aW, et nous avons i).
Pour montrer le dernier ´enonc´e, remarquons que si u ∈ U alors f(u) = u donc U ⊂ ker(f −idV). Pour l’autre inclusion, pour toutv ∈V, nous ´ecrivons uniquementv comme u+wavecu∈U etw∈W, etf(v) =u−w. Doncv∈ker(f −idV) impliquef(v) =v, ce qui entraˆıneu+w=u−wdoncw= 0. Ainsiv∈U et ker(f −idV)⊂U.
De mˆeme, siw ∈ W alors f(w) = −w donc W ⊂ ker(f + idV). Pour l’autre inclusion, soit v ∈ V sous la forme u+w avec u ∈ U et w ∈ W, ainsi f(v) = u−w, et supposons v∈ker(f + idV). Alorsf(v) =−v, ce qui impliqueu−w=−u−wdoncu= 0. Ainsiv∈W et ker(f+ idV)⊂W.
2.I.E.2. Sym´etries orthogonales. — Soit maintenantEun espace euclidien, muni du produit scalaireh·,·i. ´Etant donn´e un sous espaceFdeE, nous avonsE=F⊕F⊥.
D´efinition 2.I.27. — Lasym´etrie orthogonaleσFest d´efinie comme la sym´etrie par rapport
`aF, parall`ele `aF⊥.
Proposition 2.I.28. — SoitF un sous espace de dimensionkdeE, et soit(e1, . . . , en)une base orthonorm´ee deEavecei∈Fssii≤k. Alors la sym´etrie orthogonaleσF s’´ecrit :
σF(v) = X
i=1,...,k
hv, eiiei− X
i=k+1,...,n
hv, eiiei. D´emonstration. — Montrons que :
σF=πF−πF⊥.
En effet, si u∈ F, on a σF(u) = u=πF(u) = πF−πF⊥(u). Si w∈ F⊥, on a σF(w) = −w=
−πF⊥(w) =πF−πF⊥(w). PuisqueF=U⊕V, etσF co¨ıncide avecπF−πF⊥surUet surW, on aσF=πF−πF⊥.
D’apr`es le Th´eor`eme 2.I.23 nous avonsπF(v) =P
i=1,...,khv, eiiei. De mani`ere analogue, on obtientπF⊥(v) =P
i=k+1,...,nhv, eiiei. Donc : σF(v) =πF(v)−πF⊥(v) = X
i=1,...,k
hv, eiiei− X
i=k+1,...,n
hv, eiiei.
D´efinition 2.I.29. — On parle der´eflexion orthogonalesiF est un hyperplan. On parle de renversementsiFa codimension 2.
2.II. Automorphismes orthogonaux FixonsEun espace euclidien.
2.II.A. Isom´etries vectorielles. —
2.II.A.1. Lin´earit´e des isom´etries vectorielles. —
D´efinition 2.II.1. — SoitF un espace euclidien. Uneisom´etrie vectorielleest une applica-tionf :E→Favecf(0) = 0 et telle que, pour toutu, v∈E, on aitku−vkE=kf(u)−f(v)kF. Proposition 2.II.2. — Une isom´etrie vectorielle est un isomorphisme lin´eaire sur son image et respecte le produit scalaire.
D´emonstration. — Pour commencer, on af est injective, car siu, v∈Esatisfontf(u) =f(v) alorskf(u)−f(v)k=ku−vk= 0 doncu=v. Aussi,f respecte la norme car, pour toutu∈E, on akf(u)k=kf(u)−f(0)k=kuk.
Montrons quef respecte le produit scalaire. On a, pour toutu, v∈E: hf(u), f(v)i=1
2(kf(u)k2+kf(v)k2− kf(u)−f(v)k2) =1
2(kuk2+kvk2− ku−vk2) =hu, vi. Montrons quef est lin´eaire. Fixons B= (u1, . . . , un) base orthonorm´ee deE et posons, pour touti∈~1, n,vi =f(ui). Commef respecte le produit scalair, la famille (v1, . . . , vn) est orthonorm´ee, donc libre, dansF. Pour montrer quef est lin´eaire il suffit de v´erifier que, pour tout (x1, . . . , xn)∈Rn, on a :
f(x1u1+· · ·+xnun) =x1v1+· · ·+xnvn.
Soitu=x1u1+· · ·+xnunetv=x1v1+· · ·+xnvnet montronsf(u) =v. Comme (u1, . . . , un) et (v1, . . . , vn) sont orthonorm´ees, on a :
kuk2=x12+. . .+xn2=kvk2.
Ensuite, on a montr´e quef respecte la norme et le produit scalaire donc on calcule : kf(u)−vk2=kf(u)k2+kvk2−2hf(u), vi=
=kf(u)k2+kvk2−2 Xn
i=1
xihf(u), vii=
=kuk2+kvk2−2 Xn
i=1
xihu, uii=
= 2 Xn
i=1
x2i −2 Xn
i,j=1
xixjhuj, uii=
= 2 Xn
i=1
x2i −2 Xn
i,j=1
xixjδi,j= 0.
Nous avons montr´e quef est une application lin´eaire injective, c’est donc un isomor-phisme sur son image.
2.II.A.2. Automorphismes orthogonaux. —
D´efinition 2.II.3. — Un endomorphisme deEqui est une isom´etrie vectorielle est appel´e unautomorphisme orthogonal.
Remarque 2.II.4. — Les valeurs propres d’un automorphisme orthogonal ont module 1.
D´emonstration. — Fixons une base orthonorm´eeBde E. Soitλ∈Cune valeur propre def automorphisme orthogonal et soitZ∈Cn\ {0}tel queMZ=λZ, o `uM= MatB(f). On a :
kZk2=hZ, Zi=hMZ, MZi=hλZ, λZi=|λ|2kZk2. Donc|λ|= 1.
2.II.B. Automorphismes orthogonaux et matrices orthogonales. —
Th´eor`eme 2.II.5. — Soit f un endomorphisme de E. Alors les conditions suivantes sont
´equivalentes :
i) f est orthogonal ;
ii) pour toute base orthonorm´eeBdeE, on a quef(B)est une base orthonorm´ee ; iii) il existe une base orthonorm´eeBdeEtelle quef(B)est une base orthonorm´ee ;
iv) f est isom´etrique.
D´emonstration. — Montrons que i) implique ii), donc soitf est orthogonal et soit B = (e1, . . . , en) une base orthonorm´ee deE. Nous avons, pour toutu, v∈E,hf(u), f(v)i=hu, vi, en particulierhf(ei), f(ej)i=hei, ejidoncf(B) est une famille orthonorm´ee denvecteurs, donc une base orthonorm´ee.
Il est ´evident que ii) implique iii), car nous avons prouv´e queEadmet une base ortho-gonale.
Pour voir que iii) implique iv), nous consid´erons une base orthonorm´eeB= (e1, . . . , en) telle quef(B) est orthonorm´ee, et nous calculonskf(v)ken coordonn´ees. Nous avonsv= x1e1+· · ·+xnen, pour un certain vecteur colonneX=t(x1, . . . , xn). CommeBest orthonorm´ee, on akvk2 =x21+· · ·+xn2. De plus,f(v) =x1f(e1) +· · ·+xnf(en) donckf(v)k2=x12+· · ·+x2n puisquef(B) = (f(e1), . . . , f(en)) est une base orthonorm´ee. Doncf est une isom´etrie.
Enfin, montrons que iv) implique i), i. e. qu’un endomorphisme isom´etrique est ortho-gonal. ´Etant donn´esu, v∈E, on sait :
hu, vi=1 2
ku+vk2− kuk2− kvk2 ,
et de mˆemehf(u), f(v)i= 1/2(kf(u+v)k2− kf(u)k2− kf(v)k2). Donc sikf(w)k=kwkpour tout w∈E, les trois termes deku+vk2− kuk2− kvk2co¨ıncident un par un avec les trois termes de kf(u+v)k2− kf(u)k2− kf(v)k2, donchu, vi=hf(u), f(v)i.
2.II.C. Orbites du groupe orthogonal. —
Remarque 2.II.6. — Les orbites de SO(E) sont les sph`eres constitu´ees des vecteurs de normer, pourr∈[0,+∞[.
D´emonstration. — Soitu∈E. Commef pr´eserve la norme, sikuk=ralorskf(u)k=rdonc l’orbite deu est contenue dans la sph`ere de centre 0 et rayonr. Aussi, siv appartient `a cette sph`ere, on peut compl´eterupuisv `a deux bases orthonorm´ees deE, (u, u2, . . . , un) et (v, v2, . . . , vn), puis envoyerusurvetui survipour se rendre compte quevest dans l’orbite deu.
Remarque 2.II.7. — Soitk≤n. Le groupe SO(E) op`ere transitivement sur l’ensemble des sous espaces deEde dimensionk.
D´emonstration. — SoitFetF0deux sous espaces de dimensionkdeE. On choisit des bases orthonorm´ees (e1, . . . , en) et (e01, . . . , e0n) deE de sorte quee1, . . . , ek ∈F ete10, . . . , ek0 ∈F0 puis on d´efinitf parf(ei) =e0i. On af ∈O(E), et quitte `a remplacere10 pare01, on peut obtenir f ∈SO(E). En tout cas,f(F) =F0.
Lemme 2.II.8. — SoitEunK-espace vectoriel,f , g∈GL(E)etF= Fix(g). AlorsFix(f gf−1) = f(F).
D´emonstration. — Soitu∈Eetv =f−1(u) de sorte queu=f(v). On au∈f(F) ssiv∈F.
Dans ce cas on trouvef gf−1(f(v)) =f(g(v)) =f(v) i.e.u∈Fix(f gf−1). Et r´eciproquement sif gf−1(f(v)) =f(v) alorsg(v) =vdoncv∈Fix(g) etu∈f(F).
Lemme 2.II.9. — SoitEunK-espace vectoriel de dimension finie. Sif ∈GL(E)laisse fixe toute droite,f est une homoth´etie.
D´emonstration. — SoitB= (e1, . . . , en) une base deE. Sif laisse fixe toute droite, pour tout i∈~1, non af(ei) =λei, pour certains scalairsλ1, . . . , λn∈K∗. Mais il existeλ∈K∗ tel que f(e1+· · ·+en) =λ(e1+· · ·+en). Doncλ(e1+· · ·+en) =λ1e1+· · ·+λnen, ainsiλi=λpour tout i∈~1, n. Ainsif est une homoth´etie.
Interlude : orientation. — Soit E unR-espace vectoriel de dimension 0< n <∞. Etant donn´ee deux basesBetB0 deE, leur matrice de transitionP a d´eterminant det(P) qui est positif ou n´egatif, strictement.
D´efinition 2.II.10. — On dit queBetB0ontmˆeme orientationsi det(P)>0, ouorientations oppos´eessi det(P)<0.
Le fait d’avoir mˆeme orientation est une relation d’´equivalence sur l’ensemble des bases deE. UneorientationsurEest une classe d’´equivalence cette relation d’´equivalence. On dit queEest orient´e si on fixe une orientation surE. Une base deEorient´e estpositivesi elle est dans la classe d’´equivalence fix´ee par l’orientation, autrement elle estn´egative.
D´efinition 2.II.11. — Soit B une base de E. On dit que f ∈ GL(E) est direct si det(MatB(f))>0,indirectsinon.
SiB= (e1, . . . , en) etB0= (e01, . . . , e0n) est une autre base deE, l’automorphismef d´efini par f(ei) =e0i est direct si et seulement siB0etBont mˆeme orientation.
2.II.D. Automorphismes orthogonaux du plan. — Dans cette section, E est un espace euclidien de dimension 2.
2.II.D.1. Matrices orthogonales de taille 2. — ´Etudions les matrices orthogonales de taille 2, donc les automorphismes orthogonaux deE.
2.II.D.1. Matrices orthogonales de taille 2. — ´Etudions les matrices orthogonales de taille 2, donc les automorphismes orthogonaux deE.