de dimension 3
1 Groupe orthogonal d’un espace vectoriel euclidien
Dans ce paragraphe,E d´esigne un espace vectoriel euclidien de dimensionn∈N∗. D´efinition 1.1
On appelle application orthogonale (ou isom´etrie vectorielle) de E toute application de E dans E qui conserve le produit scalaire :
∀x, y∈E,hu(x), u(y)i=hx, yi.
Notation 1.2
On noteO(E)l’ensemble des applications orthogonales deE.
Th´eor`eme 1.3
Soituune application deE dansE. Les assertions suivantes sont ´equivalentes : (i) uest orthogonale ;
(ii) uest lin´eaire et conserve la norme :∀x∈E,ku(x)k=kxk;
(iii) uest lin´eaire et transforme toute base orthonormale en une base orthonormale ; (iv) uest lin´eaire et transforme une base orthonormale en une base orthonormale.
Preuve. Soituune application de EdansE.
(i)⇒(ii) Supposonsuorthogonale. Alors pour tousx, y∈E,hu(x), u(y)i=hx, yi. En particulier, pour tout x∈E, on a hu(x), u(x)i=hx, xi, c’est-`a-dire ku(x)k2 =kxk2, ou encore ku(x)k=kxk.uconserve donc la norme.
Montrons maintenant queuest lin´eaire. Soientx, y∈E,λ∈R.
ku(x+λy)−u(x)−λu(y)k2=hu(x+λy)−u(x)−λu(y), u(x+λy)−u(x)−λu(y)i
=hu(x+λy), u(x+λy)i −2hu(x+λy), u(x)i −2λhu(x+λy), u(y)i+ 2λhu(x), u(y)i+hu(x), u(x)i +λ2hu(y), u(y)i u´etant orthogonale, on a :
hu(x+λy), u(x+λy)i=hx+λy, x+λyi=hx, xi+λhx, yi+λhy, xi+λ2hy, yi=kxk2+ 2λhx, yi+λ2kyk2 hu(x+λy), u(x)i=hx+λy, xi=hx, xi+λhx, yi=kxk2+λhx, yi
hu(x+λy), u(y)i=hx+λy, yi=hx, yi+λhy, yi=hx, yi+λkyk2
hu(x), u(y)i=hx, yi hu(y), u(y)i=hy, yi=kyk2 hu(x), u(x)i=hx, xi=kxk2 On en d´eduit :
ku(x+λy)−u(x)−λu(y)k2=kxk2+ 2λhx, yi+λ2kyk2−2kxk2−2λhx, yi −2λhx, yi −2λ2kyk2 + 2λhx, yi+kxk2+λ2kyk2= 0 Par suite,ku(x+λy)−u(x)−λu(y)k= 0 doncu(x+λy)−u(x)−λu(y) = 0 et doncuest lin´eaire.
(ii)⇒(i) Supposons que uest lin´eaire etuconserve la norme. On rappelle que :
∀x, y∈E,hx, yi= 1 2
kx+yk2− kxk2− kyk2 . Soient x, y∈E.
hu(x), u(y)i= 1 2
ku(x) +u(y)k2− ku(x)k2− kyk2
= 1 2
ku(x+y)k2− ku(x)k2− kyk2 . Commeuconserve la norme, on en d´eduit :
hu(x), u(y)i= 1 2
kx+yk2− kxk2− kyk2
=hx, yi. uest donc orthogonale.
(i)⇒(iii) On supposeuorthogonale. Soit (e1, . . . , en) une base orthonormale deE :
∀j, k∈J1 ;nK,hej, eki=δj,k. uconserve le produit scalaire donc on en d´eduit :
∀j, k∈J1 ;nK,hu(ej), u(ek)i=δj,k.
(u(e1), . . . , u(en)) est une famille orthonormale donc libre. C’est une famille libre `an´el´ements dans un espace de dimensionndonc c’est une base deE.
(iii)⇒(i) On suppose queuest lin´eaire et transforme toute base orthonormale deEen une base orthonormale deE. Soit (e1, . . . , en) une base orthonormale deE.
Soient x, y ∈ E. Il existe (x1, . . . , xn)∈ Rn et (y1, . . . yn) ∈Rn tels que x=
n
X
k=1
xkek et y =
n
X
k=1
ykek. En utilisant la lin´earit´e du produit scalaire, on a :
hx, yi=
* n X
i=1
xiei,
n
X
j=1
yjej
+
=
n
X
i=1 n
X
j=1
xiyjhei, eji=
n
X
i=1 n
X
j=1
xiyjδi,j =
n
X
i=1
xiyi.
Par ailleurs, hu(x), u(y)i=
* u
n
X
i=1
xiei
! , u
n
X
j=1
yjej
+
=
* n X
i=1
xiu(ei),
n
X
j=1
yju(ej) +
=
n
X
i=1 n
X
j=1
xiyjhu(ei), u(ej)i.
utransforme toute base orthonormale deE en une base orthonormale de E donc (u(e1), . . . , u(en)) est une base orthonormale de Eet donc
∀i, j∈J1 ;nK,hu(ei), u(ej)i=δi,j.
On a alors
hu(x), u(y)i=
n
X
i=1 n
X
j=1
xiyjδi,j=
n
X
i=1
xiyi=hx, yi. uconserve le produit scalaire doncuest orthogonale.
(iii)⇒(iv) Evident.
(iv)⇒(iii) On suppose queuest lin´eaire et transforme une base orthonormale (e1, . . . , en) deE en une base orthonormale (u(e1), . . . , u(en)) deE.
Soit (e01, . . . , e0n) une autre base orthonormale deE.
∀k∈J1 ;nK,∃(a1k, . . . , ank)∈Rn, e0k=
n
X
i=1
aikei.
Pour toutk∈J1 ;nK, on a
u(e0k) =u
n
X
i=n
aikei
!
=
n
X
i=1
aiku(ei).
Soient j, k∈J1 ;nK.
u(e0j), u(e0k)
=
* n X
i=1
aiju(ei),
n
X
l=1
alku(el) +
=
n
X
i=1 n
X
l=1
aijalkhu(ei), u(el)i. (u(e1), . . . , u(en)) ´etant une base orthonormale deE, on a
∀i, l∈J1 ;nK,hu(ei), u(el)i=δi,l. On en d´eduit :
u(e0j), u(e0k)
=
n
X
i=1 n
X
l=1
aijalkδi,l=
n
X
i=n
aijaik. (e1, . . . , en) ´etant une base orthonorm´ee deE, on a
∀j, k∈J1 ;nK, e0j, e0k
=
n
X
i=1
aijaik.
(e01, . . . , e0n) ´etant une base orthonorm´ee deE, on a
∀j, k∈J1 ;nK, e0j, e0k
=δj,k. On d´eduit des ´egalit´es pr´ec´edentes
u(e0j), u(e0k)
=
n
X
i=n
aijaik=
u(e0j), u(e0k)
=δj,k.
(u(e01), . . . , u(e0n)) est donc une famille orthonorm´ee donc libre, `an´el´ements dans un espace de dimension n.
C’est donc une base de E.
Corollaire 1.4
(i) Une application orthogonale est bijective ; (ii) Si u∈O(E), alors :∀x, y∈E,hu(x), yi=
x, u−1(y) .
Preuve.
(i) Soituune application orthogonale deE. Soitx∈Ker(u). Alorsu(x) = 0 doncku(x)k= 0.
Or ku(x)k=kxk donckxk = 0 et doncx= 0. Par suite, Ker(u) ={0} et doncuest injective. E ´etant de dimension finie,uest bijective.
(ii) Soientu∈O(E),x, y∈E. On utilise le fait queuest bijective et conserve le produit scalaire : hu(x), yi=
u(x), u(u−1(y))
=
x, u−1(y) .
D´efinition 1.5
SoitA= (aij)∈ Mn(R). On dit queAest une matrice orthogonale si les vecteurs deAforment une base orthonorm´ee deE.
Proposition 1.6
(i) A∈ Mn(R)est une matrice orthogonale si et seulement siA est inversible etA−1=tA;
(ii) Si P est une matrice de passage d’une base orthonorm´ee deE vers une autre base orthonorm´ee de E, alorsP est une matrice orthogonale.
Preuve.
(i) Soit A= (aij)∈ Mn(R). On suppose queA est orthogonale. Notonsv1, . . . , vn les vecteurs colonnes de A. SoitB = (bij) =tA. On a donc, pour tousi, j∈J1 ;nK, bij =aji. SoitC= (cij) =AB.
∀i, j∈J1 ;nK, cij=
n
X
k=1
aikbkj=
n
X
k=1
aikajk=hvi, vji=δi,j
doncC=AtA=In. De mˆeme, on montre quetAA=In.A est donc inversible etA−1=tA.
R´eciproquement, supposons que A est inversible et A−1 = tA. On a alors AtA = In et donc pour tous i, j ∈J1 ;nK,cij =δi,j. Orcij =hvi, vjidonc pour tousi, j∈J1 ;nK, hvi, vji=δi,j. Les vecteurs colonnes de Aforment donc une base orthonormale deE, ce qui prouve que Aest une matrice orthogonale.
(ii) SoitP une matrice de passage d’une base orthonorm´ee deE vers une autre base orthonorm´ee deE. Les vecteurs colonnes deP forment donc une base orthonorm´ee deE.P est donc une matrice orthogonale.
Th´eor`eme 1.7
SoitF un sous-espace vectoriel deE.
(i) Si F est invariant par une application orthogonale u, alorsF⊥ est invariant paru et u|F∈ O(F)et u|F⊥∈O(F⊥);
(ii) R´eciproquement, si v ∈ O(F) et w ∈ O(F⊥), l’endomorphisme u tel que u|F= v et u|F⊥= w appartient `a O(E).
Preuve. SoitF un sous-espace vectoriel de E.
(i) On suppose F invariant par une application orthogonale u, c’est-`a-dire u(F) = F. Montrons qu’alors u(F⊥) =F⊥. Soitx∈F⊥. Soity ∈F. u´etant orthogonale, on a hu(x), yi =
x, u−1(y)
. u(F) =F donc u−1(F) =F (on rapelle queuest bijective car orthogonale).x∈F⊥etu−1(y)∈F donc
x, u−1(y)
= 0. par suite,hu(x), yi= 0 et doncu(F⊥)⊂F⊥.uest bijective donc dim(u(F⊥)) = dim(F⊥) et doncu(F⊥) =F⊥. (ii) Soient v∈O(F) et w∈O(F⊥). Il existe un unique endomorphismeudeE tel queu|F=v et u|F⊥=w (carE=F⊕F⊥). En effet, six∈E, il existe un unique couple (x1;x2)∈F×F⊥ tel quex=x1+x2. Alors on au(x) =u(x1+x2) =u(x1) +u(x2) =v(x1) +w(x2). Commev(x1)∈F carv∈O(F) etw(x2)∈F⊥ car w∈O(F⊥). En utilisant le th´eor`eme dePythagore deux fois, et sachant surv et wconservent la norme,
on a :
ku(x)k2=kv(x1)k2+kw(x2)k2=kx1k2+kx2k2=kx1+x2k2=kxk2.
uconserve donc la norme. Par ailleurs,uest clairement lin´eaire donc u∈O(E).
Proposition 1.8
(O(E),◦)est un groupe.
Preuve.
O(E)6=∅caridE∈O(E).
O(E)⊂L(E).
Soient u, v∈O(E).v est bijective (comme toute application orthogonale) etv−1∈O(E) :
∀x∈E,
v−1(x) =
v(v−1(x)) =kxk. Alorsu◦v−1conserve la norme :
∀x∈E,
u◦v−1(x) =
v−1(x)
=kxk.
u◦v−1 est lin´eaire (compos´ee d’applications lin´eaires) et conserve la norme doncu◦v−1∈O(E). Par suite,
O(E) est un sous-groupe deL(E).
Th´eor`eme 1.9
L’applicationϕ: (O(E),◦)→({−1,+1},×)d´efinie parϕ(u) = det(u)est un morphisme de groupes.
Preuve. Soit u ∈ O(E). Soit B une base orthonormale de E. Soit A la matrice de u dans la base B. A est une matrice orthogonale donc A est inversible etA−1 =tA. On en d´eduit que det(A−1) = det(tA). Or det(A−1) = 1
det(A) et det(tA) = det(A) donc 1
det(A) = det(A), c’est-`a-dire det(A)2 = 1. Le d´eterminant d’une application lin´eaire ne d´epend pas de la base choisie donc det(u)2= 1 et doncϕ(u)∈ {−1,+1}.
Soient u, v∈O(E). Alors u◦v∈O(E) et on a :
ϕ(u◦v) = det(u◦v) = det(u)×det(v) =ϕ(u)×ϕ(v).
ϕest donc un morphisme de groupes.
Remarque 1.10
ϕn’est pas bijective. En effet, notonsul’endomorphisme dont la matrice dans la base canonique deR2 estA= 1 1
6 7
!
.u /∈O(E)bien quedet(u) = 1.
D´efinition 1.11
(i) Ker(ϕ)est appel´e groupe sp´ecial orthogonal de E (ou ensemble des applications orthogonales posi- tives), not´eSO(E)ouO+(E);
(ii) On appelle ensemble des applications orthogonales n´egatives, not´e O−(E) l’ensemble d´efini par O−(E) =O(E)\SO(E).
Proposition 1.12
O+(E)est un sous-groupe deO(E).
Preuve.
O+(E)6=∅ caridE∈O+(E) etO+(E)⊂O(E).
Soit u ∈ O+(E). u est orthogonale donc bijective. det(u−1) = 1
det(u) = 1
1 = 1 car u ∈ O+(E) donc u−1∈O+(E).
Soitv ∈O+(E). det(v◦u−1) = det(v)×det(u−1) = 1×1 = 1 doncv◦u−1 ∈O+(E). O+(E) est donc un
sous-groupe deO(E).
Th´eor`eme 1.13
SoientF et Gdeux sous-espaces vectoriels suppl´ementaires deE. La sym´etrie par rapport `aF parall`ele- ment `a Gest une application orthogonale si et seulement siG=F⊥.
Preuve. SoientF et Gdeux sous-espaces vectoriels suppl´ementaires de E. Soit sla sym´etrie par rapport `a F parall`element `a G. On rappelle ques:E=F⊕G→E est d´efinie parx=x1+x27→x1−x2.
Soitx∈E. Il existe un unique couple (x1;x2)∈F×Gtel que x=x1+x2. On a ks(x)k2=kx1−x2k2=kx1k2+kx2k2−2hx1, x2i et
kxk2=kx1+x2k2=kx1k2+kx2k2+ 2hx1, x2i. On en d´eduit
ks(x)k=kxk ⇐⇒ ks(x)k2=kxk2 ⇐⇒ hx1, x2i= 0.
s est orthogonale si et seulement si pour toutx∈E, ks(x)k=kxk, c’est-`a-dire si et seulement si pour tout (x1;x2)∈F×G, on ahx1, x2i= 0 (ce qui signifie G=F⊥).
D´efinition 1.14
On appelle retournement une sym´etrie orthogonale par rapport `a un sous-espace vectoriel de dimension n−2. Sin= 3, un retournement est aussi appel´e demi-tour.
Th´eor`eme 1.15
Soientx, y∈Ede mˆeme norme,x6=y. Il existe une unique r´eflexion ´echangeantxety. C’est la sym´etrie orthogonale par rapport `aH = (R(x−y))⊥.
Preuve. Soientx, y∈E,x6=y, tels quekxk=kyk. SoitH = (R(x−y))⊥. Soitsla sym´etrie orthogonale par rapport `aH. Alorss:H⊕H⊥→Eest d´efinie parx=x1+x27→x1−x2.hx+y, x−yi=kxk2− kyk2= 0.
Commex−y∈R(x−y), on en d´eduitx+y∈H. On a alors
s(x) +s(y) =s(x+y) =x+y ets(x)−s(y) =s(x−y) =−x+y.
En additionnant ces deux ´egalit´es, on obtient 2s(x) = 2y doncs(x) =y.
s´etant involutive, on a x=s◦s(x) =s(y).s´echange doncxety. D’o`u l’existence.
Soitsune r´eflexion par rapport `a un hyperplanH, ´echangeantxety. On a alors s(x−y) =s(x)−s(y) =y−x=−(x−y)
donc x−y ∈ H⊥. H ´etant de dimension n−1, H⊥ est dimension 1 et donc H⊥ =R(x−y). Par suite,
H = (R(x−y))⊥. D’o`u l’unicit´e.
2 Cas de la dimension 2
Dans tout ce paragraphe,n= 2.
Th´eor`eme 2.1
(i) Les matrices orthogonales sont de la formeRθ= cosθ −sinθ sinθ cosθ
!
ouSθ= cosθ sinθ sinθ −cosθ
!
;
(ii) ∀θ∈R, Rθ∈O+(E), Sθ∈O−(E);
(iii) ∀θ, θ0∈R, Rθθ0 =RθRθ0 et SO(E)est commutatif.
Preuve.
(i) Soit A une matrice de M2(R). Notons A = a c b d
!
. Les vecteurs colonnes de A forment une base orthonormale deR2 donca2+b2= 1,c2+d2= 1 etac+bd= 0.
a2+b2= 1 donc il existe un r´eelθ tel quea= cosθ etb= sinθ.
ac+bd= 0 donc (cosθ)c+ (sinθ)d= 0. Il existe alorsε∈Rtel quec=−εsinθetd=εcosθ.
c2+d2 = 1 donc (−εsinθ)2+ (εcosθ)2 = 1. Sachant que (sinθ)2+ (cosθ)2 = 1, on en d´eduit ε2= 1, puis ε=±1.
On a alorsA= cosθ −εsinθ sinθ εcosθ
!
, avecε=±1.
R´eciproquement, on v´erifie sans peine qu’une matrice de la forme ci-dessus est orthogonale.
Si ε= +1,Aest de la formeRθ. Si ε=−1,Aest de la formeSθ. (ii) Soientθ, θ0∈R.
det(Rθ) = (cosθ)2+ (sinθ)2= 1 doncRθ∈O+(E).
det(Sθ) =−(cosθ)2−(sinθ)2=−1 doncSθ∈O−(E).
(iii) Soientθ, θ0∈R. RθRθ0 = cosθ −sinθ
sinθ cosθ
! cosθ0 −sinθ0 sinθ0 cosθ0
!
= cosθcosθ0−sinθsinθ0 −cosθsinθ0−sinθcosθ0 sinθcosθ0+ cosθsinθ0 −sinθsinθ0+ cosθcosθ0
!
Utilisant les relations trigonom´etriques, on obtient alors
RθRθ0 = cos(θ+θ0) −sin(θ+θ0) sin(θ+θ0) cos(θ+θ0)
!
=Rθ+θ0.
Soient A, B∈ M2(R). Il existeθ∈Rtel queA=Rθet il existeθ0 ∈Rtel queB=Rθ0. AB=RθRθ0 =Rθ+θ0 =Rθ0+θ=Rθ0Rθ=BA.
O+(E) est donc commutatif.
D´efinition 2.2
Les ´el´ements de O+(E)sont appel´ees rotations vectorielles.
Proposition 2.3
Soit u ∈ O(E). On note Inv(u) l’ensemble des ´el´ements de E invariants par u. On a la classification suivante :
dim(Inv(u)) Nature deu
2 idE
1 R´eflexion
0 Rotation distincte deidE Preuve.
Soit u∈ O(E). SoitB une base orthonormale deE. Notons A la matrice deu dans la base B. A est une matrice orthogonale donc il existeθ∈Retε∈ {−1,+1}tel que A= cosθ −εsinθ
sinθ εcosθ
! .
(x, y)∈Inv(u) ⇐⇒ cosθ −εsinθ sinθ εcosθ
! x y
!
= x
y
!
⇐⇒
(cosθ−1)x−(εsinθ)y= 0 (sinθ)x+ (εcosθ−1)y= 0 Le d´eterminant de ce syst`eme est
∆ =
cosθ−1 −εsinθ sinθ εcosθ−1
=ε(cosθ)2−cosθ−εcosθ+1+ε(sinθ)2=ε+1−cosθ−εcosθ= (ε+1)(1−cosθ).
Si ε= 1 et cosθ6= 1, alors ∆6= 0. Aucun vecteur n’est invariant `a part 0 donc dim(Inv(u)) = 0.
det(u) = cos2θ+ sin2θ= 1 doncu∈O+(E).uest donc une rotation vectorielle distincte de l’identit´e.
Si ε= 1 et cosθ = 1, alors sinθ = 0 et A= I2 (matrice identit´e de R2). Dans ce cas, dim(Inv(u)) = 2 et u=idE.
Si ε=−1, alors ∆ = 0. Le syst`eme s’´ecrit alors
−2 sin2θ
2x+ 2 sinθ 2cosθ
2y= 0 2 sinθ
2cosθ
2x−2 cos2θ 2y= 0 Ce syst`eme admet une infinit´e de solutions et x
y
!
∈Vect
( cosθ2 sinθ2
!)
. On a donc dim(Inv(u)) = 1. Notons D= Vect
( cosθ2 sinθ2
!)
. On a alors D⊥ = Vect
( −sinθ2 cosθ2
!) .
u
−sinθ 2,cosθ
2
= cosθ sinθ sinθ −cosθ
! −sinθ2 cosθ2
!
= sinθcosθ2−cosθsinθ2
−sinθsinθ2−cosθcosθ2
!
= sinθ2
−cosθ2
!
=− −sinθ2 cosθ2
!
uest donc la sym´etrie orthogonale par rapport `aD.
Th´eor`eme 2.4
La compos´ee de deux r´eflexions est une rotation. R´eciproquement, toute rotation peut s’´ecrire comme la compos´ee de deux r´eflexions, l’une ´etant arbitrairement choisie.
Preuve. Soientset s0 deux r´eflexions.s◦s0 ∈O(E) carO(E) est un groupe.
det(s◦s0) = det(s)×det(s0) = (−1)×(−1) = 1 donc s◦s0∈O+(E).
R´eciproquement, soientrune rotation etsune r´eflexion. s◦r∈O(E) carO(E) est un groupe.
det(s◦r) = det(s)×det(r) =−1×1 =−1 doncs◦r∈O−(E). Soits0 =s◦r.s0 est une r´eflexion.
s◦s0 = s◦s◦r (on rappelle que s est involutive).r est donc la compos´ee de deux r´eflexions, s ayant ´et´e
choisie arbitrairement.
Th´eor`eme 2.5
Si x et y sont deux vecteurs non nuls de E de mˆeme norme, alors il existe une unique rotation et une unique r´eflexion transformantxeny.
Preuve.
Soientxet ysont deux vecteurs non nuls deE de mˆeme norme. Quitte `a faire la d´emonstration avec x kxk et y
kyk, on peut supposerkxk=kyk= 1. Soite2∈E tel que (x, e2) soit une base orthonormale deE. Il existe y1, y2∈Rtels quey=y1x+y2e2. On a 1 =kyk2=y12+y22. Il existe un uniqueθ∈[0 ; 2π[ tel quey1= cosθ et y2= sinθ. Par suite,y= (cosθ)x+ (sinθ)e2.
Supposons qu’il existeu∈O+(E) tel queu(x) =y. SoitAla matrice deudans la base (x, e2). La premi`ere colonne de la matriceA est impos´ee caru(x) =y = (cosθ)x+ (sinθ)e2 doncA= cosθ ∗
sinθ ∗
!
. A∈O+(E) donc la 2`eme colonne est impos´ee et on aA= cosθ −sinθ
sinθ cosθ
!
. D’o`u l’unicit´e.
De mˆeme, s’il existeu∈O−(E) tel queu(x) =y, alors As’´ecrit de mani`ere unique A= cosθ sinθ sinθ −cosθ
! , la premi`ere colonne ´etant impos´ee par u(x) = y et la deuxi`eme colonne ´etant impos´ee par la condition u∈O−(E). D’o`u l’unicit´e.
On v´erifie sans peine que les endomorphismes ci-dessus conviennent, d’o`u l’existence.
3 Cas de la dimension 3
Dans tout ce paragraphe,n= 3. Soitu∈O(E). On note toujours Inv(u) le sous-espace des vecteurs invariants, c’est-`a-dire Inv(u) = Ker(u−idE)
Si dim(Inv(u)) = 3, alors tout vecteur est invariant et doncu=idE.
Supposons maintenant dim(Inv(u)) = 2. SoientP = Inv(u) et D=P⊥.P est invariant parudoncD=P⊥ est aussi invariant par u et u|D∈ O(D). D ´etant de dimension 1, on a u|D= ±idD. Or u|D6= idD sinon u=idE et on aurait dim(Inv(u)) = 3, ce qui est exclu. Par cons´equent, u|D=−idD.uest alors la r´eflexion par rapport `a P. R´eciproquement, toute r´eflexion par rapport `a un plan P a un sous-espace de vecteurs invariants de dimension 2.
Supposons maintenant dim(Inv(u)) = 1. Soit D = Inv(u) etP =D⊥. D est invariant parudonc P =D⊥ est aussi invariant paruet u|P∈O(P). Soit ∆ l’ensemble des vecteurs invariants paru|P. dim(∆) = 0 sinon on auraitD⊕∆⊂Inv(u) et dim(Inv(u))>dim(D⊕∆) = dim(D) + dim(∆)>1, ce qui est exclu. D’apr`es la classification en dimension 2,u|P∈O+(P) etu|P6=idP.u|P est donc une rotation autre que l’identit´e.
D´efinition 3.1
Une rotation deE est un endomorphisme deE tel qu’il existe une droiteD v´erifiant : (i) u|D=idD;
(ii) u|D⊥ est une rotation du planD⊥.
Siu6=idE, la droiteD est unique et est appel´ee axe de la rotation.
Soit uune rotation deE.On note D la droite v´erifiant les conditions ci-dessus. Soit e1 un vecteur unitaire
tel queD =Re1. SoitP =D⊥. Soit (e2, e3) une base orthonormale deP telle que (e1, e2, e3) soit une base directe deE. La matrice deudans la base (e1, e2, e3) est donn´ee par
A=
1 0 0
0 cosθ −sinθ 0 sinθ cosθ
.
Supposons maintenant dim(Inv(u)) = 0. Soit xun vecteur non nul de E. Soit x0 =u(x). x et x0 sont de mˆeme norme donc il existe une unique r´eflexion s´echangeantxetx0.s(x0) =x, c’est-`a-dires◦u(x) =x0. s est la r´eflexion par rapport `a H = (R(x−x0))⊥. Etudionss◦u.
Si dim(Inv(s◦u)) = 3, alors s◦ u = idE et donc u = s (car s est involutive). Dans ce cas, on aurait dim(Inv(u)) = 2, ce qui est exclu.
Si dim(Inv(s◦u)) = 2, alorss◦uest une r´eflexions0par rapport `a un planP.u=s◦s0et alorsP∩H⊂Inv(u) et dim(P∩H)>1 (P etH ´etant deux sous-espaces vectoriels de dimension 2 dans un espace de dimension 3), ce qui contredit dim(Inv(u)) = 0.
Si dim(Inv(s◦u)) = 1, alors s◦uest une rotation rd’axe D non inclus dansH (sinon tout vecteur deD serait invariant parr, et par s◦r=u, ce qui contredit dim(Inv(u)) = 0). On a alorsu=s◦r.
Th´eor`eme 3.2 (forme r´eduite)
Toute application orthogonale u distincte de −idE et telle que Inv(u) = {0} s’´ecrit de fa¸con unique u = s◦ r = r◦ s, o`u r est une rotation d’axe D et s la r´eflexion par rapport au plan P = D⊥. R´eciproquement, sir6=idE, l’applicationu=r◦s=s◦rd´efinie pr´ec´edemment v´erifieInv(u) ={0}.
Preuve.
Soituune application orthogonale distincte de−idE et telle que Inv(u) ={0}. SoitPule polynˆome caract´e- ristique deu.Puest de degr´e 3 donc admet au moins une racine r´eelleλ, qui est donc valeur propre deu. Soit xun vecteur propre associ´e `a la valeur propreλ. x6= 0 etu(x) = λx. On a alorsku(x)k=kλxk=|λ| kxk.
Par ailleurs, on a ku(x)k =kxk car u est orthogonale, donc |λ| · kxk =kxk. x6= 0 donckxk 6= 0 et donc
|λ|= 1, c’est-`a-direλ∈ {−1,1}. λ6= 1 sinon on aurait dim(Inv(u))>1, ce qui est exclu. On en d´eduit alors λ=−1.
SoitD =Rx. SoitP =D⊥. D est invariant par udonc il en est de mˆeme pour P et u|P∈O(P).u|P n’est pas une r´eflexion car cela contredirait dim(Inv(u)) = 0 donc u|P est une rotation. Il existe donc une base orthonormale (e1, e2, e3) deE, avece1∈Rx=D,e2, e3∈P et un r´eelθ tels que la matrice deudans cette base est
A=
−1 0 0
0 cosθ −sinθ 0 sinθ cosθ
.
Soient B etC les matrices d´efinies de la mani`ere suivante :
B =
1 0 0
0 cosθ −sinθ 0 sinθ cosθ
etC=
−1 0 0
0 1 0
0 0 1
.
On a B×C =C×B =A. Soit r l’application orthogonale dont la matrice dans la base (e1, e2, e3) estB. D’apr`es ce qui pr´ec`ede,r est une rotation d’axeD. Soit sl’application orthogonale dont a matrice dans la base (e1, e2, e3) estC.sest la r´eflexion par rapport `a D⊥ =P. On a ainsi montr´e queu=r◦s=s◦r. D’o`u l’existence.
Il reste `a montrer l’unicit´e :
Supposons que u=r◦s =s◦r, o`u rest une rotation d’axe D et s la r´eflexion par rapport `a P =D⊥. Il existe une base orthonormale (e1, e2, e3) de E et un r´eel θ tels que la matrice der dans la base (e1, e2, e3) soit :
1 0 0
0 cosθ −sinθ 0 sinθ cosθ
.
Re1=Det D⊥= Vect(e2, e3). Alors la matrice desdans la base (e1, e2, e3) est :
−1 0 0
0 1 0
0 0 1
.
Dans ce cas la matrice deudans la base (e1, e2, e3) est :
A=
1 0 0
0 cosθ −sinθ 0 sinθ cosθ
−1 0 0
0 1 0
0 0 1
=
−1 0 0
0 cosθ −sinθ 0 sinθ cosθ
.
La matrice deu2 dans la base (e1, e2, e3) est
−1 0 0
0 cosθ −sinθ 0 sinθ cosθ
−1 0 0
0 cosθ −sinθ 0 sinθ cosθ
=
1 0 0
0 cos(2θ) −sin(2θ) 0 sin(2θ) cos(2θ)
.
u2 est donc une rotation vectorielle.
θ6=π (mod 2π) sinon on auraitu=−idE, ce qui est exclu.
θ6= 0 (mod 2π) sinon on aurait dim(Inv(u)) = 2, ce qui est exclu.
On a donc θ 6= 0 (modπ), c’est-`a-dire 2θ 6= 0 (mod 2π). u2 est donc une rotation vectorielle distincte de l’identit´e donc Dest d´etermin´e de mani`ere unique et doncP =D⊥ aussi.
R´eciproquement, sir6=idE, alors il existeθ∈R\2πZtel que la matrice deudans la base (e1, e2, e3) soit :
−1 0 0
0 cosθ −sinθ 0 sinθ cosθ
.
Soitx= (x1, x2, x3)∈Inv(u). Alors
−x1=x1
(cosθ)x2−(sinθ)x3=x3
(sinθ)x2+ (cosθ)x3=x3
⇐⇒
x1= 0 (cosθ−1)x2−(sinθ)x3= 0 (sinθ)x2+ (cosθ−1)x3= 0
cosθ−1 −sinθ sinθ cosθ−1
= cos2θ−2 cosθ+ sin2θ= 2(1−cosθ)6= 0 carθ6= 0 (mod 2π) donc le syst`eme
(cosθ−1)x2−(sinθ)x3= 0 (sinθ)x2+ (cosθ−1)x3= 0
admet (0; 0) comme unique solution (syst`eme deCramer).
Finalement, x1=x2=x3 et donc Inv(u) ={0}.
Proposition 3.3
Soit u ∈ O(E). On note Inv(u) l’ensemble des ´el´ements de E invariants par u. On a la classification suivante :
dim(Inv(u)) Nature deu
3 idE
2 r´eflexion (sym´etrie orthogonale par rapport `a un planP) 1 rotation d’axeD, distincte de l’identit´e
0 r◦s=s◦r, o`urest une rotation d’axe Det sla r´eflexion par rapport `a D⊥
Th´eor`eme 3.4
La compos´ee de deux r´eflexions sP ◦sQ (par rapport aux plans P et Q) est une rotation d’axe P ∩Q siP 6=Qet l’identit´e sinon. R´eciproquement, toute rotationrD d’axe D et distincte de l’identit´e s’´ecrit comme produit de deux r´eflexionssP et sQ par rapports `a des plans P et Q contenantD et dont l’une peut ˆetre choisie arbitrairement.
Preuve.
Soient sP etsQ deux r´eflexions par rapport aux plans P etQ. SiP =Q, alors sP◦sQ=sP ◦sP =idE car sP est involutive. On suppose maintenantP 6=Q. SoitD =P ∩Q. dim(E) = 3 et dim(P) = dim(Q) = 2 doncD 6={0} (sinonE serait de dimension 4 au moins). dim(D)6= 2 sinonP =Q. D est donc une droite vectorielle etD⊥ est un plan vectoriel.
Notonsr=sP ◦sQ.r|D=idD doncr|D⊥∈O(D⊥).r|D⊥ est la compos´ee de deux r´eflexions planessP|D⊥ et sQ|D⊥ doncr|D⊥ est une rotation vectorielle deO(D⊥).rest alors, par d´efinition, une rotation deE.
R´eciproquement, soit rD une rotation vectorielle d’axe D. Alors r|D= idD et r|D⊥ est une rotation plane de D⊥. Soient P un plan vectoriel contenant D et sP la r´eflexion de E par rapport `a P. Alors sP|D⊥ est une r´eflexion plane deD⊥. D’apr`es ce qui a ´et´e vu en dimension 2, il existe une unique r´eflexion planesD0
par rapport `a une droite D0 ⊂ D⊥ telle que r|D⊥= sP|D⊥◦sD0. Soit Q = D0 ⊕D et sQ la r´eflexion par rapport `aQ. On a bien (sP◦sQ)|D=idD et (sP◦sQ)|D⊥ est une rotation du planD⊥,r|D= (sP◦sQ)|Det
r|D⊥= (sP◦sQ)|D⊥ doncr=sP◦sQ.
4 Reconnaˆıtre des endomorphismes orthogonaux
4.1 D´ eterminer l’angle d’une rotation
Soituune rotation dans un espace euclidien E de dimension 3. On sait que la matrice de udans une base orthonormale (e1, e2, e3) deE telle que Inv(u) = Vect(e1) est
1 0 0
0 cosθ −sinθ 0 sinθ cosθ
.
La trace deune d´epend pas de la base choisie donc tr(u) = 1 + 2 cosθ, ce qui permet d’obtenir cosθ.
Soitx= (x1;x2;x3)∈E, les coordonn´ees dex´etant exprim´ees dans la base (e1, e2, e3).
u(x) =
1 0 0
0 cosθ −sinθ 0 sinθ cosθ
x1
x2 x3
=
x1
(cosθ)x2−(sinθ)x3 (sinθ)x2+ (cosθ)x3
.
det(x, u(x), e1) =
x1 x1 1
x2 (cosθ)x2−(sinθ)x3 0 x3 (sinθ)x2+ (cosθ)x3 0
= (sinθ)x22+ (sinθ)x23= (sinθ)(x22+x23)
donc det(x, u(x), e1) est du signe de sinθ, ce qui permet de d´eterminerθ.
4.2 Exemple 1
Reconnaˆıtre l’endomorphismeudeR3 dont la matrice dans la base canonique est
A=1 3
−2 −1 2
2 −2 1
1 2 2
.
Les vecteurs colonnes de Aforment une famille orthonormale de R3 donc u∈O(R3). pour calculer det(A), nous allons effectuer les op´erations ´el´ementaires L1←L1+L2 etL2←L2−2L3 :
det(A) = 1 27
−2 −1 2
2 −2 1
1 2 2
= 1 27
0 3 6
0 −6 −3
1 2 2
= 1 27
3 6
−6 −3
= 1
doncu∈O+(R3).uest donc une rotation. L’axe de la rotation estD= Inv(u).
(x, y, z)∈Inv(u) ⇐⇒
−2 3x−1
3y+2 3z=x 2
3x−2 3y+1
3z=y 1
3x+2 3y+2
3z=z
⇐⇒
−5x−y+ 2z= 0 2x−5y+z= 0 x+ 2y−z= 0
Pour r´esoudre ce syst`eme, nous allons effectuer les op´erations ´el´ementairesL1←L1+ 5L3etL2←L2−2L3. On obtient :
9y−3z= 0
−9y+ 3z= 0 x+ 2y−z= 0
⇐⇒
z= 3y x=y doncD= Vect(e01), avece01= 1
√11(e1+e2+ 3e3), vecteur unitaire deR3. tr(u) = tr(A) =−2
3−2 3+2
3 =−2
3. Par ailleurs, tr(u) = 1 + 2 cosθdonc 1 + 2 cosθ=−2
3 et donc cosθ=−5 6. Nous allons d´eterminer le signe de sinθen calculant :
det(e1, u(e1), e01) =
1 −23 √1
11
0 23 √1
11
0 13 √3
11
= 5
3√ 11 >0
donc sinθ >0 et doncθ= arccos
−5 6
(mod 2π).
u est donc la rotation d’axe D = Vect(e01), avec e01 = 1
√
11(e1+e2+ 3e3), et d’angle θ = arccos
−5 6
(mod 2π).
4.3 Exemple 2
Reconnaˆıtre l’endomorphismeudeR3 dont la matrice dans la base canonique est
A=−1 9
−8 4 1
4 7 4
1 4 −8
.
Les vecteurs colonnes deA forment une famille orthonormale deR3 doncu∈O(R3). Pour calculer det(A), nous allons effectuer les op´erations ´el´ementaires L1←L1+ 8L3et L2←L2−4L3:
det(u) = det(A) =− 1 729
−8 4 1
4 7 4
1 4 −8
=− 1 729
0 36 −63
0 −9 36
1 4 −8
=− 1 729
36 −63
−9 36
=−81 729
4 −7
−1 4
=−1
donc u∈O−(R3). uest soit une r´eflexion, soit la compos´ee commutative d’une r´eflexion et d’une rotation dont l’axe est orthogonal au plan de la r´eflexion.
tA=Adoncu−1=u.uest involutive doncuest une r´eflexion. Nous allons d´eterminer Inv(u) :
(x, y, z)∈Inv(u) ⇐⇒
8 9x−4
9y−1 9z=x
−4 9x−7
9y−4 9z=y
−1 9x−4
9y+8 9z=z
⇐⇒
−x−4y−z= 0
−4x−16y−4z= 0
−x−4y−z= 0
⇐⇒ x+ 4y+z= 0
donc Inv(u) = Vect(e01, e02), avece01=−4e1+e2ete02=−e1+e3.uest la r´eflexion par rapport `a Vect(e01, e02).
4.4 Exemple 3
Reconnaˆıtre l’endomorphismeudeR3 dont la matrice dans la base canonique est
A=−1 4
3 1 √
6
1 3 −√
6
−√
6 √
6 2
.
Les vecteurs colonnes deA forment une famille orthonormale deR3 doncu∈O(R3). Pour calculer det(A), nous allons effectuer les op´erations ´el´ementaires L1←L1−3L2et L3←L3+√
6L2 :
det(u) = det(A) =−1 64
3 1 √
6
1 3 −√
6
−√
6 √
6 2
=−1 64
0 −8 4√
6
1 3 −√
6 0 4√
6 −4
= 1 64
−8 4√ 6 4√
6 −4
=−1
donc u∈O−(R3). uest soit une r´eflexion, soit la compos´ee commutative d’une r´eflexion et d’une rotation dont l’axe est orthogonal au plan de la r´eflexion. tA 6= A donc u n’est pas une r´eflexion. u s’´ecrit don s◦r=r◦s, o`usest une r´eflexion par rapport `a un planP et rest la rotation d’axeD=P⊥. On sait que D={λ∈R3, u(λ) =−λ}.
(x, y, z)∈D ⇐⇒
−3 4x−1
4y−
√6 4 z=−x
−1 4x−3
4y+
√6 4 z=−y
√6 4 x−
√6 4 y−2
4z=−z
⇐⇒
x−y−√ 6z= 0
−x+y+√ 6z= 0
√ 6x−√
6y+ 2z= 0
Les deux premi`eres ´equations de ce syst`eme sont identiques. En effectuantL3← L3−√
6L1, on obtient le syst`eme suivant :
x−y−√ 6z= 0
z= 0
⇐⇒
x=y z= 0 doncD= Vect(e01), avece01= 1
√2(e1+e2). Il reste `a d´eterminer l’angleθde la rotationr.
tr(u) = tr(A) =−3 4−3
4 −2
4 =−2. donc −1 + 2 cosθ=−2 et donc cosθ=−1 2 . Nous allons d´eterminer le signe de sinθen calculant :
det(e1, u(e1), e01) =
1 −34 √12 0 −14 √1
2
0
√ 6
4 0
=−
√6 4√
2 <0
donc sinθ <0 et doncθ=−2π
3 (mod 2π).
u=s◦r=r◦s, o`ur est la rotation d’axe Vect(e01), avece01= 1
√2(e1+e2) et d’angleθ=−2π
3 (mod 2π), et sest la r´eflexion par rapport `a (Vect(e01))⊥.