Chapitre 24
Espaces euclidiens
Objectifs– Définir les notions de produit scalaire, d’orthogonalité, de bases orthonormales.
– Définir les notions d’endomorphismes orthogonaux, de matrices orthogonales, étudier leurs propriétés. – Étudier les endomorphismes orthogonaux en dimension 1, 2 et 3.
Sommaire
I) Produit scalaire . . . . 1 1) Définitions. . . 1 2) Orthogonalité . . . 2 3) Bases orthonormales . . . 4 4) Projections orthogonales . . . 45) Distance d’un vecteur à un s.e.v. . . 5
II) Endomorphismes orthogonaux . . . . 6
1) definition . . . 6
2) Matrices orthogonales. . . 7
3) Espace vectoriel euclidien orienté . . . 8
4) Produit mixte . . . 9
5) Produit vectoriel en dimension 3 . . . 9
III) Endomorphismes orthogonaux en dimension 1, 2 et 3 . . . . 10
1) En dimension 1 . . . 10
2) Dans le plan. . . 10
3) En dimension 3 . . . 12
IV) Exercices . . . . 14
Dans tout le chapitre, E désigne un R-espace vectoriel.
I)
Produit scalaire
1)
Définitions
D
ÉFINITION 24.1Un produit scalaire sur E est une forme bilinéaire sur E, généralement notée(.|.), qui à tout couple de vecteurs(x, y) associe le réel (x|y), et qui vérifie :
– ∀ x, y ∈ E, (x| y) = ( y|x) (symétrie). – ∀ x ∈ E, (x|x) ¾ 0 (positive).
– ∀ x ∈ E, si (x|x) = 0, alors x = 0 (définie).
Lorsque E est muni d’un produit scalaire(.|.), on dit que (E, (.|.)) est un espace euclidien s’il est de dimension finie, ou un espace pré-hilbertien sinon.
Produit scalaire Chapitre 24 : Espaces euclidiens
Exemples:
– Produit scalaire canonique de Rn:(x|y) = n P i=1 xiyi. – E= C0([a; b], R) et ∀ f , g ∈ E, (f |g) =Rb a f(t)g(t) d t.
– E l’ensemble des fonctions continues sur R et 2π-périodiques, on définit un produit scalaire sur E en posant : ∀ f , g ∈ E, ( f |g) = 1 2π Z2π 0 f(t)g(t) d t – Pour x, y ∈ R2,ϕ(x, y) = x
1y1+ x1y2+ x2y1+ 2x2y2est un produit scalaire sur R2, mais pasψ(x, y) =
x1y1+ x1y2+ x2y1+ x2y2.
THÉORÈME24.1 (Inégalité de Cauchy-Schwarz)
Ð
∀ x, y ∈ E, (x| y)2¶ (x |x )( y | y ).
Preuve:∀ λ ∈ R, (x + λ y|x + λ y) ¾ 0, ce qui donne en développant : λ2(y|y) + 2λ(x|y) + (x|x) ¾ 0. Lorsque
(y|y) 6= 0, alors le discriminant du trinôme en λ doit être négatif ou nul, ce qui donne l’inégalité.
Lorsque(y|y) = 0, alors y = 0 et l’inégalité est triviale.
THÉORÈME24.2 (cas d’égalité)
Ð
∀ x, y ∈ E, (x| y)2= (x|x)(y|y) ⇐⇒ (x, y) est liée.
Preuve: Celle-ci est simple et laissée en exercice.
D
ÉFINITION 24.2 (norme euclidienne)Soit x ∈ (E, (.|.)), on pose kxk =p(x|x), c’est la norme euclidienne de x. Un vecteur de norme égale à 1 est dit unitaire.
Si x est non nul alors le vecteur 1
kxkx est unitaire. Propriétés : – kxk = 0 ⇐⇒ x = 0. – ∀ λ ∈ R, kλxk = |λ|kxk. – kx + yk ¶ kxk + k yk (inégalité triangulaire). Exemples:
– Soient x, y∈ E deux vecteurs non nuls, montrer que kx + yk = kxk + k yk ⇐⇒ ∃ α > 0, x = α y. – E= Rn, avec le produit scalaire canonique, l’inégalité de Cauchy-Schwarz s’écrit :
n X i=1 xiyi !2 ¶ n X i=1 xi2 ! n X i=1 yi2 ! et kxk = s n X i=1 xi2
– E = C0([a; b], R) avec le produit scalaire : (f |g) =Rabf(t)g(t) d t, l’inégalité de Cauchy-Schwarz s’écrit :
Rb a f(t)f g(t) d t 2 ¶ Rb a f 2 Rb a g 2 et k f k = q Rb a f 2.
Relations entre le produit scalaire et la norme : – kx + yk2= kxk2+ kyk2+ 2(x|y).
– kx + yk2+ kx − yk2= 2(kxk2+ kyk2) (théorème de la médiane ou identité du parallélogramme). – 4(x|y) = kx + yk2− kx − yk2(identité de polarisation).
Produit scalaire Chapitre 24 : Espaces euclidiens
D
ÉFINITION 24.3Soient x, y∈ E, et soient F, G deux s.e.v de E, on dit que : – x et y sont orthogonaux lorsque(x|y) = 0.
– F et G sont orthogonaux lorsque∀ x ∈ F, ∀ y ∈ G, (x| y) = 0.
On appelle orthogonal de A (une partie de E), l’ensemble des vecteurs de E orthogonaux à tous les vecteurs de A, notation : A⊥= {x ∈ E / ∀ y ∈ A, (x|y) = 0}. On remarquera que dire que F et G sont orthogonaux équivaut à F⊂ G⊥, ou encore G⊂ F⊥.
Le seul vecteur orthogonal à tous les autres est le vecteur nul, i.e. E⊥= {0}, car le produit scalaire est défini.
THÉORÈME24.3 (de Pythagore)
Ð Deux vecteurs x et y sont orthogonaux ssi
kx + yk2= kxk2+ kyk2.
THÉORÈME24.4
Ð Si F est un s.e.v de E, alors F⊥est un s.e.v de E en somme directe avec F .
Preuve: Pour y∈ E, on pose fy: E→ R définie par fy(x) = (x|y), alors fy est une forme linéaire sur E, et il est facile
de voir que F⊥= T
y∈F
ker(fy), ce qui prouve que F⊥est un s.e.v de E. Si x∈ F ∩ F⊥, alors on doit avoir(x|x) = 0,
d’où x= 0. Propriétés : – Si F ⊂ G, alors G⊥⊂ F⊥. – F ⊂ (F⊥)⊥. – (F + G)⊥= F⊥∩ G⊥. THÉORÈME24.5 Ð Ð Ð Ð Ð Ð Ð Ð
Si dim(E) = n et si F est un s.e.v de E de dimension p, alors dim(F⊥) = n − p, on a donc :
E= F ⊕ F⊥.
Preuve: On sait que dim(F ⊕ F⊥) ¶ n, d’où dim(F⊥) ¶ n − p.
Soit f : E→ Rp l’application définie par f(x) = ((e
1|x), . . . , (ep|x)) où B = (e1, . . . , ep) désigne une base de F,
alors il est facile de voir que f est linéaire et que ker(f ) = F⊥. D’après le théorème du rang, on a n= dim(F⊥)+rg(f ) ¶
dim(F⊥) + p, ce qui donne dim(F⊥) ¾ n − p, et donc dim(F⊥) = n − p.
Quelques conséquences : – (F⊥)⊥= F. – (F ∩ G)⊥= F⊥+ G⊥. THÉORÈME24.6 Ð Ð Ð
Soit f : E→ R une forme linéaire, alors il existe un unique vecteur a ∈ E tel que ∀ x ∈ E, f (x) = (a|x).
Preuve: Pour l’existence : si f est nulle alors on peut prendre a= 0. Si f est non nulle, alors ker(f ) est un hyperplan
de E, donc ker(f )⊥= Vect [u] est une droite vectorielle. Posons f (u) = λ et prenons a =kukλ2u. Il est facile de vérifier
que pour tout x∈ E, f (x) = (a|x).
Produit scalaire Chapitre 24 : Espaces euclidiens
3)
Bases orthonormales
D
ÉFINITION 24.4Une famille(x1, . . . , xp) de E est dite orthonormale lorsque ∀ i, j ∈ [[1..p]], (ei|ej) = δi j. Cette famille
est dite orthogonale lorsque∀ i, j ∈ [[1..p]], i 6= j =⇒ (ei|ej) = 0.
THÉORÈME24.7
Ð Ð Ð
Une famille orthogonale ne contenant pas le vecteur nul est libre. En particulier, une famille orthonormale est libre.
Preuve: Soit(e1, . . . , ep) une famille orthogonale ne contenant pas le vecteur nul, si p P k=1λk ek= 0, alors soit i ∈ [[1..p]], on a(ei| p P k=1λk ek) = p P k=1λk(ei|ek) = λikeik 2= 0, ce qui entraîne λ i= 0.
Cas particulier : si dim(E) = n, alors une famille orthonormale de n vecteurs est une base de E, on dit que l’on a une base orthonormale (b.o.n en abrégé). Par exemple, la base canonique que Rnest une base orthonormale pour le produit scalaire canonique.
THÉORÈME24.8
Ð Ð Ð Ð
Si(e1, . . . , ep) est une famille orthogonale, alors : k
p P k=1 eik2= p P i=1keik 2. Preuve: En effet, on ak p P i=1 eik2= p P i, j=1(ei|ej) = p P i=1keik 2.
THÉORÈME24.9 (coordonnées dans une b.o.n)
Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð
Soit B= (e1, . . . , en) une b.o.n de E, alors ∀ x, y ∈ E :
x = n X i=1 (x|ei)ei (x|y) = n X i=1 xiyi kxk2= n X i=1 xi2
avec xi= (x|ei) et yi= (y|ei).
Preuve: Soit CoordB(x) = (λ1, . . . ,λn), on a (x|ek) = ( n P i=1λi ei|ek) = n P i=1λi(ei|ek) = λk
. Pour les deux autres points, il
suffit de développer le produit scalaire.
THÉORÈME24.10
Ð Il existe toujours des bases orthonormales.
Preuve: Par récurrence sur n= dim(E) : pour n = 1, on a E = Vect e1, une b.o.n de E est(e10) avec e01=
e1
ke1k.
Supposons le théorème vrai au rang n− 1 (n ¾ 1), et soit e1un vecteur unitaire de E, soit F= Vect e1
⊥ , alors F est un s.e.v de dimension n− 1, soit (e2, . . . , en) une b.o.n de F, il est facile de voir que (e1, e2, . . . , en) est une b.o.n de
E.
Produit scalaire Chapitre 24 : Espaces euclidiens
D
ÉFINITION 24.5Soit p ∈ L (E) une projection (p ◦ p = p), on dit que p est une projection orthogonale lorsque ker(p) = ker(p − id)⊥. Si F est un s.e.v de E, la projection orthogonale sur F , notée p
F, est la
projection sur F parallèlement à F⊥.
Si F est un s.e.v de E, alors la projection orthogonale sur F⊥ est id− pF.
THÉORÈME24.11
Ð Ð Ð Ð
Si F est un s.e.v de E, et si(e1, . . . , ep) est une b.o.n de F, alors : ∀ x ∈ E, pF(x) =
p
P
i=1
(x|ei)ei.
Preuve: Soit(ep+1, . . . , en) une b.o.n de F⊥, alors B= (e1, . . . , en) est une b.o.n de E, donc x = n P i=1 (x|ei)ei, ce qui donne x= p P i=1(x|ei)ei+ n P i=p+1(x|ei)ei
, la première somme désigne un vecteur de F , et la seconde un vecteur de F⊥, donc pF(x) =
p
P
i=1(x|ei)ei
.
Exemple: Si D= Vect [u] est une droite vectorielle, alors (e1= u
kuk) est une b.o.n de D, donc ∀ x ∈ E, pD(x) = (x|e1)e1,
c’est à dire : pD(x) =(x|u)kuk2.u.
THÉORÈME24.12 (procédé d’orthonormalisation de Schmidt1)
Ð Ð Ð Ð Ð Ð Ð Ð Ð
Soit(e1, . . . , en) une base de E, alors il existe une unique b.o.n (v1, . . . , vn) de E telle que :
∀ i ∈ [[1..n]], ¨ Vecte1, . . . , ei = Vect v1, . . . , vi (ei|vi) > 0 . Preuve: On pose v1= e1 ke1k
, on a bien Vecte1= Vect v
1 et(e1|v1) > 0.
Supposons les vecteurs v1, . . . , viconstruits et vérifiant les conditions, on pose e0i+1= pF⊥
i (ei+1) où Fi= Vect v1, . . . , vi
= Vecte1, . . . , ei, ce qui donne ei0+1= ei+1−
i
P
k=1
(ei+1|vk)vk, ce vecteur e0i+1 est non nul et dans Fi+1, on pose ensuite
vi+1=
e0
i+1
ke0
i+1k, il est facile de voir que Vect
e1, . . . , ei+1= Vect v1, . . . , vi+1. D’autre part,(ei+1|vi+1) = (e0i+1|vi+1) =
ke0i+1k > 0.
On remarque qu’à chaque étape, il y a deux choix pour vi, mais la condition(ei|vi) > 0 élimine une des deux
possibilités, ce qui entraîne l’unicité, car on doit prendre e0i+1dans Fi+1∩ Fi⊥qui est une droite vectorielle.
Exercice: Soit E= R3, muni du produit scalaire canonique, on pose v
1= (1, 1, 0), v2= (1, 0, 1) et v3= (0, 1, 1).
Appliquer la méthode de Schmidt à la base(v1, v2, v3).
Réponse: On pose e1= v1 kv1k = 1 p 2(1, 1, 0), puis e 0 2= v2− (v2| e1) · e1= (12,−12, 1) et e2= e0 2 ke0 2k = 1 p 6(1, −1, 2). Enfin, e0 3= v3− (v3| e1) · e1− (v3| e2) · e2=23(−1, 1, 1) et e3= e0 3 ke0 3k= 1 p 3(−1, 1, 1).
5)
Distance d’un vecteur à un s.e.v
Soit F un s.e.v de E et soit x∈ E, pour tout vecteur y ∈ F, on a kx − yk2= k(pF(x) − y) + pF⊥(x)k2= kpF(x) − yk2+ kpF⊥(x)k2, on voit donc que∀ y ∈ E, kx − yk2 ¾ kpF⊥(x)k2, et que cette valeur est un minimum atteint uniquement pour y= pF(x), d’où le théorème :
Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens THÉORÈME24.13 Ð Ð Ð Ð Ð
Soit F un s.e.v de E, pour x ∈ E, l’ensemble {kx − yk / y ∈ F} admet un minimum, celui-ci est atteint uniquement pour y= pF(x), et vaut kpF⊥(x)k. Ce minimum est appelé distance de x à F et noté d(x, F) : d(x, F) = miny∈Fkx − yk = kpF⊥(x)k = kx − pF(x)k.
Exemples:
– Distance d’un vecteur à une droite : Soit D= Vect [u] une droite vectorielle, on sait que pD(x) =(x|u)kuk2u, d’où
d(x, D) =pkx − pD(x)k2=
q
kxk2−(x|u)2 kuk2 .
– Distance d’un vecteur à un hyperplan : Soit H un hyperplan de E, alors H⊥= Vect [u] est une droite vectorielle, d’où d(x, H) = kpD(x)k =|(x|u)|kuk .
II)
Endomorphismes orthogonaux
1)
definition
D
ÉFINITION 24.6Une isométrie vectorielle de E (ou endomorphisme orthogonal de E) est une application f ∈ L (E) telle que∀ x ∈ E, k f (x)k = kxk (on dit que f conserve la norme), l’ensemble des endomorphismes orthogonaux de E est noté O(E).
Exemple: idE, h−1sont des endomorphismes orthogonaux de E.
THÉORÈME24.14
Ð Ð Ð
Un endomorphisme f de E est une isométrie ssi f conserve le produit scalaire, c’est à dire : ∀ x, y ∈ E, ( f (x)| f ( y)) = (x| y).
Preuve: Si f conserve le produit scalaire, il est clair que f conserve la norme, et donc f ∈ O(E).
Réciproquement, si f ∈ O(E) : soient x, y ∈ E, k f (x) + f ( y)k2= kxk2+ kyk2+ 2(f (x)|f (y)), mais on a aussi
k f (x) + f ( y)k2= kf (x + y)k2= kx + yk2= kxk2+ kyk2+ 2(x|y), d’où (f (x)|f (y)) = (x|y).
THÉORÈME24.15
Ð Ð Ð
O(E) est un groupe pour la loi ◦, plus précisément c’est un sous-groupe de GL(E), on l’appelle : groupe orthogonal de E.
Preuve: Si f ∈ O(E), alors si x ∈ ker( f ), on a k f (x)k = 0 = kxk, d’où x = 0, donc f est injective, comme E est de dimension finie, on a bien f ∈ GL(E). D’autre part, idE ∈ O(E), soient f , g ∈ O(E), k f (g(x))k = kg(x)k = kxk, donc
f ◦ g ∈ O(E), kxk = k f ( f−1(x))k = kf−1(x)k, donc f−1∈ O(E).
D
ÉFINITION 24.7 (symétrie orthogonale)Soient s∈ L (E) une symétrie (s2= idE), soit F= ker(s − id) et G = ker(s + id), alors on sait que
sest la symétrie par rapport à F et parallèlement à G. On dit que s est une symétrie orthogonale lorsque F= G⊥, on parle alors de la symétrie orthogonale par rapport à F (notée sF).
THÉORÈME24.16
Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens
Preuve: Soit sF la symétrie orthogonale par rapport au s.e.v F , soit p=
1
2(s+id), alors on sait que p est la projection sur
Fparallèlement à ker(s+id) = F⊥, donc p est une projection orthogonale. Soit x∈ E, ksF(x)k2= kpF(x)−pF⊥(x)k2=
kpF(x)k2+ kpF⊥(x)k2, orkxk2= kpF(x) + pF⊥(x)k2= kpF(x)k2+ kpF⊥(x)k2= ksF(x)k2, d’où sF∈ O(E).
Une projection orthogonale qui n’est pas l’identité, n’est pas une isométrie (elle n’est pas bijective).
D
ÉFINITION 24.8 (réflexion)Une réflexion est une symétrie orthogonale par rapport à un hyperplan.
Exercice: Soient u, v ∈ E deux vecteurs non nuls, de même norme et distincts. Montrer qu’il existe une unique réflexion qui échange u et v.
Réponse: Réponse : soit w = u − v, soit H = Vect [w]⊥et s= sH, on a(u − v|u + v) = kuk2− kvk2= 0, donc
u+ v ∈ H, on a donc s(u − v) = v − u et s(u + v) = u + v, la résolution de ce système donne s(u) = v et s(v) = u.
Si s0 est une autre réflexion qui convient, alors on doit avoir s0(u − v) = v − u, donc ker(s0+ id) = Vect [w] et par conséquent, s0= s.
Remarque : l’hyperplan H s’appelle hyperplan médiateur de[u; v], car si x ∈ H, alors ku − xk = ks(v) − s(x)k = kv − xk.
THÉORÈME24.17
Ð Soit f ∈ L (E), alors f ∈ O(E) ⇐⇒ f transforme une b.o.n en une b.o.n de E.
Preuve: Soit B= (e1, . . . , en) une b.o.n de E, on a (ei|ej) = δi, j. Si f ∈ O(E), alors ( f (ei)|f (ek)) = (ei|ej) = δi, j, donc
B0= (f (e1), . . . , f (en)) est une b.o.n de E.
Réciproquement, si B0 = (f (e1), . . . , f (en)) est une b.o.n de E, alors pour x ∈ E, kf (x)k2= k n P i=1 xif(ei)k2= n P i=1 x2i = kxk2, donc f ∈ O(E).
2)
Matrices orthogonales
THÉORÈME24.18 Ð Ð Ð Ð Ð Ð Ð Ð ÐSoit f ∈ L (E), soit B une base orthonornale de E et soit A = mat
B (f ) ∈ Mn(R), alors : f ∈ O(E) ⇐⇒ tA× A = In. Preuve: Soit B= (e1, . . . , en), on a [tA× A]i, j= n P k=1 ak,iak, j= (f (ei)|f (ej)) = δi, j, donctA× A = In.
D
ÉFINITION 24.9Soit A∈ Mn(R), on dit que A est une matrice orthogonale lorsquetA× A= In, l’ensemble des matrices orthogonales de taille n est noté On(R).
THÉORÈME24.19 (Caractérisations des matrices orthogonales)
Ð Ð Ð Ð Ð Ð Ð
Soit A∈ Mn(R), les assertions suivantes sont équivalentes : – A∈ On(R).
– A est inversible et A−1=tA.
Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens
Preuve: On sait que[tA× A]i, j=
n
P
k=1
ak,iak, j= (ci(A)|cj(A)) (produit scalaire canonique dans Rn). Donc le troisième
point équivaut[tA× A]
i, j= δi, j.
Conséquences On(R) est un groupe multiplicatif, c’est en fait un sous-groupe de (GLn(R), ×), que l’on appelle groupe orthogonal de type n sur R.
THÉORÈME24.20
Ð Si f
∈ O(E), alors det( f ) = ±1. Si A ∈ On(R) alors det(A) = ±1.
Preuve: Si A est la matrice de f dans une base orthonormale, alors A∈ On(R) donctA× A = In, on en déduit que
det(tA× A) = 1 = det(A)2, et donc det(A) = ±1.
D
ÉFINITION 24.10L’application det :(O(E), ◦) → ({±1}, ×) est un morphisme de groupes. Son noyau est donc un sous-groupe de O(E) que l’on appelle groupe des rotations et que l’on note SO(E) : groupe spécial orthogonal de E (parfois noté O+(E)). On a donc :
SO(E) = {f ∈ O(E) / det(f ) = 1}.
L’ensemble des matrices orthogonales de déterminant égal à 1 est un sous-groupe de On(R) que l’on note SOn(R) : groupe spécial orthogonal de type n sur R.
Exemples: – Soit A=12 −1 1 −1 1 1 1 1 1 1 −1 −1 1 −1 −1 1 1
, les vecteurs colonnes de A sont unitaires et deux à deux orthogonaux, donc
A∈ O4(R), on a det(A) = 1, donc A est la matrice d’une rotation.
– Une réflexion n’est pas dans SO(E), en effet, soit s la réflexion par rapport à un hyperplan H, soit enun vecteur
unitaire de la droite H⊥, et soit (e1, . . . , en−1) une b.o.n de H, alors B = (e1, . . . , en) est une b.o.n de E et
mat B (s) = 1 0 · · · 0 0 ... ... .. . 1 0 0 · · · 0 −1
, on voit donc que det(s) = −1.
Composée d’endomorphismes orthogonaux : en raisonnant sur le déterminant, on obtient : – La composée de deux rotations est une rotation.
– La composée d’une rotation et d’une isométrie négative(det = −1) est une isométrie négative. – La composée de deux isométries négatives est une rotation.
it f ∈ O(E), soit F un s.e.v de E, montrer que si F est stable par f , alors F⊥aussi.
3)
Espace vectoriel euclidien orienté
Soit(E, (.|.)) un espace euclidien orienté.
THÉORÈME24.21 (caractérisation des rotations)
Ð Ð Ð
Un endomorphisme f de E est une rotation ssi f transforme une b.o.n.d en une b.o.n.d (on dit que
Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens
Preuve: Si f ∈ SO(E) : soit B = (e1, . . . , en) une b.o.n.d de E, on sait que f transforme B en une b.o.n de
E, B0= (f (e1), . . . , f (en)), le déterminant de la matrice de passage est le déterminant de f qui vaut 1, donc B0est
une base directe.
Réciproquement : si f transforme une b.o.n.d B en une b.o.n.d B0, alors on sait que f ∈ O(E), le déterminant de
f vaut±1, or le déterminant de f est le déterminant de la matrice de passage de B à B0et celui-ci est strictement
positif, donc det(f ) = 1, i.e. f est une rotation.
4)
Produit mixte
THÉORÈME24.22 Ð Ð Ð Ð ÐSoit B une b.o.n.d de E, soit B0une autre base orthonormale de E, alors : – Si B0est directe, alors detB0= detB.
– Si B0est indirecte, alors detB0= − detB.
Preuve: Si B0est indirecte, alors la matrice de passage de B à B0a un déterminant strictement négatif, mais cette matrice est une matrice orthogonale, donc son déterminant vaut−1. Or on a la relation detB= detB(B0) detB0, et
donc detB= − detB0.
L’espace vectoriel E est euclidien, orienté et de dimension n.
D
ÉFINITION 24.11Soit B = (e1, . . . , en) une b.o.n.d de E, soit (x1, . . . , xn) une famille de vecteurs de E. On ap-pelle produit mixe des vecteurs x1, . . . , xn, le réel noté[x1, . . . , xn] et défini par : [x1, . . . , xn] =
detB(x1, . . . , xn). D’après le théorème précédent, ce nombre ne dépend pas de la b.o.n.d choisie.
Le produit mixte étant un déterminant, il hérite des propriétés de ce dernier.
Exemple: En dimension deux : soit B= (u, v) une b.o.n.d de E, E peut être identifié à C. Soient x, y ∈ E \ {0},
alors x = kxk(cos(θ)u + sin(θ)v), et y = kyk(cos(θ0)u + sin(θ0)v), d’où (x|y) = kxkkyk cos(θ0− θ ), ou encore (x|y) = kxkkyk cos(α) où α = (x, y) (mod 2π). De même, [x, y] = kxkkyk sin(α), donc l’angle α entre les vecteurs
xet y dans le plan orienté est défini par :
cos(α) = (x|y)
kxkk yk et sin(α) = [x, y] kxkk yk.
5)
Produit vectoriel en dimension 3
(E, (.|.)) est un espace vectoriel euclidien orienté de dimension 3.
D
ÉFINITION 24.12Soit u, v∈ E, l’application f : E → R définie par f (x) = [u, v, x] est une forme linéaire sur E, donc il existe un unique vecteur a∈ E tel que ∀ x ∈ E, [u, v, x] = (a|x). Par définition, ce vecteur a est appelé produit vectoriel de u et v, on le note u∧ v.
Propriétés du produit vectoriel – u∧ v = 0 ssi (u, v) est liée.
Preuve: Si(u, v) est liée, alors ∀ x ∈ E, (u, v, x) est liée, donc [u, v, x] = 0, et par conséquent, u ∧ v = 0.
Si(u, v) est libre, alors il existe x ∈ E tel que (u, v, x) est une base de E, donc [u, v, x] 6= 0, ce qui entraîne
u∧ v 6= 0.
– u∧ v est orthogonal à u et v.
Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens
– Si(u, v) est libre, alors (u, v, u ∧ v) est une base directe de E.
Preuve: Soit P= Vect [u, v], alors (u ∧ v) est une base de la droite P⊥, donc(u, v, u ∧ v) est une base de E. Soit B une b.o.n.d de E, alors le déterminant de la famille(u, v, u ∧ v) dans la base B est le produit mixte [u, v, u ∧ v] = ku ∧ vk2> 0, cette famille est donc bien une base directe.
– Le produit vectoriel est bilinéaire et antisymétrique.
– ku ∧ vk2= kuk2kvk2− (u|v)2.
Preuve: Soit B = (i, j, k) une b.o.n.d de E, [u, v, u ∧ v] = det(
(u|i) (v|i) (u ∧ v|i) (u|j) (v|j) (u ∧ v|j) (u|k) (v|k) (u ∧ v|k)
), soit A cette
matrice, le calcul detA× A donnetA× A =
kuk2 (u|v) 0 (u|v) kvk2 0 0 0 ku ∧ vk2
, on obtient alors det(
tA× A) = det(A)2=
ku ∧ vk2
kuk2kvk2− (u|v)2
, mais ceci est égal à[u, v, u ∧ v]2= ku ∧ vk4. Si la famille(u, v) est liée alors la formule est évidente, sinon on peut simplifier parku ∧ vk2dans l’expression ci-dessus, ce qui donne la formule. On remarquera que si u et v sont unitaires orthogonaux, alors(u, v, u ∧ v) est une b.o.n.d de E. Lorsque(u, v) est libre, alors d’après l’inégalité de Cauchy-Schwarz (u|v)
kukkvk ∈ [−1; 1], donc il existe un unique réelθ ∈ [0; π] tel que (u|v) = kukkvk cos(θ), on obtient alors ku ∧ vk = kukkvk sin(θ). Ce réelθ est appelé mesure de l’angle (u, v), c’est un élément de [0; π].
– Coordonnées de u∧ v dans une b.o.n.d : soit (i, j, k) une b.o.n.d de E, alors :
u∧ v = u2 v2 u3 v3 i− u1 v1 u3 v3 j+ u1 v1 u2 v2 k.
Preuve: La coordonnée sur i de u∧ v est (i|u ∧ v) = [i, u, v] = u2 v2 u3 v3
. Le raisonnement est le même pour les deux autres. On retient ceci en disant c’est le développement suivant la troisième colonne du « déterminant » u1 v1 i u2 v2 j u3 v3 k . On remarquera que i∧ j = k, i ∧ k = − j et j ∧ k = i. – Formule du double produit vectoriel :∀ x, y, z ∈ E, x ∧ ( y ∧ z) = (x|z) y − (x| y)z.
Preuve: On choisit (i, j, k) une b.o.n telle que x = αi, y = βi + γj et z = ai + b j + ck, on a alors : y∧ z = bβ k − cβ j − aγk + cγi d’où x ∧ ( y ∧ z) = −bαβ j − cαβ k + aαγ j = [aαγ − bαβ] j − cαβ k. D’autre part,
(x|z) = aα et (x|y) = αβ, donc on a (x|z)y − (x|y)z = aαβi + aαγj − aαβi − αβ b j − αβck ce qui donne
[aαγ − bβα]j − cαβk, ce qui donne l’égalité.
Exercice: Soit u un vecteur unitaire de E, montrer que pour x∈ E, (u ∧ x) ∧ u est le projeté orthogonal de x sur le plan P= Vect [u]⊥.
Réponse: Le projeté orthogonal de x sur la droite Vect[u] est (x|u)u, donc le projeté orthogonal de x sur P est x− (x|u)u qui est égal à (u ∧ x) ∧ u d’après la formule du double produit vectoriel.
III)
Endomorphismes orthogonaux en dimension 1, 2 et 3
1)
En dimension 1
Si dim(E) = 1 et si f ∈ O(E), alors f est une homothétie de rapport λ ∈ R, mais f conserve la norme donc∀ x ∈ E, kλxk = kxk, ce qui donne en prenant x 6= 0, |λ| = 1, d’où O(E) = {±idE}.
2)
Dans le plan
Soit E un plan euclidien orienté et soit f ∈ O(E), on effectue la classification suivant les invariants de
f : F = ker(f − idE).
– dim(F) = 2 : alors f = id ∈ SO(E).
Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens
restriction de f à F⊥est−idF⊥. Soit v un vecteur unitaire de F⊥, alors B= (u, v) est une b.o.n de E et on a mat B (f ) = 1 0 0 −1
, donc f est la réflexion d’axe F .
Soit B0= (i, j) une b.o.n.d, il existe un réel θ tel que u = cos(θ/2)i + sin(θ/2)j, on prend alors
v= − sin(θ/2)i + cos(θ/2)j, la matrice de passage de B0à B est P=
cos(θ/2) − sin(θ/2) sin(θ/2) cos(θ/2)
, et la matrice de f dans la base B0est mat
B0 (f ) = cos(θ) sin(θ) sin(θ) − cos(θ) .
– dim(F) = 0, seul le vecteur nul est invariant par f , soit B = (i, j) une b.o.n.d de E, alors mat B (f ) = A= a b c d , avec a2+ c2 = 1 b2+ d2 = 1 a b+ cd = 0
, avec les complexes z= a + ic et z0= b + id, on a |z| = |z0| = 1,
donc z= eiθ, z0= eiθ0, avec Re(zz0) = ab + cd = 0, donc cos(θ − θ0) = 0, d’où θ0= θ + π/2 + kπ, ce qui donne
(
b= cos(θ0) = − sin(θ)
d= sin(θ0) = cos(θ) , ou bien
(
b= cos(θ0) = sin(θ)
d= sin(θ0) = − cos(θ) , mais le second cas
correspond à une réflexion d’après l’étude précédente, il reste donc : mat B (f ) = cos(θ) − sin(θ) sin(θ) cos(θ) , cette matrice est notée R(θ), c’est la matrice d’une rotation.
Soit u un vecteur non nul, et soit v = f (u), notons X =
a b
les coordonnées de x dans la base B, alors les coordonnées de v sont X0=
acos(θ) − b sin(θ)
asin(θ) + b cos(θ)
, d’où (u|v) = (a2+ b2) cos(θ) = kukk f (u)k cos(θ ), et d’autre part [u, v] = (a2+ b2) sin(θ) = kukkf (u)k sin(θ), donc θ est l’angle orienté des deux vecteurs u et v. On dit que f est la rotation d’angleθ. On remarquera que la matrice de f est la même dans toutes les b.o.n.d de E.
En résumé : → SO(E) = { f ∈ O(E) / ∃ θ ∈ R, mat
B (f ) = R(θ)}, où B est une b.o.n.d quelconque de E
→ O−(E) = {f ∈ O(E) / ∃ θ ∈ R, mat B (f ) = cos(θ) sin(θ) sin(θ) − cos(θ) },
où B est une b.o.n.d quelconque de E. Ce sont des réflexions d’axe Vect[u] où u= cos(θ/2)i + sin(θ/2)j.
→ SO2(R) = {R(θ) / θ ∈ R} et O−2(R) = { cos(θ) sin(θ) sin(θ) − cos(θ) / θ ∈ R} −→ı −→ θ/2 D D⊥ −→x 2 −→x = −→x 1 + −→x2 −→x 1 s(−→x ) = −→x1 − −→x2 −−→x2 −→ı −→ θ −→x r(−→x )
Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens
FIGURE24.1: Réflexion et rotation
Propriété : L’application R : R → SO2(R) définie par R(θ) =
cos(θ) − sin(θ) sin(θ) cos(θ)
est un morphisme de groupes surjectif. En particulier, on a R(0) = I2 et ∀ θ , θ0 ∈ R, R(θ + θ0) = R(θ) × R(θ0), d’où
R(θ)−1= R(−θ).
THÉORÈME24.23
Ð Le groupe des rotations,(SO(E), ◦), est commutatif.
Composée de deux réflexions : Soit B= (i, j) une b.o.n.d de E, soit s la réflexion d’axe Vect [u] et s0la réflexion d’axe Vectu0 avec u= cos(θ/2)i + sin(θ/2)j et u0= cos(θ0/2)i + sin(θ0/2)j. La matrice de
s◦ s0dans la base B est la matrice A= cos(θ) sin(θ) sin(θ) − cos(θ) × cos(θ0) sin(θ0) sin(θ0) − cos(θ0) = R(θ − θ0), donc
s◦ s0est la rotation d’angleθ − θ0= 2(u0, u) (mod 2π). Ce calcul montre en même temps, qu’une rotation peut s’écrire comme la composée de deux réflexions dont une est arbitraire.
3)
En dimension 3
Soit E une espace euclidien orienté de dimension 3, et soit f ∈ O(E), la classification se fait suivant la dimension de F = ker(f − idE).
– dim(F) = 3 : alors f = idE, c’est une rotation.
– dim(F) = 2, alors F est un plan stable par f , donc F⊥= Vect [u] (avec u unitaire) est une droite stable par f sur laquelle le seul vecteur invariant est 0, donc la restriction de f à F⊥est−idF⊥, d’où
f(u) = −u, f est donc la réflexion par rapport au plan F, et f ∈ O−(E).
Soit x ∈ E, le projeté orthogonal de x sur F est (u ∧ x) ∧ u et son projeté sur F⊥est(x|u)u, donc
x= (x|u)u + (u ∧ x) ∧ u, on en déduit :
∀x ∈ E, f (x) = −(x|u)u + (u ∧ x) ∧ u). C’est l’expression vectorielle de la réflexion par rapport au plan Vect[u]⊥.
– dim(F) = 1 : alors F = Vect [u] est une droite vectorielle stable par f (avec u unitaire), donc F⊥ est un plan stable par f sur lequel le seul vecteur invariant est 0, donc la restriction de f à F⊥ est une rotation. Soit(v, w) une b.o.n.d de F⊥orienté par u, alors B= (u, v, w) est une b.o.n.d de
E, et la matrice de f dans la base B est : mat B (f ) = 1 0 0 0 cos(θ) − sin(θ) 0 sin(θ) cos(θ) . Le déterminant de
cette matrice vaut 1, donc f est une rotation, on dit que f est la rotation d’axe Vect[u] et d’angle
θ dans le plan Vect [u]⊥ orienté par u. Soit x ∈ E, le projeté orthogonal de x sur F est (x|u)u et son projeté sur F⊥ est(u ∧ x) ∧ u = (x|v)v + (x|w)w, l’image de ce dernier vecteur dans le plan F⊥ par la rotation est :(x|v)[cos(θ)v + sin(θ)w] + (x|w)[− sin(θ)v + cos(θ)w], c’est à dire cos(θ)[(x|v)v+(x|w)w]+sin(θ)[(x|v)w−(x|w)v], ce qui donne cos(θ)(u∧ x)∧u+sin(θ)x ∧(w∧v), ou encore : cos(θ)(u ∧ x) ∧ u + sin(θ)u ∧ x. Finalement :
∀x ∈ E, f (x) = (x|u)u + cos(θ )(u ∧ x) ∧ u + sin(θ )u ∧ x.
C’est l’expression vectorielle de la rotation f . On remarquera que tr(f ) = 1 + 2 cos(θ), et si x est un vecteur unitaire orthogonal à u, alors x∧ f (x) = sin(θ )u, ce qui permet de déterminer l’angle de la rotation.
Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens
un plan stable par f sur lequel seul le vecteur nul est invariant, donc la restriction de f à D⊥est une rotation, soit(v, w) une b.o.n.d de D⊥ orienté par u, alors B= (u, v, w) est une b.o.n.d de E et :
mat B (f ) = −1 0 0 0 cos(θ) − sin(θ) 0 sin(θ) cos(θ) ,
le déterminant de cette matrice vaut−1 donc f ∈ O−(E). Soit s la réflexion par rapport au plan D⊥ et r la rotation d’axe D= Vect [u] et d’angle θ, il est facile de vérifier que f = s ◦ r = r ◦ s. D’autre part, pour tout vecteur x∈ E :
f(x) = −(x|u)u + cos(θ)(u ∧ x) ∧ u + sin(θ)u ∧ x.
C’est l’expression vectorielle de f . On remarquera que tr(f ) = −1 + 2 cos(θ), et que si x est un vecteur unitaire orthogonal à u, alors x∧ f (x) = sin(θ )u, ce qui permet de déterminer l’angle θ .
En résumé :
→ SO(E) = { f ∈ O(E) / ∃ B, b.o.n.d, ∃ θ ∈ R, mat B (f ) = 1 0 0 0 cos(θ) − sin(θ) 0 sin(θ) cos(θ) }
(les invariants forment une droite vectorielle si f 6= idE)
→ Si det( f ) = −1, alors soit f est une réflexion (un plan invariant),
soit f est la composée commutative entre une rotation d’axe Vect[u] et une réflexion par rapport au plan Vect[u]⊥.
−→x = −→x 1 + −→x2 −→x 2 −→x 1 −−→x2 s(−→x ) = −→x1 − −→x2 P⊥= D P s◦ r(−→x ) = r ◦ s(−→x ) r(−→x ) r(−→x1)
FIGURE24.2: réflexion, rotation, et composée commutative
THÉORÈME24.24
Exercices Chapitre 24 : Espaces euclidiens
Preuve: Si f est une rotation d’axe D= Vect [u], alors la restriction de f au plan D⊥est une rotation (plane) qui peut donc s’écrire comme composée de deux réflexions du plan D⊥, le résultat en découle.
IV)
Exercices
ÆExercice 24.1
Soit B= (i, j, k) la base canonique de R3, dans les cas suivants, dire siϕ est un produit scalaire, et si c’est le cas, appliquer la méthode de Schmidt à B :
a) ϕ(x, y) = 3 P i=1 (x2 i + y 2 i ). b) ϕ(x, y) = x1y1− x2y2+ x3y3. c) ϕ(x, y) = (x1− 2x2)(y1− 2 y2) + x2y2+ (x2+ x3)(y2+ y3). ÆExercice 24.2
Soit B= (i, j, k) une b.o.n de E, soient v1(1, 1, 2), v2(1, 2, −2) et v3(5, −4, 0) trois vecteurs de E. Montrer que B0= (v1, v2, v3) est une base de E, et appliquer à B0la méthode de Schmidt.
ÆExercice 24.3
Soit E= Mn(R), on pose pour A, B ∈ E, ϕ(A, B) = tr(tA× B).
a) Montrer queϕ est un produit scalaire sur E. La base canonique de E est -elle orthonormale ? Comment s’écrit l’inégalité de Cauchy-Schwarz ? Le cas d’égalité ?
b) Soit D = Vect In, pour A ∈ E, calculer la distance de A à D. En déduire une condition nécessaire et suffisante pour que A∈ D à l’aide de la trace.
ÆExercice 24.4
Soit E un espace euclidien de dimension 5, soit B une b.o.n de E et soient v1(1, 0, 0, 1, −2),
v2(2, 0, 1, 0, 2) et v3(0, 1, 2, 0, 1) trois vecteurs de E. On pose F = Vect v1, v2, v3, déterminer une b.o.n de F⊥.
ÆExercice 24.5
Soit E un espace euclidien et soit f ∈ L (E) tel que ∀ x ∈ E, (x| f (x)) = 0. Montrer que ker( f ) et Im(f ) sont supplémentaires orthogonaux.
ÆExercice 24.6
Soit f un endomorphisme d’un espace euclidien E, tel que∀ x ∈ E, k f (x)k ¶ kxk. Montrer que ker(f − idE) et Im(f − idE) ont supplémentaires.
Application : soit p ∈ L (E) une projection, montrer que p est une projection orthogonale ssi ∀ x ∈ E, kp(x)k ¶ kxk.
ÆExercice 24.7
Soit B= (e1, . . . , ep) une famille libre de p vecteurs dans un espace euclidien E, on suppose que
∀ x ∈ E, kxk2=
p
P
i=1
(x|ei)2.
a) Montrer que Vecte1, . . . , ep
⊥
= {0}, en déduire que B est une base de E. b) Soient x, y∈ E, montrer que (x| y) =
p P i=1 (x|ei)(y|ei). c) Soit x ∈ E et soit y = p P i=1
(x|ei)ei. Montrer quekxk2= kyk2= (x|y). En déduire que x = y,
puis que B est orthonormale. ÆExercice 24.8
Soit E un espace euclidien, pour tout s.e.v F de E, on note pF la projection orthogonale sur F . a) Soient F et G deux s.e.v de E, montrer que pF◦ pG= 0 ssi F et G sont orthogonaux. b) Montrer que pF+G= pF+ pGssi F et G sont orthogonaux.
Exercices Chapitre 24 : Espaces euclidiens
ÆExercice 24.9
Soit B une b.o.n.d d’un plan euclidien E, déterminer la nature de l’endomorphisme de E dont la matrice dans la base B est :
1 5 4 −3 3 4 1 5 4 3 3 −4 1 2 p 3 1 −1 p3 1 2 p 3 −1 −1 −p3 . ÆExercice 24.10
Soit B une b.o.n.d d’un espace euclidien E de dimension 3, déterminer la nature de l’endomorphisme de E dont la matrice dans la base B est :
1 3 −1 2 2 2 −1 2 2 2 −1 1 3 2 −1 2 2 2 −1 −1 2 2 1 3 2 2 −1 −1 2 2 2 −1 2 1 4 −3 1 p6 1 −3 p6 −p6 −p6 −2 0 1 0 0 0 1 −1 0 0 . ÆExercice 24.11
Soit E un espace euclidien de dimension 3, soit B= (i, j, k) une b.o.n.d de E, déterminer la matrice dans la base B de :
a) p, la projection orthogonale sur le plan P d’équation x+ y + z = 0. b) s, la réflexion par rapport au plan P d’équation 2x+ 3y + z = 0. c) s, le demi-tour d’axe Vect[u] avec u(1, 1, 1).
d) r, la rotation d’axe Vect[u] et d’angle π/2, avec u(0, 1, 1).