• Aucun résultat trouvé

Espaces Euclidiens  chapitre-20.pdf

N/A
N/A
Protected

Academic year: 2021

Partager "Espaces Euclidiens  chapitre-20.pdf"

Copied!
15
0
0

Texte intégral

(1)

Chapitre 24

Espaces euclidiens

Objectifs

– Définir les notions de produit scalaire, d’orthogonalité, de bases orthonormales.

– Définir les notions d’endomorphismes orthogonaux, de matrices orthogonales, étudier leurs propriétés. – Étudier les endomorphismes orthogonaux en dimension 1, 2 et 3.

Sommaire

I) Produit scalaire . . . . 1 1) Définitions. . . 1 2) Orthogonalité . . . 2 3) Bases orthonormales . . . 4 4) Projections orthogonales . . . 4

5) Distance d’un vecteur à un s.e.v. . . 5

II) Endomorphismes orthogonaux . . . . 6

1) definition . . . 6

2) Matrices orthogonales. . . 7

3) Espace vectoriel euclidien orienté . . . 8

4) Produit mixte . . . 9

5) Produit vectoriel en dimension 3 . . . 9

III) Endomorphismes orthogonaux en dimension 1, 2 et 3 . . . . 10

1) En dimension 1 . . . 10

2) Dans le plan. . . 10

3) En dimension 3 . . . 12

IV) Exercices . . . . 14

Dans tout le chapitre, E désigne un R-espace vectoriel.

I)

Produit scalaire

1)

Définitions

D

ÉFINITION 24.1

Un produit scalaire sur E est une forme bilinéaire sur E, généralement notée(.|.), qui à tout couple de vecteurs(x, y) associe le réel (x|y), et qui vérifie :

∀ x, y ∈ E, (x| y) = ( y|x) (symétrie).∀ x ∈ E, (x|x) ¾ 0 (positive).

∀ x ∈ E, si (x|x) = 0, alors x = 0 (définie).

Lorsque E est muni d’un produit scalaire(.|.), on dit que (E, (.|.)) est un espace euclidien s’il est de dimension finie, ou un espace pré-hilbertien sinon.

(2)

Produit scalaire Chapitre 24 : Espaces euclidiens

Exemples:

– Produit scalaire canonique de Rn:(x|y) = n P i=1 xiyi. – E= C0([a; b], R) et ∀ f , g ∈ E, (f |g) =Rb a f(t)g(t) d t.

– E l’ensemble des fonctions continues sur R et 2π-périodiques, on définit un produit scalaire sur E en posant : ∀ f , g ∈ E, ( f |g) = 1 2π Z2π 0 f(t)g(t) d t – Pour x, y ∈ R2,ϕ(x, y) = x

1y1+ x1y2+ x2y1+ 2x2y2est un produit scalaire sur R2, mais pasψ(x, y) =

x1y1+ x1y2+ x2y1+ x2y2.

THÉORÈME24.1 (Inégalité de Cauchy-Schwarz)

Ð

∀ x, y ∈ E, (x| y)2¶ (x |x )( y | y ).

Preuve:∀ λ ∈ R, (x + λ y|x + λ y) ¾ 0, ce qui donne en développant : λ2(y|y) + 2λ(x|y) + (x|x) ¾ 0. Lorsque

(y|y) 6= 0, alors le discriminant du trinôme en λ doit être négatif ou nul, ce qui donne l’inégalité.

Lorsque(y|y) = 0, alors y = 0 et l’inégalité est triviale. ƒ

THÉORÈME24.2 (cas d’égalité)

Ð

∀ x, y ∈ E, (x| y)2= (x|x)(y|y) ⇐⇒ (x, y) est liée.

Preuve: Celle-ci est simple et laissée en exercice. ƒ

D

ÉFINITION 24.2 (norme euclidienne)

Soit x ∈ (E, (.|.)), on pose kxk =p(x|x), c’est la norme euclidienne de x. Un vecteur de norme égale à 1 est dit unitaire.

Si x est non nul alors le vecteur 1

kxkx est unitaire. Propriétés :kxk = 0 ⇐⇒ x = 0.∀ λ ∈ R, kλxk = |λ|kxk.kx + yk ¶ kxk + k yk (inégalité triangulaire). Exemples:

– Soient x, y∈ E deux vecteurs non nuls, montrer que kx + yk = kxk + k yk ⇐⇒ ∃ α > 0, x = α y. – E= Rn, avec le produit scalaire canonique, l’inégalité de Cauchy-Schwarz s’écrit :

n X i=1 xiyi !2 ¶ n X i=1 xi2 ! n X i=1 yi2 ! et kxk = s n X i=1 xi2

– E = C0([a; b], R) avec le produit scalaire : (f |g) =Rabf(t)g(t) d t, l’inégalité de Cauchy-Schwarz s’écrit :

Rb a f(t)f g(t) d t 2 ¶ Rb a f 2 Rb a g 2 et k f k = q Rb a f 2.

Relations entre le produit scalaire et la norme :kx + yk2= kxk2+ kyk2+ 2(x|y).

kx + yk2+ kx − yk2= 2(kxk2+ kyk2) (théorème de la médiane ou identité du parallélogramme). – 4(x|y) = kx + yk2− kx − yk2(identité de polarisation).

(3)

Produit scalaire Chapitre 24 : Espaces euclidiens

D

ÉFINITION 24.3

Soient x, y∈ E, et soient F, G deux s.e.v de E, on dit que : – x et y sont orthogonaux lorsque(x|y) = 0.

– F et G sont orthogonaux lorsque∀ x ∈ F, ∀ y ∈ G, (x| y) = 0.

On appelle orthogonal de A (une partie de E), l’ensemble des vecteurs de E orthogonaux à tous les vecteurs de A, notation : A= {x ∈ E / ∀ y ∈ A, (x|y) = 0}. On remarquera que dire que F et G sont orthogonaux équivaut à F⊂ G, ou encore G⊂ F⊥.

Le seul vecteur orthogonal à tous les autres est le vecteur nul, i.e. E⊥= {0}, car le produit scalaire est défini.

THÉORÈME24.3 (de Pythagore)

Ð Deux vecteurs x et y sont orthogonaux ssi

kx + yk2= kxk2+ kyk2.

THÉORÈME24.4

Ð Si F est un s.e.v de E, alors Fest un s.e.v de E en somme directe avec F .

Preuve: Pour y∈ E, on pose fy: E→ R définie par fy(x) = (x|y), alors fy est une forme linéaire sur E, et il est facile

de voir que F⊥= T

y∈F

ker(fy), ce qui prouve que Fest un s.e.v de E. Si x∈ F ∩ F⊥, alors on doit avoir(x|x) = 0,

d’où x= 0. ƒ Propriétés : – Si F ⊂ G, alors G⊂ F⊥. – F ⊂ (F⊥)⊥. – (F + G)= F∩ G⊥. THÉORÈME24.5 Ð Ð Ð Ð Ð Ð Ð Ð

Si dim(E) = n et si F est un s.e.v de E de dimension p, alors dim(F) = n − p, on a donc :

E= F ⊕ F⊥.

Preuve: On sait que dim(F ⊕ F) ¶ n, d’où dim(F) ¶ n − p.

Soit f : E→ Rp l’application définie par f(x) = ((e

1|x), . . . , (ep|x)) où B = (e1, . . . , ep) désigne une base de F,

alors il est facile de voir que f est linéaire et que ker(f ) = F. D’après le théorème du rang, on a n= dim(F)+rg(f ) ¶

dim(F) + p, ce qui donne dim(F) ¾ n − p, et donc dim(F) = n − p.

ƒ Quelques conséquences :(F⊥)⊥= F.(F ∩ G)= F+ G⊥. THÉORÈME24.6 Ð Ð Ð

Soit f : E→ R une forme linéaire, alors il existe un unique vecteur a ∈ E tel que ∀ x ∈ E, f (x) = (a|x).

Preuve: Pour l’existence : si f est nulle alors on peut prendre a= 0. Si f est non nulle, alors ker(f ) est un hyperplan

de E, donc ker(f )= Vect [u] est une droite vectorielle. Posons f (u) = λ et prenons a =kukλ2u. Il est facile de vérifier

que pour tout x∈ E, f (x) = (a|x).

(4)

Produit scalaire Chapitre 24 : Espaces euclidiens

3)

Bases orthonormales

D

ÉFINITION 24.4

Une famille(x1, . . . , xp) de E est dite orthonormale lorsque ∀ i, j ∈ [[1..p]], (ei|ej) = δi j. Cette famille

est dite orthogonale lorsque∀ i, j ∈ [[1..p]], i 6= j =⇒ (ei|ej) = 0.

THÉORÈME24.7

Ð Ð Ð

Une famille orthogonale ne contenant pas le vecteur nul est libre. En particulier, une famille orthonormale est libre.

Preuve: Soit(e1, . . . , ep) une famille orthogonale ne contenant pas le vecteur nul, si p P k=1λk ek= 0, alors soit i ∈ [[1..p]], on a(ei| p P k=1λk ek) = p P k=1λk(ei|ek) = λikeik 2= 0, ce qui entraîne λ i= 0. ƒ

Cas particulier : si dim(E) = n, alors une famille orthonormale de n vecteurs est une base de E, on dit que l’on a une base orthonormale (b.o.n en abrégé). Par exemple, la base canonique que Rnest une base orthonormale pour le produit scalaire canonique.

THÉORÈME24.8

Ð Ð Ð Ð

Si(e1, . . . , ep) est une famille orthogonale, alors : k

p P k=1 eik2= p P i=1keik 2. Preuve: En effet, on ak p P i=1 eik2= p P i, j=1(ei|ej) = p P i=1keik 2. ƒ

THÉORÈME24.9 (coordonnées dans une b.o.n)

Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð

Soit B= (e1, . . . , en) une b.o.n de E, alors ∀ x, y ∈ E :

x = n X i=1 (x|ei)ei (x|y) = n X i=1 xiyi kxk2= n X i=1 xi2

avec xi= (x|ei) et yi= (y|ei).

Preuve: Soit CoordB(x) = (λ1, . . . ,λn), on a (x|ek) = ( n P i=1λi ei|ek) = n P i=1λi(ei|ek) = λk

. Pour les deux autres points, il

suffit de développer le produit scalaire. ƒ

THÉORÈME24.10

Ð Il existe toujours des bases orthonormales.

Preuve: Par récurrence sur n= dim(E) : pour n = 1, on a E = Vect e1, une b.o.n de E est(e10) avec e01=

e1

ke1k.

Supposons le théorème vrai au rang n− 1 (n ¾ 1), et soit e1un vecteur unitaire de E, soit F= Vect e1

⊥ , alors F est un s.e.v de dimension n− 1, soit (e2, . . . , en) une b.o.n de F, il est facile de voir que (e1, e2, . . . , en) est une b.o.n de

E. ƒ

(5)

Produit scalaire Chapitre 24 : Espaces euclidiens

D

ÉFINITION 24.5

Soit p ∈ L (E) une projection (p ◦ p = p), on dit que p est une projection orthogonale lorsque ker(p) = ker(p − id)⊥. Si F est un s.e.v de E, la projection orthogonale sur F , notée p

F, est la

projection sur F parallèlement à F⊥.

Si F est un s.e.v de E, alors la projection orthogonale sur F⊥ est id− pF.

THÉORÈME24.11

Ð Ð Ð Ð

Si F est un s.e.v de E, et si(e1, . . . , ep) est une b.o.n de F, alors : ∀ x ∈ E, pF(x) =

p

P

i=1

(x|ei)ei.

Preuve: Soit(ep+1, . . . , en) une b.o.n de F⊥, alors B= (e1, . . . , en) est une b.o.n de E, donc x = n P i=1 (x|ei)ei, ce qui donne x= p P i=1(x|ei)ei+ n P i=p+1(x|ei)ei

, la première somme désigne un vecteur de F , et la seconde un vecteur de F⊥, donc pF(x) =

p

P

i=1(x|ei)ei

. ƒ

Exemple: Si D= Vect [u] est une droite vectorielle, alors (e1= u

kuk) est une b.o.n de D, donc ∀ x ∈ E, pD(x) = (x|e1)e1,

c’est à dire : pD(x) =(x|u)kuk2.u.

THÉORÈME24.12 (procédé d’orthonormalisation de Schmidt1)

Ð Ð Ð Ð Ð Ð Ð Ð Ð

Soit(e1, . . . , en) une base de E, alors il existe une unique b.o.n (v1, . . . , vn) de E telle que :

∀ i ∈ [[1..n]], ¨ Vecte1, . . . , ei  = Vect v1, . . . , vi  (ei|vi) > 0 . Preuve: On pose v1= e1 ke1k

, on a bien Vecte1= Vect v

1 et(e1|v1) > 0.

Supposons les vecteurs v1, . . . , viconstruits et vérifiant les conditions, on pose e0i+1= pF

i (ei+1) où Fi= Vect v1, . . . , vi

 = Vecte1, . . . , ei, ce qui donne ei0+1= ei+1−

i

P

k=1

(ei+1|vk)vk, ce vecteur e0i+1 est non nul et dans Fi+1, on pose ensuite

vi+1=

e0

i+1

ke0

i+1k, il est facile de voir que Vect

e1, . . . , ei+1= Vect v1, . . . , vi+1. D’autre part,(ei+1|vi+1) = (e0i+1|vi+1) =

ke0i+1k > 0.

On remarque qu’à chaque étape, il y a deux choix pour vi, mais la condition(ei|vi) > 0 élimine une des deux

possibilités, ce qui entraîne l’unicité, car on doit prendre e0i+1dans Fi+1∩ Fi⊥qui est une droite vectorielle. ƒ

Exercice: Soit E= R3, muni du produit scalaire canonique, on pose v

1= (1, 1, 0), v2= (1, 0, 1) et v3= (0, 1, 1).

Appliquer la méthode de Schmidt à la base(v1, v2, v3).

Réponse: On pose e1= v1 kv1k = 1 p 2(1, 1, 0), puis e 0 2= v2− (v2| e1) · e1= (12,−12, 1) et e2= e0 2 ke0 2k = 1 p 6(1, −1, 2). Enfin, e0 3= v3− (v3| e1) · e1− (v3| e2) · e2=23(−1, 1, 1) et e3= e0 3 ke0 3k= 1 p 3(−1, 1, 1).

5)

Distance d’un vecteur à un s.e.v

Soit F un s.e.v de E et soit x∈ E, pour tout vecteur y ∈ F, on a kx − yk2= k(pF(x) − y) + pF(x)k2= kpF(x) − yk2+ kpF(x)k2, on voit donc que∀ y ∈ E, kx − yk2 ¾ kpF(x)k2, et que cette valeur est un minimum atteint uniquement pour y= pF(x), d’où le théorème :

(6)

Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens THÉORÈME24.13 Ð Ð Ð Ð Ð

Soit F un s.e.v de E, pour x ∈ E, l’ensemble {kx − yk / y ∈ F} admet un minimum, celui-ci est atteint uniquement pour y= pF(x), et vaut kpF(x)k. Ce minimum est appelé distance de x à F et noté d(x, F) : d(x, F) = miny∈Fkx − yk = kpF(x)k = kx − pF(x)k.

Exemples:

– Distance d’un vecteur à une droite : Soit D= Vect [u] une droite vectorielle, on sait que pD(x) =(x|u)kuk2u, d’où

d(x, D) =pkx − pD(x)k2=

q

kxk2(x|u)2 kuk2 .

– Distance d’un vecteur à un hyperplan : Soit H un hyperplan de E, alors H= Vect [u] est une droite vectorielle, d’où d(x, H) = kpD(x)k =|(x|u)|kuk .

II)

Endomorphismes orthogonaux

1)

definition

D

ÉFINITION 24.6

Une isométrie vectorielle de E (ou endomorphisme orthogonal de E) est une application f ∈ L (E) telle que∀ x ∈ E, k f (x)k = kxk (on dit que f conserve la norme), l’ensemble des endomorphismes orthogonaux de E est noté O(E).

Exemple: idE, h−1sont des endomorphismes orthogonaux de E.

THÉORÈME24.14

Ð Ð Ð

Un endomorphisme f de E est une isométrie ssi f conserve le produit scalaire, c’est à dire : ∀ x, y ∈ E, ( f (x)| f ( y)) = (x| y).

Preuve: Si f conserve le produit scalaire, il est clair que f conserve la norme, et donc f ∈ O(E).

Réciproquement, si f ∈ O(E) : soient x, y ∈ E, k f (x) + f ( y)k2= kxk2+ kyk2+ 2(f (x)|f (y)), mais on a aussi

k f (x) + f ( y)k2= kf (x + y)k2= kx + yk2= kxk2+ kyk2+ 2(x|y), d’où (f (x)|f (y)) = (x|y).

ƒ

THÉORÈME24.15

Ð Ð Ð

O(E) est un groupe pour la loi ◦, plus précisément c’est un sous-groupe de GL(E), on l’appelle : groupe orthogonal de E.

Preuve: Si f ∈ O(E), alors si x ∈ ker( f ), on a k f (x)k = 0 = kxk, d’où x = 0, donc f est injective, comme E est de dimension finie, on a bien f ∈ GL(E). D’autre part, idE ∈ O(E), soient f , g ∈ O(E), k f (g(x))k = kg(x)k = kxk, donc

f ◦ g ∈ O(E), kxk = k f ( f−1(x))k = kf−1(x)k, donc f−1∈ O(E). ƒ

D

ÉFINITION 24.7 (symétrie orthogonale)

Soient s∈ L (E) une symétrie (s2= idE), soit F= ker(s − id) et G = ker(s + id), alors on sait que

sest la symétrie par rapport à F et parallèlement à G. On dit que s est une symétrie orthogonale lorsque F= G, on parle alors de la symétrie orthogonale par rapport à F (notée sF).

THÉORÈME24.16

(7)

Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens

Preuve: Soit sF la symétrie orthogonale par rapport au s.e.v F , soit p=

1

2(s+id), alors on sait que p est la projection sur

Fparallèlement à ker(s+id) = F, donc p est une projection orthogonale. Soit x∈ E, ksF(x)k2= kpF(x)−pF(x)k2=

kpF(x)k2+ kpF(x)k2, orkxk2= kpF(x) + pF(x)k2= kpF(x)k2+ kpF(x)k2= ksF(x)k2, d’où sF∈ O(E). ƒ

Une projection orthogonale qui n’est pas l’identité, n’est pas une isométrie (elle n’est pas bijective).

D

ÉFINITION 24.8 (réflexion)

Une réflexion est une symétrie orthogonale par rapport à un hyperplan.

Exercice: Soient u, v ∈ E deux vecteurs non nuls, de même norme et distincts. Montrer qu’il existe une unique réflexion qui échange u et v.

Réponse: Réponse : soit w = u − v, soit H = Vect [w]et s= sH, on a(u − v|u + v) = kuk2− kvk2= 0, donc

u+ v ∈ H, on a donc s(u − v) = v − u et s(u + v) = u + v, la résolution de ce système donne s(u) = v et s(v) = u.

Si s0 est une autre réflexion qui convient, alors on doit avoir s0(u − v) = v − u, donc ker(s0+ id) = Vect [w] et par conséquent, s0= s.

Remarque : l’hyperplan H s’appelle hyperplan médiateur de[u; v], car si x ∈ H, alors ku − xk = ks(v) − s(x)k = kv − xk.

THÉORÈME24.17

Ð Soit f ∈ L (E), alors f ∈ O(E) ⇐⇒ f transforme une b.o.n en une b.o.n de E.

Preuve: Soit B= (e1, . . . , en) une b.o.n de E, on a (ei|ej) = δi, j. Si f ∈ O(E), alors ( f (ei)|f (ek)) = (ei|ej) = δi, j, donc

B0= (f (e1), . . . , f (en)) est une b.o.n de E.

Réciproquement, si B0 = (f (e1), . . . , f (en)) est une b.o.n de E, alors pour x ∈ E, kf (x)k2= k n P i=1 xif(ei)k2= n P i=1 x2i = kxk2, donc f ∈ O(E). ƒ

2)

Matrices orthogonales

THÉORÈME24.18 Ð Ð Ð Ð Ð Ð Ð Ð Ð

Soit f ∈ L (E), soit B une base orthonornale de E et soit A = mat

B (f ) ∈ Mn(R), alors : f ∈ O(E) ⇐⇒ tA× A = In. Preuve: Soit B= (e1, . . . , en), on a [tA× A]i, j= n P k=1 ak,iak, j= (f (ei)|f (ej)) = δi, j, donctA× A = In. ƒ

D

ÉFINITION 24.9

Soit A∈ Mn(R), on dit que A est une matrice orthogonale lorsquetA× A= In, l’ensemble des matrices orthogonales de taille n est noté On(R).

THÉORÈME24.19 (Caractérisations des matrices orthogonales)

Ð Ð Ð Ð Ð Ð Ð

Soit A∈ Mn(R), les assertions suivantes sont équivalentes : – A∈ On(R).

– A est inversible et A−1=tA.

(8)

Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens

Preuve: On sait que[tA× A]i, j=

n

P

k=1

ak,iak, j= (ci(A)|cj(A)) (produit scalaire canonique dans Rn). Donc le troisième

point équivaut[tA× A]

i, j= δi, j. ƒ

Conséquences On(R) est un groupe multiplicatif, c’est en fait un sous-groupe de (GLn(R), ×), que l’on appelle groupe orthogonal de type n sur R.

THÉORÈME24.20

Ð Si f

∈ O(E), alors det( f ) = ±1. Si A ∈ On(R) alors det(A) = ±1.

Preuve: Si A est la matrice de f dans une base orthonormale, alors A∈ On(R) donctA× A = In, on en déduit que

det(tA× A) = 1 = det(A)2, et donc det(A) = ±1. ƒ

D

ÉFINITION 24.10

L’application det :(O(E), ◦) → ({±1}, ×) est un morphisme de groupes. Son noyau est donc un sous-groupe de O(E) que l’on appelle groupe des rotations et que l’on note SO(E) : groupe spécial orthogonal de E (parfois noté O+(E)). On a donc :

SO(E) = {f ∈ O(E) / det(f ) = 1}.

L’ensemble des matrices orthogonales de déterminant égal à 1 est un sous-groupe de On(R) que l’on note SOn(R) : groupe spécial orthogonal de type n sur R.

Exemples: – Soit A=12      −1 1 −1 1 1 1 1 1 1 −1 −1 1 −1 −1 1 1     

, les vecteurs colonnes de A sont unitaires et deux à deux orthogonaux, donc

A∈ O4(R), on a det(A) = 1, donc A est la matrice d’une rotation.

– Une réflexion n’est pas dans SO(E), en effet, soit s la réflexion par rapport à un hyperplan H, soit enun vecteur

unitaire de la droite H⊥, et soit (e1, . . . , en−1) une b.o.n de H, alors B = (e1, . . . , en) est une b.o.n de E et

mat B (s) =        1 0 · · · 0 0 ... ... .. . 1 0 0 · · · 0 −1       

, on voit donc que det(s) = −1.

Composée d’endomorphismes orthogonaux : en raisonnant sur le déterminant, on obtient : – La composée de deux rotations est une rotation.

– La composée d’une rotation et d’une isométrie négative(det = −1) est une isométrie négative. – La composée de deux isométries négatives est une rotation.

it f ∈ O(E), soit F un s.e.v de E, montrer que si F est stable par f , alors F⊥aussi.

3)

Espace vectoriel euclidien orienté

Soit(E, (.|.)) un espace euclidien orienté.

THÉORÈME24.21 (caractérisation des rotations)

Ð Ð Ð

Un endomorphisme f de E est une rotation ssi f transforme une b.o.n.d en une b.o.n.d (on dit que

(9)

Endomorphismes orthogonaux Chapitre 24 : Espaces euclidiens

Preuve: Si f ∈ SO(E) : soit B = (e1, . . . , en) une b.o.n.d de E, on sait que f transforme B en une b.o.n de

E, B0= (f (e1), . . . , f (en)), le déterminant de la matrice de passage est le déterminant de f qui vaut 1, donc B0est

une base directe.

Réciproquement : si f transforme une b.o.n.d B en une b.o.n.d B0, alors on sait que f ∈ O(E), le déterminant de

f vaut±1, or le déterminant de f est le déterminant de la matrice de passage de B à B0et celui-ci est strictement

positif, donc det(f ) = 1, i.e. f est une rotation. ƒ

4)

Produit mixte

THÉORÈME24.22 Ð Ð Ð Ð Ð

Soit B une b.o.n.d de E, soit B0une autre base orthonormale de E, alors : – Si B0est directe, alors detB0= detB.

– Si B0est indirecte, alors detB0= − detB.

Preuve: Si B0est indirecte, alors la matrice de passage de B à B0a un déterminant strictement négatif, mais cette matrice est une matrice orthogonale, donc son déterminant vaut−1. Or on a la relation detB= detB(B0) detB0, et

donc detB= − detB0. ƒ

L’espace vectoriel E est euclidien, orienté et de dimension n.

D

ÉFINITION 24.11

Soit B = (e1, . . . , en) une b.o.n.d de E, soit (x1, . . . , xn) une famille de vecteurs de E. On ap-pelle produit mixe des vecteurs x1, . . . , xn, le réel noté[x1, . . . , xn] et défini par : [x1, . . . , xn] =

detB(x1, . . . , xn). D’après le théorème précédent, ce nombre ne dépend pas de la b.o.n.d choisie.

Le produit mixte étant un déterminant, il hérite des propriétés de ce dernier.

Exemple: En dimension deux : soit B= (u, v) une b.o.n.d de E, E peut être identifié à C. Soient x, y ∈ E \ {0},

alors x = kxk(cos(θ)u + sin(θ)v), et y = kyk(cos(θ0)u + sin(θ0)v), d’où (x|y) = kxkkyk cos(θ0− θ ), ou encore (x|y) = kxkkyk cos(α) où α = (x, y) (mod 2π). De même, [x, y] = kxkkyk sin(α), donc l’angle α entre les vecteurs

xet y dans le plan orienté est défini par :

cos(α) = (x|y)

kxkk yk et sin(α) = [x, y] kxkk yk.

5)

Produit vectoriel en dimension 3

(E, (.|.)) est un espace vectoriel euclidien orienté de dimension 3.

D

ÉFINITION 24.12

Soit u, v∈ E, l’application f : E → R définie par f (x) = [u, v, x] est une forme linéaire sur E, donc il existe un unique vecteur a∈ E tel que ∀ x ∈ E, [u, v, x] = (a|x). Par définition, ce vecteur a est appelé produit vectoriel de u et v, on le note u∧ v.

Propriétés du produit vectoriel – u∧ v = 0 ssi (u, v) est liée.

Preuve: Si(u, v) est liée, alors ∀ x ∈ E, (u, v, x) est liée, donc [u, v, x] = 0, et par conséquent, u ∧ v = 0.

Si(u, v) est libre, alors il existe x ∈ E tel que (u, v, x) est une base de E, donc [u, v, x] 6= 0, ce qui entraîne

u∧ v 6= 0. ƒ

– u∧ v est orthogonal à u et v.

(10)

Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens

– Si(u, v) est libre, alors (u, v, u ∧ v) est une base directe de E.

Preuve: Soit P= Vect [u, v], alors (u ∧ v) est une base de la droite P⊥, donc(u, v, u ∧ v) est une base de E. Soit B une b.o.n.d de E, alors le déterminant de la famille(u, v, u ∧ v) dans la base B est le produit mixte [u, v, u ∧ v] = ku ∧ vk2> 0, cette famille est donc bien une base directe.

ƒ – Le produit vectoriel est bilinéaire et antisymétrique.

ku ∧ vk2= kuk2kvk2− (u|v)2.

Preuve: Soit B = (i, j, k) une b.o.n.d de E, [u, v, u ∧ v] = det(

 

(u|i) (v|i) (u ∧ v|i) (u|j) (v|j) (u ∧ v|j) (u|k) (v|k) (u ∧ v|k)

), soit A cette

matrice, le calcul detA× A donnetA× A =

   kuk2 (u|v) 0 (u|v) kvk2 0 0 0 ku ∧ vk2  

, on obtient alors det(

tA× A) = det(A)2=

ku ∧ vk

kuk2kvk2− (u|v)

, mais ceci est égal à[u, v, u ∧ v]2= ku ∧ vk4. Si la famille(u, v) est liée alors la formule est évidente, sinon on peut simplifier parku ∧ vk2dans l’expression ci-dessus, ce qui donne la formule. On remarquera que si u et v sont unitaires orthogonaux, alors(u, v, u ∧ v) est une b.o.n.d de E. ƒ Lorsque(u, v) est libre, alors d’après l’inégalité de Cauchy-Schwarz (u|v)

kukkvk ∈ [−1; 1], donc il existe un unique réelθ ∈ [0; π] tel que (u|v) = kukkvk cos(θ), on obtient alors ku ∧ vk = kukkvk sin(θ). Ce réelθ est appelé mesure de l’angle (u, v), c’est un élément de [0; π].

– Coordonnées de u∧ v dans une b.o.n.d : soit (i, j, k) une b.o.n.d de E, alors :

u∧ v = u2 v2 u3 v3 iu1 v1 u3 v3 j+ u1 v1 u2 v2 k.

Preuve: La coordonnée sur i de u∧ v est (i|u ∧ v) = [i, u, v] = u2 v2 u3 v3

. Le raisonnement est le même pour les deux autres. On retient ceci en disant c’est le développement suivant la troisième colonne du « déterminant » u1 v1 i u2 v2 j u3 v3 k . On remarquera que i∧ j = k, i ∧ k = − j et j ∧ k = i. ƒ – Formule du double produit vectoriel :∀ x, y, z ∈ E, x ∧ ( y ∧ z) = (x|z) y − (x| y)z.

Preuve: On choisit (i, j, k) une b.o.n telle que x = αi, y = βi + γj et z = ai + b j + ck, on a alors : y∧ z = bβ k − cβ j − aγk + cγi d’où x ∧ ( y ∧ z) = −bαβ j − cαβ k + aαγ j = [aαγ − bαβ] j − cαβ k. D’autre part,

(x|z) = aα et (x|y) = αβ, donc on a (x|z)y − (x|y)z = aαβi + aαγj − aαβi − αβ b j − αβck ce qui donne

[aαγ − bβα]j − cαβk, ce qui donne l’égalité. ƒ

Exercice: Soit u un vecteur unitaire de E, montrer que pour x∈ E, (u ∧ x) ∧ u est le projeté orthogonal de x sur le plan P= Vect [u]⊥.

Réponse: Le projeté orthogonal de x sur la droite Vect[u] est (x|u)u, donc le projeté orthogonal de x sur P est x− (x|u)u qui est égal à (u ∧ x) ∧ u d’après la formule du double produit vectoriel.

III)

Endomorphismes orthogonaux en dimension 1, 2 et 3

1)

En dimension 1

Si dim(E) = 1 et si f ∈ O(E), alors f est une homothétie de rapport λ ∈ R, mais f conserve la norme donc∀ x ∈ E, kλxk = kxk, ce qui donne en prenant x 6= 0, |λ| = 1, d’où O(E) = {±idE}.

2)

Dans le plan

Soit E un plan euclidien orienté et soit f ∈ O(E), on effectue la classification suivant les invariants de

f : F = ker(f − idE).

– dim(F) = 2 : alors f = id ∈ SO(E).

(11)

Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens

restriction de f à F⊥est−idF. Soit v un vecteur unitaire de F⊥, alors B= (u, v) est une b.o.n de E et on a mat B (f ) = ‚ 1 0 0 −1 Œ

, donc f est la réflexion d’axe F .

Soit B0= (i, j) une b.o.n.d, il existe un réel θ tel que u = cos(θ/2)i + sin(θ/2)j, on prend alors

v= − sin(θ/2)i + cos(θ/2)j, la matrice de passage de B0à B est P= ‚

cos(θ/2) − sin(θ/2) sin(θ/2) cos(θ/2)

Π, et la matrice de f dans la base B0est mat

B0 (f ) = ‚ cos(θ) sin(θ) sin(θ) − cos(θ) Œ .

– dim(F) = 0, seul le vecteur nul est invariant par f , soit B = (i, j) une b.o.n.d de E, alors mat B (f ) = A= ‚ a b c d Œ , avec    a2+ c2 = 1 b2+ d2 = 1 a b+ cd = 0

, avec les complexes z= a + ic et z0= b + id, on a |z| = |z0| = 1,

donc z= eiθ, z0= eiθ0, avec Re(zz0) = ab + cd = 0, donc cos(θ − θ0) = 0, d’où θ0= θ + π/2 + kπ, ce qui donne

(

b= cos(θ0) = − sin(θ)

d= sin(θ0) = cos(θ) , ou bien

(

b= cos(θ0) = sin(θ)

d= sin(θ0) = − cos(θ) , mais le second cas

correspond à une réflexion d’après l’étude précédente, il reste donc : mat B (f ) = ‚ cos(θ) − sin(θ) sin(θ) cos(θ) Œ , cette matrice est notée R(θ), c’est la matrice d’une rotation.

Soit u un vecteur non nul, et soit v = f (u), notons X = ‚

a b

Œ

les coordonnées de x dans la base B, alors les coordonnées de v sont X0=

‚

acos(θ) − b sin(θ)

asin(θ) + b cos(θ) Œ

, d’où (u|v) = (a2+ b2) cos(θ) = kukk f (u)k cos(θ ), et d’autre part [u, v] = (a2+ b2) sin(θ) = kukkf (u)k sin(θ), donc θ est l’angle orienté des deux vecteurs u et v. On dit que f est la rotation d’angleθ. On remarquera que la matrice de f est la même dans toutes les b.o.n.d de E.

En résumé : → SO(E) = { f ∈ O(E) / ∃ θ ∈ R, mat

B (f ) = R(θ)}, où B est une b.o.n.d quelconque de E

→ O−(E) = {f ∈ O(E) / ∃ θ ∈ R, mat B (f ) = ‚ cos(θ) sin(θ) sin(θ) − cos(θ) Œ },

où B est une b.o.n.d quelconque de E. Ce sont des réflexions d’axe Vect[u] où u= cos(θ/2)i + sin(θ/2)j.

→ SO2(R) = {R(θ) / θ ∈ R} et O−2(R) = { ‚ cos(θ) sin(θ) sin(θ) − cos(θ) Œ / θ ∈ R} −→ı −→ θ/2 D D⊥ −→x 2 −→x = −→x 1 + −→x2 −→x 1 s(−→x ) = −→x1 − −→x2 −−→x2 −→ı −→ θ −→x r(−→x )

(12)

Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens

FIGURE24.1: Réflexion et rotation

Propriété : L’application R : R → SO2(R) définie par R(θ) = ‚

cos(θ) − sin(θ) sin(θ) cos(θ)

Œ

est un morphisme de groupes surjectif. En particulier, on a R(0) = I2 et ∀ θ , θ0 ∈ R, R(θ + θ0) = R(θ) × R(θ0), d’où

R(θ)−1= R(−θ).

THÉORÈME24.23

Ð Le groupe des rotations,(SO(E), ◦), est commutatif.

Composée de deux réflexions : Soit B= (i, j) une b.o.n.d de E, soit s la réflexion d’axe Vect [u] et s0la réflexion d’axe Vectu0 avec u= cos(θ/2)i + sin(θ/2)j et u0= cos(θ0/2)i + sin(θ0/2)j. La matrice de

s◦ s0dans la base B est la matrice A= ‚ cos(θ) sin(θ) sin(θ) − cos(θ) Œ × ‚ cos0) sin0) sin0) − cos(θ0) Œ = R(θ − θ0), donc

s◦ s0est la rotation d’angleθ − θ0= 2(u0, u) (mod 2π). Ce calcul montre en même temps, qu’une rotation peut s’écrire comme la composée de deux réflexions dont une est arbitraire.

3)

En dimension 3

Soit E une espace euclidien orienté de dimension 3, et soit f ∈ O(E), la classification se fait suivant la dimension de F = ker(f − idE).

– dim(F) = 3 : alors f = idE, c’est une rotation.

– dim(F) = 2, alors F est un plan stable par f , donc F= Vect [u] (avec u unitaire) est une droite stable par f sur laquelle le seul vecteur invariant est 0, donc la restriction de f à F⊥est−idF⊥, d’où

f(u) = −u, f est donc la réflexion par rapport au plan F, et f ∈ O(E).

Soit x ∈ E, le projeté orthogonal de x sur F est (u ∧ x) ∧ u et son projeté sur F⊥est(x|u)u, donc

x= (x|u)u + (u ∧ x) ∧ u, on en déduit :

∀x ∈ E, f (x) = −(x|u)u + (u ∧ x) ∧ u). C’est l’expression vectorielle de la réflexion par rapport au plan Vect[u]⊥.

– dim(F) = 1 : alors F = Vect [u] est une droite vectorielle stable par f (avec u unitaire), donc Fest un plan stable par f sur lequel le seul vecteur invariant est 0, donc la restriction de f à F⊥ est une rotation. Soit(v, w) une b.o.n.d de Forienté par u, alors B= (u, v, w) est une b.o.n.d de

E, et la matrice de f dans la base B est : mat B (f ) =    1 0 0 0 cos(θ) − sin(θ) 0 sin(θ) cos(θ)   . Le déterminant de

cette matrice vaut 1, donc f est une rotation, on dit que f est la rotation d’axe Vect[u] et d’angle

θ dans le plan Vect [u]orienté par u. Soit x ∈ E, le projeté orthogonal de x sur F est (x|u)u et son projeté sur F⊥ est(u ∧ x) ∧ u = (x|v)v + (x|w)w, l’image de ce dernier vecteur dans le plan F⊥ par la rotation est :(x|v)[cos(θ)v + sin(θ)w] + (x|w)[− sin(θ)v + cos(θ)w], c’est à dire cos(θ)[(x|v)v+(x|w)w]+sin(θ)[(x|v)w−(x|w)v], ce qui donne cos(θ)(u∧ x)∧u+sin(θ)x ∧(w∧v), ou encore : cos(θ)(u ∧ x) ∧ u + sin(θ)u ∧ x. Finalement :

∀x ∈ E, f (x) = (x|u)u + cos(θ )(u ∧ x) ∧ u + sin(θ )u ∧ x.

C’est l’expression vectorielle de la rotation f . On remarquera que tr(f ) = 1 + 2 cos(θ), et si x est un vecteur unitaire orthogonal à u, alors x∧ f (x) = sin(θ )u, ce qui permet de déterminer l’angle de la rotation.

(13)

Endomorphismes orthogonaux en dimension 1, 2 et 3 Chapitre 24 : Espaces euclidiens

un plan stable par f sur lequel seul le vecteur nul est invariant, donc la restriction de f à D⊥est une rotation, soit(v, w) une b.o.n.d de Dorienté par u, alors B= (u, v, w) est une b.o.n.d de E et :

mat B (f ) =    −1 0 0 0 cos(θ) − sin(θ) 0 sin(θ) cos(θ)   ,

le déterminant de cette matrice vaut−1 donc f ∈ O(E). Soit s la réflexion par rapport au plan Det r la rotation d’axe D= Vect [u] et d’angle θ, il est facile de vérifier que f = s ◦ r = r ◦ s. D’autre part, pour tout vecteur x∈ E :

f(x) = −(x|u)u + cos(θ)(u ∧ x) ∧ u + sin(θ)u ∧ x.

C’est l’expression vectorielle de f . On remarquera que tr(f ) = −1 + 2 cos(θ), et que si x est un vecteur unitaire orthogonal à u, alors x∧ f (x) = sin(θ )u, ce qui permet de déterminer l’angle θ .

En résumé :

→ SO(E) = { f ∈ O(E) / ∃ B, b.o.n.d, ∃ θ ∈ R, mat B (f ) =    1 0 0 0 cos(θ) − sin(θ) 0 sin(θ) cos(θ)   }

(les invariants forment une droite vectorielle si f 6= idE)

→ Si det( f ) = −1, alors soit f est une réflexion (un plan invariant),

soit f est la composée commutative entre une rotation d’axe Vect[u] et une réflexion par rapport au plan Vect[u]⊥.

−→x = −→x 1 + −→x2 −→x 2 −→x 1 −−→x2 s(−→x ) = −→x1 − −→x2 P= D P s◦ r(−x ) = r ◦ s(−x ) r(−→x ) r(−→x1)

FIGURE24.2: réflexion, rotation, et composée commutative

THÉORÈME24.24

(14)

Exercices Chapitre 24 : Espaces euclidiens

Preuve: Si f est une rotation d’axe D= Vect [u], alors la restriction de f au plan D⊥est une rotation (plane) qui peut donc s’écrire comme composée de deux réflexions du plan D⊥, le résultat en découle. ƒ

IV)

Exercices

ÆExercice 24.1

Soit B= (i, j, k) la base canonique de R3, dans les cas suivants, dire siϕ est un produit scalaire, et si c’est le cas, appliquer la méthode de Schmidt à B :

a) ϕ(x, y) = 3 P i=1 (x2 i + y 2 i ). b) ϕ(x, y) = x1y1− x2y2+ x3y3. c) ϕ(x, y) = (x1− 2x2)(y1− 2 y2) + x2y2+ (x2+ x3)(y2+ y3). ÆExercice 24.2

Soit B= (i, j, k) une b.o.n de E, soient v1(1, 1, 2), v2(1, 2, −2) et v3(5, −4, 0) trois vecteurs de E. Montrer que B0= (v1, v2, v3) est une base de E, et appliquer à B0la méthode de Schmidt.

ÆExercice 24.3

Soit E= Mn(R), on pose pour A, B ∈ E, ϕ(A, B) = tr(tA× B).

a) Montrer queϕ est un produit scalaire sur E. La base canonique de E est -elle orthonormale ? Comment s’écrit l’inégalité de Cauchy-Schwarz ? Le cas d’égalité ?

b) Soit D = Vect In, pour A ∈ E, calculer la distance de A à D. En déduire une condition nécessaire et suffisante pour que A∈ D à l’aide de la trace.

ÆExercice 24.4

Soit E un espace euclidien de dimension 5, soit B une b.o.n de E et soient v1(1, 0, 0, 1, −2),

v2(2, 0, 1, 0, 2) et v3(0, 1, 2, 0, 1) trois vecteurs de E. On pose F = Vect v1, v2, v3, déterminer une b.o.n de F⊥.

ÆExercice 24.5

Soit E un espace euclidien et soit f ∈ L (E) tel que ∀ x ∈ E, (x| f (x)) = 0. Montrer que ker( f ) et Im(f ) sont supplémentaires orthogonaux.

ÆExercice 24.6

Soit f un endomorphisme d’un espace euclidien E, tel que∀ x ∈ E, k f (x)k ¶ kxk. Montrer que ker(f − idE) et Im(f − idE) ont supplémentaires.

Application : soit p ∈ L (E) une projection, montrer que p est une projection orthogonale ssi ∀ x ∈ E, kp(x)k ¶ kxk.

ÆExercice 24.7

Soit B= (e1, . . . , ep) une famille libre de p vecteurs dans un espace euclidien E, on suppose que

∀ x ∈ E, kxk2=

p

P

i=1

(x|ei)2.

a) Montrer que Vect”e1, . . . , ep

—⊥

= {0}, en déduire que B est une base de E. b) Soient x, y∈ E, montrer que (x| y) =

p P i=1 (x|ei)(y|ei). c) Soit x ∈ E et soit y = p P i=1

(x|ei)ei. Montrer quekxk2= kyk2= (x|y). En déduire que x = y,

puis que B est orthonormale. ÆExercice 24.8

Soit E un espace euclidien, pour tout s.e.v F de E, on note pF la projection orthogonale sur F . a) Soient F et G deux s.e.v de E, montrer que pF◦ pG= 0 ssi F et G sont orthogonaux. b) Montrer que pF+G= pF+ pGssi F et G sont orthogonaux.

(15)

Exercices Chapitre 24 : Espaces euclidiens

ÆExercice 24.9

Soit B une b.o.n.d d’un plan euclidien E, déterminer la nature de l’endomorphisme de E dont la matrice dans la base B est :

1 5 ‚ 4 −3 3 4 Œ 1 5 ‚ 4 3 3 −4 Œ 1 2 ‚p 3 1 −1 p3 Œ 1 2 ‚p 3 −1 −1 −p3 Œ . ÆExercice 24.10

Soit B une b.o.n.d d’un espace euclidien E de dimension 3, déterminer la nature de l’endomorphisme de E dont la matrice dans la base B est :

1 3    −1 2 2 2 −1 2 2 2 −1    1 3    2 −1 2 2 2 −1 −1 2 2    1 3    2 2 −1 −1 2 2 2 −1 2    1 4    −3 1 p6 1 −3 p6 −p6 p6 −2       0 1 0 0 0 1 −1 0 0   . ÆExercice 24.11

Soit E un espace euclidien de dimension 3, soit B= (i, j, k) une b.o.n.d de E, déterminer la matrice dans la base B de :

a) p, la projection orthogonale sur le plan P d’équation x+ y + z = 0. b) s, la réflexion par rapport au plan P d’équation 2x+ 3y + z = 0. c) s, le demi-tour d’axe Vect[u] avec u(1, 1, 1).

d) r, la rotation d’axe Vect[u] et d’angle π/2, avec u(0, 1, 1).

Références

Documents relatifs

Propriété 2 : L’endomorphisme est bijectif si, et seulement si, 0 n’est pas valeur propre de.. Théorème 3 : Soit un espace de dimension et un endomorphisme de. 1)

En déduire que le rang de A est égal au nombre de valeurs propres non nulles (comptées avec leur ordre de multiplicité) de t

majorés en valeur absolue par 1 (car la somme des carrés des coefficients d’une même colonne est égale à 1) donc les coefficients sont à valeurs dans {− 1, 0, 1 }4. De plus,

Soit P un polynôme annulateur unitaire de u (par exemple son polynôme caractéristique).. Ces deux matrices ont donc les mêmes valeurs propres et ces dernières ont même

[r]

Si on ne vous donne aucune indication (aucune valeur propre, aucun vecteur propre, aucun po- lynôme annulateur), pour trouver les valeurs propres d’une matrice A ∈ M n (R) il

Montrer qu’il existe une unique matrice symétrique S et une unique matrice antisy- métrique A (i.e. On note respectivement α et β la plus petite et la plus grande valeur propre de

On fixe en outre un espace vectoriel E de rang fini sur k, muni d’un produit scalaire h ,