• Aucun résultat trouvé

Espaces euclidiens 1. Géométrie d un espace euclidien. 2. Adjointe d une application linéaire. 3. Endomorphismes orthogonaux.

N/A
N/A
Protected

Academic year: 2022

Partager "Espaces euclidiens 1. Géométrie d un espace euclidien. 2. Adjointe d une application linéaire. 3. Endomorphismes orthogonaux."

Copied!
45
0
0

Texte intégral

(1)

Espaces euclidiens

1. Géométrie d’un espace euclidien.

2. Adjointe d’une application linéaire.

3. Endomorphismes orthogonaux.

4. Endomorphismes symétriques.

5. Endomorphismes antisymétriques.

6. Norme subordonnée, norme euclidienne sur LLLL(E).

7. Moindres carrés ; décomposition de Schmidt.

Pierre-Jean Hormière _____________

Alors, pour me sauver du doute,

J'ouvre un Euclide avec amour ; « Je voudrais l'homme fait par Euclide.

Il propose, il prouve, et j'écoute, Et moi, dit Gauvain, je l'aimerais mieux fait par Homère »

Et je suis inondé de jour. Victor Hugo

Sully Prudhomme

S’il revenait parmi nous, le vieil Euclide de Mégare (IVème, IIIème siècle avant J.-C.), immortel auteur des Éléments, serait fier de savoir qu’on parle encore de lui 2300 ans après sa mort... mais effaré d’apprendre qu’on appelle espace euclidien un espace vectoriel réel, de dimension finie, muni d’une forme bilinéaire symétrique définie positive, c’est-à-dire d’un produit scalaire euclidien (x | y) et de la norme ||x|| associée...

L’étude des endomorphismes de ces espaces est moins simple que celle des espaces hermitiens, car R n’est pas algébriquement clos : les théorèmes de décomposition spectrale, c’est-à-dire les

« dévissages » des endomorphismes, mettent en jeu des droites ou des plans stables. Ces théorèmes se généralisent aux espaces de Hilbert de dimension infinie : ils sont le point de départ de la théorie spectrale générale.

1. Géométrie d’un espace euclidien.

Définition : On appelle espace euclidien un espace vectoriel réel, de dimension finie, muni de la structure définie par la donnée d’un produit scalaire, c’est-à-dire d’une forme bilinéaire symétrique définie positive, notée (x, y) → (x | y), et de la norme associée ||x|| =

( )

xx .

Propriétés : Soit E un espace euclidien.

1) Pythagore. Deux vecteurs x et y sont orthogonaux ssi || x + y ||2 = ||x||2 + ||y||2 .

2) Cauchy-Schwarz. Pour tout couple (x, y), |(x | y)| ≤ ||x||.||y||, avec égalité ssi x et y sont liés.

3) Angle non orienté de deux vecteurs. Si x et y sont deux vecteurs non nuls, on appelle angle non orienté de x et y : θ = Arccos

( )

y x

y x

. ∈ [0, π].

4) Minkowski. L’application x → ||x|| =

( )

xx est une norme sur E. De plus ||x + y|| = ||x|| + ||y||

ssi x = 0 ou y = αx, avec α≥ 0, autrement dit, ssi x et y sont sur une même demi-droite vectorielle.

5) Segments et droites. Il y a coïncidence entre segment affine et segment métrique, entre droite affine et droite métrique. En clair, si a et b sont deux points distincts de E.

segment [a, b] = { λ.a + (1 − λ).b ; λ ∈ [0, 1] }

(2)

= { x ; || b a || = || x a || + || b x || } = { x ; ||ab|| = ||ax || + ||xb || }.

droite affine (a, b) = { λ.a + (1 − λ).b ; λ ∈ R } = { x ; ||ab|| = ± ||ax|| ± ||xb|| }.

(a, b) = ]←, a] ∪ [a, b] ∪ [b, →[ , où [b, →[ = { x ; ||ab|| = ||ax|| − ||xb|| }.

6) Sphères et boules.

Les points de la sphère S(a, r) sont les points extrémaux de la boule fermée B’(a, r).

7) Théorème de Riesz. Toute forme linéaire f sur E s’écrit de façon unique < f , x > = (a | x).

8) Identités de la médiane et du parallélogramme.

∀(u, v) ∈ E2 || u + v ||2 + || u − v ||2 = 2 ( ||u||2 + ||v||2 ) (identité du parallélogramme)

∀(u, v) ∈ E2

||

2

u+v

||

2 +

||

2 u−v

||

2 =

2

1( ||u||2 + ||v||2 ) (identité de la médiane).

AD2 + BC2 = 2 ( AB2 + AC2 ) 4 AI2 + BC2 = 2 ( AB2 + AC2 )

Corollaire : Le triangle ABC est isocèle en A si et seulement si la médiane et la hauteur issues de A coïncident.

9) Hyperplan médiateur, sphères d’Apollonios.

Si a b, les points équidistants de a et b forment un hyperplan affine H de E, appelé hyperplan médiateur de [a, b], perpendiculaire au segment [a, b] en son milieu.

Si k > 0 est 1, l’ensemble des x tels que || x a || = k || x b || est une sphère, centrée sur la droite (a, b) (sphère d’Apollonios). C’est la sphère de diamètre pq, où p et q sont les deux points de la droite (a, b) tels que || p a || = k || p b || et || q a || = k || q b ||. Le quadruplet (a, b, p, q) forme donc une « division harmonique ».

10) La norme est lisse, en ce sens que l’application N : x → ||x|| est de classe C sur l’ouvert E−{O}, et vérifie grad N(x) =

x x .

11) Orthoprojection. Pour tout sous-espace F de E, on a : E = F ⊕ F. Pour tout x ∈ E, la projection pF(x) de x sur F parallèlement à Fest l’unique meilleur approximant de x dans F.

Si F et G sont deux sev de E, on a : G ⊂ F ⇒ pG = pFo pG = pGo pF. Ainsi, pour projeter orthogonalement x sur G on peut d’abord le projeter sur F, puis projeter la projection sur G.

12) Produit scalaire & produit scalaire. Soient OA et OB deux vecteurs, H la projection orthogonale de A sur OB, alors (OA|OB) = OH.OB. On retrouve la définition du produit scalaire donnée dans les petites classes.

(3)

13) Bases orthonormées. Tout espace euclidien admet une base ortho-normée. Toute famille orthonormée peut être complétée en une base orthonormée.

14) Procédé d’orthonormalisation de Gram-Schmidt. Si (a1, a2, …, an) est une base de E, il existe une base orthonormale (e1, e2, …, en) de E vérifiant :

(GS) Pour tout p [1, n], Vect(a1, a2, ..., ap) = Vect(e1, e2, ..., ep).

Les autres familles orthonormales vérifiant cette propriété sont de la forme (α1.e1, …, αn.en) , où les scalaires αi sont égaux à ± 1. La famille (e1, e2, e3, ...) est unique si l’on impose une condition supplémentaire, du type : (∀i) (ai | ei) > 0 , ou : (∀p) ep − ap ∈ Vect(a1, a2, ..., ap−1).

15) Produit mixte, produit vectoriel.

Dans un plan euclidien orienté existe une notion de produit mixte de deux vecteurs : c’est leur déterminant dans une base orthonormée directe, et c’est aussi l’aire du parallélogramme orienté construit sur les deux vecteurs. Dans un espace euclidien orienté de dimension 3 existent une notion de produit mixte de 3 et de de produit vectoriel de 2 vecteurs. Voir cours de de math sup.

2. Adjointe d’une application linéaire.

Théorème et définition : Soient E et F deux espaces euclidiens, u une application linéaire de E dans F. Il existe une unique application linéaire de F dans E, notée u*, et appelée adjointe de u, telle que ∀(x, y) ∈ E×F (y | u(x)) = (u*(y) | x) , ou, ce qui revient au même :

∀(x, y) ∈ E×F (x | u*(y)) = (u(x) | y) .

Preuve : Fixons y ∈ F. L’application x → (y | u(x)) est une forme linéaire sur E ; en vertu du théorème de représentation de Riesz (cf. Espaces préhilbertiens, § 4.1), il existe un unique vecteur z ∈ E tel que (∀x ∈ E) (y | u(x)) = (z | x). Ce vecteur dépend de y ; on le note z = u*(y).

La linéarité de u* se vérifie alors facilement ; la deuxième identité est une autre version de la première.

Proposition 2 : L’application u ∈LLLL(E, F) u* LLLL(F, E) est linéaire et, pour tout v ∈LLLL(F, G) ( v o u )* = u* o v* , u** = u , idE* = idE .

Cela s’applique en particulier à u ∈ LLLL(E) → u* ∈ LLLL(E).

Proposition 3 : Si BBBBE et BBBBF sont des bases orthonormées de E et F resp., la matrice de u*

relativement aux bases BBBBF et BBBBE est la transposée (on dit aussi l’adjointe) de la matrice de u relativement aux bases BBBBE et BBBBF :

A = Mat(u ; BBBBE , BBBBF) ⇒ Mat(u* ; BBBBF , BBBBE) = tA ≡ A* . On retrouve la proposition 2.

Corollaire : Si u ∈ LLLL(E), det u* = det u et Sp u* = Sp u.

Proposition 4 : Soit u ∈ LLLL(E, F) ; on a ( Im u ) = Ker u* et ( Ker u ) = Im u* . Preuve :

x ∈ (Im u) ⇔ ∀y ∈ E (x | u(y)) = 0 ⇔ ∀y ∈ E (u*(x) | y) = 0 ⇔ u*(x) = 0 ⇔ x ∈ Ker u*.

La deuxième assertion s’en déduit : ( Im u* ) = Ker u** = Ker u, d’où Im u* = ( Ker u ). Corollaire : rg u* = rg u .

(4)

Exercices

Exercice 1 : Si l’on rapporte E et F à des bases quelconques BBBBE et BBBBF , comment s’exprime la matrice de u* à l’aide de celle de u ?

Exercice 2 : bases duales. 1) Soit BBBB = (a1, ... , an) une base quelconque de E. Montrer qu’il existe une unique base BBBB = (b1, ... , bn) telle que l’on ait, pour tout x de E : x =

= n

i

i

i x a

b

1

. )

( .

B B B

B est dite duale de BBBB. Quelle est la duale de BBBB ? Quand a-t-on BBBB= BB BB?

2) Si l’application linéaire u : E → F a pour matrice A relativement à des bases de E et F, quelle est la matrice de u* relativement aux bases duales ?

Exercice 3 : Soit E un espace euclidien, F et G deux sous-espaces supplémentaires de E. Quels sont l’adjoint du projecteur sur F parallèlement à G ? de la symétrie par rapport à F parallélement à G ?

Exercice 4 : Soient a1,..., ak des vecteurs de E, b1,..., bk des vecteurs de F. Quelle est l’adjointe de l’application f : x →

(ai | x).bi ? Que dire de Im f , Ker f , Im f* , Ker f* ? Qu’ajouter si les ai , resp. les bi , sont libres ?

Exercice 5 : Soient u linéaire : E → F, b un vecteur de F. Montrer que l’équation u(x) = b a une solution ssi b est orthogonal à toute solution de l’équation homogène adjointe u*(y) = 0.

Exercice 6 : Soit u linéaire : E → F. Montrer l’alternative de Fredholm suivante :

• soit l’équation u(x) = b a une solution pour tout vecteur b de F ;

• soit l’équation homogène adjointe u*(y) = 0 a une solution non nulle.

Exercice 7 : Soient E euclidien, x0, a, b trois vecteurs de E, x0≠ 0. Montrer l’ équivalence : i) (x0 | a) = (x0 | b) ;

ii) Il existe u ∈LLLL(E) telle que u(x0) = a et u*(x0) = b.

Exercice 8 : Soit u ∈ LLLL(E), F un sous-espace de E. Montrer que F est u-stable ⇒ F est u*- stable.

Exercice 9 : Comparaison spectrale de u et u* dans LLLL(E).

1) Soit a Sp u ; alors a ∈ Sp u* et dim Ker(u* − a.IdE) = dim Ker(u − a.IdE) ; 2) Soient a et b deux valeurs propres distinctes de u ∈ LLLL(E). Alors :

Ker(u − a.IdE) ⊥ Ker(u* − b.IdE) . Remarque : lien avec la dualité.

Lorsqu’on munit un R-ev E de dimension finie d’un produit scalaire, on peut identifier canoni- quement E et son dual E* en confondant le vecteur x et la forme linéaire ϕ(x) : s → (x | s).

Moyennant cette identification, l’orthogonalité externe entre un vecteur et une forme se confond avec l’orthogonalité interne dans E.

De même F est isomorphe à son dual F* via y →ψ(y), où ψ(y) : t → (y | t).

Dès lors, si u ∈ LLLL(E, F), on a u* = ϕ1otu o ψ , où tu ∈ LLLL(F*, E*) désigne la transposée de u.

En d’autres termes, on peut identifier u* et tu après avoir identifié les espaces et leurs duaux.

(5)

3. Endomorphismes orthogonaux.

3.1. Définitions, premiers résultats.

Théorème et définition : Soient E un espace euclidien, u ∈ LLLL(E).

Les propriétés suivantes sont équivalentes : (O1) ∀x ∈ E || u(x) || = || x || ; (O2) ∀(x, y) ∈ E2 (u(x) | u(y)) = (x | y) ; (O3) u* o u = idE ;

(O4) u* o u = u o u* = idE ;

(O5) L’image par u de toute base orthonormée de E est une base orthonormée de E ; (O6) L’image par u d’une base orthornormée de E est une base orthonormée de E.

u est alors appelé endomorphisme ou automorphisme orthogonal de E, ou encore isométrie vectorielle de E.

Preuve : (O1) ⇒ (O2) par dédoublement des variables (passer par x + y).

(O2) ⇒ (O3). (O2) s’écrit ∀(x, y) ∈ E2 ((u* o u)(x) | y) = (x | y), donc ((u* o u)(x) − x | y) = 0.

On en déduit (u* o u)(x) − x = 0 (choisir y = (u* o u)(x) − x).

(O3) ⇒ (O4) car (O3) implique que u est bijectif (passer au déterminant, par exemple).

Les implications (O4) ⇒ (O3) ⇒ (O2) ⇒ (O1) sont faciles.

(O2) ⇒ (O5), car si (e1, …, en) est une base orthonormée de E, (u(ei) | u(ej)) = (ei | ej) = δi,j. (O6) ⇒ (O1), car si (e1, …, en) et (u(e1), …, u(en)) sont des bases orthonormées,

x = x1.e1 + … + xn.en et u(x) = x1.u(e1) + … + xn.u(en) ont même norme.

Théorème et définition 2 : Soit A ∈ Mn(R) une matrice carrée d’ordre n.

Les propriétés suivantes sont équivalentes : a) tA.A = I ;

b) tA.A = A.tA = I, autrement dit A ∈ Gln(R) et A1 = tA ;

c) Si l’on note c1, ..., cn les colonnes de A, considérées comme vecteurs de l’espace Rn muni du produit scalaire euclidien standard, forment une famille orthonormée de Rn ;

d) L’endomorphisme de Rn canoniquement associé à A est orthogonal.

La matrice A ∈ Mn(R) est alors dite orthogonale.

Proposition 3 : Soit u ∈LLLL(E). Les propriétés suivantes sont équivalentes : i) u est orthogonal ;

ii) Pour toute base orthonormée BBBB de E, Mat(u ; BBBB) est orthogonale ;

iii) Il existe une base orthonormée BBBB de E telle que Mat(u ; BBBB) soit orthogonale.

Corollaire : La matrice de passage d’une base orthonormée à une autre est orthogonale.

Exercice 1 : Soit A = (aij) ∈ On(R). Montrer que

| ∑

j i

aij ,

|

n

j i

aij ,

n n. Cas d’égalité ?

3.2. Isométries et isométries...

Nous allons montrer qu’une application d’un espace euclidien dans lui-même qui conserve les distances est nécessairement affine.

Exercice 2 : Soient E un espace euclidien, EEEE un espace affine euclidien associé, muni de la distance associée d(M, N) = || MN ||.

1) Soit u : E → E une application vérifiant : u(0) = 0 et ∀(x, y) ∈ E2 ||u(x) − u(y)|| = ||x − y||.

Montrer que u est linéaire.

2) En déduire que les isométries de (EEEE, d) en tant qu’espace métrique, sont des bijections affines.

(6)

Solution : 1) Si l’on fait y = 0, il vient ∀x ∈ E ||u(x)|| = ||x||.

Ensuite, si l’on développe || u(x) − u(y) ||2 = || x − y ||2 , il vient (u(x) | u(y)) = (x | y).

Développons || u(x + y) − u(x) − u(y) ||2

= || u(x + y) ||2 + || u(x) ||2 + || u(y) ||2− 2.( u(x + y) | u(x) ) − 2 ( u(x + y) | u(x’)) + 2.(u(x) | u(y)) = || x + y ||2 + ||x||2 + ||y||2− 2 (x + y | x) − 2 (x + y | y) + 2 (x | y)

= || x + y − x − y ||2 = 0 ; u est donc additive.

Développons || u(λx) −λ.u(x) ||2 pour montrer l’homogénéité :

= || u(λx) ||2 + λ2 || u(x) ||2− 2λ(u(λx) | u(x)) = || λx ||2 + λ2||x||2− 2λ(λx | x) = 0 ;

2) Si f est une isométrie de (E, d), u(x) = f(x) − f(0) est une isométrie vérifiant u(0) = 0 ; u est linéaire, donc f est affine.

Remarque : Voici une autre approche, plus géométrique, de ce problème.

Soit f : EEEEEEEE une bijection telle que ∀(M, N) ∈EEEE×EEEE || f(M)f(N)|| = ||MN||.

Les images par f de trois points alignés sont trois points alignés. En effet, si A, B et C sont alignés dans cet ordre, on a ||AC|| = ||AB|| + ||BC||. Cela implique ||A'C'|| = ||A'B'|| + ||B'C'|| , donc A’, B’ et C’ sont alignés dans cet ordre. Le théorème fondamental de la géométrie affine affirme alors que f est une bijection affine (cf. Tisseron, p. 181).

¶ Exercice 3 : Soient EEEE un espace affine euclidien muni de la distance d(M, N) = ||MN||, AAAA et BBBB deux parties de EEEE, munies des distances induites.

Montrer que toute isométrie f de (AAAA , d) sur (BBBB , d) est la restriction d’une isométrie de EEEE. 3.3. Les groupes orthogonaux O(E), SO(E), O(n, R) et SO(n, R).

Proposition et définition : 1) L’ensemble O(E) des endomorphismes orthogonaux de E est un sous-groupe de Gl(E), appelé groupe orthogonal de E ;

2) Pour tout u ∈ O(E), on a det u = ±1 ;

3) SO(E) = O+(E) = {u ∈ O(E) ; det u = 1} est un sous-groupe distingué de O(E), appelé groupe spécial orthogonal de E. Ses éléments sont appelés les rotations de E.

Proposition et définition : 1) L’ensemble On(R) des matrices orthogonales d’ordre n est un sous-groupe de Gln(R), appelé groupe orthogonal ;

2) Pour tout A ∈ On(R), on a det A = ±1 ;

3) SOn(R) = On+(R) = {A ∈ On(R) ; det A = 1} est un sous-groupe distingué de On(R), appelé groupe spécial orthogonal.

Rappelons qu’un sous-groupe est distingué ssi f ∈ O(E), u ∈ SO(E) ⇒ f1 o u o f ∈ SO(E).

Cela découle aussitôt de ce que SO(E) et SOn(R) sont des noyaux du morphisme det.

De plus, O+(E) et O(E) forment une partition de O(E) ; O(E) n’est certainement pas un sous- groupe de O(E), mais il est en bijection avec O+(E), car, si l’on choisit un élément s0 de O(E), par exemple une réflexion orthogonale, alors u → s0 o u met en bijection O+(E) et O(E). De même, matriciellement, si A décrit On+(R), diag(−1, 1, …, 1).A décrit On

(R).

3.4. Endomorphismes orthogonaux en dimension 2.

Théorème : O+(2, R) = { 

 − a b

b

a ; a2 + b2 = 1} = { R(θ) = 

 −

θ θ θ θ

cos sin

sin

cos ; θ ∈ R

}. O(2, R) = { 



−a b

b

a ; a2 + b2 = 1} = { S(θ) = 



θ θ θ θ

cos sin

sin

cos ; θ ∈ R

}.

(7)

Conséquences : 1) θ→ R(θ) est un morphisme continu surjectif de (R, +) sur O+(2, R) ; donc O+(2, R) est un groupe commutatif.

2) S(θ)2 = I, et S(θ) est la symétrie orthogonale par rapport à la droite R.u(−θ/2).

3) Si E est un plan euclidien orienté, toute u ∈ O+(E) a une matrice de la forme R(θ) dans une bon directe, et θ est indépendant de la base orthonormée directe choisie : on dit que u est la rotation (de centre O) et d’angle θ : u = Rot(θ). Quant aux éléments de O(E), ce sont les orthosymétries par rapport aux droites de E.

4) Si l’on compose deux symétries par rapport à des droites faisant un angle α, on obtient la rotation d’angle 2α. Réciproquement, si r est la rotation d’angle θ, et D une droite quelconque, D' la droite faisant avec D l’angle θ/2, alors sD' o sD = r. En particulier, les symétries par rapport aux droites engendrent O(E).

5) Le groupe O+(2, R) est isomorphe au groupe multiplicatif U = { z C ; |z| = 1 }.

6) O(2, R) est la réunion de deux cercles de M2(R) :

O+(2, R) est le cercle d’équation a2 + b2 = 1 dans le plan vectoriel { 

 − a b

b

a ; (a, b) R×R }.

O(2, R) est le cercle d’équation a2 + b2 = 1 dans le plan vectoriel { 



−a b

b

a ; (a, b) R×R }.

Ces deux cercles sont contenus dans des plans supplémentaires de M2(R).

Exercice 4 : Trouver les sous-groupes finis de O+(E) et de O(E).

Exercice 5 : Soit A =



 d c

b a M

2(R). Cns pour qu’il existe un produit scalaire sur R2 tel que A soit une matrice de rotation pour ce produit scalaire.

3.5. Endomorphismes orthogonaux en dimension 3.

« Soudain, la plantation tout entière, avec la forêt environnante, parut tourner comme sur un pivot. Son petit univers fit une demi- rotation ; l’ordre.des points cardinaux se trouva renversé. Dans les bâtiments il venait de reconnaître sa maison ! »

Ambrose Bierce, Chickamauga Comment s’assurer qu’une matrice A ∈ M3(R) est orthogonale ?

On peut calculer tA.A, mais le mieux est de vérifier que les colonnes c1, c2, c3 de A, considérées comme vecteurs de R3 euclidien orienté, forment une base orthonormée de R3 , autrement dit : || c1 ||2 = || c2 ||2 = 1 , (c1 | c2) = 0 et c3 = ± c1 ∧ c2 . A est une rotation ssi c3 = c1 ∧ c2 . Venons-en maintenant au « dévissage » des isométries vectorielles :

Théorème : 1) Soit u ∈ O+(E) ; il existe une base orthonormée de E telle que u ait pour matrice : diag (R(θ) , 1) =





 −

1 0 0

0 cos sin

0 sin cos

θ θ θ θ

.

2) Soit u ∈ O(E) ; il existe une base orthonormée de E telle que u ait pour matrice : diag(R(θ) , −1) =





1 0 0

0 cos sin

0 sin cos

θ θ θ θ

. Preuve : Elle repose sur trois lemmes :

Lemme 1 : Soit E un R-ev de dimension 3. Tout u ∈ L(E) admet au moins une valeur propre réelle.

(8)

Preuve : Le polynôme caractéristique de u est de degré 3. Il s’annule au moins une fois sur R en vertu du théorème des valeurs intermédiaires.

Lemme 2 : Si u ∈ O(E). Les seules valeurs propres réelles de u sont ±1.

Preuve : u(x) = λ.x et x ≠ 0 impliquent ||x|| = ||u(x)|| = |λ|.||x||, donc |λ| = 1.

Lemme 3 : Si D est une droite u-stable, P = D est un plan u-stable.

Preuve : Notons d’abord que, u étant bijective, u(D) = D. Montrons x ∈ P ⇒ u(x) ∈ P.

Soit y ∈ D ; il existe z ∈ D tel que y = u(z) ; on a alors (u(x) | y) = (u(x) | u(z)) = (x | z) = 0.

Concluons ! Soit e3 un vecteur propre de u, P le plan perpendiculaire.

Si uP est rotation, dans toute base orthonormée (e1, e2, e3), u a pour matrice





±

1 0 0

0 cos sin

0 sin cos

θ θ θ θ

.

Si uP est une symétrie par rapport à une droite, u aura comme matrice





− ± 1 0 0

0 1 0

0 0 1

dans une base orthonormée convenable (e1, e2, e3) de E.

Or un changement de base orthonormée ramène aussitôt





− + 1 0 0

0 1 0

0 0 1

à 



−1 0 0

0 1 0

0 0 1

, et





− − 1 0 0

0 1 0

0 0 1

à 



− +

− 1 0 0

0 1 0

0 0 1

. Il ne reste plus qu’à trier les cas.

Géométriquement, u ∈ O+(E) est la rotation autour de l’axe D = Ker(u − I), et d’angle θ ; θ est unique (mod 2π) si l’on oriente E : on note u = Rot(D, θ).

u ∈ O(E) est une antirotation, c’est-à-dire la composée de Rot(D, θ) avec l’orthosymétrie par rapport au plan D ; ici, D = Ker(u + I) : on note u = Antirot(D, θ).

Si l’on compose les symétries par rapport aux plans P et P' faisant un angle α, on obtient la rotation d’angle 2α et d’axe P∩P'. Réciproquement, si r est la rotation d’axe D et d’angle θ, P un plan contenant D et P' le plan passant par D et faisant avec P l’angle θ/2, alors sP' o sP = r . Quant aux antirotations, elles sont composées de 1 ou 3 réfléxions planes.

En particulier, les orthosymétries par rapport aux plans engendrent O(E).

rotation antirotation Exercice 6 : Caractérisations géométriques, et réductions des matrices suivantes :

3 1





− − 2 2 1

2 1 2

1 2 2

, 7 1





− −

6 2 3

2 3 6

3 6 2

, 9 1





− − 4 8 1

7 4 4

4 1 8

, 57 1





47 28 16

32 44 17

4 23 52

, 



8 , 0 576 , 0 168 , 0

6 , 0 768 , 0 224 , 0

0 28 , 0 96 , 0

(9)

21 1





− −

− − 19 4 8

4 13 16

8 16 11

, 1421

1





− 462 1281 406

721 126 1218

1134 602

609

, 186051





− 3300 18000

3355

11464 627

14640

14277 4664

10980





+

−+ − −

θ θ

θ θ θ

θ θ θ θ

cos

².

² sin . ) cos 1 (

sin . cos

sin .

) cos 1 ( sin . cos

².

²

b a b

ab

b a

ab a

a b

( a2 + b2 = 1 ) ,





− −

ϕ θ ϕ θ

ϕ θ θ ϕ θ θ ϕ ϕ

cos sin . sin cos . sin

0 cos

sin

sin sin . cos cos . cos

. Exercice 7 : Ecrire un programme Maple résolvant mécaniquement les exercices précédents.

Exercice 8 : R3 est muni du produit scalaire usuel et rapporté à sa base canonique (e1, e2, e3).

Soit e = e1 − e2 + e3. Trouver la rotation f telle que f(e) = e , f(e1) = − e2.

Exercice 9 : Soit A ∈ O3(R). Résoudre et discuter l’équation B2 = A, B ∈ O3(R).

Exercice 10 : 1) Soit

ω

un vecteur unitaire, R la rotation d’axe R

ω

et d’angle θ. Montrer que : (*) (∀u E) R(u) = cos θ u + sin θ (

ω

∧∧∧∧u) + (1 − cos θ) (

ω

|u).

ω

.

2) Écrire la matrice de R dans une base orthonormée où

ω

= (α, β, γ).

3) Formule et matrice de l’antirotation Antirot(D , θ).

Exercice 11 :Soit

ω

un vecteur unitaire, f : u

ω

∧∧∧∧u, et R la rotation d’axe R

ω

et d’angle θ. Reconnaître f o f, et montrer que R = exp(θf). Retrouver la formule (*).

Exercice 12 : Montrer que les rotations sont les seules applications f ∈ Gl(E) telles que : ∀(u,v) ∈ E2 f(u∧∧∧∧v) = f(u) ∧∧∧∧ f(v) .

¶ Montrer que ce résultat subsiste si on enlève l’hypothèse de linéarité.

Exercice 13 : angles d’Euler.

On note U(t) = diag(R(t) , 1) et V(u) = diag(1 , R(u)). Montrer que toute matrice A∈O+(3, R) peut s’écrire sous la forme A = U(ϕ).V(θ).U(ψ). On pourra procéder, soit par le calcul, soit en supposant le problème résolu et en interprétant les trois matrices comme des matrices de passage.

Exercice 14 : Quels sont les sous-espaces stables d’une rotation ? d’une antirotation ?

Exercice 15 : Soit D une droite vectorielle. Montrer que G = { f O(E) ; f(D) = D } est un sous- groupe de O(E). Trouver tous les éléments de G ∩ O+(E), puis de G.

Exercice 16 : étude de O+(E) en dimension 3.

1) On appelle demi-tours, ou retournements, les orthosymétries par rapport aux droites de E.

Montrer qu’ils engendrent O+(E).

2) Quand deux rotations f et g de E commutent-elles ? Si f ∈ O+(E), quel est son commutant dans ce groupe ? Quel est le centre de O+(E) ?

Remarque : quaternions d’Hamilton.

Le plan euclidien E peut être identifié au corps des complexes ; les rotations planes de centre 0 sont les applications z → ez, les similitudes directes de centre 0 sont les z →ρez (ρ > 0).

Il est légitime de se demander s’il n’existe pas sur un espace euclidien E de dimension 3 une structure de R-algèbre et de corps permettant de calculer les rotations au moyen des opérations de ce corps. Plusieurs mathématiciens se sont penchés sur ce problème au début du XIXème siècle. En 1843 l’irlandais Hamilton apporta une réponse à la fois négative et positive à ce problème : on peut bien effectuer les rotations au moyen d’additions et de « multiplications » vectorielles, mais E n’est pas stable pour cette multiplication : il faut plonger E dans l’espace de dimension 4 R×E, définir sur cet espace une structure de corps, et la rotation est alors la restriction à E = {0}×E d’une opération effectuée dans R×E. De plus, les calculs ne sont pas faciles, car ce corps n’est pas commutatif.

(10)

3.6. Théorie spectrale des endomorphismes orthogonaux.

Théorème spectral : Soit u un endomorphisme orthogonal de E. Il existe une base orthonormée BB

BB de E telle que la matrice de u s’écrive :

Mat(u ; BBBB) = diag(Ip, Iq, R(θ1) , ... , R(θr)) , où R(θ) =



 −

θ θ θ θ

cos sin

sin

cos et (θ

1, ... , θr) ∈ Rr Corollaire : Soit A une matrice orthogonale. Il existe une matrice orthogonale P telle que : P−1.A.P = tP.A.P = diag(Ip, −Iq, R(θ1) , ... , R(θr)) ,

où R(θ) = 

 −

θ θ θ θ

cos sin

sin

cos et ( θ

1, ... , θr ) ∈ Rr ( p + q + 2r = n ) .

NB : Si l’on impose θk ≠ 0 (mod π), alors p et q sont bien déterminés. Si l’on n’impose pas cette condition, alors on peut prendre p et q ∈ {0, 1}, puisque I2 = R(0) et − I2 = R(π).

Preuve : Elle repose sur trois lemmes :

Lemme 1 : Si E est un R-ev de dimension n. Tout endomorphisme f de E admet une droite ou un plan stable.

Ce lemme fort important, purement linéaire, peut se démontrer en passant dans C.

Soit BBBB une base de E, A la matrice de f relativement à B.

Si elle admet une valeur propre réelle λ, elle admet un vecteur propre réel X, et le vecteur x de coordonnées X engendre une droite f-stable.

Sinon, soient λ = α + i.β une valeur propre complexe non réelle de A, et Z = X + i.Y un vecteur propre associé. On a AZ = λZ, et par suite, AZ =

λ

Z.

Séparant partie réelle et imaginaire Z = X + iY, il vient :

AX = αX −βY , AY = βX + αY .

Z et Z sont C-libres, comme vecteurs propres associés à des valeurs propres distinctes. Donc X et Y sont C-libres, et a fortiori R-libres. Soient x et y les vecteurs de E ayant X et Y comme coordonnées dans la base B . Ils vérifient f(x) = αx − βy et f(y) = βx + αy. Ils engendrent donc un plan f-stable.

Remarque : Voici une autre preuve de ce résultat, évitant le recours aux bases, mais pas le théorème de d’Alembert-Gauss. Soit P le polynôme minimal de f, Q un diviseur irréductible de P de degré 1 ou 2. Q(f) est non inversible, sans quoi P/Q annulerait f. Soit x ≠ 0 tel que Q(f)(x) = 0. Si Q est de degré 1, D = R.x est une droite f-stable ; si Q est de degré 2, P = Vect(x, u(x)) est un plan f-stable.

Lemme 2 : Si u est un endomorphisme orthogonal, Sp u ⊂ {±1}.

Preuve facile, laissée au lecteur.

Lemme 3 : Si F est un sous-espace u-stable, F est u-stable.

Notons d’abord que, u étant bijective, u(F) ⊂ F ⇒ u(F) = F. Montrons x ∈ F⇒ u(x) ∈ F. Soit y ∈ F ; il existe z ∈ F tel que y = u(z) ; on a alors (u(x) | y) = (u(x) | u(z)) = (x | z) = 0.

Il reste à conclure par récurrence sur n.

Exercice 17 : Réduire la matrice A =





0 1 0 0

0 0 1 0

0 0 0 1

1 0 0 0

.

Exercice 18 : Montrer que toute matrice A ∈ On(R) est diagonalisable dans Mn(C).

Quelles sont les matrices A ∈ On(R) qui sont diagonalisables dans Mn(R) ?

(11)

Exercice 19 : Démontrer le corollaire du th. précédent en notant que toute matrice orthogonale est une matrice unitaire, et en utilisant le théorème spectral relatif aux matrices unitaires.

Exercice 20 : Démontrer que le polynôme caractéristique d’une matrice de rotation d’ordre n est réciproque, i.e. vérifie P(λ) = ± λn.P(1/λ). En déduire que si n est impair, elle a ±1 comme valeur propre (Brioschi, Faà di Bruno, 1854).

Exercice 21 : Soient E euclidien de dimension n, u ∈ O(E).

Soit v = u − I. Montrer que Im v = (Ker v) . En déduire limk→∞

k

1( I + u + … + uk1 ).

Retrouver ce résultat à l’aide du théorème spectral.

Conséquences topologiques :

Théorème : O(E) est un groupe compact et a deux composantes connexes par arcs, à savoir O+(E) et O(E). Résultat analogue pour On(R).

Preuve : Munissons LLLL(E) de la norme triple (par exemple).

O(E) est borné car u ∈ O(E) ⇒ ||| u ||| = 1, et fermé, car si (up) est une suite d’éléments de O(E) tendant vers u, alors ∀x ∈ E ||up(x)|| = ||x|| ; il reste à passer à la limite.

En vertu du déterminant et du th. des valeurs intermédiaires, on ne peut relier continûment un endomorphisme u ∈ O+(E) à un endomorphisme v ∈ O−(E). Comme O+(E) et O−(E) sont homéo-morphes (remarque finale de 2.2.), il reste à montrer que O+(E) est connexe par arcs.

Soit u ∈ O+(E). Il existe une base orthonormée B de E telle que la matrice de u s’écrive : Mat(u ; BBBB) = diag( Ip, R(θ1) , ... , R(θr) ) , où R(θ) = 

 −

θ θ θ θ

cos sin

sin

cos et (θ

1, ... , θr) ∈ Rr Soit u(t) l’endomorphisme tel que Mat(u(t) ; BBBB) = diag( Ip, R(t.θ1) , ... , R(t.θr) ) (0 ≤ t ≤ 1).

u(t) ∈ O+(E) et relie continûment (et même différentiablement) u(0) = IdE à u(1) = u.

En langage imagé, il faut voir O(E) comme une paire de c… dans LLLL(E) ou Gl(E),à savoir O+(E) et O−(E).

Cependant, les matheux sérieux (et chastes) préfèrent parler de deux variétés différentiables. Ainsi, si E est un plan, O(E) est formé de deux cercles, d’après 3.4., si E est de dimension 3, O(E) est formé de deux variétés de dimension 3 (à cause des angles d’Euler, ou du fait qu’une

rotation spatiale est donnée par un vecteur unitaire et un angle, donc par un point de la sphère unité et un élément du cercle unité, en tout 3 degrés de liberté). Dans le cas général, O(E) est une paire de variétés différentiables de dimension n(n1)/2. Ceci peut se justifier intuiti- vement ainsi : On(R) est défini par n(n−1)/2 contraintes non linéaires, autrement dit comme inter-section de n(n−1)/2 hypersurfaces algébriques : les unes expriment que les colonnes sont de norme 1 (ce sont des cylindres à base sphérique), les autres qu’elles sont orthogonales (ce sont des cylindres à base conique). Nous reverrons ces idées au § 5.4.

Il y a une légère différence entre les dimensions paires et impaires, – In étant de déterminant (1)n.

Si n est impair, O+(E) et O−(E) sont symétriques l’un de l’autre par rapport à O.

Si n est pair, chacune des parties O+(E) et O−(E) est symétrique par rapport à O.

Corollaire : L’ensemble BBBB des bases orthonormées de E est compact et a deux composantes connexes par arcs.

Preuve : Nous nous plaçons ici dans l’ensemble En des n-uplets de vecteurs de E, muni de la distance qui au couple (x, y), où x = (x1, ..., xn) et y = (y1, ..., yn), associe d(x, y) =

i i

i y

x ². B

B B

B est un compact de En, car fermé borné. Choisissons une base orthonormée BBBB0 de E.

L’application u → u(BBBB0) est une bijection continue de O(E) sur BBBB, donc un homéomorphisme. Il reste à appliquer le théorème précédent. Les deux composantes sont les deux classes de bases

(12)

orthonormées ayant même orientation. En clair, on peut toujours passer continûment d’une base orthonormée directe (resp. indirecte) à une autre.

Orienter l’espace E, c’est choisir l’une des deux classes, et la considérer comme directe. Le corollaire signifie que l’on peut modifier continûment (et même de manière C) un repère orthonormé en un autre ss’ils ont même orientation.

3.7. Exemples d’endomorphismes et de matrices orthogonales.

1. Les symétries orthogonales.

Soient F un sev de E, pF l’orthoprojecteur sur F, sF = pF− pF⊥ = 2pF− idE l’orthosymétrie par rapport à F. C’est une involution linéaire ; par Pythagore : ||sF(x)||2 = ||pF(x)||2 + ||pF(x)||2 = ||x||2. Donc s est orthogonal. Réciproquement, si s ∈ O(E) est telle que s2 = idE , alors s est une orthosymétrie car les espaces propres de s sont deux à deux orthogonaux.

Ainsi, orthosymétries et symétries orthogonales coïncident.

Cas particuliers : les réflexions.

On appelle ainsi les orthosymétries relatives aux hyperplans de E. Si H est un tel hyperplan, w un vecteur unitaire orthogonal à H, il est facile de voir que :

(∀x ∈ E) sH(x) = x − 2 (w | x) w.

Théorème : Tout élément de O(E) est composé d’au plus n réflexions hyperplanes.

Preuve : Nous avons établi cela en dim 2 et 3. Dans le cas général, on peut déduire ce résultat du théorème spectral (essayez), mais on peut aussi l’établir directement par récurrence sur n.

1er cas : u admet un vecteur fixe e ≠ 0.

u laisse invariant l’hyperplan H = (Re). Par hypothèse de récurrence, v = u|H ∈ O(H) est composé de r ≤ n − 1 réflexions par rapport à des hyperplans K1, ..., Kr de H. Notons Hi = KiRe. Je dis que u est composé des réflexions par rapport aux hyperplans H1, ..., Hr .

2ème cas : u est sans vecteur fixe ≠ 0.

Soit alors a ≠ 0, b = u(a), s la réflexion par rapport à l’hyperplan médiateur du segment [a, b] ; alors (s o u)(a) = a, et nous voilà ramenés au cas précédent : sou est composé d’au plus n − 1 réflexions, donc u d’au plus n réflexions.

Exercice 22 : Plus précisément, soient u ∈ O(E), et s = n − dim Ker(u − Id). Montrer que u est composé de s réflexions, et pas d’un nombre < s.

Exercice 23 : On appelle demi-tours, ou retournements, de E les orthosymétries par rapport aux sev F de codimension 2. Montrer que les retournements engendrent O+(E).

Exercice 24 : Montrer que le centre de O(E) est {± IdE}, et que le centre de O+(E) est {IdE} si n est impair, {± IdE} si n est pair.

2. Les matrices de permutation.

Exercice 25 : Soit SSSSn le groupe symétrique de { 1, 2, ..., n }. A toute permutation σ ∈SSSSn on associe la matrice M(σ) = (δi,σ(j)) la matrice de la permutation associée à σ.

1) Montrer que σ→ M(σ) est un morphisme injectif de groupes de SSSS

n dans On(R) ; quelle est l’inverse de M(σ)? Conséquences spectrales ?

2) Réduction orthonormée de la matrice M(γ) associée au cycle [1, 2, ..., n].

(13)

3) En décomposant σ en cycles, déterminer avec soin ses valeurs propres, ses polynômes carac- téristique et minimal.

4) Exemple : réduire la matrice associée à σ = 

 

6 3 1 5 4 2

6 5 4 3 2

1 .

3. Transformation cosinus discret, et matrices de Hadamard.

La transformation en cosinus discret (TCD en français, CDT en anglais) est utilisée dans le traitement numérique des images (format JPG notamment).

Exercice 26 : Démontrer que la matrice A = (aij)0i,j7, où ai0 = 8 1 , et a

ij = 2 1cos

16 ) 1 2 ( i+ jπ

pour j ≥ 1, est orthogonale. La TCD est la transformation M →tA.M.A dans M8(R).

Exercice 27 : Plus généralement, démontrer que la matrice A = (aij)0≤i,j≤n−1, définie par : aij =

n 2 cos

n j i

2 ) 1 2

( + π N(j) , avec N(j) = 2

1 pour j = 0, 1 sinon, est orthogonale.

Exercice 28 : 1) Montrer que A ∈ On(R) et B ∈ Op(R) ⇒ A ⊗ B ∈ Onp(R).

2) Soit A = 2 1 



−1 1

1

1 . Fabriquer des matrices simples A ∈ On(R), pour n = 2m.

3.8. Factorisation Q-R ou O-T.

Le théorème de factorisation matricielle suivant est une simple conséquence du procédé d’ortho- normalisation de Gram-Schmidt :

Théorème de factorisation Q-R ou O-T : Toute matrice A ∈ Gln(R) se décompose de manière unique sous la forme A = O.T, où O ∈ On(R), T est trigonale supérieure à coef. diagonaux > 0, ou encore sous la forme A = O.D.T', où O ∈ On(R), D est diagonale à coefs > 0, et T' trigonale supérieure unipotente (i.e. à coefficients diagonaux égaux à 1).

Preuve : Soient Rn euclidien standard rapporté à sa base canonique orthonormée BBBB0 = (ε1, ..., εn) AAAA = (a1, ... , an) la base de Rn formée des colonnes de A ,

EEEE = (e1, ... , en) l’orthonormalisée de Gram-Schmidt de AAAA , telle que (ei | ai) > 0 (∀i) . En vertu des propriétés des matrices de passage, si l’on note Mat(P , Q) la matrice de passage de Q à P, c’est-à-dire dont les colonnes sont les vecteurs de P rapportés à la base Q, on a :

Mat(AAAA , BBBB0) = Mat(EEEE , BBBB0).Mat(AAAA , EEEE) .

Or cela s’écrit A = O.T où O est unitaire, et T trigonale supérieure à éléments diagonaux > 0.

L’unicité découle de ce que O.T = O'.T' ⇒ O'−1.O = T.T'−1 : cette matrice est à la fois unitaire et trigonale supérieure à coef diagonaux > 0 : ce ne peut être que I.

Exemple : A =



 6 1

5

1 . Alors O = 

 

 −

2 / 1 2 / 1

2 / 1 2 /

1 et T = tO.A =



 

2 / 1 0

2 / 11

2 .

Conséquences théoriques et pratiques :

− On récupère des générateurs du groupe Gln(R) en adjoignant des générateurs de On(R) et du groupe multiplicatif des matrices trigonales supérieures à éléments diagonaux > 0 : les matrices de réflexion, les diag(1, …, 1, α , 1, …,1) (α > 0), et les transvections I + λ.Eij (i < j).

− Si l’on dispose de la factorisation O.T de A, on peut facilement inverser A et résoudre le système cramérien A.X = Y : X = T–1.tO.Y, la calcul de T–1 se faisant par remontée. Encore faudrait-il disposer d’un algorithme efficace de factorisation Q-R.

(14)

Voici d’autres conséquences, de nature topologique :

Corollaire 1 : Gln(R) admet deux composantes connexes par arcs, Gln+(R) et Gln(R).

Corollaire 2 : La factorisation (O, T) → A = O.T est un homéomorphisme.

Preuves : (O, T) → A = O.T est une bijection continue ; comme On(R) est connexe par arcs et que l’ensemble des matrices trigonales supérieures à coeff. diagonaux > 0 est convexe, donc connexe par arcs, Gln(R) est connexe par arcs. Pour montrer la continuité de A → (O, T), considérer une suite Ak = Ok.Tk tendant vers A = O.T dans Gln(R). Par compacité de On(R), (Ok) a une valeur d’adhérence Oϕ(k) → O' ; alors Tϕ(k) → O'−1.A = T' qui est trigonale sup. à coeff diagonaux ≥ 0, donc > 0. Par suite A = O'.T', et par unicité O' = O, T' = T. (Ok) tend donc vers O (critère d’unicité de la valeur d’adhérence dans un compact) et (Tk) vers T. cqfd.

Corollaire 3 : Toute matrice A ∈ Mn(R) se décompose sous la forme A = O.T, où O ∈ On(R) et T est trigonale supérieure à éléments diagonaux ≥ 0 (mais on perd l’unicité).

Corollaire 4 : inégalité d’Hadamard (1893)1. Si A = (aij) ∈ Mn(R) alors :

|

det A

|

∏ ∑

= =

n j

n i

aij

1 1

)² ( .

Autrement dit, le déterminant d’une matrice réelle est inférieur en valeur absolue au produit des normes euclidiennes de ses colonnes.

Preuve : Si det A = 0, rien à montrer. Sinon, décomposons A ∈ Gln(R) sous la forme A = O.T comme ci-dessus. Il vient |det A| = |det O|.|det T| = |det T| =

| ∏

= n

j

tii 1

|

∏ ∑

= =

n j

n i

tij

1 1

( =

∏ ∑

= =

n j

n i

aij

1 1

)² ( , car, le fait que A = O.T implique que la j-ème colonne de A a même norme que celle de T.

Il y a égalité ssi une colonne est nulle, ou si les colonnes sont deux à deux orthogonales. En effet, si detA, une colonne doit être nulle. Si det A ≠ 0, T doit être diagonale, ce qui signifie que les colonnes de A sont orthogonales.

Corollaire 5 : Soit A = (aij) ∈ Mn(R). Si M = max | aij |, alors

|

det A

|

≤ Mn.nn/2 . Remarques :

1) Cette majoration est plus précise que celle obtenue par définition

|

det A

|

≤ Mn.n!.

2) L’inégalité de Hadamard s’interprète géométriquement ainsi : le volume du parallélépipède construit sur les vecteurs colonnes de A est inférieur ou égal au produit de leurs normes.

3) Elle a joué un grand rôle dans la théorie des équations intégrales de Fredholm (1900). Voici une autre application, au calcul du déterminant d’une matrice A à coeff. dans Z. Plutôt que de le calculer par pivot de Gauss, ce qui oblige à se placer dans Q, mieux vaut calculer det A mod p, p premier, autrement dit se placer dans le corps Fp, où les calculs sont exacts. Si l’on fait cela pour diverses valeurs de p, et si l’on majore | det A |, alors on peut calculer det A à l’aide de ses restes modulo p et du théorème chinois.

1 Jacques Hadamard (1865-1963) succéda à Henri Poincaré au Collège de France et fut professeur à l’Ecole polytechnique. Il s’illustra dans bien des domaines : séries entières et fonctions analytiques, théorème des nombres premiers, équations aux dérivées partielles, mécanique analytique, hydrodynamique, élasticité… Intellectuel engagé, il fonda la Ligue des droits de l’homme. Ses trois fils sont morts pour la France, Pierre et Etienne à Verdun en 1916, Mathieu en Tripolitaine en 1944. Les lois antijuives de Pétain l’obligèrent à quitter la France en 1940.

Une biographie lui a été récemment consacrée (EDPsciences, 2005).

(15)

3.9 Similitudes vectorielles.

Exercice 29 : Similitudes vectorielles.

1) Soit f un endomorphisme de E, k un réel > 0. Montrer l’équivalence des propriétés suivantes (S1) (∀x ∈ E) || f(x) || = k.||x|| ;

(S2) ∀(x, y) ∈ E2 ( f(x) | f(y) ) = k2 (x | y) ; (S3) f* o f = k2 idE ;

(S4) f* o f = f o f* = k2 idE .

On dit alors que f est une similitude de rapport k.

2) Montrer que l’ensemble GO(E) des similitudes de E est un groupe pour la composition, et que les similitudes directes (i.e. de det > 0) forment un sous-groupe distingué de GO(E), noté GO+(E).

3) On appelle angle non orienté de deux vecteurs x et y non nuls l’angle θ ∈ [0, π] tel que : (x | y) = (cos θ).||x||.||y|| , autrement dit θ = Arccos

y x

y x

. ) ( Soit f un isomorphisme de E. Montrer l’équivalence des propriétés suivantes : i) f est une similitude de E ;

ii) f conserve les angles des vecteurs : ( f(x) , f(y) ) = (x , y) iii) f conserve l’orthogonalité : x ⊥ y f(x) ⊥ f(y).

4) Énoncer et démontrer un théorème de décomposition spectrale des similitudes.

4. Endomorphismes symétriques ou autoadjoints.

4.1. Définitions, premiers résultats.

Définition : L’endomorphisme u est dit symétrique ou autoadjoint si u = u*, i.e. si : (S) ∀(x, y) ∈ E2 (x | u(y)) = (u(x) | y) .

Exemples :

1) Les homothéties.

2) Les orthoprojecteurs sont autoadjoints ; ce sont exactement les projecteurs autoadjoints.

3) Les orthosymétries sont autoadjointes ; ce même exactement les symétries autoadjointes.

Proposition 1 : correspondance endomorphismes et matrices symétriques. On a l’équivalence : i) u est symétrique ;

ii) la matrice de u dans toute base orthonormée est symétrique ; iii) la matrice de u dans une base orthonormée est symétrique.

Proposition 2 : correspondance endomorphismes symétriques et formes bilinéaires symétriques.

Soit u ∈LLLL(E). On a l’équivalence : i) u est symétrique ;

ii) Φu : (x, y) ∈ E2→Φu(x, y) = (x | u(y)) est une forme bilinéaire symétrique.

L’application u → Φu est un isomorphisme de l’espace vectoriel S(E) des endomorphismes symétriques sur l’espace des formes bilinéaires symétriques.

Corolloire : dim S(E) = dim Sn(R) = 2

) 1 (n+

n .

Exemples de matrices symétriques réelles :

(16)

1) Soit f ∈ C2(U, R), où U est un ouvert de Rn. En vertu du théorème de Schwarz, pour tout point x U, la matrice hessienne de f en x, Hf (x) = ( ( )

.

² x

x x

f

j

i

∂∂ ) est symétrique réelle.

2) Soit Γ = (S, A) un graphe non orienté. Sa matrice d’incidence M = (mxy) où mxy = 1 si {x, y} ∈ A, 0 sinon, est symétrique réelle.

Exercice 1 : Soit E = Rn[X], muni du produit scalaire (P | Q) =

11P(x).Q(x).dx. Montrer que u : P → ((x2− 1).P’)’ et v : P →

+11(x+y)n.P(y).dy sont des endomorphismes autoadjoints de E.

Exercice 2 : La notion d’endomorphisme autoadjoint s’étend sans peine aux espaces préhilber- tiens généraux. Soit E = C([−1, 1], R) muni du produit scalaire ( f | g) =

11f(x).g(x).dx.

1) Montrer que u : f → x.f est un endomorphisme autoadjoint de E.

2) Soit N : (s, t) ∈ [−1, 1]2→ N(s, t) ∈ R continue et symétrique ; montrer que v : f → F, où F(x) =

+11N(x,y).f(y).dy est un endomorphisme autoadjoint de E.

3) Soient F = C2([−1, 1], R) muni du produit scalaire induit, u ∈ C1([−1, 1], R) tel que u(−1) = u(1) = 0. Montrer que T : f → u’f’ + u f’’ est un endomorphisme autoadjoint de F.

Exercice 3 : Soit u une application de E dans E vérifiant (S). Montrer que u est linéaire.

Exercice 4 : On rapporte E à une base orthonormale B. Soit F un sous-espace vectoriel de base orthonormale (a1, ..., ap). Matrice de pF dans la base B ?

Exercice 5 : A-t-on : u et v symétriques ⇒ u o v symétrique ? Quand est-ce vrai ? 4.2. Théorème spectral des endomorphismes symétriques.

Proposition 1 : Soit u un endomorphisme symétrique.

1) Le polynôme caractéristique de u est scindé dans R ;

2) Si E(λ) est un espace propre, son orthogonal E(λ) est u-stable ; plus généralement, si F est un sous-espace u-stable, F est u-stable ;

3) Deux espaces propres associés à des valeurs propres distinctes λ et µ sont orthogonaux.

Preuve : 3) Si u(x) = λx et u(y) = µy, (u(x) | y) = (x | u(y)) ⇒λ(x | y) = µ(x | y) ⇒ (x | y) = 0.

2) Si F est sev u-stable, y∈F⇒ (∀x∈F) (x | u(y)) = (u(x) | y) = 0, car u(x)∈F ; d’où u(y)∈F. 1) est le point décisif. Choisissons une base orthonormée de E ; la matrice A de u dans cette base est symétrique réelle. Il s’agit de montrer que toutes les valeurs propres de A dans C sont réelles. Soient λ une telle valeur propre, Z ∈ Cn un vecteur propre associé.

Considérons le complexe : z = tZ.A.Z = λ.tZ.Z , où tZ.Z > 0 , car Z ≠ 0 . De plus z = tz = tZ.tA.Z à cause du format 1×1 de la "matrice" z.

= tZ.A.Z car A est symétrique = z car A est réelle.

On en déduit que λ =

λ

: λ∈ R. cqfd.

Remarques : 1) Au fond, on a utilisé le produit scalaire hermitien standard dans Cn. Ce n’est pas étonnant, car une matrice symétrique réelle est une matrice hermitienne complexe. Le fait que ses valeurs propres soient toutes réelles est une propriété générale des matrices hermitiennes ; nous aurions donc pu éviter la démonstration ci-dessus, et renvoyer au chapitre sur les hermitiens.

Références

Documents relatifs

Examen d'Algèbre et Géométrie Lundi 17 décembre 2018, durée : 2 heures Les documents et les calculatrices ne sont pas autorisés.. Exercice 1 On se place dans l'espace euclidien R 3

En déduire que le rang de A est égal au nombre de valeurs propres non nulles (comptées avec leur ordre de multiplicité) de t

Les bases de cette classe sont orientées dans le sens positif (ou direct), les autres le sont dans le sens négatif (ou

Soient A et B deux matrices symétriques réelles dont les valeurs propres sont positives (resp. strictement positives).. Montrer que F (A) est un segment dont vous expliciterez

Former une base du noyau et de l'image.. Former une équation

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/.. 2 Rémy

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/. 1 Rémy

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/. 2 Rémy