• Aucun résultat trouvé

1) Produit scalaire — Norme associée

N/A
N/A
Protected

Academic year: 2022

Partager "1) Produit scalaire — Norme associée"

Copied!
12
0
0

Texte intégral

(1)

II - Espaces préhilbertiens réels

1) Produit scalaire — Norme associée

Rappelons que, si E est un R-espace vectoriel, on appelleproduit scalaire sur E toute forme bilinéaire symétrique définie positive surE,c’est-à-dire toute application(u, v)→(u|v) deE2 dansR, notée(·|·) vérifiant :

• ∀(u, v)∈E2 (v|u) = (u|v)(symétrie)

• ∀(u, u, v)∈E3 ∀λ∈R (λ.u+u|v) =λ(u|v) + (u|v)(linéarité à gauche)

• ∀u∈E (u|u)≥0 et (u|u) = 0⇒u= 0

NB : le produit scalaire, noté ici (u|v), est parfois noté u, v ou encore u·v s’il n’y a pas risque de confusion avec une multiplication interne (cf. les espaces de fonctions, de matrices. . . )

Définition :le couple E,(·|·) estun espace préhilbertien réel. S’il n’y a pas d’ambiguïté sur le choix du produit scalaire, on parle de l’espace préhilbertien réelE.

Un espace euclidien est un espace préhilbertien réel de dimension finie.

Théorème :si E est un espace préhilbertien réel, l’applicationu → u = (u|u) est une norme sur E, la norme euclidienne associée au produit scalaire (·|·) et l’on a l’inégalité de Cauchy- Schwarz :

|(u|v)| ≤ u · v (avec égalité si et seulement siu, v colinéaires).

Cas d’égalité dans l’inégalité triangulaire : u+v = u + v si et seulement si u etv sont sur une même demi-droite, c’est-à-dire si et seulement si u= 0ou il existe λ∈R+ tel quev=λ.u.

Nous disposons en outre, pour tout (u, v) de E2, des développements :

u+v 2 = u 2+ v 2+ 2 (u|v) et u−v 2 = u 2+ v 2−2 (u|v) qui fournissent l’identité du parallélogramme :

u+v 2+ u−v 2= 2 u 2+ v 2 et lesidentités de polarisation :

(u|v) = 1

2 u+v 2− u 2− v 2 = 1

2 u 2+ v 2− u−v 2 = 1

4 u+v 2− u−v 2 où l’on voit que les valeurs prises par le produit scalaire sont entièrement déterminées par les valeurs prises par la norme euclidienne associée. Ainsi, une normeeuclidienneétant donnée, il y a ununique produit scalaire auquel est est associée. Mais attention ! Il existe des normes surE qui ne sont pas des normes euclidiennes. . .

2) Orthogonalité

Définitions: soitE unR-espace vectoriel, muni d’un produit scalaire (·|·) et · la norme associée.

•Un vecteuru deE est dit unitaire (ounormé) si et seulement s’il est de norme 1.

•Deux vecteursu, v deE sont ditsorthogonaux si et seulement si(u|v) = 0.

•Une famille(ui)i∈I de vecteurs deE est diteorthogonale si et seulement si les ui sont orthogonaux deux à deux :

∀(i, j)∈I2 i=j ⇒(ui|uj) = 0.

•Une famille (ui)i∈I de vecteurs deE est dite orthonormale (ou orthonormée) si et seulement si les ui sont unitaires et orthogonaux deux à deux :

∀(i, j)∈I2 (ui|uj) =δi,j .

(2)

•SiF est un sous-espace vectoriel deE, un vecteur uest dit orthogonal à F si et seulement si u est orthogonal à tous les vecteurs de F ; on appelle orthogonal de F l’ensemble, notéF (ouFo), des vecteurs de E orthogonaux àF :

F={u∈E /∀v∈F (u|v) = 0}

•Deux sous-espaces F et G de E sont dits orthogonaux si et seulement si tout vecteur de l’un est orthogonal à tout vecteur de l’autre (i.e. ∀(v, w)∈F×G (v|w) = 0).

NB : F etG sont dits perpendiculaires si et seulement siF etG sont orthogonaux (en dimension 3, deux plans ne sont jamais orthogonaux !).

Propriétés :

1) Toute famille orthogonale de vecteurs non nulsest libre.

2) Toute famille orthonormale est libre.

3) SiF, G sont deux sous-espaces deE :

∗ F est un sous-espace vectoriel deE et F∩F ={0} ;

∗ F ⊂F⊥⊥ ;

∗ F ⊂G⇒G⊂F ;

∗ F, G orthogonaux⇔F ⊂G⇔G⊂F.

4) Des sous-espaces vectoriels orthogonaux deux à deux sont en somme directe.

Attention ! Si F est de dimension infinie, on peut avoir F F⊥⊥ et F et F ne sont pas toujours supplémentaires. Pour F de dimension finie, voir §5.

Cf. F = R[X] dans E = C0([0,1],R) muni du produit scalaire (f, g) →

1 0

f.g ; le théorème de Weierstrass (hors programme) donneF={0} et doncF⊥⊥=E.

Théorème de Pythagore : u etv sont orthogonaux si et seulement si : u+v 2= u 2+ v 2. NB : par récurrence, on obtient, pour (ui)i∈I famille orthogonale finie :

i∈I

ui 2

=

i∈I

ui 2.

3) Exemples de référence

a) Produit scalaire associé à une base

SiB= (ei)i∈I est une base duR-espace vectoriel E, alors l’application (u, v)→(u|v) =

i∈I

xiyi si u=

i∈I

xi.ei et v=

i∈I

yi.ei

est clairement un produit scalaire surE(par définition d’une base, il y a un nombre fini de coordonnées non nulles pour chaque vecteur, il s’agit donc de sommes finies, même siI est infini. . . Cf. B= (Xn)n∈N

dans R[X]).

(·|·) est l’unique produit scalaire surE pour lequel Best une base orthonormale.

b) Produits scalaires canoniques

Dans un R-espace vectoriel muni d’une base canonique, le produit scalaire qui lui est associé comme ci-dessus est appeléproduit scalaire canonique :

•dansRn, si u= (x1, . . . , xn) etv= (y1, . . . , yn),(u|v) = n

k=1

xkyk

•dansR[X], siP =

k∈N

akXk etQ=

k∈N

bkXk,(P|Q) =

k∈N

akbk

•dansMn(R), siA= (ai,j)et B= (bi,j),(A|B) =

i,j

ai,jbi,j = Tr tAB = Tr AtB .

(3)

Propriété : dansMn(R)muni du produit scalaire canonique, les sous-espaces formés par les matrices symétriques et antisymétriques sont supplémentaires et orthogonaux.

c) Espaces L2

Cf. le chapitre 7-§ IV-2. . . Lorsque I est un segment [a, b], l’espace L2c(I,R) des fonctions continues de carré intégrable sur I n’est autre que C0([a, b],R).

Dans ces deux espaces, (f, g)→

I

f g définit un produit scalaire.

4) Orthonormalisation de Gram-Schmidt

Théorème :soient(e1, . . . , en)une famille libre de vecteurs de E et les sous-espaces associés :

∀k∈[[1, n]] Fk= Vect (e1, . . . , ek).

Il existe une unique famille orthonormale(ε1, . . . , εn) de vecteurs de E telle que :

∀k∈[[1, n]] Vect (ε1, . . . , εk) =Fk et (εk|ek)∈R+∗. (1) De plus :

∀k∈[[1, n]] εk= 1

vk ·vk où vk =ek

k−1

j=1

(vj|ek)

(vj|vj) ·vj =ek

k−1

j=1

j|ek).εj (v1 =e1) (2) Dém. Existence : (2) définit bien par récurrence les familles (vk) et (εk) (vk = 0 car ek ∈/ Fk−1, la famille (e1, . . . , en) étant libre par hypothèse) ; il est aisé de vérifier que la famille (εk) ainsi obtenue convient.

Unicité : supposons deux familles(ε1, . . . , εn)et(ε1, . . . , εn) vérifiant(1). Je montre par récurrence sur k quePk: (ε1, . . . , εk) = (ε1, . . . , εk) est vrai pour toutkde[[1, n]] :

• P1 est vrai : ε1 etε1 sont sur la droiteF1 = Vect (e1), unitaires donc égaux ou opposés ; or(ε1|e1), (ε1|e1) sont de même signe, d’où ε11 ;

•supposons k ≥2 tel que Pk−1 soit vrai ; alors εk etεk sont sur la normale à l’hyperplan Fk−1 de l’espaceFk, unitaires donc égaux ou opposés ; or(εk|ek),(εk|ek)sont de même signe, d’où εkk, ce qui achève la récurrence.

Pour retrouver (si besoin. . . ) les coefficients de l’expression devk, il suffit de cherchervk sous la forme vk=ek+k−1

i=1

λi.vi

et d’écrire la condition(vj|vk) = 0 pour obtenir directement λj, pour toutj de[[1, k−1]].

Noter l’astuce qui consiste à utiliser une combinaison linéaire desvi (obtenus de proche en proche. . . ).

Une combinaison linéaire des ei conduirait à un système de k−1 équations couplées.

NB : en pratique, on détermine la famille orthogonale (v1, . . . , vn), puis on normalise si nécessaire ; le résultat peut être étendu à unesuite de vecteurs (par exemple dans R[X]).

Exemple : dans E = R[X] muni du produit scalaire (P, Q) → −11 P Q, l’orthogonalisation la famille 1, X, X2, X3 donne 1, X, X2−1

3, X3−3

5X (cf. lespolynômes de Legendre : dn

dxn x2−1 n ).

Corollaire : tout espace préhilbertien de dimension finie admet des bases orthonormales.

5) Projection orthogonale sur un sous-espace de dimension finie

Théorème et définition : soient E un espace préhilbertien réel et F un sous-espace de dimension finie deE ; l’orthogonalF de F est un supplémentaire deF, appelé le supplémentaire orthogonal de F ; la projectionpF de E surF parallèlement à F est la projection orthogonale sur F.

En outre, si(ε1, . . . , εn) est une baseorthonormaledeF, on a :

∀u∈E pF(u) = n

j=1

j|u).εj

Enfin, F⊥⊥=F et IdE −pF est la projection orthogonale sur F.

(4)

NB : v=pF(u) est caractérisé par v∈F et u−v∈F avec en outre, siF = Vect (ε1, . . . , εn), w∈F⇔ ∀i∈Nni|w) = 0 ;

si l’on écritv = n

j=1

λjj, ces conditions redonnent les valeurs desλj, immédiatement si(ε1, . . . , εn) est une base orthonormale (à la rigueur orthogonale) deF, au prix de la résolution d’un système denéquations à ninconnues sinon.

On remarquera que, dans l’algorithme de Schmidt, avec les notations du paragraphe précédent, vk=ek−pFk1(ek).

Dém. du théorème Fixons une base orthonormale (ε1, . . . , εn) de F (il en existe d’après le paragraphe précédent !). Compte tenu de la remarque précédente, il est facile de vérifier que, pour toutu deE, en posant

v= n

j=1

j|u).εj et w=u−v,

j’ai u=v+wavecv∈F etw∈F ; il en résulte queE =F+F, or je sais déjà queF∩F={0}, doncF est bien un supplémentaire de F et l’expression de v=pF (u) est déjà apparue.

Je sais déjà que F ⊂ F⊥⊥. Posons G =F ; j’ai F ⊂G, il reste à prouver que G ⊂ F. Soit donc u ∈G etv =pF (u) ; v est dans F, donc dans G ; ainsiw =u−v ∈G∩G, donc w= 0 et il en résulte que u=v d’où u∈F.

Corollaire : distance d’un point à un sous-espace F de dimension finie.

Soit u ∈E, l’application de F dansR qui à s∈F associe u−s atteint son minimum d(u, F) en un point et un seul, à savoir pF(u). On a :

d(u, F) = u−pF(u) et d(u, F)2 = u|u−pF (u) = u 2− pF(u) 2.

Dém.Soientv=pF(u)etw=u−v; pour toutsdeF,u−s= (v−s) +wavecv−setworthogonaux.

J’ai donc, grâce au théorème de Pythagore :

u−s 2= v−s 2+ w 2 ;

le minimum est w 2, atteint pours=v(et seulement en ce point) ; enfin, u−v étant orthogonal à v, w 2 = (u−v|u−v) = (u|u−v)

et u 2 = v 2+ w 2 pour u= 0 dans la relation ci-dessus.

Inégalité de Bessel : si(ε1, . . . , εn) est une famille orthonormale, alors

∀u∈E

n

j=1

j|u)2 ≤ u 2

(et donc, si(εj) est unesuite orthonormale, la série (εj|u)2 est convergente).

Exemples :

1) Soienta un vecteur non nul deE,D= Vect (a) etH =D ; on a, pour u∈E pD(u) = (a|u)

a 2 ·a ; d(u, H) = |(a|u)|

a ; d(u, D) = u 2−(a|u)2 a 2

1/2

2) Déterminer inf

(a,b,c)∈R3 +∞

0

x3− ax2+bx+c 2e−xdx

(idée : se placer dans R[X]muni du produit scalaire (P, Q) →(P|Q) =

+∞

0

P(x)Q(x)e−xdx ; on cherched X3,R2[X] 2. . . )

(5)

II

II - Espaces euclidiens

1) Bases orthonormales — Supplémentaire orthogonal

Rappel: on appelle espace vectoriel euclidien tout espace préhilbertien réel de dimension finie.

Propriétés :soitE un espace vectoriel euclidien :

∗ E possède des bases orthonormales ;

∗ pour tout sous-espace vectoriel F deE,

F⊕F=E ; dimF= dimE−dimF ; F⊥⊥=F ;

∗ toute famille orthonormale peut être complétée en une base orthonormale deE.

Dém. Les deux premières assertions découlent immédiatement du paragraphe précédent ; pour la troisième, choisir une base orthonormale de l’orthogonal du sous-espace engendré par la famille ini- tiale.

2) Écritures matricielles et expressions analytiques dans une b.o.n.

Soient E un espace vectoriel euclidien et B= (e1, . . . , en) une base de E.

•Siu=

n

i=1

xi.ei etv=

n

j=1

yj.ej, alors, par bilinéarité :

(u|v) =

n

i=1 n

j=1

ai,jxiyj où ai,j = (ei|ej). Ainsi, en notantA la matrice A= (ai,j), et en identifiant R etM1,1(R) :

(u|v) =tXAY et u 2=tXAX où X =

 x1

...

xn

 , Y =

 y1

...

yn

.

A estla matrice du produit scalaire dans la base B. B est orthonormale si et seulement siA=In. SiB est une baseorthonormale:

•la famille(xk)1≤k≤n des coordonnées dans Bdeu∈E est donnée par : ∀k xk= (ek|u) ;

•siu=

n

k=1

xk.ek etv=

n

k=1

yk.ek, alors(u|v) =tXY =

n

k=1

xkyk et u =√t XX =

n

k=1

x2k ;

•sif ∈ L(E), la matrice def dansB est (ei|f(ej)) 1≤i,j≤n (en effet, (ei|f(ej)) est lai-ième coordonnée def(ej) dans B!).

3) Isomorphisme canonique d’un espace vectoriel euclidien avec son dual

Pour tout espace vectoriel E, on noteE l’espace des formes linéaires surE, appeléle dual de E.

Théorème :soitE un espace vectoriel euclidien ; l’application Φ : E → E

a → ϕa:u→(a|u) est un isomorphisme. En particulier,

∀ϕ∈E ∃!a∈E ∀u∈E ϕ(u) = (a|u). Dém.Φest linéaire de E dans E, injective etdimE = dimE.

Normale à un hyperplan : soit ϕune forme linéaire non nulle sur E etH l’hyperplanKerϕ; le vecteur ade E tel queϕ(u) = (a|u) est un vecteur normal àH, il engendrela normale à H (la droiteH).

(6)

III

III - Endomorphismes symétriques

Dans cette section, E désigne un espace vectoriel euclidien.

Définition :f ∈ L(E) est ditsymétrique si et seulement si

∀(u, v)∈E2 (f(u)|v) = (u|f(v)).

Caractérisation :soitf ∈ L(E) ; les assertions suivantes sont équivalentes : a)f est symétrique ;

b)la matrice de f dans une (toute) base orthonormale est symétrique.

Propriétés :1) L’ensemble des endomorphismes symétriques de E est un sous-espace de L(E), iso- morphe au sous-espace des matrices symétriques deMn(R), de dimension n(n+ 1)

2 .

2)p∈ L(E) est une projection orthogonale si et seulement si p2=p et pest symétrique.

Dém.1) Fixer une base orthonormale deE. . .

2) ⇒ : soit F sous-espace de E et p = pF : p est un projecteur donc p2 = p et, dans une base orthonormale adaptée à la décompositionE =F⊕F,pa pour matriceA= Ik 0

0 0 oùk= dimF. A est symétrique, donc pest symétrique.

⇐ : soit p ∈ L(E) tel que p = p2 et p symétrique ; p est un projecteur, soient donc F = Imp et G= Kerp ; j’ai

∀(u, v)∈F×G (u|v) = (p(u)|v) = (u|p(v)) = 0

doncG⊂F d’où, compte tenu des dimensions,G=F ;pest donc la projection orthogonale surF. Exercice : on définit de même les endomorphismes antisymétriques, caractérisés par les assertions équivalentes suivantes, pour f ∈ L(E) :

1) ∀(u, v)∈E2 (f(u)|v) =−(u|f(v)) 2) ∀u∈E (f(u)|u) = 0

3) la matrice def dans une (toute) base orthonormale est antisymétrique.

Exemple: dansEespace vectoriel euclidien orienté de dimension 3, les endomorphismes antisymétriques sont lesfa:'u→'a∧'u; si'a a pour coordonnées(α, β, γ) dans une base orthonormale directeB, alors

MB(fa) =

0 −γ β

γ 0 −α

−β α 0

.

L’application'a→faest un isomorphisme deEdans le sous-espace deL(E)formé des endomorphismes antisymétriques.

IV

IV - Automorphismes orthogonaux, matrices orthogonales

Dans cette section, E désigne un espace vectoriel euclidien.

1) Automorphismes orthogonaux

Définition :f ∈ L(E)est ditautomorphisme orthogonal (ouisométrie vectorielle) deEsi et seulement sif conserve le produit scalaire, c’est-à-dire

∀(u, v)∈E2 (f(u)|f(v)) = (u|v) (si c’est le cas, f ∈GL(E), puisque f(u) = 0⇒u= 0).

Caractérisation :soitf ∈ L(E) ; les assertions suivantes sont équivalentes.

a)f est un automorphisme orthogonal de E ;

b)f conserve le produit scalaire : ∀(u, v)∈E2 (f(u)|f(v)) = (u|v) ; c)f conserve la norme : ∀u ∈E f(u) = u ;

d)f transforme une (toute) base orthonormale en base orthonormale.

(7)

Dém.Pour la seule implication non triviale c)⇒b) , utiliser uneidentité de polarisation, par exemple (f(u)|f(v)) = 1

2 f(u) +f(v) 2− f(u) 2− f(v) 2 , puis la linéarité def. . .

Propriétés : 1)L’ensemble des automorphismes orthogonaux deEest un sous-groupe de GL(E),◦ , appelé groupe orthogonal de E et notéO(E).

2) Sif ∈O(E), alorsdetf =±1 etSpf ⊂ {−1,1}. Corollaire : les isométries d’une droite vectorielle DsontIdD et −IdD.

Définition : 1) Les automorphismes orthogonaux de E de déterminant +1 sont les rotations de E ; elles forment un sous-groupe de O(E), appelé groupe spécial orthogonal de E et noté SO(E).

2) Les symétries orthogonales par rapport à un hyperplan sont les réflexions de E (le déterminant d’une réflexion vaut −1).

Propriété : dansEespace vectoriel euclidien orienté, les rotations sont les endomorphismes qui trans- forment une (toute) base orthonormale directe en base orthonormale directe.

2) Matrices orthogonales

Définition :M ∈ Mn(R) est une matrice orthogonale si et seulement si l’endomorphisme de Rn canoniquement associé à M est un automorphisme orthogonal de Rn (muni du produit scalaire canonique).

Propriété : l’ensemble des matrices orthogonales est un sous-groupe deGLn(R), legroupe orthogonal On(R) (noté aussi O(n)), isomorphe à O(Rn). L’ensembleSOn(R) (noté aussi SO(n)) des matrices de rotation deRn est un sous-groupe deOn(R), isomorphe à SO(Rn).

Caractérisation :on retrouve les caractérisations des automorphismes orthogonaux de Rn et, pour M ∈ Mn(R), les assertions suivantes sont équivalentes :

a)M est une matrice orthogonale ;

b) tM ×M =In; c) M ×tM =In ; d) M inversible etM−1 =tM ; e) tM est une matrice orthogonale ;

f) Les vecteurs colonnes deM forment une base orthonormale de Rn ; g) Les vecteurs lignes deM forment une base orthonormale deRn.

Dém.Remarquer que, si lesCj désignent les vecteurs colonnes deM, alors lamatrice de Gram tM×M est remplie par les produits scalaires (produit scalaire canonique dansRn) :

tM ×M = (Ci|Cj) 1≤i,j≤n. De même M×tM contient les produits scalaires des vecteurs lignes.

Propriétés :1) SoientBune base orthonormale deEetBune base deE. Best une base orthonormale si et seulement si la matrice de passage PB,B est une matrice orthogonale.

2) Si M ∈On(R), alors detM =±1,SpCM ⊂U etSpRM ⊂ {−1,1}. Exemple fondamental : soient 'a un vecteur unitaire de E et C =

 a1

...

an

 le vecteur colonne de ses coordonnées dans une base orthonormale B = (e1, . . . , en) ; la matrice dans B de la projection orthogonale sur la droite Vect'aest

P =CtC = (aiaj)1≤i,j≤n . On en déduit immédiatement :

1) la matrice de la projection orthogonale sur l’hyperplan(Vect'a) : In−P 2) la matrice de la symétrie orthogonale par rapport à la droiteVect'a : 2P−In

3) la matrice de la réflexion d’hyperplan (Vect'a) : In−2P.

(8)

3) Produit mixte — Produit vectoriel

a) Définitions

Soit E un espace euclidien de dimensionn,orienté (cf. Chap. 1, § VIII-1).

Rappel : soient f ∈ L(E),(u1, . . . , un) un système de nvecteurs deE etB une base de E ; on a detB f(u1), . . . f(un) = detf×detB u1, . . . un .

De même, si B est une autre base deE,P la matrice de passage de Bà B, on a detB u1, . . . un = detP×detB u1, . . . un .

(Ces relations proviennent des égalités matricielles correspondantes, elles-mêmes découlant de la défi- nition du produit de deux matrices et des relations “habituelles” Y =AX et X=P X. . . )

Théorème et définition :soit S = (u1, . . . , un) un système de n vecteurs de E. Le déterminant de S dans une base orthonormale directe de E ne dépend pas du choix de ladite base orthonormale directe. Sa valeur est appeléele produit mixte de u1, . . . , un, noté [u1, . . . , un].

Théorème et définition :soient u1, . . . , un−1 n−1 vecteurs de E (ici n ≥ 3). Il existe un unique vecteur v deE tel que : ∀w∈E (v|w) = [u1, . . . , un−1, w].

v est appeléle produit vectoriel de u1, . . . , un−1, noté u1∧. . .∧un−1. b) Propriétés du produit vectoriel dans E, euclidien orienté de dimension 3 'u∧'v est défini par : ∀w' ∈E ['u, 'v, 'w] = ('u∧'v |w).'

L’application ('u, 'v)→'u∧'v deE×E dans E est bilinéaire et antisymétrique ('v∧'u=−'u∧'v).

Deux vecteurs'uet'vdeE sont colinéaires si et seulement si'u∧'v='0.

Quels que soient'uet'v,'u∧'v est orthogonal à'uet à'v.

Si'uet'vsont orthogonaux, 'u∧'v = 'u . 'v .

Si la famille ('u, 'v) est orthonormale,'u∧'v est l’unique vecteurw' tel que ('u, 'v, 'w) soit une base ortho- normale directe.

Si 'i,'j,'k est orthonormale, alors'k=±'i∧'j.

Si 'i,'j,'k est orthonormale directe, alors'i∧'j='k,'j∧'k='iet'k∧'i='j.

Expression analytique: soitB= 'i,'j,'k est une base orthonormale directe deE et'u,'u deux vecteurs, de coordonnées respectives (x, y, z) et(x, y, z) dansB. Alors

'u∧'u= y y

z z .'i− x x

z z .'j+ x x y y .'k.

4) Isométries vectorielles d’un plan euclidien orienté

a) Le groupe O2(R)

Théorème :le groupe SO2(R) des matrices des rotations deM2(R) est l’ensemble des Rθ = cosθ −sinθ

sinθ cosθ , θ∈R.

SO2(R),× est un groupe commutatif. Plus précisément,

∀ θ, θ ∈R2 Rθ×Rθ =Rθ+θ =Rθ×Rθ.

NB : il en résulte que P−1RθP =Rθ pour toute matrice P deSO2(R), autrement dit l’isométrie rθ

deR2 ayant pour matriceRθ dans une base orthonormale directe a pour matrice Rθ dans toute base orthonormale directe. rθ est appelée la rotation d’angle θdans R2 (bien sûr, l’angle d’une rotation est définimodulo 2π).

Théorème :le groupe O2(R) est constitué des matrices de rotation et des matrices de réflexion Sθ = cosθ sinθ

sinθ −cosθ (symétrie orthogonale par rapport à la droiteVect cosθ 2,sinθ

2 ).

(9)

b) Isométries vectorielles d’un plan euclidien orienté Soient P un plan euclidien orienté et r∈SO(P) une rotation de P.

Il existeθréel tel que la matrice derdans toute base orthonormale directe soitRθ = cosθ −sinθ sinθ cosθ . r est appeléela rotation d’angle θ(modulo 2π).

Les isométries de P sont les rotations et les réflexions.

Soient rθ et rθ les rotations d’angles respectifs θ et θ ; rθ et rθ commutent et leur composée est la rotation d’angle θ+θ.

Écriture complexe d’une rotation : si B = 'i,'j est une base orthonormale directe de P et si 'u=x.'i+y.'j est le vecteur d’affixe z=x+iy, alorsrθ('u) est le vecteur d’affixee.z.

c) Angles orientés et aires en dimension 2

Soient P un plan euclidien orienté et'u,'v deux vecteurs unitairesdeP. On définit modulo 2π l’angle orienté θ= ('u, 'v) par

cosθ='u·'v et sinθ= ['u, 'v]

(c’est l’angle de l’unique rotation qui transforme'uen'v).

Rappel : l’angle non orientéentre'uet'v estarccos ('u·'v) (élément de [0, π]).

Propriété : l’airealgébrique d’un parallélogrammeABDC est le produit mixte −−→AB,−→AC . L’aire algébriquedu triangle ABC est 1

2

−−→AB,−→AC .

Le signe indique l’orientation ; pour les aires géométriques, prendre les valeurs absolues !

5) Isométries vectorielles en dimension 3

Dans tout ce paragraphe E désigne un espace vectoriel euclidien orienté de dimension 3.

a) Réduction d’une isométrie en base orthonormale

Lemme : soit f ∈ O(E) ; f admet 1 ou −1 pour valeur propre et l’orthogonal de tout sous-espace propre def est stable par f.

On classifie alors les isométries vectorielles de E selon la dimension de l’espace des vecteurs invariants F = Ker (f −IdE).

•Cas dimF = 3: alorsf = IdE (rotation triviale !).

•Cas dimF = 2 : alors f induit une isométrie de la droite D = F, qui est nécessairement −IdD

(sinonf = IdE). f est donc la réflexion de planF ; sa matrice dans une base orthonormale adaptée à la décomposition E =F ⊕F est diag (1,1,−1). En particulier detf =−1, c’est une isométrie indirecte.

•Cas dimF = 1 : alors f induit une isométrie du plan P = F, qui n’admet que le vecteur nul comme vecteur invariant ; c’est donc une rotation de P (différente de l’identité) et f est alors une rotation deE (cf. déterminant par blocs). Plus précisément, dans une base orthonormale adaptée à la décompositionE=P⊕F,f admet une matrice de la forme

cosθ −sinθ 0 sinθ cosθ 0

0 0 1

,θ∈R\2πZ.

On dit quef estune rotation d’axe F.

•Cas dimF = 0: alorsf admet−1comme valeur propre ; soitG=E−1(f);f induit une isométrie deG qui n’admet aucune valeur propre : G est donc de dimension 0 ou 2 ;

∗ soitG={0} : alorsf =−IdE !

∗ soitGest un planP etf induit une rotation deP différente de l’identité ; dans une base ortho- normale adaptée à la décompositionE =P⊕G,f admet une matrice de la forme

cosθ −sinθ 0 sinθ cosθ 0

0 0 −1

; on a alors f =r◦s=s◦r où r est une rotation d’axeGets la réflexion de planP =G.

(10)

b) Axe et angle d’une rotation

Étant donné un vecteur non nul de E, on appelle axe orienté par 'ala droite Vect ('a) orientéepar le choix de ('a) comme base directe. Compte tenu de l’orientation de E, le choix de'a pour orienter la droite qu’il engendre induit une orientation du plan P normal à'a: une base 'i,'j deP est directe si et seulement si la base 'i,'j,'a deE est directe.

Soit alors r une rotation de E, distincte de IdE. L’ensemble de ses vecteurs invariants est une droite, que l’on oriente par un de ses vecteurs directeurs'a. Il en résulte une orientation du plan normal à'a, qui permet de définir modulo2π l’angleθde la rotation de ce plan induite par r.

On dit alors quer est la rotation d’axe orienté par 'aet d’angle θ(modulo2π).

Si l’on choisit 'a unitaire et'i,'j tels que 'i,'j,'a soit une base orthonormale directe de E, alors la matrice de r dans cette base estR=

cosθ −sinθ 0 sinθ cosθ 0

0 0 1

.

Attention ! r est aussi la rotation d’axe orienté par−'aet d’angle −θ. . . En effet, 'i,−'j,−'a est une base orthonormale directe adaptée à cette orientation et







r 'i = cosθ.'i+ sin (−θ). −'j r −'j =−sin (−θ).'i+ cosθ. −'j

r(−'a) =−'a

NB : un système de valeurs propres de R dans C est e, e−iθ,1 , donc R est diagonalisable sur R si et seulement si θ ∈ πZ, soit si et seulement si R= I3 ou R = diag (−1,−1,1), r étant alors la symétrie orthogonale par rapport à son axe, appelée aussi demi-tour d’axe Vect ('a) (rotation d’angle π, pour laquelle l’orientation de l’axe n’a pas d’importance. . . ).

Pour écrire la matrice dans une base donnée d’une rotation donnée

Étant données une base B de E (par exemple la base canonique de R3) et la rotation r d’axe orienté par le vecteur unitaire'a, d’angleθ, pour obtenir la matrice de r dans B, il suffit de choisir un vecteur unitaire'iorthogonal à'a, de poser'j ='a∧'ide sorte que 'i,'j,'a soit une base orthonormale directe de E, alors on connaît la matrice Rde r dans cette base (cf. ci-dessus) et l’on en déduit la matrice de r dans la base B, qui estP RP−1, oùP est la matrice de passage deBà 'i,'j,'a . SiB est orthonormale, on a P ∈O3(R) et doncP−1 =tP !

Pour reconnaître une matrice de rotation et déterminer son axe et son angle

On voit immédiatement si une matriceRdeM3(R) est orthogonale, puisque cela équivaut au fait que la famille (C1, C2, C3) de ses vecteurs colonnes est orthonormale. Dans ce cas, Rest une matrice de rotation si et seulement si C1 ∧C2 = +C3 ; sachant que C1 ∧C2 = ±C3, on peut se contenter de comparer les signes d’une des coordonnées (non nulle !) de ces deux vecteurs (il n’est pas nécessaire de calculerdetR. . . ).

S’il s’avère que R ∈ SO3(R), son axe est l’ensemble des vecteurs invariants, fourni si besoin par la résolution du système (R−I)X = 0 (c’est nécessairement une droite, donc il suffit de trouver un vecteur invariant non nul. . . ).

Une fois l’axe déterminé, on choisit un vecteur non nul'apour l’orienter, reste à trouver l’angleθ.

Pour cela, on détermine cosθ grâce à la relationTr (R) = 1 + 2 cosθ et l’on détermine le signe de sinθ grâce à la propriété suivante (ce qui permet de connaîtreθ modulo 2π).

Propriété : sir est la rotation d’axe orienté par'aet d’angleθ, alors pour tout vecteur'unon colinéaire à'a,sinθ est du signe du produit mixte['u, r('u), 'a].

Exemples :

•Écrire la matrice dans la base canonique de R3 de la rotation d’axe orienté par (1,1,−1) d’angle π/3.

•Caractériser géométriquement l’endomorphisme deR3 de matrice Rdans la base canonique, où R= 1

9

8 1 −4

−4 4 −7

1 8 4

(11)

c) Angles et volumes en dimension 3

La notion d’angle orienté dans l’espace n’a pas de sens (à moins de se situer dans un plan orienté, par le choix d’une orientation de sa normale. . . ).

On en reste donc, pour deux vecteurs non nuls'uet'v, à l’angle non orientéα= arccos 'u·'v

'u . 'v ∈[0, π].

L’angle (toujours non orienté) des deux droites Vect ('u) etVect ('v)est arccos |'u·'v|

'u . 'v ∈[0, π/2].

L’angle de deux plans est par définition l’angle de leurs normales (deux plans sont perpendiculaires si et seulement si leurs normales sont orthogonales. . . ).

Le volume du parallélépipède construit sur trois arêtes [A, B], [A, C],[A, D]est −−→

AB,−→

AC,−−→

AD . Le volume du tétraèdre ABCD est 1

6

−−→AB,−→AC,−−→AD .

V

V - Réduction des endomorphismes symétriques et des matrices symétriques réelles

E désigne toujours un espace euclidien.

1) Théorème spectral (fondamental !)

Soitf un endomorphisme symétrique deE ;E est somme directe orthogonale des sous-espaces propres de f ; autrement dit, f est diagonalisable dans une base orthonormale, ou encore il existe une base orthonormale de E formée de vecteurs propres def.

Corollaire : soit A une matrice symétrique réelle; A est diagonalisable avec une matrice de passage orthogonale : ∃P ∈On(R) P−1AP diagonale (avecP−1 =tP !).

Lemme 1 : si Amatrice symétrique réelle, le polynôme caractéristique de A est scindé surR.

Dém. Le polynôme caractéristique χA de A, considérée comme matrice de Mn(C), est scindé sur C (théorème de d’Alembert-Gauss !) ; soient doncλ∈SpC(A)etZ ∈ Mn,1(C)un vecteur propre associé :

Z =

 z1

...

zn

= 0 et AZ=λ.Z ; j’ai alors, en transposant et en conjuguant, comme A est symétrique réelle,

tZ.A=λ.tZ d’où tZ.A.Z =λ.tZ.Z c’est-à-dire λ.tZ.Z =λ.tZ.Z or

tZ.Z = n

k=1|zk|2 >0 donc λ=λ;

par conséquent, χA est à coefficients réels et toutes ses racines en tant que polynôme de C[X] sont réelles : χAest scindé sur R.

NB : de même, les valeurs propres d’une matrice antisymétrique réelle sont imaginaires pures.

Lemme 2 : si f ∈ L(E) est symétrique etF un sous-espace deE stable par f,F est stable parf. Dém.SupposonsF stable par f ; soit alors u∈F:

∀v∈F (f(u)|v) = (u|f(v)) = 0

puisqueu∈F et f(v)∈F ; doncf(u)∈F, ceci pour toutu deF : F est stable parf.

Dém. du théorème : par récurrence forte sur n = dimE ; soit, pour n ∈ N, Pn l’assertion : “pour tout endomorphisme symétriquef de tout espace vectoriel euclidien de dimensionn, il existe une base orthonormale de E formée de vecteurs propres def”.

• P1 est triviale ;

•hypothèse de récurrence : soit n≥2 tel quePk soit vraie pour toutk < n;

(12)

•Soient alorsE un espace vectoriel euclidien de dimensionnet f un endomorphisme symétrique de E, A la matrice de f dans une base orthonormale de E. D’après le lemme 1, A admet au moins une valeur propre réelle λ, soit donc F = Eλ(f) le sous-espace propre associé ; F est stable par f et donc G =F est également stable par f d’après le lemme 2. Soit g l’endomorphisme de G induit parf ; muni du produit scalaire induit par celui deE,Gest un espace vectoriel euclidien de dimension p < netg est un endomorphisme symétrique deG :

∀(u, v)∈G2 (g(u)|v)G= (f(u)|v)E = (u|f(v))E = (u|g(v))G

donc l’hypothèse de récurrence me fournit une base orthonormale deGformée de vecteurs propres de g, qui sont aussi des vecteurs propres def ! Il suffit alors de la compléter par une base orthonormale deF (également formée de vecteurs propres def !) pour conclure.

Attention ! Dans Mn(C) (pour n ≥ 2 !), il existe des matrices symétriques non diagonalisables. . . Voir par exemple i 1

1 −i .

2) Endomorphismes et matrices symétriques positifs

(compléments hors programme mais très classiques. . .)

Définition :un endomorphisme symétrique f de E est dit positif (resp. défini positif) si la forme bilinéaire symétrique associéeB: (u, v)→(u|f(v))l’est, c’est-à-dire si et seulement si

∀u∈E B(u, u) = (u|f(u))≥0 (resp. ∀u∈E\ {0} B(u, u) = (u|f(u))>0).

NB : les endomorphismes symétriques définis positifs sont associés aux produits scalaires sur E.

Ce sont les endomorphismes symétriques positifs et bijectifs.

Caractérisation :un endomorphisme symétriquef deEest positif (resp. défini positif) si et seulement si ses valeurs propres sont dans R+ (resp. R+∗).

Dém.Soit f un endomorphisme symétrique de E ; le théorème spectral me fournit une base orthonor- male de vecteurs propres de E et le système (λ1, . . . , λn) des valeurs propres associées :

∀k∈Nn f(ek) =λk.ek. Pour tout vecteuru=

n

k=1

xk.ek deE, j’ai

B(u, u) = (u|f(u)) =

n

k=1

λk.x2k.

Il en résulte immédiatement que, si tous les λk sont dans R+ (resp. R+∗), alors f est positif (resp.

défini positif).

Pour la réciproque, il suffit de remarquer que : ∀k∈Nn λk= (ek|f(ek)).

Définition :une matrice symétrique réelleAest ditepositive (resp. définie positive) si l’endomorphisme de Rn canoniquement associéCanA l’est, c’est-à-dire si et seulement si

∀X∈ Mn,1(R) tXAX ≥0 (resp. ∀X ∈ Mn,1(R)\ {0} tXAX >0).

Caractérisation :une matrice symétrique réelle est positive (resp. définie positive) si et seulement si ses valeurs propres sont dansR+ (resp. R+∗).

Exemple important : soit A ∈ Mn(R), la matrice B=tAAest symétrique positive ; de plusCanB a même noyau queCanA et

rg tAA = rgA.

Dém.Il est clair que B est symétrique et que : ∀X ∈ Mn,1(R) tXBX= AX 2 ≥0.

Pour le second point, la relation ci-dessus montre que : BX = 0 ⇒ AX = 0. Or la réciproque est banale et il en résulte Ker CanB= Ker CanA ; l’égalité des rangs résulte alors du théorème du rang ! Le lecteur attentif aura reconnu en tAAla matrice de Gram des vecteurs colonnes deA.

Références

Documents relatifs

I) Sollen iiberhaupt solche Functionen existieren, welche im Endlichen durchaus den Charakter yon rationalen haben, so m(issen zwischen den Perioden gewisse

Vous numéroterez vos copies et ferez apparaître clairement sur la première page le nombre de copies... On calcule le déterminant de C dans la base

Déterminer une base et la dimension de

Par contre si le milieu est de dimension finie selon z, on peut très bien avoir des solutions en exp(z/ δ) qui croissent au fur et à mesure de la progression de l’onde (combinées à

Former une base du noyau et de l'image.. Former une équation

Former une base du noyau et de l'image.. Former une équation

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/.. 2 Rémy

Paternité-Partage des Conditions Initiales à l'Identique 2.0 France disponible en ligne http://creativecommons.org/licenses/by-sa/2.0/fr/. 2 Rémy