ISOMÉTRIES VECTORIELLES ET MATRICES ORTHOGONALES
Dans ce chapitre, on travaille seulement avec le corps de baseR.
1 ISOMÉTRIES VECTORIELLES
Définition-théorème (Isométrie vectorielle/automorphisme orthogonal)SoientEun espace euclidien etf ∈ L(E).
Les assertions suivantes sont équivalentes :
(i) f préserve les produits scalaires : ∀x,y∈E,
f(x),f(y)
=〈x,y〉. (ii) f préserve les normes : ∀x∈E, f(x)=kxk.
On dit dans ce cas quef est uneisométrie(vectorielle)de Eou unautomorphisme orthogonal de E. En particulier, comme le nom l’indique,f est alors un automorphisme deE.
Démonstration Nous noterons ci-dessousÆl’identité de polarisation : 〈x,y〉=1 2
kx+yk2− kxk2− kyk2 . (i)=⇒(ii) Pour toutx∈E: f(x)=q
f(x),f(x)
=p
〈x,x〉=kxk. (ii)=⇒(i) Pour tousx,y∈E:
f(x),f(y)Æ
=1 2
f(x) +f(y) 2−
f(x) 2−
f(y) 2
Linéarité
= 1
2
f(x+y)2−f(x)2−f(y)2(ii)
= 1 2
kx+yk2− kxk2− kyk2Æ
=〈x,y〉. Montrons pour finir que f est un automorphisme de E si (i) ou (ii) est vraie. Or f est injective car pour tout x∈Kerf : kxk=f(x)=k0Ek=0, donc : x=0E. Comme f est par ailleurs un endomorphisme de
Eet commeEest de dimension finie, f est bien un automorphisme.
Exemple Toute symétrie orthogonale est une isométrie vectorielle. En particulier, donc, toute réflexion — symétrie ortho- gonale par rapport à un hyperplan — est une isométrie vectorielle.
Démonstration Simple conséquence du théorème de Pythagore ! SoientEun espace euclidien etsune symétrie orthogonale deE. Posons : F=Ker s−IdE
. Alorssest la symétrie par rapport àF parallèlement àF⊥— donc une application linéaire — et pour toutx=f +f′∈Eavecf ∈F etf′∈F⊥:
s(x) 2=
f −f′
2 Pythagore
= kfk2+kf′k2 Pythagore= f +f′
2=kxk2, donc : s(x)
=kxk.
Théorème (Caractérisation des isométries par l’image d’une base orthonormale) Soient E 6=
0E un espace euclidien,f ∈ L(E)etBune base orthonormale deE. Les assertions suivantes sont équivalentes :
(i) f est une isométrie vectorielle deE. (ii) f(B)est une base orthonormale deE.
Une isométrie transforme doncTOUTEbase orthonormale en une base orthonormale, et réciproquement, un endomor- phisme qui tranformeUNEbase orthonormale en une base orthonormale est une isométrie vectorielle.
Démonstration Introduisons les vecteurs deB: B= (e1, . . . ,en).
(i)=⇒(ii) Sif est une isométrie, alors pour tousi,j∈¹1,nº:
f(ei),f(ej)
= ei,ej
=δi j, doncf(B), famille den=dimEvecteurs, est une base orthonormale deE.
(ii)=⇒(i) Réciproquement, si nous supposons f(B)orthonormale, alors pour tout x ∈E de coordonnées (x1, . . . ,xn)dansB, f(x)a pour coordonnées(x1, . . . ,xn)dans f(B), donc comme ces deux bases sont orhonormales : f(x)=
vu tXn
k=1
xk2=kxk.
Définition-théorème (Groupe orthogonal d’un espace euclidien) Soit Eun espace euclidien. L’ensemble des iso- métries vectorielles de E, noté O(E), est un sous-groupe du groupe linéaire GL(E)de E appelé le groupe orthogonal de E.
La composée de deux isométries vectorielles et la réciproque d’une isométrie vectorielle sont donc des isométries vecto- rielles.
Démonstration Tout d’abord, GL(E)est un groupe pour laCOMPOSITION. Ensuite : O(E)⊂GL(E) car toute isométrie est un automorphisme, et : IdE∈O(E) car IdE préserve les normes. Enfin, pour tous f,g∈O(E):
f−1g∈O(E) car pour toutx∈E: f−1g(x)f∈=O(E)
f f−1g(x)
=g(x)g∈=O(E)kxk.
2 MATRICES ORTHOGONALES
Définition-théorème (Matrice orthogonale) SoitM∈ Mn(R). Les assertions suivantes sont équivalentes : (i) M⊤M=In — il revient au même de dire que : M M⊤=In ou queMest inversible d’inverseM⊤. (ii) La famille des colonnes — ou des lignes — deMest une base orthonormale de l’espace euclidien canoniqueRn. On dit dans ce cas queMestorthogonale.
Démonstration NotonsC1, . . . ,Cnles colonnes deM. L’égalité : M⊤M=In, écrite coefficient par coefficient, signifie exactement que pour tousi,j∈¹1,nº: Ci⊤Cj =δi j, i.e. que :
Ci,Cj
= δi j, ou encore que (C1, . . . ,Cn)est une base orthonormale deRn. Enfin, comme il est équivalent d’affirmer l’égalité : M M⊤=In,
le résultat sur les lignes s’obtient de même.
Exemple Il est facile de vérifier « à l’œil nu » qu’une matrice carrée est orthogonale, il suffit de se demander si ses colonnes forment une famille orthonormale ou non. Par exemple, la matrice
0
−1
1 0
est orthogonale car ses deux colonnes sont de norme 1 et de produit scalaire nul. Même raisonnement avec 1
p6
p2
−p3 1 p2 p
3 1
p2 0 −2
.
Théorème (Isométries et matrices orthogonales) SoientE6=
0E un espace euclidien, f ∈ L(E)etB une base
ORTHONORMALEdeE. Les assertions suivantes sont équivalentes :
(i) f est une isométrie vectorielle. (ii) MatB(f)est une matrice orthogonale.
Démonstration Posons : M =MatB(f), notons C1, . . . ,Cn ses colonnes et introduisons les vecteurs de B: B= (e1, . . . ,en). L’espaceEest euclidien, mais nous pouvons aussi munirRnde sa structure euclidienne canonique. Nous travaillons donc ici avec deux produits scalaires simultanément, un surEet un autre surRn.
(i)=⇒(ii) Pour tousi,j∈¹1,nº: Ci,Cj
=
f(ei),f(ej)
car nous pouvons calculer le produit scalaire facilement à l’aide des coordonnées quand la base choisie estORTHONORMALE, puis f étant une isométrie : Ci,Cj
= ei,ej
=δi j, donc la famille des colonnes deMest orthonormale, i.e.M est orthogonale.
(ii)=⇒(i) SiM est orthogonale : f ∈O(E) car pour toutx∈Ede coordonnéesX dansB,f(x)a pour coordonnées M X dans B, donc :
f(x)
2 = (M X)⊤(M X) =X⊤ M⊤M
X = X⊤InX = X⊤X = kxk2,
donc : f(x)=kxk.
Théorème (Matrice de passage d’un changement de bases orthonormales) SoientE6=
0E un espace euclidien etBetB′deux basesORTHONORMALESdeE. La matrice de passagePBB′deBàB′est alors une matrice orthogonale.
Il est donc facile de calculer son inverse : PBB′−1
= PBB′⊤
.
Démonstration Notons f l’unique endomorphisme de E qui envoieB surB′. CommeB etB′ sont deux bases orthonormales, f est une isométrie vectorielle, donc la matrice : PBB′ =MatB(B′) = MatB(f) est
orthogonale.
Vous démontrerez seuls le résultat suivant.
Définition-théorème (Groupe orthogonal) L’ensemble des matrices orthogonales de taillen, noté O(n)ou On(R), est un sous-groupe du groupe linéaire GLn(R)appelé legroupe orthogonal de degré n.
Le produit de deux matrices orthogonales et l’inverse d’une matrice orthogonale sont donc des matrices orthogonales.
3 SIGNE D’UNE ISOMÉTRIE ET D’UNE MATRICE ORTHOGONALE
Définition-théorème (Isométrie/matrice orthogonale positive/négative)
(i) Le déterminant d’une matrice orthogonale vaut 1 ou−1. On dit qu’une matrice orthogonale estpositivesi son déterminant vaut 1 et qu’elle estnégatives’il vaut−1.
(ii) Le déterminant d’une isométrie vectorielle vaut 1 ou−1. On dit qu’une isométrie vectorielle estpositivesi son déterminant vaut 1 et qu’elle estnégatives’il vaut−1.
Une matriceM∈ Mn(R)est orthogonalePOSITIVEsi et seulement si la famille de ses colonnes est une base orthonormale
DIRECTEdeRn, et une isométrie vectoriellePOSITIVEest une isométrie quiPRÉSERVE L’ORIENTATION. Démonstration
(i) Pour toutM∈O(n): det(M)2=det(M)det M⊤
=det M M⊤
=det(In) =1.
(ii) Pour tout espace euclidienE6=
0E de base orthonormaleBet pour toutf ∈O(E), on a vu que MatB(f) est une matrice orthogonale, donc d’après (i) : det(f) =det
MatB(f)
∈
−1, 1 .
$ Attention ! Toute matrice de déterminant±1 n’est pas orthogonale — par exemple 1 1
0 1
.
Théorème (Isométries positives et matrices orthogonales positives)SoientE6=
0E un espace euclidien,f ∈ L(E) etBune baseORTHONORMALEdeE. Les assertions suivantes sont équivalentes :
(i) f est une isométrie vectorielle positive. (ii) MatB(f)est une matrice orthogonale positive.
Définition-théorème (Groupe spécial orthogonal)
(i) SoitE un espace euclidien. L’ensemble des automorphismes orthogonaux positifs deE, noté SO(E)ou O+(E), est un sous-groupe de O(E)appelé legroupe spécial orthogonal de E.
(ii) L’ensemble des matrices orthogonales positives de taillen, noté SO(n)ou SOn(R), est un sous-groupe de O(n) appelé legroupe spécial orthogonal de degré n.
Démonstration Pour (i) : SO(E)⊂O(E) par définition, et : IdE∈SO(E) car : det(IdE) =1. Ensuite, pour tous f,g∈SO(E), nous savons que f−1g∈O(E) et par ailleurs : det f−1g
=det(f)−1det(g) = 1, donc : f−1g∈SO(E). L’assertion (ii) se démontre de la même manière.
4 PRODUIT MIXTE, AIRES ET VOLUMES ORIENTÉS
Définition-théorème (Produit mixte) Soit E6=
0E un espace euclidien orienté de dimensionn.
(i) Soientx1, . . . ,xn∈E. Le scalaire detB(x1, . . . ,xn)ne dépend pas de la baseBdeEchoisieSI ELLE EST ORTHO-
NORMALE DIRECTE. On l’appelle leproduit mixte de x1, . . . ,xnet on le note :
x1, . . . ,xn . (ii) Le produit mixte d’une base orthonormale directe est toujours égal à 1.
Démonstration SoientBetB′deux bases orthonormales directes deE. L’unique endomorphisme f deEqui envoieBsurB′est une isométrie positive, donc : detB(B′) =detB f(B)
=det(f) =1 — assertion (ii).
En retour, pour l’assertion (i) : detB(x1, . . . ,xn) =detB(B′)detB′(x1, . . . ,xn) =detB′(x1, . . . ,xn). Le produit mixte est un déterminant qui, en apparence, ne dépend pas d’une base, mais c’est seulement parce qu’il dépend fondamentalement du produit scalaire et de l’orientation vis-à-vis duquel on le calcule, et donc des bases orthonormales directes associées. Ce que la définition du produit mixte énonce, c’est que tant qu’on prend pour pavé élémentaire un pavé orienté positivement dont les arêtes sont orthogonales et de longueur 1, on compte les aires ou volumes de la même manière quel que soit le pavé choisi. Au chapitre « Déterminants », il y avait quelque chose d’arbitraire dans le choix d’une base comme base de référence pour les aires ou volumes orientés. De fait, dans un espace vectoriel quelconque sans produit scalaire, la notion de longueur fait défaut — d’où l’impossibilité de relier les aires ou volumes et les longueurs — d’où l’arbitraire. Dans un espace euclidien, le produit scalaire réconcilie les aires/volumes avec les longueurs.
Rappelons pour finir que le produit mixte, comme tout déterminant d’une famille dans une base, digère très bien les endomorphismes. Pour tousf ∈ L(E)etx1, . . . ,xn∈E:
f(x1), . . . ,f(xn)
=det(f)×
x1, . . . ,xn
. Géométriquement, ce résultat signifie que lorsqu’on transforme un parallélépipède par une application linéairef, le volume orienté s’en trouve tout simplement multiplié par det(f).
5 ISOMÉTRIES VECTORIELLES D’UN PLAN EUCLIDIEN ET ANGLES ORIENTÉS
Théorème (Matrices orthogonales de taille 2)
• Toute matrice orthogonale positive de taille 2 est de la forme : cosθ
−sinθ sinθ cosθ
pour un certainθ∈R.
• Toute matrice orthogonale négative de taille 2 est de la forme :
cosθ sinθ
sinθ −cosθ
pour un certainθ∈R.
Démonstration Pour toutM=a c
b d
∈ M2(R): M∈O(2) ⇐⇒ M⊤M=I2 ⇐⇒
a2+b2=1 c2+d2=1 ac+bd=0
⇐⇒ ∃θ,ϕ∈R,
a=cosθ et b=sinθ c=cosϕ et d=sinϕ cosθcosϕ+sinθsinϕ=0
⇐⇒ ∃θ,ϕ∈R,
a=cosθ et b=sinθ c=cosϕ et d=sinϕ cos(θ−ϕ) =0
⇐⇒ ∃θ,ϕ∈R, ǫ∈
−1, 1 ,
a=cosθ et b=sinθ c=cosϕ et d=sinϕ ϕ≡θ+ǫ π
2 [2π]
Or : cos θ+ǫ π
2
=−ǫsinθ et sin θ+ǫ π
2
=ǫcosθ.
⇐⇒ ∃θ∈R, ǫ∈
−1, 1 ,
§ a=cosθ et b=sinθ
c=−ǫsinθ et d=ǫcosθ ⇐⇒ ∃θ∈R, ∃ǫ∈
−1, 1 , M=cosθ
−ǫsinθ sinθ ǫcosθ
. Il reste à remarquer que pour tousθ∈Retǫ∈
−1, 1 :
cossinθθ −ǫǫcosθsinθ
=ǫ.
Le calcul suivant n’a l’air de rien comme ça, mais c’est grâce à lui que nous allons pouvoir envisager une définition des angles orientés. Pour tousα,β∈R:
cosα
−sinα sinα cosα
×cosβ
−sinβ sinβ cosβ
=cos(α+β)
−sin(α+β) sin(α+β) cos(α+β)
=cos(β+α)
−sin(β+α) sin(β+α) cos(β+α)
=cosβ
−sinβ sinβ cosβ
×cosα
−sinα sinα cosα
.
En résumé, la commutativité de l’addition surRest ici transmise à la multiplication matricielle sur SO(2).
Théorème (Commutativité du groupeSO(2)) Le groupe SO(2)est commutatif.
Théorème (Classification des isométries en dimension 2) SoientEun espace euclidien de dimension 2 etf ∈O(E).
(i) Si f est négative, f est une réflexion, i.e. ici une symétrie orthogonale par rapport à une droite.
(ii) Si f est positive, i.e. si : f ∈SO(E), on dit que f est unerotation(vectorielle).
On suppose à présentEORIENTÉ. La matrice MatB(f)ne dépend alors pas de la baseBà condition que celle-ci soitORTHONORMALE DIRECTE. Cette matrice est de la forme : cosθ −sinθ
sinθ cosθ
pour un certainθ ∈Runique à 2πprès. On dit que f est larotation(vectorielle)d’angle de mesureθ.
Les remarques qui suivent ne concernent que l’assertion (ii).
• L’espace euclidienEn’a pas besoin d’être muni d’une orientation pour que f soit une rotation. En revanche,IL FAUT ORIENTER Epour mesurerDE QUELLE MANIÈRE f est une rotation, i.e. si on veut pouvoir dire que f est la rotation
D’ANGLE DE MESUREθ. Quand on change l’orientation,f ne change pas, elle fait ce qu’elle a à faire indépendamment de toute orientation, mais on est obligé de la décrire différemment comme la rotation d’angle de mesure−θ. Autre manière de dire les choses — la valeur deθ n’est bien définie à 2πprès que si on calcule la matrice def dans une base orthonormaleDIRECTE, ce qui requiert une orientation préalable deE.
• L’indépendance de la matrice def par rapport à la base orthonormale directe choisie signifie géométriquement qu’une rotation vectorielle agitUNIFORMÉMENTsur les vecteurs du plan, i.e. de la même manière dans toutes les directions.
• La commutativité du groupe SO(2)signifie géométriquement que deux rotations vectorielles commutent toujours — tourner d’un angleϕpuis d’un angleψ, c’est pareil que tourner deψpuis deϕ.
Démonstration
(ii) Supposons f positive et donnons-nous deux bases orthonormales directes B etB′ de E. Les matrices MatB(f)et MatB′(f)sont orthogonales positives et c’est aussi le cas de PBB′. Par changement de base, SO(2)étant commutatif : MatB′(f) = PBB′−1
MatB(f)PBB′ = PBB′−1
PBB′MatB(f) =MatB(f), donc en effet, la matrice def ne dépend pas de la base choisie lorsqu’elle est orthonormale directe.
f(e1)
f(e2)
θ θ
u1 2
u2
b
e1 e2
(i) Supposonsf négative et donnons-nous une base orthonormale(e1,e2)deE.
La matrice def dans la base(e1,e2)est alors orthogonale négative, disons : cosθ sinθ
sinθ −cosθ
pour un certainθ ∈R.
Ci-contre,e1et f(e1)(resp.e2et f(e2)) sont orthogonalement symétriques l’un de l’autre par rapport à la droite engendrée paru1. Cela nous donne l’idée de montrer quef est la réflexion par rapport à Vect(u1). Posons ainsi : u1=cosθ
2e1+sinθ
2e2 et u2=−sinθ
2e1+cosθ
2e2. Il est clair que (u1,u2)est une base orthonormale deE. De plus, après calcul : f(u1) =u1 et f(u2) =−u2, donc : Mat(u1,u2)(f) =1 0
0 −1
, donc f est la réflexion par rapport à Vect(u1).
Nous n’en avons pas parlé jusqu’ici, mais en tant que plan vectoriel surR,Cpeut être muni d’un produit scalaire naturel défini pour tousx,x′,y,y′ ∈Rpar : 〈x+iy,x′+iy′〉= x x′+y y′. Il est équivalent de dire que pour tousz,z′∈C:
〈z,z′〉=Re zz′
. Pour ce produit scalaire sans surprise,(1, i)est une base orthonormale que nous considérons directe.
Théorème (Rotations deC) Pour toutθ ∈R, la fonctionz7−→eiθzn’est autre que la rotation d’angle de mesureθ du plan euclidienC.
Résultat bien connu de début d’année, mais nous parlions alors de rotations en termes seulement intuitifs. Ici, les rotations intuitives de début d’année s’avèrent coïncider avec les rotations définies proprement dans ce chapitre.
Démonstration Soit θ ∈R. La fonctionz 7−→r eiθz est linéaire sur C car pour tousz,z′ ∈C etλ,λ′ ∈R : r λz+λ′z′
=eiθ λz+λ′z′
=λeiθz+λ′eiθz′=λr(z) +λ′r(z′). Ensuite : r(1) =eiθ=cosθ+i sinθ et r(i) =eiθi=−sinθ+i cosθ, donc : Mat(1,i)(r) =cosθ
−sinθ sinθ cosθ
.
Théorème (Produit scalaire et cosinus) SoientEun espace euclidien de dimension 2 etu,v∈Enon nuls. Il existe une et une seule rotationr∈SO(E)pour laquelle : v
kvk =r
u kuk
.
Si de plusEest orienté et si on noteθ une mesure de l’angle der: 〈u,v〉=kuk.kvkcosθ.
Il était temps ! Nous retrouvons ici enfin la relation bien connue de géométrie élémentaire : #”u·#”v =#”u.#”vcos #”u,#”v . Démonstration
• Posons : e1= u
kuk, complétons(e1)en une base orthonormale directe(e1,e2)deEet notons(x,y)les coordonnées de v
kvk dans(e1,e2)— en particulier : x2+y2=1. Sir est la rotation deEde matrice x
−y
y x
dans(e1,e2), on a bien comme voulu : v kvk =r
u kuk
, mais ce résultat est-il possible avec une autre rotation ? Non, car la forme d’une matrice de rotation dans une base orthonormale directe est telle qu’on n’a besoin que de connaître sa première colonne pour la connaître entièrement.
• Par définition deretθ : v
kvk=cosθe1+sinθe2, donc :
〈u,v〉=kuk.kvk
u kuk, v
kvk
·
=kuk.kvk
e1, cosθe1+sinθe2
=kuk.kvkcosθ.
Mais finalement, c’est quoi un angle orienté ? Nous parlons de « rotation d’ANGLEdeMESUREθ » depuis tout à l’heure sans avoir jamais défini les mots « angle » et « mesure ». La définition et l’étude des angles orientés sont hors programme en MPSI, mais il serait dommage de ne pas en dire deux mots. NotonsU l’ensemble des couples de vecteurs unitaires deE. On définit une relation d’équivalence∼surU de la façon suivante — pour tous(u,v),(u′,v′)∈ U :
(u,v)∼(u′,v′) ⇐⇒ ∃r∈SO(E), v=r(u) et v′=r(u′).
Géométriquement, les couples(u,v)et(u′,v′)sont en relation par∼si et seulement si une même rotation envoie dans les deux cas le premier vecteur sur le deuxième. En d’autres termes, on passe deuàvavec le même « angle orienté intuitif » qu’on passe deu′à v′. L’angle orienté(u,v)est alors par définition la classe d’équivalence du couple(u,v)pour∼. Dans ce contexte, le théorème précédent affirme qu’on peut associer à tout angle orienté(u,v)une et une seule rotationr, associée à un unique réelθà 2πprès siEest orienté. Ce réelθ n’est pas « l’angle orienté(u,v)», mais un réel utilisé pourMESURER
cet angle, et qu’on appelle justementUNEmesure de(u,v).
6 PRODUIT VECTORIEL
Hors programme en mathématiques en MPSI, le produit vectoriel n’en constitue pas moins un prolongement naturel des paragraphes précédents, alors ne résistons pas. Si la définition qui suit paraît compliquée au premier abord, elle offre une démonstration rapide et intelligente de tous les résultats sur le produit vectoriel que vous connaissez déjà.
Définition-théorème (Produit vectoriel) SoientEun espace euclidien orienté de dimension 3 etu,v∈E. Il existe un unique vecteur deE, notéu∧vet appelé leproduit vectoriel de u et v, pour lequel : ∀x∈E,
u,v,x
=〈u∧v,x〉.
Démonstration
• Pour touta∈ E, notons ϕa la forme linéaire x 7−→ 〈a,x〉de E. Je vous laisse vérifier que l’application a7−→ϕ ϕaest elle-même linéaire deEdansL(E,R). Nous allons montrer queϕest même un isomorphisme, et pour cela, comme : dimL(E,R) =dimE×dimR=dimE, l’injectivité sera suffisante. Or pour tout a∈Kerϕ: ϕa=0L(E,R) donc : kak2=〈a,a〉=ϕa(a) =0, et enfin : a=0E.