• Aucun résultat trouvé

• Soit E un R -espace vectoriel. On appelle produit scalaire sur E toute forme bilinéaire symétrique définie positive, i.e. toute application 〈· , ·〉 : E × E −→ R :

N/A
N/A
Protected

Academic year: 2021

Partager "• Soit E un R -espace vectoriel. On appelle produit scalaire sur E toute forme bilinéaire symétrique définie positive, i.e. toute application 〈· , ·〉 : E × E −→ R :"

Copied!
14
0
0

Texte intégral

(1)

E SPACES PRÉHILBERTIENS RÉELS

Dans ce chapitre, on travaille seulement avec le corps de base R .

1 P RODUIT SCALAIRE ET NORME

Définition (Produit scalaire, espace préhilbertien réel, espace euclidien)

• Soit E un R -espace vectoriel. On appelle produit scalaire sur E toute forme bilinéaire symétrique définie positive, i.e. toute application 〈· , ·〉 : E × E −→ R :

bilinéaire : ∀ x, y, zE,λ, µ ∈ R , 〈 λx + µ y, z 〉 = λx, z 〉 + µy, z

et 〈 x, λ y + µz 〉 = λx, y 〉 + µx, z 〉 ,

symétrique : ∀ x , yE,y, x 〉 = 〈 x, y 〉 ,

définie : ∀ xE,x, x 〉 = 0 = ⇒ x = 0 E (propriété de séparation),

positive : ∀ xE,x, x 〉 ¾ 0.

Le produit scalaire 〈 x, y 〉 est aussi parfois noté 〈 x | y 〉 , (x | y) ou bien sûr x · y .

• Un espace vectoriel réel muni d’un produit scalaire est appelé un espace préhilbertien réel. Un espace préhilbertien réel DE DIMENSION FINIE est appelé un espace euclidien.

Définition déroutante ! Nous n’avons à ce stade encore jamais parlé en algèbre linéaire d’angles et de normes. Mine de rien, nous sommes donc en train de définir le concept de produit scalaire indépendamment de toute relation du type :

#” u · #” v = #” u

. #” v

cos #” u , #” v

. En réalité, dans la théorie que nous nous apprêtons à développer, le produit scalaire est premier et ce sont les notions de norme et d’angle qui vont en découler !

Pour montrer la bilinéarité d’un produit scalaire potentiel, la linéarité par rapport à une variable seulement est suffisante si on a pris la peine de démontrer la symétrie avant.

Petite remarque au passage : 〈 x, 0 E 〉 = 〈 0 E , x 〉 = 0 pour tout xE, par bilinéarité du produit scalaire.

Définition-théorème (Produits scalaires canoniques sur R n et M n,p ( R )) (i) L’application (X , Y ) 7−→ X Y =

X n

k=1

x k y k est un produit scalaire sur R n appelé son produit scalaire canonique.

(ii) L’application (A, B) 7−→ tr A B

= X

1¶i¶n 1 ¶ jp

a i j b i j est un produit scalaire sur M n,p ( R ) appelé son produit scalaire canonique.

Nous retrouvons ici les produits scalaires usuels auxquels nous sommes habitués dans le plan R 2 et l’espace R 3 . Par exemple, pour tous vecteurs #” u = ( x, y ) et #” u = ( x , y ) de R 2 : #” u · #” u = x x + y y .

Pour tous X , Y ∈ R n , le produit matriciel X Y est une matrice carrée de taille 1, i.e. un réel. Plus généralement, A B est une matrice carrée de taille p pour tous A, B ∈ M n,p ( R ), que l’on convertit en un réel grâce à la trace.

Retenez bien que le produit scalaire canonique de R n peut être calculé matriciellement.

Démonstration Nous nous contenterons de démontrer l’assertion (ii), car comme on vient de le remarquer, le produit scalaire canonique de R n n’est jamais que le produit scalaire canonique de M n,1 ( R ). Pour commencer, pour tous A, B ∈ M n,p ( R ) : A B ∈ M p ( R ), donc : tr A B

= X p

j=1

A B

j j = X p

j=1

X n

i=1

A

ji b i j = X

1¶i¶n 1 ¶ jp

a i j b i j .

Symétrie : Pour tous A, B ∈ M n,p ( R ) : tr A B

= tr €

A B Š

= tr B A

.

(2)

Bilinéarité : Par symétrie, la linéarité par rapport à la première variable suffit. Pour tous A , B, C ∈ M n ( R ) et λ ∈ R , par bilinéarité du produit matriciel et linéarité de la trace :

tr €

A λB + C Š

= tr € λ A B

+ A C Š

= λ tr A B

+ tr A C .

Positivité et séparation : Pour tout A ∈ M n,p ( R ) : tr A A

= X

i,j

a 2 i j ¾ 0, et si : tr A A

= 0, alors comme on somme des réels positifs : a i j = 0 pour tous i, j ∈ ¹1, nº, i.e. : A = 0. „

Exemple De nombreux produits scalaires peuvent exister sur un même espace vectoriel. L’application (X , Y ) 7−→ X 2 1

1 2

Y est par exemple un produit scalaire sur R 2 distinct du produit scalaire canonique.

Démonstration Symétrie et bilinéarité évidentes. Ensuite, pour tout X = ( x, y ) ∈ R 2 : X

2 1

1 2

X = ( x y ) 2 x + y

x + 2y

= 2x 2 + 2x y + 2 y 2 = x 2 + y 2 + (x + y) 2 ¾ 0, et si : X

2 1

1 2

X = 0, alors : x = y = x + y = 0 car x 2 , y 2 et (x + y) 2 sont positifs, donc : X = (0, 0).

Exemple Soient a, b ∈ R avec : a < b. L’application ( f , g) 7−→

Z b

a

f (t) g(t) dt est un produit scalaire sur C [a, b], R . Démonstration Symétrie et bilinéarité évidentes. Ensuite, pour tout f ∈ C [a, b], R

: Z b

a

f (t) 2 dt ¾ 0 et si :

Z b

a

f (t) 2 dt = 0, f étant CONTINUE et POSITIVE OU NULLE : f 2 = 0 sur [a, b], donc : f = 0.

$ Attention ! Muni du produit scalaire défini ci-dessus, C [a, b], R

n’est pas un espace EUCLIDIEN car ce n’est pas un R -espace vectoriel de dimension finie. C’est seulement un espace PRÉHILBERTIEN RÉEL .

Exemple Soient x 0 , . . . , x n ∈ R DISTINCTS . L’application (P , Q) 7−→

X n

k=0

P(x k )Q(x k ) est un produit scalaire sur R n [X ].

Démonstration

Symétrie et bilinéarité : Symétrie évidente, donc la linéarité par rapport à la première variable suffit.

Pour tous P ,Q, R ∈ R n [X ] et λ, µ ∈ R : X n

k=0

λP + µQ

(x k )R(x k ) = λ X n

k=0

P(x k ) R(x k ) + µ X n

k=0

Q(x k ) R(x k ).

Positivité et séparation : Pour tout P ∈ R n [X ] : X n

k=0

P(x k ) 2 ¾ 0, et si : X n

k=0

P(x k ) 2 = 0, alors comme on somme des réels positifs : P(x k ) = 0 pour tout k ∈ ¹ 0, n º , i.e. x 0 , . . . , x n sont des racines de P. Le polynôme P de degré inférieur ou égal à n possède ainsi n + 1 racines distinctes, donc est nul.

Définition (Norme et distance associées à un produit scalaire) Soit E un espace préhilbertien réel.

• On appelle norme sur E (associée au produit scalaire 〈· , ·〉 ) l’application k · k : E −→ R + définie pour tout xE par : k x k = p

x, x 〉 . On dit qu’un vecteur x de E est unitaire si : k x k = 1.

• Pour tous x , yE, le réel k xy k , souvent noté d(x, y), est appelé la distance entre x et y (associée au produit scalaire 〈· , ·〉 ).

$ Attention ! La notion de distance n’est pas forcément celle qu’on croit ! La distance dépend d’un CHOIX de produit scalaire. Par exemple, pour le produit scalaire (X , Y ) 7−→ X

2 1

1 2

Y sur R 2 : (1, 0)

= p 2 6 = 1.

Qui dit « bilinéarité » dit « identités remarquables ». En l’occurrence, pour tous x, yE :

k x + y k 2 = k x k 2 + 2 〈 x, y 〉 + k y k 2 et 〈 x + y, xy 〉 = k x k 2 − k y k 2 .

(3)

On peut aussi « inverser » ces relations et récupérer le produit scalaire en fonction de la norme. On obtient alors ce qu’on appelle des identités de polarisation. Par exemple :x, y 〉 = 1

2

€ k x + y k 2 − k x k 2 − k y k 2 Š

= 1 4

€ k x + y k 2 − k xy k 2 Š .

Théorème (Inégalité de Cauchy-Schwarz, inégalité triangulaire) Soient E un espace préhilbertien réel et x, yE.

(i) Inégalité de Cauchy-Schwarz :x, y

¶ k x k . k y k , avec égalité si et seulement si x et y sont colinéaires.

(ii) Inégalité triangulaire, version norme :

k x k − k y k

¶ k x + y k ¶ k x k + k y k .

L’inégalité de droite est une égalité si et seulement si x et y sont colinéaires DE MÊME SENS .

Si nous avions défini le produit scalaire à partir de normes et d’angles, l’inégalité de Cauchy-Schwarz serait une pure trivialité :

#” u · #” v =

#” u ×

#” v ×

cos #” u , #” v ¶ #” u

. #” v

, mais dans le contexte de ce chapitre, cette inégalité est remarquable justement parce que nous n’avons pas encore de définition propre des angles.

Dans certains contextes, en probabilités notamment, il est utile de disposer d’une inégalité de Cauchy-Schwarz un peu plus souple que la précédente. La voici.

Théorème (Inégalité de Cauchy-Schwarz généralisée) Soient E un R -espace vectoriel, ϕ une forme bilinéaire symétrique positive — MAIS PAS FORCÉMENT DÉFINIE POSITIVE — et x, yE. Alors :

ϕ(x , y) ¶ p

ϕ(x, x) p

ϕ(y, y).

Démonstration

(i) Inégalité généralisée : Pour commencer, pour tout t ∈ R : ϕ(x + t y, x + t y)

| {z }

¾ 0

= ϕ(x, x)

| {z }

¾ 0

+2t ϕ(x, y ) + t 2 ϕ(y, y )

| {z }

¾ 0

.

• Faisons l’hypothèse que : ϕ(y, y ) = 0. La fonction t 7−→ ϕ(x + t y, x + t y) = ϕ(x, x) + 2t ϕ(x, y) est alors affine ET positive ou nulle sur R tout entier, donc son coefficient directeur ϕ(x, y) est nul et c’est fini.

• Supposons : ϕ(y, y) 6 = 0. Cette fois, la fonction t 7−→ ϕ(x + t y, x + t y) est polynomiale de degré

EXACTEMENT 2 ET positive ou nulle sur tout R tout entier, donc son discriminant réduit est négatif ou nul : ϕ(x, y) 2ϕ(x, x) ϕ(y, y) ¶ 0 et c’est fini.

Cas d’égalité dans le cas préhilbertien : Le cas d’égalité est trivial si : y = 0 E . Dans le cas contraire, en reprenant la preuve qui précède, l’inégalité est une égalité si et seulement si le discriminant calculé est nul, i.e. si et seulement si la fonction t 7−→ k x + t y k 2 s’annule. Or cette annulation est équivalente à l’existence d’un réel t 0 ∈ R pour lequel : x + t 0 y = 0 E , i.e. à la colinéarité de x et y.

(ii) D’abord : k x + y k 2 = k x k 2 + 2 〈 x, y 〉 + k y k 2(i) k x k 2 + 2 k x k . k y k + k y k 2 = €

k x k + k y k Š 2

, ensuite on passe à la racine carrée.

À quelle condition a-t-on en fait une égalité ? Si et seulement si : 〈 x, y 〉 = k x k . k y k . Les vecteurs x et y sont alors colinéaires d’après (i), et quitte à les permuter, on peut supposer que : y = λ x pour un certain λ ∈ R . Aussitôt : λ k x k 2 = 〈 x, λ x 〉 = 〈 x, y 〉 = k x k . k y k = k x k . k λx k = | λ | . k x k 2 , donc soit x est nul, soit : λ = | λ | , i.e. : λ ¾ 0. Dans les deux cas, x et y sont colinéaires DE MÊME SENS . Réciproque immédiate.

Pour l’inégalité généralisée : k x k =

(x + y) + (y)

¶ k x + y k + k − y k = k x + y k + k y k , donc : k x k − k y k ¶ k x + y k , et de même : k y k − k x k ¶ k x + y k . „

Exemple Pour tous x 1 , . . . , x n ∈ R :

‚ n X

k=1

x k

Π2

n X n

k=1

x k 2 , avec égalité si et seulement si : x 1 = . . . = x n .

Démonstration Simple application de l’inégalité de Cauchy-Schwarz aux vecteurs (x 1 , . . . , x n ) et (1, . . . , 1) de R n pour le produit scalaire canonique.

Exemple Soient a, b ∈ R avec : a < b. Pour tout f ∈ C 1 [a, b], R

: f (b) 2f (a) 2 ¶ 2 v u t Z b

a

f (t) 2 dt v u t Z b

a

f (t) 2 dt.

(4)

Démonstration Appliquons l’inégalité de Cauchy-Schwarz à f et f dans l’espace préhilbertien réel C [a, b], R muni du produit scalaire (u, v) 7−→

Z b

a

u(t) v(t) dt :

Z b

a

f (t) f (t) dt ¶

v u t Z b

a

f (t) 2 dt v u t Z b

a

f (t) 2 dt. On conclut en calculant simplement l’intégrale de gauche.

Théorème (Inégalité de Cauchy-Schwarz pour les variables aléatoires) Soient ( , P) un espace probabilisé fini.

(i) L’application (X , Y ) 7−→ E(X Y ) est une forme bilinéaire symétrique positive sur R , MAIS N EST PAS FORCÉMENT UN PRODUIT SCALAIRE . Elle en est un si et seulement si pour tout ω : P

ω > 0.

(ii) Inégalité de Cauchy-Schwarz : Soient X et Y deux variables aléatoires sur . Alors : E(X Y )

¶ Ç

E X 2 Ç E Y 2

. En particulier :

cov(X , Y )

σ(X ) σ(Y ).

Démonstration

(i) L’application (X , Y ) 7−→ E(X Y ) a-t-elle la propriété de séparation ? C’est toute la question.

• Faisons l’hypothèse que : P

ω > 0 pour tout ω . Pour toute variable aléatoire X ∈ R , si : E X 2

= 0, alors : X

ω ∈Ω

P

ω X (ω) 2 = 0, donc pour tout ω : X (ω) = 0, donc : X = 0.

• Si (X , Y ) 7−→ E(X Y ) est un produit scalaire, alors pour tout ω : P

ω = E

1

{ω}

= E

1

2

{ ω }

> 0.

(ii) La première inégalité est une simple application de l’inégalité de Cauchy-Schwarz généralisée. Ensuite : cov(X , Y )

= E €

X − E(X )

Y − E(Y ) Š ¶

r E €

X − E(X ) 2 Š r E €

Y − E(Y ) 2 Š

= σ(X ) σ(Y ). „ Exemple Pour toute variable aléatoire centrée X : E | X |

¶ p V(X ).

Démonstration D’après l’inégalité de Cauchy-Schwarz : E | X |

= E | X | × 1

¶ q

E X 2 p

E(1), et comme X est centrée : E | X |

¶ q E X 2

− E(X ) 2 = p V(X ).

2 O RTHOGONALITÉ

2.1 V ECTEURS ORTHOGONAUX , FAMILLES ORTHOGONALES / ORTHONORMALES

Définition (Vecteurs orthogonaux, parties orthogonales, familles orthogonales/orthonormales) Soient E un espace préhilbertien réel, x , yE, X et Y deux parties de E et (x i ) i∈I une famille de vecteurs de E.

• On dit que x et y sont orthogonaux si : 〈 x, y 〉 = 0, ce qu’on note : xy.

• On dit que les parties X et Y sont orthogonales, ce qu’on note : XY , si pour tous xX et yY : 〈 x, y 〉 = 0.

• On dit que la famille (x i ) i I est orthogonale si pour tous i, jI DISTINCTS : x i , x j

= 0.

• On dit que la famille (x i ) i I est orthonormale (ou orthonormée) si elle est orthogonale et constituée de vecteurs unitaires, i.e. si pour tous i, jI :

x i , x j

= δ i j .

Notre théorie géométrique a définitivement la tête en bas. Jusqu’ici, pour vous, la notion d’orthogonalité était première et le produit scalaire second. C’est le contraire qui est vrai à présent, la notion d’orthogonalité repose sur la définition préalable d’un produit scalaire. En particulier, à chaque produit scalaire est associée une notion d’orthogonalité, ce qui fait que les angles droits ne sont pas droits absolument, mais relativement.

Le petit résultat suivant est à la fois trivial et essentiel.

La propriété de séparation énonce que LE VECTEUR NUL EST LE SEUL VECTEUR ORTHOGONAL À LUI - MÊME .

En particulier, seul le vecteur nul est orthogonal à tout vecteur.

(5)

Exemple Pour le produit scalaire canonique de R n , la base canonique (E i ) 1in de R n est orthonormale car comme on le vérifie aisément, pour tous i, j ∈ ¹ 1, n º : E i E j = δ i j .

Exemple Pour le produit scalaire canonique de M n,p ( R ), la base canonique de M n,p ( R ) est orthonormale.

Démonstration Pour tous i ∈ ¹ 1, n º et j ∈ ¹ 1, p º , notons E i j la matrice de M n,p ( R ) dont tous les coefficients sont nuls à l’exception du coefficient de position (i, j), égal à 1. Fixons i, k ∈ ¹ 1, n º et j, l ∈ ¹ 1, p º . Seules la l ème colonne et la j ème ligne de la matrice E i j E kl sont éventuellement non nulles. Cela revient à dire que tous les coefficients de cette matrice sont nuls, sauf peut-être son coefficient de position ( j, l ). Et que vaut-il ? Réponse : δ ik , donc : E i j E kl = δ ik E jl . C E CALCUL EST IMPORTANT ET MÉRITE QUE VOUS LE REFASSIEZ SEULS . Finalement :

E i j , E kl

= tr E i j E kl

= tr δ ik E jl

= δ ik δ jl = δ (i,j),(k,l) .

b

#” u

#” v Exemple Pour le produit scalaire (X , Y ) 7−→ X

2 1

1 2

Y sur R 2 , la base canonique n’est pas orthonormale, mais la famille

 (1, 0)

p 2 , (1, − 2) p 6

‹

l’est comme on le vérifie aisément. Cela nous fait apparemment un drôle d’angle droit, mais de fait, nous avons tort de nous représenter les axes comme des droites orthogonales !

Exemple La famille des fonctions t 7−→ s

n

sin(nt), n décrivant N , est orthonormale dans C [0, 2π], R

pour le produit scalaire (f , g) 7−→ 1

π Z 2π

0

f (t) g(t) dt.

Démonstration Pour tous m, n ∈ N :

s m , s n 〉 =

 

 

 

 

k s n k 2 = 1 π

Z 2π

0

1 − cos(2nt)

2 dt = 1 − 1 π

• sin(2nt) 4n

˜ t =2π

t =0

= 1 si : m = n

1 2π

Z 2π

0

€

cos (m − n)t

− cos (m + n)t Š

dt = 1 2π

– sin (m − n)t

mn − sin (m + n)t m + n

™ t =2π

t =0

= 0 si : m 6 = n.

Exemple Dans C [ − 1, 1], R

, l’ensemble des fonctions paires et l’ensemble des fonctions impaires sont deux sous-espaces vectoriels orthogonaux pour le produit scalaire (f , g) 7−→

Z 1

− 1

f (t) g(t) dt.

Démonstration Pour toutes p ∈ C [ − 1, 1], R

paire et i ∈ C [ − 1, 1], R

impaire : 〈 p, i 〉 = Z 1

− 1 Impaire

z }| { p(t) i(t) dt = 0.

Théorème (Propriétés des familles orthogonales) Soit E un espace préhilbertien réel.

b bb

x x + y y (i) Théorème de Pythagore : Pour tous x, yE, x et y sont orthogonaux si et seulement

si : k x + y k 2 = k x k 2 + k y k 2 .

En outre, pour toute famille orthogonale (x 1 , . . . , x n ) de E :

X n

i=1

x i

2

= X n

i=1

k x i k 2 . (ii) Toute famille orthogonale de vecteurs NON NULS de E est libre.

En particulier, si E est de dimension finie n 6 = 0, toute famille orthonormale de n vecteurs de E est déjà une BASE

orthonormale de E.

Démonstration

(i) Tout simplement :

X n

i=1

x i

2

= X n

i=1

k x i k 2 + 2 X

i< jn

= 0

z }| { x i , x j

= X n

i=1

k x i k 2 .

(ii) Soient (x 1 , . . . , x n ) une famille orthogonale de vecteurs non nuls de E et λ 1 , . . . , λ n ∈ R pour lesquels : X n

k=1

λ k x k = 0 E . Pour tout i ∈ ¹ 1, n º : 0 = 〈 0 E , x i 〉 =

® n X

k=1

λ k x k , x i

¸

= X n

k=1

λ kx k , x i 〉 = λ i k x i k 2 , or par séparation : k x i k 6 = 0, donc : λ i = 0. La famille (x 1 , . . . , x n ) est ainsi libre.

Pour le cas particulier, toute famille orthonormale de E est libre comme on vient de le voir puisque ses vecteurs — unitaires — sont non nuls, et bien sûr une telle famille est une base de E si elle a pour cardinal

la dimension de E. „

(6)

2.2 C OORDONNÉES DANS UNE BASE ORTHONORMALE

Théorème (Coordonnées dans une base orthonormale) Soient E 6 =

0 E un espace euclidien, (e 1 , . . . , e n ) une base

ORTHONORMALE de E et xE.

Alors : x = X n

k=1

x, e ke k . En d’autres termes, les coordonnées de x dans (e 1 , . . . , e n ) sont €

x, e 1 〉 , . . . , 〈 x, e n 〉 Š .

#” ı

#”

b

#” u

#” u · #”

#” u · #” ı Vous connaissez bien ce résultat dans le plan et dans l’espace !

Démonstration Notons (x 1 , . . . , x n ) les coordonnées de x dans (e 1 , . . . , e n ).

Pour tout k ∈ ¹ 1, n º : 〈 x, e k 〉 =

® n X

i=1

x i e i , e k

¸

= X n

i=1

x ie i , e k 〉 = X n

i=1

x i δ ki = x k . „

Théorème (Expression du produit scalaire et de la norme dans une base orthonormale) Soient E 6 = 0 E un espace euclidien et x, yE de coordonnées respectives X = (x 1 , . . . , x n ) et Y = ( y 1 , . . . , y n ) dans une certaine base

ORTHONORMALE de E.

x, y 〉 = X n

k=1

x k y k = X Y et k x k = v u t X n

k=1

x 2 k = p X X .

Ce résultat montre que finalement, le produit scalaire canonique sur R n est un modèle pour tous les produits scalaires des espaces euclidiens. Calculer le produit scalaire 〈 x, y 〉 dans un espace euclidien abstrait revient à calculer le produit scalaire canonique des coordonnées des vecteurs x et y dans une base ORTHONORMALE quelconque.

$ Attention ! Ces formules sont fausses en général pour des coordonnées dans une base NON orthonormale.

Démonstration Notons (e 1 , . . . , e n ) la base orthonormale considérée.

Tout simplement : 〈 x, y 〉 =

* X n

i=1

x i e i , X n

j=1

y j e j +

= X

i,jn

x i y j e i , e j

= X

i,jn

x i y j δ i j = X n

k=1

x k y k = X Y . „

2.3 A LGORITHME D ORTHONORMALISATION DE G RAM -S CHMIDT

Théorème (Algorithme d’orthonormalisation de Gram-Schmidt) Soient E un espace préhilbertien réel et (e 1 , . . . , e n ) une famille LIBRE de E. On peut transformer (e 1 , . . . , e n ) en une famille orthonormale (u 1 , . . . , u n ) de E pour laquelle pour tout k ∈ ¹ 1, : Vect(u 1 , . . . , u k ) = Vect(e 1 , . . . , e k ).

Les vecteurs u 1 , . . . , u n peuvent être construits de proche en proche depuis u 1 jusqu’à u n , et pour tout k ∈ ¹ 1, , on n’a que deux choix possibles pour u k . En posant : b u k = e k

X k−1

i=1

e k , u iu i , u k est soit le vecteur b u k

kb u k k , soit son opposé.

On a tout compris quand on a compris le cas n = 2. On veut transformer une famille libre quelconque (e 1 , e 2 ) en une famille orthonormale (u 1 , u 2 ) avec : u 1 = e 1

k e 1 k et u 2 = e 2 − 〈 e 2 , u 1u 1 e 2 − 〈 e 2 , u 1u 1

.

e 1 e 2 u 1 u 2

e

2

− 〈 e

2

, u

1

u

1

e

2

, u

1

u

1

b

b b

• La première formule normalise e 1 , c’est-à-dire le rend unitaire.

• La seconde commence par transformer e 2 en e 2 − 〈 e 2 , u 1u 1 , c’est-à-dire à retrancher à e 2 sa composante selon u 1 , qui vaut 〈 e 2 , u 1u 1 . Le vecteur ainsi obtenu est orthogonal à u 1 , mais il peut ne pas être unitaire, c’est pourquoi on le divise par sa norme.

Plus généralement, l’algorithme de Gram-Schmidt construit u k en ôtant de e k ses composantes selon u 1 , . . . , u k−1 , puis en

rendant le tout unitaire.

(7)

Démonstration La construction commence simplement. La famille (e 1 ) est libre, donc : e 1 6 = 0 E . On pose : u 1 = e 1

k e 1 k . Clairement : Vect(e 1 ) = Vect(u 1 ).

Soit k ∈ ¹ 1, n º . Supposons qu’on ait réussi à construire une famille orthonormale (u 1 , . . . , u k−1 ) pour laquelle : Vect(u 1 , . . . , u p ) = Vect(e 1 , . . . , e p ) pour tout p ∈ ¹ 0, k − 1 º . Nous sommes en quête d’un vecteur u k pour lequel (u 1 , . . . , u k ) est orthonormale et : Vect(u 1 , . . . ,u k ) = Vect(e 1 , . . . , e k ).

Analyse : Supposons qu’un tel u k existe. Comme : Vect(u 1 , . . . , u k ) = Vect(e 1 , . . . , e k ) HDR = Vect(u 1 , . . . , u k 1 , e k ), u k est combinaison linéaire de u 1 , . . . ,u k 1 , e k , disons : u k = a kk e k +

k− 1

X

i=1

a ik u i pour certains a 1k , . . . , a kk ∈ R . Dans ces conditions, pour tout i ∈ ¹1, k − 1º, sachant que u k et u i sont orthogonaux :

0 = 〈 u k , u i 〉 =

* a kk e k +

k − 1

X

j=1

a jk u j , u i +

= a kke k , u i 〉 +

k − 1

X

j=1

a jk u j , u i

= a kke k , u i 〉 + a ik , ou encore : a ik = − a kke k , u i 〉 . Conclusion : u k = a kk b u k avec : u b k = e k

X k−1

i=1

e k , u iu i , mais par ailleurs k u k k = 1, donc : | a kk | = 1

kb u k k , i.e. : a kk = ± 1

kb u k k . Conclusion : u k = ± b u k kb u k k . Le vecteur u k , s’il existe, est finalement déterminé AU SIGNE PRÈS par u 1 , . . . , u k 1 et e k .

Synthèse : Réciproquement, posons : u b k = e k − X k−1

i=1

e k , u iu i .

Se peut-il que b u k soit nul ? La liberté de (e 1 , . . . , e n ) s’en trouverait contredite car e k serait combinaison linéaire de u 1 , . . . , u k 1 , et donc de e 1 , . . . , e k 1 puisque : Vect(u 1 , . . . , u k 1 ) = Vect(e 1 , . . . , e k 1 ). Nous pouvons ainsi poser : u k = b u k

kb u k k — on pourrait aussi choisir : u k = − b u k kb u k k .

Montrons que la famille (u 1 , . . . , u k ) est orthonormale. Or (u 1 , . . . , u k−1 ) l’est par hypothèse de récurrence et u k est unitaire, il nous suffit donc de montrer que u k est orthogonal à u 1 , . . . , u k−1 . Pour tout j ∈ ¹ 1, k − 1 º :

u k , u j

= 1 kb u k k

b u k , u j

= 1 kb u k k

® e k

X k−1

i=1

e k , u iu i , u j

¸

= 1 kb u k k

€ e k , u j

e k , u j u j , u j Š

= 0.

Enfin : Vect(u 1 , . . . ,u k−1 ) = Vect(e 1 , . . . , e k−1 ), et u k est combinaison linéaire de u 1 , . . . , u k−1 et e k avec un coefficient non nul devant e k , donc : Vect(u 1 , . . . , u k ) = Vect(e 1 , . . . , e k ). „

Exemple La famille € 1 , p

3 (2X − 1) , p

5 6X 2 − 6X +1 Š

est orthonormale pour le produit scalaire (P , Q) 7−→

Z 1

0

P(t)Q(t) dt sur R [X ] — savez-vous justifier que c’est un produit scalaire ?

Démonstration Nous allons, grâce à l’algorithme de Gram-Schmidt, construire une famille orthonormale (P 0 , P 1 , P 2 ) à partir de la famille LIBRE 1, X , X 2

.

Construction de P 0 : Posons : P 0 = 1

k 1 k . Comme : k 1 k 2 = Z 1

0

dt = 1, en fait : P 0 = 1.

Construction de P 1 : Posons : P 1 = X − 〈 X , P 0P 0 X − 〈 X , P 0P 0

. Comme : 〈 X , P 0 〉 = Z 1

0

t dt = 1

2 , le polynôme au numérateur vaut : X − 1

2 , mais : X − 1

2

2

= Z 1

0

 t − 1

2

‹ 2

dt = 1

12 , donc : P 1 = p

3 (2X − 1).

Construction de P 2 : Posons : P 2 = X 2X 2 , P 0

P 0X 2 , P 1

P 1 X 2 − 〈 X 2 , P 0P 0 − 〈 X 2 , P 1P 1

. Comme : X 2 , P 0

= Z 1

0

t 2 dt = 1 3 et

X 2 , P 1

= Z 1

0

t 2 × p

3(2t − 1) dt = 1 2 p

3 , le polynôme au numérateur vaut : X 2X + 1

6 , mais :

X 2X + 1 6

2

= Z 1

0



t 2t + 1 6

‹ 2

dt = 1

180 , donc : P 2 = p

5 6X 2 − 6X + 1 .

Essentiel en pratique, l’algorithme d’orthonormalisation de Gram-Schmidt a aussi des conséquences théoriques.

Théorème (Existence de bases orthonormales en dimension finie) Soit E 6 =

0 E un espace euclidien. Alors E

possède une base orthonormale.

(8)

Démonstration De dimension finie non nulle, E possède une base, donc une base orthonormale grâce à

l’algorithme de Gram-Schmidt. „

Théorème (Théorème de la base orthonormale incomplète en dimension finie) Soit E 6 =

0 E un espace euclidien.

Toute famille orthonormale de E peut être complétée en une base orthonormale de E.

Démonstration Soit (e 1 , . . . , e p ) une famille orthonormale — donc libre — de E. On peut la compléter en une base de E car E est de dimension finie non nulle, puis orthonormaliser cette base grâce à l’algorithme de Gram- Schmidt. L’algorithme n’affecte pas les premiers vecteurs e 1 , . . . , e p qui forment déjà une famille orthonormale, donc au fond nous avons complété notre famille de départ en une base orthonormale de E. „

2.4 S UPPLÉMENTAIRE ORTHOGONAL D UN SOUS - ESPACE VECTORIEL

Définition-théorème (Orthogonal d’une partie) Soient E un espace préhilbertien réel et X une partie de E. On appelle orthogonal de X dans E l’ensemble : X = ¦

tE | ∀ xX , 〈 t, x 〉 = 0 © . (i) X est un sous-espace vectoriel de E orthogonal à X .

(ii) Si X est un sous-espace vectoriel de E, X et X sont en somme directe.

(iii) X = Vect(X ) et XX ⊥⊥ .

L’égalité : X = Vect(X ) signifie que pour déterminer l’orthogonal d’un sous-espace vectoriel engendré par un ensemble X de vecteurs, il est suffisant d’exiger l’orthogonalité à ces vecteurs.

$ Attention ! Pour un sous-espace vectoriel F de E, F et F sont TOUJOURS en somme directe. En revanche, il n’est pas vrai en général que F et F sont supplémentaires dans E, ils sont seulement en somme directe. Contrairement aux apparences, il n’est pas non plus vrai en général que : F ⊥⊥ = F . Nous y reviendrons dans un instant.

Démonstration

(i) D’abord : 0 EX car pour tout xX : 〈 0 E , x 〉 = 0. Ensuite, soient t, t X et λ ∈ R . Pour tout xX : 〈 λ t + t , x 〉 = λx, t 〉 + 〈 t , x 〉 = λ.0 + 0 = 0, donc : λ t + t X .

(i) Si X est un sous-espace vectoriel de E : 0 EXX . Montrons inversement que : XX ⊂ 0 E . Or pour tout xXX : xx donc : 〈 x, x 〉 = 0, donc : x = 0 E par séparation.

(iii) Par linéarité à droite du produit scalaire, il est équivalent pour un vecteur d’être orthogonal à X ou à ses combinaisons linéaires, autrement à Vect(X ), donc en effet : X = Vect(X ) . Enfin, l’inclusion : XX ⊥⊥ signifie juste que tout vecteur de X est orthogonal à tout vecteur de X — ce qui est évident

par définition de X . „

Exemple Pour tout espace préhilbertien réel E :

0 E = E et E = 0 E .

Pour la seconde égalité, rappelons que 0 E est le seul vecteur de E orthogonal à tout vecteur.

Exemple Dans l’espace euclidien canonique R 3 , le plan vectoriel d’équation : 3x − y + 2z = 0 n’est jamais que l’ortho- gonal

(3, − 1, 2) car pour tout (x, y, z) ∈ R 3 :

(3, − 1, 2), (x , y,z)

= 3x − y + 2z.

Exemple Pour le produit scalaire (P , Q) 7−→ P( − 1)Q( − 1) + P(0)Q(0) + P(1)Q(1) sur R 2 [X ] : R 1 [X ] = Vect 3X 2 − 2 . Démonstration Pour tout P = aX 2 + bX + c ∈ R 2 [X ] : P ∈ R 1 [X ]

R

1

[X] = Vect(1,X)

⇐⇒ 〈 P , 1 〉 = 0 et 〈 P , X 〉 = 0

⇐⇒

§ (a − b + c) × 1 + c × 1 + (a + b + c) × 1 = 0

(a − b + c) × ( − 1) + c × 0 + (a + b + c) × 1 = 0 ⇐⇒ 2a + 3c = 0 et 2b = 0.

(9)

Définition-théorème (Supplémentaire orthogonal d’un sous-espace vectoriel de dimension finie) Soient E un espace préhilbertien réel et F un sous-espace vectoriel DE DIMENSION FINIE de E.

(i) F est un supplémentaire de F dans E orthogonal à F et c’est même le seul. On l’appelle par conséquent LE

supplémentaire orthogonal de F dans E. Pour résumer, on écrit souvent les choses ainsi : E = F F . En particulier, si E lui-même est de dimension finie : dim F = dim E − dim F .

(ii) F ⊥⊥ = F.

$ Attention !

• Il est ici essentiel que F soit DE DIMENSION FINIE .

• Il existe UN unique supplémentaire orthogonal mais tout plein de supplémentaires « généraux », ne l’oubliez pas.

Démonstration

(i) Nous savons déjà que : FF = 0 E .

• Montrons que : E = F + F , i.e. que : EF + F . Nous pouvons supposer : F 6 =

0 E car : 0 E = E, et comme F est de dimension finie, nous donner une base orthonormale (f 1 , . . . , f n ) de F . Soit xE. Pour tout i ∈ ¹1, :

® x

X n

k=1

x, f kf k , f i

¸

= 〈 x, f i 〉 − X n

k=1

x, f k 〉 〈 f k , f i 〉 = 〈 x, f i 〉 − X n

k=1

x, f kδ ki = 〈 x, f i 〉 − 〈 x , f i 〉 = 0, donc x

X n

k=1

x, f kf k est orthogonal à f 1 , . . . , f n , donc élément de F . Comme voulu : xF + F .

• Montrons que F est le seul supplémentaire de F dans E orthogonal à F . Soit F un tel supplémentaire.

Aussitôt : F F car : FF . Inversement, soit xF . Comme : E = F + F , alors : x = f + f pour certains fF et f F , donc : 〈 f , f 〉 = 〈 f + f , f 〉 = 〈 x, f 〉 = 0, puis : f = 0 E , et enfin : x = f F .

(ii) Pour l’inclusion : F ⊥⊥F , soit xF ⊥⊥ , disons : x = f + f avec fF et f F . Aussitôt :

f , f 〉 = 〈 f + f , f 〉 = 〈 x, f 〉 = 0, donc : f = 0 E par séparation, i.e. : x = fF . „ Exemple Dans l’espace euclidien canonique R 4 , le plan vectoriel P d’équations : xyzt = 0 et 2x + y + zt = 0 admet Vect €

(1, − 1, − 1, − 1), (2, 1, 1, − 1) Š

pour orthogonal.

Démonstration P = ¦

(x, y,z , t) ∈ R 4 |

(1, − 1, − 1, − 1), (x, y, z, t)

= 0 et

(2, 1, 1, − 1), (x, y, z, t)

= 0 ©

= ¦

(1, − 1, − 1, − 1), (2, 1, 1, − 1) ©

= Vect €

(1, − 1, − 1, − 1), (2, 1, 1, − 1) Š , or R 4 est euclidien, donc : P = Vect €

(1, − 1, − 1, − 1), (2, 1, 1, − 1) Š ⊥⊥

= Vect €

(1, − 1, − 1, − 1), (2, 1, 1, − 1) Š . Exemple On munit M n ( R ) de sa structure euclidienne canonique — cela veut dire qu’on travaille avec le produit scalaire canonique de M n ( R ). On rappelle que l’ensemble S n ( R ) (resp. A n ( R )) des matrices symétriques (resp. antisymétriques) de M n ( R ) sont des sous-espaces vectoriels de M n ( R ). Plus précisément : A n ( R ) = S n ( R ) .

Démonstration Pour tous S ∈ S n ( R ) et A ∈ A n ( R ) :

S, A 〉 = 〈 A, S 〉 = tr A S

= − tr(AS) = − tr(SA ) = − tr S A

= − 〈 S, A 〉 = − 〈 A,S 〉 ,

donc : 〈 A, S 〉 = 0. Conclusion : A n ( R ) ⊂ S n ( R ) , mais ce n’est pour le moment qu’une inclusion. En d’autres termes, S n ( R ) et A n ( R ) sont orthogonaux, donc en somme directe. Par ailleurs, pour tout M ∈ M n ( R ) : M = M + M

2 + MM

2 avec : M + M

2 ∈ S n ( R ) et MM

2 ∈ A n ( R ), donc : M n ( R ) = S n ( R )+ A n ( R ).

Finalement : M n ( R ) = S n ( R ) ⊕A n ( R ), donc par unicité du supplémentaire orthogonal : A n ( R ) = S n ( R ) .

(10)

2.5 V ECTEURS NORMAUX À UN HYPERPLAN

Définition-théorème (Vecteurs normaux à un hyperplan) Soient E 6 =

0 E un espace euclidien de dimension n et H un hyperplan de E. Le sous-espace H est une droite dont tout vecteur non nul est appelé un vecteur normal à H.

Par extension, pour tout hyperplan affine H de E de direction H, les vecteurs normaux à H sont aussi qualifiés de vecteurs normaux à H .

Démonstration Comme E est de dimension finie : E = HH , et par conséquent, comme H est un

hyperplan : dim H = dim E − dim H = 1. „

H 0 E

H a

b

Par définition, un hyperplan H est le noyau d’une forme linéaire non nulle, au- trement dit un ensemble décrit par une unique équation linéaire scalaire non nulle.

Comment les notions de forme linéaire et de vecteur normal sont-elles liées dans un espace euclidien ? Le plus simplement du monde à vrai dire, car :

H = a = ¦

xE | 〈 x, a 〉 = 0 © ,

de sorte que H est le noyau de la forme linéaire non nulle x 7−→ 〈 x, a 〉 — pourquoi non nulle ? Autre manière de voir les choses, donnons-nous une base orthornormale (e 1 , . . . , e n ) de E et notons (a 1 , . . . , a n ) les coordonnées de a dans cette base.

L’équation : 〈 x, a 〉 = 0 s’écrit aussi : a 1 x 1 + . . . + a n x n = 0 sous forme analytique. Nous retrouvons là l’équation typique d’un hyperplan et le fait que les coefficients a 1 , . . . , a n y décrivent naturellement un vecteur normal.

Exemple Dans l’espace euclidien canonique R 3 , le plan AFFINE H d’équation : xy + 2z = 3 admet pour direction le plan VECTORIEL H d’équation : xy + 2z = 0, et : H = ¦

(x, y, z) ∈ R 3 |

(1, − 1, 2), (x, y, z)

= 0 ©

=

(1, − 1, 2) . Le vecteur (1, − 1, 2) est un exemple de vecteur normal à H (ou à H ).

3 P ROJECTION ORTHOGONALE SUR UN SOUS - ESPACE VECTORIEL DE DIMENSION FINIE

3.1 P ROJECTIONS ET SYMÉTRIES ORTHOGONALES

Définition (Projection orthogonale, symétrie orthogonale, réflexion) Soient E un espace préhilbertien réel et F un sous-espace vectoriel DE DIMENSION FINIE de E.

• On appelle projection orthogonale sur F ou projecteur orthogonal sur F la projection sur F de direction F .

• On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F parallèlement à F . On parle plutôt de réflexion par rapport à F lorsque F est un hyperplan de E.

Comme F est de dimension finie : E = F F .

F

F

f = p(x) f x = f + f

b

0 E

Projection orthogonale

s(x)

f F

F

f f x = f + f

b

0 E

Symétrie

orthogonale

(11)

Théorème (Expression d’un projeté orthogonal dans une base orthonormale) Soient E un espace préhilbertien réel, F un sous-espace vectoriel DE DIMENSION FINIE non nulle de E et (f 1 , . . . , f n ) une base orthonormale de F . Si on note p la projection orthogonale sur F , alors pour tout xE : p(x) =

X n

k=1

x, f kf k .

Dans ce résultat, 〈 x, f kf k est la composante de x selon le vecteur f k dans la base (f 1 , . . . , f n ).

Démonstration Soit xE. Le vecteur x − X n

k=1

x, f kf k est orthogonal à f 1 , . . . , f n , donc appartient à F . Ainsi : x =

X n

k=1

x, f kf k

| {z }

F

+

x − X n

k=1

x, f kf k

| {z }

F

, donc : p(x) = X n

k=1

x , f kf k . „

On peut calculer essentiellement de deux manières un projeté orthogonal. Donnons-nous E un espace préhilbertien réel, F un sous-espace vectoriel de dimension finie non nulle de E, (f 1 , . . . , f n ) une base PAS FORCÉMENT ORTHONORMALE de F et xE. Comment calculer le projeté orthogonal p(x) de x sur F ? Si la base ( f 1 , . . . , f n ) est orthonormale, on peut bien sûr utiliser le théorème précédent, mais sinon ?

Première stratégie : On orthonormalise ( f 1 , . . . , f n ), puis on utilise le théorème précédent.

Deuxième stratégie : Le projeté p(x) est caractérisé par deux assertions QUE JE VOUS CONSEILLE DE BIEN VISUA -

LISER : p(x)F et xp(x)F . On introduit les coordonnées (λ 1 , . . . , λ n ) de p(x) dans ( f 1 , . . . , f n ) : p(x) = λ 1 f 1 + . . . + λ n f n , puis on les calcule grâce aux relations :

xp(x), f j

= 0, j décrivant ¹1, nº. Ces relations expriment l’appartenance de xp(x) à F et fournissent un système de n équations à n inconnues qu’on n’a plus qu’à résoudre.

Mais finalement, quelle stratégie vaut-il mieux privilégier ? Je n’emploirai ni « toujours » ni « jamais », mais je trouve la deuxième stratégie souvent plus agréable à pratiquer.

Exemple On note F le sous-espace vectoriel Vect(sin, cos) de C [0, 2π], R

. Le projeté orthogonal de l’identité Id sur F pour le produit scalaire (f , g) 7−→

Z 2π

0

f (t) g(t) dt est la fonction t 7−→ − 2 sin t.

Démonstration Nous aurons besoin d’un certain nombre de produits scalaires, calculons-les de prime abord pour que l’essentiel des stratégies adoptées soit bien lisible ensuite.

k sin k 2 = Z 2π

0

sin 2 t dt = Z 2π

0

1 − cos(2t)

2 dt =

• t

2 − sin(2t) 4

˜ t =2π

t =0

= π, et de même : k cos k 2 = π.

En outre : 〈 sin, cos 〉 = Z 2π

0

sin t cos t dt = sin 2 t

2 t=2π

t=0

= 0, donc la famille (sin, cos) est orthogonale. Enfin : Z 2π

0

te it dt = ”

t × ( − i)e it — t =2π t =0 −

Z 2π

0

( − i)e it dt = − 2iπ + i

( − i)e it t =2π

t =0 = − 2iπ + 0 = − 2iπ, donc :

〈 Id, sin 〉 = Z 2π

0

t sin t dt = Im

‚Z 2π 0

te it dt

Œ

= Im( − 2iπ) = − 2π et de même : 〈 Id, cos 〉 = 0.

Première stratégie : On orthonormalise la BASE (sin, cos) de F grâce à l’algorithme de Gram-Schmidt.

Cette famille étant déjà orthogonale,

 sin k sin k , cos

k cos k

‹

=

 sin p π , cos

p π

‹

est une base orthonormale de F . Le projeté orthogonal de Id sur F est finalement la fonction :

­ Id, sin

p π

· sin p π +

­ Id, cos

p π

· cos

p π = 〈 Id, sin 〉

π sin + 〈 Id, cos 〉

π cos = − 2 sin .

Deuxième stratégie : Notons p(Id) le projeté orthogonal de Id sur F et (λ, µ) ses coordonnées dans la base (sin, cos) de F : p(Id) = λ sin +µ cos. Appuyons-nous sur le fait que : Id − p(Id)F .

0 =

Id − p(Id), sin

=

Id − λ sin − µ cos, sin

= 〈 Id, sin 〉 − λ k sin k 2µ 〈 cos, sin 〉 = − 2π − λπ

et 0 =

Id − p(Id), cos

=

Id − λ sin − µ cos, cos

= 〈 Id, cos 〉 − λ 〈 sin, cos 〉 − µ k cos k 2 = − µπ.

Conclusion : λ = − 2 et µ = 0, donc : p(Id) = − 2 sin.

Références

Documents relatifs

Le point important ici est que f commute avec les endomorphismes dont on considère le noyau.. Par le calcul de rang déjà fait, les deux images sont de

En précisant les coordonnées dans E , calculer une base vériant la condition pré-

(Eexo62.tex) L’ensemble des suites de nombres r´ eels qui convergent vers 1 est-il un sous espace vectoriel de l’es- pace des

Cet exercice porte sur un procédé connu sous le nom de moyennisation

Montrer que le noyau de f est de dimension

Montrer que le noyau de f est de dimension

Donner, en démontrant le résultat sous-jacent, la dénition de la trace d'un en- domorphisme.. Quels sont les éléments de Vect(Id E ) dont la trace

Expliciter dans les diérents cas, une base de l'image et une base du noyau de f.. Montrer que ces conditions dénissent