• Aucun résultat trouvé

Produits scalaires. Espaces euclidiens

N/A
N/A
Protected

Academic year: 2021

Partager "Produits scalaires. Espaces euclidiens"

Copied!
44
0
0

Texte intégral

(1)

Produits scalaires. Espaces euclidiens

Plan du chapitre

1

Produit scalaire . . . .page 2 1.1Formes bilinéaires . . . page 2 1.2Définition d’un produit scalaire . . . page 2 1.3Exemples fondamentaux. . . .page 3 1.4Inégalité deCauchy-Schwarz. . . page 5

2

Norme hilbertienne. . . .page 7 2.1Définition d’une norme . . . page 7 2.2Définition de la norme hilbertienne . . . page 9 2.3Carré scalaire d’un vecteur . . . page 11 2.4Identités de polarisation . . . page 11 2.5Théorème dePythagore . . . .page 11 2.6Identité du parallélogramme . . . page 12

3

Orthogonalité. . . .page 12 3.1Vecteurs orthogonaux . . . page 12 3.2Orthogonal d’une partie . . . page 12

4

Familles orthonormales . . . .page 14 4.1Définition . . . page 14 4.2Propriétés . . . page 15 4.3Procédé d’orthonormalisation deSchmidt . . . page 17 4.4Bases orthonormées . . . page 20 4.4.1 Existence de bases orthonormées en dimension finie . . . page 20 4.4.2 Expression des coordonnées, du produit scalaire et de la norme en base orthonormée . . . page 21

5

Projections et symétries orthogonales . . . page 21 5.1Supplémentaire orthogonal d’un sous-espace d’un espace euclidien . . . page 21 5.2Projections orthogonales . . . page 21 5.2.1 Projection orthogonale sur un vecteur non nul . . . .page 22 5.2.2 Projection orthogonale sur un hyperplan . . . page 24 4.4.1 Projection orthogonale sur un sous-espace. Distance à un sous-espace . . . .page 25 5.3Symétries orthogonales . . . page 29

6

Hyperplans affines d’un espace euclidien . . . page 30 6.1Projeté orthogonal d’un point sur un hyperplan affine . . . page 31 6.2Lignes de niveaux de l’applicationM7→h−−→

AM,−→ni . . . page 31 6.3Projeté orthogonal d’un point sur un hyperplan affine. Distance à un hyperplan affine . . . page 31 6.4Orientation d’un hyperplan affine par un vecteur normal . . . .page 34

7

Automorphismes orthogonaux et matrices orthogonales . . . page 34 7.1Automorphismes orthogonaux . . . page 34 7.1.1 Définition . . . page 34 7.1.2 Image d’une base orthonormée . . . page 35 7.1.3 Symétries orthogonales . . . .page 36 7.1.4 Le groupe orthogonal(O(E),◦) . . . page 36 7.2Matrices orthogonales . . . page 37 7.2.1 Définition . . . page 37 7.2.2 Lien avec les bases orthonormées . . . page 38 7.2.3 Lien avec les automorphismes orthogonaux . . . page 39 7.2.4 Déterminant d’une matrice orthogonale ou d’un automorphisme orthogonal . . . .page 39 7.2.5 Produit mixte . . . .page 40 7.3Description deO2(R)et O(E2) . . . .page 42 7.3.1 Description de O2(R) . . . page 42 7.3.1 Description de O+2(R)etO+(E2) . . . page 42 7.3.3 Description de O(E2) . . . page 44

(2)

1 Produit scalaire

1.1 Formes bilinéaires

Définition 1.SoitEunR-espace vectoriel.

Uneforme bilinéairesurEest une applicationϕdeE×EdansRqui est linéaire par rapport à chacune de ses deux variables c’est-à-dire

∀(u1, u2, v)∈E3, ∀(λ1, λ2)∈R2,ϕ(λ1u12u2, v) =λ1ϕ(u1, v) +λ2ϕ(u2, v) et

∀(u, v1, v2)∈E3,∀(λ1, λ2)∈R2,ϕ(u, λ1v12v2) =λ1ϕ(u, v1) +λ2ϕ(u, v2).

L’application ϕ : R2 → R (x, y) 7→ x×y

est un exemple fondamental de forme bilinéaire (sur R).

Définition 2.SoitEunR-espace vectoriel. Soitϕune forme bilinéaire surE.

•ϕ estsymétriquesi et seulement si∀(u, v)∈E2,ϕ(u, v) =ϕ(v, u).

•ϕ estpositivesi et seulement si∀u∈E,ϕ(u, u)>0.

•ϕ estdéfiniesi et seulement si∀u∈E,ϕ(u, u) =0⇒u=0.

Remarque.Siϕ est une forme bilinéaire quelconque, on a nécessairementϕ(0, 0) =0 (ou encoreu=0⇒ϕ(u, u) =0) et plus généralement, pour toutudeE, ϕ(u, 0) =0. En effet, pour u∈Edonné, l’applicationv7→ϕ(u, v)est linéaire et s’annule donc en0.

➱ Commentaire. Siϕest une forme bilinéaire, on peut résumer en une seule proposition les deux mots « définie et positive » :ϕ est définie et positive si et seulement si

∀u∈E\ {0}, ϕ(u, u)> 0.

Exemples.

• Soit ϕ : R2×R2 → R ((x, y),(x, y)) 7→ xy−yx

. ϕ est une forme bilinéaire (n-linéarité du déterminant en dimension n) qui n’est pas définie car si u = (1, 0) 6= (0, 0), alors ϕ(u, u) = 1×0−0×1 = 0 mais qui est positive car pour tout u= (x, y)∈R2, ϕ(u, u) =xy−yx=0>0.

• Soit ϕ : R2×R2 → R ((x, y),(x, y)) 7→ xx−yy

est une forme bilinéaire surR2 qui n’est ni définie car ϕ((1, 1),(1, 1)) = 12−12=0, ni positive carϕ((0, 1),(0, 1)) =02−12= −1 < 0.

• Soit ϕ : R2×R2 → R ((x, y),(x, y)) 7→ xy

est une forme bilinéaire surR2qui n’est pas symétrique carϕ((1, 0),(0, 1)) =1

etϕ((0, 1),(1, 0) =06=1. ❏

1.2 Définition d’un produit scalaire

Définition 3.SoitEunR-espace vectoriel.

Unproduit scalairesurEest une forme bilinéaire surE, symétrique, positive et définie.

Unespace préhilbertien réelest un couple(E, ϕ)oùEest unR-espace vectoriel etϕest un produit scalaire surE.

Unespace euclidien est un espace préhilbertien réel où de plus l’espace vectorielEest de dimension finie.

➱ Commentaire.

⋄ Dans la pratique, pour vérifier qu’une application deE2dans R, on commence par vérifier d’abord la symétrie puis on vérifie la linéarité par rapport à la première variable, la deuxième linéarité résultant de la première et de la symétrie :

ϕ(u, λ1v12v2) =ϕ(λ1v12v2, u) =λ1ϕ(v1, u) +λ2ϕ(v2, u) =λ1ϕ(u, v1) +λ2ϕ(u, v2).

⋄ Un espace préhilbertien est un couple(E, ϕ). Si on change l’un des deux éléments de ce ce couple, et en particulier, si on remplace le produit scalaireϕpar un autre produit scalaire sans changer l’espaceE, on obtient un autre espace préhilbertien.

(3)

Exercice 1.SoitE=R2. Pour((x, y),(x, y))∈E2, on poseϕ((x, y),(x, y)) =xx+1

2(xy+yx) +yy. Montrer queϕest un produit scalaire surE.

Solution 1.

•ϕ est une application de R22

dansR.

•Soit((x, y),(x, y))∈E2.

ϕ((x, y),(x, y)) =xx+ 1

2(xy+yx) +yy=xx+ 1

2(xy+yx) +yy=ϕ((x, y),(x, y)).

Donc,ϕest une forme sur Esymétrique.

•Soient ((x, y),(x, y),(x′′, y′′))∈E3et (λ, µ)∈R2.

ϕ(λ(x, y) +µ(x, y),(x′′, y′′)) =ϕ((λx+µx, λy+µy),(x′′, y′′))

= (λx+µx)x′′+1

2((λx+µx)y′′+ (λy+µy)x′′) + (λy+µy)y′′

xx′′+ 1

2(xy′′+yx′′) +yy′′

xx′′+1

2(xy′′+yx′′) +yy′′

=λϕ((x, y),(x′′, y′′)) +µϕ((x, y),(x′′, y′′)).

ϕest linéaire par rapport à sa première variable puis bilinéaire par symétrie.

• Soit(x, y)∈E. ϕ((x, y),(x, y)) =x2+xy+y2= x+ y

2 2

+ 3y2

4 >0. Donc,ϕ est une forme bilinéaire, symétrique, positive surE.

•Soit(x, y)∈E.

ϕ((x, y),(x, y)) =0⇒ x+ y

2 2

+3y2 4 =0

⇒ x+ y

2 2

= 3y2

4 =0(car si x+ y

2 2

6

=0ou 3y2

4 6=0, alors x+ y

2 2

+3y2 4 > 0)

⇒y=0etx+ y

2 =0⇒x=y=0

⇒(x, y) =0.

Donc,ϕest une forme bilinéaire, symétrique, définie, positive surEet finalement,ϕ est un produit scalaire surE.

Dans la pratique, quand un produit scalaire est donné, le produit scalaire de deux vecteurs u et v est rarement noté ϕ(u, v). Il est fréquemment notéhu, viou(u|v)ouu|vdans le cas général ouu.vpour faire de la géométrie en dimension2 ou3. SiEestR[X]ouRNouRR, la notationP.Qouu.vouf.gpourrait être confondue avec le produit de deux polynômes, de deux suites ou de deux fonctions et serait donc trop ambigüe.

1.3 Exemples fondamentaux

On donne ici une liste de produits scalaires usuels. On n’effectue pas toutes les démonstrations. Les démonstrations explicitement effectuées constituent des questions classiques de problèmes de concours.

•Sur E=R, on pose pour tout(x, y)∈R2,x|y=x×y. L’application(x, y)7→x|yest un produit scalaire surR.

• Plus généralement, sur E = Rn, on pose pour tout (x, y) = ((x1, . . . , xn),(y1, . . . , yn)) ∈ (Rn)2, x|y = Xn

i=1

xiyi. L’application(x, y)7→x|yest un produit scalaire surRnappelé leproduit scalaire canoniquesurRn (ou aussi produit scalaire usuel surRn). L’utilisation du mot canonique fait référence à la base canonique en un sens qui sera expliqué plus loin dans la section « Familles orthonormales ».

•SurE=Mn,1(R), on pose pour tout (X, Y)∈(Mn,1(R))2,X|Y=tXY (en identifiant une matrice de format(1, 1)et son unique coefficient). L’application(X, Y)7→X|Yest le produit scalaire canonique surMn,1(R)car si on poseX= (xi)16i6n etY= (yi)16i6n, alors

(4)

tXY= Xn

i=1

xiyi.

•SurE=Mn(R), on pose pour tout(A, B)∈(Mn(R))2,A|B=Tr(tAB). Vérifions que l’application(A, B)7→A|Best un produit scalaire surMn(R). PosonsA= (ai,j)16i,j6n etB= (bi,j)16i,j6n.

Tr(tAB) = Xn

j=1

Xn

i=1

ai,jbi,j

!

| {z }

coefficient lignej,colonnejdetAB

= X

16i,j6n

ai,jbi,j.

On reconnaît le produit scalaire canonique surMn(R)et en particulier, l’application(A, B)7→A|Best un produit scalaire surMn(R). Ceci achève la démonstration.

On peut néanmoins vérifier directement, sans référence au produit scalaire canonique, que l’application(A, B)7→A|Best un produit scalaire surMn(R)mais c’est beaucoup plus maladroit :

- Soit(A, B)∈(Mn(R)2.A|B=Tr(tAB) =Tr(t(tAB)) =Tr(tBA) =B|A. Donc, l’application(A, B)7→A|Best symétrique.

- Pour toutA∈Mn(R), l’applicationA7→Tr(tAB)est linéaire par bilinéarité du produit matriciel et par linéarité de la transposition et de la trace.

- SoitA= (ai,j)16i,j6n ∈Mn(R). Tr(tAA) = X

16i,j6n

a2i,j>0avec égalité si et seulement si tous lesai,j sont nuls et donc la forme bilinéaire, symétrique(A, B)7→A|Best définie, positive.

•Sur E=R[X], on pose pour(P, Q)∈(R[X])2, P|Q= Z1

0

P(t)Q(t)dt. Vérifions-le explicitement.

- Soit(P, Q)∈E2. L’applicationt7→P(t)Q(t)est continue sur le segment[0, 1](en tant que polynôme) et donc P|Q existe dansR.

Ainsi,(P, Q)7→P|Q est une application deE2 dansR. - Soit(P, Q)∈E2. P|Q=

Z1

0

P(t)Q(t)dt= Z1

0

Q(t)P(t)dt=Q|P. Donc, l’application(P, Q)7→P|Qest symétrique.

- L’application(P, Q)7→P|Q est bilinéaire par bilinéarité du produit de deux polynômes et linéarité de l’intégrale.

- SoitP∈E.P|P= Z1

0

P2(t)dt>0par positivité de l’intégrale. De plus,

P|P=0⇒ Z1

0

P2(t)dt=0

⇒∀t∈[0, 1], P2(t) =0(fonction continue, positive, d’intégrale nulle)

⇒P=0(polynôme ayant une infinité de racines).

Donc,(P, Q)7→P|Qest définie, positive.

On a montré que l’application(P, Q)7→P|Qest une forme bilinéaire, symétrique, définie, positive surEet donc un produit scalaire surE.

• Sur E = C0([a, b],R), on pose pour (f, g) ∈ E2, f|g= Zb

a

f(t)g(t) dt. La démonstration de ce résultat est quasiment identique. Il y a simplement une nuance à la fin de la démonstration :

f|f=0⇒ Zb

a

f2(t)dt=0

⇒∀t∈[a, b], f2(t) =0(fonction continue, positive, d’intégrale nulle)

⇒f=0.

(5)

Exercice 2. On note ℓ2(R) l’ensemble des suites réelles (un)n∈N telles que la série de terme général u2n converge (ℓ2(R)est l’ensemble des suites réellesde carré sommable).

1)Soit(u, v)∈E2. Montrer que la série de terme généralunvn converge.

2)Montrer queℓ2(R)est un sous-espace vectoriel de l’espace RN,+, . . 3)Montrer que l’application(u, v)7→u|v=

+

X

n=0

unvn est un produit scalaire surℓ2(R).

Solution 2.

1)Soit (u, v)∈E2. Pourn∈N, u2n−2|unvn|+v2n = (|un|−|vn|)2>0 et donc|unvn|6 1

2 u2n+v2n

. Par hypothèse, les séries de termes généraux respectifsu2n etv2n convergent. Il en est de même de la série de terme général 1

2 u2n+v2n . On en déduit que la série de terme généralunvn est absolument convergente et en particulier convergente.

2)ℓ2(R)⊂RN. De plus, la suite nulle appartient àℓ2(R).

Soient(u, v)∈E2et(λ, µ)∈R2. Pour tout entier natureln,

(λun+µvn)22u2n+2λµunvn2nv2n.

Mais alors, la série de terme général (λun+µvn)2 converge en tant que combinaison linéaire de séries convergentes et doncλu+µv∈ℓ2(R).

On a montré queE=ℓ2(R)est un sous-espace vectoriel de l’espace RN,+, . .

3)•Pour tout(u, v)∈E2, la série de terme généralunvn converge d’après 1). Donc,(u, v)7→u|vest bien une application de ℓ2(R)2

dansR.

•Soit(u, v)∈E2.

u|v=

+

X

n=0

unvn=

+

X

n=0

vnun=v|u.

Donc, l’application(u, v)7→u|vest symétrique.

•Soient(u, v, w)∈E3et (λ, µ)∈R2.

(λu+µv)|w=

+

X

n=0

(λun+µvn)wn

+

X

n=0

unwn

+

X

n=0

vnwn (combinaison linéaire de séries convergentes)

=λu|w+µv|w.

Donc, l’application(u, v)7→u|vest linéaire par rapport à sa première variable puis bilinéaire par symétrie.

•Soitu∈E.u|u=

+

X

n=0

u2n>0. De plus, siu6=0, l’un au moins des termes de la somme est strictement positif, les autres étant positifs ou nuls et doncu|u=

+

X

n=0

u2n > 0. Ceci montre que(u, v)7→u|v est définie, positive.

On a montré que l’application(u, v)7→u|v=

+

X

n=0

unvn est une forme bilinéaire, symétrique, définie, positive surℓ2(R)et donc que l’application(u, v)7→u|v=

+

X

n=0

unvn est un produit scalaire surℓ2(R).

(6)

1.4 Inégalité de Cauchy - Schwarz

Théorème 1 (inégalité de Cauchy-Schwarz).Soit(E,h, i)un espace préhilbertien réel. Alors,

∀(u, v)∈E2, |hu, vi|6p

hu, uip hv, vi. De plus,|hu, vi|=p

hu, uip

hv, vi⇔(u, v)liée (cas d’égalité de l’inégalité deCauchy-Schwarz).

Démonstration. Soit (u, v) ∈ E2. Si u = 0 , l’inégalité est immédiate et est une égalité : |h0, vi| = 0 = p h0, 0ip

hv, vi. Dorénavant,u6=0.

Pourλ∈R, posons

P(λ) =hλu−v, λu−vi=λ2hu, ui−2λhu, vi+hv, vi.

Puisque u 6= 0, on a hu, ui 6= 0 et donc P est un polynôme du second degré à coefficients réels. Puisque pour tout λ ∈ R, P(λ) = hλu−v, λu−vi > 0,P est de signe constant surR. Le discriminant réduit du polynôme P est donc négatif ou nul. Ceci fournit :

0>∆= (hu, vi)2−hu, uihv, vi puis(hu, vi)2 6hu, uihv, vi. En tenant compte du fait que hu, ui>0,hv, vi> 0et que

q

(hu, vi)2=|hu, vi|, en prenant la racine carrée des deux membres, on obtient

|hu, vi|6p hu, uip

hv, vi. Déterminons maintenant les cas d’égalité :

|hu, vi|=p hu, uip

hv, vi⇔u=0ou(u6=0et∆=0)

⇔u=0ou(u6=0et∃λ0∈R/ P(λ0) =0)

⇔u=0ou(u6=0et∃λ0∈R/hλ0u−v, λ0u−vi=0)

⇔u=0ou(u6=0et∃λ0∈R/ v=λ0u)

⇔(u, v)liée.

❏ On note qu’une forme équivalente de l’inégalité deCauchy-Schwarzest :(hu, vi)26hu, uihv, vi.

Exemples.Puisque qu’un produit scalaire a des aspects multiples, l’inégalité de Cauchy-Schwarz a des aspects mul- tiples. Enonçons-en explicitement deux versions :

•DansRn muni du produit scalaire canonique, l’inégalité de Cauchy-Schwarzs’écrit :

(xi)16i6n,(yi)16i6n

∈(Rn)2, (x1y1+. . .+xnyn)26 x21+. . .+x2n

y21+. . .+y2n .

•DansC0([a, b],R)muni du produit scalaire(f, g)7→

Zb

a

f(t)g(t)dt, l’inégalité deCauchy-Schwarzs’écrit :

∀(f, g)∈ C0([a, b],R)2

, Zb

a

f(t)g(t)dt

!2

6 Zb

a

f2(t)dt

! Zb a

g2(t)dt

! . Exercice 3.Soienta1, . . . ,an, nréels strictement positifs. Montrer que

(a1+. . .+an) 1

a1 +. . .+ 1 an

>n2. Préciser les cas d’égalité.

Solution 3.Soienta1, . . . ,an,nréels strictement positifs. D’après l’inégalité deCauchy-Schwarz,

(a1+. . .+an) 1

a1

+. . .+ 1 an

= Xn

i=1

(√ ai)2

! n X

i=1

1

√ai

2!

>

Xn

i=1

√ai× 1

√ai

!2

= Xn

i=1

1

!2

=n2.

(7)

De plus, si on a l’égalité, alors il existe un réel λ tel que (√a1, . . . ,√an) = λ 1

√a1, . . . , 1

√an

ou encore, pour tout i∈J1, nK, ai=λ. Ceci impose àλd’être strictement positif. Réciproquement, siλest un réel strictement positif,

(λ+. . .+λ) 1

λ+. . .+1 λ

=nλ×n λ =n2. En résumé, pour tous réels strictement positifs a1, . . . , an, (a1+. . .+an)

1 a1

+. . .+ 1 an

> n2 avec égalité si et seulement si lesai sont égaux.

Exercice 4.SoitE= Zb

a

f(t)dt

! Zb a

1 f(t)dt

!

, fcontinue et strictement positive sur[a, b]

. 1)Déterminer Sup(E).

2)Déterminer Inf(E). Vérifier qu’il s’agit d’un minimum et préciser les fonctions en lesquelles ce minimum est atteint.

Solution 4. Pour chaque fonction f, continue et strictement positive sur [a, b] (de sorte que 1

f est aussi continue et strictement positive sur[a, b]), on poseϕ(f) =

Zb

a

f(t)dt

! Zb

a

1 f(t)dt

! .

1)Pour α > 0, on considère la fonctionfα : x7→eαx. Chaque fonctionfα est continue et strictement positive sur[a, b]

et donc, pour toutα > 0,ϕ(fα)∈E. Ensuite, pourα > 0,

ϕ(fα) = Zb

a

eαtdt

! Zb a

e−αtdt

!

= 1

α2 eαb−eαa

−e−αb+e−αa

= 1 α2

eα(b−a)+eα(a−b)−2 .

De plus, puisqueb−a > 0, 1

α2 eα(b−a)+eα(a−b)−2

α+

eα(b−a)

α2

α+

+∞d’après un théorème de croissances comparées. Ainsi,Eest une partie deRqui n’est pas majorée. On en déduit que

Sup(E) = +∞.

2)Soitfune fonction continue et strictement positive sur[a, b]. D’après l’inégalité deCauchy-Schwarz,

ϕ(f) = Zb

a

pf(t)2

dt

!

 Zb

a

1 pf(t)

!2

dt

>

Zb

a

pf(t)× 1 pf(t) dt

!2

= Zb

a

dt

!2

= (b−a)2.

De plus, on a l’égalité si et seulement si la famille de fonctions √

f, 1

√f

est liée. Ceci équivaut à l’existence d’un réel strictement positifλtel que, pour toutt de[a, b],p

f(t) = λ

pf(t) ou encore, pour toutt∈[a, b],f(t) =λ.

En résumé, pour toute fonctionf, continue et strictement positive sur[a, b],ϕ(f)>(b−a)2avec égalité si et seulement si la fonctionfest une constante strictement positive. Ceci montre que Inf(E)existe dansR, est un minimum et enfin

Inf(E) =Min(E) = (b−a)2.

(8)

2 Norme hilbertienne

2.1 Définition d’une norme

Définition 4.SoitEunK-espace vectoriel (K=RouC). UnenormesurEest une application deEdansRvérifiant les quatre axiomes :

1)∀x∈E, N(x)>0 (positivité).

2)∀x∈E, (N(x) =0⇒x=0)(axiome de séparation).

3)∀x∈E, ∀λ∈K,N(λx) =|λ|N(x)(homogénéité).

4)∀(x, y)∈E2,N(x+y)6N(x) +N(y)(inégalité triangulaire).

Un couple(E, N)oùEest unK-espace vectoriel etN est une norme surEs’appelle unespace vectoriel normé(e.v.n.

en abrégé). Les espaces vectoriels normés sont étudiés en maths spé.

Une norme est fréquemment notée k k. Sur E = R, la valeur absolue | | est une norme, mais l’application x7→ 2|x| est aussi une norme surR. De manière générale, siEest un R-espace vectoriel non réduit à{0}, on peut montrer qu’il y a une infinité de normes surE.

On verra au paragraphe suivant que l’applicationk k2 : u= (x, y)7→kuk2=p

x2+y2 est une norme surR2, appelée norme euclidienne usuelle. L’exercice suivant fournit deux autres exemples de norme surR2.

Exercice 5.Pour (x, y)∈R2, on posek(x, y)k1=|x|+|y|etk(x, y)k=Max{|x|,|y|}.

Montrer quek k1et k kest une norme sur R2. Solution 5.

Montrons quek k1est une norme surR2.k k1est une application deR2dansR.

•Soitu= (x, y)∈R2.kuk1=|x|+|y|>0.

•Soitu= (x, y)∈R2tel que kuk1=0. Alors,|x|+|y|=0puis|x|=|y|=0 puisx=y=0 et doncu=0.

•Soientu= (x, y)∈R2etλ∈R.N(λu) =|λx|+|λy|=|λ|(|x|+|y|) =|λ|kuk1.

•Soientu= (x, y)∈R2etv= (x, y)∈R2.ku+vk1=|x+x|+|y+y|6|x|+|y|+|x|+|y|=kuk1+kvk1. On a montré quek k1est une norme sur R2.

Montrons quek kest une norme sur R2.k k est bien une application deR2 dansR.

•Pouru= (x, y)∈R2,kuk>0.

•Soitu= (x, y)∈R2tel que kuk=0. Alors, Max{|x|,|y|}=0 puis|x|60 et|y|60 puisx=y=0 et doncu=0.

•Soitu= (x, y)∈R2et λ∈R. Si par exemple,|x|>|y|, alors|λx|=|λ||x|>|λ||y|=|λ||y|et donc kλuk=Max{|λx|,|λy|}=|λx|=|λ||x|=|λ|kuk.

•Soient u= (x, y)∈R2et v= (x, y)∈R2. |x+x|6|x|+|x|6kuk+kvk et|y+y|6|y|+|y|6kuk+kvk. Par suite,

ku+vk=Max{|x+x|,|y+y|}6kuk+kvk. On a montré quek k est une norme surR2.

Quand une norme est donnée, on peut mesurer ladistanceentre deux vecteurs :

Définition 5.SoitEunK-espace vectoriel (K=RouC) et Nune norme surE. La distance associée à cette norme est l’applicationddéfinie surE2par :

∀(x, y)∈E2, d(x, y) =N(y−x).

(9)

x

x y

y

d(x, y) =N(y−x)

Cette distance a les propriétés suivantes : Théorème 2.

1)∀(x, y)∈E2,d(x, y)>0.

2)∀(x, y)∈E2,d(x, y) =0⇒x=y.

3)∀(x, y)∈E2,d(x, y) =d(y, x).

4)∀(x, y, z)∈E3,d(x, y)6d(x, z) +d(z, y).

Démonstration. 1) est vrai par positivité deN. Sixet ysont deux vecteurs deEtels qued(x, y) =0, alors N(x−y) =0 puisx−y=0d’après l’axiome de séparation et donc 2) est vrai.

Soientxetydeux éléments deE.d(x, y) =N(y−x) =N(−(x−y)) =|−1|N(x−y) =N(x−y) =d(y, x). Donc, 3) est vrai.

Soient enfinx,yetztrois éléments deE.

d(x, y) =N(y−x) =N((z−x) + (y−z))6N(z−x) +N(y−z) =d(x, z) +d(z, y).

Donc, 4) est vrai.

Définition 6.Un vecteurudeEest ditunitairepour la normeNsi et seulement siN(u) =1.

2.2 Définition de la norme hilbertienne

Théorème 3.Soit(E,h, i)un espace préhilbertien réel. Pourx∈E, on posekxk=p hx, xi. k kest une norme surE.

Démonstration. Pour toutx deE,hx, xi est un réel positif et donckxkexiste dansR. Ainsi,k kest une application deE dansR.

•Soitx∈E.kxk=p

hx, xi>0.

•Soitx∈E.kxk=0⇒p

hx, xi=0⇒hx, xi=0⇒x=0.

•Soientx∈Eetλ∈R.kλxk=p

hλx, λxi=p

λ2hx, xi=√ λ2p

hx, xi=|λ|kxk.

•Soit(x, y)∈E2.

kx+yk2=hx+y, x+yi=hx, xi+2hx, yi+hy, yi=kxk2+2hx, yi+kyk2 6kxk2+2|hx, yi|+kyk2

6kxk2+2p

hx, xip

hy, yi+kyk2(d’après l’inégalité deCauchy-Schwarz)

=kxk2+2kxkkyk+kyk2= (kxk+kyk)2 et donc, en prenant la racine carrée des deux membres,kx+yk6kxk+kyk.

On a montré quek kest une norme surE. ❏

(10)

Définition 7.Soit(E,h, i)un espace préhilbertien réel. Pourx∈E, on posekxk=p hx, xi.

La norme k k est appelée norme hilbertiennesi E est de dimension quelconque,norme euclidienne siE est de dimension finie et dans tous les cas,norme associée au produit scalaire h, i.

DansRn, lanorme euclidienne usuelleest l’application notéek k2et définie par :

∀(x1, . . . , xn)∈Rn, k(x1, . . . , xn)k2= q

x21+. . .+x2n. C’est la norme associée au produit scalaire canonique surRn.

On s’intéresse maintenant aux cas d’égalité de l’inégalité triangulaire pour la norme hilbertienne :

Théorème 4.Soit(E,h, i)un espace préhilbertien réel. Soitk kla norme associée au produit scalaire h, i. Pour tout(x, y)∈E2,kx+yk=kxk+kyk⇔x=0ou(x6=0et∃λ∈R+/ y=λx).

➱ Commentaire. On a l’habitude de résumer le théorème précédent avec la phrase un peu fausse : « l’inégalité triangulaire est une égalité si et seulement six etysont colinéaires et de même sens » (la phrase est un peu fausse car dire que xetyont même sens ne veut rien dire quandxou ysont nuls).

Démonstration. Reproduisons les différentes étapes ayant permis d’établir l’inégalité triangulaire dans le théorème 3 :

kx+yk2=hx+y, x+yi=hx, xi+2hx, yi+hy, yi=kxk2+2hx, yi+kyk2 6kxk2+2|hx, yi|+kyk2

6kxk2+2p hx, yip

hy, yi+kyk2(d’après l’inégalité deCauchy-Schwarz)

=kxk2+2kxkkyk+kyk2= (kxk+kyk)2

On a l’égalité si et seulement si chacune des inégalités intermédiaires est une égalité car si l’une des inégalités intermédiaires est stricte, alorskx+yk2<(kxk+kyk)2. Donc,

kx+yk=kxk+kyk⇔kx+yk2= (kxk+kyk)2

⇔|hx, yi|=p hx, yip

hy, yiethx, yi=|hx, yi|

⇔(x, y)liée ethx, yi ∈R+(cas d’égalité de l’inégalité deCauchy-Schwarz)

⇔x=0ou(x6=0et∃λ∈R/ y=λxethx, λxi ∈R+)

⇔x=0ou(x6=0et∃λ∈R/ y=λxetλkxk2∈R+)

⇔x=0ou(x6=0et∃λ∈R+/ y=λx) (car six6=0, kxk2> 0).

❏ Il ne faut pas croire que toute norme est associée à un produit scalaire ou encore, il ne faut pas croire que siN est une norme, il existe nécessairement un produit scalaireh, itel que, pour toutx∈E,N(x) =p

hx, xi.

Le théorème 4 est un outil parmi d’autres permettant de se convaincre qu’une norme donnée n’est pas une norme hilber- tienne : si on trouve un cas d’égalité de l’inégalité triangulaire où les vecteurs ne sont pas « colinéaires et de même sens », la norme considérée ne peut être une norme hilbertienne.

Vérifions par exemple que la norme k k de l’exercice 5 (pour tout u = (x, y) ∈ R2, kuk = Max{|x|,|y|}) n’est pas une norme euclidienne sur R2. Soient u = (1, 1) et v = (1, 0). Il est clair que u et v ne sont pas colinéaires. Pourtant, ku+vk=k(2, 1)k=2=1+1=kuk+kvk. Donc,k kne peut être associée à un produit scalaire.

(11)

u+v u

v

ku+vk=2=kuk+kvk

b bb

Ainsi, pour la normek k, « le plus court chemin n’est pas toujours la ligne droite » car le trajet en ligne droite joignant les deux points rouges et le trajet en deux étapes, passant par le point bleu ont la même longueur.

Par contre, pour toute norme N, « la ligne droite est toujours un plus court chemin » : soit u un vecteur et λ un réel positif.

N(u) +N(λu) =N(u) +|λ|N(u) = (1+λ)N(u) puis

N(u+λu) =N((1+λ)u) =|1+λ|N(u) = (1+λ)N(u) =N(u) +N(λu).

2.3 Carré scalaire d’un vecteur

Définition 8.Soit(E,h, i)un espace préhilbertien réel. Soituun vecteur deE.

Le produit scalaire deupar lui-même peut se noteru2et s’appelle le carré scalairedu vecteuru. On a donc kuk2=hu, ui=u2.

Avec cette nouvelle notation, on a immédiatement les identités remarquables suivantes (par bilinéarité et symétrie du produit scalaire) :

Théorème 5.Soit(E,h, i)un espace préhilbertien réel.

• ∀(u, v)∈E2, (u+v)2=u2+2hu, vi+v2.

• ∀(u, v)∈E2, (u−v)2=u2−2hu, vi+v2.

• ∀(u, v)∈E2, hu+v, u−vi=u2−v2.

2.4 Identités de polarisation

Les égalitéskuk=p

hu, uiou kuk2=hu, uisont des égalités exprimant la norme (hilbertienne) en fonction du produit scalaire. Il s’avèrera utile le moment venu de savoir aussi exprimer le produit scalaire en fonction de la norme uniquement.

C’est l’objet du théorème 6 qui donne lesidentités de polarisation: Théorème 6.Soit(E,h, i)un espace préhilbertien réel.

• ∀(u, v)∈E2, hu, vi= 1

2 ku+vk2−kuk2−kvk2 .

• ∀(u, v)∈E2, hu, vi= 1

2 kuk2+kvk2−ku−vk2 .

• ∀(u, v)∈E2, hu, vi= 1

4 ku+vk2−ku−vk2 .

Démonstration. La première identité découle de l’identitéku+vk2=kuk2+2hu, vi+kvk2et la deuxième découle de l’identité ku−vk2=kuk2−2hu, vi+kvk2.

La troisième identité s’obtient en retranchant membre à membre les deux égalités précédentes.

(12)

2.5 Théorème de Pythagore

Théorème 7 (théorème de Pythagore).Soit(E,h, i)un espace préhilbertien réel. Soientuetvdeux éléments deE.

ku+vk2=kuk2+kvk2⇔hu, vi=0.

Démonstration. Soientuet vdeux vecteurs.ku+vk2=kuk2+kvk2+2hu, viet par suite, ku+vk2=kuk2+kvk2⇔hu, vi=0.

❏ On dira plus loin (ou on rappellera) que deux vecteurs u et v sont orthogonaux pour le produit scalaire h , i si et seulement sihu, vi=0. Le théorème de Pythagoreaffirme donc que ku+vk2=kuk2+kvk2 si et seulement siuet v sont orthogonaux. On note que le théorème dePythagoreest désormais une équivalence et que l’expression « d’après la réciproque du théorème dePythagore» devient obsolète.

u u+v v

ku+vk2=kuk2+kvk2

On peut se demander si le théorème 7 se généralise à strictement plus de deux vecteurs. Soientu1, . . . ,un,nvecteurs de E. Par bilinéarité et symétrie du produit scalaire, on a

ku1+. . .+unk2= Xn

i=1

kuik2+2 X

16i<j6n

hui, uji.

Ainsi,si pour tout couple (i, j)∈ J1, nK2 tel que i 6= j, on a hui, uji= 0, alorsku1+. . .+unk2 = Xn

i=1

kuik2. Mais la réciproque est fausse car l’égalitéku1+. . .+unk2=

Xn

i=1

kuik2n’entraîne rien de plus que X

16i<j6n

hui, uji=0.

2.6 Identité du parallélogramme

Théorème 8 (identité du parallélogramme). Soit (E,h , i) un espace préhilbertien réel. Soient u et v deux éléments deE.

ku+vk2+ku−vk2=2 kuk2+kvk2 .

Démonstration. Soient uet v deux vecteurs.ku+vk2 = kuk2+kvk2+2hu, vi et ku−vk2 = kuk2+kvk2−2hu, vi. En additionnant membre à membre ces deux égalités, on obtient

ku+vk2+ku−vk2=2

kuk2+kvk2 .

❏ On interprète géométriquement cette égalité. Siuetvsont deux vecteurs,u+vetu−vsont les diagonales du parallélo- gramme bâti suruet v:

u

v

u+v u−

v ku+vk2+ku−vk2=kuk2+kvk2+kuk2+kvk2

(13)

Ainsi, la somme des carrés des longueurs des diagonales d’un parallélogramme est égale à la somme des carrés des longueurs des côtés.

3 Orthogonalité

3.1 Vecteurs orthogonaux

Définition 9.Soit(E,h, i)un espace préhilbertien réel. Soientuetv deux éléments deE.

Les vecteursuet vsont orthogonaux si et seulement sihu, vi=0.

 Il faut prendre garde au fait quehu, vi=06⇒u=0ouv=0(mais bien sûr,u=0ouv=0⇒hu, vi=0ou encore, le vecteur nul est orthogonal à tout vecteur).

3.2 Orthogonal d’une partie

Définition 10.Soit(E,h, i)un espace préhilbertien réel. SoitAune partie de E.

Si A est non vide, l’orthogonal de A, noté A, est l’ensemble des vecteurs de E qui sont orthogonaux à tous les vecteurs deA:

A={y∈E/∀x∈A, hx, yi=0}. SiAest vide, l’orthogonal deAestE:

=E.

Notation.QuandAest un singleton{x}oùxest un élément deE,A={x}s’écrit plus simplementx. Ainsi, siA6=∅, on aA= \

xA

x.

La première propriété importante de l’orthogonal d’une partie est d’être toujours un sous-espace vectoriel deE, même si An’est pas un sous-espace vectoriel deE:

Théorème 9.Soit(E,h, i)un espace préhilbertien réel. SoitAune partie deE.

A est un sous-espace vectoriel deE.

Démonstration. SiAest vide,A=Eest un sous-espace deE. Dorénavant,A6=∅. Le vecteur nul est orthogonal à tous les vecteurs deAet donc0∈A.

Soient(y1, y2)∈ A2

et(λ1, λ2)∈R2. Pour toutxdeA, par bilinéarité du produit scalaire, on a hx, λ1y12y2i=λ1hx, y1i+λ2hx, y2i=0,

et doncλ1y12y2∈A. Ceci montre queAest un sous-espace deE. ❏

Théorème 10.Soit(E,h, i)un espace préhilbertien réel. Alors {0}=E et E={0}.

Démonstration. Tout vecteur deEest orthogonal au vecteur nul et doncE⊂{0}puisE={0}.

Soity∈E.yest donc orthogonal à tout vecteur deEet en particulier,yest orthogonal à lui-même :hy, yi=0. Ceci imposey=0.

Donc,E⊂{0}puisE={0}carEest un sous-espace deE.

Théorème 11.Soit(E,h, i)un espace préhilbertien réel.

1)∀(A, B)∈(P(E))2,(A⊂B⇒B⊂A).

2)∀A∈P(E),A = (Vect(A)). Démonstration.

1)Soit(A, B)∈(P(E))2tel queA⊂B. SiA=∅, alorsB⊂E=A. Sinon,A6=∅puisB6=∅carA⊂B. Dans ce cas, poury∈E, y∈B⇒∀x∈B,hx, yi=0⇒∀x∈A, hx, yi=0⇒y∈A.

(14)

Ceci montre encore une fois queB⊂A.

2)SoitA∈P(E). SiA=∅, alors Vect(A) ={0}puis(Vect(A))=E=A. Dorénavant, on supposeA6=∅.

PuisqueA⊂Vect(A), on a(Vect(A))⊂Ad’après 1). Inversement, tout élément deAest orthogonal à tout élément deApuis à toute combinaison linéaire d’éléments deApar bilinéarité du produit scalaire. Ceci montre queA⊂(Vect(A))et finalement

queA= (Vect(A)). ❏

Théorème 12.Soit(E,h, i)un espace préhilbertien réel. SoitFun sous-espace vectoriel de E.

1)F∩F={0}.

2)F⊂ F . Démonstration.

1)F∩Fest un sous-espace deEen tant qu’intersection de sous-espaces deE. En particulier,{0}⊂F∩F. Inversement, sixest un élément deF∩F,xest en particulier orthogonal à lui-même et doncx=0. Ceci montre queF∩F⊂{0}puis queF∩F={0}.

2)Un élément deFest orthogonal à tout vecteur orthogonal à tous les vecteurs deFet donc est un élément de F

. Ceci montre queF⊂ F

.

➱ Commentaire. On pourrait s’attendre à ce que le bi-orthogonal F

, plus simplement noté F⊥⊥, soit égal à F. Ceci est faux en général mais difficile à appréhender en maths sup. En maths spé, on analyse des exemples où l’inclusionF⊂F⊥⊥est stricte.

Néanmoins, on verra plus loin que siEest un espace euclidien ou encore si dim(E)<+∞, alorsF=F⊥⊥. Exercice 6.Soit(E,h, i)un espace préhilbertien réel. SoientFet Gdeux sous-espaces vectoriels deE.

Montrer que(F+G) =F∩G.

Solution 6.F⊂F+Get G⊂F+G. Donc,(F+G) ⊂F et(F+G)⊂G puis(F+G) ⊂F∩G.

Inversement, un élément deF∩G est orthogonal à tout élément deF et à tout élément deGpuis à toute somme d’un élément deF et d’un élément deG par bilinéarité du produit scalaire. Ceci montre queF∩G⊂(F+G)et finalement que(F+G)=F∩G.

4 Familles orthonormales

4.1 Définition

Définition 11. Soit(E,h, i)un espace préhilbertien réel. Soient Iun ensemble non vide d’indices puis (ei)iI une famille d’éléments deEindexée parI.

La famille(ei)iI estorthogonalesi et seulement si

∀(i, j)∈I2, (i6=j⇒hei, eji=0).

La famille(ei)iI estorthonormale(ouorthonormée) si et seulement si

∀(i, j)∈I2, hei, eji=δi,j=

1sii=j 0sii6=j . Remarques.

•Il est clair qu’une famille orthonormale est en particulier une famille orthogonale.

•La conditionhei, eii=1 est équivalente à la conditionkeik=1 ou encore les vecteurs d’une famille orthonormale sont unitaires.

Exemples.On munitE=R2du produit scalaire usuel.

• Soient u1 = (1, 1) et v1 = (1, 0). hu1, v1i = 1×1+1×0 = 1 6= 0. Donc, la famille (u1, v1) n’est pas une famille orthogonale.

(15)

−1 1

−1 1

•Soientu2= (1, 1)etv2= (1,−1).hu2, v2i=1×1+1×(−1) =0 etku2k2=12+12=26=1. Donc, la famille(u2, v2) est une famille orthogonale mais n’est pas une famille orthonormale.

−1 1

−1 1

• Soient u3 = 1

√2, 1

√2

et v3 = 1

√2,− 1

√2

. hu3, v3i = 1

√2 × 1

√2 + 1

√2 ×

− 1

√2

= 0 et ku3k2 = kv3k2 = 1

√2 2

+ 1

√2 2

=1. Donc, la famille (u3, v3)est une famille orthonormale.

−1 1

1

−1

(16)

4.2 Propriétés

Théorème 13.Soit(E,h, i)un espace préhilbertien réel.

Une famille orthogonale de vecteurstous non nulsest libre.

Une famille orthonormale est libre.

Démonstration. Il suffit de démontrer le résultat quand la famille de vecteurs est finie.

•Soientn∈Npuis(ei)16i6n une famille orthogonale de vecteurs tous non nuls. Soit(λi)16i6n ∈Rn. Xn

i=1

λiei=0⇒∀j∈J1, nK,hej, Xn i=1

λieii=0

⇒∀j∈J1, nK, Xn

i=1

λihei, eji=0(par bilinéarité du produit scalaire)

⇒∀j∈J1, nK, λjhej, eji=0(car pouri6=j, hei, eji=0)

⇒∀j∈J1, nK, λj=0(carej6=0⇒hej, eji 6=0).

Ceci montre que la famille(ei)16i6n est libre.

•Une famille orthonormale est en particulier une famille orthogonale de vecteurs tous non nuls. Donc, une famille orthonormale est libre.

Exercice 7.

1)Pour(n, p)∈N, calculer 1 π

Z

0

sin(nx)sin(px)dx.

2)Pourn∈N, on posesn(x) =sin(nx). Montrer que la famille(sn)n∈N est libre.

Solution 7.

1)Soit(n, p)∈(N)2. 1 π

Z

0

sin(nx)sin(px)dx= 1 2π

Z

0

(cos((n−p)x) −cos((n+p)x))dx.

Sin6=p, alorsn−p6=0et n+p6=0(carn+p>2). Dans ce cas, 1

π Z

0

sin(nx)sin(px)dx= 1 2π

Z

0

(cos((n−p)x) −cos((n+p)x))dx= 1 2π

sin((n−p)x)

n−p −sin((n+p)x) n+p

0

=0.

Sip=n, alors 1 π

Z

0

sin(nx)sin(px)dx= 1 π

Z

0

sin2(nx)dx= 1 2π

Z

0

(1−cos(2nx))dx= 1

2π 2π−

sin(2nx) 2n

0

!

=1.

En résumé,

∀(n, p)∈N, 1 π

Z

0

sin(nx)sin(px)dx=δn,p.

2)SoitEleR-espace vectoriel des fonctions continues surRet2π-périodiques (à valeurs dansR). Pour(f, g)∈E2, posons f|g= 1

π Z

0

f(x)g(x)dx.

Vérifions que| est un produit scalaire surE. |est une application de E2 dansR, clairement bilinéaire et symétrique. De plus, pourf∈E, f|f= 1

π Z

0

(f(x))2dx>0 et enfin,

f|f=0⇒ 1 π

Z

0

(f(x))2dx=0

⇒∀x∈[0, 2π], (f(x))2=0(fonction continue, positive, d’intégrale nulle)

⇒∀x∈R, f(x) =0(par2π-périodicité)

⇒f=0.

(17)

Donc,|est un produit scalaire surE. D’après 1), la famille(sn)n∈N est une famille orthonormale de l’espace préhilbertien (E,|). En particulier, la famille(sn)n∈N est libre.

4.3 Procédé d’orthonormalisation de Schmidt

On se donne un sous-espace vectoriel F de dimension finie n de l’espace euclidien (E,h , i). On va dégager un procédé permettant d’obtenir une base orthonormée(e1, . . . , en)deFconnaissant une base(u1, . . . , un)deF.

Théorème 14. Soit (E,h , i) un espace préhilbertien réel. Soient n ∈ N puis (ui)16i6n une famille libre de n vecteurs deE.

Il existe une famille orthonormale(ei)16i6n et une seule telle que 1)∀k∈J1, nK, Vect(ui)16i6k=Vect(ei)16i6k.

2)∀k∈J1, nK,huk, eki> 0.

Démonstration. Soit (u1, . . . , un) une famille libre. On montre par récurrence sur nl’existence et l’unicité de la famille (e1, . . . , en).

•Soitn=1. La famille(ui)16i61= (u1)est libre. En particulier,u16=0et doncu1endendre une droite vectorielleD=Vect(u1).

On veut que Vect(e1) =Vect(u1)et donc nécessairemente1∈Vect(u1). Par suite, il existeλ∈Rtel quee1=λu1. Ensuite,ke1k=kλu1k=|λ|ku1kpuiske1k=1⇒|λ|= 1

ku1k ⇒e1=± 1

ku1ku1(il n’y a plus que deux vecteurse1possibles mais l’unicité dee1n’est pas encore assurée).

Enfin,hu1, e1i=λhu1, u1i=λku1k2. Par suite,hu1, e1i> 0⇒λku1k2> 0⇒λ > 0carku1k2> 0. Donc, nécessairement, e1= 1

ku1ku1.

Ceci montre l’unicité du vecteure1. Réciproquement,e1est un vecteur non nul de la droite Vect(u1)et donc Vect(e1) =Vect(u1).

Ensuite,ke1k= 1

ku1kku1k=1. Enfin,hu1, e1i= 1

ku1k× ku1k2=ku1k> 0. Donc, le vecteure1convient.

•Soitn>1. Supposons le résultat acquis pourn. Soit(u1, . . . , un, un+1)une famille libre den+1vecteurs deE.

En particulier,(u1, . . . , un)une famille libre denvecteurs deE. Par hypothèse de récurrence, il existe une famille orthonormale (e1, . . . , en)et une seule verifiant : pour toutk∈J1, nK, Vect(ei)16i6k=Vect(ui)16i6k et pour toutk∈J1, nK,hek, uki> 0.

Il reste à vérifier l’existence et l’unicité deen+1tel que(e1, . . . , en, en+1)soit orthonormale, puis Vect(e1, . . . , en, en+1) =Vect(u1, . . . , un, un+1)ethun+1, en+1i> 0.

Nécessairement,en+1∈Vect(e1, . . . , en, en+1) =Vect(u1, . . . , un, un+1) =Vect(e1, . . . , en, un+1)et donc il existe des réelsλ1, . . . ,λn etλtels queen+1=λun+1+

Xn

i=1

λiei. Soiti∈J1, nK. Nécessairement,

0=hen+1, eii=λhun+1, eii+ Xn j=1

λjhej, eii=λhun+1, eii+λi (∗) et doncλi= −λhun+1, eiipuisen+1=λen+1

en+1 =un+1− Xn

i=1

hun+1, eiiei. Le vecteuren+1 =un+1

Xn

i=1

hun+1, eiieine peut être nul car dans le cas contraire,un+1∈Vect(e1, . . . , en) =Vect(u1, . . . , un) ce qui contredit la liberté de la famille(u1, . . . , un, un+1). L’égalitéken+1k=1impose|λ|= 1

en+1

puisen+1=± 1 en+1

en+1

(de nouveau, il n’y a plus que deux possibilités pouren+1et c’est la condition de signehun+1, en+1i> 0qui va nous permettre de choisir entre ces deux possibilités). On a

hun+1, en+1 i=hun+1, un+1− Xn

i=1

hun+1, eiieii=kun+1k2− Xn

i=1

hun+1, eii2. Vérifions que la dernière quantité est strictement positive. Mais,

(18)

un+1− Xn i=1

hun+1, eiiei

2

= un+1− Xn i=1

hun+1, eiiei

!

un+1− Xn j=1

hun+1, ejiej

=kun+1k2−2hun+1, Xn

i=1

hun+1, eiieii+ Xn

i=1

hun+1, eiiei

!

 Xn

j=1

hun+1, ejiej

=kun+1k2−2 Xn

i=1

hun+1, eii2+ X

16i,j6n

hun+1, eiihun+1, ejihei, eji

=kun+1k2−2 Xn i=1

hun+1, eii2+ Xn i=1

hun+1, eii2=kun+1k2− Xn

i=1

hun+1, eii2=hun+1, en+1 i.

Donc,hun+1, en+1 i=

un+1− Xn

i=1

hun+1, eiiei

2

> 0(carun+1− Xn

i=1

hun+1, eiiei6=0). Or,hun+1, en+1i=λhun+1, en+1 i. La conditionhun+1, en+1i> 0et le fait quehun+1, en+1 i> 0imposeλ > 0puisen+1= 1

en+1

en+1 . Ceci montre l’unicité du vecteuren+1.

Il reste à vérifier que le vecteuren+1convient. Le vecteuren+1est bien défini (caren+1 6=0) et unitaire. Les égalités(∗)montrent queen+1est orthogonal aux vecteurse1, . . . ,en et finalement, la famille(e1, . . . , en, en+1)est orthonormale. Ensuite,

Vect(e1, . . . , en, en+1) =Vect e1, . . . , en, en+1

=Vect e1, . . . , en, un+1− Xn

i=1

hun+1, eiiei

!

=Vect(e1, . . . , en, un+1)

=Vect(u1, . . . , un, un+1).

Enfin,hun+1, en+1i= 1 en+1

hun+1, en+1 i= 1 en+1

un+1− Xn

i=1

hun+1, eiiei

2

=ken+1 k> 0car la famille (u1, . . . , un, un+1) est libre. Donc, le vecteuren+1convient.

L’existence et l’unicité de la famille(e1, . . . , en)est démontrée par récurrence.

➱ Commentaire.

⋄ La démonstration précédente commence par le cas n=1où on apprend pour un vecteur non nul udonné à créer un vecteur e unitaire, colinéaire àuet de même sens queu: « on divise upar sa norme ». On dit que l’on anorméle vecteuru.

⋄ La démonstration aurait été certainement plus brève si on n’avait pas voulu à tout prix l’unicité de la famille(e1, . . . , en)grâce à la condition∀k∈J1, nK,huk, eki> 0.

⋄ A ce stade du chapitre, on n’a pas les moyens de comprendre la signification du vecteurun+1− Xn

i=1

hun+1, eiiei ou aussi de com-

prendre pourquoi on a considéré l’expression

un+1− Xn

i=1

hun+1, eiiei

2

. On ne peut que constater que ça marche. Nous reviendrons plus loin sur la signification géométrique de ces calculs, dans le paragraphe « projection orthogonale ».

⋄ Si la famille(u1, . . . , un)est déjà orthonormée, il est clair que son orthonormalisée est elle-même. Plus généralement, si la famille (u1, . . . , un)est orthogonale (et libre), son orthonormalisée est la famille

1

ku1ku1, . . . , 1 kunkun

.

⋄ On note enfin que si F=Vect(u1, . . . , un) où(u1, . . . , un) est libre, alors(u1, . . . , un)est une base de Fet son orthonormalisée (e1, . . . , en)est une base orthonormée de F(puisque d’autre part,F=Vect(e1, . . . , en)).

Définition 12. Soit (E,h , i) un espace préhilbertien réel. Soient n ∈ N puis (ui)16i6n une famille libre de n vecteurs deE.

La famille (e1, . . . , en) du théorème 14 s’appelle l’orthonormalisée de Schmidt (ou plus simplement l’orthonormalisée) de la famille(ui)16i6n.

On doit absolument mémoriser :

Références

Documents relatifs

De plus, les valeurs propres d’une matrice sont celles de tout endomorphisme qu’elle est susceptible de repr´ esenter dans une base.. En particulier, deux matrices semblables ont

explicatives xi donne les coefficients de distorsion des corrélations entre les estimateurs des coefficients de régression : un coefficient de corrélation élevé

cette matrice étant triangulaire inférieure, ses valeurs propres sont les coecients de sa diagonale : 4, 1 et

La présentation, la lisibilité et la qualité de la rédaction entreront pour une part importante dans l'appréciation des copies.. L'utilisation de toute calculatrice, de tout

Montrer que, si l’application lin´ eaire ϕ a,b est surjective, alors le syst` eme (S a,b ) admet une unique solution.. D´ eterminer l’ensemble des param` etres (a, b) tels que le

Le produit de deux matrices antisymétriques soit une matrice

Ici, au regard de la définition de la matrice M, on peut s’intéresser à la résolution d’un système en tirant parti de la structure en bloc de

Les valeurs propres complexes d’une matrice réelle orthogonale ont pour