• Aucun résultat trouvé

ALG`EBRE BILIN´EAIRE

N/A
N/A
Protected

Academic year: 2022

Partager "ALG`EBRE BILIN´EAIRE"

Copied!
46
0
0

Texte intégral

(1)

ALG` EBRE BILIN´ EAIRE

I PRODUIT SCALAIRE

1. D´ efinitions 2. Caract´ erisations 3. Premi` eres propri´ et´ es 4. Des exemples

5. Norme euclidienne associ´ ee ` a un produit scalaire 6. Vecteur unitaire

II ORTHOGONALIT´ E

1. Premiers ´ el´ ements

2. Bases orthogonales et bases orthonormales ou orthonorm´ ees

3. Orthogonal d’un sous-espace vectoriel d’un espace vectoriel euclidien 4. Un exemple classique

III CONSTRUCTION DE BASES ORTHOGONALES ET DE BASES ORTHONORM´ EES

1. L’aspect th´ eorique

2. L’aspect pratique version 1 3. L’aspect pratique version 2 4. Dans un concours

IV PROJECTION ORTHOGONALE

1. D´ efinition

2. Premi` eres caract´ erisations

3. Expression de la projection orthogonale

pF

dans une base orthonorm´ ee de

F

4. L’aspect pratique

5. Le th´ eor` eme fondamental : la caract´ erisation d’une projection orthogonale par min- imisation de la norme

6. Une remarque importante

7. Une application du th´ eor` eme fondamental. M´ ethode des moindres carr´ es

(2)

V ENDOMORPHISMES ET MATRICES SYM ´ ETRIQUES

0. Quelques rappels sur les matrices sym´ etriques (resp. antisym´ etriques) 1. D´ efinition d’un endomorphisme sym´ etrique

2. Caract´ erisation des endomorphismes sym´ etriques 3. Quelques propri´ et´ es

4. Une nouvelle caract´ erisation des projections orthogonales

5. R´ eduction d’un endomorphisme sym´ etrique et d’une matrice sym´ etrique

6. L’aspect pratique de la r´ eduction des endomorphismes et des matrices sym´ etriques

VI SAVOIR FAIRE VII COMPL´ EMENTS

1. ´ Egalit´ e dans l’in´ egalit´ e triangulaire

2. Matrice d’un endomorphisme sym´ etrique des une base orthonorm´ ee 3. Une caract´ erisation des bases orthonorm´ ees

4. Un peu plus sur les matrices orthogonales 5. Matrice d’un produit scalaire

6. Encore des propri´ et´ es des endomorphismes sym´ etriques 7. Caract´ erisations des matrices sym´ etriques

8. Caract´ erisation des projections orthogonales again 9. Encadrement de Rayleigh

10. Matrices sym´ etriques positives (resp. d´ efinies positives)

11. Racine carr´ ee sym´ etrique et positive (resp. d´ efinie positive) d’une matrice sym´ e- trique et positive (resp. d´ efinie positive) de

Mn(R)

12. R´ ealisation de la distance d’un vecteur ` a un sous-espace dans un espace pr´ ehilber- tien

13. Adjoint d’un endomorphisme d’un espace vectoriel euclidien 14. Endomorphisme orthogonal

15. Base orthonorm´ ee de

Rn[X]

eduite de la base canonique

(1,X, . . . ,Xn)

de

Rn[X]

par le proc´ ed´ e d’orthonormalisation de Schmidt

16. D´ ecomposition polaire d’une matrice inversible de

Mn(R)

17. D´ ecomposition d’Iwasawa d’une matrice inversible de

Mn(R)

18. D´ ecomposition de Cholesky d’une matrice sym´ etrique d´ efinie positive

19. Th´ eor` eme de Courant-Fischer

(3)

20. Endomorphismes antisym´ etriques

21. D´ ecomposition spectrale d’une matrice sym´ etrique 22. Caract´ erisation des normes euclidiennes

VIII DES ERREURS ` A ´ EVITER

IX PRATIQUES OU RH´ ETORIQUES USUELLES TOUTES FAITES

1. Produit scalaire

2. Orthogonal d’un sous-espace

3. Diagonalisation d’un endomorphisme sym´ etrique

4. Diagonalisation d’une matrice sym´ etrique ` a coefficients r´ eels

X LES BONS COUPS DE BILI-N ´ EAIRE THE KID

POUR AM ´ ELIORER TON EUCLIDIENNE ATTITUDE

(4)

ALG` EBRE BILIN´ EAIRE

ISi vous trouvez quelques ”coquilles” dans ces feuilles merci de me les signaler (jean-francois.cossutta@wanadoo.fr).

P

Mentionne des r´esultats particuli`erement utiles et souvent oubli´es dans la pratique de l’alg`ebre bilin´eaire...

⋆ Mentionne des erreurs `a ne pas faire ou des hypoth`eses importantes ou des mises en garde.

SD

Mentionne des r´esultats qu’il serait bon de savoir d´emontrer.

Dans ce qui suit, sauf mention du contraire, E est un espace vectoriel sur R .

Notons que le programme d’alg`ebre bilin´eaire de 2014 est tr`es proche du pr´ec´edent.

I PRODUIT SCALAIRE

I

1. D´ efinitions

D´ef. 1 On appelleproduit scalairesurE toute application φdeE×E dansRv´erifiant :

1. (x, y, z)∈E3, ∀λ∈R, φ(λ x+y, z) =λ φ(x, z) +φ(y, z) (φest lin´eaire `a gauche).

2. (x, y, z)∈E3, ∀λ∈R, φ(x, λ y+z) =λ φ(x, y) +φ(x, z) (φest lin´eaire `a droite) . 3. (x, y)∈E2, φ(y, x) =φ(x, y) (φest sym´etrique).

4. ∀x∈E, φ(x, x)>0 (φest positive).

5. ∀x∈E, φ(x, x) = 0 =⇒x= 0E (φest d´efinie).

Ainsi un produit scalaire surE estune forme bilin´eaire sur E, sym´etrique et d´efinie positive.

Dans toute la suite nous utiliserons, le plus souvent la notation < ., . > pour d´esigner un produit scalaire. On trouve assez souvent les notations : (.|.) ou (., .).

D´ef. 2 On appelle espace pr´ehilbertien r´eel, tout couple (E, < ., . >) o`u E est un espace vectoriel surRet (x, y)→< x, y >un produit scalaire sur E.

On appelleespace vectoriel euclidien, tout espace pr´ehilbertien r´eel de dimension finie.

I

2. Caract´ erisations

Th. 1

P

Soit (x, y)→< x, y >une application deE2 dansR.

< ., . > est un produit scalaire surE si et seulement si :

1. (x, y, z)∈E3, ∀λ∈R, < λ x+y, z >=λ < x, z >+< y, z >.

2. (x, y)∈E2, < y, x >=< x, y >.

3. ∀x∈E, < x, x >>0.

4. ∀x∈E, < x, x >= 0 =⇒x= 0E.

(5)

Th. 2

P

Soit (x, y)→< x, y >une application deE2 dansR.

< ., . > est un produit scalaire surE si et seulement si :

1. (x, y, z)∈E3, ∀λ∈R, < x, λ y+z >=λ < x, y >+< x, z >.

2. (x, y)∈E2, < y, x >=< x, y >.

3. ∀x∈E, < x, x >>0.

4. ∀x∈E, < x, x >= 0 =⇒x= 0E.

⋆ Notons donc que< ., . >lin´eaire `a gauche (resp `a droite) et sym´etrique donne< ., . >bilin´eaire et sym´etrique.

NNNDans toute la suite < ., . >est un produit scalaire surE donc (E, < ., . >) est un espace pr´ehilbertien r´eel.

Lorsque cela sera n´essaire, nous pr´eciserons siEest un espace euclidien. A d´efautEest donc un espace pr´ehilbertien.

I

3. Premi` eres propri´ et´ es

Prop. 1 1. ∀x∈E, < x,0E >=<0E, x >= 0.

2. (x, y)∈E2, <−x, y >=−< x, y >=< x,−y > .

Prop. 2

P

petq sont deux ´el´ements de N. (xi)16i6p et (yj)16j6q sont deux familles d’´el´ements de E.

i)16i6p et (µj)16j6q sont deux familles de r´eels. Alors :

<

p i=1

λixi,

q j=1

µjyj>=

p i=1

q j=1

λiµj < xi, yj>.

I

4. Des exemples

1 E=Rn. Six= (x1, x2, . . . , xn) ety= (y1, y2, . . . , yn) sont deux ´el´ements deRn, on pose :

< x, y >=

n k=1

xkyk.

< ., . > est un produit scalaire surRn. C’est le produit scalaire canonique deRn.

2 E=Mn,1(R). SiX =



x1

x2

... xn



et Y =



y1

y2

... yn



sont deux ´el´ements deMn,1(R), on pose :

< X, Y >=

n k=1

xkyk =tXY =tY X.

< ., . > est un produit scalaire surMn,1(R). C’est le produit scalaire canonique deMn,1(R).

3 E=Mn,p(R) . SiA= (aij) et B= (bij) sont deux ´el´ements deE on pose

< A, B >=

n i=1

p j=1

aijbij = tr(tA×B).

< ., . > est un produit scalaire surE. C’est le produit scalaire canonique deMn,p(R).

(6)

R

k=0 k=0

R

< P, Q >=

n k=0

akbk.

< ., . > est un produit scalaire surRn[X]. C’est le produit scalaire canonique deRn[X].

5 E=C([a, b],R) est l’espace vectoriel des fonctions num´eriques continues sur [a, b] (a < b) etpest une fonction num´erique continue et strictement positive sur [a, b].

Sif et gsont deux ´el´ements de E on pose :

< f, g >=

b a

f(t)g(t)p(t) dt.

< ., . > est un produit scalaire surE.

I

5. Norme euclidienne associ´ ee ` a un produit scalaire

Th. 3 L’in´egalit´e de Cauchy-Schwarz. Soient xet y deux ´el´ements de E.

1. |< x, y >|6

< x, x >√

< y, y > et (< x, y >)26< x, x > < y, y >.

2. |< x, y >|=

< x, x >√

< y, y >si et seulement si (x, y) est li´ee.

Cor. 1 x= (x1, x2, . . . , xn) ety= (y1, y2, . . . , yn) sont deux ´el´ements deRn.

n k=1

xkyk6 vu ut∑n

k=1

x2k vu ut∑n

k=1

y2k.

(∑n

k=1

xkyk )2

6

n k=1

x2k

n k=1

y2k.

Cor. 2 Soitf et gdeux fonctions num´eriques continues sur [a, b].

b a

f(t)g(t) dt6

√∫ b a

f2(t) dt

√∫ b a

g2(t) dt.

( ∫ b

a

f(t)g(t) dt )2

6

b a

f2(t) dt

b a

g2(t) dt.

D´ef. 3 On appellenormesur unK-espace vectorielE(K=RouC) toute applicationNdeEdansR+v´erifiant : N1 ∀x∈E, N(x) = 0⇐⇒x= 0E.

N2 ∀x∈E, ∀λ∈K, N(λx) =|λ|N(x).

N3 (x, y)∈E2, N(x+y)6N(x) +N(y).

Th. 4etd´ef. 4 L’application qui `a tout ´el´ement xdeE associe

< x, x >est une norme sur E.

C’estla norme associ´ee au produit scalaire< ., . >. On parle denorme euclidienne.

Dans la suite nous noterons∥x∥la norme d’un ´el´ementxdeEc’est `a dire le r´eel positif

< x, x >, nous d´esignerons alors par∥·∥ la norme associ´ee au produit scalaire< ., . >.

(7)

Th. 5 • ∀x∈E, ∥x∥= 0⇔x= 0E.

• ∀x∈E, ∀λ∈R, ∥λx∥=|λ|∥x∥.

• ∀(x, y)∈E2, ∥x+y∥6∥x∥+∥y∥ (in´egalit´e de Minkovski).

Th. 6 In´egalit´e de Cauchy-Schwarz again xety sont deux ´el´ements deE.

1. |< x, y >|6∥x∥ ∥y∥ et (< x, y >)26∥x∥2∥y∥2. 2. |< x, y >|=∥x∥ ∥y∥si et seulement si (x, y) est li´ee.

Prop. 3 • ∀(x, y)∈E2,x∥ − ∥y∥6∥x+y∥6∥x∥+∥y∥.

• ∀(x, y)∈E2,x∥ − ∥y∥6∥x−y∥6∥x∥+∥y∥. Th. 7 Identit´es remarquables xety sont deux ´el´ements deE.

∥x+y∥2=∥x∥2+ 2< x, y >+∥y∥2. ∥x−y∥2=∥x∥22< x, y >+∥y∥2.

< x+y, x−y >=∥x∥2− ∥y∥2.

Th. 8 Encore une identit´e remarquable x1,x2, ...,xp sontp´el´ements de E.

∥x1+x2+· · ·+xp2=

p i=1

∥xi2+ 2 ∑

16i<j6p

< xi, xj>.

Th. 9 Identit´es de polarisation xety sont deux ´el´ements deE.

< x, y >= 1 2

[∥x+y∥2− ∥x∥2− ∥y∥2]

. < x, y >= 1 2

[∥x∥2+∥y∥2− ∥x−y∥2] .

< x, y >=1 4

[∥x+y∥2− ∥x−y∥2] .

Th. 10 Identit´e du parall´elogramme (x, y)∈E2, ∥x+y∥2+∥x−y∥2= 2∥x∥2+ 2∥y∥2. I

6. Vecteur unitaire

D´ef. 5 Unvecteur unitaire ou norm´edeE est un vecteur dont la norme vaut 1.

⋆ Au niveau des polynˆomes il ne faudra pas confondre les deux notions d’unitaire. Une bonne lecture du texte ou le contexte permettent de lever les ambiguit´es.

Prop. 4 1. Sixest un vecteur non nul deE, 1

∥x∥xest un vecteur unitaire deE.

2. Un droite vectorielle deE contient exactement deux vecteurs unitaires qui sont oppos´es.

(8)

II ORTHOGONALIT´ E

I

1. Premiers ´ el´ ements

D´ef. 6 1. On dit que deux ´el´ementsxetydeEsontorthogonauxsi leur produit scalaire est nul, autrement dit si< x, y >= 0.

2. Un´el´ement x de E est orthogonal `a une partie AdeE sixest orthogonal `a tous les ´el´ements de A.

3. Deux parties A et B de E sont orthogonalessi tout vecteur deA est orthogonal `a tout vecteur deB.

4. L’orthogonal d’une partie A de Eest l’ensemble des vecteurs deE orthogonaux `a A. On noteA cet orthogonal etA⊥⊥ l’orthogonal deA.

Th. 11 Th´eor`eme de Pythagore. xety sont deux ´el´ements deE xet ysont orthogonaux si et seulement si∥x+y∥2=∥x∥2+∥y∥2 ou :< x, y >= 0 ⇐⇒ ∥x+y∥2=∥x∥2+∥y∥2.

Prop. 5 Si (x1, x2, . . . , xn) est une famille d’´el´ements deE deux `a deux orthogonaux :

∥x1+x2+· · ·+xn2=∥x12+∥x22+· · ·+∥xn2.

Th. 12 1. E={0E}.

P

2. {0E} =E.

3. SoitF un sous-espace vectoriel de E.

•F est un sous-espace vectoriel deE.

•F∩F={0E}.

•F ⊂F⊥⊥.

P

E={0E}s’utilise souvent de la mani`ere suivante. Pour montrer qu’un vecteur deEest nul on montre qu’il est orthogonal `a tous les ´el´ements deE. Ou pour montrer que deux vecteursxetydeEsont ´egaux on montre quex−y est orthogonal `a tous les ´el´ements deE.

Prop. 6 F et Gsont deux sous-espaces vectoriels deE. F ⊂GdonneG⊂F.

Prop. 7

P

F et Gsont deux sous-espaces vectoriels deE. SiF etGsont orthogonaux alorsF∩G={0E}. Prop. 8 F et Gsont deux sous-espaces vectoriels deE. Les assertions suivantes sont ´equivalentes.

i)F etGsont orthogonaux.

ii) F⊂G. iii) G⊂F.

(9)

Prop. 9 F et Gsont deux sous-espaces vectoriels deE respectivement engendr´es par (u1, u2, . . . , up) et (v1, v2, . . . , vq).

P

1. F ={x∈E| ∀i∈[[1, p]], < x, ui>= 0}.

P

2. F et Gsont orthogonaux si et seulement si :(i, j)[[1, p]]×[[1, q]], < ui, vj>= 0.

I

2. Bases orthogonales et bases orthonormales ou orthonorm´ ees

D´ef. 7 Soit (xi)iI une famille d’´el´ements deE.

(xi)iI est unefamille orthogonaledeE si les ´el´ements de cette famille sont deux `a deux orthogonaux.

(xi)iI est unefamillle orthonormaleouorthonorm´eed’´el´ements deE si les ´el´ements de cette famille sont unitaires et deux `a deux orthogonaux.

Prop. 10 1. Toute famille orthogonale constitu´ee de vecteurs non nuls est libre.

2. Toute famille orthonorm´ee est libre.

D´ef. 8 On appellebase orthogonaledeE toute famille orthogonale deE qui en est une base.

On appelle base orthonormale ou orthonorm´eede E toute famille orthonormale ou orthonorm´ee deE qui en est une base.

Avant 2005 le programme parlait de base orthonormale. Entre 2005 et 2103 il parlait de base orthonorm´ee. Apr`es 2014 le programme mentionne les deux appellations. Qu’on se le dise...

Th. 13

PP

Les bases canoniques deRn,Mn,p(R),Mn,1(R),M1,n(R),Rn[X] sont othonorm´ees pour les produits scalaires canoniques de ces espaces vectoriels.

Th. 14

PP

SoitB= (e1, e2, . . . , en) une base orthonorm´ee deE. Soitxun ´el´ement deE.

x=

n k=1

< x, ek> ek.

Th. 15

PP

Soit B = (e1, e2, . . . , en) une base orthonorm´ee de E. Soient x et y deux vecteurs de E de coordonn´ees respectives (x1, x2, . . . , xn) et (y1, y2, . . . , yn) dans cette base. Soient X et Y les matrices de xet ydansB.

< x, y >=

n k=1

xkyk=tXY =tXY. ∥x∥= vu ut∑n

k=1

x2k =

tXX =∥X∥.

Prop. 11 B= (e1, e2, . . . , en) est une base d’un espace vectoriel r´eel E.

1. Il existe un produit scalaire< ., . >surEet un seul qui rend la baseB= (e1, e2, . . . , en) orthonorm´ee.

2. ∀x=

n k=1

xkek∈E, ∀y=

n k=1

ykek ∈E, < x, y >=

n k=1

xkyk.

3. Dans les espaces vectoriels r´eels usuels, le produit scalaire canonique est celui qui rend la base canonique orthonorm´ee.

D´ef. 9 Une matriceP deMn(R) estorthogonale si elle v´erifiePtP =tP P =In.

(10)

transpos´ee.

Th. 16 Changement de bases orthonorm´ees.

SoitB= (e1, e2, . . . , en) etB= (e1, e2, . . . , en) deux bases orthonorm´ees deE.

La matrice de passageP deB`a B est orthogonale. AinsiPtP =tP P =In etP1=tP.

Prop. 13

SoitB= (e1, e2, . . . , en) une base orthonorm´ee deE. SoitB= (e1, e2, . . . , en) une familled’´el´ements deE.

SoitP la matrice de la familleB dans la baseB.

B est une base orthonorm´ee deE si et seulement siP est une matrice orthogonale.

Th. 17 Dans un espace vectoriel euclidien on peut compl´eter une famille orthonorm´ee en une base orthonorm´ee.

Th. 18 Tout espace vectoriel euclidien de dimension non nulle poss`ede une base orthonorm´ee.

Th. 19 On suppose queEest de dimension n .

1. Toute famille orthogonale de n vecteurs non nuls deE est une base orthogonale deE.

2. Toute famille orthonorm´ee de n vecteurs deE est une base orthonorm´ee de E.

I

3. Orthogonal d’un sous-espace vectoriel d’un espace vectoriel euclidien

Th. 20 SoitF un sous-espace vectoriel d’un espace vectoriel euclidien E .

E=F⊕F et F⊥⊥=F .

•F est l’unique suppl´ementaire deF orthogonal `aF.

P SD

Ce r´esultat ne vaut pas dans un espace pr´ehilbertien r´eel quelconque. N´eanmoins il reste vrai dans le cas important o`uEest un espace pr´ehilbertien r´eel et o`uF est un sous-espace vectoriel deEde dimension finie.

⋆⋆ Si F et Gsont deux sous-espaces vectoriels orthogonaux deE, on ´evitera de dire queG=F ouF =G. F etGorthogonaux signifieF⊂G ou (et ! !) G⊂F. Cependant :

Prop. 14 Si F et Gsont deux sous-espaces vectoriels de E orthogonaux et suppl´ementaires alorsG=F (etF =G).

⋆ Notons que ce r´esultat vaut dans un pr´elhibertien mais pas sa r´eciproque.

Prop. 15

P

F est un sous-espace vectoriel de l’espace vectoriel euclidienE distinct de{0E} etE.

Si B est une base orthonorm´ee de F etB′′ est une base orthonorm´ee de F alorsB∪ B′′ est une base orthonorm´ee deE.

Prop. 16

P

F est un sous-espace vectoriel de l’espace vectoriel euclidienE distinct de{0E} et deE.

Soit (e1, e2, . . . , ep) une base orthonorm´ee deF qui se compl`ete en une base orthonorm´ee (e1, e2, . . . , en) deE.

Fest le sous-espace vectoriel deEengendr´e par (ep+1, ep+2, . . . , en). Mieux (ep+1, ep+2, . . . , en) est une base orthonorm´ee deF.

(11)

Prop. 17

P

B= (e1, e2, . . . , en) est une base orthonorm´ee deE. a1,a2, ...,an sontnr´eels non tous nuls.

1. L’orthogonal de la droite vectorielle engendr´ee para1e1+a2e2+· · ·+anen est l’hyperplan d’´equation a1x1+a2x2+· · ·+anxn = 0 dansB.

2. L’orthogonal de l’hyperplan d’´equationa1x1+a2x2+· · ·+anxn = 0 dansB est la droite vectorielle engendr´ee para1e1+a2e2+· · ·+anen.

I

4. Un exemple classique

Prop. 18 Dans Mn(R), pour le produit scalaire canonique, l’orthogonal du sous-espace vectorielSn(R) des ma- trices sym´etriques deMn(R) est le sous-espace vectorielAn(R) des matrices antisym´etriques deMn(R).

DansMn(R), pour le produit scalaire canonique, l’orthogonal du sous-espace vectorielAn(R) des ma- trices antisym´etriques deMn(R) est le sous-espace vectorielSn(R) des matrices sym´etriques deMn(R).

Prop. 19 Le sous-espace vectoriel des matrices sym´etriques de Mn(R) et le sous-espace vectoriel des matrices antisym´etriques deMn(R) sont suppl´ementaires et orthogonaux dansMn(R) muni du produit scalaire canonique.

Mn(R) =Sn(R)

An(R) . Rappelons que dimSn(R) =n(n+ 1)

2 et dimAn(R) =n(n1)

2 ·

(12)

III CONSTRUCTION DE BASES ORTHOGONALES ET DE BASES ORTHONORM´ EES

I

1. L’aspect th´ eorique

Th. 1 Soit (u1, u2, . . . , un) une base quelconque deE.

Il existe une base orthonorm´ee deEet une seule (w1, w2, . . . , wn) telle que pour toutkappartenant `a [[1, n]] :

1. Vect(w1, w2, . . . , wk) = Vect(u1, u2, . . . , uk).

2. < wk, uk >est strictement positif.

(w1, w2, . . . , wn) est LA base orthonorm´ee d´eduite de (u1, u2, . . . , un) par le proc´ed´e d’orthonormalisation de Schmidt.

Il convient de noter que :

•w1est LEvecteur unitaire de Vect(u1) qui v´erifie< w1, u1> >0.

Pour toutk´el´ement de [[2, n]],wkestLEvecteur unitaire de la droite vectorielle constitu´ee par l’orthogonal de Vect(u1, u2, . . . , uk1) dans Vect(u1, u2, . . . , uk) qui v´erifie< wk, uk > >0.

I

2. L’aspect pratique version 1

P

On se replace dans la situation du th´eor`eme pr´ec´edent.

Pour construire la base (w1, w2, . . . , wn) on utilise la m´ethode de Schmidt bas´ee sur l’algorithme suivant.

On construit d’abordw1. Pour cela on posew1=λ u1 et on chercheλtel que∥w1= 1 et< w1, u1>>0.

Supposons que l’on ait construit (w1, w2, . . . , wk1) pour kdans [[2, n1]]. On construit alorswk. Pour cela on posewk =λ1w1+λ2w2+· · ·+λk1wk1+λkuk.

En ´ecrivant quewk est orthogonal `awi on exprimeλi en fonction deλk pour toutidans [[1, k1]].

On trouve alorsλk en utilisant∥wk= 1 et< wk, uk>>0.

Notons que :w1= 1

∥u1∥u1 et∀k∈[[2, n]], wk = 1

∥tk∥tk avectk =uk

k1

i=1

< uk, wi> wi. I

3. L’aspect pratique version 2

Le conseil du CoachLa m´ethode pr´ec´edente est int´eressante mais assez lourde. La machine le fait tr`es bien nous un peu moins bien... Le fait de normer les vecteurs `a chaque ´etape complique les calculs et les expressions. Le mieux est donc de commencer par construire “une” base orthogonale et d’en d´eduire la base orthonorm´ee mentionn´ee dans le r´esultat th´eorique en multipliant chacun des vecteurs par l’inverse de leur norme. Ce qui suit propose une m´ethode pour r´ealiser cet objectif.

(13)

PP

Soit (u1, u2, . . . , un) une base quelconque de E.

Pour construire cette base orthogonale (v1, v2, . . . , vn) `a partie de (u1, u2, . . . , un) on proc`ede de la mani`ere suivante.

On posev1=u1.

Supposons que l’on ait construit (v1, v2, . . . , vk1) famille orthogonale deE telle que : Vect(v1, v2, . . . , vk1) = Vect(u1, u2, . . . , uk1) (k[[1, n1]]).

On construit alorsvk. Pour cela on posevk =uk+λ1v1+λ2v2+· · ·+λk1vk1. En ´ecrivant quevk est orthogonal `a vi on calculeλi pour toutidans [[1, k1]].

On obtient alorsvk =uk

k1

i=1

< uk, vi>

< vi, vi> vi=uk

k1

i=1

< uk, vi>

∥vi2 vi. Th. 2 Soit (u1, u2, . . . , un) une base quelconque deE.

Soit (v1, v2, . . . , vn) la famille d’´el´ements deE d´efinie par la r´ecurrence suivante : v1=u1et ∀k∈[[2, n]], vk =uk

k1

i=1

< uk, vi>

< vi, vi> vi=uk

k1

i=1

< uk, vi >

∥vi2 vi.

1. (v1, v2, . . . , vn) est une base orthogonale deE telle que :

∀k∈[[1, n]], Vect(v1, v2, . . . , vk) = Vect(u1, u2, . . . , uk).

2. Posons∀k∈[[1, n]], wk= 1

∥vk∥vk. (w1, w2, . . . , wn) est l’unique base orthonorm´ee deE telle que : 1. Vect(w1, w2, . . . , wk) = Vect(u1, u2, . . . , uk).

2. < wk, uk >est strictement positif.

PP

La pratique pour les esprits simples...

Soit (u1, u2, . . . , un) une base quelconque deE.

Pour construire une base orthonorm´ee (w1, w2, . . . , wn) `a partie de (u1, u2, . . . , un) on proc`ede de la mani`ere suiv- ante.

Etape 1 On pose´ v1=u1.

Etape 2 On pose´ v2=u2+α v1et on cherche αpour quev2soit orthogonal `a v1.

Etape 3 On pose´ v3=u3+β v1+γ v2et on cherche β etγ pour quev3 soit orthogonal `av1et v2. Et ainsi de suite...

Ne reste plus qu’ `a poser, pour toutkdans [[1, n]],wk = 1

∥vk∥vk. (w1, w2, . . . , wn) est une base orthonorm´ee deE.

Mieux c’est LA base orthonorm´ee deEd´eduite de (u1, u2, . . . , un) par le proc´ed´e d’orthonormalisation de Schmidt.

I

4. Dans un concours

Dans les concours les deux questions classiques sont :

Construire la base orthonorm´ee d´eduite de (u1,u2, . . . ,un) par le proc´ed´e d’orthonormalisation de Schmidt.

Montrer que (w1,w2, . . . ,wn) est la base orthonorm´ee d´eduite de (u1, u2, . . . , un) par le proc´ed´e d’orthonormalisation de Schmidt.

(14)

IV PROJECTION ORTHOGONALE

Dans cette section, sauf mention du contraire,E est un espace vectoriel euclidien .

On note< ., . >le produit scalaire d´efini surEet∥.∥la norme associ´ee. On rappelle alors que siF est un sous-espace vectoriel deE,F etF sont suppl´ementaires.

I

1. D´ efinition

D´ef. 1 SoitF un sous-espace vectoriel de l’espace vectoriel euclidienE. Laprojection orthogonalesurF n’est autre que la projection surF parall`element `aF.

⋆ Si F est un sous-espace vectoriel de l’espace pr´ehilbertien E on peut d´efinir la projection orthogonale surF d`es que F est un suppl´ementaire de F dansE. C’est par exemple le cas siF est de dimension finie.

I

2. Premi` eres caract´ erisations

Prop. 1 F est un sous-espace vectoriel de l’espace vectoriel euclidienE. pF est la projection orthogonale surF. Sixet y sont deux ´el´ements deE:

pF(x) =y ⇐⇒

{y∈F

x−y∈F .

En clair les propri´et´espF(x)∈F et x−PF(x)∈F sont caract´eristiques de la projection orthogonale dexsurF.

Th. 3

PP

F est un sous-espace vectoriel de l’espace vectoriel euclidienE. pF est la projection orthogonale surF.

Sixety sont deux ´el´ements deE:

pF(x) =y ⇐⇒

{y∈F

∀z∈F, < x−y, z >= 0 .

On retiendra de ce r´esultat qu’il n’est pas n´ecessaire de connaˆıtre F pour trouver la projection orthogonale de x sur F.

I

3. Expression de la projection orthogonale

pF

dans une base orthonorm´ ee de

F

.

Th. 4

PP

F est un sous-espace vectoriel deE et (u1, u2, . . . , up) est une base orthonorm´ee deF . pF est la projection orthogonale sur F. Pour tout ´el´ementxdeE:

pF(x) =

p k=1

< x, uk> uk.

⋆ J’ai not´epla dimension deF alors que c’estkdans programme... Mais j’assume...

(15)

Th. 5

P

E est un espace vectoriel euclidien etBest unebase orthonorm´eedeE.

F est un sous-espace vectoriel deE et (u1, u2, . . . , up) est une base orthonorm´ee deF.

Pour toutkdans [[1, p]],Uk est la matrice deuk dans la baseB. pF est la projection orthogonale surF. Alors la matrice depF dans la baseB est

p k=1

UktUk, donc MB(pF) =

p k=1

UktUk.

Notons que ce r´esultat est un ”+” du programme 2014.

Cor. 1

P

Dest une droite vectorielle de Eet pD est la projection orthogonale sur D.

Siuestun vecteur unitaire de D, pour tout ´el´ement xdeE: pD(x) =< x, u > u.

Siuest un vecteur non nul de D, pour tout ´el´ementxdeE: pD(x) =< x, u >

∥u∥2 u.

Cor. 2

P

Eest un espace vectoriel euclidien de dimension nsup´erieure ou ´egale `a 2. H est un hyperplan deE etpH est la projection orthogonale surH.

Siuestun vecteur unitaire orthogonal `a H, pour tout ´el´ement xdeE: pH(x) =x−< x, u > u.

Siuestun vecteur non nul orthogonal `a H, pour tout ´el´ementxdeE: pH(x) =x−< x, u >

∥u∥2 u.

I

4. L’aspect pratique

P

(E, < ., . >) est un espace vectoriel euclidien (ou un pr´ehilbertien....). F est un sous-espace vectoriel deE etpF est la projection orthogonale surF. (u1, u2, . . . , up) est une basequelconquedeF.

xest un ´el´ement de E. Pour trouverpF(x) on peut :

M1 UtiliserpF(x)∈F etx−pF(x)∈F (resp. pF(x)∈F et∀z∈F, < x−pF(x), z >= 0).

M2 Construire une base orthonorm´ee (w1, w2, . . . , wp) deF et utiliser :pF(x) =

p k=1

< x, wk > wk.

M3 PoserpF(x) =

p k=1

xkuk. On cherche alors (x1, x2, . . . , xp) en ´ecrivant quex−pF(x) est orthogonal

`

a F donc `a tous les ´el´ements de la base (u1, u2, . . . , up) deF. On obtient rapidement :

∀i∈[[1, p]], < x, ui>=< pF(x), ui >=

p k=1

< uk, ui> xk=

p k=1

< ui, uk > xk.

Ceci donne un syst`eme lin´eaire dep´equations `apinconnues que l’on r´esout.

Ce syst`eme s’´ecrit matriciellementAX=B o`uA= (< ui, uj>),X=



x1 x2 ... xp



etB=



< x, u1>

< x, u2>

...

< x, up>



.

A est une matrice inversible de Mp(R) (A est la matrice de la restriction du produit scalaire `a F dans la base (u1, u2, . . . , up)). Le syst`eme admet donc une solution et une seule (ce qui n’est pas un scoop...).

Ne pas oublier de regarder au pr´ealable siF est un hyperplan. Dans ce cas on d´eterminepF (Fest une droite vectorielle...) et on utilisepF = IdE−pF.

(16)

imisation de la norme

D´ef. 2 SoientAune partie non vide d’un espace pr´ehilbertienE etxun ´el´ement deE.

La distance de x `a Aest la borne inf´erieure de l’ensemble{∥x−z∥;z∈A}. On la noted(x,A).

d(x, A) = Inf

zA∥x−z∥.

⋆ Il convient de remarquer qued(x, A) existe toujours car{∥x−z∥; z∈A} est une partie non vide et minor´ee de R mais qu’il n’existe pas toujours un ´el´ement a deA tel que d(x, A) = ∥x−a∥. Autrement dit Min

zA∥x−z∥ n’existe pas toujours.

Th. 6 ”Th´eor`eme de meilleure approximation”

SoitF un sous-espace vectoriel de l’espace vectoriel euclidien EetpF (resp. pF) la projection orthog- onale surF (resp. F).

Soitxun ´el´ement deE.

1. • ∀z∈F, ∥x−pF(x)6∥x−z∥.

Si test un ´el´ement deF tel que :∀z∈F, ∥x−t∥6∥x−z∥ alorst=pF(x).

2. Autrement dit Min

zF∥x−z∥ existe et vaut ∥x−pF(x). De pluspF(x) est l’unique ´el´ement de F qui r´ealise ce minimum.

pF(x) est donc l’unique ´el´ement de F tel que d(x, F) =∥x−pF(x).

La projection orthogonale dexsurF estla meilleure approximation dexpar un ´el´ement deF. 3. d2(x, F) =∥x−pF(x)2=∥x∥2− ∥pF(x)2=∥x∥2−< x, pF(x)>=∥pF(x)2.

⋆ On est pri´e de remarquer que ce th´eor`eme contient 3 choses.

L’EXISTENCE d’un minimum pour la partie{∥x−z∥ |z∈F}deR+.

•pF(x) est l’unique ´el´ement deF qui r´ealise ce minimum ou qui ”r´ealise la distance dex`a F”.

Le carr´e de la distance dex`a F vaut∥x−pF(x)2 ou∥x∥2− ∥pF(x)2ou∥x∥2−< x, pF(x)>ou encore

∥pF(x)2.

P

Notons que la quantit´e∥x∥2−< x, pF(x)>est souvent la plus simple `a calculer.

La formulation du programme...

Th. 7 Caract´erisation de la projection orthogonale par minimisation de la norme.

SoitF un sous-espace vectoriel de l’espace vectoriel euclidien E etpF la projection orthogonale surF. xety sont deux ´el´ements deE.

y=pF(x)⇐⇒y∈F et ∥x−y∥= Inf

zF∥x−z∥ ou y=pF(x)⇐⇒y∈F et ∥x−y∥= Min

zF∥x−z∥. I

6. Une remarque importante

⋆⋆ Il est important de savoir que ce qui pr´ec`ede vaut encore dans un espace pr´ehilbertien r´eel E pourvu que F ⊕F = E. Rappelons que c’est le cas lorsque F est de dimension finie. D’o`u l’importance de connaˆıtre les d´emonstrations de ces r´esultats que les concepteurs recyclent souvent lorsqu’ils souhaitent vous faire travailler dans les pr´ehilbertiens r´eels quelconques.

(17)

I

7. Une application du th´ eor` eme fondamental. M´ ethode des moindres carr´ es

Th. 8 M´ethode des moindres carr´es.

Aest un ´el´ement deMn,p(R) etB un ´el´ement de Mn,1(R). On suppose que le rang de A est p .

∥.∥est la norme deMn,1(R) associ´ee au produit scalaire canonique.

1. Min

X∈Mp,1(R)∥AX−B∥ existe.

2. Il existe un unique ´el´ement X0 deMp,1(R) tel que∥AX0−B∥= Min

X∈Mp,1(R)∥AX−B∥. 3. tAAest inversible.

4. X0= (tAA)1(tAB) ou tAAX0=tAB .

P

Pour trouver X0, il est pr´ef´erable de r´esoudre le syst`eme X0 ∈ Mp,1(R) et tAAX0 = tAB plutˆot que de calculer directement l’inverse detAA.

Notons que le programme de 2014 dit que”la formule donnant la valeur du point r´ealisant le minimum n’est pas exigible”. Alors il est sans doute utile d’apprendre `a la retrouver...

(18)

V ENDOMORPHISMES ET MATRICES SYM ´ ETRIQUES

I

0. Quelques rappels sur les matrices sym´ etriques (resp. antisym´ etriques)

D´ef. 3 SoitA= (ai,j) une matrice deMn(R) (ou deMn(K)).

Aestsym´etriquesitA=Aou si(i, j)[[1, n]]2, aj,i=ai,j.

Aestantisym´etriquesitA=−A ou si(i, j)[[1, n]]2, aj,i=−ai,j.

Prop. 2 L’ensemble des matrices sym´etriques deMn(K) est un sous-espace vectoriel deMn(K) de dimension n(n+ 1)

2 ·.

L’ensemble des matrices antisym´etriques deMn(K) est un sous-espace vectoriel deMn(K) de dimen- sion n(n−1)

2 sin>1.

Le sous-espace vectoriel des matrices sym´etriques deMn(K) et le sous-espace vectoriel des matrices antisym´etriques deMn(K) sont suppl´ementaires dans Mn(K).

Notons que siA ∈ Mn(R), A = 1 2

(

A+tA) +1

2 (

A−tA) , 1

2 (

A+tA)

est une matrice sym´erique de Mn(K) et 1

2 (

A−tA)

est une matrice antisym´erique deMn(K).

Prop. 3 DansMn(R), pour le produit scalaire canonique, l’orthogonal du sous-espace vectorielSn(R) des matrices sym´etriques deMn(R) est le sous-espace vectorielAn(R) des matrices antisym´etriques deMn(R).

DansMn(R), pour le produit scalaire canonique, l’orthogonal du sous-espace vectorielAn(R) des matrices antisym´etriques deMn(R) est le sous-espace vectorielSn(R) des matrices sym´etriques deMn(R).

Le sous-espace vectoriel des matrices sym´etriques de Mn(R) et le sous-espace vectoriel des matrices antisym´etriques de Mn(R) sont suppl´ementaires et orthogonaux dansMn(R) muni du produit scalaire canonique.

Mn(R) =Sn(R)

An(R).

I

1. D´ efinition d’un endomorphisme sym´ etrique

D´ef. 4 Soitf un endomorphisme deE. f estsym´etriquesi : (x, y)∈E2, < f(x), y >=< x, f(y)>.

I

2. Caract´ erisations des endomorphismes sym´ etriques

Prop. 4 Caract´erisation des endomorphismes sym´etriques

Eest de dimensionn(nN),B= (e1, e2, . . . , en) est une base deE etf un endomorphisme deE.

f est sym´etrique si et seulement si : (i, j)[[1, n]]2, < f(ei), ej >=< ei, f(ej)>.

Th. 9

PP

Caract´erisation fondamental des endomorphismes sym´etriques

IciE est de dimensionn(nN),Best une base orthonorm´ee deE etf un endomorphisme deE.

f est un endomorphisme sym´etrique de Esi et seulement si sa matrice dans la baseB est sym´etrique.

⋆⋆ Surtout ne pas oublier l’hypoth`eseBest une base orthonorm´ee

(19)

I

3. Quelques propri´ et´ es

Prop. 5 f est un endomorphisme sym´etriquedeE.

SiF est un sous-espace vectoriel deE stable parf,F est stable parf. Un petit ’+” du programme 2014...

Prop. 6 1. IdE et 0L(E)sont des endomorphismes sym´etriques deE.

2. Si f et g sont deux endomorphismes sym´etriques de E et si λ est un r´eel, λf et f +g sont des endomorphismes sym´etriques deE.

2’. L’ensemble des endomorphismes sym´etriques deE est un sous-espace vectoriel deL(E).

SiE est de dimensionnnon nul, l’ensemble des endomorphismes sym´etriques deE est un sous-espace vectoriel deL(E) de dimension n(n+ 1)

2 ·

3. Sif est un endomorphisme sym´etrique et bijectif de E, f1 est un endomorphisme sym´etrique (et bijectif) deE.

I

4. Une nouvelle caract´ erisation des projections orthogonales

Th. 10

P

pest une projection (ou un projecteur) deE.

pest une projection orthogonale (ou un projecteur orthogonal) si et seulement p est un endomorphisme sym´etrique.

Un petit ’+” du programme 2014...

Th. 11 pest un endomorphisme deE (ou une application deE dansE...).

pest une projection orthogonale deEsi et seulement sipest un endomorphisme sym´etrique deE v´erifiant p◦p=p.

Cor. Aest une matrice deMn(R).

Aest la matrice d’une projection orthogonale si et seulement siAest sym´etrique et v´erifieA2=A.

I

5. R´ eduction d’un endomorphisme sym´ etrique et d’une matrice sym´ etrique

Prop. 7 Soitf un endomorphisme sym´etrique deE.

1. Les sous-espaces propres def sont deux `a deux orthogonaux.

2. Si (uk)16k6p est une famille de vecteurs propres de f associ´es `a des valeurs propres deux `a deux distinctes alors la famille (uk)16k6p est une famille orthogonale deE.

Th. 12 Le th´eor`eme fondamental sur la r´eduction des endomorphismes sym´etriques.

Soitf un endomorphisme sym´etrique deEespace vectoriel euclidien de dimension finie non nulle.

1. f est diagonalisable.

2. Mieux, il existe une base orthonorm´ee deEconstitu´ee de vecteurs propres def(doncf se diagonalise dans une base orthonorm´ee).

Références

Documents relatifs

Expression de la projection orthogonale d’un vecteur sur une droite ou un plan de l’espace euclidien R 3 ; calcul de la matrice d’une telle projection orthogonale, ou d’une

Expression de la projection orthogonale d’un vecteur sur une droite ou un plan de l’espace euclidien R 3 ; calcul de la matrice d’une telle projection orthogonale, ou d’une

Expression de la projection orthogonale d’un vecteur sur une droite ou un plan de l’espace euclidien R 3 ; calcul de la matrice d’une telle projection orthogonale, ou d’une

L’usage de tout autre document est interdit..

Mais, bien que cela soit nettement moins connu, Fourier a aussi ´et´e un pr´ecurseur en statistiques ; encore plus fort, il a ´et´e le premier `a imaginer et d´ecrire l’effet de

De mani`ere g´en´erale, il convient d’expliquer soigneusement la d´emarche suivie, et pas seulement de d´erouler des calculs – ceux-ci peuvent souvent ˆetre guid´es par la

[r]

Nous nous proposons dans cette question de montrer qu’il n’existe pas d’isomorphisme entre E et E ∗ , qui v´ erifie une propri´ et´ e analogue.. Faisons la preuve