ALG` EBRE BILIN´ EAIRE
I PRODUIT SCALAIRE
1. D´ efinitions 2. Caract´ erisations 3. Premi` eres propri´ et´ es 4. Des exemples
5. Norme euclidienne associ´ ee ` a un produit scalaire 6. Vecteur unitaire
II ORTHOGONALIT´ E
1. Premiers ´ el´ ements
2. Bases orthogonales et bases orthonormales ou orthonorm´ ees
3. Orthogonal d’un sous-espace vectoriel d’un espace vectoriel euclidien 4. Un exemple classique
III CONSTRUCTION DE BASES ORTHOGONALES ET DE BASES ORTHONORM´ EES
1. L’aspect th´ eorique
2. L’aspect pratique version 1 3. L’aspect pratique version 2 4. Dans un concours
IV PROJECTION ORTHOGONALE
1. D´ efinition
2. Premi` eres caract´ erisations
3. Expression de la projection orthogonale
pFdans une base orthonorm´ ee de
F4. L’aspect pratique
5. Le th´ eor` eme fondamental : la caract´ erisation d’une projection orthogonale par min- imisation de la norme
6. Une remarque importante
7. Une application du th´ eor` eme fondamental. M´ ethode des moindres carr´ es
V ENDOMORPHISMES ET MATRICES SYM ´ ETRIQUES
0. Quelques rappels sur les matrices sym´ etriques (resp. antisym´ etriques) 1. D´ efinition d’un endomorphisme sym´ etrique
2. Caract´ erisation des endomorphismes sym´ etriques 3. Quelques propri´ et´ es
4. Une nouvelle caract´ erisation des projections orthogonales
5. R´ eduction d’un endomorphisme sym´ etrique et d’une matrice sym´ etrique
6. L’aspect pratique de la r´ eduction des endomorphismes et des matrices sym´ etriques
VI SAVOIR FAIRE VII COMPL´ EMENTS
1. ´ Egalit´ e dans l’in´ egalit´ e triangulaire
2. Matrice d’un endomorphisme sym´ etrique des une base orthonorm´ ee 3. Une caract´ erisation des bases orthonorm´ ees
4. Un peu plus sur les matrices orthogonales 5. Matrice d’un produit scalaire
6. Encore des propri´ et´ es des endomorphismes sym´ etriques 7. Caract´ erisations des matrices sym´ etriques
8. Caract´ erisation des projections orthogonales again 9. Encadrement de Rayleigh
10. Matrices sym´ etriques positives (resp. d´ efinies positives)
11. Racine carr´ ee sym´ etrique et positive (resp. d´ efinie positive) d’une matrice sym´ e- trique et positive (resp. d´ efinie positive) de
Mn(R)12. R´ ealisation de la distance d’un vecteur ` a un sous-espace dans un espace pr´ ehilber- tien
13. Adjoint d’un endomorphisme d’un espace vectoriel euclidien 14. Endomorphisme orthogonal
15. Base orthonorm´ ee de
Rn[X]d´ eduite de la base canonique
(1,X, . . . ,Xn)de
Rn[X]par le proc´ ed´ e d’orthonormalisation de Schmidt
16. D´ ecomposition polaire d’une matrice inversible de
Mn(R)17. D´ ecomposition d’Iwasawa d’une matrice inversible de
Mn(R)18. D´ ecomposition de Cholesky d’une matrice sym´ etrique d´ efinie positive
19. Th´ eor` eme de Courant-Fischer
20. Endomorphismes antisym´ etriques
21. D´ ecomposition spectrale d’une matrice sym´ etrique 22. Caract´ erisation des normes euclidiennes
VIII DES ERREURS ` A ´ EVITER
IX PRATIQUES OU RH´ ETORIQUES USUELLES TOUTES FAITES
1. Produit scalaire
2. Orthogonal d’un sous-espace
3. Diagonalisation d’un endomorphisme sym´ etrique
4. Diagonalisation d’une matrice sym´ etrique ` a coefficients r´ eels
X LES BONS COUPS DE BILI-N ´ EAIRE THE KID
POUR AM ´ ELIORER TON EUCLIDIENNE ATTITUDE
ALG` EBRE BILIN´ EAIRE
ISi vous trouvez quelques ”coquilles” dans ces feuilles merci de me les signaler (jean-francois.cossutta@wanadoo.fr).
P
Mentionne des r´esultats particuli`erement utiles et souvent oubli´es dans la pratique de l’alg`ebre bilin´eaire...⋆ Mentionne des erreurs `a ne pas faire ou des hypoth`eses importantes ou des mises en garde.
SD
Mentionne des r´esultats qu’il serait bon de savoir d´emontrer.Dans ce qui suit, sauf mention du contraire, E est un espace vectoriel sur R .
Notons que le programme d’alg`ebre bilin´eaire de 2014 est tr`es proche du pr´ec´edent.
I PRODUIT SCALAIRE
I
1. D´ efinitions
D´ef. 1 On appelleproduit scalairesurE toute application φdeE×E dansRv´erifiant :
1. ∀(x, y, z)∈E3, ∀λ∈R, φ(λ x+y, z) =λ φ(x, z) +φ(y, z) (φest lin´eaire `a gauche).
2. ∀(x, y, z)∈E3, ∀λ∈R, φ(x, λ y+z) =λ φ(x, y) +φ(x, z) (φest lin´eaire `a droite) . 3. ∀(x, y)∈E2, φ(y, x) =φ(x, y) (φest sym´etrique).
4. ∀x∈E, φ(x, x)>0 (φest positive).
5. ∀x∈E, φ(x, x) = 0 =⇒x= 0E (φest d´efinie).
Ainsi un produit scalaire surE estune forme bilin´eaire sur E, sym´etrique et d´efinie positive.
Dans toute la suite nous utiliserons, le plus souvent la notation < ., . > pour d´esigner un produit scalaire. On trouve assez souvent les notations : (.|.) ou (., .).
D´ef. 2 •On appelle espace pr´ehilbertien r´eel, tout couple (E, < ., . >) o`u E est un espace vectoriel surRet (x, y)→< x, y >un produit scalaire sur E.
•On appelleespace vectoriel euclidien, tout espace pr´ehilbertien r´eel de dimension finie.
I
2. Caract´ erisations
Th. 1
P
Soit (x, y)→< x, y >une application deE2 dansR.< ., . > est un produit scalaire surE si et seulement si :
1. ∀(x, y, z)∈E3, ∀λ∈R, < λ x+y, z >=λ < x, z >+< y, z >.
2. ∀(x, y)∈E2, < y, x >=< x, y >.
3. ∀x∈E, < x, x >>0.
4. ∀x∈E, < x, x >= 0 =⇒x= 0E.
Th. 2
P
Soit (x, y)→< x, y >une application deE2 dansR.< ., . > est un produit scalaire surE si et seulement si :
1. ∀(x, y, z)∈E3, ∀λ∈R, < x, λ y+z >=λ < x, y >+< x, z >.
2. ∀(x, y)∈E2, < y, x >=< x, y >.
3. ∀x∈E, < x, x >>0.
4. ∀x∈E, < x, x >= 0 =⇒x= 0E.
⋆ Notons donc que< ., . >lin´eaire `a gauche (resp `a droite) et sym´etrique donne< ., . >bilin´eaire et sym´etrique.
NNNDans toute la suite < ., . >est un produit scalaire surE donc (E, < ., . >) est un espace pr´ehilbertien r´eel.
Lorsque cela sera n´essaire, nous pr´eciserons siEest un espace euclidien. A d´efautEest donc un espace pr´ehilbertien.
I
3. Premi` eres propri´ et´ es
Prop. 1 1. ∀x∈E, < x,0E >=<0E, x >= 0.
2. ∀(x, y)∈E2, <−x, y >=−< x, y >=< x,−y > .
Prop. 2
P
petq sont deux ´el´ements de N∗. (xi)16i6p et (yj)16j6q sont deux familles d’´el´ements de E.(λi)16i6p et (µj)16j6q sont deux familles de r´eels. Alors :
<
∑p i=1
λixi,
∑q j=1
µjyj>=
∑p i=1
∑q j=1
λiµj < xi, yj>.
I
4. Des exemples
1 E=Rn. Six= (x1, x2, . . . , xn) ety= (y1, y2, . . . , yn) sont deux ´el´ements deRn, on pose :
< x, y >=
∑n k=1
xkyk.
< ., . > est un produit scalaire surRn. C’est le produit scalaire canonique deRn.
2 E=Mn,1(R). SiX =
x1
x2
... xn
et Y =
y1
y2
... yn
sont deux ´el´ements deMn,1(R), on pose :
< X, Y >=
∑n k=1
xkyk =tXY =tY X.
< ., . > est un produit scalaire surMn,1(R). C’est le produit scalaire canonique deMn,1(R).
3 E=Mn,p(R) . SiA= (aij) et B= (bij) sont deux ´el´ements deE on pose
< A, B >=
∑n i=1
∑p j=1
aijbij = tr(tA×B).
< ., . > est un produit scalaire surE. C’est le produit scalaire canonique deMn,p(R).
R
k=0 k=0
R
< P, Q >=
∑n k=0
akbk.
< ., . > est un produit scalaire surRn[X]. C’est le produit scalaire canonique deRn[X].
5 E=C([a, b],R) est l’espace vectoriel des fonctions num´eriques continues sur [a, b] (a < b) etpest une fonction num´erique continue et strictement positive sur [a, b].
Sif et gsont deux ´el´ements de E on pose :
< f, g >=
∫ b a
f(t)g(t)p(t) dt.
< ., . > est un produit scalaire surE.
I
5. Norme euclidienne associ´ ee ` a un produit scalaire
Th. 3 L’in´egalit´e de Cauchy-Schwarz. Soient xet y deux ´el´ements de E.
1. |< x, y >|6√
< x, x >√
< y, y > et (< x, y >)26< x, x > < y, y >.
2. |< x, y >|=√
< x, x >√
< y, y >si et seulement si (x, y) est li´ee.
Cor. 1 x= (x1, x2, . . . , xn) ety= (y1, y2, . . . , yn) sont deux ´el´ements deRn.
∑n k=1
xkyk6 vu ut∑n
k=1
x2k vu ut∑n
k=1
y2k.
(∑n
k=1
xkyk )2
6
∑n k=1
x2k
∑n k=1
y2k.
Cor. 2 Soitf et gdeux fonctions num´eriques continues sur [a, b].
∫ b a
f(t)g(t) dt6
√∫ b a
f2(t) dt
√∫ b a
g2(t) dt.
( ∫ b
a
f(t)g(t) dt )2
6
∫ b a
f2(t) dt
∫ b a
g2(t) dt.
D´ef. 3 On appellenormesur unK-espace vectorielE(K=RouC) toute applicationNdeEdansR+v´erifiant : N1 ∀x∈E, N(x) = 0⇐⇒x= 0E.
N2 ∀x∈E, ∀λ∈K, N(λx) =|λ|N(x).
N3 ∀(x, y)∈E2, N(x+y)6N(x) +N(y).
Th. 4etd´ef. 4 L’application qui `a tout ´el´ement xdeE associe√
< x, x >est une norme sur E.
C’estla norme associ´ee au produit scalaire< ., . >. On parle denorme euclidienne.
Dans la suite nous noterons∥x∥la norme d’un ´el´ementxdeEc’est `a dire le r´eel positif√
< x, x >, nous d´esignerons alors par∥·∥ la norme associ´ee au produit scalaire< ., . >.
Th. 5 • ∀x∈E, ∥x∥= 0⇔x= 0E.
• ∀x∈E, ∀λ∈R, ∥λx∥=|λ|∥x∥.
• ∀(x, y)∈E2, ∥x+y∥6∥x∥+∥y∥ (in´egalit´e de Minkovski).
Th. 6 In´egalit´e de Cauchy-Schwarz again xety sont deux ´el´ements deE.
1. |< x, y >|6∥x∥ ∥y∥ et (< x, y >)26∥x∥2∥y∥2. 2. |< x, y >|=∥x∥ ∥y∥si et seulement si (x, y) est li´ee.
Prop. 3 • ∀(x, y)∈E2, ∥x∥ − ∥y∥6∥x+y∥6∥x∥+∥y∥.
• ∀(x, y)∈E2, ∥x∥ − ∥y∥6∥x−y∥6∥x∥+∥y∥. Th. 7 Identit´es remarquables xety sont deux ´el´ements deE.
∥x+y∥2=∥x∥2+ 2< x, y >+∥y∥2. ∥x−y∥2=∥x∥2−2< x, y >+∥y∥2.
< x+y, x−y >=∥x∥2− ∥y∥2.
Th. 8 Encore une identit´e remarquable x1,x2, ...,xp sontp´el´ements de E.
∥x1+x2+· · ·+xp∥2=
∑p i=1
∥xi∥2+ 2 ∑
16i<j6p
< xi, xj>.
Th. 9 Identit´es de polarisation xety sont deux ´el´ements deE.
< x, y >= 1 2
[∥x+y∥2− ∥x∥2− ∥y∥2]
. < x, y >= 1 2
[∥x∥2+∥y∥2− ∥x−y∥2] .
< x, y >=1 4
[∥x+y∥2− ∥x−y∥2] .
Th. 10 Identit´e du parall´elogramme ∀(x, y)∈E2, ∥x+y∥2+∥x−y∥2= 2∥x∥2+ 2∥y∥2. I
6. Vecteur unitaire
D´ef. 5 Unvecteur unitaire ou norm´edeE est un vecteur dont la norme vaut 1.
⋆ Au niveau des polynˆomes il ne faudra pas confondre les deux notions d’unitaire. Une bonne lecture du texte ou le contexte permettent de lever les ambiguit´es.
Prop. 4 1. Sixest un vecteur non nul deE, 1
∥x∥xest un vecteur unitaire deE.
2. Un droite vectorielle deE contient exactement deux vecteurs unitaires qui sont oppos´es.
II ORTHOGONALIT´ E
I
1. Premiers ´ el´ ements
D´ef. 6 1. On dit que deux ´el´ementsxetydeEsontorthogonauxsi leur produit scalaire est nul, autrement dit si< x, y >= 0.
2. Un´el´ement x de E est orthogonal `a une partie AdeE sixest orthogonal `a tous les ´el´ements de A.
3. Deux parties A et B de E sont orthogonalessi tout vecteur deA est orthogonal `a tout vecteur deB.
4. L’orthogonal d’une partie A de Eest l’ensemble des vecteurs deE orthogonaux `a A. On noteA⊥ cet orthogonal etA⊥⊥ l’orthogonal deA⊥.
Th. 11 Th´eor`eme de Pythagore. xety sont deux ´el´ements deE xet ysont orthogonaux si et seulement si∥x+y∥2=∥x∥2+∥y∥2 ou :< x, y >= 0 ⇐⇒ ∥x+y∥2=∥x∥2+∥y∥2.
Prop. 5 Si (x1, x2, . . . , xn) est une famille d’´el´ements deE deux `a deux orthogonaux :
∥x1+x2+· · ·+xn∥2=∥x1∥2+∥x2∥2+· · ·+∥xn∥2.
Th. 12 1. E⊥={0E}.
P
2. {0E}⊥ =E.
3. SoitF un sous-espace vectoriel de E.
•F⊥ est un sous-espace vectoriel deE.
•F∩F⊥={0E}.
•F ⊂F⊥⊥.
⋆
P
E⊥={0E}s’utilise souvent de la mani`ere suivante. Pour montrer qu’un vecteur deEest nul on montre qu’il est orthogonal `a tous les ´el´ements deE. Ou pour montrer que deux vecteursxetydeEsont ´egaux on montre quex−y est orthogonal `a tous les ´el´ements deE.Prop. 6 F et Gsont deux sous-espaces vectoriels deE. F ⊂GdonneG⊥⊂F⊥.
Prop. 7
P
F et Gsont deux sous-espaces vectoriels deE. SiF etGsont orthogonaux alorsF∩G={0E}. Prop. 8 F et Gsont deux sous-espaces vectoriels deE. Les assertions suivantes sont ´equivalentes.i)F etGsont orthogonaux.
ii) F⊂G⊥. iii) G⊂F⊥.
Prop. 9 F et Gsont deux sous-espaces vectoriels deE respectivement engendr´es par (u1, u2, . . . , up) et (v1, v2, . . . , vq).
P
1. F⊥ ={x∈E| ∀i∈[[1, p]], < x, ui>= 0}.P
2. F et Gsont orthogonaux si et seulement si :∀(i, j)∈[[1, p]]×[[1, q]], < ui, vj>= 0.I
2. Bases orthogonales et bases orthonormales ou orthonorm´ ees
D´ef. 7 Soit (xi)i∈I une famille d’´el´ements deE.
(xi)i∈I est unefamille orthogonaledeE si les ´el´ements de cette famille sont deux `a deux orthogonaux.
(xi)i∈I est unefamillle orthonormaleouorthonorm´eed’´el´ements deE si les ´el´ements de cette famille sont unitaires et deux `a deux orthogonaux.
Prop. 10 1. Toute famille orthogonale constitu´ee de vecteurs non nuls est libre.
2. Toute famille orthonorm´ee est libre.
D´ef. 8 •On appellebase orthogonaledeE toute famille orthogonale deE qui en est une base.
• On appelle base orthonormale ou orthonorm´eede E toute famille orthonormale ou orthonorm´ee deE qui en est une base.
Avant 2005 le programme parlait de base orthonormale. Entre 2005 et 2103 il parlait de base orthonorm´ee. Apr`es 2014 le programme mentionne les deux appellations. Qu’on se le dise...
Th. 13
PP
Les bases canoniques deRn,Mn,p(R),Mn,1(R),M1,n(R),Rn[X] sont othonorm´ees pour les produits scalaires canoniques de ces espaces vectoriels.Th. 14
PP
SoitB= (e1, e2, . . . , en) une base orthonorm´ee deE. Soitxun ´el´ement deE.x=
∑n k=1
< x, ek> ek.
Th. 15
PP
Soit B = (e1, e2, . . . , en) une base orthonorm´ee de E. Soient x et y deux vecteurs de E de coordonn´ees respectives (x1, x2, . . . , xn) et (y1, y2, . . . , yn) dans cette base. Soient X et Y les matrices de xet ydansB.< x, y >=
∑n k=1
xkyk=tXY =tXY. ∥x∥= vu ut∑n
k=1
x2k =√
tXX =∥X∥.
Prop. 11 B= (e1, e2, . . . , en) est une base d’un espace vectoriel r´eel E.
1. Il existe un produit scalaire< ., . >surEet un seul qui rend la baseB= (e1, e2, . . . , en) orthonorm´ee.
2. ∀x=
∑n k=1
xkek∈E, ∀y=
∑n k=1
ykek ∈E, < x, y >=
∑n k=1
xkyk.
3. Dans les espaces vectoriels r´eels usuels, le produit scalaire canonique est celui qui rend la base canonique orthonorm´ee.
D´ef. 9 Une matriceP deMn(R) estorthogonale si elle v´erifiePtP =tP P =In.
transpos´ee.
Th. 16 Changement de bases orthonorm´ees.
SoitB= (e1, e2, . . . , en) etB′= (e′1, e′2, . . . , e′n) deux bases orthonorm´ees deE.
La matrice de passageP deB`a B′ est orthogonale. AinsiPtP =tP P =In etP−1=tP.
Prop. 13
SoitB= (e1, e2, . . . , en) une base orthonorm´ee deE. SoitB′= (e′1, e′2, . . . , e′n) une familled’´el´ements deE.
SoitP la matrice de la familleB′ dans la baseB.
B′ est une base orthonorm´ee deE si et seulement siP est une matrice orthogonale.
Th. 17 Dans un espace vectoriel euclidien on peut compl´eter une famille orthonorm´ee en une base orthonorm´ee.
Th. 18 Tout espace vectoriel euclidien de dimension non nulle poss`ede une base orthonorm´ee.
Th. 19 On suppose queEest de dimension n .
1. Toute famille orthogonale de n vecteurs non nuls deE est une base orthogonale deE.
2. Toute famille orthonorm´ee de n vecteurs deE est une base orthonorm´ee de E.
I
3. Orthogonal d’un sous-espace vectoriel d’un espace vectoriel euclidien
Th. 20 SoitF un sous-espace vectoriel d’un espace vectoriel euclidien E .
• E=F⊕F⊥ et F⊥⊥=F .
•F⊥ est l’unique suppl´ementaire deF orthogonal `aF.
P SD
Ce r´esultat ne vaut pas dans un espace pr´ehilbertien r´eel quelconque. N´eanmoins il reste vrai dans le cas important o`uEest un espace pr´ehilbertien r´eel et o`uF est un sous-espace vectoriel deEde dimension finie.⋆⋆ Si F et Gsont deux sous-espaces vectoriels orthogonaux deE, on ´evitera de dire queG=F⊥ ouF =G⊥. F etGorthogonaux signifieF⊂G⊥ ou (et ! !) G⊂F⊥. Cependant :
Prop. 14 Si F et Gsont deux sous-espaces vectoriels de E orthogonaux et suppl´ementaires alorsG=F⊥ (etF =G⊥).
⋆ Notons que ce r´esultat vaut dans un pr´elhibertien mais pas sa r´eciproque.
Prop. 15
P
F est un sous-espace vectoriel de l’espace vectoriel euclidienE distinct de{0E} etE.Si B′ est une base orthonorm´ee de F etB′′ est une base orthonorm´ee de F⊥ alorsB′∪ B′′ est une base orthonorm´ee deE.
Prop. 16
P
F est un sous-espace vectoriel de l’espace vectoriel euclidienE distinct de{0E} et deE.Soit (e1, e2, . . . , ep) une base orthonorm´ee deF qui se compl`ete en une base orthonorm´ee (e1, e2, . . . , en) deE.
F⊥est le sous-espace vectoriel deEengendr´e par (ep+1, ep+2, . . . , en). Mieux (ep+1, ep+2, . . . , en) est une base orthonorm´ee deF⊥.
Prop. 17
P
B= (e1, e2, . . . , en) est une base orthonorm´ee deE. a1,a2, ...,an sontnr´eels non tous nuls.1. L’orthogonal de la droite vectorielle engendr´ee para1e1+a2e2+· · ·+anen est l’hyperplan d’´equation a1x1+a2x2+· · ·+anxn = 0 dansB.
2. L’orthogonal de l’hyperplan d’´equationa1x1+a2x2+· · ·+anxn = 0 dansB est la droite vectorielle engendr´ee para1e1+a2e2+· · ·+anen.
I
4. Un exemple classique
Prop. 18 •Dans Mn(R), pour le produit scalaire canonique, l’orthogonal du sous-espace vectorielSn(R) des ma- trices sym´etriques deMn(R) est le sous-espace vectorielAn(R) des matrices antisym´etriques deMn(R).
•DansMn(R), pour le produit scalaire canonique, l’orthogonal du sous-espace vectorielAn(R) des ma- trices antisym´etriques deMn(R) est le sous-espace vectorielSn(R) des matrices sym´etriques deMn(R).
Prop. 19 Le sous-espace vectoriel des matrices sym´etriques de Mn(R) et le sous-espace vectoriel des matrices antisym´etriques deMn(R) sont suppl´ementaires et orthogonaux dansMn(R) muni du produit scalaire canonique.
Mn(R) =Sn(R)
⊕⊥
An(R) . Rappelons que dimSn(R) =n(n+ 1)
2 et dimAn(R) =n(n−1)
2 ·
III CONSTRUCTION DE BASES ORTHOGONALES ET DE BASES ORTHONORM´ EES
I
1. L’aspect th´ eorique
Th. 1 Soit (u1, u2, . . . , un) une base quelconque deE.
Il existe une base orthonorm´ee deEet une seule (w1, w2, . . . , wn) telle que pour toutkappartenant `a [[1, n]] :
1. Vect(w1, w2, . . . , wk) = Vect(u1, u2, . . . , uk).
2. < wk, uk >est strictement positif.
(w1, w2, . . . , wn) est LA base orthonorm´ee d´eduite de (u1, u2, . . . , un) par le proc´ed´e d’orthonormalisation de Schmidt.
Il convient de noter que :
•w1est LEvecteur unitaire de Vect(u1) qui v´erifie< w1, u1> >0.
•Pour toutk´el´ement de [[2, n]],wkestLEvecteur unitaire de la droite vectorielle constitu´ee par l’orthogonal de Vect(u1, u2, . . . , uk−1) dans Vect(u1, u2, . . . , uk) qui v´erifie< wk, uk > >0.
I
2. L’aspect pratique version 1
P
On se replace dans la situation du th´eor`eme pr´ec´edent.Pour construire la base (w1, w2, . . . , wn) on utilise la m´ethode de Schmidt bas´ee sur l’algorithme suivant.
• On construit d’abordw1. Pour cela on posew1=λ u1 et on chercheλtel que∥w1∥= 1 et< w1, u1>>0.
• Supposons que l’on ait construit (w1, w2, . . . , wk−1) pour kdans [[2, n−1]]. On construit alorswk. Pour cela on posewk =λ1w1+λ2w2+· · ·+λk−1wk−1+λkuk.
En ´ecrivant quewk est orthogonal `awi on exprimeλi en fonction deλk pour toutidans [[1, k−1]].
On trouve alorsλk en utilisant∥wk∥= 1 et< wk, uk>>0.
Notons que :w1= 1
∥u1∥u1 et∀k∈[[2, n]], wk = 1
∥tk∥tk avectk =uk−
k−1
∑
i=1
< uk, wi> wi. I
3. L’aspect pratique version 2
Le conseil du CoachLa m´ethode pr´ec´edente est int´eressante mais assez lourde. La machine le fait tr`es bien nous un peu moins bien... Le fait de normer les vecteurs `a chaque ´etape complique les calculs et les expressions. Le mieux est donc de commencer par construire “une” base orthogonale et d’en d´eduire la base orthonorm´ee mentionn´ee dans le r´esultat th´eorique en multipliant chacun des vecteurs par l’inverse de leur norme. Ce qui suit propose une m´ethode pour r´ealiser cet objectif.
PP
Soit (u1, u2, . . . , un) une base quelconque de E.Pour construire cette base orthogonale (v1, v2, . . . , vn) `a partie de (u1, u2, . . . , un) on proc`ede de la mani`ere suivante.
• On posev1=u1.
• Supposons que l’on ait construit (v1, v2, . . . , vk−1) famille orthogonale deE telle que : Vect(v1, v2, . . . , vk−1) = Vect(u1, u2, . . . , uk−1) (k∈[[1, n−1]]).
On construit alorsvk. Pour cela on posevk =uk+λ1v1+λ2v2+· · ·+λk−1vk−1. En ´ecrivant quevk est orthogonal `a vi on calculeλi pour toutidans [[1, k−1]].
On obtient alorsvk =uk−
k−1
∑
i=1
< uk, vi>
< vi, vi> vi=uk−
k−1
∑
i=1
< uk, vi>
∥vi∥2 vi. Th. 2 Soit (u1, u2, . . . , un) une base quelconque deE.
Soit (v1, v2, . . . , vn) la famille d’´el´ements deE d´efinie par la r´ecurrence suivante : v1=u1et ∀k∈[[2, n]], vk =uk−
k−1
∑
i=1
< uk, vi>
< vi, vi> vi=uk−
k−1
∑
i=1
< uk, vi >
∥vi∥2 vi.
1. (v1, v2, . . . , vn) est une base orthogonale deE telle que :
∀k∈[[1, n]], Vect(v1, v2, . . . , vk) = Vect(u1, u2, . . . , uk).
2. Posons∀k∈[[1, n]], wk= 1
∥vk∥vk. (w1, w2, . . . , wn) est l’unique base orthonorm´ee deE telle que : 1. Vect(w1, w2, . . . , wk) = Vect(u1, u2, . . . , uk).
2. < wk, uk >est strictement positif.
PP
La pratique pour les esprits simples...Soit (u1, u2, . . . , un) une base quelconque deE.
Pour construire une base orthonorm´ee (w1, w2, . . . , wn) `a partie de (u1, u2, . . . , un) on proc`ede de la mani`ere suiv- ante.
Etape 1 On pose´ v1=u1.
Etape 2 On pose´ v2=u2+α v1et on cherche αpour quev2soit orthogonal `a v1.
Etape 3 On pose´ v3=u3+β v1+γ v2et on cherche β etγ pour quev3 soit orthogonal `av1et v2. Et ainsi de suite...
Ne reste plus qu’ `a poser, pour toutkdans [[1, n]],wk = 1
∥vk∥vk. (w1, w2, . . . , wn) est une base orthonorm´ee deE.
Mieux c’est LA base orthonorm´ee deEd´eduite de (u1, u2, . . . , un) par le proc´ed´e d’orthonormalisation de Schmidt.
I
4. Dans un concours
Dans les concours les deux questions classiques sont :
Construire la base orthonorm´ee d´eduite de (u1,u2, . . . ,un) par le proc´ed´e d’orthonormalisation de Schmidt.
Montrer que (w1,w2, . . . ,wn) est la base orthonorm´ee d´eduite de (u1, u2, . . . , un) par le proc´ed´e d’orthonormalisation de Schmidt.
IV PROJECTION ORTHOGONALE
Dans cette section, sauf mention du contraire,E est un espace vectoriel euclidien .
On note< ., . >le produit scalaire d´efini surEet∥.∥la norme associ´ee. On rappelle alors que siF est un sous-espace vectoriel deE,F etF⊥ sont suppl´ementaires.
I
1. D´ efinition
D´ef. 1 SoitF un sous-espace vectoriel de l’espace vectoriel euclidienE. Laprojection orthogonalesurF n’est autre que la projection surF parall`element `aF⊥.
⋆ Si F est un sous-espace vectoriel de l’espace pr´ehilbertien E on peut d´efinir la projection orthogonale surF d`es que F⊥ est un suppl´ementaire de F dansE. C’est par exemple le cas siF est de dimension finie.
I
2. Premi` eres caract´ erisations
Prop. 1 F est un sous-espace vectoriel de l’espace vectoriel euclidienE. pF est la projection orthogonale surF. Sixet y sont deux ´el´ements deE:
pF(x) =y ⇐⇒
{y∈F
x−y∈F⊥ .
En clair les propri´et´espF(x)∈F et x−PF(x)∈F⊥ sont caract´eristiques de la projection orthogonale dexsurF.
Th. 3
PP
F est un sous-espace vectoriel de l’espace vectoriel euclidienE. pF est la projection orthogonale surF.Sixety sont deux ´el´ements deE:
pF(x) =y ⇐⇒
{y∈F
∀z∈F, < x−y, z >= 0 .
On retiendra de ce r´esultat qu’il n’est pas n´ecessaire de connaˆıtre F⊥ pour trouver la projection orthogonale de x sur F.
I
3. Expression de la projection orthogonale
pFdans une base orthonorm´ ee de
F.
Th. 4
PP
F est un sous-espace vectoriel deE et (u1, u2, . . . , up) est une base orthonorm´ee deF . pF est la projection orthogonale sur F. Pour tout ´el´ementxdeE:pF(x) =
∑p k=1
< x, uk> uk.
⋆ J’ai not´epla dimension deF alors que c’estkdans programme... Mais j’assume...
Th. 5
P
E est un espace vectoriel euclidien etBest unebase orthonorm´eedeE.F est un sous-espace vectoriel deE et (u1, u2, . . . , up) est une base orthonorm´ee deF.
Pour toutkdans [[1, p]],Uk est la matrice deuk dans la baseB. pF est la projection orthogonale surF. Alors la matrice depF dans la baseB est
∑p k=1
UktUk, donc MB(pF) =
∑p k=1
UktUk.
Notons que ce r´esultat est un ”+” du programme 2014.
Cor. 1
P
Dest une droite vectorielle de Eet pD est la projection orthogonale sur D.Siuestun vecteur unitaire de D, pour tout ´el´ement xdeE: pD(x) =< x, u > u.
Siuest un vecteur non nul de D, pour tout ´el´ementxdeE: pD(x) =< x, u >
∥u∥2 u.
Cor. 2
P
Eest un espace vectoriel euclidien de dimension nsup´erieure ou ´egale `a 2. H est un hyperplan deE etpH est la projection orthogonale surH.Siuestun vecteur unitaire orthogonal `a H, pour tout ´el´ement xdeE: pH(x) =x−< x, u > u.
Siuestun vecteur non nul orthogonal `a H, pour tout ´el´ementxdeE: pH(x) =x−< x, u >
∥u∥2 u.
I
4. L’aspect pratique
P
(E, < ., . >) est un espace vectoriel euclidien (ou un pr´ehilbertien....). F est un sous-espace vectoriel deE etpF est la projection orthogonale surF. (u1, u2, . . . , up) est une basequelconquedeF.xest un ´el´ement de E. Pour trouverpF(x) on peut :
M1 •UtiliserpF(x)∈F etx−pF(x)∈F⊥ (resp. pF(x)∈F et∀z∈F, < x−pF(x), z >= 0).
M2 •Construire une base orthonorm´ee (w1, w2, . . . , wp) deF et utiliser :pF(x) =
∑p k=1
< x, wk > wk.
M3 • PoserpF(x) =
∑p k=1
xkuk. On cherche alors (x1, x2, . . . , xp) en ´ecrivant quex−pF(x) est orthogonal
`
a F donc `a tous les ´el´ements de la base (u1, u2, . . . , up) deF. On obtient rapidement :
∀i∈[[1, p]], < x, ui>=< pF(x), ui >=
∑p k=1
< uk, ui> xk=
∑p k=1
< ui, uk > xk.
Ceci donne un syst`eme lin´eaire dep´equations `apinconnues que l’on r´esout.
Ce syst`eme s’´ecrit matriciellementAX=B o`uA= (< ui, uj>),X=
x1 x2 ... xp
etB=
< x, u1>
< x, u2>
...
< x, up>
.
A est une matrice inversible de Mp(R) (A est la matrice de la restriction du produit scalaire `a F dans la base (u1, u2, . . . , up)). Le syst`eme admet donc une solution et une seule (ce qui n’est pas un scoop...).
•Ne pas oublier de regarder au pr´ealable siF est un hyperplan. Dans ce cas on d´eterminepF⊥ (F⊥est une droite vectorielle...) et on utilisepF = IdE−pF⊥.
imisation de la norme
D´ef. 2 SoientAune partie non vide d’un espace pr´ehilbertienE etxun ´el´ement deE.
La distance de x `a Aest la borne inf´erieure de l’ensemble{∥x−z∥;z∈A}. On la noted(x,A).
d(x, A) = Inf
z∈A∥x−z∥.
⋆ Il convient de remarquer qued(x, A) existe toujours car{∥x−z∥; z∈A} est une partie non vide et minor´ee de R mais qu’il n’existe pas toujours un ´el´ement a deA tel que d(x, A) = ∥x−a∥. Autrement dit Min
z∈A∥x−z∥ n’existe pas toujours.
Th. 6 ”Th´eor`eme de meilleure approximation”
SoitF un sous-espace vectoriel de l’espace vectoriel euclidien EetpF (resp. pF⊥) la projection orthog- onale surF (resp. F⊥).
Soitxun ´el´ement deE.
1. • ∀z∈F, ∥x−pF(x)∥6∥x−z∥.
•Si test un ´el´ement deF tel que :∀z∈F, ∥x−t∥6∥x−z∥ alorst=pF(x).
2. Autrement dit Min
z∈F∥x−z∥ existe et vaut ∥x−pF(x)∥. De pluspF(x) est l’unique ´el´ement de F qui r´ealise ce minimum.
pF(x) est donc l’unique ´el´ement de F tel que d(x, F) =∥x−pF(x)∥.
La projection orthogonale dexsurF estla meilleure approximation dexpar un ´el´ement deF. 3. d2(x, F) =∥x−pF(x)∥2=∥x∥2− ∥pF(x)∥2=∥x∥2−< x, pF(x)>=∥pF⊥(x)∥2.
⋆ On est pri´e de remarquer que ce th´eor`eme contient 3 choses.
• L’EXISTENCE d’un minimum pour la partie{∥x−z∥ |z∈F}deR+.
•pF(x) est l’unique ´el´ement deF qui r´ealise ce minimum ou qui ”r´ealise la distance dex`a F”.
•Le carr´e de la distance dex`a F vaut∥x−pF(x)∥2 ou∥x∥2− ∥pF(x)∥2ou∥x∥2−< x, pF(x)>ou encore
∥pF⊥(x)∥2.
P
Notons que la quantit´e∥x∥2−< x, pF(x)>est souvent la plus simple `a calculer.La formulation du programme...
Th. 7 Caract´erisation de la projection orthogonale par minimisation de la norme.
SoitF un sous-espace vectoriel de l’espace vectoriel euclidien E etpF la projection orthogonale surF. xety sont deux ´el´ements deE.
y=pF(x)⇐⇒y∈F et ∥x−y∥= Inf
z∈F∥x−z∥ ou y=pF(x)⇐⇒y∈F et ∥x−y∥= Min
z∈F∥x−z∥. I
6. Une remarque importante
⋆⋆ Il est important de savoir que ce qui pr´ec`ede vaut encore dans un espace pr´ehilbertien r´eel E pourvu que F ⊕F⊥ = E. Rappelons que c’est le cas lorsque F est de dimension finie. D’o`u l’importance de connaˆıtre les d´emonstrations de ces r´esultats que les concepteurs recyclent souvent lorsqu’ils souhaitent vous faire travailler dans les pr´ehilbertiens r´eels quelconques.
I
7. Une application du th´ eor` eme fondamental. M´ ethode des moindres carr´ es
Th. 8 M´ethode des moindres carr´es.
Aest un ´el´ement deMn,p(R) etB un ´el´ement de Mn,1(R). On suppose que le rang de A est p .
∥.∥est la norme deMn,1(R) associ´ee au produit scalaire canonique.
1. Min
X∈Mp,1(R)∥AX−B∥ existe.
2. Il existe un unique ´el´ement X0 deMp,1(R) tel que∥AX0−B∥= Min
X∈Mp,1(R)∥AX−B∥. 3. tAAest inversible.
4. X0= (tAA)−1(tAB) ou tAAX0=tAB .
P
Pour trouver X0, il est pr´ef´erable de r´esoudre le syst`eme X0 ∈ Mp,1(R) et tAAX0 = tAB plutˆot que de calculer directement l’inverse detAA.Notons que le programme de 2014 dit que”la formule donnant la valeur du point r´ealisant le minimum n’est pas exigible”. Alors il est sans doute utile d’apprendre `a la retrouver...
V ENDOMORPHISMES ET MATRICES SYM ´ ETRIQUES
I
0. Quelques rappels sur les matrices sym´ etriques (resp. antisym´ etriques)
D´ef. 3 SoitA= (ai,j) une matrice deMn(R) (ou deMn(K)).
Aestsym´etriquesitA=Aou si∀(i, j)∈[[1, n]]2, aj,i=ai,j.
Aestantisym´etriquesitA=−A ou si∀(i, j)∈[[1, n]]2, aj,i=−ai,j.
Prop. 2 • L’ensemble des matrices sym´etriques deMn(K) est un sous-espace vectoriel deMn(K) de dimension n(n+ 1)
2 ·.
• L’ensemble des matrices antisym´etriques deMn(K) est un sous-espace vectoriel deMn(K) de dimen- sion n(n−1)
2 sin>1.
• Le sous-espace vectoriel des matrices sym´etriques deMn(K) et le sous-espace vectoriel des matrices antisym´etriques deMn(K) sont suppl´ementaires dans Mn(K).
Notons que siA ∈ Mn(R), A = 1 2
(
A+tA) +1
2 (
A−tA) , 1
2 (
A+tA)
est une matrice sym´erique de Mn(K) et 1
2 (
A−tA)
est une matrice antisym´erique deMn(K).
Prop. 3 DansMn(R), pour le produit scalaire canonique, l’orthogonal du sous-espace vectorielSn(R) des matrices sym´etriques deMn(R) est le sous-espace vectorielAn(R) des matrices antisym´etriques deMn(R).
DansMn(R), pour le produit scalaire canonique, l’orthogonal du sous-espace vectorielAn(R) des matrices antisym´etriques deMn(R) est le sous-espace vectorielSn(R) des matrices sym´etriques deMn(R).
Le sous-espace vectoriel des matrices sym´etriques de Mn(R) et le sous-espace vectoriel des matrices antisym´etriques de Mn(R) sont suppl´ementaires et orthogonaux dansMn(R) muni du produit scalaire canonique.
Mn(R) =Sn(R)
⊕⊥
An(R).
I
1. D´ efinition d’un endomorphisme sym´ etrique
D´ef. 4 Soitf un endomorphisme deE. f estsym´etriquesi : ∀(x, y)∈E2, < f(x), y >=< x, f(y)>.
I
2. Caract´ erisations des endomorphismes sym´ etriques
Prop. 4 Caract´erisation des endomorphismes sym´etriques
Eest de dimensionn(n∈N∗),B= (e1, e2, . . . , en) est une base deE etf un endomorphisme deE.
f est sym´etrique si et seulement si : ∀(i, j)∈[[1, n]]2, < f(ei), ej >=< ei, f(ej)>.
Th. 9
PP
Caract´erisation fondamental des endomorphismes sym´etriquesIciE est de dimensionn(n∈N∗),Best une base orthonorm´ee deE etf un endomorphisme deE.
f est un endomorphisme sym´etrique de Esi et seulement si sa matrice dans la baseB est sym´etrique.
⋆⋆ Surtout ne pas oublier l’hypoth`eseBest une base orthonorm´ee
I
3. Quelques propri´ et´ es
Prop. 5 f est un endomorphisme sym´etriquedeE.
SiF est un sous-espace vectoriel deE stable parf,F⊥ est stable parf. Un petit ’+” du programme 2014...
Prop. 6 1. IdE et 0L(E)sont des endomorphismes sym´etriques deE.
2. Si f et g sont deux endomorphismes sym´etriques de E et si λ est un r´eel, λf et f +g sont des endomorphismes sym´etriques deE.
2’. L’ensemble des endomorphismes sym´etriques deE est un sous-espace vectoriel deL(E).
SiE est de dimensionnnon nul, l’ensemble des endomorphismes sym´etriques deE est un sous-espace vectoriel deL(E) de dimension n(n+ 1)
2 ·
3. Sif est un endomorphisme sym´etrique et bijectif de E, f−1 est un endomorphisme sym´etrique (et bijectif) deE.
I
4. Une nouvelle caract´ erisation des projections orthogonales
Th. 10
P
pest une projection (ou un projecteur) deE.pest une projection orthogonale (ou un projecteur orthogonal) si et seulement p est un endomorphisme sym´etrique.
Un petit ’+” du programme 2014...
Th. 11 pest un endomorphisme deE (ou une application deE dansE...).
pest une projection orthogonale deEsi et seulement sipest un endomorphisme sym´etrique deE v´erifiant p◦p=p.
Cor. Aest une matrice deMn(R).
Aest la matrice d’une projection orthogonale si et seulement siAest sym´etrique et v´erifieA2=A.
I
5. R´ eduction d’un endomorphisme sym´ etrique et d’une matrice sym´ etrique
Prop. 7 Soitf un endomorphisme sym´etrique deE.
1. Les sous-espaces propres def sont deux `a deux orthogonaux.
2. Si (uk)16k6p est une famille de vecteurs propres de f associ´es `a des valeurs propres deux `a deux distinctes alors la famille (uk)16k6p est une famille orthogonale deE.
Th. 12 Le th´eor`eme fondamental sur la r´eduction des endomorphismes sym´etriques.
Soitf un endomorphisme sym´etrique deEespace vectoriel euclidien de dimension finie non nulle.
1. f est diagonalisable.
2. Mieux, il existe une base orthonorm´ee deEconstitu´ee de vecteurs propres def(doncf se diagonalise dans une base orthonorm´ee).