• Aucun résultat trouvé

ALGÈBRE BILINÉAIRE ET GÉOMÉTRIE Semestre 4, 2016-2017

N/A
N/A
Protected

Academic year: 2022

Partager "ALGÈBRE BILINÉAIRE ET GÉOMÉTRIE Semestre 4, 2016-2017"

Copied!
47
0
0

Texte intégral

(1)

ALGÈBRE BILINÉAIRE ET GÉOMÉTRIE Semestre 4, 2016-2017

LAURENT BESSIÈRES

Institut de Mathématiques de Bordeaux 21 avril 2017

(2)

1 Chapitre 1 : Formes bilinéaires symétriques et formes quadratiques 4

1 Formes bilinéaires. . . 4

1.1 Formes bilinéaires symétriques . . . 4

1.2 Formes quadratiques et polarisation . . . 5

2 Formes bilinéaires en dimension nie . . . 6

2.1 Représentation matricielle . . . 6

2.2 Rang et noyau . . . 9

2.3 Dualité, accouplement canonique . . . 10

3 Orthogonalité . . . 11

3.1 Orthogonalité relativement à une forme bilinéaire symétrique . . . 11

3.2 Existence de bases orthogonales, théorème de réduction . . . 12

3.3 La méthode de Gauss de décomposition en carrés . . . 13

4 Classication des formes quadratiques en dimension nie . . . 17

4.1 Classication des formes quadratiques sur lesC-espaces vectoriels . . . 18

4.2 Classication des formes quadratiques sur les R-espaces vectoriels (théo- rème de Sylvester) . . . 18

5 Formes quadratiques positives, Cauchy-Schwarz, Minkowski . . . 19

2 Chapitre 2 : espaces euclidiens et pré-hilbertiens 20 1 Produit scalaire, norme, distances euclidiennes. . . 20

2 Orthogonalité . . . 22

2.1 Bases orthogonales et orthonormées, orthogonalisation de Gram-Schmidt. 22 2.2 Sous-espaces orthogonaux, projecteurs et symétries . . . 24

(3)

TABLE DES MATIÈRES

2.3 Un exemple : les polynômes orthogonaux. . . 26

3 Endomorphismes dans un espace euclidien . . . 28

3.1 Endomorphismes adjoints . . . 28

3.2 Endomorphismes symétriques, ou autoadjoints . . . 30

3.3 Endomorphismes orthogonaux. . . 33

3.3.1 Applications orthogonales et isométries . . . 33

3.3.2 Groupe orthogonal et spécial orthogonal, orientation . . . 35

3.3.3 GroupeO2(R) . . . 38

3.3.4 GroupeO3(R) . . . 39

3.3.5 Produit vectoriel . . . 40

3.3.6 Miscellannées :On(R), décomposition polaire . . . 41

4 Liste d'exercices. . . 43

(4)

Le but de ce cours est d'enrichir la notion d'espace vectoriel, la structure minimale pour faire de l'algèbre linéaire, d'une structure supplémentaire permettant d'étudier des propriétés de nature métriques, c'est-à-dire des phénomènes concernant les longueurs, les distances, les angles, etc. On fait cela en munissant l'espace vectoriel d'un produit scalaire. On rappelle que surE =R3, le produit scalaire (canonique) de deux vecteursx= (x1, x2, x3)ety= (y1, y2, y3)est dénie par la formule

hx, yi=x1y1+x2y2+x3y3 et la norme associée est||x||=p

hx, xi= (x21+x22+x23)1/2.

Rappelons les propriétés du produit scalaire deR3. Le produit scalaire est (a) bilinéaire, c'est-à-dire linéaire en chaque argument :

hx+y, zi = hx, zi+hy, zi

hλx, yi = λhx, yi ∀x, y, z ∈E hx, y+zi = hx, yi+hx, zi ∀λ∈R

hx, λyi = λhx, yi (b) symétrique :

hλx, yi=λhy, xi ∀x, y∈E (c) déni : ∀x∈E,

hx, xi= 0⇐⇒x= 0 (d) positif :∀x∈E,

hx, xi ≥0.

Introduisonstout de suite les pricipales dénitions de ce cours. Pour dénir un produit scalaire sur un espace vectoriel autre que R3, ou dénir un autre produit scalaire sur R3, on utilise les propriétés ci-dessus comme axiomes. Soit donc E un espace vectoriel sur le corps des réels, pouvant être de dimension nie comme Rn, ou de dimension innie comme R[X] l'espace des polynomes ou C([0,1],R) l'espace des fonctions réelles continues sur [0,1]. Un produit scalaire surE est une application

h·,·i:E×E→R

bilinéaire, symétrique, dénie et positive. Lorsque l'espace E est muni d'un produit scalaire, on dit queE est euclidien s'il est de dimension nie, et qu'il est pré-hilbertien s'il est de dimension nie.

Il sera avantageux d'étudier séparément les 4 propriétés. Le premier chapitre sera surtout consacré aux applications bilinéaires et symétriques. Cette étude sera faite dans le cadre plus général d'un espace vectoriel sur un corps K, où K = R ou C, l'application bilinéaire étant à valeurs dans K. Dans la chapitre consacré aux espaces euclidiens et pré-hilbertiens, le corpsK sera égal à R. En eet l'axiome de positivité ne fait sens que dans ce cadre1

1. On peut dénir sur desC-espaces vectoriels un avatar du produit scalaire, qu'on appelle produit scalaire hermitien, mais l'axiome de bilinéarité doit être remplacé. Ce n'est pas l'objet de ce cours.

(5)

Chapitre 1 : Formes bilinéaires symétriques et formes quadratiques

Dans ce chapitre, on considère doncE un espace vectoriel sur un corpsK, où K =R ouC (on dira simplement queE est unK-espace vectoriel).

1 Formes bilinéaires

1.1 Formes bilinéaires symétriques

Dénition 1.1. Une forme bilinéaire sur un K-espace vectoriel E est une application b : E×E→K bilinéaire, c'est-à-dire linéaire en chaque argument :

b(λx+y, z) = λb(x, z) +b(y, z) ∀x, y, z∈E b(x, λy+z) = λb(x, y) +b(x, z) et∀λ∈K

On dit que b est symétrique si b(x, y) = b(y, x) pour tous x, y∈E. On dit queb est dénie si b(x, x) = 0⇔x= 0, et positive (quandK =R) sib(x, x)≥0pour tout x∈E.

Exemple 1.2. 1) Sur E = Kn, b : Kn×Kn→K dénie par b(x, y) = Pn

i,j=1aijxiyj, où aij ∈ K. Elle est symétrique si aij = aji pour tout i, j, ce qu'on peut vérier à vue sur les exemples. En général, on ne voit pas immédiatement sibest dénie, ou positive (quandK=R).

2) Sur E=R[X]ouE =C([0,1],R),b(P, Q) =R1

0 P(t)Q(t)dt dénit un produit scalaire.

Notation. B(E) ={b:E×E→K bilinéaire},S(E) ={b∈ B(E) symétrique}.

L'ensemble {b : E×E→K} des applications de E×E dans K, hérite de la structure de K-espace vectoriel deKsi on le munit des lois(b1+b2)(x, y) :=b1(x, y)+b2(x, y)et(λb)(x, y) :=

λ.b(x, y).

Proposition 1.3. Les espaces B(E) et S(E) sont des sous-espaces vectoriels du K-espace

(6)

vectoriel {b:E×E→K}.

1.2 Formes quadratiques et polarisation

Dénition 1.4. Une application q : E→K est une forme quadratique s'il existe une forme bilinéaire symétrique b∈ S(E) telle que pour toutx∈E,q(x) =b(x, x).

Lemme 1.5. (Formule de polarisation) Dans ce cas,

∀x, y∈E, b(x, y) = 1

2 q(x+y)−q(x)−q(y)

! .

Remarque 1.6. En conséquence, b est unique, appelée forme polaire de q. Il sut donc de connaitre une forme bilinéaire symétrique sur la diagonale de E×E pour la connaître partout.

Exercice 1.7. On a aussi

b(x, y) = 1

4 q(x+y)−q(x−y)

! .

Notation. Q(E) ={q:E→K forme quadratique}.

C'est manifestement un sous-espace vectoriel du K-espace vectoriel des applications de E dans K. L'application de S(E) dans Q(E) qui envoie b sur q vériant q(x) = b(x, x) est clai- rement linéaire, surjective par dénition, et injective d'après la formule de polarisation 1.5. En conséquence,

Proposition 1.8. S(E) est isomorphe à Q(E).

Remarque 1.9. ATTENTION ! On prendra garde à ne pas confondre les notions de formes quadratiques et de formes linéaires. On rappelle qu'une forme linéaire sur unK-espace vectoriel E est

`:E→K linéaire

En particulier `(λx) = λ`(x), pour tous x ∈ E et λ ∈ K, alors qu'une forme quadratique q satisfaitq(λx) =b(λx, λx) =λ2b(x, x) =λ2q(x).

Exemple 1.10. 1) q : R3→R dénie par q(x) = x21−x2x3. Pour trouver sa forme polaire, on peut vérier si l'expression obtenue via la formule de polarisation 1.5 est bien binéaire et

(7)

2. Formes bilinéaires en dimension nie

symétrique, mais en général il est plus simple et plus rapide de polariser à vue. On remplace x2i ; xiyi

xixj ; 1

2(xiyj+xjyi)

et on trouve b(x, y) = x1y112(x2y3+x3y2), bilinéaire et symétrique. Puisque b(x, x) = q(x), on conclut que q est quadratique.

2) Soit`:E→Kune forme linéaire, alorsq(x) = (`(x))2dénit une forme quadratique, de forme polaire b(x, y) =`(x)`(y). Plus généralement, étant donnés `1, . . . , `k des formes linéaires surE, etα1, . . . , αk ∈K des scalaires, la combinaison linéaire des carrés des formes linéaires

q(x) =α1`1(x)2+. . .+αk`k(x)2 (1.1) dénit une forme quadratique sur E.

Remarque 1.11. Il y a en dimension nie une réciproque : le théorème de réduction 3.12 montrera que si dimE <+∞, toute forme quadratique surE peut s'écrire sous la forme (1.1), avec de plus des formes linéaires`1, . . . , `k linéairement indépendantes.

Notons que l'ensemble L(E, K) des formes linéaires sur E a bien une structure d'espace vectoriel. Il jouera un rôle important dans la suite.

Dénition 1.12. On appelle dual deE, et on note E =L(E, K), leK-espace vectoriel des formes linéaires sur K.

Exercice 1.13. (VRAI-FAUX) Décider si les assertions suivantes sont vraies ou fausses : (a) Une produit de formes bilinéaires est une forme bilinéaire ;

(b) Une forme quadratique bornée est nulle.

(c) Si `1 et `2 sont deux formes linéaires sur E, alors q(x) = `1(x)`2(x) dénit une forme quadratique.

2 Formes bilinéaires en dimension nie

2.1 Représentation matricielle

On suppose queE est unK-espace vectoriel de dimension nie (donc isomorphe àKn). Soit e={e1, . . . , en} une base de E, et soitb ∈ B(E). Six =Pn

i=1xiei ety =Pn

j=1yjej, alors par bilinéarité on obtient

b(x, y) =

n

X

i,j=1

xiyjb(ei, ej). (1.2)

La forme bilinéaire est donc déterminée par les valeurs .

(8)

Dénition 2.1. On appelle matrice de b dans la base e la matrice

M(b)e=

b(e1, e1) b(e1, e2) · · · b(e1, en)

b(e2, e1) ...

... b(ei, ej) ...

... ...

b(en, e1) · · · b(en, en)

∈Mn×n(K)

où b(ei, ej) est le coecient en ligne iet colonne j. C'est le coecient de xiyj dans l'expression (1.2).

Exemple 2.2. Soitb:R3×R3→R, dénie parb(x, y) =x1y1+ 2x1y2+ 3x1y3+ 4x2y1+ 5x2y2+ 6x2y3+ 7x3y1+ 8x3y2+ 9x3y3 dans la base canonique de R3. AlorsM(b)e=

1 2 3 4 5 6 7 8 9

.

Proposition 2.3. Soit E un K-espace vectoriel de dimension nie, et soit b∈ B(E). Sont équivalents :

1) b est symétrique,

2) Il existe une basee deE telle que M(b)e soit symétrique, 3) Dans toutes les bases, la matrice de b est symétrique.

Une base e={e1, . . . , en} de E étant xée, soit Me :B(E)→Mn×n(K) l'application qui à b∈ B(E)associe la matrice M(b)e.

Proposition 2.4. L'application Me:B(E)→Mn×n(K) est un isomorphisme.

Corollaire 2.5. dimB(E) =n2 et dimS(E) = n(n+1)2 .

Puisqu'on a une matrice, autant faire du calcul matriciel.

Proposition 2.6. Etant donnés e = {e1, . . . , en} une base de E, et b ∈ B(E), notons M =M(b)e. Soitx=Pn

i=1xiei ety =Pn

j=1yjej, deux éléments de E. On a alors b(x, y) = x1, . . . , xn

·M·

 y1

...

yn

.

De plus, M est la seule matrice qui vérie cette identité pour tous x, y∈E.

(9)

2. Formes bilinéaires en dimension nie

La formule est licite du point de vue des dimensions car la règle est que (p×m)·(m×q) = p×q, donc

(n×n)·(n×1) = n×1, ( matrice×vecteur colonne=vecteur colonne) (1×n)·(n×1) = 1×1, (vecteur ligne×vecteur colonne=scalaire) Exemple 2.7. On reprend l'exemple2.2. On a

b(x, y) = x1y1+ 2x1y2+ 3x1y3+ 4x2y1+ 5x2y2+ 6x2y3+ 7x3y1+ 8x3y2+ 9x3y3

= x1(y1+y2+ 3y3) +x2(4y1+ 5y2+ 6y3) +x3(7y1+ 8y2+ 9y3)

= x1, x2, x3

·

y1+y2+ 3y3 4y1+ 5y2+ 6y3

7y1+ 8y2+ 9y3

= x1, x2, x3

·

1 2 3 4 5 6 7 8 9

·

 y1 y2

yn

.

Notation. On noteX =

 x1

...

xn

=M(x)e lorsquex=Pn

i=1xiei, doncY =

 y1

...

yn

=M(y)esi y=Pn

i=1yiei. AvecM :=M(b)e, on a alors

b(x, y) =tX·M ·Y,

où l'opérateur t :Mp×m(K)→Mm×p(K) associe à une matrice A sa transposée tA, dénie par (tA)ij =Aji.

Proposition 2.8. (Formule du changement de base) Soit E un K-espace vectoriel, soient e = {e1, . . . , en} et e0 = {e01, . . . , e0n} deux bases de E, et soit b ∈ B(E). Si on note P =Pe→e0 la matrice de passage de eà e0, M =M(b)e et M0=M(b)e0, on a alors

M0 =tP M P.

Rappel. La matricePe→e0 a pour j-ème colonne les coordonnées de e0j dans la basee, c'est-à- dire M(e0j)e. C'est aussi la matrice de l'endomorphisme identité id :E→E, de la base e0 vers la basee. En particulier on a la relationM(x)e=M(id)e0→eM(x)e0, soit X =P X0.

Remarque 2.9. ATTENTION ! Ce n'est pas la formule de changement de bases de matrices d'endomorphismes, qui fait intervenir P−1M P. En eet on a tP 6= P−1 en général (sauf à le faire exprès...). La formule ici est plus simple : il est plus facile de calculer la transposée d'une matrice que son inverse.

(10)

2.2 Rang et noyau

On investigue si diverses quantités qu'on peut associer à une matrice M (rang, noyau, dé- terminant,...) disent quelque chose d'une forme bilinéaire blorsque M est la matrice deb. Dénition 2.10. Soit E unK-espace vectoriel de dimension nie, et soitb∈ B(E) une forme bilinéaire surE. On appelle rang de b, le rang de la matrice debdans une base quelconqueede E, c'est-à-direrg(b) = rg(M(b)e).

En eet siM etM0 sont deux matrices deb(dans des baseseete0) la relationM0=tP M P montre que M etM0 ont même rang (puisqu'on composeM avec des matrices inversibles).

Dénition 2.11. Soit E un K-espace vectoriel (pas nécessairement de dimension nie). On appelle noyau deb le sous-espace vectoriel deE :

N(b) ={y∈E |b(x, y) = 0,∀x∈E}.

On dit que best non dégénérée lorsque N(b) ={0}.

Exercice 2.12. Prouver queN(b)est un sous-espace vectoriel de E.

Proposition 2.13. Soit E un K-espace vectoriel de dimension nie, et soit b∈ B(E) une forme bilinéaire surE. Le noyau debest isomorphe au noyau de la matrice debdans n'importe quelle base. Précisément si C:E→Kn désigne l'isomorphisme de coordonnées dans une base e, qui envoiex∈E sur M(x)e =X∈Kn, alors

x∈N(b)⇔X ∈kerM(b)e⇔M(b)eX = 0, soit aussi C(N(b)) = kerM(b)e.

Corollaire 2.14. (Formule du rang) Sous les mêmes hypothèses, 1) dimN(b) + rg(b) = dimE,

2) b est non dégénérée si seulement sirg(b) = dimE, soit encore detM(b)e6= 0.

Remarque 2.15. ATTENTION ! On n'a pas déni de déterminant det(b) de la forme bili- néaire, et on ne le fait pas. En eet, la valeur detMb(e) dépend de e, puisque si on change de base on a det(tP M P) = det(P)2det(M)6= det(M) en général. Puisque det(P) 6= 0, ce qui est invariant par changement de base, c'est la nullité ou non du déterminant des matrices.

Remarque 2.16. On peut se demander si les matricesM(b)ed'une forme bilinéaire b, lorsque e parcourt toutes les bases, restent associées à une application linéaire sous-jacente xe. Le rang et le noyau de b seraient alors égaux aux rang et noyau de cette application linéaire. Une

(11)

2. Formes bilinéaires en dimension nie

tentative naive pour dénir cette application est de décréter qu'on associe à M(b)e, l'endomor- phisme f : E→E dont la matrice dans les bases e et e est M(b)e, c'est-à-dire on décide que M(f)e→e = M(b)e. Cela ne marche pas, car la formule de changement de base n'étant pas la bonne, l'endomorphisme obtenu dépend de la base. L'endomorphisme f0 : E→E, tel que M(f0)e0e0 =M(b)e0, est diérent def dès quetP 6=P−1 (oùP =Pe→e0).

Il faut être plus subtil. Il existe bien une construction qui lie de manière naturelle application linéaire et application bilinéaire, mais elle requiert la notion de dualité.

2.3 Dualité, accouplement canonique

On supposeE de dimension nie. On rappelle queE =L(E, K)est l'espace vectoriel des formes linéaires sur E. Soit b une forme bilinéaire sur E. On lui associe fb ∈L(E, E) comme suit. On dénit

fb :E→E où by :E→K (est linéaire) y7→by x7→b(x, y)

Exercice 2.17. fb est linéaire.

Proposition 2.18. Avec les conventions ci-dessus, 1) rg(b) = rg(fb),

2) N(b) = kerfb.

Dénition 2.19. (Base duale). Soite={e1, . . . , en}une baseE. On appelle base duale deela basee ={e1, . . . , en}deE, où lesei :E→K sont dénies parei(ej) =δij =

1 si i=j 0 si i6=j (symboles de Kronecker).

On montre que la famille e est libre en évaluant l'identité0 =λ1e1+. . .+λnen sur les ej. Par ailleurs, pour ` ∈ E et x = Pn

i=1xiei, on al(x) = Pn

i=1xi`(ei) = Pn

i=1ei(x)`(ei), donc

`=Pn

i=1`(ei)ei, ce qui montre quee est génératrice.

Remarque 2.20. On peut montrer que l'application F : B(E)→L(E, E), qui envoie b sur fb, est un isomorphisme. Sa réciproque envoie f ∈L(E, E) surb∈ B(E), dénie parb(x, y) = f(y)(x).

Exercice 2.21. Vérier que ça marche.

(12)

3 Orthogonalité

3.1 Orthogonalité relativement à une forme bilinéaire symétrique

SoitE unK-espace vectoriel et soitb∈ S(E) une forme bilinéaire symétrique.

Dénition 3.1. Deux vecteurs x, y ∈ E sont b-orthogonaux si b(x, y) = 0. Une famille {v1, . . . , vk} de vecteurs de E est b-orthogonale si b(vi, vj) = 0 pour tous i 6= j. La famille {v1, . . . , vk} estb-orthonormée si b(vi, vj) =δij.

S'il n'y a pas d'ambiguité on dit simplement que les vecteurs sont orthogonaux.

Exemple 3.2. Soit b∈ S(R2) dénie par b(x, y) = x1y1−x2y2 dans la base canonique, alors le vecteure1+e2 =

1 1

est orthogonal à lui-même.

Dénition 3.3. Soit A⊂E une partie de E. On appelleb-orthogonal de Al'ensemble A={y∈E |b(x, y) = 0,∀x∈A}.

Proposition 3.4. A est un sous-espace vectoriel de E, égal à (vectA).

Remarque 3.5. En conséquence, siF est un sous-espace vectoriel deE, de base{v1, . . . , vk}, alorsF={v1, . . . , vk}={y∈E|b(vi, y) = 0,∀i}.

Proposition 3.6. Avec les conventions ci-dessus : 1) {0} =E,

2) E=N(b),

3) ∀A⊂E, N(b)⊂A.

Dénition 3.7. On appelle cône isotrope deb∈ S(E) l'ensemble I(b) ={x∈E |b(x, x) = 0}.

Les vecteurs deI(b) sont dits isotropes.

Remarque 3.8. Le cône isotrope n'est pas un sous-espace vectoriel en général, mais on a toujoursN(b)⊂I(b). Le cône est invariant par dilatation : six∈I(b), alorsλx∈I(b) pour tout λ∈K.

(13)

3. Orthogonalité

Exemple 3.9. Soit b ∈ S(R2) dénie par b(x, y) = x1y1−x2y2, alors I(b) est la réunion de deux droites {(x1, x2)∈R2|x1=±x2}.

Dénition 3.10. Soitq ∈Q(E) de forme polaireb∈ S(E). On dénit : le noyau de q comme le noyau deb,N(q) :=N(b).

le rang deq comme le rang de b,rg(q) := rgb,

le cône isotrope deq comme le cône isotrope de b, I(q) := I(b) (=q−1({0}), mais qu'on n'appelle pas noyau de q! n'est pas un s-ev en général).

q est non dégénérée⇔bnon dégénérée (⇔N(q) ={0})

(pourK =R),q est positive ⇔best positive (⇔q(x)≥0,∀x∈E) q est dénie⇔b est dénie (I(q) ={0}).

x, y sont q-orthogonaux ⇔x, y sont b-orthogonaux.

Exercice 3.11. (VRAI-FAUX) Décider si les assertions suivantes sont vraies ou fausses.

(a) La somme de deux vecteurs isotropes est un vecteur isotrope.

(b) Si q(x)>0etq(y)>0, alorsq(x+y)>0.

(c) Si `1 et `2 sont deux formes linéaires sur R3, alors b(x, y) = `1(x)`2(y) dénit une forme binéaire dégénérée.

3.2 Existence de bases orthogonales, théorème de réduction

On montre enn un résultat qui mérite l'appellation Théorème, à savoir l'existence de bases orthogonales en dimension nie. Justions d'abord l'intérêt d'avoir de telles bases. SoitE unK- espace vectoriel de dimension nie, soite={e1, . . . , en}une base de E, et soitb∈ S(E). Alors eestb-orthogonale si et seulement si la matrice de b dans la baseeest diagonale :

M(b)e =

a1 0

a2

...

0 an

 .

En inspectant lesai on peut connaitre tout ce qu'il y à savoir surb: son rang (nombre deai 6= 0), une base du noyau (les ei tels que ai = 0), si elle positive (tous les ai ≥ 0) et dénie positive (tous lesai >0). On peut aussi tirer ses informations de la forme quadratiqueq(x) =b(x, x)qui s'écrit danse:

q(x) =a1x21+· · ·+anx2n, écriture qui équivaut à l'orthogonalité dee.

Théorème 3.12. (de réduction) Soit E un K-espace vectoriel de dimension nie, E 6=

{0}, et soit b ∈ S(E) une forme bilinéaire symétrique. Il existe alors une base b-orthogonale e = {e1, . . . , en} de E. Quitte à renuméroter les ei, la matrice de b dans la base e est de la

(14)

forme

M(b)e=

a1 0

...

0 ar

0 ...

0

ai∈K, ai6= 0 r= rg(b).

Les vecteurs er+1, . . . , en sont isotropes et forment une base du noyau N(b) =E.

Remarque 3.13. D'un point de matriciel, partant d'une matrice M ∈Mn×n(K) symétrique, on cherche une matricePinversible telle quetP M P soit diagonale. Ce n'est pas le même problème que celui de la diagonalisation des matrices, où on veut que P−1M P soit diagonale (sauf si

tP =P−1...).

Corollaire 3.14. Soit q une forme quadratique sur E, de rang r. Il existe une base q- orthogonale e = {e1, . . . , en} de E et des scalaires a1, . . . , ar ∈ K, ai 6= 0, tels que si x = Pn

i=1xiei alors

q(x) =a1x21+· · ·+arx2r.

Exercice 3.15. (VRAI-FAUX) Décider si les assertions suivantes sont vraies ou fausses.

(a) Si`est une forme linéaire surR3, alors (x, y)7→`(x)`(y) est dénie positive.

(b) La somme de deux formes quadratiques dénies positives est dénie positive.

(c) Supposons queq n'a pas de vecteur isotrope. Alorsq ou −q est dénie positive.

3.3 La méthode de Gauss de décomposition en carrés

Soit E un K-espace vectoriel de dimension nie. Le théorème de réduction ne produit pas de base orthogonale explicite. La méthode de Gauss de decompositions en carrés permet de la faire. C'est un algorithme qui produit, à partir d'une forme quadratique

q(x) =X

i,j

aijxixj (1.3)

exprimée dans une base quelconquee={e1, . . . , en}, des formes linéaires indépendantes`1, . . . , `n∈ E telles que

q(x) =a1`21(x) +· · ·+an`2n(x).

Le changement de coordonnées x0i

= `i(x)

donne alors une base q-orthogonale. L'idée de la méthode de Gauss est de transformer l'expression (1.3) pour faire apparaître des carrés. On

(15)

3. Orthogonalité

utilise deux types d'amorces, reposant sur les identités bien connues :

(I) a2+ 2ab = (a+b)2−b2 (1.4)

(II) ab = 1

4 (a+b)2−(a−b)2

(1.5) Evidement, il ne sert à rien de faire apparaitre des carrés à tout va, sous peine d'obtenir une décomposition non libre. Il faut s'arranger pour tuer une variable à chaque itération. Traitons 2 exemples, utilisant chacun une des amorces selon qu'il existe déjà dans (1.3) unx2i ou non.

Exemple 3.16. Soitq(x) =x21−x22+ 6x23+ 2x1x2−4x1x3−8x2x3 dans la base canonique de E =R3. Puisqu'il y a unx21 on va utiliser l'amorce (I) en regroupant tous lesx1 :

q(x) =x21−x22+ 6x23+2x1x2−4x1x3−8x2x3, On a par (1.4), aveca=x1 etb=x2−2x3,

x21+ 2x1x2−4x1x3 = x21+ 2x1(x2−2x3)

= (x1+x2−2x3)2−(x2−2x3

| {z } )2. il n'y a plus de x1

donc en développant le deuxième carré et reportant dans q(x),

q(x) = (x1+x2−2x3)2−(x22−4x2x3+ 4x23)−x22+ 6x23−8x2x3

| {z }

il n'y a plus dex1

= (x1+x2−2x3)2−2x22−4x2x3+2x23

= (x1+x2−2x3)2−2

x22+ 2x2x3−x23

( amorce (I) sur tous lesx2)

= (x1+x2−2x3

| {z } )2−2

(x2+x3

| {z }

)2−2( x3

|{z}

)2

`1(x) `2(x) `3(x)

Par construction `2 est indépendante de x1, et `3 est indépendante de x1, x2. Autrement dit,

`2 est nulle sur vect{e1}, et `3 est nulle sur vect{e1, e2}. D'un autre coté, `i n'est pas nulle sur vect{ei}, pouri= 1,2,3. En évaluant l'identité0 =λ1`12`23`3 sur les vecteurse1, e2, e3

successivement, on obtient alors0 = λ123, prouvant que la famille {`1, `2, `3} est libre dansE.

Remarque 3.17. La décomposition obtenue n'est pas unique, car on aurait pu choisir de faire la première itération sur la variablex2, ou la variablex3. Il peut arriver également que le nombre de formes linéaires indépendantes obtenues soit strictement inférieur à la dimension de l'espace, c'est-à-dire qu'on peut aboutir à q=a1`21+. . .+ak`2k, aveck < n. (c'est même sûr sirg(q)< n car on a alors k = rg(q)). Au besoin, on pourra toujours compléter {`1, . . . , `k} en une base {`1, . . . , `k, `k+1, . . . , `n}de E, et écrireq =a1`21+. . .+ak`2k+ 0`2k+1+. . .+ 0`2n.

Exemple 3.18. Soit q(x) = 5x1x2+ 6x1x3+ 3x2x3 dans la base canonique deE =R3.

(16)

On veut utiliser l'amorce (II), mais elle doit manger tous les termes enx1 etx2 (dans cette itération, on tue deux variables d'un coup). On doit donc préparer l'amorce. On le fait avec la formule

(II0) ab+aφ1+bφ2 = (a+φ2

| {z }

)(b+φ1

| {z }

)−φ1φ2

A B

= 1

4 (a+b+φ12

| {z }

)2−(a−b+φ2−φ1

| {z } )2

−φ1φ2

A+B A−B

où on a utilisé (1.5) surAB. On a donc q(x) = 5

x1x2+x1

6x3

5 +x2

3x3

5

= 5 x1+3x3

5

| {z }

!

x2+ 6x3

5

| {z }

!

−56x3

5 3x3

5

| {z }

A B il n'y a plus de x1, x2

= 5

4 x1+x2+9 5x3

| {z }

!2

− 5

4 x1−x2−3 5x3

| {z }

!2

−18 5 ( x3

|{z}

)2 A+B =`1(x) A−B =`2(x) `3(x)

Par construction,`3 est nulle survect{e1, e2}mais par survect{e3},`1 est nulle survect{e1−e2} mais pas survect{e1+e2}, et`2est nulle survect{e1+e2}mais pas survect{e1−e2}. En évaluant 0 =λ1`12`23`3 sure1+e2,e1−e2 ete3, on obtient queλi= 0 pouri= 1,2,3, prouvant que{`1, `2, `3}est libre.

Méthode générale Soit E un K-espace vectoriel de dimension n, et q une forme quadratique surE, non nulle. Dans une base e={e1,· · ·, en}, on peut écrire

q(x) =

n

X

i≤j

aijxixj =

n

X

i

aiix2i + X

i<j

aijxixj.

Il y a 2 cas possibles : Cas 1 : il existeitel queaii6= 0. Quitte à renuméroter, on supposea116= 0.

(17)

3. Orthogonalité

On regroupe tous les termes contenantx1 : q(x) = a11x21 + x1

X

2≤j

a1jxj

| {z }

+ X

2≤i≤j

aijxixj

| {z }

`(x) q2(x)

= a11

x21+x1`(x) a11

+ q2(x)

= a11

x1+`(x) 2a11

| {z }

2

−`(x)2 4a11

+ q2(x)

| {z }

`1(x) q3(x)

= a11`21(x) + q3(x)

où q3 est une forme quadratique nulle sur vect{e1} puisque `(x) etq2(x) ne dependent pas de x1. On recommence avecq3, qui restreinte àvect{e2, . . . , en}, devient une forme quadratique sur un espace de dimension n−1.

Cas 2 aii = 0 pour touti. Puisque q 6= 0 il existe aij 6= 0 et on peut supposer a12 6= 0. On regroupe tous les termes en x1 etx2 :

q(x) = a12x1x2 + x1X

3≤j

a1jxj

| {z }

+x2X

3≤j

a1jxj

| {z }

+ X

3≤i<j

aijxixj

| {z } φ1(x) φ2(x) q2(x)

On remarque queφ12 etq2 sont nulles sur vect{e1, e2}. q(x) = a12

x1x2 + x1 φ1

a12 + x2 φ2 a12

+q2(x)

= a12

x1 + φ2 a12

x2 + φ1 a12

−φ1φ2 a12

+q2(x)

= a12 4

x1+x221 a12

| {z }

2

−a12 4

x1−x2+ φ2−φ1 a12

| {z }

2

+q3(x)

`1(x) `2(x)

= a12

4 `21(x) − a12

4 `22(x) +q3(x)

oùq3est une forme quadratique nulle survect{e1, e2}. On recommence avecq3. Un raisonnement par récurrence montre que :

Proposition 3.19. La méthode de Gauss décompose q en combinaison linéaire de carrés de formes linéaires indépendantes.

Déduction de la base orthogonale

(18)

On suppose que q = α1`21 +· · ·+αn`2n, où {`1,· · ·, `n} est libre dans E (au besoin, on a complété la famille libre produite par la méthode de Gauss en une base de E). On pose le changement de variable

 x01

...

x0n

=

`1(x) ...

`n(x)

, où les`i(x)sont exprimées en fonction des coordon- nées de x dans la base e. Puisque q(x) = α1x012+· · ·+αnx0n2, la base e0 = {e01, . . . , e0n} de E correspondante à ces coordonnées est q-orthogonale. L'identitéx =Pn

i=1xiei =Pn

i=1x0ie0i nous dit que

 x01

...

x0n

=Pe→−1e0

 x1

...

xn

, qu'on inverse en

 x1

...

xn

=Pe→e0

 x01

...

x0n

.

(le fait que les formes linéaires `i soient indépendantes équivaut à l'inversibilité de la matrice).

Les vecteurs colonnes dePe→e0 donnent alors les coordonnées de e0 par rapport à e.

Exemple 3.20. On poursuit l'exemple 3.16, la méthode de Gauss a donné q(x) = (x1+x2−2x3

| {z } )2−2

(x2+x3

| {z }

)2−2( x3

|{z}

)2

x01 x02 x03

qui conduit à

 x01 x02 x03

 =

x1 +x2 −2x3 x2 +x3

x3

 =Pe→−1e0

 x1 x2

x3

. On inverse le système (ou la ma- trice) en

 x1 x2

x3

=

x01 −x02 −3x03 x02 −x03

x03

=

1 −1 −3 0 1 −1

0 0 1

 x01 x02 x03

=Pe→e0

 x01 x02 x03

d'oùe01=

 1 0 0

,e02 =

−1 1 0

 ete03=

−3

−1 1

, dans la basee.

4 Classication des formes quadratiques en dimension nie

En distinguant selon que K =R ou C, on peut donner une forme canonique à l'expression des formes quadratiques, ne dépendant que du rang si K =C, et que de la signature si K =R.

La signature d'une forme quadratique q peut-être déni comme un couple d'entiers (p, p0), où p est la dimension maximale des sous-espaces vectoriels de E où q est dénie positive, et p0 la dimension maximale des sous-espaces vectoriels deE oùqest dénie négative (qest négative sur un sous-espace F siq(x)≤0 pour toutx∈F). Nécessairement, p+p0 = rg(q).

(19)

4. Classication des formes quadratiques en dimension nie

4.1 Classication des formes quadratiques sur les C-espaces vectoriels

Théorème 4.1. Soit E un C-espace vectoriel de dimension n, et soit q une forme quadra- tique sur E de rang rg(q) = r. Il existe alors une base q-orthogonale ε = {ε1, . . . , εn} de E telle que si x=Pn

i=1xiεi,

q(x) =x21+. . .+x2r, M(b)ε=

1 0

...

0 1

0 ...

0

4.2 Classication des formes quadratiques sur les R-espaces vectoriels (théo- rème de Sylvester)

Théorème 4.2. (de Sylvester) Soit E un R-espace vectoriel de dimension n, et soit q une forme quadratique sur E de rang rg(q) = r. Il existe alors une base q-orthogonale ε = {ε1, . . . , εn} deE telle que si x=Pn

i=1xiεi,

q(x) =x21+. . .+x2p−x2p+1−. . .−x2r, M(b)ε=

 Ip

−Ir−p

0n−r

oùIp est la matrice identité de dimensionp,0n−r la matrice nulle de dimensionn−r. L'entier p ne dépend que de q (et pas de la base). Le couple d'entiers (p, r−p) est appelé signature de q, notée sign(q).

Corollaire 4.3. Soit E un R-espace vectoriel de dimension nie, et soit q une forme qua- dratique sur E de signature (p, r−p). Alors il existe des sous-espaces vectorielsE+ etE de E tel que

1) E=E+⊕E⊕N(q), et la décomposition est orthogonale,

2) q est dénie positive sur E+, et pour tout sous-espace vectoriel F ⊂E sur lequel q est dénie positive, dimF ≤p= dimE+,

3) q est dénie négative surE, et pour tout sous-espace vectoriel F ⊂E sur lequel q est dénie négative, dimF ≤r−p= dimE.

Remarque 4.4. 1) La décomposition n'est pas unique.

(20)

2) Si q s'écritq(x) =α1x21+. . .+αrx2r dans une certaine base, et est de signature (p, r−p) alors il y ap coecientsαi >0 etr−pcoecients αi <0.

3) Pour la suite, on retient que q est dénie positive ssisign(q) = (n,0)ssi αi >0 pour tout i∈ {1, . . . , n}.

Exercice 4.5. (VRAI-FAUX) Décider si les assertions suivantes sont vraies ou fausses.

(a) Soitq une forme quadratique surR2 telle qu'il existe deux droitesd1 etd2 en somme directe telles queq soit dénie positive sur d1 et surd2. Alorsq est dénie positive.

(b) Soitq une forme quadratique surR2 telle qu'il existe deux droitesd1 etd2 en somme directe telles que q soit dénie positive sur d1 et dénie négative sur d2. Alors q est de signature (1,1).

(c) La somme de deux formes quadratiques de signature (1,1) est une forme quadratique de signature (1,1).

5 Formes quadratiques positives, Cauchy-Schwarz, Minkowski

Dans cette section E est un R-espace vectoriel. On rappelle qu'une forme quadratique q est négative si q(x) ≤ 0 pour tout x ∈ E, positive si q(x) ≥ 0 pour tout x ∈ E, et dénie si q(x) = 0⇔x= 0.

Proposition 5.1. Si q est une forme quadratique dénie, elle est positive ou négative.

Théorème 5.2. (Inégalité de Cauchy-Schwarz) Soit q une forme quadratique positive sur E, et b sa forme polaire. Alors pour tous x, y∈E,

b2(x, y)≤q(x)q(y) (1.6)

Si de plus q est dénie, l'égalité est vraie si et seulement si x ety sont colinéaires.

Corollaire 5.3. Soit q une forme quadratique positive, alors I(q) =N(q) et q est dénie si et seulement si elle est non dégénérée.

Proposition 5.4. (Inégalité de Minkowski) Soit q une forme quadratique positive sur E, alors

∀x, y∈E, p

q(x+y)≤p

q(x) +p

q(y) (1.7)

(21)

Chapitre 2 : espaces euclidiens et pré-hilbertiens

Dans tout ce chapitreE est un R-espace vectoriel.

1 Produit scalaire, norme, distances euclidiennes

Dénition 1.1. Un produit scalaire surE est une forme bilinéaire symétrique dénie positive.

La norme euclidienne associée à un produit scalaire est la racine carrée de la forme quadratique associée. Un espace vectoriel muni d'un produit scalaire est dit euclidien s'il est de dimension nie, et pré-hilbertien sinon.

,

Notation. h·,·iou (·,·). Norme kxk=p hx, xi. Exemple 1.2. (Rn,hx, yi=P

xiyi) est euclidien.

(R[X],hP, Qi=R1

0 P(t)Q(t)dt) est pré-hilbertien.

`2(R) ={x :N→R,P

i∈N|xi|2 <∞}l'espace des suites réelles de carré sommable, est pré- hilbertien muni dehx, yi=P

xiyi. Cette somme est bien dénie car2Pq

i=p|xiyi| ≤Pq

i=p|xi|2+

|yi|2 montre que la suite Pn

i=1xiyi est de Cauchy dansR, donc converge.

Proposition 1.3. Tout norme euclidienne est une norme, c'est-à-dire satisfait, pour tout x, y∈E et λ∈R,

1) kxk= 0⇔x= 0, 2) kλxk=|λ|kxk, 3) kx+yk ≤ kxk+kyk.

(22)

Proposition 1.4. Toute norme sur un espace vectoriel dénit une distance par la formule d(x, y) =kx−yk. On appelle distance euclidienne une distance ainsi obtenue.

Remarque 1.5. Il existe des normes non euclidiennes.

Proposition 1.6. Une norme est euclidienne si et seulement si elle vérie l'identité du parallélogramme

kx+yk2+kx−yk2= 2 kxk2+kyk2

, ∀x, y∈E (2.1)

Preuve: Si la norme est euclidienne, on a par bilinéarité et symétrie, kx+yk2 = kxk2 + kyk2+ 2hx, yi etkx−yk2 =kxk2+kyk2−2hx, yi, d'où en additionnant l'identité du parallélo- gramme. Reciproque en exercice de TD.

Soient x, y deux vecteurs non nuls d'un espace euclidien. On a par l'inégalité de Cauchy- Schwarz kxkkyk|hx,yi| ≤1. Il existe donc un uniqueθ∈[0, π]tel que cos(θ) = kxkkykhx,yi .

Dénition 1.7. On appelleθl'angle non orienté entrexety, notéθ=^(x, y) = arccos(kxkkykhx,yi ).

Théorème 1.8. (Pythagore généralisé) Soient x, y deux vecteurs non nuls d'un espace eu- clidien, alors

kx+yk2 =kxk2+kyk2 + 2 cos(^(x, y))kxkkyk, et en particulier kx+yk2 =kxk2+kyk2 six⊥y.

Si u1, . . . , uk sont deux à deux orthogonauxku1+· · ·+ukk2 =ku1k2+· · ·+kukk2.

Théorème 1.9. (Toute forme linéaire sur un espace euclidien est le produit sca- laire avec un vecteur) Soit E un espace euclidien. Alors l'application a 7→ a[ de E dans E, qui associe àa∈E la forme linéairea[:x7→ hx, ai, est un isomorphisme.

Remarque 1.10. En conséquence, pour toute forme linéaire`surE il existe un uniquea∈E tel que `(x) = hx, ai pour tout x ∈ E. On note a =`]. Les applications [ : E→E, a 7→ a[ et ] : E→E, ` 7→ `], sont appelés isomorphismes musicaux. Ils ne dépendent pas d'un choix de bases sur E etE (mais dépendent du produit scalaire).

(23)

2. Orthogonalité

Exercice 1.11. Sie={e1, . . . , en}est une base orthonormée deEeucliden ete ={e1, . . . , en} est sa base duale, alors e[i =ei.

2 Orthogonalité

2.1 Bases orthogonales et orthonormées, orthogonalisation de Gram-Schmidt Proposition 2.1. Dans un espace euclidien ou pré-hilbertien, toute famille orthogonale est libre.

Remarque 2.2. Si (vi)i∈I est orthogonale, en posantei = kvvi

ik on obtient une famille (ei)i∈I

orthonormée. Six=Pn

i=1xiei alorskxk2 =Pn

i=1x2i par Pythagore généralisé.

Théorème 2.3. (Théorème fondamental des espaces euclidiens) Tout espace eucli- dien admet une base orthonormée.

Remarque 2.4. Sie={e1,· · ·, en} est une base orthonormée de(E,h·,·i), alors hx, yi = hX

i

xiei,X

j

yjeji=X

i,j

xiyjhei, eji

= X

i

xiyi=hX, Yi

Rn

Autrement dit, à isomorphisme près (celui qui associe à x ses coordonnées dans une base or- thonormée), il n'y a qu'un espace euclidien de dimension n : Rn muni de son produit scalaire canonique. Entre deux espaces euclidiens E, F de dimensionn, il existe donc un isomorphisme f :E→F tel que pour tousx, y∈E,

hx, yiE =hf(x), f(y)iF.

Pour les produits scalaires, il existe une autre méthode que la méthode de Gauss 3.3 pour construire eectivement des bases orthogonales.

Proposition 2.5. Procédé d'orthogonalisation de Gram-Schmidt Soit E un espace euclidien ou pré-hilbertien, (en)n une famille (nie ou dénombrable) libre de vecteurs. Alors il existe une unique famille orthogonale (un)n telle que pour toutk,

1) vect{e1, . . . , ek}= vect{u1, . . . , uk}.

2) La matrice de passage de(e1, . . . , ek) à (u1, . . . , uk) est triangulaire supérieure idempo- tente (la diagonale est constituée de 1).

(24)

Corollaire 2.6. Sous les mêmes hypothèses, il existe une unique famille orthonormée (εn)n telle que pour tout k , vect{e1, . . . , ek}= vect{ε1, . . . , εk} et hek, εki>0.

Remarque 2.7. Puisque εk ∈ vect{e1, . . . , ek} = vect{u1, . . . , uk}, et est orthogonal à vect{ε1, . . . , εk−1}= vect{e1, . . . , ek−1} = vect{u1, . . . , uk−1}, on a nécessairement εk = ±kuuk

kk, d'où l'unicité.

Preuve: (Orthogonalisation) On construit (un)n par récurrence. On pose u1 = e1. Ayant déniu1, . . . , uksatisfaisant 1) et 2), on cherche un vecteuruk+1∈vect{e1, . . . , ek+1}, orthogonal à vect{u1, . . . , uk} et dont la composante sur ek+1 est 1. Le fait que uk+1 ∈vect{e1, . . . , ek+1} impliquera que la matrice de passage soit triangulaire supérieure.

Pour déniruk+1 il sut de retrancher à ek+1 sa contribution sur vect{u1, . . . , uk}. Posant εi= kuui

ik pouri∈ {1, . . . , k}, la famille{ε1, . . . , εk}est une base orthonormée devect{u1, . . . , uk}. On pose donc

uk+1 = ek+1− hek+1, ε11− · · · − hek+1, εkk

= ek+1− hek+1, u1i u1

ku1k2 − · · · − hek+1, uki uk

kukk2

En eet, en cherchant uk+1 = ek+11ε1 +. . .+ λkεk ⊥ εi, on trouve 0 = huk+1, εii = hek+1, εii+λi d'où les coecients ci-dessus.

Remarque 2.8. Si(en)n est une famille libre d'un espace euclidien ou pré-hilbertien, et F = vect{e1, . . . , ek}un sous-espace vectoriel deE, l'orthogonalisation de Gram-Schmidt produit une famille orthogonale(un)ntelle que{u1, . . . , uk}est une base orthogonale deF, ce qu'on n'obtient pas à priori par la méthode de Gauss. En particulier, on peut compléter une base orthogonale d'un sous-espaceF d'un espace euclidien en une base orthogonale de l'espace.

Proposition 2.9. Soit E un espace pré-hilbertien, (en)n∈N une famille orthonormée de E. 1) (inégalité de Bessel) pour toutx∈E,

X

i=0

hx, eii2 ≤ kxk2.

2) Si x = P

i=0xiei, (au sens que kx−Pn

i=0xieik→0 quand n→ ∞, où xi ∈ R), alors xi =hx, eii pour tout i∈N et

X

i=0

x2i =kxk2.

Références

Documents relatifs

Les endomorphismes autoadjoints et orthogonaux d’un espace vectoriel euclidien sont les symétries orthogonales de

Dans cette partie, on admet temporairement le résultat tout endomorphisme nilpotent est échan- geur que l'on démontrera dans la partie

Agrégation – Leçons ��� – Endomorphismes remarquables d’un espace vectoriel euclidien (de dimension finie)..

Dire si les formes suivantes sont linéaires en la première variable, en la deuxième, bilinéaires, symétriques, positives, non dégénérées et si elles sont des produits

Toute forme linéaire sur un espace vectoriel euclidien peut s’interpréter comme le produit scalaire avec un vecteur fixé.. On effectuera le calcul du vecteur servant à représenter

Un espace vectoriel euclidien est un R-espace vectoriel de dimension nie muni d'un produit scalaire.. I.2

Dans tout ce paragraphe, sauf précision contraire, E un espace euclidien donc de dimension finie.. Exprimer les coefficients de la matrice de f

Lycée Chrestien de Troyes CPGE PC mathématiques M