• Aucun résultat trouvé

Le rang d’une matrice est invariant par des opérations simultanées sur les lignes et les colonnes

Dans le document Algèbre linéaire 2 (Page 97-111)

11 Théorème spectral

Corollaire 12.4. Le rang d’une matrice est invariant par des opérations simultanées sur les lignes et les colonnes

Démonstration. Supposons queN est obtenue deM par des opérations simultanées sur les lignes et les colonnes. Par la proposition 12.3 on aCtrM C =N pour une matrice inversibleC. CommeCtr est aussi inversible (par exemple, car06= det(C) = det(Ctr)), nous avonsrk(N) = rk(CtrM C) = dim(im(CtrM C)) = dim(im(CtrM)) = dim(Ctr(im(M)) = dim(im(M)) = rk(M).

Quadriques

Dans toute cette section, soitKun corps tel que1+16= 0, par exempleK=RouK=C. Rappelons d’abord queK[X1, X2, . . . , Xn]note l’anneau des polynômes dans les variablesX1, X2, . . . , Xn à coefficients dansK. Un élément deK[X1, X2, . . . , Xn]est de la forme

d1

X

i1=0 d2

X

i2=0

. . .

dn

X

in=0

ai1,i2,...,inX1i1X2i2. . . Xnin.

Dans la suite, nous ne regardons que des polynômes quadratiques.

Définition 12.5. On appelle polynôme quadratique (ànvariable et à coefficients dansK) tout élément deK[X1, X2, . . . , Xn]de la forme

q(X1, X2, . . . , Xn) = X

1ijn

ai,jXiXj+ Xn i=1

a0,iXi+a0,0.

Exemple 12.6. (a) Soitn= 1. On nomme la variableX. Tout polynôme quadratique est de la forme a1,1X2+a0,1X+a0,0=a2X2+a1X+a0

où nous avons rénumeroté les coefficients de façon habituelle.

(b) Soitn= 2. On nomme les variablesX, Y. Tout polynôme quadratique est de la forme a1,1X2+a1,2XY +a2,2Y2+a0,1X+a0,2Y +a0,0.

En particulier, on a les exemples : (1) Xa22 +Yb22 −1

(2) Xa22Yb22 −1 (3) Xa22 −Y

Lemme 12.7. Soitn ∈Net soitA ∈ Mat(n+1)×(n+1)(K)une matrice symétrique. Ses coefficients seront appelésai,jpour0≤i, j≤n(noter qu’on commence la numérotation à0!). Soitle vecteur des variables précedé de1:

A=





a0,0 a0,1 . . . a0,n a0,1 a1,1 . . . a1,n ... ... . .. ... a0,n a1,n . . . an,n





, X˜ =





 1 X1

... Xn





.

98 12 QUADRIQUES

Alors le polynôme

qA(X1, . . . , Xn) = ˜XtrAX˜ = 2 X

1i<jn

ai,jXiXj+ Xn

i=1

ai,iXi2+ 2 Xn

i=1

a0,iXi+a0,0

est quadratique et tout polynôme quadratique provient d’une unique matrice symétriqueApar cette formule.

Démonstration. C’est clair.

Comme dans le lemme précédent, pourx= x1

...

xn

∈Kn, on notex˜=

x11

...

xn

, le vecteurxprécedé par1.

Définition 12.8. On appelle quadrique (en dimensionn) tout ensemble QA:=QA(K) :={x∈Kn|x˜trA˜x= 0} Aest une matrice symétrique dansMat(n+1)×(n+1)(K).

Exemple 12.9. On considèren= 2.

(1) SoitA =



−1 0 0 0 a12 0 0 0 b12

. On aQA = {x ∈ R2 | Xa22 + Yb22 −1 = 0}. Géométriquement, il s’agit d’une ellipse.

(2) SoitA =



−1 0 0 0 a12 0 0 0 b21

. On a QA = {x ∈ R2 | Xa22Yb22 −1 = 0}. Géométriquement, il s’agit d’une hyperbole.

(3) SoitA =



0 0 21 0 a12 0

1

2 0 0

. On aQA = {x ∈ R2 | Xa22 −Y = 0}. Géométriquement, il s’agit d’une parabole.

Nous définissons aussi une matrice augmentée : soitC = (ci,j)∈Matn×n(K)une matrice ety∈Kn un vecteur. Nous posons :

Cfy =





1 0 . . . 0 y1 c1,1 . . . c1,n

... ... . .. ... yn cn,1 . . . cn,n





.

Lemme 12.10. SoitA ∈Mat(n+1)×(n+1)(K)une matrice symétrique etQAla quadrique associée.

Soitϕ:Kn→Knune affinité, c’est-à-dire, une application de la forme ϕ(v) =Bv+By

B ∈GLn(K)ety∈Kn. SoitC˜ :=(B^1)y =





1 0 . . . 0

−y1 c1,1 . . . c1,n ... ... . .. ...

−yn cn,1 . . . cn,n





.

Alorsϕ(QA) =QC˜trAC˜. L’image d’une quadrique par une affinité est donc aussi une quadrique.

Démonstration. Tout repose sur l’égalité

C˜ϕ(x) = ˜] C(Bx^+By) =(−y^+x+y) = ˜x.

Nous avons donc l’égalité

˜

xtrA˜x= ( ˜Cϕ(x))] trA( ˜C]ϕ(x)) =]ϕ(x)trtrAC˜ϕ(x),] d’où le résultat.

Définition 12.11. Soientq1(X1, . . . , Xn)etq2(X1, . . . , Xn)des polynômes quadratiques provenant de matrices symétriquesA, B∈Mat(n+1)×(n+1)(K), c’est-à-direq1 =qA,q2 =qB.

On dit queq1(X1, . . . , Xn)etq2(X1, . . . , Xn)sont équivalents s’il existeC ∈GLn(K),y ∈Knet 06=x∈Ktels queCfy

trACfy =xB.

On a donc par le lemme 12.10 queqA(X1, . . . , Xn)etqB(X1, . . . , Xn)sont équivalents si et seule-ment s’il existe une affinitéϕ:Kn→Kntel queϕ(QA) =QB.

Notre prochain but est de caractériser les quadriques à équivalence près. Pour cela, nous avons besoin de la définition suivante.

Définition 12.12. On appelle système de représentants deK× modulo les carrés tout ensembleR ∈ K\ {0}qui satisfait que pour toutx∈K×il existe un uniquer ∈Ret uny ∈Ktels quex=r·y2. Exemple 12.13. (a) Si K = C, alorsR = {1}est un système de représentants deC× modulo les

carrés. En effet, tout élément deCest un carré.

(b) SiK =R, alorsR={−1,1}est un système de représentants deR×modulo les carrés. En effet, tout élément positif deRest un carré, et tout élément négatif est moins un carré.

(c) On appelle sans carré tout entierm ∈ Ztel qu’il n’est divisible par aucun carré d’un nombre premier. SoitR={m∈Z|mest sans carré}.

SiK = Q, alorsR est un système de représentants deQ× modulo les carrés. En effet, on peut écrire

a

b =ab1

b2 =mq b

2

ab = mq2 pourm ∈ Zsans carré. En plus, sim = m rs2

pourm, m sans carré, alors m | m; de la même façon, m | m; comme metm ont le même signe, on obtient m = m, l’unicité.

100 12 QUADRIQUES Dans le théorème de la classification des quadriques, nous utiliserons les notations suivantes : Pour n∈N, les coefficients des matrices symétriquesA∈Mat(n+1)×(n+1)(K)seront numérotés ainsi :

A=





a0,0 a0,1 . . . a0,n a0,1 a1,1 . . . a1,n

... ... . .. ... a0,n a1,n . . . an,n





.

SoitAnle bloc de taillen×ndeAen bas à droite :

An=



a1,1 . . . a1,n ... . .. ... a1,n . . . an,n

.

Lemme 12.14. SoientA∈Mat(n+1)×(n+1)(K)symétrique,C ∈GLn(K)ety∈Kn. Alors CfytrACfy

n=CtrAnC.

En particulier, le rang deAnest égal au rang de CfytrACfy

n. Donc le rang deAnest invariant par équivalence de polynômes quadratiques.

Démonstration. Les faits que la première colonne deCfytrest le vecteur

10

...

0

!

et que la première ligne deCfyest le vecteur(1 0... 0)montrent le résultat.

Théorème 12.15 (Classification des quadriques). Soit R un système de représentants de K× mo-dulo les carrés. SoitqA(X1, . . . , Xn)le polynôme quadratique associé à la matrice symétriqueA ∈ Mat(n+1)×(n+1)(K). Soitrle rang de la matriceAn.

Nous avons les trois cas :

(I) Sirk(A) =r, alors il existe desa2, a3, . . . , ar ∈Rtels queqA(X1, . . . , Xn)est équivalent à X12+a2X22+a3X32+· · ·+arXr2.

(II) Sirk(A) =r+ 1, alors il existe desa1, a2, . . . , ar ∈Rtels queqA(X1, . . . , Xn)est équivalent àa1X12+a2X22+· · ·+arXr2+ 1.

(III) Sirk(A) =r+ 2, alorsr≤n−1et il existe desa1, a2, . . . , ar ∈Rtels queqA(X1, . . . , Xn) est équivalent àa1X12+a2X22+· · ·+arXr2+ 2Xr+1.

Démonstration. Pour obtenir ces formes spéciales, nous avons le droit d’utiliser seulement ces opé-rations simultanées sur les lignes et les colonnes qui correspondent aux matricesCfy avecC une des matrices de la définition 1.39 ety∈Knn’importe quel vecteur.

On procède en plusieurs étapes :

(1) A cause du lemme 12.14, la proposition 12.3 montre qu’en utilisant des matricesCf0la matriceA peut être transformée en

B=

(2) Noter qu’additionner lai-ème ligne (pouri > 1) sur la première correspond à la matriceidgeitr oùei1 est lei-ème vecteur canonique. Nous pouvons donc transformer notre matrice plus pour obtenir

(3) C’est ici où la distinction des cas intervient.

(I) Supposons b0,0 = b0,r+1 = b0,r+2 = · · · = b0,n = 0. Dans ce cas le rang deB (qui est égal au rang deA) est égal à r. On pourra encore diviser parb1,1 (à cause de l’élément 06=x∈Kdans la définition de l’équivalence) pour obtenir

B =

Finalement, par la muliplication de lai-ème colonne et lai-ème ligne pour2 ≤i≤rpar un élément convenableadansK(ce qui revient à multiplierbi,ipara2) on peut choisirbi,i dansR. MaintenantqBest précisement de la forme de (I) dans l’assertion.

102 12 QUADRIQUES (II) Supposonsb0,r+1 =b0,r+2 =· · ·=b0,n = 0, maisb0,0 6= 0. Dans ce cas le rang deB (qui

est égal au rang deA) est égal àr+ 1. Après division parb0,0, on obtient

B =















1 0 . . . 0 0 . . . 0 0 b1,1 0 . . . 0 0 . . . 0 ... 0 b2,2 . .. ... 0 . .. 0 0 0 0 . .. 0 0 . . . 0 0 0 . . . 0 br,r 0 . . . 0 0 0 . . . 0 0 . . . 0 ... ... . .. ... ... ... . .. ...

0 0 . . . 0 0 0 . . . 0















 .

Comme dans (I), on peut aussi forcerbi,i∈Rpour1≤i≤r. MaintenantqB est précise-ment de la forme de (II) dans l’assertion.

(III) Supposons qu’il existe r+ 1 ≤ i ≤ ntel que b0,i 6= 0. En échangeant des lignes et des colonnes simultanément, on peut d’abord obtenirb0,r+1 6= 0. En divisant la matrice par b0,r+1, on peut donc mettre ce coefficient égal à1. En additionnant−b0,j fois la(r+ 1)-ème ligne sur laj-ème pourr+ 2≤j ≤n(ce qui correspond à la matrice(Q^r,j1)0tr) on arrive à annulerb0,jpour cesj. On a donc la matrice

B =

















0 0 . . . 0 0 1 0 . . . 0 0 b1,1 0 0 0 0 . . . 0 ... 0 b2,2 0 . . . 0 . .. ... 0 0 0 0 . .. 0 0 0 . . . 0 0 0 0 0 br,r 0 0 . . . 0 1 0 0 . . . 0 0 0 . . . 0 0 0 . . . 0 0 0 . . . 0 ... ... . .. ... ... ... 0 . .. ...

0 0 . . . 0 0 0 . . . 0

















 .

On voit que le rang deBest égal àr+2. Comme dans (I) et (II), on peut aussi forcerbi,i∈R pour1≤i≤r. MaintenantqBest précisement de la forme de (III) dans l’assertion.

Cela finit la démonstration.

Corollaire 12.16. Soit K = C. Soit q(X1, . . . , Xn) ∈ C[X1, . . . , Xn] un polynôme quadratique non-nul. Alors il est équivalent à un unique polynôme parmi les3n−1polynômes suivants :

(I) X12+· · ·+Xr2 pour1≤r≤n; (II) X12+· · ·+Xr2+ 1pour1≤r≤n;

(III) X12+· · ·+Xr2+ 2Xr+1pour1≤r ≤n−1.

Démonstration. On sait queR = {1} est un système de représentants pourC× modulo les carrés.

Donc le théorème 12.15 implique queq est équivalent à un des polynômes dans la liste. L’unicité provient du fait que dans ce cas le rang ensemble avec le type ((I), (II), (III)) est assez pour uniquement caractériser le polynôme.

Notre prochain but est une classification explicite des quadriques réelles. Pour cela, il nous faut encore montrer le théorème suivant de Sylvester. D’abord nous avons besoin d’un lemme.

Lemme 12.17. SoitA ∈ Matn×n(R) une matrice symétrique et soithv, wiA := hAv, wi la forme symétrique définie parAsurRn.

(a) Il existe des sous-espacesV+, V, V0≤Rntels que

• Rn=V+⊥V⊥V0,

pour tout06=v∈V+, on ahv, viA>0,

pour tout06=v∈V, on ahv, viA<0et

pour tout06=v∈V0, on ahv, viA= 0.

(b) SiV+, V, V0sont des sous-espaces ayant les propriétés dans (a), alors

• dimV+est le nombre de valeurs propres positives deA,

• dimVest le nombre de valeurs propres négatives deAet

• dimV0est le nombre de valeurs propres0deA.

On doit compter les valeurs propres avec multiplicités, c’est-à-dire le nombre de fois la valeur propre apparaît sur la diagonale après diagonalisation.

Démonstration. Par le théorème spectral, nous avons une base orthonormale v1, . . . , vs, vs+1, . . . , vr, vr+1, . . . , vn

deRntelle quevipour1≤i≤ssont des vecteurs propres pour une valeur propre positive,vi pour s+ 1 ≤ i ≤r sont des vecteurs propres pour une valeur propre négative etvi pours+ 1 ≤ i≤ r sont des vecteurs propres pour la valeur propre0. On prendV+comme le sous-espace engendré par v1, . . . , vsetVicomme celui engendré parvs+1, . . . , vretV0comme celui engendré parvr+1, . . . , vn. Il est clair que toutes les propriétés de (a) et (b) sont satisfaites pour ces espaces.

Soient maintenantV+,V,V0d’autres espaces ayant les propriétés de (a). On montre queV+∩(V ⊕ V0) = 0: si06=v=w+w0pourw∈V etw0∈V0était un vecteur dans l’intersection, on aurait d’un parthv, viA >0et d’autre parthw+w0, w+w0iA = hw, wiA+hw0, w0iA ≤ 0. Cela montre queV+⊕V ⊕V0est un sous-espace deRn, doncdimV+≤dimV+. Par symétrie, on a aussi dimV+ ≤dimV+, donc l’égalité. Les arguments pour les deux autres égalités sont similairs.

Théorème 12.18 (Sylvester). SoitA ∈ Matn×n(R)une matrice symétrique et soit C ∈ GLn(R).

Alors, AetCtrAC possèdent le même nombre de valeurs propres positives. La même assertion est vraie pour les valeurs propres négatives.

104 13 DUALITÉ Démonstration. On utilise la notation du lemme 12.17 pour la forme bilinéaireh,iA. Considérons C1V+. Si06=v ∈C1V+(doncCv∈V+), alors

0<hCv, CviA=hACv, Cvi=hCtrACv, vi=hv, viCtrAC. En plus, siw∈C1V, alors

0 =hCv, CwiA=hACv, Cwi=hCtrACv, wi=hv, wiCtrAC,

doncC1V+ ⊥C1V. Faisant des arguments similaires, on obtient queC1V+,C1V, C1V0 sont des sous-espaces qui satisfont aux propriétés dans (a) du lemme 12.17 pour la forme bilinéaire h,iCtrAC. Donc la dimension deV+(qui est le nombre de valeurs propres positives pourA) est égal au nombre de valeurs propres positives pourCtrAC. L’argument pour les valeurs propres négatives est le même.

Corollaire 12.19. Soit K = C. Soit q(X1, . . . , Xn) ∈ C[X1, . . . , Xn] un polynôme quadratique non-nul. Alors il est équivalent à un unique polynôme parmi les3n22+5n−1polynômes suivants :

(I) X12+· · ·+Xs2−Xs+12 − · · · −Xr2pour1≤s≤r ≤n;

(II) X12+· · ·+Xs2−Xs+12 − · · · −Xr2+ 1pour0≤s≤r≤n,1≤r;

(III) X12+· · ·+Xs2−Xs+12 − · · · −Xr2+ 2Xr+1pour0≤s≤r ≤n−1,1≤r.

Démonstration. On sait queR ={−1,1}est un système de représentants pourR×modulo les carrés.

Donc le théorème 12.15 implique que q est équivalent à un des polynômes dans la liste. L’unicité provient du fait que la différence entre le rang de la grande matrice et celui du bloc de taille n en bas à droite détermine le type ((I), (II), (III)). Donc il suffit de connaîtr le nombre de valeurs propres positives (et négatives), à cause du théorème de Sylvester 12.18.

Le nombre de polynômes de type (I) de rangr est égal àr(le signe devantX1 est toujours+), donc il existe1 + 2 +· · ·+n = n(n+1)2 polynômes de type (I). Le nombre de polynômes de type (II) de rangrest égal àr+ 1(le signe devantX1peut être1ou−1), donc il existe2 + 3 +· · ·+ (n+ 1) =

(n+1)(n+2)

2 −1polynômes de type (II). Similairement, Le nombre de polynômes de type (III) de rangr est égal àr+ 1, maisrest borné parn−1, donc il existe2 + 3 +· · ·+n= n(n+1)2 −1polynômes de type (III). On obtient donc

n(n+ 1)

2 +(n+ 1)(n+ 2)

2 −1 +n(n+ 1)

2 −1 = 3n2+ 5n 2 −1, le nombre dans l’assertion.

13 Dualité

Objectifs :

• Maîtriser les concepts d’espace dual et d’application duale ;

• connaître la relation avec les matrices transposées ;

• connaître la définition et les propriétés fondamentales des forme bilinéaires ;

• connaître l’application aux rangs des lignes et des colonnes de matrices ;

• connaître des exemples et savoir démontrer des propriétés simples.

Dans cette section, nous introduisons une théorie de dualité valable pour tout corpsK(non seulement pourRetC).

Les résultats principaux de cette section sont

• l’interprétation des matrices transposées comme les matrices qui représentent des applications

« duales » ;

• le rang des colonnes d’une matrice est égale au rang des lignes ; cela est parfois utile pour des calculs.

Nous commençons par l’interprétation des matrices transposées comme les matrices représentant les applications duales. Pour cela nous introduisons d’abord l’espace vectoriel dualV d’un espace vec-torielV.

Lemme 13.1. SoientV, W deuxK-espaces vectoriels.

(a) L’ensemble des applicationsK-linéaires

HomK(V, W) :={f :V →W |f estK-linéaire} est unK-espace vectoriel pour l’addition

(f +g)(v) :=f(v) +g(v)pourf, g∈HomK(V, W)etv∈V et la multiplication scalaire

(x.f)(v) :=x.(f(v)) =f(x.v)pourf ∈HomK(V, W), x∈Ketv∈V.

(b) Soient S une K-base de V et f : S → W une application. Alors, il existe un unique F ∈ HomK(V, W)tel queF|S =f, notammentF(P

sSass) =P

sSasf(s).

Démonstration. Calculs simples.

Définition 13.2. SoitV unK-espace vectoriel. LeK-espace vectoriel (voir le lemme 13.1(a)) V := HomK(V, K)

est appelé l’espace dual deV.

Proposition 13.3. SoitV unK-espace vectoriel de dimension finien.

(a) SoitS = {s1, . . . , sn}uneK-base deV. Pour tout1 ≤ i ≤ n, soitsi l’unique (par le lemme 13.1(b)) élément dansVtel que pour tout1≤j≤non asi(sj) =δi,j =

(1 sii=j, 0 sii6=j.

Alors,S :={s1, . . . , sn}est uneK-base deV, appelé la base duale.

106 13 DUALITÉ (b) SiV est deK-dimension finie, alorsdimK(V) = dimK(V).

Démonstration. (a) IndépendanceK-linéaire : Soit0 =Pn

i=1aisi aveca1, . . . , an∈K. Alors, pour tout1≤j≤nnous avons

0 = Xn i=1

aisi(sj) = Xn

i=1

aiδi,j =aj. Génération : Soitf ∈V. Pour1≤j≤n, posonsaj :=f(sj)etg:=Pn

i=1aisi ∈V. Nous avons g(sj) =

Xn i=1

aisi(sj) =aj =f(sj)

pour tout1≤j≤n, doncf =g.

(b) La dimension deV est le cardinal de toute base pourV. Par (a), la base duale possède le même cardinal que toute base deV, donc la dimension deVest égale à celle deV.

Définition-Lemme 13.4. SoientV, W deuxK-espaces vectoriels et ϕ : V → W une application K-linéaire. Alors, l’application

ϕ :W →V, f 7→ϕ(f) =f ◦ϕ estK-linéaire. Elle est appelée l’application duale deϕ.

Démonstration. D’abord il faut observer queϕ◦f estK-linéaire ; mais, cela résulte du fait que la composition de deux applications linéaires est linéaire. Soientf, g∈Wetx∈K. Nous concluons la preuve par le calcul

ϕ(x·f+g)(v) = ((x·f +g)◦ϕ)(v) = (x·f+g)(ϕ(v))

=xf(ϕ(v)) +g(ϕ(v)) = (xϕ(f) +ϕ(g))(v).

pour toutv∈V, doncϕ(x·f +g) =xϕ(f) +ϕ(g).

Proposition 13.5. SoientV, W deuxK-espaces vectoriels etϕ:V →W une applicationK-linéaire.

Soient en plusS ={s1, . . . , sn}uneK-base deV etT ={t1, . . . , tm}uneK-base deW. Alors, MT,S(ϕ)tr

=MS,T).

Donc, la matrice qui représenteϕ pour les bases duales est la matrice transposée de la matrice qui représenteϕ.

Démonstration. Nous écrivons

MT,S(ϕ) =





a1,1 a1,2 · · · a1,n a2,1 a2,2 · · · a2,n ... ... . .. ... am,1 am,2 · · · am,n





 etMS,T) =





b1,1 b1,2 · · · b1,m b2,1 b2,2 · · · b2,m ... ... . .. ... bn,1 bn,2 · · · bn,m





.

Cela signifie

ϕ(sj) = Xm

i=1

ai,jtietϕ(tk) = Xn

i=1

bi,ksi

pour tout1≤j≤net1≤k≤m. Donc, d’un côté (ϕ(tk))(sj) =tk(ϕ(sj)) =tk(

Xm i=1

ai,jti) = Xm

i=1

ai,jtk(ti) =ak,j

et de l’autre côté

(tk))(sj) = Xn i=1

bi,ksi(sj) =bj,k, d’oùak,j =bj,k, comme énoncé.

L’espace dual donne lieu à une forme bilinéaire naturelle, comme nous allons le voir dans l’exemple 13.8(b) ; d’abord nous faisons les définitions nécessaires.

Définition 13.6. SoientV, W deuxK-espaces vectoriels. On appelle forme bilinéaire toute applica-tion

h·,·i:V ×W →K telle que

• ∀a ∈ K ∀v1, v2 ∈ V ∀w ∈ W : hav1 +v2, wi = ahv1, wi +hv2, wi (linéarité dans la première variable) et

• ∀b ∈ K ∀v ∈ V ∀w1, w2 ∈ W : hv, bw1 +w2i = bhv, w1i+hv, w2i (linéarité dans la deuxième variable).

Soith·,·i:V ×W →Kune forme bilinéaire. Pour un sous-espaceV1 ≤V, on appelle V1 :={w∈W | ∀v∈V1 :hv, wi= 0} ≤W

le complément orthogonal deV1 dansW. Pour un sous-espaceW1 ≤W, on appelle

W1:={v∈V | ∀w∈W1 :hv, wi= 0} ≤V le complément orthogonal deW1 dansV.

On dit que la forme bilinéaire est non-dégénérée si

• ∀06=v∈V ∃w∈W :hv, wi 6= 0et

• ∀06=w∈W ∃v ∈V :hv, wi 6= 0.

Dans la suite, nous allons écrirehv, W1i= 0pour∀w∈W1 :hv, wi= 0(et aussi dans l’autre sens).

Lemme 13.7. SoientV, W deuxK-espaces vectoriels eth·,·i:V ×W →Kune forme bilinéaire.

108 13 DUALITÉ (a) Pour tout sous-espaceV1≤V, le complément orthogonal deV1dansW est un sous-espace deW

et pour tout sous-espaceW1 ≤W, le complément orthogonal deW1dansV est un sous-espace deV. deuxème assertion suit par le même argument.

(c) Cela n’est qu’une autre manière d’écrire la définition.

Exemple 13.8. (a) L’application

h·,·i:Kn×Kn→K, h

est bilinéaire et non-dégénérée.

(b) SoitV unK-espace vectoriel de dimension finie. L’application h·,·i:V×V →K, hf, vi:=f(v) est bilinéaire et non-dégénérée.

SoientS ={s1, . . . , sn}uneK-base deV etS la base duale. Soientf =Pn

Nous avons retrouvé la forme bilinéaire de (a).

Proposition 13.9. SoientV, W deuxK-espaces vectoriels de dimensions finies eth·,·i:V×W →K une forme bilinéaire non-dégénérée.

(a) Les applications

ϕ:V →W, v 7→ϕ(v) =:ϕvavecϕv(w) :=hv, wi, et

ψ:W →V, w7→ψ(w) =:ψwavecψw(v) :=hv, wi sont des isomorphismesK-linéaires.

(b) dimK(V) = dimK(W).

Démonstration. La K-linéarité de ϕ et ψ est claire. Nous montrons l’injectivité de ϕ. Pour cela soitv ∈ ker(ϕ), c’est-à-dire, ϕv(w) = hv, wi = 0 pour tout w ∈ W. Le fait que la forme bili-néaire soit non-dégénérée implique doncv = 0, d’où l’injectivité. Nous en déduisonsdimK(V) ≤ dimK(W) = dimK(W).

Les mêmes arguments appliqués àψdonnent queψest injectif et doncdimK(W) ≤dimK(V) = dimK(V), d’où dimK(V) = dimK(W). En conséquence,ϕ etψ sont des isomorphismes (car la dimension de l’image est égale à la dimension de l’espace d’arrivée qui sont donc égaux).

Corollaire 13.10. SoientV, W deuxK-espaces vectoriels de dimension finie.

(a) Alors, l’application

ψ:V →(V), v7→ψv = evv :V →Koùψv(f) = evv(f) =f(v)pourf ∈V est un isomorphismeK-linéaire.

(b) Soitα:V →W une applicationK-linéaire. Alors, le diagramme

V α //

ψ1

W

ψ2

(V)

)

//(W).

est commutatif oùψ1etψ2sont les isomorphismes de (a), c’est-à-direψ2◦α= (α)◦ψ1. (c) Soitt1, . . . , tnuneK-base deV. Alors, il existe uneK-bases1, . . . , sndeV telle queti(sj) =

δi,j pour tout1≤i, j≤n.

Démonstration. (a) La forme bilinéaireV×V →K, donnée parhf, vi 7→f(v)de l’exemple 13.8(b) est non-dégénérée. L’applicationψest leψde la proposition 13.9.

(b) Soit v ∈ V. Nous avons d’un côté (α)1(v)) = (α)(evv) = evv ◦α et de l’autre côté ψ2(α(v)) = evα(v) avec les notations de (a). Pour vérifier que les deux sont égaux, soitf ∈ W. Nous avons

evv(f)) = evv(f◦α) =f(α(v))etevα(v)(f) =f(α(v)),

110 13 DUALITÉ donc l’égalité demandée.

(c) Soitt1, . . . , tn∈(V)la base duale, c’est-à-diretj(ti) =δi,j pour tout1≤i, j≤n. Commeψ de (a) est un isomorphisme, il existes1, . . . , sn(automatiquement uneK-base deV car c’est l’image d’une base par un isomorphisme) tels queψ(sj) = evsj =tj, donctj(f) =f(sj)pour toutf ∈V. En particulier, nous avonstj(ti) =ti(sj) =δi,j.

Proposition 13.11. SoientV, W deuxK-espaces vectoriels de dimensions finies eth·,·i:V ×W → K une forme bilinéaire non-dégénérée.

(a) SoitS={s1, . . . , sn}uneK-base deV. Alors, il existe uneK-baseT ={t1, . . . , tn}deW telle quehsi, tji=δi,jpour tout1≤i, j≤n.

(b) Pour tout sous-espaceV1≤V nous avons(V1)=V1.

Également : pour tout sous-espaceW1≤W nous avons(W1)=W1.

(c) Pour tout sous-espaceV1≤V nous avonsdimK(V1) = dimK(V)−dimK(V1).

Également : pour tout sous-espaceW1≤W nous avonsdimK(W1) = dimK(W)−dimK(W1).

Démonstration. (a) Nous considérons le K-isomorphisme ϕ : V → W de la proposition 13.9 et nous posons fi := ϕ(si) = ϕsi pour tout1 ≤ i ≤ n. Le corollaire 13.10 nous permet de choisir uneK-baset1, . . . , tndeW telle quefi(tj) = δi,j pour tout1 ≤ i, j ≤ n. Finalement, nous avons hsi, tji=ϕsi(tj) =fi(tj) =δi,j, comme exigé.

(b,c) Nous choisissons uneK-bases1, . . . , sddeV1que nous étendons en uneK-base s1, . . . , sd, sd+1, . . . , sn

de V par la proposition 1.30. En utilisant (a) nous obtenons une K-baset1, . . . , tn de W telle que hsi, tji=δi,jpour tout1≤i, j≤n.

Nous montrons d’abordV1 =htd+1, . . . , tni. L’inclusion «⊇» est claire. Soit doncw=Pn

i=1aiti ∈ V1, c’est-à-direhV1, wi= 0, donc pour tout1≤j≤dnous avons

0 =hsj, wi=hsj, Xn

i=1

aitii= Xn

i=1

aihsj, tii=aj,

et doncw∈ htd+1, . . . , tni. En conséquence,dimK(V1) =n−d= dimK(V)−dimK(V1).

Le même argument utilisé pourV1montre quehs1, . . . , sdiest uneK-base pour(V1)qui est donc égal àV1.

Corollaire 13.12. SoientV, W deuxK-espaces vectoriels etϕ:V →W une applicationK-linéaire.

Nous avons les égalités

(1) im(ϕ) = ker(ϕ)(oùprovient de la forme bilinéaire naturelleW×W →K), (2) ker(ϕ)= im(ϕ)(oùprovient de la forme bilinéaire naturelleV×V →K), (3) dimK(im(ϕ)) = dimK(im(ϕ))et

(4) dimK(ker(ϕ)) = dimK(ker(ϕ)).

Démonstration. On montre d’abord (1). Soitf ∈W. Alors

f ∈im(ϕ)⇔ ∀v∈V : 0 =hf, ϕ(v)i=f(ϕ(v))⇔f◦ϕ= 0⇔f ∈ker(ϕ), donc (1).

Nous adaptons légèrement les arguments pour obtenir (2) ainsi. Soitv∈V. Alors v ∈im(ϕ)⇔ ∀f ∈W : 0 =hϕ(f), vi=hf◦ϕ, vi=f(ϕ(v)) =hf, ϕ(v)i

⇔ϕ(v)∈W⇔ϕ(v) = 0⇔v∈ker(ϕ), d’oùim(ϕ) = ker(ϕ). En appliquant, la proposition 13.11 nous obtenons im(ϕ) = ker(ϕ); c’est (2).

Par le corollaire 1.38, nous avonsdimK(V) = dimK(im(ϕ)) + dimK(ker(ϕ)). La proposition 13.11 nous donne

dimK(im(ϕ)) = dimK(V)−dimK(ker(ϕ)) = dimK(ker(ϕ)) = dimK(im(ϕ)), d’où (3). L’argument pour obtenir (4) est similaire :

dimK(ker(ϕ)) = dimK(V)−dimK(im(ϕ)) = dimK(im(ϕ)) = dimK(ker(ϕ)), ce qui conclut la démonstration.

Définition 13.13. SoitM ∈Matm×n(K)une matrice.

Le rang des colonnes deM est défini comme la dimension du sous-espace deKm engendré par les colonnes deM (vues comme éléments deKm).

Le rang des lignes deMest défini comme la dimension du sous-espace deKnengendré par les lignes deM (vues comme éléments deKn).

Corollaire 13.14. Soit M ∈ Matm×n(K). Alors, le rang des colonnes deM est égal au rang des lignes deM. On parle simplement du rang deM.

Démonstration. Le rang deM est la dimension de l’image deϕM, l’applicationK-linéaireKn → Km associée àM (qui envoie v ∈ Kn surM v ∈ Km). La matrice représentantϕM pour la base duale estMtr. Donc le corollaire suit directement du corollaire 13.12 car le rang des colonnes deMtr est égal au rang des lignes deM.

Dans le document Algèbre linéaire 2 (Page 97-111)