• Aucun résultat trouvé

Problème B : théorème de Cayley-Hamilton

N/A
N/A
Protected

Academic year: 2022

Partager "Problème B : théorème de Cayley-Hamilton"

Copied!
5
0
0

Texte intégral

(1)

Problème A

1) a)Par définition du produit matriciel, AV est la matrice(wi,j) où

∀(i, j)∈[[0, n]]2 wi,j = n

k=0

ai,kxkj =Pi(xj) ; on a donc bien

W =AV.

b)Dn= detWn, oùWn=





1n 2n · · · (n+ 1)n 2n 3n · · · (n+ 2)n

... ... . .. ... (n+ 1)n (n+ 2)n · · · (2n+ 1)n



; d’après la question précédente et

avec les notations de l’énoncé, j’ai doncDn= detAn×detVn, avec, puisquePi(X) =

n

j=0

n

j in−jXj, pour tout ide [[0, n]],

An=







0 0 · · · 1

n

0 ·1n n1 ·1n−1 · · · nn ·10

n

0 ·2n n1 ·2n−1 · · · nn ·20 ... ... ... ...

n

0 ·nn n1 ·nn−1 · · · nn ·n0







et Vn=







10 20 · · · (n+ 1)0 11 21 · · · (n+ 1)1 12 21 · · · (n+ 1)2

... ... ... ... 1n 2n · · · (n+ 1)n





 .

Le déterminant de Vn est le déterminant de Vandermonde du rappel, transposé, avec xj = j+ 1, pour j ∈[[0, n]]:

detVn=

0≤i<j≤n

[(j+ 1)−(i+ 1)] =

(i,j)∈En

(j−i) oùEn= (i, j)∈[[0, n]]2 /0≤i < j≤n . Il est clair que En= (i, j), 1≤j≤net 0≤i≤j−1 , d’où par réindexation :

detVn=

n

j=1 j−1

i=0

(j−i) =

n

j=1

j!.

Par ailleurs, la linéarité du déterminant par rapport à chacune des colonnes me donne :

detAn=

n

j=0

n j ×

0 0 · · · 1

1n 1n−1 · · · 10 2n 2n−1 · · · 20 ... ... ... ... nn nn−1 · · · n0

;

ce dernier déterminant sera un déterminant de Vandermonde une fois que j’aurai inversé l’ordre des colonnes, en effectuant successivement les échanges de colonnes C0 ↔Cn, C1 ↔Cn−1,. . . , soit au total n+ 1

2 transpositions (classique) ; j’obtiens alors d’après la formule du déterminant de Vandermonde, avec cette fois xj =j :

detAn=

n

j=0

n

j ×(−1)⌊n+12

0≤i<j≤n

(j−i) = (−1)⌊n+12n

j=0

n j ×

n

j=1

j!

(d’après le calcul ci-dessus).

Enfin,

n

j=0

n j =

n

j=0

n!

j! (n−j)! = (n!)n+1

n

j=0

1 j!×

n

j=0

1

(n−j)! = (n!)n+1

n

j=0

1 j!

2

, (en réindexant le second produit). D’où l’expression “simple” :

Dn= (−1)⌊n+12 ⌋(n!)n+1.

(2)

c)La relation classique de trigonométrie :

∀m∈N ∀x∈R cos (m+ 1)x+ cos (m−1)x= 2 cosxcosmx montre que la suite de polynômes (Tm) définie par récurrence par

T0 = 1 ; T1 =X et ∀m∈N Tm+1= 2XTm−Tm−1

est telle que

∀m∈N ∀x∈R Tm(cosx) = cosmx(vérification par récurrence !).

De plus, si deux polynômesTmetUmvérifient cette dernière propriété, alorsTm−Umest un polynôme qui s’annule en tout point du segment[−1,1]: il admet une infinité de racines, doncTm=Um, d’où l’unicité :

Pour tout mde N, il existe un unique polynôme Tm dans R[X]tel que : ∀x∈R cosmx=Tm(cosx).

Une récurrence immédiate à partir de la relation définissant la suite (Tm) montre que : Pour tout m,Tm est de degrém, de coefficient dominant1 sim= 0,2m−1 si m∈N.

Ce sont les (classiques !) polynômes de Tchebychev. . . Une autre vision efficace repose sur la formule de De Moivre :

cosmx= Re (cosx+isinx)m =

E(m/2)

p=0

m

2p cosm−2px·(isinx)2p=Tm(cosx) en posant

Tm(X) =

E(m/2)

p=0

m

2p Xm−2p· X2−1 p.

Le coefficient de Xm est

E(m/2) p=0

m

2p que l’on a intérêt à connaître (c’est bien 2m−1 pour m > 0, 1 pour m= 0!). Cf. (1−1)m. . .

Comme aub), avec les mêmes notations,∆n= detAn×detVn, avec ici Pi =Ti, pour toutide [[0, n]], et

An=







1 0 · · · 0 1 0 · · · 0 2 . .. ...

(∗) . .. 0

2n−1







et Vn=







1 · · · 1

(cosx0)1 · · · (cosxn)1 (cosx0)2 · · · (cosxn)2

... ... ... (cosx0)n · · · (cosxn)n





 .

La matrice An est ici triangulaire inférieure, avecdetAn= 2(n−1)2 n.

Enfin, le déterminant de Vn est un déterminant de Vandermonde, avec cosxj à la place de xj, pour j∈[[0, n]]. En conclusion :

n= 2n(n2−1) ·

0≤i<j≤n

(cosxj −cosxi).

2) a)Si deux des ai sont égaux, ∆n a deux lignes identiques et vaut donc 0 ; de même avec les bj et les colonnes :

Si lesai (resp. les bj) ne sont pas distincts 2 à 2, ∆n est nul.

b)Je fais subir à∆n les opérations préconisées sur les colonnes : Cj ←Cj −an+bn

an+bj ·Cn pour j = 1, . . . , n−1.

Pour1≤i≤net1≤j ≤n−1, j’ai : 1

ai+bj −an+bn

an+bj · 1

ai+bn = (an−ai) (bn−bj) (ai+bj) (an+bj) (ai+bn).

(3)

Donc le déterminant obtenu a pour dernière ligne 1

an+bn précédé den−1zéros ; en le développant par rapport à cette dernière ligne, j’obtiens :

n= 1

an+bn · (an−ai) (bn−bj)

(ai+bj) (an+bj) (ai+bn) 1≤i,j≤n−1. Dans ce dernier déterminant, an−ai

ai+bn est en facteur dans la ligne i, d’où, par multilinéarité du déterminant :

n= 1 an+bn ·

n−1

i=1

an−ai

ai+bn · bn−bj

(ai+bj) (an+bj) 1≤i,j≤n−1.

Cette fois, bn−bj

an+bj est en facteur dans la colonne j, d’où la relation de récurrence :

n= 1 an+bn ·

n−1

i=1

an−ai

ai+bn ·

n−1

i=1

bn−bj

an+bj ·∆n−1. J’en déduis par une récurrence somme toute banale que

n= Vn(a1, . . . , an)·Vn(b1, . . . , bn)

1≤i,j≤n

(ai+bj) , Vn désignant le déterminant de Vandermonde.

Problème B : théorème de Cayley-Hamilton

1) a)Par définition, x appartient àFu,x (en effet x =u0(x)). En outre, Fu,x est engendré par la famille (up(x))p∈N, doncu(Fu,x) est engendré par la famille(up+1(x))p∈N: il en résulte que u(Fu,x)⊂Fu,x. Fu,x est donc un sous-espace vectoriel de E contenant x et stable paru.

Soit maintenant Gun sous-espace vectoriel de E contenant x et stable par u. Je dois montrer que Fu,x ⊂ G. Or x est dans G et G est stable par u ; une récurrence immédiate prouve alors que :

∀p∈N up(x)∈G. D’où, puisqueG, en tant que sous-espace vectoriel, est stable par combinaisons linéaires, Fu,x⊂G. En conclusion :

Fu,x est le plus petit sous-espace vectoriel deE contenant x et stable paru.

b)Puisque xest non nul par hypothèse, Fu,x ={0}. Si u(x) colinéaire à x, tous les up(x),p∈N, sont colinéaires à x (récurrence immédiate) ;Fu,x est alors la droite vectorielle engendrée par x:

Siu(x) est colinéaire à x, alors Fu,x est de dimension 1.

c)La famille (uj(x))0≤j≤m−1 est une famille de m vecteurs de Fu,x qui est de dimension m par hy- pothèse ; je vais montrer par l’absurde que c’est une famille libre : je suppose l’existence d’une famille (λj)0≤j≤m−1 de scalaires non tous nuls tels que m−1

j=0

λjuj(x) = 0. Soit alors k le plus grand des indices j tels que λj = 0 ; uk(x) s’écrit donc comme combinaison linéaire de (uj(x))0≤j≤k−1 ; par une récurrence banale, j’en déduis qu’il en est de même de tous les up(x), p≥k, d’où une con- tradiction, puisque la famille (uj(x))0≤j≤k−1 engendreraitFu,x alors qu’elle comporte au plusm−1 vecteurs. Finalement :

(uj(x))0≤j≤m−1 est une base deFu,x. 2) a)Soit (λj)0≤j≤n−1 une famille de scalaires tels que n−1

j=0

λjuj = 0. En évaluant en x0, j’obtiens

n−1 j=0

λjuj(x0) = 0et donc tous lesλj sont nuls puisque la famille (uj(x0))0≤j≤n−1 est libre. Donc : La famille (uj)0≤j≤n−1 est libre dans L(E).

(4)

b)L’implication (i)⇒(ii) est banale.

Je suppose que v(x0) =w(x0); j’en déduis que : ∀j∈N uj[v(x0)] =uj[w(x0)].

Or v etw commutent avec u, donc avec les puissances de u (récurrence évidente).

D’où : ∀j ∈N v uj(x0) =w uj(x0) .

En particulier, v et w donnent la même image de la base (uj(x0))0≤j≤n−1 ; par conséquent v =w.

En conclusion :

(i)⇔(ii)

c)Il est clair que les uj sont dans C(u) ; d’après a), la famille (uj)0≤j≤n−1 est libre, il me reste à prouver qu’elle engendre C(u). Soit donc v ∈ C(u) ; le vecteur v(x0) se décompose dans la base (uj(x0))0≤j≤n−1 de E : v(x0) =

n−1 j=0

λjuj(x0). Alors les éléments v et

n−1 j=0

λjuj de C(u) coïncident enx0, il sont donc égaux d’après la question précédente etv appartient bien àVect(uj)0≤j≤n−1. En conclusion :

B= (uj)0≤j≤n−1 est une base deC(u).

d)Le vecteur un(x0) se décompose dans la base(uj(x0))0≤j≤n−1 deE, donc : Il existe une unique famille(aj)0≤j≤n−1 de scalaires tels que : un(x0) =n−1

j=0

ajuj(x0).

Alors la matrice de udans la base (uj(x0))0≤j≤n−1 s’écrit :

A=







0 0 · · · 0 a0

1 0 · · · 0 a1

0 1 . .. ... ... ... . .. ... 0 ... 0 · · · 0 1 an−1





 .

Soit λ∈K; il s’agit (au signe près) de calculer le déterminant suivant :

det (A−λI) =

−λ 0 · · · 0 a0

1 −λ · · · 0 a1

0 . .. ... ... ... ... . .. ... −λ ... 0 · · · 0 1 an−1−λ

.

J’effectue (habilement) l’opération suivante sur les lignes : L1←L1+ n

i=2

λi−1.Li = n

i=1

λi−1.Li, qui ne modifie pas la valeur du déterminant, puisque j’ajoute à une ligne une combinaison linéaire des autres.

Suite à cette opération, pour tout jdans [[1, n−1]], la valeur située surL1 dans la colonnej (qui ne comportait que deux termes non nuls, −λen ligneiet 1 en lignei+ 1) vaut :

λi−1.(−λ) +λi.1 = 0 et la valeur située sur L1 en colonnenvaut :

n−1

i=1

λi−1.ai−1n−1.(an−1−λ) =

n−1

k=0

akλk−λn=−P(λ) où P =Xn

n−1

k=0

akXk.

Il n’y a plus qu’à développer par rapport à cette première ligne :

det (A−λI) =

0 0 · · · 0 −P(λ) 1 −λ · · · 0 a1

0 . .. ... ... ... ... . .. ... −λ ... 0 · · · 0 1 an−1−λ

= (−1)1+n −P(λ)

1 −λ · · · 0 0 . .. ... ... ... . .. ... −λ 0 · · · 0 1

.

Or ce dernier déterminant vaut 1 (matrice triangulaire supérieure !).

(5)

Finalement, du fait que χA(λ) = (−1)ndet (A−λI), χA=Xnn−1

k=0

akXk.

N.B. Ce résultat est important, car il montre que tout polynôme de terme dominantXn peut être vu comme le polynôme caractéristique d’une certaine matrice carrée d’ordren(et donc d’un certain endomorphisme). La matrice Aest appelée matrice compagne du polynôme P.

Nous venons d’établir que :

χu(X) =Xnn−1

j=0

ajXj.

Par définition même des aj, il en découle χu(u) (x0) = 0, d’où d’après b): χu(u) = 0.

3) a)Je choisis une base de E adaptée à F, plus précisément constituée d’une base BF deF complétée grâce au théorème de la base incomplète. F étant stable par u, la matrice de u dans cette base est triangulaire par blocs, de la forme A B

0 C où Aest la matrice de v dans la baseBF. Il en résulte que :

∀t∈K χu(t) =χv(t).det(t.I−C) et donc

χv diviseχu.

b)Fu,x est stable par uet, par construction, l’endomorphisme v induit paru sur Fu,x est cyclique. En effet Fu,x=Fv,x puisque : ∀p∈N vp(x) =up(x).

u induit sur Fu,x un endomorphisme cyclique v.

Alors, d’après 2)d), χv(v) est l’endomorphisme nul de Fu,x ; en particulier, [χv(v)] (x) = 0.

Or v est induit par u, donc[χv(u)] (x) = [χv(v)] (x) = 0. Et comme, d’après a), χv divise χu, j’en déduis que χu est de la formeQ×χv, avecQ∈K[X]et donc que χu(u) =Q(u)◦χv(u). D’où :

χu(u) (x) = 0.

c)D’après la question précédente, pour tout x non nul de E, χu(u) (x) = 0.

Or χu(u) est un endomorphisme deE et donc s’annule aussi en 0 : χu(u) = 0.

Références

Documents relatifs

Le vecteur v est donc

Endomorphismes et matrices carrées diagonalisables (seulement la dénition, cette semaine) Un endomorphisme d'un espace vectoriel E de dimension nie est dit diagonalisable s'il

[r]

On suppose que E est de dimension nie ; soit u ∈ L (E) ; la trace de la matrice de u est la même dans toute base, c'est par dénition la trace de

[r]

Par conséquent, f est strictement

les relations entre coefficients

[r]