• Aucun résultat trouvé

Réduction des endomorphismes

N/A
N/A
Protected

Academic year: 2022

Partager " Réduction des endomorphismes "

Copied!
49
0
0

Texte intégral

(1)

Réduction des endomorphismes

1. Sous-espaces stables.

2. Polynômes d’endomorphismes ; théorème des noyaux.

3. Valeurs propres, vecteurs propres, espaces propres.

4. Polynôme caractéristique ; théorème de Hamilton-Cayley.

5. Endomorphismes diagonalisables.

6. Endomorphismes nilpotents.

7. Endomorphismes trigonalisables.

8. Applications et compléments.

Pierre-Jean Hormière

__________

Introduction

« Ces spectres muets, sourds, sur leur aile funèbre Apportent au songeur cette échelle, l'algèbre. »

Victor Hugo

Soient K un corps commutatif, E un K-espace vectoriel de dimension finie, u un endomorphisme de E. On se propose d’étudier avec précision l’action de u sur les vecteurs de E.

Réduire l'endomorphisme u, c’est chercher une base de E dans laquelle la matrice de u soit la plus simple possible : diagonale ou diagonale par blocs, trigonale ou trigonale par blocs... Dans de telles bases, l’étude de l’action de u sur E est facilitée : recherche de sous-espaces stables, caractérisation des endomorphismes commutant avec u, étude des puissances de u et de leurs limites, etc. Réduire la matrice carrée A ∈ Mn(K), c’est réduire l’endomorphisme de Kn canoniquement associé à A : X → A.X, autrement dit, c’est chercher une matrice de passage P ∈ Gln(K) telle que P1.A.P soit la plus simple possible : diagonale ou diagonale par blocs, trigonale ou trigonale par blocs... Le but ultime serait de disposer de critères théoriques et pratiques permettant de reconnaître si deux matrices sont semblables, i.e. de classifier à similitude près les matrices carrées. Ce but ne sera pas complètement atteint ici, mais sera à bonne portée.

Lorsque deux matrices A et B sont semblables, les systèmes dynamiques discrets Xk+1 = A.Xk et Yk+1 = B.Yk sont conjugués, car B = P1.A.P ⇒ (∀k ≥ 0) Bk = P1.Ak.P ; de même, les systèmes dynamiques différentiels X'(t) = A.X(t) et Y'(t) = B.Y(t) sont conjugués, car ils ont pour solutions : X(t) = exp(t.A).X(0) et Y(t) = exp(t.B).Y(0) , où exp(t.B) = P1.exp(t.A).P.

Ces dynamiques linéaires aident à comprendre les dynamiques non linéaires, notamment au voisinage de leurs points d’équilibre.

Ajoutons que la théorie spectrale en dimension finie est le point de départ de la théorie spectrale des opérateurs en dimension infinie. Toutes deux ont de nombreuses applications en physique (optique, mécaniques classique et quantique), en sociologie, etc. La plupart des fonctions spéciales de l’analyse (polynômes orthogonaux, fonctions de Bessel, etc.) peuvent être présentées comme fonctions propres de certains opérateurs. Quant aux zéros de la fonction ζ sur la droite critique Re = 1/2, on pense que ce sont des valeurs propres d’un opérateur de Polya-Hilbert non encore découvert.

Par ailleurs, la théorie que nous allons exposer a des liens profonds, et un peu inattendus, avec celle des groupes finis commutatifs. Toutes deux sont en effet des cas particuliers de la théorie des modules sur les anneaux principaux. Ce point de vue abstrait, à peine abordé ici (il faut faire des choix), est exposé dans Bourbaki, MacLane Birkhoff, Lang, auxquels je renvoie.

(2)

Notations

Si E est un K-espace vectoriel, on note LLLL(E) l’algèbre des endomorphismes de E, et, indifféremment, idE ou I l’identité de E , v o u ou v.u le composé des endomorphismes u et v ; uk désigne u o u o ... o u (itéré k fois), avec la convention u0 = idE .

Dans K[X], on note P | Q la relation « P divise Q » , P ∧∧∧∧ Q = pgcd(P, Q) et P ∨∨∨∨ Q = ppcm(P, Q) le pgcd et le ppcm des polynômes P et Q.

A et B désignent en général des matrices carrées, mais parfois aussi des polynômes, X désigne, tantôt l’indéterminée de K[X], tantôt un vecteur colonne ∈ Kn ≡ MK(n, 1).

Dans les § 1 à 3, E est de dimension quelconque. À partir du § 4, il sera supposé de dimension finie.

1. Sous-espaces stables par un endomorphisme.

Définition : Soient E un K-espace vectoriel, u ∈ LLLL(E). Un sous-espace vectoriel F de E est dit u- stable si u(F) ⊂ F. On note alors uF ∈ LLLL(F) l’endomorphisme induit uF = uFF .

Proposition 1 : Soit l’ensemble V(E, u) des sev u-stables de E, ordonné par inclusion : i) V(E, u) a pour plus petit élément {0} et plus grand élément E.

ii) Si F1 et F2 sont des sev u-stables, F1 + F2 et F1 F2 sont u-stables.

iii) Plus généralement, si (Fi)i∈I est une famille de sev u-stables,

I

I i

Fi

et

I i

Fi sont u-stables.

Ainsi V(E, u) est un "sous-treillis complet" de V(E). Rappelons que

∈I i

Fi désigne l’ensemble des vecteurs qui s’écrivent x =

∈I i

xi , où (∀i) xi ∈ Fi et (xi) est à support fini.

Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈ K[X], Ker P(u) et Im P(u) sont u-stables.

Cas où E est de dimension finie.

Proposition 3 : Soient E un K-ev de dimension n, u ∈LLLL(E), F un sev de E, (e1, ..., ep) une base de F complétée en une base BBBB= (e1, ..., en) de E. Pour que F soit u-stable, il faut et il suffit que la matrice de u dans la base BB BBait la forme trigonale par blocs suivante : M = 

 D O

B A .

La matrice A a une interprétation simple : c’est la matrice de uF dans la base (e1, ..., ep).

La matrice D est moins simple à interpréter : Attention ! ce n’est pas la matrice de uG dans la base (ep+1, ..., en), où G = Vect(ep+1, ..., en), car rien ne dit que G est u-stable. Il faudrait pour cela que B

= O. On peut donner de D trois interprétations, qui sont à l’origine de différentes versions des théorèmes ultérieurs. Seule la première est à retenir.

1ère interprétation : via les projecteurs.

Soit p le projecteur sur G parallèlement à F ; v = p o u laisse stable G, puisque v(G) ⊂ Im v ⊂ Im p = G. D est clairement la matrice de vG dans la base (ep+1, ..., en).

2ème interprétation : espaces quotients.

Soit s : E → E/F la surjection canonique. L’espace quotient E/F, c’est-à-dire l’espace des classes modulo F des vecteurs de E, a pour base : (s(ep+1), ..., s(en)). L’application linéaire x ∈ E → (s o u)(x) ∈ E/F se factorise en une application E/F → E/F, car : x ≡ x' mod F ⇒ u(x) ≡ u(x') mod F , qui est linéaire. Notons uE/F l’endomorphisme de E/F tel que s o u = uE/Fo s.

Alors D = Mat( uE/F , (s(ep+1), ..., s(en) ).

3ème interprétation : dualité.

(3)

Dans la base duale BBBB* = (e1*, ..., en*), la matrice de tu est tM = 

 D B

O A

t t t

.

Cela prouve que tu laisse stable le sous-espace F° = Vect(ep+1*, ..., en*) ; tD est la matrice de tu

dans la base (ep+1*, ..., en*).

Dans le cas, assez rare, où le sous-espace F admet un supplémentaire u-stable G, alors, en recollant deux bases (e1, ..., ep) et (ep+1, ..., en) de F et G resp. en une base de E, la matrice de u sera diagonale par blocs, de la forme M = 

 D O

O A .

Exercice 1 : 1) Soit A une partie de E ; montrer que l’intersection de tous les sous-espaces u-stables contenant A est le plus petit sous-espace u-stable contenant A.

2) Soit x un vecteur de E. Montrer que le plus petit sous-espace u-stable contenant x est : Vect( x , u(x) , u2(x) , ... ) = { [P(u)](x) ; P ∈ K[X] }.

3) Plus généralement, décrire le plus petit sous-espace u-stable contenant A (on pourra considérer une famille génératrice de A).

Exercice 2 : Si u est une homothétie, quels sont les sous-espaces u-stables ? Réciproque ? Exercice 3 : Soit E un plan euclidien ; quels sont les sous-espaces stables par Rot(O, θ) ?

Exercice 4 : Soit E un espace euclidien de dim 3, u = Rot(∆, θ) la rotation d’axe ∆ et d’angle θ. Quels sont les sous-espaces u-stables ? Cns pour que deux rotations commutent ?

2. Polynômes d’endomorphismes ; théorème des noyaux.

2.1. Polynômes d’endomorphismes.

Soient E un K-espace vectoriel, u un endormorphisme de E. À tout polynôme P =

ai.Xi K[X]

on peut associer l’endomorphisme P(u) =

ai.ui (où u0 = idE et ui = u o ... o u i fois), obtenu en substituant à l’indéterminée X l’endomorphisme u.

La théorie de la substitution donne alors :

Proposition 1 : i) L’application εu : P ∈ K[X] → P(u) ∈LLLL(E) est un morphisme d’algèbres unifères ( P + Q )(u) = P(u) + Q(u) ; (λ.P)(u) = λ.P(u) ; ( P.Q )(u) = P(u) o Q(u) ; 1(u) = idE. ii) L’image de ce morphisme est un sous-algèbre commutative de LLLL(E), notée K[u]. C’est l’algèbre des polynômes de u. C’est la plus petite sous-algèbre unifère de LLLL(E) contentant u.

iii) Le noyau de ce morphisme est un idéal de K[X], dit idéal annulateur de u ; il est donc principal.

− s’il est réduit à {0}, P → P(u) est injectif. L’endomorphisme u est dit transcendant.

− sinon, il est de la forme (µu(X)), où µu(X) est le générateur unitaire de cet idéal. L’endo- morphisme u est alors dit algébrique, et µu(X) est appelé son polynôme minimal.

Remarque : Si u est transcendant, εu : P ∈ K[X] → P(u) ∈ K[u] est un isomorphisme d’algèbres. Si u est algébrique, on obtient par factorisation canonique un isomorphisme d’algèbres K[X]/(µu(X))

K[u].

Proposition 2 : Si E est de dimension finie, tout endomorphisme de E est algébrique.

Preuve : Il suffit d’observer que la famille (idE, u, u2, ..., u) est liée comme famille de n2+1 vecteurs dans un espace de dimension n2, à savoir LLLL(E). Il existe donc un polynôme non nul annulé.

Par suite, u admet un polynôme minimal, de degré ≤ n2. (On montrera plus tard que deg µu(X) ≤ n ).

Il résulte de la prop 1 qu’à toute identité polynômiale dans K[X] correspond une identité dans K[u].

(4)

Ainsi, l’identité : X3− 1 = ( X − 1 ).( X2 + X + 1 ) = ( X2 + X + 1 ).( X − 1 ) implique : u3− I = ( u − I ) o ( u2 + u + I ) = ( u2 + u + I ) o ( u − I ) .

Plus généralement l’identité Xr− 1 = ( X − 1 ).( Xr−1 + ... + X + 1 ) = ( Xr−1 +...+ X + 1 ).( X − 1 ) implique : ur − I = ( u − I ) o ( ur−1 + ... + u + I ) = ( ur−1 + ... + u + I ) o ( u − I ) .

Il en résulte en particulier que si u est nilpotent tel que ur = 0, alors I − u est inversible d’inverse : ( u − I )−1 = ur−1 + ... + u + I .

Plus généralement, si u annule un polynôme P tel que P(0) ≠ 0, u est inversible et son inverse est un polynôme de u.

Exercice 1 : Inverser les matrices :





 1 0 0

1 0 1

c b a

, 



− − 1 0 1

1 0 0

1 1 2

, 



 0 1 1

1 0 1

1 1 0

.

Exercice 2 : Soit A =





− −− 0 2 1

2 3 2

1 2 2

. Calculer A2+ 2A − 3I. En déduire An.

Exercice 3 : Soit A une matrice carrée d’ordre n. Montrer l’équivalence des propriétés : i) A est inversible ;

ii) Le polynôme minimal de A est de valuation nulle ;

iii) Il existe un polynôme P ∈ K[X] de valuation nulle tel que P(A) = O.

Exercice 4 : Soit A une matrice carrée de polynôme minimal µA(X). Soit d = deg µA(X).

1) Montrer que E = {P(A) ; P∈K[X]} est une sous-algèbre commutative de Mn(K) de dimension d.

2) Soit B = P(A) ∈ E. Montrer que B est inversible ssi Ρ∧∧∧∧µA = 1, et qu’alors B1 ∈ E. Comment trouver Q tel que B−1 = Q(A) ?

Exercice 5 : Soit f une fonction de R dans R vérifiant : (x) f(x + 2) + f(x + 1) 2 f(x) = 0 . Montrer que (∀x) 512 f(x) = 341 f(x + 9) + 171 f(x + 10) .

2.2. Notation symbolique.

Soit u un endomorphisme fixé de E. Pour tout couple (P , x) ∈ K[X]×E, on note symboliquement : P.x = [P(u)](x).

On définit ainsi une loi externe sur E, dont le domaine des scalaires est K[X]. Cette loi vérifie : (M1) P.(x + y) = P.x + P.y découle de l’additivité de P(u)

(M2) (P + Q).x = P.x + Q.x découle de (P + Q)(u) = P(u) + Q(u) (M3) (P.Q).x = P.(Q.x) découle de (P.Q)(u) = P(u)oQ(u)

(M4) 1.x = x découle de 1.x = I(x).

Jointe à l’addition, cette loi externe, fait de E un K[X]-module, noté Eu. De plus, K étant plongé dans K[X], cette loi prolonge la loi externe usuelle (λ, x) →λ.x de K×E dans E.

Exercice 6 : 1) Montrer que les sous K[X]-modules de Eu ne sont autres que les sous-espaces vectoriels u-stables de E ; retrouver alors la prop. 1 du § 1.

2) Montrer que les endomorphismes du K[X]-module Eu ne sont autres que les endomorphismes de E qui commutent à u. Plus généralement, si F est un K-ev et v un endomorphisme de F, quelles sont les applications K[X] linéaires Eu → Fv ?

Remarques : 1) La considération de cette structure de K[X]-module permet de rattacher la présente théorie à celle des modules sur les anneaux principaux, de même que les groupes commutatifs qui sont, quant à eux, des modules sur l’anneau principal Z (voir exercices ci-après).

2) E peut également être muni d’une structure de K[u]-module, via (v, x) → v(x). Lorsque u est transcendant, cette structure se confond avec la précédente, lorsqu’il est algébrique, cela revient à munir E d’une structure de K[X]/(µu(X)), où µu(X) est le polynôme minimal de u.

(5)

2.3. Le théorème des noyaux.

Le théorème suivant est l’un des plus importants résultats d’algèbre linéaire. Facile à démontrer, il n’est qu’une simple traduction linéaire du théorème de Bézout. Cependant, ses conséquences sont fort nombreuses : il permet de concasser des noyaux.

Théorème des noyaux : Soient A1, ..., Ar r polynômes premiers entre eux deux à deux dans K[X], u un endomorphisme de E. Alors : Ker(A1 × … × Ar)(u) =

1ir Ker Ai(u) ,

et les projecteurs associés à cette décomposition en somme directe sont eux-mêmes des polynômes de u.

Preuve : Supposons r = 2.

Par l’identité de Bezout : ∃(B1, B2) ∈ K[X] 1 = A2(X)B1(X) + A1(X).B2(X), donc, en substituant u à X : idE = A2(u) o B1(u) + A1(u) o B2(u).

• Tout d’abord, (A1A2)(u) = A1(u) o A2(u) = A2(u) o A1(u) , donc Ker Ai(u) ⊂ Ker (A1A2)(u), et, par suite : KerA1(u) + KerA2(u) ⊂ Ker(A1A2)(u).

• Ensuite, en utilisant les notations symboliques de 2.2. (∀x ∈ E) x = (A2.B1).x + (A1.B2).x.

Or si x ∈ Ker(A1A2)(u) , (A2.B1).x ∈ KerA1(u) et (A1.B2).x ∈ KerA2(u) . • Enfin, si x ∈ KerA1(u) ∩ KerA2(u) , x = (B1.A2).x + (B2.A1).x = 0.

Les projecteurs associés à cette somme directe sont p1 = A2(u) o B1(u) et p2 = A1(u) o B2(u).

Ce sont des polynômes de u. cqfd.

On peut conclure par récurrence sur r.

Si l’énoncé est vrai au rang r − 1, alors Ar(X) est premier avec (A1 ... Ar−1)(X).

Donc Ker(A1× … ×Ar)(u) = Ker Ar(u)

Ker(A1× … ×Ar−1)(u) (cas r = 2) =

1≤i≤r Ker Ai(u) , par HRr−1.

Le projecteur pr sur Ker Ar(u) associé à cette somme directe est un polynôme de u ; les projecteurs qi de Ker(A1× … ×Ar−1)(u) sur Ker Ai(u) , 1 ≤ i ≤ r−1, également ; pi = ( I − pr ) o qi aussi...

Corollaire : Pour tout sous-espace u-stable F , on a :

F ∩ Ker(A1××Ar)(u) =

1≤i≤r[ F ∩ Ker Ai(u) ].

Preuve : Bien prendre garde que l’intersection des sev n’est pas distributive en général par rapport à la somme. Le résultat énoncé n’est donc pas évident. Il découle ici de l’application du théorème des noyaux à l’endomorphisme induit uF.

Exercice 7 : On se propose de montrer le théorème des noyaux sans récurrence.

1) On note A(X) = (A1× … ×Ar)(X) et Ci(X) = A(X)/Ai(X).

Montrer que les polynômes Ci(X) sont premiers entre eux dans leur ensemble.

Soient B1, ... , Br des polynômes tels que : 1 = C1(X).B1(X) + ... + Cr(X).Br(X).

2) Montrer que Ker(A1××Ar)(u) =

1≤i≤r Ker Ai(u) ,

les projecteurs associés à cette somme directe étant les pi = Ci(u) o Bi(u) .

3) Traiter le cas particulier où Ai(X) = X − λi , les λi étant deux à deux distincts.

Exercice 8 : Soit u l’endomorphisme P → X.P de K[X]. Reconnaître A(u). Si A = A1 ... Ar, où A1, ..., Ar sont premiers entre eux deux à deux, comment se traduit le théorème des noyaux ?

Même question en remplaçant K[X] par K(X) et F = K[X].

Exercice 9 : Généralisation.

Soient A et B deux polynômes de K[X], de pgcd D et de ppcm M, u ∈LLLL(E). Montrer que : Ker D(u) = Ker A(u) ∩ Ker B(u) Im D(u) = Im A(u) + Im B(u)

Ker M(u) = Ker A(u) + Ker B(u) Im M(u) = Im A(u) ∩ Im B(u)

(6)

Généraliser à r polynômes.

Montrer que si A et B sont premiers entre eux et tels que (A.B)(u) = 0, alors : E = Ker A(u) ⊕ Ker B(u) , Ker A(u) = Im B(u) , Ker B(u) = Im A(u) . Exercice 10 : Analogie avec les groupes abéliens.

1) Soit G un groupe abélien noté additivement. Pour tout n Z, on pose : N(n) = { x ∈ G ; n.x = 0 } et I(n) = { n.x ; x ∈ G }.

Montrer que si a ∧∧∧∧ b = d et a ∨∨∨∨ b = m , on a : N(d) = N(a) N(b) I(d) = I(a) + I(b) N(m) = N(a) + N(b) I(m) = I(a) I(b).

2) On suppose G fini à n éléments, et l’on note m l’exposant de G, c’est-à-dire le plus petit entier >

0 tel que (∀x ∈ G) m.x = 0. Montrer que m | n, et que si m =

piki est factorisation de m, on a la décomposition en somme directe : G =

N(piki ) .

3) On suppose m = p premier. Montrer que n est une puissance de p, et que G (Z/pZ)k. 2.4. Application aux endomorphismes algébriques.

Soient E un K-espace vectoriel, u un endomorphisme algébrique de E, P un polynôme unitaire annulant u, de degré d, par exemple le polynôme minimal de u.

− Pour tout polynôme A ∈ K[X], on a A(u) = R(u), où R = A mod P est le reste euclidien de A par P. Ainsi K[u] = Kd−1[X] et on peut ne manipuler que des polynômes de u de degré < d.

Exercice 11 : Soit A ∈ K[X]. Montrer A ∧∧∧∧ P = 1 ⇒ A(u) ∈ Gl(E) ; comment calculer alors A(u)−1 ? Si P est le minimal de u, montrer que A ∧ P = 1 ⇔ A(u) ∈ Gl(E).

Si P a pour factorisation dans K[X] : P = P1m1... Prmr, où P1, ..., Pr sont irréductibles unitaires distincts, le théorème des noyaux s’écrit : E = Ker P(u) =

1≤i≤r Ker [Pimi(u)] .

− Si de plus, F est un sous-espace u-stable, on a F =

1≤i≤r F ∩ Ker [Pimi(u)] .

− Lorsque E est de dimension finie, si l’on recolle des bases BBBBi de Ker [Pimi(u)] en une base BB

BB= BBBB1 ∪ ... ∪ BBBBr de E, alors la matrice de u est diagonale par blocs : M = diag (A1, ... , Ar) , où ( i)

m

i A

P i = O pour 1 ≤ i ≤ r . Problème sur les endomorphismes algébriques.

Si u est un endomorphisme algébrique, on note µu(X) son polynôme minimal.

1) Exemples et contre-exemples.

a) Montrer que si E est de dimension finie, tout endomorphisme est algébrique.

b) Plus généralement, montrer qu’un endomorphisme de rang fini est algébrique. Réciproque ? c) Si u est algébrique, que dire de P(u), où P ∈ K[X] ?

d) Que dire des endomorphismes D : P → P' et P → X.P de K[X] ?

2) Montrer qu’un endomorphisme algébrique u est, soit inversible, soit diviseur de zéro bilatère, i.e. tel que (∃v ≠ 0) u.v = v.u = 0. En déduire que si u est algébrique, u injectif ⇔ u surjectif.

3) Soit u un endomorphisme algébrique. Montrer que les valeurs propres et les valeurs spectrales de de u coïncident, et sont les racines du polynôme minimal de u.

4) Si u et v sont algébriques et commutent, montrer que u + v et u.v sont algébriques.

Exercice 12 : idéal annulateur d’un élément.

Soit u un endomorphisme algébrique de E, de polynôme minimal µ(X). Soit x ∈ E ; avec les notations précédentes, le plus petit sous-espace u-stable contenant x est Vx = { P.x ; P ∈ K[X] }.

(7)

1) Montrer que N(x) = { P ∈ K[X] ; P.x = 0 } est un idéal {0} de K[X] ; on note µx(X) son géné-rateur unitaire. Montrer que µx(X) | µ(X) et que dim Vx = deg µx(X).

2) On suppose E de dimension n ; soit BBBB = (e1, ..., en) une base de E.

i) Montrer que µ(X) = ppcm(µx(X) ; x ∈ E) = ppcm(µei(X) ; 1 ≤ i ≤ n).

ii) On suppose K infini. Montrer qu’il existe un vecteur e tel que µe(X) = µ(X). En déduire que : deg µ(X) ≤ n. [ On pourra utiliser le fait qu’une réunion finie de sous-espaces est un sous-espace ssi l’un d’eux contient tous les autres ].

iii) On revient au cas général. Montrer que si µx(X) et µy(X) sont premiers entre eux, alors : µx+y(X) = µx(X).µy(X). En déduire qu’il existe un vecteur e tel que µe(X) = µ(X).

3) Montrer l’équivalence : u est monogène ⇔ χu(X) = (−1)nu(X) . Exercice 13 : nombres algébriques, théorie de Galois.

Soit θ un nombre complexe algébrique sur Q, µθ(X) son polynôme minimal sur Q, de degré n.

1) Montrer que µθ(X) est irréductible sur Q et a des racines simples dans C, θ = θ1, ... , θn. 2) Montrer que K = Q[θ] = { P(θ) ; P ∈ Q[X] } est un corps et une Q-algèbre de dimension n.

3) Pour tout x ∈ K, soit mx l’endomorphisme : y → x.y de K. Comparer les polynômes minimaux de x et de mx. Montrer que la matrice de mθ dans la base BBBB = (1, θ, ..., θn−1) est la matrice- compagnon de µθ(X).

4) Montrer que si µθ(X) est scindé sur K, le groupe de Galois Γ de K sur Q a n éléments, et que les images de x par σ ∈ Γ sont les valeurs propres de mx .

2.5. Application aux suites récurrentes linéaires.

« Accède à l'allègre ardeur du décalage, à la belle erreur du réel ! » Georges Pérec, À Claude Berge

Les suites récurrentes linéaires à coefficients constants se rattachent élégamment au théorème des noyaux. Plaçons-nous dans C (ou dans un corps algébriquement clos).

Soient a0, a1, ... , ap−1 des complexes. Étudions les suites u = (un)n∈N ∈ S ≡FFFF(N, C) vérifiant : (∀n ∈ N) un+p + ap1.un+p1 + ... + a0.un = 0 (1)

Proposition 1 : L’ensemble E des suites vérifiant (1) est un sous-espace de dimension p de S, isomorphe à Cp via l’application ϕ : u = (un)n∈N→ (u0, u1, ... , up−1) ∈ Cp.

Notons T l’opérateur de décalage (en anglais : shift) qui, à la suite u = (un)n∈N ∈ S associe la suite v = T(u), définie par vn = un+1. Cet opérateur est surjectif, non injectif.

Par exemple, les suites p-périodiques sont les suites vérifiant Tp(u) = u, autrement dit ce sont les éléments de Ker( Tp – I ), les suites périodiques sont les éléments de

U

1

) (

p

p I

T

Ker , et les suites périodiques à partir d’un certain rang sont les éléments de

U

1 , 0

) (

+

p k

p k

k T

T

Ker .

Revenons à E. On a E = Ker P(T) , où : P(X) = Xp + ap1.Xp−1 + ... + a1.X + a0 (2) P est appelé polynôme caractéristique de l’espace E. C étant algébriquement clos, il est scindé,

sous la forme : P(X) =

r=

j

k j j

X

1

)

( λ (3)

Le théorème des noyaux s’écrit alors :

E = Ker P(T) = ⊕1≤j≤rKer( T −λj.I )kj (4)

(8)

Tout revient alors à déterminer Ker( T −λ.I )k , pour λ∈ C et k ≥ 1.

Théorème 2 : i) Ker Tk = { u = (u0 , ... , uk−1 , 0 , 0 , ... ) } .

ii) Si λ≠ 0 , Ker( T −λ.I )k = { u ∈ S ; ∃Q ∈ Ck−1[X] (∀n N) un= λn.Q(n) } = Vect ( (λn), (nλn), …, (nk1λn) ).

Preuve : i) est facile. Montrons ii) par récurrence sur k.

Pour k = 1, Ker(T − λ.I) est l’ensemble des progressions géométriques de raison λ, qui forment une droite. Supposons l’égalité vraie au rang k − 1 , et (∀n N) un= λn.Q(n) , où Q Ck−1[X].

Alors ( T − λ.I )(un) = λn+1.[ Q(n + 1) − Q(n) ] = λn.R(n) , où R ∈ Ck2[X].

Du coup : ( T −λ.I )k−1 ( T −λ.I )(u) = ( T −λ.I )k (u) = 0 .

On a donc : Ker( T −λ.I )k ⊃ { u ∈ S ; ∃Q ∈ Ck−1[X] (∀n N) un= λn.Q(n) }, et l’on conclut par égalité des dimensions.

Application :

Les suites p-périodiques sont les suites vérifiant (n) un+p = un , i.e. ( Tp – I )(u) = 0.

En vertu de ce qui précède, elles forment un espace vectoriel de dimension p, admettant pour base n), où ω décrit l’ensemble des racines p-èmes de l’unité.

Remarques :

1) Une autre approche de (1) consiste à introduire le vecteur-colonne Xn = t(un+p−1, ... , un) ∈ Cp. Alors (1) s’écrit matriciellement Xn+1 = A.Xn , où A est la matrice-compagnon (modifiée) de P. Dès lors, Xn = An.X0, et nous sommes ramenés à calculer les puissances successives de A, ce qu’on apprendra à faire dans la suite.

2) Les résultats précédents relèvent aussi de la théorie des séries entières formelles.

3) La prop. 1 reste vraie dans un corps quelconque K. La suite suppose le polynôme P scindé sur le corps K. Si tel n’est pas le cas, on peut toujours scinder P dans un sur-corps convenable de K.

Exercice 14 : Suite de Fibonacci.1

Il s’agit de la célèbre suite : F0 = 0 , F1 = 1 , Fn+2 = Fn+1 + Fn. 1) Calculer Fn pour tout n ; limite de la suite (

n n

F F+1) ?

2) Retrouver ces résultats matriciellement, et par séries entières formelles.

3) On définit la suite de Fibonacci de second ordre par :

x0 = 0 , x1 = 1 et xn+2 = xn+1+ xn+ Fn . Calculer xn. 4) On définit la suite de Fibonacci modifiée par :

u0 = 0 , u1 = 1 et un+2 = un+1+ un+ (−1)n . Calculer un. Exercice 15 : Étudier les suites u = (un)n∈N telles que :

(∀n N) un+5 = un+4 + 5.un+3− un+2− 8.un+1− 4.un. Lesquelles sont bornées ? convergentes ?

Exercice 16 : Montrer que si (un) est une suite récurrente linéaire à coefficients constants, il en est de même de la suite Sn = u0 + … + un.

1 Leonardo Bonacci, dit Bigollo, dit Fibonacci (1175-1250 env.), ami du mythique empereur Frédéric II de Hohenstaufen (1194-1250), qu’il rencontra en 1226, a introduit cette suite pour modéliser la reproduction des lapins. J’ai consacré à cette suite un chapitre d’algébre générale.

(9)

Exercice 17 : Étudier les suites récurrentes : (∀n N) un+p + ap1.un+p1 +... + a0.un = vn , où (vn) est une suite donnée, de la forme αn.Q(n), où Q est un polynôme.

Exercice 18 : Indiquer une ou des bases de l’espace des suites complexes p-périodiques, une ou des bases de l’espace des suites complexes périodiques, resp. périodiques à partir d’un certain rang.

Exercice 19 : Soient (un) la suite de Fibonacci, et (vn) la suite de Lucas, définies resp. par u0 = 0 , u1 = 1 , un+2 = un+1 + un et v0 = 2 , v1 = 1 , vn+2 = vn+1 + vn .

Etudier leurs restes modulo 11, 7, 2, 5, 25, 125.

Exercice 20 : Soit (xn) la suite définie par x0 = 4, x1 = x2 = 0, x3 = 3, xn+4 = xn+1 + xn (∀n ≥ 0).

Montrer que, pour tout p premier, p divise xp.

2.6. Application aux équations différentielles linéaires à coefficients constants.

Nous traiterons ces équations dans le chapitre correspondant, mais il a tout à fait sa place ici. Pour l’heure, présentons les choses sous formes d’exercices :

Problème 2 : On considère l’équation différentielle linéaire d’ordre n à coefficients constants : y(n) + a1.y(n–1) + ... + an−1.y' + an.y = 0 (1).

1) Montrer que les solutions de (1) forment un sous-espace vectoriel E de

C C C C

(R, C).

2) On note D l’opérateur de dérivation : y → y'. Interpréter E comme un noyau.

3) Montrer que Ker ( D − λ.I )k = { y(x) = P(x).exp(λ.x) ; P ∈ Ck−1[X] } pour k ≥ 1.

4) a) En déduire la structure générale des solutions de (1).

b) Montrer qu’elles forment un C-espace vectoriel de dimension n.

c) On suppose les ai réels. Montrer que les solutions réelles de (1) forment également un R- sous-espace de dimension n de

C C C C

(R, R).

5) Application : résoudre l’équation f'(x) = f(1 – x) sur R.

6) On appelle exponentielle-polynôme une fonction f : R → C du type f(x) =

Pj(x).exp(αj.x),

où Pj est un polynôme.

a) Montrer que les exponentielles-polynômes sont les solutions des équations (1).

b) Indiquer comment résoudre y(n) + an–1.y(n–1) + ... + a1.y' + a0.y = f(x) (2) où f est une exponentielle-polynôme.

Problème 3 : On considère l’équation différentielle d’Euler, où x est la variable :

xn.y(n) + an–1.xn−1.y(n–1) + ... + a1.x.y' + a0.y = 0 (1).

1) Montrer que ses solutions forment un sous-espace vectoriel E de

C C C C

(I, C), où I = R*±. 2) Interpréter E comme un noyau, à l’aide de l’opérateur T : y → z , où z(x) = x.y'(x).

3) En déduire la structure des solutions de (1).

4) Application : résoudre l’équation f'(x) = f(

x

1) sur x > 0.

(10)

3. Valeurs propres, vecteurs propres, espaces propres.

Définition 1 : Le vecteur x E est dit vecteur propre de u si x ≠ 0 et si (∃λ∈ K) u(x) = λ.x.

Le scalaire est alors unique et est appelé valeur propre associée au vecteur x. 2 Proposition 1 : x est un vecteur propre de u K.x est une droite u-stable.

Proposition 2 : Les propriétés suivantes sont équivalentes : i) λ est une valeur propre de u ;

ii) u −λ.I est non injectif ; iii) Ker(u − λ.I) ≠ {0}.

Définition 2 : Si λ est valeur propre de u, E(λ, u) = Ker(u −λ.I) est dit espace propre associé à λ. Il découle aussitôt de ces définitions que :

− E(λ, u) est la réunion du singleton {0} et de l’ensemble des vecteurs propres associés à λ ; − un sous-espace propre n’est jamais réduit à {0} ;

− l’espace propre E(λ, u) est u-stable, et u y induit une homothétie de rapport λ.

Proposition 3 : Si λ est valeur propre de u, pour tout entier k ≥ 0, λk est valeur propre de uk ; plus généralement, pour tout polynôme P ∈ K[X], P(λ) est valeur propre de P(u).

Corollaire : Si u est un endomorphisme algébrique, et est annulé par le polynôme P ≠ 0, les valeurs propres de u sont à chercher parmi les racines de P.

Proposition 4 : Si u est un endomorphisme algébrique, de polynôme minimal µu(X), les valeurs propres de u sont les racines de µu(X).

Preuve : En vertu du corollaire précédent, il reste à montrer que les racines de µu(X) sont valeurs propres de u. Si α est racine de µu(X), écrivons µu(X) = (X − α).Q(X). On a (u − α.I).Q(u) = 0.

Si u − α.I était injectif, on en déduirait Q(u) = 0, contredisant la minimalité de µu(X).

Donc u −α.I est injectif, et α est une valeur propre de u.

Exercice 1 : Si u est inversible, montrer que pour tout k ∈ Z, λk est valeur propre de uk. Plus géné- ralement, pour toute fraction rationnelle F ∈ K(X) dans laquelle λ est substituable3, F(λ) est valeur propre de F(u).

Exercice 2 : Soit a un automorphisme de E. Relations entre les valeurs propres et les espaces propres de u et de a o u o a−1.

Proposition 5 : Soient λ1, ..., λp des valeurs propres distinctes de u.

i) Si x1, ..., xp sont des vecteurs propres associés resp., la famille (x1, ..., xp) est libre ii) Les espaces propres de u associés E(λ1), ..., E(λp) sont en somme directe.

Preuve : Un instant de réflexion montre que les assertions i) et ii) sont équivalentes.

Il s’agit de montrer que si x1 ∈ E(λ1), …, xp ∈ E(λp), alors (1) x1 + … + xp = 0 ⇒ x1 = … = xp = 0.

Or si l’on applique u, il vient λ1.x1 + … + λp.xp = 0 (2).

Combinant (1) et (2), il vient ( λ1−λp ).x1 + … + ( λp−1−λp ).xp−1 = 0.

Nous voilà ramenés à une récurrence…

2 Le terme de valeurs propres ne s’est imposé que récemment. On rencontre aussi le terme de valeurs carac- téristiques, et parfois ceux, plus évocateurs, de racines ou valeurs latentes, cachées, ou séculaires. En anglais, on nomme eigenvalue (et non clean value …) et eigenvector les valeurs et vecteurs propres, en allemand eigenvalue et eigenvektor. En russe, on les nomme valeurs et vecteurs caractéristiques.

3 i.e. n’est pas racine du dénominateur de la forme irréductible de F.

(11)

Voici une preuve plus élégante encore : si l’on applique P(u) à (1), il vient : P(λ1).x1 + … + P(λp).xp = 0 .

Il reste à choisir pour P le polynôme de Lagrange Li(X) ; tel que Lij) = δij. Il vient xi = 0.

Corollaire : Des vecteurs propres associés à des valeurs propres distinctes forment une famille libre.

Remarque 1 : En fait, la prop. 4 découle du théorème des noyaux. Les polynômes X − λi sont premiers entre eux deux à deux. Si P est leur produit, Ker P(u) = ⊕ Ker(u − λi.I) = ⊕ E(λi). Les E(λi) sont donc en somme directe, et les projecteurs associés à leur somme directe sont des polynômes de u : les Li(u).

Remarque 2 : Le corollaire précédent fournit un critère de liberté bien utile.

Exemple 1 : Les fonctions x → exp(a.x) , a ∈ C , forment une famille libre dans

F F F F

(R, C).

Ce sont en effet des vecteurs propres de l’opérateur de dérivation D : y → y' de

C C C C

(R, C).

Exemple 2 : Les fonctions x → xr , r ∈ C, forment une famillle libre dans

F F F F

(R*+, C).

Ce sont en effet des vecteurs propres de l’opérateur T : f g où g(x) = x.f’(x), dans

C C C C

(R*+, C).

Exemple 3 : Les fonctions ( 2

1, cos(x), cos(2x), ..., cos(nx), sin(x), sin(2x), ...,sin(nx)) sont C-libres.

Pour le montrer, on peut, soit se ramener à l’exemple 1 via les formules d’Euler, soit observer que cos(nx) et sin(nx) sont libres, et vecteurs propres de D2 associées à la valeur propre −n2. Les fonctions de la forme

2 a0

+

= +

n

k

k

k kx b kx

a

1

) sin(

. ) cos(

. sont appelées polynômes trigonométriques.

Remarque 3 : valeurs propres et valeurs spectrales.

Définition 3 : λ est dite valeur régulière de u si u − λ.I est inversible, valeur spectrale sinon.

L’ensemble des valeurs spectrales de u est appelé spectre de u et noté Sp u.

Proposition 5 : Toute valeur propre de u est valeur spectrale. La réciproque est fausse en général, mais vraie en dimension finie.

Preuve : Si λ est valeur spectrale, u − λ.I est non injectif (auquel cas λ est valeur propre) ou non surjectif. Le spectre contient donc l’ensemble des valeurs propres. En dimension finie, les deux ensembles sont égaux, en vertu de l’équivalence : u − λ.I injectif ⇔ u − λ.I surjectif.

Exercice 3 : Soit E = FFFF(N, R) l’espace vectoriel des suites réelles. Trouver les valeurs propres et les valeurs spectrales des opérateurs suivants :

− l’opérateur de shift T : u = (un) → v = (vn) où vn = un+1 ; − l’opérateur S : u = (un) → (0 , u0 , u1 , u2 , ...) ;

− l’opérateur M : u = (un) → (λn.un) ;

− l’opérateur de Cesàro C : u = (un) → v = (vn) où vn = n 1(u

1 + ... + un) . Exercice 4 : Mêmes questions pour E = K[X] et les opérateurs :

D : P → P' , P → X.P , ∆ : P(X) → P(X + 1) − P(X) .

Exercice 5 : Mêmes questions pour E = CCCC(R, C) et les opérateurs D : f → f' et f → x.f'(x).

Exercice 6 : Soit E = CCCC(R+, R) , T : f → g , où g(x) = x

1

0xf(t).dt si x > 0 , g(0) = f(0).

Montrer que T est un endomorphisme de E. Image, noyau, éléments propres, valeurs régulières ? Exercice 7 : Soit E l’espace des fonctions continues de [0, 1] dans R.

À toute f E on associe F = T(f) , où x [0, 1] F(x) =

01exp(xt).f(t).dt.

(12)

Montrer que T est un endomorphisme de E. Noyau, image, valeurs et vecteurs propres.

Exercice 8 : Soit E l’espace des fonctions continues 2π-périodiques de R dans R.

À toute f E on associe F = T(f) définie par (x R) F(x) =

02πsin(xt).f(t).dt.

Montrer que T est un endomorphisme de E. Noyau, image, valeurs et vecteurs propres.

Dans la suite du chapitre, E est un K-espace vectoriel de dimension finie n.

4. Polynôme caractéristique ; théorème de Hamilton-Cayley.

4.1. Polynôme caractéristique d’une matrice, d’un endomorphisme.

Il découle aussitôt de la prop 4 du § 3 qu’un endomorphisme u a au plus n valeurs propres. Nous allons voir que ce sont les racines d’un important polynôme lié à u.

Définition 1 : Soit A ∈ Mn(K) une matrice carrée d’ordre n ; on appelle matrice caractéristique de A la matrice A − X.I , et polynôme caractéristique de A le polynôme χA(X) = det(A − X.I) .4 Cette définition appelle deux remarques :

− La matrice caractéristique A − X.I est à éléments dans Mn(K[X]), où K[X] est l’anneau principal des polynômes à une indéterminée. Si l’on veut à tout prix ne considérer que des matrices à éléments dans un corps commutatif, alors il faut considérer que A − X.I est à éléments dans Mn(K(X)), où K(X) est le corps des fractions rationnelles.

− Le polynôme caractéristique n’est pas unitaire, mais de terme dominant (−1)n.Xn. Bourbaki adopte la définition χA(X) = det(X.I − A), plus commode théoriquement, moins commode en pratique.

Proposition 1 : Si A et B ∈ Mn(K) sont semblables, elles ont mêmes polynômes caractéristiques.

Preuve : Soit P ∈ Gln(K) telle que B = P−1.A.P ; alors B − X.I = P−1.(A − X.I).P dans Mn(K[X]), d’où χB(X) = χA(X) en passant au déterminant.

Définition 2 : Soit u

L L L L

(E). On appelle polynôme caractéristique de u le polynôme carac- téristique d’une quelconque des matrices de u dans une base de E. On le note χu(X). 5

Proposition 2 : Les valeurs propres de u sont les racines de son polynôme caractéristique.

Preuve : λ est valeur propre de u ⇔ u −λ.idE est non injectif

⇔ u − λ.idE est non bijectif ( on est en dimension finie ! ) ⇔ det(u −λ.idE) = 0 ⇔ χu(λ) = 0.

On en déduit que u admet au plus n valeurs propres, ce qui découle aussi du § 3, prop. 4, les espaces propres étant non nuls et en somme directe.

Étude du polynôme caractéristique.

1) Cas n = 2 : A = 

 d c

b a , χ

A(X) = X2 − ( a + d ).X + ad − bc = X2 − tr(A).X + det(A).

4 C’est Cauchy qui introduisit en 1840 le mot caractéristique pour désigner l’équation det(A λ.I) = 0.

5 Les puristes regretteront qu’avec cette présentation le point de vue matriciel prime sur le point de vue linéaire.

Mais s’il est possible de considérer A X.I pour une matrice, il est beaucoup moins évident de définir u X.I, car le domaine des scalaires de E est K et non K[X]. Si l’on voulait un exposé impeccable, il faudrait prolonger la loi externe de E à K[X] en considérant par exemple le produit tensoriel K[X]⊗E, puis redéfinir u dans ce K[X]-module. Le coût d’une telle présentation est ici trop élevé ; cf. Bourbaki, Godement.

(13)

2) Cas n = 3 : A = (aij) , χA(X) = − [ X3 − tr(A).X2 + (

22 21

12 11

a a

a

a +

33 31

13 11

a a

a

a +

33 32

23 22

a a

a

a ).X − det(A) ] = −[ X3−τ1(A).X2 + τ2(A).X −τ3(A) ] ,

où τk(A) est la somme des mineurs diagonaux d’ordre k de A.

3) Cas général : A = (aij) ,

χA(X) = (−1)n.

[

Xn − τ1(A).Xn−1 + τ2(A).Xn−2 − τ3(A).Xn−3 + ... + (−1)n. τn(A)

]

, où τk(A) est la somme des mineurs diagonaux d’ordre k de A.

Justification : Le terme constant de χA(X) est χA(0) = det A.

Quant aux termes de degrés n et n − 1, il proviennent uniquement du produit (a11 − X)…(ann − X).

Cela découle de ce qu’une permutation σ de {1, 2, …, n} distincte de l’identité a au plus n−2 points fixes, donc fournit des Xk, pour k n − 2. L’interprétation des autres τk(A) est laissée en exercice.

Conséquences :

1) Si le polynôme caractéristique χA(X) est scindé dans K, la trace est la somme des valeurs propres, le déterminant leur produit. Plus généralement, les τk(A) sont les fonctions symétriques des valeurs propres.

2) Deux matrices semblables ayant même polynôme caractéristique, on peut dire que le polynôme caractéristique est un invariant polynômial de similitude, et que ses coefficients τk(A) sont des invariants scalaires de similitude, ou plutôt des fonctions polynomiales de Mn(K) dans K invariantes par similitude. De plus, deux matrices semblables ont aussi même polynôme minimal 6. Exercice 1 : Deux matrices ayant même polynôme caractéristique sont-elles semblables ? 7

Exemples de polynômes caractéristiques.

1) Matrices diagonales et trigonales.

A =









n

n

λ

λ λ λ

0 ...

0 0

* ...

0 0

...

...

...

...

...

* ...

* 0

* ...

*

*

1 2 1

a pour polynôme caractéristique χA(X) =

(X −λj) et pour valeurs propres

ses éléments diagonaux.

2) Matrices-compagnons ou de Frobenius.

Exercice 2 : endomorphismes monogènes.

1) Soit u un endomorphisme de E. Montrer l’équivalence des propriétés :

i) Il existe un vecteur x0 tel que le seul sous-espace u-stable contenant x0 soit E ;

ii) Il existe une base BBBB = (e1, ..., en) de E telle que la matrice de u dans la base BBBB ait la forme :

A =









−−

−−

1 2 1 0

1 ...

0 0

0 ...

0 0

...

...

...

...

...

...

0 0 1

...

0 0 0

n n

a a a a

L’endomorphisme u est alors dit monogène.

6 Plusieurs théories mathématiques ont recours à des invariants polynomiaux : ainsi la théorie des nœuds.

7 On peut montrer que deux matrices carrées A et B sont semblables ssi leurs matrices caractéristiques A−X.I et BX.I sont équivalentes dans Mn(K[X]), ou encore que A et B ont mêmes facteurs invariants polynomiaux.

Mais ce point de vue, qui renvoie à des méthodes de réduction à la forme de Smith par pivot de Gauss dans un anneau euclidien, et aux facteurs invariants, est abordé dans le chap sur les systèmes linéaires diophantiens.

(14)

Que dire du rang de u ? Quel est le polynôme caractéristique de u ?

2) Montrer que v commute à u ssi v est un polynôme de u [Indication : considérer v(e1)].

Appliquant ce résultat à v = un, montrer que les polynômes caractéristique et minimal de u sont égaux (à coef. près).

3) Exemples.

i) Montrer que u est diagonalisable et monogène ⇔ u a n valeurs propres distinctes.

ii) Montrer que u est nilpotent monogène ⇔ u est nilpotent d’indice n.

Exercice 3 : Soit E = Kn−1[X] , et P(X) = Xn + an−1.Xn−1 + ... + a1.X + a0.

1) Quelle est la matrice A de l’endomorphisme f : Q → X.Q mod P de E dans la base canonique (1, X, ..., Xn−1) ? [ mod P désigne le reste euclidien par P ].

2) Montrer que P est (à facteur près) le polynôme caractéristique de f.

3) Soit R ∈ K[X] ; montrer que (∀Q ∈ E) R(f)(Q) = (R.Q) mod P ; en déduire que P est le polynôme minimal de f.

4) Soit F un sous-espace vectoriel f-stable de E. Montrer que G = F + P.K[X] est de la forme P1.K[X], où P1 est un diviseur de P. En déduire que F = Ker P2(f) pour un certain polynôme P2 divisant P, et qu’il y a bijection entre les sous-espaces f-stables et les diviseurs unitaires de P.

Remarque : Il résulte de ceci que tout polynôme est polynôme caractéristique d’une matrice. A est dite matrice-compagnon, ou matrice de Frobenius, de P.

Exercice 4 : Soient A et B ∈ Mn(K). On suppose qu’existe M ∈ Mn(K) de rang r, telle que AM = MB. Montrer que r ≤ deg(χA ∧χB).

4.2. Polynôme caractéristique et espaces propres.

Proposition 3 : Soit λ une valeur propre de u, E(λ, u) l’espace propre associé, n(λ) l’ordre de multiplicité de λ comme racine du polynôme caractéristique. On a l’encadrement :

1 ≤ dim E(λ, u) ≤ n(λ) .

Preuve : On sait que 1 ≤ dim E(λ, u) = p. Complétons une base (e1, ..., ep) de E(λ, u) en une base BB

BB = (e1, ..., en) de E. La matrice de u dans cette base a alors pour forme :

M = 

 D O

O Ip

λ . On en déduit que χu(X) = ( λ − X )pD(X). Il en découle que p ≤ n(λ).

Exercice 5 : Montrer que cet encadrement ne peut être amélioré, en considérant les endomorphismes

de matrices :



 J O

O Ip

λ , où J =









λ λ λ λ

0 ...

0 0

1 ...

0 0

...

...

...

...

...

0 ...

1 0

0 ...

0 1

.

4.3. Polynôme caractéristique et topologie.

Notons V = { u ∈LLLL(E) ; det u = 0 } l’ensemble des endomorphismes de déterminant nul.

Géométriquement, V est une hypersurface algébrique dans LLLL(E), de forme conique, car formée de droites vectorielles. Matriciellement, si n = 2, V a pour équation ad − bc = 0 : c’est une hyper- quadrique (en dimension 4) ; si n = 3, V est hypersurface cubique en dim. 9, etc.

Soit u ∈ LLLL(E), D(u) = { u − λ.I ; λ ∈ K } la droite affine de direction I passant par u. Les valeurs propres de u correspondent aux valeurs de λ où D(u) rencontre V. Comme V est algébrique, D(u) coupe V en un nombre fini de points.

Références

Documents relatifs

On traite la parenthèse

Pour aider les pays de la région à faire face à ces défis, la Banque a octroyé plus de 2,1 milliards de dollars ces dix dernières années pour sou- tenir les activités

En effet comme à toute hiérarchie indicée correspond une ultramétrique (cf. Benzecri [13]), on peut conclure que les niveaux et les classes de toute classification hiérarchique sont

Huvent, Toutes les mathématiques – Cours, exercices corrigés – MPSI, PCSI, PTSI, TSI, Ellipses, 2004..

In Chapter 2 we consider the case where A is self-adjoint and we obtain various completeness theorems for the generalized eigenvectors of (0.1).. In Chapter 3 we

Il faut donc numéroter les atomes de carbone de la partie linéaire dans les deux sens et prendre la valeur la plus petite possible.. Nomenclature des composés oxygénés Rappel

Si une matrice A est diagonalisable, alors lorsqu’on la diagonalise, on obtient une matrice diagonale dont les coefficients diagonaux sont les valeurs propres de A...

Algorithmes pour le calcul de toutes les valeurs propres d’une matrice M´ ethode de la puissance it´ er´ ee... G´ en´ eralit´ es, outils matriciels Matrices