• Aucun résultat trouvé

Réduction des endomorphismes : résumé de cours

N/A
N/A
Protected

Academic year: 2022

Partager " Réduction des endomorphismes : résumé de cours "

Copied!
7
0
0

Texte intégral

(1)

Réduction des endomorphismes : résumé de cours

1. Sous-espaces stables par un endomorphisme.

Définition 1 : Soient E un K-espace vectoriel, u ∈ L(E). Un sous-espace vectoriel F de E est dit u- stable si u(F) ⊂ F. On note alors uF ∈ L(F) l’endomorphisme induit.

Proposition 1 : Soit l’ensemble V(E, u) des sev u-stables de E, ordonné par inclusion : i) V(E, u) a pour plus petit élément {0} et plus grand élément E.

ii) Si F1 et F2 sont des sev u-stables, F1 + F2 et F1 ∩ F2 sont u-stables.

iii) Plus généralement, si (Fi)i∈I est une famille de sev u-stables,

I

I i

Fi

et

I i

Fi sont u-stables.

Proposition 2 : Si v est un endomorphisme commutant avec u, Ker v et Im v sont des sous-espaces u-stables. En particulier, pour tout polynôme P ∈ K[X], Ker P(u) et Im P(u) sont u-stables.

Proposition 3 : Soient E un K-ev de dimension n, u ∈ L(E), F un sev de E, (e1, ..., ep) une base de F complétée en une base B= (e1, ..., en) de E. Pour que F soit u-stable, il faut et il suffit que la matrice de u dans la base B ait la forme trigonale par blocs suivante : M =





D O

B A . La matrice A a une interprétation simple : c’est la matrice de uF dans la base (e1, ..., ep).

La matrice D est moins simple à interpréter : ce n’est pas la matrice de uG dans la base (ep+1, ..., en), où G = Vect(ep+1, ..., en), car rien ne dit que G est u-stable. Il faudrait pour cela que B = O. Mais, soit p le projecteur sur G parallèlement à F ; v = p o u laisse stable G, puisque v(G) ⊂ Im v ⊂ Im p = G. D est clairement la matrice de vG dans la base (ep+1, ..., en).

2. Polynômes d’endomorphismes ; théorème des noyaux.

Soient E un K-espace vectoriel, u un endomorphisme de E. À tout polynôme P =

aiXi∈ K[X]

on peut associer l’endomorphisme P(u) =

aiui (où u0 = idE et ui = u o ... o u i fois), obtenu en substituant à l’indéterminée X l’endomorphisme u. La théorie de la substitution donne alors :

Proposition 4 : i) L’application εu : P ∈ K[X] → P(u) ∈L(E) est un morphisme d’algèbres unifères (P + Q)(u) = P(u) + Q(u) ; (λ.P)(u) = λ.P(u) ; (P.Q)(u) = P(u) o Q(u) ; 1(u) = idE.

ii) L’image de ce morphisme est un sous-algèbre commutative de L(E), notée K[u]. C’est l’algèbre des polynômes de u. C’est la plus petite sous-algèbre unifère de L(E) contentant u.

iii) Le noyau de ce morphisme est un idéal de K[X], dit idéal annulateur de u ; il est donc principal.

 s’il est réduit à {0}, P → P(u) est injectif. L’endomorphisme u est dit transcendant.

 sinon, il est de la forme (µu(X)), où µu(X) est le générateur unitaire de cet idéal. L’endo- morphisme u est alors dit algébrique, et µu(X) est appelé son polynôme minimal.

Proposition 5 : Si E est de dimension finie, tout endomorphisme de E est algébrique.

Théorème 6, des noyaux : Soient A1, ..., Ar r polynômes premiers entre eux deux à deux dans K[X], u un endomorphisme de E. Alors : Ker(A1××Ar)(u) =

1≤i≤r Ker Ai(u) ,

et les projecteurs associés à cette décomposition sont eux-mêmes de polynômes de u.

Pour tout sous-espace u-stable F , on a : F ∩ Ker(A1×… ×Ar)(u) =

1≤i≤r F Ker Ai(u) . Soit E un K-espace vectoriel, u un endomorphisme algébrique de E, P un polynôme unitaire annulant u, de degré d, par exemple le polynôme minimal de u.

(2)

 Pour tout polynôme A∈K[X], on a A(u) = R(u), où R = A mod P est le reste euclidien de A par P. Ainsi K[u] = Kd−1[X] et on peut se réduire à ne manipuler que des polynômes de u de degré < d.

 Si P a pour factorisation dans K[X] : P = (P1)m1... (Pr)mr, où P1, ..., Pr sont irréductibles unitaires distincts, le théorème des noyaux s’écrit :

E = Ker P(u) =

1≤i≤r Ker [Pimi(u)] .

 Si de plus, F est un sous-espace u-stable, on a F =

1≤i≤r F Ker [Pimi(u)] .

 Lorsque E est de dimension finie, si l’on recolle des bases Bi de Ker [Pimi(u)] en une base B= B1 ∪ ... ∪ Br de E, alors la matrice de u est diagonale par blocs :

M = diag (A1, ... , Ar) , où Pimi(Ai) = O pour 1 ≤ i ≤ r . 3. Valeurs propres, vecteurs propres, espaces propres.

Définition 2 : x ∈ E est dit vecteur propre de u si x est non nul et si (∃λ ∈ K) u(x) = λ.x. Le scalaire est alors unique et est appelé valeur propre associée au vecteur x.

Proposition 7 : x est un vecteur propre de u K.x est une droite u-stable.

Proposition 8 : Les propriétés suivantes sont équivalentes : i) λ est une valeur propre de u ;

ii) u −λ.I est non injectif ; iii) Ker(u −λ.I) ≠ {0}.

Définition 3 : Si λ est valeur propre de u, E(λ, u) = Ker(u −λ.I) est dit espace propre associé à λ. Il en découle que :

 E(λ, u) est la réunion du singleton {0} et de l’ensemble des vecteurs propres associés à λ ;  un sous-espace propre n’est jamais réduit à {0} ;

 l’espace propre E(λ, u) est u-stable, et u y induit une homothétie de rapport λ.

Proposition 9 : Si λ est valeur propre de u, pour tout k ≥ 0, λk est valeur propre de uk ; plus généralement, pour tout polynôme P ∈ K[X], P(λ) est valeur propre de P(u).

Corollaire : Si u est un endomorphisme algébrique, et est annulé par le polynôme P ≠ 0, les valeurs propres de u sont à chercher parmi les racines de P.

Proposition 10 : Si u est un endomorphisme algébrique, de polynôme minimal µu(X), les valeurs propres de u sont les racines de µu(X).

Proposition 11 : Soient λ1, ..., λp p valeurs propres distinctes de u. Les espaces propres associés E(λ1, u), ..., E(λp, u) sont en somme directe, et les projecteurs associés à cette somme directe sont des polynômes de u.

Corollaire : Des vecteurs propres associés à des valeurs propres distinctes forment une famille libre.

Dans toute la suite, E est un K-espace vectoriel de dimension finie n.

4. Polynôme caractéristique ; théorème de Hamilton-Cayley.

Définition 4 : Soit A ∈ Mn(K) une matrice carrée d’ordre n ; on appelle polynôme caractéristique de A le polynôme χA(X) = det(A − X.I) .

Proposition 12 : Si A ∈ M2(K), χA(X) = X2 − tr(A).X + det(A).

Dans le cas général, χA(X) est un polynôme de degré n, de la forme

χA(X) = (−1)n [ Xn−τ1(A).Xn−1 + τ2(A).Xn−2−τ3(A).Xn−3 + ... + (−1)n.det A ] , où τ (A) est la trace de A, et τ (A) est la somme des mineurs diagonaux d’ordre k de A.

(3)

Proposition 13 : Si A et B ∈ Mn(K) sont semblables, elles ont même polynôme caractéristique.

Définition 5 : Soit u

L

(E). On appelle polynôme caractéristique de u le polynôme caractéris- tique d’une quelconque des matrices de u dans une base de E. On le note χu(X).

Proposition 14 : Les valeurs propres de u sont les racines de son polynôme caractéristique.

Proposition 15 : Soient λ une valeur propre de u, E(λ, u) l’espace propre associé, et n(λ) l’ordre de multiplicité de λ comme racine du polynôme caractéristique. On a l’encadrement :

1 ≤ dim E(λ, u) ≤ n(λ).

Théorème 16 (Hamilton-Cayley) : Le polynôme caractéristique de u ∈L(E) annule u : χu(u) = O . Corollaire : Le polynôme minimal µu(X) de u divise le polynôme caractéristique, et est de degré ≤ n 5. Endomorphismes diagonalisables.

Définition 6 : L’endomorphisme u

L

(E) est dit diagonalisable s’il existe une base B de E telle que Mat(u, B) soit diagonale. La matrice A ∈ Mn(K) est dite diagonalisable si l’endomorphisme X → A.X de Kn canoniquement associé est diagonalisable, i.e. s’il existe une matrice P ∈ Gln(K) telle que P−1.A.P = D soit diagonale.

Théorème 17 : cns de diagonalisabilité. Les propriétés suivantes sont équivalentes : (D1) u est diagonalisable ;

(D2) Il existe une base de E formée de vecteurs propres ; (D3) E est somme directe des sous-espaces propres de u ;

(D4) Le polynôme caractéristique de u est scindé dans K, et chaque valeur propre λ de u vérifie : dim E(λ, u) = n(λ) ;

(D5) Le polynôme minimal de u est scindé et sans facteurs carrés ; (D6) Il existe un polynôme scindé sans facteurs carrés annulant u .

Proposition 18 : condition suffisante de diagonalisabilité. Si le polynôme caractéristique de u est scindé dans K et a n racines distinctes, alors u est diagonalisable.

Enfin, voici des résultats issus de l’algèbre bilinéaire :

Théorème 19 : 1) Toute matrice symétrique réelle est diagonalisable dans une base orthonormée de Rn, muni du produit euclidien standard, et à valeurs propres réelles. Autrement dit :

∀A ∈ Sn(R) ∃P ∈ On(R) P−1.A.P = tP.A.P = diag(λ1, ... , λn) , où λ1, ... , λn R.

2) Plus généralement, toute matrice hermitienne complexe (i.e. telle que tA = A) est diagona- lisable dans une base orthonormée de Cn muni du produit hermitien standard, et à valeurs propres réelles : ∀A ∈ Hn(C) ∃P ∈ Un(C) P−1.A.P = tPA.P = diag(λ1, ... , λn) , où λ1, ... , λn ∈ R.

3) Toute matrice unitaire (i.e. telle que tA = A–1) est diagonalisable dans une base orthonormée de Cn hermitien standard, et à valeurs propres unitaires :

∀A ∈ Un(C) ∃P ∈ Un(C) P−1.A.P = tP.A.P = diag(exp(iθ1) , ... , exp(iθn)) , où θ1, ... , θn R.

C’est le cas en particulier de toute matrice orthogonale réelle.

4) Enfin, toute matrice normale (i.e. telle que tA et A commutent) est diagonalisable dans une base orthonormée de Cn muni du produit hermitien standard, et à valeurs propres complexes : ∀A ∈ Nn(C) ∃P ∈ Un(C) P−1.A.P = tP.A.P = diag(λ1, ... , λn) , où λ1, ... , λn C.

6. Endomorphismes trigonalisables.

Définition 7 : L’endomorphisme u

L

(E) est dit trigonalisable s’il existe une base B de E telle que Mat(u, B) soit trigonale supérieure :

(4)

Mat(u , B) =





λ

n

λ λ

0 ...

0

* ...

...

...

*

* 0

* ...

*

2 1

La matrice A ∈ Mn(K) est dite trigonalisable si l’endomorphisme X A.X de Kn canoniquement associé est trigogonalisable, i.e. s’il existe une matrice P ∈ Gln(K) telle que T = P1.A.P soit trigonale supérieure.

Proposition 20 : L’endomorphisme u de E est trigonalisable ss’il existe une suite croissante : d = (F0 ⊂ F1 ⊂ ... ⊂ Fn) de sous-espaces u-stables telle que (∀i) dim Fi = i.

(Une telle suite s’appelle un drapeau u-stable).

Définition 8 : L’endomorphisme u est dit nilpotent s’il existe k ∈ N* tel que uk = 0. Le plus petit entier r ≥ 1 tel que ur = 0 s’appelle indice de nilpotence de u. Mêmes définitions pour les matrices.

Avec ces notations, Xr est le polynôme minimal de u. En particulier, r ≤ n.

Théorème 21 : Un endomorphisme nilpotent u admet 0 pour seule valeur propre, et est trigona- lisable dans une base B telle que :

Mat(u , B) =





0 0 ...

0 0

* 0 ...

0 0

...

...

...

...

...

* ...

* 0 0

* ...

*

* 0

Définition 9 : Nous dirons pour abréger qu’un endomorphisme u est scindé si son polynôme carac- téristique est scindé dans K, et nous noterons :

χu(X) = (−1)n

= r

j

n j

X j

1

)

( λ et µu(X) =

= r

j

m j

X j

1

)

( λ

= r

j

nj 1

= n et Sp u = { λ1, λ2, ... , λr }.

Bien entendu, si le corps K est algébriquement clos, tout endomorphisme est scindé.

Théorème 22 : a) Un endomorphisme est trigonalisable ss’il est scindé.

b) E est alors la somme directe des sous-espaces caractéristiques Fj = Ker(u −λj.I)nj , et il existe une base Bj de Fj telle que la matrice de l’endomorphisme induit soit trigonale supérieure.

Alors la matrice de u dans la base B=B1 ... Br est trigonale supérieure : c’est ce qu’on appelle une forme trigonale supérieure réduite de u.

c) En outre (∀j) dim Fj = nj .

d) Les projecteurs spectraux, c’est-à-dire les projecteurs sur les sous-espaces caractéristques, associés à la somme directe E = ⊕ Fj , sont des polynômes de u.

e) Tout sous-espace u-stable F vérifie F = ⊕ (F ∩ Fj), et donc est de la forme F = ⊕ Gj , où Gj est un sous-espace u-stable de Fj.

Proposition 23 : décomposition additive « de Dunford » d’un endomorphisme trigonalisable.

Tout endomorphisme trigonalisable s’écrit de manière unique sous la forme : u = d + n ,

où d est diagonalisable, n est nilpotent, et d et n commutent. d et n s’appellent resp. composantes diagonalisable et nilpotente de u. Ce sont tous deux des polynômes de u (dépendant de u).

Théorème 24 : 1) Toute matrice A ∈ M2(C) est semblable dans M2(C) à l’une des matrices suivantes :





λ λ

0

0 ,





λ µ

0

0 ,





λ λ

0

1 , où λ≠µ∈ C.

2) Toute toute matrice A ∈ M2(R) est semblable dans M2(R) à l’une des matrices suivantes : 



λ λ

0

0 , 



λ µ

0

0 , 



λ λ

0

1 , 

 − a b

b

a , où λ≠µ, a, b R et b ≠ 0 .

(5)

Théorème 25 : Soit E un R-espace de dimension n, u un endomorphisme de E. Alors u admet un droite ou un plan vectoriel stables. Mieux, il existe une base B de E telle que u ait pour matrice :

Mat(u , B) =





Ar

O A

...

...

...

...

*

1 ...

,

où les matrices A1, ..., Ar sont carrées d’ordres 1 ou 2, et dans ce dernier cas de la forme 

 − a b

b a . 7. Réduction de Jordan.

Théorème 26 : Soit u un endomorphisme nilpotent de E. Il existe une base B de E telle que :

Mat(u , B) =









0

0 ...

0 0

0 ...

0 0

...

...

...

...

...

0 ...

0 0

0 ...

0 0

1 2 1

ε

n

ε ε

, où ε1, ..., εn−1 ∈ {0 , 1}.

Théorème 27 (Jordan) : Soit u un endomorphisme scindé de E. Il existe une base B de E telle que :

Mat(u , B) =





Jr

O O J

...

...

...

...

1 ...

, où les matrices carrées Jk sont des blocs de la forme Jk =









λ λ λ λ

0 ...

0 0

1 ...

0 0

...

...

...

...

...

0 ...

1 0

0 ...

0 1

.

8. Applications de la réduction.

8.1. Calculs de déterminants, résolution de systèmes linéaires.

Bien que ce ne soit pas son principal objectif, la réduction des endomorphismes permet de calculer des déterminants et de résoudre des systèmes linéaires. Qui peut le plus, peut le moins

 Si A a un polynôme caractéristique scindé, det A est le produit des valeurs propres de A.

 Supposons A diagonalisable : P−1.A.P = D = diag(λ1 , ... , λr , 0 , ... , 0).

Le système A.X = B (1) s’écrit P.D.P−1.X = B, c’est-à-dire, en changeant d’inconnues Y = P−1.X, et de second membre C = P−1.B : D.Y = C (2)

Résoudre et discuter (2) est alors un jeu d’enfant :

a) si l’un des ci , r+1 ≤ i ≤ n, est ≠ 0, le système est impossible ; b) si tous les ci , r+1 ≤ i ≤ n, sont nuls, alors yi =

i

ci

λ pour 1 i r, les autres étant quelconques.

La structure affine de l’ensemble des solutions apparaît clairement.

 Supposons A trigonalisable : P−1.A.P = T , trigonale supérieure.

Le système A.X = B s’écrit P.T.P−1.X = B, c’est-à-dire, en changeant d’inconnues Y = P−1.X , et de second membre C = P−1.B : T.Y = C (2)

On peut alors le résoudre et le discuter par remontée. Si T est sous forme trigonale supérieure réduite, ou sous forme de Jordan, la discussion est bien sûr facilitée.

Exemple : déterminants et systèmes cycliques.

On appelle matrice cyclique une matrice de la forme :

M = M(a0 , ... , an−1) =









0 1 2

1

1 0 2

1 0 1

1 1

0

...

...

...

...

...

...

...

...

...

...

...

...

a a a a

a a a

a a a

a a

a

n n

n

∈ Mn(C) .

(6)

Si l’on note Ω = M(0, 1, 0, ..., 0) =





0 0 ...

0 1

1 0 ...

0 0

...

...

...

...

...

0 ...

1 0 0

0 ...

0 1 0

,

je dis que M(a0, ..., an−1) = a0.I + a1.Ω + ... + an−1.Ωn−1 = f(Ω) ,

où f est le polynôme : f(X) = a0 + a1.X + ... + an−1.Xn−1. De plus, Ωn = I, et Xn − 1 est le polynôme minimal de Ω. Par suite, l’ensemble des matrices cycliques est une sous-algèbre commutative Γn(C) de Mn(C). Ω est diagonalisable et de spectre Sp Ω = Un(C).

Notant ω = exp n i

π

2 , la matrice des vecteurs propres de Ω est V = (ω(j1)(k1))1j,kn ∈ Mn(C) : V−1.Ω.V = diag (1 , ω , ω2 , ... , ωn−1) .

Du coup, V−1.M.V = diag ( f(1) , f(ω) , f(ω2) , ... , f(ωn−1) ) , et : det M(a0, ..., an−1) = f(1).f(ω).f(ω2) ... f(ωn−1) . 8.2. Equations matricielles polynomiales.

Problème : Soit f ∈ K[X] un polynôme ; chercher les matrices A ∈ Mn(K) telles que f(A) = O.

Voici quelques indications générales pour résoudre ce problème :

1) Si A annule f, toute matrice semblable à A annule aussi f ; les solutions forment donc une réunion de classes de similitude.

2) Si f est scindé sans facteurs carrés, penser au théorème de Schreier.

3) Sinon, revenir au théorème des noyaux.

8.3. Racines carrées de matrices.

Problème : Etant donnée une matrice A∈Mn(K), trouver les matrices X∈Mn(K) telles que X2 = A.

Quelles sont les matrices A ∈ Mn(K) qui sont des carrés ? Voici quelques indications générales pour résoudre ce problème : 1) Si A = X2 , det A est un carré du corps K.

2) Les solutions de X2 = I sont les symétries, celles de X2 = O sont les nilpotentes d’indice 1 ou 2.

3) Si X2 = A , X commute avec A. X est donc à rechercher parmi les matrices qui commutent avec A ; cela conduit à une recherche en deux temps : matrices commutant avec A, et, parmi elles, matrices dont le carré est A.

4) Réduction de A. Si P−1.A.P = R, forme réduite de A, alors A = X2 si et seulement si R = Y2 , où Y = P1.X.P .

On a donc en général intérêt à réduire A : P1.A.P = R, à chercher les matrices qui commutent avec R, puis, parmi elles, celles dont le carré est R, et enfin à revenir à l’ancienne base.

8.4. Puissances d’une matrice ; systèmes dynamiques linéaires.

La réduction de A permet notamment de calculer ses puissances successives, et donc d’étudier les systèmes itératifs discrets linéaires Xk+1 = A.Xk (k ∈ N). On a en effet Xk = Ak.X0 .

Si l’on se place d’un point de vue dynamique, k s’interprète comme indice de temps. Si A est inversible, k peut décrire Z, et l’on peut remonter les temps.

 Si A est diagonalisable, P−1.A.P = D = diag(λ1 , ... , λn). Alors Ak = P.Dk.P−1. Dans le nouveau repère, Dk = diag((λ1)k , ..., (λn)k) , suite facile à étudier.

 Si A est trigonalisable, P−1.A.P = T où T est trigonale supérieure, mais si T est seulement trigonale supérieure, ses puissances ne sont pas faciles à calculer, car T = D + N, somme d’une matrice diagonale et d’une matrice nilpotente qui ne commutent pas.

(7)

Pour pouvoir calculer Tk grâce à la formule du binôme, il faut recourir à la forme trigonale supérieure réduite, ou, ce qui revient au même, à la décompostion additive de A. Ou, mieux encore, à la décomposition de Jordan de A.

Si T = diag(J1 , ... , Jr), où les Ji sont des blocs de Jordan, Tk = diag((J1)k , ... , (Jr)k) ; or les puissances d’un bloc de Jordan se calculent facilement par le binôme.

8.5. Exponentielle d’une matrice ; systèmes différentiels linéaires.

On considère le système différentiel linéaire homogène à coefficients constants : X'(t) = A.X(t) , où A ∈ Mn(C) (1) Sa solution générale est X(t) = exp(t.A).X(0) (∀t ∈ R) (2) Cela se montre par variation des constantes, i.e. en cherchant X(t) sous la forme :

X(t) = exp(t.A).C(t) ,

et cette méthode de variation des constantes permet également de résoudre : X'(t) = A.X(t) + b(t) (3) où b est une fonction continue I → C.

Le calcul de exp(t.A) se fait par réduction de A.

 Si A est diagonalisable, P−1.A.P = D = diag(λ1 , ... , λn). Alors Ak = P.Dk.P−1, et : exp(t.A) = P.exp(t.D).P1, où exp(t.D) = diag(exp(t.λ1), ..., exp(t.λn)) .

 Si A est trigonalisable, P−1.A.P = T où T est trigonale supérieure réduite ou de Jordan, afin que ses puissances soient faciles à calculer. On a T = D + N, où D matrice diagonale et N nilpotente commutent, de sorte qu’on peut affirmer que exp(T) = exp(D).exp(N).

___________

Références

Documents relatifs

Le gagnant est celui qui a le plus de fleurs … Ce qui oblige à la fin à trier, classer, comparer. Évaluation: fiche numération &#34;les fleurs de

En utilisant la question 3a, montrer que le module d'une valeur propre est inférieur ou égal à 1.. En formant une équation diérentielle, déterminer le spectre

E peut s’´ ecrire comme la somme directe de deux sous-espaces f-stables de dimension 4 mais aucun bloc de la r´ eduite de Jordan de f a taille plus grande que 3.. E peut s’´

W e n n man Kurven yore Range fiinf aufzusuchen wiinscht, so ist es natiirlich vorteilhaft yon einem Kurvensystem ausgehen zu kSnnen, fiir welches man bereits

Egalité que nous établissons « tranquillement » par

A vous de le reprendre les démonstrations à l’aide de la caractérisation

[r]

Déterminons le développement limité au point (t, x) = (n∆t, j∆x) de haun des termes apparaissant dans l'expression de l'erreur de