• Aucun résultat trouvé

Chapitre V Valeurs et Vecteurs Propres

N/A
N/A
Protected

Academic year: 2021

Partager "Chapitre V Valeurs et Vecteurs Propres"

Copied!
21
0
0

Texte intégral

(1)

Valeurs et Vecteurs Propres

Les premiers vecteurs et valeurs propres viennent des ´equations diff´erentielles (Lagrange 1759, th´eorie du son ; Lagrange 1781, des matrices dans le but de calculer les perturbations s´eculaires des orbites des 6 plan`etes connues `a l’´epoque, Oeuvres V, p. 125-490). Aujourd’hui, le calcul des valeurs et vecteurs propres est indispensable dans toutes les branches de la sci- ence, en particulier pour la solution des syst`emes des ´equations diff´erentielles lin´eaires, en th´eorie de stabilit´e, pour les questions de convergence de processus it´eratifs, et en physique et chimie (m´ecanique, circuits, cin´etique chimique, ´equation de Schr¨odinger).

FIG. V.1: Une application lin´eaire comme champ de vecteurs (`a gauche) ; transform´ee sur la base des vecteurs propres (`a droite).

Observons en figure V.1 (`a gauche) le champ de vecteurs d’une ´equation diff´erentielle . Deux directions sautent aux yeux : ce sont les directions o`u le vecteur prend la mˆeme direction que le vecteur , i.e., o`u

ou ! (0.1)

Si cette ´equation est v´erifi´ee, "$#

%

s’appelle valeur propre de la matrice et "$#

%'&

()( ) est le vecteur propre correspondant. L’´equation (0.1) poss`ede une solution non nulle si et seulement

si *,+

-/.1032

,4 (0.2)

Le polyn ˆome

*-+

- est le polynˆome caract´eristique de la matrice . Les valeurs propres de sont alors les z´eros du polyn ˆome caract´eristique.

(2)

Bibliographie sur ce chapitre

Tous les livres cit´es dans le chapitre IV, et en plus55

B.N. Parlett (1980): The Symmetric Eigenvalue Problem. Prentice-Hall, Englewood Cliffs, NJ.

B.T. Smith, J.M. Boyle, Y. Ikebe, V.C. Klema & C.B. Moler (1970): Matrix Eigensystem Routines:

EISPACK Guide. 2nd ed., Springer-Verlag, New York.

J.H. Wilkinson (1965): The Algebraic Eigenvalue Problem. Clarendon Press. [MA 65/72]

J.H. Wilkinson & C. Reinsch (1971): Handbook for Automatic Computation, Volume II, Linear Algebra. Springer-Verlag, New York.

V.1 La condition du calcul des valeurs propres

A cause des erreurs d’arrondi, les ´el´ements d’une matrice , pour laquelle on cherche les valeurs propres, ne sont pas exacts. Ils sont plut ˆot ´egaux `a 687:9 687:9; =<?> 7:9 avec @> 7A9;@CB eps (eps, la pr´ecision de l’ordinateur, est suppos´ee ˆetre tr`es petite). Il est alors tr`es important d’´etudier l’influence de ces perturbations sur les valeurs propres et sur les vecteurs propres de la matrice.

Pour montrer ceci, consid´erons la famille de matrices

>

<D>

%

o`u @> @;B eps et @FEG7:9H@IBJ@K687:9H@ (1.1)

(souvent, la derni`ere hypoth`ese va ˆetre remplac´ee par L % LMBJL L ).

Th´eor`eme 1.1 (Gershgorine) Soit une matriceN N (avec des ´el´ements dansO ou dans #

%

).

a) Si est une valeur propre de , alors il existe un indiceP tel que

@

687:7Q@;B

&

9SRT

9SURI7

@F687:9H@KV (1.2)

c.-`a-d. que toutes les valeurs propres de se trouvent dans l’union des disquesW

7

XZY

@

687:7Q@;B

9SURI7

@K687:9;@S[

0 1 2 3 4 5

1 vp 2 vp 1 vp

b) Si une composante connexe de &7\RT

W 7 consiste de] disques, elle contient exactement] valeurs propres de .

D´emonstration. Soit( un vecteur propre et choisissons l’indiceP tel que @ 7^@`_ @ 9H@ pour touta . La ligneP de l’´equationbc donne

9^URI7 687:9

9

6d7A7 e

7

En divisant par 7 et en utilisant l’in´egalit´e de triangle, on obtient

@

687:7f@

9SURI7 687:9hg

9

7 B

9SURI7

@K687:9;@

L’affirmation (b) est vraie si est une matrice diagonale. Le cas g´en´eral est obtenu par un argument de continuit´e en faisant tendre les ´el´ements en dehors de la diagonale vers z´ero (voir le cours “Analyse II” concernant la d´ependance continue de racinces d’un polyn ˆome en fonction d’un param`etre).

(3)

Th´eor`eme 1.2 Soit une matrice diagonalisable, i.e., il existei avecikj T i /.1lnm;o TSV 55 V &

, et soit > <D>

%

. Alors, pour chaque valeur propre > de > , il existe un 7 avec

@ >

7Q@;BJ@

>

@pgqrsti

g,L

%

L5r

D´emonstration. Nous transformons la matrice > 'u <v>

%

par la mˆeme matrice, qui trans- forme sous forme diagonale :

i j T > i

w.1lnm;o

T^V

55 V &

<x>

i j T % i

Si l’on d´enote par yQ7A9 les ´el´ements dei j T % i , le th´eor`eme de Gershgorine implique l’existence d’un indiceP tel que @ > 7

<D>

yQ7A7

@;BJ@

> @

9SURI7

@KyQ7A9;@ . L’in´egalit´e de triangle donne alors

@ >

7Q@;BJ@

>

@pgIz m|{

7 9

@KyQ7A9;@ BJ@

>

@pg,L}i j T %

i L5r~BJ@

>

@pg,L}i j T

L5rZL

%

L5rkL}i L5r'V

ce qui d´emontre l’affirmation du th´eor`eme, carq,rsi L}iL5rsL}i j T L5r (condition dei ).

La condition du calcul des valeurs propres depend de la condition de la matrice de transfor- mationi . Si la matrice est sym´etrique (i est orthogonale), le probl`eme est bien conditionn´e.

Toutefois, observons qu’on obtient seulement une estimation pour l’erreur absolue et non pour l’erreur relative.

Th´eor`eme 1.3 (diff´erentiabilit´e des valeurs propres) Soit T une racine simple de

*-+

, .

Alors, pour @> @ suffisamment petit, la matrice > <w>

%

poss`ede une valeur propre unique

T5

>

proche de T . La fonction T5 > est diff´erentiable (mˆeme analytique) et on a

Tp

>

T

<D>

‚T % T

 ‚T T

<Dƒ

>…„

(1.3)

o`u T est le vecteur propre `a droite (b T T T ) et

 T est le vecteur propre `a gauche (

 ‚T

†

T  ‚T ).

On peut supposer que L T‡L L



T‡L

. D´emonstration. Soit ˆ‰ V >

*-+Œ‹IŽ

-/.1032

<x>

%

, . Comme

ˆ‰

TGV

4 et

 ˆ



TSV '(

V

le th´eor`eme des fonctions implicites garantie l’existence d’une fonction diff´erentiable T5 > (mˆeme analytique), tel que 4 T etˆ‰ T5 > V > . Il existe donc un vecteur > ‘( tel que

>

>

^

>

I (1.4)

La matrice dans (1.4) ´etant de rangN

, on peut fixer une composante `a et appliquer la r`egle de Cramer. Ceci montre que les autres composantes sont des fonctions rationnelles des ´el´ements de la matrice <~> %

T5

>

S et donc diff´erentiables. Apr`es la normalisation `a > “’ > ” , la fonction T5 > reste diff´erentiable.

Pour calculer •T , nous pouvons d´eriver l’´equation (1.4) par rapport `a > et poser ensuite

>

. Ceci donne

T

T < % T

Se

T

I (1.5)

En multipliant cette relation par

 ‚T , on obtient

 ‚T %

c

T

^e

T

, ce qui permet de calculer

c

T

et d´emontre la formule (1.3).

(4)

Cons´equences. La formule (1.3) du th´or`eme pr´ec´edent montre que le plus le vecteur propre de droite est parall`ele au vecteur propre de gauche, le mieux la valeur propre correspondante est bien conditionn´ee (par exemple, pour les matrices sym´etriques les deux vecteurs sont identiques) ; le plus ils se rapprochent de l’orthogonalit´e, le plus la valeur propre est mal conditionn´ee.

Si la matrice n’est pas sym´etrique (ou normale), le calcul de T (valeur propre simple) peut ˆetre mal conditionn´e. Consid´erons par exemple la matrice

~

–

o`u T

V  T

—

h<x–

„

–

Dans cette situation, la formule (1.3) nous donne T5 > T >

gcEpT˜T

– E „ T

<™ƒ

> „

et le calcul de T est mal conditionn´e si– est grand.

Exemple 1.4 Consid´erons la matrice (boˆıte de Jordan)

†

T

T . ..

. ..

T N (1.6)

Le polyn ˆome caract´eristique de <x>

%

satisfait

.0}2

<D>

%

,4

T

,

& & g >

gE

& T

<xƒ

>…„

<Dƒ

>

g-@

T @

SiE & T ( , les termesƒ > „ etƒ > g@ T @

sont n´egligeables par rapport `a > g•E & T . Les valeurs propres de <x> % sont alors approximativement donn´ees par les racines de

T

,

& & g >

gE

& T V c.-`a-d. ›š T < > gE & T Tœ & (1.7)

(observer que > g;E & T Tœ & donneN valeurs complexes distinctes – multiples des racines de l’unit´e).

Exp´erience num´erique. Prenons la matrice (1.6) avec

T

etN . Les ´el´ements de la matrice

%

sont des nombres al´eatoires dans l’intervalle ž V

. Le dessin ci-contre montre les valeurs propres de < >

%

pour

>

j;¡‡V

j;¢pV

55

V j

T£ . L’erreur est š j T pour>

j;¢ et š j „ pour > j T£ , ce qui correspond `a la formule (1.7) pourN .

Cons´equence. Si la dimensionN d’une boˆıte de Jordan est plus grande que , le calcul de la valeur propre de cette matrice est tr`es mal conditionn´e.

.9 1.1

−.1 .1

Condition du calcul des vecteurs propres

Consid´erons la situation o`u toutes les valeurs propres de sont distinctes. La d´emonstration du th´eor`eme sur la diff´erentiabilit´e des valeurs propres montre (voir formule (1.4)) que les vecteurs propres normalis´es 7S > de <¤> % sont des fonctions diff´erentiables de> . Pour ´etudier la condition du calcul des vecteurs propres, nous exprimons T dans la base des vecteurs propres (de droite)

T

4

& – 7 7 (1.8)

(5)

La formule (1.5) donne alors

&

9SR

„ 9 T – 9 9 < % T

T

(1.9) En multipliant (1.9) par le vecteur propre de gauche

 ‚

7 (observer que

 ‚

7 9

pourP ( a ), on obtient– 7 (pourP¦_ ) de la relation 7 T – 7 ‚

7 7 <  ‚

7 % T

. La normalisation L T5 > L „„ donne (en la d´erivant) T‚ •T s et on en d´eduit que – T &

7\R

„ – 7 ‚

T 7. Si l’on ins`ere les formules pour– 7 dans (1.8), on obtient pour T5 > T <D> T <Dƒ > „ la relation

>

T

<D>

&

7\R

„  ‚

7 % T

T 7  ‚

7 7 7 T ‚

T 7

<Dƒ

> „ (1.10)

De cette formule, on voit que la condition du calcul du vecteur propre T d´epend de la grandeur

 ‚

7 7 (comme c’est le cas pour la valeur propre; voir la formule (1.3)) et aussi de la distance entre

T et les autres valeurs propres de .

Un algorithme dangereux

La premi`ere m´ethode (d´ej`a utilis´ee par Lagrange) pour calculer les valeurs propres d’une matrice est la suivante: calculer d’abord les coefficients du polynˆome caract´eristique

*,+

- et d´eterminer ensuite les z´eros de ce polynˆome. Si la dimension de est tr`es petite (disonsN¨B ) ou si l’on fait le calcul en arithm´etique exacte, cet algorithme peut ˆetre tr`es utile. Par contre, si l’on fait le calcul en virgule flottante, cet algorithme peut donner des mauvaises surprises.

Consid´erons, par exemple, le probl`eme de calculer les valeurs propres de la matrice diagonale

†.lnmIo

V V V

55 VGN

(1.11)

dont le polyn ˆome caract´eristique est

*-+

-4

-

' -

M ,

g

p5 g-tN

,

& & < 6 & j T & j T < 6 & j „ & j

„<

5p

<

6•T <

6‡£

(1.12) Les coefficients calcul´es satisfont 6d7 6d7^ C<©> 7 avec @> 7^@bB eps. Cette perturbation dans les coefficients provoque une grande erreur dans les z´eros de (1.12). Les r´esultats num´eriques pour

N

V

I

V V (avec epsš g j;« , simple pr´ecision) sont dessin´es dans la figure V.2.

Conclusion. Eviter le calcul des coefficients du polyn ˆome caract´eristique. Un tel algorithme est num´eriquement instable.

−2 0 2

−2 0 2

N

ª

N

I

N N

FIG. V.2: Z´eros de (1.12) avec des coefficients perturb´es

(6)

V.2 La m´ethode de la puissance

Un algorithme simple pour calculer les valeurs propres d’une matrice est bas´e sur l’it´eration

¬

‹ T

¬ (2.1)

o`u £ est un vecteur arbitraire. Dans le th´eor`eme suivant, on d´emontre queI¬=

¬ £ (m´ethode de la puissance) tend vers un vecteur propre de et que le quotient de Rayleigh ¬‚ ¬d­® ¬‚ ¬ est une approximation d’une valeur propre de .

Th´eor`eme 2.1 Soit une matrice diagonalisable de valeurs propres TSV 5p

V & et de vecteurs

propres TSV 55

V & (normalis´es par L 7fL „ ).

Si @ T‡@;¯u@ „ @;_J@ @I_ 55

_J@

& @, les vecteurs de l’it´eration (2.1) v´erifient

I¬‘

¬T

6T

T

<Dƒ

^@

„

­;

T‡@

¬

G (2.2)

(le nombre6•T est d´efini par £ 7 6d7 7). Le quotient de Rayleigh satisfait (si 6•T ( )

‚

¬

‚

¬

T

<Dƒ

„

T ¬ (2.3)

Si est une matrice normale (c.-`a-d. que les vecteurs propres sont orthogonaux), l’erreur dans (2.3) estƒ S@ „ ­I T8@„

¬

.

D´emonstration. Exprimons le vecteur de d´epart £ dans la base des vecteur propres, c.-`a-d.,

£ &

7\RT 687

7. Par r´ecurrence, on voit que

I¬‘

¬ £ &

7\RT 687

¬7 7 /

¬T

6•T T < &

7\R

„

687 7

T ¬ 7 V (2.4)

ce qui d´emontre la formule (2.2). De cette relation, on d´eduit que

‚

¬

bI¬‘x

‚

¬

¬

‹ T &

7\RT

@F687f@

„ @

7S@

„ ¬ 7 <

7\URI9 687e6d9

¬7 ¬ ‹ T

9 ‚

7 9 (2.5)

‚

¬

¬‘

&

7\RT

@F687f@

„ @

7S@

„ ¬ <

7\URI9 687e6d9

¬7 ¬9 ‚

7 9 (2.6)

Si6•T ( , la formule (2.3) est une cons´equence de

‚

¬

¬

‚

¬

¬

@F6•T‡@

„

g-@

T‡@

„ ¬ g

T±g h<xƒ

S@

„

­I

T‡@

¬

S

@K6•T8@

„

g,@

T‡@

„ ¬

g- h<Dƒ

^@

„

­I

T5@

¬

G

(2.7)

Pour une matrice normale, le deuxi`eme terme dans les formules (2.5) et (2.6) est absent et l’expression

ƒ

^@

„

­I

T‡@

¬

peut ˆetre remplac´ee parƒ ^@ „ ­; T8@„

¬

dans (2.7) et dans (2.3).

Exemple 2.2 Consid´erons la matrice /

dont la valeur propre la plus grande est T

b<v²p³I´

µ

­H¶IS=š

I ;I·II

ª . Quelques it´erations de la m´ethode de la puis- sance nous donnent

£ V V ’ V T V V ’ V „ V V ’

et une premi`ere approximation de T est obtenue par

‚

T

b

T

‚T T ‚

T „

‚

T T

š

I

·

(7)

Remarques. Les ´el´ements du vecteur croissent exponentiellement avec ] . Il est alors recom- mand´e de normaliser¬ apr`es chaque it´eration, c.-`a-d. de remplacer¬ parI¬;­ L L . Sinon, on risque un “overflow”. Si @ „ ­I T‡@ est proche de , la convergence est tr`es lente. Pour acc´el´erer la convergence, on utilise la modification suivante.

M´ethode de la puissance inverse de Wielandt

Supposons qu’on connaisse une approximation ¸ de la valeur propre cherch´ee T (il n’est pas n´ecessaire de supposer que T soit la plus grande valeur propre de ). L’id´ee est d’appliquer l’it´eration (2.1) `a la matrice ¸

j T

. Les valeurs propres de cette matrice sont 7 ¸ j T

. Si

¸ est proche de T , on a

@ T

¸C@º¹

@ 7

¸C@

pour P¦_

et la convergence va ˆetre tr`es rapide. L’it´eration devient alors¬

‹ T ¸

j T

¬ ou

¸

‹ T

»¬

(2.8)

Apr`es avoir calcul´e la d´ecomposition LR de la matrice ¸

, une it´eration de (2.8) ne coˆute pas plus cher qu’une de (2.1).

Exemple 2.3 Pour la matrice de l’exemple pr´ec´edent, choisissons¸

et £ V V

“’ .

Deux it´erations de (2.8) nous donnent

T

I

¶;¶

II·I

II ªI¶Iª

ª

I ª

I

I

¶;¶

II·I

V „

ª;¶

-

ª

;

I

· ª

I;;·IIII; I

ª;¶

-

ª

;

I

et on obtient

T

D

š ‚

T ¸

j T T

‚

T T ‚

T „

‚

T T š

II·II;II·I I·;·

ª

De cette relation, on calcule T et on obtient l’approximation I ;I·III . Les premiers chiffres sont corrects.

La m´ethode de la puissance (et celle de Wielandt) est importante pour la compr´ehension d’autres algorithmes. Si l’on veut calculer toutes les valeurs propres d’une matrice, on utilise des m´ethodes encore plus sophistiqu´ees. En pratique, on proc`ede de la mani`ere suivante:

¼ on distingue les cas: sym´etrique ou quelconque.

¼ on cherchei telle quei j T i devienne une matrice de Hessenberg (ou une matrice tridiagonale, si est sym´etrique); voir V.3.

¼ on applique l’algorithme QR `a la matrice½ (voir V.6).

¼ si½ est une matrice tridiagonale et sym´etrique, on peut ´egalement appliquer la m´ethode de bissection (voir V.4).

V.3 Transformation sous forme de Hessenberg (ou tridiagonale)

Avec la transformation i



(o`ui est une matrice inversible) le probl`eme

b devient i j T i





Donc, les valeurs propres de et de i j T i sont les mˆemes et les vecteurs propres 7 de se transforment par 7 i

 7. Le but de ce paragraphe est de trouver une matricei telle que

i j T i devienne “plus simple”. La situation id´eale serait trouv´ee sii j T i devenait diagonale ou triangulaire – mais une telle transformation n´ecessiterait d´ej`a la connaissance des valeurs propres.

(8)

Alors, on cherchei tel quei¾j T i soit sous forme de Hessenberg

i j T i

½¿

À À

55 55

À

À À . .. ...

À . .. ... À . .. ... À

À À V (3.1)

c.-`a-d.,Ác7:9 pourP¦¯§a < . Pour arriver `a ce but, nous consid´erons deux algorithmes.

a) A l’aide des transformations ´el´ementaires

Comme pour l’´elimination de Gauss, nous utilisons les transformations±7 pour faire apparaˆıtre les z´eros – colonne par colonne – dans (3.1).

Dans un premier pas, nous choisissons]Ã_ tel que@F6 ¬ T‡@I_J@K689^Tp@ pouraZ_ et nous permutons les lignes et] , c.-`a-d., nous formonsÄ o`uÄ est une matrice de permutation convenable. Pour ne pas changer les valeurs propres, il faut ´egalement permuter les colonnes et] (ceci correspond au calcul de ¦ Ä ÄÅj T carÄ „ Æ et donc Ä Ä¾j T ). Si 6 „ T , on a aussi6 7\T pour

P¦_

et le premier pas est termin´e. Sinon, nous d´eterminons

 „

ÈÇ

° „

... ... . .. ...

& „

55

telle que  „

6

T˜T 6 T„

55 6 T &

6 „ T 6

„˜„

55 6 „ &

À

55

À

... ... ...

À

55

À

Pour ceci, on d´efinitÇ 7„ 6 7\T

­ 6 „ T . Une multiplication `a droite avec

 j T

„

Ç ° „

... ... . .. ...

Ç & „ 55

ne change pas la premi`ere colonne de „ ¦.

On r´ep`ete la mˆeme proc´edure avec la sous-matrice de „ ¦Â „j T de dimensionN , et ainsi de suite. A cause des multiplications `a droite avec 7j T , cet algorithme coˆute deux fois plus cher que l’´elimination de Gauss (doncš N ° ­ op´erations).

Exemple. Pour la matrice

D

on prend  „

­

et on obtient

 „

~

­ ­ V puis  „  j T„

­

­

ªI­;¶

­

Cet exemple montre un d´esavantage de cet algorithme : si l’on part avec une matrice sym´etrique

, la matrice de Hessenberg ½ , obtenue par cet algorithme, n’est plus sym´etrique en g´en´eral.

(9)

b) A l’aide des transformations orthogonales

Il est souvent pr´ef´erable de travailler avec des r´eflexions de Householder (voir le paragraphe IV.7).

Commenc¸ons par une r´eflexion pour les coordonn´ees V 55

VGN laissant fixe la premi`ere coor- donn´ee : ÊÉ „  

É

 „ É

 ’„ (L

É

 „ L „

) tel que ÊÉ „ É T – „ y8T o`u É T e6 „ T^V 55 V56

& T ’

. En posant

 „ V É

 „ ’

et Ê „ Ë ©

 „  ’„ , la matrice Ê „ contient des z´eros dans la premi`ere colonne `a partir du troisi`eme ´el´ement. La multiplication `a droite avec

Ê j T

„ Ê ’„ Ê „ ne change pas cette colonne :

6•T˜T¾6•T

„

6•T

°

6 „ T¾6

„˜„

6 „ °

6 ° T¾6

° „ 6

°˜°

Ê „ g

Ì

ÎÍ

6•T˜T¾6•T

„

6•T

°

– „ À À

À À Ê „ g g Ê „

Ì

ÎÍ

6•T˜T

À À

– „ À À

À À

Dans le pas suivant, on applique la mˆeme proc´edure `a la sous-matrice de dimensionN

, etc.

Finalement, on arrive `a la forme de Hessenberg (3.1) avec la tranformationi j T

Ê & j

TŒg

p5

g Ê „ ,

qui est une matrice orthogonale (c.-`a-d.,i¾j T i ’ ).

Nous avons un double avantage avec cet algorithme :

¼ il ne faut pas faire une recherche de pivot ;

¼ si A est sym´etrique, alorsi¾j T i est aussi sym´etrique, et donc tridiagonale.

V.4 M´ethode de bissection pour des matrices tridiagonales

Consid´erons une matrice sym´etrique tridiagonale

†

Ï T y „

y „ Ï „ y °

y ° . .. ...

. .. ... y &

y & Ï & (4.1)

On observe tout d’abord que si un ´el´ement yQ7 est nul, la matrice est d´ej`a d´ecompos´ee en deux sous-matrices du mˆeme type, qui ensemble fournissent les valeurs propres de .

On peut donc supposer, sans restreindre la g´en´eralit´e, que

yQ7

( pour P V

55 VGN

(4.2)

Pour cette matrice, il est possible de calculer la valeur

*-+

, du polyn ˆome caract´eristique sans connaˆıtre ses coefficients. En effet, si l’on pose

T Ï T V „ Ï T y „

y „ Ï „ V

¦°C

Ï T y „

y „ Ï „ y °

y ° Ï ° V

p5

et si l’on d´efinitˆ7^ -Šnw.10}2 7

, , on obtient

ˆI£c -4

ˆ-T5 -4

Ï T

ˆc7S -4

Ï 7

-

ˆc7

j

T5 -

y „7

ˆc7

j „

-

V P V

55 VGN

(4.3) La formule de r´ecurrence dans (4.3) est obtenue en d´eveloppant le d´eterminant de la matrice 7

,

par rapport `a la derni`ere ligne (ou colonne).

En principe, on peut maintenant calculer les valeurs propres de (c.-`a-d. les z´eros deˆ & - ) de la mani`ere suivante : chercher un intervalle o`uˆ & - change de signe et localiser une racine de

ˆ &

- par bissection. Les ´evaluations deˆ & , sont faites `a l’aide de la formule (4.3). Mais il existe une astuce interessante qui permet d’am´eliorer cet algorithme.

(10)

Th´eor`eme 4.1 Si (4.2) est v´erifi´e, les polynˆomesˆc7S - d´efinis par (4.3) satisfont a) ˆ & ˆ &

j

T5

si ˆ & ,4 (O );

b) ˆc7

j

T5 ,

ˆc7

‹

T5

si ˆc7^ pour unP "ÑX V 55 VGN

[ ;

c) ˆ£c , ne change pas de signe surO . D´emonstration. L’affirmation (c) est triviale.

Si ˆc7S - pour un P "ÆX V 55 VGN

[ , la formule de r´ecurrence (4.3) donne l’in´egalit´e

ˆc7

‹

Tp -

ˆc7

j

Tp -

B . Pour d´emontrer (b), il suffit d’exclure le cas ˆ7

‹

T5 -

ˆ7

j

T5

. Si deux valeurs cons´ecutives de la suiteX ˆc7S - [ sont nulles, la formule de r´ecurrence montre queˆ7^ -4 pour toutP , ce qui contreditˆ£• - .

Nous d´emontrons par r´ecurrence que

toutes les racines deˆc7S - sont r´eelles, simples et s´epar´ees par celles deˆc7

j

T5

, . (4.4)

Il n’y a rien `a d´emontrer pourP . Supposons la propri´et´e vraie pourP et montrons qu’elle est encore vraie pourP <~ . Comme les z´eros T Ð 5p

Ð/

7 deˆc7^ , sont s´epar´es par ceux deˆ7

j

T5 -

et comme ˆ7

j

T5

ÓÒ Ó

< Ò , nous avons signˆc7

j

T5 9

Å

9 ‹ T

. Alors, on d´eduit de (b) que signˆ7

‹

T5 9

›

9

. Ceci et le fait que ˆc7

‹

T5

7‹ T 7‹ T <

55 montrent queˆ7

‹

T5 -

poss`ede un z´ero r´eel dans chacun des intervalles ouverts ÓÒ

V T

, TSV „ V 55 VI

7…V

Ò

. L’affirmation (a) est maintenant une cons´equence de (b) et de (4.4); voir la figure V.3.

ˆ-T‡

-

ˆ „

-

ˆ °

-

ˆ ¡

-

ˆ ¢

-

FIG. V.3:Suite de Sturm D´efinition 4.2 (suite de Sturm) Une suite tˆ£‡VGˆ-TSV

55 VGˆ

&

de polynˆomes `a coefficients r´eelles s’appelle une suite de Sturm1, si elle v´erifie les conditions (a), (b), (c) du Th´eor`eme 4.1.

Th´eor`eme 4.3 Consid´erons une suite de Sturm tˆ£‡VGˆ-TSV 55

VGˆ

&

. Si l’on d´efinit

Ô

-4 nombre de changements de signes de X ˆ£• - VGˆ-Tp- V 55 V}ˆ & , [V (4.5) alors le polynˆomeˆ & , poss`ede exactement

Ô

Ô

e6

(4.6)

z´eros dans l’intervalle žK6cV5Õ (siˆc7^, , on d´efinit signˆ7^ - signˆc7

j

T5

, ).

D´emonstration. Par continuit´e, l’entierÔ - peut changer sa valeur seulement si une valeur des fonctionsˆc7Q , devient nulle. La fonctionˆ£• - ne change pas de signe. Supposons alors que

ˆc7S

pour unP "ÖX V 55 VGN

[ . La condition (b) et la continuit´e de ˆc9;, montrent que seulement les deux situations suivantes sont possibles (> petit):

1Jacques Charles Franc¸ois Sturm (1803 – 1855), n´e le 29 septembre 1803 `a Gen`eve.

Références

Documents relatifs

D´eterminer les valeurs du coefficient a pour lesquelles la matrice A est diagonalisable.. On se propose de montrer que f A

Huvent, Toutes les mathématiques – Cours, exercices corrigés – MPSI, PCSI, PTSI, TSI, Ellipses, 2004..

En effet comme à toute hiérarchie indicée correspond une ultramétrique (cf. Benzecri [13]), on peut conclure que les niveaux et les classes de toute classification hiérarchique sont

Compte tenu du résultat obtenu à la première question, quel calcul faut-il faire pour savoir si B est diagonali- sable.. Effectuer ce calcul, et déterminer si B est diagonalisable

Algorithmes pour le calcul de toutes les valeurs propres d’une matrice M´ ethode de la puissance it´ er´ ee... G´ en´ eralit´ es, outils matriciels Matrices

D´eterminer le polynˆ ome caract´eristique de M , puis donner les valeurs propres de M et leurs multipli- cit´es3. D´eterminer les sous-espaces propres de M , une base et la

Les points ayant ces affixes forment un polygone régulier de centre 0 (segment, triangle équilatéral, carré, pentagone régulier, hexagone régulier pour n = 2,.. On peut mul-

Si une matrice A est diagonalisable, alors lorsqu’on la diagonalise, on obtient une matrice diagonale dont les coefficients diagonaux sont les valeurs propres de A...