Valeurs et Vecteurs Propres
Les premiers vecteurs et valeurs propres viennent des ´equations diff´erentielles (Lagrange 1759, th´eorie du son ; Lagrange 1781, des matrices dans le but de calculer les perturbations s´eculaires des orbites des 6 plan`etes connues `a l’´epoque, Oeuvres V, p. 125-490). Aujourd’hui, le calcul des valeurs et vecteurs propres est indispensable dans toutes les branches de la sci- ence, en particulier pour la solution des syst`emes des ´equations diff´erentielles lin´eaires, en th´eorie de stabilit´e, pour les questions de convergence de processus it´eratifs, et en physique et chimie (m´ecanique, circuits, cin´etique chimique, ´equation de Schr¨odinger).
FIG. V.1: Une application lin´eaire comme champ de vecteurs (`a gauche) ; transform´ee sur la base des vecteurs propres (`a droite).
Observons en figure V.1 (`a gauche) le champ de vecteurs d’une ´equation diff´erentielle . Deux directions sautent aux yeux : ce sont les directions o`u le vecteur prend la mˆeme direction que le vecteur , i.e., o`u
ou ! (0.1)
Si cette ´equation est v´erifi´ee, "$#
%
s’appelle valeur propre de la matrice et "$#
%'&
()( ) est le vecteur propre correspondant. L’´equation (0.1) poss`ede une solution non nulle si et seulement
si *,+
-/.1032
,4 (0.2)
Le polyn ˆome
*-+
- est le polynˆome caract´eristique de la matrice . Les valeurs propres de sont alors les z´eros du polyn ˆome caract´eristique.
Bibliographie sur ce chapitre
Tous les livres cit´es dans le chapitre IV, et en plus55
B.N. Parlett (1980): The Symmetric Eigenvalue Problem. Prentice-Hall, Englewood Cliffs, NJ.
B.T. Smith, J.M. Boyle, Y. Ikebe, V.C. Klema & C.B. Moler (1970): Matrix Eigensystem Routines:
EISPACK Guide. 2nd ed., Springer-Verlag, New York.
J.H. Wilkinson (1965): The Algebraic Eigenvalue Problem. Clarendon Press. [MA 65/72]
J.H. Wilkinson & C. Reinsch (1971): Handbook for Automatic Computation, Volume II, Linear Algebra. Springer-Verlag, New York.
V.1 La condition du calcul des valeurs propres
A cause des erreurs d’arrondi, les ´el´ements d’une matrice , pour laquelle on cherche les valeurs propres, ne sont pas exacts. Ils sont plut ˆot ´egaux `a 687:9 687:9; =<?> 7:9 avec @> 7A9;@CB eps (eps, la pr´ecision de l’ordinateur, est suppos´ee ˆetre tr`es petite). Il est alors tr`es important d’´etudier l’influence de ces perturbations sur les valeurs propres et sur les vecteurs propres de la matrice.
Pour montrer ceci, consid´erons la famille de matrices
>
<D>
%
o`u @> @;B eps et @FEG7:9H@IBJ@K687:9H@ (1.1)
(souvent, la derni`ere hypoth`ese va ˆetre remplac´ee par L % LMBJL L ).
Th´eor`eme 1.1 (Gershgorine) Soit une matriceN N (avec des ´el´ements dansO ou dans #
%
).
a) Si est une valeur propre de , alors il existe un indiceP tel que
@
687:7Q@;B
&
9SRT
9SURI7
@F687:9H@KV (1.2)
c.-`a-d. que toutes les valeurs propres de se trouvent dans l’union des disquesW
7
XZY
@
687:7Q@;B
9SURI7
@K687:9;@S[
0 1 2 3 4 5
1 vp 2 vp 1 vp
b) Si une composante connexe de &7\RT
W 7 consiste de] disques, elle contient exactement] valeurs propres de .
D´emonstration. Soit( un vecteur propre et choisissons l’indiceP tel que @ 7^@`_ @ 9H@ pour touta . La ligneP de l’´equationbc donne
9^URI7 687:9
9
6d7A7 e
7
En divisant par 7 et en utilisant l’in´egalit´e de triangle, on obtient
@
687:7f@
9SURI7 687:9hg
9
7 B
9SURI7
@K687:9;@
L’affirmation (b) est vraie si est une matrice diagonale. Le cas g´en´eral est obtenu par un argument de continuit´e en faisant tendre les ´el´ements en dehors de la diagonale vers z´ero (voir le cours “Analyse II” concernant la d´ependance continue de racinces d’un polyn ˆome en fonction d’un param`etre).
Th´eor`eme 1.2 Soit une matrice diagonalisable, i.e., il existei avecikj T i /.1lnm;o TSV 55 V &
, et soit > <D>
%
. Alors, pour chaque valeur propre > de > , il existe un 7 avec
@ >
7Q@;BJ@
>
@pgqrsti
g,L
%
L5r
D´emonstration. Nous transformons la matrice > 'u <v>
%
par la mˆeme matrice, qui trans- forme sous forme diagonale :
i j T > i
w.1lnm;o
T^V
55 V &
<x>
i j T % i
Si l’on d´enote par yQ7A9 les ´el´ements dei j T % i , le th´eor`eme de Gershgorine implique l’existence d’un indiceP tel que @ > 7
<D>
yQ7A7
@;BJ@
> @
9SURI7
@KyQ7A9;@ . L’in´egalit´e de triangle donne alors
@ >
7Q@;BJ@
>
@pgIz m|{
7 9
@KyQ7A9;@ BJ@
>
@pg,L}i j T %
i L5r~BJ@
>
@pg,L}i j T
L5rZL
%
L5rkL}i L5r'V
ce qui d´emontre l’affirmation du th´eor`eme, carq,rsi L}iL5rsL}i j T L5r (condition dei ).
La condition du calcul des valeurs propres depend de la condition de la matrice de transfor- mationi . Si la matrice est sym´etrique (i est orthogonale), le probl`eme est bien conditionn´e.
Toutefois, observons qu’on obtient seulement une estimation pour l’erreur absolue et non pour l’erreur relative.
Th´eor`eme 1.3 (diff´erentiabilit´e des valeurs propres) Soit T une racine simple de
*-+
, .
Alors, pour @> @ suffisamment petit, la matrice > <w>
%
poss`ede une valeur propre unique
T5
>
proche de T . La fonction T5 > est diff´erentiable (mˆeme analytique) et on a
Tp
>
T
<D>
g
T % T
T T
<D
>
(1.3)
o`u T est le vecteur propre `a droite (b T T T ) et
T est le vecteur propre `a gauche (
T
T T ).
On peut supposer que L TL L
TL
. D´emonstration. Soit V > 4
*-+I
-/.1032
<x>
%
, . Comme
TGV
4 et
TSV '(
V
le th´eor`eme des fonctions implicites garantie l’existence d’une fonction diff´erentiable T5 > (mˆeme analytique), tel que T 4 T et T5 > V > . Il existe donc un vecteur T > ( tel que
>
T
>
^
T
>
I (1.4)
La matrice dans (1.4) ´etant de rangN
, on peut fixer une composante `a et appliquer la r`egle de Cramer. Ceci montre que les autres composantes sont des fonctions rationnelles des ´el´ements de la matrice <~> %
T5
>
S et donc diff´erentiables. Apr`es la normalisation `a T > T > , la fonction T5 > reste diff´erentiable.
Pour calculer T , nous pouvons d´eriver l’´equation (1.4) par rapport `a > et poser ensuite
>
. Ceci donne
T
T < % T
Se
T
I (1.5)
En multipliant cette relation par
T , on obtient
T %
c
T
^e
T
, ce qui permet de calculer
c
T
et d´emontre la formule (1.3).
Cons´equences. La formule (1.3) du th´or`eme pr´ec´edent montre que le plus le vecteur propre de droite est parall`ele au vecteur propre de gauche, le mieux la valeur propre correspondante est bien conditionn´ee (par exemple, pour les matrices sym´etriques les deux vecteurs sont identiques) ; le plus ils se rapprochent de l’orthogonalit´e, le plus la valeur propre est mal conditionn´ee.
Si la matrice n’est pas sym´etrique (ou normale), le calcul de T (valeur propre simple) peut ˆetre mal conditionn´e. Consid´erons par exemple la matrice
~
o`u T
V T
h<x
Dans cette situation, la formule (1.3) nous donne T5 > T >
gcEpTT
E T
<
>
et le calcul de T est mal conditionn´e si est grand.
Exemple 1.4 Consid´erons la matrice (boˆıte de Jordan)
T
T . ..
. ..
T N (1.6)
Le polyn ˆome caract´eristique de <x>
%
satisfait
.0}2
<D>
%
,4
T
,
& & g >
gE
& T
<x
>
<D
>
g-@
T @
SiE & T ( , les termes > et > g@ T @
sont n´egligeables par rapport `a > gE & T . Les valeurs propres de <x> % sont alors approximativement donn´ees par les racines de
T
,
& & g >
gE
& T V c.-`a-d. T < > gE & T T & (1.7)
(observer que > g;E & T T & donneN valeurs complexes distinctes – multiples des racines de l’unit´e).
Exp´erience num´erique. Prenons la matrice (1.6) avec
T
etN . Les ´el´ements de la matrice
%
sont des nombres al´eatoires dans l’intervalle V
|
. Le dessin ci-contre montre les valeurs propres de < >
%
pour
>
j;¡V
j;¢pV
55
V j
T£ . L’erreur est j T pour>
j;¢ et j pour > j T£ , ce qui correspond `a la formule (1.7) pourN .
Cons´equence. Si la dimensionN d’une boˆıte de Jordan est plus grande que , le calcul de la valeur propre de cette matrice est tr`es mal conditionn´e.
.9 1.1
−.1 .1
Condition du calcul des vecteurs propres
Consid´erons la situation o`u toutes les valeurs propres de sont distinctes. La d´emonstration du th´eor`eme sur la diff´erentiabilit´e des valeurs propres montre (voir formule (1.4)) que les vecteurs propres normalis´es 7S > de <¤> % sont des fonctions diff´erentiables de> . Pour ´etudier la condition du calcul des vecteurs propres, nous exprimons T dans la base des vecteurs propres (de droite)
T
4
& 7 7 (1.8)
La formule (1.5) donne alors
&
9SR
9 T 9 9 < % T
^¥
T
(1.9) En multipliant (1.9) par le vecteur propre de gauche
7 (observer que
7 9
pourP ( a ), on obtient 7 (pourP¦_ ) de la relation 7 T 7
7 7 <
7 % T
. La normalisation L T5 > L donne (en la d´erivant) T T s et on en d´eduit que T &
7\R
7
T 7. Si l’on ins`ere les formules pour 7 dans (1.8), on obtient pour T5 > b§ T <D> T <D > la relation
T
>
b§
T
<D>
&
7\R
7 % T
T 7
7 7 7 T
T 7
<D
> (1.10)
De cette formule, on voit que la condition du calcul du vecteur propre T d´epend de la grandeur
7 7 (comme c’est le cas pour la valeur propre; voir la formule (1.3)) et aussi de la distance entre
T et les autres valeurs propres de .
Un algorithme dangereux
La premi`ere m´ethode (d´ej`a utilis´ee par Lagrange) pour calculer les valeurs propres d’une matrice est la suivante: calculer d’abord les coefficients du polynˆome caract´eristique
*,+
- et d´eterminer ensuite les z´eros de ce polynˆome. Si la dimension de est tr`es petite (disonsN¨B ) ou si l’on fait le calcul en arithm´etique exacte, cet algorithme peut ˆetre tr`es utile. Par contre, si l’on fait le calcul en virgule flottante, cet algorithme peut donner des mauvaises surprises.
Consid´erons, par exemple, le probl`eme de calculer les valeurs propres de la matrice diagonale
.lnmIo
V V V
55 VGN
(1.11)
dont le polyn ˆome caract´eristique est
*-+
-4
-
' -
M ,
g
p5 g-tN
,
& & < 6 & j T & j T < 6 & j & j
<
5p
<
6T <
6£
(1.12) Les coefficients calcul´es satisfont 6d7 6d7^ C<©> 7 avec @> 7^@bB eps. Cette perturbation dans les coefficients provoque une grande erreur dans les z´eros de (1.12). Les r´esultats num´eriques pour
N
/ª
V
I
V V (avec eps g j;« , simple pr´ecision) sont dessin´es dans la figure V.2.
Conclusion. Eviter le calcul des coefficients du polyn ˆome caract´eristique. Un tel algorithme est num´eriquement instable.
−2 0 2
−2 0 2
N
ª
N
I
N N
FIG. V.2: Z´eros de (1.12) avec des coefficients perturb´es
V.2 La m´ethode de la puissance
Un algorithme simple pour calculer les valeurs propres d’une matrice est bas´e sur l’it´eration
¬
T
¬ (2.1)
o`u £ est un vecteur arbitraire. Dans le th´eor`eme suivant, on d´emontre queI¬=
¬ £ (m´ethode de la puissance) tend vers un vecteur propre de et que le quotient de Rayleigh ¬ ¬d® ¬ ¬ est une approximation d’une valeur propre de .
Th´eor`eme 2.1 Soit une matrice diagonalisable de valeurs propres TSV 5p
V & et de vecteurs
propres TSV 55
V & (normalis´es par L 7fL ).
Si @ T@;¯u@ @;_J@c° @I_ 55
_J@
& @, les vecteursI¬ de l’it´eration (2.1) v´erifient
I¬
¬T
6T
T
<D
^@
;
T@
¬
G (2.2)
(le nombre6T est d´efini par £ 7 6d7 7). Le quotient de Rayleigh satisfait (si 6T ( )
¬
b¬
¬
I¬
T
<D
T ¬ (2.3)
Si est une matrice normale (c.-`a-d. que les vecteurs propres sont orthogonaux), l’erreur dans (2.3) est S@ I T8@
¬
.
D´emonstration. Exprimons le vecteur de d´epart £ dans la base des vecteur propres, c.-`a-d.,
£ &
7\RT 687
7. Par r´ecurrence, on voit que
I¬
¬ £ &
7\RT 687
¬7 7 /
¬T
6T T < &
7\R
687 7
T ¬ 7 V (2.4)
ce qui d´emontre la formule (2.2). De cette relation, on d´eduit que
¬
bI¬x
¬
¬
T &
7\RT
@F687f@
@
7S@
¬ 7 <
7\URI9 687e6d9
¬7 ¬ T
9
7 9 (2.5)
¬
¬
&
7\RT
@F687f@
@
7S@
¬ <
7\URI9 687e6d9
¬7 ¬9
7 9 (2.6)
Si6T ( , la formule (2.3) est une cons´equence de
¬
¬
¬
¬
@F6T@
g-@
T@
¬ g
T±g h<x
S@
I
T@
¬
S
@K6T8@
g,@
T@
¬
g- h<D
^@
I
T5@
¬
G
(2.7)
Pour une matrice normale, le deuxi`eme terme dans les formules (2.5) et (2.6) est absent et l’expression
^@
I
T@
¬
peut ˆetre remplac´ee par ^@ ; T8@
¬
dans (2.7) et dans (2.3).
Exemple 2.2 Consid´erons la matrice /
dont la valeur propre la plus grande est T
b<v²p³I´
µ
H¶IS=
¶ ¶
I ;I·II
ª . Quelques it´erations de la m´ethode de la puis- sance nous donnent
£ V V V T V ¶ V V V ¶ V
et une premi`ere approximation de T est obtenue par
T
b
T
T T
T
T T
I®
¶
¶
I
·
Remarques. Les ´el´ements du vecteurI¬ croissent exponentiellement avec ] . Il est alors recom- mand´e de normaliser¬ apr`es chaque it´eration, c.-`a-d. de remplacer¬ parI¬; L I¬ L . Sinon, on risque un “overflow”. Si @ I T@ est proche de , la convergence est tr`es lente. Pour acc´el´erer la convergence, on utilise la modification suivante.
M´ethode de la puissance inverse de Wielandt
Supposons qu’on connaisse une approximation ¸ de la valeur propre cherch´ee T (il n’est pas n´ecessaire de supposer que T soit la plus grande valeur propre de ). L’id´ee est d’appliquer l’it´eration (2.1) `a la matrice ¸
j T
. Les valeurs propres de cette matrice sont 7 ¸ j T
. Si
¸ est proche de T , on a
@ T
¸C@º¹
@ 7
¸C@
pour P¦_
et la convergence va ˆetre tr`es rapide. L’it´eration devient alors¬
T ¸
j T
¬ ou
¸
e¬
T
»¬
(2.8)
Apr`es avoir calcul´e la d´ecomposition LR de la matrice ¸
, une it´eration de (2.8) ne coˆute pas plus cher qu’une de (2.1).
Exemple 2.3 Pour la matrice de l’exemple pr´ec´edent, choisissons¸
¶
et £ V ¶ V
.
Deux it´erations de (2.8) nous donnent
T
I
¶;¶
II·I
II ªI¶Iª
I·
ª
I ª
I
I
¶;¶
II·I
V ¶
ª;¶
-
ª
;
¶
I
· ª
I;;·IIII; I
¶
ª;¶
-
ª
;
¶
I
et on obtient
T
D
¶
T ¸
j T T
T T
T
T T
II·II;II·I I·;·
¶ ª
De cette relation, on calcule T et on obtient l’approximation¶ ¶ I ;I·III . Les premiers chiffres sont corrects.
La m´ethode de la puissance (et celle de Wielandt) est importante pour la compr´ehension d’autres algorithmes. Si l’on veut calculer toutes les valeurs propres d’une matrice, on utilise des m´ethodes encore plus sophistiqu´ees. En pratique, on proc`ede de la mani`ere suivante:
¼ on distingue les cas: sym´etrique ou quelconque.
¼ on cherchei telle quei j T i J½ devienne une matrice de Hessenberg (ou une matrice tridiagonale, si est sym´etrique); voir V.3.
¼ on applique l’algorithme QR `a la matrice½ (voir V.6).
¼ si½ est une matrice tridiagonale et sym´etrique, on peut ´egalement appliquer la m´ethode de bissection (voir V.4).
V.3 Transformation sous forme de Hessenberg (ou tridiagonale)
Avec la transformation i
(o`ui est une matrice inversible) le probl`eme
b devient i j T i
Donc, les valeurs propres de et de i j T i sont les mˆemes et les vecteurs propres 7 de se transforment par 7 i
7. Le but de ce paragraphe est de trouver une matricei telle que
i j T i devienne “plus simple”. La situation id´eale serait trouv´ee sii j T i devenait diagonale ou triangulaire – mais une telle transformation n´ecessiterait d´ej`a la connaissance des valeurs propres.
Alors, on cherchei tel quei¾j T i soit sous forme de Hessenberg
i j T i
½¿
À À
55 55
À
À À . .. ...
À . .. ... À . .. ... À
À À V (3.1)
c.-`a-d.,Ác7:9 pourP¦¯§a < . Pour arriver `a ce but, nous consid´erons deux algorithmes.
a) A l’aide des transformations ´el´ementaires
Comme pour l’´elimination de Gauss, nous utilisons les transformations±7 pour faire apparaˆıtre les z´eros – colonne par colonne – dans (3.1).
Dans un premier pas, nous choisissons]Ã_ tel que@F6 ¬ T@I_J@K689^Tp@ pouraZ_ et nous permutons les lignes et] , c.-`a-d., nous formonsÄ o`uÄ est une matrice de permutation convenable. Pour ne pas changer les valeurs propres, il faut ´egalement permuter les colonnes et] (ceci correspond au calcul de ¦ Ä ÄÅj T carÄ Æ et donc Ä Ä¾j T ). Si 6 T , on a aussi6 7\T pour
P¦_
et le premier pas est termin´e. Sinon, nous d´eterminons
Â
ÈÇ
°
... ... . .. ...
MÇ
&
55
telle que Â
6
TT 6 T
55 6 T &
6 T 6
55 6 &
À
55
À
... ... ...
À
55
À
Pour ceci, on d´efinitÇ 7 6 7\T
6 T . Une multiplication `a droite avec
 j T
Ç °
... ... . .. ...
Ç & 55
ne change pas la premi`ere colonne de ¦.
On r´ep`ete la mˆeme proc´edure avec la sous-matrice de ¦Â j T de dimensionN , et ainsi de suite. A cause des multiplications `a droite avec 7j T , cet algorithme coˆute deux fois plus cher que l’´elimination de Gauss (donc N ° op´erations).
Exemple. Pour la matrice
D
on prend Â
et on obtient
Â
~
V puis   j T
ªI;¶
/½
Cet exemple montre un d´esavantage de cet algorithme : si l’on part avec une matrice sym´etrique
, la matrice de Hessenberg ½ , obtenue par cet algorithme, n’est plus sym´etrique en g´en´eral.
b) A l’aide des transformations orthogonales
Il est souvent pr´ef´erable de travailler avec des r´eflexions de Householder (voir le paragraphe IV.7).
Commenc¸ons par une r´eflexion pour les coordonn´ees V 55
VGN laissant fixe la premi`ere coor- donn´ee : ÊÉ
É
É
(L
É
L
) tel que ÊÉ É T y8T o`u É T e6 T^V 55 V56
& T
. En posant
V É
et Ê Ë ©
, la matrice Ê contient des z´eros dans la premi`ere colonne `a partir du troisi`eme ´el´ement. La multiplication `a droite avec
Ê j T
Ê Ê ne change pas cette colonne :
6TT¾6T
6T
°
6 T¾6
6 °
6 ° T¾6
° 6
°°
Ê g
Ì
ÎÍ
6TT¾6T
6T
°
À À
À À Ê g g Ê
Ì
ÎÍ
6TT
À À
À À
À À
Dans le pas suivant, on applique la mˆeme proc´edure `a la sous-matrice de dimensionN
, etc.
Finalement, on arrive `a la forme de Hessenberg (3.1) avec la tranformationi j T
Ê & j
Tg
p5
g Ê ,
qui est une matrice orthogonale (c.-`a-d.,i¾j T i ).
Nous avons un double avantage avec cet algorithme :
¼ il ne faut pas faire une recherche de pivot ;
¼ si A est sym´etrique, alorsi¾j T i est aussi sym´etrique, et donc tridiagonale.
V.4 M´ethode de bissection pour des matrices tridiagonales
Consid´erons une matrice sym´etrique tridiagonale
Ï T y
y Ï y °
y ° . .. ...
. .. ... y &
y & Ï & (4.1)
On observe tout d’abord que si un ´el´ement yQ7 est nul, la matrice est d´ej`a d´ecompos´ee en deux sous-matrices du mˆeme type, qui ensemble fournissent les valeurs propres de .
On peut donc supposer, sans restreindre la g´en´eralit´e, que
yQ7
( pour P V
55 VGN
(4.2)
Pour cette matrice, il est possible de calculer la valeur
*-+
, du polyn ˆome caract´eristique sans connaˆıtre ses coefficients. En effet, si l’on pose
T Ï T V Ï T y
y Ï V
¦°C
Ï T y
y Ï y °
y ° Ï ° V
p5
et si l’on d´efinit7^ -nw.10}2 7
, , on obtient
I£c -4
-T5 -4
Ï T
c7S -4
Ï 7
-
c7
j
T5 -
y 7
c7
j
-
V P V
55 VGN
(4.3) La formule de r´ecurrence dans (4.3) est obtenue en d´eveloppant le d´eterminant de la matrice 7
,
par rapport `a la derni`ere ligne (ou colonne).
En principe, on peut maintenant calculer les valeurs propres de (c.-`a-d. les z´eros de & - ) de la mani`ere suivante : chercher un intervalle o`u & - change de signe et localiser une racine de
&
- par bissection. Les ´evaluations de & , sont faites `a l’aide de la formule (4.3). Mais il existe une astuce interessante qui permet d’am´eliorer cet algorithme.
Th´eor`eme 4.1 Si (4.2) est v´erifi´e, les polynˆomesc7S - d´efinis par (4.3) satisfont a) & &
j
T5
,Ð si & ,4 ( "ÑO );
b) c7
j
T5 ,
c7
T5
bÐ si c7^ pour unP "ÑX V 55 VGN
[ ;
c) £c , ne change pas de signe surO . D´emonstration. L’affirmation (c) est triviale.
Si c7S - pour un P "ÆX V 55 VGN
[ , la formule de r´ecurrence (4.3) donne l’in´egalit´e
c7
Tp -
c7
j
Tp -
B . Pour d´emontrer (b), il suffit d’exclure le cas 7
T5 -
7
j
T5
-¾ . Si deux valeurs cons´ecutives de la suiteX c7S - [ sont nulles, la formule de r´ecurrence montre que7^ -4 pour toutP , ce qui contredit£ - .
Nous d´emontrons par r´ecurrence que
toutes les racines dec7S - sont r´eelles, simples et s´epar´ees par celles dec7
j
T5
, . (4.4)
Il n’y a rien `a d´emontrer pourP . Supposons la propri´et´e vraie pourP et montrons qu’elle est encore vraie pourP <~ . Comme les z´eros T Ð 5p
Ð/
7 dec7^ , sont s´epar´es par ceux de7
j
T5 -
et comme 7
j
T5
ÓÒ Ó
< Ò , nous avons signc7
j
T5 9
Å
9 T
. Alors, on d´eduit de (b) que sign7
T5 9
9
. Ceci et le fait que c7
T5 ,Ã
7 T 7 T <
55 montrent que7
T5 -
poss`ede un z´ero r´eel dans chacun des intervalles ouverts ÓÒ
V T
, TSV V 55 VI
7 V
Ò
. L’affirmation (a) est maintenant une cons´equence de (b) et de (4.4); voir la figure V.3.
-T
-
-
°
-
¡
-
¢
-
FIG. V.3:Suite de Sturm D´efinition 4.2 (suite de Sturm) Une suite t£VG-TSV
55 VG
&
de polynˆomes `a coefficients r´eelles s’appelle une suite de Sturm1, si elle v´erifie les conditions (a), (b), (c) du Th´eor`eme 4.1.
Th´eor`eme 4.3 Consid´erons une suite de Sturm t£VG-TSV 55
VG
&
. Si l’on d´efinit
Ô
-4 nombre de changements de signes de X £ - VG-Tp- V 55 V} & , [V (4.5) alors le polynˆome & , poss`ede exactement
Ô
eÕ
Ô
e6
(4.6)
z´eros dans l’intervalle K6cV5Õ (sic7^, , on d´efinit sign7^ - signc7
j
T5
, ).
D´emonstration. Par continuit´e, l’entierÔ - peut changer sa valeur seulement si une valeur des fonctionsc7Q , devient nulle. La fonction£ - ne change pas de signe. Supposons alors que
c7S
-¾ pour unP "ÖX V 55 VGN
[ . La condition (b) et la continuit´e de c9;, montrent que seulement les deux situations suivantes sont possibles (> petit):
1Jacques Charles Franc¸ois Sturm (1803 – 1855), n´e le 29 septembre 1803 `a Gen`eve.