• Aucun résultat trouvé

Analyse de stabilit´ e et conditionnement

Dans le document Méthodes Numériques (Page 177-182)

Approximation des valeurs propres et des vecteurs propres

5.2 Analyse de stabilit´ e et conditionnement

⎢⎢

10 2 3

−1 2 −1

0 1 3

⎥⎥

dont le spectre estσ(A) ={9.687,2.656±i0.693}. On peut utiliser l’estimation (5.1) avec les valeurs suivantes de RA : A1 = 11, A2 = 10.72, A = 15 et AF = 11.36. L’estimation (5.2) donne quant `a elle 1.96 ≤ Re(λ(A)) ≤ 10.34,

−2.34≤Im(λ(A))≤2.34, et les disques “lignes” et “colonnes” sontR1={|z|: |z− 10| ≤5},R2={|z|: |z−2| ≤2},R3={|z|: |z−3| ≤1}etC1={|z|: |z−10| ≤1}, C2 ={|z|: |z−2| ≤3},C3={|z|: |z−3| ≤4}.

On a dessin´e sur la Figure 5.1, pouri= 1,2,3 les disquesRi etCiainsi que l’inter-sectionSR∩ SC (zone gris´ee). En accord avec la Propri´et´e 5.2, on constate qu’une valeur propre est contenue dansC1, qui est disjoint deC2etC3, tandis que les autres valeurs propres, d’apr`es la Propri´et´e 5.1, se trouvent dans l’ensembleR2∪{C3∩R1}.

2 3 10 Re(z)

C3

C2

C1

R3

R2

R1

Im(z)

Fig. 5.1.Disques lignes et colonnes de la matrice A de l’Exemple 5.1

5.2 Analyse de stabilit´ e et conditionnement

Dans cette section, nous ´etablissons des estimations a priori et a posteriori utiles `a l’analyse de stabilit´e du probl`eme de la d´etermination des vecteurs propres et valeurs propres d’une matrice. Cette pr´esentation suit le plan du Chapitre 2. Pour plus de d´etails, voir [GL89], Chapitre 7.

5.2.1 Estimationsa priori

Soit A ∈ Cn×n une matrice diagonalisable et X = (x1, . . . ,xn) ∈ Cn×n la matrice des vecteurs propres `a droite de A. Par d´efinition, D = X−1AX = diag(λ1, . . . , λn), o`u les{λi}sont les valeurs propres de A. Soit E∈Cn×nune perturbation de A. On a le th´eor`eme suivant :

Th´eor`eme 5.3 (Bauer-Fike) Si µest une valeur propre de la matriceA + E∈Cn×n, alors

min

λσ(A)|λ−µ| ≤Kp(X) E p, (5.8) o`u · p est une p-norme matricielle quelconque, et Kp(X) = X p X−1 p est, par d´efinition, le conditionnement du probl`eme aux valeurs propres de la matrice A.

D´emonstration.On commence par remarquer que si µ ∈ σ(A) alors (5.8) est trivialement v´erifi´ee, puisqueXpX−1pEp≥0. Supposons dor´enavant queµ∈ σ(A). Par d´efinition d’une valeur propre, la matrice (A + E−µI) est singuli`ere, ce qui implique (rappelons que X est inversible) que la matrice X−1(A + E−µI)X = D + X−1EX−µI est singuli`ere. Il existe donc un vecteur non nulx∈Cn tel que

(D−µI) + X−1EX x=0.

Commeµ∈σ(A), la matrice diagonale (D−µI) est inversible et on peut ´ecrire la pr´ec´edente ´equation sous la forme

I + (D−µI)−1(X−1EX) x=0.

En prenant la norme · pet en proc´edant comme dans la preuve du Th´eor`eme 5.2, on obtient

1≤ (D−µI)−1pKp(X)Ep, d’o`u d´ecoule (5.8), puisque

(D−µI)−1p= ( min

λ∈σ(A)|λ−µ|)−1.

3 Si A est une matrice normale, on d´eduit du th´eor`eme de d´ecomposition de Schur (voir Section 1.8) que la matrice de passage X est unitaire et donc K2(X) = 1. Ceci implique

∀µ∈σ(A + E), min

λσ(A)|λ−µ| ≤ E 2. (5.9) Le probl`eme aux valeurs propres est donc bien conditionn´e par rapport `a l’erreur absolue. Mais ceci ne l’empˆeche pas d’ˆetre affect´e par des erreurs relativessignificatives, tout particuli`erement quand A a un large spectre.

Exemple 5.2 Consid´erons, pour 1≤ n ≤ 10, le calcul des valeurs propres de la matrice de Hilbert Hn∈Rn×n(voir l’Exemple 3.1, Chapitre 3). Elle est sym´etrique (donc normale) et son conditionnement est tr`es grand pourn≥4. Soit En∈Rn×n une matrice dont les coefficients sont ´egaux `a η = 10−3. La Table 5.1 montre les r´esultats du calcul du minimum dans (5.9). Remarquer que l’erreur d´ecroˆıt (la valeur propre de plus petit module tendant vers z´ero), tandis que l’erreur relative augmente avecn`a cause de la sensibilit´e des “petites” valeurs propres aux erreurs d’arrondi.•

Table 5.1. Erreurs relatives et absolues dans le calcul des valeurs propres de la matrice de Hilbert (en utilisant la fonctioneig de MATLAB). “Err. abs.” et “Err.

rel.” d´esignent respectivement les erreurs absolues et relatives (par rapport `aλ) n Err. abs. Err. rel. En 2 K2(Hn) K2(Hn+ En) 1 1·10−3 1·10−3 1·10−3 1·10−3 1 2 1.677·10−4 1.446·10−3 2·10−3 19.28 19.26 4 5.080·10−7 2.207·10−3 4·10−3 1.551·104 1.547·104 8 1.156·10−12 3.496·10−3 8·10−3 1.526·1010 1.515·1010 10 1.355·10−15 4.078·10−3 1·10−2 1.603·1013 1.589·1013

Le th´eor`eme de Bauer-Fike montre que le probl`eme aux valeurs propres est bien conditionn´e quand A est une matrice normale. Mais quand A n’est pas normale, le calcul d’une de ses valeurs propres n’est pas n´ecessairement mal conditionn´e. Le r´esultat suivant peut ˆetre vu comme une estimationa priori du conditionnement du calcul d’une valeur propre particuli`ere.

Th´eor`eme 5.4 Soit A ∈ Cn×n une matrice diagonalisable ; soient λ une valeur propre simple etxetyles vecteurs propres associ´es `a droite et `a gauche, avec x 2= y 2 = 1. On pose, pour ε >0,A(ε) = A +εE, avec E∈Cn×n telle que E 2= 1. Si on noteλ(ε)etx(ε)la valeur propre et le vecteur propre correspondant deA(ε), tels queλ(0) =λetx(0) =x,

----∂λ

∂ε(0) ----≤ 1

|yx|. (5.10)

D´emonstration.Prouvons tout d’abord queyx= 0. En posant Y = (X)−1= (y1, . . . ,yn), avecyk∈Cn pourk= 1, . . . , n, on aykA =λkyk,i.e., les lignes de X−1 = Y sont des vecteurs propres `a gauche de A. Or YX = I, doncyixjij pouri, j = 1, . . . , n, o`uδijest le symbole de Kronecker. Ce qui revient `a dire que les vecteurs propres{x}de A et les vecteurs propres{y}de A forment un ensemble bi-orthogonal.

Prouvons maintenant (5.10). Comme les racines du polynˆome caract´eristique de A(ε) sont des fonctions continues de ses coefficients, les valeurs propres de A(ε) sont des fonctions continues deε (voir p. ex. [Hen74], p. 281). Ainsi, dans un voisinage deε= 0,

(A +εE)x(ε) =λ(ε)x(ε).

En d´erivant cette ´equation par rapport `aεet prenantε= 0, on obtient A∂x

∂ε(0) + Ex= ∂λ

∂ε(0)x+λ∂x

∂ε(0),

d’o`u on d´eduit, en multipliant `a gauche les deux membres paryet en utilisant le fait queyest un vecteur propre `a gauche de A,

∂λ

∂ε(0) = yEx yx .

L’estimation (5.10) d´ecoule alors de l’in´egalit´e de Cauchy-Schwarz. 3 Remarquer que|yx|=|cos(θλ)|, o`uθλ est l’angle entre les vecteurs propres y et x (les deux ayant une norme euclidienne ´egale `a 1). Ainsi, quand ces deux vecteurs sont presque orthogonaux le calcul de la valeur propreλdevient mal conditionn´e. On peut donc prendre la quantit´e

κ(λ) = 1

|yx| = 1

|cos(θλ)| (5.11)

comme leconditionnement de la valeur propreλ. On a ´evidemmentκ(λ)≥1 ; quand A est une matrice normale, comme elle est unitairement semblable

`

a une matrice diagonale, les vecteurs propres `a gauche et `a droite y et x co¨ıncident, ce qui impliqueκ(λ) = 1/ x 22= 1.

On peut interpr´eter de mani`ere heuristique l’in´egalit´e (5.10) en disant que des perturbations d’ordre δε dans les coefficients de la matrice A induisent une modification d’ordreδλ=δε/|cos(θλ)| dans les valeurs propres λ. Si on consid`ere des matrices normales, le calcul deλ est un probl`eme bien condi-tionn´e ; on verra dans les prochaines sections qu’on peut traiter le cas d’une matrice quelconque non sym´etrique en utilisant des m´ethodes bas´ees sur les similitudes.

Il est int´eressant de constater que le conditionnement d’un probl`eme aux valeurs propres est invariant par transformation unitaire. En effet, soient U∈Cn×nune matrice unitaire etA = U AU. On noteλjune valeur propre de A,κj le conditionnementκ(λj) d´efini en (5.11) etκj le conditionnement deλj vue comme valeur propre deA. Soient enfin {xk},{yk}les vecteurs propres `a droite et `a gauche de A. Clairement,{Uxk},{Uyk}sont les vecteurs propres

`

a droite et `a gauche deA. Ainsi, pour tout j= 1, . . . , n,

κj=--yjUUxj--−1j,

d’o`u on d´eduit que la stabilit´e du calcul de λj n’est pas affect´ee par des transformations unitaires. On peut aussi v´erifier que ce type de transformation ne change pas les normes euclidiennes et les angles entre des vecteurs deCn. On a de plus l’estimationa priorisuivante (voir [GL89], p. 317).

fl

X−1AX

= X−1AX + E, E 2uK2(X) A 2, (5.12) o`ufl(M) est la repr´esentation machine de la matrice M etuest l’unit´e d’ar-rondi (voir Section 2.5). Il d´ecoule de (5.12) que l’utilisation de transforma-tions par des matrices non unitaires dans un calcul de valeurs propres peut entraˆıner des instabilit´es li´ees aux erreurs d’arrondi.

Nous terminons cette section avec un r´esultat de stabilit´e concernant l’ap-proximation d’un vecteur propre associ´e `a une valeur propre simple. Avec les mˆemes hypoth`eses qu’au Th´eor`eme 5.4, on peut montrer le r´esultat suivant (pour la preuve, voir [Atk89], Probl`eme 6, p. 649-650).

Propri´et´e 5.4 Les vecteurs propres xk et xk(ε) des matrices A et A(ε) = A +εE, avec xk(ε) 2= xk 2= 1 pourk= 1, . . . , n, satisfont

xk(ε)−xk 2≤ ε

minj=kk−λj|+O(ε2) ∀k= 1, . . . , n.

Comme en (5.11), on peut voir la quantit´e

κ(xk) = 1

minj=kk−λj|

comme le conditionnement du vecteur proprexk. Le calcul dexk peut donc ˆ

etre mal conditionn´e s’il y a des valeurs propresλj“tr`es proches” de la valeur propre λk associ´ee `axk.

5.2.2 Estimationsa posteriori

Les estimations a priori vues `a la section pr´ec´edente permettent d’obtenir les propri´et´es de stabilit´e d’un probl`eme aux valeurs et aux vecteurs propres.

Du point de vue de l’impl´ementation, il est ´egalement important de disposer d’estimationsa posterioriqui permettent de contrˆoler la qualit´e de l’approxi-mation pendant l’ex´ecution. Les r´esultats de cette section pourront servir `a la d´efinition de crit`eres d’arrˆet pertinents pour les m´ethodes it´eratives que nous verrons plus loin.

Th´eor`eme 5.5 Soit A ∈ Cn×n une matrice hermitienne et soit (λ,x) l’ap-proximation d’un couple (λ,x) form´e d’une valeur propre et d’un vecteur propre de A. En d´efinissant le r´esidu par

D´emonstration. Comme A est hermitienne, on peut construire une base or-thonormale de Cn constitu´ee des vecteurs propres {uk} de A. En particulier, L’estimation (5.13) assure qu’un petit r´esidu relatif induit une petiteerreur absoluedans le calcul de la valeur propre de A la plus proche deλ.

Consid´erons maintenant l’estimation a posteriori suivante pour le vecteur propre x(pour la preuve, voir [IK66], p. 142-143).

Propri´et´e 5.5 On reprend les hypoth`eses du Th´eor`eme5.5, et on suppose que

i−λ| ≤ r 2pouri= 1, . . . , met que|λi−λ| ≥δ >0pouri=m+ 1, . . . , n.

Alors

d(x,Um)≤ r 2

δ , (5.15)

o`u d(x, Um)est la distance euclidienne entrexet l’espaceUm engendr´e par les vecteurs propresui, i= 1, . . . , m associ´es aux valeurs propresλi de A.

L’estimationa posteriori(5.15) assure qu’une petiteerreur absoluecorrespond

`

a un petit r´esidu dans l’approximation du vecteur propre associ´e `a la valeur propre de A qui est la plus proche de λ, `a condition que les valeurs propres de A soient bien s´epar´ees (c’est-`a-dire que δsoit assez grand).

Pour une matrice A non hermitienne quelconque, on ne sait donner une esti-mationa posterioripour la valeur propreλque si l’on dispose de la matrice des vecteurs propres de A. On a en effet le r´esultat suivant (pour la preuve, voir [IK66], p. 146) :

Propri´et´e 5.6 Soient A ∈ Cn×n une matrice diagonalisable et X une ma-trice de vecteurs propres ind´ependants X = [x1, . . . ,xn] telle que X−1AX = diag (λ1, . . . , λn). Si, pour unε >0,

r 2≤ε x 2, alors

min

λiσ(A)|λ−λi| ≤ε X−1 2 X 2.

Cette estimation est d’une utilit´e pratique limit´ee car elle requiert la connais-sance de tous les vecteurs propres de A. Des estimationsa posterioripouvant ˆ

etre effectivement impl´ement´ees dans un algorithme num´erique seront propo-s´ees aux Sections 5.3.1 et 5.3.2.

Dans le document Méthodes Numériques (Page 177-182)