• Aucun résultat trouvé

M´ethode du sous–espace

Dans le document Optimisation et alg` ebre lin´ eaire (Page 175-178)

La m´ethode de la puissance it´er´ee est une m´ethode de calcul efficace, mais elle a quelques limites d’utilisation dans la pratique :

1) la m´ethode de la puissance it´er´ee et ses variantes ne permettent de calculer les valeurs propres qu’une par une; est-il possible de construire une m´ethode qui calcule plusieurs valeurs propres en mˆeme temps?

2) une matrice r´eelleApeut admettre des valeurs propres complexes conjugu´ees qui ont donc le mˆeme module ; dans le cas o`u la valeur propre dominante λ1 est complexe, alors la valeur propreλ1 perturbe la convergence de l’algorithme. En particulier le vecteurvk = 1

αkAvk−1 n’a pas de limite. Pourtant on observe num´eriquement que le sous–espace vectoriel engendr´e par les vecteurs vk et vk−1 contient les vecteurs propres associ´es `aλ1 etλ1; il semble donc int´eressant dans ce cas d’it´erer sur le sous-espace vectoriel engendr´e par ces deux vecteurs.

On envisage donc une g´en´eralisation de la m´ethode de la puissance it´er´ee, dans laquelle on it´ere sur plusieurs vecteurs `a la fois. Dans la suite on noteXk =< xk1, xk2, . . . , xkm>le sous–espace vectoriel engendr´e par lesmvecteurs xkj, et

Xk = [xk1 xk2 . . . xkm]

la matrice dont les mcolonnes sont les vecteursxkj. On consid`ere maintenant l’algorithme 9

choix d’un sous–espace X0⊂Cn de dimension m 2)it´erations : pour k= 1,2, . . . faire

a) X˜k =AXk−1

b) QkRk = ˜Xk (factorisation QRde ˜Xk) c) Xk =Qk

fin

L’´etapeb) de l’algorithme fait appel `a la factorisationQR de ˜Xk, cette op´eration a pour but de pr´eserver la dimension du sous–espace initialX0. En effet l’´etude de la m´ethode de la puissance it´er´ee montre que n’importe quel vecteur courant xkj tend `a s’aligner sur le vecteur propre v1

associ´e `a la valeur propre dominante quel que soit le vecteur initial xk0 (non orthogonal `av1).

En cons´equence, mˆeme en choisissant un sous–espace X0 engendr´e par mvecteurs lin´eairement ind´ependants, au cours des it´erations les vecteurs de Xk vont s’aligner sur v1, en cons´equence la dimension du sous–espace Xk deviendra inf´erieure `a m! Malheureusement cette ´etape de r´eorthogonalisation est tr`es coˆuteuse et dans la pratique on ne l’effectue pas `a chaque it´eration.

On utilise plutˆot la variante suivante 9

choix d’un sous–espace X0⊂Cn de dimension m choix du param`etre iter

2)it´erations : pour k= 1,2, . . . faire a) X˜k =AiterXk−1

b) QkRk = ˜Xk

c) Xk =Qk

d) modification ´eventuelle deiter fin

Le choix du param`etre iter est important : si on le prend trop grand on risque de diminuer la dimension du sous–espace Xk, si on le prend trop petit le coˆut calcul de l’algorithme est trop ´elev´e ! Seule l’exp´erimentation num´erique peut permettre de trouver une bonne valeur du param`etre en fonction des donn´ees A, metX0!

Th´eor`eme 11.8.1 Soient λ12, . . ., λm lesm valeurs propres dominantes de la matrice A∈ Cn×n, on suppose que

m+1|<|λm|< . . . <|λ1|.

Soient q1, q2,. . .,qm les vecteurs de Schur associ´es, on notePi la projection spectrale associ´ee `a λi. Soient m vecteurs lin´eairement ind´ependants x1,x2,. . ., xm on introduit les matrices

X0= [x1 x2 . . . xm] et Qm= [q1 q2 . . . qm]

Si on suppose de plus, que pour tout i= 1,2, . . . , mle rang de la matricePi[x1, x2, . . . , xi] esti, alors la suite {Xk}k∈N converge vers la matrice Qm.

Preuve :Rappelons d’abord que si la matriceAest hermitienne, les vecteurs de Schur d´efinis au chapitre 10 sont les vecteurs propres deA, et le Th´eor`eme 11.8.1 dit que la matriceXk converge alors vers la matrice Qm des vecteurs propres deAassoci´es `aλ12,. . .,λm.

Examinons maintenant l’hypoth`ese sur les op´erateurs de projection spectralePi; chaquePi

repr´esente la projection orthogonale deCn sur le sous–espace engendr´e parivecteurs de Schur, et dire que le rang dePiX0esti, revient `a dire queQmx0i /= 0 pour tout vecteur initialx0i,

c’est-`a-dire qu’aucun des vecteursx0i n’est orthogonal au sous–espace engendr´e par lesmvecteurs de Schur qui forment les colonnes de Qm.

On noteQ = [Qm W] la matrice associ´ee `a la forme de Schur de A: QAQ = R, R est une matrice triangulaire sup´erieure et

BQm W C

A[Qm W] =

BQmAQm QmAW WAQm WAW C

=

BR1 0 0 R2

C

(11.1) avecR1etR2matrices triangulaires sup´erieures. En effet, lesmvaleurs propres dominantes deA

´etant suppos´ees distinctes, elles sont simples et les vecteurs de Schur associ´es sont des vecteurs propres ; de plus l’hypoth`ese |λm+1| < |λm| entraine que le sous–espace engendr´e par les m premiers vecteursqi est orthogonal au sous–espace engendr´e par les vecteursqj avecm < j≤n.

De la relation (11.1) on tire :

AQm=QmR1 QmQm=Im

AW =W R2 QmW = 0

On peut donc ´ecrire X0 =QmG1+W G2 d´ecomposition deX0 dans la base form´ee par les m vecteurs de Schur {q1, q2, . . . , qm} et les n−m vecteurs colonnes de W: {w1, w2, . . . , wn−m}. D’apr`es l’hypoth`ese sur les op´erateurs de projection spectralePi, la matriceG1 ∈Rm×mest une matrice triangulaire sup´erieure inversible car rang(X0) = rang(QmX0) = rang(G1). On peut alors ´ecrire

AX0=AQmG1+AW G2

AkX0=AkQmG1+AkW G2

et encore

QmAkQm=R1k=⇒AkQm=QmRk1 WAkW =R2k=⇒AkW =W Rk2

soit finalement

AkX0=QmRk1G1+W Rk2G2

= [Qm+W Rk2G2G−11 R−k1 ]Rk1G1

= [Qm+Ek]Rk1G1

Par construction, le rayon spectral de la matrice R−11 est inf´erieur ou ´egal `a |λm|−1 tandis que celui de la matrice R2 est ´egal `a |λm+1|<|λm|. La matriceEk tend donc vers [0] quandk tend vers +∞.

D’autre part, par construction

Xk =Qk =AXk−1R−1k

=AkX0R−11 . . . R−1k Finalement quandk tend vers +∞

Xk≈QmRk1G1R−11 . . . Rk−1≈QmR

avecRmatrice triangulaire sup´erieure.Xktend donc vers la matriceQmdesmpremiers vecteurs de Schur et les valeurs propres cherch´ees sont sur la diagonale de la matriceR.

Remarque 11.8.1 La factorisation QR d’une matrice n’´etant pas unique, il est plus exact de dire que la j`eme colonne deXk converge vers laj`eme colonne deQm multipli´ee par un nombre complexe de la forme ej.

Pour simplifier cette d´emonstration, seule l’id´ee principale a ´et´e retenue, le raisonnement rigoureux est d´etaill´e par Saad [23].

Dans le document Optimisation et alg` ebre lin´ eaire (Page 175-178)