La m´ethode de la puissance it´er´ee est une m´ethode de calcul efficace, mais elle a quelques limites d’utilisation dans la pratique :
1) la m´ethode de la puissance it´er´ee et ses variantes ne permettent de calculer les valeurs propres qu’une par une; est-il possible de construire une m´ethode qui calcule plusieurs valeurs propres en mˆeme temps?
2) une matrice r´eelleApeut admettre des valeurs propres complexes conjugu´ees qui ont donc le mˆeme module ; dans le cas o`u la valeur propre dominante λ1 est complexe, alors la valeur propreλ1 perturbe la convergence de l’algorithme. En particulier le vecteurvk = 1
αkAvk−1 n’a pas de limite. Pourtant on observe num´eriquement que le sous–espace vectoriel engendr´e par les vecteurs vk et vk−1 contient les vecteurs propres associ´es `aλ1 etλ1; il semble donc int´eressant dans ce cas d’it´erer sur le sous-espace vectoriel engendr´e par ces deux vecteurs.
On envisage donc une g´en´eralisation de la m´ethode de la puissance it´er´ee, dans laquelle on it´ere sur plusieurs vecteurs `a la fois. Dans la suite on noteXk =< xk1, xk2, . . . , xkm>le sous–espace vectoriel engendr´e par lesmvecteurs xkj, et
Xk = [xk1 xk2 . . . xkm]
la matrice dont les mcolonnes sont les vecteursxkj. On consid`ere maintenant l’algorithme 9
choix d’un sous–espace X0⊂Cn de dimension m 2)it´erations : pour k= 1,2, . . . faire
a) X˜k =AXk−1
b) QkRk = ˜Xk (factorisation QRde ˜Xk) c) Xk =Qk
fin
L’´etapeb) de l’algorithme fait appel `a la factorisationQR de ˜Xk, cette op´eration a pour but de pr´eserver la dimension du sous–espace initialX0. En effet l’´etude de la m´ethode de la puissance it´er´ee montre que n’importe quel vecteur courant xkj tend `a s’aligner sur le vecteur propre v1
associ´e `a la valeur propre dominante quel que soit le vecteur initial xk0 (non orthogonal `av1).
En cons´equence, mˆeme en choisissant un sous–espace X0 engendr´e par mvecteurs lin´eairement ind´ependants, au cours des it´erations les vecteurs de Xk vont s’aligner sur v1, en cons´equence la dimension du sous–espace Xk deviendra inf´erieure `a m! Malheureusement cette ´etape de r´eorthogonalisation est tr`es coˆuteuse et dans la pratique on ne l’effectue pas `a chaque it´eration.
On utilise plutˆot la variante suivante 9
choix d’un sous–espace X0⊂Cn de dimension m choix du param`etre iter
2)it´erations : pour k= 1,2, . . . faire a) X˜k =AiterXk−1
b) QkRk = ˜Xk
c) Xk =Qk
d) modification ´eventuelle deiter fin
Le choix du param`etre iter est important : si on le prend trop grand on risque de diminuer la dimension du sous–espace Xk, si on le prend trop petit le coˆut calcul de l’algorithme est trop ´elev´e ! Seule l’exp´erimentation num´erique peut permettre de trouver une bonne valeur du param`etre en fonction des donn´ees A, metX0!
Th´eor`eme 11.8.1 Soient λ1,λ2, . . ., λm lesm valeurs propres dominantes de la matrice A∈ Cn×n, on suppose que
|λm+1|<|λm|< . . . <|λ1|.
Soient q1, q2,. . .,qm les vecteurs de Schur associ´es, on notePi la projection spectrale associ´ee `a λi. Soient m vecteurs lin´eairement ind´ependants x1,x2,. . ., xm on introduit les matrices
X0= [x1 x2 . . . xm] et Qm= [q1 q2 . . . qm]
Si on suppose de plus, que pour tout i= 1,2, . . . , mle rang de la matricePi[x1, x2, . . . , xi] esti, alors la suite {Xk}k∈N converge vers la matrice Qm.
Preuve :Rappelons d’abord que si la matriceAest hermitienne, les vecteurs de Schur d´efinis au chapitre 10 sont les vecteurs propres deA, et le Th´eor`eme 11.8.1 dit que la matriceXk converge alors vers la matrice Qm des vecteurs propres deAassoci´es `aλ1,λ2,. . .,λm.
Examinons maintenant l’hypoth`ese sur les op´erateurs de projection spectralePi; chaquePi
repr´esente la projection orthogonale deCn sur le sous–espace engendr´e parivecteurs de Schur, et dire que le rang dePiX0esti, revient `a dire queQ∗mx0i /= 0 pour tout vecteur initialx0i,
c’est-`a-dire qu’aucun des vecteursx0i n’est orthogonal au sous–espace engendr´e par lesmvecteurs de Schur qui forment les colonnes de Qm.
On noteQ = [Qm W] la matrice associ´ee `a la forme de Schur de A: Q∗AQ = R, R est une matrice triangulaire sup´erieure et
BQ∗m W∗ C
A[Qm W] =
BQ∗mAQm Q∗mAW W∗AQm W∗AW C
=
BR1 0 0 R2
C
(11.1) avecR1etR2matrices triangulaires sup´erieures. En effet, lesmvaleurs propres dominantes deA
´etant suppos´ees distinctes, elles sont simples et les vecteurs de Schur associ´es sont des vecteurs propres ; de plus l’hypoth`ese |λm+1| < |λm| entraine que le sous–espace engendr´e par les m premiers vecteursqi est orthogonal au sous–espace engendr´e par les vecteursqj avecm < j≤n.
De la relation (11.1) on tire :
AQm=QmR1 QmQ∗m=Im
AW =W R2 Q∗mW = 0
On peut donc ´ecrire X0 =QmG1+W G2 d´ecomposition deX0 dans la base form´ee par les m vecteurs de Schur {q1, q2, . . . , qm} et les n−m vecteurs colonnes de W: {w1, w2, . . . , wn−m}. D’apr`es l’hypoth`ese sur les op´erateurs de projection spectralePi, la matriceG1 ∈Rm×mest une matrice triangulaire sup´erieure inversible car rang(X0) = rang(Q∗mX0) = rang(G1). On peut alors ´ecrire
AX0=AQmG1+AW G2
AkX0=AkQmG1+AkW G2
et encore
Q∗mAkQm=R1k=⇒AkQm=QmRk1 W∗AkW =R2k=⇒AkW =W Rk2
soit finalement
AkX0=QmRk1G1+W Rk2G2
= [Qm+W Rk2G2G−11 R−k1 ]Rk1G1
= [Qm+Ek]Rk1G1
Par construction, le rayon spectral de la matrice R−11 est inf´erieur ou ´egal `a |λm|−1 tandis que celui de la matrice R2 est ´egal `a |λm+1|<|λm|. La matriceEk tend donc vers [0] quandk tend vers +∞.
D’autre part, par construction
Xk =Qk =AXk−1R−1k
=AkX0R−11 . . . R−1k Finalement quandk tend vers +∞
Xk≈QmRk1G1R−11 . . . Rk−1≈QmR
avecRmatrice triangulaire sup´erieure.Xktend donc vers la matriceQmdesmpremiers vecteurs de Schur et les valeurs propres cherch´ees sont sur la diagonale de la matriceR.
Remarque 11.8.1 La factorisation QR d’une matrice n’´etant pas unique, il est plus exact de dire que la j`eme colonne deXk converge vers laj`eme colonne deQm multipli´ee par un nombre complexe de la forme eiθj.
Pour simplifier cette d´emonstration, seule l’id´ee principale a ´et´e retenue, le raisonnement rigoureux est d´etaill´e par Saad [23].