h
j+1,j=||wˆ
j+1||
2, et
w
j+1= ˆw
j+1/h
j+1,j.
Les vecteursw
jconstituent une base orthonormale de l’espace de Krylov
K
m= Vec(r
0, A.r
0, ..., A
m−1·r
0)
3. On construit une solution approch´ee v
m= v
0+z
mo`u z
mest un ´el´ement de l’espace de
KrylovK
m= Vec(r
0, A.r
0, ..., A
m−1.r
0).
Donc z
m= P
mi=1β
iw
i. Pour d´eterminer les composantes (β
i)
i∈1,...,mde z
msur la base de
Krylov, on minimise au sens des moindres carr´es||r
0−A.z||
2.
4. On evalue r
m=b−A.v
m. Si le r´esidu est suffisamment petit, on s’arrˆete.
Autrement, on pose v
0=v
met et on r´eit`ere `a partir de 1.
En d´efinitive, la solution approch´ee v
mde (H.1) est la somme d’un vecteur v
0et de la
com-binaison lin´eaire des vecteurs de la base de Krylov qui minimise au sens des moindre carr´es
||r
0−A.z||
2.
Cette m´ethode ne fait intervenir que le produit de la matrice A et d’un vecteur w : Il n’est
donc pas n´ecessaire de construire la matrice A mais uniquement de programmer le produitA.w.
Dans le cas de la m´ethode de Newton, la m´ethode GMRES nous permet donc de nous affranchir
de la construction du Jacobien.
Pour que cette m´ethode soit r´eellement avantageuse, il faut que tr`es peu de directions de Krylov
soient n´ecessaires comparativement `a la dimension de notre syst`eme lin´eaire, c’est-`a-direm ≪N.
Pour rendre cela possible, il est n´ecessaire de construire un pr´econditionneur (section H.2).
Pour des raison de pr´ecision et de stabilit´e num´erique, l’algorithme d’orthonormalisation de
Gram-Schmidt de la m´ethode GMRES a ´et´e remplac´e par la m´ethode de Householder, voir par
exemple Walker (1988) et en particulier l’algorithme 2.2 de cet article.
H.2 Pr´econditionneur
Il est possible d’acc´el´erer la convergence de la m´ethode GMRES (section H.1) en utilisant un
pr´econditionneur ˜P. De mani`ere g´en´erale, le choix du pr´econditionneur dans le cas de la r´esolution
d’un syt`eme lin´eaire de la forme (H.1) d´epend des deux crit`eres suivants :
122 Annexe H M´ethode GMRES avec pr´econditionneur
– ˜P doit ˆetre une bonne approximation de l’op´erateurA de telle sorte que ˜P
−1·A ouA·P˜
−1soit proche de l’op´erateur identit´e
– Les ´equations de la forme ˜P ·u=v doivent ˆetre relativement simple `a r´esoudre
Deux types de pr´econditionnement sont possibles :
– le «pr´econditionnement gauche» qui, au lieu du syst`eme (H.1), nous am`ene `a r´esoudre le
syst`eme
˜
P
−1·A·v = ˜P
−1·b (H.2)
– le «pr´econditionnement droite» qui nous conduit `a la r´esolution du syst`eme
A·P˜
−1·u=b (H.3)
o`u u= ˜P ·v.
J’ai opt´e sur le «pr´econditionnement droite» : cela permet de raisonner directement sur le
r´esidur
mde la m´ethode GMRES pour la condition d’arrˆet.
J’ai d´ecid´e d’utiliser comme pr´econditionneur un op´erateur tr`es proche du jacobien, dont la
partie ˜P agissant sur X se pr´esente sous
˜
P =cD+L+J
N2+J
N˜. (H.4)
J
N2est la partie du jacobien provenant de l’op´erateurN
2. Seule la partie du jacobienJ
N˜provenant
de l’op´erateur ˜N(·) (cf. les ´equations 4.33 et 4.34) a ´et´e tronqu´ee. J
N˜est issu, avant projection
sur les fonctions-test, de la lin´earisation du tenseur τ (U
b+u
n) de l’´equation (3.2) autour d’un
champ U
b+u
n, soit de
µ γ˙
2(U
b+u
n)γ˙ (δu
n) +µ
′γ˙
2(U
b+u
n)γ˙
ij(U
b+u
n) ˙γ
ij(δu
n) ˙γ(U
b+u
n) (H.5)
o`uµ
′( ˙γ
2) est la d´eriv´ee premi`ere deµpar rapport `a ˙γ
2. Pour la construction du pr´econditionneur
˜
P, le second terme contenant justement de µ
′n’a pas ´et´e pris en compte.
Une fois le pr´econditionneur construit, il est factoris´e et sauvegard´e sous sa forme LU. Il est
r´eactualis´e automatiquement apr`es 5 it´erations de Newton. De plus, lors du suivi de branche de
solutions, on peut choisir de le r´eactualiser uniquement apr`es un certain nombre de points calcul´es.
H.3 ´Evaluation de l’action du jacobien sur un vecteur 123
H.3 Evaluation de l’action du jacobien sur un vecteur´
Lors de l’utilisation d’une m´ethode GMRES (section H.1), il n’est pas n´ecessaire de calculer
tout l’op´erateurA mais seulement le produit matrice-vecteur A·w, w´etant un vecteur. Dans la
m´ethode de suivi de branche de solutions (section 4.2) le jacobienJ de l’op´erateurG intervient `a
diff´erentes reprises dans des syst`emes lin´eaires. Ces syt`emes lin´eaires sont r´esolus par une m´ethode
GMRES. Seule donc l’action de J sur un vecteur w ∈ R
Ntot+1quelconque, soit par exemple
sur les vecteurs QδY
k, a ´et´e impl´ement´ee. J’ai donc d´ecid´e de ne pas utiliser le jacobien exact
mais d’´evaluer son action approximativement. Rappelons que le jacobien est issu des diff´erents
op´erateurs D, L, N
2et ˜N. Seule l’action sur un vecteur w de la partie du jacobien (notons la
J
N˜) provenant de l’op´erateur ˜N est approximative et ´evalu´ee par la combinaison de diff´erents
d´eveloppement de Taylor (Pernice & Walker 1998) :
J
N˜((X,Re)
k)·w≈ 1
6ǫ
8 ˜N((X,Re)
k+ ǫ
2w)
−
1
6ǫ
8 ˜N((X,Re)
k− ǫ
2w)−N˜((X,Re)
k+ǫw) + ˜N((X,Re)
k−ǫw)
(H.6)
avec ǫ= 10
−7.
Le vecteur G
Reintervenant dans la construction du jacobien J (4.48) est ´egalement construit
par diff´erences finies, mais cette fois-ci par un d´eveloppement de Taylor d’ordre 1 :
G
Re((X,Re)
k)≈ G(X
k
,Re
k+dRe
h)−G(X
k,Re
k+dRe
h)
dRe
h(H.7)
Annexe I
Calculs dans l’espace physique
I.1 Calcul du champ de vitesse sur les points de grille :
m´ethode de sommation partielle
J’ai choisi de ne pas utiliser de transform´ees de Fourier rapide et de proc´eder comme Meseguer & Mellibovsky
(2007) en utilisant la m´ethode de sommation partielle. Cette m´ethode consiste `a s´eparer les ´etapes
de calculs et d’´evaluer d’abord le champ de vitesse u sur la grille radiale, puis azimutale, puis
axiale obtenant ainsi l’´evaluation compl`ete du champ de vitesse sur la grille compl`ete.
Le champ de vitesse u est ´evalu´e d’abord sur la grille radialer
+i