2.6 Multiparamètres
Les méthodes itératives de projection (respectivement les procédures d’accélération)
retrouvées dans la section 2.3 (respectivement dans la section 2.4) sont de la forme
x
k+1=x
k+λ
kz
k, k = 0,1, . . . ,
(resp. y
k=x
k+λ
kz
k, k = 0,1, . . . ,)
où z
kest un vecteur et λ
kest un paramètre. Dans quelques cas, les composantes de x
kpeuvent avoir des comportements différents de convergence et donc utiliser le même
para-mètreλ
kpour toutes les composantes ne mènera pas à une convergence (resp. accélération)
suffisante. C’est pour cette raison que les méthodes itératives (resp. procédures
d’accéléra-tion) de la forme
x
k+1=x
k+Z
kΛ
k, k= 0,1, . . . , (2.28)
(resp. y
k=x
k+Z
kΛ
k, k= 0,1, . . . ,) (2.29)
oùZ
kest une matrice de dimensionn×n
ketΛ
k∈IR
nk, ont été introduites. En particulier,
dans la série d’articles [30, 31, 32, 33], Brezinski a étudié des choix du vecteurΛ
kqui ont
mené à des méthodes itératives (resp. procédures d’accélération) de projection, appelées
les méthodes multiparamètres. D’autres choix sont possibles : par exemple, le choix deΛ
k,
introduit dans [25] et étudié dans [33], mène aux transformations appelées lesvector θ-type
transformations.
Dans les méthodes multiparamètres, n
kest fixé quandk tend vers l’infini. Si nous prenons
n
k= 1, les méthodes itératives (resp. procédures d’accélération) de projection décrites
dans la section 2.3 et 2.4 sont retrouvées. Montrons que les estimations du vecteur erreur
e à n
ktermes, permettent de retrouver les méthodes multiparamètres. Pour n
k= 1, cela
est vérifié grâce aux sections 2.3 et 2.4. Vérifions qu’il en est de même pour n
k= 2.
Similairement à la section 2.3, dans les estimations d’erreur à deux termes, nous
rem-plaçons la solution approchéex˜par un itéréx
k,rparr
k=b−Ax
k, wparw
kete
(i)devient
e
(ki). De ce fait, nous obtenonsx−x
k≈e
(ki), c’est à direx≈x
k+e
(ki), qui mène aux trois
méthodes itératives suivantes
x
k+1= x
k+Z
k[(AZ
k)
TAZ
k]
−1(AZ
k)
Tr
k(2.30)
x
k+1= x
k+A
TZ
k[(A
TZ
k)
TA
TZ
k]
−1Z
kTr
k(2.31)
x
k+1= x
k+Z
k[Z
kTAZ
k]
−1Z
kTr
k. (2.32)
Et similairement à la section 2.4, considérons x
kles itérés obtenus par une méthode
arbitraire. Commex
k+e
k(i)est une approximation dex, nous définissons une nouvelle suite
(y
k) par y
k= x
k+e
k(i). Ainsi, nous obtenons trois transformations de suites différentes
définies par
y
k= x
k+Z
k[(AZ
k)
TAZ
k]
−1(AZ
k)
Tr
k(2.33)
y
k= x
k+A
TZ
k[(A
TZ
k)
TA
TZ
k]
−1Z
kTr
k(2.34)
2.6 Multiparamètres 30
Nous remarquons que les méthodes définies par (2.30), (2.31) et (2.32) (resp. les
procé-dures définies par (2.33), (2.34) et (2.35)) sont de la même forme que (2.28) (resp. (2.29)).
Tout d’abord, étudions la méthode itérative définie par (2.30) (resp. la procédure
d’ac-célération définie par (2.33)). Nous avons
Λ
k= [(AZ
k)
TAZ
k]
−1(AZ
k)
Tr
k.
Ce choix de Λ
k, solution au sens des moindres carrées du système r
k−AZ
kΛ
k= 0,
minimise ||r
k+1|| (resp. ||ρ
k||, où ρ
k= b−Ay
k). Pour le choix Z
k= C
kr
koù C
kest
une approximation deA
−1, nous retrouvons une méthode multiparamètre introduite dans
[30] considérée comme une généralisation de la méthode itérative PR2 (resp. de la PR2
acceleration [32]).
Ensuite, pour la méthode itérative définie par (2.31) (resp. la procédure d’accélération
définie par (2.34)), nous avons
Λ
k= [(A
TZ
k)
TA
TZ
k]
−1Z
kTr
k.
Ce choix de Λ
k, solution au sens des moindres carrées du système e
k−A
TZ
kΛ
k= 0,
minimise ||x −x
k+1|| (resp. ||x −y
k||). Dans ce cas, le prix à payer pour avoir une
meilleure méthode (puisque si la matrice est mal conditionnée, la norme du résidu peut
être petite tandis que la norme de l’erreur reste large), est l’utilisation de la transposée.
Enfin, étudions la méthode itérative définie par (2.32) (resp. la procédure d’accélération
définie par (2.35)). Supposons dans ce cas la matrice symétrique définie positive. De ce fait,
il existe une matrice H telle queG=H
TH.Nous avons
Λ
k= [Z
kTAZ
k]
−1Z
kTr
k,
solution au sens des moindres carrées deHe
k−HZ
kΛ
k= 0.Ce choix minimise||x−x
k||
A(resp.||x−y
k||
A) où ||u||
A= (u, Au)
1/2.
Pour ces trois méthodes (resp. procédures) multiparamètres, plusieurs choix pour la
matrice Z
k, appelée la matrice de descente, sont possibles.
1. Nous pouvons choisir la matrice Z
ktelle qu’il existe α
k∈IR
nksatisfaisant
C
kr
k=Z
kα
k,
où C
kest une approximation de A
−1, c’est-à-dire un préconditionnement. Ce choix est
étudié dans [33], où une stratégie de partionnement est appliquée.
2. De même, nous pouvons choisir Z
ktelle qu’il existe α
k∈IR
nksatisfaisant
C
kb−x
k=Z
kα
k.
2.7 Conclusion 31
3. Les matricesZ
kpeuvent être choisies conjuguées, c’est-à-dire ∀i6=k, Z
iTAZ
k= 0.
Ce choix mène, pour les méthodes itératives correspondantes, à une généralisation
multi-paramètre donnée dans [31] de l’algorithme du gradient conjugué et biconjugué.
Enfin, il doit être remarqué que si nous considérons plus de termes dans les estimations
du vecteur erreur, en particuliern
k, nous retrouvons toutes les méthodes (resp. procédures
d’accélération ) multiparamètres.
2.7 Conclusion
Dans ce chapitre, nous avons proposé une nouvelle approche basée sur l’idée
d’extrapo-lation afin d’obtenir une estimation du vecteur erreur dans le cas d’un système linéaire. Elle
permet de simplifier la présentation de nombreuses méthodes habituellement présentées
différemment et surtout indépendamment. De plus, il est possible d’obtenir de nouveaux
schémas itératifs pour la résolution d’un système linéaire. En effet, il suffit de prendre des
conditions d’interpolation différentes de celles présentées dans ce chapitre. Ces nouveaux
schémas restent à étudier tant sur le plan pratique que sur le plan théorique.
Deuxième partie
Résolution de Problèmes de Point
Fixe
Chapitre 3
Quelques Schémas pour des
problèmes de point fixe
3.1 Introduction
Considérons le problème non linéaire suivant
TrouverX ∈IR
ptel que X =T(X),
où T :IR
p→IR
pest une fonction non linéaire. (3.1)
Une des méthodes les plus simples pour résoudre (3.1) est la méthode de Picard
X
n+1=T(X
n), X
0donné.
La simplicité de programmation recommande cette méthode, mais une critique qui a été
faite sur la méthode de Picard est que sa convergence peut être lente. De plus, il est
bien connu que nous ne pouvons pas utiliser cette méthode pour trouver les solutions
in-stables des problèmes de réaction-diffusion avec bifurcations [88]. Pour ces raisons, quelques
schémas basés sur des relaxations de plusieurs itérations successives de Picard ont été
in-troduits : Lemaréchal [85] pour une méthode à deux pas, Marder et Weitzner [88] pour une
méthode à trois pas, notée respectivement LM et MW dans la suite. Brezinski et Chehab
ont introduit dans [28, 32] les méthodes ∆
k. Pour k=1, la méthode de Lemaréchal est
retrouvée, tandis que, pour k=2, nous obtenons une méthode due à Marder et Weitzner
avec le choix de paramètre proposé par Chehab [43]. Elles sont définies par
SoitX
0donné.
Pourn= 0,1, . . .
X
n+1=X
n−(−1)
kλ
n∆
kX
n.
(3.2)
avec
∆
kX
n=
kX
i=0(−1)
i−kC
ikT
i(X
n) (3.3)
Dans le document
Méthodes d'Accélération de Convergence en Analyse Numérique et en Statistique
(Page 44-51)