• Aucun résultat trouvé

2.6 Multiparamètres

Les méthodes itératives de projection (respectivement les procédures d’accélération)

retrouvées dans la section 2.3 (respectivement dans la section 2.4) sont de la forme

x

k+1

=x

k

k

z

k

, k = 0,1, . . . ,

(resp. y

k

=x

k

k

z

k

, k = 0,1, . . . ,)

où z

k

est un vecteur et λ

k

est un paramètre. Dans quelques cas, les composantes de x

k

peuvent avoir des comportements différents de convergence et donc utiliser le même

para-mètreλ

k

pour toutes les composantes ne mènera pas à une convergence (resp. accélération)

suffisante. C’est pour cette raison que les méthodes itératives (resp. procédures

d’accéléra-tion) de la forme

x

k+1

=x

k

+Z

k

Λ

k

, k= 0,1, . . . , (2.28)

(resp. y

k

=x

k

+Z

k

Λ

k

, k= 0,1, . . . ,) (2.29)

oùZ

k

est une matrice de dimensionn×n

k

etΛ

k

∈IR

nk

, ont été introduites. En particulier,

dans la série d’articles [30, 31, 32, 33], Brezinski a étudié des choix du vecteurΛ

k

qui ont

mené à des méthodes itératives (resp. procédures d’accélération) de projection, appelées

les méthodes multiparamètres. D’autres choix sont possibles : par exemple, le choix deΛ

k

,

introduit dans [25] et étudié dans [33], mène aux transformations appelées lesvector θ-type

transformations.

Dans les méthodes multiparamètres, n

k

est fixé quandk tend vers l’infini. Si nous prenons

n

k

= 1, les méthodes itératives (resp. procédures d’accélération) de projection décrites

dans la section 2.3 et 2.4 sont retrouvées. Montrons que les estimations du vecteur erreur

e à n

k

termes, permettent de retrouver les méthodes multiparamètres. Pour n

k

= 1, cela

est vérifié grâce aux sections 2.3 et 2.4. Vérifions qu’il en est de même pour n

k

= 2.

Similairement à la section 2.3, dans les estimations d’erreur à deux termes, nous

rem-plaçons la solution approchéex˜par un itéréx

k

,rparr

k

=b−Ax

k

, wparw

k

ete

(i)

devient

e

(ki)

. De ce fait, nous obtenonsx−x

k

≈e

(ki)

, c’est à direx≈x

k

+e

(ki)

, qui mène aux trois

méthodes itératives suivantes

x

k+1

= x

k

+Z

k

[(AZ

k

)

T

AZ

k

]

1

(AZ

k

)

T

r

k

(2.30)

x

k+1

= x

k

+A

T

Z

k

[(A

T

Z

k

)

T

A

T

Z

k

]

1

Z

kT

r

k

(2.31)

x

k+1

= x

k

+Z

k

[Z

kT

AZ

k

]

1

Z

kT

r

k

. (2.32)

Et similairement à la section 2.4, considérons x

k

les itérés obtenus par une méthode

arbitraire. Commex

k

+e

k(i)

est une approximation dex, nous définissons une nouvelle suite

(y

k

) par y

k

= x

k

+e

k(i)

. Ainsi, nous obtenons trois transformations de suites différentes

définies par

y

k

= x

k

+Z

k

[(AZ

k

)

T

AZ

k

]

1

(AZ

k

)

T

r

k

(2.33)

y

k

= x

k

+A

T

Z

k

[(A

T

Z

k

)

T

A

T

Z

k

]

1

Z

kT

r

k

(2.34)

2.6 Multiparamètres 30

Nous remarquons que les méthodes définies par (2.30), (2.31) et (2.32) (resp. les

procé-dures définies par (2.33), (2.34) et (2.35)) sont de la même forme que (2.28) (resp. (2.29)).

Tout d’abord, étudions la méthode itérative définie par (2.30) (resp. la procédure

d’ac-célération définie par (2.33)). Nous avons

Λ

k

= [(AZ

k

)

T

AZ

k

]

1

(AZ

k

)

T

r

k

.

Ce choix de Λ

k

, solution au sens des moindres carrées du système r

k

−AZ

k

Λ

k

= 0,

minimise ||r

k+1

|| (resp. ||ρ

k

||, où ρ

k

= b−Ay

k

). Pour le choix Z

k

= C

k

r

k

où C

k

est

une approximation deA

−1

, nous retrouvons une méthode multiparamètre introduite dans

[30] considérée comme une généralisation de la méthode itérative PR2 (resp. de la PR2

acceleration [32]).

Ensuite, pour la méthode itérative définie par (2.31) (resp. la procédure d’accélération

définie par (2.34)), nous avons

Λ

k

= [(A

T

Z

k

)

T

A

T

Z

k

]

1

Z

kT

r

k

.

Ce choix de Λ

k

, solution au sens des moindres carrées du système e

k

−A

T

Z

k

Λ

k

= 0,

minimise ||x −x

k+1

|| (resp. ||x −y

k

||). Dans ce cas, le prix à payer pour avoir une

meilleure méthode (puisque si la matrice est mal conditionnée, la norme du résidu peut

être petite tandis que la norme de l’erreur reste large), est l’utilisation de la transposée.

Enfin, étudions la méthode itérative définie par (2.32) (resp. la procédure d’accélération

définie par (2.35)). Supposons dans ce cas la matrice symétrique définie positive. De ce fait,

il existe une matrice H telle queG=H

T

H.Nous avons

Λ

k

= [Z

kT

AZ

k

]

1

Z

kT

r

k

,

solution au sens des moindres carrées deHe

k

−HZ

k

Λ

k

= 0.Ce choix minimise||x−x

k

||

A

(resp.||x−y

k

||

A

) où ||u||

A

= (u, Au)

1/2

.

Pour ces trois méthodes (resp. procédures) multiparamètres, plusieurs choix pour la

matrice Z

k

, appelée la matrice de descente, sont possibles.

1. Nous pouvons choisir la matrice Z

k

telle qu’il existe α

k

∈IR

nk

satisfaisant

C

k

r

k

=Z

k

α

k

,

où C

k

est une approximation de A

−1

, c’est-à-dire un préconditionnement. Ce choix est

étudié dans [33], où une stratégie de partionnement est appliquée.

2. De même, nous pouvons choisir Z

k

telle qu’il existe α

k

∈IR

nk

satisfaisant

C

k

b−x

k

=Z

k

α

k

.

2.7 Conclusion 31

3. Les matricesZ

k

peuvent être choisies conjuguées, c’est-à-dire ∀i6=k, Z

iT

AZ

k

= 0.

Ce choix mène, pour les méthodes itératives correspondantes, à une généralisation

multi-paramètre donnée dans [31] de l’algorithme du gradient conjugué et biconjugué.

Enfin, il doit être remarqué que si nous considérons plus de termes dans les estimations

du vecteur erreur, en particuliern

k

, nous retrouvons toutes les méthodes (resp. procédures

d’accélération ) multiparamètres.

2.7 Conclusion

Dans ce chapitre, nous avons proposé une nouvelle approche basée sur l’idée

d’extrapo-lation afin d’obtenir une estimation du vecteur erreur dans le cas d’un système linéaire. Elle

permet de simplifier la présentation de nombreuses méthodes habituellement présentées

différemment et surtout indépendamment. De plus, il est possible d’obtenir de nouveaux

schémas itératifs pour la résolution d’un système linéaire. En effet, il suffit de prendre des

conditions d’interpolation différentes de celles présentées dans ce chapitre. Ces nouveaux

schémas restent à étudier tant sur le plan pratique que sur le plan théorique.

Deuxième partie

Résolution de Problèmes de Point

Fixe

Chapitre 3

Quelques Schémas pour des

problèmes de point fixe

3.1 Introduction

Considérons le problème non linéaire suivant

TrouverX ∈IR

p

tel que X =T(X),

où T :IR

p

→IR

p

est une fonction non linéaire. (3.1)

Une des méthodes les plus simples pour résoudre (3.1) est la méthode de Picard

X

n+1

=T(X

n

), X

0

donné.

La simplicité de programmation recommande cette méthode, mais une critique qui a été

faite sur la méthode de Picard est que sa convergence peut être lente. De plus, il est

bien connu que nous ne pouvons pas utiliser cette méthode pour trouver les solutions

in-stables des problèmes de réaction-diffusion avec bifurcations [88]. Pour ces raisons, quelques

schémas basés sur des relaxations de plusieurs itérations successives de Picard ont été

in-troduits : Lemaréchal [85] pour une méthode à deux pas, Marder et Weitzner [88] pour une

méthode à trois pas, notée respectivement LM et MW dans la suite. Brezinski et Chehab

ont introduit dans [28, 32] les méthodes ∆

k

. Pour k=1, la méthode de Lemaréchal est

retrouvée, tandis que, pour k=2, nous obtenons une méthode due à Marder et Weitzner

avec le choix de paramètre proposé par Chehab [43]. Elles sont définies par

SoitX

0

donné.

Pourn= 0,1, . . .

X

n+1

=X

n

−(−1)

k

λ

n

k

X

n

.

(3.2)

avec

k

X

n

=

k

X

i=0

(−1)

ik

C

ik

T

i

(X

n

) (3.3)

Documents relatifs