• Aucun résultat trouvé

1.4) Résolution de l’équation de Poisson en une dimension - extension au 3D 97

On note S le vecteur des coefficients< f , Φ

J,k

>. Le système à résoudre s’écrit :

D

a1/2

Fˇ

T

A

J

Fˇ

−1

D

a1/2

D

1a/2

F Uˇ

J

= D

a1/2

F

T

S,

ce qui donne, en simplifiant :

D

a1/2

Feˇ

T

A

J

U

J

= D

a1/2

F

T

S. (IV.5)

Les tests numériques des figures IV.3, IV.4 et IV.5sont réalisés avec la solution test u(x) =

sin(30π x) sur l’intervalle [0,1]. La dénomination “primal” dans les figures signifie que la

matrice a été discrétisée en utilisant la base primale, c’est-à-dire que la solution est

représen-tée dans la base primale, et que le second membre est développé sur la base duale (dans la

formulation de Galerkin).

F

IG

. IV.3 – Pour J=7, en une dimension, erreur L

2

avec la solution exacte en fonction du

nombre d’itérations de GMRES, dans la formulation de Galerkin, et avec préconditionnement

par D

a

. Primal signifie que A(l,k) =a

J,k

J,l

).

Dans les figuresIV.3etIV.4sont affichées les évolutions de l’erreur avec la solution exacte

en fonction des itérations de GMRES, la première figure étant pour Galerkin et la deuxième

pour Petrov-Galerkin. Ce sont les familles de Daubechies qui donnent le meilleur résultat,

et dans la figure IV.3, la duale doit être d’ordre au moins égal à 4 pour donner un résultat

convenable. Dans tous les cas, on observe la convergence en moins de 2

J

=128 itérations.

L’importance de la régularité de la duale apparaît de manière plus flagrante dans la figure

IV.4. La meilleure solution est lorsque l’opérateur est discrétisé dans la base duale,

c’est-à-dire lorsque solution et second membre sont exprimés dans la base primale. En comparant ce

IV.1. DISCRÉTISATIONS DU PROBLÈME

F

IG

. IV.4 – Pour J=7, en une dimension, erreur L

2

avec la solution exacte en fonction du

nombre d’itérations de GMRES, dans la formulation de Petrov-Galerkin, avec

préconditionne-ment par D

a

. L’algorithme converge donc plus rapidement lorsque la solution est recherchée

dans la base primale.

résultat avec celui de la figureIV.2, montrant dans le cas où u(x) =e

x2/2

une convergence de

l’algorithme en 20 itérations, on en déduit que le préconditionnement par la diagonale exacte

donne un meilleur résultat : on obtient ici 25 itérations, mais pour une solution beaucoup plus

haute en fréquences.

La figureIV.5 permet de rendre compte de la qualité du préconditionneur : dans tous les

cas, c’est en exprimant la solution dans la base primale que l’on obtient la meilleure solution.

La formulation de Petrov-Galerkin donne de très bons résultats, de même que dans une base

de Daubechies.

On choisit donc deux possibilités pour l’extension en trois dimensions de la résolution de

l’équation de Poisson : la projection dans une base de Daubechies, ou bien dans le cas de

fa-milles biorthogonales, une formulation de Petrov-Galerkin. La figureIV.6 représente l’erreur

L

2

en fonction du nombre d’itérations de GMRES en trois dimensions. On utilise pour les

décompositions/recompositions en ondelettes périodiques tridimensionnelles le schéma

expli-qué en annexeC. La solution est u(x,y,z) =sin(30πx) sin(30πy) sin(30πz), sur[0,1]

3

. Les

bases de Daubechies et liftées ont un comportement similaire, comme en une dimension, et

ces deux méthodes donnent une erreur en 10

6

avec la solution réelle en une vingtaine

d’itéra-tions. Dans le cas interpolant, le nombre d’itérations dépend de J, et il vaut mieux utiliser des

fonctions de base duales plus régulières. Dans ce cas, notre méthode en O(1)est compétitive

par rapport aux méthodes d’éléments finis.

On a donc maintenant un premier solveur de l’équation de Poisson, en trois dimensions, en

projetant la solution dans une base de Daubechies, ou une base d’interpolantes (éventuellement

liftées), et en préconditionnant par la diagonale exacte du laplacien. Dans la section suivante,

nous présentons une autre méthode, combinant ondelettes et multigrille. Cette étude a fait

l’objet d’un article dans le Journal of Theorerical Computational Chemistry [75].

F

IG

. IV.5 – Qualité du préconditionneur : en une dimension, pour une erreur L

2

donnée 10

4

,

nombre d’itérations de GMRES en fonction de la famille d’ondelettes (D désigne Daubechies,

ImL ˜m désigne une interpolante d’ordre m liftée ˜m fois.), et de la formulation : G pour

Galer-kin, PG pour Petrov-Galerkin. primal et dual désignent la base dans laquelle est exprimée la

matrice.

F

IG

. IV.6 – Erreur L

2

en trois dimensions sur le résidu, en fonction du nombre d’itérations de

GMRES, pour une résolution de 64

3

points.

IV.2. PRINCIPES DU MULTIGRILLE

IV.2 Principes du multigrille

Les méthodes multigrille datent des années 70 : elles ont été initiées par Brandt, Dendy et

al. [3,12, 58], Hackbush [86], et ont rapidement pris de l’ampleur. Le livre de Trottenberg et

al. [144] est une revue de ces méthodes, et Briggs en donne les principes fondamentaux dans

[29].

Beck [15] applique cette méthode dans le calcul de structures électroniques, pour

déter-miner le potentiel coulombien d’un système confiné dans une boîte, avec des conditions aux

bords de Dirichlet. Il utilise des fonctions de base interpolantes de Deslauriers et Dubuc ; il

détermine ainsi le potentiel de Hartree qu’il intègre dans un solveur des équations de Kohn et

Sham sur base interpolante [14,16,17].

Le multigrille se base sur l’utilisation d’un ensemble de grilles de différentes résolutions.

En faisant le parallèle avec une AMR, chaque grille correspond à la projection des fonctions

étudiées dans un espace V

J

dont le pas est h=2

J

. On veut résoudre le système linéaire

(IV.2) :

AU

J

=Fe

J

, (IV.6)

avec Amatrice de rigidité issue d’une formulation de type Galerkin ou Petrov-Galerkin sur

deux espacesV

J

etV

J

, et les vecteursFe

J

={¯˜f

J,k

}et U

J

={u

J,k

}donnés par :

e

P

J

f = ∑

k∈ΩJ

¯˜f

J,k

Φe

J,k

,

P

J

u = ∑

k∈ΩJ

u

J,k

Φ

J,k

.

L’objectif est de minimiser, à l’itération m, l’erreur E

Jm

entre la projection U

J

de la solution sur

l’espaceV

J

et son approximation U

Jm

par l’algorithme :

E

Jm

=U

J

U

Jm

.

On introduit alors le résidu, ou gradient D

mJ

:

D

mJ

=Fe

J

AU

Jm

,

et un simple calcul nous montre que le système (IV.6) est équivalent à :

AE

Jm

=D

mJ

. (IV.7)

L’erreur entre la solution exacte et la solution approchée vérifie le même type d’équation,

avec un second membre qui tend à être de plus en plus “petit” au cours des itérations. Cette

équation (IV.7) n’a donc pas besoin d’être résolue précisément, pourvu que la solution soit

lisse. On se place en fait sur un maillage plus grossier pour résoudre (IV.7), puis on met à jour

la solution sur le maillage plus fin à l’aide de l’approximationEe

Jm

de E

Jm

:

U

Jm+1

=U

Jm

+Ee

Jm

.

– un opérateur de restrictionI

JJ1

pour passer d’un maillage de résolution 2

J

au maillage

2

J1

.

– un opérateur de prolongation ou de prédictionI

JJ1

, qui à partir des coefficients dans

l’espaceV

J1

permet de déterminer ceux dansV

J

.

– une procédure de lissageGS

J

: pour éviter des erreurs dues aux changements de

réso-lution (expliqué par la suite), nous allons devoir appliquer une procédure de lissage à

notre solution, avant d’appliquer l’opérateur de restriction, et après avoir appliqué celui

de prolongation.

Apparaît ici la différence entre AMR et multigrille : on n’utilise pas d’espaces de détail. La

méthode est plus facile à implémenter qu’une méthode (adaptative) en ondelettes, mais ce

n’est pas la solution optimale. Le schémaIV.7donne la procédure pour une résolution à deux

grilles.

On effectue ν

1

procédures de lissage GS avant restriction, et ν

2

après prolongation. Ces

nombres vont dépendre de la qualité du lissage, des opérateurs de transferts, et du coût d’une

étape de GS. On étend également cet algorithme en effectuant successivement plusieurs

res-trictions/ prolongations : ce sont les schémas de type V-cycles et W-cycles.