On note S le vecteur des coefficients< f , Φ
J,k>. Le système à résoudre s’écrit :
D
−a1/2Fˇ
−TA
JFˇ
−1D
−a1/2D
1a/2F Uˇ
J= D
−a1/2Feˇ
−TS,
ce qui donne, en simplifiant :
D
−a1/2Feˇ
−TA
JU
J= D
−a1/2Feˇ
−TS. (IV.5)
Les tests numériques des figures IV.3, IV.4 et IV.5sont réalisés avec la solution test u(x) =
sin(30π x) sur l’intervalle [0,1]. La dénomination “primal” dans les figures signifie que la
matrice a été discrétisée en utilisant la base primale, c’est-à-dire que la solution est
représen-tée dans la base primale, et que le second membre est développé sur la base duale (dans la
formulation de Galerkin).
F
IG. IV.3 – Pour J=7, en une dimension, erreur L
2avec la solution exacte en fonction du
nombre d’itérations de GMRES, dans la formulation de Galerkin, et avec préconditionnement
par D
a. Primal signifie que A(l,k) =a(φ
J,k,φ
J,l).
Dans les figuresIV.3etIV.4sont affichées les évolutions de l’erreur avec la solution exacte
en fonction des itérations de GMRES, la première figure étant pour Galerkin et la deuxième
pour Petrov-Galerkin. Ce sont les familles de Daubechies qui donnent le meilleur résultat,
et dans la figure IV.3, la duale doit être d’ordre au moins égal à 4 pour donner un résultat
convenable. Dans tous les cas, on observe la convergence en moins de 2
J=128 itérations.
L’importance de la régularité de la duale apparaît de manière plus flagrante dans la figure
IV.4. La meilleure solution est lorsque l’opérateur est discrétisé dans la base duale,
c’est-à-dire lorsque solution et second membre sont exprimés dans la base primale. En comparant ce
IV.1. DISCRÉTISATIONS DU PROBLÈME
F
IG. IV.4 – Pour J=7, en une dimension, erreur L
2avec la solution exacte en fonction du
nombre d’itérations de GMRES, dans la formulation de Petrov-Galerkin, avec
préconditionne-ment par D
a. L’algorithme converge donc plus rapidement lorsque la solution est recherchée
dans la base primale.
résultat avec celui de la figureIV.2, montrant dans le cas où u(x) =e
−x2/2une convergence de
l’algorithme en 20 itérations, on en déduit que le préconditionnement par la diagonale exacte
donne un meilleur résultat : on obtient ici 25 itérations, mais pour une solution beaucoup plus
haute en fréquences.
La figureIV.5 permet de rendre compte de la qualité du préconditionneur : dans tous les
cas, c’est en exprimant la solution dans la base primale que l’on obtient la meilleure solution.
La formulation de Petrov-Galerkin donne de très bons résultats, de même que dans une base
de Daubechies.
On choisit donc deux possibilités pour l’extension en trois dimensions de la résolution de
l’équation de Poisson : la projection dans une base de Daubechies, ou bien dans le cas de
fa-milles biorthogonales, une formulation de Petrov-Galerkin. La figureIV.6 représente l’erreur
L
2en fonction du nombre d’itérations de GMRES en trois dimensions. On utilise pour les
décompositions/recompositions en ondelettes périodiques tridimensionnelles le schéma
expli-qué en annexeC. La solution est u(x,y,z) =sin(30πx) sin(30πy) sin(30πz), sur[0,1]
3. Les
bases de Daubechies et liftées ont un comportement similaire, comme en une dimension, et
ces deux méthodes donnent une erreur en 10
−6avec la solution réelle en une vingtaine
d’itéra-tions. Dans le cas interpolant, le nombre d’itérations dépend de J, et il vaut mieux utiliser des
fonctions de base duales plus régulières. Dans ce cas, notre méthode en O(1)est compétitive
par rapport aux méthodes d’éléments finis.
On a donc maintenant un premier solveur de l’équation de Poisson, en trois dimensions, en
projetant la solution dans une base de Daubechies, ou une base d’interpolantes (éventuellement
liftées), et en préconditionnant par la diagonale exacte du laplacien. Dans la section suivante,
nous présentons une autre méthode, combinant ondelettes et multigrille. Cette étude a fait
l’objet d’un article dans le Journal of Theorerical Computational Chemistry [75].
F
IG. IV.5 – Qualité du préconditionneur : en une dimension, pour une erreur L
2donnée 10
−4,
nombre d’itérations de GMRES en fonction de la famille d’ondelettes (D désigne Daubechies,
ImL ˜m désigne une interpolante d’ordre m liftée ˜m fois.), et de la formulation : G pour
Galer-kin, PG pour Petrov-Galerkin. primal et dual désignent la base dans laquelle est exprimée la
matrice.
F
IG. IV.6 – Erreur L
2en trois dimensions sur le résidu, en fonction du nombre d’itérations de
GMRES, pour une résolution de 64
3points.
IV.2. PRINCIPES DU MULTIGRILLE
IV.2 Principes du multigrille
Les méthodes multigrille datent des années 70 : elles ont été initiées par Brandt, Dendy et
al. [3,12, 58], Hackbush [86], et ont rapidement pris de l’ampleur. Le livre de Trottenberg et
al. [144] est une revue de ces méthodes, et Briggs en donne les principes fondamentaux dans
[29].
Beck [15] applique cette méthode dans le calcul de structures électroniques, pour
déter-miner le potentiel coulombien d’un système confiné dans une boîte, avec des conditions aux
bords de Dirichlet. Il utilise des fonctions de base interpolantes de Deslauriers et Dubuc ; il
détermine ainsi le potentiel de Hartree qu’il intègre dans un solveur des équations de Kohn et
Sham sur base interpolante [14,16,17].
Le multigrille se base sur l’utilisation d’un ensemble de grilles de différentes résolutions.
En faisant le parallèle avec une AMR, chaque grille correspond à la projection des fonctions
étudiées dans un espace V
Jdont le pas est h=2
−J. On veut résoudre le système linéaire
(IV.2) :
AU
J=Fe
J, (IV.6)
avec Amatrice de rigidité issue d’une formulation de type Galerkin ou Petrov-Galerkin sur
deux espacesV
JetV
J, et les vecteursFe
J={¯˜f
J,k}et U
J={u
J,k}donnés par :
e
P
Jf = ∑
k∈ΩJ¯˜f
J,kΦe
J,k,
P
Ju = ∑
k∈ΩJu
J,kΦ
J,k.
L’objectif est de minimiser, à l’itération m, l’erreur E
Jmentre la projection U
Jde la solution sur
l’espaceV
Jet son approximation U
Jmpar l’algorithme :
E
Jm=U
J−U
Jm.
On introduit alors le résidu, ou gradient D
mJ:
D
mJ=Fe
J−AU
Jm,
et un simple calcul nous montre que le système (IV.6) est équivalent à :
AE
Jm=D
mJ. (IV.7)
L’erreur entre la solution exacte et la solution approchée vérifie le même type d’équation,
avec un second membre qui tend à être de plus en plus “petit” au cours des itérations. Cette
équation (IV.7) n’a donc pas besoin d’être résolue précisément, pourvu que la solution soit
lisse. On se place en fait sur un maillage plus grossier pour résoudre (IV.7), puis on met à jour
la solution sur le maillage plus fin à l’aide de l’approximationEe
Jmde E
Jm:
U
Jm+1=U
Jm+Ee
Jm.
– un opérateur de restrictionI
JJ−1pour passer d’un maillage de résolution 2
Jau maillage
2
J−1.
– un opérateur de prolongation ou de prédictionI
JJ−1, qui à partir des coefficients dans
l’espaceV
J−1permet de déterminer ceux dansV
J.
– une procédure de lissageGS
J: pour éviter des erreurs dues aux changements de
réso-lution (expliqué par la suite), nous allons devoir appliquer une procédure de lissage à
notre solution, avant d’appliquer l’opérateur de restriction, et après avoir appliqué celui
de prolongation.
Apparaît ici la différence entre AMR et multigrille : on n’utilise pas d’espaces de détail. La
méthode est plus facile à implémenter qu’une méthode (adaptative) en ondelettes, mais ce
n’est pas la solution optimale. Le schémaIV.7donne la procédure pour une résolution à deux
grilles.
On effectue ν
1procédures de lissage GS avant restriction, et ν
2après prolongation. Ces
nombres vont dépendre de la qualité du lissage, des opérateurs de transferts, et du coût d’une
étape de GS. On étend également cet algorithme en effectuant successivement plusieurs
res-trictions/ prolongations : ce sont les schémas de type V-cycles et W-cycles.
Dans le document
Les ondelettes comme fonctions de base dans le calcul de structures électroniques
(Page 99-103)