Nous avons vu dans l’introduction que a définissait une norme équivalente à celle de H
1dans K
1. Si on utilise de plus l’équivalence entre cette dernière et la norme H
1des coefficients
en ondelettes (III.22), on obtient le résultat suivant :
hAu,ui = a(u,u)
∼ kuk
2H1∼
J−1∑
j=0∑
k∈ωj2
2 jd
2j,k,
la fonction u étant de moyenne nulle en base de fonctions d’échelle. Si on note D la matrice
diagonale de taille 2
2Jdont la diagonale est composée de blocs de taille 2
j×2
jsur lesquels la
diagonale vaut 2
j, j= j
0,J−1, et U
Λle vecteur des coefficients en ondelettes de u
Λ, alors on
a également l’équivalence :
a(u,u)∼kD
2U
Λk
l2.
En préconditionnant le système par D
2, i.e. en multipliant l’équation (IV.4) par D
−2, alors le
conditionnement de D
−2A
Λest une constante : toutes les directions de recherche sont
équiva-lentes, et le nombre de conditionnement est théoriquement en O(1). On considère la matrice :
D
−αF A ˇˇ F
TD
−α.
La figure IV.2montre le nombre d’itérations de GMRES en fonction de 2α. α=1 donne un
résultat de convergence optimal, ne dépendant pas de la résolution du problème : ces résultats
sont en accord avec ceux de Beylkin [24], qui utilise les ondelettes de Daubechies.
F
IG. IV.2 – Nombre d’itérations de GMRES en fonction de 2α, avec un préconditionnement
par la matrice D
α. Méthode de Galerkin avec des ondelettes de Daubechies de support 6, et
une solution gaussienne e
−x2/2. Les trois courbes présentent trois résolutions différentes.
Remarque IV.1.7 Il existe d’autres méthodes plus complexes que le préconditionnement par
la diagonale. La thèse de A.S. Piquemal [124] présente une étude de différentes méthodes de
préconditionnement en bases d’ondelettes d’opérateurs à coefficients variables.
IV.1. DISCRÉTISATIONS DU PROBLÈME
Une méthode connue sous le nom de SPAI Sparse Preconditioner Approximate Inverse
cons-iste à prendre pour préconditionneur P une approximation creuse de l’inverse de A, notée
˜
A
−1; elle a été exploitée d’abord pour des matrices quelconques (Grote et Huckle [84], Chan
et al. [39]). On trouve dans les travaux de Beylkin et al. [25], Tang [142], et Masson et al.
[116], [47], Choquet et al. [41], des utilisations de cette méthode pour des matrices en base
d’ondelettes. En particulier, Masson s’est intéressé à des matrices en formulation de Galerkin
et Petrov-Galerkin pour des ondelettes splines sur l’intervalle ; il faut cependant pour
l’effi-cacité de la méthode effectuer des seuillages très petits, et donc garder un nombre important
de coefficients dans la matrice du préconditionneur, ce qui n’est pas compatible avec notre
objectif de travailler en 3D.
Une autre possibilité est de construire des ondelettes adaptées à l’opérateur, à partir d’une
famille d’ondelettes biorthogonales. Cette idée est issue des travaux de Liandrat et
Tchamit-chian [106] , puis a été reprise par Dahlke et Weinreich [49], et les ondelettes construites sont
appelées vaguelettes. Le lecteur peut également se référer à l’article de Williams et al. [155]
pour une utilisation de ces ondelettes. Dans cette nouvelle base, l’opérateur peut s’inverser
avec un coût linéaire.
On peut perfectionner le préconditionneur, en prenant la diagonale de A
Λ, notée D
a, au lieu
de D, On étudieκ(Aˇ), avec ˇA définie par :
ˇ
A
Λ=D
−a1/2Fˇ
−TA ˇF
−1D
−a1/2.
Nous comparons nos résultats avec ceux figurant dans la thèse de Masson [116]. Il a utilisé
pour ses expérimentations numériques des B-Splines, une base biorthogonale pour laquelle
la fonction d’échelle primale est un polynôme de degré m sur chaque intervalle [k,k+1], k
entier, et dont la duale reconstruit localement des polynômes de degré ˜m. On notera dans les
tableauxIV.1etIV.2V
m,m˜l’espace engendré par les fonctions d’échelle et ondelettes B-splines
primales, et Ve
m,m˜l’espace biorthogonal associé. Ces résultats sont issus de l’article [47], et
pour une résolution J=7. On note deux différences entre notre implémentation et la leur :
– Cohen et Masson étudient l’équation de Poisson avec conditions aux bords de Dirichlet.
Ils construisent pour cela une famille d’ondelettes sur l’intervalle, c’est-à-dire une base
dont les fonctions aux bords sont modifiées, de façon à tenir compte des conditions aux
bords. Le traitement spécifique des conditions de Dirichlet donne donc, pour les mêmes
ondelettes, de moins bons nombres de conditionnement qu’avec des conditions aux bords
périodiques.
– La base ψ
Λcontient les ondelettes des différents niveaux j
06 j6J−1. Dans le cas
périodique, on peut aller jusqu’à j
0=0. Avec des ondelettes sur l’intervalle, où les
fonc-tions d’échelle ne sont plus invariantes par translation, on prend j
0>1 :φ
j0doit contenir
les informations aux bords et au milieu de l’intervalle Le laplacien s’écrit alors :
A
Λ=
h
a(φ
j0,k, φ
j0,l)i ha(φ
j0,k, ψ
j0,l)i
j06j06J−1h
a(ψ
j0,k, φ
j0,l)
i
j06j06J−1h
a(ψ
j,k, ψ
j0,l)
i
j06j,j06J−1
.
j
0>0, alors on doit inverser également ce bloc de matrice pour l’intégrer au
précondi-tionneur D
a:
D
Λ=
h
a(φ
j0,k, φ
j0,l)i
−1(0)
(0) D
J−j0 a
,
avec D
J−j0a
la matrice diagonale composée des coefficients A
λ,λ,|λ|= j
0, . . . ,J−1.
Les tableauxIV.1etIV.2montrent les nombres de conditionnement dans le cas où on
précon-ditionne par la diagonale du laplacien, c’est-à-dire en formant la matrice ˇA
Λ.
Primal Dual
(m, ˜m) (2,2) (2,4) (3,3) (4,8) (1,3) (1,7)
κ(Aˇ
Λ) 3.7 6.1 5.41 22.2 7.08 5.37
T
AB. IV.1 – Nombre de conditionnement des matrices ˇA
Λdans une formulation de Galerkin
en base B-Splines, pour J=7. Primal signifie que V
J=V
J=V
Jm,m˜, dual que V
J=V
J=Ve
Jm,m˜,
d’après l’article de Cohen et Masson [47].(m,m˜)désigne l’ordre des deux fonctions d’échelle
de la base biorthogonale.
Primal Dual
(m,m˜) (3,3) (3,5) (1,5) (1,7)
κ(Aˇ
Λ) 32.8 20.4 9.69 8.8
T
AB. IV.2 – Nombre de conditionnement des matrices en formulation de Petrov-Galerkin
en base de B-Spline, préconditionnée par leurs diagonales dans la base d’ondelette, d’après
l’article de Cohen et Masson [116].
D’après le tableauIV.1, il apparaît que le nombre de conditionnement est meilleur lorsque
la solution est recherchée dans la base de fonctions primales. On observe de plus une perte de
la propriété pour de grands ordres m et ˜m : dans ce cas, la matrice de rigidité est toujours à
diagonale dominante, mais la taille des supports des filtres induit un élargissement des bandes
(cf figureIV.1), qui peut expliquer que le nombre de conditionnement soit plus important.
Dans une base de B-Splines, il est plus avantageux d’utiliser une formulation de Galerkin,
plu-tôt que de Petrov-Galerkin, la formulation de Petrov-Galerkin étant plus intéressante lorsque
la solution est recherchée dans V
m,m˜.
Les tableauxIV.3etIV.4donnent les différents nombres de conditionnement, pour la
ma-trice de rigidité non préconditionnée κ(A
Λ), et la matrice préconditionnée par sa diagonale
κ(Aˇ
Λ), pour des bases de Daubechies, de Deslauriers-Dubuc, et de bases liftées. Le meilleur
résultat est obtenu dans une formulation de Galerkin, en exprimant la solution dans la base
duale. Cependant, contrairement aux résultats de Cohen et Masson, l’approximation de
Petrov-Galerkin se comporte très bien dans les bases interpolantes liftées.
IV.1. DISCRÉTISATIONS DU PROBLÈME
symétrique, elles sont égales aux valeurs propres de la matrice. Dans le cas de la matrice de
Petrov-Galerkin, qui n’est pas normale, les valeurs singulières pourV
J=V
t2J
etV
J=Ve
tJ2sont
identiques, le conditionnement de la matrice est le même. L’ordre de la méthode dépend ici de
la base dans laquelle on exprime la solution : l’algorithme doit donc être meilleur lorsqueV
J=V
t2J
, puisque nous avons utilisé le schéma de lifting tel que ˜m6m.
Enfin, dans la méthode de collocation, préconditionner par la matrice diagonale D
adonne un
nombre de conditionnement de l’ordre de 2
J(démontré par Donoho [61]). Le nombre
d’itéra-tions dans cette méthode va donc dépendre de la résolution.
V
j=V
jDaub. 8 Daub. 10 Intp. 6 Intp. 6 Intp. 8 Lift. 4 Lift. 6. Lift. 4
˜
V
jDaub. 8 Daub. 10 Lift. 4 Lift. 6 Lift. 4 Intp. 6 Intp. 6. Intp. 8
|h|+|˜h| 16 20 15 17 19 15 17 19
m, ˜m (4,4) (5,5) (6,2) (6,3) (8,2) (2,6) (3,6) (2,8)
κ(A
Λ), j=7 4633 4310 3749 3721 3952 28958 19894 24346
κ(Aˇ
Λ), j=7 6.39 4.99 36.49 20.06 32.23 4.00 4.00 4.00
κ(Aˇ
Λ), j=10 6.74 5.06 46.88 20.75 38.67 4.00 4.00 3.99
T
AB. IV.3 – Nombre de conditionnement des matrices Galerkin pour différentes familles. Sont
également affichés les tailles des filtres et l’ordre de la fonction d’échelle primale m et de sa
duale ˜m. La première ligne donne la famille dans laquelle est exprimée le laplacien, et la
deuxième ligne indique la famille utilisée pour représenter le laplacien en base d’ondelettes.
V
jIntp.6 Intp. 8 Intp. 6 Intp. 6 Intp. 8
V
jDirac Dirac Lift. 4 Lift. 6 Lift. 4
|h|+|˜h| 7 9 15 17 19
κ(A
Λ), j=7 8969 7155 4293 4180 4199
κ(Aˇ
Λ), j=7 935 729 6.04 4.63 5.34
κ(Aˇ
Λ), j=10 21299 16623 6.71 4.69 5.74
T
AB. IV.4 – Nombre de conditionnement des matrices dans la formulation de Petrov-Galerkin.
À partir de ces résultats, nous choisissons donc lors du passage en trois dimensions de
gar-der la formulation de Petrov-Galerkin avec la solution projetée dans l’espace primal d’une
AMR biorthogonale, et la formulation de Galerkin dans une base orthogonale. Avant de
pré-senter le solveur en trois dimensions, on peut tout d’abord valider l’analyse de ces tableaux en
étudiant la convergence d’un algorithme utilisant le préconditionnement par la diagonale du
laplacien en base d’ondelettes.
IV.1.4) Résolution de l’équation de Poisson en une dimension - extension
Dans le document
Les ondelettes comme fonctions de base dans le calcul de structures électroniques
(Page 95-99)