• Aucun résultat trouvé

Convergence optimale d’un algorithme de raffinement autoadaptatif

3.1 Introduction à l’indication d’erreur a posteriori

3.1.3 Convergence optimale d’un algorithme de raffinement autoadaptatif

daptatif

Le concept de "convergence optimale" est compliqué à définir. En effet, par rapport à quelle grandeur se définit la convergence ? Dans le cadre d’un algorithme de raffinement autoadaptatif, ça ne peut pas être la taille des mailles car elle ne converge pas forcément (si par exemple l’élément n’est jamais marqué). De plus, elle n’est pas représentative du coût effectif de calcul qui va dépendre du nombre d’éléments du maillage.

Par ailleurs, dans quel sens doit-on comprendre optimal ? Une première approche naïve consisterait à prétendre qu’un algorithme de raffinement autoadaptatif converge optimalement si le comportement en convergence de l’erreur par rapport au nombre d’éléments est le même que celui correspondant au raffinement uniforme correspondant à une solution "parfaitement" régulière (typiquement le taux de convergence qu’on pourrait obtenir sur un cercle ou une sphère). Autrement dit, le raffinement autoadaptatif "lisserait" les solutions. Cette approche est biaisée, même si elle peut aider à saisir le principe d’un algorithme autoadaptatif. En effet, le "lissage" de la solution par une distribution géométrique particulière des triangles suppose un lien fort avec la technique de raffinement des triangles : est-ce que raffiner en bissectant par rapport au nœud placé au milieu de l’arête de référence est vraiment la meilleure solution ?

A cet approche, on préfère une définition abstraite qui se "contente" de garantir la conver- gence de l’erreur si on utilise un algorithme de raffinement autoadaptatif. On pose

• (Tl)l≥0 la suite de maillages générés par l’algorithme auto-adaptatif tels que ∀l ≥ 0

T0 correspond à un maillage initial de résolution, Tl ⊆ Tl+11 et ˆT tout raffinement

admissible d’un maillage T ,

• u la solution du problème sur un maillage T et ul la solution du problème discret sur

chaque maillage Tl de la suite (Tl)l, u celle sur ˆˆ T ,

• |T | = card(T ) le nombre d’éléments d’un maillage T ,

• η un indicateur d’erreur a posteriori et ητ sa valeur sur un élément τ ∈ Tl.

Remarque 3.1.6. Dans les définitions des notations ci-dessus, on n’évoque pas le cas de la conformité géométrique du maillage. On prend l’exemple de la sphère : si on ne projette pas la géométrie, l’intégralité du développement suivant est parfaitement valable puisqu’on respecte l’inclusion Tl ⊆ Tl+1, mais la solution continue est celle d’une boule à facettes !

Si on projette les nœuds de la suite de maillages sur la géométrie, on n’a plus l’inclusion des maillages et donc des espaces fonctionnels. On fait alors apparaître des termes d’erreur géomé- trique qui sont d’ordre élevé par rapport à la valeur de l’erreur d’approximation (sous réserve que l’ordre polynomial de l’espace d’approximation ne soit pas trop élevé, voir la conclusion de

7.3.1). On pose encore k(η, u)kBs = sup N∈N0 inf |T |−|T0|≤N η(T , u)(N + 1)s, ' sup l∈N0 η(Tl, ul)(|Tl| − |T0| + 1)s (3.7)

Définition 3.1.2 (Convergence optimale, voir [16]). Si il existe au moins uns > 0 tel que k(η, u)kBs < ∞, alors il existe une suite de maillages telle qu’une convergence en O(N−s) est

possible.

On dit que l’algorithme auto-adaptatif converge optimalement si il permet de récupérer une telle convergence.

La conséquence principale de cette définition est que pour le plus grand s admissible smax

dans la définition précédente, alors un taux asymptotique de convergence pour η tel que η(T , u) = O(N−smax)

est possible si on choisit à chaque itération le "meilleur maillage" possible.

Remarque 3.1.7. Cette définition n’implique absolument pas que smax correspond systéma-

tiquement ausmax qu’on pourrait obtenir avec une solution régulière. Par contre,smax est borné

au-dessus par ce dernier.

Le smax dépend de la classe d’approximation de la solution continue.

Carstensen et al. [16] montrent qu’il suffit de quatre axiomes pour assurer la convergence optimale de l’algorithme de raffinement autoadaptatif en supposant uniquement la fiabilité de l’indicateur a posteriori. En reprenant leurs notations, on pose T l’ensemble des raffinements admissibles d’un maillage initialT0, X (T ) un espace fonctionnel sur T , et k.k une distance sur

X (T ). On pose encore η(T , v) la valeur de l’indicateur η pour une fonction v définie sur le maillage T . Ces axiomes sont

(A1) la stabilité sur les éléments non-raffinés. Pour tout raffinement bT ∈ T de T ∈ T, pour tout sous-ensemble d’éléments communs ∫ ∈ bT ∩ T (i.e. qui n’ont pas été raffinés), et pour tout v ∈ X (T ) et bv ∈ X ( bT ), alors

X τ∈∫ ητ( bT ,bv) 2 !1/2 − X τ∈∫ ητ(T , v)2 !1/2 ≤ Cstabkbv− vk.

Cet axiome signifie que la valeur de l’indicateur est contrôlée indépendamment de la fonction pour laquelle on l’évalue.

(A2) la propriété de réduction sur les éléments du domaine raffiné. Pour tout raffinement bT ∈ T de T ∈ T, en posant bU et U les solutions calculées sur ces maillages, alors X τ∈ bT \T ητ( bT , bU )2 ≤ ρred X τ∈T \ bT ητ(T , U)2+ Credk bU− Uk

où bT \T est l’ensemble des triangles issus du raffinement et T \ bT ceux dont est issu bT \T i.e. les éléments "parents", ρred< 1, Cred ≥ 1.

Cet axiome indique que la valeur de l’indicateur appliqué à la solution numérique diminue sur les éléments raffinés.

(A3) la quasi-orthogonalité générale. On peut trouver des constantes0 ≤ εqo ≤ ε?qo(θ)

etCqo ≥ 1 telles que ∀l, N ∈ N0 et N ≥ l, on a N

X

k=l

kUk+1− Ukk2− εqoku − Ukk2 ≤ Cqoη(Tl, Ul)2.

où ici u est la solution du problème continu.

(A4) la fiabilité discrète. Pour tout raffinement bT de T , il existe un sous-ensemble R(T , bT ) ⊆ T avec T \ bT ⊆ R(T , bT ) et |R(T , bT )| ≤ Cref|T \ bT | tel que

kU − bUk2 ≤ Cdrel2 X

τ∈R(T , bT )

ητ(T , U)2.

Il s’agit de l’hypothèse de fiabilité où la solution continue u a été remplacée par la solution sur un maillage raffiné bU . En pratique, l’ensemble R(T , bT ) correspond à un patch autour des éléments deT qui vont être raffinés.

Dans le cas des équations intégrales associées au problème de Laplace, la convergence op- timale est démontrée pour certains indicateurs qui vont être présentés dans la suite. Dans les cas des équations intégrales pour le problème de Helmholtz, la partie compacte des opérateurs intégraux génère des termes supplémentaires non-contrôlables directement venant s’ajouter aux inégalités dans (A1)–(A4).

Dans la suite de ce chapitre, on présente quelques indicateurs d’erreur a posteriori de la littérature, généralement développés pour l’équation de Laplace, et on les étend, lorsque c’est nécessaire aux formulations intégrales pour l’équation de Helmholtz.