• Aucun résultat trouvé

Sensibilité en mécanique des fluides : adaptation de maillage, turbulence et optimisation.

N/A
N/A
Protected

Academic year: 2021

Partager "Sensibilité en mécanique des fluides : adaptation de maillage, turbulence et optimisation."

Copied!
119
0
0

Texte intégral

(1)

Sensibilité en mécanique des fluides - Adaptation de

maillage, turbulence et optimisation.

Thèse

Alexandre Carrier

Doctorat en mathématiques

Philosophiæ doctor (Ph. D.)

(2)

Sensibilité en mécanique des fluides

Adaptation de maillage, turbulence et optimisation.

Thèse

Alexandre Carrier

Sous la direction de:

(3)

Résumé

Cette thèse concerne l’analyse d’écoulements laminaires et turbulents en régime permanent par la méthode des éléments finis. Le but est de présenter des nouvelles méthodologies qui permettent de contrôler efficacement et automatiquement certains paramètres du problème physique et numérique afin d’obtenir les résultats désirés par l’ingénieur. Ces résultats sont des besoins tangibles telle que la performance du système mesurée en termes de coefficients aérodynamiques, de pertes d’énergie, etc.

Pour contrôler la précision de l’anticipation numérique, la simulation de l’écoulement n’est pas suffisante. Le lien entre les résultats et les paramètres est manquant. Une analyse de sensibilité permet d’obtenir cette information. Nous verrons que si cette analyse est bien faite, son coût devient marginal.

Dans un premier temps, l’estimation numérique du résultat doit être fiable. Par conséquent, on présente une nouvelle façon de contrôler efficacement l’erreur liée à la discrétisation spatiale nécessaire à ce genre de méthodes computationnelles. La sensibilité du résultat par rapport aux résidus des équations de la physique est alors utilisée. Nous validons nos nouveaux outils sur des écoulements laminaires. Ensuite, nous continuons avec des écoulements turbulents. Une fois que ces quantités sont bien estimées numériquement, le problème peut être optimisé virtuellement. Ainsi, l’amélioration de la conception réelle peut être fortement accélérée. Dans ce travail, l’optimisation géométrique est abordée. Nous présentons de nouvelles façons de gérer les contraintes de conception. La sensibilité du résultat par rapport à des perturbations de la paroi est alors utilisée.

(4)

Abstract

This thesis concerns the analysis of fluid mechanics by computer. The goal is to present new methodologies that allow controlling effectively and automatically parameters of the physical and numerical problem to obtain the results the engineer desires. These results are concrete needs as the performance of the system measured in terms of aerodynamic coefficients, energy losses, etc.

To control the result, the flow simulation is not sufficient. The link between results and parameters is missing. A sensitivity analysis provides this information. If we do this analysis appropriately, its cost becomes marginal.

First, the numerical estimate of the result must be reliable. Consequently, we give an new way to control effectively the error related to the spatial discretization necessary for this kind of computational methods. We use the sensitivity of the result with respect to the residuals of the physics equations. We are validating our new tools on laminar flows. Then we continue with turbulent flows.

Once these quantities are well estimated numerically, the problem can be optimized virtually. Thus, the actual design improvement can be accelerated. In this work, geometric optimization is achieved. We present new ways to manage design constraints. We use the sensitivity of the result to wall perturbations.

(5)

Contents

Résumé ii

Abstract iii

Contents iv

List of Tables vi

List of Figures vii

Remerciements xi

Avant-propos xiii

Introduction 1

0.1 Besoins de l’industrie et plan de la thèse . . . 1

0.2 Navier-Stokes incompressible . . . 2

0.3 Justification des choix fondamentaux liés au maillage et à l’erreur . . . 6

1 Versatile anisotropic mesh adaptation methodology applied to pure quantity of interest error estimator. Steady, laminar incompressible flow. 11 1.1 Résumé . . . 11

1.2 Abstract . . . 11

1.3 Introduction. . . 12

1.4 Direct problem . . . 14

1.5 Adjoint problem and functionals . . . 15

1.6 Error estimation for FEM . . . 21

1.7 Mesh adaptation strategy . . . 25

1.8 Benchmark results . . . 30

1.9 2D Backward Facing Step (2DBFS). . . 31

1.10 Conclusion . . . 34

2 Finite element implementation of k − ω SST with automatic wall treat-ment and adjoint-based mesh adaptation. 38 2.1 Résumé . . . 38

2.2 Abstract . . . 39

2.3 Introduction. . . 39

(6)

2.5 The implementation . . . 43

2.6 Adjoint problem and mesh adaptation . . . 48

2.7 Results. . . 52

2.8 Conclusion . . . 56

3 Practical aspects of shape optimization in CFD. 60 3.1 Résumé . . . 60

3.2 Abstract . . . 61

3.3 Introduction. . . 61

3.4 PDE-Constrained Optimization . . . 63

3.5 Application to losses and forces in steady and incompressible flow . . . 69

3.6 Geometrical constraints . . . 72

3.7 Robust mesh deformation . . . 75

3.8 Results. . . 76

3.9 Conclusion . . . 83

Conclusion 85

A Rappels d’analyse 87

B Calcul des poids de l’interpolation 89

C Fonctions de base hiérarchique 92

D Enrichissement des champs 95

(7)

List of Tables

1.1 Direct boundary conditions. . . 30

1.2 Adjoint boundary conditions for JE. . . 31

1.3 Adjoint boundary conditions for JF. . . 31

2.1 Adjoint boundary conditions for JF. . . 50

2.2 Direct boundary conditions for JF. . . 54

(8)

List of Figures

0.1 Schématisation des échelles de Kolmogorov. . . 3

1.1 Example of a points cloud isotropization . . . 27

1.2 Oriented simplex . . . 28

1.3 Local mesh operations . . . 28

1.4 Schematic of the domain and velocity in x direction. . . 30

1.5 Comparison of the drag, lift and losses evaluations for different mesh adaptation methodologies. . . 32

1.6 Comparison of the meshes, from top to bottom: EK2(CD), EK2 (CL), EK2(∆E), EK1 at 4th iteration and 1st mesh. . . 33

1.7 Final adjoint velocity magnitude and stream function isocontours (−0.02, 0, 0.005, 0.25) with adjoint-based adaptated mesh (4th) at Re = 100. . . 36

1.8 Comparison of losses evaluations for differents mesh adaptation methodologies and Re. . . 37

2.1 Representation of the fictive and modeled zone between the wall and the mesh. 40 2.2 Velocity profile near the wall. . . 43

2.3 Limiter min-max on the corrected field in 1-D. . . 51

2.4 Definition of cubic hierarchic finite element field on reference triangle where λ1= 1 − ˆx − ˆy, λ2 = ˆx and λ3 = ˆy. . . 51

2.5 Schematic of the domain. . . 54

2.6 Validation of drag evaluations. . . 55

2.7 Final adapted mesh with complete adjoint. (Y-Scale : 50×) . . . 56

2.8 Visualization of nondimensionalized turbulent variables where a = 5. (Y-Scale : 50×) . . . 57

2.9 Comparative results from drag CD and lift CL evaluations. . . 58

2.10 Computed velocity magnitude and final adapted mesh based on the adjoint linked to CD. . . 59

3.1 Initial and optimized geometries for losses on small domain. . . 78

3.2 Comparison of losses minimization methodologies. . . 79

3.3 Lift maximization process. . . 80

3.4 Evolution of the optimal shape while maximizing lift: iterations 10, 20, 30, 40, 50 and 60 (from top to bottom and from left to right). . . 80

3.5 Comparison between losses and drag minimization. . . 81

3.6 Initial and deformed Buice-Eaton diffuser to minimize the losses. . . 82

3.7 Evaluation of losses in the diffuser during mesh adaptation and optimization. . 83

(9)

C.1 Degrés de liberté de trois types d’élément fini sur simplexes de référence : linéaire

de Lagrange P1, correction hiérarchique quadratique P2 et cubique P3. . . 93

C.2 Définition des champs hiérarchiques correctifs P2 et P3 sur l’élément 1-D de référence où λ1 = 12 −xˆ 2 et λ2 = 1 2 + ˆ x 2.. . . 93

C.3 Définition des champs hiérarchiques correctifs P2 et P3 sur le triangle de

réfé-rence où λ1= 1 − ˆx − ˆy, λ2 = ˆx et λ3 = ˆy. . . 93

C.4 Définition des champs hiérarchiques correctifs P2 et P3 sur le tétraèdre de

réfé-rence où λ1= 1 − ˆx − ˆy − ˆz, λ2= ˆx, λ3 = ˆy et λ4= ˆz. . . 94

D.1 Interpolation linéaire de u(x) = sin(xπ) et reconstructions par moyennes

(10)

Ce travail est dédié à Lionel et Théo. Dans la vie, les gars, il faut juste être heureux. Bon, ici, le chemin est périlleux, mais on peut toujours y arriver.

(11)

L’ère de l’ingénieur omniscient est révolue.

(12)

Remerciements

D’abord, merci au programme de bourses d’études supérieures du Canada Vanier qui a financé ce travail. Pour moi, la recherche ce n’est pas juste un travail, c’est surtout une passion qui teste notre persévérance en nous procurant par-ci par-là de légers moments d’épiphanie et de fréquents changements de cap. Sans cette bourse et l’autonomie temporaire qu’elle apporte, il m’aurait été difficile d’avoir le plein contrôle sur l’orientation de mes travaux et d’être aussi persistant tout en passant autant de temps de qualité avec mes petits gars Lionel et Théo. Avant tout le reste, merci à Josée, avec qui j’ai navigué dans ces belles épreuves de la vie. Merci à Jonathan Nicolle et Paul Labbé, chercheurs à l’Institut de Recherche d’Hydro-Québec (IREQ), ceux qui m’ont orienté vers ce parcours multidisciplinaire unique. J’en ai frappé des murs à cause de vous, mais je me suis nourris de vos défis et c’est ce qui me rend encore plus fier du travail que j’ai accompli.

Merci à Jean Deteix, mon directeur de thèse et un vrai mathématicien appliqué, pour son ouverture d’esprit face à mon raisonnement d’ingénieur mécanique et ma communication sans filtre. Tu m’as appris l’importance de la rigueur et de la politique en recherche, c’est-à-dire la gestion des ressources monétaires, mais surtout humaines. Tes remarques ont catalysées mes réflexions et ont permises indirectement de grandement améliorer la qualité et la profondeur de ce travail, merci! Peu importe la situation, forces-toi a en faire régulièrement. Tu dis souvent que le développement d’applications haute performance en silo est impossible, qu’un groupe interdisciplinaire est nécessaire. Je l’ai expérimenté. Sans être déterminant sur la qualité du travail que j’ai produit, c’est un peu le cheval de troie de cette thèse. L’avant dernier paragraphe de la conclusion de cette thèse éclaircie justement ce point de vue.

Mention à Éric Chamberland, l’admin des admins, le seul vrai gardien des clés du code. Sans lui, il est impossible de laisser son empreinte dans le labyrinthe en mouvement qu’est MEF++. Si seulement ils pouvaient te dupliquer.

Merci à Anne-Marie Giroux et Sébastien Houde pour avoir miser sur le Groupe Interdisci-plinaire de Recherche en Éléments Finis de l’Université Laval (GIREF). Quoique, la mise en place de vos outils complexes nécessite énormément de temps, de travail et de ressources, la polyvalence unique du GIREF permet d’y introduire des approches inédites. C’est un travail

(13)

interdisciplinaire difficile dont la progression se fait à petits pas, mais qui, je l’espère, va se poursuivre et surtout prendre d’avantage d’ampleur.

(14)

Avant-propos

Le corps de cette thèse est constitué de trois articles pour lesquels je suis l’auteur principal. Pour le premier article, le nouveau et l’ancien directeur du GIREF, respectivement, Jean De-teix et André Fortin, ont participé à la rédaction et sont co-auteurs. Jean DeDe-teix a commenté la structure et vérifié la validité de mes développements. Tandis que André Fortin a reformulé quelques phrases et aidé au niveau de l’anglais. Pour les deux autres articles, je suis l’unique auteur. Les trois articles appairaitrons dans l’«International Journal for Numerical Methods in Fluids» qui se place à mis chemin entre les ingénieurs et les mathématiciens.

Le premier article,«Versatile anisotropic mesh adaptation methodology applied to pure quantity of interest error estimator» [28], est publié depuis novembre 2019. C’est une validation sur des cas d’écoulement simple.

Le second, «Finite element implementation of k − ω SST with automatic wall treatment and adjoint-based mesh adaptation» [26], est publié depuis août 2020. Il s’agit de la suite directe du premier article vers les écoulements turbulents.

Finalement, le troisième, «Practical aspects of shape optimization in CFD.» [27], est soumis depuis octobre 2020. Cet article ne constitue pas exactement une suite aux deux premiers. C’est une application différente: l’optimisation de forme. Toutefois, les outils sous-jacents se recoupent. Je réutilise les innovations présentées dans les deux papiers précédents et, par le fait même, souligne leur potentiel. Ce papier sera publié après le dépôt final de cette thèse, il est donc possible qu’il y ait des différences entre la version de cette thèse et celle qui sera publiée.

(15)

Introduction

0.1

Besoins de l’industrie et plan de la thèse

Les simulations numériques sont incontestablement un outil d’ingénierie puissant pour l’ana-lyse et l’optimisation de conceptions. Une limitation majeure [57; 83], entachant souvent la fiabilité de ce magnifique outil, est la difficulté de discrétiser adéquatement le domaine à l’étude. Un maillage fin implique une précision accrue, mais coûte cher en ressources computa-tionnelles. Tandis qu’un maillage grossier permet des simulations rapides, mais une précision moindre, voire de fausses prédictions.

Par exemple, dans le domaine des turbines hydrauliques [57], éolien, du transport et plus encore, un maillage trop grossier en mécanique des fluides numérique peut faire en sorte que la prédiction d’un décollement de couche limite est ratée. En conséquence, une conception d’ingénierie à partir de ces analyses peut produire une cassure dans les courbes de rendement, un comportement fortement instationnaire menant à des vibrations, une usure prématurée ou même éventuellement une défaillance. En aéronautique [83], c’est le décrochage, la perte de contrôle et éventuellement l’écrasement.

La solution, dont la complexité ne doit pas être sous-estimée, est de produire un maillage offrant la précision requise à un coût minimal. Aussi, idéalement, ce processus ne pas devrait dépendre des compétences de l’utilisateur.

D’une part, les praticiens produisent des simulations complexes où l’importance d’une ges-tion adéquate des maillages est critique. Souvent, ils maîtrisent la physique de leur problème. Ainsi, ils anticipent grossièrement les zones critiques du maillage et le construisent manuel-lement adéquatement. Cependant, ils n’ont généramanuel-lement pas le bagage mathématique ni les connaissances en programmation nécessaires pour définir un estimateur d’erreur et s’en servir afin de produire un maillage fiable de façon automatique, optimale et rigoureuse.

À l’opposé, mais complémentaires, les mathématiciens appliqués et les développeurs ont les outils nécessaires, mais manquent d’intuition physique, catalyseur indispensable à la mise en place de ce genre de méthodologie pratique.

(16)

toutes ces disciplines qui fait en sorte de rendre impossible le développement d’applications haute performance en silo, l’interdisciplinarité est obligatoire. Par conséquent, dans le cadre de cette thèse, l’Institut de Recherche d’Hydro-Québec a mis en place un milieu pluridisciplinaire propice à l’élaboration d’éléments innovants liés à ce problème.

Cette quête de définir une méthodologie d’adaptation de maillage efficace et automatique est appliqué à la mécanique des fluides. Cette application est en soi le deuxième défi de cette thèse étant donné que nous aborderons des écoulements turbulents avec la méthode des éléments finis. Cette partie du travail présentée au chapitre 2est, sous plusieurs aspects, nouvelle dans la littérature scientifique actuelle. Pour ce type d’écoulement, l’implémentation par la méthode des volumes finis est presque exclusive.

Le troisième défi abordé, suivant naturellement l’optimisation de maillage, est l’optimisation d’autres paramètres de la simulation. Nous nous concentrons sur l’optimisation de la géométrie. C’est en quelque sorte le St Graal de plusieurs ingénieurs mécaniques que de pouvoir obtenir automatiquement la conception répondant de manière optimale aux besoins. Toutefois, en pratique, ces besoins sont multiples et plusieurs contraintes de conception s’appliquent rendant ainsi l’optimisation difficile. Cette difficulté et les mécanismes de l’optimisation géométrique sont abordés au chapitre 3.

Finalement, l’outil fondamental sous-jacent à ces deux finalités est commun : la méthode adjointe. Au chapitre 1, elle est d’abord présentée de manière générale, puis le problème adjoint de Navier-Stokes est développé en détail et les premiers pas de la gestion de l’erreur de discrétisation sont dévoilés. Avant d’entrer dans les détails liés à l’adjoint et la discrétisation, un survol introductif du problème direct permettant de résoudre numériquement et efficacement l’écoulement turbulent d’un fluide est présenté.

0.2

Navier-Stokes incompressible

Cette section vise à expliquer pour quelles raisons les équations de Navier Stokes ne peuvent être utilisées directement pour résoudre le type de problème que l’on veut aborder. Ultimement, en simplifiant et en présentant les hypothèses principales utilisées, les équations RANS avec un modèle de turbulence k − ω SST sont sélectionnées. Ces dernières sont présentées plus en détail au chapitre 2.

Les équations de Navier-Stokes sont constituées des équations de conservation de la masse (1) et du mouvement (2). Nous utilisons l’hypothèse d’incompressibilité et fixons arbitrairement la densité (ρ = 1) pour simplifier les équations. La partie symétrique du tenseur gradient des

(17)

vitesses est notée par ∇su := 12  ∇u + (∇u)T. ∇ · u = 0 (1) ∂u ∂t + u · ∇u + ∇p − ∇ · (2ν∇su) = 0 (2)

La viscosité cinématique ν est la capacité de rétention des particules du fluide. En mouvement, lorsque les forces visqueuses dominent les forces inertielles, l’écoulement reste régulier et est dit laminaire. Une façon de mesurer ce rapport de force est de définir le nombre de Reynolds :

ReL=

U L

ν (3)

où U et L sont respectivement une vitesse et une longueur de référence de l’écoulement ob-servés. Lorsque les forces d’inertie supplantent les forces visqueuses (ReL > Recritique), des

instabilités s’observent par le biais de tourbillons. C’est la turbulence, un phénomène purement tridimensionnel et instationnaire faisant de l’écoulement un problème multiéchelle. Le transfert d’énergie ne se fait plus simplement, mais bien par une cascade de tourbillons interagissant et s’entrechoquant en créant des tourbillons de tailles variées. Les plus fins tourbillons de taille η et de vitesse Uη = η ˙θ sont dissipés par les forces visqueuses qui reprennent le contrôle à cette

échelle.

Le coût numérique lié à une simulation numérique directe (DNS) des équations de Navier-Stokeséquations (1)et(2)peut être estimé en fonction du nombre de Reynolds. En supposant un nombre de Courant unitaire, C = U ∆t∆x ∼ 1, une analyse d’ordre de grandeur grâce aux échelles spatiale et temporelle de Kolmogorov permet d’approximer le nombre d’éléments NK ainsi que le nombre de pas de temps N∆t nécessaire.

η L ∼ Re −3 4 L =⇒ NK ∼  L ∆x 3 ∼ Re 9 4 L Uη/η U/L ∼ Re −1 2 L =⇒ N∆t∼ U/L ∆t ∼ Re 1 2 L

Par exemple, pour simuler directement un écoulement sur plaque plane à un Reynolds de 105, il est nécessaire d’utiliser presque un billion d’éléments, un million de millions. C’est irréalisable en pratique, et ce, même avec la puissance des ordinateurs actuels. Les ordres de grandeur sont schématisés à lafigure 0.1.



L η, Uη

U

Figure 0.1 – Schématisation des échelles de Kolmogorov.

Sachant que dans cette thèse, des problèmes dépassant largement ce nombre de Reynolds se-ront considérés, il est impératif d’utiliser une solution praticable. Heureusement, même si la

(18)

turbulence semble chaotique, elle peut être analysée statistiquement. En plus, en supposant qu’elle produit un problème multiéchelles et que ces dernières sont partiellement découplables, une moyenne temporelle (4) peut être utilisée afin de séparer l’écoulement moyen des fluctua-tions turbulentes, u = ¯u + u0, qui elles, seront modélisées.

¯ u = 1 ∆t Z t+∆t 2 t−∆t2 u (4)

Pour obtenir un système d’équations pour les variables moyennes, les variables sont d’abord décomposées, puis, leséquations (1)et(2)sont moyennées avec (4). La non-linéarité du terme convectif fait en sorte qu’il reste un terme comportant des produits de fluctuations dont la moyenne est non nulle. À l’aide d’une dérivation par partie et de l’incompressibilité (2.1), six nouvelles inconnues apparaissent sous forme d’un tenseur symétrique u0⊗ u0, nommé le

tenseur des contraintes de Reynolds. On choisit de modéliser ces termes grâce à d’autres équations dites de fermeture. Pour ne pas alourdir la notation, on continue d’écrire u pour définir ¯u.

∂u

∂t + u · ∇u + ∇p − ∇ · (2ν∇su) + ∇ · u

0⊗ u0 = 0 (5)

Le laps de temps ∆t utilisé dans la moyenne temporelle (4) doit être plus grand que les échelles de temps liées à la turbulence. Cela dit, lorsqu’il y a des structures cohérentes qui se mélangent à la turbulence tel que des allées de tourbillons de Von Karman, la modélisation est inapte à modéliser ces instationnarités. Pour cela, il existe d’autres genres de filtres spatio-temporels permettant de résoudre les structures non stochastiques tout en modélisant la turbulence : la méthode LES pour «Large Eddy Simulation». Quoique moins coûteux que le DNS, ce genre de calculs reste encore inabordable [85] pour les problèmes abordés dans cette thèse. Heureusement, si l’échelle de temps de ces structures cohérentes est beaucoup plus grande que celle de la turbulence, le problème peut encore être découplé partiellement avec l’équation (5). Le ∆t utilisé doit alors être suffisamment petit pour résoudre les structures cohérentes tout en étant assez grand pour filtrer la turbulence. Dans cette situation, on parlera des équations URANS pour «Unsteady Reynolds Averaged Navier Stokes». En supposant que le problème filtré est stationnaire, il est possible de retirer la dérivé en temps. Les équations RANS sont alors obtenues. Lorsque l’écoulement moyen à un caractère bidimensionnel, il est même possible de le simuler et de modéliser la turbulence en 2-D.

Une combinaison du LES et du RANS est le DES pour «Detached eddy simulation». C’est un compromis au niveau du coût [85], mais cette méthode n’est pas abordée puisque le RANS doit d’abord être implémenté.

Il ne reste plus qu’à fermer le système, c’est-à-dire modéliser la turbulence au lieu de la calculer grâce à des équations auxiliaires. Pour la suite, il s’agit de compromis entre le coût et la précision ainsi qu’un large éventail d’hypothèses menant à une multitude de modèles distincts.

(19)

Pour davantage de détails, Leschziner [54] fournit un ouvrage permettant aux praticiens de la CFD de faire des choix éclairés concernant la modélisation de la turbulence.

Jusqu’ici, on a 6 inconnues contenues dans le tenseuru0⊗ u0que l’on doit essayer de modéliser

à partir de l’écoulement moyen. En général, ces 6 inconnues sont modélisées par 2 variables. Boussinesq propose la notion de viscosité turbulence νts’ajoutant à la viscosité laminaire. Au

lieu d’être liée à l’agitation des molécules comme ν, elle est liée aux fluctuations turbulentes. Afin de mesurer l’amplitude des fluctuations, l’énergie cinétique turbulente, k, est introduite.

k = 1 2u

0· u0 (6)

Avec ces deux dernières quantités, une loi de comportement à deux variables est définie où I est la matrice identité.

u0⊗ u0 2

3kI − 2νt∇su (7)

Les hypothèses sous-jacentes à l’utilisation de cette relation sont qu’elle soit linéaire et que νt soit défini par un scalaire (caractère isotrope) pour modéliser la turbulence à caractère non linéaire et possiblement anisotrope.

Des variables de substitution, autre que νtpeuvent être modélisées. Chaque variable peut être

calculée par une équation de convection-diffusion-réaction issue d’une analyse du comporte-ment des fluctuations à l’aide de Navier-Stokes et complétée par des relations empiriques. Chacune d’entre elles à ses caractéristiques propres. Par exemple :

1. Le taux de dissipation turbulente ε ∝ kν2

t décrit la vitesse à laquelle k est dissipée en

chaleur. Le modèle k − ε est performant au coeur de l’écoulement. Toutefois, proche des parois, ce modèle ne représente pas bien la couche limite et plusieurs coefficients et fonctions additionnels de fermeture sont obligatoires. Par conséquent, ce modèle ne fonctionne pas bien en cas de forts gradients de pression défavorables. De plus amples détails sont donnés par Wilcox [95, sect. 4.8.2].

2. Le taux de dissipation spécifique de l’énergie cinétique de turbulence ω ∝ νk

t décrit la

fréquence moyenne de la turbulence. Le calcul de cette quantité est valable jusqu’à la paroi.

Une approche hybride tire parti des points forts de chaque modèle : k − ω SST. Des fonctions de transition utilisent le modèle le plus pertinent selon les caractéristiques de l’écoulement. Dans cette thèse, ces équations sont implémentées et validées au chapitre 2 en utilisant la

(20)

méthode des éléments finis. On y explique le rôle pratique des «lois de paroi» et une nouvelle implémentation propre à la méthode des éléments finis y est présentée.

Il faut garder à l’esprit que l’erreur de discrétisation liée au nombre d’éléments du maillage n’est pas de moindre importance lorsqu’un modèle de turbulence est utilisé. Roache [71] insiste sur ce point et plusieurs autres. Cet auteur est grandement impliqué dans la mise en place de politiques éditoriales pour plusieurs journaux scientifiques, imposant une rigueur quant à l’évaluation de l’erreur numérique. Sans fiabilité, un résultat numérique ne vaut rien.

0.3

Justification des choix fondamentaux liés au maillage et à

l’erreur

0.3.1 Type d’éléments – simplexes

Pour effectuer des simulations en CFD, la tendance consiste encore à utiliser des quadrilatères en 2-D et des hexaèdres en 3-D. Cela vient du fait que l’on rencontre naturellement ces types d’éléments dans les maillages structurés facilement paramétrables manuellement. Les ingénieurs peuvent alors plus facilement créer un maillage manuellement en anticipant les phénomènes physiques tels que les couches limites et les sillages. Il existe même des lignes directrices très claires qui aident à effectuer cette tâche.

Dans notre cas, cette considération ne s’applique pas. On cherche plutôt à produire des maillages automatiquement. Des simplexes sont utilisés. On parle alors de triangles en 2-D et tétraèdre en 3-D. Le nom «simplexe» vient du fait que c’est l’élément le « plus simple » pour une dimension donnée. Par conséquent, ils sont les plus faciles à manipuler lors d’adaptation de maillage et leurs fonctions de base sont également les plus simples.

0.3.2 Estimation de l’erreur – purement la quantité d’intérêt

Pour la suite, il est important de distinguer l’estimation de l’erreur, sa forme et l’algorithme utilisé afin de modifier le maillage. Il existe plusieurs façons d’anticiper les zones critiques du maillage. Généralement, l’erreur est sous forme scalaire. Toutefois, dans certaines situations, une forme matricielle facilitant une gestion anisotrope du maillage peut aussi être obtenue. On parle alors d’une métrique. C’est notamment la forme des estimateurs utilisés dans les algorithmes d’adaptation de l’équipe GAMMA (P.L. George, H. Borouchaki, P. Frey, F. Hecht et collaborateurs) à l’INRIA. Du point de vue de la vitesse d’exécution, leur implémentation [3;56;34] semble être la plus performante actuellement tenant compte de l’anisotropie. Quant à la performance au niveau de la précision des simulations, elle dépend très peu ou pas de l’implémentation, mais plutôt de l’estimateur d’erreur utilisé. Trois avenues sont présentées brièvement afin d’expliquer nos choix. Ensuite, dans leschapitres 1et2, nous détaillons

(21)

l’ave-nue choisie et la comparons à d’autres méthodes ainsi qu’à des résultats présents dans la littérature scientifique.

1 - Quantitée heuristique

Souvent, des quantités heuristiques sont utilisées. Grâce à leur intuition physique et selon les phénomènes observés, les ingénieurs définissent des quantités contrôlant la taille des éléments du maillage. Le mot «heuristique» est utilisé, car ces quantités sont construites sans lien explicite avec l’erreur réelle. Par conséquent, leur performance n’est jamais assurée. Dans quelques codes commerciaux tels que Fluent, cette méthodologie simpliste couplée avec des raffinements basiques d’élément est utilisée.

2 - Erreur d’interpolation

Deuxièment, de manière plus rigoureuse, il est possible d’estimer l’erreur de discrétisation e(x) := u(x) − uh(x) où u et uh sont respectivement le champ (vitesse, pression, déformation,

etc.) réel et calculé. Notez ici que u est inconnu.

En partant de l’erreur d’interpolation, nous allons expliciter la démarche permettant de construire une métrique et de mettre en lumière les hypothèses restrictives et/ou complexi-fiantes sous-jacentes à cette forme.

Similairement au théorème de Taylor (A.1), le lemme de Bramble et Hilbert [18] permet d’obtenir différentes bornes de l’erreur d’interpolation. La notation est classique, mais cer-tains points, notamment sur les multi-indices α et les espaces fonctionnels, sont rappelés à l’annexe A. Nous considérons que K représente un élément simplexe du maillage dans l’espace

Rd dont HK est le diamètre maximal de ce dernier élément. Supposons en plus que K est

un élément dont le jacobien de sa transformation vers l’élément de référence est strictement positif (pas écrasé ni inversé). Cette condition de validité est aussi nécessaire pour les calculs par éléments finis, donc elle est toujours respectée. L’élément satisfait alors la propriété forte du cône et de l’angle maximum nécessaire à l’utilisation des équations (8)et(9).

Lemme 0.1 (Bramble-Hilbert). Pour tout u ∈ Wk+1,p(K), il existe un unique polynôme pk de degré plus petit ou égal à k tel que R

K

∂α(u − p

k) = 0 pour tout multi-indice α ∈ Nd tel que

0 ≤ |α| ≤ k. Si K satisfait alors la propriété forte du cône, alors

|u − pk|Wj,p(K) ≤ CHKk+1−j|u|Wk+1,p(K) pour 0 ≤ j ≤ k,

et donc,

ku − pkkWk+1,p(K) ≤ CHKk+1|u|Wk+1,p(K). (8)

L’erreur d’interpolation est bornée par le diamètre maximal des éléments HK multiplié par la norme des dérivée d’ordre k + 1 de u. C’est un ordre de plus que le degré du polynôme pk. On

(22)

suppose alors que pk est le résultat obtenu numériquement uh et que les dérivés peuvent être approximées à l’aide d’une méthode de reconstruction de dérivées à partir de uh telle que celle présentée à l’annexe B. Cette hypothèse est majeure et sa validité dépend de l’ampleur de la différence entre l’erreur de discrétisation et d’interpolation. Au chapitre 1, cette différence appelée l’erreur de pollution est abordée dans de plus amples détails.

À partir de cet estimateur d’erreur local et en imposant par exemple une erreur uniforme dans le domaine correspondant à un seuil acceptable, il est possible de déterminer le diamètre maximal des éléments HK et d’adapter le maillage. L’adaptation est alors isotope. Pour les situations où la physique à l’étude est hautement anisotrope comme les écoulements à de hauts nombres de Reynolds, c’est inefficace.

L’étirement et l’orientation des éléments doivent être impérativement contrôlés.

Apel [6] donne une version plus fine de l’équation (8) qui le permet. Ce résultat, donné à l’équation (9), utilise la taille de l’élément hK dans plusieurs directions au lieu du diamètre maximal de ce dernier.

Corollaire 0.1. Si en plus K respecte la condition de l’angle maximum, alors : |u − pk|Wj,p(K) ≤ C

X

|α|=k+1−j

K|∂αu|Wj,p(K) pour 0 ≤ j ≤ k. (9)

Dans certains cas, l’information anisotrope peut être mise sous la forme d’une métrique et transmise à des algorithmes d’adaptation. Une métrique M dans Rdest une matrice symétrique

définie positive de dimension (d × d). Cette matrice agit comme un carte de taille anisotrope envoyée à l’algorithme d’adaptation de maillage.

Nous allons présenter un bref exemple où il est possible d’obtenir une métrique correspondant à la matrice hessienne d’une quantité scalaire u et de l’utiliser afin d’obtenir un élément optimal. Considérons, dans l’équation (9)que p = ∞, k = 1, d = 2, j = 0 et K est un triangle. L’équation 9s’écrit alors

ku − p1kL(K) ≤ C P |α|=2 hα1 1 h α2 2 ∂(α1+α2)u ∂α1x∂α1y L∞(K) ≤ ChT kH(u)k ∞h = C h h1 h2 i " kuxxk kuxyk kuxyk kuyyk # " h1 h2 # .

Dans ce cas, la métrique correspond à la matrice hessienne. Celle-ci est, par exemple, obtenue sous forme de champs discontinus constants par éléments à l’aide d’une méthode de recons-truction de dérivé comme à l’annexe B. La métrique est donnée à l’algoritme d’adaptation. Afin de comprendre ce qui y est fait, l’équation peut être réécrite sous forme spectrale en introduisant une matrice de rotation Q(θ) et un vecteur de longueurs propres bh = Q(θ)h.

ku − p1k ≤ CbhT " ku b xbxk∞ 0 0 u b yby # bh = bh21ku b xbxk∞+ bh 2 2 u b yby

(23)

Finalement, il est possible de calculer les dimensions de l’élément K à aire constante qui mini-misent l’erreur d’interpolation. En pratique, des contraintes plus complexes sont utilisées par exemple sur l’uniformisation de l’erreur et le nombre d’éléments désirés dans le maillage. L’ana-lyse présentée ci-dessous permet tout de même l’exposition des caractéristiques de cette mé-thodologie. Pour obtenir l’élément offrant le minimum d’erreur EK en respectant la contrainte choisie, on pose le problème ci-dessous que l’on résout analytiquement en déterminant le point (bh21, bh22) ou le gradient du Lagrangien est nul.

Pour la contrainte choisie, il suffit de minimiser l’erreur suivant :      Minimiser EK = bh21kubxbxk∞+ bh 2 2 u b yby sujet à bh1, bh2

contraint par 12bh1bh2= mes(K). Solution : b h21 = 2 mes(ω) s ku b xxbk∞ u b yyb ∞ et bh22= 2 mes(ω) s u b yby ∞ ku b xbxk∞ .

Avec bh1, bh2 et θ, le diamètre maximum, mais aussi, l’étirement et l’orientation des éléments

sont alors contrôlés. Le passage de la métrique à un élément ou un maillage anisotrope est simple et direct. C’est la force de cette méthode. Cependant, elle aborde une situation très spécifique : une unique variable linéaire à l’étude. Pour pallier à cette limitation majeure, il existe des solutions plus ou moins heuristiques. Il est possible de combiner plusieurs variables avec des méthodes d’intersections de métrique [34]. Toutefois, la pondération de l’importance de chaque variable qui est extrêmement critique est généralement laissée à l’utilisateur. 3 - Analyse de sensibilité sur quantité d’intérêt

Jusqu’ici deux difficultés ont fait surface : l’erreur de pollution et une pondération inexistante des différentes sources d’erreur d’interpolation lors de problèmes multivariables. Aussi, avec l’erreur d’interpolation, il est difficile d’estimer l’erreur résultante sur les quantités d’ingénierie découlant de la simulation. La construction d’un estimateur basé sur une analyse de sensibilité adjointe n’est pas sujette à ces problèmes. Toutefois, cette erreur est scalaire. Par conséquent, sa forme ne peut être utilisée directement dans un programme utilisant une métrique.

Venditti et Darmofal [91] contournent ce problème en combinant ce genre d’estimateur à la hessienne du nombre de Mach. Leurs maillages sont clairement anisotropes et leurs résultats sont bons. Toutefois, cela reste encore un assemblage relativement heuristique spécifique à un certain type de physique.

Dans ce travail, afin d’être tout à fait général, un développement rigoureux de l’erreur sur une quantité d’intérêt est fait et utilisé sans altération, donc sans la construction d’une métrique. C’est grâce à une implémentation inédite basée sur des optimisations locales du maillage et des interpolations de champs enrichis qu’un contrôle anisotrope est possible. C’est sur des cas

(24)

simples de validation que ce travail est entamé au chapitre 1 en insistant sur la performance du calcul de sensibilité. La théorie propre à ce travail et sous-jacente à la construction des champs enrichis est détaillée aux annexes Bà D.

(25)

Chapitre 1

Versatile anisotropic mesh adaptation

methodology applied to pure quantity

of interest error estimator. Steady,

laminar incompressible flow.

1.1

Résumé

Nous introduisons une nouvelle approche flexible d’adaptation de maillage pour calculer ef-ficacement une quantité d’intérêt par la méthode des éléments finis. Par efef-ficacement, nous voulons dire que la méthode fournit une évaluation de cette quantité à une précision requise et à un coût de calcul inférieur à d’autres méthodes classiques. Le pilier central de la méthode est notre estimateur d’erreur scalaire basé sur la sensibilité de la quantité d’intérêt par rapport aux résidus. Cette sensibilité résulte du calcul d’un problème adjoint continu. Notre nouvelle stratégie d’adaptation de maillages permet d’obtenir un contrôle anisotrope. Le plein potentiel de notre estimateur d’erreur est alors utilisé. La méthode proposée est validée en évaluant la portance, la traînée et les pertes hydrauliques sur un cas de référence 2D : l’écoulement autour d’un cylindre à un nombre de Reynolds de 20.

1.2

Abstract

We introduce a new flexible mesh adaptation approach to efficiently compute a quantity of interest by the finite element method. By efficiently, we mean that the method provides an evaluation of that quantity up to a predetermined accuracy at a lower computational cost than other classical methods. The central pillar of the method is our scalar error estimator based on sensitivities of the quantity of interest to the residuals. These sensitivities result of the computation of a continuous adjoint problem. The mesh adaptation strategy can drive

(26)

anisotropic mesh adaptation from a general scalar error contribution of each element. The full potential of our error estimator is then reached. The proposed method is validated by evaluating the lift, the drag, and the hydraulic losses on a 2D benchmark case: the flow around a cylinder at a Reynolds number of 20.

1.3

Introduction

In 2014, a team of experts from fields such as aerodynamics, aerospace, applied mathematics, and informatics from industry, academia, and government came together to target critical points in computational fluid dynamics (CFD). During six months, they surveyed the inter-national technical community. The results [83] are summarized in 7 points and this paper focuses on two of them:

1. Mesh generation and adaptation are CFD bottlenecks in terms of precision and computa-tional time. The potential of simulations combined with mesh adaptation is incommensu-rable. Nevertheless, it is generally not used since the error estimators are inadequate and there is an absence of symbiosis between the solver and the meshing software. The ultimate goal is to include a reliable and fully automated management of uncertainties directly in the simulation.

2. The concept of multi-disciplinary analysis and optimization (MDAO) is part of the future in engineering. Developments in this area are extremely useful. The adjoint method is the core of this type of tools.

The discretization error associated to a given mesh can be approximated locally. One can refine uniformly the mesh to obtain the accuracy he needs. Blindly refining the mesh certainly increases the computational burden, but the gain in precision is not always proportional to the additional cost.

The ultimate goal is always to construct a mesh which offers the required accuracy at a minimal cost. But without additional information, it is difficult or even impossible to link this dis-cretization error to the accuracy of the engineering values that motivated the simulation. This link is essentially a sensitivity that can be computed by solving an adjoint problem. Adjoint-based mesh adaptation have already showed huge potential when combined with isotropic mesh refinement [33; 15; 14]. In situations like boundary layers, developed flows or shocks, the flow can be adequately computed using mesh elements presenting very high stretch ratio. In these situations isotropic meshes are highly inefficient since they significantly increase the number of elements and thus the computational time.

Since the error estimator based on the adjoint is a scalar quantity, the anisotropic behavior is not directly obtained. To circumvent this serious limitation, Venditti [92] combined

(27)

adjoint-based error with a Hessian-adjoint-based metric defined on the Mach number. Their approach is however problem dependent and cannot be directly extended to more general fluid mechanics problems.

Giles et al. [40] proposed some future research directions related to adjoint error correction. Two of their recommendations are linked to mesh anisotropy: grid adaptation process and smooth reconstruction of state variables on unstructured grids.

The primary purpose of this article is to formulate a practical error estimation based on the resolution of a continuous-formulated adjoint problem. Then, use it in an appropriate mesh adaptation methodology which takes into account the hidden anisotropic behavior of the scalar error.

A. We first obtain the error estimation based on the adjoint. In FEM, the adjoint equation is usually stated directly from the variational formulation. We however reconstruct the strong form of the adjoint equations, and impose the related boundary restrictions rigorously. This formulation makes the adjoint equations independent of the numerical method. Finite volume, as well as finite difference methods, could thus be used as well. Starting from the strong form, it is also easier to use numerical methods more appropriate to the specific equations. Convection equations, requiring SUPG stabilization are just an example. This way to proceed is original in FEM. The derivation of this error estimation is the first contribution of this work.

B. We then modify the mesh using standard local mesh operations [35]. The devil is in the details for these operations and special attention is given to acceptance criteria, reinterpo-lation methods, etc. in order to achieve a stable and efficient algorithm.

Developments presented in this paper were implemented in the finite element and mesh adap-tation code MEF++ from the Groupe interdisciplinaire de recherche en éléments finis (GIREF) at Laval University. The local mesh modifications used in this work are the same as those in Bois et al. [17] with different criteria and are implemented in the same software.

The paper is structured in sections as independent from one another as possible: the direct problem, the adjoint problem, the error estimation, the mesh adaptation methodology, and the results. In the first three parts, the concepts are first presented in a general way before being applied to the classical benchmark of the laminar flow around a cylinder [75]. The results illustrate the gain in precision obtained by our method compared to other classical methods. A second more complex case is the discussed: the backward facing step flow. Finally, some suggestions are presented to extend our methodology for more complex problems.

(28)

1.4

Direct problem

The method presented in this paper is applied to laminar, stationary and incompressible Navier-Stokes equations defining the velocity u and pressure p as solution of

Ru: u · ∇u + ∇p − ∇ · (2ν∇su) = 0 (1.1)

Rp :∇ · u = 0 (1.2)

su is the symetric part of the gradient of the velocity field and ν = Re1 with Re the adimen-sional Reynolds number.

The fluid domain is denoted Ω and its boundary Γ. To complete this basic fluid flow model, boundary conditions must be added:

on ΓD ⊆ Γ the velocity u is known and equal to uD (Dirichlet condition) while on the

remaining part of the boundary, denoted ΓN (ΓN ∩ ΓD = ∅), a normal stress σ · n = g is

imposed (Neumann condition). We define B the set of admissible functions (u, p) (which respect to the boundary conditions) as

B := {(u, p) with u = uD on ΓD & pn − 2ν∇su · n = g on ΓN}. (1.3)

where n is the outward unit vector normal to the boundary. Numerous variants of the above boundary conditions can be used such as Dirichlet conditions only in the direction tangential uk or normal u⊥ to the boundary. The same is true for the Neuman boundary conditions.

The assumptions related to these equations, such as laminarity and steadyness, are quite restrictive, but this work is only a first step to establish the performance of our method. Up to this point, we have only introduced the strong formulation of the equations. The adjoint state is generally established using a weak form of these equations. Moreover, Galerkin methods, such as the FEM, are based on a weak formulation. For this, we introduce the notation

V =u ∈ H1(Ω)2, p ∈ L2(Ω) with u = u

D on ΓD ,

V0=w ∈ H1(Ω)2, q ∈ L2(Ω) with w = 0 on ΓD .

As usual, (f, h) will represent the L2(Ω) scalar product of two functions. Theequations (1.1)

and (1.2) are still non linear and need to be linearized. A Newton iterative scheme is thus used in algorithm 1 for this purpose. The incompressible Navier-Stokes problem is called the direct problem by opposition to the adjoint problem presented in the next section.

Using the FEM discretizations of V and V0 in algorithm 1 gives us a basic solver of the incompressible Navier–Stokes problem.

(29)

Algorithm 1 Direct problem k = 0, (u0, p0) ∈ V given, ∀ (w, q) ∈ V0 repeat solve (uk+1, pk+1) : w, uk+1· ∇uk+1 Ω− ∇ · w, p k+1 Ω+ 2ν ∇sw, ∇su k+1 Ω+ (w, g)ΓN = 0 q, ∇ · uk+1 = 0 k = k + 1 until uk+1− uk L∞(Ω) < 10−10 & pk+1− pk L∞(Ω) < 10−10

1.5

Adjoint problem and functionals

1.5.1 General considerations

Engineers usually perform simulations for specific reasons and concrete goals. In many in-stances, it is only to extract a single scalar quantity J for control or optimization purposes such as reducing hydraulic losses in pipes, stresses on structure, etc..

Understanding the impact of certain parameters of the simulation and model on the approxi-mation of the quantity of interest is essential.

In the following, we assume that the state variable ϕ ∈ V corresponds to the solution of the residual equation

R(α, ϕ) = 0 in Ω

where α can be any physical parameter (boundary conditions, geometry, materials proper-ties). We suppose the quantity of interest depends explicitly on α and ϕ and denote J (α, ϕ). The dependency of J with respect to ϕ can be implicit since the residual equation act as a constraint that must be satisfied. In any case the effect of α on J is expressed through the knowledge of the derivative dJ. Given a (small) perturbation δα, it is possible to obtain the effect δϕ by solving R = 0, and then estimate the sensitivity dJ.

R(α, ϕ) = 0, R(α + δα, ϕ + δϕ) = 0, dJ

dα(α, ϕ) ≈

J (α + δα, ϕ + δϕ) − J (α, ϕ) δα

For multiple parameters, it becomes complicated and costly to recompute R for each pertu-bation δα. These difficulties are well known in optimization where efficient techniques have been developed to compute sensitivities. The search for optimal parameters then relies on the computation of sentivities through the solution of the so-called adjoint problem. The adjoint state (the solution of the adjoint problem) can be viewed as a part of a chain rule derivative and it expresses the sensitivity of J with respect to the residual equation. Fundamental to this approach the adjoint state depends on derivatives of J with respect to the residuals linked to each state variables but it does not depend on the parameter α : the same adjoint is used to compute sensitivity with respect to any parameter α. More importantly, the computed

(30)

sensitivities which result from the adjoint computation allow constructing error estimation on the numerical evaluation of the quantity of interest J in section 1.6.3.

There exists many ways to computed the adjoint state. We can distinguish two general approaches for the adjoint formulations (we refer the interested readers to [88;49]):

1. The continuous adjoint formulation can be obtained directly from the linearized dif-ferential equations.

2. The discrete adjoint formulation can be obtained easily from the transposed matrix of the discretized direct problem and from the vector constructed to evaluate the functional J (see [40;92] for instance).

Note that the direct solution of the discrete adjoint problem is not always robust. In order to insure or increase robustness, Venditti [92] adds a time-like derivative and the solution is obtained by marching in time.

For the continuous adjoint formulation, since the differential equations are known, a wide range of solution and stabilization methods can be applied. It is therefore more likely that the continuous formulation leads to more efficient computation of the adjoint state. Compu-tational times were compared in Carnarius et al. [25]. They show that their discrete adjoint formulation constructed with automatic differentiation software was 14 to 25 times slower than the continuous formulation and 9 more times slower than solving the direct equations. Consequently, for practical reasons, the continuous approach is chosen.

There are also several ways to formulate the continuous adjoint equations [58;38]. No matter how we formulate the adjoint, linearization is mandatory if the problem is not already linear. With the chosen method, non-linear equations are linearized naturally. First, an optimization framework must be established. As we are interested in sensitivities with respect to α, it will be used as our design parameter and R ≡ 0 as a constraint in the optimization of J :

(

min

α J (α, ϕ)

subject to ϕ ∈ B with R (α, ϕ) = 0 in Ω

(1.4)

Before going any further, we need to introduce the concept of derivative

Definition 1. The directional derivative ∂F∂ϕ(ϕ; δϕ), also noted ∂F∂ϕ(δϕ), is the rate of change F at ϕ in the direction of δϕ and is defined by

∂F ∂ϕ(δϕ) := limε→0 F (ϕ + εδϕ) − F (ϕ) ε = d dεF (ϕ + εδϕ) ε=0 .

(31)

Following the method proposed by Céa and various other authors [29;68;25;24], we introduce a Lagrangian L associated with the optimization problem (1.4).

L(α, ϕ, ϕ∗) := J (α, ϕ) − (ϕ∗, R (α, ϕ)) (1.5)

If the constraint R = 0 is respected, L is equal to J for all ϕ∗. However, a particular ϕ∗ is

desired: the ϕ∗ that makes L independent of perturbation δϕ = ϕ2− ϕ1 with ϕ1, ϕ2 ∈ B. We

start by writing the dependence of perturbations. δL = ∂L ∂α(δα) + ∂L ∂ϕ(δϕ) + ∂L ∂ϕ∗ (δϕ∗) δL = ∂J ∂α(δα) −  ϕ∗, ∂R ∂α(δα)  Ω  + ∂J ∂ϕ(δϕ) −  ϕ∗, ∂R ∂ϕ(δϕ)  Ω  + [− (δϕ∗, R)] (1.6)

Consequently, the adjoint problem consists of solving the adjoint variable ϕ∗such as the second

group of terms depending on δϕ is eliminated.  ϕ∗, ∂R ∂ϕ(δϕ)  Ω = ∂J ∂ϕ(δϕ) (1.7)

Then, if one wants to minimize J with α, which is not the case in this paper, the first part of

equation (1.6) must be evaluated to obtain δJδα and used in a gradient descent method. Remark 1. The mathematical procedure proposed to establish a continuous adjoint formula-tion has a well-known limitaformula-tion. The generic and simple Lagrangian L used here can lead to an ill-posed adjoint equation (inconsistent boundary conditions). Therefore well-posedness of the adjoint problem, from this arbitrary L, is possible only for a restricted (see (1.11)) set of admissible quantities of interest. This constraint on J is purely due to the choice of L and is not related to the existence of an adjoint state or sensitivities (which is related only to the differentiability of J with respect to α). As mentioned by other authors [5; 7; 88], ad hoc modifications to L (addition of specific boundary terms) can be made, ensuring a well-defined adjoint problem. Obviously, this lack of genericity of the method is one of the weakness of the continuous formulation.

If it is not possible to present a general approach for the adjoint state, covering all possible J , the set of admissible quantities of interest is relatively large and contains some of the most relevant quantities (such as forces, losses and velocity profile). In the following we will present the single condition necessary to define admissible functional J in the context of (1.5).

1.5.2 Steady incompressible Navier-Stokes

We first consider the steady navier-Stokes equations. Expliciting the left part ofequation (1.7)

(32)

state,  u∗, ∂Ru ∂u (δu)  Ω

= (u∗, δu · ∇u + u · ∇δu − ∇ · (2ν∇sδu))

 u∗, ∂Ru ∂p (δp)  Ω = (u∗, ∇δp)  p∗, ∂Rp ∂u (δu)  Ω = (p∗, ∇ · δu)  p∗, ∂Rp ∂p (δp)  Ω = 0

To formulate the strong adjoint equations, δu and δp are isolated on Ω to give adjoint equations for u∗ and p∗. Derivation by parts and the divergence theorem give

(u∗, δu · ∇u)= (∇u · u∗, δu)

(u∗, u · ∇δu)= ((u · n)u∗, δu)Γ− (u · ∇u∗, δu)

(u∗, −∇ · (2ν∇sδu))Ω= − (u∗, 2ν∇sδu · n)Γ+ (2ν∇su∗· n, δu)Γ− (∇ · (2ν∇su∗) , δu)

(u∗, ∇δp)= (u∗· n, δp)Γ− (∇ · u∗, δp)

(p∗, ∇ · δu)= (p∗n, δu)Γ− (∇p∗, δu)

To keep J abstract and relatively general, we decompose its contribution as a sum of volu-metric and boundary terms.

We also suppose that we can define its local contribution as ∂J ∂u(δu) = (j u Ω, δu)Ω+ j u Γ1, δu  Γ+ j u Γ2, 2ν∇sδu · n  Γ, ∂J ∂p(δp) = j p Ω, δp  Ω+ j p Γ, δp  Γ. (1.8)

Since δu and δp are isolated and arbitrary, we must satisfy the following equation, which is our adjoint equations, on Ω

Ru∗ : − u · ∇u∗+ ∇u · u∗− ∇p∗− ∇ · (2ν∇su∗) = j

u

Ω (1.9)

Rp : − ∇ · u∗= jp (1.10)

and, with the remaining terms on the boundary Γ, we obtain the following restriction (recall that δu = 0 on ΓD).

p∗n + 2ν∇su∗· n + (u · n)u∗ = juΓ1 on ΓN

−u∗ = juΓ2 on Γ

u∗· n = jΓp on Γ

As announced inremark 1, J must satisfy conditions to have a well defined adjoint problem. With the last two restrictions, we have the following condition:

(33)

Using (1.11) and the fact that δpn − 2ν∇sδu · n = 0 on ΓN we obtain

u∗ = −juΓ2 on ΓD

It should be noted that we can easily construct J that violates condition (1.11) (see [7] for examples of such quantities). Those functionals are refered to as incomplete or inadmissible with respect to L. Although this hypothesis may seem very restrictive, several physically meaningful functionals respect this constraint and we assume that condition (1.11) is verified for the rest of this work.

We can deduce the general boundary conditions B∗ for the adjoint state

B∗ := {(u∗, p∗) such as u∗= −juΓ2 on ΓD

& p∗n + 2ν∇su∗· n = jΓu1− (u · n)u∗= g∗ on ΓN}.

(1.12)

We can observe that the type of boundary conditions is the same as in B. Consequently, the space for the weak formulation are similar to those used for algorithm 1

V∗ :=(u∗, p∗) with u∗ = −juΓ2 on ΓD

V0∗= V0.

The general framework to compute the adjoint is given in algorithm 2. Algorithm 2 Adjoint problem

solve (u∗, p∗) : − (w, u · ∇u∗)+(w, ∇u · u∗)+(∇ · w, p∗)+2ν (∇sw, ∇su∗)−(w, g∗)Γ N = (w, j u Ω)Ω (q, ∇ · u∗)= q, jp  Ω

Let us underline that the adjoint problem is comparable in complexity (and size when consid-ering its discretized form) as one iteration of the loop of algorithm 1 for the direct problem. Obviously, the computation of the adjoint problem is negligible compared to the iterative approach for the direct problem. Once again, using a FEM discretization for V∗ and V0∗ we

get a basic solver. In the following, we give two examples of functional of major importance when studying a flow. In both cases, J can be defined by a boundary integral, consequently, ju= 0 and jp= 0.

1.5.3 JE Viscous dissipation rate

Viscous dissipation rate is chosen as one of the functionals even if it is not included in the benchmark. It is a crucial engineering quantity in confined flows. It can be expressed by a

(34)

boundary integral by the use of derivations by parts, divergence theorem, Ru and Rp. JE := Z Ω 2ν∇su : ∇su = Z Γ (u · 2ν∇su) · n − Z Ω u · (∇ · (2ν∇su)) = Z Γ (u · 2ν∇su) · n − Z Ω u · (u · ∇u + ∇p) = Z Γ h (u · 2ν∇su) · n − u · u 2 + p  (u · n) i (1.13)

Now, expliciting the contributions (1.8) of the right-hand side of equation (1.7) for equa-tion (1.13). juΓ1 = −u · u 2 n − (u · n)u − g, j u Γ2 = u, j p Γ = −u · n (1.14)

From section 1.5.2this functional is admissible and we can define the boundary conditions for the adjoint state.

1.5.4 JF Force

A second type of quantities of interest is the force on the surface of an object ΓC in the

direction d. Lift JL is obtain with d = (0, 1)T and drag JD with d = (1, 0)T.

JF :=

Z

ΓC

(pn − 2ν∇su · n) · d (1.15)

This functional gives the following contributions:

juΓ1 = 0, juΓ2 = −d, jΓp = n · d. (1.16)

1.5.5 Evaluation of J

There are different ways, a priori equivalent, to evaluate boundary integrals. However, with the regularity of the finite element solution ϕh, certain ways perform better than others [11].

For the force,equation (1.15), an equivalent form using domain integral can be defined using an extension of d on Ω denoted w w(x) =      d x ∈ ΓC 0 x ∈ ΓD \ ΓC free x ∈ Ω ∪ ΓN

The extension w can be defined in multiple manners, as w = d on ΓC, the following relation is obtained. JF := Z ΓC (pn − 2ν∇su · n)·d = − Z Ω (w · (u · ∇u) − p∇ · w + 2ν∇sw : ∇su)− Z ΓN w·g =: JF c

(35)

Using finite element field, w can be simply set to d on the boundary of the cylinder and 0 elsewhere. This new way to evaluate J is referred as the corrected functional Jc. For losses, even if equation (1.13) already presents a domain integral, similar development is possible starting with the boundary integral. Amazingly, in both cases, w ∈ V∗, this particularity will

be used in section 1.6.3.

1.6

Error estimation for FEM

There are numerous ways to estimate error associated to an approximation of the solution of a partial differential equation (PDE). The most frequently used is based on the discretization error (error induced by the approximation of the state variables solution of the PDE). The PDE is very often approximated targeting a specific secondary quantity, that is a quantity of interest J derived from the knowledge of the solution of the PDE. In that context, establishing the accuracy of the numerical process based on the approximation error of this specific quantity seems more relevant.

Estimation of the error (based on the approximate solution or quantity of interest) is intimately linked to the spatial and functional discretization, i.e. the mesh and the degree of finite element fields. Accuracy will be improved through mesh adaptation which improves the spatial discretization. We will focus on the finite element method and its related error, but the general reasoning applies to all numerical approaches for the approximation of solution of PDE. The purpose of this section is to introduce the concept of adjoint based error estimator. This section is divided in three parts. The notation is first established with a short reminder on the error introduced by the finite element approximation. A classical estimator [2;13], is then presented. Finally, the adjoint-based error estimate is constructed.

1.6.1 FEM setting

To simplify this short overview of the concepts, we will assume that the continuous weak solution ϕ is seeked in V0. Let Ωh be a partition of Ω into simplex elements K of maximal

diameter h and Pk the polynomial space of degree k. The finite element method consists in solving the weak form of a residual equation R(ϕ) = 0 on Ωh using a discretized space Vh,

the finite elements space of degree K:

Vh := {φh∈ C0(Ωh) : φh|K ∈ Pk, ∀K ∈ Ωh, φh|ΓD = 0}.

The FEM problem consists in findind ϕh ∈ Vh such that: (R(ϕh), ψh)Ωh = 0 ∀ ψh∈ Vh

This approximation ϕh induces a local discretization error

(36)

The key aspect of the error analysis at the origin of mesh adaptation is that the local and global errors depend on the local geometric properties of each element, the mesh size h and the degree of interpolation k (see [36]). Since the exact solution ϕ is unknown, e can only be bounded and only for certain functional norms. From [36], assuming V ⊂ Hm(Ω) the discretization error satisfies

kekHm(Ω)= kϕ − ϕhkHm(Ω)≤ Chk+1−mkϕkHk+1(Ω).

Unfortunately, the overall error limit does not allow us to determine the local error contribution of each element nor the link with the possibly anisotropic size of the elements. Neither does it permits to control the error on a general quantity derived from the approximate solution. The following subsections present two types of error estimation with their respective assumptions and the anticipated behaviors that result from them.

1.6.2 Recovery-based method

The discretization error can be formally decomposed in two sources: the interpolation error eI and the transported error etrans (or pollution error). We refer here to the concept introduced

in [70] and also discussed in [10;93].

e := eI+ etrans

The transported error comes from the interpolation error from one part of the domain Ωhbeing

propagated to other (possibly located very far) elements. Depending on how this information is transported, some local disturbances that are seemingly unimportant may have a consid-erable impact elsewhere in the domain. Diffusion and convection being the main and most evident driving forces behind this transported error. In our case, the nonlinear convection term in equation (1.1) transports and amplifies the error. This phenomenon increases with the Reynolds number. Local error estimators based on residual or derivatives reconstruction are more subject to misbehave in these cases due to pollution error.

The main hypothesis linked to recovery-based method is to assume that the pollution error can be neglected [2;36].

etrans≈ 0 ⇐⇒ ϕ(xn) = ϕh(xn)

where xn is the position of the degrees of freedom (DOFs) of ϕh ∈ Pk.

The second hypothesis, which is fundamental, is that a more accurate solution (ϕenr of degree k + 1) can be reconstructed from the degree-k finite element solution. The error is then estimated as the difference between the finite element solution and the enriched one. A similar procedure is used in [19].

The procedure goes as follows. As ϕh is continuous and a piecewise polynomial of degree k, its k–th derivatives are piecewise constant. A continuous approximation of all the derivatives

(37)

of order k is obtained by a specific weighted average [46] of these constant values around each node using all adjacent elements.

Deriving these continuous approximations gives piecewise constant approximations of the derivatives of order k + 1. This is exactly what is needed to enrich the finite element solution. The reconstructed one is written using a hierarchical basis and takes the form (see [19])

ϕenr = ϕh+ ϕc

where ϕc is a correction of degree k + 1 which is only a function of the (k + 1)–th derivatives

and the error is estimated as

|ϕ − ϕh| ' |ϕenr − ϕh| = |ϕc|

Many heuristic error estimators use ϕenr or its derivatives on specific physical quantities as it

gives visually appealing meshes. The mesh would effectively follow the variation of a specific quantity without increasing necessary the accuracy of the simulation. For example, based on the Euclidian norm of the velocity, U = kuk2, using the H1 semi-norm we get the local error

estimator

EK(1):= (∇Uc, ∇Uc)K ∀K ∈ Ωh.

In practice, this estimator is widely used because of its simplicity and performance [12; 2]. Mesh adaptation using a metric based on the Hessian of the Mach number uses almost the same assumptions [92].

We emphasize that in general nothing guaranties that the hypothesis underlying this method are respected; the pollution error for example can be significant. If the interpolation error is transported but not amplified, recovery-based methods will still perform well on global quantities. Consequently, for the problem (1.1)-(1.2), if convection is not significant, as in low Reynolds number (laminar) flows, the performance of this error estimator will be comparable to estimators taking into account the pollution error.

1.6.3 Adjoint-based method

Unlike recovery-based methods, the adjoint approach consider the pollution error [70] as non negligible. The construction of an adjoint-based error estimation is fundamentally linked to a specific functional J .

Let ϕ the exact variable, ϕh the computed variable and δϕ := ϕh− ϕ. Assuming δϕ is small enough (we have a sufficiently good approximation), using Taylor’s expansion on J and R we

(38)

get δJ :=J (ϕh) − J (ϕ) ≈ ∂J ∂ϕ(δϕh) δR :=R(ϕh) − R(ϕ) ≈ ∂R ∂ϕ(δϕh) where R(ϕ) := 0

An error estimation based on the quantity of interest J can be obtained from these last equations and the definition of adjoint problem (1.7)

δJ ≈ hϕ∗, R(ϕh)iΩ.

The special brackets indicate that R(ϕh) contains derivatives that exist only in the distribution

sense (as ϕh is only in Vh). Since this expression is linear with respect to ϕ∗, it is possible to

split it into two parts: a known correction and an unknown part related to the discretization error of the adjoint (and approximated by interpolation error).

δJ ≈ hϕ∗h, R(ϕh)iΩ+ hϕ∗− ϕ∗h, R(ϕh)iΩ ≈ hϕ∗h, R(ϕh)iΩ+ hϕ∗c, R(ϕh)iΩ

where ϕ∗h ∈ V∗h is the finite element solution of the adjoint problem (1.9)-(1.10) and ϕ∗c a

recovery-based approximation of the error ϕ∗− ϕ∗h.

Insection 1.5.5, at the continuous level, J (u, p) = Jc(u, p) but with a discrete state, J (uh, ph) 6=

Jc(uh, ph). The first term defining δJ can be directly used to correct the evaluation of the

functionnal J giving Jc.

Jc(ϕh) = J (ϕh) − hϕ∗h, R(ϕh)iΩ

Using the finite element method, the computation of the adjoint state is not required to achieve this, as mentioned insection 1.5.5, only the boundary conditions of the adjoint are important. Some preliminary tests show that using the complete correction δJ as an error estimator produces a less efficient adaptation for Jc. In that case, the uncorrected value is better calculated. Here we propose to use the corrected computation of the quantity of interest and an error estimator based on the last part of the approximated correction, hϕ∗c, R(ϕh)iΩ, to

adapt the mesh.

In order to give a proper error estimator, we need to take into account the definition of Vh which induces jumps at the boundary of each element. More specifically, uh is at most continuous (in C0(Ωh)) and at least piecewise linear (in C1(K) for all K ∈ Ωh) and ph is at

least piecewise continuous. From integration by parts and divergence theorem, we get: hϕ∗c, R(ϕh)iΩ=

X

K∈Ω

[(ϕ∗c, R(ϕh))K+ (ϕ∗c, phn − 2ν∇suh· n)∂K] + (ϕ∗c, g)ΓN.

It is possible to express the integrals on ∂K and ∂K ∩ Γ as jumps of Neumann condition. From a computational point of view, these jumps can be approximated more efficiently using a higher derivatives reconstruction and hierarchic bases.

Références

Documents relatifs

Conception du réseau d’adaptation d’impédance Comme il a été mentionné dans le premier chapitre, le transfert maximal de la puissance RF vers le circuit de conversion

Barrett and S¨ uli have introduced, and proved the existence of global-in-time weak solutions for d = 2 and 3 to, microscopic-macroscopic dumbbell models of dilute polymers

Neumann or Robin boundary conditions â First results with a mixed formulation Dynamic equation : heat equation. Michel Duprez Rule of the mesh in the Finite Element

Among those stands the adiabatic variable method; we present in this paper a mathematical analysis of this approximation and propose, in particular, an a posteriori estimate that

By using this technique and establishing a multi-parameter asymptotic error expansion for the mixed finite element method, an approximation of higher accuracy is obtained

Also, this section strives to critically review techniques designed to boost the L 2 -convergence rate without excessive additional computational effort An a priori and an a

Specifically, in [18] solving the full water wave equations using boundary element methods, it was shown that large amplitude waves can achieve a higher maximum runup during a

We gave a scheme for the discretization of the compressible Stokes problem with a general EOS and we proved the existence of a solution of the scheme along with the convergence of