• Aucun résultat trouvé

Inversion globale de transformations isoparamétriques

N/A
N/A
Protected

Academic year: 2021

Partager "Inversion globale de transformations isoparamétriques"

Copied!
118
0
0

Texte intégral

(1)

Inversion globale de transformations

isoparamétriques

Mémoire Laurent Robert-Veillette Maîtrise en mathématiques Maître ès sciences (M.Sc.) Québec, Canada

(2)
(3)

Résumé

Ce mémoire porte sur les transformations isoparamétriques quadratiques dans le contexte de la méthode des éléments finis, mais en gardant un point de vue théorique. Le but est de trouver des critères d’inversibilité afin de pouvoir appliquer des techniques d’adaptation de maillage avec des éléments quadratiques (courbes). Le premier chapitre introduit le sujet en présentant les difficultés qui surviennent avec les éléments quadratiques. Le deuxième chapitre présente une revue des principaux résultats sur le sujet et une caractérisation des conditions d’inversibilité en deux dimensions. Finalement, le troisième chapitre étudie ce qui se passe en trois dimensions et tente d’apporter des idées pour l’inversibilité dans un cas particulier.

(4)
(5)

Table des matières

Résumé iii

Table des matières v

Liste des tableaux vii

Liste des figures ix

Remerciements xv

Introduction 1

1 Introduction à la problématique 3

1.1 Les éléments finis et les grandes déformations . . . 3

1.2 L’adaptation de maillage pour les éléments finis . . . 4

1.3 Triangle optimal pour les fonctions quadratiques . . . 8

1.4 Triangle optimal pour les fonctions cubiques . . . 11

2 Inversion de transformations isoparamétriques en deux dimensions 15 2.1 Construction de la transformation ψ . . . 16

2.2 Image d’une droite . . . 21

2.3 Cas particulier d’inversibilité . . . 21

2.4 Inversibilité dans le cas général . . . 41

2.5 Algorithmes et alternatives . . . 48

2.6 Généralisation des opérations élémentaires . . . 48

2.7 Retour sur le cas d’un seul côté courbe . . . 52

3 Inversion de transformations isoparamétriques en trois dimensions 59 3.1 Construction de la transformation en trois dimensions . . . 60

3.2 Généralisation des conditions d’inversibilité . . . 61

3.3 Le cas général et ses problèmes . . . 62

3.4 Restriction à une seule face courbe . . . 65

3.5 Application des conditions 2D . . . 71

3.6 Tangence entre les faces . . . 73

3.7 Factorisation du jacobien . . . 75

3.8 Amélioration des bornes . . . 78

3.9 Cas plus particuliers . . . 85

(6)

A Pseudo-code 91

A.1 Pseudo-code en 2D . . . 91

A.2 Pseudo-code en 3D . . . 98

Bibliographie 101

(7)

Liste des tableaux

3.1 Minimums obtenus avec Matlab pour différents intervalles. . . 79

(8)
(9)

Liste des figures

1.1 Évolution d’un maillage en grandes déformations . . . 5

1.2 Évolution d’un élément critique du maillage en grandes déformations . . . 5

1.3 Division d’une arête . . . 6

1.4 Élimination d’un sommet et remaillage . . . 7

1.5 Déplacement d’un sommet . . . 7

1.6 Retournement valide d’une arête . . . 7

1.7 Retournement non valide d’une arête . . . 8

1.8 Exemple de triangles optimaux dans le cas de hessiens définis positifs. . . 10

1.9 Exemple de triangles optimaux dans le cas de hessiens indéfinis . . . 11

1.10 Exemple de triangles optimaux pour différentes fonctions cubiques . . . 13

2.1 Élément de référence en deux dimensions . . . 15

2.2 Illustration de la transformation quadratique ψ. . . 16

2.3 Coordonnées barycentriques en différents points . . . 18

2.4 Exemple d’un triangle non valide . . . 22

2.5 Tangence de deux côtés courbes et intersection de J = 0 avec la pré-image dans le triangle de référence . . . 32

2.6 Triangle avec un seul côté parabolique et 5 noeuds qui sont des points fixes . . . . 35

2.7 Triangle de référence et triangle avec un seul côté parabolique . . . 36

2.8 Domaine admissible pour un triangle avec un seul côté parabolique . . . 37

2.9 Jacobien linéaire lorsque les sommets sont des points fixes . . . 38

2.10 Jacobien linéaire lorsque tous les noeuds sont libres . . . 40

2.11 Triangle avec un seul côté droit et jacobien parabolique . . . 42

2.12 Configuration donnant un jacobien elliptique entièrement à l’intérieur de Tref . . . 46

2.13 Domaine admissible pour le noeud (x13, y13) en fonction d’une configuration quel-conque des autres noeuds . . . 47

2.14 Triangle courbe avant un retournement. . . 49

2.15 Triangle courbe après un retournement . . . 49

2.16 Triangles courbes avant un déplacement . . . 49

2.17 Triangles courbes après un déplacement . . . 50

2.18 Triangles courbes avant une division d’arête . . . 50

2.19 Triangles courbes après une division d’arête . . . 51

2.20 Triangles courbes avant une élimination . . . 51

2.21 Triangles courbes après une élimination et un remaillage . . . 51

2.22 Vecteurs du calcul de Aire . . . 55

(10)

3.1 Élément de référence en trois dimensions . . . 59

3.2 Exemple de cubiques comportant des composantes bornées. . . 64

3.3 Graphe de 4(x2+ y2+ z2) − 16xyz − 34 = 0 . . . 65

3.4 Exemple d’un tétraèdre quadratique avec une seule face courbe . . . 66

3.5 Courbe cubique normalisée avec une seule composante non bornée . . . 68

3.6 Intersection entre la face d’équation 1 − u − v − w = 0 du tétraèdre de référence et de la surface de niveau J = 0 . . . 72

3.7 Face courbe du tétraèdre quadratique et face dans le plan u = 0 . . . 72

3.8 Faces du tétraèdre quadratique dans les plan v = 0 et w = 0 . . . 73

3.9 Exemple d’un vecteur normal à la face courbe en r = 0 et s = 12 . . . 74

3.10 Exemple d’un tétraèdre où les faces sont étirées au maximum . . . 84

3.11 Exemple d’un tétraèdre où les faces sont contractées au maximum . . . 85

3.12 Exemple d’un tétraèdre avec des faces étirées et contractées au maximum . . . 86

(11)
(12)
(13)

La liberté n’est pas une marque de yogourt.

(14)
(15)

Remerciements

Il va sans dire qu’avant de tomber dans le carcan des formulations scientifiques et de l’enchaî-nement bien rodé des théorèmes, je me dois de sortir une dernière fois ma véritable plume et de remercier plusieurs personnes sans qui vous ne seriez pas en train de lire ces lignes. Il faut dire que ce mémoire est l’aboutissement de plusieurs années remplies d’efforts, de lassitudes et de découragements. Heureusement, ces mêmes années furent aussi ponctuées d’amitié, de rires, de défis multiples et du pur plaisir de découvrir les mystères de l’univers des mathématiques. J’ose croire que ce sont ces moments qui resteront gravés dans ma mémoire et c’est en tentant de garder ceux-ci en tête que je vous offre les remerciements qui suivent.

Je voudrais tout d’abord mentionner le Fonds québécois de la recherche sur la nature et les technologies (FQRNT) et le Conseil de recherche en sciences naturelles et en génie du Canada (CRSNG) qui ont permis, durant les deux dernières années, que je poursuive mes études sans me soucier de l’aspect financier.

Évidemment, je voudrais remercier Jérémie Rostand pour son financement, ses conseils et surtout de m’avoir accordé beaucoup d’autonomie et de liberté dans ce projet. Plus d’une fois, une simple idée de sa part ne tardait pas à faire repartir de plus belle le train de mes pensées. De plus, je voudrais mentionner l’apport plus qu’essentiel d’André Fortin et du GIREF à ce mémoire. Il n’a pas toujours été évident pour moi de m’immiscer dans le monde des éléments finis, mais ses suggestions et son appui furent d’une grande aide.

Merci à Benoît Pouliot et Thomas Briffard pour avoir répondu à mes questions incessantes sur les éléments finis et avoir discuté de bon coeur avec le néophyte que j’étais en la matière et que je suis malheureusement encore un peu trop. Je dois aussi mentionner que les images du maillage avec des triangles courbes du chapitre 1 ont été très généreusement fournies par Sophie Léger. Merci à Andréa Deschênes et Laurent Pelletier de m’avoir apporté leurs précieux commentaires lors de la lecture de ce mémoire. Enfin, merci aux deux précédents et à Jean Auger pour leur présence inconditionnelle dans les hauts comme dans les bas.

Le département de mathématiques et de statistique et Emmanuelle Reny-Nolin ont aussi joué un rôle que je considère au coeur de ma formation. En me donnant le privilège de donner des dépannages en classe et de travailler au Centre de dépannage et d’apprentissage, ils m’ont non

(16)

seulement permis de gagner de l’expérience en enseignement, mais également de constamment réviser mes bases mathématiques. Pour cela, je les remercie sincèrement.

On dit souvent que le milieu familial influence nos décisions et nos choix de vie. Dans mon cas, on peut dire que rien ne me destinait aux sciences pures puisque je suis le fils d’une sociologue et d’un ébéniste. Malgré tout, sans comprendre pourquoi, j’ai depuis longtemps été attiré vers la science exacte des mathématiques. Dans cette quête de savoir un peu folle, mes parent m’ont toujours supporté. Ils ont été de fidèles piliers pour mon moral et pour ma confiance en moi. Je m’en serais voulu de ne pas les mentionner.

Finalement, je dois rendre hommage à mes amis. Lorsque je suis entré au baccalauréat en ma-thématiques, je n’ai pas tardé à comprendre que j’avais enfin trouvé ma place.MerciàAlexandreGuay! J’assume tout

à fait le cliché, mais ceux qui m’ont connu avant mon passage universitaire peuvent témoigner de la transformation radicale qui a eue lieu. Je n’ose pas m’aventurer dans le périlleux exercice qui consiste à énumérer tous ceux qui ont marqué mes cinq dernières années. Je sais pertinem-ment qu’ils se reconnaîtront. Je veux vous dire merci pour votre écoute et vos conseils, merci pour vos fous rires et, surtout, merci pour votre passion contagieuse. Je crois avoir grandement évolué dans les dernières années et c’est sans contredit entièrement grâce à vous. Ne soyons pas naïfs : ce mémoire tombera probablement dans l’oubli comme tant d’autres avant lui. Néanmoins, il portera une trace de toute la reconnaissance que je suis incapable d’exprimer lorsque je me retrouve face à vous.Merci à Vincent Gre-nier Gauthier!

(17)

Introduction

Choisissez votre phénomène physique ou biologique préféré et il y a de fortes chances pour que les mathématiciens puissent le traduire en équations différentielles ou en équations aux dérivées partielles. Or, la résolution de ces équations n’est pas toujours évidente. Du point de vue du mathématicien pur, une solution explicite et exacte serait idéale. Cet espoir est mal-heureusement vain pour la plupart des cas. Il existe certaines possibilités comme la méthode des éléments finis pour tenter de trouver des solutions. Évidemment, il ne s’agit que d’ap-proximations numériques des réelles solutions. Il est alors naturel de se demander comment améliorer ces approximations.

On sait déjà comment augmenter la précision. Le problème réside bien souvent dans les temps de calculs qui ne tardent pas à exploser. L’adaptation de maillage est une des avenues emprun-tées pour tenter de conserver des temps de calculs acceptables tout en préservant la précision de la solution. Les connaissances sur ce sujet pour des approximations de degré deux sont toutefois peu étoffées.

Le but de ce mémoire est d’attaquer ces questions d’un angle théorique sans perdre de vue l’as-pect pratique. Peut-on mieux comprendre analytiquement les fonctions entourant la méthode des éléments finis et l’adaptation de maillage ? Peut-on mettre en lumière certains concepts pour améliorer les approximations numériques ? Nous allons présenter un peu plus en détails la problématique des éléments finis avant de tenter d’apporter des réponses plus précises à ces questions.

(18)
(19)

Chapitre 1

Introduction à la problématique

Avant d’attaquer le coeur du problème, nous allons donner quelques exemples pour introduire la méthode des éléments finis et l’adaptation de maillage. Notre but n’est pas d’étudier en profondeur ces notions, mais plutôt de comprendre les principes généraux pour pouvoir faire des liens avec les transformations isoparamétriques que nous définirons au chapitre 2.

1.1

Les éléments finis et les grandes déformations

Pour une équation différentielle donnée, tel que mentionné dans l’introduction, la résolution n’est pas toujours aisée. La méthode des éléments finis permet de discrétiser un domaine que nous noterons Ω afin de résoudre ces équations par des méthodes numériques. En deux dimensions, cette discrétisation se fait par des triangles, mais d’autre formes géométriques, comme des quadrangles, peuvent être utilisées. En trois dimensions, on utilise souvent des tétraèdres pour diviser le domaine Ω. L’avantage des triangles et des tétraèdres est qu’ils sont plus faciles à manipuler lors de l’adaptation dont nous parlerons dans la section 1.2.

Définition 1.1.1. Chaque triangle ou tétraèdre divisant le domaine Ω est appelé un élément du maillage.

Notons que ces éléments peuvent avoir des frontières courbes (quadratiques). Cela nous donne davantage de degrés de liberté et donc davantage de précision.

Afin de relier le principe général de la méthode des éléments finis au sujet de ce mémoire, nous allons nous placer dans le cadre particulier des grandes déformations. Dans ce genre de problèmes, on cherche à décrire la déformation d’une structure soumise à une charge. On peut penser par exemple au poids exercé par une voiture sur ses pneus ou à la déformation de ce même pneu lorsqu’il entre en contact avec un nid de poule à grande vitesse. La particularité des grandes déformations est que le domaine Ω dans lequel on définit nos équations différentielles évolue au fil du temps. Lorsqu’il y a un déplacement non linéaire du domaine, on ne peut pas

(20)

négliger cette évolution et il faut mettre à jour le domaine Ω. Ainsi, on ne peut pas calculer le déplacement total en une seule étape. En effet, puisque les déplacements sont très grands, les éléments du maillage se retrouvent assez rapidement difformes voire inversés.

Supposons que nous ayons un domaine et un maillage initial. À chaque étape de résolution, on calcule une solution représentant un déplacement qu’on applique aux noeuds de notre maillage. La géométrie est alors changée. Il faut ensuite actualiser notre maillage à l’aide d’opérations sur les sommets et les arêtes. Il faut aussi transférer les informations de l’ancien maillage vers le nouveau pour éviter toute perte de précision. On répète ensuite le principe jusqu’à atteindre la charge totale souhaitée.

Évidemment, plusieurs dangers nous guettent. Comme la structure peut devenir très déformée, les éléments du maillage en font de même. Si on n’actualise pas assez fréquemment le domaine, on risque de se retrouver avec des éléments inversés. De plus, comme certains triangles ont des frontières courbes, il est possible que ceux-ci ne soient pas valides même s’il ne sont pas inversés. Nous définirons plus rigoureusement cette notion de validité dans les prochains chapitres et nous donnerons des critères pour déterminer si un élément est acceptable ou non.

Exemple 1.1.2. En guise d’exemple, on propose la simulation de la déformation d’un objet lorsqu’on applique une charge sur sa moitié gauche (voir la thèse de Léger [Lé14]). On retrouve dans la figure1.1l’évolution du maillage autour de la zone critique à mesure qu’on augmente le pas de chargement (Pdc). On voit clairement que les éléments deviennent rapidement courbes et très étirés. À partir d’un certain point, la déformation des éléments est telle que la résolution n’est plus possible. On peut d’ailleurs extraire un des triangles les plus critiques. En observant son évolution dans la figure1.2, on se doute que le problème se situe au niveau de son sommet inférieur. En effet, c’est dans cette région que les deux côtés tendent l’un vers l’autre au point qu’ils semblent vouloir se croiser. On veut comprendre et éviter ce genre de situations. Les prochains chapitres permettront de donner des pistes de solutions à ce sujet. N

1.2

L’adaptation de maillage pour les éléments finis

Dans le but d’obtenir des solutions précises, on ne peut pas placer les éléments n’importe où sur le domaine. Il faut idéalement les concentrer dans les régions où la solution a les plus grandes variations.

Lorsque l’on connaît déjà cette solution, cela nous simplifie beaucoup la vie. Évidemment, dans les problèmes réels, cela arrive rarement. On utilise donc des estimateurs d’erreur pour tenter de détecter les zones où on doit concentrer nos éléments. Pour une solution calculée numériquement uh, il est possible de construire une meilleure solution uQ. Nous ne souhaitons pas préciser cette construction, mais on peut se référer à [BFF12] et [BFFC12] pour plus de détails. On obtient ainsi un estimateur d’erreur uh− uQ.

(21)

(a) Maillage initial (b) Pas de chargement=100

(c) Pas de chargement=200 (d) Pas de chargement=1000

Figure 1.1: Évolution d’un maillage en grandes déformations

(a) Élément initial (b) Pdc=100 (c) Pdc=200 (d) Pdc=1000

Figure 1.2: Évolution d’un élément critique du maillage en grandes déformations

L’idée générale de l’adaptation de maillage est d’exploiter ces estimateurs pour effectuer des opérations élémentaires sur les noeuds et arêtes du maillage. Ces opérations nous permettent d’obtenir une solution plus précise avec un minimum de noeuds. Cela est important d’un point de vue numérique afin de minimiser les temps de calcul.

De manière générale, on vise deux objectifs différents. Premièrement, on a une cible d’erreur eΩ

sur le maillage. En norme L2, on veut donc

e2 = Z

|uh− uQ|2dx.

(22)

Pour atteindre ce but, il faut minimiser la semi-norme H1 de l’estimateur d’erreur

Z

|∇uh− ∇uQ|2dx.

En effet, si la différence des gradients est près de zéro, cela signifie que l’erreur a une variation très faible sur le maillage.

Remarque. L’idée d’équidistribuer l’erreur sur les éléments provient d’un article théorique D’Azevedo et Simpson (voir [DS91]). Ils obtiennent des triangles optimaux dans le sens où, pour une erreur sur le gradient donnée, ils maximisent l’aire du triangle. On a donc une minimisation du nombre d’éléments requis pour mailler le domaine tout en contrôlant l’erreur sur le gradient.

Quatre opérations élémentaires sont effectuées sur les maillages afin d’obtenir les résultats souhaités.

1.2.1 Division et élimination

Si l’erreur en norme L2 est trop élevée, on utilise la division d’une arête. Cela consiste à ajouter un noeud sur une arête et à remailler autour. On peut voir cette opération dans la figure 1.3. Ensuite, si l’erreur en norme L2 est trop petite, on peut éliminer un noeud du maillage. Cette opération est plus risquée que la précédente. En effet, si on se débarrasse d’un noeud sur la frontière de notre domaine Ω, on risque de détruire cette frontière. De plus, il faut faire attention à bien remailler après avoir retiré un noeud. On peut voir une illustration d’une élimination dans la figure1.4.

Figure 1.3: Division d’une arête

1.2.2 Déplacement de noeuds et retournement d’arête

Afin de minimiser la semi-norme H1 et d’ainsi uniformiser l’erreur sur le maillage, on peut déplacer les noeuds. Pour trouver la direction vers laquelle le déplacement minimise la semi-norme, on peut utiliser une méthode de descente de gradient le long de la direction inverse du

(23)

Figure 1.4: Élimination d’un sommet et remaillage

gradient. Encore une fois, il faut faire attention à ne pas déplacer un noeud n’importe où. Il ne faut pas se retrouver avec des éléments inversés ou superposés. La figure 1.5 nous montre un exemple de déplacement.

De la même manière, on peut tenter d’uniformiser l’erreur en retournant les arêtes. On peut voir un exemple de cette opération dans la figure 1.6. Par contre, on ne peut pas toujours effectuer une inversion. Par exemple, la figure 1.7 nous montre un cas où elle mène à un élément non valide.

Figure 1.5: Déplacement d’un sommet

(24)

Figure 1.7: Retournement non valide d’une arête

Ces quatre opérations sont effectuées itérativement sur un sommet à la fois. Ensuite, on obtient en théorie un maillage adapté à notre problème. Un des objectifs de ce mémoire est d’obtenir des façons de généraliser ces opérations élémentaires à des éléments de plus haut degré comme des triangles quadratiques avec des côtés courbes que nous étudierons au chapitre 2.

1.3

Triangle optimal pour les fonctions quadratiques

Grâce aux sections précédentes, on comprend qu’un point central de la méthode des éléments finis est de choisir les éléments de forme optimale pour obtenir la meilleure solution possible. Dans cette section, nous allons trouver cette forme optimale dans des cas particuliers d’élé-ments. En fait, nous reproduisons les idées et résultats de [BFF12] et de [BFFC12] avec une technique de résolution différente : les multiplicateurs de Lagrange. Notons que les solutions sont trouvées avec l’aide de Maple et que nous n’avons pas la certitude que toutes les solutions réelles sont obtenues. Par contre, nous verrons que les résultats nous laissent croire que la méthode fonctionne adéquatement.

Soit une fonction quadratique f (x,y). Nous aimerions trouver l’élément T de sommets

S1 := (x1,y1), S2 := (x2,y2) et S3:= (x3,y3)

minimisant la semi-norme H1 sur T . Soit Π(f )(x,y) l’unique fonction linéaire à deux variables qui interpole f en S1, S2 et S3. Alors la fonction objectif de notre minimisation est

Z

T

|∇Π(f ) − ∇f |2dx.

Afin de fixer le triangle résultant dans l’espace, on contraint la position du barycentre du triangle à l’origine. De plus, on suppose que l’aire du triangle est une valeur fixe AT. On

(25)

obtient ainsi nos contraintes et on pose le problème ci-dessous.                  min {S1,S2,S3} Z T |∇Π(f ) − ∇f |2dx, x1+ x2+ x3 = 0, y1+ y2+ y3 = 0, Aire(T ) = AT. (1.1)

On a ainsi un problème de minimisation avec contraintes que l’on peut résoudre avec les multiplicateurs de Lagrange. Notons qu’afin de calculer cette intégrale, il est plus simple d’effectuer un changement de variable pour ramener le triangle quelconque au triangle droit ayant ses sommets en (0,0), (0,1) et (1,0). Ce changement de variable est clairement linéaire et s’exprime ainsi :    x = (x2− x1)u + (x3− x1)v + x1, y = (y2− y1)u + (y3− y1)v + y1. (1.2) Remarques.

• En écrivant ce changement de variable sous forme matricielle et en calculant l’inverse de la matrice, on remarque que cet inverse existe si et seulement si

(x2− x1)(y3− y1) − (x3− x1)(y2− y1) 6= 0.

Or, en utilisant le produit vectoriel, on peut remarquer que cette expression est égale au double de l’aire du triangle T . Ainsi, tant que les trois sommets du triangle ne sont pas colinéaires, notre transformation est inversible.

• Cette idée de faire un changement de coordonnées pour simplifier l’intégrale et de vérifier l’inversibilité de ce changement de variable sera un point central pour les chapitres suivants. En effet, en éléments finis, on revient toujours vers le même triangle droit pour effectuer toutes les intégrales.

Maintenant que notre problème et nos outils mathématiques sont en place, on fait la définition suivante.

Définition 1.3.1. On dira qu’un triangle solution du problème (1.1) est un triangle optimal.

Ainsi, trouver un triangle optimal revient à dire qu’on minimise l’erreur pour une aire donnée. Après avoir obtenu les points réels respectant le système des multiplicateurs de Lagrange avec Maple, on évalue la fonction objectif en chacun de ces points. Toujours avec l’aide de Maple, on trouve alors les mêmes solutions que celles obtenues dans [BFF12]. Nous avons testé différentes fonctions quadratiques f . On peut classer les résultats selon les matrices hessiennes de ces fonctions. Nous verrons que pour une fonction donnée, la solution n’est pas toujours unique. En fait, il y a souvent possibilité d’obtenir des triangles optimaux équivalents (ayant la même semi-norme) en effectuant une symétrie par rapport à un ou des axes.

(26)

1.3.1 Hessien défini positif ou défini négatif

Lorsque la matrice hessienne est définie positive ou définie négative, alors les triangles opti-maux sont isocèles. Nous illustrons ceci à l’aide de l’exemple ci-dessous qui se concentre sur le cas des hessiens définis positifs.

Exemple 1.3.2. Prenons les fonctions f (x,y) := x2+y102 et g(x,y) := x2+ y2. Leur hessien est défini positif. On peut voir un triangle optimal pour chacune d’entre elles dans les figures1.8(a)

et1.8(b). Comme mentionné auparavant, remarquons que les solutions ne sont pas uniques. En effet, pour f on peut aussi choisir la réflexion du triangle par rapport à l’axe des x. En ce qui concerne g, il y a même une infinité de solutions possibles à une rotation par rapport à l’origine près.

Dans le cas de f , notons également que le triangle est étiré dans la direction de l’axe des y. On pouvait s’attendre à ce genre de résultat. En effet, puisque la fonction subit de plus grandes variations en x, il est normal et même souhaitable que les sommets soient rapprochés sur cet axe et éloignés sur l’axe des y. On dit que ces triangles sont anisotropes. Cela signifie qu’ils sont étirés dans une certaine direction. Il y a quelques années, on était convaincu que les triangles anisotropes étaient à proscrire. Pour une résolution facilitée, on visait donc des triangles les plus équilatéraux possibles. Aujourd’hui, on sait que si on oriente adéquatement les triangles anisotropes, leur utilisation nous donne de meilleurs résultats.

Finalement, les ellipses et les cercles représentent les courbes de niveau de l’erreur d’interpo-lation. Évidemment, les trois sommets se trouvent toujours sur la courbe de niveau où l’erreur

est nulle. N

(a) f (x,y) = x2+y2

10 (b) g(x,y) = x 2+ y2

Figure 1.8: Exemple de triangles optimaux dans le cas de hessiens définis positifs

(27)

1.3.2 Hessien indéfini

Pour le cas où le hessien est indéfini, les triangles optimaux sont droits. Nous illustrons cette propriété avec l’exemple suivant.

Exemple 1.3.3. Prenons les fonctions f (x,y) := x2 − y2 et g(x,y) := xy. Leur hessien est

indéfini. On peut voir un triangle optimal pour chacune d’entre elles dans les figures 1.9(a)

et 1.9(b). Remarquons qu’un de leurs côtés repose entièrement sur la courbe de niveau où l’erreur est nulle. Encore une fois, les solutions ne sont pas uniques. Chaque rotation de 90 degrés par rapport à l’origine nous donne un triangle optimal équivalent.

(a) f (x,y) = x2− y2

(b) g(x,y) = xy

Figure 1.9: Exemple de triangles optimaux dans le cas de hessiens indéfinis

N

1.4

Triangle optimal pour les fonctions cubiques

On peut maintenant tenter de trouver les triangles optimaux pour une approximation de degré plus élevé. Nous ajoutons donc des points S12, S13et S23au milieu de chaque côté des éléments triangulaires : S12:= S1+ S2 2 , S13:= S1+ S3 2 , S23:= S2+ S3 2 . Il est alors possible d’obtenir une approximation quadratique Qf telle que

 

Qf(Si) = f (Si), i = 1,2,3,

(28)

Il nous faut à présent considérer des fonctions f (x,y) de degré au moins 3 pour éviter que l’ap-proximation Qf soit exacte et que le problème soit inintéressant. On cherche donc le triangle optimal pour une fonction cubique f (x,y) sous les mêmes conditions que précédemment. On se retrouve donc avec le problème d’optimisation ci-dessous.

                 min {S1,S2,S3} Z T |∇Qf − ∇f |2dx, x1+ x2+ x3 = 0, y1+ y2+ y3 = 0, Aire(T ) = AT. (1.3)

Contrairement au cas où f était quadratique, les fonctions cubiques ne peuvent pas être triées en un nombre restreint de classes. En fait, on sait qu’il existe 78 cas différents pour les cubiques comparativement à seulement trois pour les polynômes quadratiques. Nous ne traiterons donc pas en profondeur toutes les possibilités, mais nous avons choisi de présenter les mêmes fonctions cubiques que dans [BFFC12] pour pouvoir comparer nos résultats. Exemple 1.4.1. Prenons les fonctions

f (x,y) := (10x − y)(10x2+ y2) et g(x,y) := (x − y)xy.

Alors, grâce à Maple, on retrouve un triangle optimal pour chacune d’entre elles dans la figure1.10. Il s’agit des mêmes triangles que dans [BFFC12] ce qui nous laisse croire que notre méthode de résolution avec les multiplicateurs de Lagrange fonctionne de façon adéquate. La forme des triangles varie beaucoup d’un cas à un autre. Notons qu’encore une fois, la solution n’est pas toujours unique. En effet, certaines symétries nous donnent des triangles optimaux équivalents. Finalement, on peut aussi voir que la courbe de niveau où l’erreur est nulle passe encore par tous les noeuds, autant les sommets du triangle que les points situés au milieu des segments.

N Il est intuitivement clair qu’on devrait avoir de meilleures approximations en laissant davantage de liberté aux côtés du triangle, c’est-à-dire en permettant que ceux-ci soient courbes. Cela est possible en laissant les noeuds se situant au milieu des côtés se déplacer. Malheureusement, malgré tous nos efforts, le système des multiplicateurs de Lagrange devient trop complexe pour être résolu par Maple. Même en supposant qu’un seul des noeuds situé au milieu des côtés soit libre, nous n’arrivons pas à obtenir des solutions. En fait, il y a deux problèmes principaux.

1. Le trop grand nombre de variables rend l’intégrale de la fonction objectif très difficile à calculer.

2. Lorsque l’intégrale est calculable, la fonction objectif résultante n’est pas polynomiale et ne peut pas être manipulée à l’aide des contraintes pour la rendre polynomiale

(29)

(a) f (x,y) = (10x − y)(10x2+ y2) (b) g(x,y) = (x − y)xy

Figure 1.10: Exemple de triangles optimaux pour différentes fonctions cubiques

rement aux cas traités précédemment. Il est alors plus compliqué pour Maple de donner les solutions d’un système de multiplicateurs de Lagrange avec une fonction rationnelle. Bref, on a vu avec l’exemple des grandes déformations et celui de de la recherche d’un triangle optimal avec côtés courbes que les éléments avec frontières courbes amènent leur lot de diffi-cultés. Le but des prochains chapitres est donc de mieux comprendre ce genre d’éléments et les transformations qui les entourent.

(30)
(31)

Chapitre 2

Inversion de transformations

isoparamétriques en deux dimensions

Dans ce chapitre, nous discuterons de la transformation permettant de relier un triangle courbe et un triangle de référence. Plus particulièrement, nous nous intéresserons à l’inversibilité de cette fonction. Le but de cette transformation est de simplifier les intégrales de la méthode des éléments finis. En effet, nous allons voir que le triangle de référence en question forme un domaine très simple où il est beaucoup plus facile d’effectuer des calculs. Commençons par définir ce domaine.

Définition 2.0.2. Le triangle de référence ou élément de référence pour la méthode des éléments finis en deux dimensions est le triangle rectangle isocèle ayant ses sommets aux points (0,0), (1,0) et (0,1). On le note Tref et on en a une représentation dans la figure 2.1

ci-dessous.

(32)

2.1

Construction de la transformation ψ

Supposons maintenant que nous avons un maillage constitué d’éléments quadratiques. Autre-ment dit, comme on a vu dans le premier chapitre, on ajoute un nouveau noeud entre chaque paire de sommets. Cela nous donne davantage de degrés de liberté et nous permet potentiel-lement de former des maillages avec des triangles ayant des côtés courbes. Cela se produit lorsque les nouveaux noeuds ne sont pas colinéaires avec les sommets.

Ainsi, nous nous penchons dans un premier temps sur la construction générale d’une transfor-mation reliant le triangle de référence et un élément quadratique d’un maillage comme dans la figure 2.2. Nous attirons l’attention du lecteur sur la notation des sommets et sur le fait

Figure 2.2: Illustration de la transformation quadratique ψ.

que le plan uOv est envoyé sur le plan xOy. En effet, les notations de cette figure sont très importantes et elles nous suivront tout au long du présent document. Définissons un peu de vocabulaire pour alléger le texte.

Définition 2.1.1. Les noeuds (x1,y1), (x2,y2) et (x3,y3) sont appelés les sommets ou noeuds

principaux du triangle courbe ou quadratique. Les noeuds (x12,y12), (x13,y13) et (x23,y23)

sont appelés les noeuds secondaires du triangle courbe quadratique.

Maintenant, notons que nous ne recherchons pas n’importe quel type de transformation. Connaissant les coordonnées des six noeuds du triangle quadratique, on peut tout d’abord procéder de manière directe en supposant que notre changement de variable se base sur des polynômes de degré deux. C’est ce qui est fait dans la méthode des éléments finis.

(33)

2.1.1 Construction directe

Dans le cas des triangles classiques (avec côtés droits), nous avions au chapitre 1 une fonction linéaire pour effectuer notre changement de variable (voir l’équation (1.2)). Nous avions donc besoin de trois équations pour trouver les trois inconnues. Nous avions donc fixé les conditions naturelles selon lesquelles chaque sommet du triangle de référence est envoyé sur un sommet correspondant du triangle quadratique dans le plan xOy.

Dans le cas qui nous intéresse, on suppose que nous recherchons une transformation ψ de degré 2. Autrement dit, les deux composantes de ψ(u, v) = (x,y) auront les formes ci-dessous :

x = x(u, v) = a1u2+ b1uv + c1v2+ d1u + e1v + f1,

y = y(u, v) = a2u2+ b2uv + c2v2+ d2u + e2v + f2.

On a donc six inconnues pour x et six inconnues pour y. Puisque nous supposons connaître l’emplacement des six noeuds du triangle courbe, les douze équations nécessaires pour trouver les douzes inconnues peuvent être obtenues en fixant l’image des six noeuds de Tref. Autrement

dit, la construction directe consiste à exiger les conditions ci-dessous : ψ(0,0) = (x1,y1), ψ(0,12) = (x12, y12), ψ(0,1) = (x2, y2),

ψ(12,12) = (x23, y23), ψ(1,0) = (x3, y3), ψ(12,0) = (x13, y13).

On résout facilement ce système linéaire pour obtenir

x(u,v) = (2x1− 4x13+ 2x3)u2+ (4x1− 4x12+ 4x23− 4x13)uv + (2x1+ 2x2− 4x12)v2

+ (4x13− 3x1− x3)u + (4x12− 3x1− x2)v + x1,

y(u,v) = (2y1− 4y13+ 2y3)u2+ (4y1− 4y12+ 4y23− 4y13)uv + (2y1+ 2y2− 4y12)v2

+ (4y13− 3y1− y3)u + (4y12− 3y1− y2)v + y1.

C’est une manière intuitive de construire la fonction recherchée, mais nous allons plutôt pri-vilégier la démarche de la prochaine section.

2.1.2 Coordonnées barycentriques

Nous allons maintenant présenter une manière différente d’effectuer la construction de la fonc-tion ψ. Cette nouvelle technique utilise des foncfonc-tions spéciales nommées foncfonc-tions de forme que nous définirons. Cette façon de procéder ressemble beaucoup à une interpolation de Lagrange et elle est assurément plus intéressante pour comprendre comment agit réellement la trans-formation sur le triangle de référence. En effet, la construction de la sous-section précédente nous donne uniquement des informations sur l’image des noeuds et difficilement sur les autres points du triangle. Nous verrons que la construction via les fonctions de forme nous donne une meilleure idée de la situation. Pour y arriver, nous avons tout d’abord besoin d’introduire les coordonnées barycentriques.

(34)

Définition 2.1.2. Soit (u1,v1), (u2,v2) et (u3,v3) trois points qui ne sont pas colinéaires.

Alors, les coordonnées barycentriques de (u,v) ∈ R2 sont un triplet (λ1, λ2,λ3) déterminé

par les deux conditions ci-dessous.

1. (u,v) = λ1(u1,v1) + λ2(u2,v2) + λ3(u3,v3) et

2. λ1+ λ2+ λ3 = 1.

Dans le cas d’un triangle d’aire non nulle de sommets (u1,v1), (u2,v2) et (u3,v3), on peut écrire

n’importe quel point (u,v) du triangle comme

(u,v) = λ1(u1,v1) + λ2(u2,v2) + λ3(u3,v3), où en plus λj ∈ [0,1].

Les coordonnées barycentriques décrivent la position d’un point à l’intérieur d’un triangle. Ces trois paramètres indiquent la position du point relativement à chacun des sommets du triangle. En fait, les λi valent exactement 1 au sommet (ui,vi) et diminuent progressivement jusqu’à

valoir exactement zéro sur le segment opposé à (ui,vi). On peut voir quelques points exprimés

avec les coordonnées barycentriques dans la figure 2.3. D’après la première condition de la

Figure 2.3: Coordonnées barycentriques en différents points

définition, les valeurs des λi dépendent des coordonnées des sommets du triangle choisi. On

peut d’ailleurs en donner une expression générale en exploitant la condition de normalisation λ1+ λ2+ λ3 = 1.

On isole tout d’abord λ3= 1 − λ1− λ2 et on remplace sa valeur dans l’expression d’un point

quelconque (u,v) :

(u,v) = λ1(u1,v1) + λ2(u2,v2) + (1 − λ1− λ2)(u3,v3).

On obtient ainsi deux équations et deux inconnues. En résolvant, on trouve les expressions

(35)

suivantes :         

λ1 = (v(v2−v2−v33)(u)(u−u1−u33)+(u)+(u33−u−u22)(v−v)(v1−v3)3),

λ2 = (v3

−v1)(u−u3)+(u1−u3)(v−v3)

(v2−v3)(u1−u3)+(u3−u2)(v1−v3),

λ3 = 1 − λ1− λ2.

Nous nous intéressons à ce genre de coordonnées sur le triangle de référence Tref. Dans ce cas,

les sommets sont (0,0), (1,0) et (0,1). On calcule donc directement que

λ1 = 1 − u − v, λ2 = v et λ3 = u. (2.1)

À partir de maintenant, la notation λi référera aux trois fonctions de u et de v de l’équa-tion (2.1).

2.1.3 Fonctions de forme

Pour construire la fonction ψ nous allons maintenant exploiter les coordonnées barycentriques. L’idée est la suivante : on cherche une façon d’écrire la transformation avec des fonctions φ1, φ2, φ3, φ12, φ13et φ23qui respectent des conditions précises. En fait, on exige des conditions

sur les valeurs des fonctions φ en chacun des noeuds. Plus précisément, on pose (u1,v1) := (0,0), (u2, v2) := (0,1), (u3,v3) := (1,0),

(u12,v12) := 0,12 , (u23, v23) := 12,12 , (u13,v13) := 12, 0 ,

et on fait la définition suivante.

Définition 2.1.3. En dimension n, on nomme fonctions de forme les fonctions φi et φij

respectant les conditions ci-dessous.

φi(uj, vj) = δij, i,j ∈ {1,2, . . . , n},

φi(ukl, vkl) = 0, 1 ≤ k < l ≤ n, 1 ≤ i ≤ n,

φij(uk, vk) = 0, 1 ≤ i < j ≤ n, 1 ≤ k ≤ n,

φij(ukl, vkl) = δij,kl, 1 ≤ i < j ≤ n, 1 ≤ k < l ≤ n,

où δij est le delta de Kronecker défini par  

δij = 1 si i = j,

δij = 0 sinon.

Autrement dit, les fonctions de forme ainsi définies valent exactement 1 au noeud correspon-dant à leur indice et 0 aux autres noeuds. On vérifie directement qu’en deux dimensions les fonctions ci-dessous font l’affaire :

φi:= φi(u, v) = λi(2λi− 1),

(36)

où les λi sont les coordonnées barycentriques associées au triangle de référence. Ainsi, on définit la transformation quadratique qui sera essentielle pour la suite des choses :

ψ(u, v) := 3 X i=1 φi(u,v)(xi, yi) + X 1≤i<j≤3 φij(u,v)(xij, yij) (2.2) = (1 − u − v)(1 − 2u − 2v)(x1, y1) + v(2v − 1)(x2, y2) + u(2u − 1)(x3, y3) + 4(1 − u − v)v(x12, y12) + 4uv(x23, y23) + 4(1 − u − v)u(x13, y13).

Un lecteur familier avec l’interpolation polynomiale de Lagrange remarquera qu’on utilise exactement les mêmes concepts. On comprend maintenant l’idée des conditions sur les fonc-tions φ. Il s’agit, comme dans le cas de la construction de la section2.1.1, de forcer les noeuds du triangle de référence à être envoyés sur les noeuds correspondants dans le triangle courbe. Toutefois, il est maintenant plus facile de visualiser l’image d’un point quelconque du triangle. Par exemple, si on considère un point près du sommet (x1,y1), alors λ1 sera près de 1. De

plus, λ2 et λ3 seront près de 0. On aura donc

φ12≈ 0, φ13≈ 0, φ23≈ 0, φ2≈ 0, φ3 ≈ 0.

Ainsi, en observant la forme de la fonction ψ, on remarque que l’image de ce point dépendra surtout de φ1 et sera près de l’image du sommet (x1,y1).

Définition 2.1.4. On dit que qu’une transformation d’un élément de référence vers un élément quelconque est isoparamétrique si tous les noeuds sont utilisés pour la construire. De façon équivalente, une transformation est isoparamétrique si ses fonctions de forme ont le même degré que les courbes formant les côtés de l’élément.

On peut voir que la fonction ψ définie ci-dessus est isoparamétrique. Il est facile d’imaginer un exemple d’une transformation qui ne serait pas isoparamétrique. On n’a qu’à prendre un élément qui a 6 noeuds, mais dont tous les noeuds secondaires se trouvent au milieu de leur segment respectif. Cela signifie que la transformation entre cet élément et Tref est linéaire et qu’on a seulement besoin des trois sommets pour la construire.

Remarque. Évidemment, après vérification avec Maple, les changements de variable obtenus par les deux méthodes différentes nous donnent exactement les mêmes fonctions.

Maintenant que nous avons décortiqué la forme de la transformation ψ, nous allons étudier plus en profondeur ses propriétés.

(37)

2.2

Image d’une droite

À priori, l’image d’une droite obtenue dans le plan xOy par ce changement de variable est une conique quelconque de la forme

Ax2+ Bxy + Cy2+ Dx + Ey + F = 0.

Il existe un invariant bien connu pour les coniques qui nous donne un critère pour détermi-ner leur nature. Il s’agit du discriminant B2− 4AC. Évidemment, pour pouvoir calculer cet invariant, il nous faut connaître l’équation exacte de la conique en question.

Dans le cas qui nous intéresse, nous avons considéré une transformation quelconque de la forme de l’équation (2.2). Ensuite, nous avons choisi cinq points d’un même segment du triangle de référence et nous avons utilisé les cinq images pour trouver l’équation de la conique. En effet, toute conique est uniquement déterminée par cinq points. Cela vient du fait qu’il s’agit d’un objet de dimension 1 dans R6. Une autre manière de le voir est de remarquer que l’équation de la conique est homogène. On peut ainsi toujours la multiplier par une constante et garder la même conique (on peut diviser par F s’il est non nul). L’équation est donc déterminée à un facteur multiplicatif près et cela nous enlève un degré de liberté.

Ainsi, à l’aide des cinq points et de Maple, on trouve l’équation générale de la conique et on calcule le discriminant. Peu importe la disposition des noeuds du triangle courbe, le résultat est égal à zéro. On peut vérifier dans n’importe quel livre de référence général comme [Zwi03] que la conique d’intérêt est alors une parabole possiblement dégénérée en deux droites confondues ou parallèles. En particulier, cela signifie que les frontières du triangle quadratique sont trois arcs paraboliques (possiblement dégénérés).

2.3

Cas particulier d’inversibilité

Le véritable intérêt de la fonction ψ réside plutôt dans son inverse. En effet, les maillages qui nous intéressent sont constitués d’éléments quadratiques sur lesquels il est difficile d’intégrer. Par contre, si on réussit à inverser ψ et à revenir dans Tref, on pourra effectuer les calculs beaucoup plus efficacement. Il est donc naturel de se demander sous quelles conditions la transformation isoparamétrique est inversible. Il est assez évident que la fonction ψ générale ne donne pas toujours des triangles intéressants. La figure2.4est un des nombreux exemples de triangles courbes à éviter. En effet, la transformation ne pourra clairement pas être inversible puisqu’elle n’est même pas injective sur la frontière. Nous passerons d’abord en revue ce qui a déjà été démontré sur le sujet dans différents livres et publications.

Notation : À partir de maintenant, sauf avis contraire, nous allons noter J comme étant le déterminant de la matrice jacobienne de la transformation ψ.

(38)

Figure 2.4: Exemple d’un triangle non valide

Dans la recherche d’une première condition, on peut tout d’abord tenter d’invoquer le théorème d’inversion locale. Si le jacobien de la transformation ne s’annule pas en un point P , alors ce théorème nous garantit l’existence d’un inverse local entre un voisinage de P et un voisinage de son image. Toutefois, nous nous intéressons plutôt à l’inversibilité globale de la fonction ψ. Ce théorème est donc à première vue insuffisant.

La première percée sur cette question semble avoir été faite par De la Vallée Poussin (voir [dlVP46]). En effet, dans de nombreuses publications comme [Ful69], [FHP78] et [BW82], on cite un résultat de ce mathématicien qui nous donne une première condition suffisante d’inversibilité. Afin de démontrer ce théorème, nous citons le théorème de Jordan sans le démontrer. On peut trouver une preuve rigoureuse de ce théorème très connu dans [Hal07]. Théorème 2.3.1 (Jordan). Soit C une courbe fermée et simple dans R2. Alors R2 \ C a exactement deux composantes connexes. La première est bornée et notée int(C). La deuxième est non bornée et notée ext(C). Finalement, ∂(int(C)) = ∂(ext(C)) = C. 

Afin d’alléger le contenu de la démonstration du théorème de De la Vallée Poussin, Nous présentons quelques conséquences topologiques du théorème de Jordan dans le lemme suivant. Lemme 2.3.2. Soit F : U → V une fonction de classe C1. Soit C une courbe fermée et simple telle que C ∪ int(C) ⊆ U . Si F est injective sur C et si le jacobien de F ne s’annule pas sur U , alors

1. la fonction F est une application ouverte,

2. l’image Γ de C est une courbe fermée et simple telle que F (int(C)) = int(Γ).

Démonstration. Montrons d’abord que F est une application ouverte. Soit X un ouvert inclus dans U . Soit y ∈ F (X). Choisissons x ∈ X tel que F (x) = y. Appliquons le théorème d’inversion locale en y. On trouve ainsi des voisinages A de x et B de y tels que F est un

(39)

homéomorphisme entre A et B. Comme X est ouvert, on peut restreindre suffisament A pour qu’il soit inclus dans X. Alors,

B = F (A) ⊆ F (X).

On a donc trouvé un voisinage B de y entièrement inclus dans F (X). Comme y était quel-conque, cela signifie que F (X) est ouvert dans R2.

Démontrons maintenant la deuxième affirmation. Puisque F est injective sur C, la courbe Γ est fermée et simple. Le théorème de Jordan s’applique donc à celle-ci et l’intérieur de Γ est une composante connexe bornée. Posons K := C ∪ int(C). Alors, par le théorème de Jordan, int(C) est une composante bornée et C est bornée par hypothèse (fermée et simple). Ainsi, K est borné. De plus, le théorème de Jordan nous permet aussi de dire que K est fermé puisqu’il s’agit d’un ouvert auquel on ajoute sa frontière :

K = C ∪ int(C) = ∂int(C) ∪ int(C).

Ainsi, K est fermé et borné dans R2 et donc compact. De la même manière, remarquons immédiatement que L := Γ ∪ int(Γ) est aussi un compact.

Puisque F est ouverte, F (int(C)) est un ouvert inclus dans F (K). Comme F (K)◦ est le plus grand ouvert inclus dans F (K), on obtient l’inclusion ci-dessous

F (int(C)) ⊆ F (K)◦.

De plus, comme l’image d’un compact par une fonction continue est compacte, on a que F (K) = F (K). Ainsi, on obtient l’inclusion suivante

∂F (K) = F (K) \ F (K)◦⊆ F (K) \ F (int(C)) = F (C) = Γ. Utilisons cette information pour démontrer par contradiction que F (K) ⊆ L.

Soit x ∈ K. Supposons que F (x) ∈ ext(Γ). Notons que ext(Γ)\F (K) ne peut pas être vide, car le théorème de Jordan nous assure que ext(Γ) est non borné et on a déjà argumenté que F (K) est compact donc borné. Ainsi, choisissons y ∈ ext(Γ) \ F (K). Alors, x et y se trouvent dans la même composante connexe. Cette composante est également un ouvert de R2 donc elle est connexe par arcs. Posons α ⊆ ext(Γ) un arc allant de x à y pour t ∈ [0,1]. Posons

t0 := sup{t ∈ [0,1] : α(t) ∈ F (K)} et w := α(t0).

Alors, par construction, w ∈ ∂F (K) ∩ ext(Γ). Or, on a montré que ∂F (K) ⊆ Γ et donc ∂F (K) ∩ ext(Γ) = ∅,

ce qui est une contradiction. Ainsi, F (K) ⊆ L. À partir de ce résultat, on a

(40)

Remarquons que F (int(C)) est un ouvert puisque F est ouverte et supposons que F (int(C)) ∩ Γ 6= ∅.

Choisissons y ∈ F (int(C)) ∩ Γ. Alors, il existe une suite (yn) ⊆ ext(Γ) telle que yn −→ y.

ainsi, tout voisinage de y comprendra au moins un point de ext(Γ). Cela est impossible, car y est aussi dans l’ouvert F (int(C)) qui n’a aucun point en commun avec ext(Γ). Ainsi,

F (int(C)) ∩ ∂ (Γ ∪ int(Γ)) = F (int(C)) ∩ Γ = ∅. Cela implique que F (int(C)) ⊆ int(Γ).

Pour l’inclusion dans l’autre sens, on suppose qu’il existe b ∈ int(Γ)\F (K). Comme int(C) 6= ∅ et que F (int(C)) ⊆ int(Γ), on peut choisir a ∈ int(Γ) ∩ F (K). Les points a et b se retrouvent dans la même composante connexe qui est aussi un ouvert de R2. Elle est donc connexe par arcs et on peut construire un arc β ⊆ int(Γ) allant de a vers b. Comme auparavant, posons

t1 := sup{t ∈ [0,1] : β(t) ∈ F (K)} et d := β(t1).

Alors, d ∈ int(Γ) ∩ ∂F (K). Or, cette intersection est vide puisqu’on a montré plus tôt que ∂F (K) ⊆ Γ. C’est une contradiction. Ainsi, F (int(C)) = int(Γ).

Nous pouvons à présent démontrer le théorème de De la Vallée Poussin avec davantage de facilité et sans nous embrouiller dans les détails topologiques.

Théorème 2.3.3 (De la Vallée Poussin). Soit U et V des ouverts de R2. Soit F : U → V une fonction de classe C1. Soit C une courbe fermée et simple telle que C ∪ int(C) ⊆ U . Si F est injective sur C et si le jacobien de F ne s’annule pas sur U , alors

1. l’image Γ de C est aussi une courbe fermée et simple avec Γ ∪ int(Γ) ⊆ V , 2. F est une bijection de C ∪ int(C) sur Γ ∪ int(Γ).

Démonstration. Remarquons que les hypothèses du théorème d’inversion local sont respectées en chaque point. De plus, le lemme précédent nous assure que F est une application ouverte et que l’image Γ de C est une courbe fermée et simple telle que F (int(C)) = int(Γ). Ainsi, on obtient la surjectivité et l’inclusion de la première affirmation :

V ⊇ F (C ∪ int(C)) = F (C) ∪ F (int(C)) = Γ ∪ int(Γ). Comme dans le lemme précédent, posons

K := C ∪ int(C) et L := Γ ∪ int(Γ).

Montrons tout d’abord que y ∈ L ne peut pas avoir un nombre infini de pré-images dans K. Supposons le contraire. Alors, il existe une suite (xn) ⊆ K de ces pré-images avec les xn

(41)

distincts entre eux. Comme il s’agit d’une suite dans le compact K, on peut en extraire une sous-suite convergente, disons

xnk −→ x, (k −→ ∞).

Alors, par le théorème d’inversion locale, il existe des voisinages A de x et B de y tels que F est un homéomorphisme de A sur B. Or, la suite xnk converge vers x. Il existe donc au moins

deux points de la suite dans A. Toutefois, tous les points de cette suite ont la même image. Il est donc impossible que F soit injective dans le voisinage de x. C’est une contradiction. Définissons à présent la fonction N qui à chaque point de L associe son nombre de pré-images dans K :

N (y) := |{x ∈ K : F (x) = y}|.

Notons que puisque F (K) = L, on a N (y) 6= 0 pour tout y ∈ L. De plus, grâce à l’argument précédent, on sait que N (y) n’est jamais infini. Ainsi, la fonction est à valeur dans N. On va montrer que N est constante sur int(Γ).

Soit y ∈ int(Γ). On applique le théorème d’inversion locale au point y. Il existe alors des voisinages

A1, A2, . . . , AN (y)⊆ int(C)

autour des N (y) pré-images et un voisinage B ⊆ int(Γ) autour du point y tels que F est un homéomorphisme de chaque Aisur B. Comme il y a un nombre fini de Ai, on peut restreindre

suffisamment ces voisinages pour qu’ils soient deux à deux disjoints. Si on prend un point z dans B, il aura exactement une pré-image dans chacun des N (y) voisinages. Ainsi,

N (z) ≥ N (y) pour tout z ∈ B. Il nous faut démontrer l’autre inégalité.

Supposons le contraire. Alors il existe une suite (zn) ⊆ B telle que

zn−→ y et N (zn) > N (y) ∀n.

Il existe donc des pré-images des zn qui se trouvent à l’extérieur de tous les ouverts Aj. On

peut donc trouver une suite (vn) telle que

(vn) ⊆ int(C) \   N (y) [ j=1 Aj   c et F (vn) = zn ∀n.

Comme cette suite est incluse dans le compact K, on peut en extraire une sous-suite conver-gente

(42)

De plus, comme N (y) \ j=1 Acj =   N (y) [ j=1 Aj   c

est fermé dans R2, la limite v appartient aussi à cet ensemble. Or, puisque la fonction F est continue, on obtient F (v) = y. Cela contredit le fait que y avait seulement des pré-images dans les ouverts Aj. Ainsi, la fonction N est constante sur int(Γ).

Supposons que N ≥ 2. Soit y ∈ Γ et (yn) ⊆ int(Γ) telle que yn−→ y. Puisque N ≥ 2, on peut

construire deux suites de points distincts (un) et (vn) telles que

F (un) = F (vn) = yn.

Puisque ces deux suites sont incluses dans le compact K, on peut extraire des sous-suites communes telles que

unk −→ u et vnk −→ v.

La continuité de F nous permet de conclure que F (u) = F (v) = y. Par le lemme précédent, on sait que F (int(C)) = int(Γ). Les points u et v n’ont donc pas le choix de se trouver sur la frontière C. Par hypothèse, F est injective sur C, donc u = v.

Si on tente d’appliquer le théorème d’inversion locale entre y et u = v, on obtient une contra-diction. En effet, tout voisinage de y contient au moins un ynqui a au moins deux pré-images

un et vn dans un voisinage de u = v. Ainsi, N ≡ 1 et F est injective sur C ∪ int(C).

En particulier, si on applique ce résultat avec C ∪ intC = Tref et F = ψ, on obtient une condi-tion suffisante permettant d’inverser la transformacondi-tion isoparamétrique. On peut cependant aller plus loin. Baart et Mcleod prouvent dans [BM86] que, dans le cas précis des transfor-mations quadratiques, on peut se débarrasser de l’hypothèse d’injectivité sur la frontière et restreindre notre vérification aux points où le jacobien ne s’annule pas. La preuve que nous présentons s’inspire cependant des travaux de Ciarlet (voir théorème 37.2 de [Cia91]).

Théorème 2.3.4. Soit Eref un élément de référence convexe ayant pour frontière une courbe fermée et simple. Soit ψ une transformation quadratique sur Eref. Si le jacobien ne s’annule pas sur Eref, alors ψ est inversible.

Démonstration. Soit (u1, v1), (u2, v2) ∈ Eref tels que ψ(u1,v1) = ψ(u2, v2). La formule de

Taylor nous donne alors

ψ(u2, v2) = ψ(u1, v1)+ψ0(u1, v1)(u2−u1, v2−v1)t+

1

2(u2−u1, v2−v1)ψ

00

(u1, v1)(u2−u1, v2−v1)t,

(43)

où ψ0 est la matrice jacobienne et ψ00est la matrice hessienne. On utilise le fait que ψ00est une matrice constante pour obtenir :

ψ0(u1, v1)(u2− u1, v2− v1)t= − 1 2 (u2− u1, v2− v1) ψ 00(u 1, v1) (u2− u1, v2− v1)t = −1 2 (u1− u2, v1− v2) ψ 00(u 2, v2) (u1− u2, v1− v2)t = ψ0(u2, v2)(u1− u2, v1− v2)t = −ψ0(u2,v2)(u2− u1, v2− v1)t.

Ainsi, en ramenant les matrices jacobiennes du même côté de l’égalité, on trouve (ψ0(u1, v1) + ψ0(u2, v2))(u2− u1, v2− v1)t= 0.

Comme la matrice jacobienne a seulement des composantes linéaires, on a aussi ψ0(u1, v1) + ψ0(u2, v2) = 2ψ0  u1+ u2 2 , v1+ v2 2  .

Notons que 12(u1+ u2, v1+ v2) appartient à l’élément de référence par convexité. En combinant

les deux dernières égalités, on obtient

0 = (ψ0(u1, v1) + ψ0(u2, v2))(u2− u1, v2− v1)t= 2ψ0  u1+ u2 2 , v1+ v2 2  (u2− u1, v2− v1)t.

Notre hypothèse selon laquelle le déterminant de la matrice jacobienne ne s’annule pas sur l’élément de référence nous permet alors d’inverser la matrice et de déduire (u1, v1) = (u2, v2).

Donc ψ est injective.

On déduit la surjectivité en appliquant le lemme 2.3.2 en prenant C := ∂Eref, Γ := F (C) et F := ψ. On peut le faire puisque toutes les hypothèses sont respectées. En effet, la frontière est fermée et simple et la fonction ψ est quadratique (de classe C1 partout). De plus, l’hypothèse selon laquelle le jacobien est non nul partout sur Eref implique par continuité qu’il est non nul dans un ouvert autour de Eref. Finalement, l’injectivité sur la frontière est prouvée ci-dessus. Ainsi, le lemme s’applique et comme dans la preuve du théorème de De la Vallée Poussin, on a

F (C ∪ int(C)) = F (C) ∪ F (int(C)) = Γ ∪ int(Γ).

Avec ces deux résultats, on comprend qu’il est naturel d’étudier la courbe J = 0. Si celle-ci ne croise pas Tref, alors la condition suffisante d’inversibilité est respectée.

Remarques.

• Notons ici que le théorème 2.3.4 est aussi valide en trois dimensions. La même preuve s’applique en ajoutant une troisième coordonnée aux vecteurs.

(44)

• Évidemment, le théorème 2.3.4 n’est pas vrai pour une fonction plus générale comme dans le résultat de De la Vallée Poussin. On utilise le fait que la matrice jacobienne a des entrées linéaires et que le hessien a des entrées constantes.

• Notons qu’il est possible que le jacobien s’annule sur la frontière de l’élément tout en conservant l’inversibilité. Cette condition n’est donc pas nécessaire. En effet, on peut construire des exemples où le jacobien s’annule partout sur un côté du triangle, mais où la transformation est tout de même bijective.

Voici d’ailleurs un exemple où le jacobien s’annule identiquement sur un côté du triangle, mais où il est facile de trouver un inverse pour la transformation.

Exemple 2.3.5. Fixons les trois sommets :

(x1, y1) = (0,0), (x2,y2) = (0,1) et (1,0) = (x3,y3).

Nous allons également garder le noeud secondaire (x12, y12) à son emplacement naturel,

c’est-à-dire au point (0,12). Finalement, on déplace les deux autres noeuds secondaires :

(x23, y23) =  1 4, 3 4  et (x13, y13) =  1 4, 0  . Avec ces noeuds, la transformation (2.2) a la forme suivante :

x = u2 et y = v(1 + u).

De plus, le jacobien est J (u, v) = 2u(1 + u). On voit donc que celui-ci s’annule identiquement sur le côté formé par (0,0) et (0,1) du triangle de référence. En effet, ce côté correspond à u = 0. Cependant, on peut expliciter l’inverse de cette transformation :

u =√x et v = y 1 +√x.

Évidemment, si le triangle de référence comprenait des points avec des abscisses négatives, cette inversion ne pourrait pas être valide. Toutefois, elle ne pose ici aucun problème. En effet, le triangle de référence tel que défini plus tôt a ses sommets à l’origine et à l’extrémité des vecteurs canoniques. Il n’a donc pas d’abscisse négative. N

Comme mentionné auparavant, cet exemple nous permet de conclure qu’il est possible d’avoir une transformation valide même si le jacobien s’annule sur la frontière de Tref. Notons qu’on

ne peut toutefois pas complètement laisser tomber les hypothèses sur la frontière. L’exemple qui suit montre qu’il n’est pas suffisant que le jacobien soit non-nul seulement à l’intérieur de l’élément de référence.

Exemple 2.3.6. Soit la transformation quadratique où tous les noeuds du triangle de référence restent inchangés sauf (x1,y1) et (x13,y13) qui sont tous les deux envoyés sur le point (1,0).

Alors, le jacobien est de la forme

J (u,v) = 3v.

(45)

Ainsi, le jacobien s’annule uniquement sur le côté v = 0 du triangle de référence. Par contre, on a de l’équation (2.2) :    x = 3uv + 3v2− 4v + 1 y = v.

La transformation n’étant pas injective sur le côté v = 0, elle ne peut pas être inversible. N

On ne peut donc pas affaiblir les hypothèses du théorème 2.3.4. Nous allons maintenant faire ressortir quelques propriétés analytiques et géométriques de la fonction ψ afin de mieux com-prendre son comportement. Dans [BM86] on étudie les caractéristiques de ψ lorsque la fonction n’est pas injective en un certain point.

Proposition 2.3.7. Soit L la droite passant par (p1,q1) et (p2,q2) deux points distincts. Si on

a ψ(p1,q1) = ψ(p2,q2), alors :

1. Le jacobien J s’annule en (p∗,q∗) := 12(p1+ p2,q1+ q2).

2. Toute paire de points sur L placés symétriquement par rapport à (p∗,q∗) ont la même image.

3. L’image de L est une demi-droite ou un point.

Démonstration. Posons ψ(p1,q1) = ψ(p2,q2) = (x0,y0) et démontrons d’abord la première

affirmation. Exprimons L sous une forme paramétrisée :    p(t) := 12(p2+ p1) +12(p2− p1)t, q(t) := 12(q2+ q1) +12(q2− q1)t. (2.3)

Le segment entre les deux points correspond aux valeurs de paramètres |t| ≤ 1. La droite (2.3) a pour image une parabole qui peut aussi être paramétrisée. Notons les deux coordonnées de cette paramétrisation par xγ(t) et yγ(t). Par hypothèse,

x0 := xγ(1) = xγ(−1) et y0 := yγ(1) = yγ(−1).

Ainsi, on a les deux racines respectives des polynômes xγ(t) − x0 et yγ(t) − y0 et on peut les

factoriser de la façon suivante :    xγ(t) − x0 = a2(t2− 1), yγ(t) − y0 = b2(t2− 1). (2.4)

Remarquons que la parabole est dégénérée et qu’il s’agit donc nécessairement d’une droite. En effet, si a2 = 0, alors on a la droite xγ(t) ≡ x0. Si b2 = 0, alors on a la droite yγ(t) ≡ y0.

(46)

Sinon, on a (t2− 1) = yγ(t) − y0 b2 =⇒ xγ(t) − x0= a2 yγ(t) − y0 b2 =⇒ yγ(t) = b2(xγ(t) − x0) a2 + y0. À partir de (2.4), on obtient dxγ dt = 2a2t et dyγ dt = 2b2t. (2.5)

Nous allons maintenant relier toutes ces informations au jacobien à l’aide de la dérivation en chaîne. On trouve dxγ dt dyγ dt ! = J(p(t),q(t)) dp dt dq dt ! = J(p(t),q(t)) 1 2(p2− p1) 1 2(q2− q1) ! ,

où J(p(t),q(t)) est la matrice jacobienne au point (p(t),q(t)). Examinons maintenant l’équa-tion (2.5) pour étudier les deux cas où le vecteur de gauche s’annule.

Si t = 0, alors on se trouve au point milieu (p∗, q∗) et on a le système linéaire homogène suivant : J(p∗,q∗) 1 2(p2− p1) 1 2(q2− q1) ! = 0 0 ! .

Comme on a supposé (p1,q1) et (p2,q2) différents, ce système homogène a une solution non

triviale et on conclut que Det (J(p∗,q∗)) = 0.

Si on se trouve dans le cas spécial a2 = b2 = 0, le même raisonnement est valide pour tous

les t. Ainsi, le déterminant est nul partout sur la droite (2.3). En particulier, il est nul au point (p∗,q∗). Ceci conclut la première affirmation.

Examinons à présent les images xγ(t), xγ(−t), yγ(t) et yγ(−t). En fait, on voit directement

par la forme de (2.4) que

xγ(t) = xγ(−t) et yγ(t) = yγ(−t).

Ainsi, les points symétriques à (p∗,q∗) ont la même image et la deuxième affirmation est prouvée.

Il ne nous reste qu’à démontrer la dernière affirmation. Dans le cas a2= b2= 0 on a que

xγ(t) ≡ x0 et yγ(t) ≡ y0.

Ainsi, toute la droite est envoyée sur l’unique point (x0,y0). Sinon, il faut remarquer que la

fonction t2− 1 étant croissante, la droite (parabole dégénérée) définie par (2.4) est en fait une demi-droite avec son point extrême en (x0− a2,y0− b2) lorsque t = 0.

(47)

Cette proposition nous renseigne davantage sur le comportement de la transformation isopa-ramétrique et nous permet maintenant d’énoncer des corollaires intéressants que l’on retrouve également dans [BM86].

Corollaire 2.3.8. Si la transformation quadratique d’un élément de référence convexe n’est pas injective, alors J = 0 quelque part sur l’élément.

Démonstration. Supposons que la transformation n’est pas injective. Alors, il existe deux points différents (p1,q1) et (p2,q2) qui ont la même image. Par la proposition précédente, le

jacobien s’annule en 12(p1+ p2,q1+ q2). Ce point fait partie de l’élément par convexité. Ainsi,

le jacobien est nul en un point de l’élément et cela complète la démonstration.

Corollaire 2.3.9. Si le jacobien est non nul partout sur un élément convexe, alors la trans-formation est injective.

Démonstration. Il s’agit de la contraposée du corollaire précédent.

Corollaire 2.3.10. Soit 2 segments non parallèles qui s’intersectent en P . Si leurs images respectives sont tangentes en ψ(P ), alors le jacobien est nul en P .

Démonstration. Puisque les deux segments ne sont pas parallèles, on peut choisir w1 et w2 deux vecteurs non colinéaires qui représentent les directions des deux segments. Alors par hypothèse, J(P )w1 et J(P )w2 sont colinéaires où J(P ) est la matrice jacobienne au point P .

Comme w1 et w2 forment une base de R2, on a que J(P ) est de rang au plus 1. Ainsi, Det (J(P )) = 0.

Le plus intéressant des corollaires est le troisième. En particulier, si deux côtés courbes sont tangents en un sommet du triangle quadratique, alors le jacobien s’annule en la pré-image de ce sommet. On peut voir une illustration de ce résultat dans la figure2.5. On y voit deux côtés courbes tangents au sommet en bas à gauche et la courbe J = 0 qui croise alors le triangle de référence à la pré-image de ce sommet.

La proposition suivante nous permettra de déduire une certaine forme de réciproque au théo-rème 2.3.4 et ainsi d’obtenir des conditions nécessaires et suffisantes pour l’inversibilité. Proposition 2.3.11. Si le jacobien d’une transformation quadratique ψ est nul en un point (p∗,q∗), alors il existe une droite passant par (p∗,q∗) ayant comme image une demi-droite ou un point. Démonstration. Posons    p(t) := p∗+ αt q(t) := q∗+ βt, (2.6)

(48)

Figure 2.5: Tangence de deux côtés courbes et intersection de J = 0 avec la pré-image dans le triangle de référence

la paramétrisation d’une droite quelconque passant par (p∗,q∗), où αβ représente la pente. Posons également    xγ(t) = a2t2+ a1t + a0 yγ(t) = b2t2+ b1t + b0, (2.7)

la paramétrisation de l’image de cette droite via la fonction ψ. Comme dans la preuve de la proposition2.3.7, on a l’équation dxγ dt dyγ dt ! = J(p(t),q(t)) dp dt dq dt ! = J(p(t),q(t)) α β ! .

Soit (α∗, β∗) un vecteur non nul se trouvant dans le noyau de J(p∗,q∗). Alors, avec cette paire de paramètres, on a, lorsque t = 0, dxγ dt dyγ dt ! t=0 = J(p(0),q(0)) α ∗ β∗ ! = J(p∗,q∗) α ∗ β∗ ! = 0 0 ! , 2a2t + a1 2b2t + b1 ! t=0 = 0 0 ! , a1 b1 ! = 0 0 ! .

Ainsi, le terme de degré 1 est nul dans la paramétrisation de l’image de la droite et on a la même forme de paramétrisation pour xγ et yγ que dans la preuve de la proposition2.3.7. La manière

avec laquelle la droite est transformée découle donc directement de cette proposition.

Jusqu’à maintenant, on a des conditions suffisantes pour l’inversibilité de la transformation, mais on ne sait pas si elles sont aussi nécessaires. À l’aide de la proposition précédente, on peut énoncer le théorème nous donnant des conditions nécessaires et suffisantes.

Figure

Figure 1.1: Évolution d’un maillage en grandes déformations
Figure 1.3: Division d’une arête 1.2.2 Déplacement de noeuds et retournement d’arête
Figure 1.4: Élimination d’un sommet et remaillage
Figure 1.8: Exemple de triangles optimaux dans le cas de hessiens définis positifs
+7

Références

Documents relatifs

Construire un graphique du type y = f(x) Modifier les titres et ajouter des légendes - Sélectionner la 1 ère cellule de la colonne X et étendre la sélection à. l’ensemble du

On va maintenant comprendre, toujours dans le cadre de la g´eom´etrie projective complexe, les diff´erentes formes de la courbe orthoptique r´eelle des hyperboles, et plus

Combien de triangles peut-on voir au maximum dans cette figure?. On peut voir au maximum

l’équation de la chaînette située sur une surface courbe , en se proposant de tracer, sur cette surface, une courbe telle que la distance de son centre de gravité

YOUNG a montré que A[P] converge encore vers l’intégrale classique I pour des familles de surfaces beaucoup plus générales que la famille f. Seulement la

• Dans le 1er exemple : Pikachu fait 8 bonds entre la 1re bissectrice et le graphique de f telle que. f [4]

[r]

Donc l’intégrale est strictement positive.. On en déduit que la suite I