• Aucun résultat trouvé

Conditions aux limites de Neumann

Dans le document MATH ´ EMATIQUES (Page 157-0)

6.4 Gradient et condition d’optimalité

6.4.1 Conditions aux limites de Neumann

Ω∈ C(Ω0)et

dx=V0

, (6.48)

oùC(Ω0)est l’ensemble, défini par (6.18), des formes obtenues par difféomor-phisme à partir deΩ0. La fonction coûtJ(Ω)est soit la compliance (6.2), soit un critère de moindres carrés (6.3) pour atteindre une cibleu0(x)∈L2(RN), c’est-à-dire

J(Ω) =

|u(Ω)−u0|2dx (6.49) où la fonction u(Ω) est la solution de l’équation d’état qui est un problème aux limites posé dansΩ.

6.4.1 Conditions aux limites de Neumann On considère l’équation d’état suivante

−∆u+u=f dansΩ

∂u

∂n =g sur∂Ω, (6.50)

qui, pourf ∈H1(RN)etg∈H2(RN), admet une unique solutionu=u(Ω)∈ H1(Ω).

Théorème 6.38.SoitΩ0 un ouvert borné régulier. L’applicationJ(Ω), défi-nie par (6.49), est différentiable

J(Ω0)(θ) =

∂Ω0

θ·n

|u(Ω0)−u0|2+∇u(Ω0)· ∇p+p(u(Ω0)−f)

−∂(gp)

∂n −Hgp ds,

(6.51) oùpest l’état adjoint, solution unique dans H1(Ω0)de

−∆p+p=−2 (u(Ω0)−u0) dansΩ0

∂p

∂n = 0 sur∂Ω0, (6.52)

Remarque 6.39.La formule (6.51) a bien un sens car, Ω0 étant régulier, les hypothèses sur les données f et g impliquent que u et p appartiennent à H2(Ω)et donc ∇uet ∇pappartiennent àL2(∂Ω)par le théorème de trace.

On retrouve bien dans la formule (6.51) le fait que la dérivée de forme ne dépend que de la valeur de la trace normale du champ de vecteurs θ sur le

bord. •

Démonstration. On applique la Proposition 6.28 à la fonction coût pour avec la dérivée matérielleY solution de (6.41), ce qui peut aussi s’écrire avec la dérivée de formeU =Y −θ· ∇u(Ω0)comme

Pour simplifier cette expression et éliminer la dérivée de forme U on utilise l’état adjoint. On multiplie (6.52) parU

puis on multiplie l’équation (6.45), qui donneU, parp, en utilisant la condition aux limites (6.46),

On en déduit, par comparaison, la formule (6.51). ⊓⊔

On peut généraliser le Théorème 6.38 à une très grande classe de fonctions objectifs. Il existe un cas particulier très important pour lequel le problème est ditauto-adjoint, c’est-à-dire que l’état adjoint est égal à l’état (au signe près éventuellement) et il n’y a donc pas lieu de résoudre une équation supplé-mentaire pour calculer le gradient de la fonction objectif. Ce cas particulier est celui de la compliance

J(Ω) =

Théorème 6.40.L’applicationJ(Ω), définie par (6.53), est différentiable J(Ω0)(θ) =

Remarque 6.41.La formule (6.54) possède une interprétation mécanique simple dans un cas particulier. Supposons qu’il n’y a pas de forces volu-miques, f = 0, et que les forces surfaciques ne sont non nulles que là où

le bord est fixe, c’est-à-dire qu’on peut avoir g= 0seulement siθ·n= 0, et

On en déduit que, pour diminuer la compliance, c’est-à-dire pour avoir J(Ω0)(θ) ≤ 0, on a toujours intérêt à agrandir le domaine, c’est-à-dire à

choisirθ·n >0. •

Démonstration. On applique la Proposition 6.28 à la fonction coût pour obtenir

En multipliant (6.50) par U on obtient

puis en multipliant (6.45) par u(Ω0)et en utilisant la condition aux limites (6.46) on a

On en déduit, par comparaison, la formule (6.54). ⊓⊔ 6.4.2 Conditions aux limites de Dirichlet

On considère l’équation d’état suivante −∆u=f dansΩ

u=g sur∂Ω, (6.55)

qui, pourf ∈H1(RN)etg∈H3(RN), admet une unique solutionu(Ω)telle que(u−g)∈H01(Ω).

Théorème 6.42.SoitΩ0 un ouvert borné régulier. L’applicationJ(Ω), défi-nie par (6.49), est différentiable

J(Ω0)(θ) =

Remarque 6.43.La formule (6.56) a bien un sens car, par régularité, u et p appartiennent à H2(Ω) et donc ∇u et ∇p appartiennent à L2(∂Ω). On retrouve bien dans la formule (6.56) le fait que la dérivée de forme ne dépend que de la valeur de la trace normale du champ de vecteurs θsur le bord. • Démonstration. On applique la Proposition 6.28 à la fonction coût pour obtenir simplifier cette expression et éliminer la dérivée W on utilise l’état adjoint.

On multiplie (6.57) par W

puis on écrit la formulation variationnelle de (6.33), qui définit W, avec p comme fonction test

On en déduit, par comparaison, J(Ω0)(θ) =

En intégrant par parties le terme contenant l’état adjoint p et en utilisant (6.57), on obtient

∇(u(Ω0)−g) = ∂(u(Ω0)−g)

∂n n sur ∂Ω0, ce qui conduit à la formule (6.56). ⊓⊔

On peut généraliser le Théorème 6.42 à une très grande classe de fonctions objectifs. Il existe un cas particulier très important pour lequel le problème est ditauto-adjoint, c’est-à-dire que l’état adjoint est égal à l’état (au signe près éventuellement) et il n’y a donc pas lieu de résoudre une équation supplé-mentaire pour calculer le gradient de la fonction objectif. Ce cas particulier est celui de la compliance

J(Ω) =

(f+∆g)u dx. (6.58)

Théorème 6.44.L’applicationJ(Ω), définie par (6.58), est différentiable J(Ω0)(θ) = Démonstration. On pose h=f +∆g et on applique la Proposition 6.28 à la fonction coût pour obtenir

J(Ω0)(θ) =

0

(hu(Ω0)divθ+u(Ω0)θ· ∇h+hY)dx

avec la dérivée matérielle Y =W +θ· ∇g, oùW est solution de (6.33). En multipliant parW l’équation vérifiée par(u−g)on obtient

On en déduit, par comparaison et après quelques calculs que nous laissons au lecteur, la formule (6.59). ⊓⊔

6.4.3 Dérivation rapide : la méthode du Lagrangien

Comme nous venons de le voir dans les deux sous-sections précédentes, le calcul rigoureux de la dérivée d’une fonction objectif nécessite d’avoir su dériver la solution de l’équation d’état alors même que cette dérivée (U ouY dans nos notations) n’apparaît pas dans le résultat final. Il y a là un certain gâchis, d’autant plus que le calcul de la dérivéeU ouY est assez délicat et fas-tidieux. Heureusement, comme nous l’avions annoncé, il existe une méthode

plus rapide pour dériver (au moins formellement) une fonction objectif. Il s’agit de la méthode du Lagrangien, développée par J. Céa dans [35]. Cette méthode permet aussi de “deviner” la définition de l’état adjoint p. En pra-tique, c’est la méthode la plus utilisée et il estessentielde bien la comprendre.

Dans ce qui suit on considère une fonction objectif générale du type J(Ω) =

j(u(Ω))dx.

Condition aux limites de Neumann

On suppose tout d’abord queu(Ω)est solution de (6.50). Suivant la Défi-nition 3.22 on introduit le Lagrangien qui est la somme de la fonction objectif et de la formulation variationnelle de l’équation d’état

L(Ω, v, q) = dépend pas deΩet donc les trois variables du LagrangienLsont véritablement indépendantes. La dérivée partielle deL par rapport à q dans la direction φ∈H1(RN)est

qui, lorsqu’elle s’annule, est (par construction) la formulation variationnelle de l’équation d’état (6.50). La dérivée partielle de Lpar rapport àv dans la directionφ∈H1(RN)est

qui, lorsqu’elle s’annule, n’est rien d’autre que la formulation variationnelle de l’équation adjointe (6.52). Finalement, la dérivée deLpar rapport au domaine, évaluée en supposant v et q fixes (c’est-à-dire comme une dérivée partielle), dans la directionθest

∂L

Lorsqu’on évalue cette dérivée avec l’état u(Ω0) et l’état adjoint p(Ω0), on retrouve exactement la valeur de la dérivée de la fonction objectif

∂L

∂Ω(Ω0, u, p)(θ) =J(Ω0)(θ). (6.60) La relation (6.60) n’est pas un hasard. En effet, pour toutq∈H1(RN), on a

L(Ω, u(Ω), q) =J(Ω)

puisque u(Ω)vérifie la formulation variationnelle de l’équation d’état (6.50).

Commeu(Ω)dépend deΩ, mais pasq, en dérivant cette relation et en utilisant le théorème des dérivées composées, il vient

J(Ω0)(θ) = ∂L

∂Ω(Ω0, u(Ω0), q)(θ) +∂L

∂v(Ω0, u(Ω0), q), u(Ω0)(θ). En prenant alors q=p(Ω0) solution de l’équation adjointe (6.52), le dernier terme s’annule et on obtient

J(Ω0)(θ) = ∂L

∂Ω(Ω0, u(Ω0), p(Ω0))(θ).

Grâce à ce calcul on peut obtenir le “bon” résultat pour J(Ω0) sans passer par les dérivées de forme ou matérielle qui sont passablement compliquées à établir. Cependant, ce calcul rapide de la dérivée J(Ω0) n’est que formel.

En effet, il suppose que l’on connaisse déjà la dérivabilité deupar rapport au domaine, et que l’on puisse appliquer la règle de dérivation composée.

Condition aux limites de Dirichlet

On suppose maintenant que u(Ω) est solution de (6.55). La condition aux limites de Dirichlet n’étant pas variationnelle (comme celle de Neumann) mais inscrite dans l’espace fonctionnel, la méthode du Lagrangien est un peu plus compliquée. On pourrait être tenté d’introduire, comme d’habitude, le Lagrangien défini comme la somme de la fonction objectif et de la formulation variationnelle de l’équation d’état cette approche est vouée à l’échec car les trois variables(Ω, v, q)ne peuvent pas être indépendantes puisquev etqappartiennent à des espaces qui dépendent deΩ(elles ont une trace prescrite sur∂Ω). Tout au plus, peut-on remarquer que, formellement, la dérivée partielle deLpar rapport àv donne l’équation adjointe. Mais si on calcule la dérivée partielle deLpar rapport au domaine, on ne trouve pas la “bonne” dérivéeJ(Ω0), ce qui est fâcheux !

Pour remédier à cet inconvénient on introduit un multiplicateur de La-grange supplémentaire λpour la condition aux limites. Autrement dit, pour (v, q, λ)∈

H1(RN)3

, on définit le Lagrangien L(Ω, v, q, λ) = Dans la définition (6.61) du Lagrangien toutes les variables sont bien indépendantes car les fonctions (v, q, λ) appartiennent à des espaces qui

ne dépendent plus de Ω. Il est clair que les dérivées partielles de L par rap-port à qet λdonnent (par définition même de L) respectivement l’équation d’état et la condition aux limites satisfaites par u. Pour trouver l’équation adjointe on calcule la dérivée partielle deLpar rapport à v dans la direction φ∈H1(RN)

Après une double intégration par parties on obtient ∂L trois relations. Tout d’abord en prenant φ à support compact dans Ω0 on obtient

−∆p=−j(u) dans Ω0.

Puis on peut prendre φ qui s’annule sur ∂Ω0 avec ∂φ/∂n quelconque dans L2(∂Ω0), ce qui donne

p= 0 sur ∂Ω0.

Finalement, pourφquelconque dansH1(Ω0), on trouve

∂p

∂n+λ= 0 sur ∂Ω0.

On a donc bien retrouvé l’équation adjointe (6.57). Finalement, la dérivée partielle deLpar rapport à Ω, dans la directionθ, évaluée avec les solutions u,pet λ=−∂p/∂n, est Une fois de plus la relation (6.62) n’est pas un hasard puisqu’elle provient de la dérivation de

L(Ω, u(Ω), q, λ) =J(Ω) ∀q, λ.

Commeqetλne dépendent pas deΩ, en dérivant cette relation et en utilisant le théorème des dérivées composées, il vient

J(Ω0)(θ) = ∂L

∂Ω(Ω0, u(Ω0), q, λ)(θ) +∂L

∂v(Ω0, u(Ω0), q, λ), u(Ω0)(θ).

En prenant alorsq=p(Ω0)etλ=−(∂p/∂n)(Ω0), oùp(Ω0)est la solution de l’équation adjointe (6.57), le dernier terme s’annule et on obtient précisément la formule (6.62). Grâce à ce calcul on trouve le “bon” résultat pourJ(Ω0)sans passer par les dérivées eulérienne ou lagrangienne de la solution. Néanmoins, insistons encore pour dire que ce calcul rapide de la dérivée J(Ω0)n’est que formel puisqu’il requiert de savoir a priori queu(Ω)est dérivable par rapport au domaine.

6.5 Algorithmes numériques

Nous expliquons l’utilisation de la dérivation par rapport au domaine en matière d’algorithmes numériques sur le modèle de l’élasticité, plus complexe mais plus intéressant pour les applications pratiques.

6.5.1 Méthode de gradient

Pour minimiser numériquement la fonction coût J(Ω) on utilise une méthode de gradient sur la variableθqui paramètre la formeΩ= ( Id+θ)(Ω0).

Si l’on a obtenu l’expression analytique du gradient de la fonction coût sous la forme

J(Ω0)(θ) =

∂Ω0

θ·n d(Ω0)ds,

oùd(Ω0)est une fonction (qui dépend de l’état et de l’adjoint), on peut obtenir une nouvelle formeΩtà partir de la forme initialeΩ0

t= ( Id +θt)(Ω0) avec θt=−t d(Ω0)n, (6.63) où t >0 est un pas de descente adéquat. Pour t suffisamment petit, on est sûr que

J(Ωt)< J(Ω0) si d(Ω0)= 0.

Dans la formule (6.63) il subsiste une ambiguïté quant à la définition de θt. En effet,θtdoit être défini dans toutΩ0alors qued(Ω0)nn’est a priori défini que sur le bord∂Ω0. Il faut donc étendre cette trace à l’intérieur deΩ0 pour obtenir le champ de vecteur θt. Nous reviendrons sur ce point pratique dans la Sous-section 6.5.3 ci-dessous.

Il y a une autre difficulté théorique et pratique avec la formule (6.63).

En effet, on a toujours supposé que θ ∈ W1,(RN;RN), mais l’intégrande d(Ω0) et la normale n peuvent être moins régulières. Si c’est le cas, il faut éventuellement régulariser ces termes (voir la Sous-section 6.5.3 ci-dessous).

La méthode de gradient est une méthode itérative : on calcule une suite de formesΩk pourk≥0. ChaqueΩk est obtenu à partir deΩk1commeΩtest obtenu à partir deΩ0. En d’autres termes, à chaque itérationkon utiliseΩk

comme domaine de référence pour calculer la dérivée par rapport au domaine (on ne se ramène donc pas à chaque fois au domaine initialΩ0).

6.5.2 Modèle de structure élastique

Nous revenons au modèle de la Sous-section 1.2.4. On considère un solide élastique isotrope homogène qui occupe un domaine bornéΩ. On suppose que le bord deΩest décomposé en trois parties

∂Ω=Γ ∪ΓN ∪ΓD,

oùΓ =∅ est la partie variable de la frontière,ΓD =∅ est une partie fixe de la frontière sur laquelle le solide est fixé (condition aux limites de Dirichlet), et ΓN =∅ est aussi une partie fixe de la frontière sur laquelle sont appliqués les efforts g (condition aux limites de Neumann). On suppose que la partie variable Γ de la frontière est libre de tout effort (condition aux limites de Neumann homogène). Un exemple, dit de la console (ou de la plaque-console en dimension 2), est donné à la Figure 6.9. Par conséquent, le déplacementu est solution du modèle de l’élasticité linéarisée suivant

⎧ oùC(Ω0)est l’ensemble, défini par (6.18), des formes obtenues par déformation de Ω0. La restriction que toutes les formes Ω∈ Uad aient dans leur bord les parties fixesΓD∪ΓN est facilement prise en compte dans la paramétrisation deΩ= ( Id +θ)(Ω0)par le champ de vecteursθ: il suffit d’imposer

θ= 0 sur ΓD∪ΓN

(seule la partieΓ de la frontière est susceptible de varier ici).

Dans ce cas particulier, la dérivée de la fonction coût est (par une simple adaptation du Théorème 6.40)

Il est remarquable que l’intégrande en facteur deθ·ndans (6.67) soit toujours négative. On en déduit que pour avoirJ(Ω0)(θ)≤0, c’est-à-dire pour mini-miser J, il faut choisir θ·n >0. Autrement dit en termes mécaniques, pour

Γ Γ

Γ

Γ

N D

D

Fig. 6.9. Conditions aux limites pour une console élastique : seul le bord Γ, en pointillé, peut varier.

minimiser la compliance, c’est-à-dire maximiser la rigidité, on a toujours in-térêt à “agrandir” le domaineΩ(nonobstant la contrainte de volume), et ceci d’autant plus que les déformations sont grandes. Rappelons que la dérivée de forme de la contrainte de volume V(Ω) =

dx=V0est

V(Ω0)(θ) =

Γ

θ·n ds.

La condition d’optimalité du domaineΩ0 est donc qu’il existe un multiplica-teur de Lagrange ℓ∈Rtel que

J(Ω0)(θ) +ℓV(Ω0)(θ) =

Γ

θ·n

ℓ−2µ|e(u)|2−λ(tre(u))2 ds= 0.

Mécaniquement, cette condition d’optimalité nous dit que le bord de la forme optimale est iso-contraint.

6.5.3 Implémentation numérique

On choisit pourΩ0le domaine représenté à la Figure 6.9. Il s’agit d’un cas test classique, dit de la “console élastique” ou plaque-console en dimension 2 (“cantilever” en anglais). On calcule une suite de domainesΩkqui vérifient les contraintes suivantes (les mêmes que celles dans la définition (6.66) deUad)

∂Ωkk∪ΓN ∪ΓD (6.68)

oùΓN et ΓD sont fixes, et le volume (ou poids) est fixe

V(Ωk) =V(Ω0). (6.69)

À cause de la contrainte sur le volume de la forme on utilise un algorithme de gradient à pas fixe avec projection (voir le Chapitre 3). Écrivons cet algorithme dans le cadre qui nous intéresse. Soitt >0un pas de descente fixé.

Fig. 6.10. Déplacement des noeuds du maillage de la frontière suivant le gradient de la fonction coût.

1. Initialisation de la formeΩ0.

2. Itérations jusqu’à convergence, pourk≥0 : Ωk+1= ( Id +θk)(Ωk), avec

θk = t

2µ|e(uk)|2+λ(tre(uk))2−ℓk

nk surΓk,

0 surΓN ∪ΓD, (6.70)

oùnk est le vecteur normal au bord ∂Ωk, t >0 est un pas de descente et ℓk ∈ R est le multiplicateur de Lagrange tel que Ωk+1 satisfasse la contrainte de volume. Rappelons que−2µ|e(uk)|2−λ(tre(uk))2est l’inté-grande de la dérivée de formeJ(Ωk), et queukest la solution de l’équation (6.64) dans le domaineΩk.

Typiquement, une itération de l’algorithme ci-dessus revient à déplacer, dans la direction de la normale, les noeuds du maillage de la partie libre Γk

de la frontière deΩk en préservant son volume (voir la Figure 6.10).

Contrainte de poids total

Pour vérifier la contrainte de poids total (6.66) on ajuste itérativement et a posteriori le multiplicateur de Lagrange ℓk ∈R. Autrement dit, on choisit à l’itération k la valeur ℓk du multiplicateur qui aurait permis à l’itération précédente k−1 de vérifier exactement la contrainte de poids. Cette procé-dure est très simple mais ne permet de vérifier exactement la contrainte qu’à convergence. Si l’on voulait maintenir la contrainte de poids tout au long des itérations, il faudrait pouvoir “revenir en arrière” si le maillage a été trop déformé, ce qui revient à multiplier les étapes de déplacement du maillage (ou de remaillage) et donc à augmenter le coût du calcul.

Fig. 6.11. Console optimale : forme initiale puis aux itérations 5, 10 et 20 de l’algorithme d’optimisation.

Extension du champ de déplacement et paramétrisation du bord Dans la formule (6.70) il subsiste une ambiguïté quant à la définition de θk. En effet,θk doit être défini dans toutΩk alors qu’il n’est spécifié que sur le bord ∂Ωk dans (6.70). À ce propos il existe deux possibilités. En premier lieu on peut affirmer que la seule information intéressante est la position de la frontière∂Ωk+1qui ne dépend que de la trace normaleθk·nksur le bord (dans le cas de petites déformations de la forme). Autrement dit, les valeurs deθk à l’intérieur deΩk ne sont pas importantes pour déterminer la frontière∂Ωk+1

et il suffit d’utiliser (6.70) sur le bord (ou plus précisément pour les noeuds du bord du maillage). Néanmoins cette approche possède un inconvénient pratique : il faudra remailler la nouvelle formeΩk+1et cela coûte cher (surtout en 3-d). C’est pourquoi on préfère parfois une deuxième approche qui consiste à préalablement étendre à l’intérieur de Ωk la trace de θk sur ∂Ωk. Par exemple, une telle extension s’obtient en résolvant le problème suivant

⎪⎨

⎪⎩

−∆θk = 0 dansΩk

θk = 0 surΓD∪ΓN

θk =t

2µ|e(uk)|2+λ(tre(uk))2−ℓk

nk surΓk.

(6.71)

Une fois que l’on connaîtθkpartout dansΩkon peut alors déformer l’ensemble du maillage de Ωk et obtenir directement un nouveau maillage du domaine Ωk+1. C’est la méthode que nous avons utilisée pour les exemples numériques de cette section. En tout état de cause, lorsque cet algorithme produit des distorsions assez grandes de la forme (ce qui est le cas sur l’exemple numérique présenté ici), il faut de temps en temps remailler la forme (par exemple toutes les 10 itérations) pour ne pas faire une mauvaise approximation numérique avec un mauvais maillage.

Dans la présentation de l’extension du champ de déplacement que nous venons de faire il semble sous-entendu que tous les noeuds du maillage sur le bord de la forme ont leur propre déplacement. Autrement dit, le champ de déplacementθet le déplacement élastiqueu“vivraient” sur le même maillage.

Bien que cela soit tout à fait concevable, ce n’est pas l’approche dominante dans les applications où l’on préfère utiliser une discrétisation plus grossière pourθque pouru. Il y a au moins deux raisons à ce choix. Tout d’abord une raison de stabilité numérique : il y a un risque d’oscillation de la frontière lors de l’optimisation qui serait causé par une résonance des erreurs numériques sur le même maillage pour θ et u (il s’agit plus d’une constatation expéri-mentale que d’une analyse rigoureuse). Ensuite une raison de commodité de représentation ou paramétrisation des formes : les formes d’origine “indus-trielle” ne sont en général pas caractérisées par leur maillage mais pas leur paramètres de CAO (Conception Assistée par Ordinateur). Typiquement, ces paramètres sont des splines, des courbes de Bézier ou tout autre forme de représentation utilisée en approximation de surfaces. Il faut donc traduire le champ de déplacementθdans cette paramétrisation CAO qui utilise typique-ment beaucoup moins de noeuds de contrôle sur le bord de la forme mais qui contient des paramètres additionnels de tangente ou courbure. Nous ne disons rien de ces difficultés techniques de liaison avec la CAO et nous nous contentons de remarquer que cela fait un lien très naturel entre optimisation géométrique et optimisation paramétrique !

Dans les exemples numériques de ce chapitre nous utilisons effective-ment deux maillages : un (relativeeffective-ment) grossier pour représenter la forme, c’est-à-dire θ, et un autre plus fin pour calculer avec précision l’état u. Le maillage grossier est déformé à chaque itération de l’optimisation et le maillage fin le suit par simple interpolation.

Régularisation du champ de déplacement

Un autre défaut du champ de vecteur θk défini par (6.70) est son éven-tuelle faible régularité. Par exemple, dans les coins de la console la régularité de |e(uk)|2 est faible (typiquement guère mieux que L1(Ω)) alors que l’on voudrait queθk appartienne àW1,∞(RN;RN). Cela peut résulter en d’éven-tuelles oscillations de la frontière que l’on évite grâce à une régularisation de θk. Combinée avec la procédure d’extension que l’on vient juste de décrire, cette régularisation peut s’obtenir en résolvant à la place de (6.71) le problème

Fig. 6.12.Forme de la console initiale avec 4 trous, puis aux itérations5,10et20 de l’algorithme d’optimisation.

suivant

⎪⎨

⎪⎩

−∆θk = 0 dansΩk

θk = 0 surΓD∪ΓN

∂θk

∂n =t

2µ|e(uk)|2+λ(tre(uk))2−ℓk

nk surΓk.

(6.72)

On vérifie qu’il s’agit toujours d’une direction de descente car la solution de (6.72) vérifie

(J+ℓkV) (Ωk)(θk) =−

Γk

θk·nk

2µ|e(uk)|2+λ(tre(uk))2−ℓk ds

=−t1

k

|∇θk|2dx≤0.

Par contre, la solution de (6.72) a un “cran” de régularité de plus que celle de (6.71) (voir le Théorème de régularité 2.20). Remarquons au passage qu’il est possible de remplacer l’opérateur Laplacien dans (6.71) et (6.72) par le système de l’élasticité (ce qui peut permettre d’économiser du temps de calcul puisqu’il s’agit du même opérateur que pour l’équation d’état).

Les Figures 6.11, 6.12 et 6.13 ont été obtenues avec les deux améliorations proposées ci-dessus : la régularisation par (6.72) et l’utilisation d’un double

maillage, un relativement grossier pour θ, et un autre plus fin pour calculer avec précision l’étatu. Déformer un maillage grossier plutôt qu’un maillage fin permet d’éviter d’éventuelles oscillations de la frontière, régularise en quelque sorte le problème et rend le calcul stable.

Discussion des résultats numériques

Dans les Figures 6.11, 6.12 et 6.13 nous présentons les formes obtenues à diverses itérations de cet algorithme, et ce pour trois initialisations différentes.

Les niveaux de gris représentent les isovaleurs de l’intégrande de la dérivée de forme (6.67) (qui n’est rien d’autre que la densité d’énergie élastique) : plus cette densité est élevée (ce qui correspond à un fort niveau de contraintes

Les niveaux de gris représentent les isovaleurs de l’intégrande de la dérivée de forme (6.67) (qui n’est rien d’autre que la densité d’énergie élastique) : plus cette densité est élevée (ce qui correspond à un fort niveau de contraintes

Dans le document MATH ´ EMATIQUES (Page 157-0)