• Aucun résultat trouvé

Les résultats que l’on peut obtenir via des simulations numériques, relatifs aux phénomènes réels expliqués précédemment, sont très largement dépendants des lois matériaux utilisées, des valeurs des paramètres, du chargement et de la façon dont

ce dernier est appliqué (vitesse et intensité). Dans le cadre d’un développement non-intrusif, il a fallu commencer par maîtriser la façon dont la loi de comportement est intégrée temporellement, dans le code commercial. Cette section est intégralement transposable à d’autres solveurs commerciaux, tels que Ansys ou Code_Aster, car leur fonctionnement est similaire.

Dans des calculs linéaires, utilisant la méthode des éléments finis, la qualité de la solution dépend principalement de la finesse du maillage. La réponse de la structure obtenue ne doit plus changer lorsque l’on continue de raffiner cette discrétisation spa-tiale, on parle alors de convergence du maillage. En pratique, cela requiert un nombre d’éléments très important pouvant engendrer un coût de calcul exorbitant. Dans ces travaux, on considère que le maillage est de qualité suffisante, ce qui est très souvent le cas en contexte industriel car cette tâche est la plupart du temps externalisée : elle est donc une donnée d’entrée du calcul à traiter.

Lors de calculs non-linéaires matériau, la précision de la solution est régie, en plus des considérations précédentes, par les différentes tolérances de convergence que ce soit au niveau de l’intégration matériau ou du respect de l’équilibre global de la struc-ture. Dans ces deux cas, des valeurs de 10−6sont prises afin de garantir la qualité des résolutions à chaque pas de temps. La dernière source d’erreur concerne le choix de la discrétisation temporelle. Cette question est fondamentale en viscoplasticité car la durée du pas de temps intervient explicitement dans l’intégration de la loi de compor-tement, ce qui la rend très sensible à ce choix. Plusieurs approches sont alors envisa-geables :

— Approche overkill : on impose une grille extrêmement fine en essayant d’être sûr que les pas de temps soient suffisamment fins pour que l’intégration se déroule correctement. La précision est excellente et peut constituer une référence, mais il faut atteindre une finesse extrême des pas de temps, ce qui est très coûteux pour des structures de grandes tailles. De plus, rien ne garanti que cette discré-tisation ne nécessite pas au cours de l’intégration l’activation des sécurités du solveur, ce qui occasionnerait un raffinement supplémentaire (cf. section 5.2.1). — Approche naïve : on discrétise grossièrement l’histoire de chargement et on laisse

le solveur effectuer des sous pas de temps lorsque cela est nécessaire vis-à-vis des règles énoncées dans la suite 5.2.1. Cette façon de procéder a l’avantage de fournir un nombre de pas de temps minimal garantissant l’intégration et donc un temps de calcul très compétitif. Cependant, aucune garantie n’est obtenue sur la qualité de la solution et selon les essais, les niveaux d’erreurs peuvent être très élevés notamment avec des champs de plasticité importants (cf. section 5.2.2). Cette méthode à l’avantage d’être adaptative, c’est-à-dire que la longueur des pas de temps est variable selon les besoins rencontrés.

— Approche hybride : on fait un calcul sur un élément volumique avec la loi de comportement retenue, en raffinement progressivement les pas de temps jus-qu’à atteindre la précision souhaitée par rapport à une référence overkill, qui dans ce cas n’est pas coûteuse à calculer. Deux variantes sont alors possibles : — on fixe un certain pas constant pour l’ensemble du chargement

permet-tant d’atteindre une certaine précision, ce qui présente l’inconvénient de ne pas être adaptatif et on s’expose à des pas de temps non-nécessaires. Un avantage est que ce type d’approches est réalisable dans n’importe quel sol-veur commercial, en fixant des tailles de pas de temps initiales, minimales et maximales.

— on utilise une possibilité offerte par le solveur ; piloter la longueur du pas de temps par rapport à un incrément d’une des variables internes comme une des plasticités cumulées ou la contrainte, comme ce qui est proposé dans [Szmytka et al., 2015]. Il est alors possible de choisir la valeur de l’incré-ment pour lequel déclencher un raffinel’incré-ment (aussi appelé cutback). Suivant la valeur choisie, des raffinements automatiques 5.2.1 peuvent être néces-saire, notamment lorsque que l’incrément choisi pour déclencher un cut-back n’est pas assez discriminant.

5.2.1 Sécurités implémentées dans les codes commerciaux

Malgré les précautions prises précédemment, il peut subsister des problèmes dans l’intégration du matériau au niveau des points de Gauss des éléments ou plus globa-lement vis-à-vis de la convergence sur le pas de temps courant. La plupart des codes commerciaux propose de sous-découper le pas de temps utilisé, lorsqu’une telle diffi-culté apparaît, même si les méthodes de subdivision diffèrent entre les codes. Concer-nant Abaqus/Standard, il existe de nombreux critères qui peuvent conduire à un

cut-back de telle sorte que pour un pas de tempsδ˜tnayant échoué, la taille du prochain

pas tenté sera deδtn= αδ˜tn:

— cas de divergence sur l’incrément courantα = 0,25 — un taux de convergence trop lent :α = 0,5

— solution présentant des discontinuités trop importantes entre deux itérations : α = 0,75

— bonne convergence sur deux incréments consécutifs :α = 1,5

Il ne s’agit ici que des principaux critères représentant les problèmes rencontrés du-rant les travaux. Il est intéressant de remarquer que si les pas de temps initialement choisis, où après un raffinement important par exemple du à une singularité, sont trop petits et que l’intégration se déroule correctement, le solveur peut alors procéder à une augmentation de la taille du prochain pas de temps ce qui augmente les performances en temps du solveur.

De tels raffinements sont effectués uniquement dans le but d’obtenir un résultat à la fin de la simulation et il n’y a aucune considération sur la précision de la solution obtenue. On explicite ci-dessous deux cas pathologiques occasionnant l’activation des sécurités du solveur.

Saturation de la loi de Norton-Hoff La vitesse d’écoulement plastique sature en dé-but d’écrouissage à cause de la loi en puissance de la formulation de Norton-Hoff (cf. figure 2.13). Cela est caractérisé par une évolution rapide de la plasticité cumulée, pour

les deux potentiels, la structure est alors quasi-linéaire avec une rigidité initiale im-portante car peu plastifiée. La matrice tangente a alors une norme imim-portante ce qui conduit à une convergence assez lente lors de l’entrée en régime viscoplastique.

(a) Vitesse moyenne : ˙² = 1e−6s−1 (b) Vitesse lente : ˙² = 1e−8s−1

FIGURE2.13 – Analyse de la zone critique

Ce phénomène est apparu lors de tests avec l’approche naïve, en laissant le solveur raffiner lui-même la grille temporelle, ainsi des cutbacks pour too slow convergence rate ont été observés.

Divergences locales Le module Z-Mat peut lui aussi requérir des cutbacks lorsque des divergences locales apparaissent pendant l’intégration de la loi de comportement au niveau de certains points de Gauss, lors de l’application de l’algorithme de retour radial permettant de calculer l’incrément de plasticité local. Ce phénomène peut être du à un incrément de chargement trop important, au niveau de certains éléments cri-tiques, par exemple distordus ou placés près de variations géométriques importantes. 5.2.2 Gestion automatique des pas de temps

L’approche hybride est retenue comme méthode d’intégration de la loi de compor-tement pour son adaptivité ainsi que pour le compromis entre précision et temps de calcul qu’elle offre, grâce au choix de l’incrément à respecter. Le choix de la variable interne sur laquelle se baser peut porter sur la contrainte, la déformation ou encore les plasticités cumulées, l’écrouissage ou les déformations plastiques ayant des variations plus aléatoires. L’automatisme des pas de temps en mécanique non-linéaire est une question récurrente notamment en dynamique [Noels et al., 2002].

L’utilisation de la contrainte comme grandeur a été rapidement exclue car à haut niveau de plasticité, ce qui est le but de l’étude, cette grandeur atteint un plateau (cf. figure 2.7) et par conséquent est moins discriminante pour un pilotage en incréments. De plus, en régime élastique la contrainte nécessite des pas de temps, qui sont inutiles

pour la précision. Le choix s’est donc porté sur les plasticités cumulées, rapide et lente, en explorant leurs domaines respectifs de vitesses (cf. figures 2.14 et 2.15).

(a) Vitesse rapide de déformation (1e−3s−1) (b) Vitesse lente de déformation (1e−8s−1)

FIGURE2.14 – Influence de la grille d’intégration sur la plasticité cumulée rapide

(a) Vitesse rapide de déformation (1e−3s−1) (b) Vitesse lente de déformation (1e−8s−1)

FIGURE2.15 – Influence de la grille d’intégration sur la plasticité cumulée lente On constate qu’à des vitesses élevées il n’est pas obligatoire d’intégrer finement la loi de comportement mais le besoin est important à plus faible vitesse. Le potentiel lent est assez insensible au pas d’intégration, il est donc inutile d’imposer un raffinement de temps sur ce potentiel. Les pas de temps requis par la plasticité cumulée rapide suf-firont à assurer une bonne qualité de la solution, en outre lorsque l’on utilise en même temps le critère sur les deux plasticités : la précision n’est pas augmentée et un sur-coût est apporté à cause des nombreux pas de temps ce qui augmente considérablement le temps de calcul.

Enfin, la plasticité cumulée en tant que variable scalaire basée sur la déformation plastique, est une mesure dans toutes les directions du modèle en une seule variable, ce qui simplifie l’analyse et la mise en œuvre.

Compte-tenu des résultats obtenus dans les essais numériques, on retient trois ni-veaux de∆pr (incrément de plasticité cumulée rapide) pour obtenir une idée du com-promis précision temps de calcul :

∆pr = 1e−3offre un faible coût de calcul avec forcément une précision réduite. Cette valeur peut être adaptée à un besoin de solution rapide.

∆pr = 1e−4 conduit à une excellente précision dans l’intégration de la loi de comportement mais le temps de calcul, bien que raisonnable sur le modèle 2D, constitue une réelle limite sur des structures plus complexes.

∆pr = 1e−5 représente la limite en temps de calcul pour les structures 2D et est inenvisageable sur des modèles 3D importants. Une telle précision est utile pour évaluer l’approche global/local dans la suite de ce document. Dans cer-tains cas, des pas de temps très fins sont obtenus et sont proches de ceux géné-rés par l’intégration à∆pr = 1e−5malgré un réglage initial à 1e−4.

Une telle approche peut être aidée par une pré-discrétisation du cycle de charge-ment, en enrichissant la définition initiale du cycle. Cela évite au solveur de devoir raf-finer un trop grand nombre de fois, le pas de temps courant, car cela peut engendrer un sur-coût numérique.

5.2.3 Stratégies de pré-discrétisation

Sur un incrément de chargement donné et si le pas de temps initial est trop grand, malgré les sécurités mises-en-œuvre dans les solveurs, il peut arriver que le logiciel ne parvienne pas à achever le calcul, même après plusieurs raffinements. C’est pourquoi, il faut réaliser une pré-discrétisation temporelle, basée sur la définition du chargement initial, mais aussi adaptée à la structure étudiée ainsi que son matériau constitutif. Cette étape préliminaire doit être la moins coûteuse possible.

Approche classique Une première façon de faire, assez répandue, est de réaliser un calcul élastique sur l’ensemble du cycle, puis d’en tirer un niveau de contrainte maxi-mal. En comparant, cette valeur avec la courbe de comportement (cf. figure 2.15) en traction, on peut évaluer la taille des pas de temps à utiliser, permettant de garantir une précision satisfaisante. Cette approche à l’avantage d’être peu coûteuse numéri-quement, mais peut s’avérer assez imprécise, notamment lorsque le niveau de plasti-cité est élevé, car le comportement non-linéaire y est très différent de l’élastique. De plus, la taille du pas de temps utilisé est alors fixe sur l’ensemble du cycle, ce qui peut s’avérer inutile durant certaines phases et donc ralentir la résolution.

Méthode proposée Au regard des moyens actuels de calculs, une simulation globale en élasto-viscoplasticité peut être réalisée en un temps tout à fait raisonnable et même

pour un cycle complet. Ce calcul prend de nos jours autant de temps qu’un équivalent élastique, il y a quelques années.

La stratégie de pré-discrétisation que l’on propose est basée sur un calcul initial du modèle global seul sur le cycle complet, modèle simplifié de la structure dont on dispose dans le cadre de la méthode global/local. On contrôle l’intégration temporelle par le solveur de Zébulon au moyen d’un seuil de détection∆pcut, basé sur l’incrément ∆pr de plasticité cumulée rapide. Les pas de temps supplémentaires effectués sont ajoutés afin d’enrichir la discrétisation initiale.

Cette méthode a pour avantage d’être peu coûteuse, adaptative en n’ayant pas de piquets de temps fixes. Bien qu’étant automatique, elle fournit une pré-discrétisation propre à la structure et à son matériau. Enfin, même en cas de modification du modèle local, cette dernière reste inchangée.

Les calculs proposés dans la suite de ce document utilisent plusieurs pré-discrét-isations globales, selon la précision de l’intégration voulue :

∆pcut= 1e−3: fournit une grille pré-discrétisée de 12 pas de temps supplémen-taires (cf. figure 2.16a),

∆pcut= 1e−4: fournit une grille pré-discrétisée de 44 pas de temps supplémen-taires (cf. figure 2.16b),

— avec les sécurités simples (raffinement temporel lorsque qu’une divergence lo-cale apparaît), on obtient 11 pas de temps, ce qui est semblable à∆pcut= 1e−3. En effet, lorsque l’on utilise une tolérance de∆pcut trop lâche, par rapport au champ plastique de la solution, on se retrouve confronté à des divergences locales, qui sont gérées par les sécurités du solveur. En cas de problème, le pas de temps courant est alors divisé en deux. Ces pas de temps ne sont alors pas dus à des considérations de précision de la solution. 0 1000 2000 3000 4000 5000 6000 7000 Temps [s] 0.0 0.2 0.4 0.6 0.8 1.0 Amplitude [ ] Pr´e-discr´etisation globale Init. Pre-discr.

(a) Pré-discrétisation à∆pcut= 1e−3

0 1000 2000 3000 4000 5000 6000 7000 Temps [s] 0.0 0.2 0.4 0.6 0.8 1.0 Amplitude [ ] Pr´e-discr´etisation globale Init. Pre-discr. (b) Pré-discrétisation à∆pcut= 1e−4

FIGURE2.16 – Pré-discrétisations obtenues sur un cycle

On remarque qu’avec une intégration temporelle fine, par exemple avec∆pcut = 1e−4, des cutbacks liés à des redistributions apparaissent lors de la décharge en fin de

cycle. Les pas de temps ainsi créés témoignent d’un accroissement du champ plas-tique. Une discrétisation temporelle grossière, comme pour∆pcut = 1e−3, ne permet pas de capter précisément ce type de phénomène localisé, comme en témoigne le fait de ne pas avoir de cutbacks lors de la décharge sur la figure 2.16a. Cet aspect, observé pour le moment au niveau global s’accentue et devient prépondérant pour le modèle local.

Méthode alternative Dans le cadre du traitement d’un cas métier chez Safran Aircraft Engines, la pré-discrétisation est basée sur la grille temporelle obtenue sur un calcul de thermique préalable. Celle-ci est déterminée de manière à être sûr que l’on passe par les points extrêmes des températures.