• Aucun résultat trouvé

Chapitre 1 Procédés polyphasiques étudiés 23

2.3 Mécanique des fluides numériques

La pratique de la mesure de distribution des temps de séjour en phase aqueuse est assez aisée (NaCl + mesures de conductivité par exemple) et permet d’une part de s’assurer du bon fonc-tionnement de l’installation et d’autre part de quantifier le temps de séjour moyen et la dispersion axiale. Sur les charges solides, ces mesures sont souvent beaucoup plus délicates et fastidieuses ; elles conduisent toutefois aux mêmes observations et aux mêmes paramètres que sur les phases aqueuses. Je n’ai pas eu l’occasion de la mettre en œuvre dans ces cas de figures, mais la DTS peut bien sûr également s’appliquer au cas des liquides en général (pas seulement les solutions aqueuses), mais aussi des gaz. Il « suffit » de trouver le bon traceur, associé à son moyen de détection.

Comme le rappelle [Houzelot, 2013], la Distribution des Temps de Séjour ne fait plus aujour-d’hui l’objet de développements en recherche : c’est une méthode mature. Elle demeure un outil très efficace et toujours d’actualité pour caractériser les écoulements macroscopiques dans les équipements. Son usage s’est en outre étendu aux installations de traitement des eaux et plus généralement au génie environnemental, mais aussi du côté des applications biomédicales. Le développement des outils de mécanique des fluides numériques ne concurrence en rien la DTS : ce sont deux outils différents, parfois complémentaires, qui donnent accès à des paramètres dif-férents. La DTS permet de caractériser par l’expérience les écoulements macroscopiques dans un équipement existant, avec éventuellement tous ses défauts de conception ou de réalisation. La CFD donne accès à des informations méso- voir microscopiques de manière prédictive par le calcul ; mais pour que la prédiction soit performante, il faut être capable de fournir tous les paramètres adéquats aux modèles contenus dans le logiciel de simulation.

2.3 Mécanique des fluides numériques

La mécanique des fluides numériques (computational fluid dynamics - CFD en anglais) est un outil de simulation des écoulements de fluides par la résolution des équations qui les régissent (l’équation de Navier-Stokes notamment), à partir de la discrétisation de ces équations qui sont résolues sur un maillage de la géométrie étudiée ; ils permettent ainsi d’accéder à des cartes de champs de pression, de vitesse, etc. Aujourd’hui les logiciels de CFD résolvent aussi l’équation de l’énergie et fournissent donc des cartographies de température. Certains permettent même de prendre en compte des réactions chimiques. J’ai connu l’époque où Fluent (l’un des logiciels commerciaux phares dans ce domaine) ne convergeait pas toujours, ce qui était pédagogiquement beaucoup plus intéressant que les versions actuelles, qui fournissent toujours un résultat, sous forme de belles cartographies en couleur, dont il faut apprendre à critiquer la pertinence et la qualité. Il n’en reste pas moins que cet outil est aujourd’hui devenu incontournable en génie des procédés ; il suffit pour s’en convaincre d’observer le nombre de communications utilisant -plus ou moins adroitement- cet outil dans les congrès de notre discipline.

Je ne suis assurément pas spécialiste de la mécanique des fluides numériques. J’ai eu cependant l’occasion d’y faire appel ponctuellement à diverses reprises.

Cas des fours tournants

Pendant ma thèse sur les fours tournants, un projet d’étudiants de deuxième année ingénieur a permis de déterminer le champ de vitesse du gaz circulant à contre-courant dans les fours tournants type FBFC, qui sont munis de chicanes dont nous soupçonnions qu’elles pouvaient

2.3. Mécanique des fluides numériques

(a) chicane de four FBFC (b) champ de vitesses selon une coupe axiale dans

l’axe de passage des ailettes (le bleu foncé

corres-pond à une vitesse nulle ; le rouge à environ 2 m s-1)

Figure 2.15 – Simulation de l’écoulement dans une portion de four tournant muni d’une chicane

entraver singulièrement la circulation du gaz. Le travail de simulation nécessitait d’être appro-fondi pour répondre précisément à cette question, mais les simulations effectuées avaient permis de confirmer l’ordre de grandeur de la vitesse moyenne du gaz dans ces fours, que j’avais par ailleurs calculé grossièrement.

Le stage de Charles DOIREAU avait pour objectif d’explorer l’intérêt de la CFD pour repré-senter les transferts thermiques. La difficulté principale pour la mise en place de cette simulation, a paradoxalement résidé dans la description de l’écoulement de la charge granulaire. La piste ex-plorée a consisté à s’appuyer sur une description du mouvement transversal du lit de poudre par couche active / couche passive (approche classique pour les fours tournants sans releveur [Boateng, 1998]) et de simuler le mouvement axial de la poudre en décalant le champ de tem-pérature à chaque pas de temps de simulation ; le tout à l’aide de fonctions utilisateur dans Fluent. Les résultats quantitatifs ne furent hélas guère probants. La DEM aurait probablement été mieux adaptée à cette étude.

Cas des cristalliseurs agités

Le stage de DEA de Damien DESPINOY avait pour objectif d’améliorer la cristallisation de la glycine en travaillant sur la vitesse d’agitation. Une réflexion sur les mécanismes qui se produisent au cours d’un cristallisation (croissance, agglomération, attrition) nous a conduit à envisager de faire varier cette vitesse d’agitation au cours de la cristallisation. Pour ce faire des simulation 2D ont été réalisées à l’aide du logiciel MixSim® 1.7 (associé à Fluent® 4.5) : une carte de référence a été établie, représentant la fraction volumique de cristaux en fin de cristal-lisation, lors d’une opération à 350 tr/min (vitesse maximale admissible pour éviter l’attrition dans notre configuration [Rabesiaka, 2002]). Pour chaque instant au cours de la cristallisation, des simulations ont été réalisées pour chercher une vitesse d’agitation qui permette d’obtenir une carte de fraction volumique la plus semblable possible à cette carte de référence. Pour quantifier cette « similarité », un critère a été défini, correspondant à la portion de cristalliseur riche en solide (fraction volumique supérieure à 40%), déterminé à l’aide du code couleur Fluent (du jaune au rouge). Le logiciel Photoshop® 7.0 disposant de fonctions bien adaptées, permettait d’isoler rapidement cette surface en passant tout le reste en niveau de gris, puis de la mesurer (Figure2.16). Dans le cas de la carte de référence, 6,4% de la surface totale est riche en cristaux.

Figure 2.16 – Simulation de la répartition de la fraction volumique de cristaux dans la cuve agitée (les parties du cristalliseur où la fraction volumique de glycine est inférieure à 40% ont été passées en niveaux de gris)

Pour chaque instant, la vitesse d’agitation a donc été déterminée de telle sorte que la portion de cristalliseur riche en solide soit également d’environ 6,4%.

La taille moyenne des cristaux à chaque instant peut être obtenue en utilisant la loi de croissance à vitesse constante. Les fractions volumiques moyennes de cristaux de glycine pour chaque température sont quant à elles calculées à partir de la courbe de solubilité. Enfin le profil de refroidissement convexe (établi lors d’une étude précédente [Moscosa-Santillan, 2000]) donne la température à chaque instant au cours de la cristallisation. Pour chaque « pas » de 5°C de refroidissement, la vitesse d’agitation permettant d’obtenir l’image type recherchée a donc été déterminée.

Le profil de vitesse d’agitation ainsi déterminé (Figure2.17-a) a ensuite été mis en œuvre : il a conduit à une distribution de taille des cristaux beaucoup moins bonne (présence de nombreuses fines) qu’avec une vitesse d’agitation constante de 350 tr/min.

Supposant que ce mauvais résultat pourrait s’expliquer par le fait qu’en début de cristalli-sation, la vitesse d’agitation très faible aurait empêché la croissance des cristaux au profit de l’agglomération et que de plus, les agglomérats, plus fragiles que les cristaux, auraient éclaté lorsque la vitesse d’agitation a été augmentée, libérant ainsi de nombreuses fines particules dans la suspension, nous avons décidé de démarrer la cristallisation sous une vitesse d’agitation plus élevée, puis de la diminuer légèrement, pour l’augmenter à nouveau (Figure2.17-b). Avec ce pro-fil dit « parabolique », la distribution de taille des cristaux obtenue était sensiblement améliorée (histogramme en noir sur la Figure 2.18) par rapport à celle obtenue sous agitation constante à 350 tr/min (histogramme en bleu sur la Figure2.18).

En fin de cristallisation, nous procédions à un palier de température, pendant lequel la crois-sance cristalline est négligeable car la sursaturation est très faible. Il y avait donc peu de risque de voir se former des agglomérats si on diminuait la vitesse d’agitation au cours de ce palier, or cette diminution pouvait permettre de limiter l’attrition. Un nouveau profil d’agitation dérivé du précédent, mais avec une vitesse initiale plus élevée et une vitesse finale plus faible a donc été testé (Figure 2.17-c). La distribution de taille des cristaux qui en résulte présente un peu moins de fines et davantage de gros cristaux, avec un pic majoritaire un peu plus étalé qu’avec

2.3. Mécanique des fluides numériques

(a) profil croissant (b) profil « parabolique » (c) profil « amélioré »

Figure 2.17 – Profils de vitesse d’agitation et de refroidissement utilisés pour la cristallisation de la glycine

Figure 2.18 – Distributions de taille de cristaux pour différents profils d’agitation le profil dit « parabolique » (histogramme en rouge sur la Figure2.18).

Même si la détermination du profil d’agitation s’est faite par tâtonnement, nous avons dé-montré l’intérêt de ne pas agiter le cristalliseur à vitesse constante au fil de la cristallisation. Ces travaux sont détaillés dans :

Damien DESPINOY, Marie DEBACQ, Mihasina RABESIAKA, Béatrice SOMARRIBA, Catherine PORTE, 2003. Mise en place d’un profil de vitesse d’agitation pour améliorer la distribution granulométrique des cristaux de glycine. article de 6 pages paru dans les actes [communication orale Congrès CRISTAL2, novembre 2003, Toulouse - France] – hal-01500270

*

De ma petite expérience, la CFD peine à représenter correctement les écoulements mettant en jeu des particules. La DEM (discrete element method), est une méthode numérique permettant

de simuler le mouvement d’un grand nombre de particules, en modélisant leurs chocs et leurs rebonds ; certains simulateurs actuels permettent de rendre également comptes des transferts thermiques entre ces particules [Lu et al., 2015]. Cette méthode n’est aujourd’hui pas encore capable de représenter l’écoulement d’un très grand nombre de petites particules pour une appli-cation sur les fours tournants par exemple ; les quelques tentatives que j’ai pu voir utilisent des particules beaucoup plus grosses que les grains réels ou bien conduisent à des temps de calcul pour l’instant tout à fait rédhibitoires. On assiste à de plus en plus de conférences sur des travaux couplants la CFD et la DEM afin de simuler à la fois le comportement des grains et celui du fluide qui l’entoure.

Malgré les défauts actuels que je viens de mentionner, je crois que les progrès de la DEM méritent qu’on s’y attarde, en s’associant avec des spécialistes de ce domaine. Comme avec tout simulateur, se pose la question de « caler » correctement les paramètres pour tenter de reproduire les résultats d’une expérience. Jusqu’à présent je n’ai vu que des comparaison « à l’œil nu », c’est-à-dire que les auteurs présentent une image issue de la simulation à côté d’une prise de vue expérimentale et concluent que les deux « se ressemblent ». Avec des collègues de l’UMR Genial, nous pensons qu’il y a lieu de rendre un peu plus quantitative cette comparaison, en utilisant par exemple des outils d’analyse d’image qui faisaient l’objet de la première partie de ce chapitre. On pourrait imaginer effectuer tout d’abord une étape de « calage » quantitatif, en affinant les paramètres de la simulation DEM à partir de résultats expérimentaux dans des cas simples. On aurait alors davantage confiance dans les prédictions que le simulateur pourrait fournir, dans un avenir proche grâce aux progrès des puissances de calcul, sur un tronçon de four tournant par exemple, voire sur un four complet.