• Aucun résultat trouvé

Processus de calibration en vue d’une reconstruction 3D

4.3 Interpolation de données dispersées sur un maillage régulierrégulier

Les algorithmes actuels menant à la reconstruction de données disper-sées en temps et en espace sur maillage fixe sont présentés ci-dessous. Afin d’évaluer la qualité de la reconstruction, des champs de vecteurs vitesses 3D seront virtuellement insérés dans une configuration géométrique d’écoulement semblable à celle décrite en annexeD. Ces données dispersées seront interpolées sur un maillage cartésien régulier et les champs reconstruits seront comparés aux champs LES.

Cette étude permettra de mettre en relief l’impact de la densité de par-ticules sur la qualité de la reconstruction de l’écoulement ainsi que de l’impor-tance d’un lissage, rendu nécessaire lorsque des erreurs de mesures expérimen-tales sont introduites.

4.3.1 Algorithmes d’interpolation

L’interpolation de données dispersées sur un maillage structuré peut être réalisée classiquement à l’aide d’interpolateurs linéaires, cubiques ou encore en allouant la valeur la plus proche du point d’interpolation. Le désavantage de ces approches linéaires et de plus proches voisins est de ne pas pouvoir satis-faire la continuité première et seconde spatialement, par exemple dans le calcul des gradients ou encore la divergence d’un champ. L’interpolation des données en un point nécessite la récupération de données situées dans une zone autour de celui-ci. La figure4.30montre que le point d’interpolation Mij peut être soit :

o Inscrit dans une forme géométrique dont les sommets correspondent à des points pour lesquels les données sont disponibles. C’est le cas de l’interpolation de Delaunay (à gauche figure 4.30)

o Inscrit dans une forme géométrique dont la taille est contrôlable. Typi-quement, cette forme sera circulaire ou rectangulaire et l’on cherchera à déterminer la valeur moyenne de cette maille.

L’intérêt de la seconde approche est de pouvoir contrôler la distance li-mite Dlim au-delà de laquelle les vecteurs isolés n’influencent plus la valeur du point à interpoler. La taille de la zone d’influence est un paramètre important car elle conditionne le nombre de données à prendre en compte en fonction de la densité de vecteurs dans le volume.

Une fois sélectionnées, les données peuvent être pondérées par des coefficients αiavec i l’indice d’une particule dans le sous domaine. Pour une moyenne arith-métique, on aura logiquement αi=1 quel que soit i.

Différents algorithmes existent dans cette étape de reconstruction. Citons à titre d’exemple l’utilisation des "radial basis function" présentées dans Casa

Figure4.30 – Schématisation des deux approches d’interpolation proposées.

and Krueger (2013) ou encore les équations elliptiques de Murai et al. (2002) permettant une interpolation spatio-temporelle. Une approche moins commune, connue sous le nom de Krigeage, consiste à garantir localement un minimum de variance pour une variable. Elle fut utilisée initialement sur des données de grandes tailles, comme en météorologie et en océanographie et tend désor-mais à être appliquée dans l’étape de reconstruction de champs de vitesse, voir Srinivasan et al. (2010) par exemple.

Interpolation Gaussienne à fenêtre adaptative.

En complément, une approche dite "Adaptive Gaussian Windows" (AGW) introduite par Agüí and Jiménez (1987) et dévelopée par Stüer and Blaser (2000) pondère de manière gaussienne les valeurs des vecteurs PTV par leur distance au point d’interpolation . Alors que Agüí and Jiménez (1987)se sert de tous les vecteurs du domaine d’étude, Stüer and Blaser (2000)préfère récu-pérer uniquement les vecteurs compris dans un sous domaine Γ centré autour du point d’interpolation pour un gain de temps de calcul. Par la suite nous utiliserons cette dernière approche.

Finalement, la vitesse Ui à une position X s’écrit selon l’équation4.12 :

Ui(X) = Pnv n=1αnUn Pnv n=1αn (4.12) avec αn= exp(−kXb− Xnk 2 H2 ) (4.13)

k Xb − Xn k2 correspondant à la distance au carré entre vecteur PTV Xn au point d’interpolation et H à la taille de la fenêtre gaussienne préconi-sée comme 1,24 fois la distance moyenne △v entre les particules dans le sous domaine étudié. △v s’écrit selon l’équation 4.14 et dépend du volume V du

sous domaine Γ d’interpolation et de Nv le nombre de vecteurs compris dans ce domaine.

v= (V Nv)

1/3 (4.14)

Dans l’utilisation de l’AGW, nous discernerons deux types de contraintes différentes :

1 La première consistera à imposer un volume fixe, c’est à dire soit un parallélépipède de coté 2*Lmin, soit une sphère de rayon Lmin. Si au-cun vecteur n’est retrouvé dans le sous volume alors auau-cune vitesse d’interpolation n’est définie.

2 La seconde contrainte peut permettre d’imposer un minimum de points de mesure PTV. Une sélection du nombre minimum de particules sou-haité est réalisée par approche "des plus proches voisins" et le calcul du volume prend en compte la plus grande distance. Une valeur est forcément obtenue localement bien qu’un risque d’un lissage excessif des champs existe.

4.3.2 Application à la PTV 3D simulée

Procédure

Un maillage structuré cartésien est défini avec un pas constant dans cha-cune des directions. La distance inter-maille est équivalente dans le plan hori-zontal mais peut être plus grande verticalement comme dans le maillage LES. Le temps de calcul peut être relativement long dans la mesure où chaque point du maillage est traité. De plus, pour conserver une certaine finesse dans la re-construction du champ de vitesse, le maillage de projection ne peut être trop grossier.

A titre d’illustration, une finesse de 0,54 mm dans le plan horizontal et de 1,71 mm verticalement conduit à un maillage de 43350 points au total. Une astuce consiste à ne sélectionner que les points situés dans le volume fluide, soit 52% du volume total. Il en résulte 22797 points à interpoler. La figure4.31(b) illustre les points du maillage fluide en bleu, hors fluide en rouge, et les condi-tions limites virtuelles en noir.

Ajout de conditions limites

Une question peut se poser quant à la prise en compte de conditions limites de type paroi pour lesquelles la vitesse est supposée nulle. Une des pos-sibilités offertes consiste à rajouter virtuellement des données nulles localement

(a) Vue isométrique (b) Vue de dessus

Figure 4.31 – Maillage 3D - en bleu, les zones fluides - en rouge, les zones solides - en noir, les conditions limites de paroi.

sur les bords des crayons combustibles, comme illustré dans la figure 4.31. Ces points peuvent être pris ou non en compte dans la phase d’interpolation finale afin de forcer la convergence vers des valeurs nulles de vitesses en paroi. Leur utilité sera aussi discutée par la suite.

Au cours des études à venir, trois version de l’AGW sont testées et compa-rées à l’interpolateur tri-linéaire de Matlab. Les trois versions sont les suivantes : o [AGW vf SCL] représentant le cas avec la contrainte d’une taille de

volume fixe sans ajout de conditions limites.

o [AGW vf CL] représentant le cas avec la contrainte d’une taille de volume fixe en prenant en compte les conditions limites.

o [AGW np CL] représentant le cas avec la contrainte d’un nombre de points minimum en y ajoutant les conditions limites virtuelles.

Moyens et temps de calcul - AGW

Les calculs sont réalisés sur une station HPZ820 avec 48 cœurs disponibles cadencés à 2.70 GHz et couplés à 192 Go de mémoire vive. Une parallélisation du code est réalisée avec l’utilisation de la parrallel toolbox de Matlab. Chaque processeur se voit attribuer un point à interpoler indépendamment et récupère les 3 composantes de la vitesse. La figure4.32(a)présente l’évolution du temps de calcul en fonction de la dimension d’une direction du maillage à nombre de points injectés fixé à 8000. En complément, la figure 4.32(b)représente l’évo-lution du temps de reconstruction en fonction du nombre de vecteurs injectés. Une discrétisation de 50 éléments par directions est fixée.

Naturellement dans les deux situations, l’augmentation du nombre de mailles ou de particules à interpoler a pour conséquence un accroissement du temps de calcul. Un calcul avec deux fois plus de particules implique un temps de calcul supérieur à 2 fois la durée initiale. Et doubler le nombre de mailles dans une direction, par exemple de 50 à 99, a pour conséquence de multiplier par plus de 4 le temps de calcul à nombre de processeurs fixe.

(a) Evolution du temps de reconstruction en fonction du nombre de maille dans une direction.

(b) Evolution du temps de reconstruction en fonction du nombre de particules vir-tuelles injectées.

Figure4.32 –Courbes permettant de mettre en relief l’évolution du temps de calcul pour la reconstruction du champ de vitesse en fonction soit, du nombre de mailles , figure4.32(a), soit en fonction du nombre de particules injectées, figure4.32(b).

L’utilisation des 48 cœurs et de la parallélisation rend donc accessible la reconstruction d’un champ de vitesses avec 50 mailles par direction et 5000 particules (2,5 s). Néanmoins, si une étude résolue en temps doit être réalisée, alors ce temps de calcul unitaire doit être multiplié par le nombre d’instants. Typiquement une étude sur 10 000 paires d’images générant 10 000 champs de vitesses instantanées nécessitera 7h de calcul et 75 Go de place mémoire. Critère de reconstruction

Un critère d’erreur doit être défini afin de pouvoir caractériser les quali-tés de reconstruction des différents interpolateurs. Une erreur métrique εrr est définie comme l’intégration de l’erreur moyenne entre les champs de vitesses références LES et les champs interpolés. La différence de chacune des compo-santes est ensuite intégrée autour du cylindre pour un certain rayon Rintet sur sa hauteur. ε2rr = 1 △z 1 2π Z zmax zmin Z 0 kULES− Uinterpk2dθdz (4.15)

avec

kULES− Uinterpk2 = (UxLES−Uxinterp)2+(UyLES−Uyinterp)2+(UzLES−Uzinterp)2 (4.16)

ULES et Uinterp correspondent respectivement aux données LES inter-polées sur le maillage final et aux valeurs interinter-polées à partir des vecteurs dispersés.

Cet indicateur se concentre plus précisément sur la qualité de reconstruction autour du barreau central. Les valeurs que fournira cet indicateur seront diffici-lement représentatives des différences absolues avec les champs LES. Toutefois, la comparaison des valeurs entre interpolateurs ainsi que les tendances permet-tront de statuer sur le choix du meilleur algorithme.

Influence du nombre de particules

Dans un premier temps, la quantité de particules introduite est balayée entre 4000 et 15000. Une concentration en particule/mm3 ne peut pas être calculée du fait d’une variation du volume localement en fonction de la positon entre les crayons. L’étude comparative projette les données sur un maillage à pas constant dans les 3 directions Dx=Dy=Dy=0,549 mm. Cela correspond à un maillage final de 51x50x50 mailles. La distance caractéristique est Lmin= 2.Dx.

⊳ Densité de particules

L’injection d’une quantité de particules dans le volume est une donnée qu’il faut traduire en terme de nombre de particules par sous domaine d’inter-polation Nv. Les distributions de Nv sont tracées dans la figure4.33pour 5000 et 11 000 particules injectées et avec ou sans conditions limites virtuelles. On note que pour 5000 particules injectées (figure 4.33(a)), une moyenne de 5 particules par sous domaine est obtenue et de l’ordre de 14 pour 11 000 parti-cules injectées.

L’ajout des conditions limites est nettement visible en proche paroi ou les va-leurs de Nv atteignent 25 particules à la place de 3 et 8 pour respectivement 5000 et 11 000 particules injectées.

Les résultats sont présentés pour des valeurs de 4 rayons autour du cy-lindre central (entre 5 et 6,5 mm). On rappelle que le diamètre du cycy-lindre central est de 9,5 mm.

⊳ Cas étudié

L’interpolation des données est présentée dans la figure 4.34 et le premier constat est la diminution constante de ε2

rr avec l’augmentation du nombre de particules injectées pour tous les interpolateurs. Une analyse plus fine de ces résultats permet de tirer d’autres conclusions :

(a) 5000 particules

(b) 11 000 particules

Figure4.33 – Nombre de vecteurs PTV pris en compte dans l’interpolation locale-ment - avec (gauche) et sans condition limite (droite) - 2 niveaux d’ ensemencelocale-ment. o Pour les rayons de 5 et 5,5 mm (figures4.34(a)et4.34(b)), les interpo-lateurs avec prise en compte des conditions limites, AGW vf CL et AGW np CL, proposent des niveaux d’erreur nettement supérieurs aux autres interpolateurs. Cette observation permet de conclure sur la non nécessité d’utiliser des conditions limites virtuelles et que celles-ci sont suffisamment prises en compte près des parois.

o A 6 mm (figure 4.34(c)), les valeurs des erreurs commises avec l’algo-rithme AGW vf CL sont du même ordre de grandeur que l’interpola-teur Matlab trilinéaire quelle que soit la densité de particules et pour enfin être plus efficace à partir d’un rayon de 6,5 mm (figure 4.34(d)) pour des niveaux de 4000 à 5000 particules. Pour cette même distance radiale, l’effet des conditions limites virtuelles est nul puisque les va-leurs de AGW vf CL et AGW vf SCL sont similaires. Néanmoins, ce constat est uniquement lié à la taille du sous domaine d’interpola-tion, définie comme valant 2×0,55 mm.