• Aucun résultat trouvé

2.3 Techniques de parall´ elisation

2.3.4 Supercalculateurs

Les supercalculateurs [1] (appel´es aussi clusters ou fermes de calcul) sont des machines de calculs de grande puissance qui mutualisent les ressources d’ordinateurs ind´ependants. Leur atoˆut majeur est de promouvoir et de permettre l’ex´ecution d’applications paral- l´elis´ees mˆeme si cela n’est pas une obligation. Ils sont donc incontournables pour les applications lourdes n´ecessitant un nombre important de processeurs pour ˆetre acc´el´e- r´ees. Ils peuvent contenir jusqu’`a plusieurs centaines de milliers de processeurs. Durant cette th`ese, nous avons eu acc`es `a deux supercalculateurs plus modestes, mais sans les- quels il aurait ´et´e impensable de simuler le propulseur, le calculateur du groupe GREPHE et celui du CALMIP.

Le calculateur du groupe GREPHE

Le supercalculateur du groupe GREPHE contient 16 nœuds de 2 processeurs quadri- cœur AMD OpteronTM cadenc´es `a 2.1 Ghz. Il totalise donc 128 cœurs. Un nœud peut ˆ

etre assimil´e `a un ordinateur ind´ependant. Ces nœuds communiquent entre eux par liaison Ethernet et contiennent chacun 8 Go de m´emoire vive. Pour le code, cette quantit´e de m´emoire est largement suffisante ´etant donn´e qu’il est parall´elis´e sur plusieurs nœuds et que son occupation m´emoire est alors r´epartie. Une utilisation type du code requiert 2 nœuds soit 16 processeurs. Simuler 1 µs prend environ 1 h ce qui est raisonnable. Nous avons jug´e plus utile de ne r´eserver que 2 nœuds par simulation afin d’en lancer plus. Pour conclure sur cette courte pr´esentation du cluster, nous ajoutons qu’il est aliment´e par deux onduleurs permettant de supporter 20 minutes sans alimentation, calculs lanc´es. Le syst`eme d’exploitation en place est la distribution Linux Suse.

Le calculateur du CALMIP

Le supercalculateur du CALMIP [3], Hyperion, est constitu´e d’un cluster principal de 368 nœuds de 2 processeurs quadri-cœurs NehalemTM EX cadenc´es `a 2,8 Ghz et 36 Go de RAM. Cela totalise 2944 cœurs. Il est de plus accompagn´e de deux nœuds SMP Altix UV, l’un de 48 processeurs Westmere EX octo-cores cadenc´es `a 2,67 Ghz, 3 To de

82 2 Un mod`ele du propulseur m´emoire RAM et l’autre de 16 processeurs Nehalem EX exa-cores cadenc´es `a 2,67 Ghz, 1 To de m´emoire RAM, respectivement. La connexion des nœuds entre eux se fait grˆace `

a un syst`eme InfiniBand, nettement plus rapide que l’architecture Ethernet. Etant donn´e qu’Hyperion s’adresse `a une communaut´e plus importante, il dispose d’un syst`eme de file d’attente PBS (Portable Batch System) lors du lancement des calculs. Son fonctionnement est plus transparent que sur le cluster du groupe GREPHE qui ne dispose pas d’interface de lancement. Enfin, dˆu `a des sp´ecifications techniques plus pouss´ees, 1µs est simul´ee en 40 minutes.

2.4

Conclusion

Dans ce chapitre descriptif, nous avons pr´esent´e les outils de simulation en notre possession : le mod`ele PIC implicite et le mod`ele PIC explicite. Dans un premier temps, nous nous sommes concentr´es sur la r´ealisation du mod`ele explicite dont le sch´ema de discr´etisation des trajectoires est plus facile `a mettre en œuvre et `a comprendre. Nous avons pr´esent´e outre le sch´ema de discr´etisation, l’interpolation des charges sur la grille et le calcul du champ ´electrique. A ce stade, nous avons introduit trois solveurs dont nous nous sommes servis pour r´esoudre l’´equation du champ : l’analyse spectrale, Pardiso et AGMG. Enfin, la m´ethode des collisions nulles pour la r´ealisation des collisions a ´et´e expos´ee ainsi que la description des neutres, reposant sur une m´ethode fluide.

La seconde partie de ce chapitre a concern´e le sch´ema implicite. Nous nous sommes concentr´es sur la m´ethode implicite directe, m´ethode impl´ement´ee dans le mod`ele. Nous avons d´eriv´e les ´equations qui constituent les 3 ´etapes d’un cycle de calcul : le prepushe, le endpushe et s’intercalant entre celles-ci : le calcul du champ ´electrique. Pour mettre en perspective ce sch´ema dans la litt´erature, nous avons pr´esent´e une autre m´ethode impli- cite : la m´ethode des moments. D’autres directions de recherche ont aussi ´et´e abord´ees comme l’am´elioration de la pr´ediction sur le champ ou l’amortissement ajustable.

Enfin pour clore ce chapitre, nous avons expos´e les techniques de parall´elisation uti- lis´ees dans le mod`ele et parl´e des supercalculateurs sur lesquels nous avons simul´e le moteur.

Maintenant que nous avons d´ecrit en d´etails nos outils de simulation, nous allons montrer des r´esultats sous diff´erentes conditions. Les deux prochains chapitres sont donc d´edi´es `a la pr´esentation et `a l’analyse des r´esultats.

Chapitre 3

Des ph´enom`enes fluctuants au sein

du propulseur

Sommaire

3.1 Introduction . . . 83 3.1.1 Conditions de d´emarrage . . . 84 3.2 Validation de la m´ethode de scaling . . . 85 3.2.1 Exploration du domaine de validit´e . . . 85 3.2.2 Comparaison entre le mod`ele implicite et le mod`ele explicite . 89 3.3 D´eroulement d’une d´echarge type : 170 G, 300 V . . . 91 3.3.1 Champ fluctuant azimutal haute fr´equence . . . 94 3.3.2 Onde de champ axial . . . 99 3.3.3 Champ fluctuant azimutal basse fr´equence . . . 102 3.4 Conclusion . . . 106

3.1

Introduction

Nous disposons de deux mod`eles PIC, un mod`ele comportant un sch´ema de discr´e- tisation des trajectoires implicite, valid´e par Jean-Claude Adam et Anne H´eron, et ce mˆeme mod`ele mais dot´e d’un sch´ema explicite. Un facteur de scaling y a de plus ´et´e im- pl´ement´e afin de soulager les contraintes sur le pas de temps et le pas d’espace, inh´erentes au sch´ema explicite. Dans un premier temps, nous allons simuler le fonctionnement du propulseur avec des constantes de scaling diff´erentes. Nous d´egagerons des tendances en fonction de ce facteur et isolerons celui qui nous semble le plus adapt´e pour d´ecrire la physique du propulseur. Ces r´esultats seront ensuite compar´es avec ceux obtenus avec des simulations implicites.

84 3 Des ph´enom`enes fluctuants au sein du propulseur Dans la seconde partie de ce chapitre, nous pr´esenterons les ph´enom`enes fluctuants qui apparaissent lors d’une d´echarge. Le mod`ele explicite sera utilis´e pour cette ´etude car il permet d’observer le d´eveloppement de fluctuations, non pr´esentes dans le mod`ele implicite. Nous parlerons avant tout du mode de respiration puis de l’instabilit´e de d´erive azimutale (haute fr´equence), toutes deux reproduites par les mod`eles mais qui pr´esentent n´eanmoins des diff´erences. Nous tenterons de prendre alors du recul sur le d´eveloppe- ment de l’instabilit´e haute fr´equence en rappelant les r´esultats obtenus par Alexandre Ducrocq [23] sur la relation de dispersion de cette onde, dot´ee maintenant du facteur de scaling. A la suite de cette instabilit´e, nous pr´esenterons un mode axial, l’instabilit´e de temps de transit et terminerons par un mode azimutal basse fr´equence.