• Aucun résultat trouvé

1.3 Mod´ elisation des condensats de Bose-Einstein ` a temp´ erature non nulle

1.3.2 R´ esultats du Chapitre 6

Objectifs du chapitre

Le but du Chapitre 6 est de proposer et d’´etudier des m´ethodes num´eriques permet- tant d’analyser un ´eventuel comportement m´etastable d’un condensat de Bose-Einstein en rotation, `a des temp´eratures non-nulles. Cette dynamique m´etastable est mod´elis´ee par l’´equation de Gross-Pitaevskii projet´ee stochastique (1.17). Sous l’effet de la rotation,

plusieurs minima locaux de l’´energie du syst`eme (donn´ee par (1.18)) peuvent exister, `a invariance par rotation et changement de phase pr`es. Ces minima sont charact´eris´es par diff´erents arrangements de vortex dont le nombre peut varier. La Figure 1.1 [Figure 6.3] repr´esente un exemple de trois minima locaux de l’´energie pour l’ensemble de param`etres num´eriques consid´er´e dans le Chapitre 6. Dans ce cas, la dynamique de la solution de

Figure 1.1 – Carr´e du module des minima locaux de l’´energie de Gross-Pitaevskii (1.18), pour l’exemple consid´er´e dans le Chapitre6.

l’ ´Equation (1.17) contient deux ´echelles temporelles distinctes : une ´echelle de fluctuations rapides autour des minima de l’´energie, et une ´echelle beaucoup plus lente o`u le syst`eme “saute” d’un minimum local `a un autre. C’est cette ´echelle de temps qui caract´erise le comportement m´etastable de la dynamique.

Dans ce chapitre, nous nous sommes int´eress´es `a la construction d’une m´ethode num´e- rique dont l’objectif est de calculer le temps moyen pass´e dans un minimum local, avant de “sauter” dans un autre minimum. Pour cela, il est n´ecessaire d’une part d’ˆetre ca- pable de r´esoudre la dynamique (1.17) pr´ecis´ement, et d’autre part de construire une m´ethode de Monte-Carlo adapt´ee `a la simulation de ces ´ev´enements rares de changement de configurations de vortex. La valeur ajout´ee de ce chapitre r´eside principalement dans l’exp´erimentation num´erique de m´ethodes de Monte-Carlo pour la simulation de dyna- miques m´etastables (initialement d´evelopp´ees dans le cadre de la dynamique mol´eculaire) dans le cadre de la condensation de Bose-Einstein. Ce dernier chapitre soul`eve de nom- breuses questions th´eoriques sur le comportement asymptotique de la dynamique dans la limite o`u la temp´erature tend vers 0, ainsi que sur les justifications rigoureuses des algorithmes et des approximations num´eriques utilis´ees.

Construction d’un sch´ema num´erique

Nous proposons dans le Chapitre 6 un sch´ema num´erique pour l’approximation de l’ ´Equation (1.17). Tout d’abord, il est `a noter que, de part la restriction de L2(Rd) au sous- espace vectoriel K, cette ´equation prend la forme d’une ´equation diff´erentielle stochastique (EDS) classique, et non plus d’une ´equation aux d´eriv´ees partielles stochastique (EDPS). Il n’y a donc pas de probl´ematique li´ee `a une discr´etisation en espace, mais seulement en temps. La difficult´e essentielle vient du fait que le coefficient c1 apparaissant dans

1.3. Mod´elisation des condensats de Bose-Einstein `a temp´erature non nulle 33

l’ ´Equation (1.17) est tr`es petit devant 1. Il est typiquement de l’ordre de 10−3∼ 10−5pour les exp´eriences men´ees en laboratoire. De ce fait, deux ´echelles temporelles se distinguent. D’une part la partie purement Hamiltonienne de la dynamique est donn´ee par,

dφt=−i∇EK(φt)) dt, (1.25)

alors que la partie correspondant `a une dynamique de Langevin r´eversible est donn´ee par,

dφt=−c1∇EK(φt)) dt + c1c3dBt. (1.26)

La partie Hamiltonienne est plus rapide (d’un facteur c−11 ) que la partie correspondant `a la dynamique de Langevin r´eversible. En pratique, cela implique qu’il sera n´ecessaire de r´esoudre la dynamique compl`ete (1.17) sur des temps longs pour que l’effet de la dynamique de Langevin (qui agit en quelque sorte comme une correction de l’´equation Hamiltonienne) soit significatif. Par ailleurs, nous savons construire des sch´emas adapt´es aux dynamiques Hamiltoniennes et d’autres adapt´es aux dynamiques de Langevin. Ces deux remarques justifient l’utilisation d’une m´ethode de splitting qui consiste `a r´esoudre alternativement, et avec des sch´emas adapt´es, ces deux dynamiques.

La discr´etisation de la dynamique de Langevin r´eversible (1.26) est effectu´ee `a l’aide d’un sch´ema explicite exponentiel, qui correspond `a une discr´etisation explicite d’une for- mulation mild de l’ ´Equation (1.26). Cette m´ethode, classique pour des EDPS parabo- liques, a deux avantages sur le sch´ema d’Euler-Maruyama. D’une part, il est en pratique plus stable que ce dernier (car le terme de d´erive est sur-lin´eaire), et d’autre part, comme la dimension de l’espace K peut devenir arbitrairement grande, il est naturel de se tour- ner vers une m´ethode adapt´ee `a la dimension infinie. Notons toutefois, qu’il ne serait pas possible de donner un sens classique `a l’ ´Equation (1.17) sans la restriction `a l’espace K (autrement dit dans le cas K = L2(Rd)).

La discr´etisation de la dynamique Hamiltonienne (1.25) repose sur une m´ethode de Gauss-Lawson symplectique d’ordre ´elev´e. Elle est tir´ee de [22], et elle est adapt´ee au cas de la dimension infinie pour la mˆeme raison que pr´ec´edemment. L’id´ee consiste `a effectuer un changement de variable tel que l’´equation d´ecrivant l’´evolution temporelle de cette nouvelle variable perde la raideur li´ee `a la dimension. C’est cette nouvelle ´equation qui est discr´etis´ee `a l’aide d’une m´ethode de Runge-Kutta implicite (et symm´etrique) d’ordre ´elev´e, qui rende le flot num´erique symplectique. Plus pr´ecis´ement, si l’on introduit S le semi-groupe associ´e `a l’op´erateur lin´eaire iA, o`u A est donn´e par (1.19), et que l’on introduit la variable u(t, x) d´efinie par,

u(t, x) = S(t, 0)−1φ(t, x),

o`u φ est la solution de l’ ´Equation (1.25). Alors, u est solution de l’´equation,

o`u N correspond `a la partie non-lin´eaire de l’´Equation (1.25). On v´erifie donc bien que l’op´erateur lin´eaire qui conf´erait sa raideur `a l’ ´Equation (1.25) n’apparaˆıt plus explicite- ment. Un r´esultat d’existence et de convergence de ce sch´ema implicite est donn´e par le Th´eor`eme 6.2(qui n’est autre que l’analogue du [22, Th´eor`eme 14]).

M´ethode de Monte-Carlo pour les dynamiques m´etastables

La seconde partie du Chapitre6est d´edi´ee `a la mise en oeuvre de m´ethodes num´eriques pour l’analyse des dynamiques m´etastables de la solution de l’ ´Equation (1.17). Nous sommes en particulier int´eress´es par l’estimation du temps moyen de sortie d’un ´etat m´etastable. Une m´ethode na¨ıve serait de simuler une trajectoire en temps long de ce pro- cessus stochastique, puis d’estimer les temps de sortie moyens par le biais d’une moyenne empirique des temps de sortie r´ealis´es. Quand la temp´erature du syst`eme s’approche de z´ero, cette m´ethode devient prohibitive en terme de temps de calcul.

Nous utilisons dans la suite une m´ethode de Monte-Carlo adapt´ee `a cette question dont le principe a ´et´e introduit dans [40]. Celle-ci repose essentiellement sur l’algorithme Adaptive Multilevel Splitting (AMS, [33, 39]) qui permet de construire un estimateur pour une probabilit´e que nous d´ecrivons formellement dans la suite. On s’int´eresse `a un processus stochastique X = (Xt)t≥0 `a valeur dans un ensemble E, suppos´e poss´eder une

dynamique m´etastable. Pour mettre en ´evidence le point initial de cette dynamique, nous notons Xx = (Xtx)t≥0 o`u l’exposant x correspond au point initial (X0x = x). On notera

´egalement Xν = (Xtν)t≥0 dans le cas o`u la condition initiale est une variable al´eatoire

distribu´ee suivant une mesure de probabilit´e ν. Nous introduisons deux ensembles disjoints A et B, qui sont cens´es correspondre `a deux sous-ensembles m´etastables inclus dans deux bassins d’attraction distincts. Nous consid´erons aussi xA un point n’appartenant pas `a

A∪ B. Il est cens´e ˆetre choisi dans le mˆeme bassin d’attraction que A et proche de cet ensemble. Dans ce contexte, il est alors plus probable que la dynamique XxA atteigne

A avant B, et l’´ev´enement correspondant au fait que l’ensemble B soit atteint avant A est un ´ev´enement rare. En notant τA(XxA) et τB(XxA) respectivement le premiers

temps d’atteinte de l’ensemble A et de l’ensemble B pour le processus XxA, on a donc

P(τB(XxA) < τA(XxA)) 1. C’est justement cette faible probabilit´e que permet d’estimer

efficacement, et sans biais, l’algorithme AMS. Dans notre cas, la dynamique ´etudi´ee est bien entendue donn´ee par l’´equation (1.17), et les ensembles A et B correspondent chacun `

a deux ensembles (m´etastables) contenant chacun un minimum local diff´erent de l’´energie. Plus pr´ecis´ement, ils sont choisis comme des composantes connexes d’ensembles de niveaux de l’´energie qui ne contiennent qu’un minimum local.

Le but de l’algorithme AMS est de construire un ensemble pond´er´e de trajectoires dont la mesure empirique pond´er´ee approche la loi des trajectoires initialis´ees en x, et arrˆet´ees en τA∧ τB. Il peut en ce sens ˆetre vu comme une m´ethode d’´echantillonnage

d’importance car il ´echantillonne surtout des trajectoires peu probables (qui seront donc faiblement pond´er´ees) qui sont arrˆet´ees en B avant d’ˆetre arrˆet´ees en A, et qui sont donc nos trajectoires d’int´erˆet. Ces derni`eres sont appel´ees trajectoires r´eactives. C’est cette

1.3. Mod´elisation des condensats de Bose-Einstein `a temp´erature non nulle 35

description fine de la “queue de la distribution” des trajectoires initialis´ees en x et arrˆet´ees en τA∧ τB, qui permet de pouvoir construire des estimateurs de P(τB(XxA) < τA(XxA))

de plus faible variance qu’un estimateur na¨ıf.

Cet algorithme est d´etaill´e dans le Chapitre 6. Il construit un ensemble de r´epliques par un processus de type s´election-mutation. L’id´ee consiste `a it´erer un processus o`u les trajectoires les plus proches de l’ensemble des trajectoires r´eactives sont dupliqu´ees et mut´ees. Ainsi, les trajectoires mutent au fur et `a mesure en des trajectoires de plus en plus proches des trajectoires r´eactives, jusqu’`a le devenir. L’algorithme s’arrˆete quand un nombre suffisant de r´epliques sont devenues r´eactives. La difficult´e principale de mise en oeuvre de cet algorithme vient de la mani`ere dont on caract´erise les trajectoires les plus proches de l’ensemble des trajectoires r´eactives. La s´election des “meilleures” trajectoires se fait `a l’aide d’une fonction appel´ee coordonn´ee de r´eaction et not´ee ξ, associant `a tout ´el´ement de l’espace d’´etat E un r´eel. C’est elle qui encode dans quelle mesure un point y de l’espace d’´etat a des chances d’´evoluer, par la dynamique Xy, en une trajec- toire r´eactive. Un exemple id´eal est de d´efinir ξ(x) = P(τB(Xx) < τA(Xx)). Cependant,

cette fonction n’est pas connue, et c’est mˆeme ce que l’on cherche `a calculer. On utilise ainsi en pratique une fonction arbitraire, mais cens´ee d´ecrire assez bien l’´evolution de la transition de A vers B. Le choix de cette fonction peut beaucoup influencer la variance de l’estimateur construit par l’algorithme AMS, et donc la performance de l’algorithme (voir les illustrations num´eriques de [33]). Dans notre cas d’application, nous sommes int´eress´es par la sortie d’un vortex du centre du condensat. En particulier, nous nous sommes int´eress´es au passage de 3 `a 2 vortex dans le condensat. Nous proposons d’utili- ser comme coordonn´ee de r´eaction la distance entre le troisi`eme vortex le plus proche du centre du condensat et le centre du condensat. L’int´erˆet premier de cette coordonn´ee de r´eaction est qu’elle permet de s´eparer les deux ´etats m´etastables en question. C’est-`a-dire que supx∈Aξ(x) < infx∈Bξ(x). Un deuxi`eme int´erˆet de cette coordonn´ee est qu’elle est

inchang´ee par un changement de phase uniforme, et par une rotation du condensat, qui sont deux transformations invariantes pour l’´energie. Elles ne devraient donc pas influer sur l’avancement de la r´eaction.

Le calcul du temps moyen de transition du bassin d’attraction de l’ensemble A `a celui de B, not´e TA→B est bas´e sur le fait que l’on peut d´efinir une constante α et une mesure

ν telles que,

TA→B= αP(τB(Xν) < τA(Xν))−1

o`u la constante α peut ˆetre estim´ee par une m´ethode de Monte-Carlo classique. En pratique la mesure ν est approch´ee par une mesure simulable ν0, et nous estimons alors P(τB(Xν

0

) < τA(Xν

0

)) `a l’aide d’une moyenne empirique d’estimateurs de type AMS initialis´es suivant la mesure ν0. La d´efinition de cette mesure est donn´ee au Paragraphe 6.4.3.

Nous pr´esentons dans le Chapitre 6 les estimations de TA→B pour diff´erentes valeurs

temp´eratures et diff´erentes intensit´es de la dissipation. Ce calcul a n´ecessit´e 30 jours de calcul sur 128 processeurs, et les r´esultats sont pr´esent´es en Figure 6.5.

Nous pr´ecisons que les param`etres num´eriques de cette exp´erience ont ´et´e choisis pour minimiser le temps de calcul qui demeure n´eanmoins tr`es important. Notamment, l’in- tensit´e de la dissipation est plus grande que les valeurs typiques d´eriv´ees th´eoriquement. Une des limitations de cette m´ethode est la variance importante des estimateurs AMS utilis´es. Cependant nous avons observ´e que celle-ci provient principalement de l’al´ea sur la condition initiale de ces estimateurs qui est ´echantillonn´ee suivant la loi ν (suivant ν0 en pratique). Autrement dit, la variable al´eatoire E [P(τB(Xν) < τA(Xν))|X0ν] poss`ede une

grande variance relativement `a son esp´erance. De plus, nous observons que la variance de cette variable al´eatoire d´epend fortement de l’intensit´e de la non-r´eversibilit´e. Ce r´esultat est pr´esent´e en Figure 6.6. On constate notamment dans notre cas qu’un peu de non- r´eversibilit´e permet de r´eduire la variance de l’estimateur de TA→B, mais que des valeurs

de c1 trop petites m`enent `a un accroissement de cette variance.

1.3.3 Perspectives

Dans le cadre du Chapitre 5, la question la plus naturelle qui se pose est de savoir s’il serait possible de se passer des sch´emas implicites utilis´es par les algorithmes qui y sont pr´esent´es. Une piste ´eventuelle serait de s’int´eresser `a une formulation similaire `a [75, ´

Equation (24)].

Une ouverture pertinente sur ce chapitre serait d’´etudier l’influence de la dimension sur les algorithmes d´ecrits dans ce chapitre. Par exemple, calculer la d´ecroissance des pas de temps associ´es aux deux ´etapes de l’algorithme GHMALA avec la croissance de la dimen- sion, `a probabilit´es moyennes d’acceptations fix´ees pourraient permettre de comprendre comment cet algorithme se comporte en grande dimension. Par exemple si le pas de temps associ´e `a l’´etape MALA d´ecroˆıt plus vite que le pas de temps associ´e `a l’´etape hybride, alors on pourrait esp´erer profiter d’autant plus de la r´eduction de variance asymptotique offerte dans le cas continu par la non-r´eversibilit´e.

Dans le cadre du Chapitre6, nous aimerions justifier, dans de futurs travaux, l’approxi- mation temporelle r´ealis´ee en s´eparant les dynamiques (1.25) et (1.26). Nous aimerions d´emontrer un r´esultat de convergence, uniforme en la constante c1, pour cette approxi-

mation en temps uniquement (c’est-`a-dire en mettant de cˆot´e l’erreur d’approximation num´erique des dynamiques (1.25) et (1.26)).

Par ailleurs, la question du biais introduit par l’approximation de la loi ν par une loi ν0 reste ouverte. Il pourrait aussi ˆetre int´eressant d’´etudier la possibilit´e d’´echantillonner de fa¸con non-biais´ee la v´eritable loi ν en ´echantillonnant `a la fois les trajectoires r´eactives qui vont de l’ensemble A vers l’ensemble B, et celles qui partent de B pour arriver dans A.

Chapitre 2

Physique de la condensation de

Bose-Einstein

L’objectif de ce chapitre est de pr´esenter une introduction simplif´ee au ph´enom`ene de la condensation de Bose-Einstein (en Paragraphe 2.1 et 2.2) ainsi qu’aux proc´ed´es exp´erimentaux de r´ealisation de ces syst`emes (en Paragraphe 2.3). Toutefois, le contenu math´ematique des chapitres suivants ne requiert pas la lecture de ce chapitre.

2.1

La physique de la condensation de Bose-Einstein

Documents relatifs