3.2 M´ethode Monte Carlo
3.2.2 Algorithme de Metropolis Simulations Monte Carlo dans l’En-
3.2 M´ethode Monte Carlo Aeq = X i exp(−βEi(N, V )) Z(N, V, T ) Ai (3.38) o`u la somme s’effectue sur l’ensemble des ´etats microscopiques accessibles i du syst`eme.
La densit´e de probabilit´e des ´etats i, d’´energie Ei = E({rN, pN}), est :
ρ({rN, pN}) = exp(−βE({r
N, pN}))
Z(N, V, T ) (3.39) o`u {rN, pN} est l’ensemble des positions et des impulsions des N particules du syst`eme.
Puisqu’un ´etat microscopique du syst`eme correspond `a un point de l’espace des phases, cette valeur moyenne peut s’´ecrire comme une int´egrale multidimensionnelle sur cet espace (6N dimensions) : Aeq= Z · · · Z ρ({rN, pN})A({rN, pN})drNdpN (3.40) Ecrivons l’´energie du syst`eme comme la somme de l’´energie cin´etique et de l’´energie potentielle :
E({rN, pN}) = K({pN}) + E({rN}) (3.41) G´en´eralement, les propri´et´es physiques ne d´ependent pas explicitement des quantit´es de mouvement et l’on peut r´e´ecrire la valeur moyenne en s´eparant les int´egrales sur les positions des int´egrales sur les quantit´es cin´etiques :
Aeq= Z · · · Z ρ({rN})A({rN})drN (3.42) o`u ρ({rN}) = exp(−βU({r N})) Q(N, V, T ) avec Q(N, V, T ) = Z · · · Z exp(−βE({rN, pN}))drN (3.43) La fonction Q(N, V, T ), qui assure la normalisation de la densit´e de probabilit´e ρ({rN}),
est appel´ee int´egrale de configuration.
Dans la pratique, on ne sait pas calculer la fonction de partition, ni l’int´egrale de confi- guration du syst`eme car il faudrait pour cela pouvoir sonder tout l’espace des phases ;
la fonction de partition et l’int´egrale de configuration sont dites variables entropiques4.
Cette difficult´e fondamentale peut ˆetre contourn´ee en utilisant une m´ethode Monte Carlo avec ´echantillonage selon l’importance dans laquelle la moyenne de A est effectu´ee sur un ensemble d’´etats qui s’av`ereront ˆetre distribu´es selon ρ({rn}).
Pour construire cet ensemble d’´etats, on engendre une chaˆıne de Markov qui est une suite d’´etats dont chacun ne d´epend que du pr´ec´edent. On appelle πij la probabilit´e de
passer de l’´etat i `a l’´etat j. Plus pr´ecis´ement, πij est la probabilit´e que l’´el´ement de la
chaˆıne de Markov n + 1 soit l’´etat j, l’´el´ement n ´etant l’´etat i. L’ensemble des valeurs πij
sont les coefficients d’une matrice π de dimension M × M o`u M est le nombre d’´etats accessibles du syst`eme. Cette matrice π est appel´ee, Matrice de transition et doit avoir les propri´et´es suivantes :
– La matrice de transition est une matrice stochastique. X
j
πij = 1 (3.44)
Etant dans l’´etat i, la probabilit´e d’acc´eder `a un des autres ´etats j (´etat i compris) est ´egale `a 1. Cette propri´et´e assure qu’on ne sortira pas de la chaˆıne de Markov engendr´ee `a partir des ´etats accessibles du syst`eme.
– La chaˆıne de Markov est ergodique. X j ρiπij = X j ρjπji (3.45)
ρi ´etant la probabilit´e d’ˆetre dans l’´etat i. Le nombre de d´eplacements accept´es en
quittant l’´etat i doit ˆetre ´egal au nombre de d´eplacements conduisant `a l’´etat i `a partir de tous les autres ´etats j. Cette condition assure que les ´etats atteints par le syst`eme sont des ´etats stationnaires.
– Condition de micror´eversibilit´e ou de bilan d´etaill´e.
ρiπij = ρjπji (3.46)
A l’´equilibre, le nombre moyen de d´eplacements accept´es `a partir d’un quelconque ´etat i vers n’importe quel ´etat j est ´egal au nombre moyen de d´eplacements inverses. La probabilit´e πij de passer de l’´etat i `a l’´etat j est ´egale `a la probabilit´e αij de tenter
ce passage multipli´ee par la probabilit´e Pij d’accepter cette tentative.
3.2 M´ethode Monte Carlo
La matrice α, d´efinie par les coefficients αij, est appel´ee matrice de base de la chaˆıne
de Markov. La matrice α est choisie sym´etrique afin de ne pas favoriser un sens de d´eplacement. En utilisant cette propri´et´e, la condition de micror´eversibilit´e se r´e´ecrit :
ρiPij = ρjPji (3.48)
Cette condition de micror´eversibilit´e permet de d´efinir la distribution de probabilit´e Pij ind´ependamment de la fonction de partition du syst`eme Z(N, V, T ) :
Pij Pji = ρj ρi = exp(−βUj) exp(−βUi) = exp[−β(Uj− Ui )] (3.49) Il existe de nombreuses distributions qui satisfont cette condition. Le choix de Metro- polis et al. [6] fut le suivant :
Si ρj < ρi Pij = ρρji et Pji = 1 πij = αijρρji et πji = αji = αij
Si ρj ≥ ρi Pij = 1 et Pji = ρρji πij = αji = αij et πji = αjiρρij
(3.50)
Ce choix de distribution respecte bien les propri´et´es requises de la matrice de transition π. Dans la pratique, l’algorithme de Metropolis se pr´esente de la mani`ere suivante (figure 3.2) :
1. On fait une proposition de passage de l’´etat i `a l’ ´etat j (αij).
2. On calcule la variation d’´energie ∆Ui,j associ´ee `a ce passage.
– Si ∆Ui,j ≤ 0, on accepte toujours car Pi,j est ´egal `a 1.
– Si ∆Ui,j > 0, la tentative doit ˆetre accept´ee avec la probabilit´e :
Pi,j =
ρj
ρi = exp[−β(Uj− Ui
)]
On g´en`ere alors un nombre al´eatoire ξ dans l’intervalle [0, 1]. Si ξ ≤ Pi,jle passage
est accept´e, sinon le passage est refus´e.
Il reste maintenant `a pr´eciser la matrice de base de la chaˆıne de Markov α. Le pas- sage de la configuration {rN}
i `a la configuration {rN}i+1 est obtenu en effectuant un
d´eplacement au hasard d’une ou de toutes les particules5. Pour chaque particule, le
d´eplacement maximal est δr :
0
8 exp (- U ) 8ij0
1
toujours accepté accepté rejetéFig. 3.2 – Sch´ema de la probabilit´e d’acceptation dans l’algorithme de Metropolis d’un passage entre un ´etat i et un ´etat j. La variation d’´energie associ´ee est ∆Uij. D’apr´es [5]
xi+1 = xi+ (2ξx− 1)δr
yi+1= yi+ (2ξy − 1)δr
zi+1= zi+ (2ξz− 1)δr
(3.51) o`u ξx, ξy, ξz sont trois nombres al´eatoires compris entre 0 et 1.
Le choix de δr d´etermine la qualit´e de l’´echantillonage de l’espace des phases. Une valeur trop grande de δr conduit `a un ´echantillonage m´ediocre et interdit la localisation pr´ecise des minima d’´energie libre. En revanche, une valeur trop faible de δr conduit `a un ´echantillonage plus pr´ecis mais tr`es lent. En pratique δr est choisie “empiriquement” afin que le taux d’acceptation des configurations propos´ees soit de l’ordre de 50 %. Un crit`ere plus rigoureux consiste `a choisir δr telle que la variance de la grandeur dont on d´etermine la moyenne soit minimale [7].