• Aucun résultat trouvé

Modélisation d’un composé chimique

Dans le document Recueil de Modèles Aléatoires (Page 91-95)

On considère l’énergie

x∈ E 7→ H(x) = card{i ∈ Λ : |xi| = 1}

qui compte le nombre de composés présents et la mesure de Gibbs associée

µβ= 1 e−βH(x), x∈ E, β ∈ R, Zβ= X x∈E e−βH(x).

Plus le réel β est petit (respectivement grand) et plus la loi µβ favorise les configurations denses (respectivement clairsemées).

Remarque 5.5 (Méthode du rejet). Voici une première méthode permettant de simuler de manière exacte µβ. On attribue indépendamment à chaque site

de Λ une valeurs −1, 0 ou +1 avec probabilités respectives e−β 1 + 2e−β, 1 1 + 2e−β, et e−β 1 + 2e−β.

La configuration obtenue est retenue si elle appartient à E. Dans le cas contraire, on répète la procédure. Cette méthode simple s’avère impraticable car E est tout petit dans {−1, 0, +1}Λ.

Construisons à présent un algorithme de type Metropolis-Hastings. Pour tous u ∈ [−1, 1], i ∈ Λ, soit

hi,u: E → {−1, 0, +1}Λ la fonction définie pour tous x ∈ E et j ∈ Λ par

(hi,u(x))j =          xj si j 6= i ; −1 si j = i et u < −1/(1 + 2e−β) ; 0 si j = i et −1/(1 + 2e−β) 6 u 6 1/(1 + 2e−β) ; +1 si j = i et u > 1/(1 + 2e−β). Enfin, on pose gi,u(x) = ( hi,u(x) si hi,u(x) ∈ E, x sinon.

Soient (Un)n>1 et (Vn)n>1 des suites indépendantes de variables aléatoires i.i.d. de loi uniforme sur [−1, 1] et sur Λ respectivement, et Gn:= gVn+1,Un+1.

On définit enfin la suite récurrente aléatoire (Xn)n>0 définie par

Xn+1= Gn(Xn).

Théorème 5.6. La suite (Xn)n∈N est une chaîne de Markov sur E, irréduc-

80 5 Mesures de Gibbs

Démonstration. La suite (Xn)n∈N est chaîne de Markov, écrite sous la forme

d’une suite récurrente aléatoire sur E fini. Toutes les configurations mènent à la configuration nulle (aucun composé présent) et réciproquement. La chaîne est donc irréductible et récurrente. Soit P le noyau de transition de (Xn)n∈N.

Si x et y sont deux éléments de E alors P(x, y) est strictement positif si x et y coïncident sur en tous les sites sauf un. On vérifie au cas par cas la relation de réversibilité. Supposons par exemple que x et y sont dans E et, pour i0∈ Λ,

xi0 = +1, yi0 = 0 et xi= yi pour i 6= i0.

Alors H(x) = H(y) + 1 et ainsi

µβ(x)P(x, y) = µβ(y)e−β 2 L2(1 + 2e−β) = µβ(y) 1 L2  1 −1 + 2e1 −β  = µβ(y)P(y, x). ⊓ ⊔ À partir de cette suite récurrente aléatoire, on peut également mettre en place un algorithme de simulation parfaite. Doit-on vraiment, dans l’algo- rithme de Propp-Wilson, suivre toutes les trajectoires paramétrées par les points de E vus comme des conditions initiales ? La propriété fondamentale ci-dessous va permettre de simplifier grandement ce problème : deux suffisent !

Lemme 5.7 (Monotonie). Pour tous u ∈ [−1, 1] et i ∈ Λ, la fonction x ∈ E7→ gi,u(x) est croissante pour l’ordre (partiel) sur E défini par

x 6 y ssi xi6yi pour tout i ∈ Λ.

De plus, la configuration, notée −1 (respectivement +1), constituée unique- ment de −1 (respectivement +1), est un plus petit (respectivement grand) élément pour cet ordre partiel.

À présent, la monotonie fournit l’encadrement

Gn(−1) 6 Gn(x) 6 Gn(+1),

indiquant que la coalescence partant de x quelconque a lieu avant la coa- lescence partant de ±1. D’un point de vue pratique, il suffit donc d’itérer l’algorithme jusqu’à l’instant de coalescence des trajectoires issues de ±1.

Enfin, le noyau P n’est pas contractant au sens du théorème 5.4 mais PL2

l’est puisque, pour tout x ∈ E, PL2(x, ·) charge la configuration nulle.

5.6 Pour aller plus loin

Pour une introduction à la physique statistique, qui est un point de contact très important entre physique et mathématique, et notamment à des exemples

5.6 Pour aller plus loin 81

explicites autour du modèle d’Ising, on pourra consulter le livre [Bax82] de Rodney Baxter. Des modèles inspirés de celui d’Ising sont utilisés en imagerie pour la modélisation du bruit spatial.

La partie sur les algorithmes de Metropolis-Hastings, du recuit simulé, et de Propp-Wilson est inspirée d’un livre précédent [BC07, Chapitre 4] et du cours de Thierry Bodineau à l’École Polytechnique [Bod14]. L’algorithme de Metropolis-Hastings a été introduit par Nicholas Metropolis, Arianna Rosen- bluth, Marshall Rosenbluth, Augusta Teller, et Edward Teller [MRR+53] puis

généralisé par Keith Hastings [Has70], et fait aujourd’hui partie des méthodes MCMC (Monte Carlo Markov Chains), qui consistent à utiliser des chaînes de Markov pour approcher des espérances par la méthode de Monte Carlo. Les méthodes MCMC sont au cœur des implémentations quantitatives de la statistique bayésienne abordée par exemple dans le livre de Christian Robert et George Casella [RC04]. Des versions à particules permettent d’améliorer les performances pratiques notamment lorsque la loi µ est multimodale.

En métallurgie, le procédé du recuit consiste à recuire le métal pour échap- per aux minima locaux d’énergie et obtenir une structure métallique de basse énergie, garantissant une meilleure solidité. L’algorithme du recuit simulé s’en inspire, ce qui explique son nom. Le recuit simulé converge théoriquement en temps infini lorsque la température suit un schéma de décroissance par paliers logarithmiques, mais ce résultat d’analyse asymptotique n’est pas vraiment pertinent en pratique. Une analyse de l’algorithme se trouve par exemple dans le livre de Étienne Pardoux [Par07] et dans le panorama de Olivier Ca- toni [Cat99]. Des versions améliorées du recuit simulé, comme l’algorithme de Wang-Landau introduit par Fugao Wang et David Landau [WL01], consti- tuent un sujet de recherche actuel. Les algorithmes de Metropolis-Hastings, du recuit simulé, et de Wang-Landau sont tous disponibles dans des cadres à temps et espace continus. L’algorithme de Propp-Wilson, proposé par James Propp et David Wilson [PW96, PW98], est présenté dans le livre de David Levin, Yuval Peres, et Elizabeth Wilmer [LPW09], et dans celui de Olle Hägg- ström [Häg02]. L’exemple étudié dans la section 5.5 est inspiré d’un texte de Christophe Sabot. D’autres algorithmes de simulation exacte de la loi inva- riante ont été développés, comme par exemple celui de James Fill [Fil98].

6

Agrégation limitée par diffusion interne

Mots-clés. Modèle de croissance ; ensembles aléatoires.

Outils. Chaîne de Markov ; martingale ; couplage ; inégalité de concentra-

tion.

Difficulté. *

Un fût de déchets radioactifs est enterré secrètement. Après quelques an- nées, il devient poreux et laisse échapper son contenu. Pour éviter une conta- mination excessive, on a disposé des pièges à particules qui capturent la pre- mière particule qui passe mais deviennent ensuite inertes (une nouvelle parti- cule passe sans être arrêtée). Le milieu est isotrope : une particule radioactive se déplace de la même manière dans toutes les directions tant qu’elle passe sur des pièges qui ont déjà été activés et est capturée par le premier piège libre qu’elle rencontre. On souhaite connaître la forme typique des zones qui seront contaminées par cette fuite. On introduit pour ce faire un modèle de croissance aléatoire, appelé agrégation limitée par diffusion interne, dont on étudie notamment les propriétés asymptotiques.

Dans le document Recueil de Modèles Aléatoires (Page 91-95)