• Aucun résultat trouvé

Arbres aléatoires

Dans le document Recueil de Modèles Aléatoires (Page 76-83)

Une structure d’arbre très courante est celle d’arbre binaire : chaque som- met possède 0 ou 2 enfants, c’est-à-dire 1 ou 3 voisins si l’arbre est vu comme un graphe. On s’intéresse à des arbres enracinés : il y a donc un nombre impair de sommets. On s’intéresse à des arbres planaires : on numérote les sommets de gauche à droite pour des individus d’une même génération, en partant de la racine, numérotée 1 et figurée en bas, comme sur la figure 4.2. On note Tn l’ensemble des arbres numérotés de ce type possédant 2n + 1 sommets.

Il est possible de coder chaque élément de Tn par une trajectoire de la marche aléatoire simple. Plus précisément, étant donné un élément de Tn, soit

x(i) le nombre d’enfants du sommet i et u

i = x(i)− 1 pour 1 6 i 6 2n + 1. On pose s0= 0 et si+1 = si+ ui+1 pour tout 0 6 i 6 2n. La figure 4.2 donne

4.5 Arbres aléatoires 65

un exemple d’association. On peut établir par récurrence qu’on a toujours

s2n+1 = −1 et min(s1, . . . , s2n) > 0. Grâce à la convention de numérotation,

l’arbre se reconstruit aisément à partir du morceau de trajectoire (si)16i62n.

On vérifie que cette construction définit une bijection entre l’ensemble Tn et

1 2 4 5 3 n Sn 1 2 3 4 5 -1 0 1 2

Fig. 4.2.Élément de T2 et trajectoire de la marche aléatoire associé.

l’ensemble Pn des trajectoires de longueur 2n de la marche aléatoire simple sur Z, valant 0 au temps 0 et au temps 2n, et restant positives ou nulles entre ces deux temps. Il s’agit d’un cas particulier de la bijection de la preuve du théorème 3.17. Comme cette bijection est explicite et calculable, la simulation de la loi uniforme sur Tn se déduit de la simulation de la loi uniforme sur Pn, pour laquelle on peut procéder comme suit.

Théorème 4.7 (Algorithme de Arnold-Sleep). Soit s = (si)06i62nle chemin

aléatoire à valeurs dans Pn dont la loi est donnée par s0 = s2n = 0 et pour

tout 0 6 k 6 2n − 1,

P(sk+1− sk= −1 | s0, . . . , sk) = 1 − P(sk+1− sk = 1 | s0, . . . , sk) = sk(2n + k + sk+ 2)

2(2n − k)(sk+ 1)

.

Alors s suit la loi uniforme sur Pn, et donc l’arbre binaire associé suit la loi

uniforme sur Tn.

Démonstration. Construisons progressivement un chemin (si)16i62n de loi

uniforme sur Pn. Supposons que s0, . . . , s2n−ksont déjà construits. Le nombre

de manières de prolonger ce début de trajectoire en un élément de Pn ne dé- pend que de k et r = s2n−k, et nous le notons N(r, k). Le nombre de manières

de le faire en commençant par un incrément +1 vaut N(r + 1, k − 1), tandis que le nombre de manières de le faire en commençant par un incrément −1 vaut N(r − 1, k − 1). On a donc N(r, k) = N(r + 1, k − 1) + N(r − 1, k − 1), et

66 4 Permutations, partitions, et graphes

P(s2n−k+1= s2n−k− 1 | s0, . . . , s2n−k) =N (r− 1, k − 1)

N (r, k) où r = s2n−k.

Le nombre N(r, k) est également le nombre de chemins de la marche reliant (0, r) et (k, 0) en restant positifs ou nuls. On a forcément k > r. Chaque chemin de ce type comporte t > r incréments −1 et k − t = t − r incréments +1, d’où 2t = k + r, ce qui fait que k + r est pair. En utilisant les notations et résultats de la preuve du théorème du scrutin 2.6, il vient

N (r, k) = Pk+1,r+1+ = r + 1 k + 1  k + 1 t + 1  = r + 1 t + 1  k t  . Il en découle que P(s2n−k+1= s2n−k− 1 | s0, . . . , s2n−k) =r(k + r + 2) 2k(r + 1) où r = s2n−k. Enfin le changement de variable 2n−k → k fournit le résultat annoncé. Notons que si r = k alors P(s2n−k+1= s2n−k− 1 | s0, . . . , s2n−k) = 1. ⊓⊔

D’après le théorème 2.5, le cardinal de Pnet de Tnest le nombre de Catalan

Cn−1. Les ensembles Tnet Pn sont également en bijection avec l’ensemble des parenthésages constitués de n paires de parenthèses. Il suffit en effet de recoder la suite des incréments du chemin de la marche aléatoire par des parenthèses. Ainsi par exemple la suite d’incréments +1, +1, −1, −1 correspondant à la trajectoire (si)06i64de la figure 4.2 se traduit par le parenthésage (()). Cette

interprétation apparaît dans la preuve du théorème de Wigner 21.9.

4.6 Pour aller plus loin

Il arrive que la structure de l’ensemble d’intérêt ne fournisse pas d’al- gorithme séduisant de simulation de la loi uniforme, et que la méthode du rejet à partir d’un ensemble plus gros ne soit pas praticable. Dans ce cas, il est souvent possible d’utiliser des algorithmes markoviens comme celui de Metropolis-Hasting ou de Propp-Wilson, abordés dans le chapitre 5.

Une analyse probabiliste de la complexité de l’algorithme de tri rapide randomisé se trouve par exemple dans le livre de Rajeev Motwani et Prabhakar Raghavan [MR95]. Le livre monumental de Donald Knuth [Knu05] constitue une référence incontournable pour l’analyse des algorithmes et la simulation de la loi uniforme sur les ensembles classiques comme les permutations ou les partitions. C’est dans la première édition de ce livre datant des années 1960 que Knuth a popularisé l’algorithme de simulation de la loi uniforme sur les permutations, reprenant un article antérieur de Richard Durstenfeld [Dur64]. L’algorithme remonte en fait à Ronald Fisher et Frank Yates [FY48]. Il est implémenté en standard dans les logiciels de calcul. Cet algorithme

4.6 Pour aller plus loin 67

correspond exactement au processus des restaurants chinois du chapitre 14, et la loi uniforme sur Sn coïncide avec la loi d’Ewens de paramètre θ = 1.

Pour tout n > 1 fixé, la marche aléatoire sur Sn dont les pas sont i.i.d. de loi uniforme sur l’ensemble des transpositions, étudiée par Persi Diaconis et Mehrdad Shahshahani [DS81], converge vers la loi uniforme sur Snde manière abrupte après environ n log(n) étapes, comme pour celle du mélange de cartes du chapitre 2. Si σ ∈ Sn et τ = (i, j) est une transposition, alors la décompo- sition en cycles de στ s’obtient à partir de celle de σ en fusionnant les cycles de σ contenant i et j s’ils sont différents, ou bien en fissionnant le cycle de σ contenant i et j dans le cas contraire. La chaîne de Diaconis et Shahshahani, traduite sur Πn en considérant la partition des supports des cycles, est une chaîne de fragmentation-coalescence. Il est possible de concevoir son noyau de transition de la manière suivante : sachant que la chaîne est en P ∈ Πn, on tire au hasard uniformément et avec remise i et j dans {1, . . . , n}, puis on fusionne les blocs de P contenant i et j s’ils sont différents, ou bien on fissionne uniformément le bloc de P contenant i et j dans le cas contraire. Cette chaîne sur Πn est considérée dans un article de Persi Diaconis, Eddy Mayer-Wolf, Ofer Zeitouni, et Martin Zerner [DMWZZ04]. Plus généralement, au-delà des transpositions aléatoires, Nathanaël Berestycki, Oded Schramm, et Ofer Zeitouni ont établi dans [BSZ11] que pour tout n > k > 2, la marche aléatoire sur Sn dont les pas sont des k-cycles i.i.d. uniformes converge vers la loi uniforme sur Sn après environ (1/k)n log(n) étapes.

L’algorithme de Aart Stam de simulation de la loi uniforme sur les parti- tions se trouve dans [Sta83] et dans le livre de Knuth [Knu05, Volume 4A]. On prendra garde à ne pas confondre les partitions d’un ensemble fini avec la notion de partition d’entier, qui est reliée aux diagrammes de Alfred Young ou de Norman Ferrers. Le théorème de Paul Erdős et Tibor Gallai figure dans [EG60], et a été redémontré par plusieurs auteurs, dont Claude Berge [Ber76]. Une preuve courte et constructive se trouve par exemple dans un article de Amitabha Tripathi, Sushmita Venugopalan, et Douglas West [TVW10]. L’al- gorithme des configurations remonte à Béla Bollobás [Bol80], et a été raffiné et étendu notamment par Brendan McKay et Nicholas Wormald [MW90]. Il est abordé dans les cours de Charles Bordenave [Bor14a] et de Remco van der Hofstad [vdH14]. À ce sujet, soit Mn le multigraphe aléatoire du modèle des configurations de sommets {1, . . . , n} pour la suite de degrés dn,1, . . . , dn,n, et

pn,k = (1/n)Pni=11{dn,i=k} la proportion de sommets de degré k, et suppo-

sons qu’il existe une loi (pk)k>1 telle que limn→∞pn,k = pk, et telle que les deux premiers moments convergent :

µ = lim n→∞ 1 n n X i=1 dn,i= lim n→∞ ∞ X k=1 k n n X i=1 1{d n,i=k} = lim n→∞ ∞ X k=1 kpn,k = ∞ X k=1 kpk <∞ et

68 4 Permutations, partitions, et graphes ν = lim n→∞ n X i=1 dn,i(dn,i− 1) Pn j=1dn,j = 1 µ ∞ X k=1 k(k− 1)pk<∞,

alors on peut établir que la probabilité que Mn soit un graphe tend vers

e−1 2ν−14ν

2

quand n → ∞. Ainsi la méthode de simulation par rejet du théo- rème 4.6 du modèle des configurations reste raisonnable si n ≫ 1.

La structure d’arbre, bien que cas particulier de la structure de graphe, est très riche. On trouvera des panoramas dans les livres de Donald Knuth [Knu05, Volume 4A] et de Michael Drmota [Drm09]. L’algorithme de David Arnold et Ronan Sleep se trouve dans l’article [AS80], ainsi que dans l’article de survol de Jarmo Siltaneva et Erkki Mäkinen [SM02] sur les algorithmes de simulation d’arbres binaires aléatoires. La loi uniforme sur l’ensemble des arbres binaires plans Tn peut également être simulée grâce à un algorithme récursif séduisant dû à Jean-Luc Rémy [Ré85] : partant d’un élément de Tn−1,

on fabrique un élément de Tn en choisissant aléatoirement uniformément un sommet dans l’arbre, si c’est une feuille on lui attribue deux enfants qui seront donc des feuilles, sinon ce sommet est remplacé par un nouveau sommet dont un des enfants est une feuille et l’autre enfant est le sommet d’origine. Toujours à propos d’arbres aléatoires, on peut évoquer l’algorithme de David Wilson [Wil96] pour générer un arbre couvrant de loi uniforme, l’algorithme de Luc Devroye [Dev12] pour simuler un arbre de Galton-Watson conditionné à avoir une taille fixe, etc. On pourra consulter avec profit le livre de Russel Lyons et Yuval Peres [LP15] sur les probabilités sur les arbres et les réseaux.

5

Mesures de Gibbs

Mots-clés. Mesure de Gibbs ; algorithme de Metropolis-Hastings ; échan-

tillonneur de Gibbs ; algorithme du recuit simulé ; algorithme de Propp- Wilson.

Outils. Chaîne de Markov ; transformée de Laplace ; entropie de Boltz-

mann.

Difficulté. *

Ce chapitre est consacré à des algorithmes génériques de simulation de mesures de probabilité, grâce aux chaînes de Markov. Le contexte choisi est celui des mesures de probabilités discrètes finies. Dans tout le chapitre E désigne un ensemble fini, typiquement de très grand cardinal, comme par exemple un groupe symétrique. Les méthodes et concepts abordés dépassent largement ce cadre restrictif, qui a le mérite de nécessiter peu de technologie.

5.1 Mesures de Gibbs

Soit H : E → R une fonction appelée énergie ou hamiltonien. Pour tout

β ∈ R, la mesure de Gibbs µβ est la mesure de probabilité sur E donnée pour tout x ∈ E par µβ(x) = 1 e−βH(x), où Zβ= X y∈E e−βH(y).

La constante de normalisation Zβ est appelée fonction de partition. Quitte à accepter que H prenne la valeur +∞, toute mesure de probabilité µ sur E est une mesure de Gibbs avec β = 1 et H(x) = − log(µ(x)) pour tout x ∈ E, ce qui donne1 H(x) = +∞ si et seulement si µ(x) = 0.

70 5 Mesures de Gibbs

Lorsque β > 0, la probabilité µβ(x) est d’autant plus grande que l’énergie

H(x) est petite (par rapport aux autres valeurs de H), la mesure de probabilité µβ favorise donc les configurations de faible énergie, et ce d’autant plus que β est grand. Lorsque β = 0 on obtient la mesure de probabilité uniforme sur E.

Voici quelques exemples, parmi d’autres, de mesures de Gibbs :

— Modèle d’Ising. Dans ce modèle E = {−1, 1}Λoù ∅ 6= Λ ⊂ Zd. Chaque

x∈ E représente la configuration magnétique des atomes d’un morceau

de métal. Pour tout site i ∈ Λ dans le réseau, la valeur xi ∈ {−1, 1} est l’orientation magnétique de l’atome situé au site i, appelée parfois

spin. L’énergie de la configuration x ∈ E est de la forme

H(x) = J X |i−j|1=1 xixj+ h X i∈Λ xi

où |i − j|1 := |i1 − j1| + · · · + |id− jd|, où J est une constante de couplage, et où h modélise un champ magnétique extérieur ;

— Loi d’Ewens. Dans ce modèle E = Sn est le groupe symétrique, et l’énergie H(σ) = |σ| de la permutation σ ∈ E est donnée par le nombre de cycles |σ| de σ (théorème 14.3, β = − log(θ)) ;

— Graphes aléatoires. Dans ce modèle E est l’ensemble des graphes à n sommets, et l’énergie H(g) d’un graphe g ∈ E est donnée par le nombre d’arêtes dans g. Cela donne la loi du graphe aléatoire d’Erdős-Rényi (théorème 16.14, β = − log(p)−log(1−p)). On peut considérer d’autres énergies, comme par exemple le nombre de cycles du graphe, etc ; — Champ libre gaussien. Dans ce modèle E = RΛ avec ∅ 6= Λ ⊂ Zd, et

l’énergie H(x) du «champ» ou «interface» x ∈ E est donnée par

H(x) = X

|i−j|1=1

(xi− xj)2,

avec |i − j|1:= |i1−j1|+· · ·+|id−jd|, et par convention xi = 0 si i 6∈ Λ. Il s’agit d’un exemple où E est infini et continu, étudié notamment dans le chapitre 2 en liaison avec la marche aléatoire simple sur Zd; — Polymères dirigés. On pourra se reporter au chapitre 19.

Il se trouve que les mesures de Gibbs ont la propriété remarquable de maximiser l’entropie de Boltzmann à énergie moyenne fixée. Rappelons tout d’abord que si µ est une mesure de probabilité sur E, son entropie de Boltz-

mann notée Ent(µ) est définie par, avec la convention 0 log(0) = 0,

Ent(µ) = −X x∈E

µ(x) log(µ(x)).

Théorème 5.1 (Maximum d’entropie à énergie fixée). Soit H : E → R une fonction de minimum het de maximum h+, et soit m ∈ [h, h+], avec

m 6∈ {h, h+} si h6= h+. Soit M = {µ : Eµ(H) = m} l’ensemble des

mesures de probabilité sur E d’énergie moyenne m. Alors il existe β ∈ R tel que µβ∈ M, et Ent(µ) 6 Ent(µβ) pour tout µ ∈ M, avec égalité ssi µ = µβ.

Dans le document Recueil de Modèles Aléatoires (Page 76-83)