Trou spectral d’un processus d’exclusion
يملعلا ثحبلاو لياعلا ميلعتلا ةرازو
BADJI MOKHTAR -ANNABA
UNIVERSITY
UNIVERSITE BADJI MOKHTAR
ANNABA
راتخم يجاب ةعماج
ةبانع
-Faculté des Sciences
Département de Mathématiques
Laboratoire LaPS
THESE
Présentée en vue de l’obtention du diplôme de
DOCTORAT EN MATHEMATIQUES
Option
: Probabilité et statistiquePar
Mlle TOUMI MANEL
Sous la direction de
Pr BOUTABIA HACENE
Devant le jury
PRESIDENT REMITA Med Riad Pr U.B.M. Annaba
RAPPORTEUR BOUTABIA Hacène Pr U.B.M. Annaba
EXAMINATRICE DJELLAB Natalia Pr U.B.M. Annaba
EXAMINATEUR BOUSSETILA Nadjib Pr Univ. Guelma
EXAMINATEUR ZEGHDOUDI Halim M.C.A U.B.M. Annaba
Table des matières
1 Gaps des processus de Markov 8
1.1 Généralité sur les Générateurs de Markov et leurs gaps . . . 9
1.1.1 Processus de Markov . . . 9
1.1.2 Cas des chaines de Markov à temps continu . . . 18
1.1.3 Réversibilité, stationnarité et gap . . . 21
1.2 Forme de Dirichlet . . . 25
1.3 Dynamiques des processus . . . 27
2 Quelques systèmes de particules en interaction 29 2.1 Processus d’exclusion simples (Hard Core Interaction) . . . 29
2.2 Processus à portée nulle (Zero Range Processes) . . . 33
2.3 Processus d’exclusion généralisés (Generalized Exclusion Processes) . 36 2.4 Système Attractif . . . 38
2.5 Processus d’exclusion d’un champ moyen à plusieurs espèces (mean …eld multi-speces exlusion process) . . . 39
3 Trou spectral des systèmes de particules 42 3.1 Cas d’un gaz multicoloré avec désordre . . . 42
3.1.1 Description du modèle . . . 42
3.1.2 Mesure canonique de Gibbs et potentiel chimique . . . 44
3.1.3 Représentations matricielles de v(f2) et v(f Pf) . . . 49
3.1.4 La valeur exacte trou spectral d’un gaz multicoloré . . . 54
3.2 Trou sepctral d’un champ moyen à plusieurs espèce . . . 58
3.2.1 Trou spectral . . . 64
Introduction
La physique statistique (où les systèmes de particules), est une partie intégrante de
la mécanique statistique, fut introduite au milieu du XIXe siècle, principalement par
Kelvin, Maxwell et Boltzmann. Cette première approche visait à proposer un modèle
simple de la matière à l’échelle atomique, et en particulier des collisions entre atomes
ou molécules, pour reproduire le comportement de certaines quantités à l’échelle
ma-croscopique. C’est à cette époque que l’interprétation de la pression comme mesure
de la quantité de mouvement des constituants d’un gaz a été formalisée.
La mécanique statistique fut formalisée en 1902 par Gibbs, son formalisme
per-mettant de généraliser et de justi…er a posteriori les principes de la thermodynamique
d’équilibre. Les premières extensions de la physique statistique, par rapport à la
mé-canique statistique, ont été l’introduction des propriétés électriques et magnétiques de
la matière. Une autre étape importante fut la modi…cation des formules statistiques,
entre les années 1920 et 1930, qui tient compte des e¤ets de l’indiscernabilité au
ni-veau quantique des particules (principe d’exclusion de Pauli). Cette modi…cation fut
e¤ectuée par Bose et Einstein pour les systèmes de particules de spin entier (bosons)
et par Fermi et Dirac pour les systèmes de particules de spin demi-entier (fermions).
Cependant, plus techniquement, la physique statistique se réfère à une classe de
processus stochastiques spatio-temporels, dans lequel le temps est continu, l’espace
d’un nombre discret d’états interprété comme le nombre ou le type de particules à ce
moment-instantané. La con…guration globale évolue selon un processus de Markov.
Les systèmes de particules se modélisent à l’aide de la limite hydrodynamique
qui est un moyen d’étudier le comportement macroscopique d’un système constitué
d’un grand nombre d’objets microscopiques. L’idée est que, sous une certaine
renor-malisation en espace et en temps, on observera un comportement "moyen", sans les
‡uctuations qui apparaissent à l’échelle microscopique, qui sera donné par la solution
d’une équation (ou une famille d’équations) aux dérivées partielles non linéaires. La
première preuve du comportement hydrodynamique des systèmes de particules
asy-métriques en interaction a été donnée par Rost (1981). Il a prouvé la conservation de
l’équilibre local pour un processus d’exclusion simple (particules sauts seulement à la
droite), à partir de la con…guration avec tous les sites à la gauche de l’origine occupée
et tous les autres vides. Ce résultat a été prolongé par Angel et Kipnis (1984) pour
un processus asymétrique à porté nulle, puis généralisé par les travaux de Benassi et
Fouque (1987et 1988), Andjel et Vares (1987). . . etc.
L’objectif principal de cette thèse est de donner la valeur exacte du trou spectral,
appelé aussi spectral gap, pour un processus d’exclusion d’un champ moyen à
multi-espèces, dans le cas où le taux de probabilité de saut d’un site à un autre est di¤érent
de 1. En e¤et, le trou spectral joue un rôle important dans l’étude du comportement
hydrodynamique, en ce sens que le trou spectral représente la vitesse de convergence
Une des applications fréquente de trou spectral porte sur les méthodes de
Monte-Carlo par chaines de Markov (méthodes MCMC) qui sont introduites par Metropolis
et al. [69] (1953). Ces derniéres années sont apparues, par exemple en analyse d’image
[4, 39, 40,42], en statistique bayésienne [38], en optimisation stochastique (recuit
si-mulé) [3,55] et en mécanique statistique [62,87].
Un autre sujet important est celui des transitions de phase en physique statistique.
Considérons en particulier le modéle d’Ising sans champ magnétique externe dont le
générateur T est fonction de la température T . Le systéme est L2 exponentiellement
érgodique c.à.d. gap( T) > 0; si T est supérieure a la température critique Tc. Par
contre, la transition de phase a lieu si T est inférieure a Tc , dans ce cas là, gap( T) = 0
. Ainsi, l’étude du gap fournit une description de la transition de phase.
Plusieurs travaux ont été consacrés à l’étude de la vitesse de la convergence vers
l’état d’équilibre de la dynamique stochastique noté . Parmi les outils puissants
d’analyse de la convergence vers l’équilibre se trouvent les inégalités de Poincaré
(nommée aussi inégalité de spectral gap) et logarithme Sobolev. Pour notre part,
nous nous limiterons à l’étude du trou spectral (spectral gap). Ainsi, il est nécessaire
d’avoir des estimations sur le trou spectral du générateur de Markov ou de le calculer
si possible.
Les premiers résultats sur des estimations précises pour le trou spectral et
l’inéga-lité de Sobolev logarithmique ont été établis par Lu et Yau [64] et par Yau [93,94] qui
étendirent à des systèmes non bornés de spins l’estimation de trou spectral, tandis
que Yau et Landim [95] démontrèrent les inégalités de Poincaré et logarithm Sobolev
pour les processus de Ginzburg-Landau. L’estimation du trou spectral a été
éten-due par Caputo dans [7] pour des perturbations bornées de potentiels strictement
convexes et revue par Chafai [9] avec une approche di¤érente. Cancrini et Martinelli
donnèrent une autre approche de la méthode de martingale précitée. Dans le contexte
des systèmes possédant une (ou des) loi (lois) de conservation, comme cela est le cas
dans notre travail, Quastel [76] démontre une estimation sur le trou spectral pour
un processus d’exclusion symétrique en utilisant la méthode de martingale. Caputo,
dans [6] présente une méthode générale a…n d’obtenir des inégalités de Poincaré pour
des dynamiques conservatives ( à l’image de la dynamique de Kawasaki) et en
dé-duit une estimation précise pour le trou spectral d’un processus d’exclusion ; entre
autres, Caputo a utilisé cette méthode générale pour prouver aussi bien l’inégalité de
Poincaré pour un système désordonné de gaz monocoloré dans l’espace produit avec
une ou plusieurs lois de conservation, que pour un processus d’exclusion simple et un
processus de Ginzburg-Landau.
Par la suite Dermoune et Heinrich [23,24] ont développé l’idée précédente pour
l’étude de la limite hydrodynamique d’un processus d’exclusion simple d’un système
désordonné de gaz coloré semblable au modèle originel de Faggionnato et Martinelli
[30]. Plus tard, dans [25] Dermoune et Heinrich ont considéré le processus d’exclusion
Dans Capouto[7] a trouvé une stratégie générale permettant de donner des estimations
sur le trou spectral. Ceci a ouvert la voie à A.Dermoune, P. Heinrich pour estimer le
trou spectral en se basant sur les formes matricielles de la dynamique considérée et
de la variance. Cette technique a permis à H.Zeghdoudi et H.Boutabia de trouver la
valeur exacte du trou spectral en passant par le calcul explicite des mesures canoniques
dans le cas d’un processus d’exclusion décrit par un système de gaz bi-coloré, où le
taux de probabilité du saut d’un site à un autre est égal à 1 . Plus récemment,
Nagahata et Sasada ont considéré les cas homogène et non homogène des processus
d’exclusion en modi…ant les hypothèses sur les résultats principaux et avec des taux
de transition plus généraux pour achever des estimations de trou spectral de processus
à multi-espèces. Ici, la plus part de ces travaux portes sur l’étude de l’estimation du
trou spectral
La thèse est rédigée sous forme de trois chapitres consécutifs, dont voici leurs
descriptions.
Ainsi, dans le premier chapitre nous rappelons certaines dé…nitions et certains
résultats qu’on utilisera par la suite, à savoir les notions de processus et chaînes de
Markov, semi-groupes, mesures invariantes, mesures réversibles. On ne s’intéresse ici
qu’aux processus de Markov irréductibles et réversibles, dont les valeurs propres sont
réelles et négatives ou nulles. Le gap du générateur qui mesure en quelque sorte la
vitesse de convergence du processus est la valeur absolue de la valeur propre la plus
Dans le deuxième chapitre, on introduit les systèmes de particules en interaction,
en présentant leurs principales caractéristiques. On se réfère aux ouvrages de Liggett
(1985) et Claude Kipnis, Claudio Landim (1999) pour les preuves et les extensions
des résultats présentés.
En…n, dans le dernier chapitre, qui constitue l’essentiel de la thèse, en inspirant du
travail original de Dermoune et Heinrich [23,24], en adaptant certains résultats, ainsi
que du travail de Zeghdoudi et Boutabia[99], on a d’une part explicité les mesures
canoniques d’un système de particules à multi-espèces, puis d’autre part montré que le
trou spectral correspond bien à l’inverse de la plus grand valeur propre d’une certaine
matrice déterministe et a trouvé la valeur exacte du trou spectral.
Chapitre 1
Gaps des processus de Markov
On consacre ce chapitre à introduire les motivations, le contexte et les
connais-sances de base de ce travail. Notre objectif principal est d’étudier la plus petite valeur
propre (trou spectral ou spectral gap) des processus de Markov. Les notions et
pro-positions concernées sont rappelées à la première partie. La deuxième partie consiste
à présenter un outil de calcule de trou spectral. La dynamique de processus est
1.1
Généralité sur les Générateurs de Markov et
leurs gaps
1.1.1
Processus de Markov
Par dé…nition même des processus de Markov, la dynamique d’un tel processus
après un instant t connaissant sa position à l’instant t est parfaitement déterminée.
Pour décrire un processus donné, il su¢ t donc de décrire la loi du processus issu
d’un point donné à un instant donné et en particulier il faut pourvoir décrire la loi au
temps t sachant que le processus était en x au temps s. Pour cela, nous introduisons la
notions de noyau de transition (ou probabilité de transition) qui est tout simplement
une famille de mesures de probabilité dépendant mesurablement d’un paramètre.
Dé…nition 1.1 Soit (E; ) un espace mesurable. Un noyau N sur E est une
appli-cation de E dans R+[ f+1g tel que :
i. pour tout x 2 E; l’application A 7! N (x; A) est une mesure postive sur ;
ii. pour tout A 2 ; l‘application x 7! N (x; A) est mesurable.
Un noyau est appelé probabilité de transition (ou noyau de transition) si
(x; E) = 1 pour tout x2 E: Si f 2 , c’est-à-dire que f une application de (E; )
dans (R+; B) mesurable, alors on dé…nit la fonction N f sur E par :
N f (x) = Z
E
La fonction N f est + mesurable, où + désigne mesurable postif. De plus,si M
et N sont denx noyanx alors M N dé…nit par :
M N = Z
E
M (x; dy) N (y; A) est encore un noyau:
La probabilité de transition induit un mouvement aléatoire dans E, décrit de la
façon suivante. Au temps initial, la particule est en x, la position x1 au temps 1 sera
choisie selon la mesure de probabilité (x; :), la position x2 au temps 2 selon la mesure
de probabilité (x1; :), etc. Le processus ainsi obtenu est appelé chaîne de Markov (le
temps discret) homogène (la transition ne dépend pas du temps). Un processus de
Markov est l’analogue en temps continu.
Supposons que le processus X soit tel que pour tous s < t; il existe une probabilité
de transition Ps;t telle que :
P(Xt2 A j (Xu; u s)) = Ps;t(Xs; A): p.s.
Alors, pour toute fonction f 2 +, E(f (Xt) j (Xu; u s)) = Ps;tf (Xs). Soient
s < t < u; alors Ps;v(Xs; A) = P(Xv 2 A j (Xu; u s)) = E(E(1fxu2Ag j (Xt; u t)j (Xu; u s)) = E(Pt;v(Xt; A)j (Xu; u s)) = Z
Ps;t(Xs; dy)Ps;v(y; A):
Dé…nition 1.2 Une fonction de transition (en abrégé f:t:) sur (E; ) est une famille
(Ps;t)0 s<t de transitions de probabilité sur (E; ) telle que pour tous s < t < u; on
ait
Z
E
Ps;t(x; dy)Pt;u(y; A) = Ps;u(x; A)
pour tous x 2 E et A 2 :
Cette relation est appelé équation de Chapman-Kolmogorov, La f:t: est dite
ho-mogène si Ps;t ne dépend de s et t que par la di¤érence t s. Dans ce cas, on note
Pt pour P0;t et l’équation de Chapman-Kolmogorov s’écrit
Pt+s(x; A) =
Z
Ps(x; dy)Pt(y; A)
pour tous s; t 0. On dit que (Pt)t 0 est un semi-groupe.
Dé…nition 1.3 Soit ( ; F; (Ft); P) un espace de probabilité …ltré. Un processus adapté
X est un processus de Markov pour la …ltration (Ft), de fonction de transition Ps;t
si, pour toute fonction f 2 + et s < t;
E(f (Xt)j Fs) = Ps;tf (Xs) P p.s.
Le processus est dit homogène si la f:t: est homogène et la formule précédente s’écrit
alors E (f (Xt)j Fs) = Ps tf (Xs) P p.s.
Exemple 1.4 Le mouvement brownien sur Rd est un processus de Markov homogéne
de f:t: Ptf (x) = Z f (y) 1 (2 t)d=2exp jx yj2 2t ! dy:
La première remarque d’importance qu’il convient de faire est la suivante. La
dé…nition du processus de Markov prescrit la loi au temps t connaissant la position
au temps s < t: Il convient de se demander si, pour toute fonction de transition, il
existe un processus de Markov associé et si oui, s’il est unique. En d’autres termes,
en quoi la description de la dynamique du temps s au temps t caractérise-t-elle toute
la dynamique du processus. On remarque tout d’abord que les lois cylindriques sont
entièrement déterminées par la propriété de conditionnement successif.
Générateur in…nitésimal
Dans tout la suit on considère que f.t. et les processus homogènes et C00(E)
l’espace de fonction continues sur E qui tend vers 0 à l’in…ni.
Dé…nition 1.5 On appelle générateur in…nitésimal d’un semi groupe (Pt)t 0 sur E
l’opérateur non borné (L; D(L)) tel que :
D(L) = f 2 C00(E) tq lim t!0 Ptf f t existe et par Lf = lim t!0 1 t(Ptf f )
La dé…nition des processus de Markov assure que pour toute fonction f borélienne et
t; h > 0;
Donc, si de plus f 2 D(L), alors
E(f (Xt+h) f (Xt)j Ft) = hLf (Xt) + o(h):
Ainsi L décrit l’évolution in…nitésimale du processus sur un petit intervalle de temps.
Étudions à présent quelques propriétés remarquables du générateur in…nitésimal.
Proposition 1.6 Si f 2 D(L) alors,
i. Ptf 2 D(L) pour tout t ;
ii. La fonction t 7! Ptf est fortement dérivable dans C00 et pour tout
t 0; d
dtPtf = LPtf = PtLf ; iii. Pour tout t > 0,
Ptf f =
Z t 0
LPsf:
Démonstration.
Soit t > 0: La propriété de semi-groupe assure que :
lim
s!0(PsPtf Ptf ) = lims!0Pt
1
s(Psf f ) = PtLf;
ce qui prouve i et la relation de commutation LPtf = PtLf: De plus, t 7! Ptf admet
une dérivée à droite égale à PtLf: Considérons alors la fonction
t 7! Z t
0
Elle est dérivable et sa dérivée vaut PtLf: Comme la di¤érence de deux fonctions qui
ont la même dérivée à droite est nécessairement une constante, il existe g telle que :
Ptf =
Z t 0
PsLf ds + g
ce qui achève la preuve du point ii et en faisant t = 0, on obtient que g = f; ce qui
prouve iii.
Mesures invariantes, mesures réversibles
Dé…nition 1.7 Une mesure sur E est dite invariante (ou stationnaire) pour le
semi groupe (Pt)t 0, si pour tout t 0, et toute fonction f 2 E = Rd
Z
Ptf d =
Z f d ;
ou de maniére équivalente, si pour toute fonction f de Rd
dans R : Z
Lf d = 0:
Elle est dite réversible si, pour tout t 0 et toutes fonctions f et g de Rd
dans R : Z
gPtf d =
Z
f Ptgd ;
ou de manière équivalente, si pour toute fonction f de Rd
dans R : Z
gLf d = Z
f Lgd ;
c’est à dire que les opérateurs Pt (ou de manière équivalente l’opérateur L) sont
Proposition 1.8 Pour tout fonction f de Rd dans R à dérivées à croissance lente la mesure gaussienne standard est invariante.
Démonstration.
Considérons le processus d’Ornstein Uhlenbeck (Xt)t 0 dé…ni comme la solution de
l’équation di¤érentielle stochastique suivante :
dXt=
p
2dBt Xtdt;
la solution Xt estdonnée par :
Xt= xe t+ p 2 Z t 0 e (t s)dBs
Xt est de loi normale d’espérence xe t et de variance 2t = 1 e 2t. Le semi groupe
d’Ornstein Uhlenbeck sur R est la famille (Nt)t 0d’opérateur agissant sur les fonctions
f de Rd par :
Ntf (x) =
Z
R
f (xe t+p1 e 2ty) (dy)
où est la mesure gaussienne standard sur R: De la dé…nition de L on a :
Lf (x) = lim
t !0
1
t(Ntf f (x)):
La formule de Taylor à l’ordre 2 avec reste borné au voisinage de x assure que :
f (x + h) = f (x) + hf0(x) + h
2
2 f
00
Remarquons dans un premier temps que pour h = (e t 1)x + ty, on a R h (dy) = (e t 1)x; R h2 (dy) = (e t 1)2x2+ 2 t; et R jhj3 (dy) = O(t3=2): Finalement on obtient : Ntf (x) = f (x) + (e t 1)xf 0 (x) + 1 2((e t 1)2x2+ 2t)f00(x) + O(t3=2):
On a donc la limite annoncée :
lim t !0 1 t(Ntf f (x)) = f 00 (x) xf0(x)
pour tout fonction f de Rd
dans R à dérivées à croissance lente, on calculeR Lf d (x) Z Lf d (x) = Z R (f00(x) x:f0(x)):e (x2=2) p 2 dx = p1 2 Z R f00(x):e (x2=2)dx p1 2 Z R x:f0(x):e (x2=2)dx
on intégre par partie le 2iememembre :
du = x:e (x2=2) dx =) u = e (x2=2) v = f0(x) =) v0 = f00(x) Z R x:f0(x):e (x2=2)dx = e (x2=2):f0(x)+1 1 + Z R f00(x):e (x2=2)dx
f est à dérivées à croissance lente c’est à dire f0 P, où P est un polynôme, alors
Dé…nition 1.9 On appelle opérateur carré du champ la forme bilinéaire symétrique
suivante pour f et g dans Rd :
(f; g) = 1
2(L(f g) f Lg gLf ):
Nous noterons (f ) pour (f; f ):
Proposition 1.10 Soit L le générateur in…nitisimal d’un semi groupe (Pt)t 0 de
mesure invariante : Pour toute fonction f 2 Rd :
1. (f ) 0;
2. R (f )d = R f Lf d : Démonstration.
Comme Pt préserve la positivité, pour toute fonction f 2 Rd, pour tout t 0 et tout
a2 R;
0 Pt((f + a)2) = Pt(f2) 2aPtf + a2:
Le discriminant du trinôme du membre de droite est donc négatif, ce qui implique que
Pt(f2) (Ptf )2: En…n, l’opérateur carré du champ peut aussi s’écrire de la maniére
suivante : (f ) = lim 1 2t(Ptf ) (Ptf ) 2 ) 0: t !0
La propriété (2) découle directement de la propriété d’invariance de et de la
dé…ni-tion de c’est à dire : Z (f )d = 1 2 Z (L(f2) f Lf f Lf )d = 1 2 Z (L(f2) 2f Lf )d = 1 2 Z L(f2)d Z f Lf d
comme est invariante donc : Z L(f2)d = 0; on remplaçe et on obtient : Z (f )d = Z f Lf d :
1.1.2
Cas des chaines de Markov à temps continu
Dans tout ce paragraphe, E désigne un ensemble …ni de cardinal d et (Xt)t 0 un
processus de Markov dé…ni sur ( ; F; P ) à valeurs dans E. Il est aisé de voir que X est
nécessairement un processus de Feller : puisque E est …ni, la convergence uniforme et
la convergence simple sont équivalentes. On peut donc supposer que les trajectoires
de X sont càdlàg (continues à droite avec limites à gauche). Plus précisément, pour
tout ! 2
(ii) 90 < T1(!) < ::: < Tn(!) < :::tels que (Tn)nn’ait pas de point d’accumulation
et sur chaque intervalle [T i; T i + 1[, X soit constant.
Soit H l’espace vectoriel des fonctions de E dans R (sa dimension est égale à d).
A partir du processus X on dé…nit, pour tout t 0, l’opérateur Pt de H dans H par
Ptf (x) = E(f (Xt)jX0 = x)
Remarquons que Pt s’identi…e à une matrice de taille d d que l’on notera
(Pt(x; y))x;y2E. La matrice Pt est markovienne, c’est-à-dire que
8 > > < > > : Pt(x; y) 0 pour tous x; y 2 E P y2E P t(x; y) = 1 et pour tout x 2 E:
On notera I la matrice identité. On munira l’ensemble des matrices de taille d d
de la norme kMkdef= sup x2E X y2E jM(x; y)j:
Cette norme est multiplicative (la norme du produitM N est majorée par le produit
des normes de M et N ) et Pt est de norme 1 pour tout t 0.
Caractérisation du générateur in…nitésimal
On va montrer à présent que le générateur in…nitésimal d’un processus de Markov
à temps continu sur un espace d’état …ni s’identi…e à une matrice dont les sommes
des lignes sont nulles et les coe¢ cients hors-diagonaux sont positifs.
(i)8x 6= y; Axy 0;
(ii)8x 2 E; P
y2E
Ax;y = 0
Proposition 1.12 Soit X un processus de Markov sur E. Il existe A 2 A tel que
pour tout t 0, Pt= etA def= 1 X k=0 tn n!A n
La matrice A est le générateur in…nitésimal du semi-groupe (Pt), c’est-à-dire que
A(x; y) = lim
t!0
Pt(x; y) 1fx=yg
t :
Le générateur in…nitésimal d’un processus de Markov sur E est nécessairement un
élément de A, il reste à remarquer qu’un élément de A engendre un semigroupe de
Markov.
Proposition 1.13 . Soit A 2 A. On lui associe les matrices Pt := etA pour t 0.
Alors Pt est markovienne et (Pt)t est un semi-groupe de Feller.
Premier instant de saut
Soit T = fs; Xs 6= X0g le premier instant de saut de la chaine.
Proposition 1.14 . Il existe (x) 2 [0; +1[ tel que, pour tout t 0,
Px(T > t) = e (x)t
Remarque 1.15 . La proposition assure que si la chaine est issue de x alors elle y
reste (si (x) = 0) ou elle quitte x apr‘es un temps exponentiel de paramétre (x) > 0.
Dé…nition 1.16 Le premier instant de saut est dé…ni par
T1 = inffs > 0; Xs 6= X0g:
Les temps de saut suivants sont dé…nis par récurrence :
Tk+1 = inffs > Tk; Xs6= XTkg = Tk+ TkT = T + T(Tk):
1.1.3
Réversibilité, stationnarité et gap
Fixons d’abord quelques notations. Soit M = (mij) une matrice quelconque. Sa
transposée sera notée MT. On dit que M est positive, si tous les m
ij sont positifs ou
nuls et il existe au moins un mij strictement positif. Et M est dite strictement positive,
si tous les mij sont strictement positifs. Notons I la matrice identité dont l’ordre
pourra changer selon le cas. Un vecteur v = (v(i))1 i ndésignera un vecteur ligne
d’ordre n : On note jEj le cardinal d’un ensemble E quelconque. Pour les dé…nitions,
propositions evoquées dans cette partie, on donne [17; 50; 51; 53; 78] comme références
de base. On s’intéresse à une famille de variables aléatoiresfX(t); t 0g qui prennent
leurs valeurs dans l’ensemble …ni E = fi; j; :::g appelé l’espace d’états. On se restreint
au cas où fX(t)g est un processus de Markov.avec de probabiliés de transition :
Soit D la matrice diagonale
D = diag p (i)
et D 1 son inverse. Dire que L est -réversible équivaut à dire que la matrice DLD 1 est symétrique. Cela entraîne alors que L , comme DLD 1 est diagonalisable, ses
valeurs propres etant toutes réelles.
Munissons l’ensemble des fonctions de E dans R du produit scalaire
8f; g 2 RE;hf; gi =X
i2E
f (i) g (i) (i) :
Le gènèrateur est -rèversible si et seulement si il est auto-adjoint dans L2(E; )
muni de ce produit scalaire. Pour tout vecteur f de RE; nous noterons D(f ) la forme Dirichlet associée à L en f .
D(f ) =h Lf; fi = 1 2
X
i;j2E
[f (i) f (j)]2 (i) i;j:
Le spectre d’un générateur de Markov irréductible et réversible possède les
pro-priétés suivantes (voir [78]).
Proposition 1.17 Soit L un générateur irréductible et réversible. Alors les valeurs
propres de L sont réelles, négatives ou nulles, et 0 est une valeur propre simple.
L’un de nos objectifs principaux est d’étudier le taux de convergence au sens L2
des processus de Markov. Soit fP (t)g le semi-groupe d’un processus de Markov de
générateur L et de mesure stationnaire : On dit que P (t) converge exponentiellement
par rapport à la norme de l’espace (L2( ) ;
k k ) vers , s’il existe une valeur positive
telle que pour tout f de RE,
où (f ) =Pi2Ef (i) (i). On appelle le maximum des vérifant la condition ci-dessus le taux de convergence exponentielle de qu’on va noter ?
Le théoréme suivant montre que le taux de convergence au sens L2 n’est rien
d’autre que le gap du générateur et donne une formule variationnelle du gap au
travers de la forme de Dirichlet. Par conséquent, contrôler la vitesse de convergence
revient à estimer le gap. Pour la démonstration da la proposition suivante, voir [12].
Proposition 1.18 Si L est un générateur de Markov irréductible et de la mesure
réversible , alors
? = gap = inf D(f ) : (f ) = 0;
kfk2 = 1
:C’ést- a-dire, on a
kP (t) f (f )k exp ( gap:t)kf (f )k
La réversibilité de soit une hypothèse trés restrictive par rapport au cas général
des mesures stationnaires non réversibles, c’est sous cette condition que se placent la
plupart des références du domaine [27; 29; 35; 84]. La raison en est double. D’une part
le cas réversible est beaucoup plus facile que le cas général, du fait de la possibilité de
se ramener a des matrices symétriques. La seconde raison tient au fait que l’on peut
contrôler la vitesse d’accés a l’équilibre d’un processus de Markov quelconque par le
gap d’un générateur réversible (c.f. [31; 77]).
gènèra-teur L sur E. Soit la mesure stationnaire de L, D2 une matrice diagonale tq
D2 = diag ( (i))i2E;
et D 2 son inverse. Soit M le générateur
M = 1
2 L + D
2L D2 :
Alors pour toute fonction f de E dans R, il existe une constante C, telle que
jE [f (Xt)] (f )j C exp [ gap (M ) t]
L’interprétation du générateur M est la suivante. Supposons que fXt; t 0g soit
stationnaire (pour tout t, Xtest de loi ). Fixons t0 > 0. Le processus fXt0 t; 0 t t0g
est markovien et homogéne, de générateur D 2L D2: La mesure stationnaire de ce
nouveau générateur est encore . Passer de L à D 2L D2 revient à retourner l’échelle de temps. Un processus de générateur M;évolue comme suit. Chaque fois qu’il atteint
un nouvel état, il choisit en tirant à pile ou face si le pas suivant se fera vers le futur
ou vers le passé d’un processus de générateur L qui serait dans le même état. Il n’est
pas donc surprenant que M soit -réversible, ce que l’on véri…e immédiatement en
constatant que D 2L D2est symétrique.
Un autre avantage de la réversibilité, que nous serons amenés a utiliser, est de se
conserver par troncature du générateur.
1.2
Forme de Dirichlet
On de…nie, pour toute fonction f 2 L2( ) ; la forme de DirichletD(f )
D(f ) := hf; Lfi = X
x
f (x) Lf (x) (x) :
Cette somme est bien dé…nie, car le générateur L est un opérateur borné dans L2( ).
Le résultat suivant découle du calcul e¤ectué à la …n de la dernière section.
Proposition 1.20 La forme de Dirichlet d’une fonction f en L2( ) est positive et
égale à
D(f ) = X
x;y2L
(x) L (x; y) [f (y) f (x)] :
Notons que si la forme de Dirichlet d’une fonction f s’annule, D(f ) = 0; et si
le processus est indécomposable, alors f est constante. En outre, si une fonction
F : R ! R est telle que jF (a) F (b)j ja bj ; alors
D(F f ) D(f )
Cette inégalité s’applique à la fonction F (x) = x ^ M où M est un réel et …xé. En
outre, la forme de Dirichlet est convexe : soit p une mesure de probabilité sur N, alors
on a D X j pjfj ! X j pjD (fj)
Dans le cas où la mesure de probabilité est réversible, il existe une formule
Théorème 1.21 (Formule variationnelle de la forme de Dirichlet) Pour toute fonction f positive de L2( ) ; D(f ) := inf g X x2E (x)f 2(x) g (x) Lg (x)
Dans cette formule, la borne inférieure est pris sur toutes les fonctions positives
bor-nées inférieurement par une constante strictement positive.
Démonstration. On montre d’abord que l’in…mum est majoré par la forme de
Dirichlet. Fixons une fonction g; qui est bornée inférieurement par une constante
strictement positive. Soit = gf1ff >0g alors s’annule quand f est nulle. On a alors f2
g ; Ptg = f
; Ptf :
Puisque est réversible, cette dernière somme est égale à P
x;y
(x) f (x) f (y) Pt(x; y) (y)(x)
= 12P
x;y
(x) f (x) f (y) Pt(x; y) (y)(x) + (x)(y)
Puisque pour tout réel positif a; a+a 1 2;cette expression est bornée inférieurement
par
X
x;y
(x) f (x) f (y) Pt(x; y) =hf; Ptfi
En soustrayant hf2
i aux deux termes et en multipliant par t 1; on déduit que
1 t f2 g ; (g Ptg) 1 t hf; (f Ptf )i Quand t # 0, on obtient que
f2
d’où le résultat.
1.3
Dynamiques des processus
Pour dé…nir la dynamique d’un système de particules en interaction, on doit
spéci-…er le taux avec lequel un site quelconque change son état. En général, cela dépend de
l’état actuel du site et de la con…guration dans un voisinage de ce site. On distingue
généralement deux types de dynamiques des processus. Dans le premier type, un site
change de nature, tandis que les autres sites ne changent pas(temporairement), on
appelle ce type ’particle ‡ip dynamics’souvent appelée dynamique de Glauber dans
la littérature physique. Cette dynamique est représentée par exemple par le
proces-sus de contact. Le second type implique deux (ou plus) qui s’échangent les sites, et
inclut le cas particulier d’une particule qui saute vers un site vacant (par exemple
un échange entre une position 0 et une position 1) ; on appelle ce type ’particle
ex-change dynamics’appelée aussi dynamique de Kawasaki. Précisons que la dynamique
du processus d’exclusion d’un champ moyen dans le cas multi-espéce, qu’on étudiera
au troisième chapitre, est une dynamique de Kawasaki.
Dé…nition 1.22 Soit p (x; y) 0; x; y 2 , les taux de transition d’une marche
aléatoire irréductible en temps continu sur :Le processus d’exclusion sur E est alors
caractérisé par les taux (de saut)
Les particules sautent uniquement vers les sites vacants (exclusion). Si est un réseau
régulier ( Zd
ou une partie connexe de Zd) et p (x; y) > 0 seulement si x et y sont
des sites voisins, le processus est appelé processus d’exclusion simple . Si de plus
p (x; y) = p (y; x) pour tout x, y2 ; il est appelé symétrique , sinon asymétrique.
On note que l’existence d’un lien entre les sites x et y est caractérisée par p (x; y) >
0, et l’irréductibilité de p (x; y) équivaut au fait que soit fortement connexe. Il n’y
a ni création, ni annihilation de particules, aussi le nombre de particules du système
est conservé dans le temps. En général, de tels systèmes sont appelés ’lattice gas’.
Dé…nition 1.23 Le processus de contact sur E est caractérisé par les taux
cx( ) = 8 > > > < > > > : 1; (x) = 1 X y x (y) ; (x) = 0
Que l’on interprète ainsi : les particules sont assimilées à des sites infectés avec un
taux de ’guérison’ égal à 1, et sont infectées de manière indépendantes d’un taux ;
par des particules situées sur des sites voisins y x:
Contrairement au processus d’exclusion, le processus de contact ne conserve pas
le nombre de particules, mais il possède un état absorbant 0, puisqu’il n’y a pas
Chapitre 2
Quelques systèmes de particules en
interaction
2.1
Processus d’exclusion simples (Hard Core
In-teraction)
Parmi les systèmes de particules d’interaction ; le plus simple et le plus
large-ment étudié est le processus d’exclusion. En contraste avec des superpositions de
marches aléatoires présentées dans le chapitre 1, le processus d’exclusion permet au
plus une particule par site. L’espace d’état est donc f0; 1gTd; où Td = [0; 1)d est le tore d dimensionel. Pour empêcher l’apparition de plus d’une particule par site, on
introduit la règle d’exclusion qui supprime chaque saut à un site déjà occupé. En fait,
systèmes où les particules sautent, chaque fois que le saut est autorisé,
indépendam-ment des autres et selon la même trasnlation invariante éléindépendam-mentaire de probabilité de
transition
Dé…nition 2.1 Soit p une probabilité de transition irréductible, à portée …nie (a …nite
range), invariante par translation dans Zd.
p(x; y) = p(0; y x) =: p(y x);
pour tout couple (x; y) d’entiers d dimensionnel et pour une certaine mesure de
pro-babilité à portée …nie p( ) sur Zd : P z2Zd
p(z) = 1 et p(x) = 0 pour jxj su¢ samment
grand.
On désigne par p( ) la probabilité de saut élémentaire.
Le générateur (LNf ) ( ) = X x2Td N X z2Td N (x) [1 (x + z)] pN(z) f x;x+z f ( )
où x;y est la con…guration obtenue du permettant le saut de particules de x à y :
x;y (z) = 8 > > > > > > < > > > > > > : (z) ; si z 6= x; y (x) 1;si z = x (y) + 1; si z = y
dé…ni un processus de Markov appelé processus d’exclusion simple avec une
proba-bilité de saut élémentaire p( ). Dans le cas particulier où p(z) = p( z) on dira qu’il
dt chaque particule essaye indépendamment des autres, de sauter de x à x + z avec
un taux pN(z) := P y2Zd
p(z + yN ). Le saut est annulée si elle conduit à un site déjà
occupé.
On note que.l’irréductibilité de la probabilité de transition p(:) signi…e que
l’en-semble fx; p(x) > 0g génère Zd; au sens que pour toute paire de sites (x; y) dans
Zd, il existe M 1 et une suite x = x
0; :::; xM = y tel que p(xi; xi+1) > 0 pour
0 i M 1.
On renormalise habituellement la probabilité de transition d’une manière
légère-ment di¤érente (l’on suppose quePxp(x) = dau lieu de 1) a…n d’obtenir l’équation de la chaleur en tant qu’équation hydrodynamique pour le processus d’exclusion simple
symétrique. En…n, étant donné que la probabilité de transition est supposée être de
portée …nie, il existe un A0 2 N tel que p(z) = 0 pour tous les sites z à l’extérieur
du cube [ A0; A0]d. En particulier, pN(:) et p(:) coïncident à condition que N A0.
Pour cette raison, à partir de maintenant on omet l’exposant N dans la probabilité
de saut élémentaire.
La règle qui interdit les sauts vers des sites occupés explique le terme de l’exclusion
. On note, d’autre part, que la vitesse à laquelle une particule saute de x à y ne dépend
de la con…guration que par les variables d’occupation (x) et (y): Cette derniére
dépendance entre (x) et (y) re‡ète la règle d’exclusion. Notez que le nombre total
Pour 0 1, on note = la mesure produit de Bernoulli de paramètre
, qui est le produit et la transalation de mesure invariante sur f0; 1gTd
N avec une
densité , où Td
N =f0; :::; N 1g d
signi…e le tore d dimensionel discret a N points.
En particulier, selon sous , les variables f (x); x 2 TdNg sont indépendantes et on a
f (x) = 1g = = 1 f (x) = 0g:
Proposition 2.2 Les mesures de Bernoulli f ; 0 1g sont invariantes pour
les processus d’exclusion simples. En outre, par rapport à chaque , les processus
d’exclusion avec saut élémentaire de probabilité p(z) := p( z) sont les adjoints des
processus à sauts élémentaires de probabilité p(z). En particulier, les processus
d’ex-clusion simples symétriques sont auto-adjoint par rapport à chaque
La famille de mesures invariantes est paramétrée par la densité si
E [ (0)] := f (0) = 1g = a
Remarque 2.3 On dira qu’un système de particules en interaction est asymétrique
de moyenne nulle( mean-zero asymmetric) si la probabilité de transition est non
sy-métrique mais Pxxp(x) = 0; et qu’il est asymétrique si Pxxp(x) 6= 0
Remarque 2.4 Étant donné que le nombre total de particules est conservée par la
dynamique des mesures, alors les mesures de probabilité de…nies par
N;K(:) = 0 @: j X x2Td N (x) = K 1 A
sont invariants et il aurait semblé plus naturel de les considérer à la place de la mesure
produit Bernoulli :
Pour chaque 0 K Nd, désignons par 1N;k les "hyperplans" de toutes les
con…gurations avec K particules :
1 N;k = 8 < : 2 f0; 1g x2Td ;X x2Td N (x) = K 9 = ;
Les mesures invariantes de densité préservent les systèmes de particules qui sont
concentrées sur les hyperplans avec un nombre total de particules …xés, sont appelées
mesures canoniques (la famille f N;K(:) ; 0 K Ndg dans le contexte des
proces-sus d’exclusion simples par exemple). En revanche, les mesures obtenues comme des
limites faibles des mesures canoniques, lorsque le nombre de sites augmente à l’in…ni,
on les appelera les grandes mesures canoniques (grand canonique mesures).
En étudiant le comportement asymptotique des mesures canoniques, on peut
dé-duire certaines estimations sur la distance totale de variation entre les mesures
cano-niques et les grandes mesures canocano-niques.
2.2
Processus à portée nulle (Zero Range Processes)
Cette fois, on considére les évolutions sans restrictions sur le nombre total de
particules par site. L’espace de l’état sera donc NTd
N Le processus est dé…ni par une
fonction g : N ! R+ nulle en 0; représente la vitesse à laquelle une particule quitte
être décrit comme suit : s’il y a une k particules en un site de x, indépendamment
du nombre de particules sur d’autres sites, l’une des particules du site x saute vers y
avec un taux de probabilité g(k)p(x; y). De cette manière, les particules interagissent
seulment avec des particules du même site. Pour cette raison, ces processus sont
appelés processus à portée nulle.
Soit g : N ! R+une fonction nulle en 0 et soit p( ; ) une probabilité de transition,
irreductible, invariante par translation, à portée …nie (a …nite range). On suppose que
g est strictement positive sur l’ensemble des nombres entiers positifs et est à variation
bornée au sens suivant
g := sup
k 0jg (k + 1)
g (k)j < 1
On note par ' le rayon de convergence de la fonction de partition Z : R+ ! R+
dé…nie par :
Z(') =X
k 0
'k
g (k)!:
Dans cette dernière formule g(k)! = Y
1 j k
g (i) et par convention g(0)! = 1.
On note que Z est analytique et et strictement croissante sur [0; ' ).On suppe que
lim '"' Z(') = +1: Le générateur (LNf ) ( ) = X x2Td N X z2Td N pN(z)g( (x)) f x;x+z f ( )
dé…ni un processus de Markov sur NTdN;appelé processus à portée nulle paramètré
par (g; p). Ici, comme dans la section précédente, x;y représente la con…guration où
une particule saute de x à y et pN(:)représente la probabilité de transition translater
à l’origine et restreinte au tore :
pN(z) := pN(0; z) = X
y2Zd
p(0; z + yN )
pour chaque entier z; d dimensionnel :
La proposition suivante n’est pas nécessaire pour dé…nir un tel processus, mais sera
toujours nécessaire pour prouver le comportement hydrodynamique des processus à
portée nulle. On a donc préféré l’inclure dans la dé…nition.
Dans ces processus chaque particule saute, indépendamment des particules d’autres
sites, de x à y avec un taux pN(y x)g( (x))( (x)) 1: En particulier, si g(k) = k
pour tout k 0, on obtient la superposition des marches aléatoires indépendantes
étudiées dans le chapitre 1.
Maintenant on décrit certaines mesures invariantes du processus. Pour chacun
0 ' < ' ;soit ';g = N';g désigne la mesure produit sur TdN;où les marginales sont
données par : ';gf ; (x) = kg = 1 Z(') 'k g(k)!
pour chaque k 0et x dans Td N:
Proposition 2.5 Pour tout 0 ' < ' la mesure produit ';g est invariante pour
rapport à ';g est le processus à portée nulle de paramètres (g; p). En particulier, si p
est symétrique, alors le processus est auto-adjoint.
2.3
Processus d’exclusion généralisés (Generalized
Exclusion Processes)
Dans cette section, on considére un troisième type de systèmes de particules en
interaction.
Il est un mélange entre les processus à portées nulles et les processus d’exclusion
simples. On admet cette fois pas plus de particules par site, pour un entier positif.
Comme dans le cas d’un processus d’exclusion simple, le taux de saut d’une particule
de x vers y dépend exclusivement de l’occupation de x et y et de la probabilité
de transition invariante par translation. Plus précisément, on donne une fonction
r :f0; :::; g ! R, telle que r(a; b) représente la vitesse à laquelle une particule a saute
à partir d’un site occupé par une des particules a à un site occupé par des particules
b. Comme aucune particule ne peut sauter d’un site x s’il n’y a pas de particules en
x, alors r(0; :) 0. La règle d’exclusion impose également que r(:; ) 0 si le site
est occupé par plus de particules. En conclusion, une particule saute de site x vers
un site y avec un taux r( (x); (y))p(x; y), indépendamment du nombre de particules
dans les autres sites.
in-variante par translation sur Zd: Le générateur
(LNf )( ) =
X
x;y2Td N
pN(y)r( (x); (x + y))[f ( x;x+y) f ( )];
où x;x+y est obtenue à partir de la con…guration en autorisant le saut de parti-cules de x à x + y, dé…nit un processus de Markov sur f0; :::; gTdN appelé le processus
d’exclusion généralisée avec une probabilité élémentaire de saut p(:). Dans le cas
parti-culier où p(z) = p( z) on dit qu’il est un processus d’exclusion généralisé symétrique.
Le comportement hydrodynamique des systèmes de particules en interaction
re-pose sur la connaissance explicite des mesures invariantes. En outre, on considérere
seulment les processus avec des mesures produits invariantes. A…n de garantir
l’exis-tence de mesures produits invariantes pour les processus d’exclusion généralisés, on
impose certaines restrictions sur le taux de saut r( ; ). On limite notre analyse au cas
particulier où les particules sautent dès que le saut est autorisé et la probabilité de
transition est symétrique : r(x; y) = 1f (x)>0; (x+y)<kg; p(x) = p( x). Dans ce cas, le générateur est donné par
(LNf )( ) = X
x;y2Td N
p(y)1f (x)>0; (x+y)<kg[f ( x;x+y) f ( )]: (2.1)
Comme dans la section précédente, pour ' 0;on considére la mesure du produit
' = N' dans f0; :::; gT
d
N avec des marginales données par :
'f ; (x) = kg =
'k
Z(')
Proposition 2.7 On suppose que le saut élémentaire des probabilités p( ) est
symé-trique. Alors, le processus de Markov de générateur donné en (2:1) est auto-adjoint
par rapport au chaque mesure produit ':
2.4
Système Attractif
A…n de bien traiter le sujet , dans cette section, on dé…ni brièvement les principales
propriétés des systèmes de particules en interaction attractifs. Pour …xer les idées, on
va considérer le processus à portée nulle, mais toute les dé…nition où les a¢ rmations
peuvent être translatés aux processus d’exclusion généralisés. On se référera dans
cette section à l’ouvrage de Liggett [62].
Dé…nition 2.8 Un système de particules en interaction est dit attractif si son
semi-groupe préserve l’ordre partiel suivant :
1 2 ) S
N
(t) 1 SN(t) 2
pour tout t 0:
Le théoreme ci-dessous est le résultat principal de cette section. Il donne une
condi-tion su¢ sante (et en fait nécessaire) pour qu’un processus à portée nulle soit attractif.
Il montre également comment sont étroitement liés ; l’ordre partiel et le couplage de
deux copies du processus. Cette technique de couplage est le principal outil pour
prouver le comportement hydrodynamique des systèmes de particules asymétriques
Théorème 2.9 Si g( ) est une fonction non décroissante, alors le processus à portée
nulle de paramètres (g; p) est attractif.
Remarque 2.10 On remarque que les processus d’exclusion simples sont attractifs.
2.5
Processus d’exclusion d’un champ moyen à
plu-sieurs espèces (mean …eld multi-speces
exlu-sion process)
On termine ce chapitre avec le système des particules décrit par le processus
d’exclusion d’un champ moyen à plusieurs espèces ( ou multi coloré). Pour plus de
détails on se réfèrera à l’article de Nagahata and Sasada [72]:
On considère un cube d dimensionnel de Zd, un nombre d’espèces ( ou couleurs)
r 2 et l’ensemble des con…gurations 2 f0; 1; :::::; rg : Le processus est de…ni
comme suit : la con…guration (x) = 0 signi…e que le site x est vacant, alors que
(x) = i signi…e que le site x est occupé par une particule de type i. Le nombre de
particules est conservé sous la dynamique, car il n’y a ni création, ni annihilation de
particules. On dé…nit pour k = (k0; k1; ::::; kr)2 Nr+1 avec r
P
i=0
ki = N et 1 ki; Ni( )
pour i 2 f0; 1; :::; rg est le nombre de particules de la iieme espèce (couleur) de la
con…guration (0 est considéré comme une espèce ou une couleur), et soit
Sk =
n
2 f0; :::; rg : Ni( ) = ki; i = 0; 1; :::; r
o :
Dé…nition 2.11 Soit g : f0; 1; 2; :::::; rg ! R une fonction véri…ant g (0) = 0; g (i) >
0 8i 2 f1; 2; :::; rg. Le générateur Lnqui agit sur f : f0; :::; rg ! R est dé…ni par :
(Lnf ) ( ) =
X
x;y2
g( x)cx;y( ) x;yf ( ) ;
ici, x;y est l’opérateur
x;yf ( ) = f ( x;y) f ( )
où x;y est la con…guration issue de en échangeant
x et y, autrement dit ( x;y)z = 8 > > > > > > < > > > > > > : y si z = x x si z = y z sinon
et cx;y( ) est le taux de saut, dé…ni à l’aide d’une collection de probabilité d
’occu-pation qx; x2 Zd par cx;y( ) = 8 > > > > > > < > > > > > > : qx(1 qy) si ( x( ) ; y( )) = (0; 1) qy(1 qx) si ( x( ) ; y( )) = (1; 0) 0 sinon. ;
où x( ) = 1f x 1g 2 f0; 1g pou tout x 2 est la con…guration des sites occupés
associée à :
Chaque particule d’espèse i se trouvant au site x saute vers y avec un taux
Le générateur Ln dé…ni un processus de Markovf (t) ; t 2 R+g sur f0; :::; rg ,
appelé processus de champ moyen à plusieurs espèces paramètré par g;fqxgx2Zd .
Quand qx = q ne dépend pas de x, on dira que le processus est homogène. Dans ce
cas, on a
g ( x) cx;y( ) = g ( x) q (1 q) 1f y=0g;
et le générateur s’écrit comme suit :
(Lf ) ( ) = X
x;y2
g ( x) q (1 q) 1f
y=0g
x;yf ( ) :
La dé…nition siuvante décrit les mesures réversibles du processus.
Dé…nition 2.12 Soit (si)1 i r une distribution de probabilité sur l’ensemble f1; :::; rg.
La mesure produit de probabilité sur f0; :::; rg est dé…nie par
( ) = r Y i=1 sNi( ) i Y z2 q z( )(1 q)(1 z( )):
On note la mesure canonique associée à par k(:) := (:j Sk) ; qui est en fait
indépendante de choix des (si)1 i r. Plus précisément k est la mesure uniforme sur
Sk: Il est facile de voir que est réversible ansi que la mesure k à cause du fait que k( ) cx;y( ) = k( x;y) cx;y( x;y) pou tout x; y et pou tout :
Chapitre 3
Trou spectral des systèmes de
particules
3.1
Cas d’un gaz multicoloré avec désordre
3.1.1
Description du modèle
On considère le réseau d dimensionnel Zd. Le désordre est décrit par une
collec-tion de variables aléatoires réelles i:i:d; = x; x2 Zd telle que pour tout x 2 Zd;
j xj B pour une certaine constante …nie B: La mesure (resp.espérance)
correspon-dante, dé…nie sur D := [ B; B]Z
d
sera notée par P (resp.E). On considère deux
espéces de particules mécaniquement identiques, dont certaines sont bleus et d’autres
sont banches. Une con…guration dans Zd ou dans un sous ensemble …ni
donnée par : x = 8 > > > > > > < > > > > > > :
1 si le site x est occupé par une particule bleu
0 si le site x n’est pas occupé
1 si le site x est occupé par une particule blanche .
On considére le volume Zd. La dynamique des particules est donnée par un
processus de Markov f (t); t 2 R+g et peut alors être décrite comme suit :
Une particule à x attend un temps exponentiel et essaye de sauter au site y. Si ce
site est occupé, alors le saut est avorté sinon elle le réalise avec un taux de probabilité
cx;y( ) = lim t!0 P( (s + t) = x;y j (s) = ) t (3.1) = fe( x;j xj ; y; y );
où fe est une fonction bornée sur (R f0; 1g)2; satisfaisant les conditions suivantes :
i. fe(a; s; a 0 ; s0) = fe(a 0 ; s0; a; s) (condition de symétrie), ii. ss0 6= 0 =) fe(a; s; a 0 ; s0) = 0 (condition d’exclusion ), iii. ss0 = 0 =) fe(a; s; a 0
; s0) > 0 (condition pour que fe soit uniformément
bornée),
iv. fe(a; s; a
0
; s0) = fe(a; s
0
; a0; s) exp( (s0 s)(a0 a))(condition de balance).
Ces conditions nous permettent de dé…nir un générateur désordonné de Markov
dont les propriétés seront décrites ci-dessous.
Dans tout ce qui suit, désordre signi…e qu’il y dépendance par rapport aux variable
:=f 1; 0; 1g par : L f( ) = lim t!0 E(f ( (s + t)) f ( (s))j (s) = ) t (3.2) = X x;y2 cx;y( )[f ( x;y) f ( )];
où x;y est la con…guration dérivée de dé…nie comme suit :
x;y z = 8 > > > > > > < > > > > > > : x si z = y y si z = x z si z 6= x et z 6= y
Remarque 3.1 Si on prend la valeur absolue associée au processus de Markov
( (t))t 0; cité ci-dessus, alors on obtient le cas monocouleur, travail qui a été fait
par Fagginato et Martinelli [30].
Maintenant, on …xe un paramètre 2 R et un volume …ni . On recherche les
mesures désordonnées sur telles que pour P-presque sûrement, sous , les
variables aléatoires ! x, x 2 , sont indépendantes et :
(j xj) = e
+ x
1 + e + x, (3.3)
(f x;yg)cx;y( x;y) = (f g)cx;y( ) (x2 ; e 2 "; 2 ) (3.4) Il est bien connu que la condition de balance (3:4) entraine que L est auto-adjoint
dans L2( ) et que est invariante, et vice versa.
3.1.2
Mesure canonique de Gibbs et potentiel chimique
Théorème 3.2 Soient x+ = max( x; 0) et x = max( x; 0). Soit une mesure
désordonnée de probabilité sur telle que, pour presque tout et sous , les
va-riables aléatoires ! x, x 2 , soient indépendantes. Alors pour presque tout
les conditions (3:3) et (3:4) sont satisfaites si et seulement s’ils existent ( +; )2 R2
tels que : i. e + + e = e ii. ( x + ) = e x+ + 1 + e x+ ++ e x+ ; ( x) = e x+ 1 + e x+ ++ e x+ ; x2 :
Une telle mesure sera notée plus précisicément par ; +; lorsque le désordre est …xé.
Considérons alors la mesure de probabilité canonique de Gibbs ; sur f0; 1g dé…nie par
;
(f g) / exp[X
x2
( x+ ) x] pour tout 2 f0; 1g :
Par la proposition ci-dessus, on voit facilement que ; correspond à l’image de ; +; par la transformation ! j j sur , en d’autres termes, P-presque sûrement, pour toute fonction bornée f sur f0; 1g , on a
; +;
On dé…ni l’Hamiltonien du système ainsi que les potentiels chimiques empiriques et
recuits dans le volume , pour un couple ( +; ) et 2 R tel que e + + e = e :
H ; +; ( ) = X x2 [ xj xj + + x ++ x]:
Alors la grande mesure canonique de Gibbs sur coincide avec ; +; :Notons que
; +;
(f g) / exp( H ; +; ( )):
Soit une con…guration donnée de désordre. Pour chaque
(m+; m )2 f0; 1
j j; ::::; 1g
2
tels que m++ m 1:
On dé…ni également la mesure canonique ;m+;m comme suit : soit N+( )(resp.N ( ))
le nombre des particules bleus (resp. blaches) dans le volume et m+
2 f0;j j1 ; ::::; 1g: on dé…ni pareillement N ( ) et m pour les particules blanches, puis
;m+;m (f g) =
; +;
(f g=N+=j j m+; N =j j m ):
On considére les variables aléatoires m+ = N+
j j et m = N
j j qui sont les densités de
particules bleus et blanches respectivement. Notons que ;m+;m ne dépend pas des
potentiels chimiques +; :
Soit m 2 n0;j j1 ; :::; 1o:Il résulte de [30] qu’il existe un unique nombre réel appelé le potentiel chimique empirique, noté (a; m), tel que
;
Proposition 3.3 Pour x 2 D …xé, soit (m+; m )2 [0; 1] tel que m++ m 1. On
pose m = m++ m : Alors on a :
Le système avec les variables inconnues +; 8 > > > > > > > > < > > > > > > > > : ; +; m+ = j j1 X x2 exp x+ + 1 + exp ( x+ ( ; m+; m )) = m+ ; +; m = j j1 X x2 exp x+ 1 + exp ( x+ ( ; m+; m )) = m
exp + + exp = exp ( ( ; m))
a une solution unique +( ; m+; m ) ; ( ; m+; m ) ; appelée le potentiel
chi-mique empirique coloré.
Démonstration. On pose : l+(a) = e( a+ +) 1 + e(a+ +) + e(a+ ) ; l (a) = e( a+ ) 1 + e(a+ +) + e(a+ ) ;
et l(a) = l+(a) + l (a):
On suppose que la condition de la Proposition 3.3 est véri…ée. Soit x 2 . Par
inté-gration de la relation +x + x =j xj par rapport à la mesure on a immédiatement
(3:3): Soit par ailleurs e un vecteur de la base canonique de Rd et soit
2 . Pour
prouver (3:4); on pose
s =j xj ; s0 = x+e ; a = ax et a0 = ax+e .
Alors la formule (3:4) peut être exprimée comme suit :
Ainsi si ss0 6= 0. (3:5) découle de la condition d’exclusion ii alors que si ss0 = 0, les conditions iii et iv se réduisent (3:5) à la formule suivante :
(f x;x+eg) = (f g) exp( (s0 s)(a0 a)):
Supposons par exemple que x = 0et x+e= 1. L’indépendances des variable aléatoire
! x donne :
(f g) = l+(a0)(1 l(a)) (f y; y 2 nfx; x + eg) et (f x;x+eg) = l+(a)(1 l(a0)) (f y; y 2 nfx; x + eg)
où est la mesure marginale de sur n(x; x + e). Dans le cas où s = 0 et s0 = 1,
il s’en suit que (3:5) est équivalente à
exp(a0 a) = l
+(a0)(1 l(a))
l+(a)(1 l(a0));
or cette dernière égalité est facilement véri…ée en utilisant ii. et en notant que 1
l(a) = (1 + exp(a + )) 1. Les autres cas sont semblables par symétrie. Inversement, supposons que les conditions (3:3) et (3:4) sont véri…ées. Soit (x; e);où x 2 :
Consi-dérons tel que x = 0 et x+e = 1. Puis, en gardant les notations précédentes, en
particulier a = x et a0 = x+e, on a :
exp(a0 a) = l
+(a0)(1 l(a))
l+(a)(1 l(a0));
ce qui s’écrit aussi :
Comme les variables aléatoires a0 et a sont indépendentes par rapport à P, alors il excite une constate positive c+ telle que,
exp (a) (1 l (a)) l+(a) = c
+ Pp.s.
Notez que c+ ne dépend pas de x en e¤et la loi de a ne dépend pas de x. Il résulte alors de l’égalité précédente et de la relation [1 l(a)] 1 = 1 + exp(a + )que
l+(a) = c+ exp (a)
1 + exp (a + ) P p.s.
De façon similaire, il existe une constante positive c telle que la propriété
l (a) = c exp (a)
1 + exp (a + ) P p.s
On prend alors += ln (c+) et = ln (c ) : Donc i et ii en découlent facilement.
3.1.3
Représentations matricielles de
v(f
2) et v(f
Pf)
On se place dans la situation de la section précédante.
On dé…nie ( x); pour x 2 et 2 f ; +g comme suit :
( x) = exp ( x+ ) 1 + exp ( x+ )
:
La relation entre et ; ;est donnée par :
(f j:j) = ; (f ) ;
pour toute fonction bornée f sur f0; 1g : De même, on a la mesure canonique
cor-respondante
et on considére la con…guration d’occupation associée à . :
x( ) = 1f (x)6=0g
pour x 2 : Notons que x( )2 f0; 1g .
Dynamique et forme de Dirichlet
On considére la forme de Dirichlet dé…nie par
D(f ) = 1 j j X x;y2 (jf ( x;y) f ( )j) ; et on pose Pf = 1 j j X x;y2 (f j x) : On a alors D(f ) = (f (I P) f)
Notons que P est un opérateur sur L2( ) qui préserve la positivité et est de norme
inférieure ou égale à 1 satisfaisant PI=I. En outre, P I a comme mesure réversible
car (f (P I) g) = (g (P I) f ) pour tout f; g 2 L2( ) :
Représentations matricielles de v(f2) et v(f
Pf)
Notre but ici est d’obtenir des représentations matricielles de v(f2)
et v(f Pf):
Pour x; y 2 et tout ; 0 2 f+; g; on pose
Cxy0 = x; y0 et Rxy0 = C 0 xy q CxxC 0 0 yy :
C = (Cxy0) est une matrice de covariance da taille 2 j j 2j j et R = (Rxy0) est la matrice de corrélation correspondante.
Il est bien connu, d’après Caputo [7], qu’il su¢ t de prendre l’in…mum sur les fonctions
de la forme f =X x2 fx+ + x + fx x; où (fx; x2 ; = +; ) 2 R2j j;et x = x ( x). Alors on a : f2 =X x;y X ;0 fxfy0 x 0 y = f Cf T (3.6)
où l’on a identi…é f au vecteur à 2 j j coordonnées (f+
x )x2 ; (fx )x2 :
Il résulte de la dé…nition de P que
(fPf) = 1 j j X z2 (f (f j z)) = 1 j j X z2 X x;y X ;0 fxfy0 0 y ( xj z) (3.7) comme +
x; y sont des variables de Bernoulli satisfaisant +x y = 0, alors on peut
écrire
x j y = a +
xy +x + axy x; (3.8)
où a+
xy et axy sont des coe¢ cients réels. En multipliant (15) par +x ou x et en
intègrant, on obtient a + xy axy = 1 det (Cyy) 0 B B @ Cyy C+ yy C+ yy Cyy+ + 1 C C A Cyy C + yy ; (3.9)
où Cyy, désigne la matrice carré d’ordre 2 (C
0
yy) 02f+; g. Notons que, quel que soit y,
det (Cyy) ne peut pas s’annuler sauf si y = 1. Il résulte alors que
où A = axy0 , et D = (D
0
xy)est une matrice symétrique de taille 2 j j 2j j dé…nie
par Dxx0 = 2 0 1 Cxx0 det (Cxx) ; Dxy0 = 0 pour x 6= y; (3.11) 0
étant le symbole de Kronecker. Des inégalités (3.7), (3.8), (3.10) et (3.11) on obtient
(fPf) = 1 j j X x;y X ;0 fxfy0 " X z axz+ + z 0 y + axz z 0 y # = 1 j j X x;y X ;0 fxfy0(AC)xy0 = 1 j j X x;y X ;0 fxfy0(CDC)xy0 = 1 j jf CDCf T : (3.12)
Changement de variables en
v(f2)et
(fPf)On se propose de trouver une matrice Q non négative et une matrice ligne g telles
que
v(f2) = gQgT; (fPf) = 1 j jgQ
2gT; (3.13)
de sorte que si on pose h = Q1=2g et = 1 Q;alors
v(f2) = hhT; (f (I P) f) = j j 1
j j h I + j j 1 h
T: (3.14)
On doit donc rechercher une matrice U triangulaire supérieure de dimension 2 j j2 telle que D = U UT: Notons que d’aprés (3.11), D se décompose en quatre
sui-vantes :
U += 0; U++U++ = D++; U+ U++ = D+ ;
U+ U+ + U U = D : Cela impliqurait que Uxy0 = 0 si x 6= y et
Uxx++ =pD++ xx ; U + xx = D+ xx p D++ xx ; Uxx = s Dxx jD + xx j 2 D++ xx (3.15)
Il est facile de voir que la matrice U est inversible puisque D est une matrice à
diagonale dominante. On pose alors g = f U 1 et Q = U CUTest satisfaite (3.14).
Expression de
en fonction de
RNotons d’abord que
det (Cxx) = Cxx C ++ xx + C + xx 2 = Cxx Cxx++h1 R+xx 2i> 0;
où la positivité résulte de l’inégalité de Cauchy-Schwarz. En outre, on a
1 R+xx 2 = 1 ( + x) ( x) (1 ( + x)) (1 ( x)) :
Et en combinant avec (3.11), on obtient :
D++ xx = 1 C++ xx 1 jR+xx j 2 ; Dxx = 1 Cxx 1 jR+ xx j 2 ; D+xx = R + xx p C++ xx Cxx 1 jRxx+ j 2 ;
de sorte que par (3.15) : U++ xx = 1 p C++ xx q 1 jR+ xx j 2 ; Uxx+ = R + xx p Cxx q 1 jR+ xx j 2 ; Uxx = p1 Cxx : (3.16) Comme Q = U CUT et U 0 xy = 0 pour x 6= y; alors on a Qxy0 = Cxy++Uxx+Uyy0++ Cxy+ UxxUyy0 + Cxy+UxxUyy0++ Cxy UxxUyy0 ;
et comme = I Q, on en déduit que pour tout x; y 2
++ xy = y x R++xy R+xy R+yy Rxx+ R+xy + Rxx+ Rxy Ryy+ q 1 jR+ xx j 2q 1 R+ yy 2 ; + xy = R+ xy Rxx+ Rxy q 1 jR+ xx j 2 ; xy = y x Rxy ;
en particulier, notons que xy0 = 0 quel que soit ; 0 2 f+; g:
3.1.4
La valeur exacte trou spectral d’un gaz multicoloré
Le trou spectral = (j j) est dé…ni par
(j j) = inf
f 2L2( ); (f )=0
(f (I P) f) v(f2) ;
Soit s1 s2 ::: s2j j les valeurs propres de la matrice en bloc symétrique X de dimension 2 j j X = 2 6 6 4 Y Z Z Y 3 7 7 5 ; où Y = (yij) est la matrice carré d’ordre j j, avec
yij = 8 > > < > > : 1 + 1=j j (j j 1) si i = j 1=j j (j j 1) si i 6= j ;
et Z = (zij) est la matrice carré d’ordre j j, avec
zij = 8 > > < > > : j j + 1= j j si i = j 0 si i 6= j :
Le théorème suivant exprime les mesures canoniques des con…gurations :
Théorème 3.4 Pour tout ; 0 2 f ; +g et x; y 2 ; on a pour j j 3
x 0 y = N N 0 j j (j j 1)e x(1 x( ))+ y(1 y( )); x y = N (N 1) j j (j j 1)e x(1 x( ))+ y(1 y( )); et
( x) = N j je
x(1 x( )):
Notons que des dé…nitions de et ; et du fait que x et
0
y sont indépendantes
par rapport à on a pour tout ; 0 2 f ; +g :
x 0 y = ( x) 0 y (S) N + rfx;yg = N + + + 0; N rfx;yg= N 0 ; x y = ( x) y (S) N + rfx;yg = N + 2 +; N rfx;yg = N 2 ; et ( x) = ( x) (S) N + rfxg = N + + ; N rfxg= N ; (3.17) et on pose ;0 x;y = N + rfx;yg = N + + + 0; N rfx;yg = N 0 ; ; x;y = N + rfx;yg = N + 2 +; N rfx;yg = N 2 ; et x = N + rfxg = N + + ; N rfxg= N :
En outre, si P est une mesure toute probabilité, alors P (f ; g) = P (f g) P(f ) P (g)