• Aucun résultat trouvé

Comportement en temps long

Dans le document Recueil de Modèles Aléatoires (Page 161-167)

4. Équation de Chapman-Kolmogorov : pour toute fonction f, ∂tPtf = LPtf = PtLf ;

où L est appelé générateur infinitésimal de X et est défini par Lf (n) := λ(f (n + 1)− f(n)) + nµ(f(n − 1) − f(n)).

En fait, formellement, tout se passe comme si Pt = etL. Les deux premiers

points sont évidents. Le troisième découle de la formule explicite de Pt. C’est

une reformulation de la propriété de Markov. La dernière assertion s’obtient grâce à 3. et un raisonnement analogue à celui de la preuve du théorème 11.10. Remarque 11.13 (Lire la dynamique dans le générateur infinitésimal). Si on définit le noyau de transition

Q(n,·) := λ

λ + nµδn+1+ λ + nµδn−1

et la «temporisation» D(n) := λ + nµ alors le générateur infinitésimal s’écrit Lf (n) = D(n)

Z

(f(m) − f(n)) Q(n, dm).

On lit dans le générateur infinitésimal un algorithme de simulation des trajec- toires du processus : sachant qu’il est en n, le processus X saute au bout d’un temps exponentiel de paramètre D(n) vers n + 1 avec probabilité λ/(λ + nµ) et vers n − 1 avec probabilité nµ/(λ + nµ). On trouvera par exemple dans le chapitre 9 page 120 un autre exemple de ce type. Notons qu’on peut voir L comme une matrice avec une infinité de lignes et une infinité de colonnes, en posant L(n, m) := L1n(m) de sorte que Lf(n) =Pm∈NL(n, m)f (m).

On peut associer à tout processus de Markov raisonnable son semi-groupe et son générateur infinitésimal. Si ce dernier est souvent explicite, il est rare que ce soit le cas pour les mesures Pt(·)(x). En ce sens, le processus étudié dans ce chapitre est assez remarquable.

11.4 Comportement en temps long

On adopte les notations suivantes :

ρ := λ

µ et π := Poi(ρ).

Si X0 ∼ π, alors le théorème 11.8 assure que Xt∼ π pour tout t > 0. Ainsi la loi π est invariante sous l’action de Pt. De manière équivalente, πL = 0.

150 11 File d’attente M/M/Infini

Comme pour tous les processus de naissance et mort, la loi invariante π, si elle existe, est de plus réversible pour L (ou Pt), c’est-à-dire que L et Ptsont auto-adjoints dans L2(π). Enfin, pour toute loi initiale (de X

0),

Xt −→loi t→∞π.

On souhaite ici quantifier cette convergence en loi.

Soit P1(N) l’ensemble des mesures de probabilité ν sur N possédant

un moment d’ordre 1, c’est-à-dire l’ensemble des ν : N → [0, 1] vérifiant P

x∈Nν(x) = 1 et

P

x∈Nxν(x) <∞. La distance de Wasserstein sur P1(N)

est définie pour tous ν, ˜ν ∈ P1(N) par la formule variationnelle de couplage

W1(ν, ˜ν) := inf



E|X − ˜X| : X ∼ ν, ˜X ∼ ˜ν .

Relions cette distance à la distance en variation totale introduite dans le chapitre 1. Pour des v.a. entières, X 6= ˜X implique|X − ˜X| > 1. On a donc

dVT(ν, ˜ν) 6 W1(ν, ˜ν).

Théorème 11.14 (Contraction de Wasserstein). Si ν, ˜ν ∈ P1(N) alors

W1(νPt, ˜νPt) 6 e−µtW1(ν, ˜ν),

où, pour tout η ∈ P(N), ηPt est la loi de Xtsi X0 suit la loi η.

Démonstration. On procède par couplage. Supposons dans un premier temps

que ν = δm et ˜ν = δn avec m < n. Soit Xt de loi δmPt et Bt de loi Bin(n − m, e−µt) indépendante de X

t. D’après le théorème 11.8, la va- riable aléatoire ˜Xt= Xt+ Btsuit la loi δnPt. On a donc

E|Xt− ˜Xt| = E(Bt) = (n − m)e−µt. Comme (Xt, ˜Xt) est un couplage de (δmPt, δnPt), on a

W1(δmPt, δnPt) 6 e−µt(n − m) = e−µtW1(δm, δn).

Concluons à présent dans le cas général. Soit ν et ˜ν dans P1(N). Soit (X0, ˜X0)

un couplage de ν et ˜ν. Comme ci-dessus, on construit (Xt) et ( ˜Xt) tels que Loi(|Xt− ˜Xt||X0, ˜X0) = Bin(|X0− ˜X0|, e−µt).

On en déduit donc

W1(νPt, ˜νPt) 6 e−µtE|X0− ˜X0|.

L’infimum sur tous les couplages de X0et ˜X0donne la propriété attendue. ⊓⊔

Ce résultat de contraction fournit une estimation pour la convergence, au sens de la distance de Wasserstein, de la loi de Xt vers la loi invariante π de

11.4 Comportement en temps long 151

Corollaire 11.15 (Convergence à l’équilibre). Si ν∈ P1(N) alors

W1(νPt, π) 6 e−µtW1(ν, π).

Remarque 11.16 (Optimalité de la vitesse de convergence). La constante µ dans la convergence à l’équilibre à vitesse exponentielle e−µt est optimale.

En effet, supposons que la convergence à l’équilibre ait lieu avec une constante µ> µ. Alors, en prenant pour loi initiale ν = δ

n avec n supérieur à la

moyenne ρ de la loi invariante π, et en notant X une v.a. de loi π, on aurait

(n − ρ)e−µt= E n(Xt) − ρ 6 W1(δnPt, π) 6 e−µt W1(ν, π) = E|n − X|e−µt , ce qui conduit à une contradiction car n − ρ > 0 et e−µt

/e−µtt−→

→∞0.

Dans la même veine, on peut montrer que la fonction Ptf converge vers la fonction constante égale à l’intégrale de f pour π en montrant que son gradient (discret) converge vers 0.

Théorème 11.17 (Commutation). Si f : N→ R alors pour tout t > 0, DPtf (n) = e−µtPt(Df)(n),

où Dg est la fonction définie sur N par Dg(n) = g(n + 1) − g(n). Démonstration. D’après le théorème 11.8,

Ptf (n + 1) = Ef (Z1+ · · · + Zn+1+ Y ),

où Z1, . . . , Zn+1sont des variables aléatoires indépendantes de loi Ber(e−µt) et indépendantes de Y de loi de Poisson de paramètre ρ(1 − e−µt). On a donc

Ptf (n + 1) = E(f (Z1+ · · · + Zn+1+ Y )) = e−µtE(f(Z 1+ · · · + Zn+ 1 + Y )) + (1 − e−µt)E(f(Z 1+ · · · + Zn+ Y )) = e−µtP t(Df)(n) + Ptf (n),

ce qui fournit le résultat.

Si f est une fonction 1-lipschitzienne, au sens où |Df(n)| 6 1 pour tout

n ∈ N alors le théorème précédent assure que Ptf est une fonction e−µt- lipschitzienne. On retrouve ainsi la convergence pour la distance de Wasser- stein par la formulation duale de cette distance, de Kantorovitch-Rubinstein

W1(ν, ˜ν) = sup Z f dν− Z f d˜ν : f 1-lipschitzienne  .

152 11 File d’attente M/M/Infini

Remarque 11.18 (Files d’attente, naissance et mort). La figure 11.1 compare les trajectoires des files M/M/1 et M/M/∞. Ces files d’attente font partie des processus de vie et de mort4, qui sont les processus de Markov à temps continu

et d’espace d’états N à transitions aux plus proches voisins. Leur générateur infinitésimal a la forme suivante (avec la convention µ0= 0) :

Lf (n) = λn(f(n + 1) − f(n)) + µn(f(n − 1) − f(n)).

Le cas M/M/1 correspond à n ∈ N 7→ λn et n ∈ N7→ µn constantes, tandis

que le cas M/M/∞ correspond à n ∈ N 7→ λn constante et µn= nµ pour tout

n ∈ N. Le cas où n 7→ λn est linéaire et µ ≡ 0 correspond au processus de

Yule (processus de Galton-Watson à temps continu de loi de reproduction δ2).

0 10 20 30 40 50 60 0 20 40 60 80 100

Trajectoires M/M/1 et M/M/infini de mˆ“me moyenne

Fig. 11.1. Un début de trajectoire de file d’attente M/M/1 de paramètres 1 et

3, et de file d’attente M/M/∞ de paramètres 1 et .5. Les deux trajectoires sont issues de 100. Le premier processus a pour loi invariante la loi géométrique sur N de paramètre 1/3, et le second la loi de Poisson de paramètre 1/.5 = 2. Dans les deux cas, la loi invariante a pour moyenne 2. La première trajectoire à un comportement linéaire et la seconde un comportement exponentiel.

11.5 Pour aller plus loin 153

11.5 Pour aller plus loin

Les résultats classiques concernant les lois exponentielles sont disponibles par exemple dans le livre de James Norris [Nor98a]. Dans le livre de Geoffrey Grimmett et David Stirzaker [GS01], une version à temps discret du proces- sus X est étudiée. Pour l’anecdote, elle peut modéliser par exemple le nombre de coquilles présentes dans un manuscrit après n relectures : à chaque relec- ture, l’auteur corrige chaque coquille avec probabilité p, indépendamment des autres, et en ajoute par mégarde un nombre aléatoire de loi de Poisson (loi

des événements rares ou loi des petits nombres).

Convenablement renormalisé, le processus à espace d’états discret converge vers le processus d’Ornstein-Uhlenbeck étudié dans le chapitre 25. On renvoie à ce sujet par exemple au livre de Philippe Robert [Rob00]. Ce livre propose plus généralement une étude accessible et assez générale des files d’attentes, au moyen de la théorie des martingales et des processus ponctuels. On peut également consulter le livre de François Baccelli et Pierre Brémaud [BB03].

On peut établir de nombreux autres résultats pour le processus X. On trou- vera par exemple dans [Cha06] des inégalités fonctionnelles liées au compor- tement en temps long. La relation de commutation du théorème 11.17 est une propriété remarquable du semi-groupe. Le processus d’Ornstein-Uhlenbeck sa- tisfait la même relation en remplaçant le gradient discret D par un gradient usuel sur R, et cette liaison est une instance d’un phénomène plus général qui fait l’objet du chapitre 27. On peut obtenir des versions un peu plus faibles pour des processus plus généraux qui fournissent des estimations pour la convergence vers la loi invariante, voir par exemple l’article de Pietro Ca- puto, Paolo Dai Pra, et Gustavo Posta [CDPP09].

12

Modèle de Wright-Fisher

Mots-clés. Dynamique de population ; génétique des population.

Outils. Chaîne de Markov ; martingale ; théorème d’arrêt ; décomposition

spectrale.

Difficulté. **

Ce chapitre est consacré à des modèles d’évolution de génotypes au fil des générations dans une population de taille constante. Le point de départ est la loi de Hardy-Weinberg liée à la théorie de Mendel en population infinie. Nous présentons ensuite quelques modèles classiques en population finie : le modèle de Moran puis les modèles de Wright-Fisher. La dernière section est consacrée au modèle de Cannings qui est une généralisation des précédents.

12.1 Loi de Hardy-Weinberg

La théorie de Mendel assure la préservation de la variabilité des génotypes.

Théorème 12.1 (Loi de Hardy-Weinberg pour la théorie de Mendel). Consi-

Dans le document Recueil de Modèles Aléatoires (Page 161-167)