• Aucun résultat trouvé

Simulation exacte d'une mesure stationnaire

Dans le document en economie et en nance (Page 97-100)

3.4 Methodes particulaires

4.1.3 Simulation exacte d'une mesure stationnaire

Une methode recente, et extr^emement astucieuse, due a J. Propp et D. Wilson [72], permet si l'on souhaite simuler une loi de probabilite p= (pi) et que l'on dispose d'une matrice de transitionP = (pij) pour laquellepest stationnaire, de construire un algorithme de simulation exacte de p, avec un test d'arr^et explicite. Pour comprendre cette methode, repartons de la denition algorithmique 3.1.

Soit (Ut)t2IN une suite de VAIID, a valeurs dans un espace mesurable U etIP leur loi de probabilite. Soit E =fi;j;:::g un ensemble ni, et une application deEU dans E telle que pour tout i;j 2E et pour tout t 2IN:

IP[(i;Ut) =j] =pi;j :

L'application de E dans E qui a i associe (i;Ut) est une application aleatoire de E dans E. Si on compose deux telles applications, on obtient une nouvelle application aleatoire, et l'image de cette nouvelle application a au plus autant d'elements que les images de chacune des deux composantes. Si on compose entre elles susamment de ces applications, on peut s'attendre a ce que l'image de la composee nisse par ne contenir qu'un seul element. L'idee de Propp et Wilson consiste a composer successivement a gauche (vers le passe) les applications (i;Ut) jusqu'a ce que la composee devienne constante. Miraculeusement, la valeur de cette constante est i avec probabilite pi.

93

La suite d'applications aleatoires que l'on souhaite denir est une cha^ne de Markov a valeurs dans EE. Soit F une application aleatoire deE dans E (variable aleatoire a valeurs dans EE), independante de la suite (Ut). On denit la suite (Ft)t2IN d'applica-tions aleatoires de E dans E par F0 =F et pour tout t0 :

Ft+1(i) =Ft((i;Ut)); 8i2E : Autrement dit, en notant t l'application aleatoire (;Ut) :

Ft =F 1t 1 :

On verie immediatement que la suite (Ft)t2IN est bien une cha^ne de Markov sur EE. On notera IPF sa loi.

On suppose que la matriceP est irreductible et aperiodique. Pour tout i2 E, on note f(i) l'application constamment egale a i (f(i)(j) = i; 8j 2 E). Le fait que P soit irreductible et aperiodique entra^ne que les applications f(i), i 2 E sont les seuls etats absorbants de la cha^ne de Markov (Ft). Mais cela ne sut pas pour armer que la cha^ne (Ft) est absorbee avec probabilite 1 dans l'un de ces etats. Voici un contre exemple. Soit E = fa;bg et P la matrice carree d'ordre 2 dont les quatre coecients valent 1=2. Soit (Ut) une suite de VAIID de Bernoulli, avec IP[Ut = 0] =IP[Ut = 1] = 1=2. Denissons par :

(a;0) =a ; (b;0) =b ; (a;1) = b ; (b;1) =a :

On a bien IP[(i;Ut) =j] = 1=2. Pourtant, si F est l'application identique alors pour toutt,Ft est egale a l'application identique ou bien a la transposition dea etbchacune avec probabilite 1=2, et n'est donc jamais constante. Pour eviter ce piege nous imposons que le cardinal de l'image puisse toujours diminuer.

8E0 E ; jE0j>1 =)IP[j(E0;Ut)j<jE0j]>0: (4.4)

Theoreme 4.6

Soit T le temps d'absorption de la cha^ne (Fn) : T = infft 2IN; Ft est constanteg:

Sous l'hypothese(4.4), T est une variable aleatoire presque s^urement nie, d'esperance nie. De plus, siI designe l'application identique deE dans E, alors, pour tout i2E :

IPI[FT =f(i)] =pi :

Demonstration: Par l'hypothese (4.4), toutes les applications autres que les applications constantes sont des etats transients de la cha^ne (Ft), et la cha^ne atteint necessairement l'un des etats absorbants au bout d'un temps ni. En fait on peut donner une evaluation grossiere du temps d'absorption T. L'hypothese que la matrice de transition P = (pi;j)i;j2E est irreductible et aperiodique, entra^ne que toutes les puissances de P a partir d'un certain rang ont tous leurs coecients positifs. On notera m le plus petit

94

entier tel que la matrice Pm a tous ses coecients strictement positifs. Il existe donc strictement inferieur a 1 tel que :

IPF[T > m]< ;

quelle que soit la loi de F. Par la propriete de Markov, pour toutk 1 : IPF[T > km]< k :

Et donc :

IE[T] = X1

h=0IP[T > h] = X1

k=0 mX1

h=0 IP[T > km+h]

< X1

k=0mk = m 1 :

On peut donc s'attendre a ce que la cha^ne soit absorbee en un temps raisonnable.

Reste a montrer que c'est bien la mesure stationnairep qui est atteinte au moment de l'absorption. Pour toute application f xee, de E dans E, notons :

pf(i) =IPf[FT =f(i)]:

Dire que pour F0 f, FT = f(i) est equivalent a 1 N 2 f 1(i), soit aussi a I 1 N 2 f 1(i). Mais si la cha^ne, partant de I arrive a l'instant N dans l'ensemble f 1(i), elle sera necessairement absorbee en un point de cet ensemble.

Reciproquement, si la cha^ne partant de I est absorbee en un point def 1(i), alors, en composant a droite avec f, la cha^ne partant def sera absorbee en I. On a donc :

pf(i) = X

j2f 1(i)pI(j):

Mais en decomposant sur les valeurs de la premiere application aleatoire 1 : pI(i) = X

f2EEIP[1 =f]pf(i)

= X

f2EEIP[1 =f] X

j2f 1(i)pI(j)

= X

j2EpI(j) X

f2EE f(j)=i

IP[1 =f]

= X

j2EpI(j)IP[1(j) =i]

= X

j2EpI(j)pji :

La mesure pI est donc bien egale a la mesure stationnairep(qui est unique puisque P

est irreductible). 2

95

Pour simuler exactement la mesure p, il sut donc en theorie de composer les applica-tions aleatoires 1t jusqu'a ce que la composee soit constante. La valeur de la constante obtenue est distribuee selon la loi p. Rappelons qu'on n'utilise une methode MCMC pour simuler une loi de probabilite que quand l'espace d'etats est trop grand pour que l'on puisse utiliser une methode directe. Calculer explicitement les images de tous les elements de l'ensemble E est donc exclu. La intervient un point crucial de la methode de Propp et Wilson. Dans la denition de , on dispose d'une grande latitude. Rien ne dit en particulier que les images ((i;U)) doivent ^etre des variables independantes. On pourra donc choisir de maniere a ce qu'il suse que les images par 1 t de quelques etats seulement concident, pour pouvoir armer que l'application est constante. L'adaptation de la methode a toutes sortes de problemes concrets a fait l'objet de nombreuses publications ces 5 dernieres annees. Nous ne la developperons pas ici.

On pourrait penser qu'il aurait ete plus naturel de composer les applications aleatoires a droite (vers le futur), plut^ot qu'a gauche. On denirait ainsi une cha^ne de Markov, (Gt)t2IN, a valeurs dans EE, par G0 =G, independante de la suite (Ut), et pour tout t 0 :

Gt+1(i) = (Gt(i);Ut); 8i2E :

Sous l'hypothese (4.4), l'ensemble des applications constantes ff(i); i 2 Eg est l'u-nique classe recurrente de cette cha^ne de Markov. Le temps d'atteinte S de cette classe recurrente est encore presque s^urement ni. On pourrait s'attendre a ce que l'application constante GM soit f(i) avec probabilite pi. Ce n'est pas necessairement le cas. Supposons par exemple qu'il existe un couple (i;j)2 E tel que pi;j = 1. On a alors :

IPG[GS =f(j)] = 0 :

Dans le document en economie et en nance (Page 97-100)