• Aucun résultat trouvé

Mesures stationnaires et mesures reversibles

Dans le document en economie et en nance (Page 91-96)

3.4 Methodes particulaires

4.1.1 Mesures stationnaires et mesures reversibles

Soit E = fi;j;:::g un ensemble ni. Soit P = (pij) la matrice de transition d'une cha^ne de Markov homogene sur l'ensemble niE(voir 3.1.2). La somme des coecients de chaque ligne deP vaut 1. Autrement dit, le vecteur

11

E dont toutes les coordonnees valent 1 est vecteur propre de P, associe a la valeur propre 1. Donc 1 est egalement valeur propre de tP. Les mesures de probabilite, vecteurs propres de tP associes a la valeur propre 1 sont les etats d'equilibre de la cha^ne.

Denition 4.1

Soit p = (pi)i2E une mesure de probabilite sur E. On dit que p est une mesure stationnaire de la cha^ne de Markov de matrice de transition P, ou que la matrice P est p-stationnaire, si

tP p = p :

Il faut comprendre cette denition par reference a la proposition 3.3. Soit (Xn);n2IN une cha^ne de Markov de matrice de transition P. Supposons que la loi deX0 soit une mesure stationnaire p, alors pour tout n 1, la loi de Xn est encore p (d'ou le nom

87

de mesure stationnaire). On demontre que toute matrice de transition admet au moins une mesure stationnaire. La reversibilite est un cas tres particulier de stationnarite.

Denition 4.2

Soit p = (pi)i2E une mesure de probabilite sur E. On dit que p est une mesure reversible pour la cha^ne de Markov de matrice de transition P, ou que la matrice P est p-reversible, si

pipij = pjpji; 8i;j 2E : (4.1) Le livre de Kelly [49] est une bonne reference generale sur la reversibilite et ses appli-cations. La relation (4.1) s'appelle condition de bilan detaille. Observons tout d'abord qu'une mesure reversible est necessairement stationnaire. En eet si on somme par rapport a j l'equation (4.1), on obtient

pi = X

j2E pjpji ; 8i2E ; qui est la condition de stationnarite.

Sipest une mesure reversible et si la loi de Xm est p, alors non seulement la loi de Xm+1 est encore p (stationnarite), mais on a :

IP[Xm =i etXm+1 =j] = IP[Xm =j et Xm+1 =i]:

C'est la raison pour laquelle on parle de mesure reversible. Soit P une matrice de transitionp-reversible. Soienti etj deux etats tels que pi >0 et pj = 0. Alors pij = 0.

Donc la restriction de P a l'ensemble des etats itels que pi >0 est encore une matrice de transition, qui est reversible par rapport a la restriction de pa son support. Quitte a reduire l'espace d'etats, on peut donc se ramener au cas ou la mesure reversible pest strictement positive (pi >0;8i2E). C'est ce que nous supposerons desormais.

La condition de bilan detaille (4.1) s'ecrit sous une forme matricielle qui nous sera tres utile par la suite. Soit p = (pi)i2E une mesure de probabilite strictement positive sur E. Notons Dla matrice diagonale dont le coecient d'ordre (i;i) est ppi.

D = Diag( (ppi ); i2E ):

On verie immediatement que la matrice de transitionP estp-reversible si et seulement si la matrice DPD 1 est symetrique.

Pour donner des exemples de cha^nes admettant une mesure reversible, nous com-mencons par observer qu'on peut toujours \symetriser" une matrice de transition ad-mettant p comme mesure stationnaire, pour la rendre p-reversible.

Proposition 4.3

Soit P une matrice de transition et p = (pi)i2E une mesure sta-tionnaire pour P, telle que pour tout i, pi > 0. Soit P la matrice D 2tPD2, et Q = (P + P)=2. Alors les matrices P et Q sont des matrices de transition, P est p-stationnaire et Q est p-reversible.

La matriceP est celle de l'adjoint de l'operateur de matriceP dansL2(p). Une matrice de transitionP est p-reversible si l'operateur est auto-adjoint dans L2(p). Par souci de

88

simplicite, nous avons choisi de nous en tenir a une presentation matricielle elementaire, m^eme si beaucoup de resultats s'ecrivent de maniere beaucoup plus elegante avec le formalisme de l'analyse hilbertienne.

L'observation suivante est immediate, mais elle contient bon nombre d'applications.

Proposition 4.4

Supposons queP soit une matrice de transition symetrique, alors P admet la loi uniforme sur E comme mesure reversible.

Exemple :

Marches aleatoires symetriques.

Supposons E muni d'une structure de graphe non oriente G = (E;A), ou A designe l'ensemble des ar^etes :

Anfi;jg; i;j2Eo: Soit r le degre maximal d'un sommet du graphe.

r = maxi

2E

n

fj 2E : fi;jg2Ago;

ou j:j designe le cardinal d'un ensemble ni. Denissons la matrice de transition P = (pij) par

pij = 1r sifi;jg2A ;

= 0 sifi;jg2= A ;

les coecients diagonaux etant tels que la somme des elements d'une m^eme ligne vaut 1. La cha^ne de Markov de matrice de transition P s'appelle marche aleatoire symetrique sur le graphe G. La matrice P est, a une transformation pres, ce que les combinatoriciens nomment le laplacien du graphe G (voir [11]). Cet exemple est a rapprocher de la proposition 3.6.

Il existe une analogie etroite entre les cha^nes de Markov symetriques et les reseaux electriques (voir [28]). Les etats deEsont vus comme les sommets d'un reseau, relies par des lignes electriques. L'analogue de la probabilite de transition pij est la conductance (inverse de la resistance) de la ligne reliant i a j.

Des criteres pour verier si une matrice de transition donnee admet ou non une mesure reversible ont ete donnes par Kolmogorov (voir [49]). Nous nous interesserons plut^ot ici a la construction d'une matrice de transition p-reversible, quand p est une mesure donnee. Voici une methode generale.

Proposition 4.5

Soit Q= (qij) une matrice de transition sur E, veriant qij >0 =) qji >0; 8i;j 2E :

Soitp= (pi)i2E une loi de probabilite strictement positive surE. Denissons la matrice de transition P = (pij) de la facon suivante : pour i6=j

pij = qij min

(pjqji

piqij ; 1

)

si qij 6= 0;

= 0 sinon: (4.2)

89

Les coecients diagonaux sont tels que la somme des elements d'une m^eme ligne vaut 1.

La matrice de transition P est p-reversible.

On peut voir la proposition ci-dessus comme une extension de la methode de rejet qui permet de simuler une loi de probabilite quelconque a partir d'une autre. Dans la proposition 4.5, la matriceQs'appellematrice de selection. L'algorithme correspondant porte le nom d'algorithme de Metropolis.

InitialiserX

t 0

Repeter

i X

choisir j avec probabiliteqij

(pj qji)=(piqij) Si (1) alors

X j

Sinon

Si (Random < ) alors

X j

nSi nSi t t+1

Jusqu'a (arr^et de la simulation)

Tel qu'il est ecrit, cet algorithme n'est evidemment pas optimise. Dans la plupart des applications, la matrice de transition Q est symetrique, ce qui simplie le calcul du coecient de rejet (remarquer qu'il vaut mieux dans ce cas tester si pj < pi avant de faire le calcul de ). Tres souvent, l'espace des etats est naturellement muni d'une structure de graphe deduite du contexte d'application, et on choisit alors pour Q la matrice de transition de la marche aleatoire symetrique sur ce graphe.

Exemple :

Ensemble des stables d'un graphe.

Soit G = (S;B) un graphe ni non oriente, dont S est l'ensemble des sommets et B SS l'ensemble des ar^etes. On considere l'ensemble E des stables de ce graphe.

Un sous-ensemble R de S est dit stable si

8x;y 2R ; fx;yg2= B :

L'algorithme suivant simule une cha^ne de Markov irreductible et aperiodique qui admet la loi uniforme sur E pour mesure reversible.

R ;

t 0

Repeter

choisir x au hasard dans S Si (x2R)

90

alors R Rnfxg sinon

Si (8y2R; fx;yg2= B) alors R R[fxg nSi nSi

t t+ 1

Jusqu'a (arr^et de la simulation)

L'ensemble des stables E est un sous-ensemble de l'ensemble E0 de tous les sous-ensembles deS.E0 est naturellement muni d'une structure de graphe (hypercube), pour laquelle deux sous-ensembles sont voisins s'ils dierent en un seul element. L'algorithme ci-dessus simule la marche aleatoire sur cet hypercube (a chaque pas on choisit un element de S au hasard, on le rajoute a l'ensemble courant s'il n'y etait pas, on le retranche sinon). Pour obtenir une marche aleatoire symetrique sur l'ensemble des stables, il sut d'imposer la contrainte que l'on ne peut rajouter un elementxaRque si R[fxg est encore stable.

Supposons maintenant que l'on veuille simuler la loi de probabilite sur E telle que la probabilite de tout stable R est donnee par

pR = 1Z jRj;

ou est un reel strictement positif, et Z = PR2EjRj. Il est inutile de calculer la constante de normalisation Z pour appliquer l'algorithme de Metropolis (proposition 4.5). Pour >1, l'algorithme est le suivant (on le modierait de maniere evidente pour <1).

R ;

t 0

Repeter

choisir x au hasard dans S Si (x2R)

alors

Si (Random <1=)alors R R fxg sinonnSi

Si (8y2R; fx;yg2= B) alors R R[fxg nSi nSi

t t+ 1

Jusqu'a (arr^et de la simulation)

Dans la section suivante, nous decrivons une premiere application des methodes MCMC au denombrement de grands ensembles.

91

Dans le document en economie et en nance (Page 91-96)