• Aucun résultat trouvé

La chaˆıne de Markov canonique

Nous commen¸cons par un r´esultat d’existence de chaˆıne de Markov associ´ee `a une matrice de transition donn´ee.

Proposition 13.3.1 Soit Q une matrice stochastique sur E. On peut trouver un espace de probabilit´e (Ω′,F, P) sur lequel il existe, pour tout x∈ E, un processus (Xx

n)n∈N qui est une

chaˆıne de Markov de matrice de transition Q, issue de Xx 0 = x.

Preuve. On peut prendre Ω′ = [0, 1[, muni de la tribu bor´elienne et de la mesure de

Lebesgue. A partir du d´eveloppement dyadique (propre) d’un r´eel ω ∈ [0, 1[, ω =

X

n=0

εn(ω) 2−n−1, εn(ω)∈ {0, 1}

on construit une suite (εn)n∈N de v.a. ind´ependantes de mˆeme loi P (εn = 1) = P (εn = 0) =

1/2. Si ϕ est une injection de N×N dans N, les v.a. ηi,j = εϕ(i,j), i, j ∈ N sont (´evidemment)

encore ind´ependantes et de mˆeme loi. En posant Ui =

X

j=0

ηi,j2−j−1

on obtient une suite U0, U1, U2, . . . de v.a. ind´ependantes de loi uniforme sur [0, 1] (pour voir

que Ui suit la loi uniforme, noter que Ppj=0ηi,j2−j−1 a mˆeme loi que Ppn=0εn2−n−1, pour

tout entier p, et faire tendre p vers ∞).

Soit y1, y2, . . . , yk, . . . une ´enum´eration des ´el´ements de E. Fixons aussi x∈ E. On pose

Xx 0 = x puis X1x = yk si X 1≤j<k Q(x, yj) < U1 ≤ X 1≤j≤k Q(x, yj)

de sorte qu’il est clair que P (Xx

1 = y) = Q(x, y) pour tout y ∈ E. On continue par r´ecurrence

en posant Xn+1x = yk si X 1≤j<k Q(Xnx, yj) < Un+1 ≤ X 1≤j≤k Q(Xnx, yj).

En utilisant l’ind´ependance des v.a. Ui, on v´erifie tr`es facilement que pour tout k≥ 1,

P (Xn+1x = yk | X0x = x0, X1x = x1, . . . Xnx = xn) = P ( X 1≤j<k Q(xn, yj) < Un+1 ≤ X 1≤j≤k Q(xn, yj)| X0x = x0, X1x = x1, . . . Xnx = xn) = P ( X 1≤j<k Q(xn, yj) < Un+1 ≤ X 1≤j≤k Q(xn, yj)) = Q(xn, yk), de sorte que (Xx

n)n∈N est une chaˆıne de Markov de transition Q. 

Dans la suite, il sera utile de faire un choix canonique de l’espace de probabilit´e sur lequel sera d´efinie la chaˆıne de Markov ´etudi´ee. On prendra

Ω = EN.

Un ´el´ement ω de Ω est donc une suite ω = (ω0, ω1, ω2, . . .) d’´elements de E. Les applications

coordonn´ees Xn, n∈ N sont alors d´efinies par

Xn(ω) = ωn.

On munit Ω de la plus petite tribu, not´ee F, qui rende mesurables les applications coor- donn´ees. C’est aussi la tribu engendr´ee par les “cylindres”, c’est-`a-dire les ensembles C de la forme

C ={ω ∈ Ω : ω0 = x0, ω1 = x1, . . . , ωn= xn}

o`u n∈ N et x0, x1, . . . xn∈ E.

Lemme 13.3.2 Soit (G,G) un espace mesurable, et soit ψ une application de G dans Ω. Alors ψ est mesurable ssi Xn◦ ψ l’est pour tout n ∈ N.

Preuve. Il suffit bien sˆur de montrer que si Xn◦ ψ est mesurable pour tout n, alors ψ l’est

aussi. Or,

{A ∈ F : ψ−1(A)∈ G}

est une tribu sur Ω qui par hypoth`ese contient tous les ensembles de la forme X−1

n (y), y ∈ E,

donc rend mesurables toutes les applications coordonn´ees Xn. Cette tribu est n´ecessairement

F tout enti`ere. 

Th´eor`eme 13.3.3 Soit Q une matrice stochastique sur E. Pour tout x∈ E, il existe une unique probabilit´e, not´ee Px, sur Ω = EN telle que sous Px, le processus des coordonn´ees

Preuve. Soit x∈ E. La proposition 13.3.1 permet de construire sur un espace de probabilit´e (Ω′,F, P) un processus (Xx

n)n∈N qui est une chaˆıne de Markov de transition Q telle que

Xx

0 = x. On d´efinit alors Px comme la mesure image de P′ par l’application

Ω′ −→ Ω

ω′ −→ (Xx

n(ω′))n∈N.

Cette application est mesurable grˆace au lemme pr´ec´edent. On a Px(X0 = x) = P′(X0x =

x) = 1 et de plus pour tous x0, x1, . . . , xn∈ E,

Px(X0 = x0, X1 = x1, . . . , Xn= xn) = P′(X0x = x0, X1x = x1, . . . , Xnx = xn)

= P′(X0x = x0)Q(x0, x1) . . . Q(xn−1, xn)

= Px(X0 = x0)Q(x0, x1) . . . Q(xn−1, xn)

ce qui montre que sous Pxle processus des coordonn´ees est une chaˆıne de Markov de transition

Q (cf proposition 13.1.1).

Pour l’unicit´e, on remarque que si P′

x est une autre mesure de probabilit´e satisfaisant la

propri´et´e du th´eor`eme, les mesures Px et P′x co¨ıncident sur les cylindres. Or les cylindres

forment une classe stable par intersection finie et qui engendre la tribu F. Le lemme de

classe monotone montre alors que Px= P′x (cf Corollaire 1.4.2). 

Remarques. (a) De la derni`ere assertion de la proposition 13.1.1, on d´eduit que, pour tout n≥ 0 et tous x, y ∈ E,

Px(Xn = y) = Qn(x, y).

(b) Si µ est une mesure de probabilit´e sur E, on notera

Pµ=X

x∈E

µ(x) Px

qui d´efinit une mesure de probabilit´e sur Ω. En ´ecrivant la formule explicite pour Pµ(X0 =

x0, . . . , Xn= xn), on v´erifie imm´ediatement que sous Pµ, (Xn)n∈N est une chaˆıne de Markov

de transition Q, et X0 a pour loi µ.

(c) Si (X′

n)n∈N est une chaˆıne de Markov de matrice de transition Q et de loi initiale µ, alors

pour toute partie mesurable B de Ω = EN, on a

P ((Xn′)n∈N ∈ B) = Pµ(B).

En effet cette ´egalit´e est vraie lorsque B est un cylindre, et on peut ensuite utiliser le mˆeme argument qu’`a la fin de la preuve ci-dessus. Cette ´egalit´e montre que tous les r´esultats que nous ´etablirons dans la suite pour la chaˆıne de Markov canonique (celle fournie par le th´eor`eme 13.3.3) se transporteront `a une chaˆıne de Markov quelconque de mˆeme matrice de transition.

L’un des avantages importants de la chaˆıne de Markov canonique est de pouvoir utiliser les op´erateurs de translation. Pour tout k∈ N on d´efinit l’application θk : Ω−→ Ω en posant

Le lemme 13.3.2 montre que ces applications sont mesurables.

On noteFn= σ(X0, X1, . . . , Xn) la filtration canonique sur Ω. On utilise aussi la notation

Ex pour d´esigner l’esp´erance sous la probabilit´e Px.

Th´eor`eme 13.3.4 (Propri´et´e de Markov simple) Soient F et G deux fonctions mesurables positives sur Ω et soit n≥ 0. Supposons que F est Fn-mesurable. Alors, pour tout x∈ E,

Ex[F · G ◦ θn] = Ex[F EXn[G]].

De mani`ere ´equivalente,

Ex[G◦ θn | Fn] = EXn[G],

ce qu’on peut traduire en disant que la loi conditionnelle de θn(ω) connaissant (X0, X1, . . . , Xn)

est PXn.

Remarque. Cet ´enonc´e se g´en´eralise aussitˆot au cas o`u on remplace Ex par Eµ pour

n’importe quelle loi initiale µ. Il en sera de mˆeme pour l’´enonc´e suivant.

Preuve. Il suffit de montrer la premi`ere assertion, et pour cela de traiter le cas o`u F = 1{X0=x0,X1=x1,...,Xn=xn}

pour x0, x1, . . . , xn∈ E. Consid´erons d’abord le cas o`u G est du mˆeme type :

G = 1{X0=y0,X1=y1,...,Xp=yp}

o`u p≥ 0 et y0, . . . , yp ∈ E. Dans ce cas, si y ∈ E,

Ey[G] = 1{y0=y}Q(y0, y1) . . . Q(yp−1, yp)

et par ailleurs

Ex[F · G ◦ θn] = Px(X0 = x0, X1 = x1, . . . , Xn= xn, Xn = y0, Xn+1= yn+1, . . . , Xn+p = yp)

= 1{x0=x}Q(x0, x1) . . . Q(xn−1, xn) 1{y0=xn}Q(y0, y1) . . . Q(yp−1, yp)

de sorte qu’on obtient facilement le r´esultat. Un argument de classe monotone montre ensuite que le r´esultat reste vrai pour toute fonction G = 1A, A∈ F, ce qui permet de conclure. 

Le th´eor`eme pr´ec´edent donne une forme g´en´erale de la propri´et´e de Markov (simple) : la loi conditionnelle du futur θn(ω) connaissant le pass´e (X0, X1, . . . , Xn) ne d´epend que

du pr´esent Xn. Il sera tr`es important de pouvoir ´etendre cette propri´et´e au cas o`u n est

remplac´e par un temps al´eatoire T .

Pour illustrer l’int´erˆet de cette extension, consid´erons le probl`eme de savoir si partant d’un point x la chaˆıne y revient infiniment souvent. Autrement dit, en notant

Nx = ∞

X

n=0

a-t-on Px(Nx=∞) = 1 ? Il suffit en fait de v´erifier que la chaˆıne revient au moins une fois

en x. Si

Hx = inf{n ≥ 1 : Xn= x}

avec la convention habituelle inf ∅ = +∞, on a l’´equivalence Px(Nx =∞) = 1 ⇔ Px(Hx <∞) = 1.

L’implication ⇒ est triviale. Dans l’autre sens, supposons Px(Hx < ∞) = 1. Mod-

ulo l’extension de la propri´et´e de Markov mentionn´ee ci-dessus, on sait que θHx(ω) =

(ωHx(ω)+n)n∈N a pour loi Px. Mais alors, en ´ecrivant

Nx(ω) = 1 + Nx(θHx(ω))

on voit que Nx a mˆeme loi que 1 + Nx sous Px, ce qui n’est possible que si Nx =∞, Px p.s.

Le th´eor`eme qui suit permet de rendre ce raisonnement rigoureux (le r´esultat obtenu sera repris et d´etaill´e dans la partie suivante).

Th´eor`eme 13.3.5 (Propri´et´e de Markov forte) Soit T un temps d’arrˆet de la filtration (Fn). Soient F et G deux fonctions mesurables positives sur Ω. Supposons que F est FT-

mesurable. Alors, pour tout x∈ E,

Ex[1{T <∞}F · G ◦ θT] = Ex[1{T <∞}F EXT[G]].

De mani`ere ´equivalente,

Ex[1{T <∞}G◦ θT | FT] = 1{T <∞}EXT[G].

Remarque. La v.a. XT, d´efinie sur l’ensemble FT-mesurable {T < ∞}, est FT-mesurable

(cf Proposition 12.2.3 - dans le chapitre pr´ec´edent on consid`ere des processus `a valeurs r´eelles, mais l’argument reste le mˆeme). La v.a. EXT[G], d´efinie aussi sur l’ensemble {T < ∞}, est

la compos´ee des applications ω −→ XT(ω) et x → Ex[G].

Preuve. Pour tout entier n ≥ 0,

Ex[1{T =n}F · G ◦ θT] = Ex[1{T =n}F · G ◦ θn] = Ex[1{T =n}F EXn[G]]

d’apr`es la propri´et´e de Markov simple (th´eor`eme 13.3.4) appliqu´ee en observant que 1{T =n}F estFn-mesurable parce que F estFT-mesurable (cf d´efinition de la tribuFT dans le chapitre

pr´ec´edent). Il suffit ensuite de sommer l’´egalit´e obtenue sur toutes les valeurs de n∈ N.  Corollaire 13.3.6 Soit T un temps d’arrˆet tel que Px(T <∞) = 1. Supposons qu’il existe

y∈ E tel que Px(XT = y) = 1. Alors sous Px, θT(ω) est ind´ependant de FT et de loi Py.

Preuve. Avec les notations du th´eor`eme, on a

Ex[F · G(θT(ω))] = Ex[F EXT[G]] = Ex[F Ey[G]] = Ex[F ] Ey[G]