Nous commen¸cons par un r´esultat d’existence de chaˆıne de Markov associ´ee `a une matrice de transition donn´ee.
Proposition 13.3.1 Soit Q une matrice stochastique sur E. On peut trouver un espace de probabilit´e (Ω′,F′, P′) sur lequel il existe, pour tout x∈ E, un processus (Xx
n)n∈N qui est une
chaˆıne de Markov de matrice de transition Q, issue de Xx 0 = x.
Preuve. On peut prendre Ω′ = [0, 1[, muni de la tribu bor´elienne et de la mesure de
Lebesgue. A partir du d´eveloppement dyadique (propre) d’un r´eel ω ∈ [0, 1[, ω =
∞
X
n=0
εn(ω) 2−n−1, εn(ω)∈ {0, 1}
on construit une suite (εn)n∈N de v.a. ind´ependantes de mˆeme loi P (εn = 1) = P (εn = 0) =
1/2. Si ϕ est une injection de N×N dans N, les v.a. ηi,j = εϕ(i,j), i, j ∈ N sont (´evidemment)
encore ind´ependantes et de mˆeme loi. En posant Ui =
∞
X
j=0
ηi,j2−j−1
on obtient une suite U0, U1, U2, . . . de v.a. ind´ependantes de loi uniforme sur [0, 1] (pour voir
que Ui suit la loi uniforme, noter que Ppj=0ηi,j2−j−1 a mˆeme loi que Ppn=0εn2−n−1, pour
tout entier p, et faire tendre p vers ∞).
Soit y1, y2, . . . , yk, . . . une ´enum´eration des ´el´ements de E. Fixons aussi x∈ E. On pose
Xx 0 = x puis X1x = yk si X 1≤j<k Q(x, yj) < U1 ≤ X 1≤j≤k Q(x, yj)
de sorte qu’il est clair que P (Xx
1 = y) = Q(x, y) pour tout y ∈ E. On continue par r´ecurrence
en posant Xn+1x = yk si X 1≤j<k Q(Xnx, yj) < Un+1 ≤ X 1≤j≤k Q(Xnx, yj).
En utilisant l’ind´ependance des v.a. Ui, on v´erifie tr`es facilement que pour tout k≥ 1,
P (Xn+1x = yk | X0x = x0, X1x = x1, . . . Xnx = xn) = P ( X 1≤j<k Q(xn, yj) < Un+1 ≤ X 1≤j≤k Q(xn, yj)| X0x = x0, X1x = x1, . . . Xnx = xn) = P ( X 1≤j<k Q(xn, yj) < Un+1 ≤ X 1≤j≤k Q(xn, yj)) = Q(xn, yk), de sorte que (Xx
n)n∈N est une chaˆıne de Markov de transition Q.
Dans la suite, il sera utile de faire un choix canonique de l’espace de probabilit´e sur lequel sera d´efinie la chaˆıne de Markov ´etudi´ee. On prendra
Ω = EN.
Un ´el´ement ω de Ω est donc une suite ω = (ω0, ω1, ω2, . . .) d’´elements de E. Les applications
coordonn´ees Xn, n∈ N sont alors d´efinies par
Xn(ω) = ωn.
On munit Ω de la plus petite tribu, not´ee F, qui rende mesurables les applications coor- donn´ees. C’est aussi la tribu engendr´ee par les “cylindres”, c’est-`a-dire les ensembles C de la forme
C ={ω ∈ Ω : ω0 = x0, ω1 = x1, . . . , ωn= xn}
o`u n∈ N et x0, x1, . . . xn∈ E.
Lemme 13.3.2 Soit (G,G) un espace mesurable, et soit ψ une application de G dans Ω. Alors ψ est mesurable ssi Xn◦ ψ l’est pour tout n ∈ N.
Preuve. Il suffit bien sˆur de montrer que si Xn◦ ψ est mesurable pour tout n, alors ψ l’est
aussi. Or,
{A ∈ F : ψ−1(A)∈ G}
est une tribu sur Ω qui par hypoth`ese contient tous les ensembles de la forme X−1
n (y), y ∈ E,
donc rend mesurables toutes les applications coordonn´ees Xn. Cette tribu est n´ecessairement
F tout enti`ere.
Th´eor`eme 13.3.3 Soit Q une matrice stochastique sur E. Pour tout x∈ E, il existe une unique probabilit´e, not´ee Px, sur Ω = EN telle que sous Px, le processus des coordonn´ees
Preuve. Soit x∈ E. La proposition 13.3.1 permet de construire sur un espace de probabilit´e (Ω′,F′, P′) un processus (Xx
n)n∈N qui est une chaˆıne de Markov de transition Q telle que
Xx
0 = x. On d´efinit alors Px comme la mesure image de P′ par l’application
Ω′ −→ Ω
ω′ −→ (Xx
n(ω′))n∈N.
Cette application est mesurable grˆace au lemme pr´ec´edent. On a Px(X0 = x) = P′(X0x =
x) = 1 et de plus pour tous x0, x1, . . . , xn∈ E,
Px(X0 = x0, X1 = x1, . . . , Xn= xn) = P′(X0x = x0, X1x = x1, . . . , Xnx = xn)
= P′(X0x = x0)Q(x0, x1) . . . Q(xn−1, xn)
= Px(X0 = x0)Q(x0, x1) . . . Q(xn−1, xn)
ce qui montre que sous Pxle processus des coordonn´ees est une chaˆıne de Markov de transition
Q (cf proposition 13.1.1).
Pour l’unicit´e, on remarque que si P′
x est une autre mesure de probabilit´e satisfaisant la
propri´et´e du th´eor`eme, les mesures Px et P′x co¨ıncident sur les cylindres. Or les cylindres
forment une classe stable par intersection finie et qui engendre la tribu F. Le lemme de
classe monotone montre alors que Px= P′x (cf Corollaire 1.4.2).
Remarques. (a) De la derni`ere assertion de la proposition 13.1.1, on d´eduit que, pour tout n≥ 0 et tous x, y ∈ E,
Px(Xn = y) = Qn(x, y).
(b) Si µ est une mesure de probabilit´e sur E, on notera
Pµ=X
x∈E
µ(x) Px
qui d´efinit une mesure de probabilit´e sur Ω. En ´ecrivant la formule explicite pour Pµ(X0 =
x0, . . . , Xn= xn), on v´erifie imm´ediatement que sous Pµ, (Xn)n∈N est une chaˆıne de Markov
de transition Q, et X0 a pour loi µ.
(c) Si (X′
n)n∈N est une chaˆıne de Markov de matrice de transition Q et de loi initiale µ, alors
pour toute partie mesurable B de Ω = EN, on a
P ((Xn′)n∈N ∈ B) = Pµ(B).
En effet cette ´egalit´e est vraie lorsque B est un cylindre, et on peut ensuite utiliser le mˆeme argument qu’`a la fin de la preuve ci-dessus. Cette ´egalit´e montre que tous les r´esultats que nous ´etablirons dans la suite pour la chaˆıne de Markov canonique (celle fournie par le th´eor`eme 13.3.3) se transporteront `a une chaˆıne de Markov quelconque de mˆeme matrice de transition.
L’un des avantages importants de la chaˆıne de Markov canonique est de pouvoir utiliser les op´erateurs de translation. Pour tout k∈ N on d´efinit l’application θk : Ω−→ Ω en posant
Le lemme 13.3.2 montre que ces applications sont mesurables.
On noteFn= σ(X0, X1, . . . , Xn) la filtration canonique sur Ω. On utilise aussi la notation
Ex pour d´esigner l’esp´erance sous la probabilit´e Px.
Th´eor`eme 13.3.4 (Propri´et´e de Markov simple) Soient F et G deux fonctions mesurables positives sur Ω et soit n≥ 0. Supposons que F est Fn-mesurable. Alors, pour tout x∈ E,
Ex[F · G ◦ θn] = Ex[F EXn[G]].
De mani`ere ´equivalente,
Ex[G◦ θn | Fn] = EXn[G],
ce qu’on peut traduire en disant que la loi conditionnelle de θn(ω) connaissant (X0, X1, . . . , Xn)
est PXn.
Remarque. Cet ´enonc´e se g´en´eralise aussitˆot au cas o`u on remplace Ex par Eµ pour
n’importe quelle loi initiale µ. Il en sera de mˆeme pour l’´enonc´e suivant.
Preuve. Il suffit de montrer la premi`ere assertion, et pour cela de traiter le cas o`u F = 1{X0=x0,X1=x1,...,Xn=xn}
pour x0, x1, . . . , xn∈ E. Consid´erons d’abord le cas o`u G est du mˆeme type :
G = 1{X0=y0,X1=y1,...,Xp=yp}
o`u p≥ 0 et y0, . . . , yp ∈ E. Dans ce cas, si y ∈ E,
Ey[G] = 1{y0=y}Q(y0, y1) . . . Q(yp−1, yp)
et par ailleurs
Ex[F · G ◦ θn] = Px(X0 = x0, X1 = x1, . . . , Xn= xn, Xn = y0, Xn+1= yn+1, . . . , Xn+p = yp)
= 1{x0=x}Q(x0, x1) . . . Q(xn−1, xn) 1{y0=xn}Q(y0, y1) . . . Q(yp−1, yp)
de sorte qu’on obtient facilement le r´esultat. Un argument de classe monotone montre ensuite que le r´esultat reste vrai pour toute fonction G = 1A, A∈ F, ce qui permet de conclure.
Le th´eor`eme pr´ec´edent donne une forme g´en´erale de la propri´et´e de Markov (simple) : la loi conditionnelle du futur θn(ω) connaissant le pass´e (X0, X1, . . . , Xn) ne d´epend que
du pr´esent Xn. Il sera tr`es important de pouvoir ´etendre cette propri´et´e au cas o`u n est
remplac´e par un temps al´eatoire T .
Pour illustrer l’int´erˆet de cette extension, consid´erons le probl`eme de savoir si partant d’un point x la chaˆıne y revient infiniment souvent. Autrement dit, en notant
Nx = ∞
X
n=0
a-t-on Px(Nx=∞) = 1 ? Il suffit en fait de v´erifier que la chaˆıne revient au moins une fois
en x. Si
Hx = inf{n ≥ 1 : Xn= x}
avec la convention habituelle inf ∅ = +∞, on a l’´equivalence Px(Nx =∞) = 1 ⇔ Px(Hx <∞) = 1.
L’implication ⇒ est triviale. Dans l’autre sens, supposons Px(Hx < ∞) = 1. Mod-
ulo l’extension de la propri´et´e de Markov mentionn´ee ci-dessus, on sait que θHx(ω) =
(ωHx(ω)+n)n∈N a pour loi Px. Mais alors, en ´ecrivant
Nx(ω) = 1 + Nx(θHx(ω))
on voit que Nx a mˆeme loi que 1 + Nx sous Px, ce qui n’est possible que si Nx =∞, Px p.s.
Le th´eor`eme qui suit permet de rendre ce raisonnement rigoureux (le r´esultat obtenu sera repris et d´etaill´e dans la partie suivante).
Th´eor`eme 13.3.5 (Propri´et´e de Markov forte) Soit T un temps d’arrˆet de la filtration (Fn). Soient F et G deux fonctions mesurables positives sur Ω. Supposons que F est FT-
mesurable. Alors, pour tout x∈ E,
Ex[1{T <∞}F · G ◦ θT] = Ex[1{T <∞}F EXT[G]].
De mani`ere ´equivalente,
Ex[1{T <∞}G◦ θT | FT] = 1{T <∞}EXT[G].
Remarque. La v.a. XT, d´efinie sur l’ensemble FT-mesurable {T < ∞}, est FT-mesurable
(cf Proposition 12.2.3 - dans le chapitre pr´ec´edent on consid`ere des processus `a valeurs r´eelles, mais l’argument reste le mˆeme). La v.a. EXT[G], d´efinie aussi sur l’ensemble {T < ∞}, est
la compos´ee des applications ω −→ XT(ω) et x → Ex[G].
Preuve. Pour tout entier n ≥ 0,
Ex[1{T =n}F · G ◦ θT] = Ex[1{T =n}F · G ◦ θn] = Ex[1{T =n}F EXn[G]]
d’apr`es la propri´et´e de Markov simple (th´eor`eme 13.3.4) appliqu´ee en observant que 1{T =n}F estFn-mesurable parce que F estFT-mesurable (cf d´efinition de la tribuFT dans le chapitre
pr´ec´edent). Il suffit ensuite de sommer l’´egalit´e obtenue sur toutes les valeurs de n∈ N. Corollaire 13.3.6 Soit T un temps d’arrˆet tel que Px(T <∞) = 1. Supposons qu’il existe
y∈ E tel que Px(XT = y) = 1. Alors sous Px, θT(ω) est ind´ependant de FT et de loi Py.
Preuve. Avec les notations du th´eor`eme, on a
Ex[F · G(θT(ω))] = Ex[F EXT[G]] = Ex[F Ey[G]] = Ex[F ] Ey[G]