C OMPOSITIO M ATHEMATICA
P AUL L ÉVY
Processus strictement ou presque strictement markoviens
Compositio Mathematica, tome 14 (1959-1960), p. 172-193
<http://www.numdam.org/item?id=CM_1959-1960__14__172_0>
© Foundation Compositio Mathematica, 1959-1960, tous droits réser- vés.
L’accès aux archives de la revue « Compositio Mathematica » (http:
//http://www.compositio.nl/) implique l’accord avec les conditions gé- nérales d’utilisation (http://www.numdam.org/conditions). Toute utili- sation commerciale ou impression systématique est constitutive d’une infraction pénale. Toute copie ou impression de ce fichier doit conte- nir la présente mention de copyright.
Article numérisé dans le cadre du programme Numérisation de documents anciens mathématiques
http://www.numdam.org/
ou presque
strictement markoviens
PaulLévy
1. Introduction
10 Nous considèrerons en
principe
des fonctions aléatoiresX(t)
du
temps
t, dont les valeurs x sont des nombresréels,
ou, dans certainsexemples,
despoints
d’une courbe fermée. Le lecteur vérifiera aisément que l’extension de certains résultats au cas où x est unpoint
d’un espace à N dimensions(N oo )
neprésente
au-cune
difficulté,
à condition de convenirque x ~
ysignifie
dans cecas que toutes les coordonnées de y-x sont ~ 0. Pour les défini- tions et remarques du 1° de cette
introduction,
onpeut généraliser beaucoup plus,
et supposer que même la variable t soit unpoint
d’un espace abstrait
quelconque.
Dans de nombreuses
questions,
il suffit de connaître la loijointe
desX(tn)
pourn’importe quelle
suite finie de nombres tn.On la connaît alors pour
n’importe quelle
suiteinfinie,
mêmesi l’ensemble
des tn
estpartout
dense sur l’axe des t. Nous dirons dans ce casqu’on
connaît ladéfinition faible
de la fonction X.Dans d’autres cas, on a besoin de définitions
plus complètes.
Maisquand peut-on
considérer une définition commecOlnplète?
Dans
l’axomatique
de A.Kolmogorov
et J. L.Doob,
pour définir une fonctionaléatoire,
on se donne un ensembleS2,
dontcliaque
élément 03C9correspond
à une déterminationpossible
de lafonction,
une famille borelienne B d’ensembles E CS2,
et uneprobabilité P(E)
définie dans B. Si 03A9 n’est pasdénombrable,
ilest
impossible
que B comprenne tous les E C 03A9: unedéfinition,
àce
point
de vue, n’estjamais complète.
Si on veutqu’elle
soit aumoins aussi
complète
que la définitionfaible,
il faut que B comprenne tous les E C S2 définis par des conditions de la formeX(t)
x, t et x étant donnés. Pour être considérée comme com-plète,
il faut évidemmentque B
ne se réduise pas auplus petit
corps vérifiant cette condition. Mais
quels
ensembles faut-ilajouter?
Il semblequ’une réponse
directe nepuisse qu’être
arbitraire.
Nous éviterons cette difficulté par une méthode
constructive,
qui
seprésentera
sous la forme suivante: nous définirons d’abordun ensemble de variables aléatoires auxiliaires
U,,; X(t) apparaîtra
ensuite comme une fonction
certaine,
biendéfinie,
de t et desU,, .
S’il suffit d’introduire une infinité dénombrable de variables
U,"
qui
soient scalaires ou du moins bien définies par leurs fonctions derépartition,
iln’y
a aucune difficulté à les introduire successive- ment, la loi dechaque X, pouvant dépendre
des choix antérieurs.Dans le cas
contraire,
pour ne pas avoir à considérer un ensemble bien ordonné nondénombrable,
nous supposerons que lesU,, comprennent,
d’unepart
une suite de variablesUn qu’on peut
sans inconvénient supposer enchaînées
[ce
ne serait d’ailleurs pasune restriction essentielle de les supposer
indépendantes;
mais celadevient une restriction si on suppose que ce sont des
X(tn)],
ensuite d’autres variables
U"03C1,
dont les loispeuvent dépendre
desUn,
maisqui
sontindépendantes
les unes des autres.Dans ces
conditions,
la fonction X sera considérée commecomplètement définie.
Bcorrespondra
à la famille des ensemblesmesurables dans
l’espace produit
desU," compte
tenu de la loi deprobabilité
définie dans cet espace. C’esttoujours
dans ce sens que le mot mesurable seraemployé
dans la suite.Précisons que nous ne considérerons
jamais
deux fonctionscomme distinctes si elles
peuvent
être déduites l’une de l’autre enajoutant
à 03A9 et en en retranchant des ensembles deprobabilités
nulles.
Terminons ces remarques
préliminaires
enexprimant
leregret
que
l’axiomatique
deKolmogorov,
dont il n’est pasquestion
dediscuter
qu’elle
doive êtreaujourd’hui
la base du calcul desprobabilités,
ait un peutrop
fait oublier les méthodesconstructives,
sans
lesquelles
la théorie des suites de variables enchaînées n’est pas concevable.2° En termes peu
précis,
une fonction aléatoire est dite marko- vienne si à tout instant t, la valeur actuelleX(t)
de la fonction X étant connue, l’avenir estindépendant
dupassé.
Cette notionpeut
êtreprécisée
deplusieurs
manières.Quand
onparle
de la loide
probabilité
del’avenir, s’agit-il
de la définition faible ou de la définitioncomplète?
D’autres distinctions sontpossibles,
etles
plus importantes
sont en relation avec le fait que laprobabilités
de transition
étant une
probabilité conditionnelle,
n’est pas bien définiequand
la condition
X(t)
= x est infiniment peuprobable.
Il y a donc uneclasse de
probabilités
de transitionéquivalentes,
etn’importe quelle
fonction de cette classe
permet
de définir le processus markovienconsidéré,
ouplutôt
une classe de processus rnarkovienséquivalents.
Si de
plus
on sedonne,
pour une valeurinitiale to
de t, la valeur deX(to),
ou au moins la loi deprobabilité
de cette variablealéatoire,
on obtient une classe de
fonctions
markovienneséquivalentes,
c’est-à-dire
ayant
la même définition faible.Or,
s’ils’agit
d’un processusstationnaire, où p
est de la formep(x’; t’ - t|x),
si l’ensemble des racines deX(t)
= x est presque sûrement non vide et fermé àgauche,
et si Tdésigne
lapremière
deces racines
après
un instant donné0,
il semble d’abord naturel de penser quePr{X(T+t) x’}
estindépendant
de la valeur t de T etégal à p(x’-o; t|x).
Mais cela n’est évidemmentpossible
que pour une seule fonction p choisie convenablement dans la classe des fonctionséquivalentes,
etqui
serait la vraieprobabilité
detransition. La
question
suivante se pose alors naturellement:y
a-t-il,
dans le cas leplus général,
unefonction
pqu’on puisse
considérer comme la vraie
probabilité
detransition,
et à l’aide delaquelle
onpuisse prévoir
l’avenir àpartir
d’un instant aléatoire tel que T(le
sens de ces derniers mots seraprécisé plus loin;
v. définition
3)?
Des
exemples
bien connus(v. l’exemple
2ci-dessous)
montrentque, même dans le cas
stationnaire,
il n’en est pastoujours
ainsi.Dans ces
exemples,
il existe des valeurscritiques
de x,qui peuvent dépendre
de t,qui apparaissent
comme l’aboutissement deplu-
sieurs
trajectoires possibles,
et sont tellesqu’au
moment dupassage au
point
x lesprobabilités
relatives à l’avenirdépendent
du chemin d’arrivée.
Or,
si laprobabilité
p est une fonction continue de x, elle sedistingue
de toutes les fonctions de la même classe. Il est donc naturel de se demander si des conditions de continuité assez peu restrictives ne suffisent pas à la fois pour être assuréqu’il n’y
a pas de valeurcritique
et que p est la vraieprobabilité
de transition.Le résultat
principal
duprésent
travail est la démonstration du faitqu’il
en est bien ainsiguand X(T)
est an nombre certain[v.
le théorème 2, et les formules(8)
et(9) qui
enprécisent
lasignification].
Il estprobable
que ce théorème s’étend à tout instant T vérifiant les conditions de la définition 3, sans la con- ition restrictive relative àX(T).
Nousprésenterons
à cesujet quelques
remarquesqui
ne constituent pas une démonstration.Cette restriction relative à
X(T)
fait que, sous sa formeactuelle,
notre théorème ne
comprend
pas un théorème démontré dès 1945par J. L.
Doob 1).
Mais il est par ailleursbeaucoup plus général, puisque
Doob s’était borné au cas à la fois stationnaire et dénom- brable. La méthode de Doobreposait
sur la division de l’axe des ten intervalles très
petits.
Il semblequ’une
combinaison de saméthode et de la nôtre devrait
permettre
de traitersimplement
uncas
beaucoup plus général.
Un
important
travail de K. L.Clmng [3]
sur les mêmesprob-
lèmes est en cours
d’impression.
Notre méthode estbeaucoup plus simple
que celle deChung.
3° Les nOS 2 et 3 contiennent
quelques définitions,
et lerappel
denotions
classiques
sur laprobabilité
de transition. Nous avonsrenoncé à des définitions
proposées antérieurement,
et où lanotion de
probabilité
de transition était utilisée d’une manière insuffisammentprécise.
Les définitions des fonctionsmarkoviennes,
et strictement
markoviennes,
seront les définitions maintenantclassiques.
Celle des fonctions presque strictement markoviennessera donnée sous une forme nouvelle.
Au n° 4, nous montrerons comment on
peut,
dans tous les cas,déduire de
n’importe quelle probabilité
de tramsition donnée la définitioncomplète
d’une fonctionmarkovienne,
et, au n° 5, nousmontrcrons que la fonction ainsi obtenue est presque strictement markovienne. Il semble inutile d’insister sur le fait que, dans tous les cas, il existe une classe très étendue de fonctions marko- viennes
ayant
la mêmeprobabilité
de transition. Ils’agit
leplus
souvent de modifications artificielles d’une ou
plusieurs
fonctionsqui
sedistinguent
des autres par des conditions de continuité.Lc n° 6
contient, indépendamment
du théorème fondamental mentionnéci-dessus, quelques
remarques se rattachant à la recherche des processus strictement markoviensayant
uneprobabilité
de transition donnée. Nous chercherions àpréciser
lanotion de valeur
critique,
ce àquoi
nous n’avons réussi que moyen- nant certainesconditions,
d’ailleurs assez peu restrictives. Nousindiquerons
comment onpeut
éliminer les valeurscritiques
parapplication
d’une idée de D.Ray, qui
nous a étécommuniquée
par W. Feller: elle repose sur l’introduction de valeursfictives,
c’est-à-dire d’un ensemble de valeursn’ayant
aucune chanced’être réalisé à un instant
donné,
maisqui peut
l’être tout demême au cours des
temps.
Cela nechange
pas laprobabilité
detransition. Il est très vraisemblable que cette élimination suffit à
1) J. L. Doob, [2], théorème 2.1. V. aussi T. Nisida [4], qui par une autre méthode
a vérifié dans un cas particulier le théorème général de Doob.
assurer, sinon les conditions de continuité énoncées dans le théorème 2, du moins des conditions
plus larges qui permettraient
d’aboutir aux mêmes
conclusions,
et même à leur extension au cas oùX(T)
est aléatoire. L’idée deRay
conduirait ainsi à établir l’existence d’une fonction strictement markovienneayant n’importe quelle probabilité
de transition donnée. Nous croyons d’ailleurs savoir queRay a
obtenu ce résultat par une autre méthode.Le
présent
travail doitbeaucoup
à K. L.Chung,
et àplusieurs
autres savants,
qui
ont attiré notre attention sur l’insuffisance des considérationsheuristiques
que nous avions d’abordutilisées.
Nous les en remercions. Nous ne nous sommes pas interdit ici ces
considérations,
mais nous les avons nettementdistinguées
desraisonnements
rigoureux.
2. Définitions et
exemples
DÉFINITION 1. La fonction aléatoire
X(t)
sera dite niarkovienne(ou simplement markovienne) si,
pourn’importe quelle
suite denombres croissants tn, la suite des
X(tn)
est une chaînesimple
deMarkov.
DÉFINITION 2. La fonction aléatoire
X(t)
sera dite presque strictement markovienne s’il existe une fonction aléatoireY(r)
=Y(T;
t,x)
de la variablepositive T
et desparamètres
t et x telleque, pour
n’importe quelle
valeur de t, la fonctionapparaisse
comme une nouvelle définition(complète)
de la mêmefonction aléatoire
X(t’).
DÉFINITION 3. Nous
appellerons
instant initial conventionnel2)
un nombre
T,
bien défini pourchaque
réalisatioii de la fonction étudiéeX(t),
tel que, pour savoir siT ~ t,
il suffise de connaître cette fonctionjusqu’à
l’instant tinclus,
et tel que T etX(T)
soientdes variables
aléatoires,
c’est-à-dire que les événements T t etX(T)
x aienttoujours
desprobabilités
bien définies[exemple,
dans le cas où l’ensemble
{t : X (t ) = x}
est presque sûrement fermé àgauche,
lepremier
instant t >0(0 donné)
oùX(t)
=x].
DÉFINITION 4
(d’après
E. B.Dynkine
et A. A.Jouchkevitch).
La fonction
X(t)
sera dite strictement markovienne si lapropriété
par
laquelle
nous avons défini les fonctions presque strictement 2) Nous traduisons l’expression optional starting lime einployée par K. L. Ghung.markoviennes subsiste
quand
on yremplace t
parT,
T étant uninstant initial conventionnel
quelconque.
Pour
qu’une
fonction presque strictement markovienne soit strictementmarkovienne,
il suffit que cettepropriété
soit vérifiée dans le cas où la loi deprobabilité
de T est continue.Il est bien évident que les définitions 1, 2 et 4 ne
peuvent
êtreque de
plus
enplus
restrictives. Lesexemples qui
suivent montrentque chacune est effectivement
plus
restrictive que laprécédente.
EXEMPLE 1.
Désignons
parZ(t)
la fonction aléatoire du mouve-ment
brownien,
par e l’ensem’ble despoints
de l’axe des t pourlesquels
une au moins des fonctionsZ(t-p) (p entier ~ 0),
admet un maximum ou un
minimum,
et prenons pourX(t)
lafonction
caractéristique
de e.Cette
fonction,
étant presque sûrement nulle pour tous lespoints
den’importe quelle
suite{tn} donnée,
estéquivalente
à lafonction
identiquement nulle;
elle est donc markovienne.D’autre
part X(03B8) =
1 entraîneX(03B8+p)
= 1 pourtout p
entierpositif. Donc,
à tout instant t, la connaissance dupassé
définitun ensemble de
points t’
> t pourlesquels X(t’)
= 1. La seuledonnée de
X(t)
nepouvant
pas donner les mêmesrenseignements,
la fonction
X(t)
n’est pas presque strictement markovienne.EXEMPLE 2
3). X(t)
est ici la fonction du mouvement browniensur une courbe
fermée, rectifiable, ayant
unpoint
double a,et un seul. Précisons que le
point
mobile nepeut
pasprofiter
deson passage en a pour passer d’une branche à
l’autre,
mais que, si on l’observe au moment d’un passage en a, on ne sait pasquelle
est la branche par
laquelle
il est arrivé et parlaquelle
il doit aussirepartir.
Si,
à un instant tdonné, X(t)
= x =1= a, son mouvement ultérieurà
partir
de cetteposition x
est bien défini par la formule du mouve- ment brownien. L’éventualitéX(t)
= a, étant infiniment peuprobable,
n’intervient pas dans la définition deX*(t’), qui
constitue
toujours
une nouvelle définition de la fonctionX(t’).
Le processus est donc presque strictement markovien. Mais il suffit de
prendre
pour T l’instant dupremier
passage en a(après l’instant to
ouaprès n’importe quel
instant donnét)
pour constaterqu’il
n’est pas strictement markovien.3. La
probabilité
de transitionOn sait
qu’on appelle
ainsi la fonction derépartition
de3) Cet exemple est une variante d’un exemple indiqué à l’auteur par W. Feller.
X(t’)(t’
>t)
dansl’hypothèse X(t) ==
x. Nous ladésignerons
parp(x’; t’t’ix).
Considérée comme fonction dex’,
c’est une fonctionde
répartition.
C’est une fonction P-mesurable de x[nous
enten-dons par
là, x
étant une valeurpossible
deX(t), qu’il s’agit
de lamesure liée à la loi de
probabilité
deX(t)].
Enfin elle vérifiel’équation
deChapman-Kolmogorov
A ces conditions
près,
elle estquelconque.
Il est bien clair que la donnée de cette fonction
définit,
non pasun processus
markovien,
mais une classe de processus markovienséquivalents. Complétée
par une conditioninitiale,
elle définit uneclasse de fonctions markoviennes
équivalentes.
Rappelons
commcnt, étant donnée unefonction p
et unecondition initiale relative à un instant to, on
peut
définir les valeurs deX(t)
sur un ensemble e, dénombrable etpartout
densedans
(t0, oo ).
On range sespoints
en une suite{tn}.
Pourchaque
n,les
points
ti, t2, ..., tn-l divisent(to, ~)
en n intervalles.Désig-
nons par
(t,2, t"n)
celuiqui
contienttn; t"n peut
être fini ouinfini,
et ladéfinition de
X(tn), qualid
on apréalablement
déterminé lesX(tv)
d’indices v C n, n’est pas la même dans les deux cas.Si t"n
estinfini,
la seule donnée effectivement utile est celle deX(t’n),
et la fonction derépartition
conditionnelle deX(tn)
estp[x’; t’n, tn|X(t’n)].
Dans le cas
contraire,
il faut tenircompte
des deux donnéesX(tn)
etX(t"n),
cequi oblige
à utiliser une formuled’interpolation.
La loi à trois variables
X(t’n), X(tn) et X(t"n)
se déduisant aisément de la condition initiale et de laprobabilité
de transition si on rangeces variables dans l’ordre
indiqué,
on saitqu’il
esttoujours possible de’
la reconstituer en définissant d’abordX(t’n), puis X(t"n),
et enfinX(tn),
à l’aide d’une formulequi
se déduit aisément de laprobabilité
detransition,
etqui
est laformule d’interpolation.
Il est clair
qu’en
définissant ainsi successivement tous lesX(tn),
on réalisera
ainsi,
àn’importe quel
moment de cette suited’opéra- tions,
la même loi à n + 1 variablesX(to),... X(tn)
que si on avaitrangé
ces variables dans l’ordredes t,
croissants4).
Bien entendu
enfin,-la probabilité
detransition, qui
est uneprobabilité conditionnelle,
n’est pas bien définie dans tous les cas,4) ITne mcthode analogue supplique à n’importe quel processus. Mais en général
l;i loi de probabilité qui définit X(tn) dépend de tous les X(t’v) antérieurement définis.
et l’on ne
peut,
sauf dans le cas oùPr{X(t)
=x}
> 0,parler
que d’une classe defonctions
péquivalentes qui correspond
à uneclasse de processus markoviens
équivalents.
D’une manièreprécise,
deux déterminations Pl et P2 de la fonction p sont
équivalentes
sion a pl = p2, sauf si x E
e*t , e*t désignant,
pourchaque
valeur de t,un ensemble tel que
Il semble inutile d’insister sur le fait que, p
apparaissant
un peucomme une
dérivée,
il arrive souventqu’une
de ses déterminationspossibles
seprésente naturellement,
les autres en étant des modifi- cations artificielles. Tel est le cas où une des déterminationspossibles
dep(x’;
t,t’|x)
est une fonction continue de x. Précisons aussi quel’équivalence
de deux fonctions pl et P2 a été définie enfonction de la formule
(3);
on nechange
pas le second membre de cette formule enremplaçant p1(x’;
u,t|y)
parp2(x’; u, t|y).
Dans la définition 2, on
peut donc,
sans rienchanger d’essentiel,
définir la loi de
Y (T;
t,x)
parn’importe quelle
fonctionp(y;
t,
t + 03C4lx)
d’une même classed’équivalence.
Cette remarque ne s’étend pas à la définition 4. Si on y a défini T de manière queX ( T )
ait sûrement une valeur donnée x, et si les deux fonctionsp1 et
P2 sont différentes pour cette valeur x, il n’est pas indifférent d’utiliser l’une ou l’autre pour définir la loi deprobabilité
deX*(T+03C4) = Y(03C4; T, x).
4. La définition
complète
d’une fonction aléatoire markovienne1° Dans le cas d’un processus
séparable 5),
la constructionqui
vient d’être
indiquée, complétée
par la définition de03A9,
constitueune définition
complète.
Bienentendu,
cette définition de 03A9 n’est pas arbitraire. Dans le cas de la fonction dePoisson,
onpeut prendre
l’ensemble des fonctions continues àgauche,
ou au con-traire à
droite;
on nepeut
pasprendre
l’ensemble des fonctions continues.5) Nous disons qu’un processus est séparable si on peut déterminer l’ensemble
« et la siiite des tn, de manière que la fonction X(·) appartienne presque sûrement à S2, et que, si f(·) ~ 03A9, f(t) soit une fonction certaine de t et des X(t,,). Nous disons qu’il est complètement séparable si on peut prendre pour
{tn}
n’importe quel ensembledénombrable partout dense. Tel est le cas pour une fonction presque sûrement continue à gauche.
Nous regrettons de ne pas avoir réussi à trouver, pour exprimer cette idée, un
autre terme que celui employé par Doob dans un autre sens.
Dans le cas
général
enprenant toujours
pourpoint
dedépart
la construction
indiquée
au n° 3, l’ensemble e étanttoujours supposé partout
dense dans(to, ~),
nous allonsd’abord,
pourchaque t E
CC(complément
dee),
donner une définition deX(t) compatible
avec les données.Remarquons
à cet effet que, l’ensem- ble e ~ t étantdénombrable,
la loijointe
deX(t)
et desX(tn)
estbien
définie,
etpeut
être obtenue comme il a été dit au n° 3. Onpeut
alors la reconstituer en définissant d’abord la suite desX(tn),
et ensuite
X(t),
à l’aide d’une loi L =L(t)
convenablement définie.Naturellement,
cette loi n’est pas bien déterminée dans tous lescas.
Mais,
si co est leparamètre
de Doob dontdépendent
tous lesX(tn),
et si deux des déterminationspossibles
de la loi L ont desfonctions de
répartition f1(x, 03C9)
etf2(x, ro), l’égalité f 1
=f2
estpresque sûrement réalisée pour
chaque
x, donc aussi pour tous lesx
rationnels,
donc aussiidentiquement
en x, pour presque tous les co.On
peut
trèssimplement
obtenir la loi L de la manière suivante:on choisit dans e deux suites
{t’n}
et(t7),
lapremière croissante,
laseconde
décroissante, ayant
toutes les deux la limite t. Observonsqu’on peut aisément,
de bien desmanières,
nommer de tellessuites. Partant par
exemple
detô
=to, t"0
= oo, etprocédant
par récurrence, onpeut prendre pour t’n
ettri (n
= 1, 2,...)
lespremiers t,
intérieursrespectivement
aux intervalles(t’-,, t)
et(t, t"n-1). X(t’n)
etX(t"n), qui
sont desX(tv),
étant connus, laformule
d’interpolation
donne pourX(t)
une loi conditionnelleLn.
Alors : la loi L est presque sûrement la limite de
Ln’
pour ninfini.
Pour le démontrer,
désignons
parUn
une variable aléatoire dont le choixéquivaille
à l’ensemble des choix deX(t’)
etX(t"n).
Ilrésulte du caractère markovien de la fonction
X,
d’unepart
que la loi L est la loi conditionnelle deX(t) quand
on connaît tous lesUn [leur
connaissance rend en effet successivement inutiles celles des différentsX(tv)],
d’autrepart
queLn
est la loi conditionnelle deX(t) quand
on connaîtUl, U2,
...,Un (la
connaissance dechaque Un
rend en effet inutiles tous ceuxqui
leprécèdent).
Appliquons
maintenant un lemme connu6) :
si un événementA,
de
probabilité
biendéfinie
a, est déterminé par une suite de variables aléatoiresUv,
et si oc. est saprobabilité
évaluéequand
on connaît les npremières
variablesU,,
il est presque sûr que la suite des oc,, a unelimite, égale
à 1 dans le cas où A estfinalement
réalisé et à 0 dans lecas contraire.
6) v. P. Lévy, [3], théorème 47.
Pour
appliquer
ce lemme, divisons[0, 1]
en p intervalleségaux
’h(h
= 1, 2, ..., p; il est entendu que chacun despoints
0 eth/p
est rattaché à un et un seul des intervalles
contigus), désignons
parm =
f(x, 03C9)
et m. =fn(x, w)
lesprobabilités
attribuées à l’événe- mentX(t)
x par les lois L etLn,
et parA,%
l’événement m Eih, qui
est bien un événement déterminé par la suite desUn .
Le lemmepouvant s’appliquer
à la fois à tous lesA h,
dont lesprobabilités
ne
peuvent
pas être toutes1/p,
il est presque sûr que, pour tout e’positif,
et pour n assezgrand,
il y a unA h (et
unseul,
si8’
1 2)
dont laprobabilité
conditionnellequand Un
est connu est> 1 - e’. Prenant pour A cet événement
A h, désignons
l’événe-ment contraire par
A c,
et parEn
une valeurprobable
condition-nelle évaluée
quand
on connaîtU1, U2, ..., Un.
On a alorsIl n’est d’ailleurs pas évident a
priori
que h soitindépendant
den.
Mais,
sif3n
est laprobabilité
d’unchangement ultérieur,
un telchangement
donne àA h
uneprobabilité
à lafois > ( 1-03B5’)03B2n
ete’. Donc
(1-03B5’)03B2n E’,
cequi
prouveque 13n
tend vers zéro. Ilest donc presque sûr que, à
partir
d’un certain moment, la formuleprécédente s’applique
au même événementAh, qui
est finalementréalisé.
Donc,
presquesûrement,
on a pour tout n assezgrand
e étant arbitrairement
petit (puisqu’on peut prendre
p arbitraire-ment
grand). Donc,
pourchaque
x, m =f(x, 03C9)
est la limitepresque sûre de ’n!n. Cela est donc vrai aussi pour l’ensemble des x
rationnels; donc, toujours
presquesûrement,
la loi L est la limitede
Ln, c.q.f.d.
2° Pour obtenir maintenant la définition
complète
d’une desfonctions
X(t) ayant
laprobabilité
de transitiondonnée,
iln’y
aqu’à
convenir que, une fois lesX(tn) définis,
lesopérations qui
viennent d’être définies sont
appliquées indépendamment
auxdifférents t E ec. En d’autres termes, les lois conditionnelles
L(t)
sont absolument
indépendantes
les unes des autres.Chacune des lois
L(t)
étant presque sûrement biendéfinie,
il enest de même pour
L(T),
si T est une variable aléatoireindépen-
dante des
X(tn).
Il résulte alors du théorème de Fubini que, presquesûrement,
presque tous lesL(t)
sont bien définis. Nous entendons par làqu’ils
le sont sauf sur un ensembleexceptionnel E,
tel que
Il en résulte eii
particulier
que: l’enseinble E despoints
où la loiL(t)
n’est pas biendéfinie
est presque s’rement de mesure nulle.Il n’est d’ailleurs pas difficile de se débarrasser de la restriction relative à cet
ensemble.
Pour ninfini,
laplus petite
et laplus grande
valeur d’aeeumulation de la suite des mn sont deux nom-bres bien
définis, qui
nepeuvcnt
que croître avee x. On n’aqu’à prendre
l’un d’eux, ou leur moyenne, pour définir in. Le seul élément arbitrairequi
reste ainsi dans notre définition est le choix de la suitedes tn (dont
l’ordre influe évidemment sur les valeursdes t’
et dest"v).
5.
Propriétés
de la fonction définie au n° 4 1° THÉORÈME 1. Lafonction définie
a2c n° 4a. est presque
partorct indépendante
du choix des tn;b. est presque strictenient
markovienne;
c. ad/net la
probabilité
de transitionp(x’;
t,t’lx)
initialement donnée.COROLLAIRE 1. Il existe a-u moins une
fonction
presque strictement markovienne ayant uneprobabilité
de transition donnée.Ce théorème est une
conséquence simple
des constructions des nOS 3 et 4. Nous avons d’abord déterminé lesX(tn)
de manière que, pour toute suite de nombres croissants03B8v ~
e, la suite desX(03B8v)
soit une chaîne
simple
de Markovayant
laprobabilité
de transition donnée. Nous avons ensuite définichaque X(t)
de manièrequ’il puisse
être intercalé entreX(t’n)
etX(t"),
dolicaussi,
si03B8v-1
t03B8v,
entreX(03B8v-1)
etX(03B8v) (puisque,
pour n assezgrand, 03B8v-1
t’n t"n 0,),
sans que ces conditions cessent d’être vérifiées. Onpeut
intercaler de même successivement les termes den’importe quelle
suite denombres,
de sorte que,finalement,
ces conditionssont vérifiées pour
n’importe quelle
suite finie de nombres03B8v, appartenant
ou non à e. La fonction obtenue a donc bien la défini- tion faible voulue: elle estmarkovienne,
et a laprobabilité
detransition
donnée,
cequi
démontre c.2° Pour démontrer a, donnons-nous deux
déterminations cy et e2
de l’ensemble e = ~ tn, en
partant desquelles
nous définironsdeux fonctions
X1(t)
etX2(t). D’après
ce que nous venons devoir,
pour
chaque
suite finie{03B8v}
C(el
ue2 ) (03B8v-1 03B8v),
la suite desXi(03B8v)(i
= 1,2 )
est une chaîne de Markovayant
laprobabilité
detransition donnée. La définition est donc
indépendante
de i(si
onprend
dans les deux cas la même conditioninitiale).
Donnons-nous maintenant un nombre t
n’appartenant
ni à el,ni à e2. Pour définir
X1(t)
etX2(t), il faut,
comme au n° 6, intro-duire des suites de nombres
t’n, i
ett"n,i (i
= 1,2)
tendant vers t.Nous pouvons ensuite définir une suite d’intervalles
(ti, t"v), qui
soient tantôt des(t’n,1, t"n,1),
et tantôt des(t’n,2, t."’),
et dontchacun est intérieur au
précédent.
Les résultats dun°
4s’appli-
quant
aussi bien aux(t;, t"v) qu’aux (t’n,1, tri,1 )
et aux(t’n,2; t"n,2),
nous obtenons pour
X(t) [ou Xi(t)]
trois lois conditionnelles L,Li, L2,
toutes les trois presque sûrement bien définies. L coïnci- dant alors à la fois avecLI
etL2, L,
etL2
coïncident.Faisant maintenant
varier t,
le même raisonnementqu’au
n° 4, 2° nous montre que
L1 (t )
etL2(t)
sont bien définis et coïnci- dent pour tousles t,
àl’exception
d’un ensembleexceptionnel,
donc de mesure presque sûrement
nulle, qui peut
évidemmentdépendre
des ensembles e1et e2
et même de l’ordre danslequel
onrange leurs éléments. Cela
n’empêche
pasqu’en
choisissant d’abord une suiteparticulière X(tn),
on définit une fonctionaléatoire
qui
coïncide presquepartout
avec chacune des fonctionsanalogues.
3° Il reste à démontrer la
propriété
b. Pourcela,
il suffit deconsidérer
chaque
valeur de tindépendamment
des autres. Nousavons vu
qu’il
est presque sûrqu’on
nechange
pas la définition deX(t)
enajoutant
t à l’enseinble e. Nous pouvons supposerplus précisément
que t =tl,
c’est-à-direqu’après
s’être donné unecondition
initiale,
lapremière opération
sera la définition deX(t)
pour la valeur considérée.
Après cela,
lesopérations
aboutissant à la fonctionX(t’)
dans(t, oo )
sont absolumentindépendantes
decelles relatives à l’intervalle
(o, t).
Seuls t etX(t) interviennent,
et
X(t+03C4)
est bien de la formeY jz;
t,X(t)], c.q.f.d.
4° REMARQUE. Dans l’énoncé du théorème
précédent,
nousavons évité de
parler
deprobabilité
conditionnelle. Il est entenduqu’on
nepeut
introduire cette notionqu’en précisant qu’il s’agit
d’une des
probabilités
conditionnelleséquivalentes
les unes desautres à l’aide
desquelles
onpeut
définir le processus. Dans cesconditions,
on déduit du théorèmeprécédent
que:COROLLAIRE 2. Pour la
fonction X(t) définie
au n° 4, à tout instant t, on peut déduire laprobabilité
den’importe quel
événementdépe’ndan,t
de l’avenir d’uneprobabilité
conditionnelleq;(x)
relativeà l’éventualité
X(t) -
x et ayant lespropriétés
suivantes: b’.Sauf
peut-être
pour un ensembleexceptionnel ci [c’est-à-dire
vérifiant lacondition
(4)],
cetteprobabilité
estindépendante
dupassé;
d. J.11ê1nsi
X(t) E e*,
elle nepeut dépendre
que dupassé
iiiimédiat.La
propriété
b’ n’estqu’un
autre énoncé de b: il est presque sûrqu’on
nechange
rien en introduisant t avec le rang 1 dans la suite des ln, donc ensupposant
t = tl. Onpeut
donc construire la fonction X en définissamt d’abordX(t),
et ensuite lepassé
etl’avenir par des constructions
indépendantes
les unes des autres.Cela n’est que presque sûr. Il
peut
donc y avoir des casd’excep-
tion. Mais il résulte du
théorème
de Fubini(appliqué
en choisissantindépcnclamment,
d’unepart
une déterminationpossible
de lafonction
.Y,
d’autrepart
une valeur det )
que, presquesûrement,
les cas
d’exception
ne sont réalisés que sur un ensemble de mesurenulle.
Quelque petit
que soit apositif,
onpeut
donc choisir dans(t-03B5, t)
un 1£ pourlequel
le casd’exception
ne soit pas réalisé(par exemple
un destn ).
Alors pour l’étude deX(t’)
dans(u, oo ),
et a fortiori pour son étude dans
(t, oo ),
la donnée deX(u)
rendinutile tout
renseignement
sur unpassé plus ancien,
cequi
démontre d.
6. La recherche des processus strictement markoviens ayant une
probabilité
de transition donnée Pour cetterecherche,
nous pouvons maintenantpartir
de lafonction presque strictement markovienne définie au n° 4.
L’exemple 2
montre bienpourquoi
une telle fonctionpeut
n’êtrepas strictement markovienne: il y a un état
critique (ou
valeurcritique
deX),
où le caractère markoviendisparaît.
Pour cetétat,
il y a deux voies d’accès et deux voies de
sortie,
et la voie de sortie est déterminée par lepassé
immédiat. Cepassé
donne ainsi unrenseignement
que leprésent
nepeut
pas donner. Ilpeut
arriveraussi
qu’il
donne desrenseignements qui
ne fassent que modifier lesprobabilités
relatives à l’avenir. C’est ce que va montrerl’exemple
suivant:EXEMPLE 3.
Considérons,
comme dansl’exemple
2, une courbe Cfermée, ayant
unpoint
double a, etsupposons-la
orientée.Désig-
nons par
U(s)
lepoint
atteint en décrivant surC,
àpartir
d’uneorigine
0 et dans le senspositif,
un chemin delongueur
s, lepoint
mobile
pouvant
passer d’une branche à l’autrequand
il passe en a;à
chaque
passage, laprobabilité
d’un telchangement
a une valeuroc,
qui
n’est ni 0, ni 1, nii. Remplaçons
maintenant s parS(t)
=S0(t)+kt,
k étant une constantepositive,
etSo(t)
une fonctionconstamment