• Aucun résultat trouvé

Chapitre 10 : Martingales

N/A
N/A
Protected

Academic year: 2022

Partager "Chapitre 10 : Martingales"

Copied!
23
0
0

Texte intégral

(1)

Probabilités

Chapitre 10 : Martingales

Lucie Le Briquer 28 novembre 2017

1 Théorie générale des processus

Un processusX sur l’espace de temps T à valeurs dans l’espace (E,E)est une v.a. X = (Xt)t∈T à valeurs dans(ET,cylindrique). C’est donc une fonctionT →E aléatoire.

Définition 1(processus)

Remarque.Souvent T =R+,N,R,Z. Dans ce cours on considérera uniquement T =N et la tribu cylindrique engendrée par les événements du type :

n

x:T →E| x(t1)∈A1, ..., x(tn)∈An

o

oùt1, ..., tn∈ T et A1, ..., An ∈ E sont fixés Intérêt.X mesurable pour cette tribu⇔ ∀t, Xtest une v.a. à valeurs dans(E,E).

Exemple.

ß Snx=x+X1+...+Xn

S0x=x avec(Xi)i>1 v.a. idp de même loi à valeurs dans(Rd,B(Rd)) La marche aléatoire issue dexest un processus.

Exemple.Si (Yi)i>1 sont des v.a. indépendantes de même loiE(1), Yi=“temps d’apparition d’une panne”

On pose pourt>0,

Nt=“nombre de pannes avant t” = sup{n∈N|Y1+...+Yn 6t}

N est un processus surR+appeléprocessus de Poisson (carNt∼ P(t)).

Exemple.Il existe une v.a. B= (Bt)t>0∈RR+ telle que :





B0p.s.

Bt−Bs∼ N(0, t−s) (“accroissements stationnaires”) Si t0< t1< ... < tn, Bt1−Bt0, ..., Btn−Bt0 sont idp (“accroissements indépendants”) (t7→Btest continue )p.s.

On l’appelle lemouvement brownien. Son existence est compliquée, surtout pour la propriété de continuité, qui n’est pas une propriété de la loi deB sur(RR+,cylindrique)

(2)

Désormais, T =N ouN.

1. Unefiltration F= (Fn)n∈Nest une suite croissante de tribus.

(∀n, Fn ⊆ Fn+1⊆...⊆ A)

2. SiX = (Xn)n∈Nest un processus, on dit qu’il estadapté à la filtrationFsi∀n∈N, Xn estFn−mesurable.

3. SiX = (Xn)n∈N est un processus, safiltration canonique est : FX = (FnX)n∈N=

σ(X0, ..., Xn)

n∈N

C’est la plus petite filtration adaptée àX.

Définition 2(filtration)

Exemple.Marche aléatoireSnx=x+X1+...+Xn adaptée àFnS =FnX=σ(X1, ..., Xn)

−→Sn=x+X1+...+Xn estσ(X1, ..., Xn)−mesurable doncFS ⊆ FX

−→Xn =Sn−Sn−1 estσ(S0, ..., Sn)−mesurable doncFX⊆ FS Exemple.Processus de Galton-Watson

(Xji)indépendants de même loiµprobabilité surN On pose

® Z0= 0

Zn=Xn1+...+XnZn−1

Z est adapté à la filtration définie par Fn =σ(Xji |i>1,16j6n)(ce n’est pas forcément sa filtration canonique, mais celle-ci marche bien).

Intérêt.Structure le temps :

• êtreFn−mesurable = être une fonction du passé

• êtreFn−1−mesurable = être prévisible (on pouvait deviner la valeur avant)

2 Définition des martingales

SoitF= (Fn)n∈Nune filtration etM = (Mn)n∈Nun processus adapté àFavecMn∈L1∀n.

On dit que :

• M est uneF −martingale si∀n∈N,E[Mn+1|Fn] =Mn p.s.

• M est uneF −sous-martingale si ∀n∈N,E[Mn+1|Fn]>Mn p.s.

• M est uneF −sur-martingale si∀n∈N,E[Mn+1|Fn]6Mn p.s.

Définition 3(martingale, sous-martingale et sur-martingale)

(3)

Interprétations.

1. E(Mn+1|Fn) est la meilleure prédiction sur le processus au tempsn+ 1 sachant ce qu’il s’est passé jusqu’au temps présent n.

Pour une martingale, en moyenne il n’y a pas d’évolution prévisible au tempsn.

2. On imagine un joueur dans un casino etMn sa fortune aprèsnparties. À la(n+ 1)−ème partie, ses gains sontMn+1−Mn. Au temps présentn, il peut estimer ce gain à :

E((Mn+1−Mn)|Fn) =E(Mn+1|Fn)−Mn

Si le casino est équilibré,M est une martingale.

Exemple.Snx=x+X1+...+Xn où lesXi sont indépendantes de même loi et∈L1,F=FX.

E(Sn+1x |Fn) =E(Snx+Xn+1|Fn) =Snx+E(Xn+1|Fn

| {z }

idp

) =Snx+E(Xn+1)

=Snx siE[Xi] = 0

> Snx siE[Xi]>0

< Snx siE[Xi]<0

Donc(Snx)

martingale siE[X] = 0 sous-martingale siE[X]>0 sur-martingale siE[X]<0 Remarque.

• S’il n’y a pas d’ambiguïté, on ne précise pas la filtration et on dit martingale au lieu de F −martingale.

• Si la filtration n’est pas précisée, on prend la canonique.

Trivialités.

martingale ⇔ sous-martingale et sur-martingale M sur-martingale ⇒ −M sous-martingale ces notions sont stables par somme

M processus,Mn∈L1,M adapté à F.

M martingale ⇔ ∀k>0, E(Mn+k|Fn) =Mn p.s. (1) M sous-martingale ⇔ ∀k>0, E(Mn+k|Fn)>Mn p.s. (2) M sur-martingale ⇔ ∀k>0, E(Mn+k|Fn)6Mn p.s. (3) Propriété 1

Preuve.(de (2))

⇐: trivial

⇒: Par récurrence surk. Pourk= 0,E(Mn|Fn) =Mn>Mn p.s.

Pourk>0,

E(Mn+k+1|Fn) =E

E(Mn+k+1|Fn+k)

| {z }

>Mn+kp.s.

Fn

|{z}

⊆Fn+k

croissance de> E[.|Fn]E(Mn+k|Fn) >

H.R.

Mn p.s.

(4)

Exemple.Processus de Galton-Watson :(Xnj)n,j>1 indépendantes de loiµ.

Fn=σ(Xbj |16j, 16b6n) Supposons que lesXnj sontL1.

® Z0= 1

Zn=Xn1+...+XnZn−1∈Np.s.

E(Zn) =E Ñ

X

k>0

Zn1Zn−1=k

é

=E X

k>0

(Xn1+...+Xnk) 1Zn−1=k

| {z }

Fn−1−mesurable

!

=

Fubini

X

k>0

E

(Xn1+...+Xnk)1Zn−1=k

=

idp

X

k>0

E(Xn1+...+Xnk)E(1Zn−1=k)

=

idp

X

k>0

E(Xn1+...+Xnk)P(Zn−1=k)

= X

k>0

kP(Zn−1=k)

E(X11) =E(Zn−1)m oùm=E(X11) Remarque.

M martingale ⇒ (E(Mn))n∈N constante M sous-martingale ⇒ (E(Mn))n∈Ncroissante M sur-martingale ⇒ (E(Mn))n∈N décroissante On supposem6= 0, posonsYn= mZnn. On a alorsE(Yn) = 1∀n.

Y est une martingale.

Propriété 2

Preuve.

E(Yn+1|Fn) = 1

mn+1E(Zn+1|Fn)

= 1

mn+1E X

k>0

(Xn1+...+Xnk) 1Zn=k

| {z }

Fn−mesurable

|Fn

= 1

mn+1E X

k>0

Xn1+...+Xnk|Fn

1Zn=k

= 1

mn+1 X

k>0

km1Zn=k

= 1 mn

X

k>0

k1Zn=k

| {z }

=Zn

=Yn

(5)

Construction de martingale en pariant.

On a uneF −martingaleM : Mn+1−Mn représente le gain si on joue à la(n+ 1)−ème partie dans un casino. Maintenant, un autre joueur parie sur le résultat de cette partie ; il parie la quantitéHn+1. Ses gains lors de cette partie sontHn+1(Mn+1−Mn).

Si Hn+1=





−1 il gagne les gains normaux 2 il double les gains/pertes 0 il ne joue pas

−1 il joue du côté du casino Les gain cumulés au bout denparties sont :

H1(M1−M0) +H2(M2−M1) +...+Hn(Mn−Mn−1)

Il ne voit pas le résultat de la partie à l’avance, donc on demande à ce queHnsoitFn−1−mesurable.

SiF est une filtration :

1. (Hn)n∈N est prévisible si∀n, Hn estFn−1−mesurable.

2. Si H = (Hn) = n∈N est prévisible et M = (Mn) adapté, on définit le processus adapté(H◦M)par :

ß (H◦M)0= 0

(H◦M)n+1=H1(M1−M0) +...+Hn(Mn−Mn−1) +Hn+1(Mn+1−Mn) Définition 4(prévisible, processus adapté)

SoitF une filtration.

• H prévisible, borné (i.e.∀n,∃cn,|Hn|6cn p.s.) etM martingale⇒(H◦M)martin- gale.

• H prévisible, borné,>0,M sous/sur-martingale⇒(H◦M)sous/sur-martingale.

Théorème 1

Remarque.Si on revient au casino, s’il est équilibré, M est une martingale. Ceci signifie que quelque soit la stratégie de mide (Hn peut être n’importe quelle fonction fn(M0, .., Mn−1)), (H◦M)est une martingale etE((H◦M)n) =E((H◦M)0) = 0. Pas de gains >0en moyenne.

Remarque.Si M adapté et∀H prévisible,E((H◦M)n) = 0, alorsM martingale.

Preuve.

H borné etM ∈L1alors(H◦M) =Pn

i=1Hi(Mi−Mi−1)est L1. E((H◦M)n+1|Fn) =E

(H◦M)n

| {z }

Fn−mesurable

+ Hn+1

| {z }

Fn−mes car prév

(Mn+1−Mn) Fn

= (H◦M)n+Hn+1

E(Mn+1|Fn)−Mn

| {z }

=0carMmartingale

Idem pour les autres points.

(6)

3 Temps d’arrêt

Notons utile hors du cadre des martingales.

F filtration.T: Ω→Nest un temps d’arrêt si∀n, {T =n} ∈ Fn. Définition 5(temps d’arrêt)

Remarque.Un joueur peut jouer jusqu’à l’instant T qu’il décide. On veut que la décision de s’arrêter ne dépende que de ce qui s’est passé jusque là, donc∈ Fn.

Remarque.

T temps d’arrêt ⇔ (i) ∀n{T =n} ∈ Fn

⇔ (ii) ∀n{T 6n} ∈ Fn

⇔ (iii) ∀n{T > n} ∈ Fn

car(i)⇒(ii)puisque{T 6n}={T = 0} ∪...∪ {T=n}et(ii)⇒(iii)par stabilité par passage au complémentaire dans les tribusFn. Et on a(ii)⇒(i)car{T =n}={T 6n}\{T 6n−1}.

Exemple. Si X est adapté (à F) est un processus à valeurs dans R, A ∈ B(R), alors TA =

“temps d’atteinte de A”= inf{n|Xn∈A}est un temps d’arrêt, avec la conventioninf∅= +∞.

{TA> n}={X0∈/A, X1∈/A, . . . , Xn∈/A} ∈ Fn car X adapté.

Pour la marche aléatoire simple surZ,L∈N, on sait queTL<+∞p.s. carlimSn = 0.E[TL] =?

Exemple.

T =“premier passage<0après un passage>10”

= infn

n| ∃06p6n−1, Xp>10, Xn<0o

{T > n}=

n−1

[

p=0

n

Xp>10, Xp+1>0, . . . , Xn>0o

∈ Fn

SiS etT sont deux temps d’arrêt, min(S, T)etmax(S, T)sont des temps d’arrêt.

Si(Tk)k∈N est une suite de temps d’arrêts,supTn, infTn sont des temps d’arrêt.

Propriété 3

Preuve.

Par exemple,{supTk 6n}=T

k∈N{Tk 6n} ∈ Fn.

PourT un temps d’arrêt, on définitFT ={A∈ F|A∩ {T =n} ∈ Fn}, avecF=∪ ↑ Fn. Soit un joueur dont la fortune lorsqu’il va dans un casino est modélisée par le processus X, s’il joue jusqu’au temps d’arrêtT, ses gains sont donnés par le “processus arrêté” (Xn∧T)n∈N et sa fortune finale sera, siT <+∞p.s.,XT (n∧T = min(n, T)).

X adapté,T temps d’arrêt. AlorsT etXT sontFT-mesurables.

Propriété 4

(7)

Preuve.

σ(T) =σ({T =k}).{T =k} ∩ {T =n}= ({T=n} sik=n, ∅ sinon)∈ Fn. Et,σ(XT) ={{XT ∈A} |A∈ B(R)}.

{XT ∈A} ∩ {T =n}= {Xn∈A}

| {z }

∈Fncar adapté

∩ {T =n}

| {z }

∈Fn

SiS, T temps d’arrêts,S6T, alorsFS ⊂ FT. Lemme 1

Preuve.

SoitA∈ FS,A∩ {T =n}=Sn

p=0(A∩ {S=p})

| {z }

∈Fp⊆Fn

∩ {T =n}

| {z }

∈Fn

∈ Fn.

Remarque.Si T =nest un temps d’arrêt, on a bienFT =Fn. Remarque.Si (Xi)v.a.i.i.d. dansL1, avecE[Xi]>0,

1 n

n

X

i=1

Xi −−−−−→

n→+∞ E[Xi]>0 donc

n

X

i=1

Xi

−−−−−→p.s.

n→+∞ +∞

T = sup{n|X1+. . .+Xn<0}fini p.s. maispas un temps d’arrêt en général.

SoientF une filtration,M une martingale etT un temps d’arrêt, alors :

• La “martingale arrêtée” (très utile)(Mn∧T)n∈Nest une martingale

• Si ∃C <+∞ tel queT < C p.s. alorsE[MT] =E[M0] (utile si on vérifie l’hypothèse surT, ce qui est rare).

Théorème 2(d’arrêt (faible))

Preuve.

SoitHn =1n6T estFn−1-mesurable, car{n6T}={T > n−1}, doncH est prévisible borné, donc (H◦M) est une martingale. (H◦M)n =Pn

i=1Hi(Mi−Mi−1)6Pn

i=1Mi−Mi−1=M blablabla il manque un bout là ! ! ! ! !

Mn∧T est une martingale donc E[Mn∧T] = E[M0∧T] = E[M0]. Pour n >C, n∧T =T donc E[MT] =E[M0].

Application.(ruine du joueur dans un casino équilibré)

Soient (Xi)i>1 v.a.i.i.d., P(X = 1) = P(X =−1) = 12, représentant le gain lors de la i−ème partie. Un joueur qui commence avec la sommex∈N, s’arrête s’il obtientL∈N> xou s’il est ruiné, i.e. s’il arrive à 0. Sa fortune au tempsnest :

Snx=x+X1+. . .+Xn s’il ne s’arrête pas

(8)

SoitT{0,L}= inf{n|Sn= 0ouSn =L}le temps d’arrêt. On veut :

• P(“faire fortune”)

• Combien de temps le jeu dure-t-il ?

Puisquelim supS = +∞etlim infS =−inf p.s., on aT{0,L}<+∞p.s.

SoitA=“faire fortune”={ST{0,L}=L}, on sait queSn∧Tx

{0,L} est une martingale, donc E[ Sn∧Tx {0,L}

| {z }

−−−−−→p.s.

n→+∞

STx

{0,L}

] =E[S0∧Tx {0,L}] =x

et|.|6L. Donc par TCD quandn→+∞, E[STx

{0,L}] =x.

x=E[STx

{0,L}] =E[1AL+1A0] =LP(A)

D’où,P(“faire fortune”) = xL, intuitif car croissant avecx, tend vers 1 pourxs’approchant de L et vers0 pourxs’approchant de 0.

Remarque.On utilise très peu de choses sur S.

Cela reste vrai si on autorise des parisH :Mn =x+ (H◦S)n, oùH prévisible, entier, |Hn|6 min(Mn, L−Mn), etH prend une infinité de fois des valeurs6= 0 p.s.

Que vautE[T{0,L}]?

E[(Sn+1x =Snx+Xn+1)2|Fn] =E[(Snx)2+ 2Xn+1Sxn etXn+12 | Fn]

= (Snx)2+ 2E[Xn+1| Fn]Snx+ 1

= (Snx)2+ 1 SoitYn = (Snx)2−n.

E[Yn+1 | Fn] =E[(Sn+1x )2| Fn]−n−1 = (Sxn)2−n=Yn

Yn∧T{0,l} est une martingale, doncE[Y0∧T{0,l}] =E[Yn∧T{0,l}]. Or,

E[Y0∧T{0,l}] =E[(S0x)2−0] =x2 et E[Yn∧T{0,l}] =E[(Sn∧T{0,L})2]−E[n∧T{0,L}] avec(Sn∧T{0,L})2−−−−−→p.s.

n→+∞ (STx

{0,L})2 etn∧T{0,L}↑T{0,L}, T ⊂M. Bilan. x2=E[(S0x)2−0]−E[T{0,L}]6L2par TCD.

(9)

4 Convergence de martingales

On veut des hypothèses faibles sous lesquellesMn −−−−−→

n→+∞ M p.s.,L1?

4.1 Exemples

1. Snx =x+X1+...+Xn avec Xn v.a. indépendantes et P(Xn = 1) = P(Xn =−1) = 12.

|Sxn+1−Snx|= 1p.s. doncSxn ne converge pas p.s. Et d’après le TCL : Sxn

√n

−−−−−→(L)

n→+∞ N(0,1) E[|Snx|] =O(√

n)−−−−−→

n→+∞ +∞

2. T{0,L} = inf{n | Snx ∈ {0, L}} x, L entiers 0 < x < L. Sn∧Tx

{0,L} est une martingale.

T{0,L}<+∞p.s. DoncSn∧Tx

{0,L}−−−−−→

n→+∞ ST{0,L}p.s. et dansL1. On a la convergence dans L1 par le TCD et|Sn∧Tx

{0,L}|6L.

×

× × ×

×

×

×

×

×

×

×

×

×

n

3. Sn∧T1

0 oùT0= inf{n|S1n= 0}<+∞p.s.Sn∧T1

0

−−−−−→p.s.

n→+∞ ST1

0 n’a pas lieu dansL1car : E[Sn∧T1 0]

| {z }

=

martE[S0∧T1

0]=1

6=E[ST10]

| {z }

=0

On peut donc avoir pour T temps d’arrêt fini p.s. E[MT]6=E[M0].

4. PosonsH1= 1 et : Hn=

ß 2Hn−1 siXn−1=−1

1 siXn−1= 1 on double la mise si on perd Mn= (H.S)n =Pn

i=1HiXi est une martingale.

Xi = −1 −1 −1 1

H = 1 2 4 8

(H.S) = −1 −3 −7 1 SoitT1= inf{n|Xn = 1}, T1∼ G(1/2),Ti+1−Ti∼ G(1/2).

(H.S)T1 =−1−2−4...−2T1−2+ 2T1−1= 1

(10)

Ti+1= inf{n > Ti |Xn= 1} “temps de victoire”. On aura : (H.S)Ti =ip.s. (H.S)Ti −−−−→

i→+∞ +∞p.s.

5. Si (Yi)i>1 sont des v.a. indépendantes et E[Yi] = 0. Alors (Pn

i=1Yi)n>0 martingale. Cas particulier :

Mn= 1 2 +

n

X

i=1

Xi

2i+1

avecXi indépendants P(Xi = 1) =P(Xi=−1) = 12. Xi2+1 ∼ B(1/2).Mn −−−−−→p.s.

n→+∞ M et Mn

L1

−−−−−→

n→+∞ Moù : M= 1

2 +

X

i=1

Xi

2i+1 =1 2 −

X

i=1

1 2i+1 +

X

i=1

Xi+ 1 2

1 2i =

X

i=1

Xi+ 1 2

1

2i ∼ U([0,1])

6. Supposons queM est une martingaleMn−−−−−→L1

n→+∞ M. Mn= E[Mn+k|Fn]

| {z }

L1

−−−−−→

k→+∞ E[M|Fn]

∀k∈N

car E[.|B]linéaire, contractante pour L1 car |E[X|B]| 6E[|X||B] donc continue pour L1. Donc :

Mn =E[M|Fn]p.s.

Si Z ∈ L1 et F filtration. Alors Mn = E[Z|Fn] est une martingale. On appelle une telle martingale unemartingale fermée.

Définition 6(martingale fermée)

Remarque.On vient de voir Mn L

1

−−−−−→

n→+∞ M ⇒ Mn fermée.

Preuve.

E[Mn+1|Fn] =E h

E[M|Fn+1] Fn

i

Fn⊆F=n+1E[M|Fn] =Mn p.s.

Exemple.U ∼ U([0,1]).

Fn=σ Å k

2n 6U < k+ 1 2n , k∈Z

ã

F= (Fn)n∈Nest une filtration carFn↑.

(11)

SoitMn=E[U|Fn]une martingale fermée.

U =X

i>1

Ui

2i p.s. avec Ui∼ B Å1

2 ã

indépendantes son développement dyadique.

Mn=E[U|Fn] =E

" n X

i=1

Ui

2i

| {z }

mes

U1, ..., Un

# +E

" X

i=n+1

Ui

2i

| {z }

idp

U1, ..., Un

#

=

n

X

i=1

Ui 2i +

X

i=n+1

1 2i+1 =

n

X

i=1

2Ui−1 2i+1 +

X

i=1

1 2i+1

= 1 2+

n

X

i=1

2Ui−1 2i+1

| {z }

±1avec proba 12

même exemple que la série aléatoire.

4.2 Convergence presque sûre de martingales

• M martingale,ϕconvexe,ϕ(Mn)∈L1 ∀n⇒(ϕ(Mn))n∈Nsous-martingale

• M sous-martingale, ϕ convexe et croissante, ϕ(Mn) ∈ L1 ∀n ⇒ (ϕ(Mn))n∈N sous- martingale

Lemme 2

Preuve.

• E[ϕ(Mn+1)|Fn] >

Jensen

ϕ(E[Mn+1|Fn]) =ϕ(Mn)

• E[ϕ(Mn+1)|Fn] >

Jensen

ϕ(E[Mn+1|Fn])>ϕ(Mn)

Deux obstacles pour qu’une suite(un)n∈Nne converge pas.

• |un| −−−−−→

n→+∞ +∞,un=n

• elle oscille,un= (−1)n

Siu= (un)n∈N∈Rn, on note poura < b :

S1a,b(u) = inf{n|un6a}

Ta,b1 (u) = inf{n > Sa,b1 (u)|un >b}

Sa,bi+1(u) = inf{n > Ta,bi (u)|un6a}

(12)

Ta,bi+1(u) = inf{n > Sa,bi+1(u)|un>b}

Soit :

Na,bn (u) =“nombre de montées avantn”= sup{i|Ta,bi (u)6n} (une montée[Si, Ti]) On contrôle les oscillations deaàb en regardant :

Na,b(u) = lim

n→+∞↑ Na,b(u)

(∀a < b∈Q Na,b(u)<+∞) ⇔ (un−−−−−→

n→+∞ l pourl∈R∪ {−∞} ∪ {+∞}) Lemme 3

Remarque.On peut remplace Qpar un ensemble dense deR. Preuve.

⇐ : si un −−−−−→

n→+∞ l, a 6= l ou b 6= l. Si b 6= l par exemple, b > l alors pour un certain i0,

∀i>i0, Si=∞etNa,bn 6i0<+∞

⇒: siun 6−−−−−→

n→+∞ l alorsua deux points d’accumulationsl1< l2. Prenons(a, b)∈Q2 tels que l1< a < b < l2. AlorsNa,bn (u) =∞.

X sous-martingale, a < b.

E[Na,bn (X)]6 1

b−1E[(Xn−a)+−(X0−a)+] Lemme 4(inégalité des montées de Doob)

Preuve.

Yn= (Xn−a)+ sous-martingales car(x−a)+ convexe, croissante. Soit : Hn=1dans une montée(n) =

X

i=1

1Sa,bi (X)6n<Ta,bi (X)

Par construction,S1a,b(X), Ta,b1 (X), Sa,b2 (X), ...est une suite croissante de temps d’arrêt. Et même strictement croissant jusqu’) ce qu’ils valent éventuellement+∞.Hn∈ {0,1}positif et prévisible.

(H.Y)n=

S1

X

k=1

Hk(Yk−Yk−1) +

Nn

X

i=1

Ñ Ti

X

k=Si+1

Hk

|{z}

=1

(Yk−Yk−1) +

Si+1

X

k=Ti+1

Hk

|{z}

=0

(Yk−Yk−1) é

+

TNn

X

k=SN n+1

Hk

|{z}

=1

(Yk−Yk−1) +Rn

=

Nn

X

i=1

YTi

|{z}

>(b−a)+

− YSi

|{z}

=0

+Rn

>Nn(b−a) +Rn

(13)

Avec :

Rn =reste=

n

X

k=TN n+1

Hk(Yk−Yk+1)

=

ß 0 siSNn+1>n Pn

k=SN n+1(Yk−Yk−1)siSNn+1< n

=

0 siSNn+1>n Yn

|{z}

>0

−YSN n

| {z }

=0

sinon >0

DoncRn>0, ainsi :

(H.Y)n >Nn(b−a)

1−Hn borné positif prévisible, donc ((1−H).Y)sous-martingale donc : E[((1−H).Y)n]>E[((1−H).Y)0] = 0

E[(H.Y)n]>(b−a)E[Nn] Ainsi :

E[(1.Y)n]>(b−a)E[Nn] par bilinéarité deX, Y →(X.Y)n

OrE[(1.Y)n] =E[Yn−Yn] =E[(Xn−a)+−(X0−a)+]. D’où le résultat.

SiX est une sous-martingale avecsupNE[(Xn)+]<+∞. Alors :

∃Xv.a.L1 telle queXn −−−−−→p.s.

n→+∞ X Théorème 3

Remarque.Par forcément convergenceL1.

Remarque.Une suite croissante bornée est convergente. Une sous-martingale : la version crois- santeE[Mn+1|Fn]>Mn. Il suffit de la bornée par le haut pour la rendre convergente.

Remarque.E[(Xn)] =E[(Xn)+]−E[Xn]6supNE[(Xn)+]−E[X0]. Donc : E[|Xn|] =E[(Xn)+] +E[(Xn)]62 supE[(Xn)+]−E[X0] Donc pourX sous martingale :

supE[(Xn)+]<+∞

m

supE[|Xn|]<+∞

∃X∈L1, Xn

−−−−−→p.s.

n→+∞ X

SiXsur-martingale positive alors∃X∈L1telle queXn

−−−−−→p.s.

n→+∞ X. (Xpositive⇒E[(Xn)] = 0).

(14)

On en déduit plein de critères de convergence pour les martingales : bornée dansL1

SiMmartingale ou majorée alorsMn−−−−−→p.s.

n→+∞ M∈L1 ou positive

Preuve.

SiX sous-martingale avecc= supNE[(Xn)+]<+∞. Soienta < brationnels. D’après l’inégalité des montées :

E[Na,bn (X)]6 1

b−1E[(Xn−a)+−(X0−a)+

| {z }

60

]

6 1

b−a(E[(Xn)+] +|a|) TCM E[Na,b(X)]6c+|a|

b−a DoncNa,b <+∞p.s. donc :

(∀a, b∈Q, Na,b(X)<+∞)p.s.

car une intersection dénombrable d’événements p.s. est p.s. Ainsi ∃X ∈ R∪ {+∞} ∪ {−∞}

telle que :

Xn

−−−−−→p.s.

n→+∞ X

et,

E[|X|] =E[lim inf|Xn|] 6

Fatou

lim infE[|Xn|]<+∞

En particulierX<∞p.s.

Application.

ß Z0= 1

Zn=X1n+...+XZn

n−1

et Xij v.a. indépendantes de loi µproba surN

Si m = Pkµ({k}) < +∞, alors mZnn est une martingale positive donc ∃Y ∈ L1 telle que Yn−−−−−→p.s.

n→+∞ Y∞.

• sim <1 :

m−n

| {z }

→+∞

Zn

−−−−−→p.s.

n→+∞ Y DoncZn

−−−−−→p.s.

n→+∞ 0et Zn entier doncZn= 0pour nassez grand p.s. Donc extinction p.s.

• sim= 1:

Yn=Zn

−−−−−→p.s.

n→+∞ Y

donc(Znconstant pournassez grand) p.s. Impossible sauf si(Zn = 0pournassez grand) p.s. ou si µ=δ (∼Borel-Cantelli à faire en exo).

(15)

• sim >1 :

1 mnZn

−−−−−→p.s.

n→+∞ Y Si P(Y > 0) > 0, alors sur {Y > 0}, Zn −−−−−→

n→+∞ +∞. Et donc il y a survie avec probabilité>0. (conditionP(Y>0)>0pas toujours vérifiée, restrictif)

Rappels. Il est très simple pour une martingale de converger p.s. : il faut garantir la non- explosion.

• Pour une sous-martingale (“croissant en moyenne”), il suffit que : – M soit majorée : ∃c, ∀n Mn6cp.s.

– ousupE[|Mn|]<+∞

– ousupE[(Mn)+]<+∞

• Pour une sous-martingale (“décroissant en moyenne”), il suffit que : – M soit minrée : ∃c, ∀n Mn>cp.s.

– ouM soit positive – ouM bornée dansL1

• Pour une martingale, n’importe laquelle de ces conditions suffit.

4.3 Convergence dans L

1

SoitM une martingale.

Mn L1

−−−−−→

n→+∞ M ⇒ Mn

−−−−−→p.s.

n→+∞ M Propriété 5

Remarque.La réciproque est fausse.

Contre-exemple. Soit(Sn1)la marche aléatoire simple issue de 1.Xi∼Rd(1/2) Sn1 = 1 +X1+. . .+Xn

On a :

T := inf{n|Sn1 = 0}<+∞p.s.

Alors la martingale Mn = Sn∧T1 −−−−−→p.s.

n→+∞ 0 mais E[Mn] = E[M0] = 1 6−−−−−→

n→+∞ 0 donc pas de convergenceL1.

Preuve.

SiMn L1

−−−−−→

n→+∞ M, alors :

E[|Mn|]6E[|Mn−M|] +E[|M|]

⇒ supE[|Mn|]6sup

E[|Mn−M|] +E[|M|]

<+∞p.s.

⇒Mn−−−−−→

n→+∞ Z p.s.

(16)

Mn −−−−−→L1

n→+∞ MM donc Mn −−−−−→P

n→+∞ M, et Mn −−−−−→p.s.

n→+∞ Z donc Mn −−−−−→P

n→+∞ Z. Par unicitéM=Z.

Notion pour obtenir la convergenceL1: UI uniforme intégrabilité.

Rappel. (Xi)est UI si

sup

I E[|Xi|1|Xi|>L]−−−−−→

L→+∞ 0 Intérêt. SiXn−−−−−→P

n→+∞ X alors(Xn)est UI⇔Xn−−−−−→L1

n→+∞ X

SiX estL1 et(Bi)i∈I famille de tribus, alors(E(Xi|Bi))i∈I est UI.

Lemme 5

Preuve.

X est UI. Si on fixe ε >0,∃δ >0 tel que∀A, P(A)6δ⇒E[|X|1A]< ε. Alors :

P

E[X|Bi] > L

Markov6 E

E[X|Bi]

L 6

E

E h|X|

Bi

i

L = E[|X|]

L SoitL0:=E[|X|]δ . Alors∀i, ∀L>L0,P

E[X|Bi] > L

6δ. Calculons : E

h

E[X|Bi]

1|E[X|Bi]|>L0

i 6E

h E

h

|X| Bii

1|E[X|Bi]|>L0

i

=E

|X|1|E[X|Bi]|>L0

par la prop carac

6ε carX est UI

(Mn)n∈N martingale. On a l’équivalence : (i) (Mn)est UI

⇔(ii)∃M∈ L1 Mn

−−−−−→p.s.

n→+∞ M etMn L1

−−−−−→

n→+∞ M

⇔(iii)M martingale fermée, ∃Z∈ L1 tqMn =E[Z|Fn] Théorème 4

Remarque.Lien entre Z etM:

• Si Mn −−−−−→

n→+∞ M p.s. etL1 alorsMn=E[M|Fn]et on peut choisirM=:Z

• Si∀n∈N,Mn =E[Z|Fn]alorsMn−−−−−→

n→+∞ E[Z|F]p.s. et dansL1avecF=σ(∪ ↑ Fn)

(17)

Preuve.

• (iii)⇒(i): lemme précédent

• (i) ⇒(ii) : M UI donc supE(|Mn|) <+∞, ainsi ∃M ∈ L1 telle que Mn

−−−−−→p.s.

n→+∞ M doncMn P

−−−−−→

n→+∞ M etM UI alorsMn L1

−−−−−→

n→+∞ M.

• (ii)⇒(iii): On a déjà vuMn =E[Mn+k|Fn] L

1

−−−−−→

k→+∞ E[M|Fn]par continuité de E[.|Fn] dansL1. OrMnest constante enkdonc est égale à sa limite :E[M|Fn]. Reste à montrer :

Si Mn=E[Z|Fn] alorsMn−−−−−→

n→+∞ E[Z|F]p.s. etL1 Comme(iii)⇒(ii),Mn−−−−−→

n→+∞ Mp.s. etL1. Montrons que M=E[Z|F].

Soita∈ Fn. AlorsA∈ Fk pour k>n. CalculonsE[Z1A],

∀k>n, E[Z1A] =E h

E[Z|Fk]1Ai

=E[Mk1A] Or |E[Mk1A]−E[M1A]|6E[|M−Mk|]−−−−−→

n→+∞ 0carMk L1

−−−−−→

n→+∞ M. Donc : E[Mk1A]−−−−−→

k→+∞ E[M1A]

Or, E[Z1A] est constante et donc E[Z1A] = E[M1A]. Donc ∀A ∈ SFn, E[Z1A] = E[M1A]. PosonsC:=S↑ Fn, Cest stable par intersection finie.

M={A|E[Z1A] =E[M1A]}est une classe monotone : – 1B\A=1B−1A,

– E[X1S↑A

n] =

TCDlimE[X1An]

On vient de voirM ⊇ C ⇒ M ⊇ M(C) =σ(C) =F. DoncE[Z1A] =E[M1A]∀A∈ F.M= lim

p.s.Mn est F−mesurable, doncE[Z|F] =M.

Remarque.M borné dansL1 ⇒convergence p.s.6⇒convergenceLp. MaisM bornée dansLp p >1 ⇒convergenceLp.

Application.(urnes de Polya)

2 populations de bactéries initialementR0 =r(bactéries rouges) B0=b(bactéries bleues). De nàn+ 1une bactérie prise au hasard se divise en 2 : elle disparaît et se remplace par 2 bactéries de sa couleur. On se donne(Xi)i∼ U[0,1], i.i.d.

Rn, Bn étant fixées, la probabilité qu’une bactérie rouge se divise est RBn

n+Bn. Posons :





(R0, B0) = (r, b)

Rn+1=Rn+1Xn+16Rn+BnRn

Bn+1=Bn+1Xn+1> Rn

Rn+Bn

F0={0,Ω}. SiFn =σ(X1, . . . , Xn)alorsRet B processus adaptés.

(18)

Objectifs. Regarder l’évolution de la proportion de rouges dans la population.

Si on somme les2égalités, on a l’évolution de la population totale.

Rn+1+Bn+1=Rn+Bn+ 1 −→ Rn+Bn=r+b+n Regardons la proportion de rouges dans la population.

Yn= Rn

Rn+Bn = Rn

r+b+n Calculons :

E[Yn+1|Fn] =E

ïRn+1Xn+16Yn

r+b+n+ 1 |Fn

ò

Xn+1⊥, Yn mes

= 1

r+b+n+ 1(Rn+E[1Xn+16Yn|Fn])

= 1

r+b+n+ 1 Ç

Rn+ Z 1

0

1x6Yndx å

= 1

r+b+n+ 1(Rn+Yn)

= 1

n+b+r+ 1 Å

Rn+ Rn r+b+n

ã

= 1

n+b+r+ 1 Å

1 + 1

r+b+n ã

Rn

= 1

r+b+nRn=Yn

DoncY martingale. Par ailleurs,06Yn61p.s. doncY est UI. DoncYn −−−−−→

n→+∞ Y p.s. etL1. Cas particulier :

r=b= 1montrons queRn∼ U({1, . . . , n+ 1}):

• R0∼δ1 ok

• P(Rn=k) =P

(Rn−1=k−1)∩{un rouge se divise}

+P

{Rn =k}∩{un bleu se divise}

P({Rn−1=k−1} ∩ {un rouge se divise}) =P Å

{Rn−1=k−1} ∩ ß

Xn6 Rn−1 Rn−1+Bn−1

™ã

=P Å

Rn−1=k−1, Xn6 k−1 1 + 1 +n−1

ã

=P

Rn−1=k−1

| {z }

, Xn6 k−1 1 +n

| {z }

=

idp

1 n

k−1

1 +n car HR Rn+1∼ U(1, n)

⇒P(Rn=k) = 1 n

k−1 1 +n+ 1

n Å

1− k 1 +n

ã

= 1 n

Åk−1 +n+ 1−k n+

ã

= 1

n+ 1

(19)

Le calcul reste vrai pourk= 1ouk=n+ 1avec les termes nuls. Alors : P(Yn6t) =P(Rn6t(n+ 2)) =bt(n+ 2)c

n+ 1 −−−−−→

n→+∞ t Donc :

FY(t) =

0 sit60 t si06t61 1 sit>1

doncY∼ U([0,1]) Résulat général :

Yn

L1et p.s.

−−−−−−→

n→+∞ Y∼cr,bxr−1(1−x)b−1106x61dx

SiT est un temps d’arrêtΩ→N∪ {∞}et X un processus avecXn

−−−−−→p.s.

n→+∞ X on définit : XT =X

n

Xn1T=n+X1T=∞

SiM est une martingale UI alors on a :

MT =E[M|FT] En particulierE[MT] =E[M0]∀n∈N.

(Mn−−−−−→

n→+∞ Mp.s. etL1et Mn=E[M|Fn]) Théorème 5

Remarque.Ruine du joueur :Sn∧Tx

{0,L}est borné∈[0, L]donc est UI et on a doncE[ST{0,L}] = E[S0x].

Preuve.

MT ∈ L1 :

E[|MT|] =

+∞

X

n=0

E

|Mn|

| {z }

1T=n +E

|M|1T=∞

=

+∞

X

n=0

E

E[M|Fn] 1T=n

+E

|M|1T=∞

6

+∞

X

n=0

E h

E

|M| Fn

1T=n

| {z }

Fn−mesurable carT TA

i +E

|M|1T=∞

6

+∞

X

n=0

E

|M|1T=n

+E

|M|1T=∞

=E

|M|

<+∞

(20)

Calculons pourA∈ FT :

E[MT1A] =

+∞

X

n=0

E[MT1A1T=n] +E[MT1A1T=∞]

=

+∞

X

n=0

E

E[M|Fn]1A∩(T=n)

| {z }

+E[M1A1T=∞] ∗ ∈ Fn carA∈ Fn et T TA

=

+∞

X

n=0

E

M1A1T=n

+E[M1A1T=∞]

=E[M1A]

MT estFT−mesurable doncMT =E[M|FT]. D’où :

E[MT] =E[M] =E[M0] =E[Mn]

4.4 Convergence L

p

Point délicat.Contrôler la trajection à partir de la loi. PourL1 c’est l’inégalité des montées.

Ici :

SiX sous-martingale,t >0 alors : tP

Ç sup

06k6n

Xk> t å

6E

îXn1sup06k6nXk>t

ó6E[(Xn)+] Propriété 6(inégalité maximale)

• Si∃c <+∞tel queS6T < cp.s. oùS et T sont des temps d’arrêt

• SiX est une sous-martingale alorsE[XS]6E[ET] Lemme 6

Preuve.

Hn =1S<n6T prévisible, borné et positif. Donc(H·X)sous-martingale.E[(H·X)n]croissante doncE[(H·X)0

| {z }

=0

]6E[(H·X)c]. Or,

E[(H·X)c] =E

" T X

n=s+1

(Xn−Xn−1)

#

=E[XT −XS] ⇒ E[XS]6E[XT]

Preuve.(de la propriété)

(21)

PosonsT = inf{n|Xn > t}. AlorsT∧netnsont deux temps d’arrêt bornés ;T∧n6n. D’où : E[XT∧n]6E[Xn]

E[XT

|{z}

>t

1T6n] +E[Xn1T >n]6E[Xn] DoncE[XT1T6n]>tP(sup06k6nXt> t). Ainsi,

tP Ç

sup

06k6n

Xk> t å

+E[Xn1T >n]6E[Xn]

⇒ tP Ç

sup

06k6n

Xk > t å

6E[Xn1T6n]

p >1,X sous-martingale positive, bornée dansLp(i.e.supE[|Xn|p]<+∞). PosonsX˜n :=

sup06k6n|Xk|. Alors :

E

|X˜n|p 6

Å p p−1

ãp E

|Xn|p Propriété 7

Preuve.

On sait quetP( ˜Xn> t)6E

îXn1X˜n>t

óalors : tp−2tP( ˜Xn> t)6E

îXntp−21X˜n>t

ó

Ainsi,

Z +∞

0

tp−1P( ˜Xn > t)dt6 Z +∞

0

E

îXntp−21X˜n>t

ó

Or, on a classiquement queE[Xp] =pR+∞

0 tp−1P(X > t)dtpuisque : p

Z +∞

0

tp−1P(X > t)dt=p Z +∞

0

tp−1E[1X>t]dt

=

FubiniE ñZ +∞

0

ptp−11X>tdt ô

=E ñZ X

0

ptp−1dt ô

=E[Xp] Ainsi,

E[ ˜Xnp] p 6E

ñ Xn

Z +∞

0

tp−21t6X˜ndt ô

=E ñ

Xn

np−1 p−1 ô

Hölder6 1

p−1E[Xnp]1pE h

( ˜Xn)(p−1)pn−1 ip−1p

Références

Documents relatifs

[r]

[r]

La raison de cette suite est strictement négative. Donc le premier terme de la suite inférieur ou égal à 0 est le terme u 4... Le rang de ce terme est le rang

Donnons le sens de variation de cette suite.. La raison de cette suite est

[r]

Une suite strictement croissante et un théorème I.. Une suite strictement croissante et

Exercice 2(6 points - spécialité) À l'occasion de la coupe du monde de football 2006 en Alle- magne, une agence touristique organise des voyages en car à travers les diérentes villes

(b) Quel est le coût moyen minimal de production du mètre cube de produit?. Exercice 2 (7 points) La variable aléatoire X suit la loi uniforme sur