Algorithme Stochastique avec Innovations Moyennisantes
Sophie Laruelle
LPMA - UPMC
9` eme Colloque des Jeunes Probabilistes et Statisticiens
3-6 Mai 2010
Plan
1
Approximation r´ ecursive stochastique
2
Description du cadre et Motivations
3
Th´ eor` eme de convergence
4
Applications Innovations i.i.d.
Fonctionnelle d’un processus α-m´ elangeant Chaˆıne de Markov homog` ene
Suites ` a discr´ epance faible
5
Exemples
Recherche de corr´ elation implicite
Plan
1
Approximation r´ ecursive stochastique
2
Description du cadre et Motivations
3
Th´ eor` eme de convergence
4
Applications Innovations i.i.d.
Fonctionnelle d’un processus α-m´ elangeant Chaˆıne de Markov homog` ene
Suites ` a discr´ epance faible
5
Exemples
Recherche de corr´ elation implicite
D´ efinition d’un algorithme stochastique
Il s’agit d’une proc´ edure r´ ecursive de recherche de z´ ero d’une fonction dite moyenne car s’´ ecrivant comme l’esp´ erance d’une fonction d´ ependant du mˆ eme param` etre et d’une v.a. appel´ ee innovation, i .e.
on cherche θ
∗tel que h(θ
∗) = 0 o` u h(θ) = E [H(θ, Y )].
Applications
Recherche d’un param` etre pour un certain niveau de la fonction moyenne,
Optimisation : annulation du gradient (gradient stochastique).
Exemple du dosage : Proc´ edure de Robbins-Monro
Une dose θ d’un produit chimique cr´ ee un effet al´ eatoire mesur´ e par F (θ, Y ), Y ´ etant une v.a. et F : R
27→ R une fonction inconnue. On suppose l’effet moyen f (θ) = E [F (θ, Y )] croissant. On cherche ` a d´ eterminer la dose θ
∗qui cr´ ee un effet moyen de niveau donn´ e α, i.e.
r´ esoudre f (θ
∗) = α.
La proc´ edure de Robbins-Monro est la suivante
choisir θ
0arbitrairement et l’administrer ` a un sujet qui r´ eagit avec l’effet F (θ
0, Y
1).
r´ ecurrence : ` a l’instant n, choisir une dose θ
nadministr´ ee ` a un sujet ind´ ependant des pr´ ec´ edents, l’effet est F (θ
n, Y
n+1).
(Y
n) est une suite de v.a. i.i.d. donc
f (θ
n) = E [F (θ
n, Y
n+1) | F (θ
0, Y
1), . . . , F (θ
n−1, Y
n)] .
L’algorithme de Robbins-Monro de choix de θ
nest alors de la forme
θ
n+1= θ
n− γ
n(F (θ
n, Y
n+1) − α), (γ
n) positive tendant vers 0.
Plan
1
Approximation r´ ecursive stochastique
2
Description du cadre et Motivations
3
Th´ eor` eme de convergence
4
Applications Innovations i.i.d.
Fonctionnelle d’un processus α-m´ elangeant Chaˆıne de Markov homog` ene
Suites ` a discr´ epance faible
5
Exemples
Recherche de corr´ elation implicite
Description du cadre
On s’int´ eresse ` a une proc´ edure de la forme suivante
θ
n+1= θ
n− γ
n+1(H(θ
n, Y
n) + ∆M
n+1), n ≥ 0, θ
0∈ R
do` u
H : R
d× R
q→ R
d,
(Y
n)
n≥0est une suite ` a valeurs dans R
q, F
n-adapt´ ee d’ “innovations”
des propri´ et´ es ν-moyennisante
∀f ∈ V , 1 n
n
X
k=1
f (Y
k) −→
(?)n→∞
Z
Rq
fd ν,
pour une certaine classe de fonctions V, mais (Y
n)
n≥0pas n´ ecessairement Markov !
∆M
nest un F
n-accroissement de martingale.
Motivations
R´ esoudre des probl` emes de Probabilit´ es Num´ eriques, i .e . avec des innovations simul´ ees
I
(Y
n)
n≥0i.i.d. de loi ν (Algorithme Stochastique (Regulier), Robbins-Monro [5], Duflo [5], etc),
I
Y
n= ξ
n, n ≥ 0, suite ` a discr´ epance faible avec ν = λ
[0,1]qet
F
n= {∅, Ω} (Algorithme Quasi-Stochastique, Lapeyre-Pag` es-Sab [2]).
Les innovations sont exog` enes (donn´ ees de march´ e, output d’un syst` eme e.g . un sch´ ema d’Euler) : (Y
n)
n≥0est une F
n-chaˆıne de Markov “ν-ergodique” (ou stationnaire)
∀f ∈ L
p(ν), 1 n
n
X
k=1
f (Y
k) −→
n→∞
Z
Rq
fd ν P
ν-p.s. et L
p( P ) (1)
(ou bien mˆ eme P
µ-p.s. avec µ = P
Y06= ν).
Id´ ees
Hypoth` ese sur la vitesse dans (1) “ P -p.s . & L
p( P )”, Hypoth` ese (forte. . .) de Lyapunov sur H,
Contrˆ ole de E
(∆M
n+1)
2| F
n.
Condition sur la suite de pas (γ
n)
n≥1[ni trop rapide, ni trop lente]
Alors, si h(θ) = Z
Rq
H(θ, y)ν (dy ) est la fonction moyenne θ
n−→
n→∞
θ
∗= {h = 0}.
Plan
1
Approximation r´ ecursive stochastique
2
Description du cadre et Motivations
3
Th´ eor` eme de convergence
4
Applications Innovations i.i.d.
Fonctionnelle d’un processus α-m´ elangeant Chaˆıne de Markov homog` ene
Suites ` a discr´ epance faible
5
Exemples
Recherche de corr´ elation implicite
Hypoth` eses
Hypoth` ese de vitesse de ν-ergodicit´ e. Soit p ∈ [1, ∞) et ε
n→ 0.
On d´ efinit la classe de fonctions suivante V
(εn),p:=
(
f : R
q→ R
qt.q. 1 n
n
X
k=1
f (Y
k) − Z
Rq
fd ν
p.s.&Lp
= O (ε
n) )
On suppose que H(θ
∗, ·) ∈ V
(εn),p.
Hypoth` ese de Lyapunov sur H. Soit L : R
d→ R
+C
1satisfaisant (i) ∇L est Lipschitz continue et |∇L|
2≤ C (1 + L),
(ii) H satisfait l’hypoth` ese de retour ` a la moyenne
∃ U ⊂ R
qun ouvert avec ν (U ) > 0 t.q. ∀θ ∈ R
d, θ 6= θ
∗, inf
y∈Uh∇L(θ) | H(θ, y ) − H(θ
∗, y )i > 0 et s.c.i.
(2)
Hypoth` eses
Contrˆ ole de H en l’infini (sous-lin´ earit´ e).
∀θ ∈ R
d, ∀y ∈ R
q, |H(θ, y )| ≤ C
Hϕ(y ) p
1 + L(θ)
Contrˆ ole de l’accroissement de martingale. ∀n ≥ 0, E
h
|∆M
n+1|
2∨p−1p| F
ni
≤ C
Mϕ(Y
n)
2∨p
p−1
(1 + L(θ
n))
1∨p
2(p−1)
si p > 1 supess E [|∆M
n+1| | F
n] ≤ C
Mϕ(Y
n) p
1 + L(θ
n) si p = 1 avec sup
n≥1kϕ(Y
n)k
p(p−1)
< +∞.
R´ esultat principal
Conditions sur la suite de pas.
X
n≥1
γ
n= +∞, nε
nγ
n−→ 0 et X
k≥1
kε
nmax γ
k2, |∆γ
k+1|
< +∞.
Alors,
θ
n−→
p.s.n→∞
θ
∗.
Plan
1
Approximation r´ ecursive stochastique
2
Description du cadre et Motivations
3
Th´ eor` eme de convergence
4
Applications Innovations i.i.d.
Fonctionnelle d’un processus α-m´ elangeant Chaˆıne de Markov homog` ene
Suites ` a discr´ epance faible
5
Exemples
Recherche de corr´ elation implicite
Cadre i.i.d.
On pose ∀n ≥ 0, Y
n= X
n+1o` u la suite (X
n)
n≥1est i.i.d. de loi ν . Alors h(θ) = E [H(θ, X
1)] et on pose ∆M
n+1= H(θ
n, X
n+1) − h(θ
n), n ≥ 0 On a ϕ ≡ 1 donc l’hypoth` ese de contrˆ ole de H devient
∀θ ∈ R
d, ∀y ∈ R
q, |H(θ, y)| ≤ C
Hp
1 + L(θ).
Alors
E |∆M
n+1|
2≤ (1 + L(θ
n)) et p = 2.
Par la loi du logartihme it´ er´ e, la vitesse de convergence est alors ε
n=
r log log n
n .
Fonctionnelle d’un processus α-m´ elangeant
On d´ efinit ici Y
n= f (· · · , X
n−1, X
n) avec (X
n)
n∈Zα-m´ elangeant, i.e.
(X
n)
n∈Zest stationnaire (de loi ν) et α
n−→
n→∞
0 o` u (α
n)
nest la suite des coefficients d’α-m´ elange d´ efinis par
α
n= sup n
| P (U ∪ V ) − P (U ∩ V )| , U ∈ F
0,kX, V ∈ F
k+n,∞X, k ≥ 1 o (3)
avec F
0,kX= σ (X
0, . . . , X
k) et F
k+n,∞X= σ (X
k+n, . . .).
On suppose aussi que H(θ
∗, ·) ∈ L
2+δ(ν ), δ > 0 et une condtion de sommabilit´ e des coefficients d’α-m´ elange
∞
X
k=1
√ 1 k α
δ 2(2+δ)
k
< ∞. (4)
Vitesse de ν -ergodicit´ e
Proposition
Si (X
n)
n≥1est stationnaire, α-m´ elangeant et satisfait (4), alors
∀δ > 0, L
2+δ(ν) ⊂ V
εn,2, ε
n= n
β, pour tout β ∈
0, 1 2
. (5)
La preuve de cette proposition est bas´ ee sur
l’in´ egalit´ e de covariance pour les processus α-m´ elangeant
le Th´ eor` eme de G` al-Koksma.
Chaˆıne de Markov homog` ene
Supposons que (Y
n)
n≥0est une chaˆıne de Markov homog` ene ` a valeurs dans R
qde transition (P (y, dx ))
y∈Rd. La proc´ edure r´ ecursive associ´ ee est alors
θ
n+1= θ
n− γ
n+1K (θ
n, Y
n+1), n ≥ 0, o` u
K (θ, y) := E (K (θ, Y
1) | Y
0= y)
∆M
n+1:= K (θ
n, Y
n+1) − E (K (θ
n, Y
n+1) | F
n) = K (θ
n, Y
n+1) − H(θ
n, Y
n).
L’hypoth` ese de contrˆ ole sur H devient
∀θ ∈ R
d, ∀y ∈ R
q, |K (θ, y)| ≤ C
Kφ(y) e p
1 + L(θ) avec sup
nφ(Y e
n)
p
p−1
< +∞ et l’hypoth` ese de Lyapunov (2) sur H.
Suites ` a discr´ epance faible
Dans ce cadre, on a F
n= {∅, Ω}, Y
n= ξ
n+1o` u (ξ
n)
n≥1est une suite uniform´ ement distribu´ ee sur [0, 1]
q, i .e .
1 n
n
X
k=1
δ
ξk (Rq)
= ⇒ λ |
[0,1]qquand n → ∞.
On d´ efinit la discr´ epance ` a l’origine comme suit D
n∗(ξ) := sup
y∈[0,1]q
1 n
n
X
k=1
1
J0,yK−
n
Y
k=1
y
k.
Th´ eor` eme
Il existe des suites (ξ
n)
n≥1(Halton, Kakutani, Sobol, ...) telles que
1≤k
max
≤nkD
k∗≤ (log n)
q.
Exemple : Suite de Halton
Soient p
1, . . . , p
qles q premiers nombres premiers. La suite de Halton q -dimensionelle est d´ efinie, pour tout n ≥ 1, par
ξ
n= Φ
p1(n), . . . , Φ
pq(n) o` u
Φ
p(n) =
r
X
k=0
a
kp
k+1avec
n = a
0+ a
1p + · · · + a
rp
r, 0 ≤ a
i≤ p − 1, a
r6= 0, d´ esigne la d´ ecomposition p-adique de n. Alors, pour tout n ≥ 1,
D
n∗(ξ) ≤ O
(log n)
qn
.
Vitesse de convergence
Cas ` a variation finie Si f est ` a variation finie dans le sens de Hardy et Krause, alors par Koksma-Hlawka
1 n
n
X
k=1
f (ξ
k) − Z
[0,1]q
f λ
q≤ V
HK(f ) D
n∗(ξ) n . Donc V
HK= {f : [0, 1]
q→ R t.q. V
HK(f ) < +∞} ⊂ V
navec
ε
n= (log n)
qn .
Cas Lipschitz Si f est Lipschitz continue, alors par Proinov
1 n
n
X
k=1
f (ξ
k) − Z
[0,1]q
f (u )λ
q(du)
≤ C
d[f ]Lip D
n∗(ξ)
1q.
Plan
1
Approximation r´ ecursive stochastique
2
Description du cadre et Motivations
3
Th´ eor` eme de convergence
4
Applications Innovations i.i.d.
Fonctionnelle d’un processus α-m´ elangeant Chaˆıne de Markov homog` ene
Suites ` a discr´ epance faible
5
Exemples
Recherche de corr´ elation implicite
Description du mod` ele
On consid` ere un mod` ele de Black-Scholes 2-dimensionnel i.e. X
t0= e
rt(actif sans risque) et
X
ti= x
0ie
(r−σ2 i
2)t+σiWti
, x
0i> 0, i = 1, 2, pour les deux actifs risqu´ es o` u
W
1, W
2t
= ρt, ρ ∈ [−1, 1] repr´ esente la corr´ elation entre W
1et W
2(qui est la corr´ elation entre les rendements des actifs risqu´ es X
1et X
2).
Dans ce march´ e, on consid` ere une option best-of call caract´ eris´ ee par le payoff
f (X
T1, X
T2) = max X
T1, X
T2− K
+
.
On utilisera une proc´ edure stochastique r´ ecursive pour r´ esoudre le probl` eme inverse en ρ
P
BoC(x
01, x
02, K , σ
1, σ
2, r, ρ, T ) = P
0marketo` u
P
BoC(x
01, x
02, K , σ
1, σ
2, r, ρ, T ) := e
−rTE
f (X
T1, X
T2)
= e
−rTE
max
x
01e
µ1T+σ1√
Tζ1
, x
02e
µ2T+σ2√ T
ρζ1+
√
1−ρ2ζ2
− K
+
o` u µ
i= r −
σ22i, i = 1, 2, et ζ = (ζ
1, ζ
2) =
dN (0, I
2).
On suppose dor´ enavant que l’´ equation
P
BoC(x
01, x
02, K , σ
1, σ
2, r , ρ, T ) − P
0market= 0 (en ρ)
a au moins une solution, not´ ee ρ
∗.
D´ efinition de la fonction moyenne
Le moyen le plus commode pour ´ eviter les effets de bords dˆ us au fait que ρ ∈ [−1, 1] est d’utiliser une param´ etrisation trigonom´ etrique de la corr´ elation en posant
ρ = cos θ, θ ∈ R . Il est naturel de poser
∀θ ∈ R , ∀ζ = (ζ
1, ζ
2) ∈ R
2, H(θ, ζ) = P (θ) − P
0marketo` u P (θ) = P
BoC(x
01, x
02, K , σ
1, σ
2, r, cos θ, T ) et de d´ efinir la proc´ edure r´ ecursive
θ
n+1= θ
n− γ
n+1H(θ
n, ζ
n+1) o` u (ζ
n)
n≥1∼ N (0, I
2) On a
pour tout ζ ∈ R
2, θ 7−→ H(θ, ζ) est continue et 2π-p´ eriodique,
la fonction moyenne h est continue et 2π-p´ eriodique.
Fonction de Lyapunov
On d´ efinit la fonction de Lyapunov associ´ ee ` a ce probl` eme par L(θ) =
Z
θ0
gh(u)du + C
o` u C > 0 telle que L soit positive et g (θ) :=
1
{h>0}(θ) + β
+1
{h<0}(θ) si θ ≥ θ
01
{h>0}(θ) + β
−1
{h<0}(θ) si θ < θ
0avec θ
0solution de h(θ) = 0 et β
±tel que 0 < β
+<
R
2π0
h
+(θ)d θ R
2π0
h
−(θ)d θ < β
−Alors
sa d´ eriv´ ee est donn´ ee par L
0= gh donc L
0h = gh
2≥ 0, {L
0h = 0} = {h = 0},
L
0est Lipschitz continue.
Exemple num´ erique
La suite de nombre quasi-al´ eatoire gaussien utilis´ ee dans cet exemple est la suivante
(ζ
n1, ζ
n2) = q
−2 log (ξ
n1) sin 2πξ
n2,
q
−2 log (ξ
n1) cos 2πξ
n2,
o` u ξ
n= (ξ
n1, ξ
n2), n ≥ 1, est une suite de Halton bidimensionnelle.
Les valeurs des param` etres du mod` ele sont
x
01= x
02= 100, r = 0.10, σ
1= σ
2= 0.30, ρ = −0.50 et les param` etres du payoff T = 1, K = 100.
Les param` etres de l’algorithme stochastique sont θ
0= 0, n = 10
4. Enfin on pose
γ
n= 8
n .
R´ esultats graphiques
0 20 40 60 80 100
−10
−5 0 5
Nb of Simulations ×102 θ values
MC QMC
0 20 40 60 80 100
−1
−0.9
−0.8
−0.7
−0.6
−0.5
−0.4
−0.3
−0.2
−0.1 0
Nb of Simulations ×102 Correlation ρ=cos(θ)
0.5 MC QMC