Estimation des param` etres et de l’´ etat cach´ e des mod` eles d’espace d’´ etats: application au mod` ele
d’Heston
El Kolei Salima sous la direction de F. Patras et P. Reynaud Bouret
Universit´e de Nice Sophia Antipolis
CIRM 16-20 Avril 2012
Mod` ele espace d’´ etats
yt =hθ(xt, εt), Observable xt =fθ(xt−1, ηt) Inobservable
(εt) et (ηt) sont des s´equences de variables al´eatoires ind´ependantes et identiquement distribu´ees.
hθ andfθ sont des fonctions dont la forme est connue et d´ependent d’un vecteur de param`etreθ∈Θ.
Hypoth`eses
(H1) : Le signal{xt,t∈N} est mod´elis´e par une chaine de Markovde distribution initiale pθ(x0) et de densit´e de transition pθ(xt|xt−1).
(H2) : Les observations{yt,t ∈N∗} sont suppos´ees ind´ependantes conditionnellement au signal{xt,t ∈N}, ie : pθ(yt|y1:t−1,x1:t) =pθ(yt|xt).
Un mod`ele espace d’´etat est d´ecrit par les quantit´es suivantes : La distribution initiale :pθ(x1).
La densit´e de transition :pθ(xt|xt−1).
La vraisemblance :pθ(yt|xt).
Supposons θ connu : on veut estimerpθ(xt|y1:t), ∀t ∈[1,T]: filtrage optimal
=⇒ Le filtrage apparaˆıt comme un outil “naturel” :
m´ecanisme qui consiste `a retirer l’information d’un processus non observable xt (variable d’´etat) contenue dans des processus observablesy1:t= (y1,· · · ,yt) (variables de mesure).
Principe : “Bayes Recursion”
Le th´eor`eme de Bayes nous permet d’estimer r´ecursivement la loi cible.
pθ(xt|y1:t)
| {z }
distribution a posteriori
= pθ(yt|xt)pθ(xt|y1:t−1) pθ(yt|y1:t−1)
∝ pθ(yt|xt)pθ(xt|y1:t−1) (1) o`u
pθ(xt|y1:t−1)
| {z }
distribution a priori
= Z
pθ(xt|xt−1)pθ(xt−1|y1:t−1)dxt−1 (2)
Mod` ele lin´ eaire et gaussien : Filtre de Kalman
Supposons :
(A1) : fθ (resp.hθ) lin´eaire enxt−1 etηt (resp.xt et εt).
(A2) : εt ∼ N(0,R) etηt ∼ N(0,Q) avec R et Q connus.
Le mod`ele espace d’´etats peut s’´ecrire sous forme matricielle : yt=Cθxt+Mθεt t ≥1,
xt=Aθxt−1+Gθηt,
=⇒ On a une solution exacte pour l’estimation de pθ(xt|y1:t) qui est donn´ee par le filtre de Kalman.
Notation :
bxt−=Eθ[xt|y1:t−1] etbxt =Eθ[xt|y1:t].
Pt−=Varθ[(xt−bxt−)(xt−bxt−)0|y1:t−1].
Pt=Varθ[(xt−bxt)(xt−bxt)0|y1:t].
Filtre de Kalman
Algorithme :
Etape de pr´´ ediction :
bxt−=Aθbxt−1
Pt−=AθPt−1A0θ+GθQGθ0 Etape de Mise `´ a jour :
bxt =bxt−+Kt
yt−Cθbxt− Pt= (I−KtCθ)Pt− Kt=Pt−Cθ0
CθPt−Cθ0 +MθRMθ0−1
Kt : matrice de Kalman : matrice qui minimise la variance a posterioriPt.
Mod` ele non lin´ eaire et non Gaussien : M´ ethodes de Monte Carlo s´ equentielle pour le filtrage
M´ethode de Monte Carlo bas´ee sur une simulation importante de points not´es (xti)i=1,···,M pond´er´es par des poids wti. “M”
repr´esente le nombre points simul´es.
Un filtre particulaire est une collection de ces points pond´er´es appel´es particules.
Contexte
Supposons que nous sommes int´eress´e parpθ(xt|y1:t).
On veut obtenir (wti,xti) qui suit la loipθ(xt|y1:t).
Principe
Distribution d’importance : qθ(xt|x1:t−1,y1:t) Si xti est de loi qθ(xt|x1:t−1,y1:t) alorsPM
i=1wt−1i δxi
t converge vers la loi qθ(xt|x1:t−1,y1:t)pθ(xt−1|y1:t−1).
On calcule les poids
wti ∝wt−1i pθ(yt|xt)pθ(xt|xt−1)/qθ(xt|x1:t−1,y1:t).
Finalement on aPM i=1wtiδxi
t converge verspθ(xt|y1:t) (Del Moral, Doucet...).
Pour ´eviter le probl`eme de d´eg´en´erescence des poids : on ajoute une ´etape de r´e´echantillonnage.
SISR
Algorithme :
Pour t= 1 et i = 1· · ·M :
Simulerx1i ∼qθ(x1) et calculerw1i =pqθ(x1)
θ(x1). Normaliser les poids ˜w1i =PwθM(x1i)
j=1w1j. Pour t= 2· · ·T et i = 1· · ·M :
1 Simulerxti ∼qθ(xt|x1:t−1i ,y1:t) et poserx1:ti = (x1:t−1i ,xti).
2 Mise `a jour :
wti =pθ(yt|xti)pθ(xti|xt−1i ) qθ(xti|x1:t−1i ,y1:t) .
3 Normaliser les poids : ˜wti.
4 R´eechantillonnage : On tire :
xti,w˜ti .
5 Poser ˜wti= 1/M.
En pratique, on choisitqθ(xt|x1:t−1i ,y1:t) =pθ(xt|xt−1i ).
Filtre APF
Algorithme :
Pour t= 1 et i = 1· · ·M :
Simulerx1i ∼pθ(x1) et calculer ˜w1i =M1. Pour t= 1· · ·n et i = 1· · ·M :
1 Calculerµit =Eθ(xt|xt−1i ) et poserwt−1i = ˜wt−1i pθ(yt|µit).
2 R´eechantillonner : On r´eechantillonne
xt−1i ,wt−1i
On obtient
˜
xt−1i ,1/M et un ´echantillon d’indices ji (correspond aux particules r´e´echantillonn´ees).
3 Propager :
Poserxt−1i = ˜xt−1i . Simulerxti ∼pθ(xt|xt−1i ).
Calculerwti = pθ(yt|xti)
pθ(yt|µj it) et normaliser ˜wti.
filtrage pour l’estimation de l’´ etat et du param` etre
On veut estimer simultan´ement et s´equentiellement θ et xt au vu des observations.
Approche de Kitagawa, augmenter le vecteur d’´etat : xt = (xt, θt), θt =θt−1, θ0 ∼p(θ0) ...coupl´ee avec l’id´ee de Gordon :
θt =θt−1+Gt, Gt ∼ N(0,Wt) et θt−1 ind´ependant deGt.
Avantage :La m´ethode marche mieux en pratique que de consid´ererxt = (xt, θt) avecθt =θt−1.
Filtre APF
Param`etre dynamique : θt =θt−1+N(0,Wt)
1 Prediction :
Calculerµit =E(xt|xt−1i , θit−1) etmit−1=E[θt|θt−1] =θit−1 Poserwt−1i = ˜wt−1i p(yt|µit,mit−1).
2 R´eechantillonnage :
3 Propager :
Poserxt−1i = ˜xt−1i etθit−1=θjt−1i . Simulerθit∼ N(mt−1i ,Wt) Simulerxti ∼p(xt|xt−1i , θit).
Calculer les poids :wt=p(yt|xti, θti)/p(yt|µjti,mt−1i ) et normaliser ˜wt .
Filtre APF
Param`etre dynamique : θt =θt−1+N(0,Wt)
1 Prediction :
Calculerµit =E(xt|xt−1i , θit−1) etmit−1=E[θt|θt−1] =θit−1 Poserwt−1i = ˜wt−1i p(yt|µit,mit−1).
2 R´eechantillonnage :
3 Propager :
Poserxt−1i = ˜xt−1i etθit−1=θjt−1i . Simulerθit∼ N(mt−1i ,Wt) Simulerxti ∼p(xt|xt−1i , θit).
Calculer les poids :wt=p(yt|xti, θti)/p(yt|µjti,mt−1i ) et normaliser ˜wt .
Id´ee : Propager de mani`ere `a avoir une variance constante.
Probl`eme :Var(θt) =Var(θt−1) +Wt :Les variances s’accumulent ! Perte d’information !
Filtre APF
Param`etre dynamique : θt =θt−1+N(0,Wt)
1 Prediction :
Calculerµit =E(xt|xt−1i , θit−1) etmit−1=E[θt|θt−1] =θit−1 Poserwt−1i = ˜wt−1i p(yt|µit,mit−1).
2 R´eechantillonnage :
3 Propager :
Poserxt−1i = ˜xt−1i etθit−1=θjt−1i . Simulerθit∼ N(mt−1i ,Wt) Simulerxti ∼p(xt|xt−1i , θit).
Calculer les poids :wt=p(yt|xti, θti)/p(yt|µjti,mt−1i ) et normaliser ˜wt .
Id´ee : Propager de mani`ere `a avoir une variance constante.
Probl`eme :Var(θt) =Var(θt−1) +Wt :Les variances s’accumulent ! Perte d’information !
KSAPF
Algorithme :
Pour t= 1 et for i = 1· · ·M : Simulerθi1∼p(θ1) etx1i ∼p(x1|θ1i) Calculer ˜w1i =M1.
Pour t= 1,· · ·,n
1 Pour i= 1,· · ·M :
Calculerµit =E(xt|xt−1i , θit−1) etmit−1=aθit−1+ (1−a)θt−1. Poserwt−1i = ˜wt−1i p(yt|µit,mit−1).
2 R´e´echantillonner : R´e´echantillonner
xt−1i ,wt−1i
On obtient
˜
xt−1i ,1/M et un ´echantillon d’indices ji .
3 Propager :
Poserxt−1i = ˜xt−1i etθt−1i =θt−1ji . Simulerθit ∼ N(mit−1,(1−a2)Vt−1).
Simulerxti ∼p(xt|xt−1i , θit).
Calculer les poids :wt= p(yt|xit,θit)
p(yt|µj it,mit−1) et normaliser ˜wt .
Application : Le mod` ele d’Heston
Mod`ele :
dSt=rStdt+√
VtStdWt1 dVt=κ(β−Vt)dt+σ√
VtdWt2 dWt1,dWt2
=ρdt St : actif etr le taux sans risque.
Wt1 et Wt2 sont deux mouvements browniens.
κ : param`etre de vitesse de retour `a la moyenne.
β : moyenne `a long terme du processus.
σ : param`etre de “Vol de Vol”’.
ρ : param`etre de corr´elation.
θ= (κ, β, σ, ρ)
Mod`ele populaire utilis´e en finance :
1 repr´esente les faits observ´es empiriquement : volatilit´e clustering, effet de levier...
formule semi ferm´ee des prix d’options not´esC (v,S , θ).
Application : Mod` ele espace d’´ etats
Mod`ele :
yt=Ct(vt,St, θ) +εt,
vt= Ψ(vt−1, θ,∆) + Φ1/2(vt−1, θ,∆)ηt. avec :
Ψ(vt, θ,∆) =β(1−exp−κ∆) +exp−κ∆vt,
Φ(vt, θ,∆) =β2κσ2(1−e−κ∆)2+σκ2e−κ∆(1−e−κ∆)vt.
∆ : pas de temps.
εt ∼ N(0,R) o`u R est connu.
Observations
Notation : Ct(St,vt, θ) repr´esente le vecteur contenant les prix d’options `a la datet :
Ct(St,vt, θ) =
CtK1,T1(St,vt, θ) CtK1,T2(St,vt, θ)
...
CtK3,T3(St,vt, θ)
But :Estimer s´equentiellement et simultan´ement les param`etres et la variance.
Param`etres des Filtres :
p(θ0) =U(κa, κb)⊗ U(βa, βb)⊗ U(σa, σb)⊗ U(ρa, ρb) p(v0|θ0) = Γ(α1, α2) avec α1 = 2κσ02β0
0
et α2 = 2κσ20
0. p(vt|vt−1, θt−1) = 2cχ2(2d + 2,2w) avec :
c = 2κ
σ2(1−exp−κ∆), w =cvt−1exp−κ∆ andd = 2κβ σ2 −1 p(yt|vt, θt) =N(Ct(St,vt, θt),R).
R´ esultat num´ erique : θ = (4, 0.03, 0.4, −0.5)
Table: Estimation des param`etres par EKF, APF, APFS et KSAPF. Le nombre de particulesM pour les filtres particulaires est 1000 et le nombre d’observationT = 100.
κmean βmean σmean ρmean
APF 4.15 0.031 0.46 -0.43 KSAPF 4.05 0.0296 0.41 -0.59 APFS 4.55 0.028 0.43 -0.52 EKF 4.21 0.0296 0.345 -0.61
:MSE pour l’estimation deθ. De gauche `a droite : KSAPF,
Figure:Estimation de la variance : de gauche `a droite : EKF, APFS, APF, KSAPF. Bleu : vraie variance, Rouge : variance estim´ee
R´ esultat num´ erique :
Figure:MSE pour l’estimation devt. De gauche `a droite : KSAPF, APF, APFS, EKF
R´ esum´ e
Mauvaise performance du filtre de Kalman Etendu (prix du call fortement non-lineaire) et du filtre APFS (d´eg´en´erescence des particules).
KSAPF performe les autre filtres dans tous les cas
Param`etre “tun´e” pour l’APF : la variance des bruits pour la dynamique artificielle des param`etres.