• Aucun résultat trouvé

Lissage rapide dans des modèles non linéaires et non gaussiens

N/A
N/A
Protected

Academic year: 2021

Partager "Lissage rapide dans des modèles non linéaires et non gaussiens"

Copied!
5
0
0

Texte intégral

(1)

HAL Id: hal-01169898

https://hal.archives-ouvertes.fr/hal-01169898

Submitted on 3 Jul 2015

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of

sci-entific research documents, whether they are

pub-lished or not. The documents may come from

teaching and research institutions in France or

abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est

destinée au dépôt et à la diffusion de documents

scientifiques de niveau recherche, publiés ou non,

émanant des établissements d’enseignement et de

recherche français ou étrangers, des laboratoires

publics ou privés.

Lissage rapide dans des modèles non linéaires et non

gaussiens

Ivan Gorynin, Stéphane Derrode, Emmanuel Monfrini, Wojciech Pieczynski

To cite this version:

Ivan Gorynin, Stéphane Derrode, Emmanuel Monfrini, Wojciech Pieczynski. Lissage rapide dans des

modèles non linéaires et non gaussiens. GRETSI’2015, Sep 2015, Lyon, France. �hal-01169898�

(2)

Lissage rapide dans des mod`

eles non lin´

eaires et non

gaussiens

Ivan Gorynin1, St´ephane Derrode2, Emmanuel Monfrini1, Wojciech Pieczynski1

1epartement CITI, Telecom SudParis, Institut Mines-Telecom, CNRS UMR 5157, 91011 Evry, France 2Ecole Centrale de Lyon, LIRIS, CNRS UMR 5205, ´´ Ecully, France.

Ivan.Gorynin@telecom-sudparis.eu, stephane.derrode@ec-lyon.fr,

Emmanuel.Monfrini@telecom-sudparis.eu, Wojciech.Pieczynski@telecom-sudparis.eu

R´esum´e – Nous nous int´eressons `a la question du filtrage et du lissage statistique dans les syst`emes non lin´eaires et non gaussiens. La nouveaut´e r´eside dans l’approximation du syst`eme non-lin´eaire par un mod`ele `a sauts dans lequel un calcul rapide et optimal du filtrage et du lissage est possible. Ces m´ethodes montrent leur int´erˆet, en particulier dans les r´ecents mod`eles de volatilit´e stochastique asym´etrique.

Abstract –We consider here the problem of statistical filtering and smoothing in nonlinear non-Gaussian systems. The novelty consists in approximating the nonlinear system by a recent switching system, in which exact fast optimal filtering and smoothing are workable. Our methods are applied to an asymetric stochastic volatility model and some experiments show their efficiency.

1

Introduction

Soient XN1 = (X1, . . . , XN) et YN1 = (Y1, . . . , YN),

deux suites de variables al´eatoires. XN1 est un

proces-sus cach´e et YN1 est l’observation que l’on en fait. Pour tout n ∈ {1, ..., N }, Xn et Yn prennent respectivement

leurs valeurs dans Rd

et Rp. Nous nous concentrons ici

sur le calcul, pour tout n ∈ {1, ..., N }, de E [Xn|yn1] et

EhXnX>n |y n 1

i

pour le filtrage ainsi que de EXn

yN1  et EhXnX>n yN 1 i

pour le lissage, qui sont souvent les quan-tit´es d’int´erˆet dans ce genre de probl´ematique. La distri-bution p xN1 , yN1 du couple (X

N 1, Y

N

1 ) est classiquement

celle d’une chaˆıne de Markov cach´ee qui peut n’ˆetre ni lin´eaire, ni gaussienne. Dans ce cas, cette distribution est d´efinie par p (x1, y1) et les deux ´equations :

Xn+1 = Φ(Xn, Un+1); (1)

Yn = Ψ(Xn, Vn), (2)

o`u U1, V1, . . . , UN, VNsont des variables ind´ependantes.

Dans le cas g´en´eral, le filtrage et le lissage rapides et exacts ne sont pas possibles et de nombreuses m´ethodes d’ap-proximation sont propos´ees. Parmi elles, les m´ethodes de Monte-Carlo s´equentielles bas´ees sur le filtrage et le lissage particulaire sont tr`es efficaces mais rencontrent parfois des difficult´es [2, 5].

Nous nous concentrons ici sur le cas o`u les distributions p xn+1

n , p (yn|xn) d´efinies par (1)-(2) ne d´ependent pas

de n. La loi p xN 1 , yN1



du couple XN1 , YN1 est donc enti`erement d´etermin´ee par la connaissance de p x2

1, y21.

Nous nous proposons d’approcher cette distribution par celle d’un m´elange de K2 gaussiennes

p x21, y21 ≈ X

1≤i,j,≤K

αijpij(x21, y 2

1), (3)

ce que l’on sait pouvoir faire, sous des hypoth`eses peu coˆuteuses, avec une pr´ecision arbitrairement grande en augmentant le nombre K2de composantes. On peut alors consid´erer αij comme la loi d’un couple (R1, R2) de

va-riables al´eatoires discr`etes αi,j = P (R1 = i, R2 = j) o`u

R1 et R2 sont `a valeurs dans l’ensemble Ω = {1, . . . , K}.

Ainsi, p x2 1, y21 = P1≤r1,r2,≤Kp r 2 1 p x21, y21 r2 1 peut ˆ

etre identifi´e `a (3) puisque p x2

1, y21 est une marginale de

p x21, r21, y21 = p r21 p x21, y21

r21 , (4)

Soit alors le processus discret RN1 = (R1, . . . , RN) `a

va-leurs dans l’ensemble des classes Ω = {1, . . . , K}. En sup-posant que p (r1) = p (r2), la loi (4) d´efinit enti`erement la

distribution stationnaire du triplet TN1 = (X N 1, R N 1, Y N 1).

Comme nous l’exposons dans les parties 2 et 3, le filtrage (cf. [4]) et le lissage rapides et exacts sont possibles dans certains mod`eles de ce type. Dans la partie 4, nous ap-pliquons la m´ethode propos´ee `a des mod`eles de volatilit´e stochastique.

2

Mod`

eles cach´

es conditionnellement

lin´

eaires `

a sauts markoviens

Consid´erons XN1 et YN1 les processus r´eels d´efinis pr´ e-c´edemment ainsi que le processus RN1 pour lequel Rn est

(3)

`

a valeurs dans un ensemble de classes Ω = {1, . . . , K}. D´efinition 1

Le triplet TN1 = (XN1 , RN1 , YN1) est dit “mod`ele cach´e conditionnellement lin´eaire `a sauts markoviens” (MCCLSM) si TN1 est de Markov avec les propri´et´es suivantes :

p rn+1, yn+1|xn, rn, yn = p rn+1, yn+1|rn, yn ; (5) Xn+1= Fn+1(Rn+1n , Y n+1 n )Xn+ Gn+1(Rn+1n , Y n+1 n )Wn+1+ Hn+1(Rn+1n , Y n+1 n ), (6) o`u Fn+1(rn+1n , yn+1n ) et Gn+1(rn+1n , yn+1n ) sont des

ma-trices, (Wn+1) est un processus de bruit blanc gaussien et

Hn+1(rn+1n , yn+1n ) sont des vecteurs appropri´es. On peut

alors ´etablir le r´esultat suivant (cf. [14]) Proposition 1 (Filtrage)

Consid´erons le MCCLSM TN1 = (XN1, RN1, YN1). Alors, pour tout n ∈ {1, . . . , N }, E [Xn|yn1] = X rn p (rn|yn1) E [Xn|rn, yn1] et, (7) EhXnX>n|y n 1 i =X rn p (rn|yn1) E h XnX>n |rn, yn1 i . (8)

peuvent ˆetre calcul´ees r´ecursivement avec une complexit´e lin´eaire en n par :

EXn+1 rn+1, yn+11  = X rn p rn rn+1, yn+11  ×Fn+1(rn+1n , y n+1 n )E [Xn|rn, yn1] + Hn+1(rn+1n , y n+1 n )  (9) et EhXn+1X>n+1 rn+1n , yn+11 i=X rn p rn rn+1, yn+11 ×  Fn+1(rn+1n , y n+1 n )E h XnX>n rn+1n , yn1iF>n+1(rn+1n , yn+1n ) + Fn+1(rn+1n , y n+1 n )EXn rn+1n , yn1 H> n+1(r n+1 n , y n+1 n ) + Hn+1(rn+1n , y n+1 n )E h X>n rn+1n , yn1iF>n+1(rn+1n , yn+1n ) + Gn+1(rn+1n , y n+1 n )G > n+1(r n+1 n , y n+1 n ) + Hn+1(rn+1n , y n+1 n )H > n+1(r n+1 n , y n+1 n )  , (10) En effet, d’apr`es (5), on a p xn rn, yn+1n  = p (xn|rn, yn).

Plus g´en´eralement, on a p xn

rn, yNn  = p (xn|rn, yn) et p xn yN 1  = P rnp rn yN 1  p xn rn, yN1  ce qui per-met d’´etablir (11) et (12). Proposition 2 (Lissage) Consid´erons le MCCLSM TN1 = (X N 1, R N 1, Y N 1). Alors, pour tout n ∈ {1, . . . , N }, EXn yN1  = X rn p rn yN1  E [Xn|rn, yn1] et, (11) EhXnX>n yN1 i=X rn p rn yN1  EhXnX>n |rn, yn1 i . (12)

peuvent ˆetre calcul´ees avec une complexit´e lin´eaire en N . Remarque 1

Les probabilit´es p (rn|yn1) et p rn

yN1  sont calcul´ees r´ecursivement avec une complexit´e lin´eaire grˆace aux pro-babilit´es forward et backward dans la chaˆıne de Markov couple (RN1, Y

N

1), la markovianit´e de cette chaˆıne ´etant

impliqu´ee par (5). En posant vn = (rn, yn), les

probabi-lit´es αn(rn) = p (rn, y1n) et βn(rn) = p yNn+1|vn

 sont calculables r´ecursivement par :

α1(r1) = p (v1) ; αn+1(rn+1) = X rn∈Ω αn(rn)p (vn+1|vn); (13) βN(rN) = 1; βn(rn) = X rn+1∈Ω βn+1(rn+1)p (vn+1|vn). (14) On a alors p (rn|yn1) = αn(rn)/Pr∗ n∈Ωαn(r ∗ n) et p rn yN1  = Xαn(rn)βn(rn) r∗ n∈Ω αn(r∗n)βn(rn∗) . (15)

3

MCCLSM gaussiens

Notons Zn= (X>n, Y>n)>, znsa r´ealisation, et consid´erons

le cas stationnaire o`u la distribution de TN1 = (X N 1 , R N 1 , Y N 1)

est enti`erement d´efinie par la connaissance de p r2 1 et des distributions gaussiennes pr2 1(x 2 1, y21), de moyennes Υ(r21) =  M(r1) M(r2)  =  E [Z1|r1] E [Z2|r2]  (16) et de matrices de covariance Ξ(r21) = S(r1) Σ(r 2 1) Σ>(r2 1) S(r2)  (17) Si on pose A(r21) = Σ>(r21) S−1(r1), (18) et B(r21)B>(r21) = S(r2) − Σ>(r21)S −1(r 1)Σ(r21), (19)

le triplet TN1 est d´efini par :

RN1 est une chaˆıne de Markov; (20)

Zn+1= A(Rn+1n )(Zn− M(Rn)) + B(Rn+1n )Wn+1+ M(Rn+1),

(21) o`u, comme pr´ec´edemment, (Wn+1) est un processus de

bruit blanc gaussien. Nous savons d´ej`a que ces mod`eles peuvent ˆetre tr`es proches des mod`eles `a sauts lin´eaires et gaussiens qui n’offrent pas la possibilit´e d’un filtrage rapide [3, 13]. Consid´erons maintenant A(r2

1) de la forme A(r21) =A1(r 2 1) A2(r21) 0 A4(r21)  . (22)

(4)

Nous pouvons alors ´enoncer [1] : Proposition 3

Le MCCLSM TN1 = (XN1, RN1, YN1 ) d´efini par (20)-(22) est un MCCLSM caract´eris´e par Fn+1, Gn+1 et Hn+1

ind´ependants de n d´efinis par (23)-(25).

Fn+1(rn+1n , yn+1n ) = A1(rn+1n ), (23) Hn+1(rn+1n , yn+1n ) = A2(rn+1n )yn+ N1(rn+1n ) + (24) Q2(r n+1 n )Q −1 4 (r n+1 n )(yn+1− A4(rn+1n )yn− N2(rn+1n )), Gn+1(rn+1n , yn+1n )G T n+1(rn+1n , yn+1n ) = Q1(r n+1 n ) −Q2(r n+1 n )Q −1 4 (r n+1 n )Q3(r n+1 n ). (25) avec Q(r21) =Q1(r21) Q2(r21) Q3(r2 1) Q4(r21)  = B(r21)B>(r21), N1(rn+1n ) = M1(rn+1) − A1(rn+1n )M1(rn) −A2(rn+1n )M2(rn), N2(rn+1n ) = M2(rn+1) − A4(rn+1n )M2(rn). o`u M1(rn) = E [Xn|rn] et M2(rn) = E [Yn|rn].

Si l’on revient alors au cas g´en´eral du mod`ele de Mar-kov couple, non lin´eaire et non gaussien, il nous suffit de pouvoir simuler des r´ealisations (x0M1 , y0M1 ) du processus

d´efini par p (x1, y1), (1) et (2) pour pouvoir estimer les

param`etres du MCCLSM qui sont, pour 1 ≤ i, j ≤ K, pij = p (r1= i, r2= j), Υi,j = Υ(i, j), et Ξij = Ξ(i, j).

Apr`es une initialisation obtenue classiquement grˆace aux estimateurs empiriques utilis´es sur une segmentation K-means, ces param`etres sont r´e-estim´es dans une proc´edure it´erative de type EM grˆace aux estimateurs empiriques pond´er´es (`a l’it´eration q) :

p(q+1)ij = 1 M − 1 M −1 X n=1 ψn(q)(i, j), Υ(q+1)i,j = M −1 X n=1 z0n+1n ψn(q)(i, j) M −1 X n=1 ψ(q)n (i, j) , Ξij(q+1)= M −1 X n=1  z0n+1n − Υ (q+1) i,j   z0n+1n − Υ (q+1) i,j > ψn(q)(i, j) M −1 X n=1 ψ(q)n (i, j) , avec ψn(q)(i, j) = p rn= i, rn+1= j x0M1 , y0M1  utilisant les param`etres courants p(q)ij , Υ(q)i,j, Ξij(q)



et obtenues par une proc´edure forward-backward dans le triplet T0M1 o`u αn(rn) = p (rn, z0n1) et βn(rn) = p z0Mn+1|t0n sont donc

calcul´ees r´ecursivement pour 1 ≤ n < M , par ψ(q)n (r n+1 n ) = αn(rn)p t0n+1|t0n βn+1(rn+1) X r∗ n,r∗n+1 αn(r∗n)p t∗n+1|t∗n βn+1(rn+1∗ ) , (26) avec t∗i = (x0i, r∗i, y0i), (x0M1 , y0M1 ) ´etant fix´e.

4

Applications `

a des mod`

eles de

volatilit´

e stochastique

Afin de mettre en ´evidence l’int´erˆet des m´ethodes de filtrage et de lissage pr´esent´ees ici, nous proposons deux s´eries d’exp´eriences. Pour la premi`ere, nous nous int´eressons au cas du mod`ele classique de volatilit´e stochastique (MVS) [8, 9] d´efini par

X1= µ + U1; (27)

Xn+1= µ + φ(Xn− µ) + σUn+1; (28)

Yn= β exp (Xn/2)Vn, (29)

o`u µ est un param`etre fix´e et U1, V1, . . . , UN, VN sont

des gaussiennes centr´ees, r´eduites et ind´ependantes. Ce mod`ele est bien un mod`ele de Markov cach´e d´efini par les ´

equations (1)-(2).

Table 1 – EQM pour le lissage dans le MVS lorsque µ = 0.5, β = 0.5, et 4 valeurs de σ2 et φ. K φ σ2 2 3 5 7 LP 1 0.99 0.02 0,39 0,23 0,14 0,12 0.12 2 0.90 0.19 0,48 0,39 0,35 0,34 0.33 3 0.80 0.36 0,56 0,50 0,47 0,47 0.46 4 0.50 0.75 0,70 0,67 0,66 0,66 0.66

Table 2 – EQM pour le lissage dans le MVSA lorsque µ = 0.5, β = 0.5, φ = 0.5 et 5 valeurs de λ2et ρ. K ρ λ2 2 3 5 7 LP 1 -0.90 0.19 0,23 0,21 0,20 0,20 0.19 2 -0.80 0.36 0,36 0,34 0,32 0,32 0.32 3 -0.50 0.75 0,57 0,55 0,55 0,55 0.54 4 -0.30 0.91 0,65 0,63 0,62 0,62 0.62 5 -0.00 1.00 0,70 0,67 0,66 0,66 0.66

Dans la seconde s´erie d’exp´eriences, nous nous int´eressons `

a une extension r´ecente du MVS introduite dans [11, 12, 15] sous le nom de mod`ele de volatilit´e stochastique asym´etrique (MVSA). Ce mod`ele est tel que :

X1= µ + U1; (30)

Xn+1= µ + φ(Xn− µ) + σ (ρVn+ λUn+1) ; (31)

Yn= β exp (Xn/2)Vn. (32)

et, comme dans le MVS, U1, V1, . . . , UN, VN sont des

gaussiennes centr´ees, r´eduites et ind´ependantes. Comme le montre (31), le MVSA n’est pas n´ecessairement un mod`ele de Markov cach´e “ `a bruit ind´ependant” classique puisque Xn+1 est fonction de Xn et Yn. Cependant,



XN1, YN1 reste markovien ce qui fait du MVSA un mod`ele de Mar-kov cach´e “`a bruit correl´e”. Comme il est ais´ement pos-sible de simuler des r´ealisations du MVSA, les m´ethodes de filtrage et de lissage que nous proposons restent valables.

(5)

Figure 1 – Trajectoire simul´ee pour un MVS (φ = 0.5) filtr´ee et liss´ee pour K = 2, 5 et 7.

Figure 2 – Trajectoire simul´ee pour un MVSA (φ = 0.5 et ρ = −0.8) filtr´ee et liss´ee pour K = 2, 5 et 7.

La m´ethode propos´ee est test´ee pour K = 2, 3, 5, et 7 et compar´ees au lissage particulaire (LP) classique (1500 par-ticules) (cf. [6, 7, 10]). On se restreint au cas o`u d = p = 1 et `a une taille d’´echantillon N = 1000. L’´echantillon d’ap-prentissage est de taille M = 20000. Le crit`ere de com-paraison utilis´e est l’erreur quadratique moyenne (EQM) pour 100 exp´eriences ind´ependantes et les r´esultats sont pr´esent´es dans les tableaux 1 et 2. Les Figures 1 et 2 pr´esentent les r´esultats obtenus pour des MVS et MVSA respectivement.

Nous montrons ainsi que pour K = 7 les performances sont quasi optimales et peu ´eloign´ees de celles observ´ees pour K = 5. L’apprentissage des param`etres du m´elange de gaussiennes est gourmand en temps de calcul. En re-vanche, lorsque l’apprentissage n’est pas `a faire, le coˆut de calcul est ´equivalent `a celui d’un lissage particulaire bas´e sur K2 particules.

ef´

erences

[1] N. Abbassi, D. Benboudjema, and W. Pieczynski. Kalman filtering approximations in triplet Markov Gaussian switching models. In Proc. IEEE Int.

Workshop SSP’11, pages 290–294, Nice, France, June 2011.

[2] O. Capp´e, E. Moulines, and T. Ryd´en. Inference in Hidden Markov Models. Springer-Verlag, 2005. [3] S. Derrode and W. Pieczynski. Exact fast

compu-tation of optimal filter in Gaussian switching linear systems. IEEE Signal Processing Letters, 20(7) :701– 704, July 2013.

[4] S. Derrode and W. Pieczynski. Fast filter in nonli-near systems with application to stochastic volatility model. In Proc. of the EUSIPCO’14, pages 290–294, Lisbon, Portugal, September 2014.

[5] A. Doucet and A. Johansen. A tutorial on particle filtering and smoothing : Fifteen years later. Eds. London, U.K., Oxford Univ. Press, 2011.

[6] D. Duffie, J. Pan, and K. J. Singleton. Transform analysis and asset pricing for affine jump diffusions. Econometrica, 68(6) :1343–1376, 2000.

[7] B. Eraker. Do stock prices and volatility jump ? Re-conciling evidence from spot and option prices. The Journal of Finance, 59 :1367–1404, 2004.

[8] E. Ghysels, A. Harvey, and E. Renault. Stochastic volatility. Handbook of Statistics, 14 :119–192, 1995. [9] E. Jacquier, N. G. Polson, and P. Rossi.

Baye-sian analysis of stochastic volatility models. Journal of Business & Economic Statistics, 12(4) :371–389, 1994.

[10] C.-J. Kim and C. R. Nelson. State-space models with regime switching. MIT Press, 1999.

[11] N. Y. Nikolaev, E. Smirnov, and L. M. de Menezes. Nonlinear filtering of asymmetric stochastic volati-lity models and value-at-risk estimation. In Proc. of the IEEE Conf. Computational Intelligence for Fi-nancial Engineering and Economics (CIFEr-2014), pages 310–317, London, U.K., 2014.

[12] Y. Omori and T. Watanabe. Block sampler and pos-terior mode estimation for asymmetric stochastic vo-latility models. Computational Statistics and Data Analysis, 52(6) :2892–2910, 2008.

[13] Y. Petetin and F. Desbouvries. A class of fast exact Bayesian filters in dynamical models with jumps. IEEE Trans. on Signal Processing, 62(14) :3643– 3653, 2014.

[14] W. Pieczynski. Exact filtering in conditionally Mar-kov switching hidden linear models. Comptes Rendus Math´ematique, 349(9-10) :587–590, 2011.

[15] M. Takashi, Y. Omori, and T. Watanabe. Estima-ting stochastic volatility models using daily returns and realized volatility simultaneously. Computatio-nal Statistics and Data AComputatio-nalysis, 53(6) :2404–2426, 2009.

Figure

Table 1 – EQM pour le lissage dans le MVS lorsque µ = 0.5, β = 0.5, et 4 valeurs de σ 2 et φ
Figure 2 – Trajectoire simul´ ee pour un MVSA (φ = 0.5 et ρ = −0.8) filtr´ ee et liss´ ee pour K = 2, 5 et 7.

Références

Documents relatifs

Comme nous l’avons vu dans le paragraphe pr´ec´edent, le circuit multiplieur fournit une tension image de la puissance instantan´ee p(t). Pour obtenir la puissance moyenne, il faut

Multiplieur Amplificateur op´ erationnel Soustracteur Int´ egrateur Comparateur simple La diode.. Electronique non lin´

D´ eterminer les meilleures zones d’´ echantillonnage pour estimer les diff´ erents

D´ eterminer les meilleures zones d’´ echantillonnage pour estimer les diff´ erents

Trouver les quantit´ es de K et L que la firme doit employer afin de maxi- miser son b´ en´ efice (on justifiera bien l’existence d’un maximum).. La firme constate que la politique

Exercice 1 Une firme a´ eronautique fabrique des avions qu’elle vend sur deux march´ es ´ etrangers. Trouver le nombre d’avions que la firme doit vendre pour maximiser son b´

On sait qu’une matrice sym´ etrique r´ eelle a toutes ses valeurs propres r´ eelles et qu’une ma- trice d´ efinie positive (sym´ etrique) a toutes ses valeurs propres

centr´ ees de variance σ 2 0 (mais ce ne sont pas n´ ecessairement