• Aucun résultat trouvé

Des m´ethodes non-Gaussiennes ` a partir d’un cadre classique

3.2 Les m´ethodes ´etudi´ees

3.2.2 Des m´ethodes non-Gaussiennes ` a partir d’un cadre classique

Filtre de Kalman d’ensemble avec anamorphose dynamique (EnKF-Anam) Le filtre de Kalman d’ensemble suppose la gaussianit´e des densit´es de probabilit´e, no-tamment de la densit´e a priori. Cette hypoth`ese est la plupart du temps erron´ee.

Une fa¸con de g´erer ces non-Gaussianit´es est d’appliquer une transformation, scalaire ou vectorielle, analytique ou num´erique, afin de les approcher au mieux de densit´es Gaus-siennes. Ces transformations s’appellent des anamorphoses. Apr`es transformation, il est possible d’effectuer une analyse aux hypoth`eses Gaussiennes (de type BLUE) sur ces nou-velles variables quasi-Gaussiennes. Plusieurs transformations existent pour effectuer une anamorphose (Simon and Bertino, 2012).

Les anamorphoses analytiques utilisent la connaissance a priori que l’on peut avoir d’une variable physique. Par exemple, si l’on sait qu’une variable X est de loi log-normale (e.g. la chlorophylle), on peut lui appliquer une transformation lognormale inverse. Il s’agit donc d’un changement de variable qui produit une nouvelle variable Gaussienne ˜X et telle que X = ln( ˜X). Apr`es analyse de la variable ˜X, on effectue la transformation inverse pour obtenir la correction de la variable X.

Lorsqu’on ne dispose pas de connaissance a priori de la nature des variables que l’on traite, il est possible d’effectuer une anamorphose num´erique (Wackernagel (2006) en g´eostatistique et Bertino et al. (2003) en oc´eanographie). Il se base sur les fonctions de r´epartition (cdf) des variables al´eatoires. On admet que l’on poss`ede la cdf F de notre variable non-Gaussienne X. On connaˆıt ´egalement la cdf G de la variable al´eatoire Gaus-sienne ˜X telle que ˜X ∼ N (0, 1). L’anamorphose est alors d´efinie comme la fonction de transport (map) ψ = F−1◦ G qui `a une valeur ˜X fait correspondre une valeur X.

En poss´edant un ensemble qui d´ecrit la pdf de X on peut effectuer une d´emarche similaire appel´ee l’anamorphose dynamique. La fonction de transport est une fonction d´efinie par morceau qui fait correspondre les percentiles de la variable ˜X `a ceux de la variable X. Elle s’´ecrit ψNe(x) =        ˜ ξ1, si x < ξ1 ˜ ξk+ξ˜k+1−˜ξk ξk+1−ξk(x− ξk), si x∈ [ξk, ξk+1] ˜ ξNe, si x > ξNe (3.1)

avec ξ1, ..., ξNeet ˜ξi, ..., ˜ξNe les percentiles de X et de ˜X respectivement. Cette anamorphose dynamique a ´et´e mise en place et a montr´e ses bonnes performances en oc´eanographie biog´eochimique (B´eal et al., 2009, 2010). Nous utilisons cette version de l’anamorphose dans la suite.

Algorithme - EnKF-Anam Ensemble a priori au temps 0 : [xf,10 , ..., xf,Ne

3.2. Les m´ethodes ´etudi´ees 61

Observations au temps k : yk de covariances Rk Pr´evision

– Propagation des Ne membres de l’ensemble du temps k− 1 au temps k : xf,ik =M(xf,ik−1), i = 1, ..., Ne

Analyse

Pour chaque observation (scalaire) yk∈ yk avec yk= h(xk,o) o`u xk= [xk,o, xk,u] – Perturbation de l’observation :

yik= yk+ σog, avec σ2o la variance d’erreurs d’observation et g∼ N (0, 1) – Anamorphose :

– Calcul des percentiles des xf,ik,o et de la GaussienneN (xfk,o, σxf k,o)

– Changement de variables : [˜xf,ik , ˜yik] = ψNe([xf,ik , yik]), pour tout i = 1, ..., Ne – Analyse : idem EnKF

– Calcul de la variance d’erreurs a priori σ2 ˜

xk,o = V ar(˜xf,ik,o) – Calcul de la variance d’erreurs d’observation σ2

˜

yk = V ar(˜yi k) – Correction sur la variable observ´ee

˜

xa,ik,o= ˜xf,ik,o+ σ 2 o σ2 ˜ yk+ σ2 ˜ xk,o (˜yik− ˜xf,ik,o), i = 1, ..., Ne – Correction sur les variables non-observ´ees

˜

xa,ik,u= ˜xf,ik,u+cov(˜x f,i k,u, ˜xf,ik,o) σ2˜y

k

(˜xa,ik,o− ˜xf,ik,o), i = 1, ..., Ne

– Anamorphose inverse : xa,ik = ψ−1Ne(˜xa,ik ), pour tout i = 1, ..., Ne

Il est ´egalement important de noter que la version de l’anamorphose que nous utilisons ne simule pas de queues de densit´es. En revanche, une borne (inf´erieure) est appliqu´ee `a l’erreur d’observation dans l’espace anamorphos´e afin d’´eviter des corrections trop drastiques et un ´eventuel effondrement d’ensemble. Nous sommes conscients de l’importance que revˆet les queues de densit´es pour les performances de l’assimilation (importance mise en ´evidence par Simon and Bertino, 2012) mais nous n’avons pas pu, pour des raisons de temps, les mettre en place dans notre version.

Filtre d’histogrammes de rangs (RHF)

Le RHF est une m´ethode traitant chaque variable en s´erie, d´evelopp´ee par Anderson (2010). Cette m´ethode est bas´ee sur la construction de pdf `a partir d’un ensemble en utilisant des histogrammes de rangs ce qui lui permet de ne pas supposer la gaussianit´e des densit´es a priori pour les variables observ´ees. Les variables non-observ´ees sont corrig´ees par r´egression lin´eaire.

Dans un premier temps, nous traitons la variable scalaire observ´ee xk,o. Dans un second temps, nous corrigeons le vecteur du reste des variables non-observ´ees xk,u.

La pdf Pxk,o(xo) de la variable al´eatoire xk,oest approxim´ee `a l’aide de l’ensemble (xf,ik,o)i en utilisant une m´ethode d’histogrammes de rangs. Cette m´ethode consiste `a consid´erer les intervalles entre les membres (pr´ealablement ordonn´es) deux `a deux. Dans ces intervalles, la pdf est constante et est d’int´egrale N1

e+1. Ainsi la pdf a priori s’´ecrit : Pxk,o(xo) = 1 Ne+ 1 Ne−1 X j=1 1[xf,j k,o,xf,j+1k,o [(xo)

(xf,j+1k,o − xf,jk,o) + T (xo), (3.2) avec T (xo) = T1(xo)1

]−∞,minj(xf,jk,o)[(xo) + T2(xo)1] max

j(xf,jk,o),+∞[(xo) deux queues (de poids 1

Ne+1 ´egalement) de densit´es `a pr´escrire. Sur ces mˆemes intervalles est discr´etis´ee la vrai-semblance Pyk|xk,o. Ceci nous permet de faire un produit point par point (produit d’Hada-mard) entre ces deux pdf qui nous donne apr`es re-normalisation la pdf a posteriori Pxk,o|yk. Par ´echantillonnage de la pdf a posteriori Pxk,o|yk nous obtenons un ensemble a posteriori (xa,ik,o)i.

Cet ensemble corrig´e sur la variable observ´ee xk,ose propage aux variables non-observ´ees xk,upar r´egression lin´eaire. Cette r´egression est similaire `a celle de l’EnKFs. Elle utilise les covariances d’erreurs comme pond´eration. On obtient ainsi :

xa,ik,u = xf,ik,u+cov(x f,i k,u, xf,ik,o) σ2

o

(xa,ik,o− xf,ik,o), i = 1, ..., Ne

Algorithme - RHF Ensemble a priori au temps 0 : [xf,10 , ..., xf,Ne

0 ] ; Observations au temps k : yk de covariances Rk Pr´evision

– Propagation des Ne membres de l’ensemble du temps k− 1 au temps k : xf,ik =M(xf,ik−1), i = 1, ..., Ne

3.2. Les m´ethodes ´etudi´ees 63

Analyse

Pour chaque observation (scalaire) yk∈ yk avec yk= xk,o o`u xk= [xk,o, xk,u] Variable observ´ee

– Tri par ordre croissant des membres : (xf,jk,o)j avec xf,jk,o< xf,j+1k,o ,∀j = 1, ..., Ne – Cr´eation par histogramme de rangs de la pdf approch´ee

Pxk,o(xo) = 1 Ne+ 1 Ne−1 X j=1 1[xf,j k,o,xf,j+1k,o [(xo) (xf,j+1k,o − xf,jk,o) + T (xo) (3.3) – Cr´eation sur les mˆemes intervalles de la vraisemblance Py

k|xfk,o

– Calcul de la pdf produit (et normalisation) donnant Pxk,o|yk – ´Echantillonnage de Pxk,o|yk donnant l’ensemble (xa,ik,o)i=1,...,Ne Variables non-observ´ees

– Correction sur les variables non-observ´ees xa,ik,u= xf,ik,u+cov(x

f,i k,u, xf,ik,o) σ2

o

(xa,ik,o− xf,ik,o), i = 1, ..., Ne