• Aucun résultat trouvé

Dans ce qui suit, nous utiliserons la notation propos´ee par Ide et al. (1997) qui est

la plus commun´ement admise pour d´ecrire les probl`emes d’assimilation. Le but de cette

section n’est pas d’exposer de mani`ere extensive la th´eorie du KF, mais plutˆot

d’intro-duire les notions essentielles n´ecessaires `a la bonne compr´ehension des probl`emes discut´es

ult´erieurement. Le lecteur d´esirant de plus amples d´etails sur les fondements th´eoriques

de l’estimation optimale et du filtrage de Kalman pourra se r´ef´erer `a la litt´erature d´edi´ee

(i.e.Gelb, 1974).

4.3.1 Positionnement du probl`eme

Voyons comment on arrive aux ´equations du filtre de Kalman au travers d’un exemple

simple. Supposons que l’on connaˆısse le vecteur d’´etat de l’oc´ean x

a

i

`a l’instant t

i

. Le

vecteur d’´etat est de dimension n. Nous avons ´egalement `a notre disposition un mod`ele

physique d´ecrivant l’´evolution du vecteur d’´etat de l’oc´ean de l’instantt

i

`a l’instant t

i+1

qui peut ˆetre mis sous la forme d’un op´erateur matriciel lin´eaireM

i,i+1

.

x

fi+1

=M

i,i+1

x

ai

(4.1)

o`ux

fi+1

est le vecteur “pr´evu” (forecast en anglais) d´ecrivant l’´etat du syst`eme `a l’instant

t

i+1

. A l’instant t

i+1

, nous disposons ´egalement d’une autre source d’information

impor-tante, les observations collect´es dans le vecteury

i+1

de dimensionp. Le filtre de Kalman

permet de calculer le meilleur estim´e (au sens des moindres carr´es) de l’´etat “vrai” (true

4.3. La th´eorie du filtrage de Kalman 67

en anglais) de l’oc´eanx

ti+1

`a l’instantt

i+1

en fonction de ces deux sources d’information

ind´ependantes, moyennant la connaissance des erreurs relatives surx

fi+1

ety

i+1

.

4.3.2 Erreurs et densit´es de probabilit´e

La pr´ecision de la pr´evision de l’´etat du syst`eme x

fi+1

`a l’instant t

i+1

d´epend de

deux choses : l’erreur sur la condition initiale et l’erreur mod`ele. L’erreur entre la

condi-tion initiale x

ai

et l’´etat vrai de l’oc´ean `a l’instant t

i

peut s’´ecrire sous forme vectorielle

²

ai

=x

ai

−x

ti

. Il est ´evident que l’on n’a pas acc`es `a la valeur de²

ai

. En revanche, on peut

faire un certain nombre d’hypoth`eses sur ses propri´et´es statistiques : supposons quex

a

i

est

non biais´e (< ²

ai

>= 0) et que son erreur²

ai

suit une loi normale. Sa densit´e de probabilit´e

s’´ecrit donc :

²

ai

−→ N(0,P

ai

)∼exp

·

12²

aiT

P

ai1

²

ai

¸

(4.2)

o`u P

ai

=< ²

ai

²

aiT

> est la matrice de covariance des erreurs associ´ees `a x

ai

de dimension

n×n. Par construction, la matrice de covariance des erreurs est sym´etrique et d´efinie

positive. La deuxi`eme source d’erreur sur l’´etat pr´edit est imputable `a l’op´erateur mod`ele

M

i,i+1

qui est imparfait. L’erreur mod`ele s’´ecrit :

η

i

=M

i,i+1xti

−x

ti+1

(4.3)

L`a encore, on ne connaˆıt pas l’erreur mod`ele mais on peut ´emettre l’hypoth`ese qu’elle est

distribu´ee normalement et centr´ee (< η

i

>= 0) :

η

i

−→ N(0,Q

i

)∼exp

·

12η

iT

Q

−1 i

η

i

¸

(4.4)

o`u Q

i

=< η

i

η

T

i

> est la matrice n×n de covariance des erreurs mod`ele. En plus des

hypoth`eses ´emises ci-dessus, on suppose ´egalement que l’erreur sur la condition initiale

est d´ecorr´el´ee de l’erreur mod`ele, soit < ²

ai

η

iT

>= 0. Dans le cas d’un mod`ele r´ealiste

de circulation g´en´erale de l’oc´ean, il est clair que ces hypoth`eses sur la statistique des

erreurs sont des hypoth`eses fortes et peu r´ealiste. En particulier, il est fr´equent, pour ne

pas dire de rigueur d’obtenir un biais mod`ele. Ces hypoth`eses sont cependant n´ecessaires

afin d’´ecrire les ´equations de l’´etape d’analyse du KF. La figure 4.2 pr´esente une vision

sch´ematique du diagramme des erreurs dans l’espace d’´etat.

En partant des hypoth`eses ´enonc´ees ci-dessus, on en d´eduit ais´ement l’erreur sur le

premier estim´e, ou erreur de pr´evision, qui est la diff´erence entre l’´etat pr´edit x

fi+1

et

l’´etat vraix

ti+1

de l’oc´ean `a l’instant t

i+1

:

²

fi+1

= x

fi+1

−x

ti+1

= M

i,i+1

x

ai

−(M

i,i+1

x

ti

−η

i

)

= M

i,i+1

²

ai

i

(4.5)

Dans le cas d’un op´erateur mod`ele M

i,i+1

lin´eaire, on peut facilement d´eterminer les

propri´et´es statistiques de cette erreur de pr´evision. En effet, en combinant l’´equation 4.5

avec les ´equations 4.2 et 4.4, on montre relativement ais´ement que l’erreur de pr´evision

est non biais´ee (< ²

fi+1

>=M

i,i+1

< ²

a

i

>+< η

i

>= 0) et est distribu´ee normalement :

²

fi+1

−→ N(0,P

fi+1

)∼exp

·

1

2²

fT i+1

P

fi+11

²

fi+1

¸

(4.6)

M

xai

xti

εa

i

Mεa

i

εf

i+1

η

Mxti

xti+1

xif+1

M

State space

Fig. 4.2 – Repr´esentation vectorielle des erreurs d’analyse et de pr´evision dans l’espace

d’´etat (Source (Brasseur , 2006)).

o`u la matrice de covariance des erreurs du premier estim´eP

fi+1

est d´efinie par :

P

fi+1

= < ²

fi+1

²

fi+1T

>

= M

i,i+1

< ²

ai

²

aiT

>M

Ti,i+1

+< η

i

η

Ti

>

= M

i,i+1Pai

M

Ti,i+1

+Q

i

(4.7)

L’´equation 4.7 est la premi`ere ´equation fondamentale du filtre de Kalman. Si l’on

re-garde cette ´equation sous un angle physique, la covariance des erreurs de pr´evisionP

fi+1

est ´egale `a la covariance des erreurs initiale P

a

i

propag´ee par la dynamique du mod`ele

M

i,i+1

P

ai

M

Ti,i+1

. Les imperfections du mod`ele sont prises en compte au travers de la

co-variance des erreurs mod`eleQ

i

qui vient amplifier la covariance des erreurs de pr´evision.

Afin de combiner les observations disponibles `a l’instantt

i+1

avec la pr´evision faite par

l’interm´ediaire de notre mod`elex

fi+1

, nous avons besoin de connaˆıtre, ou plutˆot d’estimer

l’erreur intrins`eque de notre syst`eme d’observation. Le vecteur d’observationy

i+1

`a

l’ins-tantt

i+1

s’´ecrit dans l’espace observation `a l’aide de l’op´erateur d’observation H

i+1

de la

fa¸con suivante :

y

i+1

=H

i+1

x

ti+1

oi+1

(4.8)

L’op´erateur H

i+1

est un simple op´erateur de passage qui permet de calculer l’´equivalent

mod`ele aux point d’observation. Comme pr´ec´edemment, on fait l’hypoth`ese que les erreurs

d’observations sont non biais´ees (< ²

oi+1

>= 0) et non corr´el´ees avec les erreurs de pr´evision

(<(H

i+1

²

fi+1

oi+1T

>= 0). La covariance des erreurs d’observation estR

i+1

=< ²

oi+1

²

oi+1T

>.

4.3. La th´eorie du filtrage de Kalman 69

Attardons nous un peu sur cette matriceR

i+1

. Les erreurs d’observation quantifient l’´ecart

entre les donn´ees d’observation et l’´equivalent de la v´erit´e mod`ele dans l’espace

d’observa-tion (i.e.,H

i+1

x

t

i+1

). Elles sont donc la combinaison de deux types d’erreur bien distinctes,

les erreurs dues `a la pr´ecision des mesuresE

i+1

, et les erreurs de repr´esentativit´eF

i+1

qui

proviennent de l’´ecart entre la v´erit´e mod`ele et la r´ealit´e.

R=E

i+1

+F

i+1

(4.9)

Les erreurs de mesureE

i+1

sont pour l’essentiel imputables `a la pr´ecision des appareils de

mesure et sont donc totalement ind´ependantes du mod`ele utilis´e. En revanche, les erreurs

de repr´esentativit´eF

i+1

sont enti`erement d´ependantes du mod`ele utilis´e et englobent, par

exemple, les ph´enom`enes non repr´esentables num´eriquement sur la grille du mod`ele, ainsi

que l’ensemble des ph´enom`enes physiques non r´esolus par les ´equations du mod`ele. Autant

il est relativement ais´e d’estimer la matrice E

i+1

, autant F

i+1

est souvent difficilement

quantifiable. L`a encore, afin de pouvoir ´ecrire les ´equations du KF, on supposera que la

distribution de probabilit´e des erreurs de mesure est gaussienne

²

oi+1

−→ N(0,R

i+1

)∼exp

·

1

2²

oT i+1

R

−1 i+1

²

oi+1

¸

(4.10)

4.3.3 Analyse optimale

La densit´e de probabilit´e 4.6 nous donne la probabilit´e a prioriP(x

ti+1

) alors que 4.10

nous renseigne sur la probabilit´e d’obtenir les observationsy

i+1

sachant la v´erit´e mod`ele

P(y

i+1

|x

ti+1

). On en d´eduit alors facilement la probabilit´e de la v´erit´e mod`ele connaissant

les observations en utilisant la formules de Bayes :

P(x

ti+1

|y

i+1

) = P(y

i+1

|x

t

i+1

)P(x

t i+1

)

P(y

i+1

) (4.11)

La solution de notre probl`eme inverse est l’´etat qui maximise cette probabilit´e

condi-tionnelle. Une formulation d´etaill´ee des m´ethodes d’assimilation en utilisant l’approche

probabiliste est donn´e parvan Leeuwen et Evensen (1996). On cherche donc `a maximiser

la densit´e de probabilit´e deP(x

ti+1

|y

i+1

), ce qui revient `a maximiserP(y

i+1

|x

ti+1

)P(x

ti+1

)

d’apr`es l’´equation 4.11. En utilisant 4.6 et 4.10, il vient :

P(y

i+1

|x

ti+1

)P(x

ti+1

)∼exp

·

12n²

oi+1T

R

−1 i+1

²

oi+1

fi+1T

P

fi+11

²

fi+1

o

¸

(4.12)

L’estimation optimale dex

t

i+1

est donc le vecteur d’´etat maximisant 4.12, ou de mani`ere

´equivalente, minimisant

J =²

oi+1T

R

−1

i+1

²

oi+1

fi+1T

P

fi+11

²

fi+1

(4.13)

En incorporant la d´efinition des erreurs dans l’´equation 4.13, on en d´eduit que la

combi-naison optimale entre la pr´evision mod`ele et les observations correspond au minimum de

la fonction coˆut

J(x) = (y

i+1

−H

i+1

x)

T

R

−1

i+1

(y

i+1

−H

i+1

x) + (x

fi+1

−x)

T

P

fi+11

(x

fi+1

−x) (4.14)

Cette ´equation quadratique contient deux termes qui quantifient l’´ecart aux observations

et l’´ecart `a la pr´evision du mod`ele, pond´er´es par leurs covariances d’erreurs respectives. En

utilisant la m´ethode des variations, on obtient une ´equation implicite pour l’´etat optimal,

ou ´etat analys´ex

ai+1

δJ(x) = 0−→x

ai+1

=x

fi+1

+P

fi+1

H

Ti+1

R

−1

i+1

(y

i+1

−H

i+1

x

ai+1

) (4.15)

qui peut ˆetre r´esolue explicitement apr`es quelques d´eveloppements alg´ebriques

x

ai+1

=x

fi+1

+P

fi+1

H

Ti+1

(H

i+1

P

fi+1

H

Ti+1

+R

i+1

)

−1

(y

i+1

−H

i+1

x

fi+1

) (4.16)

L’´etat analys´e est donc obtenu en corrigeant la pr´evision du mod`ele par l’´ecart entre les

observations et l’´ebauche (le vecteur innovationd

i+1

=y

i+1

−H

i+1

x

fi+1

), pond´er´e par la

matrice de gain de Kalman de dimensionn×pqui s’´ecrit :

K

i+1

=P

fi+1

H

Ti+1

(H

i+1

P

fi+1

H

Ti+1

+R

i+1

)

−1

(4.17)

L’´equation 4.17 est la deuxi`eme ´equation fondamentale du filtre de Kalman. Elle met en

balance la covariance de l’erreur de pr´evision et la covariance de l’erreur totale (i.e., la

somme de la covariance de l’erreur de pr´evision et de l’erreur d’observation) projet´ee dans

l’espace des observations. Si l’on regarde les cas limites que sont un syst`eme d’observation

parfait (R∼0 etH∼I), la matrice de gain de Kalman converge vers la matrice identit´e et

l’´etat analys´e colle parfaitement aux observations. A l’oppos´e, si l’on consid`ere un mod`ele

parfait, soit P

f

∼ 0, le gain de Kalman ainsi que la correction sur la pr´evision tendent

vers z´ero.

On montre que K

i+1

correspond `a la minimisation de la trace de la matrice de

cova-riance des erreurs d’analyse (Miller et Cane, 1989) donn´ee par

P

ai+1

= P

fi+1

−P

fi+1

H

Ti+1

(H

i+1Pfi+1

H

Ti+1

+R

i+1

)

−1

H

i+1Pfi+1

= (I−K

i+1

H

i+1

)P

fi+1

(4.18)

La s´equence d’assimilation est alors obtenue en r´ep´etant ce cycle pr´evision/analyse en

s´equence. La figure 4.3 illustre la s´equence d´ecrite ci-dessus.

4.3.4 La s´equence d’assimilation

L’´etat analys´e 4.16 `a l’instantt

i+1

peut servir de condition initiale pour une nouvelle

pr´evision `a l’instant t

i+2

. A l’instant t

i+2

, de nouvelles observations sont disponibles si

bien que le processus peut ˆetre r´ep´et´e de mani`ere r´ecursive. Pour r´esumer, l’algorithme

du KF contient deux ´etapes principales : l’´etape de pr´evision au cours de laquelle on fait

´evoluer le vecteur d’´etat du mod`ele ainsi que les covariances d’erreur associ´ees de l’instant

t

i

`a l’instantt

i+1

, et l’´etape d’analyse qui corrige la pr´evision en utilisant les observations

disponibles `a l’instant t

i+1

. On rappelle ici l’ensemble de la s´equence du filtre de Kalman,

´etendu au mod`ele faiblement non-lin´eaire M et `a l’op´erateur H qui peut lui aussi ˆetre

non-lin´eaire. On parle alors de filtre de Kalman Etendu (EKF) (Jazwinski, 1970).

On part de la condition initialex

a i

etP

a

i

, les ´equations de l’´etape de pr´evision sont :

x

fi+1

=M

i,i+1

x

ai

(4.19)

et