Dans ce qui suit, nous utiliserons la notation propos´ee par Ide et al. (1997) qui est
la plus commun´ement admise pour d´ecrire les probl`emes d’assimilation. Le but de cette
section n’est pas d’exposer de mani`ere extensive la th´eorie du KF, mais plutˆot
d’intro-duire les notions essentielles n´ecessaires `a la bonne compr´ehension des probl`emes discut´es
ult´erieurement. Le lecteur d´esirant de plus amples d´etails sur les fondements th´eoriques
de l’estimation optimale et du filtrage de Kalman pourra se r´ef´erer `a la litt´erature d´edi´ee
(i.e.Gelb, 1974).
4.3.1 Positionnement du probl`eme
Voyons comment on arrive aux ´equations du filtre de Kalman au travers d’un exemple
simple. Supposons que l’on connaˆısse le vecteur d’´etat de l’oc´ean x
ai
`a l’instant t
i. Le
vecteur d’´etat est de dimension n. Nous avons ´egalement `a notre disposition un mod`ele
physique d´ecrivant l’´evolution du vecteur d’´etat de l’oc´ean de l’instantt
i`a l’instant t
i+1qui peut ˆetre mis sous la forme d’un op´erateur matriciel lin´eaireM
i,i+1.
x
fi+1=M
i,i+1x
ai(4.1)
o`ux
fi+1est le vecteur “pr´evu” (forecast en anglais) d´ecrivant l’´etat du syst`eme `a l’instant
t
i+1. A l’instant t
i+1, nous disposons ´egalement d’une autre source d’information
impor-tante, les observations collect´es dans le vecteury
i+1de dimensionp. Le filtre de Kalman
permet de calculer le meilleur estim´e (au sens des moindres carr´es) de l’´etat “vrai” (true
4.3. La th´eorie du filtrage de Kalman 67
en anglais) de l’oc´eanx
ti+1`a l’instantt
i+1en fonction de ces deux sources d’information
ind´ependantes, moyennant la connaissance des erreurs relatives surx
fi+1ety
i+1.
4.3.2 Erreurs et densit´es de probabilit´e
La pr´ecision de la pr´evision de l’´etat du syst`eme x
fi+1`a l’instant t
i+1d´epend de
deux choses : l’erreur sur la condition initiale et l’erreur mod`ele. L’erreur entre la
condi-tion initiale x
aiet l’´etat vrai de l’oc´ean `a l’instant t
ipeut s’´ecrire sous forme vectorielle
²
ai=x
ai−x
ti. Il est ´evident que l’on n’a pas acc`es `a la valeur de²
ai. En revanche, on peut
faire un certain nombre d’hypoth`eses sur ses propri´et´es statistiques : supposons quex
ai
est
non biais´e (< ²
ai>= 0) et que son erreur²
aisuit une loi normale. Sa densit´e de probabilit´e
s’´ecrit donc :
²
ai−→ N(0,P
ai)∼exp
·
−12²
aiTP
ai−1²
ai¸
(4.2)
o`u P
ai=< ²
ai²
aiT> est la matrice de covariance des erreurs associ´ees `a x
aide dimension
n×n. Par construction, la matrice de covariance des erreurs est sym´etrique et d´efinie
positive. La deuxi`eme source d’erreur sur l’´etat pr´edit est imputable `a l’op´erateur mod`ele
M
i,i+1qui est imparfait. L’erreur mod`ele s’´ecrit :
η
i=M
i,i+1xti−x
ti+1(4.3)
L`a encore, on ne connaˆıt pas l’erreur mod`ele mais on peut ´emettre l’hypoth`ese qu’elle est
distribu´ee normalement et centr´ee (< η
i>= 0) :
η
i−→ N(0,Q
i)∼exp
·
−12η
iTQ
−1 iη
i¸
(4.4)
o`u Q
i=< η
iη
Ti
> est la matrice n×n de covariance des erreurs mod`ele. En plus des
hypoth`eses ´emises ci-dessus, on suppose ´egalement que l’erreur sur la condition initiale
est d´ecorr´el´ee de l’erreur mod`ele, soit < ²
aiη
iT>= 0. Dans le cas d’un mod`ele r´ealiste
de circulation g´en´erale de l’oc´ean, il est clair que ces hypoth`eses sur la statistique des
erreurs sont des hypoth`eses fortes et peu r´ealiste. En particulier, il est fr´equent, pour ne
pas dire de rigueur d’obtenir un biais mod`ele. Ces hypoth`eses sont cependant n´ecessaires
afin d’´ecrire les ´equations de l’´etape d’analyse du KF. La figure 4.2 pr´esente une vision
sch´ematique du diagramme des erreurs dans l’espace d’´etat.
En partant des hypoth`eses ´enonc´ees ci-dessus, on en d´eduit ais´ement l’erreur sur le
premier estim´e, ou erreur de pr´evision, qui est la diff´erence entre l’´etat pr´edit x
fi+1et
l’´etat vraix
ti+1de l’oc´ean `a l’instant t
i+1:
²
fi+1= x
fi+1−x
ti+1= M
i,i+1x
ai−(M
i,i+1x
ti−η
i)
= M
i,i+1²
ai+η
i(4.5)
Dans le cas d’un op´erateur mod`ele M
i,i+1lin´eaire, on peut facilement d´eterminer les
propri´et´es statistiques de cette erreur de pr´evision. En effet, en combinant l’´equation 4.5
avec les ´equations 4.2 et 4.4, on montre relativement ais´ement que l’erreur de pr´evision
est non biais´ee (< ²
fi+1>=M
i,i+1< ²
ai
>+< η
i>= 0) et est distribu´ee normalement :
²
fi+1−→ N(0,P
fi+1)∼exp
·
−1
2²
fT i+1P
fi+1−1²
fi+1¸
(4.6)
M
xai
xti
εa
i
Mεa
i
εf
i+1
η
Mxti
xti+1
xif+1
M
State space
Fig. 4.2 – Repr´esentation vectorielle des erreurs d’analyse et de pr´evision dans l’espace
d’´etat (Source (Brasseur , 2006)).
o`u la matrice de covariance des erreurs du premier estim´eP
fi+1est d´efinie par :
P
fi+1= < ²
fi+1²
fi+1T>
= M
i,i+1< ²
ai²
aiT>M
Ti,i+1+< η
iη
Ti>
= M
i,i+1PaiM
Ti,i+1+Q
i(4.7)
L’´equation 4.7 est la premi`ere ´equation fondamentale du filtre de Kalman. Si l’on
re-garde cette ´equation sous un angle physique, la covariance des erreurs de pr´evisionP
fi+1est ´egale `a la covariance des erreurs initiale P
ai
propag´ee par la dynamique du mod`ele
M
i,i+1P
aiM
Ti,i+1. Les imperfections du mod`ele sont prises en compte au travers de la
co-variance des erreurs mod`eleQ
iqui vient amplifier la covariance des erreurs de pr´evision.
Afin de combiner les observations disponibles `a l’instantt
i+1avec la pr´evision faite par
l’interm´ediaire de notre mod`elex
fi+1, nous avons besoin de connaˆıtre, ou plutˆot d’estimer
l’erreur intrins`eque de notre syst`eme d’observation. Le vecteur d’observationy
i+1`a
l’ins-tantt
i+1s’´ecrit dans l’espace observation `a l’aide de l’op´erateur d’observation H
i+1de la
fa¸con suivante :
y
i+1=H
i+1x
ti+1+²
oi+1(4.8)
L’op´erateur H
i+1est un simple op´erateur de passage qui permet de calculer l’´equivalent
mod`ele aux point d’observation. Comme pr´ec´edemment, on fait l’hypoth`ese que les erreurs
d’observations sont non biais´ees (< ²
oi+1>= 0) et non corr´el´ees avec les erreurs de pr´evision
(<(H
i+1²
fi+1)²
oi+1T>= 0). La covariance des erreurs d’observation estR
i+1=< ²
oi+1²
oi+1T>.
4.3. La th´eorie du filtrage de Kalman 69
Attardons nous un peu sur cette matriceR
i+1. Les erreurs d’observation quantifient l’´ecart
entre les donn´ees d’observation et l’´equivalent de la v´erit´e mod`ele dans l’espace
d’observa-tion (i.e.,H
i+1x
ti+1
). Elles sont donc la combinaison de deux types d’erreur bien distinctes,
les erreurs dues `a la pr´ecision des mesuresE
i+1, et les erreurs de repr´esentativit´eF
i+1qui
proviennent de l’´ecart entre la v´erit´e mod`ele et la r´ealit´e.
R=E
i+1+F
i+1(4.9)
Les erreurs de mesureE
i+1sont pour l’essentiel imputables `a la pr´ecision des appareils de
mesure et sont donc totalement ind´ependantes du mod`ele utilis´e. En revanche, les erreurs
de repr´esentativit´eF
i+1sont enti`erement d´ependantes du mod`ele utilis´e et englobent, par
exemple, les ph´enom`enes non repr´esentables num´eriquement sur la grille du mod`ele, ainsi
que l’ensemble des ph´enom`enes physiques non r´esolus par les ´equations du mod`ele. Autant
il est relativement ais´e d’estimer la matrice E
i+1, autant F
i+1est souvent difficilement
quantifiable. L`a encore, afin de pouvoir ´ecrire les ´equations du KF, on supposera que la
distribution de probabilit´e des erreurs de mesure est gaussienne
²
oi+1−→ N(0,R
i+1)∼exp
·
−1
2²
oT i+1R
−1 i+1²
oi+1¸
(4.10)
4.3.3 Analyse optimale
La densit´e de probabilit´e 4.6 nous donne la probabilit´e a prioriP(x
ti+1) alors que 4.10
nous renseigne sur la probabilit´e d’obtenir les observationsy
i+1sachant la v´erit´e mod`ele
P(y
i+1|x
ti+1). On en d´eduit alors facilement la probabilit´e de la v´erit´e mod`ele connaissant
les observations en utilisant la formules de Bayes :
P(x
ti+1|y
i+1) = P(y
i+1|x
ti+1
)P(x
t i+1)
P(y
i+1) (4.11)
La solution de notre probl`eme inverse est l’´etat qui maximise cette probabilit´e
condi-tionnelle. Une formulation d´etaill´ee des m´ethodes d’assimilation en utilisant l’approche
probabiliste est donn´e parvan Leeuwen et Evensen (1996). On cherche donc `a maximiser
la densit´e de probabilit´e deP(x
ti+1|y
i+1), ce qui revient `a maximiserP(y
i+1|x
ti+1)P(x
ti+1)
d’apr`es l’´equation 4.11. En utilisant 4.6 et 4.10, il vient :
P(y
i+1|x
ti+1)P(x
ti+1)∼exp
·
−12n²
oi+1TR
−1 i+1²
oi+1+²
fi+1TP
fi+1−1²
fi+1o
¸
(4.12)
L’estimation optimale dex
ti+1
est donc le vecteur d’´etat maximisant 4.12, ou de mani`ere
´equivalente, minimisant
J =²
oi+1TR
−1i+1
²
oi+1+²
fi+1TP
fi+1−1²
fi+1(4.13)
En incorporant la d´efinition des erreurs dans l’´equation 4.13, on en d´eduit que la
combi-naison optimale entre la pr´evision mod`ele et les observations correspond au minimum de
la fonction coˆut
J(x) = (y
i+1−H
i+1x)
TR
−1i+1
(y
i+1−H
i+1x) + (x
fi+1−x)
TP
fi+1−1(x
fi+1−x) (4.14)
Cette ´equation quadratique contient deux termes qui quantifient l’´ecart aux observations
et l’´ecart `a la pr´evision du mod`ele, pond´er´es par leurs covariances d’erreurs respectives. En
utilisant la m´ethode des variations, on obtient une ´equation implicite pour l’´etat optimal,
ou ´etat analys´ex
ai+1δJ(x) = 0−→x
ai+1=x
fi+1+P
fi+1H
Ti+1R
−1i+1
(y
i+1−H
i+1x
ai+1) (4.15)
qui peut ˆetre r´esolue explicitement apr`es quelques d´eveloppements alg´ebriques
x
ai+1=x
fi+1+P
fi+1H
Ti+1(H
i+1P
fi+1H
Ti+1+R
i+1)
−1(y
i+1−H
i+1x
fi+1) (4.16)
L’´etat analys´e est donc obtenu en corrigeant la pr´evision du mod`ele par l’´ecart entre les
observations et l’´ebauche (le vecteur innovationd
i+1=y
i+1−H
i+1x
fi+1), pond´er´e par la
matrice de gain de Kalman de dimensionn×pqui s’´ecrit :
K
i+1=P
fi+1H
Ti+1(H
i+1P
fi+1H
Ti+1+R
i+1)
−1(4.17)
L’´equation 4.17 est la deuxi`eme ´equation fondamentale du filtre de Kalman. Elle met en
balance la covariance de l’erreur de pr´evision et la covariance de l’erreur totale (i.e., la
somme de la covariance de l’erreur de pr´evision et de l’erreur d’observation) projet´ee dans
l’espace des observations. Si l’on regarde les cas limites que sont un syst`eme d’observation
parfait (R∼0 etH∼I), la matrice de gain de Kalman converge vers la matrice identit´e et
l’´etat analys´e colle parfaitement aux observations. A l’oppos´e, si l’on consid`ere un mod`ele
parfait, soit P
f∼ 0, le gain de Kalman ainsi que la correction sur la pr´evision tendent
vers z´ero.
On montre que K
i+1correspond `a la minimisation de la trace de la matrice de
cova-riance des erreurs d’analyse (Miller et Cane, 1989) donn´ee par
P
ai+1= P
fi+1−P
fi+1H
Ti+1(H
i+1Pfi+1H
Ti+1+R
i+1)
−1H
i+1Pfi+1= (I−K
i+1H
i+1)P
fi+1(4.18)
La s´equence d’assimilation est alors obtenue en r´ep´etant ce cycle pr´evision/analyse en
s´equence. La figure 4.3 illustre la s´equence d´ecrite ci-dessus.
4.3.4 La s´equence d’assimilation
L’´etat analys´e 4.16 `a l’instantt
i+1peut servir de condition initiale pour une nouvelle
pr´evision `a l’instant t
i+2. A l’instant t
i+2, de nouvelles observations sont disponibles si
bien que le processus peut ˆetre r´ep´et´e de mani`ere r´ecursive. Pour r´esumer, l’algorithme
du KF contient deux ´etapes principales : l’´etape de pr´evision au cours de laquelle on fait
´evoluer le vecteur d’´etat du mod`ele ainsi que les covariances d’erreur associ´ees de l’instant
t
i`a l’instantt
i+1, et l’´etape d’analyse qui corrige la pr´evision en utilisant les observations
disponibles `a l’instant t
i+1. On rappelle ici l’ensemble de la s´equence du filtre de Kalman,
´etendu au mod`ele faiblement non-lin´eaire M et `a l’op´erateur H qui peut lui aussi ˆetre
non-lin´eaire. On parle alors de filtre de Kalman Etendu (EKF) (Jazwinski, 1970).
On part de la condition initialex
a ietP
ai