• Aucun résultat trouvé

Le filtre de Kalman avec conditions d’universalité

Dans le document THESE pour obtenir le grade de (Page 41-44)

d’estimation du biais de Friedland, les paramètres évoluent dans une relation linéaire :

na= an 1+ n(yn Hzfn): (3.33)

On en déduit un algorithme très simple car le calcul du biais est fait par une suiten arbitraire5. Duflo (1997) montre la stabilité de l’estimateur ainsi obtenu dans le cas où P

nn2 < +1. P

nn = +1 est aussi imposée pour d’autres raisons théoriques. Dans cette méthode, l’historique des innovations est aussi capitalisé. Avecn = 1=n on peut calculer un biais de mesure qui est tout simplement la moyenne arithmétique de 1 àn des innovations.

3.7 Le filtre de Kalman avec conditions d’universalité

3.7.1 Équivalence du filtre de Kalman avec le krigeage

L’étape d’analyse (3.22) est une interpolation par Krigeage Simple (KS) (ou plutôt par cokrigeage simple dans le cas multivariable) des écarts entre le modèle et les données Y HZfsur tous les nœuds de la grille du modèle. La matrice de covariance après correction (3.28) contient aussi l’erreur d’estimation de ce krigeage sur la diagonale, les termes non diagonaux étant les covariances a posteriori entre deux nœuds de grille distincts, éventuellement entre deux variables différentes. Voyant l’équivalence entre le filtre de Kalman et le KS, il est tentant d’en déduire d’autres filtres correspondant aux types classiques de krigeage (KO, KU, KDE, krigeage intrinsèque d’ordre k, etc.) couramment utilisés en géostatistique linéaire (Chauvet, 2000). On retiendra ici quelques variantes parmi celles qui pourraient le plus vraisemblablement trouver une application en océanographie.

3.7.2 Modèle et équations, cas monovariable

On appelle condition d’universalité une condition de non biais qui ne porte pas sur un paramètre du modèle stochastique mais sur l’ensemble de la variable d’état Ztn. Dans cette partie, on se place dans un premier temps dans le cas monovariable pour simplifier. On prend en compte des biais de modèle qui ne sont pas stochastiques cette fois, mais seulement des paramètres inconnusan, ce qui fait l’économie d’une variable aléatoire par rapport aux modèles cités ci-dessus. L’équation de propagation de l’état devient :

Ztn= anFnZtn 1+ "mn; (3.34)

5D’autres méthodes plus élaborées sont aussi exposées, mais le but ici est de simplifier.

où l’on ne suppose plus les erreurs de modèles d’espérance nulle mais où l’on fait l’hypothèse d’une décom-position du biais sur une famille de fonctions fixes gi, i = 1; : : : ; m0. En général on note g1la constante 1, puis les gisuivantes sont des fonctions polynômes et exponentielles des coordonnées spatiales.

"mn N (X

i

bingi; m): (3.35)

La portée physique de ce modèle est relative. Si on peut voir dans les fonctions de biais gides fonctions de l’espace filtrées par le modèle physique mais présentes dans les données, par contre l’hypothèse d’un biais multiplicatif semble assez particulière : on peut imaginer un modèle de transport biaisé qui achemine des constituants à la mauvaise vitesse ou au mauvais endroit, mais dans ces cas de figure il paraît peu réaliste qu’on aboutisse à une prédiction uniformément proportionnelle à la réalité sur toute l’étendue du domaine.

On doit donc chercher un modèle de biais spécifique à chaque cas d’étude.

Les paramètres de biaisan etbinsont des inconnues que l’on estime grâce aux données lors de chaque assimilation. Si on noteA>n = (an; b1n; : : : ; bmn0) et G = (FnZan 1; g1; : : : ; gm0), on obtient les espérances suivantes :

E(ZtnjZan 1) = anFnZan 1+X

i

bingi (3.36)

= GAn (3.37)

E(YnjZan 1) = anHFnZan 1+X

i

binHgi (3.38)

= HGAn: (3.39)

On cherche comme précédemment un estimateur linéaire,

Zan= KnYn; (3.40)

mais cette fois-ci sans en connaître la moyenne. Si l’on veut alors assurer la condition d’universalité E(ZanjZan 1) = E(ZtnjZan 1) (3.41)

KnHGAn = GAn; (3.42)

quelles que soient les valeurs des paramètres inconnusAn, le gain de KalmanKndoit satisfaire lesm0+ 1 contraintes suivantes :

(KnH I)G = 0: (3.43)

Selon le calcul des variations, on peut minimiser la variance de l’erreur d’estimation Var(Ztn ZanjZan 1) sous ces contraintes linéaires en introduisantm0+ 1 paramètres de Lagrange n= (in). La forme quadra-tique à minimiser devient alors

J(Kn; n) = E("an"a>n ) + 1n(KnHZfn Zfn) + m X0

i=2

in(KnH I)gi (3.44)

3.7. LE FILTRE DE KALMAN AVEC CONDITIONS D’UNIVERSALITÉ 31 et en annulant son gradient, on obtientKn et autant de vecteurs n qu’il y a de points de Ztn à estimer (regroupés dans la matricende taille(m0+ 1) N). Le système linéaire suivant donne ainsi à la fois Kn

etn:

HCnfH>+ m HG

G>H> 0 Kn n

=

HCnf

G>

(3.45) Le nombre de colonnes deG doit être inférieur au nombre de données m0+ 1 < m pour que l’estimation soit possible. Dans le cas contraire la première matrice au membre gauche n’est pas inversible.

On peut noter que cette modification du filtre de Kalman est exacte dans le cas gaussien, mais on peut aussi l’appliquer dans les cas non linéaires pour lesquels l’approximation linéaire reste valable (c’est-à-dire la majorité des applications courantes). Il est très simple d’ajouter ces modifications à un code de calcul existant des filtres de Kalman qui utilisent une étape de correction linéaire (EKF, EnKF, etc.).

3.7.3 Analogie avec les autres types de krigeage

En pratique le nombre m0 + 1 de lignes et de colonnes à ajouter au système (3.45) est bien moins élevé que le nombre d’observations. Si on suppose que le modèle commet seulement un biais additif, soit l’équation (3.34) avecan = 1 et b1ninconnu etbin = 0, 8i > 1, alors par un système analogue au KO, on estime un paramètre de moyenne et la matriceG a une seule colonne.

Si on suppose en plus du biais additif inconnub1nun biais multiplicatifaninconnu, alors l’interpolation est analogue à un KDE et l’estimation pour chaque variable observée des deux paramètresanetb1najoute deux lignes et deux colonnes au système à inverser (3.45).

Dans les deux cas, on voit que le surcoût en temps de calcul ajouté par ces variantes du filtre de Kalman est très faible. Cependant leur utilisation dans les cas d’étude est restreinte par la nécessité d’une couverture d’observations assez dense. Les paramètresanetbinsont en effet réestimés à chaque étape de correction sur la base desm nouvelles observations qui doivent être assez nombreuses pour que l’estimation soit stable.

Dans les applications avec moins de 5 données, le résultat peut être désastreux.

On remarque par contre que l’historique des innovations n’est pas mis à profit dans l’estimation du biais car celui-ci est supposé indépendant d’un pas de temps à l’autre. On pourrait remplacer cette hypothèse d’indépendance par un modèle auto-régressif, ce qui aurait alors l’avantage de donner un estimateur d’un biais variable dans le temps mais tenant compte des innovations passées. Cependant l’étape de correction demandera alors l’utilisation des états et des covariances des pas de temps passés, ce qui signifie qu’il faut augmenter l’état du modèle. On évitera donc cette approche dans un souci d’économie pour le filtrage, mais dans les applications de lissage où l’on utilise un état augmenté, elle est envisageable.

3.7.4 Cas multivariable

Dans le cas àk variables, les paramètres an etbin ne sont en général pas les mêmes d’une variable à l’autre. Il est en effet difficile d’imaginer qu’un modèle physique biaisé produise le même biais sur chaque variable et on supposera plutôt les biais de chaque variable complètement indépendants. Dans ce casanet binsont des vecteurs de taillek et le nombre de colonnes de la matrice G se voit alors multiplié par k.

Dans le cas où l’introduction de ces paramètres de biais contredit une propriété physique du système (de type conservation de la masse), on peut imposer aux paramètres de biais de respecter ces contraintes (à condition qu’elles soient linéaires) par élimination dans le système linéaire. On diminue ainsi la taille de la matriceG.

Dans le document THESE pour obtenir le grade de (Page 41-44)

Documents relatifs