• Aucun résultat trouvé

sans de coûteuses inversions de matrices à réaliser :

Pai ≈ 1 n

X

j

E[(Xaj(ti) − ¯Xa(ti))(Xaj(ti) − ¯Xa(ti))T].

L’étape de propagation de la matrice d’analyse, qui correspond au calcul de la matrice de covariance d’erreur d’ébauche pour le temps suivant ti+1, est remplacée également par le calcul

de la moyenne des variances des erreurs d’ébauche obtenues en propageant les différentes analyses de l’ensemble :

Pbi+1≈ 1 n

X

j

E[(Mi+1,iXaj(ti) − Mi+1,iX¯a(ti))(Mi+1,iXaj(ti) − Mi+1,iX¯a(ti))T].

L’inconvénient de cette méthode est que le rang des matrices de covariance ainsi estimées est égal à la taille de l’ensemble et par conséquent l’étape de correction du terme d’ébauche ne doit pas être réalisée avec l’approximation de la matrice de covariance d’erreur d’ébauche sous peine de n’obtenir que des analyses se situant dans le sous espace engendré par l’échantillon initial au temps t1. Il existe plusieurs techniques pour remédier à ce problème.

2.4

Méthodes variationnelles

L’approche filtre est un point de vue hérité des années 70 pour l’assimilation des données satellites. L’approche variationnelle introduite dans les années 50 par Sasaki et développée sous l’impulsion des sciences de l’atmosphère fait un bond à partir du milieu des années 80. Elle représente une alternative au filtre de Kalman lorsque le coût de calcul de la matrice de gain devient trop excessif. Il est possible d’établir des équivalences entre ces deux approches en posant certaines hypothèses.

Le principe de base des méthodes variationnelles revient à faire varier l’état du système pour se rapprocher le plus possible des observations. En pratique cela consiste à rechercher le minimum d’une fonction coût mesurant la distance aux observations et à l’ébauche. Les méthodes variationnelles ne sont donc pas issues de la théorie de l’estimation. Elles nécessitent néanmoins des statistiques afin de pondérer les différents termes de la fonction coût. Pour plus de détails sur les méthodes variationnelles, on peut se référer à [Cou87], [LD86] et [Tal87] par exemple.

2.4.1 Méthode 3DVAR

La méthode 3DVAR est une méthode séquentielle : elle n’utilise que les observations au temps présent de l’analyse et ne requiert donc pas de modèle d’évolution. Elle consiste à chercher l’état permettant de se rapprocher au mieux des données au temps courant d’ébauche et d’observation, compte tenu des incertitudes sur ces données. La fonction coût du 3DVAR s’exprime donc comme la somme pondérée des écarts à l’ébauche et aux observations au temps présent :

J3DVAR(X) = 1 2(X − X b)TB−1(X − Xb) +1 2(Y obs− H(X))TR−1(Yobs− H(X)), (2.4)

où les matrices de covariance des erreurs d’ébauche B et d’observation R permettent d’accorder plus ou moins de poids à l’une des deux distances en fonction de la confiance que l’on accorde à l’information. On rappelle que ces matrices doivent être symétriques définies positives. L’opé- rateur d’observation H permet de ramener le vecteur d’état dans le bon espace dans le cas où

l’espace des observations est différent de celui du vecteur d’état. Contrairement au filtre de Kal- man, cet opérateur peut être non linéaire. On peut ajouter des contraintes supplémentaires dans la fonction coût pour forcer par exemple la vérification d’une loi. Cela peut cependant dégrader la convergence de l’algorithme de minimisation.

La méthode 3DVAR est simple à mettre en œuvre du point de vue algorithmique et il n’y a pas de produit matriciel à effectuer ni de matrice à stocker ce qui la rend utilisable pour des problèmes de grande taille. Il existe cependant quelques difficultés à dépasser. D’une part, la minimisation de la fonction coût nécessite généralement la connaissance du gradient

∇J3DVAR(X) = B−1(X − Xb) + HTR−1(Yobs− H(X)),

où la matrice HT de taille p × n représente l’adjoint de l’opérateur d’observation H. Si cet opé- rateur est lui-même un modèle d’un système physique, l’obtention du gradient de la fonction coût peut être problématique en terme de coût de développement et de calcul. Une autre diffi- culté réside dans la modélisation des matrices de covariance B et R. Enfin, on peut rencontrer des problèmes dans la minimisation si l’opérateur H est fortement non linéaire et introduit des minima locaux.

Compte tenu des hypothèses portées sur B et R (matrices symétriques définies positives), si l’opérateur d’observation est linéaire, alors la fonction coût est convexe. Dans ce cas, l’analyse de la méthode 3DVAR correspond à l’estimateur BLUE (formule de Sherman-Morrison-Woodbury vue précédemment). et la matrice de covariance d’erreur d’analyse est alors donnée par l’expres- sion :

A−1 = B−1+ HTR−1H.

Pour calculer l’analyse, il est donc possible de choisir la plus intéressante des deux approches, compte tenu par exemple de la taille du problème.

2.4.2 Méthode 4DVAR

La méthode 4DVAR est à la méthode 3DVAR ce que le filtre de Kalman est à l’estimation optimale : elle introduit une dimension temporelle dans l’assimilation des données. On ne cherche plus à recaler un état mais une trajectoire sur une fenêtre de temps donné, la fenêtre d’assimi- lation, en tenant compte des observations disponibles dans la fenêtre d’assimilation. C’est donc une méthode temporelle : l’ensemble des observations passées, présentes et futures au temps de l’analyse sont prises en compte ; on dit que le 4DVAR est un lisseur.

On donne ci-dessous l’expression de la fonction coût du 4DVAR. Par rapport à celle du 3DVAR, elle comporte une somme d’écarts aux observations à différents temps ainsi que des opérateurs d’évolutions Mi,0 permettant de propager au temps ti l’état initial au temps t0 :

J4DVAR(X) = 1 2(X−X b)TB−1 (X−Xb)+1 2 nobs−1 X i=0  Yobsi − H(Mi,0(X)) T R−1i  Yobsi − H(Mi,0(X))  . (2.5) On impose toujours que les matrices de covariance d’erreur soient symétriques, définies positives. Les matrices de covariance d’erreur d’observation peuvent en principe dépendre du temps et sont donc indexées par i. Il est possible également de faire dépendre l’opérateur d’observation du temps.

2.4. Méthodes variationnelles Dans la formule classique du 4DVAR, on considère que le modèle est parfait. Il est possible d’introduire des termes modélisant les écarts entre la trajectoire prédite par le modèle et l’état vrai (Xt(ti) − Mi,i−1(X(ti−1))) mais cela peut générer des instabilités si les erreurs modèle sont

importantes.

De même que pour la méthode 3DVAR, la minimisation de la fonction coût nécessite souvent le gradient de la fonction coût :

∇J4DVAR(X) = B−1(X − Xb) + nobs−1 X i=0 (H|XMi,0|X)TR−1i (Y obs i − H(Mi,0(X))).

Ce gradient nécessite à la fois l’adjoint de l’opérateur d’observation mais aussi l’adjoint de l’opérateur d’évolution. Cet élément peut être un point bloquant s’il s’agit de développer a posteriori l’adjoint d’un code : il est souvent impossible sur des gros codes de développer l’adjoint sans y avoir réfléchi au moment de la conception du code direct.

2.4.3 Qualités de l’analyse

Dans un cadre linéaire (opérateurs d’observation et de dynamique linéaires), on peut montrer la relation suivante entre la matrice de covariance d’erreur d’analyse A et la matrice hessienne de la fonction coût du 4DVAR.

∇2J4DVAR(Xa) = A−1.

Ce résultat développé dans [Bou99] s’appuie sur l’expression de la matrice hessienne

∇2J4DVAR(X) = B−1+ nobs−1

X

i=0

(H|XMi,0|X)TR−1i (H|XMi,0|X)

et sur le fait que Xa annule la dérivée de la fonction J4DVAR.

On déduit de ce résultat que la matrice de covariance d’erreur d’analyse et donc que la qualité de l’analyse sont proportionnelles à la convexité de la fonction coût J4DVAR. (figure2.2).

p(X)

X

X J(X)

Hessien grand Hessien réduit

analyse précise analyse grossière

Fig. 2.2. Illustration en 1D de la relation entre la convexité de J4DVAR et la densité de probabilité de

2.4.4 Méthodes variationnelles avancées Principe des méthodes incrémentales

Le 4DVAR incrémental décrit dans [Cou94] consiste à réduire le coût de calcul du 4DVAR en transformant le problème de minimisation non linéaire en une suite de problèmes de minimisation linéaire (voir figure 2.3). Le problème incrémental comporte donc deux boucles :

la boucle externe où la fonctionnelle coût est linéarisée autour d’un vecteur Xk et exprimée en fonction de l’incrément δX = X − Xk : J4DVARincrk (δX) = 12(δX + Xk− Xb)TB−1(δX + Xk− Xb) +1 2 nobs−1 X i=0 (HXkMi,0|XkδX − d k)TR−1 i (HXkMi,0|XkδX − d k),

où les matrices HXk et Mi,0|Xk sont les opérateurs d’observation et de dynamique linéarisés

autour de Xk et dk = Yiobs − H(Mi,0(Xk)). Cette boucle externe est initialisée avec le

terme d’ébauche : Xk=0 = Xb.

la boucle interne où est résolu le problème de minimisation quadratique suivant Xk+1 = Xk+ minδXJ4DVARincrk (δX).

Cet algorithme à deux boucles doit converger vers la solution du problème non linéaire bien qu’il n’y ait aucune preuve théorique de convergence.

X J non linéaire J|Xk quadratique X∗ Xk+1 Xk

Fig. 2.3. Illustration du principe de fonctionnement des méthodes incrémentales.

Du point de vue de l’implémentation, il est possible de réduire le temps de calcul en résolvant la boucle interne avec une approximation spatio-temporelle plus grossière. Il faut dans ce cas définir un opérateur permettant d’exprimer l’itéré “fin” Xk sur une grille plus grossière. Préconditionnement des fonctionnelles

La rapidité de convergence de l’algorithme de minimisation est relié au conditionnement de la fonctionnelle coût J4DVAR défini comme étant le ratio de la plus grande valeur propre sur la

plus petite de la matrice hessienne de J4DVAR. Plus le conditionnement est proche de l’unité, meilleure sera la convergence de l’algorithme. Dans ce but, on cherche un préconditionnement de J4DVAR, c’est-à-dire un opérateur linéaire bijectif L : Rn→ Rn tel que la fonctionnelle coût

˜

J4DVAR définie par : ˜

2.5. Comparaison du filtre de Kalman et des méthodes variationnelles

Documents relatifs