• Aucun résultat trouvé

La résolution directe des équations du BLUE fait intervenir la manipulation de matrices de très grande dimension dont l'inversion est impossible à réaliser avec les ressources de calcul

disponibles à l'heure actuelle. En eet, la taille de la matrice B est de l'ordre de O(1018)

pour un modèle de PNT hydrostatique, ainsi que pour un modèle non hydrostatique opérant à l'échelle des phénomènes convectifs. Pour contourner ce problème d'inversion de matrices, deux familles de méthodes sont utilisées en assimilation de données pour le calcul de l'analyse, les méthodes séquentielles et les méthodes variationnelles.

1.5.1 Approche séquentielle

Elle consiste à résoudre explicitement les équations du BLUE par des calculs algébriques, en adoptant des hypothèses permettant de réduire le coût de calcul du BLUE. Les principaux

1.5. Résolution des équations du BLUE 19 algorithmes séquentiels utilisés dans la communauté de l'assimilation de données sont l'inter- polation optimale et les ltres de Kalman.

L'interpolation optimale ([Gandin, 1963] ; [Lorenc, 1981] ; [Daley, 1991]) est une forme sim-

pliée du BLUE. Elle repose sur l'hypothèse que pour chaque composante du vecteur d'état x de dimension n (une variable du modèle en un point de grille i), seul un nombre réduit d'ob- servations autour de cette variable est pris en compte pour calculer l'analyse en ce point. La matrice K est construite par bloc, elle est déterminée en calculant les matrices de gain (équa-

tion 1.6) pour les n composantes du vecteur d'état x. Le problème est résolu sous la forme

d'un système linéaire constitué de multiplications et d'inversions de matrices de dimension res- treinte, correspondant au nombre d'observations sélectionnées au voisinage de la variable. La

matrice de gain K étant déterminée, il est alors possible de calculer l'analyse (équation 1.7).

Quant aux ltres de Kalman, ils sont décrits en annexe A.

1.5.2 Approche variationnelle

Cette approche ne cherche pas à calculer la matrice de gain K, mais à minimiser une fonction coût J qui quantie les écarts aux deux sources d'informations (observations et ébauche),

normalisée chacune par sa covariance d'erreur [Jazwinski, 1970], et ce en utilisant un algorithme

de descente et la méthode adjointe :

J (x) = Jo(x) + Jb(x)

Dans cette approche, les observations disponibles sont traitées globalement et l'opérateur d'observation n'est plus nécessairement linéaire. L'algorithme de cette approche est générale- ment le suivant :

a. Initialisation de la variable du problème de minimisation de J avec xb : x = xb.

b. Dénition d'un critère d'arrêt pour la minimisation, comme par exemple un nombre maxi-

mal d'itérations à ne pas dépasser Nmax, ou k∇J k ≤ ε, ou encore k∇J k

k+1

k∇J kk ≤ ε, (∇J est le gradient de J et ε un seuil d'arrêt).

c. Tant que k ≤ Nmax ou k∇J k > ε, faire :

- calcul de J , - calcul de ∇J ,

- descente dans la direction du gradient et mise à jour du vecteur d'état x, - incrémentation de k : k = k + 1.

Il existe de nombreuses variantes pour l'algorithme de minimisation que je ne décris pas da- vantage dans ce manuscrit.

Le 3D-Var, le 3D-FGAT et le 4D-Var constituent les principaux algorithmes variationnels uti- lisés en météorologie.

4 D-Var

Dans le schéma variationnel 4D-Var, l'analyse utilise des observations qui sont collectées sur un intervalle de temps (généralement de 6h) centré sur l'heure de validité de l'analyse (3h de part et d'autre de l'analyse), cet intervalle de temps est appelé fenêtre d'assimilation.

Les termes Jo et Jb de la fonction coût du 4D-Var s'écrivent :

( Jo(x) = 1 2 PL i=0(yoi − Hi(xi))TR−1i (yoi − Hi(xi)) Jb(x) = 1 2(x − x b)TB−1(x − xb)

L + 1 étant le nombre des instants d'observation ti, Hi les opérateurs d'observation correspon-

dants et Ri leur matrice de covariance. xi est l'état du système obtenu après intégration du

modèle entre l'instant initial t0 et l'instant ti :

xi = M0,i(x)

= Mi−1,iMi−2,i−1...M1,2M0,1(x)

Le terme Jo de la fonction coût du 4D-Var peut alors s'écrire sous la forme :

Jo(x) = 1 2 L X i=0 (yoi − HiM0,i(x))TR−1i (yio− HiM0,i(x)),

Et le gradient de J est donné par :

∇J (x) = B−1(x − xb) −

L

X

i=0

MT0,iHTi Ri−1(yio− HiM0,i(x))

M0,i et Hi sont les linéaires tangents de M0,i et Hi.

3 D-Var

Le 3D-Var est un 4D-Var sans la dimension temporelle. Les observations disponibles à diérents moments sont ramenées au centre de la fenêtre d'assimilation qui se réduit à un seul instant. Les calculs sont simpliés par rapport au 4D-Var, car l'algorithme du 3D-Var ne requiert ni

1.5. Résolution des équations du BLUE 21

Fig. 1.3  Schéma illustrant le 4D-Var. Ce procédé assimile les observations (correspondant aux étoiles bleues) sur la fenêtre d'assimilation indiquée, il utilise une prévision récente appelée ébauche (ligne noire) comme une toile de fond. La ligne rouge montre la trajectoire générée par l'analyse 4D-Var, ou la trajectoire optimale, en utilisant toutes les observations disponibles.

Les termes de pénalité Jo et Jb mesurent respectivement la distance aux observations et à

l'ébauche. Le rectangle à gauche montre le cas particulier du 3D-Var (toutes les observations

sont ramenées à l'instant t0). Copyright CEPMMT.

Les termes Jo et Jb de la fonction coût 3D-Var s'écrivent :

( Jo(x) = 1 2(y o− H(x))TR−1(yo− H(x)) Jb(x) = 1 2(x − x b)TB−1(x − xb)

Le Jb du 3D-Var est le même que celui du 4D-Var. En revanche, Jo est bien plus simple que

celui du 4D-Var puisque toutes les observations sont prises en compte au même instant dans

la fenêtre d'assimilation. La Figure 1.3 illustre cet aspect pour les deux schémas, 3D-Var et

4D-Var.

Dans le cas où l'opérateur d'observation est linéaire, le gradient de J est donné par :

∇J (x) = B−1(x − xb) −HTR−1(yo− Hx)

et l'analyse 3D-Var s'écrit :

xa=xb + (B−1+HTR−1H)−1HTR−1(yo− Hxb)

3 D-FGAT

et le 4D-Var. Le calcul du gradient du Jo est simplié par rapport au 4D-Var puisqu'il ne

fait pas intervenir le modèle adjoint MT (les opérateurs MT

i sont remplacés par l'opérateur

identité). Néanmoins, le 3D-FGAT est considéré plus réaliste que le 3D-Var dans la mesure où les innovations sont calculées en prenant en compte l'intégration du modèle M. Les observations sont donc traitées aux bons instants (comme pour le 4D-Var).

Les 2 termes Jo et Jb de la fonction coût 3D-FGAT s'écrivent :

( Jo(x) = 1 2 PL i=0(yoi − Hi(xi))TR−1i (yoi − Hi(xi)) Jb(x) = 1 2(x − x b)TB−1(x − xb)

Et le gradient de J est donné par :

∇J (x) = B−1(x − xb) − L X i=0 HT i R−1i (yio− HiM0,i(x))

Algorithmes incrémentaux

En assimilation variationnelle, l'approche couramment utilisée pour la minimisation de la fonc-

tion coût est une approche dite incrémentale [Courtier et al., 1994]. L'utilisation de celle-ci a

été motivée par la réduction des coûts qu'elle engendre par rapport aux méthodes variation- nelles classiques. En eet, dans l'algorithme incrémental, l'inconnu n'est plus l'état du système

x, mais l'incrément δx = x − xb.

L'hypothèse principale est d'utiliser un modèle d'évolution et un opérateur d'observation linéarisés pour propager l'incrément et de garder le modèle non linéaire pour propager l'ébauche

xb. Cette hypothèse repose sur le fait que l'ébauche xb est une bonne estimation de l'état du

système, l'incrément δx devrait donc être petit. Les opérateurs non linéaires d'observation H et du modèle M sont linéarisés au voisinage de l'ébauche de sorte que :

x(ti) = M0→i(x)

= M0→i(xb+ δx)

≈ M0→i(xb) +M0→iδx

Hi(xi) ≈ Hi(xbi) +Hiδx

La solution de la nouvelle minimisation après changement de variable est l'incrément d'analyse

qui va être ajouté à l'ébauche xb pour trouver l'analyse : xa =xb+ δxa

1.6. Quelques exemples de systèmes d'assimilation de données de type