• Aucun résultat trouvé

Dans cette section, les principaux algorithmes utilisés dans les schémas d’assimilation sont décrits. Il s’agit des algorithmes 3D-inc, 4D-inc et 3D-FGAT.

Il existe d’autre algorithmes, e.g. le 3D-PSAS, 4D-PSAS (Courtier, 1997). N’étant pas uti- lisés dans la suite, il ne sont pas décrits ici.

2.6.1

Schéma 3D-Var/3D-Inc

3D-Var

Le 3D-Var est une méthode pour obtenir l’analyse comme l’argument minimisant une fonc- tion coût. Cette approche est équivalente à la détermination du maximum de vraisemblance pour des distributions gaussiennes de l’erreur (Lorenc, 1988). La fonction coût à minimiser est

2J (x) = ||x − xb||2

B−1 + ||yo− H(x)||2R−1. (2.18)

Dans cette expression, l’opérateur d’observation non linéaire implique que cette fonction n’est pas quadratique et peut donc posséder plusieurs minima. En tout cas, il n’existe pas d’expression analytique de la solution.

3D-Inc

Une version infinitésimale du 3D-Var peut quant à elle fournir une solution analytique au problème. Cette méthode est appelée incrémentale. En supposant que l’analyse est une correc- tion proche de l’ébauche sous la forme xa = xb + δxa avec ||δxa|| << 1, il est possible de

linéariser la fonction coût du 3D-Var (2.18) sous la forme

2J (x) = ||δx||2B−1 + ||yo− H(xb) − Hδx||2R−1. (2.19)

Cette fois, la fonctionnelle est quadratique. Étant de plus convexe, elle admet un unique mini- mum qui est obtenu au point où le gradient s’annule. Ici, le gradient est ∇J (δx) = B−1δx − HTR−1(yo − H(xb) − Hδx). Ainsi, la nullité du gradient en δxa est équivalente à (B−1 +

HTR−1H)δxa = HR−1 yo− H(xb) soit

xa= xb+ (B−1+ HTR−1H)−1HTR−1 yo− H(xb) . (2.20)

Ceci n’est autre que l’équation du BLUE. En effet, avec les notations introduites précédemment, xa = xb+ K yo− H(xb), avec K = BHT HBHT + R−1

la matrice de gain. Limitations des méthodes 3D-Var/3D-Inc

Dans les applications opérationnelles, les observations ne sont pas toujours disponibles exactement au temps de l’ébauche. De plus, cette méthode ne prend pas en compte l’évolution temporelle de l’écoulement. Pour ce faire, la dimension temporelle est ajouté à l’algorithme 3D-Var/3D-Inc, ce qui correspond à la méthodes 4D-Var/4D-Inc.

2.6.2

Schéma 4D-Var/4D-Inc

4D-Var

Pour prendre en compte l’évolution temporelle de l’écoulement, l’opérateur d’observation de la méthode 3D-Var est modifié à l’aide de l’opérateur Mt→t+T :

2J (x) = ||x − xb||2B−1 + X k ||yok− Hk◦ M0→k(x)||2R−1 k . (2.21)

Ainsi, la trajectoire d’intégration s’ajuste pour être compatible avec les observations et l’ébauche. Cet algorithme permet de faire évoluer de manière implicite les covariances d’er- reur d’ébauche à la manière du filtre de Kalman (sous l’hypothèse que le modèle est parfait) (Thépaut et al. , 1995). L’erreur modèle peut être prise en compte avec une formulation à contrainte faible.

Cette fonctionnelle non quadratique n’admet pas de solution analytique. Les stratégies usuelles pour sa minimisation font intervenir l’utilisation du gradient (d’autre stratégies peuvent être uti- lisées, comme les méthodes métaheuristiques de recuit-simulé, etcmais elles ne sont pas bien adaptées aux problèmes de cette taille pour lesquels le coût de l’évaluation de la fonctionnelle est important). Le gradient de cette fonctionnelle est donné par

∇J(x) = B−1x −X

k

M0→kTHkTRk−1(yok− Hk◦ M0→k(x)) ,

avec M0→kT l’adjoint du modèle linéarisé le long de la trajectoire M0→k(x). L’utilisation

de l’adjoint est coûteuse (l’intégration linéaire d’un terme quadratique demande le calcul de deux termes à la place d’un seul). De plus, il est nécessaire de stocker la trajectoire (souvent des stratégies associant stockage d’état intermédiaire/recalcul de trajectoire sont utilisés). Ainsi cet algorithme n’est pas utilisé en opérationnel, mais approximé par une suite de problèmes quadratiques de type 4D-Inc.

4D-Inc

Dans ce cas, et par analogie au 3D-Inc, la résolution du problème variationnel initial est recherchée en résolvant une succession de problèmes quadratiques locaux. A chaque étape, l’optimal obtenu est noté xa

poù p est l’indice du numéro de l’itération. Cet état est utilisé pour

générer une nouvelle trajectoire de référence, autour de laquelle le problème est linéarisé. Cette démarche n’assure pas de trouver le minimum absolu de la fonctionnelle 4D-Var, mais on espère ainsi en trouver une bonne approximation.

Ainsi les étapes se font de manière récursive selon        2Jxa p(δx) = ||δx|| 2 B−1+ P k||d p k− H p kM p 0→kδx|| 2 R−1k , δxap = ArgM inJxa p(δx), δx ∈ R n , xa p+1= xap+ δxap, xa 0 = xb, (2.22) avec dpk= yo

k− Hk◦ M0→k(xap) l’innovation par rapport à la trajectoire issue de xap, M0→kp

le modèle linéarisé autour de la trajectoire d’état initial xap, et H p

k l’opérateur d’observation

linéarisé autour de M0→k(xap). Le gradient de la fonctionnelle s’écrit à chaque étape

∇Jxa p(δx) = B −1 δx −X k HkpTM0→kp TRk−1(dpk− HkpM0→kp δx) ,

La fonctionnelle Jxa

p étant quadratique , la solution du problème est atteinte quand le gradient

s’annule, correspondant à un état unique. Cela s’exprime donc par δxap = Arg∇Jxa

p(δx) = 0, δx ∈ R

n .

Cette approche incrémentale nécessite la dérivation du modèle non linéaire à partir de son code informatique, puis l’adjointisation de ce code.

En pratique, l’algorithme 4D-Inc est utilisé avec un incrément à basse résolution pour di- minuer le coût par rapport à un 4D-Var. Cependant, cet algorithme 4D-Inc reste relativement coûteux dans le cas où il est nécessaire de réaliser plusieurs assimilations différentes en peu de temps, avec des contraintes opérationnelles. Ce type d’utilisation intervient quand une approche ensembliste est mise en oeuvre (Belo Pereira et Berre, 2006). Ainsi, pour ce type de situation, il peut être avantageux d’utiliser un autre type d’algorithme : le 3D-FGAT.

2.6.3

Schéma 3D-FGAT

L’algorithme 3D-FGAT (First Guess at Appropriate Time), correspond à une simplification du 4D-Inc, pour lequel l’opérateur linéaire M0→kp est remplacé par l’identité. Cela permet de réduire le coût numérique : il n’y a plus besoin de l’adjoint du modèle linéaire dans l’expres- sion du gradient. De même que pour le 4D-Inc, il s’agit de minimiser de manière récursive un ensemble de fonctionnelles quadratiques. L’algorithme est de la forme

       2Jxap(δx) = ||δx||2 B−1 + P k||d p k− H p kδx||2R−1 k , δxap = ArgM inJxap(δx), δx ∈ Rn , xap+1= xap+ δxap, xa 0 = xb, (2.23) avec dpk = yo

k− Hk◦ M0→k(xap) l’innovation par rapport à la trajectoire issue du guess xap,

et Hkp l’opérateur d’observation linéarisé autour de M0→k(xap). Ainsi le gradient de chaque

fonctionnelle quadratique intermédiaire est alors ∇Jxa

p(δx) = B

−1δx −X

k

HkpTR−1k (dpk− Hkpδx) ,

où n’interviennent plus le modèle linéaire et son adjoint. En pratique, c’est l’ensemble de la trajectoire de l’ébauche qui est ajustée par le même incrément.