• Aucun résultat trouvé

4.3.1 Méthodes variationnelles

Dans le cas du BLUE, l’estimation de l’état optimal est réalisée en utilisant les relations4.15

et 4.20. D’un autre point de vue, ces équations permettent de calculer le minimum xa de la fonction de coût suivante :

J (x) = (x − xb)TPb−1(x − xb) + (yo− Hx)TR−1(yo− Hx) (4.69) L’utilisation des méthodes variationnelles, basées sur la théorie du contrôle optimal, permet de s’affranchir du calcul du gain optimal K (Eq. 4.20), dont les matrices mises en jeux pour son calcul ont des dimensions trop grandes (problèmes de stockage et de manipulation). Les méthodes variationnelles cherchent à minimiser la fonction de coût J , quadratique en x quand l’opérateur d’observation et le modèle sont linéaires.

Cette minimisation est basée sur le calcul du gradient, dont l’expression est donnée par

▽ J (x) = Pb−1(x − xb) − HTR−1(yo− Hx) (4.70) La résolution de l’équation ▽J (x) = 0, permetant d’obtenir le point selle de la fonction de coût, conduit à la combinaison des Eq.4.17et4.20. En pratique, le gradient est calculé en utilisant le modèle adjoint (Le Dimet,1982;Le Dimet and Talagrand,1986).

L’hessien de la fonction de coût, c’est-à-dire sa dérivée seconde par rapport à x, est donné par :

2J (x) = Pb−1+ HTR−1H (4.71)

En identifiant avec l’Eq. 4.23, on remarque que l’inverse de l’hessien correspond à la matrice de covariance des erreurs d’analyse, soit

Pa= ▽2J (x)−1

(4.72)

Nous noterons que ce calcul est coûteux (e.g.Bennett,1992).

Les méthodes variationnelles sont définies ici dans le cas d’un opérateur d’observation linéaire mais elles peuvent être étendues à des cas non linéaires en utilisant un opérateur d’observation non linéaire.

Le 3d-VAR

Le 3d-VAR est une mise en œuvre des méthodes variationnelles dans laquelle la dimension temporelle n’est pas prise en compte. Dans sa formulation classique, l’analyse est réalisée de manière séquentielle afin d’obtenir l’état optimal à un instant donné, comme dans le cas du filtre de Kalman. A chaque temps l’état analysé est calculé, une fenêtre temporelle d’observation de taille arbitraire est définie et toutes les observations disponibles sur cette fenêtre sont interpolées au temps de l’analyse.

4.3 Autres méthodes d’assimilation de données 127

toutes les observations qui, en général, ne sont pas réparties de manière régulière. De plus, la mise en œuvre du 3d-VAR ne nécessite pas de modèle adjoint vu que l’évolution temporelle du système n’est pas prise en compte.

Le 4d-VAR

Le 4d-VAR (Talagrand and Courtier,1987) est la généralisation du 3d-VAR pour prendre en compte la dimension temporelle. Contrairement au 3d-VAR, cette méthode vise à optimiser la trajectoire de l’état du modèle sur une fenêtre de temps donnée. Ainsi toutes les observations disponibles sur cette fenêtre de temps sont prises en compte. De plus, l’information donnée par ces observations sera propagée temporellement par le modèle dynamique et son adjoint. C’est une méthode largement utilisée pour l’assimilation des vitesses mesurées par radar HF (Cf. section

4.4), mais aussi pour l’optimisation des forçages du modèle (Cf. chapitre 5).

Avec l’hypothèse d’un modèle parfait, dite "contrainte forte" (Talagrand and Courtier,1987), deux méthodes pratiques permettent d’effectuer la minimisation, dont l’équivalence a été prouvée parCourtier (1997) :

– le 4DVAR incrémental à contrainte forte (IS4DVAR,Courtier et al.,1994), utilise un schéma itératif pour minimiser la fonction en utilisant des informations provenant du modèle tan-gent linéaire et du modèle adjoint.

– le 4DVAR basé sur les fonctions de représentation (Bennett,2002) cherche des coefficients pour ces fonctions de représentation qui minimisent l’écart entre le modèle et les observa-tions.

4.3.2 Nudging

Le nudging, qui signifie "en poussant du coude", consiste à introduire un terme de relaxation vers les observations dans les équations régissant le système dynamique (Auroux, 2003). De manière analogue aux méthodes variationnelles, c’est la trajectoire du modèle que l’on cherche à contrôler lorsque des observations sont disponibles.

4.3.2.1 Nudging direct

Considérons que l’évolution du système dynamique à l’instant t soit régie par l’équation différentielle

dx

dt = F (x) (4.73)

avec une condition initiale x(0) = x0.

Supposons que nous disposons d’observations, yo, d’une partie du système sur l’intervalle d’assimilation [0 T ]. L’état du modèle à l’endroit des observations est défini par H(x), où H représente l’opérateur d’observation. L’application du nudging pour contrôler la trajectoire sur la période [0 T ] peut s’écrire formellement de la manière suivante :

   dx dt = F (X) + K(y o − H(x)) x(0) = x0 (4.74)

128 Chapitre 4. Généralités sur l’assimilation de données

Dans ce cas, la matrice K est appelée matrice de nudging. Elle peut être assimilée au gain de Kalman dans la mesure où elle permet de projeter l’espace des observations dans l’espace du modèle, mais elle n’est pas déterminée de la même façon.

L’avantage de cette méthode par rapport à celles évoquées précédemment est sa simplicité et son faible coût de mise en œuvre (aussi bien en temps de calcul qu’en stockage). La principale difficulté consiste à déterminer la matrice de gain K.

4.3.2.2 Nudging rétrograde

Le nudging peut également être utilisé dans le sens rétrograde pour estimer l’état initial d’un système à partir de son état final en incrémentant le modèle dans le sens rétrograde. L’équation d’évolution du système dynamique s’écrit alors

dX

dt = −F (X) (4.75)

avec une condition finale X(t

= 0) = X(T ), pour les temps t tels que T > t > 0 et en utilisant un changement de variable t

= T − t, X est évalué à l’instant t. Dans ce cas, l’application du nudging rétrograde s’écrit :

   dX dt = −F (X) + K (yo− H(X)) X(t = 0) = X(T ) (4.76)

4.3.2.3 Back and forth Nudging

Introduit par Auroux and Blum (2005, 2008), il consiste à répéter les deux étapes décrites précédemment jusqu’à la convergence de l’état initial. Cet algorithme a été testé avec succès sur des modèles simples (Lorenz 3D, équations de Burgers, shallow waters et quasi-géostrophique) et a été développé pour certaines applications (équation d’onde, tomographie,...). Au jours de l’écriture de ces lignes, des évolutions de cet algorithme sont en cours de test sur des applications à des problèmes géophysiques de grande taille13

.