• Aucun résultat trouvé

1.3 L’assimilation de données

1.3.2 Formalisme général de l’assimilation de données

On distingue dans un premier temps deux espaces mathématiques : l’espace du modèle et l’espace des observations.

1.3.2.a L’espace du modèle

L’espace du modèle est assimilé à Rn, où n est le nombre de variables scalaires qui décrivent un état du modèle. Dans la pratique, n est très grand, de l’ordre de 108 à 109, puisque l’espace du modèle peut contenir des millions de points pour chaque niveau vertical et pour chaque variable. Notons xt ∈ Rn (t pour true) l’état réel de l’atmosphère à un instant donné, projeté dans l’espace discret du modèle. Le processus d’assimilation vise à fournir la meilleure estimation possible de xt, tout en sachant qu’une estimation parfaite est impossible. Cette estimation xa

∈ Rn sera appelée analyse1. La différence xa− xt= a est l’erreur d’analyse.

Avant de procéder à l’étape d’assimilation de données, nous pouvons fournir une pre-mière estimation a priori de l’état du modèle, appelée ébauche et notée xb

∈ Rn (b pour background). Dans la pratique, cette estimation est fournie par la dernière prévision

dispo-nible valide à l’heure d’intérêt. Cette ébauche diffère de notre vecteur cible xt par l’erreur d’ébauche b, supposée additive et donc définie par :

xb = xt+ b. (1.3)

1. Par extension, le terme analyse, ou étape d’analyse, est parfois employé pour désigner le processus d’assimilation de données.

Dans le formalisme de l’assimilation de données, les erreurs sont pensées comme des réalisations de processus aléatoires. L’erreur reste inconnue pour une réalisation donnée, mais on peut estimer certaines statistiques d’erreur. On suppose ainsi que l’erreur d’ébauche est non biaisée (E b = 0, où E [·] désigne l’espérance statistique), et qu’elle admet une matrice de variance-covariance notée B :

Bdef= Cov(b)

= EbbT . (1.4)

Les termes diagonaux de cette matrice donnent la variance de l’erreur d’ébauche, c’est-à-dire l’incertitude de notre ébauche, point de grille par point de grille : Bii = Var(bi) où i indexe un point de grille. Les termes extra-diagonaux donnent une idée des corrélations entres différents points de grille : Bij = Cov(b

i, b

j)pour 1 ≤ i,j ≤ n. Ils ne sont pas nuls en général. En effet, la plupart des variables météorologiques varient relativement lentement dans l’espace, de sorte que les erreurs du modèle peuvent être corrélées (spatialement, mais aussi d’une variable à l’autre. . . ).

Comme toute matrice de covariance, B est symétrique positive. On montre la symétrie en remarquant que E bbTT

= EbbT

. La positivité vient du fait que pour x ∈ Rn, xTBx = ExTbbTx = E(bTx)2 ≥ 0. Nous supposons que B est également définie positive1. Si ce n’était pas le cas, il existerait un vecteur x non-nul de Rn tel que E (bTx)2

= 0. Autrement dit, toute réalisation b vérifierait bTx = P xib i = 0. Il existerait ainsi une composante du système pour laquelle l’erreur d’ébauche serait systématiquement nulle, et notre connaissance infiniment précise. Supposer le contraire paraît physiquement raisonnable.

Du caractère défini positif de la matrice de covariance des erreurs d’ébauche, il s’ensuit que :

— elle est aussi inversible, et son inverse B−1 est également symétrique définie positive ; — la forme bilinéaire associée (x1, x2) 7→ xT1Bx2 définit un produit scalaire sur Rn, noté

h·, ·iB;

— la forme quadratique associée x 7→ x√ TBx définit une norme sur Rn, notée ||x||B = xTBx.

Ces notations seront reprises désormais pour toute matrice symétrique définie positive (et uniquement pour ces matrices). Pour une revue généraliste à propos de l’estimation et de la modélisation de la matrice B en prévision numérique du temps, nous conseillons vivement l’excellente revue en deux parties de Bannister (2008a,b).

Au premier abord, un vecteur de l’espace du modèle devrait contenir les treize variables d’AROME. Pour des raisons qui seront expliquées plus loin, l’assimilation opérationnelle d’AROME se contente d’estimer les cinq variables Ps, T , u, v et qv. La dénomination « espace du modèle » reste néanmoins communément employée en assimilation de données,

bien que l’espace du modèle en assimilation de données ne soit qu’un sous-espace de l’espace du modèle pour la prévision. Nous emploierons parfois le terme vecteur de contrôle de l’analyse pour désigner sans ambiguïté un vecteur de l’espace modèle en assimilation de données.

1.3.2.b L’espace des observations

Les observations sont elles aussi représentées sous la forme d’un vecteur y ∈ Rp. Dans la pratique, p est très petit devant n, avec au moins deux ordres de grandeur de différence.

L’espace des observations est lié à l’espace du modèle par un opérateur d’observation H : Rn→ Rp. Le caractère discret du problème implique que l’opérateur H est nécessairement imparfait, certaines observations pouvant être sensibles à des échelles spatiales trop petites pour être décrites dans l’espace du modèle. À cette erreur dite de représentativité (Janjić et al., 2017) s’ajoute une possible erreur de modélisation, du fait d’un manque de connaissance des phénomènes physiques impliqués, de la difficulté à simuler l’observation à partir des seules variables du modèle, ou du fait d’approximations destinées à réduire le coût numérique de H (cas des observations de radars ou de satellites par exemple). Enfin, chaque observation est entachée d’une erreur de mesure. Ces trois types d’erreurs sont regroupées sous le terme d’erreurs d’observation, et notées o.

y = H(xt) + o (1.5)

On suppose que les erreurs d’observation sont indépendantes de l’erreur d’ébauche. Comme pour l’erreur d’ébauche, les erreurs d’observation sont supposées non-biaisées, et admettent une matrice de variance-covariance notée R :

Rdef= Cov(o)

= EooT (1.6)

Comme la matrice B, la matrice de covariance des erreurs d’observation R est symétrique positive, et supposée définie positive. Elle est diagonale si les erreurs des observations sont décorrélées entre elles. On s’assure que ce soit le cas dans la pratique, bien que cette hypothèse soit difficile à vérifier. Un moyen de s’en assurer est de ne sélectionner pour l’assimilation qu’un sous-échantillon d’observations géographiquement éloignées les unes des autres. C’est la procédure d’« écrémage », typiquement appliquée pour les observations

radar. D’autres approches consistent à augmenter artificiellement les variances des erreurs pour compenser la non-prise en compte des corrélations, ou bien à moyenner spatialement les observations (Rabier, 2006).

Plusieurs études ont montré que s’affranchir d’une représentation diagonale de R était bénéfique (Stewart et al., 2013b ; Rainwater et al., 2015). Un moyen d’assouplir l’hypothèse diagonale est de modéliser R sous forme diagonale par blocs, chaque bloc correspondant à un type d’observations différent. Certains de ces blocs peuvent alors être non-diagonaux. Il est par exemple possible de prendre en compte les corrélations inter-canaux pour un sondeur atmosphérique satellitaire. C’est ce que rapportent Stewart et al. (2013a) et Bormann et al. (2016) par exemple, en s’appuyant sur les méthodes de Hollingsworth et Lönnberg (1986) et Desroziers et al. (2005) pour l’estimation des statistiques d’erreurs. En revanche, la prise en compte des corrélations spatiales des erreurs d’observation reste difficile, et en est encore à un stade de recherche (voir par exemple Brankart et al., 2009 ; Michel, 2018 ; Guillet et al., 2019 ; Chabot et al., 2020).

1.3.2.c L’estimateur BLUE

Supposons que l’opérateur d’observation H soit linéaire, ou admette une approximation linéaire, notée H ∈ Rp×n. Dans ce contexte, le meilleur estimateur linéaire non biaisé de xt, au sens qu’il minimise E [||a||2] est donné par le BLUE, Best Linear Unbiased Estimator :

xa= xb + Kd (1.7) avec K = BHT R + HBHT−1 (1.8) = B−1+ HTR−1H−1HTR−1 (1.9) et d = y − Hxb. (1.10) (1.11) K est le gain de Kalman, et d est l’innovation, qui mesure l’écart entre les observations et l’équivalent (linéaire) de l’ébauche dans l’espace des observations. La différence xa− xb est appelée incrément d’analyse.

Cette formulation, bien que reposant sur l’hypothèse d’un estimateur linéaire, permet de comprendre l’importance de la matrice B. Plaçons-nous dans le cas de l’assimilation d’une observation locale, c’est-à-dire correspondant à une coordonnée i du vecteur de contrôle :

— une observation, p = 1 ; — une innovation d = d ;

— une variance d’erreur d’observation R = σ2 o 

;

— un opérateur d’observation linéaire H = 0 · · · 0 1 0 · · · 0 = δ(j = i)1≤j≤n; — une variance d’erreur d’ébauche au point d’observation Bii= σb2.

Alors l’analyse obtenue par le BLUE est

xa= xb+ d σ2

b + σ2 o

B:,i (1.12)

où B:,i désigne la iecolonne de B. Au point d’observation en particulier : xai = xbi + σ 2 b σ2 b + σ2 o d (1.13)

Relevons deux caractéristiques de l’analyse ainsi obtenue.

— Pour une erreur d’observation de variance donnée σo, la valeur de l’analyse au point d’observation tend vers la valeur de l’observation lorsque σb tend vers l’infini (peu de confiance dans l’ébauche), et tend vers la valeur de l’ébauche quand σb tend vers 0 (grande confiance dans l’ébauche). Le rôle de la matrice de covariance est donc de peser les apports relatifs de l’ébauche et des observations.

— L’incrément d’analyse n’est pas restreint au point de l’observation, mais est propor-tionnel à une colonne de la matrice B, c’est-à-dire tous les points du vecteur de contrôle pour lesquels la covariance d’erreur d’ébauche avec le point i n’est pas nulle. L’information apportée par l’observation peut ainsi se propager aux points voisins, voire aux autres variables.

Enfin, dans le cas général où plusieurs observations sont assimilées, l’incrément du BLUE s’écrit sous la forme Kd = Bα avec α un vecteur de Rn. C’est donc une combinaison linéaire des colonnes de la matrice B. On comprend là l’intérêt d’avoir une matrice B de rang plein, puisque l’incrément d’analyse est restreint à l’image de B.

Lors de la mise au point d’un système d’assimilation de données, il est courant de réaliser des expériences d’assimilation avec une unique observation locale. L’intérêt de telles expériences (single-observation experiments) consiste à visualiser la structure de la matrice B, colonne par colonne. Les incréments d’analyse ainsi obtenus sont appelés fonctions de structure. La figure 1.8 montre un extrait d’une fonction de structure de la matrice B utilisée opérationnellement pour l’assimilation dans AROME. On notera en particulier le caractère isotrope des covariances d’erreurs pour la température. L’incrément de vent méridien associé à une observation de température est particulièrement parlant, reliant une hausse locale de température à un mouvement anticyclonique. On a ici une illustration du rôle de propagation spatiale et inter-variables des observations par la matrice B.

F i g u r e 1.8 – Fonction de structure de la matrice B opérationnelle, pour l’assimilation d’une observation de température à Toulouse au niveau modèle 70 (moyenne troposphère). L’image est obtenue en appliquant B à un vecteur de la base canonique ei, ce qui permet d’obtenir facilement la colonne B:,i quand B n’est disponible que sous forme d’opérateur matrice - vecteur.

1.3.2.d L’approche bayésienne

L’approche bayésienne de l’assimilation de données (Lorenc, 1986) permet de s’affranchir de l’hypothèse de linéarité de l’opérateur d’observation et de l’estimateur de l’analyse. L’idée consiste à estimer xt non pas par une analyse xa, mais par la distribution de probabilité p(x|y). Cette distribution est définie sur l’espace de contrôle (x ∈ Rn). En utilisant la formule de Bayes, il est possible d’exprimer cette probabilité en fonction de quantités connues :

p(x|y) = p(y|x)p(x)

p(y) . (1.14)

Le dénominateur ne dépendant pas de x n’est qu’un facteur de normalisation. La probabilité p(y|x) est la vraisemblance des observations y au vu d’un état x du modèle. On peut l’évaluer en comparant y et H(x). La probabilité p(x) est indépendante des observations, c’est donc la probabilité a priori de l’état de l’atmosphère. Elle peut être évaluée en comparant x à l’ébauche xb par exemple.

La plupart des techniques d’assimilation de données (sinon toutes) peuvent s’interpréter à partir de cette relation. Les techniques de filtres particulaires (voir la revue de Leeuwen et al., 2019) sont peut-être celles qui nécessitent le moins d’hypothèses supplémentaires,

puisqu’elles se contentent d’échantillonner les distributions de probabilité par des méthodes Monte-Carlo. Leur coût numérique reste cependant prohibitif pour des applications en grande dimension comme c’est le cas en météorologie. Nous nous attardons donc plutôt sur d’autres méthodes de résolution du problème bayésien, qui ont fait leurs preuves dans un contexte opérationnel. C’est l’objet de la section suivante.