• Aucun résultat trouvé

2.2 La localisation

2.2.2 Augmenter le rang de la matrice de covariance

2.2.2.a Le problème du rang

La localisation peut aussi être pensée comme un moyen d’augmenter le rang de la matrice de covariance échantillonnée. Comme nous l’avons vu précédemment (section 2.1.2), le rang de Be est majoré par N − 1. Cela est problématique puisque par construction, l’incrément d’analyse est restreint à l’image de B. C’est le cas pour le BLUE, mais aussi1 pour la formulation incrémentale avec préconditionnement en B ou B1/2 (section 1.3.3.b). Utiliser Be comme approximation de B reviendrait donc à chercher l’incrément d’analyse dans Im(B) ⊂ Im(X)e , où Im(M) désigne l’image de M. L’incrément serait alors une combinaison linéaire des perturbations de l’ensemble. On ne disposerait donc que de N − 1 scalaires indépendants, N − 1 degrés de liberté (Lorenc, 2003) pour résoudre ce problème de minimisation ! Or :

— N  p. A priori, on ne pourra pas ajuster l’incrément à toutes les observations. — N  n. À prendre en compte puisque le problème ne consiste pas seulement à ajuster

des observations, mais aussi à rester le plus proche possible de l’ébauche, et ce sur les n paramètres du vecteur de contrôle de l’analyse.

Pour nuancer le propos, on notera que la dimension « effective » du système météo-rologique est en réalité inférieure à la dimension du vecteur d’état. En ce sens, il n’est peut-être pas catastrophique d’avoir un ensemble de N < n membres. La dimension per-tinente serait plutôt celle du sous-espace instable et neutre de la dynamique du modèle (Bocquet et Carrassi, 2017), c’est-à-dire (schématiquement), le sous-espace engendré par les

1. Ce résultat est immédiat pour le préconditionnement en B. Il est aussi valide pour le

précondition-nement en B1/2 puisque l’image d’une matrice et l’image d’une de ses racines sont les mêmes (annexe A,

composantes de l’erreur qui ne décroissent pas naturellement au cours de l’intégration du modèle. Ce sont ces composantes de l’erreur qui ont besoin d’être contrôlées régulièrement par l’assimilation de données. Le problème demeure cependant puisque cette dimension effective du système dynamique n’en reste pas moins bien supérieure à la taille de nos ensembles. De plus, l’intérêt d’analyser les hydrométéores ne réside pas uniquement dans le contrôle du système dynamique. Leur prise en compte ne peut qu’augmenter l’écart entre la taille du problème à résoudre et le nombre de degrés de liberté disponibles.

2.2.2.b Localiser pour augmenter le rang

Nous allons maintenant voir en quoi la localisation est aussi une réponse à ce problème de rang faible. Pour cela, nous introduisons, à la suite de Bishop et al. (2017), le produit de modulation de deux matrices.

Définition 2.1

Soit C ∈ Rn×p et D ∈ Rn×q. Le produit de modulation de C et D est la matrice CM D ∈ Rn×pq dont les colonnes sont les produits de Schur croisés des colonnes de C et D. Plus précisément,

(C M D):,ip+j def

= D:,i◦ C:,j

où les indices 0 ≤ i ≤ q − 1 et 0 ≤ j ≤ p − 1 désignent les colonnes de D et C.

On peut alors montrer (voir Buehner, 2005, ou la démonstration en annexe B) que si UL est une racine carrée de L, au sens L = ULULT, alors une racine carrée de B = L ◦ eb B est donnée par ULM X :

ULULT◦ XXT = (ULM X)(ULM X)T (2.9) Puisque la matrice de localisation est symétrique positive, elle admet nécessairement une racine carrée UL. Les conditions sont donc bien vérifiées, et la matrice localisée Bb admet donc bien une racine. Cette expression sous forme factorisée est très utile, en particulier pour les schémas variationnels avec préconditionnement en B1/2. On verra aussi qu’elle fournit un moyen d’appliquer l’opérateur Bb sans avoir à calculer terme à terme le produit de Schur (section 2.2.3).

On notera au passage que cette formulation permet de montrer immédiatement le caractère positif de la matrice localisée ! Son caractère défini positif est moins évident. Une

matrice ensembliste qui comporte des colonnes nulles (classique dans le cas d’une matrice ensembliste avec hydrométéores) reste non-inversible après localisation. La localisation permet cependant d’« améliorer » le rang de la matrice de covariance. En effet, comme montré en annexe A, son rang est celui du produit de modulation UL M X. Il est donc fortement augmenté, puisque le produit de modulation comporte beaucoup plus de colonnes que X (q fois plus si UL ∈ Rn×q) ! Le rang de la matrice localisée est discuté en annexe B dans le cas d’une matrice UL inversible.

2.2.2.c Interprétation : inflation de la taille d’ensemble

La factorisation deBb grâce au produit de modulation permet d’interpréter la localisation comme une augmentation artificielle de la taille de l’ensemble. En effet, la matrice Bb est identique à une matrice de covariance qui serait obtenue à partir de la matrice de perturbations U M X (il s’agit bien d’une matrice de perturbation, la somme de ses colonnes étant nulle).

Ces perturbations artificielles sont d’ailleurs très proches des perturbations d’origine. En effet, une matrice de localisation admet généralement une racine qui « ressemble » à une matrice de localisation. Dans le cas d’une localisation homogène avec un profil gaussien par exemple, une racine de L serait fournie par la matrice de localisation homogène avec un profil d’écart-type divisé par 2. Les perturbations artificielles sont donc les produits terme à terme des perturbations d’origine avec les colonnes d’une matrice de localisation. Comme illustré en figure 2.4, chacune des N perturbations a été dupliquée en n exemplaires (si U ∈ Rn×n), et chacun de ces exemplaires est filtré par une fonction de localisation centrée sur un point différent. Le résultat final est un ensemble de N × n perturbations filtrées. L’incrément d’analyse n’est donc plus une combinaison linéaire des perturbations de l’ensemble, mais une combinaison linéaire des perturbations filtrées.

=

F i g u r e 2.4 – Illustration de l’inflation artificielle de la taille de l’ensemble par produit de modulation, dans un cas jouet avec 3 membres (N = 3) et un espace d’état de dimension n = 8. L’équation représentée est (U) M (X) = (U M X).

2.2.2.d Interprétation : coefficients lentement variables

Enfin, notons qu’il est possible d’interpréter ce produit de modulation sans recourir à la notion de perturbations filtrées. On peut montrer (annexe C) que l’incrément d’analyse obtenu est une combinaison linéaire des perturbations, comme dans le cas non-localisé, à ceci près que cette combinaison linéaire est lentement variable dans l’espace :

 e B ◦ L α = N X k=1 Lδx(k)◦ α ◦ δx(k) (2.10) à comparer à B α =e N X k=1 δx(k)Tα δx(k) (2.11)

Plus précisément, cette combinaison linéaire est obtenue en autorisant des combinaisons linéaires indépendantes (ou presque, voir équation 2.10) pour chacun des n points du vecteur d’état, puis en convoluant les N champs de coefficients ainsi obtenus par la matrice de localisation L, ce qui assure le caractère lentement variable. Cette écriture avec coefficients lentement variables est due à Lorenc (2003), reprise dans une formulation plus directe par Wang et al. (2008) par exemple.

Plus les longueurs de localisation seront courtes, plus les combinaisons linéaires varie-ront rapidement dans l’espace. Inversement, une localisation peu sévère impliquera des combinaisons linéaires peu variables.