• Aucun résultat trouvé

Il est important de pouvoir comprendre et anticiper les effets de l’application des systèmes

déri-vés du filtre de Kalman sur modèle particulier, et tout particulièrement ceux de la paramétrisation

des matrices de covariances d’erreur dont on vient de voir le problème de l’estimation. Pour cela, la

caractérisation des structures de covariance d’erreur utilisées lors de l’analyse est utile et est facilitée

par l’utilisation des représenteurs (Echevin et al. 2000). La définition des représenteurs utilisée dans

cette thèse n’est pas exactement la définition standard introduite par Bennett 1992 pour laquelle

les représenteurs sont des fonctions de l’espace et du temps : Bennett et al. 1993introduisent ainsi

les représenteurs pour diminuer le coût de calcul de la minimisation de la fonction de coût en

as-similation variationnelle, en réduisant le nombre de degrés de liberté de l’optimisation au nombre

d’observations disponibles. On utilise donc la définition deEchevin et al. 2000 et nos représenteurs

peuvent être considérés comme des instantanés de représenteurs de Bennett. En reprenant les

équa-tions de (5.47), on voit que la correction du filtre de Kalman lors d’une étape d’analyse peut s’écrire

(en supprimant les indiçages temporels) :

x

a

=x

f

+x

c

(5.70)

où x

c

est une combinaison linéaire des colonnes de la matrice P

f

H

T

. x

c

est donc une

combinai-son linéaire de l’ensemble des vecteurs {P

f

H

Tscal

} H

scal

est l’opérateur d’observation associé à

l’observation scalaire y

scal

assimilée pendant la phase d’analyse (y

scal

est une composante de y).

Dans le cas particulier où pendant la phase d’analyse, seul l’observation scalaire y

scal

est assimilée

(si y = y

scal

et H = H

scal

, R étant alors un scalaire), x

c

est proportionnel à P

f

H

T

. Ainsi, en

reprenant les équations de (5.47) on obtient :

x

c

=λr où λ= y−Hx

f

1 +

HPRfHT

(5.71)

et

r= (P

f

H

T

)/(HP

f

H

T

) (5.72)

En particulier, si y −Hx

f

= 1 et R = 0, x

c

= r. r est appelé ici le représenteur associé à

l’observation scalaire y, et il donne donc la correction exacte opérée avec un filtre de Kalman à

partir d’une innovation unitaire sur y, avec une erreur d’observation nulle. Dans le cas général

de l’assimilation d’un ensemble d’observations scalaires, la correction réalisée est une combinaison

linéaire des représenteurs associés à ces observations.

Si le représenteur est associé avec une variable d’état x

i

directement observée (en notant x =

(x

1

, x

2

, ...x

m

)), alors r = (r

1

, r

2

, ...r

m

), où r

j

=

cov(xj,xi)

proche de celle des corrélations entre l’erreur surx

i

et les erreurs sur les autres variables du système

x

j24

.

Les représenteurs, en plus de fournir une information comparable à celle des calculs de

corré-lations pour l’exploration de la structure des matrices de covariance d’erreur, permettent donc de

caractériser l’influence exacte des observations sur l’état du modèle à travers l’emploi de

l’assimila-tion de données. Dans nos études à venir (en III), en adoptant l’hypothèse (5.69), (5.72) devient

r= (QH

T

)/(HQH

T

) (5.73)

La structure spatiale des représenteurs va donc permettre l’étude des estimations de l’erreur modèle

qui vont être réalisées.

5.4 Conclusion : importance de l’estimation des erreurs

On a décrit les principes fondamentaux des schémas dérivés du filtre de Kalman, dans leur

ap-plication à l’océanographie, en soulignant le problème de l’estimation des statistiques d’erreurs pour

leur paramétrisation. On a vu que pendant les étapes de prévisions, un grand nombre d’hypothèses

et d’approximations sont nécessaires à cette application, du fait du problème de l’estimation des

erreurs de prévisions. Que l’on travaille avec des schémas où la matrice de covariance d’erreur de

prévision est stationnaire ou non, une bonne prescription de sa composante liée à l’erreur modèle

est capitale pour le bon fonctionnement théorique du filtre. Les approches généralement mises en

oeuvre dans le filtre SEEK pour estimer l’erreur modèle, comme celle du facteur d’oubli, semblent

particulièrement mal adaptées à la caractérisation des erreurs dans un modèle régional en zone

côtière, et tout particulièrement à celles qui sont liées aux forçages atmosphériques et aux frontières

ouvertes, auxquelles on s’intéresse tout particulièrement dans cette thèse.

On a donc établi en fin de section 5.2.3 une démarche pour estimer de façon adaptée de cette

composante. Cette démarche repose sur l’usage des méthodes d’ensemble introduites au chapitre

6 et est à la base de nos études menées aux chapitres 8 et 9. L’interprétation des résultats de ces

études passera par l’emploi des représenteurs introduits en section 5.3 et par l’hypothèse de l’usage

d’un schéma d’assimilation stationnaire, que l’on mettra en oeuvre au chapitre 10.

24

On notera que suivant l’équation (5.72), la composante d’un représenteurr

j

est sans dimension six

i

etx

j

ont

la même unité physique ; dans le cas contraire, l’unité physique de la composante r

j

est l’unité de x

j

divisée par

l’unité de x

i

. Par exemple, si un représenteur associé avec une innovation de SSH est calculé, l’unité d’une de ses

composantes de vitesse ests

−1

Estimation des statistiques d’erreur par

une méthode d’ensemble

On a vu au chapitre 5 que notre étude sur l’erreur modèle discutée dans les chapitres 8 et 9

s’appuierait sur l’emploi de méthodes de Monte Carlo, dont on présente ici le principe d’application

et l’utilité pour l’implémentation du filtre de Kalman. Les méthodes de Monte Carlo (c’est à dire

fondées sur l’usage d’échantillonnages aléatoires) ont été introduites en sciences de la Terre à la

fin des années 60 (Press 1968), et sont utilisées pour résoudre des problèmes très variés, dont les

problèmes inverses au sein desquels se place l’assimilation de données.

La prévision d’ensemble, ainsi que l’assimilation de données par méthode d’ensemble (dérivées

des méthodes de Monte Carlo), sont aujourd’hui assez fréquemment utilisées en géophysique. On

retrouve par exemple des systèmes de prévision d’ensemble en météorologie au MSC

1

(avec l’EPS,

Ensemble Prediction System), au CEPMMT/ECMWF

2

(Molteni et al. 1996), au NCEP

3

(on trouve

une comparaison de ces trois derniers systèmes dans Buizza et al. 2005) ou à Météo France (basé

sur le modèle Arpège). L’aspect “chaotique” de la dynamique océanique ou atmosphérique rend

l’idée de prévision déterministe quelque peu inadaptée, malgré la prise en compte, dans les systèmes

d’assimilation de données, d’une erreur sur les prévisions. Son traitement à travers l’emploi de la

prévision par méthodes d’ensemble paraît plus approprié. Les méthodes d’ensemble permettent en

particulier de déceler des situations marginales extrêmes.

L’usage tout particulier des méthodes de Monte Carlo pour paramétrer les erreurs des filtres de

Kalman en océanographie culmine avec le développement du filtre de Kalman d’Ensemble (Ensemble

Kalman filtrer EnKF, introduit par Evensen 1994 pour un modèle d’océan quasi-géostrophique).

La description qu’on en donne illustre ce en quoi consiste la prédiction dynamique stochastique.

L’usage des méthodes de Monte Carlo dans le filtre de Kalman étendu permet d’une part de réduire

les coûts de calculs (notamment ceux de la deuxième équation de (5.46) du chapitre 5 : en ce sens

c’est une alternative, bien qu’elle s’avère plus coûteuse, à la réduction d’ordre déjà envisagée avec

un filtre dit “déterministe” comme le SEEK) ; il permet d’autre part d’estimer de façon plus réaliste

la structure des erreurs initiales et des erreurs modèles, supposées connues lors de l’application du

filtre de Kalman, et d’éviter certains problèmes qui se posent lorsque l’on néglige des moments des

erreurs d’ordre strictement supérieurs à 2. Les questions de compatibilité entre réinitialisations et

conditions aux frontières ouvertes dans les modèles régionaux sont également en principe mieux

1

Meteorological Service of Canada.

2

Centre Européen pour les Prévisions Météorologiques à Moyen Terme/European Centre for Medium-Range

Wea-ther Forecasts.

3

National Centers for Environmental Prediction.

135

gérées par les méthodes de Monte Carlo.

Dans cette thèse, les méthodes d’ensemble seront utilisées pour réaliser des estimations de l’erreur

modèle dans un modèle régional côtier comme le nôtre. En section 6.1, on introduit brièvement la

notion de méthode de Monte Carlo pour les problèmes inverses. En section 6.2, on donne l’exemple

de l’algorithme de l’EnKF qui montre l’essentiel de ce que peut être l’application des méthodes de

Monte Carlo à l’assimilation de données. En section 6.3, on montre ce que nous conserverons des

idées de l’EnKF pour l’appliquer à l’estimation des erreurs pour la paramétrisation de filtres de

Kalman déterministes. Enfin, en section 6.4, on reviendra sur l’apport que cette application pourra

représenter pour les systèmes d’assimilation déterministes comme le filtre SEEK.

6.1 Méthodes de Monte Carlo et problèmes inverses

On peut retrouver un historique et une présentation de l’usage des méthodes de Monte Carlo

pour les problèmes inverses en géophysique dansSambridge et Mosegaard (2002). On en reprend ici

quelques éléments.

Sambridge et Mosegaard (2002)définissent de façon générale les méthodes de Monte Carlo comme

étant “des expériences qui utilisent des nombres aléatoires pour résoudre des problèmes de nature

probabiliste ou déterministe”. Celles-ci ont en effet permis de résoudre, outre certains problèmes

ba-sés sur des phénomènes aléatoires, certains problèmes déterministes comme l’évaluation d’intégrales

multi-dimensionnelles. Leur développement et la théorie statistique associée constituent aujourd’hui

un domaine important de la recherche (Flournay et Tsutakawa, 1989).

Un problème inverse, visant à la déduction d’informations sur un système à partir de données

indirectes, est associé à un certain nombre d’incertitudes : les données sont souvent bruitées,

incom-plètes, et ne permettent de contraindre qu’imparfaitement les variables d’intérêt du système. C’est

particulièrement le cas en géophysique. La prise en compte de ces incertitudes sur les données et

l’extrapolation de celles-ci pour obtenir de l’information sur l’ensemble de l’état du système peut

être réalisée à l’aide des méthodes de Monte Carlo.

Backus et Gilbert (1967) ont établi les fondements de la théorie du problème de l’inversion en

sciences géophysiques : une propriété fondamentale de celle-ci étant la non-unicité de la solution.

Keilis-Borok et Yanovskaya (1967), dans le même temps, introduisent les techniques d’inversion par

les méthodes de Monte Carlo pour la géophysique. L’utilisation des méthodes de Monte Carlo a

alors permis de traiter le problème de la non-unicité de la solution au problème d’inversion.

L’inversion de Monte Carlo (Monte Carlo Inversion, MCI), consiste d’abord à générer un

en-semble d’états modèles possibles (selon une distribution de probabilité connue a priori), puis de les

confronter aux observations pour rejeter ceux qui y sont incompatibles. L’analyse des états restants

permet alors une interprétation des solutions aux problèmes inverses (cfPress, 1970). La MCI a été

critiquée du fait que les états testés ne pouvaient le plus souvent être en nombre suffisant pour être

représentatifs des états possibles.

Les techniques d’inversion linéaire (à l’aide d’inversions de matrices) ont ensuite été à l’origine du

recul, pendant les années 70, de l’usage des techniques d’inversion de Monte Carlo, jugées inefficaces.

La question de l’inversion linéaire a rapidement été liée à celle du calcul du minimum de fonctions

d’écarts du modèle aux observations (le plus souvent fondé sur un critère de moindres carrés).

Dans le cas de modèles proches de la linéarité, le calcul d’optimisation de l’inversion linéaire (avec

notamment l’emploi de la méthode du gradient conjugué), est légitime, mais il devient plus difficile et

moins légitime dès lors que les non-linéarités du modèle se multiplient, du fait de la multiplicité des

minima des fonctions coût considérées. L’introduction des méthodes de Monte Carlo au problème

d’optimisation a alors été utile dans les années 80 du fait de la robustesse de leur calculs qui évitent

les dérivations, les approximations

4

...

En particulier, les techniques de Monte Carlo ont permis de résoudre certains problèmes posés

par l’approche Bayesienne (Tarantola et Valette, 1982) et son traitement statistique des problèmes

inverses (appliqué même aux problèmes linéaires). Dans cette approche, le problème inverse est vu

comme la combinaison d’une information a priori sur le modèle avec celle de nouvelles données pour

fournir une information a posteriori qui est la solution au problème : toutes ces informations sont

représentées en termes probabilistes. On retrouve dans cette approche le type de résolution que

l’on opère avec le filtre de Kalman (cf chapitre 5). La connaissance des distributions de probabilité

que suppose cette approche peut être fournie par des méthodes de Monte Carlo alors qu’il est

difficile d’en donner une représentation analytique. C’est dans cette optique que l’on s’intéresse aux

méthodes d’ensemble et à leur application dans cette thèse, et qu’est développé l’EnKF.

Le coût des méthodes de Monte Carlo reste élevé et limite sensiblement leur application à des

problèmes réalistes : mais en comparaison de techniques aussi coûteuses que le filtre de Kalman

(non réduit), elles peuvent être considérées comme relativement abordables.