• Aucun résultat trouvé

La résolution séquentielle dans le cas général

Dans le document THESE pour obtenir le grade de (Page 28-33)

2.5.1 Loi de transition

En toute rigueur, le fait d’ajouter une perturbation aléatoire aux équations différentielles déterministes qui régissent l’évolution de l’état du système en fait des équations différentielles stochastiques d’Itô. C’est la position adoptée par Miller et al. (1999). Cependant la résolution des équations d’Itô est en théorie très compliquée. Miller et al. (1999) se limite à l’intégration numérique d’une réalisation particulière, mais en temps continu. Si sa densité de probabilité(z(t)jyn<t) est définie, elle obéit alors à l’équation de Fokker-Planck, aussi appelée équation directe de Kolmogorov, notée sans conditionnement au passé(:jyn<t) pour

2.5. LA RÉSOLUTION SÉQUENTIELLE DANS LE CAS GÉNÉRAL 17 alléger :

@(z(t))

@t = X

i

@(fi(z(t))(z(t)))

@zi +X

i;j

1

2mij@2(z(t))

@zi@zj ; (2.7)

avecm la covariance de l’erreur de modèle. L’équation de Fokker-Planck est une équation d’advection-diffusion déterministe que l’on peut résoudre comme une équation aux dérivées partielles (Jazwinski, 1970) pour des petites dimensions de l’étatN 4. Pour des dimensions aussi élevées que dans les cas d’études en océanographie, la discrétisation devient pratiquement impossible et les contraintes des densités de probabi-lités (positivité et intégrale égale à un) ne rendent la résolution que plus difficile. Miller et al. (1999) donnent un exemple simple qui explique pourquoi ils préfèrent les méthodes de Monte Carlo pour des dimensions de l’étatN > 4. Les méthodes d’AD utilisées dans les cas réels évitent l’intégration explicite de l’équation (2.7).

Si l’on connaît déjà la densité(zn 1jy1:n 1), l’équation (2.7) permet alors de calculer (znjy1:n 1).

2.5.2 Prise en compte des observations

Le théorème de Bayes est la pierre angulaire de l’AD car il donne la densité de probabilité a posteriori connaissant une nouvelle donnée yn, ce qui permet de l’assimiler dans le système. Puisque Ynne dépend que de Zn(2.3) on a :

(znjy1:n) = R (znjy1:n 1)(ynjzn)

RN(zjy1:n 1)(ynjz)dz: (2.8)

Au numérateur du membre droit, la première densité de probabilité (loi a priori) est le résultat de l’intégra-tion du modèle den 1 à n et la seconde est la densité des observations.

2.5.2.1 Un algorithme récursif ?

La recherche d’un algorithme récursif est motivée par le caractère répétitif de la prédiction. En ef-fet, quand on reçoit une nouvelle donnée yn, il semble préférable de réutiliser le calcul précédent de (zn 1jy1:n 1) plutôt que de devoir tout reprendre à zéro. La formule de Bayes (2.8) fournit en principe une solution récursive, tout comme au problème plus général du lissage :

(z1:njy1:n) = (z1:n 1jy1:n 1)(ynjzn)(znjzn 1)

(ynjy1:n 1) ; (2.9)

mais la simulation de la densité a posteriori est très difficile, surtout à cause des dénominateurs qui re-quièrent l’évaluation d’intégrales dansRN. On ne trouve donc d’applications directes que pour des valeurs faibles de N, mais cela n’est pratiquement pas envisageable pour les systèmes océanographiques où N avoisine le million.

Dans la partie théorique de ce manuscrit, on étudiera d’abord le cas particulier linéaire et Gaussien où une solution exacte est donnée par le filtre de Kalman (chapitre 3). Les méthodes de l’adjoint et des représentants donnent aussi des solutions exactes mais en utilisant le formalisme variationnel et ne sont pas développées. On étudiera ensuite (chapitre 4) des approximations pour les cas non linéaires, le filtre de Kalman étendu (Jazwinski, 1970), et enfin des méthodes de Monte Carlo : l’Ensemble Kalman Filter (Evensen, 1994), le filtre à particules et le filtre Bootstrap (Doucet, de Freitas, et Gordon, 2001).

Chapitre 3

Le cadre linéaire

Sommaire

Où l’on découvre les bienfaits des hypothèses linéaires et gaussiennes. On se place dans le cadre séquentiel et gaussien, on rappelle brièvement ce qu’est le meilleur estimateur linéaire non biaisé d’où on déduit la formulation des méthodes simples d’assimilation et du filtre de Kalman ainsi que les modifications à lui apporter en cas de différences de support ou en cas de biais.

. .

Dans le cadre séquentiel, on notera Ztl’état aléatoire «vrai» (true). L’estimateur a priori sera noté Zf comme forecast, et l’estimateur a posteriori Zacomme «analyse». On considère les équations du modèle linéaire :

Ztn = FnZtn 1+ "mn (3.1)

Yn = HZtn+ "on: (3.2)

Le modèle physiqueFn et la fonction d’observation H sont linéaires et les variables d’état Ztn sont des variables aléatoires gaussiennes. Ces hypothèses ont un grand intérêt pratique : d’une part les multiplications parFn etH conservent la loi gaussienne (par conséquent Yn doit aussi être gaussienne), d’autre part les variables d’état sont parfaitement déterminées par leur deux premiers moments : l’espéranceE(Ztn) et la matrice de covarianceCn= E[(Ztn E(Ztn))(Ztn E(Ztn))>].

19

Dans les méthodes séquentielles, on distingue traditionnellement deux étapes :

1. l’étape de propagation par le modèle physique qui donne l’ébauche Zfn = E(ZtnjY1:n 1), et sa co-varianceCnf = Cov(Ztn; (Ztn)>jY1:n 1), le f de forecast rappelant qu’il s’agit d’un état prédit par le modèle.

2. l’étape de correction par les données qui produit l’état analysé Zan = E(ZtnjY1:n) et sa covariance Cna= Cov(Ztn; (Ztn)>jY1:n).

3.1 Préliminaire sur l’estimation linéaire aux moindres carrés

3.1.1 Stationnarité

Dans le cas monovariable, pour simplifier les notations, on dira d’une fonction aléatoireZ(x) qu’elle est stationnaire d’ordre 2 si ses deux premiers moments sont invariants par translations :

8x, E(Z(x)) = zf

8(x1; x2), Cov(Z(x1); Z(x2)) = C(jx1 x2j): (3.3) La fonction de covarianceC doit être définie positive.

Cette hypothèse stationnaire est nécessaire pour passer à l’étape de l’analyse structurale où l’on modélise la fonction de covariance expérimentale (ou plutôt le variogramme qui est un outil plus général et plus facile à estimer) pour obtenir une fonction théorique définie positive. Dans le cadre multivariable, la forme se complique car on doit modéliser les variogrammes croisés entre les différentes variables.

3.1.2 Estimation

On cherche le meilleur estimateur d’une variable en un pointx0, Z0 = Z(x0) connaissant sa moyenne E(Zt(x)) = zf(x) que l’on supposera uniformément nulle pour simplifier1etm observations ponctuelles y= (y(xi), i = 1; : : : m) avec une erreur d’observation gaussienne centrée de covariance o. On considère un estimateur linéaire de Zt0

Za0 = Xm

i=1

iY (xi) (3.4)

Dans l’hypothèse multigaussienne, l’estimateur du maximum de vraisemblance coïncide avec l’espérance conditionnelleE(Zt0jY), la géométrie des espaces de Hilbert montre ensuite que cette espérance condition-nelle est aussi l’estimateur des moindres carrés. Za0devra donc minimiser la variance de(Zt0 Za0).

1On peut de manière équivalente considérer la variable Zt zfet lui rajouterzf après analyse

3.2. LE PROBLÈME DU SUPPORT 21

Dans le document THESE pour obtenir le grade de (Page 28-33)

Documents relatifs