• Aucun résultat trouvé

Conlusions relatives aux expérienes numériques

3.3 Expérienes numériques [11, 14, 21℄

3.3.4 Conlusions relatives aux expérienes numériques

L'algorithme BFN(nudgingdiretet rétrograde)sembleêtreuneméthode

d'assi-milationdedonnéesextrêmementintéressante.Elleesteneettrèssimpleàmettreen

÷uvre:pasdelinéarisationdeséquations,pasdemodèleadjoint,pasd'optimisation .

Laseuletâheonsisteàajouterleterme derelaxationdansleséquationsdumodèle.

Cetalgorithmeaététestéetomparéavelaméthodevariationnellesurplusieurs

typesdesystèmesnonlinéaires:Lorenz(équationdiérentielleordinaire, haotique),

Burgers (équation aux dérivées partielles en dimension 1), Saint-Venant ou shallow

water (dimension 2), modèle quasi-géostrophique (dimension 3). La onlusion de

toutes es expérienes numériques est que notre algorithme onverge beauoup plus

rapidement quelaméthodevariationnelle, etfournit de bienmeilleurs résultatsdans

le même temps, pour les toutes premières itérations. La ondition initiale est

géné-ralement moyennement bien identiée, maislasolution orrespondante à lan de la

période d'assimilation est nettement meilleure. C'est le point lé pour la phase de

prévision, et notre algorithme se révèle beauoup plus eae pour obtenir de très

bonnesprévisions, quirestent ables dansletemps.

Les deux algorithmes (BFN et variationnel) peuvent être ombinés de la façon

suivante : puisqueleBFN identieà haqueitération une estimation delaondition

initiale,ilestpossibled'appliquerquelquesitérationsduBFN,puisutiliserlasolution

ainsi identiée omme point de départ pour la minimisation de l'algorithme

varia-tionnel. Cela a pour eet d'aélérer assez nettement la onvergene de la méthode

alors que seulesquelques (2 à 5) itérationsde BFN ont étéréalisées au départ. Sans

atteindre la onvergene (i.e. lorsque le temps de alul imparti ne permet de faire

qu'un nombre assez faible d'itérations), l'utilisation duBFN en préonditionneur de

la méthode variationnelle permet d'obtenir de bien meilleurs résultats qu'en faisant

lenombre totald'itérations ave uniquement laméthode variationnelle.

Enn, le nudging diret et rétrograde permet de prendre en ompte l'erreur

mo-dèle de façon inhérente (sans oûtadditionnel) puisqu'il onsiste justement à voir le

modèleomme uneontrainte faibleet nonommeune ontrainte forte(omme'est

généraleme nt leasdanslesméthodesvariationnelles),laorretion dumodèleétant

réalisée à l'aidedesobservations.

3.4 Prinipaux résultats théoriques de onvergene [18,

24℄

3.4.1 Cas linéaire

Nous nous plaçons d'abord dans un adre linéaire simple, qui permet de

om-prendrelasituation.Onsupposeiiquel'opérateurd'observation

C

estégalà

l'iden-tité, et quele modèle

F

est linéaire. Onsupposeégalement que

K

et

F

ommutent,

e qui est a priori le as dans nos appliations puisqu'on hoisit souvent

K

propor-tionnel à lamatrie identité. Dans e adre là, il est possible d'expliiter la solution

de l'algorithme du nudging diret et rétrograde. An de simplier onsidérablement

leséquations,onsupposeiique

K = K

,maislesrésultatsprésentésiirestentvrais

dansleas général.À l'itération

n

,

n > 1

, en supposant

T > 0

, ona

Le résultat suivant donne alors l'existene de latrajetoire limite, et expliite sa

forme [18℄ :

Souslesmêmeshypothèses,on peut prouver unrésultatsimilairepourles

traje-toiresrétrogrades, i.e. il existe une trajetoire limite

X ˜ (t)

telleque

lim

n→+∞

X ˜ n (t) = X ˜ (t)

, pour tout

t ∈ [0, T ]

. Cela prouvelaonvergene del'algorithmeBFN danse adrelà.

On peut remarquer que la solution limite (en diret omme en rétrograde) ne

dépend plus delaondition initiale

x 0

utiliséepourinitialiser l'algorithme.

Supposons à présent que les observations

X obs

soient solutions du modèle diret

(3.1).Cela impliquenotamment quepour tout

t ∈ [0, T ]

,

X obs (t) = e F t X obs (0).

(3.23)

Ensubstituantette égalitédansleséquations (3.21)et (3.22),on montrefailement

quepour tout

t ∈ [0, T ]

,

n→∞ lim X n (t) = X obs (t).

(3.24)

À noter que l'algorithme BFN a un omportement similaire sur les opérateurs

paraboliques linéaires en dimension innie, omme par exemple sur l'équation de la

haleur. Une déomposition des trajetoires sur une base de Fourier nous ramène à

l'étude d'équations diérentielles ordinaires du premier ordre sur les ÷ients, et

donnerapidement laonvergene de l'algorithmedanse aslà.

3.4.2 Équations de transport

Danstouteettepartie,nousneonsidéronsqu'uneseuleitérationdel'algorithme

BFN,'est-à-direunerésolutionduproblèmediretavenudgingetunerésolutiondu

problèmerétrograde ave nudging. Lesrésultats de déroissanede l'erreur au ours

d'une itération peuvent être étendus à un nombre quelonque d'itérations. En eet,

lesrésultatsprésentési-dessousonsistentàestimerlerapportentrel'erreuravantet

aprèsune itération. Cerapportest indépendant desitérations, et s'il eststritement

inférieurà

1

, l'algorithmeestontratant et l'erreurdéroîtexponentiellement vers

0

ave les itérations.

Nousrenvoyonsà laréférene[24℄ pour les démonstrations de tousesrésultats.

Transport linéaire visqueux

Ononsidère toutd'abord leasd'une équationde transportlinéaire ave

viso-sité.

lapériode detemps onsidérée est

t ∈ [0, T ]

;

la première équation

(F )

est appelée direte (Forward), et la seonde (B) est

appelée rétrograde (Bakward);

K

et

K

sont desfontions salairespositives, qui peuvent dépendre dutemps

t

et de la variable d'espae

x

. Pour des raisons de simpliité uniquement, on supposequ'il existeune onstante

κ ∈ R +

telle que

K (t, x) = κK (t, x)

;

le transport

a(x) ∈ W 1,∞ (Ω)

,

étant le domaine spatial, ii soit l'intervalle

[0, 1]

, soitle tore

[0, 1]

;

le÷ient de visosité

ν > 0

estonstant;

lafontiond'observations

u obs

estsolution del'équationdirete (sansnudging)

ave uneertaine onditioninitiale

u 0 obs

:

 

t u obs − ν∂ xx u obs + a(x)∂ x u obs = 0, u | x=0 = u | x=1 = 0,

u | t=0 = u 0 obs .

(3.26)

Alors, nous avons le résultat suivant sur les équations de transport linéaire

vis-queux [24℄ :

Théorème 3.3 On onsidère une itération del'algorithme BFN (3.25)ave des

ob-servations

u obs

vériant l'équation (3.26). Soient

w(t) = u(t) − u obs (t),

w(t) = e u(t) e − u obs (t),

(3.27)

les erreurs direte et rétrograde.

1. Si

K(t, x) = K

, alors pour tout

t ∈ [0, T ]

:

w(t) = e e (−K−K )(T −t) w(t).

(3.28)

2. Si

K(t, x) = K(x)

, ave Support

(K) ⊂ [a, b]

a < b

et

a 6 = 0

ou

b 6 = 1

, alors

l'équation (3.25) est mal posée : il n'existe en général pas desolution

(u, e u)

.

3. Si

K(t, x) = K

1

[t 1 ,t 2 ] (t)

ave

0 ≤ t 1 < t 2 ≤ T

,alors

e

w(0) = e (−K−K )(t 2 −t 1 ) w(0).

(3.29)

Cerésultat montre quedans le asdes équations de transport linéaire visqueux,

l'algorithme BFN onverge à ondition que le terme de rappel agisse en tout point

du domaine. Par exemple, dans le premier as du théorème 3.3, l'équation (3.28)

indique que l'erreur a été réduite d'un fateur

e (−K−K )T

au ours d'une itération.

Par onséquent, l'erreur déroît d'un fateur

e −N(K+K )T

au ours de

N

itérations, et lastritepositivitéde

K

(ou

K

) et

T

montrelaonvergene del'algorithmedans e as. Si par ontreles observations ne sont pas disponibles partout (i.e. lesupport

de

K

ne reouvre pastoutledomaine), l'algorithme ne onvergepasarleterme de

Burgers visqueux

On onsidère désormaisune équation lassique de transport non linéaire,

l'équa-tiondeBurgers, dansunasvisqueux.Onseplaeégalementdansleasd'uneseule

itération del'algorithme BFN:

(F )

 

t u − ν∂ xx u + u∂ x u = − K(u − u obs ), u | x=0 = u | x=1 = 0,

u | t=0 = u 0 ,

(B)

 

t e u − ν∂ xx e u + u∂ e x u e = K ( e u − u obs ), e

u | x=0 = u e | x=1 = 0, e

u | t=T = u(T ),

(3.30)

ave lesmêmes notationsquepréédemment .Onsupposeégalementque les

observa-tions

u obs

sontsolution de l'équationde Burgersdirete :

 

t u obs − ν∂ xx u obs + u obsx u obs = 0, u | x=0 = u | x=1 = 0,

u | t=0 = u 0 obs .

(3.31)

Alorsnousavonsle résultatsuivant [24℄ :

Théorème3.4 Si lafontion

K

n'est pasidentiquementnulle,une itération deBFN (3.30)pourl'équationdeBurgers visqueux,avedesobservations

u obs

vériant

l'équa-tion(3.31),est mal posée au sens où il n'existe pasde solution

(u, u) e

.

Dans le as partiulier où

K = K = 0

, le problème rétrograde est mal posé au

sensd'Hadamard (non ontinuitépar rapportà ladonnée nale),maisil admet une

unique solution si la ondition nale

u e | t=T

est égale à la solution nale du modèle

diret.Deplus, danse as partiulier, lasolutionrétrograde est exatement égale à

lasolutiondirete :

u(t) = e u(t)

pour tout

t ∈ [0, T ]

. Lerésultat est lesuivant [24℄ :

Proposition 3.1 Si

K = K = 0

, alors leproblème (3.30) est bien posé au sens de

Hadamard, et il existe une unique solution

(u, e u)

.De plus,

u = e u

.

L'algorithme BFN est don mal posé (sauf si

K = K = 0

) dans le as des

équations de Burgers visqueux, au sens où il n'existe pas de solution au problème

rétrograde. Toutefois, d'un point de vue numérique, nous avons obtenu de très bons

résultatssuretypedemodèle[11℄.Celas'expliquevraisemblablementparlearatère

Transport linéaire non visqueux

On onsidère désormais le as non visqueux des équations de transport linéaire.

Leséquations du BFN sont:

(F )

où le transport

a(x)

peut être onstant ou non. Nous avons alors le résultat suivant

[24℄ :

Théorème 3.5 On onsidère une itération du BFN sur le modèle (3.32), ave des

observations

u obs

qui vérient l'équation (3.32-F) ave

K = 0

. Onnote

w(t) = u(t) − u obs (t),

e

w(t) = u(t) e − u obs (t).

(3.33)

Soit

(s, ψ(s, x))

(3.34)

la ourbe aratéristique assoiée à l'équation (3.32-F) ave

K = 0

, issue de

x

à

l'instant

s = 0

,i.e. telle que

(s, ψ(s, x)) | s=0 = (0, x).

(3.35)

On suppose que le temps nal

T

est tel que les aratéristiques sont bien dénies et ne seroisent pas sur

[0, T ]

. Alorsnous avons les résultatssuivants :

1. Si

K(t, x) = K

, alors pour tout

t ∈ [0, T ]

,

Onendéduitquedansleasoùletermederappelagitsurtoutledomaine(as

1

et

2

duthéorèmepréédent),l'algorithmeBFNonvergepourleséquationsdetransport linéaire non visqueux.De plus, dans leas où lesupport de

K

ne reouvre pas tout

ledomaine (as

3

, par exemple lorsque les observations sont partielles), l'algorithme onvergedès quetoutes les ourbesaratéristiques renontrent le supportde

K

, e

qui est par exemple garanti par l'observabilité du système (voir les remarques après

laproposition3.2i-dessous).

Burgers non visqueux

On onsidère nalement le as de l'équation de Burgers non visqueux, ave des

onditionspériodiques,pouruntemps

T

telqu'auunhon'apparaissesurl'intervalle

[0, T ]

:

Ona alors lesrésultatssuivants[24℄ :

Théorème3.6 OnonsidèreuneitérationduBFNorrespondantauproblème(3.39),

ave des observations

u obs

qui vérient(3.39-F) ave

K = 0

. On note

w(t) = u(t) − u obs (t),

e

w(t) = e u(t) − u obs (t).

(3.40)

Onsuppose que

u obs ∈ W 1,∞ ([0, T ] × Ω)

, i.e. qu'il existe

M > 0

telleque

| ∂ x u obs (t, x) | ≤ M, ∀ t ∈ [0, T ], ∀ x ∈ Ω.

(3.41)

Alors, nous avonsles résultats suivants :

1. Si

K(t, x) = K

,alors pour tout

t ∈ [0, T ]

,

k w(t) e k ≤ e (−K−K +M)(T −t) k w(t) k .

(3.42)

2. Si

K(t, x) = K

1

[t 1 ,t 2 ] (t)

ave

0 ≤ t 1 < t 2 ≤ T

, alors

k w(0) e k ≤ e (−K−K )(t 2 −t 1 )+M T k w(0) k .

(3.43)

Proposition 3.2 On onsidère une résolution du problème diret (resp. rétrograde)

ave nudgingpourl'équation deBurgersnonvisqueux (3.39-F)(resp. (3.39-B)). Ave

les notationsdu théorème 3.6, si

K(t, x) = K(x)

,alors

Remarque : Dansleaspartiulier où

K(t, x) = K (x) = K

1

[a,b] (x)

,

K

est une

onstante et

[a, b]

est unsous-intervalle de

[0, 1]

, alors

w(T, ψ(T, x)) = w(0, x) exp

− Kχ(x) − Z T

0

x u obs (σ, ψ(σ, x))dσ

,

(3.45)

où lafontion

χ

est déniepar

χ(x) =

Z T

0

1

Supp(K) (ψ(σ, x))dσ

(3.46)

et désigneletemps pendant lequellaaratéristique

ψ(σ, x)

issuede

x

orrespondant à l'équation(3.39-F) ave

K = 0

appartient ausupportde

K

.

Onpeut remarquer quelesystème estobservable siet seulement sila fontion

χ

admetuneborneinférieurestritementpositive,i.e.

m := min

x χ(x) > 0

,l'observabilité étant dénie par (voir [147℄) :

∃ C, ∀ u

solution de(3.39-F) ave

K = 0, k u(T, .) k 2 ≤ C Z T

0 k K(.)u(s, .) k 2 ds.

(3.47)

Dans e as, la proposition 3.2 démontre la déroissane exponentielle globale (en

espae) de l'erreur, dumoment que

K

est plus grand que

M T

m

,

M

est dénipar

l'équation (3.41).

Nouspouvonsdéduiredeetteremarqueque,siàhaqueitération,àlafoispourla

résolution duproblème diret etdu problèmerétrograde, laonditiond'observabilité

estsatisfaite,alorsl'algorithmeonverge(l'erreurdéroîtexponentiellementvers

0

).Il

faut toutefois noterque'estune ondition susante maisnonnéessaire, armême

si

χ(x) = 0

, ladernièreexponentielle de l'équation(3.45) estbornée.

Remarques sur les résultats théoriques

Dans ertaines appliations géophysiques (par exemple la météorologie), il n'y a

pasdevisositédansleséquationsdesmodèlesnumériques.Danseas,ensupposant

que la ondition d'observabilité est vériée, alors l'algorithme du nudging diret et

rétrograde est bien posé, et le théorème 3.6 et la proposition 3.2 montrent que la

solution ainsi reonstruite tend vers la trajetoire des observations partout, et pas

seulement surlesupportde

K

.

D'un point de vue numérique, on peut eetivement onstater que même si les

observationssontdisrètesetéparpilléesentempset enespae,lasolutionnumérique

est orrigée partout et pas uniquement là où les observations agissent. Enn, si le

÷ientdevisositérestepetit,nousavonségalementonstatéqueleomportement

3.5 Lien ave les observateurs [25℄

Dans ette setion, nous faisons le lien entre le nudging standard et les

obser-vateurs du type Luenberger [129, 114℄. En utilisant les symétries intrinsèques des

modèles physiques, il est possible de dénir une lasse d'observateurs invariants par

essymétries.Ilparaît eneetjudiieux depréserverles symétriesdumodèle lorsde

l'ajout d'un terme de rappel dans les équations. L'étude des observateurs nous

per-metégalement d'améliorerlaméthode dunudgingdansleadred'unmodèleshallow

water, en orrigeant notamment les variables non observées grâe à un observateur

invariant.Cette setionrésumeles travauxontenus dans[25℄.

3.5.1 Observateurs pour un modèle shallow water

Nous onsidérons ii un modèle shallow water, analogue à elui présenté dans la

setion 3.3.3. Nous le réérivons toutefois sous une autre forme an de mieux faire

apparaîtreles symétries(nous renvoyonsà[113℄ pour plusde détails). Danslasuite,

h

désignetoujourslahauteurduuide,tandisque

v

estdésormaisleveteurvitesseà

deuxomposantes. Leséquationsonsidéréessont lessuivantes, l'équationvetorielle

pour lavitesse:

∂(hv)

∂t + ( ∇ .(hv) + (hv). ∇ ) v = − g h ∇ h − k × f(hv) + (A ∇ 2 − R)(hv) + ˜ τ

ρ i,

(3.48)

et l'équationsalaire pour la hauteurd'eau:

∂h

∂t = −∇ .(hv).

(3.49)

Danseséquations,

g

désigne lagravitéréduite,

ρ

estladensitédu uide,

f

lafore

deCoriolis,

i

estleveteurunitairelongitudinal(pointantversl'est)et

k

estleveteur

vertial (altitude). Enn,

A

,

R

et

˜ τ

sont les ÷ients de visosité latérale, frition

et forçagepar levent respetivement.

Onsuppose queseule lahauteur d'eau

h

estobservée, an de seplaer dansune

situationréalisteoù l'immensemajorité desobservationsd'un oéan proviennent des

observations satellitaires, diretement reliées à lahauteurd'eau desurfae.

Unobservateur

(ˆ h, v) ˆ

dusystème(3.48-3.49)estsolutiondeséquationssuivantes:

∂(ˆ hˆ v)

∂t +

∇ .(ˆ hˆ v) + (ˆ hˆ v). ∇ ˆ

v = − g h ˆ ∇ h ˆ − k × f(ˆ hˆ v)+(A ∇ 2 − R)(ˆ hˆ v)+ τ ˜

ρ i+F v (h, ˆ v, ˆ h)

(3.50)

et

∂ ˆ h

∂t = −∇ .(ˆ hˆ v) + F h (h, v, ˆ ˆ h).

(3.51)

Les observateurs

(ˆ h, v) ˆ

vérient les mêmes équations que les solutions réelles

(h, v)

,

àei prèsqu'elles ontiennent un terme derappel,

F v (h, v, ˆ ˆ h)

dansl'équationsur la

vitesse, et

F h (h, ˆ v, ˆ h)

dans l'équation surla hauteur d'eau. Le hoix de

F v

et

F h

est

d'abord ditépar lefaitquelesobservateurs doivent tendreverslasolution exateet

jouentdonlerledetermesderappelverslasolution,maisaussiparlessymétriesdu

système. Ces termesde rappeldoiventnotamment êtrenulslorsque

ˆ h = h

et

v ˆ = v

.

3.5.2 Utilisation des symétries du modèle

Lemodèleshallowwaterquenousonsidéronsestinvariantparrotationet

transla-tion,puisqu'ilnedépendnidel'orientation,ni del'originedurepère.Par onséquent,

nousallons herher destermes de rappelqui onservent es invarianes. La

onep-tion d'observateurs invariants (ou qui préservent les symétriesdu modèle) a été très

réemment introduite, essentiellement pour des problèmes industriels [28, 59℄.L'idée

sous-jaente est évidemment de ne pas perturber les symétries du modèle lors de

l'ajout du terme derappel versles donnéesdansles équations de l'observateur.

Pourletermesalaireportantsurlahauteurd'eau,unrésultatdealuldiérentiel

assure que tout opérateur diérentiel salaire invariant par rotation et translation

s'érit omme un polynme du Laplaien [155℄. Par des onsidérations d'invariane

par rotation[139℄, onarrive ainsiàune famille d'opérateurssalaires de laforme

F h = Q 1 (∆, h, | v ˆ | 2 , ˆ h − h) + ∇

Q 2 (∆, h, | ˆ v | 2 , ˆ h − h)

.ˆ v + f h ,

(3.52)

Q 1

et

Q 2

sont deuxpolynmessalairesduLaplaien, et

f h

estunterme intégral.

Plus préisément,

a i k

et

b i k

sont des fontionssalaires régulières qui s'annulent lorsque le troisième

argumentestnul.Demême,leterme derappelvetorielsurlavitesseestdelaforme

F v = P 1 (∆, h, | v ˆ | 2 , h ˆ − h)ˆ v + ∇

P 2 (∆, h, | v ˆ | 2 , ˆ h − h)

+ f v ,

(3.54)

où lespolynmes

P 1

et

P 2

sont dumême type que

Q 1

et

Q 2

.

On dénit alors les termes intégraux

f v

et

f h

de sorte qu'ils soient eux aussi

invariants par rotationet translation. Onobtient ainsilesformulationssuivantes:

f v (x, y, t) = ZZ h

Lessupports de

φ v

et

φ h

permettent de dénirune zone d'inuene ela a un

sensdeorrigerl'observateuravelesvaleursobservées.Dansleaspartiulieroùes

fontionssontdesfontionsDira,alors lesfontions

f v

et

f h

deviennentéquivalentes auxautres termes de

F v

et

F h

.

3.5.3 Étude d'une lasse d'observateurs dans un as linéarisé

Nous onsidérons maintenant un as simple, où on ne garde que les termes

in-tégraux des termes de orretion :

Q 1 = Q 2 = P 1 = P 2 = 0

,

R 1 = S 2 = 0

et

S 2 = R 1 = h − ˆ h

. En eet, les mesures de la hauteur d'eau étant généraleme nt bruitées,on nesouhaitepaslesdériver, equiamplierait onsidérablement lebruit.

Sans perdre en généralité, on peut également simplier les équations du modèle

(pas de fore de Coriolis, pas de frition ou dissipation par visosité, pas de forçage

parle vent,...). L'observateurpour lesystèmesimpliéest alors :

∂ ˆ h

∂t = −∇ (ˆ hˆ v) + φ h ∗ (h − ˆ h),

(3.57)

∂ˆ v

∂t = − v ˆ ∇ v ˆ − g ∇ ˆ h + φ v ∗ ∇ (h − ˆ h).

(3.58)

Dans le as dégénéré où

φ h = K h δ 0

et

φ v = K v δ 0

,

K h

et

K v

étant dessalaires

positifset

δ 0

représentantlamesuredeDiraen

0

,leséquations(3.57-3.58)deviennent laformulation lassique dunudging(ou observateur deLuenberger).

Onsuppose par ailleursque lesystème estprohe d'un état d'équilibre, et on ne

onsidèreraquedespetitesvitesses

δv = v − v ¯ ≪ p

g ¯ h

et

δh = h − h ¯ ≪ h ¯

,

¯ h

et

¯ v = 0

représententrespetivement lahauteurd'eauetvitesseduuideaupointd'équilibre.

En notant

˜ h

et

v ˜

l'éart (sur la hauteur d'eau et la vitesse respetivement) entre l'observateur et la solution réelle du système simplié et linéarisé, alors es erreurs

d'estimation vérient leséquations linéairessuivantes:

∂ ˜ h

∂t = − ¯ h ∇ ˜ v − φ h ∗ h, ˜

(3.59)

∂ v ˜

∂t = − g ∇ ˜ h − φ v ∗ ∇ ˜ h.

(3.60)

Un hoix raisonnable pour les fontions

φ h

et

φ v

onsiste à prendre des noyaux

gaussiensde laforme :

φ h (x, y) = β h exp( − α h (x 2 + y 2 )),

(3.61)

φ v (x, y) = β v exp( − α v (x 2 + y 2 )),

(3.62)

puisqu'onsupposegénéralementquelesmesuressontentahéesd'unbruitblan

gaus-sien.Toutefois, les résultats de onvergene obtenus i-dessous peuvent s'étendre au

asdenoyaux quis'érivent sousla forme:

φ h (x, y) = (f (x) ∗ f (x)) (f (y) ∗ f (y)),

(3.63)

φ v (x, y) = (g(x) ∗ g(x)) (g(y) ∗ g(y)),

(3.64)

(3.65)

f

et

g

sontdesfontionslisses(parexemple

C

),etdontles÷ientsdeFourier

En éliminant la vitesse du système d'équations (3.59-3.60), la hauteur vérie

l'équation suivante :

2 ˜ h

∂t 2 = g ¯ h∆˜ h + ¯ h φ v ∗ ∆˜ h − φ h ∗ ∂ ˜ h

∂t ,

(3.66)

qui s'apparente à une équation des ondes amortie, ave un amortissement visqueux

externe. Cetteéquation peut être réérite souslaforme suivante :

2 ˜ h

Dansesonditions, nousavonslerésultatsuivant [25℄ :

Théorème 3.7

quimontrelaonvergenefortedel'erreur vers

0

pourlesystèmelinéarisé,et donde

l'observateurverslasolutionréelle. Laonvergeneestalors étenduesansdiulté à

lavitesse

v

.

Une analysedimensionnelle permet également de prédire les valeurstypiques des

÷ientsde gaindesfontions

φ h

et

φ v

(féquations (3.61) et (3.68)) :

β h = 2ξ 0 ω 0 , ¯ hβ v = L 2 0 ω 0 2 − g h, ¯

(3.70)

ω 0

et

L 0

représentent respetivement la pulsation et la taille aratéristiques de l'éoulement ,et

ξ 0

représentele÷ientd'amortissementdusystème.Demême,les

÷ients

α h

et

α v

peuvent être déterminés a priori, en imposant

α −2 h = α −2 v

, ette

valeurétantégale à lataillearatéristique de larégion d'inuenedesobservations.

Cette dernière dépend essentiellement de la quantité de bruit sur les mesures, mais

ausside larépartitionspatiale desdonnées.

3.5.4 Expérienes numériques

Nousavonstesté numériquement lalasse d'observateurs dénis par l'ajout d'un

terme de rappel égal à

φ h ∗ (h − ˆ h)

pour la hauteur d'eau, et

φ v ∗ ∇ (h − ˆ h)

pour

la vitesse, où les fontions

φ h

et

φ v

sont dénies par les équations (3.61) et (3.62).

Diérents tests ont été réalisés sur un modèle shallow water, d'abord sur la version

simpliée etlinéarisée autourde l'étatd'équilibre, puissurlemodèleomplet et non

linéaire. Nousavonségalement testé diérentes valeursdes paramètres

α h

,

α v

,

β h

et

β v

, ave des données plus ou moins bruitées. Nous avons notamment omparé et

observateur ave lenudginglassique, ouobservateur de Luenberger, enprenant des

valeurstrès grandes pour les ÷ients

α

[25℄.

Les onlusions de es expérienes numériques sont doubles. D'une part, grâe

à laonvolution ave un noyau gaussien, il est possible d'améliorer sensiblement les

résultats du nudging lassique, en ltrant beauoup mieux les erreurs de mesure et

en répartissant spatialement l'information ontenue dans les observations. D'autre

part,les simulations numériquesmontrent quele terme de rappel dansles équations

surlavitessepermet deorrigerette dernièreasseznettement,en utilisantpourtant

uniquementdesmesuressurlahauteurd'eau.Deplus,ommelavitesseestbeauoup

plusorrigéequelorsqu'auuntermederappeln'estajouté,lahauteurd'eausetrouve

êtreelle aussimieuxorrigée, grâe au ouplageentre lesvariables d'état.

Ilfautnoterqueetteméthodeestàpeineplusoûteusequelenudgingstandard,

puisqu'ilsutenpratiquedetronquerlaonvolutionavelenoyaugaussienendehors

d'undisquedequelquespointsautourdehaqueobservation(aveunrayondel'ordre

de

5

à

10

dansnosexpérienes).

Une perspetive à ourt terme onsiste à tester ette méthode sur le système

rétrograde, e qui permettrait par la suite d'améliorer l'algorithme BFN en le

ren-dant enore moins sensible aux bruits sur les observations, et surtout en orrigeant

davantageles variables non observéesgrâes auxvariables observées.

3.6 Conlusion

L'algorithmedunudgingdiret etrétrogradequenousavonsintroduits'avèreêtre

uneméthoded'assimilationdedonnéesextrêmementprometteuse.Cetteméthodeest

en eet partiulière ment faile à mettre en ÷uvre puisqu'elle ne néessite auune

linéarisationd'opérateurs, pasd'état adjoint, et pasd'algorithme d'optimisation. La

seule tâhe qui inombe à l'utilisateur est d'ajouter le terme de relaxation dans les

équationsdu modèle.

Le BFN a été omparé ave la méthode variationnelle sur beauoup de modèles

Le BFN a été omparé ave la méthode variationnelle sur beauoup de modèles

Documents relatifs