• Aucun résultat trouvé

3.3 Mise en place d’un algorithme basé sur la novation

3.3.3 Approximation grâce à un filtre à particules

Le but de cette sous-section est de présenter une méthode pour estimer la matrice de gain de l’algorithme de la partie précédente. Pour cela on va avoir recours à un filtre à particules de type SMC. Il faut noter que le but est de pouvoir donner un algorithme qui permet d’utiliser ce que l’on a vu précédemment pour filtrer le processus X1

n. On veut

donc une version de la matrice de gain qui donne le bon résultat pour le filtrage. On ne se souciera pas de savoir si on a bien reconstruit la fonction Γδ

n à partir du moment où on

a bien estimé la distribution du processus X1

n.

Pour cela on va supposer que l’on n’a pas une fonction mais uniquement une matrice à estimer. On va donc supposer que Γδn(x) est constante sur la mesure réelle ηn1 du processus

Xn1. De plus on veut avoir la matrice qui correspond au niveau δ > 0 le plus bas, de manière à commettre le moins d’erreur possible.

On va utiliser un système particulaire qui contiendra des propositions Γi

n pour la

matrice de gain. Les particules seront donc des couples (X1,i

n , Γin) pour i ∈ {1, .., N }, où

N est le nombre de particules. On aura alors la distribution de X1

n en l’estimant avec la

distribution empirique des particules

ηnN = 1 N N X i=1 δX1,i n

L’algorithme va se faire en trois étapes. Avant cela on initialise les particules, la partie processus avec la distribution initiale du processus réel η1

0 et la partie matrice de gain soit de manière aléatoire soit de manière expérimentale. On a alors trois étapes qui s’en- chaînent. Pour simplifier les écritures on va introduire trois processus ˜X1

correspondent aux différentes étapes du filtrage. De même on dispose de deux processus pour décrire l’évolution des matrices de gains : ¯Γi

n et ˆΓin. L’initialisation correspond donc

à fixer ˆX01,i suivant la loi η1

0 et fixer ˆΓin pour i ∈ {1, .., N }.

— Une évolution en utilisant la dynamique dans l’espace E1. Cette évolution se fait de manière indépendante pour toutes les particules, pour i ∈ {1, ., N },

˜

Xn1,i = Fn1,1( ˆXn−11,i ) + Wn1,i avec les bruits W1,i

n sont centrés, indépendants et de même loi que Wn1.

— La correction via la minimisation variationnelle. On met tout d’abord à jour la matrice de gain de chacune des particules. On calcule alors la novation associée à chacune des particules de la manière présentée dans la sous-section précédente

Nni = ¯ΓinYn1− H1 n(F 1,1 n ( ˆX 1,i n−1)) 

On corrige alors les particules à l’aide de cette novation ¯

Xn1,i = ˜Xn1,i+ Nni

— La sélection classique du filtre SMC. On rééchantillonne les particules( ¯Xn1,i, ¯Γin)

i∈{1,..,N }

en utilisant la fonction vraisemblance du processus X1

n. On obtient alors les parti-

cules ( ˆX1,i

n , ˆΓin)



i.

On représente graphiquement cet algorithme par la figure 3.5. Il permet d’estimer la distribution du processus réel X1

n à l’aide de trois mesures empiriques.

˜ ηn1,N = 1 N N X i=1 δX˜1,i n , η¯ 1,N n = 1 N N X i=1 δX¯1,i n , ηˆ 1,N n = 1 N N X i=1 δXˆ1,i n

Elles représentent respectivement les mesures sans novation, a priori et a posteriori. On peut ainsi estimer la mesure conditionnelle E[X1

n|Y[0:n]1 ]. ˆ

Xn−11,1 Mutation X˜n1,1 Correction X¯n1,1 Xˆ1,1

n

ˆ

Xn−11,i Mutation X˜n1,i Correction X¯n1,i Xˆ1,i

n ˆ Xn−11,N Mutation X˜n1,N Correction X¯n1,N Xˆ1,N n Sélection Particule 1 Particule i Particule N

Figure 3.5 – Représentation de l’algorithme avec minimisation variationnelle et l’esti- mation particulaire

empiriques convergent, suivant le nombre de particules, vers la vraie distribution. On prouve dans un premier temps un résultat de convergence en moyenne avec une vitesse de convergence.

Théorème 7. Soit G l’ensemble des fonctions mesurables bornées avec pour tout f ∈ G,

kf kOsc ≤ 1. On suppose que le semi-groupe Φp,n, qui représente l’évolution du processus,

est asymptotiquement stable, ce qui veut dire qu’il vérifie

lim

n→∞ µ,ν∈P(E)sup supq≥0q,q+n(µ) − Φq,q+n(ν)kG = 0

On suppose de plus que le processus vérifie l’hypothèse (G) avec inf

n≥1εn(G) = ε(G) > 0.

On a alors la convergence uniforme en temps :

lim N →∞ supn≥0 E  kˆηn1,N − η1 nkG  = 0

Si on suppose de plus que le semi-groupe Φp,n est exponentiellement stable, ce qui veut

dire qu’il existe λ > 0 et n0 ≥ 0 tels que pour n ≥ n0 sup

µ,ν∈P(E)

sup

q≥0

q,q+n(µ) − Φq,q+n(ν)kG ≤ e−λn

On a alors pour tout p ≥ 1 l’estimation uniforme

sup n≥0 Nα/2E  1 n− ˆη 1,N n k p G 1 p ≤ a(p)1 + eλ0I(G)

à partir du moment où N ≥ exp2n0(λ + λ0)

 avec λ0 = 1 + log  1 ε(G)  et α = λ λ + λ0

et a(p) est une constante qui dépend uniquement de p.

Démonstration. La démonstration se fait en concaténant le résultat de la sous-section

précédente E  n1 − ˆηn1kpG | ηn−1 !1/p = 0

avec le Theorem 7.4.5 de [54] (qui correspond au Théorème 2 du manuscrit)

lim

N →+∞ supn≥0 E[kˆη

1

n− ˆη1,Nn kG] = 0

étant donné que l’on vérifie toutes les hypothèses pour avoir ces deux résultats.

Il faut remarquer que, étant donné que les fonctions de G vérifient kf kOsc < 1, on a

directement que I(G) < ∞. La convergence peut être caractérisée à l’aide d’un résultat de type théorème central limite, et donc être en mesure de donner la convergence des moments d’ordre supérieur.

Théorème 8. On suppose que l’hypothèse (G) est vérifiée avec I(G) < ∞. Le processus

empirique d’estimation

WnN : f ∈ G → WnN =√Nηˆ1,Nn (f ) − ηn1(f )

converge en loi dans l(G), l’espace borné des suites d’éléments de G, vers le processus

Gaussien centré Wn(f ), f ∈ G.

Démonstration. Soit f ∈ G, on peut décomposer le processus WnN en deux termes

WnN(f ) =Nηˆn1,N(f ) − ˆηn1,C(f )+√Nηˆn1,C(f ) − ηn1(f )

Le Théorème 9.6.1 de [54] nous donne la convergence du premier terme √Nηˆ1,Nn − ˆη1,Cn 

vers un processus Gaussien centré suivant le nombre de particules N .

Le second terme est borné par δ > 0 aussi petit qu’on le souhaite (voir démonstration du Théorème 6). En faisant tendre δ vers 0, on peut alors conclure sur la convergence de

WnN(f ) vers un processus centré Gaussien Wn(f ).

On a donc développé un algorithme qui est en mesure de résoudre le problème posé au début de ce chapitre. C’est un algorithme basé sur le fait que, à chaque pas de temps, on est capable d’estimer correctement l’erreur commise en négligeant l’influence du processus dans le sous-espace orthogonal. Pour cela on suppose que l’on dispose d’un nombre suffi- samment grand de particules et d’une estimation de la distribution initiale du processus

η1

0 très précise. A priori cela peut poser un problème en pratique, cependant on verra que la structure robuste du filtre basé sur la minimisation variationnelle et le fait que nos processus soient observables au sens de [36] font que le fait de partir d’une mauvaise distribution peut être corrigé en quelques pas de temps.

Notre but est donc maintenant de valider notre algorithme par des cas applicatifs. Pour cela il faut fixer un problème un peu plus général que celui que l’on a traité depuis le début de ce chapitre. On va prendre le cadre de l’erreur modèle. L’objectif est d’être capable de corriger l’erreur commise par un modèle pour éviter qu’elle prenne le pas et génère une déviation du modèle vis-à-vis de la réalité.