• Aucun résultat trouvé

3.3 Mise en place d’un algorithme basé sur la novation

3.3.3 Approximation grâce à un filtre à particules

Le but de cette sous-section est de présenter une méthode pour estimer la matrice de gain de l’algorithme de la partie précédente. Pour cela on va avoir recours à un filtre à particules de type SMC. Il faut noter que le but est de pouvoir donner un algorithme qui permet d’utiliser ce que l’on a vu précédemment pour filtrer le processus X1

n. On veut donc une version de la matrice de gain qui donne le bon résultat pour le filtrage. On ne se souciera pas de savoir si on a bien reconstruit la fonction Γδ

n à partir du moment où on a bien estimé la distribution du processus X1

n.

Pour cela on va supposer que l’on n’a pas une fonction mais uniquement une matrice à estimer. On va donc supposer que Γδn(x) est constante sur la mesure réelle ηn1 du processus

Xn1. De plus on veut avoir la matrice qui correspond au niveau δ > 0 le plus bas, de manière à commettre le moins d’erreur possible.

On va utiliser un système particulaire qui contiendra des propositions Γi

n pour la matrice de gain. Les particules seront donc des couples (X1,i

n , Γi

n) pour i ∈ {1, .., N }, où

N est le nombre de particules. On aura alors la distribution de X1

n en l’estimant avec la distribution empirique des particules

ηnN = 1 N N X i=1 δX1,i n

L’algorithme va se faire en trois étapes. Avant cela on initialise les particules, la partie processus avec la distribution initiale du processus réel η1

0 et la partie matrice de gain soit de manière aléatoire soit de manière expérimentale. On a alors trois étapes qui s’en-chaînent. Pour simplifier les écritures on va introduire trois processus ˜X1

n, ¯X1

n et ˆX1

correspondent aux différentes étapes du filtrage. De même on dispose de deux processus pour décrire l’évolution des matrices de gains : ¯Γi

n et ˆΓi

n. L’initialisation correspond donc à fixer ˆX01,i suivant la loi η1

0 et fixer ˆΓi

n pour i ∈ {1, .., N }.

— Une évolution en utilisant la dynamique dans l’espace E1. Cette évolution se fait de manière indépendante pour toutes les particules, pour i ∈ {1, ., N },

˜

Xn1,i = Fn1,1( ˆXn−11,i ) + Wn1,i avec les bruits W1,i

n sont centrés, indépendants et de même loi que W1

n.

— La correction via la minimisation variationnelle. On met tout d’abord à jour la matrice de gain de chacune des particules. On calcule alors la novation associée à chacune des particules de la manière présentée dans la sous-section précédente

Nni = ¯ΓinYn1− H1

n(Fn1,1( ˆXn−11,i )) On corrige alors les particules à l’aide de cette novation

¯

Xn1,i = ˜Xn1,i+ Nni

— La sélection classique du filtre SMC. On rééchantillonne les particules( ¯Xn1,i, ¯Γin)

i∈{1,..,N }

en utilisant la fonction vraisemblance du processus X1

n. On obtient alors les parti-cules ( ˆX1,i

n , ˆΓi n)

i.

On représente graphiquement cet algorithme par la figure 3.5. Il permet d’estimer la distribution du processus réel X1

n à l’aide de trois mesures empiriques. ˜ ηn1,N = 1 N N X i=1 δX˜1,i n , η¯n1,N = 1 N N X i=1 δX¯1,i n , ηˆ1,Nn = 1 N N X i=1 δXˆ1,i n

Elles représentent respectivement les mesures sans novation, a priori et a posteriori. On peut ainsi estimer la mesure conditionnelle E[X1

n|Y1 [0:n]]. ˆ Xn−11,1 Mutation X˜n1,1 Correction X¯n1,1 Xˆ1,1 n ˆ

Xn−11,i Mutation X˜n1,i Correction X¯n1,i Xˆ1,i

n ˆ Xn−11,N Mutation X˜n1,N Correction X¯n1,N Xˆ1,N n Sélection Particule 1 Particule i Particule N

Figure 3.5 – Représentation de l’algorithme avec minimisation variationnelle et l’esti-mation particulaire

empiriques convergent, suivant le nombre de particules, vers la vraie distribution. On prouve dans un premier temps un résultat de convergence en moyenne avec une vitesse de convergence.

Théorème 7. Soit G l’ensemble des fonctions mesurables bornées avec pour tout f ∈ G, kf kOsc ≤ 1. On suppose que le semi-groupe Φp,n, qui représente l’évolution du processus, est asymptotiquement stable, ce qui veut dire qu’il vérifie

lim n→∞ sup µ,ν∈P(E) sup q≥0q,q+n(µ) − Φq,q+n(ν)kG = 0

On suppose de plus que le processus vérifie l’hypothèse (G) avec inf

n≥1εn(G) = ε(G) > 0.

On a alors la convergence uniforme en temps :

lim N →∞ sup n≥0 E ηn1,N − η1 nkG  = 0

Si on suppose de plus que le semi-groupe Φp,n est exponentiellement stable, ce qui veut

dire qu’il existe λ > 0 et n0 ≥ 0 tels que pour n ≥ n0

sup

µ,ν∈P(E)

sup

q≥0

q,q+n(µ) − Φq,q+n(ν)kG ≤ e−λn

On a alors pour tout p ≥ 1 l’estimation uniforme

sup n≥0 Nα/2E  1 n− ˆηn1,NkpG 1 p ≤ a(p)1 + eλ0I(G)

à partir du moment où N ≥ exp2n0(λ + λ0) avec

λ0 = 1 + log  1 ε(G)  et α = λ λ + λ0

et a(p) est une constante qui dépend uniquement de p.

Démonstration. La démonstration se fait en concaténant le résultat de la sous-section

précédente E  n1 − ˆηn1kpG | ηn−1 !1/p = 0

avec le Theorem 7.4.5 de [54] (qui correspond au Théorème 2 du manuscrit) lim

N →+∞ sup

n≥0 E[kˆη1n− ˆη1,Nn kG] = 0

étant donné que l’on vérifie toutes les hypothèses pour avoir ces deux résultats.

Il faut remarquer que, étant donné que les fonctions de G vérifient kf kOsc < 1, on a

directement que I(G) < ∞. La convergence peut être caractérisée à l’aide d’un résultat de type théorème central limite, et donc être en mesure de donner la convergence des moments d’ordre supérieur.

Théorème 8. On suppose que l’hypothèse (G) est vérifiée avec I(G) < ∞. Le processus

empirique d’estimation

WnN : f ∈ G → WnN =√

Nηˆ1,Nn (f ) − ηn1(f )

converge en loi dans l(G), l’espace borné des suites d’éléments de G, vers le processus

Gaussien centré Wn(f ), f ∈ G.

Démonstration. Soit f ∈ G, on peut décomposer le processus WnN en deux termes

WnN(f ) =

Nηˆn1,N(f ) − ˆηn1,C(f )+√

Nηˆn1,C(f ) − ηn1(f ) Le Théorème 9.6.1 de [54] nous donne la convergence du premier terme √

Nηˆ1,Nn − ˆη1,Cn 

vers un processus Gaussien centré suivant le nombre de particules N .

Le second terme est borné par δ > 0 aussi petit qu’on le souhaite (voir démonstration du Théorème 6). En faisant tendre δ vers 0, on peut alors conclure sur la convergence de

WnN(f ) vers un processus centré Gaussien Wn(f ).

On a donc développé un algorithme qui est en mesure de résoudre le problème posé au début de ce chapitre. C’est un algorithme basé sur le fait que, à chaque pas de temps, on est capable d’estimer correctement l’erreur commise en négligeant l’influence du processus dans le sous-espace orthogonal. Pour cela on suppose que l’on dispose d’un nombre suffi-samment grand de particules et d’une estimation de la distribution initiale du processus

η1

0 très précise. A priori cela peut poser un problème en pratique, cependant on verra que la structure robuste du filtre basé sur la minimisation variationnelle et le fait que nos processus soient observables au sens de [36] font que le fait de partir d’une mauvaise distribution peut être corrigé en quelques pas de temps.

Notre but est donc maintenant de valider notre algorithme par des cas applicatifs. Pour cela il faut fixer un problème un peu plus général que celui que l’on a traité depuis le début de ce chapitre. On va prendre le cadre de l’erreur modèle. L’objectif est d’être capable de corriger l’erreur commise par un modèle pour éviter qu’elle prenne le pas et génère une déviation du modèle vis-à-vis de la réalité.