• Aucun résultat trouvé

Quelques remarques

• Filtrage et lissage : la plante ´etant mesur´ee `a un cycle Tobs donn´e, nous diposons de toutes les donn´ees y0:Tobs d`es le d´epart. Dans cette situation, les m´ethodes de lissage sont `a privil´egier pour l’estimation des param`etres du mod`ele. Cependant, nous avons choisi de travailler avec des m´ethodes de filtrage. En effet, une it´eration compl`ete d’une m´ethode de lissage dure approximativement deux fois plus longtemps que celle d’une m´ethode de filtrage du mˆeme type (par exemple filtre de Kalman et lisseur de Kalman). L’estimation fournie par la m´ethode de lissage est certes meilleure que celle fournie par une m´ethode de filtrage apr`es une it´eration mais ce n’est plus le cas si l’on compare une it´eration de lissage avec deux it´erations successives de filtrage. Ainsi le ratio qualit´e de l’estimation sur temps d’ex´ecution est plus en faveur des m´ethodes de filtrage que de lissage dans cette th`ese.

N.B. 7.17 Le lissage est `a privil´egier en g´en´eral car il utilise toute l’information y0:Tobs `

a chaque ´etape de l’algorithme. Cependant, dans cette th`ese, les algorithmes sont r´ep´et´es de nombreuses fois `a la suite, chacune des nouvelles it´erations reprenant le vecteur de param`etres r´esultant de l’it´eration pr´ec´edente. En faisant ainsi, les m´ethodes de filtrage utilisent ´egalement toute l’information y0:Tobs mais en d´ecal´e d’une it´eration `a l’autre.

• Calibrage des « autres » param`etres du mod`ele : Certains param`etres fix´es intervenant dans les algorithmes (par exemple, le nombre de particules M n´ecessaire pour permettre `a l’estimateur de converger) peuvent varier suivant les mod`eles ´etudi´es. Lorsque l’on travaille avec des donn´ees simul´ees selon un mod`ele de plante pr´ecis, ces param`etres sont d´etermin´es par la pratique (on connaˆıt alors la vraie valeur du jeu Θf onc, il suffit d’ajuster les param`etres fix´es pour retrouver cette valeur par les m´ethodes d’es-timation). Dans le cas de donn´ees obtenues `a partir de plantes r´eelles, cette d´emarche ne peut plus ˆetre appliqu´ee puisque l’on ne connaˆıt pas a priori Θf onc. Pour contourner ce probl`eme, il suffit d’ajuster les param`etres fix´es `a partir de donn´ees simul´ees cor-respondant `a un mod`ele de plante ´equivalent (il faut choisir un mod`ele de plante avec les mˆemes temps d’expansion et d’activit´e, les mˆemes r`egles de production et le mˆeme nombre de param`etres dans Θf onc). Les param`etres ainsi calibr´es sont bien adapt´es pour traiter les vraies donn´ees.

7.4 Estimation des bruits et distribution des

para-m`etres

Dans cette section, nous proposons tout d’abord des estimateurs pour les variances Kn et matrices de covariance Rn, n ∈ N, associ´ees respectivement aux bruits de mod´e-lisation et aux bruits de mesure (section 7.4.1). Les estimateurs sont obtenus `a partir de l’estimation des ´etats cach´es augment´es du syst`eme dynamique. Il est `a noter que cette proc´edure n’est possible que parce que l’estimation de ces ´etats ne d´epend pas du choix des bruits pourvu que ceux-ci v´erifient certaines conditions (voir la section 7.3.4). Le deuxi`eme point de cette section est la mise en place d’une proc´edure pour obtenir la distribution a posteriori du vecteur de param`etres θf onc(section 7.4.2). Cette technique repose sur l’utilisation du bootstrap param´etrique (voir Bradley and Tibshirani (1994)).

Pour toute la section, nous supposons que les bruits de mod´elisation {ωn, }n≥0 sont des copies ind´ependantes d’une mˆeme variable al´eatoire ω centr´ee et de variance K. Nous avons donc :

∀n ≥ 0, Kn= Kn+1 = K.

7.4.1 Estimation des bruits de mod´elisation et de mesure

Une m´ethode d’estimation des variances K et σ2o est propos´ee dans cette section dans le cas o`u l’´evolution de la structure {Nn}n≥0 est d´eterministe. A titre de rappel, K est associ´e au bruit de mod´elisation ωn dans l’´equation de production (7.7) :

Qn = Φn(Q(n−Tact)+, . . . , Qn−1, N0→n, En, Θf onc)(1 + ωn), n ≥ 1.

La variance σo2 est associ´ee `a l’erreur de mesure on(i) de la masse d’un organe de type o ∈ O (voir ´equation (7.2)) :

MTo

obs+1,Tobs+1−n(i) =

min(Tobs+1−n,To exp)−1

X

l=0

Aln+lo,l (Qn+l, N0→n+1+l, Θf onc)+on(i), i = 1, . . . ,N o n.

Nous supposons que les ´etats cach´es du syst`eme dynamique ont ´et´e estim´es par une des quatre m´ethodes d’inf´erence bay´esienne `a partir d’un ensemble de donn´ees y0:N. Grˆace `

a ces estimations, nous en d´eduisons :

– l’estimation ˆΘf onc du vecteur de param`etres Θf onc;

– l’estimation ˆQn des quantit´es de biomasse Qn cr´e´ees au cycle de d´eveloppement n ∈ {0, . . . , Tobs}.

L’estimateur ˆKTobs de K est alors d´efini de la fa¸con suivante :

D´efinition 7.4.1 (Estimateur de K) L’estimateur ˆKTobs de K est donn´e par :

ˆ KTobs = 1 Tobs− 1 Tobs X n=1 ˆQ n− Φn( ˆQ(n−Tact)+, . . . , ˆQn−1, N0→n, En, ˆΘf onc) Φn( ˆQ(n−Tact)+, . . . , ˆQn−1, N0→n, En, ˆΘf onc) !2

La terme ( ˆQn−Φn( ˆQ(n−Tact)+, . . . , ˆQn−1, N0→n, En, ˆΘf onc))/ ˆQnpeut s’interpr´eter comme une r´ealisation de la variable al´eatoire centr´ee ω. L’estimateur fourni par la d´efinition 7.4.1 est bien alors un estimateur de la variance de ω c’est-`a-dire de K. De fa¸con ana-logue, nous donnons un estimateur ˆσo

Tobs pour l’´ecart-type σo associ´e `a la mesure de la masse d’un organe de type o ∈ O :

D´efinition 7.4.2 (Estimateur de σo) L’estimateur ˆσo

Tobs de σo est donn´e par :

ˆ σTo obs 2 = 1 Tobs− 1 Tobs X n=1 N o n  (yn)omin(Tobs+1−n,To exp)−1 X l=0 Alo,ln+l( ˆQn+l, N0→n+1+l, ˆΘf onc)   2 . avec N o

n le nombre d’organes de type o cr´e´es au cycle n et (yn)o = Mo

Tobs+1,Tobs+1−n leur masse moyenne (cf section 7.1.1).

7.4. Estimation des bruits et distribution des param`etres 167

Il est alors facile d’en d´eduire un estimateur ˆRn de la matrice de covariance Rn associ´ee `

a Yn :

D´efinition 7.4.3 (Estimateur de Rn) L’estimateur ˆRn de Rn est donn´e par la ma-trice diagonale dont les ´el´ements diagonaux sont les composantes du vecteur(. . . , (ˆσTo

obs)2/No

n, . . .)o∈O. N.B. 7.18 L’´etude th´eorique de ces estimateurs n’est pas faite dans cette th`ese.

7.4.2 Distribution a posteriori des param`etres

Un fois que les matrices de covariance associ´ees aux bruits de mod´elisation et de mesure sont connues (qu’elles soient fix´ees ou estim´ees), il est possible de d´eterminer la distribution a posteriori du vecteur de param`etres Θf onc en utilisant une proc´edure de bootstrap param´etrique. Nous pouvons alors en d´eduire un intervalle de confiance pour chacun des param`etres estim´es. Supposons dans un premier temps que les bruits de mod´elisation et de mesure sont inconnus et que l’on cherche `a les estimer en priorit´e. La proc´edure est alors la suivante :

1. R´ecolter un jeu de donn´ees y0:Tobs.

2. Estimer les vecteurs d’´etats cach´es xan en choisissant K < 10−2 et Rn une matrice diagonale dont les ´el´ements diagonaux sont inf´erieurs `a 10−2. On obtient alors une estimation de la biomasse cr´e´ee `a chaque cycle de d´eveloppement donn´ee par ˆQn, n ∈ {0, . . . , Tobs}, et une estimation du vecteur de param`etres ˆΘf onc.

3. Calculer les estimations des variances des bruits de mod´elisation et de mesure donn´ees par ˆK et ˆRn.

4. G´en´erer un ensemble de donn´ees fictives y0:T(i)

obs avec i ∈ {1, . . . , 200} `a partir des bruits estim´es ˆK et ˆRn.

5. Estimer `a nouveau le vecteur de param`etres Θf onc pour chaque jeu de donn´ees y0:T(i)

obs, i ∈ {1, . . . , 200}, en attribuant aux bruits la valeur donn´ee par les estima-tions ˆK et ˆRn. Le r´esultat est not´e ˆΘ(i)f onc.

6. D´eterminer la distribution exp´erimentale de l’ensemble { ˆΘ(i)f onc, i = 1, . . . , 200} et les intervalles de confiance associ´es `a chacun des param`etres.

Rappelons une nouvelle fois que, dans les ´etapes 2 et 5 de la proc´edure d´ecrite ci-dessus, l’estimation des ´etats cach´es augment´es d´epend peu des bruits pourvu qu’ils v´erifient la condition qu’on leur impose (cf section 7.3.4). En particulier, le fait que l’on impose une forme particuli`ere `a la matrice de covariance Lnassoci´ee au vecteur gaussien Un (voir l’´equation d’´evolution (7.13) associ´ee `a Θf onc) n’influence en rien la m´ethode ci-dessus. En effet, nous n’avons besoin de Ln que pour l’estimation des param`etres et non pour g´en´erer les nouvelles donn´ees de l’´etape 4 (ce sont ces nouvelles donn´ees qui vont permettre d’obtenir la distribution a posteriori ). Dans le cas o`u les bruits de mod´elisation et de mesure sont fix´es, la proc´edure associ´ee est la mˆeme que ci-dessus en ne conservant que les ´etapes 4 `a 6 et en g´en´erant les donn´ees fictives `a partir des valeurs fix´ees des matrices de covariance.

Nous avons appliqu´e cette m´ethode au cas-test 1 pour le filtre de Kalman sans parfum, le filtre particulaire et le filtre particulaire convol´e. Les estimations des bruits de mod´elisation et de mesure pour chacune des m´ethodes sont donn´ees dans le tableau 7.11.

Vraie valeur FK FP FPC

K 6.25 × 10−4 6.453 × 10−4 3.257 × 10−3 3.039 × 10−3 σo 2.5 × 10−2 2.976 × 10−2 4.781 × 10−2 4.491 × 10−2

Tab. 7.11 – Estimation des bruits de mod´elisation et de mesure pour un jeu de donn´ees du cas-test simple. FK = Filtre de Kalman. FP = Filtre Particulaire. FPC = Filtre Particulaire Convol´e.

Les distributions a posteriori empiriques sont donn´ees par la figure 7.8 et les inter-valles de confiance par le tableau 7.12.

Fig. 7.8 – Histogrammes des distributions a posteriori du vecteur de param`etres Θf onc

pour chacune des trois m´ethodes.

Ces r´esultats nous confirment `a nouveau que les estimations des param`etres µ et Sp

sont plus pr´ecises avec le filtre particulaire convol´e. Le filtre de Kalman est plus pr´ecis pour l’estimation des puits. Notons de fa¸con g´en´erale que la variance des estimations est toujours plus importante pour µ et Sp que pour les puits. Ces deux param`etres sont plus difficiles `a estimer.