• Aucun résultat trouvé

Nous avons discuté les problèmes de mise en ÷uvre du ltre particulaire dans un cadre général de pronostic. Ce chapitre propose une adaptation de l'outil au cas de la PEMFC. La revue de littérature a mis en avant deux aspects de réexion concernant les ltres :

 un aspect programmation et fonctionnement du ltre,

 et un aspect validation de cet outil dans le cadre du pronostic.

Ces deux aspects peuvent être étudiés conjointement sur la PEMFC en mettant en place un plan de test susamment complet.

1.1 Plan de test

.Fonctionnement du ltre. Concernant la partie programmation et fonctionnement, les problématiques principales qui ressortent de l'analyse précédente sont liées au choix du ltre (échantillonnage préférentiel, ré-échantillonnage, méthode de migration des par- ticules vers les zones de forte likelihood), au choix de la fonction de likelihood et à l'intégration de la connaissance du système dans le ltre. Il ne faut pas oublier éga- lement la procédure post-ltre utilisée pour propager les particules. Nous ne pouvons pas travailler sur toutes ces problématiques en même temps, nous avons donc choisi de travailler sur quatre aspects en particulier :

1. le choix du ré-échantillonnage,

2. l'intégration de la connaissance du système au ltre, 3. le choix de la fonction de likelihood,

4. le choix de la méthode de propagation post-ltre.

Ceci est eectué avec une base de SIR. En eet, une remarque qui ressort de l'analyse précédente est que certaines approches d'échantillonnage préférentiel et de gestion des particules complexes ne semblent pas se justier. Dans le cas où le SIR n'orirait pas des résultats satisfaisants, nous reconsidérerions cette remarque.

.Aller vers une validation de la méthode. Valider une approche de pronostic est une tâche délicate. Avant même de parler de validation industrielle, il faut pouvoir fournir des preuves aux niveaux des approches de recherche. Comment fournir ces preuves à partir d'une littérature qui se disperse et dont les travaux ne sont pas comparables les uns aux autres ? A l'heure actuelle, nous ne sommes pas capables de discuter précisément de l'inuence de la modélisation sur les résultats donnés par le ltre, de celle du prol de mission ou encore celle du fonctionnement du ltre. Pour faire un premier pas vers le processus de validation, le plan de test qui est élaboré est appliqué dans un premier temps à deux jeux de données, J1 et J4. Pour être en mesure de commenter l'inuence de la modélisation, les expérimentations sur J1 sont réalisées une première fois avec le modèle élaboré en Partie IIIpuis une seconde fois avec une modélisation empirique de la forme a.eb.t+ c.ed.t.

 Cas 1 : J1 + modèle empirique,  Cas 2 : J1 + modèle de la partieIII,  Cas 3 : J4 + modèle de la partieIII.

Dans chacun des trois cas, 9 procédures de ré-échantillonnages dont 4 ajustant le nombre de particules de façon autonome, et 6 formes de fonctions de likelihood sont testées. Par la suite, le modèle empirique est noté Memp et le modèle de la partieIII, Mφ.

1.2 Choix des procédures de ré-échantillonnage

.Ré-échantillonnages sélectionnés.

- Nous avons déjà mentionné l'existence d'un travail de comparaison de 4 ltres de type SIR avec des procédures de ré-échantillonnage diérentes (systématique, multinomiale, stratiée, résiduelle) [85]. Cependant, le manque de points de comparaison pour la discus- sion des résultats avait été souligné. Pour pallier ce manque, nous décidons donc d'inclure ces 4 ltres dans notre plan de test. Le choix des procédures systématique, multinomiale, stratiée et résiduelle se justie donc essentiellement par la volonté de comparer nos résultats avec ceux de [85]. Ce sont également des procédures de base largement utilisées donc pas inintéressantes à comparer.

- Les ré-échantillonnages précédents fonctionnent avec un nombre de particules xe. Un cinquième ltre utilisant un nombre xe s'ajoute à cette liste : le SIR avec ré- échantillonnage partiel. Le ré-échantillonnage partiel propose de traiter diéremment les particules en fonction de leur poids [152]. Dans un premier temps, les particules sont classées en fonction de leur poids (négligeable, modéré ou dominant). Ensuite, chaque groupe est ré-échantillonné séparément suivant diérentes procédures. Cette procédure a été sélectionnée pour examiner l'apport d'un traitement diérent en fonction de la pondération sur l'estimation de l'état et sur la dispersion des particules.

Il a été mis en avant lors des discussions précédentes que l'utilisation de ltres capables de faire varier automatiquement le nombre de particules en fonction des besoins de l'esti- mation est très intéressante, notamment pour gagner en vitesse si le nombre de particules initial est surestimé. Les procédures à nombre de particules variables et qui n'obligent pas à un changement de structure du ltre sont peu nombreuses. Pour permettre une comparaison avec les 5 ltres à N xe, la base SIR est gardée, seul l'algorithme de ré-échantillonnage varie. Les algorithmes choisis sont : la réallocation, le branching, le rounding et le résiduel systématique (abrégé RSR). L'utilisation d'algorithmes tels que le KLD ou le ré-échantillonnage déterministe avait également été envisagés. Cependant l'approche essai-erreur préconisée par la littérature pour le réglage de ces procédures n'a pas permis de trouver le paramétrage adéquat pour obtenir des résultats présentables. - La réallocation trie les particules en comparant leur poids à un seuil xé à 1/N. C'est ce qu'on appelle une méthode à base de rejet, le ré-échantillonnage est eectué sur une partie des particules seulement. Cela se traduit par une complexité de calcul réduite et

un temps d'exécution plus court. Si cette méthode s'avère performante, elle est intéres- sante en terme d'implantation en système réel.

- Les procédures de branching et rounding font partie de la même catégorie d'algorithmes. Elles utilisent toutes les deux des probabilités basées sur le produit N.wi pour dénir le

nombre de particules à garder mais de manières légèrement diérentes. Dans le rounding, cette valeur est arrondie à l'entier le plus proche. Nous aurions pu en sélectionner qu'une seule des deux mais il semble pertinent de vérier si la petite diérence entre les deux a une réelle incidence sur les résultats.

- Enn, le RSR est une variante des procédures systématique et multinomiale. Le RSR accumule les contributions fractionnées de chaque particule d'une séquence jusqu'à ce que cela devienne assez important pour donner un échantillon. Cette procédure peut être utilisée avec un nombre xe ou variable de particules. Le gain de temps est bien sûr plus intéressant avec un nombre variable.

Les détails de chacune des procédures de ré-échantillonnage sont disponibles en An- nexeH.

.Inuence des processus stochastiques. Le ré-échantillonnage faisant entrer en jeu des processus stochastiques, il est intéressant de connaître l'inuence de ces phénomènes. Dans la plupart des applications à base de ltre particulaire, les expérimentations sont réalisées un grand nombre de fois et les résultats moyennés. Les discussions portent alors sur une moyenne qui peut potentiellement comprendre des résultats excellents mais aussi de beaucoup moins bons noyés au milieu. Nous réalisons chaque estimation 50 fois. Cela nous permet de réaliser des statistiques, rééchir sur la capacité de l'outil à reproduire les résultats et à l'utilité réelle de lancer autant de fois le ltre pour avoir des résultats.

1.3 Propositions de nouvelles fonction de likelihood

Traditionnellement, la forme de la fonction de likelihood est donnée par la distribution du bruit de l'équation d'observation. L'analyse de la littérature a montré que celle-ci est toujours choisie gaussienne même lorsque le bruit est inconnu. Nous proposons de s'aranchir de cette hypothèse gaussienne et de s'éloigner de la théorie en dénissant la likelihood par rapport à ce qu'elle représente dans le processus de sélection : la concor- dance entre la dernière mesure et la prédiction du modèle.

Dans la plupart des applications utilisant un modèle à comparer à des données, cette concordance s'obtient par l'étude de l'erreur qui peut être relative, absolue ou sous d'autres formes plus évoluée (RSE, RMSE, etc.). Cette idée peut être également appli- quée à la likelihood : les particules présentant l'erreur relative (équation72) ou absolue (équation 73) la plus petite auront un poids plus élevé que les autres. Pour gérer les points aberrant qui n'auraient pas été préalablement ltrés, on peut également dénir une likelihood sur la trajectoire. Pour éviter une éventuelle compensation entre signes positif et négatif, la likelihood est dénie par rapport à l'erreur absolue cumulée sur la

trajectoire (équation74). Enn, on peut se demander si avoir une information combinée entre la concordance d'une particule à un instant t donné et celle de sa trajectoire passée n'améliorerait pas l'estimation. La question qui se pose à ce moment-là est comment pondérer chacune des mesures. On testera donc deux possibilités : (1) un poids déni par la somme des 2 likelihood (équation75) et (2) un poids déni par la somme pondérée à 75% par la trajectoire et 25% par la position de la particule à l'instant T (équation76). Pour être en mesure de discuter de l'intérêt de ces propositions, nous les comparons bien sûr à la forme gaussienne habituelle (équation71).

L1(T, i) = √ 1 2πσiT.exp(− 1 2.( yT − xiT σi T )2) (71) L2(T, i) = 1 yT − xiT + σiT (72) L3(T, i) = 1 abs(yT − xiT + σTi) (73) L4(T, i) = 1 1 T PT t=1.abs(yt− xit+ σit) (74) L5(T, i) = L3(T, i) + L4(T, i) (75) L6(T, i) = 0.75xL3(T, i) + 0.25xL4(T, i) (76) On notera dans ces équations la présence du paramètre σ. Bien que nous ne fassions pas d'hypothèse sur la forme de la distribution du bruit, il faut tout de même tenir compte de son éventuelle présence. Sur les signaux J1 à J3, nous avons eectué un ltrage puis un lissage, les uctuations dues au bruit n'apparaissent donc plus, σ n'est donc pas nécessaire. Pour J4, le bruit restant est d'une amplitude très faible. En regardant l'enveloppe du bruit, on se rend compte que σ est de l'ordre de 0.01. Comme cette valeur peut uctuer, nous intégrons ce paramètre au vecteur d'état et laissons le ltre l'ajuster.

1.4 Création du vecteur et des équations d'état

. Transformation du modèle de dégradation. Nous avons construit un modèle de dégradation de la puissance en fonction du courant et du temps P (I, t) et nous voulons en déduire une équation d'état. Etant donné que nous avons montré que l'état de santé du système est donné par la puissance, on peut écrire x ∼ P . Nous avons donc une équation de x en fonction de t et I, il faut maintenant la transformer sous la forme x(tk, Ik) = f (x(tk−1, Ik−1), Θk−1, Ik).

Pour cela, nous passons du domaine continu au domaine discret. L'instant t devient tk

et le courant à cet instant devient Ik. L'équation (38) est dénie et diérentiable pour tk

et Ik dans ]0, +∞[. Pour mémoire, nous avons imposé l'hypothèse que même à l'OCV,

I n'est jamais strictement nul. Nous pouvons donc écrire x(tk, Ik) sous forme discrète

AnnexeI pour la démonstration complète.

. Mise à jour des paramètres. En transformant notre modèle de dégradation, nous exprimons x(tk, Ik)en fonction de l'état de la PEMFC à l'étape précédente x(tk−1, Ik−1)

et de la consigne Ik. Il nous faut maintenant dénir les équations qui permettent d'inclure

la dépendance aux paramètres variables Θk−1, que nous avions désignés sous le nom de

Set 2 précédemment. Comme préconisé par l'analyse de la littérature, nous allons mettre à jour ces paramètres par marche aléatoire gaussienne. L'idée d'une mise à jour par réseaux de neurones est aussi une possibilité intéressante mais n'a pas encore été mise en ÷uvre. L'équation de mise à jour adoptée pour chacun des paramètres est donc :

Θk= Θk−1+ N (0, σΘ) (77)

D'après l'analyse de sensibilité du modèle de dégradation, aucun paramètre n'a de fort impact sur la sortie du modèle lorsque la consigne et le temps varient. Nous décidons donc de régler σΘ de sorte qu'il ore une bonne exploration de l'espace d'état sans que

la variation créée ne fasse sortir le paramètre de son espace de dénition. Des essais ont rapidement montré qu'il fallait que σΘsoit au moins d'un ordre de grandeur inférieur de

10−1 par rapport à l'ordre de grandeur du paramètre (Table25). Table 25  Réglage des σΘ

bloss bA1 bA2 bion bR bB bD p

10−3 10−5 10−5 10−5 10−3 10−3 10−4 10−1

Un dernier paramètre est à mettre à jour, la variance du bruit σ dans l'expression de la likelihood. Comme les données ltrées sur lesquelles nous travaillons ne présentent qu'un bruit très faible, il est décidé de ne pas dénir d'équation de mise à jour. Nous dénissons simplement sa distribution initiale et le ltre choisit sa valeur dans cette distribution au gré des ré-échantillonnage. Notons que dans d'autres applications, se passer de cette équation de mise à jour n'est pas toujours possible.

1.5 Choix des procédures de propagation post-ltre

Nous avons vu qu'à l'heure actuelle trois méthodes ont été proposées pour propager les particules pour le pronostic : (1) une propagation avec le modèle d'état en gardant les derniers poids xés par le ltre, (2) une propagation avec le modèle d'état en réinitialisant les poids à 1/N et (3) une propagation avec le modèle d'état plus complexe proposée par [193]. Cette dernière, nous l'avons déjà mentionné, est dicile à justier. Son intérêt repose sur l'utilisation de la position des particules dans la distribution pour dénir l'état. Ceci peut pourtant être obtenu plus simplement par la proposition (2).

Nous décidons donc de ne tester que les deux premières approches. L'approche conservant les poids obtenus pendant le ltrage sera notée P 1 et la seconde P 2.