• Aucun résultat trouvé

Algorithmes utilisés

4.3 Développements théoriques sur le modèle

5.1.3 Algorithmes utilisés

Pour l’identification des paramètres cinétiques, deux algorithmes distincts sont utili-sés.

Pour l’identification de paramètres issus des modèlesOE et (A, E,1), il s’agit d’une méthode de régression non-linéaire appelée algorithme NLLS (pour Non-Linear Least-Squares) de Marquart-Levenberg (MARQUART,1963et LEVENBERG,1944). Il est largement inspiré des algorithmes de Gauss-Newton et du gradient. Il consiste en la minimisation de la fonctioncoûtsuivante :

S(p) =

NDonnees

X

n=0

5.1. Démarche de comparaison 139 Oùpreprésente le vecteur des paramètres du modèle (ici les paramètres cinétiques),f

la forme du modèle et les(ti, yi)les données issues de l’expérience.

Cet algorithme est adapté à la résolution de problèmes mal conditionnés sur un espace des phases vaste et à point de départ totalement aléatoire. Toutefois, dans quelques cas, il a été nécessaire d’initialiser l’algorithme dans une zone cohérente de l’espace des phases pour le voir converger vers une solution ayant un sens physique lors d’une optimisation à trois paramètres libres (H, S et Cp). Ce comportement a été un argument supplémen-taire pour pousser l’investigation des effets de compensation obtenus avec le nouveau modèle et pour introduire la démarche en deux temps présentée ci-dessus (détermination dans un premier temps de Het S, puis deCp dans un second temps, soit le modèleOE

contraint). Les détails concernant cette méthodeN LLS peuvent être trouvés dans GAVIN,

2017. Comme précisé précédemment, le temps caractéristique d’une identification de deux ou de trois paramètres avec cette méthode est de l’ordre de la seconde sur une configura-tion informatique de bureautique classique.

Le second algorithme d’identification est de type essaim de particules. Il est basé sur l’évolution stochastique d’une population donnée à partir de règles spécifiques d’évo-lution d’une génération à une autre, le terme de génération étant ici équivalent à celui d’itération. Son formalisme a été créé en 1995 par R. Eberhart, et J. Kennedy (KENNEDY

et EBERHART,1995), sur le principe de la collaboration entre individus. Ce type d’algo-rithme partage de nombreux points communs avec les algod’algo-rithmes génétiques ou de type SCE (Shuffled Complex Evolution). En effet, le système est initialisé avec une population aléatoire (dans notre cas, des paramètres cinétiques tirés aléatoirement dans l’espace des phases), laquelle va évoluer vers une solution optimale.

Cette évolution itérative se fait en s’appuyant sur deux types d’informations connues des particules (CLERCet SIARRY,2003) :

la première est le couple position/vitesse de la particule au sein de l’espace des phases. La particule garde également en mémoire la meilleure position qu’elle a at-teinte et la valeur de la fonctioncoûtafférente ;

la seconde est l’information issue d’un sous-groupe de particules, les informatrices, lesquelles communiquent à la particule leur meilleure performance ;

Ainsi, forte de ces informations, une nouvelle évolution de la particule est déterminée, laquelle sera combinaison linéaire des trois termes suivants, pondérés par des variables aléatoires (introduisant par là-même le côté stochastique de l’algorithme, en sus de l’ini-tialisation du système) :

le premier terme correspond à un terme inertiel : la particule conserve une partie de sa vitesse à l’itérationkpour définir sa position à l’itérationk+ 1. Clerc cite ce terme comme étant la composanteaventureusede la particule ;

le second terme tend à orienter la particule vers la meilleure position que celle-ci aura rencontrée sur sa trajectoire. Ce terme peut être évoqué comme la tendance

conservatricede la particule ;

enfin, le troisième terme, celui dit depanurgisme, cherche à orienter la particule vers la meilleure informatrice de son environnement.

Ce comportement, visant à décrire l’évolution d’une particule d’une itération à l’autre, est illustré sur la figure5.5.

140 Chapitre 5. Application de la loi cinétique hors-Ellingham

FIGURE5.5 – Comportement d’une particule d’une itération à l’autre pour un algorithme PSO standard - extrait de CLERCet SIARRY,2003

Cette famille d’algorithmes présente de nombreux avantages dans notre contexte. En effet, ceux-ci obtiennent de meilleurs résultats, et dans un délai nettement réduit, par rap-port aux algorithmes de typeGAouSCE(CLERC,2004). De plus, cet algorithme contient peu de paramètres ajustables, ce qui rend sa prise en main relativement rapide pour des applications ponctuelles.

Enfin, sa capacité à explorer l’espace des phases en limitant le risque de se bloquer dans des extremums locaux, démontrée sur les cas de validations présentés dans l’ouvrage de Clerc, permet de s’affranchir de certains écueils rencontrés avec les autres méthodes.

Concrètement, Clerc préconise dans son ouvrage de travailler avec des essaims de40

particules, que nous nommeronsabeillespar la suite, et4informatrices, permettant d’ob-tenir une convergence au bout de quelques dizaines d’itérations pour la plupart des pro-blèmes étudiés.

Les graphiques5.6 et 5.7 montrent l’influence de la taille de l’essaim et du nombre d’informatrices sur la convergence pour10 mgde polyéthylène sous azote et soumis à une vitesse de chauffage de10 K min1.

Les graphiques5.6illustrent que, globalement, les paramètres évoqués précédemment, en l’occurrence40abeilles et4informatrices, représentent un compromis très intéressant entre le nombre d’itérations nécessaires pour atteindre la convergence et le temps de cal-cul (celui-ci étant pratiquement linéaire en fonction du nombre d’abeilles). Le graphique de gauche représente l’évolution de la fonctioncoût, ici la normeH1de la différence entre le modèle et l’expérience, avec 40 abeilles et un nombre d’informatrices variable. Le se-cond graphique est relatif à un nombre variable d’abeilles pour4informatrices.

Les graphiques5.7apportent une information complémentaire en représentant l’évo-lution des paramètres cinétiques lnA et E/kBT0 au fur et à mesure des itérations. Ces graphiques indiquent que, globalement, une convergence en moins de400itérations est atteinte, mais surtout que ces convergences se font vers des valeurs distinctes. Ces valeurs distinctes correspondent systématiquement à des points dans la vallée visible au chapitre 1 pour illustrer la notion de Compensation Effect.

5.1. Démarche de comparaison 141

FIGURE5.6 – Influence de a) la taille de l’essaim et b) du nombre d’informa-trice sur la convergence des calculs d’identification pour10 mgde

polyéthy-lène sous azote et soumis à une vitesse de chauffage de10 K min1

FIGURE5.7 – Influence de a) la taille de l’essaim et b) du nombre d’informa-trice sur les paramètres cinétiques pour10 mgde polyéthylène sous azote et

soumis à une vitesse de chauffage de10 K min1

En synthèse, ces graphes appuient le choix d’un essaim comportant40 abeilles, avec

4 informatrices. Le nombre d’itérations considérées est de400, permettant d’obtenir une convergence des résultats dans une grande majorité de situations. Ils mettent en avant également la difficulté à déterminer un ensemble de paramètres cinétiques uniques par ce type de méthodes.

Cependant, le graphe5.8fait figurer l’évolution des paramètres cinétiques d’un modèle

(A, E, n)en fonction du nombre d’itérations. Celui-ci met en avant que, sur quinze réalisa-tions successives, l’algorithme utilisé converge systématiquement vers un optimum local. Toutefois, même pour le score minimum obtenu, les résultats n’assurent en rien d’avoir atteint un minimum global.

Enfin, les graphiques 5.9 montrent concrètement, sur la modélisation de la perte de masse, les résultats issus des quinze réalisations citées précédemment. Ils indiquent que, dans l’ensemble, les résultats obtenus sont strictement équivalents sur les zones avec une réactivité importante, avec des déviations mineures en début et en fin de réaction. Ces déviations se compensent d’une réalisation à l’autre, conduisant à unscoretrès proche en valeur absolue et, par suite, des minima locaux proches du minimum absolu.

142 Chapitre 5. Application de la loi cinétique hors-Ellingham

FIGURE 5.8 –15calculs avec10 mg de polyéthylène sous azote, vitesse de chauffage de10 K min1, a) Convergence en score b) Convergence des

para-mètres

FIGURE 5.9 – 15 calculs avec10 mg de polyéthylène sous azote, vitesse de chauffage de10 K min1, a) Masses calculées b) Vitesses de perte de masse

calculées

Les outils étant détaillés, la section suivante est consacrée à une analyse approfondie concernant des matériaux largement étudiés dans le cadre de ces travaux, le polypropy-lène et le polyéthypolypropy-lène. En effet, le polypropypolypropy-lène, plusieurs fois exploité dans les chapitres précédents, a déjà servi d’exemple pour illustrer la méthode et s’avère, du fait des dévelop-pements sur la dilution en phase solide, se décomposer selon deux réactions, superposées dans les conditions expérimentales classiquement utilisées. Le polyéthylène, quant à lui, apparaît comme mono-réactionnel pour les faibles vitesses de chauffage, avec une appa-rition d’une singularité en fin de réaction lorsque la vitesse de chauffage augmente (en particulier au-dessus de20 K min1). Cette singularité représente vraisemblablement une seconde réaction de décomposition, mise en évidence par le changement de conditions opératoires.