• Aucun résultat trouvé

Développement d'une plateforme générique de conception de commande prédictive non linéaire : application à l'estimation de la teneur en eau des particules dans un séchoir à lit fluidisé

N/A
N/A
Protected

Academic year: 2021

Partager "Développement d'une plateforme générique de conception de commande prédictive non linéaire : application à l'estimation de la teneur en eau des particules dans un séchoir à lit fluidisé"

Copied!
104
0
0

Texte intégral

(1)

Développement d'une plateforme générique de

conception de commande prédictive non linéaire -

Application à l'estimation de la teneur en eau des

particules dans un séchoir à lit fluidisé

Mémoire

Marc-Olivier Roseberry

Maîtrise en génie électrique - avec mémoire

Maître ès sciences (M. Sc.)

(2)

Développement d’une plateforme générique de

conception de commande prédictive non linéaire

-Application à l’estimation de la teneur en eau des

particules dans un séchoir à lit fluidisé

Mémoire

Marc-Olivier Roseberry

Sous la direction de:

André Desbiens, directeur de recherche Jocelyn Bouchard, codirecteur de recherche

(3)

Résumé

Ce projet de maîtrise s'eectue en collaboration avec un partenaire industriel, soit le groupe process analytical support group chez Pzer Global Manufacturing Services. L'objectif général de ce partenariat est d'accroître le niveau d'automatisation dans la chaîne de fabrication de l'in-dustrie pharmaceutique. Notamment, des améliorations sont possibles dans l'instrumentation des équipements ainsi que dans l'asservissement de ceux-ci par des stratégies d'optimisation en temps réel. Cet ouvrage s'attaque spéciquement au cas du séchoir à lit uidisé. Ce procédé est décrit par une dynamique non linéaire si bien que les outils disponibles pour concevoir une commande prédictive couplée d'un observateur n'orent pas présentement la exibilité requise pour répondre à l'objectif du projet. La programmation d'une application de type interface graphique permet à son utilisateur de concevoir ces stratégies pour le procédé de son choix. L'application a été validée en concevant cinq observateurs non linéaires pour le séchage de granules pharmaceutiques. L'objectif est de pouvoir fournir une mesure de teneur en eau an de remplacer la sonde proche infrarouge actuellement utilisée. Il a été montré que certains observateurs sont en mesure de reproduire précisément les données expérimentales tout en montrant un eort de calcul plus acceptable. Ainsi, l'application permet de déployer facile-ment des solutions ecaces et mesurables pour l'asservissefacile-ment de procédés pharmaceutiques, dont l'instrumentation du séchoir à lit uidisé est un exemple spécique. Le déploiement au sein du groupe de recherche de l'application et son amélioration fait partie des travaux futurs.

(4)

Abstract

This work is in partnership with the process analytical support group at Pzer Global Manu-facturing Services. The objective is to increase the level of automation in the pharmaceutical manufacturing process. Possible improvements lie in the instrumentation and control of the equipment. This work particularly aims the discontinuous uid bed drying (FBD) case. A nonlinear dynamic describes the FBD operation as well as many other pharmaceutical process. Actual predictive control conception tools are not exible enough. Hence, the programming of a graphical user interface software allows the user to design a control algorithm for non-linear processes. Validation is ensured by generating ve nonnon-linear estimators to monitor the drying. One of these, based on the moving horizon estimator, could replace the near-infrared probe on the uid bed dryer as a moisture content soft sensor. Results show that the esti-mator reproduce accurately the pilot scale experimental data with a moderate computational eort. Thus, the software allows to easily implement control and observation strategies for the pharmaceutical industry Future works imply the deployment and the improvement of the software.

(5)

Table des matières

Résumé ii

Abstract iii

Table des matières iv

Liste des tableaux vi

Liste des gures vii

Nomenclature viii

Remerciements xii

Avant-propos xiii

Introduction 1

Mise en contexte : séchoir à lit uidisé . . . 1

Problématique et objectifs du projet . . . 3

Structure du mémoire . . . 4

1 Revue de littérature : Algorithme d'estimation et de commande 6 1.1 Algorithme d'estimation d'état . . . 6

1.2 Commande prédictive économique . . . 23

2 Implémentation de l'application 27 2.1 Interface graphique . . . 27

2.2 Environnement de simulation . . . 37

3 Monitoring the Moisture Content in Pharmaceutical Batch Fluidized Bed Dryers Using Observer-Based Soft Sensors 42 Résumé . . . 42

Abstract . . . 42

3.1 Materials . . . 43

3.2 Batch uidized bed dryer models . . . 43

3.3 Observer-based soft sensors . . . 46

3.4 Results. . . 52

(6)

4.1 Choix du modèle . . . 54

4.2 Paramètres du capteur virtuel d'humidité . . . 55

Conclusion 63 Recommandations . . . 64

Travaux futurs . . . 64

Bibliographie 65 A Dérivation du ltre de Kalman et ses équivalents 68 A.1 Covariance de l'erreur a posteriori . . . 68

A.2 Covariance de l'innovation . . . 69

A.3 Covariance de l'erreur a posteriori . . . 70

A.4 Simplication du critère des moindres carrés . . . 71

(7)

Liste des tableaux

2.1 Principaux paramètres saisis dans les live scripts de l'application . . . 30

3.1 Single phase batch uidized dryer model parameters . . . 46

3.2 RMSE values of the four observers presented in this chapter . . . 51

4.1 Valeur de RMSE pour les capteurs virtuels avec les paramètres QT0, PT0

(8)

Liste des gures

1.1 Paradigme d'utilisation de la commande prédictive dans la hiérarchie de

com-mande de procédés (adapté de [6; 16]) . . . 24

2.1 Interface graphique de l'application . . . 28

2.2 Ordinogramme simplié de l'interface graphique de l'application . . . 29

2.3 Librairie de blocs disponible pour toutes les fonctions S générées par l'application 39

2.4 Exemple de masque supplantant le bloc  observateur à horizon glissant  de

la librarie . . . 40

3.1 Estimation error with pilot FBD data : batches B1 (top), B2 (middle) and B3 (bottom). At-line measurement is being taken and made available at the solid

vertical line and dash vertical line, respectively. . . 52

4.1 Eet de la période d'échantillonnage sur l'erreur d'estimation (diagramme à

boîte - axe gauche) et l'eort de calcul (courbe - axe droit) . . . 56

4.2 Eet de la dimension de la fenêtre d'observation (en xant ts = 45 s) sur

l'erreur d'estimation évaluée (diagramme à boîte - axe gauche) et l'eort de

calcul (courbe - axe droit) . . . 57

4.3 Erreur d'estimation avec les données expérimentales de l'humidité et de la tem-pérature des particules pour le capteur virtuel CLO3 avec les paramètres QT0,

(9)

Nomenclature

Symboles latins (Latin symbols)

a1 coecient de transfert de masse gaz-particule par unité de volume (gas-particle mass transfer ratio per unit volume), m−3

b1 coecient de transfert thermique et enthalpique gaz-particule (gas-particle ratio for enthalpy and heat transfer), ◦C m−3

b2 coecient de transfert thermique et enthalpique gaz-particule (gas-particle ratio for enthalpy and heat transfer), m−3

E pondération du critère économique (economic weight) Hc horizon de commande (control horizon)

Hp horizon de prédiction (prediction horizon) J fonction coût (cost function)

k temps discret (discrete time) m masse (mass), kg

M inverse de la variance du bruit de mesure de la teneur en eau (inverse of the moisture content measurement noise variance)

N fenêtre d'observation (observation window) n nombre (number)

T température (temperature), ◦C

ts période d'échantillonnage (sampling time), s V volume (volume), m3

w teneur en eau sur une base humide (moisture content in wet basis) y sortie (output)

z bruit de mesure de la teneur en eau (moisture content measurement noise) Symboles grecs (Greek symbols)

α coecient empirique (empirical coecient) β coecient empirique (empirical coecient), ◦C−1 ε variable relaxée (slack variable)

ν coecient empirique (empirical coecient)

ρ pondération commune sur la variable relaxée (equal concern for relaxation) τ constante de temps en boucle fermée (closed-loop time constant), s

χ teneur en eau sur une base sèche (moisture content in dry basis) Vecteurs et matrices (Vectors and matrices)

(10)

Aaug matrice d'évolution des états augmentée (augmented state matrix), ((nx+ nint) × (nx+ nint)) Ai matrice d'évolution des états intégrateurs (integrator state matrix), (nint× nint)

B matrice de commande (input matrix), (nx× nu)

Baug matrice de commande augmentée (augmented input matrix), ((nx+ nint) × nu)) C matrice d'observation (output matrix), (ny× nx)

Caug matrice d'observation augmentée (output matrix), (ny× (nx+ nint))

Ci matrice d'observation des états intégrateurs (integrator state's output matrix), (ny × nint)

D matrice de transmission directe (direct feedthrough matrix), (ny× nu) d perturbations mesurées (measured disturbances), (nmd× 1)

∆U incréments d'entrées manipulées sur l'horizon de commande (manipulated variable rates over the control horizon), (nuHc× 1)

∆u incrément d'entrées manipulées (manipulated inputs rate), (nu× 1) e erreur d'estimation (estimation error), (nx× 1)

f (·) fonction de mise à jour des états du modèle en représentation d'état (state-space model state update function), (nx× 1)

fA(·) fonction de mise à jour des états du modèle augmenté (augmented model state update function), ((nx+ nint) × 1)

G gain des états intégrateurs (integrator state gain), (ny× 1)

h(·) fonction des sorties du modèle en représentation d'état (state-space model output func-tion), (ny× 1)

hA(·) fonction des sorties du modèle augmenté (augmented model output function), (ny× 1) i séquence d'innovation (innovation), (ny× 1)

jint indice des états intégrateurs (integrator state index), (ny× 1) K gain de Kalman (Kalman lter gain), (nx× ny)

M pondération des poursuites aux consignes (setpoints tracking weigths), (ny× ny) ¯

M matrice de pondération du bruit de mesure de la teneur en eau (measurement noise weighting matrix), ((N + 1) × (N + 1))

N pondération des entrées manipulées (manipulated inputs weigths), (nu× nu)

P matrice de covariance de l'erreur d'estimation (estimation error covariance matrix), (nx× nx)

P0 matrice de covariance de l'erreur intiale (initial estimation error covariance matrix), (nx× nx)

Q matrice de covariance du bruit de procédé (process noise covariance matrix), (nx× nx) ¯

Q matrice de pondération du bruit de procédé (process noise weighting matrix), ((N + 1) × 3(N + 1)) R matrice de covariance du bruit de mesure (measurement noise covariance matrix),

(ny× ny)

r consigne (setpoint), (ny× 1) ¯

R matrice de pondération du bruit de mesure (moisture content measurement noise weigh-ting matrix), ((N + 1) × 2(N + 1))

S covariance de l'innovation (innovation covariance), (ny× 1) u entrées manipulées (manipulated inputs), (nu× 1)

v bruit de mesure (measurement noise), (ny× 1)

V∆u degré de tolérance de violation des contraintes sur les incréments d'entrées manipulées (relative magnitude of a tolerable manipulated input rate constraint violation), (nu× 1) V bruit de mesure sur la fenêtre d'observation (measurement noise over the observation

(11)

Vu degré de tolérance de violation des contraintes sur les entrées manipulées (relative magnitude of a tolerable manipulated input constraint violation), (nu× 1)

Vˆy degré de tolérance de violation des contraintes sur les sorties prédites (relative magni-tude of a tolerable predicted output constraint violation), (ny× 1)

w bruit de procédé (process noise), (nx× 1)

W bruit de procédé sur la fenêtre d'observation (process noises over the observation win-dow), (3(N + 1) × 1)

x états du modèle (model states), (nx× 1) ¯

x0 estimation intiale a priori (initial estimation), (nx× 1)

xA états du modèle augmenté (augmented model states), ((nx+ nint) × 1) xi états intégrateurs (integrator states), (nint× 1)

y sorties (model outputs), (ny× 1)

yA sorties du modèle augmenté (augmented model outputs), (ny× 1)

Z bruit de mesure de la teneur en eau sur la fenêtre d'observation (moisture content measurement noises over the observation window), ((N + 1) × 1)

Indices (Subscripts)

0 gaz à l'admission (inlet gas)

EMPCcommande prédictive économique (economic model predictive control) LSE estimation par l'appoche des moindres carrés (least square state estimation) MHE estimateur à horizon glissant (moving-horizon estimator)

MPC commande prédictive traditionnelle (model predictive control) T température (temperature)

∆u incrément d'entrée manipulée (manipulated input move) χ teneur en eau (moisture content)

ε variable relaxée (slack variable) int intégrateur (integrator)

k temps discret (discrete time) max maximum (maximum)

md perturbation mesurée (measured disturbance) min minimum (minimum)

m mesuré (measured)

op point d'opération (operating point)

pc teneur en eau critique des particules (particle critical moisture content) p phase émulsion : particule solide humide (emulsion phase : wet solid particle) sp consigne (setpoint)

s phase émulsion : particule solide sèche (emulsion phase : dry solid particle) t poursuite de consigne (setpoint tracking)

u entrées manipulées (inputs) w eau (water) x états (states) y sorties (outputs) Opérateurs (Operators) ˆ • estimation/prédiction de • (estimation/prediction of •) ˙

• débit de • (ow rate of •), s−1 ˜

• mesure virtuelle de • (virtual measurement of •)

(12)

Abréviations (Abbreviations)

CLO1 observateur en boucle fermée 1 (closed-loop observer 1 ) CLO2 observateur en boucle fermée 2 (closed-loop observer 2 ) CLO3 observateur en boucle fermée 3 (closed-loop observer 3 )

EMPC commande prédictive économique (economic model predictive control) FBD séchage à lit uidisé (uidized bed drying)

GUI interface graphique-utilisateur (graphical user interface) LOD perte au séchage (loss-on-drying)

LSE estimation par l'approche des moindres carrés (least squares state estimation) MHE observateur à horizon glissant (moving-horizon estimator)

MIMO entrées multiples et sorties multiples (multiple-input multiple-output) MPC commande prédictive (model predictive control)

NIR proche infrarouge (near-infrared)

ODE équation diérentielle ordinaire (ordinary dierential equation) PID proportionnel-intégral-dérivé (proportionalintegralderivative) RK4 Runge-Kutta de quatrième ordre (fourth order Runge-Kutta) RMSE racine de l'erreur quadratique moyenne (root-mean-square error) RTD thermomètres à résistance de platine (resistance temperature detectors) RTO optimisation en temps réel (real-time optimisation)

(13)

Remerciements

Je tiens avant tout à remercier mes directeurs de recherche, André Desbiens et Jocelyn Bou-chard, pour leurs précieux conseils et recommandations. Leurs enseignements, leurs expertises ainsi que leurs grandes disponibilités ont été fort appréciés pour mener à l'achèvement de mon projet de maîtrise. La rigueur et l'innovation sont des vertus qui transparaissent dans leurs travaux et elles demeurent, pour moi, un exemple à conserver à l'amorce de ma carrière professionnelle. Je tiens aussi à remercier les professeurs Éric Poulin et Carl Duchesne, qui par leurs enseignements au baccalauréat, m'ont encouragé et aider à transférer du génie chimique vers le contrôle de procédé. Merci à Francis Gagnon, qui par son travail tant dans son projet de maîtrise qu'au doctorat, a rendu possible l'accomplissement de ce projet. Sans lui, la tâche aurait été beaucoup plus ardue et pour cela je ne peux le remercier assez.

Mes amis et collègues, qui ont grandement contribué par leurs agréables présences, sont sans contredit responsables de l'ambiance qui règne au sein du groupe. Un énorme merci revient à Adéline, Alex, Edgar et Andréa pour ne nommer que ceux-là ! Finalement, un remerciement très spécial revient à ma partenaire de vie, Vicky, à mes amis et ma famille qui m'ont toujours soutenu incommensurablement tout au long de cette aventure.

(14)

Avant-propos

Cet ouvrage fait état des travaux menant à la rédaction du manuscrit Monitoring the Moisture Content in Pharmaceutical Batch Fluidized Bed Dryers Using Observer-Based Soft Sensors présenté au chapitre 3. Ce manuscrit a été soumis le 16 novembre 2019 dans le cadre de la conférence 21st IFAC World Congress. Les auteurs sont :

Marc-Olivier Roseberry Auteur principal du manuscrit et étudiant à la maîtrise en génie électrique sous la direction des professeurs André Desbiens et Jocelyn Bouchard. Il a réalisé les calculs, la programmation et les tests en simulation concernant les capteurs virtuels spéci-quement. Il a rédigé la première version du manuscrit et, en fonction des commentaires des coauteurs, il a appliqué les corrections nécessaires.

Francis Gagnon Coauteur du manuscrit et étudiant au doctorat en génie électrique sous la direction du professeur André Desbiens. Il a réalisé les calculs et la consolidation des modèles du manuscrit ainsi que leurs programmations et les tests en laboratoire. Il a eectué une seconde révision du manuscrit.

André Desbiens Coauteur du manuscrit et professeur titulaire au département de génie électrique et génie informatique de l'Université Laval. Il a eectué une première révision ainsi qu'une première correction. Il a aussi apporté une réexion critique sur la présentation des algorithmes ainsi que des résultats.

Jocelyn Bouchard Coauteur du manuscrit et professeur agrégé au département de génie chimique de l'Université Laval. Il a eectué une troisième révision du manuscrit et il aussi apporté de suggestion quant à la présentation et la structure du manuscrit.

Pierre-Philippe Lapointe-Garant Coauteur du manuscrit et gestionnaire du groupe Pro-cess Monitoring Automation and Control chez Pzer Global Supply. Il a eectué une dernière révision du manuscrit. Il a aussi apporté des précisions supplémentaires sur les aspects phar-maceutiques de ce dernier.

L'introduction, la conclusion et la bibliographie du manuscrit sont coupées du chapitre 3. L'introduction et la conclusion sont réécrites pour supporter le propos de cet ouvrage. De plus, le contenu de ces sections ainsi que la nomenclature et la bibliographie y sont incorporés

(15)

en adaptant la mise en page. Le chapitre 2 propose une description de l'outil logiciel qui a servi à concevoir les capteurs virtuels d'humidité. Des résultats et discussions supplémentaires examinant la sélection des paramètres du capteur virtuel sont présentés au chapitre 4.

(16)

Introduction

Lacommande prédictive économique (EMPC pour economic model predictive control)est une commande avancée qui, depuis quelques années, suscite de l'intérêt tant dans la communauté scientique que dans un contexte industriel. La possibilité d'utiliser un critère d'optimisation personnalisé qui peut être axé sur une valeur économique ajoutée ou une réduction de l'em-preinte énergétique demeure un de ses principaux avantages. Cependant, contrairement à la

commande prédictive (MPC pour model predictive control), la commandecommande prédic-tive économique (EMPC pour economic model predicprédic-tive control) ne peut être généralisée. Ainsi, une preuve de stabilité et d'ecacité doit être eectuée à chaque instance d'implanta-tion.

Ce projet de maîtrise s'eectue en collaboration avec un partenaire industriel, soit le groupe process analytical support group chez Pzer Global Manufacturing Services. L'objectif général de ce partenariat est d'accroître le niveau d'automatisation dans la chaîne de fabrication de l'industrie pharmaceutique. Notamment, des possibilités d'amélioration dans l'instrumentation des équipements ainsi que dans l'asservissement de ceux-ci par des stratégies de commande et d'optimisation en temps réel (RTO pour real-time optimisation), dont la commande EMPC, qui sont actuellement disponibles. Cet ouvrage se concentre sur un cas de gure, soit l'instru-mentation du séchage à lit uidisé (FBD pour uidized bed drying) discontinu.

Mise en contexte : séchoir à lit uidisé

La granulation humide des comprimés pharmaceutiques est une technique qui consiste à aug-menter la taille des ingrédients poudreux en forçant leur agglomération à l'aide d'un excipient. La granulation humide favorise la compression de matériaux peu cohésifs, mais l'excès de sol-vant doit être retiré d'abord. Le séchage à lit uidisé est communément utilisé dans l'industrie pharmaceutique et alimentaire pour retirer l'excès de solvant, souvent de l'eau, de matériaux poudreux.

Le séchage à lit uidisé consiste en l'injection d'un courant d'air chaué au travers d'un milieu constitué de particules solides humides. La uidisation de celui-ci favorise le transfert de matière (l'eau) du solide vers le courant gazeux. L'objectif principal de cette technique est

(17)

Unité pilot de séchage à lit uidisé (tiré de [7])

d'amener le produit à une teneur en eau désirée tout en évitant d'excéder certaines contraintes physiques, par exemple sur la température des particules. Sur un montage expérimental, les variables mesurées et les instruments sont :

 la température de l'air entrant, avec un thermomètre à résistance de platine ;  le débit de l'air entrant, avec un tube de Pitot ;

 l'humidité de l'air entrant, avec une sonde à capacitance ;

 la température des particules, avec un thermomètre à résistance de platine ; et

 l'humidité des particules, avecproche infrarouge (NIR pour near-infrared)couplée d'un modèle de régression par les moindres carrés partiels précalibrés.

Une commande prédictive à modèle linéaire est en mesure, en manipulant le débit et la tem-pérature de l'air injecté, d'achever une telle opération tout en réduisant le temps d'opération [19]. Plus récemment, il a été montré qu'une stratégiecommande prédictive (MPC pour model predictive control) permet d'atteindre ce même objectif tout en modulant, par un choix de pondérations appropriées, le temps de séchage ou l'empreinte énergétique d'une unité pilote de séchage à lit uidisé (FBD pour uidized bed drying) [8].

La spectroscopie proche infrarouge (NIR pour near-infrared) est une technique de mesure non destructive qui est vastement utilisée dans l'industrie pharmaceutique et alimentaire pour mesurer la teneur en eau [22]. Cependant, dans le cas du FBD, les mesures de teneur en eau

(18)

sont uniquement ables si la fenêtre abritant la sondeNIRest dégagée et si la uidisation du lit est susante [26]. De plus, la spectroscopieNIRrequiert un précalibrage qui est dicilement transférable entre les composés chimiques ou les équipements [22]. Sachant qu'un recalibrage requiert beaucoup de temps, il est intéressant d'identier une technique pour remplacer la sonde NIR.

Une piste de solution est l'utilisateur d'un capteur virtuel pour la mesure de la teneur en eau du contenu du réacteur. Dans la littérature, des capteurs virtuels basés sur des modèles empiriques [11] et méthodes d'apprentissage automatique tel un réseau neuronal articiel [29] ou une méthode par forêts d'arbres décisionnel [30] ont été utilisés. Bien qu'elles soient en mesure d'estimer précisément la teneur en eau du produit séché, ces méthodes inférentielles sont incompatibles avec une stratégie MPC puisqu'elles ne permettent pas la prédiction de valeur futures. Dans [14], Lauri Pla et al. présente un capteur virtuel basé sur un modèle phénoménologique de FBDdiscontinu. Néanmoins, il soure des mêmes lacunes que la sonde

NIR, puisqu'il est précalibré en fonction du produit pharmaceutique et de l'équipement utilisé. De plus, le manque d'un modèle décrivant l'évolution de la température dans le temps rend aussi ce capteur incompatible avec une stratégie MPC. En outre, ce capteur virtuel pourrait tirer avantage d'une rétroaction de mesures ltrées par des estimateurs d'état stochastiques sachant que ceux-ci ont déjà été utilisés dans l'implantation d'une stratégie de contrôle de

FBDdiscontinu [8;15].

Problématique et objectifs du projet

Tel que susmentionné, le projet de maîtrise s'intéresse au FBD discontinu comme étant un cas de gure particulier. Il s'inscrit aussi dans un partenariat où plusieurs étudiants auront à concevoir des stratégies de commande et d'optimisation pour des procédés de fabrication pharmaceutique.

Une stratégie de commande prédictive linéaire ou non linéaire est généralement couplée avec un estimateur d'état. Actuellement, dans l'environnement MATLAB, il existe déjà une inter-face de conception et de simulation de commande prédictive à modèle linéaire où la plupart des paramètres sont directement accessibles. Cette commande est couplée au ltre de Kalman asymptotique qui est un observateur linéaire plus qu'adéquat. L'interface est toutefois très rigide et ne permet pas d'introduire des modications comme la personnalisation de la fonc-tion objectif. Pour les systèmes non linéaires, le problème est d'autant plus apparent puisqu'il n'existe aucune interface de simulation disponible. Ainsi, pour ce cas particulier, un utilisa-teur pourrait vouloir migrer vers l'environnement SIMULINK où quelques blocs permettent de simuler une loi de commande prédictive économique. Cependant, aucun paramètre ne peut y être modié rendant ardu l'ajustement de la loi de commande. Pour combler le tout, l'ob-servateur observateur à horizon glissant (MHE pour moving-horizon estimator), qui devient

(19)

très utile pour l'observation d'un modèle phénoménologique complexe et hautement non li-néaire comme celui décrivant le comportement duFBD, n'est pas disponible dans les fonctions préexistantes de MATLAB et/ou SIMULINK.

En somme, un utilisateur voulant concevoir une stratégie MPC couplée d'un observateur non linéaire est forcé d'utiliser des outils gés dans leurs possibilités d'application. Ainsi, l'objectif général de ce projet de maîtrise est de développer une plateforme générique d'aide à la conception d'une commande et d'optimisation. Pour y parvenir, les objectifs spéciques sont :

1. programmer une stratégie MPC générique et structurée où il est aisé d'accéder et de modier les paramètres (fonction coût, contraintes, modèle utilisé pour les prédictions, etc.) ;

2. programmer un observateurMHEgénérique et structuré où, comme la loi de commande, il est aisé d'accéder et de modier les paramètres (contraintes, matrices de covariance, nombre d'état intégrateur, etc.) ;

3. (avec la solution proposée an de répondre à un besoin du partenariat industriel) conce-voir un capteur virtuel de la teneur en eau, basé sur l'algorithme de l'observateur MHE.

Structure du mémoire

Le coeur du mémoire s'amorce au chapitre 1 avec une revue de la littérature portant sur les estimateurs d'état non linéaires. Pour l'observation de procédés décrits par des modèles phé-noménologiques complexes, il existe peu d'observateurs non linéaires qui ne requièrent aucune linéarisation et qui sont en mesure de gérer les contraintes sur les états. Ainsi, cette revue de littérature se veut une justication de l'utilisation de l'observateur MHE pour l'observa-tion de procédés non linéaires. L'équivalence entre ce dernier et un observateur à minimum de variance, soit le ltre de Kalman, y est examinée dans le cas linéaire. La prise en charge de contraintes sur les états est aussi discutée. Finalement, le paradigme d'utilisation de la commande prédictive dans la hiérarchie de commande de procédés est brièvement souligné. Par la suite, le chapitre2 propose une description de l'outil logiciel qui a servi à concevoir les capteurs virtuels d'humidité. Il présente un survol de la solution proposée, soit une application de type interface graphique utilisateur. Son comportement, les principaux paramètres qui y sont saisis et les principaux algorithmes, comme celui de la loi de commande prédictive économique, sont présentés.

À l'aide de la solution proposée, un capteur virtuel d'humidité spéciquement utilisé dans le cadre du séchage en lit uidisé de particules pharmaceutiques est conçu. Ainsi, le chapitre 3

(20)

bed dryers. L'algorithme de l'observateurMHE, programmé dans l'application, est notamment présenté à la section 3.3.2 de ce chapitre.

Finalement, des résultats et discussions supplémentaires examinant la sélection des paramètres du capteur virtuel sont présentés au chapitre 4.

(21)

Chapitre 1

Revue de littérature : Algorithme

d'estimation et de commande

Le présent chapitre débute par une démonstration de l'équivalence entre le ltre de Kalman et deux observateurs non linéaires basés sur une optimisation numérique, soit l'estimation par l'approche des moindres carrés (LSE pour least squares state estimation) et leMHE. Dans le couplage d'une loi de commande prédictive avec un observateur, ce dernier est nécessaire pour estimer les états d'un procédé puisque ceux-ci sont très rarement mesurés. De plus, l'utilisation de celui-ci permet notamment de ltrer le bruit de mesure et d'ajouter une action intégrale à la loi de commande.

En premier lieu, l'étude bibliographique présente le ltre de Kalman et ses dérivations. Elle développe aussi l'équivalence entre ce dernier et les deux observateurs non linéaires et elle survole les techniques d'application des contraintes.

En second lieu, la revue de littérature décrit le contexte d'implantation de la commande pré-dictive dans la hiérarchie de commande de procédé. Elle examine enn le paradigme de la commande prédictive économique ainsi que ses enjeux de performance, de stabilité et d'im-plantation.

1.1 Algorithme d'estimation d'état

Proposé en 1960 [13], le ltre de Kalman est un observateur linéaire encore vastement utilisé aujourd'hui, entre autres pour le traitement de signaux et le contrôle de procédés industriels [3]. Le ltre de Kalman est un estimateur à minimum de variance [5] et c'est pourquoi il demeure le meilleur estimateur pour les systèmes linéaires. La majorité des procédés ont une dynamique non linéaire et ainsi diverses stratégies ont été proposées pour adapter le ltre de Kalman. La plus fameuse, connue sous le nom de ltre de Kalman étendu, utilise une linéarisation du modèle qui induit cependant des erreurs d'approximation qui peuvent se propager dans

(22)

l'algorithme d'estimation. Cette problématique a motivé la réécriture du ltre de Kalman qui, sous l'hypothèse d'un bruit gaussien, peut être formulé sous la forme d'un problème d'optimisation numérique [21], soit l'observateur MHE. Il existe d'autres observateurs non linéaires entre autres basés sur l'estimation de la densité de probabilité du vecteur d'états après son insertion dans une fonction non linéaire. Par exemple, le ltre de Kalman non parfumé estime une densité de probabilité avec un nombre ni de points [12] tandis qu'un ltre à particules repose sur un nombre inni de points [2]. Toutefois, l'observateur MHE

devient très intéressant puisqu'il est généralisable et ce peu importe la complexité du modèle non linéaire. De plus, la prise en charge in situ de contraintes du problème d'optimisation est un avantage indéniable.

Cette section présente le développement du ltre de Kalman. L'observateur LSEet l'observa-teur MHEsont explicités pour par la suite montrer leur équivalence avec le ltre de Kalman. Enn, l'implantation de contraintes dans les algorithmes d'estimation est abordée. Les pro-chains paragraphes établissent la notation mathématique relative aux observateurs.

Le vecteur d'états x dénit l'état dans lequel se trouve un système. Ainsi, l'évolution de ce

vecteur décrit la dynamique du procédé selon la représentation d'état discrète suivante :

x(k + 1) = fx(k), u(k)+ w(k) (1.1)

où kest le temps discret. f (·)est la fonction de mise à jour des états qui peut être linéaire ou

non. uetw sont respectivement les vecteurs d'entrées manipulées et de bruit de procédé.

Les capteurs disponibles sur le procédé ne mesurent pas toujours directement les états. Ainsi, ces derniers doivent être convertis en un vecteur de sorties y comme suit :

y(k) = hx(k)+ v(k) (1.2)

où h(·)est la fonction des sorties qui peut aussi être linéaire ou non.v est le vecteur de bruit

de mesure.

Les équations (1.1) et (1.2) décrivent le modèle d'un procédé sous la forme d'une représentation d'état discrète. Pour les procédés de type àentrées multiples et sorties multiples (MIMO pour multiple-input multiple-output), les nombres d'états, d'entrées manipulées et de sorties sont respectivementnx,nuetny. Ce modèle est forcément imparfait et l'utilisation d'un estimateur

d'état permet de lter les bruits stochastiques en pondérant les prédiction du modèle et les mesures prises.

(23)

1.1.1 Filtre de Kalman linéaire

Le ltre de Kalman est un observateur linéaire. Il suppose donc un système linéaire, de telle sorte que les équations (1.1) et (1.2) deviennent :

x(k + 1) = Ax(k) + Bu(k) + w(k) (1.3)

y(k) = Cx(k) + v(k) (1.4)

où A est la matrice d'évolution des états tandis queB est la matrice de commande.Cest la

matrice d'observation. Le ltre de Kalman suppose aussi des bruits gaussiens à moyenne nulle et statistiquement indépendants tels que :

Enw(k)o= Env(k)o= 0 (1.5a) E n w(k)v(k)T o = 0 (1.5b) Enw(k)w(k)To= Q (1.5c) E n v(k)v(k)T o = R (1.5d)

où Q etRsont respectivement les matrices de covariance du bruit de procédé et de mesure.

Le ltre de Kalman estimateur est un observateur stochastique. Il s'exprime sous la forme générale d'un observateur, soit selon l'équation suivante :

ˆ xk(k) = ˆxk−1(k) + K(k) h y(k) − Cˆxk−1(k) i (1.6) La notation xbj(i) réfère au vecteur d'états de l'instant discret i et estimé à l'instant j. Ainsi, b

xk(k) est l'estimation a posteriori et bxk−1(k) est l'estimation a priori. Le ltre de Kalman

estimateur possède, donc, une étape de prédiction suivie d'une étape de correction par la séquence d'innovationhy(k)−Cˆxk−1(k)i. Le gain de KalmanKdétermine le degré d'inuence de la prédiction ou de la correction par la séquence d'innovation sur l'estimation a posteriori. Par conséquent, il doit être une fonction de la matrice de covariance de l'erreur d'estimation a priori et de la matrice de covariance de l'innovation.

Le gain de Kalman est souvent développé dans la littérature par la minimisation de l'erreur quadratique moyenne, ce qui revient à minimiser la variance de l'erreur sous les hypothèses d'un bruit gaussien et d'un estimateur sans biais [5]. La variance se situe sur la diagonale d'une matrice de covariance. Le gain optimal est donc obtenu en minimisant la trace de la matrice de covariance a posteriori représentée par l'équation suivante :

(24)

Pk(k) = E n ek(k)ek(k)T o = En(x(k) − ˆxk(k))(x(k) − ˆxk(k))T o (1.7) où ek(k) est l'erreur d'estimation a posteriori.

L'expansion de l'équation (1.7), dont le développement est présenté en annexe à la sous-section

A.1, est :

Pk(k) = Pk−1(k) − K(k)CPk−1(k) − Pk−1(k)CTK(k)T + K(k)(CPk−1(k)CT + R)K(k)T

(1.8)

où Pk−1(k)est la matrice de covariance de l'erreur a priori.

La trace de la matrice de covariance de l'erreur d'estimation a posteriori Pk(k) s'exprime comme suit :

T r(Pk(k)) = T r(Pk−1(k)) − 2T r(Pk−1(k)CTK(k)T) + T r(K(k)S(k)K(k)T) (1.9) où la covariance de l'innovation S (voir annexe à la sous-sectionA.2) est :

S(k) = CPk−1(k)CT + R (1.10)

La trace de la matrice transposée est égale à la trace de la matrice non transposée, ce qui simplie l'équation.

Le gain de Kalman Koptimal est celui qui minimise la somme quadratique des erreurs

d'es-timation, ce qui correspond à la trace de la matrice de covariance de l'erreur d'estimation a posteriori. Ainsi, elle est dérivée au regard de K(k) et annulée telle que :

δT r(Pk(k))) δK(k) = δT r(Pk−1(k)) δK(k) − 2 δT r(Pk−1(k)CTK(k)T) δK(k) +δT r(K(k)S(k)K(k) T) δK(k) = 0 = 0 − 2Pk−1(k)CT + 2K(k)S(k) = 0 (1.11)

Le gain qui minimise la variance de l'erreur d'estimation a posteriori est donc :

K(k) = Pk−1(k)CTS(k)−1

= Pk−1(k)CT(CPk−1(k)CT + R)−1

(25)

En insérant le gain de KalmanKde l'équation (1.12) et la matrice de covariance de l'innovation

de l'équation (1.10) dans l'équation (1.8), la covariance de l'erreur d'estimation a posteriori se simplie comme suit :

Pk(k) = Pk−1(k) − Pk−1(k)CT(CPk−1(k)CT + R)−1CPk−1(k) = (I − K(k)C)Pk−1(k)

(1.13)

Le ltre de Kalman est un algorithme d'estimation récursif. À partir de l'estimation a posteriori et de la matrice de covariance de l'erreur a posteriori, la prédiction issue du modèle se calcule. Cette prédiction est corrigée par les sorties lorsqu'elles deviennent disponibles. Les étapes du ltre de Kalman se résument pour chaque instant discret k:

Prédiction

1) xˆk−1(k) = Aˆxk−1(k − 1) + Bu(k − 1) (1.14a)

2) Pk−1(k) = APk−1(k − 1)AT + Q (1.14b) Correction 3) K(k) = Pk−1(k)CT(CPk−1(k)CT + R)−1 (1.15a) 4) ˆxk(k) = ˆxk−1(k) + K(k) h y(k) − Cˆxk−1(k) i (1.15b) 5) Pk(k) = (I − K(k)C)Pk−1(k) (1.15c)

Les matrices de covariance du bruit de procédéQet de covariance du bruit de mesureR

pon-dèrent respectivement le degré de conance accordée à l'étape de prédiction ou de correction. L'estimation résulte d'un compromis entre le modèle et les sorties mesurées sur le procédé. Le ltre de Kalman est un ltre à minimum de variance qui minimise l'erreur quadratique moyenne [5]. Par conséquent, le ltre de Kalman est l'estimateur linéaire optimal pour les systèmes linéaires. La minimisation de l'erreur quadratique moyenne peut être formulée sous la forme d'un problème d'optimisation numérique. Bien que plus coûteux en termes d'eort de calcul, le problème d'optimisation numérique ne requiert pas obligatoirement de linéarisation du modèle autour du vecteur d'états estimés bx. Une formulation du ltre de Kalman sous la

forme d'un problème d'optimisation devient intéressante pour l'observation des procédés non linéaires dans la mesure où cette approche est équivalente au ltre de Kalman dans le cas linéaire. Ainsi, cette équivalence entre le ltre de Kalman et sa formulation sous un problème d'optimisation numérique, soit l'observateurLSE, sera montrée dans la prochaine section.

1.1.2 Estimation par l'approche des moindres carrés

L'équivalence entre le ltre de Kalman et l'observateur LSE a été établie par un système d'équation matricielle [18]. Par contre, pour n de simplication, la commande à l'entrée

(26)

du système n'est pas été considérée. En pratique, les modèles décrivant les procédés sont dépendants d'une commande à l'entrée. Un système matriciel considérant la commande à l'entrée a été proposé [4] et la démonstration de cette section en est tirée. La plupart des variables de cette démonstration sont auxillaires et elles ne sont donc pas inclues dans la nomenclature.

L'observateurLSE est un problème d'optimisation qui est formulé comme suit :

min {ˆxk(i)}ki=0

JLSE (1.16)

où à l'instant présent k, le critère d'optimisation duLSE JLSE suivant est minimisé :

JLSE= ||(ˆxk(0) − ¯x0)||2P−1 0 + k−1 X i=0 || ˆw(i)||2Q−1 + k X j=0 ||ˆv(j)||2R−1 (1.17)

La forme quadratique est représentée par la notation suivante : ||H||2

L= HTLH. La notation

b

xj(i)réfère toujours au vecteur d'états de l'instant discret i et estimé à l'instant j. L'équation (1.17) est valide pour k ≥ 0 et elle est initialisée avec l'estimation initiale a priori ¯x0.wb etvb

sont, respectivement, les estimations du bruit de procédé et du bruit de mesure qui sont sujet au modèle linéaire suivant :

ˆ

w(i) = ˆxk(i + 1) − Aˆxk(i) − Bu(i) (1.18a) ˆ

v(i) = y(i) − Cˆxk(i) (1.18b)

La formulation du problème d'optimisation inclut trois matrices de pondération symétriques et dénies positives sur l'erreur d'estimation initiale, sur le bruit de procédé et sur le bruit de mesure, soit P0,Q etR. Les matrices de covariance de l'erreur initiale a priori, du bruit de

procédé et du bruit de mesure sont utilisées comme matrices de pondération.

Le modèle linéaire des équations (1.18a) et (1.18b) peut se réécrire sous la forme d'un calcul matriciel comme suit :

Sˆxk(i + 1) + Aˆxk(i) − Z(i + 1) = " ˆ w(i) −ˆv(i + 1) # (1.19)

où S, A et Z sont dénis par les équations suivantes :

S = " I C # A = " −A 0 # Z(i) = " Bu(i − 1) y(i) # (1.20)

(27)

I et 0 sont respectivement la matrice identité et la matrice nulle, toutes deux de dimensions appropriées. La réécriture du modèle linéaire permet la simplication du critère du problème d'optimisationJLSE, énoncé aux équations (1.16) et (1.17), parce qu'il permet de regrouper les

trois termes de l'équation en une forme quadratique qui est explicite en ˆXk et donc facilement dérivable. La simplication du critère est présentée de façon détaillée est présentée en annexe à la sectionA.4. Le problème d'optimisation est exprimé comme suit :

min ˆ Xk

( ¯AkXˆk− Bk)TΩ¯k( ¯AkXˆk− Bk) (1.21)

où ¯Ak, Bk, ˆXk(j) et ¯Ωk sont les matrices suivantes :

¯ Ak=          S A 0 0 0 0 ... ... 0 0 0 0 S A 0 0 0 0 S A 0 0 0 0 S          ¯ Ωk=       Ω 0 0 0 0 ... 0 0 0 0 Ω 0 0 0 0 Ω0       Bk=            Z(k) Z(k − 1) ... · · · Z(1) Z(0)            ˆ Xk(j) =       ˆ xk(j) ˆ xk(j − 1) ... ˆ xk(0)       (1.22) et Z0= " ¯ x0 y(0) # Ω0 = " P−10 0 0 R−1 # Ω = " Q−1 0 0 R−1 # (1.23)

(28)

Pour trouver la valeur de ˆXk pour laquelle le critère JLSE est minimal, ce dernier doit être

dérivé en regard de ˆXk et annulé tel que :

δJLSE δ ˆXk = δ( ˆX T kA¯TkΩ¯kA¯kXˆk) δ ˆXk − 2δ( ˆX T kA¯TkΩ¯kBk) δ ˆXk +δ(B T kΩ¯kBk) δ ˆXk = 0 = 2 ¯ATkΩ¯kA¯kXˆk− 2 ¯ATkΩ¯kBk= 0 (1.24)

L'estimation des états qui minimisent le critère d'optimisation est le vecteur suivant :

ˆ Xk(j) =       ˆ xk(j) ˆ xk(j − 1) ... ˆ xk(0)       = ( ¯ATjΩ¯jA¯j)−1A¯TjΩ¯jBj (1.25)

L'observateur LSE permet d'estimer les états de l'instant discret 0 jusqu'à discret j en re-construisant récursivement le système matriciel ¯Aj, ¯Ωj et Bj pour 0 ≤ j ≤ k. Ainsi, il faut développer les éléments du vecteur ˆXk(j) et montrer que chacun est équivalent à ce que pro-duirait le ltre de Kalman. Le dernier élément de ce vecteur est l'estimation initiale a posteriori ˆ

xk(0). En prenant j = 0 et selon l'équation (1.22), ¯A0, B0 et ¯Ω0 sont :

¯

A0= S Ω¯0= Ω0 B0= Z(0) (1.26)

L'estimation initiale a posteriori s'exprime comme suit :

ˆ

Xk(0) = ˆxk(0) = ( ¯AT0Ω¯0A¯0)−1A¯T0Ω¯0B0 = (STΩ0S)−1STΩ0Z(0) (1.27) Avec la dénition des matrices S et Ω0 données aux équations (1.20) et (1.23), le terme STΩ0S est :

(STΩ0S)−1= (P−10 + C TR−1

C)−1 (1.28)

Le lemme d'inversion matricielle est représenté par l'équation suivante :

(M + DTND)−1= M−1− M−1DT(DM−1DT + N−1)−1DM−1 (1.29) En appliquant le lemme d'inversion matricielle à l'équation (1.28), on obtient :

(29)

P0 est la matrice de covariance de l'erreur initiale a priori qui au départ est une matrice de pondération de l'équation (1.17). L'équation (1.30) est celle de correction de la matrice de covariance de l'erreur initiale a priori, puisque sa forme est identique à l'équation (1.13). Ainsi, l'équation (1.30) est équivalente à la matrice de covariance de l'erreur initiale a posteriori P0(0) et s'exprime comme suit :

(STΩ0S)−1= (I − K(0)C)P0= P0(0) (1.31) En insérant l'équation (1.31) dans l'équation (1.27), l'estimation initiale a posteriori s'exprime ainsi : ˆ xk(0) = (I − K(0)C)P0STΩ0Z(0) = (I − K(0)C)P0(P−10 x¯0+ CTR−1y(0)) = ¯x0− K(0)C¯x0+ (P0CTR−1− K(0)CP0CTR−1)y(0) = ¯x0− K(0)C¯x0+ (K(0)(CP0CT + R)R−1− K(0)CP0CTR−1)y(0) = ¯x0− K(0)(y(0) − C¯x0) (1.32)

Les équations (1.32) contiennent les étapes de correction du ltre de Kalman, soit la correction de l'estimation intiale a priori ¯x0 et de la matrice de covariance de l'erreur initiale a priori

P0. Ainsi, il reste à montrer que chaque élément restant du vecteur ˆXk(j) est équivalent aux estimations obtenues par le ltre de Kalman. Ce vecteur peut être réécrit pour exprimer les estimations à l'instant discret j qui se situent entre l'instant initial et l'instant présent k :

ˆ xk(j) =  I 0 · · · 0 | {z } j  ˆ Xk(j) où 0 ≤ j ≤ k (1.33)

Comme pour l'estimation initiale a posteriori ˆxk(0), les matrices ¯Aj, Bj, ¯Ωj sont utilisées pour exprimer l'estimation a posteriori des états à l'instant j :

ˆ Xk(j) = " ˆ xk(j) ˆ Xk(j − 1) # = ( ¯ATjΩ¯jA¯j)−1A¯TjΩ¯jBj (1.34)

où ˆXk(j − 1) est le vecteur des estimations a posteriori de l'instant initial jusqu'à l'instant j − 1. Pour résoudre cette expression matricielle, le changement de variables suivant doit être introduit :

(30)

où Ej, Qj et gj sont dénis par les équations suivantes : E0 = 0 Ej = " 0 STΩαj αTjΩS Ej−1+ αTjΩαj # Q0 = STΩ0S Qj = " STΩ0S 0 0 Qj−1 # g0 = STΩ0 gj = " STΩ 0 αTjΩ gj−1 # (1.36)

αj est déni par les équations suivantes :

αj =  A 0 · · · 0 | {z } j−1  , α0= 0 (1.37)

En appliquant le changement de variable des équations (1.35) avec les matrices Ej, Qj et gj des équations (1.36) à l'équation (1.34), l'estimation a posteriori des états est :

" ˆ xk(j) ˆ Xk(j − 1) # = " STΩS STΩαj αTjΩS (Ej−1+ Qj−1) + αTjΩαj #−1" STΩ 0 αTjΩ gj−1 # " Z(j) Bj−1 # (1.38)

Le déterminant de la matrice (Ej+ Qj) s'exprime comme suit :

det[(Ej+ Qj)] = STΩS STΩαj αTjΩS (Ej−1+ Qj−1) + αTjΩαj = STΩ(Ej−1+ Qj−1)S + STαTjΩ2αjS − STαTjΩ2αjS = STΩ(Ej−1+ Qj−1)S (1.39)

La comatrice de la matrice (Ej+ Qj) est dénie par :

com[(Ej + Qj)] = " (Ej−1+ Qj−1) + αTjΩαj −αjTΩS −STΩα j STΩS # (1.40)

(31)

(Ej+ Qj)−1 = 1 det[(Ej+ Qj)]com[(E j + Qj)] = 1 STΩ(Ej−1+ Qj−1)S " (Ej−1+ Qj−1) + αTjΩαj −αTjΩS −STΩα j STΩS # = " ST(Ω−1+ αTj(Ej−1+ Qj−1)−1αj)S −αTj(Ej−1+ Qj−1)−1S −ST(E j−1+ Qj−1)−1αj (Ej−1+ Qj−1)−1 # (1.41)

L'inverse de la matrice (Ej+ Qj) est une matrice tridiagonal. Néanmoins, le premier élément de cette matrice, (Ej + Qj)−111, possède un intérêt particulier. En considérant la dénition de la matrice αj établie aux équations (1.37), son inverse devient :

((Ej+ Qj)−111)−1= (ST(Ω−1+ A(Ej−1+ Qj−1)−111AT)S)−1 (1.42) En appliquant le lemme d'inversion matricielle, l'équation (1.42) s'exprime ainsi :

((Ej+ Qj)−111) −1

= ST(Ω − ATΩ(ATΩA + (Ej−1+ Qj−1)−111ΩA)S (1.43) Avec les dénitions des matrices S, Ω et A établies aux équations (1.20) et (1.23), le lemme d'inversion matricielle de l'équation (1.29) est utilisé à rebours pour retrouver la forme des équations de prédiction et de correction de la matrice de covariance de l'erreur a posteriori tel que : ((Ej+ Qj)−111) −1 = ST(Ω − ATΩ(ATΩA + (Ej−1+ Qj−1)−111) −1 ΩA)S = CTR−1C + (Q−1− ATQ−1(ATQ−1A + (Ej−1+ Qj−1)−111)−1Q−1A) = CTR−1C + (AT(Ej−1+ Qj−1)−111A + Q) −1 (1.44)

Le premier élément de la matrice (Ej+ Qj)−1, soit (Ej+ Qj)−111, est la matrice de covariance de l'erreur a posteriori Pj(j). L'équation (1.44) est équivalente aux équations d'actualisation de la matrice de covariance, soient les équations de (1.14b) et (1.15c), tel que :

((Ej+ Qj)−111) −1 = Pj(j)−1= CTR−1C + (ATPj−1(j − 1)A + Q)−1 = CTR−1C + Pj−1(j)−1 Pj(j) = (CTR−1C + Pj−1(j)−1)−1 (1.45)

(32)

L'équation de correction de la matrice de covariance de l'erreur a posteriori, soit l'équation (1.13), est plus éloquente lorsque le lemme d'inversion matricielle est appliqué à l'équation (1.45) :

Pj(j) = (CTR−1C + Pj−1(j)−1)−1

= Pj−1(j) − Pj−1(j)CT(CPj−1(j)CT + R)−1CPj−1(j)

(1.46)

L'estimation a posteriori est uniquement dépendante de la première ligne de la matrice (Ej+ Qj)−1(voir équation (1.38) et (1.41)). Le premier élément de cette ligne étant déni, l'élément (Ej+ Qj)−112 peut se simplier en fonction de la matrice de covariance de l'erreur a posteriori

Pj(j) :

(Ej + Qj)−112 = −Pj(j)Pj(j)−1αj(Ej−1+ Qj−1)−1S

= −Pj(j)ST(Ω−1+ APj−1(j − 1)AT)−1αj(Ej−1+ Qj−1)−1

(1.47)

En insérant les équations (1.45) et (1.47) dans l'équation (1.38), cette dernière devient :

ˆ Xk(j) = " Pj(j) −Pj(j)Pj(j)−1αj(Ej−1+ Qj−1)−1S −ST(E j−1+ Qj−1)−1αj (Ej−1+ Qj−1)−1 # × " STΩ 0 αTjΩ gj−1 # " Z(j) Bj−1 # (1.48)

Conformément aux équations (1.37) et (1.48), l'expression de l'estimation a posteriori xbk(j)

devient : ˆ xk(j) = Pj(j)ST(Ω − Ω(Ω−1+ APj−1(j − 1)AT)−1APj−1(j − 1)AT) | {z } (Ω−1+AP j−1(j−1)AT)−1 Z(j) − Pj(j)ST(Ω−1+ APj−1(j − 1)AT)−1αj(Ej−1+ Qj−1)−1gj−1Bj−1 | {z } ˆ Xk(j−1) (1.49)

Avec les dénitions de αj et de Z(j) données par les équations (1.20) et (1.37), l'équation (1.49) se réduit : ˆ xk(j) = Pj(j)ST(Ω−1+ APj−1(j − 1)AT)−1 " Bu(j − 1) + Aˆxj−1(j − 1) y(k) # (1.50)

Avec la dénition de la matrice de covariance de l'erreur a posteriori Pj(j)donnée par l'équa-tion (1.13), les équations de prédiction et de correction de l'estimation à l'instant j sont retrouvés simultanément :

(33)

ˆ xk(j) = " (I − K(j)C)Pj−1(j) (I − K(j)C)Pj−1(j)CT | {z } RK(j) # " Pj−1(j)−1 0 0 R−1 # × " Bu(j − 1) + Aˆxj−1(j − 1) y(j) # = h I − K(j)C K(j) i " Bu(j − 1) + Aˆxj−1(j − 1) y(j) # = (Aˆxj−1(j − 1) + Bu(j − 1)) + K(j) h

y(j) − C(Aˆxj−1(j − 1) + Bu(j − 1)) i = ˆxj−1(j) + K(j) h y(j) − Cˆxj−1(j) i (1.51)

L'observateur LSE reconstruit toutes les estimations a posteriori de l'instant initial jusqu'à l'instant présent, et ce à chaque période d'échantillonnage. Les équations (1.27) et (1.34) permettent d'obtenir ces estimations lorsque le système matriciel déni aux équations (1.3) est construit récursivement de l'instant initial jusqu'à l'instant présent. Elle permet simultanément l'actualisation de la matrice de covariance de l'erreur a posteriori à chaque instant discret. Lorsque le modèle du procédé est linéaire, ces équations sont identiques à celles du ltre de Kalman. Ainsi, l'observateurLSE est équivalent à ce dernier.

L'observateurLSE possède une limite fondamentale. An d'estimer le vecteur d'états, le pro-blème d'optimisation doit reconstruire tous les états de l'instant initial jusqu'à l'instant pré-sent. Donc, la taille du problème d'optimisation croit à chaque période d'échantillonnage. Le temps requis pour la résolution du problème d'optimisation croit également. Puisque la taille du problème d'optimisation croit à chaque période d'échantillonnage, le nombre de variables à estimer croît conformément.

Pour un modèle linéaire, le ltre de Kalman produit une estimation identique à celui de l'observateur LSE. Puisque le ltre de Kalman est un algorithme récursif, son eort de calcul est beaucoup moins important qu'un problème d'optimisation. Néanmoins, cette équivalence justie l'utilisation d'un problème d'optimisation dans le cas d'un modèle non linéaire, parce qu'aucune linéarisation n'est requise. La réduction de la lourdeur numérique de l'observateur

LSE devient donc un enjeu pour son utilisation dans le cas non linéaire. L'observateur MHE, utilisant une fenêtre d'observation de dimension xe, est un estimateur stochastique qui a été développé pour répondre au problème d'estimation non linéaire. Il sera examiné dans la prochaine sous-section.

1.1.3 Observateur à horizon glissant

L'observateurMHEest issu du même raisonnement que l'observateurLSE. Il minimise l'erreur quadratique moyenne mais contrairement à ce dernier, il se divise en deux phases distinctes. Dans un premier temps, lorsque l'instant discret présent est inférieur ou égal à la dimension

(34)

de la fenêtre d'observation N, l'observateur MHE est identique à l'observateurLSE. Puisque

ces estimateurs minimisent l'erreur quadratique moyenne, le problème d'optimisation est for-mulé comme suit :

min {ˆxk(i)}ki=0

JMHE (1.52)

où le critère d'optimisation, JMHE, suivant est minimisé :

JMHE= ||(ˆxk(0) − ¯x0)||2P−1 0 + k−1 X i=0 || ˆw(i)||2Q−1 + k X j=0 ||ˆv(j)||2R−1 (1.53) valide pour k ≤ N.

L'équation (1.52) est toujours sujette au système linéaire des équations (1.18a) et (1.18b). La dénition des matrices de pondération P0, Q et R est identique que celle présentée à la

sous-section 1.1.2. L'optimisation est eectuée sur la base de l'estimation initiale a priori ¯x0,

de sorte que la résolution du problème d'optimisation de l'équation (1.16) est équivalente à celle de l'équation (1.52) et, par la même occasion, au ltre de Kalman.

Avec cette formulation, la taille du problème d'optimisation croit jusqu'au point d'atteindre la dimension de la fenêtre d'observationN. La fenêtre d'observation est une fenêtre de temps qui

retourne àN périodes d'échantillonnage dans le passé. Ainsi, l'estimation des états à l'instant

présent k ne peut plus être basée sur les estimations initiales a priori ¯x0 lorsque k > N. La

formulation du problème d'optimisation doit être actualisée comme suit :

min {ˆxk(i)}ki=k−N

JMHE (1.54)

où le critère d'optimisation devient :

JMHE= ||(ˆxk(k − N ) − ˆxk−N −1(k − N ))||2Pk−N −1(k−N )−1 + k−1 X i=k−N || ˆw(i)||2Q−1+ k X j=k−N ||ˆv(j)||2R−1 (1.55)

valide pour k > N et toujours sujet au système linéaire des équations (1.18a) et (1.18b). La formulation du problème d'optimisation inclut toujours trois matrices de pondération sy-métriques et dénies positives, soitPk−N −1(k − N ),QetR. Ce qui distingue l'équation (1.53) de la formulation de l'équation (1.55) est la matrice de pondération Pk−N −1(k − N ) qui est la matrice de covariance de l'erreur a priori à l'instant k − N.

(35)

Pour résoudre ce problème d'optimisation, le système matriciel proposé à la sous-section1.1.2

doit être adapté. Principalement, les matrices Ω0 et Z(0) deviennent :

Z(k − N ) = " ˆ xk−N −1(k − N ) y(k − N ) # Ωk−N = " Pk−N −1(k − N )−1 0 0 R−1 # (1.56)

oùbxk−N −1(k −N )sont les estimés a priori à l'instant k−N. Ces nouvelles matrices entraînent

un changement des matrices Bk, Q0, g0 et ¯Ωk qui deviennent :

˜ Bk=          Z(k) Z(k − 1) ... Z(k − N + 1) Z(k − N )          ˜ Qk−N = STΩk−NS ˜gk−N = STΩk−N ˜ Ωk=       Ω 0 0 0 0 ... 0 0 0 0 Ω 0 0 0 0 Ωk−N       (1.57)

En utilisant le modèle de l'équation linéaire de l'équation (1.19), la simplication du critère détaillée en annexe à la sous-sectionA.4et les nouvelles matrices des équations (1.56) et (1.57), l'estimation des états qui minimisent le critère d'optimisation de l'équation (1.54) est :

ˆ Xk(j) =       ˆ xk(j) ˆ xk(j − 1) ... ˆ xk(k − N )       = ( ¯ATjΩ˜jA¯j)−1A¯TjΩ˜jB˜j (1.58)

Dans le cas de l'observateur MHE, l'initialisation du problème d'optimisation est eectuée à l'instant k − N, contrairement à l'observateur LSE. En remplaçant les estimations initiales a priori ¯x0 par ceux à l'instant k − N, l'analogie entre les deux estimateurs peut être montrée

(36)

ˆ xk(k − N ) = (STΩk−NS)−1STΩk−NZ(k − N ) = (I − K(k − N )C)Pk−N −1(k − N ) h Pk−N −1(k − N )−1xˆk−N −1(k − N ) + CTR−1y(k − N )i = ˆxk−N −1(k − N ) + K(k − N ) h y(k − N ) − Cˆxk−N −1(k − N ) i (1.59)

Le point de départ du problème d'optimisation est le vecteur des estimations a priori à l'instant k − N, soitbxk−N −1(k − N ). Contrairement à l'observateurLSE, ce vecteur n'est pas xe dans

le temps. Il est la prédiction faite à partir de l'estimation a posteriori à l'instant k − N − 1, soit la solution du problème d'optimisation de l'équation (1.54) à cet instant. Pour un modèle linéaire, la prédiction d'un vecteur d'états est donnée par l'équation (A.10). Puisqu'il servira

N périodes d'échantillonnage plus tard, les états doivent être conservés en mémoire.

Mise à part l'initialisation à chaque période d'échantillonnage, il n'existe aucune diérence entre les deux estimateurs dans la résolution de l'instant k − N jusqu'à l'instant présent k. Le

développement de la section 1.1.2 serait conformément retrouvé. Les estimations a posteriori et les matrices de covariance de l'erreur a posteriori entre l'instant d'initialisation k − N et l'instant présent k sont donnés par les équations (1.45), (1.46) et (1.51). La formulation de

l'observateur MHE est plus ecace en ce qui concerne l'eort de calcul. À chaque période d'échantillonnage, il doit reconstruire N vecteurs d'état tandis que l'observateur LSE doit en

reconstruire un nombre inniment grandissant.

Pour un modèle linéaire, la sous-section précédente 1.1.2 a montré que l'observateur LSEest équivalent au ltre de Kalman. Brièvement, elle reproduit le ltre de Kalman de l'instant initial jusqu'à l'instant présent, et ce à chaque période d'échantillonnage. C'est aussi le cas de l'observateur MHE lorsque la période d'échantillonnage k est inférieure à la dimension de la

fenêtre d'observationN. Lorsque cette dernière condition n'est pas remplie, l'équivalence entre

l'observateur MHE et le ltre de Kalman dépend de la provenance des estimations a priori,

b

xk−N −1(k − N )qui initialise le problème d'optimisation à chaque période d'échantillonnage. L'observateur MHE est équivalent au ltre de Kalman si ce vecteur a été construit à partir des mêmes estimations initiales a priori ¯x0 et de la même matrice de covariance de l'erreur

initiale a priori P0. L'observateur MHE de cette sous-section répond à cette condition, voir

l'équation (1.52). Il est par conséquent équivalent au ltre de Kalman.

Puisqu'il est basé sur un problème d'optimisation, l'observateur MHE est plus coûteux en eort de calcul si on le compare à un observateur non linéaire tradionnellement utilisé dans la littérature comme le ltre de Kalman étendu. Contrairement au ltre de Kalman étendu, l'observateur MHE ne requiert pas de linéarisation qui peut être dicile à réaliser pour les modèles phénoménologiques plus complexes. L'absence de linéarisation évite aussi une source d'erreur qui peut se propager dans l'algorithme d'estimation [10].

(37)

De plus, le ltre de Kalman étendu ne prend pas en charge naturellement les contraintes sur les estimations des états du procédé. Pour les modèles non linéaires, la présence de minimums locaux peut amener un observateur non contraint, comme le ltre de Kalman étendu, à di-verger vers une estimation incorrecte des états réels du procédé [10]. Ainsi, l'implantation de contraintes dans l'algorithme du ltre de Kalman et de l'observateur MHE sera traitée dans la prochaine sous-section.

1.1.4 Application de contraintes sur les estimations

L'existence de limitations physiques sur le produit ou le procédé justie l'implantation de contraintes dans les algorithmes d'estimation. La température des particules solides ainsi que la température maximale d'admission de l'air du séchoir à lit uidisé sont des exemples, pré-sentés notamment au chapitre3, d'exigences de qualité et d'opération. Il existe de nombreuses techniques utiles pour appliquer des contraintes sur les états dans l'algorithme du ltre de Kalman et ses dérivés. Une revue extensive est disponible dans [24].

Les contraintes peuvent apparaître sous une formulation d'égalité ou d'inégalité et elles peuvent toutes aussi être linéaires que non linéaire. En pratique, dans l'étude des procédés, celles sous la forme linéaire d'inégalité sont les plus rencontrées puisqu'elles caractérisent les frontières d'opération de celui-ci. Les contraintes linéaires d'inégalités peuvent être implantées dans l'algorithme du ltre de Kalman en projetant l'estimation a posteriori bxk(k)sur les contraintes,

ce qui revient à résoudre le problème d'optimisation suivant [25] :

ˆ

xck(k) =argminx (x − ˆxk(k))TW(x − ˆxk(k)) (1.60) où bx

c

k(k)est l'estimation a posteriori contrainte et il est sujet aux contraintes suivantes :

ˆ

xmin≤ x ≤ ˆxmax (1.61)

où bxmin et xbmax sont les limites minimales et maximales sur les états du procédé. W est

une matrice de pondération dénie positive. Lorsque le bruit est gaussien, une matrice de pondération choisit tel qu' W = Pk(k)−1 indique une estimation correspondant au maximum de probabilité. L'estimation est à variance minimale et sans biais [25].

Dans le cas linéaire, l'équation (1.60) est un problème d'optimisation convexe et sa résolution est implantée à la suite du calcul des équations (1.15b) et (1.15c). La résolution du problème de l'équation (1.60) est eectuée à travers des routines d'optimisation standard comme la méthode de points intérieurs contenue dans la fonction fmincon de MATLAB. Pour ce qui est des contraintes linéaires d'égalité, l'équation (1.60) possède une solution analytique développée à l'aide du multiplicateur Lagrangien toujours pour le cas linéaire [23]. Toutefois, l'implantation

(38)

de contraintes linéaires d'égalité sur les estimations des états est généralement peu souhaitable, car elle peut entraîner des problèmes de faisabilité [25]. De plus, elles sont peu rencontrées dans l'observation des procédés chimiques, puisque les états représentent la majeure partie du temps des variables dynamiques.

L'implantation de contraintes dans l'algorithme de l'observateur MHE est plus directe que pour le ltre de Kalman linéaire. En eet, ce dernier est issu d'un problème d'optimisation et elles sont directement supplémentées à la routine d'optimisation. Toutes les formulations y sont traitées d'emblée [24]. Il a été aussi montré que l'ajout de contraintes permet d'augmenter la précision de l'estimation en comparaison avec un observateurMHEnon contraint [20]. Ainsi, la possibilité de contraindre les états explicitement dans la formulation de l'observateurMHE

demeure un avantage marquant de ce dernier.

1.2 Commande prédictive économique

La commande prédictive est une technique de commande avancée vastement utilisée dans le domaine du contrôle de procédé. Elle possède l'avantage de pouvoir prendre en compte intrinsèquement les procédés multivariables ainsi que les contraintes [16]. De plus, le dévelop-pement de la commande prédictive et son entretien est plus simple que d'autres techniques de commande avancée [16]. L'impact de la commande prédictive est décrit comme étant :

The only advanced control methodology which has made a signicant impact on industrial control engineering is predictive control [16].

La commande prédictive (MPC pour model predictive control)se base sur le problème d'opti-misation suivant :

min {∆u}k+Hp−1k

JMPC (1.62)

où, à l'instant présent k, le critère d'optimisationJMPC traditionnellement utilisé est :

JMPC= Hp

X i=1

(ˆyk(k + i) −ˆr(k + i))TM(ˆyk(i) −ˆr(i)) + Hp

X i=1

∆u(k + i − 1)TN∆u(k + i − 1) (1.63)

b

yk(j) réfère au vecteur de sorties de l'instant discret j et prédites à l'instant présent k. Ces sorties sont obtenues par la résolution récursive d'un modèle linéaire comme celui présenté aux équations (1.3) et (1.4).brest le vecteur de consignes prédites et∆uest le vecteur d'incréments

(39)

(a) Commande prédictive traditionnelle (b) Commande prédictive économique

Figure 1.1  Paradigme d'utilisation de la commande prédictive dans la hiérarchie de com-mande de procédés (adapté de [6;16])

À chaque instant, la loi de commande MPCdétermine la séquence optimale d'incrément d'en-trées manipulées sur un horizon de prédiction Hp déterminé par la minimisation d'un critère

comme celui présenté à l'équation (1.62). Traditionnellement, la somme pondérée de l'erreur quadratique entre la prédiction des sorties et la consigne ainsi que la somme pondérée des incréments d'entrées manipulées mis au carré forment un critère adéquat. Les matrices de pondérations MetNsont respectivement utilisées dans ce critère. Possédant le vecteur

d'in-créments d'entrées manipulées à l'instant présent ∆u(k) et connaissant le vecteur d'entrées manipulées à l'instant précédentu(k − 1), il est possible d'extraire le vecteur d'entrées mani-pulées à l'instant présent u(k)et l'appliquer comme commande au procédé. Le temps discret est ensuite incrémenté d'une période d'échantillonnage et le processus est répété pour obtenir le prochain vecteur de commande optimale en fonction du critère et des paramètres choisis. La commande MPC est implantée dans la hiérarchie de commande de procédés, qui est pré-sentée à la gure 1.1, comme une stratégie de commande avancée [16]. Dans le paradigme d'implantation traditionnel de la loi de commande MPC, les consignes sont des points d'opé-rations optimaux issus d'une optimisation en régime permanent du procédé et répondant à des rendement économique de ce dernier (voir étape de planication). La loi de commande

MPC détermine donc une séquence d'entrées manipulées optimales, en regard de l'équation (1.62), pour amener et/ou maintenir le procédé à ces points d'opérations optimaux malgré les perturbations l'aectant. La séquence d'entrées manipulées optimales est traitée et main-tenue dans les couches de commande inférieures où se trouvent, notamment, les régulateurs

(40)

Le paradigme actuel d'implantation de la commande prédictive s'intéresse à la fusion entre l'étape d'optimisation en régime permanent et la commande avancée [6] comme présentée à la gure 1.1. Une loi de commande sous la forme d'un problème d'optimisation ore plus de liberté dans l'écriture du critère de la loi de commande. Ainsi, dans le cas de la commande prédictive économique (EMPC pour economic model predictive control), la loi de commande se base sur le problème d'optimisation suivant :

min {∆u}k+Hp−1k

JEMPC(ˆy, u) (1.64)

où JEMPC est le critère d'optimisation de la loi de commande EMPC. Ce critère est

person-nalisable et il peut être fonction des prédictions des sorties yb, des entrées manipulées u ou

de tout autre paramètre et/ou variable au choix du concepteur. Notamment, le critère éco-nomique reète les objectifs écoéco-nomiques de l'étape de planication. Ainsi, la minimisation des coûts d'opération ou la maximisation du prot d'une unité peut être directement incluse dans la loi de commande pour être calculée à chaque instant discret. Il a été montré qu'une loi de commande EMPC est en mesure de réduire la quantité d'énergie consommée ou le temps d'opération tout en maintenant la qualité de produit lors du séchage de granule pharmaceu-tique [8]. Une loi de commandeEMPCa permis d'augmenter le taux production de 2% ou de réduire de 2.2% les coûts d'opération d'un réacteur simulé [1;6]. Par contre, pour l'opération en continu d'une usine simulée de production de vinyle acétate, aucune augmentation de pro-duction n'a été remarquée en comparant une loi de commande EMPC à la loi de commande prédictive traditionnelle [27].

Ellis et al. [6] présente une revue extensive des méthodes qui assurent la stabilité dont les principales sont l'horizon inni, les contraintes terminales et les contraintes de Lyapunov. Le critère de la loi de commande EMPC est une fonction non linéaire et ainsi la stabilité de la commande devient un enjeu majeur. En fait, puisque la loi de commande EMPC est non linéaire, aucune généralité ne peut en être tirée comparativement à la commande prédictive linéaire dont le critère est un problème d'optimisation convexe. Ainsi, à ce jour, l'implantation de la commande EMPCprésente un risque et il reste à démontrer qu'un gain économique ou de sécurité puisse en être tiré [6].

(41)

Conclusion

La nécessité d'estimer les états de manière précise est essentielle pour le maintien d'une erreur statique nulle lorsqu'une commande prédictive est conçue. Il existe plusieurs observateurs non linéaires issus du ltre de Kalman. Toutefois, peu d'entre eux sont en mesure de prendre en charge les modèles phénoménologiques complexes sans avoir recours à une étape de linéarisa-tion. L'étude bibliographique permet de justier l'implantation de l'observateurMHE comme observateur non linéaire dans l'application d'aide à la conception.

Sous les hypothèses de bruits gaussiens et d'un observateur sans biais, le ltre de Kalman minimise l'erreur quadratique moyenne et il est réécrit sous la forme d'un problème d'optimi-sation numérique, soit l'observateur LSE. Par un système matriciel et quelques changements de variables, on montre que ce dernier et le ltre de Kalman sont équivalents dans le cas d'un modèle linéaire et en l'absence de contraintes. Il en est de même pour l'observateur MHE. La correspondance parfaite des solutions dans le cas linéaire non contraint couplée à la for-mulation non linéaire brute justie l'utilisation du MHEpour les modèles phénoménologiques complexes.

Enn, le contexte de l'implantation de la commande prédictive économique est abordé. Les enjeux de stabilité de la loi de commande et de performance par rapport à l'approche tra-ditionnelle sont expliqués. La commande EMPC est relativement jeune et la majorité des preuves de stabilité et de performance sont produites en simulation. Sachant que, dans l'envi-ronnement MATLAB, il existe peu de ressources intuitives pour concevoir et ajuster ces deux algorithmes, il devient justié de développer une solution simple et exible pour la conception et l'ajustement d'une commande EMPCcouplée d'un observateur non linéaire.

Le prochain chapitre propose un survol de la solution proposée, soit une application program-mée dans l'environnement MATLAB, et de ses fonctionnalités. Par la suite, cette application est utilisée pour développer un capteur virtuel de teneur en eau pour le séchage de granules pharmaceutiques.

Figure

Figure 2.1  Interface graphique de l'application
Figure 2.2  Ordinogramme simplié de l'interface graphique de l'application
Table 2.1  Principaux paramètres saisis dans les live scripts de l'application (a) Modèles Linéaire t s A B C D n x n y n u n md x op y op u op Non-linéaire t s f (·) h(·) n x n y n u n md x op y op u op (b) Observateurs Filtre de Kalman contraint
Figure 2.3  Librairie de blocs disponible pour toutes les fonctions S générées par l'application
+7

Références

Documents relatifs

La Figure 5.6(b) pr´esente l’estimation de la fraction massique de coke dans le r´eg´en´erateur, celle du coke r´eel dans le r´eg´en´erateur, celle du coke avec le mod`ele

Il est particuli`erement important pour le probl`eme de la commande du lit mobile simul´e car il permet de fixer des choix raisonnables d’entr´ees manipul´ees, de sorties

Nous présentons, également dans ce chapitre, quelques résultats importants qui se dégagent d’une étude comparative entre les systèmes non linéaires de degré relatif un ou deux,

Cet effet peut être apprécié en inspectant la manière dans laquelle les fonctions de base du LMTO standard sont combinées pour décrire la fonction d’onde du

Copyright and moral rights for the publications made accessible in the public portal are retained by the authors and/or other copyright owners and it is a condition of

Les résultats des simulations sont basés sur le modèle (1.7) et montrent les points suivants : 1) L’influence des constantes d’équilibre k i sur le niveau de difficulté de

Ainsi, s’il n’y avait pas les consid´erations li´ees au temps r´eel (parce que le temps de calcul allou´e est ´epuis´e, on peut ˆetre amen´e `a interrompre l’algorithme et

Au chapitre précédent, un modèle simplifié, dit de commande, a été présenté pour les besoins de la synthèse de la loi de commande. Ce modèle est un modèle paramétrique