CM08/P18
Introduction aux m ´ethodes num ´eriques d’optimisation
S. Mottelet
Universit ´e de Technologie de Compi `egne
1 Probl `emes sans contrainte Motivations
Notions fondamentales M ´ethodes et algorithmes
2 Probl `emes avec contraintes Motivations, Exemples Elements de th ´eorie M ´ethodes et algorithmes
3 Probl `emes d’optimisation en r ´egime transitoire Motivations
Exemple Cas g ´en ´eral
1 Probl `emes sans contrainte Motivations
Notions fondamentales M ´ethodes et algorithmes
2 Probl `emes avec contraintes Motivations, Exemples Elements de th ´eorie M ´ethodes et algorithmes
3 Probl `emes d’optimisation en r ´egime transitoire Motivations
Exemple Cas g ´en ´eral
1. Motivations
1.1. Formulation g ´en ´erale des probl `emes d’optimisation
Forme standard
minimiser
x∈K f(x)
K ={x ∈Rn,g(x)≤0,h(x) =0}
I f:Rn−→R, g:Rn−→Rm, h:Rn−→Rp, continues
I g(x)≤0 : contraintes d’in ´egalit ´e
I h(x) =0 : contraintes d’ ´egalit ´e
Probl `eme sans contrainte⇐⇒K =Rn
1.2. Exemples
Optimisation d’un r ´eservoir
d
L
Le volumeV ´etant fix ´e, d ´eterminerdetLtels que le co ˆut de fabrication f(d,L) =c1πdL+c2πd2
2
soit minimal, o `uc1,c2sont les co ˆuts unitaires des parties cylindrique et plane.
1.2. Exemples
Identification de param `etres
D ´etermination de l’enthalpie et de l’entropie de r ´eaction dans un processus de sorption d’hydrog `ene
I Apr `es avoir ´etabli une pression initiale, on fait varier la temp ´erature par paliers{T1, . . . ,Tn}et on observe la pression obtenue `a l’ ´equilibre {P1, . . . ,Pn}.
I D ´eterminer∆Het∆Spour ajuster le mod `ele P=Patmexp
∆H
RT +∆S R
minimiser
∆H,∆S∈R f(∆H,∆S) =
n
X
i=1
exp
∆H RTi
+∆S R
− Pi Patm
2
probl `eme de moindres carr ´es
1.2. Exemples
Optimisation de r ´eacteurs
On consid `ere 4 r ´eacteurs de volumeVi,i =1, . . . ,4,P4
i=1Vi =20,
parfaitement m ´elang ´es et `a l’ ´etat stationnaire. L’esp `ece dont la concentration est not ´eeCr ´eagit `a la vitesser =−kCαdans chaque r ´eacteur. D ´eterminer les valeurs deVi,i =1, . . . ,4 rendant minimale la concentrationC4.
minimiser
V∈K f(V) =C4 IciK ={V ∈R4,Vi >0,P4
i=1Vi =20}etCest solution de 0=q(Ci−1−Ci)−kViCiα,i =1. . .4 Pr ´esence de variables non ind ´ependantes
2. Notions fondamentales
2.1. El ´ements de calcul diff ´erentiel
DansRnon notex =
x1
... xn
,x>= (x1, . . . ,xn) Produit scalaire, norme :x>y =Pn
i=1xiyi,kxk= (x>x)1/2
g:Rn→Rmd ´efine parg(x) = (g1(x), . . . ,gm(x))>estdiff ´erentiableenx s’il existe une matriceg0(x)de taillem×ntelle que
g(x+h) =g(x) +g0(x)h+khk(h)
I [g0(x)]ij=∂gi
∂xj
(x)
I Approximation def0(x)?
I Cas o `um=1,f:Rn→R, on note∇f(x) =f0(x)>le gradient def.
2.1. El ´ements de calcul diff ´erentiel
Matrice hessienne
Dans le cas o `um=1,f :Rn→Restdiff ´erentiable deux foiss’il existe une matricen×nsym ´etrique not ´e∇2f(x)telle que
f(x+h) =f(x) +∇f(x)>h+1
2h>∇2f(x)h+khk2(h)
I On a[∇2f(x)]ij = ∂2f
∂xi∂xj
(x)
2.1. El ´ements de calcul diff ´erentiel
Convexit ´e
On dit queK ⊂Rnestconvexesi
∀x,y ∈K,∀λ∈[0,1], λx+ (1−λ)y ∈K
objet convexe objet non convexe
x y
x y
2.1. El ´ements de calcul diff ´erentiel
Convexit ´e
On dit queg⊂Rn→RmestconvexesurK si
∀x,y ∈K, ∀λ∈[0,1],f(λx+ (1−λ)y)≤λf(x) + (1−λ)f(y) etstrictement convexesi
∀x,y ∈K,x 6=y,∀λ∈]0,1[,f(λx+ (1−λ)y)< λf(x) + (1−λ)f(y).
I Casm=1
x y x y
I K={x∈Rn,g(x)≤0,h(x) =0}est convexe sigest convexe ethaffine.
2.1. El ´ements de calcul diff ´erentiel
Convexit ´e, lien avec la matrice Hessienne
Une matrice sym ´etriqueAestd ´efinie positivesix>Ax >0 pour tout x 6=0,semi-d ´efinie positivesix>Ax ≥0 pour toutx 6=0. On note respectivementA>0 etA≥0.
A>0⇐⇒les valeurs propres deAsont strictement positives A≥0⇐⇒les valeurs propres deAsont positives
f ⊂Rn→Rdeux fois diff ´erentiable est convexe si et seulement si
∇2f(x)≥0, strictement convexe si∇2f(x)>0.
2.1. El ´ements de calcul diff ´erentiel
Convexit ´e, lien avec la matrice Hessienne
Exemple :f(x,y) =x2+2y2+x+y,∇2f(x,y) =
2 0
0 4
>0
-1 0 1 2
1 3
1 4
5
0 0
-1 -1 -1 -0.5 0 0.5 1
-1 -0.5 0 0.5 1
La convexit ´e est une notion fondamentale pour caract ´eriser l’existence et l’unicit ´e des solutions des probl `emes d’optimisation.
2.2. Conditions d’optimalit ´e (sans contrainte)
Condition n ´ecessaire
Soitf :Rn→Rdiff ´erentiable etˆx tel que∀x ∈Rn,f(ˆx)≤f(x). Alors
∇f(ˆx) =0.
Cette condition n’est pas suffisante !
0 1 0.5
1 1
1.5
0 2
0 -1 -1
-2 1 -1.5
1 -1
-0.5
0 0
0 -1 -1
-1 1 -0.5
0.5 0 0.5
1
0 0.5
1
-0.5 0
-1 -1 -0.5
f(x,y) =x2+y2 f(x,y) =−x2−y2 f(x,y) =x2−y2
2.2. Conditions d’optimalit ´e (sans contrainte)
Condition suffisante
Soitf :Rn→Rdiff ´erentiable etˆx tel que∇f(ˆx) =0. Sif est convexe alorsxˆest un minimum global def :∀x ∈Rn,f(ˆx)≤f(x).
Si de plusf est strictement convexe, alorsxˆest unique.
Dans le cas g ´en ´eral, on d ´efinit la notion deminimum local.
2.2. Conditions d’optimalit ´e (sans contrainte)
Minimum local
On dit quex∗est unminimum localdef s’il existeδ >0 tel que
∀x tel quekx−x∗k< δ, f(x∗)<f(x)
Soitf deux fois diff ´erentiable. Si∇f(x∗) =0 et∇2f(x∗)>0 alorsx∗est un minimum local def.
La plupart des algorithmes d’optimisation ont pour but de rechercher un minimum local def!
3. M ´ethodes pour les probl `emes sans contraintes
3.1. M ´ethode du gradient
Sif :Rn−→Rest diff ´erentiable, un minimum localx∗peut ˆetre trouv ´e avec unem ´ethode de descente: ´etant donn ´ex0, pour toutk >0
1 choisir une directiondk telle que∇f(xk)>dk <0
2 choisir un pasρk, tel que
xk+1=xk +ρkdk, v ´erifie (entre autres)
f(xk+1)<f(xk).
Le choixdk =−∇f(xk)donne lam ´ethode du gradientousteepest descent method
En pratique on essaye d’emp ˆecher queρk soit trop petit tout en assurant une d ´ecroissance suffisante.
3.1. M ´ethode du gradient
Recherche lin ´eaire
M ´ethode du gradient `a pas fixe : on choisitρ >0 une fois pour toutes et xk+1=xk −ρ∇f(xk).
Siρest suffisamment petit et sif poss `ede certaines propri ´et ´es, alors xk →x∗.
f(x) =x12+x22−x1x2−x1−x2
ρ=0.2
3.1. M ´ethode du gradient
Recherche lin ´eaire
M ´ethode du gradient `apas optimal: on choisitρk >0 tel que
∀ρ >0, f(xk−ρk∇f(xk))≤f(xk−ρ∇f(xk)) Sif poss `ede certaines propri ´et ´es, alorsxk →x∗.
f(x) =x12+x22−x1x2−x1−x2
3.1. M ´ethode du gradient
Limitations
La m ´ethode du gradient est tr `es lente lorsque∇2f(x∗)estmal conditionn ´eeλnλ1
Fonction de Rosenbrock :f(x) = (1−x1)2+100(x2−x12)2
3.2. M ´ethodes de Newton et de quasi-Newton
M ´ethode de Newton
L’id ´ee de la m ´ethode de Newton consiste `a lin ´eariser enxk le syst `eme d’ ´equations non-lin ´eaires∇f(x) =0 :
∇f(xk+h) =∇f(xk) +∇2f(xk)h+khk(h),
puis `a d ´efinirxk+1=xk+ho `uhv ´erifie le syst `eme d’ ´equations lin ´eaires
∇2f(xk)h=−∇f(xk).
Cette m ´ethode prend en compte lam ´etrique localegr ˆace `a∇2f(xk).
3.2. M ´ethodes de Newton et de quasi-Newton
M ´ethodes de quasi-Newton
xk+1=xk−
∇2f(xk)−1
∇f(xk), Si∇2f(xk)>0 alors
dk =−
∇2f(xk)−1
∇f(xk)
est une direction de descente et le pas de la m ´ethode vaut toujoursρ=1.
En pratique on remplace∇2f(xk)par uneapproximationHk >0 mise `a jour `a partir des valeurs successives def(xk)et de∇f(xk), qui si la m ´ethode converge v ´erifie
lim
k→∞Hk =∇2f(x∗)
et on ajoute une recherche du pas initialis ´ee avecρ0=1.
xk+1=xk−ρkHk−1∇f(xk).
4. Logiciels
MATLAB
fminunc: m ´ethode BFGS.
Exemple pour la recherche du minimum de la fonction de Rosenbrock
options = optimoptions('fminunc','SpecifyObjectiveGradient',true,...
'display','iter');
[x,fval,flag,out,g,H] = fminunc(@rosenbrock,[0;0],options);
function [f,g]=rosenbrock(x)
f=[(1-x(1))ˆ2+(10*(x(2)-x(1)ˆ2))ˆ2];
g=[-2*(1-x(1))+200*(-2*x(1))*(x(2)-x(1)ˆ2) 200*(x(2)-x(1)ˆ2)];
end
4. Logiciels
MATLAB
>> rosen
First-order Iteration Func-count f(x) Step-size optimality
0 1 1 2
1 4 0.771191 0.0817342 5.34
2 5 0.610657 1 6.73
3 6 0.522449 1 7.11
4 8 0.261628 0.707498 1.88
(...)
16 23 1.36218e-06 1 0.00801
17 24 7.54543e-07 1 0.0304
18 25 3.43971e-09 1 0.00219
19 26 1.54256e-11 1 7.13e-05
20 27 4.67902e-15 1 1.03e-06
Local minimum found.
Optimization completed because the size of the gradient is less than the default value of the optimality tolerance.
On notera la valeur asymptotique du pasρ=1 !
1 Probl `emes sans contrainte Motivations
Notions fondamentales M ´ethodes et algorithmes
2 Probl `emes avec contraintes Motivations, Exemples Elements de th ´eorie M ´ethodes et algorithmes
3 Probl `emes d’optimisation en r ´egime transitoire Motivations
Exemple Cas g ´en ´eral
1. Motivations, Exemples
1.1 Un exemple de programme lin ´eaire
CHAPTER 2: Developing Models for Optimization 7 1
EXAMPLE 2.10 LINEAR MATERIAL BALANCE MODELS In many cases in which optimization is applied, you need to determine the allocation of material flows to a set of processes in order to maximize profits. Consider the process diagram in Figure E2.10.
FIGURE E2.10
Flow diagram for a multiproduct plant.
Each product (E, F: G) requires different (stoichiometric) amounts of reactants according to the following mass balances:
Reactants Product (1-kg product)
Prepare a model of the process using the mass balance equations.
Solution. lbelve mass flow variables can be defined for this process. Let x,, x2, x,
2A+B→E,2A+B→F,3A+2B+C→G
R ´eactant
Max. dispo.
(kg/j.)
Co ˆut (euro/kg)
A 40000 1.5
B 30000 2.0
C 25000 2.5
Proc ´ed ´e Produit R ´eactants
Co ˆut prod.
(euro/kg)
Prix de vente (euro/kg)
1 E 23A,13B 1.5 4
2 F 23A,13B 0.5 3.3
3 G 12A,13B,16C 1 3.8
But : maximiser le profit en euro/j.
1. Motivations, Exemples
1.1. Un exemple de programme lin ´eaire
CHAPTER 2: Developing Models for Optimization 7 1
EXAMPLE 2.10 LINEAR MATERIAL BALANCE MODELS In many cases in which optimization is applied, you need to determine the allocation of material flows to a set of processes in order to maximize profits. Consider the process diagram in Figure E2.10.
FIGURE E2.10
Flow diagram for a multiproduct plant.
Each product (E, F: G) requires different (stoichiometric) amounts of reactants according to the following mass balances:
Reactants Product (1-kg product)
Prepare a model of the process using the mass balance equations.
Solution. lbelve mass flow variables can be defined for this process. Let x,, x2, x, be the mass input flows of A to each process. Similarly let x4, x5, x6, and x7 be the indi- vidual reactant flows of B and C, and define x,, x9, and x,, as the three mass product flows (E, E G). Let x,, and x12 be the total amounts of A and B used as reactants (C
Bilan de masse (x1, . . . ,x12=flux en kg/j.) :
A=x11=x1+x2+x3
B=x12=x4+x5+x6 C=x7= 1
3x10
x1= 23x8,x2= 23x9,x3= 12x10 x4= 13x8,x5= 13x9,x6= 16x10
Contraintes sur les r ´eactants :x11≤40000,x12≤30000,x7≤25000 Demande du march ´e :x8≥10000,x9≥10000,x10≥10000
Profit :
f(x) = (4E+3.3F +3.8G)−(1.5A+2B+2.5C)−(1.5E+0.5F+G)
=2.5x8+2.8x9+2.8x10−1.5x11−2x12−2.5x7
S. Mottelet (UTC) CM08/P18 27 / 49
1. Motivations, Exemples
1.2. Un exemple de programme non lin ´eaire
R ´eacteurs parfaitement m ´elang ´es et `a l’ ´etat stationnaire. L’esp `ece dont la concentration est not ´eeCr ´eagit `a la vitesser=−kCαdans chaque r ´eacteur.
minimiser
C,V∈R4 f(C,V) =C4, sous les contraintes :
Vi ≥0,Ci ≥0,i =1. . .4,
4
X
i=1
Vi =20,
2. Elements de th ´eorie
2.1. Remarque introductive
Dans l’exemple de programme lin ´eaire, la fonctionf(x)est lin ´eaire f(x) =2.5x8+2.8x9+2.8x10−1.5x11−2x12−2.5x7
et on a
∀x ∈R12, ∇f(x) = (0,0,0,0,0,0,0,2.5,2.8,2.8,−1.5,−2,−2.5)>
donc la solutionxˆne peut pas v ´erifier∇f(ˆx) =0 ! Dans le probl `eme d’optimisation `a r ´esoudre
minimiser
x∈K
l’ensemble admissibleK est diff ´erent deR12,
Les conditions d’optimalit ´e sont n ´ecessairement plus compliqu ´ees...
2. Elements de th ´eorie
2.2. Existence d’une solution dans le cas g ´en ´eral
Sif :K ⊂Rn→Rest continue et siK est ferm ´e et born ´e, alors il existe xˆ∈K tel que
∀x ∈⊂Rn, f(ˆx)≤f(x).
Exemple :f(x) =x etK ={x ∈R,1≥x ≥ −1}
La solution est sur la fronti `ere deK!
Que se passe-t-il pourf(x) =x2etK ={x ∈R,1≥x ≥ −1}?
Les conditions d’optimalit ´e sans contraintes sont n ´ecessairement un cas particulier des conditions d’optimalit ´e avec contraintes
2. Elements de th ´eorie
2.3. Probl `emes avec contraintes d’ ´egalit ´e lin ´eaires
Un exemple tr `es simple
minimiser
x∈K f(x) =x12+x22, avecK ={x ∈R2,x1+x2−1=0}.
x1+x2=1⇔(1,1) x1
x2
−1 A l’optimumxˆ= (0.5,0.5)>, il existe λ6=0 tel que
∇f(ˆx) =−
1
1
λ (le signe moins est arbitraire)
2. Elements de th ´eorie
2.3. Probl `emes avec contraintes d’ ´egalit ´e lin ´eaires
Th ´eor `eme de Lagrange
Soientf :Rn→Rdiff ´erentiable,Aune matricem×n,m≤n,b∈Rmet K ={x ∈Rn,Ax =b}. Siˆx ∈K v ´erifie
∀x ∈K,f(ˆx)≤f(x), alors il existeλˆ∈Rmtel que
∇f(ˆx) +A>λˆ=0.
Si de plusrangA=malorsλˆest unique.
Si on d ´efinit leLagrangien
L(x, λ) =f(x) +λ>(Ax−b),
alors lacondition n ´ecessaire d’optimalit ´eci-dessus s’ ´ecrit aussi
2. Elements de th ´eorie
2.3. Probl `emes avec contraintes d’ ´egalit ´e lin ´eaires
Condition n ´ecessaire et suffisante pour un optimum local : S’il existeˆx ∈K etˆλ∈Rmtels que
Axˆ=b,
∇f(ˆx) +A>λˆ=0,
∇2xxL(ˆx,λ)ˆ >0, alorsxˆest un minimum local strict.
ici∇2xxL(ˆx,λ) =ˆ ∇2f(ˆx)!
2. Elements de th ´eorie
2.4. Probl `emes avec contraintes d’ ´egalit ´e non-lin ´eaires
f :Rn→R,h:Rn→Rmdiff ´erentiables deux fois.
minimiser
x∈K f(x)
o `uK ={x ∈Rn,h(x) =0}
Condition n ´ecessaire et suffisante pour un optimum local : S’il existeˆx ∈K etˆλ∈Rmtels que
h(ˆx) =0,
∇f(ˆx) +∇h(ˆx)ˆλ=0,
∇2xxL(ˆx,λ)ˆ >0, alorsxˆest un minimum local strict.
> ∇h(x) = 0 >
2. Elements de th ´eorie
2.5. Probl `emes avec contraintes d’in ´egalit ´e
Il est toujours possible de transformer un probl `eme avec contraintes d’ ´egalit ´e et d’in ´egalit ´e sous la forme standard
f :Rn→R,h:Rn→Rm minimiser
x∈K f(x)
K ={x ∈Rn, h(x) =0,x ≥0}.
Exemple
x1≥0,x2≥0,x1+x2−1≤0 En ajoutant lavariable d’ ´ecartx3on obtient
x1≥0,x2≥0,x3≥0, x1+x2+x3−1=0
2. Elements de th ´eorie
2.5. Probl `emes avec contraintes d’in ´egalit ´e
Les contraintesx1≥0, . . . ,xn≥0 ne sont pas toutesactivesenˆx! Lagrangien
L(x, λ, µ) =f(x) +λ>h(x)−µ>x Conditions n ´ecessaires de Kuhn et Tucker
Sixˆest solution du probl `eme standard avec contraintes d’in ´egalit ´e, alors il existe(ˆλ,µ)ˆ tels que
∇f(ˆx) +∇h(ˆx)ˆλ−µˆ=0, ˆ µ≥0, ˆ
µixi =0,i =1. . .n
Conditions de compl ´ementarit ´e: si une in ´egalit ´e n’est pas active, i.e.
xˆi >0, alorsµˆi =0.
Le signe deµi se justifie par l’absurde.
3. M ´ethodes et algorithmes
3.1. M ´ethode SQP
Cas des contraintes d’ ´egalit ´e
La m ´ethode SQP (Sequential Quadratic Programming) consiste `a appliquer la m ´ethode de Newton sur le syst `eme d’optimalit ´e (les inconnues sontx etλ) :
h(x) =0,
∇f(x) +∇h(x)λ=0,
En pratique on utilise une m ´ethode de Quasi-Newton avec une approximation d ´efinie positive du Hessien du Lagrangien.
Chaque it ´eration de la m ´ethode SQP peut ˆetre vue comme la r ´esolution d’un probl `eme d’optimisation d’une fonction quadratique avec contraintes d’ ´egalit ´e lin ´eaires .
3. M ´ethodes et algorithmes
3.2. M ´ethode de points int ´erieurs, algorithme primal
Cas g ´en ´eral o `u les contraintes sonth(x) =0 etx ≥0.
La m ´ethode de points int ´erieurs consiste `a r ´esoudre (par exemple avec la m ´ethode SQP) la suite de probl `emes
minimiser
x∈K B(x,tk) =f(x)−tk n
X
i=1
logxi
K ={x ∈Rn, h(x) =0}.
o `u(tk)est une suite v ´erifianttk >0 ettk →0.
B(x,t)est une fonctionbarri `ere
L’ ´ecriture des conditions d’optimalit ´e permet de montrer que lim
k→∞
tk
xi(tk) = ˆµi.
3. M ´ethodes et algorithmes
3.2. M ´ethode de points int ´erieurs, algorithme primal-dual
Une solution pourt >0 du probl `eme avec barri `ere v ´erifie
∇f(x) +∇h(x)λ−tX−1e=0, h(x) =0,
o `uX = diag(x)ete= (1, . . . ,1)>. En introduisant une nouvelle variable dualeµtelle queXµ=teon obtient le syst `eme d’ ´equations
∇f(x) +∇h(x)λ−µ=0, Xµ=te, h(x) =0.
Algorithme primal-dual : on consid `ere une suite(tk)→0 et pour chaque valeur detk on applique la m ´ethode de Newton `a la r ´esolution en(x, λ, µ) du syst `eme ci-dessus.
3. M ´ethodes et algorithmes
3.3. M ´ethodes utilis ´ees dans MATLAB
Dans MATLAB la fonctionfminconpropose (entre autres) la m ´ethode de points int ´erieurs (algorithme primal-dual) et la m ´ethode SQP. La fonctionlinprogest d ´edi ´ee aux programmes lin ´eaires et utilise par d ´efaut une m ´ethode de points int ´erieurs.
La forme g ´en ´erale des probl `emes pouvant ˆetre r ´esolus est la suivante : minimiser
x∈Rn f(x), sous les contraintes
Ax ≤b, Aeqx =beq,
li ≤xi ≤ui,i =1. . .n, g(x)≤0,
h(x) =0.
1 Probl `emes sans contrainte Motivations
Notions fondamentales M ´ethodes et algorithmes
2 Probl `emes avec contraintes Motivations, Exemples Elements de th ´eorie M ´ethodes et algorithmes
3 Probl `emes d’optimisation en r ´egime transitoire Motivations
Exemple Cas g ´en ´eral
1. Motivations
Probl `eme de commande optimale
minimiser
u∈C(0,T), θ∈Rp J(X(tf)) sous les contraintes
d
dtX(t) =f(X(t),u(t), θ),t ∈[0,tf] contraintes suru
contraintes surθ contraintes surX
L’ ´evaluation deJn ´ecessite de r ´esoudre une ´equation diff ´erentielle L’une des deux inconnues du probl `eme est une fonction
1. Motivations
Probl `eme de commande optimale
Hypoth `ese de travail : la fonctiont7→u(t)appartient `a un espace de dimension finie
u(t) =
N
X
k=1
ukφk(t),
0 0.2 0.4 0.6 0.8 1
0.5 1 1.5 2 2.5 3 3.5
u(t)
u1
u2
u3
u5
u4
1. Motivations
Probl `eme de commande optimale
minimiser
θ∈Rp J(X(tf)) sous les contraintes
d
dtX(t) =f(X(t), θ),t∈[0,tf] contraintes surθ
Quandpest grand le calcul approch ´e des d ´eriv ´ees deJ est tr `es co ˆuteux Le calcul des d ´eriv ´ees exactes est n ´ecessaire !
2. Exemple
2.1 R ´eacteur batch avec deux r ´eactions parall `eles
A−→k1 B, A−→k2 C, k1=k10exp
−E1
RT
, k2=k20exp
−E2
RT
,
Cin ´etique sur[0,tf]:
d
dtA=−(k1+k2)A, A(0) =A0, (1)
d
dtB=k1A, B(0) =0, (2)
o `u on a not ´eA,Bles concentrations respectives.
But : maximiser la concentrationB(tf)en agissant sur T
2. Exemple
2.1 R ´eacteur batch avec deux r ´eactions parall `eles
En posant
A(t) =A0a(t), B=A0b(t), β= E2
E1, α=k20 k10β , on peut ´ecrire (1)-(2) sous la forme ´equivalente
d
dta=−f(k1)a, a(0) =1, (3)
d
dtb=k1a, b(0) =0, (4)
o `u on a not ´ef(k1) =k1+αk1β.
Optimiser par rapport `aT ⇐⇒Optimiser par rapport `ak1
2. Exemple
2.2 R ´eacteur batch isotherme avec deux r ´eactions parall `eles
Probl `eme d’optimisation (cas isotherme) minimiser
k1∈R+ J(k1) =−b(tf) sous les contraintes
d
dta=−f(k1)a, a(0) =1, (5)
d
dtb=k1a, b(0) =0, (6)
I Calcul deJ0(k1):il suffit de d ´eriver (5)-(6) par rapport `ak1
Attention,a(t)etb(t)sont des fonctions dek1!
2. Exemple
2.2 R ´eacteur batch isotherme avec deux r ´eactions parall `eles
Lesfonctions de sensibilit ´e
Sa(t) = ∂a(t)
∂k1
, Sb(t) =∂b(t)
∂k1
sont obtenues en r ´esolvant simultan ´ement les ´equations obtenues apr `es d ´erivation
d
dta=−f(k1)a, a(0) =1, (7)
d
dtb=k1a, b(0) =0, (8)
d
dtSa=−f(k1)Sa−f0(k1)a, Sa(0) =0, (9)
d
dtSb=k1Sa+a, Sb(0) =0. (10) et au final,
J0(k1) =−∂b(tf)
∂k1
=−Sb(tf).
3. Cas g ´en ´eral
Matrice de sensibilit ´e
X(t)∈Rnetθ∈Rp(param `etres)
La matricen×pde sensibilit ´eS(t), d ´efinie par [S(t)]i,j = ∂Xi(t)
∂θj ,
est obtenue par r ´esolution du syst `eme den+np ´equations diff ´erentielles : dX
dt =f(X, θ), dS
dt = ∂f
∂X(X, θ)S+∂f
∂θ(X, θ).
Elle permet de calculer le gradient par rapport `aθde toute fonction
´economique calcul ´ee `a partir deX.