• Aucun résultat trouvé

CM08/P18 Introduction aux m´ethodes num´eriques d’optimisation S. Mottelet

N/A
N/A
Protected

Academic year: 2022

Partager "CM08/P18 Introduction aux m´ethodes num´eriques d’optimisation S. Mottelet"

Copied!
49
0
0

Texte intégral

(1)

CM08/P18

Introduction aux m ´ethodes num ´eriques d’optimisation

S. Mottelet

Universit ´e de Technologie de Compi `egne

(2)

1 Probl `emes sans contrainte Motivations

Notions fondamentales M ´ethodes et algorithmes

2 Probl `emes avec contraintes Motivations, Exemples Elements de th ´eorie M ´ethodes et algorithmes

3 Probl `emes d’optimisation en r ´egime transitoire Motivations

Exemple Cas g ´en ´eral

(3)

1 Probl `emes sans contrainte Motivations

Notions fondamentales M ´ethodes et algorithmes

2 Probl `emes avec contraintes Motivations, Exemples Elements de th ´eorie M ´ethodes et algorithmes

3 Probl `emes d’optimisation en r ´egime transitoire Motivations

Exemple Cas g ´en ´eral

(4)

1. Motivations

1.1. Formulation g ´en ´erale des probl `emes d’optimisation

Forme standard

minimiser

x∈K f(x)

K ={x ∈Rn,g(x)≤0,h(x) =0}

I f:Rn−→R, g:Rn−→Rm, h:Rn−→Rp, continues

I g(x)≤0 : contraintes d’in ´egalit ´e

I h(x) =0 : contraintes d’ ´egalit ´e

Probl `eme sans contrainte⇐⇒K =Rn

(5)

1.2. Exemples

Optimisation d’un r ´eservoir

d

L

Le volumeV ´etant fix ´e, d ´eterminerdetLtels que le co ˆut de fabrication f(d,L) =c1πdL+c2πd2

2

soit minimal, o `uc1,c2sont les co ˆuts unitaires des parties cylindrique et plane.

(6)

1.2. Exemples

Identification de param `etres

D ´etermination de l’enthalpie et de l’entropie de r ´eaction dans un processus de sorption d’hydrog `ene

I Apr `es avoir ´etabli une pression initiale, on fait varier la temp ´erature par paliers{T1, . . . ,Tn}et on observe la pression obtenue `a l’ ´equilibre {P1, . . . ,Pn}.

I D ´eterminer∆Het∆Spour ajuster le mod `ele P=Patmexp

∆H

RT +∆S R

minimiser

∆H,∆S∈R f(∆H,∆S) =

n

X

i=1

exp

∆H RTi

+∆S R

− Pi Patm

2

probl `eme de moindres carr ´es

(7)

1.2. Exemples

Optimisation de r ´eacteurs

On consid `ere 4 r ´eacteurs de volumeVi,i =1, . . . ,4,P4

i=1Vi =20,

parfaitement m ´elang ´es et `a l’ ´etat stationnaire. L’esp `ece dont la concentration est not ´eeCr ´eagit `a la vitesser =−kCαdans chaque r ´eacteur. D ´eterminer les valeurs deVi,i =1, . . . ,4 rendant minimale la concentrationC4.

minimiser

V∈K f(V) =C4 IciK ={V ∈R4,Vi >0,P4

i=1Vi =20}etCest solution de 0=q(Ci−1−Ci)−kViCiα,i =1. . .4 Pr ´esence de variables non ind ´ependantes

(8)

2. Notions fondamentales

2.1. El ´ements de calcul diff ´erentiel

DansRnon notex =

 x1

... xn

,x>= (x1, . . . ,xn) Produit scalaire, norme :x>y =Pn

i=1xiyi,kxk= (x>x)1/2

g:RnRmd ´efine parg(x) = (g1(x), . . . ,gm(x))>estdiff ´erentiableenx s’il existe une matriceg0(x)de taillem×ntelle que

g(x+h) =g(x) +g0(x)h+khk(h)

I [g0(x)]ij=∂gi

∂xj

(x)

I Approximation def0(x)?

I Cas o `um=1,f:RnR, on note∇f(x) =f0(x)>le gradient def.

(9)

2.1. El ´ements de calcul diff ´erentiel

Matrice hessienne

Dans le cas o `um=1,f :RnRestdiff ´erentiable deux foiss’il existe une matricen×nsym ´etrique not ´e∇2f(x)telle que

f(x+h) =f(x) +∇f(x)>h+1

2h>2f(x)h+khk2(h)

I On a[∇2f(x)]ij = ∂2f

∂xi∂xj

(x)

(10)

2.1. El ´ements de calcul diff ´erentiel

Convexit ´e

On dit queK ⊂Rnestconvexesi

∀x,y ∈K,∀λ∈[0,1], λx+ (1−λ)y ∈K

objet convexe objet non convexe

x y

x y

(11)

2.1. El ´ements de calcul diff ´erentiel

Convexit ´e

On dit queg⊂RnRmestconvexesurK si

∀x,y ∈K, ∀λ∈[0,1],f(λx+ (1−λ)y)≤λf(x) + (1−λ)f(y) etstrictement convexesi

∀x,y ∈K,x 6=y,∀λ∈]0,1[,f(λx+ (1−λ)y)< λf(x) + (1−λ)f(y).

I Casm=1

x y x y

I K={x∈Rn,g(x)≤0,h(x) =0}est convexe sigest convexe ethaffine.

(12)

2.1. El ´ements de calcul diff ´erentiel

Convexit ´e, lien avec la matrice Hessienne

Une matrice sym ´etriqueAestd ´efinie positivesix>Ax >0 pour tout x 6=0,semi-d ´efinie positivesix>Ax ≥0 pour toutx 6=0. On note respectivementA>0 etA≥0.

A>0⇐⇒les valeurs propres deAsont strictement positives A≥0⇐⇒les valeurs propres deAsont positives

f ⊂RnRdeux fois diff ´erentiable est convexe si et seulement si

2f(x)≥0, strictement convexe si∇2f(x)>0.

(13)

2.1. El ´ements de calcul diff ´erentiel

Convexit ´e, lien avec la matrice Hessienne

Exemple :f(x,y) =x2+2y2+x+y,∇2f(x,y) =

2 0

0 4

>0

-1 0 1 2

1 3

1 4

5

0 0

-1 -1 -1 -0.5 0 0.5 1

-1 -0.5 0 0.5 1

La convexit ´e est une notion fondamentale pour caract ´eriser l’existence et l’unicit ´e des solutions des probl `emes d’optimisation.

(14)

2.2. Conditions d’optimalit ´e (sans contrainte)

Condition n ´ecessaire

Soitf :RnRdiff ´erentiable etˆx tel que∀x ∈Rn,f(ˆx)≤f(x). Alors

∇f(ˆx) =0.

Cette condition n’est pas suffisante !

0 1 0.5

1 1

1.5

0 2

0 -1 -1

-2 1 -1.5

1 -1

-0.5

0 0

0 -1 -1

-1 1 -0.5

0.5 0 0.5

1

0 0.5

1

-0.5 0

-1 -1 -0.5

f(x,y) =x2+y2 f(x,y) =−x2−y2 f(x,y) =x2−y2

(15)

2.2. Conditions d’optimalit ´e (sans contrainte)

Condition suffisante

Soitf :RnRdiff ´erentiable etˆx tel que∇f(ˆx) =0. Sif est convexe alorsxˆest un minimum global def :∀x ∈Rn,f(ˆx)≤f(x).

Si de plusf est strictement convexe, alorsxˆest unique.

Dans le cas g ´en ´eral, on d ´efinit la notion deminimum local.

(16)

2.2. Conditions d’optimalit ´e (sans contrainte)

Minimum local

On dit quexest unminimum localdef s’il existeδ >0 tel que

∀x tel quekx−xk< δ, f(x)<f(x)

Soitf deux fois diff ´erentiable. Si∇f(x) =0 et∇2f(x)>0 alorsxest un minimum local def.

La plupart des algorithmes d’optimisation ont pour but de rechercher un minimum local def!

(17)

3. M ´ethodes pour les probl `emes sans contraintes

3.1. M ´ethode du gradient

Sif :Rn−→Rest diff ´erentiable, un minimum localxpeut ˆetre trouv ´e avec unem ´ethode de descente: ´etant donn ´ex0, pour toutk >0

1 choisir une directiondk telle que∇f(xk)>dk <0

2 choisir un pasρk, tel que

xk+1=xkkdk, v ´erifie (entre autres)

f(xk+1)<f(xk).

Le choixdk =−∇f(xk)donne lam ´ethode du gradientousteepest descent method

En pratique on essaye d’emp ˆecher queρk soit trop petit tout en assurant une d ´ecroissance suffisante.

(18)

3.1. M ´ethode du gradient

Recherche lin ´eaire

M ´ethode du gradient `a pas fixe : on choisitρ >0 une fois pour toutes et xk+1=xk −ρ∇f(xk).

Siρest suffisamment petit et sif poss `ede certaines propri ´et ´es, alors xk →x.

f(x) =x12+x22−x1x2−x1−x2

ρ=0.2

(19)

3.1. M ´ethode du gradient

Recherche lin ´eaire

M ´ethode du gradient `apas optimal: on choisitρk >0 tel que

∀ρ >0, f(xk−ρk∇f(xk))≤f(xk−ρ∇f(xk)) Sif poss `ede certaines propri ´et ´es, alorsxk →x.

f(x) =x12+x22−x1x2−x1−x2

(20)

3.1. M ´ethode du gradient

Limitations

La m ´ethode du gradient est tr `es lente lorsque∇2f(x)estmal conditionn ´eeλnλ1

Fonction de Rosenbrock :f(x) = (1−x1)2+100(x2−x12)2

(21)

3.2. M ´ethodes de Newton et de quasi-Newton

M ´ethode de Newton

L’id ´ee de la m ´ethode de Newton consiste `a lin ´eariser enxk le syst `eme d’ ´equations non-lin ´eaires∇f(x) =0 :

∇f(xk+h) =∇f(xk) +∇2f(xk)h+khk(h),

puis `a d ´efinirxk+1=xk+ho `uhv ´erifie le syst `eme d’ ´equations lin ´eaires

2f(xk)h=−∇f(xk).

Cette m ´ethode prend en compte lam ´etrique localegr ˆace `a∇2f(xk).

(22)

3.2. M ´ethodes de Newton et de quasi-Newton

M ´ethodes de quasi-Newton

xk+1=xk

2f(xk)−1

∇f(xk), Si∇2f(xk)>0 alors

dk =−

2f(xk)−1

∇f(xk)

est une direction de descente et le pas de la m ´ethode vaut toujoursρ=1.

En pratique on remplace∇2f(xk)par uneapproximationHk >0 mise `a jour `a partir des valeurs successives def(xk)et de∇f(xk), qui si la m ´ethode converge v ´erifie

lim

k→∞Hk =∇2f(x)

et on ajoute une recherche du pas initialis ´ee avecρ0=1.

xk+1=xk−ρkHk−1∇f(xk).

(23)

4. Logiciels

MATLAB

fminunc: m ´ethode BFGS.

Exemple pour la recherche du minimum de la fonction de Rosenbrock

options = optimoptions('fminunc','SpecifyObjectiveGradient',true,...

'display','iter');

[x,fval,flag,out,g,H] = fminunc(@rosenbrock,[0;0],options);

function [f,g]=rosenbrock(x)

f=[(1-x(1))ˆ2+(10*(x(2)-x(1)ˆ2))ˆ2];

g=[-2*(1-x(1))+200*(-2*x(1))*(x(2)-x(1)ˆ2) 200*(x(2)-x(1)ˆ2)];

end

(24)

4. Logiciels

MATLAB

>> rosen

First-order Iteration Func-count f(x) Step-size optimality

0 1 1 2

1 4 0.771191 0.0817342 5.34

2 5 0.610657 1 6.73

3 6 0.522449 1 7.11

4 8 0.261628 0.707498 1.88

(...)

16 23 1.36218e-06 1 0.00801

17 24 7.54543e-07 1 0.0304

18 25 3.43971e-09 1 0.00219

19 26 1.54256e-11 1 7.13e-05

20 27 4.67902e-15 1 1.03e-06

Local minimum found.

Optimization completed because the size of the gradient is less than the default value of the optimality tolerance.

On notera la valeur asymptotique du pasρ=1 !

(25)

1 Probl `emes sans contrainte Motivations

Notions fondamentales M ´ethodes et algorithmes

2 Probl `emes avec contraintes Motivations, Exemples Elements de th ´eorie M ´ethodes et algorithmes

3 Probl `emes d’optimisation en r ´egime transitoire Motivations

Exemple Cas g ´en ´eral

(26)

1. Motivations, Exemples

1.1 Un exemple de programme lin ´eaire

CHAPTER 2: Developing Models for Optimization 7 1

EXAMPLE 2.10 LINEAR MATERIAL BALANCE MODELS In many cases in which optimization is applied, you need to determine the allocation of material flows to a set of processes in order to maximize profits. Consider the process diagram in Figure E2.10.

FIGURE E2.10

Flow diagram for a multiproduct plant.

Each product (E, F: G) requires different (stoichiometric) amounts of reactants according to the following mass balances:

Reactants Product (1-kg product)

Prepare a model of the process using the mass balance equations.

Solution. lbelve mass flow variables can be defined for this process. Let x,, x2, x,

2A+B→E,2A+B→F,3A+2B+C→G

R ´eactant

Max. dispo.

(kg/j.)

Co ˆut (euro/kg)

A 40000 1.5

B 30000 2.0

C 25000 2.5

Proc ´ed ´e Produit R ´eactants

Co ˆut prod.

(euro/kg)

Prix de vente (euro/kg)

1 E 23A,13B 1.5 4

2 F 23A,13B 0.5 3.3

3 G 12A,13B,16C 1 3.8

But : maximiser le profit en euro/j.

(27)

1. Motivations, Exemples

1.1. Un exemple de programme lin ´eaire

CHAPTER 2: Developing Models for Optimization 7 1

EXAMPLE 2.10 LINEAR MATERIAL BALANCE MODELS In many cases in which optimization is applied, you need to determine the allocation of material flows to a set of processes in order to maximize profits. Consider the process diagram in Figure E2.10.

FIGURE E2.10

Flow diagram for a multiproduct plant.

Each product (E, F: G) requires different (stoichiometric) amounts of reactants according to the following mass balances:

Reactants Product (1-kg product)

Prepare a model of the process using the mass balance equations.

Solution. lbelve mass flow variables can be defined for this process. Let x,, x2, x, be the mass input flows of A to each process. Similarly let x4, x5, x6, and x7 be the indi- vidual reactant flows of B and C, and define x,, x9, and x,, as the three mass product flows (E, E G). Let x,, and x12 be the total amounts of A and B used as reactants (C

Bilan de masse (x1, . . . ,x12=flux en kg/j.) :

A=x11=x1+x2+x3

B=x12=x4+x5+x6 C=x7= 1

3x10

x1= 23x8,x2= 23x9,x3= 12x10 x4= 13x8,x5= 13x9,x6= 16x10

Contraintes sur les r ´eactants :x11≤40000,x12≤30000,x7≤25000 Demande du march ´e :x8≥10000,x9≥10000,x10≥10000

Profit :

f(x) = (4E+3.3F +3.8G)−(1.5A+2B+2.5C)−(1.5E+0.5F+G)

=2.5x8+2.8x9+2.8x10−1.5x11−2x12−2.5x7

S. Mottelet (UTC) CM08/P18 27 / 49

(28)

1. Motivations, Exemples

1.2. Un exemple de programme non lin ´eaire

R ´eacteurs parfaitement m ´elang ´es et `a l’ ´etat stationnaire. L’esp `ece dont la concentration est not ´eeCr ´eagit `a la vitesser=−kCαdans chaque r ´eacteur.

minimiser

C,V∈R4 f(C,V) =C4, sous les contraintes :

Vi ≥0,Ci ≥0,i =1. . .4,

4

X

i=1

Vi =20,

(29)

2. Elements de th ´eorie

2.1. Remarque introductive

Dans l’exemple de programme lin ´eaire, la fonctionf(x)est lin ´eaire f(x) =2.5x8+2.8x9+2.8x10−1.5x11−2x12−2.5x7

et on a

∀x ∈R12, ∇f(x) = (0,0,0,0,0,0,0,2.5,2.8,2.8,−1.5,−2,−2.5)>

donc la solutionxˆne peut pas v ´erifier∇f(ˆx) =0 ! Dans le probl `eme d’optimisation `a r ´esoudre

minimiser

x∈K

l’ensemble admissibleK est diff ´erent deR12,

Les conditions d’optimalit ´e sont n ´ecessairement plus compliqu ´ees...

(30)

2. Elements de th ´eorie

2.2. Existence d’une solution dans le cas g ´en ´eral

Sif :K ⊂RnRest continue et siK est ferm ´e et born ´e, alors il existe xˆ∈K tel que

∀x ∈⊂Rn, f(ˆx)≤f(x).

Exemple :f(x) =x etK ={x ∈R,1≥x ≥ −1}

La solution est sur la fronti `ere deK!

Que se passe-t-il pourf(x) =x2etK ={x ∈R,1≥x ≥ −1}?

Les conditions d’optimalit ´e sans contraintes sont n ´ecessairement un cas particulier des conditions d’optimalit ´e avec contraintes

(31)

2. Elements de th ´eorie

2.3. Probl `emes avec contraintes d’ ´egalit ´e lin ´eaires

Un exemple tr `es simple

minimiser

x∈K f(x) =x12+x22, avecK ={x ∈R2,x1+x2−1=0}.

x1+x2=1⇔(1,1) x1

x2

−1 A l’optimumxˆ= (0.5,0.5)>, il existe λ6=0 tel que

∇f(ˆx) =−

1

1

λ (le signe moins est arbitraire)

(32)

2. Elements de th ´eorie

2.3. Probl `emes avec contraintes d’ ´egalit ´e lin ´eaires

Th ´eor `eme de Lagrange

Soientf :RnRdiff ´erentiable,Aune matricem×n,m≤n,b∈Rmet K ={x ∈Rn,Ax =b}. Siˆx ∈K v ´erifie

∀x ∈K,f(ˆx)≤f(x), alors il existeλˆ∈Rmtel que

∇f(ˆx) +A>λˆ=0.

Si de plusrangA=malorsλˆest unique.

Si on d ´efinit leLagrangien

L(x, λ) =f(x) +λ>(Ax−b),

alors lacondition n ´ecessaire d’optimalit ´eci-dessus s’ ´ecrit aussi

(33)

2. Elements de th ´eorie

2.3. Probl `emes avec contraintes d’ ´egalit ´e lin ´eaires

Condition n ´ecessaire et suffisante pour un optimum local : S’il existeˆx ∈K etˆλ∈Rmtels que

Axˆ=b,

∇f(ˆx) +A>λˆ=0,

2xxL(ˆx,λ)ˆ >0, alorsxˆest un minimum local strict.

ici∇2xxL(ˆx,λ) =ˆ ∇2f(ˆx)!

(34)

2. Elements de th ´eorie

2.4. Probl `emes avec contraintes d’ ´egalit ´e non-lin ´eaires

f :RnR,h:RnRmdiff ´erentiables deux fois.

minimiser

x∈K f(x)

o `uK ={x ∈Rn,h(x) =0}

Condition n ´ecessaire et suffisante pour un optimum local : S’il existeˆx ∈K etˆλ∈Rmtels que

h(ˆx) =0,

∇f(ˆx) +∇h(ˆx)ˆλ=0,

2xxL(ˆx,λ)ˆ >0, alorsxˆest un minimum local strict.

> ∇h(x) = 0 >

(35)

2. Elements de th ´eorie

2.5. Probl `emes avec contraintes d’in ´egalit ´e

Il est toujours possible de transformer un probl `eme avec contraintes d’ ´egalit ´e et d’in ´egalit ´e sous la forme standard

f :RnR,h:RnRm minimiser

x∈K f(x)

K ={x ∈Rn, h(x) =0,x ≥0}.

Exemple

x1≥0,x2≥0,x1+x2−1≤0 En ajoutant lavariable d’ ´ecartx3on obtient

x1≥0,x2≥0,x3≥0, x1+x2+x3−1=0

(36)

2. Elements de th ´eorie

2.5. Probl `emes avec contraintes d’in ´egalit ´e

Les contraintesx1≥0, . . . ,xn≥0 ne sont pas toutesactivesenˆx! Lagrangien

L(x, λ, µ) =f(x) +λ>h(x)−µ>x Conditions n ´ecessaires de Kuhn et Tucker

Sixˆest solution du probl `eme standard avec contraintes d’in ´egalit ´e, alors il existe(ˆλ,µ)ˆ tels que

∇f(ˆx) +∇h(ˆx)ˆλ−µˆ=0, ˆ µ≥0, ˆ

µixi =0,i =1. . .n

Conditions de compl ´ementarit ´e: si une in ´egalit ´e n’est pas active, i.e.

i >0, alorsµˆi =0.

Le signe deµi se justifie par l’absurde.

(37)

3. M ´ethodes et algorithmes

3.1. M ´ethode SQP

Cas des contraintes d’ ´egalit ´e

La m ´ethode SQP (Sequential Quadratic Programming) consiste `a appliquer la m ´ethode de Newton sur le syst `eme d’optimalit ´e (les inconnues sontx etλ) :

h(x) =0,

∇f(x) +∇h(x)λ=0,

En pratique on utilise une m ´ethode de Quasi-Newton avec une approximation d ´efinie positive du Hessien du Lagrangien.

Chaque it ´eration de la m ´ethode SQP peut ˆetre vue comme la r ´esolution d’un probl `eme d’optimisation d’une fonction quadratique avec contraintes d’ ´egalit ´e lin ´eaires .

(38)

3. M ´ethodes et algorithmes

3.2. M ´ethode de points int ´erieurs, algorithme primal

Cas g ´en ´eral o `u les contraintes sonth(x) =0 etx ≥0.

La m ´ethode de points int ´erieurs consiste `a r ´esoudre (par exemple avec la m ´ethode SQP) la suite de probl `emes

minimiser

x∈K B(x,tk) =f(x)−tk n

X

i=1

logxi

K ={x ∈Rn, h(x) =0}.

o `u(tk)est une suite v ´erifianttk >0 ettk →0.

B(x,t)est une fonctionbarri `ere

L’ ´ecriture des conditions d’optimalit ´e permet de montrer que lim

k→∞

tk

xi(tk) = ˆµi.

(39)

3. M ´ethodes et algorithmes

3.2. M ´ethode de points int ´erieurs, algorithme primal-dual

Une solution pourt >0 du probl `eme avec barri `ere v ´erifie

∇f(x) +∇h(x)λ−tX−1e=0, h(x) =0,

o `uX = diag(x)ete= (1, . . . ,1)>. En introduisant une nouvelle variable dualeµtelle queXµ=teon obtient le syst `eme d’ ´equations

∇f(x) +∇h(x)λ−µ=0, Xµ=te, h(x) =0.

Algorithme primal-dual : on consid `ere une suite(tk)→0 et pour chaque valeur detk on applique la m ´ethode de Newton `a la r ´esolution en(x, λ, µ) du syst `eme ci-dessus.

(40)

3. M ´ethodes et algorithmes

3.3. M ´ethodes utilis ´ees dans MATLAB

Dans MATLAB la fonctionfminconpropose (entre autres) la m ´ethode de points int ´erieurs (algorithme primal-dual) et la m ´ethode SQP. La fonctionlinprogest d ´edi ´ee aux programmes lin ´eaires et utilise par d ´efaut une m ´ethode de points int ´erieurs.

La forme g ´en ´erale des probl `emes pouvant ˆetre r ´esolus est la suivante : minimiser

x∈Rn f(x), sous les contraintes

Ax ≤b, Aeqx =beq,

li ≤xi ≤ui,i =1. . .n, g(x)≤0,

h(x) =0.

(41)

1 Probl `emes sans contrainte Motivations

Notions fondamentales M ´ethodes et algorithmes

2 Probl `emes avec contraintes Motivations, Exemples Elements de th ´eorie M ´ethodes et algorithmes

3 Probl `emes d’optimisation en r ´egime transitoire Motivations

Exemple Cas g ´en ´eral

(42)

1. Motivations

Probl `eme de commande optimale

minimiser

u∈C(0,T), θ∈Rp J(X(tf)) sous les contraintes

d

dtX(t) =f(X(t),u(t), θ),t ∈[0,tf] contraintes suru

contraintes surθ contraintes surX

L’ ´evaluation deJn ´ecessite de r ´esoudre une ´equation diff ´erentielle L’une des deux inconnues du probl `eme est une fonction

(43)

1. Motivations

Probl `eme de commande optimale

Hypoth `ese de travail : la fonctiont7→u(t)appartient `a un espace de dimension finie

u(t) =

N

X

k=1

ukφk(t),

0 0.2 0.4 0.6 0.8 1

0.5 1 1.5 2 2.5 3 3.5

u(t)

u1

u2

u3

u5

u4

(44)

1. Motivations

Probl `eme de commande optimale

minimiser

θ∈Rp J(X(tf)) sous les contraintes

d

dtX(t) =f(X(t), θ),t∈[0,tf] contraintes surθ

Quandpest grand le calcul approch ´e des d ´eriv ´ees deJ est tr `es co ˆuteux Le calcul des d ´eriv ´ees exactes est n ´ecessaire !

(45)

2. Exemple

2.1 R ´eacteur batch avec deux r ´eactions parall `eles

A−→k1 B, A−→k2 C, k1=k10exp

−E1

RT

, k2=k20exp

−E2

RT

,

Cin ´etique sur[0,tf]:

d

dtA=−(k1+k2)A, A(0) =A0, (1)

d

dtB=k1A, B(0) =0, (2)

o `u on a not ´eA,Bles concentrations respectives.

But : maximiser la concentrationB(tf)en agissant sur T

(46)

2. Exemple

2.1 R ´eacteur batch avec deux r ´eactions parall `eles

En posant

A(t) =A0a(t), B=A0b(t), β= E2

E1, α=k20 k10β , on peut ´ecrire (1)-(2) sous la forme ´equivalente

d

dta=−f(k1)a, a(0) =1, (3)

d

dtb=k1a, b(0) =0, (4)

o `u on a not ´ef(k1) =k1+αk1β.

Optimiser par rapport `aT ⇐⇒Optimiser par rapport `ak1

(47)

2. Exemple

2.2 R ´eacteur batch isotherme avec deux r ´eactions parall `eles

Probl `eme d’optimisation (cas isotherme) minimiser

k1∈R+ J(k1) =−b(tf) sous les contraintes

d

dta=−f(k1)a, a(0) =1, (5)

d

dtb=k1a, b(0) =0, (6)

I Calcul deJ0(k1):il suffit de d ´eriver (5)-(6) par rapport `ak1

Attention,a(t)etb(t)sont des fonctions dek1!

(48)

2. Exemple

2.2 R ´eacteur batch isotherme avec deux r ´eactions parall `eles

Lesfonctions de sensibilit ´e

Sa(t) = ∂a(t)

∂k1

, Sb(t) =∂b(t)

∂k1

sont obtenues en r ´esolvant simultan ´ement les ´equations obtenues apr `es d ´erivation

d

dta=−f(k1)a, a(0) =1, (7)

d

dtb=k1a, b(0) =0, (8)

d

dtSa=−f(k1)Sa−f0(k1)a, Sa(0) =0, (9)

d

dtSb=k1Sa+a, Sb(0) =0. (10) et au final,

J0(k1) =−∂b(tf)

∂k1

=−Sb(tf).

(49)

3. Cas g ´en ´eral

Matrice de sensibilit ´e

X(t)∈Rnetθ∈Rp(param `etres)

La matricen×pde sensibilit ´eS(t), d ´efinie par [S(t)]i,j = ∂Xi(t)

∂θj ,

est obtenue par r ´esolution du syst `eme den+np ´equations diff ´erentielles : dX

dt =f(X, θ), dS

dt = ∂f

∂X(X, θ)S+∂f

∂θ(X, θ).

Elle permet de calculer le gradient par rapport `aθde toute fonction

´economique calcul ´ee `a partir deX.

Références

Documents relatifs

Montrer que si (f n ) est une suite de fonctions int´ egrables convergeant en norme L 1 vers 0, alors (f n ) admet une sous-suite qui converge presque partout vers 0.. 11 Soit (X n

– M´ ethodes num´ eriques pour la r´ esolution des ´ equations diff´ erentielles ordinaires : m´ ethodes d’Euler explicite ou implicite, m´ ethodes de Runge-Kutta, sch´ ema

Docking mol´ eculaire Mod´ elisation cognitive Calibration de mod` ele agronomique Apprentissage artificiel?. Tˆ ache de m´ emorisation

Cette information repr´ esente une infinit´ e de nombres et, comme dans le cas d’un champ purement classique, on peut dire que le formalisme quantique introduit formellement, pour

Dans une biblioth`eque de 6 ´etag`eres pouvant contenir 40 livres chacune, Iliona souhaite ranger ses 261 livres. Combien de livres ne pourra-t-elle pas ranger dans

Soit X une variable al´eatoire positive de fonction de r´epartition F... X est une variable al´eatoire positive de fonction de

Si T est inf´ erieur ` a la distance de K ` a la fronti` ere de Ω, la solution explicite donn´ ee par l’exercice pr´ ec´ edent est aussi solution de l’´ equation des ondes dans

L’existence et l’unicit´e des solutions entropiques pour un syst`eme d’EDP non lin´eaire conte- nant des termes g´en´eraux de diffusion anisotropiques et des termes de