a la structure sp´ecifiques du programme DC ´etudi´e pour lesquelles les suites {x
k} et {y
k}
sont faciles `a calculer, si possible explicites pour que les DCA correspondants soient moins
coˆuteux en temps et par cons´equent capables de supporter de tr`es grandes dimensions.
1.4 P´enalit´e exacte en Programmation DC
Les techniques de p´enalit´e sont tr`es souvent utilis´ees pour reformuler un probl`eme
d’optimi-sation DC sous contraintes anti-convexes en un probl`eme d’optimisation DC sous contraintes
convexes.
Consid´erons le probl`eme d’optimisation
(P) α= min{f(x) :x∈K, p(x)≤0},
o`u K est un ensemble convexe non vide born´e dans R
net p(x) ≥ 0 ∀x ∈ K, f est une
fonction DC, finie sur K. Le probl`eme (P) est un probl`eme d’optimisation non convexe. La
37 1.4. P´enalit´e exacte en Programmation DC
non convexit´e de (P) est due au fait que la fonctionf(x) est DC et que la contraintep(x)≤0
est non convexe.
Etant un param`etre η >0, on d´efinit le probl`eme de p´enalit´e par
(P
η) α
η= min{f(x) +ηp(x) :x∈K}.
On obtient le th´eor`eme suivant :
Th´eor`eme 1.6 [147] Soit une suite {η
k} telle que η
k+1> η
ket η
k→ +∞. Suppose que x
ksoit une solution optimale du probl`eme (P
ηk). Alors tous les points limites de la suite {x
k}
est une solution optimale du probl`eme (P).
Preuve : La d´emonstration est donn´ee dans [147]. 2
Ce th´eor`eme nous montre que la solution du probl`eme de p´enalit´e (P
η) est tr`es proche d’une
solution du probl`eme (P) quand η est suffisamment grand. Dans certains cas, il existe un
nombre η pour que le probl`eme (P) et le probl`eme de p´enalit´e (P
η) aient le mˆeme ensemble
des solutions optimales.
Th´eor`eme 1.7 [45] Soient K un poly`edre convexe born´e non vide, f une fonction DC finie
sur K et p une fonction finie concave non n´egative sur K. Il existe η
0≥ 0 tel que si η >
η
0alors deux probl`eme ci-dessous ont la mˆeme valeur optimale et le mˆeme ensemble des
solutions optimales.
(P
η) α(η) = min{
f(x) +ηp(x) :x∈K}
,
(P) α= min{
f(x) :x∈K, p(x)≤0}
.
Preuve : La d´emonstration est donn´ee dans [45]. 2
Le Th´eor`eme 1.7 nous permet de reformuler un programme non lin´eaire/non convexe en
variables mixtes en un programme DC.
Consid´erons le probl`eme d’optimisation
min{f(x, y) : (x, y)∈S, x∈ {0,1}
n}, (1.18)
o`u f(x, y) est une fonction DC et S est un poly`edre convexe born´e non vide dans R
n+m.
On consid`ereK ={(x, y) : (x, y)∈S, x∈[0,1]
n}et la fonctionp:R
n+m→Rqui est d´efinie
par p(x, y) =
n∑
i=1x
i(1−x
i) ou p(x, y) =
n∑
i=1min{x
i,1−x
i}. Il est clair que p(x, y) est finie,
concave, non n´egative sur K et le probl`eme (1.18) s’´ecrit comme
38 Introduction `a la programmation DC et DCA
En utilisant le Th´eor`eme 1.7, nous obtenons, pour un nombre η suffisamment grand, le
probl`eme d’optimisation DC ´equivalent au probl`eme (1.19).
min{f
η(x, y) =f(x, y) +ηp(x, y) : (x, y)∈K}.
Dans le cas o`u la fonction objectif est lin´eaire, nous pouvons appliquer le r´esultat suivant
qui est un cas particulier du Th´eor`eme 1.7 (voir Le Thi et al. [45]).
Th´eor`eme 1.8 [48] Soit K un poly`edre non vide, born´e de IR
n. Soitf une fonction concave
finie sur K et soit p une fonction concave finie et non n´egative sur K. Alors il existe un
nombre fini η
0≥ 0 tel que les deux probl`emes suivants sont ´equivalents avec η ≥ η
0(dans le
sens o`u ils ont le mˆeme ensemble de solutions optimales) :
α(η) = inf{f(x) +ηp(x) :x∈K},
α= inf{f(x) :x∈K, p(x)≤0}.
De plus, si l’ensemble de points extrˆemes V(K) de K est contenu dans {x ∈K, p(x) ≤0},
alors η
0= 0, sinon η
0= min{
f(x)−α(0)ξ
}
, o`u ξ:= min{p(x) :x∈V(K), p(x)>0}>0.
Preuve : Voir Le Thiet al.[48]. 2
Consid´erons le probl`eme d’optimisation lin´eaire
min{f(x, y) = a
Tx+b
Ty: (x, y)∈S, x∈ {0,1}
n}, (1.19)
o`ua ∈R
n, b∈R
metS est un poly`edre convexe born´e non vide dansR
n+m.
En utilisant le Th´eor`eme 1.8, nous obtenons, pour un nombre η suffisamment grand, le
probl`eme d’optimisation DC ´equivalent au probl`eme (1.19).
min{f
η(x, y) =a
Tx+b
Ty+ηp(x, y) : (x, y)∈K}. (1.20)
Remarque 1.6 Le probl`eme (1.20) est un probl`eme d’optimisation DC polyh´edrale.
Chapitre 2
M´ethode par S´eparation et Evaluation
(SE)
R´esum´e
Ce chapitre est consacr´e `a la m´ethode par S´eparation et Evaluation qui, en anglais, est
appel´ee Branch-and-Bound.
On consid`ere le probl`eme de minimisation d’une fonction continue sur un compact
min{f(x) :x∈S ⊂IR
n}. (2.1)
Il est bien connu que si S ̸= ∅ alors le probl`eme admet une solution. On veut trouver une
solution dite optimale x
∗∈S telle que
f(x
∗)≤f(x) ∀x∈S.
L’id´ee de base de la m´ethode SE consiste en la division successive d’un ensemble qui contient
S en sous-ensembles de plus en plus petits. A chaque sous-ensemble contenant une partie
de S, on associe une borne inf´erieure de la valeur de la fonction objectif sur cet ensemble
afin d’´eliminer les parties non prometteuses et de s´electionner un ensemble que l’on devrait
diviser par la suite.
D´efinition 2.1 Soit M un compact dans IR
net soit I un ensemble fini d’indices. Un
ensemble M
i:i∈I de sous-ensembles compacts est appel´e partition de M si
M =∪
i∈I
M
i, M
i∩M
j=∂M
i∩∂M
j, ∀i, j ∈I :i̸=j,
o`u ∂M
id´enote la fronti`ere relative `a M de M
i.
40 S´eparation et Evaluation
2.1 M´ethode de r´esolution et convergence
Adoptons la notation minf(S) = min{f(x) :x∈S}. Le sch´ema g´en´eral de SE se r´esume de
la mani`ere suivante :
Prototype SE ([8, 73])
• Initialisation
1. Choisir un compact M
0⊃ S, un ensemble fini des indices I
0, une partition M
0=
{M
0,i:i∈I
0} deM
0satisfaisant M
0,i∩S ̸=∅, i∈I
0.
2. Pour chaquei∈I
0, d´eterminer
S
0,i⊂M
0,i∩S, S
0,i̸=∅
et
γ
0,i=γ(M
0,i) := minf(S
i,0), x
0,i∈arg minf(S
0,i).
3. Pour chaquei∈I
0d´eterminer
β
0,i=β(M
0,i)≤minf(S∩M
0,i).
4. Calculer
γ
0= min
i∈I0γ
0,i, (2.2)
x
0∈arg min{f(x
0,i, i∈I
0)}, (2.3)
β
0= min
i∈I0β
0,i. (2.4)
• It´eration k
k.1 Supprimer tout M
k,i∈ M
kv´erifiant
β
k,i≥γ
0ou pour lequel on sait que minf(S) ne peut pas avoir lieu dansM
k,i. SoitR
kle collection
des ´elements restantM
k,i∈ M
k.
Si R
k=∅ alors STOP, x
kest une solution.
k.2 S´electionnerM
k,ik∈ R
k, choisir un ensemble fini des indicesJ
k+1et construire une
partition
M
k,ik={M
k+1,i:i∈J
k+1}
de M
k,iktelle que M
k+1,i∩S ̸=∅.
k.3 Pour chaque i∈J
k+1d´eterminer
S
k+1,i∈M
k+1,i∩S, S
k+1,i̸=∅
et
41 2.1. M´ethode de r´esolution et convergence
k.4 Pour chaque i∈J
k+1,id´eterminer β
k+1,itel que
β
k,ik≤β
k+1,i≤minf(S∩M
k+1,i).
k.5 Poser
M
k+1= (R
k\M
k,ik)∪ M
k,ik.
Soit I
k+1l’ensemble des indices tels que
M
k+1={M
k+1,i:I ∈I
k+1}
est la partition actuelle.
Soient γ
k+1,i, β
k+1,i, x
k+1,iles quantit´es correspondant `a M
k+1,i, i∈I
k+1.
k.6 Calculer
γ
k+1= min
i∈Ik+1γ
k+1,i(2.5)
x
k+1∈arg min{f(x
k+1,i, i∈I
k+1)} (2.6)
β
k+1= min
i∈Ik+1β
k+1,i(2.7)
et retourner `a l’it´eration k+ 1.
Remarque 2.1 (i) Il faudrait d´eterminer S
k,i, x
k,i, β
k,ide telle fa¸con que ces bornes
au-tant serr´ees que possible, avec un effort de calcul raisonnable. On parvient donc `a un certain
compromis.
(ii) γ
k,i, β
k,isont des bornes inf´erieures et des bornes sup´erieures pour minf(S∩M
k,i)
as-soci´ees `a chaque ensemble M
k,iet γ
k, β
ksont des bornes inf´erieures et des bornes sup´erieures
`
a minf(S) ´etant d´ecroissantes et croissantes respectivement.
(iii) β
k,i≥γ
kindique que la solution x
kne peut pas s’am´eliorer dans M
k,idonc cet ´el´ement
peut ˆetre ´elimin´e.
Conditions de la convergence
La m´ethode SE converge dans le sens que chaque point d’accumulation de {x
k} est une
solution de (P). ´Evidemment, par la construction, on a
x
k∈S, k = 0,1, . . . (2.8)
γ
k≥γ
k+1≥minf(S)≥β
k+1≥β
k(2.9)
f(x
k)≥f(x
k+1), k = 0,1, . . . (2.10)
D´efinition 2.2 Une estimation de borne est dite coh´erente (consistent) si, pour une suite
d´ecroissante quelconque M
kq,ikqg´en´er´ee par la proc´edure de s´eparation, i.e.
M
kq+1,iq+1⊂M
kq,iq,
on a
lim
42 S´eparation et Evaluation
Puisque β
kq,ikq≤γ
kq≤γk
q, i
kq, la condition (2.11) peut s’´ecrire
lim
q→∞
(α
kq−β
kq,ikq) = 0 (2.12)
Par la monotonie et la bornitude des suites {γ
k},{β
k} on a
(f(x
k) = γ
k)→α, β
k→β, γ ≥minf(S)≥β
D´efinition 2.3 Une s´election est dite compl`ete si pour chaque
M ∈ ∪
∞ p=1 ∞∩
k=pR
kon a
inff(M ∩S)≥α.
Une s´election est dite ‘’borne-am´eliorante” (bound improving), si au moins apr`es chaque
nombre fini d’it´erations, on a
M
k,ik∈arg min{β(M) :M ∈ R
k} (2.13)
Th´eor`eme 2.1 ([8, 13]) Supposons que S est ferm´e et que minf(S) existe. Soit, dans le
prototype, l’op´eration d’estimation de borne est coh´erente. On a :
(i) Si la s´election est compl`ete, alors
γ := lim
k→∞
α
k= lim
k→∞f(x
k
) = f(S) (2.14)
(ii) Si la s´election est borne-am´eliorante, alors
β := lim
k→∞
β
k= minf(S) (2.15)
(iii) Si la s´election est compl`ete, f est continue, et {x ∈S :f(x)≤ f(x
0)} est born´e, alors
chaque point d’accumulation de {x
k} r´esout le probl`eme (P).
Preuve : Voir [8, 13]. 2
Noter que si l’estimation de borne est coh´erente alors la s´election qui am´eliore des bornes
est aussi compl`ete, parce que f(x)≤β
kq,∀x∈S et lorsque (2.13) est appliqu´e, on a
inff(M ∩S)≥β=γ
Dans le document
Optimisation non convexe en finance et en gestion de production : modèles et méthodes
(Page 42-49)