• Aucun résultat trouvé

a la structure sp´ecifiques du programme DC ´etudi´e pour lesquelles les suites {x

k

} et {y

k

}

sont faciles `a calculer, si possible explicites pour que les DCA correspondants soient moins

coˆuteux en temps et par cons´equent capables de supporter de tr`es grandes dimensions.

1.4 enalit´e exacte en Programmation DC

Les techniques de p´enalit´e sont tr`es souvent utilis´ees pour reformuler un probl`eme

d’optimi-sation DC sous contraintes anti-convexes en un probl`eme d’optimisation DC sous contraintes

convexes.

Consid´erons le probl`eme d’optimisation

(P) α= min{f(x) :xK, p(x)0},

o`u K est un ensemble convexe non vide born´e dans R

n

et p(x) 0 x K, f est une

fonction DC, finie sur K. Le probl`eme (P) est un probl`eme d’optimisation non convexe. La

37 1.4. P´enalit´e exacte en Programmation DC

non convexit´e de (P) est due au fait que la fonctionf(x) est DC et que la contraintep(x)0

est non convexe.

Etant un param`etre η >0, on d´efinit le probl`eme de p´enalit´e par

(P

η

) α

η

= min{f(x) +ηp(x) :xK}.

On obtient le th´eor`eme suivant :

Th´eor`eme 1.6 [147] Soit une suite {η

k

} telle que η

k+1

> η

k

et η

k

+. Suppose que x

k

soit une solution optimale du probl`eme (P

ηk

). Alors tous les points limites de la suite {x

k

}

est une solution optimale du probl`eme (P).

Preuve : La d´emonstration est donn´ee dans [147]. 2

Ce th´eor`eme nous montre que la solution du probl`eme de p´enalit´e (P

η

) est tr`es proche d’une

solution du probl`eme (P) quand η est suffisamment grand. Dans certains cas, il existe un

nombre η pour que le probl`eme (P) et le probl`eme de p´enalit´e (P

η

) aient le mˆeme ensemble

des solutions optimales.

Th´eor`eme 1.7 [45] Soient K un poly`edre convexe born´e non vide, f une fonction DC finie

sur K et p une fonction finie concave non n´egative sur K. Il existe η

0

0 tel que si η >

η

0

alors deux probl`eme ci-dessous ont la mˆeme valeur optimale et le mˆeme ensemble des

solutions optimales.

(P

η

) α(η) = min{

f(x) +ηp(x) :xK}

,

(P) α= min{

f(x) :xK, p(x)0}

.

Preuve : La d´emonstration est donn´ee dans [45]. 2

Le Th´eor`eme 1.7 nous permet de reformuler un programme non lin´eaire/non convexe en

variables mixtes en un programme DC.

Consid´erons le probl`eme d’optimisation

min{f(x, y) : (x, y)S, x∈ {0,1}

n

}, (1.18)

o`u f(x, y) est une fonction DC et S est un poly`edre convexe born´e non vide dans R

n+m

.

On consid`ereK ={(x, y) : (x, y)S, x[0,1]

n

}et la fonctionp:R

n+m

Rqui est d´efinie

par p(x, y) =

n

i=1

x

i

(1x

i

) ou p(x, y) =

n

i=1

min{x

i

,1x

i

}. Il est clair que p(x, y) est finie,

concave, non n´egative sur K et le probl`eme (1.18) s’´ecrit comme

38 Introduction `a la programmation DC et DCA

En utilisant le Th´eor`eme 1.7, nous obtenons, pour un nombre η suffisamment grand, le

probl`eme d’optimisation DC ´equivalent au probl`eme (1.19).

min{f

η

(x, y) =f(x, y) +ηp(x, y) : (x, y)K}.

Dans le cas o`u la fonction objectif est lin´eaire, nous pouvons appliquer le r´esultat suivant

qui est un cas particulier du Th´eor`eme 1.7 (voir Le Thi et al. [45]).

Th´eor`eme 1.8 [48] Soit K un poly`edre non vide, born´e de IR

n

. Soitf une fonction concave

finie sur K et soit p une fonction concave finie et non n´egative sur K. Alors il existe un

nombre fini η

0

0 tel que les deux probl`emes suivants sont ´equivalents avec η η

0

(dans le

sens o`u ils ont le mˆeme ensemble de solutions optimales) :

α(η) = inf{f(x) +ηp(x) :xK},

α= inf{f(x) :xK, p(x)0}.

De plus, si l’ensemble de points extrˆemes V(K) de K est contenu dans {x K, p(x) 0},

alors η

0

= 0, sinon η

0

= min{

f(x)α(0)

ξ

}

, o`u ξ:= min{p(x) :xV(K), p(x)>0}>0.

Preuve : Voir Le Thiet al.[48]. 2

Consid´erons le probl`eme d’optimisation lin´eaire

min{f(x, y) = a

T

x+b

T

y: (x, y)S, x∈ {0,1}

n

}, (1.19)

o`ua R

n

, bR

m

etS est un poly`edre convexe born´e non vide dansR

n+m

.

En utilisant le Th´eor`eme 1.8, nous obtenons, pour un nombre η suffisamment grand, le

probl`eme d’optimisation DC ´equivalent au probl`eme (1.19).

min{f

η

(x, y) =a

T

x+b

T

y+ηp(x, y) : (x, y)K}. (1.20)

Remarque 1.6 Le probl`eme (1.20) est un probl`eme d’optimisation DC polyh´edrale.

Chapitre 2

ethode par S´eparation et Evaluation

(SE)

R´esum´e

Ce chapitre est consacr´e `a la m´ethode par S´eparation et Evaluation qui, en anglais, est

appel´ee Branch-and-Bound.

On consid`ere le probl`eme de minimisation d’une fonction continue sur un compact

min{f(x) :xS IR

n

}. (2.1)

Il est bien connu que si S ̸= alors le probl`eme admet une solution. On veut trouver une

solution dite optimale x

S telle que

f(x

)f(x) xS.

L’id´ee de base de la m´ethode SE consiste en la division successive d’un ensemble qui contient

S en sous-ensembles de plus en plus petits. A chaque sous-ensemble contenant une partie

de S, on associe une borne inf´erieure de la valeur de la fonction objectif sur cet ensemble

afin d’´eliminer les parties non prometteuses et de s´electionner un ensemble que l’on devrait

diviser par la suite.

efinition 2.1 Soit M un compact dans IR

n

et soit I un ensemble fini d’indices. Un

ensemble M

i

:iI de sous-ensembles compacts est appel´e partition de M si

M =∪

i∈I

M

i

, M

i

M

j

=∂M

i

∂M

j

, i, j I :i̸=j,

o`u ∂M

i

enote la fronti`ere relative `a M de M

i

.

40 eparation et Evaluation

2.1 ethode de r´esolution et convergence

Adoptons la notation minf(S) = min{f(x) :xS}. Le sch´ema g´en´eral de SE se r´esume de

la mani`ere suivante :

Prototype SE ([8, 73])

Initialisation

1. Choisir un compact M

0

S, un ensemble fini des indices I

0

, une partition M

0

=

{M

0,i

:iI

0

} deM

0

satisfaisant M

0,i

S ̸=, iI

0

.

2. Pour chaqueiI

0

, d´eterminer

S

0,i

M

0,i

S, S

0,i

̸=

et

γ

0,i

=γ(M

0,i

) := minf(S

i,0

), x

0,i

arg minf(S

0,i

).

3. Pour chaqueiI

0

d´eterminer

β

0,i

=β(M

0,i

)minf(SM

0,i

).

4. Calculer

γ

0

= min

i∈I0

γ

0,i

, (2.2)

x

0

arg min{f(x

0,i

, iI

0

)}, (2.3)

β

0

= min

i∈I0

β

0,i

. (2.4)

It´eration k

k.1 Supprimer tout M

k,i

∈ M

k

v´erifiant

β

k,i

γ

0

ou pour lequel on sait que minf(S) ne peut pas avoir lieu dansM

k,i

. SoitR

k

le collection

des ´elements restantM

k,i

∈ M

k

.

Si R

k

= alors STOP, x

k

est une solution.

k.2 S´electionnerM

k,ik

∈ R

k

, choisir un ensemble fini des indicesJ

k+1

et construire une

partition

M

k,ik

={M

k+1,i

:iJ

k+1

}

de M

k,ik

telle que M

k+1,i

S ̸=.

k.3 Pour chaque iJ

k+1

d´eterminer

S

k+1,i

M

k+1,i

S, S

k+1,i

̸=

et

41 2.1. M´ethode de r´esolution et convergence

k.4 Pour chaque iJ

k+1,i

d´eterminer β

k+1,i

tel que

β

k,ik

β

k+1,i

minf(SM

k+1,i

).

k.5 Poser

M

k+1

= (R

k

\M

k,ik

)∪ M

k,ik

.

Soit I

k+1

l’ensemble des indices tels que

M

k+1

={M

k+1,i

:I I

k+1

}

est la partition actuelle.

Soient γ

k+1,i

, β

k+1,i

, x

k+1,i

les quantit´es correspondant `a M

k+1,i

, iI

k+1

.

k.6 Calculer

γ

k+1

= min

i∈Ik+1

γ

k+1,i

(2.5)

x

k+1

arg min{f(x

k+1,i

, iI

k+1

)} (2.6)

β

k+1

= min

i∈Ik+1

β

k+1,i

(2.7)

et retourner `a l’it´eration k+ 1.

Remarque 2.1 (i) Il faudrait d´eterminer S

k,i

, x

k,i

, β

k,i

de telle fa¸con que ces bornes

au-tant serr´ees que possible, avec un effort de calcul raisonnable. On parvient donc `a un certain

compromis.

(ii) γ

k,i

, β

k,i

sont des bornes inf´erieures et des bornes sup´erieures pour minf(SM

k,i

)

as-soci´ees `a chaque ensemble M

k,i

et γ

k

, β

k

sont des bornes inf´erieures et des bornes sup´erieures

`

a minf(S) ´etant d´ecroissantes et croissantes respectivement.

(iii) β

k,i

γ

k

indique que la solution x

k

ne peut pas s’am´eliorer dans M

k,i

donc cet ´el´ement

peut ˆetre ´elimin´e.

Conditions de la convergence

La m´ethode SE converge dans le sens que chaque point d’accumulation de {x

k

} est une

solution de (P). ´Evidemment, par la construction, on a

x

k

S, k = 0,1, . . . (2.8)

γ

k

γ

k+1

minf(S)β

k+1

β

k

(2.9)

f(x

k

)f(x

k+1

), k = 0,1, . . . (2.10)

efinition 2.2 Une estimation de borne est dite coh´erente (consistent) si, pour une suite

ecroissante quelconque M

kq,ikq

en´er´ee par la proc´edure de s´eparation, i.e.

M

kq+1,iq+1

M

kq,iq

,

on a

lim

42 eparation et Evaluation

Puisque β

kq,ikq

γ

kq

γk

q

, i

kq

, la condition (2.11) peut s’´ecrire

lim

q→∞

(α

kq

β

kq,ikq

) = 0 (2.12)

Par la monotonie et la bornitude des suites {γ

k

},{β

k

} on a

(f(x

k

) = γ

k

)α, β

k

β, γ minf(S)β

efinition 2.3 Une s´election est dite compl`ete si pour chaque

M

p=1

k=p

R

k

on a

inff(M S)α.

Une s´election est dite ‘’borne-am´eliorante” (bound improving), si au moins apr`es chaque

nombre fini d’it´erations, on a

M

k,ik

arg min{β(M) :M ∈ R

k

} (2.13)

Th´eor`eme 2.1 ([8, 13]) Supposons que S est ferm´e et que minf(S) existe. Soit, dans le

prototype, l’op´eration d’estimation de borne est coh´erente. On a :

(i) Si la s´election est compl`ete, alors

γ := lim

k→∞

α

k

= lim

k→∞

f(x

k

) = f(S) (2.14)

(ii) Si la s´election est borne-am´eliorante, alors

β := lim

k→∞

β

k

= minf(S) (2.15)

(iii) Si la s´election est compl`ete, f est continue, et {x S :f(x) f(x

0

)} est born´e, alors

chaque point d’accumulation de {x

k

} esout le probl`eme (P).

Preuve : Voir [8, 13]. 2

Noter que si l’estimation de borne est coh´erente alors la s´election qui am´eliore des bornes

est aussi compl`ete, parce que f(x)β

kq

,xS et lorsque (2.13) est appliqu´e, on a

inff(M S)β=γ