• Aucun résultat trouvé

G´en´eration de Colonnes pour les Probl`emes Lin´eaires en Nombres Entiers

Considerons le probl`eme bi-objectifP suivant :

Minimiser (c

1

)

T

x (A.1)

Minimiser (c

2

)

T

x (A.2)

sous contraintes : Axb , (A.3)

x ≥ 0 et entier. (A.4)

Dans cette formulation, xest un vecteur de nvariables de d´ecision et c

i

est un vecteur de

ncoefficients entiers dans la i

`eme

fonction objective (i= 1,2). Les contraintes du probl`eme

sont exprim´ees en utilisant une matriceA de taille m×net un vecteur de constantes b

ayant mcomposants.

A.2.1 Construction de Bornes Inf´erieures

L’id´ee g´en´erale utilis´ee pour construire une borne inf´erieure est de convertir le probl`eme

bi-objectif en un probl`eme mono-objectif en utilisant une m´ethode de scalarisation et puis

r´esoudre ce probl`eme (or une relaxation) plusieurs fois en faisant varier les param`etres

n´ecessaires. Dans ce th`ese nous consid´erons la m´ethode de sommes pond´er´ees et la m´ethode

ε-contrainte.

Le principe de la m´ethode de sommes pond´er´ees est de d´efinir un vecteur de poids non

n´egatif λ= (λ

1

, λ

2

) et de transformer le probl`eme P en un probl`eme mono-objectif P(λ)

donn´e par :

Minimiser λ

1

·(c

1

)

T

x+λ

2

·(c

2

)

T

x (A.5)

sous contraintes : Axb , (A.6)

x ≥ 0 et entier. (A.7)

L’id´ee de la m´ethode ε-contrainte est de convertir une des deux fonctions objectifs en

une contrainte en utilisant une constanteεR. Le probl`eme mono-objectifP(ε) obtenu

apr`es la transformation du probl`emeP est donn´e par :

Minimiser (c

1

)

T

x (A.8)

sous contraintes : Axb , (A.9)

−(c

2

)

T

x ≥ −ε , (A.10)

x ≥ 0 et entier. (A.11)

Si l’on suppose que le nombre de colonnes dans le probl`emeAest assez petit (c’est-`a-dire

nest petit), alors nous n’avons pas besoin de g´en´eration de colonnes pour construire une

borne inf´erieure pour ce probl`eme. Ce cas a ´et´e trait´e par Ehrgott and Gandibleux (2007)

qui ont utilis´e la m´ethode de sommes pond´er´ees pour la scalarisation de P. ´Etant donn´e

que le probl`eme P(λ) est N P-difficile dans le cas g´en´eral, ils ont cherch´e l’ensemble de

points nondomin´e de la relaxation lin´eaire de P(λ) en utilisant une m´ethode propos´ee

par Aneja and Nair (1979). Une borne inf´erieure est d´efinie comme la ligne joignant les

points nondomin´es. Pour utiliser la m´ethode ε-contrainte, nous devons aussi r´esoudre

la relaxation lin´eaire de P(ε) pour plusieurs valeurs deε. En faisant cela, nous devons

assurer que chaque point r´ealisable du probl`eme P est soit g´en´er´e ou domin´e par au moins

un des points g´en´er´e (voir la figure A.1). C’est difficile `a satisfaire cette condition pour

un probl`eme bi-objectif g´en´erale. Cependant si les coefficients des fonctions objectifs du

probl`eme sont entiers, nous pouvons utiliser une id´ee similaire `a ce qui a ´et´e utilis´e par

B´erub´e et al. (2009).

δ

1

δ

i

...

...

ε

1

= maxε

ε

2

ε

i

ε

i+1

minε

Point r´ealisable

´Element de borne

inf´erieure

R´egion non-r´ealisable

f

1

f

2

Figure A.1: Construction d’une borne inf´erieure par ε-contrainte.

A.2.2 Construction de Bornes Inf´erieures par G´en´eration de Colonnes

Si le nombre de colonnes du probl`eme P est trop important, nous devons utiliser une

m´ethode de g´en´eration de colonnes pour la construction d’une borne inf´erieure. Nous

listons maintenant les diff´erents mod`eles impliqu´es dans l’utilisation de chacune des deux

m´ethodes de scalarisation.

Cas de Sommes Pond´er´ees

Probl`eme maˆıtre Lin´eaire (PML(λ)):

Minimiser (λ

1

c

1

+λ

2

c

2

)

T

x (A.12)

sous contraintes : Axb , (A.13)

x ≥ 0. (A.14)

Probl`eme dual du PML (DPML(λ)): Soit π le vecteur de variables duales associ´es aux

contraintes (A.13). Le probl`eme dual est donn´e par :

Maximiser b

T

π (A.15)

sous contraintes : A

T

πλ

1

c

1

+λ

2

c

2

, (A.16)

π ≥ 0. (A.17)

Sous-Probl`eme (S(λ)): Il consiste `a chercher au moins une variable (colonne de la

matriceA) qui satisfait

λ

1

c

1

+λ

2

c

2

A

T

π < 0. (A.18)

Cas de ε-contrainte

Probl`eme maˆıtre Lin´eaire (PML(ε)):

Minimiser c

1

x (A.19)

sous contraintes : Axb , (A.20)

c

2

x ≥ −ε , (A.21)

x ≥ 0. (A.22)

Probl`eme dual du PML (DPML(ε)): Soit π le vecteur de variables duales associ´es aux

contraintes (A.20) etϕla variable duale associ´ee `a la contrainte (A.21). Le probl`eme dual

est donn´e par :

Maximiser b

T

πεϕ (A.23)

sous contraintes : A

T

πϕc

2

c

1

, (A.24)

π, ϕ ≥ 0. (A.25)

Sous-Probl`eme (S(ε)): Il consiste `a chercher au moins une variable (colonne de la

matriceA) qui satisfait

c

1

+ϕc

2

A

T

π < 0. (A.26)

Forme G´en´erale du Sous-Probl`eme

Une inspection des in´equalit´es (A.18) and (A.26) r´ev`ele que les sous-probl`emes dans les

deux cas ont une forme similaire. Ceci implique que des strat´egies de r´esolution bas´ee

sur une des m´ethodes de scalarisation peuvent ˆetre adapt´ees pour l’autre m´ethode de

scalarisation. Par ailleurs, c’est possible de traiter plus d’un sous-probl`eme `a la fois pendant

la recherche de colonnes.

A.2.3 Un Algorithme G´en´eralis´e de G´en´eration de Colonnes Pour les

Probl`emes Lin´eaires en Nombres Entiers Bi-Objectif

Grace aux similarit´es des sous-probl`emes r´esolus pendant la construction d’une borne

inf´erieure, nous proposons un algorithme g´en´eral de g´en´eration de colonnes pour les

probl`emes lin´eaires en nombres entiers bi-objectif. Cet algorithme est illustr´e dans

l’organigramme de la figure A.2 et pour impl´ementer, diff´erentes possibilit´es se pr´esentent.

Nous pr´esentons maintenant quelques une de ces possibilit´es que nous appelons les

ap-proches or strat´egies de recherche de colonnes. Dans les descriptions de ces apap-proches,

nous supposons que la m´ethode ε-contrainte est utilis´ee pour la scalarisation du probl`eme

bi-objectif.

D´ebut

Choisir une m´ethode

de scalarisation et

transform´e le probl`eme

Formuler PMLR pour

la m´ethode de

scalarisation choisi

R´esoudre PMLR pour

differentes valeurs

du parametre

R´esoudre sous-probl`eme

correspondant `a un

ou plusieurs points

Ajouter colonne(s)

`a PMLR

Une

nouvelle

colonne?

Fin

oui

non

Figure A.2: Un algorithme g´en´eralis´e de g´en´eration de colonnes.

Approche Point par Point (PPS)

Une impl´ementation tr`es simple et intuitive de l’Algorithme A.2 consiste `a r´esoudre le

PMLR compl`etement pour unεdonn´e avant de changer la valeur deε. c’est-`a-dire, nous

fixons une valeur de ε et puis r´esoudre PMLR(ε) par g´en´eration de colonnes jusqu’`a

convergence avant de changer la valeur deε. Nous appelons cette approche Point par Point

(PPS) puisque nous nous concentrons sur la recherche d’un point de la borne inf´erieure

avant de chercher un autre point. Mˆeme si cette approche est simple et facile `a impl´ementer,

elle ne prend pas en compte les similarit´es des sous-probl`emes associ´es au diff´erentes valeurs

de ε. En outre, la convergence de la m´ethode pour une valeur de εpeut ˆetre tr`es lente

mais cette approche ne nous donne pas la possibilit´e de changer leεavant la convergence.

Approche k-Step PPS (k-PPS)

Cette approche que nous appelons k-Step PPS (k-PPS) est une variante de PPS qui

donne la possibilit´e de changer la valeur de εavant la convergence de PMLR(ε) pour cette

valeur. Si n´ecessaire, l’approche va retourner aux valeurs deεqui n’ont pas converg´e avant.

L’approche n´ecessite la d´efinition d’une condition sous laquelle nous pouvons changer la

valeur deεavant la convergence de PMLR pour cette valeur. La condition peut ˆetre de

changer la valeur de ε si PMLR ne converge pas apr`es k it´erations de la m´ethode. La

condition que nous avons utilis´e dans cette th`ese est de changer la valeur de εsi la valeur

de la fonction objective de RLPM ne s’am´eliore pas significativement apr`esk it´erations.

La difficult´e principale de cette approche est la d´efinition d’une bonne condition en d´ebut

de l’approche quand nous n’avons pas assez d’information sur le probl`eme consid´er´e.

Approche Improved PPS (IPPS)

Cette approche est bas´ee sur l’id´ee que nous pouvons utiliser des heuristiques pour g´en´erer

plus de colonnes apr`es avoir trouv´e quelques colonnes par un algorithme. Nous nous

int´er´essons plus particuli`erement des heuristiques qui peuvent exploiter les similarit´es des

sous-probl`emes. C’est-`a-dire, apr`es avoir trouv´e quelques colonnes par un algorithme con¸cu

pour r´esoudre le sous-probl`eme nous cherchons `a modifier ces colonnes pour trouver d’autres.

Une colonne trouv´ee par une telle heuristique est pertinente pour le sous-probl`eme actuel

et peut ˆetre aussi pertinente (mais sans aucune garantie) pour un autre sous-probl`eme.

Comme l’heuristique d´epend du probl`eme consid´er´e, nous montrons l’id´ee de cette approche

sur un probl`eme sp´ecifique dans la Section A.3.

Approche S´equentielle (Sequential)

L’id´ee d’une approche s´equentielle est de travailler sur un ensemble de points plutˆot que

se concentrer sur un seul point `a la fois. Pour cela, l’approche commence par r´esoudre

PMLR(ε) pour diff´erentes valeurs deεsans g´en´erer aucune colonne. Ensuite, nous cherchons

un ensemble de colonnes tel que chaqu’un des points g´en´er´es pr´ec´edemment a au moins une

colonne pertinente dans l’ensemble. Nous r´esolvons les sous-probl`eme correspondant au

points un apr`es l’autre. Avant de r´esoudre le sous-probl`eme correspondant `a un point, nous

v´erifions d’abord si nous avons d´ej`a trouv´e une colonne pertinente pour ce point. Si c’est

le cas, nous sautons le point sans r´esoudre le sous-probl`eme correspondant. Nous trouvons

donc `a chaque it´eration, un ensemble de colonnes qui est pertinent pour tous les points

g´en´er´es dans cette int´eration sans n´ecessairement r´esoudre pour tous les sous-probl`emes

correspondants.

Approche Solve-Once-Generate-for-All (SOGA)

Cette approche est une variante de l’approche s´equentielle. Juste comme l’approche IPPS,

SOGA reste sur l’id´ee que l’on peut utilis´e des heuristiques dans la recherche des colonnes.

La premi`ere ´etape consiste `a r´esoudre PMLR(ε) pour diff´erentes valeurs de εsans g´en´erer

des colonnes. Dans la deuxi`eme ´etape, le sous-probl`eme correspondant `a un (seul) point

est r´esolu pour chercher un ensemble de colonnes initial. Ensuite, des heuristiques sont

utilis´ees pour modifier les colonnes trouv´e afin de chercher d’autres colonnes pour les autres

points. La diff´erence de cette approche par rapport `a IPPS est que les valeurs duals des

autres points sont utilis´ees dans les heuristiques. Cela nous donne la guarantie qu’une

colonne trouv´e par une heuristique est bien pertinente pour le point dont nous avons utilis´e

les valeurs duals. Nous montrons l’id´ee de cette approche sur un probl`eme sp´ecifique dans

la Section A.3

A.2.4 en´eration de Colonnes pour les PLNE Bi-Objectif ayant une

Fonction Objectif Min-Max

Nous pr´esentons un cas particulier d’un probl`eme lin´eaire en nombres entiers (PLNE) pour

lequel une des fonctions objectifs est une fonction min-max. Nous notons un tel probl`eme

PLNEBOMM. Nous consid´erons les probl`emes de la forme :

Minimiser X

k∈Ω

c

k

θ

k

(A.27)

Minimiser Γ

max

(A.28)

sous contraintes : X

k∈Ω

a

ik

θ

k

b

i

(iI), (A.29)

Γ

max

σ

k

θ

k

(k∈Ω), (A.30)

θ

k

∈ {0,1} (k∈Ω). (A.31)

Dans cette formulation, l’ensemble de toutes les colonnes r´ealisables est not´ee Ω etI est

l’ensemble des indices pour les contraintes. Deux valeurs c

k

et σ

k

sont associ´ees `a une

colonne k∈Ω. Le probl`eme consiste `a s´electionner un sous-ensemble des colonnes dans le

but de minimiser la somme desc

k

et aussi minimiser la valeur maximum deσ

k

associ´ee `a

une colonne s´electionn´ee.

reformulation de PLNEBOMM

Au lieu d’ajouter une contrainte de type Γ

max

ε`a la formulation, nous proposons une

reformulation du probl`eme. Nous d´efinissons une extension Ω de Ω o`u la validit´e d’une

colonnek∈Ω d´epend de la valeur de σ

k

. Nous obtenons la formulation :

Minimiser X

k∈Ω

c

k

θ

k

(A.32)

sous contraintes : X

k∈Ω

a

ik

θ

k

b

i

(iI), (A.33)

θ

k

∈ {0,1} (k∈Ω). (A.34)

Avant de r´esoudre le probl`eme pour une valeur de ε, nous fixons θ

k

= 0 pour toutes

colonnesk∈Ω ayant σ

k

> ε. Nous pouvons utiliser toutes les approches de recherches de

colonnes d´ej`a pr´esent´ees pendant la construction d’une borne inf´erieure par g´en´eration

de colonnes. Nous devons aussi assurer que les colonnes g´en´er´es pendant la r´esolution de

sous-probl`emes respectent la contrainte li´ee `a ε.

A.3 Probl`eme de Tourn´ee Couvrante Bi-Objectif `a Plusieurs

Documents relatifs