Considerons le probl`eme bi-objectifP suivant :
Minimiser (c
1)
Tx (A.1)
Minimiser (c
2)
Tx (A.2)
sous contraintes : Ax ≥ b , (A.3)
x ≥ 0 et entier. (A.4)
Dans cette formulation, xest un vecteur de nvariables de d´ecision et c
iest un vecteur de
ncoefficients entiers dans la i
`emefonction objective (i= 1,2). Les contraintes du probl`eme
sont exprim´ees en utilisant une matriceA de taille m×net un vecteur de constantes b
ayant mcomposants.
A.2.1 Construction de Bornes Inf´erieures
L’id´ee g´en´erale utilis´ee pour construire une borne inf´erieure est de convertir le probl`eme
bi-objectif en un probl`eme mono-objectif en utilisant une m´ethode de scalarisation et puis
r´esoudre ce probl`eme (or une relaxation) plusieurs fois en faisant varier les param`etres
n´ecessaires. Dans ce th`ese nous consid´erons la m´ethode de sommes pond´er´ees et la m´ethode
ε-contrainte.
Le principe de la m´ethode de sommes pond´er´ees est de d´efinir un vecteur de poids non
n´egatif λ= (λ
1, λ
2) et de transformer le probl`eme P en un probl`eme mono-objectif P(λ)
donn´e par :
Minimiser λ
1·(c
1)
Tx+λ
2·(c
2)
Tx (A.5)
sous contraintes : Ax ≥ b , (A.6)
x ≥ 0 et entier. (A.7)
L’id´ee de la m´ethode ε-contrainte est de convertir une des deux fonctions objectifs en
une contrainte en utilisant une constanteε∈R. Le probl`eme mono-objectifP(ε) obtenu
apr`es la transformation du probl`emeP est donn´e par :
Minimiser (c
1)
Tx (A.8)
sous contraintes : Ax ≥ b , (A.9)
−(c
2)
Tx ≥ −ε , (A.10)
x ≥ 0 et entier. (A.11)
Si l’on suppose que le nombre de colonnes dans le probl`emeAest assez petit (c’est-`a-dire
nest petit), alors nous n’avons pas besoin de g´en´eration de colonnes pour construire une
borne inf´erieure pour ce probl`eme. Ce cas a ´et´e trait´e par Ehrgott and Gandibleux (2007)
qui ont utilis´e la m´ethode de sommes pond´er´ees pour la scalarisation de P. ´Etant donn´e
que le probl`eme P(λ) est N P-difficile dans le cas g´en´eral, ils ont cherch´e l’ensemble de
points nondomin´e de la relaxation lin´eaire de P(λ) en utilisant une m´ethode propos´ee
par Aneja and Nair (1979). Une borne inf´erieure est d´efinie comme la ligne joignant les
points nondomin´es. Pour utiliser la m´ethode ε-contrainte, nous devons aussi r´esoudre
la relaxation lin´eaire de P(ε) pour plusieurs valeurs deε. En faisant cela, nous devons
assurer que chaque point r´ealisable du probl`eme P est soit g´en´er´e ou domin´e par au moins
un des points g´en´er´e (voir la figure A.1). C’est difficile `a satisfaire cette condition pour
un probl`eme bi-objectif g´en´erale. Cependant si les coefficients des fonctions objectifs du
probl`eme sont entiers, nous pouvons utiliser une id´ee similaire `a ce qui a ´et´e utilis´e par
B´erub´e et al. (2009).
δ
1δ
i...
...
ε
1= maxε
ε
2ε
iε
i+1minε
Point r´ealisable
´Element de borne
inf´erieure
R´egion non-r´ealisable
f
1f
2Figure A.1: Construction d’une borne inf´erieure par ε-contrainte.
A.2.2 Construction de Bornes Inf´erieures par G´en´eration de Colonnes
Si le nombre de colonnes du probl`eme P est trop important, nous devons utiliser une
m´ethode de g´en´eration de colonnes pour la construction d’une borne inf´erieure. Nous
listons maintenant les diff´erents mod`eles impliqu´es dans l’utilisation de chacune des deux
m´ethodes de scalarisation.
Cas de Sommes Pond´er´ees
Probl`eme maˆıtre Lin´eaire (PML(λ)):
Minimiser (λ
1c
1+λ
2c
2)
Tx (A.12)
sous contraintes : Ax ≥ b , (A.13)
x ≥ 0. (A.14)
Probl`eme dual du PML (DPML(λ)): Soit π le vecteur de variables duales associ´es aux
contraintes (A.13). Le probl`eme dual est donn´e par :
Maximiser b
Tπ (A.15)
sous contraintes : A
Tπ ≤ λ
1c
1+λ
2c
2, (A.16)
π ≥ 0. (A.17)
Sous-Probl`eme (S(λ)): Il consiste `a chercher au moins une variable (colonne de la
matriceA) qui satisfait
λ
1c
1+λ
2c
2−A
Tπ < 0. (A.18)
Cas de ε-contrainte
Probl`eme maˆıtre Lin´eaire (PML(ε)):
Minimiser c
1x (A.19)
sous contraintes : Ax ≥ b , (A.20)
−c
2x ≥ −ε , (A.21)
x ≥ 0. (A.22)
Probl`eme dual du PML (DPML(ε)): Soit π le vecteur de variables duales associ´es aux
contraintes (A.20) etϕla variable duale associ´ee `a la contrainte (A.21). Le probl`eme dual
est donn´e par :
Maximiser b
Tπ−εϕ (A.23)
sous contraintes : A
Tπ−ϕc
2≤ c
1, (A.24)
π, ϕ ≥ 0. (A.25)
Sous-Probl`eme (S(ε)): Il consiste `a chercher au moins une variable (colonne de la
matriceA) qui satisfait
c
1+ϕc
2−A
Tπ < 0. (A.26)
Forme G´en´erale du Sous-Probl`eme
Une inspection des in´equalit´es (A.18) and (A.26) r´ev`ele que les sous-probl`emes dans les
deux cas ont une forme similaire. Ceci implique que des strat´egies de r´esolution bas´ee
sur une des m´ethodes de scalarisation peuvent ˆetre adapt´ees pour l’autre m´ethode de
scalarisation. Par ailleurs, c’est possible de traiter plus d’un sous-probl`eme `a la fois pendant
la recherche de colonnes.
A.2.3 Un Algorithme G´en´eralis´e de G´en´eration de Colonnes Pour les
Probl`emes Lin´eaires en Nombres Entiers Bi-Objectif
Grace aux similarit´es des sous-probl`emes r´esolus pendant la construction d’une borne
inf´erieure, nous proposons un algorithme g´en´eral de g´en´eration de colonnes pour les
probl`emes lin´eaires en nombres entiers bi-objectif. Cet algorithme est illustr´e dans
l’organigramme de la figure A.2 et pour impl´ementer, diff´erentes possibilit´es se pr´esentent.
Nous pr´esentons maintenant quelques une de ces possibilit´es que nous appelons les
ap-proches or strat´egies de recherche de colonnes. Dans les descriptions de ces apap-proches,
nous supposons que la m´ethode ε-contrainte est utilis´ee pour la scalarisation du probl`eme
bi-objectif.
D´ebut
Choisir une m´ethode
de scalarisation et
transform´e le probl`eme
Formuler PMLR pour
la m´ethode de
scalarisation choisi
R´esoudre PMLR pour
differentes valeurs
du parametre
R´esoudre sous-probl`eme
correspondant `a un
ou plusieurs points
Ajouter colonne(s)
`a PMLR
Une
nouvelle
colonne?
Fin
oui
non
Figure A.2: Un algorithme g´en´eralis´e de g´en´eration de colonnes.
Approche Point par Point (PPS)
Une impl´ementation tr`es simple et intuitive de l’Algorithme A.2 consiste `a r´esoudre le
PMLR compl`etement pour unεdonn´e avant de changer la valeur deε. c’est-`a-dire, nous
fixons une valeur de ε et puis r´esoudre PMLR(ε) par g´en´eration de colonnes jusqu’`a
convergence avant de changer la valeur deε. Nous appelons cette approche Point par Point
(PPS) puisque nous nous concentrons sur la recherche d’un point de la borne inf´erieure
avant de chercher un autre point. Mˆeme si cette approche est simple et facile `a impl´ementer,
elle ne prend pas en compte les similarit´es des sous-probl`emes associ´es au diff´erentes valeurs
de ε. En outre, la convergence de la m´ethode pour une valeur de εpeut ˆetre tr`es lente
mais cette approche ne nous donne pas la possibilit´e de changer leεavant la convergence.
Approche k-Step PPS (k-PPS)
Cette approche que nous appelons k-Step PPS (k-PPS) est une variante de PPS qui
donne la possibilit´e de changer la valeur de εavant la convergence de PMLR(ε) pour cette
valeur. Si n´ecessaire, l’approche va retourner aux valeurs deεqui n’ont pas converg´e avant.
L’approche n´ecessite la d´efinition d’une condition sous laquelle nous pouvons changer la
valeur deεavant la convergence de PMLR pour cette valeur. La condition peut ˆetre de
changer la valeur de ε si PMLR ne converge pas apr`es k it´erations de la m´ethode. La
condition que nous avons utilis´e dans cette th`ese est de changer la valeur de εsi la valeur
de la fonction objective de RLPM ne s’am´eliore pas significativement apr`esk it´erations.
La difficult´e principale de cette approche est la d´efinition d’une bonne condition en d´ebut
de l’approche quand nous n’avons pas assez d’information sur le probl`eme consid´er´e.
Approche Improved PPS (IPPS)
Cette approche est bas´ee sur l’id´ee que nous pouvons utiliser des heuristiques pour g´en´erer
plus de colonnes apr`es avoir trouv´e quelques colonnes par un algorithme. Nous nous
int´er´essons plus particuli`erement des heuristiques qui peuvent exploiter les similarit´es des
sous-probl`emes. C’est-`a-dire, apr`es avoir trouv´e quelques colonnes par un algorithme con¸cu
pour r´esoudre le sous-probl`eme nous cherchons `a modifier ces colonnes pour trouver d’autres.
Une colonne trouv´ee par une telle heuristique est pertinente pour le sous-probl`eme actuel
et peut ˆetre aussi pertinente (mais sans aucune garantie) pour un autre sous-probl`eme.
Comme l’heuristique d´epend du probl`eme consid´er´e, nous montrons l’id´ee de cette approche
sur un probl`eme sp´ecifique dans la Section A.3.
Approche S´equentielle (Sequential)
L’id´ee d’une approche s´equentielle est de travailler sur un ensemble de points plutˆot que
se concentrer sur un seul point `a la fois. Pour cela, l’approche commence par r´esoudre
PMLR(ε) pour diff´erentes valeurs deεsans g´en´erer aucune colonne. Ensuite, nous cherchons
un ensemble de colonnes tel que chaqu’un des points g´en´er´es pr´ec´edemment a au moins une
colonne pertinente dans l’ensemble. Nous r´esolvons les sous-probl`eme correspondant au
points un apr`es l’autre. Avant de r´esoudre le sous-probl`eme correspondant `a un point, nous
v´erifions d’abord si nous avons d´ej`a trouv´e une colonne pertinente pour ce point. Si c’est
le cas, nous sautons le point sans r´esoudre le sous-probl`eme correspondant. Nous trouvons
donc `a chaque it´eration, un ensemble de colonnes qui est pertinent pour tous les points
g´en´er´es dans cette int´eration sans n´ecessairement r´esoudre pour tous les sous-probl`emes
correspondants.
Approche Solve-Once-Generate-for-All (SOGA)
Cette approche est une variante de l’approche s´equentielle. Juste comme l’approche IPPS,
SOGA reste sur l’id´ee que l’on peut utilis´e des heuristiques dans la recherche des colonnes.
La premi`ere ´etape consiste `a r´esoudre PMLR(ε) pour diff´erentes valeurs de εsans g´en´erer
des colonnes. Dans la deuxi`eme ´etape, le sous-probl`eme correspondant `a un (seul) point
est r´esolu pour chercher un ensemble de colonnes initial. Ensuite, des heuristiques sont
utilis´ees pour modifier les colonnes trouv´e afin de chercher d’autres colonnes pour les autres
points. La diff´erence de cette approche par rapport `a IPPS est que les valeurs duals des
autres points sont utilis´ees dans les heuristiques. Cela nous donne la guarantie qu’une
colonne trouv´e par une heuristique est bien pertinente pour le point dont nous avons utilis´e
les valeurs duals. Nous montrons l’id´ee de cette approche sur un probl`eme sp´ecifique dans
la Section A.3
A.2.4 G´en´eration de Colonnes pour les PLNE Bi-Objectif ayant une
Fonction Objectif Min-Max
Nous pr´esentons un cas particulier d’un probl`eme lin´eaire en nombres entiers (PLNE) pour
lequel une des fonctions objectifs est une fonction min-max. Nous notons un tel probl`eme
PLNEBOMM. Nous consid´erons les probl`emes de la forme :
Minimiser X
k∈Ω
c
kθ
k(A.27)
Minimiser Γ
max(A.28)
sous contraintes : X
k∈Ω
a
ikθ
k≥ b
i(i∈I), (A.29)
Γ
max≥ σ
kθ
k(k∈Ω), (A.30)
θ
k∈ {0,1} (k∈Ω). (A.31)
Dans cette formulation, l’ensemble de toutes les colonnes r´ealisables est not´ee Ω etI est
l’ensemble des indices pour les contraintes. Deux valeurs c
ket σ
ksont associ´ees `a une
colonne k∈Ω. Le probl`eme consiste `a s´electionner un sous-ensemble des colonnes dans le
but de minimiser la somme desc
ket aussi minimiser la valeur maximum deσ
kassoci´ee `a
une colonne s´electionn´ee.
reformulation de PLNEBOMM
Au lieu d’ajouter une contrainte de type Γ
max≤ε`a la formulation, nous proposons une
reformulation du probl`eme. Nous d´efinissons une extension Ω de Ω o`u la validit´e d’une
colonnek∈Ω d´epend de la valeur de σ
k. Nous obtenons la formulation :
Minimiser X
k∈Ωc
kθ
k(A.32)
sous contraintes : X
k∈Ωa
ikθ
k≥ b
i(i∈I), (A.33)
θ
k∈ {0,1} (k∈Ω). (A.34)
Avant de r´esoudre le probl`eme pour une valeur de ε, nous fixons θ
k= 0 pour toutes
colonnesk∈Ω ayant σ
k> ε. Nous pouvons utiliser toutes les approches de recherches de
colonnes d´ej`a pr´esent´ees pendant la construction d’une borne inf´erieure par g´en´eration
de colonnes. Nous devons aussi assurer que les colonnes g´en´er´es pendant la r´esolution de
sous-probl`emes respectent la contrainte li´ee `a ε.
A.3 Probl`eme de Tourn´ee Couvrante Bi-Objectif `a Plusieurs
Dans le document
Column Generation for Bi-Objective Integer Linear Programs : Application to Bi-Objective Vehicle Routing Problems
(Page 120-126)