Le probl`eme de rotation des infirmi`eres est un probl`eme d’optimisation combinatoire tr`es difficile, aussi bien du point de vue de la complexit´e th´eorique que de la mise au point pratique.
Dans la litt´erature existante, beaucoup de mod`eles ont ´et´e mis en ´evidence. Pratique-ment, toute la panoplie des m´ethodes de la recherche op´erationnelle a ´et´e test´ee, quel-quefois avec succ`es. La tendance lourde ´etant ax´ee sur les m´eta-heuristiques.
Outils th´eoriques
Ce chapitre pr´esente des notions de base n´ecessaires `a la compr´ehension de notre contri-bution dans les chapitres4,5et6. Sa r´edaction est bas´ee sur plusieurs r´ef´erences biblio-graphiques.
3.1 Relaxation lagrangienne et m´ethode de sous-gradients
3.1.1 Introduction
La relaxation lagrangienne a ´et´e d´evelopp´ee au d´ebut des ann´ees 1970 avec le travail pionnier de Held and Karp [95] sur le probl`eme du voyageur de commerce. la plupart des probl`emes d’optimisation difficiles peuvent ˆetre consid´er´es comme des probl`emes faciles compliqu´es par l’ajout d’un ensemble relativement restreint de contraintes secondaires. L’id´ee de base de la relaxation lagrangienne est de relˆacher les contraintes difficiles et les r´einjecter dans la fonction objective sous la forme de p´enalit´es combinant lin´eairement les contraintes relax´ees. Les coefficients de cette combinaison lin´eaire sont les variables duales associ´ees `a la relaxation lagrangienne, appel´ees multiplicateurs lagrangiens. la dualisation des contraintes difficiles produit un probl`eme appel´e dual lagrangien o`u une m´ethode de sous-gradients est souvent utilis´ee pour le r´esoudre. La valeur de la solution optimale obtenue du probl`eme dual donne une borne inf´erieure (dans un cas de minimisation) de la solution optimale du probl`eme original.
Cette section pr´esente la relaxation lagrangienne dans un cadre g´en´eral (voir [22,67,68,
73, 137, 164]). Pour une application de cette technique `a un probl`eme pr´ecis, le NRP, voir les chapitres4 et5.
3.1.2 probl`eme primal et probl`eme dual
Consid´erons le probl`eme (P) un probl`eme d’optimisation combinatoire avec n variables et m contraintes. Soient A ∈ Rm×navec les vecteurs c, x ∈ Rnet b ∈ Rm. (P) est connu comme le probl`eme primal par opposition au dual (D) qui sera introduit ensuite.
(P) min ctx s.t Ax = b x ≥ 0 c, x ∈ Rn
Si le probl`eme primal est pr´esent´e sous la forme standard alors le probl`eme dual (D) s’exprime sous la forme suivante :
(D) max bty s.t Aty ≤ c b, y ∈ Rm
avec m variables, n contraintes, A ∈ Rm×n, b, y ∈ Rm et c ∈ Rn.
Par opposition, s’il y a des contraintes d’in´egalit´e dans le probl`eme primal, son dual s’exprime comme suite :
Probl`eme primal
min ctx
s.t Ax ≥ b
x ≥ 0
c, x ∈ Rn
Probl`eme dual
max bty
s.t Aty ≤ c
y ≥ 0
En r´esum´e, pour chaque probl`eme primal, on associe un probl`eme dual, on permutant les variables et les contraintes de sorte que chaque variable du primal correspond `a une contrainte du dual et `a chaque contrainte du primal correspond une variable du dual, on conclut que le dual du dual est le probl`eme primal.
3.1.3 probl`eme dual lagrangien
Le principe de la relaxation lagrangienne consiste `a ´eliminer les contraintes difficiles et les inclure sous forme de p´enalit´es dans la fonction objective, on dit qu’on dualise ces contraintes. Pour cela, on associe `a chaque contrainte un multiplicateur de Lagrange ou variable duale et en d´efinissant la fonction de Lagrange (ou probl`eme relax´e).
Supposons le probl`eme (P) suivant :
(P) min z = cx s.t Qx ≥ g Sx ≥ b x ∈ Nn (3.1)
avec deux ensembles de contraintes Q ∈ RmQ×n et S ∈ RmS×n. La RL r´esultant de relˆacher les contraintes (Sx ≥ b) serait
(D) min z = cx + λ(b − Sx) s.t Qx ≥ g x ∈ Nn (3.2)
Le programme relax´e est appel´e le probl`eme Dual Lagrangien (DL) ou programme la-grangien de la borne inf´erieure (Lagrangian Lower Bound Program (LLBP)). Il fournit une borne inf´erieure `a la solution optimale du probl`eme original (P) pour tout λ ∈ RmS
≥0.
Intuitivement, on peut voir que λ impose une p´enalit´e aux contraintes viol´ees. La valeur objective optimale d’un probl`eme DL est une borne inf´erieure pour la valeur objective optimale du probl`eme primal (P), Beasley d´emontre ce fait dans [22] comme suit :
min z = cx + λ(b − Sx)
s.t Qx ≥ g
Sx ≥ b
x ∈ Nn
puisque λ ≥ 0 et (b − Sx) ≤ 0, un terme qui est ≤ 0 et simplement ajout´e `a la fonction objective. Ceci n’est pas inf´erieur que la valeur objective optimale de
min z = cx + λ(b − Sx)
s.t Qx ≥ g
x ∈ Nn
comme l’´elimination d’un ensemble de contraintes pour un probl`eme de minimisation ne peut que r´eduire la valeur de la fonction objective.
Pour une relaxation lagrangienne utile, deux points-cl´es doivent ˆetre mise en ´evidence, une strat´egie pour choisir la meilleure contrainte `a relˆacher de telle sorte que le probl`eme relax´e soit plus facile `a r´esoudre que le probl`eme original, la deuxi`eme ´etape consiste `
a trouver les bonnes valeurs num´eriques pour les multiplicateurs lagrangiens, qui pro-duisent la borne inf´erieure la plus ´elev´ee. Il s’agit de trouver des multiplicateurs qui correspondent `a : max λ ≥ 0 min z = cx + λ(b − Sx) s.t Qx ≥ g x ∈ Nn
Un algorithme heuristique pour trouver de bonnes valeurs pour les multiplicateurs la-grangiens et approcher λ∗, est l’optimisation de sous-gradient d´ecrite dans la section suivante.
3.1.4 R´esolution du probl`eme dual : algorithme du sous-gradient
L’optimisation de sous-gradient (SG), est une m´ethode pour r´esoudre de mani`ere heuris-tique un probl`eme dual lagrangien. les multiplicateurs lagrangiens sont ajust´e it´erativement
pour trouver les valeurs qui produisent la meilleure borne inf´erieure ou la plus proche. cette m´ethode s’appuie sur la solution du probl`eme DL, et sur une borne sup´erieure ZU B pour la valeur de la fonction objective optimale du probl`eme original [151].
Supposons un ILP comme dans les ´equations3.1. nous voulons relˆacher les contraintes (Sx ≥ b). Ceci r´esulte en un probl`eme DL comme dans les ´equations3.2. L’optimisation du sous-gradient propos´e par Beasley [22] peuvent ˆetre d´ecrite comme suite :
1. Initialiser une borne sup´erieure ZU B qui pourrait, par exemple, ˆetre calcul´ee en trouvant une solution r´ealisable avec une heuristique pour le probl`eme original. En d´ebutant avec un ensemble initial (λi) de multiplicateurs tel que λi = 0 ∀1 ≤ i ≤ ms.
2. Soit ZLB = c.x∗+ λ(b − S.x∗) correspond `a la valeur de la fonction objective du probl`eme DL avec l’ensemble actuel des multiplicateurs (λi). Les sous-gradients δi ∈ Rms d´efinis pour les contraintes relˆach´ees sont ´evalu´es `a la solution actuelle par :
δi = (b − S.x∗) 3. D´efinir une taille de pas (scalaire) ∆ ∈ Rms par :
∆ = π(ZPU Bm− Zs LB)
=1δ2 i
Le coefficient π, est un param`etre d´efini par l’utilisateur, appel´e coefficient de relaxation satisfaisant 0 ≥ π ≥ 2. L’usage est de d´ebuter avec π0 = 2 puis le diviser par 2 apr`es β it´erations, puis dβ/2e it´erations, etc. . . .
Cette taille de pas d´epend de l’´ecart entre la limite inf´erieure actuelle ZLB et la limite sup´erieure ZU B et le coefficient π, avec Pms
=1δ2i ´etant un facteur d’´echelle. 4. Mettez `a jour λi en utilisant
λi= max(0, λi+ ∆.δi)∀1 ≤ i ≤ ms
et passez `a l’´etape 2 pour r´esoudre le probl`eme DL avec ce nouvel ensemble de multiplicateurs. Comme nous l’avons d´ej`a indiqu´e, cette proc´edure it´erative ne s’arrˆetera jamais, nous introduisons donc une r`egle de terminaison bas´ee soit sur
la limitation du nombre d’it´erations possible, soit sur la valeur de π o`u π est r´eduit au cours de la proc´edure.
Finalement, on prend la valeur maximale du probl`eme dual lagrangien comme meilleure approximation du probl`eme primal