• Aucun résultat trouvé

Conclusion

Dans le document Planning de rotation des infirmières (Page 55-61)

Le probl`eme de rotation des infirmi`eres est un probl`eme d’optimisation combinatoire tr`es difficile, aussi bien du point de vue de la complexit´e th´eorique que de la mise au point pratique.

Dans la litt´erature existante, beaucoup de mod`eles ont ´et´e mis en ´evidence. Pratique-ment, toute la panoplie des m´ethodes de la recherche op´erationnelle a ´et´e test´ee, quel-quefois avec succ`es. La tendance lourde ´etant ax´ee sur les m´eta-heuristiques.

Outils th´eoriques

Ce chapitre pr´esente des notions de base n´ecessaires `a la compr´ehension de notre contri-bution dans les chapitres4,5et6. Sa r´edaction est bas´ee sur plusieurs r´ef´erences biblio-graphiques.

3.1 Relaxation lagrangienne et m´ethode de sous-gradients

3.1.1 Introduction

La relaxation lagrangienne a ´et´e d´evelopp´ee au d´ebut des ann´ees 1970 avec le travail pionnier de Held and Karp [95] sur le probl`eme du voyageur de commerce. la plupart des probl`emes d’optimisation difficiles peuvent ˆetre consid´er´es comme des probl`emes faciles compliqu´es par l’ajout d’un ensemble relativement restreint de contraintes secondaires. L’id´ee de base de la relaxation lagrangienne est de relˆacher les contraintes difficiles et les r´einjecter dans la fonction objective sous la forme de p´enalit´es combinant lin´eairement les contraintes relax´ees. Les coefficients de cette combinaison lin´eaire sont les variables duales associ´ees `a la relaxation lagrangienne, appel´ees multiplicateurs lagrangiens. la dualisation des contraintes difficiles produit un probl`eme appel´e dual lagrangien o`u une m´ethode de sous-gradients est souvent utilis´ee pour le r´esoudre. La valeur de la solution optimale obtenue du probl`eme dual donne une borne inf´erieure (dans un cas de minimisation) de la solution optimale du probl`eme original.

Cette section pr´esente la relaxation lagrangienne dans un cadre g´en´eral (voir [22,67,68,

73, 137, 164]). Pour une application de cette technique `a un probl`eme pr´ecis, le NRP, voir les chapitres4 et5.

3.1.2 probl`eme primal et probl`eme dual

Consid´erons le probl`eme (P) un probl`eme d’optimisation combinatoire avec n variables et m contraintes. Soient A ∈ Rm×navec les vecteurs c, x ∈ Rnet b ∈ Rm. (P) est connu comme le probl`eme primal par opposition au dual (D) qui sera introduit ensuite.

(P)                min ctx s.t Ax = b x ≥ 0 c, x ∈ Rn

Si le probl`eme primal est pr´esent´e sous la forme standard alors le probl`eme dual (D) s’exprime sous la forme suivante :

(D)                max bty s.t Aty ≤ c b, y ∈ Rm

avec m variables, n contraintes, A ∈ Rm×n, b, y ∈ Rm et c ∈ Rn.

Par opposition, s’il y a des contraintes d’in´egalit´e dans le probl`eme primal, son dual s’exprime comme suite :

Probl`eme primal

min ctx

s.t Ax ≥ b

x ≥ 0

c, x ∈ Rn

Probl`eme dual

max bty

s.t Aty ≤ c

y ≥ 0

En r´esum´e, pour chaque probl`eme primal, on associe un probl`eme dual, on permutant les variables et les contraintes de sorte que chaque variable du primal correspond `a une contrainte du dual et `a chaque contrainte du primal correspond une variable du dual, on conclut que le dual du dual est le probl`eme primal.

3.1.3 probl`eme dual lagrangien

Le principe de la relaxation lagrangienne consiste `a ´eliminer les contraintes difficiles et les inclure sous forme de p´enalit´es dans la fonction objective, on dit qu’on dualise ces contraintes. Pour cela, on associe `a chaque contrainte un multiplicateur de Lagrange ou variable duale et en d´efinissant la fonction de Lagrange (ou probl`eme relax´e).

Supposons le probl`eme (P) suivant :

(P)                min z = cx s.t Qx ≥ g Sx ≥ b x ∈ Nn (3.1)

avec deux ensembles de contraintes Q ∈ RmQ×n et S ∈ RmS×n. La RL r´esultant de relˆacher les contraintes (Sx ≥ b) serait

(D)          min z = cx + λ(b − Sx) s.t Qx ≥ g x ∈ Nn (3.2)

Le programme relax´e est appel´e le probl`eme Dual Lagrangien (DL) ou programme la-grangien de la borne inf´erieure (Lagrangian Lower Bound Program (LLBP)). Il fournit une borne inf´erieure `a la solution optimale du probl`eme original (P) pour tout λ ∈ RmS

≥0.

Intuitivement, on peut voir que λ impose une p´enalit´e aux contraintes viol´ees. La valeur objective optimale d’un probl`eme DL est une borne inf´erieure pour la valeur objective optimale du probl`eme primal (P), Beasley d´emontre ce fait dans [22] comme suit :

min z = cx + λ(b − Sx)

s.t Qx ≥ g

Sx ≥ b

x ∈ Nn

puisque λ ≥ 0 et (b − Sx) ≤ 0, un terme qui est ≤ 0 et simplement ajout´e `a la fonction objective. Ceci n’est pas inf´erieur que la valeur objective optimale de

min z = cx + λ(b − Sx)

s.t Qx ≥ g

x ∈ Nn

comme l’´elimination d’un ensemble de contraintes pour un probl`eme de minimisation ne peut que r´eduire la valeur de la fonction objective.

Pour une relaxation lagrangienne utile, deux points-cl´es doivent ˆetre mise en ´evidence, une strat´egie pour choisir la meilleure contrainte `a relˆacher de telle sorte que le probl`eme relax´e soit plus facile `a r´esoudre que le probl`eme original, la deuxi`eme ´etape consiste `

a trouver les bonnes valeurs num´eriques pour les multiplicateurs lagrangiens, qui pro-duisent la borne inf´erieure la plus ´elev´ee. Il s’agit de trouver des multiplicateurs qui correspondent `a : max λ ≥ 0          min z = cx + λ(b − Sx) s.t Qx ≥ g x ∈ Nn         

Un algorithme heuristique pour trouver de bonnes valeurs pour les multiplicateurs la-grangiens et approcher λ, est l’optimisation de sous-gradient d´ecrite dans la section suivante.

3.1.4 R´esolution du probl`eme dual : algorithme du sous-gradient

L’optimisation de sous-gradient (SG), est une m´ethode pour r´esoudre de mani`ere heuris-tique un probl`eme dual lagrangien. les multiplicateurs lagrangiens sont ajust´e it´erativement

pour trouver les valeurs qui produisent la meilleure borne inf´erieure ou la plus proche. cette m´ethode s’appuie sur la solution du probl`eme DL, et sur une borne sup´erieure ZU B pour la valeur de la fonction objective optimale du probl`eme original [151].

Supposons un ILP comme dans les ´equations3.1. nous voulons relˆacher les contraintes (Sx ≥ b). Ceci r´esulte en un probl`eme DL comme dans les ´equations3.2. L’optimisation du sous-gradient propos´e par Beasley [22] peuvent ˆetre d´ecrite comme suite :

1. Initialiser une borne sup´erieure ZU B qui pourrait, par exemple, ˆetre calcul´ee en trouvant une solution r´ealisable avec une heuristique pour le probl`eme original. En d´ebutant avec un ensemble initial (λi) de multiplicateurs tel que λi = 0 ∀1 ≤ i ≤ ms.

2. Soit ZLB = c.x+ λ(b − S.x) correspond `a la valeur de la fonction objective du probl`eme DL avec l’ensemble actuel des multiplicateurs (λi). Les sous-gradients δi ∈ Rms d´efinis pour les contraintes relˆach´ees sont ´evalu´es `a la solution actuelle par :

δi = (b − S.x) 3. D´efinir une taille de pas (scalaire) ∆ ∈ Rms par :

∆ = π(ZPU Bm− Zs LB)

=1δ2 i

Le coefficient π, est un param`etre d´efini par l’utilisateur, appel´e coefficient de relaxation satisfaisant 0 ≥ π ≥ 2. L’usage est de d´ebuter avec π0 = 2 puis le diviser par 2 apr`es β it´erations, puis dβ/2e it´erations, etc. . . .

Cette taille de pas d´epend de l’´ecart entre la limite inf´erieure actuelle ZLB et la limite sup´erieure ZU B et le coefficient π, avec Pms

=1δ2i ´etant un facteur d’´echelle. 4. Mettez `a jour λi en utilisant

λi= max(0, λi+ ∆.δi)∀1 ≤ i ≤ ms

et passez `a l’´etape 2 pour r´esoudre le probl`eme DL avec ce nouvel ensemble de multiplicateurs. Comme nous l’avons d´ej`a indiqu´e, cette proc´edure it´erative ne s’arrˆetera jamais, nous introduisons donc une r`egle de terminaison bas´ee soit sur

la limitation du nombre d’it´erations possible, soit sur la valeur de π o`u π est r´eduit au cours de la proc´edure.

Finalement, on prend la valeur maximale du probl`eme dual lagrangien comme meilleure approximation du probl`eme primal

Dans le document Planning de rotation des infirmières (Page 55-61)

Documents relatifs