• Aucun résultat trouvé

DOCUMENT DE TRAVAIL Centre de recherche sur l aide à l évaluation et à la décision dans les organisations (CRAEDO)

N/A
N/A
Protected

Academic year: 2022

Partager "DOCUMENT DE TRAVAIL Centre de recherche sur l aide à l évaluation et à la décision dans les organisations (CRAEDO)"

Copied!
20
0
0

Texte intégral

(1)

Publicación de la : Québec (Québec) Canada G1K 7P4 Tél. Ph. Tel. : (418) 656-3644

Fax : (418) 656-2624

Édition électronique : Electronic publishing : Edición electrónica :

Céline Frenette

Vice-décanat à la recherche et au développement Faculté des sciences de l’administration

Disponible sur Internet : Available on Internet Disponible por Internet :

http ://www.fsa.ulaval.ca/rd rd@fsa.ulaval.ca

DOCUMENT DE TRAVAIL 1998-021

MÉTAHEURISTIQUES POUR LE PROBLÈME DATELIER MULTIGAMME : UNE COMPARAISON

Caroline Gagné, Wilson L. Price, Marc Gravel

Centre de recherche sur l’aide à l’évaluation et à la décision dans les organisations (CRAEDO)

Version originale : Original manuscript : Version original :

ISBN – 2-89524-052-3 ISBN -

ISBN - Série électronique mise à jour :

One-line publication updated : Seria electrónica, puesta al dia

09-1998

(2)

UNE COMPARAISON

Caroline Gagné (1), Wilson L. Price (1) & Marc Gravel (2)

(1) Faculté des sciences de l’administration, Université Laval, Québec,G1K 7P4

(2) Département d'informatique et mathématique, Université du Québec, Chicoutimi, Québec, G7H 2B1

_______________________________________________________________________________________

Résumé

Le problème d’atelier multigamme (job shop) abordé suit l'objectif de minimisation du temps total de production. Afin de résoudre ce problème, l’implantation de quatre métaheuristiques, sous leur forme de base, a été réalisée. Ces heuristiques sont l’amélioration locale avec départs multiples, le recuit simulé, la recherche avec tabous et l’algorithme génétique. Nous présentons une vision unifiée de ces heuristiques afin de permettre une comparaison des résultats. Des expériences numériques sur des problèmes tests reconnus dans la littérature de taille 10X10 sont analysés et présentent une comparaison de la performance des quatre heuristiques. Les résultats et les tests statistiques démontrent que, pour les versions simples de ces heuristiques, l’amélioration locale est surclassée par les trois autres heuristiques mais qu’il n’y a pas de différence significative entre ces dernières avec un niveau de confiance à 1%.

Mots-clés: Métaheuristiques; Ordonnancement; Atelier multigamme; Amélioration locale; Recuit simulé;

Recherche avec tabous; Algorithme génétique.

_______________________________________________________________________________________

1. Introduction

Une nouvelle classe d'heuristiques connaît une grande popularité depuis quelques années. On retrouve les appellations métaheuristiques, méthodes de recherche dans le voisinage ou encore heuristiques de proximité pour les qualifier. On compte parmi ces méthodes les algorithmes génétiques, le recuit simulé, la recherche avec tabous et bien d'autres encore. Ces dernières ont un point majeur en commun: elles tentent toutes, à leur manière, d'imiter un élément de la nature [Osman & Kelly, 1996; Reeves, 1993]. De plus, elles sollicitent des connaissances dans les domaines de recherche opérationnelle, d'informatique et d'intelligence artificielle.

L'engouement pour les métaheuristiques est attribuable à plusieurs explications. Une des premières motivations pour ce champ de recherche provient de la pratique [MacCarthy & Liu, 1993]. En effet, les contextes réels présentent des problèmes de gestion complexes devenant difficiles à traiter et les ressources disponibles sont souvent limitées. Le développement de ce domaine est également attribuable à la théorie de la complexité qui fournit une base rationnelle à l'utilisation de ces méthodes [Garey & Johnson, 1979]. Enfin, les nouvelles possibilités informatiques expliquent aussi ce phénomène.

Un grand nombre de problèmes d’optimisation combinatoire ont servi d’application à l’une ou l’autre de ces heuristiques. Dans le présent travail, le problème bien connu d’atelier multigamme sert de support pour l’étude de ces heuristiques et à leur comparaison. Dans un premier temps, l’objectif recherché consiste à réaliser l’implantation informatique de certaines de ces métaheuristiques soit l'amélioration locale avec départs multiples, le recuit simulé, la recherche

(3)

avec tabous et l'algorithme génétique. L'autre objectif recherché consiste à élaborer une réflexion concernant une description unifiée de ces heuristiques. Enfin, un troisième objectif concerne la comparaison de ces quatre heuristiques de proximité.

La prochaine section présente une brève revue de la littérature portant sur les travaux de comparaison des métaheuristiques. Cette synthèse de la littérature permet de faire certaines observations. La section 3 propose une définition du problème d’ordonnancement d’atelier multigamme qui sert de problème de support. Ensuite, la section 4 constitue une brève introduction sur chacune des heuristiques à l’étude dans le but de fournir l’idée de base qui sous- tend chacune d’elles. Une généralisation de ces dernières est proposée à la section 5 et fournit une description unifiée. Cette réflexion offrira également une base de validité de la comparaison. Par la suite, les sections 6 et 7 présentent respectivement la description de l’expérience numérique et l’analyse des résultats obtenus. Enfin, la dernière section suggère quelques remarques en guise de conclusion à ce travail.

2. Revue sommaire de la littérature

Une littérature abondante existe pour chacune des méthodes et les lecteurs qui désirent en connaître davantage sur ces dernières peuvent se référer à d’excellents travaux d'introduction et de revue. Par exemple, la procédure du recuit simulé est abondamment décrite dans les papiers de [Metropolis & al, 1953; Van Laarhoven & Aarts, 1987;Aarts & Korst, 1989; Eglese, 1990]. On retrouve les travaux de Glover [1989; 1990a; 1990b] et de Soriano & Gendreau [1997] qui constituent d’excellentes références sur la procédure de la recherche avec tabous. Enfin, les algorithmes génétiques obtiennent également l’attention de plusieurs chercheurs et les travaux de Holland [1975], Grefenstette [1986], Goldberg [1989a], de Michalewicz [1992] et de Downsland [1996] font état du fonctionnement de cette procédure. Dans ces travaux, des raffinements et des procédures supplémentaires sont disponibles et constituent des études beaucoup plus complètes que la description sommaire faite dans ce document.

En plus de ces travaux, on retrouve une autre partie de la littérature qui traite d’applications diverses à l’aide d’une de ces heuristiques de proximité ou d’une hybridation de quelques-unes d’entre elles. Par exemple, Thesen [1997] propose un livre traitant d’applications de la recherche avec tabous et de l’algorithme génétique pour l’ordonnancement dans le domaine manufacturier ainsi que dans le domaine de l’informatique. Un autre volume répertorie un bon nombre d’applications réalisées dans différents domaines et ce, pour le recuit simulé, la recherche avec tabous, les algorithmes génétiques et les réseaux de neurones [Reeves 1993].

Malgré cette littérature abondante, peu d’efforts ont été réalisés dans le but de fournir une vision unifiée de ces heuristiques. De plus, chaque méthode ayant leurs partisans, il est possible de trouver des travaux faisant la comparaison entre deux de ces méthodes. Cependant, la littérature faisant une comparaison de la performance de plusieurs métaheuristiques est encore plus limitée.

Parmi cette littérature, le travail de Downsland [1996] présente l’algorithme génétique comme un outil de recherche opérationnelle qui en est encore à un stade initial si on le compare à d’autres heuristiques comme le recuit simulé ou la recherche avec tabous. Sur ce point, l'auteur tente de déterminer les raisons qui expliquent pourquoi les chercheurs opérationnels semblent plus

(4)

réticents à adopter cette méthode. Dans la suite de sa comparaison, Downsland prétend que l’algorithme génétique présente un niveau de complexité un peu plus élevé en ce qui concerne son implantation.

Pirlot [1996] fournit également un travail de comparaison des heuristiques de proximité. En effet, l’auteur présente une description et un exemple d’application pour le recuit simulé, la recherche avec tabous et l’algorithme génétique. À la suite de cette présentation, l'évaluation et la comparaison de ces heuristiques sont réalisées. D'autres points intéressants de ce travail résident dans les indications au sujet des forces et des faiblesses des heuristiques, dans les sophistications et les hybridations ainsi que dans les éléments à considérer pour la comparaison des heuristiques.

Le recuit simulé, la recherche avec tabous et l’algorithme génétique sous leur forme de base et ensuite sous une forme améliorée font l’objet d’une comparaison réalisée par Crauwels & al. [1996].

Le problème de support étudié dans ce papier est celui de l’ordonnancement d’une machine unique avec fractionnement des lots. On remarque que, pour les implantations des heuristiques sous leur forme de base, le recuit simulé simple donne de meilleurs résultats que l’algorithme génétique. Toutefois, les versions améliorées donnent avantage à l’algorithme génétique. En ce qui concerne les temps de calcul, l’algorithme génétique est plus rapide surtout lorsque la taille des problèmes est grande.

D’autres auteurs [Lee & Kim, 1996] proposent une comparaison des trois mêmes heuristiques pour un problème d’ordonnancement de projet avec contraintes sur les ressources. Les résultats de cette analyse démontrent que le recuit simulé et la recherche avec tabous semblent réagir mieux que les heuristiques connues pour ce problème. Toutefois, les temps de calcul sont inférieurs pour l’algorithme génétique et ce dernier présente une plus grande robustesse pour répondre aux différentes tailles de problèmes. Sinclair [1993] effectue, lui aussi, une comparaison des mêmes heuristiques en plus de l’algorithme du grand déluge et du « Record-to-record travel algorithm».

Cette comparaison est effectuée dans le cadre d’une application de balancement de turbines hydrauliques et elle est réalisée avec des données réelles.

De leur côté, Glover & Greenberg [1989] proposent une comparaison des heuristiques précédents en plus des réseaux de neurones et de l’analyse cible1. La contribution de ce travail se fait surtout sentir dans l’application de ces heuristiques qui peuvent répondre à des problèmes de taille réelle et dans la réflexion des directions futures qui s’ouvrent grâce à cette nouvelle génération d’heuristiques.

Marett & Wright [1996] proposent à leur tour un travail de comparaison entre recuit simulé, la recherche avec tabous, l'amélioration locale à départs multiples et une technique de voisinage qui procède à des échanges successifs. Ce travail se démarque surtout par le problème à l'étude: celui d'un atelier sériel à objectifs multiples. Il est démontré qu'avec l'augmentation du nombre d'objectifs, la méthode du recuit simulé est plus performante que les autres méthodes. Toujours dans le domaine de l'ordonnancement, Dorn & al. [1996] présente une étude comparative de la

1 « Target analysis »

(5)

recherche avec tabous, de l'algorithme génétique, d'une heuristique itérative d'exploration d'arborescence et de la génération aléatoire de solutions. Ces heuristiques sont appliquées et comparées dans un contexte de fabrication de métal. De leur côté, Shtub & al. [1996] comparent la performance du recuit simulé, de l'algorithme génétique et d'une technique d'échanges successifs.

Les résultats numériques démontrent que cette fois-ci la troisième méthode offre la meilleure performance. Une autre étude de Lin & al. [1995] compare le recuit simulé à deux versions de la méthode d'acceptation de seuils. Ces heuristiques sont comparées pour trois problèmes d'ordonnancement différents. Les résultats démontrent que les deux versions de la méthode d'acceptation de seuils offrent une performance égale ou supérieure au recuit simulé.

Ainsi, à la suite de cette revue de la littérature qui ne se prétend pas exhaustive, il est possible de formuler certaines remarques. Tout d’abord, il est à noter que le problème d’atelier multigamme ne fait pas l’objet d’un de ces travaux de comparaison de métaheuristiques. De plus, aucun des articles mentionnés ne fait état de tests statistiques pour affirmer la supériorité d’une heuristique par rapport à une autre. Ensuite, à la lumière de cette littérature, il semble impossible de déclarer une heuristique de proximité comme étant la meilleure parmi les autres pour l’ensemble des problèmes et applications étudiés. Enfin, dans certains travaux, il ne s’agit pas d’implantations réalisées sur une base d’équité et avec un souci de validité de la comparaison. En effet, quelques fois la comparaison consiste à comparer la méthode implantée dans le cadre du travail de ou des auteur(s) avec des résultats trouvés dans la littérature. Dans ces conditions, l'exercice de comparaison poursuit davantage l'objectif de justifier le travail de(s) auteur(s) et il devient alors difficile d’identifier une base de comparaison valide pour déterminer la suprématie d’une méthode par rapport à une autre.

3. Définition du problème d’atelier multigamme

Le problème d’atelier multigamme est représentatif du domaine de l’ordonnancement en raison de la difficulté qu’il présente pour le résoudre, de la forte motivation pour ce problème provenant de besoins pratiques et des nombreux travaux réalisés jusqu’à maintenant sur le sujet. Cependant, il ne faut pas oublier que le problème d’atelier multigamme, malgré la difficulté à le résoudre, demeure une simplification du contexte pratique d’ordonnancement. Dans la réalité, il n’est pas rare de retrouver plusieurs objectifs à atteindre simultanément et ces derniers sont la plupart du temps contradictoires.

Pour toutes ces raisons et bien d’autres, ce problème d’ordonnancement possède une énorme littérature et son histoire remonte à plus d'une trentaine d’années. Parmi les travaux majeurs sur le sujet, on retrouve le volume de Conway & al. [1967], de Baker [1974], de French [1982], de Hax &

Candea [1984] et de Morton & Pentico [1993] pour ne nommer que ceux-ci. Dans ces ouvrages de référence, on retrouve une variété de techniques de résolution. Les méthodes dites exactes sont rapidement devenues insuffisantes pour résoudre les problèmes de grande taille et ont dû laisser place à des méthodes approximatives nécessitant moins d’efforts de calcul au détriment de l’assurance de l’optimalité des solutions. Les règles d’ordonnancement constituent un premier type de méthodes approximatives [Blazewicz & al., 1991; 1996]. Ces règles construisent une solution un élément à la fois sans jamais remettre en question les choix déjà effectués. Ces heuristiques sont rapides mais offrent une faible qualité de solution. Une autre classe de méthodes approximatives

(6)

est celle qui cherche à améliorer une solution à l’aide de modifications locales. Un nouveau type de méthodes approximatives connaît un grand succès depuis quelques années. Le recuit simulé [Van Laarhoven, Aarts & Lenstra, 1992], la recherche avec tabous [Nowicki & Smutnicki, 1996] et l’algorithme génétique [Mattfeld, 1996] font partie de cette classe. Ces dernières font l’objet de la section suivante. Enfin, il ne faut pas oublier la contribution des chercheurs en intelligence artificielle qui proposent des systèmes à base de connaissance, des systèmes expert, des systèmes multi-agents et autres systèmes de ce genre pour des problèmes d’atelier multigamme [Fox, 1987;

Kusiak & Chen, 1988; Sycara & al., 1991].

Considérons donc un contexte où un ensemble de travaux doivent être réalisés sur plusieurs machines. Chaque travail se divise en un certain nombre d’opérations et chacune d’elles doit s’effectuer sur une machine déterminée et nécessite un temps connu de fabrication. L’ordre de réalisation des opérations d’un travail est fixé par une contrainte technologique. Cette contrainte technologique demeure statique mais peut différée d’un travail à un autre. Le problème d’atelier multigamme considéré est déterministe et n’inclut pas d’éléments stochastiques. Il doit également respecter la liste des contraintes suivantes :

1. Deux opérations d’un même travail ne peuvent être réalisées simultanément;

2. Les opérations se font sans interruptions;

3. Un travail ne peut être réalisé plus d’une fois sur une machine;

4. Tous les travaux sont réalisés en entier;

5. Les travaux sont tous disponibles au début de l’horizon de planification;

6. Les travaux ne possèdent pas de dates dues;

7. Un travail doit attendre que la machine suivante soit disponible;

8. Une machine ne peut réaliser plus d’une opération à un temps donné;

9. Les temps de réglages sont négligeables;

10. Il existe une machine de chaque type;

11. Une machine peut être inoccupée pendant certaines périodes;

12. Les machines sont disponibles au début de l’horizon de planification;

13. Les contraintes technologiques sont connues et demeurent statiques; et 14. L'ordre des opérations d'un travail est fixé au préalable.

L’objectif le plus répandu pour le problème d’atelier multigamme est de déterminer une séquence de travaux sur les machines qui respecte les contraintes énumérées et qui minimise le temps total de production i.e. le temps de terminaison maximum parmi les opérations réalisées. Afin de figurer l’importance de l’espace de solutions pour une instance de problème donné, il est connu qu’il existe au maximum (n!)m différentes solutions où n est le nombre de travaux à réaliser et m le nombre de machines. En conséquence, les problèmes tests utilisés dans le cadre de ce travail sont de taille 10x10 et génèrent ainsi chacun 3.9594 E 65 solutions différentes. En accord avec Lenstra &

Rinnooy Kan [1979], ce problème est définit comme NP-Dur et se trouve parmi les problèmes les plus difficiles à traiter [Lawler & al., 1993].

4. Métaheuristiques

Le concept de recherche dans le voisinage est à la base de l’amélioration locale mais il est également présent dans les autres méthodes. Ainsi, en plus de la définition de ce concept, la

(7)

présente section propose une présentation sommaire du recuit simulé, de la recherche avec tabous et de l’algorithme génétique. Cette brève présentation permet de mieux comprendre de quelle façon chacune de ces métaheuristiques essaie d'imiter une forme d’intelligence qui est présente dans la nature.

4.1 L’Amélioration locale avec départs multiples (AL)

L’idée de l’amélioration locale réside dans une recherche, à l’intérieur d’un certain voisinage, d’une meilleure solution que la solution courante. Cette recherche s’effectue grâce à la définition d’un voisinage plus ou moins grand de la solution courante. Si un élément de ce voisinage offre une meilleure valeur de fonction, on modifie alors la solution courante pour reprendre l’exploration.

Cette méthode fonctionne généralement bien avec un espace de solutions qui présente peu de dispersions i.e. qu’il doit y avoir le moins possible d’écart entre les bonnes et les moins bonnes solutions. Ceci s’explique facilement par le fait que l’amélioration locale présente une faiblesse majeure : sa difficulté à progresser au-delà du premier optimum local rencontré. Afin d’améliorer la performance de cette heuristique, des départs répétés avec des solutions initiales différentes sont suggérés.

D’une façon plus formelle, on considère un problème de minimisation : min {f(x) | x ∈ S} où S est l’ensemble des solutions réalisables du problème. Une approche intuitive serait de débuter avec une solution réalisable et de perturber celle-ci pour tenter de diminuer la valeur de la fonction objectif. Pour opérer ce concept de perturbation, définissons pour chaque solution x ∈ S un sous- ensemble N(x) de S qui est appelé voisinage de x. Ainsi, l’idée de l’amélioration locale est de partir avec différentes solutions de départ et de se déplacer de voisinage en voisinage aussi longtemps que possible pour diminuer la valeur de la fonction objectif. L’intérêt de cette heuristique provient surtout de son application à un large éventail de problèmes et à un effort de calcul faible. Pour plus de détails, le lecteur est référé à Johnson [1988].

4.2 Recuit Simulé (RS)

La première version du recuit simulé2 a été publiée en 1953 [Metropolis & al., 1953]. Cependant, l’algorithme que l’on connaît aujourd’hui est un produit du début des années 80 [Kirkpatrick & al., 1983]. Cette méthode est en fait une analogie avec le processus de coulée du métal dans un bain chauffant. Dans ce processus, il y a contrôle de la « température » (paramètre de contrôle) ainsi que le calcul de « l’énergie » (coût) dépensée pour obtenir un « état de stagnation » (solution) du système. Les règles de coulée du métal indiquent que la température doit descendre suffisamment lentement et de façon contrôlée afin de fournir un métal de qualité.

Ainsi, une solution donnée xi génère une solution xi+1 à la suite d’un déplacement dans le voisinage de xi. D’un côté, en utilisant la terminologie de la physique, cette recherche se fait en minimisant l’énergie du système. D’un autre côté, la recherche est effectuée afin de maximiser la forme physique en employant cette fois le vocabulaire des biologistes. Posons f(x), la fonction

2 « Simulated Annealing »

(8)

d’évaluation de la forme physique pour une solution x de l’espace de solutions. Avec le recuit simulé, si f(xi+1) < f(xi) alors le saut est effectué vers la nouvelle solution xi+1 et cette dernière devient la solution courante. Dans le cas contraire, le changement est accepté avec une probabilité

p = e

−∂vT où ∂ν est la valeur du changement et T est la valeur courante de la température. À ce sujet, les conclusions de Kirkpatrick et de ses collègues indiquent que si la température est élevée au départ, elle permet de couvrir une large région de l’espace de solutions. De plus, en diminuant la température peu à peu, il est alors possible de diriger la recherche vers un optimum local. En somme, la clé du succès de cette méthode se trouve surtout dans la diminution de la température qui doit se faire suffisamment lentement.

4.3 Recherche avec tabous (RT)

La forme moderne de la recherche avec tabous3 a été développée par [Glover 1989; 1990a; 1990b].

Cette heuristique utilise à son tour certains concepts de l’intelligence artificielle en simulant une forme de « mémoire ». Pour ce faire, les dernières solutions explorées sont conservées dans une liste de « tabous » afin de ne pas reprendre, avant un certain temps, un chemin déjà emprunté. Ceci permet ainsi d’éviter un cyclage et de diriger le processus de recherche. Ce processus offre alors la possibilité de transcender l’obstacle des optimums locaux.

Encore une fois, la solution courante est définie par xi et elle est évaluée selon une fonction f. Le résultat de l’évaluation de cette solution est donné par f(xi). À l’aide de transformations locales sur la solution xi, on obtient un ensemble de solutions xi+1 qui constituent le voisinage de la solution courante noté par N(xi). Le choix d’une nouvelle solution xi+1 est déterminé selon son évaluation.

Comme il a été dit, la recherche avec tabous impose certaines restrictions afin d’éviter un cyclage.

Ces restrictions opèrent de différentes façons. Par exemple, les dernières opérations effectuées sont conservées en mémoire pour ainsi empêcher de les répéter avant un certain temps ou bien, certains mécanismes dirigent la recherche afin de visiter des régions peut-être oubliées jusqu'ici.

4.4 Algorithme Génétique (AG)

Les algorithmes qui sont basés sur le principe de la génétique, au sens où les biologistes l'entendent, reposent sur des idées des années 1970 [Holland 1975]. Il ne faut pas passer sous silence la contribution de Golderg sur le sujet [Goldberg 1989a; 1989b]. Les algorithmes génétiques4 sont des algorithmes d'exploration fondés sur les mécanismes de la sélection naturelle et de la génétique. Ils utilisent à la fois les principes de la survie des structures les mieux adaptées ainsi que les échanges d'informations pseudo-aléatoires [Goldberg 1989a, Davis 1991]. L'algorithme génétique repose sur trois principaux opérateurs: la reproduction, le croisement et la mutation. Le premier est le processus qui sélectionne une paire de « chromosomes » ou « individus » provenant de l'ensemble des solutions pour produire une descendance. Le procédé par lequel est produit cette descendance se nomme le croisement. Finalement, l'opérateur de mutation vient s'ajouter

3 « Tabou Search »

4 « Genetic algorithms »

(9)

occasionnellement afin d'ajouter des nouvelles propriétés et d’ajouter de la diversité pour éviter une convergence trop hâtive.

Ce processus itératif fournit sans cesse de nouvelles progénitures. Une nouvelle génération est créée en utilisant des parties des meilleurs éléments de la génération précédente ainsi que des parties innovatrices. Bien que ces algorithmes utilisent ce que l'on appelle le hasard, ils ne sont pas purement aléatoires. L'algorithme génétique exploite les informations obtenues au préalable dans l'espoir de toujours améliorer la performance.

De plus, notons que l'algorithme génétique a été développé initialement par John Holland et ses étudiants à l'université du Michigan. Leurs recherches avaient pour but de concevoir des systèmes artificiels possédant certaines propriétés des systèmes naturels. Pour y arriver, ils ont tout d'abord été dans l'obligation de définir le plus précisément possible les processus d'adaptation présents dans la nature. La contribution de ces recherches a été importante pour les sciences des systèmes naturels mais également pour celles des systèmes artificiels.

Le premier ouvrage sur ce thème porte le nom de "Adaptation in Natural and Artificial Systems"

[Holland 1975]. Depuis, le sujet a fait l'objet de nombreuses thèses et publications scientifiques.

Une revue intéressante de travaux pratiques dans ce domaine d'activité a été réalisée [Goldberg 1989a].

5. Description unifiée des heuristiques de proximité

Il existe un rapprochement très étroit entre les métaheuristiques. Le but de cette section est donc de mettre en lumière ces similitudes. Ceci permettra de fournir une description globale des heuristiques réalisées dans le cadre de ce travail. Il faut rappeler que les implantations réalisées n’incluent pas tous les raffinements disponibles mais constituent plutôt des versions préliminaires élaborées avec le souci de ne favoriser aucune heuristique par rapport à une autre et de pouvoir décrire ces quatre méthodes à l’aide d’un cadre unique. Toutefois, avant de procéder à la description du fonctionnement des heuristiques, il convient de faire une réflexion sur les objectifs communs et les possibilités qu’offrent ces méthodes.

Le but des heuristiques en général, les heuristiques de proximité ne faisant pas exception, est de trouver une solution réalisable possédant une qualité de solution la meilleure possible sans toutefois en assurer l’optimalité. Ceci doit évidemment être réalisé de façon à nécessiter un effort de calcul moins important que pour les méthodes exactes. En ce sens, ces algorithmes d’approximation trouvent leur raison d’être dans le traitement des problèmes complexes et de grande taille. En plus d’offrir cette capacité non négligeable, les heuristiques de proximité offrent une grande flexibilité permettant la formulation de contraintes diverses afin de mieux représenter les cas réels. La possibilité d’inclure des contraintes spécifiques permet par la même occasion de couvrir un large éventail d’applications. La littérature est significative de ce côté avec les nombreuses adaptions des méthodes à des contextes aussi différents les uns des autres. Une autre caractéristique commune est qu'elles s'inspirent toutes des phénomènes naturels. En ce sens, le recuit simulé s’inspire de la coulée du métal qui doit être réalisée de manière à ce que la chute de température assure une bonne qualité du métal. En ce qui concerne la recherche avec tabous, elle

(10)

exploite une certaine forme de mémoire et l’algorithme génétique découle directement du domaine de la biologie et de la sélection naturelle.

En ce qui concerne le fonctionnement des heuristiques à l’étude, un cadre commun semble ressortir et les principales étapes se résument de la façon suivante :

La méthode employée pour coder une séquence réalisable d’un problème d’atelier multigamme est la représentation par liste ordonnée [Kelly, 1963]. Plus précisément, une séquence est représentée par une liste où chacune des opérations qui composent les travaux est présente une seule fois. De plus, une opération ne peut être placée avant son prédécesseur et après son successeur afin de respecter les contraintes technologiques. La séquence qui se cache derrière ce codage se déduit en progressant du début à la fin de la liste et en planifiant tour à tour les opérations sur la machine correspondante à leur date de début au plus tôt (Earliest Start). La figure 1 présente un petit ensemble de deux travaux composés de trois opérations chacun. La légende située à droite donne la signification des chiffres dans le codage de la solution et la partie inférieure de la figure offre une représentation de la séquence sous la forme d’un tableau Gantt. Comme il est possible de le remarquer, les opérations sont placées le plus tôt possible dans la séquence tout en respectant les contraintes de précédence et de disponibilité des machines.

Figure 1 : Codage des solutions 1. Encodage des solutions

2. Génération de solutions départ 3. Processus itératif

3.1 Mécanisme d’intensification 3.2 Mécanisme de diversification 4. Critère d’arrêt

2 1 1

1

1 2

1 3 2

2 2

3

M3,2 M1,2 M1,1 M3,3 M2,1 M2,1

Job ope Mac,Temps

M1 M2

M3 1,1

2,1 1,2

2,2

2,3 1,3

1 2 3 4 5 6

(11)

Un codage de solutions de ce type offre certains avantages. Tout d’abord, cette forme de représentation garantit que la solution est réalisable. Ensuite, notons qu’une solution codée génère une seule séquence mais à l’inverse, une même séquence peut être obtenue à partir de plusieurs solutions différentes. En d’autres termes ceci signifie que la solution optimale peut être déduite à partir de plusieurs solutions. Enfin, cette méthode de représentation est assez générale pour convenir à des variantes du problème d’atelier multigamme mais aussi à des problèmes de gestion de projet [Boctor, 1996].

Afin de poursuivre la description unifiée des heuristiques de proximité, il est important de préciser la méthode de génération des solutions de départ. Dans les quatre heuristiques, une méthode de construction a été utilisée afin de fournir une solution de départ réalisable avec une valeur de fonction acceptable. La règle d’ordonnancement utilisée consiste à placer le plus tôt possible les opérations des travaux qui présentent le temps de fabrication restant pour accomplir le reste du travail (Longest Remaining Processaing Time). Ainsi, notons que pour le recuit simulé et la recherche avec tabous une seule solution de départ est nécessaire contrairement aux deux autres heuristiques : l’amélioration locale avec départs multiples et l’algorithme génétique. Dans les deux derniers cas, la méthode de construction a été utilisée en plus de la génération aléatoire de solutions.

Après avoir obtenu la ou les solution(s) initiale(s), un processus itératif s’enclenche jusqu’à ce qu’un critère d’arrêt soit vérifié. Encore une fois, une attention particulière a été portée afin de définir un critère d’arrêt commun. En effet, le critère choisi consiste à cesser les itérations lorsqu’il ne se produit pas de modification de la meilleure solution depuis un certain nombre d’itérations fixé au préalable. Dans le but de limiter les efforts de calcul, il a semblé judicieux d’ajouter un critère d’arrêt supplémentaire au recuit simulé et à l’algorithme génétique. En effet, ces méthodes semblaient dépenser inutilement un temps de calcul important à la fin de leur exécution. C’est pourquoi, le recuit simulé voit l’arrêt de son exécution si le critère mentionné est respecté ou si la température devient inférieure à une valeur déterminée. Pour ce qui est de l’algorithme génétique, le second critère d’arrêt consiste à interrompre l’exécution si la convergence de la population est atteinte à un certain pourcentage.

Le processus itératif quant à lui se décompose en deux mécanismes distincts qui poursuivent des buts différents voire même opposés : les mécanismes d’intensification et de diversification. Le premier mécanisme consiste à doter les heuristiques d’une méthode capable d’explorer une région de l’espace des solutions de façon systématique afin de découvrir la meilleure solution dans cette région et ainsi espérer améliorer la solution courante. Ce mécanisme a déjà été abordé précédemment sous l’appellation de recherche dans le voisinage. Étant donné qu’il existe une multitude de façon de définir le voisinage, il a fallut faire un choix en ce sens et déterminer un voisinage performant nécessitant un temps de calcul le plus faible possible.

Tout d’abord, le calcul des temps de fin au plus tard des opérations est nécessaire dans la définition du voisinage utilisé. Cette méthode est largement employée en gestion de projet afin de déterminer le chemin critique (Critical Path Method). Dans le même sens, les dates de fin au plus tard permettent d’identifier les opérations critiques et c’est à partir de celles-ci que les modifications de la solution sont réalisées. Cette approche a également été utilisée par Nowichi &

(12)

Smutnicki [1996] et offre l’avantage de limiter le voisinage. Par la suite, on sélectionne au hasard une opération critique et on identifie les déplacements qui peuvent être effectués tout en conservant une solution réalisable. Lorsqu’un voisin permet d’améliorer la solution courante, on cesse les insertions et la solution courante est modifiée. Le même processus se répète un certain nombre de fois. Pour effectuer l’exploration complète du voisinage (qui est utilisée dans l’amélioration locale), on progresse de la première opération critique vers la seconde et ainsi de suite en procédant aux insertions. Lorsqu’une amélioration est obtenue, on recommence à la première opération critique jusqu’à ce qu’il n’y ait plus d’amélioration possible pour l’ensemble des opérations critiques de la solution courante. La figure 2 démontre que pour une opération i, les déplacements valides (identifiés par les petites flèches avec un carré) se situent après le prédécesseur immédiat (Pi) et avant le successeur immédiat (Si).

Figure 2 : Déplacements possibles

Les métaheuristiques possèdent un deuxième mécanisme qui peut être qualifié de «mécanisme de diversification» et le but de ce dernier est de permettre de transcender l’obstacle des optimums locaux. En effet, la principale carence des heuristiques de construction (comme par exemple LRPT) est l’incapacité de progresser au-delà du premier optimum local rencontré. Pour remédier à cette difficulté, les heuristiques de proximité présentent tous, à leur façon, un mécanisme de diversification. C’est à ce niveau que les heuristiques semblent se distinguer le plus les unes des autres. En ce qui concerne l’amélioration locale avec départs multiples ce mécanisme se traduit justement par la répétition de l’algorithme à partir de différentes solutions initiales. Le recuit simulé de son côté assure une certaine forme de diversification par la probabilité d’accepter une solution qui entraîne une détérioration de la solution courante. De cette façon, la méthode tente d'éviter un optimum local et de se diriger vers une autre région de solutions. La gestion d’une liste de tabous qui conserve en mémoire les dernières transformations effectuées permet à la recherche avec tabous d’encourager l’exploration de régions différentes. Enfin, l’algorithme génétique assure une diversification par l’utilisation d’une population de solutions ainsi que par les perturbations (mutations) appliquées dans le but d’éviter une convergence trop hâtive.

Il est important de souligner que l'implantation de ces méthodes nécessite l'ajustement de nombreux paramètres. Cet ajustement est délicat car les méthodes y sont normalement très sensibles. Dans le présent travail, les paramètres utilisés ont été choisis à la suite d'une

i

2 1 1

1

1 2

1 3 2

2 2

3

Pi Si

Si = successeur immédiat de i Pi = prédécesseur immédiat de i Insertions possibles =

entre la Position (Pi)+1 et Position (Si)-1

(13)

expérimentation des heuristiques mais également en fonction des valeurs généralement reconnues dans la littérature. Les paramètres choisis devaient aussi offrir des temps de résolution comparables pour chacune des méthodes.

6. Description de l’expérience numérique

Des essais numériques sont réalisés afin d’évaluer et de comparer la performance des heuristiques de recherche dans le voisinage discutées dans ce travail. En plus de l’amélioration locale, du recuit simulé, de la recherche avec tabous et de l’algorithme génétique s’ajoute à l’analyse, la génération aléatoire des solutions (RN). La comparaison des résultats obtenus par ces cinq méthodes se fait à l’aide de 18 problèmes tests reconnus dans la littérature. Ces problèmes ont déjà une longue histoire derrière eux car ils font l’objet d’une compétition entre les chercheurs [Blazewicz & al., 1996]. Ces 18 problèmes sont disponibles sur Internet dans une librairie de problèmes en recherche opérationnelle (http://mscmga.ms.ic.ac.uk/info.html) et présentent l’avantage que les solutions optimales sont connues. Ceci permet donc de comparer la performance entre les heuristiques mais également par rapport à l’optimum. La taille des problèmes est 10X10 (10 machines, 10 travaux) et représente tout de même une taille de problème respectable comme il a été démontré précédemment.

L’implantation informatique des heuristiques a été faite sous un environnement Windows 95 et dans un langage de programmation Microsoft Visual Basic 5.0. Ce langage de programmation nécessite un temps de résolution un peu supérieur à des langages reconnus pour leur vitesse de calcul comme par exemple le langage C. Ceci ne représentait pas nécessairement un obstacle étant donné que la résolution des problèmes pour chaque heuristique était faite dans les mêmes conditions. La plate-forme utilisée pour effectuer les essais numériques est un ordinateur de type PC avec un processeur pentium à 100 MHz et 24 RAM.

La section précédente à fait longuement état d'une recherche de similarités entre les heuristiques dans le but de pouvoir réaliser une comparaison de ces derniers. Dans le même esprit de vouloir accomplir une comparaison avec les meilleures garanties de validité, la résolution des 18 problèmes pour les cinq méthodes a été effectuée dans des conditions similaires. Par exemple, l’ordinateur était dédié uniquement à cette tâche lors des résolutions. De plus, lors des ajustements préalables de chacune des heuristiques de proximité, les paramètres utilisés ont été établis de façon à offrir un temps de résolution moyen pour les méthodes présentant des écarts réduits.

Le principal critère d’évaluation est le pourcentage d’augmentation par rapport à l’optimum ou encore la déviation par rapport à l’optimum. D’autres critères d’évaluation sont également observés comme par exemple les déviations maximale et minimale de l’optimum, le nombre de fois qu’une heuristique obtient la meilleure (pire) solution, le nombre de fois que cette meilleure (pire) solution est l’unique meilleure (pire), et le temps moyen de calcul. De plus, afin de faire un classement de ces heuristiques, les dominances empirique et stochastique sont étudiées. Deux tests statistiques viennent confirmer ou infirmer ces classements : le test non paramétrique de Wilcoxon et le test paramétrique t.

(14)

7. Résultats et analyse

Chacun des 18 problèmes a été résolu une seule fois par les cinq méthodes. Un résumé des résultats est donné au tableau 1. À l’aide de ces résultats, on remarque que le recuit simulé, la recherche avec tabous et l’algorithme génétique surclassent l’amélioration locale et la génération aléatoire selon le critère de déviation moyenne par rapport à l’optimum. Cependant, la discrimination de ces trois heuristiques semble difficile à faire. En ce qui concerne, la déviation maximale, les heuristiques se retrouvent toutes avec des résultats identiques sauf pour la génération aléatoire qui présente une déviation maximale nettement supérieure. L’algorithme génétique se démarque sur le critère de déviation minimale avec un résultat en dessous de 1%. Un autre résultat à souligner concerne l’incapacité de toutes les méthodes à atteindre, même une seule fois, la solution optimale. Les meilleures solutions sont obtenues la majorité du temps par l’algorithme génétique et à l’inverse, l’amélioration locale présente les pires solutions obtenues 15 fois sur 18 (en faisant exception pour ce critère de la génération aléatoire). Enfin, les temps moyens de calcul se situent entre 0 seconde et 5 minutes 16 secondes. On remarque cependant que pour des résultats semblables, le recherche avec tabous nécessite en moyenne au-delà de 1 minute 30 secondes de moins que l’algorithme génétique.

Tableau 1 : Résumé des résultats obtenus

Heuristique AL RS RT AG RN

Déviation moyenne par rapport à l’optimum

12,81 8,22 8,34 7,22 41,78

Écart type (Déviation) 3,06 4,21 3,94 4,51 10,88

Déviation maximale par rapport à l’optimum

19,90 17,62 17,43 15,52 61,56 Déviation minimale par

rapport à l’optimum

8,33 2,55 4,32 0,89 25,25

Nb. de fois que l’optimum est atteint

0 0 0 0 0

Nb. de fois que l’heuristique obtient la meilleure solution

0 3 4 13 0

Nb. de fois que l’heuristique obtient la pire solution (RN non considéré)

15 1 1 1 --

Temps moyen de calcul 00:01:43 00:04:51 00:03:44 00:05:16 00:00:00

Tableau 2 : Nombre de fois que l’heuristique dans la ligne est strictement meilleure que celle dans la colonne.

AL RS RT AG RN

AL -- 2 3 1 18

RS 16 -- 8 5 18

RT 15 7 -- 5 18

AG 17 12 12 -- 18

RN 0 0 0 0 --

(15)

Le tableau 2 présente à son tour un autre indicateur de performance en affichant le nombre de fois que l’heuristique indiquée dans la ligne produit un résultat strictement meilleur que celle indiquée dans la colonne. Il est à noter que le nombre de fois que les heuristiques produisent des solutions équivalentes peut être déduit facilement.

Il peut être intéressant d’observer les relations de dominance empirique et stochastique afin de déduire un classement des méthodes. On dit qu’une heuristique (a) domine empiriquement une heuristique (b) si pour tous les problèmes tests, la solution donnée par (a) est égale ou meilleure que celle donnée par (b) avec au moins une solution strictement meilleure pour (a). Selon cette définition et le graphique 1, on observe que la génération aléatoire est dominée empiriquement par les quatre heuristiques de proximité. Aucune autre relation de dominance ne peut être établie.

Graphique 1 : Dominance empirique

Graphique 2 : Dominance stochastique

En ce qui concerne l’autre relation de dominance, on dit qu’une heuristique (a) domine stochastiquement une heuristique (b) si pour toutes les valeurs de la déviation de l’optimum, le nombre de fois que l’heuristique (a) a produit des solutions en dessous de cette valeur de déviation

D o m i n a n c e E m p i r i q u e

0 , 0 0 1 0 , 0 0 2 0 , 0 0 3 0 , 0 0 4 0 , 0 0 5 0 , 0 0 6 0 , 0 0 7 0 , 0 0

abz5.txt abz6.txt ft10.txt la16.txt la17.txt la18.txt la19.txt la20.txt orb01.txt orb02.txt orb03.txt orb04.txt orb05.txt orb06.txt orb07.txt orb08.txt orb09.txt orb10.txt

P r o b l è m e

Déviation (%)

A L R S R T A G R N D

D o m i n a n c e S t o c h a s t i q u e

0 , 0 0 0 , 2 0 0 , 4 0 0 , 6 0 0 , 8 0 1 , 0 0 1 , 2 0

D é v i a t i o n d e l ' o p t i m u m ( % )

Fréquences cumulées

A L R S R T A G R N

(16)

est plus élevé que le nombre de fois produit par (b). Représentée par un graphique, on identifie une dominance stochastique si une courbe de fréquences cumulées surplombe une autre courbe.

Le graphique 2 illustre les relations de dominance stochastique et présente le rangement suivant (en commençant par l'heuristique qui présente la plus forte dominance) : AG – RS – RT- AL et RN.

À la lumière de ces résultats, il semble difficile, étant donné la faible différence dans les résultats, de déterminer un classement certain entre les trois heuristiques qui réagissent le mieux : le recuit simulé, la recherche avec tabous et l’algorithme génétique. C’est pourquoi, un test statistique semble approprié afin d’établir si la différence dans les résultats est suffisamment significative pour distinguer ces heuristiques entre elles. Le test non paramétrique de Wilcoxon [Conover, 1980]

est utilisé car il présente l’avantage de ne pas nécessiter d’hypothèse en ce qui a trait à la distribution des résultats. Pour comparer deux à deux des heuristiques, le test statistique pose l’hypothèse nulle que la déviation moyenne de la première heuristique, µ1, est égale à la déviation moyenne de la deuxième, µ2, et l’hypothèse alternative est µ1 > µ2. Le tableau 3 présente les valeurs de la statistique de Wilcoxon pour les valeurs positives seulement. L’hypothèse nulle est rejetée dans les cas où la valeur de la statistique est supérieure à une valeur critique (W= 106.54) correspondant à un niveau de confiance de 1%. Les caractères gras indiquent les cas où l’hypothèse nulle est rejetée.

Tableau 3 : Test statistique non paramétrique de Wilcoxon

AL RS RT AG RN

AL -- 171 171 171

RS -- 43

RT 34 -- 77

AG --

RN 171 171 171 171 --

Le test statistique de Wilcoxon indique donc que les quatre heuristiques de proximité obtiennent des résultats significativement supérieurs à un niveau de confiance de 1% à ceux de la génération aléatoire. À son tour, l’amélioration locale avec départs multiples est surclassée par les trois autres heuristiques. Cependant, le recuit simulé, la recherche avec tabous et l'algorithme génétique présentent des résultats qui ne peuvent conduire à une conclusion de supériorité d’une de ces méthodes par rapport aux autres.

Tableau 4 : Test paramétrique t

AL RS RT AG RN

AL -- 4.70 4.74 5.18

RS -- 0.69

RT 0.08 -- 0.79

AG --

RN 9.01 12.21 12.27 12.45 --

Pour des fins théoriques seulement, le test paramétrique t a été appliqué pour vérifier si les mêmes conclusions étaient obtenues. Ce test exige cependant de poser l’hypothèse que les résultats suivent

(17)

une distribution normale. Même si la taille de l’échantillon de 18 problèmes est insuffisante pour établir cette hypothèse, nous avons tout de même procédé à ce test avec un niveau de confiance identique de 1%. Le tableau 4 présente le résultat de ce test statistique. Encore cette fois, les caractères gras indiquent les cas où l’hypothèse nulle est rejetée. Seules les valeurs positives de la statistique sont présentées (t0.01,28=2.467). Ce test statistique vient donc confirmer le même rangement des heuristiques qui a été déduit du test de Wilcoxon.

8. Conclusions

Dans ce travail, la conception d’heuristiques de proximité a été réalisée pour la résolution d’un problème d’atelier multigamme. Ce problème NP-Dur largement étudié dans la littérature n’avait pas fait l’objet, à notre connaissance, d’un travail de comparaison pour ce type d’heuristique. De plus, la littérature est assez limitée sur la comparaison de la performance pour l’ensemble des problèmes d’optimisation combinatoire en général. Une grande partie des travaux qui effectuent une comparaison entre des heuristiques de proximité découlent d’un besoin de justification de l’application d’une heuristique à un contexte donné. Les résultats obtenus lors de l’application sont alors comparés à des résultats recueillis dans la littérature. Dans de telles conditions, il est légitime de s’interroger sur la comparaison effectuée.

Ainsi, une brève introduction sur l’amélioration locale avec départs multiples, le recuit simulé, la recherche avec tabous et l’algorithme génétique a permis de faire ressortir l’idée de base de chacune de ces heuristiques pour conduire ensuite à la description d’un cadre général. Ce cadre inclut le codage des solutions, la génération de solutions initiales, un processus itératif composé des mécanismes d’intensification et de diversification et d’un critère d’arrêt. Il a alors été possible de remarquer la grande corrélation qui existe entre les heuristiques présentées. La distinction majeure a été identifiée au niveau du mécanisme de diversification qui est présent dans toutes les méthodes mais chacune exploitant ce mécanisme à sa façon.

Figure 3 : Rangement final des heuristiques

L’implantation des heuristiques de proximité sous leur forme de base incluant les parties communes décrites a conduit à une comparaison des résultats. Une première remarque à formuler concerne la facilité d’implantation de ces méthodes et la flexibilité offerte par ces dernières pour s’adapter aux contraintes des problèmes traités. On aurait pu croire que des versions de base de ces

RS

RT

AG

AL RN

(18)

heuristiques auraient de la difficulté à fournir une bonne qualité de solution mais au contraire, les résultats obtenus en moyenne pour le recuit simulé, la recherche avec tabous et l’algorithme génétique se situent en dessous de 8% de l’optimum. De plus, parmi les trois qui viennent d’être mentionnées, il a été impossible de déclarer que la performance d'une de celles-ci est significativement supérieure aux autres. L’amélioration locale avec départs multiples a cependant été classée comme moins performante que ces trois heuristiques mais tout de même meilleure que la génération aléatoire. La figure 3 présente le rangement obtenu des heuristiques (le sens d’une flèche indique un surclassement).

Il est certain que cette recherche présente des limites qui se doivent d’être soulevées. Tout d’abord, l’échantillon des problèmes qui a servi à comparer les heuristiques est faible. En ce sens, la résolution d'un plus grand nombre de problèmes mais aussi de problèmes de taille et de nature différentes serait souhaitable pour compléter cette analyse. De plus, malgré l’attention particulière apportée afin de garantir une base de comparaison valide, il est possible qu’une heuristique ait été avantagée par rapport à une autre. Par exemple, ceci a pu se produire en raison de l’ajustement des nombreux paramètres ou encore à une meilleure intuition pour une méthode par rapport à une autre. Cependant, cet effet négatif a tout de même été limité par les éléments mis en communs.

En ce qui concerne les directions futures à cette recherche, il peut être intéressant d’envisager un raffinement des méthodes pour améliorer davantage les résultats obtenus et pour comparer à nouveaux les heuristiques afin de constater si le même rangement était obtenu. En plus, il serait intéressant d'effectuer un exercice semblable pour des problèmes de plus grande taille. Notre intuition à ce sujet est qu'il y aurait sans doute plus de chances pour que les heuristiques se démarquent les unes des autres. Sans obtenir un rangement complet, il serait probablement possible de déceler d'autres relations de dominance. Une autre direction envisagée concerne l'implantation de concepts d'apprentissage afin d'apporter une aide supplémentaire pour l'ajustement des nombreux paramètres rencontrés. Enfin, l’inclusion d’éléments de connaissance au problème d’atelier multigamme est prévue afin de produire une adaptation plus juste de ces heuristiques pour ce problème particulièrement difficile.

9. Bibliographie

ƒ Aarts, E.H.L., Korst, J.H.M., (1989), “Simulated annealing and Boltzmann machines”, Wiley, Chichester.

ƒ Baker, K.R, (1974), “Introduction to Sequencing and scheduling”, Wiley, New York.

ƒ Boctor, F.F., (1996), ”Resource-constrained project scheduling by simulated annealing”, International Journal of Production Research, Vol. 34, No. 8, pp. 2335-2351.

ƒ Conover, W.J., (1980), “Practical Nonparametric Statistics”, 2nd Edn., Wiley, New York.

ƒ Blazewicz, J., Dror, M., Weglarz, J., (1991), “Mathematical programming formulations for machine scheduling: A survey”, European Journal of Operational Research 51, pp. 283-300.

ƒ Blazewicz, J., Wolfgang, D., Pesch, E., (1996), “The job shop scheduling problem: conventional and new solution techniques”, European Journal of Operational Research 93, pp. 1-33.

ƒ Conway, R.N., Maxwell, W.L., Miller, L.W., (1967), “Theory of scheduling”, Addison-Wesley, Reading, MA.

(19)

ƒ Crauwels, H.A.J, Potts, C.N. et VanWassenhove, L.N., (1996), “ Local search heuristics for single- machine scheduling with batching to minimize the number of jobs”, European Journal of Operational Research, Vol.90, Iss.2, pp.200-213.

ƒ Davis, L., (1991), "Hanbook of Genetic Algorithms", Van Nostrand Reinhold, New York.

ƒ Dorn, J., Girsch, M., Skele, G., Slany, W., (1996) “Comparison of iterative improvement techniques for schedule optimization”, European Journal of Operational Research, Vol 94, pp. 349-361.

ƒ Downsland, K.A., (1996), “Genetic algorithms - A tool for OR ?”, Journal of the Operational Research Society, Vol.47, Iss.4, pp.550-561.

ƒ Eglese, R.W, (1990), "Simulated annealing: A tool for operational research", European Journal of Operational Research, Vol 46, No 2, pp. 271-281.

ƒ Fox, M., (1987), “Constraint-directed search: A case study of job shop scheduling”, Pitman, London.

ƒ French, S., (1982), “Sequencing and scheduling: An introduction to the mathematics of the job-shop”, Wiley, New York.

ƒ Garey, M.S., Johnson, D.S., (1979) « Computer and Intractability : A Guide to the Theory of NP- Completeness », W.H. Freeman and Co., New York.

ƒ Glover, F., (1989), “Tabu search – Part I”, ORSA Jounal on Computing 1, pp. 190-206.

ƒ Glover, F., (1990a), “ Tabu search – Part II”, ORSA Jounal on Computing 2, pp. 4-32.

ƒ Glover , F., (1990b), “ Tabu search: A tutorial ”, Interfaces 20, pp. 74-94.

ƒ Glover, F. et Greenberg, H.J., (1989), “New Approaches for Heuristic Search : A Bilateral Linkage with Artificial Intelligence”, European Journal of Operational Research, Vol.39, Iss.2, pp.119-130.

ƒ Goldberg, D.E., (1989a), “Genetic Algorithm in Search Optimization and Machine Learning”, Addison-Wesley : Reading, MA.

ƒ Goldberg, D.E., (1989b), "Sizing populations for serial and parallel genentic algorithms", In Proceedings of the Third Int. Conf. on Genetic Algorithms (ICGA '89),pp 70-79.

ƒ Grefenstette, J. J., (1986), “Optimization of Control Parameters for Genetic Algorithms”, IEEE Trans.

Syst., Man, Cyber. SMC-16, pp.122-128.

ƒ Hax, A.C., Candea, D., (1984), “Production and inventory management”, Prentice-Hall, Englewood Cliffs, NJ.

ƒ Holland, J. H., (1975), “Adaptation in Natural and Artificial Systems”, University of Michigan Press : Ann Arbor, MI.

ƒ Johnson, D.S., Papadimitriou, C.H., Yannakakis, M., (1988), “How easy is local search?”, Journal of Computer System Science 37, pp. 79-100.

ƒ Kelly, J.E.Jr., (1963), "The critical path method: resource planning and scheduling", Dans

Industrial Scheduling, J.F. Muth et G.L. Thompson (eds) (Englewood Cliffs, NJ: Prentice-Hall), pp. 347-365.

ƒ Kirkpatrick, S., Gelatt, C.D.Jr. et Vecchi, M.P., (1983), “Optimization by Simulated Annealing”, Science, Vol.220, pp.671-680.

ƒ Kusiak, A., Chen, M., (1988), “Expert systems for planning and scheduling manufacturing systems”, European Journal of Operational Reseacrh 34, pp. 113-130.

ƒ Lawler, E.L.,Lenstra, J.K., Rinnooy Kan, A.G.H., Shmoys, D.B., (1993), “Sequencing and

scheduling: algorithms and complexity”, in Handbooks in Operations Research and Management Science, Vol 4.

ƒ Lee, J-K., Kim, Y-D., (1996), “Search heuristics for resource constrained project scheduling”, Journal of the Operational Research Society, Vol.47, Iss.5, pp.678-689.

(20)

ƒ Lenstra, J.K., Rinnooy Kan, A.H.G., (1979), “Computational complexity of discrete optimization problems”, Annals of Discrete Mathematics 4, pp.121-140.

ƒ Lin, C.K.Y., Haley, K.B., Sparks, C., (1995), “A comparative study of both standard and adaptive versions of threshold accepting and simulated annealing algorithms in three scheduling problems”, European Journal of Operational Research, Vol 83, pp. 330-346.

ƒ Maccarthy, B.L., Liu, J., (1993) "Adressing the Gap in Scheduling Research: A Review of Optimzation and Heuristic Methods in Production Scheduling", Int. Journal of Prod. Res. 31, No. 1, pp. 59-79.

ƒ Mattfeld, D.C., (1996), “Evolutionary search and the job shop: Investigations on gentic algorithms for production scheduling”, Springer-Verlag, Germany.

ƒ Marett, R., Wright, M., (1996), "A comparison of neighborhood search techniques for multi-objective combinatorial problems", Computers & Operations Research, Vol 23, No 5, pp. 465-483.

ƒ Metropolis, N., Rosenbulth, A.W., Rosenbulth, M.N., Teller, A.H., Teller, E., (1953), « Equation of state calculations by fast computing machines » , Journal of Chems. Phys. 21, pp 1087-1092.

ƒ Michalewicz, Z., (1992), "Data structures + genetic operators = evolution programs", Springer, Berlin.

ƒ Morton, T.E., Pentico, D.W., (1993), " Heuristic scheduling systems ", Wiley, New York.

ƒ Nowicki, E., Smutnicki, C., (1996), « A fast taboo search algorithm for the job shop problem », Management Science, Vol. 42, No. 6, pp. 797-813.

ƒ Osman, I.H., Kelly, J.P., (1996), "Metaheuristics. Theory and Application", Kluwer, Boston.

ƒ Pirlot, M., (1996), “General Local Search Methods”, European Journal of Operational Research, Vol 92, pp. 493-511.

ƒ Reeves, C.R., (1993) " Modern heuristic Techniques for combinatorial problems", John Wiley & Sons.

ƒ Shtub, A., LeBlanc, L.J., Cai, Z., (1996) “Scheduling programs with repetitive projects: A comparison of simulated annealing, a genetic and a pair-wise swap algorithm”, European Journal of Operational Research, Vol 88, pp.124-138.

ƒ Sinclair, M., (1993), “Comparison of the performance of modern heuristics for combinatorial optimization on real data”, Computers & Operations Research, Vol. 20, Iss. 7, pp.687-696.

ƒ Soriano, P., Gendreau, M., (1997), “Fondements et applications des méthodes de recherche avec tabous”, Operations Research, 31, No. 2, pp. 133-159.

ƒ Sycara, K.P., Roth, S.F., Sadeh, N., Fox, M., (1991), ”Ressource allocation in distributed factory scheduling”, IEEE Expert 6, pp. 29-40.

ƒ Thesen, A., (1997), “Scheduling Computer and Manufacturing Processes”, University of Toronto, Press.

ƒ Van Laarhoven, P.J.M. et Aarts, E.H.L., (1987), “Simulated Annealing : Theory and Practice”, Kluwer Academic Publisher.

ƒ Van Laarhoven, P.J.M. et Aarts, E.H.L., Lenstra, J.K, (1992), “Job shop scheduling by Simulated Annealing ”, Operations Research, Vol. 40, Iss. 1, pp 113-125.

Références

Documents relatifs

- On considère les algorithmes du recuit simulé en temps continu, associés à un potentiel sur un graphe fini ou sur une variété compacte, dont la décroissance de la

- Nous utilisons la méthode des inégalités de Sobolev faibles de Bakry-Michel pour obtenir quand t tend vers l’infini, une borne infé- rieure et une borne supérieure

Ce problème peut être pallié par l’usage d’une politique naviguant efficacement entre les différentes heuristiques de choix de variables durant la recherche et l’usage

Article 1 : Les trois heures hebdomadaires qui, conformément à l’article 5 du décret n° 50-583 du 25 mai 1950 susvisé, sont comprises dans le service des enseignants

énumérant les structures pédagogiques prévues à l’article 4 des décrets n° 50-581, 50-582 et 50-583 du 25 mai 1950 modifiés relatifs aux obligations de service du

A la relecture de mon auto confrontation, je trouve ici qu’il s’agit d’une belle illustration de notre capacité professionnelle à utiliser tous les « incidents » à

Le mécanisme d’exploration de type recuit simulé a été largement étudié et utilisé pour des contextes d’optimisation où la fonction de coût f peut être évaluée rapidement

1) chaque descente sur la donnée bruitée est suivie par une descente effectuée sur la donnée non bruitée. 2) la configuration courante est régulièrement remplacée par la