• Aucun résultat trouvé

1.3 Aperçu des approches classique de résolution

1.3.2 Les approches métaheuristiques

Longtemps, la recherche s'est orientée vers la proposition d'algorithmes exacts pour les problèmes de complexité polynomiale. Toutefois, pour tenter de résoudre les problème N P- diciles, plusieurs chercheurs se sont orientés vers la proposition de méthodes de résolution approchées, appelées aussi heuristiques, qui fournissent des solutions de bonnes qualités en un temps de calcul raisonnable. On note que la qualité d'une heuristique est évaluée à la base de plusieurs jeux d'instances, en déterminant la déviation moyenne du critère par rapport à sa valeur optimale, et le temps de calcul en fonction de la taille du problème. On distingue plusieurs types d'heuristiques. Les heuristiques de construction qui génèrent une solution au problème sans remise en cause des décisions, les heuristiques de voisinage qui tentent d'améliorer des solutions initiales dans leur voisinage par des techniques de recherche locale, et les heuristiques à base de population de solutions qui explorent un espace de recherche de solutions très vaste.

Notons qu'une métaheuristique est un cadre général des heuristiques qui, à l'inverse de ces dernières, repose sur des mécanismes généraux "génériques" indépendant de tout problème. Parmi les heuristiques les plus généralement citées dans la littérature, on trouve : - Les algorithmes gloutons. Ce sont des méthodes constructives où l'on construit pro- gressivement une solution locale pour un problème d'optimisation, avec l'espoir d'at- teindre la solution globale optimale. Si l'algorithme fournit systématiquement une solution optimale, il constitue une méthode exacte, dans le cas contraire, il est ap- pelé une heuristique gloutonne. En ordonnancement, les algorithmes gloutons sont

20 Présentation générale des problèmes d'ordonnancement des méthodes de construction par règles de priorité simples de type SPT, EDD, etc. - Les méthodes de recherche locale ou métaheuristiques à base de voisinage. Ces mé- thodes partent d'une solution de départ unique, puis passent d'une solution à une autre voisine par déplacement successif, dans le but d'améliorer le critère. Parmi les méthodes de voisinage, on peut citer les méthodes de descente pour lesquelles une solution voisine doit obligatoirement améliorer le critère, i.e., s'arrête dès qu'il n'existe plus de meilleure solution dans le voisinage. On note toutefois, qu'an de pouvoir s'échapper des minima locaux, d'autres approches autorisent de dégrader provisoirement le critère dans le but de pouvoir obtenir un optimum global. C'est le cas de la méthode du recuit simulé introduite en 1983 par Kirkpatrich et al. [Kirkpatrick et al. 83] inspirée du recuit physique en métallurgie. Son principe est simple. A chaque itération, une solution voisine est choisie aléatoirement, puis accep- tée avec une dégradation du critère sous certaines conditions. Les mouvements non améliorants sont donc autorisés avec une certaine probabilité qui dépend de l'im- portance de la dégradation et de l'avancée de la procédure. Une autre méthode qui autorise la dégradation du critère est la méthode tabou [Glover 89] et [Glover 90]. Contrairement au recuit simulé qui génère aléatoirement une solution dans le voisi- nage de la solution courante, la méthode tabou explore le voisinage de la solution courante pour choisir la meilleure solution. Pour éviter de cycler, i.e revenir sur la solution déjà visitée, une liste tabou de solutions explorées est maintenue.

Il existe beaucoup d'articles se référant au méthodes sus-citées de recherche locale. La recherche tabou en compte le plus grand nombre. Il existe toutefois d'autres méthodes de même type mais moins référencées dans la litérature, comme la recherche à voisi- nage variable, la méthode iterated local search ou bien guided local search [Sevaux 04]. - Les métaheuristiques à base de population, connues aussi sous l'appellation d'al- gorithmes évolutionnistes, sont des méthodes de recherche qui travaillent sur une population de solutions plutôt que sur une solution unique. Parmi ces méthode, on retrouve les algorithmes génétiques développés par Holland [Holland 75]. Ils sont ba- sés sur la théorie de l'évolution des espèces dans leur milieu naturel énoncée par Darwin. L'idée consiste à combiner une population d'individus entre elles pour for- mer de nouveaux individus enfants ayant une empreinte génétique nouvelle héritée des parents. Une fonction évaluation tness mesure la force d'adaptation de chaque individu de la population. L'algorithme génétique s'appuie alors sur deux phases : la selection (favorisant les individus ayant un meilleur tness), et la recombinaison (opérateurs de croisement et mutation) qui génère une nouvelle population d'indivi- dus enfants en conservant les "bonnes" caractéristiques de leurs parents. On note que la diculté de la procédure réside dans la représentation ou le codage des solutions. Une autre méthode à base de population est l'algorithme de colonies de fourmis

1.3 Aperçu des approches classique de résolution 21 introduit initialement par Dorigo et al. [Dorigo 92] pour la résolution du problème du voyageur de commerce, puis repris pour plusieurs autres domaines d'application. Cette métaheuristique reproduit le comportement auto-organisationnel des fourmis qui cherchent à atteindre depuis leur nid un objectif précis "une source de nourri- ture", analogue à la recherche du plus court chemin pour le problème du voyageur de commerce. Les fourmis ont la particularité de déposer une substance odorante appe- lée phéromone et marquent ainsi leurs trajets, ceci permettant à leur congénère de les suivre. Il est prouvé expérimentalement que ce comportement permet aux colonies de fourmis de choisir (sous certaines conditions) le plus court chemin vers la source à exploiter.

Après ce rappel sur quelques notions de bases relatives aux problèmes d'ordonnance- ment, nous discutons dans le chapitre qui suit, des limites des hypothèses classiques en ordonnancement.

Chapitre 2

Limites des hypothèses classiques en

ordonnancement

Ce chapitre met l'accent sur le fait qu'il est irréaliste de supposer les paramètres du pro- blème d'ordonnancement déterministes, et s'interesse plus particulièrement à la gestion des incertitudes en ordonnancement. Il décrit d'abord les sources d'incertitudes et le processus de résolution d'un ordonnancement dans un environnement dynamique. Les notions de exibilité et de robustesse sont ensuite introduites. Enn, ce chapitre met en évidence, les limites d'une résolution centralisée des problèmes d'ordonnancement et, l'intérêt d'adopter une organisation distribuée des décisions.

2.1 Brève Introduction aux approches de résolution ro-

bustes

Dans une discussion concernant les problèmes d'ordonnancement dans la pratique, Pi- nedo [Pinedo 08] fait le constat suivant :

" En pratique, l'environnement d'ordonnancement est généralement sujet à une quantité signicative d'aléatoire ; en conséquence, il n'est pas inté- ressant de passer un temps énorme à déterminer une solution supposée optimale lorsque, en quelques heures à cause de quelque événement aléa- toire, la structure du problème ou bien la liste des travaux aura changé."

L'environnement d'application de l'ordonnancement est donc par nature dynamique et perturbé. De ce fait, la probabilité qu'un ordonnancement soit eectivement mis en ÷uvre comme prévu est faible.

Pourtant, la littérature scientique compte un grand nombre de travaux de recherche qui se sont basés sur le développement d'algorithmes déterministes pour la résolution opti- male ou sous-optimale de problèmes d'ordonnancement. Toutefois, ces études ne prennent

24 Limites des hypothèses classiques en ordonnancement pas en compte la phase de mise en ÷uvre de l'ordonnancement dans son environnement réel. Aujourd'hui, l'hypothèse du déterminisme des problèmes d'ordonnancement est jugée restrictive, et la problématique de l'ordonnancement avec gestion des incertitudes est posée et intéresse plusieurs chercheurs. Le chapitre suivant est consacré à cette problématique.