• Aucun résultat trouvé

Résolution de problèmes d'optimisation combinatoire par des métaheuristiques inspirées de la nature : Recherche du coucou via les vols de lévy

N/A
N/A
Protected

Academic year: 2021

Partager "Résolution de problèmes d'optimisation combinatoire par des métaheuristiques inspirées de la nature : Recherche du coucou via les vols de lévy"

Copied!
118
0
0

Texte intégral

(1)

UNIVERSITÉ MOHAMMED V

FACULTÉ DES SCIENCES

Rabat

Faculté des Sciences, 4 Avenue Ibn Battouta B.P. 1014 RP, Rabat – Maroc Tel +212 (0) 37 77 18 34/35/38, Fax : +212 (0) 37 77 42 61, http://www.fsr.ac.ma

Thèse de Doctorat

Présentée par

Aziz OUAARAB

Discipline : Sciences de l’ingénieur

Spécialité : Informatique et Télécommunications

Titre

Résolution de Problèmes d’Optimisation Combinatoire par des

Métaheuristiques Inspirées de la Nature : Recherche du

Coucou via les Vols de Lévy

Soutenue le 13/06/2015, devant le jury composé de :

Président :

Driss ABOUTAJDINE

PES, Faculté des Sciences de Rabat, Maroc

Examinateurs :

Mohammed ABBAD

PES, Faculté des Sciences de Rabat, Maroc

Aouatif AMINE

PH, Ecole Nationale des Sciences Appliquées de

Kénitra, Maroc

Ahmed HAMMOUCH

PES,

Ecole

Normale

Supérieure

de

l’Enseignement Technique de Rabat, Maroc

Xin-She YANG

Prof., Middlesex University London, United

Kingdom

Abderrahim EL QADI

PH, Ecole Supérieure de technologie de Meknès,

Maroc

Belaïd AHIOD

PH, Faculté des Sciences de Rabat, Maroc

(2)
(3)

A

VANT

-P

ROPOS

Les travaux pr´esent´es dans ce m´emoire ont ´et´e effectu´es au Laboratoire de Recherche en Informatique et T´el´ecommunications (LRIT-CNRST 29) de la Facult´e des Sciences de Rabat (FSR), Universit´e Mohammed V au Maroc sous la direction du Professeur Mohammed ABBAD et le co-encadrement du Professeur Bela¨ıd AHIOD.

Je commence par pr´esenter ma plus vive gratitude `a mon directeur de th`ese M. Mohammed ABBAD, Professeur de l’enseignement sup´erieur `a la FSR. Grˆace `a ses encouragements, sa p´edagogie et ses pr´ecieux conseils, il a su me guider pour mener `a bien mes travaux de recherche. J’exprime ici ma profonde gratitude `a son ´egard et l’es-time respectueuse que je lui porte.

Je tiens `a exprimer mes remerciements `a mon co-encadrant, M. Bela¨ıd AHIOD, Professeur habilit´e `a la FSR, pour ces ann´ees de soutien, pour ses pr´ecieux conseils scien-tifiques et humains, ainsi que pour ses encouragements.

Je veux exprimer toute ma reconnaissance et ma gratitude `a Mr. Driss ABOUTA-JDINE, Professeur de l’enseignement sup´erieur `a la FSR, directeur du Centre National pour la Recherche Scientifique et Technique (CNRST) et du laboratoire LRIT-CNRST 29 d’avoir accept´e de pr´esider le jury de ma th`ese. Je souhaite ´egalement lui pr´esenter ma plus grande gratitude pour m’avoir int´egr´ee au sein de son laboratoire et d’avoir toujours ´et´e pr´esent pour ses doctorant malgr´e ses occupations.

Mes remerciements vont `a Mr. Ahmed HAMMOUCHE, Professeur de l’ensei-gnement sup´erieur `a l’Ecole Normale Sup´erieure de l’Enseignement Technique de Rabat, Maroc, pour avoir accept´e de rapporter ce travail et de participer au jury.

Je tiens ´egalement `a remercier Mlle. Aouatif AMINE, Professeur habilit´e `a l’Ecole Nationale des Sciences Appliqu´ees (ENSA de K´enitra), pour avoir accept´e de rapporter ce travail et de participer au jury.

Je souhaite remercier profond´ement Mr. Xin-She YANG, Professor `a Middlesex University London, Royaume Uni, pour ces ann´ees de collaboration et pour ses pr´ecieux

(4)

conseils, ainsi que pour ses encouragements. Je tiens ´egalement lui exprimer ma plus grande gratitude pour avoir accept´e d’examiner ce travail et de se d´eplacer pour parti-ciper au jury.

Je voudrais remercier Mr. Abderrahim EL QADI, Professeur habilit´e `a l’Ecole Sup´erieur de Technologie de Mekn`es, Maroc, pour avoir accept´e d’examiner ce travail.

Mes remerciements s’adressent ´egalement `a toute ma famille. Je tiens `a exprimer mes sentiments les plus respectueux et ma profonde reconnaissance `a mes tr`es chers parents, `

a mes sœurs et fr`eres, pour les encouragement constants qu’ils ont d´eploy´e. Je remercie aussi mes coll`egues du laboratoire LRIT-CNRST 29.

(5)

ESUM

´

E

L’absence d’un algorithme d´eterministe capable de r´esoudre, de fa¸con optimale et dans un temps de calcul raisonnable, les probl`emes d’optimisation combinatoire (POCs) NP-difficiles, est le motif de s’orienter vers des algorithmes approximatifs de recherche en l’occurrence les m´etaheuristiques. Ce choix est contraint par une obligation d’adapter ces m´etaheuristiques `a une recherche dans les espaces combinatoires.

Dans ce travail de th`ese, nous proposons un mod`ele liant le ph´enom`ene naturel aux POCs par l’utilisation des m´etaheuristiques, con¸cues pr´ealablement pour les espaces continus. En faisant l’hypoth`ese que la cl´e de toute adaptation d’un algorithme ins-pir´e de la nature est la d´etection et l’isolation de sa terminologie, nous pr´esentons nos contributions appliquant la recherche du coucou via les vols de L´evy `a un ensemble de POCs.

Notre premi`ere contribution est le d´eveloppement d’une version discr`ete (pour les espaces combinatoires) et am´elior´ee de la recherche du coucou. La nouvelle m´ etaheuris-tique prend le nom de Recherche du Coucou Discret. Elle consid`ere le probl`eme comme une boite noire, avec une entr´ee et une sortie, en alimentant l’entr´ee par des pas de d´eplacement ou des perturbations et recevant la valeur de la fonction objectif retourn´ee `

a la sortie.

La deuxi`eme contribution consiste `a adapter la recherche du coucou aux POCs `a l’aide des cl´es al´eatoires. Cette approche a pour but de projeter directement les valeurs g´en´er´ees par les vols de L´evy, dans l’espace combinatoire. La validation des deux ap-proches est une suite d’applications de Recherche du Coucou Discret `a une s´election des POCs les plus discut´es dans la litt´erature. Les performances de ces applications ont ´et´e ´

evalu´ees sur plusieurs instances de r´ef´erence de chaque probl`eme et compar´ees avec des approches d´evelopp´ees r´ecemment.

Mots-cl ´es : Optimisation combinatoire ; M´etaheuristiques inspir´ees de la nature ; Re-cherche du coucou ; Vols de L´evy ; Cl´es al´eatoires.

(6)
(7)

A

BSTRACT

The lack of a deterministic algorithm able to solve optimally and within a reasonable runtime, NP-hard combinatorial optimization problems (POCs), is the reason to choose approximation algorithms or metaheuristics. This choice is constrained by an obligation to adapt these metaheuristics to searching solutions in the combinatorial space.

This thesis work presents a new approach that focuses on a model linking the natu-ral phenomenon to POCs by metaheuristics, previously designed for continuous spaces. Assuming that the key to adapt a nature-inspired algorithm is the detection and the isolation of its terminology, we present our contributions in this thesis applying cuckoo search via L´evy flights on a set of POCs.

The first contribution is the development of a discrete (for combinatorial spaces) and improved version of cuckoo search algorithm. The new metaheuristic takes the name of Discrete Cuckoo Search. It considers the POC as a black box, with an input and an output, by feeding the input with steps or disruptions and receiving the value of the objective function in the output.

Our second contribution is to adapt cuckoo search algorithm to the POCs using random keys. This approach aims to directly project the values generated by L´evy flights in the combinatorial space. The validation of both Discrete Cuckoo Search approaches is a series of applications to a selection of the most discussed POCs in the literature. The performance of these applications was evaluated by benchmark instances of each problem and compared with other recently developed approaches.

Keywords : Combinatorial optimization ; Nature-inspired metaheuristic ; Cuckoo search ; L´evy flights ; Random key.

(8)
(9)

T

ABLE DES MATI

`

ERES

R´esum´e iii

Abstract v

Liste des notations et abr´eviations xi

Liste des figures xv

Liste des tableaux xvi

Liste des algorithmes xvii

Chapitre 1 : Introduction . . . 1

1.1 Introduction g´en´erale . . . 1

1.2 Probl´ematique . . . 2

1.3 Contributions . . . 3

1.4 Organisation de la th`ese . . . 5

Chapitre 2 : Optimisation Combinatoire et M´etaheuristiques . . . 7

2.1 Introduction . . . 7

2.2 Complexit´e . . . 10

2.3 Probl`emes d’Optimisation Combinatoires (POCs) ´etudi´es . . . 10

2.3.1 Travelling Salesman Problem (TSP) . . . 11

2.3.2 Job Shop Scheduling Problem (JSSP) . . . 13

2.3.3 Quadratic Assignment Problem (QAP) . . . 17

2.4 M´ethodes de r´esolution des POCs . . . 19

2.4.1 Construction de solutions . . . 19

2.4.2 Am´elioration de solutions . . . 20

2.4.3 M´etaheuristiques inspir´ees de la nature . . . 21

2.4.3.1 Genetic algorithms (GA) . . . 24

(10)

2.4.3.3 Ant Colony Optimization (ACO) . . . 27

2.4.3.4 Firefly Algorithm (FA) . . . 28

2.4.3.5 Bee Colony Optimization (BCO) . . . 30

2.4.3.6 Autres M´etaheuristiques . . . 31

2.5 Conclusion . . . 32

Chapitre 3 : Recherche du Coucou via les vols de L´evy . . . 33

3.1 Introduction . . . 34

3.2 Description de la recherche du coucou (CS) . . . 35

3.3 Motivations . . . 38 3.4 CS Am´elior´e . . . 39 3.5 CS Discret (DCS) . . . 41 3.5.1 Nid . . . 42 3.5.2 Oeuf . . . 42 3.5.3 Fonction objectif . . . 42 3.5.4 Espace de recherche . . . 42 3.6 Conclusion . . . 44

Chapitre 4 : Applications de DCS aux POCs . . . 45

4.1 Introduction . . . 45 4.2 DCS & TSP . . . 46 4.2.1 Adaptation de DCS au TSP . . . 46 4.2.1.1 Oeuf . . . 46 4.2.1.2 Nid . . . 47 4.2.1.3 Fonction objectif . . . 47 4.2.1.4 Espace de recherche . . . 47

4.2.2 R´esultats exp´erimentaux . . . 50

4.3 DCS & JSSP . . . 56

4.3.1 Adaptation de DCS au JSSP . . . 56

4.3.1.1 Solution JSSP . . . 56

4.3.1.2 D´eplacement dans l’espace . . . 57

4.3.2 R´esultats exp´erimentaux . . . 58

4.4 DCS & QAP . . . 60

4.4.1 Adaptation de DCS au QAP . . . 61

4.4.1.1 Solution QAP . . . 61

4.4.1.2 Fonction objectif . . . 61

4.4.1.3 Pas et D´eplacement . . . 62

4.4.2 R´esultats exp´erimentaux . . . 63

4.5 Conclusion . . . 63

(11)

ix

5.1 Introduction . . . 65

5.2 Codage par Cl´es Al´eatoires (RK) . . . 66

5.3 Recherche du Coucou par Cl´es Al´eatoires (RKCS) & TSP . . . 66

5.3.1 Adaptation . . . 66

5.3.1.1 Repr´esentation de Solutions . . . 67

5.3.1.2 D´eplacement . . . 67

5.3.1.3 Recherche Locale et Voisinage . . . 69

5.3.2 Algorithme RKCS . . . 70

5.3.3 R´esultats exp´erimentaux . . . 72

5.4 Recherche du Coucou par Cl´es Al´eatoires & QAP . . . 75

5.4.1 Adaptation . . . 75

5.4.2 R´esultats exp´erimentaux . . . 76

5.5 Conclusion . . . 80

Conclusion 83 Liste des publications 85 Bibliographie . . . 87

(12)
(13)

L

ISTE DES NOTATIONS ET ABR

´

EVIATIONS

GA Genetic Algorithms . . . 13

PSO Particle Swarm Optimization . . . 13

ACO Ant Colony Optimization . . . .13

FA Firefly Algorithm . . . 13

BCO Bee Colony Optimization . . . 13

PDav Percentage Deviation of the Average solution . . . 52

PDbest Percentage Deviation of the Best solution . . . 52

POC Probl`emes d’Optimisation Combinatoire . . . 7

PCBs Printed Circuit Boards . . . 12

JSSP Job Shop Scheduling Problem . . . 15

QAP Quadratic Assignment Problem . . . .17

TS Tabu Search . . . 13

ABC Artificial Bee Colony . . . 30

TSP Travelling Salesman Problem . . . 11

CS Cuckoo Search . . . 34

DCS Discrete Cuckoo Search . . . 41

SA Simulated Annealing . . . 13

HS Harmony Search . . . 13

GSA-ACS-PSOT Genetic Simulated Anneling Ant Colony System with Particle Swarm Optimization Techniques . . . 51

DPSO Discrete Particle Swarm Optimization . . . 51

GRASP Greedy Randomized Adaptive Search Procedure . . . 16

RKCS Random-Key Cuckoo Search . . . 65

RK Random-Key . . . 66

CCM Controlled Chained Mutation . . . 75

SCX Sequential Constructive Crossover . . . 77

HAS-QAP Hybrid Ant colony System coupled with the Quadratic Assignment Problem . . . .77

(14)

APD Average Percentage Deviation . . . 78

TSPLIB Travelling Salesman Problem Library . . . 46

QAPLIB Quadratic Assignment Problem Library . . . 46

OR-Library Operations Research Library . . . 46

(15)

L

ISTE DES FIGURES

2.1 Tourn´ee Lincoln de l’Illinois en 1850. . . 12

2.2 Graphe disjonctif d’une instance du JSSP. . . 16

2.3 Diagramme de Gantt, de machines et de jobs d’une instance du JSSP. . . 17

2.4 Probl`eme d’affectation quadratique `a 3 dimensions Le Cun et Galea (2010). 18 2.5 Proc´edure g´en´erale des algorithmes g´en´etiques. . . 24

2.6 D´eplacement des particules dans l’espace de recherche Wang et al. (2010). 26 2.7 Optimisation du chemin, par les fourmis, au cours des it´erations Esnault (2012). . . 28

2.8 Communication par les clignotements lumineux entre les lucioles. . . 29

3.1 Cuckoo© Nigel Blake, from the surfbirds galleries. . . 33

3.2 This reed warbler is raising the young of a common cuckoo. . . 34

3.3 Exemple de 1000 pas par les vols de L´evy en 2 dimensions. . . 36

4.1 Dans TSP uu œuf est repr´esent´e par un cycle Hamiltonien. . . 47

4.2 Espace de solutions et mouvement 2-opt pour une instance de cinq villes. 48 4.3 Les op´erateurs de d´eplacement dans l’espace de solutions (2-opt et Double-bridge). . . 49

4.4 Longueur moyenne de la meilleure solution apr`es 10 ex´ecutions de eil51(opt=426) et lin318(opt=42029). . . 51

4.5 PDAv(%)(sur 30 ex´ecutions) pour 14 instances de TSPLIB . . . 53

4.6 PDAv(%)(sur 30 ex´ecutions) pour 18 instances de TSPLIB. . . 55

4.7 Proc´edure de g´en´eration al´eatoire d’une solution initiale. . . 57

4.8 Diagramme de Gantt de la solution de la figure 4.7. . . 57

4.9 Op´erateur de d´eplacement par insertion. . . 58

4.10 Op´erateur de d´eplacement par swap. . . 58

4.11 Op´erateur de d´eplacement par inversion. . . 58

4.12 PDAv(%) pour 11 instances de r´ef´erence du JSSP. . . 59

4.13 Solution QAP. . . 61

(16)

5.2 Proc´edure de g´en´eration d’une solution du TSP par RK. . . 67 5.3 Proc´edure de d´eplacement vers une nouvelle solution du TSP par RK. . . 69 5.4 La descente forte. . . 70 5.5 Organigramme de l’algorithme RKCS. . . 72 5.6 Rapport de diff´erence moyen de chaque algorithme, pour les instances

eil51, st70, rd100, pr124 et rat195. . . 75 5.7 Op´erateur Swap de d´eplacement. . . 76 5.8 PDbest(%) pour 16 instances de QAPLIB. . . 79

(17)

L

ISTE DES TABLEAUX

4.1 Param´etrage des deux algorithmes DCS, standard et am´elior´e. . . 51

4.2 R´esultats exp´erimentaux de l’algorithme DCS Am´elior´e pour 41 instances de r´ef´erence du TSP. . . 52

4.3 Comparaison des deux algorithmes DCS, basic et am´elior´e pour 14 ins-tances de r´ef´erence du TSP. . . 53

4.4 Comparaison des r´esultats exp´erimentaux de DCS Am´elior´e avec GSA-ACS-PSOT Chen et Chien (2011) . . . 54

4.5 Comparaison des r´esultats exp´erimentaux de DCS Am´elior´e avec DPSO Shi et al. (2007). . . 55

4.6 Instance 3 × 4 du JSSP. . . 56

4.7 Valeurs des param`etres de DCS pour le JSSP. . . 59

4.8 Comparaison entre PSO et DCS. . . 60

4.9 R´esultats num´eriques de l’application de DCS sur des instances de r´ef´ e-rence du QAP . . . 63

5.1 Valeurs des param`etres de RKCS. . . 73

5.2 R´esultats exp´erimentaux de l’algorithme de la recherche du coucou par les cl´es al´eatoires (RKCS) pour le TSP. . . 73

5.3 Comparaison des r´esultats exp´erimentaux de RKCS avec tous les algo-rithmes cit´es dans Chen et Chien (2011). . . 74

5.4 Comparaison de RKCS avec (SCX) Ahmed (2014) et (HAS-QAP) Gam-bardella et al. (1999). . . 77

5.5 Valeurs des param`etres de RKCS. . . 78

5.6 Comparaison de RKCS avec HPSO Helal et Abdelbar (2014). . . 80

5.7 R´esultats exp´erimentaux de l’application de RKCS sur un ensemble d’ins-tances de r´ef´erence du QAP. . . 82

(18)
(19)

L

ISTE DES ALGORITHMES

3.1 Recherche du Coucou . . . 37

3.2 Recherche du Coucou am´elior´e . . . 41

5.1 G´en´eration d’une solution initiale . . . 68

5.2 G´en´eration d’une nouvelle solution. . . 68

5.3 Steepest Descent. . . 70

(20)
(21)

Chapitre

1

I

NTRODUCTION

1.1 Introduction g ´en ´erale

Le besoin d’optimiser, planifier ou prendre des d´ecisions temps r´eel est partout, mˆeme dans notre vie de tous les jours. A chaque instant et face `a toute situation nous sommes dans l’obligation de prendre une d´ecision parmi plusieurs. Le probl`eme, c’est que parfois notre d´ecision d´epend d’une multitude de param`etres et d’inconv´enients, ce qui rend la v´erification d’un choix tr`es difficile. En changeant le contexte d´ecisionnel de notre vie quotidienne par celui des grandes entreprises et m´ega-industries, les gains et les pertes sont d´ecupl´es. Le traitement de ce type de probl`emes d’optimisation se fait `a l’aide d’un certain nombre de m´ethodes en utilisant un ensemble d’outils. Ces m´ethodes peuvent ˆetre classifi´ees en consid´erant deux caract´eristiques : temps de calcul et qualit´e de solution. Les m´ethodes qui consomment moins de temps de calcul sont relativement plus indulgentes `

a l’optimalit´e de la qualit´e des solutions, et `a l’autre extr´emit´e se situent les m´ethodes exigeant une qualit´e tr`es ´elev´ee des solutions ce qui les qualifie comme gourmandes, parlant temps de calcul. L’optimalit´e et le temps de calcul sont principalement li´es `a la performance de la m´ethode et les ressources mat´erielles technologiques existantes. Ceci implique une optimisation du probl`eme lui-mˆeme et du comportement de la m´ethode vis-`a-vis des limit´ees caus´ees par le mat´eriel.

La nature des probl`emes d’optimisation peut ˆetre associ´ee `a celle de leur espace de recherche/de solutions. De fa¸con g´en´erale, on trouve deux types d’espaces de recherche : espace continu et discret (ou combinatoire). Le premier est l’espace contenant des so-lutions caract´eris´ees par leurs variables continues ou r´eelles. Tandis que, le deuxi`eme est un ensemble de solutions de variables discr`etes. Une grande partie des probl`emes de planification, logistique, transport, finance, fabrication, qui sont de nature discr`ete ou combinatoire, repr´esente un vrai d´efi de calcul sachant que leur taille surpasse, de plus en plus, les algorithmes actuels d´evelopp´es pour les r´esoudre.

Cette th`ese, qui s’aligne parmi les nouvelles approches visant `a traiter ce type de probl`emes complexes, a pour but d’´etudier les probl`emes d’optimisation combinatoire en essayant de proposer des outils de r´esolutions sous forme d’algorithmes de recherche

(22)

consid´er´es comme inspir´es de la nature. Dans l’objectif d’´eliminer de nombreuses pertes de temps en plus d’am´eliorer grandement les fa¸cons de faire, nous avons d´ecid´e de faire face aux probl`emes d’optimisation qui sont g´en´eralement difficiles `a r´esoudre. En effet, la majeure partie des probl`emes d’optimisation combinatoire sont apparemment simples, mais leur difficult´e croˆıt exponentiellement avec leur taille. Ceci rend le choix de chercher la v´erification de chaque combinaison (solution) dans l’espace, tr`es coˆuteux et pratique-ment irr´ealisable pour la majorit´e des instances de ces probl`emes.

La classe des probl`emes NP-difficiles est celle qui attire les chercheurs du domaine d’optimisation `a proposer de nouvelles approches. Aucun algorithme jusqu’`a cet instant n’est efficace face `a ce type de probl`emes. Le besoin de trouver rapidement une solution de bonne qualit´e, favorise l’apparition des algorithmes approximatifs ou stochastiques en l’occurrence les m´etaheuristiques Blum et Roli (2003); Glover et Kochenberger (2003). Dans ce contexte, les m´etaheuristiques ont montr´e leur performance pour une large va-ri´et´e de probl`emes d’optimisation et ont plus d’avantages face aux algorithmes tradition-nels, tels que la capacit´e de traiter des niveaux tr`es ´elev´es de complexit´e, de s’adapter `a plusieurs cat´egories de probl`emes et leur application dans plusieurs domaines du monde r´eel, partant de la recherche op´erationnelle, en passant par l’ing´enierie et l’intelligence artificielle Yang et Gandomi (2012); Yang et al. (2013); Gandomi et al. (2012, 2011), o`u il y a un besoin d’optimiser les fonctions num´eriques, et les syst`emes contenant un large nombre de param`etres `a g´erer simultan´ement.

1.2 Probl ´ematique

Les m´etaheuristiques effectuent une strat´egie de recherche qui combine une explora-tion de l’espace de recherche `a son ´echelle globale, avec une exploitation intensifi´ee des r´egions jug´ees prometteuses. Elles emploient un ou une population d’agents pour une recherche, it´erative et interactive, de nouvelles solutions potentiellement meilleures ou optimales. La majorit´e des m´etaheuristiques con¸cues r´ecemment sont inspir´ees de la na-ture Yang et Deb (2009); Yang (2009a), imitant des ph´enom`enes biologiques Wang et al. (2000), physiques Van Laarhoven et Aarts (1987) ou sociales Rao et al. (2011). Parmi les points forts des m´etaheuristiques, leur facilit´e d’impl´ementation, pratiquement adap-tables `a plusieurs types de probl`emes tout en produisant des solutions de bonne qualit´e ou mˆeme de qualit´e optimale dans un temps raisonnable.

Les m´etaheuristiques sont des algorithmes stochastiques de recherche vers un opti-mum global. Donc, elles balayent l’espace de recherche (de solutions) en se d´epla¸cant d’une solution `a l’autre dans l’espoir de trouver mieux. Afin que leur d´eplacement soit plus productif, les m´etaheuristiques ont besoin de s’informer sur la topologie spatiale du probl`eme, commen¸cant par la notion de voisinage. Deux solutions dites voisines dans l’espace de recherche, lorsqu’elles contiennent des coordonn´ees de valeurs relativement proches et leurs valeurs de qualit´e sont aussi proches entre elles. Cette condition est

(23)

1.3. CONTRIBUTIONS 3

r´ealisable dans le cas de la majorit´e des probl`emes d’optimisation continue. Mais, dans le cas de l’optimisation combinatoire, le d´ebat reste ouvert.

Le d´eplacement, dans l’espace continu, de la solution courante vers une solution voisine se fait suite `a un changement au niveau de ses coordonn´ees. Ce d´eplacement produit, g´en´eralement, une petite diff´erence entre les deux qualit´es de la solution courante et sa voisine. De l’autre cˆot´e, le changement minimum sur une solution de l’espace combinatoire m`ene vers une solution “voisine” de valeur qualitative remarquablement diff´erente. Ce qui explique la possibilit´e d’existence de la solution optimale et une solution de mauvaise qualit´e dans le mˆeme voisinage.

La majeure partie des m´etaheuristiques sont d´evelopp´ees principalement pour les probl`emes d’optimisation continue. Tous les mod`eles de ces m´etaheuristiques qui traitent les probl`emes d’optimisation combinatoire sont des tentatives d’adaptation `a cette ca-t´egorie de probl`emes. Pour aller directement au cœur du probl`eme d’adaptation aux espaces combinatoires, nous disons qu’une adaptation r´eussie est celle qui montre la co-h´erence la plus ´elev´ee entre deux solutions voisines et leurs valeurs de qualit´e. On peut aussi noter que la notion de pas est tr`es importante. Tout d´eplacement est oblig´e de montrer la diff´erence entre un petit et un grand pas.

Toutes ces conditions cit´ees, afin de produire une adaptation directe et performante, ne sont pas totalement valid´ees dans la plupart des cas d’adaptation des m´ etaheuris-tiques, con¸cues principalement pour l’espace continu, aux espaces combinatoires. Et dans le reste des cas, ces notions sont vagues et ind´etectables. Ce qui rend la compr´ehension de la fa¸con de converger vers les solutions optimale, une tˆache tr`es difficile et des fois presque impossible, et donc freine l’am´elioration des m´etaheuristiques adapt´ees `a ce type d’espaces.

1.3 Contributions

L’id´ee de lier les am´eliorations, appliqu´ees aux algorithmes de recherches de meilleures solutions, `a une conception pertinente de la topologie de l’espace de recherche, est le mo-tif de nos contributions. Nos travaux ont ´et´e bas´es sur une ´etude analytique et critique du comportement des m´etaheuristiques dans un espace combinatoire. Suite `a cette ´etude nous avons constat´e que les notions suivantes manquent d’une d´efinition claire et signi-ficative : solution, pas, voisinage.

Solution : Elle repr´esente le pilier de chaque proc´edure d’optimisation. Lors de notre approche nous avons propos´e une d´efinition de la solution de mani`ere `a montrer l’impact de simplifier son mod`ele vis-`a-vis du probl`eme ´etudi´e et du calcul de sa qualit´e.

(24)

Pas : Il est tout simplement l’unit´e de distance entre deux solutions dans l’espace de recherche.

Voisinage : Est l’ensemble des solutions les plus proches d’une solution donn´ee dans l’espace de recherche, tout en consid´erant la notion de pas.

Le but de notre premi`ere contribution est de favoriser la consid´eration du probl`eme trait´e comme une boite noire. L’entr´ee de la boite est aliment´ee par des pas ou d´ eplace-ments, et la sortie est la qualit´e de la solution trouv´ee. La r´ealisation de notre approche prend comme r´ef´erence l’algorithme de Recherche du Coucou Yang et Deb (2009) via les vols de L´evy. En effet, avant la conception de la version discr`ete de la recherche du cou-cou, nous avons remarqu´e que cet algorithme peut ˆetre am´elior´e sur plusieurs niveaux. Donc, nous avons propos´e une am´elioration valid´ee suite `a un ensemble d’applications sur trois probl`emes d’optimisation combinatoire typiques. L’objectif de ces applications est de montrer la simplicit´e de proc´eder sans une consid´eration d´etaill´ee du probl`eme trait´e. L’ensemble des contributions de cette approche peuvent ˆetre pr´esent´ees comme suite :

Recherche du Coucou Am ´elior ´e Ouaarab et al. (2014a) : Inspir´ee du comporte-ment de certains coucous plus intelligents, l’am´elioration propos´ee est une restructuration de la population. Le but de cette am´elioration est, `a la fois, le renforcement de la re-cherche intensifi´ee autour des r´egions prometteuses et de l’ind´ependance par rapport `a la meilleure solution de la population pour mieux explorer l’espace de recherche.

Recherche du Coucou Discr `ete Ouaarab et al. (2014a) : Le point central de cette contribution est le passage de l’espace continu vers celui des combinaisons. Elle vise `

a projeter la politique d’une m´etaheuristique (con¸cue pour un espace continu) concernant les notions d’intensification/diversification `a travers son d´eplacement et sa conception du voisinage, sur un probl`eme d’optimisation combinatoire donn´e.

Application au Probl `eme de Voyageur de Commerce Ouaarab et al. (2014b) : Le probl`eme de voyageur de commerce repr´esente un mod`ele typique, dans la recherche op´erationnelle, pour tester la performance d’un algorithme d’optimisation. L’objectif de cette application est de confirmer la partie th´eorique de la conception, suivie par une validation rapport´ee dans les r´esultats num´eriques de tests.

Application au Probl `eme d’Ordonnancement de type Job Shop Ouaarab et al. (2015a, 2014c) : Cette application est une porte vers une multitude d’autres pro-bl`emes d’ordonnancement. Elle supporte notre th´eorie sur la facilit´e d’adapter la

(25)

re-1.4. ORGANISATION DE LA TH `ESE 5

cherche du coucou discret `a la majorit´e des probl`emes d’optimisation combinatoires. Les r´esultats exp´erimentaux de cette approche sont aussi tr`es encourageants.

Application au Probl `eme d’Affectation Quadratique Ouaarab et al. (2015c) : Ce probl`eme d’optimisation combinatoire fondamental qui repr´esente une g´en´ eralisa-tion de plusieurs probl`emes d’optimisation combinatoire est un mod`ele pour d’autres probl`emes issus de diff´erents domaines d’application r´eels. Les r´esultats de tests, de l’adaptation de la recherche du coucou discret, montrent que notre algorithme surpasse un ensemble d’approches r´ecentes de la litt´erature.

Notre deuxi`eme groupe de contributions rapport´e repr´esente une proposition d’un autre niveau d’adaptation de la recherche du coucou aux probl`emes d’optimisation com-binatoires en utilisant les cl´es al´eatoires.

Recherche du Coucou par les Cl ´es Al ´eatoires Ouaarab et al. (2015b) : L’id´ee est de projeter les valeurs r´eelles (espace continu) g´en´er´ees par les vols de L´evy, direc-tement dans l’espace combinatoire. Dans cette approche, le contrˆole d’´equilibre entre l’intensification et la diversification se fait au niveau de l’espace continu et non pas celui des combinaisons.

Application aux probl `emes d’optimisation combinatoires Ouaarab et al. (2015b,d) : La recherche du coucou par les cl´es al´eatoires est appliqu´ee aux probl`emes du voyageur de commerce et d’affectation quadratique. La qualit´e des r´esultats de tests montre de bonnes performances dans le cas des deux probl`emes.

1.4 Organisation de la th `ese

Cette th`ese se d´ecompose en quatre chapitres. Le premier chapitre introduit l’opti-misation combinatoire avec les principales classes de complexit´e caract´erisant ses pro-bl`emes. Il parle d’un ensemble de probl`emes d’optimisation combinatoires utilis´es pour la validation de notre approche. Les m´ethodes de r´esolution des diff´erents probl`emes d’op-timisation combinatoires sont aussi pr´esent´ees et regroup´ees sous forme de trois classes, en se basant sur leur processus de production d’une solution : construction de solution, am´elioration de solution et m´etaheuristiques inspir´ees de la nature.

Le deuxi`eme chapitre est la base de notre premi`ere contribution. Il pr´esente une approche compl`ete partant du ph´enom`ene naturel vers un mod`ele d’adaptation d’algo-rithme applicable sur un ensemble de probl`emes d’optimisation combinatoire. Le chapitre commence par d´ecortiquer la source d’inspiration de la recherche du coucou via les vols

(26)

de L´evy pour bien isoler les composantes `a am´eliorer ou `a adapter pour l’espace combi-natoire. Nous avons int´egrer une am´elioration signifiante, agissant sur le renforcement de la recherche locale de fa¸con ind´ependante par rapport `a la meilleure position. Le r´esultat de notre contribution est l’algorithme de Recherche du Coucou Discr`ete ou “Discrete Cuckoo Search” Ouaarab et al. (2014a).

Dans le troisi`eme chapitre, un ensemble de validations de notre approche sont rappor-t´ees. Discrete Cuckoo Search a ´et´e appliqu´e sur le probl`eme de voyageur de commerce, le probl`eme d’ordonnancement de type Job Shop et le probl`eme d’affectation quadratique. Durant ce chapitre nous avons suivi la mˆeme logique d’adaptation de notre algorithme pour r´esoudre tous ces probl`emes. Nous avons aussi montr´e la facilit´e de assortir les com-posantes du probl`eme et ceux de l’algorithme tout en gardant un niveau de performance ´elev´e. Les r´esultats num´eriques sont pr´esent´es afin de montrer le niveau de convergence vers les solutions optimales.

Le chapitre 4 porte sur un autre niveau d’adaptation introduit dans la recherche du coucou par les cl´es al´eatoires. Le but de cette approche est de repr´esenter directement les valeurs g´en´er´ees par les vols de L´evy, dans l’espace combinatoire. Une description d´etaill´ee de cette proposition est rapport´ee suivie d’une application sur deux probl`emes combinatoires avec les r´esultats num´eriques.

(27)

Chapitre

2

O

PTIMISATION

C

OMBINATOIRE ET

ETAHEURISTIQUES

Sommaire

2.1 Introduction . . . 7

2.2 Complexit´e . . . 10

2.3 Probl`emes d’Optimisation Combinatoires (POCs) ´etudi´es . . . 10

2.3.1 Travelling Salesman Problem (TSP) . . . 11

2.3.2 Job Shop Scheduling Problem (JSSP) . . . 13

2.3.3 Quadratic Assignment Problem (QAP) . . . 17

2.4 M´ethodes de r´esolution des POCs . . . 19

2.4.1 Construction de solutions . . . 19

2.4.2 Am´elioration de solutions . . . 20

2.4.3 M´etaheuristiques inspir´ees de la nature . . . 21

2.5 Conclusion . . . 32

2.1 Introduction

La majorit´e des probl`emes d’optimisation issus du domaine pratique et th´eorique, d’ing´enierie ou d’informatique, sont con¸cus dans le but de guider la recherche vers une solution, combinaison ou configuration ‘optimale’ d’un ensemble des variables dans le contexte d’un ensemble d’objectifs. Il sont principalement divis´es en deux cat´egories : les probl`emes `a solutions cod´ees avec des variables de valeurs r´eelles, et ceux adoptant des solutions cod´ees avec des variables de nature discr`ete. A l’int´erieur de cette derni`ere cat´ e-gorie, on trouve la classe des probl`emes dits probl`emes dits d’optimisation combinatoire Probl`emes d’Optimisation Combinatoire s (POCs). Le but des POCs est de chercher un objet `a partir d’un ensemble fini - ou infiniment d´enombrable-. Cet objet est typique-ment un nombre entier, un sous-ensemble, ou une structure de graphe Papadimitriou et Steiglitz (1982).

Un probl`eme d’optimisation combinatoire est d´efini par un ensemble discret (fini)

(28)

une fonction de coˆut f (fonction objectif Yang (2010a)) qui assigne `a chaque solution

s ∈ X une valeur r´eelle (ou enti`ere) f (s). Le but est de d´eterminer s∈ X tel que :

f (s) = min{f (s) tel que s ∈ X}. Une telle solution s∗ s’appelle une solution optimale ou un optimum global du probl`eme pos´e.

Probl`eme d’optimisation : une instance d’un probl`eme d’optimisation est un couple (X, f ), o`u X est l’ensemble des solutions possibles ; f est la fonction du coˆut.

f : X −→ R1 (2.1)

Le probl`eme est de trouver s∈ X tel que

f (s) ≤ f (s) pour toute solution s ∈ X (2.2)

hj(s) = 0, (j = 1, 2, . . . , J ), (2.3)

gk(s) ≤ 0, (k = 1, 2, . . . , K), (2.4) o`u hj et gk sont des contraintes li´ees au probl`eme d’int´erˆet.

Il convient de mentionner que nous avons consid´er´e, ici, le cas d’un probl`eme de minimisation. Cette formulation peut ˆetre ´ecrite de fa¸con `a d´ecrire un probl`eme de maximisation par un simple remplacement de f (s) par −f (s). Lorsque les fonctions f ,

hj et gk sont non lin´eaires, le probl`eme est dit un probl`eme de contraintes non lin´eaires. Quand, une partie des variables est de nature discr`ete (g´en´eralement des entiers), et les autres sont `a valeurs r´eelles continues, nous parlons ici d’un probl`eme de nature mixte. Ce type de probl`emes est g´en´eralement difficile `a r´esoudre, sp´ecialement les probl`emes d’optimisation de grande ´echelle Yang (2014).

Cependant, lorsqu’il s’agit de probl`emes d’optimisation combinatoire, la d´efinition d’un mod`ele de pr´ef´erences sur les solutions ne suffit plus pour d´eterminer le(s) meilleur(s) choix puisque l’ensemble des alternatives (solutions r´ealisables) est d´efini en compr´ ehen-sion et sa taille empˆeche toute ´enum´eration explicite. De plus les approches simples de type programmation dynamique ou algorithmes gloutons ne s’´etendent pas naturelle-ment en pr´esence des pr´ef´erences complexes. Ceci est le motif menant vers la conception d’algorithmiques sp´ecifiques pour la recherche des solutions pr´ef´er´ees.

La plus grande partie des probl`emes ´etudi´es dans le contexte combinatoire est de complexit´e NP-difficile. Lors de traitement des probl`emes NP-difficiles, aucun des algo-rithmes propos´es n’est efficace pour r´esoudre les probl`emes `a ce niveau de complexit´e. Plus pr´ecis´ement, il est pratiquement tr`es difficile d’avoir `a la fois une solution de qualit´e optimale et un temps de calcul r´eduit. En effet, la plupart des algorithmes classiques font le choix entre une qualit´e ´elev´ee de la solution et un temps de calcul exponentiel, ou une solution de qualit´e modeste et un temps polynomial. Ceci m`ene vers un troisi`eme choix qui offre une bonne (non n´ecessairement optimale) solution dans un temps de calcul

(29)

2.1. INTRODUCTION 9

acceptable.

Dans un contexte g´en´eral, les probl`emes d’optimisation combinatoire sont r´esolus par l’une des deux classes de m´ethodes : les m´ethodes exactes ou d´eterministes et les m´ethodes approximatives ou stochastiques. Les m´ethodes exactes trouvent toujours l’op-timum global. Elles ne peuvent pas s’arrˆeter avant de rencontrer leur objectif, ce qui rend le temps de recherche relatif `a la taille du probl`eme. Une autre caract´eristique des m´ e-thodes exactes est le manque de param´etrage d’adaptation aux probl`emes, ce qui limite leur ´evolution et les rend inutiles pour un grand nombre de probl`emes d’optimisation NP-difficiles ou de tailles importantes en raison de temps de calcul. Parmi les exemples des m´ethodes exactes, on cite la recherche exhaustive qui cr´ee et ´evalue chaque possibi-lit´e jusqu’`a l’atteinte de l’optimum global. On trouve aussi les m´ethodes par s´eparation et ´evaluation telles que “branch and bound” qui est une am´elioration par rapport `a la recherche exhaustive, en ´ecartant les sous-ensembles de solutions qui ne permettent pas l’am´elioration de la solution courante.

Afin d’attaquer les probl`emes d’optimisation NP-difficiles, les m´ethodes exactes et approximatives sont propos´ees. Dans le cas des m´ethodes exactes, trouver une solution optimale dans un temps raisonnable est un vrai d´efi qui reste irr´ealisable face `a un grand nombre de probl`emes. Les m´ethodes exactes courantes sont satisfaisantes pour les probl`emes de taille limit´ee. Cependant, la taille des probl`emes croit de plus en plus de fa¸con exponentielle. Ainsi, la r´esolution des probl`emes NP-difficile avec les m´ethodes exactes uniquement est un choix `a ´ecarter. Pour une ´etude plus d´etaill´ee des m´ethodes exactes, on cite comme r´ef´erence les travaux de Laporte et Davendra Davendra (2010); Laporte (1992b,a). D’un autre cˆot´e, les m´ethodes approximatives essayent de surpasser la contrainte du temps d’ex´ecution et la complexit´e avec plus d’indulgence concernant la notion d’optimalit´e. Elles cherchent intelligemment de bonnes solutions qui ne sont pas forc´ement optimales, mais s’ex´ecutant en un temps acceptable.

Au cours de ce chapitre, apr`es une discussion sur la notion de complexit´e vis `a vis des probl`emes et les algorithmes existants pour les r´esoudre, nous pr´esentons plus de d´etails sur les diff´erents probl`emes que nous avons pris comme une base de test de per-formance de notre approche. Ces probl`emes sont le probl`eme du voyageur de commerce (Travelling Salesman Problem), le probl`eme d’ordonnancement de type Job Shop (Job Shop Scheduling Problem) et le probl`eme d’affectation quadratique (Quadratic Assign-ment Problem). Nous avons choisi ces trois probl`emes de fa¸con `a avoir une vari´et´e de contraintes et d’obstacles afin de proposer de nouvelles versions plus performantes et g´ e-n´eralis´ees. Nous allons aussi classifier les algorithmes approximatifs selon leurs mani`eres de trouver et d’am´eliorer les solutions. Trois classes d’algorithmes sont discut´ees dans les sections suivantes de ce chapitre : les algorithmes de construction de solutions, les algo-rithmes d’am´elioration de solutions et les m´etaheuristiques. Nous avons consid´er´e cette classification suite `a notre conviction que pour bien comprendre la structuration d’un espace de recherche et ses topologies, il est primordial de collecter le maximum de d´etails sur comment une solution est trait´ee par les diff´erentes approches de la litt´erature.

(30)

2.2 Complexit ´e

Plusieurs probl`emes qui ont l’apparence de simplicit´e sont tr`es difficiles `a r´esoudre parce que le nombre de combinaisons croˆıt exponentiellement avec la taille de l’instance du probl`eme trait´e. Les probl`emes d’optimisation combinatoire se regroupent en g´en´eral en trois classes suivant la difficult´e des probl`emes de d´ecision qui leurs sont associ´es. Rappelons qu’un probl`eme de d´ecision est un probl`eme dont la r´eponse “oui” ou “non”. La fa¸con la plus logique pour mesurer la difficult´e d’un probl`eme de d´ecision est d’´etudier la complexit´e des algorithmes existant pour le r´esoudre.

La premi`ere classe est la “classe P” (Polynomial time). Elle regroupe l’ensemble des probl`emes de d´ecision pouvant ˆetre r´esolus en un temps polynomial par rapport `a la taille de l’entr´ee. On peut consid´erer les probl`emes de cette classe comme des probl`emes dits “faisables” ou sont simplement “faciles `a r´esoudre”.

La deuxi`eme classe est la classe des probl`emes de d´ecision prise en un temps polyno-mial par rapport `a la taille de l’entr´ee, par un algorithme non-d´eterministe. Elle porte le nom de “classe NP”. A la suite de cette d´efinition on peut dire que la classe P est incluse dans la classe NP. On cite aussi que l’´egalit´e de ces deux classes est un probl`eme non encore r´esolu. Le probl`eme P=NP est consid´er´e comme l’un des probl`emes les plus important de l’informatique th´eorique, et mˆeme des math´ematiques en g´en´eral Cook (2000).

La derni`ere classe, est la ”classe NP-complet”, qui contient les probl`emes de la classe NP tels que n’importe quel probl`eme de NP leur est r´eductible en un temps polynomial. On dit qu’un probl`eme d’optimisation combinatoire est NP-difficile si son probl`eme de d´ecision correspondant est NP-complet Arora et Barak (2009). Un tr`es grand nombre des probl`emes d’optimisation du monde r´eel sont NP-difficiles, et donc tout progr`es dans le traitement des probl`emes NP aura un impact tr`es important sur de nombreuses applications Yang (2010a).

2.3 Probl `emes d’Optimisation Combinatoires (POCs) ´etudi ´es

Dans cette partie, nous allons ´etaler trois probl`emes d’optimisation combinatoire parmi les probl`emes les plus ´etudi´es. Afin, d’´eviter toute confusion au niveau de la traduction, les appellations, de ces probl`emes, figurant dans ce chapitre sont en anglais. Nous avons choisi ces probl`emes de fa¸con `a ´evaluer la performance de notre approche, dans sa version am´elior´ee et adapt´ee aux probl`emes d’optimisation combinatoire, afin d’estimer les pistes `a suivre pour proposer des am´eliorations ou des extensions utiles.

(31)

2.3. PROBL `EMES D’OPTIMISATION COMBINATOIRES (POCS) ´ETUDI ´ES 11

2.3.1 Travelling Salesman Problem (TSP)

Admettons qu’un agent de commerce doit visiter une liste de villes et retourner `a sa ville de d´epart. En vue de trouver une m´ethode pour calculer le meilleur cycle en terme de distance, et avant de commencer le voyage, il a estim´e qu’il est important de fixer quelques r`egles. Chaque ville dans la liste doit ˆetre visit´ee une est une seule fois. Pour chaque paire de villes, on connait la distance entre les deux villes. Ces r`egles forment un probl`eme qu’on lui donnera le nom de “Probl`eme de Voyageur de Commerce”. Lawler et al. ont mentionn´e dans Lawler et al. (1985) que la premi`ere citation de ce terme remonte `

a 1832 dans un livre intitul´e “Der Handlungsreisende, wie er sein soll und was er zu thun hat, um Auftr¨age zu erhalten und eines gl¨ucklichen Erfolgs in seinen Gesh¨aften gewiss zu sein. Von einem alten Commis-Voyageur” (“Le Voyageur de Commerce, comment doit-il ˆ

etre et que doit-il faire pour avoir les Commissions et pour r´eussir son Entreprise. Par un Voyageur de Commerce exp´eriment´e”). Une autre version de Tucker en 1983 dans Tucker (1983), disant que la premi`ere utilisation de ce terme en “mathematical circles” est donc peut ˆetre en 1931-32 : “I cannot confirm or deny the story that I heard of the TSP from Hassler Whitney. If I did (as Flood says), it would have occurred in 1931-32. . .” (Je ne peux pas confirmer ou nier que l’histoire que j’ai entendu de TSP de Hassler Whitney. Si je l’ai fait (comme Flood a dit), il aurait eu lieu en 1931-32. . .)

Le probl`eme du voyageur de commerce ou Travelling Salesman Problem Travelling Salesman Problem (TSP), est un probl`eme NP-difficile Arora (1998). Son objectif est de trouver l’itin´eraire le plus court ou le minimum des coˆuts du voyage pour visiter toutes les

n villes exactement une fois et retourner `a la ville de d´epart. Si n est le nombre des villes `

a visiter dans la liste, le nombre total des tours possibles qui couvrent toutes les villes peut ˆetre vue comme un ensemble de solutions r´ealisables du TSP et son cardinal est donn´e comme n!. Formellement, une d´efinition du TSP selon Davendra dans Davendra (2010) est la suivante :

Soit C = {c1, . . . , cn} l’ensemble des villes distinctes dans l’espace, E = {(ci, cj) :

i, j ∈ {1, . . . , n}} est l’ensemble des arcs entre ces villes, et dcicj le cout associ´e `a chaque

arc (ci, cj) ∈ E. Le TSP consiste de trouver la longueur minimale du tour ferm´e qui visite chaque ville une est une seule fois. Les villes ci ∈ C sont repr´esent´ees par leurs coordon-n´ees (cix, ciy) et dcicj =

q

(cix− cjx)2+ (c

iy− cjy)2 est la distance Euclidienne entre ci et cj. Un tour peut ˆetre repr´esent´e une permutation circulaire π = (π(1), π(2), . . . , π(n)) de villes de 1 `a n si π(i) est interpr´et´ee d’ˆetre la ville visit´ee `a l’´etape i, i = 1, . . . , n. Le coˆut d’une permutation (tour) est d´efini comme :

f (π) =

n−1 X

i=1

dπ(i)π(i+1)+ dπ(n)π(1) (2.5)

Si dcicj = dcjci, nous parlons du TSP Euclidien Sym´etrique et si dcicj 6= dcjci pour

(32)

Figure 2.1 – Tourn´ee Lincoln de l’Illinois en 1850.

fait r´ef´erence au TSP Sym´etrique.

Le TSP peut ˆetre aussi mod´elis´e comme un graphe pond´er´e. Les sommets du graphe correspondent aux villes et les arcs du graphe correspondent aux connexions entre les villes, le poids d’un arc est la distance entre ses deux villes. Un tour du TSP est un cycle Hamiltonien et le tour optimal est le cycle Hamiltonien le plus court.

Durant toutes ces derni`eres ann´ees, le probl`eme du voyageur de commerce (TSP) attire encore les chercheurs afin de concevoir un algorithme qui d´etecte la meilleure so-lution pour la majorit´e de ses instances, dans un temps raisonnable. Il est caract´eris´e par sa simple apparence et son ´enonc´e qui ne demande pas beaucoup de connaissances math´ematiques pour le comprendre, et un niveau ´elev´e de r´eflexion afin de trouver une parmi ses solutions. Il peut ˆetre vu comme un simple probl`eme d’un voyageur de com-merce cherchant le tour le plus court pour gagner plus d’´energie et de temps pour avoir plus d’argent. Mais la r´ealit´e montre que le TSP a une grande importance, soit dans le domaine acad´emique ou pratique. Lenstra et al. et Reinelt Lenstra et Kan (1975); Reinelt (1994) ont cit´e un ensemble d’applications directes ou indirectes du TSP dans plusieurs domaines industriels et technologiques, comme drilling problem of Printed Cir-cuit Boards (PCBs), overhauling gas turbine engines, x-ray crystallography, computer wiring, order-picking problem in warehouses, vehicle routing, et mask plotting in PCBs production. En d’autres termes, Arora Arora (1998) a montr´e, bas´e sur la d´emonstration de Papadimitriou Papadimitriou (1977), que le TSP Euclidien fait partie de la classe des probl`emes d’optimisation NP-difficiles, qui ont une complexit´e de calcul exponentielle-ment croissante par rapport au nombre des villes du probl`eme.

Un bel exemple historique du TSP est la tourn´ee Lincoln de l’Illinois en 1850. Lin-coln a travaill´e comme avocat voyageant avec un tribunal itin´erant (”circuit court” en anglais). `A l’´epoque, un circuit ´etait un voyage `a travers plusieurs villes, o`u dans chaque

(33)

2.3. PROBL `EMES D’OPTIMISATION COMBINATOIRES (POCS) ´ETUDI ´ES 13

ville o`u il s’arrˆetait et traitait les cas locaux, il y passait quelques jours. La visite que le tribunal itin´erant (et Lincoln) a pris en 1850 est illustr´ee dans la Figure 2.1 (a) ( ils ont commenc´e `a partir de Urbana et lui sont retourn´es). Il est ´evident qu’il est tr`es proche de la meilleure solution. Dans ce cas, on a trouv´e une solution plus courte, mais il n’est pas ´evident qu’elle ´etait plus courte autant que le temps de d´eplacement en 1850. (la figure 2.1 (b))Har-Peled (2010)

Depuis des dizaines d’ann´ees, le probl`eme du voyageur du commerce attire une grande quantit´e de recherche en informatique, en raison de sa simplicit´e et la facilit´e `

a dessiner et `a inspecter une solution. Il est aujourd’hui l’exemple repr´esentatif le plus connu de l’optimisation combinatoire. Il est NP-difficile Garey et Johnson (1979) et reste encore un grand d´efi pour les chercheurs dans ce domaine. Le TSP est aussi une bonne base exp´erimentale pour l’´etude de diverses techniques d’optimisation.

Parmi les m´etaheuristques les plus populaires con¸cues pour r´esoudre TSP, nous pou-vons citer les algorithmes g´en´etiques (Genetic Algorithms (GA)) (Grefenstette et al. et Potvin Grefenstette et al. (1985); Potvin (1996)), la recherche tabou (Tabu Search (TS)), le recuit simul´e (Simulated Annealing (SA)) qui ont ´et´e pr´esent´es par Kochenberger dans Glover et Kochenberger (2003), l’optimisation par colonie de fourmis (Ant Colony Optimization (ACO)) par Dorigo et Di caro dans Dorigo et Gambardella (1997), et l’op-timisation en essaims particulaires (Particle Swarm Optimization (PSO)) par Kennedy et Eberhart dans Kennedy et Eberhart (1995), l’optimisation par colonies des abeilles (Bee Colony Optimization (BCO)) par Teodorovic et al. Teodorovic et al. (2006), le re-cherche par harmonie Harmony Search (HS) par Geem et al. dans Geem et al. (2001), l’algorithme des lucioles (Firefly Algorithm (FA)) par Jati dans Jati et al. (2011).

Lors de la r´esolution du probl`eme du voyageur de commerce, ces m´etaheuristiques sont caract´eris´ees par leur facilit´e d’impl´ementation relative, une consid´eration propre de ses contraintes par l’utilisation des param`etres de contrˆole, et le plus important est la production des solutions de qualit´e ´elev´ee dans un temps de calcul raisonnable. En re-vanche, le d´eveloppement de nouvelles m´etaheuristiques afin de renforcer leur robustesse, reste un grand d´efi, sp´ecialement pour le cas des probl`emes NP-difficile.

2.3.2 Job Shop Scheduling Problem (JSSP)

En industrie, la production est un system qui s’occupe de la cr´eation d’un produit `

a travers l’utilisation et la transformation des ressources. Ce syst`eme de production est, donc, un ensemble de ressources d´eclenchant les activit´es de production. Afin de g´erer la production, certains nombres de processus sont impl´ement´es pour assurer son bon fonctionnement, en utilisant un ensemble de donn´ees et de plans de pr´evision. Donc, nous avons `a faire face `a l’un des probl`emes les plus importants qui affectent directement le temps et le cout de production tous ensemble. Ce probl`eme est l’ordonnancement

(34)

(scheduling).

En g´en´eral, le probl`eme d’ordonnancement est relatif aux points suivants : – Un ensemble de tˆaches ou jobs `a effectuer,

– Un ensemble de ressources ou machines `a utiliser par ces jobs, – Un programme `a identifier, pour allouer les ressources aux taches.

Les probl`emes d’ordonnancement sont souvent d´efinis en terme de quatre principaux ´el´ements : jobs, ressources, contraintes et objectifs. Donc, il est important de discuter ces quatre ´el´ements de base avant d’´etudier les probl`emes d’ordonnancement Pinedo (2012); T’kindt et al. (2006).

Jobs : Un job est une unit´e ´el´ementaire du processus qui utilise les ressources de la date de d´ebut ti `a la date de fin ci, et pour les impl´ementer, il consomme le temps pi tel que pi = ci− ti. Pour ce type de probl`emes, un job peut ˆetre ininterrompu ou ex´ecut´e par pi`eces. Dans le cas de “job shop scheduling problem”, nous consid´erons qu’un job est un ensemble d’op´erations soumises `a un nombre de contraintes.

Ressources : Une ressource est tout ce qu’on utilise pour effectuer un job. Elle sont disponibles en une quantit´e et un temps limit´es. Dans le contexte de fabrication, les ressources peuvent ˆetre des machines, ouvriers, ´equipements, installations, ´energie, etc. Dans le cas du job shop scheduling problem, une ressource est repr´esent´ee par une machine.

Contraintes : Une contrainte est la restriction ou limite. Cependant, les contraints sont pos´ees par l’environnement de production.

Objectifs : Les objectifs sont les fins qui guident le processus d’ordonnancement. Ces fins sont distingu´ees en classes selon le temps, les ressources, le coˆut et l’´energie d’ordonnancement.

Dans l’objectif d’impl´ementer les m´ethodes les plus efficaces pour trouver la solution ou l’ordonnancement optimal, chaque information `a propos de l’espace de recherche est candidate d’ˆetre tr`es utile. Pour cette raison, il est important de consid´erer les solutions sous forme de classes. Chaque classe a sa propre caract´eristique qui est important `a savoir avant la construction des ordonnancements r´ealisables. Ceci nous permettra de proprement exploiter le temps de l’ordonnancement.

Les relations entre ces classes sont l’inclusion ou l’intersection. Si nous commen¸cons par la classe la plus large englobant les autres classes, nous allons trouver la classe des or-donnancements r´ealisables. Selon un grand nombre de caract´eristiques, on peut d´ecrire plusieurs classes. Mais, nous allons souligner, juste, les trois classes les plus discut´ees dans les travaux de la litt´erature : les ordonnancements actifs, sans retard et optimaux. Il est important de mentionner qu’un ordonnancement actif est celui qui ne contient aucune op´eration qui peut ˆetre mise dans un trou vide, tout en pr´eservant la r´ ealisa-bilit´e, sans retarder une autre op´eration. Dans ce cas, aucun d´ecalage n’est possible.

(35)

2.3. PROBL `EMES D’OPTIMISATION COMBINATOIRES (POCS) ´ETUDI ´ES 15

Les ordonnancements sans retard sont d´efinis dans le cas o`u si et seulement si aucune op´eration, disponible `a l’ex´ecution, n’est dans la file d’attente tandis qu’une machine est libre. Les ordonnancements sans retard sont des ordonnancements actifs et l’inverse n’est pas n´ecessairement vrai. Un ordonnancement sans retard est une classe qui a une intersection avec la classe des solutions optimales. Pour plus de d´etails sur les classes d’ordonnancement, on peut se r´ef´erer `a Pinedo (2012); Ponsich et Coello (2013).

Soit J = {1, . . . , n} un ensemble de n jobs. Chaque job doit ˆetre ex´ecut´e sur m machines dans M = {1, . . . , m}. Chaque job j contient une s´equence d’op´erations (en g´en´eral m op´erations) qui sont ex´ecut´ees dans un ordre pr´ed´efini. Suivant cet ordre, chaque op´eration doit ˆetre effectu´ee sur une machine k sp´ecifique durant un temps sp´ eci-fique. Chaque job doit passer par chaque machine une et une seule fois, et chaque machine peut ex´ecuter seulement un job `a la fois sans interruption. Un ordre est une allocation des op´erations aux intervalles de temps sur toutes les machines. Job Shop Scheduling Problem (JSSP) consiste `a trouver un ordre r´ealisable qui minimise le makespan Cmax, i.e., le temps n´ecessaire pour compl´eter tous les jobs.

Chaque job j ∈ J se compose de m op´erations ordonn´ees Oj1, . . . , Ojm, chaque op´ e-ration doit ˆetre ex´ecut´ee sur l’une des m machines. Soit O = {Oji, j ∈ {1, . . . , n} and i ∈ {1, . . . , m}} l’ensemble de toutes les op´erations `a ordonner. Chaque op´eration Oji ∈ O est associ´ee `a un temps d’ex´ecution fix´e pji. Les op´erations sont interd´ependantes par deux types de contraintes. Premi`erement, une op´eration Oji ne peut ˆetre lanc´ee que si seulement la machine par laquelle doit ˆetre ex´ecut´ee est au repos. Deuxi`emement, la contrainte de priorit´e exige que chaque op´eration Oji s’ex´ecute apr`es l’ach`evement de son pr´ed´ecesseur Oj(i−1).

Un ordre peut ˆetre repr´esent´e par un vecteur des temps d’ach`evement de toutes les op´erations (Cji, i ∈ {1, . . . , m} and j ∈ {1, . . . , n}). Par l’adoption des notations suivantes :

1. Oji : op´eration i de job j, 2. pji : temps d’ex´ecution de Oji, 3. Cji : temps d’ach`evement de Oji.

Nous pouvons proposer la fonction objectif de JSSP, qui est :

minimiser Cmax= Cn×m (2.6)

ce qui m`ene `a conclure que la fonction objectif est de minimiser le makespan Cmax. Afin de simplifier le traitement du JSSP, on utilise sa repr´esentation graphique. Les repr´esentations graphiques les plus cit´ees sont le graphe disjonctif et le diagramme de Gantt. Le graphe disjonctif (figure 2.2) peut ˆetre repr´esent´e par G = (A, V, E) o`u :

(36)

Figure 2.2 – Graphe disjonctif d’une instance du JSSP.

(i) V est l’ensemble des nœuds correspondant `a toutes les op´erations avec deux nœuds suppl´ementaires, un nœuds source S et puits T ; (ii) A est l’ensemble des arcs conjonctifs qui repr´esentent les contraintes de pr´ec´edence entre les op´erations d’un seul job ; (iii) E est l’ensemble des arcs disjonctifs qui connectent deux op´erations proc´edant sur la mˆeme machine.

La deuxi`eme repr´esentation est le diagramme de Gantt qui associe `a chaque op´ era-tion une barre horizontale avec une longueur proporera-tionnelle au temps de l’op´eration. Comme montr´e dans la figure 2.3, il existe deux types du diagramme de Gantt. Dia-gramme de machine (figure 2.3(A)) qui associe les barres aux machine et le diaDia-gramme de job (figure 2.3(B)) associant les barres aux op´erations des jobs Esquirol et al. (1999); Herrmann (2006).

Le rˆole du JSSP est tr`es important durant les proc´edures de fabrication tel qu’il est n´ecessaire d’optimiser le coˆut de la production par la minimisation de son temps. Donc, JSSP, en tant qu’un probl`eme NP-difficile Garey et al. (1976), attire encore des chercheurs pour proposer des solutions et donc d´evelopper des algorithmes. Cependant, tous les algorithmes propos´es ne sont pas capables de trouver la meilleure solution dans un temps de calcul raisonnable pour toutes les instances du probl`eme. En effet, pour trouver une solution de bonne qualit´e ou optimale les chercheurs sont de plus en plus attir´es par l’utilisation des m´etaheuristiques face aux probl`emes d’ordonnancement.

Pour la r´esolution du JSSP, certains m´etaheuristiques peuvent ˆetre cit´ees comme les algorithmes g´en´etiques (GA) Davis (1985), l’optimisation par essaims particulaires (PSO) combin´ee avec le recuit simul´e (SA) Lin et al. (2010), l’optimisation par colonie de fourmis (ACO) combin´ee avec la recherche tabou (TS) Huang et Liao (2008), la proc´edure de recherche adaptative gloutonne et randomis´ee Greedy Randomized Adaptive Search Procedure (GRASP) Binato et al. (2002) et l’optimisation par la colonie d’abeilles (BCO) Chong et al. (2006).

(37)

2.3. PROBL `EMES D’OPTIMISATION COMBINATOIRES (POCS) ´ETUDI ´ES 17

Figure 2.3 – Diagramme de Gantt, de machines et de jobs d’une instance du JSSP.

2.3.3 Quadratic Assignment Problem (QAP)

Le probl`eme d’affectation quadratique ou “Quadratic Assignment Problem (QAP)” est un probl`eme combinatoire NP-difficile Sahni et Gonzalez (1976) qui vise de minimiser le coˆut total de construction et d’exploitation des installations sachant que le gain issu d’une activit´e ´economique dans n’importe quel site est d´ependant des autres installa-tions. L’espace des solutions dans QAP est consid´er´e comme un ensemble de toutes les affectations possibles des installations aux sites possibles. Une solution s´electionn´ee S est une permutation φ d’un ensemble donn´e Q = {1, 2, . . . , N } o`u N est la dimension de l’instance. Elle d´esigne aussi le nombre des sites et des installations, φ(i) = k signifie que l’installation i est affect´ee au site k.

(38)

Figure 2.4 – Probl`eme d’affectation quadratique `a 3 dimensions Le Cun et Galea (2010).

L’objectif du probl`eme est de trouver une permutation φ = (φ(1), φ(2), . . . , φ(N )) qui minimise : N X i=1 N X j=1 aijbφ(i)φ(j) (2.7)

o`u a est la matrice de flux, et aij est le flux entre les installations i et j, et b d´esigne la matrice de distances. Donc, la distance en partant de l’installation i vers l’installation j prend la valeur bφ(i)φ(j). Ici, φ(i) est l’emplacement affect´e `a l’installation i. Le but est de minimiser la somme du produit f lux × distance Taillard (1991).

Durant presque vingt ans et jusqu’`a cet instant QAP repr´esente un mod`ele (fi-gure 2.4) de plusieurs situations de probl`emes issus de diff´erents domaines d’application. QAP se figure, en tant qu’un ingr´edient pour les algorithmes de placement, `a la minimi-sation de “backboard wiring” dans les circuits ´electroniques Steinberg (1961). Il est utilis´e fr´equemment dans “facility lay-out problems”, en particulier les plans des hˆopitaux Kra-rup et Pruzan (1978); Connolly (1990). On cite aussi d’autres applications comme le classement des donn´ees arch´eologiques Krarup et Pruzan (1978), et l’analyse des r´ eac-tions chimiques Ugi et al. (1979). Si on parle d’ergonomie, la conception des claviers de machine `a ´ecrire se base sur QAP. Ce probl`eme est d’arranger les cl´es d’un clavier de fa¸con `a minimiser le temps n´ecessaire `a ´ecrire un text donn´e Burkard et Offermann (1977).

(39)

2.4. M ´ETHODES DE R ´ESOLUTION DES POCS 19

En 1984, Burkard et Rendl Burkard et Rendl (1984) ont marqu´e une premi`ere ten-tative, pour r´esoudre le QAP en l’approchant par le recuit simul´e. On note aussi une diversit´e des approches entre les algorithmes exacts et les heuristiques, bas´ees sur la programmation dynamique Christofides et Benavent (1989), le plans s´ecants Bazaraa et Sherali (1980) et la s´eparation et l’´evaluation Lawler (1963). Les heuristiques ap-pliqu´ees au QAP peuvent ˆetre classifi´ees selon les cat´egories suivantes : construction de solutions Armour et Buffa (1963), l’am´elioration locale Pardalos et Resende (1994), recuit simul´e Wilhelm et Ward (1987), recherche tabou Taillard (1991), algorithmes g´ e-n´etiques Fleurent et Ferland (1994), et bien d’autres m´etaheuristiques.

2.4 M ´ethodes de r ´esolution des POCs

Les m´ethodes propos´ees pour la r´esolution des probl`emes d’optimisation combina-toire, sont nombreuses et utilisent une vari´et´e de techniques pour atteindre la solution optimale. En consid´erant la fa¸con de produire leurs solutions, nous regrouperons ces m´ethodes selon trois classes : la construction de solutions, l’am´elioration de solutions et les m´etaheuristiques inspir´ees de la nature.

2.4.1 Construction de solutions

Les algorithmes de construction de solutions sont les moins exigeants, vue la qualit´e des solutions construites dans un temps de calcul relativement r´eduit. Ils sont arrˆet´es lorsqu’une solution est trouv´ee et ils n’essaient jamais de proc´eder `a aucune am´ eliora-tion de la solueliora-tion trouv´ee. L’id´ee est de produire une solution par l’ajout it´eratif des composants `a la sous-solution existante (solution partielle `a une it´eration donn´e).

Les m´ethodes de construction les plus connues sont les m´ethodes gloutonnes. Elles g´en`erent une configuration initiale, et elles explore ensuite l’espace des configurations en s´electionnant `a chaque it´eration une configuration voisine de la configuration courante. On peut citer un exemple de m´ethode gloutonne `a savoir l’algorithme du plus proche voisin. Dans le cas du TSP, un voyageur de commerce cherche it´erativement la ville la plus proche qui reste hors du tour construit. Un autre exemple est celui de l’algorithme Greedy. Dans ce cas, le voyageur de commerce alimente le tour par la s´election it´erative des arcs les plus courts et il les ajoute au tour sans la cr´eation d’un cycle, comme il n’a pas atteint des arcs ou l’augmentation du degr´e d’un nœud `a 3 (pour avoir un chemin ferm´e, chaque nœud doit ˆetre connect´e en mˆeme temps `a au moins 3 nœuds).

On peut aussi parler des heuristiques d’insertion qui commencent par un arc initial ou un sous-tour ferm´e (souvent un triangle), et dans ce qui suit, l’insertion du reste se fait par quelques heuristiques Rosenkrantz et al. (1977); Johnson (1990).

(40)

Nous avons donn´e ces exemples (autres m´ethodes de construction de solutions sont expliqu´ees par Davendra Davendra (2010)) pour montrer que cette classe des heuris-tiques n’est pas int´eress´ee par trouver une bonne solution, mais juste une solution de qualit´e mod´er´ee dans un temps de calcul r´eduit. En d´epit de la faible performance, les heuristiques de construction de solutions demeurent largement utilis´ees, mais comme des auxiliaires dans d’autres m´ethodes. Elles sont introduites dans d’autre m´ethodes, afin de g´en´erer des solutions initiales, ou `a l’int´erieur de leurs proc´edures.

2.4.2 Am ´elioration de solutions

Les algorithmes d’am´elioration de solutions commencent par une solution pr´ec´ e-demment g´en´er´ee en utilisant, souvent, les algorithmes de construction de solutions. Ils proc`edent `a l’optimisation de la solution par les op´erateurs d’am´elioration jusqu’`a l’obtention d’une solution non am´eliorable. G´en´eralement, ils sont bas´es sur des modifi-cations simples effectu´ees sur la solution courante. Consid´erons ceci, chaque modification ou am´elioration, sur une solution m`ene vers une autre solution voisine dans l’espace de recherche. Donc, ils cherchent `a am´eliorer localement des solutions par un d´eplacement dans le voisinage jusqu’`a l’absence d’un meilleur voisin. La modification/mouvement la plus connue, pour le cas du TSP, est 2-opt Miseviˇcius et al. (2007). Elle supprime deux arcs du tour courant, et reconnecte les deux nouveaux chemins cr´e´es, diff´eremment. Dans le cas de minimisation, cette perturbation est effectu´ee seulement si le nouveau tour et moins long que le tour courant. Alors, ce processus est r´ep´et´e tant qu’il existe une am´elioration possible ou d’autres crit`eres d’arrˆet non atteints.

2-opt peut ˆetre g´en´eralis´e par le remplacement de 2 arcs par 3 ou 4. Dans des algorithmes d’am´elioration plus complexes, comme Lin-kernighan, 2-opt, 3-opt et 4-opt sont tous intelligemment introduits. C’est d´ecid´e par un param`etre k (k-opt, o`u k = 2, 3 et 4), la valeur du mouvement appropri´e dans chaque it´eration. Une discussion d´etaill´ee est ouverte par Lin and Kernighan dans Kernighan et Lin (1970). Lin Kernighan est relativement plus capable d’´eviter les minimas locaux (le minimum local est une solution portant la valeur la plus basse dans le voisinage). Pour le QAP et le JSSP, on peut citer plusieurs types de mouvements comme le swap, l’insertion et l’inversion Ouaarab et al. (2015a,c).

Dans le but de surpasser ce probl`eme de minimum local, l’algorithme de recherche tabou “TS” d´ecrit par Glover et Laquna Glover et Laguna (1997) qui impl´emente par plusieurs mani`ere une liste tabou. Il se d´eplace de la solution courante vers une nouvelle solution voisine mˆeme si c’est une mauvaise solution voisine, ce qui d´ecroit la qualit´e de la solution courante. Afin d’´eviter de recycler, TS utilise la liste tabou pour stocker les d´eplacements r´ecemment effectu´es pour les interdire `a apparaitre dans un nombre d’it´ e-rations ult´erieures. De l’autre cˆot´e, le recuit simul´e ou Simulated Annealing (SA) Kirk-patrick et al. (1983) choisi une solution al´eatoirement dans le voisinage. L’acceptation de cette solution d´epend de sa qualit´e et d’un param`etre de contrˆole nomm´e la temp´erature.

(41)

2.4. M ´ETHODES DE R ´ESOLUTION DES POCS 21

Ce param`etre d´ecroit, et par cons´equent la probabilit´e d’accepter la solution d´ecroit au cours des it´erations de l’algorithme. Il y a d’autres algorithmes `a solution unique qui se distinguent de la mani`ere `a suivre pour ´echapper du minimum local, comme la recherche locale it´er´ee ou “Iterated Local Search” (ILS) Louren¸co et al. (2001), la recherche locale variable ou “Variable Local Search” (VLS) Branke (2001), la recherche local guid´ee ou “Guided Local Search” (GLS) Balas et Vazacopoulos (1998) et plusieurs d’autres.

Les algorithmes d’am´elioration locale sont typiquement des algorithmes incomplets. La recherche peut ˆetre arrˆet´ee mˆeme si la solution trouv´ee n’est pas optimale. Tabu Search et SA, cit´es par Malek et al. dans Malek et al. (1989), sont consid´er´es comme des m´etaheuristiques. Mais, il sont des m´etaheuristiques mono-solution (`a solution unique) qui modifient ou am´eliorent une solution candidate `a la fois. Les m´ethode `a base de population de solutions am´eliorent, au cours des it´erations, une population de solutions. L’int´erˆet d’utiliser est de passer `a un autre niveau de recherche avec plus de diversit´e et de coop´eration entre les individus de la population. Cependant, l’approche bas´ee sur une population de solutions, adopt´ee par les m´etaheuristiques, s’inspire des ph´enom`enes naturels tels que les essaims, les colonies et l’´evolution d’une population.

2.4.3 M ´etaheuristiques inspir ´ees de la nature

Les m´etaheuristiques utilisent des recherches strat´egiques afin d’explorer plus effica-cement l’espace de recherche, et souvent se focalisent sur les r´egions prometteuses. Ces m´ethodes commencent par un ensemble de solutions initiales ou une population initiale, et apr`es, elles examinent ´etape par ´etape une s´equence de solutions pour atteindre, ou de s’approcher de, la solution optimale du probl`eme. Les m´etaheuristiques ont plusieurs avantages par rapport aux algorithmes traditionnels. Les deux avantages les plus im-portants sont la simplicit´e et la flexibilit´e. Les m´etaheuristiques sont souvent simples `a impl´ementer, pourtant, elles sont capables de r´esoudre des probl`emes complexes avec la capacit´e de s’adapter `a plusieurs probl`emes d’optimisation du monde r´eel, `a partir du do-maine de la recherche op´erationnelle, d’ing´enierie vers l’intelligence artificielle. plusieurs exemples sont cit´es par Yang et Yang et al. dans Yang (2010a); Yang et Deb (2013), Gandomi et al. dans Gandomi et al. (2011, 2012, 2013), et Yang et Gandomi dans Yang et al. (2013). Ces algorithmes sont tr`es flexibles, et ils ont la capacit´e de traiter des probl`emes avec des fonctions objectif de diff´erentes propri´et´es, qu’elles soient continues, discr`etes ou mixtes.

Dans la litt´erature, aucun algorithme n’est efficace pour la r´esolution d’une grande partie des probl`emes d’optimisation combinatoire NP-difficiles. Le besoin de trouver rapi-dement une bonne solution (pas n´ecessairement la meilleure) `a ces probl`emes est le motif de d´evelopper diff´erents algorithmes approximatifs comme les m´etaheuristiques Blum et Roli (2003); Glover et Kochenberger (2003); Talbi (2009). En effet, les m´etaheuristiques ont prouv´e leur potentiel et efficacit´e `a r´esoudre une large vari´et´e de probl`emes d’opti-misation. Elles sont en principe simples `a impl´ementer tout en traitant des probl`emes

Figure

Figure 2.2 – Graphe disjonctif d’une instance du JSSP.
Figure 2.3 – Diagramme de Gantt, de machines et de jobs d’une instance du JSSP.
Figure 2.4 – Probl` eme d’affectation quadratique ` a 3 dimensions Le Cun et Galea (2010).
Figure 2.6 – D´ eplacement des particules dans l’espace de recherche Wang et al. (2010).
+7

Références

Documents relatifs