• Aucun résultat trouvé

Fi BSC PBIL ASb ACSb F0 0.09 0.12 0.17 0.17 F1 0.10 0.14 0.17 0.18 F2 0.08 0.11 0.13 0.14 F3 0.18 0.21 0.28 0.27 F4 0.09 0.12 0.15 0.15 F5 0.19 0.21 0.28 0.28 F6 0.12 0.15 0.18 0.17 F7 0.12 0.15 0.18 0.18 F8 3.06 2.95 4.09 4.38 F9 3.41 3.31 4.45 4.74 F10 3.11 3.02 4.15 4.43

Tab.6.12 – Temps de calcul moyen, en seconde, pour chaque m´ethode. `A titre indicatif, ces r´esultats sont obtenus sur une machine ´equip´ee d’un processeur Pentium III `a 450 MHz.

6.8 Extensions

La mani`ere la plus intuitive d’´etendre ces m´ethodes est d’augmenter la quantit´e d’informations. Deux possibilit´es s’offrent `a nous :

– augmenter la quantit´e d’informations stock´ees par V . On peut par exemple modi-fier l’adaptation de ACO en adoptant la repr´esentation donn´ee par la figure 6.4.a. La figure 6.4.b repr´esente la solution 011 . . . 10 obtenue en parcourant le graphe du nœud fictif de d´epart D au nœud fictif d’arriv´ee A. Dans ce cas, on ne peut plus repr´esenter l’information stock´ee par les ph´eromones d´epos´ees sur les arcs par un vecteur V de probabilit´e : Le choix d’un sommet (( 1 )) ou (( 0 )) d´epend

du choix effectu´e pour le sommet pr´ec´edent.

On peut envisager des repr´esentations plus complexes, et par l`a mˆeme abandonner la notion de ph´eromone, en utilisant les chaˆınes de Markov cach´ees pour g´en´erer les s´equences binaires. On dispose alors de m´ethodes plus sophistiqu´ees pour r´ealiser l’apprentissage de cette information. L’algorithme de Baum-Welch en est un exemple ;

– diviser l’information. Au lieu de manipuler un seul vecteur V , on peut parfai-tement envisager de faire travailler les algorithmes pr´esent´es sur K sous-popu-lations, chacune (( centr´ee )) autour d’un vecteur Vi. On reproduirait ainsi un mod`ele tr`es pris´e par les algorithmes g´en´etiques : l’(( island model )) o`u plusieurs

populations ´evoluent parall`element tout en faisant quelques ´echanges de g´enomes (M¨uhlenbein et al., 1991). Ce type d’extension a d´ej`a aussi ´et´e ´etudi´e dans le do-maine des fourmis artificielles avec l’utilisation de diff´erents types de ph´eromones (Kawamura et al., 1998).

Les travaux concernants des mod`eles plus complexes, notamment pour traiter des probl`emes o`u les variables ne sont pas ind´ependantes, sont r´esum´es dans (Pelikan et al., 1999).

(a) . . . 1 0 0 0 1 1 D A (b) . . . 1 0 0 0 1 1 D A

Fig. 6.4 – Extension de ACO appliqu´e au probl`eme d’optimisation binaire. Le choix des l bits est mod´elis´e par le choix d’un sommet (( 0 )) ou (( 1 )) entre les noeuds D

(D´epart) et A (Arriv´ee).

Le deuxi`eme type d’extension concerne certaines am´eliorations que l’on peut ap-porter simplement aux algorithmes expos´es :

– le choix qui est fait par ACS pour la g´en´eration des solutions peut ˆetre raffin´e : la probabilit´e d’effectuer une exploration ou une exploitation d´epend de la proba-bilit´e q0 donn´ee en param`etre. On peut envisager de faire varier cette probabilit´e au cours du temps : par exemple en fixant q0 = log(T )/ log(T3) o`u T repr´esente le num´ero de l’it´eration courante. Nous avons d´ej`a exp´eriment´e cette m´ethode qui a donn´e des r´esultats concluants pour le probl`eme du flowshop bicrit`ere (T’Kindt et al., 2000) ;

– l’initialisation de V peut ˆetre faite par un ensemble compos´e de bonnes solutions construites `a l’aide d’heuristiques et de solutions al´eatoires garantissant une dis-tribution des solutions initiales dans tout l’espace de recherche ;

– d’une mani`ere g´en´erale, la difficult´e de fixer les param`etres de chaque m´ethode peut ˆetre contre-balanc´ee de plusieurs mani`eres :

– en faisant varier les param`etres au cours du d´eroulement de l’algorithme de fa¸con pr´ed´etermin´ee (d´eterministe),

– en utilisant les r´esultats du processus de recherche (feedback ) (adaptation), – en int´egrant au probl`eme d’optimisation le choix des param`etres

(auto-adap-tation).

Certains auteurs proposent de classifier les strat´egies d’adaptation en plusieurs groupes (Eiben et al., 1998b) :

– selon le type d’adaptation : – statique,

– dynamique (d´eterministe, adaptatif ou auto-adaptatif). – selon le niveau d’adaptation :

120 6.9 Conclusion

– sur la population, – sur un individu, – sur un composant.

Enfin, il est possible de mixer les m´ethodes entre elles. C’est une voie qui est ´etudi´ee notamment par Cord´on, Herrera et Moreno de l’universit´e de Grenade en adap-tant les principes de PBIL `a AS pour le probl`eme du voyageur de commerce et de l’assignement quadratique (Cord´on et al., 1999).

6.9 Conclusion

L’objectif de ce chapitre ´etait de montrer que diff´erentes m´ethodes d’optimisation se comportaient de fa¸con tr`es similaire : elles utilisent toutes un vecteur de probabilit´e ´

echantillonnant un espace de recherche binaire `a la recherche d’un optimum global. D’un cˆot´e les algorithmes issus des m´ethodes ´evolutionnaires, tels que BSC et PBIL, manipulent de fa¸con explicite les statistiques que les algorithmes g´en´etiques manipulent de fa¸con implicite. D’un autre cˆot´e les algorithmes inspir´es des colonies de fourmis qui mettent en avant l’apprentissage collectif d’une information distribu´ee : les ph´eromones. Les r´esultats obtenus permettent de confirmer les similitudes observ´ees dans les d´efinitions des m´ethodes. La pr´esentation de ces m´ethodes ainsi que les r´esultats obte-nus nous font penser qu’un certain nombre d’´etudes plus th´eoriques permettraient de proposer un mod`ele rassemblant les avantages et ´ecartant les inconv´enients des quatres algorithmes.

Les possibilit´es d’extension sont grandes, par exemple en abandonnant le codage binaire, consid´er´e `a raison comme inefficace pour la plupart des probl`emes d’optimi-sation num´erique8. Dans le chapitre suivant, nous pr´esentons une nouvelle heuristique inspir´ee des colonies de fourmis s’adaptant `a diff´erents types de repr´esentation. Nous n’utiliserons alors plus de codage binaire.

Les travaux pr´esent´es dans ce chapitre ont ´et´e men´es en collaboration avec Guillaume Dromel, Ameur Soukhal, La¨etitia Desbarats (Labo-ratoire d’Informatique), et Eric Ramat (Universit´e du Litoral) (Dromel, 1999; Monmarch´e et al., 1999a; Monmarch´e et al., 2000a)

8Par exemple : un probl`eme `a 100 variables, toutes d´efinies sur l’intervalle [−500, 500], avec une

L’algorithme API

Nous pr´esentons dans ce chapitre une mod´elisation du comportement de fourragement d’une population de fourmis primitives (Pachycondyla

api-calis) et son application au probl`eme g´en´eral d’optimisation. Ces fourmis

sont caract´eris´ees par une strat´egie de recherche de proie relativement simple o`u les individus chassent en solitaire et tentent de couvrir uni-form´ement un espace donn´e autour de leur nid par des recherches lo-cales sur des sites de chasse. Le nid peut ˆetre d´em´enag´e p´eriodiquement. Cela correspond en optimisation `a un algorithme effectuant plusieurs recherches al´eatoires en parall`ele et localis´ees uniform´ement dans un sous-espace centr´e en un point. Le d´eplacement du nid correspond `

a un op´erateur de r´einitialisation dans les recherches parall`eles o`u le point central est d´eplac´e. Nous testons ce mod`ele, appel´e API, sur un ensemble de probl`emes d’optimisation combinatoire et num´erique.

7.1 Introduction

Ce chapitre pr´esente les travaux men´es autour de la mod´elisation des fourmis de l’esp`ece Pachycondyla apicalis. Cette ´etude trouve son origine dans les travaux de Dominique Fresneau sur la strat´egie de fourragement originale de cette esp`ece de fourmis pon´erines (Fresneau, 1985; Fresneau, 1994). Nous commencerons donc par pr´esenter les caract´eristiques biologiques qui ont pu ˆetre exploit´ees du point de vue d’une mod´elisation algorithmique avec comme objectif de l’appliquer `a plusieurs probl` e-mes d’optimisation.

L’int´erˆet de ces fourmis pour l’optimisation vient du fait qu’elles utilisent des prin-cipes relativement simples `a la fois d’un point de vue global et local pour rechercher leurs proies. A partir de leur nid, elles couvrent globalement une surface donn´ee en la partitionnant en sites de chasse individuels. Pour une fourmi donn´ee, on observe une strat´egie d’exploration al´eatoire des sites sensible au succ`es rencontr´e. Ces prin-cipes peuvent ˆetre repris pour r´esoudre un probl`eme analogue qui est la recherche d’un minimum global, par exemple d’une fonction f d´efinie de Rl dans R.