• Aucun résultat trouvé

– le red´emarrage r´egulier ou adaptatif de la recherche `a une nouvelle position choisie al´eatoirement ou de fa¸con `a couvrir l’espace de recherche. Cette m´ethode rentre dans le cadre du mod`ele multi-population ;

– l’utilisation d’une m´ethode d’initialisation bas´ee sur une exploration m´ethodique de l’espace de recherche (quadrillage) ou sur une autre heuristique, par exemple un algorithme g´en´etique3.

7.6 Consid´erations th´eoriques

Cette section tente d’´etudier de mani`ere plus th´eorique le comportement de l’al-gorithme API. Il est notamment int´eressant de comparer API aux techniques de re-cherche qui ont fait leurs preuves comme les algorithmes g´en´etiques.

7.6.1 Interaction entre les sites m´emoris´es

On a pu constater que la gestion de plusieurs sites par une fourmi n’avait pas de r´epercussions notable sur les r´esultats. On peut deviner quelques ´el´ements de r´eponse : bien que la fourmi puisse choisir le site qu’elle va visiter il semble ´equivalent de ne lui autoriser qu’un seul site en m´emoire et qu’elle n’en construise un autre que lorsque ce site est ´epuis´e. Cependant, le fait qu’elle dispose de plusieurs sites quand elle vient de subir un ´echec laisse supposer qu’elle perdra moins de temps `a s’acharner sur un seul site pour pouvoir en explorer un autre. Quand on compare API `a un AG (voir plus loin dans cette section), on constate que la s´election utilis´ee par API n’est peut-ˆetre pas assez forte. On peut envisager deux am´eliorations :

1. au lieu de choisir un site `a visiter de mani`ere uniform´ement al´eatoire on peut diriger le choix de la fourmi en fonction du taux de succ`es de chaque site. On augmente ainsi la fr´equence de visite des sites qui ont eu un pass´e glorieux ; 2. la s´election des AG d´epend de l’adaptation d’une solution relativement `a

l’adapta-tion de toutes les solul’adapta-tions manipul´ees. Or API est distribu´e et il est inopportun de fournir `a une fourmi l’adaptation des sites de toute la population pour pouvoir faire ses choix. On peut donc envisager que la fourmi choisisse le site `a visiter non plus suivant son taux de succ`es mais suivant son adaptation par rapport aux autres sites actuellement dans la m´emoire de la fourmi4.

7.6.2 De l’utilit´e de m´emoriser plusieurs sites

Dans cette section, nous allons montrer l’utilit´e de partager la m´emoire de la fourmi sur plusieurs sites. Supposons que la fourmi dispose de trois sites de chasse en m´emoire, chaque site de chasse a une certaine probabilit´e de fournir une proie quand la fourmi 3On peut ici envisager d’utiliser API `a la place d’un AG avec un jeu de param`etres(( plus large ))

ou encore de faire varier les param`etres d’API au cours des it´erations `a la fa¸con du recuit simul´e.

4Ou de fa¸con plus directe suivant l’adaptation de la meilleure solution trouv´ee par la fourmi depuis

s’y d´eplace. Notons Pi cette probabilit´e pour le site si5. On peut mod´eliser le passage d’un site `a un autre par une chaˆıne de Markov o`u les ´etats repr´esentent la position de la fourmi `a chaque instant. La figure 7.17 donne graphiquement les probabilit´es de transition d’un ´etat `a l’autre. La figure 7.17(a) prend en compte le retour au nid `a chaque sortie de la fourmi et la figure 7.17(b) repr´esente les passages entre ´etats tels que la mod´elisation algorithmique les a d´ecrits (en incluant le retour au nid qui est syst´ematique effectu´e entre deux sorties).

1 3 3 1 3 1 3 1 2 1 2 3 3 2 1 P P P N P 1-P 1-P 1-1 3 2 3 P 3 P 1-3 1 ( ) + 1 P 1 P 1-3 1 ( ) + 2 P 1-3 1 ( ) 1 P 1-3 1 ( ) 3 P 1-3 1 ( ) 3 P 1-3 1 ( ) 1 P 1-3 1 ( ) 2 P 1-3 1 ( ) 2 P 1-3 1 ( ) 2 P + (a) (b)

Fig. 7.17 – Mod´elisation du choix du site de chasse par une fourmi. Dans l’exemple pr´esent´e, La fourmi dispose de trois sites de chasse en m´emoire et pour chaque site si, la probabilit´e de capturer une proie est not´ee Pi.

(a) : Chaˆıne de Markov prenant en compte le retour au nid.

(b) : Chaˆıne de Markov incluant le retour au nid dans le passage au site suivant.

Si on suppose que la fourmi n’oublie pas un site et ne s’en construit pas de nou-veau, cela nous permet d’´etablir la probabilit´e que la fourmi soit sur un certain site `a l’´equilibre. Posons M, la matrice de la chaˆıne de Markov construite :

M =  P1+ 1 3(1− P1) 1 3(1− P1) 1 3(1− P1) 1 3(1− P2) P2+ 13(1− P2) 13(1− P2) 1 3(1− P3) 13(1− P3) P3+13(1− P3)   (7.12)

On utilise le r´esultat suivant : Si M est une matrice de transition d’une chaˆıne de

Markov r´eguli`ere, alors :

lim n→∞M(n)=  ee11 ee22 ee33 e1 e2 e3  

et E = (e1, e2, e3) ei > 0 ∀i = 1, 2, 3 est l’unique distribution de probabilit´e telle

que :

EM = E. (7.13)

5Nous supposerons cette probabilit´e fixe dans le temps alors qu’`a chaque am´elioration locale le site

150 7.6 Consid´erations th´eoriques

Grˆace au syst`eme 7.13, on en d´eduit :

e1 = (1− P2)(1− P3) (1− P1)(1− P2) + (1− P1)(1− P3) + (1− P2)(1− P3) (7.14) e2 = (1− P1)(1− P3) (1− P1)(1− P2) + (1− P1)(1− P3) + (1− P2)(1− P3) (7.15) e3 = (1− P1)(1− P2) (1− P1)(1− P2) + (1− P1)(1− P3) + (1− P2)(1− P3) (7.16) Si on compare les sites 1 et 2, et que l’on sait que P1 > P2, comme e1

e2 = 1−P2

1−P1 d’apr`es 7.14 et 7.15, on en d´eduit qu’`a l’´equilibre on aura e1 > e2 ce qui valide donc le fait que la mod´elisation algorithmique pr´esent´ee pr´ec´edemment conserve bien une r´epartition des sorties de la fourmi sur les sites de chasse proportionnelle `a la probabilit´e de capturer sur chaque site.

7.6.3 Comparaison avec des m´ethodes voisines

La mod´elisation propos´ee du comportement de pr´edation de Pachycondyla

apica-lis manipule une population de solutions (l’ensemble des sites de chasse) et peut ˆetre rapproch´ee d’un certain nombre d’heuristiques existantes. C’est par les algorithmes d’´evolution, qui manipulent aussi une population, que nous commen¸cons ce rapproche-ment pour ensuite comparer la recherche locale effectu´ee par API `a des heuristiques telles que la recherche tabou ou le recuit simul´e.

L’ascension locale stochastique

Par rapport `a l’algorithme RHC (voir l’algorithme 5.2, page 91), API utilise non pas un mais deux pas de recherche : le premier pas local d’amplitude Alocale est assimilable `

a celui de RHC, mais le pas global d’amplitude Asite n’existe pas dans RHC ainsi que le d´em´enagement du nid. De plus, pour une fourmi donn´ee, l’exploration des sites n’est pas uniforme. Le succ`es associ´e aux sites biaise cette uniformit´e vers les meilleurs sites alors que RHC explore toujours le mˆeme point.

Les algorithmes g´en´etiques

D’une mani`ere g´en´erale, l’algorithme API peut ˆetre compar´e avec les algorithmes manipulant une population de solutions. Les Algorithmes G´en´etiques (AG) en font partie. Le tableau 7.8 pr´esente une comparaison des AG avec API. Voici points par points les similarit´es et diff´erences entre API et les techniques issues des AG :

– les n fourmis manipulent p sites de chasse. La colonie de fourmis toute enti`ere manipule donc n× p solutions ;

– la cr´eation d’un site correspond `a l’arriv´ee d’une nouvelle solution dans la popu-lation. Pour un AG on parle d’immigration ;

– la recherche locale (op´erateurOexplo) revient `a faire une mutation de la solution repr´esent´ee par le site explor´e ;

API AG

n fourmis, p sites n× p individus

cr´eation d’un site immigration recherche locale op´erateur de mutation

patience locale pression de selection d´eplacement du nid red´emarrage (restart)

recrutement op´erateur de s´election multi-populations niche (Island Model )

Tab.7.8 – Comparaison de API avec les techniques issues des Algorithmes G´en´etiques (AG).

– la patience locale (Plocale) indique le nombre de tentatives d’am´elioration d’un site. Cela revient `a indiquer le niveau de confiance dans l’am´elioration d’un site qu’une fourmi peut avoir. Si Plocale a une valeur faible, cela signifie que la fourmi s´electionne les meilleures solutions avec peu de tentatives sur chacune d’elles. A l’oppos´e, une grande valeur de Plocale indique que la fourmi dispose d’un plus grand nombre de tentatives pour am´eliorer une solution. La patience locale per-met donc de r´egler le comportement de la fourmi en fonction des r´esultats qu’elle obtient. C’est en cela que l’on peut comparer la patience locale `a la pression de s´election des algorithmes g´en´etiques qui permet de favoriser plus ou moins les solutions les plus adapt´ees. Il faut cependant noter que la patience locale est un param`etre individuel alors que la pression de s´election agit sur l’ensemble de la population ;

– le d´eplacement du nid permet de relancer la recherche et ´eviter de cette fa¸con les optima locaux. Les techniques de (( restart )) visent le mˆeme objectif ;

– le recrutement a pour effet de dupliquer les meilleures solutions manipul´ees par les fourmis ce qui est tr`es similaire `a la fonction de l’op´erateur de s´election des AG ;

– on peut noter l’absence d’un ´equivalent chez API de l’op´erateur de croisement des AGs.

Dans les AG manipulant une population finie de solutions, l’effet cumul´e de la s´election et du croisement a l’inconv´enient de faire disparaitre la diversit´e n´ecessaire `a l’explora-tion. En quelque sorte, on peut consid´erer que dans un AG les solutions sont au d´epart uniform´ement distribu´ees dans l’espace de recherche et qu’apr`es un certain nombre d’it´erations, la population se concentre sur les points les plus s´electionn´es. Seule la mutation introduit alors une certaine diversit´e. Dans API, le processus est invers´e : les fourmis explorent `a partir d’un point central, le nid, et tendent `a s’en ´eloigner au fur et `a mesure des it´erations.

Si on ´elargit la comparaison `a d’autres techniques ´evolutionnaires, on peut d´ecouvrir un certain nombre de points communs. Si on consid`ere les strat´egies d’´evolution (SE), µ solutions parentes g´en`erent λ solutions filles par un m´ecanisme de mutation gaussienne. Comme les solutions sont des vecteurs r´eels, la ressemblance est plus forte avec API que dans le cas des AG manipulant des chaˆınes binaires. Il y alors principalement deux