• Aucun résultat trouvé

3.4 Implémentation d'un algorithme génétique

3.4.4 Méta-optimisation

Nous disposons don maintenant d'un algorithme génétique que l'on peut qua-lier de générique dans le sens où ses paramètres opérationnels (taux de muta-tions/ roisements, taillede population, ondition d'arrêt, et .) sont paramétrables etles diverses stratégies (parallélisation, élitisme,gradient onjugué, biais dans les densités de probabilités, ltrage par dissimilitude) peuvent être relativisées voire totalement désa tivées.

Leproblèmequinousintéressemaintenantest desavoir ommentréglertous es paramètres an d'obtenir une onvergen e satisfaisante  de l'algorithme. Étant donnéeslesbonnesperforman espotentiellesdesAGetlafortedépendan e deleurs résultats vis-à-vis de es réglages, il n'est pas étonnant que ette question soit au oeur des re her hes dans e domaine.

Même en limitant le nombre de valeurs par paramètre (de deux à inq valeurs pour un total de dix-sept paramètres,voirtableau3.2), ontrouve

109

réglages pos-sibles! Il nous faut don dénir e que  onvergen e satisfaisante signie, 'est-à-dire trouver un moyen de omparaison entre les algorithmes (une fon tion des paramètresque nous appeleronsméta-tness ).

paramé-Valeurs possibles Paramètre 2,3 ou 4 nombre d'îles

5, 10,25ou 50 période de migration (en nombre de générations)

500, 800 ou1000 nombre maximumde générations sans su ès avant arrêt global 50, 75ou 100 nombre maximumde générations sans su ès avant apo alypse 50,100, 150 ou200 taillede population

0ou 1 nombre d'élitesimmortels 20,50, 100 ou200 âge maximum toléré

1,2, 5ou 10 fréquen ede séle tionintrafamiliale(en nombre de générations) 1% ou10% fréquen e de mutations

40,70 ou100% tauxde roisements

0, 33,67,100% tauxde roisements à deux points

10,30ou 50% probabilitéd'appli ationd'unerelaxationpar gradient onjugué 75, 80,85ou 90% niveau de similaritémaximaldans la population

20, 30,40,50 ou60 tailledu voisinage tabouautour des individus déjàren ontrés 10,30ou 50% niveau de mélange de la densité uniforme par rapportaux

den-sités biaisées

6, 8,10, 12 tailleminimale des fragments dénissantune torsiona tive 3, 5,10, 20 tailledes fragments au-dessus de laquelle les torsions ont toute

lamême pondération (en nombre d'atomes)

Tab. 3.2: paramètresde ontrledel'algorithmeetensembledesvaleurspossibles.

AGs (à l'aide des haînes de Markov), soit des mises en éviden e de ertains om-portementsen s'appuyant sur des résultatsexpérimentaux.

3.4.4.1 Les haînes de Markov

Les AG odés binaires (et plus généralement, eux qui s'appliquent à des es-pa esde re her he dis rets), peuventêtre modélisésparune haînede Markovnie, dis rète (Nix et Vose, 1992; De Jong et al., 1994; Spears et De Jong, 1996). Pour une population de

N

pop

individus de longueur

N

ddl

, haque omposante pouvant prendre

N

steps

valeurs, nous avons de l'ordre de

N

steps

N

ddl

états possibles et don

M = N

steps

N

ddl

N

pop



ombinaisons 12

possibles de populations diérentes qui formeront lesétats dela haînedeMarkov.Nousvoyonsimmédiatementquelamatri ede tran-sition, de dimension

M2

, devient rapidement impossible à gérer informatiquement, lorsque

N

pop

,

N

ddl

et/ou

N

steps

prennent des valeurs physiquement utiles!

Unevisualisationpossible(DeJong et al.,1994;Spears etDeJong, 1996)est de dessinerlamatri ede transitionsouslaformed'uneimage arrée,enremplaçantles probabilitéspar desniveaux degris. Ilfautensuiteordonnerlesétats(numérotation

12

ena ordave lanouvellerègle,les oe ientsbinomiaux

n!

p!(n−p)!

sontnotés

n

p

apriori)defaçonsubtilesil'onveutvoirapparaîtrelesrégionsattra tivesdel'espa e de re her he (gure 3.11).

Fig.3.11:représentationdespuissan esdelamatri edetransition,oùl'onvisualise l'apparitionderégionsattra tri es(extrait deSpears,1996).

Lesquelques tentativesdemisesen pratiquede tellesétudesmettenten éviden e ertains omportements des AGs (Spears, 1992; Spears, 1994; O hoa et al., 1999), mais la quanti ation des phénomènes est à mettre en relation ave la taille de l'espa e de re her he ou la lasse de fon tions tness  utilisée. Dans De Jong et al. (1994), l'espa e d'états est tellement réduit qu'à titre de omparaison, une re her he aléatoiremontre de meilleursrésultats!

Lare her he duparamétrageoptimalparuneanalysethéoriquesembledon être une appro he di ile étant donné la taille de nos espa es de re her he, le nombre de stratégies implémentées et la dépendan e du paramétrage optimal au problème traité.

Ilexiste uneautreappro he onsistantà onsidérer leméta-problème omme uneoptimisation lassiquepouvant être faiteen-ligne(auto-adaptation: voirSawai etAda hi,2002,logique oue:voirHerreraetLozano,2001et2003b)ouhors-ligne (Grefenstette,1986; Djurdjevi etBiggs,2006)  'est ette dernière appro he que nous avons retenue.

3.4.4.2 Le tness d'un algorithme

L'évaluationd'un AG pose deux prin ipauxproblèmes: lepremierest quenous nere her honspas simplementleminimum absoludupaysage d'énergie potentielle, mais le maximum de minima signi atifs.Ce que la plupart des auteurs proposent (Spears, 1992;O hoa et al.,1999) jugerun AGen utilisantletness du meilleur individujamaisproduit(best-so-far)n'estdon pasappli abledansnotre as. Lese ond problème on erne la non-reprodu tibilité des résultats. L'algorithme étantfortementsto hastique, lebonfon tionnementd'un AG parti ulierpeut aussi

intéresse, 'estdetrouverleparamétragequinousassureleplusde han esd'obtenir une onvergen e e a e.

De façon plus formelle, on peut onsidérer la réalisation d'un AG omme un événement aléatoire dont le méta-tness dépendrait. Ce dernier doit don être vu omme une variable aléatoire dont la moyenne est le véritable ritère qu'il faut optimiser.

Le méta-tness (

µF

) doit don prendre en ompte les ritères suivants:

 l'énergie du meilleur hromosome (au plus bas est ette énergie, au meilleur sera l'AG),

 lesminimapertinents(leur nombre et leurs énergies),  letemps de al ul né essaire à produire es solutions.

Un ertainnombrede ritèresetd'indi essontproposésparWehrensetal.(1998) pour évaluer la qualité des AGs, prenant en ompte les eets sto hastiques et les aspe ts multimodaux.

Ande répondreauxdeux premiers ritères, nous avons empruntéàlaphysique statistique,lafon tiondepartition dessolutionsretournées(quidonnel'énergielibre d'un ensemblede molé ules).En rajoutant une pénalité pour le temps de al ul on obtient leméta-tness utilisé :

µF = +kBT. log

"

X

é hantillons

exp



Ei

kBT

#

− α.t

pu

.

(3.5) Le hoix du paramètre

α

est fait de sorte qu'une heure de al uls ait le même poids que10k al.mol

−1

,un algorithme quine serait pas des endu de 10k al.mol

−1

après une heure de al uls sera don défavorisé par rapport à l'AG qui se serait arrêtétout de suite.

An d'évaluer l'espéran e de

µF

(notée

E[µF ]

), nous avons utilisé la moyenne des valeurs sur plusieurs réalisations:

E[µF ] = 1

N

runs

X

i≤N

runs

µFi.

(3.6)

Comme la réalisation d'un AG prend entre 30 minutes et quelques jours, nous nous sommeslimités à

N

runs

= 3

réalisations.

Nous disposons don maintenant d'un ritère pré is qu'il reste à optimiser en jouant sur les paramètres. Même si, en utilisant

E[µF ]

plutt que

µF

, on a une meilleureidée de l'impa t d'un jeu de paramètres, gardons à l'esprit que la

repro-3.4.4.3 Méta-algorithme d'optimisation

Nous her hons à minimiser un ritère de oût, aussi peut-on don appliquer toutes les heuristiques de re her he que nous avons vues dans la se tion 3.2, ave ladonnée supplémentaire que l'évaluationdu méta-tness peut prendre jusqu'à 48 heures.

Cette méthodologie a déjà été utilisée (Grefenstette, 1986; S hulze-Kremer et Tiedemann, 1994; Jin et al., 1999; Nùnez-Letamendia, 2003; Djurdjevi et Biggs, 2006). Elle présente la parti ularité de faire un réglage hors-ligne des paramètres, ontrairement àl'appro he en-lignequ'ont implémentée d'autres her heurs.

Une remarque importante, faisant référen e à l'arti le de Hartet Belew (1991), est qu'ilfautse rappeler que l'optimisationdes paramètres va dépendre de la molé- ule traitée. Aussi, la méta-optimisation devra-t-elleêtre appliquée à haque molé- ule.

Enn, pour méta-optimiser les paramètres opérationnels, nous avons onsidéré un algorithme génétique extrêmement simplié : un hromosome est un

n

-uple de paramètres de réglage de l'AG de base; à haque itération, une population de dix méta-individus permet de générer, par roisements (un point) et mutations, dix enfantsquisontévalués;parmilesdixparentsetdixenfants,nesontalors onservés que les dix meilleurs pour former la nouvelle population. Etant donné le oût de l'évaluationdu méta-tness, onévitede générer des jeux de paramètresdéjàtestés. Enn, la ondition d'arrêt a lieu lorsqu'au une nouvelle géométrie n'a été trouvée par l'AG d'é hantillonnage onformationnel depuisquatre méta-individus.

Cette ma hinerie est gérée par des s ripts shell et awk qui lan ent les algo-rithmesgénétiques etré upèrent lessolutionsrenvoyées. Andedistinguer lesdeux ou hes algorithmiques, nous appelerons

CSGA

(pour Conformational Sampling Geneti Algorithm), l'algorithme d'é hantillonnage onformationnel (hybridé et paramétré) etméta-algorithmegénétique (ou

µGA

) l'algorithme en harge de trou-ver le meilleur paramétrage et la meilleure stratégie d'hybridation des diérentes heuristiques. Lagure 3.12 représente les héma global de l'un et l'autre.