• Aucun résultat trouvé

3.4 Implémentation d'un algorithme génétique

3.4.5 Résultats

3.4.5.4 Comportement en fon tion des stratégies d'hybrida-

Lesjeuxdetestsontétégénérés delamanièresuivante:diérentes ombinaisons des stratégies ont été appliquées à partir d'une même méta-population aléatoire initiale.Les ombinaisonssontbaséessurunmode defon tionnementpardéfaut

sont désa tivées :

 Default : toutes lesstratégies sont a tivées,

 NoTaboo:onautoriselesre her hes auxvoisinagesdes pointsdéjà é han-tillonnés,

 NoExplorer:lemé anismede mutationsdirigées(torsionalangledriving) est ina tif,

 NoTradition: leprin ipe d'apprentissage etde biais des probabilitésvers lesrégionsaposteriori intéressantesestdésa tivé,maison onservelastratégie de biais a prioripar minimisationde l'énergie lo ale,

 Flat distribution : au une stratégiede modi ation des probabilités n'est permise.

Pour ha une des politiques proposées, trois tests (

µGA

) ont été réalisés (les hoix des paramètres internes,sauf pour la première méta-populationest don fait automatiquementpar le

µGA

).

Lastratégied'exploration serévèled'unegrandeutilitépourgénérerdebonnes stru tures;deplus, ommeelleestrégulièrementappliquéeentredeuxpointsapriori quel onques del'espa e dere her he, ellen'entraînepas de onvergen e prématurée delapopulation ommepourraitlefairel'introdu tiond'immortels(eet de dérive, voirKubota etFukuda,1997).Surlegraphegure3.18, onvoit lairementquesans lapro édurede mutationdirigée,lesénergiesetlenombrede onformèresretournés sont beau oup moins bons (au moins dans deux as sur les trois). Il est probable qu'enluilaissantplusde temps,l'AGniraitpartrouver esmêmesminima; epen-dant, en omparantles tempsde al uls(gure 3.19),ons'aperçoit que lastratégie amélioreégalementla vitesse de onvergen e.

L'introdu tion de tabous ralentitl'évolutionmais améliorela diversité ausein de la population(lagure 3.18 montre en eet quedésa tiverles tabous génére un nombre restreint de minima). L'armation est d'autant plus vraie que le paysage d'énergie potentielle pour la y lodextrine ne doit omporter que quelques rares et étroits minima (dus à la présen e des multiples y les). L'utilisation de tabous seraitpeut-être davantage re ommandéepour des molé ulesplus exiblesetdontle paysage d'énergie, moins a identé, né essiterait une heuristique de re her he plus globale. Autoriser la revisite des minima onnus dans la stratégie  No Taboo, augmenteles han es d'optimiser lo alement la stru ture; ependant, omme nous

Fig. 3.18: nombre de solutions pertinentes trouvées et meilleure énergie trouvée pourlestestsdesdiérentesstratégies.

Fig. 3.19: omparaisondestempsde al uls desdiérentstestset énergielibrede l'ensembledes onformèresretournés.

attra teur(puisqu'ilrépandsonmatérielgénétiquepar roisementsetmutations) en tabourépulsif est un point ritique de la stratégie.

Les méthodes d'apprentissage (propagationdes solutions onnues pour modi-erlesdensités de probabilités)semblentresponsablesde onvergen es prématurées del'algorithme.Eneet, en observantlesdeux graphiquespré édents,ons'aperçoit quelesstratégies NotraditionetFlatdistributionné essitentbeau oupplus de tempsde al ul mais génèrent des solutionsmeilleuresen nombre eten énergies. Bien que laméthode ne soit appliquée que sur une île, ilsemble que l'introdu tion de bonnes solutions trop tt dans l'évolution d'une population soit une mauvaise stratégie.

Le problème ne vient pas tantde l'information disséminée (toutes lesstratégies ont généré la bonne onformation de la y lodextrine), mais plutt du dé len he-ment abusif du ritère d'arrêt. En eet, en biaisant la re her he, on a élère la dé ouverte de minima(gure 3.21) mais on s'expose aurisque de longues périodes de stagnations au ours desquelles l'algorithme risque de se terminer. Autrement dit,les stratégies onvergent diéremment;la gure3.20 s hématiseles deux types deprols :l'algorithmebleu onverge lentement mais sûrement, tandisquelerouge onstruitplusrapidementdes solutionsintermédiairesetintensielare her he dans es régions,mais stagneensuite, aurisque de dé len her le ritèred'arrêt.

Fig. 3.20: s héma de deux prols d'énergie libre de lapopulation enfon tion du nombredegénérations.

L'impa t des mé anismes de modi ation des distributions de probabilités a également été mis en éviden e à travers des étapes de re her he Monte-Carlo (-gure 3.21). On observe que ette heuristique a élère systématiquement la onver-gen e par rapport àune stratégiesans biais; ependant, à mesure que l'algorithme génèredenouvellessolutions(auldesgénérationsdu

µGA

),lepooldesolutions dis-ponibles augmenteet multipliele nombre de re ombinaisonspossibles des

N

an êtres

C'est pourquoi, après 14 générations ( ourbes jaunes) la onvergen e est plus lente qu'après3 ( ourbe violette).

Fig. 3.21: énergie en fon tion du nombre d'itérations (é helle log-log) dans des étapesdeMonte-Carloet mise en éviden ede l'eet del'introdu tion debiais dans lesprobabilités.

La probabilité de trouver les bonnes solutions se orrèle ave le temps de al ul (en é helle logarithmique), (Cf. gure 3.19), mis à part les deux é he s de la stratégie No Explorer . Les stratégies appliquées ne modient don pas la vitesse d'exploration de l'espa e de phase; par ontre, elles peuvent prévenir des terminaisons trop hâtives de lare her he et éviter à l'évolution de s'enfermer dans ertaines régions de l'espa e. Cet eet est surtout visible pour les stratégies de modi ationdes densités de probabilités omme dis uté i-dessus.