• Aucun résultat trouvé

La dernière expérience est basée sur le système de problème des pics mouvantes proposé par Branke [16]. Ce système de tests a été largement utilisé comme référence dans l’optimisa- tion dynamique. L’erreur hors-ligne est utilisée pour mesurer la qualité de performance d’un algorithme, est calculée comme suit :

Eoo = 1 G G X i=1

(Oi,t− Bi,t) (IV.22)

avec Bi,t, Oi,t représentent respectivement la meilleure solution obtenue par un algorithme et l’optimum de l’itération. G est le nombre de générations (G = 10 ∗ τ)

Tableau IV.4 –Paramètres des problème de pics mouvantes

Paramètre Valeur

Fonction de base NO

Coefficient de corrélation λ 0

Dimension 5

Nombre d’évaluations entre le changement 5000

Nombre de pics p 5

Hauteur de pic (H) [30,70]

Forme de pic Cone

Largeur de pic (W) [1,12]

Sévérité s 1

milaire sont utilisées pour comparaison. Le première est l’algorithme génétique avec partage dynamique de niches (GADNS). Le second est l’algorithme génétique avec partage dynamique de niches et immigrants aléatoires (RIGADNS) , est basé sur l’algorithme génétique avec par- tage dynamique de niches mais les individus avec une faible valeur d’adaptation dans chaque niche sont remplacés par des individus générés de façon aléatoire (immigrants), avec le nombre total d’immigrés Ni=30. Le troisième est l’algorithme génétique avec le concept de partage dynamique de niches (HMGADNS), c-a-d, qu’il est basé sur le concept de partage dynamique de niches et exploite l’utilisation d’hypermutation.

Pour cette expérience, les paramètres des trois algorithmes sont comme suit : – croisement binaire simulé[26] , avec un taux de croisement=0.85 ;

– la mutation Gaussienne est utilisée avec un taux de mutation=0.15 ; – la sélection biaisée ("Roulette Wheel Selection") est utilisée ;

– la taille de population est N =100.

Les paramètres de système des problème de pics mouvantes sont illustrés dans le tableau

IV.4.

1. Effet de la variation de sévérité

Cet ensemble d’expériences compare la performance de notre avec les trois autres algo- rithmes cités dans l’expérience précédente en se basant sur ce système avec des valeurs différentes de paramètre de sévérité s. Les résultats expérimentaux concernant l’erreur hors-ligne sont représentés sur le tableau IV.5. On constate que les résultats obtenus par notre modèle, avec des sévérités différentes, sont beaucoup mieux que les résultats des autres algorithmes. Comme nous le savons, les pics sont plus difficiles à suivre lorsqu’on augmente la longueur de transition. Naturellement, la performance des trois algorithmes est dégradée lorsque la longueur augmente. Toutefois, l’erreur hors-line de notre modèle n’est que légèrement affectée par rapport aux autres algorithmes. Ce résultat montre que

IV.4 Étude expérimentale

Tableau IV.5 –L’erreur hors-ligne ± erreur standard pour la variation de la sévérité

τ s GFSDO GADNS HMGADNS RIGADNS

50 0.5 0.25± 0.07 1.18 ± 0.06 1.08 ± 0.06 1.28 ± 0.07 50 1 0.83± 0.08 1.78 ± 0.06 1.29 ± 0.06 1.86 ± 0.06 50 2 0.94± 0.07 2.05 ± 0.07 1.93 ± 0.06 2.01 ± 0.06 50 3 1.02± 0.08 2.54 ± 0.07 2.05 ± 0.06 2.32 ± 0.06 50 4 1.23± 0.08 3.06 ± 0.08 2.49 ± 0.06 3.04 ± 0.06 50 5 1.58± 0.09 3.29 ± 0.1 2.87 ± 0.10 3.14 ± 0.1 50 6 1.87± 0.14 3.83 ± 0.1 3.03 ± 0.10 3.13 ± 0.1 100 0.5 0.13± 0.09 1.48 ± 0.07 1.43 ± 0.05 2.13 ± 0.07 100 1 0.35± 0.08 3.06 ± 0.07 2.08 ± 0.05 2.18 ± 0.07 100 2 1.01± 0.08 3.12 ± 0.08 3.04 ± 0.07 3.14 ± 0.07 100 3 1.12± 0.09 4.32 ± 0.08 3.79 ± 0.07 4.18 ± 0.07 100 4 1.23± 0.08 4.37 ± 0.1 4.08 ± 0.07 4.23 ± 0.11 100 5 1.29± 0.09 4.56 ± 0.1 4.28 ± 0.10 4.24 ± 0.10 100 6 1.88± 0.11 4.73 ± 0.1 4.39 ± 0.10 4.53 ± 0.1 200 0.5 0.25± 0.09 2.18 ± 0.06 2.78 ± 0.06 2.18 ± 0.07 200 1 0.73± 0.08 3.78 ± 0.06 3.09 ± 0.06 2.76 ± 0.06 200 2 0.84± 0.07 4.02 ± 0.07 3.93 ± 0.06 3.41 ± 0.06 200 3 1.22± 0.07 4.47 ± 0.07 4.57 ± 0.06 4.02 ± 0.06 200 4 2.23± 0.07 5.06 ± 0.08 4.89 ± 0.06 4.54 ± 0.06 200 5 2.48± 0.12 5.25 ± 0.03 5.07 ± 0.10 5.14 ± 0.1 200 6 2.57± 0.14 5.73 ± 0.09 5.39 ± 0.10 5.53 ± 0.1

le modèle proposé est très robuste pour localiser et suivre plusieurs optima même en un fort changement d’environnement.

Les résultats statistique investis pour faire la comparaison de notre modèle avec les tros autres algorithmes sont représentés dans le tableau IV.6. Nous avons utilisé le test t-test unilatéral avec 98 degrés de liberté au niveau 0.05 d’importance [31], le changement est effectué chaque τ génération. La notation utilisée pour comparer chaque pair d’algorithmes est ”+”, “++” ou “≈“, qui signifie le premier algorithme est "meilleur que", "plus meilleur que", ou "statistiquement équivalent" au second algorithme. Le tableau IV.4 montre clai- rement que, la performance du modèle proposé surpasse de loin les autres algorithmes. Lorsque le paramètre de sévérité s est petit, la différence entre les algorithmes n’est pas très significative. Mais, lorsque l’environnement est soumis à des changements significatifs les autres algorithmes perdent leur performance, il surpasse les autres algorithmes lorsque le paramètre de sévérité s est grand, et même avec un grand nombre de générations. 2. Effet de variation de nombre de pics

Cet ensemble d’expériences recherche comment notre modèle réagit avec la variation de nombres de pics des problèmes de pics mouvantes. Le tableau IV.7représente les résultats expérimentaux en termes d’erreur hors-ligne pour différentes valeurs du nombre de pics (1 à 30). D’après ce tableau, on constate que la performance du modèle proposé n’est pas

Tableau IV.6 –Les résultats de t-test de comparaison des algorithmes Variation de sévérité T-test results τ 0.1 1 2 5 GFSDO- GADNS 10 ≈ + + ++ GFSDO- RIGADNS + + + + GFSDO- HMGADNS ≈ + + + GFSDO- GADNS 50 + + ++ ++ GFSDO- RIGADNS + ++ ++ ++ GFSDO- HMGADNS + ++ ++ ++ GFSDO- GADNS 100 + + ++ ++ GFSDO- RIGADNS + ++ ++ ++ GFSDO- HMGADNS ≈ ++ +++ +++ GFSDO- GADNS 200 ++ ++ ++ ++ GFSDO- RIGADNS + + ++ ++ GFSDO- HMGADNS + ++ ++ ++

Tableau IV.7 –L’erreur hors-ligne ± erreur standard pour la variation de nombre de pics

Nombre de pics GFSDO GADNS HMGADNS RIGADNS

1 0.13± 0.08 1.68 ± 0.04 1.43 ± 0.07 2.68 ± 0.10 5 0.63± 0.09 2.79 ± 0.04 2.31 ± 0.11 1.17 ± 0.07 10 1.05± 0.07 3.02 ± 0.06 1.68 ± 0.04 1.81 ± 0.04 15 1.26± 0.09 4.18 ± 0.06 3.95 ± 0.08 2.88 ± 0.07 20 1.48± 0.08 4.76 ± 0.07 4.38 ± 0.11 3.27 ± 0.11 25 1.35± 0.12 4.88 ± 0.1 4.68 ± 0.11 3.65 ± 0.10 30 1.28± 0.1 5.01 ± 0.1 4.08 ± 0.08 3.86 ± 0.07

trop influencée par l’augmentation du nombre de pics. En règle générale, si le nombre de pics augmente, il y aura plus d’optima locaux et il est de plus en plus difficile de poursuivre ces pics. Ainsi, l’augmentation du nombre de pics rend la tâche de poursuite des optimaux plus difficile pour les algorithmes,qui risquent d’être piégés dans des optimums locaux. En comparant ses résultats de notre modèle avec les trois autres algorithmes , l’erreur hors-ligne réalisée par notre modèle est beaucoup plus petite que celle obtenue par les autres algorithmes. D’après le tableau IV.7, on peut également constater qu’il surpasse les autres algorithmes. Comme nous le savons, un grand nombre de pics a besoin de plus de niches pour localiser et suivre les optimums, ceci ne peut pas se réaliser par un nombre fixe des niches dés le départ, mais plutôt par une valeur dynamique qui tient en compte la distribution de la population.

Les résultats statistiques de comparaison de notre modèle avec l’algorithme génétique avec par- tage dynamique de niches (GADNS), l’algorithme génétique avec partage dynamique de niches et immigrants aléatoires (RIGADNS), et l’algorithme génétique avec le concept de partage dy- namique de niches (HMGADNS), sont donnés dans le tableau IV.8. Nous avons utilisé le test one-tailed avec 58 degrés de liberté à un niveau de 0,05 d’importance. Le tableau IV.8 montre

IV.5 Conclusion

Tableau IV.8 –Résultat comparatif de t-test pour les différents algorithmes

Nombre de pics T-test results τ 1 50 100 200 GFSDO- GADNS 10 ≈ ++ ++ ++ GFSDO- RIGADNS ≈ + ++ ++ GFSDO- HMGADNS + + ++ ++ GFSDO- GADNS 50 ≈ ++ ++ ++ GFSDO- RIGADNS ≈ + ++ ++ GFSDO- HMGADNS ≈ + ++ ++ GFSDO- GADNS 100 + ++ ++ ++ GFSDO- RIGADNS + ++ +++ ++ GFSDO- HMGADNS + ++ ++ ++ GFSDO- GADNS 200 ++ ++ ++ ++ GFSDO- RIGADNS + ++ ++ ++ GFSDO- HMGADNS + ++ ++ ++

clairement que la performance de notre modèle surpasse les autres algorithmes. Quand on aug- mente le nombre de pics, les autres algorithmes perdent leur performance. Le modèle proposé conserve sa diversité, même avec un nombre important de générations et avec un grand nombre de pics.

5

Conclusion

Dans ce chapitre, nous avons adapté les taux de mutation et de croisement par un ensemble de règles floues. Ces règles ont pris en compte les performances de l’algorithme et la diversité de la population au fil d’évolution de l’AG.

Des problèmes complexes comme l’optimisation dans un environnement dynamique ne peuvent être résolu que par le respect d’un équilibre l’exploitation et l’exploration, c’est pour cette rai- son que les règles ,que nous avons élaboré, sont conçues sur le maintien de cet équilibre

Le système de générateur des tests dynamiques généralisés est utilisé pour tester les perfor- mances de l’algorithme proposé, les résultats expérimentaux montrent l’efficacité du modèle proposé sur ces problèmes de test. D’une manière générale, notre modèle a pu effectivement trouver et suivre les multiples optima dans des environnements dynamiques.

Il serait également intéressant de combiner d’autres techniques avec notre modèle pour amé- liorer encore ses performances dans des environnements dynamiques. Par exemple, les individus de même niche sont considérés comme des agents qui interagissent ou travaillent ensemble en vue d’atteindre les objectifs de performance.

Une autre idée est de l’utiliser avec un autre système flou pour adapter dynamiquement la taille de la population. Au lieu de combiner le concept de niches avec l’algorithme de classifica- tion utilisé, nous pouvons combiner l’approche multi-population et l’algorithme de classification tout en performant cette idée par l’adaptation des taux de mutation et de croisement comme utilisée dans le modèle proposé dans ce chapitre.

Conclusion gènèrale

Conclusion générale

Les problèmes d’optimisation dynamique ont toujours attiré l’attention des chercheurs en raison de leurs applications dans les domaines scientifiques et industrielles. Ces problèmes né- cessitent des algorithmes qui sont capables de localiser et de suivre le mouvement des solutions au fil du temps. Parmi les algorithmes les plus proposés pour résoudre ces problèmes, on trouve les algorithmes génétiques. Mais les recherches ont indiqué que les AGs souffrent du problème de diversité quand ils convergent. C’est pourquoi durant les dernières années, différents méca- nismes qui favorisent et maintiennent la diversité de la population ont été proposés et utilisés dans des environnements dynamiques.

Dans cette thèse, nous nous sommes préoccupés par l’étude de la diversité de la population en se basant sur le concept des niches. Ce concept favorise la diversité de la population mais présente certaines limitations qui se sont comblées, dans notre travail, par un algorithme de classification. Pour favoriser davantage la diversité, nous avons présenté un nouvel opérateur génétique nommé fertilisation qui a permis d’insérer de nouveaux individus dans la population. A la différence du concept des immigrants aléatoires qui insère un certain nombre d’individus d’une façon aléatoire, notre opérateur a fait évoluer les prototypes qui sont calculés par l’algo- rithme de classification, par croisement et mutation puis il les a insérés dans la population. Les résultats d’expérimentation ont montré qu’il est plus rentable d’utiliser un remplacement "par fertilisation", qu’un remplacement élitiste, qui garde une portion de ces individus.

Dans le soucis de mieux contrôler les différents paramètres de l’AG, nous avons établi de nou- veaux opérateurs basés sur des opérateurs classiques. Deux opérateurs de mutation ( mutation polynomiale partitionnée et multi mutation non uniforme partitionné ) et un opérateur de croisement ( multi-croisement partitionné). Ces opérateurs gardent les individus qui n’appar- tiennent pas aux classes précédemment détectées même si leur fitness est inférieure à celles des parents. Ils ont révélé leur efficacité en les comparant avec les opérateurs génétiques standards. Pour contrôler la pression de sélection, une nouvelle stratégie est adoptée dans cette thèse.

suivant la diversité de la population. Cette nouvelle méthode de sélection a gardé les meilleurs individus des k tournois afin de perfectionner l’AG.

Comme les taux de mutation et de croisement jouent un rôle important dans l’efficacité des AGs, nous avons mis en œuvre un ensemble de règles floues qui ont permis d’adapter ces deux taux. Ces règles sont basées sur la performance de l’algorithme en utilisant l’erreur hors-ligne normalisée et l’indice de Hill. Une étude expérimentale approfondie et exhaustive a montré l’ef- ficacité du modèle proposé qui a surpassé l’AG standard et l’AG basé sur le concept du partage dynamique des niches sur une gamme importante de problèmes d’optimisation dynamique. Il a également donné des résultats beaucoup plus performants que des techniques récentes qui ont participé à la compétition CEC 09. En plus, les études statistiques ont montré que notre modèle a donné des résultats plus performants que des algorithmes bien connus tels que l’Hy- permutation et les immigrants aléatoires, même si ces deux algorithmes ont été combinés avec le concept du partage dynamique des niches.

Notons que les expériences ont visé à tester nos algorithmes dans des situations bien diffé- rentes : le changement non détectable (récurrent bruité), parfois non cyclique (aléatoire) et la méconnaissance de la gravité des changements.

Ensuite une étude sur la diversité génétique a dévoilé que nos algorithmes ont gardé un niveau bien élevé en terme de diversité génétique par rapport aux autres algorithmes choisis commu- nément en littérature. Nos algorithmes ont la faculté de détecter plusieurs optima comme l’a montré l’expérience avec le critère de test du chapitre 2.

Cependant, ce travail peut être poursuivi et approfondi en effectuant les études suivantes : – exploiter les algorithmes concernant l’optimisation multimodale pour développer des al-

gorithmes hybrides appliqués aux problèmes d’optimisation dynamique multi objective ; – appliquer nos modèles aux problèmes du monde réel ;

– développer un algorithme hybride avec les essaims particulaires pour profiter de ses avan- tages dans la recherche locale ;

– exploiter les recherches dans le domaine des multi agents pour rendre les individus de la population plus actifs et qui apprennent d’une façon collaborative les changements d’environnement ;

– profiter des méthodes souvent utilisées dans les sciences sociales telle que la dynamique de groupes avec la notion du coordinateur et de leadership dans la population d’individus.

Bibliographie

Références bibliographiques

[1] A. Agrawal and I. Mitchell. Selection enthusiasm. In Proceedings of the 6th international conference on Simulated

Evolution And Learning, pages 449–456, Berlin, Heidelberg, 2006. Springer-Verlag. 50,53

[2] J. Alami, A. El Imrani, and A. Bouroumi. A multipopulation cultural algorithm using fuzzy clustering. Applied

Soft Computing, 7(2) :506–519, 2007. 28

[3] H. C. Andersen. An Investigation into Genetic Algorithms, and the Relationship between Speciation and the Tracking of Optima in Dynamic Functions. Honours thesis, Queensland University of Technology, Brisbane, Australia, 1991. 12

[4] P.J. Angeline. Adaptive and self-adaptive evolutionary computations. In Computational Intelligence : A Dynamic

Systems Perspective, pages 152–163. IEEE Press, 1995. 55

[5] P.J. Angeline. Tracking extrema in dynamic environments. In Proceedings of the 6th International Conference on

Evolutionary Programming VI. Springer-Verlag, 1997. 13,20

[6] V.S. Aragòn, S.C. Esquivel, and A.C. Coello. A t-cell algorithm for solving dynamic optimization problems.

Information Sciences, 181(17) :3614–3637, 2011. 28

[7] T. Bäck, D.F. Fogel, and Z. Michalewicz. Handbook of Evolutionary Computation. IOP Publishing Ltd and Oxford University Press, PA, USA, 1997. 9,11

[8] T. Bäck, D.F. Fogel, and Z. Michalewicz. Evolutionary Computation 1 Basic Algorithms and Operators. Institute of Physics Publishing, PA, USA, 2000. 8,9

[9] T. Bäck and M Schütz. Intelligent mutation rate control in canonical genetic algorithms. In Foundation of

Intelligent Systems 9th International Symposium, ISMIS ’96, pages 158–167. Springer, 1996. 66

[10] A.M. Bensaid, L.O. Hall, J.C. Bezdek, M.L. Clarke, L.P. ; Silbiger, J.A. Arrington, and R.F. Murtagh. Validity- guided (re)clustering with applications to image segmentation. IEEE Trans. on Fuzzy Systems, 4 :112–123, 1996.

34

[11] J. Bezdec. Pattern Recognition with Fuzzy Objective Function Algorithms. Plenum Press, New York, USA, 1981.

33,34,38

[12] T. Blackwell and J. Branke. Multiswarms, exclusion, and anti-convergence in dynamic environments. IEEE Trans.

Evolutionary Computation, 10(4) :459–472, 2006. 17

[13] P. Bosman and H. La Poutré. Computationally intelligent online dynamic vehicle routing by explicit load prediction in an evolutionary algorithm. In Parallel Problem Solving from Nature - PPSN IX, Lecture Notes in Computer Science, pages 312–321. Springer Berlin / Heidelberg, 2006. 2,18

[14] P. Bosman and H. La Poutré. Inventory management and the impact of anticipation in evolutionary stochastic online dynamic optimization. In IEEE Congress on Evolutionary Computation, pages 268–275. IEEE, 2007. 2,18

[15] A. Bouroumi and A. Essaïdi. Unsupervised fuzzy learning and cluster seeking. Intelligent Data Analysis, 4(3) :241– 253, 2000. 30,33,37,39,48

[16] J. Branke. Evolutionary Optimization in Dynamic Environments. Kluwer Academic Publishers, Dordrecht, 2002.

5,6,18,21,24,41,48,75,79

[17] J. Branke and D. Mattfeld. Anticipation in dynamic optimization : The scheduling case. In Parallel Problem

Solving from Nature PPSN VI, volume 1917 of Lecture Notes in Computer Science, pages 253–262. Springer Berlin

/ Heidelberg, 2000. 18

[18] J. Branke, L. Schmidt, and H. Schmeck. A multi-population approach to dynamic optimization problems. In

4th International Conference on Adaptive Computing in Design and Manufacture (ACDM 2000), pages 299–308,

Berlin, Germany, 2000. Springer. 2,17

[19] W Cedeño and V. R. Vemuri. On the use of niching for dynamic landscapes. In In Intl. Conf. on Evolutionary

Computation. IEEE, pages 361–366, 1997. 12

[20] G. Chen. Introduction to fuzzy sets, fuzzy logic, and fuzzy control systems. CRC Press, USA, 2001. 73

[21] H. Cheng and S. Yang. Multi-population genetic algorithms with immigrants scheme for dynamic shortest path routing problems in mobile ad hoc networks. In Applications of Evolutionary Computation, volume 6024 of Lecture

Notes in Computer Science, pages 562–571. Springer Berlin Heidelberg, 2010. 17

[22] H.G. Cobb. An investigation into the use of hypermutation as an adaptive operator in genetic algorithms having continuous, time-dependent non-stationary environments. TIK-Report 6760, NLR Memorandum, Naval Research Laboratory, Washington, D.C, USA, 1990. 13,14,44,56,76

[23] H.G Cobb. Genetic algorithms for tracking changing environments. In Proceedings of the Fifth International

Conference on Genetic Algorithms, pages 523–530. Morgan Kaufmann, 1993. 15

[24] Xiaoming Dai. Allele gene based adaptive genetic algorithm to the code design. IEEE Transactions on Commu-

nications, 59(5) :1253–1258, 2011. 56

[25] E.G. David, S. Kumara, and Hussein A. Sub-structural niching in non-stationary environments. In Proceedings of

the Australian Conference on Artificial Intelligence, pages 873–885, 2004. 12,28

[26] K. Deb and R.B. Agrawal. Simulated binary crossover for continuous search space. Complex Systems, 9(2) :115–148, 1995. 31,41,49,56,75,77,80

[27] K. Deb and D.E. Goldberg. An investigation of niche and species formation in genetic function optimization. In Schaffer (Ed) Proceedings of the Third International Conference on Genetic Algorithms, pages 42–50. Morgan Kaufmann„ 1989. 28

[28] K. Deb and A. Kumar. Real-coded genetic algorithms with simulated binary crossover :studies on multimodel and multiobjective problems. Complex Systems, 9(6) :431–454, 1995. 31,41,75

[29] K. A. DeJong. Evolutionary Computation : a unifed approach. MIT Press„ 2006. 7,25

[30] K.A DeJong. Parameter setting in eas : a 30 year perspective. In Parameter Setting in Evolutionary Algorithms, pages 1–18. 2007. 66

[31] J Derrac, S. García, D. Molina, and F. Herrera. A practical tutorial on the use of nonparametric statistical tests as a methodology for comparing evolutionary and swarm intelligence algorithms. Swarm and Evolutionary

Computation, 1(1) :3–18, 2011. 81

[32] M.C Du Plessis and A.P Engelbrecht. Using competitive population evaluation in a differential evolution algorithm for dynamic environments. European Journal of Operational Research, 218(1) :7–20, 2012. 28

[33] A. E. Eiben and S. K. Smit. Parameter tuning for configuring and analyzing evolutionary algorithms. Swarm and

Bibliographie

[34] A.E. Eiben and J.E. Smith. Introduction to Evolutionary Computing. Springer Verlag, 2007. 11,56

[35] A. El Imrani, A. Bouroumi, H. Zine El Abidine, M. Limouri, and A. Essaid. A fuzzy clustering-based niching approach to multimodal function optimization. Cogn. Syst. Res., 1(2) :119–133, June 2000. 28,29

[36] E. Enrique Alba and B. Sarasola. Measuring fitness degradation in dynamic optimization problems. In EvoAppli-

cations, pages 572–581, 2010. 26

[37] C.M. Fernandes, J.J. Merelo, and A.C. Rosa. A comparative study on the performance of dissortative mating and immigrants-based strategies for evolutionary dynamic optimization. Information Sciences, 181(20) :4428–4459, 2011. 28

[38] T.C Fogarty. Varying the probability of mutation in the genetic algorithm. In ICGA, pages 104–109, 1989. 66

[39] J Gan and K. Warwick. A variable radius niching technique for speciation in genetic algorithms. In GECCO, pages 96–103, 2000. 36

[40] M. Gen and R. Cheng. Genetic Algorithms and engineering applications. Wiley-interscience, 2004. 8

[41] D. E. Goldberg and J. Richardson. Genetic algorithms with sharing for multimodal function optimization. In Pro-

ceedings of the Second International Conference on Genetic Algorithms (ICGA ), pages 41–49. Lawrence Erlbaum

Associates, 1987. 16,36

[42] D. E. Goldberg and R. E. Smith. Nonstationary function optimization using genetic algorithm with dominance and diploidy. In Proceedings of the Second International Conference on Genetic Algorithms on Genetic algorithms

and their application, pages 59–68, NJ, USA, 1987. L. Erlbaum Associates Inc. 4

[43] D.E. Goldberg and L. Wang. Adaptative niching via coevolutionary sharing. TIK-Report 97007, Illinois Genetic Algorithms Laboratory, University of Illinois at Urbana-Champaign117 Transportation Building104 S. Mathews Avenue Urbana, IL 61801, 1997. 37

[44] J. J. Grefenstette and C. L. Ramsey. An approach to anytime learning. In Proceedings of the Ninth International

Conference on Machine Learning, pages 189–195. Morgan, 1992. 12

[45] J.J. Grefenstette. A hybrid immigrants scheme for genetic algorithms in dynamic environments. Int J Autom

Comput, 4(3) :243–254, 2007. 13,14

[46] G. Harik. Finding multimodal solutions using restricted tournament selection. In Proceedings of the Sixth Inter-

national Conference on Genetic Algorithms, pages 24–31. Morgan Kaufmann, 1995. 36

[47] G. Harik, E. Cantu-Paz, D.E. Goldberg, and B.L. Miller. The gambler’s ruin problem, genetic algorithms, and the sizing of populations. In IEEE International Conference on Evolutionary Computation, pages 7–12, 1997. 9

[48] K. Hemant, I. Amitay, T. Trung Thanh Nguyen, R. Tapabrata, and Y. Xin. Performance of infeasibility driven evolutionary algorithm (idea) on constrained dynamic single objective optimization problems. In IEEE Congress

on Evolutionary Computation, pages 3127–3134, 2009. 7

[49] R. Hendrik. Detecting change in dynamic fitness landscapes. In Proceedings of the Eleventh conference on Congress

on Evolutionary Computation, pages 1613–1620, NJ, USA, 2009. IEEE Press. 7

[50] F. Herrera, M. Lozano, and A.M. Sanchez. A taxonomy for the crossover operator for real-coded genetic algorithms : An experimental study. International Journal of Intelligent Systems, 18 :309–338, 2003. 9,49

[51] J. Hesser and R. Männer. Towards an optimal mutation probability for genetic algorithms. In Hans-Paul Schwefel and Reinhard Männer, editors, Parallel Problem Solving from Nature, volume 496 of Lecture Notes in Computer

Science, pages 23–32. Springer Berlin / Heidelberg, 1991. 66

[52] M.O. Hill. Diversity and evenness : a unifying notations and its consequences. Ecology Journal, 54 :427–431. 61

[53] J. Hollande. Adaptation in Natural and Artificial Systems. University of Michigan Press, Ann Arbor, MI, MI, USA, 1975. 1,8

[54] W.H. Hongfeng, I. Moon, S. Yang, and D. Wang. A memetic particle swarm optimization algorithm for multimodal optimization problems. Information Sciences, 197(0) :38–52, 2012. 28

[55] S. Janson and M. Middendorf. A hierarchical particle swarm optimizer and its adaptive variant. IEEE Transactions

on Systems, Man, and Cybernetics, Part B, pages 1272–1282, 2005. 14,28

[56] Stefan Janson and Martin Middendorf. A hierarchical particle swarm optimizer for noisy and dynamic environ-

Documents relatifs