• Aucun résultat trouvé

4.6 Optimisation multiobjectif par essaims particulaires basée sur la Clas-

4.7.1 Problèmes tests

Pour valider un algorithme, nous avons besoin d’un ensemble de fonctions tests. Cet ensemble doit être soigneusement choisi de façon à mettre à l’épreuve l’efficacité des méthodes étudiées dans diverses situations difficiles. En effet, un "bon" test doit être tel que :

1. il représente un danger particulier pour la convergence ou pour la diversité ; 2. la forme et la position de la surface de Pareto soient connues et les valeurs des

variables de décisions correspondantes soient faciles à trouver.

Dans la suite, nous utilisons le générateur de tests de Deb [Deb, 1999]. L’idée consiste à construire des tests à M objectifs, pour M ≥ 2. Nous commençons par partitionner le vecteur des variables de décision en M groupes.

x ≡ (x1, x2, · · · , xM)

Ensuite, à partir de M − 1 fonctions f1, · · · , fM −1, d’une fonction g positive et d’une

fonction h à M variables, on construit la fonction fM par :

fM(x) = g(xM)h(f1(x1), · · · , fM −1(xM −1), g(xM))

avec xm ∈ Rm pour m = 1, · · · , M − 1. Enfin, le problème d’optimisation est défini

par :

minimiser fm(xm)m=1,··· ,M −1, fM(x)

La surface optimale correspond ici aux solutions sur lesquelles la fonction g atteint son minimum e elle est donc décrite comme :

fM = g∗h(f1, · · · , fM −1, g∗)

ZDT1, ZDT2, ZDT3, ZDT6 et une à quatre objectif DTLZ7 que nous utilisons pour valider l’approche proposée. Notre choix s’est fixé sur ces fonctions tests car elles ont servi comme une base commune pour la comparaison des algorithmes evolutionnaires multi-Objectifs existants et pour l’évaluation des nouvelles techniques.

Fonction ZDT1

La fonction ZDT1 est la plus simple de cette ensemble, le front de Pareto cor- respondant étant continu, convexe et avec la distribution uniforme des solutions le long du front. ZDT 1 :      f1(x) = x1 g(x2) = 1 +n−19 Pn i=2xi h(f1, g) = 1 − q f1 g (4.14) où xi ∈ [0, 1] pour tout i = 1, · · · , n et n = 30.

Fonction ZDT2

La difficulté de cette fonction se présente dans la non-convexité du front de Pareto. ZDT 2 :    f1(x) = x1 g(x2) = 1 +n−19 Pn i=2xi h(f1, g) = 1 − (fg1)2 (4.15) où xi ∈ [0, 1] pour tout i = 1, · · · , n et n = 30.

Fonction ZDT3

La difficulté de cette fonction réside dans la discontinuité du front de Pareto.

ZDT 3 :      f1(x) = x1 g(x2) = 1 +n−19 Pn i=2xi h(f1, g) = 1 − q f1 g − ( f1 g) sin(10πf1) (4.16)

où xi ∈ [0, 1] pour tout i = 1, · · · , n et n = 30.

Fonction ZDT6

La particularité de ce problème est que les solutions optimales ne sont pas uni- formément distribuées le long du front de Pareto. Cet effet est due à la non-linéarité de la fonction f1. ZDT 6 :    f1(x) = 1 − exp(−4x1) sin6(4πx1) g(x2) = 1 + 9( Pn i=2n−1xi )1/4 h(f1, g) = 1 − (fg1)2 (4.17)

Fonction DTLZ7

Dans cette étude, nous utilisons une fonction DTLZ7 à 4 objectifs, le front de Pareto de cette fonction est discontinu et formé de 8 régions séparées dans l’espace de recherche, DT LZ7 :            f1(x1) = x1 f2(x2) = x2 f3(x3) = x3 g(x4) = 1 + |x94| Pn i=4xi h(f1, f2, f3, g) = 4 − P3 i=1[1+gfi (1 + sin(3πfi))] (4.18)

où xi ∈ [0, 1] pour tout i = 1, · · · , n et n = 23.

4.7.2

Résultats numériques

Les paramètres µ et ν, utilisés dans l’équation de la mise à jour du vecteur vitesse (équation 1.1), sont initialisés à 1.5 et 2.5 respectivement pour toutes les fonctions tests, la valeur de facteur d’inertie τ (t) se réduit pendant le processus [Venter et Sobieski, 2004] selon l’équation (4.19)

τ (t + 1) = τ (t)cτ (4.19)

est une constante entre 0 et 1, la valeur de cτ utilisée est 0.975, τ est intialisé à

1.4 et la taille de l’essaim est 200.

La figure (4.9) représente les fronts de Pareto des quatre fonctions tests ZDT1, ZDT2, ZDT3 et ZDT6 trouvés en utilisant l’algorithme FC-MOPSO. Il est clair que l’algorithme proposé peut produire presque un front de Pareto uniforme et complet pour chaque fonction.

4.7.3

Comparaisons avec d’autres techniques

Dans cette section, la comparaison entre les résultats obtenus par le modèle proposé FC-MOPSO et les techniques : interactive multi-swarm PSO [Wang et Yang, 2008], MOPSO [Coello et al, 2004] et MOPSO-CD [Raquel et Naval, 2005].

Le tabeau (4.1) représente la valeur moyenne et l’écart type des valeurs de GD concernant le modèle FC-MOPSO et les techniques : interactive multi-swarm PSO, MOPSO et MOPSO-CD.

D’après le tableau (4.1), La valeur de GD indique que l’algorithme proposé a obtenue la meilleure convergence pour toutes les fonctions par rapport aux algo- rithmes multi-swarm, MOPSO et MOPSO-CD. Ceci est confirmé par le paramètre GD, qui est égal à 3.6E − 05 (fonction ZDT1) pour l’algorithme FC-MOPSO et égal à 8.4E − 05, 2.5E − 02 et 1.0E − 02 pour l’interactive multiswarm PSO, MOPSO et MOPSO-CD respectivement. La même analyse peut être faite pour les fonctions ZDT2, ZDT3 et ZDT6.

(a) ZDT1 (b) ZDT2

(c) ZDT3 (d) ZDT6

Fig. 4.9 – Le front de Pareto final généré par l’algorithme FC-MOPSO. Tab. 4.1 – La moyenne et l’ecart type de la valeur de GD

Algorithme ZDT1 ZDT2 ZDT3 ZDT6 DTLZ7

Moyenne

FC-MOPSO 3.6E-05 9.3E-08 4.5E-06 5.7E-08 8.7E-03 Interactive multiswarm PSO 8.4E-05 1.1E-07 8.2E-06 1.1E-07 1.2E-02 MOPSO 2.5E-02 4.0E-03 7.3E-03 6.9E-03 1.8E-02 MOPSO-CD 1.0E-02 1.1E-02 1.3E-02 2.8E-02 1.9E-02

Ecart type

FC-MOPSO 1.88E-04 3.5E-07 8.4E-06 2.9E-07 1.2E-04 Interactive multiswarm PSO 2.6E-04 4.6E-07 2.2E-05 4.2E-07 3.2E-04 MOPSO 2.3E-03 6.0E-07 4.8E-04 1.0E-02 8.4E-02 MOPSO-CD 3.4E-03 4.9E-05 1.5E-04 1.5E-03 8.5E-04 Puisque le front de Pareto de DTLZ7 est l’intersection de la droite avec l’hyper- plan, la convergence est difficile. Cependant, FC-PSOMO arrive à améliorer la valeur de GD par rapport aux autres algorithmes.

Le tableau (4.2) représente la moyenne et l’écart type des valeurs de SP pour les quatre MOPSO algorithmes appliqués aux cinq fonctions tests. La valeur de SP montre que les solutions générées par l’algorithme proposé sont mieux distribuée que celles obtenues par les autres trois algorithmes pour toutes les fonctions tests.

Tab. 4.2 – La moyenne et l’écart type de la valeur de SP

Algorithme ZDT1 ZDT2 ZDT3 ZDT6 DTLZ7

Moyenne

FC-MOPSO 3.4E-04 8.7E-05 6.3E-04 1.19E-04 1.1E-02 Interactive multiswarm PSO 3.2E-03 3.8E-04 4.2E-03 8.8E-04 1.3E-02 MOPSO 1.1E-02 1.0E-02 2.3E-02 2.4E-03 8.4E-02 MOPSO-CD 1.6E-02 1.0E-02 1.6E-02 2.8E-03 4.8E-02

Ecart type

FC-MOPSO 6.5E-03 2.56E-04 2.3E-03 7.3E-04 1.4E-04 Interactive multiswarm PSO 7.3E-03 3.4E-04 1.4E-03 5.7E-04 1.9E-02 MOPSO 6.8E-03 8.4E-03 4.8E-04 9.5E-04 2.8E-02 MOPSO-CD 3.3E-03 3.4E-03 4.3E-03 5.7E-04 6.3E-02 Puisque le front de Pareto de ZDT3 n’est pas uniformément distribué, cette fonction peut être utilisée pour étudier la capacité de l’algorithme à maintenir une bonne distribution de solution. D’après les résultats obtenus pour la fonction ZDT3, on peut conclure que la distribution des solutions est améliorée par l’utilisation de FC- MOPSO. En fait, la vaeur de SP est égal à 6.3E − 04 pour le modèle FC-MOPSO et égal à 4.2E −03, 2.3E −02 et 1.6E −02 pour interactive multi-swarm PSO, MOPSO et MOPSO-CD respectivement. La même analyse peut être faite pour les fonctions ZDT1, ZDT2, ZDT6 et DTLZ7.

Les résultats de simulation montre que l’algorithme proposé accompli les meilleurs performances par rapport aux autres méthodes en terme de la qualité des solutions trouvées, prouvée par les valeurs de GD et de SP.

4.8

Conclusion

Dans ce chapitre, une nouvelle approche d’optimisation multiobjectif par essaims particulaires basé sur classification floue est présentée. Cette approche incorpore la dominance de Pareto, la classification floue, la séparation spatiale et la procédure de migration.

L’avantage principal de cette approche est qu’elle permet de former des sous- essaims sans information à priori sur la distribution de données en employant la technique de classification floue, un mécanisme de séparation spatiale est implé- menté afin d’introduire une géographie locale dans l’espace de recherche permettant à chaque sous essaim une recherche locale dans son propre sous espace, une procé- dure de migration est également implémenté pour maintenir une diversité au sein des sous essaims, permettant ainsi l’amélioration de la qualité des solutions.

L’implémentation de cette technique, pour la résolution de différentes fonctions multiobjectives, montre que le modèle FC-MOPSO fournit de meilleures perfor- mances, comparativement aux autres modèles tels que : interactive multi-swarm PSO, MOPSO et MOPSO-CD, en terme de la qualité des solutions trouvées. Ceci est due d’une part à l’utilisation de classification floue qui permet de partition- ner l’essaim en un ensemble de sous-essaims, chaque sous-essaim est traitée par un PSOMO, et d’autre part à l’application de procédure de migration qui permet de promouvoir une certaine diversité au sein des sous-essaims.

Cette approche surmonte les problèmes que présentent les méthodes d’optimisa- tion multiobjectif par essaims particulaires, en effet, elle n’utilise aucune archive externe et ainsi les complexités temporelles et spatiales sont réduites.

En conclusion, généralement, pour des problèmes réels, dans lesquels on ne dis- pose d’aucune information sur l’espace de recherche, l’approche proposée peut être efficacement appliquée. En fait, elle exige moins de connaissances sur le problèmes à résoudre par rapport aux autres techniques multiobjectives.

Conclusion générale

L’essor de l’informatique et des techniques d’intelligence artificielle a conduit ces dernières années à un développement sans précédent des procédés d’optimisation automatique qui peuvent aujourd’hui prendre en compte de plusieurs paramètres. En particulier, les méthodes évolutionnistes ont connu depuis le début des années soixante une croissance exponentielle en s’affirmant peu à peu comme des techniques performantes comparativement aux techniques traditionnelles. Cette performance est due à leur aptitude à apprendre, évoluer et effectuer des traitements en un temps de calcul réduit, et à leur capacité à gérer avec efficacité des incertitudes et des imprécisions dans un environnement donné.

Sur la base de ce nouveau thème de recherche, cette thèse a consisté, en une investigation de l’algorithme d’optimisation par essaims particulaires, d’une part, en optimisation globale, de problèmes difficilement solubles exactement. D’autre part, elle a porté sur l’étude de l’optimisation multimodale et multiobjectif.

Dans un premier temps, une étude exhaustive des différentes techniques de calculs ’intelligent’, notamment les techniques de calcul évolutif qui s’inscrivent dans le cadre de l’optimisation, a été effectuée. Cela nous a permis de maîtriser le fonctionnement de ces techniques et de les implémenter pour résoudre des problèmes réels.

L’application de PSO, pour l’optimisation globale, n’était pas une tâche évidente. En effet, elle a nécessité une phase préliminaire d’adaptation de la méthode utilisée au problème étudiée, notamment, pour le problème d’affectation de fréquence dans les réseaux cellulaires qui a nécessité une adaptation de l’algorithme à l’optimisation discrète. De plus, un bon réglage des paramètres est toujours indispensable pour l’obtention de bonnes solutions.

Les performances de PSO ont été aussi validées sur un problème continu, qui consistait à optimiser la commande d’une machine synchrone à aimant permanent. Les résultats obtenus montrent que la maitrise de ces différents modèles et un bon réglage des paramètres permettent de fournir de très bonnes performances.

Cependant, dans leur version de base, les techniques d’optimisation sont inca- pables de gérer efficacement des domaines caractérisés par plusieurs optima (ce qui est le cas généralement dans la plupart des applications réelles), puisque à l’origine

elles ont été conçues pour l’optimisation globale. Par ailleurs, il est souvent indis- pensable d’identifier toutes les solutions possibles, aussi bien globales que locales. En effet, l’utilisateur a généralement besoin de l’ensemble de solutions possibles afin de choisir la meilleure solution qui fournit un bon rapport qualité/prix.

De ce fait, plusieurs techniques d’optimisation multimodale, basées sur l’analogie avec les niches écologiques, ont été proposées dans la littérature pour ce type de problèmes. Toutefois, de nombreuses limitations apparaissent dans l’utilisation de ces modèles. Elles sont liées principalement aux paramètres spécifiés par l’utilisateur, i.e., rayon de niche, disposition des niches dans l’espace, etc. Ces difficultés peuvent souvent induire des résultats erronés.

Dans ce contexte, le présent travail a porté sur la conception de nouvelle technique, basée sur l’algorithme d’optimisation par essaims particulaires et une procédure de classification floue MPSO, a été proposé. Cette approche permet l’exploration pa- rallèle de plusieurs régions de l’espace de recherche en partitionnant la population en plusieurs sous-populations d’essaims, chaque sous-essaim étant traité indépen- damment par un algorithme PSO.

Pour localiser les différentes solutions, une procédure de classification floue non supervisée a été intégrée. Cette procédure permet, en effet, de regrouper les solutions en différentes classes. Le représentant de chaque classe identifiée étant l’optimum requis. L’intérêt de cette stratégie réside dans le fait qu’elle n’a besoin d’aucune information a priori sur le problème à résoudre, notamment le nombre d’optima recherché, la séparabilité des classes, etc.

Une stratégie de migration, qui permet d’avoir un échange entre les sous-essaims dans la structure multi-essaims, est appliquée afin de promouvoir un certain degré de diversité au sein des essaims et d’améliorer la qualité des solutions trouvées.

Les résultats d’optimisation relatifs aux différentes fonctions tests, et les compa- raisons avec d’autres modèles montrent l’efficacité du modèle proposé, plus spécifi- quement, en termes de la qualité des solutions identifiées et du nombre d’évaluations de la fonction fitness requis pour la convergence. Cela peut être expliqué par le fait que ce modèle fournit un bon équilibre entre exploitation/exploration des différentes régions prometteuses de l’espace de recherche.

La dernière partie du présent travail a consisté en conception d’un nouveau modèle d’optimisation multiobjectif par essaims particulaires FC-MOPSO, basée sur PSO, la dominance de Pareto et la classification floue. La nouveauté principale de ce modèle consiste en utilisation d’un mécanisme qui permet de fournir une meilleure distribution des solutions sur l’ensemble Pareto-optimal.

Grace à l’utilisation de la technique FC, cette approche permet de promouvoir et maintenir la formation de sous-populations d’essaims. Chaque sous-essaim a son

propre ensemble de leaders (les particules non-dominées) et évolue en utilisant l’al- gorithme PSO et le concept de la dominance de Pareto. Le concept de migration est également implémenté pour maintenir la diversité des sous-essaims, et améliorer la qualité des solutions trouvées.

Les résultats de simulation obtenus ont prouvé les performances du modèle pro- posé. Cependant, la plupart des techniques d’optimisation multiobjectif basées sur PSO, reportées dans la littérature, ont été limitées au choix de paramètres de réglage, et l’utilisation d’archives externes, ce qui introduit des complexités temporelles et spatiales additionnelles.

Références Bibliographiques

1. Aardal K. I., Hipolito A., Van Hoesel S., Jansen B., (1995). A Branch-and-Cut Algorithm for the Frequency Assignment Problem, Technical Report Annex T-2.2.1 A, CALMA project, T.U. Eindhoven and T.U. Delft.

2. Akcayol M. A., Cetin A., Elmas C., (2002). An Educational Tool for Fuzzy Logic-Controlled BDCM, IEEE Transactions On Education, Vol. 45, No. 1, pp. 33-42.

3. Alami J., Benameur L., El Imrani A., (2007). Fuzzy clustering based parallel cultural algorithm. International Journal of Soft Computing Vol.2(4), 562-571. 4. Alami J., Benameur L., El Imrani A. (2009) A Fuzzy Clustering based Par- ticle Swarms for Multimodal Function Optimization. International Journal of Computational Intelligence Research, ISSN 0974-1259. Vol.5, No.2 (2009), pp. 96-107.

5. Alami J., El Imrani A., Bouroumi A., (2007). A multipopulation cultural algo- rithm using fuzzy clustering. In journal of Applied Soft Computing Vol.7 (2), 506-519.

6. Alami J., El Imrani A., (2006). A Hybrid Ants Colony Optimization for Fixed- Spectrum Frequency Assignment Problem, Colloque International sur l’Infor- matique et ses Applications IA 2006, 231-235, Oujda, Maroc.

7. Alami J., El Imrani A., (2007). Using Cultural Algorithm for the Fixed- Spectrum Frequency Assignment Problem. in the Journal of Mobile Commu- nications.

8. Allenson R., (1992). Cenetic Algorithm with Gender for Multi-Function Op- timisation, TR. EPCC-SS92-01, Edinburgh Parallel Computing Center, Edin- burgh, Scotland.

9. Alvarez-Benitez J. E., Everson R.M., Fieldsend J. E. (2005). A MOPSO algo- rithm based exclusively on pareto dominance concepts. In Third International

Conference on Evolutionary Multi-Criterion Optimization, EMO2005, pp 459- 473, Guanajuato, México, LNCS3410, Springer-Verlag.

10. Amat J.L., Yahyaoui G.,(1996). Techniques avancées pour le traitement de l’information. Cépadués Editions.

11. Arias M. A. V, Pulido G. T. , C. A. C. Coello (2005). A proposal to use stripes to maintain diversity in a multi-objective particle swarm optimizer. In Proceedings of the 2005 IEEE Swarm Intelligence Symposium, pp 22-29, Pa- sadena,California, USA, June.

12. Bäck T., Hammel U., Schweffel F-P., (1997). Evolutionary Computation : Comments on the history and current state. IEEE transactions on Evolutio- nary Computation, 1(1), 3-17.

13. Bartz T.B., Limbourg P., Parsopoulos K. E., Vrahatis M. N., Mehnen J., Schmitt K., (2003). Particle swarm optimizers for pareto optimization with enhanced archiving techniques. In Congress on Evolutionary Computation (CEC’2003), volume 3, pages 1780-1787, Canberra,Australia,December. 14. Baumgartner U., Magele Ch., Renhart W., (2004). Pareto optimality and par-

ticle swarm optimization. IEEE Transactions on Magnetics, 40(2) :1172-1175, March.

15. Beasley D., Bull D.R., Martin R.R., (1993 ). A sequential niche technique for multimodal function optimization. Evolutionary Computation 1(2), 101-125. 16. Beckers R., Deneubourg. J.L. Goss. S., (1992). Trails and U-turns in the se-

lection of the shortest path by the ant Lasius Niger. Journal of Theoretical Biology, vol. 159, pp. 397-415.

17. Benameur L., Alami J., Loukdache A., El Imrani A., (2007). Particle Swarm Based PI Controller for Permanent Magnet Synchronous Machine. Journal of Engineering and Applied Sciences 2 (9) : 1387-1393.

18. Benameur L., Alami J., El Imrani A. (2009a). Frequency Assignment Problem Using Discrete Particle Swarm model. International Conference on Multime- dia Computing and Systems ICMCS/IEEE 09. Avril 02-04 Ouarzazate. 19. Benameur L., Alami J., El Imrani A. (2009b). A New Discrete Particle Swarm

model for the Frequency Assignment Problem. In proced. of IEEE/AICCSA 2009, pp. 139-144. Rabat, Morocco, May 10-13.

20. Benameur L., Alami J., El Imrani A., (2009c). A New Hybrid Particle Swarm Optimization Algorithm for Handling Multiobjective Problem Using Fuzzy

Clustering Technique. In proced. of the International Conference on Compu- tational Intelligence, Modelling and Simulation, Brno,czech republic : 48-53. 21. Benameur L., Alami J., El Imrani A., (2009d). Using fuzzy clustering Tech-

niques to improve the performance of a multiobjective particle swarm optimi- zer.International Journal of Computational Science 3(4) : 436-455. .

22. Benameur L., Alami J., El Imrani A., (2010). A hybrid discrete particle swarm algorithm for solving the fixed-spectrum frequency assignment problem. Inter- national Journal of Computational Science and Engineering. 5(1) :68-73. 23. Bezdek J. C., (1981). Pattern recognition with fuzzy objective function algo-

rithms. (Plenum Press, New York).

24. Bezdek J. C., (1992). On the relationship between neural networks, pattern recognition and intelligence. International journal of approximate reasoning, (6), 85-107.

25. Bezdek K., (1994). On affine subspaces that illuminate a convex set, Contri- butions to Alg. and Geom. 35/1, 131-139.

26. Bouroumi A., Limouri M., Essaid A., (2000). Unsupervised fuzzy learning and cluster seeking. Intelligent Data Analysis journal 4 (3-4), 241-253.

27. Brits R., Engelbrecht A., Van den Bergh F., (2002a). Solving systems of un- constrained equations using particle swarm optimization. Proceedings of the IEEE Conf. on Systems, Man, and Cybernetics, Tunisa, Vol.3, no.pp.6. 28. Brits R., Engelbrecht A., Van den Bergh F., (2002b). A niching particle swarm

optimizer. Wang, L., Tan, K.C., Furuhashi, T., Kim, J.H., Yao, X., eds., Pro- ceedings of the 4th Asia-Pacific Conf. on Simulated Evolution and Learning,

Vol. 2, (Singapore) 692-696.

29. Brits R., Engelbrecht A., van den Bergh F.,(2007). Locating multiple optima using particle swarm optimization, Applied Mathematics and Computation, 189, pp 1859-1883.

30. Charnes A., Cooper W., (1961). Management Models and Industrial Applica- tions of Linear Programming, vol 1, John Wiley, New-york.

31. Cheng R-H., Yu C. W., Wu T-K., (2005). A Novel Approach to the Fixed Channel Assignment Problem. Journal of Information Science and Enginee- ring 21, 39-58.

32. Chow C.k. , Tsui H.t., (2004). Autonomous agent Response learning by a multi-species particle swarm optimization. In Congress on Evolutionary Com- putation (CEC’2004), volume 1, pp 778-785, Portland, Oregon,USA, June. IEEE Service Center.

33. Chung. C. J., (1997). Knowledge Based Approaches to Self Adaptation in Cultural Algorithms. PhD thesis, Wayne State University, Detroit, Michigan. 34. Coello C. A.C., (1995). Multiobjective design Optimization of Counterweight Balancing of a Robot Arm using genetic Algorithm, Seventh International Conference on Tools with Artificial Intelligence, p. 20-23.

35. Coello C. A.C., (1996). An Empirical study of Evolutionary Techniques for Multiobjective Optimization in Engineering Design, Ph.D. Thesis, Depart- ment of Computer sciences, Tulane University, New Orleans.

36. Coello C. A. C., (1999). A comprehensive survey of evolutionary based mul- tiobjective optimization techniques. Knowledge and Information Systems. An International Journal, 1(3) :269-308, August.

37. Coello C. A.C., Pulido G.T., (2001). Multiobjective Optimization using a Micro-genetic Algorithm, In proceedings of the Genetic and Evolutionary Com- putation Conference (GECCO’2001), pp. 274-282, San Francisco, California. 38. Coello C.A.C.,.Veldhuizen D.A.V, Lamont G. B, (2002). Evolutionary Algo-

rithms for Solving Multi-Objective Problems. Kluwer Academic Publishers, NewYork,May.

39. Coello C. A. C., Lechuga M. S, (2002). MOPSO : A proposal for multiple ob- jective particle swarm optimization. InCongressonEvolutionary Computation (CEC’2002), volume 2, pp. 1051-1056, Piscataway, New Jersey, May.

40. Coello, C. A., Pulido, G. T., Lechuga, M. S, (2004). Handling Multiple Objec- tives with Particle Swarm Optimization, IEEE Transactions on Evolutionary Computation 8(3), pp. 256-279.

41. Colette Y., Siarry P., (2002). Optimisation multiobjectif, Edition Eyrolles. 42. Corne D.W, (2001). PESA II : Region-based Selection in Evolutionary Mul-

tiobjective Optimization, In Proceedings of the Genetic and Evolutionary Computation Conference (GECCO’2001), pp. 283-290, San Francisco, Cali- fornia.

43. Crompton W., Hurley S., Stephens N. M., (1994). A parallel genetic algorithm for frequency assignment problems, in Proceedings of the IMACS, IEEE Confe- rence on Signal Processing, Robotics and Neural Networks, Lille, France, pp. 81 -84.

44. Deb K., Goldberg D. E. (1989). An investigation of niche and species formation in genetic function optimization. In J. David Schaffer, editor, Proceedings of the Third International Conference on Genetic Algorithms, pp. 42-50, San Ma- teo, California, June. George Mason University, Morgan Kaufmann Publishers. 45. Deb K.,(1999). Multi-objective genetic algorithms : Problem difficulties and construction of test problems. Evolutionary Computation Journal, 7(3), pp. 311-338.

46. Deb, K., (2000). A Fast Elitist Non-Dominated Sorting Genetic Algorithm for Multiobjective Optimization : NSGA II, Parallel problem Solving form Nature-PPSN VI, Springer lecture Notes in computing Science, p. 849-858. 47. Deb, K., (2001). Multiobjective Optimization Using Evolutionary Algorithms,

John Wiley and Sons.

48. Deb K., Jain S., (2002). Running Performance Metrics for Evolutionary Multi- objective Optimization, Tech. rep, KanGAL Report.

49. Deb K., Pratap A., Agarwal S., Meyarivan T., (2002). A fast and elitist mul- tiobjective genetic algorithm : NSGA-II. IEEE Transactions on Evolutionary Computation, 6(2), pp. 182-197, April.

Documents relatifs