• Aucun résultat trouvé

Comparaisons avec d’autres techniques

3.5 Conception d’un nouveau modèle d’optimisation multimodale (MPSO)

3.6.3 Comparaisons avec d’autres techniques

Dans cette section, la comparaison entre les résultats obtenus par le modèle proposé MPSO, le modèle MCAFC et les techniques de partage, Nichage séquentiel SNGA (Sequential Niched Genetic Algorithm) [Beasley et al, 1993], SPSO (Species Particle Swarm Optimization) [Li, 2004] , Niche PSO [Brits et al 2007], nbestPSO [Brits et al 2002a] et SCGA (Species Conserving Genetic Algorithm) [Li et al, 2002] est présentée.

3.6.3.1. Comparaison entre le modèle MPSO, MCAFC et la méthode de partage

L’efficacité des méthodes d’optimisation multimodale est relative à leur capa- cité à maintenir les maximums des fonctions, à identifier les solutions qui sont plus proches des optima théoriques et à voir le plus petit temps de calcul. Ces per- formances peuvent être résumées en leurs capacités à assurer le meilleur rapport qualité-prix.

Le tableau (3.6) présente la valeur moyenne des 3 critères de performance (MPR, NPM et NFE), des modèles MPSO, MCAFC et la technique de partage, relatives aux quatre fonctions tests F4, F5, F6, et F7. Ces valeurs moyennes sont obtenues en exécutant les deux techniques 10 fois.

Tab. 3.6 – Comparaison entre le modèle MPSO, MCAFC et la méthode de partage

Nombre de Pics Rapport de pics Nombre Effectif

Maintenus(NPM) maintenus(MPR) d’Evaluations (NFE)

Techniques F4 F5 F6 F7 F4 F5 F6 F7 F4 F5 F6 F7

MPSO 5 3 4 25 1 1 1 1 1600 1720 1880 17600

MCAFC 5 3 4 25 1 1 1 1 2700 1280 1800 13800

Partage 5 2.3 4 20.2 0.99 0.73 0.89 0.79 20000 40000 12150 73000

Le tableau (3.6) montre que la technique de partage est capable d’identifier tous les optima de F4 à chaque exécution. Cependant, pour quelques exécutions, elle n’arrive pas à localiser toutes les solutions possibles de F5, F6 et F7. Par contre, la moyenne du critère NPM indique que les modèles MPSO et MCAFC ont pu localiser tous les optima des 4 fonctions tests pour les différentes exécutions.

De plus, la valeur moyenne du critère MPR relative aux trois techniques, indique que la qualité des optima identifiés par les approches PMSO et MCAFC est meilleure que celle obtenue par la technique de partage.

Il est évident que les deux approches PMSO et MCAFC convergent plus rapide que la technique de partage pour toutes les fonctions. On peut remarquer que MCAFC converge légèrement plus rapide que PMSO pour les fonctions F5, F6 et F7.

En conclusion, la comparaison entre les résultats obtenus par la méthode de par- tage, MPSO et MCAFC confirme l’utilité et la capacité des approches MPSO et MCAFC d’assurer un meilleur rapport qualité/coût.

3.6.3.2. Comparaison entre les modèles MPSO, MCAFC, SNGA et SCGA Pour permettre la comparaison entre le modèle proposé, MCAFC, SNGA [Beas- ley et al, 1993] et SCGA [Li et al, 2002], cette section présente les résultats obtenus relatifs aux fonctions F1 et F6. Le tableau (3.7) présente la valeur moyenne, calculée après 30 exécutions, du critère NFE et le taux de réussite des quatre méthodes à identifier tous les optima.

Tab. 3.7 – Comparaison des critères de performance pour les fonctions F1 et F6.

SNGA SCGA MCAFC MPSO

Fonction Nombre NFE Taux de NFE Taux de NFE Taux de NFE Taux de

d’optima réussite réussite réussite réussite

F1 5 1900 99% 3310 100% 1120 100% 1583.33 100%

F6 4 5500 76% - - 1800 100% 1880 100%

Comme montré dans le tableau (3.7), les deux techniques MCAFC et MPSO sont capables d’identifier toutes les solutions optimales des fonctions F1 et F6 avec un taux de 100% à chaque exécution. Toutefois, le nombre d’évaluations, requis pour la convergence du modèle MCAFC est inférieur à celui requis par la technique MPSO. 3.6.3.3. Comparaison de MPSO avec les méthodes de nichage basées sur PSO

Cette section présente la comparaison entre les résultats obtenus par le modèle proposé MPSO et les techniques : niche PSO, gbest PSO, nbest PSO et SPSO, relatives aux cinq fonctions tests F1, F2, F3, F4 et F6.

Le tableau (3.8) présente la valeur moyenne, calculée après 30 exécutions, du critère NFE et le taux de réussite des quatre méthodes à identifier tous les optima. Tab. 3.8 – Comparaison des critères de performance pour les fonctions F1, F2, F3,

F4 et F6

Fonctions NichePSO nbestPSO MPSO

tests NFE ± dev Taux de NFE ± dev Taux de NFE ± dev Taux de

réussite réussite réussite

F1 2372± 109 100 4769± 45 93 1583.33± 135.55 100 F2 2934± 475 93 - - 1670± 106.66 100 F3 2404± 195 100 4789± 51 93 1560± 293.33 100 F4 2820± 517 93 - - 1600± 53.33 100 F6 2151± 200 100 5008± 562 100 1800± 66.66 100 Average 2536.2 97.2 4855.34 95.34 1642.66 100

Selon le tableau (3.8), nous constatons que le modèle proposé et NichePSO sont capables d’identifier toutes les solutions des fonctions F1,F2 et F6 avec un taux de 100% pour toutes les exécutions. de plus, le nombre d’évaluations, requis pour la convergence, du modèle MPSO est inférieur à celui requis par les techniques NichePSO et nbestPSO.

La performance du modèle proposé est également confirmée par les résultats ob- tenus pour la fonction F8 (avec une dimension variante entre 2 et 6).

Le tableau (3.9) présente la moyenne des critères de performance correspondants aux modèles MPSO et SPSO.

Tab. 3.9 – Comparaison des critères de performance associés à F8

SPSO MPSO

NFE NFE Nombre

Dimension (Moyen ± stand. Taux de (Moyen ± stand. Taux de d’optima

dev.) succés dev.) succés identifiés

2 3711.67± 911.87 100% 3120 ± 812 100% 32.3

3 9766.67± 4433.86 100% 6760 ± 3150.67 100% 25.6

4 36606.67± 14662.38 33.3% 30660 ± 13568.33 100% 31

5 44001.67± 10859.84 26.7% 43100 ± 11000.5 90% 29.5

6 50000.00± 0.00 0% 51100 ± 10325 85% 22

D’après le tableau (3.9), l’efficacité de la nouvelle approche MPSO est validée par la valeur moyenne du nombre d’évaluations nécessaire pour la convergence, ainsi que par le nombre d’optima localisés, aussi bien globaux que locaux, et ce même lorsque la dimension de la fonction augmente. Cependant, la technique SPSO cherche seule- ment les minimums globaux et elle n’arrive pas à les localiser quand la dimension de la fonction augmente. Par exemple, pour la fonction F8 de dimension 6, MPSO identifie 22 optima avec un taux de succès de 85% tandis que SPSO ne localise aucun optima.

3.7

Conclusion

Dans ce chapitre, nous avons présenté une nouvelle technique d’optimisation multimodale basée sur l’intelligence collective des essaims particulaires. Cette nou- velle technique est proposée pour deux raisons : 1) soit pour pallier aux limitations des algorithmes de base, soit 2) pour résoudre les problèmes liés au réglage des paramètres, lorsqu’on est confronté à un problème d’optimisation multimodale.

Cette technique utilise une procédure de classification automatique floue pour promouvoir la formation de multiples sous-essaims et par conséquent la localisation simultanée des différents optima. Une stratégie de migration est aussi appliquée afin de promouvoir un certain degré de diversité au sein des essaims et d’améliorer la qualité des solutions trouvées.

L’objectif étant d’améliorer les performances des techniques de niche reportées dans la littérature, basées sur PSO, ces techniques sont limitées par le réglage des paramètres qui peut influencer la qualité et le nombre de solutions escomptées.

Les résultats de simulation montre que l’algorithme MPSO accompli les meilleurs performances par rapport aux autres méthodes de nichage basées sur PSO, celà est expliqué par le fait que cette approche utilise un mécanisme qui permet de sub- diviser l’essaim en des sous-essaim sans avoir aucune information préalable sur la distribution de données, et ainsi, le rayon de niche est automatiquement calculé. L’algorithme MPSO permet donc de surmonter le problème majeur des autres tech- niques de nichage, basées sur PSO, qui réside dans l’estimation de rayon de niche.

En conclusion, l’algorithme MPSO fournit de meilleures performances compara- tivement aux autres modèles en assurant un meilleur rapport qualité/prix. Le prix reflète le temps de calcul nécessaire pour la localisation de toutes les solutions re- quises.

Chapitre 4

Conception d’un nouveau modèle

pour l’optimisation multiobjectif

4.1

Introduction

Les problèmes d’optimisation multiobjectifs (POMs) sont très fréquents dans le monde réel. Dans un tel problème, les objectifs à optimiser sont normalement en conflit entre eux, ce qui signifie qu’il n’y a pas une seule solution de ce problème. Un POM est résolu lorsque toutes ses solutions Pareto optimales sont trouvées. Ce- pendant, il est impossible de trouver l’ensemble total de solutions Pareto-optimales, parce que le nombre de solutions, non-dominées, augmente très rapidement avec l’augmentation des objectives [Deb, 2001 ; DiPierro et al, 2007 ; Farina et Amato, 2004]. En pratique, l’utilisateur n’a besoin que d’un nombre limité de solutions bien distribuées le long de la frontière optimale de Pareto, ce qui rend la tâche d’un POM relativement plus facile.

Plusieurs algorithmes d’optimisation multiobjectifs par essaims particulaires ont été récemment proposés [Sierra et Coello, 2006], la plupart de ces algorithmes uti- lisent des archives externes pour stocker les solutions non-dominées trouvées le long du processus de recherche. Cependant, l’utilisation des archives fournit des com- plexités temporelles et spatiales additionnelles. Les derniers travaux proposent l’uti- lisation de méthodes inspirées des stratégies d’évolution pour améliorer les perfor- mances de ces algorithmes, cette idée a portant un prix : l’augmentation du nombre des paramètres de réglages et la complexification de l’écriture des algorithmes.

Dans ce chapitre, un nouveau modèle, l’algorithme d’optimisation multiobjectif par essaims particulaires FC-MOPSO (Fuzzy Clustering Multi-objective Particle Swarm Optimizer), basée sur PSO, la dominance de Pareto et la classification floue, est proposé. La nouveauté principale de ce modèle consiste en utilisation d’un mé- canisme qui permet de fournir une meilleure distribution des solutions dans l’espace de recherche.

Le but principal du modèle proposé est de surmonter la limitation associée à l’opti- misation multiobjectif par essaims particulaires standard. L’idée fondamentale, der- rière cette approche est de promouvoir et maintenir la formation de sous-populations d’essaims en utilisant la technique FC. Chaque sous-essaim a son propre ensemble de leaders (les particules non-dominées) et évolue en utilisant l’algorithme PSO et le concept de la dominance de Pareto. Le concept de migration est également im- plémenté pour maintenir la diversité des sous-essaims, et améliorer la qualité des solutions trouvées.

Dans ce chapitre, les différentes techniques utilisées dans le contexte d’optimisa- tion multiobjectif seront décrites. Enfin la structure de base, du modèle proposé, sera présentée en détail, validée par plusieurs fonctions tests et comparée à d’autres modèles.

Documents relatifs