• Aucun résultat trouvé

Méthodes d’optimisation basées sur l’algorithme génétique

Chapitre IV : Optimisation multi objectifs des corrections de forme

IV.2. Optimisation multi objectif : Etat de l’art

IV.2.3. Méthodes d’optimisation basées sur l’algorithme génétique

IV.2.3.1. Introduction

L’algorithme génétique est une technique d'optimisation très robuste également adaptée aux problèmes où plusieurs critères sont à prendre en considération [144]–[153]. L’idée de base consiste à prendre une population de solutions et à les manipuler grâce à différentes techniques (crossover, mutations,..) afin de déterminer le front de Pareto. Schaffer [144] est l’un des premiers à avoir appliqué un algorithme génétique à l’optimisation multicritère. Il a développé pour cela l’Algorithme Génétique à Évaluation Vectorielle ou VEGA. Cette méthode consiste à diviser la population en un nombre de fractions d’individus (sous-populations) égal au nombre de critères du problème. Des sélections sont réalisées pour chacune des fractions selon le critère défini, les fractions étant ensuite rassemblées pour obtenir une nouvelle population. A ce moment, interviennent les opérateurs classiques de mutation et croisement. Cette première méthode VEGA a toutefois conduit à des convergences prématurées vers des minimums propres à chacun des critères. Pour pallier à ce problème tout en préservant la diversité des individus, Horn et al. [146] ont proposé une méthode appelée NPGA (Niched Pareto Genetic Algorithm) basée sur une fonction de partage définie à travers le concept de niche. Les auteurs définissent une niche comme un

Domaine D

Domaine des fonctions objectifs

Front de Pareto

ensemble stable d’individus très proches les uns des autres et qui partagent les mêmes ressources ce qui influe sur la force d’un tel individu. L’individu, dans la plus petite niche comptant le moins d’individus sur un rayon prédéfini, est sélectionné. De même, une sélection par tournoi, basée sur le concept de dominance de Pareto est conduite d’une façon aléatoire. Une nouvelle population est ensuite obtenue à travers le croisement et la mutation. Pour faire intervenir les préférences du concepteur, Fonseca et al. [147] ont proposé la méthode MOGA (Multiple Objective Genetic Algorithm) où une fonction de dominance de Pareto est couplée à un module décrivant les préférences du concepteur. Ainsi, le but essentiel de la méthode n’est plus de définir toute la zone de compromis (zone de Pareto dont l’étendue peut être importante) mais de fournir un outil direct d’aide à la décision en intégrant un module sous la forme des cibles à atteindre (ou préférences). Une autre méthodologie appelée

SPEA (Strengh Pareto Evolutionary Algorithm) a été présentée par Zitzler et al. [148]. Les points de la zone de Pareto sont définis à travers leurs forces. En effet, la force attribuée à un point d’une population correspond au nombre de points qui le dominent. De ce fait, les points non-dominés, et surtout les points isolés parmi eux, auront une force exercée plus faible et par suite plus de chance de se reproduire ultérieurement lors de la sélection. Le calcul de la force peut s'effectuer, comme proposé dans NSGA-I (Non Dominated Sorting Genetic Algorithm I) [149], en divisant la population en plusieurs sous-ensembles en fonction du degré de dominance au sens de Pareto de chaque individu. Cette méthode utilise la méthode de nichage « sharing » complexe et délicate à imbriquer puisqu’elle nécessite le réglage de plusieurs paramètres. Une amélioration a été apportée par la méthode NSGA-II (Non Dominated Sorting Genetic Algorithm II) [150] grâce au remplacement de la fonction « sharing » par une fonction de « crowding ». A chaque individu sont désormais associées deux caractéristiques : le rang de non dominance et la distance de « crowding». En outre, pour remédier à la critique de non élitisme présentée dans NSGA I, cette méthode utilise une sélection par tournoi tout en conservent un nombre d’individus Pareto-optimaux trouvés au cours du temps.

Toutes ces méthodes définissent généralement un ensemble de solutions non dominées (front de Pareto). Les résultats diffèrent principalement au niveau de la répartition des solutions sur le front de Pareto et de la vitesse de convergence. Un état de l’art complet peut être trouvé dans [151] et [152].

Toutefois, les fronts de Pareto étant déterminés, l’expérience du concepteur reste toujours nécessaire pour faire les bons choix parmi les solutions trouvées. Dans notre étude, pour tenir compte de l’aspect multicritère de l’optimisation recherché et pour l’ensemble des avantages présentés dans le paragraphe précédent, la méthode de NSGA-II a été retenu et son principe de fonctionnement sera détaillé dans ce qui suit.

IV.2.3.2. L’algorithme NSGA-II

Deb et al. [153] ont proposé une nouvelle version de l’algorithme NSGA appelée le NSGA-II, qui est considéré comme étant plus efficace et plus rapide que son prédécesseur (NSGA-I) Son approche élitiste permet de sauvegarder les meilleures solutions trouvées au cours des générations précédentes. De plus, cet algorithme ne nécessite aucun réglage de paramètres et il contient une procédure de tri basée sur la non-dominance. Dans cette méthode, le double objectif convergence-diversité est atteint, d’une part, grâce à l’emploi d’un schéma de sélection (du calcul de la performance) qui favorise les solutions non-dominées et, d’autre part, par l’introduction d’une technique de mesure de densité (crowding) des solutions du front non-dominé (voir Figure IV-3).

Figure IV-3 : Procédure d’évolution de l’algorithme NSGA-II

Ainsi, la boucle principale de NSGA-II, commence avec la création aléatoire d’une population P0, de taille N, à laquelle sont appliqués les opérateurs génétiques classiques (croisement et mutation) conduisant à une population d’enfants Q0 de taille N. L’ensemble obtenu de taille 2N, comportant P0 et Q0 (ou en général Pt et Qt associées à une itération quelconque t), est évalué et ensuite trié et classé selon le principe de dominance de Pareto où à chaque individu est associé un « rang ». Le rang 1 caractérise les individus qui figurent

P

t+1 Sélection, Croisement, Mutation

Q

t

P

t Tri selon la

dominance Tri selon la distance de crowding

Boucle sur les générations

F1 F2 F3

Q

t+1

parmi les solutions non-dominées pour l’itération courante. Les individus de rang 2 sont ceux qui appartiennent au nouveau front de Pareto après avoir retiré du groupe les individus de rang 1. Le processus de classement est itératif jusqu’à l’épuisement de la population. Les différents fronts obtenus sont classés par ordre croissant (F1, F2, F3, …). Avec un cardinal ne dépassant pas N, les individus appartenant aux j premiers fronts contribuent à la construction de la population suivante des parents Pt+1, à partir de laquelle on va générer une nouvelle population Qt+1. Les individus manquants, pour avoir une taille N pour la population Pt+1, sont obtenus par application de la technique de « distance de surpeuplement ou d’étalement » ( crowding distance ) au niveau du j+1ème front. En effet, cette technique permet de préserver la diversité tout en estimant la densité des solutions voisines d’une solution (i) dans un front donné F. La Figure IV-4 illustre une représentation en deux dimensions associée au principe de distance de crowding. Le calcul de cette distance nécessite, en premier lieu, le classement selon chaque fonction objectif et dans un ordre croissant, des différentes solutions présentes dans un front F. Ensuite, une distance infinie est associée aux individus ayant des valeurs limites (maximum ou minimum) de toute fonction objectif. Pour les autres individus intermédiaires, on détermine une distance de crowding égale à la différence normalisée des valeurs de la fonction objectif choisie calculées au niveau de deux solutions adjacentes. Le même calcul est réalisé pour toutes les fonctions objectifs et la distance de crowding d’une solution est égale à la somme des distances associées à chaque objectif. Le principe général de sélection se résume comme suit : pour deux solutions de rangs différents, la solution possédant le plus petit rang (c’est à dire le front avec le numéro le plus petit) est préférée. Pour un même front, on choisit la solution localisée dans la région où la densité de solutions est moindre, ce qui correspond à l’individu possédant la valeur la plus élevée de distance de crowding.

Figure IV-4 : Classifications des individus selon leurs rangs (en fronts) et selon la distance

de crowding f1 f2 distance de crowding Front 1 (F1) Front 2 (F2) Front 3 (F3)

Documents relatifs