• Aucun résultat trouvé

CHAPITRE 3 : OUTILS D’ANALYSE ET D’EVALUATION DES CRITERES ET ATTRIBUTS

4.4. OPTIMISATION MULTI-OBJECTIF

Un grand nombre de techniques d'optimisation multi-objectifs sont disponibles dans la littérature. La plupart de ces techniques ont été basées initialement sur la résolution itérative du problème d'optimisation mono-objectif. Ces techniques classiques ont été largement utilisées, en raison de l'existence de puissantes techniques d'optimisation mono-objectif. Néanmoins, ces techniques ont des limites. Elles ne produisent qu'une seule solution à chaque itération et elles nécessitent des informations subjectives. Leur succès dépend de la forme et de la continuité du front de Pareto [128]. Par conséquent, au cours des deux dernières décennies, un nouveau groupe de techniques heuristiques d’optimisation multi-objectif a été développé pour surmonter ces limitations. Ces techniques, dénommées Multi-Objectifs Evolutionary Algorithms (MOEA) sont basées sur l’utilisation du concept de dominance de Pareto.

4.4.1. LE CONCEPT DE DOMINANCE DE PARETO

Dans les problèmes multi-objectifs, le concept de dominance de Pareto est utilisé pour déterminer si une solution est meilleure que d’autres. Une solution domine une solution si les deux conditions de dominance suivantes sont remplies [128-129]:

- la solution n’est pas mauvais que la solution dans tous les objectifs,

- la solution est meilleure que la solution dans au moins un objectif.

Dans ce cas, la solution est dite "dominée" par la solution , ou est dite "non-dominée" par y. La notion de dominance de Pareto est illustrée dans l’exemple de minimisation bi-objectif indiquée dans la figure 4.4.a.

Dans cet exemple, les relations de dominance suivantes peuvent être observées: - la solution 2 domine les solutions 1, 3 et 5,

- la solution 3 domine seulement la solution 5 et la solution 4 domine seulement la solution 5,

- les solutions 2 et 4 ne sont pas dominées, car il n'y a aucune solution qui les domine, - la solution 2 domine les solutions 1 et 3, car elle les domine au moins dans un objectif.

C’est le concept de dominance de Pareto. Une solution est dite optimale de Pareto si elle n’est pas dominée par toute autre solution [128]. Les solutions 2 et 4 sont donc les solutions optimales de Pareto. Les solutions optimales selon la dominance de Pareto constituent l'ensemble des solutions de Pareto. Les valeurs des objectifs de l'ensemble Pareto dans l'espace des objectifs constituent le front de Pareto, voir figure 4.4.b.

4.4.2. LES TECHNIQUES D’OPTIMISATION MULTI-OBJECTIF

Un problème d’optimisation multi-objectif, dont les objectifs sont conflictuels, n'a pas de solution unique mais il possède un grand nombre de solutions définies par l'ensemble de Pareto. Puisque l'obtention de toutes les solutions de Pareto est pratiquement impossible, un sous-ensemble du front Pareto est généralement obtenu. Par conséquent, la résolution d'un problème multi-objectif implique les trois satisfactions suivantes [128]:

- Précision: pour trouver un ensemble de solutions très proche du front réel de Pareto. - Diversité: pour trouver un ensemble de solutions aussi diverses que possible.

- Diffusion (Spread): pour trouver un ensemble de solutions qui touche l'ensemble du spectre du véritable front de Pareto.

Dans ce qui suit, nous allons discuter les méthodes utilisées pou obtenir l’ensemble des solutions de Pareto. Ces méthodes sont divisées en deux groupes: les approches multi-objectifs classiques et les algorithmes évolutionnaires multi-multi-objectifs. Le premier groupe utilise de manière itérative les techniques d’optimisation classique pour obtenir à chaque itération une solution de l’ensemble de Pareto. Le deuxième groupe fait appel aux algorithmes évolutionnaires multi-objectifs qui permettent de trouver l’ensemble des solutions du front de Pareto en un seul coup.

4.4.2.1. Les Approches Multi-Objectives Classiques

Les approches multi-objectifs classiques sont basées sur des méthodes d'optimisation mono-objectif. Plusieurs solutions du front de Pareto sont obtenues en résolvant le problème

mono-objectif de manière itérative. Les deux approches classiques les plus utilisées sont décrites ci-après.

Méthode d’agrégation

La méthode d’agrégation convertit le problème multi-objectif en un problème mono-objectif en transformant les fonctions objectives en une somme pondérée d’mono-objectifs:

min · , : 1 (4-2)

Les poids indiquent l'importance relative de chaque objectif . Les objectifs sont généralement normalisés de sorte que les poids peuvent prendre des valeurs dans l'intervalle [0,1].

Cette méthode est simple et facile à exécuter. Il a été démontré qu'elle peut trouver toutes les solutions du front de Pareto pour les problèmes convexes [128]. Néanmoins, elle présente deux inconvénients majeurs. Premièrement, le choix d'un bon ensemble de poids n’est pas une tâche facile surtout lorsque la forme du front de Pareto n’est pas connue. De plus, les objectifs ne disposent généralement pas de la même échelle et donc une normalisation est nécessaire. Le deuxième inconvénient de cette méthode, qui peut-être le plus limitant, est que cette méthode est incapable de trouver toutes les solutions lorsque le front de Pareto est non-convexe.

Méthodedes ε-contraintes

La méthode ε-contraintes a été introduite pour surmonter les difficultés rencontrées lors de l’application de la méthode d’agrégation aux problèmes non convexes. Dans cette méthode, le problème multi-objectif est réduit en un problème mono-objectif en gardant un seul objectif, généralement le plus important. Les autres objectifs sont exprimés en contraintes d'inégalité. Le vecteur des contraintes ε définit les limites supérieures de ces objectifs. Ainsi, l'équation (4-1a) de la formulation multi-objective devient alors:

min μ (4-3a)

Les valeurs du vecteur de contraintes ε représentent le compromis entre les objectifs.

L'obtention d'une bonne solution pour μ exige la relaxation des contraintes pour le reste

des objectifs. Plusieurs solutions du front de Pareto peuvent être trouvées en faisant changer les valeurs du vecteur des contraintes ε.

L'intérêt de la méthode de ε-contraintes est qu'elle puisse être appliquée aux problèmes à front de Pareto convexe ou non convexe. Cependant, la méthode nécessite la même quantité d'informations que la méthode de la somme pondérée. En outre, le vecteur des contraintes doit être dans la région faisable de chaque objectif. Par conséquent, une connaissance antérieure sur les caractéristiques du front de Pareto est nécessaire [128]. De plus, lorsque le problème a plusieurs objectifs, une grande quantité d'information est exigée, et un grand nombre d'itérations sont nécessaires pour trouver plusieurs solutions appartenant au front de Pareto.

4.4.2.2. Les Algorithmes Evolutionnaires Multi-objectifs

Les premières tentatives d'utiliser les algorithmes évolutionnaires pour résoudre des problèmes d’optimisation multi-objectifs étaient basées sur les approches classiques. Néanmoins, les chercheurs commencent bientôt de proposer de nouveaux algorithmes qui exploitent la nature des algorithmes évolutionnaires. Ces algorithmes évolutionnaires multi-objectifs sont basés sur les même processus de croisement et de mutation utilisés dans les algorithmes génétiques. Toutefois, l’assignation de fitness et les opérateurs de sélection sont modifiés pour traiter les problèmes objectifs. Les Algorithmes évolutionnaires multi-objectifs sont idéaux pour faire face aux problèmes multi-multi-objectifs combinatoires non linéaires et non-convexes. De plus, il a été démontré empiriquement qu'une seule exécution de MOEA est plus efficace que plusieurs exécutions des méthodes classiques [130].

Le premier algorithme évolutionnaire multi-objectif était le VEGA (Vector Evaluated Genetic Algorithm) développé en 1984. C’est un algorithme génétique standard auquel l'étape de sélection est modifiée. Ensuite, Goldberg [131] a proposé l'utilisation de l’optimalité de Pareto comme critères de fitness. Il a classé les solutions en plusieurs fronts de Pareto. Les solutions ayant un rang supérieur sont sélectionnées le plus souvent pour le croisement et la mutation. Par conséquent, la recherche est poussée vers front de Pareto. Il a également proposé l'utilisation d'un mécanisme de niching pour maintenir la diversité des solutions le long du front de Pareto et d'obtenir un front de Pareto plus bien réparti.

Le contexte théorique de Goldberg a servi comme base pour la première génération de MOEA développés au cours des années ultérieures. Cette première génération de MOEA comprend le MOGA (Multi-Objective Genetic Algorithm) proposé en 1993, le NSGA (Non-dominated Sorting Genetic Algorithm) publié en 1994, et le NPGA (Niched Pareto Genetic Algorithm) publié aussi en 1994 [129]. Cependant, l'une des majeures critiques des MOEA de la première génération est que leur performance dépend de la taille de la niche [132], qui est un paramètre difficile à régler correctement [133].

Le SPEA (Strength Pareto Evolutionary Algorithm) proposé en 1999 par Zitzler et al. [134] a commencé la deuxième génération de MOEA. Dans cette publication, les auteurs ont proposé deux concepts clés: l'utilisation de l'élitisme pour préserver des solutions non-dominées et l’attribution de nouvelle fitness qui évite d'utiliser le mécanisme de niching. En SPEA, les solutions non-dominées sont conservées dans une population d'élite secondaire, appelée archivage externe. Cette méthode garantit que les solutions non-dominées ne seront pas perdues par croisement et mutation. En outre, la population d'élite participe au processus de sélection et de croisement. Par conséquent, la convergence vers le front de Pareto est accélérée.

La plupart des MOEA élitistes sont basées sur un cadre similaire de SPEA et ne diffèrent que par la façon dont ils effectuent l'assignation de fitness et la sélection (clustering) [135]. Selon [129], la deuxième génération de MOEA comprend : le SPEA (Strength Pareto Evolutionary Algorithm) publié en 1999, le PAES (Pareto Archived Evolutionary Strategy) proposé en 1999, le NSGA-II (Non dominated Sorting Genetic Algorithm II) développé en 2000 et le SPEA2 (Strength Pareto Evolutionary Algorithm 2) développé à partir de 2001.

Les deux derniers MOEA (NSGA-II et SPEA2) ont attiré une attention largement répandue et ont commencé à être appliqués à divers problèmes pratiques tels la planification de réseaux de distribution [136].

Le NSGA-II repose sur trois concepts [132]:

- Il utilise le concept d'élitisme en maintenant les solutions non dominées dans la population (il n'utilise pas une archive externe de manière explicite).

- L’assignation de fitness est basée sur le classement dominé. Par conséquent, des solutions plus proches du front de Pareto reçoivent une meilleure fitness.

- Il utilise l’estimation de la distance de surpeuplement (crowding distance estimation) comme deuxième comparateur dans le tournoi de sélection. Ainsi, lorsque deux solutions

de même rang sont comparées, la solution appartenant à la région la moins peuplée est sélectionnée pour la reproduction.

En revanche, SPEA2 est basé sur un mécanisme d'assignation de fitness et de sélection plus compliqué, que l’on explique en détail dans la section suivante. Le SPEA 2 fournit des résultats meilleurs que le NSGA-II comme il a été vérifié dans les problèmes étudiés dans [137]. Il a également été démontré que le SPEA2 est plus performant que le NSGA-II dans les problèmes qui présentent un grand nombre d'objectifs [135]. Par ailleurs, Mori et al. [138] ont comparés le SPEA2 et le NSGA-II dans le problème de la planification d'expansion du réseau de distribution et ont montré que le SPEA2 est plus performant que le NSGA-II en termes de qualité de solutions et de temps de calcul. Dans ce qui suit, nous allons donner des explications détaillées sur les différentes étapes et opérations pour implémenter l’algorithme SPEA 2 qui a été choisi, dans le cadre de ce travail de thèse, pour développer un modèle de planification multi-objectif qui optimise l’intégration de la GED dans les réseaux électriques de distribution.