• Aucun résultat trouvé

Classification des problèmes d’optimisation multiobjectif

Optimisation multiobjectif

3.2 Etat de l’art et caractérisation du problème

3.2.1 Classification des problèmes d’optimisation multiobjectif

La méthodologie utilisée pour résoudre un problème d’optimisation multiobjectif doit permettre d’explorer l’espace de recherche dans le but de trouver les alternatives les plus optimales possibles sur les différents objectifs. Cependant, différentes complexités peuvent être rencontrées et conditionnent alors la résolution du problème : espace de recherche ou espace des performances discontinu, haute dimensionnalité (i.e. nombre d’objectifs), etc. La définition précise du problème à l’étude est donc un élément important permettant d’orienter le choix concernant la sélection de la méthodologie à utiliser. Plusieurs propriétés sont à considérer afin de le qualifier : la nature de l’espace de recherche, de l’espace des performances et des fonctions objectif ou encore le type de traitement utilisé concernant les multiples fonctions objectif.

Le problème d’optimisation des systèmes énergétiques à l’échelle du quartier est constitué de paramètres qui peuvent être continus et discrets (i.e. la présence d’un réseau, la

puissance des systèmes de production, la position et l’épaisseur de l’isolation, etc.) avec un espace de recherche quasiment infini. De plus, les fonctions objectif sont inévitablement non linéaires en raison de l'utilisation de la plateforme de simulation DIMOSIM, qui est de plus considérée comme étant une « boîte noire » pour la résolution du problème d’optimisation. Par conséquent, ce problème d’optimisation non convexe est aussi qualifié de problème MINLP (Mixed Integer Non Linear Programming).

Par ailleurs, la classe de complexité du problème permet aussi de le qualifier en vue de sélectionner le bon type d’algorithme de résolution. La classe de complexité P (deterministic Polynomial) rassemble les problèmes de décision pouvant être résolus à l’aide d’un algorithme « déterministe » en temps polynomial. La classe de complexité NP (Non deterministic Polynomial) est plus large et inclut tous les problèmes résolubles en temps polynomial, mais peut potentiellement nécessiter l’examen de nombreuses solutions de l’espace de recherche, notamment via les méthodes stochastiques. Enfin, les problèmes NP-difficiles sont eux au moins aussi NP-difficiles à résoudre que les problèmes NP sans pour autant être de la classe NP. En théorie de la complexité, le problème à l’étude est qualifié de NP-difficile, ce qui signifie qu’il devrait requérir une quantité importante de ressources, particulièrement en temps et en espace.

Il existe deux grandes catégories méthodologiques pour traiter la problématique de l’exploration de l’espace de recherche : les méthodes déterministes et celles stochastiques. Parmi les méthodes déterministes, la recherche exhaustive dite par « force brute » est la plus simple : tester chacune des solutions de l’espace de recherche. Lorsque l’espace de recherche est fini, cette méthodologie est la plus efficace puisque tous les optima sont obligatoirement trouvés, mais dans la grande majorité des cas elle est aussi la moins efficiente. Par ailleurs, les méthodes de gradient sont historiquement les plus anciennes pour résoudre des problèmes non linéaires, mais nécessitent la connaissance de la dérivée de la fonction objectif. D’autres méthodes associées à la recherche par quadrillage, la séparation-évaluation (branch-and-bound) ou l’étude des trajectoires complètent cette liste non-exhaustive des méthodes déterministes. En outre, lorsque le problème est linéaire et continu, des heuristiques1 spécifiques telles que l’algorithme du simplexe de Dantzig ou celui des points intérieurs peuvent être appliquées.

Lorsque le problème est discontinu, les méthodes stochastiques sont les plus appropriées et sont utilisées pour accéder rapidement aux solutions les plus satisfaisantes. Ces méthodes de recherche par exploration aléatoire du domaine de définition sont moins contraignantes et généralement applicables. Principalement inspirées de phénomènes naturels, les métaheuristiques2 font partie des méthodes les plus remarquables de cette typologie en permettant de couvrir efficacement l’espace de recherche mais par contre sans la garantie de trouver les solutions optimales du problème d’optimisation. Les connaissances concernant les fonctions objectifs ne sont pas nécessaires pour leur application, dont en particulier leurs

1

Heuristique : méthode approximative permettant d’identifier des solutions pour un problème d'optimisation difficile, particulièrement ceux ne pouvant pas être résolus avec des méthodes exactes, mais sans assurance de leur optimalité.

2

Métaheuristique : méthode générique adaptable à un grand nombre de problèmes d’optimisation et à l’origine d’heuristiques dédiées à la résolution de problèmes particuliers.

dérivées. Il est possible d’en distinguer deux principales catégories puisque la recherche peut s’effectuer solution par solution (recherche locale) ou conjointement et simultanément par groupe (recherche sur population). Néanmoins, leurs paramétrages doivent être adaptés à chaque problème. Une vue d’ensemble relativement exhaustive des méthodes d’optimisation métaheuristiques est proposée par Boussaïd et al. (Boussaïd et al., 2013).

Finalement, la complexité de la résolution induite par le problème d’optimisation des systèmes énergétiques conduit à privilégier les méthodes de résolution approchée ayant pour objectif de trouver les meilleurs compromis possibles dans l’espace de recherche (Dréo et al., 2003).

Outre l’instruction de la démarche exploratoire du domaine d’étude, la gestion et le traitement de plusieurs fonctions objectif sont des spécificités importantes qualifiant les méthodes d’optimisation. La finalité consistant à obtenir la solution qui sera mise en œuvre, le meilleur compromis doit donc être trouvé à défaut de l’optimum global. Cette recherche implique nécessairement la sollicitation du décideur pour qu’il fournisse ses préférences. La prise en considération de ces éléments de décision dans la procédure de résolution du problème d’optimisation peut alors intervenir a priori, progressivement ou a posteriori, ce qui conditionne le choix de la méthode utilisée.

La première approche de résolution revient à optimiser une seule fonction objectif en agrégeant les critères. Les méthodes agrégées permettent ainsi l’obtention d’un score unique pour chacune des solutions ce qui simplifie fortement le problème et améliore donc les performances propres à la résolution. Cependant l’utilisation d’une telle méthodologie nécessite une connaissance a priori du problème et la détermination du paramétrage de la méthode peut être relativement difficile. Par ailleurs, une modification décisionnelle implique inévitablement le recours à de nouveaux calculs. Enfin, cette approche entraîne une perte d’informations et les interactions entre critères sont difficilement exprimables.

Les autres méthodologies consistent à traiter et à maintenir l’unicité de chacun des critères. Cette approche permet de conserver l’intégralité des informations en évitant principalement les compensations abusives. En revanche, les algorithmes sont plus exigeants pour obtenir les meilleures alternatives possibles issues de l’espace de recherche, notamment plus dispendieux en temps de calcul. L’intervention du décideur peut alors être prise en considération à chaque itération de la procédure ou uniquement à la fin. Lorsque cela est fait progressivement, le processus devient plus complexe, mais oriente et concentre la recherche vers les solutions à privilégier, alors qu’une unique intervention finale rend l’optimisation complètement indépendante des choix effectués a posteriori. In fine, l’étude revient toujours à rechercher l’ensemble des alternatives les plus satisfaisantes du point de vue du décideur. Les méthodes non agrégées peuvent traiter les fonctions objectif séparément ou alors conjointement. Si les fonctions objectif sont optimisées simultanément, l’unique objectif est l’obtention du front de Pareto, c’est-à-dire l’ensemble des alternatives non dominées par une autre au sens de Pareto ou solutions Pareto optimales.

Domination au sens de Pareto : Soit Kc l’espace de recherche contraint (inclut dans l’espace de recherche complet K), Pc l’espace des performances contraint (inclut dans l’espace des performances complet P) et 𝑓𝑖 ∶ 𝐾𝑐 → 𝑃𝑐 avec 𝑖 = 1 … 𝑛, les fonctions objectif définies pour les n différents critères, alors x domine x’ avec (𝑥, 𝑥) ∈ 𝐾𝑐², si et seulement si :

Propriétés :

(1) La combinaison de deux solutions, appartenant respectivement aux fronts de Pareto de deux problèmes distincts, n’appartient pas nécessairement au front de Pareto du problème conjugué.

(2) Le front de Pareto d’un problème composé de plusieurs sous-problèmes est comporte uniquement les combinaisons de solutions appartenant aux fronts de Pareto des différents sous-problèmes.

La Figure 3.1 met en évidence le principe de résolution d’un problème d’optimisation à deux objectifs en représentant en rouge les solutions du front de Pareto.

f2

f1

Espace de recherche Espace des performances

Fonctions objectif

Figure 3.1. Recherche du front de Pareto pour un problème à deux fonctions objectif

Pour résumer, un problème d’optimisation global multiobjectif peut être résolu par une méthode déterministe ou stochastique et la gestion des fonctions objectif peut s’effectuer de façon agrégée ou non. En outre, il est possible d’améliorer significativement les performances d’une optimisation en exploitant les propriétés singulières du problème à l’étude.