• Aucun résultat trouvé

3.3 Prédimensionnement et optimisation au niveau 1

3.3.2 L’optimisation multi-objectifs

3.3.2.1 La notion d’optimalité au sens de Pareto

Un problème d’optimisation multi-objectifs consiste à optimiser simultanément plusieurs fonctions. Marler [51] en propose la formulation suivante :

3.3. PRÉDIMENSIONNEMENT ET OPTIMISATION AU NIVEAU 1 145

Avec les contraintes :

gj(x) ≤ 0, j = 1, 2, · · · , m

hl(x) = 0, l = 1, 2, · · · , e (3.17)

Dans cette définition, k est le nombre de fonctions à optimiser, m est le nombre de contraintes d’inégalité et e le nombre de contraintes d’égalité. On peut noter x = (x1, ..., xn) l’ensemble des variables de design où n est le nombre de variables d’optimisation indépendantes. x évolue dans l’espace de décision. F (x) est un vecteur de fonctions objectifs ou fonctions de coût tel que Fi(x) : En→ E1.

Le point x

i désigne une solution de la minimisation de la fonction Fi(x). On appelle l’espace de faisabilité des variables, l’ensemble des points respectant les contraintes du problème, il est donné par :

X : xkgi(x) ≤ 0, j = 1, 2, ..., m, hl(x) = 0, l = 1, 2, ..., e (3.18) L’espace des critères atteignables est noté :

Z : {F (x)kx ∈ X} (3.19)

On note de même z

i correspondant à l’image de x

i dans l’espace des objectifs. Certaines techniques utilisent un point utopique c’est-à-dire non atteignable par l’optimisation dans l’espace des fonctions objectifs : zu

i. Le point utopique peut être par exemple l’association des meilleurs valeurs pour chaque objectif. Un point opposé à celui ci est le point de nadir que l’on note znad

i pour nadir cumulant les plus mauvais objectifs désirés.

Dans un problème à deux objectifs une solution A peut être l’optimum de la fonction F1, et quelconque pour F2 au contraire d’une solution B minimisant F2 et laissant F1 divers. La question de la notion d’optimalité se pose alors : Quelle est la solution optimale ? Différents points de vue peuvent s’affronter. La définition la plus couramment admise est celle proposée par Pareto en 1906 et qui définit un ensemble de solutions non dominées :

Solution non dominée ou Pareto optimale : une solution x domine une autre solution x si les conditions suivantes sont vérifiées : Fi(x) ≥ Fi(x)∀i ∈ 1, ..., k et ∃i ∈ 1, ..., k tel que Fi(x) > Fi(x). Une solution xa dominant une solution xb se note : xa ≺ xb et l’ensemble des solutions dominantes forment le front de Pareto.

Concrètement cette définition stipule qu’il existe une variété de points pour les quels il n’est pas possible de trouver un objectif meilleur sans dégrader un autre. L’ensemble des points dominants forme une frontière nommée front de Pareto qui peut être continue ou continue par morceaux.

La figure3.9montre un exemple illustrant le front Pareto parmi un ensemble de solutions optimales et non optimales. Elles sont obtenues à partir d’un problème de test des algorithmes d’optimisation multi-objectifs « Schaffer N1 » [52]. Les solutions non optimales, telles que le point C, sont affichées

en bleu. Pour chacun de ces points il existe une solution ayant soit un meilleur objectif F1, soit un meilleur objectif F2. Les solutions optimales telles que A et B sont affichées en rouge. Elles définissent la frontière de Pareto. Sur ce front, il n’est pas possible d’améliorer un objectif sans dégrader un autre. Les solutions dominantes sont autant de résultats valables, utilisables par l’ingénieur sans discer-nement. Dans la pratique il faut faire un choix, nous allons discuter de ce point dans la partie3.3.2.3.

Figure 3.9: Exemple de front Pareto pour un problème test de type « Schaffer N1 ».

3.3.2.2 L’équilibre de Nash

Différentes définitions de l’optimalité pour un problème multi-objectif sont possibles. L’optimalité au sens de Pareto recherche un compromis entre les objectifs. L’équilibre de Nash introduite par l’économiste, mathématicien et prix Nobel (1994) J. F. Nash, se base sur une approche différente : l’optimisation multi-critères non coopérative. Le principe consiste à identifier des joueurs d’un jeu de table ou de cartes aux objectifs d’optimisation. Minimiser son objectif revient à tenter de gagner la partie. Les variables d’optimisation sont alors les cartes de chaque joueur. L’algorithme d’optimisation se déroule comme un jeu, en plusieurs manches à l’image d’un processus itératif. Le processus en pseudo-code décrit dans la suite donne une définition de l’équilibre de Nash.

Soit m joueurs associés chacun à l’une des fonctions objectifs Fi(X), i = 1, ..., k et X = (x1, ...xn) l’ensemble des variables à optimiser. Chacun travaille sur une partie non nulle de l’ensemble X. Les parties non utilisées par un joueur sont donc gérées par les autres. A la fin de chaque itération, les joueurs mettent à jour simultanément l’ensemble X des variables optimisées. Le processus s’arrête lorsque les vecteurs de variables de chaque joueur sont identiques. Plus concrètement, le processus suit les étapes suivantes comme décrit dans [53], présentant une application à l’optimisation de forme d’ailes d’avion.

3.3. PRÉDIMENSIONNEMENT ET OPTIMISATION AU NIVEAU 1 147

1. Itération i = 0.

Soit deux joueurs associés aux objectifs F1(X) et F2(X) utilisant les variables de l’ensemble X = (xi1, xi2). La première étape consiste à initialiser X.

2. Itération i.

Les joueurs 1 et 2 optimisent leur fonction objectif en travaillant sur leur variable associée, respectivement x1 et x2 :

Joueur 1 : min F1(x1, xi−12 ) (3.20) Joueur 2 : min F2(xi−1

1 , x2) (3.21)

A la fin de cette itération, on obtient l’optimal donné par le joueur 1 : xi

1 et le x2optimal donné par le joueur 2 : xi

2.

3. Le vecteur X est mis à jour : X = (xi

1, xi2) puis distribué aux joueurs. 4. Dans un troisième temps, la convergence est testée.

Si les ensembles de variables fournis à la fin de l’étape i par chaque joueur sont identiques, le processus s’arrête, sinon une nouvelle itération démarre (retour à l’étape 2). Le critère de convergence peut être défini par l’équation suivante :

 (xi 1, xi−12 ) (xi−1 1 , xi2) 2 ≤ δ (3.22)

Le processus itératif aboutit donc sur un design pleinement optimisé vis-à-vis de chaque objectif. Il est la combinaison des meilleurs résultats de chaque joueur.

La méthode a été testée en toute fin de thèse mais par manque de temps n’a pu permettre d’aboutir sur des résultats consistants. Il est noté dans les perspectives de creuser ce champ d’étude d’optimisation multi-objectifs et multidisciplinaire. Notons enfin que les travaux [54] et la thèse d’Enric Roca Leon en cours à l’ONERA, exploite le sujet. Elle étudie les équilibres de Nash pour l’optimisation aérodynamique de la forme d’une pale d’un rotor.

3.3.2.3 La classification des méthodes d’optimisation multi-objectifs

Les solutions d’un problème d’optimisation multi-objectifs sont, sauf cas spécifiques, réparties sur un front Pareto et sont toutes équivalentes. Dans la pratique, l’utilisateur ne peut pas se contenter d’établir une liste de solutions faisables et doit déterminer une solution unique et optimale de design. Comment effectuer un choix ? Cette question est au centre des préoccupations du « décideur ». Pour progresser, ce dernier peut définir des priorités parmi les fonctions qu’il souhaite optimiser. C’est une position assez naturelle dans le domaine de l’ingénierie. Par exemple, concernant l’optimisation du HO-90 on pourrait indiquer qu’il est prioritaire de minimiser la masse de carburant embarquée puis le facteur acoustique et dernièrement la masse à vide. Les méthodes associées à une priorisation des objectifs sont les méthodes d’optimisation avec préférences. Au contraire, il peut être impossible ou non désiré d’établir une hiérarchie des objectifs. On parle de méthode d’optimisation sans préférence. Miettinen [55] propose de classer les méthodes en fonction du choix d’une préférence ou non dans les objectifs d’optimisation. Il catégorise ensuite les méthodes avec préférence selon la position du

choix en fonction de l’optimisation. En effet, la préférence peut être établie avant l’optimisation. On considère alors une méthode de décision dite a priori. Le décideur transforme alors le problème multicritère en un problème monocritère. La conséquence immédiate est que l’on n’obtient pas la totalité du front Pareto mais un point sur celui-ci.

A l’opposé de la position a priori se trouve la décision a posteriori. Dans ce cas, le décideur n’effectue aucun choix dans un premier temps, il laisse l’optimiseur calculer l’ensemble, ou une section du front de Pareto. C’est à l’issue de cette recherche qu’il prend une décision en appliquant des préférences. Il peut alors utiliser des méthodes similaires aux techniques utilisées dans le cadre a priori. En effet, l’utilisateur doit toujours faire un choix et optimiser les critères en fonction de ces préférences. La principale différence est qu’il n’agit plus dans l’espace de faisabilité, il recherche une solution directement sur le front Pareto. Certaines méthodes de décision a priori sont donc utilisables a posteriori.

Dernière possibilité, l’utilisateur fait des choix durant l’optimisation. Cela définit les méthodes de décision progressives ou interactives. Dans cette classe de méthodes, le décideur influe en « temps réel » sur la direction prise par l’optimiseur par rapport aux préférences établies sur les fonctions d’optimisation. Cela nécessite un contrôle permanent sur le processus d’optimisation donc ce dernier ne peut être long.

3.3.2.4 Le champ d’étude de cette thèse

Le but de cette partie de la thèse est d’établir une chaîne de calcul capable de prédimension-ner un hélicoptère à partir d’une feuille blanche. Cela nécessite de répondre à des problématiques d’optimisation multi-objectifs. Dans le cadre de cette thèse il parait ambitieux d’explorer l’ensemble des techniques possibles. Aussi nous ne dressons pas ici un panorama exhaustif de l’ensemble des méthodes existantes. Les méthodes progressives ou interactives ne seront pas abordées. Néanmoins, un lecteur intéressé par ces dernières peut se référer à la référence [55]. De même un lecteur intéressé par une revue plus exhaustive des techniques a priori et a posteriori avec ou sans préférence pourra se référer à de Marler [51].