• Aucun résultat trouvé

Application à l’optimisation pire cas sur le problème industriel

Optimisation Multi-objectif Pire cas

Algorithme 7.1 Algorithme de réutilisation des appels

7.2 Application à l’optimisation pire cas sur le problème industriel

Le problème industriel est présenté au chapitre 2. En particulier, le problème d’op-timisation à résoudre est donné à l’équation (2.12). Avec les notations de cette partie, notamment l’introduction de la fonction ζ (à l’équation (7.3)), nous pouvons le reformuler de la manière suivante : min x max ξ f1(ζ (x, ξx) , ξe) minx f2(x) (7.12)

Le problème industriel est décrit en détail au chapitre 2. Pour rappel, la fonction f2 est analytique et peu coûteuse puisqu’elle correspond à la masse et au coût liés au choix d’une solution de refroidissement donnée. La fonction f1 est quant à elle potentiellement coû-teuse. Elle correspond ici au calcul de perte de durée de vie par rapport à l’équipement de référence. Pour rappel, il s’agit d’un équipement déjà existant dans un avion de ré-férence donné. Ce calcul nécessite l’exécution de simulations thermiques transitoires. Ici,

ces simulations proviennent d’un modèle nodal fourni par Epsilon. Comme cela est précisé à la section 2.2.1.1 présentant ce type de modèle, cette modélisation est précise dans le cas où il n’y a pas de changement de type de convection. En particulier le passage de la convection naturelle à la convection forcée est une source d’erreur importante. Or, nous ne devons calculer ici la durée de vie que dans un cadre nominal d’utilisation. En effet, nous souhaitons estimer le nombre de vols en fonctionnement nominal supportable par l’équipement électronique (ceci est expliqué dans la section 2.2.2). Le modèle thermique instationnaire n’a donc pas vocation à être utilisé pour prédire le passage d’un régime de convection à un autre. De ce fait, puisque nous avons besoin d’exécuter des simulations thermiques transitoires qui se situent dans le domaine d’utilisation dans lequel a été validé un modèle nodal, ce dernier est adapté à la résolution de l’équation (7.12). Ce type de modèle a un temps d’exécution de l’ordre de la minute. MOEGO NSGA-II couplé à EGO pour l’estimation de pire cas est donc applicable au cas industriel.

7.2.1 Résultat de l’optimisation multi-objectif pire cas

Comme pour le cas analytique, nous exécutons l’algorithme MOEGO NSGA-II (dé-taillé en section 6.4) avec la réutilisation dé(dé-taillée à l’algorithme 7.1. Les paramètres pour l’algorithme MOEGO NSGA-II sont les mêmes qu’à la figure 6.37. Pour le calcul du pire cas sur l’objectif f1, nous utilisons un algorithme EGO (détaillé à l’algorithme 5.2) avec les critères d’arrêt de l’équation (7.11) et détaillés à la section 7.1.2.5. Les paramètres de l’algorithme EGO sont les mêmes que dans cette dernière section avec εf = εEI = 10−3. Le plan d’expériences initial de ces EGO mono-objectifs est au minimum de taille Nmin

DOE0 = 8 et au maximum de taille Nmax

DOE0 = 40. Pour rappel, bien que soit de dimension quatre, c’est-à-dire x ∈ Dx ⊂ R4, les incertitudes sont de dimension huit, donc ξ ∈ Dξ ⊂ R8.

La figure 7.9 compare le front obtenu après 30 itérations et 50 itérations. On remarque que la convergence est atteinte entre ces deux itérations puisqu’il y a très peu de variabilité d’une itération à une autre. Si l’on s’intéresse au nombre d’appels nécessaires à f1 afin de converger, la figure 7.10 montre que chaque session d’appels distribués nécessite en moyenne un maximum de 36 appels à la fonction f1. Le calcul est donc le même que pour le cas test analytique et le temps d’exécution total de l’algorithme est de l’ordre de 30 × 36 ' 1000 appels à la fonction f1.

7.2.2 Comparaison entre le front pire cas et le front déterministe

Comme pour l’application de la section 7.1.4, nous quantifions dans cette partie l’in-térêt d’avoir pris en compte les incertitudes au niveau des paramètres de contrôle x des solutions obtenues. Pour cela, nous comparons les solutions des deux formulations intro-duites jusqu’à maintenant. La première est celle ne prenant pas en compte les incertitudes sur les différents paramètres du problème d’optimisation, c’est-à-dire celle donnée à l’équa-tion (6.1). La seconde est celle de l’équal’équa-tion (7.1) où les incertitudes sont prises en compte par un pire cas en chaque point de contrôle.

La figure 7.11 illustre d’abord l’écart qu’il y a entre la solution ne prenant pas en compte les incertitudes sur les entrées et celle les quantifiant par un pire cas. Cela permet de mettre en évidence le fait que la distance entre les solutions Pareto-optimales pour le pire cas et les solutions Pareto-optimales de la formulation déterministe n’est pas constante quelle que soit la valeur de f2. En effet, sur la partie gauche du front où f2 <0.3, on remarque que l’écart entre ces deux ensembles de point est pratiquement constant. Toutefois, si l’on

−0.1 0.0 0.1 0.2 0.3 0.4 0.5 0.6

Weight and Cost

−12 −10 −8 −6 −4 −2 0 2 Lo ss of Lif eti me 50 distributed calls 30 distributed calls

Figure 7.9 – Comparaison du front de Pareto pire cas obtenu par MOEGO NSGA-II couplé avec EGO après 30 itérations de MOEGO NSGA-II et après 50 itérations de MOEGO NSGA-II. 0 10 20 30 40 50 10 20 30 40 50 60 70

Number of calls to for WC computation

MOEGO NSGA-II iteration (number of distributed calls completed)

Figure 7.10 – Nombre maxi-mal d’appels à f1 réalisés par l’algorithme EGO à chaque ité-ration de l’algorithme MOEGO NSGA-II.

regarde dans la zone où f2 > 0.45, l’écart n’est plus aussi facilement quantifiable. Ceci est le signe que la densité de la sortie f1 pour les solutions Pareto-optimales a un support plus ou moins grand selon la position du point dans l’espace des objectifs.

Pour démontrer que le support de la distribution de la sortie f1(ζ (x, ξx) , ξe) peut grandement varier selon le point x où l’on se trouve, nous avons calculé la distribution de sortie en utilisant un échantillon Monte-Carlo de taille 104 autour de deux points du front de Pareto pire cas de la figure 7.9. Pour rappel, les lois des incertitudes avec lesquelles les entrées incertaines sont générées sont définies à la section 2.3.3. Les figures 7.13 et 7.14 illustrent ces deux distributions. Elles mettent en évidence deux points importants :

1. la diversité de densité de la sortie de f1 que l’on obtient au niveau des points du PF pire cas. En effet, les deux densités en deux points différents du front ne se ressemblent pas. Celle de la figure 7.13 ressemble à une densité connue, que l’on pourrait par exemple approcher par une loi bêta. Celle de la figure 7.14 est plus atypique avec une queue de distribution assez lourde. En particulier, on peut remarquer que l’écart entre le quantile et le superquantile n’est pas le même dans ces deux densités. Ceci justifie donc l’utilisation d’un superquantile à la place du quantile.

2. le fait que la queue de la distribution puisse être lourde. La forme de la densité sur la figure 7.14 permet de remarquer que le pire cas se trouve dans une zone de cette dernière où les évènements sont peu probables. Notamment, on remarque que le quantile et le superquantile à 95% calculés sont très éloignés du pire cas, ce qui signifie que l’on se trouve dans un cadre où le pire cas retourne une solution trop conservative. La diversité de la forme des densités de sortie le long du PF ainsi que le large support de la distribution des solutions maximisant la durée de vie justifient l’utilisation d’une mesure probabiliste. Cela permet de trouver des solutions plus performantes en pondérant négativement la probabilité d’occurrence des évènements les plus extrêmes.

−0.1 0.0 0.1 0.2 0.3 0.4 0.5 0.6