• Aucun résultat trouvé

Conclusions sur l’optimisation pire cas par MOEGO NSGA-II couplé à EGO

Technological breakthrough

7.3 Conclusions sur l’optimisation pire cas par MOEGO NSGA-II couplé à EGO

Dans cette partie nous avons proposé un algorithme de résolution de problèmes multi-objectifs avec un objectif incertain. Pour cela :

— Nous avons prouvé la continuité de la fonction g(x) = maxξ∈D

ξf(x, ξ) au théorème 7.1 afin de pouvoir appliquer l’algorithme MOEGO NSGA-II développé dans la section 6.4.

— Nous avons choisi un algorithme mono-objectif permettant d’estimer cette fonction

g en chaque point de contrôle x puis couplé ce dernier avec l’algorithme multi-objectif utilisé. Le couplage est quant à lui détaillé à l’algorithme 7.1. Nous avons également montré l’intérêt de cette méthode sur le cas analytique.

— Nous avons finalement appliqué cette méthodologie sur un cas analytique et un cas industriel sur lesquels nous avons montré l’efficience de cette stratégie. Pour un

rappel, ces cas tests ont été utilisés avec quatre variables de contrôle et huit variables incertaines, dont les quatre de contrôle.

— Enfin, nous avons montré l’utilité sur le cas industriel et sur le cas analytique de la prise en compte des incertitudes lorsqu’elles existent. L’utilisation d’une mesure de risque de type pire cas présente l’avantage de trouver des solutions qui n’étaient pas présentes dans le front du problème déterministe et qui de plus ont l’avantage d’être robustes à la présence d’incertitudes. Elles sont optimales et dimensionnantes dans le sens où l’on suppose que leur durée de vie est la pire possible quelle que soit la valeur prise par les incertitudes sur les paramètres du problème.

De plus, dans le cas où les deux objectifs seraient incertains et nécessiteraient le calcul d’un pire cas, la méthode proposée ici serait tout à fait utilisable. En effet, il suffirait juste d’appliquer l’algorithme de réutilisation des appels aux deux fonctions objectif séparément, à l’aide de deux ensembles Ξ distincts.

Toutefois, ce chapitre a également fait ressortir des limites ou des besoins :

— La première limite est que le pire cas peut être une mesure de risque trop conserva-tive. En effet, la probabilité d’occurrence de ce dernier est relativement réduite. La figure 7.14 montre qu’en utilisant un quantile ou un superquantile, on se donnerait la possibilité de trouver d’autres solutions robustes et plus performantes.

— La seconde concerne la réutilisation des points. L’efficacité de ce couplage dépend de l’amplitude des incertitudes sur les paramètres de contrôle, c’est-à-dire la taille de l’ensemble Dξx. En effet, si ce dernier est de trop petite taille, le nombre de points réutilisables, c’est-à-dire le cardinal de Ξx, est réduit. Néanmoins, cela sim-plifie aussi le calcul de la mesure de robustesse : si les incertitudes ont une faible amplitude, ceci signifie que l’on propage les incertitudes sur une zone des entrées de la fonction déterministe très localisée. Si cette fonction est suffisamment régulière, cela implique que plus le domaine Dξxest localisé, moins les variations de la fonction dans cette zone sont importantes, simplifiant ainsi la propagation d’incertitudes. Également, cette réutilisation des points va perdre de son efficacité lorsque la di-mension des variables de contrôle va augmenter, à cause du fléau de la didi-mension. Plus précisément, la distance entre les points de contrôle x augmente avec la di-mension Nx, ce qui tend à réduire le nombre de points réutilisables.

Optimisation Multi-objectif

Probabiliste

Sommaire

8.1 Justification du choix du superquantile . . . 184

8.2 Développement d’un estimateur de superquantile parcimonieux . . . 186

8.2.1 Modification de l’algorithme d’entropie croisée . . . 187

8.2.2 Modification de l’enrichissement du modèle de krigeage . . . 195

8.2.3 Application de l’algorithme d’entropie croisée pour le superquantile . . . 196

8.2.4 Conclusions sur l’algorithme d’entropie croisée pour l’estimation de super-quantile . . . 204

8.3 Mise en place de l’optimisation multi-objectif probabiliste . . . 205

8.3.1 Présentation du cas test analytique . . . 206

8.3.2 Application au cas test analytique . . . 207

8.4 Application au cas industriel . . . 211

8.4.1 Résultat de l’optimisation multi-objectif d’un superquantile . . . 212

8.4.2 Comparaison avec le front pire cas et le front déterministe . . . 212

8.4.3 Interprétation physique du résultat . . . 213

8.5 Conclusions sur l’optimisation probabiliste par MOEGO NSGA-II cou-plé à l’algorithme d’entropie croisée . . . 215

Le chapitre précédent a montré que le pire cas pouvait être une mesure trop conser-vative. Notamment dans la section 7.2, le problème industriel illustre ce défaut puisque la densité de la sortie autour des solutions les plus innovantes a une queue particulière-ment lourde. Or, ceci met en évidence le fait que le pire cas correspond à un évèneparticulière-ment très improbable. L’utilisation d’une mesure probabiliste à la place du pire cas permet de prendre en compte la probabilité d’occurrence des évènements de la queue de distribution de la sortie. De cette manière, ces derniers peuvent être pondérés par leur probabilité d’occurrence, ce que ne permet pas de réaliser le pire cas. Le but de cette partie est donc d’utiliser l’une des mesures de risque ρ introduites au chapitre 4 à la place du pire cas et

de résoudre le problème suivant :

( min

x ρξ[f1(x, ξx, ξe)] min

x f2(x) (8.1)

Nous devons d’abord choisir la mesure de risque parmi celles présentées dans le cha-pitre 4 la plus adaptée à notre problème. Cela est réalisé à la section 8.1. Pour rappel, les deux mesures candidates sont le quantile et le superquantile. La seconde présente l’avan-tage de prendre en compte les évènements se situant entre le quantile et le pire cas. Par ailleurs, l’algorithme d’optimisation sous incertitudes doit être applicable même dans le cas où les fonctions coût ont des temps d’exécution importants. Il est donc nécessaire de disposer d’un estimateur performant et parcimonieux de ces mesures de risque. Puisqu’il en existe peu dans la littérature pour le superquantile, la section 8.2 détaille un algorithme d’estimation de superquantile basé sur l’algorithme d’entropie croisée, initialement déve-loppé pour l’estimation de quantile. Afin de réduire le nombre d’appels à la fonction de référence, la méthode proposée peut également fonctionner avec un modèle de krigeage de la fonction de référence. Enfin, l’algorithme MOO probabiliste ainsi construit est appliqué à un cas test analytique en section 8.3 puis au cas industriel 8.4.