• Aucun résultat trouvé

Pourquoi faire appel à la génétique en face d’un problème d’optimisation

Dans le document Conception aérodynamique robuste (Page 185-187)

Partons du problème d’optimisation le plus simple qui soit. Il s’agit de minimiser une fonction scalaire f vis-à-vis d’un paramètre vectoriel X. Le problème à résoudre s’écrit alors :

X= argminX∈Ωf (X)

La notation Ω désigne l’espace d’exploration pour la recherche du minimum X∗.

Ecrit sous cette forme, le problème peut être résolu via différentes techniques de minimisation avec direction de descente. L’efficacité de la technique utilisée va dépendre du caractère plus ou moins différentiable de la fonctionnelle f .

– A l’ordre 1, les dérivées premières de f vont permettre de tracer un chemin vers le minimum. La méthode la plus basique est celle du gradient simple. Pour accélérer la convergence, il est possible de faire appel à la technique du gradient conjugué.

– A l’ordre 2, la notion de courbure de la fonction est utilisée. En plus des dérivées premières, les sensibilités secondes autorisent une vision plus fine du comportement local de la fonction à optimiser. Le cheminement vers le minimum devient ainsi plus direct qu’à l’ordre 1. La méthode BFGS ou celle de Newton appartiennent à cette catégorie de méthode d’optimisation d’ordre 2.

Des contraintes, en plus de celles restreignant le domaine d’exploration (x ∈ Ω), peuvent compliquer le problème de minimisation. Dès que l’une des contraintes est non linéaire, les techniques précédentes doivent être adaptées. La méthode de points intérieurs (IPA pour Interior Point Algorithm) comporte une partie dédiée à la recherche de la direction de descente et une partie dédiée au respect des contraintes.

Ces diverses techniques sont applicables dans un cadre déterministe. A chaque itération Ni d’optimisation,

une unique valeur XNi du paramètre d’optimisation X est calculée. Par conséquent, les méthodes à base de

direction de descente ne renseignent pas sur le niveau de dégradation engendrée par une légère perturbation du paramètre X autour de la valeur optimale X∗ trouvée.

Pour faire intervenir une notion d’incertitude dans le problème d’optimisation, l’idée est de considérer non plus un paramètre X déterministe mais une variable aléatoire Xa. La loi attribuée à Xa est fixée une fois pour

toute. Bien sûr, la quantité f (X) est aussi aléatoire. Dans toute la suite, les variables aléatoires seront désignées par des lettres majuscules (Xa ou Fa= f (Xa)). Les valeurs nominales correspondantes seront, quant à elles, en

minuscule (xa ou fa).

L’incertitude est vue comme une perturbation de la valeur nominale. Il vient :

Xa= xa+ ∆Xa

où ∆Xa est une variable aléatoire de moyenne nulle.

Dans un tel contexte d’incertitude, la traduction la plus proche du problème d’optimisation précédent est (cf [BAN06] ou [HUY02]) :

xa= argminx

a∈ ΩE[f (Xa)]

où l’opérateur E désigne l’espérance mathématique d’une variable aléatoire.

Les méthodes d’optimisation à base de direction de descente ne s’appliquent plus. En effet, l’incertitude peut venir remettre en cause le chemin suivi par l’optimiseur, chemin qui s’appuie essentiellement sur les sensibilités

de la fonction-coût.

Ecrit tel quel, le problème d’optimisation sous incertitude n’est guère plus riche que son équivalent déter- ministe. L’espérance permet simplement de traiter une variable aléatoire plutôt qu’une valeur numérique brute. Pour avoir une réelle plus-value liée à l’introduction de l’aléa au sein du problème d’optimisation, une manière de faire classiquement utilisée consiste à réduire la dispersion. Le but est de minimiser non seulement la moyenne

E[Fa] mais aussi l’écart-type σ[Fa] de la fonction incertaine Fa. Le problème devient alors :

xa= argminx a ∈ Ω    E[f (Xa)] σ[f (Xa)] (IV.1)

On peut dès lors qualifier ce problème d’optimisation robuste. En effet, il contrôle non seulement l’op- timalité de la solution trouvée (minimisation de la moyenne de f ) mais aussi le niveau de dégradation lorsque cette valeur optimale est perturbée (minimisation de l’écart-type de f ).

Nous proposons une formulation innovante du problème d’optimisation sous incertitude. Dans certains cas, il est possible de discerner certaines valeurs critiques (ou seuils) de la fonction f . Par exemple, si la fonctionnelle devient supérieure à l’un de ces seuils, le système se dégrade irrémédiablement. L’écart-type n’en tient pas compte car il ne renseigne que sur le degré de dispersion locale de la fonction. Au passage, dans le domaine de la finance, on parle de méthode value-at-risk pour évoquer l’estimation des probabilités faibles dans le but de mieux contrôler son capital ([HOL03] ou [JOR06]).

Pour adapter le problème d’optimisation, on préférera alors remplacer l’écart-type par une probabilité de

défaillance. En notant fs le seuil de défaillance, le problème d’optimisation s’écrit comme suit :

xa= argminx a∈ Ω    E[f (Xa)] P [f (Xa) > fs] (IV.2)

En version déterministe, ce problème s’écrit comme la minimisation avec contraintes ci-dessous :    x= argminx ∈ Ωf(x) f (x) ≤ fs (IV.3) Au passage, on peut établir la relation suivante. Réduire la probabilité que l’observation incertaine f (Xa)

soit supérieure à la valeur-critique fsse traduit par respecter la contrainte assurant le non-dépassement de cette

même valeur-critique fsen formulation déterministe.

Notons qu’une autre limite des méthodes d’optimisation avec direction de descente apparaît en présence d’une probabilité de défaillance. En effet, une dérivée de probabilité n’a aucune signification. Cette absence de signification fragilise l’ensemble de l’optimisation avec sensibilité.

On comprend dès lors que la technique employée pour résoudre un problème d’optimisation sous incertitude doit vérifier au moins les deux points suivants.

– Les sensibilités sont inappropriées et ne doivent donc pas rentrer dans le cadre de la résolution. En effet, dériver une fonction vis-à-vis d’une variable aléatoire n’a aucun intérêt.

– Une vision globale est nécessaire pour trouver une solution robuste. La notion de compromis entre opti-

malité et robustesse n’a de sens que si la technique utilisée offre tout un éventail de solutions possibles.

Cette richesse n’est pas garantie par les techniques qui se basent sur une direction particulière (cf [RAL06] dans le cas de la réduction du bang sonique). En se focalisant ainsi sur un chemin donné, on peut passer à côté d’une solution plus avantageuse.

Il s’avère que l’algorithme génétique répond tout à fait à ces deux caractéristiques. Nous allons donc faire appel à cette technique de résolution, en commençant par en présenter la structure générale.

1.2

Structure générale d’un algorithme génétique pour résoudre un

Dans le document Conception aérodynamique robuste (Page 185-187)