• Aucun résultat trouvé

3.2 Simulation de l’essai en croix par LS-DYNA

4.1.2 M´ethodes d’optimisation avec contraintes

Un probl`eme d’optimisation est dit probl`eme avec contraintes s’il contient au moins une fonction contrainte de types contraintes d’´egalit´e, hj(X) = 0, ou de type

contraintes d’in´egalit´e, gi(X) ≤ 0. Un probl`eme avec contraintes peut s’´ecrire de

fa¸con g´en´erale sous la forme de l’expression (Eq. (4.5)). Si nous consid´erons qu’une contrainte d’´egalit´e hj(X) = 0 peut ˆetre d´ecrite par deux contraintes d’in´egalit´e

       M inimiser f (X), X = (x1, x2, ...xn)T Sous gi(X) ≥ 0, i = 1, 2, ..., s xkmin≤ xk ≤ xkmax k = 1, ..., n (4.5)

L’existence de fonctions contraintes dans un probl`eme d’optimisation demande une prise en consid´eration de celles-ci dans la r´esolution du probl`eme, car une solution qui minimise la fonction objectif ne sera valable que dans le cas o`u elle respecte aussi les contraintes existantes.

Les contraintes impos´ees par un cahier des charges, celles ajout´ees par le concep- teur, doivent ˆetre prises en compte dans le probl`eme d’optimisation. Il y a plusieurs m´ethodes d’optimisation pour le traitement des probl`emes avec contraintes. Ce- pendant, pour des raisons de robustesse et de facilit´e de mise en œuvre, on peut transformer un probl`eme d’optimisation avec contraintes en une suite de probl`emes sans contraintes. Cette transformation peut ˆetre effectu´ee en ajoutant des p´enalit´es `a la fonction objectif. A titre d’exemple, la m´ethode du Lagrangien nous permet de p´enaliser les contraintes par leur lin´earisation. Enfin, le probl`eme contraint peut ˆetre transform´e en probl`eme non-contraint `a objectifs multiples.

4.1.2.1 M´ethodes de p´enalit´e

L’int´erˆet de ces m´ethodes r´eside dans la simplicit´e de leurs principes et leur relative efficacit´e pratique (Wurtz and Bigeon [1996]). Le concept de base est de transfor- mer la r´esolution du probl`eme (4.5) sous contraintes en une suite de probl`emes sans contraintes en associant `a la fonction objectif une p´enalit´e d`es qu’une contrainte est viol´ee.

La fonction objectif f (X) du probl`eme (4.5) est alors remplac´ee par la fonction suivante `a minimiser (Eq. (4.6)) :

ϕ(X, r) = f (X) + r.h(X) (4.6)

o`u h(X) est la fonction de p´enalit´e qui est continue et d´ependante des contraintes gi(X), r est un coefficient de p´enalit´e (toujours positif). La fonction de p´enalit´e est

choisie de telle fa¸con que les contraintes seront garanties dans tous les processus de recherche de l’optimum. Cette caract´eristique est tr`es importante pour ´eviter

un arrˆet pr´ematur´e de l’algorithme d’optimisation.

Selon les types de contraintes et le type de fonction h(X), on distingue la m´ethode des p´enalit´es int´erieures et la m´ethode des p´enalit´es ext´erieures que nous allons exposer dans les sections suivantes :

1. La m´ethode de p´enalit´e ext´erieure

La fonction h(X) est utilis´ee pour d´efavoriser les positions non admissibles. La fonction de p´enalit´e doit ˆetre continue et `a d´eriv´ees continues.

h(X) =

m

X

j=1

(max(0, gj(X)))2 (4.7)

Le probl`eme d’optimisation sans contraintes obtenu pourrait ˆetre r´esolu di- rectement pour une valeur de r suffisamment grande de telle fa¸con que les contraintes soient satisfaites mais ce choix entraˆıne un mauvais condition- nement de ϕ(X, r) et donc il engendre un probl`eme num´erique lors de la r´esolution (Minoux[1983]). Pour cette raison, les m´ethodes de p´enalit´e sont en g´en´eral r´esolues de mani`ere it´erative : une suite de valeurs croissantes de r est g´en´er´ee `a chaque it´eration k du processus, le probl`eme d’optimisation sans contraintes suivant est r´esolu (Eq. (4.8)) :

ϕ(X, r, k) = f (X) + rk

m

X

j=1

(max(0, gj(X)))2 (4.8)

Lorsque k tend vers l’infini, l’expression (4.8) devient ´equivalente `a notre probl`eme d’optimisation sous contraintes (4.5).

Le coefficient r doit ˆetre choisi sup´erieur `a 1, et ne d´epasse pas une certaine valeur pour ´eviter le probl`eme num´erique cit´e pr´ec´edemment.

Grˆace aux caract´eristiques de continuit´e et de d´erivabilit´e de la fonction de p´enalit´e, cette m´ethode est applicable partout. De plus, elle est facile `a mettre en œuvre.

L’un des avantages de la m´ethode de p´enalit´e ext´erieure est que le point de d´epart n’est pas n´ecessairement admissible tout en garantissant que le point final sera dans le domaine admissible. La fonction de p´enalit´e ext´erieure est continue dans tout le domaine d’´etude, admissible ou non admissible, cependant elle pr´esente l’inconv´enient de conduire `a un optimum r´ealisable

seulement quand k tend vers l’infini, et celui d’approcher ce point par une suite de solutions non admissibles.

2. La m´ethode de p´enalit´e int´erieure

Dans le cas de la p´enalit´e int´erieure, on cherche `a d´efinir la fonction h(X) de telle sorte que, plus la contrainte est active, c’est-`a-dire plus X se rapproche de la fronti`ere du domaine admissible, plus la fonction de p´enalisation h(X) croˆıt et tend vers l’infini et par cons´equent, on a moins de chance `a trouver le minimum proche de la fronti`ere du domaine admissible. Cette caract´eristique montre que cette technique ne convient pas pour r´esoudre les probl`emes poss´edant des contraintes d’´egalit´es.

Les fonctions de p´enalit´es int´erieures les plus employ´ees dans la litt´erature sont 1. La fonction inverse h(X) = m X j=1 −1 gj(X) (4.9) 2. La fonction logarithmique h(X) = − log(gj(X)) (4.10)

Dans ce cas, la fonction objectif du probl`eme d’optimisation (Eq. (4.5)) est remplac´ee par la fonction suivante

ϕ(X, r, k) = f (X) − r−k m X j=1 1 gj(X) (4.11)

Le coefficient r est choisi suffisamment grand pour que la recherche se fasse initialement loin des limites du domaine de faisabilit´e. A chaque nouvelle it´eration, la recherche pourra se rapprocher d’avantage des limites de fai- sabilit´e, la p´enalit´e diminuera et (4.5) deviendra ´equivalent `a (4.11) pour r−k tendant vers z´ero, i.e. k tendant vers l’infini. L’un des avantages de la

fonction de p´enalisation int´erieure pr´esent´e est de conduire `a une s´equence de solutions r´ealisables. N´eanmoins, elle a l’inconv´enient majeur d’ˆetre dis- continue sur l’interface entre les domaines admissible et inadmissible. 3. M´ethode de p´enalisation radicale

La m´ethode de p´enalisation radicale est une m´ethode de p´enalisation tr`es connue dans le domaine de l’optimisation ´evolutionniste (Michalewicz et al.

[1996]). Il s’agit d’´ecarter les solutions non r´ealisables en attribuant `a la fonction de transformation une valeur tr`es ´elev´ee en cas de minimisation (h −→ ∞), ou une valeur nulle en cas de maximisation (h −→ 0). Par cons´equent, la probabilit´e de survie de ces solutions, d´etermin´ee par les m´ecanismes de s´election, est quasi-nulle.

Cette m´ethode est s´eduisante en raison de sa grande simplicit´e. Elle peut ˆetre appliqu´ee avec succ`es lorsque l’espace de recherche est convexe. Dans le cas contraire, cette approche a de s´erieuses limitations, les solutions situ´ees dans l’espace irr´ealisable ne pouvant ˆetre am´elior´ees en raison de l’absence de directions donn´ees par la m´ethode de p´enalisation.

Documents relatifs