• Aucun résultat trouvé

B.2.1 Plan d’exp´erience

Un plan d’exp´erience est une suite ordonn´ee d’essais ´el´ementaires d’une exp´erimenta- tion. Avec le plan d’exp´erience, l’exp´erimentateur peut s´electionner les essais `a r´ealiser et la strat´egie `a d´eployer pour aboutir le plus rapidement possible aux r´esultats esp´er´es. Le plan d’exp´erience permet de s’affranchir des essais inutiles `a l’interpr´etation des r´esultats. Dans le cas de l’optimisation, il permet d’obtenir les param`etres les plus influents dans un processus. On peut citer notamment la m´ethode Taguchi qui permet d’obtenir des renseignements pr´ecieux sur les variables importantes des proc´ed´es. En I.4.3, nous avons

vu que dans le domaine de la forge, Khoury et al.[63] ont propos´e une approche num´e-

rique qui permet d’avoir l’influence des param`etres g´eom´etriques de l’outil sur l’´energie de d´eformation. Par la variation des param`etres g´eom´etriques de l’outillage, les auteurs ont mis en ´evidence les param`etres les plus influents sur l’´energie de d´eformation ainsi que la d´eformation moyenne dans la pi`ece produite. A partir de ces informations, il est plus facile de contrˆoler le proc´ed´e en agissant sur ses param`etres critiques.

B.2.2 Surface de r´eponse

Dans la majorit´e des cas d’optimisation, les fonctions objectifs et les contraintes sont

implicites par rapport aux variables d’optimisation [71]. Dans le cas du calcul num´eriques,

elles sont souvent ´evalu´ees `a l’aide d’analyses ´el´ements finis ou volumes finis. Une ´evalua-

tion de la fonction objectif dans ce cas est souvent coˆuteuse ; ce qui engendre des temps

d’optimisation trop importants. Pour pallier ce probl`eme on fait appel `a des m´ethodes

permettant d’approximer les fonctions objectifs et les contraintes. Le probl`eme initial est remplac´e par une s´erie de probl`emes approch´es ou explicites. L’approximation des fonc- tions et contrainte est construite `a partir des points d’´evaluation choisis par l’utilisateur

[71]. Le choix des points d´epend de la m´ethode d’approximation et/ou du plan d’exp´e-

rience choisi [71].

B.2.3 Les m´ethodes stochastiques

Les m´ethodes stochastiques, ou d´eterministes, font appel `a des tirages al´eatoires d’un nombre de param`etres pour lesquels la fonction objectif et les contraintes sont ´evalu´ees

[71]. Ce sont des m´ethodes qui ne n´ecessitent pas d’estimation de d´eriv´ees de la fonction

objectif. Des fonctions objectifs relativement bruit´ees n’ont pas d’effet notable sur les r´e- sultat d’optimisation. Elles pr´esentent aussi l’avantage d’une facilit´e de mise en oeuvre. Par contre elles requi`erent un nombre important d’´evaluations pour atteindre la solution optimale. Les algorithmes d’optimisation les plus connus de cette cat´egorie sont les al- gorithmes ´evolutionnistes, l’algorithme de recuit simul´e, de Monte-Carlo et les m´ethodes hybrides.

B.2.4 Les m´ethodes de Monte Carlo

Ces m´ethodes, dont le nom fait allusion au jeu de hasard pratiqu´e `a Monte Carlo, ont ´et´e invent´ees en 1947 par Nicholas Metropolis, et publi´ees pour la premi`ere fois en 1949 dans un article co-´ecrit avec Stanislas Ulam. La fonction est ´evalu´ee en un grand nombre de points choisis al´eatoirement. Seuls les d´eplacements al´eatoires permettant de diminuer la fonction objectif sont accept´es. Pour obtenir des r´esultats statistiquement fiables, il est n´ecessaires d’avoir un grands nombre de points de d´epart. Ce nombre est d’autant plus grand que le nombre de param`etres est important. L’algorithme correspondant s’´ecrit tout simplement :

1. G´en´erer un point initial P ,

2. G´en´erer un point P0 par une op´eration al´eatoire sur P ,

3. si le scalaire Φ(P0) est meilleur que Φ(P ), alors P = P0. Sinon retour en 2.

B.2.5 Les m´ethodes du recuit simul´e

Le recuit simul´e est une m´etaheuristique d´evelopp´ee par analogie avec les processus de recuit utilis´es en m´etallurgie et qui visent `a atteindre une configuration minimale d’´energie. Des d´eplacements al´eatoires sont effectu´es `a partir d’un point initial. Si un d´eplacement m`ene `a une meilleure valeur de la fonction `a minimiser, il est accept´e. Sinon, il est accept´e

avec une probabilit´e :

p = exp(−KT|δf|) (4)

O`u δf est la variation de la fonction, T est assimil´e `a une temp´erature qui d´ecroit au cours

du temps et k est une constante.

B.2.6 Les algorithmes ´Evolutionnistes

Ces algorithmes sont inspir´es de la g´en´etiques et des m´ecanismes de s´election natu- relle bas´es sur la th´eorie de l’´evolution de Darwin. Le principe est de simuler l’´evolution d’une population d’individus divers auxquels on applique diff´erents op´erateurs g´en´etiques

[92]. Ces individus sont soumis `a une s´election `a chaque g´en´eration. Ces algorithmes com-

mencent `a connaitre un succ`es dans l’industrie car ils sont particuli`erement adapt´es aux probl`emes d’optimisation comportant de nombreux param`etres. A chaque g´en´eration, une nouvelle population du mˆeme nombre d’individus est cr´e´ee par :

1. ´Evaluation des individus (calcul de la fonction de chaque individus),

2. S´election des individus les plus forts,

3. Reproduction par croisement entre les individus les plus forts et mutation.

B.2.7 Les m´ethodes hybrides

Ces m´ethodes consistent `a coupler les m´ethodes stochastiques et les m´ethodes d´eter- ministes. Le processus d’optimisation est initialis´e avec les m´ethodes `a gradient `a partir des points obtenus avec les m´ethodes stochastiques. On peut esp´erer ainsi am´eliorer les optima locaux de la fonction.

Certains algorithmes permettent de combiner les diff´erentes m´ethodes stochastiques afin d’am´eliorer la robustesse. Nous pouvons citer ici l’algorithme GODLIKE ”Global Optimum

Determination by Linking and Interchanging Kindred Evaluators” [90]. Il a ´et´e d´evelopp´e

par Rody P.S. Oldenhuis de l’universit´e de technologies de Delft de la Hollande (”Delft

University of Technology, Departement of Astrodynamics & Satellite Systems”).

C

Algorithmes d’optimisation

Documents relatifs