• Aucun résultat trouvé

IV LA DEMARCHE D’OPTIMISATION : APPLICATION A UN POUSSOIR DE SOUPAPE

IV.5 Vers une optimisation automatique

IV.5.2 Les algorithmes d’optimisation

Un problème d’optimisation revient à trouver les paramètres qui minimisent une fonction coût, ces paramètres pouvant être soumis à des contraintes. Par exemple on peut vouloir modifier la forme d’une pièce (les paramètres sont alors les cotes de la pièce) afin de minimiser son poids (c’est la fonction coût), tout en s’assurant que cette pièce conserve certaines propriétés mécaniques, comme sa rigidité et que sa géométrie lui permette d’être fixée dans des zones précises (ce sont les contraintes).

Traduit sous forme mathématique, ce problème d’optimisation de forme en forgeage peut être posé sous la forme suivante :

       ℜ ∈ = ∀ = = ∀ ≤ Φ n e i i i m i h m i c

µ

µ

µ

µ

; 1 0 ) ( ; 1 0 ) ( ) ( r Mininimise

) (µ

Φ représente la fonction coût, ci(

µ

) et hi(

µ

) représentent les contraintes inégalité et égalité auxquelles est soumis le vecteur des paramètres à optimiser µ.

En fonction des spécificités du problème d’optimisation et des ressources dont on dispose pour les résoudre, différents algorithmes d’optimisation peuvent être utilisés. Ils peuvent être classés en trois catégories :

- les algorithmes à direction de descente (d’ordre 1 car souvent basées sur un calcul de gradient) ;

- les méthodes d’ordre 0 et les algorithmes évolutionnaires ; - les méthodes hybrides.

IV.5.2.1 Les algorithmes à direction de descente

Ces algorithmes font appel au gradient des fonctions coût. La fonction coût doit alors être au moins une fois différentiable par rapport aux paramètres à optimiser. Une direction de descente d est telle qu’un déplacement de µ le long de d fait diminuerΦ(µ). Un pas de descente « optimal » permet de faire décroître la fonction le plus possible à chaque étape. Différentes méthodes existent et correspondent à la manière de choisir la direction de descente. Nous citerons notamment les suivantes, sans les expliciter ; le lecteur pourra consulter [FOR04] par exemple.

- la méthode de la plus forte pente ; - la méthode du gradient conjugué ; - la méthode de Newton ;

- les méthodes quasi-Newton.

De plus, la recherche de la valeur optimale du pas de descente est essentielle puisqu’elle permet d’assurer la convergence. Elle est cependant assez coûteuse en temps de calcul car elle nécessite plusieurs évaluations de la fonction coût.

Les algorithmes à direction de descente sont particulièrement adaptés aux problèmes convexes, donc présentant un seul optimum. En revanche, pour des problèmes multi-optima, ils ne permettent d’atteindre que le minimum le plus proche du point de départ. Un mauvais choix des paramètres de départ conduira à un minimum local et non au minimum global. IV.5.2.2 Les méthodes d’ordre 0 et les algorithmes évolutionnaires

Ces algorithmes ne font pas appel au gradient de la fonction coût. Le principe consiste à générer un ou plusieurs nouveaux points plus proches de l’optimum à partir de la connaissance de la valeur de la fonction coût d’un ou plusieurs points de l’espace des paramètres. On trouve notamment :

- les algorithmes évolutionnaires dont les algorithmes génétiques et les stratégies d’évolution (S.E.) ;

- les surfaces de réponse.

Les algorithmes évolutionnaires sont inspirés de la génétique et des mécanismes de la sélection naturelle basés sur la théorie de l’évolution de Darwin. Pour commencer, une population de solutions potentielles appelées individus, est arbitrairement choisie dans l’espace des paramètres. Les performances de ces individus sont évaluées (la valeur de la

mutation » peuvent être utilisés pour générer un nouvel ensemble d’individus appelés « population des enfants ». Cette nouvelle population est évaluée afin de juger lesquels des enfants méritent de remplacer certains parents pour constituer la génération suivante. Tant que les critères d’arrêt ne sont pas satisfaits (par exemple convergence de l’ensemble des solutions vers un même extremum ou bien atteinte d’un seuil de performance fixé), on recommence le cycle.

Figure IV-33 : Organigramme d’un algorithme évolutionnaire

La mutation est l’opérateur de modification d’un ou plusieurs gènes d’un individu dans le but d’introduire une nouvelle variabilité dans la population. La mutation est toujours présente dans les SE et elle garantie la globalité de la recherche.

Le croisement est l’opérateur de reproduction appliqué aux individus de la population et qui consiste à échanger ou combiner des composantes entre plusieurs individus. Le croisement est facultatif pour les SE.

Génération de la population initiale

Evaluation exacte de tous les individus de la population initiale

Population actualisée des µ parents

Application des opérateurs d’évolution : sélection,

croisement, mutation

Population obtenue des λ enfants

Evaluation exacte des λ individus de la population des enfants

Test d’arrêt

Extraction des solutions oui non

Remplacement (actualisation) de la population des parents

µ : nombre de parents λ : nombre d’enfants

La sélection est le processus de choix des individus utilisés pour la reproduction, basé sur leurs performances.

Le remplacement est le processus de formation d’une nouvelle population à partir de l’ensemble des parents et des enfants, effectué le plus souvent su leurs performances. Le remplacement est déterministe dans les SE.

Les méthodes de surface de réponse sont basées sur les plans d’expérience. Ceux-ci permettent, dans le domaine expérimental, de sélectionner les expériences à réaliser pour minimiser leur nombre tout en ayant la meilleure précision possible. L’objectif est de conduire à la modélisation et à l’optimisation des phénomènes étudiés. Dans le domaine numérique, les méthodes d’optimisation par surface de réponse consistent à approximer la fonction coût sur l’espace des paramètres d’optimisation, connaissant les valeurs de la fonction en certains points qui ont été évalués. Le problème d’optimisation devient alors un problème d’optimisation approché qui peut être résolu avec tous les types d’algorithmes d’optimisation, mais avec un temps de résolution bien inférieur à celui du problème réel. Les différentes méthodes se caractérisent par la manière de réaliser l’échantillonnage des points à évaluer et la méthode pour approximer la fonction coût.

Les algorithmes évolutionnaires et les méthodes de surface de réponse sont des méthodes d’optimisation globale et sont efficaces pour des nombres de paramètres importants.

IV.5.2.3 Les méthodes hybrides

Les méthodes hybrides consistent à mélanger deux ou plusieurs méthodes distinctes afin de ne retenir que les caractéristiques les plus intéressantes de chacune de ces méthodes. Par exemple, [OUL03] lancent une recherche au niveau global avec un algorithme évolutionnaire puis ils passent à la recherche locale avec un algorithme à direction de descente pour affiner le résultat. Le point délicat consiste à déterminer le moment à partir duquel doit se faire la transition.

La méthode utilisée pour réaliser l’optimisation automatique de la géométrie du poussoir de soupape est une méthode hybride basée sur une stratégie d’évolution utilisant un outil d’approximation (Métamodèle) permettant de diminuer le nombre d’évaluations exactes [EMM02]. Cela se traduit par deux modifications dans l’algorithme évolutionnaire (Figure

IV-34) :

- La base de données initiale est obtenue par la méthode d’échantillonnage aléatoire qui va choisir aléatoirement dans tout l’espace de recherche (2*nombre de paramètres) de points initiaux.

- Seulement 20% de la population d’enfants est évaluée exactement à chaque génération, le reste étant approximé par le Métamodèle.

Figure IV-34 : Organigramme de la stratégie d’évolution avec Métamodèle utilisée pour l’optimisation du poussoir de soupape