• Aucun résultat trouvé

Réduction du nombre de calculs du modèle grossier

Dans le document Université de Technologie de Compiègne T (Page 171-176)

Analyse des résultats

V. Réduction du nombre de calculs du modèle grossier

Le but principal du recours à une technique de réduction du coût d’optimisation est la réduction du temps de calcul lors de la phase d’optimisation. Dans le cadre de la conception optimale avec la technique de SM, le temps est majoritairement utilisé pour résoudre plusieurs fois le problème d’optimisation, à chaque itération du SM. Cette partie correspond à la boucle interne du SM entourée par des pointillés dans la figure ci-dessous.

Figure 5.11 Boucle interne dans l’optimisation avec la technique de SM

Il est donc intéressant de réduire ce temps pour réduire encore plus le coût de l’optimisation. Un gain de temps précieux de calcul peut être obtenu en exploitant la nature même du modèle grossier qui, par hypothèse, donne des résultats de calcul imprécis. Le

163

recalage assuré par la fonction de mapping étant local, les résultats des calculs au niveau des points éloignés du point de recalage sont donc très susceptibles d’être incorrects. Dans ce cas, il est donc inutile de chercher une haute précision sur les résultats (sorties) de l’optimisation avec le modèle grossier.

Deux techniques de calcul peuvent être utilisées pour réduire la précision:

- Réduire le critère d’arrêt correspondant à la tolérance sur les sorties : par exemple le fixer à 10-2 au lieu de 10-5 initialement.

- Réduire le nombre maximal d’itérations dans l’algorithme d’optimisation : ceci est possible car l’algorithme de simplexe séquentiel s’approche souvent ‘rapidement’ du minimum recherché et utilise ensuite plusieurs itérations pour localiser plus précisément le point optimal [NEL1965].

Cette deuxième technique permet d’obtenir des résultats équivalents à ceux présentés précédemment pour le cas de l’OSM proportionnel et de MM en remplaçant le nombre maximal d’itérations (évaluations du modèle grossier) à 400 au lieu de 2000 initialement.

On constate que ce changement n’engendre pas d’augmentation du nombre d’évaluations du modèle fin pour ce problème. Néanmoins, ce fait ne peut être généralisé.

L’utilisation d’une approche de recherche par zone de confiance [CON2000] peut également être considérée comme un autre facteur influant sur le nombre d’évaluations du modèle de référence. En effet, cette technique permet, certes, à l’algorithme d’optimisation d’avancer dans une zone dans laquelle le recalage du modèle grossier lui confère une bonne qualité de ses résultats de calcul, mais la réduction de la zone de recherche de l’optimum peut engendrer un ralentissement de l’avancement vers ce dernier.

La figure 5.12 présente les variations de la valeur de la longueur de la machine, pour le problème d’optimisation présenté plus haut en utilisant une approche de recherche avec zones de confiance avec la technique d’OSM proportionnel.

On remarque que, pour le même problème d’optimisation, sans la considération des régions de confiance, l’algorithme d’optimisation converge suite à 6 évaluations du modèle fin alors que 12 évaluations sont nécessaires en considérant les zones de confiance, et ce en partant du même point initial. Les performances de la configuration optimale trouvée sont comparables à celles trouvées sans l’utilisation des régions de confiance.

Il est aussi intéressant de mentionner que cette augmentation du nombre d’évaluations du modèle fin ne dépend pas de la technique d’OSM employée. Il dépend essentiellement du

164

point initial de l’optimisation. Cette approche permet en général de stabiliser la convergence de l’algorithme de SM, et donc souvent au détriment de sa rapidité.

Figure 5.12 Variation de la valeur du coefficient a_Lz au cours de l’optimisation utilisant l’OSM proportionnel avec régions de confiance

Figure 5.13 Design optimal trouvé à l’aide de l’OSM proportionnel avec régions de confiance

Sortie Cu [Nm] Tbob [°C] Ttb [°C] Taim [°C] η [%] Mtot [kg] Maim [kg] Lz [cm]

Valeur 160 157 150 28 52.5 10.8 0.92 4.05

Tableau 5.6 Performances de la machine trouvées avec l’OSM proportionnel avec régions de confiance

165

VI. Conclusion

La technique de Space Mapping impose à son utilisateur de concevoir un second modèle du dispositif à dimensionner ce qui représente une tâche supplémentaire par rapport à une approche de dimensionnement optimal classique ayant recours à un seul modèle que l’on prend généralement fin et précis.

Ce chapitre a permis de comparer les performances de l’optimisation avec la technique de SM sur les sorties avec une optimisation uni-modèle. La comparaison s’est faite sur un problème réel et suivant un critère principal : la comparaison du nombre d’évaluations du modèle fin (ayant l’inconvénient de nécessiter un temps de calcul important).

Les deux techniques OSM proportionnel et MM ont réussi à trouver des solutions ayant des pertinences tout à fait comparables à celles de la solution trouvée avec l’approche classique. L’OSM et le MM ont, en revanche, évalué le modèle fin en un nombre très limité de fois (moins d’une dizaine) tandis que pour l’autre approche, le modèle de référence a été évalué plus de mille fois.

Ce résultat démontre l’efficacité de la technique de SM pour réduire le nombre d’évaluations d’un modèle lent (par hypothèse), permettant un gain important en temps de calcul et en coût d’optimisation.

Cette technique de dimensionnement optimal montre ainsi tout son intérêt pour résoudre des problèmes d’optimisation ayant des coûts de calcul prohibitifs, tels que les problèmes avec des couplages multi-physiques complexes et pouvant utiliser des modélisations EF.

Cette technique permet, certes, de réduire d’une manière considérable le nombre d’évaluations du modèle de référence pour résoudre un problème de dimensionnement optimal, mais elle présente, néanmoins, un inconvénient majeur qui réside dans la nécessité d’un réglage délicat sur trois niveaux différents :

- Les hypothèses prises en compte pour la construction du modèle grossier : il faut veiller à ce que le modèle grossier ne soit pas trop « simple » (et donc trop rapide) ; en effet, s’il ne décrit plus assez précisément les variations des sorties en fonction des entrées, sa rapidité excessive sera un handicap pour la convergence globale de l’algorithme de SM. Un compromis doit être trouvé entre la qualité des résultats donnés par le modèle grossier et son temps de calcul.

166

- La manière dont la fonction objectif et les contraintes sont prises en compte : le choix d’utiliser une seule fonction pour le calcul des contraintes ou pas ainsi que le choix des coefficients de pondération influent sur la solution trouvée. Une prise en compte des contraintes dans la fonction objectif peut permettre de ne pas recalculer ces dernières dans une autre fonction, ce qui évite une évaluation supplémentaire du modèle. En même temps, cette prise en compte implicite dans la fonction objectif influe obligatoirement sur le résultat obtenu vu que la fonction objectif est modifiée.

- Le choix des critères d’arrêt : la boucle de recalage avec le SM peut s’arrêter trop tôt, et par conséquent donner des résultats qui ne sont pas optimaux ou bien trop

« tardifs », ce qui peut augmenter considérablement le nombre d’évaluations du modèle fin.

Une connaissance a priori du problème à résoudre ainsi que de la manière dont varie la fonction objectif permet d’éviter ces inconvénients et de mieux exploiter cette technique de dimensionnement optimal.

167

Dans le document Université de Technologie de Compiègne T (Page 171-176)