• Aucun résultat trouvé

PHYSIQUES DE CONVERTISSEURS STATIQUES MULTICELLULAIRES

2.2.3 ALGORITHMES D’OPTIMISATION

La conception en électronique de puissance nécessite l’utilisation de modèles multi-physiques analytiques, semi-analytiques et numériques ainsi que la manipulation de variables continues (par exemple : fréquence de découpage) et discrètes (par exemple : références de composants passifs ou actifs dans une base de données). Ces particularités requièrent un choix judicieux d’algorithme(s) d’optimisation. Ce choix est aussi en fonction des modèles utilisés et des performances attendues en termes de précision des résultats et de rapidité de calcul.

On peut distinguer deux principales familles d’algorithmes d’optimisation selon la manière dont ils parcourent l’espace de solutions [Ledo12] : la famille des algorithmes stochastiques et la famille des algorithmes déterministes.

2.2.3.1 ALGORITHMES STOCHASTIQUES

La recherche d’une solution optimale par ces méthodes ne requiert pas de connaissance de propriétés mathématiques. De plus, elles ont l’avantage de ne pas être piégées par un optimum local. Elles parcourent l’espace de solutions d’une manière pseudo aléatoire, ce qui rend la convergence lente notamment pour les modèles numériques .

Dans cette famille d’algorithmes stochastiques, les algorithmes génétiques sont très utilisés pour leur capacité à gérer des modèles mixtes avec des variables continues et discrètes. Ils sont basés sur le principe de la reproduction génétique. Pour structurer la recherche d’une solution optimale, un algorithme génétique mis en jeu certains paramètres comme les gènes (qui représentent les paramètres d’optimisation), les chromosomes (individus représentés par des structures constituées de gènes), les populations (qui sont des ensembles de solutions possibles pour le problème d’optimisation composés de chromosomes) et les générations (des ensembles de populations).

Cette méthode est basée sur une procédure de sélection pour laquelle les individus les mieux placés (conduisant à la meilleure valeur de la fonction objectif) sont favorisés pour la reproduction. Les opérations affectant la constitution des individus sont le croisement (lors duquel deux individus s’échangent des gènes de leurs structures pour donner de nouveaux chromosomes) et la mutation (pour laquelle un gène au sein d’un chromosome peut être substituée à un autre d’une façon aléatoire). La mutation permet d’éviter de rester ‘bloquer’ dans des optimums locaux ou une convergence prématurée de l’algorithme.

Ainsi à partir d’une génération initiale, la fonction objectif est évaluée pour tous les individus de cette génération. Ensuite, un classement des individus est effectué et les meilleurs sont sélectionnés pour la génération suivante. De nouveaux individus sont créés par les opérations de croisement et de mutation afin d’explorer au mieux l’espace de solutions. Cette démarche itérative se répète jusqu’à l’obtention d’un écart relatif sur la fonction

objectif jugé suffisamment faible ou jusqu’à avoir atteint le nombre maximal de générations [Dura04, Siar14].

Plusieurs variantes d’algorithmes génétiques existent, certaines sont plus adaptées à des optimisations multi-objectifs [CoSi03, Roud04]. Parmi eux nous pouvons citer à titre d’exemple la méthode VEGA (Vector Evaluated Genetic Algorithm) [Scha85], l’algorithme MOGA (Multiple Objective Genetic Algorithm) [FoFl93] et les méthodes SPEA (Strength Pareto Evolutionary Algorithm) et NSGA (Non-dominated Sorting Genetic Algorithm) ainsi que leurs mises à jour SPEA2 et NSGA-II [DPAM02a, SrDe94, ZiLT01]. Ces méthodes se distinguent par leur façon d’évaluer les performances des individus, de constituer les populations et de construire les fronts de Pareto. Des travaux de comparaison ont montré que ces deux dernières méthodes présentent des performances meilleures que les précédentes pour des applications de machines électriques [Bris07].

2.2.3.2 ALGORITHMES DETERMINISTES

Les algorithmes déterministes dirigent la recherche de la solution en se basant sur des propriétés mathématiques ce qui les rend rapides. Dans cette famille d’algorithmes, qui convient mieux pour une procédure d’optimisation rapide, on distingue les méthodes indirectes, qui nécessitent le calcul des dérivées premières voire les dérivées secondes, et les méthodes directes ne nécessitant aucun calcul de dérivée. Les méthodes déterministes présentent l’inconvénient de la possibilité d’être piégées par un minimum local.

Parmi les méthodes déterministes directes il y a la méthode de simplexe [LRWW98] qui est basée sur l’élimination du point le plus mauvais parmi ceux considérés à une itération donnée. Le point éliminé est remplacé par un point meilleur trouvé entre le point éliminé et le centre de gravité des points restants.

Parmi les méthodes indirectes il y a la méthode quasi-Newton et la méthode du gradient conjugué qui orientent la recherche en se basant sur le calcul des dérivées. Dans ce cadre, l’algorithme quasi-Newton SQP (Sequential Quadratic Programming) et ses variantes sont parmi les méthodes les plus utilisées et les plus efficaces [ShFZ11, ZhSa04]. Pour cet algorithme, la fonction objectif est remplacée par le Lagrangien pour prendre en compte les contraintes.

Le choix entre ces différentes méthodes d’optimisation (stochastiques et déterministes) peut être effectué en se basant sur plusieurs critères : précision de la solution, rapidité de convergence, capacité à gérer efficacement plusieurs contraintes, robustesse vis-à-vis du bruit de la fonction objectif, capacité à trouver l’optimum global et capacité à traiter un problème avec des objectifs multiples. Aujourd’hui, aucune méthode n’est capable seule de satisfaire pleinement les besoins de conception des systèmes mécatroniques et particulièrement des convertisseurs de puissance. Une association (une hybridation) d’algorithmes est parfois nécessaire pour mener à bien une démarche de conception par optimisation.

2.2.3.3 METHODES DE TYPE SPACE-MAPPING

Dans le cadre d’une conception multi-niveau avec des modèles de finesses différentes, la technique dite « Space-Mapping » est une solution intéressante pour réduire le temps de calcul [BCDM04, DoGi06, KoBM06]. Cette technique consiste à associer un modèle fin précis et un modèle approximé (grossier) en gardant la précision du modèle fin dans le but de réduire le temps de calcul lors de l’optimisation.

Une variante de cette technique nommée Output-Space-Mapping (OSM) [BCGM03, Hass14, Tran09, TrBB09] qui consiste à modifier le modèle grossier en utilisant des correcteurs afin d’aligner les réponses du modèle grossier avec celles du modèle fin a été introduite pour le dimensionnement de dispositifs électromagnétiques modélisés par éléments finis.

Une approche dite Krigeage - Expected Improvement (K-EI) combine l’utilisation d’un modèle approximé par Krigeage et des modèles fins, puis l’optimisation est effectuée à l’aide de l’algorithme déterministe EI. Le critère EI (Expected Improvement ou espérance de l’amélioration) est un critère particulièrement populaire dans la littérature concernant l’optimisation bayésienne (qui consiste à utiliser un modèle probabiliste de la fonction objectif afin de guider au mieux la recherche de l’optimum) [BeBV11].

L’une des qualités du critère EI est qu’il offre un bon compromis entre l’exploitation et l’exploration. Autrement dit, dans le cas d’un problème de minimisation, le prochain point d’évaluation choisi n’est pas nécessairement celui qui minimise le prédicteur (approche qui mène généralement à une convergence vers un minimum local et non global), mais celui qui maximise l’espérance de l’amélioration apportée par ce nouveau point par rapport au minimum courant, ce qui implique de prendre également en compte l’erreur de prédiction calculée par le Krigeage. Prendre en compte cette erreur d’estimation permet ainsi de ne pas oublier d’explorer les zones peu échantillonnées, susceptibles d’accueillir le minimum global recherché.

L’apport de cette approche Space-Mapping de type K-EI a été démontré pour l’optimisation du placement-routage des composants sur un dissipateur sous contraintes thermique et d’encombrement [LeLL13]. Cette méthode peut être également explorée lors du pré-dimensionnement de convertisseurs multicellulaires en intégrant la contrainte de fiabilité, nécessitant de prendre en considération des profils de missions et pouvant conduire ainsi à des temps de calcul exorbitant avec une méthode d’optimisation traditionnelle.