• Aucun résultat trouvé

Dans un premier temps, et jusqu’a mention du contraire, tous les résultats présentés concernent l’optimisation du critère axial offset. Dans un premier temps, les performances de l’algorithme avec les paramètres de référence sont étudiées. Pour cela, l’algorithme AMS- (1+λ)-EA proposé à la Section 4.6.2 est exécuté deux fois avec deux configurations différentes : l’une sur 3072 processeurs durant 24 heures et la seconde sur 1024 processeurs durant 72 heures. Dans tous les cas, le temps de calcul séquentiel est d’environ 74000 heures. Ces valeurs sont choisies de façon à garantir un nombre d’évaluations similaire entre les deux simulations, qui se situe aux alentours de 105 évaluations.

Un taux de mutation p communément utilisé avec les algorithmes évolutionnaires est égal à l’inverse du nombre de variables, pour que l’opérateur de mutation modifie en moyenne une variable par mutation. Avec un nombre de onze variables, le taux de mutation est fixé à p = 0.1 pour la paramétrisation de référence. La plage de variation aléatoire, est déterminée par le paramètre r qui en modifie l’amplitude. Ce paramètre est arbitrairement choisi égal à 0.05 (5% de la plage de variation totale de la variable en question) pour la paramétrisation de référence.

Nous présentons dans la suite de cette section les performances des deux exécutions de l’algorithme avec ces paramètres de référence.

5.2.1 Étude du temps de calcul

Les performances d’un algorithme asynchrone dépendent de la distribution du temps de calcul (voir Section 4.4). La Fig. 5.1 présente la distribution du temps de calcul et permet de justifier à postériori l’utilisation d’un algorithme asynchrone. La distribution est en effet très étalée (variance de 386.4), indiquant que les temps de calcul d’une solution à l’autre peuvent être très différents. Le temps moyen d’une simulation est de 2426 secondes (soit 40 minutes) alors que le calcul le plus rapide est effectué en 1629 secondes (soit 27 minutes), et que le calcul le plus long dure 6169 secondes (soit une heure et 40 minutes). On remarque de plus que la distribution présente une queue importante, et qu’il y a donc plus de solutions dont le temps de calcul est long (supérieurs à la moyenne) que solutions dont le temps de calcul est court, tendant à diminuer le facteur d’utilisation des ressources en cas d’algorithme synchrone. L’asynchronicité de l’algorithme permet ainsi d’éviter les temps morts pour les processeurs les plus rapides, et d’augmenter le nombre de solutions évaluées.

La comparaison entre les distributions de temps de calcul pour la totalité des solutions et pour les seules solutions qui améliorent la valeur de critère montre que les bonnes solutions sont en général plus rapides à évaluer et la variance de la distribution de temps de calcul correspondante est plus faible. Dans le but d’améliorer les performances de l’algorithme en termes de temps de calcul et donc de nombre de solutions testées, il est intéressant d’analyser la relation entre les temps de calcul et la valeur du critère. Dans le cas de l’optimisation du critère axial offset, une solution peu performante signifie que le pilotage correspondant induit d’importantes perturbations sur le cœur. Ainsi, l’état du cœur entre deux pas de temps successifs est très différent et le temps de calcul permettant de passer d’un état à un autre est à priori important. Intuitivement, on peut s’attendre à ce qu’un temps de calcul long soit associé à une solution peu performante. La Fig. 5.2 trace pour chacune des solutions évaluées la valeur du critère axial offset normalisé à la valeur de la gestion actuelle (CAO(x)/CAO(ref)

en fonction du temps de calcul.

CHAPITRE 5. OPTIMISATION MONO-OBJECTIVE 1e+01 1e+03 1e+05 2000 4000 6000 8000 Temps de calcul (s) Nombre d'occurences Total Meilleures solutions

Figure 5.1 – Distribution des temps de calcul. En bleu plein la totalité des solutions, en rouge uniquement celles qui améliorent la meilleure solution courante.

tions ont tendance à être plus rapides à calculer. Le coefficient de corrélation de Spearman est de ρ = 0.67 : la corrélation est significative, mais elle n’est pas forte (ρ < 0.9). Les moins bonnes solutions ne sont donc pas nécessairement les plus lentes à être évaluées. Une sélection sur ce seul critère de temps de calcul ne s’avère finalement pas envisageable puisque de bonnes solutions seraient éliminées alors que certaines mauvaises seraient gardées.

5.2.2 Dynamique de la recherche

Analyser la dynamique de la recherche permet d’étudier la manière dont la valeur de critère diminue au cours de la recherche. Cette dynamique est caractéristique du paysage de fitness et permet d’identifier les paramètres à modifier dans le but d’améliorer les performances de l’algorithme. La figure 5.3 montre la dynamique de l’évolution du critère en fonction du nombre d’évaluations reçues par le processeur maître. Un point est tracé à chaque fois que la meilleure solution connue est améliorée, c’est-à-dire que la valeur de critère de la nouvelle solution est inférieure ou égale à la meilleure connue. Les points pour lesquels le nombre d’évaluations est inférieur au nombre de processeurs (3072 ou 1024) représentent les solutions de la première génération, tirée de manière pseudo-aléatoire. La plupart du temps, ces points sont de moins bonne qualité que la gestion actuelle. Durant cette phase exploratoire aléatoire, la valeur du critère diminue peu. Avec les paramètres de référence de l’algorithme, il est tout de même possible de réduire la valeur du critère de 40% par rapport à la gestion actuelle. Cette valeur est obtenue avec les deux exécutions de l’algorithme. La performance est satisfaisante, mais les dynamiques suggèrent tout de même des améliorations possibles. Tout d’abord, il y a très peu de paliers d’amélioration, le nombre de solutions améliorant strictement la solution courante étant d’une dizaine pour les deux optimisations soit 0.01% du nombre de solutions évaluées. Cette idée est de plus renforcée par les plateaux en fin de simulations, durant lesquels

Figure 5.2 – Corrélation entre valeur de critère normalisé et temps de calcul.

très peu de solutions améliorent strictement la solution courante, mais où beaucoup présentent la même valeur de critère. À la fin de la simulation utilisant 3072 processeurs par exemple, 50000 nouvelles solutions environ doivent être évaluées pour atteindre le plateau suivant. La majeure partie du temps, l’algorithme se déplace donc sur ce qu’on pourrait assimiler à des plaines dans le paysage de la fonction objectif où les améliorations possibles sont très rares. On en conclut que la neutralité (Section 4.2.3) est très importante dans ce problème et qu’il est important de la prendre en compte dans l’algorithme AMS-(1+λ)-EA (Section 4.6.2). Ces deux premières simulations montrent ainsi la capacité de l’algorithme à trouver des solutions meilleures que la gestion actuelle, mais suggèrent également que le choix des paramètres de l’algorithme (comme les paramètres de mutation) peut être amélioré pour explorer plus rapidement les plateaux du paysage de fitness.

5.2.3 Analyse de la mutation avec les paramètres de référence

La dynamique de l’algorithme montre que les améliorations strictes sont rares et que beaucoup de solutions peuvent avoir la même valeur de fitness. Cette section analyse plus finement l’opérateur de mutation en vue de l’améliorer. Pour cela, on détermine les proba- bilités de neutralité et d’amélioration qui sont respectivement les probabilités d’obtenir une solution ayant la même valeur de critère et d’obtenir une solution qui améliore strictement la valeur du critère après mutation. Ces probabilités peuvent être vues comme un indicateur des performances de l’algorithme, et dépendent, pour un problème donné, de l’opérateur de mutation, mais également des autres paramètres ajustables de l’algorithme relatifs à l’exploi- tation. Plus la probabilité de neutralité (ou taux de neutre) est importante, moins les chances d’amélioration et la capacité d’exploration de l’espace de recherche sont grandes. Un taux d’amélioration important correspond au contraire à un algorithme performant. La figure 5.4 présente ces probabilités en fonction de la valeur de critère pour chacune des deux exécutions.

CHAPITRE 5. OPTIMISATION MONO-OBJECTIVE

Figure 5.3 – Dynamique de la recherche de l’algorithme asynchrone pour les paramètres de référence (r = 0.05 et p = 0.1), et pour deux simulations avec 3072 et 1024 processeurs.

La probabilité d’amélioration diminue lorsque la valeur de critère diminue (lorsque les solutions s’améliorent). La vitesse de convergence vers de meilleures solutions est en effet plus rapide au début de l’optimisation qu’à la fin (Fig. 5.3). Les régressions linéaires (coefficients ρ positifs et significatifs, R2 supérieurs à 50%) confirment cette observation. La tendance est beaucoup moins nette dans le cas du taux de neutralité (ρ et R2 faibles), et cette faible corrélation avec la valeur de fitness suggère que la neutralité est un phénomène important durant tout le processus d’optimisation.

Une façon de comprendre la forme locale du paysage (voisinage des solutions) est d’étudier un peu plus finement les caractéristiques des solutions résultantes de la mutation (solutions mutantes). On propose d’étudier la distance entre solutions mutantes et solutions mutées lorsque les mutations sont neutres ou améliorantes. La distance de Hamming (nombre de variables différentes entre deux solutions, sans considération d’écart entre les variables diffé- rentes) est présentée en Fig. 5.5.

On remarque que les distributions des deux exécutions sont similaires, et ce pour les deux types de solutions mutantes considérées, malgré des paramètres λ différents. La distribution des distances dans le cas de solutions mutantes améliorant la valeur de critère est ainsi centrée autour des valeurs de distance de Hamming de 2 ou 3, ce qui signifie qu’en moyenne il faut modifier 2 ou 3 variables par solution pour avoir une amélioration. Bien entendu, ce n’est ni un critère suffisant, ni nécessaire, mais il apporte tout de même une tendance lorsqu’il est comparé à la distribution des distances dans le cas d’une solution mutante neutre. Dans ce dernier cas, la distance moyenne se situe plutôt autour de 1, c’est-à-dire la distance de Hamming minimale entre deux solutions non identiques. Nous rappelons également qu’en moyenne une variable

● ● ● ● ● ● ● ● ● ● ● ● ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 ρ =0.713 R2=0.509 R2=0.509 R2=0.509 R2=0.509 R2=0.509 R2=0.509 R2=0.509 R2=0.509 R2=0.509 R2=0.509 R2=0.509 R2=0.509 −0.05 0.00 0.05 0.10 0.15 0.60 0.65 0.70 0.75 Critère normalisé Probabilité d'amélior ation ●● ● ● ● ● ● ● ● ρ =0.747 ρ =0.747 ρ =0.747 ρ =0.747 ρ =0.747 ρ =0.747 ρ =0.747 ρ =0.747 ρ =0.747 R2=0.558 R2=0.558 R2=0.558 R2=0.558 R2=0.558 R2=0.558 R2=0.558 R2=0.558 R2=0.558 −0.04 0.00 0.04 0.08 0.60 0.65 0.70 0.75 Critère normalisé Probabilité d'amélior ation ● ● ● ● ● ● ● ● ● ● ● ● ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 ρ = −0.347 R2=0.121 R2=0.121 R2=0.121 R2=0.121 R2=0.121 R2=0.121 R2=0.121 R2=0.121 R2=0.121 R2=0.121 R2=0.121 R2=0.121 0.2 0.3 0.4 0.5 0.60 0.65 0.70 0.75 Critère normalisé Probabilité de neutre ● ● ● ● ● ● ●● ● ρ = −0.016 ρ = −0.016 ρ = −0.016 ρ = −0.016 ρ = −0.016 ρ = −0.016 ρ = −0.016 ρ = −0.016 ρ = −0.016 R2=0.000268 R2=0.000268 R2=0.000268 R2=0.000268 R2=0.000268 R2=0.000268 R2=0.000268 R2=0.000268 R2=0.000268 0.2 0.3 0.4 0.5 0.60 0.65 0.70 0.75 Critère normalisé Probabilité de neutre

Figure 5.4 – Probabilités d’amélioration (haut) et de neutre (bas) en fonction de la valeur de critère de la solution mutée. Les résultats de la simulation avec 3072 processeurs sont à gauche et ceux de la simulation avec 1024 processeurs à droite. Sont également indiqués sur chaque figure le coefficient de corrélation de Pearson, et le coefficient de détermination R2 mesurant la qualité de la régression linéaire.

est modifiée par mutation avec les paramètres de référence. Nous pouvons donc en conclure qu’en augmentant le taux de mutation, et donc le nombre de variables modifiées en moyenne à chaque mutation, les chances d’obtenir une solution mutante améliorant la valeur de critère sont à priori plus importantes.