• Aucun résultat trouvé

Chapitre III. Optimisation de jets photoniques par algorithme génétique

III.2 Classification des méthodes d’optimisation

III.2.2 Les métaheuristiques : des méthodes globales

La présence de nombreux minima locaux impose l’utilisation de méthodes de recherche plus efficaces pour éviter la convergence prématurée vers une solution non optimale. Ainsi, des méthodes dites globales, par opposition aux méthodes locales, ont vu le jour. Ces méthodes sont destinées principalement à résoudre des problèmes complexes de grandes dimensions quand les méthodes classiques (recherche locale) ne s’avèrent pas efficaces et peu robustes [23]. On trouve également le terme d’optimisation difficile [6]. Nous nous intéressons dans ce qui suit à une classe de méthodes globales : les métaheuristiques. Ces dernières sont généralement des algorithmes stochastiques itératifs visant à résoudre de manière approchée des problèmes d’optimisation complexes. Ces algorithmes sont basés sur des techniques

140 pseudo-aléatoires manipulant une ou plusieurs solutions arbitraires, de manière hautement intelligente, afin de converger vers l’optimum recherché. Toutes ces techniques diffèrent par la manière dont elles procèdent pour la construction de la ou des solutions potentiels de l’itération suivante. Elles sont souvent inspirées des systèmes physiques ou biologiques. Citons par exemple la méthode du recuit simulé qui fonctionne sur l’inspiration d’un principe de thermodynamique ou les algorithmes génétiques souvent qualifiés de métaphores biologiques qui résultent de l’observation de l’évolution des espèces. Nous verrons par la suite les fondements de quelques-unes de ces méthodes d’optimisation en détaillant particulièrement la méthode employée dans notre problématique.

III.2.2.1 Recuit simulé

Le recuit simulé est une méthode d’optimisation globale s’appuyant sur une analogie avec le phénomène de cristallisation en métallurgie [24, 25]. Ce processus consiste à chauffer un solide jusqu’à des températures très élevées, puis on laisse celui-ci refroidir lentement, pour atteindre les états de plus basses énergies de ce solide. En effet, par l’alternance des cycles de refroidissement lent et de réchauffage (recuit), le solide tend vers un état stable qui présente un minimum d’énergie. Ainsi, dans le recuit simulé, la fonction de coût à minimiser est généralement qualifiée d’énergie du système par l’analogie avec le phénomène physique. Chaque point de l’espace de recherche représente un état physique donné. L’objectif est donc de modifier le système d’un état arbitraire vers un état de plus faible énergie. L’algorithme fait évoluer une solution potentielle au cours des itérations en introduisant des perturbations pseudo-aléatoires par opposition aux règles déterministes des méthodes classiques. Une nouvelle solution est proposée par application d’un certain nombre d’opérateurs stochastiques. Puis, le choix de la nouvelle solution est fait suivant le critère de la loi de Boltzmann, qui est connu en mathématique sous le nom de règle de Metropolis [26] : La nouvelle solution est systématiquement acceptée si elle conduit à une diminution de l’énergie f,

Sinon, c'est-à-dire au cas où , la solution est acceptée avec une probabilité , où T est un paramètre appelé température qui décroit au fur et à mesure des itérations. On constate donc que, plus la température est élevée, plus la probabilité p est forte et donc plus il sera facile d’accepter une solution qui dégrade les performances. Ceci confère à la solution courante la propriété de sortir d’un éventuel minimum local.

L’efficacité du recuit simulé dépend, entre autres, de la règle de décroissance du paramètre T (on parle de refroidissement) au cours des itérations. En effet, une décroissance forte de T permet une convergence rapide mais augmente le risque de s’enliser dans un minimum local alors que la décroissance faible de T serait très coûteuse en temps du calcul. Par ailleurs, cette méthode nécessite une certaine expérience pour le réglage des différents paramètres et en particulier les paramètres liés à la température (température initiale, la décroissance de la température, etc.) [27].

141 III.2.2.2 Optimisation par essaims particulaires

Une branche récente des métaheuristiques est apparue dernièrement en intelligence artificielle, basée sur l’étude et l’utilisation de l’auto-organisation dans les systèmes biologiques [22]. Parmi ces méthodes, on peut citer les algorithmes des essaims particuliers [28], les colonies de fourmis [29], les bancs de poissons [30]. Ces méthodes sont fondées sur la notion de coopération entre les agents (abeilles, fourmis, ou poissons, etc.). Elles sont basées sur des systèmes composées d’agents très simples, qui peuvent produire des constructions complexes et des solutions de problèmes non triviaux au premier abord (tri, parcours optimaux, répartitions des tâches, etc.). A titre d’exemple, les algorithmes de colonies de fourmis sont inspirés du comportement des fourmis, ou d'autres espèces formant un super-organisme [29, 31]. Ils sont basés sur le dépôt et l’évaporation des pistes de phéromones. La capacité des fourmis à trouver collectivement le plus court chemin entre une source de nourriture et la colonie a été utilisée pour résoudre des problèmes relativement complexes[32-34]. De la même façon, les algorithmes d’essaims particulaires [28] sont basés sur une analogie avec le comportement collectif (des essaims) d’un groupe d’êtres vivants (oiseaux ou poissons, etc.). La métaphore la plus intéressante est probablement celle de l’essaim d’abeilles [35]. L’idée sous-jacente derrière ces algorithmes est de créer un groupe d’individus en mouvement (les particules) et de simuler leurs déplacements dans l’espace de recherche, afin de conserver une distance optimale entre eux et à suivre un mouvement global par rapport aux mouvements locaux de leur voisinage. Chaque particule tend à trouver la meilleure source de nourriture, compte tenu de sa propre mémoire et de leur capacité de communiquer entre elles (mécanisme de communication spécifique). Les particules utilisent la notion de vitesse (variable) selon le niveau de réussite pour atteindre une meilleure solution. Ces algorithmes permettent de résoudre les problèmes d’optimisation difficiles [36]. Par contre, ils présentent le désavantage de comporter un nombre élevé de paramètres. Le réglage de ces derniers spécifiques à un problème donné conditionne fortement les performances de la méthode [37]. De plus, ces méthodes sont essentiellement destinées à l’optimisation combinatoire.

III.2.2.1 Recherche Tabou

La recherche tabou est une métaheuristique proposée par Fred Glover en 1986 [38-40]. Elle fait appel à un ensemble de règles et de mécanismes généraux pour guider la recherche de manière intelligente afin d’obtenir de meilleurs solutions. Cet algorithme introduit la notion de mémoire (liste de tabou) dans l’exploration de l’espace de recherche pour éviter de tomber dans un minimum local. En effet, les dernières régions visitées sont mémorisées un certain temps, et un mécanisme permet d’interdire de retourner trop rapidement vers ces positions. La construction de la liste tabou d’une taille donnée est basée sur le principe FIFO (First In First Out). Pour un problème donné, plusieurs stratégies dites d’intensifications et de diversifications peuvent être incorporées à la recherche. Ces deux techniques utilisent respectivement une mémoire à moyen terme afin de renforcer la recherche dans les régions où les meilleurs solutions ont récemment été rencontrées, et une mémoire à long terme qui sert à guider la recherche dans de nouvelles régions [41]. La puissance de la méthode tabou repose

142 essentiellement sur la stratégie de mémorisation qui permet de ne pas retourner systématiquement vers les optima locaux rencontrés. Cependant, une des difficultés de la méthode tabou est l’archivage de l’information la plus intéressante dans la mémoire tabou. Ceci exige une gestion de la mémoire de plus en plus lourde en mettant des stratégies de mémorisation complexes. En outre, la recherche tabou est parfois destinée à guider d’autres méthodes métaheuristiques pour trouver de meilleurs solutions comme le recuit simulé [42].

III.3 Algorithme génétique