• Aucun résultat trouvé

Optimisation de la planification de la maintenance 52 

CHAPITRE 2  REVUE DE LA LITTÉRATURE 7 

2.4  Optimisation de la planification de la maintenance 52 

Évidemment, lorsque confronté à un problème d’optimisation, nous souhaitons trouver la meilleure solution faisable, et de plus, avoir la certitude qu’il n’en existe pas de meilleure. Une méthode garantissant ce fait est dite exacte. Il a été démontré (Stephens & Baritompa, 1998) que ce souhait ne peut pas être exaucé dans le cas général. Les méthodes exactes ne peuvent être définies que dans le cas où le problème d’optimisation possède une structure suffisamment riche et exploitable. Les méthodes exactes concernent principalement les problèmes de : programmation linéaire, programmation linéaire mixte en nombre entier, optimisation convexe et optimisation globale.

Les problèmes de programmation linéaire, où la fonction objectif et toutes les contraintes sont linéaires sont un exemple de problèmes structurés. Cette linéarité est exploitée par la méthode du Simplexe, et permet de résoudre des problèmes contenant des dizaines de milliers de variables et de contraintes. Malheureusement, plusieurs applications réelles ont une non-linéarité inhérente et donc ne peuvent être formulées adéquatement sous forme linéaire.

2.4.1 Méthodes de recherche directe

Les méthodes de recherche directe sont utilisées lorsque le problème d’optimisation ne possède pas de structure ou que sa structure n’est pas exploitable. L’optimisation de boites noires, l’optimisation sans dérivées, les algorithmes GPS (Torczon, 1997), MADS (Abramson et al., 2006; Audet & Dennis, 2006) et Direct (Jones et al., 1993; Powell, 1998), l’utilisation de fonctions substituts sont des exemples de méthodes et d'outils de la recherche directe.

Le cas typique de la recherche directe est le cas où l’évaluation de la fonction objectif ou la détermination de l’appartenance d’une solution au domaine réalisable se fait via un code informatique. Les valeurs de ces fonctions ne sont pas calculées analytiquement, mais plutôt par une série de codes informatiques, de simulations ou même d’expériences.

Évidemment, lors de tels calculs, les valeurs des fonctions peuvent être bruitées ou imprécises. Il arrive même fréquemment que le code calculant les valeurs des fonctions échoue pour des raisons internes au code (par exemple, divergence d’une méthode itérative interne). Il s’ensuit que l’existence même des dérivées est compromise. Et même s’il était possible d’estimer des valeurs de dérivées via des différences finies ou par une différentiation automatique, il est fréquent que ces valeurs ne soient pas fiables, et que l’utilisation de ces approximations cause des difficultés numériques.

Les méthodes de recherche directe, telles GPS, MADS et DIRECT, permettent de s’attaquer à des problèmes d’optimisation de boîtes noires. Ces méthodes n’utilisent que la valeur des fonctions. Un avantage de ces méthodes est qu’il existe une analyse de convergence détaillée. Il est démontré que ces méthodes produisent une solution satisfaisant des conditions d’optimalité « proportionnelle » à la différentiabilité locale (Audet & Dennis, 2002). Cette analyse repose sur le calcul des fonctions non-lisses de Clarke (Clarke, 1990).

Habituellement, les problèmes d’optimisation de boîtes noires sont coûteux à évaluer. Le temps requis pour une seule évaluation des fonctions peut varier de quelques secondes à plusieurs jours. Il arrive aussi d’avoir à disposition une deuxième boîte noire qui partage certaines ressemblances à l’originale, mais qui est beaucoup moins coûteuse à évaluer. Cette deuxième boîte est appelée fonction substitut. Les méthodes de recherche directe mentionnées ci-dessus peuvent être utilisées conjointement avec ces fonctions substituts afin de guider la recherche.

2.4.2 Méthode utilisant des méta-heuristiques

La difficulté rencontrée par les méthodes exactes est qu’en plus d’identifier la solution optimale, ces méthodes doivent démontrer que ladite solution est optimale. Il n’est pas rare que ces méthodes passent plus de 90% de leur temps à démontrer que la solution obtenue en 10% du temps, est bien optimale. Les méthodes heuristiques se spécialisent à trouver rapidement une « bonne » solution en tentant de se sortir d’un optimum local. Cependant, ces méthodes ne possèdent habituellement pas d’analyse de convergence rigoureuse. Souvent elles ne peuvent même pas assurer de générer une solution localement optimale. L’avantage de ces méthodes est leur rapidité. Parmi ces méthodes, nous retrouvons : le recuit simulé, la recherche tabou, les algorithmes génétiques et la recherche à voisinages variables.

Les méthodes de recuit simulé sont des méthodes itératives qui, à chaque itération acceptent de se déplacer à un nouveau point choisi parmi les points voisins s’il est réalisable ou s’il améliore la valeur de la fonction objectif. Le déplacement est autorisé à un point qui n’améliore pas la fonction, mais selon une probabilité inversement proportionnelle à l’accroissement de la fonction. De plus cette probabilité décroît au fil des itérations. Le nom donné à ces méthodes véhicule l’image d’un procédé de recuit des métaux où ces derniers recherchent un état d’énergie minimum qui confère un état cristallin stable (Kim et al., 1995, 1997). L’équivalence est faite entre la solution du problème d’optimisation combinatoire et les états physiques d’un système et le coût de la solution avec l’énergie de l’état. La température du système est traitée comme paramètre de contrôle. Une nouvelle solution est générée à partir d’une « structure voisine » et un « mécanisme de génération » (Satoh & Nara, 1991). Une unité est sélectionnée en générant un nombre entier aléatoire uniformément distribué entre 1 et le nombre total d’unités.

La recherche tabou permet essentiellement de se déplacer d’un point à l’autre en améliorant la meilleure solution actuelle. À chaque déplacement, la méthode interdit un retour à la solution

précédente. Cette interdiction donne le nom à la méthode tabou. En présence d'un minimum local, la méthode générera un nouveau point moins bon que ce minimum local. À partir de ce nouveau point, elle ne pourra revenir au minimum local, et devra donc poursuivre une remontée. L’objectif visé par cette méthode est qu’éventuellement un point dans un autre bassin sera généré et que la descente identifie une meilleure solution locale.

Les méthodes génétiques cherchent à combiner différentes solutions afin d’en produire de nouvelles, potentiellement meilleure (Mohanta et al., 2004). Ces façons de combiner des solutions portent des noms tels que croisement, mutation, évolution, d’où le nom de la méthode génétique. La grande difficulté rencontrée par les utilisateurs de ces méthodes est de définir des façons efficaces de combiner ces solutions. La nature et la structure du problème doivent être bien connues et exploitées.

2.4.3 Méthode utilisant l'intelligence artificielle

La planification automatisée et la planification sont une branche de l'intelligence artificielle qui concerne la réalisation d’un ordre d'actions devant être exécuté par des agents intelligents, des robots autonomes ou véhicules sans pilotes. À la différence des problèmes classiques de commande, les solutions sont complexes, inconnues et doivent être découvertes et optimisées dans un espace multidimensionnel.

Dans des environnements connus avec des modèles disponibles, la planification peut être faite en différé. Des solutions peuvent être trouvées et évaluées avant l'exécution. Dans les environnements dynamiques, la stratégie doit souvent être mise à jour en ligne. Les modèles et les stratégies doivent être réadaptés. La résolution recourt habituellement à des processus essais/erreurs itératifs, généralement rencontrés en intelligence artificielle. Ceux-ci incluent la programmation dynamique, le renforcement d’apprentissage et l’optimisation combinatoire. Un planificateur typique prend trois entrées : une description de l'état initial, une description du but désiré, et un ensemble d'actions possibles, tous codés dans un langage formel tel que STRIPS (STanford Research Institute Problem Solver). Le planificateur produit un ordre des actions qui mènent en partant de l'état initial à un état rencontrant le but désiré. Un autre langage alternatif pour décrire des problèmes de planification est celui de réseaux hiérarchiques de tâches, dans

lequel un ensemble de tâches est donné, et chaque tâche peut être ou bien réalisée par une action primitive ou décomposée dans un ensemble d'autres tâches (Russell & Norvig, 2003).

La difficulté de la planification dépend des hypothèses de simplification utilisées. Les techniques les plus populaires incluent : la recherche espace/état par chaînage avant et arrière (forward chaining and backward chaining state-space search), augmenté par l'utilisation de relations entre les conditions ou d'heuristiques synthétisée à partir du problème, ainsi que la recherche dans l’espace de plan (search through plan space), et la translation à la satisfaction de propositions (translation to propositional satisfiability satplan).

2.4.4 Méthode utilisant les réseaux de neurones

Un réseau artificiel de neurones communément noté ANN (artificial neural network) est construit sur un paradigme biologique similaire à celui des algorithmes génétiques sur la sélection naturelle. Il se base sur un groupe de neurones artificiels interconnectés, qui, à l’instar du modèle vivant, cherche à résoudre des problèmes d’optimisation. Les paramètres les plus importants de ce réseau sont les coefficients synaptiques. Les ANN construisent le processus de résolution en fonction des flux d’informations qui traversent le réseau, en commençant par calculer les valeurs des coefficients synaptiques en fonction des exemples disponibles. Ils sont généralement utilisés dans des problèmes de nature statistiques et perceptives, telles que la classification ou l’évaluation. Par exemple, si un échantillon suffisamment grand de données de centrales électriques, constitués du types de centrale, de l'âge, du nombre de défaillances subies, des heures de production, et de la classification de l'état de la centrale (bonne, moyenne,..), est disponible, il peut être utilisé pour l’entraînement d’un réseau de neurones. Le réseau présentera alors les caractéristiques d’une centrale pouvant subir potentiellement une défaillance en généralisant à partir des cas qu’il connaît. Si le réseau de neurones fonctionne avec des nombres réels, la réponse traduit une probabilité de défaillance. Les valeurs typique sont 1 pour la certitude que la centrale tombera en panne, -1 pour le fait qu'elle restera en fonction et 0 pour l'absence de prévision.

Avec les réseaux de neurones, des auteurs ont développé des modèles pour l’évaluation de la fiabilité (Amjady & Ehsan, 1999) ainsi que pour le diagnostic de pannes (Sun et al., 2004).

2.4.5 Méthodes hybrides

Certains problèmes d’optimisation sont trop difficiles pour que l’on puisse espérer appliquer des méthodes exactes en un temps raisonnable. Il est parfois possible de combiner différentes stratégies de résolution. L'une d'elles serait par exemple d’approcher le problème via une méthode heuristique, et de décomposer certaines parties en sous-problèmes qui seront résolus par des méthodes exactes. Par exemple, la linéarisation d’un sous-problème peut être résolue exactement par la méthode du simplexe. Une autre technique utilisée est l’application d’une méthode heuristique de façon à identifier rapidement une solution potentiellement optimale, et de démarrer par la suite une méthode exacte avec cette solution comme point de départ.

Les méthodes de recherche par motifs ont été conçues pour être utilisées conjointement avec d’autres méthodes. En effet, à chaque itération d’une recherche par motif, il est possible d’appliquer une heuristique de façon générique afin d’identifier de nouvelles régions potentiellement intéressantes. En particulier, dans (Audet et al., 2008a), les auteurs proposent une façon générique d'inclure une recherche à voisinage variable dans un algorithme de recherche directe.

Concernant les méthodes hybrides impliquant les SA, GA et TS, Nara (Nara, 2000) recense la majorité des applications en planification pendant une dizaine d’années. Un de ces travaux par exemple, montre l’application avec succès d’un algorithme SA pour trouver des solutions à des problèmes de taille moyenne et de grande taille en planification (Satoh & Nara, 1991). La technique est ensuite améliorée par l’inclusion d’un algorithme génétique et l’intégration d’une recherche tabou (Kim et al., 1995, 1997).

CHAPITRE 3

GÉNÉRALITÉS ET ÉTUDE DES DONNÉES SUR LES