• Aucun résultat trouvé

Il existe deux types d’optimisations concernant la manœuvrabilité des centrales : les op- timisations on-line et celles off-line. Dans le premier cas, l’objectif est d’optimiser la réponse de la centrale durant un transitoire donné, et consiste en quelque sorte en l’élaboration d’un opérateur optimal, qui permettrait de minimiser les écarts entre des grandeurs mesurées ou calculées et leur valeurs cibles, tout en satisfaisant certaines contraintes comme la puissance linéique ou l’axial offset. Le but est donc de minimiser les écarts entre le comportement de référence attendu et la gestion courante. La meilleure solution possible est ainsi la solution de référence. Dans le second cas, une optimisation d’un certain nombre de grandeurs carac- téristiques de la centrale sont optimisées, dans le but de répondre à un cahier des charges ou d’améliorer la solution existante, dans le cas de transitoire de puissance ou de fonctionnement en base.

4.5.1 Méthode on-line

Depuis les années 70, de nombreuses études ont été réalisées dans le but d’automatiser le contrôle des centrales, et de remplacer les actions manuelles d’un opérateur. Ces études se basent sur des grandeurs comme la température moyenne, ou la puissance, et plusieurs méthodes existent, dont nous allons voir les principes. Le contrôleur assisté par retour d’état, tout d’abord, a montré ses bonnes performances [39] tant du point de vue de la stabilité que de la robustesse. Il s’agit d’une boucle de rétroaction, basée sur un estimateur d’erreur entre la valeur attendue et la valeur réalisée, corrigée d’un gain ajustable afin d’accélerer ou de ralentir la réponse du système à une perturbation donnée. L’algorithme consiste en l’élaboration du pilotage au fur et à mesure du transitoire, et construit donc point par point la réponse de l’opérateur. Une régulation de la puissance thermique est réalisée dans cet exemple, en ajustant le déplacement des grappes de contrôle. Cependant, les états accessibles par le système ne sont pas forcément tous calculables, et il est nécessaire de les estimer par un observateur [82]. Le problème de cette estimation est qu’elle dégrade les propriétés de stabilité et de robustesse de l’algorithme, et de nombreuses variantes ont donc été développées. En plus d’ajuster la température de fluide primaire et non la puissance, Arab-Alibeik et Setayeshi [8] proposent une boucle de retour modifiée, intégrant un contrôle de type linéaire quadratique Gaussien, obtenue par un filtre de Kalman, et ce afin de minimiser les effets de cette estimation. La théorie du contrôle optimal est très similaire au contrôleur assisté par retour d’état, mais permet une autre estimation de l’erreur, ou plutôt une estimation de la performance d’une action, au prix d’une complexification de la résolution du problème. L’idée est de résoudre un système d’équations intégro-différentiel qui maximise un index de performance calculé on-line. Un contrôle du cœur de réacteur et des oscillations xénon durant un transitoire de suivi de charge est ainsi effectué [17, 112, 111] en appliquant la théorie du contrôle optimal et des techniques de maximisation de l’index de performance différentes. Tous ces contrôleurs ont cependant l’inconvénient d’être basés sur un modèle dynamique du cœur linéarisé, établi et valable pour un nombre de points de fonctionnement réduit, et si

CHAPITRE 4. ÉTAT DE L’ART - PRINCIPES DE L’OPTIMISATION

ce point de fonctionenement change, le contrôleur doit être reconstruit. De plus, si l’état du cœur varie au cours du transitoire, le résultat risque de ne plus être optimal.

Pour dépasser les limites du modèle linéaire simplifié, il est bien évidemment possible de définir un modèle non-linéaire de centrale, comme présenté par Dong et al. [32]. Cette dernière étude se base sur les équations de Hamilton (principe de moindre action), et considère donc les échanges et la dissipation de l’énergie au sein du système. Pour le problème considéré, une variable caractérisant l’état du système, une variable caractérisant la commande, et un critère de performance (qui est une fonction de la commande et qui dépend de l’état, et qu’il faut minimiser) sont définis. Il s’agit là encore d’un contrôleur de type filtre, présentant des caractéristiques de stabilité et précision dépendantes des constantes ajustables du contrôleur. La particularité de ce contrôleur et qu’il fourni la réponse de l’opérateur pour la totalité du transitoire et les constantes ajustables de ce contrôleur sont établies par exemple en fonction du transitoire considéré ou de l’état du réacteur. Cela permet un ajustement de la réponse de la centrale.

En alternative aux contrôleurs de type filtre avec chaine de retour, il est possible d’utiliser des modèles informatiques tels que les réseaux de neurones, la logique floue, ou encore des algorithmes génétiques. Par exemple, Ku et al. [66] présentent un contrôleur de la tempéra- ture primaire, construit en utilisant deux réseaux de neurones intégrants la rétropropagation, consitués d’une seule couche cachée. Le premier réseau de neurones prend en arguments le signal de référence, les biais connus, la sortie retardée du modèle non-linéaire de la centrale, ainsi que sa propre sortie retardée. Cela doit permettre de prendre en compte les effets d’his- torique dans une certaine mesure, ainsi que les écarts entre le résultat escompté d’une action donnée, et son effet réel. Le second réseau de neurones, prend en entrée la sortie du premier, ainsi que la sortie retardée du modèle de la centrale, et doit permettre de classer les "bonnes" actions des "mauvaises". Khajavi et al. présentent dans [60] un contrôleur optimal présentant de bonnes performances pour une large gamme de scénarios, et basé sur la logique floue. Cette logique floue s’oppose aux logiques modales (algèbre de Boole), et autorise la valeur de vérité d’une assertion à parcourir d’autre domaines que vrai/faux : on défini alors des degrés de satisfaction. Pour cette raison , elle semble bien adaptée au cas de centrales nucléaires. Par exemple, prenons le cas simple d’un réacteur dont on veux réguler la température moyenne du fluide primaire par action sur les barres. On défini la valeur d’entrée "la température est-elle élevée ?", et une valeur de sortie "descendre les barres". Ainsi, on implémente la règle dite floue : "si la puissance est élevée, descendre les barres". En logique classique, il y aurait deux cas possibles : vrai, auquel cas on doit insérer les barres, ou faux auquel cas on ne les insère pas. Avec la logique floue en revanche, il est possible de définir différents degrés de réponse, correspondants par exemple aux régions définies par les vitesses du groupe de régulation de température (Fig. 1.7). Une solution possible serait donc : "la température est plus élevée que la référence de 1℃" donc on insère les barres à la vitesse de 8 pas par minute, ou encore : "la température est plus élevée que la référence de 3℃" donc on insère les barres à la vitesse de 72 pas par minute. Bien entendu, il s’agit d’une application très simplifiée, et les règles de logique floue sont en fait assez complexes à mettre en place, puisque issues d’essais et d’erreurs. De plus, il n’est pas nécessaire de considérer des réponses linéaires comme dans l’exemple précédent, et il est tout a fait possible d’imaginer des réponses sigmoïdes, tangente hyperbolique, etc. Liu et Chan [71] vont donc jusqu’a proposer un modèle basé sur la logique floue, dont les règles et les implications sont apprises et ajustées par un réseau de neurones.

Un autre type de contrôleur dit predictif (model predictive, en anglais) se base sur la prédiction des évenements dans un intervalle glissant (horizon de prédiction), et ajuste les

contrôles mis en place pour que cette prédiction soit le plus proche possible de la valeur cible. Un historique ainsi que différents cas d’application de ce contrôleur sont réalisés dans [43]. La Fig. 4.3 présente le principe général de ce contrôleur.

passé futur Valeurs passées

Valeurs prévues Valeurs cibles

sortie

Commande passée

Commande d'entrée optimisée Sortie attendue

Temps présent

Horizon de contrôle Horizon de prédiction

Figure 4.3 – Illustration, pour un pas de temps donné, des horizons de contrôle et de pré- diction, et de la prévision de la sortie attendue en fonction de la commande d’entrée [62].

Les étapes clefs de ce contrôleur sont donc l’estimation, à partir d’un instant donné, de la sortie d’intérêt du réacteur, ainsi que le choix des actions à effectuer à chaque pas de temps. Na et al. [77] developpent un contrôleur prédictif dans le but de minimiser à la fois la différence entre la puissance calculée et la valeur cible, mais aussi l’utilisation des barres de contrôle. Pour prédire l’état future du réacteur, un modèle de logique floue a été implémenté, et un algorithme génétique évolutionnaire multiobjectif permet la détermination des actions optimales à effectuer à chaque pas de temps. Dans le même principe, Kim et al. [62] proposent un autre contrôleur prédictif, basé sur les algorithmes génétiques pour l’optimisation des actions, mais qui est couplé avec un code de calcul pour prédire le comportement du réacteur. Le but est sensiblement le même que dans l’étude précédente, mais la question de l’axial offset est ajoutée.

4.5.2 Méthode off-line

Pour ce type de méthodes, le but n’est pas de suivre en temps réel un fonctionnement idéal, mais d’ajuster certains paramètres de façon permanente, afin par exemple d’améliorer le comportement des centrales en fonctionnement normal ou accidentel (optimisation des cartes de chargement et rechargement du combustible, réglage des caractéristiques des pastilles, identification de nouveau modes de pilotage), ou encore de réduire les coûts de fonctionnement (augmentation de l’utilisation du combustible ou réduction du volume d’effluents) tout en

CHAPITRE 4. ÉTAT DE L’ART - PRINCIPES DE L’OPTIMISATION

garantissant les critères de sûreté.

Un problème d’optimisation bien connu est le problème de la disposition des assemblages combustible dans le cœur, ainsi que leur rechargement à chaque cycle [59]. Nous avons vu au Chapitre 1 qu’une grande liberté dans le choix des plans de chargement et rechargement est offerte, comme par exemple les stratégies in/out, out/in, mais aussi des stratégies hybrides. Le nombre de positionnements possibles est énorme, puisque le nombre de solutions vaut à priori la factorielle du nombre d’assemblage. Toutefois, il apparaît des contraintes de nature à la fois technique et économique qui permettent de réduire ce nombre de cartes de position- nement possibles. D’un point de vue technique, on peut citer les contraintes résultants du modèle de gestion du cœur, de considérations physiques (symétrie), du respect des critères de sûreté (pic de puissance, marges d’antiréactivité, limitation du coefficient modérateur) et de conception du combustible (irradiation maximale, nombre maximal de cycles, positionne- ment sous grappes). D’un point de vue économique, on parle cette fois-ci de contraintes liées au placement des arrêts (longueur des campagnes, sous-tendant le facteur d’utilisation du combustible) ou à l’importance des marges pour la souplesse d’exploitation.

Un aperçu des capacités des algorithmes évolutionnaires, et plus particulièrement des essaims particulaires, à résoudre ce type de problème est proposé [106]. Les auteurs étudient le problème du rechargement dans le but d’augmenter la longueur de cycle, en contraignant ici encore le facteur de forme. Le principe de l’étude est repris [22] et les auteurs utilisent une méthode différente de production des solutions (random keys) ou [61], mais appliquée cette fois à un cœur très hétérogène radialement, et dans le but de minimiser le pic de puissance. D’autres algorithmes tels que les algorithmes génétiques, ou les colonies de fourmis sont utilisés pour résoudre le même type de problème [9, 30], dans le but d’optimiser conjointement le facteur de forme et le coefficient de vidange. Les auteurs se proposent même d’intégrer des tranches axiales fertiles et fissiles, en plus des hétérogéneités radiales. Ils découpent donc le problème en deux parties, réalisant dans un premier temps l’optimisation du placement des tranches fertiles et fissiles dans un assemblage 1D en milieu infini, puis intègrent les solutions trouvées dans le coeur, pour optimiser dans un second temps la carte de chargement. Les contraintes que doivent respecter les plans de chargement sont, pour la plupart, traitées de manière strictes dans la mesure où une solution ne respectant pas ces contrainte est éliminée d’office au cours de la recherche. Meneses et al. [23] introduisent un algorithme heuristique, décrivant des règles que doivent respecter les solutions, s’appuyant sur les contraintes, mais non strictes. Par exemple, pour limiter le pic de puissance, il ne faut pas placer côte à côte deux assemblages neuf, parce qu’ils sont plus réactifs que les autres. L’idée est de relaxer la contrainte en comptant les assemblages neufs côte à côte dans le plan de chargement, et de pénaliser les plans qui présentent un index élevé, mais sans les éliminer lors de l’optimisation. Alors qu’avec le système de contrainte forte, il est possible d’éliminer des solutions qui seraient intéressantes par ailleurs, ou à l’inverse évaluer des solutions dont on sait pertinament qu’elles ne seront pas bonnes, l’utilisation d’heuristiques permet de limiter ce phénomène, en guidant la recherche vers des solutions satisfaisants les différents index définis.

En ce qui concerne l’optimisation des propriétés physiques du combustible, le problème de la conception du combustible [106] a pour objectif de maximiser le flux thermique moyen, en contraignant le facteur de multiplication afin d’être proche de la criticité, le facteur de modé- ration qui doit être négatif en permanence ou le facteur de forme. Les paramètres ajustables sont alors le diamètre des pastilles, l’épaisseur de la gaine, leur matériaux respectifs ainsi que l’épaisseur de la couche de modérateur. Les auteurs s’intéressent à la capacité des essaims particulaires à résoudre ce type de problème. Pereira et Lapa [83] réalisent une optimisation

des dimensions des pastilles, d’enrichissement du combustible et de choix des matériaux pour minimiser le pic de puissance moyen dans le cœur, incluant des restrictions sur le flux ther- mique, sur le facteur de multiplication et sur le facteur de modération. Il est montré [90] que ce type de problème peut être traité avec d’autres algorithmes, et les auteurs proposent une optimisation similaire, avec un algorithme stochastique, proche du recuit simulé.

Une toute autre application [84, 91, 92] consiste à optimiser la stratégie de test de main- tenance sur une partie du circuit secondaire. Les algorithmes utilisés sont soit une métaheu- ristique inspirée de la physique de collision entre particules, soit un algorithme génétique sur différentes architectures d’ilots parallèles. L’idée est de maximiser la disponibilité du système pour une période donnée, en considérant des caractéristiques réalistes comme le vieillissement des composants à l’arrêt pour test, les implications sur les temps d’arrêt des dysfonction- nements des composants lors de leur redémarrage, les propriétés des composants comme les temps nécessaires pour réaliser les tests qui leur sont propres, ou encore le fait que les tests ne sont pas nécessairement périodiques.

Finalement, les métaheuristiques, et plus particulièrement les algorithmes évolutionnaires semblent particulièrement adaptés à l’optimisation de diverses caractéristiques des centrales. À notre connaisance, il n’existe cependant pas d’optimisation de la gestion des centrales en transitoire de puissance faite off-line, et ce travail étend donc l’utilisation des algorithmes évolutionnaires à ce nouveau type de problème.

4.6 Conception des algorithmes d’optimisation pour le pro-