III.4 Algorithme développé : Optimisation Mixte Découplée
III.4.2 Méthodes d'optimisation numérique continue
0 0 −1
0 0 0
0 0 1
0 1 −1
0 1 0
0 1 1
1 0 −1
1 0 0
1 0 1
1 1 −1
1 1 0
1 1 1
(III.2)
III.4.1.4 C÷ur de l'algorithme
Une fois les matrices du réseau et la matrice d'état construite, l'étape suivante est la
lecture de la matrice d'état et l'optimisation continue. Pour chaque ligne de la matrice
d'état, c'est-à-dire, pour chaque combinaison des variables discrètes une optimisation
nu-mérique continue est réalisée. Ce sont les consignes de puissance réactive des GED qui sont
optimisées. Une fois l'ensemble des résultats des optimisations obtenu, le cas optimal est
sélectionné, c'est-à-dire le cas pour lequel la fonction objectif est minimale. Les consignes
associées à ce cas optimal sont ensuite envoyées aux diérents actionneurs du réglage de
tension.
III.4.1.5 Schéma synoptique de l'OMD
Le schéma de la gure III.6 résume le fonctionnement de l'algorithme OMD. Le
fonc-tionnement détaillé est présenté en annexe A.3
III.4.2 Méthodes d'optimisation numérique continue
Il existe, dans la littérature, de nombreux algorithmes capables de résoudre un problème
d'optimisation continue contraint. Cependant, à l'heure actuelle, un consensus s'est établit
autour de deux algorithmes particulièrement performants pour traiter ce type de problème
[39]. Ces algorithmes sont la programmation séquentielle quadratique et la méthode du point
intérieur.
III.4.2.1 Programmation séquentielle quadratique
Considérant le problème d'Optimisation Non Linéaire (ONL) suivant :
min
x∈R
nf(x), (III.3)
avec
h(x) = 0
g(x) ≤ 0 (III.4)
où :
f :Rn→Rn la fonction objectif,
Optimisation numérique continue
SQP
Optimisation numérique continue
SQP
Optimisation numérique continue
SQP
Optimisation numérique continue
SQP
Création de la matrice d'état
Création de la matrice d'état
Lecture de la matrice d'état
Lecture de la matrice d'état
Optimisation numérique continue
SQP
Optimisation numérique continue
SQP
Création des matrices du réseau
Création des matrices du réseau
Envoi des consignes
Envoi des consignes
0
0
0
0
1
1
1
1
0
0
1
1
0
0
1
1
0
1
0
1
0
1
0
1
Power Flow
Fonction Objectif
Power Flow
Fonction Objectif
Power Flow
Contraintes
Power Flow
Contraintes
Sélection du cas optimal
Sélection du cas optimal
Figure III.6 Schéma synoptique de l'algorithme OMD : le fonctionnement détaillé de l'algorithme est
présenté en annexe A.3.
g:Rn→Rp la fonction décrivant les contraintes d'inégalité,
Le principe de la Programmation Séquentielle Quadratique (SQP) est de chercher à
ré-soudre ce problème d'optimisation non linéaire en dénissant puis résolvant de manière
itérative un sous-problème de Programmation Quadratique (QP). Pour une itération k
donnée correspondant à un vecteurxk, k∈N∗, la résolution du sous-problème QP donne
une nouvelle solution qui permet de construire un nouveau vecteur xk+1 et de mener
une nouvelle itération. Le processus est répété de telle manière que la séquence (xk)k∈N
∗converge vers un minimum local x∗ de la fonction objectif quand k→ ∞. En pratique, le
processus est interrompu lorsque la diérence entre les vecteurs xk+1 et xk est inférieure
en valeur absolue à un paramètre εspécié (ε >0) : c'est la condition de convergence.
La fonction L:Rn×m×p →Rtelle que :
L(x, λ, µ) = f(x) + λTh(x) + µTg(x) (III.5)
est appelée Lagrangien du problème d'ONL (III.3) et (III.4). Les vecteurs λ ∈ Rm et
µ∈R+p sont dénomés multiplicateurs lagrangien.
Pour une fonction f :Rn →R, est appelé gradient de f enx∈Rn, l'opérateur ∇f(x)
tel que :
∇f(x) =
∂f(x)
∂x1 ,
∂f(x)
∂x2 , . . . ,
∂f(x)
∂xn
T
.
De même, est appelé matrice hessienne de f en x ∈ Rn, l'opérateur Hf(x), matrice
des dérivées secondes partielles, tel que :
(Hf(x))ij
1≤i
j≤n
= ∂
2f(x)
∂xi∂xj.
Enn, pour les fonctions de typeh:Rn→Rm, le symbole∇est appelé Jacobien deh,
tel que :
∇h(x) = (∇h1(x),∇h2(x), . . . ,∇hm(x)). (III.6)
La construction des sous-problèmes QP est eectuée de façon à ce que chacun de ces
sous-problèmes reète les propriétés locales du problème d'ONL, en regard du vecteur xk
de l'itération en cours. Par conséquent, l'idée est de remplacer :
• la fonction objectif f par son approximation quadratique locale
f(x) ≈ f(xk) + ∇f(xk) (x−xk) + 12(x−xk)T Hf(xk) (x−xk),
• les fonctions contraintesh etg par leur approximation ane locale
h(x) ≈ h(xk) + ∇h(xk) (x−xk),
g(x) ≈ g(xk) + ∇g(xk) (x−xk).
En dénissant
d(x) = x−xk,
Bk = Hf(xk).
le sous-problème QP peut alors s'écrire sous la forme suivante :
min
d(x)∈R
n∇f(xk)Td(x) +1
2d(x)
TBkd(x) (III.7)
avec
h(xk) + ∇h(xk)T d(x) = 0,
g(xk) + ∇g(xk)Td(x) ≤ 0. (III.8)
Pour chaque itération, le processus d'optimisation SQP comporte trois étapes :
• La première étape consiste à calculer le vecteur Bk, désignant l'approximation de la
matrice hessienne du Lagrangien def. Cette étape est réalisée en utilisant la méthode
quasi-Newton BFGS4. Pour résumer, la matrice hessienne du Lagrangien de f est
estimée en analysant les diérents gradients successifs de f5.
• La deuxième étape est la résolution du sous-problème QP (III.7). Pour y parvenir,
plusieurs méthodes existent. Celle utilisée ici se nomme en anglais Active Set (ou
ensemble actif, ou encore méthode de projection). Elle est consituée de deux phases
consécutives : tout d'abord le calcul d'un premier point admissible (s'il existe), puis
la génération d'une séquence itérative de points admissibles qui converge vers la
solution. Dans cette méthode, on créée un ensemble actif Ak contenant l'ensemble
des contraintes actives au point solution. Cet ensemble Ak est mis à jour à chaque
itérationket permet de calculer une direction de recherche, c'est-à-dire de cerner un
sous-ensemble d'inégalités à regarder pour trouver la solution, permettant ainsi de
diminuer la complexité de la recherche.
4. BFGS : Broyden-Fletcher-Goldfarb-Shanno
5. Pour plus de détails sur les méthodes quasi-Newton, le lecteur pourra se reporter au chapitre III du
livre de J. Nocedal : Numerical Optimization [39].
• La dernière étape consiste à trouver la valeur d'un paramètre αk, tel que celui-ci
permette une décroissance susante d'une fonction dite de mérite. La résolution du
sous-problème QP à l'issue de la deuxième étape donne un vecteur dk utilisé pour
former un nouveau vecteurxk+1 tel que :
xk+1 =xk+αkdk. (III.9)
Pour un problème d'optimisation avec contraintes, une fonctionΦ :Rn→Rest une
fonction exacte du problème si chaque minimum local x∗ du problème est aussi un
minimum local de la fonction Φ, sans contrainte. Cette fonction permet de mesurer
le progrès de l'algorithme d'optimisation. Une forme possible de la fonction est :
Φ (x, µ) =f(x) +µkc(x)k, (III.10)
où l'opérateurkkdésigne une norme quelconque etµest appelé paramètre de pénalité
et tel que µ >0.
Le pas αkdk sera accepté si la condition suivante est vériée :
Φ (xk+αkdk, µk)≤Φ (xk, µk) +ηαkD(Φ (xk, µ), dk), η ∈(0,1), (III.11)
oùD(Φ (xk, µ), dk)est la dérivée directionnelle deΦdans la direction dk. La
condi-tion (III.11) est vériée pour un paramètre de pénalitéµ choisi susamment grand
[39].
À l'issue de ces trois étapes, le processus itératif est bouclé, jusqu'à ce que la condition
de convergence soit vériée.
La méthode de programmation séquentielle quadratique est disponible dans la librairie
de fonctions d'optimisation de l'environnement matlab.
III.4.2.2 Méthodes du point intérieur
Les méthodes du point intérieur sont historiquement les dernières méthodes
d'optimi-sation numérique développées. Elles sont aujourd'hui considérées, avec les méthodes SQP
à ensemble actif, comme étant les plus performantes pour les problèmes d'optimisation non
linéaire de grande taille [39].
Deux classes d'algorithmes permettent de mettre en ÷uvre ecacement les méthodes
du point intérieur. La première classe se base notamment sur les méthodes de recherche
linéaire et d'algèbre linéaire (c'est-à-dire la factorisation matricielle). La seconde classe
d'algorithme utilise des modèles quadratiques et les méthodes de régions de conance. Ces
deux approches coincident assymptotiquement, mais peuvent donner des résultats
inter-médiaires diérents.
Les méthodes du point intérieur sont des méthodes complexes, dont la description sort
du cadre de cette thèse. Elles sont, elles aussi, disponibles dans la librairie de fonctions
d'optimisation de l'environnement matlab. Le lecteur intéressé pourra se reporter à la
littérature spécialisée [39].
Dans le document
Réglage de la tension dans les réseaux de distribution du futur
(Page 79-82)