• Aucun résultat trouvé

Méthodes d'optimisation numérique continue

III.4 Algorithme développé : Optimisation Mixte Découplée

III.4.2 Méthodes d'optimisation numérique continue

0 0 −1

0 0 0

0 0 1

0 1 −1

0 1 0

0 1 1

1 0 −1

1 0 0

1 0 1

1 1 −1

1 1 0

1 1 1

(III.2)

III.4.1.4 C÷ur de l'algorithme

Une fois les matrices du réseau et la matrice d'état construite, l'étape suivante est la

lecture de la matrice d'état et l'optimisation continue. Pour chaque ligne de la matrice

d'état, c'est-à-dire, pour chaque combinaison des variables discrètes une optimisation

nu-mérique continue est réalisée. Ce sont les consignes de puissance réactive des GED qui sont

optimisées. Une fois l'ensemble des résultats des optimisations obtenu, le cas optimal est

sélectionné, c'est-à-dire le cas pour lequel la fonction objectif est minimale. Les consignes

associées à ce cas optimal sont ensuite envoyées aux diérents actionneurs du réglage de

tension.

III.4.1.5 Schéma synoptique de l'OMD

Le schéma de la gure III.6 résume le fonctionnement de l'algorithme OMD. Le

fonc-tionnement détaillé est présenté en annexe A.3

III.4.2 Méthodes d'optimisation numérique continue

Il existe, dans la littérature, de nombreux algorithmes capables de résoudre un problème

d'optimisation continue contraint. Cependant, à l'heure actuelle, un consensus s'est établit

autour de deux algorithmes particulièrement performants pour traiter ce type de problème

[39]. Ces algorithmes sont la programmation séquentielle quadratique et la méthode du point

intérieur.

III.4.2.1 Programmation séquentielle quadratique

Considérant le problème d'Optimisation Non Linéaire (ONL) suivant :

min

x∈R

n

f(x), (III.3)

avec

h(x) = 0

g(x) ≤ 0 (III.4)

où :

f :RnRn la fonction objectif,

Optimisation numérique continue

SQP

Optimisation numérique continue

SQP

Optimisation numérique continue

SQP

Optimisation numérique continue

SQP

Création de la matrice d'état

Création de la matrice d'état

Lecture de la matrice d'état

Lecture de la matrice d'état

Optimisation numérique continue

SQP

Optimisation numérique continue

SQP

Création des matrices du réseau

Création des matrices du réseau

Envoi des consignes

Envoi des consignes

0

0

0

0

1

1

1

1

0

0

1

1

0

0

1

1

0

1

0

1

0

1

0

1

Power Flow

Fonction Objectif

Power Flow

Fonction Objectif

Power Flow

Contraintes

Power Flow

Contraintes

Sélection du cas optimal

Sélection du cas optimal

Figure III.6 Schéma synoptique de l'algorithme OMD : le fonctionnement détaillé de l'algorithme est

présenté en annexe A.3.

g:Rn→Rp la fonction décrivant les contraintes d'inégalité,

Le principe de la Programmation Séquentielle Quadratique (SQP) est de chercher à

ré-soudre ce problème d'optimisation non linéaire en dénissant puis résolvant de manière

itérative un sous-problème de Programmation Quadratique (QP). Pour une itération k

donnée correspondant à un vecteurxk, k∈N∗, la résolution du sous-problème QP donne

une nouvelle solution qui permet de construire un nouveau vecteur xk+1 et de mener

une nouvelle itération. Le processus est répété de telle manière que la séquence (xk)kN

converge vers un minimum local x de la fonction objectif quand k→ ∞. En pratique, le

processus est interrompu lorsque la diérence entre les vecteurs xk+1 et xk est inférieure

en valeur absolue à un paramètre εspécié (ε >0) : c'est la condition de convergence.

La fonction L:Rn×m×pRtelle que :

L(x, λ, µ) = f(x) + λTh(x) + µTg(x) (III.5)

est appelée Lagrangien du problème d'ONL (III.3) et (III.4). Les vecteurs λ ∈ Rm et

µ∈R+p sont dénomés multiplicateurs lagrangien.

Pour une fonction f :RnR, est appelé gradient de f enx∈Rn, l'opérateur ∇f(x)

tel que :

∇f(x) =

∂f(x)

∂x1 ,

∂f(x)

∂x2 , . . . ,

∂f(x)

∂xn

T

.

De même, est appelé matrice hessienne de f en x ∈ Rn, l'opérateur Hf(x), matrice

des dérivées secondes partielles, tel que :

(Hf(x))ij

1≤i

j≤n

=

2f(x)

∂xi∂xj.

Enn, pour les fonctions de typeh:RnRm, le symbole∇est appelé Jacobien deh,

tel que :

∇h(x) = (∇h1(x),∇h2(x), . . . ,∇hm(x)). (III.6)

La construction des sous-problèmes QP est eectuée de façon à ce que chacun de ces

sous-problèmes reète les propriétés locales du problème d'ONL, en regard du vecteur xk

de l'itération en cours. Par conséquent, l'idée est de remplacer :

• la fonction objectif f par son approximation quadratique locale

f(x) ≈ f(xk) + ∇f(xk) (x−xk) + 12(x−xk)T Hf(xk) (x−xk),

• les fonctions contraintesh etg par leur approximation ane locale

h(x) ≈ h(xk) + ∇h(xk) (x−xk),

g(x) ≈ g(xk) + ∇g(xk) (x−xk).

En dénissant

d(x) = x−xk,

Bk = Hf(xk).

le sous-problème QP peut alors s'écrire sous la forme suivante :

min

d(x)∈R

n

∇f(xk)Td(x) +1

2d(x)

TBkd(x) (III.7)

avec

h(xk) + ∇h(xk)T d(x) = 0,

g(xk) + ∇g(xk)Td(x) ≤ 0. (III.8)

Pour chaque itération, le processus d'optimisation SQP comporte trois étapes :

• La première étape consiste à calculer le vecteur Bk, désignant l'approximation de la

matrice hessienne du Lagrangien def. Cette étape est réalisée en utilisant la méthode

quasi-Newton BFGS4. Pour résumer, la matrice hessienne du Lagrangien de f est

estimée en analysant les diérents gradients successifs de f5.

• La deuxième étape est la résolution du sous-problème QP (III.7). Pour y parvenir,

plusieurs méthodes existent. Celle utilisée ici se nomme en anglais Active Set (ou

ensemble actif, ou encore méthode de projection). Elle est consituée de deux phases

consécutives : tout d'abord le calcul d'un premier point admissible (s'il existe), puis

la génération d'une séquence itérative de points admissibles qui converge vers la

solution. Dans cette méthode, on créée un ensemble actif Ak contenant l'ensemble

des contraintes actives au point solution. Cet ensemble Ak est mis à jour à chaque

itérationket permet de calculer une direction de recherche, c'est-à-dire de cerner un

sous-ensemble d'inégalités à regarder pour trouver la solution, permettant ainsi de

diminuer la complexité de la recherche.

4. BFGS : Broyden-Fletcher-Goldfarb-Shanno

5. Pour plus de détails sur les méthodes quasi-Newton, le lecteur pourra se reporter au chapitre III du

livre de J. Nocedal : Numerical Optimization [39].

• La dernière étape consiste à trouver la valeur d'un paramètre αk, tel que celui-ci

permette une décroissance susante d'une fonction dite de mérite. La résolution du

sous-problème QP à l'issue de la deuxième étape donne un vecteur dk utilisé pour

former un nouveau vecteurxk+1 tel que :

xk+1 =xk+αkdk. (III.9)

Pour un problème d'optimisation avec contraintes, une fonctionΦ :Rn→Rest une

fonction exacte du problème si chaque minimum local x du problème est aussi un

minimum local de la fonction Φ, sans contrainte. Cette fonction permet de mesurer

le progrès de l'algorithme d'optimisation. Une forme possible de la fonction est :

Φ (x, µ) =f(x) +µkc(x)k, (III.10)

où l'opérateurkkdésigne une norme quelconque etµest appelé paramètre de pénalité

et tel que µ >0.

Le pas αkdk sera accepté si la condition suivante est vériée :

Φ (xkkdk, µk)≤Φ (xk, µk) +ηαkD(Φ (xk, µ), dk), η ∈(0,1), (III.11)

oùD(Φ (xk, µ), dk)est la dérivée directionnelle deΦdans la direction dk. La

condi-tion (III.11) est vériée pour un paramètre de pénalitéµ choisi susamment grand

[39].

À l'issue de ces trois étapes, le processus itératif est bouclé, jusqu'à ce que la condition

de convergence soit vériée.

La méthode de programmation séquentielle quadratique est disponible dans la librairie

de fonctions d'optimisation de l'environnement matlab.

III.4.2.2 Méthodes du point intérieur

Les méthodes du point intérieur sont historiquement les dernières méthodes

d'optimi-sation numérique développées. Elles sont aujourd'hui considérées, avec les méthodes SQP

à ensemble actif, comme étant les plus performantes pour les problèmes d'optimisation non

linéaire de grande taille [39].

Deux classes d'algorithmes permettent de mettre en ÷uvre ecacement les méthodes

du point intérieur. La première classe se base notamment sur les méthodes de recherche

linéaire et d'algèbre linéaire (c'est-à-dire la factorisation matricielle). La seconde classe

d'algorithme utilise des modèles quadratiques et les méthodes de régions de conance. Ces

deux approches coincident assymptotiquement, mais peuvent donner des résultats

inter-médiaires diérents.

Les méthodes du point intérieur sont des méthodes complexes, dont la description sort

du cadre de cette thèse. Elles sont, elles aussi, disponibles dans la librairie de fonctions

d'optimisation de l'environnement matlab. Le lecteur intéressé pourra se reporter à la

littérature spécialisée [39].