• Aucun résultat trouvé

Relaxation Lagrangienne

N/A
N/A
Protected

Academic year: 2022

Partager "Relaxation Lagrangienne"

Copied!
9
0
0

Texte intégral

(1)

RELAXATION LAGRANGIENNE

4.1 Introduction

La relaxation lagrangienne est une manipulation classique en optimisation sous contraintes.

Bien qu’intimement liée à la convexité, elle est couramment utilisée dans le cas non convexe.

En particulier, elle permet d’obtenir des bornes de la valeur optimale de certains problèmes d’optimisation combinatoire durs. L’idée consiste à relaxer une partie des contraintes (en principe, celles qui rendent le problème compliqué) qui sont introduites dans la fonction objectif sous la forme d’une pénalité qui combine linéairement les contraintes relaxées. Les coefficients de cette combinaison linéaire sont appelées les variables duales associées à la relaxation lagrangienne.

Considérons le problème d’optimisation dans IRn suivant :

(P)

Minimiser f(x) g(x)≤0 x∈S

où S est un sous-ensemble deIRn,f :S 7→IRetg:S 7→IRp.

(P) sera appelé le problèmeprimal. Ici, les contraintesg(x)≤0sont considérées comme les contraintes complicantes (on dit aussi couplantes) dans le sens où on suppose que l’on dispose d’un algorithme ’efficace’ pour minimiser une fonction de IRn sur l’ensemble S.

Observez qu’aucune hypothèse particulière n’a été formulée sur le problème primal.

4.2 Lagrangien et fonction duale

On définit le Lagrangien du problème (P) comme la fonction L : S ×(IRp)+ 7→ IR suivante :

L(x, u) =f(x) +hu, g(x)i

où u ∈ IRp, u ≥ 0 est appelé le vecteur des multiplicateurs (de Lagrange dans le cas de contraintes égalités ou de Kuhn-Tucker dans le cas de contraintes inégalités, cf. chap. I-4) ou vecteur desvariables duales. On appelle alorsfonction duale associée au problème (P) la fonctionh: (IRp)+ 7→IRtelle que :

h(u) = inf

x∈S L(x, u) définie surU ={u∈(IRp)+| infx∈SL(x, u)>−∞}.

1

(2)

2 CHAPITRE 4. RELAXATION LAGRANGIENNE Théorème 4.1 La fonction h est concave sur tout sous-ensemble convexe de U.

Démonstration Pour chaquex∈S,f(x) +hu, g(x)iest une fonction affine enu. Or, l’en- veloppe inférieure d’une collection de fonctions affines est concave sur tout sous-ensemble convexe fermé de son domaine.2

En plus de cette propriété remarquable, la fonction duale fournit une borne inférieure pour le problème (P) :

Théorème 4.2

h(u)≤f(x), ∀u∈U et∀x∈S tel queg(x)≤0

Démonstration Par définition,h(u)≤f(x) +hu, g(x)i,∀x∈S et∀u∈U. Donc, h(u)≤ f(x) sihu, g(x)i ≤0, c.a.d. si g(x)≤0.2

Il est naturel de rechercher la meilleure borne inférieure de (P), c.a.d. la plus grande afin d’approcher, voire d’atteindre, la valeur optimal de(P). En effet, on peut écrire :

sup

u≥0

h(u)≤inf{f(x)|x∈S, g(x)≤0}

Corollaire 4.1 En notantsuph et Sisuph= +∞, le problème primal n’a pas de solution réalisable.

Si inff =−∞?, le problème dual n’a pas de solution réalisable.

Le problème dual associé à (P) est donc :

(D) Maximiser h(u) u∈U

On appellera solution primale réalisable ou P-réalisable tout x ∈S tel que g(x) ≤ 0.

De même, toutu∈U est une solution duale réalisable ou D-réalisable.

4.3 Point-selle du Lagrangien

Définition 4.1 On appelle point-selle de la fonction Lagrangien L toute paire (x, u) telle que :

∀u≥0, L(x, u)≤L(x, u)≤L(x, u), ∀x∈S

Le point-selle signifie donc que x minimise L(x, u) par rapport à x sur S et que u maximiseL(x, u) par rapport àu suru≥0(voir représentation sur la figure 4.1).

Théorème 4.3 (x, u) est un point-selle de L(x, u) si et seulement si : i) x minimiseL(x, u) sur S

ii) g(x)≤0 iii) hu, g(x)i= 0

(3)

Figure 4.1 – Point-selle du Lagrangien

Démonstration i) correspond naturellement à l’inégalité de droite de la définition.

L’inégalité de gauche s’écrit :

∀u≥0, f(x) +hu, g(x)i ≤f(x) +hu, g(x)i ⇔ h(u−u), g(x)i ≤0 Quandui tend vers+∞, on doit donc avoir gi(x)≤0.

Par ailleurs, siu= 0,−hu, g(x)i ≤0. Comme u ≥0 etg(x)≤0, on obtient : hu, g(x)i= 0.2

Théorème 4.4 Si (x, u) est un point-selle de L, alors x est solution de (P).

Démonstration D’après le théorème précédent, si (x, u) est un point-selle de L, x minimiseL(x, u)surS. Donc,f(x)≤f(x)+hu, g(x)i,∀x∈S. D’où,f(x)≤f(x),∀x∈ S et tels queg(x)≤0. C’est-à-dire,x est solution de (P).2

L’implication réciproque n’est en général pas vraie. Quandsuph <inff, on dit qu’il y a unsaut de dualité.

Corollaire 4.2 S’il existex P-réalisable et u D-réalisable tels que h(u) =f(x), alors (x, u) est un point-selle de L. Par conséquent,x est solution optimale de (P) et u est solution optimale de (D).

Il est difficile de donner une condition nécessaire et suffisante d’existence d’un point- selle. Le théorème d’existence le plus précis est dû à Karlin :

Théorème 4.5 Supposons S convexe et les fonctions f, g1, . . . , gp convexes sur S. Suppo- sons de plus qu’il existe x0 ∈S tel que g(x0)<0. Si x ∈S est une solution optimale de (P), alors il existe un vecteur de multiplicateurs u ≥0 tel que (x, u) est un point-selle du Lagrangien L(x, u).

Démonstration cf. Mangasarian, p. 79. 2

L’idée est donc bien de substituer la résolution de (P) jugée difficile par la résolution du problème dual. On a supposé en effet que le calcul de la fonctionhen un pointu deU est relativement simple. On va voir dans la section suivante que le prix à payer pour cette relaxation est le fait que la fonction duale n’est en général pas différentiable.

(4)

4 CHAPITRE 4. RELAXATION LAGRANGIENNE

4.4 Différentiabilité de la fonction duale

Pour simplifier l’étude, on suppose S compact et les fonctions f, g1, . . . , gp continues sur S. Cela implique U = (IRp)+. La fonction h est alors sous-différentiable sur U (on emploiera par abus de langage les mots sous-différentiel et sous-gradient même s’il s’agit d’une fonction concave, les supports affines correspondants étant alors des majorants de la fonction).

SoitX(u) ={x∈S |x minimise L(x, u) surS}. D’après les résultats du chapitre II-3 (Théorème de Danskin), on a :

∂h(u) =conv{g(x)|x∈X(u)}

Donc, h sera différentiable en u ∈ U si g(x) est constant sur X(u), ou de manière plus pratique, si le sous-problème infx∈S f(x) +hu, g(x)i possède un unique minimum. Cela sera le cas en particulier si f est strictement convexe, g1, . . . , gp convexes sur S convexe borné.

Exemples:

a) Programmation Linéaire.

Soit le programme linéaire :

Max z=cTx Ax≤b

x≥0

Relaxons les contraintes Ax≤b pour obtenir le Lagrangien : L(x, u) =cTx+uT(b−Ax) pour toutu≥0

La fonction duale s’écrit :

h(u) = inf{(c−ATu)Tx|x≥0}+bTu

=

( bTu sic−ATu≥0, u≥0

−∞ sinon b)

Min (x1−1)2+ (x2−2)2 x1+x2 ≤2

x1, x2 ≥0

Relaxons la contrainte x1+x2≤2. La fonction duale d’une seule variableu est : h(u) = inf{(x1−1)2+ux1|x1 ≥0}+ inf{(x2−2)2+ux2 |x2≥0} −2u

=

−1/2u2+u si0≤u≤2

−1/4u2+ 1 si2< u≤4 5−2u siu >4 Remarques :

(5)

Figure 4.2 – Fonction duale différentiable

– Le calcul a été séparé en deux calculs indépendants sur x1 etx2 (on dit qu’on a décomposé le problème).

– La fonction h est concave, donc continue aux points de jonction des différents morceaux et également différentiable sur u≥0(cf. figure 4.2).

c)

Min −x2

1−2x= 0 0≤x≤1

La solution est bien sûr x= 0.5 avec f(x) =−0.25.

En relaxant la contrainte 1−2x= 0, on obtient la fonction duale : h(u) =

( u siu≤ −1/2

−1−u siu >−1/2

Ici, u n’est pas astreint à être ≥ 0 car la contrainte relaxée est une égalité. On remarque que h n’est pas différentiable en u= −1/2 qui est d’ailleurs le maximum de het quemaxh=−1/2<minf. On a ici un saut de dualité car le problème n’est pas convexe (Fig. 4.3).

4.5 Dualité et perturbations des contraintes

On associe à (P) le problème perturbé suivant :

(6)

6 CHAPITRE 4. RELAXATION LAGRANGIENNE

Figure 4.3 – Saut de dualité

(P y)

Minimiser f(x) sous g(x)≤y

x∈S

où y ∈IRp est un vecteur de perturbations du second membre. Le problème (P) cor- respond bien sûr ày= 0.

Soitw(y)la fonction perturbation :

w(y) = min{f(x)|g(x)≤y, x∈S}

définie sur

Y ={y∈IRp | ∃x∈Stel queg(x)≤y}

Proposition 4.1 – La fonctionw est monotone non croissante sur Y

– Si f, g sont des fonctions convexes et S est convexe fermé, alors Y est un ensemble convexe et w est convexe sur Y.

Démonstration : exercice

La figure 4.4 montre l’épigraphe de la fonctionw dansIRp+1. Théorème 4.6 La fonction duale h associée à (P) satisfait :

h(u) =−w(−u)

Démonstration Montrons que, pour unu≥0 tel queh(u)soit fini, on a : y0+hu, yi ≥h(u),∀ y

y0

!

∈epi(w)

Observez que, si x¯ ∈ S est tel que h(u) = f(¯x) +hu, g(¯x)i, la relation ci-dessus signifie queH ={ y

y0

!

∈ IRp+1 |y0+hu, yi =h(u)} est un hyperplan support de l’épigraphe

(7)

Figure4.4 – Fonction w(y)

de la fonctionw en g(¯x) f(¯x)

!

. En effet,h(u) =L(¯x, u)≤f(x) +hu, g(x)i,∀x∈S, ce qui implique queh(u)≤y0+hu, yi pour touty0 ≥f(¯x)et touty≥g(¯x). On vérifie alors que f(¯x) =w(y).

En se reportant à la définition de la fonction conjuguée (chap.3), on retrouve la relation cherchée entreh etw.2

4.6 Relaxation Lagrangienne et optimisation combinatoire

De nombreux problèmes d’optimisation combinatoire peuvent se modéliser sous la forme :

(IP)

Minimiser cTx Ax≥b

Ex≥d, x∈Zn

Ici encore, on suppose que les contraintes Ax ≥ b sont complicantes et qu’on dispose d’un outil pour minimiser une fonction linéaire sur S = {x ∈ Zn|Ex ≥ d}. Soit vRL = supu≥0infx∈ScTx+uT(b−Ax), la valeur maximale du dual associé à la relaxation la- grangienne des contraintes complicantes dans (IP). Le résultat suivant est dû à Geoffrion (1974) :

Théorème 4.7 SoitvRCla valeur optimale de la relaxation de (IP) obtenue en remplaçant S par convS, l’enveloppe convexe de S. Alors

vRL=vRC

Démonstration On remarque d’abord qu’on peut remplacer S par convS dans la défi- nition de la fonction dualeh. En effet, le Lagrangien étant linéaire en x, le minimum est

(8)

8 CHAPITRE 4. RELAXATION LAGRANGIENNE atteint en un sommet de S (supposé borné pour simplifier l’exposé). Soient xk, k∈K un sommet deS. On a alors :

h(u) = min

k∈K[cTxk+uT(b−Axk)]

La fonction duale est donc concave linéaire par morceaux, chaque support affine étant associé à un sommet deS.

Le problème dual peut donc s’écrire comme un programme linéaire :

Maximiser w

w−uT(b−Axk)≤cTxk, k∈K u≥0

dont le dual est, en appelantλk la variable duale associée à la contraintek: Minimiser cT(Pkλkxk)

A(Pkλkxk)≥b P

kλk= 1 λk≥0,∀k

et on retrouve bien l’enveloppe convexe deS donnée par : conv(S) ={x=X

k

λkxk,X

k

λk= 1, λk ≥0}

2

Observation : Si vLP est la valeur optimale de la relaxation continue de (IP), on a la hiérarchie suivante entre les bornes inférieures :

vLP ≤vRL≤v

On aura de plusvLP =vRL si conv(S) ={x∈IRn |Ex≥d, x≥0} (ce qui revient à dire que le sous-problème a la propriété d’intégralité de ses solutions de base).

(9)

Références:

L.S. Lasdon, Optimization for Large Systems, Mac Millan, 1970 C. Lemaréchal, Lagrangian Relaxation, INRIA Report, 2000 O. Mangasarian, Nonlinear Programming, Prentice-Hall, 1969

Références

Documents relatifs

Vous pourrez alors plus facilement mettre en œuvre les exercices respiratoires décrits dans le chapitre 2 : une expiration sans effort, une petite pause, une inspiration légère,

[r]

Le premier niveau de décision consiste à planifier les volumes de production de chaque site pour chaque produit, les volumes de production sous-traités ainsi que

Pour obtenir une estimation de la densit´ e des so- lutions entourant une solution donn´ ee de la popu- lation, nous calculons la distance moyenne entre le point repr´ esentant

A cette fin, nous avons divisé notre problème d'affectation avec réemploi en deux problèmes distincts, un problème principal portant sur l'étude du problème dual du

La troisième nuit, on a le même type de relations mais cette fois-ci comme l’espacement des nombres premiers n’est pas régulier comme celui des nombres impairs, il n’y a pas

Portez une attention particulière au point ouvert et fermé sur chaque palier.. Ils

Avec cinq graduations intermédiaires au minimum, celui-ci donne 40 configurations possibles qui incluent les deux qui viennent d’être mentionnées.. Pour L variant de 24