• Aucun résultat trouvé

CONVEXE ET OPTIMISATION D’EXERCICES D’ANALYSE

N/A
N/A
Protected

Academic year: 2022

Partager "CONVEXE ET OPTIMISATION D’EXERCICES D’ANALYSE"

Copied!
21
0
0

Texte intégral

(1)

CONVEXE ET OPTIMISATION D’EXERCICES D’ANALYSE

LICENCE MATHEMATIQUES ET APPLICATIONS Pour les étudiants du semestre S6

Université Cadi Ayyad Faculté Polydisciplinaire de Safi

SAFI 2020

c Aboussoror Abdelmalek

(2)

Avant Propos

Ce recueil 3 d’exercices est destiné aux étudiants de la filière Sciences Mathématiques et Applications de la Faculté Polydisciplinaire de Safi. Il porte sur les conditions d’optimalité pour les problèmes d’optimisation. Tous les exercices sont proposés avec leurs solutions détaillées. Nous rappelons que l’étudiant doit essayer d’abord de résoudre les exercices avant de regarder leurs solutions.

c Aboussoror Abdelmalek

(3)

Exercices

Exercice 1 Soient I = {1, ..., p}, J = {1, ..., q}, p, q ∈ N, gi : Rn → R, i∈ I, des fonctions convexes, et hj :Rn → R, j ∈J, des fonctions affines définies parhj(x) =haj, xi+bj, où aj ∈Rn, et bj ∈R, j∈J.

1) SoitC le sous ensemble de Rn défini par C =

x∈Rn:gi(x)≤0,∀i∈I . Montrer que C est convexe.

2) SoitD le sous ensemble de Rn défini par D=

x∈Rn:gi(x)≤0,∀i∈I, hj(x) = 0,∀j∈J . Montrer que D est convexe.

Exercice 2 Soient C un sous ensemble non vide Rnet x¯∈C. Montrer que l’ensemble des directions admissibles en x¯

Dad = n

d∈Rn\ {0}: ∃¯t >0,∀t∈ 0,¯t

,x¯+td∈C o

, est un cône.

Exercice 3 Soient f : Rn → R une fonction convexe et x ∈ Rn. Montrer que les propriétés suivantes sont équivalentes

1) n

d∈Rn\ {0}: f0(x;d)<0o

est non vide, 2) 06∈∂f(x).

Exercice 4 Considérons le problème de minimisation suivant

(P) max

(x1,x2,x3)R3 (x1,x2,x3)∈]−2,2[3

(−x21−x1x3−x32+x1+x2+x3).

Soit

(Q) min

(x1,x2,x3)R3 (x1,x2,x3)∈]−2,2[3

(x21+x1x3+x32−x1−x2−x3).

1) Dire dans quel sens les problèmes (P) et (Q) sont équivalents.

2) Trouver l’ensemble des points réalisables de (P) vérifiant la condition d’optimalité de premier ordre établie dans le Théorème 3.2.1.

3) Que peut-on dire des points de cet ensemble.

(4)

Exercice 5 On considère le problème de minimisation suivant (P) min

x∈]−2,2[x(x−1)2. Le problème(P) admet-il un minimum local strict?

Exercice 6 On considère le problème de minimisation suivant (P) min

(x1,x2)R2 x2

1+x2 2≤1 x1≥0,x2≥0

(x1−2)2+ (x2−1)2.

Le point réalisable x¯ = (1

2,1

2)T peut-il être candidat à être minimum de (P)?

Exercice 7 On considère le problème de minimisation suivant (P) min

(x1,x2)R2

−x1−x2+2≤0

(x21+x22+x1x2).

On posef(x1, x2) =x21+x22+x1x2 la fonction objectif etg(x1, x2) =−x1− x2+ 2la fonction contrainte.

1) Montrer que f est strictement convexe.

2) Le problème (P) est-il convexe?

3) Résoudre le problème (P). Que peut-on dire de l’ensemble des solu- tions?

Exercice 8 On considère le problème de minimisation suivant (P) min

(x1,x2)R2 x2

1+x2 2−4≤0 x2≥0

(x1−4)2+x22.

1) Le problème (P) est-il convexe?

2) Résoudre le problème (P).

Exercice 9 Résoudre le problème de minimisation suivant

(P) min

(x1,x2)R2 (x1−2)2+x2

2−1≤0 x1+2x2−2=0

x1≥0,x2≥0

x21+x22.

(5)

Exercice 10 On considère le problème de minimisation suivant (P) min

x∈C g(x)≤0 h(x)=0

f(x),

où f : Rn → R, g = (g1, ..., gm)T : Rn → Rm, h = (h1, ..., hl)T : Rn → Rl des fonctions et C un sous ensemble non vide deRn.

On appelle fonction lagrangienne associée au problème (P) la fonction L:Rn×Rm+ ×Rl→R,

définie par

L(x, α, β) = f(x) +αTg(x) +βTh(x)

= f(x) +

m

X

i=1

αigi(x) +

l

X

j=1

βjhi(x),

avec α = (α1, ..., αm)T et β = (β1, ..., βl)T. On appelle problème dual la- grangien de(P) le problème (D) défini par

(D) sup

(α,β)∈Rm+×Rl x∈Cinf

f(x) +αTg(x) +βTh(x) .

Le problème (P) est appelé le problème primal. Dans la suite on pose

θ(α, β) = inf

x∈C{f(x) +αTg(x) +βTh(x)}

= inf

x∈CL(x, α, β).

La fonction θ est appelée fonction duale. On a donc

(D) sup

(α,β)∈Rm+×Rl

θ(α, β).

Montrer que

infP ≥supD.

Dans ce cas, on dit qu’on a dualité lagrangienne faible.

Le résultat suivant sera utilisé dans l’Exercice11.

Lemme 1 Soient fˆ : Rn → R, ˆg : Rn → Rm des fonctions convexes, ˆh : Rn → Rl une fonction affine et Cˆ un sous ensemble convexe de Rn. Considérons les systèmes suivants

(S1) ˆf(x)<0, ˆg(x)≤0, ˆh(x) = 0, x∈C,ˆ

(6)

(S2) u0f(x) +ˆ uTˆg(x) +vTˆh(x) ≥ 0, pour tout x ∈ C, oùˆ (u0, u) ≥ 0, (u0, u, v)6= 0.

Alors

1) si (S1) n’a pas de solution, alors (S2) admet une solution (u0, u, v), 2) si(S2) admet une solution(u0, u, v), avec u0 >0 et u≥0, alors(S1) n’a pas de solution.

Exercice 11 On considère le problème (P) de l’Exercice 10 avec f, g des fonctions convexes et h une fonction affine. On suppose que la condition suivante de qualification des contraintes est satisfaite

(C)

∃xˆ∈C, tel que g(ˆx)<0, h(ˆx) = 0, 0∈inth(C),

oùh(C) ={h(x), x∈C}. On poseγ = infP. 1) Montrer que si infP =−∞, alors

infP = supD.

2) On suppose maintenant que infP >−∞. En considérant le système (S1) f(x)−γ <0, g(x)≤0, h(x) = 0, x∈C,

montrer qu’il existe(¯u0,u,¯ v),¯ (¯u0,u)¯ ≥0, (¯u0,u,¯ v)¯ 6= 0, tel que

¯

u0(f(x)−γ) + ¯uTg(x) + ¯vTh(x)≥0,∀x∈C.

3) Dans cette question, on veut montrer queu¯06= 0. Pour cela on va raison- ner par l’absurde. On suppose alors queu¯0 = 0.

i) Montrer que u¯Tg(ˆx) = 0, où xˆ est le point donné par la condition(C).

ii) Montrer que u¯= 0.

iii) Montrer que ¯vTh(x)≥0, pour toutx∈C.

iv) En utilisant la condition (C), montrer qu’il existe une boule ouverte B(0, r)⊂h(C) etλ >¯ 0 tels que

λ¯v∈B(0, r), ∀λ∈]0,λ[.¯ v) Montrer que v¯= 0.

vi) Déduire.

4) Montrer que supD = infP et que (D) admet une solution. Dans ce cas, on dit que (P) et (D) sont en dualité lagrangienne forte.

5) On suppose qu’il existex¯ solution de (P). Montrer que

¯

ug(¯x) = 0.

(7)

Le but de l’exercice suivant et d’appliquer des résultats sur la dualité la- grangienne et s’exercer aussi à appliquer des résultats d’analyse convexe en optimisation.

Exercice 12 On considère le problème (P) min

x∈R x−2≤0

(x2−2x).

On pose f(x) =x2−2x et g(x) =x−2.

1) Donner la formulation du dual lagrangien(D) de(P).

2) Donner l’expression explicite de la fonction dualeθ.

3) Déterminer N

R+(λ), le cône normal àR+ enλ, λ≥0.

4) Dans cette question on veut résoudre le problème dual(D) en appliquant quelques résultats d’analyse convexe.

i) Donner la formulation du problème de minimisation équivalent au prob- lème (D), qu’on notera par( ˆD). Expliquer dans quel sens les problèmes(D) et ( ˆD) sont équivalents.

ii) En utilisant la fonction indicatrice, reformuler le problème ( ˆD) en un problème(Q)sans contraintes. Que peut-on dire des ensembles des solutions et des valeurs optimales des problèmes ( ˆD) et (Q).

iii) Montrer que λ ∈R+ est solution de (Q) si et seulement si 0∈1

+ 1 +NR+).

iv) Résoudre le problème (Q). Déduire une solution de(D).

5) Résoudre le problème (P).

Exercice 13 On considère le problème de minimisation suivant

(P) min

(x1,x2,x3)∈∈R3

−x1+2x2+x3=2 x1+x2−2x3=1

(x21+x2+x23).

1) Quel est le rang de la matriceA associée aux contraintes?

2) La fonction objectif du problème (P) est-elle convexe?

3) Résoudre le problème (P).

(8)

Solutions des exercices

Exercice1

1) Soientx1, x2∈C etα∈[0,1]. Pour tout i∈I, on a gi(x1)≤0 et gi(x2)≤0.

Par suite, en utilisant la convexité de la fonctiongi, on obtient gi(αx1+ (1−α)x2) ≤ αgi(x1) + (1−α)gi(x2)

≤ 0.

Doncαx1+ (1−α)x2∈C.

2) Soientx1, x2∈Detα∈[0,1]. Remarquons que D=C∩

x∈Rn:hj(x) = 0,∀j ∈J .

En utilisant le fait que l’intersection de deux convexes est un convexe, il reste alors à montrer que pour toutj∈J, on a

hj(αx1+ (1−α)x2) = 0.

Soitj∈J, on a

hj(αx1+ (1−α)x2) = haj, αx1+ (1−α)x2i+bj

= α(haj, x1i+bj) + (1−α)(haj, x2i+bj)

= αhj(x1) + (1−α)hj(x2).

On déduit alors queαx1+ (1−α)x2 ∈D.

Exercice 2 Soient d ∈ Dad et α > 0. Montrons que αd ∈ Dad. Puisque d∈ Dad, il existet0>0, tel que

¯

x+td∈C, ∀t∈ 0, t0

. Nous distinguons les cas suivants.

i) Si 0< α <1, alors 0< αt0 < t0. Donc, 0, αt0

⊂ 0, t0

et par suite pourt∈

0, t0

, on a

αt∈ 0, αt0

⊂ 0, t0

. Par conséquent

¯

x+αtd∈C, ∀t∈ 0, t0

, C’est à direαd∈ Dad.

(9)

ii) Si α > 1, alors t0

α < t0. Par suite 0,tα0

⊂]0, t0[ et pour t∈ 0,tα0

, on a

αt∈ 0, t0

. Posonst1 = t0

α. Donc

¯

x+t(αd) = ¯x+ (tα)d∈C, ∀t∈ 0, t1

.

C’est à direαd∈ Dad. D’après les deux cas, on conclut que Dad est un cône.

Exercice3 "1) =⇒2)" Soitd ∈Rn\ {0}, tel quef0(x;d)<0. On a f0(x;d) = lim

t&0+

f(x+td)−f(x) t <0.

Il existe alorst0 >0, tel que

f(x+td)−f(x)

t <0, ∀t∈]0, t0[.

Soitt¯∈]0, t0[.Alors

f(x+ ¯td)< f(x).

Posonsy=x+ ¯td. Alors

f(y) < f(x)

= f(x) +h0, y−xi.

Donc06∈∂f(x).

"2) =⇒1)" Puisque 06∈∂f(x), il existey∈Rn,y6=x, tel que f(y)< f(x) +h0, y−xi.

On a, alors

f0(x;y−x) = inf

t>0

f(x+t(y−x))−f(x) t

≤ f(x+ 1(y−x))−f(x)

= f(y)−f(x)1<0,

où l’inégalité résulte du fait que la fonction t7−→ f(x+t(y−x))−f(x)

t , est crois- sante surR+ (voir Proposition 2.3.6). On prend alorsd=y−x. Par suite

d∈Rn\ {0}:f0(x, d)<0 6=∅.

(10)

Exercice4

1) Posonsf(x) =−x21−x1x3−x32+x1+x2+x3. Puisque sup

x∈]−2,2[3

f(x) =− inf

x∈]−2,2[3(−f(x)).

alorssupP =−infQ.On remarque aussi que tout point xréalisant le max- imum de (P) réalise le minimum de (Q) et inversement. Donc, on déduit que les problèmes(P)et(Q)sont équivalents dans le sens qu’ils ont le même ensemble de solutions et des valeurs optimales opposées.

2) Soit fˆ(x) = x21+x1x3+x32 −x1 −x2−x3. Soit x¯ = (¯x1,x¯2,x¯3)T un point réalisable de (P). Donc, x¯ est un point réalisable de (Q). Puisque l’ensemble des points réalisables est un ouvert etfˆest différentiable surR3, alors d’après la condition nécessaire d’optimalité de premier ordre donnée dans le Théorème 3.2.1,x¯ doit satisfaire

∇fˆ(¯x) =

2¯x1+ ¯x3−1 3¯x22−1

¯ x1−1

=

 0 0 0

.

L’équation∇fˆ(¯x) = 0, donne comme ensemble de solutions n

1, 1

√3,−1T

, 1,− 1

√3,−1To ,

qui est l’ensemble des points réalisables qui satisfont la condition nécessaire d’optimalité de premier ordre ci-dessus.

3) Il n’est pas suffisant de conclure que ces points sont des minimum locaux de (Q), i.e., maximum locaux de (P). Tout ce qu’on peut dire est qu’ils peuvent être candidats à résoudre(P) localement.

Exercice5 Posonsf(x) =x(x−1)2 etC =]−2,2[. On a C est un ouvert et

∇f(x) =f0(x) = (x−1)(3x−1), f00(x) = 2(3x−2).

L’équationf0(x) = 0, donne les solutions 1 et 13,f00(1) = 2>0, et f00(13) =

−2 < 0. Par suite, selon le Théorème 3.2.6, x¯ = 1 est un minimum local strict def surC.

Exercice 6 Posons f(x) = (x1 −2)2+ (x2 −1)2, g1(x1, x2) = x21+x22 − 1, g2(x1, x2) = −x1 et g3(x1, x2) = −x2. On vérifie facilement que (P) est un problème convexe. Donc, tout minimum local est global. La seule contrainte saturée enx¯ est g1, i.e., g1(¯x) = 0. Donc l’ensemble des indices des contraintes saturées enx¯ estI(¯x) ={1}. Pour x= (x1, x2)T ∈R2, on a

∇f(x) = (2x1−4,2x2−2)T, ∇g1(x) = (2x1,2x2)T,

(11)

∇f(¯x) = 2

2 −4, 2

2−2T

, ∇g1(¯x) = 2

√ 2, 2

√ 2

T

. Soitd= (1,−2)T. Alors

hd,∇f(¯x)i= 2

√2 − 4

√2 <0, et hd,∇g1(¯x)i= 2

√2 − 4

√2 <0.

Donc,

d∈Rn\ {0}:hd,∇f(¯x)i<0 ∩

d∈Rn\ {0}:hd,∇g1(¯x)i<0 6=∅.

Par suite,x¯ne satisfait pas la condition nécessaire d’optimalité du Théorème 3.2.12. Donc,x¯ ne peut être un minimum de(P).

Exercice7 1) On a

∇f(x1, x2) = (2x1+x2,2x2+x1) et ∇2f(x1, x2) =

2 1 1 2

. La matrice hessienne de f admet comme valeurs propres 1 et 3 qui sont strictement positives. Par suitef est strictement convexe.

2) On af est convexe etgest linéaire (donc convexe). Par suite le problème (P) est convexe.

3) Appliquons le Théorème 3.2.19 qui donne des conditions suffisantes d’optimalité, dites de Karush-Kuhn-Tucker. Soit x¯ = (¯x1,x¯2)T un point réalisable de(P). Cherchons s’il existeα∈Rtel que

∇f(¯x1,x¯2) +α∇g(¯x1,x¯2) = 0R2, αg(¯x1,x¯2) = 0,

α≥0.

On a ∇g(¯x1,x¯2) = (−1,−1)T. Le système ci-dessus s’écrit explicitement





2¯x1+ ¯x2−α= 0, (1)

¯

x1+ 2¯x2−α= 0, (2) α(¯x1+ ¯x2−2) = 0, (3)

α≥0. (4)

La condition (3) est appelée condition de complémentarité. Pour trouver x¯ (s’il existe), on adopte la démarche suivante qui commence par appliquer la condition de complémentarité. Siα6= 0, alorsx¯1+ ¯x2−2 = 0. Les conditions (1) et (2) entrainent que x¯1 = ¯x2. On déduit alors que x¯1 = ¯x2 = 1. Par suitex¯= (1,1)T est un minimum global de(P) avecα= 3qui satisfait bien la condition (4). Puisque(P)est un problème convexe et la fonction objectif f est strictement convexe, alorsx¯ est un minimum global unique. Par suite, l’ensemble des solutions est réduit à un singleton.

(12)

Exercice8

1) Posonsf(x1, x2) = (x1−4)2+x22, la fonction objectif, g1(x1, x2) =x21+ x22−4, et g2(x1, x2) =−x2, les contraintes du problème. Le problème (P) s’écrit aussi sous la forme

(P) min

(x1,x2)R2 x2

1+x2 2−4≤0

−x2≤0

(x1−4)2+x22.

On a

∇f(x1, x2) = (2x1−8,2x2)T et ∇2f(x1, x2) =

2 0 0 2

.

La matrice hessienne admet la seule valeur propre strictement positive 2.

Doncf est strictement convexe. De même, on a

∇g1(x1, x2) = (2x1,2x2)T,∇2g1(x1, x2) =

2 0 0 2

.

Par suite, g1 est strictement convexe. De plus, la fonction g2 est linéaire, donc convexe. On déduit que le problème(P) est convexe.

2) Soit x¯ = (¯x1,x¯2)T un point réalisable de (P). Utilisons les conditions suffisantes d’optimalité de Karush-Kuhn-Tucker. Cherchons alors s’il existe α12∈R, tels que





∇f(¯x) +α1∇g1(¯x) +α2∇g2(¯x) = 0R2, α1g1(¯x) = 0,

α2g2(¯x) = 0, α1 ≥0, α2 ≥0.

Ce système s’écrit explicitement









2¯x1+ 2α11−8 = 0, (1) 2¯x2+ 2α12−α2= 0, (2) α1(¯x21+ ¯x22−4) = 0, (3)

α22 = 0, (4)

α1 ≥0, α2≥0. (5)

Commençons par examiner la condition de complémentarité (3). Supposons queα1 6= 0. Alors

¯

x21+ ¯x22−4 = 0. (6) Dans la condition de complémentarité (4), si on supposeα2 6= 0, on obtient

¯

x2 = 0. Ce qui donne une contradiction en utilisant l’équation (2). Alors, α2 = 0. Injectons cette valeur dans l’équation (2), on obtient

2¯x2+ 2α12= 0.

(13)

Soit donc

¯

x2(1 +α1) = 0.

Or d’après (5), on aα1+ 1>0. Doncx¯2 = 0. En injectant cette valeur dans l’équation (6), on obtient x¯1 = 2, ou x¯1 = −2. Injectons ces deux valeurs dans l’équation (1), et tenant compte du fait queα1≥0, on déduit que 2 est la seule valeur de x¯1 qui convient, qui donne α1 = 1. Par suite x¯ = (2,0)T est minimum global de (P). Puisque (P) est convexe ayant une fonction objectif strictement convexe, alors c’est l’unique solution.

Exercice9 Posons

f(x) =x21+x22, g1(x1, x2) = (x1−2)2+x22−1, g2(x1, x2) =−x1, g3(x1, x2) =−x2, h(x1, x2) =x1+ 2x2−2.

Posonsg= (g1, g2, g3)T. Alors, le problème(P) s’écrit sous la forme (P) min

x∈R2 g(x)≤0 h(x)=0

f(x).

On vérifie facilement que f et g1 sont strictement convexes, g2 et g3 sont linéaires et h est une fonction affine. Donc, puisque les fonctions f, et g sont convexes et h affine, alors le problème (P) est un problème convexe (voir Exercice 1). Essayons d’utiliser les conditions suffisantes d’optimalité de Karush-Kuhn-Tucker. Soit x¯ = (¯x1,x¯2)T un point réalisable de (P).

Cherchons s’il existeα1, α2, α3, β∈R, tels que

∇f(¯x) +α1∇g1(¯x) +α2∇g2(¯x) +α3∇g3(¯x) +β∇h(¯x) = 0, αigi(¯x) = 0, i= 1,2,3,

αi ≥0, i= 1,2,3.

(3.1)

On a

∇f(¯x) = (2¯x1,2¯x2)T,∇g1(¯x) = (2¯x1−4,2¯x2)T,

∇g2(¯x) = (−1,0)T,∇g3(¯x) = (0,−1)T,∇h(¯x) = (1,2)T. Alors, le système (3.1) s’écrit explicitement













2¯x1+ 2α11−4α1−α2+β = 0, (1) 2¯x2+ 2α12−α3+ 2β = 0, (2) α1((x1−2)2+x22−1) = 0, (3)

α2x1= 0, (4)

α3x2= 0, (5)

αi ≥0, i= 1,2,3. (6)

Puisque x¯ est un point réalisable de (P), on rajoute alors à ce système l’équation

h(¯x) = ¯x1+ 2¯x2−2 = 0. (7)

(14)

A titre d’exemple, nous adoptons la discussion suivante pour résoudre ce système. Commençons par examiner la condition de complémentarité (3).

Dans (3), supposons queα1 6= 0. On obtient

(¯x1−2)2+ ¯x22−1 = 0. (8) D’après (7), on ax¯1−2 =−2¯x2.Dans (8), on obtient alors

5¯x22−1 = 0.

Cette équation admet deux solutions 1

5 et−1

5. Mais tenant compte de la contrainte g3, on ne retient que la valeur x¯2 = 15. D’où x¯1 = 2− 2

5. Par ailleurs, les conditions de complémentarité (4) et (5) donnent respectivement α2 = 0 etα3 = 0. En remplaçant x¯1,x¯22 etα3 par leurs valeurs dans les équations (1) et (2), on obtient le système

( −4

5α1+β−4

5+ 4 = 0,

1

5α1+β+1

5 = 0, qui admet comme solutionsα1 = 45

5−1etβ =−45. Doncx¯= 2−2

5,1

5

T

est solution du problème(P), avec α1 = 45

5−1,α23 = 0 etβ=−45. Exercice10Soient α∈Rm+ etβ ∈Rl. On a

θ(α, β) = inf

x∈CL(x, α, β)

= inf

x∈C{f(x) +αTg(x) +βTh(x)}.

Soitx un point réalisable de(P). Donc,x∈C,g(x) = (g1(x), ..., gm(x))T ≤ 0, eth(x) = 0. Puisqueα≥0, alors

αTg(x) =

m

X

i=1

αigi(x)≤0, avecα= (α1, ..., αm)T. Par suite

f(x) +αTg(x) +βTh(x) =f(x) +αTg(x)≤f(x).

Orx est un point réalisable arbitraire de(P). Donc θ(α, β)≤ inf

x∈C g(x)≤0 h(x)=0

f(x).

De même puisque(α, β)∈Rm+ ×Rl, arbitraire, on déduit alors supD= sup

(α,β)∈Rm+×Rl

θ(α, β)≤infP.

(15)

Dans ce cas on dit que les problèmes(P)et(D)sont en dualité lagrangienne faible.

Exercice11

1) Le résultat se déduit de l’Exercice 10.

2) Remarquons que le point x considéré dans le système (S1) est un point réalisable de(P). Par conséquent, l’inégalité stricte

f(x)−γ = f(x)−infP

< 0,

dans (S1) ne peut avoir lieu. Par suite, le système (S1) n’admet pas de solution. En utilisant le Lemme1, on déduit que le système suivant

(S2) u0(f(x)−γ) +uTg(x) +vTh(x)≥0,∀x∈C, admet une solution(¯u0,u,¯ ¯v), avec(¯u0,u)¯ ≥0, et(¯u0,u,¯ ¯v)6= 0.

3) On fait un raisonnement par l’absurde pour montrer que u¯0 6= 0. On suppose alors queu¯0= 0.

i)D’après le système (S2), on a

¯

uTg(x) + ¯vTh(x)≥0,∀x∈C. (3.1) Soitxˆ∈C le point donné par l’hypothèse(C). On obtient donc

¯

uTg(ˆx) + ¯vTh(ˆx) = ¯uTg(ˆx)≥0.

Org(ˆx) = (g1(ˆx), ..., gm(ˆx))T ≤0, etuˆ≥0. Donc

¯

uTg(ˆx) =

m

X

i=1

¯

uigi(ˆx)≤0,

avec u¯= (¯u1, ...,u¯m)T. Par suite

¯

uTg(ˆx) = 0. (3.2)

ii) D’après (3.2), on a

¯

uTg(ˆx) =

m

X

i=1

¯

uigi(ˆx) = 0. (3.3) Or pour touti∈ {1, ..., m}, on a u¯i ≥0, etgi(ˆx) <0. Donc tous les termes de la somme de (3.3) ci-dessus sont négatifs ou nuls. On déduit alors que

¯

uigi(ˆx) = 0, ∀i∈ {1, ..., m}.

(16)

Puisquegi(ˆx)6= 0, alors u¯i = 0,i= 1, ..., m. C’est à dire u¯= 0.

iii)Evidente en utilisant la propriété (3.1) ci-dessus.

iv) Puisque 0 ∈ inth(C), il existe une boule ouverte B(0, r) telle que B(0, r) ⊂ h(C). Or λ¯v → 0, quand λ → 0+. Donc, il existe λ >¯ 0, tel que

λ¯v∈B(0, r), ∀λ∈]0,¯λ[.

v) Par symétrie de la boule B(0, r)par rapport à l’origine, on a aussi

−λ¯v∈B(0, r)⊂h(C), ∀λ∈]0,¯λ[.

Soitλ∈]0,λ[.¯ Il existe x¯∈C tel que −λ¯v=h(¯x). D’après iii), on obtient

¯

vT(−λ¯v) =−λk¯vk22 ≥0.

Donc¯v= 0.

vi) D’après ce qui précède, on a donc (¯u0,u,¯ v) = 0. On obtient alors une¯ contradiction avec le fait que(¯u0,u,¯ v)¯ 6= 0. On conclut alors queu¯0 6= 0.

4) Puisque(¯u0,u,¯ ¯v) est solution de (S2), on a alors

¯

u0(f(x)−infP) + ¯uTg(x) + ¯vTh(x)≥0,∀x∈C.

En divisant paru¯0, on obtient f(x) +u¯T

¯ u0

g(x) +v¯T

¯ u0

h(x)≥infP,∀x∈C. (3.4) Donc

θ u¯

¯ u0, v¯

¯ u0

= inf

x∈C

f(x) +u¯T

¯

u0g(x) + ¯vT

¯

u0h(x) ≥infP. Or u¯

¯ u0, v¯

¯ u0

T

est un point réalisable du problème dual (D) (car u¯u¯

0 ≥ 0).

Donc

supD ≥θ( u¯

¯ u0

, v¯

¯ u0

)≥infP.

De plus, par dualité lagrangienne faible (voir Exercice10), on a supD ≤infP.

Par suite

supD= infP =θ( u¯

¯ u0, ¯v

¯ u0), et donc u¯

¯ u0, v¯

¯ u0

T

est solution de(D). C’est à dire les problèmes(P)et(D) sont en dualité lagrangienne forte.

(17)

5) On a x¯ ∈ C, g(¯x) ≤ 0, h(¯x) = 0, et infP = f(¯x). Alors, d’après (3.4) ci-dessus

f(x) +u¯T

¯

u0g(x) + ¯vT

¯

u0h(x)≥infP =f(¯x),∀x∈C.

Pourx= ¯x, on obtient

¯ uT

¯

u0g(¯x) +¯vT

¯

u0h(¯x) = u¯T

¯

u0g(¯x)≥0.

Or u¯T

¯

u0 ≥0 etg(¯x)≤0, donc

¯ uT

¯

u0g(¯x)≤0.

On déduit que u¯u¯T

0g(¯x) = 0.D’où u¯Tg(¯x) = 0.

Exercice12

1) Le problème dual lagrangien(D) de (P) est défini par (D) max

λ∈R+

θ(λ), où

θ(λ) = inf

x∈R

L(x, λ)

= inf

x∈R

{f(x) +λg(x)}

= inf

x∈R

{x2−2x+λ(x−2)}.

2) D’après la formulation de θ ci-dessus, pour déterminer son expression explicite, on est amené a résoudre le problème

minx∈R

L(x, λ).

On a ∂L∂x(x, λ) = 2x+λ−2. De plus

2L

∂x2(x, λ) = 2>0.

Donc la fonctionL(., λ) est strictement convexe. Le problème minx∈R

L(x, λ),

(18)

est alors un problème de minimisation de la fonctionL(., λ) qui est stricte- ment convexe et différentiable sur l’ouvert convexeR. Par suite,x¯ est solu- tion si et seulement si (voir Corollaire 3.2.1)

∂L

∂x(¯x, λ) = 2¯x+λ−2 = 0.

D’où

¯

x= 2−λ

2 , (3.1)

qui est solution unique. Par conséquent θ(λ) = inf

x∈R

{x2−2x+λ(x−2)}

= x¯2−2¯x+λ(¯x−2)

= −1

2−λ−1.

3) On distingue les cas suivants :

i) Siλ= 0, alors dans ce cas il est facile de voir que NR+(0) =

x ∈R: x(x−0) =xx≤0,∀x∈R+

= R.

ii) Si λ >0, alors λ∈ int(R+) = R+. Par suite, NR+(λ) = {0} (voir cours S1).

4)i) Le problème(D)s’écrit alors (D) max

λ∈R+

(−1

2−λ−1), qui est équivalent au problème de minimisation suivant

( ˆD) min

λ∈R+

(1

2+λ+ 1)

dans le sens que supD = −inf ˆD, et qu’ils admettent même ensemble de solutions.

ii) Posons

θ(λ) =ˆ 1

2+λ+ 1, qui est une fonction convexe. On a

( ˆD) min

λ∈R+

θ(λ).ˆ

En utilisant la fonction indicatriceIR+ de R+, on obtient le problème sans contraintes suivant

(Q) min

λ∈R

(ˆθ+IR+)(λ).

(19)

Alors, il est facile de voir que les problèmes( ˆD) et (Q) ont même ensemble de solutions et même valeur optimale, i.e. inf ˆD= infQ.

iii) Remarquons d’abord que les réelsλ∈R ne peuvent être minimum du problème (Q), car dans ce casIR+(λ) = +∞. PuisqueIR+ est convexe (car R+est convexe), alorsθˆ+IR+ est convexe comme somme de deux fonctions convexes. Par suite,λ∈R+ est solution de(Q) si et seulement si

0∈∂(ˆθ+IR+)(λ).

On a domθˆ=Ret dom(IR+) =R+. Donc

int(domθ)ˆ ∩domIR+ =R∩R+=R+.

Par conséquent, puisque int(domθ)ˆ ∩ domIR+ 6= ∅, on a (voir Recueil 2 d’exercices)

∂(ˆθ+IR+)(λ) =∂θ(λˆ ) +∂IR+). (3.2) Puisqueθˆest une fonction convexe différentiable, alors (voir Recueil 2, Ex- ercice 10)

∂θ(λˆ ) ={θˆ0)}=1

+ 1 . Par suite, la propriété (3.2) s’écrit

∂(ˆθ+IR+)(λ) =1

+ 1 +NR+).

iv) Selon la remarque ci-dessus, si λ est solution de (Q), alorsλ ≥0. On distingue alors les cas : λ= 0 etλ>0.

Commençons par le casλ= 0. D’après la question 3), on aN

R+) =R. On doit avoir

0∈∂(ˆθ+IR+)(λ) = 1

+ 1 +R

= {1}+R.

Cherchons alors s’il existe β ∈ R tel que 0 = 1 +β. Donc β = −1. Par suite λ = 0 est solution du problème (Q), et vu l’équivalence précisée ci- dessus entre(Q)et( ˆD), on a aussi λ= 0 est solution de( ˆD). Notons qu’il est inutile de considérer le cas où λ > 0, puisque le problème ( ˆD) admet une solution unique, comme problème convexe ayant une fonction objectif strictement convexe. Puisque les problèmes (D) et ( ˆD) ont même ensemble de solutions, doncλ est solution de (D).

5) On aλ = 0 est solution du problème(D) ayant comme valeur optimale supD=θ(0) =−1.

(20)

Par ailleurs, d’après (3.1) on a

¯

x= 2−0 2 = 1,

etf(¯x) =−1 = supD. Or, d’après la dualité faible, on a toujours supD ≤infP.

Donc

f(¯x)≤infP.

Puisquex¯= 1 est réalisable pour(P), alorsx¯ est solution de (P).

Exercice13

1) La matrice associée aux contraintes est A=

−1 2 1 1 1 −2

qui est de rang égale à2.

2) Soit f la fonction objectif du problème (P). On a f(x1, x2, x3) = x21 + x2+x23. En utilisant la matrice hessienne, on vérifie facilement que f est convexe.

3) Puisque la fonction objectif est convexe différentiable et les contraintes sont sous la forme Ax = b, avec b = (2,1)T, alors pour résoudre (P), on va utiliser le Théorème 3.2.8. Soit x = (x1, x2, x3)T un point réalisable de (P). Cherchons s’il existe un vecteurα= (α1, α2)T ∈R2 vérifiant avec x la propriété suivante

∇f(x) +ATα= 0R3. (3.1) Notons en plus queAx= (2,1)T, i.e.,

−x1+ 2x2+x3= 2, (1) x1+x2−2x3= 1. (2)

L’équation (3.1) nous conduit à résoudre le système suivant (S)

2x1−α12= 0, (3) 1 + 2α12 = 0, (4) 2x31−2α2 = 0. (5)

Alors, en multipliant l’équation (5) par−2 et l’ajoutant à (4), on obtient

−4x3+ 5α2+ 1 = 0. (6)

De même, en multipliant l’équation (3) par 2 et l’ajoutant à (4), on obtient

4x1+ 3α2+ 1 = 0. (7)

(21)

En multipliant l’équation (2) par−2et l’ajoutant à (1), on obtient

−3x1+ 5x3 = 0. (8) En multipliant respectivement l’équation (6) et l’équation (7) par 3 et−5, et faisant ensuite leur somme, on obtient

10x1+ 6x3+ 1 = 0. (9)

De (8) et (9), on tire x1 = −685 et x3 = −683. En utilisant l’équation (1), on obtientx2 = 6768. Enfin, dans le système (S) ci-dessus, on tireα1 =−1334, etα2 =−174 . On conclut quex = (−685,6768,−683)T est solution de (P), avec α= (−1334,−174)T.

Références

Documents relatifs

L’enveloppe convexe des matrices de permutations est l’ensemble des matrices double- ment stochastiques (th´ eor` eme de Birkhoff), qui correspond ` a un probl` eme

Ce cours s’appuie sur le livre “Convex Optimization” de Stephen Boyd et Lieven Vandenberghe (disponible gratuitement : http://www.stanford.edu/~boyd/cvxbook/ ) et les

R´ esum´ e. Dans ce TP on va chercher ` a impl´ ementer certaines notions vues en cours concernant l’optimisation convexe. Le premier exercice cherche ` a montrer que les conditions

L’enveloppe convexe des matrices de permutations est l’ensemble des matrices double- ment stochastiques (th´ eor` eme de Birkhoff), qui correspond ` a un probl` eme

On peut notamment citer le livre de Ste- phen Boyd “Convex Optimization”, disponible en ligne gratuitement ` a l’adresse http://www.stanford.edu/~boyd/cvxbook/bv_cvxbook.pdf. Pour

[r]

R´ esum´ e. Dans ce TP on va chercher ` a impl´ ementer certaines notions vues en cours concernant l’optimisation convexe. Le premier exercice a pour but de montrer que la vitesse

Feuille d’exercices 8 : optimisation et cˆ ones. ((E, k.k) est un evn dans