• Aucun résultat trouvé

Optimisation MACS 2 2019

N/A
N/A
Protected

Academic year: 2022

Partager "Optimisation MACS 2 2019"

Copied!
68
0
0

Texte intégral

(1)

Optimisation MACS 2 2019

Part I. Résultats théoriques

13 novembre 2019

(2)

Résultats d’existence

Caractérisation des extrema

Lagrangien et point selle

(3)

Définitions

Soit V un espace de Hilbert sur R , K une partie de V , J une fonction définie sur V à valeurs dans R . On dit que u est minimum local de J sur K si u appartient à K et s’il existe un voisinage U de u dans K tel que

∀v ∈ U , J(u ) ≤ J(v ). (1) Si la relation précédente est vraie pour tout v dans K , on dit que u est minimum global de J sur K . On parle de minimum strict si l’inégalité est stricte dans (1). On définit un problème de

minimisation sur K par

( u ∈ K , J(u) = inf

v ∈K J(v) (2)

On dit alors que u est solution optimale du problème de

minimisation sur K . Le problème de minimisation est dit sans

contrainte si V = K , avec contraintes si V 6= K .

(4)

Exemple en dimension 1

f (x) = 1 2 x 5 − 3

40 x 4 − 3 5 x 3 + 3

10

f (x) = x 6

(5)

Optimisation

Min

u∈K J(u)

I J fonction différentiable

I K ⊂ V avec V espace de Hilbert.

I Dimension

I

dimV < +∞ : Optimisation en dimension finie

( R

n

, polynômes de degré inférieur à n, espaces d’éléments finis, série de Fourier tronquée...)

I

dimV = +∞ : Optimisation en dimension infinie (C

1

,L

2

, H

1

, H

01

...)

I Contraintes

I

K = V : Optimisation sans contraintes

I

K ( V : Optimisation sous contraintes (1, 2 infinité)

I

Égalité : F (v ) = 0, F : V → W ,

I

Inégalité : F (v ) ≤ 0.

(6)

Plan du chapitre

(7)

Quelques références

I J. C. Culioli, CR Ecole des Mines

Introduction à l’optimisation, Ellipses, 1994.

I M. Bergounioux, Prof. Univ. Orléans

Optimisation et contrôle des systèmes linéaires, Dunod, 2001.

I G. Allaire, Prof. Polytechnique

Numerical analysis and optimization, Oxford science publications. 2007.

https ://www.editions.polytechnique.fr/files/pdf/EXT_1255_8.pdf

I O. Lafitte, Prof. Univ. Paris 13 Optimisation et calcul des variations

http ://lescribe83.free.fr/Cours_optimisation_lafitte.pdf

(8)

Théorème d’existence en dimension finie

Theorème : Soit V un espace de Hilbert de dimension finie et K ⊂ V un ensemble fermé. Soit J une fonction continue de K dans R . Sous une des deux hypothèses suivantes

• K est borné,

• J infinie à l’infini,

J(v) −→

kvk→+∞ +∞

il existe au moins un point où J atteint son minimum sur K . Preuve :

w choisi dans K , on définit K ˜ = {v ∈ K , J(v ) ≤ J(w )}.

Alors inf

K J(v ) = inf

K ˜

J(v ).

Exemples kvk, kvk 2 , (Av , v ), · · · .

(9)

Un exemple important en dimension finie, pour TD mardi

Moindres carrés :

x∈ inf R

n

kb − Ax k

(10)

Un autre exemple important en dimension finie, pour TD mardi

On définit les polynômes de Chebyshev sur [−1, 1] par C k (t) = cos(k arccos t). Montrer la relation de récurrence

P 0 ≡ 1, P 1 ≡ t, P k+1 (t) = 2tP k (t) − P k−1 (t)

Montrer que P k a dans l’intervalle [−1, 1] la plus petite déviation

de 0, parmi tous les polynômes de P k de coefficient dominant 2 k−1 .

(on procédera dans l’absurde en introduisant les points extrémaux

ξ j de P k ).

(11)

Un contre exemple en dimension infinie, pour TD mardi

On se place dans H 1 (0, 1) muni de la norme kvk 2 =

Z 1 0

v 2 (x) dx + Z 1

0

v 0 2 (x) dx . On considère la fonctionnelle

J(v) = Z 1

0

(|v 0 (x)| − 1) 2 + v (x) 2 dx Montrer que

I J est continue

I ∀v ∈ H 1 (0, 1), J(v ) > 0

I ∀v ∈ H 1 (0, 1), J(v ) ≥ 1 2 kvk 2 − 1

I J tend vers l’infini à l’infini.

I Il existe cependant une suite u n ∈ H 1 (0, 1) J(u n ) −→

n→+∞ 0.

0

<latexit sha1_base64="Bsse/9U+BIwFEDCr5v4B1bR8xtY=">AAACxXicjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoQpdVbCvUIsl0WofmxWRSKEX8Abf6a+If6F94Z0xBLaITkpw5954zc+/1k0CkynFeC9bc/MLiUnG5tLK6tr5R3txqpXEmGW+yOIjlte+lPBARbyqhAn6dSO6FfsDb/vBUx9sjLlMRR1dqnPBu6A0i0RfMU0RdOqXbcsWpOmbZs8DNQQX5asTlF9yghxgMGUJwRFCEA3hI6enAhYOEuC4mxElCwsQ57lEibUZZnDI8Yof0HdCuk7MR7bVnatSMTgnolaS0sUeamPIkYX2abeKZcdbsb94T46nvNqa/n3uFxCrcEfuXbpr5X52uRaGPY1ODoJoSw+jqWO6Sma7om9tfqlLkkBCncY/ikjAzymmfbaNJTe26t56Jv5lMzeo9y3MzvOtb0oDdn+OcBa1a1T2o1i4OK/WTfNRF7GAX+zTPI9Rxjgaa5N3HI57wbJ1ZoaWs0WeqVcg12/i2rIcP/wuPTQ==</latexit> 1<latexit sha1_base64="7sCe8t6nfPb+zCWUCxiga05M4r4=">AAACxXicjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoQpdVbCvUIsl0WofmxWRSKEX8Abf6a+If6F94Z0xBLaITkpw5954zc+/1k0CkynFeC9bc/MLiUnG5tLK6tr5R3txqpXEmGW+yOIjlte+lPBARbyqhAn6dSO6FfsDb/vBUx9sjLlMRR1dqnPBu6A0i0RfMU0RduqXbcsWpOmbZs8DNQQX5asTlF9yghxgMGUJwRFCEA3hI6enAhYOEuC4mxElCwsQ57lEibUZZnDI8Yof0HdCuk7MR7bVnatSMTgnolaS0sUeamPIkYX2abeKZcdbsb94T46nvNqa/n3uFxCrcEfuXbpr5X52uRaGPY1ODoJoSw+jqWO6Sma7om9tfqlLkkBCncY/ikjAzymmfbaNJTe26t56Jv5lMzeo9y3MzvOtb0oDdn+OcBa1a1T2o1i4OK/WTfNRF7GAX+zTPI9Rxjgaa5N3HI57wbJ1ZoaWs0WeqVcg12/i2rIcPAXuPTg==</latexit>k n

<latexit sha1_base64="8rROFT3UGu6iIUG+z5fiIBUUBhY=">AAACz3icjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoxmUL9gFtkWQ6raFpEiYTpYSKW3/Arf6V+Af6F94ZU1CL6IQkZ86958zce93I92JpWa85Y2FxaXklv1pYW9/Y3Cpu7zTjMBGMN1joh6LtOjH3vYA3pCd93o4Ed8auz1vu6FzFWzdcxF4YXMpJxHtjZxh4A485kqhudyAclo6maTAtXBVLVtnSy5wHdgZKyFYtLL6giz5CMCQYgyOAJOzDQUxPBzYsRMT1kBInCHk6zjFFgbQJZXHKcIgd0XdIu07GBrRXnrFWMzrFp1eQ0sQBaULKE4TVaaaOJ9pZsb95p9pT3W1CfzfzGhMrcU3sX7pZ5n91qhaJAU51DR7VFGlGVccyl0R3Rd3c/FKVJIeIOIX7FBeEmVbO+mxqTaxrV711dPxNZypW7VmWm+Bd3ZIGbP8c5zxoVsr2UblSPy5Vz7JR57GHfRzSPE9QxQVqaJB3hEc84dmoG7fGnXH/mWrkMs0uvi3j4QNtUpRC</latexit>

k+ 1 n

<latexit sha1_base64="G1scll+aMv//C3ktG0456RyRNWk=">AAAC0XicjVHLSsNAFD2Nr1pfVZdugkUQhJKooMuiG5cV7QPaKsl0WkPzYjIRSimIW3/Arf6U+Af6F94ZU1CL6IQkZ86958zce93Y9xJpWa85Y2Z2bn4hv1hYWl5ZXSuub9STKBWM11jkR6LpOgn3vZDXpCd93owFdwLX5w13cKrijVsuEi8KL+Uw5p3A6Ydez2OOJOqq3RMOGw327PEoHBeuiyWrbOllTgM7AyVkqxoVX9BGFxEYUgTgCCEJ+3CQ0NOCDQsxcR2MiBOEPB3nGKNA2pSyOGU4xA7o26ddK2ND2ivPRKsZneLTK0hpYoc0EeUJwuo0U8dT7azY37xH2lPdbUh/N/MKiJW4IfYv3STzvzpVi0QPx7oGj2qKNaOqY5lLqruibm5+qUqSQ0ycwl2KC8JMKyd9NrUm0bWr3jo6/qYzFav2LMtN8a5uSQO2f45zGtT3y/ZBef/8sFQ5yUadxxa2sUvzPEIFZ6iiRt4Cj3jCs3FhDI074/4z1chlmk18W8bDB5tClLI=</latexit>

1 n

<latexit sha1_base64="f02k6prfv2orF2Z7CWi9MeJF+zs=">AAACz3icjVHLSsNAFD2Nr1pfVZdugkVwVZIq2GXBjcsW7APaIsl0WkPTJEwmSgkVt/6AW/0r8Q/0L7wzpqAW0QlJzpx7z5m597qR78XSsl5zxtLyyupafr2wsbm1vVPc3WvFYSIYb7LQD0XHdWLuewFvSk/6vBMJ7kxcn7fd8bmKt2+4iL0wuJTTiPcnzijwhh5zJFG93lA4LLVnaTArXBVLVtnSy1wEdgZKyFY9LL6ghwFCMCSYgCOAJOzDQUxPFzYsRMT1kRInCHk6zjFDgbQJZXHKcIgd03dEu27GBrRXnrFWMzrFp1eQ0sQRaULKE4TVaaaOJ9pZsb95p9pT3W1KfzfzmhArcU3sX7p55n91qhaJIaq6Bo9qijSjqmOZS6K7om5ufqlKkkNEnMIDigvCTCvnfTa1Jta1q946Ov6mMxWr9izLTfCubkkDtn+OcxG0KmX7pFxpnJZq1WzUeRzgEMc0zzPUcIE6muQd4RFPeDYaxq1xZ9x/phq5TLOPb8t4+ADfX5P+</latexit>

I J n’admet pas de minimum.

Les fermés bornés ne sont plus forcément compacts...

(12)

Fonctions convexes

On se restreint au cas où K est un ensemble convexe. Définitions d’une fonction

I convexe ∀t ∈ [0, 1] J(tu + (1 − t)v) ≤ tJ(u ) + (1 − t)J(v )

I strictement convexe

∀t ∈]0, 1[, u 6= v, J(tu + (1 − t)v) < tJ(u) + (1 − t)J(v )

I fortement convexe (on dit aussi α-convexe) : il existe un nombre α > 0 tel que pour tout couple (u, v) ∈ V 2 on ait

∀t ∈ [0, 1] J(tu +(1−t)v ) ≤ tJ(u)+(1−t)J(v)− α

2 t(1−t)kv−uk 2 Prop : Soient J 1 et J 2 deux fonctions convexes, φ une fonction convexe croissante, p ∈ R + . Alors J 1 + J 2 , max (J 1 , J 2 ), pJ 1 , φoJ 1

sont convexes.

Remarque : Attention, une fonction de deux variables peut être

convexe en chacune de ses variables mais pas convexe sur R 2 .

(13)

Minimum et fonctions convexes

Soit K un convexe fermé

Proposition : Si J est convexe, alors tout point de minimum local dans K est un point de minimum global.

Proposition : Si J est strictement convexe, il existe au plus un point de minimum global dans K .

Proposition : Si J est fortement convexe, il existe un unique point de minimum global dans K .

Proposition : Si J est fortement convexe et u est le point de minimum, alors on a l’estimation d’erreur

∀v ∈ K kv − uk 2 ≤ 4

α (J(v) − J(u))

Exemple sur la fonction J(x) = 1 2 (Ax , x) − (b, x) avec A matrice

définie positive.

(14)

Différentiabilité

Définition : Une fonction J de V dans R est différentiable (ou Fréchet différentiable) en u si il existe une forme linéaire continue notée J 0 (u) telle que

∀w ∈ V , J(u + w ) = J(u) + J 0 (u) · w + (w )kw k, lim

w→0 (w ) = 0 Proposition : Toute fonction dérivable est continue.

Quand V = R n , on note souvent J 0 (u) = ∇J(u).

(15)

Exemples

I Fonction affine J(v) = (b, v) − c.

I Fonction quadratique J(v) = 1 2 (Av , v ) − (b, v)

I Moindres carrés u 7→ kAv − bk 2 .

I Extension à la dimension infinie (v dans L 2 ou H 1 ) J(v) = 1

2 Z

(αk∇v k 2 + βv 2 ) − Z

fv

I La longueur d’un arc J(v) =

Z A 0

q

1 + v 0 (x) 2 dx

(16)

Différentielles, suite

I Dérivée directionnelle. On appelle dérivée de J en u dans la direction v la dérivée en 0 de la fonction d’une variable t 7→ J(u + tv ). On peut alors noter

D v J(u) = J 0 (u) · v .

I Gradient et dérivées partielles. Dans R n , si J est différentiable en u, elle admet des dérivées partielles ∂ j J(u) := ∂x ∂J

j

, et

∇J(u) = (∂ 1 J(u), · · · , ∂ n J(u )), si bien que J 0 (u).v = P n

i =1 ∂J

∂x

i

(u)v i .

I Dérivées secondes Si J 0 : V 7→ V admet une différentielle J 00

application bilinéaire continue de V × V dans R . On notera

J”(u) · v · w . Si V = R n , alors la dérivée J 00 (u) peut être

identifiée avec une matrice appelée matrice Hessienne de J.

(17)

Exemples

I Fonction quadratique J(x) = 1

2 (Ax, x) − (b, x)

I Moindres carrés u 7→ kAu − bk 2 .

I Extension à la dimension infinie (u dans L 2 ou H 1 ) J(u) = 1

2 Z

(αk∇u k 2 + βu 2 ) − Z

fu

I La longueur d’un arc J(u) =

Z A 0

q

1 + u 0 (x) 2 dx

(18)

Formules de Taylor

Taylor Mac-Laurin ordre 1 Si J : V 7→ R est définie et continue sur [u, v ], différentiable sur ]u, v [, il existe θ ∈]0, 1[ tel que

J(v ) = J (u) + J

0

(u + θ(v − u)) · (v − u) (3) On l’appelle aussi la formule de la moyenne, et on peut la formuler ainsi il existe w ∈]u, v [ tel que

J(v) = J(u) + J

0

(w ) · (v − u) (4) Taylor Mac-Laurin ordre 2 Si J : V 7→ R est définie et continue sur

[u , v ], 2 fois différentiable sur ]u , v[, il existe θ ∈]0, 1[ tel que

J(v) = J(u)+J

0

(u)·(v −u)+ 1

2 J

00

(u+θ(v −u))·(v −u)·(v−u) (5) Taylor Young ordre 2 Si J : V 7→ R

p

est 2 fois différentiable en u, alors

pour tout v

J(v) = J(u)+J

0

(u)·(v −u)+J

00

(u)·(v −u)·(v −u)+(v −u)kv−uk

2

, lim

w→0

(w ) = 0

(6)

(19)

Convexité et différentiabilité

Théorème 1.5 : Les trois propositions sont équivalentes 1. J est convexe.

2. ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u).

3. ∀u, v ∈ V , (J 0 (v ) − J 0 (u), v − u) ≥ 0.

Théorème 1.6 : Les trois propositions sont équivalentes 1. J est strictement convexe.

2. ∀u, v ∈ V , u 6= v , J(v) > J(u) + (J 0 (u), v − u).

3. ∀u, v ∈ V , u 6= v , (J 0 (v ) − J 0 (u), v − u) > 0.

Théorème 1.7 : Les trois propositions sont équivalentes 1. J est α-convexe.

2. ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) + α 2 kv − uk 2 .

3. ∀u, v ∈ V , (J 0 (v ) − J 0 (u), v − u) ≥ αkv − uk 2 .

(20)

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(21)

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe = ⇒ (2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u ), v − u).

J(θv + (1 − θ)u) ≤ θJ(v ) + (1 − θ)J(u).

J(θv + (1 − θ)u) − J(u) ≤ θ(J(v ) − J(u )).

J(u + θ(v − u)) − J(u)

θ ≤ J(v) − J(u).

θ → 0 :

J 0 (u ) · (v − u ) ≤ J(v ) − J(u).

(22)

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).

(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.

(23)

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).

(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.

J(u) ≥ J (θu + (1 − θ)v) + J 0 (θu + (1 − θ)v) · (1 − θ)(u − v)

J(v ) ≥ J(θu + (1 − θ)v ) + J 0 (θu + (1 − θ)v) · θ(v − u)

(24)

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).

(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.

J(u) ≥ J (θu + (1 − θ)v) + J 0 (θu + (1 − θ)v) · (1 − θ)(u − v) J(v ) ≥ J(θu + (1 − θ)v ) + J 0 (θu + (1 − θ)v) · θ(v − u)

×θ J(u) ≥ J (θu + (1 − θ)v) + J 0 (θu + (1 − θ)v) · (1 − θ)(u − v)

×(1 − θ) J(v ) ≥ J(θu + (1 − θ)v ) + J 0 (θu + (1 − θ)v) · θ(v − u)

(25)

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).

(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.

(2) = ⇒ (3)

(26)

Démonstration

(1) ⇐⇒ (2) ⇐⇒ (3)

(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).

(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.

(2) = ⇒ (3)

(3) = ⇒ (2)

(27)

Convexité et différentiabilité

Supposons maintenant J deux fois différentiable Théorèmes 1.5, 1.6 1.7 :

4 J convexe ⇐⇒ ∀u, w ∈ V , J 00 (u)w .w ≥ 0

4 J strictement convexe ⇐ ∀u, w ∈ V , w 6= 0, J 00 (u)w.w > 0 4 J α− convexe ⇐⇒ ∀u, w ∈ V , J 00 (u)w .w ≥ α k w k 2 .

Exemple : J(u) = a(u, u) où a est une forme bilinéaire continue sur

V . Cas de la dimension finie.

(28)

Convexité et différentiabilité

Supposons maintenant J deux fois différentiable Théorèmes 1.5, 1.6 1.7 :

4 J convexe ⇐⇒ ∀u, w ∈ V , J 00 (u)w .w ≥ 0

4 J strictement convexe ⇐ ∀u, w ∈ V , w 6= 0, J 00 (u)w.w > 0 4 J α− convexe ⇐⇒ ∀u, w ∈ V , J 00 (u)w .w ≥ α k w k 2 .

Exemple : J(u) = a(u, u) où a est une forme bilinéaire continue sur

V . Cas de la dimension finie.

(29)

Démonstration

(3) = ⇒ (4)

(J 0 (u +θw )−J 0 (u))·(θ)w ≥ 0, J 0 (u+θw )−J 0 (u) = θJ 00 (u)w +(θ)kθw k.

(4) = ⇒ (2) : Taylor Mac Laurin J(v) = J(u) + J 0 (u) · (v − u ) + 1

2 J 00 (u + θ(v − u)) · (v − u) · (v − u)

(30)

Cas sans contrainte. Condition nécessaire de minimum

V espace de Hilbert. J : V → R .

Théorème : (Equation d’Euler) Si u ∈ V est un point de minimum de J différentiable, alors J 0 (u) = 0.

Théorème : (Condition nécessaire ordre 2) Si u ∈ V est un point de minimum de J deux fois différentiable, alors on a de plus

∀v ∈ V (J 00 (u)v, v) ≥ 0

(31)

Cas sans contrainte. Condition suffisante de minimum

Théorème : Soit J une fonction différentiable dans V et u un point de V tel que J 0 (u) = 0.

1. Si J est deux fois différentiable dans un voisinage de u et s’il existe un voisinage Ω de u tel que

∀v ∈ Ω, ∀w ∈ V , J 00 (v)w .w ≥ 0, alors u est minimum local de J.

2. Si J est deux fois différentiable,et s’il existe α > 0 tel que

∀w ∈ V , J 00 (u)w .w ≥ αkw k 2 , alors u est minimum local strict pour J.

Théorème : Si J est convexe et différentiable, alors l’équation d’Euler est nécessaire et suffisante (voir preuve plus loin).

Exemples : Fonctionnelle quadratique sur R n et H 1 (liens avec

les systèmes linéaires et les EDP), minimisation au sens des

moindres carrés, calcul de la première valeur propre...

(32)

Optimisation sous contrainte : K convexe

Trouver u ∈ K tel que J(u) = inf

v∈K J (v).

Si u est solution, on dit que u est solution optimale. On suppose que K est un convexe fermé non vide et que J est différentiable.

Théorème : Soit K ⊂ V convexe. Si u ∈ K est un point de minimum sur K de J différentiable, alors

Inéquation d’Euler : u ∈ K , ∀v ∈ K (J 0 (u ), v − u) ≥ 0 Réciproquement dans le cas ou J est convexe, si on a l’inéquation d’Euler et, alors u est solution optimale.

Exemple

I Distance d’un point à un ensemble convexe

Séparation d’un point et d’un convexe

(33)

Conséquence sur le cas sans contrainte

Théorème : Si J est convexe différentiable, alors u est solution optimale sur V si et seulement on a l’équation d’Euler J 0 (u ) = 0.

En particulier si J est α-convexe, il existe une unique solution

optimale, caractérisée par J 0 (u) = 0.

(34)

Optimisation sous contrainte : K sous espace affine

Théorème : Soit K ⊂ V sous espace affine de la forme u 0 + E (E ss ev de V). Alors l’inéquation d’Euler est équivalente à

u ∈ K , ∀v ∈ E (J 0 (u), v) = 0 Ou encore J 0 (u) ∈ E .

Exemple : contraintes égalité,

E = {v ∈ V , (a i , v) = 0, 1 6 i 6 m}, alors l’orthogonal de E est l’espace vectoriel engendré par les a i , et donc

Inéquation d’Euler ⇐⇒

 

  u ∈ K

∃p 1 , .., p m ∈ R J 0 (u ) +

m

X

i=1

p i a i = 0.

Les p i sont les multiplicateurs de Lagrange.

(35)

Optimisation sous contrainte : K sous espace affine de R n

K = {v, Bv = c } = {v, (a i , v) = c i , 1 6 i 6 m}.

K 6= ∅ ⇐⇒ c ∈ Im B

B matrice m × n. K = u 0 + E, E = Ker B, Bu 0 = c . On définit par a i les vecteurs ligne de B , alors

E = {v ∈ V , (a i , v) = 0, 1 6 i 6 m}

∃p 1 , .., p m ∈ R J 0 (u)+

m

X

i=1

p i a i = 0 ⇐⇒ ∃p ∈ R m J 0 (u )+B T p = 0.

F i (v) = (a i , v) − c i , F i 0 (v ) = a i ,

J 0 (u)+

m

X

i=1

p i a i = 0 ⇐⇒ J 0 (u)+

m

X

i=1

p i F i 0 (u ) = 0 ⇐⇒ J 0 (u)+B T p = 0

(36)

Optimisation quadratique sous contrainte : K sous espace affine de R n

J(v) = 1

2 (Av , v) − (b, v), K = {v, Bv = c } A matrice n × n, c ∈ R m , B matrice m × n.

1. Existence et unicité th 1.1 et 1.2 ou corollaire 1.1 2. Caractérisation

∃p 1 , .., p m ∈ R J 0 (u)+

m

X

i=1

p i a i = 0 ⇐⇒ ∃p ∈ R m Au−b+B T p = 0.

u solution optimale ⇐⇒

( Bu = c,

∃p ∈ R m , Au − b + B T p = 0.

Attention B est une matrice rectangulaire

(37)

L’équation d’Euler

c ∈ Im u, Bu = c , Au − b + B T p = 0.

BA −1 B T p = BA −1 b − c .

I B T injective (ou B de rang m full rank )

I sinon Comme pour les moindres carrés

(38)

Optimisation sous contrainte : K cône

K = c + K 0 .

( u ∈ K

∀v ∈ K , J 0 (u).(v − u) ≥ 0 ⇐⇒

 

  u ∈ K

J 0 (u).(c − u) = 0

∀w ∈ K 0 , J 0 (u).w ≥ 0.

Exemple de cône :

K 0 = {v ∈ V , (a i , v) ≤ 0, 1 6 i 6 m}

K = {v ∈ V , (a i , v ) ≤ c i , 1 6 i 6 m} = u 0 + K 0 .

(39)

Optimisation sous contrainte : K cône

Pour M cône convexe fermé de sommet O, on définit le cône dual par

M ? = {c ∈ V , ∀v ∈ M, (c , v) ≥ 0}. (7) M = {v ∈ V , ∀i ∈ {1, .., m}, (v, a i ) 6 0}

Théorème 2.5 [Lemme de Farkas].

Si M = {v ∈ V , ∀i ∈ {1, .., m}, (v , a i ) 6 0}, alors c ∈ M ? si et seulement si −c appartient au cône convexe engendré par les a i , i.e. il existe {p 1 , .., p m } tous ≥ 0 tels que c = −

m

X

i =1

p i a i .

 

  u ∈ K

J 0 (u ).(c − u ) = 0

∀w ∈ K 0 , J 0 (u).w ≥ 0

J 0 (u).w ≥ 0 ⇐⇒ J 0 (u) ∈ K 0 ? ⇐⇒ J 0 (u) = −

m

X

i=1

p i a i

(40)

Optimisation sous contraintes affines : Résumé

Contraintes égalité

K = {Bv = c } = {(v, a i ) = c i , i = 1 · · · m}

u solution optimale ⇐⇒

( Bu = c ,

∃p ∈ R m , J 0 (u) + B T p = 0.

Contraintes inégalité

K = {Bv ≤ c } = {(v, a i ) ≤ c i , i = 1 · · · m}

u solution optimale ⇐⇒

( Bu ≤ c ,

∃p ∈ R m + , J 0 (u) + B T p = 0.

Si J est convexe on a une CNS

(41)

Optimisation quadratique sous contraintes affines : Résumé

J(v ) = 1

2 (Av , v ) − (b, v) Contraintes égalité

K = {Bv = c } = {(v, a i ) = c i , i = 1 · · · m}

u solution optimale ⇐⇒

( Bu = c ,

∃p ∈ R m , Au − b + B T p = 0.

Contraintes inégalité

K = {Bv ≤ c } = {(v, a i ) ≤ c i , i = 1 · · · m}

u solution optimale ⇐⇒

( Bu ≤ c ,

∃p ∈ R m + , Au − b + B T p = 0.

Si J est convexe on a une CNS

(42)

Optimisation sous contrainte : Directions admissibles

Définition :Soit v ∈ K . On appelle cône des directions admissibles l’ensemble

K (v ) = {0} ∪ {w ∈ V ,

∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,

k→+∞ lim

v k − v

||v k − v|| = w

||w ||

(43)

Optimisation sous contrainte : Directions admissibles

Définition :Soit v ∈ K . On appelle cône des directions admissibles l’ensemble

K (v ) = {0} ∪ {w ∈ V ,

∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,

k→+∞ lim

v k − v

||v k − v|| = w

||w ||

(44)

Optimisation sous contrainte : Directions admissibles

Définition :Soit v ∈ K . On appelle cône des directions admissibles l’ensemble

K (v ) = {0} ∪ {w ∈ V ,

∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,

k→+∞ lim

v k − v

||v k − v|| = w

||w ||

(45)

Optimisation sous contrainte : Directions admissibles

K (v ) = {0} ∪ {w ∈ V ,

∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,

k→+∞ lim

v k − v

||v k − v|| = w

||w ||

Théorème K (v) est un cône fermé non vide.

Exemple :

F 1 (v) = −v 1 − v − 2,

F 2 (v) = v 1 (v 1 2 + v 2 2 ) − 2(v 1 2 − v 2 2 ) K = {v , F 1 (v) ≤ 0, F 2 (v ) ≤ 0}

F 1 (v ) = 0, K (v) = {w , w 1 + w 2 ≥ 0} F 2 (v ) = 0, K (v) = {w , w · v

1

(3v

12

+v

22

−2) 2v

2

(v

1

+2)

≤ 0}

K = {v, F 1 (v ) ≤ 0, F 2 (v) ≤ 0}

(46)

Optimisation sous contrainte : Directions admissibles

K (v ) = {0} ∪ {w ∈ V ,

∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,

k→+∞ lim

v k − v

||v k − v|| = w

||w ||

Théorème K (v) est un cône fermé non vide.

Exemple :

F 1 (v) = −v 1 − v − 2,

F 2 (v) = v 1 (v 1 2 + v 2 2 ) − 2(v 1 2 − v 2 2 ) K = {v , F 1 (v) ≤ 0, F 2 (v ) ≤ 0}

F 1 (v ) = 0, K (v) = {w , w 1 + w 2 ≥ 0} F 2 (v ) = 0, K (v) = {w , w · v

1

(3v

12

+v

22

−2) 2v

2

(v

1

+2)

≤ 0}

K = {v, F 1 (v ) ≤ 0, F 2 (v) ≤ 0}

(47)

Optimisation sous contrainte : Directions admissibles

K (v ) = {0} ∪ {w ∈ V ,

∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,

k→+∞ lim

v k − v

||v k − v|| = w

||w ||

Théorème K (v) est un cône fermé non vide.

Exemple :

F 1 (v) = −v 1 − v − 2,

F 2 (v) = v 1 (v 1 2 + v 2 2 ) − 2(v 1 2 − v 2 2 ) K = {v , F 1 (v) ≤ 0, F 2 (v ) ≤ 0}

F 1 (v ) = 0, K (v) = {w , w 1 + w 2 ≥ 0} F 2 (v ) = 0, K (v) = {w , w · v

1

(3v

12

+v

22

−2) 2v

2

(v

1

+2)

≤ 0}

K = {v, F 1 (v ) ≤ 0, F 2 (v) ≤ 0}

(48)

Optimisation sous contrainte : Directions admissibles

K (v ) = {0} ∪ {w ∈ V ,

∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,

k→+∞ lim

v k − v

||v k − v|| = w

||w ||

Théorème K (v) est un cône fermé non vide.

Exemple :

F 1 (v) = −v 1 − v − 2,

F 2 (v) = v 1 (v 1 2 + v 2 2 ) − 2(v 1 2 − v 2 2 ) K = {v , F 1 (v) ≤ 0, F 2 (v ) ≤ 0}

F 1 (v ) = 0, K (v) = {w , w 1 + w 2 ≥ 0}

F 2 (v ) = 0, K (v) = {w , w ·

v

1

(3v

12

+v

22

−2) 2v

2

(v

1

+2)

≤ 0}

K = {v, F 1 (v ) ≤ 0, F 2 (v) ≤ 0}

(49)

Optimisation sous contrainte : Inéquation d’Euler générale

Théorème 2.7 : (inégalité d’Euler) Si u est un minimum local sur K de J différentiable, alors J 0 (u) ∈ K (u) ? , c’est-à-dire

∀w ∈ K (u) (J 0 (u), w ) ≥ 0

Il faut identifier K (u)

(50)

Optimisation sous contrainte : Inéquation d’Euler générale

Théorème 2.7 : (inégalité d’Euler) Si u est un minimum local sur K de J différentiable, alors J 0 (u) ∈ K (u) ? , c’est-à-dire

∀w ∈ K (u) (J 0 (u), w ) ≥ 0 Il faut identifier K (u)

Le lemme de Farkas va nous permettre de traiter maintenant le cas général : non convexe, non affine.

Théorème 2.5 [Lemme de Farkas].

Si M = {v ∈ V , ∀i ∈ {1, .., m}, (v , a i ) 6 0}, alors c ∈ M ? si et seulement si −c appartient au cône convexe engendré par les a i , i.e. il existe {p 1 , .., p m } tous ≥ 0 tels que c = −

m

X

i =1

p i a i .

(51)

Optimisation sous contrainte : Contraintes égalités

J et (F j ) j=1...m sont m + 1 fonctions C 1 de V dans R , F = (F 1 , · · · , F m ) : V → R m , et l’ensemble des contraintes K défini par

K = {w ∈ V , ∀j , 1 ≤ j ≤ m, F j (w ) = 0} = {w ∈ V , F (w ) = 0}

Définition Les contraintes sont régulières en u ∈ K si les F i 0 (u) sont linéairement indépendantes. On dit alors que u est un point régulier.

Exemple : F 1 (w ) = (a 1 , w ) − c 1 , F 2 (w ) = (a 2 , w ) − c 2 .

(52)

Optimisation sous contrainte : Contraintes égalités

J et (F j ) j=1...m sont m + 1 fonctions C 1 de V dans R , F = (F 1 , · · · , F m ) : V → R m , et l’ensemble des contraintes K défini par

K = {w ∈ V , ∀j , 1 ≤ j ≤ m, F j (w ) = 0} = {w ∈ V , F (w ) = 0}

Définition Les contraintes sont régulières en u ∈ K si les F i 0 (u) sont linéairement indépendantes. On dit alors que u est un point régulier.

Exemple : F 1 (w ) = (a 1 , w ) − c 1 , F 2 (w ) = (a 2 , w ) − c 2 .

(53)

Optimisation sous contrainte : Contraintes égalités

J et (F j ) j=1...m sont m + 1 fonctions C 1 de V dans R , F = (F 1 , · · · , F m ) : V → R m , et l’ensemble des contraintes K défini par

K = {w ∈ V , ∀j , 1 ≤ j ≤ m, F j (w ) = 0} = {w ∈ V , F (w ) = 0}

Définition Les contraintes sont régulières en u ∈ K si les F i 0 (u) sont linéairement indépendantes. On dit alors que u est un point régulier.

Exemple : F 1 (w ) = (a 1 , w ) − c 1 , F 2 (w ) = (a 2 , w ) − c 2 . Lemme Si les contraintes sont regulières en u ∈ K , alors

K (u) = {w ∈ V , F i 0 (u).w = 0, 1 ≤ i ≤ m} = vec (F 1 0 (u), · · · , F m 0 (u))

(54)

Optimisation sous contrainte : Contraintes égalités

J et (F j ) j=1...m sont m + 1 fonctions C 1 de V dans R , F = (F 1 , · · · , F m ) : V → R m , et l’ensemble des contraintes K défini par

K = {w ∈ V , ∀j , 1 ≤ j ≤ m, F j (w ) = 0} = {w ∈ V , F (w ) = 0}

Définition Les contraintes sont régulières en u ∈ K si les F i 0 (u) sont linéairement indépendantes. On dit alors que u est un point régulier.

Exemple : F 1 (w ) = (a 1 , w ) − c 1 , F 2 (w ) = (a 2 , w ) − c 2 . Théorème Si u est un point de minimum local de J sur K , régulier, alors

∃(p 1 , · · · , p m ) ∈ R J 0 (u ) + X

j

p j F j 0 (u) = 0

p j multiplicateur de Lagrange associé à la contrainte F j (u ) = 0.

(55)

Optimisation sous contrainte : Contraintes égalités, cas convexe

Théorème Si u est un point de minimum local de J sur K , régulier, alors

∃(p 1 , · · · , p m ) ∈ R J 0 (u ) + X

j

p j F j 0 (u) = 0

p j multiplicateur de Lagrange associé à la contrainte F j (u ) = 0.

Corollaire Si K est convexe et J est convexe, alors on a une CNS : u régulier est un point de minimum local de J sur K si et

seulement si

∃(p 1 , · · · , p m ) ∈ R J 0 (u ) + X

j

p j F j 0 (u) = 0

(56)

Optimisation sous contrainte : Contraintes égalités

Prop : (Conditions d’ordre 2) Sous les hypothèses précédentes, si u est un point de minimum de J sur K alors

∀w ∈ ∩F j 0 (u) (J 00 (u) + X

j

p j F j 00 (u))(w , w ) ≥ 0

(57)

Optimisation sous contrainte : Contraintes inégalités

Théorème : Soit J et (F j ) j=1...m m + 1 fonctions dérivables de V dans R et l’ensemble des contraintes K défini par

K = {w ∈ V , ∀j , 1 ≤ j ≤ m, F j (w ) ≤ 0} = {w ∈ V , F (w ) ≤ 0}.

Définition : Soit u ∈ K , l’ensemble I (u) des contraintes actives ou saturées en u est défini par

I (u) = {j, F j (u) = 0}

Les contraintes sont dites qualifiées en u si

∃ w ¯ ∈ V , ∀i ∈ I (u ), (F i 0 (u), w ¯ ) < 0 (≤ 0 si F i est affine). (8) Remarque 1 : Une condition suffisante de qualification est que u est régulier pour les contraintes saturées, i.e. que les vecteurs F i 0 (u) pour i ∈ I (u) sont indépendants.

Remarque 2 : Si les contraintes sont toutes affines, elles sont

qualifiées en tout point.

(58)

Exemple

∃ w ¯ ∈ V , ∀i ∈ I (u ), (F i 0 (u), w ¯ ) < 0 (≤ 0 si F i est affine). (9) F 1 (v) = −v 1 − v − 2,

F 2 (v) = v 1 (v 1 2 + v 2 2 ) − 2(v 1 2 − v 2 2 ) K = {v , F 1 (v) ≤ 0, F 2 (v ) ≤ 0}

Qualification ?

(59)

Optimisation sous contrainte : Contraintes inégalités

Théorème : Soit J et (F j ) j=1...m m + 1 fonctions dérivables de V dans R . Si u ∈ K où les contraintes sont qualifiées, est un point de minimum de J sur K , alors

( ∃(p j ) j ∈ R m + J 0 (u ) + P

j p j F j 0 (u) = 0

∀j = 1 · · · m, p j F j (u) = 0

Remarque La dernière condition est équivalente à (p, F 0 (u)) = 0, ou encore ∀j 6∈ I (u), p j = 0, ou encore F j (u ) < 0 = ⇒ p j = 0, ce qui réécrit la première comme

J 0 (u) + X

j 6∈I(u)

p j F j 0 (u) = 0

(60)

Optimisation sous contrainte : Conditions mêlées

Théorème : Soit J, (F j ) j=1...m et (G k ) k =1...p m + p + 1 fonctions dérivables de V dans R et l’ensemble des contraintes K défini par

K = {v ∈ V , ∀ j F j (v) = 0, ∀k G k (v ) ≤ 0}.

Si u est un point de minimum de J sur K tel que les vecteurs (F j 0 (u)) et (G k 0 (u)) k∈I(u) sont linéairement indépendants, alors

∃((p j ) j , (q k ) k ) ∈ R m × R p + J 0 (u ) + X

j

p j F j 0 (u) + X

k

q k G k 0 (u) = 0

et ∀k q k G k (u) = 0

(61)

Optimisation sous contrainte : Lagrangien

Motivation :

C.E u ∈ K régulier minimum local = ⇒ ∃p ∈ R m , J 0 (u) + X

j

p j F j 0 (u ) = 0 C.I u ∈ K qualifié minimum local = ⇒ ∃p ∈ R m + , J 0 (u) + X

j

p j F j 0 (u ) = 0.

Cas convexe

C.E u ∈ K régulier minimum local ⇐⇒ ∃p ∈ R m , J 0 (u ) + X

j

p j F j 0 (u) = 0 C.I u ∈ K qualifié minimum local = ⇒ ∃p ∈ R m + , J 0 (u ) + X

j

p j F j 0 (u) = 0.

(62)

Optimisation sous contrainte : Lagrangien

Définition : Lagrangien associé au problème de minimisation v ∈ V , q ∈ R m , L(v , q) = J(v) + X

j

q j F j (v )

L 0 v (v, q) = J 0 (v ) + X

j

q j F j 0 (v ), L 0 q (v, q ) = F (v).

contraintes égalité u ∈ K ⇐⇒ ∀q ∈ R m , L 0 q (u , q) = 0 C.E u régulier minimum local = ⇒

( ∀q ∈ R m , L 0 v (u, q) = 0

∃p ∈ R m , L 0 q (u, p ) = 0 C.I u qualifié minimum local = ⇒

( ∀q ∈ R m , L 0 v (u, q) = 0

∃p ∈ R m + , L 0 q (u, p ).p = 0 Cas convexe

C.E u régulier minimum local ⇐⇒

∃p ∈ R m , D q L(u, p) = 0

C.I u qualifié minimum local = ⇒

∃p ∈ R m + , D q L(u, p) = 0

(63)

Optimisation sous contrainte inégalité ; théorie de Kuhn et Tucker

V et M deux espaces de Hilbert, U ⊂ V , et P ⊂ M . L : U × P → R .

Lemme : on a toujours sup

q∈P

inf

v∈U

L(v, q) ≤ inf

v∈U

sup

q∈P

L(v, q)

∀(u, p) ∈ U × P , G (p) := inf

v∈U L(v, p) ≤ L(u, p ) ≤ sup

q∈P

L(u, q) := J(u).

(64)

Optimisation sous contrainte : Lagrangien

Réciproquement V et M deux espaces de Hilbert, U ⊂ V , et P ⊂ M . L : U × P → R .

Lemme : on a toujours sup

q∈P

inf

v∈U

L(v, q) ≤ inf

v∈U

sup

q∈P

L(v, q)

Définition : Un point selle (u, p) est défini par sup

q∈P

L(u, q) = L(u, p) = inf

v∈U L(v, p)

(65)

Optimisation sous contrainte : Lagrangien

Réciproquement V et M deux espaces de Hilbert, U ⊂ V , et P ⊂ M . L : U × P → R .

Lemme : on a toujours sup

q∈P

inf

v∈U

L(v, q) ≤ inf

v∈U

sup

q∈P

L(v, q)

Définition : Un point selle (u, p) est défini par sup

q∈P

L(u, q) = L(u, p) = inf

v∈U L(v, p)

Théorème : Si (u, p ) est un point selle du Lagrangien, alors sup

q∈P

inf

v∈U

L(v , q) = L(u, p ) = inf

v∈U

sup

q∈P

L(v , q)

(66)

Problèmes associés au Lagrangien

U ⊂ V , et P ⊂ M. L : U × P → R . K := {v ∈ U , sup

q∈P

L(v , q) < +∞}, pour v dans K , J (v) := sup

q∈P

L(v, q).

Le problème primal associé s’écrit :

(P ) : Trouver u ∈ K tel que J (u) = inf

v∈K J (v).

K := {q ∈ P, inf

v∈K L(v, q) > −∞}, et pour q dans K , G(q) := inf

v∈U L(v, q).

Le problème dual associé s’écrit :

(P ) : Trouver p ∈ K tel que G(p) = sup

q∈K

G (q)

Théorème : (u, p) est point selle du lagrangien si et seulement si u

est solution de (P ), p est solution de (P ), et J (u) = G(p).

(67)

Contraintes inégalité, théorie de Kuhn et Tucker

U = V , M = P = R m , F , J convexes.

L(v, q) = J(v ) + X

j

q j F j (v)

Définition Les contraintes sont qualifiées si

∃ v ¯ ∈ V , ∀i, 1 ≤ i ≤ m, F i (¯ v) < 0 (resp. ≤ 0 si F i est affine).

Théorème : (Kuhn Tucker) Si les fonctions J et F j sont convexes différentiables, et si les contraintes sont qualifiées, u est point de minimum de J sur K si et seulement si il existe p ∈ R m + tel que

 

 

 

 

J 0 (u) +

m

X

i=1

p i F i 0 (u) = 0

m

X

i=1

p i F i (u) = 0

De plus p est solution du problème dual (P ).

(68)

Applications

Application 1 : programme linéaire avec contraintes affines V = R n , J (v) = (b, v), F (v) = Bv − c.

où B est une matrice m × n.

Application 2 : programme quadratique avec contraintes affines

V = R n , J(v ) = 1

2 (Av , v ) − (b, v), F (v ) = Bv − c .

où A est une matrice n × n symétrique définie positive.

Références

Documents relatifs

Nous venons de voir que tout calcul du point fixe d’un opérateur contraction (PFOC) peut se faire naturellement par un algorithme connexionniste asynchrone et qu’un tel algorithme

Il est, soit fixé, éventuellement le m^ eme pour toutes les étapes (on parle alors de méthode à pas variable), soit calculé à chaque étape de façon à minimiser J dans la direction

faut-il mettre dans le sac de manière à maximiser la valeur totale sans dépasser le poids maximal autorisé pour le sac ?... Problème du sac

dans les deux cas, le problème de minimisation (1.2) admet une solution.. P ROOF La première partie du théorème relève du L2 : en dimension finie toute fonction continue sur un

Optimisation MACS 2 2019.. Résumé

Exprimer le flux f créé par le solénoïde à travers la bobine lorsqu’il est parcouru par un courant i (on suppose que les deux bobines sont orientées dans le même sens).. En

Qu'est-ce que l'étude précédente laisse penser de la propriété

[r]