Optimisation MACS 2 2019
Part I. Résultats théoriques
13 novembre 2019
Résultats d’existence
Caractérisation des extrema
Lagrangien et point selle
Définitions
Soit V un espace de Hilbert sur R , K une partie de V , J une fonction définie sur V à valeurs dans R . On dit que u est minimum local de J sur K si u appartient à K et s’il existe un voisinage U de u dans K tel que
∀v ∈ U , J(u ) ≤ J(v ). (1) Si la relation précédente est vraie pour tout v dans K , on dit que u est minimum global de J sur K . On parle de minimum strict si l’inégalité est stricte dans (1). On définit un problème de
minimisation sur K par
( u ∈ K , J(u) = inf
v ∈K J(v) (2)
On dit alors que u est solution optimale du problème de
minimisation sur K . Le problème de minimisation est dit sans
contrainte si V = K , avec contraintes si V 6= K .
Exemple en dimension 1
f (x) = 1 2 x 5 − 3
40 x 4 − 3 5 x 3 + 3
10
f (x) = x 6
Optimisation
Min
u∈K J(u)
I J fonction différentiable
I K ⊂ V avec V espace de Hilbert.
I Dimension
I
dimV < +∞ : Optimisation en dimension finie
( R
n, polynômes de degré inférieur à n, espaces d’éléments finis, série de Fourier tronquée...)
I
dimV = +∞ : Optimisation en dimension infinie (C
1,L
2, H
1, H
01...)
I Contraintes
I
K = V : Optimisation sans contraintes
I
K ( V : Optimisation sous contraintes (1, 2 infinité)
I
Égalité : F (v ) = 0, F : V → W ,
I
Inégalité : F (v ) ≤ 0.
Plan du chapitre
Quelques références
I J. C. Culioli, CR Ecole des Mines
Introduction à l’optimisation, Ellipses, 1994.
I M. Bergounioux, Prof. Univ. Orléans
Optimisation et contrôle des systèmes linéaires, Dunod, 2001.
I G. Allaire, Prof. Polytechnique
Numerical analysis and optimization, Oxford science publications. 2007.
https ://www.editions.polytechnique.fr/files/pdf/EXT_1255_8.pdf
I O. Lafitte, Prof. Univ. Paris 13 Optimisation et calcul des variations
http ://lescribe83.free.fr/Cours_optimisation_lafitte.pdf
Théorème d’existence en dimension finie
Theorème : Soit V un espace de Hilbert de dimension finie et K ⊂ V un ensemble fermé. Soit J une fonction continue de K dans R . Sous une des deux hypothèses suivantes
• K est borné,
• J infinie à l’infini,
J(v) −→
kvk→+∞ +∞
il existe au moins un point où J atteint son minimum sur K . Preuve :
w choisi dans K , on définit K ˜ = {v ∈ K , J(v ) ≤ J(w )}.
Alors inf
K J(v ) = inf
K ˜
J(v ).
Exemples kvk, kvk 2 , (Av , v ), · · · .
Un exemple important en dimension finie, pour TD mardi
Moindres carrés :
x∈ inf R
nkb − Ax k
Un autre exemple important en dimension finie, pour TD mardi
On définit les polynômes de Chebyshev sur [−1, 1] par C k (t) = cos(k arccos t). Montrer la relation de récurrence
P 0 ≡ 1, P 1 ≡ t, P k+1 (t) = 2tP k (t) − P k−1 (t)
Montrer que P k a dans l’intervalle [−1, 1] la plus petite déviation
de 0, parmi tous les polynômes de P k de coefficient dominant 2 k−1 .
(on procédera dans l’absurde en introduisant les points extrémaux
ξ j de P k ).
Un contre exemple en dimension infinie, pour TD mardi
On se place dans H 1 (0, 1) muni de la norme kvk 2 =
Z 1 0
v 2 (x) dx + Z 1
0
v 0 2 (x) dx . On considère la fonctionnelle
J(v) = Z 1
0
(|v 0 (x)| − 1) 2 + v (x) 2 dx Montrer que
I J est continue
I ∀v ∈ H 1 (0, 1), J(v ) > 0
I ∀v ∈ H 1 (0, 1), J(v ) ≥ 1 2 kvk 2 − 1
I J tend vers l’infini à l’infini.
I Il existe cependant une suite u n ∈ H 1 (0, 1) J(u n ) −→
n→+∞ 0.
0
<latexit sha1_base64="Bsse/9U+BIwFEDCr5v4B1bR8xtY=">AAACxXicjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoQpdVbCvUIsl0WofmxWRSKEX8Abf6a+If6F94Z0xBLaITkpw5954zc+/1k0CkynFeC9bc/MLiUnG5tLK6tr5R3txqpXEmGW+yOIjlte+lPBARbyqhAn6dSO6FfsDb/vBUx9sjLlMRR1dqnPBu6A0i0RfMU0RdOqXbcsWpOmbZs8DNQQX5asTlF9yghxgMGUJwRFCEA3hI6enAhYOEuC4mxElCwsQ57lEibUZZnDI8Yof0HdCuk7MR7bVnatSMTgnolaS0sUeamPIkYX2abeKZcdbsb94T46nvNqa/n3uFxCrcEfuXbpr5X52uRaGPY1ODoJoSw+jqWO6Sma7om9tfqlLkkBCncY/ikjAzymmfbaNJTe26t56Jv5lMzeo9y3MzvOtb0oDdn+OcBa1a1T2o1i4OK/WTfNRF7GAX+zTPI9Rxjgaa5N3HI57wbJ1ZoaWs0WeqVcg12/i2rIcP/wuPTQ==</latexit> 1<latexit sha1_base64="7sCe8t6nfPb+zCWUCxiga05M4r4=">AAACxXicjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoQpdVbCvUIsl0WofmxWRSKEX8Abf6a+If6F94Z0xBLaITkpw5954zc+/1k0CkynFeC9bc/MLiUnG5tLK6tr5R3txqpXEmGW+yOIjlte+lPBARbyqhAn6dSO6FfsDb/vBUx9sjLlMRR1dqnPBu6A0i0RfMU0RduqXbcsWpOmbZs8DNQQX5asTlF9yghxgMGUJwRFCEA3hI6enAhYOEuC4mxElCwsQ57lEibUZZnDI8Yof0HdCuk7MR7bVnatSMTgnolaS0sUeamPIkYX2abeKZcdbsb94T46nvNqa/n3uFxCrcEfuXbpr5X52uRaGPY1ODoJoSw+jqWO6Sma7om9tfqlLkkBCncY/ikjAzymmfbaNJTe26t56Jv5lMzeo9y3MzvOtb0oDdn+OcBa1a1T2o1i4OK/WTfNRF7GAX+zTPI9Rxjgaa5N3HI57wbJ1ZoaWs0WeqVcg12/i2rIcPAXuPTg==</latexit>k n
<latexit sha1_base64="8rROFT3UGu6iIUG+z5fiIBUUBhY=">AAACz3icjVHLSsNAFD2Nr1pfVZdugkVwVZIq6LLoxmUL9gFtkWQ6raFpEiYTpYSKW3/Arf6V+Af6F94ZU1CL6IQkZ86958zce93I92JpWa85Y2FxaXklv1pYW9/Y3Cpu7zTjMBGMN1joh6LtOjH3vYA3pCd93o4Ed8auz1vu6FzFWzdcxF4YXMpJxHtjZxh4A485kqhudyAclo6maTAtXBVLVtnSy5wHdgZKyFYtLL6giz5CMCQYgyOAJOzDQUxPBzYsRMT1kBInCHk6zjFFgbQJZXHKcIgd0XdIu07GBrRXnrFWMzrFp1eQ0sQBaULKE4TVaaaOJ9pZsb95p9pT3W1CfzfzGhMrcU3sX7pZ5n91qhaJAU51DR7VFGlGVccyl0R3Rd3c/FKVJIeIOIX7FBeEmVbO+mxqTaxrV711dPxNZypW7VmWm+Bd3ZIGbP8c5zxoVsr2UblSPy5Vz7JR57GHfRzSPE9QxQVqaJB3hEc84dmoG7fGnXH/mWrkMs0uvi3j4QNtUpRC</latexit>
k+ 1 n
<latexit sha1_base64="G1scll+aMv//C3ktG0456RyRNWk=">AAAC0XicjVHLSsNAFD2Nr1pfVZdugkUQhJKooMuiG5cV7QPaKsl0WkPzYjIRSimIW3/Arf6U+Af6F94ZU1CL6IQkZ86958zce93Y9xJpWa85Y2Z2bn4hv1hYWl5ZXSuub9STKBWM11jkR6LpOgn3vZDXpCd93owFdwLX5w13cKrijVsuEi8KL+Uw5p3A6Ydez2OOJOqq3RMOGw327PEoHBeuiyWrbOllTgM7AyVkqxoVX9BGFxEYUgTgCCEJ+3CQ0NOCDQsxcR2MiBOEPB3nGKNA2pSyOGU4xA7o26ddK2ND2ivPRKsZneLTK0hpYoc0EeUJwuo0U8dT7azY37xH2lPdbUh/N/MKiJW4IfYv3STzvzpVi0QPx7oGj2qKNaOqY5lLqruibm5+qUqSQ0ycwl2KC8JMKyd9NrUm0bWr3jo6/qYzFav2LMtN8a5uSQO2f45zGtT3y/ZBef/8sFQ5yUadxxa2sUvzPEIFZ6iiRt4Cj3jCs3FhDI074/4z1chlmk18W8bDB5tClLI=</latexit>
1 n
<latexit sha1_base64="f02k6prfv2orF2Z7CWi9MeJF+zs=">AAACz3icjVHLSsNAFD2Nr1pfVZdugkVwVZIq2GXBjcsW7APaIsl0WkPTJEwmSgkVt/6AW/0r8Q/0L7wzpqAW0QlJzpx7z5m597qR78XSsl5zxtLyyupafr2wsbm1vVPc3WvFYSIYb7LQD0XHdWLuewFvSk/6vBMJ7kxcn7fd8bmKt2+4iL0wuJTTiPcnzijwhh5zJFG93lA4LLVnaTArXBVLVtnSy1wEdgZKyFY9LL6ghwFCMCSYgCOAJOzDQUxPFzYsRMT1kRInCHk6zjFDgbQJZXHKcIgd03dEu27GBrRXnrFWMzrFp1eQ0sQRaULKE4TVaaaOJ9pZsb95p9pT3W1KfzfzmhArcU3sX7p55n91qhaJIaq6Bo9qijSjqmOZS6K7om5ufqlKkkNEnMIDigvCTCvnfTa1Jta1q946Ov6mMxWr9izLTfCubkkDtn+OcxG0KmX7pFxpnJZq1WzUeRzgEMc0zzPUcIE6muQd4RFPeDYaxq1xZ9x/phq5TLOPb8t4+ADfX5P+</latexit>
I J n’admet pas de minimum.
Les fermés bornés ne sont plus forcément compacts...
Fonctions convexes
On se restreint au cas où K est un ensemble convexe. Définitions d’une fonction
I convexe ∀t ∈ [0, 1] J(tu + (1 − t)v) ≤ tJ(u ) + (1 − t)J(v )
I strictement convexe
∀t ∈]0, 1[, u 6= v, J(tu + (1 − t)v) < tJ(u) + (1 − t)J(v )
I fortement convexe (on dit aussi α-convexe) : il existe un nombre α > 0 tel que pour tout couple (u, v) ∈ V 2 on ait
∀t ∈ [0, 1] J(tu +(1−t)v ) ≤ tJ(u)+(1−t)J(v)− α
2 t(1−t)kv−uk 2 Prop : Soient J 1 et J 2 deux fonctions convexes, φ une fonction convexe croissante, p ∈ R + . Alors J 1 + J 2 , max (J 1 , J 2 ), pJ 1 , φoJ 1
sont convexes.
Remarque : Attention, une fonction de deux variables peut être
convexe en chacune de ses variables mais pas convexe sur R 2 .
Minimum et fonctions convexes
Soit K un convexe fermé
Proposition : Si J est convexe, alors tout point de minimum local dans K est un point de minimum global.
Proposition : Si J est strictement convexe, il existe au plus un point de minimum global dans K .
Proposition : Si J est fortement convexe, il existe un unique point de minimum global dans K .
Proposition : Si J est fortement convexe et u est le point de minimum, alors on a l’estimation d’erreur
∀v ∈ K kv − uk 2 ≤ 4
α (J(v) − J(u))
Exemple sur la fonction J(x) = 1 2 (Ax , x) − (b, x) avec A matrice
définie positive.
Différentiabilité
Définition : Une fonction J de V dans R est différentiable (ou Fréchet différentiable) en u si il existe une forme linéaire continue notée J 0 (u) telle que
∀w ∈ V , J(u + w ) = J(u) + J 0 (u) · w + (w )kw k, lim
w→0 (w ) = 0 Proposition : Toute fonction dérivable est continue.
Quand V = R n , on note souvent J 0 (u) = ∇J(u).
Exemples
I Fonction affine J(v) = (b, v) − c.
I Fonction quadratique J(v) = 1 2 (Av , v ) − (b, v)
I Moindres carrés u 7→ kAv − bk 2 .
I Extension à la dimension infinie (v dans L 2 ou H 1 ) J(v) = 1
2 Z
Ω
(αk∇v k 2 + βv 2 ) − Z
Ω
fv
I La longueur d’un arc J(v) =
Z A 0
q
1 + v 0 (x) 2 dx
Différentielles, suite
I Dérivée directionnelle. On appelle dérivée de J en u dans la direction v la dérivée en 0 de la fonction d’une variable t 7→ J(u + tv ). On peut alors noter
D v J(u) = J 0 (u) · v .
I Gradient et dérivées partielles. Dans R n , si J est différentiable en u, elle admet des dérivées partielles ∂ j J(u) := ∂x ∂J
j
, et
∇J(u) = (∂ 1 J(u), · · · , ∂ n J(u )), si bien que J 0 (u).v = P n
i =1 ∂J
∂x
i(u)v i .
I Dérivées secondes Si J 0 : V 7→ V admet une différentielle J 00
application bilinéaire continue de V × V dans R . On notera
J”(u) · v · w . Si V = R n , alors la dérivée J 00 (u) peut être
identifiée avec une matrice appelée matrice Hessienne de J.
Exemples
I Fonction quadratique J(x) = 1
2 (Ax, x) − (b, x)
I Moindres carrés u 7→ kAu − bk 2 .
I Extension à la dimension infinie (u dans L 2 ou H 1 ) J(u) = 1
2 Z
Ω
(αk∇u k 2 + βu 2 ) − Z
Ω
fu
I La longueur d’un arc J(u) =
Z A 0
q
1 + u 0 (x) 2 dx
Formules de Taylor
Taylor Mac-Laurin ordre 1 Si J : V 7→ R est définie et continue sur [u, v ], différentiable sur ]u, v [, il existe θ ∈]0, 1[ tel que
J(v ) = J (u) + J
0(u + θ(v − u)) · (v − u) (3) On l’appelle aussi la formule de la moyenne, et on peut la formuler ainsi il existe w ∈]u, v [ tel que
J(v) = J(u) + J
0(w ) · (v − u) (4) Taylor Mac-Laurin ordre 2 Si J : V 7→ R est définie et continue sur
[u , v ], 2 fois différentiable sur ]u , v[, il existe θ ∈]0, 1[ tel que
J(v) = J(u)+J
0(u)·(v −u)+ 1
2 J
00(u+θ(v −u))·(v −u)·(v−u) (5) Taylor Young ordre 2 Si J : V 7→ R
pest 2 fois différentiable en u, alors
pour tout v
J(v) = J(u)+J
0(u)·(v −u)+J
00(u)·(v −u)·(v −u)+(v −u)kv−uk
2, lim
w→0
(w ) = 0
(6)
Convexité et différentiabilité
Théorème 1.5 : Les trois propositions sont équivalentes 1. J est convexe.
2. ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u).
3. ∀u, v ∈ V , (J 0 (v ) − J 0 (u), v − u) ≥ 0.
Théorème 1.6 : Les trois propositions sont équivalentes 1. J est strictement convexe.
2. ∀u, v ∈ V , u 6= v , J(v) > J(u) + (J 0 (u), v − u).
3. ∀u, v ∈ V , u 6= v , (J 0 (v ) − J 0 (u), v − u) > 0.
Théorème 1.7 : Les trois propositions sont équivalentes 1. J est α-convexe.
2. ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) + α 2 kv − uk 2 .
3. ∀u, v ∈ V , (J 0 (v ) − J 0 (u), v − u) ≥ αkv − uk 2 .
Démonstration
(1) ⇐⇒ (2) ⇐⇒ (3)
Démonstration
(1) ⇐⇒ (2) ⇐⇒ (3)
(1) convexe = ⇒ (2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u ), v − u).
J(θv + (1 − θ)u) ≤ θJ(v ) + (1 − θ)J(u).
J(θv + (1 − θ)u) − J(u) ≤ θ(J(v ) − J(u )).
J(u + θ(v − u)) − J(u)
θ ≤ J(v) − J(u).
θ → 0 :
J 0 (u ) · (v − u ) ≤ J(v ) − J(u).
Démonstration
(1) ⇐⇒ (2) ⇐⇒ (3)
(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).
(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.
Démonstration
(1) ⇐⇒ (2) ⇐⇒ (3)
(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).
(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.
J(u) ≥ J (θu + (1 − θ)v) + J 0 (θu + (1 − θ)v) · (1 − θ)(u − v)
J(v ) ≥ J(θu + (1 − θ)v ) + J 0 (θu + (1 − θ)v) · θ(v − u)
Démonstration
(1) ⇐⇒ (2) ⇐⇒ (3)
(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).
(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.
J(u) ≥ J (θu + (1 − θ)v) + J 0 (θu + (1 − θ)v) · (1 − θ)(u − v) J(v ) ≥ J(θu + (1 − θ)v ) + J 0 (θu + (1 − θ)v) · θ(v − u)
×θ J(u) ≥ J (θu + (1 − θ)v) + J 0 (θu + (1 − θ)v) · (1 − θ)(u − v)
×(1 − θ) J(v ) ≥ J(θu + (1 − θ)v ) + J 0 (θu + (1 − θ)v) · θ(v − u)
Démonstration
(1) ⇐⇒ (2) ⇐⇒ (3)
(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).
(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.
(2) = ⇒ (3)
Démonstration
(1) ⇐⇒ (2) ⇐⇒ (3)
(1) convexe = ⇒ (2) ∀u , v ∈ V , J(v ) ≥ J(u) + (J 0 (u), v − u).
(2) ∀u, v ∈ V , J(v) ≥ J(u) + (J 0 (u), v − u) = ⇒ (1) convexe.
(2) = ⇒ (3)
(3) = ⇒ (2)
Convexité et différentiabilité
Supposons maintenant J deux fois différentiable Théorèmes 1.5, 1.6 1.7 :
4 J convexe ⇐⇒ ∀u, w ∈ V , J 00 (u)w .w ≥ 0
4 J strictement convexe ⇐ ∀u, w ∈ V , w 6= 0, J 00 (u)w.w > 0 4 J α− convexe ⇐⇒ ∀u, w ∈ V , J 00 (u)w .w ≥ α k w k 2 .
Exemple : J(u) = a(u, u) où a est une forme bilinéaire continue sur
V . Cas de la dimension finie.
Convexité et différentiabilité
Supposons maintenant J deux fois différentiable Théorèmes 1.5, 1.6 1.7 :
4 J convexe ⇐⇒ ∀u, w ∈ V , J 00 (u)w .w ≥ 0
4 J strictement convexe ⇐ ∀u, w ∈ V , w 6= 0, J 00 (u)w.w > 0 4 J α− convexe ⇐⇒ ∀u, w ∈ V , J 00 (u)w .w ≥ α k w k 2 .
Exemple : J(u) = a(u, u) où a est une forme bilinéaire continue sur
V . Cas de la dimension finie.
Démonstration
(3) = ⇒ (4)
(J 0 (u +θw )−J 0 (u))·(θ)w ≥ 0, J 0 (u+θw )−J 0 (u) = θJ 00 (u)w +(θ)kθw k.
(4) = ⇒ (2) : Taylor Mac Laurin J(v) = J(u) + J 0 (u) · (v − u ) + 1
2 J 00 (u + θ(v − u)) · (v − u) · (v − u)
Cas sans contrainte. Condition nécessaire de minimum
V espace de Hilbert. J : V → R .
Théorème : (Equation d’Euler) Si u ∈ V est un point de minimum de J différentiable, alors J 0 (u) = 0.
Théorème : (Condition nécessaire ordre 2) Si u ∈ V est un point de minimum de J deux fois différentiable, alors on a de plus
∀v ∈ V (J 00 (u)v, v) ≥ 0
Cas sans contrainte. Condition suffisante de minimum
Théorème : Soit J une fonction différentiable dans V et u un point de V tel que J 0 (u) = 0.
1. Si J est deux fois différentiable dans un voisinage de u et s’il existe un voisinage Ω de u tel que
∀v ∈ Ω, ∀w ∈ V , J 00 (v)w .w ≥ 0, alors u est minimum local de J.
2. Si J est deux fois différentiable,et s’il existe α > 0 tel que
∀w ∈ V , J 00 (u)w .w ≥ αkw k 2 , alors u est minimum local strict pour J.
Théorème : Si J est convexe et différentiable, alors l’équation d’Euler est nécessaire et suffisante (voir preuve plus loin).
Exemples : Fonctionnelle quadratique sur R n et H 1 (liens avec
les systèmes linéaires et les EDP), minimisation au sens des
moindres carrés, calcul de la première valeur propre...
Optimisation sous contrainte : K convexe
Trouver u ∈ K tel que J(u) = inf
v∈K J (v).
Si u est solution, on dit que u est solution optimale. On suppose que K est un convexe fermé non vide et que J est différentiable.
Théorème : Soit K ⊂ V convexe. Si u ∈ K est un point de minimum sur K de J différentiable, alors
Inéquation d’Euler : u ∈ K , ∀v ∈ K (J 0 (u ), v − u) ≥ 0 Réciproquement dans le cas ou J est convexe, si on a l’inéquation d’Euler et, alors u est solution optimale.
Exemple
I Distance d’un point à un ensemble convexe
Séparation d’un point et d’un convexe
Conséquence sur le cas sans contrainte
Théorème : Si J est convexe différentiable, alors u est solution optimale sur V si et seulement on a l’équation d’Euler J 0 (u ) = 0.
En particulier si J est α-convexe, il existe une unique solution
optimale, caractérisée par J 0 (u) = 0.
Optimisation sous contrainte : K sous espace affine
Théorème : Soit K ⊂ V sous espace affine de la forme u 0 + E (E ss ev de V). Alors l’inéquation d’Euler est équivalente à
u ∈ K , ∀v ∈ E (J 0 (u), v) = 0 Ou encore J 0 (u) ∈ E ⊥ .
Exemple : contraintes égalité,
E = {v ∈ V , (a i , v) = 0, 1 6 i 6 m}, alors l’orthogonal de E est l’espace vectoriel engendré par les a i , et donc
Inéquation d’Euler ⇐⇒
u ∈ K
∃p 1 , .., p m ∈ R J 0 (u ) +
m
X
i=1
p i a i = 0.
Les p i sont les multiplicateurs de Lagrange.
Optimisation sous contrainte : K sous espace affine de R n
K = {v, Bv = c } = {v, (a i , v) = c i , 1 6 i 6 m}.
K 6= ∅ ⇐⇒ c ∈ Im B
B matrice m × n. K = u 0 + E, E = Ker B, Bu 0 = c . On définit par a i les vecteurs ligne de B , alors
E = {v ∈ V , (a i , v) = 0, 1 6 i 6 m}
∃p 1 , .., p m ∈ R J 0 (u)+
m
X
i=1
p i a i = 0 ⇐⇒ ∃p ∈ R m J 0 (u )+B T p = 0.
F i (v) = (a i , v) − c i , F i 0 (v ) = a i ,
J 0 (u)+
m
X
i=1
p i a i = 0 ⇐⇒ J 0 (u)+
m
X
i=1
p i F i 0 (u ) = 0 ⇐⇒ J 0 (u)+B T p = 0
Optimisation quadratique sous contrainte : K sous espace affine de R n
J(v) = 1
2 (Av , v) − (b, v), K = {v, Bv = c } A matrice n × n, c ∈ R m , B matrice m × n.
1. Existence et unicité th 1.1 et 1.2 ou corollaire 1.1 2. Caractérisation
∃p 1 , .., p m ∈ R J 0 (u)+
m
X
i=1
p i a i = 0 ⇐⇒ ∃p ∈ R m Au−b+B T p = 0.
u solution optimale ⇐⇒
( Bu = c,
∃p ∈ R m , Au − b + B T p = 0.
Attention B est une matrice rectangulaire
L’équation d’Euler
c ∈ Im u, Bu = c , Au − b + B T p = 0.
BA −1 B T p = BA −1 b − c .
I B T injective (ou B de rang m full rank )
I sinon Comme pour les moindres carrés
Optimisation sous contrainte : K cône
K = c + K 0 .
( u ∈ K
∀v ∈ K , J 0 (u).(v − u) ≥ 0 ⇐⇒
u ∈ K
J 0 (u).(c − u) = 0
∀w ∈ K 0 , J 0 (u).w ≥ 0.
Exemple de cône :
K 0 = {v ∈ V , (a i , v) ≤ 0, 1 6 i 6 m}
K = {v ∈ V , (a i , v ) ≤ c i , 1 6 i 6 m} = u 0 + K 0 .
Optimisation sous contrainte : K cône
Pour M cône convexe fermé de sommet O, on définit le cône dual par
M ? = {c ∈ V , ∀v ∈ M, (c , v) ≥ 0}. (7) M = {v ∈ V , ∀i ∈ {1, .., m}, (v, a i ) 6 0}
Théorème 2.5 [Lemme de Farkas].
Si M = {v ∈ V , ∀i ∈ {1, .., m}, (v , a i ) 6 0}, alors c ∈ M ? si et seulement si −c appartient au cône convexe engendré par les a i , i.e. il existe {p 1 , .., p m } tous ≥ 0 tels que c = −
m
X
i =1
p i a i .
u ∈ K
J 0 (u ).(c − u ) = 0
∀w ∈ K 0 , J 0 (u).w ≥ 0
J 0 (u).w ≥ 0 ⇐⇒ J 0 (u) ∈ K 0 ? ⇐⇒ J 0 (u) = −
m
X
i=1
p i a i
Optimisation sous contraintes affines : Résumé
Contraintes égalité
K = {Bv = c } = {(v, a i ) = c i , i = 1 · · · m}
u solution optimale ⇐⇒
( Bu = c ,
∃p ∈ R m , J 0 (u) + B T p = 0.
Contraintes inégalité
K = {Bv ≤ c } = {(v, a i ) ≤ c i , i = 1 · · · m}
u solution optimale ⇐⇒
( Bu ≤ c ,
∃p ∈ R m + , J 0 (u) + B T p = 0.
Si J est convexe on a une CNS
Optimisation quadratique sous contraintes affines : Résumé
J(v ) = 1
2 (Av , v ) − (b, v) Contraintes égalité
K = {Bv = c } = {(v, a i ) = c i , i = 1 · · · m}
u solution optimale ⇐⇒
( Bu = c ,
∃p ∈ R m , Au − b + B T p = 0.
Contraintes inégalité
K = {Bv ≤ c } = {(v, a i ) ≤ c i , i = 1 · · · m}
u solution optimale ⇐⇒
( Bu ≤ c ,
∃p ∈ R m + , Au − b + B T p = 0.
Si J est convexe on a une CNS
Optimisation sous contrainte : Directions admissibles
Définition :Soit v ∈ K . On appelle cône des directions admissibles l’ensemble
K (v ) = {0} ∪ {w ∈ V ,
∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,
k→+∞ lim
v k − v
||v k − v|| = w
||w ||
Optimisation sous contrainte : Directions admissibles
Définition :Soit v ∈ K . On appelle cône des directions admissibles l’ensemble
K (v ) = {0} ∪ {w ∈ V ,
∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,
k→+∞ lim
v k − v
||v k − v|| = w
||w ||
Optimisation sous contrainte : Directions admissibles
Définition :Soit v ∈ K . On appelle cône des directions admissibles l’ensemble
K (v ) = {0} ∪ {w ∈ V ,
∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,
k→+∞ lim
v k − v
||v k − v|| = w
||w ||
Optimisation sous contrainte : Directions admissibles
K (v ) = {0} ∪ {w ∈ V ,
∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,
k→+∞ lim
v k − v
||v k − v|| = w
||w ||
Théorème K (v) est un cône fermé non vide.
Exemple :
F 1 (v) = −v 1 − v − 2,
F 2 (v) = v 1 (v 1 2 + v 2 2 ) − 2(v 1 2 − v 2 2 ) K = {v , F 1 (v) ≤ 0, F 2 (v ) ≤ 0}
F 1 (v ) = 0, K (v) = {w , w 1 + w 2 ≥ 0} F 2 (v ) = 0, K (v) = {w , w · v
1
(3v
12+v
22−2) 2v
2(v
1+2)
≤ 0}
K = {v, F 1 (v ) ≤ 0, F 2 (v) ≤ 0}
Optimisation sous contrainte : Directions admissibles
K (v ) = {0} ∪ {w ∈ V ,
∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,
k→+∞ lim
v k − v
||v k − v|| = w
||w ||
Théorème K (v) est un cône fermé non vide.
Exemple :
F 1 (v) = −v 1 − v − 2,
F 2 (v) = v 1 (v 1 2 + v 2 2 ) − 2(v 1 2 − v 2 2 ) K = {v , F 1 (v) ≤ 0, F 2 (v ) ≤ 0}
F 1 (v ) = 0, K (v) = {w , w 1 + w 2 ≥ 0} F 2 (v ) = 0, K (v) = {w , w · v
1
(3v
12+v
22−2) 2v
2(v
1+2)
≤ 0}
K = {v, F 1 (v ) ≤ 0, F 2 (v) ≤ 0}
Optimisation sous contrainte : Directions admissibles
K (v ) = {0} ∪ {w ∈ V ,
∃{v k } k∈ N ⊂ K lim k→+∞ v k = v, v k 6= v pour tout k,
k→+∞ lim
v k − v
||v k − v|| = w
||w ||
Théorème K (v) est un cône fermé non vide.
Exemple :
F 1 (v) = −v 1 − v − 2,
F 2 (v) = v 1 (v 1 2 + v 2 2 ) − 2(v 1 2 − v 2 2 ) K = {v , F 1 (v) ≤ 0, F 2 (v ) ≤ 0}
F 1 (v ) = 0, K (v) = {w , w 1 + w 2 ≥ 0} F 2 (v ) = 0, K (v) = {w , w · v
1