• Aucun résultat trouvé

Optimisation convexe

N/A
N/A
Protected

Academic year: 2022

Partager "Optimisation convexe"

Copied!
2
0
0

Texte intégral

(1)

Cours Apprentissage - ENS Math/Info Optimisation Convexe

Francis Bach 24 octobre 2014

Ce cours s’appuie sur le livre “Convex Optimization” de Stephen Boyd et Lieven Vandenberghe (disponible gratuitement : http://www.stanford.edu/~boyd/cvxbook/) et les livres “Non-linear programming” de Dimitri Bertsekas (Athena Scientific), et “Introductory lectures on convex opti- mization : A basic course” de Yurii Nesterov (Kluwer Academic Publishers).

1 Boˆıte ` a outil g´ en´ erique

– Utile pour la programmation lin´eaire, i.e., minAx=b,x>0c>x= maxA>y6cb>y

– Optimisation `a moyenne ´echelle (pas plus de dizaines de milliers de contraintes et/ou variables) – Voirhttp://cvxr.com/cvx/

2 M´ ethode de l’ellipsoide

– Minimisation d’une fonction convexe d´erivable surRn(extensions possibles aux cas non-diff´erentiables et contraints).

– Complexit´e th´eorique polynˆomiale (r´esultat tr`es g´en´eral), peu utilis´e en pratique.

– Algorithme:

– Initialisation : ellipsoide{(x−x0)>P0−1(x−x0)61}qui contientx (avec typiquement P0= R2I)

– Pourt>0, contruire l’ellipsoide de volume minimum qui contient {(x−xt)>Pt−1(x−xt)61}

et le demi-plan{f0(xt)>(x−xt)60}.

– Ceci correspond `axt+1=xtn+11 PtgtetPt+1=nn2−12 (Ptn+12 Ptgtgt>Pt) avecgt= √ 1

f0(xt)>Ptf0(xt)f0(xt).

Voirhttp://www-math.mit.edu/~goemans/18433S09/ellipsoid.pdf et http://sma.epfl.ch/~eisenbra/OptInFinance/Slides/ellipsoid.pdf – Propri´et´e: le volume dePt+1est plus petit quee−1/2n fois le volume dePt.

– Cons´equence: sif estB-Lipschitz, alors la pr´ecisionεest atteinte apr`es au plus 2n2log(RG/ε).

Voirhttp://www.stanford.edu/class/ee392o/elp.pdf.

1

(2)

3 Descente de gradient

– Minimisation d’une fonction convexe d´erivable sur Rn – Algorithme:

– Initialisation :x0∈Rn,

– Pourt>0,xt+1=xt−γtf0(xt).

– Valeurs de pasγt:

– Pas constant :γt= 1/Lo`uLest une borne sup´erieure uniforme de la plus grande valeur propre de la Hessienne def

– “Line search” : optimisation totale ou partielle par rapport `a γ. Voir par exemple http://

www-personal.umich.edu/~mepelman/teaching/IOE511/Handouts/511notes07-5.pdf pour la r`egle dite d’Armijo.

– Analyse th´eorique

– Hypoth`eses pour r´esultat th´eorique simple :f deux fois d´erivableconvexe,LI<f00(x)<µI – xt+1−x=xt−x−γtf00(yt)(xt−x) for someyt∈[xt, x]

– Pourγt= 1/L, on peut montrer quekxt+1−xk26(1−Lµ)kxt−xk26(1−µL)2(t+1)kx0−xk2 – La convergence est alors dite lin´eaire

– Cadre convexe : convergence vers un minimum global – Cadre non convexe : convergence vers un point stationnaire – Crit`ere d’arrˆet : gradient de norme inf´erieure `a ε

4 M´ ethode de Newton

– Minimisation d’une fonction convexe deux fois d´erivable sur Rn – Principe: minimiser l’approximation quadratique autour de xt

– Algorithme:

– Initialisation :x0∈Rn,

– Pourt>0,xt+1=xt−f00(xt)−1f0(xt).

– Convergence quadratrique(cas convexe) :kxt+1−xk26C(kxt+1−xk2)2

2

Références

Documents relatifs

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des

Dans le cadre de mon projet d’int´egration au CNRS d´epos´e en 2000, j’ai ainsi tent´e de combi- ner les m´ethodes polynomiales et l’optimisation convexe LMI dans le but

Le reste du texte a trait´e des syst`emes multivariables (MIMO), une m´ethodologie compl`ete de la synth`ese de r´egulateurs robustes multivariables a ´et´e d´evelopp´ee.

Il faut donc faire un compro- mis, qui dépend de l’application visée, entre le réalisme de la simulation (que l’on peut améliorer en choisissant un modèle plus fin, des

Ce cours est une continuité du cours fait en semestre S5 de la filière Sci- ences Mathématiques et Applications. L’assimilation du cours du semestre S5 concernant les espaces affines

Ce recueil fait partie d’une prochaine série de recueils d’exercices des- tinés aux étudiants de la Licence Mathématiques et Applications en optimi- sation et analyse

Ce recueil est un complément du recueil 1 d’exercices d’analyse convexe et optimisation destinés aux étudiants de la filière Sciences Mathématiques et Applications, semestre 6 de

Puisque (P ) est un problème convexe et la fonction objectif f est strictement convexe, alors x ¯ est un minimum global unique.. Par suite, l’ensemble des solutions est réduit à