• Aucun résultat trouvé

Optimisation num´erique et Strat´egie d’´evolution

N/A
N/A
Protected

Academic year: 2022

Partager "Optimisation num´erique et Strat´egie d’´evolution"

Copied!
25
0
0

Texte intégral

(1)

Optimisation num´erique et Strat´egie d’´evolution

Recherche Op´erationnelle et Optimisation Master 1

S´ebastien Verel verel@lisic.univ-littoral.fr

http://www-lisic.univ-littoral.fr/~verel

Universit´e du Littoral Cˆote d’Opale Laboratoire LISIC Equipe CAMOME

(2)

Optimisation num´ erique

D´efinition : Probl`eme d’optimisation num´erique

Espace de recherche : ensemble de toutes les solutions possibles,

X ⊂IRn

Fonction objectif : crit`ere de cout (minimisation) f :IRn→IR

But : R´esoudre un probl`eme d’optimisation num´erique Trouver une des meilleures solution selon le crit`ere :

x? =argmin f

Mais, des fois, ensembles des meilleures solutions, bonne

approximation de la meilleure solution, bonne solution ’robuste’, etc.

(3)

Espace de dimension n

Activit´e :

D´ecouverte de IRn avec la feuille TP 05 partie 1 (exercice 1)

(4)

Bibliographie

Bibliographie

Daniele A. Di Pietro, Universit´e de Montpellier, Cours master 1, optimisation num´erique : http:

//www.math.univ-montp2.fr/~di-pietro/Teaching.html

(5)

Direction de descente

Definition : direction de descente SoitX ⊂IRn,f :X →IR, etx ∈ X.

On dit quew ∈ X \ {0}est une direction de descente enx s’il existe un r´eelσ0>0 tel que :

∀σ∈[0, σ0], f(x+σ w)6f(x)

Definition : direction de descente stricte SoitX ⊂IRn,f :X →IR, etx ∈ X.

On dit quew ∈ X \ {0}est une direction de descente stricte en x s’il existe un r´eel σ0 >0 tel que :

∀σ∈[0, σ0], f(x+σ w)<f(x)

(6)

Direction de descente

Definition : direction de descente SoitX ⊂IRn,f :X →IR, etx ∈ X.

On dit quew ∈ X \ {0}est une direction de descente enx s’il existe un r´eelσ0>0 tel que :

∀σ∈[0, σ0], f(x+σ w)6f(x) Definition : direction de descente stricte

SoitX ⊂IRn,f :X →IR, etx ∈ X.

On dit quew ∈ X \ {0}est une direction de descente stricte en x s’il existe un r´eelσ0>0 tel que :

∀σ∈[0, σ0], f(x+σ w)<f(x)

(7)

M´ ethode de descente

Algorithme de descente

Choisir solution initialex ∈ X repeat

Trouver une dir. de descente stricte enx :w ∈ X \ {0}

Choisir un nombre r´eel σ >0 x ←x+σ w

until crit`ere d’arrˆet non verifi´e

Questions l´egitimes :

Comment choisir la direction de descentew en fonction dex? Comment choisir le step size σ?

Comment d´efinir le crit`ere d’arrˆet ?

(8)

M´ ethode de descente

Algorithme de descente

Choisir solution initialex ∈ X repeat

Trouver une dir. de descente stricte enx :w ∈ X \ {0}

Choisir un nombre r´eel σ >0 x ←x+σ w

until crit`ere d’arrˆet non verifi´e

Questions l´egitimes :

Comment choisir la direction de descentew en fonction dex? Comment choisir le step size σ?

Comment d´efinir le crit`ere d’arrˆet ?

(9)

Descente du gradient

Activit´e :

D´ecouverte du gradient IRn avec la feuille TP 05 partie 1

(10)

Direction du gradient

Intuitions

Informellement (ou physiquement),

le gradientindique le vecteur vitesse de la surface (trajectoire), c.-`a-d. la direction, le sens et l’amplitude de la vitesse de croissance de la surface.

D´efinition formelle

Sif est diff´erentiable enx ∈IRn, le gradient de f enx est ´egale `a :

∇f(x) =

∂f

∂x1

. . .

∂f

∂xn

(11)

Direction du gradient

R´esultat formel

Soitf une fonction continˆument d´erivable sur un ouvert contenant x∈IR. On note par.le produit scalaire sur IRn.

Siw ∈ X \ {0}est une direction de descente, alors ∇f(x).w 60.

Si∇f(x)6= 0, alors w =−∇f(x) est une direction de descente stricte enx.

(12)

M´ ethode de la descente du gradient

Algorithme de descente du gradient Choisir solution initialex ∈ X repeat

w ← −∇f(x)

Choisir un nombre r´eel σ >0 x ←x+σ w

until crit`ere d’arrˆet non verifi´e

Questions l´egitimes :

Comment choisir le step size σ en fonction de f etx? Comment d´efinir le crit`ere d’arrˆet ?

(13)

M´ ethode de la descente du gradient

Algorithme de descente du gradient Choisir solution initialex ∈ X repeat

w ← −∇f(x)

Choisir un nombre r´eel σ >0 x ←x+σ w

until crit`ere d’arrˆet non verifi´e

Questions l´egitimes :

Comment choisir le step size σ en fonction de f etx? Comment d´efinir le crit`ere d’arrˆet ?

(14)

Descente de gradient ` a pas fixe

Algorithme : descente de gradient `a pas fixe Choisir la taille du pasσ∈IR+

Choisir solution initialex ∈ X repeat

w ← −∇f(x) x ←x+σ w

until crit`ere d’arrˆet non verifi´e

Questions l´egitimes :

Comment choisir le step size σ? Comment d´efinir le crit`ere d’arrˆet ?

(15)

Descente de gradient ` a pas fixe

Algorithme : descente de gradient `a pas fixe Choisir la taille du pasσ∈IR+

Choisir solution initialex ∈ X repeat

w ← −∇f(x) x ←x+σ w

until crit`ere d’arrˆet non verifi´e

Questions l´egitimes :

Comment choisir le step size σ? Comment d´efinir le crit`ere d’arrˆet ?

(16)

M´ ethode de Newton

Activit´e :

D´ecouverte de la m´ethode de Newton avec la feuille TP 05 partie 1 (exercice 3)

(17)

Introduction aux strat´ egies d’´ evolution (evolution strategy)

Cours introductif de l’´ecole d’´et´e en ´evolution artificielle Anne Auger, juin 2012 : https:

//sites.google.com/site/ecoleea2012/programme

(18)

Stochatic algorithms with unique solution (Local Search)

S set of solutions (search space) f :S →IRobjective function V(s) set of neighbor’s solutions of s

(19)

Recherche Locale (LS)

S ensemble des solutions (espace de recherche),

f :S →IRfonction objectif `a maximiser (ou coˆut `a minimiser) V(s) ensemble des solutions voisines des

Algorithme d’une Recherche Locale Choisir solution initiales ∈ S

repeat

choisirs0 ∈ V(s) if accept(s,s0)then

s ←s0 end if

until crit`ere d’arrˆet non verifi´e

(20)

Hill-Climber (HC)

Heuristique d’exploitation maximale.

Hill Climber (best-improvement) Choisir solution initiales ∈ S repeat

Choisirs0 ∈ V(s) telle que f(s0) est minimale

s ←s0

until s optimum local

Algorithme de comparaison Op´erateur local de base de

m´etaheuristique

(21)

Optimum local / global

Optimum local

Etant donn´e (S,f,V),f `a minimiser.

x? est un optimum local ssi pour toutx ∈ V(x?),f(x?)6f(x)

Optimum local strict

Etant donn´e (S,f,V),f `a minimiser

x? est un optimum local ssi pour toutx ∈ V(x?),f(x?)<f(x)

Optimum global

Etant donn´e (S,f,V),f `a minimiser.

x? est un optimum global ssi pour toutx ∈ S,f(x?)6f(x)

(22)

Hill-Climbing first-improvement

Hill-climber First-improvement (minimizer) Choisir solution initiales ∈ S

repeat

Choisirs0 ∈ V(s) al´eatoirement if f(s0)≤f(s)then

s ←s0 end if

until s optimum local OU nbr d’´eval. ≤maxNbEval

(23)

(1 + 1)-Evolution Strategy

(1 + 1)-ES

Choose randomly initial meanm∈IRn repeat

x0 ←m+σ N(0,C) =N(m, σ.C) if f(x0) is better than f(m) then

m←x0 end if

until crit`ere d’arrˆet non verifi´e

σ∈IR (step size) et la matriceC ∈IRn×n (covariance matrix) sont des param`etres de l’algorithme.

(24)

(1 + 1)-Evolution Strategy with One-fifth success rule

(1 + 1)-Evolution Strategy with 1/5 rule Choose randomly initial solutionm∈IRn repeat

x0 ←m+σ N(0,C) if x0 is better thanm then

m←x0

σ←σ×exp(1/3) else

σ←σ/exp(1/3)1/4 end if

until crit`ere d’arrˆet non verifi´e

La matriceC ∈IRn×n (covariance matrix) est un param`etre de l’algorithme.

(25)

(µ/µ, λ)-Evolution Strategy

(µ/µ, λ)-ES

Choose randomly initial meanm∈IRn repeat

for i ∈ {1. . . λ} do xi0 ←m+σ N(0,C) end for

Select the µbest solutions from{x10, . . . ,xλ0}

Let bex:j those solutions ranking by increasing order of f : f(x:1)≤. . .≤f(x)

m←Pµ j=1wjx:j0

until crit`ere d’arrˆet non verifi´e

avec ˆwi = log(µ+ 0.5)−log(i) et wi = ˆwi/Pµ i=1i

Références

Documents relatifs

[r]

un script (ou une fonction) scilab donnant la solution exacte et la solution num´ erique donn´ ee par le sch´ ema

D´ ecrire les polynˆ omes d’interpolation de Hermite dans le cadre g´

On consid` ere maintenant la m´ ethode de Newton pour rechercher ce z´ ero.. ´ etablir sa formule en utilisant un d´ eveloppement de Taylor

Soit α la racine de h que l’on souhaite approcher par la m´ ethode

Montrer, en utilisant le th´ eor` eme de Gerschg¨ orin, que si A est ` a diagonale strictement dominante alors elle est

4.1 Quelques propri´ et´ es du conditionnement Montrer les propri´ et´ es suivantes

Remarque Dans la relation (3.1) le symbole “≤”est compris comme in´ egalit´ e entre com- posantes de chaque vecteur correspondant de part et d’autre de ce