Strat´egie d’´evolution
Recherche Op´erationnelle et Optimisation Master 1 I2L
S´ebastien Verel verel@lisic.univ-littoral.fr
http://www-lisic.univ-littoral.fr/~verel
Universit´e du Littoral Cˆote d’Opale Laboratoire LISIC Equipe CAMOME
Introduction aux strat´ egie d’´ evolution (evolution strategy)
Cours introductif de l’´ecole d’´et´e en ´evolution artificielle Anne Auger, juin 2012 : https:
//sites.google.com/site/ecoleea2012/programme
Optimization num´ erique
Inputs
Search space : Set of all feasible solutions, X ⊂IRn Objective function : Cost criterium
f :IRn→IR Goal
Find the best solution according to the criterium x? =argmin f
But, sometime, the set of all best solutions, good approximation of the best solution, good ’robust’ solution...
Stochatic algorithms with unique solution (Local Search)
S set of solutions (search space) f :S →IRobjective function V(s) set of neighbor’s solutions of s
Recherche Locale (LS)
S ensemble des solutions (espace de recherche),
f :S →IRfonction objectif `a maximiser (ou coˆut `a minimiser) V(s) ensemble des solutions voisines des
Algorithme d’une Recherche Locale Choisir solution initiales ∈ S
repeat
choisirs0 ∈ V(s) s ←s0
until crit`ere d’arrˆet non verifi´e
Hill-Climber (HC)
Heuristique d’exploitation maximale.
Hill Climber (best-improvement) Choisir solution initiales ∈ S repeat
Choisirs0 ∈ V(s) telle que f(s0) est minimale
s ←s0
until s optimum local
Algorithme de comparaison Op´erateur local de base de
m´etaheuristique
Optimum local
Optimum local
Etant donn´e (S,f,V),f `a minimiser.
x? est un optimum local ssi pour toutx ∈ V(x?),f(x?)≤f(x)
Optimum local strict
Etant donn´e (S,f,V),f `a minimiser
x? est un optimum local ssi pour toutx ∈ V(x?),f(x?)<f(x)
Hill-Climbing first-improvement
Hill-climber First-improvement (minimizer) Choisir solution initiales ∈ S
repeat
Choisirs0 ∈ V(s) al´eatoirement if f(s0)≤f(s)then
s ←s0 end if
until s optimum local OU nbr d’´eval. ≤maxNbEval
(1 + 1)-Evolution Strategy
(1 + 1)-ES
Choose randomly initial solutions ∈IRn repeat
s0 ←s+σ N(0,C) if s0 is better thans then
s ←s0 end if
until crit`ere d’arrˆet non verifi´e
σ∈IR (step size) et la matriceC ∈IRn×n (covariance matrix) sont des param`etres de l’algorithme.
(µ/µ, λ)-Evolution Strategy
(µ/µ, λ)-ES
Choose randomlyµinitial solutions si ∈IRn repeat
for i ∈ {1. . . λ} do si0 ←m+σ N(0,C) end for
Select the µbest solutions from{s10, . . . ,sλ0}
Let bes:j those solutions ranking by increasing order of f : f(s:1)≤. . .≤f(s:µ)
m←Pµ j=1wis:j0
until crit`ere d’arrˆet non verifi´e
avec ˆwi = log(µ+ 0.5)−log(i) et wi = ˆwi/Pµ i=1wˆi
(1 + 1)-Evolution Strategy with One-fifth success rule
(1 + 1)-Evolution Strategy with 1/5 rule Choose randomly initial solutions ∈IRn repeat
s0 ←s+σ N(0,C) if s is better thans0 then
s ←s0
σ←σ×exp(1/3) else
σ←σ/exp(1/3)1/4 end if
until crit`ere d’arrˆet non verifi´e
La matriceC ∈IRn×n (covariance matrix) est un param`etre de l’algorithme.