• Aucun résultat trouvé

Les m´ ethodes de p´ enalit´ e et de barri` ere

1.6 Les approches algorithmiques

1.6.2 Les m´ ethodes de p´ enalit´ e et de barri` ere

Une approche num´erique qui apparaˆıt prometteuse sur des r´esultats pr´eliminaires consiste `a ´etendre les m´ethodes de p´enalit´e/barri`ere issues des techniques d’optimisation diff´erentielle [75], [38] au cˆone SDP pour la recherche de solutions locales avec garantie de convergence (m´ethodes du lagrangien augment´e et m´ethodes de point int´erieur) [128], [72], [122], [51], [123], [115], [154]. Le principe g´en´eral consiste `a incorporer dans une fonc- tion lagrangienne tout ou partie des contraintes (les contraintes dures non convexes) `a l’aide d’une fonction p´enalit´e/barri`ere et de s´equentiellement minimiser par une m´ethode du second ordre le lagrangien augment´e ainsi obtenu. Cette approche tombe donc dans la classe des m´ethodes de programmation s´equentielle SDP comme la pr´ec´edente.

Consid´erons par exemple le probl`eme suivant : min x∈Rm c x sous F (x) 0 (1.99)

o`u c∈ Rmet F : Rm → Snest un op´erateur matriciel donn´e (g´en´eralement non convexe). Dans le cas des m´ethodes de p´enalit´e, l’algorithme du lagrangien augment´e d´epend du choix d’une fonction de p´enalit´e Φp : Sn→ Sn telle que :

Φp(F (x)) 0 ⇔ F (x)  0 (1.100)

Diff´erents choix g´en´eralisant ceux rencontr´es en programmation non lin´eaire peuvent ˆ

etre faits. Par exemple, [122] propose de choisir une fonction de p´enalit´e :

Φp(F (x)) = c2(F (x)− c1)−1− c1 (1.101) Pour une discussion plus approfondie sur ces choix, on pourra consulter la r´ef´erence [122]. Pour Φp(F (x)), le lagrangien augment´e s’´ecrit alors :

L(x, Λ, c) = cx + trace (ΛΦp(F (x))) (1.102)

o`u Λ ∈ Sn est un multiplieur de Lagrange et c est le param`etre de p´enalit´e. Le sch´ema g´en´eral de l’algorithme peut se r´esumer comme suit.

Algorithme du lagrangien augment´e Etape 1

eterminer un point initial x0; initialiser le param`etre de p´enalit´e c0 > 0 et le multiplieur

de Lagrange Λ0; k = 0; Etape 2

Minimiser le lagrangien augment´e Lc(x, Λk, c) :

min x∈Rm Lc(x, Λ k, ck) (1.103) xk+1 = arg[(1.103)]. Etape 3

Mise `a jour de ck et Λk avec ck+1 < ck.

Etape 4

Test d’un crit`ere d’arrˆet. Arrˆet si le test est v´erifi´e sinon retour `a l’´etape 2.

Il va sans dire que chacune des ´etapes de l’algorithme doit ˆetre clairement pr´ecis´ee et que les choix effectu´es pour chacune d’elles conditonnent la r´eussite de l’algorithme ou du moins son efficacit´e num´erique.

- Si l’´etape d’initialisation de x n’est pas cruciale, celle de Λ a une grande influence sur le comportement de l’algorithme. [72] recommande d’utiliser le maximum d’in- formation afin de choisir Λ0 proche de sa valeur optimale.

- La mise `a jour de c et de Λ est ´egalement un ´el´ement important de ((r´eglage)) de l’algorithme. [72] utilise par exemple une rˆegle du premier ordre.

- Une m´ethode du second ordre (m´ethode de Newton) est g´en´eralement utilis´ee pour la minimisation sans contraintes du lagrangien augment´e [122] mais l’utilisation de m´ethodes de r´egion de confiance est ´egalement possible [72]. Dans le cas o`u l’op´erateur F est non convexe, la m´ethode de Newton est remplac´ee par la m´ethode de Levenberg-Maquardt qui permet de r´egulariser le hessien si celui-ci n’est pas d´efini en signe. En ce qui concerne l’approche par r´egion de confiance, outre le r´eglage d´elicat du rayon de la r´egion de confiance, celle-ci ne semble pas r´eduire significativement les inconv´enients li´es au signe du hessien.

Sous des hypoth`eses standard, l’algorithme du lagrangien augment´e converge globa- lement vers un optimum local. Toutefois, le ((doigt´e)) n´ecessaire au r´eglage des diff´erents param`etres rend ces approches encore peu attractives.

Une alternative aux m´ethodes de p´enalit´e est donn´ee par les m´ethodes de barri`ere dont la g´en´eralisation `a la programmation SDP a permis le d´eveloppement de nombreux solveurs LMI fond´es sur les m´ethodes de point int´erieur [151], [201], [10]. Leur extension au cas non convexe est encore en phase pr´eliminaire et il existe relativement peu de travaux sur le sujet [114], [128], [51], [115]. Les m´ethodes de point int´erieur sont tr`es semblables dans leur principe aux m´ethodes de p´enalit´e puisque ce sont ´egalement des m´ethodes d’optimisation s´equentielle. La principale diff´erence vient des propri´et´es de la

fonction barri`ere qui est ajout´ee au crit`ere afin de d´efinir un probl`eme d’optimisation non contraint. Si l’on note F l’ensemble r´ealisable du probl`eme (1.99) :

F = {x ∈ Rm : F (x) 0} (1.104) alors la fonction barri`ere B : Sn → Sn est seulement d´efinie `a l’int´erieur de F et tend vers l’infini quand x tend vers la fronti`ere deF. Un exemple de fonction barri`ere est donn´e par la fonction −log det bien connue en programmation semid´efinie positive [201].

B(F (x)) =−log detF (x) (1.105) Cette fonction est strictement convexe et poss`ede la propri´et´e importante d’ˆetre auto- concordante, primordiale pour le d´eveloppement d’algorithmes en temps polynomial [151]. D´efinition 1.6.1 (fonction auto-concordante [151])

Etant donn´e un ensemble ouvert convexeX ⊂ Rm, la fonction F : X → R diff´erentiable et convexe est α−auto-concordante si ∃ α ∈ R, ∀ x ∈ X et ∀ h ∈ Rm elle v´erifie :

|∇3

tF (x + tv)| ≤ 2α−1/2(2tF (x + tv))3/2 (1.106) Cette propri´et´e assure essentiellement la convergence en temps polynomial de la s´equen- ce de minimisation sans contrainte de la fonction cx + µkB(F (x)). L’algorithme prend alors la forme suivante.

Algorithme de Barri`ere Etape 1

eterminer un point initial x0 ∈ intF; initialiser le param`etre de barri`ere µ0 > 0; k = 0;

Etape 2

R´esoudre le probl`eme de barri`ere :

xk+1 = arg min x∈Rm c

x + µkB(F (x))

(1.107) Etape 3

Mise `a jour de µk avec µk+1 < µk. Etape 4

Test d’un crit`ere d’arrˆet. Arrˆet si le test est v´erifi´e sinon retour `a l’´etape 2.

L’´etape de minimisation sans contrainte peut, comme dans le cas des m´ethodes de lagrangien augment´e, ˆetre men´ee par une m´ethode de Newton [51] ou par une m´ethode de r´egion de confiance [128].

L’application de ces m´ethodes `a des probl`emes non convexes est relativement r´ecente et il est difficile d’en analyser la port´ee exacte. Dans le premier cas, les nombreux r´eglages rendent hasardeux de les consid´erer actuellement comme op´erantes pour des non sp´ecialis- tes. L’extension des m´ethodes de barri`ere bute encore sur le peu de propri´et´es fortes des barri`eres utilis´ees. Elles sont toutefois en plein d´eveloppement pour les probl`emes SDP convexes et non convexes. Citons par exemple le solveur PENNON d´evelopp´e sur la base d’une m´ethode mixte p´enalit´e/barri`ere dont les r´esultats num´eriques apparaissent extrˆemement prometteurs [122], [123].

Documents relatifs