• Aucun résultat trouvé

3.2 Description de l’algorithme

3.2.1 Itération externe

3.3 Analyse de convergence globale . . . 32

3.3.1 Itérations internes . . . 32 3.3.2 Itérations externes . . . 35 3.4 Convergence asymptotique . . . 39

3.5 Détails de l’implémentation . . . 43

3.6 Résultats numériques . . . 45

3.6.1 Comparaison avec SPDOPT-QP . . . 45 3.6.2 Comparaison avec d’autres méthodes de lagrangien augmenté . . . . 48 3.7 Conclusion. . . 51

3.1 Introduction et motivation

Dans le chapitre précédent, nous avons proposé un algorithme primal-dual pour la résolution des problèmes d’optimisation avec seulement des contraintes d’égalité. Cet algorithme est basé sur une méthode de type Newton appliquée à une suite de conditions d’optimalité du problème de pénalisation quadratique associée à (PE). Ces conditions d’optimalité incluent une perturbation des contraintes d’égalité. Cette perturbation qui remplace les contraintes d’égalité g(x) = 0 par g(x)−σy = 0, offre une régularisation naturelle du système linéaire utilisé à chaque itération pour générer une direction de

recherche. Ceci permet à notre méthode de bien se comporter pour la résolution des problèmes dégénérés pour lesquels la matrice jacobienne des contraintes n’est pas de plein rang. Malgré ce succès, nous avons remarqué que la perturbation des contraintes par le terme σy devient non négligeable, puisque pour ces problèmes les multiplicateurs de Lagrange sont non bornés.

La deuxième motivation est liée à l’analyse de convergence asymptotique de la mé-thode développée dans le chapitre 2. Celle ci a été établie en se basant sur la notion de

trajectoire. L’utilisation de cette dernière nous a permis d’avoir seulement une conver-gence superlinéaire. En considérant une nouvelle formulation du problème initial, nous allons montrer la convergence quadratique en s’acquittant de la notion de trajectoire. Ceci est réalisé en proposant une méthode qui se réduit asymptotiquement à une méthode de Newton régularisée sur le système d’optimalité initial.

Le but de ce chapitre est donc de proposer une nouvelle méthode qui permet d’amé-liorer celle du chapitre 2 en prenant en compte les remarques citées ci-dessus tout en conservant la régularisation naturelle du système linéaire et l’aspect primal-dual de la méthode permettant le contrôle des variables primales et duales tout au long du proces-sus de minimisation.

Considérons le problème de lagrangien augmenté associé au problème (PE)

min

x∈Rnϕλ,σ(x) :=f(x) +λ>g(x) + 1

2σkg(x)k2, (3.1.1) où σ est le paramètre de pénalisation et λ est une estimation du multiplicateur de La-grange. Les conditions d’optimalité du premier ordre de (3.1.1) sont

∇f(x) +∇g(x)(λ+ 1

σg(x)) = 0.

En introduisant la variable y = λ+ 1

σg(x), ces conditions peuvent être écrites sous la forme suivante F(w, λ, σ) := ∇xL(w) g(x) +σ(λ−y) = 0. (3.1.2)

Notons ici qu’en utilisant la notation introduite dans (1.3.4), nous obtenons

F(w, λ, σ) = F0(w) +σ 0 λ−y .

L’idée essentielle de notre algorithme est d’appliquer au système (3.1.2) des itérations de type Newton au cours de lesquelles les suites {σk} et {λk} sont mises à jour. Étant donné σk > 0 et une estimation wk, de nouvelles valeurs σk+ > 0 et λk+1 sont choisies par l’algorithme suivant le progrès réalisé par l’itéré actuel vers la faisabilité primale. Le nouvel itéré de Newton wk+ := (x+k, yk+) est ensuite donné par la solution du système linéaire primal-dual Hk ∇g(xk) ∇g(xk)> −σ+kI x+k −xk y+k −yk =− ∇xL(wk) g(xk) +σk+k+1−yk) ,

où Hk est la matrice hessienne du lagrangien ou son approximation et I est la matrice identité. En utilisant la définition de F0 dans (1.3.4), ce système linéaire s’écrit sous la forme J(wk, σk+)(w+k −wk) = −F0(wk)−σk+ 0 λk+1−yk . (3.1.3)

Si, à une itération k, nous choisissons λk+1 = yk, alors le second membre du système linéaire (3.1.3) est exactement−F0(wk). Notons ici que σ+k apparaît dans la matrice et le second membre du système linéaire (3.1.3) contrairement à la méthode proposée dans le chapitre précédent. Ceci est indispensable pour montrer la convergence quadratique de notre algorithme.

Si la norme du résidu F(w+k, λk+1, σk+) est estimée suffisamment petite, alors nous faisons wk+1 =w+k etσk+1k+. Sinon, une suite d’itérations internes est appliquée afin de trouver une paire (wk+1, σk+1) satisfaisant la condition

kF(wk+1, λk+1, σk+1)k ≤εk,

pour une tolérance εk>0. Un choix deεk similaire à celui proposé dans le chapitre 2est utilisé. Pour garantir la convergence globale de ces itérations, une technique de recherche linéaire basée sur une fonction de mérite primale-duale est utilisée. Au cours de ces itérations, l’estimation du multiplicateur de Lagrange λk+1 est maintenue fixe alors que le paramètre de pénalisation σk+1 est autorisé à augmenter.

Le reste de ce chapitre est organisé comme suit. La section suivante est consacrée à la description du nouvel algorithme. L’analyse de convergence globale des itérations internes et externes est donnée dans la section 3.3. Dans la section 3.4, nous étudions le comportement asymptotique de la suite générée par l’algorithme global et nous donnons les conditions sous lesquelles le taux de convergence est quadratique. Nous terminons ce chapitre par la présentation des résultats numériques de notre implémentation pour la même collection de problèmes utilisée dans le chapitre 2. Ces résultats incluent une comparaison de la méthode développée dans ce chapitre avec celle du chapitre 2 et une deuxième comparaison avec deux autres codes basés sur la méthode de lagrangien aug-menté : ALGENCAN [4, 5] et LANCELOT-A [40].

3.2 Description de l’algorithme

Comme celui présenté dans le chapitre2, l’algorithme proposé dans ce chapitre utilise deux types d’itérations. Au cours des itérations externes, le paramètre de pénalisation et l’estimation du multiplicateur de Lagrange sont mis à jour, un pas d’extrapolation est calculé et la convergence globale de l’algorithme est testée. Une suite d’itérations internes est appliquée lorsque la décroissance de la norme du résidu kF(w, λ, σ)k est jugée insuffisante.

3.2.1 Itération externe

Nous décrivons maintenant la k-ème itération de notre algorithme d’itérations ex-ternes, spécifié comme Algorithme 3.1, pour résoudre (PE). L’algorithme est initialisé

avec un point de départ w0 = (x0, y0), un paramètre initial σ0, une estimation initiale du multiplicateur de Lagrange λ0 = y0 et trois constantes a, ρ ∈]0,1[ et ` ∈ N. L’indice d’itérations est initialisé à k = 0 et un indice ik est initialement fixé a 0.

Algorithme 3.1 Itération externe

1. Choisir ζk ≥0et rk >0 tels que {ζk} →0 et{rk} →0. Faire ηk=kg(xk)k+ζk. Si

kg(xk)k ≤amax

ηij : (k−`)+ ≤j ≤k , (3.2.1) alors aller à l’étape 2. Sinon, aller à l’étape 3.

2. Mettre à jour l’estimation du multiplicateur de Lagrange et éventuellement réduire le paramètre de pénalisation. Faire

σ+k ≤σk, sk = max{σk+, rk}, λk+1 =yk et ik+1 =k

et aller à l’étape 4.

3. Réduire suffisamment le paramètre de pénalisation. Faire

σk+ ≤min{ρσk, rk}, sk=rk, λk+1k et ik+1 =ik.

4. Choisir une matrice Hk telle que In(J(wk, σk+)) = (n, m,0).

5. Calculer l’itéré de Newton w+k en résolvant le système linéaire

J(wk, σk+)(w+k −wk) =−F(wk, λk+1, σk+). (3.2.2)

6. Choisir εk>0 tel que {εk} →0. Si

kF(wk+, λk+1, σk+)k ≤εk, (3.2.3) alors faire wk+1 =w+k et σk+1k+. Sinon, choisir un point initial w0

k et appliquer une suite d’itérations internes avec une estimation du multiplicateur de Lagrange

λk+1 qui est fixée pour identifier wk+1 et σk+1 ∈[σk+, sk] tels que

kF(wk+1, λk+1, σk+1)k ≤εk. (3.2.4)

Les règles de mise à jour des paramètresσk+etλk+1 sont ajoutées aux étapes2et3de l’algorithme3.1. L’exécution de chaque étape dépend du progrès réalisé par l’itéré actuel vers la faisabilité primale. Ce progrès est mesuré par l’inégalité (3.2.1). Si cette dernière est satisfaite, alors l’itéré courantxk a réalisé un progrès suffisant vers la faisabilité primale. Dans ce cas, l’estimation du multiplicateur de Lagrangeλk+1est mise à jour avec la valeur

yk. Cette règle de mise à jour implique que la direction de Newton w+k −wk, calculée à l’étape 5 de l’algorithme 3.1, vérifie l’équation

Hk ∇g(xk) ∇g(xk)> −σk+I x+k −xk y+k −yk =− ∇xL(wk) g(xk) , (3.2.5)

ce qui correspond au système linéaire obtenu en appliquant une méthode de Newton régularisée aux conditions d’optimalité du problème (PE). Dans ce système, le paramètre

σk+ joue le rôle d’un terme de régularisation. En effet, lorsque la matrice jacobienne des contraintes n’est pas de plein rang, la matrice

Hk ∇g(xk)

∇g(xk)> 0

,

obtenue en linéarisant les conditions d’optimalité du problème (PE), est singulière. Reve-nons maintenant au deuxième cas de la mise à jour de σk+ et λk+1. Lorsque la condition (3.2.1) n’est pas satisfaite, l’estimation du multiplicateur de Lagrange reste constante et le paramètre de pénalisation est diminué. Pour tout k ≥1,ik correspond à l’indice de la dernière itération au cours de laquelle l’instructionλk+1 =yk a été exécutée. En particu-lier, nous avonsλk =yik pour tout indicek ∈N. La suite{ik}joue un rôle très important dans l’analyse de convergence globale (Lemme 3.3.1et Théorème 3.3.2) et asymptotique (Lemme 3.4.1) de la méthode proposée.

En ce qui concerne la mise à jour du paramètre de pénalisation, deux stratégies sont implicitement incluses dans la description de notre algorithme. La première est de réduire le paramètre de pénalisation à chaque itération afin que la suite {σk} converge vers zéro, une condition nécessaire pour obtenir un taux de convergence quadratique de l’algorithme. Puisque le paramètre de pénalisation est autorisé à augmenter au cours des itérations internes, les suites {sk} et {rk} sont utilisées pour forcer la convergence de {σk} vers zéro. La deuxième stratégie consiste à garder le paramètre de pénalisation constant à l’étape 2, comme dans les méthodes de lagrangien augmenté classiques. En effet, si on choisit σk+k à l’étape 2 et si l’étape 3 n’est exécutée qu’un nombre fini de fois, alors on a skk+ pour tout k suffisamment grand et par conséquent l’étape 5 implique que

σk+1kpour toutksuffisamment grand. Dans ce cas, seulement un taux de convergence au plus linéaire est attendu. Notons que la convergence globale de l’algorithme 3.1 est garantie, quel que soit la stratégie utilisée pour choisir le paramètre de pénalisation. Le lemme suivant joue un rôle très important pour démontrer la convergence globale.

Lemme 3.2.1. Si l’étape 3 de l’algorithme 3.1 est exécutée une infinité de fois, alors la suite {σk} converge vers zéro.

Preuve. Soit K = {k0, k1, k2, . . .} l’ensemble des indices des itérations au cours de les-quelles l’étape3est exécutée. Soiti∈N. Les choix desk à l’étape3et deσk+1 à l’étape6

impliquent que σki+1 ≤rki. Les choix de sk à l’étape 2 et σk+1 à l’étape 6 et le fait que

σk+≤σk impliquent que pour tout 1≤j ≤ki+1−ki−1, on a

σki+j+1 ≤ max{σki+j, rki+j}

≤ max{σki+1, rki+1, . . . , rki+j} ≤ max{rki, rki+1, . . . , rki+j}.

Ceci implique que

max{σk+1 :ki ≤k < ki+1} ≤max{rk :ki ≤k < ki+1}.

La convergence de la suite{rk}vers zéro implique que le membre droit de cette inégalité converge vers zéro lorsqueitend vers l’infini et par conséquent toute la suite{σk}converge vers zero.

Documents relatifs