• Aucun résultat trouvé

Approches locales et globales basées sur la programmation DC et DCA pour des problèmes combinatoires en variables mixtes 0-1 : applications à la planification opérationnelle

N/A
N/A
Protected

Academic year: 2021

Partager "Approches locales et globales basées sur la programmation DC et DCA pour des problèmes combinatoires en variables mixtes 0-1 : applications à la planification opérationnelle"

Copied!
147
0
0

Texte intégral

(1)

HAL Id: tel-01748854

https://hal.univ-lorraine.fr/tel-01748854

Submitted on 29 Mar 2018

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Approches locales et globales basées sur la programmation DC et DCA pour des problèmes combinatoires en variables mixtes 0-1 : applications à la

planification opérationnelle

Thuan Nguyen Quang

To cite this version:

Thuan Nguyen Quang. Approches locales et globales basées sur la programmation DC et DCA pour des problèmes combinatoires en variables mixtes 0-1 : applications à la planification opérationnelle. Autre [cs.OH]. Université Paul Verlaine - Metz, 2010. Français. �NNT : 2010METZ037S�. �tel-01748854�

(2)

AVERTISSEMENT

Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie.

Il est soumis à la propriété intellectuelle de l'auteur. Ceci implique une obligation de citation et de référencement lors de l’utilisation de ce document.

D'autre part, toute contrefaçon, plagiat, reproduction illicite encourt une poursuite pénale.

Contact : ddoc-theses-contact@univ-lorraine.fr

LIENS

Code de la Propriété Intellectuelle. articles L 122. 4

Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/V2/leg/leg_droi.php

http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm

(3)

TH` ESE

en vue de l’obtention du titre de

DOCTEUR DE L’UNIVESIT ´ E DE PAUL VERLAINE-METZ

(arrˆ et´ e minist´ eriel du 30 October 1993) Sp´ ecialit´ e Informatique

pr´ esent´ ee par

NGUYEN QUANG THUAN

Titre de la th` ese :

Approches locales et globales bas´ ees sur la programmation DC et DCA pour des probl` emes

combinatoires en variables mixtes 0-1.

Applications ` a la planification op´ erationnelle.

Date de soutenance : le 10 Novembre 2010 Composition du Jury :

Pr´ esident PHAM DINH Tao Professeur, INSA-Rouen Rapporteurs Mohamed DIDI BIHA Professeur, Universit´ e de Caen

Philippe MICHELON Professeur, Universit´ e d’Avignon et des Pays de Vaucluse

Examinateurs Jean-Marie PROTH Directeur de Recherche, INRIA Nancy-Grand Est El-Houssaine AGHEZZAF Professeur, Universit´ e de Ghent, Belgique

Directeur de th` ese LE THI Hoai An Professeur, Universit´ e de Paul Verlaine-Metz

Th` ese pr´ epar´ ee au sein de laboratoire d’Informatique Th´ eorique et Appliqu´ ee (LITA)

Universit´ e de Paul Verlaine-Metz

(4)
(5)

Remerciements

La pr´ eparation de cette th` ese, sous la direction de Madame le Professeur LE THI Hoai An, a ´ et´ e faite au sein du laboratoire LITA de l’universit´ e Paul Verlaine-Metz.

Je voudrais exprimer mon endettement ` a Madame le Professeur LE THI Hoai An, qui a accept´ e d’ˆ etre ma directrice de th` ese, pour son aide inestimable, les conseils pertinents et formateurs, les encouragements qu’elle m’a donn´ es. Je lui adresse toute ma gratitude pour la confiance et le soutien dont elle m’a t´ emoign´ e.

Je tiens ` a remercier particuli` erement Monsieur le Professeur PHAM DINH Tao, l’´ equipe Mod´ elisation et Optimisation Appliqu´ ee de l’INSA de Rouen pour ses conseils, sa sympa- thie et les discussions tr` es int´ eressantes qu’il a men´ ees pour me sugg´ erer les voies de recherche.

Je souhaite ´ egalement exprimer ma gratitude ` a Monsieur le Professeur Philippe MICHELON de l’Universit´ e d’Avignon et des Pays de Vaucluse et ` a Monsieur le Professeur Mohamed DIDI BIHA de l’universit´ e de Caen d’avoir accept´ e la charge de rapporteur de ma th` ese, et d’avoir jug´ e mon travail.

Je tiens aussi ` a remercier Monsieur Jean-Marie PROTH, le Directeur de Recherche de IN- RIA Nancy-Grand Est, ` a Monsieur El-Houssaine AGHEZZAF, Professeur de l’Universit´ e de Ghent, Belgique pour leur disponibilit´ e et pour avoir accept´ e de faire parti de ce jury.

Je n’oublie pas de remercier toute l’´ equipe du personnel de l’Institut Polytechnique d’Hano¨ı de m’avoir apport´ e de soutien. Je tiens ` a remercier particuli` erement Madame Professeur NGUYEN Thi Bach Kim pour sa soutien, sa confiance et son encouragement.

Je me permets ´ egalement de remercier la R´ egion Lorraine et le Laboratoire LITA de l’Uni- versit´ e de Paul Verlaine-Metz pour l’aide financi` ere qu’ils m’ont attribu´ ee.

Je t´ emoigne toute mon affectation et reconnaissance ` a ma famille pour les sacrifices qu’elle a faites pour me soutenir lors des moments difficiles.

Je remercie tous mes coll` egues fran¸cais et vietnamiens rencontr´ es ` a Metz pour les moments

agr´ eables lors de mon s´ ejour en France. Enfin je remercie tous ceux qui m’ont aid´ e de pr` es

ou de loin et tous ceux qui m’ont motiv´ e mˆ eme inconsciemment.

(6)
(7)

Table des mati` eres

I Outils de base 15

1 Introduction ` a la programmation DC et DCA 17

1.1 El´ ´ ements de base de l’analyse DC . . . . 18

1.1.1 Notations et propri´ et´ es . . . . 18

1.1.2 Fonctions convexes poly´ edrales . . . . 20

1.1.3 Fonctions DC . . . . 21

1.2 Optimisation DC . . . . 22

1.2.1 Dualit´ e DC . . . . 23

1.2.2 Optimalit´ e globale en optimisation DC . . . . 24

1.2.3 Optimalit´ e locale en optimisation DC . . . . 25

1.3 DCA . . . . 27

1.3.1 Principle de DCA . . . . 27

1.3.2 Existence des suites g´ en´ er´ ees . . . . 28

1.3.3 Calcul des sous-gradients . . . . 29

1.3.4 Optimisation DC poly´ edrale . . . . 30

1.3.5 Interpr´ etations de DCA . . . . 31

2 M´ ethode par S´ eparation et Evaluation (SE) 33 2.1 M´ ethode de r´ esolution et convergence . . . . 34

2.2 R´ ealisation . . . . 37

2.2.1 Strat´ egie de division . . . . 37

2.2.2 R` egle de s´ election . . . . 38

2.2.3 Estimation de borne . . . . 38

1

(8)

2 Table des mati` eres

2.3 B&B pour PLM01 . . . . 39

3 M´ ethode d’Approximation Ext´ erieure (AE) 43 3.1 Principe de AE . . . . 43

3.2 Convergence de AE . . . . 44

3.2.1 Approximation poly´ edrale . . . . 44

3.2.2 G´ en´ eralisation . . . . 45

3.3 Coupes pour la programmation lin´ eaire en variables mixtes . . . . 46

3.3.1 Coupe mixte de Gomory . . . . 46

3.3.2 Coupe MIR . . . . 47

II La Programmation Lin´ eaire en variables mixtes 0-1 et ses applications aux r´ eseaux de t´ el´ ecommunication et ` a l’ordonnan- cement 49 4 DCA et M´ ethodes globales bas´ ees sur DCA pour la programmation lin´ eaire en variables mixtes 0-1 51 4.1 DCA pour la r´ esolution de PLM01 . . . . 51

4.1.1 Reformulation . . . . 51

4.1.2 DCA appliqu´ e au probl` eme p´ enalis´ e de PLM01 . . . . 53

4.2 DCACUT am´ elior´ e . . . . 54

4.2.1 Une in´ egalit´ e valide . . . . 54

4.2.2 Construction d’une coupe ` a partir d’une solution non r´ ealisable . . . 58

4.3 Algorithme DCACUT am´ elior´ e . . . . 60

4.3.1 Id´ ee de base l’algorithme DCACUT . . . . 60

4.3.2 Description de l’algorithme DCACUT . . . . 62

4.4 B&B combin´ ee avec DCA . . . . 66

4.5 Branch and Cut combin´ ee avec DCA . . . . 67

4.6 Exp´ eriences num´ eriques . . . . 69

4.6.1 Comparaison entre les algorithmes de AE . . . . 69

4.6.2 Comparaison entre les algorithmes de AE et les algorithmes du type

de B&B . . . . 71

(9)

3 Table des mati` eres

4.6.3 Comparaison entre les algorithmes du type de s´ eparation et ´ evaluation 71

4.7 Conclusion . . . . 73

5 Optimisation inter-couches dans les r´ eseaux de t´ el´ ecommunication 77 5.1 Introduction . . . . 77

5.2 Description du syst` eme . . . . 78

5.3 Maximisation de la dur´ ee de vie du r´ eseau . . . . 80

5.3.1 Formulation math´ ematique . . . . 80

5.3.2 Exp´ eriences num´ eriques . . . . 81

5.4 Minimisation de la consommation d’´ energie . . . . 84

5.4.1 Formulation math´ ematique . . . . 84

5.4.2 Exp´ eriences num´ eriques . . . . 86

5.5 Conclusion . . . . 88

6 Ordonnancement 89 6.1 Introduction au probl` eme d’ordonnancement . . . . 89

6.2 Probl` eme d’ordonnancement d’avance-retard avec variables index´ ees sur le temps . . . . 90

6.2.1 Description du probl` eme . . . . 90

6.2.2 Exp´ eriences num´ eriques . . . . 91

6.3 Probl` eme d’ordonnancement d’avance-retard avec une date d’´ ech´ eance commune 92 6.3.1 Description du probl` eme . . . . 92

6.3.2 Exp´ eriences num´ eriques . . . . 98

6.4 Conclusion . . . . 99

III La programmation DC en variables mixtes 0-1 et ses ap- plications aux probl` emes d’affectation des tˆ aches aux v´ ehicules a´ eriens non pilot´ es

et des tourn´ ees de v´ ehicules

dans une chaˆıne d’approvisionnement 101

* Algorithme g´ en´ eral 103

(10)

4 Table des mati` eres

7 Probl` eme d’affectation des tˆ aches aux v´ ehicules a´ eriens non - pilot´ es 107

7.1 Introduction . . . . 107

7.2 Description du probl` eme . . . . 108

7.3 M´ ethode de r´ esolution . . . . 109

7.4 Exp´ eriences num´ eriques . . . . 112

7.5 Conclusion . . . . 113

8 Probl` eme des tourn´ ees de v´ ehicules dans une chaˆıne d’approvisionnement119 8.1 Introduction . . . . 119

8.2 Description du probl` eme . . . . 120

8.3 M´ ethode de r´ esolution . . . . 121

8.4 Calculer une borne inf´ erieure . . . . 124

8.5 Exp´ eriences num´ eriques . . . . 126

8.6 Conclusion . . . . 127

(11)

Table des figures

4.1 Proc´ edure P . . . . 61 4.2 Sch´ ema de DCACUT . . . . 65 5.1 R´ esultats comparatifs entre la valeur obtenue par DCA et la valeur optimale 87 6.1 R´ esultats comparatifs entre DCA et CPLEX . . . . 96

5

(12)

6 Table des figures

(13)

Liste des tableaux

4.1 R´ esultats comparatifs entre les algorithmes de AE . . . . 70

4.2 R´ esultats comparatifs entre les algorithmes de AE et les algorithmes du type B&B . . . . 72

4.3 R´ esultats comparatifs entre les algorithmes BB, BBDCA, BCDCAsP et BCD- CAaP pour les Benchmarks . . . . 74

4.4 BnCDCAsP et BnCDCAaP pour les Benchmarks . . . . 75

5.1 R´ esultats comparatifs entre les algorithmes pour le probl` eme TDMA . . . . 83

5.2 R´ esultats utilisant BBDCA pour quelques r´ eseaux sp´ eciaux . . . . 84

5.3 Coordonn´ ees de noeuds . . . . 86

5.4 R´ esultats de l’Algorithme 5.1 . . . . 87

6.1 Comparaison entre DCA et CPLEX avec m = 1 . . . . 93

6.2 Comparaison entre DCA et CPLEX avec m = 2 . . . . 94

6.3 Comparaison entre DCA et CPLEX avec m = 3 . . . . 95

6.4 R´ esultats comparatifs entre les algorithmes pour le probl` eme d’ordonnancement100 7.1 R´ esultats comparatifs avec m = 10 et n = 10 . . . . 114

7.2 R´ esultats comparatifs avec m = 20 et n = 10 . . . . 115

7.3 R´ esultats comparatifs avec m = 30 et n = 10 . . . . 116

8.1 R´ esultats avec n = 10 et K = 100. . . . 126

8.2 R´ esultats avec n = 20 et K = 200. . . . 127

8.3 R´ esultats avec n = 30 et K = 300. . . . 127

7

(14)

8 Liste des tableaux

(15)

Liste des Publications et Conf´ erences

NGUYEN QUANG THUAN

Article avec comit´ e de lecture

• Le Thi Hoai An, Nguyen Quang Thuan , A Robust Approach for Nonlinear UAV Task Assignment Problem under Uncertainty. To appear in : Transactions on Computational Collective Intelligence, LNCS, Springer Pub.

• Le Thi Hoai An, Nguyen Quang Thuan, Nguyen Huynh Tuong and Pham Dinh Tao , Solving the earliness tardiness scheduling problem by DC programming and DCA. Math. Balkanica (N.S.) 23 (2009), no. 3-4, pp. 271-288.

• Le Thi Hoai An, Nguyen Quang Thuan, Nguyen Huynh Tuong and Pham Dinh Tao , A time-indexed formulation of earliness tardiness scheduling via DC programming and DCA, IEEE Proceeding of the international Multi-conference on Computer Science and Information Technology, Mragowo, Poland, October 2009- ISBN978-83-60810-22-4, IEEE Catalog Number CFP0964E, pp.779-784.

• Le Thi Hoai An, Nguyen Quang Thuan, Phan Tran Khoa and Pham Dinh Tao , Cross-layer Optimization in Multi-hop TDMA Networks using DCA, IEEE Proceedings of the 17th international conference on computer communications and networks (ICCCN08), St Thomas, U.S. Virgin Islands, August 3 - 7, ISBN978-1-4244- 2390-3/08/ c 2008 IEEE (6 pages).

• Le Thi Hoai An, Nguyen Quang Thuan, Phan Tran Khoa and Pham Dinh Tao , Energy Minimization-based Cross-layer Design in Wireless Networks, IEEE Proceedings of the 2008 High Performance Computing & Simulation Conference (HPCS 2008) Nicosia, Cyprus, June 3 - 6, 2008, pp. 283-289.

• Nguyen Quang Thuan, Le Thi Hoai An , Solving an inventory routing problem in supply chain by DC programming and DCA. Submitted to LNCS, 2010

9

(16)

10 Liste des tableaux

Article en cours de pr´ eparation

• Le Thi Hoai An, Nguyen Quang Thuan , An efficient approach for an inventory routing problem.

• Le Thi Hoai An, Nguyen Quang Thuan , Cross-layer optimization via DCA program- ming and DCA.

Communications aux colloques internationaux avec actes publi´ es

• Le Thi Hoai An, Nguyen Quang Thuan, Nguyen Huynh Tuong and Pham Dinh Tao , A new approach to solve Just-in-Time Scheduling Problem, the 4th International Conference on High Performance Scientific Computing, Hanoi, Vietnam, March, 3-6, 2009

• Le Thi Hoai An, Nguyen Quang Thuan , A Robust Approach for Solving Nonlinear

Task Assignment Problem under Uncertainty, Workshop on Optimization and Learning :

Theory, Algorithms and Applications, Metz June 17-18, 2010

(17)

Introduction

Nous nous int´ eressons dans cette th` ese ` a la programmation lin´ eaire et/ou nonlin´ eaire en va- riables pures/mixtes 0-1. De nombreux probl` emes de la vie courante sont mod´ elis´ es sous ces formes. C’est un mod` ele fondamental en Aide ` a la D´ ecision o` u les variables 0 - 1 sont appel´ ees variables de d´ ecision, et une solution optimale correspond ` a une d´ ecision optimale pour la situation consid´ er´ ee. Il est connu que ce probl` eme est NP - difficile. Trouver une m´ ethode efficace pour sa r´ esolution est un grand d´ efi en Optimisation et Recherche Op´ erationnelle.

Pour simplifier la pr´ esentation, nous consid´ erons dans ce qui suit la programmation en va- riables mixtes 0 - 1, sachant que le cas des variables ”pures” 0 - 1 est un cas particulier du premier.

La programmation en variables mixtes 0-1 appartient ` a la classe de la programmation non convexe pour laquelle on a deux types d’approches diff´ erentes mais compl´ ementaires : i. Les approches globales combinatoires qui sont bas´ ees sur les techniques combinatoires de

la Recherche Op´ erationnelle. Elles consistent ` a localiser les solutions optimales ` a l’aide des m´ ethodes d’approximation, des techniques de coupe, des m´ ethodes de d´ ecomposition, de s´ eparation et ´ evaluation. Elles ont connu de tr` es nombreux d´ eveloppements importants au cours de ces derni` eres ann´ ees ` a travers les travaux de H. Tuy (reconnu comme le pionnier) ([18]), R. Horst, P. Pardalos et N. V. Thoai ([27, 29]),... L’inconv´ enient majeur des m´ ethodes globales est leur lourdeur (encombrement en places m´ emoires) et leur coˆ ut trop important. Par cons´ equent, elles ne sont pas applicables aux probl` emes d’optimisation non convexes r´ eels qui sont souvent de tr` es grande dimension.

ii. Les approches locales et globales d’analyse convexe qui sont bas´ ees sur l’analyse et l’op- timisation convexe. Ici la programmation DC (Diff´ erence de deux fonctions Convexes) et DCA (DC Algorithmes) jouent le rˆ ole central car la plupart des probl` emes d’optimisation non convexe sont formul´ es/reformul´ es sous la forme DC. Sur le plan algorithmique, l’es- sentiel repose sur les algorithmes de l’optimisation DC (DCA) introduits par Pham Dinh Tao en 1985 et d´ evelopp´ es intensivement ` a travers de nombreux travaux communs de Le Thi Hoai An et Pham Dinh Tao depuis 1993 pour devenir maintenant classiques et de plus en plus utilis´ es par des chercheurs et praticiens de par le monde, dans diff´ erents domaines des sciences appliqu´ ees (voir [36]-[69] et [82]-[87]).

Les travaux de cette th` ese se situent tous dans ces deux approches : globales et DCA. Ils concernent les deux cat´ egories de la programmation en variables mixtes 0-1 : la fonction ob-

11

(18)

12 Introduction

jectif est lin´ eaire et/ou non lin´ eaire. Bien que la programmation en variables mixtes 0-1 soit un probl` eme d’optimisation combinatoire, notre m´ ethodologie est bas´ ee sur les outils d’opti- misation continue dont l’´ epine dorsale est la programmation DC et DCA. Cette d´ emarche est motiv´ ee par la robustesse et la performance de la programmation DC et DCA compar´ ee ` a des m´ ethodes existantes, leur adaptation aux structures des probl` emes trait´ es et leur capacit´ e

`

a r´ esoudre des probl` emes industriels de tr` es grande dimension. A notre connaissance, DCA est actuellement parmi les rares algorithmes de la programmation non convexe capables de traiter des probl` emes (diff´ erentiables ou non) de tr` es grande dimension [39, 48, 49, 51, 57].

Nos contributions.

A l’aide des techniques de p´ enalit´ e exacte nous reformulons la programmation en variables mixtes 0-1 en terme d’un probl` eme d’optimisation continue qui est en fait une programmation DC. D` es lors, DCA est applicable. Pour r´ esoudre globalement la Programmation Lin´ eaire en variables Mixtes 0-1 - une large classe de probl` emes importants en Aide ` a la D´ ecision - nous proposons diff´ erentes m´ ethodes globales de type S´ eparation et Evaluation (SE) et/ou Approximation de l’Ext´ erieur (AE) bas´ ees sur DCA. La combinaison de DCA et de ces m´ ethodes globales a pour multiple objectifs :

- de trouver une bonne solution r´ ealisable du probl` eme original via DCA et de r´ eduire ainsi l’´ ecart entre la borne inf´ erieure et la borne sup´ erieure de la valeur optimale ;

- de trouver un bon point initial pour DCA, grˆ ace ` a la r´ esolution du probl` eme relax´ e ` a l’´ etape courante ;

- de d´ eterminer une coupe ` a partir d’une solution fournie par DCA dans les algorithmes de type DCA-AE ;

- de prouver la globalit´ e d’une solution obtenue par DCA grˆ ace ` a la r´ eduction du gap (l’´ ecart entre la borne inf´ erieure et la borne sup´ erieure) dans les m´ ethodes globales.

Pour la Programmation Lin´ eaire en variables Mixtes 0-1 (appel´ ee PLM01 dans cette th` ese), Nguyen et al [47, 78] ont introduit une combinaison de AE et DCA, appel´ ee DCACUT. Ces auteurs ont propos´ e une nouvelle coupe bas´ ee sur un minimum local d’une fonction p´ enalit´ e et d´ evelopp´ e une m´ ethode de coupe utilisant DCA appliqu´ e au probl` eme p´ enalis´ e. Cette m´ ethode est tr` es efficace dans le cas o` u la solution fournie par ce DCA est un minimum local de la fonction p´ enalit´ e [44, 45, 46, 75], car on peut introduire une ”bonne” coupe dans un tel cas. Cependant elle n’est pas applicable dans le cas contraire, i.e, quand la solution obtenue par DCA n’est pas un minimum local de la fonction p´ enalit´ e. Dans cette th` ese, ´ etant particuli` erement int´ eress´ es par cette derni` ere situation, nous avons am´ elior´ e DCACUT pour qu’elle s’applique dans tous les cas.

En plus de DCACUT, nous proposons diff´ erentes combinaisons de DCA avec les approches globales : M´ ethode de coupes de Gomory, S´ eparation et Evaluation (SE) ou Branch and Bound (B&B) en Anglais, et Branch and Cut. Une ´ etude algorithmique comparative sur les

”Benchmark problems” est ainsi r´ ealis´ ee. Il s’agit de la comparaison entre

- les algorithmes d’AE : DCACUT, M´ ethode de coupe mixte de Gomory,

- les algorithmes d’AE et les algorithmes de type B&B,

(19)

13 Introduction

- les algorithmes de type B&B comme B&B classique, B&B combin´ e avec DCA (not´ e BBDCA), et Branch-and-Cut.

Sur le plan des applications, nous nous sommes int´ eress´ es aux deux domaines suivants : - R´ eseaux de t´ el´ ecommunication sans fil : nous consid´ erons deux probl` emes fondamentaux en

optimisation inter-couches pour les r´ eseaux sans fil dont l’un a pour objectif de maximiser la dur´ ee de vie d’un r´ eseau et l’autre cherche ` a minimiser la consommation d’´ energie.

- Ordonnancement : un probl` eme d’ordonnancement consiste ` a organiser dans le temps la r´ ealisation de tˆ aches, compte tenu de contraintes temporelles (d´ elais, contraintes d’en- chaˆınement, etc.) et de contraintes portant sur la disponibilit´ e des ressources requises.

Un ordonnancement est d´ efini par le planning d’ex´ ecution des tˆ aches et d’allocation des ressources et vise ` a satisfaire un ou plusieurs objectifs. Nous traitons deux probl` emes d’or- donnancement dont l’un a pour objectif de minimiser la p´ enalit´ e d’avance et la p´ enalit´ e de retard, et l’autre cherche ` a minimiser la p´ enalit´ e d’avance-retard et la p´ enalit´ e sur la date d’´ ech´ eance.

Pour la programmation non lin´ eaire en variables mixtes 0-1, nous ´ etudions une large classe des probl` emes souvent rencontr´ es en pratique : la fonction objectif est DC. Utilisant un r´ esultat introduit tr` es r´ ecemment dans [64] nous transformons le probl` eme original en une programmation DC et d´ eveloppons ensuite DCA pour sa r´ esolution.

Deux applications sont consid´ er´ ees :

- Affectation des tˆ aches aux v´ ehicules a´ eriens non-pilot´ es (UAV) : l’utilisation des UAVs pour les diff´ erentes missions militaires attire de plus en plus l’attention. Nous cherchons ` a affecter un ensemble de UAVs ` a un ensemble de tˆ aches de mani` ere optimale. L’efficacit´ e est bas´ ee sur les scores de cibles. La mission est de maximiser les scores de cibles tout en respectant des contraintes de capacit´ e des UAV et des tˆ aches. Nous d´ eveloppons un sch´ ema DCA et un algorithme combin´ e DCA et B&B pour r´ esoudre ce probl` eme.

- Tourn´ ees de v´ ehicules dans une chaˆıne d’approvisionnement : il s’agit d’affecter des v´ ehicules

`

a partir d’un d´ epˆ ot central aux points de vente et de d´ eterminer ses cycles pour minimi- ser le coˆ ut de transport, le coˆ ut de stockage, le coˆ ut de traitement... C’est un probl` eme important et tr` es difficile ` a cause de la forme complexe de la fonction objectif, en plus des variables binaires. Nous proposons un sch´ ema DCA pour sa r´ esolution num´ erique.

Organisation de la th` ese.

La th` ese est divis´ ee en trois parties et est compos´ ee de 8 chapitres.

i. Dans la premi` ere partie intitul´ ee ”Outils de base” nous pr´ esentons des outils th´ eoriques et algorithmiques servant des r´ ef´ erences aux autres parties. Apr` es une pr´ esentation compl` ete de la programmation DC et DCA dans le Chapitre 1, nous explorerons la technique de S´ eparation et Evaluation dans le Chapitre 2. Le Chapitre 3 est d´ edi´ e ` a la pr´ esentation de la m´ ethode de AE.

ii. La seconde partie concerne la programmation lin´ eaire en variables mixtes 0-1 (PLM01).

Elle est compos´ ee de trois chapitres. Le Chapitre 4 est consacr´ e aux m´ ethodes num´ eriques

(20)

14 Introduction

pour PLM01 : apr` es la pr´ esentation de l’algorithme DCACUT am´ elior´ e, nous proposons diff´ erentes m´ ethodes globales bas´ ees sur DCA et les exp´ eriences num´ eriques comparatives pour ces m´ ethodes. Les deux applications (les r´ eseaux de t´ el´ ecommunication et l’ordon- nancement) sont pr´ esent´ ees, respectivement, dans le Chapitre 5 et le Chapitre 6.

iii. La troisi` eme partie est consacr´ ee ` a la programmation non lin´ eaire en variables mixtes

0-1 et sa mise en oeuvre pour la r´ esolution de deux probl` emes concrets. Le Chapitre 7

porte sur l’affectation des tˆ aches aux v´ ehicules a´ eriens non-pilot´ es alors que le Chapitre 8

concerne le probl` eme des tourn´ ees de v´ ehicules dans une chaˆıne d’approvisionnement.

(21)

Premi` ere partie Outils de base

15

(22)
(23)

Chapitre 1

Introduction ` a la programmation DC et DCA

esum´e

Nous reportons dans ce chapitre les principaux r´ esultats relatifs ` a la programmation DC et DCA qui nous seront les plus utiles dans la suite.

Le cadre des programmes convexes s’est av´ er´ e trop ´ etroit, et ` a la notion de fonction convexe a succ´ ed´ e avec bonheur celle, plus g´ en´ erale, de fonction DC (diff´ erence de fonctions convexes).

Les fonctions DC poss` edent de nombreuses propri´ et´ es importantes qui ont ´ et´ e ´ etablies ` a partir des ann´ ees 50 par Alexandroff (1949), Landis (1951) et Hartman (1959). Une des principales propri´ et´ es est leur stabilit´ e relativement aux op´ erations fr´ equemment utilis´ ees en optimisation. Cependant, il faut attendre le milieu des ann´ ees 80 pour que la classe des fonctions DC soit introduite en optimisation, ´ elargissant ainsi les classes de probl` emes d’op- timisation avec l’apparition de la programmation DC. On distingue deux grandes approches DC :

1. L’approche combinatoire (cette terminologie est due au fait que les nouveaux outils in- troduits ont ´ et´ e inspir´ es par les concepts de l’optimisation combinatoire) en optimisation globale continue, et

2. L’approche de l’analyse convexe en optimisation non convexe.

Les algorithmes de l’approche combinatoire utilisent les techniques de l’optimisation glo- bale (m´ ethode de s´ eparation et d’´ evaluation, technique de coupe, m´ ethodes d’approximation fonctionnelle et ensembliste) ; ces algorithmes relativement sophistiqu´ es sont plutˆ ot lourds ` a mettre en oeuvre ; ils doivent donc ˆ etre r´ eserv´ es ` a des probl` emes de dimension raisonnable poss´ edant des structures bien adapt´ ees aux m´ ethodes lorsqu’il est important d’isoler l’opti- mum global.

Le pionnier de cette approche est H. Tuy dont le premier travail remonte ` a 1964. Ses tra- vaux sont abondants, citons les livres de Horst-Tuy ([18, 19]) qui pr´ esentent la th´ eorie, les algorithmes et les applications de l’optimisation globale. Viennent ensuite les principales

17

(24)

18 Introduction ` a la programmation DC et DCA

contributions de l’Ecole Am´ ericaine (P. M. Pardalos, J. B. Rosen,...), Allemande (R. Horst, ...), Fran¸caise (Le Thi Hoai An, Pham Dinh Tao,...) et l’´ Ecole Vietnamienne (Phan Thien Thach, Le Dung Muu, ...).

La seconde approche repose sur l’arsenal puissant d’analyse et d’optimisation convexe. Le premier travail, dˆ u ` a Pham Dinh Tao (1975), concerne le calcul des normes matricielles (probl` eme fondamental en analyse num´ erique) qui est un probl` eme de maximisation d’une fonction convexe sur un convexe. Le travail de Toland (1978) ([105]) sur la dualit´ e et l’op- timalit´ e locale en optimisation DC g´ en´ eralise de mani` ere ´ el´ egante les r´ esultats ´ etablis par Pham en maximisation convexe. La th´ eorie de l’optimisation DC est ensuite d´ evelopp´ ee no- tamment par Pham Dinh Tao, J. B. Hiriart Urruty, Jean - Paul Penot, Phan Thien Thach, Le Thi Hoai An. Sur le plan algorithmique dans le cadre de la seconde approche, on dis- pose actuellement que des DCA (DC Algorithms) introduits par Pham Dinh Tao (1986), qui sont bas´ es sur les conditions d’optimalit´ e et de dualit´ e en optimisation DC. Mais il a fallu attendre les travaux communs de Le Thi Hoai An et Pham Dinh Tao (voir [36]-[69] et [82]-[87]) pour qu’il s’impose d´ efinitivement en optimisation non convexe comme ´ etant un des algorithmes les plus simples et performants, capable de traiter des probl` emes de grande taille.

Nous reportons dans ce chapitre les principaux r´ esultats relatifs ` a la programmation DC et DCA qui nous seront les plus utiles pour nos travaux. Ces r´ esultats sont extraits de ceux pr´ esent´ es dans H. A. Le Thi 1994 ([36]), H. A. Le Thi 1997 ([37]). Pour une ´ etude d´ etaill´ ee nous nous r´ ef´ erons ` a ces deux r´ ef´ erences (voir ´ egalement [36]-[69] et [82]-[87]).

1.1 El´ ´ ements de base de l’analyse DC

1.1.1 Notations et propri´ et´ es

Ce paragraphe est consacr´ e ` a un rapide rappel d’analyse convexe pour faciliter la lecture de certains passages. Pour plus de d´ etails, on pourra se r´ ef´ erer aux ouvrages de P.J Laurent ([33]), de R.T Rockafellar ([93]) et d’A. Auslender ([2]). Dans toute la suite X d´ esigne l’espace euclidien R

n

, muni du produit scalaire usuel not´ e h., .i et de la norme euclidienne associ´ ee kxk = hx, xi

12

et Y l’espace vectoriel dual de X relatif au produit scalaire, que l’on peut identifier ` a X. On note par R = R ∪ {−∞, +∞} muni d’une structure alg´ ebrique d´ eduite de celle de R avec la convention que −∞ − (+∞) = +∞ ([93]). Etant donn´ ee une fonction f : S −→ R d´ efinie sur un ensemble S convexe de X, on appelle domaine effectif de f l’ensemble

dom(f) = {x ∈ S : f (x) < +∞}

et ´ epigraphe de f

epi(f) = {(x, α) ∈ S × R : f(x) < α}.

Si dom(f ) 6= ∅ et f(x) > −∞ pour tout x ∈ S alors la fonction f(x) est dite propre.

(25)

19 1.1. ´ El´ ements de base de l’analyse DC

Une fonction f : S −→ R est dite convexe si son ´ epigraphe est un ensemble convexe de R × X. Ce qui est ´ equivalent de dire que S est un ensemble convexe et pour tout λ ∈ [0, 1]

on a

f ((1 − λ)x

1

+ λx

2

) ≤ (1 − λ)f(x

1

) + λf (x

2

) : ∀x

1

, x

2

∈ S. (1.1) On note alors Co(X) l’ensemble des fonctions convexes sur X.

Dans (1.1) si l’in´ egalit´ e stricte est v´ erifi´ ee pour tout λ ∈]0, 1[ et pour tout x

1

, x

2

∈ S avec x

1

6= x

2

alors f est dite strictement convexe.

On dit que f(x) est fortement convexe sur un ensemble convexe C s’il existe un nombre ρ > 0 tel que

f ((1 − λ)x

1

+ λx

2

) ≤ (1 − λ)f (x

1

) + λf (x

2

) − (1 − λ)λ ρ

2 kx

1

− x

2

k

2

, (1.2) pour tout x

1

, x

2

∈ C, et pour tout λ ∈ [0, 1]. Plus pr´ ecis´ ement f est fortement convexe sur C si

ρ(f, C) = Sup{ρ ≥ 0 : f − ρ

2 k.k

2

est convexe sur C} > 0. (1.3) Il est clair que si ρ(f, C) > 0 alors (1.2) est v´ erifi´ e pour tout λ ∈ [0, ρ(f, C)[. On dit que la borne sup´ erieure est atteinte dans sa d´ efinition (1.3) si f −

ρ(f,C)2

k.k

2

est convexe sur C. Si C ≡ X on notera ρ(f) au lieu de ρ(f, X).

Remarque 1.1 f fortement convexe = ⇒ f strictement convexe = ⇒ f convexe.

Soit une fonction convexe propre f sur X, un ´ el´ ement y

0

∈ Y est dit un sous-gradient de f au point x

0

∈ dom(f ) si

hy

0

, x − x

0

i + f(x

0

) ≤ f(x) ∀x ∈ X.

L’ensemble de tous les sous-gradients de f au point x

0

est dit sous-diff´ erentiel de f au point x

0

et est not´ e par ∂f (x

0

).

Etant donn´ ´ e un nombre positif > 0, un ´ el´ ement y

0

∈ Y est dit -sous-gradient de f au point x

0

si

hy

0

, x − x

0

i + f (x

0

) ≤ f (x) + ∀x ∈ X.

L’ensemble de tous les -sous-gradients de f au point x

0

est dit -sous-diff´ erentiel de f au point x

0

et est not´ e ∂

f (x

0

).

La fonction f : S −→ R est dite semi-continue inf´ erieure (s.c.i) en un point x ∈ S si

y→x

lim inf f (y) ≥ f(x).

On note Γ

0

(X) l’ensemble des fonctions convexes s.c.i. et propre sur X.

(26)

20 Introduction ` a la programmation DC et DCA

D´ efinition 1.1 Soit une fonction quelconque f : X = ⇒ R , la fonction conjugu´ ee de f, not´ ee f

?

, est d´ efinie sur Y par

f

?

(y) = sup{hx, yi − f (x) : x ∈ X}. (1.4) f

?

est l’enveloppe sup´ erieure des fonctions affines continues y 7→ hx, yi − f(x) sur Y.

On r´ esume dans la proposition suivante les principales propri´ et´ es dont on aura besoin pour la suite :

Proposition 1.1 Si f ∈ Γ

0

(X) alors :

– f ∈ Γ

0

(X) ⇐⇒ f

?

∈ Γ

0

(Y ). Dans ce cas on a f = f

??

,

– y ∈ ∂f (x) ⇐⇒ f (x) + f

?

(y) = hx, yi et y ∈ ∂f (x) ⇐⇒ x ∈ ∂f

?

(y), – ∂f (x) est une partie convexe ferm´ ee,

– Si ∂f (x) = {y} alors f est differentiable en x et ∇f(x) = y, – f(x

0

) = min{f(x), x ∈ X} ⇐⇒ 0 ∈ ∂f (x

0

).

1.1.2 Fonctions convexes poly´ edrales

Une partie convexe C est dite convexe poly´ edrale si C =

m

\

i=1

{x : ha

i

, xi − α

i

≤ 0} o` u a

i

∈ Y, α

i

∈ R , ∀i = 1, ..., m.

Une fonction est dite convexe poly´ edrale si

f (x) = sup{ha

i

, xi − α

i

: i = 1, ..., k} + χ

c

(x).

o` u C est une partie convexe poly´ edrale et le symbole χ

c

d´ esigne la fonction indicatrice de C, i.e. χ

c

(x) = 0 si x ∈ C et +∞ sinon.

Proposition 1.2 ([93])

– Soit f une fonction convexe poly´ edrale. f est partout finie si et seulement si C = X, – Si f est poly´ edrale alors f

?

l’est aussi. De plus si f est partout finie alors

f(x) = sup{ha

i

, xi − a

i

: i = 1, ..., k}, dom(f

?

) = co{a

i

: i = 1, ..., k},

f

?

(y) = min{Σ

ki=1

λ

i

α

i

: y = Σ

ki=1

λ

i

a

i

, λ

i

≥ 0, Σ

ki=1

λ

i

= 1},

– Si f est poly´ edrale alors ∂f(x) est une partie convexe poly´ edrale non vide en tout point

x ∈ dom(f ).

(27)

21 1.1. ´ El´ ements de base de l’analyse DC

1.1.3 Fonctions DC

Une fonction f : Ω 7→ R d´ efinie sur un ensemble convexe Ω ⊂ R

n

est dite DC sur Ω si elle peut s’´ ecrire comme la diff´ erence de deux fonctions convexes sur Ω, i.e.

f (x) = g(x) − h(x),

o` u g et h sont des fonctions convexes sur Ω. On note par DC(Ω) l’ensemble des fonctions DC sur Ω, et par DC

f

(Ω) le cas o` u les fonctions g et h sont convexes finies sur Ω.

Les fonctions DC poss` edent de nombreuses propri´ et´ es importantes qui ont ´ et´ e ´ etablies ` a partir des ann´ ees 50 par Alexandroff (1949), Landis (1951) et Hartman (1959) ; une des principales propri´ et´ es est leur stabilit´ e relativement aux op´ erations fr´ equemment utilis´ ees en optimisation. Plus pr´ ecis´ ement :

Proposition 1.3 (i) Une combinaison lin´ eaire de fonctions DC sur Ω est DC sur Ω, (ii) L’enveloppe sup´ erieure d’un ensemble fini de fonctions DC ` a valeur finie sur Ω est DC

sur Ω,

L’enveloppe inf´ erieure d’un ensemble fini de fonctions DC ` a valeur finie sur Ω est DC sur Ω,

(iii) Soit f ∈ DC

f

(Ω), alors |f (x)|, f

+

(x) = max{0, f (x)} et f

(x) = min{0, f(x)} sont DC sur Ω.

Ces r´ esultats se g´ en´ eralisent aux cas des fonctions ` a valeur dans R ∪ {+∞} ([37]). Il en r´ esulte que l’ensemble des fonctions DC sur Ω est un espace vectoriel (DC(Ω)) : c’est le plus petit espace vectoriel contenant l’ensemble des fonctions convexes sur Ω(Co(Ω)).

Remarque 1.2 Etant donn´ ee une fonction DC f et sa repr´ esentation DC f = g − h, alors pour toute fonction convexe finie ϕ, f = (g + ϕ) − (h + ϕ) donne une autre repr´ esentation DC de f. Ainsi, une fonction DC admet une infinit´ e de d´ ecomposition DC.

D´ esignons par C

2

( R

n

), la classe des fonctions deux fois continˆ ument diff´ erentiables sur R

n

. Proposition 1.4 Toute fonction f ∈ C

2

( R

n

) est DC sur un ensemble convexe compact quelconque Ω ∪ R

n

.

Puisque le sous-espace des polynˆ omes sur Ω est dense dans l’espace C(Ω) des fonctions num´ eriques continues sur Ω on en d´ eduit :

Corollaire 1.1 L’espace des fonctions DC sur un ensemble convexe compact Ω ∪ R

n

est dense dans C(Ω), i.e.

∀e > 0, ∃F ∈ C(Ω) : |f (x) − F (x)| ≤ ∀x ∈ Ω.

(28)

22 Introduction ` a la programmation DC et DCA

Soulignons que les fonctions DC interviennent tr` es fr´ equemment en pratique, aussi bien en optimisation differentiable que non diff´ erentiable. Un r´ esultat important ´ etabli par Hartman (1959) permet d’identifier les fonctions DC dans de nombreuses situations, en ayant recours simplement ` a une analyse locale de la convexit´ e (localement convexe, localement concave, localement DC).

Une fonction f : D 7→ R d´ efinie sur un ensemble convexe ouvert D ∈ R

n

est dite localement DC si pour tout x ∈ D il existe un voisinage convexe ouvert U de x et une paire de fonctions convexes g, h sur U telle que f|

U

= g|

U

− h|

U

.

Proposition 1.5 Une fonction localement DC sur un ensemble convexe D est DC sur D.

1.2 Optimisation DC

De par la pr´ epond´ erance et de la richesse des propri´ et´ es des fonctions DC, le passage du sous- espace Co(Ω) ` a l’espace vectoriel DC(Ω) permet d’´ elargir significativement les probl` emes d’optimisation convexe ` a la non convexit´ e tout en conservant une structure sous-jacente fondamentalement li´ ee ` a la convexit´ e. Le domaine des probl` emes d’optimisation faisant in- tervenir des fonctions DC est ainsi relativement large et ouvert, couvrant la plupart des probl` emes d’application rencontr´ es.

Ainsi on ne peut d’embl´ ee traiter tout probl` eme d’optimisation non convexe et non differen- tiable. La classification suivante devenue maintenant classique :

(1) sup{f (x) : x ∈ C}, f et C sont convexes

(2) inf {g(x) − h(x) : x ∈ X}, g et h sont convexes (3) inf {g(x) − h(x) : x ∈ C, f

1

(x) − f

2

(x) ≤ 0},

o` u g, h, f

1

, f

2

et C sont convexes semble assez large pour contenir la quasi-totalit´ e des probl` emes non convexes rencontr´ es dans la vie courante. Le probl` eme (1) est un cas sp´ ecial du probl` eme (2) avec g = χ

C

, la fonction indicatrice de C, et h = −f . Le probl` eme (2) peut ˆ

etre mod´ elis´ e sous la forme ´ equivalente de (1)

inf {t − h(x) : g(x) − t ≤ 0}.

Quant au probl` eme (3) il peut ˆ etre transform´ e sous la forme (2) via la p´ enalit´ e exacte relative

`

a la contrainte DC f

1

(x) − f

2

(x) ≤ 0. Sa r´ esolution peut ˆ etre aussi ramen´ ee, sous certaines conditions techniques, ` a celle d’une suite de probl` emes (1).

Le probl` eme (2) est commun´ ement appel´ e la programmation DC. Elle est d’un int´ erˆ et ma-

jeur aussi bien d’un point de vue pratique que th´ eorique. Du point de vue th´ eorique, on

(29)

23 1.2. Optimisation DC

peut souligner que, comme on l’a vu en haut, la classe des fonctions DC est remarquable- ment stable par rapport aux op´ erations fr´ equemment utilis´ ees en optimisation. En outre, on dispose d’une ´ el´ egante th´ eorie de la dualit´ e ([79, 80, 105, 106, 36, 37, 48]) qui, comme en optimisation convexe, a de profondes r´ epercussions pratiques sur les m´ ethodes num´ eriques.

Les algorithmes de l’optimisation DC (DCA) dus ` a Pham Dinh Tao ([81, 82]) constituent une nouvelle approche originale bas´ ee sur la th´ eorie DC. Ces algorithmes repr´ esentent en fait une g´ en´ eralisation des algorithmes de sous-gradients ´ etudi´ es par le mˆ eme auteur sur la maximisation convexe ([79, 81]). Cependant, il a fallu attendre les travaux communs de Le Thi et Pham au cours de ces dix derni` eres ann´ ees (voir [36]-[69] et [82]-[87]) pour que les DCA deviennes maintenant classiques et populaires.

1.2.1 Dualit´ e DC

En analyse convexe, le concept de la dualit´ e (fonctions conjugu´ ees, probl` eme dual, etc.) est une notion fondamentale tr` es puissante. Pour les probl` emes convexes et en particulier lin´ eaires, une th´ eorie de la dualit´ e a ´ et´ e d´ evelopp´ ee depuis d´ ej` a plusieurs d´ ecennies ([93]).

Plus r´ ecemment, en analyse non convexe d’importants concepts de dualit´ e ont ´ et´ e propos´ es et d´ evelopp´ es, tout d’abord pour les probl` emes de maximisation convexe, avant de parvenir aux probl` emes DC. Ainsi la dualit´ e DC introduite par Toland (1978) peut ˆ etre consid´ er´ ee comme une g´ en´ eralisation logique des travaux de Pham Dinh Tao (1975) sur la maximisation convexe. On va pr´ esenter ci-dessous les principaux r´ esultats (en optimisation DC) concer- nant les conditions d’optimalit´ e (locale et globale) et la dualit´ e DC. Pour plus de d´ etails, le lecteur est renvoy´ e au document de Le Thi (1997) (voir ´ egalement [48]).

Soit l’espace X = R

n

muni du produit scalaire usuel h., .i et de la norme euclidienne k.k.

D´ esignons par Y l’espace dual de X que l’on peut identifier ` a X lui-mˆ eme et par Γ

0

(X) l’ensemble de toutes les fonctions propres s.c.i. sur X.

Soient g(x) et h(x) deux fonctions convexes propres sur X( g, h ∈ Γ

0

(X)), consid´ erons le probl` eme DC

inf {g(x) − h(x) : x ∈ X} (P ) et le probl` eme dual

inf {h

?

(y) − g

?

(y) : y ∈ Y } (D) o` u g

?

(y) d´ esigne la fonction conjugu´ ee de g.

Ce r´ esultat de dualit´ e DC d´ efini ` a l’aide des fonctions conjugu´ ees donne une importante relation en optimisation DC ([105]).

Th´ eor` eme 1.1 Soient g et h ∈ Γ

0

(X), alors

(30)

24 Introduction ` a la programmation DC et DCA

(i)

x∈dom(g)

inf {g(x) − h(x)} = inf

y∈dom(h?)

{h

?

(y) − g

?

(y)} (1.5) (ii) Si y

0

est un minimum de h

?

− g

?

sur Y alors chaque x

0

∈ ∂g

?

(y

0

) est un minimum de

g − h sur X.

Preuve : (i)

α = inf{g (x) − h(x) : x ∈ X}

= inf{g (x) − sup{hx, yi − h

?

(y) : y ∈ Y } : x ∈ X}

= inf{g (x) + inf {h

?

(y) − hx, yi : y ∈ Y } : x ∈ X}

= inf

x

inf

y

{h

?

(y) − hx, yi − g(x)}

= inf{h

?

(y) − g

?

(y) : y ∈ Y }.

(ii) cf. Toland ([105]).

2 Le th´ eor` eme (1.1) montre que r´ esoudre le probl` eme primal (P ) implique la r´ esolution du probl` eme dual (D) et vice-versa.

De par la parfaite sym´ etrie entre le probl` eme primal (P ) et le probl` eme dual (D), il apparaˆıt clairement que les r´ esultats ´ etablis pour l’un se transpose directement ` a l’autre. Cependant, nous choisissons ici de ne pas les pr´ esenter simultan´ ement afin de simplifier la pr´ esentation.

1.2.2 Optimalit´ e globale en optimisation DC

En optimisation convexe, x

0

minimise une fonction f ∈ Γ

0

(X) si et seulement si : 0 ∈ ∂f (x

0

).

En optimisation DC, la condition d’optimalit´ e globale suivante ([107]) est formul´ ee ` a l’aide des -sous-diff´ erentiels de g et h. Sa d´ emonstration (bas´ ee sur l’´ etude du comportement du -sous-diff´ erentiel d’une fonction convexe en fonction du param` etre ) est compliqu´ ee. La d´ emonstration dans [37] est plus simple et convient bien au cadre de l’optimisation DC : elle exprime tout simplement que cette condition d’optimalit´ e globale est une traduction g´ eom´ etrique de l’´ egalit´ e des valeurs optimales dans les programmes DC primal et dual.

Th´ eor` eme 1.2 (Optimalit´ e globale DC) Soit f = g − h o` u g, h ∈ Γ

0

(X) alors. x

0

est un minimum global de g(x) − h(x) sur X si et seulement si,

h(x

0

) ⊂ ∂

g(x

0

) ∀ > 0. (1.6)

Remarque 1.3 –

(31)

25 1.2. Optimisation DC

(i) Si f ∈ Γ

0

(X), on peut ´ ecrire f = g − h avec f = g et h = 0. Dans ce cas l’optimalit´ e globale dans (P ) - qui est identique ` a l’optimalit´ e locale car (P ) est un probl` eme convexe - est caract´ eris´ ee par,

0 ∈ ∂f(x

0

). (1.7)

Du fait que ∂

h(x

0

) = ∂h(x

0

) = {0}, ∀ > 0, ∀x ∈ X, et la croissance du -sousdiff´ erentiel en fonction de , la relation (1.7) est ´ equivalente ` a (1.6).

(ii) D’une mani` ere plus g´ en´ erale, consid´ erons les d´ ecompositions DC de f ∈ Γ

0

(X) de la forme f = g − h avec g = f + h et h ∈ Γ

0

(X) finie partout sur X. Le probl` eme DC correspondant est un ”faux” probl` eme DC car c’est un probl` eme d’optimisation convexe.

Dans ce cas, la relation (1.7) est ´ equivalente ` a

∂h(x

0

) ⊂ ∂g(x

0

).

(iii) On peut dire ainsi que (1.6) marque bien le passage de l’optimisation convexe ` a l’op- timisation non convexe. Cette caract´ eristique de l’optimalit´ e globale de (P ) indique en mˆ eme temps toute la complexit´ e de son utilisation pratique car il fait appel ` a tous les -sous-diff´ erentiels en x

0

.

1.2.3 Optimalit´ e locale en optimisation DC

Nous avons vu que la relation ∂h(x

0

) ⊂ ∂g(x

0

) (faisant appel au sous-diff´ erentiel ”exact”) est une condition n´ ecessaire et suffisante d’optimalit´ e globale pour un ”faux” probl` eme DC (probl` eme d’optimisation convexe). Or dans un probl` eme d’optimisation globale, la fonction

`

a minimiser est localement convexe ”autour” d’un minimum local, il est alors clair que cette relation d’inclusion sous-diff´ erentielle permettra de caract´ eriser un minimum local d’un probl` eme DC.

D´ efinition 1.2 Soient g et h ∈ Γ

0

(X). Un point x

∈ dom(g) ∩ dom(h) est un minimum local de g(x) − h(x) sur X si et seulement si

g(x) − h(x) ≥ g(x

) − h(x

), ∀x ∈ V

x

, (1.8) o` u V

x

d´ esigne un voisinage de x.

Proposition 1.6 (Condition n´ ecessaire d’optimalit´ e locale) Si x

est un minimum local de g − h alors

∂h(x

) ⊂ ∂g(x

), (1.9)

(32)

26 Introduction ` a la programmation DC et DCA

Preuve : Si x

est un minimum local de g − h, alors il existe un voisinage V

x

de x tel que g(x) − g(x

) ≥ h(x) − h(x

), ∀x ∈ V

x

. (1.10) Par suite si y

∈ ∂h(x

) alors

g(x) − g(x

) ≥ hx − x

, y

i, ∀x ∈ V

x

(1.11) Ce qui est ´ equivalent, en vertu de la convexit´ e de g , ` a y

∈ ∂g(x

). 2 Remarquons que pour un certain nombre de probl` eme DC et en particulier pour h poly´ edrale, la condition n´ ecessaire (1.9) est ´ egalement suffisante, comme nous le verrons un peu plus loin.

On dit que x

est un point critique de g − h si ∂h(x

) ∪ ∂g(x

) est non vide ([105]). C’est une forme affaiblie de l’inclusion sousdiff´ erentielle. La recherche d’un tel point critique est ` a la base de DCA (forme simple) qui sera ´ etudi´ ee dans la section suivante. En g´ en´ eral DCA converge vers une solution locale d’un probl` eme d’optimisation DC. Cependant sur le plan th´ eorique, il est important de formuler des conditions suffisantes pour l’optimalit´ e locale.

Th´ eor` eme 1.3 (Condition suffisante d’optimalit´ e locale ([37, 48])) Si x

?

admet un voisinage V tel que

∂h(x) ∩ ∂g(x

?

) 6= ∅, ∀x ∈ V ∩ dom(g), (1.12) alors x

?

est un minimum local de g − h.

Corollaire 1.2 Si x ∈ int(dom(h)) v´ erifie

∂h(x) ∈ int(∂g(x)), alors x est un minimum local de g − h.

Corollaire 1.3 Si h ∈ Γ

0

(X) est convexe poly´ edrale alors ∂h(x) ⊂ ∂g(x) est une condition n´ ecessaire et suffisante pour que x soit un minimum local de g − h.

Preuve : Ce r´ esultat g´ en´ eralise le premier obtenu par C. Michelot dans le cas o` u g, h ∈ Γ

0

(X) sont finies partout et h convexe poly´ edrale (cf. ([37, 48])). 2 Pour r´ esoudre un probl` eme d’optimisation DC, il est parfois plus facile de r´ esoudre le probl` eme dual (D) que le probl` eme primal (P ). Le th´ eor` eme (1.1) assure le transport par dualit´ e des minima globaux. On ´ etablit de mˆ eme le transport par dualit´ e des minima locaux.

Corollaire 1.4 (Transport par dualit´ e DC des minima locaux ([37, 48])) Sup- posons que x

∈ dom(∂h) soit un minimum local de g − h, soient y

∈ ∂h(x

) et V

x

un voisinage de x

tel que g(x) − h(x) ≥ g(x

) − h(x

), ∀x ∈ V

x

∩ dom(g). Si

x

∈ int(dom(g

?

)) et ∂g

?

(y

) ⊂ V

x

, (1.13)

alors y

est un minimum local de h

?

− g

?

.

(33)

27 1.3. DCA

Preuve : Imm´ ediate d’apr` es la proposition (1.1) en se restreignant ` a l’intervalle V

x

dom(g). 2

Remarque 1.4 Bien sˆ ur, par dualit´ e, tous les r´ esultats de cette section se transposent au probl` eme dual D. Par exemple :

si y est un minimum local de h

?

− g

?

alors ∂g

?

(y) ⊂ ∂h

?

(y).

1.3 DCA

Il s’agit d’une nouvelle m´ ethode de sous-gradient bas´ ee sur l’optimalit´ e et la dualit´ e en opti- misation DC (non diff´ erentiable). Cette approche est compl` etement diff´ erente des m´ ethodes classiques de sous-gradient en optimisation convexe. Dans les DCA, la construction algorith- mique cherche ` a exploiter la structure DC du probl` eme. Elle n´ ecessite, en premier lieu, de disposer d’une repr´ esentation DC de la fonction ` a minimiser, i.e. f = g − h (g, h convexe), car toutes les op´ erations s’effectueront uniquement sur les composantes convexes. Ainsi, la s´ equence des directions de descente est obtenue en calculant une suite de sous-gradient non directement ` a partir de la fonction f, mais des composantes convexes des probl` emes primal et dual.

1.3.1 Principle de DCA

La construction des DCA, d´ ecouverte par Pham Dinh Tao (1986) s’appuie sur la caract´ erisation des solutions locales en optimisation DC des probl` emes primal (P ) et dual (D)

α = inf {g(x) − h(x) : x ∈ X} (P ), α = inf {h

?

(y) − g

?

(y) : y ∈ Y } (D).

Les DCA consistent en la construction de deux suites {x

k

} et {y

k

}. La premi` ere suite est candidate ` a ˆ etre solution du probl` eme primal et la seconde du probl` eme dual. Ces deux suites sont li´ ees par dualit´ e et v´ erifient les propri´ et´ es suivantes :

– les suites {g(x

k

) − h(x

k

)} et {h

?

(y

k

) − g

?

(y

k

)} sont d´ ecroissantes,

– et si (g − h)(x

k+1

) = (g − h)(x

k

) alors l’algorithme s’arrˆ ete ` a la (k + 1)

ieme

it´ eration et le point x

k

(resp. y

k

) est un point critique de g − h (resp. h

?

− g

?

),

– sinon toute valeur d’adh´ erence x

de {x

k

} (resp. y

de {y

k

}) est un point critique de g − h (resp. h

?

− g

?

).

L’algorithme cherche en d´ efinitive un couple (x

, y

) ∈ X × Y tel que x

∈ ∂g

?

(y

) et y

∈ ∂h(x

).

Sch´ ema de DCA simplifi´ e

(34)

28 Introduction ` a la programmation DC et DCA

L’id´ ee principale de la mise en oeuvre de l’algorithme (forme simple) est de construire une suite {x

k

}, v´ erifiant ` a chaque it´ eration ∂g(x

k

) ∩ ∂h(x

k−1

) 6= ∅, convergente vers un point critique x

(∂h(x

) ∩ ∂g(x

) 6= ∅) et sym´ etriquement, de fa¸con analogue par dualit´ e, une suite {y

k

} telle que ∂g

?

(y

k−1

) ∩ ∂h

?

(y

k

) 6= ∅ convergente vers un point critique.

On construit ainsi :

Algorithme 1. [DCA]

Etape 0. x

0

donn´ e.

Etape 1. Pour chaque k, x

k

´ etant connu, d´ eterminer y

k

∈ ∂h(x

k

).

Etape 2. Trouver x

k+1

∈ ∂g

?

(y

k

).

Etape 3. Si test d’arrˆ et v´ erifi´ e STOP ; Sinon k ← k + 1.

Cette description, avec l’aide de sch´ emas d’it´ eration de points fixes des multi-applications

∂h et ∂g

?

, apparaˆıt ainsi ˆ etre d’une grande simplicit´ e.

1.3.2 Existence des suites g´ en´ er´ ees

L’algorithme DCA est bien d´ efini si on peut effectivement construire les deux suites {x

k

} et {y

k

} comme ci-dessus ` a partir d’un point initial arbitraire x

0

.

– Par construction, si x

0

∈ dom(∂h), alors y

0

∈ ∂h(x

0

) est bien d´ efini.

– Pour k ≥ 1, y

k

est bien d´ efini si et seulement si x

k

est d´ efini et contenu dans dom(∂h) ; par suite, x

k

et y

k

sont bien d´ efinis si et seulement si ∂g

?

(y

k+1

) ∩ dom(∂h) est non vide, ce qui entraˆıne que y

k+1

∈ dom(∂g

?

).

Lemme 1.1 ([48]) Les suites {x

k

}, {y

k

} dans DCA sont bien d´ efinies si et seulement si dom(∂g) ⊂ dom(∂h), et dom(∂h

?

) ⊂ dom(∂g

?

).

La convergence de l’algorithme est assur´ ee par les r´ esultats suivants ([48]) :

Soient ρ

i

et ρ

?i

, (i = 1, 2) des nombres r´ eels positifs tels que 0 ≤ ρ

i

< ρ(f

i

) (resp. 0 ≤ ρ

?i

<

ρ

?i

(f

i?

)) o` u ρ

i

= 0 (resp ρ

?i

= 0) si ρ(f

i

) = 0 (resp ρ(f

i?

) = 0) et ρ

i

(resp ρ

?i

) peut prendre la valeur ρ(f

i

) (resp ρ(f

i?

)) si cette borne sup´ erieure est atteinte. Nous poserons pour la suite f

1

= g, f

2

= h.

Th´ eor` eme 1.4 Si les suites {x

k

} et {y

k

} sont bien d´ efinies. Alors on a : (i)

(g − h)(x

k+1

) ≤ (h

?

− g

?

)(y

k

) − ρ

h

2 kdx

k

k

2

≤ (g − h)(x

k

) − ρ

1

+ ρ

2

2 kdx

k

k

2

Références

Documents relatifs

10.2 Séletion de variables et estimation dans les modèles mixtes fontionnels178 A Vitesse de onvergene de l'estimateur de seuillage hétérosédas- tique 181 B Propriétés oraulaires

Si le p´ erim` etre souhait´ e de l’enclos est un nombre P &gt; 0 fix´ e, trouver les dimensions de l’enclos qui maximisent son aire totale.... (Utiliser la contrainte.) Les

Apr` es une pr´ esentation des fondements th´ eoriques et algorithmiques de la program- mation DC et DCA, et les techniques de globalisation Branch-and-Bound dont n´ ecessite

Nous parlerons dans ce chapitre du rôle central de la programmation DC et DCA dans la résolution des problèmes d’optimisation non convexes rencontrés dans différentes branches de

une fonction possède un seul type, qui est le type de la valeur retournée le passage de paramètre est uniquement en entrée : c’est pour cela qu’il n’est pas précisé. lors

Écrivez une fonction qui vérifie qu’une liste passée en paramètre est triée dans l’ordre croissant ou décroissant (on renvoie False si elle est “désordonnée”, True

“La moyenne empirique d’une longue série de variables aléatoires (indépendantes de même distribution) converge vers la moyenne théorique”.. Bernoulli (Ars Conjectandi,

Dans cet article, nous proposons de détecter automati- quement des symétries de variables en calculant une parti- tion de la portée de chaque contrainte pour exhiber les va-