• Aucun résultat trouvé

Optimisation non convexe en finance et en gestion de production : modèles et méthodes

N/A
N/A
Protected

Academic year: 2021

Partager "Optimisation non convexe en finance et en gestion de production : modèles et méthodes"

Copied!
172
0
0

Texte intégral

(1)

HAL Id: tel-01749047

https://hal.univ-lorraine.fr/tel-01749047

Submitted on 29 Mar 2018

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Optimisation non convexe en finance et en gestion de production : modèles et méthodes

Duc Quynh Tran

To cite this version:

Duc Quynh Tran. Optimisation non convexe en finance et en gestion de production : modèles et méthodes. Autre [cs.OH]. Université Paul Verlaine - Metz, 2011. Français. �NNT : 2011METZ019S�.

�tel-01749047�

(2)

AVERTISSEMENT

Ce document est le fruit d'un long travail approuvé par le jury de soutenance et mis à disposition de l'ensemble de la communauté universitaire élargie.

Il est soumis à la propriété intellectuelle de l'auteur. Ceci implique une obligation de citation et de référencement lors de l’utilisation de ce document.

D'autre part, toute contrefaçon, plagiat, reproduction illicite encourt une poursuite pénale.

Contact : ddoc-theses-contact@univ-lorraine.fr

LIENS

Code de la Propriété Intellectuelle. articles L 122. 4

Code de la Propriété Intellectuelle. articles L 335.2- L 335.10 http://www.cfcopies.com/V2/leg/leg_droi.php

http://www.culture.gouv.fr/culture/infos-pratiques/droits/protection.htm

(3)

TH` ESE

en vue de l’obtention du titre de

DOCTEUR DE L’UNIVESIT ´ E DE PAUL VERLAINE-METZ

(arrˆ et´ e minist´ eriel du 30 October 1993) Sp´ ecialit´ e Informatique

pr´ esent´ ee par

Tran Duc Quynh

Titre de la th` ese :

Optimisation non convexe en finance et en gestion de production : Mod` eles et M´ ethodes

Date de soutenance : le 14 Octobre 2011

Composition du Jury :

Pr´ esident PHAM DINH Tao Professeur, INSA-Rouen

Rapporteurs El-Houssaine AGHEZZAF Professeur, Universit´ e de Gand, Belgique

Van-Dat CUNG Professeur, INP de Grenoble

Examinateurs Alain BILLIONNET Professeur, ENSIIE-Paris

Abdel LISSER Professeur, Universit´ e de Paris Sud ADJALLAH Kondo Hloindo Professeur, ENIM-Metz

Directeur de th` ese LE THI Hoai An Professeur, Universit´ e de Paul Verlaine-Metz

Th` ese pr´ epar´ ee au sein de laboratoire d’Informatique Th´ eorique et Appliqu´ ee (LITA)

Universit´ e de Paul Verlaine-Metz

(4)
(5)

Remerciements

La pr´ eparation de cette th` ese, sous la direction de Madame le Professeur LE THI Hoai An - Math´ ematicienne renomm´ ee en Optimisation DC, a ´ et´ e r´ ealis´ ee au sein du laboratoire LITA de l’Universit´ e de Paul-Verlaine Metz que je tiens vivement ` a remercier tous ceux qui m’ont accord´ e cette ambiance de travail.

Je remercie en premier lieu Madame le Professeur LE THI Hoai An, ma directrice de th` ese, Directrice du laboratoire LITA, pour son aide inestimable, ses pr´ ecieux conseils ainsi que les encouragements qu’elle m’a donn´ es durant la pr´ eparation de la th` ese.

Je tiens ensuite ` a remercier tout sp´ ecialement Monsieur le Professeur PHAM DINH Tao - Math´ ematicien de renomm´ ee internationale, pionier de l’Optimisation DC et cr´ eateur de DCA (DC Algorithm), Directeur de l’´ equipe Mod´ elisation et Optimisation Appliqu´ ee de l’INSA de Rouen pour ses conseils et son attention constante, sa sympathie et les discussions tr` es int´ eressantes qu’il a men´ ees pour me sugg´ erer les voies de recherche.

Je souhaite ´ egalement exprimer ma gratitude ` a Monsieur Van-Dat CUNG, Professeur ` a INP de Grenoble et Monsieur El-Houssaine AGHEZZAF, Professeur ` a l’Universit´ e de Gand, Belgique de m’avoir fait l’honneur d’accepter la charge du rapporteur de ma th` ese.

Je tiens aussi ` a remercier Monsieur Abdel LISSER, Professeur ` a Universit´ e de Paris Sud, Monsieur Alain BILLIONNET, Professeur ` a ENSIIE-Paris et Monsieur ADJALLAH Kondo Hloindo, Professeur ` a ENIM-Metz pour avoir particip´ e ` a juger mon travail.

Je n’oublie pas de remercier toute l’´ equipe du personnel de l’Universit´ e Agronomique de Ha- noi pour m’avoir donn´ e de soutien. Je tiens ` a remercier particuli` erement Monsieur NGUYEN Hai Thanh pour son soutien et son encouragement.

Je voudrais exprimer ma gratitude ` a tous mes coll` egues et mes amis fran¸cais, vietnamiens, alg´ eriens, iraniens rencontr´ es ` a Metz pour les moments agr´ eables lors de mon s´ ejour en France. Je remercie particuli` erement Minh, Phuong, Thuan, Phuc, Son, Linh pour le partage dans le travail et dans la vie.

Je t´ emoigne tout mon affection et reconnaissance ` a mes parents, mes soeurs, ma copine pour avoir pu supporter mes longs moments d’absence. Je leur remercie aussi pour m’avoir donn´ e de soutien inconditionnel ainsi que pour m’avoir transmis l’´ energie malgr´ e la distance g´ eographique.

Enfin, je remercie tous ceux qui m’ont aid´ e de pr` es ou de loin et tous ceux qui m’ont motiv´ e

mˆ eme inconsciemment.

(6)
(7)

Table des mati` eres

I Outils de base 19

1 Introduction ` a la programmation DC et DCA 21

1.1 El´ ´ ements de base de l’analyse DC . . . . 22

1.1.1 Notations et propri´ et´ es . . . . 22

1.1.2 Fonctions convexes poly´ edrales . . . . 24

1.1.3 Fonctions DC . . . . 25

1.2 Optimisation DC . . . . 26

1.2.1 Dualit´ e DC . . . . 27

1.2.2 Optimalit´ e globale en optimisation DC . . . . 28

1.2.3 Optimalit´ e locale en optimisation DC . . . . 29

1.3 DCA . . . . 31

1.3.1 Principle de DCA . . . . 31

1.3.2 Existence des suites g´ en´ er´ ees . . . . 32

1.3.3 Calcul des sous-gradients . . . . 33

1.3.4 Optimisation DC poly´ edrale . . . . 34

1.3.5 Interpr´ etations de DCA . . . . 35

1.4 P´ enalit´ e exacte en Programmation DC . . . . 36

2 ethode par S´ eparation et Evaluation (SE) 39 2.1 M´ ethode de r´ esolution et convergence . . . . 40

2.2 R´ ealisation . . . . 43

2.2.1 Strat´ egie de division . . . . 43

2.2.2 R` egle de s´ election . . . . 47

1

(8)

2 Table des mati` eres

2.2.3 Estimation de borne . . . . 48

2.3 SE combin´ ee avec DCA . . . . 49

II Optimisation en Gestion Financi` ere 51 3 esolution du probl` eme min max continu en gestion de portefeuille en pr´ esence des contraintes de cardinalit´ e 57 3.1 Introduction . . . . 57

3.2 Description et formulation . . . . 58

3.3 Programmation DC et DCA pour la r´ esolution du probl` eme . . . . 61

3.3.1 Reformulation . . . . 61

3.3.2 R´ esolution de (P

4

) par DCA . . . . 65

3.4 R´ esultats num´ eriques . . . . 66

3.5 Conclusion . . . . 70

4 esolution d’une classe des probl` emes d’optimisation ` a deux niveaux et une application en gestion de portefeuille 71 4.1 Introduction . . . . 71

4.2 R´ esolution du probl` eme (4.1) . . . . 73

4.2.1 M´ ethode de r´ esolution par DCA . . . . 73

4.2.2 Algorithme combin´ e de DCA et SE (SE-DCA) . . . . 76

4.3 R´ esultats num´ eriques . . . . 77

4.4 Application en gestion de portefeuille . . . . 80

4.5 Conclusion . . . . 82

III Optimisation en Gestion de Production 89 5 Minimisation du coˆ ut de maintenance comprenant le temps de s´ ejour et la p´ enalit´ e du retard 95 5.1 Introduction . . . . 95

5.2 Description du probl` eme . . . . 97

5.3 Formulation math´ ematique . . . . 98

(9)

3 Table des mati` eres

5.4 La r´ esolution bas´ ee sur la programmation DC et DCA . . . . 101

5.4.1 DCA appliqu´ e au probl` eme (P

1

) . . . . 101

5.4.2 DCA appliqu´ e au probl` eme (P

2

) . . . . 103

5.5 Les r´ esultats num´ eriques . . . . 104

5.6 Conclusion . . . . 107

6 Minimisation du coˆ ut d’un syst` eme de production/stockage multi-´ etapes en pr´ esence de goulot d’´ etrangement 109 6.1 Introduction . . . . 109

6.2 Mod` ele math´ ematique . . . . 111

6.3 R´ esolution bas´ ee sur la programmation DC et DCA . . . . 113

6.3.1 R´ esolution de (P

u

) par DCA . . . . 113

6.3.2 Algorithme combin´ e de DCA et SE . . . . 116

6.4 R´ esultats num´ eriques . . . . 119

6.5 Conclusion . . . . 123

7 etermination des prix de transfert et des politiques de stockage pour une chaˆıne d’approvisionnement de deux entreprises 133 7.1 Introduction . . . . 133

7.2 Formulation math´ ematique . . . . 136

7.3 M´ ethode de r´ esolution bas´ ee sur la programmation DC et DCA . . . . 139

7.3.1 Reformulation DC et l’algorithme DCA . . . . 139

7.3.2 Algorithme combin´ e DCA et SE pour le probl` eme (P) . . . . 141

7.4 R´ esultats num´ eriques . . . . 144

7.5 Conclusion . . . . 146

(10)

4 Table des mati` eres

(11)

Table des figures

2.1 Exemple de la fronti` ere efficiente. . . . 56

3.1 Les valeurs de la fonction objectif dans le cas o` u α=0.5. . . . 67

3.2 Les valeurs de la fonction objectif dans le cas o` u Card = 20 . . . . 68

3.3 La fronti` ere efficiente (Card = 20) . . . . 69

4.1 Gap de tous le trois algorithmes dans le cas 1 . . . . 79

4.2 Gap de tous le trois algorithmes dans le cas 2 . . . . 79

4.3 Gap de tous le trois algorithmes dans le cas 3 . . . . 80

5.1 Le sch´ ema de la relation entre la date d’ex´ ecution, la date limite, la date de terminaison . . . . 99

5.2 R´ esultats dans le cas o` u l’horizon H=60 . . . . 105

5.3 R´ esultats dans le cas o` u l’horizon H=90 . . . . 105

5.4 La comparaison entre (P

1

) et (P

2

) . . . . 106

5.5 Les coˆ uts moyens dans tous les trois cas . . . . 107

5.6 les couts moyens relatifs dans tous les trois cas . . . . 108

5.7 Les proportions d’utilisation d’entit´ e dans tous les trois cas . . . . 108

6.1 Comparaison entre SEDCA, SE et COUENNE dans le cas o` u n = 50. . . . . 123

6.2 Comparaison entre SEDCA, SE et COUENNE dans le cas o` u n = 100. . . . 124

7.1 Cas 1 : I=5, K=10, T=12 . . . . 145

7.2 Cas 2 : I=10, K=10, T=12 . . . . 145

7.3 Cas 3 : I=15, K=10, R=6, T=12 . . . . 146

7.4 Cas 4 : I=20, K=10, R=6, T=12 . . . . 146

5

(12)

6 Table des figures

7.5 Cas 5 : I=30, K=10, R=6, T=12 . . . . 147

(13)

Liste des tableaux

3.1 R´ esultats obtenus dans le cas o` u α=0.5, le symbole * signifie que CPLEX a

´

echou´ e ` a r´ esoudre un sous-probl` eme g´ en´ er´ e dans le sch´ ema de ”Branch and

Cut”. . . . 67

3.2 R´ esultats obtenus dans le cas o` u Card = 20, le symbole * signifie que CPLEX a ´ echou´ e ` a r´ esoudre un sous-probl` eme g´ en´ er´ e dans le sch´ ema de ”Branch and Cut”. . . . 68

4.1 R´ esultat dans le cas o` u n=50, m=100 (cas 1) . . . . 83

4.2 R´ esultats dans le cas o` u n=100, m=150 (cas 2) . . . . 84

4.3 R´ esultats dans le cas o` u n=150, m=150 (cas 3) . . . . 85

4.4 R´ esultats avec les donn´ ees de France . . . . 86

4.5 R´ esultats avec les donn´ ees d’Angleterre . . . . 86

4.6 R´ esultats avec les donn´ ees des Etats-Unis . . . . 87

4.7 R´ esultats avec les donn´ ees de Luxembourg . . . . 87

6.1 Les notations utilis´ ees . . . . 112

6.2 Les variables utilis´ ees . . . . 112

6.3 Les r´ esultats de DCA, SE et COUENNE avec le mˆ eme temps d’ex´ ecution dans le cas o` u n = 5 . . . . 120

6.4 Les r´ esultats de DCA, SE et COUENNE avec le mˆ eme temps d’ex´ ecution dans le cas o` u n = 10 . . . . 121

6.5 Les r´ esultats de DCA, SE et COUENNE avec le mˆ eme temps d’ex´ ecution dans le cas o` u n = 20 . . . . 121

6.6 Les r´ eesultats de DCA, SE et COUENNE avec le mˆ eme temps d’ex´ ecution dans le cas o` u n = 50 . . . . 122

7

(14)

8 Liste des tableaux

6.7 Les r´ esultats de DCA, SE et COUENNE avec le mˆ eme temps d’ex´ ecution dans

le cas o` u n = 100 . . . . 122

6.8 Les r´ esultats de DCA, SEDCA, SE et COUENNE apr` es 3 heures dans le cas o` u n = 5 . . . . 125

6.9 Les r´ esultats de DCA, SEDCA, SE et COUENNE apr` es 3 heures dans le cas o` u n = 10 . . . . 126

6.10 Les r´ esultats de DCA, SEDCA, SE et COUENNE apr` es 3 heures dans le cas o` u n = 20 . . . . 127

6.11 Les r´ esultats de DCA, SEDCA, SE et COUENNE apr` es 3 heures dans le cas o` u n = 50 . . . . 128

6.12 Les r´ esultats de DCA, SEDCA, SE et COUENNE apr` es 3 heures dans le cas o` u n = 100 . . . . 129

6.13 Les r´ esultats de SEDCA, SE et COUENNE au moment o` u SEDCA s’arrˆ ete dans le cas n = 20 . . . . 130

6.14 Les r´ esultats de SEDCA, SE et COUENNE au moment o` u SEDCA s’arrˆ ete dans le cas n = 50 . . . . 130

6.15 Les r´ esultats de SEDCA, SE et COUENNE au moment o` u SEDCA s’arrˆ ete dans le cas n = 100 . . . . 131

7.1 R´ esultats dans le cas o` u I = 5, K = 10, T = 12. . . . . 148

7.2 R´ esultats dans le cas o` u I = 10, K = 10, T = 12. . . . . 149

7.3 R´ esultats dans le cas o` u I = 15, K = 10, R = 6, T = 12. . . . . 150

7.4 R´ esultats dans le cas o` u I = 20, K = 10, R = 6, T = 12. . . . . 151

7.5 R´ esultats dans le cas o` u I = 30, K = 10, R = 6, T = 12. . . . . 152

(15)

9 Liste des tableaux

(16)

10 Liste des tableaux

(17)

Liste des Publications et Conf´ erences

Tran Duc Quynh

Article avec comit´ e de lecture

Le Thi Hoai An, Tran Duc Quynh, Solving continuous min max problem for single period portfolio selection with discrete constraints by DCA, to appear in Optimization.

Le Thi Hoai An, Tran Duc Quynh, Pham Dinh Tao, A DC programming approach for a class of bilevel programming problems and application in portfolio selection, accepted to appear in Numerical Algebra, Control and Optimization (NACO) with minor revisions.

Tran Duc Quynh, Le Thi Hoai An, Kondo Hloindo Adjallah, ”DCA for mi- nimizing the cost and tardiness of preventive maintenance tasks under real-time allocation constraint, LNCS, Volume 5991, pp 410-419.

Tran Duc Quynh, Le Thi Hoai An, A fast and scalable algorithm for a multi-stage manufacturing problem, in the proceeding of the conference IESM 2011, 10 pages.

Le Thi Hoai An, Tran Duc Quynh, Transfer prices for two-enterprise supply chain optimization by DCA, in the proceeding of the internet conference IPROMS 2010, 15-26 November 2010, 6 pages.

Le Thi Hoai An, Tran Duc Quynh, Kondo Hloindo Adjallah, Minimization of preventive maintenance cost with unequal release dates and tardiness penalties, un- der real-time and resource constraints, using DCA, submitted to Applied Mathematics &

Computation.

Le Thi Hoai An, Pham Dinh Tao, Tran Duc Quynh, Optimizing a multi-stage pro- duction/inventory system with bottleneck by DC programming based approaches, submitted to IEEE-SMC.

Le Thi Hoai An, Tran Duc Quynh, A DC Programming approach for multi-period

11

(18)

12 Liste des tableaux

problem of fair transfer prices and inventory holding policies in two-enterprise supply chains, submitted to Computer & Operation Research.

Communications aux colloques internationaux avec actes publi´ es

Duc Quynh Tran, Hoai An Le Thi, DCA for solving continuous min max problem for single period portfolio selection, invited session on Novel opportunities of DC programming and DCA for Industry and Finance, 23rd European Conference on Operational Research, Bonn, July 5 - 8, 2009.

Tran Duc Quynh, Le Thi Hoai An, DCA for solving the problem of fair transfer price and inventory holding policies in two-enterprise supply chains, International Conference on Computational Management Science. Vienna, Austria. July 28-30, 2010.”

Tran Duc Quynh, Le Thi Hoai An, Pham Dinh Tao DC programming approach

for a class of bilevel programming problems and application in portfolio selection, The

8th International Conference on Optimization : Techniques and Applications (ICOTA8),

December 10-13, 2010 Shanghai, China.

(19)

Introduction g´ en´ erale

Contexte g´ en´ eral et probl´ ematique

L’optimisation est une branche importante des math´ ematiques. En g´ en´ eral, elle consiste ` a d´ eterminer les meilleurs ´ el´ ements d’un ensemble au sens d’un crit` ere donn´ e. On peut rencon- trer des probl` emes d’optimisation dans divers domaines, par exemple l’´ economie, la gestion de portefeuille, la th´ eorie de jeux, la gestion de production, la t´ el´ ecommunication,... Pour r´ esoudre ces probl` eme, l’optimisation offre un cadre algorithmique tr` es riche. On peut distin- guer deux branches de l’optimisation d´ eterministe : la programmation convexe et la program- mation non convexe. Un programme convexe ou un probl` eme d’optimisation convexe est celui de la minimisation d’une fonction (objectif) convexe sous des contraintes convexes. Lorsque la double convexit´ e chez l’objectif et les contraintes n’est pas v´ erifi´ ee, on est en face un probl` eme d’optimisation non convexe. La double convexit´ e d’un programme convexe permet d’´ etablir des caract´ erisations (sous forme de conditions n´ ecessaires et suffisantes) de solu- tions optimales et ainsi de construire des m´ ethodes it´ eratives convergeant vers des solutions optimales. Th´ eoriquement on peut r´ esoudre tout programme convexe, mais encore faut-il bien ´ etudier la formulation du programme convexe en question - la reformulation constitue d’ailleurs un th` eme de recherche d’actualit´ e - et bien adapt´ ee, aux structures sp´ ecifiques des probl` emes trait´ es, pour proposer des variantes performantes peu coˆ uteuses et donc capables d’atteindre des dimensions r´ eelles tr` es importantes. L’absence de cette double convexit´ e rend la r´ esolution d’un programme non convexe difficile voire impossible dans l’´ etat actuel des choses. Contrairement ` a la programmation convexe, les solutions optimales locales et globales sont ` a distinguer dans un programme non convexe. D’autre part si l’on dispose des caract´ erisations d’optimalit´ e locale utilisables, au moins pour la classe des programmes non convexes assez r´ eguliers, qui permettent la construction des m´ ethodes convergeant vers des solutions locales (algorithmes locaux) il n’y a par contre pas de caract´ erisations d’optimalit´ e globale sur lesquelles sont bas´ ees les m´ ethodes it´ eratives convergeant vers des solutions glo- bales (algorithmes globaux). L’analyse et l’optimisation convexes modernes se voient ainsi conduits ` a une extension logique et naturelle de la non convexit´ e et la non diff´ erentiabilit´ e.

Les m´ ethodes num´ eriques conventionnelles de l’optimisation convexe ne fournissent que des minima locaux bien souvent ´ eloign´ es de l’optimum global.

L’optimisation non convexe connaˆıt une explosion spectaculaire depuis une quinzaine d’ann´ ees car dans les milieux industriels, on a commenc´ e ` a remplacer les mod` eles convexes par des mod` eles non convexes plus complexes mais plus fiables qui pr´ esentent mieux la nature des

13

(20)

14 Introduction g´ en´ erale

probl` emes ´ etudi´ es. Durant ces derni` eres ann´ ees, la recherche en optimisation non convexe a largement b´ en´ efici´ e des efforts des chercheurs et s’est enrichie de nouvelles approches. On peut distinguer deux approches diff´ erentes mais compl´ ementaires en programmation non convexe :

i)Les approches globales combinatoires qui sont bas´ ees sur les techniques combinatoires de la Recherche Op´ erationnelle. Elles consistent ` a localiser les solutions optimales ` a l’aide des m´ ethodes d’approximation, des techniques de coupe, des m´ ethodes de d´ ecomposition, de s´ eparation et ´ evaluation. Elles ont connu de tr` es nombreux d´ eveloppements impor- tants au cours de ces derni` eres ann´ ees ` a travers les travaux de H. Tuy (reconnu comme le pionnier) ([3]), R. Horst, P. Pardalos ([12, 14]). L’inconv´ enient majeur des m´ ethodes globales est leur lourdeur (encombrement en places m´ emoires) et leur coˆ ut trop impor- tant. Par cons´ equent, elles ne sont pas applicables aux probl` emes d’optimisation non convexes r´ eels qui sont souvent de tr` es grande dimension.

ii) Les approches locales et globales d’analyse convexe qui sont bas´ ees sur l’analyse et l’opti- misation convexe. Ici la programmation DC (Diff´ erence de deux fonctions Convexes) et DCA (DC Algorithmes) jouent le rˆ ole central car la plupart des probl` emes d’optimisa- tion non convexe sont formul´ es/reformul´ es sous la forme DC. Sur le plan algorithmique, l’essentiel repose sur les algorithmes de l’optimisation DC (DCA) introduits par Pham Dinh Tao en 1985 et d´ evelopp´ es intensivement ` a travers de nombreux travaux com- muns de Le Thi Hoai An et Pham Dinh Tao depuis 1993 pour devenir maintenant classiques et de plus en plus utilis´ es par des chercheurs et praticiens de par le monde, dans diff´ erents domaines des sciences appliqu´ ees (voir [17]-[50], [58]-[63] et [77]-[80]).

Les travaux de cette th` ese se situent dans le cadre de la programmation non convexe. Ils s’appuient principalement sur la programmation DC et DCA.

Un programme DC est de la forme

α = inf { f(x) := g(x) h(x) : x IR

n

} (P

dc

)

o` u g, h Γ

0

(IR

n

), le cˆ one convexe de toutes les fonctions convexes semi-continues inf´ erieurement et propres sur IR

n

. Une telle fonction f est appel´ ee fonction DC et g et h des composantes DC de f. La programmation DC est une extension de la Programmation Convexe : cette extension est assez large pour couvrir la quasi-totalit´ e des programmes non convexes dit r´ ealistes mais pas trop pour pouvoir utiliser l’arsenal puissant de la Program- mation Convexe. DCA est une approche locale qui travaille avec les deux fonctions convexes (dont la diff´ erence est la fonction objectif elle-mˆ eme du programme DC) et non avec cette fonction objectif. Puisqu’une fonction DC admet une infinit´ e de d´ ecompositions DC, il y a une infinit´ e de DCA appliqu´ es ` a un programme DC. Et les impacts de ces d´ ecompositions DC sur les qualit´ es des DCA correspondants (rapidit´ e, robustesse, globalit´ e, ...) sont impor- tants. La r´ esolution d’un probl` eme concret par DCA devrait r´ epondre aux deux questions cruciales :

La recherche d’une bonne d´ ecomposition DC : cette question est largement ouverte. En

pratique on cherche des d´ ecompositions DC bien adapt´ ees ` a la structure des probl` emes

(21)

15 Introduction g´ en´ erale

trait´ es. Les techniques de reformulation sont souvent utilis´ ees et tr` es efficaces pour l’obtention des d´ ecompositions DC int´ eressantes.

La recherche d’un bon point initial : cette recherche est bas´ ee sur la combinaison de DCA avec les m´ ethodes globales de type S´ eparation et Evaluation (SE) et/ou Approximation de l’Ext´ erieur (AE), sur l’hybridation de DCA et les algorithmes heuristiques.

Cadre de la th` ese, objets et objectifs, motivations

Cette th` ese est consacr´ ee ` a la mod´ elisation et la m´ ethode de r´ esolution des probl` emes d’opti- misation non convexes en deux domaines principaux : gestion financi` ere, plus pr´ ecis´ ement ges- tion de portefeuille et gestion de production. Ces deux domaines ont une relation coh´ erente : toutes les activit´ es de gestion de portefeuille et de gestion de production ont pour objectif de maximiser la performance d’une entreprise.

En gestion de portefeuille, le but d’investisseurs est de maximiser le rendement avec un ni- veau maximal fix´ e de risque ou de minimiser le risque avec un rendement minimal fix´ e. En 1952, H. Markowitz a propos´ e le premier mod` ele math´ ematique dans lequel il a utilis´ e la variance pour mesurer le risque et la moyenne pour mesurer le rendement. Grˆ ace ` a cette approche Moyenne-Variance (MV) dans la s´ election de portefeuille, H. Markowitz a re¸cu le prix Nobel d’´ economie en 1990 (partag´ e avec M.H. Miller et W. Sharpe). Depuis ce temps, nombreux chercheurs et praticiens s’int´ eressent ` a l’analyse de moyenne-variance, beaucoup d’extensions du mod` ele MV ont ´ et´ e ´ etudi´ ees. Pour adapter ` a la r´ ealit´ e, les chercheurs ont ajout´ e les termes non convexes comme la fonction non convexe de coˆ ut de transaction ou des variables binaires/enti` eres. En outre, il existe des mod` eles pour analyser le pire des cas dans lesquels l’on consid` ere multi sc´ enarios de risques et de rendement au lieu d’un seul vecteur de rendement et une seule matrice de covariance. Ce sont des mod` eles tr` es importants dans le contexte o` u l’investisseur veut se prot´ eger contre le risque. Malheureuse- ment, ces probl` emes se ram` enent souvent ` a un probl` eme d’optimisation avec des contraintes de compl´ ementarit´ e/des variables mixtes qui sont aussi non convexes et donc difficiles ` a r´ esoudre.

Dans le domaine de gestion de production, on rencontre souvent les probl` emes en variables mixtes et la fonction objectif est non lin´ eaire/ non convexe. En outre, beaucoup de probl` emes n’ont pas encore un mod` ele d´ eterministe et les m´ ethodes de r´ esolution sont heuristiques.

Ces m´ ethodes heuristiques ne nous permettent de trouver qu’une solution r´ ealisable mais il manque souvent des outils pour ´ evaluer la qualit´ e des solutions obtenues. Par cons´ equent, le d´ eveloppement des mod` eles d´ eterministes et des approches efficaces pour des probl` emes en gestion de production est un enjeu important.

Dans cette th` ese, nous d´ eveloppons les approches bas´ ees sur la programmation DC et DCA pour certains probl` emes d’optimisation en gestion financi` ere et en gestion de production. Du point de vue math´ ematique, les probl` emes ´ etudi´ es sont classifi´ es dans diff´ erentes cat´ egories : – La programmation lin´ eaire/quadratique convexe en variables mixtes.

– La programmation non lin´ eaire/non convexe en variables mixtes.

(22)

16 Introduction g´ en´ erale

– La programmation ` a deux niveaux.

La plupart des probl` emes consid´ er´ es sont combinatoires (variables 0-1 et/ou enti` eres). L’´ epine dorsale de notre m´ ethodologie est de reformuler ces probl` emes dans le cadre continu pour pouvoir utiliser DCA. L’avantage de l’approche DCA est sa capacit´ e de traiter une classe tr` es large des probl` emes qui couvre presque tous les probl` emes d’optimisation en r´ ealit´ e. En outre, DCA peut r´ esoudre des probl` emes d’optimisation difficiles avec la fonction objectif non convexe, non diff´ erentiable. De plus, pour ces probl` emes, la relaxation DC est prometteuse et la combinaison DCA avec l’algorithme par s´ eparation et ´ evaluation (SE) nous permet d’avoir une r´ esolution globale. Nous pouvons reformuler des probl` emes d’optimisation en variables mixtes, des probl` emes d’optimisation ` a deux niveaux sous la forme d’une programmation DC. En appliquant DCA, nous pouvons r´ esoudre des probl` emes d’optimisation de grande taille en gestion de production ou des probl` emes d’optimisation ` a deux niveaux/en variables mixtes difficiles en gestion de portefeuille.

Notre travail en Programmation DC et DCA pour la mod´ elisation, la conception et la r´ ealisation des DCA bien adapt´ e aux structures sp´ ecifiques des probl` emes choisis est compos´ e de :

Etude approfondie des mod` eles d’optimisation non convexe et la mod´ elisation DC des probl` emes ; Formulations et reformulations des programmes DC ´ equivalents, choix des d´ ecompositions DC les mieux adapt´ ees.

Mise en oeuvre des sch´ emas de DCA correspondant.

Combinaison de DCA et SE pour avoir une r´ esolution globale ou pour prouver la globalit´ e des solutions obtenues par DCA.

Impl´ ementations et simulations num´ eriques comparatives.

Plus pr´ ecis´ ement, les mod` eles trait´ es et les contributions au cours de la th` ese sont :

esolution du probl` eme min max continu en gestion de portefeuille en pr´ esence des contraintes de cardinalit´ e : c’est une extension de mod` ele MV classique pour analyser le pire des cas.

Le mod` ele min max continu a ´ et´ e pr´ esent´ e par N.Gulpinar et al. [82] mais ils n’ont pas consid´ er´ e la contrainte de cardinalit´ e, une contrainte importante en gestion de portefeuille.

Dans nos travaux, nous consid´ erons le probl` eme dans le cas de pr´ esence des contraintes de cardinalit´ e. La pr´ esence de ces contraintes rend le probl` eme plus adapt´ e ` a la r´ ealit´ e mais plus difficile ` a r´ esoudre en raison des variables mixtes. Pour la r´ esolution, nous l’avons reformul´ e sous la forme d’un programme DC et d´ evelopp´ e DCA pour le r´ esoudre. Nous avons ´ egalement pr´ esent´ e un probl` eme d’optimisation quadratique convexe en variables mixtes qui est ´ equivalent au probl` eme original. Les r´ esultats donn´ es par DCA ont ´ et´ e compar´ e avec ceux de CPLEX en r´ esolvant le probl` eme quadratique convexe en variables mixtes.

esolution d’une classe des probl` emes d’optimisation ` a deux niveaux et une application en

gestion de portefeuille : les probl` emes d’optimisation ` a deux niveaux ont beaucoup d’ap-

plications en ´ economie, en gestion financi` ere et en th´ eorie de jeux. Ils sont non convexes

mˆ eme quand toutes les fonctions objectifs et toutes les contraintes sont lin´ eaires. En outre,

ils sont prouv´ es NP-difficile dans nombreuse articles [141, 142, 143]. Concernant ` a notre

travail, nous pr´ esentons une approche bas´ ee sur la programmation DC et DCA pour une

(23)

17 Introduction g´ en´ erale

classe des probl` emes d’optimisation ` a deux niveaux o` u la fonction objectif du premier ni- veau est quadratique convexe, la fonction objectif du second niveau et toutes les contrainte sont lin´ eaires. La comparaison sur les jeux de donn´ e de grande dimension ont ´ egalement

´ et´ e effectu´ e. Finalement, nous pr´ esentons une application en s´ election de portefeuille. Les r´ esultats num´ eriques sur les donn´ ees r´ eelles qui sont les prix des actifs sur le march´ e de la France, Luxembourg, Angleterre, Etats-Unis ont aussi ´ et´ e rapport´ es.

Minimisation du coˆ ut de maintenance comprenant le temps de s´ ejour et la p´ enalit´ e du retard : c’est un probl` eme de distribution des tˆ aches de maintenance aux r´ eparateurs dans l’objectif de minimiser le total du temps de s´ ejour et la p´ enalit´ e de retard. Il n’y a eu aucun mod` ele d´ eterministe pour ce probl` eme avant notre travail. Une nouvelle m´ ethode de r´ esolution existante est heuristique, bas´ ee sur la r` egle de temps de s´ ejour (FTR) (”flow- time rule” en anglais). En discr´ etisant l’horizon de temps, nous avons mod´ elis´ e le probl` eme comme un programme lin´ eaire en variables mixtes, ensuite reformul´ e le probl` eme sous la forme d’une programmation DC et utilis´ e DCA pour le r´ esoudre. DCA peut r´ esoudre un probl` eme avec 9000 variables binaire et environs 18000 variables continues. Les r´ esultats num´ eriques fournis par DCA ont ´ egalement ´ et´ e compar´ es avec ceux donn´ es par FTR.

Minimisation du coˆ ut d’un syst` eme de production/stockage multi-´ etapes en pr´ esence de goulot d’´ etrangement : il s’agit d’un probl` eme d’optimisation non convexe en variables mixtes enti` eres. La fonction objectif non convexe rend le probl` eme tr` es difficile au point de vue de l’optimisation d´ eterministe. Une m´ ethode existante est heuristique mais l’on ne sait pas la qualit´ e des solutions obtenues car il n’y a pas d’outil pour ´ evaluer la borne inf´ erieure. Dans notre travail, nous avons structur´ e le probl` eme et d´ evelopp´ e un algorithme DCA explicite. L’algorithme obtenu est donc tr` es rapide. En outre, nous avons propos´ e un probl` eme relax´ e convexe en basant sur la relaxation DC pour calculer la borne inf´ erieure.

Une m´ ethode par s´ eparation et ´ evaluation (SE) et un algorithme combin´ e SE et DCA ont ´ et´ e d´ evelopp´ es. La comparaison sur les r´ esultats num´ eriques donn´ es par tous les trois algorithmes et COUENNE, un logiciel pour la programmation non convexes, a ´ egalement

´ et´ e effectu´ ee.

etermination des prix de transfert et les politiques de stockage pour une chaˆıne d’appro- visionnement de deux entreprises : on consid` ere une chaˆıne d’approvisionnement de deux entreprises. L’entreprise A fabrique et livre les produits ` a l’entreprise B et l’entreprise B les distribue au client. En r´ ealit´ e, le prix de transfert de chaque produit est s´ electionn´ e parmi des niveaux fix´ es par le si` ege social. L’objectif est de d´ eterminer le prix de transfert de chaque produit, la politique de stockage/transport pour maximiser le b´ en´ efice total de A et B en assurant que la distribution de b´ en´ efice entre A et B est ´ equilibr´ ee. Ici, nous nous int´ eressons ` a l’approche bas´ ee sur la maximisation de la fonction de n´ egociation Nash qui est prouv´ e meilleure que les autres. En 2002, Jonatan a mod´ elis´ e le probl` eme consid´ er´ e comme un programme non lin´ eaire/non convexe en variables mixtes (PNLM).

Dans notre travail, nous avons ´ etudi´ e l’algorithme DCA pour le probl` eme PNLM consid´ er´ e.

Un probl` eme relax´ e convexe a ´ egalement ´ et´ e propos´ e dans le but de construire un sch´ ema SE. Apr` es, nous avons combin´ e DCA avec la m´ ethode SE o` u DCA est utilis´ e pour trouver une bonne solution r´ ealisable.

L’approches bas´ ees sur la programmation DC et DCA pr´ esent´ es dans cette th` ese nous

(24)

18 Introduction g´ en´ erale

montrent que DCA peut ˆ etre appliqu´ ee dans nombreuse classes des probl` emes r´ eels. En outre, nous pouvons combiner DCA avec des m´ ethodes globales, surtout SE pour obtenir un algorithme global efficace.

Organisation de la th` ese

La th` ese est divis´ ee en trois parties et compos´ ee de sept chapitres

i) Dans la premi` ere partie intitul´ ee ”Outils de base” nous pr´ esentons des outils th´ eoriques et algorithmiques servant des r´ ef´ erences aux autres. Apr` es une pr´ esentation non exhaustive mais compl` ete de la programmation DC et DCA dans le Chapitre 1, nous explorons la technique de S´ eparation et Evaluation dans le Chapitre 2.

ii) La seconde partie concerne les probl` emes d’optimisation non convexe en gestion de por- tefeuille. Elle comprend 2 chapitres. Le Chapitre 3 est consacr´ e ` a la r´ esolution du probl` eme min max continu en gestion de portefeuille et en pr´ esence des contraintes de cardinalit´ e. La r´ esolution d’une classe des probl` emes d’optimisation ` a deux niveaux et une application en s´ election de portefeuille est pr´ esent´ ee dans le Chapitre 4.

iii) La troisi` eme partie est intitul´ ee ”Optimisation non convexe en gestion de production”.

Elle est compos´ ee de trois chapitres. Dans le Chapitre 5, nous ´ etudions le probl` eme de minimisation du coˆ ut de maintenance comprenant le temps de s´ ejour et la p´ enalit´ e du retard.

Le Chapitre 6 est consacr´ e ` a la minimisation du coˆ ut d’un syst` eme de production/stockage

multi-´ etapes en pr´ esence de goulot d’´ etrangement. Finalement, la d´ etermination des prix

de transfert et les politiques de stockage pour une chaˆıne d’approvisionnement de deux

entreprises est d´ evelopp´ ee dans le dernier chapitre.

(25)

Premi` ere partie Outils de base

19

(26)
(27)

Chapitre 1

Introduction ` a la programmation DC et DCA

esum´e

Nous reportons dans ce chapitre les principaux r´ esultats relatifs ` a la programmation DC et DCA qui nous seront les plus utiles dans la suite.

Le cadre des programmes convexes s’est av´ er´ e trop ´ etroit, et ` a la notion de fonction convexe a succ´ ed´ e avec bonheur celle, plus g´ en´ erale, de fonction DC (diff´ erence de fonctions convexes).

Les fonctions DC poss` edent de nombreuses propri´ et´ es importantes qui ont ´ et´ e ´ etablies ` a partir des ann´ ees 50 par Alexandroff (1949), Landis (1951) et Hartman (1959). Une des principales propri´ et´ es est leur stabilit´ e relativement aux op´ erations fr´ equemment utilis´ ees en optimisation. Cependant, il faut attendre le milieu des ann´ ees 80 pour que la classe des fonctions DC soit introduite en optimisation, ´ elargissant ainsi les classes de probl` emes d’op- timisation avec l’apparition de la programmation DC. On distingue deux grandes approches DC :

1. L’approche combinatoire (cette terminologie est due au fait que les nouveaux outils in- troduits ont ´ et´ e inspir´ es par les concepts de l’optimisation combinatoire) en optimisation globale continue, etc.

2. L’approche de l’analyse convexe en optimisation non convexe.

Les algorithmes de l’approche combinatoire utilisent les techniques de l’optimisation glo- bale (m´ ethode de s´ eparation et d’´ evaluation, technique de coupe, m´ ethodes d’approximation fonctionnelle et ensembliste) ; ces algorithmes relativement sophistiqu´ es sont plutˆ ot lourds ` a mettre en oeuvre ; ils doivent donc ˆ etre r´ eserv´ es ` a des probl` emes de dimension raisonnable poss´ edant des structures bien adapt´ ees aux m´ ethodes lorsqu’il est important d’isoler l’opti- mum global.

Le pionnier de cette approche est H. Tuy dont le premier travail remonte ` a 1964. Ses tra- vaux sont abondants, citons les livres de Horst-Tuy ([3, 4]) qui pr´ esentent la th´ eorie, les algorithmes et les applications de l’optimisation globale. Viennent ensuite les principales

21

(28)

22 Introduction ` a la programmation DC et DCA

contributions de l’Ecole Am´ ericaine (P. M. Pardalos, J. B. Rosen,...), Allemande (R. Horst, N.V. Thoai,...), Fran¸caise (Le Thi Hoai An, Pham Dinh Tao,...) et l’´ Ecole Vietnamienne (Phan Thien Thach, Le Dung Muu, ...).

La seconde approche repose sur l’arsenal puissant d’analyse et d’optimisation convexe. Le premier travail, dˆ u ` a Pham Dinh Tao (1975), concerne le calcul des normes matricielles (probl` eme fondamental en analyse num´ erique) qui est un probl` eme de maximisation d’une fonction convexe sur un convexe. Le travail de Toland (1978) ([75]) sur la dualit´ e et l’op- timalit´ e locale en optimisation DC g´ en´ eralise de mani` ere ´ el´ egante les r´ esultats ´ etablis par Pham en maximisation convexe. La th´ eorie de l’optimisation DC est ensuite d´ evelopp´ ee no- tamment par Pham Dinh Tao, J. B. Hiriart Urruty, Jean - Paul Penot, Phan Thien Thach, Le Thi Hoai An. Sur le plan algorithmique dans le cadre de la seconde approche, on dis- pose actuellement que des DCA (DC Algorithms) introduits par Pham Dinh Tao (1986), qui sont bas´ es sur les conditions d’optimalit´ e et de dualit´ e en optimisation DC. Mais il a fallu attendre les travaux communs de Le Thi Hoai An et Pham Dinh Tao (voir [17]-[50] et [58]-[63]) pour qu’il s’impose d´ efinitivement en optimisation non convexe comme ´ etant un des algorithmes les plus simples et performants, capable de traiter des probl` emes de grande taille.

Nous reportons dans ce chapitre les principaux r´ esultats relatifs ` a la programmation DC et DCA qui nous seront les plus utiles pour nos travaux. Ces r´ esultats sont extraits de ceux pr´ esent´ es dans H. A. Le Thi 1994 ([17]), H. A. Le Thi 1997 ([18]). Pour une ´ etude d´ etaill´ ee nous nous r´ ef´ erons ` a ces deux r´ ef´ erences (voir ´ egalement [17]-[50] et [58]-[63]).

1.1 El´ ´ ements de base de l’analyse DC

1.1.1 Notations et propri´ et´ es

Ce paragraphe est consacr´ e ` a un rapide rappel d’analyse convexe pour faciliter la lecture de certains passages. Pour plus de d´ etails, on pourra se r´ ef´ erer aux ouvrages de P.J. Laurent ([15]), de R.T. Rockafellar ([64]) et d’A. Auslender ([69]), J.B.H. Urruty et al.([72]). Dans toute la suite X d´ esigne l’espace euclidien R

n

, muni du produit scalaire usuel not´ e ., . et de la norme euclidienne associ´ ee x = x, x

12

et Y l’espace vectoriel dual de X relatif au produit scalaire, que l’on peut identifier ` a X. On note par R = R ∪ {−∞ , + ∞} muni d’une structure alg´ ebrique d´ eduite de celle de R avec la convention que + ∞ − (+ ) = + ([64]).

Etant donn´ ee une fonction f : S −→ R d´ efinie sur un ensemble S convexe de X, on appelle domaine effectif de f l’ensemble

dom(f) = { x S : f (x) < + ∞}

et ´ epigraphe de f

epi(f) = { (x, α) S × R : f(x) < α } .

(29)

23 1.1. ´ El´ ements de base de l’analyse DC

Si dom(f) ̸ = et f(x) > −∞ pour tout x S alors la fonction f(x) est dite propre.

Une fonction f : S −→ R est dite convexe si son ´ epigraphe est un ensemble convexe de R × X. Ce qui est ´ equivalent de dire que S est un ensemble convexe et pour tout λ [0, 1]

on a

f ((1 λ)x

1

+ λx

2

) (1 λ)f(x

1

) + λf (x

2

) : x

1

, x

2

S. (1.1) On note alors Co(X) l’ensemble des fonctions convexes sur X.

Dans (1.1) si l’in´ egalit´ e stricte est v´ erifi´ ee pour tout λ ]0, 1[ et pour tout x

1

, x

2

S avec x

1

̸ = x

2

alors f est dite strictement convexe.

On dit que f(x) est fortement convexe sur un ensemble convexe C s’il existe un nombre ρ > 0 tel que

f ((1 λ)x

1

+ λx

2

) (1 λ)f (x

1

) + λf (x

2

) (1 λ)λ ρ

2 x

1

x

2

2

, (1.2) pour tout x

1

, x

2

C, et pour tout λ [0, 1]. Plus pr´ ecis´ ement f est fortement convexe sur C si

ρ(f, C) = Sup { ρ 0 : f ρ

2 .

2

est convexe sur C } > 0. (1.3) Il est clair que si ρ(f, C) > 0 alors (1.2) est v´ erifi´ e pour tout λ [0, ρ(f, C)[. On dit que la borne sup´ erieure est atteinte dans sa d´ efinition (1.3) si f

ρ(f,C)2

.

2

est convexe sur C. Si C X on notera ρ(f) au lieu de ρ(f, X).

Remarque 1.1 f fortement convexe = f strictement convexe = f convexe.

Soit une fonction convexe propre f sur X, un ´ el´ ement y

0

Y est dit un sous-gradient de f au point x

0

dom(f ) si

y

0

, x x

0

+ f(x

0

) f(x) x X.

L’ensemble de tous les sous-gradients de f au point x

0

est dit sous-diff´ erentiel de f au point x

0

et est not´ e par ∂f (x

0

).

Etant donn´ ´ e un nombre positif ϵ > 0, un ´ el´ ement y

0

Y est dit ϵ-sous-gradient de f au point x

0

si

y

0

, x x

0

+ f (x

0

) f (x) + ϵ x X.

L’ensemble de tous les ϵ-sous-gradients de f au point x

0

est dit ϵ-sous-diff´ erentiel de f au point x

0

et est not´ e

ϵ

f (x

0

).

La fonction f : S −→ R est dite semi-continue inf´ erieure (s.c.i) en un point x S si

y

lim

x

inf f (y) f(x).

On note Γ

0

(X) l’ensemble des fonctions convexes s.c.i. et propre sur X.

(30)

24 Introduction ` a la programmation DC et DCA

efinition 1.1 Soit une fonction quelconque f : X = R , la fonction conjugu´ ee de f, not´ ee f

, est d´ efinie sur Y par

f

(y) = sup {⟨ x, y ⟩ − f (x) : x X } . (1.4) f

est l’enveloppe sup´ erieure des fonctions affines continues y 7→ ⟨ x, y ⟩ − f(x) sur Y.

On r´ esume dans la proposition suivante les principales propri´ et´ es dont on aura besoin pour la suite :

Proposition 1.1 Si f Γ

0

(X) alors :

f Γ

0

(X) ⇐⇒ f

Γ

0

(Y ). Dans ce cas on a f = f

⋆⋆

,

y ∂f (x) ⇐⇒ f (x) + f

(y) = x, y et y ∂f (x) ⇐⇒ x ∂f

(y), ∂f (x) est une partie convexe ferm´ ee,

– Si ∂f (x) = { y } alors f est differentiable en x et f(x) = y, f(x

0

) = min { f(x), x X } ⇐⇒ 0 ∂f (x

0

).

1.1.2 Fonctions convexes poly´ edrales

Une partie convexe non vide C est dite convexe poly´ edrale si C =

m i=1

{ x : a

i

, x ⟩ − α

i

0 } o` u a

i

Y, α

i

R , i = 1, ..., m.

Une fonction est dite convexe poly´ edrale si

f (x) = sup {⟨ a

i

, x ⟩ − α

i

: i = 1, ..., k } + χ

c

(x).

o` u C est une partie convexe poly´ edrale et le symbole χ

c

d´ esigne la fonction indicatrice de C, i.e. χ

c

(x) = 0 si x C et + sinon.

Proposition 1.2 ([64])

– Soit f une fonction convexe poly´ edrale. f est partout finie si et seulement si C = X, – Si f est poly´ edrale alors f

l’est aussi. De plus si f est partout finie alors

f(x) = sup {⟨ a

i

, x ⟩ − a

i

: i = 1, ..., k } , dom(f

) = co { a

i

: i = 1, ..., k } ,

f

(y) = min { Σ

ki=1

λ

i

α

i

: y = Σ

ki=1

λ

i

a

i

, λ

i

0, Σ

ki=1

λ

i

= 1 } ,

– Si f est poly´ edrale alors ∂f(x) est une partie convexe poly´ edrale non vide en tout point

x dom(f ).

(31)

25 1.1. ´ El´ ements de base de l’analyse DC

1.1.3 Fonctions DC

Une fonction f : Ω 7→ R d´ efinie sur un ensemble convexe Ω R

n

est dite DC sur Ω si elle peut s’´ ecrire comme la diff´ erence de deux fonctions convexes sur Ω, i.e.

f (x) = g(x) h(x),

o` u g et h sont des fonctions convexes sur Ω. On note par DC(Ω) l’ensemble des fonctions DC sur Ω, et par DC

f

(Ω) le cas o` u les fonctions g et h sont convexes finies sur Ω.

Les fonctions DC poss` edent de nombreuses propri´ et´ es importantes qui ont ´ et´ e ´ etablies ` a partir des ann´ ees 50 par Alexandroff (1949), Landis (1951) et Hartman (1959) ; une des principales propri´ et´ es est leur stabilit´ e relativement aux op´ erations fr´ equemment utilis´ ees en optimisation. Plus pr´ ecis´ ement :

Proposition 1.3 (i) Une combinaison lin´ eaire de fonctions DC surest DC sur Ω, (ii) L’enveloppe sup´ erieure d’un ensemble fini de fonctions DC ` a valeur finie surest DC

sur Ω,

L’enveloppe inf´ erieure d’un ensemble fini de fonctions DC ` a valeur finie surest DC sur Ω,

(iii) Soit f DC

f

(Ω), alors | f (x) | , f

+

(x) = max { 0, f (x) } et f

(x) = min { 0, f(x) } sont DC sur Ω.

Ces r´ esultats se g´ en´ eralisent aux cas des fonctions ` a valeur dans R ∪ { + ∞} ([18]). Il en r´ esulte que l’ensemble des fonctions DC sur Ω est un espace vectoriel (DC(Ω)) : c’est le plus petit espace vectoriel contenant l’ensemble des fonctions convexes sur Ω(Co(Ω)).

Remarque 1.2 Etant donn´ ee une fonction DC f et sa repr´ esentation DC f = g h, alors pour toute fonction convexe finie φ, f = (g + φ) (h + φ) donne une autre repr´ esentation DC de f. Ainsi, une fonction DC admet une infinit´ e de d´ ecomposition DC.

D´ esignons par C

2

( R

n

), la classe des fonctions deux fois continˆ ument diff´ erentiables sur R

n

. Proposition 1.4 Toute fonction f C

2

( R

n

) est DC sur un ensemble convexe compact quelconque R

n

.

Puisque le sous-espace des polynˆ omes sur Ω est dense dans l’espace C(Ω) des fonctions num´ eriques continues sur Ω on en d´ eduit :

Corollaire 1.1 L’espace des fonctions DC sur un ensemble convexe compact R

n

est dense dans C(Ω), i.e.

e > 0, F C(Ω) : | f (x) F (x) | ≤ ϵ x Ω.

(32)

26 Introduction ` a la programmation DC et DCA

Soulignons que les fonctions DC interviennent tr` es fr´ equemment en pratique, aussi bien en optimisation differentiable que non diff´ erentiable. Un r´ esultat important ´ etabli par Hartman (1959) permet d’identifier les fonctions DC dans de nombreuses situations, en ayant recours simplement ` a une analyse locale de la convexit´ e (localement convexe, localement concave, localement DC).

Une fonction f : D 7→ R d´ efinie sur un ensemble convexe ouvert D R

n

est dite localement DC si pour tout x D il existe un voisinage convexe ouvert U de x et une paire de fonctions convexes g, h sur U telle que f |

U

= g |

U

h |

U

.

Proposition 1.5 Une fonction localement DC sur un ensemble convexe D est DC sur D.

1.2 Optimisation DC

De par la pr´ epond´ erance et de la richesse des propri´ et´ es des fonctions DC, le passage du sous- espace Co(Ω) ` a l’espace vectoriel DC(Ω) permet d’´ elargir significativement les probl` emes d’optimisation convexe ` a la non convexit´ e tout en conservant une structure sous-jacente fondamentalement li´ ee ` a la convexit´ e. Le domaine des probl` emes d’optimisation faisant in- tervenir des fonctions DC est ainsi relativement large et ouvert, couvrant la plupart des probl` emes d’application rencontr´ es.

Ainsi on ne peut d’embl´ ee traiter tout probl` eme d’optimisation non convexe et non differen- tiable. La classification suivante devenue maintenant classique :

(1) sup { f (x) : x C } , f et C sont convexes

(2) inf { g(x) h(x) : x X } , g et h sont convexes (3) inf { g(x) h(x) : x C, f

1

(x) f

2

(x) 0 } ,

o` u g, h, f

1

, f

2

et C sont convexes semble assez large pour contenir la quasi-totalit´ e des probl` emes non convexes rencontr´ es dans la vie courante. Le probl` eme (1) est un cas sp´ ecial du probl` eme (2) avec g = χ

C

, la fonction indicatrice de C, et h = f . Le probl` eme (2) peut ˆ

etre mod´ elis´ e sous la forme ´ equivalente de (1)

inf { t h(x) : g(x) t 0 } .

Quant au probl` eme (3) il peut ˆ etre transform´ e sous la forme (2) via la p´ enalit´ e exacte relative

`

a la contrainte DC f

1

(x) f

2

(x) 0. Sa r´ esolution peut ˆ etre aussi ramen´ ee, sous certaines conditions techniques, ` a celle d’une suite de probl` emes (1).

Le probl` eme (2) est commun´ ement appel´ e la programmation DC. Elle est d’un int´ erˆ et ma-

jeur aussi bien d’un point de vue pratique que th´ eorique. Du point de vue th´ eorique, on

(33)

27 1.2. Optimisation DC

peut souligner que, comme on l’a vu en haut, la classe des fonctions DC est remarquable- ment stable par rapport aux op´ erations fr´ equemment utilis´ ees en optimisation. En outre, on dispose d’une ´ el´ egante th´ eorie de la dualit´ e ([55, 56, 75, 70, 17, 18, 29]) qui, comme en optimisation convexe, a de profondes r´ epercussions pratiques sur les m´ ethodes num´ eriques.

Les algorithmes de l’optimisation DC (DCA) dus ` a Pham Dinh Tao ([57, 58]) constituent une nouvelle approche originale bas´ ee sur la th´ eorie DC. Ces algorithmes repr´ esentent en fait une g´ en´ eralisation des algorithmes de sous-gradients ´ etudi´ es par le mˆ eme auteur sur la maximisation convexe ([55, 57]). Cependant, il a fallu attendre les travaux communs de Le Thi et Pham au cours de ces dix derni` eres ann´ ees (voir [17]-[50] et [58]-[63]) pour que la programmation DC les DCA deviennent maintenant classiques et populaires.

1.2.1 Dualit´ e DC

En analyse convexe, le concept de la dualit´ e (fonctions conjugu´ ees, probl` eme dual, etc.) est une notion fondamentale tr` es puissante. Pour les probl` emes convexes et en particulier lin´ eaires, une th´ eorie de la dualit´ e a ´ et´ e d´ evelopp´ ee depuis d´ ej` a plusieurs d´ ecennies ([64]).

Plus r´ ecemment, en analyse non convexe d’importants concepts de dualit´ e ont ´ et´ e propos´ es et d´ evelopp´ es, tout d’abord pour les probl` emes de maximisation convexe, avant de parvenir aux probl` emes DC. Ainsi la dualit´ e DC introduite par Toland (1978) peut ˆ etre consid´ er´ ee comme une g´ en´ eralisation logique des travaux de Pham Dinh Tao (1975) sur la maximisation convexe. On va pr´ esenter ci-dessous les principaux r´ esultats (en optimisation DC) concer- nant les conditions d’optimalit´ e (locale et globale) et la dualit´ e DC. Pour plus de d´ etails, le lecteur est renvoy´ e au document de Le Thi (1997) (voir ´ egalement [29]).

Soit l’espace X = R

n

muni du produit scalaire usuel ., . et de la norme euclidienne . . D´ esignons par Y l’espace dual de X que l’on peut identifier ` a X lui-mˆ eme et par Γ

0

(X) l’ensemble de toutes les fonctions propres s.c.i. sur X.

Soient g(x) et h(x) deux fonctions convexes propres sur X( g, h Γ

0

(X)), consid´ erons le probl` eme DC

inf { g(x) h(x) : x X } (P ) et le probl` eme dual

inf { h

(y) g

(y) : y Y } (D) o` u g

(y) d´ esigne la fonction conjugu´ ee de g.

Ce r´ esultat de dualit´ e DC d´ efini ` a l’aide des fonctions conjugu´ ees donne une importante relation en optimisation DC ([75]).

Th´ eor` eme 1.1 Soient g et h Γ

0

(X), alors

(34)

28 Introduction ` a la programmation DC et DCA

(i)

inf

xdom(g)

{ g(x) h(x) } = inf

ydom(h)

{ h

(y) g

(y) } (1.5) (ii) Si y

0

est un minimum de h

g

sur Y alors chaque x

0

∂g

(y

0

) est un minimum de

g h sur X.

Preuve : (i)

α = inf { g (x) h(x) : x X }

= inf { g (x) sup {⟨ x, y ⟩ − h

(y) : y Y } : x X }

= inf { g (x) + inf { h

(y) − ⟨ x, y : y Y } : x X }

= inf

x

inf

y

{ h

(y) − ⟨ x, y ⟩ − g(x) }

= inf { h

(y) g

(y) : y Y } . (ii) cf. Toland ([75]).

2 Le th´ eor` eme (1.1) montre que r´ esoudre le probl` eme primal (P ) implique la r´ esolution du probl` eme dual (D) et vice-versa.

De par la parfaite sym´ etrie entre le probl` eme primal (P ) et le probl` eme dual (D), il apparaˆıt clairement que les r´ esultats ´ etablis pour l’un se transpose directement ` a l’autre. Cependant, nous choisissons ici de ne pas les pr´ esenter simultan´ ement afin de simplifier la pr´ esentation.

1.2.2 Optimalit´ e globale en optimisation DC

En optimisation convexe, x

0

minimise une fonction f Γ

0

(X) si et seulement si : 0 ∂f (x

0

).

En optimisation DC, la condition d’optimalit´ e globale suivante ([71]) est formul´ ee ` a l’aide des ϵ-sous-diff´ erentiels de g et h. Sa d´ emonstration (bas´ ee sur l’´ etude du comportement du ϵ-sous-diff´ erentiel d’une fonction convexe en fonction du param` etre ϵ) est compliqu´ ee. La d´ emonstration dans [18] est plus simple et convient bien au cadre de l’optimisation DC : elle exprime tout simplement que cette condition d’optimalit´ e globale est une traduction g´ eom´ etrique de l’´ egalit´ e des valeurs optimales dans les programmes DC primal et dual.

Th´ eor` eme 1.2 (Optimalit´ e globale DC) Soit f = g h o` u g, h Γ

0

(X) alors. x

0

est un minimum global de g(x) h(x) sur X si et seulement si,

ϵ

h(x

0

)

ϵ

g(x

0

) ϵ > 0. (1.6)

Remarque 1.3

Références

Documents relatifs

Cette expression peut aussi permettre de voir la pression exerc´ee par le flux de photons ou de l’onde ´electromagn´etique sur la surface S, en effet, il suffit de diviser la force

La constante d’´equilibre est ´elev´ee, on peut pr´evoir une r´eaction quasi totale dans le sens de la dismutation.. Cette valeur est bien tr`es petite devant 1 comme nous

Si l’une des famille ci-dessus est libre mais n’est pas une base de R 3 , la compl´ eter en une base de R 3.. D´ eterminer une base et

Donner la formule analytique pour l’intervale des valeurs de c d´etermin´es avec cette confiance.. Sachant que pour une distribution normale a = 1.96 si p(|z| &lt; a) = 0.95, donner

Or un sous- ensemble de R est connexe si et seulement si c’est un intervalle, et aucune r´eunion de deux ou plus de ces segments n’est un intervalle, car ils sont disjoints et

On traite d'abord le cas sans contrainte (l'algorithme construit est une extension de celui proposé par McCormick [8] dans le cas quadratique). Pour les problèmes avec contraintes,

Quand on remplit les ´etats avec les N ´electrons disponibles (avec un ´electron par niveau orbital puisque l’´enonc´e pr´ecise que les ´electrons sont tous dans le mˆeme ´etat

Apr` es une pr´ esentation des fondements th´ eoriques et algorithmiques de la program- mation DC et DCA, et les techniques de globalisation Branch-and-Bound dont n´ ecessite