• Aucun résultat trouvé

Toutefois, cette approche comporte quelques limites : pour une itération fixée, nous résolvons à chaque instant le problème d’optimisation de la fonction valeur, problème qui dépend du pas de temps suivant. L’erreur d’approximation de la fonction valeur introduite en T se répercute ainsi au fil du temps et même grandit au fil du temps. Donc plus le nombre de pas de temps est important, plus l’approximation des fonctions valeur sur les premiers pas de temps sera grossière. Un nombre de pas de temps trop important est donc problématique, d’autant plus que les temps de calculs en sont fortement influencés. D’autre part, cette approche est heuristique et beaucoup de paramètres doivent être réglés manuellement (comme le choix des points candidats servant de support aux hyperplans). Enfin, les critères de convergence ne renseignent pas sur la distribution des coûts obtenus. En effet, le test d’arrêt ne se concentre que sur l’espérance du coût. Dans une optique de gestion des risques sur des scénarios extrêmes, les stratégies de la SDDP pourraient être très éloignées des stratégies optimales.

2.3.3 Les autres approches

Nous avons présenté des approches dans la cas statique ou à deux étapes. Pouvons-nous les généraliser ?

Pour appliquer l’algorithme du gradient stochastique, l’hypothèse de séparabilité dans le temps est fondamentale. Dans ce cas de boucle fermée, il est donc pas possible d’appliquer ce type d’algorithme. Cependant des premières pistes d’amélioration apparaissent dans la littérature [3].

En fait, à la vue de la difficulté des problèmes à plusieurs étapes, des techniques sous-optimales ont été introduites. C’est le cas des règles de décision. Ce concept de règle de décision a été introduit dans les années 60 dans le contexte du contrôle optimal. Il a été développé pour résoudre des problèmes de planning de production [53] avec un objectif quadratique. Depuis, ces règles de décision linéaires ont été utilisées avec de la programmation stochastique et des contraintes en probabilité [39] mais oubliées depuis. Elles sont réapparues récemment avec les travaux en optimisation robuste ([10, 9, 11, 1, 16]). Il s’agit de remplacer les commandes par des règles de décision linéaires en l’observation de l’aléa puis de construire l’équivalent robuste par rapport à ces aléas (voir chapitre 3). Au sujet des contraintes en probabilité, il semble que ces règles de décision soient à l’heure actuelle la seule façon d’introduire de la dynamique. Mais ceci n’est possible que sous de sévères hypothèses comme la séparabilité de la variable aléatoire. En programmation stochastique, nous pouvons souligner l’introduction de règles de décision constantes par morceaux ([103] et chapitre 6), heuristique qui sera présentée plus longuement dans cette thèse.

2.4

Conclusions

Nous venons de faire un rapide survol de l’optimisation dans l’incertain. Les problèmes d’op- timisation qui concernent cette thèse sont clairement multidimensionnels. La programmation dynamique, à cause de la malédiction de la dimension, et la programmation stochastique, à

BIBLIOGRAPHIE

cause de la difficulté numérique inhérente, ne semblent pas satisfaisantes pour résoudre des pro- blèmes à grande dimension. Or, le cadre industriel de cette thèse réclame la nécessité de proposer des approches qui soient cohérentes mais surtout qui répondent à des besoins particuliers comme des temps de calculs raisonnables. D’autre part, les commandes que nous pouvons chercher à obtenir comme, par exemple, des turbinages de centrales hydrauliques, se doivent de respecter au maximum les contraintes pour que les exploitants n’aient pas à faire des corrections inces- santes et importantes qui, finalement, désoptimisent le système. A la vue de nos objectifs et notamment la volonté d’avoir une approche opérationnelle, deux approches semblent particuliè- rement intéressantes. La première est l’optimisation robuste. L’optimisation robuste permet de s’assurer des contrôles réalisables pour toute réalisation d’un aléa dans un ensemble contenant ses réalisations les plus probables. La particularité principale de cette approche est la volonté affichée de conserver une complexité de l’équivalent déterministe équivalente à celle du problème déterministe original. Nous détaillerons et appliquerons donc cette approche notamment au sein des chapitres 3 et 4. La seconde est la Programmation Stochastique avec Règles de Décision Constantes par Morceaux. Il s’agit d’une heuristique basée sur la programmation stochastique classique sur arbre. Le grand avantage est qu’elle permet de contrôler la taille de l’arbre tout en obtenant des résultats intéressants. Nous présenterons cette approche et l’appliquerons au sein du chapitre 6.

Bibliographie

[1] E. Adida and G. Perakis. A Robust Optimization Approach to Dynamic Pricing and Inventory Control with no Backorders. Mathematical Programming, 107(1-2) :97 – 129, 2006.

[2] M. Balducci, G. Cohen, J.C. Dodu, M. Goursat, A. Hertz, J.P. Quadrat, and M. Viot. Comparaison de Trois Méthodes d’Optimisation des Investissements dans un Réseau de Transport d’Electricité. In Conference IFAC, 1981.

[3] K. Barty, J.S. Roy, and C. Strugarek. A Stochastic Gradient Type Algorithm for Closed Loop Problems. Stochastic Programming E-print Series, 2005-14, 2005.

[4] E.M.L. Beale. On Minimizing a Convex Function Subject to Linear Inequalities. J.R.

Stat. Soc., 17 :173–184, 1955.

[5] E.M. Bean, J.R. Birge, and R.L. Smith. Aggregation in Dynamic Programming. Operations

Research, 35 :215–220, 1987.

[6] R.E. Bellman. Dynamic Programming. Princeton University Press, 1957.

[7] R.E. Bellman. Adaptive Control Processes : a Guided Tour. Princeton University Press, 1961.

[8] R.E. Bellman and S. Dreyfus. Applied Dynamic Programming. Princeton University

Press, 1961.

[9] A. Ben-Tal, B. Golany, A. Nemirovski, and J.-Ph. Vial. Retailer-Supplier Flexible Com- mitments Contracts : a Robust Optimization Approach. Manufacturing and Service Ope-

BIBLIOGRAPHIE

[10] A. Ben-Tal, A. Goryashko, E. Guslitzer, and A. Nemirovski. Adjustable Robust Solutions of Uncertain Linear Programs. Mathematical Programming, 99(2) :351–376, 2004.

[11] A. Ben-Tal and A. Nemirovski. Selected Topics in Robust Convex Optimization. Mathe-

matical Programming : Series A and B, 112 :125–158, 2007.

[12] D.P. Bertsekas. Convergence of Discretization Procedures in Dynamic Programming.

IEEE transactions on automatic control, AC-20 :415–419, 1975.

[13] D.P. Bertsekas. Dynamic Programming and Optimal Control. Athena scientific, 1995. [14] D.P. Bertsekas and D.A. Castanon. Adaptative Aggregation Methods for Infinite Horizon

Dynamic Programming. IEEE transactions on automatic control, AC-34 :589–598, 1989. [15] D.P. Bertsekas and S.E. Shreve. Stochastic Optimal Control : the Discrete Time Case.

Academic Press, 1978.

[16] D. Bertsimas and A. Thiele. A Robust Optimization Approach to Inventory Theory.

Operations Research, 54(1) :150–168, 2006.

[17] J. R. Birge and F. Louveaux. Introduction to Stochastic Programming. Springer-Verlag New York, Inc., 1997.

[18] J.R. Birge. Abridged Nested Decomposition for Multistage Stochastic Linear Program- ming. Technical report, 1999.

[19] J. Blomvall and A. Shapiro. Solving Multistage Asset Investment Problems by the Sample Average Approximation Method. Technical report, Georgia Institute of Technology, At- lanta, GA, 2004, revised 2005.

[20] P. Bonami and M. A. Lejeune. An Exact Solution Approach for Portfolio Optimization Problems under Stochastic and Integer Constraints. Technical report, 2007.

[21] S. Brignol and A. Renaud. A New Model for Stochastic Optimization of Weekly Gene- ration Schedules. In In Proc. Fourth International Conf. on Advances in Power System

Control,volume 2, pages 656–661, 1997.

[22] P. Carpentier. Méthodes Numériques en Optimisation Stochastique, Cours du Master MMME, Filière Optimisation et Commande. Technical report, Université Paris 1, 2005. [23] P. Carpentier, G. Cohen, J.C. Culioli, and A. Renaud. Stochastic Optimization of Unit

Commitment : a New Decomposition Framework. IEEE Trans. Power Syst., 11 :1067– 1073, 1996.

[24] A. Charnes, W.W. Cooper, and G.H. Symonds. Cost Horizons and Certainty Equivalents : an Approach to Stochastic Programming of Heating Oil. Management Science, 4 :235–263, 1958.

[25] F. Chatelin. Iterative Aggregation/Desagreggation Methods, chapter 2.1, pages 199–207. Elsevier Science publishers, Amsterdam, Netherlands, 1984.

[26] G.B. Dantzig. Linear Programming under Uncertainty. Management Science, 1 :197–206, 1955.

[27] T. Homem de Mello. On Rates of Convergence for Stochastic Optimization Problems under Non-i.d.d. Sampling. Technical report, Dept. of Industrial Engineering and Management Sciences, Northwestern University, 2006.

BIBLIOGRAPHIE

[29] D. Dentcheva and W. Römisch. Optimal Power Generation under Uncertainty via Stochas- tic Programming. Stochastic Programming Methods and Technical Applications, 458 :22– 56, 1998.

[30] N. Van Dijk. On truncations and Perturbations of Markov Decision Problems with an Ap- plication to Queuing Network Overflow Control. Annals of Operations Research, 29 :515– 536, 1991.

[31] J.C. Dodu, M. Goursat, A. Hertz, J.-P. Quadrat, and M. Viot. Méthodes de Gradient Stochastique pour l’Optimisation des Investissements dans un Réseau Electrique. In Série

C, Mathématique, Informatique, number 2, pages 133–167. 1981.

[32] J. Dupačová, N. Growe-Kuska, and W. Römisch. Scenario Reduction in Stochastic Programming. An Approach using Probability Metrics. Mathematical Programming,

95(3) :493–511, 2003.

[33] M. Dyer and L. Stougie. Computational Complexity of Stochastic Programming Problems.

Mathematical Programming, 106(3) :423–432, 2006.

[34] A. Prékopa. Stochastic Programming. Kluwer, Dordrecht, Boston, 1995.

[35] Y. Ermoliev. Stochastic Quasi-Gradient Methods. In Y. Ermoliev and R.J.-B.Wets, edi- tors, Numerical Techniques for Stochastic Optimization, pages 143–185. Springer Verlag, Berlin, 1988.

[36] O. Fiedler and W. Römisch. Stability in Multistage Stochastic Programming. Annals of

Operations Research, 56 :79–93, 1995.

[37] B.L. Fox. Finite-State Approximations to Denumerable-State Dynamic Programs. Journal

of Mathematical Analysis and Applications, 34 :665–670, 1971.

[38] K. Frauendorfer and J. Güssow. Stochastic Multistage Programming in the Optimiza- tion and Management of a Power System. In K. Marti, editor, Stochastic Optimization

Techniques. Springer Verlag, 2002.

[39] S. J. Garstka and R. J.-B. Wets. On Decision Rules in Stochastic Programming. Mathe-

matical Programming, 7 :117–143, 1974.

[40] A. Gjelsvik, M.M. Belsnes, and A. Haugstad. An Algorithm for Stochastic Medium-Term Hydrothermal Scheduling under Spot Price Uncertainty. In In Proceedings 13th Power

System Computation Conference, 1999.

[41] R. Gollmer, M.P. Nowak, W. Römisch, and R. Schultz. Unit Commitment in Power Generation - A Basic Model and Some Extensions. Annals of Operations Research, 96 :167– 189, 2000.

[42] B.G. Gorenstin, N. M. Campodonico, J. P. Costa, and M. V. F. Pereira. Power System Expansion Planning under Uncertainty. IEEE Trans. Power Syst., 8 :129–136, 1993. [43] M. Goursat, J.P. Quadrat, and M. Viot. Stochastic Gradient Methods for Optimizing

Electrical Transportation Networks. In Conference on Stochastic Optimization, Kiev, 1984. [44] N. Gröwe-Kuska, H. Heitsch, and W. Römisch. Scenario Reduction and Scenario Tree Construction for Power Management Problems. In A. Borghetti, C.A. Nucci, and M. Pao- lone, editors, Power Tech Proceedings. IEEE, Bologna, 2003.

BIBLIOGRAPHIE

[45] N. Gröwe-Kuska, K.C. Kiwiel, M.P. Nowak, W. Römisch, and I. Wegner. Power Ma- nagement in a Hydro-Thermal System under Uncertainty by Lagrangian Relaxation. In A. Borghetti, C.A. Nucci, and M. Paolone, editors, IMA Volumes in Mathematics and its

Applications, volume 128, pages 39–70. Springer-Verlag, New-York, 2002.

[46] N. Gröwe-Kuska and W. Römisch. Stochastic Unit Commitment in Hydro-Thermal Power

Production Planning, chapter 30. MPS-SIAM Series in Optimization, 2005.

[47] H. Heitsch and W. Römisch. Scenario Reduction Algorithms in Stochastic Programming.

Computational optimization and applications, 24 :187–206, 2003.

[48] H. Heitsch and W. Römisch. Generation of Multivariate Scenario Trees to Model Stochas- ticity in Power Management. Computational Optimization and Applications, 24(2-3) :187 – 206, February-March 2003.

[49] R. Henrion. Introduction to Chance-Constrained Programming. Tutorial paper for the

Stochastic Programming Community Home Page, 2004.

[50] R. Henrion. Optimization Problems with Probabilistic Constraints. 10th International

Conference on Stochastic Programming, Tucson, 2004.

[51] R. Henrion and C. Strugarek. Convexity of Chance Constraints with Independent Random Variables. In Stochastic Programming E-Print Series, 9, 2006.

[52] K. Hinderer. Foundations of Non-Stationnary Dynamic Programming with Discrete Time

Parameter. Springer-Verlag, 1970.

[53] C.C. Holt, F. Modigiliani, J.F. Muth, and H. Simon. Planning Production, Inventories,

and Work Force. Prentice-Hall, New Jersey, 1960.

[54] A. Juditsky, G. Lan, A. Nemirovski, and A. Shapiro. Stochastic Approximation Approach to Stochastic Programming. SIAM Journal on Optimization, 2007 (submitted).

[55] P. Kall. Stochastic Linear Programming. Springer-Verlag, Berlin, 1976.

[56] E. Kiefer and J. Wolfowitz. Stochastic Estimation of the Maximum of a Regression Func- tion. Ann. Math. Statist., 23, 1952.

[57] M. Koivu. Variance Reduction in Sample Approximations of Stochastic Programs. Math.

Prog., 103 :463–485, 2005.

[58] H.J. Kushner and D.S. Clark. Stochastic Approximation Methods for Constrained and

Unconstrained Systems. Springer-Verlag, 1976.

[59] H.J. Kushner and P. Dupuis. Numerical Methods for Stochastic Control Problems in Continuous Time. Springer-Verlag, 1992.

[60] J. T. Linderoth, A. Shapiro, and S. J. Wright. The Empirical Behavior of Sampling Methods for Stochastic Programming. Annals of Operations Research, 142 :215–241, 2006. [61] W.K. Mak, D.P. Morton, and R.K. Wood. Monte-Carlo Bounding Techniques for Deter- mining Solution Quality in Stochastic Programs. Operation Research Letters, 24 :47–56, 1999.

[62] L.G.B. Marzano. Otimizaçao de Portfolio de Contratos de Energia Sistemas Hydrotermicos

com Despacho Centralizado. PhD thesis, Pontificia universidade catolica de Rio de Janeiro,

BIBLIOGRAPHIE

[63] R. Mendelssohn. An Iterative Procedure for Markov Decision Processes. Operations Re-

search, 30 :62–73, 1982.

[64] B.L. Miller and H.M. Wagner. Chance Constrained Programming with Joint Constraints.

Operations Research, 13 :930–945, 1965.

[65] G.L. Nemhauser. Introduction to Dynamic Programming. Wiley, 1966.

[66] A. Nemirovski and A. Shapiro. Scenario Approximations of Chance Constraints. Preprint, School of Industrial and Systems Engineering, Georgia Institute of Technology, 2004. [67] A. Nemirovski and A. Shapiro. Convex Approximations of Chance Constrained Programs.

SIAM Journal on Optimization, 17 :969–996, 2006.

[68] A. Nemirovski and D. Yudin. Problem Complexity and Method Efficiency in Optimization. 1983.

[69] Y. Nesterov and J.-Ph. Vial. Confidence Level Solutions for Stochastic Programming.

Automatica, 2008 (à paraître).

[70] H. Niederreiter. Random Number Generation and Quasi-Monte Carlo Methods. SIAM, Philadelphia, 1992.

[71] R. Nürnberg and W. Römisch. A Two-Stage Planning Model for Power Scheduling in a Hydro-Thermal System under Uncertainty. Optimization and Engineering, 3 :355–378, 2002.

[72] T. Numnonda, U.D. Annakkage, and N.C. Pahalawaththa. Unit Commitment using Sto- chastic Optimization. In Proc. 1996 International Conference on Intelligent Systems Ap-

plications to Power Systems, 8 :428–433, 1996.

[73] T. Pennanen and M. Koivu. Epi-Convergent Discretizations of Stochastic Programs via Integration Quadratures. Numerische Mathematik, 100 :141–163, 2005.

[74] M. V. F. Pereira and L. M. V. G. Pinto. Multi-Stage Stochastic Optimization Applied to Energy Planning. Mathematical Programming, 52 :359–375, 1991.

[75] M.V.F. Pereira, N. Campodonico, and R. Kelman. Application of Stochastic Dual Dynamic Programming and Extensions to Hydrothermal Scheduling. Technical report, PSRI, 1999. [76] G. Ch. Pflug. Scenario Tree Generation for Multiperiod Financial Optimization by Optimal

Discretization. Mathematical programming, 89, number 2 :251–271, 2001.

[77] E.L. Plambeck, B.R. Fu, S.M. Robinson, and M. Suri. Sample-Path Optimization of Convex Stochastic Performance Functions. Math. Prog., B 75 :137–176, 1996.

[78] B.T. Polyak. Convergence and Convergence Rate of Iterative Stochastic Algorithms. Au-

tomatica i Telemekhanika, 12 :83–94, 1976.

[79] B.T. Polyak. Subgradient Methods : a Survey of Soviet Research. Pergamon Press, 1978. [80] B.T. Polyak and Y.Z. Tsypkin. Pseudogradient Adaptation and Training Algorithms.

Automatica i Telem, 3, 1973.

[81] A. Prékopa. On Probabilistic Constrained Programming. In Princeton University Press, editor, Proceedings of the Princeton Symposium on Mathematical Programming, pages 113–138, 1970.

[82] A. Prékopa. Logarithmic Concave Measures with Applications to Stochastic Programming.

BIBLIOGRAPHIE

[83] A. Prékopa. Contributions to the Theory of Stochastic Programming. Mathematical Programming, 4 :202–221, 1973.

[84] M.L. Puterman. Markov Decision Processes. John Wiley and sons, 1994.

[85] W. Römisch. Stability of Stochastic Programming Problems. In Handbooks in Operations

Research and Management, Stochastic Programming, volume 10, pages 483–554. Elsevier,

Amsterdam, 2003.

[86] W. Römisch and R. Schultz. Stability Analysis for Stochastic Programs. Annals of Ope-

rations Research, 30 :241–266, 1991.

[87] W. Römisch and R. Schultz. Stability of Solutions for Stochastic Programs with Complete Recourse. Mathematics of Operations Research, 18 :590–609, 1993.

[88] H. Robbins and S. Monro. A Stochastic Approximation Method. Ann. Math. Statist., 22 :400–407, 1951.

[89] S.M. Ross. Introduction to Stochastic Dynamic Programming. Academic Press, 1983. [90] T.A. Rotting and A. Gjelsvik. Stochastic Dual Dynamic Programming for Seasonal Sche-

duling in the Norwegian Power System. IEEE transactions on power systems, 7 :273–279, 1992.

[91] A. Ruszczynski. Decomposition Methods, volume 10 of In Handbooks in Operations Re-

search and Management Science. Elsevier, North-Holland, Amsterdam, 2003.

[92] A. Ruszczynski and A. Shapiro. Stochastic Programming, volume 10 of In Handbooks

in Operations Research and Management Science. Elsevier, North-Holland, Amsterdam,

2003.

[93] T. Santoso, S. Ahmed, M. Goetschalckx, and A. Shapiro. A Stochastic Programming Ap- proach for Supply Chain Network Design under Uncertainty. Eur. J. Oper. Res., 167 :96– 115, 2005.

[94] L.I. Sennott. The Computation of Average Optimal Policies in Denumerable State Markov Decision Chains. Advances in Applied Probability, 29 :114–137, 1997.

[95] L.I. Sennott. Stochastic Dynamic Programming and the Control of Queueing Systems. John Wiley and sons, New-York, NY, 1999.

[96] A. Shapiro. Complexity of Two and Multi-Stage Stochastic Programming Problems. Confe- rence transparencies, 2005.

[97] A. Shapiro. On Complexity of Multistage Stochastic Programs. Operations Research Letters, 34 :1 – 8, 2006.

[98] A. Shapiro. Stochastic Programming Approach to Optimization under Uncertainty. Wor- king paper, School of Industrial and Systems Engineering, Georgia Institute of Technology, School of Industrial and Systems Engineering, Georgia Institute of Technology, Atlanta, Georgia 30332- Atlanta, Georgia 30332-0205, USA, 2006 (to appear in Mathematical Pro-

gramming).

[99] A. Shapiro and A. Nemirovski. On Complexity of Stochastic Programming Problems. Technical report, School of Industrial and Systems Engineering, Georgia Institute of Tech- nology, Atlanta, Georgia, USA, 2004.

[100] A. Shapiro and A. Philpott. A Tutorial on Stochastic Programming. Technical report, 2007.

BIBLIOGRAPHIE

[101] A. Shapiro and A. Ruszczynski. Lectures on Stochastic Programming. 2008.

[102] S. Takriti, C. Supatgiat, and L. Wu. Coordinating Fuel Inventory and Electric Power Generation under Uncertainty. IEEE Trans. Power Syst., 16 :603–608, 2001.

[103] J. Thénié and J.-P. Vial. Step Decision Rules for Multistage Stochastic Programming : a Heuristic Approach. Automatica, 2008 (to appear).

[104] P. Varaiya and J.-B. Wets. Stochastic Dynamic Optimization Approaches and Computa-

tion. Kluwer Academic Publisher, 1989.

[105] B. Verweij, S. Ahmed, A.J. Kleywegt, G. Nemhauser, and A. Shapiro. The Sample Average Approximation Method Applied to Stochastic Routing Problems : a Computional Study.

Comput. Optim. Appl., 24 :289–333, 2003.

[106] R.J.-B. Wets. Optimization. In G.L. Nemhauser, A.H.G. Rinnoy Kan, and M.J. Todd, editors, Handbooks in Operations Research and Management, Stochastic Programming, volume 1, pages 573–629. North-Holland Publishing Co, Amsterdam, 1989.

[107] D.J. White. On Truncations and Perturbations of Markov Decision Problems with an Application to Queuing Network Overflow Control. Journal of Mathematical analysis and

Applications, 74 :292–295, 1980.

[108] P.J. Wong. An Approach to Reducing the Computing Time for Dynamic Programming.

Deuxième partie

Etude et application de

l’optimisation robuste

Chapitre 3

Introduction à l’optimisation robuste

linéaire

Sommaire

3.1 Introduction . . . . 76 3.2 Problème d’optimisation linéaire avec coefficients incertains . . . . 78 3.3 Satisfaction en probabilité d’une contrainte d’inégalité . . . . 79 3.3.1 Distribution normale . . . 80 3.3.2 Distribution uniforme . . . 80 3.3.3 Distribution générale . . . 82 3.4 Solution robuste pour un ensemble d’incertitude . . . . 83 3.4.1 Contrainte robuste . . . 84 3.4.2 Equivalent robuste d’une contrainte d’inégalité . . . 86 3.5 Probabilité de satisfaction de la contrainte pour une solution robuste 90 3.5.1 Ensemble d’incertitude Ξ = B(0, k)2 . . . 91

3.5.2 Ensemble d’incertitude Ξ = B(0, 1)∞∩ B(0, k)1 . . . 93

3.6 Eléments pour définir l’ensemble d’incertitude . . . . 94 3.6.1 Une approche heuristique basée sur un aléa gaussien . . . 94 3.6.2 Equivalent robuste . . . 95 3.7 Problème général d’optimisation linéaire . . . . 97 3.7.1 Equivalent robuste d’une contrainte d’égalité . . . 97 3.7.2 Performance moyenne et performance garantie . . . 98 3.8 Problèmes dynamiques . . . . 99 3.8.1 Problèmes avec recours fixe . . . 101 3.8.2 Règle de décision linéaire par morceaux avec coefficients de recours fixes 101 3.8.3 Problèmes avec coefficient de recours incertain . . . 102 3.9 Extension du concept de robustesse : violation contrôlée des contraintes103

3.9.1 Définition formelle de la robustesse étendue . . . 103 3.9.2 Robustesse étendue dans le cadre de la programmation linéaire . . . 104 3.10 Conclusion . . . 107 Bibliographie . . . 108

3.1. INTRODUCTION

Ce chapitre est une introduction à l’optimisation robuste, limitée au cadre linéaire. En effet, les grands thèmes de l’optimisation robuste sont basés sur la dualité. Or, la dualité dans le cadre de la programmation linéaire a l’extrême avantage d’avoir des écritures moins lourdes que dans le cadre de la programmation conique. Bien que restreint, nous avons donc fait le choix délibéré de développer cette introduction dans le cadre linéaire afin d’être le plus clair possible. Ce chapitre reprend des principes de base (liens avec les contraintes en probabilité, obtention d’équivalents robustes) mais détaille également des extensions possibles (cas dynamique via des règles de décision, robustesse étendue,...). De plus, ce chapitre contient un énoncé (et sa preuve) de la proposition 3.1, permettant de borner la probabilité de non-satisfaction de la contrainte, plus fort que ce que la littérature fournit actuellement. Cette introduction, permettant de mettre en place des concepts utilisés dans la suite de cette thèse, a donné lieu à une note interne EDF [40] et a été soumis à [41].

3.1

Introduction

L’optimisation robuste traite de problèmes d’optimisation dans lesquels les coefficients des con- traintes et de l’objectif sont incertains. Son but est de fournir une solution opérationnelle à des problèmes de cette classe, en des temps de calcul raisonnables, là où les approches tradition- nelles, basées sur un modèle probabiliste, se heurtent à des difficultés numériques considérables. En effet, il est en général très difficile, voire impossible, de formuler un modèle probabiliste perti- nent pour les paramètres incertains du problème. Lorsque cela est malgré tout possible, le calcul d’espérances mathématiques avec des distributions multidimensionnelles peut être numérique- ment très lourd, voire impossible à effectuer avec une précision raisonnable. Et si ces difficultés sont surmontées, le problème d’optimisation est alors d’une telle dimension ou d’une complexité telle qu’il est impossible à résoudre, en particulier lorsqu’il s’agit de problèmes dynamiques avec plus de 2 périodes.

L’optimisation robuste contourne ces difficultés en stipulant au départ des hypothèses minimales et non probabilistes sur le domaine de variation des paramètres incertains. Le calcul d’espérances mathématiques est ainsi évacué ; il est remplacé par la notion de «pire des cas». Cela conduit à des problèmes d’optimisation de même nature que la version déterministe du problème ori- ginal et de taille modérément supérieure. L’optimisation robuste est donc opérationnelle, là où les approches alternatives se heurtent à des difficultés souvent insolubles de formulation et de résolution numérique, en particulier lorsqu’il s’agit de problèmes multi-étapes et/ou avec aléas multi-dimensionnels.

L’optimisation robuste propose donc une approche de protection contre le «pire des cas». Si le pire des cas est choisi parmi un ensemble trop vaste de possibles, l’exigence peut être trop sévère pour qu’il existe une solution admissible. L’idée est donc de ne choisir le pire cas que dans un ensemble restreint de possibles appelé ensemble d’incertitude. Cela exclut des cas extrêmes qu’une analyse probabiliste aurait sans doute déclaré hautement improbables. Cette formulation par le pire des cas conduit à remplacer la satisfaction d’une contrainte déterministe, par la satisfaction d’un nombre infini de contraintes, chacune de ces contraintes correspondant à une