• Aucun résultat trouvé

1.4 Optimisation lin´ eaire dans l’incertain

1.4.2 Robustesse en Programmation Lin´ eaire

Cela intervient naturellement pour des probl`emes `a deux niveaux. Le premier niveau des variables x est un niveau strat´egique, correspondant aux d´ecisions ”here and now” soumises aux incertitudes et impl´ement´ees avant la connaissance de l’al´ea. Le second niveau des variables y correspond aux d´ecisions ”wait and see” op´erationnelles r´ealis´ees apr`es connaissance de l’incertitude, agissant comme recours aux d´ecisions de premier niveau. Le second niveau adresse des questions de coˆut et de faisabilit´e, impliqu´ees par les d´ecisions de premier niveau. Le probl`eme stochastique avec recours s’´ecrit :

min x,ys>0c Tx +X s∈S πsqsys s.t : Ax > a ∀s ∈ S, Tsx + Wsys> hs x ∈ Nm× Rn + (1.45)

La d´ecision de premier niveau minimise l’esp´erance probabiliste des coˆuts attendus sur le second niveau. Au niveau des contraintes, cela induit la faisabilit´e des d´ecisions de premier niveau pour tous les al´eas. La r´esolution d’un tel probl`eme rentre dans le cadre de la d´ecomposition de Benders `a la section 1.2.3, avec des sous blocs form´es par les diff´erents sc´enarios. Cette m´ethode dans le cadre stochastique est aussi appel´ee algorithme L-shaped ([83]). Dans le cadre o`u des variables de second niveau sont enti`eres, et o`u toutes les variables de premier niveau sont enti`eres, l’algorithme de r´esolution ”integer L-shaped” ([39]) correspond `

a l’algorithme d´evelopp´e `a la section 1.2.6.

1.4.2 Robustesse en Programmation Lin´eaire

L’optimisation robuste est une approche alternative de gestion de l’incertain, ne n´ecessitant pas la connaissance de densit´es de probabilit´e. Le terme ”robuste” pr´esente des ambigu¨ıt´es dans le langage courant, ”robuste” est souvent employ´e pour qualifier une solution r´esistante `a des al´eas. Suivant le contexte, la d´efinition de robustesse se doit d’ˆetre pr´ecis´ee pour ´eviter les ambigu¨ıt´es. Dans le cadre de la programmation math´ematique, nous qualifions de robuste une solution r´ealisable pour toutes les r´ealisations consid´er´ees des al´eas, et dont le coˆut est optimis´e sur la pire r´ealisation de l’al´ea pouvant survenir dans un ensemble d’incertitude. La description des incertitudes se restreint au domaine de r´ealisation pr´evisionnel des al´eas, appel´e ensemble d’incertitude not´e Ω.

Formalisation dans le cadre de la Programmation Lin´eaire Dans le cadre de la programmation lin´eaire, nous consid´erons un PL de la forme suivante :

Pdet = min x>0c

Tx s.c : Ax 6 b

1.4. OPTIMISATION LIN ´EAIRE DANS L’INCERTAIN 39 o`u x est un vecteur colonne de taille n qui repr´esente les variables du probl`eme. Le coˆut c est un vecteur ligne de taille n, le second membre b est un vecteur colonne de taille m et la matrice A des contraintes de taille m × n. La d´efinition de robustesse invoqu´ee m`ene au probl`eme min-max suivant :

Prob= min

x>0maxω∈Ωc Tx s.c : ∀ω ∈ Ω, A(ω)x 6 b(ω)

(1.47)

Cela s’interpr`ete comme un paradigme de th´eorie des jeux, comme si un adversaire fictif choisissait la r´ealisation al´eatoire apr`es la prise de la d´ecision des variables x. Le probl`eme ci dessus correspond au choix optimal en x, en consid´erant que l’adversaire fictif choisira la r´ealisation dans Ω la plus d´efavorable.

En toute g´en´eralit´e, on peut supposer que l’incertitude porte uniquement sur la matrice des contraintes A. On peut se ramener `a un tel cas en ajoutant les variables xn+1 et xn+2, avec l’´ecriture suivante :

Pdet = min x>0xn+2 s.t : xn+1= 1 ∀i ∈ [[1, m]], Pn j=1Ai,jxj − bixn+1 6 0 Pn j=1cjxj − xn+26 0 (1.48)

Approche robuste de Soyster L’approche de Soyster, introduite en 1973 dans [115], est l’une des premi`eres approches historiques de d´etermination de solutions robustes d’un PL. L’incertitude est ´ecrite sur la matrice des contraintes A, avec l’hypoth`ese que les colonnes Aj d´ecrivent des domaines Kj ⊂ Rm convexes. Le probl`eme robuste est alors ´equivalent au probl`eme suivant, o`u ¯Aj = maxAj∈KjAi,j :

min x>0cx s.t : P

jA¯j.xj 6 b

(1.49)

On est alors ramen´e au cas d´eterministe, dans le cas o`u l’on sait calculer ais´ement maxAj∈KjAi,j. Un

cas particulier est le cas d’un produit d’intervalle, ie pour tout (i, j), Ai,j ∈Ai,j, ¯Ai,j, cela s’´ecrit : min

x>0cx s.t : P

jA¯i,j.xj 6 bi, ∀i

(1.50)

Approches param´etriques Les solutions robustes selon l’approche de Soyster sont qualifi´ees de so- lutions “conservatives” dans la litt´erature. En effet, la d´ecision est bas´ee sur le cas le plus d´efavorable, avec une probabilit´e d’occurrence potentiellement tr`es faible. Des approches param´etriques ont alors ´et´e d´evelopp´ees pour contrˆolerle degr´e de “conservatisme” de la solution robuste tout en garantissant une forte probabilit´e de satisfaction des contraintes.

L’ensemble d’incertitude adopt´e pour mod´eliser les coefficients de la matrice A est un mod`ele par intervalles : pour tout i ∈ [[1; m]] et j ∈ [[1; n]], le param`etre Ai,j appartient `a [ ˚Ai,j − ˆAi,j, ˚Ai,j+ ˆAi,j] , o`u

˚

Ai,j repr´esente la valeur nominale du coefficient Ai,j et ˆAi,j > 0 est sa d´eviation maximale. En d’autres termes, Ai,j = ˚Ai,j+ξi,jAˆi,j avec ξi,j ∈ [−1, 1]n×m. L’approche param´etrique de Bertsimas et Sim introduite dans [30] introduit des param`etres Γipour chacune des contraintes i ∈ [[1; m]], qui repr´esentent la somme des d´eviations totales par rapport aux valeurs nominales de tous les coefficients incertains de la mˆeme contrainte i. Il s’agit d’un mod`ele d’incertitude en lignes, l`a o`u l’approche de Soyster ´etait un mod`ele d’incertitude en colonnes. L’ensemble d’incertitude not´e ΦBSi (Γi) est alors ΦBSi (Γi) = {ξi,j ∈ [−1, 1]n|

X j

|ξi,j| 6 Γi}. Le probl`eme robuste s’´ecrit alors :

Prob= min x>0 n X j=1 cjxj s.c : ∀i ∈ [[1, m]], n X j=1 ˚ Ai,jxj + max ξi,j∈ΦBSi (Γi) n X j=1 ξi,jAˆi,jxj 6 bi (1.51)

Ainsi, pour une contrainte i, la valeur de Γi permet de contrˆoler la d´eviation totale des param`etres incertains de leur valeur nominale. Notons que Γi n’est pas n´ecessairement un entier, mais `a valeurs dans l’intervalle [0, n]. Pour Γi = 0, aucune d´eviation n’est autoris´ee sur les coefficients de la contrainte i et celle-ci est ´equivalente `a la contrainte nominale. Par contre, si Γi = n tous les param`etres sont susceptibles de d´evier, et l’on revient `a la formulation pire cas de Soyster. En dualisant le probl`eme de maximisation pr´esent dans la matrice des contraintes, il est prouv´e dans [30] que l’on se ram`ene au PL suivant :

Prob= min x,π,λ>0 n X j=1 cjxj s.c : ∀i ∈ [[1, m]], n X j=1 ˚ Ai,jxj+ πiΓi+ n X j=1 λi,j 6 bi ∀i ∈ [[1, m]], ∀j ∈ [[1, n]], πiλi,j > ˆAi,jxj

(1.52)

L’approche ”Multiband Robust Optimization” introduite dans [37] a permis d’´etendre les r´esultats et la mod´elisation de Bertsimas et Sim, en consid´erant des mod`eles d’incertitude bas´es sur des histogrammes.

Cas particuliers Si on a un cadre commun, les probl´ematiques sp´ecifiques de robustesses peuvent ˆetre mises `a profit. Dans le cas o`u seule la fonction objectif pr´esente des incertitudes, le domaine de faisabilit´e robuste est le mˆeme que le probl`eme d´eterministe. Dans un tel cas, d’autres crit`eres que le pire cas ont ´et´e d´evelopp´es avec une r´esolution efficace, on citera le crit`ere de regret maximal, cf [16].

Dans de nombreuses applications, l’incertitude affecte uniquement le second membre, via des contraintes de demandes ou de ressources. Dans ce cas, l’approche robuste naturelle est l’approche d’incertitude en colonnes de Soyster, o`u seule la colonne du au second membre d´efinit une incertitude non nulle. R´eduire le conservatisme en appliquant l’approche de Bertsimas et Sim est sans issue : le budget d’incertitude de la ligne ´etant consomm´e uniquement sur le second membre, cela revient `a r´eduire directement l’incertitude correspondant au second membre. Ce cas applicatif courant a conduit `a des travaux sp´ecifiques dans [106].