• Aucun résultat trouvé

4.2 État de l’art

4.2.2 Approches robustes sans recours

Les approches robustes sans recours considèrent que l’ensemble des décisions doivent être prises here-and-now, c’est-à-dire avant que l’incertitude ne soit révélée, et ne seront plus reconsidérées par la suite. On s’intéresse ici au problème linéaire suivant :

min x max ξ X j∈N cjxj (4.1) X j∈N aij(ξ)xj ≤ bi i ∈ M (4.2) xj ≥ 0 j ∈ N (4.3)

où les coefficients aij(ξ) appartiennent à un ensemble d’incertitude donné. Les incertitudes impactant les coefficients b et c ne sont pas prises en compte explicitement mais pourraient l’être en ajoutant des variables ou contraintes artificielles au modèle. Le modèle 4.1 sera appelé la contrepartie robuste du problème ne prenant pas en compte l’incertitude.

Une première approche pour résoudre ce type de problème a été introduite en 1973 par Soysters ([Soyster, 1973]) dans le cas où l’on suppose l’incertitude indépendante pour chaque contrainte. Cette approche propose de construire une solution qui reste réalisable pour toutes valeurs de données appartenant à un ensemble convexe, en résolvant le problème :

min xj≥0{X j∈N cjxj|X i aijxj ≤ bi, ∀i, aij ∈ κij = [ ¯aij − ˆaij, ¯aij+ ˆaij]} (4.4) où ¯aij la valeur centrale de la variable aij et ˆaij la demi-amplitude de déviation maximale. Soyster a montré qu’en l’absence de recours le problème 4.4 est équivalent à celui pour lequel on considère la « pire » réalisation des coefficients ligne par ligne, plus précisément on se ramène au problème :

min xj≥0{X j∈N cjxj|X j max aij∈κij(aijxj) ≤ bi, xj ≥ 0, ∀i} (4.5) Cette approche fournit des solutions garantissant une robustesse maximale mais dont le coût s’avère, en règle générale, bien plus élevé que celui du problème nominal. Les travaux ultérieurs ont cherché à obtenir un meilleur équilibre entre robustesse et qualité des solutions obtenues.

Ben Tal et Nemirovski ont proposé de restreindre l’ensemble d’incertitude au cas particulier d’une ensemble d’ellipsoïde ([Ben-Tal and Nemirovski, 1998]) pour traiter le cas d’une incer-titude impactant plusieurs lignes de la matrice des contraintes et ont montré que dans le cas d’un problème linéaire, la contrepartie robuste est équivalente à un problème quadratique dont la taille est polynomiale par rapport aux données d’entrées, si c’est le cas pour le problème non-robuste.

En 2004, Bertsimas & Sim [Bertsimas and Sim, 2004] ont introduit un modèle moins conservatif pour le cas où l’incertitude est indépendante pour chaque contrainte en observant que, dans les cas réels, on ne cherche pas à se protéger contre le cas où tous les coefficients prendraient leur « pire » valeur, puisque ce cas est en règle générale très improbable. On introduit alors un budget d’incertitude Γi pour la contrainte i et on cherche une solution qui reste réalisable lorsqu’au plus Γi coefficients varient dans la contrainte i. La contrepartie robuste du programme en nombres entiers (4.18) est obtenue en remplaçant chaque contrainte par :

X

j∈N

¯

aijxj+ β(x, Γi) ≤ bi

où β(x, Γi) est appelé la fonction de protection associée à l’incertitude impactant les coefficients de la ligne i, dépendant du budget d’incertitude Γi, et est définie comme :

β(x?, Γi) = max |S|⊆N |S≤Γi¯aijx?j = min z X j∈N ¯ aijx?jzj (4.6) s.t X j∈N zij ≤ Γi ∀i ∈ M (4.7) 1 ≥ zij ≥ 0 ∀j ∈ N (4.8)

β(x?, Γi) représente la plus forte augmentation du membre gauche de la contrainte i lorsque la décision x? est choisie et que au plus Γi coefficients dans la contrainte prennent leur plus forte valeur. Les paramètres Γi permettent de contrôler la robustesse de la solution : {Γi = 0|∀i} signifie que l’on ne prend pas en compte l’incertitude et que l’on considère la contrainte nominale du problème, alors que une valeur {Γi= N |∀i} correspond en revanche à considérer le pire cas pour chaque coefficient de chaque contrainte ce qui revient à considérer la méthode de Soyster présentée précédemment.

Par dualisation de la fonction de protection, la contrepartie robuste du modèle utilisant le budget d’incertitude de Bertsimas & Sim est donnée par :

(4.9) min X j ∈N cjxj X j ∈N aijxj+ Γiνi+ X j ∈N µij ≤ bi, i ∈ M −ˆaijxj+ νi+ µij ≥ 0, i ∈ M, j ∈ N νi ≥ 0 i ∈ M µij ≥ 0 i ∈ M, j ∈ N , xj ≥ 0 j ∈ N

Cette contrepartie robuste comprend un nombre de variables et de contraintes qui est polynomial par rapport à la taille du modèle nominal. Il faut seulement pour cela que β(x, Γi) soit exprimé comme un programme linéaire dont la taille est polynomiale par rapport au problème nominal. Cette méthode permet de trouver des solutions qui restent réalisables lorsque le nombre de coefficients qui changent est inférieur à Γi et donne également une probabilité de faisabilité lorsque cette condition n’est pas vérifiée.

Plus récemment, Matteo Fischetti et Michele Monaci ont remarqué que l’approche utilisant un bud-get d’incertitude ne permettait pas de contrôler le compromis entre optimalité et faisabilité. En particulier, même une protection contre un petit nombre de coefficients peut mener à une dégra-dation significative de la solution en comparaison de la solution du problème nominal alors même que dans la réalité certains recours auraient permis de gérer ces aléas. Leur approche, appelée Light Robustness ([Fischetti and Monaci, 2009]), cherche la solution « la plus robuste possible » parmi celles dont la dégradation de la fonction objectif par rapport au modèle nominal reste en dessous d’une valeur donnée. Plus précisément en partant de la contrepartie robuste du modèle avec budget d’incertitude, la contrepartie light robuste est donnée par :

minX i∈M ωiγi (4.10) X j∈N aijxj+ β(x, Γi) − γi≤ bi ∀i ∈ M (4.11) X j∈N aijxj ≤ bi ∀i ∈ M (4.12) X j∈N cjxj ≤ (1 + ∆)z? (4.13) xj ≥ 0 ∀j (4.14) γi ≥ 0 ∀i (4.15)

Ici, les variables γi jouent le rôle d’éventuels recours possibles (par exemple dans notre problème : déplacements d’arrêts, recours éventuels sur la recharge au fil des ré-optimisations, relaxation des contraintes d’arrêts ... ) permettant de gérer une infaisabilité provoquée par la contraintes robustes (4.11), on cherche alors dans la fonction objectif (4.10) à minimiser l’utilisation de ces variables artificielles. La présence des contraintes du problème nominal (4.12) assure que les variables artificielles ne sont utilisées que pour relâcher l’une des contraintes robustes et que la solution obtenue restera réalisable. La contrainte (4.13) limite la qualité de la solution «sacrifiée »à la robustesse par rapport à z? qui est la valeur de la solution « optimale » du problème nominal. Le rôle du paramètre ∆ est d’arbitrer entre qualité de la solution et robustesse aux aléas pris en compte.

L’un des aspects essentiels dans l’utilisation de ces approches est le paramétrage de Γ et de ∆. Dans leur article, Matteo Fischetti et Michele Monaci ont dans un premier temps paramétré le budget d’incertitude pour trouver le degré de robustesse permettant d’éviter toute infaisabilité avant de tester plusieurs valeurs de ∆ possibles. De plus, il est nécessaire de connaître la valeur de l’optimum du problème nominal dans la contrainte (4.13). Compte tenu de la taille de notre problème, il ne sera pas possible dans les cas pratiques d’effectuer plusieurs calculs, mais une connaissance « métier » des coûts et violations attendus ainsi que la solution obtenue lors des opti-misations réalisées aux mois précédents pourront fournir des valeurs approchées pour ces paramètres.

Si Fischetti et Monaci ont présenté la light robustnesse dans le cadre de l’extension d’une approche avec budget d’incertitude, l’ajout de contraintes robustes relâchées par des variables d’écart afin de contrôler le degré de robustesse est une méthode pouvant être exploitée dans un cadre plus large, et en particulier lorsqu’une même incertitude impacte plusieurs lignes de la matrice de contraintes (in-certitude dite column-wise). On remplace cette fois-ci les contraintes incertaines par une contrainte ne prenant pas en compte l’incertitude (contrainte du problème nominal) et une contrainte "pire cas" relâchée prenant en compte la pire réalisation de l’ensemble d’incertitude pour la contrainte considérée : X j∈N aijxj ≤ bi ∀i (4.16) X j∈N max ˜ aij∈ ˜A ( ˜aijxj) − γi ≤ bi ∀i ∈ M (4.17)

reste la fonction objectif initiale que l’on cherche à minimiser, à laquelle s’ajoute le critère de robustesse représenté par les variables d’écart γ.