• Aucun résultat trouvé

2.2 Flexibilité et agilité en planification

2.2.3 Contextes d’optimisation à plusieurs étapes

2.2.3.1 Aperçu

Optimisation stochastique biniveau

L’optimisation stochastique est un cadre formel qui permet de modéliser l’incertitude sur certains pa-ramètres au moyen de leur distribution de probabilité, supposée connue à l’avance. On pourra consulter le tutoriel de Shapiro et Philpott (2007) pour un aperçu de l’optimisation stochastique, et notamment la sec-tion 2 en ce qui concerne l’optimisasec-tion stochastique biniveau. On se contente ici de présenter le contexte décisionnel associé, dont s’inspirent assez largement tous les contextes décisionnels à plusieurs étapes, bien qu’ils ne fassent pas nécessairement intervenir des distributions de probabilité.

On considère deux types de variables :

— on regroupe dans x les variables fixées en première étape — on regroupe dans y les variables fixées en seconde étape

Le contexte décisionnel est le suivant. En toute connaissance des distributions de probabilité des diffé-rents paramètres apparaissant dans le modèle :

— on choisit x

— on « révèle » le scénario, c’est-à-dire qu’on fixe une réalisationω ∈ Ω, de telle sorte à ce que chaque

paramètre incertain a prenne désormais la valeur a(ω)

— on choisit y

L’objectif est alors de minimiser (ou maximiser) le gain moyen, c’est-à-dire l’espérance mathématique d’une certaine fonction objectif fixée dépendant de x, de y et de paramètres éventuellement incertains.

Dans le cas linéaire, on peut écrire le modèle suivant :

min x cTx + Eω    min y T (ω)x+W (ω)y≤h(ω) qT(ω)y   

On peut réécrire le modèle sous la forme suivante, en considérant de manière équivalente que ˜y est une

variable aléatoire à déterminer qui à une réalisationω de la distribution de probabilité associe une valeur

de la variable y :

min

x, ˜y cTx + Eω£qT(ω) ˜y(ω)¤

s. c. T (ω)x +W (ω) ˜y(ω) ≤ h(ω) ∀ω ∈ Ω Optimisation robuste ajustable et adaptative

L’optimisation stochastique n’est pas toujours une approche envisageable : en effet, dans de nombreuses applications, la distribution de probabilité associée aux événements est très difficile à estimer. Il est alors

2.2. FLEXIBILITÉ ET AGILITÉ EN PLANIFICATION

illusoire de tenter de résoudre un modèle d’optimisation stochastique. De plus, la plupart des modèles sont difficiles à résoudre, même dans le cas d’une seule étape.

Suite à ces deux constats, Bertsimas et Sim (2004) ont développé l’optimisation robuste, contexte déci-sionnel où l’on remplace les distributions de probabilité par des scénarios, chaque scénario s ∈ S correspon-dant à un jeu de valeurs pour l’ensemble des paramètres. Dans sa version classique avec un seul niveau de décision, l’objectif est de trouver une solution x qui soit faisable quel que soit le scénario considéré, et qui garantisse une certaine valeur de la fonction objectif pour chacun des scénarios. On cherche alors à trou-ver un x qui minimise cette valeur, correspondant au pire scénario qui pourrait arritrou-ver après avoir choisi la solution x.

En suivant la même approche que pour l’optimisation stochastique, Ben-Tal et al. (2004) introduisent alors l’optimisation robuste biniveau, également appelée optimisation ajustable ou optimisation

adapta-tive. De manière similaire à l’optimisation stochastique biniveau, ce contexte décisionnel considère lui aussi

deux types de variables x et y correspondant aux décisions à fixer avant et après révélation du scénario, et l’objectif est de trouver x tel que, quel que soit le scénario s ∈ S, il existe ysrendant (x, ys) admissible.

Les auteurs montrent que ce problème d’admissibilité pure est intractable dans le cas général. Parmi toutes les solutions x0 respectant ce premier critère d’admissibilité, un problème plus intéressant est de choisir l’une de celles qui minimisent une fonction objectif dans le pire scénario possible, cette fonction objectif pouvant éventuellement dépendre de la variable ysfixée en seconde étape. Formellement, on peut réécrire ce problème de la façon suivante dans le cas linéaire :

min

x cTx + maxs min

y Tsx+Wsy≤hs

(qs)Ty

En considérant de manière équivalente qu’une solution du problème consiste en la variable x et une collection de variables (ys)s∈S à appliquer pour chacun des scénarios, ce problème peut se réécrire de la façon suivante :

min

x,(ys)s∈S cTx + maxs (qs)Tys

s. c. Tsx + Wsys≤ hs ∀s ∈ S

Des résultats théoriques sont démontrés. En particulier, dans le cas où l’ensemble des scénarios peut être décrit par un polyèdre convexe paramétré parξ et où la matrice de recours Ws est nulle, les auteurs montrent qu’il existe une solution optimale (x, (y(ξ))ξ) avec y(ξ) = k + K ξ dépendant affinement de

l’in-certitude, et montrent alors que le problème est équivalent à un programme linéaire qui se résout poly-nomialement. Cette notion de stratégie de retour affine directement inspirée du retour linéaire d’état en automatique est reprise et améliorée par Bertsimas et Goyal (2012) : le cas d’une stratégie affine est

opti-2.2. FLEXIBILITÉ ET AGILITÉ EN PLANIFICATION

mal si l’ensemble d’incertitudes est un simplexe6. Dans les cas d’un ensemble d’incertitudes convexe plus général, les auteurs montrent des bornes inférieures pour une stratégie affine par rapport à l’optimum.

Robustesse avec recours

Dans l’optimisation adaptative et l’optimisation stochastique biniveau, la variable de seconde étape y se comprend comme une variable du modèle initial dont la valeur est fixée plus tardivement, une fois que la conjoncture (réalisationω ou scénario s) s’est précisée. Cependant, on peut également considérer que y est une modification de x. Le terme cTx dans la fonction objectif est alors le coût associé à la solution

initialement choisie, et le terme qTy correspond au coût dû à la transformation de x en y. On parle alors de

variable de recours pour y : elle permet de réparer la solution après révélation du scénario.

L’optimisation robuste avec recours est donc bien un cas particulier de l’optimisation adaptative. La contrainte de faisabilité concernant x et y est alors remplacé par :

— une contrainte assurant l’admissibilité de x dans le scénario nominal — une contrainte assurant l’admissibilité de yspour chaque scénario s

Introduit initialement par Liebchen et al. (2009), la robustesse avec recours peut également se voir comme l’application d’un algorithme de recours A ∈ A . Cet algorithme prend en entrée la solution ini-tialement choisie x ainsi que le scénario s, et renvoie en sortie la nouvelle solution y = A(x, s). Les auteurs décrivent une formulation générique d’un problème d’optimisation robuste avec recours, dont une solu-tion consiste en un couple (x, A), appelée précausolu-tion. Si P et Ps désignent respectivement l’ensemble des solutions admissibles pour le scénario initial et le scénario s, on aboutit à la formulation suivante.

inf

(x,A)∈P×Af (x)

s. c. A(x, s) ∈ Ps ∀s

Le coût d’application de l’algorithme est supposé nul sans perte de généralité, car il est possible d’in-troduire un coût dans les contraintes via une variable de budget associée. Ainsi, ce coût associé au recours permet de retrouver le formalisme de l’optimisation robuste ajustable, dont l’optimisation robuste avec recours n’est qu’un cas particulier avec une formulation différente.

Il existe plusieurs classes d’algorithmesA . On propose ici une classification inspirée par celle de Cice-rone et al. (2009) :

— Le cas de l’optimisation robuste statique de Bertsimas et Sim (2004) correspond à l’application d’au-cun recours : A(x, s) = x

— Inversement, le cas de la ré-optimisation sans contrainte correspond à celui où les recours sont pos-sibles : A(x, s) est une solution du problème où les paramètres ont été fixés à leur valeur dans le scénario s

2.2. FLEXIBILITÉ ET AGILITÉ EN PLANIFICATION

— On peut parvenir à un compromis entre l’optimisation robuste statique et la ré-optimisation sans contrainte en introduisant des restrictions pour l’algorithme :

— L’algorithme de recours doit s’effectuer en un temps raisonnable (borné par une constante) — L’algorithme doit fournir une solution y = A(x, s) qui est « proche » de x pour une certaine norme :

||A (x, s) − x|| ≤ K , où K est une constante fixée initialement. Cela correspond à l’optimisation robuste avec recours incrémental étudiée notamment par Nasrabadi et Orlin (2013).

Ancrage et solution stable

Récemment, Bendotti et al. (2017) ont introduit la notion d’ancrage d’une solution d’un problème d’op-timisation avec incertitudes. Partant du constat que modifier une solution suite à un changement la ren-dant non admissible est une opération très coûteuse, ils cherchent des solutions initiales proactives qui s’adaptent facilement à tous les aléas, de manière similaire à l’optimisation avec recours. Ils définissent ainsi le niveau d’ancrage entre deux solutions comme la similitude structurelle entre ces solutions, définie par exemple par le nombre de variables de décision identiques. Ils définissent alors deux types de pro-blèmes :

— Le problème réactif à niveau d’ancrage maximal intervient après révélation du scénario. Il s’agit de déterminer une solution y avec un niveau d’ancrage maximal vis à vis de la solution initialement choisie x, supposée non admissible pour le scénario considéré. Ce problème peut se voir avec le for-malisme de l’optimisation robuste avec recours comme le choix d’un algorithme A à coût minimal, c’est-à-dire garantissant la faisabilité de la solution avec un niveau d’ancrage maximal.

— Le problème proactif du choix d’une solution initiale avec niveau d’ancrage garanti. Il s’agit du pro-blème résolu à la première étape avant révélation du scénario. Une telle solution est dite ancrée lorsque, quel que soit le scénario considéré, il existe une solution avec laquelle elle a un niveau d’an-crage élevé.

De manière similaire, Akkan et al. (2016) ont étudié la robustesse d’une solution dans le cas particulier de l’élaboration d’emploi du temps pour des projets d’étudiants. Ils cherchent ainsi à produire des em-plois du temps qui soient facilement adaptables en cas d’empêchement majeur d’un intervenant ou retard important, cette adaptabilité se traduisant par l’existence d’un autre emploi du temps admissible qui soit

peu différent. On parle alors de stabilité de la solution trouvée. Les auteurs construisent un graphe dont

chaque sommet représente une solution admissible pour un ou plusieurs scénarios donnés, et où une arête relie deux emplois du temps jugés similaires. Il s’agit alors de choisir un sommet qui soit relié à le plus de sommets possibles pour un maximum de scénarios. Les auteurs proposent ainsi plusieurs distances heu-ristiques sur ce graphe pour caractériser au mieux la stabilité d’une solution vis à vis d’un ensemble de scénarios.

2.2. FLEXIBILITÉ ET AGILITÉ EN PLANIFICATION

Recours systématique vers l’optimalité

Goerigk et Schöbel (2014) ont introduit un concept d’optimisation sous incertitude en deux étapes nommé recovery-to-optimality. Les principales différences avec la robustesse avec recours sont les sui-vantes :

— La solution x choisie initialement n’est pas nécessairement admissible pour le scénario nominal considéré

— Le recours consiste à choisir y = A(x, s) comme une solution optimale (non nécessairement unique) pour le scénario révélé s

L’objectif est alors de minimiser la moyenne des coûts de la transformation de x en y, ou bien le pire coût, ie. respectivement la somme des distances ou le maximum de la distance de x à la solution optimale

ys d’un scénario s pour tous les scénarios. On retrouve ici la définition du niveau d’ancrage entre deux solutions, qu’on cherche à maximiser en choisissant une solution initiale fortement ancrée.

Ce contexte peut donc être vu comme un cas particulier de la robustesse avec recours et de la recherche de solution ancrée, à l’exception de la condition de faisabilité de la solution initiale qui peut ici être omise. Ce contexte peut également se rapprocher de la robustesse min-max regret, qui consiste à choisir une solu-tion initiale qui minimise le manque-à-gagner dans le pire scénario, c’est-à-dire la différence entre la fonc-tion objectif de la solufonc-tion choisie pour ce scénario et une solufonc-tion optimale pour ce scénario. En percevant cette différence de fonction objectif comme une distance, la robustesse min-max regret peut ainsi se voir comme un cas particulier de recovery-to-optimality, où la solution n’est toutefois pas modifiée en seconde étape et où l’on impose sa faisabilité dans le scénario initial et dans chacun des scénarios envisagés.

2.2.3.2 Applications au domaine ferroviaire