• Aucun résultat trouvé

que l’ensemble d’incertitude Ξ est symétrique et que son centre est l’origine et coïncide avec la moyenne de ξ. Dans ce cas, nous pouvons considérer que

ˆ z = n X j=1 cj(0)x∗j

est un estimateur de la valeur moyenne de l’objectif. Le problème paramétrique en γ :

min x n X j=1 cj(0)x∗j n X j=1 cj(ξ)xj ≤ z∗+ γ, ∀ξ ∈ Ξ n X j=1 aij(ξ)xj ≤ bi(ξ), ∀ξ ∈ Ξ, i = 1, . . . , m1. n X j=1 gijxj = hi, ∀ξ ∈ Ξ, i = m1+ 1, . . . , m2,

avec γ > 0 permet de réaliser un arbitrage entre la performance moyenne et la performance garantie dans le pire cas.

3.8

Problèmes dynamiques

La présence de plusieurs étapes dans un problème d’optimisation apporte une difficulté concep- tuelle nouvelle. Dans un modèle déterministe, il n’y a pas vraiment lieu de distinguer un ordre temporel dans l’algorithme de résolution. Bien sûr, l’évolution est déterminée par des équations de dynamique liant des variables d’indices temporels différents, mais il n’y a pas d’obligation de tenir compte de cet ordre dans l’agencement des calculs. Dans un environnement incertain, la situation est totalement différente. En général, l’aléa de première étape est révélé au moment de la prise de décision de la deuxième étape. Ne pas en tenir compte priverait le décideur d’une faculté d’adaptation à la réalisation des aléas. Il est donc normal de définir les variables de décision de deuxième étape comme des fonctions de l’aléa de première étape. Cela veut dire, remplacer des variables réelles de dimension finie par des fonctions, soit un pas vers un ordre de complexité plus élevé. La difficulté ne s’arrête pas là. A la première étape, les décisions devront tenir compte de cet état des choses, c’est-à-dire anticiper les conséquences immédiates de l’aléa de première étape, mais aussi anticiper la fonction représentant la décision en deuxième étape. Une solution à un problème d’optimisation stochastique à plusieurs étapes est donc d’un ordre de grandeur très supérieur à ce que nous avons traité précédemment. Il n’est pas directement traitable par une approche robuste.

Pour avoir une chance de proposer une solution opérationnelle à un tel problème, il faut en réduire la complexité. Une piste possible consiste à réduire l’espace fonctionnel des décisions de deuxième période. Nous parlons alors de règle de décision, concept qui a été introduit dans le

3.8. PROBLÈMES DYNAMIQUES

cadre d’un problème de commande [29], et dans celui de la programmation stochastique ([26] ou encore [22]). Lorsque les décisions de deuxième période sont restreintes à des fonctions affines de l’aléa de première période, nous parlons de règle de décision linéaire. Cette restriction restreint le champ du possible et génère des solutions sous-optimales, mais ces solutions sont obtenues en résolvant des problèmes d’optimisation incomparablement plus simples. Le concept de règles de décision a été repris en optimisation robuste sous le vocable AARC (Affinely Adjustable Robust Counterpart) dans l’article [6].

La formalisation de cette idée s’effectue comme suit. Considérons la contrainte type d’un modèle à deux étapes :

a1(ξ1)Tx1+ a2(ξ1, ξ2)Tx2 ≤ b(ξ1, ξ2).

Pour fixer les idées, nous supposons que x1et x2sont des variables de dimension n et m respecti- vement. De même les coefficients a1 et a2 sont des vecteurs de dimension n et m respectivement.

La dépendance des coefficients a1, a2 et b vis-à-vis de l’aléa sous-jacent (ξ1, ξ2) s’exprime par les

fonctions affines

a1(ξ1) = ¯a1+ P1ξ1 (3.15a)

a2(ξ1, ξ2) = ¯a2+ P21ξ1+ P22ξ2 (3.15b)

b(ξ1, ξ2) = ¯b + bT1ξ1+ bT2ξ2. (3.15c)

Dans cette dernière relation, b1 et b2 sont des vecteurs de mêmes dimensions que ξ1 et ξ2.

L’ensemble d’incertitude Ξ est supposé satisfaire l’hypothèse 3.2 et donc être pohyédral. Le caractère adaptatif de la variable x2 est pris en compte par une fonction affine de ξ1

x2(ξ1) = ¯x2+ Dξ1.

Dans cette expression, les composantes du vecteur ¯x2 et de la matrice D sont les variables

de décision de cette nouvelle formulation. Ces variables sont à déterminer antérieurement à la réalisation de l’aléa ξ1. Le caractère affine est arbitraire. Cependant, il a été introduit comme

tel dans [6] avec des résultats satisfaisants. D’autre part, il permet de conserver la linéarité de l’équivalent robuste.

L’équivalent robuste de la contrainte dans ce problème à deux étapes est donc

(¯a1+ P1ξ1)Tx1+ (¯a2+ P21ξ1+ P22ξ2)T(¯x2+ Dξ1) − (¯b + b1ξ1+ b2ξ2) ≤ 0, ∀(ξ1, ξ2) ∈ Ξ.

Pour construire la contrepartie robuste, il faut résoudre le problème d’optimisation max

ξ1,ξ2

(P1Tx1+ P21Tx¯2+ DTa¯2− b1)ξ1+ (P22Tx¯2− b2)Tξ2+ (P21ξ1+ P22ξ2)TDξ1 (3.16)

(ξ1, ξ2) ∈ Ξ,

dans lequel les variables x1, x2 et D sont fixées et traitées comme des paramètres. Nous réalisons que ce problème est quadratique et fait intervenir les termes du second ordre

3.8. PROBLÈMES DYNAMIQUES

3.8.1 Problèmes avec recours fixe

Pour rester dans le cadre de la programmation linéaire, nous introduisons l’hypothèse suivante.

Hypothèse 3.3 Le vecteur a2(ξ) associé au recours est fixe ( a2(ξ) ≡ a2). Nous parlons alors

de « recours fixe ».

Théorème 3.2 Soit un problème dynamique avec recours fixe et un ensemble d’incertitude po-

lyédral. Si nous adoptons une règle de décision linéaire, l’équivalent robuste d’une contrainte dynamique est un ensemble défini par un nombre fini d’inégalités linéaires.

Preuve: L’hypothèse de recours fixe signifie que P21ξ1+ P22ξ2 ≡ 0. Le terme quadratique dans

l’objectif du problème d’optimisation permettant de construire l’équivalent robuste disparaît. Nous nous retrouvons donc dans le cadre linéaire usuel. 

L’implication pratique de l’hypothèse de recours fixe est que l’aléa de deuxième période est confiné au membre de droite de la contrainte. Ceci exclut notamment la gestion des aléas de prix de seconde période. Cette hypothèse est donc restrictive, mais elle permet tout de même de considérer des cas pertinents comme ceux d’un aléa sur la demande dans un problème de production ou de chaîne d’approvisionnement [5], ou un aléa sur les apports d’eau dans un problème de gestion de barrages hydrauliques [2].

3.8.2 Règle de décision linéaire par morceaux avec coefficients de recours fixes

La présente section propose une extension de la règle de décision linéaire qui différencie le recours en fonction du signe de l’aléa. Cette extension s’applique au cas d’un coefficient de recours fixe. Pour simplifier la présentation, nous considérons un problème à deux étapes avec comme contrainte typique

(¯a1+ P1ξ1)Tx1+ aT2x2(ξ1) ≤ ¯b + bT1ξ1+ bT2ξ2.

La règle proposée s’écrit

x2(ξ1) = ¯x2+ Dξ1+ Dpmax{ξ1, 0} + Dnmax{−ξ1, 0}.

Dans cette expression, le vecteur max{ξ1, 0} est obtenu en appliquant l’opérateur de maximisa- tion, coordonnée par coordonnée :

(max{ξ1, 0})i = max{ξ1i, 0}, i = 1, . . . , p.

Les éléments à choisir dans cette règle de décision sont, outre le vecteur ¯x2 et la matrice D ∈

Rn×p, les deux matrices Dp et Dn, toutes deux dans Rn×p.

La condition de robustesse sur la contrainte avec la règle de décision choisie est donc :

3.8. PROBLÈMES DYNAMIQUES

L’ensemble Ξ est un polyèdre quelconque. Pour formuler la condition de robustesse, nous consi- dérons le problème d’optimisation auxiliaire :

max

(ξ1,ξ2) ∈Ξ

(P1Tx1+ DTa2− b1)Tξ1+ (DpTa2)T max{ξ1, 0} + (DTna2)T max{−ξ1, 0} − bT2ξ2. (3.17)

Les fonctions max{ξ1, 0} et max{−ξ1, 0} sont convexes. Une condition suffisante pour que la

fonction objectif soit concave est que les coefficients des opérateurs max soient négatifs, soit DnTa2 ≤ 0 et DTpa2≤ 0.

Nous nous proposons de montrer que, sous la condition énoncée, nous pouvons formuler le problème d’optimisation auxiliaire (3.17) comme le problème de programmation linéaire sui- vant max ξ+1,ξ−1,ξ2 (P1Tx1+ DTa2− b1)Tξ1+ (DTpa2)Tξ1++ (D T na2)Tξ1−− b T 2ξ2 ξ1 = ξ1+− ξ − 1 ξ1+≥ 0, ξ1−≥ 0 (ξ1, ξ2) ∈ Ξ.

La preuve de la proposition s’obtient par un raisonnement semblable à celui utilisé dans la section 3.6.2. Il est facile de voir que pour toute solution réalisable (ξ1, ξ1+, ξ1−), le triplet

(ξ1, max{ξ1, 0}, max{−ξ1, 0}) est réalisable et améliore la fonction objectif. Il suffit de remar-

quer que ξ+1 − min{ξ1+, ξ1−} = max{ξ1, 0} et ξ1−− min{ξ+1, ξ −

1 } = max{−ξ1, 0}. Ce changement

de variable laisse l’objectif inchangé à l’exception du terme supplémentaire −(DT

pa2+ DTna2)T min{ξ+1, ξ − 1 } ≥ 0.

La règle de décision linéaire par morceaux s’écrit donc

x2(ξ1) = ¯x2+ Dξ1+ Dpmax{ξ1, 0} + Dnmax{−ξ1, 0},

avec comme contrainte sur les matrices Dp et Dn

DnTaj2 ≤ 0 et DTpaj2 ≤ 0 pour toute contrainte j où intervient un recours.

3.8.3 Problèmes avec coefficient de recours incertain

Dans le cas d’un recours avec coefficients incertains, les matrices P21 et P22 ne sont pas nulles.

Comme D est une variable de décision non contrainte, le forme quadratique dans l’objectif du problème (3.16) peut être indéfinie. Lorsque l’ensemble Ξ est un polyèdre, nous ne pouvons pas construire un problème dual ayant même valeur optimale que le problème (3.16). En revanche, si Ξ est un ellipsoïde, le problème (3.16) est équivalent à un problème convexe sur le cône des ma- trices semi-définies positives. Nous ne développons pas cette généralisation dans le cadre restreint

3.9. EXTENSION DU CONCEPT DE ROBUSTESSE : VIOLATION CONTRÔLÉE DES