• Aucun résultat trouvé

pouvons donc faire des gains considérables de temps de calcul en effectuant les KT constructions puis les K optimisations en parallèle.

6.2.4 Résultats obtenus sur le problème de chaînes d’approvisionnement

L’article [14] souligne principalement que, sur un problème de chaîne d’approvisionnement à 12 pas de temps et sur le jeu de données choisi, la programmation stochastique commet une erreur importante de prédiction (de l’ordre de 12%), ce qui représente l’écart entre le coût optimal annoncé après optimisation sur l’arbre et le coût optimal après validation sur un autre échantillon de scénarios. Les performances obtenues en optimisation par SPSDR se retrouvent en simulation puisque l’erreur de prédiction est inférieure à 1%. Enfin, le coût optimal est amélioré par SPSDR de presque 5%. L’optimisation robuste fournit une bonne prise en compte de l’aléa pour les situation extrêmes mais fournit une politique de gestion très coûteuse en comparaison de SPSDR (une augmentation de 10 à 20% du coût selon le niveau de couverture).

6.3

Adaptations de l’approche pour le problème de couverture

Nous ne pouvons en l’état appliquer l’heuristique SPSDR sur le problème de couverture (5.4) du chapitre 5. En effet, il contient des contraintes en probabilité et des aléas multidimensionnels, caractéristiques pour lesquelles SPSDR n’a pas été conçu. Nous allons donc dans cette section détailler les adaptations nécessaires qui ont été effectuées.

6.3.1 Aléa multidimensionnel

Dans le cas unidimensionnel, l’espace des aléas est partitionné en ensembles de décisions. Sur chaque ensemble, une décision unique est imposée. Nous partons de ce principe pour généraliser l’approche au cas multidimensionnel, cas non traité dans [14], mais nécessaire dans le cadre des travaux de cette thèse.

– Aléas non corrélés :

chaque aléa est traité indépendamment. Nous les partitionnons chacun comme dans le cas unidimensionnel, et nous imposons des décisions uniques sur chacun des ensembles de déci- sions. Autrement dit, cela revient à considérer une partition globale, constituée du produit des partitions de chaque dimension de l’aléa. Désormais, la règle finale est constituée de la combinaison affine des décisions de chaque aléa correspondantes au scénario étudié. Ainsi, la décision prend en compte l’influence de chacun des aléas.

Exemple 6.1 Illustrons ces propos sur un exemple simple en 2 dimensions. Supposons 2 aléas

A et B. Nous partitionnons respectivement A et B en 4 et 3 partitions. Sur chaque partition,

notée Ai ou Bi, nous imposons une unique décision notée ai ou bi. L’espace global des aléas étant le produit des partitions, la règle décrite s’écrit de la forme :

6.3. ADAPTATIONS DE L’APPROCHE POUR LE PROBLÈME DE COUVERTURE

A1 A2 A3 A4

B1 a1+ b1 a2+ b1 a3+ b1 a4+ b1

B2 a1+ b2 a2+ b2 a3+ b2 a4+ b2

B3 a1+ b3 a2+ b3 a3+ b3 a4+ b3

Quand nous possédons un scénario particulier ( ¯A, ¯B), il suffit de savoir dans quelles partitions

se trouve chaque dimension de l’aléa et d’appliquer la règle correspondante.

En reprenant les notations de la section précédente et en introduisant la variable de décision vk,mt associée à l’ensemble de décisions Itk,m défini comme le kème ensemble de décisions en t de l’aléa m, nous pouvons récrire la règle de définition sous la forme :

ut(σt) = M X m=1 |Im t | X k=1 1t∈Ik,m t } vk,mt , ∀t = 2, . . . , T − 1. (6.13) – Aléas corrélés :

Dans le cas précédent, les aléas sont supposés indépendants. Mais, par exemple dans notre problème de couverture, les aléas de prix Spot et Week-Ahead sont corrélés. Pour que le prin- cipe général de SPSDR demeure simple, une possibilité est de considérer que les aléas corrélés ne constituent qu’un seul aléa. En fait, au moment de construire les partitions, nous définis- sons une distance qui prend en compte les aléas corrélés entre eux. En reprenant l’exemple précédent et en supposant que A et B sont corrélés, nous définissons une norme du type c0= ||A − ¯A||p+ ||B − ¯B||p. Nous n’obtenons ainsi qu’une seule partition pour les deux aléas

A et B, et qui est construite de sorte à considérer l’influence mutuelle des deux. Soit un aléa à M dimensions pouvant être réduit à M0 dimensions par effet des corrélations. La règle finale s’écrit donc : ut(σt) = M0 X m=1 |Im t | X k=1 1t∈Ik,m t }v k,m t , ∀t = 2, . . . , T − 1. (6.14)

Nous pouvons remarquer qu’avec une telle construction des partitions, nous réduisons le nombre de partitions à construire et donc les temps de calcul, le cas multidimensionnel pou- vant être coûteux.

Remarque 6.1 Cette gestion du cas multidimensionnel est une idée nouvelle, inédite dans la

littérature. Cette règle réduit l’espace des décisions (puisqu’il impose une décomposition additive) mais il a comme avantage de ne pas imposer de pondération a priori entre les composantes du processus aléatoire.

Enfin, la nouvelle règle pour chacun des experts doit donc être la somme des règles issues de l’optimisation sur chacune des dimensions m de l’aléa. :

ult(σt) = M X m=1 |Itm,k,l| X k=1 1t∈Ik,m,l t }v k,m,l t , ∀t = 2, . . . , T − 1, ∀l = 1, . . . , K. (6.15)

6.3. ADAPTATIONS DE L’APPROCHE POUR LE PROBLÈME DE COUVERTURE

Seule la définition de la règle a donc été modifiée par l’adaptation au cas multidimensionnel, ce qui n’a aucune conséquence sur l’algorithme général de SPSDR (sous-section 6.2.3).

6.3.2 Contraintes sur l’état

Les contraintes en probabilité du problème de couverture, trop complexes, sont introduites dans le modèle d’optimisation avec un niveau de probabilité de 100%. Ces contraintes peuvent donc être transformées en une contrainte linéaire avec une borne supérieure. Cependant, il peut tou- jours se réaliser des scénarios sur lesquels la marge ne sera pas suffisante. Donc, pour forcer la stratégie à satisfaire le critère de risque en probabilité lors de la phase de simulation, nous pouvons :

– jouer sur les paramètres du problème : nombre et tailles des experts, nombre d’ensembles de décisions,... Nous pouvons d’ailleurs concevoir que, pour avoir une stratégie plus robuste aux aléas, il faut prendre en compte des experts nombreux, de grande taille avec peu d’ensembles de décisions. Les contraintes seront donc satisfaites sur un plus large espace d’aléas ;

– introduire un coefficient de sécurité sur l’état. Il faut toutefois vérifier qu’une telle technique ne dégrade pas trop la solution.

6.3.3 Comparaisons numériques entre les heuristiques de calcul du problème

p-médianes

Pour construire les ensembles de décisions, nous devons résoudre des problèmes de p-médianes. En pratique, nous avons testé deux approches :

1. une heuristique “Variable Neighborhood Decomposition Search” (VNDS) introduite par Mladenovic et Hansen [5]. Cette heuristique est performante, bien que relativement simple. Nous nous dotons de K types de voisinage. En partant d’une solution initiale x, nous générons un point x0 aléatoirement dans le premier voisinage de x. A partir de ce nouveau point, nous effectuons une recherche locale de solution pour obtenir une solution x00. Si cette solution est meilleure que x, nous recommençons cette étape en conservant le même voisinage. Sinon, nous recommençons l’étape à partir du voisinage suivant et cela, jusqu’à ce que tous les voisinages soient parcourus ;

2. une heuristique développée par Vial et Thénié, fondée sur la relaxation lagrangienne du problème de p-médianes [4] et sur une technique d’arrondi aléatoire [11]. Cette relaxation lagrangienne est :

max

u≥0{ minx,y∈Ω{ N X i=1 N X j=1 cijxij+ N X j=1 (1− N X j=1 xij)uj}}, Ω = {x, y : 0 ≤ xij ≤ yj, ∀i, j, N X j=1 yj = s}.

Nous résolvons le dual lagrangien par ACCPM [2]. Cet algorithme permet de reconstruire une solution primale du problème de p-médianes relâché (i.e. sans contrainte d’intégralité). Cette solution fractionnaire est interprétée comme une probabilité qu’un point (scénario)

6.3. ADAPTATIONS DE L’APPROCHE POUR LE PROBLÈME DE COUVERTURE

soit choisi comme médiane (scénario de référence). La sortie de cette étape est une solution fractionnaire β∗ telle que P

iβi∗ = νt.

Sur cette base, nous construisons un algorithme aléatoire de tirages successifs de p médianes (p scénarios de référence). Pour un tirage particulier, la partition autour des p scénarios de référence se fait par affectation au plus proche scénario de référence. L’opération est répétée un grand nombre de fois et la meilleure solution est retenue.

La procédure d’arrondi de la solution est la suivante. Pour chaque i nous assignons une va- riable aléatoire de Bernoulli Xi de probabilité βi∗. L’élément i est un scénario de référence

si Xi = 1. Si le nombre de médianes est inférieur à νt, un élément i est choisi aléatoire-

ment parmi tous les éléments qui ne sont pas encore scénarios de référence. Un tirage de Bernoulli est calculé. Si la sortie est 1, nous assignons i aux scénarios de référence. Nous itérons ce processus jusqu’à ce que les νt scénarios de référence soient calculés.

Pour évaluer ces deux approches, nous avons effectué quelques comparaisons dans le cadre de notre problématique. Nous les avons ainsi testées sur des scénarios de marge de production. Pour plusieurs échantillons de scénarios et pour un certain nombre fixé d’ensembles de décisions, nous comparons dans les tableaux 6.1 et 6.2 :

– les distances cumulées optimales obtenues en chaque instant par les deux approches. Pour chaque scénario, nous calculons la distance à son scénario de référence et nous sommons toutes ces distances. Moins ce cumul est élevé, meilleure est la répartition ;

– le temps moyen de construction des partitions pour un pas de temps.

Quand l’ensemble de scénarios considéré ou le nombre d’ensembles de décisions est peu élevé, les résultats entre les deux approches sont proches voire même identiques. En revanche, quand la taille (et donc la difficulté) croît, des différences apparaissent en faveur de VNS, mais demeurent raisonnables. Si la qualité de la solution est le critère principal de choix, l’heuristique VNS est dans ce cas le choix adéquat. Cependant, un aspect important est la nécessité de disposer d’un outil qui soit capable d’effectuer des calculs en un temps raisonnable, quitte à perdre un peu en qualité. Or, VNS est assez gourmand de ce point de vue : les calculs vont de 300 s à 1300 s pour effectuer une partition en un instant. Or, nous devons faire ce calcul pour T − 2 pas de temps (un unique ensemble de décisions en t = 1 et aucune décision prise en t = T ) et pour chaque aléa considéré. Pour illustrer ceci sur notre problème, les temps de calculs peuvent ainsi varier de 8 ∗ 3 ∗ 300s = 2H à 8 ∗ 3 ∗ 1300s = 8H40mn. Et cela pour un seul expert . . . En comparaison, les temps obtenus par l’approche basée sur la relaxation lagrangienne sont bien moins élevés (de 5mn à 4H20mn). Mais, nous pouvons noter que si cette technique est beaucoup plus efficace quand le nombre de scénarios est faible, le rapport n’est plus que de un à deux avec 1000 scénarios. Cependant, les gains sont tels que, en pratique, nous préférerons cette dernière heuristique.