• Aucun résultat trouvé

3. Le MCVRP avec fenêtres de temps

3.5. Approche de résolution

3.5.3. Taille du voisinage

efficacité n’est garantie que si le problème traité est de moyenne taille. C’est une des raisons principales à l’origine du développement de stratégies de réduction de la taille du voisinage et ainsi d’accélération du processus de recherche.

Il existe plusieurs stratégies de conception du voisinage réduit N0(S) ⊂ N(S). Une des stra-tégies la plus connue est celle appelée stratégie aléatoire. Elle choisit aléatoirement quelques voisins du N(S) pour évaluation, ce qui permet de ne considérer qu’une partie de ce voisi-nage N(S). En diminuant le nombre de voisins choisis, le temps nécessaire à leur évaluation diminue également. Par ailleurs, comme les voisins sélectionnés ne sont pas nécessairement

3.5. APPROCHE DE RÉSOLUTION 71

les meilleurs, la stratégie peut conduire à des solutions de mauvaise qualité. Une autre straté-gie, dite stratégie distance, est fréquemment utilisée dans la littérature [188]. Comme son nom l’indique, elle repose sur le critère de distance pour définir le voisinage de la solution courante. Un voisin S0 n’est évalué que si la distance qui le sépare de S est inférieure à une distance de référence. Dans [188], par exemple, la distance de référence est donnée par une fraction de la distance la plus longue sur la carte géographique. À part le critère de distance, d’autres stratégies limitent également le voisinage à une fraction du nombre total de clients [37].

Dans le même contexte, Toth et Vigo [221] ont utilisé les arguments géométriques pour res-treindre les échanges de visites à des clients suffisamment proches. Zacharidis et Kiranoudis [241] ont également proposé une stratégie basée sur les mémoires perfectionnées afin d’élimi-ner les calculs redondants.

Quant à nous [21] [20] [19], et après avoir analysé ces stratégies, nous avons souligné quelques inconvénients. Le fait de fixer le nombre de voisins candidats sans tenir compte de la structure de l’instance, cela ne garantit pas de compromis entre la qualité de la solution et son temps d’évaluation. En effet, la recherche tabou peut évaluer des mouvements non prometteurs à partir des clients géographiquement dispersés, comme elle peut évaluer également trop de mouvements si ces clients se situent dans des clusters.

À partir de cette analyse, nous avons proposé une nouvelle stratégie basée sur (1) l’analyse de la configuration de l’instance, (2) l’introduction de la statistique de Kolmogorov-Smirnov comme critère de distance, et enfin (3) l’implémentation de listes candidates avec des tailles variables.

3.5.3.1. Statistique de Kolmogorov-Smirnov (KSS). — La statistique de Kolmogorov-Smirnov est un test d’hypothèse non paramétrique, c’est à dire, un test d’ajustement consistant à évaluer une hypothèse statistique en fonction d’un jeu de données (échantillon) utilisé pour vérifier si cet échantillon est compatible avec un modèle théorique donné. Pour ce faire, elle compare la distribution observée d’un échantillon statistique à une distribution théorique ou même la distribution de deux échantillons statistiques. De plus, elle se base sur la fonction de distribu-tion empirique cumulative (ECDF). D’une manière générale, cette statistique est utilisée pour déterminer si un échantillon suit une loi connue par sa fonction de répartition continue F(x), ou encore si deux échantillons suivent une même loi.

Dans notre travail, l’échantillon est composé de distances séparant un client donné i des autres dans la même instance. Soit ˜Di= (di1, di2, ..., di j, ..., din) l’échantillon considéré. La KSS (1) ajuste ˜Dien testant plusieurs types de lois de distribution de données (Normale, Exponen-tielle, Weibull, GEV, Gamma, Fréchet, Pareto, etc), (2) sélectionne la loi minimisant le critère de distance, et (3) déduit ses paramètres qui vont être utilisés par la suite dans le calcul du

3.5. APPROCHE DE RÉSOLUTION 72

rayon de voisinage. Un client j est voisin de i, si et seulement si di j est inférieure ou égale à un paramètre donné Ai. Celui-ci est défini comme le quantile d’ordre ˜p:

F(Ai) = Pr( ˜Di≤ Ai) = ˜p⇒ Ai= F−1( ˜p). Le détail de la procédure d’ajustement est présenté par l’algorithme 7.

Algorithme 7 Procédure d’ajustement. Étape 1.

pour chaque client i = 1, ..., n faire

(a) Calculer di j=p(xi− xj)2+ (yi− yj)2, j ∈ N (b) Construire l’échantillon ˜Di= {di j, j ∈ N} fin pour

Étape 2.

(a) Ajuster les distributions à l’échantillon ( ˜Di).

(b) Calculer la KSS, déterminer le classement ainsi que les paramètres de chaque dis-tribution.

(c) Choisir la meilleure distribution minimisant le critère de distance.

(d) Utiliser les paramètres de la meilleure distribution pour déterminer Ai= F−1( ˜p). Étape 3.

Répéter l’étape 2 pour chaque échantillon ˜Di.

3.5.3.2. Exemple illustratif. — À des fins de clarification, nous illustrons ici comment appli-quer la KSS sur un exemple donné. Soit R101 l’instance de Solomon (voir figure 3) et ˜D26 l’échantillon des distances calculées à partir du 26èmeclient. À partir de ça, nous ajustons ˜D26 moyennant les lois de distribution . Les résultats d’ajustement sont présentés dans le tableau1, en particulier, dans la colonne Rang indiquant que la loi d’extremum généralisée (GEV) donne la meilleure qualité d’ajustement. Cela est montré par le diagramme Quantile-Quantile de la figure4, confirmant ainsi la pertinence d’ajustement de ˜D26au modèle théorique de GEV. Par voie de conséquence, la variable ˜D26semble suivre la loi GEV qui est définie comme suit :

     P( ˜Di≤ Ai) = F(Ai, µi, σi, ξi) P( ˜Di≤ Ai) = exp{−[1 + ξi(Ai− µi σi )]−1/ξi} (3.5.4)

Où F est la fonction de distribution empirique cumulative (ECDF), µi∈ R est le paramètre de position, σi > 0 est le paramètre de dispersion et ξi∈ R est le paramètre de forme (appelé également l’indice des valeurs extrêmes). En inversant (3.5.4), nous déterminons le paramètre Aicomme suit :

3.5. APPROCHE DE RÉSOLUTION 73

F(Ai, µi, σi, ξi) = ˜p⇒ Ai= [(− 1

ln ˜p)ξi− 1]σi ξi

+ µi. (3.5.5)

Pour (µ26, σ26, ξ26)= (22.697, 10.923, -0.1901) et ˜p = 25% par exemple, nous obtenons A26= 19.016. Ainsi, la liste des meilleurs voisins du 26èmeclient est (1) donnée par V (26) = { j ∈ N|d26, j≤ 19.016}, (2) présentée graphiquement par la figure5et (3) utilisée par les trois opérateurs cités auparavant pour évaluer le voisinage N(26).

26

FIGURE3. L’instance R101 de Solomon [202].

Distribution Kolmogorov-Smirnov Paramètres

Statistique Rang GEV 0.0372 1 µ= 22.697, σ = 10.923 ξ = −0.1901 Weibull 0.0530 2 α = 2.6739, β = 30.999 Gamma 0.0567 3 α = 5.4814, β = 5.0205 Normal 0.0602 4 µ= 27.244, σ = 11.471 Fréchet 0.1327 5 α = 1.9407, β = 19.648 Exponential 0.2949 6 λ = 0.0367 Pareto II 0.3141 7 α = 197.26, β = 5048.2

Pareto I Pas d’ajustement 8 Pas d’ajustement

3.5. APPROCHE DE RÉSOLUTION 74

Quantile-Quantile

Gen. Extreme Value

x 30 40 50 20 10 0 Quantile (Mod el) 56 52 48 44 40 36 32 28 24 20 16 12 8 4 0

FIGURE4. Diagramme Quantile-Quantile comparé avec la loi GEV.

Echelle en cm: 1:4 0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 (45, 30)

FIGURE5. Un exemple d’une liste candidate.

3.5.4. Fonction de pénalité. — Parfois, la génération des solutions peut ne pas satisfaire