• Aucun résultat trouvé

Les trois articles exposés dans cette thèse constituent des étapes vers la planification et la ges- tion en temps réel de tournées de livraison. Ces articles y contribuent de façon différente : le premier évalue les paramètres fondamentaux des déplacements en milieu urbain menant à des profils de vitesse dépendants du temps. Ceux-ci sont fournis à un algorithme d’optimisation développé dans le second article qui permet de planifier, de façon quasi-optimale, des tournées de livraison pour la journée du lendemain. Ce plan sert également au pilotage en temps réel des livraisons à domicile. Ces trois articles sont indissociables par rapport à l’objectif ultime de la thèse, qui est la confection de tournées de livraison dans un réseau urbain.

En raison de l’application spécifique abordée dans cette thèse, soit les services de livraison à domicile en milieu urbain, il nous a fallu tenir compte de la taille considérable des réseaux routiers et des instances qui en découlent. Ces raisons nous ont poussés à développer des approches heuristiques et métaheuristiques de résolution afin de tirer profit des avantages qu’elles procurent au niveau des temps de calcul, mais également de la performance connue de certaines d’entre elles pour des problèmes de tournées de véhicules. D’ailleurs, le second article quantifie les performances de notre algorithme en comparant les solutions obtenues pour le problème de tournées de livraison avec des solutions optimales produites avec une méthode exacte [95]. Les écarts sont tous systématiquement inférieurs à 1%, avec des temps de calcul largement inférieurs à ceux de la méthode exacte. Ainsi, notre approche répond aux besoins de planification opérationnelle des services de livraison à domicile.

Le premier article avait montré qu’un modèle de réseaux de neurones récurrents de type LSTM permettait d’obtenir une précision de prédiction très intéressante, suggérant ainsi d’orienter davantage les recherches vers des algorithmes de prédiction basés sur de tels mod- èles afin de tenir compte d’informations historiques et de corrélations possibles entre les événements. Au regard de la méthodologie développée dans le troisième article afin de ré- soudre une version dynamique de notre problème de tournées de livraison, il serait certaine- ment souhaitable d’intégrer un réseau de neurones capable de mettre à jour en temps réel ses prédictions de vitesses à partir d’informations sur le réseau routier également obtenues en temps réel. Actuellement, un simulateur est utilisé afin de générer les perturbations aux profils de vitesses.

L’outil présenté dans le chapitre 4 a pour objectif de prévoir, à court terme, les vitesses de parcours sur le réseau routier de la région métropolitaine de Montréal. Comme les méthodes d’IA sont désormais reconnues pour présenter certaines difficultés à prévoir les tendances,

puisque, par exemple, les vitesses diminuent globalement ou encore la congestion augmente avec le temps. Il serait donc opportun d’évaluer la qualité de prédiction de méthodes de prédictions à moyen et long termes.

De plus, deux algorithmes de partitionnement ont été utilisés pour générer des classes de segments routiers présentant des similarités du point de vue des profils de vitesses au cours d’une journée. Ces méthodes ont recours à des distances euclidiennes pour mesurer cette similarité. Cependant, les métriques euclidiennes présentent certaines lacunes pour le parti- tionnement de séries temporelles puisqu’elles ne considèrent pas la position des valeurs dans le temps (la séquence). D’un autre côté, des métriques telles que le dynamic time warping et le cross-correlation distance fournissent de bons résultats lorsqu’appliquées à des séries tem- porelles, cependant, elles présentent un inconvénient majeur au niveau des temps de calcul. Ainsi, les auteurs dans [121] rapportent des temps de calcul de la distance cross-correlation de l’ordre de 10 minutes pour 1000 vecteurs en entrée. Si une telle métrique était utilisée dans le chapitre 4, il faudrait sans doute plus de 1000 heures, ce qui n’est pas viable. Il serait donc intéressant de trouver des métriques de similarité alternatives, mieux adaptées aux séries temporelles que la distance euclidienne tout en relevant le défi d’obtenir des temps de calcul raisonnables dans le contexte de la prédiction.

Dans le chapitre 5, des échanges CROSS sont utilisés pour générer des solutions dans le voisinage. Nous évaluons systématiquement toutes les combinaisons possibles. Lorsqu’une recherche tabou est effectuée, nous observons que certains arcs sont souvent associés à une bonne solution et inversement d’autres arcs sont associés à de moins bonnes. Ainsi, sur la base d’un apprentissage au fil des itérations, il est possible de décider de ne pas enlever les arcs présentant un bon potentiel (au niveau du coût de la solution) et inversement, d’éliminer les arcs ayant un faible potentiel.

Dans le chapitre 6, un simulateur a été développé pour imiter les perturbations du réseau routier affectant les temps de parcours. Un taux de congestion variant entre les valeurs 1 et 5 est appliqué aux fonctions de vitesses produites par le réseau de neurones artificiels développé dans le chapitre 4. De nouvelles fonctions de vitesses sont obtenues en divisant les vitesses prédites par le taux de congestion. On obtient donc des vitesses très faibles lorsque le taux de congestion est élevé et inversement. Ainsi, ce simulateur fait l’hypothèse que toute perturbation ne peut qu’affecter négativement les temps de parcours, obtenus à partir de profils de vitesses prédits. Il serait intéressant de tenir compte de perturbations affectant positivement les temps de parcours, c’est à dire qui favorisent des vitesses plus élevées.

Documents relatifs