• Aucun résultat trouvé

CHAPITRE 2 REVUE DE LA LITTÉRATURE

2.1 Principes de calibration des logiciels de microsimulation

2.1.2 Phase de calibration (optimisation)

La phase de calibration est la phase dédiée à rechercher le meilleur jeu de paramètres, aussi appelées variables d’optimisation dans la littérature mathématique, afin que le modèle reproduise le plus fidèlement possible au travers des indicateurs choisis les observations terrain. Cette phase suit le choix des paramètres à conserver (Antoniou et al., 2014) effectué lors de la phase de préparation et lors de l’analyse de sensibilité, le cas échéant.

La formulation du problème est sa représentation mathématique permettant de conduire la calibration. Cette représentation inclut minimalement une fonction objectif à minimiser et peut également inclure des contraintes. La fonction objectif, dans le contexte d’un problème de calibration, est l’élément qui permet de ne donner qu’une seule valeur à la qualité de la simulation et peut combiner plusieurs fonctions d’ajustement qui évaluent chacune, à l’aide d’un indicateur, l’erreur que commet le modèle à reproduire les conditions observées en réalité. C’est ce qui permet à l’algorithme d’optimisation d’évaluer si ses essais successifs améliorent ou détériorent la simulation et de déterminer le prochain jeu de paramètres à tester. Des exemples de fonction objectif sont des fonctions de poids, permettant de donner un impact différents aux fonctions d’ajustement utilisées ou encore le maximum des résultats des fonctions d’ajustement. Il faut faire attention aux échelles des unités des différentes fonctions d’ajustement utilisées pour éviter que des variations significatives d’une des fonctions puissent être complètement masquées par de faibles variations d’une autre fonction d’ajustement. Au besoin, il faudra normaliser les échelles. Les contraintes de calibration sont des conditions que l’algorithme d’optimisation doit respecter. Elles peuvent être formulées à partir de la valeur de certains paramètres, à partir d’indicateurs ou de fonctions d’ajustements. Elles servent à donner un cadre à la simulation qui ne peut pas être traduit dans la fonction d’ajustement. Par exemple, une contrainte pourrait être formulée pour vérifier que les véhicules simulés n’ont pas un comportement anormal ou encore qu’un certain nombre de véhicules soit affectés à emprunter un chemin donné dans le réseau si un modèle d’affectation des itinéraires est utilisée.

La formulation du problème est également le moment de sélectionner l’algorithme d’optimisation qui sera utilisé pour effectuer la calibration. Cette question constitue le cœur du travail de calibration et plusieurs considérations doivent être analysées. Premièrement, il doit permettre l’évaluation du problème tel que défini. Il doit également ne pas être trop coûteux en termes de calculs afin de permettre à l’analyste d’effectuer la calibration en un laps de temps raisonnable. Les auteurs de (Hollander & Liu, 2008b) ont relevé dans une revue de 18 études utilisant différents logiciels de microsimulation que les algorithmes utilisés ont tous en commun de ne pas utiliser les dérivés des problèmes à calibrer puisque leurs formulations explicites, incluant la simulation des résultats via le logiciel, sont trop complexes, inconnues ou non dérivables, comme c’est le cas lors de l’utilisation de fonction maximum ou minimun. Les algorithmes les plus utilisés sont les algorithmes génétiques, la méthode du Simplex de Nelder-Mead et le Box’s Complex Algorithm

(Hollander & Liu, 2008b). La section 2.3 traite plus spécifiquement du choix de l’algorithme d’optimisation.

Les logiciels de microsimulation se basant sur une représentation stochastique de la circulation, la question du nombre de simulations nécessaires pour obtenir un résultat statistiquement représentatif devient indispensable à régler. Selon (Antoniou et al., 2014), peu de travaux ont été menés afin de déterminer adéquatement ce nombre. Certaines études utilisent un nombre arbitraire de simulations, c’est le cas de (Park & Qi, 2005, 2006) qui utilise 5 simulations et de (Toledo & Koutsopoulos, 2004) qui en utilise 10 sans justification, alors que d’autres (Jie, Zuylen, Chen, Viti, & Wilmink, 2013; S.-J. K. Kim, Wonho & Rilett, 2005; Toledo et al., 2003; Yu et al., 2004; Zhizhou et al., 2005) ne mentionnent pas le nombre de simulations effectuées. De leur côté, les auteurs de (Chu et al., 2003; Hollander & Liu, 2008b; Li et al., 2010) proposent d’utiliser la formule classique de calcul de la taille d’un échantillon suivante afin de trouver le nombre de simulations nécessaires :

𝑁 = (𝑡𝛼 2⁄ ;𝑁−1 𝑠 𝑥̅𝜀)

2

où 𝑡𝛼 2⁄ ;𝑁−1 est la valeur d’une variable aléatoire 𝑡 suivant la loi de Student avec 𝑁 − 1 degrées de liberté pour un niveau de confiance 𝛼 pour 𝑃(|𝑡| > 𝑡𝛼 2⁄ ;𝑁−1) = 𝛼; 𝑠 est l’écart-type de l’échantillon, 𝑥̅ la moyenne de l’échantillon et 𝜀 est la tolérance maximale, exprimée en une fraction, sur l’évaluation de la moyenne. L’intervalle de confiance résultant autour de la moyenne est donc 𝐶𝐼 = [𝑥̅(1 − 𝜀), 𝑥̅(1 + 𝜀)]. (FHWA, 2004a; ODOT, 2011) expliquent la procédure itérative pour l’application de cette formule si l’écart-type et la moyenne ne sont pas à priori connu : après avoir déterminé une tolérance jugée acceptable pour l’étude en cours, 10 répétitions sont effectuées donnant l’écart-type de cet échantillon. De la formule, le nombre de répétitions 𝑁 requis est calculé. Si 𝑁 est plus grand que le nombre de répétitions déjà effectuées, le processus est itéré jusqu’à convergence : on augmente le nombre de répétitions effectuées, les paramètres 𝑠 et 𝑥̅ sont mis à jour et 𝑁 est recalculé. Cette boucle continue jusqu’à ce que 𝑁 soit plus petit ou égal au nombre de répétitions effectuées, et ce nombre devient le nombre de répétitions à simuler. Il est à noter que si plus d’un indicateur est utilisé pour décrire la qualité de la simulation, 𝑁 doit être calculé pour chacun des indicateurs et la plus grande valeur obtenue doit être retenue.

Les auteurs de (Hollander & Liu, 2008b) soulèvent toutefois que cette méthode pose problème lorsque les fonctions d’ajustement ne se basent pas sur la valeur moyenne d’une variable tirée des données, puisque la formule ne garantit un niveau de confiance que sur une moyenne. (Hollander & Liu, 2008a) propose une méthode alternative où un grand nombre de répétitions est effectué. Le but est de détecter après combien de répétitions la valeur d’un indicateur donné converge vers une valeur stable. La procédure peut être effectuée en prenant plusieurs indicateurs en compte, en sélectionnant le plus grand nombre de répétitions nécessaire pour que tous les indicateurs convergent.

Finalement, la question du temps de « réchauffement » du modèle doit être réglée. Selon (Antoniou et al., 2014), le mode de fonctionnement des logiciels de microsimulation fait en sorte qu’au début de la modélisation, le réseau est vide. Ainsi, lorsque les premiers véhicules sont générés, ils ne rencontrent aucune friction avec d’autres véhicules et leur temps de déplacement est donc grandement réduit. De plus, les différentes interactions qu’on voudrait pouvoir étudier seront faussées par le fait qu’aucun autre véhicule n’interagit avec ces véhicules. Il faut donc laisser le temps au modèle de se retrouver dans un état d’équilibre avant de mesurer les indicateurs. Le temps nécessaire pour atteindre un équilibre dépendra de la longueur du réseau, de sa complexité, de la présence ou non de carrefours à feux, de la vitesse de déplacement, du débit désiré, etc. Trouver le temps exact n’est pas une tâche facile et peut demander plusieurs essais-erreurs (Antoniou et al., 2014). Les auteurs de (PTV, 2013) proposent d’utiliser le temps de déplacement de la plus grande distance du réseau en conditions d’écoulement libre. De son côté, la FHWA (FHWA, 2004a) préconise d’utiliser le double de ce temps ou d’utiliser une méthode graphique permettant de visualiser la fin de la période de réchauffement du modèle.