• Aucun résultat trouvé

modèles à base d'agents pour l'étude de systèmes de mobilité

2.1 La modélisation multi-agents

Comme le montre l'illustration 28, la modélisation à base d'agents est issue de la micro- simulation, de la modélisation par automates cellulaires et de l'intelligence artificielle (Troitzsch 1997). Ces champs de recherche « possèdent en commun le fait de représenter de façon explicite des entités et leurs comportements sous une forme informatique et d'étudier, grâce à la puissance qu'offrent les ordinateurs actuels, les structures émergents qui naissent, in silico, de leurs interactions virtuelles » (Treuil et al. 2008).

Même si de nombreux outils combinent maintenant un automate cellulaire avec un système multi-agents, les deux méthodes, bien que très proches, doivent être distinguées. John Von Neumann a introduit les premiers exemples d'automates cellulaires dans son ouvrage Theory of Self Reproducing Automata en 1966 (Von Neumann & Burks 1966). À l'origine, ces modèles

très simples sont constitués de programmes informatiques (les cellules), disposés sous forme de grille. Les automates ont des capacités de calcul et ils sont soumis à des états qui varient au cours de la simulation. C'est le fonctionnement combiné d'un grand nombre d'automates qui permet de modéliser des phénomènes dits complexes. Le jeu de la vie qui permet de simuler des formes très complexes à partir de règles simples est un des exemples le plus ancien et le plus connu (Gardner 1970; Conway 1970). Aujourd'hui, le modèle de ségrégation de Thomas Schelling (Schelling 1971) est très prisé par les géographes et les sociologues. Il permet de montrer que des niveaux élevés de ségrégation résidentielle peuvent apparaître, même lorsque des individus sont disposés à avoir une majorité de personnes d'appartenance ethnique différente vivant dans leur voisinage. De nombreux travaux sont toujours basés sur ce modèle. C'est un modèle relativement simple, mais qui possède de véritables qualités heuristiques et pédagogiques.

Un modèle est « une construction abstraite qui permet de comprendre le fonctionnement d'un système de référence en répondant à une question qui le concerne. Représentation simplifiée de ce système, un modèle s'appuie sur une théorie générale et il est exprimé dans un langage spécifique appelé langage de modélisation » (Treuil et al. 2008). La modélisation à base d'agents consiste à comprendre le fonctionnement d'un système en étudiant le comportement d'individus (les agents) et en analysant les relations qu'entretiennent ces individus, à la fois entre eux, et avec l'environnement dans lequel ils évoluent. Les agents sont des entités virtuelles autonomes (programmes informatiques) capables de se conserver ou de se maintenir (Ferber & Perrot 1995). Ils sont dotés d'attributs, de comportements plus ou moins sophistiqués et sont capables d'interagir directement ou indirectement avec d'autres entités du systèmes (cf. illustration 29). Ils possèdent toujours une connaissance plus ou moins limitée de leur environnement (capacité de perception) et des ressources qui leur sont propres (Amblard & Phan 2006). Chaque agent est localisé et évolue dans un environnement lui-même défini par sa métrique26, ses lois de

fonctionnement et par toutes sortes d'attributs, qui peuvent évoluer au cours d'une simulation. Selon leur fonction au sein du système et donc selon leurs comportements, les agents peuvent être mobiles, réactifs aux différents signaux reçus, ou encore, ils peuvent communiquer et apprendre de leurs interactions. On les qualifie alors d'agent cognitif. Dans nos modèles, nous manipulons à la fois des agents réactifs et cognitifs. Au sein d'une même famille, les agents possèdent des comportements, des capacités de perception et des mécanismes de décision qui leurs sont communs.

Les Systèmes Multi-Agents permettent d'étudier à un niveau global, le fonctionnement d'un (ou plusieurs) sous-système(s), connu(s) à un niveau local. C'est le fonctionnement d'un nombre important d'agents en interaction qui entraîne la complexité des processus à un niveau global et la relative imprévisibilité du système sur un temps long. Autrement dit, en modélisant des comportements ou des phénomènes à un certain niveau, nous pouvons analyser l'organisation et la structuration d'un (ou plusieurs) phénomène(s) à un niveau d'observation plus agrégé (Daudé 2006). Le comportement des agents détermine le fonctionnement du système et la simulation permet d'observer les formes émergentes au niveau macro. Néanmoins, un SMA ne doit pas être une boîte noire. Autrement dit, la simulation ne se réduit pas à « l'implémentation d'un modèle et

à l'analyse de sa réponse en fonction des paramètres d'entrée » (Amblard & Phan 2006). Nous pensons que l'intérêt réside dans la compréhension des phénomènes. Le modélisateur doit toujours se concentrer sur la relation entre les comportements locaux et l'organisation globale.

La simulation basée sur l'agent s'est beaucoup développée en Europe au cours des 15 dernières années. Des chercheurs de disciplines très variées se retrouvent aujourd'hui autour des sciences de la complexité. Il existe un grand nombre d'outils disponibles pour modéliser et expliquer les systèmes, et ceux que nous employons sont aussi bien utilisés en physique, en biologie, en sociologie, etc. Les systèmes multi-agents sont aujourd'hui très prisés en Sciences de l'Homme et de la Société (SHS). D'une part, parce que les deux variables que sont l'espace et le temps (discret) peuvent y être avantageusement représentées. D'autre part, parce que les interactions entre plusieurs entités ainsi que la dynamique globale d'un système peuvent y être intuitivement analysées. Les SMA, bien que disposant d'un très large spectre applicatif, se prêtent particulièrement bien à la simulation de la mobilité. Le mouvement, c'est-à-dire le « changement de position dans l'espace en fonction du temps, par rapport à un système de référence » (Robert & Rey 2001), est en effet une propriété intrinsèque des agents (Marilleau 2006).

2.2 Des objectifs de modélisation variés

Les systèmes multi-agents peuvent être utilisés de différentes manières et dans des cadres de recherche très différents. Comme nous allons le voir, les niveaux de complexité diffèrent selon les approches et la finalité des modèles également. Néanmoins, la logique reste toujours la même : on raisonne au niveau des agents pour analyser des structures ou des solutions émergentes à un niveau plus agrégé. Nous présentons ici trois objectifs de modélisation multi- agents avec des modèles appliqués au transport et à la mobilité. Le premier objectif concerne la prédiction de l'évolution des systèmes, avec des modèles descriptifs permettant de simuler des systèmes de mobilité réalistes à grande et petite échelles. La deuxième catégorie de modèles a pour but d'expliquer la dynamique des systèmes. Il ne s'agit pas de fournir des prévisions « valides » mais plutôt de s'interroger sur « pourquoi » et « comment » le système évolue (Amouroux 2011). À un niveau plus local, le dernier objectif de modélisation concerne l'optimisation des systèmes. Cette catégorie de modèle est très utilisée en Recherche- Opérationnelle, notamment dans le domaine des systèmes de transport intelligent (Intelligent

Transport System) (Tao 2007; Winter 2008).

2.2.1 Simuler des systèmes de mobilité réalistes

Au sein des sciences cognitives et sociales, une première catégorie de modèles descriptifs est destinée à la prédiction de l'évolution des systèmes (Treuil et al. 2008). Ces modèles peuvent être rattachés au principe KIDS « Keep It Descriptive Stupid » (Edmonds & Moss 2005). En analyse spatiale, par exemple, la géo-simulation multi-agents (GSMA) permet maintenant de créer des mondes géographiques virtuels les plus proches possible de la réalité, en ayant recours aux SIG et à des bases de données géographiques relativement complètes (Mekni et al. 2009). Ces travaux ont d'ailleurs fait apparaître de nouveaux types de SMA comme les Systèmes Multi- Agents Situés (SMAS). Au sein de la thématique des transports et de la mobilité, on constate qu'il existe aujourd'hui plusieurs modèles capables de simuler des systèmes de mobilité de manière très précise et proche de l'exhaustivité. Les plates-formes de simulation déployées sont

en effet très sophistiquées et les chercheurs travaillent non seulement en équipe, mais surtout en pluridisciplinarité (géographe, informaticien, économistes, etc.). L'objectif est de pouvoir présenter ces simulateurs comme des outils prospectifs et d'aide à la décision pour la planification du transport et l’aménagement urbain.

À l’international, une équipe de recherche pluridisciplinaire a développé la plate-forme de simulation MATSim (Balmer et al. 2008). L'outil permet de simuler la mobilité d'une population aussi bien à l'échelle micro (ville) que macro (pays). Le modèle est composé de plusieurs modules qui peuvent être combinés ou utilisés séparément. Il a été initialement conçu et calibré à partir de bases de données issues du recensement suisse, mais il semble pouvoir s'adapter à n'importe quel territoire. Il a par exemple été testé en Afrique du Sud (Fourie 2010), sur la ville de Tel Aviv (Bekhor et al. 2010), sur l'agglomération de Toronto (Gao et al. 2010), etc. Les services de transports implémentés peuvent être modifiés, à condition d'avoir une bonne connaissance en programmation et de connaître l'architecture du modèle (Balmer et al. 2009). Récemment, un algorithme d'optimisation de type Dynamic Vehicle Routing Problem (Maciejewski & Nagel 2012) a par exemple été intégré, permettant de simuler des services de type TAD. Le simulateur s'avère puissant et relativement précis pour la simulation de trafic (cf. illustration 35), ou pour définir des scénarii d'évolution de la mobilité sur un territoire.

En France, la plate-forme MobiSim (Casanova et al. 2005), développée à Besançon, vise à étudier l'interaction entre la forme des villes et les mobilités résidentielles quotidiennes. Le simulateur est modulaire et combine à la fois un SMA, un automate cellulaire, ainsi qu'un algorithme de calcul de dimension fractale. Il affirme sa place au sein des modèles dits LUTI (Landuse and transport integrated) (cf. illustration 34) grâce à ses trois caractéristiques essentielles que sont : la dimension comportementale, l'approche multi-scalaire et la dimension prospective. Cette dernière est rendue possible grâce aux efforts de calibration et à la possibilité de simuler des scénarii complexes d'évolution. Depuis les années 2000, le modèle n'a cessé d'évoluer. Les bases de données sur lesquelles repose le modèle se sont enrichies et les travaux d'exploration du modèle se sont multipliés au sein du laboratoire ThéMA, porteur du projet (Antoni 2010; Antoni 2012).

Toujours en France, le projet MIRO (Banos et al. 2011), par exemple, a pour objectif de simuler le système de mobilité de la ville de Dijon. Au sein de ce projet, le SMA baptisé RAFALE-SP (Marilleau 2006; Cisse et al. 2012) permet de décrire avec finesse les mobiles dans leurs individualités (e.g. piéton, automobiliste), ainsi que le territoire dans lequel ils évoluent. Chaque individu est modélisé par un agent cognitif, dont les spécificités sont extraites d'enquêtes

sur le terrain (cf. illustration 33). À ces mobiles a été affecté un ensemble de vecteurs de déplacement réalistes. Des simulations ont d’abord été effectuées pour calibrer le modèle. En modifiant les caractéristiques de la ville, l'objectif sera ensuite de proposer des scénarii d'évolution de la mobilité à l'échelle de l'agglomération.

La liste des travaux n'est pas exhaustive. Nous aurions pu également présenter des plates- formes comme TRANSIMS et CORSIM (Rilett & Kim 2001) qui permettent de faire des analyses de trafic routier très poussées à l'échelle d'une aire métropolitaine, ou encore le modèle ARCHISIM qui permet de simuler la structuration d'un trafic routier en fonction de différents comportements de conduite (Champion et al. 2001; Espié & Auberlet 2007). Tous ces exemples illustrent bien cette approche.La dynamique d'un système peut y être observée avec beaucoup de précision et les modèles sont présentés comme des outils d'aide à la décision. Cependant, ce sont pour la plupart des plates-formes de simulation relativement compliquées à mettre en œuvre. Pour pouvoir utiliser ces modèles, il est généralement nécessaire de travailler au sein de l'équipe de développement ou en collaboration étroite, ce qui créé une certaine dépendance. En tant qu'utilisateur, il est aussi indispensable de consacrer un temps non négligeable pour comprendre le fonctionnement du simulateur, au risque d'utiliser le logiciel comme une boîte noire. Au vu de ces éléments et sachant que le processus de modélisation (conceptualisation) se voulait au cœur de la thèse, nous avons opté pour une approche sensiblement différente dont nous présentons les fondements ci-après.

2.2.2 Comprendre et expliquer des systèmes

« Ce qui caractérise un bon modèle c'est qu'une fois son implémentation réalisée et son comportement étudié, le modélisateur n'en a plus besoin […] Le modélisateur, en construisant un modèle de son objet d'étude, met ainsi en jeu des capacités cognitives en sélectionnant les points essentiels à prendre en compte pour expliquer le phénomène étudié. En construisant son modèle, il pose également des hypothèses qualitatives sur les mécanismes générateurs des observations qu'il porte sur le système cible. En simulant ce modèle, il peut tester ces hypothèses et les discuter. Il extrait de l’artefact in silico les propriétés de son modèle et les conséquences de ses hypothèses » (Amblard & Phan 2006).

Une deuxième catégorie de modèles (à laquelle nous nous rattachons) a pour finalité, non pas la description de scénarii réalistes, mais plutôt l'exploration et l'explication de la dynamique des systèmes. « La simulation sert à comprendre le fonctionnement du système de référence, en considérant le modèle comme une réplique miniature qui pourra être étudiée plus facilement » (Treuil et al. 2008). Ces modèles sont rattachés à l'approche KISS « Keep It Simple Stupid » (Amouroux 2011). Le but est de concevoir des modèles relativement simples et donc maîtrisables d'un point de vue architecturale et algorithmique pour éviter tout effet de boîte noire (Axelrod 1997). « Rien ne sert de concevoir des modèles dont on ne pourrait étudier sérieusement les propriétés et oublier ainsi la validation interne, définie comme l'existence de bonnes propriétés du modèle dans le cadre formel de ce dernier » (Amblard & Phan 2006). Autrement dit, on cherche à garder le contrôle des modèles pour mieux comprendre les résultats de simulation et expliquer finement le comportement du système dans son environnement, ainsi que sa réaction à la variation de certains paramètres. Dans cette approche, les modèles sont conçus à partir de théories, de lois et d’hypothèses (Dauphiné 2003) et non à partir de bases de données exhaustive. L'enjeu est de concevoir, selon le principe de parcimonie, des règles de fonctionnement simples et maîtrisées, pour pouvoir suivre et comprendre leurs incidences sur le fonctionnement général du système. Connaissant toutes les composantes et tous les paramètres initiaux du système, l'outil permet alors d'observer simplement le monde artificiel et de comprendre intuitivement le comportement global, avec des effets de structuration, de transition et d'émergence.

« Il ne convient pas de raser la barbe de Platon avec le rasoir de Socrate » autrement dis, « il est inutile de multiplier les explications lorsque cela ne s’avère pas utile » (Louryan 2011)

Connu initialement sous le nom du « rasoir d’Ockham », le principe de parcimonie consiste à ne pas utiliser de nouvelles hypothèses tant que celles déjà énoncées suffisent. Selon Guillaume d’Ockham, « les explications multiples ne sont pas à invoquer sans nécessité » ou encore « il est vain d’invoquer de nombreuses causes quand un nombre réduit suffit » (Domingos 1999). Toutefois, le principe de parcimonie n'est pas sans critique. Cette démarche simplificatrice est parfois perçu comme trop réductionniste, remettant en question la portée des modèles. On traduit d'ailleurs souvent ce principe par une préférence de l'hypothèse la plus simple parmi les possibles. Or, ce n'est pas tant la simplicité de l'hypothèse qui nous intéresse mais plutôt la faible complexité de l'ensemble des hypothèses posées pour aboutir aux conclusions.

Aujourd'hui, plusieurs SMA, relativement accessibles, offrent la possibilité de programmer ce type de modèle. L'environnement de développement NetLogo que nous présentons ci-après (cf. 2.3.3) en est un bon exemple. Ces dernières années, il est devenu très prisé par les géographes. Les formations et écoles thématiques se sont multipliées27 et de nombreux projets de

recherche se basent maintenant sur ce logiciel. Le premier modèle apparu sous NetLogo abordant la thématique du transport est un modèle de simulation de trafic urbain connu sous le nom de Gridlock (Wilensky & Stroup 1999). Ce modèle est intégré dans la bibliothèque de modèles, fournie avec NetLogo. Il est donc libre d'accès et d'utilisation. Au cours des dix dernières années, ce modèle a largement évolué. Il a d'abord été adapté pour optimiser la gestion de feux de trafic sur un réseau routier de type Manhattan (Gershenson 2005; Burguillo-Rial et al. 2012). En résumé, l'originalité de ce modèle est de proposer une gestion auto-organisée des feux tricolores. Ces derniers sont modélisés sous forme d'agents capables de compter le nombre de voitures en attente, de changer d'état en fonction de la file d'attente et d'interagir entre eux pour se synchroniser. Dans la continuité de ces travaux, un service de covoiturage dynamique a récemment été implémenté par le groupe GTI de l'université de Vigo (Espagne) et le CRP Henri Tudor au Luxembourg (Armendáriz et al. 2010). Ils ont donc conservé la structure initiale du modèle Gridlock en y intégrant un certain nombre de nouveautés. L'originalité première de ce travail est l'intégration d'un algorithme d'optimisation pour un service de covoiturage dynamique. L'objectif est de combiner les deux modèles, c'est-à-dire d'analyser l'incidence de la mise en œuvre d'un service de covoiturage sur la densité d'un trafic routier (cf. illustration 33). Pour ce faire, ils ont enrichi le modèle en complétant les attributs des différents agents et en les dotant de capacités sensorielles et de communication. Ainsi, les chauffeurs de voitures et les utilisateurs du service de covoiturage (modélisés sous forme d'agents) peuvent échanger sur leur localisation d'origine et sur leur destination. En fonction du nombre de places disponibles, des contraintes temporelles et de leurs trajets initiaux, les chauffeurs sont alors capables de choisir de manière optimale les passagers à prendre en cours de route.

27 Au cours de la thèse, j'ai par exemple pu intervenir dans l'école MAPS (http://maps.csregistry.org/tiki-index.php) et l'Intensive Program ABM (http://agent-base-modeling.agrocampus-ouest.eu/infoglueDeliverLive/)

Il existe aussi sur NetLogo des modèles abordant les questions de mobilité urbaine, et d'accessibilité. Au niveau micro, on trouve le modèle AcceSim qui permet de simuler l’accessibilité aux commerces par des citadins à l'échelle d'un quartier. Le principe est simple : les individus se déplacent dans la ville pour atteindre un commerce et les commerces ont besoin d’une fréquentation régulière des individus pour subsister. L’objectif est de montrer avec un outil pédagogique que la répartition spatiale des services ou équipements est le plus souvent inégale et que leur accessibilité varie d'un territoire à l'autre. Pour ce faire, des indicateurs permettent d’évaluer en continu et au niveau de chaque quartier le taux de satisfaction des résidents, la distance moyenne parcourue pour accéder aux commerces et enfin les ventes totales. Les développeurs ont aussi mis en place un système de carte dynamique (cf. illustration 34) qui montre en temps réel la satisfaction des différents agents.

Enfin, d'autres modèles proposent d'aborder la question du transport de personnes à petite échelle. Le modèle SimpopNet a, par exemple, pour objectif de simuler les liens de causalité entre système de transport et système de villes. L'enjeu est de simuler une boucle de rétro-action entre la taille et l'accessibilité d’une ville et d’observer les conséquences de cette interaction au niveau géographique supérieur. Au cours d'une simulation (cf. illustration 35), des innovations dans les réseaux de transport se développent sur le territoire, ce qui engendre une diminution des temps de transports sur les axes concernés (représentés par des liens de couleur). Les temps de transport sont calculés à partir de distances mesurées sur un réseau réel. Cette structuration fait apparaître de nouveaux axes de transports et de nouveaux nœuds qui ne sont pas nécessairement des villes (représentés alors par des croix). La croissance démographique des villes (matérialisées par des cercles proportionnels) étant dépendante de sa position relative par rapport aux villes du réseau, c'est toute la hiérarchie du système de ville qui évolue. L’enjeu de la combinaison de ces mécanismes est de faire émerger des propriétés du système, analogues aux faits stylisés observés en simulant une diffusion hiérarchique de l'innovation sur le réseau de transport. « Au niveau de la croissance démographique du système de ville, il est attendu de voir