• Aucun résultat trouvé

Chapitre III Monitoring de Simulation Orientée Agents

I. Optimisation et Métaheuristique

I.1. Des SOA…

Face à un problème particulier, l’esprit humain agit selon une démarche précise, commune à chacun d’entre nous.

Placé dans une situation où il faut prendre une décision, un individu, consciemment ou non, imagine un certain nombre d'actions possibles, fait appel à la représentation qu'il possède de la situation (le modèle) et procède à des simulations, c'est-à-dire cherche à imaginer les conséquences des diverses actions possibles. Ces simulations achevées, il exécute, parmi les différentes actions possibles, celle dont les conséquences (obtenues par simulation) lui paraissent les plus favorables quant au but qu'il s'est fixé (Schneider, 1994).

Naturellement, il arrive que le résultat de l'action entreprise soit plus ou moins différent de ce qui est attendu. Cela signifie soit que le modèle que possède l'individu est plus ou moins incorrect, c'est-à-dire ne traduit pas bien la réalité, soit encore qu'une erreur a été commise dans l’évaluation des simulations, c'est-à-dire dans la suite de raisonnements ou d’informations utilisés dans un objectif précis et appliqués au modèle pour en déduire les conséquences de l'action. Dans les deux cas, l'écart constaté entre les prévisions et la réalité permet de corriger soit le modèle, soit les simulations (Schneider, 1994; Joubert & Hersent, 2005).

Cette démarche est naturelle, nous opérons tous, plus ou moins consciemment, de cette façon pour résoudre un problème.

1 6 8 | P a g e Toutefois, dans le cas de systèmes complexes, comme les écosystèmes par exemple, nous avons montré qu’il est pratiquement impossible de synthétiser directement le modèle en question du fait du trop grand nombre de constituants inclus dans le problème et de leurs multiples interactions. Les limites de notre système cognitif montrent que, dans de telles situations, notre représentation et notre compréhension du système n’est pas immédiate et qu’une aide est nécessaire pour la prise de décision. Dans ce cas, notre premier réflexe est de chercher à reproduire cette démarche naturelle, presque innée, en utilisant des outils ou des méthodes plus puissants, nous permettant ainsi de la mettre en œuvre.

I.1.1. Notre Démarche Expérimentale

Le terme de modèle, au sens où nous l'entendons aujourd'hui dans les sciences expérimentales, est d'un usage relativement récent bien que le concept soit aussi ancien qu'elles. En effet, pour étudier un phénomène plus complexe, nous commençons par faire des expérimentations en vue d'accumuler un certain nombre d'observations. À partir de ces observations, nous cherchons à imaginer un « mécanisme », « un modèle » qui « explique » le phénomène.

Un modèle ayant été « imaginé », il faut le « valider », c'est-à-dire vérifier par une « simulation » que, d'une part, nous retrouvons bien, par le modèle, les résultats des observations dont nous sommes partis pour l'imaginer, et que, d'autre part, le modèle permet de prédire avec une fiabilité donnée le résultat d'expériences non encore faites (rôle « prédictif » du modèle). Enfin, tout nouveau résultat expérimental, qui ne peut être prévu ou expliqué par le modèle, conduit à modifier celui-ci ou les simulations qui lui sont associées.

Nous voyons ainsi que les démarches de modélisation et de simulation sont indissolublement liées. Mais, alors que la modélisation s’inscrit toujours, par définition, dans une démarche de recherche d'une cause générale, d’un résultat global exprimant un ensemble fini d'observations, la simulation peut prendre, comme nous l’avons vu, des formes très différentes.

1 6 9 | P a g e Jusqu'à une époque relativement récente, seuls les modèles mathématiques et analytiques étaient considérés comme de « vrais » modèles et il ne venait à l'esprit de personne d'appeler « simulation », la recherche des solutions d'un ensemble d'équations qui constituent le modèle. L'avènement des ordinateurs a contribué à donner un sens concret à la notion de modèle puisque nous pouvons « mettre un modèle sur ordinateur », le traitement du modèle par l'ordinateur (le fait de le faire évoluer selon des critères donnés) devenant, par définition, une simulation.

I.1.2. Les Méthodes Employées

Les méthodes que nous utilisons vont plus loin encore. Elles conservent le principe de résolution que nous venons d’évoquer, ce cheminement logique, presque naturel dans sa démarche, mais à des niveaux de complexité supérieurs.

De fait, une SOA nous permet de faire émerger un comportement « intelligent » (i.e. dans le sens « organisé ») des interactions entre les agents et leur environnement. Ainsi, il est possible de reproduire un phénomène afin de tester des hypothèses susceptibles de l’expliquer ou/et de prévoir son évolution. Toute simulation se base sur une théorie préalable issue des connaissances du thématicien qui interviennent alors également lors de l’évaluation du modèle obtenu (Figure III.1).

Figure III.1 : Démarche Expérimentale

Modélisation

Système Réel

Théorie

Modèle

Evaluation du

Modèle

Observations / Macro-connaissances Simulations

1 7 0 | P a g e Nous observons des similitudes de la démarche de la Figure III.1 avec celle du comportement humain face à un problème que nous avons vu au début de cette partie. Les SMA ont la particularité supplémentaire d’autoriser la représentation des comportements des entités prenant part à l’évolution du système et pas seulement leur résultat comme le feraient les méthodes analytiques. Cette démarche permet l’observation conjointe des niveaux micro et macro du système donnant le choix du niveau d’analyse ainsi que la possibilité de combiner plusieurs types d’expertise.

Par analogie avec la démarche que suit notre esprit, les connaissances du thématicien représentent « l’observation », le travail du modélisateur correspond, bien entendu, à la constitution du « modèle » et celui de l’informaticien répond à l’élaboration des « simulations ». La réalisation de l’outil d’expérimentation final s’articule alors autour de trois axes.

Tout d’abord, nous procédons à l’établissement du modèle du domaine, où le thématicien définit les concepts et les abstractions manipulées. En second lieu, le modélisateur, en relation avec le thématicien, se penche sur le modèle de conception. Ce dernier permet de déterminer, d’une part, les niveaux de granularité, d’abstraction et de détail convenant au problème posé par le thématicien, et, d’autre part, la décomposition de l’écosystème dans l’objectif de définir les entités et leurs relations au sein de notre modélisation en accord avec les contraintes technologiques imposées par l’informaticien. Vient ensuite le modèle opérationnel qui intervient de manière plus fonctionnelle sur des aspects comme la gestion du temps, des comportements ou encore de l’espace. Cependant, malgré l’aspect « technologique » de ce modèle, il est important que l’informaticien propose une représentation conviviale de son travail et reste ainsi en relation étroite avec le thématicien et le modélisateur afin de s’assurer que le modèle final corresponde bien aux besoins définis au départ.

Ainsi, les principes associés aux SMA offrent de nombreux intérêts. L’avantage majeur, mis en avant, est leur capacité à aborder et à représenter un problème d’une manière qui semble instinctive, c'est-à-dire qui rejoint celle que notre esprit adopte naturellement pour résoudre des problèmes courants.

1 7 1 | P a g e De fait, la décomposition et la distribution, que la modélisation par des techniques à base de SMA nous obligent à opérer sur le système réel, permet la réalisation d’une abstraction, d’une part, probablement plus proche de la réalité et des connaissances du thématicien, et, d’autre part, bien plus intuitive, plus simple à mettre en œuvre que ce qui était proposé jusqu’à présent.

I.1.3. Les Limites

Cette manière d’aborder la modélisation d’un système rend l’outil finalement obtenu à la fois plus flexible et plus robuste. Cela confère à cet outil une capacité d’adaptabilité importante. L’application des principes évoqués sous forme de SOA permet alors un large spectre de domaines auxquels ils peuvent apporter de nouvelles perspectives.

Néanmoins, ces techniques représentent encore actuellement un coût informatique élevé et le manque de support logiciel faisant l’unanimité auprès des chercheurs vient s’ajouter à ce premier inconvénient. Ces deux préoccupations arrivent derrière les difficultés de validation et la traçabilité faible que nous retrouvons dans les simulations réalisées et qui est souvent due à un manque d’explication des phénomènes émergents. En effet, la modélisation est souvent amenée à se complexifier dans le but d’apporter des réponses de plus en plus précises et détaillées sur le système réel ; ainsi, l’observation de l’évolution du système et du résultat des simulations devient parfois aussi complexe que ceux du système originel. Le cas de figure que nous avons soulevé au début de cette partie est alors à nouveau rencontré : les capacités cognitives de l’Homme sont trop restreintes pour évaluer de but en blanc le véritable impact que chaque élément constituant la simulation a sur le devenir final du système.

Nous nous apercevons que nous avons à nouveau besoin d’une aide extérieure pour trouver réponses à nos questions. Nous remarquons, en reprenant le début de cette partie, qu’il manque, dans notre approche de conception de système virtuel, une considération essentielle pour rejoindre exactement le raisonnement que notre esprit adopte naturellement face à des problèmes plus simples.

1 7 2 | P a g e En effet, nous recréons le système (modèle), les entités présentes, leurs interactions, etc… Puis, afin de pouvoir observer son évolution, nous mettons en place un certain nombre de simulations.

Les cas étudiés devenant trop complexes, les connaissances des thématiciens ne sont plus suffisantes pour rétroagir de manière efficace et pour combler l'écart constaté entre les prévisions et la réalité. De fait, il serait long et fastidieux de mettre en place des expérimentations testant les multiples possibilités d’évolutions du modèle pour en choisir la meilleure. Quand bien même cette entreprise serait réalisée, il n’est pas évident que l’analyse des résultats désigne de manière non équivoque les réponses aux questions initiales ou même une démarche expérimentale qu’il serait possible d’adopter pour les trouver.

Figure III.2 : Rétroaction dans la Démarche Expérimentale

Modélisation

Système Réel

Théorie

Modèle

Evaluation du Modèle Observations / Macro-connaissances Simulations Corrections / Rétroaction

1 7 3 | P a g e C’est sur ces constatations que nous basons notre travail dans le but d’automatiser la compensation des déviations des résultats obtenus par simulation. Afin d’isoler les causes d’un événement particulier, la rétroaction sur le système est nécessaire. La solution que nous proposons est de réaliser un correctif notamment par une réévaluation des données initiales et l’exploration des répercutions sur le devenir du système. Cette étape est capitale pour évaluer l’action à produire en amont sur le système pour assurer sa « bonne marche » ou obtenir un résultat spécifiquement souhaité et ainsi répondre aux interrogations des thématiciens.

Une analyse de la SOA par un méta-système automatisé autorise la formation d’hypothèses permettant d’asseoir une démarche expérimentale. Une SOA entre, par nature, dans le cadre des systèmes d’aide à la décision en se positionnant comme un laboratoire virtuel grâce auquel le thématicien peut étudier l’évolution des différents niveaux d’organisation du système dans un temps relativement cours. Nous proposons d’apporter un degré d’autonomie supérieur dans cette approche d’aide à la décision en présentant dans la suite le principe de monitoring de SOA et en développant plus en détail la solution que nous proposons dans cette optique.