• Aucun résultat trouvé

Comparaison des agents artificiels et coopération

8. SESSIONS DE TESTS

8.1. GENERALITES

8.2.1. Comparaison des agents artificiels et coopération

L’agent basé sur des cas utilise des stratégies heuristiques relativement évoluées correspondant aux index/cas 6 à 9. Ceci lui permet d’obtenir des résultats nettement meilleurs

que l’agent qualitatif lors des tests, car ce dernier ne possède pas ce type de stratégie. Il semble donc raisonnable de conserver ces stratégies lors de la définition de la coopération. Par ailleurs, l’agent qualitatif semble avoir une bonne gestion des situations d’ouverture de vanne dans un cas sans alarme (recherche d’ouverture de chemins selon des critères à optimiser), et également des situations de gestion mono alarme (prédiction à un pas de temps des tendances des différentes actions possibles et choix d’une action selon des critères à optimiser). Ainsi, dans ces deux types de situations, l’agent qualitatif semble plus efficace que l’agent basé sur des cas qui utilise des index/cas qui ne sont pas optimisés. Donc dans les situations sans alarme et les situations de gestion mono-alarme, nous allons conserver les stratégies de l’agent qualitatif.

L’idée de coopération entre ces deux agents est donc la suivante : à chaque pas de calcul de l’agent artificiel, on cherche tout d’abord à utiliser l’agent à base de cas afin que celui-ci tente d’appliquer les index 6 à 9 correspondant aux stratégies heuristiques (gestion des alarmes multiples, anticipation des débordements et minimisation de la durée totale). Si un de ces index est applicable dans la situation courante, alors l’action correspondante au cas sélectionné est effectuée, et on passe au pas de calcul suivant. Mais si aucun de ces index/cas n’est applicable, alors le système passe la main à l’agent qualitatif qui va tenter d’agir (dans les situations sans alarme et de gestion mono-alarme). Cette coopération est réalisée par deux agents nommés NQA-Tactic i ( i = 1 à 2), NQA étant l’agent qualitatif et Tactic i étant l’agent CBR : Tactic 1 utilise les index 6 à 8, car l’index 9 (stratégie de minimisation de la durée) correspond à une stratégie particulière qui nécessite une analyse assez fine du problème et n’est donc pas forcément utilisée par un opérateur humain. L’autre agent, nommé Tactic 2, utilise les index 6 à 9 (voir 5.6.). La collaboration est davantage marquée lorsque l’agent CBR (le premier agent qui tente d’agir) sélectionne l’index n° 7 (m réservoirs en alarme) : dans cette situation, la tâche de l’agent CBR est de sélectionner le réservoir en alarme qui possède le plus gros rapport ΣΦe / ΣΦse et Φs sont les diamètres entrant et sortant avec

écoulement). C’est alors au tour de l’agent qualitatif de trouver une action en utilisant l’information fournie : il applique sa stratégie de gestion mono-alarme (voir 3.2.2) en se focalisant sur le réservoir sélectionné et en considérant que seul ce réservoir est en alarme. Remarque 1 : par rapport à la classification des situations d’interactions définies par Ferber [Ferber 95] (voir chapitre 2.4.2.), on peut considérer ici que l’on se trouve dans une situation de collaboration simple dans le cas de l’index n° 7 et d’indépendance pour les autres index. Remarque 2 : ce type de stratégie rejoint celle mise en œuvre par [Torasso 04], pour qui la coopération est mise en œuvre de la façon suivante : si le système CBR échoue à trouver une solution au problème, alors le système de raisonnement à base de modèles (Model-Based

Reasoning - MBR) tente d’en trouver une. Si c’est le cas, alors la solution fournie par le

module MBR est ajoutée à la mémoire de cas. De plus, au lieu d’utiliser une stratégie fixe (CBR d’abord, et MBR ensuite si échec du premier), l’auteur a expérimenté des stratégies opportunistes qui combinent les systèmes CBR et MBR de différentes façons en fonction de la difficulté estimée du problème à résoudre.

Vdéb (m3) Dt (sec.) Critère C Config 3 NQA-Tactic 1 ∆Valarme=1.5 ∆t = 2 4.34 582 33.4 Config 3 NQA-Tactic 2 ∆Valarme=1.5 ∆t = 2 ∆V_ZO= 3 0 432 21.6 Config 3 NQA-Tactic 1 ∆Valarme= 2 ∆t = 3 5.13 585 34.4 Config 3 NQA-Tactic 2 ∆Valarme= 1 ∆t = 2 ∆V_ZO= 1 0 420 21 Config 3 NQA-Tactic 2 ∆Valarme= 2 ∆t = 3 ∆V_ZO= 6 0 444 22.2 Config 3 NQA-Tactic 1 ∆Valarme= 10 ∆t = 2 0 584 29.2 Config 1 NQA-Tactic 1 ∆Valarme=1.5 ∆t = 2 3.59 754 41.3 Config 1 NQA-Tactic 2 ∆Valarme=1.5 ∆t = 2 ∆V_ZO= 3 0 658 32.9 Config 1 NQA-Tactic 2 ∆Valarme=1 ∆t = 2 ∆V_ZO= 1 0 662 33.1 Config 1 NQA-Tactic 1 ∆Valarme= 2 ∆t = 3 2.38 762 40.5 Config 1 NQA-Tactic 2 ∆Valarme= 2 ∆t = 3 ∆V_ZO= 6 0 669 33.4 Config 1 NQA-Tactic 1 ∆Valarme= 10 ∆t = 2 0.55 776 39.4 Config 4 NQA-Tactic 2 ∆Valarme=1 ∆t = 2 ∆V_ZO= 1.5 1.37 197 11.2 Config 4 NQA-Tactic 2 ∆Valarme=1 ∆t = 1 ∆V_ZO= 1.5 0 177 8.8 Config 4 NQA-Tactic 2 ∆Valarme=1 ∆t = 0.5 ∆V_ZO= 1.5 0 164 8.2 Config 4 NQA-Tactic 2 ∆Valarme= 3 ∆t = 1 ∆V_ZO= 2 0 175 8.7 Config 4 NQA-Tactic 1 ∆Valarme= 3 ∆t = 1 2.68 213.5 13.4 Config 2 NQA-Tactic 2 ∆Valarme=1 ∆t = 2 ∆V_ZO= 1.5 0.33 190 9.8 Config 2 NQA-Tactic 2 ∆Valarme=1 ∆t = 0.5 ∆V_ZO= 1.5 0 183.5 9.2 Config 2 NQA-Tactic 1 ∆Valarme=1 ∆t = 1 1.15 196 11 Config 2 NQA-Tactic 2 ∆Valarme=3 ∆t = 1 ∆V_ZO= 2 0 189 9.4 Config 2 NQA-Tactic 1 ∆Valarme=3 ∆t = 1 0 201 10 Config 6 NQA-Tactic 2 ∆Valarme=1 ∆t = 2 ∆V_ZO= 1.5 0.04 199.5 10 Config 6 NQA-Tactic 2 ∆Valarme=1 ∆t = 0.5 ∆V_ZO= 1.5 0 194.5 9.7 Config 5 NQA-Tactic 2 ∆Valarme=1 ∆t = 2 ∆V_ZO= 1.5 2.53 144 9.7 Config 5 NQA-Tactic 2 ∆Valarme=1 ∆t = 1 ∆V_ZO= 1.5 0.27 140 7.3 Config 5 NQA-Tactic 1 ∆Valarme=1 ∆t = 1 2.83 166.5 11.2 Config 5 NQA-Tactic 2 ∆Valarme=3 ∆t = 1 ∆V_ZO= 2 0 142 7.1 Config 5 NQA-Tactic 1 ∆Valarme=3 ∆t = 1 1.09 168.5 9.5

Config i : une configuration du micro-monde

Vdéb = volume total débordé Dt = durée de la simulation C = Vdéb + α.Dt = objectif global à minimiser (α = 1/20) ∆t = pas de temps de calcul de l’agent artificiel

∆Valarme = volume d’alarme : si V

i (t) > (Vimax - ∆Valarme) alors alarme du réservoir Ti à l’instant t NQA-Tactic i (i = 1 à 2) : coopération CBR-NQA

∆V_ZO = zone floue (en m3) autour du volume optimal = 2.Vε (voir 5.2.3. index n° 9)

Les résultats observés lors des tests de l’agent artificiel à base de cas et les remarques correspondantes (voir 5.6) sont valables ici, à savoir : les résultats sont meilleurs que pour un agent qualitatif seul, notamment avec l’emploi de la tactique n° 2 (NQA-Tactic 2) qui réduit nettement la durée et les débordements.

Les simulations des configurations n° 4 et 5 sont caractérisées par des vitesses élevées et donc des remplissages rapides des réservoirs. Cela nécessite un pas de temps de calcul ∆t réduit afin de bien gérer la situation. Les résultats montrent qu’avec un pas de temps de 2 secondes, des débordements se produisent. Ils sont dus à un volume important entrant dans chaque réservoir entre deux actions consécutives, entraînant de nombreuses alarmes, ce qui empêche d’appliquer la stratégie de minimisation de la durée (NQA-Tactic 2). La diminution du pas de temps permet d’une part de réduire voire éliminer les débordements, et d’autre part de réduire la durée totale de la simulation. En effet, dans ce cas, l’agent artificiel peut appliquer de manière efficace la stratégie de minimisation de la durée (NQA-Tactic 2).

La coopération entre les deux agents peut avoir des effets négatifs, notamment lorsqu’une action effectuée par l’agent CBR afin d’appliquer la stratégie de minimisation de la durée ou la stratégie d’anticipation de débordement est annulée (action contraire) par l’agent NQA quelques pas de temps plus tard, ce qui peut même entraîner un débordement d’un réservoir. Un moyen d’empêcher ces effets est d’avoir une liste d’actions Tabou dont la taille est importante (de l’ordre de 10), ce qui ne semble pas judicieux. Ce problème n’est d’ailleurs pas spécifique à la coopération car il intervient également avec l’agent artificiel basé sur des cas : l’index correspondant à l’ouverture d’une vanne dans une situation sans alarme annule la stratégie de minimisation de la durée. Il s’agirait donc, pour les réservoirs concernés par la stratégie de minimisation de la durée, de ne gérer ces réservoirs que par cette stratégie, donc sans faire intervenir la notion d’alarme.

Les résultats de ces tests (à comparer avec les tests de l’agent à base de cas seul) montrent que l’amélioration attendue n’a pas eu lieu. Les résultats sont sensiblement les mêmes pour l’agent à base de cas et l’agent basé sur une coopération. Ceci est du au fait que la stratégie de gestion mono-alarme de l’agent qualitatif n’est pas excellente, et elle pourrait peut-être, comme cela a déjà été dit, être améliorée grâce à une modification des valeurs des paramètres de cet agent (par exemple par l’apprentissage). Il semble en outre que la stratégie de recherche d’un chemin à ouvrir (cas sans alarme) de l’agent qualitatif a globalement peu d’influence, car en pratique cette stratégie est utilisée principalement en début de simulation lors de l’ouverture d’un ensemble de vannes.

L’amélioration de la coopération pourrait consister en une amélioration de l’agent qualitatif,

tant au niveau des valeurs de ses paramètres (par exemple avec une procédure d’apprentissage : voir 3.2.4.) qu’au niveau de ses stratégies de contrôle. Mais il s’agirait surtout de définir des stratégies pour l’agent qualitatif qui soient complémentaires de celles de l’agent à base de cas.

En effet, pour notre problème, l’agent à base de cas et l’agent qualitatif sont actuellement plus en situation d’indépendance (voir remarque 1 ci-dessus) que complémentaires (ce qui aboutirait à une situation de collaboration simple ou coordonnée), car ils opèrent actuellement tous deux au même niveau, celui de la résolution (dans tel état du système, effectuer telle action). Une piste qui semble prometteuse serait de placer les agents à des niveaux conceptuels différents afin de véritablement imbriquer les agents : l’agent CBR opérerait toujours au niveau de la résolution, mais l’agent qualitatif opérerait maintenant au niveau de la représentation des connaissances et du raisonnement, sous la forme de modèles qualitatifs

(voir chapitre 9 : conclusion) et fournirait une aide à l’agent CBR lors des différentes phases du processus de résolution.

Documents relatifs