• Aucun résultat trouvé

CHAPITRE II : SYSTEMES DE DIALOGUE HOMME-MACHINE

VI. L'AGENT INTELLIGENT

VI.1. PRINCIPE

Le concept d'agent intelligent est inspiré du domaine de la résolution distribuée de problème et plus particulièrement de travaux menés en Intelligence Artificielle Distribuée, qui tentent de modéliser par un formalisme logique le comportement d'un agent rationnel, basé sur des états intentionnels, tels que les croyances, les désirs, les intentions et les engagements (CHAIB-DRAA, 1990).

Le principe d'un système de dialogue, utilisant les concepts de l'agent intelligent, repose sur la possibilité de décomposer le système homme-machine en un ensemble d'agents Intelligents, par exemple les sous-systèmes à superviser, les systèmes d'assistance, les systèmes de dialogue homme-machine et les opérateurs humains. Ces différents agents travaillent en parallèle et/ou coopèrent, dans le but de résoudre les problèmes de la communication homme-machine, du contrôle et de la supervision des procédés industriels complexes. Le résultat de leurs traitements est transmis à l'opérateur humain, grâce à des actes de communications sous forme de messages.

Dans ce contexte, MANDIAU et al. (1991A) considèrent trois types d'agents : - les agents réactifs constitués par le procédé et ses environnements,

- les agents cognitifs constitués par les systèmes d'assistance, - les agents externes constitués par le groupe d'opérateurs humains.

VI.2. STRUCTURE GENERALE

Considéré comme intégré dans un univers multi-agents (GASSER, 1991), l'agent intelligent, figure II.14, possède une structure décomposée en trois niveaux de contrôle selon MANDIAU et al. (1991A) :

• Le niveau le plus haut constitue la couche de coopération. Ce niveau correspond en fait à un module capable de raisonner sur des connaissances relatives au désir et à l'engagement d'effectuer une action, ainsi qu'aux

différents buts à atteindre. Ce module de raisonnement s'engage à réaliser le(s) but(s) sélectionné(s) soit par l'agent, soit par un autre module hiérarchiquement supérieur, en se basant sur les désirs de cet agent. Si le but est réalisable, un plan d'intention est généré, sinon le but doit être sélectionné par un autre agent. Ce plan est constitué d'intentions d'engagement et de croyances sur l'univers qui l'entoure. Ce module intègre aussi un certain nombre d'actes tels que ceux de communication ou les actes probables des autres agents. DESIRS ENG AG EMENT BU TS Générateur de plan Gestion de la communication Module d'exécution

ENVI RON NEMENT AU TRES AG ENTS COMMUN ICA TIONCONTRA INTES DE

Détermination des agents pertinents susceptibles d'intervenir Reconnaiss ance des plans Action Perception COUCHE APPLICATION COUCHE COMMUNICATION COUCHE COOPERATION CROY ANCES INTENTION S

ET A CTIO NS DETECTION D'ERREURS

Figure II.14 : Modèle d'un agent intelligent (MANDIAU et al., 1991B)

• Le niveau médian constitue la couche de communication. Il se compose de trois processus de traitement : un module d'exécution, un module de reconnaissance des plans et un module de gestion de communication. Après l'élaboration d'un plan d'intentions, l'agent l'exécute afin de réaliser le but pour lequel il s'est engagé. Ce but est réalisé par le module d'exécution, si l'intention générée est une action. Ce but est réalisé par l'intermédiaire du module de gestion de la communication, si l'intention produite est un acte de communication vers un autre agent. Il faut noter, à ce niveau, que l'acte de communication est élaboré par le niveau le plus haut comme un plan. Par conséquent, il est considéré comme un but à réaliser. Le module central

détermine aussi les agents pertinents susceptibles d'interagir avec l'agent actuel, pour atteindre le but, afin d'éviter toute interaction inutile entre les autres agents.

• Le niveau le plus bas constitue la couche de l'application. Il est composé : (i)

d'une base de données décrivant l'environnement de l'agent, (ii) d'une base de connaissance sur les autres agents constituant cet univers multi-agents et (iii) de données sur le mode et les contraintes de communication avec le différents autres agents de cet univers.

VI.3. EXEMPLE D'APPLICATION D'UN AGENT INTELLIGENT

MANDIAU et al. (1991C) décrivent un exemple de modélisation d'un agent "intelligent" dans un contexte de contrôle de procédé. Le procédé en question est un système de production d'un produit D. Ce produit est le résultat du mélange de 3 produits appelés A,B et C dans des proportions bien définies, figure II.15.

Min Max Convoyeur Systèmes de pesée V2 V3 V4 V5 Mote ur V1 C Sol van t Mi xe ur PROCEDE Produi t fi nal D Produit Produit Produit A B

La décomposition de ce système homme-machine en univers multi-agents considère :

- le procédé comme un agent réactif ;

- deux systèmes d'aide comme des agents cognitifs (Assistant_1 et Assistant_2) ;

- l'opérateur humain comme un agent externe.

Le but final est de parvenir au mélange des 3 produits A, B et C pour obtenir le produit D qui sera utilisé par la suite. La mise en œuvre de ce but génère une "conscience" collective, c'est à dire un plan identique à tous les agents de cet univers. L'agent externe agit sur le premier agent cognitif en le chargeant du mélange de A et B, pendant que lui-même contrôle le niveau du solvant C. Ne pouvant se charger en même temps de la pesée et du convoyage des deux produits A et B, l'Assistant_1 demande alors à l'Assistant_2 de contrôler le convoyage des deux produits, se laissant la charge de la pesée des deux produits, figure II.16.

Figure II.16 : Exemple d'un univers constitué de 4 agents

Actuellement, les travaux sur l'agent "intelligent" sont en cours de mise en œuvre en LISP sur un VAX 6400.

VI.4. DISCUSSION

Cette approche d'agent "intelligent" semble prometteuse pour une modélisation d'un système homme(s)-machine(s) constitué d'agents "intelligents" interagissant entre eux, dans la mesure où les machines sont actuellement dotées de plus en plus "d'intelligence". Notons à ce sujet que cette approche multi-agents est actuellement développée dans plusieurs applications mettant en oeuvre des agents se comportant dans le contexte de tâches complexes. Par exemple, SHALIN et se collègues (1988) développent un système visant à reconnaître les intentions d'un pilote, dans le but d'amoindrir le travail de celui-ci et d'améliorer la synergie entre homme et machine. Ce travail vise à moyen terme la reconnaissance des erreurs du pilote.

De telles approches changeront considérablement : (i) le travail de l'homme, qui aura à interagir avec un ensemble d'agents "intelligents", (ii) la conception des systèmes d'assistance qu'il s'agit de décomposer en agents autonomes, de même que (iii) les méthodes d'analyse et d'évaluation de ces systèmes.

Enfin, la complexité d'une telle approche se retrouve dans la formalisation des différentes connaissances, particulièrement quand le nombre d'agents augmente.