• Aucun résultat trouvé

Belief-HATP : planification avec croyances mutuelles

4.1 Travaux voisins

La planification avec croyances mutuelles a ´et´e utilis´ee dans plusieurs approches. Dans le chapitre 2 nous avons abord´e l’approche par planification r´eactive, et plus pr´ecis´ement le

mod`ele STEAM [Tambe 97] qui utilise la th´eorie de l’intention jointe afin de construire des

plans pour la r´esolution de probl`eme multi-agents. Nous avons pu constater que ce mod`ele utilise une structure hi´erarchis´ee appel´ee TOP (Team Oriented Plan) pour l’´elaboration de ses plans. Nous avons ´egalement ´etabli que le mod`ele fait une distinction entre les tˆaches jointes appel´ees “op´erateurs d’´equipe” et les tˆaches individuelles appel´ees “op´erateurs individuels”. Cette distinction va servir au moment d’instancier le plan. En effet, pour instancier un op´erateur et v´erifier ses pr´econditions, il est n´ecessaire de connaˆıtre son type. Si c’est un op´erateur d’´equipe,

cela implique qu’il doit ˆetre d´ecompos´e en sous-tˆaches ; si c’est un op´erateur individuel, cela

implique que l’agent concern´e va utiliser ses croyances pour r´ealiser la tˆache. Quand tous les op´erateurs individuels d’un op´erateur de groupe sont r´ealis´es, les agents impliqu´es reconstruisent une croyance mutuelle consistante pour conclure que l’op´erateur de groupe est r´ealis´e.

Dans cette approche, trois ´el´ements importants sont `a noter :

– Chaque agent a une croyance individuelle. La croyance mutuelle est l’union des croyances des diff´erents agents.

– Utilisation des croyances individuelles pour la r´ealisation des tˆaches individuelles. – Utilisation d’une structure hi´erarchique pour la construction du plan.

Une autre approche est l’approche dite planification continue [Brenner 09], [Clement 03].

Elle repose sur l’id´ee du (active knowledge-gathering [Knoblock 95]), o`u l’agent ne planifie pas

seulement pour atteindre un but, mais ´egalement pour acqu´erir les informations n´ecessaires `a

la r´ealisation de ce but. Ce type de planification utilise l’entrelacement entre planification et ex´ecution [Ambros-Ingerson 90], ce qui lui permet de palier au manque d’information en passant

d’une phase `a une autre jusqu’`a l’obtention d’un plan complet et correct.

Ce type de planification utilise un langage appel´e MAPL pour (Multi-Agent Planning

Language) [Brenner 03], qui est d´eriv´e du langage PDDL. Ce langage d´ecrit le domaine de planification qui inclut des actions physiques, des actions d’observations et des actions de communications. Sa repr´esentation du monde inclut les croyances propres et les croyances mutuelles des agents.

La repr´esentation du monde s’appuie sur les variables d’´etats multi-valeurs [B¨ackstr¨om 93].

Dans ce mod`ele, chaque agent a sa propre base de croyances, et pour avoir une croyance mutuelle, il faut qu’il y ait une correspondance entre toutes les croyances individuelles de tous les agents.

Le mod`ele a ´et´e ´egalement ´etendu `a la notion de unknown qui permet de sp´ecifier si un agent

Dans cette approche, on a enrichi le mod`ele d’action par la notion (Know if), qui est une condition de re-planification qui permet de d´etecter la connaissance ou la non-connaissance d’une

certaine information, permettant ainsi `a un agent de raisonner sur la r´ealisation d’une action.

La figure 4.1 illustre un exemple de d´eclaration d’une action dans le langage MAPL. Dans

cette action, l’agent a besoin de connaˆıtre si la porte est ouverte ou non, information qui est

repr´esent´ee par “:replan (KIF ?a (doorstate ?d))”. Il faut savoir que cette condition n’intervient

pas directement lors de la planification. Elle est utilis´ee lors de l’ex´ecution pour permettre `a

l’acteur de l’action de re-planifier si la condition n’est pas respect´ee. Dans notre exemple si la porte n’est pas ouverte ou si l’agent ne connaˆıt pas l’´etat de la porte, il peut alors re-planifier pour ouvrir la porte ou bien observer l’´etat de cette derni`ere.

1 ( :action move A

2 : a g e n t ( ? a a g e n t )

3 : p a r a m e t e r s ( ? t o l o c a t i o n )

4 : v a r i a b l e s ( ? from l o c a t i o n ?d door )

5 : r e p l a n ( KIF ? a ( d o o r s t a t e ?d ) )

6 : p r e c o n d i t i o n ( and ( pos ? a : ? from )

7 ( e n t r a n c e ?d ? from ) ( e n t r a n c e ?d ? t o ) )

8 : e f f e c t ( pos ? a : ? t o )

9 )

Figure 4.1 – Exemple de d´eclaration d’une action avec l’approche planification continue

L’algorithme pour la planification continue se d´ecompose en trois phases :

1. (Re-)planification pour atteindre un ´etat but `a partir d’un ´etat initial. Cette phase utilise

un algorithme classique de recherche en avant.

2. Ex´ecution des actions produites par la phase pr´ec´edente.

3. ´A l’ex´ecution, l’algorithme compare l’´etat du monde courant avec l’´etat du monde estim´e

en se servant des observations que l’agent peut faire.

Cet algorithme a ´et´e ´etendu au cas du multi-agent en utilisant un algorithme distribu´e qui permet la communication entre agents. L’id´ee est la suivante : durant la planification d’un agent, s’il rencontre un ´etat bloquant, il envoie aux autres agents un message sous forme d’un but pour

d´ebloquer la situation et cela jusqu’`a construire un plan complet.

Cette approche a ´et´e test´ee sur un sc´enario dans le cadre d’un dialogue entre agents

[Brenner 08] [Kruijff 07]. Dans le sc´enario on suppose que nous avons deux agents MrChips

et MrData.MrChips peut se d´eplacer et prendre des objets, MrData peut aussi se d´eplacer et

ouvrir les portes. Le but de MrData est d’avoir un caf´e et le but de MrChips est de satisfaire

MrData. La figure 4.2 illustre le plan produit et ex´ecut´e par les deux agents.

A l’ex´ecution, MrChips ne connaˆıt pas la position du caf´e alors il fait intervenir MrData

pour obtenir l’information (ligne 3). Puis, MrChips se dirige vers la porte et observe qu’elle est

ferm´ee. De nouveau il fait intervenir MrData pour lui ouvrir la porte (lignes 5 `a 7). MrChips

Figure 4.2 – Exemple de dialogue entre agents en utilisant la planification continue

Dans l’approche de la planification continue, nous devons noter quatre points importants : – Chacun des agents a sa croyance individuelle. La croyance mutuelle est une fusion entre les croyances individuelles de chaque agent.

– La notion de variable d’´etat `a valeur multiple, qui permet de cr´eer les croyances

individuelles des agents.

– La notionunknown qui permet de mod´eliser le fait qu’un agent ignore une information.

– La condition de re-planification (Know if) qui permet de g´en´erer un but de recherche

d’information.

– Le mod`ele des actions de communication et la notion de copr´esence qui permettent le passage des informations entre agents.

Pour la conception d’un planificateur avec croyance mutuelle et d’apr`es ce que nous avons pu noter des diff´erentes approches, le planificateur doit int´egrer certaines propri´et´es qui peuvent am´eliorer l’interaction homme-robot.

– Il doit int´egrer le fait que chaque agent doit avoir ses croyances individuelles. Cela permettra au planificateur de ne plus raisonner que sur les croyances du robot, mais ´egalement de prendre en compte les croyances des humains partenaires pour pouvoir produire des plans compr´ehensibles par ces derniers, mˆeme en cas de croyances individuelles divergentes.

– Il doit compl´eter son domaine de planification par des actions de communication, qui vont permettre la transmission d’information en cas d’absence d’information ou divergence de croyances entre le robot et les humains. Cela permettra ´egalement de rendre plus clair les plans produits par le robot.

– Il doit int´egrer le fait qu’un agent connaisse ou non une information, ce qui permettra au robot de g´en´erer des buts pour la recherche d’information, et de connaˆıtre les raisons de son ´echec, mais ´egalement de pouvoir renseigner l’humain quand ce dernier en a besoin.

Dans la suite du document nous pr´esentons le mod`ele de planification avec gestion des croyances multiples et r`egles sociales propos´e et mis en œuvre pour l’interaction homme-robot.

Documents relatifs