• Aucun résultat trouvé

Exemple : Am´elioration de la synchronisation entre agents

4.4 Exemples et fonctionnement

4.4.2 Exemple : Am´elioration de la synchronisation entre agents

Dans cet exemple, nous supposons que nous avons deux agents, un humain Tom et un robot Jido. Les deux agents ont pour but de construire une table. Pour faciliter l’illustration des plans qui vont ˆetre produits, nous supposons que la table est compos´ee d’un pied et d’une planche. La construction de celle-ci suit la proc´edure : (1) assembler le pied et la planche. (2) fixer le pied `a la planche. On suppose que la fixation du pied `a la planche ne peut ˆetre faite que par un humain. Les agents ´evoluent dans un espace clos, un atelier par exemple. Dans cet espace il y a deux armoires cupboard1 et cupboard2 qui contiennent respectivement les planches et les pieds. L’assemblage doit se faire sur une table se trouvant dans l’atelier.

La figure 4.11 repr´esente un plan produit par HATP classique. Ce plan est correct, mais il pr´esente un inconv´enient au niveau de la synchronisation entre les deux agents. Dans ce plan, on suppose que Tom sait implicitement quand Jido a fini d’assembler la table et cela, sans tenir compte des observations que Tom peut faire. Dans la r´ealit´e, un tel plan obligera le partenaire humain `a suivre toutes les actions du robot pour savoir `a quel moment il doit intervenir.

฀ ฀

฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀

฀ ฀

฀ ฀

Figure 4.11 – Plan produit par HATP classique

En soumettant le mˆeme probl`eme `a HATP avec gestion des croyances, celui-ci produit le

plan en fonction des observations que Tom peut faire. Il va produire le mˆeme plan que celui de la figure 4.11 si Tom peut observer les actions et, de ce fait, sa base de croyances est affect´ee

planificateur produit le plan de la figure 4.12 dans lequel il inclut une action de communication pour pr´evenir Tom que la table est assembl´ee. En effet, le planificateur rend plus souple les contraintes de pr´ec´edence entre les agents, en prenant en compte leurs connaissances des ´etats du monde et en les confrontant `a celles du robot. Dans l’exemple, comme le robot avertit l’humain quand il doit agir, Tom est lib´er´e de la contrainte de surveiller les agissements du robot pour savoir quand intervenir, ce qui rend l’interaction plus appr´eciable du point de vue de l’humain. ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀ ฀

Figure 4.12 – Plan produit par HATP avec gestion des croyances

Nous consid´erons le mˆeme exemple avec un autre probl`eme pour lequel le but du robot est d’aller chercher un pied de table et de le donner `a l’humain. Cela se traduit par la m´ethode GetObject(T om, P ied). On suppose que le robot ignore la position du pied. Dans ce cas, deux alternatives se pr´esentent au robot :

1. Le robot ex´ecute la s´equence M ove(Jido, T om) → GetInf o(Jido, T om, P ied, P osition) → Replan(). Il commence par se d´eplacer vers l’humain pour acqu´erir l’information sur la position, puis re-planifie. Cette alternative est possible si et seulement si la croyance de l’humain est diff´erente de U nknown.

2. Le robot ex´ecute la s´equence M ove(Jido, cupboard1) → Look(Jido, cupboard1) → Replan(). Il commence par atteindre cupboard1, puis il effectue une observation pour voir si le pied est l`a ou non, puis il re-planifie. Si l’objet est trouv´e, on entre en cycle normal de d´ecomposition. Sinon le robot va visiter une autre position et cela r´ecursivement jusqu’`a trouver l’objet ou bien jusqu’`a ce qu’il n’y ait plus de position `a observer. Dans ce cas, il y a ´echec.

Dans cet exemple, nous avons vu que le robot entrelace planification et ex´ecution. Il planifie pour r´esoudre un probl`eme donn´e, mais ´egalement pour acqu´erir des informations qui lui sont utiles pour r´esoudre le probl`eme, ce qui lui procure une autonomie suppl´ementaire.

4.5

Conclusion

Dans ce chapitre, apr`es avoir ´etudi´e les approches existantes pour la planification avec croyances mutuelles, nous avons pr´esent´e une extension du mod`ele HATP permettant la gestion des croyances des diff´erents agents intervenant dans le plan. Nous avons ´etendu le formalisme

de d´efinition des tˆaches et propos´e l’ajout d’actions de communication dans le mod`ele. Nous avons montr´e comment utiliser la structure HTN de HATP pour produire des plans qui tiennent compte des diff´erentes croyances des agents, et nous avons not´e que l’utilisation de ces structures hi´erarchis´ees n’impliquent pas la modification de l’algorithme de planification, ce qui est un avantage puisqu’`a tout moment on peut r´eutiliser le mod`ele de HATP classique.

Nous avons pu constater l’int´erˆet de l’inclusion des croyances multiples dans le mod`ele pour l’interaction homme-robot. Cette inclusion permet une gestion plus efficace et plus souple des liens crois´es, en remplacant les liens fragiles par des actions de communication.

N´eanmoins, ce mod`ele utilise des notions g´eom´etriques dans sa repr´esentation symbolique comme, par exemple, la notion de copr´esence qui permet une gestion plus r´ealiste du transfert d’information entre agent. Ce qui rejoint la critique du mod`ele HATP faite dans le chapitre 3.

5

Hybride-HATP : planification avec contraintes

g´eom´etriques

Nous avons d´emontr´e dans le chapitre 3 qu’il est n´ecessaire de contrˆoler le comportement d’un robot qui cohabite avec des humains. Cela passe par le contrˆole de la qualit´e sociale du plan que le planificateur produit, mais cela n’est pas suffisant. Car le contrˆole du comportement d’un robot se fait sur deux niveaux. Au niveau d´ecisionnel, ce que nous avons ´etudi´e dans les chapitres 3 et 4, et ´egalement au niveau fonctionnel, c’est-`a-dire au niveau de la r´ealisation du plan. En effet, les d´ecisions prises `a ce niveau peuvent affecter consid´erablement la qualit´e sociale d’un plan. Pour ´eviter cela, il est n´ecessaire de conditionner les d´ecisions prises au niveau fonctionnel afin de s’assurer de la qualit´e sociale du plan produit et r´ealis´e.

Dans ce chapitre, nous allons pr´esenter notre approche d’une planification hybride pour l’interaction homme-robot qui consiste en un couplage entre notre planificateur symbolique et un planificateur g´eom´etrique. Ce travail a ´et´e effectu´e en collaboration avec M. Amit Kumar Pandey, actuellement en th`ese au LAAS, pour la partie planification g´eom´etrique.

5.1

Travaux voisins

Dans la litt´erature il existe plusieurs approches pour faire fonctionner un planificateur symbolique avec un planificateur g´eom´etrique. [Guitton 10] a fait une classification des diff´erentes approches existantes :

– L’approche classique : Planification de tˆache suivie par la planification g´eom´etrique. – L’approche non conventionnelle : Planification g´eom´etrique suivie par la planification de tˆache.

– L’approche hybride : Les deux planificateurs fonctionnent en parall`ele.