• Aucun résultat trouvé

Perception et mise ` a jour des ´etats mentaux

Le premier sous-module du moteur de raisonnement se d´ecompose en deux phases (cf. figure 12.4) :

– perceptiond’un ACM accompli par l’utilisateur ;

– mise `a jour des ´etats mentaux de l’agent contenus dans sa base de connaissances.

Fig.12.4 – Le premier sous-module de perception/interpr´etation. Lors du dialogue, les ´enonc´es de l’humain sont traduits en ACM et re¸cus par l’agent1

: cette perception d´eclenche la mise `a jours des ´etats mentaux de l’agent dans sa base de connaissances. Les ACM accomplis par l’agent lui-mˆeme sont ´egalement re¸cus par le module de perception.

La base de connaissances de l’agent est divis´ee en deux parties, comme on le montre la figure 12.5 : une partie statique qui repr´esente les connaissances initiales de l’agent, et une partie dynamique qui contient l’ensemble des connais-sances construites par l’agent au cours du dialogue.

1

La traduction de l’´enonc´e en ACM ne fait pas l’objet de ce travail. Elle a ´et´e r´ealis´ee de fa¸con simple etad hoc viala reconnaissance d’un certain nombre de mots-cl´es, s´electionn´es `a partir d’une«ontologie»des diff´erents sc´enarios (cf. chapitre 13).

12.3. PERCEPTION ET MISE `A JOUR DES ´ETATS MENTAUX 95

Fig. 12.5 – Parties statiques et dynamiques de la base de connaissances.

Les connaissances initiales de l’agent sont compos´ees tout d’abord de connais-sances propres au domaine : ce sont essentiellement des biblioth`eques de plans (comment recommander un film de cin´ema, comment se r´econcilier avec l’utili-sateur, comment organiser les vacances etc.) et des donn´ees (liste de films, liste de campings etc.) sp´ecifiques au domaine. Les plans du domaine sont en accord avec les approches par plan du discours ; ce sont des s´equences d’actions (dont les pr´econditions et les effets sont d´efinis) qui vont permettre de satisfaire les intentions au niveau “global” du discours (comme je le montre ci-dessous, sec-tion 12.5.3). Les connaissances initiales sont ´egalement compos´ees des normes sociales (une part des id´eaux - I) de l’agent. Elles peuvent ˆetre, par exemple, ne pas faire de mal intentionnellement ou ˆetre ´ecologiquement responsable, ou pour un agent compagnon, rester en bons termes avec l’humain etc. (la base de connaissances de l’agent et une«ontologie»d’un exemple de sc´enario sont pr´esent´es en Annexe B.2).

Les connaissances dynamiques sont elles compos´ees des ´etats mentaux de l’agent (uniquement des BIGR, les E ´etant d´eduites dans le sous-module suivant) et des croyances de l’agent sur les ´etats mentaux de l’utilisateur. Lorsque le dialogue commence, l’agent n’a aucune connaissance dynamique. Au cours du dialogue, la perception d’un ACM d´eclenche la mise `a jours de ces connaissances, qui se d´eroule en quatre phases :

1. d´eduire les effetsde l’acte (effets de r´eception si l’humain en est l’auteur, ou effets d’´emission si c’est l’agent) ;

2. r´esoudre les conflitsde croyances potentiels entre les nouvelles croyances et celles de la base ;

3. ajouter dans la base les effets de l’acte ;

4. “saturer la base”, c’est-`a-dire appliquer les axiomes des op´erateurs BIGR pour d´eduire de nouvelles connaissances.

12.3.1 D´eduction des effets des actes

Les diff´erents effets (de r´eception et d’´emission) des actes ont ´et´e d´efinis dans le chapitre 9. Lors de la r´eception d’un ACM accompli par l’humain ou l’ACA, les effets correspondants sont d´eduits et participent `a la mise `a jour des ´etats mentaux de l’agent dans sa base de connaissance ; le sous-module de perception va donc mettre `a jour l’image que l’agent a de l’humain (ses croyances sur l’humain). Le fait de conserver et mettre `a jour une image des ´etats mentaux (et notamment des ´emotions) de son interlocuteur est connu en psychologie sous le nom d’“´evaluation inverse” (reverse appraisal en anglais, [Hareli 2010]). Cette notion est r´ecente et n’a pour l’instant ´et´e qu’abord´ee dans le domaine des agents virtuels [Melo 2009, de Melo 2011] ; elle occupe cependant une place tr`es importante pour des agents compagnons et des applications de plus en plus orient´ees vers l’humain (“human-aware”).

La perception et la mise `a jour des effets d’´emission d’un ACM accompli par l’agent lui-mˆeme forment une boucle de r´etroaction : cette boucle est importante car elle permet `a l’ACA de s´electionner d’autres intentions commu-nicatives (comme je le d´etaille en section 12.5) `a partir de la croyance des effets de l’acte.

D’apr`es Perrault [Perrault 1990], les effets d’un acte ne sont pas crus direc-tement par l’agent : ils restent des hypoth`eses qui sont confirm´ees (ou r´efut´ees) par la suite du dialogue. Ici, bien que l’agent puisse ˆetre consid´er´e comme na¨ıf (il consid`ere l’humain comme sinc`ere), il met `a jour ses croyances et les corrige au cours du dialogue.

12.3.2 Conflits de croyances

Lors de l’ajout dans la base d’une nouvelle croyance (les effets d’un acte), des conflits peuvent apparaitre entre cette nouvelle croyance et les croyances actuelles de l’agent. Par exemple, imaginons que l’agent croit ϕ et qu’il en

informe l’humain ; l’agent d´eduit donc les effets de l’ACM Informer et les ajoute dans sa base, c’est-`a-dire quil croit maintenant que l’humain croit ϕ

(BeliBeljϕ) ; si l’humain le contredit en lui disant que pas du tout, c’est

¬ϕ qui est vrai, les effets de l’ACMContredire qui sont d´eduits par le sous-module sont en conflit avec les croyances de l’agent (BeliBelj¬ϕ) : en effet, l’agent ne peut pas croire en mˆeme temps que l’humain croitϕet ¬ϕ, car cela rendrait sa base de connaissances inconsistante. Dans le but de garder une base de connaissances consistante, il faut donc r´esoudre ces conflits avant l’ajout de la croyance contradictoire, en choisissant la croyance `a conserver. Dans l’exemple, un des deux interlocuteurs a tort : il faut donc que l’agent puisse d´ecider, soit d’adopter la nouvelle croyance en abandonnant l’ancienne, soit au contraire de rejeter la nouvelle croyance et Dire sa croyance `a l’humain (en argumentant par exemple). Un tel m´ecanisme de d´ecision pourrait reposer sur l’attribution de degr´es aux croyances de l’agent, mais, dans l’´etat actuel de la formalisation, il n’est pas possible d’avoir un degr´e continu sur l’op´erateurBeli. Cependant, l’impl´ementation du moteur de raisonnement en Prolog a permis, comme je le montre dans le chapitre suivant (cf. chapitre 13), de relaxer cette contrainte impos´ee par la formalisation logique, pour choisir la croyance avec le plus haut degr´e.