• Aucun résultat trouvé

Nous avons précédemment discuté de la collaboration dans un sens large et tournée vers une interaction humain-humain. Cette section présente les aspects que revêt une collabora-tion humain-machine. Cette perspective est motivée par le fait que le perfeccollabora-tionnement des machines les a fait passer en quelques années du statut d’objet passif inanimé exécutant des instructions ordonnées par un utilisateur au statut d’entités capables de prendre des initiatives et d’apporter une aide active à l’utilisateur [JMN+14]. La collaboration avec des machines présente l’avantage de mettre à la disposition de l’humain des capacités d’accès, de traitement et de stockage de l’information qui lui sont inaccessibles. L’interaction humain-machine ne se limiterait plus à la délégation de tâches rébarbatives ou fastidieuses à la machine et prendrait des formes plus complexes où celle-ci serait capable d’interpréter les actions de l’utilisateur et de prendre des initiatives pour l’aider à atteindre ses buts.

Le domaine de l’intelligence artificielle a fait apparaître dans les années 90 des entités logicielles appelées agent. Wooldridge définit un agent de la manière suivante :

Définition 1.3 – Agent : « Un agent est un système informatique situé dans un

envi-ronnement et capable d’agir de façon autonome dans cet environnement de manière à atteindre les buts pour lesquels il a été conçu »([Woo02], p.15).

En appliquant cette définition à une interaction humain-agent, l’environnement dans lequel est situé l’agent est l’environnement de travail de l’humain avec lequel il inter-agit. L’agent est doté d’une capacité de prise de décision et d’action autonome sur cet environnement, au même titre que l’humain.

Il existe différentes classes d’agents, selon leurs fonctions, architectures et langages. Nous ne traitons pas en détails ces différentes classes et nous contentons de présenter celles qui permettent d’envisager une collaboration humain-machine. Pour trouver une définition et une typologie complète du concept d’agent, le lecteur peut se tourner vers les travaux de Wooldridge et Jennings [WJ95] ou de Nwana [Nwa96].

La section 1.2.1 présente les agents autonomes, la section 1.2.2 présente les agents

présente les agents collaboratifs et la section 1.2.5 discute des problèmes que la collaboration humain-machine soulève.

1.2.1 Les agents autonomes

Un agent autonome est un agent capable de prendre des décisions en autonomie, dont le fonctionnement est inaccessible au monde extérieur et dont les actions n’ont pas vocation à être rendues visibles pour les autres membres de l’environnement partagé. L’autonomie d’un agent vient du fait qu’il n’est pas constamment en attente d’une action ou sollicitation de l’utilisateur [Cas95] et exécute des tâches indépendamment de celui-ci. Un agent autonome interagissant avec un humain ne nécessite pas une supervision permanente pour fonctionner. Cette propriété permet à un utilisateur de lui déléguer des activités pour focaliser son attention sur d’autres tâches.

Cependant, le recours à un agent autonome peut impliquer une diminution de la perception de l’environnement par l’utilisateur. En effet, un agent autonome n’a pas vocation à interagir avec un humain ou à rendre publique toutes les actions qu’il réalise. Les actions qu’un agent autonome réalise et le processus qui l’y a conduit restent opaques pour les autres agents évoluant dans le même environnement et pour l’utilisateur. Cela présente le risque pour l’humain de ne pas avoir connaissance des modifications faites par l’agent sur l’environnement partagé. La conscience qu’a l’utilisateur de la situation dans laquelle il se trouve peut être altérée par une manipulation de l’environnement de la part de l’agent.

1.2.2 Les agents d’interface

Un des premiers paradigmes d’interaction avec les machines était la manipulation

directede l’interface [Shn83]. Cette méthode nécessite des instructions ou des commandes directes de la part d’un utilisateur pour modifier des artefacts de l’interface du système. Elle permet à l’utilisateur de connaître toutes les actions réalisées sur l’interface et leurs répercussions sur les objets qu’il manipule. Cependant ce paradigme peut nécessiter un degré d’expertise important pour utiliser les fonctionnalités les plus avancées d’une application, et rester difficile d’accès pour des novices. De plus, la manipulation directe nécessite de la part de l’utilisateur de répéter la même action ou la même commande autant de fois qu’il souhaite l’appliquer, entraînant un travail rébarbatif, fastidieux et à faible valeur ajoutée.

Les agents d’interface sont une deuxième classe d’agents qui, comme l’utilisateur, réalisent des actions sur les représentations visuelles de l’interface graphique. À la différence d’une manipulation directe de l’interface par l’utilisateur, ces actions ne sont pas réalisées sur instruction directe de celui-ci. Toutes les actions d’un agent d’interface sont publiques et celui-ci agit en réaction d’une ou plusieurs actions réalisées par l’utilisateur.

1.2.3 Les agents autonomes d’interface

Lieberman présente un modèle d’agent réconciliant les agents autonomes et les agents d’interface, qu’il nomme agents autonomes d’interface [Lie97]. Ce sont des agents qui, tout en réalisant des actions en privé et en fonctionnant de manière asynchrone vis-à-vis de l’utilisateur, sont capables de manipuler directement des éléments de l’interface. Cette vision est à rapprocher de la définition d’agent d’interface donnée par Nwana [Nwa96] et de la métaphore d’assistant personnel numérique de Maes [Mae94].

Les agents autonomes d’interface donnent à l’utilisateur la possibilité de se détacher de la manipulation directe de l’interface. Il est en effet possible de leur déléguer des corvées nécessaires mais ennuyeuses et répétitives. Les agents autonomes d’interface ne s’intercalent pourtant pas entre l’utilisateur et l’application, mais agissent comme des collaborateurs que l’utilisateur peut contourner ou ignorer s’il le souhaite. L’utilisateur garde la main sur l’interface et peut la manipuler de manière directe, mais l’agent observe « par-dessus son épaule » et peut intervenir auprès de lui à n’importe quel moment.

Un exemple d’agent autonome d’interface est Letizia [Lie95, Lie97], qui interagit avec un utilisateur naviguant sur le web. Letizia collecte en temps réel les URL visitées par l’utilisateur pour tenter d’anticiper sur ce qui pourrait l’intéresser. Il explore et traite les pages liées à celles visitées par l’utilisateur pour lui proposer dynamiquement des options de navigation. L’intérêt est qu’il suggère activement des pages à visiter sans requête ou intervention de l’utilisateur, contrairement aux moteurs de recherche qui nécessitent d’être explicitement sollicités par celui-ci. La partie autonome de Letizia explore le web à la recherche de ressources pertinentes et la partie interface met à jour l’interface graphique pour les proposer à l’utilisateur.

Les agents autonomes d’interface sont capables d’apprendre et de s’adapter à l’utilisa-teur de différentes manières. La première est d’observer celui-ci en essayant de repérer les motifs qui se répètent dans son comportement. La deuxième est de modifier son comporte-ment en fonction des retours de l’utilisateur. La troisième est d’être explicitecomporte-ment entraîné par l’utilisateur, montrant à l’agent des exemples. Une dernière manière consiste à sollici-ter d’autres agents autonomes d’insollici-terface aidant d’autres utilisateurs [Mae94, LMM98]. Cela permet aux nouveaux agents de ne pas avoir à ré-apprendre des comportements qui auraient déjà été appris par d’autres agents.

Pour synthétiser les classes d’agents qui viennent d’être données en les rapprochant du modèle en « 5-C » de Taylor-Powell, un agent autonome ne présente aucune caractéristique lui permettant de réaliser une collaboration avec l’utilisateur. Plus précisément, un agent autonome n’étant pas doté de capacités de communications avec l’utilisateur, il lui est impossible d’échanger de l’information et du sens avec celui-ci et donc d’établir les proces-sus de contribution, coordination, coopération et de collaboration. Les agents d’interface sont quand à eux capables de mettre en place une communication avec l’utilisateur et respectent les conditions pour établir le premier niveau du modèle de collaboration de Taylor-Powell. En effet, les actions d’un agent d’interface sont publiques et toujours visibles par l’utilisateur et réciproquement, l’agent d’interface est capable de capter les actions réalisées par l’utilisateur. Les agents autonomes d’interface présentent quant à eux les caractéristiques nécessaires pour apporter une contribution à la tâche de l’utilisateur. Un

agent autonome est en effet capable de mettre à disposition de l’utilisateur des ressources l’aidant à atteindre ses objectifs. De plus, cette relation peut être étendue à une

coordina-tioncar l’utilisateur peut tirer parti de l’agent pour planifier la réalisation efficace de sa tâche en lui déléguant certaines sous-tâches et en se focalisant sur d’autres sous-tâches.

Les agents autonomes d’interface semblent être un modèle prometteur pour interagir avec un être humain. Cependant, comme nous venons de le montrer, ceux-ci n’ont pas la capacité de réaliser pleinement une collaboration avec un être humain et se limitent au mieux à une coordination avec celui-ci. Il est donc nécessaire dans un premier temps de doter un agent autonome d’interface de capacités de coopération.

1.2.4 Les agents collaboratifs

Pour être pleinement collaboratif, au sens de Taylor-Powell, un agent doit être capable de faire une utilisation constructive des différences entre l’utilisateur et lui. De ce fait, il est nécessaire pour l’agent de disposer d’une représentation de l’utilisateur ou du moins de ses processus décisionnels. Cette représentation permet à l’agent de devancer les besoins de l’utilisateur et de lui proposer des solutions calculées en faisant usage de ses propres ressources. Cette situation peut être particulièrement bénéfique pour l’utilisateur, étant donné que ses capacités d’accès et de traitement de l’information sont radicalement différentes de celles de l’agent. La collaboration humain-machine tire parti de cette complémentarité, en permettant à l’agent de proposer à l’utilisateur des options qui d’ordinaire lui sont hors de portée.

Cette approche par complémentarité est habituellement opposée à une approche par

émulation [Ter95]. Celle-ci vise à améliorer la collaboration entre les humains et les agents en donnant à ces derniers des capacités similaires à celles de humains. Néanmoins, l’approche par émulation n’a eu qu’un succès limité du fait de sa difficulté de mise en œuvre et celle par complémentarité s’est avérée plus tractable et viable [Fis01].

Terveen propose cependant une synthèse de ces deux approches, en montrant qu’elles ne s’opposent pas totalement. Une approche unifiée est proposée, recoupant les deux précédentes [Ter95]. Elle implique les caractéristiques suivantes :

Communication naturelle – comprendre les aspects fondamentaux de la communica-tion humaine et développer des équivalents pour la communicacommunica-tion humain-machine utilisant les propriétés spécifique de la machine ;

Équilibrage entre représentation, raisonnement et interaction – trouver un équi-libre approprié entre les raisonnements du système et les interactions avec l’utilisa-teur ;

Adaptation collaborative – rendre collaboratif le processus d’adaptation du système à un utilisateur, chacun jouant un rôle approprié ;

Réification – rendre les connaissances, la résolution du problème et la structure de l’interaction visibles, partagées et manipulables par le système et l’utilisateur. La réification est d’autant plus importante que l’environnement dans lequel sont situés l’humain et l’agent évolue au cours de la réalisation de la tâche collaborative.

Cet environnement constitue une partie du référentiel commun de Terveen présenté en section 1.1.2 comme l’un des points clé de la mise en œuvre d’une collaboration et partagé par les collaborateurs. Le référentiel commun est une référence nécessaire pour leur communication, l’établissement de buts partagés et la mise en œuvre des plans de résolution.

La bonne perception du référentiel commun permet à l’humain d’avoir une sensibilité

à la situation4. À l’échelle individuelle, Endsley [End95b, End95a] définit la sensibilité à la situation comme « une compréhension de l’état de l’environnement » et a montré qu’elle est constituée de trois niveaux :

La perception de l’environnement – c’est la reconnaissance d’éléments de l’environ-nement ainsi que leur statut, leurs attributs et leurs dynamiques ;

La compréhension de la situation actuelle – c’est une synthèse fondée sur des élé-ments disjoints du premier niveau pour créer une représentation holistique de l’envi-ronnement, en donnant un sens aux objets et aux événements ;

La projection dans des états futurs – c’est une anticipation sur les actions futures des éléments de l’environnement à l’aide des deux premiers niveaux.

Hoc [Hoc01] reproche à cette définition de considérer la situation comme un objet purement extérieur aux participants. Il propose d’y intégrer les participants eux-mêmes, ainsi que leurs plans, leurs ressources et les risques qu’ils encourent. Cette vision de la sensibilité à la situation offre la possibilité de représenter les buts et intentions des participants, ainsi que leurs charge mentale et leur charge de travail et le contrôle qu’ils ont sur la situation.

En synthèse, un agent collaboratif est un agent autonome d’interface observant les actions de l’utilisateur et capable de prendre l’initiative d’une interaction avec celui-ci afin de lui proposer des actions lui permettant de poursuivre ses buts, tout en lui laissant la capacité de prendre des initiatives par lui-même. Cet équilibre entre capacités réactives et directives est appelé initiative mixte [Hor99, Hor07]. Horvitz définit l’initiative mixte de la manière suivante :

Définition 1.4 – Initiative mixte : « L’initiative mixte est globalement une méthode permettant un entrelacement efficient et naturel des contributions faites par les utilisateurs contribuant à se rapprocher d’une solution à un problème. » ([Hor99] p.1)

Un agent collaboratif doit donc être capable d’initiative mixte en tenant compte de la situation de l’utilisateur pour intervenir et proposer des actions pertinentes en fonction de la tâche à réaliser, des ressources, états mentaux, processus cognitifs, et risques de l’utilisateur. Un agent collaboratif doit de plus être doté d’une capacité de communication pour capter et interpréter les actions de l’utilisateur, et pour les contextualiser dans la tâche à réaliser.

La figure 1.2 fait le lien entre les différentes classes d’agents et le modèle de la collabo-ration en « 5-C » de Taylor-Powell.

Il est important de noter que notre définition des « agents collaboratifs » diffère de celle de Nwana [Nwa96]. En effet, pour Nwana un agent collaboratif doit être capable de coopérer avec d’autres agents pour réaliser ses buts. Cette définition est à relier au concept d’intelligence artificielle distribuée et de collaboration agent-agent plutôt qu’à la collaboration humain-machine.

Figure1.2 – Mise en correspondance de chaque classe d’agent avec les différents niveaux d’engage-ment du modèle « 5-C ».

1.2.5 Problèmes soulevés par la collaboration humain-machine

Si les diverses applications de la collaboration humain-machine semblent prometteuses, il est nécessaire de pointer les interrogations qui s’en suivent et d’émettre des réserves sur certains aspects. En effet, traiter des machines comme des collaborateurs à qui il est possible de déléguer des responsabilités soulève certaines questions dans différents domaines.

Acceptation sociale des machines

Les machines dotées d’intelligence artificielle peuvent être considérées comme des dangers ou des menaces par certaines personnes. En effet, il est possible de les percevoir comme des concurrents mis en compétition avec des être humains plutôt que comme des partenaires [Eps15]. C’est ce que Parasuraman et Riley [PR97] mettent en avant comme

des « applications inappropriées » qui peuvent être faites de l’automatisation de certaines tâches, où elle est appliquée sans tenir compte des conséquences qu’elle peut avoir sur les humains impliqués dans leur réalisation. Dans ces situations, les opérateurs humains sont relégués au second plan face à l’agent, dévaluant de ce fait leur rôle dans la complétion de la tâche.

Gestion des interruptions de l’utilisateur

Un problème délicat est la gestion des interruptions de l’utilisateur par un agent collaboratif. En effet, des interruptions trop fréquentes risquent d’entraver le travail de l’utilisateur, de le ralentir et d’altérer sa sensibilité à la situation. De plus, ces perturbations risquent d’intervenir au moment où il est focalisé sur un point particulier de la tâche et pendant lequel il ne souhaite pas être distrait. Endsley indique que les facteurs limitants de la sensibilité à la situation sont l’attention et la mémoire de travail [End95b]. Si cela peut sembler marginal dans de nombreuses applications, la bonne gestion des interruptions de l’utilisateur est critique dans des environnements où il est nécessaire de superviser en temps réel de nombreuses informations. C’est par exemple le cas d’un poste de pilotage d’avion de ligne, où le pilote doit gérer de nombreux facteurs dans un environnement dynamique, avec des sollicitations issues à la fois de systèmes embarqués, de l’équipage et des communication avec le trafic aérien [ML02]. L’interruption d’un pilote lors de tâches critiques a été identifié comme la cause principale d’accidents aériens [ATP95].

Les agents collaboratifs doivent donc être capables de gérer le moment auquel ils sollicitent un utilisateur, plutôt que de le faire dès que possible. Cela pose un nouveau problème de recherche : la prise de décision par un agent de communiquer avec un utilisateur. Cette décision doit tenir compte du coût de la communication et surtout de l’effet qu’elle pourrait avoir sur la tâche réalisée par l’utilisateur [UYS17].

Perte d’expertise et de contrôle

Maes [Mae94] avance que les agents collaboratifs sont perçus comme compétents au sens où ils sont de plus en plus utiles et concentrent de la connaissance. L’utilisateur a donc plus tendance à lui faire confiance, à mesure qu’il est capable de se représenter les compétences et limitations de l’agent. Si les humains peuvent se libérer de certaines tâches et de la charge mentale qui y est associée en les déléguant à des agents, cela n’est pas sans conséquence sur l’humain lui-même. En effet, il est possible que cela entraîne une perte d’expertise ou de confiance en soi de la part de l’humain. De plus, cette délégation peut s’accompagner d’un laisser-aller et d’une trop grande confiance en la machine [PR97].

Un risque supplémentaire est la perte d’adaptivité de l’humain dans l’environnement partagé avec les machines. La délégation d’une tâche à un agent s’accompagne en effet d’une diminution de la sensibilité à la situation par l’utilisateur [End17]. Celui-ci est alors « hors de la boucle de décision » et a moins d’informations à sa disposition pour anticiper et s’adapter à une évolution inattendue de l’environnement [Hoc01]. La trop forte confiance accordée au pilote automatique dans des conditions difficiles où le pilote avait peu confiance en ses aptitudes, ainsi qu’une mauvaise compréhension par l’équipage

des informations venant des systèmes automatiques embarqués sont aussi à l’origine d’accidents aériens [PR97].

Il devient ainsi souhaitable de pouvoir demander à un agent ce qui motive ses compor-tements et la représentation qu’il a de la situation. Une étude empirique par Stubbs et al. [SHW07] a montré que, à mesure qu’un système prend des décisions dans une tâche, la décharge cognitive apportée peut être contrebalancée par un accroissement de la confusion des utilisateurs qui cherchent à comprendre comment le système à pris ses décisions.

Le fait, pour un agent, d’être capable d’expliquer et de justifier ses décisions et ses actions est ce qui s’appelle l’organisation explicable5, d’abord énoncé par Swartout et Moore [SM93] et récemment modernisé par Langley et al. [LMMC17]. Elle exige de la part d’un agent de :

— produire un registre des décisions prises lors de l’élaboration et l’exécution des plans pour atteindre ses buts. Ce registre doit inclure les alternatives envisagées, ce qui en était attendu, et les raisons de leurs rejets ;

— produire une synthèse, à différents niveaux d’abstraction et en des termes accessibles par un humain, de ses activités mentales et physiques ;

— expliquer comment le déroulement des événements a divergé du plan initial, quelles ont été les adaptations en réaction, et faire un examen rétrospectif de ces décisions par rapport aux autre possibilités ;

— communiquer ses décisions de manière compréhensible par un humain.