• Aucun résultat trouvé

Contrôle du partage de l'autorité dans un système d'agents hétérogènes

N/A
N/A
Protected

Academic year: 2021

Partager "Contrôle du partage de l'autorité dans un système d'agents hétérogènes"

Copied!
172
0
0

Texte intégral

(1)

HAL Id: tel-00666618

https://tel.archives-ouvertes.fr/tel-00666618

Submitted on 6 Feb 2012

HAL is a multi-disciplinary open access

archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Contrôle du partage de l’autorité dans un système

d’agents hétérogènes

Stéphane Mercier

To cite this version:

Stéphane Mercier. Contrôle du partage de l’autorité dans un système d’agents hétérogènes. Robotique [cs.RO]. Ecole nationale superieure de l’aeronautique et de l’espace, 2011. Français. �tel-00666618�

(2)

THÈSE

présentée en vue de l'obtention du titre de

DOCTEUR DE L'UNIVERSITE DE TOULOUSE

délivré par

l'Institut Supérieur de l'Aéronautique et de l'Espace

ÉCOLE DOCTORALE : Systèmes

SPÉCIALITÉS : Systèmes Embarqués et Robotique

par

Stéphane Mercier

Contrôle du partage de l'autorité

dans un système d'agents hétérogènes

Directeurs de thèse :

Frédéric DEHAIS, enseignant-chercheur, ISAE, Toulouse Catherine TESSIER, maître de recherche, ONERA, Toulouse

Thèse préparée au sein de l'ONERA

Département Commande des Systèmes et Dynamique du vol Unité de Recherche Conduite et Décision (ONERA-DCSD/CD)

(3)
(4)

TABLE DES MATIÈRES i

Table des matières

Table des gures ix

1 Position du problème 1

1 Contexte . . . 1

1.1 Problématique . . . 2

1.2 Agents et système d'agents . . . 4

1.2.1 Agents . . . 4

1.2.2 Coopération multiagent . . . 5

1.2.3 Système opérateur humain - robot . . . 6

2 Coopération homme-machine et place de l'opérateur humain . . . 7

2.1 Pourquoi faire travailler ensemble homme et machine ? . . . 8

2.1.1 Couplage des aptitudes . . . 8

2.1.2 Comparatif des contributions de l'automatisation et de l'opérateur étudiés indépendamment . . . 8

2.2 Problématiques liées à l'automatisation . . . 9

2.2.1 Impact de l'automatisation sur la cognition de l'opérateur 10 2.2.2 Compréhension de l'automatisme et conscience de situa-tion de l'opérateur . . . 11

2.2.3 Conance et surconance en l'automatisme . . . 12

2.3 Place de l'opérateur humain . . . 13

2.3.1 Rôle(s) pris en charge par l'opérateur humain dans le système 13 2.3.2 Place du robot depuis la perspective de l'opérateur . . . . 16

3 Apports de la thèse et contributions . . . 17

3.1 Contrôle de l'autonomie d'un robot sans utilisation de niveaux d'au-tonomie . . . 17

3.2 Macro- et micro-modèle de l'autorité . . . 17

3.3 Mise en ÷uvre du contrôleur de la dynamique de l'autorité . . . 18

(5)

ii TABLE DES MATIÈRES

2 Autonomie relative entre agents 21

1 Autonomie et contrôle de l'autonomie . . . 21

1.1 Considérations générales sur l'autonomie des agents . . . 22

1.2 L'autonomie dans un système homme-robot . . . 22

1.3 Contrôler l'autonomie de l'agent articiel . . . 24

1.3.1 L'objet de l'autonomie . . . 24

1.3.2 Le mode d'initiative . . . 25

1.4 Quelle perception de l'opérateur humain le robot a-t-il ? . . . 27

2 Les critères pour le changement d'autonomie . . . 28

2.1 Diérentes métriques . . . 28

2.2 Le conit : une alternative à l'étude de l'erreur humaine . . . 28

3 De l'autonomie à l'autorité . . . 30

3 Modèle de l'autorité 31 1 Principe de l'approche . . . 31

1.1 Contexte . . . 31

1.1.1 Modèle du plan d'exécution . . . 32

1.1.2 Agents . . . 33

1.1.3 Relation d'autorité . . . 33

1.2 Du plan au graphe de ressources . . . 34

1.2.1 Préconditions, tâches et eets . . . 34

1.2.2 Contraintes . . . 37 1.3 Exemple . . . 37 2 Macro-modèle d'autorité . . . 38 2.1 Macro-modèle . . . 38 2.2 Graphe de ressources . . . 39 2.2.1 Dénition . . . 39 2.2.2 Ressource . . . 40 2.2.2.a Dénition . . . 40 2.2.2.b Exemple . . . 41 2.2.3 Interface . . . 41 2.2.3.a Dénition . . . 41 2.2.3.b Types de dépendance . . . 41 2.2.3.c Aectation . . . 43 2.2.3.d Exemple . . . 43 2.3 Agents et assignation . . . 44 2.3.1 Dénitions . . . 44 2.3.2 Exemple . . . 45 2.4 Autorité . . . 47 2.4.1 Droits d'accès . . . 47 2.4.2 Autorité . . . 48

(6)

TABLE DES MATIÈRES iii

2.4.4 Exemple . . . 50

3 Micro-modèle d'autorité . . . 50

3.1 Notations . . . 51

3.2 Ressource . . . 51

3.2.1 Dénition : réseau de Petri de ressource . . . 51

3.2.2 Les propriétés de la ressource . . . 51

3.2.3 Les états de la ressource . . . 52

3.3 Interface . . . 53

3.3.1 Dénition : réseau de Petri d'interface . . . 53

3.3.2 Les états de l'interface . . . 53

3.3.3 Les propriétés de l'interface . . . 54

3.3.4 Exemple . . . 54

3.3.5 Interfaces et fonction d'assignation 𝜙 . . . 55

3.4 Autorité sur une ressource . . . 56

3.4.1 Dénition : réseau de Petri de relation d'autorité . . . 56

3.4.2 Exemple . . . 57

4 Conits et résolution : contrôleur de la dynamique de l'autorité 59 1 Conits sur les ressources . . . 59

1.1 Dénition . . . 59

1.2 Exemple de conit de destruction . . . 61

1.3 Exemple de conit de préemption . . . 62

1.4 Dénitions et notations . . . 64

2 Résolution de conits d'autorité . . . 68

2.1 Principe de la détection et de la résolution de conit . . . 68

2.2 Procédure de résolution de conit sans changement d'autorité . . . 70

2.2.1 Résolution du conit de destruction . . . 70

2.2.2 Résolution du conit de préemption . . . 78

2.3 Dynamique du partage de l'autorité . . . 89

2.3.1 Principe . . . 89

2.3.2 Exemple . . . 90

2.4 Résolution alternative : perte de buts . . . 93

5 Mise en ÷uvre 95 1 Architecture fonctionnelle . . . 95

1.1 Vue d'ensemble . . . 96

1.2 Contrôleur de la dynamique de l'autorité . . . 96

1.3 Planicateur . . . 97

1.4 Suivi de situation . . . 98

1.5 Fonction exécutive du robot . . . 99

(7)

iv TABLE DES MATIÈRES

2 Réalisation de l'architecture et du macro-modèle par les composants du

micro-modèle . . . 101

2.1 Interconnexions des fonctions de l'architecture avec le micro-modèle 102 2.1.1 Interconnexions avec le suivi de situation et la fonction exécutive . . . 102

2.1.2 Interconnexions avec la planication . . . 103

2.2 Aectation d'une ressource . . . 105

2.3 Évolution conjointe des réseaux de ressource et d'interface . . . 108

2.3.1 Connexion d'une ressource à une interface . . . 108

2.3.2 Connexion d'une interface à une ressource . . . 109

3 Mise en ÷uvre informatique . . . 110

3.1 Fusion d'ensembles de transitions . . . 110

3.1.1 Problématique . . . 110

3.1.2 Solution adoptée . . . 112

3.2 Algorithme du joueur de Petri . . . 114

6 Application 119 1 Scénario . . . 119

2 Le logiciel MNMS . . . 120

2.1 Édition et jeu des modèles . . . 120

2.2 Simulation des fonctions décisionnelles . . . 121

3 Déroulement de la mission . . . 124

3.1 Phase nominale . . . 124

3.2 Défaillance de la batterie . . . 130

3.2.1 Résolution sans changement d'autorité . . . 131

3.2.2 Résolution avec changement d'autorité . . . 132

4 Discussion . . . 133

4.1 Règle de méta-autorité alternative . . . 133

4.1.1 Intervention de l'opérateur . . . 134

4.1.2 Persévération de l'opérateur . . . 136

4.2 Connexion au robot Emaxx et discussion technique . . . 137

7 Conclusion et perspectives 139 1 Bilan . . . 139

1.1 Autonomie variable sans  niveaux d'autonomie  . . . 139

1.2 Modèle de l'autorité . . . 139

1.3 Mise en ÷uvre du contrôleur de la dynamique de l'autorité . . . 140

2 Discussion et perspectives . . . 140

2.1 Évaluation et métriques . . . 140

2.2 Liens avec l'interface opérateur . . . 141

2.3 Extension à des systèmes multiagents . . . 141

(8)

TABLE DES MATIÈRES v

2.5 Méta-autorité . . . 142

2.6 Éthique et autorité . . . 143

A Réseaux de Petri synchronisés 145 1 Réseaux de Petri . . . 145

2 Synchronisation des réseaux de Petri . . . 146

2.1 Passage d'événements et réseaux de Petri synchronisés . . . 146

2.2 Fusion de transitions . . . 147

(9)
(10)

TABLE DES FIGURES vii

Table des gures

1.1 Contrôle mixte entre agent décisionnel et agent humain sur une entité

phy-sique . . . 2

1.2 Les étapes séquentielles pour un système en supervision [Parasuraman et al., 2000] . . . 11

1.3 Asservissement et consignes de l'opérateur . . . 13

1.4 Planication et objectifs dénis par l'opérateur . . . 14

1.5 Initiative mixte sur la planication . . . 15

1.6 Comment combiner les actions du robot et de l'opérateur ? . . . 15

1.7 Prise en compte des états de l'opérateur . . . 16

2.1 Évaluation de l'autonomie suivant la méthodologie Alfus [Huang et al., 2005] 23 3.1 Opérations du planicateur pour créer un plan . . . 35

3.2 Graphe de ressources obtenu à partir du plan . . . 36

3.3 Graphe de ressources pour le plan de but WP-Goal . . . 38

3.4 Congurations interdites dans le graphe de ressources . . . 39

3.5 Propriétés d'une ressource. . . 40

3.6 Interface 𝑖𝑟𝑖𝑟𝑗 reliant une ressource requise 𝑟𝑖 et une ressource dépendante 𝑟𝑗. 41 3.7 Dépendances entre 𝑟𝑖 et 𝑟𝑗 . . . 42

3.8 Graphe de ressources initial . . . 43

3.9 Assignations par l'agent 𝑐 . . . 45

3.10 Graphe de ressources entre ressource physique et tâche . . . 45

3.11 Graphe de ressources créé par opérateur . . . 46

3.12 Graphe de ressources correspondant à une délégation au robot . . . 46

3.13 Graphe de ressources correspondant à une délégation à l'opérateur . . . 47

3.14 Dynamique de la relation d'autorité 𝑎<𝑐𝑥,𝑐𝑦>(𝑟) entre les agents 𝑐𝑥 et 𝑐𝑦 sur la ressource 𝑟. . . 49

3.15 Exemple de graphe de ressources incluant les relations d'autorité . . . 50

(11)

viii TABLE DES FIGURES

3.17 Réseau générique d'interface (ici interface dépendante en initialisation) . . 53

3.18 Graphe de ressources initial . . . 54

3.19 Graphe de ressources nominal . . . 55

3.20 Relation d'autorité entre les agents 𝑐𝑥 et 𝑐𝑦 sur la ressource 𝑟 : 𝑎<𝑐𝑥,𝑐𝑦>(𝑟). 56 4.1 Conit de destruction sur 𝑟 . . . 61

4.2 Conit de préemption sur 𝑟 . . . 61

4.3 Propagation de la défaillance de 𝑟𝐸𝑛𝑒𝑟𝑔𝑦 dans le graphe de ressources . . . . 62

4.4 Graphe de ressources initial avec insertion du graphe induit par l'action de l'opérateur . . . 63

4.5 Graphe de ressources avec conit de préemption . . . 64

4.6 Graphe de ressources comprenant la ressource 𝑅0 . . . 66

4.7 Graphes obtenus : 𝑑− 𝐺(𝑅0), 𝑑 + 𝐺(𝑅0), 𝐷 − 𝐺(𝑅0), 𝐷 + 𝐺(𝑅0). . . 67

4.8 Graphe de ressources aecté par le conit 𝐺𝑐𝑜𝑛𝑓 𝑙𝑖𝑐𝑡 . . . 70

4.9 Identication de 𝑠𝑢𝑏𝑔𝑜𝑎𝑙(𝑟𝑔). . . 73

4.10 Identication de 𝑠𝑢𝑏𝑔𝑜𝑎𝑙(𝑟𝑔)en relâchant la contrainte de respecter au plus près les assignations de l'opérateur. . . 74

4.11 Graphe de ressources solution 𝐺𝑠𝑜𝑙𝑣𝑖𝑛𝑔 pour le sous-but 𝑟𝑁 𝑎𝑣𝑖𝑔𝑎𝑡𝑖𝑜𝑛𝑅𝑜𝑏𝑜𝑡. . . . 75

4.12 Graphe de ressources 𝐺′ solution au conit de destruction. . . 77

4.13 Ensemble des sous-graphes utilisés pour la résolution de conit. . . 77

4.14 Graphe de ressources avec conit de préemption . . . 78

4.15 Graphe de ressources 𝐺𝑐𝑜𝑛𝑓 𝑙𝑖𝑐𝑡 aecté par le conit . . . 79

4.16 Graphe de ressources 𝐷− 𝐺𝑐𝑜𝑛𝑓 𝑙𝑖𝑐𝑡(𝑟𝑊 𝑃 −𝐺𝑜𝑎𝑙). . . 81 4.17 Graphe de ressources 𝐷− 𝐺𝑐𝑜𝑛𝑓 𝑙𝑖𝑐𝑡(𝑟𝑊 𝑃 −𝑂𝑝𝑒𝑟𝑎𝑡𝑜𝑟). . . 82 4.18 Graphe de ressources 𝐷− 𝐺(𝑟𝑊 𝑃 −𝐺𝑜𝑎𝑙). . . 83

4.19 Graphe de ressources solution 𝐺𝑠𝑜𝑙𝑣𝑖𝑛𝑔 pour le conit de préemption. . . 87

4.20 Graphe de ressources solution 𝐺𝑠𝑜𝑙𝑣𝑖𝑛𝑔 pour le conit de préemption. . . 89

4.21 Graphe de ressources après destruction de 𝑟𝑆𝑎𝑓 𝑒𝑡𝑦𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑒 par l'opérateur humain . . . 91

4.22 Graphe de ressources après prise d'autorité par l'agent robotique . . . 91

5.1 Schéma du contrôleur de la dynamique de l'autorité . . . 97

5.2 Place du planicateur dans l'architecture . . . 98

5.3 Place du suivi de situation dans l'architecture . . . 98

5.4 Place de la commande et des actuateurs dans l'architecture . . . 99

5.5 Exemple d'une tâche de navigation pour la fonction exécutive . . . 100

5.6 Interface opérateur et contrôleur de la dynamique de l'autorité . . . 100

5.7 Graphe de ressources correspondant au modèle de tâche associé à la prise du joystick par l'opérateur . . . 101

5.8 Connexions d'une ressource avec les fonctions externes . . . 102

5.9 Connexions d'une interface avec le planicateur . . . 104

(12)

TABLE DES FIGURES ix

5.11 Fonctionnement de l'aectation entre une ressource, une interface, une

re-lation d'autorité . . . 107

5.12 Lien entre le réseau de ressource requis 𝑟 et l'interface assignante 𝐼𝑛𝑡 . . . 109

5.13 Lien entre le réseau d'interface requise 𝐼𝑛𝑡 et la ressource dépendante 𝑟′ . . 110

5.14 Ensemble des transitions à fusionner pour réaliser l'aectation entre une ressource, une interface, une relation d'autorité. . . 111

5.15 Ensemble des transitions à fusionner pour réaliser l'aectation avec plu-sieurs ressources requises, leur interface et relation d'autorité. . . 112

5.16 Ensemble des transitions à fusionner pour réaliser l'aectation avec plu-sieurs ressources requises, leur interface et relation d'autorité. . . 113

6.1 Interface MNMS à l'initialisation du scénario de l'application . . . 121

6.2 Interface de la fonction suivi de situation . . . 122

6.3 Interface de la fonction interface utilisateur . . . 122

6.4 Interface de la fonction planicateur . . . 123

6.5 Interface de la fonction exécutive . . . 123

6.6 Modèle à l'initialisation de la mission . . . 124

6.7 Relations d'autorité du modèle en début de mission . . . 125

6.8 Modèle initial mis à jour par le suivi de situation . . . 127

6.9 Production de la ressource Navigation Robot 1 . . . 127

6.10 Aectation à la ressource WP1 . . . 128

6.11 Aectation de la ressource Nav Robot 2 à la ressource WP2 . . . 129

6.12 Identication de cibles par l'opérateur . . . 129

6.13 Conit de destruction suite à la panne batterie . . . 130

6.14 Modèle restauré après panne batterie . . . 132

6.15 Modèle alternatif restauré après panne batterie . . . 133

6.16 Reprise en main par l'opérateur du contrôle du véhicule . . . 135

6.17 Résolution du conit de préemption opérateur . . . 135

6.18 Persévération opérateur . . . 136

6.19 Envoi de contre-mesure . . . 137

A.1 Principe du franchissement d'une transition dans un RdP synchronisé . . . 146

A.2 Franchissement de transition dans un RdP synchronisé coloré . . . 147

(13)
(14)

LISTE DES ALGORITHMES xi

Liste des Algorithmes

1 Algorithme du joueur de Petri du logiciel MNMS . . . 116

2 Algorithme de la fonction 𝑜𝑏𝑡𝑒𝑛𝑖𝑟𝐶𝑜𝑢𝑙𝑒𝑢𝑟𝑠𝐼𝑛𝑡𝑒𝑟 . . . 117

(15)
(16)

1

Chapitre

1

Position du problème

Perhaps the major human factors concern of pilots in regard to introduction of automation in the cockpit is that, in some circumstances, operations with such aids may leave the critical question, Who is in control ? unanswered.

Sheldon Baron

1 Contexte

Nous nous intéressons à la conception d'un agent décisionnel, dans un contexte de réalisation de mission impliquant une entité physique (de type véhicule robotisé, drone, avion), où la conduite de mission est eectuée à la fois par un humain (opérateur, pilote) et par un agent décisionnel ou un pilote automatique. L'agent décisionnel est embarqué sur l'entité physique ; l'agent humain peut, suivant la mission, être embarqué (pilote d'avion), ou à distance (opérateur de drone), auquel cas ses opérations dépendent du maintien d'un lien de communication. L'existence de ce lien de communication et de sa possible défaillance requiert, de la part de l'agent décisionnel, la capacité de conduire momentanément la mission seul en exhibant une certaine  autonomie .

Notre problématique générale est ainsi celle du contrôle mixte dans un système homme-machine. L'agent humain joue un rôle actif tout au long de la mission : il ne se limite pas à xer les objectifs de mission, il peut réaliser lui-même des tâches et possède des savoir-faire dont ne dispose pas l'agent décisionnel. L'agent décisionnel, ou robot, doit assister l'humain dans ses fonctions, la notion d'assistance pouvant prendre des signications très variées, allant de l'exécution de tâches en délégation à la surveillance et prévention des erreurs. Ainsi, non seulement les agents humains et décisionnels contrôlent conjointement un même système physique, mais ils peuvent également interagir entre eux, comme l'illustre la gure 1.1.

(17)

2 CHAPITRE 1. POSITION DU PROBLÈME

Figure 1.1: Contrôle mixte entre agent décisionnel et agent humain sur une entité physique

1.1 Problématique

Au cours de la mission, chacun des agents se voit attribuer ou prend l'autorité pour utiliser une ressource, réaliser une tâche, satisfaire un but : par exemple, un pilote automa-tique d'avion en mode Vertical Speed a l'autorité sur la chaîne de commande des gouvernes pour atteindre une altitude de consigne tout en garantissant certaines performances ; si l'équipage déconnecte le pilote automatique, c'est l'équipage qui a l'autorité sur la chaîne de commande pour atteindre ce but. Un changement dans l'aectation de l'autorité peut être prévu dans les procédures, le plan de mission ; ou bien il peut se produire de manière imprévue :

 l'agent humain reprend en main une tâche contrôlée par l'agent décisionnel parce qu'il constate une défaillance, un obstacle, un danger imminent, ou pour toute autre raison qui lui est propre et qui n'est pas forcément exprimée ;

 l'agent décisionnel reprend en main une tâche contrôlée par l'opérateur parce que l'action de l'opérateur viole certaines contraintes (sortie de domaine de vol, collision probable avec un obstacle, etc.) ou parce que les communications avec l'opérateur sont rompues ;

 plus aucun agent n'exerce l'autorité : par exemple, le pilote automatique s'est dé-connecté et l'équipage, qui n'en est pas conscient, ne pilote pas [Mumaw et al., 2001].

Le problème posé par ces changements imprévus dans l'aectation de l'autorité est le risque d'instabilité ou d'incohérence dans l'état du système, dû au fait que le plan prévu pour l'agent décisionnel n'est plus suivi, que l'opérateur a une conscience de situation erronée [Wickens, 2008], voire les deux. Ceci est illustré par l'expérience suivante, réalisée à l'ISAE Supaéro [Mercier et al., 2010c], sur une mission de recherche et d'identication de cibles par un robot terrestre et un agent humain qui n'est pas en vue directe du

(18)

1. CONTEXTE 3

robot. Au cours de la mission, l'opérateur doit, via son écran d'interface, piloter le robot manuellement et nement an d'identier des cibles. Alors que l'opérateur prend en main le robot pour cette inspection, celui-ci entame une procédure autonome de retour à la base, déclenchée par le capteur de décharge de la batterie (aléa simulé par une interface de

magicien d'Oz1). Cet événement est perceptible pour l'opérateur sur son interface via trois

alertes : l'icône représentant la batterie passe de vert à orange, le mode de pilotage clignote deux fois de  manuel  à  supervisé  et le synoptique ache en vert  retour base . Toutefois, comme cet aléa se produit à un moment crucial de la mission où l'opérateur est particulièrement focalisé sur sa tâche d'identication en mode manuel, il est attendu qu'il ne perçoive pas ces changements d'état et que chacun des agents (opérateur et robot)  s'entête  à poursuivre son but (identier la cible et retourner à la base, respectivement).

Sujet Durée conit (en s.) Résolution Alertes regardées

Dasje 6 oui supervisé, retour base, batterie

Dera 50 non supervisé

Dupni 50 non supervisé, retour base

Gatthi 50 non supervisé, retour base

Guiju 50 non

-Guiny 50 non batterie

Hosal 18 oui retour base, batterie

Jacchi 50 non supervisé

Nival 10 oui supervisé, batterie

Peich 29 non retour base

Penju 50 non supervisé

Pense 35 oui supervisé, batterie

Rojan 50 non

-Schpa 50 non

-Table 1.1: Comportement des participants pendant le conit d'autorité

Le tableau 1.1 résume les résultats d'oculométrie de quatorze participants à

l'expé-rience2 analysés à l'aide du logiciel Eye tech Lab. La première colonne est l'identiant

du participant, la deuxième indique la durée du conit, la troisième si la raison du conit a été comprise par l'opérateur et la quatrième si les trois alertes nécessaires à la compréhension du conit ont été regardées au moins une fois. Par exemple, le participant Dasje a mis 6 secondes pour détecter et comprendre le conit, il a porté au moins une fois son regard sur le mode supervisé, sur le synoptique indiquant le retour base et sur

1. Interface permettant de déclencher des événements à l'insu de l'opérateur.

2. Les sujets sont équipés d'un oculomètre de type Pertech (25Hz) an d'analyser leur comportement oculaire (où se pose leur regard).

(19)

4 CHAPITRE 1. POSITION DU PROBLÈME

l'état de la batterie. Le participant Dupni n'a pas compris le conit après 50 secondes, bien que son regard se soit posé sur l'état du mode  supervisé  et sur  retour base , en revanche il n'a jamais posé son regard sur l'état de la batterie. Les résultats de cette expérimentation conrment que le conit d'autorité a mis en avant la mauvaise conscience de situation des opérateurs, puisque le conit a conduit 10 sujets sur 14 à persévérer à tort dans la tâche d'identication de la cible. L'analyse du comportement oculaire des 4 participants qui ont interprété correctement la situation révèle que ceux-ci ont au moins regardé les couples d'information ( état de la batterie , mode  supervisé ) ou ( état de la batterie ,  retour base ) si ce n'est le triplet d'information ( état de la batterie , mode  supervisé ,  retour base ). Enn, il convient de noter que le robot a également continué son plan de retour à la base sans prendre en compte le conit avec l'opérateur.

Comme le montre cette expérience préliminaire, le contrôle mixte agent humain - agent décisionnel peut devenir incohérent et amener le système contrôlé dans un état instable, voire dangereux. En raison de l'hétéogénéité des agents, le contrôle mixte revêt certaines caractéristiques que nous allons étudier dans ce chapitre.

1.2 Agents et système d'agents

1.2.1 Agents

Un agent est une entité physique ou informatique, plongée dans un environnement, pouvant percevoir tout ou partie de cet environnement grâce à des capteurs fournissant des entrées, et le modier grâce à des eecteurs délivrant des sorties. "La notion d'agent est destinée à être un outil pour l'analyse des systèmes et non une caractérisation absolue qui divise le monde entre agents et non-agents" [Russell et Intelligence, 1995]. En ce qui concerne la notion d'agent autonome, [Franklin et Graesser, 1997] propose la dénition suivante :  Un agent autonome est un système au sein d'un environnement, partie intégrante de celui-ci, qui perçoit cet environnement et agit sur lui au cours du temps, en suivant son propre agenda, an d'agir sur ce qu'il perçoit dans le futur . L'aspect de la temporalité (continuité de la tâche) est ici primordial. [Ferber et Perrot, 1995] propose également cette dénition :  Une entité réelle ou virtuelle, évoluant dans un environnement, capable de le percevoir et d'agir dessus, qui peut communiquer avec d'autres agents, qui exhibe un comportement autonome, lequel peut être vu comme la conséquence de ses connaissances, de ses interactions avec d'autres agents et des buts qu'il poursuit . Ici s'ajoutent également la dimension sociale de l'agent et ses capacités d'interaction.

Au regard des dénitions mentionnées précédemment, nous retiendrons la dénition suivante :

(20)

1. CONTEXTE 5

Denition 1 (Agent)

Un agent est une entité physique ou informatique, plongée dans un environnement et partie intégrante de celui-ci, qui perçoit (partiellement) cet environnement et agit sur lui au cours du temps, qui peut interagir avec d'autres agents, et dont le comportement est

dicté par la poursuite d'un ou plusieurs buts. 2

Plus précisément, nous nous intéressons à deux types d'agents : l'agent décisionnel, que nous nommerons désormais robot et l'agent humain, que nous nommerons opérateur humain, qui contrôlent conjointement une ou plusieurs entités physiques devant réaliser une mission.

Denition 2 (Opérateur humain)

L'opérateur humain perçoit des informations, les interprète, prend des décisions, agit sur le robot et interagit avec lui.

Denition 3 (Robot)

Le robot constitue la partie machine du système homme-machine. Il perçoit des infor-mations (par ses capteurs), les interprète (via un estimateur d'état ou suivi de situation, calcule des décisions (via un planicateur), agit dans l'environnement et interagit avec

l'opérateur humain. 2

1.2.2 Coopération multiagent

La coopération peut avoir lieu lorsqu'au moins deux agents interviennent, que ce soient deux opérateurs humains, deux robots ou un robot et un opérateur humain. Des mécanismes tels que la décomposition et l'allocation de tâches, la coordination, la négotiation, l'initiative, la gestion de conit sont des ranements de modèles de coopération qui sont utilisés en fonction des applications [Brezillon et Pomerol, 1997].

Il est possible de distinguer coordination de coopération dans le sens où il peut y avoir coordination sans coopération, la réciproque n'étant pas vraie : la coopération nécessite la coordination [Nwana, 1996]. Selon [Legras et Tessier, 2003], la coopération se présente comme l'association de la collaboration, cas dans lequel plusieurs agents interagissent pour atteindre des buts communs, avec la coordination, cas où des agents doivent inter-agir en vue de se partager une ressource commune, que leurs buts soient communs ou non.

[Bonnet et Tessier, 2007] distingue quatre types de coopération :  la coopération pour éviter les conits ;

 la coopération pour proter de l'action d'un agent extérieur ;

 la coopération pour supprimer les redondances entre diérents agents ;  la coopération pour mener conjointement une action.

(21)

6 CHAPITRE 1. POSITION DU PROBLÈME

En regard des dénitions précédentes, nous utiliserons la dénition suivante : Denition 4 (Coopération)

La coopération se dénit comme l'interaction de plusieurs agents an d'utiliser de manière ecace des ressources communes, nécessaires et limitées, pour la poursuite de buts com-muns ; ces agents doivent coordonner leurs actions dans un souci d'ecacité et doivent

gérer les conits dus aux imprévus ou à l'utilisation des ressources communes. 2

1.2.3 Système opérateur humain - robot

Nous nous intéressons à des missions pour lesquelles le contrôle d'une ou plusieurs entités physiques est réalisé conjointement par un opérateur humain et un robot. Devant agir ensemble an d'atteindre les objectifs de mission, le couple robot - opérateur humain peut être vu comme un système socio-technique, c'est-à-dire un ensemble de composants humains et techniques interagissant pour l'atteinte d'un but commun [Laprie et al., 1995]. Par ailleurs, le couplage de deux agents pour le contrôle d'un système technique, peut, dans le cas où le robot possède un minimum de compréhension et de réactivité aux actions et intentions de l'opérateur, être dénommé sous le terme de contrôle coopératif [Flemisch et al., 2008].

Dans certaines approches, le robot et l'opérateur humain sont modélisés indé-pendamment l'un de l'autre. L'opérateur humain est considéré comme un processeur d'information [Rouse, 1981, Wickens et al., 1983], ce qui a conduit notamment à analyser ses performances et limitations du point de vue sensorimoteur (entrées - sorties). Le robot a alors pour rôle d'éviter à l'opérateur de se retrouver en dehors de son enveloppe de performance nominale. Cependant, on constate les limitations de cette approche en pratique lorsque l'opérateur humain agit avec une machine. En eet, la performance du système homme-machine n'est pas simplement la somme des performances individuelles de chaque agent, l'association des agents modiant les rapports entre eux ainsi que la conduite du système vers les objectifs [Hollnagel, 2003].

[Hollnagel et Woods, 1983, Woods et al., 1990] ont introduit le terme de Joint Cogni-tive System (JCS) : les composants du système, à savoir les agents articiels et humains, sont réunis dans une relation de complémentarité : a priori l'un et l'autre ne peuvent réaliser la mission indépendamment l'un de l'autre [Brezillon et Pomerol, 1997]. Dans le cadre de l'approche JCS, le système homme-machine n'est pas simplement considéré comme l'association d'un robot et d'un opérateur humain modélisés séparément, mais est considéré comme un tout, et c'est cet ensemble dont les performances  externes  doivent être étudiées. De plus, dans cette approche, la modélisation ne concerne pas la composition interne de chacun des agents, mais plutôt les fonctions qu'il est capable

(22)

2. COOPÉRATION HOMME-MACHINE ET PLACE DE L'OPÉRATEUR HUMAIN7

d'apporter au système : l'agent est considéré comme un agent cognitif, c'est-à-dire un agent qui n'est pas simplement réactif aux stimuli mais présente un comportement dicté par la satisfaction d'un but. Ce qui est notable ici est que ce point de vue est symétrique : le robot lui-même peut être considéré comme un agent cognitif [Hollnagel, 2003]. De plus, cela implique que les diérents agents sont capables de se comprendre, ce qui est utopique dans le sens où la machine ne peut  comprendre  l'opérateur. Cependant, cela a des conséquences sur la façon de concevoir le robot, qui doit tenir compte du raisonnement de l'opérateur, être capable de lui expliquer son propre raisonnement et partager le contrôle du système.

Du point de vue de l'opérateur, le robot n'est alors plus considéré comme une simple machine, mais bel et bien comme un agent autonome [Hoc, 2000]. Enn, puisque chacun des agents lui-même peut être considéré comme un système complexe (d'autant plus que la modélisation complète de l'opérateur n'est a priori pas possible), l'association des deux conduit à la création d'un système de systèmes [Luzeaux, 2004].

Denition 5 (Système)

Nous nommerons système l'ensemble formé par le couple robot-opérateur humain ainsi que la (ou les) entité(s) physique(s) qu'ils contrôlent conjointement (incluant également les infrastructures matérielles permettant le lien entre agents et entité physique) pour réaliser une mission. Nous considérons un système coopératif, où les agents partagent les

mêmes buts de mission. 2

2 Coopération homme-machine et place de l'opérateur

humain

Dans ce paragraphe, nous nous intéressons à la relation entre l'homme et la ma-chine, lorsque ceux-ci travaillent ensemble. Dans ce cadre, les termes  machine  ou  automatisation  (plus précisément au sens du terme anglais automation) ne font pas nécessairement référence à un robot, mais, pour reprendre la dénition donnée par [Amalberti, 2002], à  toute aide qui eectue en série ou en parallèle de l'opérateur des opérations de tri, de décision, et d'action habituellement dévolues à cet opérateur (où qui furent à un moment dévolues à l'opérateur)  ; de leur côté, [Sheridan et Parasuraman, 2006, Moray, 2000] considèrent l'automatisation comme l'ensemble des processus articiels intervenant de la perception de l'environnement jusqu'aux actions sur cet environnement.

Nous présentons ici des considérations générales sur les systèmes homme-machine, de l'intérêt de réaliser de tels systèmes aux problématiques induites par l'interaction entre ces deux types d'agents. Ces considérations constituent le contexte général du travail présenté dans ce manuscrit, avec ses dicultés et ses contraintes, qui justient les

(23)

8 CHAPITRE 1. POSITION DU PROBLÈME

choix conceptuels et techniques réalisés par la suite. Les thématiques exposées dans ce paragraphe ne constituent en aucun cas le propos principal de la thèse et ne seront pas développées dans les chapitres suivants.

2.1 Pourquoi faire travailler ensemble homme et machine ?

2.1.1 Couplage des aptitudes

Il y a plusieurs raisons qui peuvent conduire à la réalisation de systèmes faisant appel au contrôle mixte : amélioration des performances de l'humain, éloignement de fait de l'opérateur humain, réduction du nombre d'opérateurs [Mitchell et al., 2005].

L'intérêt du contrôle mixte repose sur l'hypothèse que les faiblesses d'un agent de contrôle peuvent être compensées par les aptitudes de l'autre, et inversement, constituant ainsi un système hybride. Plus concrètement, il est attendu de l'automatisation de permettre de réduire la charge de travail humaine, de réduire les coûts opérationnels, d'augmenter la précision et de réduire le nombre d'erreurs produites par le système [Sarter et al., 1997].

Détaillons maintenant quelques caractéristiques de l'automatisation et de l'humain pris chacun de manière indépendante.

2.1.2 Comparatif des contributions de l'automatisation et de l'opérateur étu-diés indépendamment

Depuis l'introduction de l'automatisation dans les systèmes, les concepteurs de systèmes ont eu besoin de critères pour identier ce qu'il était pertinent d'automatiser ou de ne pas automatiser, et pour établir les capacités de l'opérateur et du robot an de répartir les tâches de la meilleure manière possible. L'approche  historique , telle qu'eectuée par Fitts dès 1951, a consisté en une analyse comparative des bénéces de l'automatisation et de l'opérateur (voir tableau 1.2).

Les humains sont meilleurs pour : Les ordinateurs sont meilleurs pour :

Extraire des motifs Répondre rapidement aux tâches de contrôle

Améliorer, utiliser des procédures exibles Éxécuter des tâches répétitives

Utiliser les faits appropriés au bon moment Produire un raisonnement déductif

Produire un raisonnement inductif Gérer plusieurs tâches complexes

Produire un jugement Calculer rapidement et précisément

(24)

2. COOPÉRATION HOMME-MACHINE ET PLACE DE L'OPÉRATEUR HUMAIN9

L'automatisation est généralement caractérisée par sa rigidité de fonctionnement et son incapacité à réagir à l'imprévu, phénomène décrit sous le nom de  fragilité  (brit-tleness, [Layton et al., 1994]). Inversement, l'opérateur dispose de capacités inégalables, telles que l'imagination, la exibilité, et surtout, le raisonnement inductif, c'est-à-dire la capacité à produire des généralisations à partir de quelques cas isolés. Ces capacités permettent à l'humain de faire face à tout type de situation et de s'y adapter, sur la base d'un raisonnement fondé sur ses connaissances, qui permet la prise de décision en situation nouvelle et incertaine [Rasmussen, 1983].

Les opérateurs humains font régulièrement des erreurs ; cependant il est à noter qu'ils sont capables de récupérer la plupart de celles-ci [Rizzo et al., 1987, Visciola et al., 1992]. Il existe toutefois un type particulier d'erreur, la persévération, connue encore sous le nom de fascination pour l'objectif [BEA, 2000] ou d'  erreur diabolique  [Wanner et Wanner, 1999] : elle a pour caractéristique une mauvaise gestion des ressources attentionnelles par l'opérateur [De Keyser et Woods, 1990, Amalberti, 1996]. L'information pertinente n'est plus perçue au moment opportun ou se focalise uniquement sur un sous-problème particulier : l'opérateur peut commettre des erreurs et mettre en danger le système qu'il contrôle. Ce type d'erreur peut trouver son origine dans certains mécanismes cognitifs, [Berthoz, 2003] avançant par exemple que la persévération est liée à un trouble de la fonction d'inhibition, ce qui a été observé en tant que pathologie chez des patients ayant des lésions cérébrales.

L'homme et la machine disposent de capacités propres qu'ils peuvent apporter et mutualiser lors de la réalisation d'un système hybride homme-machine. Cependant, la frontière dénissant ce à quoi les humains sont meilleurs que la machine et inversement est, en dehors de tâches prises isolément, dicile à dénir en pratique. C'est pourquoi certaines approches se concentrent sur les fonctions à réaliser par le système au lieu de placer les tâches comme éléments centraux, et l'approche par allocation de fonctions consiste à dénir les répartitions des fonctions entre les diérents agents. De nombreuses études ont été faites sur le sujet, conduisant à de nouvelles méthodes de conception [Coye de Brunélis et Le Blaye, 2009]. Malgré tout, les critères pour l'allocation de fonctions à proprement parler restent en eux-mêmes sujets à débats [Hancock, 1996, Sheridan, 2000].

2.2 Problématiques liées à l'automatisation

De nombreux cas d'accidents liés aux interactions homme-machine ont été rapportés, en particulier dans le domaine de l'aéronautique [Billings, 1996, Parasuraman et Riley, 1997, Parasuraman et Byrne, 2003] mais également dans les domaines du transport ferroviaire, routier, maritime. Parmi les problèmes les plus fréquents on relève un défaut

(25)

10 CHAPITRE 1. POSITION DU PROBLÈME

d'information de la part des automatismes sur ce qu'ils sont en train de réaliser, le manque de compréhension de l'automatisation par l'opérateur, la surconance en l'automatisme, une mauvaise conception de l'interface utilisateur et un entraînement inapproprié des opérateurs [Funk et al., 1999].

Les problématiques liées à l'automatisation peuvent être réunies en trois grandes classes : les problématiques liées à la cognition de l'opérateur interagissant avec l'au-tomatisation, la représentation qu'a l'opérateur du système et des actions entreprises par l'automatisation, et enn la conance que l'opérateur accorde au système.

2.2.1 Impact de l'automatisation sur la cognition de l'opérateur

L'introduction de l'automatisation, au lieu de décharger l'opérateur d'un certain nombre de tâches, a modié son rôle dans le système, lui conférant celui de superviseur. Plus précisément, ce type d'interaction a été nommé contrôle de supervision et a fait l'objet de nombreuses études [Moray, 1986, Sheridan et Verplank, 1978]. Dans ce cadre, on peut considérer que l'humain peut avoir cinq fonctions vis-à-vis de la machine [Sheridan et Parasuraman, 2006] :

 planier hors ligne  enseigner à la machine

 surveiller l'exécution du plan par la machine  intervenir si nécessaire

 apprendre par expérience

La conception des systèmes ainsi que l'entraînement des opérateurs doivent nécessaire-ment être réalisés en tenant compte de ce transfert de rôle.

Pour un système automatisé supervisé par un opérateur humain, on peut distinguer quatre grands processus qui doivent être eectués séquentiellement par le couple homme-machine, sur la base d'un modèle humain du traitement de l'information (voir gure 1.2) [Parasuraman et al., 2000] : le premier processus est la fonction de captation de l'information, suivie par la fonction de perception, qui opère un premier rapprochement de l'information brute avec l'information en mémoire de travail ; vient ensuite la fonction de prise de décision, complétée par la fonction de choix de réponse et de mise en exécution. Chacun de ces processus peut être automatisé plus ou moins fortement en fonction de la mission, des besoins et des limites technologiques. En revanche, l'automatisation ne doit pas être directive et implémenter un seul type de stratégie, mais plutôt constituer un support exible de la prise de décision de l'opérateur favorisant le jugement et le raisonnement [Crandall et Cummings, 2008].

(26)

2. COOPÉRATION HOMME-MACHINE ET PLACE DE L'OPÉRATEUR HUMAIN11

Figure 1.2: Les étapes séquentielles pour un système en supervision [Parasuraman et al., 2000]

2.2.2 Compréhension de l'automatisme et conscience de situation de l'opé-rateur

An que le couplage entre l'homme et la machine se fasse au mieux, l'opérateur humain doit comprendre ce que réalisent les automatismes, leur fonctionnement interne, leurs états courants. Ceci peut lui permettre de se donner une représentation mentale du système susante pour pouvoir utiliser le système ecacement et éviter les surprises dues à l'automatisation [Sarter et al., 1997]. De nombreuses études mettent en avant la nécessité de réaliser des systèmes dits  transparents  ou  human-like  an de faciliter la transmission de l'information [Sarter et Amalberti, 2000].

La conscience de situation est un concept introduit par [Endsley, 1995] pour qualier la compréhension de l'état actuel du système et de la mission par l'opérateur humain à un instant donné. Elle se décompose en trois niveaux successifs :

 la perception des éléments de l'environnement et de l'état du système ;  la compréhension des paramètres perçus ;

 la projection dans le temps de ces éléments et de leur évolution future, étape per-mettant à l'opérateur d'anticiper les modications à venir dans le système et l'envi-ronnement à partir des informations perçues et intégrées précédemment.

La conscience de situation est fondamentale pour l'opérateur an qu'il puisse contrôler le système de manière pertinente, ecace et anticipée. Elle est d'autant plus importante lorsque des aléas surviennent et que l'opérateur doit réagir pertinemment et rapidement, par exemple pour produire des stratégies de réparation.

Cependant, par l'introduction de l'automatisation, l'opérateur humain est bien souvent poussé en dehors de certaines boucles décisionnelles du système, ce qui a pour eet de dégrader sa conscience de situation [Endsley, 1996]. En eet, en fonction de son niveau de conscience de situation, l'opérateur peut assurer ses fonctions de supervision du système avec plus ou moins de succès ; en ce sens, la conscience de situation est un bon indicateur de la performance du système homme-machine [Donmez et al., 2009, Cummings et Mitchell, 2008].

(27)

12 CHAPITRE 1. POSITION DU PROBLÈME

2.2.3 Conance et surconance en l'automatisme

La conance [Lee et See, 2004, Parasuraman et Riley, 1997] dénit comment l'opérateur accepte d'interagir avec la machine. La conance de l'opérateur envers l'auto-matisation peut se bâtir sur deux considérations principales [Sheridan et Parasuraman, 2006] :

 la abilité perçue par l'opérateur de l'automatisme, en terme de répétabilité, cohé-rence de fonctionnement ;

 la robustesse perçue par l'opérateur du comportement de l'automatisme, c'est-à-dire sa capacité à fonctionner de manière satisfaisante sur un ensemble de situations diérentes, et la sensation de comprendre son fonctionnement en règle générale (pro-cédures utilisées, anticipation possible du comportement).

La conance que l'opérateur a en une fonction automatisée prise isolément inue notamment sur la façon dont il va interagir avec elle [Crocquesel et al., 2010].

Le phénomène de surconance en l'automatisme a été mis en lumière par [Layton et al., 1994, Mosier et al., 1998, Parasuraman et Riley, 1997] sous le terme de biais d'automatisation : il s'agit d'un phénomène se produisant lorsque l'opérateur se repose sur les automatismes sans adopter l'attitude critique nécessaire, ou sans chercher à recouper l'information contradictoire pertinente. On peut distinguer deux types de biais d'automatisation [Mosier et al., 1998] : l'erreur par délégation, consistant pour l'opérateur à continuer à obéir aux recommendations d'un automatisme sans en vérier la pertinence, et l'erreur par omission, consistant pour l'opérateur à ne pas intervenir alors que l'automatisme est défaillant. Toute la problématique repose dans le fait que l'opérateur doit calibrer correctement la conance qu'il accorde dans l'automatisme, an de ne basculer ni dans la surconance, ni dans l'excès inverse : si le manque de conance en l'automatisme est avéré, il se peut que celui-ci ne soit tout simplement pas utilisé par les opérateurs [de Vries et al., 2003]. [Moray et Inagaki, 2000] considèrent qu'il n'existe au-cune approche able permettant à l'opérateur de dénir le niveau approprié de conance à accorder à l'automatisme : pour cette raison, ils proposent que l'opérateur vérie le bon fonctionnement de l'automatisme à une fréquence proportionnelle à la fréquence de défaillance de l'automatisme. Dans tous les cas il ne s'agit pas d'une problématique résolue. Enn, une problématique surgit avec l'introduction des systèmes d'assistance et le contrôle mixte (par exemple les aides au suivi de trajectoire pour les pilotes ou les conduc-teurs automobiles), qui combinent dans des proportions variables les consignes de l'opéra-teur avec celles en provenance d'algorithmes : en brouillant la frontière entre le contrôle du système par l'opérateur ou les automatismes, l'opérateur peut basculer de la conance en la surconance, en ayant notamment l'illusion de contrôler parfaitement un système sur lequel il n'a en réalité qu'un contrôle partiel. Cet eet peut être recherché ou au contraire repoussé par les concepteurs de système ; en ce sens, les critères conduisant au sentiment

(28)

2. COOPÉRATION HOMME-MACHINE ET PLACE DE L'OPÉRATEUR HUMAIN13

de contrôle et d'autorité sur le système par l'opérateur (désigné également sous le terme d' agency  en anglais) sont l'objet d'études actuelles [Berberian et al., 2010]. Toutefois, des métriques pour évaluer la surconance et adaptées à des systèmes à contrôle mixte ont été développées [Inagaki et Itoh, 2010].

2.3 Place de l'opérateur humain

2.3.1 Rôle(s) pris en charge par l'opérateur humain dans le système

L'opérateur humain peut intervenir de diérentes manières sur l'entité physique, de l'envoi direct de commandes (téléopération) jusqu'aux ordres de haut niveau qu'il trans-met au robot en supervision. En inversant les positions, il est également concevable que le robot demande lui-même à l'opérateur de réaliser des tâches pour l'accomplissement de la mission. On constate que les rôles de l'opérateur peuvent être d'une grande variété et nécessitent d'être dénis ; c'est l'objectif de ce paragraphe.

La gure 1.3 montre la position classique de l'opérateur vis-à-vis des lois de commande appliquées sur l'entité physique : l'opérateur donne les consignes, les lois sont élaborées an que l'entité physique délivre les sorties désirées en respectant un certain nombre de critères de performance (stabilité, précision, temps de réponse, robustesse aux perturbations, etc.)

Figure 1.3: Asservissement et consignes de l'opérateur

La partie droite de la gure représente la partie  physique  du système, alors que la partie gauche représente la partie commande. Le système (dont les actuateurs) reçoit les commandes et les applique, conduisant le véhicule physique, plongé sans

(29)

14 CHAPITRE 1. POSITION DU PROBLÈME

son environnement, à évoluer. Ces évolutions sont mesurées par des capteurs, et cette information permet d'ajuster les commandes envoyées au système via un correcteur an que le véhicule physique évolue comme attendu, suivant un asservissement en boucle fermée.

Lorsque le robot est doté de capacités décisionnelles (via les fonctions de suivi de l'état et de planication), l'opérateur peut intervenir de diérentes manières. La gure 1.4 montre un système à  forte autonomie , dans lequel l'opérateur dénit l'objectif mais n'intervient pas dans les décisions du robot.

Figure 1.4: Planication et objectifs dénis par l'opérateur

Dans le système de la gure 1.5, pour un objectif xé, l'opérateur peut intervenir sur le processus de génération de plan (en modiant par exemples les pondérations entre critères, les seuils, en indiquant ses préférences). Il s'agit de planication à initiative mixte (voir section 1.3.2).

Enn la gure 1.6 montre le cas d'un système dans lequel le robot et l'opérateur ont les capacités d'action sur l'entité physique. Le problème que nous traitons dans cette thèse se situe dans ce cadre : en cas d'actions simultanées, ou contradictoires, des deux agents, comment réaliser leur agrégation ? Ou au contraire, faut-il en privilégier une par rapport à l'autre ? Les consignes de l'opérateur doivent-elles supplanter celles d'un algorithme, s'additionner de manière pondérée, être ignorées ?

On remarque dans ce cadre que l'opérateur prend ses décisions à l'aide d'informations en provenance du robot, mais réciproquement le robot ne perçoit pas l'opérateur. La gure 1.7 propose de rendre  symétriques  les rôles des deux agents : la fonction de suivi de l'état du robot est également alimentée par des informations relatives à l' état  de l'opérateur (par exemple, actions sur l'interface, oculométrie, voire informations issues de capteurs physiologiques).

(30)

2. COOPÉRATION HOMME-MACHINE ET PLACE DE L'OPÉRATEUR HUMAIN15

Figure 1.5: Initiative mixte sur la planication

(31)

16 CHAPITRE 1. POSITION DU PROBLÈME

Figure 1.7: Prise en compte des états de l'opérateur

2.3.2 Place du robot depuis la perspective de l'opérateur

Les nouvelles formes d'automatisation modient la perception que l'opérateur peut avoir du robot : le robot n'est plus simplement un outil à disposition de l'opérateur humain, en eet il peut corriger ses erreurs et lui déléguer des tâches.

L'opérateur est censé désormais lui allouer sa conance (à sa juste mesure) ; il doit pouvoir communiquer ses intentions au robot an que celui-ci le soutienne, et le robot peut venir contredire certaines des décisions de l'opérateur. [Woods, 1996] a mis en exergue le fait qu'ajouter de l'automatisation dans le but d'assister l'opérateur humain revient à ajouter un membre supplémentaire à l'équipe, qui ne parle pas nécessairement la même langue, et ne partage pas la même culture. Cela peut déboucher sur ce que [Sarter et al., 1997] présentent comme les  surprises de l'automatisation , qui ramène l'opérateur à se poser les questions de [Wiener, 1985] : que fait l'automatisation ? Pourquoi ? Et que va-t-elle faire après ? Dans ce cadre, [Woods, 1996] arme que l'augmentation de l'au-tomatisation nécessite une augmentation de la coordination. [Christoersen et Woods, 2002] vont même jusqu'à armer qu'il ne s'agit plus tant d'un problème d'autonomie et d'autorité que d'un problème de coopération et d'observabilité, ce qui suppose d'unier les représentations, entre le modèle mental de l'opérateur et le modèle de le robot. Ce-pendant, pour que le robot puisse vraiment être considéré comme un membre de l'équipe, [Klein et al., 2004] considère qu'entre autres dés, le robot doit, au même titre que l'opé-rateur humain agissant avec d'autres opél'opé-rateurs, être capable de modéliser les intentions de l'autre et anticiper ses actions.

(32)

3. APPORTS DE LA THÈSE ET CONTRIBUTIONS 17

3 Apports de la thèse et contributions

Les travaux réalisés dans le cadre de la thèse ont pour objectif la réalisation d'un contrôleur de la dynamique de l'autorité, fonction d'un robot réalisant une mission en co-opération avec un opérateur humain, et permettant à ce robot de faire varier de lui-même son comportement et son autonomie sur la base de considérations d'autorité. L'originalité de l'approche réside dans le fait de s'abstraire de la notion de niveaux d'autonomie fré-quemment utilisées dans la littérature, et de contrôler nement l'autorité des agents sur des éléments génériques de la mission (ressources).

3.1 Contrôle de l'autonomie d'un robot sans utilisation de

ni-veaux d'autonomie

Nous proposons une approche fondée sur la détection et la résolution de conit, un conit se manifestant dans l'exécution du plan lors de la survenance d'un aléa. Nous considérons qu'il s'agit d'un indicateur tout-à-fait pertinent pour déclencher l'adaptation du comportement du robot vis-à-vis de l'opérateur : nous utilisons le conit comme signal conduisant le robot à réagir et à adapter son autonomie relativement à l'opérateur. Ainsi, en mettant à jour continuellement son modèle des actions en cours et à venir, qu'il en soit le commanditaire, l'exécutant ou qu'il en soit simplement informé, et en y incluant toute la chaîne de dépendances associées, le robot ajuste son comportement sur la base des droits qui lui sont accordés au niveau des ressources via les relations d'autorité. Le niveau de granularité de la modélisation n'est en rien imposé par notre outil de modélisation, le choix en est laissé au concepteur suivant ses besoins pour la réalisation d'une mission. De plus, nous ne faisons à aucun moment appel à des niveaux d'autonomie prédénis en ce sens où notre modélisation n'impose aucune répartition préétablie des tâches entre robot et opérateur : celle-ci s'établit d'elle-même en fonction des ressources disponibles, de l'autorité établie entre le robot et l'opérateur et des  savoir-faire  dont dispose le planicateur du robot.

3.2 Macro- et micro-modèle de l'autorité

Le modèle de l'autorité que nous proposons s'appréhende à deux niveaux distincts : le macro-modèle et le micro-modèle.

Le macro-modèle de l'autorité permet de manipuler les concepts de ressources, d'interfaces et de relations d'autorité. Les ressources sont des éléments génériques obtenus à partir du plan d'exécution des agents sur la mission lorsque l'on représente celui-ci sous la forme de dépendances. Les interfaces matérialisent les relations de dépendances entre ressources. Enn, les relations d'autorité permettent de matérialiser les droits des diérents agents du système (i.e. opérateur humain et robot), dénissant l'utilisation qu'ils peuvent faire des ressources. Le macro-modèle constitue un outil de modélisation

(33)

18 CHAPITRE 1. POSITION DU PROBLÈME

permettant de représenter tous les éléments nécessaires à un agent pour réaliser un plan de tâches lors de sa mission, en vue d'atteindre des objectifs. Ce type de modélisation est susamment exible pour permettre l'inclusion de données relatives à l'opérateur, an d'améliorer l'interaction homme-robot ; de plus, par son approche générique et associé à une représentation graphique, cet outil permet la création rapide de nouveaux modèles.

Le micro-modèle constitue l'implémentation formelle du macro-modèle de l'autorité sous la forme d'un ensemble de réseaux de Petri synchronisés entre eux. Ces réseaux de Petri incorporent l'intégralité des diérentes propriétés que nous avons dénies sur les ressources et les interfaces. Le micro-modèle de l'autorité rend possible l'exécution immédiate du modèle de l'autorité, son évolution étant dénie par le formalisme des réseaux de Petri, ainsi que par leurs connexions aux autres fonctions de l'architecture robotique. L'exécution du micro-modèle permet d'eectuer la détection d'aléas survenant en mission, qu'il s'agisse de défaillances ou d'interférences résultant des actions d'agents non coordonnés entre eux.

3.3 Mise en ÷uvre du contrôleur de la dynamique de l'autorité

Les modèles construits suivant le formalisme que nous proposons permettent la détec-tion de conit pendant l'exécudétec-tion du plan. Pour cela, le contrôleur de la dynamique de l'autorité que nous proposons met à jour en permanence le modèle représentant le plan en cours et à venir, ainsi que les relations d'autorité entre agents sur les ressources concer-nées. Lorsqu'un conit apparaît au sein du modèle, il est détecté par le contrôleur, qui, en conjonction avec le planicateur du robot, exécute des méthodes de résolution. Nous proposons des méthodes de résolution de conit qui dièrent suivant le type de conit et des contraintes que l'on impose au robot en terme d'autorité. En eet, an de réagir à l'apparition de conit, une reconguration du plan du robot, voire du plan de l'opéra-teur, est nécessaire. Pour éviter l'apparition d'incohérences lors de la résolution de conit, des arbitrages entre le robot et l'opérateur sont à réaliser. C'est en cela que les relations d'autorité sont pertinentes : elles permettent de réguler l'usage que les agents font des ressources sous forme de droits relatifs, rendant possible la résolution automatique des conits, si la situation et les connaissances du robot le permettent. De plus, notre outil de modélisation ouvre la voie au changement dynamique de l'autorité des agents sur les ressources directement en mission, sur requête du robot tout comme de l'opérateur.

4 Organisation du mémoire

Ce mémoire est composé de cinq chapitres principaux.

Le premier chapitre consiste en un état de l'art relatif au concept d'autonomie dans un système opérateur humain - robot. Des approches permettant d'évaluer, puis de faire

(34)

4. ORGANISATION DU MÉMOIRE 19

varier l'autonomie d'un robot dans ce cadre sont présentées et critiquées, en particulier le concept des niveaux d'autonomie. Une classication des modes d'initiative entre l'opérateur et le robot est présentée, suivie d'une présentation des critères à même de déclencher un changement d'autonomie ; ceci nous permet d'introduire le concept de conit que nous utilisons par la suite. Enn, nous expliquons pourquoi et comment nous eectuons un glissement du concept d'autonomie aux concepts d'autorité et de partage d'autorité.

Les deuxième et troisième chapitres se concentrent sur la dénition d'un modèle formel permettant la représentation d'un plan d'exécution pour le robot et l'opérateur humain sous forme d'éléments génériques liés entre eux par des relations de dépendance, et sur lesquels nous établissons le concept de relation d'autorité. Ce modèle est présenté à deux niveaux diérents, d'abord le macro-modèle se présentant sous forme d'un graphe de ressources, puis le micro-modèle, fondé sur des réseaux de Petri génériques. Le troisième chapitre traite plus particulièrement du concept de conit, de sa survenue au sein du modèle, et des méthodes de résolution.

Le quatrième chapitre explique la réalisation du contrôleur de la dynamique de l'autorité, fonction du robot permettant à celui-ci de se positionner en terme d'autorité sur les actions qu'il doit réaliser ou non au cours de la mission, sur la base du modèle présenté dans les chapitres 2 et 3. La mise en ÷uvre de ce contrôleur, aussi bien du point de vue de son intégration au sein de l'architecture du robot et du système incluant l'opérateur que dans ses mécanismes de fonctionnement interne, est présentée.

Le cinquième chapitre présente l'application qui a été faite de ce contrôleur de la dynamique de l'autorité : nous considérons un robot terrestre devant réaliser une mission sous le contrôle d'un opérateur humain, mission dans laquelle nous faisons survenir certains aléas. Le contexte applicatif et les modèles utilisés pour la mission sont présentés. Enn, le mémoire se conclut sur une synthèse de nos travaux. Des perspectives de travail sont présentées et discutées, sur la façon dont ce contrôleur de la dynamique de l'autorité pourrait être amélioré, mis en ÷uvre en conjonction avec des opérateurs humains, et évalué. De plus, nous expliquons comment les techniques utilisées dans cette thèse peuvent être adaptées à d'autres problématiques.

(35)
(36)

21

Chapitre

2

Autonomie relative entre agents

Ce chapitre est consacré à la littérature relative aux systèmes impliquant des agents hétérogènes (présence simultanée d'agents robotiques et d'opérateurs humains) pour la conduite d'une mission et touchant à la notion d'autonomie. Même dans ce cadre res-treint, la notion d'autonomie peut recouvrir des concepts très diérents et mal dénis ; cependant, nous en conservons son caractère relatif instauré entre les agents. L'auto-nomie semble pouvoir être graduée : certaines approches évaluatives visent à mesurer l'autonomie de systèmes existants pour pouvoir les classer, alors que d'autres approches prescriptives visent à concevoir des systèmes devant exhiber une autonomie prédénie. Suivant cette direction, nous avons relevé une classication des systèmes hétérogènes suivant trois catégories : les systèmes à autonomie adaptative, les systèmes à autono-mie ajustable et les systèmes à initiative mixte. Nous analysons ensuite la place qui est accordée à l'opérateur humain depuis la perpective du robot, comment celui-ci est modélisé ou comment ses interactions sont intégrées. Enn, nous passons en revue cer-taines techniques et métriques utilisées pour déclencher un changement d'autonomie de la part du robot vis-à-vis de l'opérateur humain. En ce sens, le conit ressort comme un indicateur pertinent du besoin d'évolution de l'autonomie. Enn, nous expliquons en quoi le concept d'autorité se raccroche à la notion d'autonomie, dans le but d'aborder de manière égale et non biaisée les relations entre les agents humain et robotique.

1 Autonomie et contrôle de l'autonomie

L'autonomie est une propriété abstraite qui caractérise une personne, un agent, un système. Il semble que l'autonomie ne soit pas une fonction bien identiée et localisable, mais plutôt une propriété émergente, résultant de l'expression de toutes les composantes d'un système. Immédiatement, il apparaît que l'autonomie touche à des notions aussi vastes que la prise de décision, l'initiative, la liberté d'action, et l'on prend la mesure de la

(37)

22 CHAPITRE 2. AUTONOMIE RELATIVE ENTRE AGENTS

diculté de l'expliciter formellement. Il serait donc prétentieux d'essayer d'en donner une dénition absolue ; cependant, dans le cadre de notre problématique, nous pouvons dégager certaines caractéristiques de l' autonomie  : voyons dans un premier temps quelques considérations générales sur l'autonomie dans le contexte de relations entre agents, puis comment celles-ci se projettent sur le cadre applicatif de l'interaction homme-robot.

1.1 Considérations générales sur l'autonomie des agents

L'autonomie d'un agent articiel est dicile à appréhender, en particulier dès que l'on considère qu'elle requiert une certaine liberté décisionnelle voire une  libre volonté  [Clough, 2002], ou même une imprédictibilité de comportement [Steels, 1995]. Cependant il est possible d'en dégager certaines caractéristiques plus opérationnelles. Tout d'abord, un agent évolue normalement dans un contexte social : les autres entités en présence, tout comme les institutions dans lesquelles ils évoluent, peuvent inuer sur cet agent, aectant sa liberté de décision et son comportement sous la forme d'engagements sociaux [Carabe-lea et Boissier, 2006]. [Castelfranchi et Falcone, 2003] proposent de considérer l'autonomie comme une relation entre plusieurs entités et portant sur un objet, par exemple un but. L'autonomie s'écrit alors sous la forme d'un triplet (X, µ, Z), X étant le sujet (corres-pondant à l'agent articiel), µ une décision / action / but, Z le sujet secondaire évaluant l'autonomie, c'est-à-dire ici l'opérateur. Sur le même principe, [Brainov et Hexmoor, 2003] conservent la vision de l'autonomie comme une notion relationnelle en l'étendant, ajoutant le groupe des inuençants ainsi qu'une mesure de performance. L'autonomie s'écrit alors (sujet, objet, inuençants, mesure de performance). Les inuençants regroupent les autres agents en présence pouvant altérer l'autonomie du sujet considéré, ce qui inclut l'opéra-teur. La mesure de performance est déterminée par ce dernier, dénissant les objectifs à atteindre ainsi que la métrique de performances associée.

On note toutefois que ces travaux représentent dans leur ensemble des considérations de haut niveau et s'appliquent à des agents supposés idéaux, au comportement parfaitement modélisé.

1.2 L'autonomie dans un système homme-robot

Dans le cadre plus précis du contrôle d'un agent évoluant dans le monde physique et supervisé par un opérateur humain, l'autonomie se caractérise principalement par la capacité d'un agent à minimiser le besoin de supervision et à évoluer seul dans le monde réel [Schreckenghost et al., 1998]. En conservant le principe d'une relation entre l'opérateur et l'agent, on constate ainsi que l'autonomie pure n'est qu'un cas extrême de cette relation, consistant précisément à la réduire à son minimum. Cependant, dans la pratique, les objectifs d'une mission ne peuvent pas toujours être atteints de façon purement autonome par un agent articiel et l'intervention de l'opérateur est nécessaire. [Goodrich et al., 2001, Goodrich et al., 2007] illustrent ce point en rapprochant le temps pendant lequel un robot peut agir sans intervention de l'opérateur et ses performances

(38)

1. AUTONOMIE ET CONTRÔLE DE L'AUTONOMIE 23

sur le terrain : celles-ci déclinent rapidement lorsque le robot est négligé par l'opérateur. Un équilibre doit donc être trouvé entre le contrôle purement manuel, qui permet en général d'avoir une grande conance dans le système mais qui soumet l'opérateur humain à une charge de travail importante, et l'autonomie totale, qui décharge l'opérateur mais ore moins de garanties en environnement incertain [Brookshire et al., 2004]. Ainsi, de façon à tirer parti des compétences complémentaires des agents humain et robotique, la variation de l'autonomie de l'agent robotique est largement considérée.

Les approches évaluatives proposent une mesure a posteriori de l'autonomie d'un agent robotique qui réalise une mission particulière, an par exemple de pouvoir comparer des systèmes diérents entre eux : on peut citer par exemple MAP [Hasslacher et Tilden, 1995], ACL [Clough, 2002] ou Alfus [Huang et al., 2005]. Cette dernière (voir gure 2.1) propose d'évaluer l'autonomie suivant trois dimensions : complexité de mission, diculté environnementale et interface avec l'opérateur. Cette méthode présentée comme objective nécessite cependant d'agréger sur chaque axe les résultats d'un grand nombre de métriques hétérogènes, ce qui pose le problème de la sémantique du résultat.

Figure 2.1: Évaluation de l'autonomie suivant la méthodologie Alfus [Huang et al., 2005]

Les approches prescriptives s'intéressent à la conception de systèmes intégrant le contrôle de l'opérateur, en posant les questions de la dénition des niveaux d'autono-mie et du passage d'un niveau à un autre. On peut ranger ces approches selon plusieurs axes : l'objet sur lequel porte l'autonomie, le mode d'initiative adopté pour faire évoluer l'autonomie, les critères pour décider de cette évolution, la perception qu'a l'agent articiel de l'agent humain.

(39)

24 CHAPITRE 2. AUTONOMIE RELATIVE ENTRE AGENTS

1.3 Contrôler l'autonomie de l'agent articiel

1.3.1 L'objet de l'autonomie

Deux objets principaux sont considérés : le rôle et la tâche.

Un rôle est déni comme un ensemble de tâches à assurer par un agent donné [Hardin et Goodrich, 2009]. Les spécications selon des niveaux d'autonomie correspondent alors à une répartition pré-établie des rôles entre l'agent humain et l'agent articiel : [Sheridan et Verplank, 1978] avaient proposé dès 1978 une classication de l'autonomie opérationnelle ( automation ) d'un système robotique sur dix niveaux (voir tableau 2.1). Cependant ce modèle est abstrait et ne tient pas compte de la complexité de l'environnement dans lequel évolue le robot, ni du contexte de mission.

Niveau Description de l'automatisation

1 Le système n'apporte aucune assistance, l'opérateur prend toutesles décisions et actions.

2 Le système propose un ensemble complet de décisions / actionsalternatives.

3 Le système propose une sélection de décisions / actions.

4 Le système suggère une action / décision en particulier.

5 Le système exécute une action / décision si l'opérateur approuve.

6 Le système donne un temps limité à l'opérateur pour mettre sonveto sur l'exécution automatique

7 Le système exécute automatiquement, et avertit nécessairementl'opérateur

8 Le système n'informe l'opérateur que si demandé

9 Le système n'informe l'opérateur que s'il le décide

10 Le système décide et agit totalement seul, ignorant l'opérateur

Table 2.1: Niveaux d'automatisation de Sheridan [Sheridan et Verplank, 1978, Parasuraman, 2000]

D'autres classications reposent sur le même principe, notamment [Dorais et al., 1999], pour lesquels un niveau d'autonomie est caractérisé par la complexité des commandes traitées, [Goodrich et al., 2001] pour qui un niveau représente la capacité d'un robot à fonctionner un certain temps indépendamment de l'opérateur ou encore [Bradshaw et al., 2003], qui considèrent que les rôles des agents varient en fonction des actions qui leur sont obligatoires, permises, possibles, et de l'initiative qu'ils ont pour entreprendre ces actions.

Références

Documents relatifs

Exercice 4 : La combustion complète de 0.35 g d’un composé A de formule brute C x H y a donné 0,45 g d’eau. Déduire celui du carbone.. 2/ a- Sachant que la masse molaire de A est

Si l'on en croit Jesse Fox, auteur principal d'une étude et professeur assistante en communication à l'Université de l'Ohio, les hommes qui publient beaucoup de selfies sur

marge brute – remise – prix d’achat net – prix de vente hors taxe – coût d’achat prix de vente toute taxe comprise – prix d’achat net – frais d’achat – prix

En traction, torsion ou flexion il est possible de résoudre un système qui est hyperstatique et d’en déterminer sa déformation, ou la contrainte. Pour cela la même méthode pour

Mise en valeur du travail de création : Ronsard au gré des poèmes associe le mythe de Méduse à un autre mythe, complète et dépasse le mythe en attribuant à

Le soumissionnaire remet, comme pièce constitutive de son offre, un document par lequel il marque son engagement à mettre en œuvre

* Détermination de la graduation 100 : on plonge le réservoir du thermomètre dans de l’eau en ébullition sous la pression atmosphérique normale.. Le liquide dans le capillaire

3- Pour déterminer la composition centisémale de la substance (A) on réalise la combustion complète de l’échantillon précèdent, on remarque que la masse du dioxyde de