• Aucun résultat trouvé

Dissonances d'usages, opportunités et menaces : vers une démarche d'ingénierie cognitive de leur analyse

N/A
N/A
Protected

Academic year: 2021

Partager "Dissonances d'usages, opportunités et menaces : vers une démarche d'ingénierie cognitive de leur analyse"

Copied!
8
0
0

Texte intégral

(1)

HAL Id: hal-01882175

https://hal.archives-ouvertes.fr/hal-01882175

Submitted on 26 Sep 2018

HAL

is a multi-disciplinary open access archive for the deposit and dissemination of sci- entific research documents, whether they are pub- lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire

HAL, est

destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Dissonances d’usages, opportunités et menaces : vers une démarche d’ingénierie cognitive de leur analyse

Frédéric Vanderhaegen

To cite this version:

Frédéric Vanderhaegen. Dissonances d’usages, opportunités et menaces : vers une démarche

d’ingénierie cognitive de leur analyse. ERGO’IA 2018, Oct 2018, Bidart - Biarritz, France. �hal-

01882175�

(2)

Dissonances d’usages, opportunités et menaces : vers une démarche d’ingénierie cognitive de leur analyse

Frédéric Vanderhaegen

Univ. Valenciennes, LAMIH UMR 8201, CNRS Le Mont Houy - 59300 Valenciennes Cedex 9

frederic.vanderhaegen@univ-valenciennes.fr

RESUME

Cet article s’inspire de différents concepts complémentaires : les usages, les dissonances, les opportunités et les menaces. Les dissonances sont des conflits entre connaissances individuelles, collectives ou organisationnelles. De tels conflits existent sur les usages de systèmes : ce sont des dissonances d’usages pouvant générer des résultats positifs ou négatifs, i.e. des opportunités ou des menaces potentielles respectivement.

Après avoir présenté ces différents concepts, l’article propose et illustre par des exemples les prémices d’une démarche globale combinant des expertises en ingénierie des systèmes, en sciences cognitives et en sciences de l’information pour prendre en compte les dissonances d’usages et leurs conséquences.

Mots Clés

Dissonances ; usages ; opportunités ; menaces ; conception ; utilisateur.

ABSTRACT

This paper discusses on different complementary concepts: the uses, the dissonances, the opportunities and the threats.

Dissonances are conflicts between individual, collective or organizational knowledge. Such conflicts exist on system uses:

they are called dissonances of uses that can produce positive or negative impacts, i.e. opportunities or threats respectively.

After presenting these concepts, the paper proposes and illustrates with practical examples a generic approach combining expertise on system engineering, cognitive sciences and information sciences to take into account dissonances of uses and their consequences.

ACM Classification Keywords

User centered design; user models; knowledge representation and reasoning; cognitive science; socio-technical systems

INTRODUCTION

Pour éviter un événement indésirable comme une explosion ou un incendie, des barrières sont conçues. Des barrières sont

des systèmes techniques ou humains prévues pour éviter ou limiter l’occurrence ou les conséquences de tels événements indésirables [18]. Ainsi, pour les incendies, les bâtiments peuvent être équipés d’extincteurs pour éteindre les feux, de sorties de secours pour évacuer, de zones de confinement pour interdire l’accès dans l’espace sinistré, de zones de

rassemblement, etc. La mise en échec, la désactivation ou le franchissement de telles barrières constituent alors des menaces qui méritent d’être étudiées. Pour revenir à l’incendie, rendre les extincteurs défaillants, bloquer les issues de secours, faciliter l’accès aux zones de confinement, ou interdire l’accès aux zones de rassemblement sont des comportements qui peuvent déjouer les fonctions initiales des barrières de sécurité.

Utiliser les extincteurs comme bélier pour ouvrir une porte et évacuer des victimes est un autre exemple d’usage détourné de barrières existantes. Allumer un contre-feu pour maîtriser l’évolution d’un incendie est une création de barrière contre le feu qui peut paraître incompréhensible pour des néophytes. Les barrières sont donc des atouts pour la sécurité des biens et des personnes mais peuvent se transformer en failles du système lorsque leurs fonctions sont déjouées, détournées ou désactivées en connaissance de cause ou à l’insu de leurs utilisateurs.

Ces différents détournements sont justifiés ou injustifiés, volontaires ou involontaires, et sont réalisés avec ou sans intention de nuire. Même si certains de ces comportements sont des menaces pour la sécurité des personnes ou des biens, ils peuvent parfois être justifiés par la recherche d’optimisation d’autres critères tels que la qualité ou la production de services, la charge de travail ou les préférences. Ces situations peuvent être assimilées à des dissonances définies comme des écarts conflictuels entre connaissances individuelles, collectives ou organisationnelles. L’occurrence d’une dissonance peut être intuitive, fortuite ou rationnelle. Ses conséquences sont immédiates, différées ou potentielles. Elles peuvent ne pas être perçues ou leur perception peut être correcte ou erronée. Ainsi les effets placebo et nocebo de dissonances sont alors à prendre en considération.

Cet article présente une nouvelle approche d’ingénierie cognitive de prise en compte de ces situations relatives aux usages de systèmes en termes d’opportunités et de menaces. Un impact positif d’une dissonance d’usage est une opportunité alors qu’un impact négatif est une menace. Cette approche se base sur différents référentiels et considère les dissonances d’usages comme étant liées à des comportements ou conséquences internes ou externes au système sociotechnique étudié. A partir du concept d’erreur humaine, l’article introduit l’intérêt de l’étude de dissonances d’usages. Dans un second temps, il décrit les modes d’acceptabilité et de réduction de ces dissonances en fonction des opportunités et menaces qu’elles Permission to make digital or hard copies of all or part of this work

for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. Copyrights for third-party components of this work must be honored. For all other uses, contact the Owner/Author.

Copyright is held by the owner/author.

ERGO’IA, 3 - 5 Octobre, 2018, Bidart, France.

(3)

peuvent générer. La dernière partie présente les prémices de cette approche visant la fusion d’expertises en sciences de l’ingénierie des systèmes, de la cognition et de l’information.

Des exemples pratiques illustrent cette démarche.

DES ERREURS HUMAINES AUX DISSONANCES D’USAGES

L’erreur humaine est un écart entre usages attendus et usages réels en termes de comportements ou de résultats de ces comportements [17]. Elle est souvent considérée comme la cause de l’occurrence d’un événement indésirable, alors que c’est aussi la défaillance d’un système qui peut provoquer son occurrence [14]. L’approche classique d’analyse des erreurs humaines suppose l’existence d’une prescription ou d’un référentiel relatif aux usages d’un système donné. D’autres configurations sont à prendre en compte : l’absence de référentiel, la présence d’un référentiel erroné ou l’existence de référentiels multiples. Ainsi, ce qui est interprété comme étant erroné par les uns peut ne pas l’être par les autres du fait de la présence de différents référentiels. De plus, une action ou une situation résultante de celle-ci, considérée comme erronée initialement, peut à l’usage devenir la normalité lorsque le référentiel initial absorbe cet écart, Figure 1.

Figure 1. Appropriations de dissonances d’usages (CA : Comportements Attendus ; SA : Situations Attendues : CR : Comportements Réels ; SR : Situations Réelles) Les usages ne sont pas statiques mais dynamiques et dépendent de l’évolution de facteurs comme les habitudes, la motivation ou les préférences des utilisateurs. Ainsi à chaque itération, les écarts peuvent être constants, irréguliers, variables, positifs ou négatifs. Par exemple, l’écart Erreur1 à l’itération 1 peut être différent de l’écart ErreurN à l’itération N, cette différence étant notée N. Dans un premier cas, Erreur1 est absorbé et intégré dans le référentiel des comportements ou situations attendus.

Dans le second cas, il est intégré dans l’évolution possible des écarts.

Il est possible de traiter une erreur humaine lorsque l’écart en question dépasse un seuil d’acceptabilité prédéfini. Toutefois, cette approche est également limitée car elle ne tient pas compte d’une possible évolution de ce seuil ou de seuils prédéfinis en fonction des compétences humaines. De plus, elle

néglige l’impact potentiel des écarts inférieurs à ce seuil.

Lorsque cet écart est imperceptible ou absorbé car considéré à l’usage comme négligeable par exemple, la littérature sur les signaux faibles peut être utile à son analyse. En économie intelligente, un signal faible est un signal à faible fréquence ou faible amplitude, et est associé à deux notions [1, 10] : 1) les impacts positifs appelés opportunités, et 2) les impacts négatifs appelés menaces. Celles-ci sont relatives à des signes avant- coureurs de dangers générés volontairement ou involontairement, avec ou sans intention de nuire. Elles font l’objet d’extrapolations invraisemblables, impensables voire désagréables, à partir de données imperceptibles, incomplètes, hétérogènes et incertaines. Un faible écart entre ce qui est attendu et ce qui est fait peut donc en effet être associé à un signal faible pour lequel les opportunités et les menaces méritent d’être analysées. La stabilité ou la variabilité de cet écart à court, moyen et long termes est alors à prendre en considération également [22]. En reprenant le schéma de la Figure 1, les opportunités ou les menaces associées aux écarts peuvent varier.

Le concept de dissonances permet de traiter cette évolution des référentiels ou des écarts. En musicologie, une dissonance est la production simultanée ou séquentielle d’un ensemble de notes qui sonne faux ou qui est désagréable. Ce concept a été adapté à l’ingénierie des systèmes dans le cadre des analyses de risques [20, 21]. Une dissonance cognitive est un conflit entre cognitions, i.e. entre connaissances ou éléments de connaissances tels que les attitudes, les croyances, les habiletés ou les intentions [5]. Une dissonance collective ou organisationnelle est une divergence de connaissances entre plusieurs individus, entre différents groupes de personnes ou entre sociétés [8]. Ce concept de dissonances est étendu aux usages de systèmes. Les usages sont les bonnes ou mauvaises pratiques d’utilisation ou d’exploitation d’un système sur le plan individuel, collectif ou organisationnel. Les dissonances d’usages sont donc des écarts conflictuels entre connaissances d’usages. Elles peuvent générer des situations d’inconfort, de gêne, de mal-être, de surcharge, de mécontentement, ou de stress mais aussi de satisfaction, de joie ou de bien-être par exemple [23]. Ces conséquences positives et négatives sont interprétées en termes d’opportunités ou menaces respectivement.

ACCEPTABILITE ET REDUCTION DE L’IMPACT DE DISSONANCES D’USAGE

Différentes stratégies peuvent être appliquées pour accepter ou rejeter les comportements ou les conséquences associés à des dissonances d’usages. Elles permettent de refuser ou d’accepter l’impact négatif des dissonances en maintenant ou en modifiant les comportements inappropriés à l’origine des dissonances:

Indifférence face à la dissonance. La dissonance et les conséquences associées ne sont pas perçues, ou il s’agit de faire la sourde oreille et de considérer la dissonance comme inexistante. Même si celle-ci peut générer un impact négatif, elle n’est pas perçue ou est ignorée, et les comportements inappropriés à l’origine de cette dissonance restent inchangés.

Absorption de l’écart: Erreur1 Pas d’absorption des écarts CA1

ou SA1

CR1ou SR1 +-

Erreur1

Itération 1

CA1=CA1+Erreur1

ou SA1=SA1+Erreur1

CRNou SRN +-

ErreurN CA1

ou RA1

CRNou SRN +-

ErreurN=Erreur1N

Itération N Itération N

(4)

Valorisation des opportunités associées à la dissonance afin de justifier les comportements inappropriés.

Dévalorisation des menaces associées à la dissonance pour justifier les comportements inappropriés.

Reconnaissance des menaces d’une dissonance en modifiant ou en interdisant les comportements inappropriés.

Ces stratégies permettent de mettre à jour les connaissances ou les éléments de connaissances des acteurs impliqués dans la dissonance. Elles permettent par exemple d’appliquer des mécanismes de renforcement pour fusionner ou cumuler des connaissances associées à des comportements ou leurs conséquences [4, 27]. L’échec de l’application de chaque stratégie peut générer de nouvelles dissonances, et donc de nouvelles opportunités et menaces. Poser le pour et le contre d’une dissonance peut également générer des dissonances dans la mesure où le traitement d’une dissonance peut provoquer une gêne, un malaise, un inconfort ou une surcharge de travail par exemple. Dans ce contexte, prendre une décision difficile, choisir parmi une multitude d’alternatives, ne pas être d’accord, prendre la parole en public, trouver le meilleur compromis sont des exemples de circonstances pouvant faciliter l’occurrence de dissonances.

Toutefois, poser le pour et le contre est confronté à la diversité des référentiels d’identification de dissonances et l’échec d’une telle gestion peut provoquer de nouvelles dissonances d’usages, Figure 2. Plusieurs configurations de référentiels sont à prendre en compte : l’absence de référentiel, la présence d’un référentiel unique, l’existence d’un référentiel erronée, ou la présence de multiples référentiels.

Face à une situation donnée pour laquelle il n’y a pas de référentiel, l’utilisateur d’un système peut décider de ne rien faire et attendre de voir comment celle-ci évolue, ou d’effectuer des actions par tâtonnement afin de la résoudre [24]. Ces comportements peuvent mener à la création fortuite de barrières. Le succès de ces nouveaux comportements permet de qualifier le système de résilient, dans le cas contraire, il est vulnérable. De nouvelles barrières sont alors à prévoir pour contrôler les menaces potentielles associées.

Des barrières de sécurité sont donc conçues pour protéger les systèmes sociotechniques contre l’occurrence ou les conséquences de dissonances dangereuses d’usages. Le non–

respect ou le franchissement de ces barrières est une nouvelle menace pour la sécurité. Généré volontairement et sans intention de nuire, il peut être justifié pour optimiser d’autres critères de performance. La mise en défaut volontaire de ces barrières avec intention de nuire est une autre menace. Cette attaque peut ne pas être perçue par les acteurs qui subissent les conséquences potentielles de ce type de franchissement de barrière.

Figure 2. Référentiels et échec de réduction des dissonances.

Sur le plan des référentiels uniques, les franchissements de barrières peuvent être analysés en termes de bénéfices, i.e. les opportunités, et de coûts, dangers ou déficits, i.e. les menaces [13, 15, 28]. Ces écarts sont étudiés en fonction de référentiels comme le code de la route ou les prescriptions du concepteur d’une machine. Ils évaluent les différences entre comportements ou situations attendus et comportements ou situations réels à partir de différents critères tels que la sécurité, le respect des horaires prévues, la distance parcourue, la charge de travail, la qualité ou la quantité des services ou des produits réalisés. Le référentiel unique peut évoluer et intégrer des nouveaux usages imprévus. Il s’agit par exemple d’affordances [6]. A partir d’un objet donné, des usages prévus et imprévus peuvent être identifiés. La chaise, par exemple, dont l’usage initial est de pouvoir s’y assoir, peut servir d’échelle pour changer une ampoule au plafond, d’instrument de spectacle pour équilibriste, ou de moyen de transport dans des jeux d’enfants ou de mimes. Le cas des dissonances émotionnels d’usages est également intéressant à traiter. Il s’agit d’un écart conflictuel entre émotions ressenties et émotions exprimées.

Faire la sourde oreille peut être l’aspect exprimé alors qu’intérieurement le sujet peut être stressé, honteux, gêné, etc.

Par entêtement, il peut continuer à réaliser des actions inappropriées, mais il devra traiter si besoin les effets pervers d’un malaise à court, moyen et long termes de celles-ci.

L’épuisement par l’ennui ou par surmenage (bore-out et burn- out en anglais) sont des exemples d’effets de dissonances émotionnels.

Les conséquences ou les comportements associés à une dissonance peuvent également s’expliquer par le fait que le référentiel initial est incorrect. Une prescription erronée, une mauvaise hypothèse de travail, un objectif impossible à atteindre sont relatifs à des référentiels erronés. La sérendipité en est un exemple : c’est le fait de découvrir quelque chose par hasard, différent de ce qui était attendu.

Lorsque plusieurs référentiels existent, la perception des dissonances d’usages peut diverger. Par exemple, dans le cadre d’une coopération entre un système technique et un opérateur humain ou d’une compétition entre différents groupes, les

Opportunités et menaces potentielles de dissonances d’usages

Opportunités et menaces d’autres dissonances d’usages

Usages réels

Echec des stratégies de réduction de l’impact de

dissonances ET

ET

Référentiel erroné

Référentiel multiple Référentiel

unique Absence de

référentiel OU

Modes de référentiel d’usages

(5)

référentiels de chacun peuvent être différents. Cette divergence de référentiels peut générer des conflits d’intention ou des conflits d’intérêt relatifs à des dissonances d’usage dans des situations de coopération ou de compétition [7, 25]. Dans le cadre du Dieselgate de Volkswagen, différents niveaux de référentiels existent : des référentiels en fonction du pays où le problème est traité [3], et des référentiels en fonction des expertises et des utilisateurs [9]. Les conséquences d’une dissonance qui sont acceptables ou évidentes pour les uns peuvent être injustes ou incomprises pour les autres. Lors de la conférence ERGO-IA de 2016, le directeur du programme

« Usine du futur » de l’Agence Nationale de la Recherche française a mis en avant les organisations possibles des usines de demain. Or lors d’un projet collaboratif avec l’Université de Valenciennes, le directeur d’un des partenaires industriels voulait moderniser ses ateliers de fabrication et construire une nouvelle usine. En 2015, il fait appel à une société de consultant qui monte le dossier de demande de permis de construire en remplaçant le terme « usine » par « techno- centre » pour que le projet puisse être accepté par les membres des différents conseils municipaux, communaux, départementaux ou régionaux. L’effet de la formulation d’un problème, d’un projet, d’un questionnaire (en anglais

« Framing Effect ») dépend du référentiel de chacun concernant l’acceptabilité ou le rejet de la proposition. Dans certains cas, l’usage de termes inappropriés ou intolérables peut générer des dissonances d’usages chez certains et provoquer le rejet de celles-ci. Les conséquences de comportements ou de situations peuvent aussi donner lieu à des conclusions différentes voire contradictoires [26]. La présence de référentiels multiples complique donc l’identification de dissonances d’usages et l’analyse de leurs conséquences.

Ces constats encouragent le développement de nouveaux outils d’analyse de dissonances d’usages pour l’amélioration de la conception de systèmes ou de la formation des personnes.

VERS UNE DEMARCHE D’INGENIERIE COGNITIVE D’ANALYSE DE

DISSONANCES D’USAGES

Les prémices d’une démarche d’ingénierie cognitive se basent sur les étapes de la Figure 3.

Figure 3. Etapes d’une démarche d’ingénierie cognitive d’analyse de dissonances d’usages.

Dans un premier temps, l’analyse fonctionnelle d’un système doit permettre d’identifier les barrières existantes, leurs modes d’usages et les prescriptions associées afin de définir les référentiels individuels, collectifs ou organisationnels. Dans un second temps, deux voies complémentaires sont envisagées : une analyse rétrospective pour identifier des dissonances d’usages de terrain, et une analyse prospective pour anticiper des dissonances d’usages éventuels. L’analyse rétrospective permet une prise en compte des activités réelles d’usage face à des barrières techniques ou immatérielles telles que des procédures. L’analyse prospective se base sur des outils tels que les graphes causaux pour anticiper des dissonances d’usages et les évaluer.

A chaque étape, les compétences en ingénierie de systèmes, en science cognitive et en science de l’information sont requises.

Leur complémentarité est évidente et permet d’optimiser la conception de barrières, d’en évaluer les possibilités d’actions et leurs impacts en termes d’opportunités et de menaces. Les failles du système sociotechnique peuvent ainsi être étudiées.

L’expertise conjointe réalisée à partir de la fusion de ces compétences multiples doit permettre de valider les analyses et les référentiels d’usages, et de proposer des recommandations en conception ou en formation des utilisateurs ou usagers.

Une étude rétrospective de terrain sur les usages de rotatives industrielles a permis d’observer deux catégories de

Analyse fonctionnelle Identification de barrières existantes

Analyse de leurs usages Analyse des tâches

associées Identification des référentiels

d’usages prescrits Analyse des

activités d’usages

Identification de dissonances d’usages de terrain Identification des référentiels

de terrain

Analyse des opportunités et menaces de dissonances d’usages Recommandations en conception

et formation

Construction de graphes causaux des usages prescrits

Identification de dissonances d’usages potentielles

Mise à jour des référentiels d’usages

Recherche de nouveaux référentiels

(6)

dissonances d’usage : des franchissements de barrières et des ajouts [12]. Certains des franchissements étaient relatifs à l’intervention par des personnes qualifiées sur des éléments de l’outil de production de journaux alors que celui-ci est en fonctionnement et en mode d’impression. Or, une des règles majeures de sécurité dans ce type de rotatives industrielles est de ne jamais intervenir sur l’outil en marche. En effet, l’application de cette procédure évite des coupures ou des pincements, voire des accidents plus graves. Deux connaissances sont donc ici en conflit : «Intervention sur l’outil en marche » et « Interdiction d’intervention sur l’outil en marche». Les observateurs du terrain sont allés discuter avec les intervenants sur ces machines et voici ce qui a été retenu : ils sont conscients de la situation ; ils font très attention lorsqu’ils interviennent sur l’outil en marche ; ils ne le demandent pas aux autres et le font eux-mêmes car ils ont les compétences pour le faire ; et pour certains, s’ils ne le font pas, cela ralentit la production et le chef d’atelier est mécontent et met la pression. Ainsi, au regard des stratégies de réduction des dissonances et de leur impacts, la plupart des intervenants sur l’outil en marche valorise l’opportunité d’agir sur la machine en fonctionnement et dévalorise les menaces associées, en précisant qu’ils restent prudents et qu’ils se sentent presqu’obliger de le faire pour respecter les délais de fabrication. Un arrêt de l’outil pénalise l’avancement des travaux : la remise en marche est progressive en accélérant la vitesse d’impression petit à petit, nécessitant la mise au rebus des premières impressions avant d’atteindre la cadence et la qualité désirées.

L’attente du retour à la normale après l’activation de procédures de sécurité est souvent long et inacceptable, pouvant générer des dissonances d’usages pour ceux qui gèrent le système et ceux qui l’utilisent. Des liens de causalité entre menaces et opportunités peuvent être identifiés et sont illustrés par un autre exemple d’analyse rétrospective. Il s’agit de la mise en service du tramway de Nancy. Ce système est en fait équipé de bus dont la conduite peut être guidée à partir d’un galet central qui s’insère dans un rail. Une intrusion d’un objet dans ce rail déclenchait souvent un arrêt d’urgence. Le retour à la normal prenait parfois plus de 30 minutes, ce qui devenait insupportable pour les voyageurs présents dans les rames. La contrainte en sécurité est ici respectée, mais la perception de son efficacité dégradée, ce qui peut provoquer de nouvelles menaces telles que des violences envers les conducteurs. Ces derniers estimant ne pas être suffisamment formés pour gérer ce genre de problème, une phase transitoire de transports de voyageurs en bus normal a été instaurée en attendant une formation plus complète. Les cabines de conduite de ce nouveau tramway étaient conformes aux normes ergonomiques, et les conducteurs en étaient très satisfaits. Or, à l’usage, une dissonance est apparue : à l’arrêt, assis sur leur siège, les conducteurs ne pouvaient pas voir le passage de personnes ou d’animaux de petite taille devant la cabine de tramway. Ils étaient donc obligés de se lever pour vérifier que la voie était libre devant la cabine et redémarrer. La menace est ici évidente : risque de collision. L’opportunité qui a été exploitée par la suite afin de ne pas remettre en question la conception des cabines est la suivante : l’intégration de miroirs

à la sortie des stations pour que le conducteur puisse visualiser l’avant de sa cabine tout en restant assis.

Un autre exemple d’illustration de l’approche proposée concerne une analyse prospective à partir de graphes causaux modélisant le fonctionnement et l’usage d’un outil d’aide combiné avec d’autres règles d’usage d’un véhicule, Figures 4, 5, 6 et 7. Les liens entre les graphes sont indiqués par les numéros 1, 2 et 3. L’outil d’aide est un Régulateur Automatique de Vitesse (RAV).

Figure 4. Graphe causal d’usage d’un Régulateur Automatique de Vitesse (RAV) de véhicule.

Trois catégories de dissonances peuvent être identifiées : les affordances, les contradictions et les interférences. La recherche d’affordances consiste à identifier de nouveaux usages à partir des éléments d’interaction existants. Ainsi, il est possible par exemple, de transformer les fonctions des boutons

« + » et « - », initialement prévus pour fixer la vitesse de consigne du RAV, en système d’accélération et de freinage respectivement. Les affordances peuvent être détectées à partir des liens causaux (Activation manuelle du bouton « - »  Augmentation de la vitesse de consigne) et (Activation manuelle du bouton « + » Augmentation de la vitesse de consigne) de la Figure 4, en les combinant avec les liens causaux (Activation du système de freinage  Réduction de la vitesse) et (Activation du système d’accélération  Augmentation de la vitesse) de la Figure 5 respectivement.

L’usage des boutons « + » et « - » comme systèmes d’accélération et de freinage permet de réduire la charge de travail et d’augmenter le confort du conducteur, mais les temps de réponse risquent d’être augmentés pour gérer des situations dangereuses et activer la pédale de frein. Par exemple, si un arrêt d’urgence est requis, le bouton « - » ne permettra pas de stopper le véhicule mais de le ralentir. Le retour à l’usage de la pédale de frein pour un freinage d’urgence est nécessaire.

Initialisation de la vitesse de consigne Contrôle automatique de la vitesse par le RAV

Activation du bouton « on »

Activation du bouton « off » Contrôle manuel

de la vitesse

Activation manuelle du bouton « + »

Activation manuelle du bouton « - »

Augmentation de la vitesse de consigne

Atteinte de la consigne désirée

Réduction de la vitesse de consigne

Désactivation manuelle du RAV

Activation manuelle du système de freinage

3

1

(7)

Figure 5. Graphe causal d’usage d’un véhicule pour le contrôle manuel de la vitesse

Les contradictions sont des dissonances individuelles pour lesquelles des actions opposées sont sollicitées. Par exemple, les liens causaux (Désactivation manuelle du RAV

Activation manuelle du système de freinage) de la Figure 4 et (Pas d’activation du système de freinage  Réduction du risque de perte de contrôle) de la Figure 6 proposent deux actions opposées dans des circonstances différentes : activer le système de freinage pour désactiver le RAV et ne pas activer ce système lors d’un aquaplaning. Des priorités d’action sont alors requises afin de sélectionner le meilleur compromis en termes d’opportunités et menaces.

Enfin, les interférences sont des contradictions mais impliquant différents décideurs. Dans l’exemple proposé, il s’agit d’un conducteur et du RAV. Par exemple, il y a contradictions entre les liens causaux (Pas d’activation du système de freinage  Réduction du risque de perte de contrôle) et (Pas d’activation du système d’accélération  Réduction du risque de perte de contrôle) de la Figure 6 avec les liens causaux (Augmentation de la vitesse courante par rapport à la consigne  Activation automatique du système de freinage) et (Réduction de la vitesse courante par rapport à la consigne  Activation automatique du système d’accélération) de la Figure 7.

Figure 6. Graphe causal d’usage du véhicule pour le contrôle manuel d’un aquaplaning (perte d’adhérence et de

vitesse)

L’aquaplaning peut générer une perte ou une augmentation en vitesse et le RAV peut décider d’activer le système d’accélération ou de freinage, en augmentant ou réduisant le régime moteur respectivement, pour atteindre la vitesse de consigne.

Figure 7. Graphe causal du fonctionnement d’un RAV Cette dissonance peut donc augmenter le risque d’accident avec une perte de contrôle de l’aquaplaning produite par l’action d’accélération ou de freinage du RAV. Ces menaces potentielles peuvent s’avérer fausses par manque de connaissances sur le fonctionnement d’un RAV ou sur les conséquences d’un aquaplaning. Toutefois, elles dépendent des expériences et certitudes de chacun, ce qui nécessite dans ce cas des démonstrations techniques pour valider ces évaluations subjectives, et pour définir des outils d’aide ou des formations plus adaptés aux usages. Cette démarche permet d’infirmer ou de confirmer les éventuelles effets placebo ou nocebo des dissonances. Des démarches comme celles décrites dans [2]

[11] ou [19] peuvent alors être adaptées pour identifier et hiérarchiser ces dissonances et la perception de leurs effets.

Des compétences en ergonomie et psychologie cognitive pourront mettre en place ce type de méthodologie d’observation de terrains afin d’optimiser la conception d’interactions humain-machine et contrôler les dissonances potentiellement dangereuses.

Dans les trois catégories de dissonances, les opportunités et les menaces doivent être analysées à partir des outils de l’ingénierie des systèmes, des sciences cognitives et de Atteinte de la vitesse

désirée Activation du système de freinage

Activation du système d’accélération

Augmentation de la vitesse Réduction de la

vitesse Contrôle manuel d’un aquaplaning

2

Contrôle manuel

de la vitesse

1

Augmentation de la vitesse courante par rapport à la consigne

Réduction de la vitesse courante par rapport à la consigne

Activation automatique du système de freinage

Activation automatique du système d’accélération

Atteinte de la vitesse de consigne Contrôle automatique de la vitesse par le RAV

3

Contrôle manuel d’un aquaplaning Pas d’activation du

système de freinage Pas d’activation du système d’accélération

Perte de contrôle

Accident Retour à la

normale Pas de changement

de direction

Changement de direction

Activation du système de freinage

Activation du système d’accélération

Réduction du risque de perte de contrôle

Augmentation du risque de perte de contrôle

2

Contrôle manuel de la vitesse

1

(8)

l’information afin de converger vers des évaluations des conséquences potentielles. En règle générale, il ne s’agit pas d’interdire ces dissonances d’usages mais de les considérer comme des propriétés émergentes des systèmes, de les analyser afin d’identifier les failles actuelles ou à venir, et de définir de nouvelles parades permettant le contrôle des opportunités et des menaces qu’elles peuvent produire.

CONCLUSION

Cet article a présenté les prémices d’une démarche d’ingénierie cognitive pour la prise en compte des dissonances d’usages de systèmes en termes d’opportunités et menaces. Les dissonances d’usages sont considérées comme des propriétés émergentes de systèmes présentant des situations d’usages conflictuels. Ces conflits sont exprimés en termes d’opportunités ou de menaces.

Les exemples illustratifs de l’approche proposée montrent les différentes compétences investies : 1) l’ingénierie pour la modélisation des usages et du fonctionnement des systèmes ; les sciences cognitives pour la modélisation des représentations mentales de ces usages et fonctionnements par les utilisateurs et les usagers ; les sciences de l’information pour la modélisation des interactions entre systèmes et leurs interfaces de communication. Ces compétences complémentaires doivent permettre d’identifier les dissonances d’usages, de les analyser en termes d’opportunités et de menaces, et d’élaborer des priorités et des certitudes sur l’occurrence de ces conséquences.

Les analyses rétrospectives et prospectives contribuent à la construction de ces évaluations. Différents liens causaux sont à déterminer : les relations entre opportunités et menaces, et les relations entre dissonances d’usages.

Les dissonances d’usages doivent également être considérées comme des attaques potentielles pour lesquelles les menaces sont associées à des intentions de nuire aux personnes ou aux biens. Des taxonomies comme celle décrite dans [16] peuvent être intégrées dans la démarche proposée dans l’article. Ces dissonances peuvent être créées pour falsifier la perception des comportements réels d’un système ou pour prendre en main leur contrôle par exemple. Leur détection peut alors générer d’autres dissonances relatives aux contrôles des menaces qu’elles produisent. Dans les liens de causalité à prendre en compte entre dissonances d’usages, opportunités et menaces, les sources et les cibles des causes et des conséquences doivent donc être identifiées.

REMERCIEMENTS

Ces travaux ont été réalisés dans le cadre du Groupe d’Intérêt Scientifique de Recherche en Automatisation Intégrée et Systèmes Homme-Machine (GRAISyHM), avec le soutien de la Région «Hauts-de-France » (Région Nord- Pas de Calais – Picardie) dans le cadre du projet CONPETISES pour le contrôle pédagogique de tâches de conduite par systèmes automatisés. L’auteur remercie ces institutions pour l’aide apportée.

BIBLIOGRAPHIE

1. Cahen, P. (2010). Signaux faibles – mode d’emploi. Déceler les tendances, anticiper les ruptures. Eyrolles, Paris.

2. Caid, S., Hauret, D., Wolff, M., Mollard, R. (2016). Fatigue study and discourse analysis of French Unhabited Aerial Vehicle (UAV) operators to understand operational issues. Proceedings of the Ergo'IA 2016 conference, New- York: ACM, 2016

3. Chelet, J. (2016). Scandale Volkswagen : pourquoi les clients français sont laissés de côté. Capital, 22 Avril 2016.

4. Enjalbert, S., Vanderhaegen, F. (2017). A hybrid reinforced learning system to estimate resilience indicators. Engineering Applications of Artificial Intelligence, 64, 295-301.

5. Festinger, L. (1957). A theory of cognitive dissonance. Stanford, CA: Stanford University Press.

6. Gibson, J. J. (1986). The ecological approach to visual perception, Lawrence Erlbaum Associates, Hillsdale (Originally published in 1979).

7. Inagaki, T. (2008). Smart collaboration between humans and machines based on mutual understanding. Annual Reviews in Control, 32, 253-261.

8. Kervern, G.-Y. (1994). Latest advances in cindynics, Economica Editions, Paris.

9. Loiseau, F. (2017). Dieselgate : pannes en série suite au rappel de Volkswagen.

60 Millions de Consommateurs, 30 Août 2017.

10. Mevel, O. (2004). Du rôle des signaux faibles sur la reconfiguration des processus de la chaîne de valeur de l’organisation : l’exemple d’une centrale d‘achats de la grande distribution française. Thèse de doctorat, Université de Bretagne Occidentale, Décembre 2004.

11. Mollard, R., Wolff, M., Couture, N., & Clay, A. (2012). Développement d'une plate-forme d'évaluation personnalisable et adaptable pour l'étude du

comportement émotionnel en situation de multisollicitation. Le Travail Humain, 75(3), 253-277.

12. Polet, P., Vanderhaegen, F., Amalberti, R. (2003). Modelling border-line tolerated conditions of use (BTCU) and associated risks. Safety Science, 41(2–3), 111-136.

13. Polet, P., Vanderhaegen, F., Zieba, S. (2012). Iterative learning control based tools to learn from human error. Engineering Applications of Artificial Intelligence, 25(7), 1515-1522.

14. Reason, J. (2000). Human error: models and management. BMJ 2000, 320, 768–770.

15. Sedki, K., Polet, P., & Vanderhaegen, F. (2013). Using the BCD model for risk analysis: An influence diagram based approach. Engineering Applications of Artificial Intelligence, 26(9), 2172-2183.

16. Uzunov, A., Fernandez, E. B. (2014). An extensible pattern-based library and taxonomy of security threats for distributed systems. Computer Standards &

Interfaces, 36, 734–747.

17. Vanderhaegen, F. (1999). Toward a model of unreliability to study error prevention supports. Interacting With Computers, 11, 575-595.

18. Vanderhaegen, F. (2010). Human-error-based design of barriers and analysis of their uses. Cognition Technology & Work, 12, 133-142.

19. Vanderhaegen, F. (2013). Toward a reverse comic strip based approach to analyze human knowledge. IFAC Proceedings Volumes, 46(15), 304-309.

20. Vanderhaegen, F. (2014). Dissonance engineering: a new challenge to analyse risky knowledge when using a system. International Journal of Computers Communications & Control, 9(6), 750-759.

21. Vanderhaegen, F. (2016). A rule-based support system for dissonance discovery and control applied to car driving. Expert Systems With Applications, 65, 361-371.

22. Vanderhaegen, F. (2017). Towards increased systems resilience: new challenges based on dissonance control for human reliability in Cyber- Physical&Human Systems. Annual Reviews in Control, 44, 316-322 23. Vanderhaegen, F., Carsten, O. (2017). Can dissonance engineering improve risk analysis of human–machine systems? Cognition Technology & Work, 19(1), 1-12.

24. Vanderhaegen, F., Caulier, P. (2011). A multi-viewpoint system to support abductive reasoning. Information Sciences, 181(24), 5349–5363.

25. Vanderhaegen, F., Chalmé, S., Anceaux, F., Millot, P. (2006). Principles of cooperation and competition. Application to car driver behavior analysis.

Cognition Technology & Work, 8(3), 183-192.

26. Vanderhaegen, F., Jimenez, V. (2018). The amazing human factors and their dissonances for autonomous Cyber-Physical&Human Systems. First IEEE Conference on Industrial Cyber-Physical Systems, Saint-Petersbourg, Russia, 14- 18 mai 2018.

27. Vanderhaegen, F., Zieba, S. (2014). Reinforced learning systems based on merged and cumulative knowledge to predict human actions. Information Sciences, 276(20), 146-159.

28. Vanderhaegen, F., Zieba, S., Polet, P., Enjalbert, S. (2011). A Benefit/Cost/Deficit (BCD) model for learning from human errors. Reliability Engineering & System Safety, 96(7), 757-766.

Références

Documents relatifs

Vérification graphique : Utilisation de GeoGebra Il faut trouver la valeur du rayon du cylindre qui donne comme volume

En effet, lorsque la croissance est forte dans un pays, celui-ci importe davantage (de biens de consommation et de biens de production), ce qui accroît les

M (masse de la nacelle et de l’enveloppe de la montgolfière) = 800 kg ; R (rayon du ballon de la montgolfière) = 10 m, ρ (masse volumique de l’air à 20°C) = 1 ,2 kg/m3, T a

Ils sont ensuite émis sans vitesse par la source S, puis accélérés par un champ électrostatique uniforme qui règne entre S et P tel que.. U sp

Pomme, crevette, pain, steak, sardine, yaourt, cerise, croissant, huître, camembert, salade verte, pomme de terre, cuisse de poulet, brioche radis. Aliments d'origine végétale

L'eau de chaux est plus troublée lors des expirations que lors des inspirations (l'eau de chaux est restée limpide).. Voir

L'augmentation du taux d'hormones fabriquées par le cerveau déclenche le fonctionnement des appareils génitaux (testicules et ovaires). Ceci est un document Microsoft Office

Les vertébrés ont tous des points communs (le même plan d'organisation des membres, ...) : ils possèdent donc des liens de parenté communs. Copyright © SVT