• Aucun résultat trouvé

Une conception universelle mise en oeuvre via des modes d'usages

N/A
N/A
Protected

Academic year: 2021

Partager "Une conception universelle mise en oeuvre via des modes d'usages"

Copied!
7
0
0

Texte intégral

(1)

HAL Id: hal-02317519

https://hal.archives-ouvertes.fr/hal-02317519

Submitted on 16 Oct 2019

HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.

Une conception universelle mise en oeuvre via des

modes d’usages

Valérie Botherel, Denis Chêne, Hélène Joucla

To cite this version:

Valérie Botherel, Denis Chêne, Hélène Joucla. Une conception universelle mise en oeuvre via des modes d’usages. Journée annuelle du Sensolier 2019, Oct 2019, Paris, France. �hal-02317519�

(2)

mise en œuvre via des modes d'usages

Valérie Botherel

Orange XDLab Lannion valerie.botherel@orange.com

Denis Chêne

Orange XDLab Meylan denis.chene@orange.com

Hélène Joucla

Orange XDLab Rennes helene.joucla@orange.com

Mots-clés : Conception universelle, multimodalité, modes d'usages, accessibilité, handicap

1 INTRODUCTION

Les objets connectés, les tablettes et mobiles se déploient de façon exponentielle et sont toujours plus interconnectés et multimodaux. Aujourd’hui la diversité et les possibilités techniques permettent de combiner les médias et d’en consommer toujours plus. C’est par ailleurs une opportunité pour les utilisateurs aux besoins spécifiques qui coïncide avec l'obligation légale d’intégrer les utilisateurs en situations contraintes [14]. Cependant, les interfaces standard restent encore essentiellement visuo-centrées. L'accessibilité web, portée par le WAI [21] progresse depuis des années mais reste encore souvent bloquée sur des concepts d’« iso rendu ». C’est en tenant compte des besoins et caractéristiques perceptives, motrices et cognitives des utilisateurs que la répartition et la combinaison des médias doit être définie de façon pertinente. Il est aussi essentiel d’adapter les rendus, la structuration du contenu, voire même le choix des éléments d'interaction. Dans l'objectif de résoudre ces problématiques, nous décrivons ci-après les principes de multimodalité issus d'une approche de conception universelle.

2 MULTIMODALITÉ ET ALTERNATIVES

Au cours des décennies passées, les interfaces visuo-centrées se sont enrichies de médias supplémentaires. Le multimédia (par exemple un texte, une image, une vibration) et la multimodalité (qui utilise des modalités sensorielles différentes, par exemple visuelle et/ou orale et/ou kinesthésique, motrice et/ou verbale) sont des opportunités car ils permettent de proposer des variantes, des alternatives, aux médias centraux que sont l'image, le texte, la vidéo, le son [21]. Pour répondre à la diversité des besoins utilisateurs et à la nécessité d'équivalence, le concepteur doit décliner sur plusieurs média les intitulés des fonctions et les contenus.

Dans le champ des neurosciences et des sciences cognitives, des études fondamentales ont mis en évidence le rôle de l’intégration multisensorielle dans les traitements multimodaux des perceptions [17] [11] et leurs impacts sur les fonctions cognitives de haut niveau comme l'attention [19]. L'intégration multisensorielle est fondée sur des principes de maximisation de la fiabilité des sources perçues [2] [17]. Les perceptions multimodales se renforcent les unes les autres, voire même se transforment, le son impactant le visuel, le visuel impactant le son, le tactile impactant le visuel [16] et ainsi de suite. Au-delà des questions d’équivalences modales il convient donc également de travailler sur la complémentarité des modalités.

La situation multimodale facilite la classification (Marks [10]) ainsi que la reconnaissance d’objets (Newel [12]). L’intérêt de ces croisements multimodaux sont explicités dans les travaux de Lederman et Klatzky [7] portant sur la perception des textures mais pouvant être étendus au-delà. Ainsi le renforcement de la perception pourrait être issu des indices redondants (un bouton qui ressemble visuellement à un bouton et qui en plus est vocalisé par un verbe d’action sera mieux perçu comme « bouton d’action »). Certaines modalités étant plus rapides ou plus précises que d’autres, leur présence

(3)

Une conception universelle mise en œuvre via des modes d'usages Le Sensolier’19, oct. 2019, Paris

permettrait non plus de la renforcer mais de l’améliorer (un bouton peu visible présenté en même temps qu’un « son de bouton » sera mieux perçu grâce au son). Les indices divergents permettraient également d’identifier une situation problème avant qu’elle ne soit réellement problématique.

Solliciter simultanément les perceptions auditives, visuelles et tactiles des informations est essentiel en situation de malvoyance, de malentendance, ou de perception haptique altérée. Dans un cas, les perceptions auditives et tactiles viennent compenser les défaillances visuelles en améliorant ainsi les capacités d’interaction. Inversement en situation de malentendance les perceptions visuelles et tactiles viennent compenser les défaillances auditives. Enfin en situation d'altération haptique les perceptions visuelles et audio viennent compenser la première.

Fogassi & Gallese [3] montrent que l’action est un élément clé de l’intégration multisensorielle. Dans la vision classique séquentielle de l’intégration multisensorielle, ce sont les aires associatives qui effectuent l’intégration des modalités et produisent le percept final, qui ensuite est fourni aux aires motrices afin d’orienter l’exécution du mouvement. Cependant Goodale [5] montre que les informations visuelles contribuent grandement au contrôle de l’action au cours de la production de celle-ci. Dans le contexte de l'interaction homme-machine, la perception se fait et n’a de sens que dans un but précis, celui de guider l’action dans une boucle perception-action. Les perceptions sensorielles informent sur les actions possibles, et à son tour, le résultat de l’action engendre de nouvelles perceptions sur les événements qui ont alors été produits [4]. Ce sont les affordances visuelles, tactiles et auditives qui permettent au système de transmettre les informations d’actions à l’utilisateur.

Mais au-delà des affordances, les commandes du système doivent pouvoir être actionnées par tout type d’utilisateur, quelles que soient leurs contraintes d’action (gestes limités, parole altérée…). Il est alors nécessaire que le système propose des actions multimodales pour pallier la diversité de ces contraintes. Ainsi l'interface doit permettre de substituer les modalités de commande. Par exemple il est possible de pointer puis cliquer, ou de pointer seulement (sans cliquer, juste en survolant les éléments), ou de pointer en manipulant un focus en dehors de la zone pointée (pointage dé-colocalisé), ou ne pas pointer du tout mais utiliser des gestes ou un mot de commande [1]. L'interface doit également permettre de compléter les modalités de commande via par exemple des combinaisons modales visuo-haptique (pointage, navigation clavier), audio-haptique (pointer en fonction d’une localisation sonore ou d’un descripteur sonore, utilisé par les non-voyants), commande vocale à partir d’un rendu visuel et bien d’autres combinaisons encore peu usitées...

Rizzolati et Luppino [15] montrent qu’au-delà du contrôle de l’action les inputs sensoriels contribuent en sus du moteur à la perception spatiale et à la compréhension de l’information. De leur côté Fogassi & Gallese [3] montrent que les aires pariétales (dédiées aux propriétés motrices) facilitent également l’intégration multisensorielle en fournissant un codage spatial et dynamique compatible avec l’action motrice. Action et perception sont étroitement imbriqués et participent tous deux à la compréhension. La connaissance _du contenu et des capacités d'action d'une interface est constituée d'associations entre perceptions et actions ne pouvant être comprises que dans le contexte de la dynamique du comportement (énaction [21]). Une interface étant un système perçu et actionné, c'est en termes de complétions perceptuelles, telles que Lenay [8] les définit, qu'il faut considérer les contenus et commandes disponibles sur ce dernier.

Au-delà des transpositions modales (de l'audio au tactile, du visuel à l'audio…), et des articulations entre modalités sensorielles et perceptives (modalité sensorielle combinée à une modalité actionnelle

(4)

permettant la construction du percept), les contenus eux-mêmes peuvent être modifiés en fonction des profils utilisateurs. Ainsi un texte standard nécessitera d'être proposé en FALC1, ou bien en LSF2, un menu de fonctions pourra être proposé en mode simplifié proposant moins de choix, et davantage de contenus d'assistance.

Ainsi donc, pour interagir avec un système, l’utilisateur doit pouvoir le percevoir correctement (par l'action), le traiter cognitivement, et agir dessus de façon fiable. La déclinaison multimodale, substituante ou complémentaire, des facteurs perceptifs, actionnels et cognitifs est le prérequis d’une conception à destination de tous.

3 MÉTHODOLOGIE DE CONCEPTION UNIVERSELLE

Les règles sociales universelles, les invariants organisant les sociétés humaines n'étaient pas l'objectif des recherches de Claude Lévi-Strauss, fondateur du structuralisme. C’était au contraire les différences, la diversité. Nous sommes tous très différents mais pouvons tout de même nous comprendre du fait de nos structures mentales communes [9]. L’enjeu de la conception universelle est du même ordre. Il s’agit de mettre en œuvre des structures communes permettant les déclinaisons nécessaires pour répondre à la grande diversité des besoins utilisateurs [1][18].

La définition du « Universal Design »  des Nations Unies, indique que « c’est la conception de produits, environnements et programmes et services utilisables par tous, au sens le plus large possible, sans besoin d’adaptation ni de conception spécifique ». Le message n'est pas qu'une sorte d’interface moyenne toute puissante va résoudre tous les problèmes. C'est plutôt qu’il faut anticiper la diversité dans la conception, sans avoir à effectuer a posteriori des adaptations spécifiques souvent coûteuses et parfois impossibles. Or la prise en compte de la diversité impacte fortement la complexité de la conception.

Nos structures perceptives sont universelles mais en fonction des parcours de vie de chacun elles sont plus ou moins disponibles, plus ou moins développées, entraînées. Certains sont lésés de la perception de certains média, d’autres ont la possibilité de les combiner. Les besoins utilisateurs sont à la fois très nombreux et très différents [6] ce qui génère maintes solutions d’interactions et de nombreux réglages potentiels. Seule une structure basée sur des principes génériques et des invariants permet de réduire cette dernière.

Côté utilisateur, la complexité issue des variabilités interindividuelles peut être réduite par la mise en place de modes d’usages préconfigurés. Chaque ensemble de contraintes, perceptives, actionnelles et cognitives définissent des interactions homme-machine spécifiques. Par exemple, des contraintes visuelles liées à la taille de présentation des objets de l’interface vont pouvoir être résolues par un affichage zoomé de l’interface, ce qui va générer une navigation supplémentaire au sein de l’interface. Chaque combinaison définit des jeux d’interaction particuliers [13]. Nous les appelons des profils d’interaction, ou encore des modes d’usage. Ainsi, le mode Vision+, qui corrige l’apparence des rendus (gros textes, bons contrastes et multicolore) en fonction de quelques contraintes visuelles se distingue fortement du mode Vision++ qui corrige lui aussi les rendus, mais de façon nettement plus conséquente (très gros textes, uniquement bicolore). Dans le premier cas l’impact sur la navigation est moindre, dans le second il est conséquent, d’où la mise en place d’un mode d’usage qui lui est propre. Les modes d’usage préconfigurés sont en fait des pré-réglages de combinaisons des paramètres perceptifs, actionnels et cognitifs.

1 Facile À Lire et à Comprendre 2 Langue des Signes Française

(5)

Une conception universelle mise en œuvre via des modes d'usages Le Sensolier’19, oct. 2019, Paris

Ces multiples réglages potentiels génèrent une forte complexité sur le plan de la conception. Une approche de conception progressive permet de sérier et organiser cette complexité, les choix de combinaisons de modalités étant constamment définis à l’aune des besoins utilisateurs. La méthode de conception consiste ainsi à se baser en premier lieu sur la résolution des problématiques d’interaction les plus extrêmes puis à graduellement intégrer les autres façons d’interagir. Les cas extrêmes sont ceux où la perception de l’utilisateur va être limitée à une seule modalité (tactile, visuelle, auditive). C’est le cas aussi pour les capacités d’action réduites à une seule action possible pouvant être générée via un bouton unique, une pipette à souffle, un clignement. Cela englobe enfin les capacités minimales de traitement cognitif de l’information (non connaissance des objets numériques, mémoire à court terme réduite, faibles capacités d’apprentissage, illettrisme, représentation catégorielle limitée…).

Une telle approche est opposée à la démarche actuelle qui tente de rendre compatible a posteriori une interface standard visuo-centrée via des Aides Techniques vocalisantes, ou grossissantes, ou défilantes. Ce faisant elles imposent à l’utilisateur des paradigmes visuels dont il n’a que faire. Par exemple, des onglets forment un objet d’interface présenté de façon horizontale. Il n’en reste pas moins une liste (horizontale, certes). Or la notion de liste horizontale ou liste verticale n’a pas de sens pour les utilisateurs non-voyants consultant l’interface via une synthèse vocale. Au-delà de ces considérations interactionnelles, d’autres facteurs différenciants méritent d'être soulignés, tels la possibilité de continuité entre les différents modes d'usage (ce que ne permettent pas les aides techniques), et le coût global moindre pour la société (l'écologie développementale d'une solution de conception universelle étant bien moindre que celui basé sur des aides techniques).

4 MISE EN ŒUVRE

Ces principes sont déclinés au sein d’une interface tactile disponible sur téléphone mobile3. L’application propose plusieurs modes d’usage tels que Vision+ et Vision ++ optimisés pour les contraintes visuelles, le mode Microgeste destiné aux personnes manquant de force et Moteur+ avec utilisation, par exemple, du dos de la main et le mode Facile+ optimisé pour les novices.

Ces modes d’usage variés intègrent des éléments fondamentaux communs composant la « base » de l’interaction. Parmi ceux-ci, l’objet d’interaction « liste » répond au besoin de simplicité et est compatible avec toutes les situations d’usages y compris les plus contraintes. Les commandes elles-mêmes sont simples et appropriées. La manipulation est sécurisée par la décorrélation des commandes de sélection et de validation et de grands boutons. Des ajustements multimodaux sont possibles aussi bien en termes de rendus qu'au niveau des commandes. D’autres modes d’usages sont en cours de finalisation : mode vocalisation à destination des personnes non-voyantes, mode graphique pour les personnes illettrées, mode Langue des Signes Française (LSF) pour les personnes sourdes signantes.

5 CONCLUSION

En passant en revue un certain nombre de situations contraintes inhérentes aux déficiences sensorielles, motrices, cognitives, nous avons illustré l’importance, dans le contexte de l'interaction homme-machine, de proposer des modalités alternatives pour la présentation des informations et les commandes d’action. Au regard des capacités d'intégration sensorielle des individus nous soulignons l’apport de la multimodalité pour répondre aux problématiques d’interaction. En exposant la méthodologie de conception universelle mise en œuvre, nous questionnons les vaines tentatives de rendre accessible des

(6)

interfaces déjà développées, ou d’imposer à tous une seule et même interface qui ne pourrait répondre aux capacités de chacun. Le premier principe fondamental de la conception universelle proposé ici est de penser dès le départ à la résolution des problématiques d’interaction les plus extrêmes pour ensuite décliner les modes d’usages de situations moins contraintes. Le cadre fondamental propose en second d'initier la conception par des jeux d’interactions spécifiques donnant lieu à des préréglages, nommés « modes d’usages », optimisés pour chaque type de contraintes (visuelle, auditive, motrice, cognitive). Ces principes déclinés dans un prototype d’interface ont été exposés pour plusieurs modes d’usages spécifiques. Comme c'est souvent le cas dans le cadre de l'innovation relative à l'accessibilité, les avancées concernant l'interaction en situation contrainte sont autant de bénéfices pour le confort de tous.

RÉFÉRENCES

[1] Chêne, Denis, Petit, Éric, & Zijp-Rouzier Sophie. 2016.

How to Achieve Design for All. Chapter · July 2016. DOI: 10.1007/978-3-319-40244-4_12, In book: Universal Access in Human-Computer Interaction. Interaction Techniques and Environments, pp.117-128 (HCII 2016).

[2] Ernst, M. O., & Bülthoff, H. H. 2004. Merging the

senses into a robust percept. Trends in Cognitive Sciences, 8 (4), pp. 162–169 (2004).

[3] Fogassi, L. & Gallese, V. 2004. Action as a binding key

to multisensory integration. In Calvert, Spence & Stein (Eds.) The handbook of multisensory processes, The MA: MIT press / Bradford books –26– pp. 425-441 (2004).

[4] Gibson, E.J., 1997. An ecological psychologist’s

prolegomena for perceptual development: a functional approach. In: Dent-Read, C., Zukow-Goldring, P. (Eds.), Evolving Explanations of Development: Ecological Approaches to Organism-Environment Systems. American Psychological Association, Washington, DC, pp. 23–45 (1997).

[5] Goodale, M.A. 2000. Perception and action in the

human visual system. In M.S. Gazzaniga (Ed.), The new cognitive neurosciences, 2nd ed. MA: MIT Press / Bradford books, pp. 365-378 (2000).

[6] ISO/IEC 29138-1 Information technology — User

interface accessibility — Part 1: User accessibility needs

[7] Lederman S. J., Klatzky R. L. 2004. Multisensory

texture perception. In Calvert, Spence & Stein (Eds.) The handbook of multisensory processes, The MA: MIT press / Bradford books –6– pp. 107-122 (2004).

[8] Lenay, C. & Tixier, M. (2018). From sensory

substitution to perceptual supplementation. In Living Machines: A Handbook of Research in Biomimetic and Biohybrid Systems, Ch.58, pp. 552-559.

[9] Loyer, Emmanuelle (2015). In book Lévi-Strauss,

Flammarion (Ed.), Paris, 2015.

[10] Marks, L. E. 2004. Cross-modal interactions in speeded

classification. In Calvert, Spence & Stein (Eds.) The handbook of multisensory processes, The MA: MIT press / Bradford books –6– pp. 85-105 (2004).

[11] Meredith, M.A. 2002. On the neuronal basis for

multisensory convergence: A brief overview. Cogn. Brain Res. 14, 31–40 (2002).

[12] Newel, F. N. 2004. Cross-modal object recognition. In

Calvert, Spence & Stein (Eds.) The handbook of multisensory processes, The MA: MIT press / Bradford books –8– pp. 123-139 (2004).

[13] Petit, É., Chêne, D. 2015. MenuDfA : vers une

navigation gestuelle tactile conçue pour tous. DOI : 10.13140/2.1.4929.2164, (2015).

[14] Proposal for a DIRECTIVE OF THE EUROPEAN

PARLIAMENT AND OF THE COUNCIL on the approximation of the laws, regulations and administrative provisions of the Member States as regards the accessibility requirements for products and services COM/2015/0615 final - 2015/0278 (COD). Document 52015PC0615

[15] Rizzolati, G. & Luppino, G. 2001. The cortical motor

system. In Neuron, 31,pp. 889-901 (2001).

[16] Shams, L., Kamitani, Y., Shimojo, S., 2004.

Modulations of visual perception by sound, In Calvert G., Spence C. and Stein B:E (Eds), The handbook of multisensory processes. MA: MIT Press / Bradford books, 2, pp. 27-34 (2004).

[17] Stein, B. E., & Meredith, M. A. 1993. Cognitive

neuroscience. The merging of the senses. Cambridge, MA, US: The MIT Press (1993).

[18] Stephanidis, Constantine & Akoumianakis,

Demosthenes & Savidis, Anthony. 2001. Universal Design in Human-Computer Interaction. In book: International Encyclopedia of Ergonomics and Human Factors, Vol. 1, Publisher: Taylor & Francis, Editors: W. Karwowski, pp.741-745 (2001).

[19] Talsma, D., Senkowski, D., Soto-Faraco, S., and

Woldorff M. G. .2010. The multifaceted interplay between attention and multisensory integration, Trends in Cognitive Sciences, 14, pp. 400-410.

[20] United Nations Convention on the Rights of Persons

with Disabilities, Art. 2. (2006)

[21] Varela, F., Thompson, E., Rosch, E. (1996).

L'Inscription corporelle de l'esprit : sciences cognitives et expérience humaine, Seuil, Paris, 1996.

[22] Web Accessibility Initiative. Resources on Alternative

(7)

Références

Documents relatifs

Avec des caractéristiques descriptives, l’Étape 2 de la recherche a inclus le début du parcours empirique, avec la structuration de la base conceptuelle qui avait pour

Une fois ce contexte de recherche déini, nous analyserons la conception même du logiciel effectivement pensé comme un dispositif pour enseigner et apprendre la lecture littéraire,

More frequent and intense dry spells are a great concern for rainfed agriculture, as deficit of water at the sensitive stages of crop growth significantly reduces potential crop

[r]

Soumis à une force ou à plusieurs forces qui ne se compensent pas, un corps ne peut pas avoir un mouvement rectiligne uniforme ni rester

The developed model has been implemented in Saber, Pspice and Psim softwares and compared to the experimental curves presented by the SiC MOSFET data sheet for its validation..

b).. Effet des pôles auxiliaires hautes fréquences sur les fonctions de sensibilité d’un système avec retard : a) fonction de sensibilité bruit-sortie ;. b) fonction de

2- Montrer que l’intensité que la force d’attraction universelle exercée par le Soleil sur la Lune varie entre deux valeurs.