HAL Id: hal-02317519
https://hal.archives-ouvertes.fr/hal-02317519
Submitted on 16 Oct 2019
HAL is a multi-disciplinary open access archive for the deposit and dissemination of sci-entific research documents, whether they are pub-lished or not. The documents may come from teaching and research institutions in France or abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignement et de recherche français ou étrangers, des laboratoires publics ou privés.
Une conception universelle mise en oeuvre via des
modes d’usages
Valérie Botherel, Denis Chêne, Hélène Joucla
To cite this version:
Valérie Botherel, Denis Chêne, Hélène Joucla. Une conception universelle mise en oeuvre via des modes d’usages. Journée annuelle du Sensolier 2019, Oct 2019, Paris, France. �hal-02317519�
mise en œuvre via des modes d'usages
Valérie Botherel
Orange XDLab Lannion valerie.botherel@orange.com
Denis Chêne
Orange XDLab Meylan denis.chene@orange.com
Hélène Joucla
Orange XDLab Rennes helene.joucla@orange.com
Mots-clés : Conception universelle, multimodalité, modes d'usages, accessibilité, handicap
1 INTRODUCTION
Les objets connectés, les tablettes et mobiles se déploient de façon exponentielle et sont toujours plus interconnectés et multimodaux. Aujourd’hui la diversité et les possibilités techniques permettent de combiner les médias et d’en consommer toujours plus. C’est par ailleurs une opportunité pour les utilisateurs aux besoins spécifiques qui coïncide avec l'obligation légale d’intégrer les utilisateurs en situations contraintes [14]. Cependant, les interfaces standard restent encore essentiellement visuo-centrées. L'accessibilité web, portée par le WAI [21] progresse depuis des années mais reste encore souvent bloquée sur des concepts d’« iso rendu ». C’est en tenant compte des besoins et caractéristiques perceptives, motrices et cognitives des utilisateurs que la répartition et la combinaison des médias doit être définie de façon pertinente. Il est aussi essentiel d’adapter les rendus, la structuration du contenu, voire même le choix des éléments d'interaction. Dans l'objectif de résoudre ces problématiques, nous décrivons ci-après les principes de multimodalité issus d'une approche de conception universelle.
2 MULTIMODALITÉ ET ALTERNATIVES
Au cours des décennies passées, les interfaces visuo-centrées se sont enrichies de médias supplémentaires. Le multimédia (par exemple un texte, une image, une vibration) et la multimodalité (qui utilise des modalités sensorielles différentes, par exemple visuelle et/ou orale et/ou kinesthésique, motrice et/ou verbale) sont des opportunités car ils permettent de proposer des variantes, des alternatives, aux médias centraux que sont l'image, le texte, la vidéo, le son [21]. Pour répondre à la diversité des besoins utilisateurs et à la nécessité d'équivalence, le concepteur doit décliner sur plusieurs média les intitulés des fonctions et les contenus.
Dans le champ des neurosciences et des sciences cognitives, des études fondamentales ont mis en évidence le rôle de l’intégration multisensorielle dans les traitements multimodaux des perceptions [17] [11] et leurs impacts sur les fonctions cognitives de haut niveau comme l'attention [19]. L'intégration multisensorielle est fondée sur des principes de maximisation de la fiabilité des sources perçues [2] [17]. Les perceptions multimodales se renforcent les unes les autres, voire même se transforment, le son impactant le visuel, le visuel impactant le son, le tactile impactant le visuel [16] et ainsi de suite. Au-delà des questions d’équivalences modales il convient donc également de travailler sur la complémentarité des modalités.
La situation multimodale facilite la classification (Marks [10]) ainsi que la reconnaissance d’objets (Newel [12]). L’intérêt de ces croisements multimodaux sont explicités dans les travaux de Lederman et Klatzky [7] portant sur la perception des textures mais pouvant être étendus au-delà. Ainsi le renforcement de la perception pourrait être issu des indices redondants (un bouton qui ressemble visuellement à un bouton et qui en plus est vocalisé par un verbe d’action sera mieux perçu comme « bouton d’action »). Certaines modalités étant plus rapides ou plus précises que d’autres, leur présence
Une conception universelle mise en œuvre via des modes d'usages Le Sensolier’19, oct. 2019, Paris
permettrait non plus de la renforcer mais de l’améliorer (un bouton peu visible présenté en même temps qu’un « son de bouton » sera mieux perçu grâce au son). Les indices divergents permettraient également d’identifier une situation problème avant qu’elle ne soit réellement problématique.
Solliciter simultanément les perceptions auditives, visuelles et tactiles des informations est essentiel en situation de malvoyance, de malentendance, ou de perception haptique altérée. Dans un cas, les perceptions auditives et tactiles viennent compenser les défaillances visuelles en améliorant ainsi les capacités d’interaction. Inversement en situation de malentendance les perceptions visuelles et tactiles viennent compenser les défaillances auditives. Enfin en situation d'altération haptique les perceptions visuelles et audio viennent compenser la première.
Fogassi & Gallese [3] montrent que l’action est un élément clé de l’intégration multisensorielle. Dans la vision classique séquentielle de l’intégration multisensorielle, ce sont les aires associatives qui effectuent l’intégration des modalités et produisent le percept final, qui ensuite est fourni aux aires motrices afin d’orienter l’exécution du mouvement. Cependant Goodale [5] montre que les informations visuelles contribuent grandement au contrôle de l’action au cours de la production de celle-ci. Dans le contexte de l'interaction homme-machine, la perception se fait et n’a de sens que dans un but précis, celui de guider l’action dans une boucle perception-action. Les perceptions sensorielles informent sur les actions possibles, et à son tour, le résultat de l’action engendre de nouvelles perceptions sur les événements qui ont alors été produits [4]. Ce sont les affordances visuelles, tactiles et auditives qui permettent au système de transmettre les informations d’actions à l’utilisateur.
Mais au-delà des affordances, les commandes du système doivent pouvoir être actionnées par tout type d’utilisateur, quelles que soient leurs contraintes d’action (gestes limités, parole altérée…). Il est alors nécessaire que le système propose des actions multimodales pour pallier la diversité de ces contraintes. Ainsi l'interface doit permettre de substituer les modalités de commande. Par exemple il est possible de pointer puis cliquer, ou de pointer seulement (sans cliquer, juste en survolant les éléments), ou de pointer en manipulant un focus en dehors de la zone pointée (pointage dé-colocalisé), ou ne pas pointer du tout mais utiliser des gestes ou un mot de commande [1]. L'interface doit également permettre de compléter les modalités de commande via par exemple des combinaisons modales visuo-haptique (pointage, navigation clavier), audio-haptique (pointer en fonction d’une localisation sonore ou d’un descripteur sonore, utilisé par les non-voyants), commande vocale à partir d’un rendu visuel et bien d’autres combinaisons encore peu usitées...
Rizzolati et Luppino [15] montrent qu’au-delà du contrôle de l’action les inputs sensoriels contribuent en sus du moteur à la perception spatiale et à la compréhension de l’information. De leur côté Fogassi & Gallese [3] montrent que les aires pariétales (dédiées aux propriétés motrices) facilitent également l’intégration multisensorielle en fournissant un codage spatial et dynamique compatible avec l’action motrice. Action et perception sont étroitement imbriqués et participent tous deux à la compréhension. La connaissance _du contenu et des capacités d'action d'une interface est constituée d'associations entre perceptions et actions ne pouvant être comprises que dans le contexte de la dynamique du comportement (énaction [21]). Une interface étant un système perçu et actionné, c'est en termes de complétions perceptuelles, telles que Lenay [8] les définit, qu'il faut considérer les contenus et commandes disponibles sur ce dernier.
Au-delà des transpositions modales (de l'audio au tactile, du visuel à l'audio…), et des articulations entre modalités sensorielles et perceptives (modalité sensorielle combinée à une modalité actionnelle
permettant la construction du percept), les contenus eux-mêmes peuvent être modifiés en fonction des profils utilisateurs. Ainsi un texte standard nécessitera d'être proposé en FALC1, ou bien en LSF2, un menu de fonctions pourra être proposé en mode simplifié proposant moins de choix, et davantage de contenus d'assistance.
Ainsi donc, pour interagir avec un système, l’utilisateur doit pouvoir le percevoir correctement (par l'action), le traiter cognitivement, et agir dessus de façon fiable. La déclinaison multimodale, substituante ou complémentaire, des facteurs perceptifs, actionnels et cognitifs est le prérequis d’une conception à destination de tous.
3 MÉTHODOLOGIE DE CONCEPTION UNIVERSELLE
Les règles sociales universelles, les invariants organisant les sociétés humaines n'étaient pas l'objectif des recherches de Claude Lévi-Strauss, fondateur du structuralisme. C’était au contraire les différences, la diversité. Nous sommes tous très différents mais pouvons tout de même nous comprendre du fait de nos structures mentales communes [9]. L’enjeu de la conception universelle est du même ordre. Il s’agit de mettre en œuvre des structures communes permettant les déclinaisons nécessaires pour répondre à la grande diversité des besoins utilisateurs [1][18].
La définition du « Universal Design » des Nations Unies, indique que « c’est la conception de produits, environnements et programmes et services utilisables par tous, au sens le plus large possible, sans besoin d’adaptation ni de conception spécifique ». Le message n'est pas qu'une sorte d’interface moyenne toute puissante va résoudre tous les problèmes. C'est plutôt qu’il faut anticiper la diversité dans la conception, sans avoir à effectuer a posteriori des adaptations spécifiques souvent coûteuses et parfois impossibles. Or la prise en compte de la diversité impacte fortement la complexité de la conception.
Nos structures perceptives sont universelles mais en fonction des parcours de vie de chacun elles sont plus ou moins disponibles, plus ou moins développées, entraînées. Certains sont lésés de la perception de certains média, d’autres ont la possibilité de les combiner. Les besoins utilisateurs sont à la fois très nombreux et très différents [6] ce qui génère maintes solutions d’interactions et de nombreux réglages potentiels. Seule une structure basée sur des principes génériques et des invariants permet de réduire cette dernière.
Côté utilisateur, la complexité issue des variabilités interindividuelles peut être réduite par la mise en place de modes d’usages préconfigurés. Chaque ensemble de contraintes, perceptives, actionnelles et cognitives définissent des interactions homme-machine spécifiques. Par exemple, des contraintes visuelles liées à la taille de présentation des objets de l’interface vont pouvoir être résolues par un affichage zoomé de l’interface, ce qui va générer une navigation supplémentaire au sein de l’interface. Chaque combinaison définit des jeux d’interaction particuliers [13]. Nous les appelons des profils d’interaction, ou encore des modes d’usage. Ainsi, le mode Vision+, qui corrige l’apparence des rendus (gros textes, bons contrastes et multicolore) en fonction de quelques contraintes visuelles se distingue fortement du mode Vision++ qui corrige lui aussi les rendus, mais de façon nettement plus conséquente (très gros textes, uniquement bicolore). Dans le premier cas l’impact sur la navigation est moindre, dans le second il est conséquent, d’où la mise en place d’un mode d’usage qui lui est propre. Les modes d’usage préconfigurés sont en fait des pré-réglages de combinaisons des paramètres perceptifs, actionnels et cognitifs.
1 Facile À Lire et à Comprendre 2 Langue des Signes Française
Une conception universelle mise en œuvre via des modes d'usages Le Sensolier’19, oct. 2019, Paris
Ces multiples réglages potentiels génèrent une forte complexité sur le plan de la conception. Une approche de conception progressive permet de sérier et organiser cette complexité, les choix de combinaisons de modalités étant constamment définis à l’aune des besoins utilisateurs. La méthode de conception consiste ainsi à se baser en premier lieu sur la résolution des problématiques d’interaction les plus extrêmes puis à graduellement intégrer les autres façons d’interagir. Les cas extrêmes sont ceux où la perception de l’utilisateur va être limitée à une seule modalité (tactile, visuelle, auditive). C’est le cas aussi pour les capacités d’action réduites à une seule action possible pouvant être générée via un bouton unique, une pipette à souffle, un clignement. Cela englobe enfin les capacités minimales de traitement cognitif de l’information (non connaissance des objets numériques, mémoire à court terme réduite, faibles capacités d’apprentissage, illettrisme, représentation catégorielle limitée…).
Une telle approche est opposée à la démarche actuelle qui tente de rendre compatible a posteriori une interface standard visuo-centrée via des Aides Techniques vocalisantes, ou grossissantes, ou défilantes. Ce faisant elles imposent à l’utilisateur des paradigmes visuels dont il n’a que faire. Par exemple, des onglets forment un objet d’interface présenté de façon horizontale. Il n’en reste pas moins une liste (horizontale, certes). Or la notion de liste horizontale ou liste verticale n’a pas de sens pour les utilisateurs non-voyants consultant l’interface via une synthèse vocale. Au-delà de ces considérations interactionnelles, d’autres facteurs différenciants méritent d'être soulignés, tels la possibilité de continuité entre les différents modes d'usage (ce que ne permettent pas les aides techniques), et le coût global moindre pour la société (l'écologie développementale d'une solution de conception universelle étant bien moindre que celui basé sur des aides techniques).
4 MISE EN ŒUVRE
Ces principes sont déclinés au sein d’une interface tactile disponible sur téléphone mobile3. L’application propose plusieurs modes d’usage tels que Vision+ et Vision ++ optimisés pour les contraintes visuelles, le mode Microgeste destiné aux personnes manquant de force et Moteur+ avec utilisation, par exemple, du dos de la main et le mode Facile+ optimisé pour les novices.
Ces modes d’usage variés intègrent des éléments fondamentaux communs composant la « base » de l’interaction. Parmi ceux-ci, l’objet d’interaction « liste » répond au besoin de simplicité et est compatible avec toutes les situations d’usages y compris les plus contraintes. Les commandes elles-mêmes sont simples et appropriées. La manipulation est sécurisée par la décorrélation des commandes de sélection et de validation et de grands boutons. Des ajustements multimodaux sont possibles aussi bien en termes de rendus qu'au niveau des commandes. D’autres modes d’usages sont en cours de finalisation : mode vocalisation à destination des personnes non-voyantes, mode graphique pour les personnes illettrées, mode Langue des Signes Française (LSF) pour les personnes sourdes signantes.
5 CONCLUSION
En passant en revue un certain nombre de situations contraintes inhérentes aux déficiences sensorielles, motrices, cognitives, nous avons illustré l’importance, dans le contexte de l'interaction homme-machine, de proposer des modalités alternatives pour la présentation des informations et les commandes d’action. Au regard des capacités d'intégration sensorielle des individus nous soulignons l’apport de la multimodalité pour répondre aux problématiques d’interaction. En exposant la méthodologie de conception universelle mise en œuvre, nous questionnons les vaines tentatives de rendre accessible des
interfaces déjà développées, ou d’imposer à tous une seule et même interface qui ne pourrait répondre aux capacités de chacun. Le premier principe fondamental de la conception universelle proposé ici est de penser dès le départ à la résolution des problématiques d’interaction les plus extrêmes pour ensuite décliner les modes d’usages de situations moins contraintes. Le cadre fondamental propose en second d'initier la conception par des jeux d’interactions spécifiques donnant lieu à des préréglages, nommés « modes d’usages », optimisés pour chaque type de contraintes (visuelle, auditive, motrice, cognitive). Ces principes déclinés dans un prototype d’interface ont été exposés pour plusieurs modes d’usages spécifiques. Comme c'est souvent le cas dans le cadre de l'innovation relative à l'accessibilité, les avancées concernant l'interaction en situation contrainte sont autant de bénéfices pour le confort de tous.
RÉFÉRENCES
[1] Chêne, Denis, Petit, Éric, & Zijp-Rouzier Sophie. 2016.
How to Achieve Design for All. Chapter · July 2016. DOI: 10.1007/978-3-319-40244-4_12, In book: Universal Access in Human-Computer Interaction. Interaction Techniques and Environments, pp.117-128 (HCII 2016).
[2] Ernst, M. O., & Bülthoff, H. H. 2004. Merging the
senses into a robust percept. Trends in Cognitive Sciences, 8 (4), pp. 162–169 (2004).
[3] Fogassi, L. & Gallese, V. 2004. Action as a binding key
to multisensory integration. In Calvert, Spence & Stein (Eds.) The handbook of multisensory processes, The MA: MIT press / Bradford books –26– pp. 425-441 (2004).
[4] Gibson, E.J., 1997. An ecological psychologist’s
prolegomena for perceptual development: a functional approach. In: Dent-Read, C., Zukow-Goldring, P. (Eds.), Evolving Explanations of Development: Ecological Approaches to Organism-Environment Systems. American Psychological Association, Washington, DC, pp. 23–45 (1997).
[5] Goodale, M.A. 2000. Perception and action in the
human visual system. In M.S. Gazzaniga (Ed.), The new cognitive neurosciences, 2nd ed. MA: MIT Press / Bradford books, pp. 365-378 (2000).
[6] ISO/IEC 29138-1 Information technology — User
interface accessibility — Part 1: User accessibility needs
[7] Lederman S. J., Klatzky R. L. 2004. Multisensory
texture perception. In Calvert, Spence & Stein (Eds.) The handbook of multisensory processes, The MA: MIT press / Bradford books –6– pp. 107-122 (2004).
[8] Lenay, C. & Tixier, M. (2018). From sensory
substitution to perceptual supplementation. In Living Machines: A Handbook of Research in Biomimetic and Biohybrid Systems, Ch.58, pp. 552-559.
[9] Loyer, Emmanuelle (2015). In book Lévi-Strauss,
Flammarion (Ed.), Paris, 2015.
[10] Marks, L. E. 2004. Cross-modal interactions in speeded
classification. In Calvert, Spence & Stein (Eds.) The handbook of multisensory processes, The MA: MIT press / Bradford books –6– pp. 85-105 (2004).
[11] Meredith, M.A. 2002. On the neuronal basis for
multisensory convergence: A brief overview. Cogn. Brain Res. 14, 31–40 (2002).
[12] Newel, F. N. 2004. Cross-modal object recognition. In
Calvert, Spence & Stein (Eds.) The handbook of multisensory processes, The MA: MIT press / Bradford books –8– pp. 123-139 (2004).
[13] Petit, É., Chêne, D. 2015. MenuDfA : vers une
navigation gestuelle tactile conçue pour tous. DOI : 10.13140/2.1.4929.2164, (2015).
[14] Proposal for a DIRECTIVE OF THE EUROPEAN
PARLIAMENT AND OF THE COUNCIL on the approximation of the laws, regulations and administrative provisions of the Member States as regards the accessibility requirements for products and services COM/2015/0615 final - 2015/0278 (COD). Document 52015PC0615
[15] Rizzolati, G. & Luppino, G. 2001. The cortical motor
system. In Neuron, 31,pp. 889-901 (2001).
[16] Shams, L., Kamitani, Y., Shimojo, S., 2004.
Modulations of visual perception by sound, In Calvert G., Spence C. and Stein B:E (Eds), The handbook of multisensory processes. MA: MIT Press / Bradford books, 2, pp. 27-34 (2004).
[17] Stein, B. E., & Meredith, M. A. 1993. Cognitive
neuroscience. The merging of the senses. Cambridge, MA, US: The MIT Press (1993).
[18] Stephanidis, Constantine & Akoumianakis,
Demosthenes & Savidis, Anthony. 2001. Universal Design in Human-Computer Interaction. In book: International Encyclopedia of Ergonomics and Human Factors, Vol. 1, Publisher: Taylor & Francis, Editors: W. Karwowski, pp.741-745 (2001).
[19] Talsma, D., Senkowski, D., Soto-Faraco, S., and
Woldorff M. G. .2010. The multifaceted interplay between attention and multisensory integration, Trends in Cognitive Sciences, 14, pp. 400-410.
[20] United Nations Convention on the Rights of Persons
with Disabilities, Art. 2. (2006)
[21] Varela, F., Thompson, E., Rosch, E. (1996).
L'Inscription corporelle de l'esprit : sciences cognitives et expérience humaine, Seuil, Paris, 1996.
[22] Web Accessibility Initiative. Resources on Alternative