• Aucun résultat trouvé

CHAPITRE IV MODÈLE D’INTERACTION

ELEMENT DE LANGAGE INTENTION EXAMPLE

5.2. Taxinomie des interactions multi-tactiles

Précédemment, nous avons écarté de notre définition le caractère intuitif du geste en rapprochant davantage le terme « naturel » à celui qui profite des compétences préalablement acquises par l’homme au cours de son existence. Jef Raskin tranche sur le sujet en déclarant que l’homme ne possède pas de telles aptitudes, qu’il ne peut « *…+ acquérir de la connaissance sans exposition préalable du concept, sans devoir passer par un stade d’apprentissage, et sans avoir à réfléchir de manière rationnelle185 » Il s’agit de mettre de côté la définition philosophique de l’intuition comme « connaissance immédiate qui ne recourt pas au raisonnement186 » et comprendre cette notion comme le pressentiment de ce qui est ou doit être. En ergonomie, l’intuitivité reflète donc davantage le caractère de prédictibilité de l’action des interactions de l’utilisateur sur les actions du système.

Je souhaitais dans ce chapitre pouvoir classifier les gestes tactiles selon leur degré de simplicité. Toutefois, la nature protéiforme du geste en interaction homme-machine est soumise à tant de facteurs hétéroclites qu’il apparaitrait rapidement autant de classes qu’il

185

« However, there is no human faculty of intuition, as the word is ordinarily meant; that is, knowledge

acquired without prior exposure to the concept, without having to go through a learning process, and without having to use rational thought. » In RASKIN Jef. The Humane Interface : New directions for designing interactive systems. Addison-Wesley Professional, 2000, 256 p.

186

Dictionnaire Historique de la Langue Francaise. Dictionnaire historique. Sous la direction d’Alain Rey. Le Robert, 2006, 4304 p.

existe de gestes différents. En effet, la complexité d’un geste est intimement liée aux facultés cognitives de l’homme, différentes d’un individu à un autre, à savoir sa capacité de mémorisation, d’adaptation et d’apprentissage. D’autre part, elle est tout autant déterminée par les aptitudes physiques de l’utilisateur comme l’habileté, l’adresse et la précision nécessaire à sa réalisation. Enfin, la complexité du geste dépend de sa forme spatiale et temporelle car plus le geste contient de mouvements (strokes), plus sa facilité d’apprentissage est réduite.

Il existe également un phénomène de standardisation de certains gestes qui sont le résultat de la popularité de systèmes tactiles comme l’iOs d’Apple et qui peuvent nuire à la classification. Dans ce cas précis, la diffusion très large des téléphones de la marque a fortement contribué à l’adoption d’un style d’interaction qui tend à se généraliser. Un exemple probant est le geste de pincement (ou pinch), qui consiste à rapprocher ou écarter le pouce et l’index simultanément afin de modifier la taille d’une image ou de la vue utilisateur. Nous serions tentés d’ajouter, comme facteur de transparence, l’appartenance d’un geste à un standard. Cependant, l’idée de définir un modèle d’interaction multi-tactile représente pour moi non seulement la volonté de créer un espace de compréhension des systèmes existants mais également d’être en mesure de créer de nouveaux styles d’interaction. Dans le cadre de l’approche conceptuelle que je défends, je ne tiendrai pas compte des styles d’interactions dominants afin de conserver la plus grande latitude possible pour la phase de développement. Ce n’est qu’après l’expérimentation et l’extension de notre modèle qu’il nous sera possible de mesurer l’influence des styles d’interaction dominants comme celui de l’iPhone.

La standardisation des interactions est d’une manière ou d’une autre inévitable et c’est en partie nécessaire pour ne pas créer la confusion chez les utilisateurs qui se retrouveraient confrontés à des modalités d’interaction différentes d’un système à un autre. Toutefois, une standardisation trop précoce pourrait bloquer la technologie à un stade primitif où certaines règles d’interaction pourraient se révéler inefficaces avec le temps, comme cela a été le cas pour la répartition des lettres sur nos claviers dont l’origine remonte aux contraintes mécaniques des machines à écrire. Car une fois qu’un modèle s’est constitué comme standard, il devient plus long et plus difficile de les faire évoluer.

Suite à ces considérations, il me semble plus logique de classifier les gestes, non pas selon leur simplicité, toute subjective, mais en m’inspirant de la classification de George et Blake qui distinguent les gestes selon leur nature fonctionnelle, détaillée précédemment dans la classification de Claude Cadoz, à savoir les gestes de la manipulation et les gestes sémiotiques (gestuelle). A cette distinction, nous ajouterons deux catégories qui nous semblent relever d’une nature légèrement différente : les gestes d’écriture et ceux mimant les interactions WIMP traditionnelles.

Gestes traditionnelles :

- Le geste d’écriture. Il s’agit du mode linguistique qui permet d’écrire directement sur l’écran afin que le système procède à une reconnaissance de caractères. La difficulté de ce mode réside davantage côté système dans le sens où les algorithmes peinent parfois à interpréter l’écriture naturelle, le cursif lié, obligeant parfois l’utilisateur à écrire des caractères séparés. La contrainte pour l’utilisateur réside dans la nécessité bien souvent d’entraîner le système à reconnaitre son écriture avec plus de précision. Bien que la reconnaissance de caractères existe dans les interfaces traditionnelles (tablette graphique, assistant personnel, etc.), les technologies multi-tactiles où le « geste nu » est sollicité, sans stylet ou accessoire, l’écriture avec le doigt peut vite se révéler imprécis et bien moins naturel.

- Le geste de dessin. C’est principalement le geste qui permet de dessiner sur la surface interactive. Les écrans multi-tactiles offrent la possibilité de dessiner avec chaque doigt de la main, voire avec les deux mains mais présentent le désavantage que la taille du doigt n’offre pas la même finesse de dessin que le stylet d’une tablette graphique par exemple. Toutefois, l’interface multi-points peut donner lieu à de nouvelles formes d’interactions comme modifier les propriétés de trait et la couleur du pinceau avec une main pendant que l’autre dessine. Il est également possible de reconnaitre la forme des figures dessinées par l’utilisateur afin d’en créer des commandes système.

Figure 58 - Illustration du geste de dessin. Manuel et bi-manuel.

Geste de manipulation :

- Interactions de style WIMP. Les gestes de manipulation concernent ceux qui permettent de modifier les propriétés d’éléments graphiques en mettant les doigts ou la main directement en contact avec l’objet d’intérêt. Parmi ces gestes, certains se distinguent par leur similitude avec des interactions classiques à la souris, comme cliquer sur un bouton, appuyer et relâcher la souris ou réaliser un glisser / déposer. La différence réside tout d’abord en ce que l’interaction tactile gestuelle propose une interaction directe, spatialement et temporellement, puisque l’objet d’intérêt est situé juste sous les doigts de la main. Ensuite, ces interactions peuvent être effectuées avec plusieurs points de contact, ce qui suppose la possibilité de créer des interactions spécifiques en fonction du nombre de doigts posés sur l’objet à manipuler. Par exemple, la désignation d’un objet se fait à un ou plusieurs doigts et

le glisser / déposer n’est réalisé qu’à partir du moment où deux doigts ou plus sont posés à l’écran.

Figure 59 - Illustration de quelques gestes de manipulation rappelant le style WIMP.

- Interactions de manipulation multi-tactiles spécifiques. D’autres gestes de manipulation, au contraire, ne correspondent à aucune interaction traditionnelle étant donné qu’ils sont réalisés grâce à plusieurs points de contact ou par l’apposition des mains sur l’écran. De plus, il est possible de caractériser ces gestes selon leur couplage avec le système. Selon le scénario d’interaction, un geste peut être associé à une ou plusieurs tâches simultanées. Plusieurs gestes peuvent quant à eux être associés à une tâche unique ou à plusieurs tâches distinctes.

Figure 60 - Illustration de quelques gestes de manipulation spécifiques.

Gestes sémiotiques

Jacob O. Wobbrock et al.187 ont proposé une classification des gestes sémiotiques qui distinguent trois catégories principales. D’une part, les gestes symboliques qui tracent à l’écran l’icone associée à une commande. Par exemple, tracer une flèche vers la gauche pour effectuer une commande de retour dans la navigation ou dessiner une croix à l’écran pour supprimer un objet ou annuler une opération en cours. D’autre part, les gestes métaphoriques qui interviennent lorsqu’ils simulent l’action sur, avec, ou comme un autre objet. Par exemple, tracer un cercle en continu peut représenter l’action sur un anneau de commande circulaire, effectuer un mouvement rapide de la droite vers la gauche peut représenter l’action de tourner la page d’un livre. Enfin, les gestes abstraits qui n’ont pas de dimensions symboliques ni métaphoriques. Ils sont associés de manière arbitraire aux

187

Wobbrock Jacob O., Morris Meredith Ringel et Wilson Andrew D. User-defined gestures for surface

computing. In Proceedings of the 27th international conference on Human factors in computing systems (CHI

commandes systèmes et possèdent un degré de conventionnalité plus important. Tenir l’index appuyé et taper avec le majeur correspond dans certains systèmes multi-tactiles à l’action du clic droit de la souris.

Figure 61 - Illustration de quelques gestes lexicaux.