• Aucun résultat trouvé

4.4 Sélection de l’objet : interaction bimanuelle

4.4.4 La manipulation

En travail coopératif synchrone, après la désignation, c’est la manipulation d’objet qui est la plus fréquente. Dans les situations de réunion, cibles de SpIn, les interlocuteurs discutent autour de documents : communication, désignation, manipulation et parfois édition d’un document. On a donc souvent des documents comme support de la réunion, que l’on se contente de manipuler. Il s’agit alors de modifier son point de vue sur le document ou sur une partie du document. Par exemple, faire défiler du texte ou faire tourner un objet sur lui-même. La manipulation va donc être l’action unique définie pour beaucoup de documents si l’activité ne nécessite pas de les éditer. Le fait de sélectionner un document donne donc souvent directement la possibilité de bouger son point de vue sur les documents.

Manipulation directe

On préfère agir directement sur les documents plutôt qu’avoir une manipulation déportée sur des menus ou des widgets. Les widgets obligent à un mouvement différent du mouvement réel. On doit faire l’effort d’associer mentalement le mouvement du widget à celui qui est effectivement appliqué au document, ce qui fait passer notre attention de l’un à l’autre. Nous préférons l’utilisation des outils (voir paragraphe précédent), qui permettent d’interagir directement avec les documents. Nous voulons conserver le lien avec le réel dans la représentation de l’espace virtuel : si on ne peut toucher l’objet virtuel pour le manipuler, on recherche un rapport visuel direct entre les gestes

Sélection de l’objet : interaction bimanuelle

d’action de l’utilisateur et l’objet visé, avec une animation continue de l’objet en rapport avec les gestes (i.e. le mouvement du périphérique). Ce mode de manipulation est plus naturel.

Les documents dans SpIn

Comme nous le verrons dans la partie sur l’architecture de SpIn, la notion d’application n’existe pas de la même façon que dans les interfaces 2D standards. SpIn est une interface graphique qui gère l’espace de travail de l’utilisateur, elle se substitue complètement à ce qui peut exister sur la machine où elle est exécutée, et n’en utilise pas les mécanismes. On peut ainsi voir SpIn comme l’interface de travail possible de n’importe quel système d’exploitation. C’est dans cette optique que SpIn a été développé, en particulier pour s’astreindre de l’existant.

SpIn permet de visualiser des objets suivant une organisation spatiale bien précise. Il reproduit une structure d’interface où les documents peuvent être manipulés grâce à des actions associées à des événements particuliers. SpIn gère plus particulièrement :

- des acteurs, qui montrent les actions des interlocuteurs distants, ils agissent dans l’interface. - des documents, qui réagissent à une liste d’événements particuliers (définie pour chaque document) auxquels sont associées des actions agissant localement sur le document ou une de ces parties. C’est cet ensemble qui peut être vu comme une application, mais l’architecture comme l’interface sont centrées sur les documents. Ces actions sont génériques et définies dans le système (SpIn), comme celles pour manipuler, ou sont développées pour un document particulier.

SpIn a donc une approche centrée sur les documents, qui sont affichés «librement», sans cadre ou délimiteur (comme les fenêtres des applications dans les interfaces 2D). Cet agencement permet de donner toute son importance au document lui même, sans noyer sa représentation autour d’autres éléments graphiques de l’interface. On peut agir directement sur le document.

Quel moyen pour manipuler les documents?

Pour appliquer une action, en particulier celles qui permettent de manipuler une représentation en trois dimensions, il faut agir d’une certaine manière sur le document. Une fois le document sélectionné, on a donc le choix du mode d’action pour le manipuler : utilisation du clavier, du capteur de position 3D, etc.

Nous pourrions utiliser le capteur de position 3D recommandé pour le pointage et la sélection de l’objet. Nous continuerions ainsi à faire de la manipulation directe. Associé à un autre capteur de position 3D dans l’autre main (non-dominante), on manipulerait dans ce cas directement le document des deux mains, d’une façon très proche de la réalité. L’utilisateur se trouve alors dans une situation connue et qui nécessite peu d’apprentissage. Par exemple, le fait de prendre l’objet par deux points et de déplacer les capteurs permet de déplacer l’objet. On peut se servir également du déplacement d’une main par rapport à l’autre pour mesurer les translations et les rotations appliquées à l’objet.

Cependant, le mouvement des mains dans l’espace pour définir les mouvements sur l’objet, s’il présente l’avantage d’être intuitif et naturel, présente des défauts notables :

- il n’y a pas de retour tactile, ni d’effort sur l’objet, empêchant d’avoir des mouvements de mains cohérents autour d’un volume fixe, ce qui oblige à corriger les trajectoires. L’utilisateur doit s’habituer à l’effet de ses actions pendant tout leur déroulement, du contrôle au résultat,

- les mains positionnées dans l’espace ne sont pas précises, les gestes sont sensibles aux tremblements et aux vibrations,

- la fatigue est un facteur important qui limite l’utilisation de capteur 3D positionné sur la main, surtout quand on doit l’utiliser longtemps,

- le mouvement complet des mains impose deux capteurs de position 3D mais celui des doigts impose des gants de données, encombrants et incompatibles avec notre contexte.

L’utilisation de deux périphériques peut cependant être intéressante. Le nombre de possibilités réduites de sélection et de manipulation d'un seul capteur, la transposition naturelle de l'utilisation courante des deux mains dans les tâches réelles, nous incitent à utiliser une interaction à deux mains dans l'interface. Si l’approche à deux périphériques isométriques (deux capteurs 3D) pose trop de contraintes, la fatigue en particulier, on doit choisir une autre voie.

Le problème de la fatigue se pose en fait également avec la simple utilisation d’un capteur de position 3D dans la main dominante. Si cela est indispensable pour désigner les objets, on peut s’en passer pour le reste : on peut utiliser un périphérique isométrique dans la main non dominante pour toutes les autres tâches. On profite ainsi des avantages des périphériques isotoniques et isométriques. Le rôle de chaque main est donc distribué ainsi : on utilise le capteur de position 3D (isotonique) dans la main dominante pour la désignation et la sélection et un périphérique isométrique à au moins trois degrés de liberté (comme un Trackball 3D) dans l’autre main pour réaliser les autres actions (manipulation, choix dans un menu, etc). On conserve ainsi l'intérêt du capteur de position 3D, en limitant au maximum son utilisation pour résoudre les problèmes de fatigue, et en permettant des actions synchrones des deux mains avec les deux périphériques. En raison de sa fonction (choix dans des menus, manipulation d’objet, etc) et de son maniement dans la main non dominante, le périphérique isométrique est naturellement utilisé en mode relatif. Avec un périphérique possédant une bonne sensibilité, on peut réaliser des déplacements précis. En effet, c’est l’extrémité du bras, les doigts, qui ont la plus grande précision. En mode relatif, sur un périphérique précis et facile de prise en main comme la SpaceMouse (un trackball 3D), on peut réaliser des manipulations de document de façon bien plus précise qu’avec un capteur de position, et ce même avec la main non dominante.

Des expériences d’interaction bimanuelle ont déjà été menées sur d’autres modes et avec d’autres périphériques [Balakrishnan 99] [Hinckley 97b]. Elles montrent l’efficacité accrue des utilisateurs en mode bi-manuel dans les tâches de manipulation d’objets qui y sont étudiées. La réussite du mode bimanuel y est conditionné par le découpage des tâches affectées à chaque main.

Pour Paul Kabbash, la main non-dominante est capable de faire plus qu’approximer les mouvements de la main dominante [Kabbash 93], et peut être aussi efficace pour des tâches de manipulation si elles ne sont pas trop précises. Il utilise un périphérique «à point fixe» pour la main non-dominante,

Bilan sur le modèle d’interaction

comme un joystick, pour compenser les différences de vitesse d’exécution des deux mains. C’est un argument de plus pour notre répartition isotonique/isométrique.

On peut donc noter que l’utilisation de deux périphériques donne de manière générale un gain d’efficacité si l’on suit les critères énoncés au premier chapitre, comme la répartition adéquate des tâches à chaque main [Kabbash 94]. En ce qui concerne notre système d’interaction, nous attribuons un rôle précis et complémentaire à chacune d’elles, le pointage et la sélection au moyen d’un capteur pour l’une, puis l’action sur l’objet sélectionné pour l’autre, au moyen d’un trackball 3D. Les tâches des deux mains sont donc liées dans une même action, et ne sont donc pas indépendantes. Et la difficulté d’exécution est répartie en fonction de la capacité de chaque main (la tâche de pointage est réservée à la main dominante).

Bilan

Nous venons de présenter la démarche qui nous a amené à choisir une interaction bimanuelle : le choix d’un périphérique isométrique pour la main non dominante permet de limiter les efforts fournis par l’autre main avec le capteur 3D, utilisé désormais uniquement pour la désignation. Ce choix permet également de profiter de la dominante manuelle de l’homme, de ses capacités à travailler à deux mains dans le monde réel. En améliorant les moyens de contrôle de l’utilisateur sur l’ordinateur, nous lui donnons plus de moyens pour gérer les quantités d’information à sa disposition, et nous permettons aux tâches réalisées dans SpIn d’être décomposées au mieux en fonction des périphériques.

4.5 Bilan sur le modèle d’interaction

Nous venons de poser les règles de notre système d’interaction, qui constituent les fondations pour une interaction de plus haut niveau. Pour tirer partie des possibilités complémentaires des périphériques isométriques et isotoniques, nous avons choisi une approche hétérogène. Pour des raisons d’efficacité et pour un accès facile à l’ensemble de l’espace de travail, l’interaction, bimanuelle, utilise un capteur de position 3D pour déplacer un pointeur 3D dans toute l’interface suivant les trois axes, donc sans aucun décalage spatial ni temporel, et avec un degré d’intégration maximum (égal à un). Le capteur 3D ne sert qu’à désigner, le reste étant effectué avec un périphérique isométrique dans la main non-dominante. Pour la manipulation d’objets, ce dernier devra posséder au moins trois degrés de liberté homogènes (i.e. dont l’accès se fait suivant le même mode).

Nous utilisons un certain nombre d’indices perceptifs pour aider l’utilisateur, les ombres en particulier. Certains sont des indices dynamiques qui peuvent renseigner progressivement l’utilisateur, comme les boîtes englobantes progressives.

Cet ensemble de règles de conceptionpeut être appliqué à tout environnement de travail tridimensionnel où l’on manipule des documents, sachant que :

 nous évitons les dispositifs trop chers ou trop encombrants (au sens du contexte bureautique de notre environnement),

Cette condition en ayant amené deux autres pour conserver un environnement appréhendable par l’utilisateur :

 nous limitons la navigation,

 nous interagissons à l’intérieur d’un espace fermé.

Ces trois conditions, issues du domaine d’application de SpIn, restreignent le domaine d’application de notre modèle aux environnements «bureautiques» centrés sur l’interaction avec des documents. Mais nous avons pu voir que notre modèle n’a pas été influencé au niveau du mode d’interaction par son domaine d’application, le travail coopératif synchrone.

Notre modèle est donc adapté aux environnements 3D, SpIn en particulier, dont l’objectif principal est de travailler sur des documents (et respectant les trois critères ci-dessus).

CHAPITRE

5

SpIn : interactions locales

5 Equation Bidon 5 Table Bidon 5 Figure Bidon

Maintenant que nous avons établi les propriétés de base du système d’interaction, nous allons nous intéresser à l’interaction à plus haut niveau, celle qui compose les éléments graphiques d’une interface de travail virtuel, comme les boutons, les widgets ou les menus dans une interface 2D classique.

Les différents éléments qui composent les métaphores d’interaction interne d’une interface 3D sont des transcriptions de l’espace 2D adaptées à la 3D, ou bien des éléments nouveaux, que seule la troisième dimension permet de mettre en oeuvre. Nous présentons ici ceux qui sont essentiels, en donnant leur adéquation avec SpIn, qui conditionne que nous les ayons développé et intégré à notre système d’interaction.

Ces éléments essentiels sont ceux que nous estimons être les éléments d’interaction élémentaires d’une interface 3D. Il s’agit des moyens d’accès aux documents (comment insérer un document dans

l’interface de travail ?) et des possibilités de réaliser des actions sur ces documents (comment exécuter telle commande sur un document ?). Lorsqu’une interface de travail coopératif comme

SpIn a répondu à ces deux questions, elle est en mesure de répondre à toutes les exigences possibles d’une tâche quelconque développée dans son contexte. En effet, elle fournit alors les moyens d’accès et d’interaction avec les documents.

Nous commençons tout d’abord par un bref retour sur les concepts de SpIn (paragraphe 1). En effet, la prise en compte de l’interaction dans le modèle d’organisation de SpIn (§ 3.4.2 - p. 65) nécessite de revoir et de compléter certains concepts, comme l’espace attribué et mis en valeur pour interagir sur un document donné.

Puis, nous présenterons les éléments d’interaction essentiels de SpIn. Ceux qui permettent de gérer l’interaction sur les documents, c’est-à-dire qui permettent de sélectionner des actions à appliquer dessus, sous formes d’outils (paragraphe 2) ou sous forme de commandes (paragraphe 3). Et ceux qui permettent avant tout d’insérer un document dans SpIn (paragraphe 4).