• Aucun résultat trouvé

Interaction collaborative à trois mains

4.2 Objectifs et limitations

Comme nous l’avons annoncé dans l’introduction, nous souhaitons imiter les gestes à appliquer à des objets encombrants virtuels afin d’inciter les utilisateurs à agir par le biais de manipulations collaboratives, via des périphériques non haptiques.

(a) (b)

Fig. 4.1 – (a) Illustration d’une manipulation à une seule « main » d’un objet virtuel (ici un capot de voiture). L’objet tourne alors autour du pointeur, qui incarne la main, comme autour d’une rotule. (b) Illustration d’une manipulation à deux mains avec deux pointeurs disposés sur deux extrémités du capot. Le capot oscille alors autour de l’axe reliant ces mains.

Par facilité, les premiers tests de manipulation ont été effectués grâce à des péri-phériques de bureau : un clavier, une souris 3D et des Wiimotes (manettes de Nintendo pour sa console vidéo Wii). Avec peu d’efforts, ces périphériques ont été ensuite rem-placés par un mécanisme de suivi optique grâce à l’architecture sous-jacente exposée au chapitre 3. Le suivi optique a permis aux utilisateurs d’effecter des gestes plus naturels. Par ailleurs, nous avons pensé que pour obtenir des objets virtuels donnant lieu à des mouvements proches de la réalité, il fallait les munir de propriétés physiques. Dans ce but, un moteur physique a été employé.

4.2.1 Interaction par suivi optique

Le choix du périphérique d’entrée s’est porté sur l’ARTracking qui est un système de suivi optique de la société A.R.T. [ART]. Un tel système permet un suivi aisé en position et orientation dans l’espace 3D sans que l’utilisateur n’ait à porter de fils électriques pour le relier au système de traitement (cas de capteurs magnétiques éventuellement), ni même, ici, une combinaison. Cinq caméras infrarouge ont été employées : deux étaient disposées au sol et trois au plafond. Elles capturaient la position et l’orientation à 48 Hz de cibles (cf. figure 4.2). La précision et la vitesse de reconnaissance des positions et orientations étaient suffisantes pour que l’ARTracking ne constitue pas une gêne dans l’utilisation de notre technique à 3 mains.

Par ailleurs, nous pensons que les systèmes de suivi optique sont appelés à très largement se démocratiser. En effet, Microsoft annonce, par la sortie en 2010 du projet Natal1, un système constitué d’une caméra vidéo classique et d’une caméra infrarouge

1

Objectifs et limitations 95

(a) (b)

Fig. 4.2 – (a) Exemple d’une cible dont les positions des balles réfléchissantes sont capturées par des caméras infrarouges. Cette cible était tenue à bout de doigts par un utilisateur de la technique à 3 mains. Elle pèse environ 30 g. Les autres cibles étaient quasiment identiques (dimensions, allure et poids) à celle-ci. (b) Exemple d’une caméra infrarouge utilisée.

permettant aux joueurs de sa console vidéo d’agir sans aucune manette, simplement par les mouvements de leur corps (figure 4.3). La partie logicielle ferait correspondre des squelettes pré-enregistrés aux corps des joueurs.

Fig. 4.3 – Capture de mouvements à destination du grand public avec le projet Natal de Microsoft.

De son côté, Sony proposerait, la même année, une manette (Figure 4.4) aux formes proches de celles de la Wiimote de Nintendo et comportant une sphère lumineuse sur le haut. La taille et la position de la sphère capturées par une caméra classique per-mettraient de déduire la position de la manette dans l’espace 3D. Enfin, des gyroscopes placés à l’intérieur de la manette fourniraient son orientation.

Cette tendance vers des interfaces de plus en plus intuitives et naturelles pour les joueurs a été initiée par Nintendo. La manette Wiimote dispose en effet d’accéléromètres

Fig. 4.4 – Capture de mouvements pour le grand public avec la manette de Sony.

et d’une caméra infrarouge, disposée à une extrémité de la manette, filmant une barre émettrice pour obtenir une position en 2D ou en 3D. La profondeur est obtenue à partir de l’écart mesuré entre les diodes infrarouges situées aux deux extrémités de la barre émettrice qui est placée sur l’écran de télévision. Si la manette est trop de biais par rapport à la barre émettrice, le calcul devient faussé. Dernièrement, cette manette s’est vue adjoindre des gyroscopes pour mieux détecter les mouvements des joueurs. Cependant, son équipement ne permet pas d’obtenir six degrés de liberté contrairement aux projets de Microsoft et Sony.

4.2.2 Intégration de calculs pour la physique

Nous souhaitons voir un objet tomber dès qu’il n’est plus manipulé. S’il est mal saisi, c’est-à-dire par une ou deux mains, il doit effectuer des mouvements de balancier comme décrit dans l’introduction de ce chapitre. Pour ce faire, nous avons employé le moteur physique Bullet [Bul]. Cette intégration est décrite dans le chapitre 6. Nous avons saisi l’occasion de l’utiliser pour détecter les collisions et empêcher les pénétrations entre objets.

4.2.3 Limites à l’interaction optique et à la physique en l’absence de

retour d’efforts

Des actions sans contraintes pour l’utilisateur sur des objets physiques virtuels lui permettent d’effectuer des actions physiquement irréalistes.

D’une part, l’utilisateur peut effectuer des gestes exagérés. Par exemple, un geste ample de l’utilisateur lui permettra de lancer un objet virtuel supposé être très lourd (i.e. l’objet virtuel aurait une masse très grande, en tonnes par exemple) très loin sans aucune difficulté. Dans la réalité, ces gestes ne pourraient pas être effectués parce que l’objet est lourd. Avec la technique que nous proposons, l’utilisateur est actuellement obligé de « jouer le jeu » en se bornant à ne pas effectuer des gestes irréalistes (pas de grands mouvements de bras notamment) puisque nous n’utilisons pas de mécanismes à retours d’efforts pour limiter ses mouvements. Cependant, des travaux portant sur le retour haptique passif [Lec09] pourraient permettre de mieux donner à l’utilisateur une

Techniques de manipulation collaboratives existantes 97

sensation de masse pour des objets manipulés et, par conséquent, de limiter plus naturel-lement ses mouvements. Ainsi, il serait possible de diminuer la quantité de mouvement d’un objet manipulé par rapport aux mouvements de l’utilisateur [DLB+05] pour lui donner la sensation de manipuler un objet lourd. L’utilisateur aurait alors à effectuer des mouvements exagérés pour n’obtenir que de faibles mouvements à l’écran.

D’autre part, un utilisateur peut décider de s’écarter beaucoup trop de son par-tenaire durant la manipulation alors qu’un objet physique réel devrait l’en empêcher. Il est possible d’avertir l’utilisateur par des signaux visuels comme cela sera exposé. Si toutefois l’utilisateur réussissait à s’écarter de son partenaire dans la réalité, alors l’objet réel manipulé serait en fait déformé ou bien endommagé.

4.3 Techniques de manipulation collaboratives existantes