• Aucun résultat trouvé

4.4 Conclusion sur l’interaction pour la planification de trajectoire

5.1.1 Interfaces comportementales

5.1.1.1 Visualisation 3D

Système de visualisation 3D C’est un système de stéréoscopie passive (figure 5.1). Il est constitué de deux vidéo-projecteurs ProjectionDesign F2 munis chacun d’un filtre à po- larisation circulaire (polarisation différente pour chaque vidéo-projécteur) (figure 5.1(a)). Ces vidéo-projecteurs rétro-projettent leurs images sur un écran de 3m de large par 2,25m de haut conservant la polarisation de la lumière (figure 5.1(b)). Pour reconstituer l’image stéréosco- pique, l’utilisateur doit s’équiper de lunettes (figure 5.1(c)) munies de filtres du même type que ceux des video-projecteurs afin de ne conserver, pour chaque œil, que l’image qui lui est destinée.

(a) Vidéo-projecteurs et filtres. (b) Écran. (c) Lunettes.

Figure 5.1 – Système de visualisation 3D.

La rétro-projection, bien que difficile à mettre en œuvre, est ici préférée à la projection directe afin d’éliminer les occultations qui pourraient apparaitre du fait de la présence d’un utilisateur en interaction entre les vidéo-projecteurs et l’écran. De même, bien que moins per- formante qu’une polarisation horizontale/verticale du point de vue du filtrage de la lumière, la polarisation circulaire est mise en œuvre pour autoriser tous les mouvements aux utilisateurs de RV (inclinaison de la tête).

Mise en œuvre de la visualisation 3D Elle permet de fournir une visualisation de la scène et des manipulations exécutées à l’opérateur humain. Elle réalise ainsi un premier bouclage entre l’opérateur et le système qu’il manipule en fournissant un retour visuel temps-réel de l’environnement virtuel. La visualisation 3D permet aussi de fournir une première assistance à l’opérateur en affichant la trajectoire 3D planifiée, mais aussi, localement, la direction (3D) de progression pour atteindre le prochain jalon.

5.1.1.2 Capture de mouvement

Système de capture de mouvement optique Fourni par la société ART (Advanced Real- time Tracking GmbH) (figure 5.2), ce système est constitué de plusieurs caméras Infrarouge (IR) (figure 5.2(a)). Ces caméras émettent des flashs IR, ceux-ci sont réfléchis par des sphères dotées d’un revêtement spécial (réfléchissant la lumière IR). La position des sphères dans les

Expérimentations et résultats images de chacune des caméras permet d’en trianguler la position dans l’espace 3D. La posi- tion et l’orientation de marqueurs équipés de plusieurs sphères réfléchissantes (chaque marqueur ayant une configuration géométrique de sphères particulière) peuvent alors être déterminées.

(a) Caméra IR.

Caméras IR

(b) Position des caméras. (c) Utilisateur

équipé de marqueurs. (d) Flystick.

Figure 5.2 – Système de visualisation 3D.

Le système du LGP est constitué de quatre caméras positionnées autour de l’écran (fi- gure 5.2(b)). Deux caméras suffisent à trianguler la position des sphères, mais en augmentant leur nombre, on augmente la précision du système tout en prévenant les phénomènes d’occul- tation. Le LGP dispose de 8 marqueurs permettant d’équiper le haut du corps d’un utilisateur (figure 5.2(c)) : tête, abdomen, bras, avant-bras et mains), et d’un flystick (figure 5.2(d)) permet- tant de pointer des éléments de l’environnement 3D tout en disposant de quelques contrôles (4 boutons et un joystick).

Logiciel DTrack Le logiciel DTrack, hébergé sur une station dédiée, traite les données is- sues des caméras IR pour calculer les positions et orientations des différents marqueurs présents dans leurs champ de vision. La station qui héberge le logiciel Dtrack est donc équipée d’une carte permettant d’y connecter les caméras IR pour d’une part les synchroniser pour l’émission des flash IR et, d’autre part récupérer leur données.

Mise en œuvre du système de la capture de mouvement D’une part le système de cap- ture de mouvement et sa mise en œuvre dans les applications de planification de trajectoire interactive permettent de tenir compte du point de vue de l’opérateur pour l’affichage de la scène (en l’équipant de lunettes munies d’un marqueur infrarouge). Cette prise en compte de son point de vue en temps réel permet à l’opérateur d’améliorer sa perception de la profondeur en réalisant de petits changements de point de vue sur la scène.

D’autre part, le flystick associé au système de capture de mouvement est utilisé pour fournir à l’opérateur différents contrôles sur l’application de RV. Par exemple, le joystick analogique présent sur le flystick est utilisé pour permettre à l’opérateur de changer plus radicalement son point de vue sur la scène.

Planification interactive de trajectoire en Réalité Virtuelle 5.1.1.3 Interface haptique

Système haptique Le bras Virtuose 6D35-45 de la société Haption (figure 5.3) est une interface bidirectionnelle. Elle permet à l’utilisateur d’agir sur l’environnement virtuel en at- tachant des objets virtuels à l’organe terminal manipulé par l’utilisateur (les mouvements de l’organe terminal sont appliqués à l’objet virtuel). Le système peut aussi fournir un retour sen- soriel de l’application interactive à l’utilisateur (retour haptique). Ce retour sensoriel peut être utilisé pour un rendu physique (simulation du contact entre une pièce manipulée et un élément de l’environnement), ou pour mettre en œuvre des métaphores sensorielles (force artificielle pour de guidage de l’opérateur).

Figure 5.3 – Bras haptique Virtuose 6D35-45.

Logiciel IPSI Le logiciel Interactive Physics Simulation Interface (IPSI) fourni par Hap- tion est un moteur physique pour la manipulation d’objets rigides. Il intègre une interface vers les périphériques haptiques de la société Haption et permet ainsi de contrôler le retour haptique. Pour cela, il intègre des briques logicielles pour la détection de collision et la simulation de déplacement, et réalise la simulation numérique temps-réel de l’environnement virtuel.

Mise en œuvre de l’interface haptique Dans les applications de planification de tra- jectoire interactive, l’interface haptique permet à l’opérateur humain de manipuler les objets virtuels en 6D avec un retour sensoriel (contact). Elle permet aussi d’exploiter l’assistance 6D générée par le planificateur de trajectoire interactif pour guider l’opérateur dans ses manipu- lations. C’est donc à travers cette interface que l’opérateur est assisté en 6D selon le mode de partage d’autorité décrit dans le chapitre 4 (H-mode).

Expérimentations et résultats