• Aucun résultat trouvé

2.2. Interfaces de manipulation d’objets pour l’A/D virtuel

2.2.2.2. Interfaces motrices

Interfaces de localisation spatiale

Dans cette partie nous présentons les principales interfaces motrices de localisation spatiale (2D, 3D) d’un objet virtuel à manipuler ou d’un mannequin virtuel à commander lors de la simulation d’une opération d’A/D. Ces interfaces sont nécessaires pour caractériser le positionnement d’un objet virtuel (rigide ou déformable), la trajectoire d’A/D de cet objet ainsi que le positionnement d’un mannequin par rapport à l’environnement virtuel au cours des opérations d’A/D virtuelles.

Le positionnement d’un objet virtuel et de tout membre d’un corps du mannequin se détermine par le positionnement d’un repère local, lié à l’objet en question et défini par 6 variables (ou 6 DDL) dans l’espace 3D : trois coordonnées et trois angles. Alors, tout mouvement d’un dispositif matériel, définissant la position et/ou l’orientation courantes d’un objet virtuel, prescrit des déplacements de cet objet, ou plutôt, de son repère lié au repère global de l’environnement virtuel par une matrice de transformation composée d’une rotation et d’une translation. Deux catégories principales d’interfaces permettant de transmettre des déplacements à un objet virtuel sont présentées : des interfaces de commande en déplacement et des capteurs de mouvements.

Interfaces de commande en position :

Ce sont les interfaces les plus connues. Elles regroupent des dispositifs de commande manuelle de type joysticks (ou manette), souris 2D et 3D, stylets, etc. Ces dispositifs sont en général posés sur une table et permettent de générer les mouvements relatifs d’un curseur lié au repère local d’un objet virtuel en temps réel.

Une souris 2D réalise en général deux translations physiques dans un plan (Figure 2.8a). Ces translations peuvent être transmises à un objet virtuel comme des mouvements de translation ou de rotation en utilisant un menu virtuel lié à une métaphore d’interaction, par exemple. Une souris 3D (Figure 2.8b) et un joystick 3D (Figure 2.8c) permettent en général de définir une information géométrique d’entrée concernant les trois translations et trois rotations d’un objet virtuel dans l’espace.

Ces interfaces sont basées sur la mesure de déplacements en translation/rotation ou celle des efforts, appliqués à un dispositif matériel et transformés par la suite en mouvements d’un objet virtuel.

Certaines interfaces de type SpaceBall sont munies des capteurs permettant de mesurer les pressions (Figure 2.8d) ou les déformations d’une boule. Cette information peut donner accès aux efforts approximatifs appliqués qui peuvent être transmis à un objet virtuel à manipuler. Cependant, il faut souligner que même si certaines interfaces de commande de type souris 3D permettent de mesurer des efforts, les capteurs utilisés ne sont pas considérés comme un capteur d’effort [Fuchs & al. 2001]. Récemment, de nouveaux dispositifs ont été développés : ils comportent des systèmes haptiques afin d’introduire la notion de sensation tactile et d’améliorer le contrôle des mouvements de l’utilisateur en position et en effort [Casiez & al./1 2003].

( a ) ( b ) ( c ) ( d )

Figure 2.8. Exemples d’interfaces motrices de commande : ( a ) souris 2D de Logitech [Logitech 2003],

( b ) souris 3D SpaceMouse de 3Dconnexion [3Dconnexion 2003],

( c ) joystick FlyBox d’Immersion [Immersion 2003], ( d ) SpaceBall de Logicad [Logicad 2003].

Gants de données :

Les gants de données sont utilisés pour manipuler des objets virtuels et représenter une main virtuelle au cours d’une simulation d’A/D virtuel. Ces interfaces sont basées sur plusieurs techniques de repérage temps réel de la main et des doigts dans l’espace en utilisant [Le Roy 1999], [Thalmann & al. 1999] :

• les ondes sonores,

• les systèmes optiques,

• les systèmes électriques, etc.

Les gants de données à fibres optiques (Figure 2.9a) ou à jauges de déformations permettent de mesurer la flexion des doigts (Figure 2.9b). Certains modèles de gants sont munis d’inclinomètres fournissant l’orientation de la main de l’opérateur. Afin de déterminer une représentation complète de

la main dans l’espace, les gants peuvent être équipés de capteurs (traqueurs1) mesurant 6 DDL.

Certains modèles de gants sans fil peuvent transmettre des signaux par ondes radio avec une portée de 20 m.

Le gant CyberGlove d’Immersion (Figure 2.9c) fournit une information concernant la flexion des doigts de l’opérateur à partir de la flexion d’un matériau du gant en fonction de sa résistance au courant mesurée. Ce gant est muni de 18 à 22 capteurs électriques et peut être équipé d’un capteur 3D (traqueurs) afin de caractériser la position et l’orientation d’un point de référence de la main dans

l’espace.

1

Chapitre 2. Réalité virtuelle : méthodes et modèles

( a ) ( b ) ( c )

Figure 2.9. Exemples de gants de données d’Immersion [Immersion 2003] : ( a ) gant DataGlove à fibres optiques, ( b ) gant DataGlove à jauges de déformations,

( c ) gant CyberGlove à capteurs électriques.

Capteurs de mouvements :

Les capteurs de mouvements 3D (traqueurs) ont pour objectif de repérer en temps réel la position et l’orientation de la main ou d’autres parties du corps de l’utilisateur dans l’espace au cours de la manipulation d’objets virtuels ou la commande d’un mannequin virtuel. Il existe différents capteurs fournissant soit une position d’un point dans l’espace (capteurs à 3 DDL), soit une orientation d’un repère (lié à la main virtuelle ou à un objet virtuel à manipuler, par exemple) dans l’espace (capteurs à 3 DDL), soit les deux simultanément (capteurs à 6 DDL). Les capteurs les plus utilisés pour la capture de mouvements sont [Thalmann & al. 1999], [Fuchs & al. 2001] :

• capteurs électromagnétiques,

• capteurs électriques,

• systèmes optiques,

• capteurs mécaniques, etc.

Les capteurs électromagnétiques utilisent une source émettrice fixe qui crée un champ magnétique variable, définissant un domaine d’action du capteur. Un récepteur, lié à la main de l’utilisateur et donc à un objet virtuel à manipuler, mesure les variations de ce champ en temps réel en fonction de la position de la main avec une zone de travail de quelques mètres (Figure 2.10a). Les capteurs électromagnétiques permettent d’effectuer des mesures avec une bonne précision : 1 mm en translation et 0,5° en rotation [Fuchs & al. 2001]. Cependant, la contrainte de ce type de capteur est l’impossibilité de fonctionner correctement dans l’environnement comportant des objets métalliques : le champ magnétique variable crée les courants de Foucault dans les pièces conductrices ce qui génère des champs magnétiques complémentaires perturbant le repérage de la main tenant le capteur.

Système de commande Récepteurs Emetteur ( a ) ( b ) Diode

Figure 2.10. Exemples de capteurs de mouvements 3D :

( a ) interface MotionTracking de Polhemus avec les capteurs électromagnétiques [Polhemus 2003], ( b ) interface CodaMotion de Charnwood Dynamics pour le suivi de doigts [Fuchs & al. 2001].

Dans les systèmes optiques, la lumière est en général émise à l’aide de diodes électroluminescentes LEDs (Light Emitting Diodes) dans infrarouge pour que la lumière ambiante ne perturbe pas les mesures. Il existe principalement deux types de capteurs [Fuchs & al. 2001] :

• les capteurs mesurant les angles à partir des rayons lumineux reçus sur des récepteurs

• les capteurs utilisant des récepteurs plans (caméras numériques).

Ces capteurs sont associés à un objet à déplacer ou à différentes parties du corps de l’opérateur (la main, la tête,…) et fournissent une position capturée avec une grande précision allant jusqu’à 0,1 mm. Une interface de Charnwood Dynamics, représentée sur la Figure 2.10b, permet de localiser en temps réel les positions de deux doigts par l’intermédiaire de diodes et de trois caméras d’un système optique. Par ailleurs, certains capteurs ne localisent que la position d’un repère manipulé sans déterminer son orientation. Ainsi, une association de plusieurs capteurs est indispensable afin de déterminer le cas échéant les orientations.

On peut remarquer que pour une commande de mannequin virtuel effectuant une opération d’A/D, plusieurs capteurs de mouvements 3D sont requis afin de repérer l’ensemble articulaire « constituant » l’opérateur. Dans ce cas, les capteurs (électromagnétiques, électriques, les LEDs,…) sont attachés à un vêtement, et l’opérateur effectue des mouvements entraînant les déplacements correspondants du mannequin dans le monde virtuel.

Une autre classe de capteurs de localisation regroupe des capteurs mécaniques et, en particulier, les capteurs mesurant des distances et les gyroscopes miniaturisés permettant de fournir l’orientation d’un repère associé un objet virtuel à manipuler [Fuchs & al. 2001].

Interfaces motrices fournissant des efforts

Dans cette partie nous donnons quelques exemples de systèmes qui peuvent fournir des efforts comme paramètres d’entrée pour la simulation d’une manipulation d’objets virtuels et notamment, dans des applications d’A/D virtuel. Néanmoins, il convient de noter qu’à travers l’étude des systèmes de simulation d’opérations d’A/D virtuel, aucune interface permettant d’appliquer des efforts développés par l’utilisateur à un objet virtuel ne fut identifiée.

A ce jour, il est difficile techniquement de proposer un outil qui soit capable de mesurer des efforts (les forces et les moments) générés par un être humain et de les transmettre au système de RV, car il existe très peu de capteurs d’efforts en RV [Fuchs & al. 2001]. De plus, les interfaces haptiques actuelles, censées être utilisables dans le contrôle en position, ont souvent un fonctionnement isotonique : le déplacement de l’objet virtuel est égal au déplacement de l’extrémité de l’interface à retour d’effort. En fait, le déplacement d’un objet virtuel, produit par le système de simulation, est un résultat dépendant directement des valeurs des efforts développés et de la manière dont ils sont appliqués (par exemple, en préservant la direction d’application des efforts), ainsi que du comportement physique des objets (flexibles, anisotropie du matériau,…). Donc, les déplacements fournis par le système de simulation au cours de la manipulation d’objets ne sont pas égaux à ceux produits par l’interface motrice correspondante, même si l’objet manipulé est « lié » virtuellement à cette interface.

Interfaces de commande :

Il existe des interfaces de type souris 3D à boule, présentées ci-dessus, qui permettent de capter des efforts de compression et de torsion de l’opérateur exercés sur une boule. Cependant, les efforts mesurés sont généralement utilisés pour la manipulation d’objets virtuels et non pour la transmission directe de ces efforts au système de simulation virtuelle qui les appliquerait à un objet virtuel.

On peut également trouver quelques manettes munies de capteurs de force piézo-électriques mesurant la pression des doigts de l’opérateur. Mais ces capteurs d’efforts (ou capteurs de pression) sont employés plutôt pour la manipulation d’une main virtuelle que pour l’application directe des efforts à un objet virtuel [Fuchs & al. 2001]. De plus, il est nécessaire de pouvoir simuler correctement l’application des efforts compte tenu des forces de flexion et de leurs directions éventuellement variables ainsi que des moments de flexion et de torsion.

Donc, il y a un intérêt fort pour continuer à travailler sur le développement de dispositifs qui permettraient d’appliquer directement les efforts de l’opérateur aux pièces virtuelles manipulées notamment dans le contexte de simulation d’opérations d’A/D virtuelles. Aujourd’hui, des capteurs d’efforts, spécifiques aux applications de la RV, commencent à paraître.

Chapitre 2. Réalité virtuelle : méthodes et modèles

Interfaces haptiques :

Les interfaces haptiques ont, en général, pour objectif d’offrir à l’utilisateur la possibilité de percevoir des efforts, évalués et retournés par le système de simulation virtuelle au cours de manipulations d’objets. Par ailleurs, ces interfaces sont souvent des interfaces de type sensori-motrices. Donc, dans la plupart des cas d’applications virtuelles et notamment dans le domaine de l’assemblage virtuel, les interfaces haptiques sont utilisées dans le contrôle en effort (ou contrôle en impédance). Ce type de contrôle ainsi que les interfaces haptiques seront présentés par la suite. Toutefois, il est possible d’utiliser certaines interfaces dites haptiques permettant de mesurer un (des) effort(s) en entrée et d’appliquer en sortie des déplacements à un objet virtuel, produits par le système de simulation (contrôle en admittance). Les déplacements d’un objet virtuel peuvent être réalisés par la commande de moteurs [Casiez & al./2 2003]. La possibilité d’un tel contrôle en admittance pour la manipulation virtuelle est discutée dans [Yokoi & al. 1994], [Vuskovic & al. 2000], [Hoogen & al. 2002], [Newman & al. 2002], [Linde & al. 2003].

Le fonctionnement de l’interface haptique Virtuose 6D, conçue par le LIST/CEA et réalisée par la société Haption [Haption 2003], est basé sur la manipulation de bras maître d’un télé-manipulateur. A part son principal objectif, à savoir fournir une information de retour en effort, cette interface dispose d’une fonctionnalité de prescription d’efforts développés par l’utilisateur en utilisant un capteur d’efforts à 6 composants. Ce capteur est placé à l’extrémité de la poignée du dispositif et mesure les efforts de l’utilisateur, en les appliquant à un objet virtuel (Figure 2.11a). Dans le contrôle en admittance, les déplacements d’un objet virtuel manipulé, calculés par le système de simulation en temps réel à partir des efforts fournis par le dispositif haptique, ne sont pas en principe les mêmes que ceux de l’extrémité de la poignée du dispositif. En effet, les déplacements d’un objet virtuel prennent en compte le poids de cet objet, son inertie, sa déformation éventuelle et donc, la résistance supplémentaire due à cette déformation, etc. Donc, le système haptique doit agir sur l’opérateur de telle façon que les informations d’entrée et de sortie soient cohérentes. Par exemple, les déplacements de la poignée du dispositif avec les efforts associés à ces déplacements et mesurés par le capteur d’efforts doivent être cohérents par rapport aux déplacements de l’objet virtuel.

Le dispositif haptique linéaire Excalibur LHD à 3 DDL (Linear Haptic Display), réalisé par la société Haptic Technologies, est utilisé à l’Université de Washington pour deux types de contrôle : en impédance et en admittance (Figure 2.11b). Il offre des mouvements en translation et dispose d’un capteur d’efforts. Le contrôle en admittance (en position) est effectué de façon visuelle, à savoir les déplacements d’un objet virtuel sont visualisés [Adams 1999].

L’interface haptique HapticMaster (Figure 2.11c), réalisée par la société FCS Control Systems et employée dans le cas d’un contrôle en position, a également 3 DDL (mouvements en translation) et offre à l’opérateur la possibilité de développer un effort important : 100 N pour la force nominale et jusqu’à 250 N pour la force maximale [Linde & al. 2003]. Un capteur de force à base de jauge de déformation (strain gauge force sensor) est monté sur une extrémité du bras du dispositif et mesure les forces appliquées par l’opérateur [Linde & al. 2003] (Figure 2.11d).

Couplage bilatéral Simulateur physique temps réel Position effecteur Efforts cartésiens Efforts cartésiens Position objet virtuel Interface haptique ( a ) ( b ) ( c ) ( d )

Figure 2.11. Exemples d’interfaces haptiques utilisées dans le contrôle en position : ( a ) principe de fonctionnement de l’interface Virtuose 6D [Lécuyer & al. 2003],

( b ) interface haptique Excalibur LHD d’Haptic Technologies [UW 2004], ( c ) interface HapticMaster de FCS Control Systems [Linde & al. 2003],

( d ) capteur de force utilisable sur le HapticMaster [Linde & al. 2003].