• Aucun résultat trouvé

Chapitre 3 Guidage haptique 55

3.3 Type d’informations renvoyées à l’utilisateur

3.3.3 Informations basées sur la force

La seconde information disponible de la part des dispositifs haptique dans le cadre d’un geste manuel est la force requise à appliquer (cf.figure3.5). La suite de forces à fournir pour obtenir un mouvement est appelée profil de force. C’est la succession des forces nécessaires pour produire le geste désiré selon un axe tridimensionnel donné. Elle peut être mesurée à l’aide de capteurs de forces, ou déduite d’un modèle de production d’écriture. Ce profil de force théorique permettra, par comparaison au profil de force expé-rimental déduit (ou mesuré) lors de la réalisation d’un mouvement, de calculer une force proportionnelle à la différence de ces deux profils de forces. [Srimathveeravalli et al., 2006] démontrent expérimenta-lement qu’une information de force - ou suite de profils de forces - (appelée«Haptic attributes») est unique pour une forme et pour un scripteur et peut être utilisée comme source d’information au calcul d’un guidage haptique. D’autres recherches ont utilisé cette information comme source d’information au contrôle de leur système. Yokokohjiet al.se sont intéressés au transfert de compétences enregistrées par un expert. Ils ont affiché les forces de l’expert afin que l’élève puisse identifier et reproduire celles-ci [Yokokohji et al., 1996]. Henmi et al. ont développé un système pour l’apprentissage de la calligra-phie japonaise en utilisant la force appliquée lors de tracé comme information de contrôle [Henmi and Yoshikawa, 1998]. Huang et al.[Huanget al., 2004] et Mussa-Ivaldi [Mussa-Ivaldi and Patton, 2000] ont aussi analysé le rôle de l’envoi d’informations basées sur la force et ont proposé une méthodologie d’entraînement basé sur ces informations.

Figure3.5 – Exemple schématique du fonctionnement d’un contrôle basé sur la force. Pour chacun des

points de la trajectoire théorique à obtenir (en deux dimensions X et Y) (a), deux profils de forces sont pré-calculés selon les deux axes (b - ici, n’est représenté que le profil de force selon X). Ces profils de forces représenterons les profils de forces théoriques à obtenir à chaque instant t. Lors de la réalisation d’une trace, les profils expérimentaux de forces selon X et Y seront calculés et comparés aux profils de forces théoriques (c). Une forceFforcesera ensuite déterminée proportionnellement à la différence de ces deux profils de forces (c) puis renvoyés à l’utilisateur (d).

3.5 Références bibliographiques

[Basdoganet al., 2004] C. Basdogan, S. De, J. Kim, Manivannan Muniyandi, H. Kim, and M.A. Srinivasan. Haptics in minimally invasive surgical simulation and training. IEEE Computer Graphics and Applications, 24(2) :56–64, March-April 2004.

[Bayartet al., 2005] B. Bayart, A. Pocheville, and A. Kheddar. An adaptive haptic guidance software module for i-touch : example through a handwriting teaching simulation and a 3d maze. IEEE International Workshop on Haptic Audio Visual Environments and their Applications, page 6, oct. 2005.

[Feyginet al., 2002] D. Feygin, M. Keehner, and R. Tendick. Haptic guidance : experimental evaluation of a haptic training method for a perceptual motor skill. Proceedings of 10th Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems, 2002. HAPTICS 2002., pages 40–47, 2002.

[Gillespieet al., 1998] B. Gillespie, S. O’Modhrain, P. Tang, C. Pham, and D. Zaretsky. The virtual teacher. InASME International Mechanical Engineering Conference and Exposition, volume vol. 64, pages 171–174, November 1998.

[Henmi and Yoshikawa, 1998] K. Henmi and T. Yoshikawa. Virtual lesson and its application to virtual calligra-phy system.Proceedings of IEEE International Conference on Robotics and Automation, 2 :1275–1280 vol.2, 1998.

[Huanget al., 2004] F. Huang, R. B. Gillespie, and A. Kuo. Haptic feedback improves manual excitation of a sprung mass. Proceedings of 12th International Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems. HAPTICS ’04., pages 200–207, 2004.

[Lindemanet al., 2004] R. W. Lindeman, R. Page, Y. Yanagida, and J. L. Sibert. Towards full-body haptic feed-back : the design and deployment of a spatialized vibrotactile feedfeed-back system. InVRST ’04 : Proceedings of the ACM symposium on Virtual reality software and technology, pages 146–149, New York, NY, USA, 2004. ACM.

[Mussa-Ivaldi and Patton, 2000] F.A. Mussa-Ivaldi and J.L. Patton. Robots can teach people how to move their arm. InProceedings of ICRA ’00. IEEE International Conference on Robotics and Automation, 2000., volume 1, pages 300–305 vol.1, 2000.

[O’Malleyet al., 2006] M. K. O’Malley, A. Gupta, M. Gen, and Y. Li. Shared control in haptic systems for performance enhancement and training. Journal of Dynamic Systems, Measurement, and Control, 128(1) :75– 85, 2006.

[Palluel-Germainet al., 2007] R. Palluel-Germain, F. Bara, A. Hillairet de Boisferon, B. Hennion, P. Gouagout, and E. Gentaz. A visuo-haptic device - telemaque - increases kindergarten children’s handwriting acquisition.

EuroHaptics Conference, 2007 and Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems. World Haptics 2007. Second Joint, pages 72–77, 2007.

[Rosenberg, 1993] L. B. Rosenberg. Virtual fixtures as tools to enhance operator performance in telepresence environments. Telemanipulator Technology and Space Telerobotics, 2057(1) :10–21, 1993.

[Schmidt and Lee, 1987] R. A. Schmidt and T. D. Lee. Motor Control and Learning : A Behavioral Emphasis.

Champaign, IL : Human Kinetics, 2 edition, 1987.

[Srimathveeravalliet al., 2006] G. Srimathveeravalli, V. Gourishankar, and K. Thenkurussi. Haptic attributes and human motor skills. 14th Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems., pages 453–459, 2006.

[Steele and Gillespie, 2001] M. Steele and R. B. Gillespie. Shared control between human and machine : Using a haptic steering wheel to aid in land vehicle guidance.Human Factors and Ergonomics Society Annual Meeting Proceedings, 45 :1671–1675(5), 2001.

[Yokokohjiet al., 1996a] Y. Yokokohji, R. L. Hollis, T. Kanade, K. Henmi, and T. Yoshikawa. Toward machine mediated training of motor skills. skill transfer from human to human via virtual environment.5th IEEE Inter-national Workshop on Robot and Human Communication., pages 32–37, 1996.

[Yokokohjiet al., 1996b] Y. Yokokohji, R.L. Hollis, and T. Kanade. What you can see is what you can feel-development of a visual/haptic interface to virtual environment.Proceedings of the IEEE Virtual Reality Annual International Symposium., pages 46 –53, 265, Mar-3 Apr 1996.

[Yonedaet al., 1999] M. Yoneda, F. Arai, T. Fukuda, K. Miyata, and T. Niato. Assistance system for crane ope-ration with haptic display opeope-rational assistance to suppress round payload swing. InProceedings of IEEE International Conference on Robotics and Automation., volume 4, pages 2924–2929 vol.4, 1999.

[Yoshikawaet al., 1995] T. Yoshikawa, Y. Yokokohji, T. Matsumoto, and X.-Z. Zheng. Display of feel for the manipulation of dynamic virtual objects.Journal of Dynamic Systems, Measurement, and Control, 117(4) :554– 558, 1995.

La trajectoire

Sommaire

4.1 Plusieurs modèles d’interpolation . . . . 66

4.1.1 Interpolation linéaire . . . 68 4.1.2 Interpolation cosine . . . 68 4.1.3 Interpolation spline . . . 69 4.2 Quelle est la meilleure méthode d’interpolation aux vues de nos trajectoires ?

Le type d’interpolation influence t-il la mesure d’une variable ? . . . . 70

4.3 Quel espace de réalisation choisir pour analyser les trajectoires du geste ma-nuel ? . . . . 73