• Aucun résultat trouvé

Intégration de Navidget dans les logiciels Blender et SketchUp

13.4.3 Intégration dans des logiciels de modélisation 3D

Afin de permettre une diffusion plus importante, et surtout d’offrir la possibilité d’uti-liser Navidget à un plus grand nombre de personnes, nous avons encadré des projets étu-diants visant à intégrer Navidget dans des logiciels de modélisation 3D du commerce. Cette intégration s’est effectuée à travers le développement d’un script pour le logiciel Blender et d’un script pour le logiciel Sketchup de Google.

13.4.3.1 Intégration de Navidget dans Blender

Le travail d’intégration de Navidget dans le logiciel Blender a été réalisé par quatre étu-diants de Master 1 Informatique (Yassine El Ouardani, Pierre Faure, Maher Finianos et Pierre Rouanet) lors du module “projet de programmation”. Leur travail a permis de développer un système de reconnaissance de gestes basé sur le calcul de la “distance de Levenshtein”, qui permet de trouver quelle forme a été tracée par l’utilisateur. Ils ont également réalisé une version simplifiée de Navidget, sous la forme d’un script écrit en Python, permettant d’utiliser cette technique dans le logiciel Blender, visible sur la Figure 13.15.

13.4.3.2 Intégration de Navidget dans SketchUp

SketchUp de Google est un logiciel de modélisation très intéressant. Son approche est ba-sée sur l’utilisation de gestes simples, et assiste l’utilisateur dans ses tâches de modélisation. Nous avons ainsi encadré quatre étudiants de Master 2 Multimédia (Anthony Battel, Jona-than Depiets, Benjamin Orsini, David Palanchon) afin d’intégrer Navidget dans ce logiciel. La majorité des fonctionnalités de Navidget ont été intégrées au module développé. L’API de SketchUp ne permettant pas de créer plusieurs viewports, une astuce a été utilisée afin de permettre de bénéficier de la fenêtre de prévisualisation : un rendu est effectué depuis la ca-méra virtuelle de Navidget et enregistré dans un fichier temporaire. Il suffit alors de texturer un polygone situé en face de l’utilisateur avec cette image. Cette technique étant assez lente, la qualité de l’image enregistrée et affichée a été réduite, comme nous pouvons le voir sur la Figure 13.15.

141

13.5 Conclusion

La technique de navigation Navidget possède beaucoup d’avantages par rapport aux techniques de “go to” classiques. Elle offre un contrôle total de la distance t de l’angle avec lesquels observer un point cible d’une scène 3D. Les différents tests utilisateurs réalisés ont montré qu’aussi bien les novices que les experts de l’interaction 3D trouvent un grand inté-rêt à utiliser Navidget. Cette technique est également intéressante car elle est utilisable sur n’importe quel appareil, avec une large gamme de périphérique. Ainsi, Knödel et al. (2008) ont développé une version immersive de Navidget qui utilise des capteurs à 3 DDL afin de sélectionner le point cible et d’interagir avec le widget. Ainsi, les utilisateurs n’ont pas besoin d’apprendre de nouvelles techniques d’interaction, et peuvent bénéficier du même outil quels que soient le périphérique et la configuration utilisés.

CHAPITRE 14

Conclusion de la Partie III

Cette troisième partie du mémoire a été consacrée à l’étude de l’interaction 3D à l’aide d’un contrôle planifié. Ce type de contrôle possède des avantages indéniables. Il permet à l’utilisateur de se concentrer sur le but de sa tâche, en s’affranchissant des transformations impliquées. Les expérimentations que nous avons menées nous ont permis de montrer que, pour certaines tâches simples, un contrôle planifié pouvait tout à fait être utilisé au lieu d’un contrôle direct.

Le principal inconvénient de ce genre d’approche est qu’il offre moins de liberté que le contrôle direct, car l’interaction y est bien souvent discrétisée. Il sera important, lors du développement de techniques d’interaction 3D utilisant un contrôle planifié, de trouver le bon compromis entre facilité d’utilisation et liberté offerte à l’utilisateur.

Des techniques telles que Navidget, présentée au chapitre 13, sont tout à fait adaptées à une utilisation sur un terminal mobile. Elles offrent une grande liberté d’action tout en étant simples à manipuler. Nous avons été sollicités pour présenter cette technique dans plusieurs salons, destinés aussi bien aux novices qu’aux professionnels, et l’approche a séduit beau-coup de ces personnes.

Dans le futur, nous pensons continuer nos investigations dans ce sens, afin de proposer de nouvelles techniques d’interaction qui soient utilisables par des novices, tout en offrant assez de contrôles pour être utile aux experts de l’interaction 3D.

Conclusion générale

Dans ce mémoire, nous avons abordé l’interaction 3D sur terminaux mobiles à travers deux approches. D’une part, le contrôle direct et d’autre part le contrôle planifié. Ce premier mode d’interaction est le plus couramment employé dans les applications 3D interactives telles que les jeux vidéo ou les logiciels de visualisation de modèles 3D. Ce deuxième mode offre souvent une interaction d’un plus haut niveau, où l’utilisateur reste concentré sur sa tâche, et non sur les outils qui lui permettent d’accomplir sa tâche.

Contributions

Durant cette thèse, nous avons développé plusieurs techniques d’interaction 3D, princi-palement pour la tâche de navigation. Ces techniques sont le fruit de réflexions concernant une des principales caractéristiques des terminaux mobiles : les périphériques d’entrée. En effet, les premiers terminaux mobiles ne possédant qu’un pavé numérique comme seul moyen d’interaction, nous nous sommes intéressés à la navigation à base de touches avec la technique du ZGoto (Hachet et al., 2006; Decle et al., 2006). Cette technique permet de sélectionner un point de l’espace 3D afin de se déplacer vers celui-ci. Le principe général de cette technique est de discrétiser les profondeurs de la vue courante en sections afin de réaliser une interaction en deux temps : une fois une section sélectionnée, le curseur 3D peut être déplacé le long de sa bordure. La sélection du point cible étant réalisée en fonction des éléments visibles, et non sur le plan écran comme cela se fait habituellement, les performances des utilisateurs sont meilleures.

Quelques temps après le début de cette thèse, les écrans tactiles se sont développés et répandus assez rapidement sur le marché. Nous avons alors proposé Navidget (Hachet et al., 2008, 2009), qui peut être considéré comme un “go to” avancé, où l’utilisateur peut, à l’aide de quelques gestes simples, définir son point ou sa zone d’intérêt ainsi que l’angle et la distance de la vue cible par rapport à ce point. Cette technique a été présentée à la conférence 3DUI 2008 et a obtenu le prix du meilleur article.

Utilisant lui aussi l’écran tactile, ScrutiCam (Decle et al., 2009) permet, lui, un contrôle direct semi-automatique, et se situe donc à mi-chemin entre une interaction libre et un mouvement automatique. Cette technique a été étudiée pour des tâches d’inspection et se base sur un algorithme qui analyse le voisinage d’un point cible sélectionné par l’utilisateur afin de proposer une vue adaptée. Le contrôle de la vue est réalisé par de simples

146 CONCLUSION GÉNÉRALE

déposers sur l’écran, dont la direction déterminera le type de mouvements de caméra : un geste vers le centre de l’écran déplace la caméra vers la vue calculée par l’algorithme, tandis qu’un déplacement dans une autre direction permet de translater la caméra parallèlement au plan écran.

Étant persuadés de l’apport que pouvait représenter le contrôle planifié, nous avons étudié les différences existantes entre un contrôle direct et un contrôle planifié, ce qui a permis de publier l’étude présentée au chapitre 11 à MobileHCI 2009 (Decle et Hachet, 2009). Cette étude montre que, malgré des performances temporelles légèrement inférieures, il pouvait être intéressant d’utiliser un contrôle planifié plutôt qu’un contrôle direct sur un terminal mobile. Les sujets de cette étude ont pour la plupart préféré utiliser la technique planifiée, qui leur permettait de moins se perdre qu’avec une technique utilisant un contrôle direct.

Enfin, l’avènement des écrans tactiles multi-points nous a amené à nous demander si un tel périphérique pouvait améliorer les performances des utilisateurs pour des tâches simples de contrôle de vitesse. L’étude exploratoire que nous avons menée, présentée dans les chapitres 8 et 7, nous a montré que certains mouvements pouvaient être difficiles ou pénibles à réaliser, ce qui illustre la nécessité d’étudier attentivement les contraintes techniques de l’appareil ainsi que les contraintes anatomiques du corps humain lors du développement d’une technique d’interaction.

Toutes ces contributions sont résumées dans la Figure 14.1, qui classe ces techniques en fonction de la liberté de contrôle qu’elles offrent.

FIGURE14.1 – Résumé des techniques proposées dans cette thèse, classées en fonction du