• Aucun résultat trouvé

4.2 M.A.R.T.S : implémentation du prototype expérimental

4.2.2 Le suivi

4.2.4.4 Interface utilisateur

Nous avons veillé à ce que l’interface utilisateur de M.A.R.T.S soit la plus simple possible, ne nécessitant pas de phase d’apprentissage ou une grande connaissance de l’informatique. Ceci permettra à notre système de s’adapter aux différents types de visiteurs.

Chapitre 4 Système M.A.R.T.S : Mobile Augmented Reality Touring System (Conception et Expérimentation)

Nous précisons au lecteur que l’interface utilisateur de M.A.R.T.S a été déve- loppée en utilisant Android SDK fournissant tous les widgets nécessaires à son élaboration. Pour respecter un principe d’utilisation simple, tournée vers l’utili- sateur final au sens de [Cooper 95], celle-ci assure une transparence de nos para- digmes technologiques d’interaction. Dans cette optique, notre interface contient deux boutons : « Découvrir » et « Arrêter ». Le premier bouton permet d’intégrer un guide humain virtuel à la scène réelle. Il permet également de déclencher tous les types de paradigmes appuyant le discours de ce dernier. Le deuxième, quant à lui, sert à arrêter l’animation à tout moment.

Par ailleurs, l’interface de M.A.R.T.S n’impose pas au visiteur un circuit par- ticulier au sein du musée, ni les œuvres d’art à regarder. En fait, comme nous l’avons vu au deuxième chapitre de cette thèse, tenir compte des propres choix du visiteur et de son intérêt pour tel ou tel œuvre d’art s’inscrit sous le cadre du volet contexte personnel du modèle de Falk [Falk 05]. En plus, la présentation d’un objet exposé se fait suite à la demande du visiteur en cliquant sur le bouton « Découvrir » et s’arrête aussi à la demande de celui-ci en cliquant sur le bouton « Arrêter ». Ceci est dans le but de respecter le principe de l’apprentissage libre au musée « free-choice learning » de Falk [Falk 05].

Figure 4.2.5 – Interface utilisateur de M.A.R.T.S

4.2 M.A.R.T.S : implémentation du prototype expérimental

4.2.4.5 Adaptations de l’interaction à l’environnement de l’utilisateur

Nous rappelons au lecteur que dans le cas de « Documentation », si le guide humain virtuel ne peut pas se référer au titre de l’étiquette (quand l’utilisateur ne peut pas trop s’approcher de cette dernière, par exemple au moment de forte affluence) pour désigner le nom de l’œuvre d’art et son auteur, on doit afficher un texte virtuel se rapportant à ces informations. Dans ce cas, nous nous appuyons sur la distance18 de l’utilisateur par rapport à l’objet exposé.

En vision par ordinateur, la technique de stéréovision est largement utilisé [Brown 03] [Hager 95][Kytö 11] afin de calculer ce genre de distance. Cette tech- nique se base sur la géométrie épipolaire [Zhang 96] et requière deux caméras avec un déplacement horizontal connue à l’avance. Ceci constitue l’inconvénient majeur de cette méthode, étant donné que les smartphones en possession des visiteurs ne sont pas, à l’heure actuelle, équipés de caméra stéréoscopique. Dans cette op- tique, nous avons trouvé la méthode décrite par [Holzmann 12] très intéressante. En effet, leur méthode se base sur la technique de parallaxe de mouvement19 et

utilise une caméra monoculaire pour créer une vision stéréoscopique. En outre, elle a l’avantage de fonctionner sous une plateforme mobile. Cette méthode suppose que l’utilisateur effectue un déplacement latéral de son smartphone pour créer deux vues différentes de l’objet exposé. Étant donné que le déplacement n’est pas connu à l’avance, Holzmann et al. [Holzmann 12] utilisent le système inertiel afin de calculer le déplacement de la caméra. Leur méthode semi-automatique peut se résumer en ces étapes :

1. L’utilisateur effectue un mouvement latéral de son smartphone qui est enre- gistré en utilisant le gyroscope et l’accéléromètre intégrés à ce dernier. Ceci permet de créer deux images de deux points vues différents du même objet. La distance entre la position initiale et la position finale de la caméra s’ap- pelle « baseline » et elle est notée b20. Cette dernière est calculée en se basant

sur l’accélération et la vitesse angulaire de la caméra provenant respective- ment de l’accéléromètre et du gyroscope, comme décrit dans [Seifert 07]. Par la suite, depuis son smartphone, l’utilisateur peut sélectionner l’objet en question.

2. Les points d’intérêt SURF sont extraits (une région de 70 × 70 pixels) de

18. Calculer la distance de l’utilisateur par rapport à l’objet exposé revient à calculer la distance de la caméra à l’objet exposé.

19. Indice monoculaire de profondeur qui se réfère à un déplacement apparent de la position d’un objet vu de différents points de la vue.

20. La ligne de base « baseline » dénote plus précisément la distance entre la position initiale et finale du centre optique de la caméra.

Chapitre 4 Système M.A.R.T.S : Mobile Augmented Reality Touring System (Conception et Expérimentation)

l’objet sélectionné et sont appariés. Ensuite, on calcule la disparité D qui se rapporte au déplacement horizontal des points d’intérêt appariés. La dis- tance Z séparant la caméra de l’objet se mesure en utilisant la formule de triangulation suivante, avec f qui dénote la distance focale de la caméra :

Z = f · b

D

Nous précisons au lecteur que la distance limite, au-delà de laquelle le titre de l’étiquette n’est plus lisible pour l’utilisateur, doit être définie empiriquement, car elle varie en fonction du contexte physique de chaque musée.

Comme nous l’avons vu au chapitre précédent, quand l’objet exposé se trouve occulté pour des raisons de fortes affluences par exemple, nous mettons en œuvre une transformation de l’interface homme machine de MARTS. Cette transforma- tion consiste à basculer l’affichage des paradigmes d’interaction d’un mode direct de la réalité augmentée (affichage sur la vidéo de l’objet exposé) en un mode indi- rect (affichage sur une image de l’objet sur l’écran du smartphone). Il est à noter que cette adaptation de l’interface homme machine dépasse le spectre de cette thèse et fera l’objet de futurs travaux.