• Aucun résultat trouvé

À la fin de l’évaluation un court entretien semi-dirigé était proposé. Les participants ont d’abord été invités à classer les trois techniques d’interaction de la meilleure à la pire. En première position, sept participants ont préféré la technique Mid-Air Hand, quatre la technique Mid-Air Phone et seulement un participant la technique Touchscreen. Sept participants ont noté la technique Touchscreen en dernière position (cf. Figure 94). Pour l’analyse statistique, nous avons marqué la technique préférée avec le score de 1 et la technique la moins préférée avec le score de 3. Un test de Friedman ne révèle aucun effet significatif du score représentant les préférences utilisateurs sur la technique d’interaction (χ2(2) = 5,17 ; p = 0,075).

Figure 94 : Classement des trois techniques d’interaction par ordre de préférence

Pour terminer, trois points positifs et trois points négatifs étaient demandés aux participants pour chaque technique d’interaction. Les points positifs les plus fréquemment cités se réfèrent à une technique d’interaction précise, drôle et intuitive pour la technique Mid-Air Hand (P1, P3) ; une technique d’interaction intuitive et facile pour la technique Mid-Air Phone (P3, P5) ; et une technique d’interaction familière pour la technique Touchscreen (P6, P12). Les commentaires négatifs relatent le poids du smartphone et la fatigue musculaire pour les techniques Mid-Air Hand et Mid-Air Phone (P1) ; le manque de précision avec les cibles les plus éloignées et la perte de référence avec des mouvements rapides pour la technique Mid-Air Phone (P3, P10) ; et le manque de précision, l’interaction bi-manuelle et la difficulté de combiner les trois DDL (degrés de liberté) pour la technique Touchscreen (P6, P5).

VI.3.4.3 Résumé

Notre première évaluation utilisateur révèle que les techniques basées sur un couplage direct entre le geste physique et la translation 3D de la vue détaillée (techniques Mid-Air Hand et Mid-Air Phone) sont meilleures que la technique basée sur un couplage indirect entre le geste physique et la translation 3D de la vue détaillée (technique Touchscreen). Cette étude révèle aussi que le score de la technique Mid-Air Hand est meilleur en termes d’attractivité et de préférences utilisateurs, bien qu’il n’y ait pas de différence significative concernant le score SUS. Un autre résultat intéressant de notre étude est que la technique Touchscreen, la technique la plus populaire, est la pire technique en termes de performances, de score d’attractivité et des préférences utilisateurs.

Ces résultats sont très encourageants et nous poussent à explorer davantage les deux techniques d’interaction basée « mid-air » (geste en l’air) dans une deuxième évaluation utilisateur : le but étant de mieux étudier leur utilisation dans le contexte d’interaction public.

Sélection 3D

VI.3.5 Évaluation utilisateur n°2 : découverte des gestes « mid-air »

Le but de cette seconde évaluation utilisateur est d’explorer la difficulté à réaliser les deux techniques d’interaction « mid-air » dans un contexte public c’est-à-dire sans apprentissage et sans explication d’un expert humain ou médiateur. Nous avons pour cela étudié l’impact de deux messages explicatifs.

VI.3.5.1 Tâche

Nous avons utilisé la même tâche que l’évaluation utilisateur 1 (translation de la vue détaillée, cf. partie VI.3.3.1 page 170) : sélectionner une cible dans un espace 3D avec le paradigme d’interface Overview+Detail. Pour simplifier la tâche et le temps de l’évaluation, nous avons décidé d’afficher l’espace 3D sans les objets d’occultation.

VI.3.5.2 Les techniques d’interaction

Les deux techniques d’interaction « mid-air » utilisées sont les mêmes que pour l’évaluation utilisateur 1 (translation de la vue détaillée) : les techniques Mid-Air Hand et Mid-Air Phone.

VI.3.5.3 Messages explicatifs

Inspiré par les travaux de Walter (Walter, Bailly, and Müller 2013), nous avons exploré différents messages explicatifs (revealing strategies). Dans le contexte d’une technique d’interaction basée smartphone avec un écran public, nous avons privilégié un message explicatif basé sur un feedback personnel sur l’écran du smartphone. Nous avons étudié deux stratégies de message explicatif pour expliquer les gestes « mid-air » : une première stratégie sous la forme d’une image (cf. Figure 95 ci-dessous) et une seconde stratégie sous la forme d’un message textuel expliquant les gestes à réaliser. Le texte pour expliquer la technique Mid-Air Hand était : « Pour changer votre point de vue dans l’espace 3D, déplacez votre main droite derrière le smartphone et maintenez appuyé un bouton avec votre main gauche ». Le texte pour expliquer la technique Mid-Air Phone était : « Pour changer votre point de vue dans l’espace 3D, bougez le smartphone dans l’espace pendant que vous appuyez sur un bouton ».

Figure 95 : Messages explicatifs sous la forme d’une image pour la technique Mid-Air Hand (à gauche) et Mid-Air Phone (à droite)

VI.3.5.4 Apparatus

L’EV3D et le système de capture des gestes « mid-air » sont les mêmes que pour la première évaluation utilisateur (translation de la vue détaillée). Un premier capteur six DDL était attaché au smartphone et le deuxième était attaché sur la main du participant par l’ajout d’un gant.

VI.3.5.5 Participants

Nous avons recruté un groupe de vingt-quatre participants de notre université dont quatre femmes, avec une moyenne d’âge se situant à 27,5 années (écart type=5,4). Huit participants avaient déjà joué à un jeu 3D sur smartphone et vingt-deux participants avaient déjà utilisé une interaction de type « mid-air » par l’intermédimid-aire des consoles de jeu Wiimote ou Kinect. Aucun des participants n’étaient présents dans la première évaluation utilisateur (translation de la vue détaillée) et nous avons vérifié qu’ils n’en avaient pas entendu parler.

VI.3.5.6 Design et procédures

Afin d’évaluer les différents messages explicatifs, notre évaluation utilisateur suit un design d’expérience entre-participants 2 × 2 avec la technique d’interaction (Mid-Air Hand ou Mid-Air Phone) et le message explicatif (texte ou image) comme facteurs. Chaque participant a utilisé les deux techniques d’interaction avec seulement un seul des deux messages explicatifs. Nous avons contrebalancé l’ordre du facteur technique d’interaction sur les participants : la moitié des participants ont commencé avec une technique d’interaction et l’autre moitié avec l’autre technique d’interaction. Pour chaque technique d’interaction, chaque participant devait sélectionner huit cibles tirées aléatoirement mais toutes à la même distance de la position d’origine.

Nous avons décidé de conduire une évaluation contrôlée en laboratoire afin d’éliminer les effets d’imitation des gestes ou d’apprentissage par copie des autres participants (Walter, Bailly, and Müller 2013). De plus le matériel de l’évaluation utilisateur ne permet pas aux participants d’utiliser leur propre smartphone interdisant de ce fait une étude in-situ en espace public.

L’évaluation était réalisée en présence d’un expérimentateur. Les participants étaient équipés des capteurs et la tâche (sélectionner une cible) était expliquée sans décrire le fonctionnement des techniques d’interaction. Les participants étaient informés de la présence d’un message explicatif (texte ou image) expliquant la technique d’interaction. Pour chaque technique d’interaction, les participants devaient donc regarder le message explicatif et réaliser huit essais de la tâche. Dans le cas où un participant mettait plus de deux minutes pour comprendre la technique d’interaction c’est-à-dire réaliser le premier essai, nous stoppions le bloc de cette technique d’interaction et notions un échec. Ce temps de deux minutes a été identifié comme le temps maximum qu’un utilisateur va consacrer pour réaliser une interaction avec un système dans un espace public (Walter, Bailly, and Müller 2013). Afin de diminuer l’influence du capteur sur la main du participant pouvant partiellement révéler la nature du geste de la technique Mid-Air Hand, les participants étaient équipés des deux capteurs avant de commencer l’évaluation. Nous n’informions en aucun cas les participants quel capteur était opérationnel pendant l’interaction.

Sélection 3D

VI.3.5.7 Données collectées

Nous avons enregistré toutes les données venant des deux capteurs servant à la captation des gestes « mid-air » ainsi que les évènements de l’écran tactile du smartphone. Nous avons aussi stocké la position virtuelle de la vue détaillée. Nous avons calculé pour chaque essai le temps d’exécution de la tâche correspondant au temps entre l’apparition de la cible à sélectionner et le dernier instant où le participant a manipulé la vue détaillée. Ce temps contient aussi le temps que le participant a passé à lire le message explicatif.

Nous avons mesuré les préférences utilisateurs et la difficulté perçue d’utilisation des techniques d’interaction à l’aide d’une échelle de Likert avec cinq choix de réponse.

VI.3.6 Résultats de l’évaluation utilisateur n°2

Quelques participants n’ont pas réussi à comprendre et réaliser les gestes de toutes les techniques d’interaction. Avant de décrire les résultats quantitatifs et qualitatifs de cette évaluation, nous allons détailler le taux de succès des techniques d’interaction et la quantité de données exploitables.

VI.3.6.1 Taux de succès et données exploitables

Sur les vingt-quatre participants de l’évaluation utilisateur, deux d’entre eux (8,3%) n’ont pas compris les gestes de la technique Mid-Air Hand et un participant (4,15%) les gestes de la technique Mid-Air Phone. Ces trois participants n’ont pas été capables de comprendre la technique d’interaction en moins de deux minutes : il s’agissait dans les trois cas la première technique d’interaction utilisée dans l’évaluation. Le message explicatif de ces trois conditions d’erreur était un texte et une image pour la technique Mid-Air Hand et une image pour la technique Mid-Air Phone. Une fois que les participants ont raté la première technique, nous leur avons demandé de continuer l’évaluation avec la deuxième technique avec le même message explicatif : les trois participants ont tous réussis la fin de l’évaluation utilisateur.

En conséquence, nous avons collecté un nombre différent d’essais pour les trois participants ayant un échec sur une technique d’interaction. Pour ces trois participants qui ont utilisé une seule technique, nous n’avons collecté que huit essais : (1 technique × 1 message explicatif × 8 répétitions) × 3 participants = 24 essais. Pour les vingt-et-un autres participants, nous avons collecté seize essais : (2 techniques × 1 message explicatif × 8 répétitions) × 21 participants = 336 essais. Au total nous avons donc 360 essais pour l’analyse statistique.

VI.3.6.2 Résultats quantitatifs