de correction des erreurs est capable de fournir à l'utilisateur des moyens de faciliter la tâche de correction. Il doit donc guider l'utilisateur concernant les étapes à suivre afin de rectifier l'erreur, tout en fournissant à l’utilisateur les moyens d'identifier l’erreur de façon précise. Le critère homogénéité / cohérence se réfère à la façon avec laquelle les choix de conception de l’interface (codes, dénominations, formats, procédures, etc.) sont conservés pour des contextes identiques, et sont différents pour des contextes différents. C’est un critère qui recouvre la totalité de l'interface et du système sous-jacent. Les procédures, labels, commandes, etc., sont d’autant mieux reconnus, localisés et utilisés, que leur format, localisation, ou syntaxe sont stables d’un écran à l’autre, d’une session à l’autre. Dans ces conditions le système est davantage prévisible et les apprentissages plus généralisables ; les erreurs sont réduites. Le manque d’homogénéité peut augmenter considérablement le temps de recherche. Le manque d’homogénéité est aussi une raison importante de refus d’utilisation. Le critère signifiance des codes et dénominations concerne l’adéquation entre l’objet ou l’information affichée ou entrée, et son référent. Des codes et dénominations signifiants disposent d’une relation sémantique forte avec leur référent. La réflexion sur les codes et dénominations devra prendre en compte les standards existants dans des interfaces comparables, afin de capitaliser sur les connaissances préalables des utilisateurs. Pour les applications professionnelles ou spécialisées, il sera essentiel de s'imprégner du vocabulaire des personnes afin de concevoir une interface signifiante pour eux. Le critère de compatibilité est très large. Il se réfère à l’accord pouvant exister entre les caractéristiques des utilisateurs (mémoire, perceptions, habitudes, compétences, âge, attentes, etc.) et des tâches, d’une part, et l’organisation des sorties, des entrées et du dialogue d’une application donnée, d’autre part. De plus, la compatibilité concerne également le degré de similitude entre divers environnements ou applications. 1.6.3 Méthodes d’évaluation des systèmes interactifs Selon le méta-modèle de Senach [1990], l’évaluation nécessite des méthodes adaptées (techniques de recueil de données). Il existe dans la littérature de nombreuses méthodes d’évaluation. Les praticiens ont donc l’embarras de choix ; ce qui amène certaines chercheurs à faire des classifications pour aider les praticiens à choisir. A titre d’exemple, Calvary et Coutaz [1999] proposent une classification selon le caractère sommatif ou formatif de la méthode. Balbo [1994], quant à elle, propose une classification selon cinq dimensions à savoir, les connaissances, les ressources matérielles, les facteurs situationnels, les moyens humains et les résultats. Grislin et Kolski [1996] proposent une classification selon sept critères : les variables cibles, les intervenants de l’évaluation, les types de connaissances, les types de méthodes, l’existence ou non de l’interface, les contraintes d’application de la méthode et le positionnement dans le cycle de développement du système3. Dans le cadre de ce mémoire, on se focalise essentiellement sur les évaluations de type test utilisateur ainsi que sur les méthodes d'inspection. On va voir dans ce chapitre la méthode « test d’utilisabilité » qui est une méthode du type test utilisateur puis les méthodes heuristiques. 1.6.3.1 Les tests d’utilisabilité Les tests d’utilisabilité font parties des méthodes d’évaluation les plus populaires. Selon Dumas et Fox [2008], cette méthode présente six caractéristiques : • L’évaluation se focalise sur l’utilisabilité : ce qui signifie que les objectifs de l’évaluation doivent concerner l’utilisabilité. Ce qui n’est pas toujours le cas selon Dumas et Fox (2008) : on a souvent tendance à ajouter d’autres questions telles que des questions concernant le marketing. • Les participants sont des utilisateurs finaux ou des utilisateurs potentiels : tester une IHM avec des autres participants que les utilisateurs finaux permet de détecter des problèmes. Par contre, les résultats ne peuvent pas être généralisés sur les vrais utilisateurs finaux ou les vrais utilisateurs potentiels. • Le produit ou l’IHM à évaluer existe : il peut correspondre à des schémas de conception d'interface utilisateur, des premiers prototypes de bas niveau, des prototypes fonctionnels de haute fidélité, des produits en bêta version ou des produits déjà réalisés • Les participants exécutent des tâches et souvent en pensant à haute voix : durant la phase d'exécution de l'évaluation, les évaluateurs et l’administrateur interagissent. Au début de la session, l’administrateur instruit les participants sur le processus d’évaluation tout en soulignant que l’évaluation concerne l’utilisabilité. • Les données sont enregistrées et analysés : l’enregistrement utilise parfois un enregistreur vidéo ; on peut aussi se baser sur un rapport d’exploitation du système ou sur des notes utilisateur crayon/papier ou informatisées. • Les résultats de l’évaluation sont communiqués aux audiences appropriés : La communication de ces résultats peut être informelle. Le rapport formel sert à documenter les processus plutôt qu'à diffuser les résultats. Cette méthode a l'avantage d’être simple. Elle nécessite peu d'expertise, et peut fournir un aperçu utile sur les problèmes liés au système interactif. Toutefois, il existe un certain nombre de problèmes. L'information est nécessairement subjective, et peut être sélective en fonction des tâches choisies. Mesurer les degrés de sévérité des problèmes est souvent difficile. Parfois on utilise l’oculométrie, technique permettant d'enregistrer les mouvements oculaires [Duckovski, 2003]. L'analyse des mouvements oculaire peut aider à identifier les sources exactes de confusions ou erreurs. 1.6.3.2 Les méthodes d’inspection de l’utilisabilité Les méthodes d'inspection de l’utilisabilité [Nielsen & Mack, 1994] demeurent les plus importantes méthodes à bas coût pour l’évaluation de l’utilisabilité. Elles peuvent être appliquées à toute IHM tout au long de son développement : un prototype papier, un prototype fonctionnel, un logiciel en test de production, ou une version diffusée et installée. Ce sont des méthodes d'évaluation analytique, qui ne nécessitent pas la présence des utilisateurs finaux ou des utilisateurs potentiels, contrairement aux méthodes empiriques telles que des tests d’utilisabilité. Parmi les méthodes d’inspection les plus connues, on retrouve l’évaluation heuristique et la méthode cognitive walkthrough. L’évaluation heuristique utilise une liste d’heuristiques pour identifier et confirmer des problèmes d’utilisabilité. Il existe plusieurs listes d’heuristiques exploitables. Basée sur les heuristiques de Nielsen (cf. 1.6.1), on trouve la méthode d’évaluation heuristique de Nielsen [Nielsen, 1994]. Basée sur les critères de la norme ISO 9241, la méthode ISO 9241 Evaluator a été proposée par [Reitterer et Oppermann, 1995 ; Oppermann et Reitterer, 1997] ; de même IsoMetrics a été proposée par [Gediga, Hamborg, et Düntsch, 1999]. On peut aussi utiliser les critères ergonomiques de Bastien et Scapin [1993] en support à une méthode d’évaluation par des critères Dans le document Spécification et conception d’un environnement d’aide à l’inspection des Systèmes Interactifs, basé sur la méthode Cognitive Walkthrough (Page 44-47)