• Aucun résultat trouvé

Le critère correction des erreurs concerne les moyens mis en œuvre pour corriger immédiatement les erreurs commises par l’utilisateur. Un système optimisé en termes

de correction des erreurs est capable de fournir à l'utilisateur des moyens de faciliter

la tâche de correction. Il doit donc guider l'utilisateur concernant les étapes à suivre

afin de rectifier l'erreur, tout en fournissant à l’utilisateur les moyens d'identifier

l’erreur de façon précise.

Le critère homogénéité / cohérence se réfère à la façon avec laquelle les choix de

conception de l’interface (codes, dénominations, formats, procédures, etc.) sont conservés

pour des contextes identiques, et sont différents pour des contextes différents. C’est un

critère qui recouvre la totalité de l'interface et du système sous-jacent. Les procédures,

labels, commandes, etc., sont d’autant mieux reconnus, localisés et utilisés, que leur format,

localisation, ou syntaxe sont stables d’un écran à l’autre, d’une session à l’autre. Dans ces

conditions le système est davantage prévisible et les apprentissages plus généralisables ; les

erreurs sont réduites. Le manque d’homogénéité peut augmenter considérablement le temps

de recherche. Le manque d’homogénéité est aussi une raison importante de refus

d’utilisation.

Le critère signifiance des codes et dénominations concerne l’adéquation entre l’objet ou

l’information affichée ou entrée, et son référent. Des codes et dénominations signifiants

disposent d’une relation sémantique forte avec leur référent. La réflexion sur les codes et

dénominations devra prendre en compte les standards existants dans des interfaces

comparables, afin de capitaliser sur les connaissances préalables des utilisateurs. Pour les

applications professionnelles ou spécialisées, il sera essentiel de s'imprégner du vocabulaire

des personnes afin de concevoir une interface signifiante pour eux.

Le critère de compatibilité est très large. Il se réfère à l’accord pouvant exister entre les

caractéristiques des utilisateurs (mémoire, perceptions, habitudes, compétences, âge,

attentes, etc.) et des tâches, d’une part, et l’organisation des sorties, des entrées et du

dialogue d’une application donnée, d’autre part. De plus, la compatibilité concerne

également le degré de similitude entre divers environnements ou applications.

1.6.3 Méthodes d’évaluation des systèmes interactifs

Selon le méta-modèle de Senach [1990], l’évaluation nécessite des méthodes adaptées

(techniques de recueil de données). Il existe dans la littérature de nombreuses méthodes

d’évaluation. Les praticiens ont donc l’embarras de choix ; ce qui amène certaines chercheurs à

faire des classifications pour aider les praticiens à choisir. A titre d’exemple, Calvary et Coutaz

[1999] proposent une classification selon le caractère sommatif ou formatif de la méthode. Balbo

[1994], quant à elle, propose une classification selon cinq dimensions à savoir, les connaissances,

les ressources matérielles, les facteurs situationnels, les moyens humains et les résultats. Grislin et

Kolski [1996] proposent une classification selon sept critères : les variables cibles, les intervenants

de l’évaluation, les types de connaissances, les types de méthodes, l’existence ou non de l’interface,

les contraintes d’application de la méthode et le positionnement dans le cycle de développement du

système

3

. Dans le cadre de ce mémoire, on se focalise essentiellement sur les évaluations de type

test utilisateur ainsi que sur les méthodes d'inspection. On va voir dans ce chapitre la méthode « test

d’utilisabilité » qui est une méthode du type test utilisateur puis les méthodes heuristiques.

1.6.3.1 Les tests d’utilisabilité

Les tests d’utilisabilité font parties des méthodes d’évaluation les plus populaires. Selon

Dumas et Fox [2008], cette méthode présente six caractéristiques :

• L’évaluation se focalise sur l’utilisabilité : ce qui signifie que les objectifs de l’évaluation

doivent concerner l’utilisabilité. Ce qui n’est pas toujours le cas selon Dumas et Fox

(2008) : on a souvent tendance à ajouter d’autres questions telles que des questions

concernant le marketing.

• Les participants sont des utilisateurs finaux ou des utilisateurs potentiels : tester une IHM

avec des autres participants que les utilisateurs finaux permet de détecter des problèmes. Par

contre, les résultats ne peuvent pas être généralisés sur les vrais utilisateurs finaux ou les

vrais utilisateurs potentiels.

• Le produit ou l’IHM à évaluer existe : il peut correspondre à des schémas de conception

d'interface utilisateur, des premiers prototypes de bas niveau, des prototypes fonctionnels de

haute fidélité, des produits en bêta version ou des produits déjà réalisés

• Les participants exécutent des tâches et souvent en pensant à haute voix : durant la phase

d'exécution de l'évaluation, les évaluateurs et l’administrateur interagissent. Au début de la

session, l’administrateur instruit les participants sur le processus d’évaluation tout en

soulignant que l’évaluation concerne l’utilisabilité.

• Les données sont enregistrées et analysés : l’enregistrement utilise parfois un enregistreur

vidéo ; on peut aussi se baser sur un rapport d’exploitation du système ou sur des notes

utilisateur crayon/papier ou informatisées.

• Les résultats de l’évaluation sont communiqués aux audiences appropriés : La

communication de ces résultats peut être informelle. Le rapport formel sert à documenter les

processus plutôt qu'à diffuser les résultats.

Cette méthode a l'avantage d’être simple. Elle nécessite peu d'expertise, et peut fournir un

aperçu utile sur les problèmes liés au système interactif. Toutefois, il existe un certain nombre de

problèmes. L'information est nécessairement subjective, et peut être sélective en fonction des tâches

choisies. Mesurer les degrés de sévérité des problèmes est souvent difficile. Parfois on utilise

l’oculométrie, technique permettant d'enregistrer les mouvements oculaires [Duckovski, 2003].

L'analyse des mouvements oculaire peut aider à identifier les sources exactes de confusions ou

erreurs.

1.6.3.2 Les méthodes d’inspection de l’utilisabilité

Les méthodes d'inspection de l’utilisabilité [Nielsen & Mack, 1994] demeurent les plus

importantes méthodes à bas coût pour l’évaluation de l’utilisabilité. Elles peuvent être appliquées à

toute IHM tout au long de son développement : un prototype papier, un prototype fonctionnel, un

logiciel en test de production, ou une version diffusée et installée. Ce sont des méthodes

d'évaluation analytique, qui ne nécessitent pas la présence des utilisateurs finaux ou des utilisateurs

potentiels, contrairement aux méthodes empiriques telles que des tests d’utilisabilité. Parmi les

méthodes d’inspection les plus connues, on retrouve l’évaluation heuristique et la méthode

cognitive walkthrough.

L’évaluation heuristique utilise une liste d’heuristiques pour identifier et confirmer des

problèmes d’utilisabilité. Il existe plusieurs listes d’heuristiques exploitables. Basée sur les

heuristiques de Nielsen (cf. 1.6.1), on trouve la méthode d’évaluation heuristique de Nielsen

[Nielsen, 1994]. Basée sur les critères de la norme ISO 9241, la méthode ISO 9241 Evaluator a été

proposée par [Reitterer et Oppermann, 1995 ; Oppermann et Reitterer, 1997] ; de même IsoMetrics

a été proposée par [Gediga, Hamborg, et Düntsch, 1999]. On peut aussi utiliser les critères

ergonomiques de Bastien et Scapin [1993] en support à une méthode d’évaluation par des critères

Documents relatifs