IFT2905 Interfaces personne-machine 10. Evaluation Heuristique
S´ ebastien Roy
D´ epartement d’Informatique et de recherche op´ erationnelle Universit´ e de Montr´ eal
1 mars 2007
Universit´ e de Montr´ eal
Horreur ou Splendeur?
Horreur ou Splendeur?
Heuristiques de Nielsen
Rencontrer les attentes
1. Connecter avec le monde 2. Coh´erence et standards 3. Aide et documentationL’usager est le maˆıtre
4. Usager libre et en contrˆole 5. Visibilit´e de l’´etat du syst`eme 6. Flexibilit´e et efficacit´e
Erreurs
7. Pr´evention des erreurs
8. Reconnaissance plutˆot que m´emoire 9. Erreurs: d´etection, diagnostic, r´ecup´eration
Simplicit´ e
Est´ethique et minimalisme
Evaluation heuristique ´
´Evaluation heuristique
Inspection de l’utilisabilit´ e se basant sur les 10 heuristiques d’utilisabilit´ e. Propos´ e par J. Neilsen.
http://www.useit.com/papers/heuristic/
Efficace? il semble que oui... (´ etudes de Neilsen) Effectu´ ee par un expert
Etapes ´
Inspection minutieuse de l’Interface Usager (IU) Comparaison de l’UI avec les heuristiques Enum´´ erer les probl`emes d’utilisabilit´e
(expliquer et justifier chaque probl`eme par des heuristiques)
Comment faire une ´ evaluation heuristique
Justifier chaque probl` eme par une heuristique
”Trop de choix sur laHomepage” (10. Est´ethique et minimalisme)
”Je n’aime pas les couleurs” (???)
Enum´ ´ erer
tousles probl` emes
... mˆeme si un ´el´ement d’interface pose plusieurs probl`emes
Traverser l’interface
au moins deux fois.Permi`ere fois: Portrait plus g´en´eral Seconde fois: Attention port´ee aux d´etails
Ne pas se limiter aux 10 heuristiques
Autres principes: Design centr´e sur l’usager, Fitts, M´emoire, Couleur
Mais les 10 heuristiques facilitent la comparaison
Exemple
Exemple
L’icone de panier n’est pas balanc´ ee avec l’espace du fond
(Est´ethique et minimalisme)(Bon) L’usager est appell´ e par son nom
(Visibilit´e de l’´etat du syst`eme)Rouge sert pour les messages d’aide et d’erreur
(Coh´erence, Connecter avec le monde)Il y a un probl` eme (out of stock), pas d’explication ou de conseils
(Erreur: d,d,r)
UnitPrice et ExtPrice sont des ´ etiquettes ´ etranges
(Connecter avec le monde)Bouton Remove Hardware pas coh´ erent avec un checkbox
(Coh´erence et standards)Exemple
Aucun bouton Continue shopping
(Usager libre et en contrˆole)Check Out ne ressemble pas aux autres boutons
(Coh´erence interne et externe)Recalculate juste ` a cot´ e de Clear cart
(Pr´evention des erreurs)Cart Title et Cart Name pour le mˆ eme concept
(Coh´erence interne)On doit se souvenir du nom qu’on a donn´ e pour un panier
(Reconnaissance plutˆot que m´emoire)(Pr´evention des erreurs) (Flexibilit´e et efficacit´e)
Evaluation heuristique ´ 6= test usagers
L’´ evaluateur n’est pas le vrai usager
Il peut ˆetre plus prˆet de l’utilisateur que le programmeur...
Analogie ` a la programmation: inspection du code VS test du code
L’´ evaluation heuristique trouve des probl` eme que les tests usagers peuvent rater
Incoh´erence dans les polices de caract`ere probl`eme avec la loi de Fitts
Les
Test usagerssont la r´ ef´ erence pour l’utilisabilit´ e
Quelques conseils...
Pour une meilleurs ´ evaluation heuristique:
Utiliser plusieurs ´ evaluateurs
diff´erentes personnes trouvent diff´erents probl`emes Plus on est, mieux c’est... (mais le gain diminue) Nielsen recommande 3-5 ´evaluateurs
Alterner entre l’´ evaluation heuristique et les tests usagers
Chaque m´ethode trouve diff´erents probl`emesl’´evaluation heuristique est moins coˆuteuse.
On peut aider un ´ evaluateur mal pris
... `a condition de noter le probl`eme(on peut peut pas faire ca dans les tests usagers)
Plus formellement
Processus d’´ evaluation heuristique
1.Formation
Rencontre entre les concepteurs et les ´evaluateurs Expliquer l’application `a ´evaluer
D´ecrire les usagers types, le domaine, les sc´enarios 2.
Evaluation ´
Les ´evaluateurs travaillent s´eparement
Rapport ´ecrit, ou commentaires oraux pris en note But: trouver les probl`eme, peu importe la s´ev´erit´e 1-2 heure par ´evaluateur
3.
Estimation de la s´ ev´ erit´ e
Chaque ´evaluateur trie tous les probl`emes selon leur s´ev´erit´e Calculer pour chaque probl`eme sas´ev´erit´e moyenne
4.
Rapport
Evaluateurs et concepteurs discutent des r´esultats, proposent des solutions
S´ ev´ erit´ e
Comment ´ evaluer la s´ ev´ erit´ e d’un probl` eme?
Facteurs ` a ´ evaluer
Fr´equence: Ce probl`eme survient souvent? rarement?
Impact: Ce probl`eme est incontournable? un l´eger ennui?
Persistance: On doit contourner ce probl`eme une seule fois?
constamment?
Echelle de la s´ ´ ev´ erit´ e
1. Cosm´etique: pas besoin de s’en occuper 2. Mineur: doit ˆetre r´egl´e, mais pas en priorit´e 3. Majeur: doit ˆetre r´egl´e, en priori´e
4. Catastrophique: doit absolument ˆetre r´egl´e
Evaluation des prototypes ´
L’´ evaluation heuristique peut se faire sur des sketch
des prototypes papier
des impl´ ementations partielles (ou pleines de bugs)
Les probl` emes d’´ el´ ements manquants sont plus difficiles ` a trouver dans les sketch
parce qu’on utilise pas une vraie interface usager
il faut faire preuve de plus d’imagination pour les trouver
Evaluation heuristique ´
Quelques conseils pour faire une bonne ´ evaluation heuristique:
L’´ evaluation doit ˆ etre compr´ ehensible pour des d´ eveloppeurs et des gestionnaires
Inclure des commentaires positifs, pas seulement du n´ egatif Avoir du tact
”l’organisation des menus est un d´esastre total”
”les menus ne sont pas organis´es par fonction”
Etre sp´ ˆ ecifique
”le texte est illisible”
”le texte est trop petit, et manque de contraste (bleu fonc´e sur noir)”
N’oubliez pas...