• Aucun résultat trouvé

Evaluation des IHM

N/A
N/A
Protected

Academic year: 2022

Partager "Evaluation des IHM"

Copied!
23
0
0

Texte intégral

(1)

Evaluation des IHM

1 Supervisé par :

- Mme Catherine Recanati

Réaliser par :

- Hicham MAHROUG

Supervisé par :

- Mme Catherine Recanati

Réaliser par :

- Hicham MAHROUG

Formation: Master 2 EID

28/02/2020

Formation: Master 2 EID

28/02/2020

(2)

Plan

1. Introduction 2. Définitions

3. Méthodes d’évaluation 4. Activités des utilisateurs 5. Critères ergonomiques 6. Conclusion

2

(3)

Introduction

L’évaluation est une phase primordiale dans la boucle de conception des IHM. Elle permet de vérifier et valider un système interactif.

Un système est dit vérifié s’il correspond aux spécifications issues de l’analyse des besoins.

Un système est dit validé s’il correspond aux besoins tout en respectant les contraintes du domaine

d’application

3

(4)

Définition

Évaluer une IHM : veut dire évaluer la fiabilité, qualité technique, utilisabilité, utilité et l’usages.

Évaluer quand ?

En cours de la conception En cours de la réalisation En cours de la diffusion Avant un achat

4

(5)

Définition

5

Système à évaluer

Modèle de référence Comparaison

(6)

Méthodes d’évaluation

Expériences contrôlés

Expériences quasi contrôlé

Etude d’utilisabilité

6

(7)

Expériences contrôlés

expériences dites « contrôlées » s’inspire directement des expérimentations menées dans le monde médical pour mesurer l’efficacité d’un médicament.

Cette méthode consiste à répartir de manière aléatoire les individus dans deux groupes afin de mesurer l’effet

causal du dispositif étudié

7

(8)

Expériences quasi contrôlées

expériences dites «quasi contrôlées » est une expérience contrôlée mais en situation réelle.

son problème c’est qu’on ne contrôle pas tout ces facteurs .

8

(9)

Etude d’utilisabilitée

L’étude d’utilisabilitée est la méthode la plus efficace pour évaluer un logiciel. Le test consiste à observer

directement l’utilisateur en train de se servir de l’application ou du logiciel. Il permet d’identifier

concrètement les problèmes. L’utilisabilitée peut être mesurée en calculant la performance de l’utilisateur.

Avantages :

Le test permet d’observer l’utilisateur dans un contexte réel d’utilisation.

Les problèmes identifiés sont ceux que l’utilisateur rencontre lorsqu’il se sert du logiciel.

Les problèmes sont identifiés objectivement par des difficultés freinant l’utilisateur dans sa tâche.

Des mesures peuvent être effectuées pendant le test.

Inconvénients :

Le test peut difficilement couvrir l’ensemble des fonctionnalités du logiciel.

9

(10)

Interview évaluation experte

Lien : https://www.youtube.com/watch?v=-1LtpJPjL-g

10

(11)

Activités des utilisateurs

Expériences / Test / validation

11

(12)

Exemple des activités des utilisateurs

Lien : https://www.youtube.com/watch?v=WDKRjljFg8Q

12

(13)

Critères ergonomiques

Meinadier Nielsen

Shneiderman Coutaz

RavdenetJohnson Bastien et Scapin

13

(14)

Meinadier

Mauvaise IHM

- Confusion - Frustration - Panique - Stresse - ennui

14

(15)

Nielsen 10 heuristiques

- proposer des dialogues simples, naturels et minimum - parler le langage de l’utilisateur

- minimiser la charge de mémoire de l’utilisateur

- être cohérent (sans contradiction), respecter les standards - refléter le monde réel

- fournir un retour à l’utilisateur

- permettre une personnalisation par les utilisateurs expérimentés

- prévenir les erreurs

- aider l’utilisateur à reconnaître, diagnostiquer et réparer les erreurs

- rendre accessible aide et documentation

15

(16)

Shneiderman

- temps d’apprentissage

- vitesse d’exécution des tâches par le couple homme/machine - taux d’erreurs et facilité de leur récupération

- rétention de l’apprentissage dans le temps - satisfaction subjective des utilisateurs

16

(17)

Coutaz

- lutter pour la cohérence - lutter pour la concision - réduire la charge cognitive

- mettre le contrôle entre les mains de l’utilisateur - souplesse d’utilisation

- structurer le dialogue - prédire les erreurs

17

(18)

Bastien et Scapin

- guidage

- charge de travail - contrôle explicite - adaptabilité

- gestion des erreurs

- homogénéité/cohérence

- signifiance des codes et dénominations - compatibilité

18

(19)

Exemple

- messages informatifs, constructifs, compréhensibles, amicaux, montrant la cause et la solution

- Éviter les messages non fini

19

(20)

Exemple

Guidage, feedback immédiat

20

(21)

Conclusion

21

But de l’évalution des IHM

VERIFIER la Qualité ergonomique !

Pour ceci :

Faire des test d’utilisabilitée pour vérifier la qualité ergonomique et donc voir si l’interface est adaptés.

Evaluer sur des utilisateurs visés et taches pour lesquelles il a été développé.

Ou bien, on utilise des connaissances ! (critères d’évaluation ergonomiques et heuristiques)

(22)

Webographie

22 Lien 1 : https://www.youtube.com/watch?v=-1LtpJPjL-g

Lien 2 : https://www.youtube.com/watch?v=WDKRjljFg8Q

(23)

23

Références

Documents relatifs

Deux méthodes d’analyses existent pour calculer les coûts liés aux démarreurs. La première est la méthode des centres d’activités qui consiste à et la deuxième est la

Compétences : Connaitre les unités de mesure du temps et les relations qui les lient.. Définir une frise chronologique - Utiliser et lire

▪ Grand nombre d’experts -> + de problèmes identifiés 1 expert -> environ 35% de problèmes détectés 5 experts -> environ 75% de problèmes

Donc, la première question critique à (se) poser dans l’analyse d’une situation ne devrait pas être orientée vers la recherche de causes – et donc de « coupables », ce qui

Une visite approfondie des paramètres de confidentialité permet d’avoir un premier aperçu des services nativement inclus dans le système qui ont tous pour point commun

Il s'ensuit que le principe d'efficacité n'est pas justiciable au même titre que celui de la légalité par exemple. Si le second est de nature à être directement jugé par

– window : c'est l'objet où s'affiche la page, il contient donc des propriétés concernant la fenêtre elle-même mais. aussi tous les objets-enfants contenus

Claire Blandin, Université Paris 13, LabSIC Jérôme Bourdon, Université de Tel Aviv, Israël Marion Brétecher, Université d'Orléans, GRIHL-CRH Josette Brun, Université