• Aucun résultat trouvé

Chapitre II : Etat de l’art

II.5. Evaluation des IHM

61

En général, la transformation de modèle nécessite une mise en correspondance entre les modèles sources et les modèles cibles. Dans le mécanisme de transformation de modèle, la source et la cible se conforment à un métamodèle. Le moteur de transformation effectue la génération automatique du modèle cible à partir du modèle source. Il applique entièrement les règles de transformation de modèle. De ce fait, ce moteur de transformation reçoit le modèle source, il transforme automatiquement le modèle cible (conforme au modèle source) en appliquant les règles de transformation de modèle. Par abus de langage, un métamodèle est un modèle du modèle après une transformation. Par ailleurs, les IHM doivent être évaluées avant d’être livrées aux clients potentiels.

II.5. Evaluation des IHM

Dans le processus itératif de la réalisation des IHM, l'évaluation est souvent négligée ou bien ignorée par les concepteurs spécialistes en Génie Logiciel, cette étape essentielle est sous-estimée par les informaticiens. L’objectif de l’évaluation des IHM est de fournir une approche en vue d’une évaluation plus performante. Cette évaluation consiste à tenir compte qu’un utilisateur peut interagir aisément avec les systèmes interactifs. Dans le but de répondre aux besoins, un utilisateur doit être capable de réaliser sa tâche au moyen de l’interface qui lui est proposée. A notre ère, des moyens d’interaction entre l’utilisateur et la machine évoluent et il existe progressivement des challenges entre les entreprises de production de logiciel. Alors il est nécessaire de fournir des nouveaux critères et des méthodes pour l’évaluation des IHM. Les travaux de (Huart, Kolski, & Bastien, 2008) ont proposé une démarche qui permettait d’évaluer des documents multimédias, car le producteur des documents multimédias a beaucoup de difficulté pour l’estimation de documents édités.

Par ailleurs, les utilisateurs rencontrent des difficultés pour interagir avec les nouveaux systèmes interactifs, non familiers, ou encore mal évalués, et ne répondant pas à leurs besoins. Ces différentes contraintes donnent naissance à la création d’approches pour évaluer des systèmes interactifs afin d’améliorer la qualité des interactions entre la machine et son utilisateur. Il existe des études qui sont orientées vers l’évaluation des systèmes interactifs sous plusieurs angles et points de vue. Ces études doivent être mises en œuvre dès le début (conception) jusqu’à la phase finale (génération et codage) du processus de la création d’un système interactif. De nombreuses méthodes d’évaluation des interfaces utilisateur sont actuellement disponibles. Les travaux de (Senach, 1990) ont présenté les deux approches permettant d’évaluer une IHM.

---

62

La première approche est dite approche analytique, qui est basée sur le modèle de l’interface et de l’IHM. La deuxième approche est l’approche empirique basée sur la mesure de performance des utilisateurs. De plus, (Sears, 2008) et (Mahatody, Sagar, & Kolski, 2010) ont parlé de besoins des utilisateurs, de l’évaluation de l’IHM et des méthodes d’inspection de l’IHM. Ces travaux ont considéré les aspects méthodologiques, conceptuels et technologiques. Selon (Trabelsi, Ezzedine, & Kolski, 2004), les méthodes d’évaluation des IHM mettent principalement l’accent sur deux critères globaux d’évaluation :

➢ Le critère d’utilité : détermine si l’interface répond aux besoins de l’utilisateur ; en d’autres termes, si l’application permet à l’utilisateur d’atteindre ses objectifs de travail. L’utilité englobe la notion de performance du système, la capacité fonctionnelle et la qualité de l’assistance technique proposée ;

➢ Le critère d’utilisabilité : assure une manipulation facile et intuitive de l’application interactive. La facilité d’apprentissage et d’utilisation ainsi que la qualité des aides sont les principaux arguments qui définissent l’utilisabilité. (Nielsen, 1994) a proposé d’une approche basée sur l’ingénierie de l’utilisabilité.

Différentes approches permettent d’évaluer un système interactif en amont qu’en aval de la phase de réalisation effective (codage ou génération), l’évaluation doit être centrée sur l’utilisateur et basée sur des critères purement techniques. De plus, on peut classer les méthodes d’évaluation principalement selon leur degré d’automatisation, ou encore la prise en compte de l’utilisateur et le savoir utilisé pour l’évaluation. Ce travail de recherche a proposé des espaces taxonomiques qui permettent de situer les techniques d'évaluation actuelles et les modèles de tâches possibles. Il a aussi proposé un mécanisme d'analyse automatique pour l'évaluation ergonomique des interfaces utilisateur. Cette analyse utilise trois sources d’information :

➢ Une base de profils de comportement modélisés sous forme de règles ;

➢ Une représentation formelle de l’espace des tâches réalisables avec le logiciel testé ; ➢ Les données comportementales enregistrées au cours des sessions d’utilisation du

logiciel testé.

L’approche proposée par (Balbo, 1994) a pris la forme d'un détecteur d'anomalies et a été représentative d'approches automatiques ou semi-automatiques pour l'évaluation des IHM. Les travaux de (Ivory & Hearst, 2000) et (Vanderdonckt, 1999) ont étudié de manière approfondie des méthodes d'évaluation, les étapes et les analyses des techniques existantes vis-à-vis de l’exhaustivité, de la cohérence et de l'exactitude de l’évaluation de l’IHM.

---

63

(Grislin & Kolski, 1996) a résumé les principes d’évaluation et les critères ergonomiques pour l’évaluation de l’IHM, les principaux intervenants durant la phase d’évaluation d’un logiciel et les approches récentes qualifiées pour les analyses expertes. Parallèlement à cette étude, (Kolski & Ezzedine, 2003) se sont intéressés à des méthodes et des critères d’évaluation sous l’angle de l’ergonomie des logiciels. La figure 20 représente le principe de base de l'évaluation.

Figure 20: Principe de base de l'évaluation (Kolski & Ezzedine, 2003) et (Senach, 1990) L’évaluation des IHM signifie tenir compte tout d’abord des besoins de l’utilisateur, respecter ensuite des critères d’utilité et d’utilisabilité, et finalement suivre pas à pas les critères ergonomiques d’après (Balbo, 1994), (Bastien & Scapin, 1993), (Scapin, 1986), (Scapin & Bastien, 1997), (Ezzedine & Kolski, 2004), (Grislin & Kolski, 1996) et (Brangier et al., 2015). En général, l’eXpérience Utilisateur (User eXperience en anglais) est une terminologie apparue dans le but de qualifier le ressenti d'un utilisateur en tenant compte du résultat de cette "expérience". Les travaux de (Stephanidis, 2009) ont décrit les concepts, les méthodes et les outils consacrés à une vue complète et multidisciplinaire du design de l’IHM.

En bref, l’utilité détermine si l’IHM permet à l’utilisateur d’atteindre ses objectifs de travail. Elle correspond aux capacités fonctionnelles, aux performances et à la qualité du logiciel. Et l’utilisabilité rend compte de la qualité de l’IHM en termes de facilité d’apprentissage et d’utilisation, ainsi que de qualité de la documentation. Elle est basée sur les critères ergonomiques recommandés. Après une suite d’évaluations itératives, l’IHM devient utile, utilisable et fonctionnelle. Si elle répond aux besoins (inscrits dans le cahier des charges fonctionnelles) des utilisateurs, les tâches des informaticiens sont terminées.

---

64