Semaine 5

Activité 1

Méthode d’évaluation par des experts : revue formelle des IHM

Les évaluations d’interfaces humain-machine sont réalisées pour établir un diagnostic d’usage de systèmes existants.  Elles permettent d’assurer la qualité de la conception d’une IHM, de comparer les avantages et les inconvénients de logiciels et/ou de contrôler la qualité d’un produit commercialisé.

Pour examiner et évaluer de façon méthodique un système, on peut utiliser une méthode d’évaluation d’une interface par des experts. Cette méthode fait appel à des experts, c’est-à-dire des personnes spécialisées dans un domaine. Grâce à cette méthode, il est possible d’identifier les principaux problèmes d’utilisabilité au stade de la conception de l’interface.

Une évaluation peut d’abord être menée à partir de critères d’évaluation ou de la littérature. Les experts sont interrogés sur un produit ou un système existant à partir d’un scénario d’utilisation. Ainsi, on peut profiter de l’opinion de non-initiés sur un produit pour déterminer quelles sont les principales difficultés qui s’y rattachent. Les experts peuvent émettre leur opinion en indiquant les points positifs de l’interface ainsi que  les problèmes et difficultés rencontrés lors de l’utilisation. Les experts peuvent aussi indiquer des points à améliorer qui n’auraient pas été pris en considération par les concepteurs. Ce type d’évaluation est utile pour éliminer des erreurs importantes.

Les experts peuvent aussi utiliser des grilles d’évaluation comportant une liste des propriétés inhérentes à une bonne interface. Une évaluation est effectuée et des points sont attribués au moyen de cette liste. Comme l’évaluation repose sur un total de points, elle ne permet pas de comprendre la nature du problème, la description de la difficulté et le niveau d’expertise de l’évaluateur. De plus, chaque grille être adaptée au produit ou au système évalué. Smith et Mosier ont proposé une liste de 944 recommandations : https://www.hcibib.org/sam/contents.html.

À partir des résultats obtenus, il est possible de faire un constat des recommandations ou priorisations en vue d’améliorer le produit/système.

Il convient de souligner que la méthode d’évaluation par des experts est une condition préalable à la réalisation d’essais par les utilisateurs et qu’elle ne peut pas remplacer ces essais. Il est vivement conseillé de confronter l’interface à des utilisateurs réels. De plus, les experts se spécialisent souvent dans des domaines privilégiés et introduisent des biais dans l’évaluation du système.

Il existe une autre type d’évaluation : il s’agit de l’inspection d’utilisabilité. Cette méthode a été proposée par Nielsen & Mack (1994). Il s’agit d’abord de déterminer la spécification des utilisateurs visés et du système à réaliser sous la forme d’enchaînement d’écrans. Ensuite, l’évaluation est faite par des experts en présence du concepteur. L’expert-évaluateur explore ensuite le système en passant d’un écran à un autre et en simulant la réalisation d’une tâche selon un scénario établi. L’expert évalue si l’action à réaliser apparaît comme étant évidente pour l’utilisateur, si l’utilisateur perçoit aisément que l’action à réaliser est disponible et si ce dernier peut voir le résultat de son action et l’interpréter correctement. Enfin, une revue critique de l’évaluation est effectuée avec le concepteur avant d’élaboration d’un rapport de synthèse.

En partageant un même ensemble de critères, plusieurs experts peuvent faire le travail d’évaluation et comparer leurs résultats respectifs. Si plusieurs problèmes sont cernés par les experts, ils deviennent prioritaires. Comme les évaluations sont basées sur des critères précis dont la compréhension est partagée par des experts, peu de place est laissée à la subjectivité. En effet, la subjectivité est un des pièges de l’évaluation, au même titre que les présomptions sur les caractéristiques des utilisateurs.