La mise en place d’un test d’utilisabilité implique la création minutieuse d’un scénario, ou d’une situation réaliste, dans lequel la personne effectue une liste de tâches en utilisant le produit testé, tandis que des observateurs regardent et prennent des notes (vérification dynamique). Plusieurs autres instruments de test, tels que des instructions scénarisées, des prototypes en papier et des questionnaires avant et après le test, sont également utilisés pour recueillir des informations sur le produit testé (vérification statique). Par exemple, pour tester la fonction de pièce jointe d’un programme de courrier électronique, un scénario décrira une situation dans laquelle une personne doit envoyer une pièce jointe à un courrier électronique, et lui demandera d’entreprendre cette tâche. L’objectif est d’observer comment les gens fonctionnent de manière réaliste, afin que les développeurs puissent identifier les zones problématiques et les corriger. Les techniques couramment utilisées pour recueillir des données au cours d’un test d’utilisabilité comprennent le protocole de réflexion à voix haute, l’apprentissage de la codécouverte et l’oculométrie.
Test de couloirEdit
Le test de couloir, également connu sous le nom de guérilla d’utilisabilité, est une méthode rapide et peu coûteuse de test d’utilisabilité dans laquelle on demande aux gens – par exemple, ceux qui passent dans le couloir, d’essayer d’utiliser le produit ou le service. Cette méthode peut aider les concepteurs à identifier les « murs de briques », c’est-à-dire les problèmes si graves que les utilisateurs ne peuvent tout simplement pas avancer, dès les premières étapes d’une nouvelle conception. N’importe qui, sauf les concepteurs et les ingénieurs du projet, peut être utilisé (ils ont tendance à agir comme des « examinateurs experts » parce qu’ils sont trop proches du projet).
Tests d’utilisabilité à distanceEdit
Dans un scénario où les évaluateurs d’utilisabilité, les développeurs et les utilisateurs potentiels sont situés dans différents pays et fuseaux horaires, la réalisation d’une évaluation d’utilisabilité traditionnelle en laboratoire crée des défis tant du point de vue des coûts que de la logistique. Ces préoccupations ont conduit à des recherches sur l’évaluation d’utilisabilité à distance, l’utilisateur et les évaluateurs étant séparés dans l’espace et le temps. Les tests à distance, qui facilitent la réalisation des évaluations dans le contexte des autres tâches et technologies de l’utilisateur, peuvent être synchrones ou asynchrones. Le premier implique une communication individuelle en temps réel entre l’évaluateur et l’utilisateur, tandis que le second implique que l’évaluateur et l’utilisateur travaillent séparément. De nombreux outils sont disponibles pour répondre aux besoins de ces deux approches.
Les méthodologies de test d’utilisabilité synchrone impliquent des vidéoconférences ou emploient des outils de partage d’applications à distance tels que WebEx. WebEx et GoToMeeting sont les technologies les plus couramment utilisées pour réaliser un test d’utilisabilité à distance synchrone. Cependant, les tests synchrones à distance peuvent manquer de l’immédiateté et du sentiment de « présence » souhaités pour soutenir un processus de test collaboratif. De plus, la gestion de la dynamique interpersonnelle au-delà des barrières culturelles et linguistiques peut nécessiter des approches sensibles aux cultures concernées. Parmi les autres inconvénients, citons le contrôle réduit de l’environnement de test et les distractions et interruptions subies par les participants dans leur environnement d’origine. L’une des méthodes les plus récentes développées pour mener un test d’utilisabilité à distance synchrone consiste à utiliser des mondes virtuels.
Les méthodologies asynchrones comprennent la collecte automatique des flux de clics des utilisateurs, les journaux d’utilisateurs des incidents critiques qui se produisent lors de l’interaction avec l’application et les commentaires subjectifs des utilisateurs sur l’interface. À l’instar d’une étude en laboratoire, un test d’utilisabilité à distance asynchrone est basé sur des tâches et la plateforme permet aux chercheurs de saisir les clics et les durées des tâches. Ainsi, pour de nombreuses grandes entreprises, cela permet aux chercheurs de mieux comprendre les intentions des visiteurs lorsqu’ils se rendent sur un site Web ou un site mobile. En outre, ce style de test utilisateur offre également la possibilité de segmenter le retour d’information par type démographique, attitudinal et comportemental. Les tests sont effectués dans l’environnement même de l’utilisateur (plutôt que dans des laboratoires), ce qui permet de simuler davantage les tests de scénarios réels. Cette approche permet également de solliciter facilement le retour d’information des utilisateurs dans des zones éloignées, rapidement et avec des frais d’organisation réduits. Ces dernières années, la réalisation de tests d’utilisabilité de manière asynchrone est également devenue prévalente et permet aux testeurs de fournir un retour d’information pendant leur temps libre et dans le confort de leur propre maison.
L’examen par des expertsModification
L’examen par des experts est une autre méthode générale de test d’utilisabilité. Comme son nom l’indique, cette méthode repose sur l’intervention d’experts expérimentés dans le domaine (éventuellement issus d’entreprises spécialisées dans les tests d’utilisabilité) pour évaluer l’utilisabilité d’un produit.
Une évaluation heuristique ou un audit d’utilisabilité est une évaluation d’une interface par un ou plusieurs experts en facteurs humains. Evaluators measure the usability, efficiency, and effectiveness of the interface based on usability principles, such as the 10 usability heuristics originally defined by Jakob Nielsen in 1994.
Nielsen’s usability heuristics, which have continued to evolve in response to user research and new devices, include:
- Visibility of system status
- Match between system and the real world
- User control and freedom
- Consistency and standards
- Error prevention
- Recognition rather than recall
- Flexibility and efficiency of use
- Aesthetic and minimalist design
- Help users recognize, diagnose, and recover from errors
- Help and documentation
Automated expert reviewEdit
Similar to expert reviews, automated expert reviews provide usability testing but through the use of programs given rules for good design and heuristics. Bien qu’un examen automatisé puisse ne pas fournir autant de détails et de perspicacité que les examens des personnes, ils peuvent être terminés plus rapidement et de manière cohérente. L’idée de créer des utilisateurs de substitution pour les tests d’utilisabilité est une direction ambitieuse pour la communauté de l’intelligence artificielle.
Tests A/BModifier
Dans le développement et le marketing web, le test A/B ou split testing est une approche expérimentale de la conception web (en particulier la conception de l’expérience utilisateur), qui vise à identifier les modifications apportées aux pages web qui augmentent ou maximisent un résultat d’intérêt (par exemple, le taux de clics pour une bannière publicitaire). Comme le nom l’indique, on compare deux versions (A et B), qui sont identiques à l’exception d’une variation qui pourrait avoir un impact sur le comportement de l’utilisateur. La version A peut être celle qui est actuellement utilisée, tandis que la version B est modifiée à certains égards. Par exemple, sur un site de commerce électronique, l’entonnoir d’achat est généralement un bon candidat pour les tests A/B, car même des améliorations marginales des taux d’abandon peuvent représenter un gain significatif en termes de ventes. Des améliorations significatives peuvent être constatées en testant des éléments tels que le texte de la copie, les mises en page, les images et les couleurs.
Les tests multivariés ou tests en godets sont similaires aux tests A/B, mais testent plus de deux versions en même temps.