Gebrauchstauglichkeitstests

Zur Vorbereitung eines Gebrauchstauglichkeitstests gehört die sorgfältige Erstellung eines Szenarios oder einer realistischen Situation, in der die Person eine Liste von Aufgaben mit dem zu testenden Produkt ausführt, während Beobachter zusehen und Notizen machen (dynamische Überprüfung). Verschiedene andere Testinstrumente wie geskriptete Anweisungen, Papierprototypen und Fragebögen vor und nach dem Test werden ebenfalls verwendet, um Feedback zum getesteten Produkt zu erhalten (statische Überprüfung). Um z. B. die Anhangsfunktion eines E-Mail-Programms zu testen, wird in einem Szenario eine Situation beschrieben, in der eine Person einen E-Mail-Anhang versenden muss, und sie wird gebeten, diese Aufgabe auszuführen. Das Ziel ist es, zu beobachten, wie Menschen in einer realistischen Art und Weise funktionieren, so dass die Entwickler die Problembereiche identifizieren und beheben können. Zu den Techniken, die häufig zur Datenerfassung während eines Usability-Tests eingesetzt werden, gehören das Think-Aloud-Protokoll, das Co-Discovery-Learning und das Eye-Tracking.

Hallway-TestingEdit

Hallway-Testing, auch bekannt als Guerilla-Usability, ist eine schnelle und kostengünstige Methode des Usability-Tests, bei der Personen – z. B. Passanten auf dem Flur – gebeten werden, das Produkt oder die Dienstleistung zu benutzen. Dies kann den Designern helfen, bereits in der Anfangsphase eines neuen Entwurfs so schwerwiegende Probleme zu erkennen, dass die Benutzer einfach nicht weiterkommen. Jeder außer den Projektdesignern und -ingenieuren kann eingesetzt werden (sie neigen dazu, als „Sachverständige“ zu fungieren, weil sie dem Projekt zu nahe stehen).

Ferntests der GebrauchstauglichkeitBearbeiten

In einem Szenario, in dem sich Gebrauchstauglichkeitsbewerter, Entwickler und potenzielle Nutzer in verschiedenen Ländern und Zeitzonen befinden, stellt die Durchführung einer herkömmlichen Gebrauchstauglichkeitsbewertung im Labor sowohl aus Kosten- als auch aus logistischer Sicht eine Herausforderung dar. Diese Bedenken führten zur Erforschung von Remote-Benutzerevaluierungen, bei denen der Benutzer und die Evaluatoren räumlich und zeitlich getrennt sind. Ferntests, die eine Evaluierung im Kontext der anderen Aufgaben und Technologien des Benutzers ermöglichen, können entweder synchron oder asynchron durchgeführt werden. Im ersten Fall kommunizieren der Evaluator und der Benutzer in Echtzeit miteinander, während im zweiten Fall Evaluator und Benutzer getrennt voneinander arbeiten. Es gibt zahlreiche Tools, die den Anforderungen beider Ansätze gerecht werden.

Synchrone Usability-Testing-Methoden beinhalten Videokonferenzen oder verwenden Remote Application Sharing Tools wie WebEx. WebEx und GoToMeeting sind die am häufigsten verwendeten Technologien zur Durchführung eines synchronen Remote-Usability-Tests. Bei synchronen Remote-Tests fehlen jedoch möglicherweise die Unmittelbarkeit und das Gefühl der „Präsenz“, die für einen kollaborativen Testprozess erforderlich sind. Darüber hinaus kann die Bewältigung der zwischenmenschlichen Dynamik über kulturelle und sprachliche Barrieren hinweg ein kultursensibles Vorgehen erfordern. Weitere Nachteile sind die eingeschränkte Kontrolle über die Testumgebung und die Ablenkungen und Unterbrechungen, denen die Teilnehmer in ihrer eigenen Umgebung ausgesetzt sind. Eine der neueren Methoden, die für die Durchführung eines synchronen Remote-Usability-Tests entwickelt wurden, ist die Verwendung virtueller Welten.

Asynchrone Methoden umfassen die automatische Erfassung der Klickströme der Benutzer, Benutzerprotokolle kritischer Vorfälle, die während der Interaktion mit der Anwendung auftreten, und subjektives Feedback der Benutzer zur Schnittstelle. Ähnlich wie eine Studie im Labor ist ein asynchroner Remote-Usability-Test aufgabenbasiert und die Plattform ermöglicht es den Forschern, Klicks und Aufgabenzeiten zu erfassen. Für viele große Unternehmen ermöglicht dies den Forschern, die Absichten der Besucher beim Besuch einer Website oder einer mobilen Website besser zu verstehen. Darüber hinaus bietet diese Art von Benutzertests auch die Möglichkeit, das Feedback nach demografischen, einstellungs- und verhaltensbezogenen Kriterien zu segmentieren. Die Tests werden in der eigenen Umgebung des Nutzers durchgeführt (und nicht in einem Labor), was dazu beiträgt, reale Testszenarien zu simulieren. Dieser Ansatz bietet auch die Möglichkeit, schnell und mit geringem organisatorischem Aufwand Feedback von Benutzern in entlegenen Gebieten einzuholen. In den letzten Jahren hat sich auch die asynchrone Durchführung von Usability-Tests durchgesetzt, die es den Testern ermöglicht, in ihrer Freizeit und bequem von zu Hause aus Feedback zu geben.

Expert reviewEdit

Expert review ist eine weitere allgemeine Methode des Usability-Tests. Wie der Name schon sagt, werden bei dieser Methode Experten mit Erfahrung in diesem Bereich hinzugezogen (möglicherweise von Unternehmen, die sich auf Usability-Tests spezialisiert haben), um die Benutzerfreundlichkeit eines Produkts zu bewerten.

Eine heuristische Bewertung oder ein Usability-Audit ist eine Bewertung einer Schnittstelle durch einen oder mehrere Human Factors-Experten. Evaluators measure the usability, efficiency, and effectiveness of the interface based on usability principles, such as the 10 usability heuristics originally defined by Jakob Nielsen in 1994.

Nielsen’s usability heuristics, which have continued to evolve in response to user research and new devices, include:

  • Visibility of system status
  • Match between system and the real world
  • User control and freedom
  • Consistency and standards
  • Error prevention
  • Recognition rather than recall
  • Flexibility and efficiency of use
  • Aesthetic and minimalist design
  • Help users recognize, diagnose, and recover from errors
  • Help and documentation

Automated expert reviewEdit

Similar to expert reviews, automated expert reviews provide usability testing but through the use of programs given rules for good design and heuristics. Obwohl eine automatisierte Überprüfung nicht so viele Details und Einblicke liefert wie die Überprüfung durch Menschen, kann sie schneller und konsistenter durchgeführt werden. Die Idee, Ersatznutzer für Usability-Tests zu schaffen, ist eine ehrgeizige Richtung für die Gemeinschaft der künstlichen Intelligenz.

A/B-TestingBearbeiten

Hauptartikel: A/B-Testing

In der Webentwicklung und im Marketing ist A/B-Testing oder Split-Testing ein experimenteller Ansatz für das Webdesign (insbesondere für das User-Experience-Design), der darauf abzielt, Änderungen an Webseiten zu ermitteln, die ein gewünschtes Ergebnis (z. B. die Klickrate für eine Bannerwerbung) erhöhen oder maximieren. Wie der Name schon sagt, werden zwei Versionen (A und B) verglichen, die bis auf eine Änderung, die sich auf das Verhalten des Nutzers auswirken könnte, identisch sind. Version A könnte die derzeit verwendete sein, während Version B in irgendeiner Hinsicht geändert wurde. Auf einer E-Commerce-Website ist beispielsweise der Kauftrichter ein typischer Kandidat für A/B-Tests, da selbst geringfügige Verbesserungen bei den Abbruchraten einen erheblichen Umsatzzuwachs bedeuten können. Signifikante Verbesserungen können durch das Testen von Elementen wie Texten, Layouts, Bildern und Farben erzielt werden.

Multivariate Tests oder Bucket-Tests ähneln den A/B-Tests, testen aber mehr als zwei Versionen gleichzeitig.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.