Przeprowadzenie testu użyteczności polega na starannym stworzeniu scenariusza lub realistycznej sytuacji, w której osoba wykonuje listę zadań przy użyciu testowanego produktu, podczas gdy obserwatorzy obserwują i robią notatki (weryfikacja dynamiczna). Do zbierania informacji zwrotnych na temat testowanego produktu (weryfikacja statyczna) wykorzystuje się również kilka innych instrumentów testowych, takich jak instrukcje w formie skryptu, papierowe prototypy oraz kwestionariusze przed i po teście. Na przykład, aby przetestować funkcję załączników w programie pocztowym, scenariusz opisuje sytuację, w której dana osoba musi wysłać załącznik do e-maila i prosi ją o wykonanie tego zadania. Celem jest zaobserwowanie, jak ludzie funkcjonują w realistyczny sposób, tak aby programiści mogli zidentyfikować obszary problemowe i je naprawić. Techniki popularnie wykorzystywane do zbierania danych podczas testów użyteczności obejmują protokół „myśl na głos”, uczenie się przez odkrywanie i eye tracking.
Testy korytarzoweEdit
Testy korytarzowe, znane również jako guerrilla usability, to szybka i tania metoda testowania użyteczności, w której ludzie – np. ci mijani na korytarzu, są proszeni o spróbowanie użycia produktu lub usługi. Może to pomóc projektantom zidentyfikować „ceglane ściany”, czyli problemy tak poważne, że użytkownicy po prostu nie są w stanie przejść dalej, we wczesnych fazach nowego projektu. Można wykorzystać dowolną osobę, z wyjątkiem projektantów i inżynierów (mają oni tendencję do działania jako „eksperci recenzenci”, ponieważ są zbyt blisko projektu).
Zdalne testy użytecznościEdit
W scenariuszu, w którym ewaluatorzy użyteczności, deweloperzy i potencjalni użytkownicy znajdują się w różnych krajach i strefach czasowych, przeprowadzenie tradycyjnej laboratoryjnej oceny użyteczności stwarza wyzwania zarówno z punktu widzenia kosztów, jak i logistyki. Te obawy doprowadziły do badań nad zdalną ewaluacją użyteczności, w której użytkownik i ewaluatorzy są oddzieleni w czasie i przestrzeni. Testy zdalne, które ułatwiają przeprowadzenie oceny w kontekście innych zadań użytkownika i technologii, mogą być zarówno synchroniczne jak i asynchroniczne. W pierwszym przypadku ewaluator i użytkownik komunikują się w czasie rzeczywistym jeden na jednego, podczas gdy w drugim ewaluator i użytkownik pracują osobno. Liczne narzędzia są dostępne w celu zaspokojenia potrzeb obu tych podejść.
Synchroniczne metodologie testowania użyteczności obejmują wideokonferencje lub wykorzystują narzędzia do zdalnego udostępniania aplikacji, takie jak WebEx. WebEx i GoToMeeting są najczęściej używanymi technologiami do przeprowadzania synchronicznych zdalnych testów użyteczności. Jednakże, zdalnym testom synchronicznym może brakować bezpośredniości i poczucia „obecności”, które są pożądane w procesie testowania opartym na współpracy. Co więcej, zarządzanie dynamiką międzyludzką ponad barierami kulturowymi i językowymi może wymagać podejścia wrażliwego na zaangażowane kultury. Inne wady obejmują ograniczoną kontrolę nad środowiskiem testowym oraz rozproszenia i przerwy, których doświadczają uczestnicy w ich rodzimym środowisku. Jedną z nowszych metod prowadzenia synchronicznych, zdalnych testów użyteczności jest wykorzystanie wirtualnych światów.
Metodologia synchroniczna obejmuje automatyczne zbieranie strumieni kliknięć użytkownika, dzienników zdarzeń krytycznych występujących podczas interakcji z aplikacją oraz subiektywnych opinii użytkowników na temat interfejsu. Podobnie jak w przypadku badań laboratoryjnych, asynchroniczny zdalny test użyteczności opiera się na zadaniach, a platforma pozwala badaczom na rejestrowanie kliknięć i czasu wykonania zadania. Dlatego też, w przypadku wielu dużych firm, pozwala to badaczom lepiej zrozumieć intencje użytkowników odwiedzających stronę internetową lub mobilną. Dodatkowo, ten styl testowania użytkowników daje również możliwość segmentacji informacji zwrotnych według typów demograficznych, postaw i zachowań. Testy przeprowadzane są we własnym środowisku użytkownika (a nie w laboratorium), co pozwala na symulację rzeczywistych scenariuszy testowania. Takie podejście pozwala również w łatwy sposób, szybko i przy niższych kosztach organizacyjnych, uzyskać informację zwrotną od użytkowników z odległych miejsc. W ostatnich latach, przeprowadzanie testów użyteczności w trybie asynchronicznym również stało się powszechne i pozwala testerom na dostarczanie informacji zwrotnej w ich wolnym czasie i w zaciszu ich własnego domu.
Weryfikacja eksperckaEdit
Weryfikacja ekspercka jest kolejną ogólną metodą testowania użyteczności. Jak sama nazwa wskazuje, metoda ta polega na sprowadzeniu ekspertów z doświadczeniem w danej dziedzinie (ewentualnie z firm, które specjalizują się w testowaniu użyteczności), aby ocenili użyteczność produktu.
Ewaluacja heurystyczna lub audyt użyteczności to ocena interfejsu przez jednego lub więcej ekspertów od czynników ludzkich. Evaluators measure the usability, efficiency, and effectiveness of the interface based on usability principles, such as the 10 usability heuristics originally defined by Jakob Nielsen in 1994.
Nielsen’s usability heuristics, which have continued to evolve in response to user research and new devices, include:
- Visibility of system status
- Match between system and the real world
- User control and freedom
- Consistency and standards
- Error prevention
- Recognition rather than recall
- Flexibility and efficiency of use
- Aesthetic and minimalist design
- Help users recognize, diagnose, and recover from errors
- Help and documentation
Automated expert reviewEdit
Similar to expert reviews, automated expert reviews provide usability testing but through the use of programs given rules for good design and heuristics. Chociaż automatyczna recenzja może nie dostarczyć tak wielu szczegółów i wglądu jak recenzje od ludzi, może być ukończona szybciej i bardziej spójnie. Pomysł stworzenia zastępczych użytkowników do testowania użyteczności jest ambitnym kierunkiem dla społeczności sztucznej inteligencji.
Testy A/BEdit
W tworzeniu stron internetowych i marketingu, A/B testing lub split testing jest eksperymentalnym podejściem do projektowania stron internetowych (zwłaszcza projektowania doświadczeń użytkownika), którego celem jest zidentyfikowanie zmian na stronach internetowych, które zwiększają lub maksymalizują wynik zainteresowania (np. współczynnik klikalności dla reklamy banerowej). Jak sama nazwa wskazuje, porównywane są dwie wersje (A i B), które są identyczne z wyjątkiem jednej odmiany, która może mieć wpływ na zachowanie użytkownika. Wersja A może być tą aktualnie używaną, podczas gdy wersja B jest pod pewnym względem zmodyfikowana. Na przykład, na stronie e-commerce, lejek zakupowy jest zazwyczaj dobrym kandydatem do testów A/B, ponieważ nawet marginalna poprawa wskaźnika drop-off może oznaczać znaczący wzrost sprzedaży. Znaczące ulepszenia można zaobserwować poprzez testowanie takich elementów, jak teksty, układy, obrazy i kolory.
Testy wielowariantowe lub testy kubełkowe są podobne do testów A/B, ale testują więcej niż dwie wersje w tym samym czasie.
Testy wielowariantowe są podobne do testów A/B.