Usability Testing durchführen -- So findest du die Schwachstellen deines Produkts
"Ich glaube, unser Produkt ist intuitiv." -- Das höre ich ständig von Startups. Und fast immer liegen sie falsch. Nicht weil sie schlechte Produkte bauen, sondern weil sie zu nah dran sind, um die Probleme zu sehen.
Usability Testing ist die effektivste Methode, um herauszufinden, wo dein Produkt hängt -- bevor es deine Kunden tun und abspringen. Und das Beste: Du brauchst dafür weder ein Labor noch ein grosses Budget.
In Post 277 haben wir besprochen, wie du deine Nutzer verstehst. Jetzt geht es darum, zu prüfen, ob dein Produkt tatsächlich funktioniert.
Was ist Usability Testing?
Usability Testing bedeutet: Du beobachtest echte Menschen dabei, wie sie reale Aufgaben mit deinem Produkt erledigen. Kein Raten, kein Bauchgefühl -- Beobachtung.
Usability Testing ist NICHT:
- Eine Demo deines Produkts
- Ein Interview über Meinungen
- Ein Beta-Test mit vielen Nutzern
- Ein A/B-Test (das ist quantitativ, Usability Testing ist qualitativ)
- Eine Umfrage
Usability Testing IST:
- Beobachtung von echtem Verhalten
- 5-8 Teilnehmer pro Runde
- Konkrete Aufgaben, die der Tester erledigen soll
- Moderiert (du stellst Fragen) oder unmoderiert (automatisiert)
- Iterativ (testen, verbessern, wieder testen)
Warum 5 Nutzer reichen
Jakob Nielsen -- einer der bekanntesten Usability-Experten -- hat gezeigt, dass 5 Nutzer bereits 85% der Usability-Probleme aufdecken.
Die Mathematik dahinter:
| Anzahl Tester | Gefundene Probleme |
|---|---|
| 1 | ~31% |
| 2 | ~52% |
| 3 | ~70% |
| 4 | ~79% |
| 5 | ~85% |
| 10 | ~95% |
| 15 | ~99% |
Die Empfehlung: Teste mit 5 Nutzern, behebe die gefundenen Probleme, teste nochmal mit 5 Nutzern. Zwei Runden mit je 5 Testern sind effektiver als eine Runde mit 10.
Vorbereitung: Der Testplan
Ein guter Usability-Test braucht Vorbereitung. Hier ist dein Template:
1. Ziele definieren
Was willst du herausfinden? Formuliere 2-3 konkrete Forschungsfragen:
- "Können neue Nutzer innerhalb von 3 Minuten eine Bestellung aufgeben?"
- "Verstehen die Nutzer unsere Preisstruktur?"
- "Finden die Nutzer die Suchfunktion und können sie erfolgreich einsetzen?"
2. Aufgaben formulieren
Formuliere 4-6 realistische Aufgaben. Vermeide dabei die Wörter, die in deiner Navigation oder auf deinen Buttons stehen.
Schlechte Aufgabe: "Klicke auf 'Konto erstellen' und registriere dich."
Gute Aufgabe: "Stell dir vor, du möchtest unseren Service zum ersten Mal nutzen. Was würdest du tun?"
Weitere Beispiele für gute Aufgaben:
| Produkt | Aufgabe |
|---|---|
| E-Commerce | "Du suchst ein Geburtstagsgeschenk für eine Freundin, die Kaffee liebt. Finde etwas Passendes unter 30 EUR." |
| SaaS-Tool | "Du hast letzte Woche eine Rechnung an Firma Huber geschickt. Finde heraus, ob sie schon bezahlt wurde." |
| Booking-App | "Du planst einen Ausflug nach Rust am Neusiedlersee am nächsten Samstag für 2 Erwachsene. Buche eine passende Aktivität." |
| FinTech | "Du möchtest wissen, wie viel du letzten Monat für Lebensmittel ausgegeben hast." |
3. Teilnehmer rekrutieren
Finde 5 Personen, die deiner Zielgruppe entsprechen. Wo findest du sie?
| Kanal | Vorteil | Aufwand |
|---|---|---|
| Coworking-Space (z.B. in Eisenstadt) | Schnell, persönlich | Niedrig |
| Social Media (LinkedIn, Facebook-Gruppen) | Grosse Reichweite | Mittel |
| Bestehende Kundenliste | Echte Nutzer | Niedrig |
| Startup-Netzwerk (WKO, Startup Burgenland) | Relevante Zielgruppe | Niedrig |
| UserTesting.com | Professionelle Tester | Hoch (ab 50 EUR/Test) |
Aufwandsentschädigung:
- 30-Minuten-Test: 15-25 EUR oder ein kleines Geschenk
- 60-Minuten-Test: 30-50 EUR
- Amazon-Gutscheine funktionieren in Österreich gut
4. Screening-Fragen
Nicht jeder ist der richtige Tester. Stelle 3-5 Screening-Fragen:
- "Wie oft kaufst du online ein?" (Zielgruppe: regelmässige Online-Shopper)
- "Welche Apps nutzt du für [relevanten Bereich]?"
- "Hast du Erfahrung mit [relevanter Tätigkeit]?"
Wichtig: Schliesse Personen aus, die:
- In der gleichen Branche arbeiten (zu viel Vorwissen)
- UX/Design-Profis sind (bewerten statt nutzen)
- Dein Produkt bereits gut kennen (kein frischer Blick)
Durchführung: Der Test
Setting aufbauen
Für persönliche Tests:
- Ruhiger Raum im Büro oder Coworking-Space
- Laptop oder Smartphone mit dem Prototyp/Produkt
- Bildschirmaufnahme starten (OBS Studio -- kostenlos)
- Optional: Kamera auf das Gesicht des Testers
- Notizblock für den Moderator
Für Remote-Tests:
- Zoom, Google Meet oder Microsoft Teams (mit Bildschirmfreigabe)
- Aufnahme aktivieren (mit Einverständnis!)
- Lookback.io oder Maze für professionelleres Setup
Der Ablauf (45-60 Minuten)
1. Einführung (5 Minuten)
Begrüssung und wichtige Regeln erklären:
"Danke, dass du dir Zeit nimmst. Wir testen heute nicht dich -- wir testen unser Produkt. Es gibt keine falschen Antworten. Wenn etwas nicht funktioniert, ist das ein Problem des Produkts, nicht deins. Bitte denke laut -- sag mir, was du siehst, was du denkst und was du erwartest."
2. Hintergrund-Fragen (5 Minuten)
Kurze Fragen zum Kontext:
- "Wie nutzt du aktuell [relevanten Bereich]?"
- "Was nervt dich dabei am meisten?"
3. Aufgaben durchführen (30-40 Minuten)
Gib die Aufgaben eine nach der anderen. Beobachte und stelle Fragen:
Gute Moderationsfragen:
| Situation | Frage |
|---|---|
| Tester zögert | "Was denkst du gerade?" |
| Tester klickt falsch | "Was hast du erwartet, als du dort geklickt hast?" |
| Tester findet etwas | "Ist das, was du erwartet hast?" |
| Tester ist frustriert | "Was würdest du dir hier wünschen?" |
| Aufgabe abgeschlossen | "Wie einfach war das auf einer Skala von 1-5?" |
Die goldene Regel der Moderation: Hilf NICHT. Wenn der Tester kämpft, ist das ein Ergebnis. Lass ihn kämpfen. Greife nur ein, wenn er komplett feststeckt und die restlichen Aufgaben sonst nicht möglich sind.
4. Nachbesprechung (5-10 Minuten)
- "Was hat dir am besten gefallen?"
- "Was war am frustrierendsten?"
- "Würdest du dieses Produkt nutzen? Warum/warum nicht?"
- "Gibt es etwas, das du vermisst hast?"
Metriken: Was du messen solltest
Quantitative Metriken
| Metrik | Beschreibung | Wie messen |
|---|---|---|
| Task Success Rate | Anteil erfolgreich abgeschlossener Aufgaben | Aufgabe geschafft: Ja/Nein |
| Time on Task | Wie lange braucht der Nutzer für eine Aufgabe | Stoppuhr |
| Error Rate | Anzahl der Fehler pro Aufgabe | Zählen |
| SUS Score | System Usability Scale (Fragebogen) | 10 Fragen nach dem Test |
Qualitative Beobachtungen
Notiere während des Tests:
- Verbale Äusserungen: Was sagt der Tester? ("Hmm, wo ist denn...?")
- Körpersprache: Seufzen, Stirnrunzeln, Lachen
- Navigationsverhalten: Wo klickt er, wo zögert er?
- Workarounds: Findet der Tester alternative Wege?
- Aha-Momente: Wann versteht er etwas plötzlich?
Die System Usability Scale (SUS)
Nach dem Test füllt der Tester den SUS-Fragebogen aus -- 10 Fragen, 5-Punkte-Skala. Der resultierende Score gibt dir einen Benchmark:
| SUS Score | Bewertung |
|---|---|
| 0-25 | Worst Imaginable |
| 26-39 | Poor |
| 40-52 | OK |
| 53-73 | Good |
| 74-85 | Excellent |
| 86-100 | Best Imaginable |
Ziel für Startups: Mindestens 68 (Durchschnitt). Alles über 80 ist sehr gut.
Auswertung: Von Beobachtungen zu Massnahmen
1. Beobachtungen sammeln
Für jeden Tester und jede Aufgabe notieren:
- Was hat funktioniert?
- Was hat nicht funktioniert?
- Welche Probleme sind aufgetreten?
- Wie schwer war das Problem? (Kritisch/Mittel/Niedrig)
2. Muster identifizieren
Suche nach Problemen, die bei mehreren Testern auftreten:
| Problem | Tester 1 | Tester 2 | Tester 3 | Tester 4 | Tester 5 | Häufigkeit |
|---|---|---|---|---|---|---|
| CTA nicht gefunden | X | X | X | 3/5 | ||
| Preisseite verwirrend | X | X | X | X | X | 5/5 |
| Suche nicht bemerkt | X | X | 2/5 | |||
| Registrierung zu lang | X | X | X | 3/5 |
3. Probleme priorisieren
Nutze die Impact-Frequency-Matrix:
| Niedrige Häufigkeit | Hohe Häufigkeit | |
|---|---|---|
| Hoher Impact | Später beheben | SOFORT beheben |
| Niedriger Impact | Beobachten | Bei Gelegenheit beheben |
4. Massnahmen ableiten
Für jedes priorisierte Problem:
- Problem beschreiben: Was genau passiert?
- Ursache identifizieren: Warum passiert es?
- Lösung vorschlagen: Wie können wir es beheben?
- Verantwortlichen festlegen: Wer setzt es um?
- Deadline setzen: Bis wann?
Usability-Testing-Varianten für Startups
Gürilla Testing
Schnell, günstig, informell. Geh ins Kaffeehaus und teste mit Fremden.
- Wann: Frühe Phase, grobe Prototypen
- Dauer: 10-15 Minuten pro Person
- Kosten: Ein Kaffee pro Person
- Vorteil: Sofortige Ergebnisse
Remote unmoderiertes Testing
Der Tester führt die Aufgaben alleine durch -- du schaust dir die Aufnahmen später an.
Tools:
| Tool | Kosten | Tester inklusive |
|---|---|---|
| Maze | Ab 0 EUR (Basis) | Nein (eigene Tester) |
| UsabilityHub | Ab 0 EUR (Basis) | Optional (ab 1 EUR/Tester) |
| Hotjar Recordings | Ab 0 EUR | Bestehende Nutzer |
- Wann: Quantitative Validation, grössere Stichproben
- Dauer: 15-30 Minuten pro Tester
- Vorteil: Skalierbar, keine Terminkoordination
Hallway Testing
Frag einen Kollegen im Büro oder Coworking-Space: "Hast du 5 Minuten? Ich brauch dein Feedback."
- Wann: Jederzeit, für schnelle Checks
- Dauer: 5-10 Minuten
- Kosten: 0 EUR
- Einschränkung: Keine echten Nutzer, aber besser als nichts
A/B-Testing (quantitativ)
Vergleiche zwei Varianten mit echten Nutzern und echtem Traffic.
- Wann: Nach dem Launch, bei spezifischen Design-Fragen
- Tools: Google Optimize (bald eingestellt), PostHog, Optimizely
- Mindest-Traffic: 1.000+ Besucher pro Variante
- Vorteil: Statistisch belastbare Ergebnisse
Der Usability-Testing-Kalender
Plane regelmässige Tests ein -- nicht nur einmalig:
| Phase | Art des Tests | Häufigkeit |
|---|---|---|
| Ideenphase | Paper Prototype Test | Einmalig pro Konzept |
| Prototyp-Phase | Moderierter Test (5 Tester) | Alle 2-3 Wochen |
| Entwicklung | Hallway Testing | Laufend |
| Pre-Launch | Moderierter Test (5-8 Tester) | 2-4 Wochen vor Launch |
| Post-Launch | Remote unmoderiert + Analytics | Monatlich |
| Laufend | A/B-Testing | Kontinuierlich |
Häufige Fehler beim Usability Testing
-
Leitfragen stellen: "Findest du den grünen Button nicht auch super?" -- Das ist keine Frage, das ist eine Bestätigung.
-
Zu viel erklären: Wenn du dem Tester erklären musst, wie dein Produkt funktioniert, hast du dein Ergebnis schon.
-
Nur Positives hören: Es ist verständlich, dass du dein Produkt verteidigen willst. Aber jede Kritik ist ein Geschenk.
-
Ergebnisse ignorieren: Der teuerste Usability-Test ist der, dessen Ergebnisse in der Schublade verschwinden.
-
Zu spät testen: Nach 6 Monaten Entwicklung ist es oft zu spät für grundlegende Änderungen. Teste früh -- am besten schon den Papier-Prototyp (siehe Post 278).
Ergebnisse präsentieren
Dein Team muss die Ergebnisse verstehen und handeln. So präsentierst du sie effektiv:
- Highlight-Video: 3-5 Minuten mit den wichtigsten Momenten (Frustrationen, Aha-Erlebnisse)
- Top-5-Probleme: Die fünf grössten Usability-Probleme mit konkreten Lösungsvorschlägen
- Positive Erkenntnisse: Was funktioniert gut? (Motivation fürs Team!)
- Metriken: SUS-Score, Task Success Rate, Time on Task
- Nächste Schritte: Konkrete Massnahmen mit Verantwortlichkeiten und Deadlines
Dein nächster Schritt
Bei Startup Burgenland unterstützen wir dich dabei, systematisches Usability Testing in deinen Produktentwicklungsprozess zu integrieren. Hol dir jetzt den Gründungszuschuss und mach dein Usability Testing zur Grundlage für ein Produkt, das Nutzer lieben.
Weiterführende Artikel
- UX-Design Grundlagen für Startups -- So gestaltest du Produkte, die Nutzer lieben
- Design-Tools für Startups im Vergleich -- Figma, Penpot, Canva und Co.
- Prototyping-Tools und -Methoden
- Mobile-First Design für Apps -- So erreichst du die Mehrheit deiner Nutzer
Dieser Beitrag ist Teil der Serie "UX, UI und Design" auf Startup Burgenland. Alle Beiträge findest du in unserem Blog.
Über den Autor: Felix Lenhard ist Program Director und Startup Coach bei Startup Burgenland. Zuvor Managing Director beim 360 Innovation Lab, Innovation Manager bei RHI Magnesita und Serial Entrepreneur mit internationalen Exits. Über 15 Jahre Erfahrung in Innovation und Unternehmensaufbau.