Task Success Rate & Time-on-Task
Wenn Nutzer:innen ein digitales Produkt verwenden, stellt sich eine zentrale Frage: Erreichen sie ihre Ziele – und wie effizient gelingt das? Zwei der aussagekräftigsten quantitativen Kennzahlen in der UX-Forschung beantworten genau diese Frage: die Task Success Rate und die Time-on-Task. Beide Metriken sind robust, vergleichbar und bilden gemeinsam eine objektive Grundlage für die Bewertung der Usability von Anwendungen.
Wie erfolgreich sind Nutzer:innen? – Die Task Success Rate
Die sogenannte Aufgabenlösungsrate gibt an, wie viele Personen eine bestimmte Aufgabe vollständig und korrekt abschließen konnten. Sie wird als Prozentsatz angegeben und eignet sich besonders gut, um die Effektivität eines Systems zu messen.
Praxisbeispiel: In einem Usability-Test sollen Nutzer:innen ein Konto in einer Banking-App eröffnen. Von zehn Testpersonen gelangen sieben erfolgreich bis zum letzten Schritt. Drei brechen vorher ab – teils, weil die „Weiter“-Schaltfläche schlecht sichtbar ist, teils wegen unklarer Eingabefelder. Ergebnis: Task Success Rate = 70 %. Ein klarer Hinweis auf Optimierungspotenzial im Onboarding-Prozess.

Varianten der Erhebung
- Binär: Erfolg ja/nein – einfach zu erheben, aber wenig differenziert.
- Gestuft: Zusätzlich zwischen „vollständig“, „teilweise“ und „abgebrochen“ unterscheiden – besonders bei komplexen Aufgaben sinnvoll.
- Fehlerbasiert: Zusätzlich analysieren, warum Aufgaben scheitern – z. B. technische Fehler, Missverständnisse, Usability-Probleme.
Die Erfolgsquote eignet sich auch sehr gut für Vergleiche zwischen Versionen, z. B. bei Redesigns oder A/B-Tests. Auch über längere Zeiträume hinweg kann die Metrik zeigen, ob Verbesserungen tatsächlich Wirkung zeigen.
Wie effizient ist die Nutzung? – Time-on-Task
Während die Erfolgsrate die Erreichung eines Ziels beschreibt, erfasst die Time-on-Task den Aufwand, der dafür nötig ist – meist in Form der benötigten Zeit.
Praxisbeispiel: In einem E-Commerce-Test dauert der Bestellprozess bei der alten Version einer Checkout-Seite durchschnittlich 3:20 Minuten. Nach einem UI-Redesign sinkt die Bearbeitungszeit auf 1:50 Minuten. Die durchschnittliche Time-on-Task reduziert sich um 45 % – ein klarer Hinweis auf höhere Effizienz.
Aber: Weniger Zeit ist nicht automatisch besser. Ein extrem kurzer Time-on-Task kann auch auf oberflächliche Bearbeitung oder Desinteresse hinweisen. Deshalb sollte diese Metrik immer im Kontext der Aufgabenstellung und Nutzerziele interpretiert werden.
Wie wird gemessen?
- Bei moderierten Tests: per Stoppuhr oder digitalem Timer
- Bei digitalen Systemen: automatisch via Logfiles, Session-Recording oder Analytics
- Wichtig: Start- und Endpunkte müssen klar definiert sein (z. B. erster Klick auf „Anmelden“ bis letzte Eingabe)
Gemeinsam stark: Effektivität & Effizienz
Die beiden Metriken entfalten ihre volle Aussagekraft erst in Kombination. Eine Aufgabe kann schnell erledigt sein – aber trotzdem häufig scheitern. Oder sie wird meist erfolgreich bewältigt, dauert aber auffällig lange.

Metrik | Aussage über |
---|---|
Task Success Rate | Effektivität |
Time-on-Task | Effizienz |
Beispielhafte Kombination: In einem Intranet-Test schaffen es 90 % der Nutzer:innen, eine bestimmte Information zu finden – aber sie benötigen im Schnitt über 4 Minuten dafür. Die Interpretation: Das System funktioniert, aber nicht effizient. Hier könnte eine bessere Navigation oder Suchfunktion Abhilfe schaffen.
Best Practices aus der Praxis
- Aufgaben realistisch formulieren: Die Aufgabenstellung sollte dem echten Nutzungskontext entsprechen.
- Start- und Endpunkte operationalisieren: Nur so lassen sich Zeiten und Erfolgsraten konsistent erheben.
- Ausreißer nicht einfach streichen: Ein:e Nutzer:in braucht 10 Minuten, weil das Interface in einer bestimmten Konstellation blockiert – das ist kein „Messfehler“, sondern ein wertvoller Insight.
- Triangulieren mit qualitativen Methoden: Aussagen aus Interviews oder Thinking-Aloud helfen, Zahlen zu interpretieren („Warum war die Aufgabe schwierig?“).
Fazit
Task Success Rate und Time-on-Task sind bewährte Werkzeuge, um die Leistung von Nutzer:innen messbar zu machen. Als quantitative Metriken liefern sie klare, vergleichbare und aussagekräftige Daten über die Gebrauchstauglichkeit eines Systems – vorausgesetzt, sie werden kontextsensibel und methodisch sauber eingesetzt. In der Praxis sind sie unverzichtbar für Benchmarking, Redesign-Evaluationen und kontinuierliche UX-Optimierung.
Quantitative Usability-Messung: Aufgabenzeiten, Erfolgsraten und Kennzahlen
Diese Literaturauswahl beleuchtet Metriken der UX-Forschung wie Aufgabenzeit, Fehlerhäufigkeit, Erfolgsraten und zusammengesetzte Indizes. Der Fokus liegt auf statistischer Auswertung und Interpretation quantitativer Usability-Daten.
Quantifying User Research
Grundlagentext zur quantitativen UX-Messung mit Fokus auf Aufgabenzeiten, Erfolgsraten und Fehlerhäufigkeiten. Betont statistische Auswertbarkeit auch bei kleinen Stichproben.
Sauro, J., & Lewis, J. R. (2012). Quantifying user research. In Quantifying the User Experience. https://doi.org/10.1016/B978-0-12-384968-7.00002-3
Average Task Times in Usability Tests: What to Report?
Analysiert verschiedene Methoden zur Darstellung von Aufgabenzeiten. Empfiehlt geometrisches Mittel gegenüber Median oder arithmetischem Mittel bei schief verteilten Daten.
Sauro, J., & Lewis, J. R. (2010). Average task times in usability tests: what to report? In CHI Proceedings. https://doi.org/10.1145/1753326.1753679
Combined and Comparative Metrics
Einführung in den Single Usability Metric (SUM), der Task Success, Time-on-Task, Fehler und Zufriedenheit zu einem Vergleichsindex kombiniert.
Tullis, T. S., & Albert, B. (2013). Combined and comparative metrics. In Measuring the User Experience. https://doi.org/10.1016/B978-0-12-415781-1.00008-X
Variation in Importance of Time-on-Task with Familiarity
Zeigt, dass die Wahrnehmung von Usability stärker mit Time-on-Task korreliert, je vertrauter die Nutzer mit einem Produkt sind.
Suzuki, S., Bellotti, V., Yee, N., et al. (2011). Variation in importance of time-on-task with familiarity. In CHI. https://doi.org/10.1145/1978942.1979314
Usability Testing Through Devices in Bangladesh
Vergleich der Task Success Rate und Task-Zeiten auf mobilen vs. Desktop-Geräten bei einer Uni-Website. Liefert reale Benchmarks und Anwendungsszenarien.
Yesmin, S., & Atikuzzaman, M. (2023). Usability testing of a website through different devices: a task-based approach. Information Discovery and Delivery. https://doi.org/10.1108/IDD-01-2023-0007