SlideShare uma empresa Scribd logo
1 de 13
Eyetracking findings
Beispiele für Auswertungen
von aufgezeichneten
Nutzerdaten
Eyetracking-Analysen in Nutzerstudien
• Zufriedene Nutzer werden Kunden, sprechen
Empfehlungen aus und besuchen eine Seite wieder.
• Frühe Identifizierung von Problemen im Design spart
Entwicklungskosten.
• Nutzeranalysen erklären bereits bekannte Probleme
etwa aus der Analyse von Live-Daten, z.B. bei
Problemen mit der Konversionsrate.
• Es ist leicht und für die Teilnehmer komfortabel, die
Eyetracking-Daten aufzuzeichnen. Tester nehmen
gerne und motiviert an Studien teil.
• Eyetracking ist intuitiv, das natürliche Verhalten wird
analysiert und Probleme bei der Nutzung erkannt.
• Die Analyse von Nutzerverhalten ist objektiv, es
werden weder Meinungen wiedergeben noch
persönliche Interpretationen vorgenommen.
Warum Usability-Tests? Warum Eyetracking-Analysen?
Im Rahmen von Nutzerstudien interagieren Tester mit Webseiten und bearbeiten typische Aufgabestellungen auf einer Webseite, wie
eine Bestellung vorzunehmen oder eine Information zu finden. Dabei wird das Nutzerverhalten aufgezeichnet, indem die Blickposition
auf dem Bildschirm anhand von Eyetracking sowie Mausposition, Klicks und Scrolling erfasst werden. Zusätzlich geben die Tester
explizites Feedback in Fragebögen oder Thinking-Aloud-Aufzeichnungen.
In diesem Dokument werden einige Beispiele für Erkenntnisse aus unseren vergangenen Studien vorgestellt. Sie zeigen die Arbeit unserer
Usability-Experten bei der Auswertung aufgezeichneter Nutzerdaten. Alle Daten stammen aus echten Aufzeichnungen.
Ablauf einer Usability-Studie
1. Planung 2. Durchführung 3. Auswertung
•
•
•
•
•
•
•
Ergebnisse: Das bekommen Sie von uns
1. Studiendaten im Webportal 2. UX-Report
#7
23
Positive
Rückmeldung
Optimierungs-
vorschlag
Teilnehmer
mit ID
Problem Ausschnitt aus
Report
Beispiel-Finding 1: Zu langes Menü
• Bei der Suche nach einem Studentenjob
wurde das Menü genutzt.
• Die Eyetracking-Daten zeigen, dass die
Tester im Ausklappmenü nur den oberen
Teil betrachtet haben und nach wenigen
Sekunden einen Eintrag im oberen
Menübereich angeklickt haben.
• Passendere Menüeinträge im unteren
Bereich des Drop-Down-Menüs wurden
nicht wahrgenommen und nicht angeklickt.
• Empfehlung:
• Redundante Einträge aus dem Menü
entfernen und auf maximal 8
beschränken.
• Bei längeren Menüs Überschriften
einführen und so besser strukturieren.
#7
23
#2A
48
Studenten
Nebenjob
Duales Studium
Abschlussarbeit
Absolventen
Trainee-Jobs
Berufseinsteiger-Jobs
„Ich musste mich
länger
durchklicken um
den richtigen Job
zu finden“
Designidee
Drop-Down-Menü
Nutzerdaten von zwei Probanden.
Beide betrachten nur die ersten
Einträge im Menü.
Beispiel-Finding 2: Tabelle zu breit
6
• In der Tariftabelle bekamen die Tester eine
Aufgabe zur Preisstruktur des Anbieter
gestellt.
• Die Informationen in der Tabelle liegen zu
weit auseinander: Die
Augenbewegungsdaten zeigen, dass es den
Studienteilnehmern schwer fiel, der Linie zu
folgen, um den richtigen Preis zu finden.
Dies führte zu einer Vielzahl von
Doppelkontrollen, weil sie unsicher waren.
• Lange Sakkaden (Augenbewegungen) sind
hier durch Hin-und-Her-Springen der Blicke
erkennbar. Dies ist unnötig anstrengend für
die Benutzer.
• Empfehlung:
• Abstand zwischen den zwei Spalten
verringern.
Original
Eyetracking-Daten
Designidee
Drop-Down-Menü
Beispiel-Finding 3: Wichtiger Inhalte zu weit unten
7
• Die Probanden hatten die Aufgabe auf einer Webseite eine
bestimmte Unterseite mit Informationen zu finden.
• In den Nutzerdaten von 10 Probanden wurde klar, dass der
entscheidende Button nur bei 3 von 10 Personen angezeigt wurde –
die restlichen Probanden scrollten nicht tief genug um den Button
überhaupt zu sehen.
• Da es sich bei dem genannten Button um den Pfad zu einer der
wichtigsten Funktionen der Seite handelte, gelangten zu wenige
Probanden auf direktem Weg dorthin.
Empfehlung:
• Inhalte im oberen Bereich kompakter darstellen, um die
Scroll-Tiefe bis zum entscheidenden Button zu verringern.
• Beschriftung des irreführenden Buttons oben überarbeiten
um deutlich zu machen, dass der Link nicht zielführend ist.
• In Abwägung zu anderen Funktionen überdenken, ob die
Reihenfolge überarbeitet werden sollte.
Scrollmap von 10
Personen
Nur eine Person
klickt den
entscheidenden
Button zur Lösung
der Aufgabe direkt.
5 Tester klicken zunächst auf
einen irreführenden Button –
den passenderen Button haben
sie nicht wahrgenommen.
Beispiel-Finding 4: Button verdeckt
8
• 10 Tester hatten die Aufgabe sich für ein Onlinetool zu registrieren,
dabei mussten ein Nutzername und ein Passwort eingegeben
werden.
• In der Analyse der Klickdaten fiel auf, dass es relativ lange dauerte,
bis geklickt wurde. Die Positionen der Mausklicks waren
ungewöhnlich, da die Klicks nicht im fixierten Bereich sondern
rechts und links daneben lagen.
• Erst bei genauer Betrachtung der aufgezeichneten Screenshots
wurde klar, dass der Hinweis zur Passwortstärke den großen Button
zum Abschluss der Registrierung überdeckte. Die Nutzer fixierten
also den Passworthinweis, während sie den Button darunter
anklickten.
Empfehlung:
• Der Hinweis zur Stärke des Passworts darf nicht den
Button verdecken. Zumal viele Nutzen den Hinweis
bekamen, dass das Passwort stark genug ist.
• Eine positive Rückmeldung zu einem starken Passwort,
sollte grün (statt blau) markiert sein, um zu zeigen, dass
das Passwort akzeptiert wird.
• Bei einem schwachen Passwort muss angezeigt werden,
welche Zeichen das Passwort enthalten sollte um
hinreichend sicher zu sein.
#2
34
Passwort-
hinweis
verdeckt den
Button
Eyetracking-
Heatmap und
Klicks von 10
Probanden
Beispiel-Finding 5: Zu lange Texte
9
• Die Teilnehmer der Studie beschäftigten sich mit einer
Informationsseite zu Energieeffizienz. Die Seite war sehr
lang und enthielt viel Text.
• Mittels Eyetracking wurde ersichtlich, dass von den
einzelnen Textabschnitte meistens nur die ersten Zeilen
gelesen wurden. Die Tester begannen zu lesen, brachen
nach einigen Zeilen das Lesen ab und sprangen zur
nächsten Überschrift.
• Die Überschriften motivierten die Nutzer also zunächst,
das Lesen des Textabschnitts zu beginnen. Das Lesen
wurde dann aber abgebrochen, weil entweder der Text
nicht die erwarteten Informationen enthielt oder zu lang
war.
Empfehlungen:
• Überschriften müssen unbedingt wiederspiegeln, was im
nachfolgenden Textblock behandelt wird, um bei
Interesse zum Lesen zu animieren.
• Textblöcke kürzen oder wenn möglich auf Stichwörter
zurückgreifen um große Textblöcke zu vermeiden.
Heatmap zeigt die intensiv
betrachteten Bereiche und die
jeweiligen kaum fixierten
unteren Bereiche der
Textabschnitte
Eyetracking-
Heatmap von 10
Testern beim Lesen
eine Textabschnitts
Die Auswertung auf
einem Textblock
zeigt, dass der zweite
Teil des Textes nur
noch von 5 von 9
Personen betrachtet
wurde.
Beispiel-Finding 6: Karussell zu dominant
10
• Die Tester der Studie suchten auf der Seite eines
Anbieters für Häuser nach einem passenden Haus. Sehr
prominent auf der Seite war ein Karussell mit
wechselnden Angeboten und Informationen
positioniert. Die eigentlich wichtige Übersicht der
Häuser wurde darunter dargestellt.
• Der Bereich des Karussells band mit 41 % aller
Fixationen einen großen Teil der Aufmerksamkeit. Der
Bereich war sehr groß und zog durch die wechselnden
Informationen die Aufmerksamkeit an. Für die Aufgabe
war der Bereich nicht relevant.
Empfehlungen:
• Prüfung ob die Themen des Karussells große
Bedeutung für die Konversion der Seite haben.
Karussell ggf. entfernen und Themen statisch
nebeneinander präsentieren.
• Aufmerksamkeit auf der Hausübersicht erhöhen, durch
bessere Positionierung und Erhöhung der visuellen
Aufmerksamkeit (größere Schrift, bessere Abhebung
vom Hintergrund).
Ha
us
Ha
us
Eyetracking-
Heatmap von
10 Probanden
Der relevante Bereich erhält
deutlich weniger visuelle
Aufmerksamkeit als das
sehr dominante Karussell.
Use Case Deutsche Bank
Die Deutsche Bank, nutzt seit Jahren EYEVIDO Lab,
um ihre digitalen Angebote mit Usability-Tests zu
optimieren. Im Use Case wird gezeigt, wie
Eyetracking und Thinking-Aloud eingesetzt wurden,
um die Absprungraten zu verringern.
Das Studiendesign mit einem Wechsel von
Mockups und Live-Webseiten war anspruchsvoll
und konnte in EYEVIDO Lab ohne
Programmierkenntnisse umgesetzt werden.
“Experten in der Digital Factory und
im Privatkundengeschäft der
Deutschen Bank können nun
Schwierigkeiten im Benutzererlebnis
von Webseiten und Anwendungen
schnell identifizieren – und beheben.
EYEVIDO Lab hilft der Bank dabei, ihre
Angebote intuitiver, effizienter und für
ihre Nutzer angenehmer zu
gestalten.”
•
•
“Das UX-Team des Geschäftskundenbereichs der
Deutschen Telekom hatte EYEVIDO im Einsatz, um die
Webseite zur Cloud PBX, zu optimieren. Der Test konnte
mit vielen neuen Erkenntnissen sowie mit konkreten
Handlungsempfehlungen für die Verbesserung der
Cloud PBX Webseite abgeschlossen werden”
"Die Durchführung der Studie
war einfach und die Software
leicht zu bedienen."
University of Koblenz
EYEVIDO GmbH

Mais conteúdo relacionado

Semelhante a EYEVIDO Usability-Optimierung mit Eyetracking

Lean Management in der Praxis
Lean Management in der PraxisLean Management in der Praxis
Lean Management in der PraxisLearning Factory
 
Nutzerforschung als Grundlage für A/B Tests, die bessere Ergebnisse bringen
Nutzerforschung als Grundlage für A/B Tests, die bessere Ergebnisse bringenNutzerforschung als Grundlage für A/B Tests, die bessere Ergebnisse bringen
Nutzerforschung als Grundlage für A/B Tests, die bessere Ergebnisse bringenOptimizely
 
Encounter for Innovations
Encounter for InnovationsEncounter for Innovations
Encounter for InnovationsCLICresearch
 
eResult Panel: Bonopolis.de - Beispiele und Fallstudien
eResult Panel: Bonopolis.de - Beispiele und FallstudieneResult Panel: Bonopolis.de - Beispiele und Fallstudien
eResult Panel: Bonopolis.de - Beispiele und FallstudieneResult_GmbH
 
Lean Startup und agile Methodiken – Hype oder Fortschritt ?
Lean Startup und agile Methodiken – Hype oder Fortschritt ?Lean Startup und agile Methodiken – Hype oder Fortschritt ?
Lean Startup und agile Methodiken – Hype oder Fortschritt ?Heico Koch
 
Wie kann eResult Sie unterstützen?
Wie kann eResult Sie unterstützen?Wie kann eResult Sie unterstützen?
Wie kann eResult Sie unterstützen?Connected-Blog
 
Barrieren der Erfolgsmessung von Enterprise Social Software
Barrieren der Erfolgsmessung von Enterprise Social SoftwareBarrieren der Erfolgsmessung von Enterprise Social Software
Barrieren der Erfolgsmessung von Enterprise Social SoftwareChristian Herzog
 
Vwo webinar
Vwo webinar Vwo webinar
Vwo webinar VWO
 
Wie Ihr Content die Buyer Journey unterstützt und Nutzertests funktionieren
Wie Ihr Content die Buyer Journey unterstützt und Nutzertests funktionierenWie Ihr Content die Buyer Journey unterstützt und Nutzertests funktionieren
Wie Ihr Content die Buyer Journey unterstützt und Nutzertests funktionierenevuxGmbH
 
Case study onsite_endresshauser
Case study onsite_endresshauserCase study onsite_endresshauser
Case study onsite_endresshausereResult_GmbH
 
Introduction to Customer Development & LaunchPad Central
Introduction to Customer Development & LaunchPad CentralIntroduction to Customer Development & LaunchPad Central
Introduction to Customer Development & LaunchPad CentralSafariConsulting
 
WUD 2009 Workshop: Quick Wins
WUD 2009 Workshop: Quick WinsWUD 2009 Workshop: Quick Wins
WUD 2009 Workshop: Quick Winsguest60c1a2
 
eparo – Quick Wins (Workshop WUD 2009 – Rolf Schulte Strathaus)
eparo – Quick Wins (Workshop WUD 2009 – Rolf Schulte Strathaus)eparo – Quick Wins (Workshop WUD 2009 – Rolf Schulte Strathaus)
eparo – Quick Wins (Workshop WUD 2009 – Rolf Schulte Strathaus)eparo GmbH
 
Fallstudie UX Review zuerich.com
Fallstudie UX Review zuerich.comFallstudie UX Review zuerich.com
Fallstudie UX Review zuerich.comeResult_GmbH
 
Fallstudie UX Review zuerich.com
Fallstudie UX Review zuerich.comFallstudie UX Review zuerich.com
Fallstudie UX Review zuerich.comElskeL
 
Discovery toolbox working products 2016 web
 Discovery toolbox working products 2016 web Discovery toolbox working products 2016 web
Discovery toolbox working products 2016 webUbercreativelab
 
DE - Module 3 - Improving your business model using external data
DE - Module 3 - Improving your business model using external dataDE - Module 3 - Improving your business model using external data
DE - Module 3 - Improving your business model using external datacaniceconsulting
 
Scrum ist nicht die Zukunft. Circular Economy jedoch schon.
Scrum ist nicht die Zukunft. Circular Economy jedoch schon.Scrum ist nicht die Zukunft. Circular Economy jedoch schon.
Scrum ist nicht die Zukunft. Circular Economy jedoch schon.Stephanie Gasche
 

Semelhante a EYEVIDO Usability-Optimierung mit Eyetracking (20)

Lean Management in der Praxis
Lean Management in der PraxisLean Management in der Praxis
Lean Management in der Praxis
 
Nutzerforschung als Grundlage für A/B Tests, die bessere Ergebnisse bringen
Nutzerforschung als Grundlage für A/B Tests, die bessere Ergebnisse bringenNutzerforschung als Grundlage für A/B Tests, die bessere Ergebnisse bringen
Nutzerforschung als Grundlage für A/B Tests, die bessere Ergebnisse bringen
 
Encounter for Innovations
Encounter for InnovationsEncounter for Innovations
Encounter for Innovations
 
eResult Panel: Bonopolis.de - Beispiele und Fallstudien
eResult Panel: Bonopolis.de - Beispiele und FallstudieneResult Panel: Bonopolis.de - Beispiele und Fallstudien
eResult Panel: Bonopolis.de - Beispiele und Fallstudien
 
Lean Startup und agile Methodiken – Hype oder Fortschritt ?
Lean Startup und agile Methodiken – Hype oder Fortschritt ?Lean Startup und agile Methodiken – Hype oder Fortschritt ?
Lean Startup und agile Methodiken – Hype oder Fortschritt ?
 
Intro canvas ii
Intro canvas iiIntro canvas ii
Intro canvas ii
 
Wie kann eResult Sie unterstützen?
Wie kann eResult Sie unterstützen?Wie kann eResult Sie unterstützen?
Wie kann eResult Sie unterstützen?
 
Encounter for innovations
Encounter for innovationsEncounter for innovations
Encounter for innovations
 
Barrieren der Erfolgsmessung von Enterprise Social Software
Barrieren der Erfolgsmessung von Enterprise Social SoftwareBarrieren der Erfolgsmessung von Enterprise Social Software
Barrieren der Erfolgsmessung von Enterprise Social Software
 
Vwo webinar
Vwo webinar Vwo webinar
Vwo webinar
 
Wie Ihr Content die Buyer Journey unterstützt und Nutzertests funktionieren
Wie Ihr Content die Buyer Journey unterstützt und Nutzertests funktionierenWie Ihr Content die Buyer Journey unterstützt und Nutzertests funktionieren
Wie Ihr Content die Buyer Journey unterstützt und Nutzertests funktionieren
 
Case study onsite_endresshauser
Case study onsite_endresshauserCase study onsite_endresshauser
Case study onsite_endresshauser
 
Introduction to Customer Development & LaunchPad Central
Introduction to Customer Development & LaunchPad CentralIntroduction to Customer Development & LaunchPad Central
Introduction to Customer Development & LaunchPad Central
 
WUD 2009 Workshop: Quick Wins
WUD 2009 Workshop: Quick WinsWUD 2009 Workshop: Quick Wins
WUD 2009 Workshop: Quick Wins
 
eparo – Quick Wins (Workshop WUD 2009 – Rolf Schulte Strathaus)
eparo – Quick Wins (Workshop WUD 2009 – Rolf Schulte Strathaus)eparo – Quick Wins (Workshop WUD 2009 – Rolf Schulte Strathaus)
eparo – Quick Wins (Workshop WUD 2009 – Rolf Schulte Strathaus)
 
Fallstudie UX Review zuerich.com
Fallstudie UX Review zuerich.comFallstudie UX Review zuerich.com
Fallstudie UX Review zuerich.com
 
Fallstudie UX Review zuerich.com
Fallstudie UX Review zuerich.comFallstudie UX Review zuerich.com
Fallstudie UX Review zuerich.com
 
Discovery toolbox working products 2016 web
 Discovery toolbox working products 2016 web Discovery toolbox working products 2016 web
Discovery toolbox working products 2016 web
 
DE - Module 3 - Improving your business model using external data
DE - Module 3 - Improving your business model using external dataDE - Module 3 - Improving your business model using external data
DE - Module 3 - Improving your business model using external data
 
Scrum ist nicht die Zukunft. Circular Economy jedoch schon.
Scrum ist nicht die Zukunft. Circular Economy jedoch schon.Scrum ist nicht die Zukunft. Circular Economy jedoch schon.
Scrum ist nicht die Zukunft. Circular Economy jedoch schon.
 

EYEVIDO Usability-Optimierung mit Eyetracking

  • 1. Eyetracking findings Beispiele für Auswertungen von aufgezeichneten Nutzerdaten
  • 2. Eyetracking-Analysen in Nutzerstudien • Zufriedene Nutzer werden Kunden, sprechen Empfehlungen aus und besuchen eine Seite wieder. • Frühe Identifizierung von Problemen im Design spart Entwicklungskosten. • Nutzeranalysen erklären bereits bekannte Probleme etwa aus der Analyse von Live-Daten, z.B. bei Problemen mit der Konversionsrate. • Es ist leicht und für die Teilnehmer komfortabel, die Eyetracking-Daten aufzuzeichnen. Tester nehmen gerne und motiviert an Studien teil. • Eyetracking ist intuitiv, das natürliche Verhalten wird analysiert und Probleme bei der Nutzung erkannt. • Die Analyse von Nutzerverhalten ist objektiv, es werden weder Meinungen wiedergeben noch persönliche Interpretationen vorgenommen. Warum Usability-Tests? Warum Eyetracking-Analysen? Im Rahmen von Nutzerstudien interagieren Tester mit Webseiten und bearbeiten typische Aufgabestellungen auf einer Webseite, wie eine Bestellung vorzunehmen oder eine Information zu finden. Dabei wird das Nutzerverhalten aufgezeichnet, indem die Blickposition auf dem Bildschirm anhand von Eyetracking sowie Mausposition, Klicks und Scrolling erfasst werden. Zusätzlich geben die Tester explizites Feedback in Fragebögen oder Thinking-Aloud-Aufzeichnungen. In diesem Dokument werden einige Beispiele für Erkenntnisse aus unseren vergangenen Studien vorgestellt. Sie zeigen die Arbeit unserer Usability-Experten bei der Auswertung aufgezeichneter Nutzerdaten. Alle Daten stammen aus echten Aufzeichnungen.
  • 3. Ablauf einer Usability-Studie 1. Planung 2. Durchführung 3. Auswertung • • • • • • •
  • 4. Ergebnisse: Das bekommen Sie von uns 1. Studiendaten im Webportal 2. UX-Report #7 23 Positive Rückmeldung Optimierungs- vorschlag Teilnehmer mit ID Problem Ausschnitt aus Report
  • 5. Beispiel-Finding 1: Zu langes Menü • Bei der Suche nach einem Studentenjob wurde das Menü genutzt. • Die Eyetracking-Daten zeigen, dass die Tester im Ausklappmenü nur den oberen Teil betrachtet haben und nach wenigen Sekunden einen Eintrag im oberen Menübereich angeklickt haben. • Passendere Menüeinträge im unteren Bereich des Drop-Down-Menüs wurden nicht wahrgenommen und nicht angeklickt. • Empfehlung: • Redundante Einträge aus dem Menü entfernen und auf maximal 8 beschränken. • Bei längeren Menüs Überschriften einführen und so besser strukturieren. #7 23 #2A 48 Studenten Nebenjob Duales Studium Abschlussarbeit Absolventen Trainee-Jobs Berufseinsteiger-Jobs „Ich musste mich länger durchklicken um den richtigen Job zu finden“ Designidee Drop-Down-Menü Nutzerdaten von zwei Probanden. Beide betrachten nur die ersten Einträge im Menü.
  • 6. Beispiel-Finding 2: Tabelle zu breit 6 • In der Tariftabelle bekamen die Tester eine Aufgabe zur Preisstruktur des Anbieter gestellt. • Die Informationen in der Tabelle liegen zu weit auseinander: Die Augenbewegungsdaten zeigen, dass es den Studienteilnehmern schwer fiel, der Linie zu folgen, um den richtigen Preis zu finden. Dies führte zu einer Vielzahl von Doppelkontrollen, weil sie unsicher waren. • Lange Sakkaden (Augenbewegungen) sind hier durch Hin-und-Her-Springen der Blicke erkennbar. Dies ist unnötig anstrengend für die Benutzer. • Empfehlung: • Abstand zwischen den zwei Spalten verringern. Original Eyetracking-Daten Designidee Drop-Down-Menü
  • 7. Beispiel-Finding 3: Wichtiger Inhalte zu weit unten 7 • Die Probanden hatten die Aufgabe auf einer Webseite eine bestimmte Unterseite mit Informationen zu finden. • In den Nutzerdaten von 10 Probanden wurde klar, dass der entscheidende Button nur bei 3 von 10 Personen angezeigt wurde – die restlichen Probanden scrollten nicht tief genug um den Button überhaupt zu sehen. • Da es sich bei dem genannten Button um den Pfad zu einer der wichtigsten Funktionen der Seite handelte, gelangten zu wenige Probanden auf direktem Weg dorthin. Empfehlung: • Inhalte im oberen Bereich kompakter darstellen, um die Scroll-Tiefe bis zum entscheidenden Button zu verringern. • Beschriftung des irreführenden Buttons oben überarbeiten um deutlich zu machen, dass der Link nicht zielführend ist. • In Abwägung zu anderen Funktionen überdenken, ob die Reihenfolge überarbeitet werden sollte. Scrollmap von 10 Personen Nur eine Person klickt den entscheidenden Button zur Lösung der Aufgabe direkt. 5 Tester klicken zunächst auf einen irreführenden Button – den passenderen Button haben sie nicht wahrgenommen.
  • 8. Beispiel-Finding 4: Button verdeckt 8 • 10 Tester hatten die Aufgabe sich für ein Onlinetool zu registrieren, dabei mussten ein Nutzername und ein Passwort eingegeben werden. • In der Analyse der Klickdaten fiel auf, dass es relativ lange dauerte, bis geklickt wurde. Die Positionen der Mausklicks waren ungewöhnlich, da die Klicks nicht im fixierten Bereich sondern rechts und links daneben lagen. • Erst bei genauer Betrachtung der aufgezeichneten Screenshots wurde klar, dass der Hinweis zur Passwortstärke den großen Button zum Abschluss der Registrierung überdeckte. Die Nutzer fixierten also den Passworthinweis, während sie den Button darunter anklickten. Empfehlung: • Der Hinweis zur Stärke des Passworts darf nicht den Button verdecken. Zumal viele Nutzen den Hinweis bekamen, dass das Passwort stark genug ist. • Eine positive Rückmeldung zu einem starken Passwort, sollte grün (statt blau) markiert sein, um zu zeigen, dass das Passwort akzeptiert wird. • Bei einem schwachen Passwort muss angezeigt werden, welche Zeichen das Passwort enthalten sollte um hinreichend sicher zu sein. #2 34 Passwort- hinweis verdeckt den Button Eyetracking- Heatmap und Klicks von 10 Probanden
  • 9. Beispiel-Finding 5: Zu lange Texte 9 • Die Teilnehmer der Studie beschäftigten sich mit einer Informationsseite zu Energieeffizienz. Die Seite war sehr lang und enthielt viel Text. • Mittels Eyetracking wurde ersichtlich, dass von den einzelnen Textabschnitte meistens nur die ersten Zeilen gelesen wurden. Die Tester begannen zu lesen, brachen nach einigen Zeilen das Lesen ab und sprangen zur nächsten Überschrift. • Die Überschriften motivierten die Nutzer also zunächst, das Lesen des Textabschnitts zu beginnen. Das Lesen wurde dann aber abgebrochen, weil entweder der Text nicht die erwarteten Informationen enthielt oder zu lang war. Empfehlungen: • Überschriften müssen unbedingt wiederspiegeln, was im nachfolgenden Textblock behandelt wird, um bei Interesse zum Lesen zu animieren. • Textblöcke kürzen oder wenn möglich auf Stichwörter zurückgreifen um große Textblöcke zu vermeiden. Heatmap zeigt die intensiv betrachteten Bereiche und die jeweiligen kaum fixierten unteren Bereiche der Textabschnitte Eyetracking- Heatmap von 10 Testern beim Lesen eine Textabschnitts Die Auswertung auf einem Textblock zeigt, dass der zweite Teil des Textes nur noch von 5 von 9 Personen betrachtet wurde.
  • 10. Beispiel-Finding 6: Karussell zu dominant 10 • Die Tester der Studie suchten auf der Seite eines Anbieters für Häuser nach einem passenden Haus. Sehr prominent auf der Seite war ein Karussell mit wechselnden Angeboten und Informationen positioniert. Die eigentlich wichtige Übersicht der Häuser wurde darunter dargestellt. • Der Bereich des Karussells band mit 41 % aller Fixationen einen großen Teil der Aufmerksamkeit. Der Bereich war sehr groß und zog durch die wechselnden Informationen die Aufmerksamkeit an. Für die Aufgabe war der Bereich nicht relevant. Empfehlungen: • Prüfung ob die Themen des Karussells große Bedeutung für die Konversion der Seite haben. Karussell ggf. entfernen und Themen statisch nebeneinander präsentieren. • Aufmerksamkeit auf der Hausübersicht erhöhen, durch bessere Positionierung und Erhöhung der visuellen Aufmerksamkeit (größere Schrift, bessere Abhebung vom Hintergrund). Ha us Ha us Eyetracking- Heatmap von 10 Probanden Der relevante Bereich erhält deutlich weniger visuelle Aufmerksamkeit als das sehr dominante Karussell.
  • 11. Use Case Deutsche Bank Die Deutsche Bank, nutzt seit Jahren EYEVIDO Lab, um ihre digitalen Angebote mit Usability-Tests zu optimieren. Im Use Case wird gezeigt, wie Eyetracking und Thinking-Aloud eingesetzt wurden, um die Absprungraten zu verringern. Das Studiendesign mit einem Wechsel von Mockups und Live-Webseiten war anspruchsvoll und konnte in EYEVIDO Lab ohne Programmierkenntnisse umgesetzt werden. “Experten in der Digital Factory und im Privatkundengeschäft der Deutschen Bank können nun Schwierigkeiten im Benutzererlebnis von Webseiten und Anwendungen schnell identifizieren – und beheben. EYEVIDO Lab hilft der Bank dabei, ihre Angebote intuitiver, effizienter und für ihre Nutzer angenehmer zu gestalten.”
  • 12. • • “Das UX-Team des Geschäftskundenbereichs der Deutschen Telekom hatte EYEVIDO im Einsatz, um die Webseite zur Cloud PBX, zu optimieren. Der Test konnte mit vielen neuen Erkenntnissen sowie mit konkreten Handlungsempfehlungen für die Verbesserung der Cloud PBX Webseite abgeschlossen werden” "Die Durchführung der Studie war einfach und die Software leicht zu bedienen." University of Koblenz