• Holy UX
  • Blog
  • Services
    • UX Strategy & UX Consulting
    • UX Exploration
    • UX Concept & UX Design
    • UX Evaluation
  • Referenzen
  • Kontakt
  • Über uns
  • DE
  • EN
  • Click to open the search input field Click to open the search input field Suche
  • Menü Menü

NOVA Blog: 11. Oktober 2017

Voice Control – 5 Dinge, die es für eine gute User Experience zu beachten gilt.

Kategorie: Usability, UX Grundlagen

Sprachsteuerung verspricht eine bequeme Interaktion mit Systemen. Fehlende Sichtbarkeit des Systemstatus und kontextbezogenes Frageverhalten bringen jedoch Usability-Probleme mit sich, die es zu berücksichtigen gilt. Wir stellen 5 zentrale Dinge vor, die es beim Voice Control zu beachten gilt.

Warum überhaupt Voice Control?

Warum sollten Sie bei Ihrem Produkt auf Sprachsteuerung setzen, obwohl doch die Leute an herkömmliche Bedienweisen gewöhnt sind? Die klassische Antwort darauf lautet: Sprache ist eine natürliche Interaktionsform und schafft deswegen auch ein natürlicheres Nutzungserlebnis.

Ob die Interaktion mit einer künstlichen Stimme nun natürlich ist oder nicht, darüber lässt sich streiten. In jedem Fall ist es sehr bequem, dem Smartphone die SMS zu diktieren oder Suchmaschinenanfragen zu starten, ohne sie eintippen zu müssen. Schließlich werden auch immer mehr Sprachnachrichten versandt, als dass mühselig Text im Smartphone-Messenger eingegeben wird. Bei einigen Anwendungen muss das System nicht mal mehr in die Hand genommen werden.

Voice Control wird auch dann wichtig, wenn sich Systeme immer mehr in unsere Umgebung integrieren wie beispielsweise bei Smart Home und Smart Mobility Anwendungen. Im Auto bietet es beispielsweise eine alternative Möglichkeit, Entertainment- und Assistenzsysteme zu bedienen, ohne eine Hand vom Lenkrad oder den Blick von der Straße nehmen zu müssen.

Sprachsteuerung ist also bequem – Bequem dann, WENN sie funktioniert. Denn Voice-Control bringt eine Reihe an Usability-Problemen mit sich, die es in der Planung einer Anwendung zu bedenken gilt.

5 Usability-Probleme beim Voice Control

Das Erkennen von Wörtern funktioniert durch Big Data Ansätze und Machine Learning mittlerweile recht gut. Probleme machen jedoch ungeschickte Aktivierungswörter, ein weniger oder gar nicht sichtbarer Systemstatus sowie das Frageverhalten, seine Kontexte und abweichende Antworten von Erwartung des Nutzers, was zu Usability-Problemen führen kann.

1. Eingängige und alltagstaugliche Aktivierungswörter finden.

Meist haben Sprachassistenten ein recht geschicktes und eingängiges Aktivierungswort, in dem der Name des Systems enthalten ist. Googles Sprachassistenz wird beispielsweise über „Ok, Google“ aktiviert. Die Einfachheit und Verknüpfung mit dem Systemnamen beugt ein Vergessen des Aktivierungswortes vor. Solange sich nicht über Google unterhalten wird, ist damit auch eine versehentliche Aktivierung ausgeschlossen. Amazons Alexa lässt sich dagegen rein mit „Alexa“ aktivieren. Dies kann bereits eine versehentliche Aktivierung zur Folge haben, wenn man sich schlicht über das System unterhält. Die zusätzliche Verwendung des „Ok“ zur Aktivierung bei Google macht dagegen eine ungewollte Aktivierung unwahrscheinlich.

Um eine ähnlich clevere Kombination wie Google zu finden, sollte die Aktivierungswörter-Kombination immer auf Alltagstauglichkeit überprüft werden. So kann erfasst werden, ob sie leicht merkbar ist, aber nicht im natürlichen Gespräch fällt. Andererseits kann es sein, dass das Aktivierungswort durch eine laute Umgebung gar nicht gehört wird, was zum Problem werden kann, wenn der Systemstatus nicht erkennbar ist.

2. Systemstatus klar machen.

Stellen wir uns Nora vor, die auf ihrem neuen Smartphone einen Sprachassistenzen installiert hat. Unterwegs auf der Straße möchte Sie ihren Mann Norbert anrufen. Über ein Codewort versucht sie den Sprachassistenten zu aktiveren und befiehlt „Norbert anrufen“. Wegen der lauten Umgebung hat das System sie nicht verstanden und wurde nicht aktiviert. Sie wiederholt das Aktivierungswort und den Befehl. Diesmal wird das System zwar aktiviert, versteht sie aber nicht richtig und möchte nun statt Norbert Mama Renate anrufen. Nora fällt der Computerstimme schnell und laut Wort ins Wort: „Nein, ich möchte NORBERT anrufen!“ Weil sie die Computerstimme nicht ausreden lassen hat, konnte das System das „Nein“ nicht verarbeiten: Es war noch nicht bereit. Dafür hat es aber das „anrufen“ verstanden, was direkt fiel, nachdem die Computerstimme ausgeredet hatte. Das Problem hier: Der Systemstatus war Nora nicht ersichtlich. Der Anruf wird also getätigt. Mama Renate freut sich jedenfalls, dass die Tochter mal wieder anruft.

Akustisches und visuelles Feedback beispielsweise durch ein Signal (bei Googles Sprachassistenten ertönt ein „Bling“) oder eine LED, die anzeigt, wann das System bereit ist, Sprachbefehle zu empfangen (Alexa verfügt beispielsweise über einen Leuchtring), können helfen, den Systemstatus von sprachgesteuerten Systemen zu verdeutlichen. Welches Feedback für welches System geeignet ist, kann dabei in Expert Reviews und Usability Testings herausgefunden werden.

3. Befehls- und Frageverhalten der Nutzer verstehen.

Zudem muss herausgefunden werden, auf welche Weise Nutzer Befehle und Fragen an das System formulieren. Hätte Nora die Stimme ausreden lassen, hätte sie immer noch versuchen können, den Anruf mit „Halt“, „Stopp“, „Nicht anrufen“ oder „Abbrechen“ stoppen zu können. Dies sollte das System auf Grundlage von qualitativen und quantitativen Forschungsergebnissen berücksichtigen.

4. Pragmatische Mehrdeutigkeit und Kontexte berücksichtigen.

Probleme der pragmatischen Mehrdeutigkeit müssen beim Interaktionsverhalten auch noch mitbedacht werden. Stellen Sie sich vor, Sie werden von einem Arbeitskollegen auf der Arbeit gefragt, wo das Kino ist. Wie würden Sie antworten?

Nun werden Sie nach Feierabend in der Innenstadt gefragt, wo das Kino ist. Antworten Sie diesmal anders? Die Antwort auf die Frage nach dem Kino ist höchst kontextabhängig. Menschen neigen beispielsweise dazu auf die Frage morgens mit dem Standort des Kinos („Am Bahnhof“) zu antworten, während sie abends oder in räumlicher Nähe eine Wegbeschreibung geben („Gehen Sie da vorne rechts, dann die Straße entlang, die dritte Straße rechts und dann ist das Kino auf der linken Seite“). Dies bei der Konzeption einer sprachgesteuerten Anwendung zu bedenken, erfordert ebenfalls ein innovatives Usability Testing, dass die Kontexte der Nutzung miteinbeziehen muss.

5. Nutzererwartungen und Reaktionsverhalten bei Enttäuschung identifizieren.

Noras Geschichte hat gezeigt: Missverständnisse können bei der Sprachsteuerung schnell nervenaufreibend werden und dazu führen, dass die Sprachsteuerung mehr Zeit in Anspruch nimmt, als manuelle (Text-)Eingabe und somit Vorteile und User Experience zunichte gemacht werden. Daher ist die Usability bei der Sprachsteuerung besonders wichtig. Bekommt der Nutzer nicht die gewünschte Antwort vom System führt das dazu, dass er aufhört das System zu nutzen, seine Frage lauter wiederholt oder wie in Noras Geschichte dem System ins Wort fällt, was erneute Schwierigkeiten bereiten kann. Hierbei ist es wichtig, wie das System reagiert, wenn es eine Anfrage nicht verstanden hat oder bedienen kann. Kann ein System für Smartphone eine Frage nicht ausführen, kann der Fragetext schlicht gegoogelt werden. Was macht aber ein System ohne Display wie Alexa? Und welche Anfragen muss ein System nach aktuellen Nutzererwartungen in jedem Fall bedienen können? Welche sind spezifisch? Für alle diese Fragen braucht es Nutzerforschung.

Auf einen Blick

Nachfolgend haben wir Ihnen die wichtigsten Fragen, auf die Rücksicht genommen werden sollte, noch einmal zusammengefasst:

  • Wie gut funktioniert das Aktivierungswort in alltäglichen Kontexten z.B. lauter Umgebung? Ist es eingängig? Wird es versehentlich in natürlichen Dialogen genannt und so das System ungewollt aktiviert?

  • Ist der Systemstatus für den Nutzer leicht erkennbar?

  • Welches Befehls- und Frageverhalten hat der Nutzer?

  • Welche Kontexte müssen hinsichtlich des Frage- und Befehlsverhalten bedacht werden?

  • Bekommt der User die erwartete Antwort? Wie reagiert er wenn nicht?

Wir lassen Sie nicht allein!

Gerne testen wir ihre Anwendung oder arbeiten Sie konzeptionell mit Ihnen aus, indem wir das Frageverhalten in Befragungen testen  und Interaktionssituationen in Wizard of Oz-Tests simulieren. Dabei wird die Funktion der Anwendung imitiert ohne dass sie bereits programmiert werden muss. Sprechen Sie uns gerne für ein individuelles Angebot an.

Hier haben Sie die Möglichkeit den Blog-Eintrag zu bewerten.

Click to rate this post!
[Total: 3 Average: 4]

Autorenprofil

Dustin Hesse
Dustin Hesse
UX Research Manager

E-Mail schreiben
Spezialgebiet: Mobile UX, Tools, Quantitative UX Methoden
Letzte Beiträge
  • 29. Januar 2024GastbeitrageHealth UX: Die Schlüsselrolle der Nutzerzentrierung
  • 16. April 2020Methoden & ToolsUX messbar machen: Joy-of-Use-Tracking
  • 20. Februar 2020Methoden & ToolsCard Sorting & Tree Testing – Mentale Modelle von Nutzern messen
  • 6. Mai 2019EventsUX als Religion: Eindrücke von der uxinsight!

Die letzten 6 Beiträge

  • Der-ROI-von-UX_beitrag_02
    Über den wirtschaftlichen Nutzen von Marktforschung und UX Research24. März 2025 - 11:33
  • Webinar Erfolgsgeheimnis Navigationsstruktur
    Erfolgsgeheimnis Navigationsstruktur? Mit congstar den Fokus auf Nutzer:innen legen!20. März 2025 - 8:53
  • Banken_beitrag01
    Deutsche Banken haben große Wachstumschancen im UX-Bereich14. Januar 2025 - 1:06
  • Versicherungen_beitrag02
    Die digitale Revolution der Versicherungen: mit UX Research zum Erfolg14. Januar 2025 - 1:03
  • Hybride-Settings01
    Hybride Settings: Quantitative Metriken in qualitativen Tests13. Januar 2025 - 15:32
  • v
    Webinar: E-Commerce Update: Das personalisierte Online-Einkaufserlebnis gestalten28. November 2024 - 12:19

JOIN THE WONDERFUL WORLD

SKOPOS GROUP | NEWS
SKOPOS market research
SKOPOS CONNECT communities & cx
SKOPOS NEXT mystery research
SKOPOS VIEW hr survey & follow up
SKOPOS ELEMENTS data science & analytics

NOVA

Wer wir sind
Was wir machen

Bisherige Projekte
Jobangebote
Kontakt aufnehmen

KONTAKT

02233-9988-440
Schreiben Sie uns

Newsletter abonnieren

SKO­POS NOVA GmbH | © 2025 Alle Rech­te vor­be­hal­ten.

Datenschutz – Cookies – Impressum – Compliance

Link to: UX im Auto: Familie NOVA unterwegs. Link to: UX im Auto: Familie NOVA unterwegs. UX im Auto: Familie NOVA unterwegs.Auto Link to: Auf einen Abend im UXBN15 Link to: Auf einen Abend im UXBN15 UXBNAuf einen Abend im UXBN15
Nach oben scrollen