Prototyping (Voice) Experiences

Neues von der IA-Konferenz in Berlin

Eines der wichtigsten Dinge an unserem Job ist es, bei aktuellen Themen up-to-date zu bleiben. Und der ideale Weg dies zu tun, ist sich direkt mit Kollegen und Gleichgesinnten austauschen. Auf der diesjährigen IA-Konferenz, die am zweiten Juniwochenende stattfand und von UDG United Digital Group als Silber-Sponsor unterstützt wurde, kamen Konzepter, Informationsarchitekten und UX Designer aus ganz Deutschland in Berlin zusammen. Die Konferenz stand unter dem Motto „Prototyping Experiences“. Dabei geht darum, Konzepte in Basisprodukt-Prototypen zu überführen, mit deren Hilfe überprüft werden kann, wie sich Features und Bedienabläufe für die Benutzer anfühlen. Insbesondere die Gestaltung von Voice User Interfaces, zu dem einige interessante Vorträge angeboten wurden, ist für uns ein sehr spannendes Thema.

 

(Foto: Mitchell Hollander/unsplash.com)

(Foto: Mitchell Hollander/unsplash.com)

 

Wir alle haben schon mal davon gehört und die meisten von uns haben den ein oder anderen Voice Assistenten bereits benutzt – sich von Siri einen Witz erzählen lassen, Cortana nach dem Wetter gefragt oder über Alexa eine Amazon-Bestellung aufgegeben. Voice Assistenten nehmen eine immer wichtigere Rolle in unserem Alltag ein. Nicht zuletzt wegen der niedrigen Anschaffungskosten und der natürlichen, bequemen Bedienung per Sprache.

 

Aber wie können wir Sprache nutzen, um einfache, aber auch komplexe Probleme zu lösen? Sandra Griffel von denkwerk und Richard Bretschneider von eresult haben mit ihren Vorträgen einen schönen Einblick auf die größten Herausforderungen gegeben:

 

Natürliche Sprache

 

Die Verarbeitung von natürlicher Sprache ist immer noch ein ernst zu nehmender Stolperstein auf dem Weg zur intuitiven Steuerung. Eine Eingabe muss stets von einem dahinterliegenden System verstanden und interpretiert werden. Durch unterschiedliche Sprach- und Betonungsmuster, Dialekte, Akzente, das flexible Einsetzen von Grammatik oder Hintergrundgeräusche wird sowohl die Aufnahme als auch Interpretation der gesprochenen Sprache beeinflusst.

 

Neue Kommunikationsmuster

 

Häufig müssen spezielle Kommandos genutzt oder Tasten gedrückt werden, um mit Sprachassistenten einen Dialog zu starten. Siri kann beispielsweise erst nach der Einleitung „Hey Siri“ Befehle entgegennehmen. Für Sprachsteuerungs-Neulinge kann das Startkommando schon der erste Stolperstein sein:

 

User Onboarding

 

Wie viel Onboarding benötigt ein Produkt, so dass dem User Funktionen und Features gut erklärt werden, ohne ihn mit zu vielen Informationen zu überfluten? Der Bereich Voice User Interfaces steckt noch in den Kinderschuhen. Darum müssen Erstnutzer zu Beginn gezielt angeleitet werden, damit sie die Funktionsweise der Sprachassistenten verstehen und lernen können. Außerdem hilft dies, möglicherweise falsche Erwartungen an das Gerät abzubauen. Einige Nutzer gehen zum Beispiel davon aus, dass der Google Assistant ein Lied, das sie ihm vorsingen, erkennt und das Gerät anschließend den Orginaltitel abspielt.

 

Unterschiedlicher Nutzungskontext

 

In welcher Umgebung wird das Voice User Interface genutzt? Werden möglicherweise mehrere Sprachassistenten gleichzeitig bedient? Der Nutzungskotext hat einen starken Einfluss auf die Verwendung. Möchte der Benutzer das Gerät in einer lauten Umgebung nutzen, sollten beispielsweise Hintergrundgeräusche herausgefiltert werden. Außerdem müssen die Ziele der Nutzer im jeweiligen Kontext beachtet werden. Es ist gut möglich, dass sich das Voice User Interface nicht gut für die Lösung ihres spezifischen Problems eignet, sondern eher ein Graphical User Interface vonnöten ist. Beispielsweise kann die Bestellung einer Pizza über Spracheingabe sehr komplex sein. Hat man nicht schon ein Benutzerkonto und seine Lieblingspizza hinterlegt, muss man möglicherweise alle Zutaten einzeln aufzählen. Die Auswahl per Touch über eine Anwendung wäre in diesem Fall sinnvoller.

 

Heute sind es noch relativ einfache Aufgaben, die wir Sprachassistenten erledigen lassen. Schon in wenigen Jahren werden sich immer mehr Haushaltsgeräte, Maschinen und Fahrzeuge per Sprache steuern lassen.

 

Die Entwicklung von Sprachassistenten hat gerade erst so richtig begonnen.

 
 
Janine und Amanda

Über die Autorinnen:

Amanda Jerković (rechts) und Janine Schneider rücken als UX Architects bei der UDG United Digital Group die Berdürfnisse der Nutzer in den Fokus. Sie sind Experten in Sachen User Experience und in Usabilityfragen.

 

#UX


Regelmäßig News aus der digitalen Szene erhalten?


Ansprechpartner finden oder mehr zur

UDG United Digital Group erfahren?

Please turn on Javascript

Leave a Reply

Your email address will not be published.