Gesprochene Sprache ist dabei für uns das intuitive Medium, das wir von Kind auf gelernt haben, um uns miteinander auszutauschen. Kein Wunder also, dass gerade jetzt – in einer Zeit, in der die Interaktion zwischen Mensch und Technik einen wesentlichen Bestandteil unseres Alltags eingenommen hat – die Frage nach der stimmbasierten Kommunikation mit Maschinen wieder an Bedeutung gewinnt.
Erste Versuche, stimmbasierte Interaktionen zu entwickeln, begannen bereits in den 50er Jahren. Der Durchbruch gelang jedoch erst vor einigen Jahren mit dem Aufkommen von Big Data und den Fortschritten in der Entwicklung von Künstlicher Intelligenz. Siri und Alexa sind schon heute Namen, die für die meisten untrennbar mit den Stimmen von Apple und Amazon verbunden sind. Auch viele weitere virtuelle Assistenten finden aktuell Einzug in die Produkte unterschiedlichster Branchen.
Die Interaktion mittels gesprochener Sprache bietet für einige Anwendungsfälle große Vorteile: Im Gegensatz zu den aktuell gängigen grafischen Oberflächen werden Voice User Interfaces (VUI) als natürlich und von sich aus intuitiv beschrieben und bieten größere Barrierefreiheit, da sie ohne den Einsatz von Händen oder anderer Gesten auskommen. Dieser Trend wird Studien zufolge weiter zunehmen. Laut Gartner werden bis 2020 sogar 50% der analytischen Abfragen über Natural Language Processing (NLP) oder gesprochene Sprache erzeugt bzw. automatisch generiert werden.
Doch was bedeutet dieser Trend für die UX-Community? Müssen wir komplett neu denken, wenn wir zukünftig weniger mit rein grafischen Oberflächen konfrontiert sind, sondern zunehmend mit multimodalen Interfaces interagieren?
Sicher ist: Technologisierung ohne UX wird langfristig nicht zum Erfolg dieser Produkte führen. Wir müssen UX mitdenken und dafür unsere bisherigen Methoden auf diese neuen Interaktionsmodi anpassen – sei es stimm- oder auch gestenbasiert.
Gerade im Umgang mit Voice User Interfaces steht die Frage nach der Darstellung und Strukturierung von Informationen im Fokus: Wie kann der Nutzer per Voice durch einen Workflow geleitet werden, wenn dieser keine visuelle Menüstruktur oder Filteroptionen mehr zur Verfügung hat? Das System muss weiterhin Feedback liefern, sodass der User auch ohne grafische Oberfläche immer über den Status seiner Interaktion weiß. Wesentlich wird auch die Frage, wie Menschen mit Technik reden bzw. von ihr angesprochen werden wollen.
Je nach Nutzungsszenario müssen all diese Aspekte differenziert betrachtet werden. Unser gemeinsames Ziel muss es bleiben, auch in Zukunft eine Menschen-zentrierte Technologisierung sicherstellen zu können, die durch Transparenz Vertrauen beim Nutzer schafft – und dafür brauchen wir UX, jetzt erst recht.
Bildquelle: unsplash.com