Montag, 16. Januar 2012

Hello, PC - Mit rudernden Armen Richtung Natural User Interfaces

Vor einigen Monaten haben viele noch gelacht, als der sprachgesteuerte Assistent Siri für Apples iPhone vorgestellt wurde. Was, ich soll mit meinem Handy reden? Jetzt, rund um die CES-Messe in Vegas, reden auf einmal ganz viele von Sprachsteuerung – und auch Gestensteuerung. Hersteller wie Samsung zeigen Fernseher, die sich via Sprachbefehl bedienen lassen. Microsoft bringt die Sprach- und Gestensteuerung Kinect von seiner Konsole Xbox auf PCs – für TV-Funktionen kommt sie via Xbox live auch voran.

We’re dragged screaming and kicking in the age of the Natural User Interface, sozusagen. Nur kann das Mit-Händen-und-Füßen-wehren auch aus einem simplen Schulterzucken bestehen. Marke 'Was soll ich damit?'

Was es also soll: Zunächst entfernen Natural User Interfaces Barrieren, reduzieren Komplexität (wenn sie so funktionieren, wie sie sollen, versteht sich.) Es ist ein simplerer, direkterer Weg der Interaktion. Es geht nicht darum, sich wie in Star Trek zu fühlen, sondern darum, Dinge einfacher zu gestalten.


Bei TV-Geräten könnte das tatsächlich einige Probleme lösen. Denn je weiter die Digitalisierung und der Zugriff auf Online-Inhalte, Zusatzfunktionen, etc. fortschreitet, umso offensichtlicher wird die Tatsache, dass die klassische Fernbedienung damit schlicht überfordert ist. In dem Moment, in dem die Fernbedienung auf einmal doppelt so groß ist wie vor fünf Jahren oder findige Entwickler in einem Fach auf der Rückseite weitere Tasten anbringen, wird klar, dass wir uns was besseres einfallen lassen sollten. Wobei das Scheitern von Windows-Media-Center-Konzepten gezeigt hat: "Was besseres" übersetzt sich für den Nutzer nicht als verkappter PC, dessen Tarnung spätestens bei Vorhandensein von Maus und Volltastatur ohnehin auffliegt.

Und ich denke mit Grausen daran zurück, wie die Interface-"Logik" einiger TV-Gerätemarken noch vor ein paar Jahren aussah (als ich noch mit Tests entsprechender Geräte zu tun hatte).
Statt wilder Finger- und Hirnverrenkungen, um sich durch zig Untermenüs zu schalten, wäre ein "Fernseher – öffne Applikation X" natürlich einfacher. Und spätestens, wenn über den internetfähigen Fernseher tatsächlich Eingaben erfolgen sollen, die über Cursorbewegungen und Klicks hinausgehen, wäre diktieren in der Tat weitaus simpler.

Fallstricke gibt es natürlich auch:
Zum einen läuft es mir kalt den Rücken runter, wenn ich darüber nachdenke, dass Leute, die an der aktuellen aberwitzigen Interface-Gestaltung nichts auszusetzen haben, eine natürlichere Logik entwickeln sollen.
Zum anderen mag die Grundidee noch so nachvollziehbar sein, die Umsetzung funktioniert dadurch noch lange nicht – und bietet einiges an Potenzial, die Nummer gegen die Wand zu setzen.
Das beginnt ganz grundsätzlich schon damit, wie gut eine Spracherkennung überhaupt funktioniert. Siri und TellMe beispielsweise sollten das gleiche können, in diesem Test sieht das jedoch anders aus:


TellMe vergeigt hier wirklich jede Anfrage. Und auch Siri ist – nicht in diesem Clip, aber in der Praxis – von Perfektion noch einigermaßen weit entfernt.
Woraus ein anderer Punkt folgt: Die Dinge, für die Anwender die Technologie tatsächlich nutzen – oder eben nicht. Eine Sprachsteuerung muss ja nicht nur funktionieren – sie muss mir auch zumindest den Eindruck vermitteln, besser und unkomplizierter zu funktionieren als die Alternative. Nach dem dritten Versuch, korrekt verstanden zu werden, wird der Nutzer sich seine alte Fernbedienung zurückwünschen – um sie nach dem Fernseher zu werfen.


Fernseher sind aber nur ein Gerätetyp, an dem Sprachsteuerung ein Thema wird. Für ein gewisses Stirnrunzeln sorgte bei einigen auch Microsofts Ankündigung, die Sprach- und Gestensteuerung Kinect von der Konsole Xbox jetzt auf PCs zu bringen. Davon abgesehen, dass es das nächste Anzeichen ist, dass bei Microsoft der Mut ausgebrochen zu sein scheint, testet auch das die Übertragung neuer Interface-Wege auf ein weiteres Gerät.

Nun fallen bei PCs ein paar der klassischen Erklärungsansätze weg, warum Sprach – oder Gestensteuerung besser ist: Es geht nicht darum, Eingaben zu erleichtern, die mit der vorhandenen Peripherie umständlich sind – weil man eine normale Tastatur zur Verfügung hat, nicht die Schrumpfkopf-Variante auf Smartphones oder ein Fernbedienungs-Monster.
Allerdings: Was meinen wir, wenn wir von einer normalen Tastatur reden? Die normale Tastatur ist nur deshalb unser natürliches Eingabegerät, weil das gelerntes Verhalten ist. Das heißt nicht, dass andere Wege nicht besser sein können. Während es sicher wenig Sinn ergibt, Photoshop via Augenrollen zu bedienen, dürfte es auch jenseits von Textdiktaten Möglichkeiten für den Einsatz von Sprach- und Gestensteuerung geben. Einen Hinweis können die diversen Präsentationen und Clips zum Thema Touch-Bedienung am Desktop geben – über Gestensteuerung wäre das auch ohne tatsächliches Berühren des Displays denkbar.

Als die ersten Windows PCs auf den Markt kamen, gab es auch genug Leute, die der Meinung waren, diese grafische Benutzeroberfläche und diesen Mausblödsinn brauche keiner, Tastaturbefehle und –Kürzel seien doch völlig in Ordnung, wenn nicht gar besser.

Selbstverständlich ist die Sprach- und Gestiksteuerung nicht automatisch besser, nur weil sie neu ist – aus dem gleichen Grund ist sie aber auch nicht schlechter. Es geht schlicht darum, mit funktionierenden Varianten herauszufinden, wofür sie sich eignet – und wofür nicht.

Keine Kommentare:

Kommentar veröffentlichen