Was nützt der Doppelklick in Gedanken:
Kürzlich hat Samsung ein Konzept für eine Tablet-Gedankensteuerung
vorgestellt. Damit soll es Personen möglich sein, ein Galaxy Tablet
mittels EEG-Sensoren auf dem Kopf zu bedienen, Apps zu starten,
Kontakte auszuwählen, Lieder aus Playlists auszusuchen. Das
Denkerkappen-Konzept ist allerdings nur ein Test und nicht für den
Massenmarkt gedacht, eher um Menschen mit Beeinträchtigungen das
Leben zu erleichtern. Dennoch spielt es Überlegungen zu neuen
Interface-Konzepten durch – hier die Steuerung via Sensorik.
Denn der Erfolg von Geräten mit
Touch-Bedienung führt ja schön vor Augen, dass es weit intuitivere
Steuerungen als Maus und Tastatur gibt. Daher mal wieder ein paar
Zeilen zu Natural User Interfaces & Co.
![]() |
Bild: Screenshot von Leap Motions Demovideo. |
Vergangene Woche hat Microsoft seine
neuen Konsole Xbox One präsentiert. Und damit die neue Version
seiner Kinect-Sensorik, die via Kamera und Mikrofon Nutzerkommandos
entgegen nimmt. Diese neue Fassung kann bis zu sechs Personen
gleichzeitig monitoren. Erfassen, wer von ihnen spricht, wer zum
Bildschirm sieht, wer welche Bewegungen ausführt. Entsprechend steht
Kinect auch im Zentrum der Big-Brother-Ängste um die neue Xbox –
denn dadurch, dass die Konsole via Sprachkommando oder Geste
aktiviert werden kann, ist die Sensorik auch im Standby-Modus an.
Mir geht es aber nicht um Orwell, mir geht es darum, wie weit dieser
Interface-Weg damit schon gekommen ist. Die technischen Möglichkeiten
von Kinect sind beeindruckend. Umso mehr, weil schon bei der
Vorgänger-Version die spannendsten Anwendungen nicht von Microsoft
selbst kamen, sondern Kinect-Hacks waren.
Was die neue Fassung von Kinect kann,
ist nicht ohne. Diese beiden Clips für TheNextWeb führen die
Genauigkeit vor, mit der Kinect inzwischen Bewegungen und Stimme
erfassen kann. Beides hat weit mehr Anwendungsmöglichkeiten als
„nur“ den Fernseher oder ein Konsolenspiel steuern.
Und Microsoft ist nichtmal der spannendste Anbieter. Über das Startup Leap Motion habe ich
hier schon geschrieben. Leap wird inzwischen viel Potenzial
zugesprochen, nachdem im Vorfeld zum Produktlaunch im Juli
Testversionen rausgegangen sind. Und nun hat ein Demovideo
ausgerechnet an Microsofts Windows 8 präsentiert, wie gut eine
Bewegungssteuerung am Desktop aussehen kann. Ausgerechnet deshalb,
weil der Kinect-Pionier Microsoft mit der gleichen Technik für PCs
nicht recht in die Gänge kommt. Immerhin ist die neue
Kinect-Variante aber auch schon für PCs angekündigt. Für nächstes
Jahr irgendwann.
Mit diesem Tool, das gerade mal 70
Dollar kostet, lässt sich die Kachel-Oberfläche von Windows 8 auf
einmal tatsächlich wie bei Touch-Geräten steuern. Das würde einige
der Probleme von Win 8 lösen (nicht alle, sie haben auch im
Handlungsfluss ihres User Interfaces einiges verbockt. Aber
immerhin.). Und Leap wird es tatsächlich im Bundle mit Geräten
geben – allerdings von Asus und HP.
Gerätebedienung per Handwink und
Sprachkommando. Vom Bürostuhl oder der Couch aus.
Das stellt einen schnelleren und intuitiveren Weg der Bedienung dar (wenn man es richtig umsetzt). Das ist nicht nur Spielerei, das lässt sich in harte Zahlen packen – ein gutes Natural User Interface ist bis Faktor 8 schneller als ein normales Graphical User Interface.
Das stellt einen schnelleren und intuitiveren Weg der Bedienung dar (wenn man es richtig umsetzt). Das ist nicht nur Spielerei, das lässt sich in harte Zahlen packen – ein gutes Natural User Interface ist bis Faktor 8 schneller als ein normales Graphical User Interface.
Und der Wettlauf um immer kleinere
Geräte und Wearable Devices wird zwingend zu einem
Interface-Wettstreit führen. Denn die Uhr am Handgelenk, das Display
vor den Augen oder die sensorbewehrte Jacke lässt sich nunmal nicht
mit einer Tastatur bedienen.
Es gibt aber auch ein paar andere
interessante Ansätze, Steuerungen "natürlicher" zu machen. Und
an Geräten Feedback zu simulieren, wie es bei tatsächlichen
Interaktionen auftreten würde. Katherine Kuchenbecker beispielsweise
hat in einem sehenswert TED ED Clip ihre Haptography-Projekte
vorgestellt. Haptography steht dabei für haptische Fotografie. Das
Team zeichnet die haptischen Eindrücke auf, die etwa eine Oberfläche
wie eine Leinwand an den Menschen vermittelt, der mit einem Stift
darüber fährt. Aus den Daten wird dann ein Simulationsmodell
erstellt, um dieses Feedback künstlich zu erzeugen, wenn die
Berührung eines Displays oder einer anderen Oberfläche das gleiche
Gefühl vermitteln soll.
Nicht ganz so diffizil, aber auch
interessant sind Entwicklung wie die Reactive Grip Technology von
Tactical Haptics. Ein Spielecontroller, der Feedback nicht über
simples Force-Feedback-Vibrierten liefert, sondern über
programmierbare bewegliche Achsen im Griff. Auch das löst ein näher
an der tatsächlichen Berührung liegendes Feedback aus.
Wir reden bei diesen Konzepten nicht
nur von der Steuerung von TV, Konsole oder Smartphone. Es kann auch
als Interface für komplexere Vorgänge dienen. Ein Thema, dem ich noch einmal mit mehr Muße widmen werde. Das hier stellt nur einen kurzen Überblick, ein kurzes Update dar.
Verwandte Artikel:
Verwandte Artikel:
Through
the Looking Glass: Ein genauerer Blick auf Google Glass und
#ifihadglass
IllumiRoom: Microsoft macht die Wohnzimmer-Wand zur Spielkulisse
IllumiRoom: Microsoft macht die Wohnzimmer-Wand zur Spielkulisse
Keine Kommentare:
Kommentar veröffentlichen