Was nützt der Doppelklick in Gedanken:
Kürzlich hat Samsung ein Konzept für eine Tablet-Gedankensteuerung
vorgestellt. Damit soll es Personen möglich sein, ein Galaxy Tablet
mittels EEG-Sensoren auf dem Kopf zu bedienen, Apps zu starten,
Kontakte auszuwählen, Lieder aus Playlists auszusuchen. Das
Denkerkappen-Konzept ist allerdings nur ein Test und nicht für den
Massenmarkt gedacht, eher um Menschen mit Beeinträchtigungen das
Leben zu erleichtern. Dennoch spielt es Überlegungen zu neuen
Interface-Konzepten durch – hier die Steuerung via Sensorik.
Denn der Erfolg von Geräten mit
Touch-Bedienung führt ja schön vor Augen, dass es weit intuitivere
Steuerungen als Maus und Tastatur gibt. Daher mal wieder ein paar
Zeilen zu Natural User Interfaces & Co.
![]() |
Bild: Screenshot von Leap Motions Demovideo. |
Vergangene Woche hat Microsoft seine
neuen Konsole Xbox One präsentiert. Und damit die neue Version
seiner Kinect-Sensorik, die via Kamera und Mikrofon Nutzerkommandos
entgegen nimmt. Diese neue Fassung kann bis zu sechs Personen
gleichzeitig monitoren. Erfassen, wer von ihnen spricht, wer zum
Bildschirm sieht, wer welche Bewegungen ausführt. Entsprechend steht
Kinect auch im Zentrum der Big-Brother-Ängste um die neue Xbox –
denn dadurch, dass die Konsole via Sprachkommando oder Geste
aktiviert werden kann, ist die Sensorik auch im Standby-Modus an.
Mir geht es aber nicht um Orwell, mir geht es darum, wie weit dieser
Interface-Weg damit schon gekommen ist. Die technischen Möglichkeiten
von Kinect sind beeindruckend. Umso mehr, weil schon bei der
Vorgänger-Version die spannendsten Anwendungen nicht von Microsoft
selbst kamen, sondern Kinect-Hacks waren.