Posts mit dem Label NUI werden angezeigt. Alle Posts anzeigen
Posts mit dem Label NUI werden angezeigt. Alle Posts anzeigen

Freitag, 31. Mai 2013

Zappeln, Schütteln, Fingerzeig – Interfaces jenseits der Touchscheibe

Was nützt der Doppelklick in Gedanken: Kürzlich hat Samsung ein Konzept für eine Tablet-Gedankensteuerung vorgestellt. Damit soll es Personen möglich sein, ein Galaxy Tablet mittels EEG-Sensoren auf dem Kopf zu bedienen, Apps zu starten, Kontakte auszuwählen, Lieder aus Playlists auszusuchen. Das Denkerkappen-Konzept ist allerdings nur ein Test und nicht für den Massenmarkt gedacht, eher um Menschen mit Beeinträchtigungen das Leben zu erleichtern. Dennoch spielt es Überlegungen zu neuen Interface-Konzepten durch – hier die Steuerung via Sensorik.

Denn der Erfolg von Geräten mit Touch-Bedienung führt ja schön vor Augen, dass es weit intuitivere Steuerungen als Maus und Tastatur gibt. Daher mal wieder ein paar Zeilen zu Natural User Interfaces & Co.

Bild: Screenshot von Leap Motions Demovideo.

Vergangene Woche hat Microsoft seine neuen Konsole Xbox One präsentiert. Und damit die neue Version seiner Kinect-Sensorik, die via Kamera und Mikrofon Nutzerkommandos entgegen nimmt. Diese neue Fassung kann bis zu sechs Personen gleichzeitig monitoren. Erfassen, wer von ihnen spricht, wer zum Bildschirm sieht, wer welche Bewegungen ausführt. Entsprechend steht Kinect auch im Zentrum der Big-Brother-Ängste um die neue Xbox – denn dadurch, dass die Konsole via Sprachkommando oder Geste aktiviert werden kann, ist die Sensorik auch im Standby-Modus an. Mir geht es aber nicht um Orwell, mir geht es darum, wie weit dieser Interface-Weg damit schon gekommen ist. Die technischen Möglichkeiten von Kinect sind beeindruckend. Umso mehr, weil schon bei der Vorgänger-Version die spannendsten Anwendungen nicht von Microsoft selbst kamen, sondern Kinect-Hacks waren.