Freitag, 24. August 2012

Disney Researchs Revel: Augmented Reality für den Tastsinn

Schon immer gefragt, wie sich eine virtuelle Textur so anfühlt? Disney Research arbeitet daran, Antworten zu liefern. Mit Augmented Reality für den Tastsinn - ohne VR-Handschuhe oder ähnlichen Schnickschnack.

Wenn wir von Augmented Reality, also der Erweiterung der Realität durch virtuelle Elemente, reden, denken wir meist nur an visuelle Erweiterungen. Überblendungen in Smartphone-Displays oder Brillen etwa. Menschen nehmen die Wirklichkeit (besser gesagt: unser Konstrukt davon) aber noch über einige andere Sinne wahr. Einer davon: Der Tastsinn, der sich dank des Siegeszugs der Touch-Displays ohnehin großer Beachtung bei Interface-Entwicklern erfreut. 

Ein Team von Disney Research entwickelt mit Revel nun eine Technologie, um Alltagsgegenstände mit überschaubarem Aufwand so auszustatten, dass für Menschen virtuelle Oberflächenstrukturen fühlbar werden, wenn sie sie berühren. AR für den Tastsinn. Taktiles Feedback aus dem Rechner.

 Mit Revel fühlt der Nutzer die virtuelle Oberflächentextur am Objekt. Bild: Disney Research.

Das Konzept dahiner ist reverse electrovibration (daher Revel), also umgekehrte Elektrovibration. Bevor ihr jetzt in mentale Horrorvorstellungen abdriftet: Bei Elektrovibration geht es um eine Wirkung elektrostatischer Felder. Wenn auf einem leitenden Objekt eine schwache, oszillierende Spannung liegt und ein geerdeter Nutzer dieses Objekt berührt und darüber streicht, dann spürt er Reibung. Bewegt sich der Finger nicht, spürt der Anwender auch nichts. Die Modulation der Spannung führt dabei zu unterschiedlichen Reibungseffekten, fühlt sich also nach unterschiedlichen Oberflächen an. Eine sinusförmige Wechselspannung etwa sieht nicht nur im Oszilloskop wie eine abgerundete Wellenkurve aus, sie fühlt sich auch abgerundeter an. (Detaillierter erklärt im Revel-Paper.)

Der reverse-Teil von Revel kommt dadurch ins Spiel, dass das Disney-Research-Konzept nicht den jeweiligen Gegenstand, sondern den Nutzer unter Strom setzt. (Wir reden hier von für Menschen weder wahrnehmbaren noch schädlichen Niveaus, versteht sich.) Der Vorteil daran: Am jeweiligen Objekt ist keine große Ausrüstung mehr nötig, es muss nur leitend, mit Elektrode und korrekter Isolierschicht versehen sowie geerdet sein.

Und dann? Lassen sich diverse Oberflächenstrukturen bei Berührung simulieren. Im Bild oben etwa legt visuelle AR eine virtuelle Textur über den Gegenstand, die für den User spürbar wird. Er fühlt die virtuelle Farbe und die Oberflächenunterschiede. Das funktioniert auch mit Displays - Schaltflächen, veränderte Oberflächen von Designtexturen und mehr lassen sich anfassen, geben haptisches Feedback. Selbst wenn eine Wand als Projektionsfläche dient. Virtuelle Oberflächenstrukturen werden damit mit bloßem Finger spürbar, Gegenstände lassen sich mit programmierbarer Haptik versehen - die sich sogar je nach User unterscheiden kann.

In Erweiterung dessen, was ich vor einiger Zeit über Berührungs- und Gestensteuerung für Alltagsgegenstände geschrieben habe - da war mit Touché auch ein Disney-Research-Projekt vertreten - wäre dann nicht nur eine simple Wand als Display nutz- und über Touch bedienbar - sie gäbe auch noch haptisches Feedback, wenn der Nutzer projizierte Objekte berührt.

In der Theorie ließe sich das auch für Richtungsmarkierungen an Wänden, Kunstwerke oder interaktive Schaukästen anwenden. Zusammenfassend präsentiert im Video "Revel: Programming the Sense of Touch".



Ein paar Fallstricke gibt's natürlich noch. Zum einen: Für das Tracking auf Objekten braucht es zusätzliche Sensorik wie etwa Microsofts Kinect, um die räumliche Position und die Bewegungen des Anwenders zu erfassen, damit ihm das korrekte Signal ausgegeben wird. Zum anderen müssen Objekt und User mit der gleichen Erdung verbunden sein. Das stellt allerdings beides kein dramatisches Problem dar.

Schon schwieriger: Die Berührung muss sich in einem gewissen Geschwindigkeitsfenster befinden: Bei ruhender Hand funktioniert es nicht, weil der Effekt dann nicht auftritt. Bei zu schnellen Bewegungen kommt das System nicht mit. Bei einer Versuchsanordnung spürten die Probanden das, was sie ihrem visuellen Eindruck nach 7,5 cm vorher berührt hatten.

Während es als sensorisches Erlebnis sicherlich mal interessant ist, Lag zwischen Sinneseindrücken zu haben, ist das für Anwendungen als Interface dann doch eher hinderlich.

Aber das Konzept als solches ist spannend. Ein kleines Kästchen ist nicht wirklich störend und das einzige Stück notwendiger Technologie, das Anwender direkt bemerken. Es braucht eben keine Handschuhe oder Force-Feedback-Konstruktionen, um dieses taktile Feedback zu erzeugen. Und es erweitert die Möglichkeiten, Sinneseindrücke für Interface-Konzepte nutzbar zu machen. 

Nur das mit dem Geruchsfernsehen, das lassen wir bitte nach wie vor sein.



Verwandte Artikel:

Touché: Disney Research und die Touch-Steuerung für Alles
Surface 2 - Microsoft Research und das Universum der Möglichkeiten
Fernglas in die Zukunft: Cornings A Day Made of Glass 2
Hello, PC - Mit rudernden Armen Richtung Natural User Interfaces
Augmented-Reality-Kontaktlinsen, Berührbare Hologramme und mehr: Microsoft arbeitet an der Zukunft

Keine Kommentare:

Kommentar veröffentlichen