28.
Jan
Autor:
Kategorie: Allgemein

RE’FLEKT Product Explorer Demo – Virtual Reality zum Greifen nah

Spätestens seit der CES 2015 ist es auch in die letzten Ecken der Tech-Welt durchgedrungen: Virtual Reality steht vor der Tür. Zahlreiche Firmen zeigten ihre neuen HMDs (Head-mounted Displays). Oculus selbst – mit deren Rift die  VR-Renaissance begonnen hat, residierte mit ihrem aktuellen Prototypen Crescent Bay gar auf einem riesigen zweistöckigen Stand.

Und doch, auch wenn VR in den letzten Monaten mit der Crescent Bay und der Gear VR große Sprünge gemacht hat, auf dem Consumer Markt ist sie noch nicht angekommen. Das liegt neben der noch fehlenden Consumer-Version der neuen High-end HMDs vor allem an einem Problem: der Interaktion mit der virtuellen Welt. Das Onlinemagazin The Verge brachte es am Ende eines ausgezeichneten Artikels auf den Punkt: „If we’re going to get people excited about virtual reality, let’s make sure it’s more than a screen first.”

WIE INTERAGIERT MAN MIT VIRTUELLEN WELTEN?

Auch innerhalb der VR-Community und bei Oculus selbst gilt Interaktion als noch ungelöstes Problem. Maus und Tastatur fallen weg wenn man einen Bildschirm auf der Nase hat, Game Pads sind nicht für jeden und jede Anwendung sinnvoll und spezialisierte räumlich getrackte Inputdevices wie die Razer Hydra konnten sich bisher ebenfalls nicht durchsetzen. Gerüchteweise arbeitet Oculus aus Unzufriedenheit  mit den verfügbaren Geräten selbst an einem VR Interface – und die kürzliche Übernahme des Handtracking Start-Ups Nimble VR gibt eine Idee, in welche Richtung es dabei gehen könnte.

Auch bei RE’FLEKT haben wir uns Gedanken darüber gemacht, wie Interaktion mit virtuellen Umgebungen in Zukunft aussehen könnte. Unser Ziel war es, einen Prototypen zu erstellen, der VR-Erstnutzern die Möglichkeit gibt möglichst direkt – ohne Vorwissen – und mit minimalem Lernaufwand mit dem virtuellen 3D-Modell eines Produkts zu interagieren.

HANDS-ON INTERAKTION FÜR VIRTUAL REALITY

Minimaler Lernaufwand? Ohne Vorwissen? Was bietet sich da eher an als ein möglichst natürliches Interface – ohne Abstraktion durch das Drücken von Knöpfen oder das Herumfuchteln mit Controllern. Einfach ohne Controller, direkt mit unseren Händen. Die Leap Motion verspricht genau das: durch eine Infrarotkamera und Computer Vision-Algorithmen ist es möglich, die eigenen Hände in Echtzeit in den virtuellen Raum zu bringen.

Gesagt getan: In einer Late Night-Session wurden die ersten Erfahrungen mit der Kombination Leap & Rift DK2 gesammelt und ein erster roher Prototyp erstellt und über die nächsten Wochen zunehmend verfeinert. Als zu explorierendes Produkt diente das von CEO Kai Thomas entworfene RE’FLEKT Concept Car. Das wurde kurzerhand auf ein handliches Maß geschrumpft, um es in Armesreichweite zu bringen und in eine halbtransparente Kugel gepackt. Diese Kugel sollte Dreh- und Angelpunkt der Interaktion werden – sprichwörtlich.

Anstatt mit der Oberfläche des Autos, drehte der Nutzer das Modell indem er über die Oberfläche der Kugel streicht – wie bei einem Globus. Dies ermöglicht es, direkt am Fahrzeug auf Details zu zeigen oder weitere Interaktionen auszulösen ohne in eine unkontrollierte Drehung zu verfallen. Weiterhin zeigte sich die allen bekannte Globus-Metapher als komplett ausreichend zu Erklärung der Interaktion.

Als wichtiges Detail stellte sich während unserer iterativen Entwicklung ein physikalisch glaubhaftes Momentum der Kugel heraus. Die Interaktion wird dadurch deutlich flüssiger, schneller und spielhafter. Mehr als einmal erwischt sich der ein oder andere Entwickler dabei, verzückt für eine Weile die Kugel und das Modell zu drehen anstatt den Look des gerade ausgewechselten Shaders in der Brille zu überprüfen – ein gutes Zeichen auf dem richtigen Weg zu sein. Ebenso wichtig für eine angenehme User Experience war das Feintuning des Feedbacks für die Interaktion mit der Kugel: Hand und Kugel sind angedeutet solange sie nicht nah genug für eine Interaktion sind, um nicht vom eigentlichen Produkt abzulenken und werden nur dann sichtbar wenn eine Interaktion möglich ist.

RF_ModelExplorer_FingerFeedback

Um dem Nutzer noch tiefere Einblicke in unser Concept Car zu gewähren, ermöglichen wir ebenfalls das komplette Auto in seine Einzelteile zu zerlegen. Einfach beide Hände ins Sichtfeld heben, zupacken und die Hände auseinanderziehen – schon öffnet sich das Auto in alle Richtungen und der Blick ist frei auf die innenliegende Technik. Die Aktivierung mittels schließen der Hand zur Faust erwies sich nicht nur als sehr robuste Geste was das Tracking anging, sondern war auch in der Lage dem User das mit dem Zugreifen verbundene haptische Feedback zu liefern.

RF_ModelExplorer_ExplodeFeedback

Weitere Features beinhalten das Umschalten in einen X-Ray-Modus sowie die zusätzliche Darstellung des Concept Cars in Originalgröße neben dem Benutzer. Letzteres lässt sich synchron mit dem Modell in der Kugel zerlegen. Ein halbtransparentes Overlay des Videostreams der Leap Infrarotkamera sorgt zusätzlich dafür, dass der Nutzer weiterhin nahe Objekte in seiner Umgeung als weiße Schemen erkennen kann – hilfreich um sich an den Tisch vor einem zu erinnern bevor man sich vornüber beugt, um unters Auto zu schauen.

 RF_ModelExplorer_XRay

DID IT WORK?

Die Leap ist alles andere als perfekt. Die Präzision reicht für wirklich feine Interaktionen nicht aus. In gewissen Positionen neigt das Tracking abzureissen und auf unseren weißen Bürotischen werden gerne Geisterhände erkannt, die ungewollte Interaktionen auslösen. Aber das ist alles halb so wild. Wer um die Schwächen der Leap weiss und sein Design konsequent auf ihre Stärken auslegt, der kann zusammen mit der Rift einen echten Zugang in den virtuellen Raum schaffen. Das haben wir in zahlreichen User-Tests und Demos unseres Prototypen eindrucksvoll vorgeführt bekommen. Innerhalb von 30 Sekunden drehten VR-Neulinge das vor ihnen schwebende Modell mit einer Selbstverständlichkeit, als hätten sie nie etwas anderes getan. Minimaler Lernaufwand: check.

Doch darüber hinaus haben wir noch etwas anderes festgestellt: die eigenen Hände vor Augen zu haben, mit virtuellen Objekten direkt interagieren zu können und sich dank Positional Tracking der Rift DK2 durch die vor einem schwebenden Einzelteile des zerlegten Autos zu bewegen, gibt den virtuellen Objekten eine beeindruckende Präsenz. Es lässt die Grenze zwischen virtuellen und realen Objekten zusehends verschwimmen und verändert die Warnehmung von virtuellen Inhalten dadurch fundamental – völlig neue Möglichkeiten entstehen. Kunden können mit Prototypen, Konzepten und Produkten interagieren, obwohl diese noch nicht real gebaut wurden. Interaktiv und spielerisch können komplexe technische Details entdeckt werden. Vor Ort oder im eigenen Wohnzimmer. Intuitive, natürliche Interfaces spielen hierbei eine absolute Schlüsselrolle – nur mit ihnen kann VR ihr volles Potenzial ausspielen: ein interaktives, ganzheitliches und vor allem individuelles und selbst gestaltetes Erlebnis.

Bildquellen: Eigene

 

 

 


Comments are closed.

467