Naja, wenn die Leut nicht mehr in Urlaub fliegen sondern zuhaus sitzen, spart das ne Menge Kerosin
Ich seh da vor allem 2 Anwendungsgebiete, die für mich interessant sind:
- Gaming: Klar. Da gehts halt einerseits um den Wow-Faktor.. Trackmania auf meinem 3D-Monitor spielen bei der LAN hat schon einiges können

Natürlich wirds dadurch nicht besser oder spielt sichs leichter, aber es macht schon einiges her, wenn man z.B. bei Kurzbahn im Ziel den Kopf einzieht

Andererseits gibts halt auch die Möglichkeit für ganz neue Spielkonzepte, oder zumindest eine Verbesserung des Human Interfaces. Wenn man Head-Tracking hat, kann man schon mal schnell wo anders hinschaun als man hinzielt / hinfährt. Bei Flugsims, Rennspielen etc kann das schon einiges an Möglichkeiten bieten. Oder halt ganz neue Spielideen .. was weiß ich, virtuell Ostereier im Haus verstecken und wer anderer muss sie suchen.. Natürlich sinnlos, aber nur mal ne Idee was ich mein .. Ich denk da auch ein bissl Richtung Wii. Was man aber letztlich damit außer Headtracking/im Cockpit umsehen und komplett unnötigen 'Games' wie Augmented Reality Büchern (looking at you, Microsoft) machen soll, weiß eigentlich noch keiner..
- Arbeitstechnisch: Da hingegen gibts jede Menge geniale Anwendungen .. durch ein 3D-CAD Modell einfach durchgehn statt mit der Maus rumfummeln. Ist einfach 'eine andere Welt', egal wie gut man mit der Maus ist. Überlagerung von Information.. seis der Chirurg, der im 'Overlay' sieht wo er hinmuss oder besser nicht. Oder der Wartungstechniker, der die CAD-Modelle drübergelegt bekommt. Rapid Prototyping, man setzt sich auf nen Sessel und probiert schon mal aus ob im neuen Auto/Cockpit/Arbeitsplatz/.. wirklich alles gut erreichbar und sichtbar ist. Oder, am normalen Arbeitsplatz, was ich immer schon mal haben wollt, statt sich 10 Monitore hinzustellen sich einfach virtuelle "Monitore" im Raum verteilen..
Aber leider ists halt nicht so wie M$ das in dem Video darstellt.. Monitore die an der Wand zu kleben scheinen, Bilder, die im Raum vor einem schweben, Text in der Luft sehen..
Egal was die da erzählen, es gibt da einfach nach wie vor einen Haufen technische Probleme damit:
- Die Auflösung: ist so gut wie immer zu gering, um wirklich scharf Text sehn zu können. Sobald der Text nicht absolut parallel zur Viewing Plane ist, sind die Ecken unscharf, buchstaben verschmieren, .. Moderne Fonts bzw Fontrendering sind zugeschnitten auf die Art wie Pixel auf TFTs funktionieren, um scharfe Kanten zu bekommen.. Wenn man Text einfach auf ne Textur draufrendert, braucht man riesige Buchstaben, sonst ists einfach nicht mehr lesbar.
- Die Größe: Der Hauptgrund warum Oculus so als Gamechanger gehandlet wird ist der große Viewing Angle.. praktisch alle anderen Headsets sind weniger wie ein Hologramm in der echten Welt, sondern wie wenn man durch die Maske von Darth Vader durchschaut. Keine Ahnung wie groß da der Viewing Angle ist, aber ich glaub nicht dass man im periphären Bereich auch schon Objekte sieht.. Wenn man nur einen kleinen Ausschnit sieht, 'übersieht' man ständig die virtuellen Objekte .. man schaut nicht die virtuelle Welt an, sondern sucht die ganze Zeit wo die Objekte jetz grad sind, bzw wo man sich grad befindet.
- Alignment: In den Videos schaut das immer so aus als ob das alles so stationär in der Welt sitzt, aber die Brillen wackeln am Kopf rum, die Augen fokussieren auf verschiedene Punkte im Raum, der ganze Kopf wandert ständig im Raum rum, .. Dadurch verschiebt sich der Overlay ständig zur Realen Welt. Für die Zuschauer wird halt das Bild auf die Kamera draufgelegt, die ist ziemlich stabil, und man kann sich an Objekten Videobild orientieren fürs Alignment. Aber in der Praxis glaub ich ist das immer noch eher ein eingeblendetes HUD als ein virtuelles Objekt im Raum, ähnlich den Google Glass Brillen.
Reine VR Brillen wie Oculus sparen sich das Problem zum Teil, weil man die reale Welt nicht sieht.. dass die Brillen am Kopf rumwackeln und der Kopf sich rumbewegt, ist aber auch dort ein Problem und letztich die Ursache für Motion Sickness bei VR. Die Genauigkeit von Lagesensoren ist ziemlich mau, zumindest wenn man sich nicht irgendeinen 3-Kilo-Gyro aufs hirn schnallen will
Man kanns in den Griff bekommen indem man sehr präzise trackt wo die Augen hinschaun und das berücksichtigt, sowie genau per Kameras trackt wo die Brille im Raum hinschaut, aber ich weiß nicht ob die das in der Consumer-Version auch schon machen, oder wie gut das (billig) geht. Im zweiten video haben sie was erwähnt ..
- Interaktion von virtuellen und realen Objekten: Wenn ich einen virtuellen Kürbis aufs Kastl stell, oder auch nur ein virtuelles Keyboard in die Luft häng, dann will ich dass es auch genau dort ist .. irgendwo einen Meter vor mir. Wenn ich mit der Hand hingreif, oder mich auf den Boden hockerl und den Kürbis von unten anschau, oder wer vorbeigeht, dann soll das Objekt auch korrekt von den realen Objekten (der Hand, der Person, dem Kastl, ..) verdeckt werden. Dazu braucht man eine sehr genaue Tiefenmessung, sowohl vom Abstand als auch der Auflösung her. Selbst diese Kinekt-Sensoren sind da wenn überhaupt nur die halbe Miete.
Ich seh als einzige Lösung da eigentlich nur, dass man Stereo-Kameras hat die die reale Welt filmen und daraus Objektumrisse und deren Abstände berechnen.. Wenn der virtuelle hinterm echten Weihnachtsbaum steht, geht das aber vermutlich so gut wie immer in die Hose, da bräuchte man *extrem* gute Kameras und Partitionierungs-Algorithmen.
Als Bonus wärs noch nett wenn Objekte korrekt von realen Objekten schattiert werden würden, aber da sieht man in den Videos immer eher grell leuchtende Comic-Shader artige Objekte, da ists egal.
- Geschwindigkeit: Wenn man das ganze Tracking mit Kameras macht, ist das ziemlicher Rechenaufwand. Plus das Erzeugen vom Content. Plus das Übertragen der Videodaten, etc.. Da kommen einige Delays zusammen, aber selbst der geringste Lag ist ziemlich böse, was den Bruch des 'Realismus' und Motion Sickness betrifft. Vielleicht schaffen die das alles in der Brille drin, aber dann muss das Ding eigentlich ziemlich warm werden und irgendwo nen ziemlichen Akku versteckt haben, wenn das Ding länger als ne halbe Stunde durchhalten soll.
- Und dann sind halt noch so Dinge wie Gewicht, Laufzeit, Kabelanbindungen, 'Interaktion' mit Brillen bzw Sehschwächen, ..
Ich glaub nicht dass es unmöglich ist, aber so wie es im ersten video dargestellt ist, ich denke davon sind wir noch ein paar (Computer-)Generationen entfernt (zumindest, was eine leistbare, i.e. abgespeckte Consumer-Brille betrifft)
Ich fürchte, es hat einen hohen Wow-Faktor, aber zum 'ernsthaften' Spielen oder Arbeiten wirds zu eingeschränkt sein, und zu teuer ums nur zum rumprobieren zu kaufen.. Da werd ich wohl weiter auf die Brillen warten die einem das Bild direkt per Laser auf die Netzhaut schießen, und halt mich an Oculus in der Zwischenzeit (die spart sich als VR Brille die ganzen Immersion-Probleme)

Ich geb das ganze eher in die Ecke eines Wii-Controllers: man kaufts für eine relativ kleine, sehr spezifische Art der Anwendung.
Ich lass mich aber gern widerlegen, die AR-Brillen haben immerhin den Vorteil dass man seine Hände sieht, und damit auch an richtigen Keyboards und Maus arbeiten kann. Interaktion mit den Händen rumwinken oder Kopfdrehen oder so was (wie im zweiten video..) ist aus ergonomischer sicht katastrophal. Für die Oculus kann man jedenfalls schon mal anfangen, blind tippen und zufällige Tasten am Keyboard finden zu üben

I find your lack of platform support disturbing.