Seite 2 von 2

Verfasst: Di Mai 05, 2015 4:26 pm
von mastastefant
Das hört sich doch schon mal ganz gut an.. Anscheinend haben die den Kinekt Tiefensensor eingebaut um Überdeckungen von Objekten bei der HoloLens mitzuberücksichtigen:

http://www.heise.de/newsticker/meldung/ ... 31223.html

Verfasst: Mi Mai 06, 2015 5:19 pm
von Grent
masta_stefant hat geschrieben:Keine Ahnung wie groß da der Viewing Angle ist, aber ich glaub nicht dass man im periphären Bereich auch schon Objekte sieht.. Wenn man nur einen kleinen Ausschnit sieht, 'übersieht' man ständig die virtuellen Objekte .. man schaut nicht die virtuelle Welt an, sondern sucht die ganze Zeit wo die Objekte jetz grad sind, bzw wo man sich grad befindet.
Grent hat geschrieben: Angeblich ist der ziemlich schlecht. Das haut natürlich alles zam. Man kann nur hoffen, dass es a) ein Potenzial gibt und b) dieses auch erkannt wird, sodass weiterentwickelt wird.
masta_stefant hat geschrieben:Das hört sich doch schon mal ganz gut an.. Anscheinend haben die den Kinekt Tiefensensor eingebaut um Überdeckungen von Objekten bei der HoloLens mitzuberücksichtigen:

http://www.heise.de/newsticker/meldung/ ... 31223.html

Laut dem Artikel ist der Viewing Angle kein Showstopper :thumbsu: !

Verfasst: Fr Mai 08, 2015 2:46 pm
von mastastefant
Anscheinend haben die das bei der Demo einfach so gelöst, dass sie Objekte einfach nur in einem recht 'übersichtlichen' Bereich untergebracht haben, dass man fast immer alles sieht wenn man nur genug Abstand hält ;) Die Objekte verschwinden dann schon im periphären Bereich.. Vielleicht kann mans weniger offensichtlich machen, wenn man am Rand Objekte nicht scharf abschneidet, sondern 'wegfaded'?

Wie groß oder klein der Bereich wirklich ist, wär aber mal ganz interessant, von den Bildern her dürfts aber besser sein als bei Google Glass und co, die nur auf einem kleinen Bereich in der Brille reinprojektieren dürften.