News Varjo XR-4: XR-Headset arbeitet mit 4K × 4K pro Auge und 120 × 105 Grad FoV

Blaexe schrieb:
Das entspricht aber nicht der Entwicklung der jüngeren Vergangenheit. Zwar steigt die Effizienz immer noch - aber nicht im selben Maße wie die Leistung. Schau dir doch die GPU Entwicklung an.
Die GPU-Entwicklung ist massiv und widerspricht dir direkt, somit hast du keinen Punkt. Hattest sowieso nie einen, die technische Entwicklung kommt zu 100%, Skeptiker und Zweifler hin oder her.
 
Sorry, bin ich blind? aber wo war die Hz Angabe? 🧐
Ah ja...es sind halt einfach immer noch 90Hz😪...
 
Zuletzt bearbeitet:
Serphiel schrieb:
Wow wusste nicht das es tatsächlich geht.

Aber glaub mir das ich DCS kenne...
ist das dein Setup ?
wow !

hier noch was als Inspiration, falls du großes Wohnzimmer hast und verständnisvolle Frau,

oder noch Platz in der beheizten Garage ist:
das ist jetzt nicht die XR-3 sondern die Xtal -- auch mit Passthrough (man sieht es an seinen Hosen, die gleichen wie beim Einsteigen)
wiegt 600g ohne Headstrap
und auch im 10.000Euro Bereich
 
eazen schrieb:
Die GPU-Entwicklung ist massiv und widerspricht dir direkt, somit hast du keinen Punkt. Hattest sowieso nie einen, die technische Entwicklung kommt zu 100%, Skeptiker und Zweifler hin oder her.
Eine GTX980 hatte eine TDP von 165W. Eine 4080 liegt bei 320W.

Warum genauso denkst du sind Grafikkarten heute viel schwerer und größer?

Der SD8 Gen2 (XR2 Gen2 Basis) liegt bei der fast doppelten Leistungsaufnahme im Vergleich zum SD865 (XR2 Gen1 Basis)

https://twitter.com/SadlyItsBradley/status/1594745268745945093?t=oJXkfVgwycbP9AGcoIvVTw&s=19

Der Akku der Quest 3 hat fast 40% mehr Kapazität als der in der Quest 2 - und trotzdem kürzere Laufzeiten.

Welchen Punkt hast du denn?
 
  • Gefällt mir
Reaktionen: Tow3r
Blaexe schrieb:
@Kraeuterbutter

Ich habe noch kein Statement dazu gelesen dass der Computer Part bei Visor auch extern ausgelagert sein soll - hast du da was konkretes?
nein, ich meine dass das so läuft wie auf der Quest3 wenn du immersed verwendest..
die Brille braucht "nur" den VR-Hokuspokus machen..
die Umgebung rendern (bei immersed relativ einfache lowpolly-Umgebungen) oder gar nur ein 360-Grad-Bild als Kulisse

der Rechner mit dem du dich verbindest, stellt dann die Inhalte der Fenster bereit
das sind bei Outlook, MS Service/Configuration Manager, paar Browser, etc. etc. --> leichtgewichtige Sachen, die auch ein älterer Firmenlaptop stemmen kann..

das ist übrigens der Vorteil zu einer reinen PCVR-Brille: da muss der REchner beides schaffen
hier wird es aufgeteilt: der XR2 macht den VR-Hokuspokus.. der REchner macht die Inhalte..
machst du mit Davinci Resolve z.b. Videoschnitt, hat der Rechner dann natürlcih merh zu schaffen, nicht aber die Brille..

spielen wir Games (RedMatter2 etc. etc.) mit der Quest3: da muss der XR2 alles machen, alles rendern..
nicht aber bei Immersed..
das schafft sogar die Quest1 noch brauchbar

sprich: wenn bei Nutzung von Immersed oder beim Schauen eines Movies der XR2gen2 nicht ganze Spielwelten rendern muss, sondern nur ein z.b simples lowpoly-Kino mit der Leinwand -> dann werden auch 3000x3000 pixel nicht so das Problem darstellen..
hab einfachere Games auch schon damit auf der Quest3 laufen lassen: geht
2560x2560 hat ja auch schon die Quest2 bei einfacheren Games flüssig geschafft

und immersed ist im prinzip eher was einfacheres
Ergänzung ()

eazen schrieb:
Du bist seit 2008 hier registriert, hast 9990 Beiträge und ich muss dir die Infos geben die überall easy zugänglich sind? Ich geb auf. Du hast recht. Bei GPUs tut sich absolut gar nichts. Nvidia verdient extrem viel Geld weil deren Produkte sich kaum weiterentwickeln.
hast du gelesen, was Blaexe geschrieben hat?
 
Blaexe schrieb:
@Kraeuterbutter

Ich habe noch kein Statement dazu gelesen dass der Computer Part bei Visor auch extern ausgelagert sein soll - hast du da was konkretes?
"The VR headset is work-centric and at launch will only run Immersed, requiring a VR-ready PC"

also der XR2gen2 hat mit den Inhalten nix zu tun..
es wird kein "Spacial-Computing"-Headset wie die Apple Vision Pro die einen Laptop ERSETZEN soll

aber sich sehe: du meinst wohl eher die physische Auslagerung des Prozessors, richtig?
 
@Kraeuterbutter

Visor soll auch einen XR Passthrough Modus besitzen - und gerade der benötigt ja die meiste Leistung.

Also im Prinzip eine Super-Quest 3 (inklusive 6 Kameras) und das soll in dem Formfaktor und zu dem Gewicht möglich sein? Wenn selbst Apple das nicht annähernd hin bekommt?

Edit: Deine Quelle ist nicht mehr aktuell.

https://mixed.de/immersed-visor-upgrade-alone-modus-ki-assistent/

Visor soll Standalone mit XR2 Gen2 werden.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
Blaexe schrieb:
Eine GTX980 hatte eine TDP von 165W. Eine 4080 liegt bei 320W.
Eine 4080 ist ungefähr drölfmillionen mal Effizienter als eine 980. Das ist ein Argument gegen dich selbst. Du hast hier anschaulich bewiesen wie extrem sich die Effizienz von GPUs weiterentwickelt hat.

Performance pro Watt sage ich nur. Weiterhin deckelt der Stromverbrauch (pure Wattage) irgendwann, Batterien werden besser und Verbrauch wird auch reduziert wenn das Ziel sein soll das es kabellos sein soll. Tragbare, vollwertige Computer waren auch mal unmöglich, aber es gibt ein Steam Deck.
 
  • Gefällt mir
Reaktionen: Azeron
Blaexe schrieb:
@Kraeuterbutter

Edit: Deine Quelle ist nicht mehr aktuell.

https://mixed.de/immersed-visor-upgrade-alone-modus-ki-assistent/

Visor soll Standalone mit XR2 Gen2 werden.
ah ok, danke !
ändert nicht viel an meinem oben gesagten.. das man in der Regel beim Arbeiten einen Laptop/Rechner als Zuspieler verwendet der für die Aufbereitung der Inhalte verantwortlich ist..

was mich wundert...
"The extended battery is attached via a wire that goes into the user’s pocket. This has a wifi module that allows the user to have a wireless connection to their computer for wireless use. This battery pack also has a USB-C port on the other end that can plug into the computer for a wired experience (higher resolution, lower latency) that also passively charges the battery. As soon as the user disconnects to become wireless again, it will seamlessly connect them via wifi."

der Akkupack hat eine Wifimodul verbaut (?)
und: sie sprechen von 30min Laufzeit
bei einem Akku der in die Hosentasche wandert ? der kann doch nicht sooooo klein sein
das würde man doch nicht machen
der Quest3 Akku wiegt scheinbar nur 64g und kann ~2h

also bei nur 30min -> Akku doch in der Brille ?
und nur wenn sie von 2h bzw. 4h Akku reden, meinen sie den Hosentaschen-Akku?
 
@eazen

Du verstehst es einfach nicht. Meine Aussage ist dass die Effizienzsteigerung nicht mit der benötigten Leistung Schritt halten kann.

Die anderen Belege ignorierst du halt weil es nicht zu deinem Argument passt.

@Kraeuterbutter

Aber es geht doch darum wie man den XR2 Gen2 inklusive benötigter Komponenten da rein kriegen soll. Die Leistung wird ja schon beim Passthrough benötigt.
 
eazen schrieb:
Also bist du der Meinung das sich nie was tun wird?

Was soll denn "etwas tun" für Fakt und Wissenschaft sein? Subjektiver geht's doch nicht mehr.

Ganz konkret, Vergleich SD865 mit SD8 Gen2:

Effizienz: x1,3
Leistung: x2,5
Verbrauch: ca. x2,0

Wenn wir nun also die 10fache Leistung wollen, wird aller Voraussicht nach der Verbrauch DEUTLICH steigen - was irgendwann in einem Headset entweder nicht vernünftig zu kühlen sein wird oder es eben schwer und groß macht.

Außer es passieren geradezu Wunder in der Chipherstellung, wonach es aktuell aber nicht aussieht.
 
  • Gefällt mir
Reaktionen: JanJ
Blaexe schrieb:
Wenn wir nun also die 10fache Leistung wollen, wird aller Voraussicht nach der Verbrauch DEUTLICH steigen - was irgendwann in einem Headset entweder nicht vernünftig zu kühlen sein wird oder es eben schwer und groß macht.
Nein, die Effizienz steigt immer weiter an während der Bedarf das eben nicht (so stark) tut, das bedeutet das irgendwann alles einen geringeren Stromverbrauch hat und somit irgendwann alles mit Batterie in VR möglich sein wird. Das Argument "Effizienz" habe ich oben schon 2x aufgeführt und das hast du ignoriert. Das hier ist das 3. mal.
 
eazen schrieb:
Nein, die Effizienz steigt immer weiter an während der Bedarf das eben nicht (so stark) tut
Ich habe dir mit Fakten (!) und Quellen erklärt dass der Verbrauch ansteigt wenn man die Mehrleistung will - die im VR Bereich dringend benötigt wird.

Langsam denke ich du trollst - also gute Nacht.
 
  • Gefällt mir
Reaktionen: JanJ und KenshiHH
Kraeuterbutter schrieb:
ist das dein Setup ?

Jupp. Wie man sieht abgesehen von den Pedalen (MFG Crosswind) alles von Winwing. Ist halt bei der P/L fast nicht zu schlagen.
Hab letzten https://qr4rigs.com/ entdeckt deswegen werde ich demnächst etwas umbauen.
Kommt noch Orion 2 mit F-16 Throttle dazu und ich hab noch eine "alte" Orion 1 Joystick Base mit F-16 Stick hier die kommt dann als Sidestick dran. Alles mit QR versehen und dann kann man in einer Minute von F-18 auf F-16 umbauen.
Logisch das Winwing F-16 ICP kommt im Dezember auch dazu wenn es erscheint und ich schaffe eines aus der ersten Charge zu schießen.

Kraeuterbutter schrieb:
und auch im 10.000Euro Bereich

Ja daran scheitert sowas... Mein Setup inklusive der "zukünftigen" Upgrades kommt auf etwa 3,7k€. Und jetzt muss man halt noch sehen das ich nicht alles auf einmal gekauft habe sondern über 3 Jahre verteilt.
Und am Ende bin ich nochn recht beschissener Pilot also 😶

Aber ja drum bin ich bei dem AR Zeug sofort auf die Anwendung gekommen.
In VR ist man so "isoliert" und wenn man keine 1:1 Replika hat wirds, kann ich mir zumindest vorstellen, "merkwürdig".
AR ist da IMO die "bessere" Lösung. Außerdem sieht man dann wenigstens wofür man das ganze Geld bezahlt hat 😆
 
  • Gefällt mir
Reaktionen: Roi-Danton
Blaexe schrieb:
Eine GTX980 hatte eine TDP von 165W. Eine 4080 liegt bei 320W.
Eine GTX980 mit 165Watt hat somit den gleichen Verbrauch wie eine ~150% schnellere undervoltete RTX 3070. Und bei letzterer kommen Features hinzu wie RT, PT + DLSS + AV1, welche die Karte noch effizienter machen. Wahlweise verbraucht eine RTX 3060 170 Watt (ohne UV) und ist 70% schneller.

Eine RTX 4070 wäre 220% schneller, verbraucht default 200 Watt und lässt sich per UV auch mit 165 Watt betreiben.

Kommen wir zur RTX 4080:
390% schneller verbraucht aber nur +100% mehr Watt zur GTX980.

Und insbesondere ist das interessant:
chrome_4Tt37cdYoe.png

Das ist dann mit ~80 Watt für CPU & GPU beim Gaming zusammen, so schnell wie nur eine RTX 4070Q Mobile mit 140 Watt, ohne den CPU verbrauch dazu gerechnet.

Blaexe schrieb:
Das entspricht aber nicht der Entwicklung der jüngeren Vergangenheit. Zwar steigt die Effizienz immer noch - aber nicht im selben Maße wie die Leistung. Schau dir doch die GPU Entwicklung an.
Siehe oben.
 
Das ein "offline" Betrieb als Feature extra kostet.... allen das ist nen Grund es nicht zu kaufen sofern ich es vor hätte. Die ganze online Rotz ist ne Seuche.
 
  • Gefällt mir
Reaktionen: TheChris80
Roostar schrieb:
Ok, verstanden. Kein Consumer-Produkt.

Aber mal so aus Interesse: wie befeuert man son Teil? Pro Auge mehr als 4K-Auflösung und die 90hz will man ja am besten Ausschöpfen.

Oder werden damit nur Dinge dargestellt die grafisch nicht so aufwendig wie Spiele sind?!
Richtig, wir konzentrieren die power der besten Grafikkarte nur auf das Objekt der Begierde, was dann richtig fein im Raum steht. Die XR 3 hat außerdem so gute ersatzframes gerechnet, dass man selbst mit 10 FPS noch prima arbeiten kann.
 
  • Gefällt mir
Reaktionen: Roostar
Hört sich interessant an, aber VR hat mich nie wirklich gepackt, ab und zu mal aber auf Dauer lieber "Old School" zocken.
 
Serphiel schrieb:
Ja daran scheitert sowas... Mein Setup inklusive der "zukünftigen" Upgrades kommt auf etwa 3,7k€. Und jetzt muss man halt noch sehen das ich nicht alles auf einmal gekauft habe sondern über 3 Jahre verteilt.
wobei ich das jetzt nicht arg schlimm sehe..
wenn mans nutzt, why not..

wenn ich bei mir in den Keller schaue, stehen da glaub ich 5 Motorräder von Nachbarn rum die über 10.000Euro gekostet haben und wenns hoch kommt 20mal im Jahr bewegt werden
 
Zurück
Oben