Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX12 Ultimate und DirectStorage - NextGen-Gaming auf dem PC
Dampf
2020-04-28, 21:57:39
Hier könnt ihr euch über die DirectX12 Ultimate Features wie DXR 1.1 Raytracing, Variable Rate Shading, Mesh Shaders und natürlich Sampler Feedback austauschen.
Auch über die DirectStorage API, die die SSD Einbindung in zukünftigen Games deutlich verändern wird, darf diskutiert werden.
Welchen Einfluss werden diese Technologien auf den PC haben? Wann werden sie genutzt? Also ich glaube ja, diese Technologien werden die Konsolen und den PC wieder näher zusammenführen.
Hier ein interessantes Video von Nvidia, das die Features gut zusammenfasst:
https://www.youtube.com/watch?v=QvIXvF6r--A
DXR 1.1 Raytracing.
Diese neue Version von der universellen DXR Raytracing API soll die Raytracing-Entwicklung vereinfachen. Es wurden einige neue Funktionen integriert, durch die es möglich ist, Raytracing Effekte vielseitiger und performanter einzusetzen. Bisher nutzen alle RTX Spiele DXR 1.0, was diese Funktionen noch nicht bereit gestellt hat.
Mesh shading
Mesh Shader krempeln einiges in der Geometrie-Pipeline um und erlauben es, wesentlich feinere LOD-Stufen von Geometrie einzusetzen. Dank Mesh Shading soll es möglich sein, wesentlich komplexere Geometrie bei sehr viel höherer Performance zu rendern, als es in heutigen Spielen der Fall ist.
Variable Rate Shading
Variable Rate Shading (VRS) rendert die Objekte in der vollen Auflösung, die vom Spieler eher wahrgenommen werden. Objekte die schwerer wahrgenommen werden, nutzen dann eine geringere Render-Auflösung. Beispiel: Ein Rennspiel bei dem sich die Umgebung durch das Motion-Blur in Fahrt verwischt. Die Umgebung kann hier in einer deutlich niedrigeren Auflösung gerendert werden, ohne dass der Spieler was davon mitbekommt. Das spart Leistung, ohne die visuelle Qualität zu beeinflussen.
Sampler Feedback und Direct-Storage
Sampler Feedback erlaubt es, nur Texturen-Detailstufen in den VRAM zu laden, die auch wirklich vom Spieler betrachtet werden und notwendig sind. Die Engine und die Entwickler können wesentlich besser nachvollziehen, welche Textur-Detailstufe gerade genutzt wird und so den Texturen-Detailgrad flexibler anpassen. Dies führt zu einem deutlich niedrigeren Speicherverbrauch als es in heutigen Spielen der Fall ist, der dann von Spielen für höher auflösende Texturen genutzt werden kann.
Direct Storage hingegen erlaubt es durch I/O-Optimierungen den VRAM/RAM des Computers durch eine SSD zu komplimentieren, d.h. ein bestimmter Bereich der SSD kann dann als zusätzlichen Speicher für Texturen, Assets und mehr verwendet werden. Dies sollte den Detailgrad in zukünftigen Spielen beträchtlich erhöhen.
Beide Features gemeinsam werden das Texturen-Streaming wohl zukünftig deutlich verändert (Microsoft nennt das Sampler Feedback Streaming). Pop-ins und Ruckler könnten damit der Vergangenheit angehören.
Daneben gibt es noch ein Sampler Feedback Feature, was Texture-Space-Shading genannt wird. Damit soll das Shading wohl effizienter laufen (ja ich hab mich da noch nicht eingelesen, SFS klingt für mich interessanter :biggrin: )
pixeljetstream
2020-04-29, 16:40:35
Texture space shading zielt darauf ab die Beleuchtung nicht im screen space sondern im texture space zu machen. Das erlaubt besseres shader antialiasing, weil das texture filtering das Resultat des shadings glättet. Und es erlaubt ein entkoppeltes Update bzw. bei VR Wiederverwendung bei beiden Augen.
Man kennt ja vielleicht die klassisch vorberechneten lightmaps, hier muss man sich vorstellen dass diese dynamisch ein Update erfahren in den Bereichen die sichtbar sind. Sampler Feedback hilft diese Bereiche in den Texturen zu finden.
https://devblogs.nvidia.com/texture-space-shading/
Mesh Shading
Wird in speziellen Fällen helfen. Insbesondere Vegetation oder andere Geometrie-Partikel könnten mit weniger Bandbreite dargestellt werden, aber auch bei normalen meshes kann es helfen. Ich würde aber nicht ganz so überschwänglich viel erwarten, es ist mehr eine Optimierung für spezielle Fälle.
https://devblogs.nvidia.com/introduction-turing-mesh-shaders/
Direct Storage ist je nach OS und api schon verfügbar
https://devblogs.nvidia.com/gpudirect-storage/
Dampf
2020-04-29, 17:21:26
Direct Storage ist je nach OS und api schon verfügbar
https://devblogs.nvidia.com/gpudirect-storage/
Das ist ja tatsächlich ziemlich ähnlich, was Microsoft unter Direct-Storage versteht. Damit kann also die GPU direkt auf den NVMe-Speicher zugreifen, ohne den Umweg zum System-RAM zu nehmen. Sieht aber im Gegensatz zu MS Lösung so aus, als wäre die Nvidia-Lösung nur auf Data-Center GPUs wie Quadro GPUs verfügbar und damit uninteressant für Gaming.
Die Direct-Storage API von Microsoft hingegen ist da anders. Microsoft hat wohl noch ein paar Kniffe im Ärmel, denn die Direct-Storage API wird erst mit einem zukünftigen Windows und Treiber-Update auf die heimischen PCs kommen, als Teil von DirectX speziell optimiert für Gaming. Wenn ich mir das aber so ansehe, dann geh ich davon aus dass Microsoft's Direct Storage API von GPUDirectStorage, oder zumindest einer Abwandlung davon, auf Nvidia GPUs Gebrauch machen wird.
Danke für deine Äußerungen zu Mesh Shading und TSS. Ich bin mal gespannt, was damit alles gemacht wird in Zukunft!
pixeljetstream
2020-04-30, 00:51:06
Das ist ja tatsächlich ziemlich ähnlich, was Microsoft unter Direct-Storage versteht. Damit kann also die GPU direkt auf den NVMe-Speicher zugreifen, ohne den Umweg zum System-RAM zu nehmen. Sieht aber im Gegensatz zu MS Lösung so aus, als wäre die Nvidia-Lösung nur auf Data-Center GPUs wie Quadro GPUs verfügbar und damit uninteressant für Gaming.
Ohne OS Support geht es nicht, daher ist hier MS gefragt sowas allen Herstellern unter Windows zu ermöglichen. Ich find's gut wenn sie das nun endlich machen. Will mit dem hpc/Linux Beispiel zeigen, dass es nicht an den Herstellern oder der Hardware liegt. MS bietet ja keine technische Lösung, sondern die Interfaces/Rahmen. Daher ist das imo nicht eine vs Sache von wegen NV vs MS Lösung.
pixeljetstream
2020-04-30, 10:26:21
MS Blog zu VRS
https://devblogs.microsoft.com/directx/variable-rate-shading-a-scalpel-in-a-world-of-sledgehammers/
TheAntitheist
2020-05-01, 01:13:18
MS Blog zu VRS
https://devblogs.microsoft.com/directx/variable-rate-shading-a-scalpel-in-a-world-of-sledgehammers/
hättest du wieder über ein neues feature gespochen? z.B. auf der GDC? und wenn ja wird das nachgeholt?
TheGood
2020-05-01, 08:50:36
Das ist ja tatsächlich ziemlich ähnlich, was Microsoft unter Direct-Storage versteht. Damit kann also die GPU direkt auf den NVMe-Speicher zugreifen, ohne den Umweg zum System-RAM zu nehmen. Sieht aber im Gegensatz zu MS Lösung so aus, als wäre die Nvidia-Lösung nur auf Data-Center GPUs wie Quadro GPUs verfügbar und damit uninteressant für Gaming.
Die Direct-Storage API von Microsoft hingegen ist da anders. Microsoft hat wohl noch ein paar Kniffe im Ärmel, denn die Direct-Storage API wird erst mit einem zukünftigen Windows und Treiber-Update auf die heimischen PCs kommen, als Teil von DirectX speziell optimiert für Gaming. Wenn ich mir das aber so ansehe, dann geh ich davon aus dass Microsoft's Direct Storage API von GPUDirectStorage, oder zumindest einer Abwandlung davon, auf Nvidia GPUs Gebrauch machen wird.
Danke für deine Äußerungen zu Mesh Shading und TSS. Ich bin mal gespannt, was damit alles gemacht wird in Zukunft!
Irgendwas verstehe ich hier nicht warum denn über die API diksutiert wird. Micrsoft hat doch mehr als klargemacht, dass die XBox Series X auf DirectX Ultimate aufbaut. Und da ist alels drin was auch die XBOX Series X hat.
Von daher wird es auch kein problem sein, die internen SSDs über DirectStorage so zu nutzen wie in der Konsole. Einzhiger Unterschied ist dass ein Entwickler nicht mit der festgesetzten GEschwindikeit der SSD rechnern kann, aber das wurde sichelrich in der API berücksichtigt.
Ausserdem ist die Politik von Microsoft inzwischen auch klar, PC und Konsole wachsen mehr und mehr zusammen, alles andere ist bei tausenden Cross Titel Plattformen, die unsummen and Geld verschlingen auch nicht wirtschaftlich und man sieht diesen Trend auch schon seit Jahren...
Nvidia hat auch jetzt schon bekannt gegeben DirectX12 Ultimate wird von der Touring generation komplett unterstützt.
Da kann man jetzt noch drüber diskutieren ob es hier einen unterschied zwischen in hardware oder nur per software gbit, aber da sie sich den DirectX12 Ultimate STicker auf die KArten packen gehe ich davon aus dass das HArdware support ist.
Edit1:
https://devblogs.microsoft.com/directx/announcing-directx-12-ultimate/
By unifying the graphics platform across PC and Xbox Series X, DX12 Ultimate serves as a force multiplier for the entire gaming ecosystem
Edit2:
Tatsächlich ist aber die DirectStorage API nicht in DirectX12Ultimate enthalten, das hatte ich bisher allerdings so verstanden. Da gibts dann vielleicht doch noch klare Unterschiede.
Edit3:
Detailinfos zu Sampler Feedback
https://devblogs.microsoft.com/directx/coming-to-directx-12-sampler-feedback-some-useful-once-hidden-data-unlocked/
pixeljetstream
2020-05-01, 09:37:05
hättest du wieder über ein neues feature gespochen? z.B. auf der GDC? und wenn ja wird das nachgeholt?
GTC und Siggraph sind eher mein Focus. Den Vortrag für ersteres hatte ich im Vulkan thread verlinkt.
Dampf
2020-05-01, 12:48:55
Irgendwas verstehe ich hier nicht warum denn über die API diksutiert wird. Micrsoft hat doch mehr als klargemacht, dass die XBox Series X auf DirectX Ultimate aufbaut. Und da ist alels drin was auch die XBOX Series X hat.
Von daher wird es auch kein problem sein, die internen SSDs über DirectStorage so zu nutzen wie in der Konsole. Einzhiger Unterschied ist dass ein Entwickler nicht mit der festgesetzten GEschwindikeit der SSD rechnern kann, aber das wurde sichelrich in der API berücksichtigt.
Ausserdem ist die Politik von Microsoft inzwischen auch klar, PC und Konsole wachsen mehr und mehr zusammen, alles andere ist bei tausenden Cross Titel Plattformen, die unsummen and Geld verschlingen auch nicht wirtschaftlich und man sieht diesen Trend auch schon seit Jahren...
Nvidia hat auch jetzt schon bekannt gegeben DirectX12 Ultimate wird von der Touring generation komplett unterstützt.
Da kann man jetzt noch drüber diskutieren ob es hier einen unterschied zwischen in hardware oder nur per software gbit, aber da sie sich den DirectX12 Ultimate STicker auf die KArten packen gehe ich davon aus dass das HArdware support ist.
Edit1:
https://devblogs.microsoft.com/directx/announcing-directx-12-ultimate/
By unifying the graphics platform across PC and Xbox Series X, DX12 Ultimate serves as a force multiplier for the entire gaming ecosystem
Edit2:
Tatsächlich ist aber die DirectStorage API nicht in DirectX12Ultimate enthalten, das hatte ich bisher allerdings so verstanden. Da gibts dann vielleicht doch noch klare Unterschiede.
Edit3:
Detailinfos zu Sampler Feedback
https://devblogs.microsoft.com/directx/coming-to-directx-12-sampler-feedback-some-useful-once-hidden-data-unlocked/
Das ist alles sehr richtig. Aber was genau möchtest du mir jetzt damit sagen? Ich hab ja nicht behauptet, dass der PC das nicht nutzen kann und auch nicht in Frage gestellt, dass Turing DX12U komplett unterstützt.
Und ja, Direct-Storage ist nicht Teil von DX12 Ultimate, deswegen heißt der Titel ja auch DX12U und DirectStorage! Trotzdem wird Direct-Storage aber von Features wie Sampler Feedback Streaming sehr profitieren.
Achill
2020-05-01, 13:10:13
Das ist alles sehr richtig. Aber was genau möchtest du mir jetzt damit sagen? Ich hab ja nicht behauptet, dass der PC das nicht nutzen kann und auch nicht in Frage gestellt, dass Turing DX12U komplett unterstützt.
Und ja, Direct-Storage ist nicht Teil von DX12 Ultimate, deswegen heißt der Titel ja auch DX12U und DirectStorage! Trotzdem wird Direct-Storage aber von Features wie Sampler Feedback Streaming sehr profitieren.
Vielleicht, dass der Treiber der Entwicklung für DX12U die neue Hardware der nächsten Konsolen von MS gekoppelt mit der MS Strategie, Console und Windows-Ökosystem (Store) weiter zusammen zu führen?
Es gibt darüber hinaus auch weitere Firmen, die sehr gutes Marketing machen und technische Paper/Artikel publizieren um zu zeigen, dass die mit On-Top bei der Entwicklung neuer und Unterstützung zukünftiger Ideen und APIs sind.
TheAntitheist
2020-05-02, 00:27:31
GTC und Siggraph sind eher mein Focus. Den Vortrag für ersteres hatte ich im Vulkan thread verlinkt.
Den hab ich schon gesehen, dennoch danke :)
Dampf
2020-05-04, 22:34:05
Das erste Game mit DX12 Ultimate Support wurde angekündigt: https://wccftech.com/gaijin-talks-enlisted-rt-cores-nvidia-dlss-2-0-a-huge-step-forward-and-dx12-ultimate-support-coming/
Dampf
2020-05-21, 23:11:33
Mesh Shader in Aktion:
https://www.youtube.com/watch?v=FKcdFLlq9jk&feature=youtu.be
pixeljetstream
2020-05-28, 00:17:45
VRS in Gears tactics
https://devblogs.microsoft.com/directx/gears-tactics-vrs/
Badesalz
2020-05-28, 10:46:04
Ja mega. Der nächste Vermatscher in den APIs.
w0mbat
2020-05-28, 11:58:14
In ein paar Jahren ist alles geupsampled, gevariableshadered, etc. und wenn man die Augen von der Bildschirmmitte nimmt sieht man nur Matsch.
dargo
2020-05-28, 12:32:24
Früher nannte man sowas Cheat. X-D
Anzunehmen, dass heutzutage alles in Full Res gemacht wird, ist ein Irrtum. :) Da wird bereits "gecheatet", dass sich die Balken biegen (u. a. Ambient Occlusion mit geviertelter Auflösung, FP16 für ausgesuchte Shader oder der Klassiker: Spiegel bei Rennspielen mit reduzierter Auflösung und Details, etc).
MfG
Raff
aufkrawall
2020-05-28, 13:02:17
Bei SSAO ist es mit TSSAA aber nicht zu bemerken, in RDR2 kann man das gut demonstrieren: Ohne TAA sieht es mit niedriger AO-Auflösung komplett schlimm aus, mit merkt man davon gar nichts mehr.
Dampf
2020-05-28, 13:26:16
Ja mega. Der nächste Vermatscher in den APIs.
Das ist VRS Tier 1. VRS Tier 2 sollte kaum Unterschiede in der Optik haben. Mit Gears wollte man Intel wohl noch mitziehen.
dargo
2020-05-28, 13:47:38
Anzunehmen, dass heutzutage alles in Full Res gemacht wird, ist ein Irrtum. :)
Nimmt ja auch keiner an. Solange man davon nichts sieht ists ja ok.
Anzunehmen, dass heutzutage alles in Full Res gemacht wird, ist ein Irrtum. :) Da wird bereits "gecheatet", dass sich die Balken biegen (u. a. Ambient Occlusion mit geviertelter Auflösung, FP16 für ausgesuchte Shader oder der Klassiker: Spiegel bei Rennspielen mit reduzierter Auflösung und Details, etc).
In einer Uni-Vorlesung über die Entwicklung von Computerspielen hat mir ein Professor mal gesagt, cheatet so viel es nur geht ihr werdet jedes bisschen an Performance brauchen und die "korrekte" Darstellung erkennt man in der Regel eh nicht, wenn man davon nichts weiß.
Im Grunde ist es auch kein Cheat, wenn es vom Entwickler eingesetzt wird, ein Cheat wäre es nur wenn es der Grafiktreiber eigenmächtig machen würde und nicht mehr das darstellen würde was der Entwickler vorgesehen hat.
x-force
2020-05-28, 19:11:11
die "korrekte" Darstellung erkennt man in der Regel eh nicht, wenn man davon nichts weiß.
bull²
jeder erkennt z.b. korrekte beleuchtung, weil es real nur korrekte beleuchtung gibt.
was meint dein prof warum jeder die vorteile von raytracing sieht?
pixeljetstream
2020-05-28, 19:31:58
bull²
jeder erkennt z.b. korrekte beleuchtung, weil es real nur korrekte beleuchtung gibt.
was meint dein prof warum jeder die vorteile von raytracing sieht?
Bull³
Du könntest nicht Mal eben ein Photoshopped Bild erkennen, nur weil irgendwo ein Highlight oder weicher Schatten nicht genau richtig wäre, gleiches gilt für die diversen Material shading Vereinfachung, ab nen gewissen Grad sieht es plausibel aus und gut.
Es gibt keine korrekte Darstellung weil wir nur endliche Zeit für die Berechnung haben ;)
Kommt drauf an. Manche Sachen ignoriert der Mensch ziemlich einfach, z.B. bisschen inkorrekte specular reflections. Aber ja, das diffuse Licht und Energieerhaltung ist wichtig. Das merkt man sofort wenn das nicht passt.
x-force
2020-05-28, 19:41:01
Bull³
glaub was du willst, ich habe eine überdurschnittliche wahrnehmung, aber das muss ich niemandem beweisen, ich freu mich einfach darüber :P
btw es gibt korrekte darstellungen, weil die auflösung des auges und gehirns ebenfalls nicht unendlich sind.
mein raytracing argument hast du auch schön ignoriert. wenn man das faken könnte, würde man gar nicht erst versuchen korrekt zu rendern.
eine unterabtastung ist erstmal auch kein fake, trenn da bitte
Badesalz
2020-05-28, 21:23:31
Anzunehmen, dass heutzutage alles in Full Res gemacht wird, ist ein Irrtum. :) Da wird bereits "gecheatet", dass sich die Balken biegen (u. a. Ambient Occlusion mit geviertelter Auflösung, FP16 für ausgesuchte Shader oder der Klassiker: Spiegel bei Rennspielen mit reduzierter Auflösung und Details, etc).Ja. Natürlich. Dann spricht ja auch nichts dagegen - jetzt wo die Leistungen der Grakas nur noch in Teraflops angegeben werden - das nun so richtig zu potenzieren :hammer:
Oder was genau mochtest du damit ausdrücken? Ich weiß das gelegentlich wirklich nicht welche Botschaft GENAU sich hinter deinem Beitrag versteckt.
Im Grunde ist es auch kein Cheat, wenn es vom Entwickler eingesetzt wird, ein Cheat wäre es nur wenn es der Grafiktreiber eigenmächtig machen würde und nicht mehr das darstellen würde was der Entwickler vorgesehen hat.Ich kann das selbst nicht erklären :usweet: aber wenn ich sowas lese vernehme ich irgendwie immer den Geruch von Spieleoptimierungen in einem NV-Treiber...
pixeljetstream
2020-05-28, 23:02:55
glaub was du willst, ich habe eine überdurschnittliche wahrnehmung, aber das muss ich niemandem beweisen, ich freu mich einfach darüber :P
btw es gibt korrekte darstellungen, weil die auflösung des auges und gehirns ebenfalls nicht unendlich sind.
mein raytracing argument hast du auch schön ignoriert. wenn man das faken könnte, würde man gar nicht erst versuchen korrekt zu rendern.
eine unterabtastung ist erstmal auch kein fake, trenn da bitte
Für mich liest sich deine Aussage als könntest Du jede Vereinfachung beim Rendering (ob Raytracing oder Raster war ja nicht Debatte) erkennen. Selbst die high end Raytracer im Film approximieren. Artists Nutzen vereinfachte materialmodelle etc. Es ist IMO nicht so Schwarz Weiß. Gerade weil wir endliche Ressourcen haben den Kram auszurechnen. Guck dir die Forschung an bei siggraph etc. jedes Jahr hier und da Verbesserungen wie man natürliche Phänomene besser abbildet. Heißt das du würdest jedes gerenderte Bild als solches erkennen und wissen was daran vereinfacht wurde? Wohl kaum.
x-force
2020-05-28, 23:21:03
Heißt das du würdest jedes gerenderte Bild als solches erkennen und wissen was daran vereinfacht wurde?
cgi in filmen: ja immer.
was vereinfacht wurde nicht, aber darum geht es nicht.
die ursprüngliche aussage war, daß man fakes nicht erkennen würde, nicht, daß man sie beim namen nennen kann :biggrin:
ist seit mandalorian aber schwerer geworden, ich denke der rest betrifft unrealistische bewegungen und physik
Badesalz
2020-05-28, 23:31:38
Ja genau. Verbesserungen...
Ich kenne nur eine Szene bzw. Szenen-Art wo das wirklich Sinn macht. Und das ist genau das was man sich auch ausgesucht hat um das zu zeigen :usweet:
https://www.youtube.com/watch?v=LCT7pF6HrIg
Schon das Ding von 3dmark war aber direkt sehr sehr durchwachsen. Die meisten Beispiele als Veranschaulichungen halte ich auch für kontraproduktiv. Da kommen nur die Eindrücke eines variable mush shadings bei raus.
Das taugt einfach nicht immer überall als Universallwaffe. Weils je langsamer die Bewegung wird, je mehr Zeit man hat sich umzuschauen, desto mehr mush sieht man. Für Rennspiele ist sowas echt genial. Oder so ein Flug durch ein Asteroidenfeld... ;)
Doom und Fortnite scheinen das aber nicht zu gebrauchen (?)
Sowas wie TombRaider oder AsCreed wäre für mich stand heute letzter Müll mit sowas. Oder so eine langsame Fahr auf einem Panzer in BF, grausam.
Klar wird mit und in der Engine getrickst. Das fällt auf Screenshots aber nicht so auf wie diese grausigen Beispielbilder von mush-shading, die es ja eigentlich lobpreisen sollen.
Der HeinZ
2020-05-29, 07:05:05
Früher nannte man sowas Cheat. X-D
Bääääääm, das war auch das erste was mir eingefallen ist.
Ich kann mich noch an die Themen " Trilinieare Optimierung ausschalten", "Bilineare AF vs trilinear AF" und viel später die ganzen Diskussionen über "Sinnvolle Tessalationsstufen" :biggrin: Früher war reduzierung verpöhnt, heute ein Feature. Passt irgendwie zum allgeminen Zeitgeist. Ich finde es nett das man sowas umsetzen kann , aber ich hoffe es gibt auch den Knopf "NICHT MACHEN".
Gruss Matthias
x-force
2020-05-29, 07:19:36
Bääääääm, das war auch das erste was mir eingefallen ist.
Ich kann mich noch an die Themen " Trilinieare Optimierung ausschalten", "Bilineare AF vs trilinear AF" und viel später die ganzen Diskussionen über "Sinnvolle Tessalationsstufen" :biggrin: Früher war reduzierung verpöhnt, heute ein Feature. Passt irgendwie zum allgeminen Zeitgeist.
irgendwie leider ja.
vor allem hat die cheats damals jeder gesehen.
dieser ganze variable shading/resolution kram macht erst mit eyetracking sinn.
@pixeljetstream
https://devblogs.microsoft.com/directx/wp-content/uploads/sites/42/2020/05/word-image-5.jpeg
und zack ist der kreis nicht mehr rund :freak:
Das Problem bei den ganzen VRS Beispielen ist, dass man immer einen Vergleich An-Aus sieht, oft noch mit farblicher Markierung wo eingespart wird.
Damit wird man automatisch darauf hingelenkt auf was man sich konzentrieren soll, und wenn man das macht sieht man logischerweise die Unterschiede wenn man keinen Augenfehler hat.
Die wichtige Frage ist aber, würde man das auch sehen, wenn man nur das mit VRS berechnete Bild kennt, ohne Pixel-für-Pixel Vergleich mit dem Bild ohne VRS.
x-force
2020-05-29, 23:08:01
Die wichtige Frage ist aber, würde man das auch sehen, wenn man nur das mit VRS berechnete Bild kennt, ohne Pixel-für-Pixel Vergleich mit dem Bild ohne VRS.
ja, da der kreis einfach nicht mehr rund ist.
erschwerend und vorteilhaft für den vrs matsch ist, daß wir nur einen kleinen schnipsel, der wahrscheinlich auch noch verkleinert wurde, vorgesetzt bekommen.
Dampf
2020-06-13, 00:15:00
Ein kleines Update zu DXR 1.1:
Es scheint wohl auf Turing GPUs nichts zu bringen, da die Architektur zu alt ist.
Ja, Turing unterstützt DXR 1.1, aber wohl nur auf Software und nicht auf Hardware-Ebene, d.h. die ganzen neuen Features werden nur emuliert und sind damit langsamer. Auf der XSX hat man schon Titel gesehen die in 4K laufen mit Raytracing. Auf der PS5 laufen ebenso viele Titel in 4K mit RT-Reflektionen, fast ein Ding der Unmöglichkeit auf einer 2070 Super, egal wie aufwendig oder auch nicht der Titel und die RT Implementation auch sein mag. RDNA2 scheint wohl deutlich höhere RT-Leistung zu haben.
Wenn es anders wäre, hätte Nvidia ein Titel wie BF5 genommen und es schon mit den Features von DXR 1.1 optimiert um ein deutlich effizienteres Raytracing aufzuzeigen und zu vermarkten, die Treiber und die Windows Version stehen ja schon seit längerem zur Verfügung. Da das nicht passiert ist, komme ich zu dem oben genannten Schluss.
Schade.
pixeljetstream
2020-06-13, 00:27:22
Ein kleines Update zu DXR 1.1:
Es scheint wohl auf Turing GPUs nichts zu bringen, da die Architektur zu alt ist.
Ja, Turing unterstützt DXR 1.1, aber wohl nur auf Software und nicht auf Hardware-Ebene, d.h. die ganzen neuen Features werden nur emuliert und sind damit langsamer. Auf der XSX hat man schon Titel gesehen die in 4K laufen mit Raytracing. Auf der PS5 laufen ebenso viele Titel in 4K mit RT-Reflektionen, fast ein Ding der Unmöglichkeit auf einer 2070 Super, egal wie aufwendig oder auch nicht der Titel und die RT Implementation auch sein mag. RDNA2 scheint wohl deutlich höhere RT-Leistung zu haben.
Wenn es anders wäre, hätte Nvidia ein Titel wie BF5 genommen und es schon mit den Features von DXR 1.1 optimiert um ein deutlich effizienteres Raytracing aufzuzeigen und zu vermarkten, die Treiber und die Windows Version stehen ja schon seit längerem zur Verfügung. Da das nicht passiert ist, komme ich zu dem oben genannten Schluss.
Schade.
Dxr 1.1 bringt in erster Linie tracing von allen shader Typen. Da wird nix emuliert, im Gegenteil ist damit ein direkter Zugriff möglich. Ich kann dem Rest nicht ganz folgen insbesondere was an den Features genau nun viel mehr Leistung hätte bringen sollen bei bf5. BF5 wird es IMO immer etwas schwer haben weil es der erste große Titel war.
Dampf
2020-06-13, 00:40:30
Dxr 1.1 bringt in erster Linie tracing von allen shader Typen. Da wird nix emuliert. Ich kann dem Rest nicht ganz folgen insbesondere was an den Features genau nun viel mehr Leistung hätte bringen sollen bei bf5. BF5 wird es IMO immer etwas schwer haben weil es der erste große Titel war.
AMD behauptet in ihrer DXR 1.1 Präsentationsdemo, dass Features wie Inline-Raytracing, GPU Work Creation und der ganze andere Kram, wenn sie denn clever genutzt werden, die Effizienz und Performance von Raytracing signifikant steigern kann. (Siehe hier https://www.youtube.com/watch?v=sW0g0lqsqKA )
Dass das wahr ist sieht man ja jetzt mit den Konsolen, die RT Effekte in nativem 4K wiedergeben (die PS5 wird wohl ähnliche Features nutzen mit ihrer eignen API) Ein Beispiel, Ratchet und Clank läuft auf der PS5 in nativem 4K und nutzt RT Reflektionen auf dem Boden und für Clank. Versuch mal ein halbwegs aufwendiges Spiel mit RT Reflektionen (ob 100% oder 50% Auflösung spielt keine Rolle) auf Turing in nativem 4K wiederzugeben, das ist ein Ding der Unmöglichkeit, wenn du über 18 FPS kommen willst. Und R&C sieht von der Geometrie her deutlich aufwendiger als ein Current Gen Spiel wie Control oder Wolfenstein aus.
BF5 war auch nur ein Beispiel, Nvidia kann jeden beliebigen Titel mit DXR 1.1 überarbeiten. Haben sie aber nicht getan, vermutlich weil die Features auf Turing nichts bringen, da die Architektur dafür nicht gemacht ist. So wie man Nvidia kennt würde man sonst die PR-Maschine hochfahren und den Leuten versichern, dass RT auf Turing nicht mehr so viel Performance zieht wie bisher.
pixeljetstream
2020-06-13, 00:50:21
Das clevere Nutzen der Features kommt von den Entwicklern selbst. Das sind ja api Features die so in der engine genutzt werden, das ist nicht etwas was man im Treiber überarbeitet, die engine muss sowas fundamental selbst nutzen.
Dass Entwickler nun nach zwei-drei Jahren, mehr Erfahrung haben und bei den Konsolen immer etwas mehr geht weil es eine echte Zielplatform ist, als der erste Titel, der im Nachhinein um RT erweitert wurde sollte imo nicht verwundern.
Dampf
2020-06-13, 01:09:24
Das clevere Nutzen der Features kommt von den Entwicklern selbst. Das sind ja api Features die so in der engine genutzt werden, das ist nicht etwas was man im Treiber überarbeitet, die engine muss sowas fundamental selbst nutzen.
Dass Entwickler nun nach zwei-drei Jahren, mehr Erfahrung haben und bei den Konsolen immer etwas mehr geht weil es eine echte Zielplatform ist, als der erste Titel, der im Nachhinein um RT erweitert wurde sollte imo nicht verwundern.
Ja da stimme ich dir auch zu, ich finds einfach komisch, dass DXR 1.1 bei Nvidia kaum Erwähnung findet, während AMD und MS DXR 1.1 ständig erwähnen, wenn es um RDNA2 geht und dass es noch keine DXR 1.1 Demo von Nvidia gibt (so wie AMD mit ihrer).
Ich dachte eventuell, dass Turings RT Solution weniger flexibel ist als die von AMD und dadurch ein paar Probleme mit den neuen Features von DXR 1.1 bekommen könnte.
Ich mein die Konsolen liefern echt eine erstklassige RT Performance ab, natives 4K in einem aufwendigen Spiel mit schicken RT-Reflektionen ist echt ne Hausnummer.
Aber das kann natürlich auch durch die zusätzliche Erfahrung und die neuen APIs kommen. Auf dem PC haben wir Stand jetzt ja echt nur alte Schinken auf DXR 1.0 Basis zum Vergleich, die Konsolen-Trailer wurden bestimmt auf Basis neuester APIs und Erfahrung erstellt. Naja, so langsam sollte der PC doch auch etwas davon mitbekommen, oder nicht?
Ja da stimme ich dir auch zu, ich finds einfach komisch, dass DXR 1.1 bei Nvidia kaum Erwähnung findet, während AMD und MS DXR 1.1 ständig erwähnen, wenn es um RDNA2 geht und dass es noch keine DXR 1.1 Demo von Nvidia gibt (so wie AMD mit ihrer).
Weil es, wie Pixeljetstream ja bereits erklärt hat, nur eine Zusatzoption in der API ist, die auch nicht unter allen, aber in manchen Rendersezenarien bzw. Engineaufrufen sinnvoll eingesetzt werden kann.
DXR 1.1 ist kein "Renderpafd". Es kommt mir so vor, als ob Du das vermuten würdest.
Ich dachte eventuell, dass Turings RT Solution weniger flexibel ist als die von AMD und dadurch ein paar Probleme mit den neuen Features von DXR 1.1 bekommen könnte.
Offiziell ist über AMDs RT Lösung und derer Flexibilitätsvorteile wenig bekannt.
Ich mein die Konsolen liefern echt eine erstklassige RT Performance ab, natives 4K in einem aufwendigen Spiel mit schicken RT-Reflektionen ist echt ne Hausnummer.
Du weisst doch garnicht, wie und in welcher Qualität RT dort integriert ist...
Auch nicht, wie die internen Renderresolutions der einzelnen Buffer aussehen.
Aber das kann natürlich auch durch die zusätzliche Erfahrung und die neuen APIs kommen.
Erfahrung auf jeden Fall. Allein durch immer weiter durchoptimierte sorting- und Denoising- Algorithmen sind bereits erhebliche Leistungssteigerungen erfolgt.... und weitere werden folgen.
Auf dem PC haben wir Stand jetzt ja echt nur alte Schinken auf DXR 1.0 Basis zum Vergleich, die Konsolen-Trailer wurden bestimmt auf Basis neuester APIs und Erfahrung erstellt.
Es ist halt ein Unterschied, ob man RTRT irgendwo anflanscht, oder die Engine und den Entstehungsprozess von Assets nur daraufhin ausrichten kann.
Kann man sich ja sicher sein, dass JEDER, der sich diesen Titel kauft, dies unter den gleichen Hardwarevoraussetzungen und den gleiche Grafiksettings spielen wird. So sehr die Diversität am PC Markt oftmals auch von Vorteil ist, so sehr zeigen sich die Nachteile, wenn es darum geht, kompromisslos alte Zöpfe abschneiden zu können und alte Technik außen vor zu lassen.
Naja, so langsam sollte der PC doch auch etwas davon mitbekommen, oder nicht?
Siehe oben.... Beim PC wäre alles immer mit einem erheblichen Mehraufwand verbunden, da immer zwei Renderpipelines unterhalten werden müssten.
Aber natürlich ist die Wahrscheinlichkeit hoch, dass die Konsolentitel mit RTRT portiert werden und Rastertricks dort dann für ältere oder schwächere Maschinen zusätzlich eingepflegt werden.
Insofern werden die PC natürlich was davon mitbekommen...
pixeljetstream
2020-07-01, 17:53:19
https://devblogs.microsoft.com/directx/hardware-accelerated-gpu-scheduling/
Verbessertes HW scheduling mit neueren Windows 10 Versionen (für alle APIs)
Locuza
2020-07-01, 20:58:42
Die ersten Benchmarks bei Nvidia sahen leicht positiv aus.
Ich habe das nicht im Detail verfolgt, aber ich nehme an, damit läuft auch Async Compute effizienter?
Das war eine Stellschraube, wo man auf Konsolen deutliche Gewinne erreichen konnte, während auf dem PC man nur einen Bruchteil davon sah.
Ich vermute genau wegen dem Overhead von Seiten des vorherigen OS-Managements?
Ich habe das nicht im Detail verfolgt, aber ich nehme an, damit läuft auch Async Compute effizienter?
Davon gehe ich nicht aus. Es geht um das Scheduling mehrere Anwendungen
Das war eine Stellschraube, wo man auf Konsolen deutliche Gewinne erreichen konnte, während auf dem PC man nur einen Bruchteil davon sah.
Ich vermute genau wegen dem Overhead von Seiten des vorherigen OS-Managements?
Async Compute kann nur Gewinne bringen wenn die GPU schlecht ausgelastet ist.
Und die alten AMD Architekturen sind bekanntermaßen fast immer schlecht ausgelastet.
Async ist effizienter weil die Synchronisierung von command buffern nicht mehr durch den Kernel laeuft. Das war immer ewig lahm.
Weiß man eigentlich mittlerweile, wann DirectStorage seinen Weg auf den PC finden wird?
MfG
Raff
"DirectStorage" ist ein Marketing-Begriff, man kann schon seit Ewigkeiten mit Vulkan Video-Speicher direkt mappen und direkt per DMA von der Disk lesen. Ich seh das aber ehrlich gesagt ohne Dekomprimierung in Hardware sowieso fuer relativ sinnlos an.
Für mich hört sich Direct Storage wieder mal nach einer neuen Krücke für zu wenig RAM an.
Braucht man nicht, wenn man genug RAM hat. Das ganze Streaming Zeug bräuchte man nicht wenn man genug RAM hat. Aber Ram ist ja leider teuer.
Rampage 2
2020-07-09, 22:31:09
Wie sieht es eigentlich mit der allgemeinen DX12-Compliance (Feature Level, Tiers, unterstützte Funktionen), also dem herkömmlichen DX12-Featureset VOR dem Erscheinen von DX12U, der heutigen GPU-Architekturen aus? Bei AMD ist seit GCN5 (also Vega) das gesamte Spektrum vollständig abgedeckt oder z.T. sogar übertroffen. Bei Nvidia ist seit Turing das Spektrum zwar (fast) vollständig abgedeckt, aber "Stencil reference value from Pixel Shader" fehlt immer noch! (auch bei Turing!)
R2
Für mich hört sich Direct Storage wieder mal nach einer neuen Krücke für zu wenig RAM an.
Braucht man nicht, wenn man genug RAM hat. Das ganze Streaming Zeug bräuchte man nicht wenn man genug RAM hat. Aber Ram ist ja leider teuer.
Man braucht Streaming. Die Level-Daten eines AAA-Spiels wuerden auch 11GB-VRAM-Karten ueberfuellen. Ist voellig normal und selbstverstaendig.
Dampf
2020-07-10, 12:04:54
"DirectStorage" ist ein Marketing-Begriff, man kann schon seit Ewigkeiten mit Vulkan Video-Speicher direkt mappen und direkt per DMA von der Disk lesen. Ich seh das aber ehrlich gesagt ohne Dekomprimierung in Hardware sowieso fuer relativ sinnlos an.
Naja glaube da ist mehr dran als das. Denke DirectStorage wird neue Kompressionstechniken und einen Low Level Zugriff auf den NVMe Controller ermöglichen.
][immy
2020-07-10, 13:15:22
Wie sieht es eigentlich mit der allgemeinen DX12-Compliance (Feature Level, Tiers, unterstützte Funktionen), also dem herkömmlichen DX12-Featureset VOR dem Erscheinen von DX12U, der heutigen GPU-Architekturen aus? Bei AMD ist seit GCN5 (also Vega) das gesamte Spektrum vollständig abgedeckt oder z.T. sogar übertroffen. Bei Nvidia ist seit Turing das Spektrum zwar (fast) vollständig abgedeckt, aber "Stencil reference value from Pixel Shader" fehlt immer noch! (auch bei Turing!)
R2
Sicher? Bei AMD fehlen doch meine ich noch einige Dinge. Ich meine einzige Tier3 Dinge fehlten da noch.
Das ist die Matrix:
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Support_matrix
RDNA2 fuellt wohl den Rest aus (RT, VRS, Mesh Shader und Sampler Feedback).
Nur wegen der Stencil-Reference-Geschichte NVIDIA "vollen" DX12-Support absprechen zu wollen ist ein wenig uebertrieben.
Rampage 2
2020-07-11, 23:36:40
Das ist die Matrix:
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D#Support_matrix
Genau DIESE Matrix hatte ich als Referenz genommen;)
Nur wegen der Stencil-Reference-Geschichte NVIDIA "vollen" DX12-Support absprechen zu wollen ist ein wenig uebertrieben.
Ich wüsste zuallererst gerne, was diese Funktion überhaupt bewirkt (wozu sie nützlich ist) und warum Nvidia es von Kepler bis hin zu Turing immer noch nicht implementieren konnte:|
R2
Hat jemand irgendwo Benchmarks einer Ice-Lake-IGP gesehen, die Variable Rate Shading abklopft? Das Ding soll das ja können (und Tiger Lake bald noch viel mehr).
MfG
Raff
y33H@
2020-07-12, 11:32:42
Nö, kannst ja aber selbst erstellen :P welches Spiel denn?
Loeschzwerg
2020-07-12, 16:57:12
Was interessiert dich denn genau, Raff? Wolfenstein II und ein Notebook mit 1065G7 hätte ich.
Ich wüsste zuallererst gerne, was diese Funktion überhaupt bewirkt (wozu sie nützlich ist) und warum Nvidia es von Kepler bis hin zu Turing immer noch nicht implementieren konnte:|
Der Stencil Reference Value wir hauptsächlich von den Vergleichsoperatoren im Stencil Test verwendet. Normal setzt man den in der CommandList (also per Draw Call) und mit dem Feature, kann man pro Pixel den Wert im Pixelshader überschreiben.
Konkrete Use Cases für "pro Pixel" würden mich aber auch mal interessieren.
pixeljetstream
2020-07-13, 06:31:18
Wenn man für unterschiedliche Postprocessing shader pixel taggen will und dies selbst durch ein Postprocessing Schritt vornimmt (der Klassifizierungs- drawcall könnte herkömmlich nur einen Wert schreiben).
Später bei den folgenden drawcalls (die nur subset bearbeiten sollen) hat stencil auch early rejection, so dass Pixel die den test nicht erfüllen keine Threads starten. Dies erlaubt optimalere shader für die klassifizierten pixel, statt ein shader der alle Fälle abhandelt.
Ein typischer workaround ohne stencil ist einfach depthbuffer zu verwenden der dann beim Postprocessing ja nicht mehr gebraucht wird und Pixelshader kann ja depth wert verändern.
Langfristig sollen diese workload binning Setups aber durch flexiblere Fähigkeiten compute shader workloads von der GPU zu starten gelöst werden. Im Prinzip kann das die Hardware in beiden lagern aber es wurde noch keine einheitliche Abstraktion für Grafik APIs gefunden. Ist aber hot request der Entwickler, daher wird's schon irgendwann kommen.
All dies folgt dem Trend die Effizienz zu erhöhen in dem man angepasste workloads erzeugt, selektiver vorgeht. Es ist indirekt auch Teil von raytracing wo die hw auch verschiedenen shader code dynamisch nach "Pixel" ausführt.
Nö, kannst ja aber selbst erstellen :P welches Spiel denn?
Ist schwierig, wenn kein entsprechendes Gerät griffbereit und Zeit Mangelware ist. :)
Was interessiert dich denn genau, Raff? Wolfenstein II und ein Notebook mit 1065G7 hätte ich.
Cool! Auch 3DMark? =) Mich interessiert nur der prozentuale Gewinn. Die Implementierung ist ja standardisiert, da kann's keine optischen Unterschiede zu Nvidia geben.
MfG
Raff
pixeljetstream
2020-07-13, 09:25:39
Eine starke Motivation für VRS sind high dpi Laptops, wo es (gerade für einfachere GPUs) Overkill ist das alles zu berechnen, aber Auflösung komplett runterdrehen auch nicht gut.
Wenn man für unterschiedliche Postprocessing shader pixel taggen will und dies selbst durch ein Postprocessing Schritt vornimmt (der Klassifizierungs- drawcall könnte herkömmlich nur einen Wert schreiben).
Soweit so (vorher) klar. Aber was sind Use Cases dafür das Pro Pixel machen zu wollen?
Man kann sich jetzt sowas überlegen wie selektives Subsurface Scattering basierend auf Texturen. Aber will das schon jemand machen?
pixeljetstream
2020-07-13, 13:29:55
Deferred shading. Sagen wir der Pixel will clear coat, der andere nicht etc. Kannst auch andere Special case Behandlung damit machen und so optimaleren shader ausführen, alternativ wäre dynamic branch im shader, aber dann hast nicht mehr so optimalen coden (oft mehr Register und vor allem dependent loads)
Pixel nach irgendwas zu klassifizieren ist nicht unüblich.
Loeschzwerg
2020-07-13, 16:33:16
Cool! Auch 3DMark? =) Mich interessiert nur der prozentuale Gewinn. Die Implementierung ist ja standardisiert, da kann's keine optischen Unterschiede zu Nvidia geben.
MfG
Raff
3DMark VRS Test im 15W Limit (vorheriges aufheizen des Notebooks):
70820
Das Ergebnis ist reproduzierbar.
][immy
2020-07-13, 18:51:48
3DMark VRS Test im 15W Limit (vorheriges aufheizen des Notebooks):
70820
Das Ergebnis ist reproduzierbar.
Nett was VRS da noch rausholen kann.
Ist natürlich auch nur nen kleiner chip. Entsprechend würde ich Mal Tippen, je kleiner der Chip desto mehr bringt es (zumindest solange nichts anderes limitiert).
AintCoolName
2020-08-28, 11:54:47
Es gibt wohl bereits ein update zu DX12 Ultimate mit neuem feature level (12_2).
https://devblogs.microsoft.com/directx/new-in-directx-feature-level-12_2/
Q: Which hardware platforms will support feature level 12_2?
A: We’re absolutely pleased to inform that:
Feature level 12_2 is supported on NVIDIA GeForce RTX and NVIDIA Quadro RTX GPUs.
AMD’s upcoming RDNA 2 architecture based GPUs will include full feature level 12_2 support.
Intel’s roadmap includes discrete GPUs that will empower developers to take full advantage of Feature Level 12_2.
Microsoft is collaborating with Qualcomm to bring the benefits of DirectX feature level 12_2 to Snapdragon platforms.
Naja im großen und Ganzen werden eigentlich nur die ganzen optionalen Turing-Features verpflichtend.
Dampf
2020-09-01, 19:06:21
https://i.imgur.com/g8rFVBE.png
Die Frage ist jetzt, ist dafür irgendeine spezielle Hardware in Ampere vorhanden oder sind auch die Turing GPUs damit kompatibel?
Braucht man zwingend eine PCIe Gen 4 SSD oder gehts auch mit Gen 3? Fragen über Fragen..
w0mbat
2020-09-01, 19:39:11
Wie bei PS5/XBX, finde ich ne ziemliche geile Technologie die sehr viel Sinn macht. Wieso den Umweg über CPU/RAM, wenn es auch direkt geht?
Dampf
2020-09-01, 19:52:20
Wie bei PS5/XBX, finde ich ne ziemliche geile Technologie die sehr viel Sinn macht. Wieso den Umweg über CPU/RAM, wenn es auch direkt geht?
Absolut. Bei den Konsolen hast du halt dafür spezielle Hardware, die den Job erledigt.
Auf dem PC möchte Nvidia das wohl über CUDA lösen. Sollte auch flott sein, wobei es natürlich etwas GPU Zeit in Anspruch nehmen wird. DirectStorage wird das Game-Streaming in der Next Gen maßgeblich verändern!
AintCoolName
2020-09-01, 20:23:57
Ich finde es krass wie man diese Thema mal eben so abgehakt hat. Bei der PS5 Präsentation was das das Hauptmerkmal, das was zukünftiges Gameplay am meisten beeinflusst. Und hier so machen wir jetzt auch so, und weiter im Text.
just4FunTA
2020-09-01, 20:39:39
Ich finde es krass wie man diese Thema mal eben so abgehakt hat. Bei der PS5 Präsentation was das das Hauptmerkmal, das was zukünftiges Gameplay am meisten beeinflusst. Und hier so machen wir jetzt auch so, und weiter im Text.
ja hätten sich an Epic wenden sollen ob sie ihre UE5 Demo in 8k auf der RTX3090 präsentieren dürfen. :)
qC5KtatMcUw
Ist denn Kompression in DirectStorage mit definiertem Standard vorgesehen, den nVidia implementiert?
Oder kocht da nVidia sein eigenes Süppchen, so dass Entwickler dann einmal die "normalen" Daten für alle anderen und einmal die komprimierten nVidia Daten vorhalten müssen, also die Daten im Zweifel zweimal vorliegen?
https://i.imgur.com/g8rFVBE.png
Die Frage ist jetzt, ist dafür irgendeine spezielle Hardware in Ampere vorhanden oder sind auch die Turing GPUs damit kompatibel?
Höchstwahrscheinlich schon, ein derartiger Speedup ist eigentlich nur mit dezidierter Hardware sinnvoll erklärbar.
Dampf
2020-09-01, 21:24:12
Turing wird RTX I/O ebenfalls unterstützen.
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/#comment-5054185320
Ist jetzt nur noch die Frage, ob Gen 3 bereits ausreicht. Meiner Meinung nach wäre es unlogisch das Feature nur einer handvoll PCIe4 Usern zugänglich zu machen.
aufkrawall
2020-09-01, 21:25:55
Auf dem PC möchte Nvidia das wohl über CUDA lösen.
Wo entnimmst du das bez. Spiele?
Dampf
2020-09-01, 21:31:05
Wo entnimmst du das bez. Spiele?
Nur ne Vermutung. Man will die GPU für Dekompression nutzen, da ist CUDA eine logische Schlussfolgerung. Möglicherweise könnten auch die Tensor Cores eine Rolle spielen, da GTX GPUs das Feature nicht unterstützen.
Lurtz
2020-09-01, 21:36:06
Ich finde es krass wie man diese Thema mal eben so abgehakt hat. Bei der PS5 Präsentation was das das Hauptmerkmal, das was zukünftiges Gameplay am meisten beeinflusst. Und hier so machen wir jetzt auch so, und weiter im Text.
Auf dem PC ist das halt auch einfach kein so großer Deal wie auf Konsolen, die bisher Mobile-CPUs von 2013 und 5200 rpm HDDs verbaut hatten...
Troyan
2020-09-01, 21:45:09
Turing wird RTX I/O ebenfalls unterstützen.
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/#comment-5054185320
Ist jetzt nur noch die Frage, ob Gen 3 bereits ausreicht. Meiner Meinung nach wäre es unlogisch das Feature nur einer handvoll PCIe4 Usern zugänglich zu machen.
Natürlich. Es ist nur Software. PCIe 3.0 reicht doch vollkommen aus, um die meisten SSDs auszulasten.
Turing wird RTX I/O ebenfalls unterstützen.
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/#comment-5054185320
Wie kommst du darauf? Auf der verlinkten Seite sehe ich jedenfalls nur explizit die RTX 30 Series erwähnt, was stark darauf hindeutet dass Turing eben nicht unterstützt wird.
Ist jetzt nur noch die Frage, ob Gen 3 bereits ausreicht. Meiner Meinung nach wäre es unlogisch das Feature nur einer handvoll PCIe4 Usern zugänglich zu machen.
Jeder profitiert davon, natürlich auch Gen3.
Einerseits soll sich damit die "effektive Bandbreite" verdoppeln, auch wenn das natürlich technisch gesehen ein Blödsinn ist und der reale Speedup davon abhängt wie gut sich die Daten komprimieren lassen, da dies ja lossless geschieht. Andererseits profitieren heute schon PCIe SSDs kaum gegenüber S-ATA-SSDs weil das reale Limit die CPUs sind. Man wird also in jedem Fall auch mit PCIe3 von den Ladezeiten profitieren, mit dem Potential bei PCIe4 noch weitere Vorteile zu haben, da ja (zumindest laut Nvidia) Rechenleistung im Überfluss vorhanden ist und man damit nur mehr von der Bandbreite abhängen sollte, die ja mit PCIe4 wesentlich höher ist.
DrumDub
2020-09-02, 11:19:35
Die Frage ist jetzt, ist dafür irgendeine spezielle Hardware in Ampere vorhanden oder sind auch die Turing GPUs damit kompatibel?
sind sie. Neben den neuen Geforce RTX 3000 (Ampere) werden auch die Geforce RTX 2000 (Turing) unterstützt. Hier wird eine GPU-basierte Dekompression verwendet, die von der SSD gelesenen Daten werden also gar nicht erst vom Prozessor entpackt. https://www.golem.de/news/microsoft-directstorage-kommt-fuer-windows-10-2009-150616.html
Daredevil
2020-09-02, 11:23:09
Ich finde es krass wie man diese Thema mal eben so abgehakt hat. Bei der PS5 Präsentation was das das Hauptmerkmal, das was zukünftiges Gameplay am meisten beeinflusst. Und hier so machen wir jetzt auch so, und weiter im Text.
Ja, das stimmt schon. :D
Im Grunde wird seit Monaten bei Sony nur über die SSD geredet, dass die alles ändern soll. Sony hat dafür einen eigenen Chip, soweit ich weiß.
Hier wird das einfach in "RTX gegossen", kurz gesagt, dass es sonst auf die CPU gehen würde und das es so geiler ist und dann weiter im Programm.
Aber auch da muss Nvidia sich mit messen, weil die Konsolen dieses Jahr die größte Konkurrenz ist.
Hoffentlich hat AMD auch was im petto.
aufkrawall
2020-09-02, 11:45:31
Nur ne Vermutung. Man will die GPU für Dekompression nutzen, da ist CUDA eine logische Schlussfolgerung.
CUDA direkt via Anwendung dafür aufzurufen wär aus Wettbewerbssicht ziemlich hässlich für so ein zentrales Element, an dem sicherlich einiges an Arbeit für Engine-Anpassungen hängt. Eine Microsoft-API auf CUDA zu mappen wär auch ziemlich seltsam.
pixeljetstream
2020-09-02, 12:07:30
Also ohne jetzt genau diesen Fall zu kommentieren, was der Treiber intern nutzt, ist doch komplett egal. Die Kernel für rtcore (worauf dxr, Vulkan raytracing, optix fußt) sind auch in CUDA geschrieben. Es gibt ein Haufen Treiber gpu Code der in verschiedenen Mechanismen generiert wird.
Der Sinn der Abstraktion von MS ist dass es egal ist wie die Hersteller etwas implementieren.
aufkrawall
2020-09-02, 12:21:49
Die Kernel für rtcore (worauf dxr, Vulkan raytracing, optix fußt) sind auch in CUDA geschrieben.
Hm, war das für Normalsterbliche schon bekannt? :)
Der Sinn der Abstraktion von MS ist dass es egal ist wie die Hersteller etwas implementieren.
Vor dem Hintergrund erscheint das in der Form sinnvoll, klar. Allerdings muss man dann natürlich auch erwähnen, dass die Anwendung nicht direkt CUDA nutzt. Wenn sie das nicht tut, ist ja aus Wettbewerbssicht alles in Ordnung.
Dampf
2020-09-02, 13:17:54
Leute, ich glaube DirectStorage und RTX I/O wird von keinem derzeit erhältlichen Motherboard unterstützt.
https://upload.wikimedia.org/wikipedia/commons/5/53/Intel_5_Series_architecture.png
Die GPU nutzt ja PCIe x16, über die CPU, während eine NVMe SSD über das PCH mit x4 angebunden ist.
Der Sinn von DirectStorage ist ja, Daten von der SSD direkt in den VRAM zu laden. Mit derzeitigen Motherboards wäre das aber nicht möglich, da man immer den Umweg über die CPU gehen muss, wie Nvidia hier schön zeigt:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/rtx-io-gpu-accelerated-storage-technology/geforce-rtx-30-series-rtx-io-games-bottlenecked-by-traditional-io.jpg
Für mich als Laptop-Nutzer, der das MB nicht upgraden kann, ist das natürlich ein Todesurteil... schade.
Diese Technik verlangt also wirklich ein komplettes Redesign aktueller Chipsets und Motherboards. Man könnte schon fast PC2 sagen. Da sind die Konsolen wohl doch voraus..
Troyan
2020-09-02, 13:24:42
Nein. Das ist eine Software-Sache. Betriebssystem, APIs, Treiber etc. müssen angepasst werden. Neue Hardware wird doch nur in Form einer schnellen SSD benötigt.
Dampf
2020-09-02, 13:27:40
Nein. Das ist eine Software-Sache. Betriebssystem, APIs, Treiber etc. müssen angepasst werden. Neue Hardware wird doch nur in Form einer schnellen SSD benötigt.
Eben nicht nur Software. DirectStorage kann nicht auf derzeitigen MBs funktionieren, wie ich bereits erläutert hab. Aufgrund der physischen Limitation geht nur der Umweg über die CPU. Um DirectStorage zu realisieren, braucht man komplett neue Chipsätze und MBs.
Radeonfreak
2020-09-02, 13:31:02
So als komplette Laie würd ich sagen müsste der CPU doch einfach verboten werden den Datenstrom zu dekomprimieren sondern einfach nur an die Graka weiterzuleiten oder?
why_me
2020-09-02, 13:33:21
Das geht schon, die Anfragen der GPU werden bei Zen im IO-Die umgeleitet. Da hat die CPU nichts zu tun.
w0mbat
2020-09-02, 13:55:45
Da die GPU meist direkt an die CPU angebunden ist, mit PCIe lanes von der CPU, muss es also erstmal zu CPU, geht gar nicht anders. Die Nvidia Folie macht da keinen Sinn.
Zergra
2020-09-02, 13:59:50
Jein, normal muss die CPU die Daten in den RAM schreiben, das ist ein ganz anderer Prozess als die Daten eben nur weiterzuleiten. Daher haben Sie die CPU eben ausgelassen, da sie keine wirkliche Auswirkung hat.
Tesseract
2020-09-02, 14:13:12
Die GPU nutzt ja PCIe x16, über die CPU, während eine NVMe SSD über das PCH mit x4 angebunden ist.
erstens hängt bei AM4 sowohl graka als auch M.2_1 direkt am IO-die, zweitens geht es bei DS darum dass ein PCIe device (graka) auf ein anderes PCIe device (SSD) zugreifen kann ohne die daten im hauptspeicher zwischenlagern zu müssen. das hat nichts damit zu tun ob der PCIe-controller auf der CPU sitzt, ein eigenständiger chip ist oder was auch immer und ist auch nix neues sondern teil von PCIe. was hingegen neu ist, ist
a) das ganze kommt in die 3D-API um es verfügbar zu machen
b) die decompression auf der GPU ohne die das ganze nur mit unkomprimierten daten funktionieren würde.
der block der bei nvidia im diagram "PCIe" heißt kann sowohl IO-die als auch chipsatz sein.
basix
2020-09-02, 14:32:00
Turing wird RTX I/O ebenfalls unterstützen.
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/#comment-5054185320
Ist jetzt nur noch die Frage, ob Gen 3 bereits ausreicht. Meiner Meinung nach wäre es unlogisch das Feature nur einer handvoll PCIe4 Usern zugänglich zu machen.
Geil! Danke für die Info. Das finde ich als Turing Nutzer ziemlich cool. Wann gab es das schonmal, dass 2 Jahre später massig neue Features kommen / standardisiert werden (DX12_2, Ultimate, DXR, RTX IO, ...) und die GPU die neuen Features auch unterstützt / bekommt?
Dampf
2020-09-02, 15:19:03
erstens hängt bei AM4 sowohl graka als auch M.2_1 direkt am IO-die, zweitens geht es bei DS darum dass ein PCIe device (graka) auf ein anderes PCIe device (SSD) zugreifen kann ohne die daten im hauptspeicher zwischenlagern zu müssen. das hat nichts damit zu tun ob der PCIe-controller auf der CPU sitzt, ein eigenständiger chip ist oder was auch immer und ist auch nix neues sondern teil von PCIe. was hingegen neu ist, ist
a) das ganze kommt in die 3D-API um es verfügbar zu machen
b) die decompression auf der GPU ohne die das ganze nur mit unkomprimierten daten funktionieren würde.
der block der bei nvidia im diagram "PCIe" heißt kann sowohl IO-die als auch chipsatz sein.
Hm, das macht ebenfalls Sinn. Mal abwarten.
Geil! Danke für die Info. Das finde ich als Turing Nutzer ziemlich cool. Wann gab es das schonmal, dass 2 Jahre später massig neue Features kommen / standardisiert werden (DX12_2, Ultimate, DXR, RTX IO, ...) und die GPU die neuen Features auch unterstützt / bekommt?
Turing war seiner Zeit voraus, dafür aber halt auch sehr teuer. Ohne Turing hätten wir all diese Innovationen wohl nie gehabt!
Ex3cut3r
2020-09-02, 16:03:07
Ich denke man kann sich auch bei den Konsolen bedanken, dass es wieder eine 3070 für 499€ gibt bzw. die 16GB Version für 599€ geben wird. Nvidia könnte einfach nicht zulassen, das wegen nochmal erhöhten Preise, viele auf Konsolen wechseln und damit AMD unterstützen, weil man wegen eines Grafikkarten Kaufs Insolvenz anmelden muss (überspritzt gesagt) :biggrin:
pixeljetstream
2020-09-02, 16:22:34
Hm, war das für Normalsterbliche schon bekannt? :).
Ich meine das wurde schon paar mal erwähnt. In Schaubildern sieht man die drei APIs immer über dem rtx Technology Stack. Gibt auch GTC Vorträge des Teams. Nicht zuletzt wird die passende Dll geladen ;)
aufkrawall
2020-09-02, 16:38:57
Ist ja sicherlich klever, um da nicht für jede API Redundanzen zu haben (thx für die Info!).
Was mich zu der Frage bringt, wie das mit DirectStorage und Vulkan aussieht. Wär ziemlich meh, wenn Vulkan-Anwendungen dann MS DirectStorage per Interop nutzen würden. :freak:
][immy
2020-09-02, 18:03:18
Ja, das Schaubild ist da ein wenig "Missverständlich".
Aktuell geht mehr oder minder vieles übe die CPU. Es gibt aber auch DMAs die auch nicht die CPU beschäftigen.
Aber der der Speichercontroller, die PCIe Anbindung etc auf dem CPU-Die liegt, wäre das Schaubild immer zutreffend.
Wichtig ist eigentlich, das die Daten nicht über die Cores laufen und das geht halt aus dem Schaubild nicht hervor.
Das nächste das Wichtig ist, das die Daten nicht über den Hauptspeicher laufen, wobei das wohl weniger schlimm wäre, aber natürlich trotzdem noch ein störfaktor.
Worauf man allerdings trotzdem aufpassen musst, ist das die GPU sich nicht Plötzlich im System austoben kann, dementsprechend wird sie sich letztlich doch mit dem OS auf einen Speicherbereich einigen müssen, den sie lesen darf.
Andere Probleme wie Bitlocker etc will ich gar nicht erst erwähnen. Wenn hier mit Verschlüsselungen gearbeitet wird die nicht direkt vom Speichergerät selbst kommen, führt fast kein Weg an der CPU vorbei.
Das wir aber Datendekompressionseinheiten im PC bekommen, das denke ich eher nicht. Dafür werden viel zu viele unterschiedliche Kompressionsverfahren eingesetzt (je nach einsatzzweck). Bei nvidia macht das eventuell noch sinn mit ihren Number-Crunchern drauf, damit kann man sicherlich auch recht flexibel dekomprimieren wenn man nicht grad was anderes zu tun hat.
[immy;12411846']
Andere Probleme wie Bitlocker etc will ich gar nicht erst erwähnen. Wenn hier mit Verschlüsselungen gearbeitet wird die nicht direkt vom Speichergerät selbst kommen, führt fast kein Weg an der CPU vorbei.
Ein File System, im klassischen sinne, mach mit DirectStorage unehinn keinen Sinn (nur die CPU kann etwas mit dem FileSystem anfangen). Um DirectStorage nutzen zu können bedarf es eh einen (am effektivsten) unpartitionierten Bereich.
Aber klar, Microsoft wird entweder DirectStorage mindestens auf der SystemSSD nicht unterstützen oder Bitlocker das "ignorieren" beibringen müssen.
N0Thing
2020-09-02, 19:02:30
Würde ein Spiel, dass DirectStorage verwendet, nicht weiterhin über das OS auf die Dateien zugreifen? Natürlich wäre da auch die CPU involviert, nur werden die Daten dann nicht von der CPU entpackt, in den RAM geschrieben und dann in den VRAM kopiert, sondern direkt von der GPU entpackt und den VRAM geschrieben. Nvidia zeigt auf ihren Folien ja weiterhin eine Nutzung der CPU, nur dass man durch DirectStorage nur einen Bruchteil der CPU-Leistung benötigt.
Dampf
2020-09-03, 10:38:19
Ein kleines Q and A von Nvidia zu RTX I/O / DirectStorage
Could we see RTX IO coming to machine learning libraries such as Pytorch? This would be great for performance in real-time applications
[Tony Tamasi] NVIDIA delivered high-speed I/O solutions for a variety of data analytics platforms roughly a year ago with NVIDIA GPU DirectStorage. It provides for high-speed I/O between the GPU and storage, specifically for AI and HPC type applications and workloads. For more information please check out: https://developer.nvidia.com/blog/gpudirect-storage/
Does RTX IO allow use of SSD space as VRAM? Or am I completely misunderstanding?
[Tony Tamasi] RTX IO allows reading data from SSD’s at much higher speed than traditional methods, and allows the data to be stored and read in a compressed format by the GPU, for decompression and use by the GPU. It does not allow the SSD to replace frame buffer memory, but it allows the data from the SSD to get to the GPU, and GPU memory much faster, with much less CPU overhead.
Will there be a certain ssd speed requirement for RTX I/O?
[Tony Tamasi] There is no SSD speed requirement for RTX IO, but obviously, faster SSD’s such as the latest generation of Gen4 NVMe SSD’s will produce better results, meaning faster load times, and the ability for games to stream more data into the world dynamically. Some games may have minimum requirements for SSD performance in the future, but those would be determined by the game developers. RTX IO will accelerate SSD performance regardless of how fast it is, by reducing the CPU load required for I/O, and by enabling GPU-based decompression, allowing game assets to be stored in a compressed format and offloading potentially dozens of CPU cores from doing that work. Compression ratios are typically 2:1, so that would effectively amplify the read performance of any SSD by 2x.
Will the new GPUs and RTX IO work on Windows 7/8.1?
[Tony Tamasi] RTX 30-series GPUs are supported on Windows 7 and Windows 10, RTX IO is supported on Windows 10.
I am excited for the RTX I/O feature but I partially don't get how exactly it works? Let's say I have a NVMe SSD, a 3070 and the latest Nvidia drivers, do I just now have to wait for the windows update with the DirectStorage API to drop at some point next year and then I am done or is there more?
[Tony Tamasi] RTX IO and DirectStorage will require applications to support those features by incorporating the new API’s. Microsoft is targeting a developer preview of DirectStorage for Windows for game developers next year, and NVIDIA RTX gamers will be able to take advantage of RTX IO enhanced games as soon as they become available.
https://www.reddit.com/r/nvidia/comments/ilhao8/nvidia_rtx_30series_you_asked_we_answered/
Gut, das heißt es geht mit jeder SSD. Und es sollte auch auf jedem Motherboard funktionieren (wie hier schon erläutert wurde). Sehr gut. :biggrin:
pixeljetstream
2020-09-04, 10:36:08
Antwort zu https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12413691#post12413691
Die neuen Features hauen auf den Konsolen halt besonders rein. Weil die vorherige gen langsame Platten und wenig cpu Power hatte. Und die Features helfen Strom sparen.
Dampf
2020-09-04, 10:46:09
Antwort zu https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12413691#post12413691
Die neuen Features hauen auf den Konsolen halt besonders rein. Weil die vorherige gen langsame Platten und wenig cpu Power hatte. Und die Features helfen Strom sparen.
Stimmt, aber auf dem PC genauso, da die Spiele-Entwicklung durch die alten Konsolen stark behindert wird. Das gute ist ja, durch die universelle DX12U API werden Xbox Konsolen vom PC profitieren und umgekehrt!
Das Ding ist halt, selbst wenn du deine SSD in deinem PC hast, außer Ladezeiten merkst du davon noch nichts, da dieses alte Streaming System, das eine HDD aufgrund der alten Konsolen in Betracht zieht, auch auf dem PC genauso läuft. Das wird sich dann erst mit der Next Gen ändern (deswegen schrieb ich ja, Current und Next Gen Spiele kann man so nicht direkt vergleichen) Cross Gen wird auch noch PCs mit alten HDDs in Betracht ziehen. Die wahren Neuerungen abseits von weniger pop in und Ladezeiten werden wir also erst sehen, wenn die alten Konsolen und HDDs in PCs fallen gelassen werden.
Aber naja, wird noch etwas dauern bis RTX I/O und Sampler Feedback richtig genutzt werden. Das ist wohl der Knackpunkt. Wenn RTX I/O bzw DirectStorage erst nächstes Jahr in den Händen von Entwicklern gelangt, wird man davon erst was in 2022 sehen. Der Optimist in mir sagt Anfang 2021 kommt die Preview, die ersten Spiele dann Mitte 2021. Aber das ist wohl etwas zu optimistisch ! :biggrin:
Die neuen Features hauen auf den Konsolen halt besonders rein. Weil die vorherige gen langsame Platten und wenig cpu Power hatte. Und die Features helfen Strom sparen.
Vor allem die CPUs der Konsolen waren bzw. sind noch immer extrem lahm.
Ich hab meine X-Box mal auf SSD umgebaut, nur um zu merken dass sich die Ladezeiten kaum verbessern, weil offenbar die CPU so stark limitiert, dass die höhere Bandbreite fast nichts bringt.
fulgore1101
2020-09-07, 14:38:44
Ist RTX I/O exklusiv für Ampere und Direct Storage ein offener Standard von MS für alle Grafikkarten? Und der Unterschied ist, dass bei RTX I/O die Grafikkarte Daten komprimiert überträgt und bei Direct Storage die Daten unkomprimiert bleiben?
Radeonfreak
2020-09-07, 14:41:30
Ist RTX I/O exklusiv für Ampere
Nein. Auch für Turing.
Meines Wissens hat Ampere überhaupt das gleiche Feature-Set wie Turing, die können nix "besser" nur schneller.
basix
2020-09-07, 14:59:26
Nein. Auch für Turing.
Meines Wissens hat Ampere überhaupt das gleiche Feature-Set wie Turing, die können nix "besser" nur schneller.
Soweit ich mitbekommen habe, hat Ampere HW Beschleunigung für RTX IO und Turing macht das via Shader.
Und ja, Ampere hat anscheinend faktisch das selbe Feature Set wie Turing (mit kleinen Ausnahmen wie RT Motion Blur), einfach etwas refined und schneller. Grundsätzlich ist Ampere zu Turing was Pascal zu Maxwell war.
Dampf
2020-09-07, 15:01:17
Soweit ich mitbekommen habe, hat Ampere HW Beschleunigung für RTX IO und Turing macht das via Shader.
Nein, Ampere hat keine spezielle Dekompression Hardware. Sowohl bei Turing als auch bei Ampere läuft es auf den SMs oder Tensor Cores.
pixeljetstream
2020-09-07, 15:02:56
DirectStorage wird auch komprimierte Dateien können. Welche Verfahren genau wird man sehen.
RTX I/O ist der Marketing Name von NV für derartige Technik in ihren Treibern. Analog zu RTX für Raytracing Technik die dann unter dxr/Vulkan/optix verfügbar ist.
Lurtz
2020-09-07, 15:27:08
Nein. Auch für Turing.
Meines Wissens hat Ampere überhaupt das gleiche Feature-Set wie Turing, die können nix "besser" nur schneller.
Turing kann AV1-Decoding?
mironicus
2020-09-07, 19:14:08
Was meint ihr wie lange es dauert, bis es das erste PC-Spiel gibt, was DirectStorage voraussetzt bzw. eine NVME SSD (+ DX 12 Ultimate GPU) erfordert? Wenn so etwas JETZT erscheinen würde, schließe ich ja praktisch 99,0% aller aktuellen PCs aus, oder?
Dampf
2020-09-07, 20:25:00
Was meint ihr wie lange es dauert, bis es das erste PC-Spiel gibt, was DirectStorage voraussetzt bzw. eine NVME SSD (+ DX 12 Ultimate GPU) erfordert? Wenn so etwas JETZT erscheinen würde, schließe ich ja praktisch 99,0% aller aktuellen PCs aus, oder?
Wenn die Cross Gen Phase endet und man exklusiv für die neuen Konsolen entwickelt. Also so in 2-3 Jahren. Bis dahin sollten die meisten PCs auch eine DX12U kompatible Grafikkarte drin haben, schließlich geht das von Turing, zu RDNA2, Ampere und dann schließlich Hopper und RDNA3, sowie die Next Gen Konsolen. Bei solch einer großen Adaption überwiegt der Vorteil, Spiele komplett auf DX12U, SSDs und Raytracing aufzubauen den Nachteil die Userbase alter PCs auszuschließen. Hat man ja früher auch gemacht, als Spiele mit einer DX10 GPU nicht mehr gestartet haben.
Trotzdem wird man sicherlich schon deutlich früher die Vorteile von DirectStorage sehen. Anfang 2021 kommt die Preview in die Hände von Entwicklern, ich gehe also davon aus, dass man dann die Vorteile Ende oder mit Glück Mitte 2021 sehen kann.
Was DX12U, betrifft, noch früher. Gibt ja schon Titel mit VRS (Wolfenstein, Gears) und DXR 1.1, was seit ein paar Tagen die Raytracing Peformance von Minecraft deutlich erhöht hat. Mesh Shading wird sicherlich noch ne Weile dauern, könnte mir aber Sampler Feedback und VRS Tier 2 recht bald vorstellen. Cyberpunk könnte ein paar DX12U Features abseits von DXR 1.1 nutzen, mal abwarten.
Ich bin leicht verwirrt, für das was "RTX I/O" macht (only GPU decompressing) bräuchte es keine extra DirectStorage API. Das kann man doch heute schon machen.
Interessant an der DirectStorage API ist doch gerade das in den VRAM "rein streamen" ganzer Objekte als dump, warum denn HAGS?
Also entweder kastriert Microsoft die DirectStorage API nochmal deutlich oder nvidia unterstützt diese nur rudimentär. ;)
Ex3cut3r
2020-09-07, 21:11:13
Oh Mann, man braucht doch keine NVME. Eine SATA SSD sollte von Direct Storage genau so profitieren. Erstmal abwarten, und nicht schon wieder den Teufel an die Wand malen, Herr mironicus.
Dampf
2020-09-07, 21:23:03
Oh Mann, man braucht doch keine NVME. Eine SATA SSD sollte von Direct Storage genau so profitieren. Erstmal abwarten, und nicht schon wieder den Teufel an die Wand malen, Herr mironicus.
Von schlappen 500 MB/s auf 1 GB/s hilft nur nichts, wenn das schwächste Mitglied der Next Gen, die Series S, 4.8 GB/s hat und darauf die Spiele zugeschnitten werden. Das ist fast 5x schneller.
Folglich braucht man auf dem PC schon eine NVMe SSD und RTX I/O um da mitzuhalten.
Nvidia hat ja auch schon angedeutet, dass Entwickler zukünftig SSD Read Speed requirements einbauen könnten und da wäre der logische Schluss mindestens 2.4 GB/s read speed mit RTX I/O.
Ex3cut3r
2020-09-07, 21:40:40
Am PC hast du RAM ohne ende, standard scheinen schon 32GB zu sein. Abwarten, halte ich für Blödsinn, dass man jetzt schon in der Anfangsphase der "Next Gen" ohne PCIe NVME kein Land mehr sieht. Grade deswegen kommt wohl auch Direct Storage. Investiert lieber in VRAM und RAM, dann braucht man so einen "Quatsch" auch nicht. ;)
TheGood
2020-09-07, 21:42:05
So Recht verstehe ich nicht warum Nvidia sagt dass auch SSDs unterstützt werden, aber die DirectStorage API eigentlich sagt dass nur NVME SSDs unterstützt werden.
DirectStorage will be supported on certain systems with NVMe drives and work to bring your gaming experience to the next level
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/
Hat da wer ne Erklärung für?
Wenn man das hier liest, könnte man es auch anders interpretieren:
Why NVMe?
NVMe devices are not only extremely high bandwidth SSD based devices, but they also have hardware data access pipes called NVMe queues which are particularly suited to gaming workloads. To get data off the drive, an OS submits a request to the drive and data is delivered to the app via these queues. An NVMe device can have multiple queues and each queue can contain many requests at a time. This is a perfect match to the parallel and batched nature of modern gaming workloads. The DirectStorage programming model essentially gives developers direct control over that highly optimized hardware.
In addition, existing storage APIs also incur a lot of ‘extra steps’ between an application making an IO request and the request being fulfilled by the storage device, resulting in unnecessary request overhead. These extra steps can be things like data transformations needed during certain parts of normal IO operation. However, these steps aren’t required for every IO request on every NVMe drive on every gaming machine. With a supported NVMe drive and properly configured gaming machine, DirectStorage will be able to detect up front that these extra steps are not required and skip all the necessary checks/operations making every IO request cheaper to fulfill.
For these reasons, NVMe is the storage technology of choice for DirectStorage and high-performance next generation gaming IO.
Allerdings wird im ganzen Eintrag nur explizit Bezug auf NVMe drives genommen.
Dampf
2020-09-07, 21:52:18
Am PC hast du RAM ohne ende, standard scheinen schon 32GB zu sein. Abwarten, halte ich für Blödsinn, dass man jetzt schon in der Anfangsphase der "Next Gen" ohne PCIe NVME kein Land mehr sieht. Grade deswegen kommt wohl auch Direct Storage. Investiert lieber in VRAM und RAM, dann braucht man so einen "Quatsch" auch nicht. ;)
Das hab ich mir vorher auch gedacht, aber als die Dekompression via RTX I/O angekündigt wurde, ist es mir klar geworden: Der RAM wird eher keine so große Rolle mehr einnehmen. Ich dachte der PC will die fehlende Dekompression der Konsolen durch den RAM ausgleichen, aber mit RTX I/O ist der PC nicht mehr im Nachteil und selbst eine normale Gen 3 NVMe reicht aus, um mit der Xbox gleichzuziehen.
Mit DirectStorage gehts ja jetzt direkt von der SSD in den VRAM. Anscheinend scheint der Weg von SSD in VRAM deutlich effektiver und schneller zu sein, als von SSD zu RAM zu VRAM, obwohl der RAM von der Bandbreite her deutlich schneller ist als eine SSD.
Wofür der RAM dann genutzt wird? Keine Ahnung. Vermutlich eben als Cache für allerlei CPU-fokusiertes Zeugs. Die Konsolen teilen sich ja den Speicher. Was die CPU braucht, kann beim PC hingegen ja dann in den RAM gepumpt werden, das spart dann VRAM im Vergleich zur Konsole.
@TheGood IMO weil es sich bei einer SSD nicht lohnt. 500 MB/s zu 1 GB/s ist halt jetzt nicht weltbewegend und eben weil die Konsolen auch NVMe drives haben.
Aber wie gesagt, brauchen tut es man erst, wenn Cross Gen vorbei ist. Davor wird eine SATA SSD locker ausreichen.
Rumbah
2020-09-07, 23:26:07
So wie ich das verstehe, geht es neben der Bulk Rate eher um die IOPS.
Mit SATA hast du nur eine command queue mit glaube ich 32 Einträgen.
Mit NVMe hast du 256 queues mit je 256 Einträgen.
Da brauchst du dann halt nicht mehr komplette Texturen laden, sondern kannst direkt die einzelnen benötigten Tiles zu hunderten in die Schlangen schieben und von der SSD schnell abarbeiten lassen.
Am PC könnte man natürlich einfach wie bisher die Texturen in den Arbeitsspeicher laden und von dort aus die Tiles rüberschieben, die Konsolen haben ja immerhin nur 16GB shared RAM, von dem ja auch noch das Betriebssystem das eine oder andere GB abzwackt, ist dort also eher sehr knapp. Wenn die Assets dann aber aufs optimierte Tile laden ausgelegt sind, und ein Level dann 100GB Assets hat, wirds auch auf dem PC mit dem RAM knapp.
Dampf
2020-09-09, 21:46:39
Sampler Feedback in Aktion: https://youtu.be/fYtJWIxt3-M?t=169
Man sieht, dass in der Tat massig VRAM eingespart wird. Wow.
dargo
2020-09-09, 21:57:40
Rund 0,5GB Einsparung ist bei dir massiv? :freak:
Dampf
2020-09-09, 21:59:54
Rund 0,5GB Einsparung ist bei dir massiv? :freak:
? Die Demo frisst nicht viel Speicher
Aber ja, von 2300 MB zu 840 MB im besten Fall ist massiv. Und im schlechtesten Falle von 2900 MB auf 1300 MB ist ebenfalls sehr, sehr beeindruckend.
Keine Ahnung was du mit den 0,5 GB meinst.
Ex3cut3r
2020-09-09, 22:11:45
Nja, wie das auf dem PC noch umgesetzen werden soll, bin ich noch skeptisch. Wann ist denn überhaupt so weit? Und wer kann es? Ab Turing bei Nvidia also von Karten die vor 2 Jahren rls worden sind, bei AMD nix? Außer der kommende Navi? Das wäre bei AMD GPUs schon sehr fatal, weil dann plötzlich alles vor Big Navi Alteisen ist. Kann man es sich wirklich erlauben? 90% der PCler quasi zum Aufrüsten zu zwingen?
Dampf
2020-09-09, 22:15:21
Nja, wie das auf dem PC noch umgesetzen werden soll, bin ich noch skeptisch. Wann ist denn überhaupt so weit? Und wer kann es? Ab Turing bei Nvidia also von Karten die 2 Jahren rls worden sind, bei AMD nix? Außer der kommende Navi? Das wäre bei AMD GPUs schon sehr fatal, weil dann plötzlich alles vor Big Navi Alteisen ist.
Von Nvidia gibts glaub ich seit März oder April offizielle Game-Ready Treiber für DX12 Ultimate, Entwicklertreiber schon lange davor. Sollte nicht mehr so lange gehen, bis die Features genutzt werden (DXR 1.1 zum Beispiel wurde neulich bei Minecraft RTX eingesetzt und hat die RT Performance signifikant verbessert)
Auf der AMD Seite unterstützt es nur die kommende RDNA2 Generation.
pixeljetstream
2020-09-10, 01:05:29
Dampf, Direct Storage ist aber noch nicht soweit am PC.
crux2005
2020-09-10, 01:12:54
Ich bin auch skeptisch. Der eingesparte VRAM durch SFS wird direkt genutzt um bessere Grafikqualität zu bieten (Tex. mit höherer Auflösung etc). Und bis es auf PC kommt ist Ampere auch schon Alteisen (Turing sowieso). Erst müssen wir auf MS warten und dann auf die HW Basis. 2022 oder 2023 hören sich real an.
pixeljetstream
2020-09-10, 15:25:49
Es wird IMO flotter mit der Verbreitung gehen, weil es sich eher in bestehendes einfügt, als sagen wir Raytracing. Und dadurch dass die Konsolen es auch haben ist es weniger Extrawurst. Aber Dennoch muss erstmal die standardisierte Version im production Os/Treiber sein... allerdings heißt das nicht dass man es braucht, die alten Konsolen werden ja auch noch ne Weile Titel bekommen.
Dampf
2020-11-13, 00:43:18
VRS in Aktion im neuen AMD Video zu Riftbreaker.
https://i.imgur.com/cFhty4I.png
Je nach Ausleuchtung spart VRS mal weniger mal enorm Performance. Besonders bei Nacht bzw in dunklen Szenen, wo es in vielen Spielen sowieso aufwendiger wird (siehe Watch Dogs) könnte VRS ein wahrer Segen werden.
Gebrechlichkeit
2020-11-13, 01:46:00
War von den Zahlen weggefeggt, aber das Bild zeigt nicht die ganze Wahrheit auf! Soooo viel besser ist die Performance nicht mit VRS. Und wie mit den Xbox Consolen, ... alles sieht eine Ecke unschaerfer aus.
https://i.postimg.cc/WFPsTDvB/1920x1080-vtime-5-40-take-2020-11-12-16-08-33.png (https://postimg.cc/WFPsTDvB)
+50FPS at best (360fps vs 410fps ... ), avg. nur +20FPS :frown: Kein gutes Spiel, um VRS schmackhaft zu machen.
https://i.postimg.cc/JGRtj2Sf/1920x1080-vtime-3-00-take-2020-11-13-01-31-23.png (https://postimg.cc/JGRtj2Sf)
Im Video deutlich erkennbar (VRS off = klarer, VRS on = verschwommen)
https://i.postimg.cc/4dYvKY6z/1920x1080-vtime-3-04-take-2020-11-13-01-31-54.png (https://postimg.cc/cgNt245H) https://i.postimg.cc/50DB8fgD/1920x1080-vtime-3-05-take-2020-11-13-01-32-01.png (https://postimg.cc/cgMtSyVc)
VRS off schneller als VRS on
https://i.postimg.cc/pXbQTXpF/1920x1080-vtime-3-09-take-2020-11-13-01-32-32.png (https://postimg.cc/Hjz8vm0Y)
TheAntitheist
2020-11-13, 02:43:29
Rund 0,5GB Einsparung ist bei dir massiv? :freak:
es spart in dem Video immer um die 50% an Speicher, also langsam wirst du peinlich Dargo....
Dampf
2020-11-13, 09:18:14
War von den Zahlen weggefeggt, aber das Bild zeigt nicht die ganze Wahrheit auf! Soooo viel besser ist die Performance nicht mit VRS. Und wie mit den Xbox Consolen, ... alles sieht eine Ecke unschaerfer aus.
https://i.postimg.cc/WFPsTDvB/1920x1080-vtime-5-40-take-2020-11-12-16-08-33.png (https://postimg.cc/WFPsTDvB)
+50FPS at best (360fps vs 410fps ... ), avg. nur +20FPS :frown: Kein gutes Spiel, um VRS schmackhaft zu machen.
https://i.postimg.cc/JGRtj2Sf/1920x1080-vtime-3-00-take-2020-11-13-01-31-23.png (https://postimg.cc/JGRtj2Sf)
Im Video deutlich erkennbar (VRS off = klarer, VRS on = verschwommen)
https://i.postimg.cc/4dYvKY6z/1920x1080-vtime-3-04-take-2020-11-13-01-31-54.png (https://postimg.cc/cgNt245H) https://i.postimg.cc/50DB8fgD/1920x1080-vtime-3-05-take-2020-11-13-01-32-01.png (https://postimg.cc/cgMtSyVc)
VRS off schneller als VRS on
https://i.postimg.cc/pXbQTXpF/1920x1080-vtime-3-09-take-2020-11-13-01-32-32.png (https://postimg.cc/Hjz8vm0Y)
In der Tat ich hab das beste Szenario gezeigt um den Effekt zu verdeutlichen. Ich sehe jetzt aber dass Videos nicht 1zu1 vergleichbar sind, weil die Tageszeit bei einem ein bisschen hinterherhinkt. Außer bei dem Punkt wo es 350 zu 430 FPS sind, da haben sie es gestoppt, das ist wohl der einzige realistische Vergleich.
Was die Qualität angeht, so kann man da nichts in einem tot komprimierten 1080p60 Youtube Video erkennen... Da spielt dir dein Hirn wohl einen Streich. Das Watch Dogs Bild hat auch nix mit VRS zu tun. Die Series S hat halt wenig RAM und muss die Texturqualität und Auflösung reduzieren.
Dampf
2020-11-16, 22:33:43
Mit dem 18. November wird AMD mit seiner Radeon RX 6800XT der RDNA2 Serie voll in DX12 Ultimate einsteigen. Ich heiße hiermit AMD herzlich Willkommen in der Familie der Next Gen GPUs, die bereit sind, die Grafik der Zukunft auf den Bildschirm zu zaubern.
AMD beschreibt ihren DX12 Ultimate Support folgendermaßen:
Get Immersive Graphics at Ultimate Performance
With Microsoft® DirectX® 12 (DX12), you get blazingly fast performance, high frames per second, and reduced latency on all AMD Radeon™ graphics cards, and on AMD Radeon™ RX 6000 series graphics cards, support for DirectX® 12 Ultimate enables features that deliver the next-generation of gaming experiences.
DirectX® Raytracing
Experience Photorealistic Games
DirectX Raytracing (DXR) adds a new level of graphics realism to games through effects like reflections, shadows, and global illumination at real-time frame rates on AMD Radeon™ RX 6000 series graphics, thanks to AMD RDNA™ 2 architecture support for hardware-accelerated raytracing.
Variable Rate Shading
Helps Boost Performance
Variable Rate Shading (VRS) is designed to help boost performance on AMD Radeon™ RX 6000 series graphics by allowing games to intelligently prioritize the rendering power for the visual areas that matter most.
AMD FidelityFX1 Variable Shading uses AMD RDNA™ 2 architecture support for VRS to help optimize the rendering of frames for maximum performance without lowering the image quality.
Mesh Shaders
Explore Vast Open Worlds
Mesh Shaders enable more realistic and immersive game worlds by enabling AMD Radeon™ RX 6000 series graphics to efficiently render extremely complex scenes.
Sampler Feedback
Uninterrupted Immersive Detail
Sampler Feedback enables games to efficiently render vast open worlds filled with high resolution textures on AMD Radeon™ RX 6000 series graphics.
Mehr hier https://www.amd.com/en/technologies/directx12#DirectX%C2%AE-Raytracing
Die RDNA2-Serie wird ebenso DirectStorage unterstützen.
AintCoolName
2020-11-24, 18:26:10
Auf OpenGPU wurden einige Videos veröffentlicht zu RDNA2 und DX12 Ultimate
https://gpuopen.com/gpuopen-rx6000-updates/
https://gpuopen.com/videos/
basix
2020-11-25, 09:25:48
Auf OpenGPU wurden einige Videos veröffentlicht zu RDNA2 und DX12 Ultimate
https://gpuopen.com/gpuopen-rx6000-updates/
https://gpuopen.com/videos/
Ich weiss nicht, was AMD sich dabei gedacht hat, aber der GPUopen Denoiser ist definitiv broken :freak: "optimized for reflection denoising" ;D https://gpuopen.com/fidelityfx-denoiser/
https://gpuopen.com/wp-content/uploads/2020/11/1spp_1080p_blur-1.jpg
AintCoolName
2020-12-05, 22:40:36
Wird die DirectStorage Api schon irgendwo eingesetzt? Bis jetzt wurde von Nvidia und AMD nur erwähnt das man das supported. Könnte AMD's SAM hier ein Vorteil sein? Weil es geht doch darum Daten von der SSD möglichst schnell in den Speicher der Grafikkarte zu bekommen und SAM scheint hier hilfreich zu sein. Wäre es denkbar das die DirectStorage API teilweise in den Chipsatz kommt. Also das dekomprimieren im Chipsatz passiert. PCI 4.0 sollte genug Banbreite haben um auch die unkomprimierten Daten zu übertragen.
Darkman.X
2020-12-05, 22:57:28
Soweit ich weiß, hat Windows noch kein DirectStorage. Das soll erst irgendwann 2021 kommen...
pixeljetstream
2020-12-06, 10:06:30
Genau der Standard ist noch nicht fertig und hängt dann auch am support von neuer OS Version
AintCoolName
2020-12-06, 12:48:15
Ich dachte das wäre teil von DirectX Ultimate und das wäre seit dem Oktober Update raus.
We’re targeting getting a development preview of DirectStorage into the hands of game developers next year.
Heißt das auf den Konsolen gibt es da auch noch nicht?
pixeljetstream
2020-12-06, 12:55:07
Die haben ihre eigenen proprietären APIs und natürlich schon fertig dort. Aber je nach Konsole auch unterschiedliches Kompressionsverfahren.
Bei PC wo die Hardware nicht fest ist, ist's nicht trivial einfach ein Kompressionsverfahren zu definieren. Da geht's um die Fähigkeit das auch ohne Spezial Hardware mit Fallback zu schaffen oder die Lizenzen zu den Verfahren etc.
Und ohne den Kompressionsteil ordentlich definiert zu haben macht es imo weniger Sinn.
AintCoolName
2020-12-06, 13:05:52
Könnte das heißen wir sehen verschiedene Asset downloads je nach Hardware. Also für DX12U und none U, oder vielleicht sogar unterschiede zwischen AMD und Nvidia?
pixeljetstream
2020-12-06, 15:14:07
Glaube nicht dass sich die Entwickler das am PC antun. Tippe eher auf ein Verfahren das alle langfristig in Hardware oder kurzfristig ausreichend schnell in Software (compute shader) können. Falls wirklich spezifisch kann bei der Installation / ersten Start immer noch transkodiert werden.
Glaube nicht dass sich die Entwickler das am PC antun. Tippe eher auf ein Verfahren das alle langfristig in Hardware oder kurzfristig ausreichend schnell in Software (compute shader) können. Falls wirklich spezifisch kann bei der Installation / ersten Start immer noch transkodiert werden.
Das heißt Ampere/RDNA2 haben noch gar keinen hardware decompressor onboard?
Das hat in den Werbematerialien aber ganz anders ausgesehen.
pixeljetstream
2020-12-09, 08:31:48
Das heißt Ampere/RDNA2 haben noch gar keinen hardware decompressor onboard?
Das hat in den Werbematerialien aber ganz anders ausgesehen.
Meine Aussage bezieht sich nicht auf konkrete Chips, sondern wie man solche APIs designed und was es zu beachten gibt.
In welchem Material hast Du das gesehen?
Bisher sind mir nur Äußerungen zu den Konsolen bekannt.
pixeljetstream
2020-12-09, 08:40:28
Neuer blog Post zu mesh shader
https://developer.nvidia.com/blog/using-mesh-shaders-for-professional-graphics/
War zwar vulkan, aber da ist's noch nicht standardisiert, daher poste ich Mal hier.
Meine Aussage bezieht sich nicht auf konkrete Chips, sondern wie man solche APIs designed und was es zu beachten gibt.
In welchem Material hast Du das gesehen?
Bisher sind mir nur Äußerungen zu den Konsolen bekannt.
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/RTX-IO-gegen-IO-Overhead-viel-schnelleres-Laden-komprimiert-1357342/
Zugegebenermaßen steht es nicht direkt da, aber der Aufbau der Folie impliziert schon, dass hier die GPU direkt das decompressing übernimmt.
Vor allem aber geht man ja offenbar laut der Folie von einer Kompression von 1:2 aus, nur wie soll man das wissen, wenn noch nicht mal festgelegt ist welcher Kompressionsalgorithmus zum Einsatz kommt?
BlacKi
2020-12-09, 11:22:53
ich bin mir nicht sicher ab wann man mit DS im gaming wirklich zu rechnen sein wird. denn viele, sehr viele sind immer noch auf satas unterwegs, und irgendwie bezweifle ich das man AAA spiele mit DS auf sata ssds sinnvoll nutzen können wird. unter betrachtung der konsolen würde ich zu diesem schluss kommen.
pixeljetstream
2020-12-09, 11:36:29
ich bin mir nicht sicher ab wann man mit DS im gaming wirklich zu rechnen sein wird. denn viele, sehr viele sind immer noch auf satas unterwegs, und irgendwie bezweifle ich das man AAA spiele mit DS auf sata ssds sinnvoll nutzen können wird. unter betrachtung der konsolen würde ich zu diesem schluss kommen.
Imo wird das einfach durch die Konsolen "mitgenommen". Je nachdem wie nah Direct Storage vom Design dann da dran ist (und vermutlich achtet MS da schon drauf), müssen die Entwickler ja nicht direkt viel neues dazu basteln.
BlacKi
2020-12-09, 11:38:37
stößt man so schnell die low budget gamer zur seite? ich meine selbst heute noch kaufen leute noch sata ssds fü ihr gaming rig.
pixeljetstream
2020-12-09, 11:40:53
stößt man so schnell die low budget gamer zur seite? ich meine selbst heute noch kaufen leute noch sata ssds fü ihr gaming rig.
Ich glaube du verwechselst Unterstützung mit Anforderung. Man unterstützt oft Features die etwas verbessern, aber deswegen sind die nicht zwingend Voraussetzung, dass das Spiel läuft. Das passiert sicher nicht so schnell.
basix
2020-12-09, 12:13:25
Mit SATA SSDs sollte DS doch ohne Probleme funktionieren. Man benötigt einfach etwas mehr Speicherpuffer im System RAM und muss etwas "weiter vorausschauend" Daten vorhalten/streamen. Dieses Vorpuffern geht bei den Konsolen aufgrund des gemeinsamen Speichers gar nicht in dieser Form und man hat allgemein weniger RAM verbaut.
Oder man einigt sich auf SATA SSDs als Minimum und von NVMe SSDs hat man keinen Vorteil mehr (würde ich schade finden). Nur bei normalen HDDs sehe ich für DS schwarz. Da ein halbwegs moderner PC oder Notebook eine SSD verbaut haben, sollte das aber nicht tragisch sein. Irgendwann muss man alte Zöpfe abschneiden und der Unterschied zwischen SATA SSD und HDD ist deutlich grösser als zwischen SATA und NVMe.
stößt man so schnell die low budget gamer zur seite? ich meine selbst heute noch kaufen leute noch sata ssds fü ihr gaming rig.
Auch auf S-ATA sollte direct Storage immer noch Vorteile bringen, es entlastet ja in jedem Fall die CPU.
Der Vorteil wird nur größer, wenn der Festspeicher mehr Bandbreite liefern kann.
Dampf
2021-01-12, 23:17:26
Gears 5 hat jetzt VRS Tier 2. Mag jemand Tests machen?
Immer der, der fragt. :biggrin: Ich hatte das eigentlich für Gears Tactics erwartet.
MfG
Raff
Dampf
2021-01-12, 23:59:13
Immer der, der fragt. :biggrin: Ich hatte das eigentlich für Gears Tactics erwartet.
MfG
Raff
Würd ich ja gern aber hab derzeit kein Zugriff auf das Spiel
Gears Tactics hat btw nur VRS Tier 1 :wink:
dargo
2021-01-13, 09:15:54
tsss
Dann hol dir den Gamepass für 1€. ;)
https://www.xbox.com/DE-DE/xbox-game-pass?&ef_id=Cj0KCQiA0fr_BRDaARIsAABw4EuAfiMyv3Ge1x-CVZL2-Ymq3C1mueJMUonhTf7uu-OlCQlgTHmRmW8aAo-8EALw_wcB:G:s&OCID=AID2100895_SEM_Cj0KCQiA0fr_BRDaARIsAABw4EuAfiMyv3Ge1x-CVZL2-Ymq3C1mueJMUonhTf7uu-OlCQlgTHmRmW8aAo-8EALw_wcB:G:s
Dampf
2021-01-13, 09:54:15
tsss
Dann hol dir den Gamepass für 1€. ;)
https://www.xbox.com/DE-DE/xbox-game-pass?&ef_id=Cj0KCQiA0fr_BRDaARIsAABw4EuAfiMyv3Ge1x-CVZL2-Ymq3C1mueJMUonhTf7uu-OlCQlgTHmRmW8aAo-8EALw_wcB:G:s&OCID=AID2100895_SEM_Cj0KCQiA0fr_BRDaARIsAABw4EuAfiMyv3Ge1x-CVZL2-Ymq3C1mueJMUonhTf7uu-OlCQlgTHmRmW8aAo-8EALw_wcB:G:s
Hab mir Gamepass schon oft genug für 1 Euro erschwindelt, jetzt muss ich Vollpreis zahlen 😂
dargo
2021-01-13, 10:47:46
Bin mir jetzt nicht sicher, aber mit einem anderen XBox-Live-Konto müsste es gehen.
Bin mir jetzt nicht sicher, aber mit einem anderen XBox-Live-Konto müsste es gehen.
Ja man kann doch soviele Accounts eröffnen wie man Email Adressen hat, oder gleichen die das Zahlungsmittel ab?
Dampf
2021-01-26, 20:02:33
Nun gut ich hab mich mal erbarmt. Es tut ja sonst keiner! Hab bisher nur die PC Version des GamePass genommen, aber mit der Xbox Version konnte ich mir nochmal den 1€ Zugang erschummeln !
Ich hab VRS Tier 2 nun getestet und wie ich vermutet habe, variiert der Leistungsgewinn enorm nach Szene. Hier ein Idealszenario für VRS Quality:
https://i.imgur.com/CZmUeC0.png
off
https://i.imgur.com/BUsjtJl.png
Der Leistungsgewinn ist hier beträchtlich, da die dunkle Lichtstimmung viele gleich aussehende Pixel bedeutet. Diese können dann in geringerer Präzision gerendert werden.
Eine etwas normalere Szene:
off
https://i.imgur.com/xlwp0H1.jpg
on
https://i.imgur.com/hL85wGM.jpg
Auch hier kann VRS einiges an Leistung rausholen, aber doch weniger als in dem Ideal-Szenario.
Es gibt natürlich auch einige Szenarien, da holt VRS kaum etwas raus, da es dann zu viele einzigartige Pixel gibt. Besonders in hellen und variierenden Szenen ist der Leistungszuwachs gering.
https://i.imgur.com/WKlYFLB.jpg
on
https://i.imgur.com/wTfYYY3.jpg
Trotzdem, auch 1-2 FPS kann man definitiv mitnehmen!
Was die Qualität angeht ist diese im Qualitätsmodus praktisch nahezu nicht von der nativen Auflösung zu unterscheiden. Wenn dann fällt es absolut nicht ins Gewicht. Von daher kann man das Feature im Qualitäts-Modus getrost anlassen, da die Performance an einigen Stellen schon ordentlich geboostet wird.
Ich könnte mir vorstellen, dass Entwickler immer besser drin werden, VRS in die Spiele einzubauen und ordentlich auszunutzen! Insgesamt also definitiv ein cooles Feature!
+10% im Idealen Szenario haut mich jetzt nicht gerade vom Hocker.
Ich meine klar kann man es mit nehmen, aber das einzubauen zahlt sich eigentlich nur aus, wenn der Aufwand für manuelles tweaking nicht allzu hoch ausfällt.
dildo4u
2021-02-10, 13:57:03
Ein Mesh Shader Test sollte bald für den 3D Mark kommen.
https://videocardz.com/newz/intels-discrete-xe-hpg-gaming-gpu-has-been-tested-with-3dmark-mesh-shader-test
Radeonfreak
2021-02-10, 14:08:04
Ach Gottchen, bin ich die einzige die Mal einen wirklich neuen Highend 3DMark will? Früher war das immer ein Highlight, vor allen die Demos.
Aber diese Neverending Zusatzfeatures bis zum Ende der Zeit sind nervig. Völlig überladen das Ding mittlerweile.
Dampf
2021-02-10, 14:19:40
Ach Gottchen, bin ich die einzige die Mal einen wirklich neuen Highend 3DMark will? Früher war das immer ein Highlight, vor allen die Demos.
Aber diese Neverending Zusatzfeatures bis zum Ende der Zeit sind nervig. Völlig überladen das Ding mittlerweile.
Nein bist du nicht!
Ich erwarte sehnlichst einen Benchmark der neue Grafikmaßstäbe setzt und alle DX12 Ultimate Features nutzt.
vinacis_vivids
2021-02-10, 14:51:57
Juhu, neue Hardware gekauft ...
https://abload.de/img/3j5x5656-kei--600x337nvjft.jpg
Der DX12 Ultimate Blick ins 3D-Mark...
https://abload.de/img/2-format2020pykli.jpg
Dampf
2021-02-11, 17:02:26
Der Mesh Shader Benchmark wurde nun released und die Performance-Zuwächse sind sehr beachtlich: https://videocardz.com/newz/ul-releases-3dmark-mesh-shaders-feature-test-first-results-of-nvidia-ampere-and-amd-rdna2-gpus
DrFreaK666
2021-02-11, 18:12:43
Die Radeon-Karten sind da sehr schwach
Gibt es da schon Ankündigungen? Auch das Resize-Bar Feature ist ja schon aktiv, leider hab ich keinen Benchmark mit dem ich das testen kann. Ist doch dafür gedacht dass wenn der Video Speicher mal ausgeht, das nicht zu so heftigen Einbrüchen kommt.
Ist bei mir aktiv, aber Nutzen sehe ich noch keinen. Mit der Nvme sollte das Direct Storage Feature damit zusammen ja auch einen Vorteil bringen.
Na ja dauert immer etwas bis die ganzen Features verwendet werden.
][immy
2021-02-11, 18:37:09
Die Radeon-Karten sind da sehr schwach
naja, der Zuwachs ist schon beachtlich. Aber der Code scheint einfach den Radeon Karten sowohl mit als auch ohne Mesh-Shader nicht besonders zu schmecken. Vor allem liegen alle RDNA2 Karten doch so nahe beieinander, das hier irgendwas anderes limitieren dürfte. Denn die Hardware hat schon ein paar Unterschiede, nur kommen die einfach nicht raus. Daher tippe ich einfach mal auf nen Treiber-Bug (zumal die 6800 vor der 6900 liegt ohne Mesh-Shader).
Gibt bestimmt bald nen neuen Treiber der da was optimiert.
mironicus
2021-02-11, 18:52:57
Ja, AMD soll wohl heute noch einen neuen Treiber veröffentlichen.
TheAntitheist
2021-02-11, 19:49:03
[immy;12596538']naja, der Zuwachs ist schon beachtlich. Aber der Code scheint einfach den Radeon Karten sowohl mit als auch ohne Mesh-Shader nicht besonders zu schmecken. Vor allem liegen alle RDNA2 Karten doch so nahe beieinander, das hier irgendwas anderes limitieren dürfte. Denn die Hardware hat schon ein paar Unterschiede, nur kommen die einfach nicht raus. Daher tippe ich einfach mal auf nen Treiber-Bug (zumal die 6800 vor der 6900 liegt ohne Mesh-Shader).
Gibt bestimmt bald nen neuen Treiber der da was optimiert.
ja da wird einiges im Argen liegen, bei RDNA1 ist ja der geometry/Mesh Shader nie aktiviert worden, obwohl großspurig damit geworben worden ist.
Das einzige was sich wohl nicht ändern wird ist der prozentuale Gewinn, der deutlich unter Nvidias Niveau ist.
BlacKi
2021-02-11, 21:15:45
prozentual kann man sich die auflistung in die haare schmieren. die mesh off werte sind totaler murks. da überholt die 2080super die 2080ti. und die 1660ti zieht an der 3090 vorbei.
Dampf
2021-02-11, 22:49:11
Performance ist mit den neuen Treibern jetzt deutlich besser:
https://pbs.twimg.com/media/Et-cw_pXMAQhGC5?format=jpg&name=large
][immy
2021-02-12, 00:24:16
Performance ist mit den neuen Treibern jetzt deutlich besser:
https://pbs.twimg.com/media/Et-cw_pXMAQhGC5?format=jpg&name=large
Sieht so aus als hätten sie nur den "on" Pfad optimiert während der "off" Pfad noch in irgendein bottleneck rein läuft. Das erhöht natürlich künstlich den Zugewinn mit mesh shader, bringt das die Chips letztendlich aber scheinbar einfach auf Ampere Niveau mit dem Feature.
Warum auch immer kann ich es bei mir gar nicht ausführen. Aber der Windows Virenscanner ist auf 3d Mark angesprungen. Vermute Mal, daß das schon bei der Installation passiert ist und daher unvollständig installiert wurde.
Linmoum
2021-02-12, 01:42:43
Off ist völlig grotesk, egal welcher Hersteller. Wie Blacki schon schrieb, die 1660Ti hat mehr fps als eine 3090. Wie soll man so einen Quatsch überhaupt ernst nehmen?
dargo
2021-02-12, 02:05:31
Wer nimmt denn überhaupt den 3D-Furz ernst? :tongue:
][immy
2021-02-12, 09:30:32
Off ist völlig grotesk, egal welcher Hersteller. Wie Blacki schon schrieb, die 1660Ti hat mehr fps als eine 3090. Wie soll man so einen Quatsch überhaupt ernst nehmen?
Da könnte natürlich eine Komponente limitieren. Bei Mesh-Shadern geht es ja letztendlich um Effizienz. Ohne diese würde ja deutlich mehr geladen & gerendert werden.
Aber ja die Off-Werte sind definitiv seltsam. Eventuell eine CPU Limit oder sonst ware. Ampere muss ja auch nicht bei allem automatisch besser sein als Turing, daher würde ich die Unterschiede dazwischen mal außen vor lassen.
Bei RDNA2 könnte ich mir noch halbwegs vorstellen, das das Speicherinterface limitiert. Aber auch nur halbwegs.
basix
2021-02-12, 10:51:49
Off ist völlig grotesk, egal welcher Hersteller. Wie Blacki schon schrieb, die 1660Ti hat mehr fps als eine 3090. Wie soll man so einen Quatsch überhaupt ernst nehmen?
Off ist eindeutig die CPU, da auf allen GPUs der selben Generation in etwa gleich schnell. Bei Mesh-Shader wird ja Geometrie-Processing auf die GPU ausgelagert, was vorher auf der CPU gelaufen ist. Und Ampere läuft im CPU-Limit einfach schlechter als Turing. Bei RDNA2 sieht es aber relativ übel aus :D Das könnte man aber leicht verifizieren: CPU-Takt auf 2.5 GHz senken.
Ginge der OFF Test auch mit Pascal oder RDNA1?
-/\-CruNcher-/\-
2021-02-12, 11:28:58
1 Grund wieso ich viele Reviews nicht mag sie gehen total an dem AVG vorbei ;)
Frametime Stabilitätstest sind viel ausschlaggebender, Spielgefühl brauch keine Benchmarks, es brauch stabilität.
BlacKi
2021-02-12, 12:34:57
@basix
das ist aber nicht pauschal auf andere spiele übertragbar. denn amd liegt hier mehr als das doppelte hinter nvidia. das bildet sich in den spielen nicht ab. in pubg ist amd sogar schneller als nv im cpu limit.
-/\-CruNcher-/\-
2021-02-12, 12:54:09
@Blacki
in beiden paths ? DX11/DX12
@basix
das ist aber nicht pauschal auf andere spiele übertragbar. denn amd liegt hier mehr als das doppelte hinter nvidia. das bildet sich in den spielen nicht ab. in pubg ist amd sogar schneller als nv im cpu limit.
Hab mal die paar Tests hier im Forum nachgesehen. Je mehr CPU Kerne desto höher die FPS ohne Shader Optimierung. Daher wird das wohl ohne komplett in der CPU laufen.
Die Frage ist für mich, nutzen das Spiele überhaupt so aktuell? Kann man aktuelle Spiele patchen damit ein Mehrgewinn entsteht? Und was kann da zukünftig direkt besser gemacht werden?
][immy
2021-02-12, 13:18:05
Hab mal die paar Tests hier im Forum nachgesehen. Je mehr CPU Kerne desto höher die FPS ohne Shader Optimierung. Daher wird das wohl ohne komplett in der CPU laufen.
Die Frage ist für mich, nutzen das Spiele überhaupt so aktuell? Kann man aktuelle Spiele patchen damit ein Mehrgewinn entsteht? Und was kann da zukünftig direkt besser gemacht werden?
Ich wüsste nicht, welches Spiel dieses Feature einsetzen sollte. Ist ja noch relativ neu und soweit ich weiß muss das relativ früh in der Entwicklung bedacht werden.
Zum Test, ist nun mal ein Feature-Test und mehr nicht. Wie mit so ziemlichen allem, wenn man nur extrem genug in vorgeht, kann ein Feature wahnsinnig viel bringen. Realistisch ist das natürlich nicht. Aber es zeigt, das hier noch einiges auf aktuellen GPUs in Zukunft rausgeholt werden kann.
Andererseits hat sich in der Vergangenheit immer wieder betätigt, wenn die Spiele raus sind, die all das einsetzen, sind die GPUs die die Features von Anfang an unterstützt haben, meist eh zu lahm um daraus noch großen nutzen zu ziehen.
basix
2021-02-12, 14:17:52
@basix
das ist aber nicht pauschal auf andere spiele übertragbar. denn amd liegt hier mehr als das doppelte hinter nvidia. das bildet sich in den spielen nicht ab. in pubg ist amd sogar schneller als nv im cpu limit.
Ich habe mich bei der RDNA2 Aussage auf den Mesh-Shader Test bezogen. Dort kackt AMD aus irgendeinem Grund ab. Spiele sind da etwas ganz anderes ;)
Bei Nividia ist aber Turing und vor allem Pascal in Spielen oftmals schneller im CPU-Limit verglichen mit Ampere.
Der 3DMark Test kann eh nur begrenzt auf Spiele umgemünzt werden. Das war bei diesen Feature-Tests schon immer so.
Dampf
2021-03-26, 16:34:16
Stalker 2 Next Gen Texturen dank Sampler Feedback(?).
https://pbs.twimg.com/media/ExZngrTWEAMWWgw?format=jpg&name=large
https://pbs.twimg.com/media/ExZmgloXMAA6rzs?format=jpg&name=large
https://pbs.twimg.com/media/ExZmgwtXAAAa9lB?format=jpg&name=large
crux2005
2021-03-27, 02:08:29
_XnlzMGVX3I
Ich sehe daran nichts next-gen. Schon aktuelle Spiele haben solche Texturqualität in Zwischensequenzen. Das Stalker 2 sampler feedback benutzt ist gut möglich, weil es auf Xbox Series X/S erscheint.
Interessant ist aber das sie laut https://www.stalker2.com/ eine eigene Engine benutzten. Im Zahn-Editor Fenster links oben ist aber ganz klar das Unreal "U" zu sehen.
dildo4u
2021-03-27, 08:49:28
UE 4.0 wurde schon vor Ewigkeiten bestätigt.
https://twitter.com/stalker_thegame/status/1212810155563397120
-/\-CruNcher-/\-
2021-03-27, 09:01:50
"harmonizing modding"
na da bin ich aber flitzebogen gespannt wie gut sie das hinbekommen und das Gründgerüst umsetzen in ihrem Branch ;)
Mal sehen ob sie es schaffen den Verlust von 4A ordentlich zu kompensieren mit Epics hilfe ;)
Vor allem frag ich mich gerade wie das im Endeffekt aussehen soll mit all den Epic IP Lizensbeschränkungen
Hoffe mal deren Lawyer hat die auch genau durchgelesen ;)
Dampf
2021-04-20, 20:19:17
DirectStorage ist kompatibel zu allen Geräten mit NVMe-SSD und DX12 GPUs.
Für die beste Erfahrung wird eine DX12 Ultimate kompatible GPU empfohlen (Turing, Ampere, RDNA2)
Quelle: GameStack Live Q&A
Locuza
2021-04-20, 22:58:14
Jemand hat einige oder alle Slides dazu auf Reddit gepostet, zusammen mit ein paar Q&A-Antworten:
https://www.reddit.com/r/hardware/comments/muwsn8/directstorage_for_pc_will_support_pcie_30_nvme/
Badesalz
2021-04-27, 12:13:16
Welchen Grund hätte es denn geben sollen, daß dies mit 3.0 nicht laufen könnte? Selbst an der GPU ist sampler feedback dafür nur nett, aber nicht zwingend.
Übrigens, was ist schneller? DDR4-top/DDR5 oder Nvme? Ah so...
Es wird sogar mit HDDs laufen, der Vorteil ist dann eben überschaubar.
Dampf
2021-05-24, 23:23:10
Justice(ein China MMO) dient nun als Playground für Mesh Shading:
https://www.youtube.com/watch?v=rWr--L8pCv8
Sehr beeindruckend! Läuft in 4K und 60 FPS auf einer 3060Ti.
Gibt es eigentlich schon ein Spiel was Dx12 Ultimate ausnutzt? Hab gerade gesehen die Game Bar zeigt an mein System ist READY
Dampf
2021-05-25, 10:22:52
Gibt es eigentlich schon ein Spiel was Dx12 Ultimate ausnutzt? Hab gerade gesehen die Game Bar zeigt an mein System ist READY
Nicht wirklich. Einige neue Spiele nutzen zwar DX12U aber nur für Raytracing oder VRS. Ein Spiel was DX12U richtig ausnutzt, gibt es noch nicht.
Das werden dann erst richtige Next Gen Titel sein, also Titel die Raytracing, VRS, Sampler Feedback und Mesh Shading kombiniert nutzen. Dazu noch eine Prise DirectStorage SSD Streaming, viel mehr Interaktionen/Physik/AI und fertig ist der Next Gen Titel.
Platos
2021-05-25, 12:26:43
DirectStorage ist soch noch nicht mal in DerectX am PC? Das kommt erst noch dieses Jahr (angeblich)
Dampf
2021-06-24, 21:12:18
DirectStorage braucht eine DX12 Ultimate GPU und mindestens eine 1 TB NVMe
DirectStorage requires 1 TB or greater NVMe SSD to store and run games that uses the "Standard NVM Express Controller" driver and a DirectX 12 Ultimate GPU.
https://www.microsoft.com/en-us/windows/windows-11-specifications
Komisch, das widerspricht sich mit den vorherigen Spezifikationen, dass DirectStorage auf jeder DX12 GPU und NVMe laufen würde.
aufkrawall
2021-06-24, 21:24:18
Wurde das denn gesagt? Ich kann mich nur erinnern, dass es auch mit Turing funktionieren sollte, was ja durch den DX12U-Zusatz keine Einschränkung wäre.
Dampf
2021-06-24, 21:35:35
Wurde das denn gesagt? Ich kann mich nur erinnern, dass es auch mit Turing funktionieren sollte, was ja durch den DX12U-Zusatz keine Einschränkung wäre.
Turing hat ja DX12 Ultimate Support, also ja.
Auf der Webseite steht, dass man eine DX12U GPU braucht. Also benötigt man Turing, Ampere oder RDNA2.
Lustigerweise steht im Xbox Tool oder so mein System wäre Dx12 Ultimate fähig. Hab aber nur eine 512gb Nvme. Das wird eh wieder komplett nur mit Win11 laufen. Also Update Zwang
Dampf
2021-06-24, 22:12:55
Lustigerweise steht im Xbox Tool oder so mein System wäre Dx12 Ultimate fähig. Hab aber nur eine 512gb Nvme. Das wird eh wieder komplett nur mit Win11 laufen. Also Update Zwang
Das hat damit nix zu tun.
Wenn du Turing, Ampere oder RDNA2 hast, dann hast du DX12 Ultimate.
Deine SSD spielt nur für DirectStorage eine Rolle.
Ach so. Dachte Storage gehört dazu
Ex3cut3r
2021-06-24, 22:17:28
Verstehe die 1TB Anforderung wieder mal nicht. Gibt auch 512GB PCIe 4.0 NVMEs die Sau Schnell sind. Warum werden die jetzt ausgeschlossen von Direct Storage? Will MS hier HW verkaufen? Merkwürdig. :confused:
][immy
2021-06-24, 22:36:32
Verstehe die 1TB Anforderung wieder mal nicht. Gibt auch 512GB PCIe 4.0 NVMEs die Sau Schnell sind. Warum werden die jetzt ausgeschlossen von Direct Storage? Will MS hier HW verkaufen? Merkwürdig. :confused:
Tja gute Frage. Aber bis sich das wirklich durchgesetzt hat, wirst du vermutlich über 1TB SSDs lachen ^^
Aktuell habe ich auch nur eine 512GB NVME SSD bei mir drin, der Rest sind normale SATA SSDs. Was aber auch dem Umstand geschuldet ist, das ich halt nur einen m.2 Slot habe.
Auf Dauer werden die Mainboards entweder mehr m.2 Slots benötigen, oder es wird endlich Zeit das man ein neue SATA standard kommt mit ähnlichen Leistungswerten.
Da aber relativ Lange Kabel verwendet werden (im PC) gehe ich nicht davon aus, das da sobald noch was kommen wird.
Ex3cut3r
2021-06-24, 22:38:24
Ich habe ne PCIe 4.0 NVME mit 1TB ne Corsair Dingens. Trotzdem ist ne ab 1TB Only Beschränkung einfach nur bescheuert und grenzt an Absprache mit HW Herstellern, wie viel hat MS dafür bekommen frage ich mich?
Und warum auf Dauer? Vlt. sieht man im Herbst/Winter schon die ersten Next Gen Games die Direct Storage unterstützen.
Schweine! ^^
SentinelBorg
2021-06-25, 00:13:54
Sehe ich das richtig, dass die SSD für DS dann exklusiv ist? Also als sonstiger Systemdatenträger wegfällt? Klingt zumindest so und würde es natürlich massiv vereinfachen im Hinblick darauf, dass man die ganze normale Abstraktion im Bereich Storage (Filesystem, Virenscanner, Bitlocker usw.) umgeht.
][immy
2021-06-25, 10:23:45
Sehe ich das richtig, dass die SSD für DS dann exklusiv ist? Also als sonstiger Systemdatenträger wegfällt? Klingt zumindest so und würde es natürlich massiv vereinfachen im Hinblick darauf, dass man die ganze normale Abstraktion im Bereich Storage (Filesystem, Virenscanner, Bitlocker usw.) umgeht.
Soweit ich verstanden habe, ist es dann kein NTFS was du für die NVME nutzt.
Von MS gab es da mal ein Dokument zu, wie stark man die Zugriffe allein dadurch beschleunigen kann, wenn man die Daten-Map für eine Anwendung direkt in den Speicher laden kann und diese dann verwendet. Das erfordert natürlich zusätzlichen Speicherplatz auf der SSD wird dann aber quasi am Stück gelesen und dadurch kann man die Latenzen durch den Zugriff auf Daten erheblich minimieren (denn irgendwo muss ja auch stehen, welche Daten wo liegen). Wenn ich mich recht entsinne erfordert das ganze etwa 0,5GB Speicher für 100GB Daten.
Gaston
2021-06-25, 11:42:55
DirectStorage braucht eine DX12 Ultimate GPU und mindestens eine 1 TB NVMe
DirectStorage requires 1 TB or greater NVMe SSD to store and run games that uses the "Standard NVM Express Controller" driver and a DirectX 12 Ultimate GPU.
https://www.microsoft.com/en-us/windows/windows-11-specifications
Komisch, das widerspricht sich mit den vorherigen Spezifikationen, dass DirectStorage auf jeder DX12 GPU und NVMe laufen würde.
DirectStorage braucht eine DX12 Ultimate GPU und mindestens eine 1 TB NVMe
DirectStorage requires 1 TB or greater NVMe SSD to store and run games that uses the "Standard NVM Express Controller" driver and a DirectX 12 Ultimate GPU.
https://www.microsoft.com/en-us/windows/windows-11-specifications
Komisch, das widerspricht sich mit den vorherigen Spezifikationen, dass DirectStorage auf jeder DX12 GPU und NVMe laufen würde.
Grad bei Pcgh - Raff hat gesehen das sich das erledigt hat. Dort steht nun ein neuer Text: https://extreme.pcgameshardware.de/threads/direct-storage-in-windows-11-ssd-turbo-kommt-nicht-fuer-windows-10.606307/#post-10785697 (#28)
mfg
dargo
2021-06-25, 14:35:33
DirectStorage braucht eine DX12 Ultimate GPU und mindestens eine 1 TB NVMe
DirectStorage requires 1 TB or greater NVMe SSD to store and run games that uses the "Standard NVM Express Controller" driver and a DirectX 12 Ultimate GPU.
https://www.microsoft.com/en-us/windows/windows-11-specifications
Komisch, das widerspricht sich mit den vorherigen Spezifikationen, dass DirectStorage auf jeder DX12 GPU und NVMe laufen würde.
Ich lese dort nur das hier.
DirectStorage requires an NVMe SSD to store and run games that use the "Standard NVM Express Controller" driver and a DirectX12 GPU with Shader Model 6.0 support.
Von 1TB oder mehr steht da nichts.
Ex3cut3r
2021-06-25, 14:51:03
Ja, gestern stand das aber noch da. Heute nicht mehr. Macht auch keinen Sinn, da eine 1TB Grenze zu machen. Da es auch 512GB NVMEs mit PCIe 4.0 gibt, und diese sind Sau schnell.
dargo
2021-06-25, 15:00:37
Hehe... ok, dann hatte gestern wohl ein Praktikant bei MS es falsch dargestellt. :D
PS: mal ne Frage am Rande... gibt es irgendwelche Mindestvoraussetzungen beim Speed der SSD oder wird da jeder Dev seine eigenen Angaben machen müssen? Ich frage deshalb weil ich die SSDs mit 7000MB/s Lesen noch zu teuer finde. Unter 1TB interessiert mich nichts mehr. Am liebsten wäre mir die nächste SSD gleich mit 2TB.
Ex3cut3r
2021-06-25, 15:05:54
Nein, soweit ich weiß ist grundsätzlich jede NVME dazu fähig. Es werden aber kommende Next Gen Titeln, die auch auf der Konsole großen gebrauch davon machen, die Messlatte darstellen. Ich sag mal so. Ne PCIe 4.0 NVME sollte es schon sein.
dargo
2021-06-25, 15:08:57
Begründung? Ladezeiten sind mir wurscht. Zwischen PCIe 4.0 NVME mit 7000MB/s und PCIe 3.0 NVME mit 3000-3500MB/s erwarte ich bei Ladezeiten eh keinen nennenswerten Unterschied. Ich sags mal so 10-20 Sekunden Unterschied juckt mich überhaupt nicht. :) Aktuell habe ich nur SATA SSDs und bin mit den Ladezeiten absolut zufrieden.
Ex3cut3r
2021-06-25, 15:11:45
Begründung? Ladezeiten sind mir wurscht. Zwischen PCIe 4.0 NVME mit 7000MB/s und PCIe 3.0 NVME mit 3000-3500MB/s erwarte ich bei Ladezeiten eh keinen nennenswerten Unterschied. Ich sags mal so 10-20 Sekunden Unterschied juckt mich überhaupt nicht. :) Aktuell habe ich nur SATA SSDs und bin mit den Ladezeiten absolut zufrieden.
Ratchet und Clank mal angesehen?
Wenn ein Next Gen Kracher kommt, und man innerhalb von sekunden ne andere Welt sieht, will man doch nicht 10 Sekunden nen Schwarzen Bildschirm anklotzen.
dildo4u
2021-06-25, 15:14:58
Ich würde gar nix kaufen bis das auf dem PC eine Rolle spielt hast du eine deutlich breitere Auswahl an Hardware als Heute.
dargo
2021-06-25, 15:15:09
@Exe
Wie gesagt... mich stört das nicht. :)
Ich würde gar nix kaufen bis das auf dem PC eine Rolle spielt hast du eine deutlich breitere Auswahl an Hardware als Heute.
Würde ich auch normalerweise nicht. Das Problem ist nur, dass meine Mutter einen älteren Laptop mit ner 2,5" HDD hat. Ich bekomme jedes Mal einen Anfall wie lahm diese Kiste beim Start ist und erst recht bei Windows-Updates. Die allgemeine Bedienung ist einfach kacke. Deshalb wollte ich ihr eine 500GB SATA SSD von mir verbauen und dann würde ich die 500GB schon etwas vermissen. Ergo muss ich mir was Neues anschaffen. Zur Not halt erstmal nur 1TB zb. sowas hier.
https://geizhals.de/western-digital-wd-black-sn750-nvme-ssd-1tb-wds100t3x0c-00sjg0-dbrpg0010bnc-wrsn-a1969746.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Ex3cut3r
2021-06-25, 15:47:06
Ok. Wenn es dich nicht stört. Ich finde ja PCler sollten immer eine bessere Erfahrung als Konsolen bieten. Wir zahlen ja auch um einiges mehr.
w0mbat
2021-06-25, 15:56:09
Ratchet und Clank mal angesehen?
Wenn ein Next Gen Kracher kommt, und man innerhalb von sekunden ne andere Welt sieht, will man doch nicht 10 Sekunden nen Schwarzen Bildschirm anklotzen.
Die besten gen4 NVMe SSDs sind ca. doppelt so schnell, d.h. wenn die 1 Sekunde laden, dann wäre ne gen3 zwei Sekunden am laden.
Ex3cut3r
2021-06-25, 16:00:41
Alles nur Spekulation auch von mir.
Am PC sollte man immer einen Overhead anrechnen, sodass man meistens mehr Leistung braucht als die Konsole und das jedem Bereich.
Alles nur Spekulation auch von mir.
Am PC sollte man immer einen Overhead anrechnen, sodass man meistens mehr Leistung braucht als die Konsole und das jedem Bereich.
Ist das noch immer so? Ein PC macht ja so viel auch nicht und gerade was die Xbox angeht, ist die doch recht nach an Windows.
Ex3cut3r
2021-06-25, 16:08:05
Nja. So schlimm wie zu DX11 oder 9 Zeiten ist es nicht mehr. Aber ja. Von einer wirklichen HW nahem Umgebung wie auf der Konsole sind wir leider immer noch sehr weit entfernt.
Dazu kommen dann auch noch Spiele bzw. Entwickler die wirklich sehr zeiteng einen Spiel auf den PC Porten müssen. Shader Compile Stocker sind in 50% der neuen DX12 Titeln immer mal wieder drin. :redface:
Tesseract
2021-06-25, 16:18:07
bei DS geht es nicht um klassische ladezeiten wo man ein paar sekunden weniger wartet (dafür braucht man kein DS) sondern um das streaming von daten wärend dem gameplay. wenn die anforderungen da nicht passen stottert das spiel vor sich hin oder details werden dynamisch schlechter. man braucht dafür aber sicher kein PCIe 4.0 und vielleicht nicht mal die maximale bandbreite von PCIe 3.0. den großen unterschied macht der geringe overhead und die geringe latenz durch NVMe mit einer bandbreite die selbst bei budget NVMe drives größenordnungen über klassischen HDDs liegt, die bisher das paradigma waren.
][immy
2021-06-25, 17:35:07
Ratchet und Clank mal angesehen?
Wenn ein Next Gen Kracher kommt, und man innerhalb von sekunden ne andere Welt sieht, will man doch nicht 10 Sekunden nen Schwarzen Bildschirm anklotzen.
auch R&C hat ladebildschirme. Nur gut versteckt mit dem Portal das man durchquert.
Bei den Welt-Änderungen wenn man z.B. auf den Kristall haut, wird nicht alles neu geladen dementsprechend das merkt man z.B. daran, das der Weltenwechsel mittels Portal länger dauert ;)
Hier lässt sich gewiss vieles mit mehr Speicher (haben heutige PCs nunmal mit GPU Speicher + Hauptspeicher) und initialer Startzeit abfangen, so das die SSD nur noch wenig nachladen muss. Das viel wichtigere ist, das die CPU nicht dauerhaft mit Entpacken auf der PS5 beschäftigt ist.
Noch mal der Hinweis, nicht alles was wir bei Ladebildschirmen sehen ist mit IO Bandbreite auszugleichen. Spiele sind keine Videos. Da müssen CPU & GPUs eventuell hier und da einige Berechnungen beim start durchführen. Am PC würde man klassischerweise noch ein wenig die Shader etc kompilieren/optimieren für die Ziel-Hardware. Auch das braucht zumindest einmalig seine Zeit. Aber auch die Welt will berechnet Sein, wo steht welcher NPC nach Zeit x die vergangen ist, was hat sich verändert, was folgt daraus, ...
R&C ist halt darauf ausgelegt so gut wie keine Ladezeiten zu haben, aber die Schlauchige Welt ist auch nicht grad "dynamisch" was die KI oder sonstiges angeht, "nur" der Wechsel geht halt recht flott.
aufkrawall
2021-06-25, 17:57:26
[immy;12717994']auch R&C hat ladebildschirme. Nur gut versteckt mit dem Portal das man durchquert.
Nein, afaik ist der Übergang nahtlos.
][immy
2021-06-25, 18:07:30
Nein, afaik ist der Übergang nahtlos.
Nicht ganz. Bei den Portalen, wo man zu einer anderen Welt reist kommt man erst in diese Zwischendimension und dann nach 1-2s in die neue Welt. Das ganze dauert insgesamt ein wenig (wirklich wenig). Aber bei dem Kristall um die Welt zu Switchen geht das ganze innerhalb einer Sekunde.
Aber allein dadurch, das man nicht mehr dicke Resourcen-Pakete schnürt, sondern nur noch die benötigten Daten lädt, spart man eine ganze Menge Bandbreite. Bei der xbox ist das ja scheinbar noch granularer was geladen werden kann. Da müsste dann alles in noch kleinere Häppchen zerlegt sein.
Auf dem PC wird das ein ziemlicher Bruch. Da muss MS wohl den Leuten erst mal wieder erklären, wie man den Speicherplatz denn verwendet.
dargo
2021-06-25, 18:46:31
bei DS geht es nicht um klassische ladezeiten wo man ein paar sekunden weniger wartet (dafür braucht man kein DS) sondern um das streaming von daten wärend dem gameplay. wenn die anforderungen da nicht passen stottert das spiel vor sich hin oder details werden dynamisch schlechter. man braucht dafür aber sicher kein PCIe 4.0 und vielleicht nicht mal die maximale bandbreite von PCIe 3.0. den großen unterschied macht der geringe overhead und die geringe latenz durch NVMe mit einer bandbreite die selbst bei budget NVMe drives größenordnungen über klassischen HDDs liegt, die bisher das paradigma waren.
Naja... das gilt sicherlich für die Konsolen mit alt vs. neu. Aber am PC? Keine Ahnung wie das bei anderen so aussieht aber ich verwende nur noch ausschließlich SATA SSDs am PC seit vielen Jahren. Aus zwei Gründen... erstens machen mich die üblichen HDD-Geräusche wahnsinnig und zweitens fühlt sich ein PC mit HDD vs. SSD kaputt an bzw. Schwuppdizität.
Tesseract
2021-06-25, 20:17:53
es geht nicht darum was du persönlich verwendest sondern darum dass HDDs bis vor kurzem auf konsolen der kleinste gemeinsame nenner waren und die spiele deswegen grundlegend darauf ausgelegt sein mussten. mit DS holt man aus softwaresicht quasi in einem schritt die letzten 10+ jahre SSD-entwicklung nach (haufenweise queues, um größenordnungen bessere latenz, vielfach höhere bandbreite usw). von PCIe 3.0 auf 4.0 ist es dann "nur noch" doppelte maximale bandbreite.
just4FunTA
2021-06-25, 20:40:29
Naja... das gilt sicherlich für die Konsolen mit alt vs. neu. Aber am PC? Keine Ahnung wie das bei anderen so aussieht aber ich verwende nur noch ausschließlich SATA SSDs am PC seit vielen Jahren. Aus zwei Gründen... erstens machen mich die üblichen HDD-Geräusche wahnsinnig und zweitens fühlt sich ein PC mit HDD vs. SSD kaputt an bzw. Schwuppdizität.
ja von der hdd habe ich mich am pc auch vor längerem verabschiedet, aber bin trotzdem enttäuscht von den Ladezeiten auf dem PC. Da muss erst die PS5 kommen damit man sieht was seit Jahren auf dem PC möglich wäre aber nicht genutzt wird. :/
Allein schon Battlefield 5 oder auch Dirt5 da kommt mir jedesmal das kotzen wenn ich eines dieser Spiele starte. Und dann das krasse Gegenteil die PS5 Spiele die innerhalb von ~6sek ins Menü Laden und dann vom Menü ins Spiel innerhalb von 1 bis 2 Sekunden. Das hätten wir aufm PC schon vor Jahren haben können.. :freak:
dargo
2021-06-25, 20:56:58
es geht nicht darum was du persönlich verwendest sondern darum dass HDDs bis vor kurzem auf konsolen der kleinste gemeinsame nenner waren und die spiele deswegen grundlegend darauf ausgelegt sein mussten. mit DS holt man aus softwaresicht quasi in einem schritt die letzten 10+ jahre SSD-entwicklung nach (haufenweise queues, um größenordnungen bessere latenz, vielfach höhere bandbreite usw). von PCIe 3.0 auf 4.0 ist es dann "nur noch" doppelte maximale bandbreite.
Ok... ich verstehe. Wir haben am PC nicht von den SSDs so viel bei Games profitiert weil die Software eben noch auf HDDs ausgelegt war. Im Prinzip macht man also nichts falsches wenn man sich eine halb so schnelle SSD wie bsw. in der PS5 holt. Im schlimmsten Fall werden nur die Ladezeiten doppelt so lang wie auf der PS5 sobald entsprechende Games am PC verfügbar sind?
Allein schon Battlefield 5 oder auch Dirt5 da kommt mir jedesmal das kotzen wenn ich eines dieser Spiele starte. Und dann das krasse Gegenteil die PS5 Spiele die innerhalb von ~6sek ins Menü Laden und dann vom Menü ins Spiel innerhalb von 1 bis 2 Sekunden. Das hätten wir aufm PC schon vor Jahren haben können.. :freak:
Was soll man dazu sagen? Ein schönes, weiteres Beispiel wie unbedeutend der PC alleine für die Spieleindustrie ist?
Ex3cut3r
2021-06-25, 23:18:47
Also ich werde da wegen 50-60€ nicht knausern. Warum sollte ich bei nem neukauf auf ne Gen 3 NVME setzen? Bei der Preisdifferenz. Für was hat man Zen 2/Zen 3 mit Gen 4 überhaupt? :tongue:
Bis das erste Direct Storage am PC kommt, dürfte der Preis weiter gesunken sein.
https://geizhals.de/western-digital-wd-black-sn850-nvme-ssd-1tb-wds100t1x0e-00afy0-a2401294.html?hloc=de
Ist das noch immer so? Ein PC macht ja so viel auch nicht und gerade was die Xbox angeht, ist die doch recht nach an Windows.
Nicht wirklich, das bisschen Overhead kann man durch mehr Kerne und mehr RAM leicht erschlagen.
Platos
2021-06-25, 23:45:30
es geht nicht darum was du persönlich verwendest sondern darum dass HDDs bis vor kurzem auf konsolen der kleinste gemeinsame nenner waren und die spiele deswegen grundlegend darauf ausgelegt sein mussten. mit DS holt man aus softwaresicht quasi in einem schritt die letzten 10+ jahre SSD-entwicklung nach (haufenweise queues, um größenordnungen bessere latenz, vielfach höhere bandbreite usw). von PCIe 3.0 auf 4.0 ist es dann "nur noch" doppelte maximale bandbreite.
Ich hätte da mal eine Frage. Wie genau funktioniert DS eigentlich? Ich verstehe das Prinzip bei z.B der PS5. Die Konsolen haben einen gemeinsamen Speicherpool und bisher musste eben sehr viel vorgeladen werden in diesen Speicherpool, weil die HDD so langsam war. Aber nicht nur deshalb eigentlich. Ohne zusätzliche Customhardware, hätte eine so schnelle SSD auch nicht viel gebracht. Die Daten müssten ja dann alle von der CPU dekomprimiert werden (und hier liegt ja die "magie" hinter Direct Storage). Bei der PS5 macht das die Custom Hardware, mit Direct Storage kann das nun die GPU machen. Soweit so gut, aber bisher konnte ich nicht herausfinden, welche Daten die GPU bei Direct Storage dekomprimieren kann/wird.
Denn bei den Konsolen gibts ja wie gesagt einen gemeinsamen Speicherpool. Also jegliche Daten werden (dank der Customhardware) von der schnellen SSD gelesen, ohne die CPU zu belasten. Aber am PC gibts keinen gemeinsamen Speicherpool. Was kann die GPU hier also machen? Kann sie "nur" die Daten dekomprimieren, die in den Grafikspeicher müssen oder kann sie auch Daten dekomprimieren, die dann aber in den Arbeitsspeicher müssen?
Wenn sie das nicht kann, müssten ja sämtliche Daten, die in den Arbeitsspeicher müssen, am PC immer noch von der CPU dekomprimiert werden (an den Konsolen übernimmt das immer die "dekomprimierungseinheit"). Damit wäre doch der PC immer noch technisch benachteiligt?
Und noch eine Frage: An den Konsolen wird ja niemals "direkt" von der SSD gelesen. Also es wird ja trotzdem noch in den gemeinsamen Speicherpool geladen vorher. Aber wie ist das bei Direct Storage? Kann man da wirklich ohne Umwege über den RAM von der SSD in den GPU Speicher laden?
Aber nochmals zu meiner Ursprungsfrage: Welche Daten wird die GPU denn dekomprimieren können bzw. die CPU entlasten? Kann die GPU das bei jeglichen Daten, die von der SSD gelesen werden oder nur bei Daten, die in den Grafikspeicher müssen? Denn dann hätte der PC ja immer noch einen deutlichen Nachteil im Vergleich zu den Konsolen. Jegliche Daten, die in den CPU-RAM müssen, müssten von der CPU dekomprimiert werden und bei PCI-E 4.0 SSDs wird die CPU da ganz klar zum Flaschenhals.
Nicht wirklich, das bisschen Overhead kann man durch mehr Kerne und mehr RAM leicht erschlagen.
Deswegen hat die PS5 extra Customhardware, die so schnell dekomprimieren kann wie 9 Zen2 Kerne? Dann könnte man sich gleich mind. 16 Kerner kaufen, wenn nicht lieber 24 Kerner.
Ok... ich verstehe. Wir haben am PC nicht von den SSDs so viel bei Games profitiert weil die Software eben noch auf HDDs ausgelegt war. Im Prinzip macht man also nichts falsches wenn man sich eine halb so schnelle SSD wie bsw. in der PS5 holt. Im schlimmsten Fall werden nur die Ladezeiten doppelt so lang wie auf der PS5 sobald entsprechende Games am PC verfügbar sind?
Das verstehst du falsch. In modernen Spielen gibt es doch abseits von Savegames laden (also ingame) sowieso nur noch selten wirkliche Ladescreens. Das wird meistens alles durch irgendwelche Sequenzen "überdeckt" oder "Fahrstuhlszenen". Diese Szenen sind aber genau designt und dauern quasi so lange, dass du selbst mit einer mittelmässigen/langsamen HDD noch genug Zeit hast um zu laden. Würdest du deine HDD über USB 2.0 anschliessen, würde das vermutlich übelste Probleme geben (Denn der kleinste Nenner wäre die Geschw. einer HDD).
Das selbe Prinzip wäre dann mit nvme SSDs vs Sata SSDs. Wenn diese "Fahrstuhlsequenz" nun eben nicht mehr 10-30s dauert, sondern nur noch eine kleine Übergangsanimation von 1-3s ist, dann geht das eben nur mit diesen Speichermedien, die genug schnell dafür sind. Wenn also ein Spiel so designt ist, dass es eine nvme SSD benötigt, dann braucht es die auch.
Es geht also nicht um "dann warte ich eben ein paar Sekunden länger". Du würdest Ladezeiten dort haben, wo eig. gar keine sein sollten. Also Hänger.
SentinelBorg
2021-06-26, 02:15:56
Die Daten werden ins VMEM geladen, dort kann die CPU aber ja auch Dinge lesen und bearbeiten (mit PCIe 4.0 und Large BAR ist das auch nicht mehr so schlimm heutzutage).
Ob es den kranken Peak Speed der PS5 dabei wirklich überhaupt je braucht, wird sich zeigen. Im Interview mit DF hat ja der R&C Entwickler gesagt, dass ihre Engine eigentlich oft gar nicht mehr hinterher kam, so schnell wie die PS5 die Daten anliefert. Ich denke das wird eher nicht der Fall sein und ansonsten kann man es auch mit intelligentem Prefetch, Caches und im schlimmsten Fall einer super kurzen Animation überdecken.
Und letztlich ist das eh nur ein Kurzzeitthema. In einem Jahr bekommst du auch schon die 6 GB/s PCIe 4 SSDs hinterhergeschmissen und dann kommen auch schon die PCIe 5 Modelle um die Ecke. ^^
TheAntitheist
2021-06-26, 03:26:26
Nicht wirklich, das bisschen Overhead kann man durch mehr Kerne und mehr RAM leicht erschlagen.
Naja für den Overhead brauch man mehr als 8 CPU Kerne allein fürs dekomprimieren was der "Kraken controler" der PS5 alleine schaft.
SentinelBorg
2021-06-26, 04:40:42
Nun es scheinen ja ähnliche Dekomprimier Einheiten bereits seit geraumer Zeit in RTX sowie Navi GPUs rumzudümpeln. Was für Formate die genau unterstützen ist mir unbekannt. Nvidia schreibt bei RTX I/O nur "lossless" sowie "by a factor of 2" und für nähere Details muss man registrierter Entwickler sein. Ich vermute mal, es ist BCPack wie in der XBox.
dargo
2021-06-26, 07:37:57
Das verstehst du falsch. In modernen Spielen gibt es doch abseits von Savegames laden (also ingame) sowieso nur noch selten wirkliche Ladescreens. Das wird meistens alles durch irgendwelche Sequenzen "überdeckt" oder "Fahrstuhlszenen". Diese Szenen sind aber genau designt und dauern quasi so lange, dass du selbst mit einer mittelmässigen/langsamen HDD noch genug Zeit hast um zu laden. Würdest du deine HDD über USB 2.0 anschliessen, würde das vermutlich übelste Probleme geben (Denn der kleinste Nenner wäre die Geschw. einer HDD).
Das selbe Prinzip wäre dann mit nvme SSDs vs Sata SSDs. Wenn diese "Fahrstuhlsequenz" nun eben nicht mehr 10-30s dauert, sondern nur noch eine kleine Übergangsanimation von 1-3s ist, dann geht das eben nur mit diesen Speichermedien, die genug schnell dafür sind. Wenn also ein Spiel so designt ist, dass es eine nvme SSD benötigt, dann braucht es die auch.
Es geht also nicht um "dann warte ich eben ein paar Sekunden länger". Du würdest Ladezeiten dort haben, wo eig. gar keine sein sollten. Also Hänger.
Ähm... dann rückt DirectStorage am PC noch weiter in die Zukunft als ich dachte. Wie lange soll das bitte dauern bis kein PC-Gamer mehr eine HDD hat? 10+ Jahre? :freak: Zumal ja mindestens Turing oder RDNA2 auch im Rechner stecken muss. Gut... auf jeden PC-Gamer wird man natürlich keine Rücksicht nehmen. Die Frage ist halt ab wie vielen Millionen PC-Spielern der Punkt kommt wo die Devs sich für DirectStorage entscheiden und wann diese Zahl auch tatsächlich erreicht ist? Weil irgendwelche Hänger im Gameplay fände ich schon unzumutbar.
Edit:
Wenn ich den Beitrag von SentinelBorg lese dann gehe ich nicht davon aus, dass die Speedanforderungen bei den SSDs in der Übergangsphase (also die ersten Jahre) so hoch sein werden. Wenn schon die Devs von R&C schreiben, dass ihre Engine mit der PS5 HW nicht hinterher kommt.
Kann mir schon vorstellen dass bald PC Spiele nur noch auf SSD laufen. Direct Storage wird mit der Verknüpfung an win11 erstmal kein Thema. Danke Microsoft
Tesseract
2021-06-26, 12:04:47
Wie genau funktioniert DS eigentlich? Ich verstehe das Prinzip bei z.B der PS5. Die Konsolen haben einen gemeinsamen Speicherpool und bisher musste eben sehr viel vorgeladen werden in diesen Speicherpool, weil die HDD so langsam war.
das grundlegende prinzip ist ähnlich.
(vereinfacht)
klassisch: GPU braucht demnächst irgendwelche daten die nicht im vram sind -> engine sagt dem OS welche datei gelesen werden soll -> OS übersetzt das ganze für das dateisystem (z.B. NTFS) und spielt das volle programm mit zugriffsrechten, file table lookups usw. durch -> daten werden als größerer blob sequenziell in dem ram kopiert (weil günstig für HDD) -> CPU dekomprimiert bzw. reorganisiert die daten im ram damit sie von der GPU nutzbar sind -> treiber schickt die daten (also den teil der wirklich gebraucht wird) über PCIe in den vram und teilt der GPU mit wo im vram sie liegen -> GPU liest sie aus dem vram
direkt: GPU braucht demnächst irgendwelche daten die nicht im vram sind -> engine sagt der GPU auf blockebene wo auf der SSD die daten liegen -> GPU liest über PCIe direkt von der SSD genau die blöcke die gebraucht werden und dekomprimiert sie direkt in den vram rein.
bei den konsolen fällt klassisch halt der transfer von ram in vram weg und der OS-overhead ist geringer.
Naja für den Overhead brauch man mehr als 8 CPU Kerne allein fürs dekomprimieren was der "Kraken controler" der PS5 alleine schaft.
für live-dekompression auf der CPU würde man aber kein kraken nehmen sondern einen anderen algorithmus der ein paar wenige prozent größer ist aber um ein vielfaches schneller dekomprimiert.
HeroQuest
2021-06-26, 12:19:05
Und noch eine Frage: An den Konsolen wird ja niemals "direkt" von der SSD gelesen. Also es wird ja trotzdem noch in den gemeinsamen Speicherpool geladen vorher. Aber wie ist das bei Direct Storage? Kann man da wirklich ohne Umwege über den RAM von der SSD in den GPU Speicher laden?
Bei der PS5 wird direkt von der SSD gelesen. Die Cache Scrubbers erlauben es der SSD, die Daten direkt in den on-chip memory und damit auch direkt in den Frame zu laden. Die Xbox Series X und auch die Series S besitzen keine Cache Scrubbers. Da wird in den Speicher geladen.
ChaosTM
2021-06-26, 12:24:14
Solange Sachen wie Ratchet & Clank dann am PC genauso seemless möglich sind wie auf der PS5 bin ich schon zufrieden.
Ist halt nur schade, dass der PC momentan dank der Unfähigkeit und Unwilligkeit seitens MS, technologisch tw. hinter den Konsolen her hinkt.
HeroQuest
2021-06-26, 12:38:09
Nach meinem Verständnis sorgen dir Cache Scrubbers in erster Linie dafür, dass die PS5 GPU weniger selten den Cache leeren muss und dadurch weniger selten Däumchen dreht bis alles wieder nachgeladen ist. Es macht die SSD nicht schneller, sondern die GPU effizienter. Sowas lässt sich doch bestimmt irgendwie mit der Brechstange auf dem PC nachbilden. Moderne PC GPUs kosten immerhin mehr als eine gesamte Konsole.
ChaosTM
2021-06-26, 12:41:18
Mit viel (V)RAM wird man das Problem schon irgendwie nachbilden/erschlagen können denk ich mir.
HeroQuest
2021-06-26, 12:53:33
Viel VRAM nützt dir da nach meinem Verständnis überhaupt nix. Es geht ja eher darum, dass die GPU so wenig wie möglich auf den RAM zugreifen soll.
Die GPU arbeitet immer nur mit den Daten, die im on-chip Memory liegen. Muss die GPU neue Daten aus dem VRAM in den on-chip Memory laden, ist das als würdest du den Grafikprozessor in den Kälteschlaf schicken. So langsam ist der Vram im Vergleich zum GPU Cache.
Sonys Lösung minimiert die Zugriffe auf den RAM. Immer wenn sich was im RAM tut, weiß die GPU genau was abgeht und lädt nur das nach, was relevant ist. Die Xbox GPU hingegen leert den Cache komplett und lädt alles nochmal neu. Und wenn man ein Laufwerk wie in den neuen Konsolen hat, liegt es durchaus nahe, dass sich sehr viel im RAM tut.
Wenn man es sehr genau nimmt, lädt auch die PS5 nicht direkt von der SSD in die GPU. Der Vorgang, bis die Daten von der SSD auf dem Bildschirm angelangt sind, ist aber derart beschleunigt, dass man praktisch schon davon sprechen kann.
y33H@
2021-06-26, 12:59:22
Also Texturen liegen sicherlich nicht in den Caches ...
Platos
2021-06-26, 13:13:40
das grundlegende prinzip ist ähnlich.
(vereinfacht)
klassisch: GPU braucht demnächst irgendwelche daten die nicht im vram sind -> engine sagt dem OS welche datei gelesen werden soll -> OS übersetzt das ganze für das dateisystem (z.B. NTFS) und spielt das volle programm mit zugriffsrechten, file table lookups usw. durch -> daten werden als größerer blob sequenziell in dem ram kopiert (weil günstig für HDD) -> CPU dekomprimiert bzw. reorganisiert die daten im ram damit sie von der GPU nutzbar sind -> treiber schickt die daten (also den teil der wirklich gebraucht wird) über PCIe in den vram und teilt der GPU mit wo im vram sie liegen -> GPU liest sie aus dem vram
direkt: GPU braucht demnächst irgendwelche daten die nicht im vram sind -> engine sagt der GPU auf blockebene wo auf der SSD die daten liegen -> GPU liest über PCIe direkt von der SSD genau die blöcke die gebraucht werden und dekomprimiert sie direkt in den vram rein.
bei den konsolen fällt klassisch halt der transfer von ram in vram weg und der OS-overhead ist geringer.
Aber müsste das nicht den Grafikspeicherbedarf explodieren lassen? Normalerweise ist es ja so, dass die GPU nur Daten anfordert und diese dann "sofort" (also in CPU RAM Geschwindigkeit ) geliefert werden. D.h Das Systme muss potentiell von der GPU benötigte Daten schonmal von der HDD in den RAM laden. D.h viele Daten liegen da, die vlt. nie benötigt werden, weil ja die HDD so langsam ist.
Mit einer SSD müssen natürlich viel weniger Daten vorgeladen werden, die potentiell benötigt werden. Aber RAM ist immer noch x-fach schneller wie eine nvme SSD. Also wenn die GPU nun direkt aus der SSD liest, dann muss die GPU nun 1. selbst managen, was potentiell in nächster Zeit gebraucht wird und 2. müsste das dann ja in den GPU Ram vorgeladen werden.
Also d.h normalerweise lädt die GPU nur Zeug in den GPU Speicher, die von ihr angefordert wird. Im RAM sitzt aber alles, was potentiell benötigt wird. Und das müsste jetzt alles in den GPU Speicher. Der Grafikspeicherbedarf würde stark ansteigen. Sony hat ja mal was davon gesprochen, dass man zu HDD Zeiten die nächsten 30s vorladen musste (also alle Daten, die in den nächsten 30s potentiell benötigt werden könnten). Mit ihrer SSD sollen es ja nur noch 2-3s sein.
Aber selbst das muss man noch vorladen. Das müsste jetzt direkt in den Grafikspeicher vorgeladen werden. Das wäre aus meiner Sicht eine Verschlechterung der effizienten Nutzung des Grafikspeichers. Es würden also mehr Daten im Grafikspeicher liegen, die vlt. gar nie gebraucht werden.
Oder verstehe ich da etwas falsch? Aus meiner Sicht müsste das den VRAM Bedarf stark ansteigen lassen (je langsamer die SSD ist, desto stärker wäre die VRAM Belastung, weil ein längerer Zeitraum an potentiell benötigten Daten vorgeladen werden müssten.)
][immy
2021-06-26, 13:17:41
Bei der PS5 wird direkt von der SSD gelesen. Die Cache Scrubbers erlauben es der SSD, die Daten direkt in den on-chip memory und damit auch direkt in den Frame zu laden. Die Xbox Series X und auch die Series S besitzen keine Cache Scrubbers. Da wird in den Speicher geladen.
Nein. Die cache scrubbers sind dazu da nicht den Cache kleinteiligen zu aktualisieren. Dabei geht es nur darum Bandbreite zwischen Cache und RAM zu sparen und natürlich möglichst wenig Zeit damit zu verbringen.
Du willst nichts direkt von der SSD im Cache haben, macht auch keinen Sinn weil alles im Cache auch im RAM ist.
Zumal die Daten auf der SSD komprimiert sein sollten.
arcanum
2021-06-26, 13:20:52
@Platos
wenn du daten schneller nachladen (streamen) kannst, musst du auch viel weniger daten vorhalten. man kann daten on-the-fly nachladen während man vorher daten für die nächsten ~20s oder wieviel auch immer hätte vorhalten müssen. damit sinkt der ram-bedarf auf den sichtbaren inhalt + 2-3s puffer im gegensatz zu 20s+ puffer.
edit: hatte deinen post nicht zu ende gelesen und die steigenden ram-anforderungen im ersten satz falsch interpretiert.
DS wird meiner meinung nach in spielen anfangs nicht so viel bringen, weil es die gap zwischen high end und low end noch weiter vergrößert. der einzige sofortige vorteil ist die senkung von vram- und ram-anforderungen.
Platos
2021-06-26, 13:23:45
@Dargo: Naja, die PS5 SSD ist ja auch deutlich schneller wie die der XBox. Also der kleinste gemeinsame Nenner dürfte wenn dann maximal XBox SSD Geschw. sein. Aber das reicht ja. Ob nun 2,3 oder 5 GB/s spielt ja keine Rolle. Es müssen nur deutlich mehr wie die 550MB/s einer Sata SSD sein.
Wie hoch die Minimumanfroderung dann sein wird, ist eine andere Sache. Es war ja nur ein Beispiel, das erklären sollte, dass wenn du das Minimum unterschreitest, eben nicht einfach längere Ladezeiten haben wirst, sondern Hänger.
Das Minimum kann natürlich auch bei einer Sata SSD liegen. Jetzt liegt es bei einer HDD. Ich meinte nur, dass du nicht einfach das minimum unterschreiten kannst. Für Direct Storage glazue ich aber eher an ein Minimum von (mindestens) so 1.5-2GB/s lesend.
Ich kann mir kaum vorstellen, dass eine Sata SSD genug schnell ist, damit die GPU direkt von ihr lesen will.
Aber mal sehen dann. Ich hätte nix dagegen, wenn man 1.5-2GB/s Lesend als min. Voraussetzung vorgibt.
Platos
2021-06-26, 13:34:27
@Platos
wenn du daten schneller nachladen (streamen) kannst, musst du auch viel weniger daten vorhalten. man kann daten on-the-fly nachladen während man vorher daten für die nächsten ~20s oder wieviel auch immer hätte vorhalten müssen. damit sinkt der ram-bedarf auf den sichtbaren inhalt + 2-3s puffer im gegensatz zu 20s+ puffer.
Genau, das habe ich ja geschrieben. Trotzdem wird konventionell die GPU selbst bei nur 2-3s vorgeladenen Daten nicht alle davon benötigen(oder reicht die nvme Geschw. für Texturen? ). Also jenachdem wie viel % dieser 2-3s vorgeladenen Daten wirklich auf (konventionelle Art) in den VRAM geladen werden würden, würde der VRAM Bedarf mit DS stark ansteigen.
Angenommen von diesen 2-3s würde die GPU ohne Direct Storage 50% der Daten dann wirklich durchschnittlich anfordern, dann würde der VRAM Bedarf mit DS um 100% ansteigen. Würden von den 2-3s aber z.B 90% genutzt werden, dann würde der VRAM Bedarf mit DS "nur" um ca. 10% ansteigen.
Meine Frage ist also quasi, wie viel % der Daten würde eine GPU auf konventionelle Weise in den Grafikspeicher laden, wenn man dank einer schnellen SSD nur noch die nächsten 2-3s potentiell benötgigter Daten vorladen müsste?
Aber selbst dann: Sony spricht bei Ihrer SSD selbst von glaube ich 2s. Mit einer PCI-E 3.0 SSD müsste man eher von 4s reden und mit einer Sata SSD dann wieder deutlich mehr. Also aus meiner Sicht ist eins sicher und zwar dass für DS eine nvme SSD benötigt werden wird und eine Sata SSD nicht geht, weil damit der VRAM Bedarf extrem ansteigen müsste.
Den bei Direct Storage gehts ja anscheinend "nur" um die GPU. Also eine langsamere SSD könnte man bei Direct Storage nicht mit mehr RAM kompensieren sondern nur mit mer VRAM und das ist jetzt nicht so billig und ganz ehrlich auch sehr ineffizient.
Also zumindest, wenn die GPU nicht komplett alle Daten dekomprimieren kann. Würde die GPU auch Daten dekomprimkeren können, die in den CPU RAM kommen, dann wäre das was anderes. Das geht aber anscheinend mit Direct Storage nicht (würde wahrscheinlich die PCI-E Anforderungen auch stark ansteigen lassen wegen stark erhöhtem Datentransfer).
Also wenn Direct Storage wirklich nur den Grafikspeicher betrifft, dann würde der Bedarf stark ansteigen, je langsamer die SSD ist. Bei einer 7GB/s SSD vlt. praktisch gar nicht, bei einer 2GB/s SSD dann vlt. schon deutlich und bei einer Sata SSD vermutlich nicht mehr umsetzbar.
arcanum
2021-06-26, 13:43:08
@Platos
hatte es in meinem post schon korrigiert, nachdem ich deinen zu ende gelesen habe. ich denke nicht, dass durch DS die base line für alle spiele plötzlich sprunghaft ansteigt. man muss ja die alten systeme mitnehmen, die einen großteil der basis ausmachen. eher wird DS anfangs nur dazu beitragen den vram-/ram-bedarf ein wenig zu senken.
vielleicht ist die UE5 z.b. sehr stark skalierbar und kann die stärken von high end systemen (viel ram und schnelles streaming) ausspielen, aber das müssen die entwickler auch erst mal ausschöpfen (wollen) um diese kleine zielgruppe zu bedienen.
Platos
2021-06-26, 13:48:49
Hä? Inwiefern soll man damit den VRAM Bedarf senken? Siehe mein Post oben. Er wird eher steigen?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.