PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Real-time Raytracing


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19]

Radeonfreak
2025-01-29, 19:23:58
Aber Megageometry und neural Shader gehen ja auch auf Ada.

basix
2025-01-29, 19:31:18
Habe vorher auf CB gelesen:
Die Funktionalität der Mega Geometry steht dabei allen RTX-Grafikkarten seit Turing zur Verfügung.

Interessant, also ein SW-Feature. Somit bleibt einfach noch CLAS von den neuen RT-Cores Blackwell exklusiv. Nichtsdestotrotz benötigt man für beides (CLAS sowie MegaGeometry) neue API-Funktionen.

Relex
2025-01-29, 19:37:59
Das stand bereits in den patchnotes des kommenden Alan Wake 2 patches die kurz nach der Keynote veröffentlicht wurden.

Aber Neural Shaders geht auch auf Ada? Das war für mich neu. Steht das im Whitepaper?
Werd ich mir später auch mal durchlesen..

Radeonfreak
2025-01-29, 19:40:25
Soviel ich weiss geht alles auf Ada, bis auf MFG. Und das wahrschienlich auch nur weil es für ADA vorenthalten wird. Gehen tuts wahrscheinlich schon.

basix
2025-01-29, 19:42:25
Logisch gehen Neural Shaders auf RTX40. Und sicher auch RTX30 und vermutlich auch RTX20.

Viele der Neural Shader Sachen (Neural Rendering) wurden in den entsprechenden Papers auf RTX 3090 / 4090 ausgeführt. Kannst ja mal schauen, was die Nvidia Entwickler bei z.B. NRC oder NTC für HW benutzt haben ;) NRC ist ein Paper aus 2021, also 3090 Gebiet. NTC nutzte glaube ich eine 4090.

RTX50 hat aufgrund des neuen SM-Schedulers und den neuen SM-Execution-Units (INT/FP) wohl schlicht Performance-Vorteile. Dazu FP4/FP8 Support für einen weiteren Performance-Boost.

ChaosTM
2025-01-29, 19:43:54
Jop, und deshalb spare ich mir viel Geld und muss meine alte Ada nicht verkaufen. Mag die Dame

Relex
2025-01-29, 19:46:33
Logisch gehen Neural Shaders auf RTX40. Und sicher auch RTX30 und vermutlich auch RTX20.

Viele der Neural Shader Sachen (Neural Rendering) wurden in den entsprechenden Papers auf RTX 3090 / 4090 ausgeführt. Kannst ja mal schauen, was die Nvidia Entwickler bei z.B. NRC oder NTC für HW benutzt haben ;) NRC ist ein Paper aus 2021, also 3090 Gebiet. NTC nutzte glaube ich eine 4090.

RTX50 hat aufgrund des neuen SM-Schedulers und den neuen SM-Execution-Units (INT/FP) wohl schlicht Performance-Vorteile. Dazu FP4/FP8 Support für einen weiteren Performance-Boost.


Also doch, ich dachte mir letzten schon, dass Neural Radiance Cache ein alter hut ist und eigentlich auch auf Ada läuft.

Bei den "Neural Shaders" und "Neural Materials" war ich mir eben nicht sicher. Nvidia hat irgendwie auch alles dafür getan, es so klingen zu lassen, als ginge das nur auf Blackwell.

Dass neue Hardware das durch Optimierungen schneller berechnen kann ist natürlich auch zu erwarten. Die Frage ist dann aber immer, wie hoch der Uplift ist und vor allem, welchen Anteil das überhaupt an der Berechnungszeit eines Frames einnimmt.

basix
2025-01-29, 19:46:33
Soviel ich weiss geht alles auf Ada, bis auf MFG. Und das wahrschienlich auch nur weil es für ADA vorenthalten wird. Gehen tuts wahrscheinlich schon.

Es gibt irgendwo im DLSS Thread ein Video eines Chinesen, der CP2077 eine RTX50 vorgaukelt. MFG auf Lovelace ;)

Also doch, ich dachte mir letzten schon, dass Neural Radiance Cache ein alter hut ist und eigentlich auch auf Ada läuft.
Kann ich bestätigen. Hatte NRC schon selbst lokal laufen ;)
https://github.com/NVIDIAGameWorks/RTXGI

Mir hat SHarC allerdings irgendwie besser gefallen. Das macht was ähnliches wie NRC aber ist glaube ich Hash-Table basierend.
SHarC war hinsichtlich Performance/Qualität irgendwie besser. NRC hat aber mehr Potential nach oben.

The_Invisible
2025-01-29, 19:48:32
Bei CB hat man auch Alan wake 2 mit megageometry gebencht, da zieht Blackwell gegenüber Ada davon: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-6

Radeonfreak
2025-01-29, 19:52:58
Nuja, davon ziehen ist relativ.

dildo4u
2025-01-29, 19:53:11
Bei CB hat man auch Alan wake 2 mit megageometry gebencht, da zieht Blackwell gegenüber Ada davon: https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-6
Ich sehe + 33% 4090 zu 5090 ist das nicht linear mit Cuda Cores Count und Stromverbrauch?

Relex
2025-01-29, 19:53:17
Gut, davon ziehen ist relativ bei 16%, aber ja, scheint wol was zu bringen. Wobei das auch an anderen Aspekten von Blackwell liegen kann. Ein vergleich ohne Mega geometry wäre da aufschlussreich, aber am Ende ist es auch ziemlich egal..

basix
2025-01-29, 19:53:42
Davonziehen? Naja, habe ich mir auch gerade gedacht :D

Wie sieht es eigentlich qualitativ aus? MegaGeometry sollte da Fortschritte zeigen.

Ein vergleich ohne Mega geometry wäre da aufschlussreich, aber am Ende ist es auch ziemlich egal..
Ist ja dort drin: Ohne MG = +15%, mit MG = +30%

AffenJack
2025-01-29, 19:57:56
Ich lese mir gerade das Blackwell Whitepaper durch. Das neue Cluster Intersection Zeugs ist sehr interessant. Damit kann man viele der BVH-Build Prozesse um ~100x beschleunigen. Sehr nice.

Auch MegaGeometry hört sich sehr interessant an. Dort werden statische Objekte von dymanischen entkoppelt. Die statischen Objekte müssen deutlich weniger oft durch den BVH-Build Prozess und das zu entkoppeln macht auch sehr viel Sinn.

Irgendwie kommt mir das bei den RT-Cores wie Turing 2.0 vor und ich habe so die Vermutung, dass wir hier DXR 2.0 vor uns haben, was die HW-Fähigkeiten anbelangt (was wohl für Xbox Next, PS6 und RDNA5+ auch gelten wird). Bei Blackwell geschieht das noch via NVAPI Extensions.
- TLAS, BLAS, CLAS -> Clustered BVH Build und Intersection
- MegaGeometry -> Statische und dynamischen Objekte Entkoppelt für den RT-Prozess (erlaubt allenfalls auch, dass statische Objekte weniger stark/oft getraced werden, für so eine Art Variable Rate Raytracing/Shading)

Ja ist Featuremäßig für RT durchaus interessant. Aber man hat nicht das Gefühl, dass zeitnah ein DXR2.0 kommen könnte, welches endlich mal mehr Unterstützung liefert. Ich hab hab Gefühl, dass wir erst mit der von dir angesprochenen Xbox Next eine neue API Version erwarten können. Da sind wir dann aber auch schon bei Ende 2026. So wirklich interessant ist diese Gen hauptsächlich für Besitzer von Turing/RDNA1.

Habe vorher auf CB gelesen:

Interessant, also ein SW-Feature. Somit bleibt einfach noch CLAS von den neuen RT-Cores Blackwell exklusiv. Nichtsdestotrotz benötigt man für beides (CLAS sowie MegaGeometry) neue API-Funktionen.

Blackwell soll das aber schneller ausführen, so wie ich das verstehe. Daher schon ein Vorteil für Blackwell.

Gast
2025-01-29, 20:03:22
Logisch gehen Neural Shaders auf RTX40. Und sicher auch RTX30 und vermutlich auch RTX20.

Viele der Neural Shader Sachen (Neural Rendering) wurden in den entsprechenden Papers auf RTX 3090 / 4090 ausgeführt. Kannst ja mal schauen, was die Nvidia Entwickler bei z.B. NRC oder NTC für HW benutzt haben ;) NRC ist ein Paper aus 2021, also 3090 Gebiet. NTC nutzte glaube ich eine 4090.

RTX50 hat aufgrund des neuen SM-Schedulers und den neuen SM-Execution-Units (INT/FP) wohl schlicht Performance-Vorteile. Dazu FP4/FP8 Support für einen weiteren Performance-Boost.
Mega Geometry wohl erst ab Ada:

For those doubting the technology RTX Mega Geometry achieves the same thing as displacement micro maps (DMM). DMM is software approach to geometry processing and compression that NVIDIA introduced with Ada Lovelace, which also has a DMM engine in the RT cores to accelerate these workloads. This is explained in more depth in the Ada Lovelace Whitepaper. In the RTX Kit video NVIDIA stated the RTX Mega Geometry technology "...delivers up to 100x more ray traced more ray traced triangles per frame...". Based on the characteristis of DMM with on average 10x lower BVH build time and storage cost, RTX Geometry sounds more impressive except for the lack of geometry storage (MB) and transmission (MB/s) cost savings associated with DMM.

Relex
2025-01-29, 20:03:24
Davonziehen? Naja, habe ich mir auch gerade gedacht :D

Wie sieht es eigentlich qualitativ aus? MegaGeometry sollte da Fortschritte zeigen.


Ist ja dort drin: Ohne MG = +15%, mit MG = +30%


Jetzt bin ich komplett verwirrt. Ich hab erst auf den Benchmark oben auf der Seite geschaut, aber das ist nur "normales" RT.

Weiter unten bei den dedizierten Pathtracing tests sieht es dann so aus:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91210&stc=1&d=1738177395


Also ja, die 5090 zieht davon, die säuft dann aber auch sicher wie ein Loch. Die 5080 underperformt trotz mega Geometry.

basix
2025-01-29, 20:21:27
Sorry, mit +15/+30% meinte ich 5090 zu 4090. Die RTX 5080 profitiert nicht so stark davon, ja.

Ja ist Featuremäßig für RT durchaus interessant. Aber man hat nicht das Gefühl, dass zeitnah ein DXR2.0 kommen könnte, welches endlich mal mehr Unterstützung liefert. Ich hab hab Gefühl, dass wir erst mit der von dir angesprochenen Xbox Next eine neue API Version erwarten können. Da sind wir dann aber auch schon bei Ende 2026. So wirklich interessant ist diese Gen hauptsächlich für Besitzer von Turing/RDNA1.
Klar, vor Xbox Next erwarte ich kein DXR 2.0. Aber anhand der technologisch ausgefeilten HW von Nvidia sowie deren neuen APIs kann man erahnen, was dort reinkommen wird. Sicher nicht was komplett anderes ;)

Mega Geometry wohl erst ab Ada:

For those doubting the technology RTX Mega Geometry achieves the same thing as displacement micro maps (DMM). DMM is software approach to geometry processing and compression that NVIDIA introduced with Ada Lovelace, which also has a DMM engine in the RT cores to accelerate these workloads. This is explained in more depth in the Ada Lovelace Whitepaper. In the RTX Kit video NVIDIA stated the RTX Mega Geometry technology "...delivers up to 100x more ray traced more ray traced triangles per frame...". Based on the characteristis of DMM with on average 10x lower BVH build time and storage cost, RTX Geometry sounds more impressive except for the lack of geometry storage (MB) and transmission (MB/s) cost savings associated with DMM.

So wie ich das verstehe ist das ja eher so, wie ich es fett angestrichen habe: Ab Ada mit HW Acceleration, davor mit SW-Emulation.

Relex
2025-01-29, 21:14:38
Das fand ich im Blackwell Whitepaper besonders interessant:


As a further improvement to existing ray tracing solutions, all Mega Geometry APIs are designed to be fully batched, with their input parameters driven entirely from GPU memory. This lets the game engine run logic like LOD selection, animation, culling, and others efficiently on the GPU, while minimizing roundtrips to the CPU. With effective use of Mega Geometry APIs, an application can practically eliminate CPU overhead related to BVH management.



Nicht nur kann mit Mega Geometry der Detailgrad von RT effekten deutlich gesteigert werden (aufgrund der deutlich detaillierteren BVH Daten), auch der CPU overhead durch RT wird eliminiert, der zumindest meines Wissens aufgrund der BVH entstanden ist.

Langsam wird RT "erwachsen".

basix
2025-01-29, 21:48:08
Da man nur noch den BVH für jeweils ~100 Triangles Cluster prozessieren muss (max. Cluster von 256 Triangles mit Blackwell, Nanite macht typ. 128er Cluster) und die statischen Objekte weniger oft updaten muss, macht das natürlich sehr viel aus. Dem Rest erledigt die GPU.

Aber momentan wird halt noch bei weitem nicht "per Triangle" BVH gemacht. Da hat es immer eine Annäherungs-Geometrie dazwischen (siehe dazu auch UE5 Lumen). Die CPU-Last sowie die Speichermenge für den BVH wird sicher drastisch reduziert. Aber weil man gleichzeitig per-Triangle raytracen will, geht die Rechenlast natürlich wieder rauf. Ich weiss nicht, wie granular heute die Annäherungsgeometrie aufgelöst ist.

Aber ja, langsam wird RT in HW erwachsen. Die Ergänzungen erscheinen alle sehr sinnvoll und 100x Acceleration sieht man nicht alle Tage, auch für sehr spezifische Sachen nicht.

pixeljetstream
2025-01-30, 15:18:24
U-Boot taucht auf:

Hab die letzten Jahre an Mega Geometry gearbeitet über research, Arbeit am Treiber hinzu samples. Und hier sind letztere als Open-Source. Ich hoffe die Bilder helfen was man damit machen kann.

https://github.com/nvpro-samples/vk_animated_clusters

https://github.com/nvpro-samples/vk_tessellated_clusters

https://github.com/nvpro-samples/vk_lod_clusters

https://github.com/nvpro-samples/vk_partitioned_tlas

aufkrawall
2025-01-30, 15:21:15
U-Boot taucht auf:

Welcome back! Schön, dass du noch mit 3D-Grafik befasst bist.

Raff
2025-01-30, 16:27:19
Welcome back! Schön, dass du noch mit 3D-Grafik befasst bist.

+1 :up:

Der Patch für Alan Asleep ist übrigens nun public: https://www.alanwake.com/story/alan-wake-2-update-notes/

Bringt nicht "nur" MegaGeo, sondern auch mehr RT-Stuff. =)

MfG
Raff

basix
2025-01-31, 10:18:23
U-Boot taucht auf:

Hab die letzten Jahre an Mega Geometry gearbeitet über research, Arbeit am Treiber hinzu samples. Und hier sind letztere als Open-Source. Ich hoffe die Bilder helfen was man damit machen kann.

https://github.com/nvpro-samples/vk_animated_clusters

https://github.com/nvpro-samples/vk_tessellated_clusters

https://github.com/nvpro-samples/vk_lod_clusters

https://github.com/nvpro-samples/vk_partitioned_tlas

Ebenfalls ein Welcome Back von meiner Seite :)

Ich habe mir die Doku auf den Repos mal grob durchgelesen. Ist schon einiges komplexer als das was im Blackwell Whitepaper steht. War natürlich zu erwarten ;) Und auch die Doku ist vermutlich stark Highlevel verglichen mit der Code-Implementation.

MegaGeometry ist wirklich eine coole Sache :up:

Vielleicht eine Frage an dieser Stelle:
Wenn man keine HW-Acceleration dafür hat (aka Displaced Micro-Meshes Engine), läuft das dann trotzdem auf älteren GPUs?

Relex
2025-01-31, 10:56:24
_lxg6TRvn70

Schon krass, einfach mal 13% mehr FPS im GPU Limit und über 1 GB weniger VRAM Nutzung.

Im CPU Limit bringt es wahrscheinlich noch viel mehr.

aufkrawall
2025-01-31, 10:59:06
Witzig, dann sollten 12GB auch mit dem FG-Update ja jetzt locker reichen für 4k Performance.

basix
2025-01-31, 11:08:39
Hatte gestern beim kurz austesten auch bemerkt, dass der VRAM Verbrauch recht niedrig war.

DrFreaK666
2025-01-31, 11:36:30
Witzig, dann sollten 12GB auch mit dem FG-Update ja jetzt locker reichen für 4k Performance.

Bei NV-unterstützten Games

aufkrawall
2025-01-31, 11:53:19
Nein, für alle Spiele auf der Welt, die es jemals geben wird. Und nicht etwa Alan Wake 2, wie es der Kontext (ich weiß, sehr seltsames Konzept für dich) annehmen ließe...

pixeljetstream
2025-01-31, 16:39:59
Wenn man keine HW-Acceleration dafür hat (aka Displaced Micro-Meshes Engine), läuft das dann trotzdem auf älteren GPUs?

Ja Mega Geometry ist ein auf der API Seite reines Software Feature. Blackwell hat ein paar extras die wir im Treiber nutzen können und es weiter verbessern können. Aber es geht auch ohne die einwandfrei. Es ist mehr ein Feature wie wir intern die Daten organisieren (bzw. durch die neue API es expliziter Entwicklern ermöglichen), aber die Bausteine dafür sind die gleichen geblieben. Der Hardware ist letztendlich egal wie die Daten zusammen gewürfelt wurden solange die Bausteine die gleichen sind. Und die Hardware war seit turing halt schon gut designt so dass es möglich ist.

Im Nachhinein hätte man das schon eher machen können aber manchmal braucht es Zeit und Erfahrung um auf bessere Ideen zu kommen.

basix
2025-01-31, 19:17:21
Danke für die Bestätigung :)

Und evtl. noch eine weitere Frage:
Ich habe hier im Thread spekuliert, dass eure Entwicklung rund um MegaGeometry und auch die Displaced Micro-Meshes irgendwie DXR 2.0 Charakter hat. Wenn dies allerdings primär ein SW-Feature ist, ist neue HW eigentlich gar nicht notwendig. Aber Microsoft könnte dennoch die API innerhalb von einem DXR 2.0 standardisieren. Gibt es da Arbeiten in Richtung DXR 2.0 oder bleibt MegaGeometry DXR 1.1? Kannst du zu dem etwas sagen oder darfst du nicht? :)

Gast
2025-01-31, 21:15:47
Danke für die Bestätigung :)

Und evtl. noch eine weitere Frage:
Ich habe hier im Thread spekuliert, dass eure Entwicklung rund um MegaGeometry und auch die Displaced Micro-Meshes irgendwie DXR 2.0 Charakter hat. Wenn dies allerdings primär ein SW-Feature ist, ist neue HW eigentlich gar nicht notwendig. Aber Microsoft könnte dennoch die API innerhalb von einem DXR 2.0 standardisieren. Gibt es da Arbeiten in Richtung DXR 2.0 oder bleibt MegaGeometry DXR 1.1? Kannst du zu dem etwas sagen oder darfst du nicht? :)

Displacement micro-meshes wurden deprecated (sind nicht mehr supported im neuen Treiber). War einfach keine gute Technologie, displacement tessellation die sehr starr definiert ist, wie bei micro-meshes, ist nicht gut für die Asset Pipeline der games, daher fail. Zwei Jahre meines Lebens die ich gern zurück hätte ;) Aber immerhin Erfahrungen reicher.

Alle Hersteller bemühen sich ihre Features in die Standards zu bekommen, weil Entwickler sonst die Features meist nicht so in dem Maße nutzen (also alles was sich tiefer auf engine auswirkt). Was dann genau kommt liegt an mehreren Faktoren, was können die anderen Hersteller, was ist Microsoft bei DX bzw Google/Valve bei Vulkan wichtig.

Ist universal Aussage die immer zutrifft. Mehr kann ich dazu logischerweise nicht sagen.

pixeljetstream
2025-01-31, 21:16:56
Danke für die Bestätigung :)

Und evtl. noch eine weitere Frage:
Ich habe hier im Thread spekuliert, dass eure Entwicklung rund um MegaGeometry und auch die Displaced Micro-Meshes irgendwie DXR 2.0 Charakter hat. Wenn dies allerdings primär ein SW-Feature ist, ist neue HW eigentlich gar nicht notwendig. Aber Microsoft könnte dennoch die API innerhalb von einem DXR 2.0 standardisieren. Gibt es da Arbeiten in Richtung DXR 2.0 oder bleibt MegaGeometry DXR 1.1? Kannst du zu dem etwas sagen oder darfst du nicht? :)

Displacement micro-meshes wurden deprecated (sind nicht mehr supported im neuen Treiber). War einfach keine gute Technologie, displacement tessellation die sehr starr definiert ist, wie bei micro-meshes, ist nicht gut für die Asset Pipeline der games, daher fail. Zwei Jahre meines Lebens die ich gern zurück hätte ;) Aber immerhin Erfahrungen reicher.

Alle Hersteller bemühen sich ihre Features in die Standards zu bekommen, weil Entwickler sonst die Features meist nicht so in dem Maße nutzen (also alles was sich tiefer auf engine auswirkt). Was dann genau kommt liegt an mehreren Faktoren, was können die anderen Hersteller, was ist Microsoft bei DX bzw Google/Valve bei Vulkan wichtig.

Ist universal Aussage die immer zutrifft. Mehr kann ich dazu logischerweise nicht sagen.

AffenJack
2025-01-31, 21:28:51
Displacement micro-meshes wurden deprecated (sind nicht mehr supported im neuen Treiber). War einfach keine gute Technologie, displacement tessellation die sehr starr definiert ist, wie bei micro-meshes, ist nicht gut für die Asset Pipeline der games, daher fail. Zwei Jahre meines Lebens die ich gern zurück hätte ;) Aber immerhin Erfahrungen reicher.

Alle Hersteller bemühen sich ihre Features in die Standards zu bekommen, weil Entwickler sonst die Features meist nicht so in dem Maße nutzen (also alles was sich tiefer auf engine auswirkt). Was dann genau kommt liegt an mehreren Faktoren, was können die anderen Hersteller, was ist Microsoft bei DX bzw Google/Valve bei Vulkan wichtig.

Ist universal Aussage die immer zutrifft. Mehr kann ich dazu logischerweise nicht sagen.

Ohne auf Details einzugehen, kannst du sagen, wieso wir seit Ewigkeiten nix neues mehr in DXR bekommen? Können sich die Hersteller nicht einigen oder ist da eher weniger Interesse von MS?

Von Entwicklern hört man ja immer, dass sie DXR eigentlich nicht mögen und es deutlich verändert gehört. Zumindest von der Seite ist der Wille also schon da.

pixeljetstream
2025-02-01, 00:07:54
Imo ist die Thematik einfach was zaeher weil schwerer, und man darf nicht vergessen, dass wir bei der Rasterisierung halt schon echt Jahrzehnte Evolution haben (OpenGL 1992, 3dfx 1996, GeForce 8 2006). Imo haben die Konsolen (Anteil am Umsatz von AAA Spielen) schon nen starken Einfluss auf grosse Themen, von daher sind die Aussagen von Sony, dass auch hier nun Ray Tracing ein wichtiges Thema ist, insgesamt foerderlich fuer die gesamte Branche. PS4 hatte life cycle von so 7 Jahren, sagen wir also in 1-2 Jahren der naechste Wechsel mit HW die dann RT ganz ordentlich kann, wo es aber vermutlich immer noch Raster & RT mix braucht. Und dann sagen wir in 8-10 Jahren der naechste Wechsel wo man dann vermutlich nur noch RT/Compute pipeline hat. Das waere imo nicht unrealistisch. Also fast 20 Jahre nach erstem consumer HW RT, das waere wie 3dfx bis Geforce 10xx Pascal.

Es gibt in allen Firmen gute und engagierte Leute fuer real-time Graphics Themen, daher will ich keinen unter den Bus werfen, dafuer ist das Geflecht was zu Entscheidungen fuehrt zu komplex (sehe ich ja selbst bei uns die wir deutlich mehr Ressourcen und manpower haben als der Rest). MS ist immer noch effizienter als Khronos bei der Standardisierung, von daher denke ich kann man denen keinen Vorwurf machen.

Es sind alles einfach riesige Konzerne die in vielen Bereichen taetig sind.

basix
2025-02-01, 00:59:00
UE5 arbeitet nun auch schon 5 Jahre daran, die FF Raster-Units gegen Compute (Nanite) einzutauschen. Aber ist es realistisch, dass Raster in HW komplett wegfällt? Zumindest bei PC-HW, Konsolen können sich stärker spezialisieren. Es wird am PC immer Legacy Applikationen geben, welche noch ein mindestmass an Raster-Leistung benötigen werden.

TheAntitheist
2025-02-01, 01:02:32
Imo ist die Thematik einfach was zaeher weil schwerer, und man darf nicht vergessen, dass wir bei der Rasterisierung halt schon echt Jahrzehnte Evolution haben (OpenGL 1992, 3dfx 1996, GeForce 8 2006). Imo haben die Konsolen (Anteil am Umsatz von AAA Spielen) schon nen starken Einfluss auf grosse Themen, von daher sind die Aussagen von Sony, dass auch hier nun Ray Tracing ein wichtiges Thema ist, insgesamt foerderlich fuer die gesamte Branche. PS4 hatte life cycle von so 7 Jahren, sagen wir also in 1-2 Jahren der naechste Wechsel mit HW die dann RT ganz ordentlich kann, wo es aber vermutlich immer noch Raster & RT mix braucht. Und dann sagen wir in 8-10 Jahren der naechste Wechsel wo man dann vermutlich nur noch RT/Compute pipeline hat. Das waere imo nicht unrealistisch. Also fast 20 Jahre nach erstem consumer HW RT, das waere wie 3dfx bis Geforce 10xx Pascal.

Es gibt in allen Firmen gute und engagierte Leute fuer real-time Graphics Themen, daher will ich keinen unter den Bus werfen, dafuer ist das Geflecht was zu Entscheidungen fuehrt zu komplex (sehe ich ja selbst bei uns die wir deutlich mehr Ressourcen und manpower haben als der Rest). MS ist immer noch effizienter als Khronos bei der Standardisierung, von daher denke ich kann man denen keinen Vorwurf machen.

Es sind alles einfach riesige Konzerne die in vielen Bereichen taetig sind.Schön das du wieder da bist, hab dich ernsthaft vermisst!

Slipknot79
2025-02-01, 04:04:39
U-Boot taucht auf:

Hab die letzten Jahre an Mega Geometry gearbeitet über research,


Resup. (y)
Hat dich John Carmack mit seiner MegaTexture beeinflusst/inspiriert? :redface:

pixeljetstream
2025-02-01, 09:36:49
Es ist hier weniger Inspiration eines einzelnen und viel mehr Teamarbeit und Notwendigkeit auf Anforderungen/Trends zu reagieren. Mesh Shader wurden auch entwickelt weil es den Trend bei rasterization gab eh die Geometrie in Clustern zu organisieren und die Hardware ohnehin in Gruppen von threads organisiert ist (compute shader based culling...). Schon beim Release der mesh shader kam die Frage von Entwicklern ob man bei ray tracing dann nicht auch so rangehen könnte. Damals war RT aber gerade ganz neu, dass man erstmal fokussiert war statischen, klassischen Dreiecks-Content zu optimieren, und jede Menge andere Probleme zu lösen.

Mit Nanites Erfolg in der Unreal Engine, aber auch Alan Wake2 Einsatz der Mesh Shader stieg aber endgültig die Notwendigkeit einen Cluster-basierten Ansatz zu bringen. Man hätte es schon etwas vorher Angehen können aber im Nachhinein ist man immer schlauer.

Es ist also nicht zu vergleichen mit Erforschung ganz neuer Techniken, sondern halt Ausdenken wie man den Einsatz von sowas erleichtert. Meine Forschung ist dann eher zu Details unserer Umsetzung gewesen, wie auch andere Kollegen andere Teile bearbeiteten. (Und wir optimieren ja noch weiter weil nie genug Zeit zum Release...)

id Software hatte ja selbst diverse Megageometry Projekte diese aber nicht in ein Produkt gebracht. Unreal's Nanites is der Durchbruch gelungen.

Rasterization wird denke ich nie verschwinden, man denke an die Effizienz bei user interfaces etc. Aber ich kann mir schon vorstellen dass langfristig in games die meisten Pixel der Szene darüber ihren Ursprung haben werden.

In der Zorah demo wurde Nanites cluster rasterization durch cluster ray tracing ersetzt weil es schneller war. Ray tracing liefert perfektes occlusion culling etc. Allerdings geht das nur in Auflösungen gut, wo die Anzahl der RT hw units passt. Ergo in hohen Auflösungen gewinnt Raster, die sind aber dank upscaling nicht notwendig.

basix
2025-02-01, 11:33:53
Stichwort Techdemos:
Gibt es Zorah (und evtl. auch mal Racer RTX ;)) auch irgendwann zum Download? Wäre sehr cool, vor allem für uns Technikbegeisterte. Und man könnte auch besser erahnen, was Blackwell in zukünftigen Games besser machen wird verglichen zu älteren GPU-Generationen. Ein bisschen Gratis-Werbung für die neuen GPUs ;)

Die neueste downloadbare GeForce Techdemo ist die altehrwürdige Star Wars Reflexion Demo zu Turing Release:
https://www.nvidia.com/de-de/geforce/community/demos/

redpanther
2025-02-01, 11:37:08
Obwohl nv ja anscheinden so auf SW setzt, warten wir ja auch noch auf den versprochenen RC Racer.
Die Demos fand ich immer toll, scheint wohl zu aufwendig zu sein mittlerweile?

basix
2025-02-01, 11:49:11
Man muss für einen downloadbaren Release mehr investieren (Polishing, Stabilität). Ich fand die Techdemos immer cool (geht die letzten 25 Jahre zurück).

pixeljetstream
2025-02-01, 11:52:35
Ich bin nur aufgetaucht um hier über die Technik was zu sagen weil man einiges an Fehlinformation im Netz sah und die open source demos zumindest ein erstes Detail waren. Es ist hoffentlich verständlich dass ich nicht als Ansprechpartner für andere Themen herhalten will.

basix
2025-02-01, 13:07:05
Alles klar, war nur im Rahmen von Zorah ein wenig naheliegend, diese Frage zu stellen. Zumindest für nur Zorah :)

Dann kehren wir wieder zur technischen Diskussion zurück :up:

Die von dir verlinkten Repos sind auf Vulkan bezogen. Kann man davon ausgehen, dass das "under the hood" bei DX12 gleich aussieht? Das wird ja alles in via NVAPI auf den gleichen Treiber internen SW-Stack umgeleitet, richtig?

pixeljetstream
2025-02-01, 13:28:17
Ja wird es.

AffenJack
2025-02-01, 14:14:14
@pixeljetstream
Vielen Dank für deine Einblicke

Alan Wake nutzt MegaGeometry als erstes Spiel, aber der Vorteil der 5090 zu 4090 mit Mega Geometry ist schon ein Stück größer als bei der 5080:

Ohne Megageometry:
4090 vs 5090 Full RT +15%
4080 Super vs 5080 +0%

Mit Megageometry:
4090 vs 5090 +30% =13% Megageometry Skalierung
4080 Super vs 5080 +8%

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5080-test.91176/seite-6#abschnitt_4_spielebenchmarks_mit_full_raytracing

5% ist zwar keine Welt, aber schon etwas was mich verwundert. Ist das die Reduktion des CPU Overheads, die sich stärker auf die 5090 auswirkt und bei kleineren GPUs wird die Skalierung immer schlechter oder wie ist deine Einschätzung dazu?
Generell auch wieviel Megageometry du so nach deiner Erfahrung schneller auf Blackwell, als auf ADA etc. einschätzt.
Weitere Tests wird es dann hoffentlich mit mehr Spielen in nicht zu ferner Zeit geben.

Relex
2025-02-01, 14:26:31
Ich bezweifle, dass man das beziffern kann, da das vom Spiel abhängt.

Und selbst wenn man sagen kann, Mega Geometry ist typischerweise z.B. 50% schneller, dann hängt es trotzdem vom Spiel ab, wie hoch der letztendliche FPS gewinn ist.

Wenn das was Mega Geometry ersetzt vorher 3 ms gekostet hat und mit mega Geometry 2 ms dann ist der Performancevorteil größer, wenn der Rest des Spiels in 10 ms berechnet werden kann im Vergleich zu einem Spiel das 20 ms für den Rest braucht und entsprechend fordernder ist, weil sich der Anteil den Mega Geometry an der Frametime hat entsprechend verschiebt.


War das gleiche mit dem neuen Frame Generation Algorithmus. Der ist laut NV 40% schneller. Und wenn mans ausrechnet kommt das sehr gut hin. Allerdings führt das bezogen auf die FPS je nach Framerate mal zu 5% FPS gewinn, wenn die FPS bereits niedrig sind oder aber auch zu 20%, wenn die FPS bereits höher sind. Trotzdem ist in beiden Fällen Frame Gen um 40% schneller geworden.


Man muss bei solchen dingen sich davon verabschieden in FPS zu denken.
Es geht immer um Frametime Budgets bzw. um die Berechnungszeit auf einer bestimmten GPU.

pixeljetstream
2025-02-01, 15:12:03
+1

Relex
2025-02-05, 16:36:13
_SpSLPHvHAs

basix
2025-02-05, 20:18:59
Interessant, dass es bei Ada und Blackwell weniger bringt. Also eigentlich gar nichts. Die Tests bei CB haben ein anderes gezeigt. Vermutlich abhängig von der Testszene.

Wäre noch cool, wenn man isolierte Performance-Werte bekommen könnte. Solche wie sie DF im Video zu AW2 zeigt (direkt von den Entwicklern, wo sie CPU und GPU Time fürs RT aufzeigen).
Im ersten Link von Christoph hat es ein paar Performance-Werte, welche 2-3x schneller sind als die bisherige Lösung.

Edit:
Mir kam gerade noch ein Gedanke. Da BVH Build auf AMD Karten noch nicht nativ in HW gegossen ist, könnte sowas wie MegaGeometry einen sehr deutlichen Performancegewinn erzielen. Deutlich mehr als auf Nvidia Karten. Oder bin ich da auf dem falschen Weg?

aufkrawall
2025-02-05, 22:08:19
Leider wurden keine Verbesserungen für floaty Objekte oder das Reinploppen des RTs im Gras erwähnt. Meh.
Im nächsten Titel dann hoffentlich mit HWRT-Pflicht als Baseline Geschichte, wenn man es sonst nicht besser hinbekommt.

Gast
2025-02-05, 23:33:54
Leider wurden keine Verbesserungen für floaty Objekte oder das Reinploppen des RTs im Gras erwähnt.


Das Cascading der RT-Geometrie wurde erwähnt.

pixeljetstream
2025-02-06, 00:15:49
basix, ich glaube du meinst BVH traversal, denn das bauen vom BVH macht keiner mit dedizierter Hardware. Und letztendlich ist der traversal Aufwand am Ende ähnlich/meist etwas höher.

Die 2-3x beziehen sich eben auf Szenarien die nix anderes machen als den Unterschied zu zeigen. Wie Relex schon geschrieben hat, das muss im großen ganzen in einer bestehenden engine und mit anderer Architektur nicht durchschlagen. Dafür passiert in einem frame von so einem Spiel zuviel. Wir könnten auch 2x soviele raster engines heute verbauen und es würde fast nix mehr bringen, weil das eigentliche rastern von Dreiecken in den meisten Games nur noch minimalen Anteil hat.


Nichtsdestotrotz ist es erst der erste öffentliche Release und gibt daher noch genug Optimierungspotenzial.

basix
2025-02-06, 00:42:23
Ja, Traversal meinte ich natürlich.

Mein Gedanke geht dahin, dass man den BVH Traversal mit CLAS ergänzt (Triangle Cluster), was entsprechend grobkörniger ist und damit schneller sein könnte. Oder macht man am Schluss auch mit MegaGeometry insgesamt gleich viele Traversal Steps sowie Box & Triangle Intersection Tests?

Slipknot79
2025-02-06, 02:33:44
basix, ich glaube du meinst BVH traversal, denn das bauen vom BVH macht keiner mit dedizierter Hardware. Und letztendlich ist der traversal Aufwand am Ende ähnlich/meist etwas höher.

Die 2-3x beziehen sich eben auf Szenarien die nix anderes machen als den Unterschied zu zeigen. Wie Relex schon geschrieben hat, das muss im großen ganzen in einer bestehenden engine und mit anderer Architektur nicht durchschlagen. Dafür passiert in einem frame von so einem Spiel zuviel. Wir könnten auch 2x soviele raster engines heute verbauen und es würde fast nix mehr bringen, weil das eigentliche rastern von Dreiecken in den meisten Games nur noch minimalen Anteil hat.


Nichtsdestotrotz ist es erst der erste öffentliche Release und gibt daher noch genug Optimierungspotenzial.


Hast du im Mitarbeiter-Shop deine 5080/5090 ohne Probleme kaufen können? :redface:

pixeljetstream
2025-02-06, 06:43:16
Ja, Traversal meinte ich natürlich.

Mein Gedanke geht dahin, dass man den BVH Traversal mit CLAS ergänzt (Triangle Cluster), was entsprechend grobkörniger ist und damit schneller sein könnte. Oder macht man am Schluss auch mit MegaGeometry insgesamt gleich viele Traversal Steps sowie Box & Triangle Intersection Tests?

Kommt auf die Implementierung an. Ist ein trade-off. Weniger Box Tests heißt mehr triangle tests... BTW nur weil ein BVH über cluster gebaut wird, heißt es nicht dass die cluster selbst keinen mini BVH haben. Das ist alles mehr eine Art balancing Akt wo Entwickler mit der neuen API mehr Möglichkeiten haben. Der klassische BVH über individuelle triangles ist auch nicht obsolet. Der liefert immer noch die beste trace performance.

ChaosTM
2025-02-06, 11:06:48
9ptUApTshik

Kurzfassung - "for the most part its worth using.."
Nichts wirklich neues.

Relex
2025-02-06, 11:35:54
Das Video ist doch falsch.

Er sagt, er nutzt DLSS 4 Upscaling, wechselt dann aber beim Denoiser (RR) zwischen CNN und Transformer.


RR macht aber beides. Nutzt man Transformer RR, dann ist auch zugleich die Upscaling komponente von Transformer RR aktiv

aufkrawall
2025-02-06, 17:13:16
Jo, hatter nicht richtig gecheckt. Wäre ja noch eher nachzusehen, wenn sich dieser YT-Kanal nicht gerne mal mit großer Klappe weit aus dem Fenster lehnen würde...

Lurtz
2025-02-06, 17:17:11
Eh? Hat er wirklich nicht kapiert, dass RR Denoising + Upsampling macht, nicht nur Denoising?

Naja, ist halt einer dieser Kanäle die ihr Zielpublikum mit einer latenten "Fortschrittsfeindlichkeit" bedienen. Sobald bei RT was rauscht oder irgendwas schlechter aussieht, ists ganz schlimm, egal wie sehr der Rasterizationrenderer failt. Dass nVidia mit den ganzen Erfahrungen und Trainingsdaten für RR schon wieder mindestens eine Generation vor der Konkurrenz ist, wayne.

Die ganzen Temp-AA-Hater sind dann noch eine Stufe drüber...

aufkrawall
2025-02-06, 17:19:45
Offenbar:
https://s20.directupload.net/images/250206/2s3ihcbn.jpg (https://www.directupload.eu)

pixeljetstream
2025-02-06, 23:53:18
https://github.com/NVIDIA-RTX/RTXMG

DX Mega Geometry samples

Und der neue primitive für Haare/Gras etc.

https://developer.nvidia.com/blog/render-path-traced-hair-in-real-time-with-nvidia-geforce-rtx-50-series-gpus/

basix
2025-02-07, 08:38:01
Cool, danke! :)

Hier noch der Blogpost dazu:
https://developer.nvidia.com/blog/nvidia-rtx-mega-geometry-now-available-with-new-vulkan-samples/

Auf dem RTXGI Repo geht es auch voran, hauptsächlich NRC wird dort jeweis geupdated:
https://github.com/NVIDIA-RTX/RTXGI

basix
2025-02-07, 10:53:42
AMD werkelt ebenfalls an verbessertem Raytracing bei Meshlets, Nanite und Co.:
https://gpuopen.com/learn/problem_increasing_triangle_density/

Soweit ich das als Laie verstehe, könnte sich das mit Nvidias MegaGeometry ergänzen.

Relex
2025-02-07, 11:57:36
Auf Reddit hat jemand eine Übersicht zusammengestellt, welche Features auf welchen Nvidia GPUs unterstützt werden. Auf Basis der Git Repos und Nvidia Blog.

Gibt natürlich keine Garantie auf Richtigkeit.
Quelle: https://www.reddit.com/r/nvidia/comments/1ijq32o/rtx_kit_hardware_support_table/

(Ich poste das in diesen Thread, weil es überwiegend bezug auf RT/PT hat bzw. dann eben künftig neural Rendering)


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91416&stc=1&d=1738925753

Relex
2025-02-07, 12:08:11
Das hier ist auch interessant.

Mehr Details zu Neural Texture compression:
https://www.reddit.com/r/nvidia/comments/1ijlh1a/rtxntc_neural_texture_compression_on_github/


Wenn das so kommt, dann wäre das schon Wahnsinn für RTX40 und größer.


Gerade die 12 GB Karten werden da wohl in Zukunft in Kombinaiton mit RT/PT lastigen titeln stark profitieren. Bisher wurde es mit dem VRAM dann ja extrem eng.

][immy
2025-02-07, 15:13:17
Das hier ist auch interessant.

Mehr Details zu Neural Texture compression:
https://www.reddit.com/r/nvidia/comments/1ijlh1a/rtxntc_neural_texture_compression_on_github/


Wenn das so kommt, dann wäre das schon Wahnsinn für RTX40 und größer.


Gerade die 12 GB Karten werden da wohl in Zukunft in Kombinaiton mit RT/PT lastigen titeln stark profitieren. Bisher wurde es mit dem VRAM dann ja extrem eng.

Hat aber maximal am Rande was mit RT zu tun. Läuft übrigens auf allen neueren GPUs die RT Unterstützung haben, wie es aussieht.
Ich denke aber eher es würde halt nach wie vor deutlich mehr bringen, nur das zu laden, was auch wirklich gebraucht wird. Das sollte selbst mit RT Nutzung einiges mehr an Speicher frei räumen.
Trotz aller Texturgrößen hat die Texturqualität in den letzten Jahren stark abgenommen wenn man nicht die höchste Stufe wählt. Daran wird vermutlich das neue Verfahren nicht viel ändern.

Nicht zu vergessen es geht hier um eine Kompression mit Verlust. (Soweit ich das korrekt verstanden habe). Man hat hinterher also nicht mehr 1:1 die gleiche Qualität.

basix
2025-02-07, 16:05:19
NTC wäre geradezu ideal, um eben schlechte oder stark abfallende Texturqualitäten zu vermeiden. Siehe das Bild im Anhang aus dem NTC Paper.
Und verglichen mit heutigen Block-Compression Algorithmen (welche auch verlustbehaftet sind) erreicht man eine bessere Qualität bei geringerem Verbrauch.

Nur die benötigten Texturen nachzuladen ist sicher ideal (Nanite, Sampler Feedback Streaming, Directstorage), das ergänzt sich aber mit NTC.

Hier ein weiteres Neural Texture Compression Paper von Qualcomm inkl. Vergleich zu Nvidias NTC:
https://arxiv.org/abs/2407.00021

AMD hat ebenfalls etwas veröffentlicht (dort wirt offline mit einem DNN in existierende BC Formate komprimiert, funktioniert also auf allen modernen GPUs mit BC-Decoding HW-Acceleration):
https://arxiv.org/abs/2407.09543

basix
2025-02-07, 21:27:31
Ich habe die neuesten Verstionen von RTXGI, RTXNTC sowie RTXMG gebuildet und hier hochgeladen:

RTXGI -> https://drive.google.com/file/d/1EVGKDrvRIKnWo71tdcxIusheJ92HTZKq/view?usp=drive_link // https://github.com/NVIDIA-RTX/RTXGI/blob/main/Docs/QuickStart.md
RTXNTC -> https://drive.google.com/file/d/1cXIUOu6L9Cu_EKdZVZvoCcs8ocCq-KEW/view?usp=drive_link // https://github.com/NVIDIA-RTX/RTXNTC/blob/main/docs/Renderer.md
RTXMG -> https://drive.google.com/file/d/1aThYNxrqq21b3WQ-T2Cm5hK6f1BBocPL/view?usp=drive_link // https://github.com/NVIDIA-RTX/RTXMG/blob/main/docs/QuickStart.md



Ausführungsdateien:
RTXGI\bin\Pathtracer.exe
RTXNTC\bin\windows-x64\ntc-renderer.exe
rtxmg\bin\rtxmg_demo.exe

Troyan
2025-02-08, 08:08:39
Cool, danke.

00-Schneider
2025-02-12, 19:16:00
kN347m66sgc

boringLimbo
2025-02-20, 08:11:26
Welche GPUs bieten aktuell das beste Preis-Leistungs-Verhältnis für Raytracing? Gibt es da Alternativen zu Nvidia?

Troyan
2025-02-20, 08:26:43
Aktuell? Keine... Ansonsten schauen, wie sich im Laufe der Zeit die Preise für die 5070 TI entwickeln. Wenn die irgendwo bei 800€ landen, ist das wohl die beste Karte aus P/L Sicht.

DrFreaK666
2025-02-20, 08:31:56
Oder abwarten wie RDNA4 wird.
Bei den wahscheinlich viel zu hohen Preisen der 5070er-Karten, keine schlechte Idee.
Wenn es NV sein muss, dann hoffen, dass man heute eine 5070Ti für weniger als 1000€ bekommt. Laut PCGH wäre die Karte auch für 1000 noch die beste was Preis-Leistung angeht

][immy
2025-02-20, 10:59:21
Oder abwarten wie RDNA4 wird.
Bei den wahscheinlich viel zu hohen Preisen der 5070er-Karten, keine schlechte Idee.
Wenn es NV sein muss, dann hoffen, dass man heute eine 5070Ti für weniger als 1000€ bekommt. Laut PCGH wäre die Karte auch für 1000 noch die beste was Preis-Leistung angeht
Jo, etwa auf rtx 4080 Niveau. Der Preis hat sich halt die letzten Jahre nicht nach unten bewegt. Die Performance in so ziemlich jedem Preissegment stagniert seit Jahren. Hoffentlich traut sich Intel noch ein wenig mehr als die b580. Das wäre zumindest eine Möglichkeit wie die Preise wieder runter gehen könnten.

dildo4u
2025-03-01, 11:09:24
AMD PT Demo zum 9700 Launch


p0vLil19mBs

Relex
2025-03-01, 11:30:01
Das können sie doch nicht ernst meinen?

Selbst in dem 4K Video sieht es jetzt absolut furchtbar aus.

Wirkt wie 1440p mit FSR3 Performance modus und standard Denoiser.

Selbst Cyberpunk mit der Pathtracing Beta, als noch kein Ray Reconstruction verfügbar war, sah nicht so schlimm aus.


https://i.ibb.co/3y60qw0V/Screenshot-2025-03-01-112701.png (https://ibb.co/6R94x24G)

dildo4u
2025-03-01, 11:40:04
Gibt es ein Spiel mit UE5 und Ray Rekonstruktion?
Ich würde gerne sehen wie sich DLSS4 in der Situation verhält.

Dovregubben
2025-03-01, 12:41:43
Die Hauptwirkung von dem Demovideo ist zu sehen, dass ein Quasimonopol schlecht ist. Keinerlei temporale Stabilität kombiniert mit Ghosting ohne Ende. Vermutlich wären Punkte auf Slides besser gewesen als das hier zu zeigen.

basix
2025-03-01, 12:59:30
Ja, es sieht wirklich noch nicht gut aus. Schade.

Lustig finde ich zudem, dass sie ReSTIR und NRC verwendet. Beides aus Nvidias Research ;)

Fragman
2025-03-01, 13:05:04
Man muss die Erwartung etwas runter schrauben weil sie auch Zeit brauchen das zu entwickeln. Das wird aber garantiert besser.

basix
2025-03-01, 13:12:36
Ray Reconstruction ist mMn halt ein Game Changer für RT. Das kann man auch bein non-PT Games anwenden (machen leider zu wenige Spieleentwickler) und wertet das Bild deutlich auf. FSR4 SR ist insgesamt sicher wichtiger, aber RR wird zukünftig auch wichtig werden. RR ist mMn deutlich wichtiger als etwas geringere RT-Rohperformance.

Aber ja, geben wir AMD noch etwas Zeit.

Gast
2025-03-01, 14:48:13
Selbst in dem 4K Video sieht es jetzt absolut furchtbar aus.




Wobei es im Video vermutlich schlimmer als in Echt aussieht.

basix
2025-03-01, 15:35:40
Fehler bei Nvidia?
RR Integration Guide public, war bisher nicht so
https://github.com/NVIDIA/DLSS/blob/main/doc/DLSS-RR%20Integration%20Guide%20API.pdf

File ist mit "Nvidia Confidential" markiert.

Was ist Preset D? Transformer? Laut Changelog des Files ja.

RR scheint auf Turing sehr viel langsamer zu laufen als DLSS SR. Deutet FP8 vs. FP16 an.

Relex
2025-03-01, 16:07:04
Ja, sieht man ja auch am Speicherverbrauch, der mit Ampere und Turing deutlich höher ist.


Der Guide ist schon ein paar Tage online. So ganz verstehe ich das mit den RR Presets aber nicht.

Wenn man sich das DLSS Overlay einblendet, dann sieht man z.B. dass bei Indiana Jones und Cyberpunk unterschiedliche Models verwendet werden. Allerdings werden da irgendwelche kryptischen Namen verwendet.

Aber selbst wenn man über die Nvidia App RR überschreibt, dann ändert sich die Bezechung des Models nicht.

Trotz scheinbar unterschiedlicher Models in den Spielen scheint es laut Nvidia Guide aber nur eines für Transformer zu geben.

Irgendwie ist das alles sehr kryptisch...


Ursprünglich wollte ich nämlich das RR aus Indiana Jones in Cyberpunk nutzen. Denn rein subjektiv scheint mir das nochmal deutlich hochwertiger auszusehen.
Aber das kopieren des dll files von Indy zu Cyberpunk ändert weder was an der Bildqualität noch an dem angezeigten RR Model Namen.

Lurtz
2025-03-01, 16:39:17
Warum wächst der RAM-Bedarf an? Weil es wie vermutet nicht komplett in den Cache passt?

Relex
2025-03-01, 16:52:35
Ganz in den Cache passt das ja auch bei Ada und Blackwell nicht laut den Zahlen.

Aber ich gehe stark davon aus, dass man hier zwischen dem NN und dem gesamten Speicherbedarf unterscheiden muss.

Ich würde davon ausgehen, dass das NN nur wenige MB groß ist und zumindest ab Ada auch in den Cache passt. Das NN füttert dann wahrscheinlich diverse Buffer, die im VRAM liegen. Und so ergibt sich dann eben der Gesamtverbrauch, der hier angegeben ist.

Ansonsten liegt es in der Natur der Sache, dass FP16 mehr speicher braucht, als FP8. Der Adressbereich bei FP16 nutzt schließlich doppelt so viele Bits für die Darstellung einer Zahl...


Aber ich denke bei Ray Reconstruction ist Speicherverbrauch und Berechnungszeit eher zweitranging, da man damit ja auch die Standard Denoiser des Spiels ersetzt, welche meist noch viel mehr Berechnungszeit haben und noch mehr Speicher brauchen bei zugleich deutlich schlechterer Qualität.
Daher kann sich das selbst auf Amere noch rentieren (wobei man auf den Karten wohl kaum Pathtracing nutzen wird, da sowohl Rohleistung als auch Frame Generation fehlen)

basix
2025-03-01, 17:10:48
SR & RR Messungen via Nsight Graphics:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13717101#post13717101

Gast
2025-03-01, 17:12:17
Warum wächst der RAM-Bedarf an?


Vermutlich weil das Modell größer ist.


Weil es wie vermutet nicht komplett in den Cache passt?

Was soll das mit dem Cache zu tun haben? Per Definition cached der Cache Daten aus dem RAM, damit sind logischerweise die Daten im Cache auch im RAM.

DrFreaK666
2025-03-01, 18:32:59
Ja, es sieht wirklich noch nicht gut aus. Schade.

Lustig finde ich zudem, dass sie ReSTIR und NRC verwendet. Beides aus Nvidias Research ;)

AMD hat daran auch geforscht.
Ein Reshade RT-Shader bietet auch ReSTIR an. Imo nichts außergewöhnliches

edit: Das AMD-Video ist wirklich schwach. Vielleicht hätte man das Profis machen lassen sollen

basix
2025-03-01, 18:59:18
Klar forscht auch AMD daran. Aber das originale ReSTIR Paper von 2020 ist von Nvidia und Nvidia hat das Kind ReSTIR getauft ;)

ReSTIR und dessen Verwandte sind aktuell SotA, deswegen verwendet das AMD auch. Das finde ich auch OK, da die "Full-PT" Implementierungen in Games alle ReSTIR nutzen und AMD so zeigen kann: Wir können auch "Full-PT".

DrFreaK666
2025-03-01, 19:08:28
Naja, wird sich zeigen müssen, ob RDNA4 am Ende tatsächlich für PT in Games nutzbar ist. 50% schneller als die 7900GRE wird da nicht reichen ^^ und AMD hat nichts zur PT-Ferformance im Vergleich gesagt

Slipknot79
2025-03-01, 19:14:06
AMD PT Demo zum 9700 Launch


https://youtu.be/p0vLil19mBs


lol, sieht das in Spielen dann auch so aus? (y)

basix
2025-03-01, 19:19:15
Naja, wird sich zeigen müssen, ob RDNA4 am Ende tatsächlich für PT in Games nutzbar ist. 50% schneller als die 7900GRE wird da nicht reichen ^^ und AMD hat nichts zur PT-Ferformance im Vergleich gesagt

Raff wird uns das zeigen ;)

Ravenhearth
2025-03-01, 19:21:55
Naja, wird sich zeigen müssen, ob RDNA4 am Ende tatsächlich für PT in Games nutzbar ist. 50% schneller als die 7900GRE wird da nicht reichen ^^ und AMD hat nichts zur PT-Ferformance im Vergleich gesagt
Die XT ist laut AMD in Cyberpunk mit RT Ultra schon 66% schneller, das theoretische Maximum, wenn nur RT limitiert, wäre wohl ~2x. RDNA4 bietet rechenleistungsnormiert die doppelte RT-Performance und die GRE und 9070XT haben etwa die gleiche Rechenleistung. In Cyberpunk Overdrive würde 2x allerdings noch nichtmal für die 3080 reichen, wenn ich mir die Benches von CB (https://www.computerbase.de/artikel/grafikkarten/nvidia-dlss-3-5-test.85672/seite-2)anschaue, und eine 5070 Ti wäre in etwa doppelt so schnell :redface:

Edit: Die Full RT Benches aus dem 5070 Ti Review sehen besser für AMD aus, hier wäre man in 1440p mit Quality Upsampling fast so schnell wie eine 4070 oder 2/3 so schnell wie eine 5070 Ti (ich habe für die 9070 XT die 2,2-fache Performance der 7800 XT angenommen; die 4070 liegt bei 2,35x und die 5070 Ti bei 3,3x)

Gast
2025-03-01, 20:21:07
Naja, wird sich zeigen müssen, ob RDNA4 am Ende tatsächlich für PT in Games nutzbar ist.


Wird es ziemlich sicher nicht, Cyberpunk ohne RT ist sie gleich auf mit der 5070Ti, mit RT schon 20% zurück, und der Rückstand wird mit PT nur anwachsen.

basix
2025-03-02, 16:14:40
So riesig ist der Unterschied zwischen RT und PT bei CP2077 nicht. RT in CP2077 ist ziemlich heavy und RDNA3 ist weiter hinten dran als zum Teil sogar bei anderen PT Games:
https://www.pcgameshardware.de/Geforce-RTX-5070-Ti-Grafikkarte-281031/Tests/Release-Preis-Test-Benchmarks-vs-5080-1466041/5/

Klar, der Rückstand wird wohl noch etwas anwachsen, aber eine 5070 sollte die 9070XT vermutlich schlagen können. PT sollte damit in 1440p + Upscaling (+ FG) nutzbar sein. Wird es ein super geiles Framerate-Erlebnis? Wohl nicht. Aber wenn man Nvidia Karten ab 4070 aufwärts PT-Fähigkeit bescheinigt, wird das auch für die 9070er Serie so sein.

Gast
2025-03-02, 17:00:51
So riesig ist der Unterschied zwischen RT und PT bei CP2077 nicht.


Auf Lovelace/Blackwell, auf AMD-Karten ist ist der Unterschied ziemlich groß.

RDNA4 wird diesen sicher um einiges verkleinern, auf dem Papier sollte man aber „nur“ auf Ampere-Niveau sein.

x-force
2025-03-02, 19:11:56
Aber wenn man Nvidia Karten ab 4070 aufwärts PT-Fähigkeit bescheinigt, wird das auch für die 9070er Serie so sein.

aus eigener erfahrung kann ich dir sagen, dass eine 4070ti in cp2077 nur bis wqhd und bis dlss q + fg reicht. für uwqhd ist die karte im grunde zu langsam, 4k damit ebenfalls.
damit ist die 9070 in punkto rt leider ein griff ins klo.
darüber hinaus bleibt abzuwarten, ob amd überhaupt mit dlss 3.x gleichziehen kann. wenn das nicht gegeben ist und man auf quality muss, um nv performance niveau zu erreichen, ist die rt fähigkeit sowieso nichts mehr als eine illusion.

The_Invisible
2025-03-02, 19:17:26
Ohne gutem RR ist PT sowieso irgendwie nutzlos, siehe auch letzten Indiana Jones Patch, Unterschied wie Tag und Nacht

TheGood
2025-03-02, 22:55:37
aus eigener erfahrung kann ich dir sagen, dass eine 4070ti in cp2077 nur bis wqhd und bis dlss q + fg reicht. für uwqhd ist die karte im grunde zu langsam, 4k damit ebenfalls.
damit ist die 9070 in punkto rt leider ein griff ins klo.
darüber hinaus bleibt abzuwarten, ob amd überhaupt mit dlss 3.x gleichziehen kann. wenn das nicht gegeben ist und man auf quality muss, um nv performance niveau zu erreichen, ist die rt fähigkeit sowieso nichts mehr als eine illusion.
Witzig dass man das bei jeder Nvidia Generation von neuem hört. immer nur die 80 und 90 bringen genügend RT...
Aber dann sagen das sei für alles das wichtigste auf der Welt ;)
Die fakten sprechen noch dagegen, weil es halt im MIdrange immer noch zu langsam ist. Aber wir kommen langsam hin, vor allem weil man es nicht mehr so übertreibt sondern endlich langsam sinnvoll einsetzt (GI)

x-force
2025-03-02, 23:11:00
Witzig dass man das bei jeder Nvidia Generation von neuem hört. immer nur die 80 und 90 bringen genügend RT...
Aber dann sagen das sei für alles das wichtigste auf der Welt

du hast gelesen, dass es von der auflösung abhängt und eine 4070ti schon mehr als der einstieg ist.

das ist auch kein widerspruch, die anforderungen steigen mit der zeit.
die entwickler der spiele schlafen nicht und mit jeder gen wird mehr berechnet.

mit der 4000er war erstmals pt unterhalb der 90er machbar.

basix
2025-03-03, 07:18:42
Ohne gutem RR ist PT sowieso irgendwie nutzlos, siehe auch letzten Indiana Jones Patch, Unterschied wie Tag und Nacht

Ja, RR vermisse ich bei FSR4 auch noch.

Und prinzipiell könnte RR, wenn entsprechend eingesetzt, die Kosten für PT nochmals deutlich senken. Nämlich in dem man die Anzahl Rays reduziert und möglichst viel Arbeit von RR übernehmen lässt.

DrFreaK666
2025-03-03, 08:12:47
Ist nicht das "Neural Denoising" von AMD sowas wie RR?

dildo4u
2025-03-03, 09:05:11
Ich glaube der Denoiser läuft überall kann also nicht zu teuer sein.
Daher hast du diese schlechten Ergebnisse, NV Ray Rekonstruktion hingegen ist teuer und Krüppelt ältere Nvidia Karten.

Laut dem verliert eine 3090 30% Leistung in Cyberpunk.

rlePeTM-tv0

aufkrawall
2025-03-03, 09:13:39
Alte Karten können weiterhin RR-CNN nutzen. Was zwar nicht gerade artefaktfrei aussieht, aber das kann man von der AMD-Tech in dem Video ja auch nicht gerade behaupten.

madzapp
2025-03-03, 10:14:20
Egal wie es wo anders aussieht. Das macht es nicht, ich wiederhole nicht, besser.
Das ist doch keine Argumentation. Zumindest in meinen Augen.

dargo
2025-03-03, 13:05:22
Ich finde die ganze Diskussion wieder hoch amüsant. Da wird extrem teures Path Tracing auf die Meute losgelassen wo jeder IHV weiß, dass die eigene Hardware noch locker 10 Jahre zu langsam dafür ist. Dann bringen die DEVs ultra low Settings mit PT raus wo alles wie hulle flimmert/flackert oder es einen Ameisenhaufen an vielen Stellen gibt, und dennoch sau teuer ist. Und dann müssen die GPUs diese ultra low Quality bei PT wieder rekonstruieren damit es halbwegs brauchbar aussieht. :ulol:

Fragman
2025-03-03, 13:24:36
PT wird auch in 10 Jahren zu langsam sein.
Das ist das Chasing the Dragon Game.
Bevor das performant läuft so wie sich das einige vorstellen, wird die Tech dank generativer Inhalte nicht mehr gebraucht werden. Die Ansätze davon werden schon genutzt um die Löcher zu füllen.
Deshalb braucht man die Hardware und die Kompromisse für RT heute, weil die KI allein noch nicht soweit ist.

Relex
2025-03-03, 14:03:22
Ich finde die ganze Diskussion wieder hoch amüsant. Da wird extrem teures Path Tracing auf die Meute losgelassen wo jeder IHV weiß, dass die eigene Hardware noch locker 10 Jahre zu langsam dafür ist. Dann bringen die DEVs ultra low Settings mit PT raus wo alles wie hulle flimmert/flackert oder es einen Ameisenhaufen an vielen Stellen gibt, und dennoch sau teuer ist. Und dann müssen die GPUs diese ultra low Quality bei PT wieder rekonstruieren damit es halbwegs brauchbar aussieht. :ulol:


Halbwegs brauchbar ist schon ne maßlose untertreibung.

Natürlich ist immer Luft nach oben, aber selbst mit DLSS3 hatte PT schon einen riesen Mehrwert und jetzt mit DLSS4 RR sieht es nochmal deutlich besser aus.

Das Boiling und Smearing ist mit PT + DLSS4 RR z.B. kaum noch sichtbar und deutlich geringer als simples UE5 Lumen mit den Standard denoisern. Sogar besser als die meisten früheren RT-GI implementierungen.


Luft nach oben gibts natürlich immer, aber wo ich bei DLSS3 noch mehr das Gefühl hatte, dass man für die bessere Beleuchtung noch einen Kompromiss eingeht, sehe ich den bei DLSS4 RR kaum noch. Ja, das Bild ist weiterhin etwas unschärfer als mit normalem DLSS4, dafür ist aber auch nicht nur das Denoising, sondern auch die generelle Kantenglättung und Bildstabilität nochmal um ne ganze Dimension besser.

Und trotz des etwas softeren Looks wird DLSS4 RR in bewegung auch nicht unscharf. Hat hier also die Eigenschaften von DLSS4 SR geerbt.


Letztendlich habe ich mittlerweile über 300 Stunden mit PT Spielen verbracht und du willst jetzt sagen, dass die Hardware dafür ja noch gar nicht tauglich ist, sondern erst in 10 Jahren? Natürlich bilde ich mir das auf meiner 4080 nur ein, oder? Und natürlich würde ne 5090 die Performance nicht nochmals extrem erhöhen und damit auch den letzten Enthusiasten zufrieden stellen? Denkst du etwa, dass nichtmal auf ner 5090 ein Pathtraced spiel mit 250-300 FPS durch MFG und DLSS4 RR sehr gut spielbar ist und sehr gut aussieht? Natürlich ist das nicht mit der Grafikqualität eines Offline PT renders vergleichbar, aber deswegen ist der Mehrwert trotzdem enorm.


Also ich weiß nicht. Am Ende muss man sich halt eingestehen, dass PT aktuell nur auf Nvidia Hardware mit entsprechender RT Leistung + AI Software features sinnvoll lauffähig ist.
Mit Ampere kann man das ja selbst auf nvidia schon wieder ziemlich vergessen.

Solange AMD also nicht auf dem gleichen Level ist, braucht man sich auch nicht darüber echauffieren, dass das ja alles auf absehbare Zeit noch gar nicht sinnvoll sei. Ich meine, ist schon klar, wenn man sich den AMD Trailer ansieht, dann ist das gezeigte völlig unbrauchbar.

Aber früher oder später wird AMD auch ihre Hardware und Software auf einem Stand haben, ab den es sinnvoll nutzbar ist.


Ich verstehe halt nicht, warum man jetzt wieder versucht, das ganze zu relativeren nach dem Motto "ist eh alles scheiße, nicht nutzbar, zu teuer etc." anstatt sich darüber zu freuen, dass es vorwärts geht und auf der Konkurrenzhardware schon jetzt sinnvoll nutzbar ist. Immer dieser Pessimissmus der ewig gestrigen, es ist langsam wirklich bedauerlich...

Hätten wir kein RR und Hardware auf Ampere Niveau würde ich das auch anders sehen. Dann wäre PT nichts weiter als eine Techdemo. Ein Ausblick in die Zukunft. Aber das ist ja nicht der Fall. Das läuft bereits hier und jetzt mit ausreichender Performance und guter Bildqualität, selbst auf meiner "mickrigen" 4080 die nen 4K Monitor zu befeuern hat...

Dovregubben
2025-03-03, 14:46:05
Was hier Nvidia vorgeworfen wird, ist einfach eine sehr geile Optimierung. Die selben Personen schreien sonst, dass Entwickler ja nicht mehr optimieren :)

Raytracing geht nicht mehr weg, Pathtracing geht nicht mehr weg und Ray Reconstruction wird in der ein oder anderen Form auch nicht mehr weggehen.

Es gibt keinen argumentierbaren Gründe dafür endlose Strahlen zu feuern, wenn man aktuell schon so gute Ergebnisse nah an der Ground Truth hat. Man kann die Probleme jetzt noch reduzieren mit Aufwand bei der Rekonstruktion und paar Strahlen pro Pixel mehr, aber dann ist die Sache auch gegessen.

Reines AI Rendering ist vermutlich sogar in 10 Jahren noch reine Illusionen. Es existiert ja bis heute keinerlei Ansatz dafür.

Exxtreme
2025-03-03, 14:56:22
Was hier Nvidia vorgeworfen wird, ist einfach eine sehr geile Optimierung. Die selben Personen schreien sonst, dass Entwickler ja nicht mehr optimieren :)


Das ist keine Optimierung sondern man hat ein Optimierungsproblem erschaffen und bietet für einen sehr hohen Preis auch die Lösung dafür an. Ist wie bei F2PP2Win-Spielen. Man baut mit voller Absicht unbequeme Zeitfresser ein und verkauft dafür eine Abkürzung.

aufkrawall
2025-03-03, 15:39:54
Das reden du und die anderen Fortschrittsfeinde euch nur ein. Niemand zwingt dich, teures RT zu verwenden. Kannst weiter alles mit Gammelgrafik spielen und glücklich werden, auch ganz ohne Fakten verdrehende Unsinns-Posts...

ChaosTM
2025-03-03, 15:46:54
RT/PT ist immer noch "Nische" und das hat nix mit Technologie-Feindlichkeit zu.
Ich liebe 77 in PT, aber Indy in PT ist .. wtf?

Fortschrittsfeinde sind nur im Kopf bzw. dem Ego ;)

aufkrawall
2025-03-03, 15:49:47
Nope. Die Erzählung ist hier ständig, dass es "früher" genauso gut gefaked werden konnte. Und das ist schlicht BS.
Siehe auch den Weg, den Epic mit Lumen gegangen ist. Könnte man ganz einfach kapieren, wenn man sich nicht aktiv dagegen sträuben würde. Was eine lächerliche Haltung ist.

Und die Schatten in Indy ohne NV-RT sind nun wirklich der allerletzte Rotz, tolles Beispiel. :freak:

][immy
2025-03-03, 15:57:46
Ich glaube der Denoiser läuft überall kann also nicht zu teuer sein.
Daher hast du diese schlechten Ergebnisse, NV Ray Rekonstruktion hingegen ist teuer und Krüppelt ältere Nvidia Karten.

Laut dem verliert eine 3090 30% Leistung in Cyberpunk.

https://youtu.be/rlePeTM-tv0
Wie ich das schon mal erwähnt habe, sie kann man mit all den Nachteilen und Artefakten nur mit RT/pt spielen bzw dlss 2/3? Dlss4 sieht ja schon mal besser aus, hat aber immer noch erhebliche optische Nachteile.
Bin mal gespannt was für Nachteile beim nächsten dlss über das aktuelle zu Tage gefördert werden.

Für rt/pt muss man halt aktuell wirklich Kompromisse eingehen. Ein nicht zu unterschätzender Kompromiss ist sind dann natürlich noch die Hardwarekosten. Und da muss ich leider sagen, bin ich echt an der Klotzgrenze angekommen. Der nutzen steht hier in keinem Verhältnis mehr zu den Kosten und mehr Spaß machen die Spiele halt auch nicht dadurch.

x-force
2025-03-03, 16:07:40
[immy;13718355']Der nutzen steht hier in keinem Verhältnis mehr zu den Kosten und mehr Spaß machen die Spiele halt auch nicht dadurch.

aber das auge isst mit. das gilt bei nahrung, frauen und spielen.

du spielst doch wahrscheinlich schon lange keine alten spiele mehr, oder wirfst du regelmäßig die klassiks von vor 30 jahren an?

ChaosTM
2025-03-03, 16:09:13
Nope. Die Erzählung ist hier ständig, dass es "früher" genauso gut gefaked werden konnte. Und das ist schlicht BS.
Siehe auch den Weg, den Epic mit Lumen gegangen ist. Könnte man ganz einfach kapieren, wenn man sich nicht aktiv dagegen sträuben würde. Was eine lächerliche Haltung ist.

Und die Schatten in Indy ohne NV-RT sind nun wirklich der allerletzte Rotz, tolles Beispiel. :freak:


Ich hab nie die "früher" Karte gespielt. So blöd bin ich auch nicht.
Und ich hab Indy ohne PT (Raubkopiert) gespielt, und ich hatte nichts vermisst.
Mittlerweile hab ich dafür bezahlt.


PT/RT ist eine der möglichen Zukünfte ;)

Lurtz
2025-03-03, 16:38:21
[immy;13718355']Wie ich das schon mal erwähnt habe, sie kann man mit all den Nachteilen und Artefakten nur mit RT/pt spielen bzw dlss 2/3? Dlss4 sieht ja schon mal besser aus, hat aber immer noch erhebliche optische Nachteile.
Du hast Vorteile falsch geschrieben.

Rooter
2025-03-03, 19:47:34
Das ist keine Optimierung sondern man hat ein Optimierungsproblem erschaffen und bietet für einen sehr hohen Preis auch die Lösung dafür an.Du kennst dich bei den Thema sicher 100x besser aus als ich, aber: PT ist doch ein Monte-Carlo-Algorithmus. Da geht es ohne einen Denoiser doch gar nicht, weil sonst alles verrauscht ist.
Oder meist du was anderes mit "Optimierungsproblem"? :confused:

MfG
Rooter

Exxtreme
2025-03-03, 20:49:38
PT ist doch ein Monte-Carlo-Algorithmus.

Ja, und das ist das Problem. ;) Monte-Carlo-RT und zuwenige Strahlen sind halt eine sehr suboptimale Kombination. Das ganze Ding ist wohl so konstruiert um mittels temporaler Verfahren nachträglich "gefixt" zu werden. Dann kann man diese temporalen Verfahren für viel Geld verkaufen.

Wie gesagt, die Anbieter von F2P/P2Win-Spielen gehen exakt gewauso vor. Sie kreieren Probleme und verkaufen Lösungen für diese Probleme.

Rooter
2025-03-03, 20:56:10
Okay. Und wäre deiner Meinung nach das bessere Verfahren?

MfG
Rooter

ChaosTM
2025-03-03, 21:02:41
Ja, und das ist das Problem. ;) Monte-Carlo-RT und zuwenige Strahlen sind halt eine sehr suboptimale Kombination. Das ganze Ding ist wohl so konstruiert um mittels temporaler Verfahren nachträglich "gefixt" zu werden. Dann kann man diese temporalen Verfahren für viel Geld verkaufen.

Wie gesagt, die Anbieter von F2P/P2Win-Spielen gehen exakt gewauso vor. Sie kreieren Probleme und verkaufen Lösungen für diese Probleme.


Danke, wenigstens einer, der das zu Grunde liegende Problem erkannt hat ...
NV kann diese Spiel ewig spielen, und AMD hat niemals eine Chance aufzuschliessen..

AffenJack
2025-03-03, 21:18:55
PT/RT ist eine der möglichen Zukünfte ;)

Niemand zweifelt daran, dass RT/PT die Zukunft ist. Nur ist recht klar, dass für reines PT nicht genug Leistung da sein wird. Die Frage ist also, wie ergänzt man PT mit intelligenten Algorythmen, Neural Rendering etc so, dass man aus wenigen Strahlen das maximale rausholen kann.

Fragman
2025-03-03, 22:42:00
reines PT

Die Zeiten sind zum Glück vorbei.
Es will auf heutigen High End Rechnern schließlich keiner monatelang auf ein Bild warten.
Kann mich noch an Tests vor über 20 Jahren oder so erinnern als die ersten echten PT Renderer raus kamen, ohne die heutigen Optimierungen.
Diese Diskussionen wie hier werden nie aufhören, weil es ohne diese ganzen Ersparnisse keine PT Renderer geben wird.

aufkrawall
2025-03-04, 07:09:11
Danke, wenigstens einer, der das zu Grunde liegende Problem erkannt hat ...
NV kann diese Spiel ewig spielen, und AMD hat niemals eine Chance aufzuschliessen..
Den PC und damit Nvidia interessiert in dem Zusammenhang kein Schwein bzw. niemand, der Entscheidungen über Spieleentwicklung trifft.
UE5 Lumen ist hier der Taktgeber, nicht Nvidia. Nvidia ist einfach nur mit der Hardware und Forschung mitunter zig Jahre weiter und versucht das auszuspielen.
Klappt mal mehr, mal weniger gut. Sich darüber aufzuregen oder Verschwörungstheorien zu spinnen, ist ziemlich lächerlich.

basix
2025-03-04, 07:22:32
Und wieso das Spiel ewig weiterspielen? Full-PT ist schon das Endziel. Mit PT + RR gibt es nicht mehr viele Stellen, wo ein Offline Renderer mit dem selben Content (viel) besser aussieht. Und das will was heissen. Hier werden dann die meisten sagen: Es sieht gut genug aus. Mehr braucht es nicht.

Und wenn man die HW & SW Entwicklung & Forschung der letzten Zeit anschaut, könnte hinsichtlich PT bereits bei der PS6 und Co. eintreten, dass man 90% des Ziels aka "gut genug" erreicht hat. Und das ist nicht mehr weit weg.

aufkrawall
2025-03-04, 07:28:49
Ja. Wenn UDNA bei RT und ML liefert (RDNA4 scheint da Hoffnung zu machen), sollte die PS6 endlich der PT-Durchbruch werden. Eine Echtzeit-Variante von PT könnte dann auch eines der Haupt-Features von UE6 werden. Megalights ist ja schon ein Schritt in die Richtung und würde Abwärtskompatibilität für die LastGen bieten, ohne dass der Entwickler im Content rumpfuschen muss. Genau das macht deutlich, wie vorteilhaft ein simulierter Ansatz ist gegenüber teuren Content-Hacks.
Diese Konsolen-Gen ist halt leider nur so eine Art Pipe Cleaner. Das krankt aber nicht nur an der Hardware, sondern auch Forschung. Siehe auch die Durchbrüche bei RR, ist selbst für Nvidia nicht einfach mal so eben aus dem Hut zu zaubern.

x-force
2025-03-04, 08:34:57
Danke, wenigstens einer, der das zu Grunde liegende Problem erkannt hat ...
NV kann diese Spiel ewig spielen, und AMD hat niemals eine Chance aufzuschliessen..

sieht aus als hättet ihr singalverarbeitung nicht verstanden.
unterstellst ihr nyquist und shannon das gleiche?

basix
2025-03-04, 09:33:56
Ja. Wenn UDNA bei RT und ML liefert (RDNA4 scheint da Hoffnung zu machen), sollte die PS6 endlich der PT-Durchbruch werden. Eine Echtzeit-Variante von PT könnte dann auch eines der Haupt-Features von UE6 werden. Megalights ist ja schon ein Schritt in die Richtung und würde Abwärtskompatibilität für die LastGen bieten, ohne dass der Entwickler im Content rumpfuschen muss. Genau das macht deutlich, wie vorteilhaft ein simulierter Ansatz ist gegenüber teuren Content-Hacks.
Diese Konsolen-Gen ist halt leider nur so eine Art Pipe Cleaner. Das krankt aber nicht nur an der Hardware, sondern auch Forschung. Siehe auch die Durchbrüche bei RR, ist selbst für Nvidia nicht einfach mal so eben aus dem Hut zu zaubern.

+1

PS5 und Co. sind für viele neuen Sachen einen Ticken zu schwach aber mit ein bisschen Downsizing (wie z.B. MegaLights) klappt das schon.

Die Konsolengeneration kam 2020 raus und seit dem ist mit Meshlets in Games, Nanite, ReSTIR, MegaLights, Lumen, DLSS2...4, FSR4, FG, RR, Neural Shaders usw. extrem viel neues auf dem Parkett. Und die PS6 dürfte bei allem neuen Zeugs All-In gehen können. Das ist schon ein ziemlich grosser Sprung. Die heutigen Konsolen können von dem auch profitieren, die selben Workflows nutzen aber halt alles sehr abgespeckt.

Fragman
2025-03-04, 10:26:13
Man müsste halt wissen wie weit AMD auch mit den eigenen R&D Tools ist um das alles stabil zusammen zu bringen. 3 Jahre haben sie noch für die Software, vielleicht 2 für die Hardware?

Dovregubben
2025-03-04, 10:49:17
Man müsste halt wissen wie weit AMD auch mit den eigenen R&D Tools ist um das alles stabil zusammen zu bringen. 3 Jahre haben sie noch für die Software, vielleicht 2 für die Hardware?
Realistisch betrachtet müssten die ersten Softwareversionen auf die Zielgerade gehen. Wenn in 3 Jahren die PS6 rauskommen würde, müssten die Launchtitel schon längst in Produktion sein.

Relex
2025-03-04, 11:18:45
Ich schätze der nächste Sprung bei der Chipfertigung und 1-2 weitere Iterationen von RDNA wird es schon brauchen, damit eine Konsole mit sparsamer mittelklasse AMD Hardware Pathtracing fähig wird.

Die Konsolenhersteller werden so oder so den richtigen Zeitpunkt abwarten, weshalb ich auch glaube, dass die aktuelle Konsolengeneration länger leben wird und nicht schon in 2-3 Jahren abgelöst wird. Ich würde da eher auf 3-4 Jahre tippen.


Mein best guess für die PS6 wäre Hardware auf RTX4080 Niveau incl vergleichbarer RT/PT performance.

Man kommt ja mit RDNA4 schon relativ kosteneffizient an die 4080 in Raster ran. RT muss sich zeigen. Wenn man jetzt mit 1-2 RDNA Iterationen noch die RT Leistung weiter aufbohrt, dann sollte das auch ne Mitteklasse GPU die für eine Konsole passend ist erreichen.

dildo4u
2025-03-04, 13:26:02
GTA5 RT Update ist verfügbar


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13718966&postcount=6107

Raff
2025-03-04, 13:58:07
Und, wie läuft's? =)

MfG
Raff

aufkrawall
2025-03-04, 14:50:11
Lohnt sich, nicht übermäßig teuer und jeder Effekt ist es wert.
Sieht allerdings auf Standbildern (und bei Reflexionen auch in Bewegung) recht aliased aus, irgendwas mit dem Denoising o.ä. klappt nicht richtig. Kein Beinbruch, aber ein Fix dafür wär noch nice.

dildo4u
2025-03-04, 15:15:28
Rennt hier OK RT Max 80-90 FPS 4K DLSS Qualität mit 4070S in der Open World.

robbitop
2025-03-04, 15:50:49
Leider kein Ray Reconstruction und kein Frame Generation :(
Aber ansonsten: was für ein Upgrade :up:

Lurtz
2025-03-04, 21:23:09
Realistisch betrachtet müssten die ersten Softwareversionen auf die Zielgerade gehen. Wenn in 3 Jahren die PS6 rauskommen würde, müssten die Launchtitel schon längst in Produktion sein.
Die Launchtitel werden wieder nur aufgehübschte PS5-Titel (oder sogar noch älter) sein. Spieleentwicklung ist zu langwierig und teuer geworden, niemand kann sich erlauben jetzt schon zig Millionen in ein für ein zu dem Zeitpunkt nur ein paar Millionen Mal verkaufte Hardware zu investieren. Und die Plattformbetreiber selbst wollen nicht (Microsoft) oder müssen nicht (Sony).

dildo4u
2025-03-05, 13:27:37
ehD8NN_IZ6E

DrFreaK666
2025-03-05, 13:32:04
spiegeln sich Autos in anderen Autos?
Ok, laut 21:06 schon

Prinzenrolle
2025-03-07, 09:41:18
Ich liebe 77 in PT, aber Indy in PT ist .. wtf?

Bitte was?:confused: Indy ist der Beweis schlechtin warum es RT braucht. :D
Das ist keine Optimierung sondern man hat ein Optimierungsproblem erschaffen und bietet für einen sehr hohen Preis auch die Lösung dafür an.

Man ist jetzt nahe an der "ground truth" und muss mit ein paar intelligenten Optimierungen den Weg dorthin einfacher machen. Du hast wie viele andere nicht gerafft, dass RT bzw. PT der Weg in eine ganzheitlichere, deutlich einfacher zu kontrollierende und umsetzbare Renderart ist, die sich der gängigen Physik annähert.
Das Erzeugen einer richtig beleuchteten Szene wird als Entwickler erheblich erleichtert, man spart Geld und Zeit und erhält ein viel realistisches, dynamisches, konsistentes Beleuchtungsmodell.
Es wird doch ständig gefordert mehr Lebendigkeit, Physik bzw. Interaktion in die Spielewelten zu integrieren und das vor allem ökonomisch gangbar, aber man lehnt dies ab, weil man dem Narrativ der Technikverdrossenheit hinterherrennt wie ein Hund hinter einem vergammelten Knochen.
Es ist schlicht eine Revolution und Spieleprogrammierung ist dadurch auch mit einem kleinen Team deutlich einfacher, was kosten senkt und das Genöle um teure Software auch eindämmen kann.
Ab einer gwissen Szenenkomplexität beißt sich das Rastern die Zähne aus und dann kann der Hund den vergammelten Knochen nicht mehr kauen. So etwas von einem "3D Guru" zu lesen, verursacht endokrinale Störungen.

The_Invisible
2025-03-07, 10:07:28
Bitte was?:confused: Indy ist der Beweis schlechtin warum es RT braucht. :D


Vielleicht hat er es noch ohne RR Patch gespielt. PT ohne RR kann man eigentlich gleich sein lassen

Exxtreme
2025-03-07, 10:36:54
Man ist jetzt nahe an der "ground truth" und muss mit ein paar intelligenten Optimierungen den Weg dorthin einfacher machen. Du hast wie viele andere nicht gerafft, dass RT bzw. PT der Weg in eine ganzheitlichere, deutlich einfacher zu kontrollierende und umsetzbare Renderart ist, die sich der gängigen Physik annähert.

Man ist weiterhin Lichtjahre von der "ground truth" entfernt auch wenn das näher dran ist als irgendwelche RT-Surrogate ala normal mapping. Man bräuchte schon mehrere Strahlen pro Pixel um sich dem anzunähern. Nur macht das die heutige Hardware gar nicht mit wenn es auch schnell sein soll. Also nutzt man nur ein paar hundert Strahlen und versucht die Artefakte, die nur ein paar hundert Strahlen erzeugen, nachträglich zu entfernen. Dummerweise erzeugt die Entfernung dieser Artefakte wiederum neue andere Artefakte, meist temporaler Natur. Das ist so als ob man Rizinusöl trinkt und hinterher Tabletten gegen Durchfall nimmt. Das aktuelle RT + PP ist toll für Screenshots.

Fragman
2025-03-07, 10:50:28
Bei PT mit RR können wir ja erstmals auch die Ground Truth als Referenz heranziehen, ohne das der Vergleich direkt auseinander fällt.

ChaosTM
2025-03-07, 11:29:17
Vielleicht hat er es noch ohne RR Patch gespielt. PT ohne RR kann man eigentlich gleich sein lassen


Das Preis/Leistungsverhältnis stimmte bei dem Spiel einfach nicht.
Hatte das ziemlich schnell durch und vielleicht hat RR damals noch gefehlt. Ist schon 3 Monate her..

Gast
2025-03-07, 11:38:16
Das Preis/Leistungsverhältnis stimmte bei dem Spiel einfach nicht.


Dank Gamepass ziemlich egal.


Hatte das ziemlich schnell durch und vielleicht hat RR damals noch gefehlt. Ist schon 3 Monate her..

Wobei Qualität wichtiger als Quantität ist.

The_Invisible
2025-03-07, 11:50:18
Das Preis/Leistungsverhältnis stimmte bei dem Spiel einfach nicht.
Hatte das ziemlich schnell durch und vielleicht hat RR damals noch gefehlt. Ist schon 3 Monate her..

OK, ja Patch dafür kam erst im Februar

Prinzenrolle
2025-03-07, 13:59:51
Man ist weiterhin Lichtjahre von der "ground truth" entfernt auch wenn das näher dran ist als irgendwelche RT-Surrogate ala normal mapping.

Man ist um Welten näher dran. Fotorelistische Mockups kann man heute in Sekunden erstellen, eine intelligent eingedampfte Variante für realtime Berechnungen ist ein großer Schritt gegenüber Rasterisierungsverfahren und prebaked lighting.


Man bräuchte schon mehrere Strahlen pro Pixel um sich dem anzunähern.

Mit einer 2080Ti konnte man in 4K mit 90Hz pro Pixel und Sekunde 16 Strahlen verschießen. Reine Rayracing-Demos in denen der Rasteranteil bei 0 liegt zeigen, dass man mit etwaigen Hilfsmitteln sehr nahe an die Groundtruth kommt und die Leistung da ist, es fehlt nur der Wille zur Umsetzung.

Nur macht das die heutige Hardware gar nicht mit wenn es auch schnell sein soll. Also nutzt man nur ein paar hundert Strahlen und versucht die Artefakte, die nur ein paar hundert Strahlen erzeugen, nachträglich zu entfernen.
Ein paar hundert Strahlen? Für den größten transformativen Effekt benötigt man nicht mehrere Rays pro pixel, völliger Humbug und weitere bounces kann AI übernehmen. Das Grundgerüst steht mittlerweile und skaliert logarithmisch.
Man braucht keine Pixar-Level Qualität in Spielen.


Das ist so als ob man Rizinusöl trinkt und hinterher Tabletten gegen Durchfall nimmt. Das aktuelle RT + PP ist toll für Screenshots.
Lieber Rizinusöl und hervorragende Tabletten, anstatt Darmverschluss und Operation.:rolleyes:

W1UDzxtrhes

ChaosTM
2025-03-07, 14:11:10
Dank Gamepass ziemlich egal.



Wobei Qualität wichtiger als Quantität ist.


Ich hatte den Gamepass nur für einen Monat.
Das hat für Indy, FS2024*, Stalker (vorerst abgebrochen) und die Black Ops 6 Kampagnen gereicht.


*mittlerweile gekauft