PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29

Relex
2025-01-16, 21:08:18
Ich hab mal ein kleines Gedankenexperiment gemacht.

Nvidia sagt, das neue DLSS FG Model ist "40%" schneller und mich hat interessiert, zu welchen FPS gewinnen das führen könnte.


Ich hab daher mal in ein paar Spielen bei unterschiedlichen Frameraten die Frametimekosten von DLSS FG auf meiner 4080 ermittelt.
Dazu habe ich mir die FPS ohne FG notiert, also z.B. 60 FPS und die FPS mit FG, also z.B. 90 FPS und davon die hälfte genommen.

Wir hätten dann also in dem Beispiel 60 FPS ohne FG und eine "Base" framerate von 45 FPS mit FG von der aus der Algorithmus die FPS dann verdoppelt. Umgerechnet in Frametimes sind das also 16,6 ms frametime ohne FG und 22,22 ms mit FG.
FG kostet uns also in dem Fall 5,56 ms renderzeit.

Da das neue model 40% schneller ist, habe ich diese 5,56 ms mit 0,6 multipliziert was 3,34 ms ergibt.
Die Frametimekosten mit dem neuen Model wären also bei 3,34 ms. Addiert auf die 16,6 ms ergibt sich damit 19,94 ms, was umgerechnet 100,3 FPS wären.

Die FPS steigen also in dem Beispiel von 60 FPS ohne FG auf 90 FPS mit dem alten FG Model auf 100 FPS mit dem neuen FG Model.


Natürlich schwankt die Renderzeit von Spiel zu Spiel etwas. Im best Case habe ich ca 3 ms gemessen, im Worst Case fast 6 ms. Im Schnitt sind es meistens so ca 4-5 ms.


Trotzdem habe ich es mit jedem meiner Messwerte mal durchgerechnet und ich würde dann auf folgende Werte kommen.



[FPS ohne FG] -> [FPS altes FG Model] -> [FPS neues FG Model] (performancegewinn neues vs altes FG Model in %)


Cyberpunk

48 -> 83,5 -> 88 (+5,4%)
100% -> 174% -> 183%

77 -> 118 -> 130 (+10,2%)
100% -> 153% -> 169%



Ratchet & Clank

83 -> 121 -> 136 (+12,4%)
100% -> 142% -> 164%



Returnal

155 -> 175 -> 212 (+21,1%)
100% -> 113% -> 137%

141 -> 160 -> 193,5 (+20,9%)
100% -> 114% -> 137%

126 -> 145 -> 175 (+20,7%)
100% -> 115% -> 139%

98 -> 126 -> 147 (+16,7%)
100% -> 129% -> 150%


Starfield

66 -> 93 -> 113 (+21,5%)
100% -> 141% -> 171%



Fazit: Mit dem neuen FG Model würde ich etwa 5% mehr FPS bei niedrigen Framerate und bis zu 20% mehr FPS bei hohen Frameraten erwarten.

Ist natürlich nur ne grobe Annäherung, aber falls der Algo tatsächlich 40% schneller ist, wie Nvidia behauptet, dann wären das eben die zu erwartenden Ergebnisse.

Gast
2025-01-16, 21:43:55
Nvidia sagt, das neue DLSS FG Model ist "40%" schneller und mich hat interessiert, zu welchen FPS gewinnen das führen könnte.



Auch das haben sie gesagt, ca. 10% Mehrperformance

Relex
2025-01-16, 22:42:07
Ja, sie geben 10% in ihrem Beispiel an. Aber das kann man eben so nicht festmachen, da FG immer eine gewisse Frametime kostet und deswegen z.B. bei hohen Frameraten deutlich stärker ins gewicht fällt als bei niedrigen Frameraten.

Die Skalierung mit FG (also wie viele zusätzliche FPS es bringt) ist extrem stark von der Framerate abhängig. Folglich ist auch der Zugwinn durch das neue Model framerate abhängig.

Bei geringen Frameraten bringt FG einen sehr hohen FPS gewinn, bei hohen Frameraten aber oft nur einen sehr niedrigen, weil die Frametimekosten bei hohen FPS irgendwann überwiegen und die Skalierung damit versauen. Gerade da bringen die 40% reduzierung der Rechenkosten am meisten, wie man ja an meinen Beispielen sieht.


Wenn es so einfach wäre, und es immer 10% wären, hätte ich das nicht getestet ;)

Gast
2025-01-17, 07:00:39
Ja, sie geben 10% in ihrem Beispiel an. Aber das kann man eben so nicht festmachen, da FG immer eine gewisse Frametime kostet und deswegen z.B. bei hohen Frameraten deutlich stärker ins gewicht fällt als bei niedrigen Frameraten.

Klar ist es nur 1 Beispiel, deshalb abwarten auf die Benchmarks.

MadManniMan
2025-01-17, 07:14:52
Aussage zum DLSS Training. Schon enorm was da an Rechenleistung bisher rein geflossen ist. https://www.pcgamer.com/hardware/graphics-cards/turns-out-theres-a-big-supercomputer-at-nvidia-running-24-7-365-days-a-year-improving-dlss-and-its-been-doing-that-for-six-years/

Wissen wir eigentlich, was die jeweilige "Ground Truth" ist?

Nicht, dass ich auch nur im Ansatz verstünde, wie maschinelles Lernen tatsächlich funktioniert, aber es braucht ja schon ein Ziel zum Annähern, oder?

Wir da bspw. 4 x 4K berechnet? Wenn ja, kann dann ein 8K überhaupt per DLAA besser aussehen?

The_Invisible
2025-01-17, 07:38:22
Wissen wir eigentlich, was die jeweilige "Ground Truth" ist?

Nicht, dass ich auch nur im Ansatz verstünde, wie maschinelles Lernen tatsächlich funktioniert, aber es braucht ja schon ein Ziel zum Annähern, oder?

Wir da bspw. 4 x 4K berechnet? Wenn ja, kann dann ein 8K überhaupt per DLAA besser aussehen?

Laut letzter Info wird mit 16k trainiert https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/nvidia-dlss-2-0/nvidia-dlss-2-0-architecture-850px.jpg

During the training process, the output image is compared to an offline rendered, ultra-high quality 16K reference image, and the difference is communicated back into the network so that it can continue to learn and improve its results. This process is repeated tens of thousands of times on the supercomputer until the network reliably outputs high quality, high resolution images.

Karümel
2025-01-19, 17:48:59
Gerade rausgekommen:
uyxXRXDtcPA

aufkrawall
2025-01-19, 18:41:19
Huh?
https://youtu.be/uyxXRXDtcPA?t=786
Klingt nach FG für Ampere irgendwann nicht mehr komplett ausgeschlossen.

Auch interessant: FG-Qualität soll mit dem reinen ML-Ansatz verbessert worden sein.
Transformer-Modelle viermal so groß, aber nicht so viel teurer. Auf Blackwell weniger teuer.
Ggf. auch Frame Pacing-Verbesserungen für Lovelace Mit DLSS 4 angehintet. Aber wirklich nur sehr vage.

Relex
2025-01-19, 18:46:17
Auch das CNN Model skaliert ja mit der Tensor Core performance. Die Frametimekosten für DLSS sinken von GPU Generation zu GPU Generation und je schneller die Karte ist. Daher logisch, dass das auf Blackwell besser laufen MUSS. So wie auch das CNN Model besser laufen muss.

Interessanter ist eher die Frage, ob es durch die Designänderungen bei Blackwell nochmal zusätzlich, also überproportional stark beschleunigt wird. Wobei halt letzten Endes die Framtime kosten interessant wären. 1-2ms sind kein Problem. 3-5ms auf älterer Hardware hingegen schon sehr.

Aber hab das Video noch nicht gesehen...

aufkrawall
2025-01-19, 18:47:51
Ja, geht nicht darum, ob BW da schneller ist, sondern wie viel. Klang afair nach auch gezielteren Optimierungen in DLSS für BW.
Mehr TC-Last gibts entsprechend auch schon durch das DLSS 4 FG. Kombiniert dann ggf. der Worst Case für Pre-BW (aber eigentlich auch dann der neue Standard-Case).

Sardaukar.nsn
2025-01-19, 19:01:35
Frame Pacing jetzt unabhängig von der CPU. Fünf mal weniger Varianz bei den Frametimes klingt auch sehr smooth.

Relex
2025-01-19, 19:15:56
@aufkrawall

Na ja, das neue FG wird ja 40% weniger Frametime kosten, das schaufelt auch wieder budget für aufwändigeres SR frei. Mal sehen.

Nach allem was ich bis jetzt gehört habe bin ich mal etwas pessimistisch und glaube, dass das neue SR Model durchaus performance kosten könnte auf älterer Hardware. Aber das wird dann eben wie immer von der bereits anliegenden Framerate abhängig sein. Schade, dass er keine Zahlen genannt hat.

Nett finde ich, dass es wohl mit DLSS 4 FG auch Verbesserungen beim Framepacing für RTX4000 geben soll. Da bin ich ja mal gespannt...


So wie ich ihn verstehe ist das Flip Metering aber weiterhin primär für MFG relevant. Er hat ja bei der Expliziten Frage ob man dann auch bei 2x FG Unterschiede zwischen Blackwell und Ada sehen würde ausweichend regaiert und gesagt, dass DLSS4 auch für RTX4000 in diesem Aspekt verbesserungen bringt.

Deutet ebend arauf hin, dass es bei geringeren Frameraten und/oder nur einem Zwischenbild keine großen Unterschiede geben würde.


Ich meine die Kernfrage die wir uns stellen ist doch: Wird mit Blackwell Flipmetering allgemein die Smoothness verbessert oder ist es wirklich nur ein "tool", um MFG ohne Framepacing Probleme lauffähig zu bekommen.
Nach dem Interview und dem wording von Nvidia vermute ich weiterhin dass es nur letzteres betrifft. Was natürlich etwas schade wäre.

aufkrawall
2025-01-19, 19:52:07
Ggf. wirds ein NVAPI-Flag geben, um es toggeln zu können. Sie hatten ja schon Frame Times auf BW on/off gezeigt, könnte ein Indiz dafür sein. Würde ich mir dann auf 5070 auf jeden Fall anschauen.

Relex
2025-01-19, 19:59:02
Ich glaube das würde es zu kompliziert machen, weil du nicht weißt, ob du dann bei dem was du da abschalten würdest das komplette Flip Metering abschaltest, oder auf ein Software Fallback gehst (und auch hier die Frage ob altes oder neues SW Flip Metering).
Keine Ahnung ob das dann ersichtlich ist.

Sauberste Vorgehensweise wäre, DLSS4 FG auf Ada und Blackwell direkt vergleichen.
Performance unterscheidet sich ja dann eh kaum ^^ :D


EDIT: Ach ja und noch was, wäre Hardware Flip metering überhaupt in tools wie CapFrameX sichtbar? Das zeichnet doch CPU Frametimes auf oder?
Wie kann man das auswerten? NV FrameView SDK vielleicht? Hab ich nie genutzt.

aufkrawall
2025-01-19, 20:02:00
Ich hab noch den Vergleich mit Ada Pre-DLSS 4. Wenn das mit FM off nicht auf einmal schlechter als das ist, wird es wohl korrekt-ish sein. Ggf. lässt sich bei älteren Spielen oder mit älterer DLL auch weiterhin DLSS 3 vs. 4 testen.

The_Invisible
2025-01-19, 20:39:34
Ja capframex entwickler hat hat sogar Kontakt mit Nvidia Entwicklern bzw gab's Anpassungen: https://extreme.pcgameshardware.de/threads/capframex-cx-frametime-capture-und-analyse-tool.527488/page-72#post-11784620

https://github.com/CXWorld/CapFrameX/releases/tag/v1.7.5_beta

Lurtz
2025-01-19, 21:37:35
Alex meinte auf Turing und Ampere könnte Transformer-SR merklich langsamer laufen, ab Ada würde er nicht davon ausgehen.

aufkrawall
2025-01-19, 21:50:08
Ja capframex entwickler hat hat sogar Kontakt mit Nvidia Entwicklern bzw gab's Anpassungen: ]
Das ist natürlich auch eine super Verbesserung, dass man endlich ohne extra Hardware die realen "Monitor-Frame-Times" sieht (falls das so ist).

Relex
2025-01-19, 22:02:16
Sehr geil. Wenn man vom Teufel spricht :)

EDIT:
Auch wenns hier nicht reinpasst, wollte ich mal kurz erwähnt haben, dass die neue MsBetweenDisplayChange weiterhin nicht exakt das zeigt, was am Monitor ankommt.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91053&stc=1&d=1737328370


Hier habe ich mit 60 Hz Vsync, ohne Reflex und deaktiviertem G-Sync getestet.

Das heißt, es sind ausschließlich 16,66 ms Frametimes oder ein vielfaches davon möglich.

Und trotzdem zeigt mir CapFrameX sogar eine Frametime von 15,03 ms bei dem größeren Ausreißer, was mit der Config völlig unmöglich ist. Das wäre über 60 Hz und würde tearing verursachen.


Also kann gut sein, dass man da nen schritt näher richtung display geht, aber exakt das was die GPU am Kabel rausschickt ist das definitiv nicht.


Im Grunde bräuchte man eigentlich nur drei Messwerte.

Einmal die exakte Frametime die am Display ankommt (FCAT?)
Einmal die Animation to Display deviation oder wie auch immer man es nennen möchte. Also quasi eine Metrik die angibt, wie exakt der virtuelle Animationszeitpunkt im Spiel zur tatsächlichen Darstellung im Display passt.
Wenn z.B. der Inhalt so gerendert wird, dass der nächste Animationsschritt 15 ms entspricht, der Frame am Display aber erst 16 ms nach dem letzten Frame dargestellt wird, dann hätte man einen Fehler von 1ms wo quasi der Inhalt nicht mehr exakt zum darstellungszeitpunkt passt.
Und einmal die varianzen.

Wahrscheinlich würde es schon reichen, wenn man bei FCAT zusätzlich zu den Farbmarkierungen, die man braucht, um die Frames auseinander zu halten, noch den Animationszeitpunkt mit in den Farbstreifen integriert. Dann könnte man solche Fehler zwischen Animations und Darstellungstiming einfach ausrechnen, Wobei ich mir nicht sicher bin, ob es reicht, wenn FCAT das automatisch macht, oder ob man diese Daten direkt engine Seitig vom Spiel bräuchte.

Gast
2025-01-20, 09:26:32
Also kann gut sein, dass man da nen schritt näher richtung display geht, aber exakt das was die GPU am Kabel rausschickt ist das definitiv nicht.


Das kann man auch nur am Kabel abgreifen.

Geldmann3
2025-01-20, 10:15:41
Was ich ganz spannend finde ist, dass DLSS 4 auf den ersten Blick ja wieder einen großen Sprung bei der Bildqualität machen wird, was das Upsampling betrifft. Den Demos nach zu urteilen wird DLSS Performance so gut aussehen wie jetzt DLSS Qualität und Qualität wahrscheinlich so gut wie DLAA.

Abschließende Tests müssen das natürlich bestätigen, doch das wäre immerhin etwas wert.

Auch FSR 4 hingegen scheint wieder einen großen Sprung zu machen und damit zu DLSS 3 aufzuschließen.

Bei DLSS wäre ich mir gar nicht sicher gewesen, ob das heute überhaupt möglich ist. Dann könnte Ultra Performance ja das neue Performance sein...

Gast
2025-01-20, 12:04:38
Was ich ganz spannend finde ist, dass DLSS 4 auf den ersten Blick ja wieder einen großen Sprung bei der Bildqualität machen wird, was das Upsampling betrifft. Den Demos nach zu urteilen wird DLSS Performance so gut aussehen wie jetzt DLSS Qualität und Qualität wahrscheinlich so gut wie DLAA.


Und das gute, alle RTX-Karten bekommen damit ein gratis Performanceupgrade. Zumindest so lange das aufwändigere Modell diese nicht auffrisst.



Auch FSR 4 hingegen scheint wieder einen großen Sprung zu machen und damit zu DLSS 3 aufzuschließen.


Ist halt wie immer too little too late. Was nützt es wenn ich nun das äquivalent von DLSS-Q mit FSR-Q bekomme, wenn ich die bei der Konkurrenz schon mit DLSS-P bekomme.

Damit habe ich im endeffekt einen massiven Performancevorteil bei identischer Qualität.



Bei DLSS wäre ich mir gar nicht sicher gewesen, ob das heute überhaupt möglich ist. Dann könnte Ultra Performance ja das neue Performance sein...

Wir werden es sehen, ich gehe mal davon aus dass weiterhin quasi eine Mindestauflösung für akzeptable Qualität benötigt wird, so wie bisher je höher die Renderauflösung desto mehr kann man Upscalen ohne Qualität zu verlieren.

1080p-UP halte ich jedenfalls für fraglich, aber veilleicht reicht dann 4k-UP aus.

w0mbat
2025-01-20, 15:34:57
Ist halt wie immer too little too late. Was nützt es wenn ich nun das äquivalent von DLSS-Q mit FSR-Q bekomme, wenn ich die bei der Konkurrenz schon mit DLSS-P bekomme.
Was? Du bekommst DLSS-Q mit DLSS-P? :confused:

Gast
2025-01-20, 15:56:51
Was? Du bekommst DLSS-Q mit DLSS-P? :confused:

Ich bekomme die Qualität von DLSS-Q mit der Performance von DLSS-P (abzüglich dessen was evtl. das neue Modell kostet).

aufkrawall
2025-01-20, 16:09:30
Der Unterschied zwischen CNN und Transformer dürfte imho wesentlich größer sein als zwischen DLSS Q und P. Wenn es nicht gerade um Dinge wie RT-Reflexionen geht, ist da der Unterschied mit Preset E schon meist nicht riesig.
Es ist auch schon innerhalb CNN-only so, dass Preset E Performance völlig unstrittig wesentlich besser aussieht als Quality Preset A. Und Transformer dürfte nochmal ein wesentlich größerer Sprung sein.

Die Frage ist nur, was der Grund ist, weshalb sie es zunächst als Betaversion releasen. Partielle Regressions sind nicht ausgeschlossen. Wobei sie aber damit werben, in sämtlichen Qualitätsfeldern Fortschritte erzielt zu haben.

basix
2025-01-20, 17:59:32
Ich kann mir vorstellen, dass 1080p und 1440p mehr vom Transformer Modell profitieren werden als 4K. Dort hatte man bei DLSS immer mit Unschärfe zu kämpfen (wie alle alle TAA Verfahren), was beim neuen Transformer Modell deutlich besser aussieht.

mironicus
2025-01-20, 18:58:59
Multi Frame-Generation kommt auch für RTX 4000/3000-Karten.

sScr8AcJPyw

Relex
2025-01-20, 18:59:04
Möglich. DLSS profitiert aktuell enorm von einer höheren Ausgabeauflösung.

Deswegen kombinieren auch viele Leute DLSS mit DSR, weil das Upscaling auf eine höhere Zielauflösung die Qualität erhöht und das anschließende Downsampling auf die tatsächliche monitorauflösung jegliche Unschärfe noch weiter reduziert.

Das kostet zwar Leistung, und mir persönlich gefällt auch der Look von DL-DSR nicht, aber es zeigt, dass aus den vorhandenen Bildinformationen die bei einer bestimmten internen Renderauflösung vorhanden sind, noch deutlich mehr herausgeholt werden kann.

Ich hoffe, das Transformer Model kann dieses brach liegende Potenzial besser ausschöpfen.


Multi Frame-Generation kommt auch für RTX 4000/3000-Karten.

https://youtu.be/sScr8AcJPyw

Nein, kommt es nicht.

Er hat nur gesagt, dass sie schauen, was sie aus alter Hardware noch herausquetschen können.

Damit kann RTX3000 oder aber auch nur RTX4000 gemeint sein.
Damit kann 2x FG gemeint sein oder MFG. Oder ein ganz anderer Aspekt.

Seine Aussage ist zwar sehr interessant, und irgendwas könnte da noch kommen.
Aber dass MFG für RTX3000 und RTX4000 kommt, so wie du sagst, ist zum aktuellen Zeitpunkt reines Wunschdenken und wurde im Interview nichtmal ansatzweise angedeutet.

Cubitus
2025-01-20, 19:45:23
Hab heute in der Mipa ein für mich schön zusammengefasstes Video gesehen.

GnPeeZ-6-q8

Relex
2025-01-20, 20:16:35
Sorry, aber ich finde das video sehr schlecht. Teilweise einfach falsch.

Dass man die Renderframerate von der Kamera Framerate entkoppelt um Asynchronous Reprojection zu machen hat überhaupt nichts mit Frame Gen zu tun.

Das ist ne völlig andere Lösung für ein völlig anderes Problem.

Und zwei unterschiedliche Frameraten zu supporten war noch nie was besonderes. Du kannst ja auch ein Spiel mit 30 FPS laufen lassen, während das Browser Fenster daneben mit 500 FPS läuft.
Oder man nimmt Spiele mit Support für hardwarecursor. Da läuft der Mauszeiger auch stets mit voller Framerate (obwohl er vom Spiel gerendert und stilisiert wird) und die Spielgrafik läuft mit niedrigerer Framerate.


Und dann auch noch diese Aussagen von wegen "it's not hard" weil man ja nur bisschen Interpolieren muss und bisschen KI einsetzt.


Joa genau, ich tüddel mal hier bisschen KI und Interpolation dran. Zack booom. 100x FG. Kann ja jeder im Erstsemester! Schwierig ist hier nichts!

ChaosTM
2025-01-20, 20:17:19
Möglich. DLSS profitiert aktuell enorm von einer höheren Ausgabeauflösung.

Deswegen kombinieren auch viele Leute DLSS mit DSR, weil das Upscaling auf eine höhere Zielauflösung die Qualität erhöht und das anschließende Downsampling auf die tatsächliche monitorauflösung jegliche Unschärfe noch weiter reduziert.

Das kostet zwar Leistung, und mir persönlich gefällt auch der Look von DL-DSR nicht, aber es zeigt, dass aus den vorhandenen Bildinformationen die bei einer bestimmten internen Renderauflösung vorhanden sind, noch deutlich mehr herausgeholt werden kann.

Ich hoffe, das Transformer Model kann dieses brach liegende Potenzial besser ausschöpfen.




Nein, kommt es nicht.

Er hat nur gesagt, dass sie schauen, was sie aus alter Hardware noch herausquetschen können.

Damit kann RTX3000 oder aber auch nur RTX4000 gemeint sein.
Damit kann 2x FG gemeint sein oder MFG. Oder ein ganz anderer Aspekt.

Seine Aussage ist zwar sehr interessant, und irgendwas könnte da noch kommen.
Aber dass MFG für RTX3000 und RTX4000 kommt, so wie du sagst, ist zum aktuellen Zeitpunkt reines Wunschdenken und wurde im Interview nichtmal ansatzweise angedeutet.


hab nur das DF Video mit Catanzaro und Alex gesehen und da klang schon durch, das man in diese Richtung hin arbeitet.
Man habe jetzt die (AI)Technologie um FG ohne dedizierter Flow Acceleratoren zu verwirklichen.

Versprochen wurde aber natürlich nichts.

Nightspider
2025-01-20, 20:51:09
Hatte ich das in einem Video richtig verstanden, das man DLSS4 auch in älteren Games erzwingen können wird, welche die neueren Version nicht von Haus aus beherrschen?

Oder betrifft das nur MFG ?

Und nochmal eine Verständnisfrage:

Wenn der neue Transformer eine bessere Bildqualität erlaubt, muss dieser dann für jedes Spiel neu trainiert werden (also bei Nvidia)?

Muss da nochmal einiges an Verständnis nachholen was die AI Upscaling Methoden betrifft, merke ich gerade.

Schade das es keinen Extreme Quality Modus mit höherer interner Renderauflösung geben wird.

Raff
2025-01-20, 21:25:08
Man kann das neue Transformer-Modell für ältere Spiele aktivieren (auf allen RTX-GPUs).
Man kann einen MFG-Modus für Spiele aktivieren, die bereits FG unterstützen (nur RTX 5000).
Beides erfolgt via Nvidia App. Künftige Spiele werden wohl beides nativ im Menü anbieten.

MfG
Raff

aufkrawall
2025-01-20, 22:10:26
Wenn der neue Transformer eine bessere Bildqualität erlaubt, muss dieser dann für jedes Spiel neu trainiert werden (also bei Nvidia)?

Das wird imho nie wieder passieren und war nur fehlender Forschung/Erfahrung zu DLSS 1-Zeiten geschuldet.
Ist ja auch einfach nur ..eingeschränkt von der Idee her, so unterschiedlich wie Szenen innerhalb desselben Spiels sein können. Von größer/besser werdenden generischen Modellen profitiert halt jede Szene in jedem Spiel.

x-force
2025-01-20, 22:25:15
Beides erfolgt via Nvidia App.

heißt das ab jetzt app zwang für sinnvolle features?

auf die app inkl. ansel und ähnlichen mist kann man ja bisher ohne probleme verzichten.

The_Invisible
2025-01-20, 22:27:45
Neue Features werden sicher nur mehr in die neue App kommen, damit darf man sich schon mal abfinden. Also besser früher als später damit anfreunden.

Raff
2025-01-20, 22:30:03
heißt das ab jetzt app zwang für sinnvolle features?

auf die app inkl. ansel und ähnlichen mist kann man ja bisher ohne probleme verzichten.

Wir müssen nur den guten Orbmu2k freundlich bitten, das komfortabel in den Nvidia Inspector (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=482122) einzubauen. :)

MfG
Raff

Relex
2025-01-20, 22:34:08
Wenn das Control Panel künftig raus fliegt hilft auch NV Inspector nicht, da die ganzen Display Settings fehlen.

x-force
2025-01-20, 22:42:23
welche optionen checkt ihr in nvcleanstall, damit die app richtig funtioniert?
braucht es den massagebus?

aufkrawall
2025-01-20, 23:07:18
Weiß nicht, warum du da noch irgendwas slimmen willst, wenn die App eh wieder zig zusätzliche Container-Prozesse spawnt.

Gast
2025-01-21, 00:00:37
Und zwei unterschiedliche Frameraten zu supporten war noch nie was besonderes. Du kannst ja auch ein Spiel mit 30 FPS laufen lassen, während das Browser Fenster daneben mit 500 FPS läuft.



Nicht wirklich 2 verschiedene Frameraten die kein vielfaches voneinander sind lassen sich am selben Monitor nicht vernünftig darstellen.

Sardaukar.nsn
2025-01-21, 01:16:43
Beides erfolgt via Nvidia App. Künftige Spiele werden wohl beides nativ im Menü anbieten.


Also kein manuelles Tauschen der DLSS.dll ect. sondern die neuen Versionen kommen systemweit mit dem neuen aktuellen Treiber?

rentex
2025-01-21, 06:24:40
Ich hole mir einfach den "Exostenza" Treiber bei Guru3D.

aufkrawall
2025-01-21, 07:25:36
Blöd nur, dass da auch die Telemetrie-DLL noch mit dabei ist, weil sonst der Installer ohne Weiteres nicht mehr funktioniert. Aber gib denen da oben kräftig...

OgrEGT
2025-01-21, 08:40:02
Wie ist das eigentlich mit (M)FG... für die Spieleengine sind die Zwischenbilder doch eigentlich nicht transparent da diese nicht von der Engine sondern von der GPU unabhängig erzeugt werden... somit kann der Spieler nicht mit diesen zusätzlichen Bildern interagieren also bspw. Ziele schneller treffen können... damit suggerieren MFG Frameraten die nichts mit der Spieleperformance zu tun haben... die Spieler-Engine Interaktion ist weiterhin von den Engine generierten Frames abhängig und die Latenz verbleibt im Idealfall auf dem Niveau der Basis Framerate...(M)FG ist somit ein reines Motion Improvement Feature... fairerweise sollten diese (M)FG Frameraten bei GPU Reviews sehr klar von den konventionellen Frameraten getrennt werden um keinen falschen Eindruck zu erwecken...

basix
2025-01-21, 08:51:43
MFG wird ein reines "Motion Smoothness" Verfahren sein, ja.

Mit Frame Warping kann man gerenderte Frames auf den aktuellen Input anpassen, aber das bringt bei Frame Interpolation nur begrenzt was (eben, nur auf gerenderte Frames anwendbar). Schwenkt man in Zukunft auf Extrapolation (was zu 100% irgendwann mal passieren wird), dann kann man Frame Warping auch auf die generierten Frames anwenden. Dann fühlen sich gerenderte und generierte Frames vom Nutzer-Eingabegefühl her genau gleich an. Und der FG Latenznachteil fällt komplett weg, wodurch dargestellte 240fps dann auch gefühlte 240fps sind. Oder durch Frame Warping sogar besser als "heutige 240fps" ohne Frame Warping. Wird kommen, nur noch nicht mit DLSS4 ;)

Edit:
Damit das sauber funktioniert, muss die Game-Logik natürlich mit den dargestellten Frameraten laufen. Dazu braucht es evtl. zusätzliche Schnittstellen / Handshaking zwischen dem Game und Frame Generation, welche es heute allenfalls noch nicht gibt.

The_Invisible
2025-01-21, 09:02:02
MFG ist nice für alle >=240Hz OLEDs und hoffentlich dämmt es dank hardware flip metering gleichzeitig auch das vrr-flickering problem ein. Da bin ich schon auf Tests gespannt.

Gast
2025-01-21, 09:22:13
Ziele schneller treffen können... damit suggerieren MFG Frameraten die nichts mit der Spieleperformance zu tun haben... die Spieler-Engine Interaktion ist weiterhin von den Engine generierten Frames abhängig und die Latenz verbleibt im Idealfall auf dem Niveau der Basis Framerate...(M)FG ist somit ein reines Motion Improvement Feature...


Das trifft auch auf "echte" Frames zu.

Das waren noch Zeiten als die Framerate die Gamephysik mit beeinflusst hat, heutzutage ist eigentlich die Framerate des Gamestates von der Framerate des Renderings entkoppelt, und selten über 60Hz.

Sardaukar.nsn
2025-01-21, 09:25:28
Idealerweise kann man damit VRR ablösen und die Dellen im z.B. gewünschten, konstanten 120hz Frametime Verlauf werden mit generierten Frames aufgefüllt.

High-speed hardware flip metering optimizes the pacing of frame delivery, ensuring a more efficient and smoother experience in games and applications that use DLSS 4. This helps maintain consistent performance even under demanding conditions.

https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/3.html

Gast
2025-01-21, 09:26:08
Mit Frame Warping kann man gerenderte Frames auf den aktuellen Input anpassen, aber das bringt bei Frame Interpolation nur begrenzt was (eben, nur auf gerenderte Frames anwendbar).

Das ist völlig wurscht, Framewarp kann man immer auf alle Frames anwenden, was deren Quelle ist, ist vollkommen egal.

Framewarp ist jetzt auch nichts wirklich neues und wird schon seit Jahren im VR-Bereich (teilweise unter anderem Namen) eingesetzt, ohne hätte niemals eine brauchbare Latenz beim WiFi-Streaming aufs Headset.

Das einzige was Nvidia anders macht, ist dass man für die entstehenden Lücken mit generativer AI Pixel erzeugt, was die Qualität verbessern sollte.

The_Invisible
2025-01-21, 09:41:51
Idealerweise kann man damit VRR ablösen und die Dellen im z.B. gewünschten, konstanten 120hz Frametime Verlauf werden mit generierten Frames aufgefüllt.



https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-dive/3.html

Wär geil wenn FG nur die fehlenden Frames zu Zielbildrate auffüllen würde.

Zb Zielbildrate 120fps, 80fps schafft die Karte nativ und der Rest (40) wird mit FG aufgefüllt. Stell ich mir aber schwierig mit dem Pacing vor, aber sag niemals nie :D

basix
2025-01-21, 10:41:56
Das ist völlig wurscht, Framewarp kann man immer auf alle Frames anwenden, was deren Quelle ist, ist vollkommen egal.

Man kann Framewarp auch auf interpoliert FG Bilder anwenden, klar. Nur macht das überhaupt keinen Sinn:

Ich muss auf das gerenderte Frame N+1 warten, damit ich interpolieren kann
Wenn ich Frame N+1 dann habe und den Framewarp auf die genau aktuelle Eingabe machen will, wo lande ich dann? Aha, bei Frame N+1 inkl. Framewarp. Das heisst, Frame N und alle FG Frames sind obsolet. Die muss ich gar nicht mehr anzeigen. Es bringt also absolut nichts, Framewarp auf interpolierte FG-Bilder anzuwenden. Das ist reine Logik und hat keine technische Limitationen ;)


Was Sinn machen kann:

Wenn ich den Framewarp auf Frame N sowie Frame N+1 anwende, direkt nachdem es fertiggestellt wurde, dann bringt das was hinsichtlich Latenz
Ablauf: Render Frame N, Framewarp Frame N, Render Frame N+1, Framewarp N+1, FG oder MFG
FG mit Interpolation passiert dann genau gleich wie heute, einfach auf den frame-warped Frames anstatt auf den "nur" gerenderten Frames. Latenzgewinn von Framewarp (Reflex 2) ist 1-zu-1 vorhanden, aber Latenznachteil von interpoliertem FG bleibt


Das Thema Framewarp auf FG Frames ändert sich dann bei Extrapolation. Dann kann man Framewarp auf jedes Bild anwenden, egal ob gerendert oder generiert. Dann macht nicht nur keinen Unterschied mehr sondern es macht 100% Sinn, Framewarp auf extrapolierte FG Frames anzuwenden. Und es öffnet die Tür für noch viel höhere FG Raten wie x4.

Wär geil wenn FG nur die fehlenden Frames zu Zielbildrate auffüllen würde.

Zb Zielbildrate 120fps, 80fps schafft die Karte nativ und der Rest (40) wird mit FG aufgefüllt. Stell ich mir aber schwierig mit dem Pacing vor, aber sag niemals nie :D
Man wird nur ganzzahlige Vielfache sinnvoll generieren können ;)

Mit Extrapolation und Framewarp wäre das aber auch ziemlich elegant lösbar:
- GPU schafft nur 80fps, Ziel = 120fps
- Render-Framerate wird mit FG automatisch auf 60fps reduziert, +1 Zwischenbild wird generiert
- Mit Framewarp macht man das Spielgefühl zu 120fps, trotz nur 60fps gerendert

Das kann man prinzipiell beliebig weit treiben, solange FG und Framewarp das Bild nicht verschandeln.
- 80fps auf 360fps? 60fps rendern und x6 FG
- 80fps auf 960fps? 60fps rendern und x16 FG

Zusammen mit verbesserten Temporal Superresolution wie mit DLSS4/5/... kann man da unter Umständen sehr extrem skalieren. Beispiel:
- z.B. Rendering in 1080p / 60fps
- Temporal Upsampling auf 8K -> 16x
- Frame Generation (Extrapolation) + Motion Warp auf 960fps -> 16x
- Macht total unglaubliche 256x Skalierungsfaktor (Auflösung * Framerate). Die Latenz ist auch kein Kritikpunkt mehr. Fehlt also nur, dass die Bildqualität stimmt oder nicht irgendwelche anderweitigen Effekte wie z.B. Soap Opera dazukommen.

Gast
2025-01-21, 11:30:36
Man kann Framewarp auch auf interpoliert FG Bilder anwenden, klar. Nur macht das überhaupt keinen Sinn:

Ich muss auf das gerenderte Frame N+1 warten, damit ich interpolieren kann
Wenn ich Frame N+1 dann habe und den Framewarp auf die genau aktuelle Eingabe machen will, wo lande ich dann?
[/quoter]

Und wo landest du wenn du Framewarp auf den Frame N + 0,5* machst?
Richtig bei Frame 0,5.

* Wenn wir jetzt mal definieren dass ganzzahlige Frames die echten sind, und rationale Zahlen die interpolierten dazwischen.

[quote]
Aha, bei Frame N+1 inkl. Framewarp. Das heisst, Frame N und alle FG Frames sind obsolet. Die muss ich gar nicht mehr anzeigen. Es bringt also absolut nichts, Framewarp auf interpolierte FG-Bilder anzuwenden. Das ist reine Logik und hat keine technische Limitationen ;)




Framewarp kann mit jedem Frame angewendet werden und es ist auch sinnvoll. Framewarp weiß nicht mal an was für einem Frame es arbeitet, es ist eine reine 2D Pixelmanipulation, unabhängig davon woher die Pixel kommen.

ZeroStrat
2025-01-21, 12:10:15
EDIT:
Auch wenns hier nicht reinpasst, wollte ich mal kurz erwähnt haben, dass die neue MsBetweenDisplayChange weiterhin nicht exakt das zeigt, was am Monitor ankommt.


Das liegt daran, dass CapFrameX immer noch die Frametimes anzeigt in den Graphen, während intern MsBetweenDisplayChange verwendet wird für die Berechnung der Metriken.

Ich werde heute Abend einen Graphen ergänzen, der MsBetweenDisplayChange visualisiert.

Relex
2025-01-21, 13:16:20
Das liegt daran, dass CapFrameX immer noch die Frametimes anzeigt in den Graphen, während intern MsBetweenDisplayChange verwendet wird für die Berechnung der Metriken.

Ich werde heute Abend einen Graphen ergänzen, der MsBetweenDisplayChange visualisiert.


Mit Metriken meinst du AVG, percentile usw? Also die ganzen Metriken, die man sich als Balken anzeigen lassen kann, oder?

Und der Frametimegraph berücksichtigt aktuell nicht MsBetweenDisplayChange? Das heißt, ob der haken gesetzt ist oder nicht hat keine Auswirkungen auf den Graphen.

Okay, das erklärt meine Beobachtungen.
Eine Visualisierung der MsBetweenDisplayChange wäre natürlich sehr geil.



Aber trotzdem noch eine Frage: Der neue Messwert soll auch wirklich das messen, was "physisch" am Display ankommt? Verstehe ich das so richtig? Oder wird hier was anderes gemessen. Geht mir nur darum zu verstehen, was man da tatsächlich sieht. Wobei der Name natürlich bereits ziemlich eindeutig ist. Aber will nur sicher gehen :)

basix
2025-01-21, 13:23:18
Framewarp kann mit jedem Frame angewendet werden und es ist auch sinnvoll. Framewarp weiß nicht mal an was für einem Frame es arbeitet, es ist eine reine 2D Pixelmanipulation, unabhängig davon woher die Pixel kommen.

Wenn du wieder der Gast von vor ein paar Tagen bist, hat es irgendwie nicht viel Sinn mit dir diskutieren...

Du willst anscheinend Rendering vs. FG vs. Framewarp vs. Bildanzeige am Schirm nicht verstehen.

Ja, Framewarp kann auf jedes Frame angewendet werden. Aber nur auf ein einziges: Das alleraktuellste, das gerade fertig gestellt wurde. Und das ist bei FG Interpolation sinnlos, weil du +1 Frametime warten musst für die Interpolation und somit +1 Frametime Framewarp machen würdest. Framewarp ist eine Quasi-Extrapolation und du würdest Frame N auf Frame N+1 warpen/extrapolieren (oder sogar leicht darüber hinaus). Das macht - absolut und überhaupt - schlichtweg Null Sinn, weil mit Frame N+1 bereits ein Frame da ist, welches deutlich näher am gewollten Output liegt. Du biegst also veraltete Daten (Frame N) so um, dass sie neuer als die aktuellen Daten (Frame N+1) aussehen. Macht das Sinn für dich? Wenn du so weit warpen und extrapolieren kannst, dann kannst du gleich FG via Extrapolation anwenden und FG Interpolation kübeln. Und da ist es egal, wenn da noch Frame N+0.5 dazwischen liegt, das müsstest du dann korrekterweise auf Frame N+1.5 warpen, damit es wieder stimmt. Und für diesen Zeitpunkt hättest du wiederum bereits ein neueres FG Bild zur Verfügung, nämlich das zwischen Frame N+1 und N+2.

Framewarp mit FG Interpolation kann nur in einem Spezialfall Sinn machen: Auf den gerenderten Frames. Das erfüllt das Kriterium, dass man auf das aktuellste Bild den Framewarp anwendet und begrenzt den Framewarp auf einen Bruchteil der Frametime. Und wenn du den Framewarp auf den gerenderten Frames anwendest, musst oder kannst du den Framewarp nicht auf den FG Frames anwenden, weil bereits in den gerenderten Frames enthalten.

Wenn dir das nicht in den Kopf gehen will, ist das ab jetzt aber dein Problem. Mir ist die Zeit für eine unfruchtbare Diskussion zu schade.

Gast
2025-01-21, 13:55:07
Du willst anscheinend Rendering vs. FG vs. Framewarp vs. Bildanzeige am Schirm nicht verstehen.



Offensichtlich verstehst du die Funktionsweise nicht.


Ja, Framewarp kann auf jedes Frame angewendet werden. Aber nur auf ein einziges: Das alleraktuellste, das gerade fertig gestellt wurde. Und das ist bei FG Interpolation sinnlos, weil du +1 Frametime warten musst für die Interpolation und somit +1 Frametime Framewarp machen würdest.


Framewarp wird immer auf jedes Frame zum Zeitpunkt, bzw. minimal vor der Anzeige angewendet.

Wie dieses Frame erstellt wurde ist vollkommen unerheblich.


Framewarp ist eine Quasi-Extrapolation und du würdest Frame N auf Frame N+1 warpen/extrapolieren (oder sogar leicht darüber hinaus).


Könnte man so verstehen, aber streng genommen ist es keine Extrapolation, da wird nichts in die Zukunft "geraten", da wird nicht weil du die Maus nach rechts bewegst angenommen dass du es die nächsten paar ms weiter machst.

Wenn du zwischen der Anzeige 2er Frames (deren Quelle wie schon erwähnt völlig irrelevant ist) die Mausrichtung änderst wird das Bild durch den Warp entsprechend in die andere Richtung gedreht, und das komplett ohne irgendwelche Extrapolation oder Raterei, sondern durch die real ausgelesenen Inputs der Eingabegeräte.


Das macht - absolut und überhaupt - schlichtweg Null Sinn, weil mit Frame N+1 bereits ein Frame da ist, welches deutlich näher am gewollten Output liegt.


Es ist für Framewarp völlig egal wie viele Frames existieren und woher diese kommen.

Jeder Frame basiert auf zu alten Inputs, bei FG sind diese Inputs noch älter wie bei herkömmlich gerenderten, aber zu alt sind sie alle. Und Framewarp "verbiegt" den Frame auf den Zeitpunkt "jetzt", wobei "jetzt" der Zeitpunkt der Anzeige ist. Der Unterschied zwischen dem Zeitpunkt an welchem der Frame ursprünglich gerendert wurde, mit welcher Methode auch immer, und "jetzt" ist dafür vollkommen egal. Ein größerer Abstand führt nur dazu, dass mehr Pixel gefüllt werden müssen, und damit die Chance auf Artefakte größer wird.


Du biegst also veraltete Daten (Frame N) so um, dass sie neuer als die aktuellen Daten (Frame N+1) aussehen. Macht das Sinn für dich?


Ja, machen VR-Headsets schon quasi immer (am Anfang konnte man es noch ein- und ausschalten).


Wenn du so weit warpen und extrapolieren kannst, dann kannst du gleich FG via Extrapolation anwenden und FG Interpolation kübeln.


Könntest du, hat das Problem, dass du mit Framewarp nur die Kameraposition korrigieren kannst, nicht Bewegungen die zwischen den Frames selbst passieren.


Und da ist es egal, wenn da noch Frame N+0.5 dazwischen liegt, das müsstest du dann korrekterweise auf Frame N+1.5 warpen, damit es wieder stimmt.
[/quoter]

Nochmal, du warpst nicht irgendwie ein Frame auf ein anderes, jedes Frame steht völlig für sich.
Das einzige was Framewarp macht ist, die Kamera anzupassen. Wenn ein Frame bei der Anzeige auf 20ms alten Inputs basiert, wird die Änderungen die du innerhalb dieser 20ms bei den Inputs gemacht hast für den Warp herangezogen.

Der einzige Unterschied zwischen generierten und "echten" Frames ist, dass sich die Differenz von Renderzeit und Anzeige zischen den Frames, und die Transformationen von Framewarp damit unterschiedlich stark sind.

[quote]
Und für diesen Zeitpunkt hättest du wiederum bereits ein neueres FG Bild zur Verfügung, nämlich das zwischen Frame N+1 und N+2.


Ich höre mich an wie eine hängende Schallplatte, aber nochmals, das interessiert Framewarp nicht im geringsten, es ist völlig egal wie viele Frames bereits existieren oder eben nicht.


Wenn dir das nicht in den Kopf gehen will, ist das ab jetzt aber dein Problem. Mir ist die Zeit für eine unfruchtbare Diskussion zu schade.

Offensichtlich ist es dein Kopf der nicht kapiert wie Framewarp/Timewarp/Spacewarp und wie die ganzen Dinger heißen funktioniert.

ZeroStrat
2025-01-21, 14:10:20
Mit Metriken meinst du AVG, percentile usw? Also die ganzen Metriken, die man sich als Balken anzeigen lassen kann, oder?
Ja, Average und Perzentile z.B.


Und der Frametimegraph berücksichtigt aktuell nicht MsBetweenDisplayChange? Das heißt, ob der haken gesetzt ist oder nicht hat keine Auswirkungen auf den Graphen.

Okay, das erklärt meine Beobachtungen.
Eine Visualisierung der MsBetweenDisplayChange wäre natürlich sehr geil.

In der Legende des Graphen steht ja auch Frametimes. Das steht für MsBetweenPresents, also der klassische Ansatz. Der Graph wird mit einer weiteren Kurve (Display Times) ergänzt, die Legende dann entsprechend auch.


Aber trotzdem noch eine Frage: Der neue Messwert soll auch wirklich das messen, was "physisch" am Display ankommt? Verstehe ich das so richtig? Oder wird hier was anderes gemessen. Geht mir nur darum zu verstehen, was man da tatsächlich sieht. Wobei der Name natürlich bereits ziemlich eindeutig ist. Aber will nur sicher gehen :)
Wenn der Display Buffer mit der Display Refresh Rate gesynct ist, dann stimmt MsBetweenDisplayChange mit dem überein, was man unmittelbar am Bildschirm sieht, ja.

Relex
2025-01-21, 14:16:49
@Gast

Ich muss basix zustimmen.

Warp in kombination mit Frame Gen ist unsinn.

Man verzögert die Ausgabe um einen Frame. Also hast du Frame 1 und Frame 2 gespeichert, um dazwischen Bilder einzufügen.

Jetzt erzeugst du die Zwischenbilder und wendest auf Bild 1.1 via Warp das aktuellste Kamera Movement an, welches aber NACH Frame 2 stattgefunden hat.

Man hat also ne besonders hohe zeitliche Diskrepanz zwischen gerenderter kameraposition und der zu warpenden Kamperaposition von mehreren Frames.

Da das zeitliche Delta so hoch wird, muss man am Bild so viel warpen und löcher auffüllen, dass man auch besser gleich eine Extrapolation machen kann, welche den aktuellsten Input berücksichtigt.

Ich sehe daher auch absolut keinen Sinn darin, verzögerte Frames und interpolierte zwischenbilder zu warpen, weil das letzte gewarpte zwischenbild überhaupt nicht mehr zum neuesten realen frame passen würde. Man müsste so viel und so weit warpen, dass man alle bilder praktisch auch gleich komplett neu erstellen könnte/müsste = Frame Extrapolation.

Sinnvoll wäre die Idee sicherlich. Aber nicht mit Frame interpolation.



@ZeroStrat

Danke für die Erklärung! Dann bin ich mal gespannt auf das Update. :)

Gast
2025-01-21, 14:40:41
Warp in kombination mit Frame Gen ist unsinn.


Nein


Man verzögert die Ausgabe um einen Frame. Also hast du Frame 1 und Frame 2 gespeichert, um dazwischen Bilder einzufügen.


Genau


Jetzt erzeugst du die Zwischenbilder und wendest auf Bild 1.1 via Warp das aktuellste Kamera Movement an, welches aber NACH Frame 2 stattgefunden hat.



Man hat also ne besonders hohe zeitliche Diskrepanz zwischen gerenderter kameraposition und der zu warpenden Kamperaposition von mehreren Frames.


Wieviele Frames dazwischen gibt ist vollkommen egal, einzig der zeitliche Abstand ist relevant.


Da das zeitliche Delta so hoch wird, muss man am Bild so viel warpen und löcher auffüllen, dass man auch besser gleich eine Extrapolation machen kann, welche den aktuellsten Input berücksichtigt.


Offensichtlich nicht. DF konnte zumindest auf den ersten Blick keinerlei Unstimmigkeiten finden.


Ich sehe daher auch absolut keinen Sinn darin, verzögerte Frames und interpolierte zwischenbilder zu warpen, weil das letzte gewarpte zwischenbild überhaupt nicht mehr zum neuesten realen frame passen würde.


Das sind immer nur vielleicht 20ms mehr, je nach aktueller Framerate.

basix
2025-01-21, 16:27:28
Wie ich sagte, macht keinen Sinn mit dem "Gast" zu diskutieren ;)

Ich habe mir jetzt doch die Mühe gemacht, das mal aufzuzeichnen:
- Normal Rendering
- Normal Rendering + Framewarping
- Frame Generation (Interpolation)
- Frame Generation (Interpolation) + Framewarping
- Frame Generation (Extrapolation)
- Frame Generation (Extrapolation) + Framewarping

Die aufgezeichneten Abläufe sind die, welche Sinn machen. Und dann noch als letztes das, was der "Gast" gern machen würde, was eben keinen Sinn macht.

Offensichtlich nicht. DF konnte zumindest auf den ersten Blick keinerlei Unstimmigkeiten finden.
DLSS4 FG/MFG wurde noch nie mit Frame Warping gezeigt, zumindest deutet nichts darauf hin.

Relex
2025-01-21, 16:59:48
Macht keinen Sinn zu diskutieren, aber dann eskalierst du du komplett mit den Grafiken :D

Aber danke für die Mühe :O

Gast
2025-01-21, 17:08:36
- Frame Generation (Interpolation) + Framewarping


Dein Schaubild ist falsch. Dein Fehler ist dass du Framewarping in Zusammenhang mit dem Rendering(egal ob vollständig oder durch FG) siehst.

Framewarp ist komplett vom Rendering entkoppelt, deine Framewarp-Box gehört nach unten vor die Ausgabe und nicht nach dem Rendering.

PHuV
2025-01-21, 17:29:52
Wie ich sagte, macht keinen Sinn mit dem "Gast" zu diskutieren ;)

Ich habe mir jetzt doch die Mühe gemacht, das mal aufzuzeichnen:

+1
Genau das hätte der Gast mal selbst machen müssen, als das "nur" durchzudenken oder -fantasieren. Das ist nicht mal böse gemeint, Visualiserungen sind doch ganz nützlich für sowas.

aufkrawall
2025-01-21, 17:31:36
Die aufgezeichneten Abläufe sind die, welche Sinn machen. Und dann noch als letztes das, was der "Gast" gern machen würde, was eben keinen Sinn macht.

Ja, mittlerweile ist selbst FG für Ampere wenigstens als nicht mehr ausgeschlossen angeteasert. Warp + FG aber immer noch null.

basix
2025-01-21, 18:46:27
Macht keinen Sinn zu diskutieren, aber dann eskalierst du du komplett mit den Grafiken :D

Aber danke für die Mühe :O

Ich diskutiere nicht mehr, ich zeige nur noch ;D

Leading by example ;)

Edit:
Interpolation habe ich nichtmal ganz richtig aufgezeichnet. Das gerenderte Frame wird im Idealfall nur um leicht länger als +0.5 Frametimes verzögert (+0.5 Frametimes + Berechnungszeit von FG). So zeichnet das zumindest AMD bei FSR 3.1 auf und das minimiert den Latenzzuwachs von FG. Man spekuliert damit ein bisschen, dass das nächste gerenderte Frame ja dann bald kommt.
Vom generell dargestellten Ablauf her ändert sich aber nicht wirklich was, Darstellung der Bilder verschiebt sich einfach um 0.5 Frames nach vorne, Warp bleibt am gleichen Ort.

Mit +0.5 Frames könnte Framewarp sogar ein klitzekleines bisschen sinnvoll sein, da das Frame N+1 zu diesem Zeitpunkt noch nicht fertiggestellt ist. Aber wie gesagt, wenn ich +0.5 Frames warpe kann ich auch gleich extrapolieren anstatt interpolieren, kommt auf das selbe raus.

https://gpuopen.com/wp-content/uploads/2023/12/fsr3-presentqueue-upscaling-framegeneration-pipeline.png

Ja, mittlerweile ist selbst FG für Ampere wenigstens als nicht mehr ausgeschlossen angeteasert. Warp + FG aber immer noch null.
Ja, weiss auch nicht wieso. Ich habe das Gefühl das Warp noch stark Beta ist.

ZeroStrat
2025-01-21, 20:31:50
@ZeroStrat

Danke für die Erklärung! Dann bin ich mal gespannt auf das Update. :)

Das Update ist verfügbar: https://github.com/CXWorld/CapFrameX/releases/tag/v1.7.5_beta

aufkrawall
2025-01-21, 20:45:45
Coole Sache. (y)
Polaris mit Vsync + VRR 144Hz/fps:
https://s20.directupload.net/images/250121/temp/oln9495g.png (https://www.directupload.eu/file/d/8806/oln9495g_png.htm)

Mal gespannt, wie sich das in zukünftigen Tests mit FG usw. im Vergleich zu Frame Times gemessen ab frame start/present verhält.

Lurtz
2025-01-21, 21:17:58
Das funktioniert nur über eine nVidia-API?

aufkrawall
2025-01-21, 21:31:15
Ist Vendor-agnostisch (in einem Nvidia-Fork von PresentMon?). Wie die Frame Time technisch genau vorm Scan-Out ermittelt wird, wäre aber wirklich interessant. Hätte gedacht, das bräuchte tiefere Eingriffe und wär nicht einfach von Usermode-Programmen ohne extra APIs im Treiber etc. abrufbar.
Insofern verrückt, warum man das nicht schon längst so gemacht hat. :confused:

aufkrawall
2025-01-21, 22:22:16
@ZeroStrat: Nutzt der Graph im Overlay auch MsBetweenDisplayChange?

Scruffy
2025-01-21, 22:33:50
Ich verstehe den Gast so, dass die Bilder dann vor der Ausgabe gewarpt werden. Ich war mal so frei im Beispiel herumzuschmieren. Das bedeutet der Warp käme dann insgesamt noch mal als Ausgabelatenz dazu, dafür wird halt die aktuelle Eingabe beachtet.
Je höher die fps und je kleiner die Bewegung desto weniger muss aufgefüllt werden, interessant wird also der Test in niedrigen FPS bei schnellen Bewegungen.

Für mich interessant wird vor allem ob das dann auch in VR kommt wenn die Qualität stimmt, die Fehler sind dort teils sehr auffällig. Lieber Artefakte als Übelkeit, aber wo möglich lasse ich es aus. Selbst wenn es am Monitor nicht überzeugen sollte wäre die Qualitätssteigerung in VR gern gesehen.

Relex
2025-01-21, 22:39:17
Das Update ist verfügbar: https://github.com/CXWorld/CapFrameX/releases/tag/v1.7.5_beta


Sehr geil. Danke!


Leider hab ich immernoch ein Verständnisproblem. Die Daten geben zwar extrem gut das wieder, was ich erwarte, aber der Ausreißer hier auf 13,9 ms verwirrt mich weiterhin. Wie ist das mit 60 Hz Vsync möglich?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91075&stc=1&d=1737494390


Kannst du dir das erklären? Oder sind das einfach Messfehler, die man in Kauf nehmen muss. Wie gesagt, ansonsten ist es extrem nah an dem was ich erwarten würde...




@aufkrawall

Du hast doch häufiger schon das Framepacing mit Frame Generation bemängelt, insbesondere, wenn der FrametimeGraph "fett" wird. Z.B. wenn man kurz in den Himmel schaut.

Meine Meinung war bisher, dass die gemessenen Frametimes nicht richtig sind, da ich zumindest bzgl. smoothness keine Probleme sehe, wenn der Frametime Graph fett wird.

Und siehe da, wenn man die Display Times anzeigen lässt, sieht alles normal aus.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91077&stc=1&d=1737494612



Soweit ich das sehe ist in manchen Spielen alleine Reflex für ein unsauberes Framepacing verantwortlich und auch das bestätigt sich dank der Display Times jetzt auch endlich eindeutig im Graphen.


Hier erstmal das ganze ohne die Display Times:

Reflex Off
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91081&stc=1&d=1737495146



Reflex On
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91082&stc=1&d=1737495151



Reflex + FG
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91083&stc=1&d=1737495159


Reflex on vs off sieht kaum anders aus, obwohl Reflex on merkbar ruckelig ist. Mit FG sehen die Frametimes sogar noch viel besser aus, obwohl es sich genauso ruckelig anfühlt, wie mit Reflex On, nur mit mehr FPS. Der Frametime Graph zeigt also überhaupt nicht das, was man tatsächlich sieht. (Fortsetzung im nächsten Beitrag)

Relex
2025-01-21, 22:40:29
Und hier das ganze nochmal mit den Display Times.

Und schon sieht man, was ich meine. Reflex off ist smooth.
Reflex on ist deutlich unsauberer, was sich dann leider auch auf Frame Generation überträgt.


Das Problem für unsauberes Framepacing in manchen Spielen ist nicht Frame Generation, sondern Reflex.



Reflex off
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91084&stc=1&d=1737495585


Reflex on
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91085&stc=1&d=1737495585


Reflex on + FG
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91086&stc=1&d=1737495585


Ich bin sehr gespannt, ob sich diesbezüglich mit DLSS4 auf AdaLovelace und natürlich insbesondere mit Blackwell und Hardware Flip Metering etwas ändert.

aufkrawall
2025-01-21, 22:59:04
Meine Meinung war bisher, dass die gemessenen Frametimes nicht richtig sind, da ich zumindest bzgl. smoothness keine Probleme sehe, wenn der Frametime Graph fett wird.

Ich sehe bei dir schon Probleme, wenn du nicht plötzlich die Kamera bewegst. :freak:
Deine Frame Times schwanken ja auch so schon die ganze Zeit von irgendwas um 7-12ms, wahrscheinlich bei nicht mal mehr bewegter Maus/Kamera?
Mal einen alten Screenshot von mir rausgekramt:
https://s20.directupload.net/images/250121/temp/iiabnsxp.jpg (https://www.directupload.eu/file/d/8806/iiabnsxp_jpg.htm)

Das ist jetzt eher ein FG Best Case. Wenn ich still rumstehe, sah das mit dem RTSS Graph (-32x-4) aber oft ähnlich aus. Ich hab nicht den Vergleich mit CapFrameX, sieht dort bei dir aber wesentlich schlechter aus. Der Unterschied von perfekt flüssig -> weniger flüssig ist oft auffälliger als etwas ruckelig -> etwas ruckeliger.

Ich hatte btw. auch nicht gesagt, dass die Frame Times im Graphen sich 1:1 so ruckelig anfühlen, wie dieser aussieht (ist auch ohne FG mitunter nicht der Fall). Klar, dass das nicht der Fall ist, sonst wäre es ja quasi unspielbar. Es sieht für mich aber definitiv kurz weniger flüssig aus + kurz Kaugummi an der Maus.

Ich werd mir das aber auf jeden Fall nochmal damit anschauen...
Btw. stehst du ja selbst vor dem Rätsel mit deinem Vsync-Ausreißer, der ja eigentlich nicht mehr so existieren können sollte (?).

Relex
2025-01-21, 23:06:39
Hmm, vielleicht sollte ich Windows doch mal neu aufsetzen. :D

Aber ist erstmal egal, die Unterschiede sieht man ja deutlich.


Edit: was meinst du mit -32x-4 ?

aufkrawall
2025-01-21, 23:09:20
Btw. sind die Frame Times auf Intel in dem Spiel auch regressed, wenn man nicht die Prefer Pcore-Option nutzt. Das hatte früher eine glatte Linie im Graphen, obwohl die E-Cores genutzt wurden. Jetzt gibts damit ständige Varianz, die man auch sieht.
Zwar OT, aber ich würd wegen dem Spiel auch Windows nicht plattmachen...


Edit: was meinst du mit -32x-4 ?
Größe des Graphen in den RTSS-Optionen, wenn man den Graphen via "show own statistics" nutzt. Der Graph ist größer als standardmäßig in AB und damit "empfindlicher".

Relex
2025-01-21, 23:11:32
Na ja, das andere Game ist Starfield.

Ohne Vergleich kann ich schwer sagen, ob die Werte im Soll sind oder nicht...

aufkrawall
2025-01-21, 23:18:20
Es hängt auch arg von den fps ab und ggf. Titel ab. Als ich die 4070 non-Super hatte, hatte es mich noch total in CP77 mit PT genervt. Jetzt bzw. vor Kurzem auf der 4070S fast gar nicht mehr. Obs an Software-Verbesserungen liegt, oder gar VRR LFC? Schwer zu isolieren...

Relex
2025-01-21, 23:28:01
Ok, danke für die Infos.

Der Graph sieht in RTSS eigentlich okay aus.
Das ist max Pathtracing mit FG.

https://i.ibb.co/N9ScZNR/20250121232440-1.jpg (https://ibb.co/N9ScZNR)

aufkrawall
2025-01-21, 23:37:13
Noch einen Screenshot einer etwas aussagekräftigeren Szene gefunden:
https://s20.directupload.net/images/250121/temp/e98limwk.jpg (https://www.directupload.eu/file/d/8806/e98limwk_jpg.htm)

Gut, du bist mit deiner 4080 natürlich auch noch näher am CPU-Limit, der 5800X3D skaliert ja hier nicht so toll.
Aber du hast natürlich recht, dass deine Frame Times aussagekräftig gut genug sind.
Du kannst aber auch davon ausgehen, dass ich mir keine Ruckler bzw. verminderte Flüssigkeit einbilde. ;)
Ist mir auch schon ohne eingeblendeten Graphen aufgefallen, keine Sorge...

Btw. gibts verminderte Flüssigkeit auch mit FSR 3/3.1 FG, wenn man in Witcher 3 die Kamera zu schnell über den Himmel oder die Sun Shafts bewegt. Ggf., weil die Skybox in dem Spiel nur mehr oder weniger aus 2D-Bildern besteht und nicht gut interpolierbar vs. echte 3D-Objekte ist?
In TLOU war das nicht so, dafür aber mit Artefakten am Bildrand...

Relex
2025-01-22, 00:00:50
So, hab jetz extra nochmal die Größe des Overlays auf die gleiche größe wie bei dir skaliert. Zudem mit DLSS Balanced die gleichen FPS wie bei dir. Bin dabei auch vorwärts gelaufen.

Ich würde sagen, das sieht identisch aus :)


Wie auch immer. Genug Off Topic für heute.

Jedenfalls haben wir dank CapFrameX jetzt gute Voraussetzungen, um dann am 30.01. DLSS4 FG zu testen. Was auch immer das an Verbesserungen bringen mag.

ZeroStrat
2025-01-22, 09:26:23
@ZeroStrat: Nutzt der Graph im Overlay auch MsBetweenDisplayChange?

Der Graph im Overlay wird nicht durch RTSS gerendert, auch die Daten kommen von RTSS. Man kann die Methode aber umstellen in den RTSS Optionen.

Gast
2025-01-22, 12:29:54
Ich verstehe den Gast so, dass die Bilder dann vor der Ausgabe gewarpt werden. Ich war mal so frei im Beispiel herumzuschmieren.


Kommt dem schon deutlich näher.


Das bedeutet der Warp käme dann insgesamt noch mal als Ausgabelatenz dazu, dafür wird halt die aktuelle Eingabe beachtet.


Nicht wirklich, nachdem man die Frames ja generell verzögert weiß man schon zuvor wann man dieses ausgeben will, und man weiß wie lange der Framewarp dauert. Also kann man diesen so starten, dass dieser gerade rechtzeitig zur Ausgabe fertig wird.
Die Änderungen der Eingaben während des Warps können natürlich nicht mehr erfasst werden.
Allerdings ist das sowieso zu vernachlässigen, der ganze Framewarp inklusive Erfassung der Eingaben wird deutlich unter einer ms brauchen. Wenn man bedenkt dass beim normalen Rendering die Eingaben mindestens so alt sind wie die Frametime, und wir hier gerade mal einen winzigen Bruchteil davon haben ist das mehr als zu vernachlässigen.


Hier mal eine vereinfachte, NICHT MAßSTABSGETREUE Darstellung:
https://i.imgur.com/LL9I4KI.png



Je höher die fps und je kleiner die Bewegung desto weniger muss aufgefüllt werden, interessant wird also der Test in niedrigen FPS bei schnellen Bewegungen.


Der Nvidia-Ingenieur bei DF hat ja schlüssig erklärt, dass er für eine sinnvolle Einsatzmöglichkeit eine ähnliche Grundperformance wie beim alten FG erwartet. Eine Voraussetzung sowohl für FG als auch für FW in guter Qualität ist ja, dass sich die Frames nicht zu sehr unterscheiden.

Ich würde also weiterhin um die 60FPS als sinnvolle Grundperformance vor FG/FW erwarten.



Für mich interessant wird vor allem ob das dann auch in VR kommt wenn die Qualität stimmt, die Fehler sind dort teils sehr auffällig.


Genau, die VR-Headsets machen nicht viel anders als die Transformation-Tools in Photoshop (allerdings mit Z-Buffer), was natürlich zu Verzerrungen/Artefakten führt.
Es geht auch weniger darum ob Framewarp die Latenz reduzieren können, dass das möglich ist und sehr gut funktioniert wissen wir dank VR schon lange. Die Frage ist mit welcher Qualität ist dies möglich.


Lieber Artefakte als Übelkeit, aber wo möglich lasse ich es aus.


Ohne in den Dev-Options herumzustellen kannst du das heutzutage gar nicht ausstellen. Was du evtl. meinst ist Full-Framerate mit Warping vs. Half Framerate mit Warping, das Warping selbst ist immer aktiv. Und da kommt es eben auf die Differenz zwischen den dargestellten Frames an die mit Half-FR natürlich viel größer sind.
Bei einem 90Hz Headset ist Half-FR auch nur 45 FPS, was schon ziemlich grenzwertig ist, ich würde auch nicht erwarten dass Nvidia Lösung mit 45 FPS wirklich gut funktioniert.

Auf der Index mit 144Hz ist Half-FR wesentlich besser, die 72FPS sind eine deutlich bessere Basis als nur 45 FPS.


Selbst wenn es am Monitor nicht überzeugen sollte wäre die Qualitätssteigerung in VR gern gesehen.


Am Monitor ist es wesentlich einfacher überzeugend zu sein, VR ist ja quasi das Äquivalent vor einem 100" Monitor 50cm nah dran zu sitzen, damit ist in VR natürlich alles viel größer und Fehler viel besser sichtbar.

aufkrawall
2025-01-22, 19:41:31
Der Graph im Overlay wird nicht durch RTSS gerendert, auch die Daten kommen von RTSS. Man kann die Methode aber umstellen in den RTSS Optionen.
Gut zu wissen. MsBetweenDisplayChange dann hoffentlich mit einer neuen RTSS-Version.

Lurtz
2025-01-23, 14:01:04
Ich glaube wir sollten das hier weiterführen...

Hab mal das Overlay angeknipst, in CP ist CNN Model D, Transformer ist Model J.

Ultra Performance scheint in der DLL für Transfoerm nicht drin zu sein, da fällt er zurück auf Model F :uponder:

Ich teste das jetzt mal in einem anderen Spiel... :D

Im Overlay gibts auch schon einen Hinweis auf Warp.

robbitop
2025-01-23, 14:05:05
Hab ich was verpasst? Gibt es schon ein Spiel mit einer DLL mit dem Transformer Modell?

Lurtz
2025-01-23, 14:05:32
CP 2077 wurde vorhin geupdatet.

The_Invisible
2025-01-23, 14:07:53
Hab ich was verpasst? Gibt es schon ein Spiel mit einer DLL mit dem Transformer Modell?

Jap https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13690823&postcount=8121

@Lurtz
Hm, schade, UP mit 4k in Transformer wäre ja interessant :D

Lurtz
2025-01-23, 14:11:42
In Alan Wake 2 funktioniert es mit Ray Reconstruction einfach wenn man die CP-DLL einfügt :ugly:

Das alte RR-Modell wurde als DL4RT-Model. Das neue wird mit Transformer Model Weights benannt.

https://imgsli.com/MzQwNTUz

Lurtz
2025-01-23, 14:21:17
Hm, das Erzwingen mit Preset J funktioniert zumindest in Alan Wake 2 nicht :(

Edit:
Dürfte eher daran liegen, dass der nVidia Inspector es nicht richtig übernimmt. Ich schau mal in die XML...

aufkrawall
2025-01-23, 14:22:45
Gut, dass du schon dran bist. :up:
Kann man bei imgsli irgendwie die URLs zu den Bildern bekommen, ohne mit Ublock zu hantieren? Find das sehr unglücklich im Browser. :redface:

Btw. kann man mit Windows-Skalierung offenbar gar nicht Bilder ohne Zusatz-Skalierung im Browser anschauen.

Lurtz
2025-01-23, 14:26:57
Kann ich hochladen. Weißt du, welchen Hexcode man eingeben müsste, damit das mit Preset J funktioniert?

<UserfriendlyName>Preset A</UserfriendlyName>
<HexValue>0x00000001</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset B</UserfriendlyName>
<HexValue>0x00000002</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset C</UserfriendlyName>
<HexValue>0x00000003</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset D</UserfriendlyName>
<HexValue>0x00000004</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset E (DLSS 3.7+)</UserfriendlyName>
<HexValue>0x00000005</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset F</UserfriendlyName>
<HexValue>0x00000006</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset G (unused)</UserfriendlyName>
<HexValue>0x00000007</HexValue>
</CustomSettingValue>


Einfach hochzählen, oder ist das zu einfach? :ugly:

aufkrawall
2025-01-23, 14:29:15
Hätte ich jetzt auch gedacht.

Lurtz
2025-01-23, 14:30:54
Funktioniert leider nicht. Bleibt immer bei C in Alan Wake 2... In Red Dead Redemption scheint es witzigerweise standardmäßig verwendet worden zu sein?!

https://i.imgur.com/HTs6sqI.jpeg

Relex
2025-01-23, 14:31:27
Also die Schärfe in Bewegung mit DLSS Performance ohne RR ist schon fast surreal.

Ich schau gerade auf sehr feine Details in großer Entfernung. Mit dem CNN wird das im performance Modus leicht unscharf, wenn ich links und rechts gehe. Mit dem Transformer Model bleibt das nahezu pixel perfect scharf und flimmerfrei.

In Cyberpunk gibts an den Baumkronen der Palmen aber auch Regression. Die flimmern deutlich mehr, als mit dem CNN Model.

Lurtz
2025-01-23, 14:32:46
Ja, Vegetation flimmert ziemlich. Auch Lichtquellen hinter feinen Elementen wie Rollläden scheinen ziemlich zu flackern. Moiré ist auch immer noch ein Thema.

The_Invisible
2025-01-23, 14:34:29
Kann ich hochladen. Weißt du, welchen Hexcode man eingeben müsste, damit das mit Preset J funktioniert?

<UserfriendlyName>Preset A</UserfriendlyName>
<HexValue>0x00000001</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset B</UserfriendlyName>
<HexValue>0x00000002</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset C</UserfriendlyName>
<HexValue>0x00000003</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset D</UserfriendlyName>
<HexValue>0x00000004</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset E (DLSS 3.7+)</UserfriendlyName>
<HexValue>0x00000005</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset F</UserfriendlyName>
<HexValue>0x00000006</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset G (unused)</UserfriendlyName>
<HexValue>0x00000007</HexValue>
</CustomSettingValue>


Einfach hochzählen, oder ist das zu einfach? :ugly:

Müsste dann 0x0000000A sein

Lurtz
2025-01-23, 14:41:14
Müsste dann 0x0000000A sein
Yes! Das ist es!

<CustomSetting>
<UserfriendlyName>DLSS 3.1.11+ - Forced DLSS preset letter</UserfriendlyName>
<HexSettingID>0x10E41DF3</HexSettingID>
<GroupName>5 - Common</GroupName>
<MinRequiredDriverVersion>0</MinRequiredDriverVersion>
<SettingValues>
<CustomSettingValue>
<UserfriendlyName>N/A</UserfriendlyName>
<HexValue>0x00000000</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset A</UserfriendlyName>
<HexValue>0x00000001</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset B</UserfriendlyName>
<HexValue>0x00000002</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset C</UserfriendlyName>
<HexValue>0x00000003</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset D</UserfriendlyName>
<HexValue>0x00000004</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset E (DLSS 3.7+)</UserfriendlyName>
<HexValue>0x00000005</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset F</UserfriendlyName>
<HexValue>0x00000006</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset G (unused)</UserfriendlyName>
<HexValue>0x00000007</HexValue>
</CustomSettingValue>
<CustomSettingValue>
<UserfriendlyName>Preset J (Transformer)</UserfriendlyName>
<HexValue>0x0000000A</HexValue>
</CustomSettingValue>
</SettingValues>
<SettingMasks />
</CustomSetting>

Exxtreme
2025-01-23, 14:45:42
Hier mal schon eine Vorauswahl für weitere Presets, was eingestellt werden müsste. :)


A = 1
B = 2
C = 3
D = 4
E = 5
F = 6
G = 7
H = 8
I = 9
J = A
K = B
L = C
M = D
N = E
O = F

Relex
2025-01-23, 14:49:13
Also ohne witz, ich finde DLSS Performance mit dem Transformer model besser, als Quality mit dem CNN Model.

Wenn man entfernte Details im Blick hat und sich vorwärts bewegt, sieht man mit DLSS performance eine leichte Unruhe + Unschärfe. Mit DLSS Quality wird das deutlich reduziert, die Details bleiben in bewegung deutlich schärfer und ruhiger, wobei es erst mit DLAA nahezu perfekt wird.

Mit dem Transformer Model und dem performance Modus seh ich diesen Effekt überhaupt nicht mehr. Details werden in bewegung nicht unscharf und ich tu mich verdammt schwer, überhaupt noch einen unterschied zwischen Performance und Quality zu sehen. Und ich klebe mit der Nase gerade eh schon vorm Display.


Wenn die Bereiche noch gefixed werden, bei denen man Regression sieht, dann ist das einfach nur insane. :D.


Hier mal schon eine Vorauswahl für weitere Presets, was eingestellt werden müsste. :)


A = 1
B = 2
C = 3
D = 4
E = 5
F = 6
G = 7
H = 8
I = 9
J = A
K = B
L = C
M = D
N = E
O = F



Jetzt enttäuschst du mich aber... Das sind HEX Werte.
Da ist bei F schluss ;)

Nach ..0F geht es dann mit 10 bzw. 11, 12, 13 usw weiter bis man wieder bei F angekommen ist.

Lurtz
2025-01-23, 14:51:39
Also ohne witz, ich finde DLSS Performance mit dem Transformer model besser, als Quality mit dem CNN Model.

Wenn man entfernte Details im Blick hat und sich vorwärts bewegt, sieht man mit DLSS performance eine leichte Unruhe + Unschärfe. Mit DLSS Quality wird das deutlich reduziert, die Details bleiben in bewegung deutlich schärfer und ruhiger, wobei es erst mit DLAA nahezu perfekt wird.

War auch mein Ersteindruck. Die meisten Elemente sind mit Preset J Performance noch stabiler als mit Preset E Quality (1440p) :eek:

Hier die Inspector-Datei, falls jemand es nutzen möchte:
https://www.file-upload.net/download-15446826/CustomSettingNames.xml.html

Exxtreme
2025-01-23, 14:55:56
Jetzt enttäuschst du mich aber... Das sind HEX Werte.
Da ist bei F schluss ;)


Ich habe die DLL nicht. Deshalb habe ich mal präventiv zu einem fiktionalen Preset O gemacht. ;)

Aber eventuell gibt es die neue DLL bald hier zum Download:
https://www.techpowerup.com/download/nvidia-dlss-dll/

aufkrawall
2025-01-23, 15:01:38
War auch mein Ersteindruck. Die meisten Elemente sind mit Preset J Performance noch stabiler als mit Preset E Quality (1440p) :eek:

Coole Sache.
Damit ist jetzt nativ endgültig tot, die Renderauflösung ist nur noch viel weniger bedeutsam für das effektive Verhältnis von Samples/Pixel als ein gescheiter ML-TAA/U-Algorithmus.

Relex
2025-01-23, 15:01:59
Ich sehe gerade, der Sample and Hold Blur auf meinem OLED ist bei 80-90 FPS deutlich höher, als die praktisch nicht mehr sichtbare Unschärfe mit dem Transformer Model.

Wenn ich ingame den Charakter bewege und die Kamera stabil auf dem Objekt halte, das ich betrachten will, so dass kein sample and hold blur im Display entsteht, dann sind die Unterschiede zwischen CNN und Transformer noch deutlicher (ich teste gerade ohne RR).


Ich bin wirklich beeindruckt.

Muss das noch in mehreren Spielen testen, aber aktuell fällt mir kaum ein Grund ein, überhaupt noch den Quality Modus in 4K zu nutzen. Mit RR könnte er sich noch lohnen, um die Schärfe weiter zu maximieren. Aber ohne RR ist das einfach soo gut.

Jetzt bin ich sehr auf den non-RR Ultra Performance Modus gespannt. Das ist leider der einzige, der wohl noch nicht funktioniert (zumindest in Cyberpunk) Vielleicht geht er ja in anderen Spielen.


Ich habe die DLL nicht. Deshalb habe ich mal präventiv zu einem fiktionalen Preset O gemacht. ;)

Aber eventuell gibt es die neue DLL bald hier zum Download:
https://www.techpowerup.com/download/nvidia-dlss-dll/



Ne, mir geht es darum, dass du ganz einfach das Zahlensystem nicht beachtest. Das hat mit der DLL Datei nichts zu tun.
Bei hexadezimalen Zahlenwerten ist nunmal "F" die Ziffer mit dem höchsten Wert (=15 dezimal)


Will man die XML erweitern, müsste man folgende Werte nutzen:


0x00000001 = Preset A
0x00000002 = Preset B
0x00000003 = Preset C
0x00000004 = Preset D
0x00000005 = Preset E
0x00000006 = Preset F
0x00000007 = Preset G (unused)
0x00000008 = Preset H (unused)
0x00000009 = Preset I (unused)
0x0000000A = Preset J (Transformer)
0x0000000B = Preset K (unused)
0x0000000C = Preset L (unused)
0x0000000D = Preset M (unused)
0x0000000E = Preset N (unused)
0x0000000F = Preset O (unused)
0x00000010 = Preset P (unused)
0x00000011 = Preset Q (unused)
0x00000012 = Preset R (unused)
0x00000013 = Preset S (unused)
0x00000014 = Preset T (unused)
0x00000015 = Preset U (unused)
0x00000016 = Preset V (unused)
0x00000017 = Preset W (unused)
0x00000018 = Preset X (unused)
0x00000019 = Preset Y (unused)
0x0000001A = Preset Z (unused)

Lurtz
2025-01-23, 15:16:11
Hm, schade, UP mit 4k in Transformer wäre ja interessant :D
Geht jetzt, wenn man es richtig erzwingt.

Lurtz
2025-01-23, 15:17:47
Computerbase ist nicht begeistert:
Noch nicht vollends überzeugen konnte DLSS 4 Super Resolution sowie DLSS 4 Ray Reconstruction, zwar gibt es teils grafische Besserungen, manchmal sieht die DLSS-3-Variante aber auch besser aus. Nicht umsonst sind die zwei neuen Features mit dem Transformer-Model, das es auf allen GeForce-RTX-Grafikkarten gibt und zumindest auf RTX 4000 vergleichbar gut läuft wie auf RTX 5000, noch offiziell in der Beta-Phase.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-8#abschnitt_dlss_4_mfg_ueberzeugt_wenn_die_basis_passt

Details:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-5090-test.91081/seite-7

Kann ich nicht nachvollziehen. In CP 2077 gibts eklatante Unterschiede, wo muss man die "mit der Lupe suchen"? :confused:

PCGH sieht deutlich größere Unterschiede:
Im Großen und Ganzen kostet das Transformer-Modell ein wenig Performance, die Qualität ist allerdings sichtbar besser. Vor allem feine Details, darunter prominent die Vegetationsdarstellung, sehen in den von uns getesteten Spielen deutlich sauberer aus. Feinheiten sind gerade in Bewegung wesentlich stabiler. Weitere Details kommen in Cyberpunk 2077 und den animierten Hologrammen zur Geltung, diese zeigen mit dem bisher genutzten CNN-Modell teils sehr unschönes Verwischen, insbesondere deutlich bei semitransparentem Text.
Ebenfalls wesentlich knackiger und stabiler ist die Darstellung von feinen Zäunen und ähnlichen "netzartigen" Strukturen. Diese werden mit dem Transformer-Modell deutlich stabiler als bislang abgebildet. Außerdem erhöht sich die Bildschärfe, insbesondere sichtbar bei nahezu uniformen Texturen. Das alte DLSS mit CNN-Modell lässt solcherlei Feinheiten stark in den Hintergrund rücken, das Transformer-Modell arbeitete sie klar und deutlich hervor. Auffällig ist der verstärkte "Ölgemälde-Look" mit Transformer-Modell, insbesondere, wenn zudem Ray Reconstruction angeboten wird und der Upsampling-Faktor hoch ausfällt.
https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-4-vs-DLSS-3-Test-RTX-5090-Performance-1464233/2/#a1

dildo4u
2025-01-23, 15:32:05
Zumindest die 4090 schluckt das neue Transformer Modell ohne Probleme in Cyberpunk


qUznn30H-Ro

Relex
2025-01-23, 15:34:09
Bei Bildqualitätsbeurteilungen war ich bisher selten mit CB einer meinung. Die haben auch FSR häufig recht gut bewertet, obwohl disocclusion rauschen in manchen Spielen extrem ausgeprägt waren.


Klar, die Regressionen die sie sehen sind 100% valide. Hab ja auch ein paar gesehen und da musste ich nicht lange suchen.

Aber abgesehen davon ist das ein gewaltiger Sprung. Für mich war eben ein Hauptgrund, Quality anstatt performance zu nutzen die bessere Schärfe und Stabilität in Bewegung. Gerade in Bewegung wird das halt auffällig, auch wenn der performancemodus bisher sehr gut war.

Und gerade das wurde jetzt so stark verbessert, dass ich eben DLSS performance sogar deutlich über dem alten DLSS Quality sehe. Dass feine Details so scharf und stabil in bewegung bleiben hat man vorher höchstens mit Downsampling hinbekommen. Und selbst da hat man kaum diese pixel perfekte Schärfe hinbekommen.

Lurtz
2025-01-23, 15:39:01
Die Texturen verlieren in 1440p aber schon immer noch stark an Details.

robbitop
2025-01-23, 15:39:37
DLL Upload - when? ^^

Lurtz
2025-01-23, 15:50:38
In Indy sieht man auch gleich wie überlegen Preset J ist. Das witzige ist, dadurch dass J so extrem ruhig ist, fallen einem die Patzer paradoxerweise noch mehr ins Auge :ugly:
Es flimmert einfach gar nichts mehr, bis dann ein high contrast Zaun kommt, der doch noch ein wenig flimmert, und das sieht dann ganz schlimm aus... ;D

DLL Upload - when? ^^
https://limewire.com/d/150911f8-409f-481b-915b-241b58a0026b#OOrGhOZzuOgM6EhV7mZPnlLTTY0vKIbUmVtnIgKAY_g

readonly
2025-01-23, 16:04:55
Da ich doof bin, sorry dass ich frage. Hab die DLL aus dem Cyberpunk Verzeichnis mal rüber nach Hogwarts gepackt. Läuft soweit. Ist natürlich nur Basic, aber kann ich da irgendwie noch was verbessern? 4070ti

Lurtz
2025-01-23, 16:06:57
In Witcher 3 finde ich J richtig stark. Die sich ständig bewegende Vegetation ist so viel weniger vermatscht, darüber habe ich mich die Tage ja erst noch beschwert...

https://imgsli.com/MzQwNjIw

Oder die Texturen auf Geralts Hand...

Da ich doof bin, sorry dass ich frage. Hab die DLL aus dem Cyberpunk Verzeichnis mal rüber nach Hogwarts gepackt. Läuft soweit. Ist natürlich nur Basic, aber kann ich da irgendwie noch was verbessern? 4070ti
Lad meine Datei von der vorherigen Seite runter, kopiere sie ins gleiche Verzeichnis wie die exe des nVidia Profile Inspectors. Dann kannst du global Preset J erzwingen.

robbitop
2025-01-23, 16:13:13
Optiscaler erkennt die DLSS ini als 54.1.0. Leider bietet er nur bis preset G an.

robbitop
2025-01-23, 16:15:54
War auch mein Ersteindruck. Die meisten Elemente sind mit Preset J Performance noch stabiler als mit Preset E Quality (1440p) :eek:

Hier die Inspector-Datei, falls jemand es nutzen möchte:
https://www.file-upload.net/download-15446826/CustomSettingNames.xml.html
Muss man das file einfach nur in den Ordner vom Nvinspektor kopieren und kann dann global Model J (Transformer) auswählen?

Lurtz
2025-01-23, 16:25:15
Muss man das file einfach nur in den Ordner vom Nvinspektor kopieren und kann dann global Model J (Transformer) auswählen?
Ja.

Relex
2025-01-23, 16:31:17
Bzgl performance:

Das Transformer Model kostet auf meiner 4080 mit Ray Reconstruction keine Performance.
Komme im Rahmen der Messungenauigkeit auf die gleichen Ergebnisse nach mehreren Durchläufen. Das ist sehr positiv. So verliert man zumindest in pathtraced games keine Performance und bekommt einfach nur bessere Bildqualität. Und das neue Frame Gen ist ja auch schneller.
Aktives RR ist dabei auch deutlich schneller, als ohne Ray Reconstruction. Es bleibt aber ein kleiner Trade off. Mit RR opfert man nach wie vor etwas Bildschärfe gegen (VIEL) besseres Denoising und dadurch auch detailliertere Beleuchtung.


Schaltet man RR aus, dann beträgt der Performanceverlust durch das Transformer Model zumindest in der ~80 FPS range ca 3-4%

dildo4u
2025-01-23, 16:42:16
Cyberpunk FG geht jetzt bei mir war vorher Buggy nutzt Nvidia jetzt ein Compute Ansatz wie AMD?

The_Invisible
2025-01-23, 16:43:21
Cyberpunk FG geht jetzt bei mir war vorher Buggy nutzt Nvidia jetzt ein Compute Ansatz wie AMD?

Läuft jetzt auch über Tensor Cores

dildo4u
2025-01-23, 16:50:53
Vram bisher um 11GB 4k Performance DLSS RT Overdrive FG 60fps.
Glück für Nvidia das CDPR nie an den Texturen geschraubt hat. :lol:

Relex
2025-01-23, 16:55:44
Kurzer Test in Ratchet & Clank

Alte Frame Generation DLL Datei: 122 FPS, 14,4 GB VRAM Belegung
Neue Frame Generation DLL Datei: 142 FPS, 14,1 GB VRAM Belegung


Geil. Geil. Geil. :D

Darkman.X
2025-01-23, 16:58:40
Lad meine Datei von der vorherigen Seite runter, kopiere sie ins gleiche Verzeichnis wie die exe des nVidia Profile Inspectors. Dann kannst du global Preset J erzwingen.

Jetzt muss ich auch doof fragen, weil ich anscheinend etwas verpasst habe:
Warum muss die DLL-Datei in der Verzeichnis vom Profile Inspector und nicht in das Verzeichnis von der Spiel-EXE-Datei? Das musste ich doch bisher nicht machen und konnte trotzdem Presets (global) erzwingen.


EDIT: :facepalm: (an mich selber)
Du meintest die XML-Datei. Sorry :(

Lurtz
2025-01-23, 17:26:00
Das Geflimmer feiner Elemente vor hohen Kontrasten kann richtig nerven. Hellblade 2 zB mit seinem fast monochromen Look ist da extrem, Vegetation, Fell und Haare können da richtig mies aussehen. Dafür ist das ganze Ghosting selbst mit hohen Faktoren praktisch weg.

Das ist wohl der große Rückschritt, mit dem man sich die höhere Schärfe erkauft.

Naja, wäre auch zu schön gewesen wenn alles perfekt wäre :D

Gibt aber eben auch Beispiele wie Witcher 3, wo selbst Vegetation besser aussieht.

Relex
2025-01-23, 17:41:05
Seh ich auch so. Bei Vegetation, Fell und Haaren gibts etwas mehr unruhe als vorher. Aber auch nicht immer.

Ansonsten bleibe ich aber dabei. Unterm Strich ist die Schärfe mit DLSS P nun besser als vorher mit DLSS Q.

Der Ultra Performance Modus (ohne Ray Reconstruction) ist leider noch unbrauchbar, da gibts oft hässliche Grafikfehler. Das wird auch der Grund sein, warum Cyberpunk dann auf das alte Model zurückschaltet.

Trotzdem gibts auch da Aspekte, die es locker mit dem alten DLSS Quality aufnehmen können, was die Kantenglättung und schärfe betrifft.


Wenn die Fehler noch behoben werden können, dann ist der Performancezuwachs durch das neue Transformer Model bei entsprechend geringerer Input Auflösung und das neue FG höher als mit dem Wechsel auf Blackwell. :D

robbitop
2025-01-23, 18:34:20
Welches Modell ist in Ultra Performance denn am besten? F? Oder klassisch E?

wolik
2025-01-23, 18:55:23
UL in 8K sieht fast wie DLAA. Definitiv, DLSS=Heilige Gral.

Relex
2025-01-23, 19:24:42
Welches Modell ist in Ultra Performance denn am besten? F? Oder klassisch E?

F

E ist zwar schärfer, erzeugt aber bei problematischem Content SEHR viel mehr Flimmern.

Gerade mal Returnal getestet.

DLSS Quality + FG
144 FPS -> 170 FPS

Nur durch das tauschen der Frame Generation DLL.

Relex
2025-01-23, 21:15:07
Alte DLSS-FG dll Datei:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91106&stc=1&d=1737662584



Neue DLSS-FG dll Datei :eek::

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91107&stc=1&d=1737662584



Wozu braucht man da noch neue Hardware??? :freak:

Raff
2025-01-23, 21:16:16
Geil. Geil. Geil. :D

... für die RTX 5070, welche dadurch eventuell knapp an Verrissen vorbeischlittert. :ulol:

MfG
Raff

Gast
2025-01-23, 21:17:20
Zumindest Ray Reconstruction soll jetzt wieder einen Schärfefilter haben, den man in der Registry ausknipsen kann:
https://www.reddit.com/r/nvidia/s/1kFP9LHxMT

Sardaukar.nsn
2025-01-23, 21:30:12
@Relex: Brutal! Danke fürs testen. Ich freue mich trotzdem auf neue Hardware ;)

Lawmachine79
2025-01-23, 22:00:33
In Indy sieht man auch gleich wie überlegen Preset J ist. Das witzige ist, dadurch dass J so extrem ruhig ist, fallen einem die Patzer paradoxerweise noch mehr ins Auge :ugly:
Es flimmert einfach gar nichts mehr, bis dann ein high contrast Zaun kommt, der doch noch ein wenig flimmert, und das sieht dann ganz schlimm aus... ;D


https://limewire.com/d/150911f8-409f-481b-915b-241b58a0026b#OOrGhOZzuOgM6EhV7mZPnlLTTY0vKIbUmVtnIgKAY_g
Was macht welche der DLLs? Was muss ich machen, um DCS mit dem neuen DLSS zu spielen?

crux2005
2025-01-24, 01:28:29
4xMFG in Cyberpunk 2077 (4K, DLSS4 Balanced) "einige Artefakte". :rolleyes:

https://i.imgur.com/UvTgDwa.png

Vram bisher um 11GB 4k Performance DLSS RT Overdrive FG 60fps.
Glück für Nvidia das CDPR nie an den Texturen geschraubt hat. :lol:

Deswegen gibt es keine GOTY mit HulkHogans Texturen Pack. :D

Kurzer Test in Ratchet & Clank

Alte Frame Generation DLL Datei: 122 FPS, 14,4 GB VRAM Belegung
Neue Frame Generation DLL Datei: 142 FPS, 14,1 GB VRAM Belegung


Geil. Geil. Geil. :D

"Es braucht den HW Optical Flow Analyzer sonst könnten wir keine FG machen". Wer glaubt dem Laden noch etwas?

aufkrawall
2025-01-24, 04:01:14
Wozu braucht man da noch neue Hardware??? :freak:
Ja, sieht so aus. Lob für die Tests.
Jetzt fehlt nur noch ein VRR-Fix mit neuem Treiber. Bei Bro von 4090 -> 5700 XT ist der OLED VRR Flicker um ca. 70-90% zurückgegangen. Und das ist definitiv nicht übertrieben veranschlagt...

Edit: CP77 shipt auch StreamLine 2.7. U.a. auch sl.dlss.dll und sl.dlss_d.dll. Deutet darauf hin, dass jetzt auch DLSS Upsampling/AA/RR in diesem Spiel über StreamLine implementiert ist. Das ist bislang selten der Fall gewesen.

aufkrawall
2025-01-24, 08:41:27
https://s20.directupload.net/images/250124/x4epcrtl.png (https://www.directupload.eu)
https://youtu.be/5YJNFREQHiw?t=389

Exxtreme
2025-01-24, 08:44:36
OK, gestern die neue DLL in Final Fantasy 14 ausprobiert. Im Character-Auswahlbildschirm gibt es blockige Artefakte. Ansonsten ist Preset J sehr sehr gut mit DLAA.

Relex
2025-01-24, 09:15:57
https://s20.directupload.net/images/250124/x4epcrtl.png (https://www.directupload.eu)
https://youtu.be/5YJNFREQHiw?t=389


Der hat doch bei (ohne FG) auch Reflex deaktiviert. Anders machen die Zahlen doch keinen Sinn.

Wenn er 253 FPS erreicht, dann beträgt die Basis Framerate 63,25 FPS.
Ohne FG sind es 77 FPS.

77 FPS entspricht einer Frametime von 12,98 ms
63,25 FPS entspricht einer Frametime von 15,81 ms


Alleine der reine FPS Unterschied beträgt also 2,83 ms.
Jetzt muss mit FG aber immer einen Frame länger gewartet werden, wodurch sich 15,81 ms + 2,83 ms ergeben. Natürlich zuzüglich rest der Systemlatenz.

Wenn also in beiden Fällen Reflex aktiv war, müsste der Latenzunterschied mindestens ca 19 ms betragen.

basix
2025-01-24, 09:19:07
Kurzer Test in Ratchet & Clank

Alte Frame Generation DLL Datei: 122 FPS, 14,4 GB VRAM Belegung
Neue Frame Generation DLL Datei: 142 FPS, 14,1 GB VRAM Belegung


Geil. Geil. Geil. :D

Ja, kann auch ca. +20% FPS bei aktiviertem FG in CP2077 bestätigen :) Und das ist altes CNN vs. neues Transformer Modell.

Die Probleme bei den Palmen-Blättern kann ich auch bestätigen. Allerdings nur bei den "gelblichen" Teilen. Die dunkelgrünen Teile (je nach Licht oder Teil der Palme) ist es viel besser.

Hier noch ein Vergleich CNN vs. Transformer: https://imgsli.com/MzQxMTAx/0/1
- Das ist 4K DLSS-P mit FG und RR
- Reduzierter Ölgemälde-Look
- Höhere Bildschärfe
- Faktisch keine Unschärfe in Bewegung mehr
- Transformer Modell scheint ein wenig schneller zu konvergieren
- Zwischen DLSS-Q und DLSS-P muss man die Unterschiede mit der Lupe suchen. Ausnahme sind wieder die Blätter der Palmen, die sind mit DLSS-P deutlich instabiler

Völlig unglaublich ist der Unterschied bei Jackies Gesicht. Aber auch weiter entfernte feine Details (z.B. diese Palme) sehen deutlich besser aus.

The_Invisible
2025-01-24, 09:25:28
"Es braucht den HW Optical Flow Analyzer sonst könnten wir keine FG machen". Wer glaubt dem Laden noch etwas?

Naja hat ja der KI Superheini beim Interview gesagt das sie damals noch nicht soweit waren das per ML zu machen. Die Frage ist eher warum man es nicht auch einfach auf RTX2000/3000 aktiviert :D

aufkrawall
2025-01-24, 09:27:02
Das geht eh alles nicht so ganz logisch auf. Bei CB läuft AW2 mit DLSS 3 SR mit 71,5fps. Trotzdem kommt da mit 2xFG nur 9ms angebliche PC-Latenz drauf. Text klingt so, als wäre Reflex außer in Dragon Age immer an. Wie soll das also gehen, wenn die "realen" fps mit FG aktiv dann nur noch bei 60fps (120fps mit FG) sind? Da müssten eigentlich mindestens 16ms draufkommen, oder nicht?

Da stellt sich die Frage, ob diese ganzen Werte nicht alle für die Tonne sind und man nur mit ~100% wasserdichter HFR-Kamera-Testmethode testen sollte.

basix
2025-01-24, 09:32:50
Naja hat ja der KI Superheini beim Interview gesagt das sie damals noch nicht soweit waren das per ML zu machen. Die Frage ist eher warum man es nicht auch einfach auf RTX2000/3000 aktiviert :D

Vision Transformer waren evtl. noch zu neu für die erste FG-Generation.
Aber ja, FG für ältere Karten wär nun was. Und dein "KI Superheini" hat ja auch gesagt, dass sie diese Option anschauen.

Was halt sein kann:
FG könnte FP8 verwenden, was nur RTX 40/50 unterstützen. Könnte auf älteren Karten also doch einiges langsamer laufen. Aber besser es läuft (und dann halt langsamer) als gar nicht. Aber wenn es kommt, vermutlich erst im Herbst oder wenn der Super-Refresh mit mehr VRAM rauskommt. Man will die Leute ja zum Kauf einer RTX 50 bewegen ;) Bis zum Super-Refresh hat man FG Exklusivität und nach Super Refresh gute VRAM-Ausstattungen. Beides Argumente pro RTX 50, wenn man dann noch auf einer RTX 20/30 sitzt (Ausnahme = RTX 3090).

Das geht eh alles nicht so ganz logisch auf. Bei CB läuft AW2 mit DLSS 3 SR mit 71,5fps. Trotzdem kommt da mit 2xFG nur 9ms angebliche PC-Latenz drauf. Text klingt so, als wäre Reflex außer in Dragon Age immer an. Wie soll das also gehen, wenn die "realen" fps mit FG aktiv dann nur noch bei 60fps (120fps mit FG) sind? Da müssten eigentlich mindestens 16ms draufkommen, oder nicht?

Da stellt sich die Frage, ob diese ganzen Werte nicht alle für die Tonne sind und man nur mit ~100% wasserdichter HFR-Kamera-Testmethode testen sollte.
Im besten Fall ist es nur 50% Frametime. Man spekuliert schon auf das nächste Frame und muss dann FG möglichst schnell abarbeiten. Hat AMD bei FSR 3.1 auch so aufgezeichnet. Da könnten die 9ms gut hinkommen. Deswegen steigt die Latenz leicht mit 4x MFG: Man muss 75% der Frametime abwarten und man verliert noch etwas an Performance.

https://gpuopen.com/wp-content/uploads/2023/12/fsr3-presentqueue-upscaling-framegeneration-pipeline.png

aufkrawall
2025-01-24, 09:38:29
Im besten Fall ist es nur 50% Frametime. Man spekuliert schon auf das nächste Frame und muss dann FG möglichst schnell abarbeiten. Hat AMD bei FSR 3.1 auch so aufgezeichnet. Da könnten die 9ms gut hinkommen.

Es fühlt sich für mich allerdings in solchen Fällen (~70fps Basis) nicht an wie 9ms. Ggf. erinnert sich noch manch einer daran, dass sich Spiele im Vsync-Limit mit Double Buffered durch ein Frame weniger Buffer mitunter schon deutlich direkter angefühlt haben als mit Triple Buffered. Das waren bei 60Hz 16,67ms. Und FG schlägt imho eher in die Kerbe.

basix
2025-01-24, 09:42:02
Wie meinst du das? FG fühlt deutlich indirekter an als es die 9ms andeuten würden?

Weiss nicht, ob das Framepacing da noch reinspielt.

aufkrawall
2025-01-24, 09:45:30
Wie meinst du das? FG fühlt deutlich indirekter an als es die 9ms andeuten würden?

Würde ich schon sagen. Witcher 3 hat ja ohne Reflex o.ä. immer noch absurden CPU Prerender von wahrscheinlich deutlich mehr als einem Frame. Da ist der Unterschied ohne FG mit Reflex on/off imho in etwa so wie mit Reflex on FG on/off.
(Im Wald im GPU-Limit.)

Lurtz@Gast
2025-01-24, 09:54:26
Der kommende Treiber scheint die Performance von DLSS4 zu verbessern:
https://forums.guru3d.com/threads/geforce-571-96-beta-driver.455138/#post-6300584

robbitop
2025-01-24, 09:55:49
"Es braucht den HW Optical Flow Analyzer sonst könnten wir keine FG machen". Wer glaubt dem Laden noch etwas?
Naja der Stand der Entwicklung ist eben ein "moving target". Aber sicherlich war auch ordentlich Produktplatzierung mit im Spiel - sie brauchten einen Unique Selling Point für Ada (und jetzt brauchen sie mit MFG einen für Blackwell)

Würde ich schon sagen. Witcher 3 hat ja ohne Reflex o.ä. immer noch absurden CPU Prerender von wahrscheinlich deutlich mehr als einem Frame. Da ist der Unterschied ohne FG mit Reflex on/off imho in etwa so wie mit Reflex on FG on/off.
(Im Wald im GPU-Limit.)
Selbst wenn man global im Treiber Prerender auf 1 oder 0 frames setzt? :)

aufkrawall
2025-01-24, 10:02:52
Selbst wenn man global im Treiber Prerender auf 1 oder 0 frames setzt? :)
Der Unterschied jeweils zwischen Default und NULL und NULL und Reflex ist bei dem Spiel deutlich spürbar.
Würde aus der Erinnerung sagen, Reflex + FG ist laggier als FG off + Treiber-NULL.

basix
2025-01-24, 10:17:23
Würde ich schon sagen. Witcher 3 hat ja ohne Reflex o.ä. immer noch absurden CPU Prerender von wahrscheinlich deutlich mehr als einem Frame. Da ist der Unterschied ohne FG mit Reflex on/off imho in etwa so wie mit Reflex on FG on/off.
(Im Wald im GPU-Limit.)

Ja, TW3 fühlt sich mit FG deutlich indirekter an, das stimmt. Auch mit Reflex. Ohne Reflex habe ich schon lange nicht mehr gespielt :D

The_Invisible
2025-01-24, 10:35:14
Der kommende Treiber scheint die Performance von DLSS4 zu verbessern:
https://forums.guru3d.com/threads/geforce-571-96-beta-driver.455138/#post-6300584

Wär nochmals ein netter Bonus wenn das so kommt

Relex
2025-01-24, 10:39:55
Der kommende Treiber scheint die Performance von DLSS4 zu verbessern:
https://forums.guru3d.com/threads/geforce-571-96-beta-driver.455138/#post-6300584

Das ist ja Wahnsinn. Nochmal mehr Performance.


Direkt mal downloaden und vergleichen...

basix
2025-01-24, 11:14:33
Damit wäre das Transformer Modell in etwa so schnell wie das CNN Modell?

Interessant wäre jetzt noch das Scaling Turing bis Blackwell. Ob es auf den älteren GPUs mehr Leistung kostet oder nicht. Vermutlich nicht.

Für mich ist DLSS4 der Performance Boost und nicht die 5090 :freak:
- DLSS-P anstatt DLSS-Q sind ~1.2...1.4x (stark abhängig vom Spiel)
- Neues FG ~1.1...1.3x
- RTX 5090 ~1.2...1.3x :rolleyes:

x-force
2025-01-24, 12:48:44
- Transformer Modell scheint ein wenig schneller zu konvergieren

gegen was konvergiert es?


Völlig unglaublich ist der Unterschied bei Jackies Gesicht.

ich sehe weniger schärfe/details an den daumenfalten und den adern.
die kette ist ebenfalls eindeutig schärfer, man sieht an den spiegelungen der kette, dass diese mit transformer von einer niedrigeren auflösung kommen.

das transformer modell arbeitet mit weniger kontrast.

Es fühlt sich für mich allerdings in solchen Fällen (~70fps Basis) nicht an wie 9ms. Ggf. erinnert sich noch manch einer daran, dass sich Spiele im Vsync-Limit mit Double Buffered durch ein Frame weniger Buffer mitunter schon deutlich direkter angefühlt haben als mit Triple Buffered. Das waren bei 60Hz 16,67ms. Und FG schlägt imho eher in die Kerbe.

das entspricht auch meinem empfinden, allerdings kommt es auf das spiel an, es scheint mir unterschiedlich gut implementiert, oder zu reagieren

aufkrawall
2025-01-24, 12:56:45
Wie siehts jetzt eigentlich etwa mit Vögeln in Witcher oder Hogwarts aus? Smearen weniger mit Transformer? Ist Smearing sonst wo noch deutlich merkbar?

Relex
2025-01-24, 13:38:30
Das ist ja Wahnsinn. Nochmal mehr Performance.


Direkt mal downloaden und vergleichen...


Hab jetzt ein paar Vergleiche gemacht. Sieht so aus, als würde der Treiber allgemein mehr performance bringen, sowohl mit CNN als auch Transformer Model.


Das heißt, eintweder der Treiber beschleunigt Cyberpunk oder aber das neue Frame Generation performt mit dem neuen Treiber nochmals besser.


Hier die Ergebnisse: ALLE Benchmarks wurden mit FG gemacht (somit hab ich leider keinen Vergleich zum alten Treiber bzgl. FG performance)

Die FPS angaben sind jeweils Run 1 und Run 2.
Seltsamerweise sehe ich heute durchaus auch mit RR unterschiede in der Performance mit dem Transformer Model. Cyberpunk scheint auch irgendwie je nach Tageszeit unterschiedlich zu laufen. Aber was will man machen...


CNN Model

Alter Treiber: 88,71 | 88,63
Neuer Treiber: 91,12 | 91,21



Transformer Model

Alter Treiber: 85,45 | 85,44
Neuer Treiber: 87,53 | 87,60



CNN Model + RR

Alter Treiber: 94,01 | 93,90
Neuer Treiber: 96,48 | 96,40



Transformer Model + RR

Alter Treiber: 91,55 | 91,30
Neuer Treiber: 93,81 | 94,16




EDIT:

Der Treiber beschleunigt wirklich "nur" Cyberpunk (oder Pathtracing allgemein?). Hat nichts mit DLSS zu tun.

In Returnal konnte ich jetzt sehen, dass ich mit der alten FG Datei wieder exakt die selben FPS wie gestern erreiche und dann mit der neuen FG Datei von 144 auf 170 FPS komme.
Mit Transformer Upscaling geht es dann von 170 auf 162 runter.. Genau wie gestern mit altem Treiber.

basix
2025-01-24, 14:21:06
gegen was konvergiert es?

Bewegung vs. Stillstand. Sieht man nur bei den Palmwedeln wirklich deutlich. Sobald man stehen bleibt, gibt es eine "Anlernphase" wo sich das fertige Bild aus den multiplen temporalen Frames zusammensetzt.

Beim Transformer Modell scheinen weniger Frames auszureichen, damit man +/- am Endzustand angekommen ist (d.h. die Palmwedel werden nicht mehr sichtbar aufkumuliert). Das ist wohl einer der Gründe, wieso es in Bewegung deutlich besser aussieht.


ich sehe weniger schärfe/details an den daumenfalten und den adern.
die kette ist ebenfalls eindeutig schärfer, man sieht an den spiegelungen der kette, dass diese mit transformer von einer niedrigeren auflösung kommen.

das transformer modell arbeitet mit weniger kontrast.
Ja, das Transformer Modell erzeugt weniger Kontraste. Das liegt aber an RR und nicht Temporal Superresolution. Das ist aber insgesamt gut so, da dadurch der Ölgemälde Look zum grössten Teil verschwindet. Das CNN Modell hat Kontrastübergänge überbetont (siehe z.B. Jackies Arm vs. Jacke).

Über den grössten Teil des Bildes sieht das Transformer Modell deutlich schärfer aus. Alle Texturen, Schatten, Schrift, feine Geometrie, Haare, etc. sehen besser aus. An manchen Stellen gaukelt das alte Modell aufgrund der höheren Kontraste unter Umständen mehr Details oder eine höhere Schärfe vor. Das ist aber so nicht unbedingt richtig.

Wenn du links von Jackie die Schränke (und die Griffe daran) sowie den den Tisch mit der Kartonschachtel darauf anschaust, ist das Transformer Modell deutlich überlegen. Bessere Ausleuchtung, besseres AA, höhere Texturdetails. Dito etwas weiter links beim Türrahmen. Und das ist im Stillstand, also Best Case für das CNN Modell. In Bewegung wird der Unterschied noch grösser. Obwohl die Render- und Outputauflösungen bei CNN sowie Transformer identisch sind, sieht es beim Transformer Model schlicht nach erhöhter Auflösung aus ;) Für mich heisst das, dass ich wohl öfters von DLSS-Q auf DLSS-P wechseln werden. Kostenlose Performance ;)

readonly
2025-01-24, 14:39:26
Versuche gerade mal den DLSS Test von 3Dmark mit der neuen DLL und dann mit der neuen DLL und dem neuen Treiber auf meiner 4070ti zu benchen.

Update DLSS3 FG Performance
Alte DLL 104,45 fps
Neue DLL 118,33 fps
Neue DLL neuer Treiber 117,82 fps

Oliver_M.D
2025-01-24, 15:17:36
Alte Frame Generation DLL Datei: 122 FPS, 14,4 GB VRAM Belegung
Neue Frame Generation DLL Datei: 142 FPS, 14,1 GB VRAM BelegungAlte DLL 104,45 fps
Neue DLL 118,33 fps - neuer Treiber 117,82 fpsDas Transformer Model ist schon eine geile Sache, das neue FG Model finde ich aber teilweise noch fast interessanter und sei es nur wegem der besseren Performance:D

The_Invisible
2025-01-24, 15:21:07
Freu mich schon wenn die Nvidia App Update kommt zum überschreiben, bin da zu faul irgendwelche Dateien rumzukopieren :freak:

robbitop
2025-01-24, 15:26:56
Interessant dass Techpowerup noch nicht nachgezogen hat. Ansonsten könnte man das auch komfortabel mit dem DLSS Swapper machen (wobei der das Preset nicht ändern kann - das kann man global auch über den nvinspector machen).

x-force
2025-01-24, 15:53:27
Kartonschachtel

die schachtel selbst strahlt dafür jetzt etwas radioaktiv, da scheint mir ao und selbstverschattung zu fehlen

fondness
2025-01-24, 16:34:26
Puh, ich sehe die Waffe Mindestens fünfmal X-D

https://i.postimg.cc/WzL4PBYT/image.jpg (https://postimg.cc/1nBSGjZj)

https://www.youtube.com/watch?v=MhRK-OWZ0_8&t=696s

Relex
2025-01-24, 16:41:59
Und weiter? Das war ja offensichtlich bugged nachdem er umgestellt hat.

War sonst im Video nirgends zu sehen.

Habs auch schon öfter geschafft, dass sämtliche Denoiser ausfallen und man nur noch das Rauschen vom pathtracing sieht. Passiert, wenn man viel mit den Settings spielt. Just Cyberpunk things...


Ansonsten sinnvolles Video den Leuten zu erklären, dass 100 FPS mit 4x FG einfach nen scheiß wert sind, weil die baseframerate nur 25 FPS beträgt. Dann gibts eben Artefakte und Lag aus der Hölle.

Lurtz
2025-01-24, 17:59:35
Das neue FG ist ja auch der Hit. In RDR1 sind zB die Symbole auf der Minimap mit dem alten FG lustig hin- und hergewackelt, das ist jetzt komplett weg. Auch bei Untertiteln bei schnellen Bewegungen gibts wesentlich weniger Artefakte.

Wieso kriegt man mit FG eigentlich manchmal links oben einen Infotext im DLSS-Overlay und dann wieder nicht? :uponder:
Hängt das mit Streamline zusammen? Sollte man die Dateien auch immer aktualisieren, oder reicht nur die nvngx_dlssg.dll?

Wie siehts jetzt eigentlich etwa mit Vögeln in Witcher oder Hogwarts aus? Smearen weniger mit Transformer? Ist Smearing sonst wo noch deutlich merkbar?
https://s20.directupload.net/images/250124/ypyx5la2.png

DrFreaK666
2025-01-24, 18:13:21
70eXtD41JNE

aufkrawall
2025-01-24, 18:17:06
Hängt das mit Streamline zusammen? Sollte man die Dateien auch immer aktualisieren, oder reicht nur die nvngx_dlssg.dll?

StreamLine ist meist nur innerhalb jeweils 2.2.x, 2.4.x etc. aktualisierbar, nicht darüber hinaus.
Wenn es innerhalb der Unterversion neue DLLs gibt, kann man die probieren. Ansonsten kann man es sich direkt sparen, sonst fehlen einfach die Features im Optionsmenü etc.


https://s20.directupload.net/images/250124/ypyx5la2.png
Sieht erstmal gut aus? Am kritischsten war das meist, wenn die Vögel weiter entfernt am Horizont waren.

The_Invisible
2025-01-24, 18:18:18
DLSS4 ist ein besseres Upgrade als die rtx5000 selbst, hätte das Nvidia nur alles exklusiv für rtx5000 gemacht wärs wohl ein besserer selling Point gewesen :D

Mordekai2009
2025-01-24, 18:50:42
In Talos Principle 2 hatte ich das sogenannte Smearing bei den Vögeln weit oben in der Luft, sehr weit entfernt wo es nur ein paar Pixeln zu sehen war. Ich dachte das sind Geister. Ob das mit DLSS 4 hilft. Muss ich erstmals abwarten bis ein neuer Treiber raus ist.


EDIT: Kurz gecheckt. DLSS Version 3.7.10.0

Zu finden unter -> \The Talos Principle 2\Engine\Plugins\Marketplace\nvidia\DLSS\Binaries\ThirdParty\Win64\

Lurtz
2025-01-24, 18:58:00
Sieht erstmal gut aus? Am kritischsten war das meist, wenn die Vögel weiter entfernt am Horizont waren.
Wenn man genau hinschaut fransen Objektkanten immer noch leicht aus, denke ich, aber beim normalen Spielen empfinde ich es jetzt als kaum mehr wahrnehmbar :uponder:

Lurtz
2025-01-24, 19:07:59
DLSS4 ist ein besseres Upgrade als die rtx5000 selbst, hätte das Nvidia nur alles exklusiv für rtx5000 gemacht wärs wohl ein besserer selling Point gewesen :D
Das hat sich in den letzten Wochen ja schon abgezeichnet :) Würde mal hoffen ab einer RTX 4070 kann man Blackwell einfach überspringen...

Exxtreme
2025-01-24, 20:43:01
Neuer Vergleich von The Elder Scrolls Online mit DLSS 4. :D

https://imgsli.com/MzQxNDEx

Auch wenn ich womöglich gleich wieder Ärger bekomme. :D

Relex
2025-01-24, 20:45:41
Hab gerade auch nen Vergleich im Cyberpunk Thread gepostet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13692191#post13692191


CNN Quality Mode vs Transformer Performance Mode (mit leichtem Kameraschaukeln)

--->>https://imgsli.com/MzQxMzk5


https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91119&stc=1&d=1737746376

Oliver_M.D
2025-01-24, 20:56:51
Muss zugeben dass mir die Augen und das Können hierfür fehlen, aber meine Fresse, Preset J sieht verdammt stabil und scharf (in Cyberpunk) aus!
Wirklich erstaunlich wie (für mich) nicht nur 1440p Performance jetzt echt scharf sind, sondern irgendwie sogar Ultra Performance nutzbar wurde:freak:
Ist es eigentlich normal dass man so extrem an Schärfe verliert, wenn man RR aktiviert? War bei mir jedenfalls so, wenn ich mit aktivierten PT gebenched habe.

Relex
2025-01-24, 21:01:54
Ja, RR ist unschärfer. Aber schärfer als vorher und mit viel viel weniger artefakten.

Richtig knackig wirds aber nur ohne RR.

Ultra Performance modus nutzt aber nur mit RR das neue Model.
Ohne RR wird noch das alte genutzt. Eigentlich solltest du ohne RR keinen Unterschied zwischen CNN und Transformer sehen.

Oliver_M.D
2025-01-24, 21:12:19
Ultra Performance modus nutzt aber nur mit RR das neue Model.
Ohne RR wird noch das alte genutzt. Eigentlich solltest du ohne RR keinen Unterschied zwischen CNN und Transformer sehen.Forciere Preset J mit NVInspector, eventuell ist UP+RR (https://steamuserimages-a.akamaihd.net/ugc/37818377526978230/EA6554327F14BD7EEC43C8E727DEA7A54A4D3DA1/) deshalb bei mir "kaputt":freak:
Genau weiß ich nur das UP ohne RR (https://steamuserimages-a.akamaihd.net/ugc/37818377526959691/E0693CF51AAD5B76AF381FA343320D557C6F2F21/) bei mir verdammt scharf ist;D

Mordekai2009
2025-01-24, 22:31:34
@Relex

Das Bild mit Transformer Performance sieht deutlich schärfer aus als bei CNN Quality. Man sieht bei der Entfernung wenn man die Vergleichsbilder reinzoomt. Bzw... siehe Plakate und Kran.

Ich bin durch mit DLSS v3.7.10.0 in Talos Principle 2 mit aktiviertem Frame generation auf 4K native. Und danach verglichen mit DLSS Performance was 1920x1080 entspricht. Später kann ich DLSS v4 und Transformer Model vergleichen wenn es verfügbar ist (Stable Geforce Driver release.)

Lurtz
2025-01-24, 23:18:22
Meint ihr der Treiber-Override wird dann auch mit Härtefällen wie Anti Cheat geschützten Spielen funktionieren?

readonly
2025-01-24, 23:30:34
Die neue Nvidia App aus dem Cuda Paket hat noch keine Override Option, oder? Hab zumindest nix gefunden.

FunkyChris
2025-01-25, 02:42:49
Oh Mann, wie cool. Das Transformer Modell ist ja der Hammer. Endlich Preset F-Qualität ohne den Blur :smile:

aufkrawall
2025-01-25, 04:02:02
Wenn man genau hinschaut fransen Objektkanten immer noch leicht aus, denke ich, aber beim normalen Spielen empfinde ich es jetzt als kaum mehr wahrnehmbar :uponder:
Damit sollte man ja leben können. (y)

Soll übrigens für RR Sharpen angeblich nun einen Reg-Key geben:
https://www.reddit.com/r/nvidia/comments/1i82rp6/comment/m8qak8y/

Da steht aber nur das Abschalten beschrieben, nicht die Veränderung der Intensität.

Meint ihr der Treiber-Override wird dann auch mit Härtefällen wie Anti Cheat geschützten Spielen funktionieren?
Mit etwas Pech kein Unterschied zur bisherigen Variante, die emoose entdeckt hatte. Die braucht die Kooperation der vom Spiel geshipten DLL, also in der DLL OTA-Updates aktiviert (etwa mit der Fortnite 2.2.6-DLL nicht der Fall). Bleibt wohl nur abwarten, ob wir Glück haben.

emoose hat nun sein Script auch für die RR und FG DLL geupdatet, so wie ich das verstanden hab:
https://forums.guru3d.com/threads/geforce-571-96-beta-driver.455138/page-4#post-6301095

aufkrawall
2025-01-25, 08:10:05
Bei RDR2 sieht man trotz des Split Screens recht gut, dass das Smearing mit Transformer deutlich reduziert ist:
dwv2jaa5yPE

Mit weitem Abstand das AA, das SSAA Ground Truth am nächsten kommt. Und das bei gleichzeitiger Performance-Explosion durch Upsampling. ;D

Das Polizeiauto in CP77 ist auch witzig, selbst mit TAA nativ kann man den kleinen Teil des animierten Schriftzugs gar nicht mehr lesen. Erst mit Preset J geht das. Paradebeispiel dafür, dass "nativ" eine völlig nichtssagende Kategorie dafür ist, wie es um das reale Sample/Pixel-Verhältnis bestellt ist.

Ghosting während der Fahrt mit J auch deutlich reduziert.

Sardaukar.nsn
2025-01-25, 08:14:33
https://i.imgur.com/r6uJyqR.jpeg

Kann ich leider noch nicht selbst testen, aber sieht ja sehr vielversprechend aus.

basix
2025-01-25, 09:34:39
Das Bild zeigt ziemlich genau das auf, was man auch in CP2077 sieht. Kann sein, dass man <4K den Effekt noch viel stärker sieht.

Ich habe gestern mit DLSS Swapper noch TW3 gepimpt und es sieht auch dort besser aus ;) Es smeared immer noch leicht bei dem Tonnen wehenden Gras aber weniger stark. Die FG DLL musste ich von Hand ersetzt, das kann der DLSS Swapper nicht (oder zumindest nicht die Version die ich installiert habe). Ich habe gar nicht gewusst, dass DLSS Super Resolutio, RR sowie FG jeweils eine separate DLL haben und es noch 6-7 weitere kleienre DLLs für DLSS gibt :)

Bei RDR2 sieht man trotz des Split Screens recht gut, dass das Smearing mit Transformer deutlich reduziert ist
Bei RDR2 sieht es gar nicht so scharf aus, fast unschärfer als DLSS 3.8. In den anderen Spielen sieht es durchweg deutlich schärfer aus

Mit weitem Abstand das AA, das SSAA Ground Truth am nächsten kommt. Und das bei gleichzeitiger Performance-Explosion durch Upsampling. ;D

Das Polizeiauto in CP77 ist auch witzig, selbst mit TAA nativ kann man den kleinen Teil des animierten Schriftzugs gar nicht mehr lesen. Erst mit Preset J geht das. Paradebeispiel dafür, dass "nativ" eine völlig nichtssagende Kategorie dafür ist, wie es um das reale Sample/Pixel-Verhältnis bestellt ist.
Definitiv. Meine grössten Kritikpunkte (Smearing, Ghosting, Unschärfe vor allem in Bewegung) werden mit DLSS4 effektiv adressiert. Und da es das macht, ist oftmals DLSS-P schöner anzusehen als das alte DLSS-Q. Performance Uplift :) Dazu noch das schnellere FG, nochmals Performance Erhöhung.

Ich musste beim Thema "nativ" vs. Upsampling bei Linus von LTT den Kopf schütteln. Der will ums verrecken nicht mit Upsampling spielen (weil die 4090/5090 so teuer und da Auflösung reduzieren geht laut ihm gar nicht) und reduziert dafür Details oder akzeptiert eine niedrigere Bildrate. Nativ TAA ist für mich gestorben. DLAA oder FSR Native ist schön, wenn die Performance reicht aber so riesig ist der Unterschied in 4K mit DLSS4 eben nicht mehr. Da habe ich lieber 2x oder mehr höhere FPS als ein leicht schärferes und detaillierteres Bild.

aufkrawall
2025-01-25, 09:47:48
Hast du mit TAA oder FSR 3.1 nativ ja sowieso nicht. Das dürfte in Stalker 2 mit Preset J UP noch massiv schärfer als FSR 3.1 nativ 4k aussehen.

basix
2025-01-25, 10:10:27
Habe schon lange kein FSR mehr angeworfen und Stalker 2 spiele ich nicht.

Aber ja, DLSS4 überzeugt mich stark. Es ist noch nicht perfekt und gibt ein paar Dinge, die sich gegenüber dem CNN Modell nicht stark oder noch zu wenig stark verbessert haben (z.B. Palmenblätter-Enden bei CP2077). Aber DLSS4 ist noch jung, könnte sich also noch verbessern. So viele Problemstellen hat man nicht mehr ;)

aufkrawall
2025-01-25, 10:19:12
Sie haben ja gesagt, davon auszugehen, den Algorithmus über Jahre weiter verbessern zu können. Hoffentlich klappt das besser als bei den CNNs. Der rapide Fortschritt bei Transformern in anderen Bereichen ist hoffentlich ein Hinweis darauf.

basix
2025-01-25, 10:31:40
Nicht nur der Fortschritt (bessere Techniken etc.). Transformer sind extrem skalierbar. Man kann das Modell somit auch einfach grösser machen und/oder mit deutlich mehr Trainings-Daten füttern. Nur schon das würde die Qualität verbessern.

Ein weiterer Zusatz wäre Chain-of-Thought, aber das kostet viel Inferencing-Leistung und ob das für ein Super Resolution Modell übertragbar ist weiss ich auch nicht. Mit Chain-of-Thought würde man das DNN mehrmals durchrechnen, weiter optimieren und dann das beste Ergebnis rauspicken.

Relex
2025-01-25, 10:44:07
Hast du mit TAA oder FSR 3.1 nativ ja sowieso nicht. Das dürfte in Stalker 2 mit Preset J UP noch massiv schärfer als FSR 3.1 nativ 4k aussehen.


Ich kanns nur nochmal wiederholen. UP ist aktuell mit dem Transformer Model ziemlich kaputt wenn man kein Ray Reconstruction nutzt.

Viele Kanten werden zwar sehr gut rekonstruiert, viel besser als vorher, aber man bekommt bei vielen Grafikeffekten und Texturen flimmern und flackern und moire artefakte. Das funktioniert einfach noch nicht.


Technisch gesehen beeindruckend, was damit möglich sein könnte, aber aktuell praktisch noch nicht nutzbar, weil zu kaputt.



Nicht nur der Fortschritt (bessere Techniken etc.). Transformer sind extrem skalierbar. Man kann das Modell somit auch einfach grösser machen und/oder mit deutlich mehr Trainings-Daten füttern. Nur schon das würde die Qualität verbessern.

Ein weiterer Zusatz wäre Chain-of-Thought, aber das kostet viel Inferencing-Leistung und ob das für ein Super Resolution Modell übertragbar ist weiss ich auch nicht. Mit Chain-of-Thought würde man das DNN mehrmals durchrechnen, weiter optimieren und dann das beste Ergebnis rauspicken.


Was bedeutet denn in dem Falle skalierbar und "größer"? Wird durch das Training mit mehr Daten auch das Model für das Endgerät größer (mehr Speicherverbrauch) und rechenintensiver (mehr Frametime kosten) oder werden einfach nur die Ergebnisse besser?

Denn nvidia wird das Frametime Budget und die Speicherkosten vorerst sicher nicht weiter erhöhen. Vielleicht in X Jahren, wenn man den nächsten Sprung macht. Aber bis dahin will man ja mit dem Transformer Model bei gleichem Ressourcenaufwand immer bessere Ergebnisse erzielen.

DrFreaK666
2025-01-25, 11:23:30
B_fGlVqKs1k

aufkrawall
2025-01-25, 11:31:13
Ich kanns nur nochmal wiederholen. UP ist aktuell mit dem Transformer Model ziemlich kaputt wenn man kein Ray Reconstruction nutzt.

Ach ja. Gut, aber besser so als anders herum. So kann man es wenigstens in einigen RT-heavy Fällen wie AW2 verwenden.

Troyan
2025-01-25, 11:40:00
https://youtu.be/B_fGlVqKs1k

Spielt man Alan Wake 2 echt so, dass man nur geradeaus läuft? ;D

basix
2025-01-25, 11:49:43
Was bedeutet denn in dem Falle skalierbar und "größer"? Wird durch das Training mit mehr Daten auch das Model für das Endgerät größer (mehr Speicherverbrauch) und rechenintensiver (mehr Frametime kosten) oder werden einfach nur die Ergebnisse besser?

Denn nvidia wird das Frametime Budget und die Speicherkosten vorerst sicher nicht weiter erhöhen. Vielleicht in X Jahren, wenn man den nächsten Sprung macht. Aber bis dahin will man ja mit dem Transformer Model bei gleichem Ressourcenaufwand immer bessere Ergebnisse erzielen.

DNN sind in 5 (oder 5.5) Dimensionen skalierbar, die sind alle additiv/multiplikativ. Transformer im Speziellen reagieren sehr gut auf mehr Input Daten und mehr Rechenleistung. Andere DNN-Architekturen erreichen deutlich früher ein Plateau, also mehr Daten oder Trainingszeit bringen fast nichts mehr, wohingegen Transformer noch besser werden (=skalieren).
1. Mehr und bessere Input-Daten
2. Pre-Training (mehr Trainingszeit)
3. Post-Training / Fine-Tuning (mehr Trainingszeit und Optimierungen)
4. Inferencing / Chain-of-Thought (mehr Inferencing Zeit)
5. Grössere Modelle / mehr Parameter (mehr Trainings- und Inferencingzeit, mehr Speicherbedarf)
5.5 Zusatz zu grösserem Modell: Datenpräzision reduzieren (FP16, FP8, FP4, Block-FP8/FP6/FP4) erlaubt mehr Parameter bei gleichem Speicherbedarf und Inferencing-Zeitraum

Die ersten drei sind neutral hinsichtlich Inferencing-Zeit und Speicherbedarf. DLSS4 und dessen Evolutionen werden sicher diese Schiene fahren. Nvidia investiert also mehr für das Training des Transformers und die Ergebnisse werden dadurch besser. Das selbe ist bei DLSS 2.0 bis zu DLSS 3.8 mit dem CNN passiert. Transformer haben aber wie oben bereits beschrieben noch mehr Potential hinsichtlich Skalierbarkeit (mehr/bessere Input-Daten und mehr Trainings-Rechenleistung).

Ein grösseres Modell mit mehr Parametern liefert generell eine bessere Performance. Kann man machen, ist aber eher ein Thema für DLSS5 oder sogar später. Das kann man zum Teil kompensieren, indem man die Datenpräzision anpasst. Nutzt DLSS4 heute FP16 oder bereits FP8? Und Blackwell könnte FP4, was gegenüber FP8 den Speicherverbrauch halbiert und die FLOPS verdoppelt. Man könnte das Modell bei FP4 vs. FP8 also doppelt so gross machen (=bessere DLSS Performance) und Speicherbedarf wie auch Ausführungszeit bleiben in etwa identisch.

Neben der generellen Skalierbarkeit gibt es natürlich auch Architekturänderungen, welche Verbesserungen bringen. Normaler Transformer, Multi-Head Transformer, Differential Transformer, etc. und so. Diese Verbesserungen laufen dann nochmals parallel und können in sich selbst zu deutlichen Performance-Verbesserungen führen. Vermutlich ebenfalls ein Thema für DLSS5. CNN (DLSS3) vs. Vision Transformer (DLSS4) ist genau so ein Thema. Letzteres gibt es erst seit ~2021/2022.

Chain-of-Thought erhöht Speicherbedarf nur marginal, benötigt aber viel mehr Rechenleistung beim Inferencing. N Iterationen benötigen dann N Berechnungszeit. Das wird man erst machen, wenn die anderen Optionen ausgeschöpft sind. Sehr hoher Inferencing-Rechenleistungsbedarf, was bei Realtime Anwendungen wie Spielen nicht optimal ist. Aber hier wird stark geforscht, wird auch besser werden ;)

Börk
2025-01-25, 12:21:26
DNN sind in 5 (oder 5.5) Dimensionen skalierbar, die sind alle additiv/multiplikativ. Transformer im Speziellen reagieren sehr gut auf mehr Input Daten und mehr Rechenleistung. Andere DNN-Architekturen erreichen deutlich früher ein Plateau, also mehr Daten oder Trainingszeit bringen fast nichts mehr, wohingegen Transformer noch besser werden (=skalieren).
1. Mehr und bessere Input-Daten
2. Pre-Training (mehr Trainingszeit)
3. Post-Training / Fine-Tuning (mehr Trainingszeit und Optimierungen)
4. Inferencing / Chain-of-Thought (mehr Inferencing Zeit)
5. Grössere Modelle / mehr Parameter (mehr Trainings- und Inferencingzeit, mehr Speicherbedarf)
5.5 Zusatz zu grösserem Modell: Datenpräzision reduzieren (FP16, FP8, FP4, Block-FP8/FP6/FP4) erlaubt mehr Parameter bei gleichem Speicherbedarf und Inferencing-Zeitraum

Die ersten drei sind neutral hinsichtlich Inferencing-Zeit und Speicherbedarf. DLSS4 und dessen Evolutionen werden sicher diese Schiene fahren.

Ein grösseres Modell mit mehr Parametern liefert generell eine bessere Performance. Kann man machen, ist aber eher ein Thema für DLSS5. Das kann man zum Teil kompensieren, indem man die Datenpräzision anpasst. Nutzt DLSS4 heute FP16 oder bereits FP8? Und Blackwell könnte FP4, was gegenüber FP8 den Speicherverbrauch halbiert und die FLOPS verdoppelt. Man könnte das Modell bei FP4 vs. FP8 also doppelt so gross machen (=bessere DLSS Performance) und Speicherbedarf wie auch Ausführungszeit bleiben in etwa identisch.

Neben der generellen Skalierbarkeit gibt es natürlich auch Architekturänderungen, welche Verbesserungen bringen. Normaler Transformer, Multi-Head Transformer, Differential Transformer, etc. und so. Diese Verbesserungen laufen dann nochmals parallel und können in sich selbst zu deutlichen Performance-Verbesserungen führen. Vermutlich ebenfalls ein Thema für DLSS5. CNN (DLSS3) vs. Vision Transformer (DLSS4) ist genau so ein Thema. Letzteres gibt es erst seit ~2021/2022.

Chain-of-Thought erhöht Speicherbedarf nur marginal, benötigt aber viel mehr Rechenleistung. N Iterationen benötigen dann N Berechnungszeit. Das wird man erst machen, wenn die anderen Optionen ausgeschöpft sind. Sehr hoher Rechenleistungsbedarf, was bei Realtime Anwendungen wie Spielen nicht optimal ist. Aber hier wird stark geforscht, wird auch besser werden ;)


Grundsätzlich nicht falsch, aber du verwechselst hier LLMs mit nem Vision Transformer. Sicherlicher wird bei DLSS4 nur ein Simpler Vision Transformer eingesetzt ohne higher level reasoning oder reinforment learning Möglichkeiten.
Das ist bei real-time ja nur schwer denkbar. Damit entfallen dann auch die Punkte 3 und 4 ider Model skalierung.

Der große Vorteil eines Transformers gegenüber einem CNN ist ja der gelernte Attention Mechanismus. Bei CNNs ist der lokal vorbestimmt ist. Dies ist bei rendering eigentlich essenziell, vorallem bei schnellen Bewegung, die nicht lokal bleiben. Und daher kommt die verbesserte Qualität.

Um den Attention mechanismus (und damit Transformer) sinnvoll zu trainieren, muss man wie du gesagt hast das Training skaliert (Punkt 1 und 2). Eine gute Qualität erreicht man aber nur wenn das Modell mitwächst (5), und performant mit wenig Speicherbedarf läuft das nur mit der richtigen Datenpräzision (5.5).
Ich bin mir ziemlich sicher, dass hier bereits FP8 im Einsatz ist. FP4 würde dann ja bedeuten, dass DLSS4 auf den 4xxx nur mit halber geschwindigkeit laufen kann. Kann ich mir nicht vorstellen. Also so wie du sagst vermutlich erst bei DLSS5.

basix
2025-01-25, 12:38:08
Die genauen Unterschiede bei LLM vs. Vision Transformer kenne ich nicht, das stimmt. Ich bin da auch nur Laie.

Aber ich würde vermuten, dass zumindest 3. doch auch geht? Man nimmt nochmals gezielt ein paar Härtefälle und macht einen Feedback Loop (Supervised Finetuning, Reinforcement Learning). Das geschieht erst in der Post-Training Phase. Dort kommt noch Feedback von z.B. Menschen, ob das jetzt gut/besser aussieht oder nicht.

https://substackcdn.com/image/fetch/w_1456,c_limit,f_webp,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2Fd4d4ee2d-c249-4b5f-8dae-a82cd648e990_1600x549.png

Ich bin mir ziemlich sicher, dass hier bereits FP8 im Einsatz ist. FP4 würde dann ja bedeuten, dass DLSS4 auf den 4xxx nur mit halber geschwindigkeit laufen kann.
Werden wir sehen. Ich tippe auch auf FP8. FP4 wird es bei DLSS4 sicher nicht sein, ja. Turing und Ampere können aber nur FP16 ;)

Falls es FP16/INT8 Inferencing ist, dann wäre es auf allen GPUs in etwa gleich schnell. Ist es FP8, dann sind Blackwell und Lovelace in etwa gleich schnell und langsamer auf Turing sowie Ampere.

Lurtz
2025-01-25, 12:46:36
Die neue Nvidia App aus dem Cuda Paket hat noch keine Override Option, oder? Hab zumindest nix gefunden.
Nein, ist die gleiche Version wie die aus dem letzten GameReady.


Mit etwas Pech kein Unterschied zur bisherigen Variante, die emoose entdeckt hatte. Die braucht die Kooperation der vom Spiel geshipten DLL, also in der DLL OTA-Updates aktiviert (etwa mit der Fortnite 2.2.6-DLL nicht der Fall). Bleibt wohl nur abwarten, ob wir Glück haben.

Hm, das wäre natürlich schade. Bei Space Marine 2 meckert EasyAntiCheat. Liebe es wenn man in SP-Spielen so eingeschränkt wird :rolleyes:

aufkrawall
2025-01-25, 12:48:38
Hm, das wäre natürlich schade. Bei Space Marine 2 meckert EasyAntiCheat.
Mit dem Script?

Falls es Unreal Engine ist: Versuch mal den Fortnite-Trick mit sowohl ersetzter DLL und gleichzeitig Kopieren der DLL an den Pfad, an dem die Haupt-Spiel-.exe liegt.

Lurtz
2025-01-25, 12:49:48
Das ist eigene Engine. Ich schau mir das Script mal an. Bei RDR2 im Rockstar-Launcher braucht man ja einen ähnlichen Trick.

aufkrawall
2025-01-25, 12:53:20
Ich erwähn es lieber nochmal :D : Das Script macht eine Änderung an den Dateien im Spielverzeichnis nicht nötig, sofern das keine uralte DLL ist, die OTA-Updates verweigert.

x-force
2025-01-25, 13:12:12
Man könnte das Modell bei FP4 vs. FP8 also doppelt so gross machen

was für nachteile ergeben sich durch geringere präzision?
weshalb nicht gleich 1bit?

Lurtz
2025-01-25, 13:27:28
Ich erwähn es lieber nochmal :D : Das Script macht eine Änderung an den Dateien im Spielverzeichnis nicht nötig, sofern das keine uralte DLL ist, die OTA-Updates verweigert.
Damit geht es. Gibts das auch für FG?

basix
2025-01-25, 13:30:22
was für nachteile ergeben sich durch geringere präzision?
weshalb nicht gleich 1bit?
Geringere Präzision bei den Parametern heisst geringere Präzision beim Resultat und irgendwann kommt nichts mehr schlaues raus. Wo keine / zu wenig Information drin ist kann auch nicht viel rauskommen.

State-of-the-Art mit vielen Tricks und dafür faktisch ohne relevanten Performance Verlust für LLM ist Microscaling-Block-FP4 gemischt mit Microscaling-Block-FP6. Diese Microscaling Formate sind in einem 2024er Paper als neuer Quasi-Standard für die Zukunft vorgestellt worden und werden so wohl in zukünftige HW gegossen werden (Microsoft, Intel, AMD, Meta, Nvidia sind dabei - Google nicht)

Es gibt aber schon Research in die Richtung "BitNet", wo man ternäre Parameter hat (-1, 0, 1) also faktisch 1.5bit. Sieht gut aus, ist aber halt noch brandneu und nur limitiertes R&D zu dem Thema.
Das schöne an diesem Bitnet ist zudem, dass man nur Addierer braucht. Kein Multiply-Add, was die HW deutlich kompakter und energiesparender macht. Damit könnte man die TOPS extrem steigern. Warten wir noch ein paar Jahre ;)

aufkrawall
2025-01-25, 13:33:33
Damit geht es. Gibts das auch für FG?
So würde ich emoose zumindest verstehen:

(make sure to run it for all 3 dlls)

https://forums.guru3d.com/threads/geforce-571-96-beta-driver.455138/page-4#post-6301095
Dass das also jeweils mit den DLLs für SR, FG und RR geht. Du wärst dann offenbar der Erste, der es testet. :D

basix
2025-01-25, 13:38:23
Die neue FG DLL hatte ich gestern in TW3 getestet. Geht nur mit kopieren ;)
Dito bei der SR DLL. Dort allerdings via NvInspector Preset J forcieren.

Die anderen Sub-DLLs habe ich aber nicht ersetzt. Damit will TW3 nicht starten.

aufkrawall
2025-01-25, 13:47:35
Das Script hat er erst vor 14 Stunden aktualisiert.
Das mit StreamLine ist normal, hatte schon was zur Kompatibilität gesagt.

DrFreaK666
2025-01-25, 14:10:59
Spielt man Alan Wake 2 echt so, dass man nur geradeaus läuft? ;D

Hast das Video also nicht zu Ende geschaut

Lurtz
2025-01-25, 14:12:46
So würde ich emoose zumindest verstehen:

https://forums.guru3d.com/threads/geforce-571-96-beta-driver.455138/page-4#post-6301095
Dass das also jeweils mit den DLLs für SR, FG und RR geht. Du wärst dann offenbar der Erste, der es testet. :D
Sieht so aus, er setzt für jede DLL einen eigenen Parameter.

robbitop
2025-01-25, 14:51:29
Was für ein Script meint ihr eigentlich? Von Emoose finde ich in der Hinsicht DLSSTweaks. Ist das gemeint? Da ist auf Github das letzte Release aber vom September 2023? Nightly builds sehe ich da keine.

dildo4u
2025-01-25, 15:03:26
Kein Plan ob das speziell Ampere betrifft aber die 3090 hat ziemlich Derbe Performance Verluste mit DLSS4.
Oder der Treiber löst das nächste Woche.


ABLZ7PfyR9w

robbitop
2025-01-25, 15:05:41
Den gibt's als Beta Treiber schon zum Download. Habe ihn mir gestern schon runtergezogen. Bringt aber anscheinend nur in CP77 Performance Vorteile. Ggf. war nur dort die Performance kaputt.
Auf meiner 3080 habe ich auf den ersten Blick in Witcher 3 und Mechwarrior 5 Clans mit DLSS4 Modell J keinen nennenswerten Performanceunterschied gemerkt vs DLSS 3.x

aufkrawall
2025-01-25, 15:08:32
Was für ein Script meint ihr eigentlich? Von Emoose finde ich in der Hinsicht DLSSTweaks. Ist das gemeint? Da ist auf Github das letzte Release aber vom September 2023? Nightly builds sehe ich da keine.
Muss ichs noch ein drittes Mal verlinken? :freak:
https://gist.github.com/emoose/11271bbb3b42fb3b1b0e1c83eef47c05

robbitop
2025-01-25, 15:12:59
Muss ichs noch ein drittes Mal verlinken? :freak:
https://gist.github.com/emoose/11271bbb3b42fb3b1b0e1c83eef47c05
Vielen Dank (sorry habe ich übersehen). Will er das noch in DLSSTweaks einbauen für mehr Nutzerfreundlichkeit? ^^

Platos
2025-01-25, 15:25:19
https://youtu.be/B_fGlVqKs1k

Und die Aussage des Videos:

Da, wo 2x Framegen gut war, ist das 4x noch besser. Da, wo das 2x schlecht war, ist das 4x ebenfalls schlecht.

Dazu kommt noch, dass 3x und 4x eig. nur mit einem 120Hz+ Monitor überhaupt Sinnvoll ist. Ok, die PC-Masterrace Gamer hier sagten das auch schon vorher, aber hier ist es nun wirklich auch für alle Gamer geltend. Mit 4x Framegen und einem 60Hz Monitor wäre nämlich die native Framerate nur 15 FPS und daher nun aber wirklich unspielbar.

Kurz: Wer kein 120Hz+ Monitor hat, wird auch nicht von 3x oder 4x Framegen profitieren. Also wer eine 5060 kauft für 60FPS Gaming, wird vom 4x Framegen nicht wirklich was (positives) davon haben. Bei 2x Framegen gibts genug Leute, die sich mit 30FPS-Input Lag abgeben können.

Lurtz
2025-01-25, 15:41:37
Kein Plan ob das speziell Ampere betrifft aber die 3090 hat ziemlich Derbe Performance Verluste mit DLSS4.
Oder der Treiber löst das nächste Woche.


https://youtu.be/ABLZ7PfyR9w
Was RR angeht. SR läuft deutlich besser.

basix
2025-01-25, 16:00:58
Vielen Dank (sorry habe ich übersehen). Will er das noch in DLSSTweaks einbauen für mehr Nutzerfreundlichkeit? ^^

Solange kein FG und RR im Spiel ist, geht auch DLSS Swapper. Via NvInspector dann Profil J forcieren.

Dass man es neu via Nvidia App machen kann, finde ich aber eine gute Sache. Fallen ein paar Tools und Frickeleien weg ;)

Karümel
2025-01-25, 16:46:08
Gerade rausgekommen:
rlePeTM-tv0

dildo4u
2025-01-25, 16:54:38
Jup mit Ray Rekonstruktion verliert 3090 ordentlich Performance.

robbitop
2025-01-25, 17:02:38
Solange kein FG und RR im Spiel ist, geht auch DLSS Swapper. Via NvInspector dann Profil J forcieren.

Dass man es neu via Nvidia App machen kann, finde ich aber eine gute Sache. Fallen ein paar Tools und Frickeleien weg ;)

Ich dachte das geht mit streamline Spielen nicht und dann braucht man dieses Script?

aufkrawall
2025-01-25, 17:19:17
Ich dachte das geht mit streamline Spielen nicht und dann braucht man dieses Script?
Äh, nein. Die eigentlichen Core-DLLs für die Features sind bis auf ggf. wenige Ausnahmen immer austauschbar.
Das Script ist dafür da, Treiber-Features zur Umleitung zu nutzen, wenn Anti-Cheat das Verändern der Dateien im Spieleverzeichnis verhindern würde.

robbitop
2025-01-25, 17:21:02
Achso - Anticheat kann man ja ausmachen (wenn man nicht online spielen will zumindest) :)

x-force
2025-01-25, 18:15:19
Gerade rausgekommen:
https://youtu.be/rlePeTM-tv0

schade... transformer ist nicht die lösung für alles

bei 8:13 und 8:45 sieht das gesicht eine ganze detailstufe schlechter aus, wie mit fxaa

aufkrawall
2025-01-25, 18:35:01
Hast du's nicht mit Ton geschaut, oder was...

Troyan
2025-01-25, 18:40:21
Interessant ist auch, dass das Transformer-Modell noch schneller die Pathtracing Informationen zusammenbauen kann. Selbst bei 25 FPS ist das deutlich sichtbar gegenüber CNN.

Ex3cut3r
2025-01-25, 18:42:42
schade... transformer ist nicht die lösung für alles

bei 8:13 und 8:45 sieht das gesicht eine ganze detailstufe schlechter aus, wie mit fxaa

:confused: Wo gibt es denn einen Transformer vs FXAA Vergleich im Video?

Gast
2025-01-25, 18:55:59
Interessant ist auch, dass das Transformer-Modell noch schneller die Pathtracing Informationen zusammenbauen kann. Selbst bei 25 FPS ist das deutlich sichtbar gegenüber CNN.

DLSS Performance neigt auch weniger zu Moire generell vgl. zur alten Version somit die Filterung auch verbessert.
AMD und Intel nun mehr und mehr in der Statistenrolle! :)

DrFreaK666
2025-01-25, 19:08:56
DLSS Performance neigt auch weniger zu Moire generell vgl. zur alten Version somit die Filterung auch verbessert.
AMD und Intel nun mehr und mehr in der Statistenrolle! :)

Im "FSR4 Vergleichsvideo" gabs auch kaum Moiré mit FSR4. Abwarten wie das am Ende wirklich aussieht und performt

Relex
2025-01-25, 19:12:24
Dass das neue Model auch auf Blackwell performance kostet ist interessant, aber eigentlich auch eher das, was ich erwartet hätte.

Denn wenn Blackwell mehr AI Leistung hat, sollte ja auch das CNN Model schneller laufen. Wenn das Transformer Model also mehr Rechenleistung braucht muss auch ein entsprechender Performanceverlust sichtbar werden. Die höheren Anforderungen können sich ja nicht einfach in Luft auflösen.

Ansonsten finde ich das DF Video ganz gut. Aber ich muss auch klar sagen, die größten Unterschiede sieht man eigentlich bei zügiger Fortbewegung durch die Spielwelt. Gerade bei Cyberpunk wenn man schnell herumrennt oder mit dem Auto fährt. Das bringt halt Ray Reconstruction extrem an die Grenzen, weil alles was man sieht nur ziemlich kurz im Bild bleibt und kaum Zeit bleibt, dass es sich stabilisiert. Gerade da ist das CNN Model fast schon auseinander gebrochen und hat viele Artefakte erzeugt. Da sehe ich mit dem Transformer Model am meisten Verbesserungen.

Trotzdem hoffe ich, das Nvidia insbesondere bei RR weitere Verbesserungen erzielt.
Ich finde zwar, dass die Grafischen Verbesserungen durch Pathtracing und entsprechend hochwertiges Denoising mit RR den Schärfeverlust wert sind.
Aber wenn pathtracing irgendwann zum Standard werden soll, muss die Schärfe langfristig irgendwann da ankommen, wo das Transformer non-RR Model aktuell ist.

Lurtz
2025-01-25, 19:31:56
Aber wenn pathtracing irgendwann zum Standard werden soll, muss die Schärfe langfristig irgendwann da ankommen, wo das Transformer non-RR Model aktuell ist.
Hast du dir Preset J eigentlich mal in anderen Titeln angesehen? Findest du das teilweise überschärft?

Relex
2025-01-25, 19:40:46
Nö, finde ich nicht.
Wobei ich natürlich überall den Scharfzeichner auf 0 drehe, wenn möglich.

Problematisch sind so spiele wie Horizon Forbidden West, wo mit Upscaling immer ein Scharfzeichner aktiv ist. Das finde ich dann auf jeden Fall überschärft. Besonders mit dem neuen Model.

Lurtz
2025-01-25, 21:35:11
Diese dämlichen erzwungenen Schärfefilter dürften jetzt hässlicher (und unnötiger) denn je sein :rolleyes:

Finde Film Grain bleibt mit Preset J auch wesentlich besser erhalten. Das ist zuvor in 1440p so hässlich zermatscht, dass man es besser deaktiviert hat, auch wenn man es als Effekt mochte.

Gast
2025-01-25, 22:36:05
Diese dämlichen erzwungenen Schärfefilter dürften jetzt hässlicher (und unnötiger) denn je sein :rolleyes:




Film Grain ist neben CA auch so ziemlich der dämlichste Effekt den es gibt. Bei Kameras versucht man alles möglich um diese Effekte zu minimieren, nur um sie beim Rendering künstlich hinzuzufügen. 🙈

Das ist ungefähr so dämlich wie zu behaupten, Schallplattenknacksen macht die Musik besser als digitale Musik.

Nightspider
2025-01-25, 23:38:39
Hat sich an der DL-DSR (+ DLSS Front) eigentlich etwas getan?

Paar Games wie BF2042 hab ich immer in 5120*2160 + DLSS gezockt.
Könnte aber noch bisschen schärfer und flüssiger laufen für meinen Geschmack.

Solche Spiele könnte ich dann auch mit dem neuen Transformer Model spielen oder?

SentinelBorg
2025-01-25, 23:46:16
Dass das neue Model auch auf Blackwell performance kostet ist interessant, aber eigentlich auch eher das, was ich erwartet hätte.

Denn wenn Blackwell mehr AI Leistung hat, sollte ja auch das CNN Model schneller laufen. Wenn das Transformer Model also mehr Rechenleistung braucht muss auch ein entsprechender Performanceverlust sichtbar werden. Die höheren Anforderungen können sich ja nicht einfach in Luft auflösen.
Ich denke die 3 bis 5% kommen von anderen Eigenarten die auch Blackwell nicht wegoptimieren konnte. So wie ich das sehe, hast du genug Tensor Leistung für die Auflösung/FPS, dann bleiben halt genau diese 3 bis 5% übrig. Hast du sie nicht wie auf älteren RTX, dann wird der Einbruch viel größer, weil nun die TOPS ein Bottleneck darstellen.

Hab das Model nun neben Cyberpunk auch mit FFXIV, Diablo 4 und Forza Horizon 5 getestet. Es ist ein merklicher Qualitätssprung. Gerade in FH5 in Bewegung ist das deutlich. Es sieht aus wie geschärft, ohne aber die Nachteile die im Bild sonst durch eine solche Schärfung entstehen.

SentinelBorg
2025-01-25, 23:47:42
Hat sich an der DL-DSR (+ DLSS Front) eigentlich etwas getan?

Paar Games wie BF2042 hab ich immer in 5120*2160 + DLSS gezockt.
Könnte aber noch bisschen schärfer und flüssiger laufen für meinen Geschmack.

Solche Spiele könnte ich dann auch mit dem neuen Transformer Model spielen oder?
DL-DSR ist ja Treiber und da gab es ja noch keinen neuen.
Kann nur soweit sagen dass DL-DSR 4k (auf 1440p) sowie Transformer Model einwandfrei funktioniert.

Atma
2025-01-26, 02:24:07
Was ist nun eigentlich das neue Standard Preset? In Doom Eternal wird ohne forciertes J-Preset das C-Preset genutzt laut Indikator.

Edit: In TLoU Part 1 ist standardmäßig Preset A aktiv.

Relex
2025-01-26, 04:27:10
Die neue DLL unterstützt eben alle Presets und nutzt das was das Spiel haben will.

Neuere Spiele die mit 3.7+ ausgeliefert werden nutzen Preset E für Performance, Balanced und Quality sowie Preset F für DLAA und Ultra Performance.


The Last of Us sieht mit DLSS mMn. absolut schrecklich aus, weil das Spiel selbst wenn man ingame den Scharfzeichner deaktiviert, trotzdem stark scharfzeichnet. Mit Preset E und vor allem mit Preset J wird das mehr als deutlich.

Entweder man nutzt in dem Spiel DLAA mit Preset F oder wechselt zu TAA. Alles andere ist keine gute Option.

Ansonsten fällt mir auf, dass vor allem neuere Spiele mit Preset J besser funktionieren.
Je älter das Spiel, desto geringer die Vorteile. Ich hab z.B. mal Control ausprobiert und der Schärfegewinn ist ziemlich minimal. Da das eine der ersten DLSS implementierungen war hätte ich da einen größeren Sprung erwartet. Gleiches in Red Dead Redemption 2.

Das Verhalten ist mir schon mit Preset E aufgefallen.
Z.B. in God of War.
God of War Ragnarök sieht mit Preset E sehr gut aus und das Bild wirkt sehr fein und hochauflösend. Beim Vorgänger Spiel God of War bringt Preset E zwar eine Verbesserung, aber es sieht bei weitem nicht so gut aus, obwohl es die gleiche Engine ist, aber eben noch eine ältere Implementierung.

Ich schätze mal, dass DLSS ab Version 3.7 und wahrscheinlich auch mit DLSS4 zusätzliche Inputs von der Engine nutzen kann, oder dass Nvidia die Guidelines überarbeitet hat. Ich finde auch, dass Preset J in Cyberpunk (also ohne Ray Reconstruction und ohne Pathtrcing) bisher am besten aussieht, wo es eben auch offiziell implementiert wurde. In manchen Spielen ist Preset J auch ziemlich kaputt. In Wukong oder Witcher 3 wird z.B. das Gras nicht mehr richtig stabilisiert.

Atma
2025-01-26, 04:32:11
The Last of Us sieht mit DLSS mMn. absolut schrecklich aus, weil das Spiel selbst wenn man ingame den Scharfzeichner deaktiviert, trotzdem stark scharfzeichnet. Mit Preset E und vor allem mit Preset J wird das mehr als deutlich.
Sieht es auch. TLoU hat ein internes Sharpening, das sich in den Optionen nicht abschalten lässt. Es ist jedoch möglich per Hexeditor nachzuhelfen und das abzuschalten. Mit deaktiviertem Sharpening und Preset J sieht es schon sehr schick aus.

Immortal
2025-01-26, 06:29:34
Den gibt's als Beta Treiber schon zum Download. Habe ihn mir gestern schon runtergezogen. Bringt aber anscheinend nur in CP77 Performance Vorteile. Ggf. war nur dort die Performance kaputt.
Auf meiner 3080 habe ich auf den ersten Blick in Witcher 3 und Mechwarrior 5 Clans mit DLSS4 Modell J keinen nennenswerten Performanceunterschied gemerkt vs DLSS 3.x
Ich hab das gestern mal in Hogwart's Legacy ausprobiert, aber konnte da auch weder Performance- noch Qualitätsunterschiede feststellen. Aber ich bin da auch nicht so der Checker, was Bildqualität angeht, und war mein erstes Mal mit dem Nvidia Profile Inspector, kann da also auch was falsch gemacht haben. (EDIT: das alles auf einer RTX 3070)

Relex
2025-01-26, 09:25:41
Sieht es auch. TLoU hat ein internes Sharpening, das sich in den Optionen nicht abschalten lässt. Es ist jedoch möglich per Hexeditor nachzuhelfen und das abzuschalten. Mit deaktiviertem Sharpening und Preset J sieht es schon sehr schick aus.


Oh stimmt. Danke für den Hinweis. Habs eben ausprobiert und das klappt einwandfrei.
Für die Nutzung mit DLSS ist das ja wirklich essenziell. TAA und FSR blurren so stark, dass es da kaum auffällt. Kaum zu glauben, wie groß der Unterschied ist.

Das Bild sieht ohne Scharfzeichner und ohne die dicken Kanten direkt doppelt so hochauflösend aus. Sehr geil. Und Preseet J sieht jetzt auch richtig aus.

Jetzt bin ich mir gar nicht mehr sicher, ob ich den Hex Edit nicht doch schonmal gemacht habe und mir das Update die exe wieder überschrieben hat.


Aber wofür gibts die Notizen Funktion in Steam. Direkt mal notiert. :wink:

Falls jemand ebenfalls den Scharfzeichner in Last of Us los werden will (für Preset J essenziell):


Mit einem hexeditor wie z.B. HxD die exe öffnen und bei Suchen -> Ersetzen -> HEX Werte

folgendes:
75 04 C5 C8 57 F6 C5 FA 11 B7 C4 02 00 00

ersetzen mit:
90 90 C5 C8 57 F6 C5 FA 11 B7 C4 02 00 00

Quelle: https://www.reddit.com/r/FuckTAA/comments/1260ttr/the_last_of_us_part_i_taa_fix/

aufkrawall
2025-01-26, 09:32:38
God of War Ragnarök sieht mit Preset E sehr gut aus und das Bild wirkt sehr fein und hochauflösend. Beim Vorgänger Spiel God of War bringt Preset E zwar eine Verbesserung, aber es sieht bei weitem nicht so gut aus, obwohl es die gleiche Engine ist, aber eben noch eine ältere Implementierung.

Tippe eher auf Content, die ganzen Effekte in GoW 1 waren ziemlich tough für AA. Entsprechend hatte FSR da auch völlig versagt, während es im Nachfolger mal zumindest deutlich weniger flimmert (mal unabhängig davon, dass es 3.1 ist, aber failt ja dann anderweitig auch wieder).
Keine Ahnung, ob in Ragnarök die Kamera auch immer noch so bescheuert die ganze Zeit wackelt wie im Vorgänger. Das allein sorgt bereits mit TAA/U für eine ständige Unschärfe.
Hab noch nie einen grundlegenden Unterschied der Charakteristika der verschiedenen Presets in verschiedenen Spielen bemerkt. Von solchen Fällen mal abgesehen, wo die Spiele vielleicht doch mal ganz gut mit Preset D ohne abartiges Objekt-Ghosting funktioniert hatten (bestimmte Bewegungsvektoren-Config?).

robbitop
2025-01-26, 09:39:09
Hat sich an der DL-DSR (+ DLSS Front) eigentlich etwas getan?

Paar Games wie BF2042 hab ich immer in 5120*2160 + DLSS gezockt.
Könnte aber noch bisschen schärfer und flüssiger laufen für meinen Geschmack.

Solche Spiele könnte ich dann auch mit dem neuen Transformer Model spielen oder?
Die Frage ist ob das vs DLAA überhaupt noch was bringt. Die aufakkumulierten Samples pro Pixel sind ja die gleichen und das rauf und runtergesample mit denen ist sicherlich nicht ganz verlustfrei.
Kann mir gut vorstellen, dass ein dafür getuntes Modell mit DLAA die bessere BQ bringt. (bei gleicher Inputresolution)
Müsste man mit J mal nachtesten. Also meine ersten Eindrücke von Model J mit DLAA sind bis dato sehr sehr positiv. Sieht aus wie SGSSAA mit hohen Faktoren.

Exxtreme
2025-01-26, 09:44:08
DLAA bringt definitiv was:
https://imgsli.com/MzQxNDEx

DLSS Q verliert schon massig an feinen Details. Und das ist ein Standbild. In Bewegung ist das noch deutlicher.

aufkrawall
2025-01-26, 09:45:07
Ja, Transformer scheint sowohl die Kanten endlich sehr gut zu glätten, als auch dabei eine hohe Schärfe zu erhalten (wobei RR derzeit wohl noch weniger).
Was mit Downsampling noch bleibt, ist aber weiterhin höher aufgelöste Mip Maps und Postprocessing durch höhere Target-Res. Aber dürfte nun den Overhead noch weniger wert sein, ja. Besonders bei den gleichzeitigen praktischen Einschränkungen/Nachteilen von DSR/DLDSR, wie den entweder matschigen oder künstlichen Look und nerviges alt + tab-Verhalten.

Exxtreme, geh doch mal mit deinem Gammel-Spiel ohne angepasstes Mip Bias mit DLSS weg. Ich behaupte mal ganz dreist, dass das bei den meisten Lesern hier nur noch hartes Augenrollen verursacht...
Du kannst auch mal mental aktiv werden und eigenhändig das Mip Bias per Inspector korrigieren. Wird bei dem alten Gammel wahrscheinlich nebenwirkungsfrei funktionieren...

readonly
2025-01-26, 09:49:26
Bei mir stürzt der Inspector gerade unvermittelt beim Starten ab, nachdem der vorher ging. Keine Ahnung wieso, Rest läuft.

Wie läuft das bei MFG, wird da immer mit Faktor x multipliziert, wenn ich also eh schon 60fps habe, wird das dann automatisch 240? Mein TV macht max 144hz, unter Windows merkwürdigerweise nur 120hz. Alles darüber hab ich ja ein leichtes Tearing. Momentan hab 120hz max im Nvidia Cp eingetragen

Relex
2025-01-26, 09:51:16
Tippe eher auf Content, die ganzen Effekte in GoW 1 waren ziemlich tough für AA. Entsprechend hatte FSR da auch völlig versagt, während es im Nachfolger mal zumindest deutlich weniger flimmert (mal unabhängig davon, dass es 3.1 ist, aber failt ja dann anderweitig auch wieder).
Keine Ahnung, ob in Ragnarök die Kamera auch immer noch so bescheuert die ganze Zeit wackelt wie im Vorgänger. Das allein sorgt bereits mit TAA/U für eine ständige Unschärfe.
Hab noch nie einen grundlegenden Unterschied der Charakteristika der verschiedenen Presets in verschiedenen Spielen bemerkt. Von solchen Fällen mal abgesehen, wo die Spiele vielleicht doch mal ganz gut mit Preset D ohne abartiges Objekt-Ghosting funktioniert hatten (bestimmte Bewegungsvektoren-Config?).


Die Kamera wackelt in Ragnarök noch genauso wie im alten Teil.
Einige Gebiete sind sogar identisch zum vorgänger. Gut, sie sehen anders aus, aber manche Assets sind gleich und haben bestenfalls neue Texturen bekommen.

Könnte mir höchstens noch vorstellen, dass das Post Processing anders umgesetzt wurde.


Aber was ist so abwegig daran, dass die Implementierung in neueren Spielen besser ist. Sei es durch neue Vorgaben seitens Nvidia oder weil die Entwickler besser darin werden oder sich mehr Zeit nehmen, um alle Vorgaben korrekt umzusetzen.

Die DLSS Mods von Pure Dark und co. erreichen auch nicht immer die Qualität einer ordentlichen Implementierung. In Jedi Survivor gabs anfangs z.B. Probleme, die dann mit der offiziellen Implementierung weg waren. Es funktioniert zwar, aber scheinbar fehlen dann eben doch hier und da Daten die das Ergebnis noch besser machen würden.

Auch bei Starfield hat sich die implementierung von DLSS über mehrere Patches stark verbessert. Die kanten wurden schärfer, Aliasing und Moire wurde behoben, welches vorher recht auffällig war etc. Steht teilweise sogar in den patchnotes.


Ich bin mir daher sehr sicher, dass das Preset alleine nicht das einzig entscheidende ist. Da hängt noch viel mehr dran, abseits von Content.

aufkrawall
2025-01-26, 09:52:17
Bei mir stürzt der Inspector gerade unvermittelt beim Starten ab, nachdem der vorher ging. Keine Ahnung wieso, Rest läuft.

Vermutlich deshalb:
https://github.com/Orbmu2k/nvidiaProfileInspector/releases/tag/2.4.0.8


Ich bin mir daher sehr sicher, dass das Preset alleine nicht das einzig entscheidende ist. Da hängt noch viel mehr dran, abseits von Content.
Ist dann aber die Frage, ob damit alte Presets nicht ähnlich profitieren würden, oder nicht?

Ist imho schwer zu sagen, was eine "Optimierung" für Upsampling ist. Die Unterschiede zwischen den Spielen sind in 4k mit 50% Preset E eigentlich immer eher gering. Die Hauptsache scheint eher zu sein, dass das Mip Bias korrekt angepasst wird (was dann auch wieder Sonder-Tweaks für Moires bei Gittern etc. einschließt), und dass Effekte generell sauber sind und mit Upsampling nicht noch stärker kaputt gehen.

basix
2025-01-26, 09:57:56
Ansonsten fällt mir auf, dass vor allem neuere Spiele mit Preset J besser funktionieren.
Je älter das Spiel, desto geringer die Vorteile. Ich hab z.B. mal Control ausprobiert und der Schärfegewinn ist ziemlich minimal. Da das eine der ersten DLSS implementierungen war hätte ich da einen größeren Sprung erwartet. Gleiches in Red Dead Redemption 2..

Kann gut sein, dass dies am Beta Status sowie den Trainingsdaten liegt. Man wird vermutlich zuerst eher neuere Spiele trainieren. Das Transformer Modell ist also unter Umständen noch zu wenig "generalisiert", da zu kurze Trainingszeit.

aufkrawall
2025-01-26, 09:59:59
Kann gut sein, dass dies am Beta Status sowie den Trainingsdaten liegt. Man wird vermutlich zuerst eher neuere Spiele trainieren. Das Transformer Modell ist also unter Umständen noch zu wenig "generalisiert", da zu kurze Trainingszeit.
Irgendwo klang mal durch, dass sie mit Unreal Engine und ihrem Omniverse trainieren. Kann sein, dass gar nicht echte Spiele dafür genutzt werden.
Da hätten sie auch gleich Nanite und ihr neustes PT an Board. Wenn das NN damit gut klarkommt, funktioniert das mit simplerem Spiele-Content ggf. auch automatisch am besten.

basix
2025-01-26, 10:00:48
DLAA bringt definitiv was:
https://imgsli.com/MzQxNDEx

DLSS Q verliert schon massig an feinen Details. Und das ist ein Standbild. In Bewegung ist das noch deutlicher.

Bist du sicher, dass du Preset J forciert hast? Und das korrekte MIP Bias aktiv ist?

Irgendwo klang mal durch, dass sie mit Unreal Engine und ihrem Omniverse trainieren. Kann sein, dass gar nicht echte Spiele dafür genutzt werden.
Umso mehr Varianten das DNN sieht, desto besser wird generalisiert. Erscheint mir irgendwie unlogisch, bestehende DLSS Spiele nicht in den Prozess einzubeziehen.

Mit UE5 usw. kann man natürlich spezifische Testcases kreieren, das macht schon Sinn.

aufkrawall
2025-01-26, 10:03:11
Bist du sicher, dass du Preset J forciert hast?

Sein Test ist komplett sinnfrei. Das Spiel passt offensichtlich (!) Mip Bias nicht an und der Content ist so komplex wie Mario Kart 64...

basix
2025-01-26, 10:04:00
Dachte ich mir vorhin auch, dass das MIP Bias nicht angepasst wird