Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4
aufkrawall
2025-02-02, 14:15:00
Transformer braucht mit Nanite noch Nachhilfe, ja. Hatte Lurtz ja auch schon festgestellt, in Talos 2 Vegetation ist die temporale Stabilität definitiv deutlich regressed gegenüber CNN.
Das kann in anderen Spielen trotz Nanite aber anders aussehen, mit dem Fortnite-Content funktioniert es massiv besser. Da ist die temporale Stabilität unterm Strich eher höher als mit CNN, etwa Rampen-Builds auf Entfernung schwimmen/flimmern viel weniger etc.
DrFreaK666
2025-02-02, 16:42:00
https://youtu.be/Nh1FHR9fkJk
sehr unterhaltsam.. solange man kein NV Fanbubi ist :)
Das Video wird hier natürlich auch ignoriert :lol:
Ich schaue es mir später mal an
Lurtz
2025-02-02, 16:44:21
Kriegt man RR irgendwie in Hellblade 2 zum Laufen? Der Silent Hill 2-Trick scheint hier nicht zu funktionieren.
Transformer braucht mit Nanite noch Nachhilfe, ja. Hatte Lurtz ja auch schon festgestellt, in Talos 2 Vegetation ist die temporale Stabilität definitiv deutlich regressed gegenüber CNN.
Das kann in anderen Spielen trotz Nanite aber anders aussehen, mit dem Fortnite-Content funktioniert es massiv besser. Da ist die temporale Stabilität unterm Strich eher höher als mit CNN, etwa Rampen-Builds auf Entfernung schwimmen/flimmern viel weniger etc.
Auch mit K? Das war ja hier deutlich besser als J was das angeht.
Findest du J/K eigentlich überschärft? Bei Reddit scheint sich schon die Meinung festgesetzt zu haben, dass da jetzt wieder ein Schärfefilter aktiv sein muss. Ich habe eher den Verdacht dass manche Spiele einfach immer Nachschärfen bzw. falsch schlecht konifguriert sind was das angeht, und das jetzt das erste Mal seit TAA-Einführung wieder auffällt...
Lurtz
2025-02-02, 16:45:15
Das Video wird hier natürlich auch ignoriert :lol:
Vielleicht hat man hier mehr Interesse am persönlichen Austausch als sich von irgendwelchen Youtubern zum xten Mal vorkäuen zu lassen wie furchtbar alles ist.
Der Mehrheit hier traue ich schon z (M)FG korrekt nutzen und einschätzen zu können :rolleyes:
Der Thread hier ist jedenfalls deutlich hilfreicher als Geschreibe wie zB Computerbase mit ihrem "Unterschiede müsse man mit der Lupe suchen"-Geschreibsel. Und das Fake Frames-Gekeife kann man sich eh nicht mehr geben.
DrFreaK666
2025-02-02, 16:49:12
Naja, nicht jeder ist ein Pixel-Peeper ;)
Außerdem geht's um GN und nicht um CB.
Und vielleicht sollte man sich erst ein Urteil bilden, nachdem man das Video angeschaut hat
Lurtz
2025-02-02, 16:50:19
Da muss man nicht Pixel peepen (auch so ein dummer Kampfbegriff), wer da keine Unterschiede sieht braucht im Gegenzug auch sicher nichts von fake Frames erzählen, der kriegt offenbar eh nichts mehr mit :ugly:
basix
2025-02-02, 16:56:17
Das Video wird hier natürlich auch ignoriert :lol:
Ich fand es ziemlich amüsant. Der Steve hält sich jeweils nicht zurück und das ist gut so. Ich erinnere mich noch daran, wie er jeweils Dollar-Scheine "in Richtung Nvidia" rumgeworfen hat, wo die Karten so teuer wurden und eben bereits bei Ampere und Lovelace so krude Argumente und Performancevergleiche für die neuen Karten gebracht wurden :D
Man kann im Video ja auch weiterklicken auf die Stellen, wo es mehr um den Inhalt von MFG geht. Da ist das Video auch nicht schlecht. Es ist also nicht nur ein Rant gegen Nvidias Marketing.
DrFreaK666
2025-02-02, 16:57:57
Egal. Die von GN haben sowieso keine Ahnung , oder so :rolleyes:
basix
2025-02-02, 16:59:49
Bei Jayztwocents könnte ich dem sogar zustimmen :D (auch wenn der manchmal auch lustig ist, weil eben ein wenig "unbeholfen" oder einfach ein bisschen goofy ist)
Oliver_M.D
2025-02-02, 18:11:04
Das Video wird hier natürlich auch ignoriert :lol:Bin ein Fan von GN und mag deren Content, aber Steves Humor ist oft einfach nicht meins.
Zudem brauche ich kein Video das mir Dinge erklärt die ich eh schon weiß, ist für mich einfach nicht interessant.
Dank eigener Erfahrung konnte ich mir schon eine Meinung dazu bilden und für den Rest habe ich den Thread hier, voll mit Leuten die weit mehr Ahnung davon haben als ich.Naja, nicht jeder ist ein Pixel-Peeper ;)Bin auch keiner, habe einfach kein Auge dafür, kann aber trotzdem klar sehen dass mir DLSS 310 mit J/K extrem gut gefällt.
FG kann auch sehr nützlich sein, benutze es aber kaum weil mir oft die Gelegenheit dazu fehlt.Egal. Die von GN haben sowieso keine Ahnung , oder so :rolleyes:Bei allem Respekt, aber was genau willst du mit solchen Kommentaren erreichen:confused:Und das Fake Frames-Gekeife kann man sich eh nicht mehr geben.Bei MFG kann ich das noch verstehen, da die meisten Frames 'erfunden' sind. Aber bei DLSS oder 2xFG ist das für mich nur noch Clickbait-Nonsense, besonders bei DLSS.
Mir ist ziemlich rille ob der Frame 'fake' ist, vor allem wenn das finale Bild besser als nativ oder andere 'realistische Upscaling-Methoden' aussieht.
Ich fand es ziemlich amüsant. Der Steve hält sich jeweils nicht zurück und das ist gut so. Ich erinnere mich noch daran, wie er jeweils Dollar-Scheine "in Richtung Nvidia" rumgeworfen hat, wo die Karten so teuer wurden und eben bereits bei Ampere und Lovelace so krude Argumente und Performancevergleiche für die neuen Karten gebracht wurden :D
Man kann im Video ja auch weiterklicken auf die Stellen, wo es mehr um den Inhalt von MFG geht. Da ist das Video auch nicht schlecht. Es ist also nicht nur ein Rant gegen Nvidias Marketing.
Naja Leuten die sowieso alles kostenfrei gestellt bekommen, dann ne Heulboje der Weisen miemen würde ich schon aus Prinzip nichts abnehmen! Ist natürlich auch Zufall das die Bauers und Montys mit dem gleichen Thema kommen. Ist natürlich auch nicht abgesprochen! ;-)
Relex
2025-02-02, 18:22:09
Bei Reddit scheint sich schon die Meinung festgesetzt zu haben, dass da jetzt wieder ein Schärfefilter aktiv sein muss. Ich habe eher den Verdacht dass manche Spiele einfach immer Nachschärfen bzw. falsch schlecht konifguriert sind was das angeht, und das jetzt das erste Mal seit TAA-Einführung wieder auffällt...
Also das ist kompletter Unsinn. Da wird nichts nachgeschärft.
Hier z.B. Spider Man.
https://i.ibb.co/chZKhqnB/2651280-20250202181339-1.png (https://ibb.co/chZKhqnB) https://i.ibb.co/yBSx0Xmh/2651280-20250202181125-1.png (https://ibb.co/yBSx0Xmh)
Da wirst du kein bisschen Scharfzeichner finden.
Das neue Model löst das Bild einfach viel feiner auf und wird in bewegung nicht unscharf. Das ist alles.
Ich bin sogar verdammt froh, dass Nvidia nicht mit scharfzeichnern am Bild herumpfuscht, sondern alles rein über die Bildqualität und Rekonstruktion erreicht.
Lurtz
2025-02-02, 18:52:21
Egal. Die von GN haben sowieso keine Ahnung , oder so :rolleyes:
Das habe ich weder gesagt noch gemeint :rolleyes:
Ich habe gesagt, dass mir die Meinung diverser Leute hier wesentlich mehr wert ist als von irgendeinem Youtube-Reviewer. Und Steve hat sicher mehr Ahnung von Hardware, als ich sie je haben werde, aber was den Bereich von zB Upsampling angeht, habe ich noch nichts von denen gehört, was mich vom Gegenteil überzeugen würde.
Zumal ich das hier live am Display testen kann, dazu brauche ich kein aufwendiges Hardware-Labor oder irgendwelche Testbenches.
Vom Show-Anteil in ihren Videos kann man halten, was man will, aber mit diversen Narrativen, die daraus abgeleitet werden (fake frames11!!11!), kann ich nichts anfangen, die nerven mich mittlerweile aktiv.
Also das ist kompletter Unsinn. Da wird nichts nachgeschärft.
Wie gesagt, ich glaube das auch nicht, aber das Narrativ ist schon wieder da draußen.
Witchfire zB sieht immer komisch überschärft aus, auch wenn alle Regler auf 0 sind, mit J/K wirds dann etwas unangenehm, aber ich glaube die machen da einfach dumme Dinge mit ihrem Post-Processing...
DrFreaK666
2025-02-02, 19:35:11
Das habe ich weder gesagt noch gemeint :rolleyes:
Ich habe gesagt, dass mir die Meinung diverser Leute hier wesentlich mehr wert ist als von irgendeinem Youtube-Reviewer...
Irgendwelche Youtuber haben also 2,4 Millionen Abonnenten :freak:
Und in dem Zusammenhang hast dann CB erwähnt, welche mit GN nichts am Hut haben.
Aber gut, wenn ihr euch hier gegenseitig helft. So sollte es auch sein :)
robbitop
2025-02-02, 19:38:29
Anzahl der Abonnenten hat keine Korrelation mit Fähigkeiten. Unabhängig von GN. Es gibt eine ganze Menge Dullis mit zweifacher und dreifacher Millionenzahl an Abonnenten auf youtube.
ChaosTM
2025-02-02, 19:45:00
Also das ist kompletter Unsinn. Da wird nichts nachgeschärft.
Hier z.B. Spider Man.
[/URL]https://i.ibb.co/chZKhqnB/2651280-20250202181339-1.png (https://ibb.co/chZKhqnB) [URL]https://i.ibb.co/yBSx0Xmh/2651280-20250202181125-1.png (https://ibb.co/yBSx0Xmh)
Da wirst du kein bisschen Scharfzeichner finden.
Das neue Model löst das Bild einfach viel feiner auf und wird in bewegung nicht unscharf. Das ist alles.
Ich bin sogar verdammt froh, dass Nvidia nicht mit scharfzeichnern am Bild herumpfuscht, sondern alles rein über die Bildqualität und Rekonstruktion erreicht.
Viele lieben diese Scharfzeichner - daher war/ist auch reshade so beliebt.
Auf grieseligen 1440p Monitor mag das auch funktioniert haben, aber grundsätzlich ists meistens Unfug
Anzahl der Abonnenten hat keine Korrelation mit Fähigkeiten. Unabhängig von GN. Es gibt eine ganze Menge Dullis mit zweifacher und dreifacher Millionenzahl an Abonnenten auf youtube.
Naja die am lautesten schreien siehe Paperlaunch... ich nenne sowas Heuchelei!
Oliver_M.D
2025-02-02, 20:01:14
Zwei mal Drei macht Vier, widdewiddewitt und Drei macht Neune
Ich mach mir die Welt, widdewiddewie sie mir gefällt :freak:Immerhin bist du endlich ehrlich zu uns. ;D
aufkrawall
2025-02-02, 20:09:21
Auch mit K? Das war ja hier deutlich besser als J was das angeht.
Jo.
Findest du J/K eigentlich überschärft? Bei Reddit scheint sich schon die Meinung festgesetzt zu haben, dass da jetzt wieder ein Schärfefilter aktiv sein muss. Ich habe eher den Verdacht dass manche Spiele einfach immer Nachschärfen bzw. falsch schlecht konifguriert sind was das angeht, und das jetzt das erste Mal seit TAA-Einführung wieder auffällt...
Wenn man bei diversen Spielen reinzoomt, sieht man auch mit CNN schon gewisses Ringing um Hochkontrastkanten, obwohl man in den Spieloptionen kein Sharpen aktiviert hat. Ist mir etwa in Stalker oder Ratchet & Clank aufgefallen.
Habs noch nicht mit Transformer getestet und Spielen, wo ich mir sicher bin, dass die von sich aus kein Sharpen aufzwängen. Tippe aber, das wird unauffällig sein.
Lurtz
2025-02-02, 21:25:58
Ggf. ist die Upgrade-Kompatibilität ab 2.4 besser geworden, oder Zufall.
Hier hat jemand einiges durchgetestet - in vielen neueren Spielen kann man auf die aktuelle Streamline-Version upgraden, in älteren wie Witcher 3 schlägt es fehl: https://www.reddit.com/r/nvidia/comments/1ig4f7f/the_new_dlss_4_fg_has_better_performance/
Er meint auch mit neuerer Streamline-Version gibt es noch höhere Performancezuwächse.
basix
2025-02-02, 21:28:18
Also das ist kompletter Unsinn. Da wird nichts nachgeschärft.
Von DLSS selber kommt eigentlich nichts nein. Es ist von sich aus bereits scharf aber nichts was in Richtung Schärfefilter geht. In einigen Spielen schärfe ich trotztdem noch ein wenig manuell nach, das hat aber nichts mit DLSS zu tun.
Lurtz
2025-02-02, 22:36:33
https://s20.directupload.net/images/250202/bfipm7f7.jpg
Hm... :ugly: Nanite und Transformer-SR sind keine Freunde.
Schon ungünstig bei der (künftigen) Verbreitung der UE5...
aufkrawall
2025-02-02, 22:43:12
Hier hat jemand einiges durchgetestet - in vielen neueren Spielen kann man auf die aktuelle Streamline-Version upgraden, in älteren wie Witcher 3 schlägt es fehl: https://www.reddit.com/r/nvidia/comments/1ig4f7f/the_new_dlss_4_fg_has_better_performance/
Ja, in Hitman 3 mit 2.2 -> 2.7 gehts auch noch.
Wir habens nochmal mit dem SL-Release von Github durchprobiert, und jetzt geht es komischerweise überall da, wo es auch mit der App geht (App deinstalliert und neu gestartet).
In Aveum ist es aber genauso kaputt wie in Hogwarts, komisches Garbling.
In Hitman 3 siehts normal aus, ebenso Hellblade 2 (und haben auch RR nicht zum Laufen gekriegt).
Die Artefakte mit 4xMFG und >150fps kamen mir bislang eher unauffällig vor, kein Vergleich zu den Problemen mit Transformer-SR und Nanite.
Sieht super flüssig aus, bin daher optimistisch für 3x in etwa AW2 für den 144Hz-Monitor.
Leider überschreibt die App den Override auch für Custom-Profile. Richtik plöt. :(
mironicus
2025-02-03, 07:03:44
Von DLSS4 profitieren auch RTX 2000-User. :smile:
sj-NoASla2s
basix
2025-02-03, 08:41:41
Man kann halt höhere Upsampling Faktoren fahren. Mache ich auch und es verjüngt die Karte definitiv.
DLSS3:
- 4K DLSS-Q oder 5K DLSS-P
- FG mit durchwachsenem FPS-Zuwachs
DLSS4:
- 4K DLSS-P (wo die Performance reicht auch 4K DLSS-Q)
- FG mit höherem und konstanterem FPS-Zuwachs
DSR/DLDSR sind mit DLSS4 für mich deutlich weniger wichtig geworden. Das brauche ich nur noch in Spielen, die kein DLSS2+ haben.
redpanther
2025-02-03, 09:43:52
Ja, die DLLS4 Bildqualli erinnert mich stark an DLDSR, zu einem Bruchteil der Kosten.
Bin gerade im Horizons Verbotenen Westen unterwegs, das ist sehr toll, so eine Qualli bei teilweise 180FPS (mit FG) zu bekommen.
Trotzdem hätte ich gerne noch von NV ein DLDSR das auf DLLS4 basiert UND auch mit DSC funzt. Das kann nicht unmöglich sein und ich wäre fast wunschlos glücklich.
Gibt hat doch sehr viele Games ohne DLSS support die davon sehr profitieren würden.
Relex
2025-02-03, 09:53:57
Aber was soll das nützen?
Man muss den Unterschied zwischen DLSS Performance und Quality schon wirklich mit der Lupe suchen und zu DLAA ist der Unterschied nochmal deutlich geringer.
DLAA fixed dann höchstens noch ein Paar probleme mit Inhalten, die grundsätzlich schlecht auf Upscaling reagieren und damit immer Probleme zeigen, ansonsten ist aber DLAA bereits jetzt völliger overkill.
Was soll da ein Downsampling also noch verbessern?
Letztendlich verliert man durch einen zusätzlichen (Spatialen) Skalierungsschritt nur wieder Bildschärfe, so wie mit DL-DSR. Vor allem, wenn es keine ganzzahligen Faktoren sind.
Ein auf DLSS4 basiertes DSR wäre letztendlich nichts weiter, als DLAA mit weiter gesteigerter interner Renderauflösung. Das wäre auch bei DSC Problemen 100% kompatibel.
Aber wie gesagt, was solls bringen? Wenn DLSS 4 irgendwo versagt, dann ist das dem Algo geschuldet. Die Auflösung ändert daran nichts.
Die Tatsache, dass die Qualität mit dem Transformer Model so "schlecht" skaliert wenn man von Performance zu Quality zu DLAA immer mehr samples hinzuführt ändert sich halt nicht, wenn man NOCH mehr samples durch weiter erhöhte interne Auflösung hinzufügt.
Das Model skaliert damit nicht mehr (anders als CNN), also ist das mMn. der Holzweg.
basix
2025-02-03, 09:54:17
Ja, die DLLS4 Bildqualli erinnert mich stark an DLDSR, zu einem Bruchteil der Kosten.
Bin gerade im Horizons Verbotenen Westen unterwegs, das ist sehr toll, so eine Qualli bei teilweise 180FPS (mit FG) zu bekommen.
Trotzdem hätte ich gerne noch von NV ein DLDSR das auf DLLS4 basiert UND auch mit DSC funzt. Das kann nicht unmöglich sein und ich wäre fast wunschlos glücklich.
Gibt hat doch sehr viele Games ohne DLSS support die davon sehr profitieren würden.
Horizon Forbidden West ist in der Tat unglaublich sauber. Auch HZD Remastered ist sehr sauber (nicht ganz so sauber wie HFW aber deutlich sauberer als HZD original, weniger Flickering bei Gras etc.).
Ein Update von DLDSR wäre schon nicht schlecht, z.B. für den 4x DSR Modus welcher nichts spezielles macht (nicht so wie dei DLDSR Faktoren darunter). Aber wie soll das auf DLSS4 basieren? Ist ja ein Downsampler und nicht ein Upsampler.
Zum Thema DSC:
Funktioniert laut aufkrawall auf RTX50. Ich habe bereits spekuliert, dass dies aufgrund DP2.1 Support bei der Display Engine klappen könnte. Ich kann das die nächsten Tage auf RTX40 nachtesten, ich habe mir per Zufall den selben Monitor gegönnt ;) Ich kann dann hier berichten.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13698575#post13698575
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13698628#post13698628
Disconnected
2025-02-03, 10:59:17
DSR und DSC funktionieren zumindest auf Ampere zusammen nicht.
Relex
2025-02-03, 11:09:03
Ada auch nicht. Alles wie gehabt.
redpanther
2025-02-03, 11:09:13
Aber was soll das nützen?
Man muss den Unterschied zwischen DLSS Performance und Quality schon wirklich mit der Lupe suchen und zu DLAA ist der Unterschied nochmal deutlich geringer.
DLAA fixed dann höchstens noch ein Paar probleme mit Inhalten, die grundsätzlich schlecht auf Upscaling reagieren und damit immer Probleme zeigen, ansonsten ist aber DLAA bereits jetzt völliger overkill.
Was soll da ein Downsampling also noch verbessern?
Letztendlich verliert man durch einen zusätzlichen (Spatialen) Skalierungsschritt nur wieder Bildschärfe, so wie mit DL-DSR. Vor allem, wenn es keine ganzzahligen Faktoren sind.
Ein auf DLSS4 basiertes DSR wäre letztendlich nichts weiter, als DLAA mit weiter gesteigerter interner Renderauflösung. Das wäre auch bei DSC Problemen 100% kompatibel.
Aber wie gesagt, was solls bringen? Wenn DLSS 4 irgendwo versagt, dann ist das dem Algo geschuldet. Die Auflösung ändert daran nichts.
Die Tatsache, dass die Qualität mit dem Transformer Model so "schlecht" skaliert wenn man von Performance zu Quality zu DLAA immer mehr samples hinzuführt ändert sich halt nicht, wenn man NOCH mehr samples durch weiter erhöhte interne Auflösung hinzufügt.
Das Model skaliert damit nicht mehr (anders als CNN), also ist das mMn. der Holzweg.
Hast du meinen Letzten Satz gelesen?
Für Spiele die kein DLLS können, also sehr sehr viel im Bestand.
Mir würde es aber leider auch nichts helfen, denn weiterhin gibts auch mit dem neusten Treiber kein DSR mit DSC bei RTX4K
Relex
2025-02-03, 11:10:36
Hast recht, irgendwie hab ich den Satz nicht wahrgenommen.
Zum Thema DLSS4.
Was mich aktuell tatsächlich noch etwas nervt ist der Ultra Performance Modus. Warum macht der unabhängig von der Auflösung immer Probleme mit manchen Inhalten?
Ich kann 1440p mit Performance Upscaling nutzen (was 720p interne Auflösung sind) und sogar 1080p mit 540p Performance Modus und das Bild zeigt immer weniger Probleme, als in 4K mit Ultra Performance (ebenfalls 720p intern).
Manche Inhalte sind mit dem Ultra Performance Modus einfach kaputt und verhalten sich bei kleinster bewegung seltsam. Ich hoffe wirklich, dass das noch gefixed werden kann. Für mich aktuell einfach unverständlich, warum das passiert.
So oder so muss ich aber sagen, dass durch die deutlich gesteigerte Bildschärfe sebst 1440p mit Quality oder sogar performance Upscaling auf dem 4K Display sehr gut und sauber aussieht. Das ist wirklich ein gewaltiger Unterschied zu vorher und macht die Auflösung tatsächlich nutzbar.
Trotzdem ist 4K Ultra Performance natürlich sehr viel schärfer. Wenn da die Artefakte mit einigen Inhalten nur nicht wären...
Ich hätte halt gern nen Modus für 4K der schneller ist, als der Performance Modus und qualitativ auf CNN Performance Modus ist. Aktuell brauch ich das zwar nicht zwingend, wäre aber sehr nice to have. Wäre aber vor allem aber auch für schwächere GPU sehr wertvoll (4070, 5070 und co.). Für low end und midrange wäre ein ordentlicher Ultra performance Modus in 4K ein richtiger Gamechanger.
basix
2025-02-03, 11:37:51
Ich glaube der UP Modus ist noch nicht fertig. Entweder ist das noch CNN oder aufgrund Beta-Status noch nicht final.
Aber ja, UP könnte deutlich verbessert werden. Im jetzigen Zustand ist er unbrauchbar.
Relex
2025-02-03, 11:51:07
Also hinsichtlich schärfe und Aliasing ist das mit Preset K schon eindeutig transformer und deutlich besser als vorher. Bleibt auch in Bewegung schön scharf.
Aber einige Inhalte flimmern einfach (kein Aliasing) oder zeigen komische Artefakte wie z.B. die Bäume in Spiderman, wenn man von größerer Entfernung draufschaut.
Die Rekonstruktion selbst ist ansonsten verdammt gut, deswegen sehe ich darin ja auch so viel potenzial. Ich hab irgendwie auch das Gefühl, dass es mehr eine Sache des Spiels ist, weil die Geometrie vermutlich nicht in korrekter Detailstufe geladen wird, sobald der UP Modus aktiv ist.
basix
2025-02-03, 13:51:48
Also bei mir ist 4K-UP in z.B. CP2077 viel unschärfer als P. Und in Bewegung verschmiert es noch mehr, insbesondere alles was mit Vegetation zu tun hat.
Relex
2025-02-03, 14:01:27
Cyberpunk schwitcht ja auch auf das CNN Model um, wenn man Ultra performance (ohne RR) einstellt. Kannst du im DLSS Overlay prüfen. Im Grafikmenü zeigt es weiter Transformer an, aber das ist ne Lüge.
Ansonsten nutzt Cyberpunk ja auch noch preset J für Transformer und nicht das neuere K.
J ist im Ultra performance Modus total kaputt (deswegen nutzt Cyberpunk hier das CNN model) K zeigt im Ultra Performance Modus mMn. keine Regressionen mehr gegenüber CNN. Aber eben häufig ähnliche Probleme und Artefakte mit manchen Objekten. Es ist aber trotzdem sehr viel schärfer.
basix
2025-02-03, 15:55:15
CP2077 nutzt immer noch J oder CNN auch wenn ich das via NvInspector überschreibe? Ich kriege das DLSS Overlay aber nicht zum laufen, obwohl via DLSS Swapper aktiviert und in Registry überprüft.
aufkrawall
2025-02-03, 15:58:24
Probier mal DLSSTweaks für das Overlay. Der Inspector-Override sollte aber von keinem Spiel überschrieben werden.
basix
2025-02-03, 16:09:58
Danke, damit klappt es :)
Edit:
Die Unschärfe ist primär RR geschuldet. UP zu P sieht ohne RR deutlich besser aus. Aber verliert dennoch einiges an Bildschärfe. Der Unterschied zwischen P und Q ist deutlich geringer bis fast nicht existent.
aufkrawall
2025-02-03, 16:21:33
Wobei das Transformer-RR auch wirklich einen super Job macht, den Müll-Noise vom PT weiter aufzuräumen. Das war ja vorher immer noch ziemlich nervig, wenn man die Kamera schnell gedreht hatte. Massiv besser jetzt, so weit ich das auf die Schnelle beurteilen konnte.
Würde aber damit Modell-Stand Jetzt ggf. weiter zu ReShade RCAS greifen. Bzw. etwas Tonemapper Sharpen in der UE Config (sofern da nicht schon selbst nerviges Sharpen aufgezwungen wird, was in Hogwarts aber wohl nicht der Fall ist).
basix
2025-02-03, 16:25:58
Transformer-RR ist wirklich gut, sicher. Habe ich hier im Thread auch schon mit Bildern belegt. Aber UP halt nicht ;)
Neben Unschärfe kommt auch deutlich mehr Smearing vor.
aufkrawall
2025-02-03, 16:28:22
Guck mal ins DLSS Overlay, ändert sich das Modell mit UP ggf. zu CNN?
basix
2025-02-03, 16:58:41
Bei HZD: Remastered bleibt es bei K. In CP2077 wurde das Modell nicht angezeigt und ohne RR würde ich behaupten, dass es beim Transformer bleibt. Aber ist nicht so wichtig, die Zeit bringt ja hoffentlich weitere Verbesserungen und ich bin mit UP eh im CPU-Limit ;)
aufkrawall
2025-02-03, 17:02:17
Ich meinte das nur auf RR bezogen, du hast doch nun das Overlay in CP77 mittels DLSSTweaks?
Der zeigt mit RR zwar keinen Preset-Buchstaben an, aber den Modellnamen. Der würde sich mit CNN gegenüber Transformer ändern.
Lordluti
2025-02-03, 19:54:10
Hab starkes Ghosting an den Bildschirmrändern mit dem neuen DLSS Transformer Model. Bei Kameradrehungen treten an dem Bildschirmrändern Doppelbilder auf. Auf der gegenüberliegenden seite gibt es Blockartefakte ähnlich wie bei einer Videokompression. Getestet bei Horizon FW und GoW Ragnaröck.
Beispiel: https://i.ibb.co/vSXX25N/HFW1.png (https://ibb.co/vSXX25N)https://i.ibb.co/gM5W9XnK/HFW2.png (https://ibb.co/gM5W9XnK)
basix
2025-02-03, 20:22:08
Es gibt in HFW ein Setting, welches eine Kameralinse nachahmen soll und es dadurch am Bildrand etwas unscharf wird. Hast du das mal deaktiviert?
aufkrawall
2025-02-03, 20:24:25
Diese Effekte funktionierten mit dem DLSS 3 FG allerdings problemlos.
DLSS 4 FG scheint in zig Spielen gar nicht richtig zu funktionieren, siehe meine Ausführungen zu "Garbling" in diversen Spielen.
Da hat Nvidia noch einiges an Arbeit vor sich. Wäre aber vorsichtig optimistisch.
Relex
2025-02-03, 20:26:47
In Horizon liegt es an der Vignette. Ohne sind die Artefakte weg.
Aber ja, könnte noch etwas Optimierung vertragen. Wobei es auch vorher schon Probleme mit der Vignette bzw. dem Hud gab. Aber auf andere Weise.
Lordluti
2025-02-03, 21:54:39
Tatsächlich! das deaktivieren der Vignette hat tatsächlich geholfen. Beim ganz genauen hinsehen sind die Streifen noch minimal vorhanden aber ich sag mal 90% besser als vorhin. Bei GoW werd ich später testen was das Problem dort verursacht, oder eben auf eine neue verbesserte DLL warten ;)
basix
2025-02-04, 07:31:41
Vignette ist für mich ein nutzloser Effekt. Wird dadurch das Bild so viel "cineastischer"? Dafür bei TAA, DLSS, FG usw. Bild Fuckups? :freak:
Schalte ich immer ab, wenn man kann. Aber das kann jeder für sich entscheiden, mir nützt und gefältt es nicht.
Vignette ist für mich ein nutzloser Effekt. Wird dadurch das Bild so viel "cineastischer"?
Nein, Kinofilme haben in der Regel genug Budget um mit Objektiven gedreht zu werden die kaum/keine Vignette erzeugen.
Allenfalls wird der Effekt in bestimmten Szenen im Postprocessing hinzugefügt, was aber für Spiele generell keinen Sinn macht, da der Effekt verwendet wird um die Aufmerksamkeit des Betrachters auf bestimmte Bildteile zu lenken.
Für Spiele macht das höchstens in Zwischensequenzen Sinn.
woodsdog
2025-02-04, 07:41:55
DSR und DSC funktionieren zumindest auf Ampere zusammen nicht.
Ich meine in einem der HWU Videos vernommen zu haben, dass die DisplayEngine jetzt doppelt so schnell laufen soll auf Blackwell und das deswegen jetzt geht.
Video lief nur neben der Arbeit und bin unsicher ob ich gerade Dinge durcheinander hau, habt also etwas nachsehen falls ich über was anderes Spreche :redface:
basix
2025-02-04, 18:38:38
Allenfalls wird der Effekt in bestimmten Szenen im Postprocessing hinzugefügt, was aber für Spiele generell keinen Sinn macht, da der Effekt verwendet wird um die Aufmerksamkeit des Betrachters auf bestimmte Bildteile zu lenken.
Für Spiele macht das höchstens in Zwischensequenzen Sinn.
Zwischensequenzen sind OK, da kann auch Motion Blur etc. aktiv sein. Gibt einige Spiele, wo man das getrennt einstellen kann (Spiel, Zwischensequenzen), so sollte das sein.
Mordekai2009
2025-02-04, 21:05:50
91342
[Talos Principle 2 - DLSS 4 - Preset K --- DLSS Performance (1920x1080 -> 3840x2160) mit 2x Frame Gen.]
Fast unaufällig.
kemedi
2025-02-04, 22:35:48
91342
[Talos Principle 2 - DLSS 4 - Preset K --- DLSS Performance (1920x1080 -> 3840x2160) mit 2x Frame Gen.]
Fast unaufällig.
WTF? Was ist denn da kaputt? :eek::freak:;D
Das ist aber echt nicht normal :redface:
Spontan muss ich an das Remaster von Crysis 1+2 denken, bei dem ab DLSS Balanced und Quality lange Zeit Texturen gefehlt haben, aka nur graue Flächen zu sehen waren. Trat beim dritten Teil nicht auf und wurde bei den anderen beiden dann irgendwann mal gefixt.
Zum Vergleich:
Crysis 1 Remastered 1080p @2,25x DL-DSR, Preset "K", alles maximum bis auf Motion Blur
DLSS-Q:
https://ibb.co/b5pb18Mz
DLSS-P:
https://ibb.co/KpMxjQSg
DLSS-Overlay ist bei beiden unten links zu erkennen.
Mordekai2009
2025-02-04, 22:42:29
Nein, ich meine das Tier. Die Hufe und so weiter. :D
Die Texturen im Hintergrund werden ganz normal blitzschnell nachgeladen. Ich habe nur das Tier abfotografiert weil diese schnell rannte.
aufkrawall
2025-02-04, 22:52:58
In Witcher 3 seh ichs mit K auch mit Balanced noch bröseln, wenn ich die Kamera um Geralt auf dem Feld rotiere. Aber noch weit von FSR entfernt.
kemedi
2025-02-04, 22:58:39
Nein, ich meine das Tier. Die Hufe und so weiter. :D
Die Texturen im Hintergrund werden ganz normal blitzschnell nachgeladen. Ich habe nur das Tier abfotografiert weil diese schnell rannte.
Ja, das meinte ich auch :D
Statt DLSS wohl eher nen DOS-Filter aktiviert, hm? ;D;D;D
Relex
2025-02-04, 23:08:48
Oh nein, Frame Gen erzeugt Artefakte.
Das fällt euch aber früh auf :D
kemedi
2025-02-04, 23:11:04
Oh nein, Frame Gen erzeugt Artefakte.
Das fällt euch aber früh auf :D
Tbh:
In DIESER Form hab ich das noch nie gesehen, also so verpixelt. Alles andere kenne ich, ja. Aber das ist mir einfach neu XD
Relex
2025-02-04, 23:24:12
Womit du zugleich belegst, dass es idr. nicht auffällt. Und das ist der Knackpunkt.
Artefakte hast du mit FG immer. Nimm 1 Sekunde mit 100 FPS auf und du hast 50 Bilder mit Artefakten, Aber ob das während dem spielen überhaupt auffällig ist hängt von vielen Faktoren ab.
aufkrawall
2025-02-04, 23:32:28
In DIESER Form hab ich das noch nie gesehen, also so verpixelt.
Das sind nicht nur Artefakte vom FG, sondern auch vom Super Res-Part. Logischerweise addieren die sich ein Stück weit. Wobei auch denkbar ist, dass der FG-Weichspüler die Brösel-Artefakte vom Transformer-Modell wieder lindert.
Das Transformer-RR ist massiv überlegen bei der Bildstabilität. Wird man sehen müssen, ob Nvidia da mit den kleineren Modellen für Transformer-SR noch etwas wird reißen können.
kemedi
2025-02-04, 23:42:20
Das sind nicht nur Artefakte vom FG, sondern auch vom Super Res-Part. Logischerweise addieren die sich ein Stück weit. Wobei auch denkbar ist, dass der FG-Weichspüler die Brösel-Artefakte vom Transformer-Modell wieder lindert.
Das Transformer-RR ist massiv überlegen bei der Bildstabilität. Wird man sehen müssen, ob Nvidia da mit den kleineren Modellen für Transformer-SR noch etwas wird reißen können.
https://ibb.co/cRnzVvp
Das sind halt die Artefakte, die ich kenne. Siehe rechts das Questlog. Bekommt man in Bewegung auch fast gar nicht mit, außer man macht genau dann nen Screenshot. Settings wie bei den Crysis Bildern oben, 1080p @2,25 DL-DSR, DLSS-Q. Isn recht altes Bild, noch mit dem CNN-Modell.
Aber gut - man lernt nie aus :D
Edit:
Ich bin von der Qualität bei Alan Wake 2 extrem überrascht. Auf einer Stufe, wenn nicht gar noch besser, wie Cyberpunk. Hab allerdings auch nur nachts kurz reingeschaut und weiß nicht, wie das bei Tageslicht ingame ist. Also ja, gesehen hab ichs auf Screenshots und Videos, aber halt noch nicht selbst. ToDo und so :)
Oliver_M.D
2025-02-05, 07:19:09
NVInspector 2.4.0.9 Pre-release - CustomSettingNames: add DLSS/HDR/SmoothMotion settings
https://github.com/Orbmu2k/nvidiaProfileInspector/releases/tag/2.4.0.9
basix
2025-02-05, 09:29:27
Das neue CustomSettingNames.xml gibt es hier:
https://github.com/Orbmu2k/nvidiaProfileInspector/blob/master/nspector/CustomSettingNames.xml
Lawmachine79
2025-02-05, 11:23:59
NVInspector 2.4.0.9 Pre-release - CustomSettingNames: add DLSS/HDR/SmoothMotion settings
https://github.com/Orbmu2k/nvidiaProfileInspector/releases/tag/2.4.0.9
Kann ich damit Smooth Motion auf 4000er Karten forcen?
basix
2025-02-05, 12:39:57
Kann ich gerade nicht testen, da noch auf dem 566.36 unterwegs (dort geht es definitiv nicht auf einer 4000er Karte, habe ich vorhin getestet). Aber ist halt nur global forcierbar (ausser du machst ein Game-Profile) wohingegen im Treiber pro Game aktivierbar.
aufkrawall
2025-02-06, 00:41:03
Wieso sollte es per Inspector nicht per Profil funktionieren?
Aber die Antwort für Lovelace ist im Moment sowieso nein.
Transformer SR killt die Performance auf der 3060 mit 4k Target komplett, das sind in Fortnite mit niedrigsten Details 50% im Menü so ca. 108fps vs. 145fps mit Preset E.
Wobei auf der 3060 CNN auch ein gutes Stück schneller ist als TSR high.
Btw. ist UP RR in CP77 neuerdings sowohl mit CNN als auch Transformer (wobei die in-game Option zur Auswahl auch verbugt zu sein scheint) kaputt, gibt nur Bildsalat. Spiel- oder Treiber-Regression?
dildo4u
2025-02-06, 11:31:54
Der Outlaws DLSS4 Patch ist jetzt für alle verfügbar.
9ptUApTshik
Cubitus
2025-02-07, 09:55:07
Smooth Motion ist das:
https://s20.directupload.net/images/250202/temp/gzyrucih.png (https://www.directupload.eu/file/d/8818/gzyrucih_png.htm)
MFG-Override ging nun aus irgendeinem Grund nicht mehr. :confused:
Geht mit diesem Flag schon Smooth-Motion für ADA, und wenn ja was ist dafür notwendig? Würde das gerne für Kingdom Come 2 testen. :)
aufkrawall
2025-02-07, 17:39:33
Nix Ada für SM. ;)
Btw. Hier ist es für den Indikator ""ShowDlssIndicator"=dword:00000001"
https://github.com/NVIDIA/DLSS/blob/main/utils/ngx_driver_onscreenindicator.reg
Bei dem von Relex verlinkten Wert ist es aber "dword:00000400". Scheint mit Letzterem bislang überall zu gehen, in der Vergangenheit war das mit dword:00000001 nicht so.
Weiß Nvidia selbst nicht, was der richtige Wert ist? :freak:
Relex
2025-02-07, 18:54:22
Die 1 ist für die unsignierten dev dlls und funktioniert nicht mit den signierten. Die 400 aber schon.
aufkrawall
2025-02-08, 02:37:34
Die Disocclusion mit K ist definitiv nicht nur für Nanite zu schlecht:
https://s20.directupload.net/images/250208/temp/zm5hmao9.jpg (https://www.directupload.eu/file/d/8824/zm5hmao9_jpg.htm)
Ist halt wesentlich punktueller und kürzer sichtbar als mit FSR, aber trotzdem verbesserungswürdig.
basix
2025-02-08, 09:13:22
Mit dem CNN Modell hat das fast gleich ausgesehen ;)
robbitop
2025-02-08, 09:15:20
Ich denke mal dass gewisse Situationen auch einfach Grenzen aufzeigen. Woher sollen die Informationen stammen wenn es eine disocculsion gab und sich Informationen vor dieser zB aufgrund einer Positionsveränderung nicht mehr nutzen lassen? Somit sind sie temporal nicht vorhanden. Dann geht nur Halluzinieren und da kann man halt dann auch daneben liegen.
Relex
2025-02-08, 09:56:24
Na ja, theoretisch war die Information ja schonmal vor einigen Frames oder einigen Sekunden sichtbar, als die Kamera oder die Spielfigur an anderer Position war. Wenn man also das NN in echtzeit mit den Daten der Szene trainiert und nicht nur über "wenige" Frames akkumuliert, dann sollte sich sowas doch deutlich besser rekonstruieren lassen. Das Problem wird aktuell sein, dass jegliche Daten die man über den fehlenden Ausschnitt noch hat zu schnell veraltet sind, weil sie ggf einige Sekunden alt sind und längst aus dem speicher geflogen sind oder weil jegliche bewegungsdaten dafür fehlen. Das hilft den Super Sampling Algo also nicht weiter.
Wenn man aber einen Generative fill macht, sollten die Daten die man in den letzten 5, 10 oder 20 Sekunden über die Szene gelernt hat, zumindest als Grundlage für einen generative fill brauchbar sein.
Vielleicht bringt das Transformer Model hier künftig schon Verbesserungen, Nvidia sagt ja, dass das Model die Szene potenziell besser versteht und nicht nur lokal arbeitet. Vielleicht (und wahrscheinlicher) aber auch erst ein Thema für DLSS5 oder DLSS6...
Was evtl. auch helfen könnte ist, wenn man Bewegungsvektoren in mehreren Ebenen bereitstellt, so dass ein objekt, welches hinter einem anderen verschwindet oder wieder auftaucht stets die bewegungsdaten an DLSS füttert, selbst wenn es gerade nicht sichtbar ist. Aktuell sieht es so aus, als würde man das nicht machen.
Gerade bei so dingen wie Zäunen wo in hoher Frequenz irgendwas abgedeckt und aufgedeckt wird sind die Algos ja im wahrsten Sinne "überrascht" davon, dass irgendwas ganz kurz überblendet aber dann wieder angezeigt wird und zeigen dann sofort Artefakte. Wenn der algo verstehen würde, dass sich da nur zwei Ebenen übereinander lagern, dann wäre auch die Rekonstruktion sicher deutlich einfacher.
basix
2025-02-08, 10:05:03
Eigentlich sollte man SR mit Variable Resolution Scaling sowie auch Variable Rate Shading ergänzen. Das macht z.B. ReSTIR ebenfalls bei RT: Bereiche mit Disocclusion oder schnellen Bewegungsänderungen werden höher abgetastet. Weiss nicht ob man das als "Importance Sampling" bezeichnen kann. Das könnte man bei SR ebenfalls tun. Mit einem schlauen Algorithmus muss man dann halt ein Balancing machen:
- Wo muss mit welcher Abtastrate gearbeitet werden?
- Wo höher und wo tiefer?
- Die total gerenderte Pixelmenge sollte im besten Fall +/- konstant bleiben. Also give bei Disocclusion und take in anderen Bildteilen
Relex
2025-02-08, 10:07:07
Glaube das Problem ist dann, dass die Bildrate extrem einbrechen würde, sobald Gras und Bäume im Bild sind, weil dann praktisch das gesamte Bild höher auflösend gerendert werden müsste, weil sich alles überlagert.
basix
2025-02-08, 10:07:36
Deswegen der "schlaue" Balancing-Algorithmus ;)
Du kannst je nachdem noch mit einem Framerate-Target oder einem Auflösungsband arbeiten (drunter und drüber rendert man nicht)
Sehr fein aufgelöste Geometrie wie Haare, Fell und Vegetation sind ja generell der Endgegner für SR. Das wird immer schlechter aussehen als einfachere Geometrie. DLSS4 in TW3E hat mehr Mühe als DLSS4 in SotTR. In Horizon FW ist es allerdings trotz feiner Vegetations-Geometrie sehr sauber. Dort ist die SR Integration einfach sehr gut und wohl der Content auch passend (passend gemacht worden?).
Relex
2025-02-08, 10:29:55
Klar ein importance sampling würde wahrscheinlich allgemein die effizienz erhöhen.
Aber die disocclusion artefakte müsste man ja mit super sampling bearbeiten (nur native Auflösung reicht ja nicht, siehe DLAA) und diese würden in einer Waldszene ja mindestens um eine oder gar mehrere Größenordnungen steigen.
Ein Balancing wird dann völlig unmöglich.
Und da mehr samples gerade mit Pathtracing irsinnig teuer werden ist das wahrscheinlich keine gute Lösung.
Ich denke man wird das wie immer heutzutage mir einem besseren Model angehen. Das bringt dann ja auch allgemein Vorteile. Supersampling als Lösung für Artefakte ist ja auch letztendlich genau das wovon man sich entfernen will. Gerade deswegen rendert man ja sogar mit niedrigerer Auflösung. Ich denke dass Supersampling da bei den devs auf grundlegende Ablehnung stoßen würde, weil es absolut allem entgegen steht, woran man seit beginn gearbeitet hat, nämlich so viele samples wie möglich einzusparen und langfristig wohl nichtmal mehr Rasterizing zu betreiben.
robbitop
2025-02-08, 11:48:14
Na ja, theoretisch war die Information ja schonmal vor einigen Frames oder einigen Sekunden sichtbar, als die Kamera oder die Spielfigur an anderer Position war.
Ich meine ja in einer Situation wo die Kameraperspektive so anders ist, dass die Stelle nicht mehr zu gebrauchen ist.
Relex
2025-02-08, 12:06:18
Deswegen sag ich ja generative fill.
Der Algorithmus soll kein temporales supersampling machen, weil die Daten eh unbrauchbar sind, sondern sich den fehlenden Inhalt im wahrsten sinne herbeihalluzinieren auf basis eines fortlaufenden echtzeittrainings während die Szene läuft und in Bewegung ist.
Wenn die KI die komplette Szene versteht und darauf angelernt ist, dann ist es auch viel leichter, passende inhalte zu generieren, wenn normales temporales supersampling versagt.
Und der generative Anteil müsste sich ja noch nichtmal "irgendwas" ausdenken, was an die stelle passen könnte. Es sind ja auch nach einer disocclusion bereits Daten da, auf basis dessen man was "besseres" einfügen kann.
Man hat also in den letzten Sekunden gelernt, wie die Szene aussieht und man hat nach der Disocclusion ein paar rohdaten ohne antialiasing die zumindest grob vorgeben, was hingehört. Auf basis dessen muss sich doch auch ohne temporale akkumulation was generieren lassen. Oder nicht? Ich seh da prinzipiell kein Problem. Machbar sollte das auf jeden Fall sein. Das Problem wird aktuell aber eher die performance- und speicherkosten sein.
robbitop
2025-02-08, 12:30:56
Das wird aber auch immer mal wieder schief gehen weil auch moderne NNs eine gewisse Fehlerquote haben. :)
Insbesondere wenn das nur ein Gesamtbudget von gerade mal 0,5 ms hat.
Das macht z.B. ReSTIR ebenfalls bei RT: Bereiche mit Disocclusion oder schnellen Bewegungsänderungen werden höher abgetastet. Weiss nicht ob man das als "Importance Sampling" bezeichnen kann.
Dafür müsste man auch Primary Rays mit RT umsetzen. Mit Rastern kann man nicht vernünftig im Nachhinein die Auflösung für Bildteile erhöhen.
Das wird aber auch immer mal wieder schief gehen weil auch moderne NNs eine gewisse Fehlerquote haben. :)
Insbesondere wenn das nur ein Gesamtbudget von gerade mal 0,5 ms hat.
Framewarp wird genau das machen, fehlende Informationen mit Generative Fill aufzufüllen.
aufkrawall
2025-02-08, 17:18:50
Mit dem CNN Modell hat das fast gleich ausgesehen ;)
Ne, deutlich softer. In dem Fall besser.
Das Transformer-RR ist irgendwo dazwischen.
Sardaukar.nsn
2025-02-08, 22:11:04
Kurze Rückmeldung von mir. Die 5080 läuft top im Rechner vom Nachwuchs. Bei mir habe ich gerade seine kleine Asus 4070 Super Dual eingebaut und gerade ein paar Runden in Warhammer 40k Space Marine 2 und Indiana Jones gespielt. DLSS Swapper besorgt und dann auf die aktuelle .dll umgestellt.
Holy moly! Das DLSS 4 Modell kann aber was. Umgestellt auf "Leistung" bzw. 1080p sieht das Bild hier auf dem 4K Oled bombastisch aus. Artefakte wird man im Standbild mit der Lupe finden, aber das was mit dieser kleinen Karte möglich ist erstaunt mich doch sehr.
aufkrawall
2025-02-08, 23:27:21
5080 = drittschnellste GPU der Welt = "kleine Karte"? Häh?
x-force
2025-02-08, 23:53:13
5080 = drittschnellste GPU der Welt = "kleine Karte"? Häh?
er redet wohl von der 4070, die beim sohn nun übrig ist.
aufkrawall
2025-02-09, 00:03:13
Ich doof. Ja, DLSS Performance rettet halt alles in 4k. Damit kann man auch auf der 3060 noch einige Sachen spielen, wenn man sich mit Spielbarkeit anstatt Flüssigkeit abfinden kann.
Selbst mit 60fps in Skyrim SE nervt mich nach einigen Tests nun die Bewegungsunschärfe mit Preset E vs. K. :biggrin:
Ist mit den Bäumen aber auch am Limit, wobei K da schon wesentlich weniger flimmert als J.
Slipknot79
2025-02-09, 01:57:42
In Space Marines 2 gab es eine gute Entwicklung der fps in meiner Testszene.
In DLDSR 2,25x, alles in DLSS-Q.
Dez 2024: Ca 125fps
Jänner 2024, ReviOS installed: Ca 130fps
Treiber 572.16 installed: Ca 148fps (Wobei ich durch den Treiber in "allen" Spielen ca 10-12% moar fps erhalten habe, warum auch immer)
Nun mit dem Inspector "latest DLLs" akti4t.
Ca 159fps (fast am fps Treiber-Limit von 161fps)
Mit diesem Move hier ist auch die Bildqualität gestiegen. Die Testszene flimmert viel weniger an jenen Stellen (vor allem Kanten, Gitter), die vorher geflimmert haben, etwa Treppenkanten, wobei die Qualität schon vorher recht gut war.
Auch hier kann man etwa DLSS3 Q = DLSS4 P in Sachen Qualität gleichwertig ansetzen. Ich werde aber bei Q bleiben, da die fps schon recht dick sind.
Lederjacke liefert zwar keine blackwells, aber dafür DLSS4 (y)
MOAR!
aufkrawall
2025-02-10, 01:10:17
Kontrastprogramm, für einige Zuseher ggf. schwer zu ertragen:
iXzEGdHsIgc
Trotzdem wär mal ein Mod für SR -> RR langsam schön.
Thunder99
2025-02-10, 09:01:47
Kann man eigentlich via Inspector oder App (wenn es unterstützt wird) DLSS4 erzwingen, per Profil?
redpanther
2025-02-10, 13:41:10
ja, einfach hier und/oder im aktuellen NV Treiber thread die letzten Seiten durchlesen.
aufkrawall
2025-02-12, 13:23:06
Ich finds auch erstaunlich, wie viel besser K als J ist. In Kena gibts mit J in den Baumkronen die ganze Zeit temporal instabile Verpixelung. Mit K um Welten besser und Gesamtstabilität eindeutig besser als E, bei super klarem Bewegtbild. Schon ein Träumchen.
basix
2025-02-12, 13:48:37
Ich finds auch erstaunlich, wie viel besser K als J ist. In Kena gibts mit J in den Baumkronen die ganze Zeit temporal instabile Verpixelung. Mit K um Welten besser und Gesamtstabilität eindeutig besser als E, bei super klarem Bewegtbild. Schon ein Träumchen.
Ich bin gespannt, wann L kommen wird und was dort die Verbesserungen sein werden. Neben weiteren Verbesserungen bei filigraner Geometrie wäre RR mit etwas weniger Unschärfe/Ghosting noch was und dass UP endlich mit P mithalten kann. P ist erstaunlich nahe an Q und sogar DLAA dran. UP ist sehr weit weg von P. RR hat zudem immer noch ein paar Probleme / Bugs mit Spiegelungen, welche zum Teil schlimmer sind als beim CNN Modell.
Platos
2025-02-12, 14:58:01
Frage:
Habs versucht im Thread nachzulesen, aber nicht richtig gefunden:
Was ist denn nun so die beste Methode, um DLSS und Framegen-Versionen auszutauschen (inkl. mit den Presets verstellen) ? Immer noch DLSS Tweaks oder gibts da mittlerweile was besseres ?
Und ist das verbesserte Framegen (nicht MFG) nun einfach in Form einer neuen .dll verfügbar z.b bei Techpowerup ? Selbe Frage für DLSS 4 Upscaler mit dem Transformer-Model ?
robbitop
2025-02-12, 15:01:37
Also ich nutze den DLSS Swapper zum Austausch der DLL pro Spiel und den NVinspector um das preset K global zu erzwingen. Bin sehr zufrieden damit. :)
aufkrawall
2025-02-12, 15:13:39
Also ich nutze den DLSS Swapper zum Austausch der DLL
Was mit dem neuen DLL Override im Inspector unnötig ist.
Platos
2025-02-12, 15:15:09
Also ich nutze den DLSS Swapper zum Austausch der DLL pro Spiel und den NVinspector um das preset K global zu erzwingen. Bin sehr zufrieden damit. :)
Danke, funktioniert super! DLAA kann man da glaube ich auch, so wie es aussieht.
Gibts eig. mittlerweile sowas wie ein Ray Reconstruction-Erzwinger oder geht sowas nicht?
Lurtz
2025-02-12, 21:29:50
Gibts eig. mittlerweile sowas wie ein Ray Reconstruction-Erzwinger oder geht sowas nicht?
Bis auf ein paar UE5-Spiele, bei denen man es über die engine.ini erzwingen kann (mit Nebenwirkungen), geht das bisher leider nicht.
robbitop
2025-02-13, 07:27:08
Danke, funktioniert super! DLAA kann man da glaube ich auch, so wie es aussieht.
Gibts eig. mittlerweile sowas wie ein Ray Reconstruction-Erzwinger oder geht sowas nicht?
Laut DF (und die waren zu dem Thema ja mit CDPR und Nvidia zum RR Launch in Kolaboration und sind somit für mich da eine seriöse Quelle) ist RR für die Rekonstruktion von Informationen beim Raytracing. Je nach Setting sind es ja eine relativ begrenzte Anzahl an Strahlen so dass es am Ende stark rauscht und man in Reflektionen zB nicht genug details hat und RR greift da. Ohne RT kein RR.
Ich weiß dasss aufkrawall das anders sieht - aber bis dato spricht die Beschreibung von RR aus obigen Quellen nicht dafür.
Oder meinst du Erzwingen für Spiele die kein RT haben? Kann mir gut vorstellen, dass das nicht so einfach überstülpbar ist wie SR Presets weil da in der Renderpipeline noch andere Dinge betroffen sind.
robbitop
2025-02-13, 07:32:30
Bis auf ein paar UE5-Spiele, bei denen man es über die engine.ini erzwingen kann (mit Nebenwirkungen), geht das bisher leider nicht.
Wahrscheinlich weil da vieles über modulare plugins ein und ausknipsbar ist in UE.
aufkrawall
2025-02-13, 08:07:14
Ohne RT kein RR.
Ich weiß dasss aufkrawall das anders sieht - aber bis dato spricht die Beschreibung von RR aus obigen Quellen nicht dafür.
Oder du verstehst sie nur nicht richtig? RR nutzt ein wesentlich größeres NN für Denoising und Upsampling in einem. Wenn es keinen Noise gibt, bleibt das Upsampling halt trotzdem anders als mit den SR-only-Modellen. Das ist empirisch auch unzweifelhaft, wenn man jegliches RT (auch SWRT) via Config komplett deaktivieren kann (Unreal) und das Upsampling trotzdem wesentlich anders/besser aussieht als mit SR. Was Empirie ist und wie es gegenüber vermeintlich sicherer Theories zu gewichten ist, sollte man mit entsprechender Schul-/Berufsbildung ja eigentlich wissen.
robbitop
2025-02-13, 08:53:14
Oder du verstehst sie nur nicht richtig? RR nutzt ein wesentlich größeres NN für Denoising und Upsampling in einem. Wenn es keinen Noise gibt, bleibt das Upsampling halt trotzdem anders als mit den SR-only-Modellen. Das ist empirisch auch unzweifelhaft, wenn man jegliches RT (auch SWRT) via Config komplett deaktivieren kann (Unreal) und das Upsampling trotzdem wesentlich anders/besser aussieht als mit SR. Was Empirie ist und wie es gegenüber vermeintlich sicherer Theories zu gewichten ist, sollte man mit entsprechender Schul-/Berufsbildung ja eigentlich wissen.
Ich finde deine Beiträge inhaltlich echt gut aufkrawall (viel Substanz, immer inhaltlich interessant, extrem genau und kritisch -> das hat meistens richtig guten Informationsgehalt :up:) - aber die herablassende Art ist unnötig. Ich weiß auch so, dass du was drauf hast. Und die Arroganz zieht es ehrlich gesagt immer wieder runter. ;) Und du weißt auch, dass ich nicht auf den Kopf gefallen bin oder ungebildet bin. Warum also solche Spitzen? IMO unnötig und auch nicht förderlich für konstruktiven Dialog.
In diesem Fall habe ich diese spezifische Emperie nicht, weil ich das nicht getestet hab und auch von diesen Tests nirgends gelesen habe. Entsprechend kannst du das nicht voraussetzen. :) Hast du dazu mal ein Posting verfasst bzw diese Erkenntnisse irgendwo (idealerweise mit Bildern) veröffentlicht (kann ja sein dass ich die übersehen habe)? Falls du da auf ein Posting oder eine Quelle verweisen kannst, wäre ich dir sehr dankbar. (aber das ist nicht die Erwartungshaltung - lediglich Neugier)
Nun zum Kontext:
Das war mir noch nicht bekannt und danke dafür. Für den Fund in UE5 könnte es (mir fallen zwar keine ein aber das muss nichts heißen - ich bin kein Dev) Gründe geben. Z.B dass doch nicht alles aus ist obwohl man alles an RT ausgemacht hat (da spacken Spiele ja schon ab und an mal herum).
Geht RR zB auch in CP77 noch wenn man RT ausschaltet oder ist das nur Unreal?
Wenn es so ist, wie du vermutest, stellt sich mir die Frage warum man das bessere Modell nicht auch für SR nutzt. Insbesondere nun wo man SR (und RR) mit Transformer reformiert hat wäre das ja der ideale Zeitpunkt gewesen.
Weiterhin: Ist jetzt mit erzwungenem Transformer SR vs Transformer RR bei deaktiviertem RT das immer noch so?
aufkrawall
2025-02-13, 09:07:16
Ich finde deine Beiträge inhaltlich echt gut aufkrawall - aber die herablassende Art ist unnötig.
Ne. Ich möchte konkret inhaltlich entkräftet werden, und nicht ala "Aber viel schlauere Menschen haben sind wohl anderer Meinung, also ist deine Meinung wurst...". Das ist herablassend. Kommt leider alle paar Wochen von dir. Komm mir inhaltlich und nicht so, und dein Grund zur Beschwerde über den Ton wird sich in Wohlgefallen auflösen. Versprochen. Aber stell mich nicht als Schurken und dich als Opfer dar, man kann auch in scheinbar zivilisierten Worten absurde Dreistigkeiten verpacken...
Wenn es so ist, wie du vermutest, stellt sich mir die Frage warum man das bessere Modell nicht auch für SR nutzt. Insbesondere nun wo man SR (und RR) mit Transformer reformiert hat wäre das ja der ideale Zeitpunkt gewesen.
Wieso? Mit Transformer ist es doch noch teurer geworden. Ggf. ist damit auch der Performance-Abstand zwischen SR und RR noch weiter gestiegen. Und mit Spielen ohne hohen Anteil an der Frame Time durch RT und Denoising wird es entsprechend um so teurer. Nvidia scheint zu vertreten, dass das normale SR ausreichend ist und man für reines Upsampling/AA kein größeres NN braucht. Aber ein größeres NN (bei angenommener vergleichbarer Qualität pro Node) wird halt ~immer besser aussehen als ein kleineres, völlig egal was der Hersteller als Position zur PR vertritt. Und RR ist teurer, weil es größer ist.
robbitop
2025-02-13, 09:42:38
Ne. Ich möchte konkret inhaltlich entkräftet werden, und nicht ala "Aber viel schlauere Menschen haben sind wohl anderer Meinung, also ist deine Meinung wurst...". Das ist herablassend. Kommt leider alle paar Wochen von dir. Komm mir inhaltlich und nicht so, und dein Grund zur Beschwerde über den Ton wird sich in Wohlgefallen auflösen. Versprochen. Aber stell mich nicht als Schurken und dich als Opfer dar, man kann auch in scheinbar zivilisierten Worten absurde Dreistigkeiten verpacken...
Ich vermute, dass das (ggf ein grundsätzliches und damit systemisches) Missverständnis ist. Meine Äußerung, dass du das anders siehst ist keinesfalls negativ gemeint gewesen oder als "Herausforderung" oder als Negierung gemeint gewesen. Es ist lediglich eine Ergänzung (und nicht mehr als das) gewesen, dass du das anders siehst und wie der Kontext zu dem da ist was Nvidia und DF sagen. Informativ damit jeder sehen kann, dass es auch andere (wesentliche) Meinungen dazu gibt. Völlig ohne Hintergedanken oder Herausforderung.
Entsprechend kam für mich deine Reaktion unerwartet scharf herüber. Aber mit deiner Interpretation meines Postings ist die natürlich verständlich.
Und dass du anscheinend des öfteren meine Beiträge so (als dich herausfordern, dich zum Diskurs fordernd) empfindest zeigt, dass es hier offenbar ein systemisches Missverständnis gibt. Und das ist natürlich nachvollziehbar weil im geschriebenen Text Mimik, Gestik und Intonation fehlen und dann der Leser interpretiert. Und es kann natürlich auch sein, dass die Formulierungen (gerade wenn man nur Text hat) dann auch nicht ideal und eindeutig sind.
Water under the bridge? (auch systemisch?) :) Wie gesagt halte ich viel von deinen Beiträgen und suche absolut keinen Diskurs.
Wieso? Mit Transformer ist es doch noch teurer geworden. Ggf. ist damit auch der Performance-Abstand zwischen SR und RR noch weiter gestiegen. Und mit Spielen ohne hohen Anteil an der Frame Time durch RT und Denoising wird es entsprechend um so teurer. Nvidia scheint zu vertreten, dass das normale SR ausreichend ist und man für reines Upsampling/AA kein größeres NN braucht. Aber ein größeres NN (bei angenommener vergleichbarer Qualität pro Node) wird halt ~immer besser aussehen als ein kleineres, völlig egal was der Hersteller als Position zur PR vertritt. Und RR ist teurer, weil es größer ist.
Das ist ein guter Punkt mit der Performance (und auch der NN Größe). Hast du da mit RR on vs off vs SR deutliche Unterschiede gesehen wenn RT aus war (also auch nicht denoist wird)?
Was ist mit anderen Spielen, wo man RT ausstellt - gibt es dann immer noch RR als Option? ZB CP?
aufkrawall
2025-02-13, 09:48:10
Das ist ein guter Punkt mit der Performance (und auch der NN Größe). Hast du da mit RR on vs off vs SR deutliche Unterschiede gesehen wenn RT aus war (also auch nicht denoist wird)?
Ja, ohne HWRT. Ich werds mir mit besserer GPU aber nochmal in Hogwarts anschauen. Ich gehe davon aus, dass sich dort RT über die Config einfach komplett abschalten lässt (Fallback komplett auf UE4 Raster-Effekte) und RR ganz normal weiter als Upsampler/AA fungieren wird. Und anders/besser aussehen wird als das reguläre DLSS SR.
Was ist mit anderen Spielen, wo man RT ausstellt - gibt es dann immer noch RR als Option? ZB CP?
Afaik bietet kein Spiel RR an, wenn in den Optionen RT nicht aktiviert ist. Dafür brauchts Tricks wie Config-Anpassungen oder das Abschalten von HWRT via Inspector.
robbitop
2025-02-13, 09:53:30
Ja, ohne HWRT. Ich werds mir mit besserer GPU aber nochmal in Hogwarts anschauen. Ich gehe davon aus, dass sich dort RT über die Config einfach komplett abschalten lässt (Fallback komplett auf UE4 Raster-Effekte) und RR ganz normal weiter als Upsampler/AA fungieren wird. Und anders/besser aussehen wird als das reguläre DLSS SR.
Gab es denn auch Unterschiede in der Performance in Hogwarts mit SR vs RR? Was ja für deine Vermutung der Performancekosten des größeren NNs für RR relevant wäre.
aufkrawall
2025-02-13, 10:00:30
Gab es denn auch Unterschiede in der Performance in Hogwarts mit SR vs RR? Was ja für deine Vermutung der Performancekosten des größeren NNs für RR relevant wäre.
Das ist doch schon lange Fakt. In CP77 kann man es ab RT-Reflexionen einschalten, und dann reduziert es die fps etwas gegenüber dem normalen SR. Ergo nicht nur teurer als das reguläre SR, sondern auch als reguläres SR + Vanilla-Denoiser für Reflexionen kombiniert.
robbitop
2025-02-13, 10:13:53
Das ist doch schon lange Fakt. In CP77 kann man es ab RT-Reflexionen einschalten, und dann reduziert es die fps etwas gegenüber dem normalen SR. Ergo nicht nur teurer als das reguläre SR, sondern auch als reguläres SR + Vanilla-Denoiser für Reflexionen kombiniert.
Im Kontext von CP77 mit RT kommen doch die Kosten für den RR Denoiser dazu oder? Entsprechend wären die Mehrkosten (sofern es relevante Mehrkosten gibt) für das bessere SR Modell selbst (bzw für sich isoliert) ja nicht ermittelbar oder habe ich da einen Denkfehler?
Man müsste um diese zu ermitteln SR vs RR ohne jegliche Form von RT und Denoiser benchmarken. Bitte wenn ich da was übersehe gern sagen was. :)
aufkrawall
2025-02-13, 10:15:55
Nein, müsste man nicht. Weil ohne Vanilla-Denoiser RR prozentual noch mehr Leistung kosten würde. Das Vanilla-Denoising benachteiligt zusätzlich die Performance für das reguläre SR, und trotzdem ist es schneller. Was bedeutet, dass RR um so teurer ist.
robbitop
2025-02-13, 10:46:25
Entschuldige aber irgendwo hakt es in meinem Kopf noch.
Hier mal kurz was mir so durch den Kopf geht:
Es gab 2x 2023er Videos von DF zu dem Thema:
Hier mit Nvidia - timestamp mit dem Bild:
https://youtu.be/Qv9SLtojkTU?si=1DtRUknm5nAe5as8&t=819
Hier SR+FG+RR vs SR+FG - als RR ist der einzige Unterschied. Und RR ist schneller.
Aber die Komponente für das Denoising und das RR Upsampling bleibt hier anscheinend eine blackbox. Die Summe ist eine Frametimereduzierung was natürlich heißen kann dass RR Upsampling teurer ist und mehr als ausgeglichen durch das Denoising wird. Aber was wieviel ist unklar.
Hier das Video von Alex an der Stelle wo man Performanceunterschiede sieht:
https://youtu.be/hhAtN_rRuQo?si=pj8RF-OfCG0_F99T
RR ist schneller als ohne RR.
Ich bin mir jetzt unsicher. Du sagst es ist teurer wenn man es anschaltet:
In CP77 kann man es ab RT-Reflexionen einschalten, und dann reduziert es die fps etwas gegenüber dem normalen SR.
Gleichwohl sagst du dass das NN Denoising günstiger ist
Weil ohne Vanilla-Denoiser RR prozentual noch mehr Leistung kosten würde.
Und die DF Video zeigen einen net win in fps.
Für mich ist immer noch unklar (und ggf habe ich hier einen Knoten im Kopf?) wie man jetzt aus 2 Unbekannten ((a)Differenz NN Denoiser vs default denoiser + (b) Differenz RR-Upsampling vs SR-Upsampling) bestimmen kann wie sich (a) und (b) verhalten. Nach meinem dafürhalten haben wir in CP nur die Möglichkeit (a)+(b) gleichzeitig zu messen. Oder kann man RR auch ohne SR einstellen (habe das Spiel leider nicht)? Dann würde man tatsächlich (a) messen können und daraus auch (b) ableiten können.
Relex
2025-02-13, 10:52:54
Also so wie ich es verstehe und bisher gesehen habe:
Ray Reconstruction kostet grundsätzlich mehr als normales Super Resolution.
Aber, wenn das Spiel viel RT oder gar Pathtracing nutzt, dann nutzt das Spiel sehr viele Denoiser die performance kosten.
Nutzt man RR, werden diese denoiser von RR ersetzt, was dann meistens effizienter und schneller läuft, als die standard Denoiser + normales SR.
Kostentechnisch macht es also nur dann Sinn, RR einzuschalten, wenn es ne gewisse Mindestmenge an Denoising gibt, die damit ersetzt werden können. Erst dann wird es schneller.
Gibts im Spiel kaum bis gar nichts zu denoisen, ist RR eben teurer, weil der denoiser wahrscheinlich dann trotzdem arbeitet und/oder auch das Upscaling selbst schon aufwändiger ist.
aufkrawall
2025-02-13, 10:55:52
In CP77 kann man es ab RT-Reflexionen einschalten, und dann reduziert es die fps etwas gegenüber dem normalen SR.
Wenn ich volles PT gemeint hätte, hätte ich es auch geschrieben. Mit RT-Reflexionen-only reduziert RR die fps leicht, mit vollem PT bringt es leicht Performance (zumindest mit CNN, noch nicht mit Transformer getestet).
Jetzt kannst du mir vorwerfen, dass ich das nicht explizit ausgeführt habe. Hatte ich aber in der Vergangenheit schon gemacht, ich muss mich auch nicht ständig wiederholen.
-> RR kostet ohne hohe Vanilla-Denoiser-Last, die durch RR wegfällt, Leistung gegenüber dem regulären SR-Modell. Einfach nur ganz eindeutig.
weil der denoiser wahrscheinlich dann trotzdem arbeitet und/oder auch das Upscaling selbst schon aufwändiger ist.
In einem DF-Interview sagte Bryan Catanzaro afair (ich würde jetzt aber nicht meinen Arm drauf verwetten), dass RR Denoising und Upsampling in einem Schritt vornimmt, das also gar nicht zu trennen ist. Das gleiche Modell macht hier also beides gleichzeitig. Ist kein RT-Noise vorhanden, gibts halt nur Upsampling durch das Modell. Also immer noch Upsampling durch ein anderes/größeres Modell als beim regulären SR, ergo auch (insbesondere) ohne RT wesentlich teurer. Das RR-Modell analysiert/verrechnet auch ohne RT-Noise aufwendiger/mit mehr Nodes vs. reguläres DLSS SR. Weshalb ich auch davon ausgehe, dass Transformer-RR auch ohne RT bei der Schrott-Vegetation in Hogwarts weniger Disocclusion-Probleme haben wird als reguläres Transformer-SR.
robbitop
2025-02-13, 11:03:19
Ahhh. OK. Jetzt macht es für mich Sinn. Mir war der Kontext mit PT und Reflexionen und dessen Differenzierung irgendwie nicht klar. :)
Und nein ich wollte dir keine Vorwürfe machen. Warum gehst du sofort davon aus, dass ich dich in irgendeiner Form angehen will? :D
Aus meiner Sicht: Ist doch gerade (zumindest für mich) eine super interessante, lehrreiche Konversation. Zumindest bei mir nur positive vibes gerade.
Wenn du das schonmal gepostet hast, muss ich es übersehen haben. Daher auch die Fragen. :)
robbitop
2025-02-13, 11:10:05
Weiterführende Frage: nur RT Reflexionen vs Pathtracing. Ja die RT Last steigt. Aber wird dann auch mehr denoist? Ich hätte (naiv) angenommen, dass das ganze Bild denoist wird und dementsprechend der Denoiser Anteil der Frametime unabhängig von der RT Last (auflösungsnormiert) statisch bleibt. Falls das falsch ist würde ich mich über Input freuen, wenn es jemand weiß :)
Relex hat es angedeutet - aber ist das wirklich so? (hinterfrage es ohne es kritisch zu meinen)
Was RT Last erhöht ist ja auch die Auslastung der SMs und dessen Register. Bei PT sicherlich eher an der Kotzgrenze als bei leichtem RT. Ggf. verschiebt das auch irgendeine Performance Charakteristik?
Um einen Weg für die Bestimmung der Delta Frametimekosten des Denoisers und des RR Upsamplings zu bestimmen weitere Fragen (falls es jemand weiß):
Kann man RR auch ohne DLSS-SR nutzen oder ist das immer aktiv?
Ansonsten wäre sicherlich eine Messung ohne dass irgendein Denoiser aktiv ist am saubersten sein. :)
Relex
2025-02-13, 11:16:08
So wie ich es in dern ganzen Videos von DF und Nvidia damals verstanden habe, gibt es beim Pathtracing unzählige verschiedene Denoiser die per hand eingestellt werden. Also das war definitiv die Aussage.
Also werden vermutlich (!) für verschiedene Oberflächen oder effekte verschiedene Denoiser genutzt.
Vielleicht ein anderer Denoiser für eine spielgende Oberfläche und wieder ein anderer Denoiser für Bounce light und wieder ein anderer für Ambient Occlusion usw.
Das heißt also je mehr verschiedene RT Effekte zusammenkommen, desto mehr verschiedene Denoiser werden genutzt.
Mit RR werden aber alle denoising szenarien vom DLSS RR algorithmus behandelt und die standard Denoiser alle ersetzt.
Wenn man jetzt ein spiel hat, das kein pathtracing nutzt, sondern nur ein paar spielgende Reflexionen, dann ist das Denoising sicherlich recht günstig. Da es wahrscheinlich nur einen Denoiser für die Spielgenden flächen braucht und diese wohl auch recht wenig vom Bild einnehmen.
Hier kann man also wohl recht günstig denoisen womit sich RR u.U. noch nicht lohnt.
EDIT: Hier ist das Video. Da sollte glaube ich / hoffe ich alles an infos drinstecken. Ist aber bei mir auch schon lange her
EDIT2: Jap, das ist das richtige Video. Er erwähnt sogar die Frametimekosten und die Tatsache, dass RR unabhängig vom Input immer gleich viel kostet. (also ist so gesehen das Denoising offensichtlich immer aktiv und kostet performance, auch wenn es nichts zu denoisen gibt bzw. genauer gesagt ist es immer das gleiche AI Model und eine differnezierung zwischen Denoising und Upscaling damit eh nicht möglich)
Qv9SLtojkTU
OK, ich sehe gerade, dass du das Video schon verlinkt hattest. My bad. Ich übersehe ohne Bildchen irgendwie immer zu viel :D
robbitop
2025-02-13, 11:22:54
So wie ich es in dern ganzen Videos von DF und Nvidia damals verstanden habe, gibt es beim Pathtracing unzählige verschiedene Denoiser die per hand eingestellt werden. Also das war definitiv die Aussage.
Also werden vermutlich (!) für verschiedene Oberflächen oder effekte verschiedene Denoiser genutzt.
Vielleicht ein anderer Denoiser für eine spielgende Oberfläche und wieder ein anderer Denoiser für Bounce light und wieder ein anderer für Ambient Occlusion usw.
Das heißt also je mehr verschiedene RT Effekte zusammenkommen, desto mehr verschiedene Denoiser werden genutzt.
Mit RR werden aber alle denoising szenarien vom DLSS RR algorithmus behandelt und die standard Denoiser alle ersetzt.
Wenn man jetzt ein spiel hat, das kein pathtracing nutzt, sondern nur ein paar spielgende Reflexionen, dann ist das Denoising sicherlich recht günstig. Da es wahrscheinlich nur einen Denoiser für die Spielgenden flächen braucht und diese wohl auch recht wenig vom Bild einnehmen.
Hier kann man also wohl recht günstig denoisen womit sich RR u.U. noch nicht lohnt.
Wenn das wirklich so ist (ich habe das mit den Handgetunten Denoisern nicht so verstanden - aber es ist auch eine Weile her und es muss nichts heissen), dann ist das schlüssig. Ggf. noch weitere Einsichten zu dem Thema? :)
dank zwischenzeitlicher edits und Recherche von Relex hat sich das erübrigt :up:
aufkrawall
2025-02-13, 11:52:33
EDIT2: Jap, das ist das richtige Video. Er erwähnt sogar die Frametimekosten und die Tatsache, dass RR unabhängig vom Input immer gleich viel kostet. (also ist so gesehen das Denoising offensichtlich immer aktiv und kostet performance, auch wenn es nichts zu denoisen gibt bzw. genauer gesagt ist es immer das gleiche AI Model und eine differnezierung zwischen Denoising und Upscaling damit eh nicht möglich)
Gut, dass wir da nochmal ein Fact Checking haben. :up:
robbitop
2025-02-13, 12:00:06
OK also war meine naive krude Vorstellung sogar in dem Fall korrekt. (Zufall aber X-D) Was dann aber bedeutet, dass wir die Kosten für RR-SR nur feststellen können wenn man den denoiser ausmachen kann (also ein Spiel ohne RT / mit abschaltbarem RT - wobei auch da die Frage ist: ist dann mit der ganzen Trickserei in ini files und im inspector der denoiser auch wirklich aus? :D).
Und die Frage ist auch welche Implikationen es für die BQ hat, sollte auch ohne RT noch ein Standard Denoiser vs NN Denoiser laufen (was bis jetzt noch ein Stück weit unklar ist zugegeben ^^) und man dann RR-SR vs SR vergleicht.
aufkrawall
2025-02-13, 12:17:48
RT Noise ist vermutlich ziemlich gut zu erkennen und somit von gewollten Bildinhalten für den Algorithmus unterscheidbar.
DLSS SR CNN filtert Überbleibsel von regulären Denoisern ziemlich gut weg, zumindest gegenüber TAA, FSR und TSR, und kann dabei trotzdem oft mehr gewollte Details erhalten.
Relex
2025-02-13, 12:21:59
Ich denke mal, bei jeder Art von Super Resolution ist etwas Denoising im Spiel. Denn technisch gesehen ist es ja reine Signalaufbereitung. Man hat ein schlechtes Signal mit vielen Störungen und will daraus ein besseres Signal mit weniger Störungen erzeugen. Das Grundproblem wird sich da bei RR und SR vermutlich gar nicht sooo stark unterscheiden.
Denn das Rohbild hat ja auch ohne Raytracing idr. unzählige Aliasing und Specular flimmer Artefakte, die dann erstmal gefiltert werden müssen.
aufkrawall
2025-02-13, 12:25:59
Guter Punkt. Zumal sich die RT Noise-Patterns ja auch je nach Algorithmus (Lumen...) stark unterscheiden können. Da sollte sich der Algorithmus mit dem Fehlen von Noise in einigen Bildbereichen nicht aus dem Tritt bringen lassen, wenn vermutlich eh schon sehr variable Inputs korrekt verarbeitet werden müssen.
Wenn das wirklich so ist (ich habe das mit den Handgetunten Denoisern nicht so verstanden - aber es ist auch eine Weile her und es muss nichts heissen), dann ist das schlüssig. Ggf. noch weitere Einsichten zu dem Thema? :)
Beim Hybridrendering aus Raster + RT-Effekte wird in der Regel jeder Effekt in einen eigenen Buffer gerendert.
Je nach Effekt kann man dann unterschiedliche auf den jeweilige Zweck angepasste Denoiser verwenden.
Beispielsweise kann man den Buffer für GI ziemlich stark blurren um Noise zu unterdrücken ohne dass es negativ auffällt, ähnliches für AO. Beim Buffer für Specular Reflections braucht man eine andere Strategie, da würde der blurr doch negativ auffallen. Für Shadows eher einen Hybriden, da braucht man sowas wie eine Kantenerkennung, damit die Ränder der Schatten erkennbar bleiben, aber innerhalb des Schattens kann man auch einfach stark blurren.
Wobei das jetzt gar nicht so viel mit RT zu tun hat, auch wenn die Buffer durch SSR, SSAO oder Shadowmaps befüllt wurden, verwendet man beim Kombinieren der einzelnen Buffer unterschiedliche Filter.
"Volles" Pathtracing macht es insofern komplizierter angepasste Denoiser zu verwenden, da man hier nicht mehr einzelne Effekte sondern quasi Lichtwege berechnet, das Endergebnis hängt dann nicht mehr vom berechneten Effekt, sondern vom Inhalt ab. Man kann das zwar auch noch mit einzelnen Effekten kombinieren, z.B. Reflections werden üblicherweise noch extra berechnet, aber im Grunde hat man hier eine Lösung für (fast) alles.
Mordekai2009
2025-02-14, 19:30:07
Grad Forza Motorsport 2023 mit DLSS 4 in Mehrspielerrennen getestet. Null und gar nicht von Kantenflimmern zu sehen, auch außerhalb von TAA/DLSS und so. Turn10 hat es einfach heimlich den Kantenflimmern rausgepatcht, kein Vermerk in den Release Notes. Mit DLSS 4 SR Preset K forciert über Nvidia Inspector. Ein deutlich schärferes und ruhiges Bild.
Shaft
2025-02-14, 19:58:09
Aha, letzten noch mit DLSS 4 Mod getestet. Der Unterschied war schon enorm.
Deutlich Schärfer und Ghosting armer, hier und da aber noch Flimmern.
Evtl haben sie es besser integriert, kann es aber nicht mehr, längst von deinstalliert.
Mordekai2009
2025-02-15, 15:34:49
Immer noch flimmern? Ich finde keins!
Platos
2025-02-20, 09:56:25
Gibt eig. mittlerweile ne (gratis) Möglichkeit, MFG trotzdem irgendwie auf RTX 4000 Grakas zu nutzen?
Bzw. gibts ne Möglichkeit, MFG irgendwie zu nutzen in Spielen, wo es nur "normales" nvidia framegen gibt ?
robbitop
2025-02-20, 10:02:06
Gibt eig. mittlerweile ne (gratis) Möglichkeit, MFG trotzdem irgendwie auf RTX 4000 Grakas zu nutzen?
Bzw. gibts ne Möglichkeit, MFG irgendwie zu nutzen in Spielen, wo es nur "normales" nvidia framegen gibt ?
Ich vermute stark, dass das (mittelfristig) nicht passieren wird. MFG ist eine der Hauptdifferenzierungsmerkmale von Blackwell und Nvidia möchte ja GPUs verkaufen.
Entsprechend ist auch zu vermuten, dass das schon so eingerichtet sein wird, dass man das nicht so einfach hacken kann.
Ich denke mal dass mittelfristig FSR4 FG ggf auch höhere Faktoren anbeiten wird - entsprechend wird es dann den Ada Usern so gehen wie jetzt den Ampere usern: Optiscalermod nutzen und DLSS FG auf FSR FG umleiten (man kann DLSS Upsampling und Reflex weiterhin nutzen).
basix
2025-02-20, 19:13:50
Gibt eig. mittlerweile ne (gratis) Möglichkeit, MFG trotzdem irgendwie auf RTX 4000 Grakas zu nutzen?
Bzw. gibts ne Möglichkeit, MFG irgendwie zu nutzen in Spielen, wo es nur "normales" nvidia framegen gibt ?
Ja, wenn du dem System vorgaukelst dass deine 40er Karte eine 50er Karte ist ;)
Ist nicht so praxistauglich. Möglich ist es aber, gab schon Beispiele von Leuten die das gemacht haben.
aufkrawall
2025-02-20, 19:15:42
Darauf braucht man keine Zeit zu verschwenden, so lange es keinen Mod gibt, der das Frame Pacing für 3x und 4x MFG fixt.
Darauf braucht man keine Zeit zu verschwenden, so lange es keinen Mod gibt, der das Frame Pacing für 3x und 4x MFG fixt.
Die Hardware dafür in Blackwell wird schon ihren Zweck haben.
DrFreaK666
2025-02-21, 07:28:25
3nfEkuqNX4k
Relex
2025-02-21, 10:26:48
Beim Super Resolution kann ich dem video beim besten Willen nicht zustimmen.
Alleine schon, dass er mit aktivem Scharfzeichner getestet hat und dann behauptet, Nvidia würde nur mehr scharfzeichnen und es wäre nur ein kleines Upgrade.
Was für ein Witz. Wenn das ausgegebene Bild weniger Unschärfe hat, dann sieht selbst minimales scharfzeichnen direkt überschärft aus. Das liegt in der Natur der Sache.
Der Qualitätsunterschied zwischen DLSS3 und 4 ist einfach gewaltig.
Bzgl. Frame Gen hat er aber Recht. Die Methodik, MFG mit 30 FPS zu testen ist zwar völliger Unsinn, aber grundsätzlich zeigt DLSS4 FG bei den generierten Frames deutlich mehr Artefakte und auch mehr Unschärfe.
Wo DLSS4 vorher ein Performanceproblem hatte, hat es jetzt ein Qualitätsproblem.
In Horizon Forbidden West ist die Qualität der generierten Frames mit FSR FG z.B. deutlich höher. Aber das gilt umso mehr für DLSS3 FG.
Ich persönlich tu mich trotzdem verdammt schwer, die Artefakte durch FG in Bewegung zu sehen. Das hab ich schon zu DLSS3 FG und auch FSR FG gesagt. Vor allem weil Artefakte ja meistens Konturen aus dem vorherigen frame sind und daher grundsätzlich nicht komplett fehl am Platz sind, wie z.B. Aliasing oder flimmern usw.
Daher hab ich auch erstmal kein Problem, DLSS FG oder auch FSR FG zu nutzen.
Trotzdem hoffe ich, dass Nvidia da nochmal nachbessert. Denn eigentlich erwartet man bessere und nicht schlechtere Qualität. Das kann und darf nicht der Anspruch sein. Je schlechter die Qualität, desto mehr muss man sich den Vorwurf "Fake Frames" auch gefallen lassen. Erstrecht, wenn man mit MFG 75% der Zeit solche Bilder darstellt.
Lurtz
2025-02-21, 11:51:15
Native should never look worse than an upscaled lower resolution and game developers should not be complicit. They should be ashamed for letting this happen. Games should always let the user turn off AA if not include multiple AA options. At 4k the pixel density is such that it barely has a practical impact anyway.
Wat.
Relex
2025-02-21, 12:17:06
Hahaha, for sure ;D
Achill
2025-02-21, 12:38:48
Wat.
Wenn schon richtig quoten inkl. Timestamp von wo im Video ...
[..]
26:06 > seeing CNN the Transformer as a brief aside on dlss versus forced
26:12 > anti-aliasing we had some thoughts on that it wasn't the intent of the piece but here they are cyberp Punk exhibited
26:18 > horrible temporal stability issues at Native that super resolution cleared up native should never look worse than an
26:25 > upscaled lower resolution and game developers should not be complicit they
26:30 > should be ashamed for letting this happen Games should always let the user turn off anti-aliasing if not include
26:38 > multiple AA options at 4K the pixel density is such that it barely has a
26:44 > practical impact anyway
[..]
Und jetzt können wir nochmal reflektieren, das ist das Spiel wo NV Team(s) aktiv mitarbeiten, wo FSR2 mal ohne starkes Ghosting ging aber seit Einführung von XeSS es defekt ist und nicht repariert wird. Das Spiel was zuerst für NV's RT + DLSS und später für NV's PT wie ein Leuchtturm präsentiert wird. Und jetzt hat "normales aka native" TAA schwächen, was sind die Auswirkungen im Context von TAA vs. DLSS vs MFG Vergleiche (schon in der Vergangenheit und jetzt) ... ?
aufkrawall
2025-02-21, 13:02:57
TAA entwickelt sich ewig nicht weiter und wird immer öfter auch mit nativ 4k massiv schlechter gegen neueres ML-TAAU aussehen.
Wird auch mit FSR 4 auf einmal kein Hahn mehr nach krähen, falls es was taugt...
Ich hatte mir gestern 20s vom Fazit angehört, dann Downvote gegeben und Video geschlossen. Er sollte besser bei Hardware-Tests bleiben.
Lurtz
2025-02-21, 13:36:13
Wenn schon richtig quoten inkl. Timestamp von wo im Video ...
Und jetzt können wir nochmal reflektieren, das ist das Spiel wo NV Team(s) aktiv mitarbeiten, wo FSR2 mal ohne starkes Ghosting ging aber seit Einführung von XeSS es defekt ist und nicht repariert wird. Das Spiel was zuerst für NV's RT + DLSS und später für NV's PT wie ein Leuchtturm präsentiert wird. Und jetzt hat "normales aka native" TAA schwächen, was sind die Auswirkungen im Context von TAA vs. DLSS vs MFG Vergleiche (schon in der Vergangenheit und jetzt) ... ?
Die Aussage bleibt auch im Kontext sinnlos, ebenso wie einige andere.
Und klar kann man ganz doll mit dem Fuß aufstampfen und in den Ragechor einstimmen, dass Videospiel-Entwickler alle faul, dumm und peinlich sind, aber wenn man nicht einsehen will, dass eine Machine Learning-Firma wie nVidia eben selbst upscaled mehr Bildqualität rausholen kann als ein Videospielentwickler, bewegt man sich halt zunehmend in postfaktischen Aussagen.
Aber gut, das ist ja modern und erfolgreich, insofern...
Platos
2025-02-21, 13:41:41
Bzgl. Frame Gen hat er aber Recht. Die Methodik, MFG mit 30 FPS zu testen ist zwar völliger Unsinn, aber grundsätzlich zeigt DLSS4 FG bei den generierten Frames deutlich mehr Artefakte und auch mehr Unschärfe.
Wo DLSS4 vorher ein Performanceproblem hatte, hat es jetzt ein Qualitätsproblem.
Mit 30FPS ist es numal je nach Bewegungsgeschwindigkeit einfach extrem schwierig bis unmöglich, da qualitat was hochwertiges zu zaubern. Und ich meine jetzt mal ganz unabhängig von irgendwelchen Latenzstreitereien.
Also mit der Maus in FPS games, wo die Kiddies die Mausempfindlichkeit viel zu hoch eingestellt haben, ist sowas natürlich unmöglich. Aber selbst mit nem Controller dürfte es von Vorteil sein, wenn man eher so im Bereich 40-60FPS ist.
Ich denke mit 40-60 FPS echten Frames sollte Framegen rein von der Optik her bei Controllergeschwindigkeit genug gut sein. Probleme kanns dann noch bei speziellen Animationen geben, die von der Bewegungsgeschwindigkeit unabhänig ist (also irgendwelche Kampfanimationen oder sowas wie z.B das an Hochhäuser Hochlaufen bei Spiderman).
Mit 60FPS Input sollte das aber gut gehen, denke ich. Mit 60FPS Input und MFG 4x könnte man dann auch nache 240FPS kommen (wenn man das denn will).
Also kurz gesagt: MFG bzw. Framegen im Allgemeinen ist nur dazu da, um die Framerate auf hohe Zahlen zu bringen und nicht, um die Grafikdetails zu erhöhen, um dann mit niedrigeren Baseframeraten zu starten. Aber das war ja schon immer so.
Aber es war ja auch klar: Immer dort, wo Framegen Fehler im Frame erzeugt, wird MFG 3x mehr Frames mit Fehler erzeugen, die dann natürlich länger sichtbar sind und somit eher auffallen. Aber das war doch schon von anfang an klar. Also wenn Framegen saubere Frames erzeugt, dann sollte auch MFG das tun. Man muss also so viel echte frames haben, so dass es keine Fehler gibt (wer hätte es gedacht...).
Wenn man Framegen mit weniger echten Frames ohne Fehler nutzen will, müsste man fast jegliche Bewegungsabläufe eines Spiel trainieren, so dass der Algo schon "weiss", welche Bewegung zu was für einer Animation führen wird, so dass man das dann sofort erzeugen kann. Also eig. gehts dann weg vom simplen Interpolieren/Upscalen mit Vergleichen von 2 (oder mehr) frames, hin zu Algos, die "wissen", wie etwas im Spiel aussehen muss, weil man quasi jede mögliche Animation bzw. jede mögliche Textur trainiert hat beim Training.
Troyan
2025-02-21, 15:05:47
Wat.
Hat der Typ das gesagt?
Diese Youtuber sind Idioten, aber dank Youtube bekommt man so eine Reichweite, dass diese Leute den dümmsten Scheiß in die Kamera labern können und trotzdem noch abgefeiert werden.
Wie viele Bilder eine GPU erstellt, lässt sich objektiv messen. Das kann jeder. Wie eine GPU ein digitales Rasterbild erstellt, ist weitaus komplexer. Das zeigt sich auch bei der Diskussion um FG. Da wird eben ignoriert, dass die Bildschärfe eben nicht nur vom Bildinhalt sondern auch von der Anzeigedauer abhängt.
redpanther
2025-02-21, 15:12:35
X4 Foundations hat mit Großem Update 7.5 u.a. DLSS bekommen:
New Feature: Support for FSR3 and DLSS.
Exxtreme
2025-02-21, 15:28:26
Hat der Typ das gesagt?
Diese Youtuber sind Idioten, aber dank Youtube bekommt man so eine Reichweite, dass diese Leute den dümmsten Scheiß in die Kamera labern können und trotzdem noch abgefeiert werden.
Ein Scheiss ist das pauschal jetzt nicht. Es ist so, DLSS/FSR2+ ist so gesehen auch nichts Neues. Eine Sparversion davon haben einige Spielentwickler davor schon gemacht. Sie haben Texturen untersampelt und TAA dazu benutzt um die entstehende Unschärfe zu fixen, zumindest für Screenshots. In Bewegung zermatscht das weiterhin extrem weil TAA bei Texturen auch nicht so viel tun kann. DLSS/FSR2+ ist mehr oder weniger eine konsequente Fortführung dieses Verfahrens. Von daher kann das schon sein, dass ein Bild nativ viel schlechter aussieht als mit TAA/DLSS/FSR2+ wenn die Entwickler den Content um diese Verfahren herum designen.
Troyan
2025-02-21, 15:32:53
Ein Scheiss ist das pauschal jetzt nicht. Es ist so, DLSS/FSR2+ ist so gesehen auch nichts Neues. Eine Sparversion davon haben einige Spielentwickler davor schon gemacht. Sie haben Texturen untersampelt und TAA dazu benutzt um die entstehende Unschärfe zu fixen, zumindest für Screenshots. In Bewegung zermatscht das weiterhin extrem weil TAA bei Texturen auch nicht so viel tun kann. DLSS/FSR2+ ist mehr oder weniger eine konsequente Fortführung dieses Verfahrens. Von daher kann das schon sein, dass ein Bild nativ viel schlechter aussieht als mit TAA/DLSS/FSR2+ wenn die Entwickler den Content um diese Verfahren herum designen.
Ja, aber es wird sich ja beschwert, dass dies nicht sein dürfte. Das ist genau dieses Problem hier.
Erinnert mich an früher, wo nVidia 4xOGMSAA und ATi 4xRGMSAA hatte und ATi ein bessere Ergebnis geliefert hat. Technisch sind es jeweils vier Abtastsamples pro Pixel, aber die RG-Verteilung hat eine bessere Qualität geliefert.
aufkrawall
2025-02-21, 15:41:55
Es erinnert nicht nur, es ähnelt stark. DLSS kann wesentlich gleichmäßiger alle Aspekte des Renderings supersamplen als der Rest, wodurch das reale Sample/Pixel-Verhältnis mit DLSS wesentlich besser ist. Dann gibts halt noch Abzüge für andere Grafikfehler, die es mit TAA aber auch gibt (je nach Fall unterschiedlich). Die Frage, ob nativ oder nicht, ist irrelevant. Bzw. spiegelt sich auch nur mehr oder weniger indirekt im zuvor Beschriebenen wider.
Oliver_M.D
2025-02-21, 16:12:29
Fake Frame Image Quality (https://youtu.be/3nfEkuqNX4k)Mir hat der Titel des Videos schon gereicht, daher habe ich es auch nicht gesehen und kann nicht mehr dazu sagen.
Für mich bleibt sowas aber einfach nur kindisches Clickbait-Getue, und damit hat sich's für mich auch sofort erledigt.
Kann verstehen wenn Leute FG mit Frame-vs-Frame-Vergleichen beurteilen wollen, in Bewegung geht das ganze objective ja etwas schwer.
Am Ende bleiben diese Vergleiche für mich aber trotzdem etwas bescheuert und relative sinnfrei.
Ich nutze FG extrem selten, einfach weil ich momentan keinen Nutzen dafür habe. Wenn ich es aber mal benutzt habe (Darktide), war ich ziemlich zufrieden damit.
Für meine Augen passt das ganze, und Between-Frames-Vergleiche bringen mir fürs direkte spielen nix, vor allem nicht wenn das Ganze mit 30 FPS als Grundbasis 'getestet' wird...
Bin bei dem Thema wie gesagt alles andere als ein Experte, aber am Ende zählt für mich hauptsächlich was ich im Gameplay auch sehe, und das ist besonders im Falle Preset J/K sehr beeindruckend.Alleine schon, dass er mit aktivem Scharfzeichner getestet hat und dann behauptet, Nvidia würde nur mehr scharfzeichnen und es wäre nur ein kleines Upgrade.Wenn ich sowas schon lese, frage ich mich was da sonst noch für Fauxpas im Gange sind. Wette, er würde das mit dem üblichen 'We test like the user would' Argument kontern.
Das wäre für mich dann aber ein Problem der Entwickler, nicht der Nutzer oder der Upscaling-Algorithmen.
Die Entwickler müssen halt dran denken und es ausschalten, damit der Nutzer die beste Erfahrung mit jeder Technik machen kann.
aufkrawall
2025-02-21, 16:20:10
Das mit dem Scharfzeichnen ist schon arger Stuss. Ich hatte in Kena das UE Tonemapper Sharpen via Config deaktiviert, und da war es mir mit K ohne Sharpen noch eher leicht zu soft mit Performance-Upsampling.
Auch mal in Skyrim mit K Quality reingezoomt: 0 Ringing (und Hochkontrastkanten btw. wesentlich glatter als mit E)
https://s20.directupload.net/images/250221/temp/d79o7hvr.png (https://www.directupload.eu/file/d/8837/d79o7hvr_png.htm)
Wesentlich bessere Quelle für Upsampler-Vergleiche als GN oder HWUB:
https://www.youtube.com/@S2GamesBench
Einfach Fakten ohne BS-Gequake.
basix
2025-02-21, 18:13:41
Wesentlich bessere Quelle für Upsampler-Vergleiche als GN oder HWUB:
https://www.youtube.com/@S2GamesBench
Einfach Fakten ohne BS-Gequake.
Danke für den Link. Top Vergleiche findet man dort ;)
Relex
2025-02-21, 18:43:21
Hab mal DLSS4 Ray Reconstruction in Indy ausprobiert.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13711384#post13711384
Kleiner Teaser:
https://i.ibb.co/20BdjmR3/RR01.png (https://ibb.co/WN1fcq7v)
Lurtz
2025-02-22, 11:43:02
I4Q87HB6t7Y
Sie attestieren DLSS4 trotz mancher Regression eine Performance-Anhebung per Software von etwa 15% (qualitätsnormiert). TAA-Blur ist damit gefixt, eine Analogie wäre, dass DLSS4 4k Gaming mit Ultra-Textures repräsentiert, während DLSS3 dem gegenüber wie 1440p Gaming mit High-Textures wirkt.
Die Texturschärfe ist so viel besser, insbesondere in Bewegung, dass selbst DLSS4 4k Performance besser als TAA Native oder DLSS3 DLAA aussieht.
Außerdem meinen sie FSR4 müsste DLSS4 näher kommen, als DLSS3, um kompetitive zu bleiben, und ein Problempunkt bleibt eben der Support in Spielen.
Relex
2025-02-22, 14:33:07
ENDLICH mal jemand, der sich richtig damit auseinandersetzt und auch ordentliche Bildvergleiche bieten kann. Sowohl was die gewählten Ausschnitte als auch die Aufnahmequalität betrifft.
Im Vergleich sieht man was für ein Müll das Gamersnexus Video im Vergleich war, wo sie nur stark komprimiertes Videomaterial genutzt haben...
ChaosTM
2025-02-22, 15:37:14
ENDLICH mal jemand, der sich richtig damit auseinandersetzt und auch ordentliche Bildvergleiche bieten kann. Sowohl was die gewählten Ausschnitte als auch die Aufnahmequalität betrifft.
Im Vergleich sieht man was für ein Müll das Gamersnexus Video im Vergleich war, wo sie nur stark komprimiertes Videomaterial genutzt haben...
Ja du kamst mir zuvor. Wirklich guter Vergleich.
Kann wohl auch aufkrawall nicht drüber meckern.
DrFreaK666
2025-02-22, 15:39:28
Schon sehr nice.
FSR4 wird im besten Fall irgendwo dazwischen liegen
Sardaukar.nsn
2025-02-22, 16:14:30
...Die Texturschärfe ist so viel besser, insbesondere in Bewegung, dass selbst DLSS4 4k Performance besser als TAA Native oder DLSS3 DLAA aussieht...
Ich hab in den letzten Tagen viel Warhammer 40k SM2 gespielt, über den NVinspector auf die aktuelle Version gebracht. Top Anleitung hier: https://www.hardwareluxx.de/community/threads/dlss-4-0-transformer-model-in-allen-dlss-spielen-aktivieren-funktioniert-f%C3%BCr-alle-rtx-grafikkarten.1363666/
Performance Mode und 1xFG. Fand ich absolut überzeugend und Leistung im Überfluss.
https://i.imgur.com/MMaZrIq.jpeg
https://i.imgur.com/POnkukY.jpeg
Mit für mich relevantem 120FPS Frame-Limit verbraucht die 5080 auch nur noch um 200 Watt und liefert ein bombastisches Bild.
Relex
2025-02-22, 16:55:25
Ich fands interessant, dass er im Video den Aspekt bzgl. Texturqualität so hervorhebt.
Eine ähnliche Diskussion hatten wir erst kürzlich im KCD2 Thread: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13710122#post13710122
aufkrawall
2025-02-22, 16:58:14
Na ja, mit Transformer-DLSS ist die Texturqualität in Bewegung halt schon unendlich viel besser als mit FSR 3.1 im Standbild. Da kann FSR 4 nur eine gigantische Verbesserung werden. :freak: Von daher halb so schlimm, wenn man damit näher an CNN wäre.
Relex
2025-02-22, 17:04:25
Ich glaube die Hoffnung oder eher die Erwartung ist, dass sich FSR4 zwischen DLSS3 und DLSS4 platziert.
Das Video von der CES stimmt zwar positiv, aber als reine offscreen aufnahme praktisch unbrauchbar für eine Bewertung.
Wenn AMD nicht auch ein Transformer Model nutzt, scheint es wohl unrealistisch, dass FSR4 DLSS3 schlagen kann. Die Hauptaufgabe um mithalten zu können wäre eben die temporale Unschärfe los zu werden. Alles andere ist fast schon irrelevant.
ChaosTM
2025-02-22, 17:15:48
Wissen wir noch nicht (wirklich). Aufschließen sollte gegeben sein, aber vielleicht könne sie sogar besser sein.
Wie geil (unerwartet) wäre das denn ?
Ich stelle mir gerade die Auswirkungen vor, die das erzeugen würde - aufkrawall vs. jeden vs wasauchimmer
aufkrawall
2025-02-22, 17:30:25
Die Hauptaufgabe um mithalten zu können wäre eben die temporale Unschärfe los zu werden. Alles andere ist fast schon irrelevant.
FSR 2.1 war ja teilweise besser bez. Unschärfe als DLSS, trotzdem fanden es viele schlecht(er). Würde daher schon sagen, dass es erstmal die Hauptsache wäre, wenn FSR 4 auch bei starkem Upsampling-Faktor ~immer jedem TAA deutlich vorzuziehen wäre, und sich nicht je nach Szenenänderung auf einmal alles zu Tode bröselt.
Nightspider
2025-02-22, 17:38:44
Jemand schon DLSS 4 in Diablo 2 Resurrected zum laufen bekommen? ^^
aufkrawall
2025-02-22, 17:47:56
Hm? Der Override für das Updaten der SuperRes-Komponente via Inspector funktioniert in jedem Spiel.
DLSS ist in dem Spiel auf Blackwell aber kaputt, Nvidia hat gerade einen Lauf. Sollte aber auf älteren Karten laufen, wobei man bei dem Spiel immer noch per Inspector das LOD Bias selbst fixen muss.
TheGood
2025-02-22, 23:26:50
FSR 2.1 war ja teilweise besser bez. Unschärfe als DLSS, trotzdem fanden es viele schlecht(er). Würde daher schon sagen, dass es erstmal die Hauptsache wäre, wenn FSR 4 auch bei starkem Upsampling-Faktor ~immer jedem TAA deutlich vorzuziehen wäre, und sich nicht je nach Szenenänderung auf einmal alles zu Tode bröselt.
Warum zweifelt man eigentlich daran überhaupts? Ist das Angst?
Der Showcase hat doch gerade die WorstCase szenarien beleuchtet und diese wirklich gut gelöst (vor allem wenn man bei schlechtem videomaterial nichts findet spricht das ja noch für die Lösung und nicht dagegen. Irgendwann sucht man den Unterschied mit der Lupe und das hat dann mal wieder nichts mehr mit dem Massenmarkt zu tun...
aufkrawall
2025-02-22, 23:58:54
Warum zweifelt man eigentlich daran überhaupts? Ist das Angst?
Mag dir mit den üblichen roten Wutschwaden um den Kopf herum so vorkommen. Für andere ist es einfach schlauer, erstmal Tests abzuwarten.
DrFreaK666
2025-02-23, 00:01:07
Hm? Der Override für das Updaten der SuperRes-Komponente via Inspector funktioniert in jedem Spiel.
DLSS ist in dem Spiel auf Blackwell aber kaputt, Nvidia hat gerade einen Lauf. Sollte aber auf älteren Karten laufen, wobei man bei dem Spiel immer noch per Inspector das LOD Bias selbst fixen muss.
Bei der Tech-Demo "FSR 3.1 vs AMD R&D project" war es 4k FSR Performance und schon mit einer Aufnahme sah es deutlich besser aus. Das wird auf dem heimischen Screen noch besser aussehen
TheGood
2025-02-23, 08:49:43
Mag dir mit den üblichen roten Wutschwaden um den Kopf herum so vorkommen. Für andere ist es einfach schlauer, erstmal Tests abzuwarten.
Das hat wenig mit Wutschwaden zu tun sondern bezieht sich auf deine Kommentare zu dem Thema.
Ne Antwort, warum du das so siehst, haste aber leider nicht gegeben. Also wie ist denn deine Wahrnehmung dazu bisher ?
Von denen die es live gesehen haben ist die Tendenz sehr eindeutig
The_Invisible
2025-02-23, 09:55:22
Naja erstes ai upscaling, ein Modell trainiert man nicht von heute auf morgen, selbst Intel ist schon länger dabei. Die Preview konnte auf ein Game optimiert werden. Ein wenig skeptis ist schon valide.
DrFreaK666
2025-02-23, 10:03:55
Klar. AMD hat die KI nur für R&C trainiert :ugly:
basix
2025-02-23, 10:20:29
Das nicht, aber Showcase Optimierungen sind nun wirklich nicht was neues ;)
Bis RDNA4 Release sind jetzt aber einige Wochen verstrichen und AMD wird die Zeit sicher genutzt haben, damit die Game-Integrationen (FSR 3.1 -> 4.0) überall ordentlich funktionieren.
dildo4u
2025-02-23, 11:07:19
Nvidia hatte doch Statistiken 80% nutzen DLSS das war vor 4.0.
Also reicht es wenn AMD DLSS 3.5 erreicht vorallem da keiner 1080p mit der 9700XT testen wird.
Relex
2025-02-23, 11:27:43
DLSS3 war locker 2 Qualitätsstufen besser als FSR3.1. Das ist bei DLSS4 im Vergleich zu DLSS3 ähnlich. Gut Steve sagt zwar im Video, dass es eine Stufe ist, wenn man alle Aspekte betrachtet, aber alleine der Schärfeunterschied ist ja selbst bei DLSS4 Performance vs DLSS3 DLAA zu Gunsten von DLSS4 Performance, wie er ja auch im Video erläutert. Von daher auch subjektiv schwer vergleichbar.
So oder so, solange AMD nicht mithalten kann hat Nvidia einen Effizienzvorteil. Man bekommt ein besseres Bild bei gleicher performance oder bessere Performance bei vergleichbarer Qualität.
Und da ist es nunmal völlig egal wie stark man auf Bildqualität wert legt oder nicht. Im Zweifel hat man durch niedrigere Presets einfach mehr performance. Und performance ist wohl der einzige Grund, warum man überhaupt neue Hardware kauft..
dildo4u
2025-02-23, 11:35:14
Das HWU Video zeigt eigentlich auf das es doch recht teuer ist je nach Game.
Könnte sich auf kleinere Karten mehr auswirken das heiß die Karten die es eher nötig haben DLSS zu nutzen verlieren mehr Performance.
Mal sehen ob das AMD besser löst ich tippe drauf das es schneller ist weil sie keine High-End GPU haben.
Relex
2025-02-23, 12:16:19
Valider Punkt, aber zwei Punkte:
1. Die Frametimekosten sind für jede GPU und Auflösung fix, was dazu führt, dass sich die höheren Kosten bei hohen FPS stärker auswirken als bei niedrigeren FPS. Nicht nur der Unterschied in absoluten FPS ist bei hohen FPS größer, sondern auch der prozentuale Unterschied.
Da wo man es also am meisten braucht (niedrige FPS) ist der performanceverlust am geringsten.
2. Es hängt stark davon ab, wie gut die Performance überhaupt abhängig von der Auflösung skaliert.
Die performance von reinen rasterized games skaliert mit der Auflösung schlechter. Die von Raytraced und pathtraced Games aber sehr extrem.
Dazu kommt, dass Upscaling auf kleineren Karten dafür sorgen kann, dass das Speicherinterface entlastet wird, was kleinen Karten in höheren Auflösungen mehr zu schaffen macht.
Daher gut möglich, dass kleine Karten auch in rasterized Games besser mit Upscaling skalieren, wenn die Bandbreite limitiert. Wenn man hier also dank DLSS4 auch nur eine Stufe runter gehen kann, kann das einen sehr großen Performancevorteil bedeuten, der die höheren Berechnungskosten stark relativiert. Zumindest stärker als auf ner 5080 bei 100+ FPS...
basix
2025-02-23, 12:26:44
Eine geringere Render-Auflösung reduziert auch den Speicherbedarf ein wenig. Für viele Nvidia Karten auch von Relevanz ;)
Und da DLSS4 die Texturen endlich auf "scharf" stellt, könnte man evtl. auch bei der Textur-Qualitätsstufe -1 runtergehen und so den VRAM-Bedarf verringern.
.
Könnte sich auf kleinere Karten mehr auswirken das heiß die Karten die es eher nötig haben DLSS zu nutzen verlieren mehr Performance.
Die Frametimekosten sind konstant, „Karten die es nötig haben“ laufen mit niedriger Auflösung, und damit geringen Frametimekosten und niedrigen FPS, wodurch sich die Frametimekosten weniger auswirken.
Und zusätzlich kann man mit höherem Upscalingfaktor qualitativ immer noch mithalten, insgesamt ein ganz klarer effektiver Performancegewinn, sogar viel höher als jener von der Hardware bei Blackwell.
aber alleine der Schärfeunterschied ist ja selbst bei DLSS4 Performance vs DLSS3 DLAA zu Gunsten von DLSS4 Performance, wie er ja auch im Video erläutert.
Wobei der Schärfevorteil eigentlich „nur“ ein Bonus ist, die leichte Unschärfe in Bewegung hat man auch mit Native-TAA, und kein TAA ist keine brauchbare Alternative.
basix
2025-02-23, 13:18:45
Der Schärfevorteil von DLSS4 ist nicht nur ein Bonus. Es ist der gefühlt grösste Unterschied zu DLSS3 und jeglichen anderen TAA Verfahren. Für mich ist das DER Gamechanger bei DLSS4.
Und "leicht" war die Unschärfe für meinen Geschmack nicht wirklich, da klar erkennbar.
Dass DLSS4 zudem noch SR generell verbessert, ist ein zusätzlicher Gewinn.
TheGood
2025-02-23, 14:00:53
Das nicht, aber Showcase Optimierungen sind nun wirklich nicht was neues ;)
Bis RDNA4 Release sind jetzt aber einige Wochen verstrichen und AMD wird die Zeit sicher genutzt haben, damit die Game-Integrationen (FSR 3.1 -> 4.0) überall ordentlich funktionieren.
Kennen wir von Nvidia ja zu genüge ;)
Ein Dank an alle für die sinnvolle Diskussion. Am Ende muss man zwei Dinge bewerten. Qualität und Performance.
Letzteres ist STand heute nicht über FSR 4 zu sagen. Zur Quailtät kann man aber durchaus sehen, dass das deutlich besser wird als FSR 3.1.
Apropos Showcase. JA es gibt je nach implementierung andere Probleme, aber im generellen sind Lösungen für Probleme dann auch generell anwendbar. Z.b. das Ghosting. Ausreisser bestätigen wie immer die Regel. Ausserdem muss man auch nicht übertrieben skeptisch sein.
basix
2025-02-23, 14:21:24
Das was AMD dort gezeigt hat, war ja vielversprechend. Ob es für DLSS4 reicht? Werden wir erst bei Reviews und Qualitätschecks wissen. Was ich aber dort gesehen habe, sah mMn besser aus als DLSS3.
Relex
2025-02-23, 15:23:16
Wobei der Schärfevorteil eigentlich „nur“ ein Bonus ist, die leichte Unschärfe in Bewegung hat man auch mit Native-TAA, und kein TAA ist keine brauchbare Alternative.
Also "Bonus" ist das sicher nicht, sondern der grundlegende Vorteil.
Bisher war die Bildschärfe von der (internen) Auflösung abhängig und daher stark performancegetrieben. Wobei man erst mit Downsampling eine wirklich gute Schärfe erreichen konnte, wo das Bild auch in Bewegung scharf bleibt.
Aber das war natürlich mit umso mehr performancekosten verbunden und daher praktisch in den allermeisten Fällen nicht möglich.
Bei DLSS4 bekommt man die Bildschärfe schon im Performance Modus und selbst mit DLAA steigt sie kaum noch sichtbar an.
AntiAliasing und Bildschärfe sind beides Dinge die DLSS4 wohl grundlegend gelöst hat und nicht mehr Auflösungs und damit auch nicht mehr performanceabhängig sind. (das gilt zumindest allgemein für die Geometrie und Texturen)
Und das ist wie basix schon sagte ein echter Gamechanger.
DLSS4 reagiert auf reduzierte oder gesteigerte eingangsauflösung völlig anders.
Klar, da wo DLSS komplett versagt hilft höhere Auflösung nach wie vor, wobei in hartnäckigen Fällen dann eh DLAA notwendig wird. Aber sonst zeigt sich der Algo von der eingangsauflösung ziemlich unbeeindruckt. Die qualität fällt an Stellen ab, die deutlich subtiler und mMn. auch schwer zu beschreiben sind als das bisher der Fall war. Ich hab das gefühl, mit DLSS Quality und DLAA wird das Bild eigentlich nur etwas präziser und smoother, aber nicht unbedingt besser Anti-Aliased im vergleich zum Performance modus und auch nicht schärfer. Schärfe und AA sind durch die Bank vergleichbar in allen Modi.
Die KI spart hier auflösungsabhängig wohl eher an Stellen die man als Mensch viel weniger wahrnimmt, als Schärfe und Aliasing, vielleicht Disocclusion artefakte, vielleicht auch was anderes.
Wie gesagt, für mich schwer zu beschreiben. In jedem Fall ist es so derart grundlegend besser, dass ich DLSS4 Performance wirklich allem anderen vorziehen würde. Selbst DLSS3 DLAA oder TAA nativ.
aceCrasher
2025-02-23, 21:30:13
Wie gesagt, für mich schwer zu beschreiben. In jedem Fall ist es so derart grundlegend besser, dass ich DLSS4 Performance wirklich allem anderen vorziehen würde. Selbst DLSS3 DLAA oder TAA nativ.
Ich weiß ja nicht. Ja, DLSS4 ist was die empfundene Bildschärfe angeht MASSIV besser als alle anderen Upscaler, sogar besser als nativ. Aber gerade DLSS Performance strauchelt immer noch wenn es um feine linienförmige Strukturen geht. Beispielsweise hängende Seile. Da ist selbst DLSS 3 Q massiv besser, DLSS 3 DLAA spielt bei solchen Objekten sowieso nochmal in einer anderen Liga.
Trotzdem bin ich von DLSS 4 insgesamt begeistert. Erstmalig empfinde ich DLSS P als akzeptabel was die Bildqualität angeht.
Relex
2025-02-23, 21:41:21
Ich finde da wo der Performance Modus strauchelt tuts auch der Quality Modus und selbst DLAA.
Wenn der Algo versagt, dann versagt er.
DLAA bringt natürlich dann noch am meisten, weil der Auflösungsunterschied enorm ist, aber DLSS Quality, 66 vs 50% Auflösung macht den Braten dann mMn. wirklich nicht fett.
Solche Problemstellen müssen eben entweder durch bessere Daten oder mehr Training gelöst werden. Ich bin mir ziemlich sicher, dass die Auflösung künftig weiter an Bedeutung verlieren wird.
Mal sehen, ob Nvidia das versprechen halten kann, dass man mit Transformer Modellen schneller und besser iterieren kann. Lassen wir uns überraschen.
aufkrawall
2025-02-23, 22:11:55
wenn es um feine linienförmige Strukturen geht. Beispielsweise hängende Seile. Da ist selbst DLSS 3 Q massiv besser,
Smeart aber mitunter wesentlich mehr als Transformer, von daher gibts da auch einen ordentlichen Fortschritt.
Ex3cut3r
2025-02-24, 00:32:32
K ist auch besser als J IHMO, wurde K Global wählen.
Relex
2025-02-24, 01:33:13
J ist einfach komplett unbrauchbar. Zeigt bei Gras und Bäumen in Bewegung sehr deutliche Artefakte.
Ich verstehe nicht, warum Nvidia das Model nicht direkt rausnimmt. Das war offensichtlich noch frühe Beta.
basix
2025-02-24, 21:02:42
Beispielsweise hängende Seile. Da ist selbst DLSS 3 Q massiv besser, DLSS 3 DLAA spielt bei solchen Objekten sowieso nochmal in einer anderen Liga.
Kommt auf das Spiel an. Beim RDR2 Benchmark, wo in der Stadt die Stromleitungen über der Strasse hängen, ist DLSS4 deutlich besser. Aber halt nicht bei allem Content. Und eigentlich gibt es nur noch bei wirklich feiner Geometrie Probleme, sonst nur noch sehr wenige. Ich schiebe das auf zwei Ursachen:
- DLSS4 ist noch neu
- CNN haben bei lokaler Detailaufbereitung ein paar Vorteile gegenüber Transformern (ergo feine Details sind für ein Transformer-Modell etwas schwieriger zu lösen)
Es gibt aber eigentlich fast keine Stelle, wo Modell K vs. E schlechter aussieht. Bei gleichem Upsampling-Falktor. Oftmals kann sogar P mit dem alten Q oder Q mit altem DLAA mithalten und bei der Bildschärfe ist P vs. altes DLAA überlegen. Das zeigt der Vergleich auf HWUB eigentlich ganz gut.
fondness
2025-02-25, 11:21:59
Der Schärfevorteil von DLSS4 ist nicht nur ein Bonus. Es ist der gefühlt grösste Unterschied zu DLSS3 und jeglichen anderen TAA Verfahren. Für mich ist das DER Gamechanger bei DLSS4.
Und "leicht" war die Unschärfe für meinen Geschmack nicht wirklich, da klar erkennbar.
Dass DLSS4 zudem noch SR generell verbessert, ist ein zusätzlicher Gewinn.
Was ich daran schon wieder besonders witzig finde: Als man in der Vergangenheit die eklatante Unschärfe von DLSS kritisiert hatte, war man der Teufel schlechthin. Mindestens.
Was ich daran schon wieder besonders witzig finde: Als man in der Vergangenheit die eklatante Unschärfe von DLSS kritisiert hatte, war man der Teufel schlechthin. Mindestens.
Die "eklatante Unschärfe" von DLSS war in den meisten Fällen geringer als des Vorgänger Standards in Form von TAA.
DLSS ist nicht mit der Prämisse angetreten deutlich besser als TAA zu sein, sondern vergleichbar bei deutlich besserer Performance. "Der Teufel schlechthin" ist jetzt wieder eine unnötige Polemik, aber DLSS für etwas zu kritisieren was nie versprochen wurde ist eben nicht angebracht.
Schon mit DLSS3 war man speziell in der Form von DLSS-Q und DLAA in aller Regel besser als TAA, was schon ein kleiner Bonus war.
Dass DLSS4 jetzt noch mal einen so deutlichen Fortschritt macht erhöht ganz einfach diesen Bonus.
dildo4u
2025-02-25, 11:56:50
Es gibt nicht die ideale Schärfe das hängt von deinem Display ab daher sind Regler die einzig sinnvolle Lösung.
redpanther
2025-02-25, 12:34:10
Das hängt eher vom Geschmack ab.
Disconnected
2025-02-25, 13:37:43
Und vom eigenen Sehvermögen.
Es gibt nicht die ideale Schärfe das hängt von deinem Display ab daher sind Regler die einzig sinnvolle Lösung.
Die gibt es schon und die ist auch messbar, allerdings in line-pairs pro cm/mm oder was auch immer.
dildo4u
2025-02-25, 14:21:20
Hä LCD sind in Bewegung von Technik aus Unschärfer als OLED daher muss man das mit einem Regler kompensieren.
Das fällt einem nur auf wenn man umgestiegen ist was viele PC User natürlich noch nicht vollzogen haben.
basix
2025-02-25, 15:29:44
Was ich daran schon wieder besonders witzig finde: Als man in der Vergangenheit die eklatante Unschärfe von DLSS kritisiert hatte, war man der Teufel schlechthin. Mindestens.
Kommt drauf an, wen du fragst ;)
Ich habe das von Anfang an bemängelt und bei FSR2 die höhere Bildschärfe gelobt. Weiss nicht mehr ob das im FSR Thread oder Deathloop Thread war, wo ich das auch mit Bildern gegenübergestellt und belegt habe.
aufkrawall hat es auch immer bemängelt, insbesondere mit dem üblen eingebauten Sharpening von früher.
Platos
2025-02-25, 15:48:27
Die "eklatante Unschärfe" von DLSS war in den meisten Fällen geringer als des Vorgänger Standards in Form von TAA.
DLSS ist nicht mit der Prämisse angetreten deutlich besser als TAA zu sein, sondern vergleichbar bei deutlich besserer Performance. "Der Teufel schlechthin" ist jetzt wieder eine unnötige Polemik, aber DLSS für etwas zu kritisieren was nie versprochen wurde ist eben nicht angebracht.
Schon mit DLSS3 war man speziell in der Form von DLSS-Q und DLAA in aller Regel besser als TAA, was schon ein kleiner Bonus war.
Dass DLSS4 jetzt noch mal einen so deutlichen Fortschritt macht erhöht ganz einfach diesen Bonus.
Natürlich kann man etwas kritisieren, was nicht versprochen wurde.
TAA ist ja auch nicht die Messlatte, sondern nativ ohne AA. Die Schärfe sollte möglichst wie nativ ohne AA sein und anhand dessen werden AA Methoden bewertet und nicht anhand einer anderen (schlechten) AA Methode.
Was ich daran schon wieder besonders witzig finde: Als man in der Vergangenheit die eklatante Unschärfe von DLSS kritisiert hatte, war man der Teufel schlechthin. Mindestens.
So ist es. Jetzt auf einmal ist DLSS3 so unscharf und früher war man ein Pixelzähler oder dergleichen, wenn man die Unschärfe von DLSS angesprochen hat.
So schnell kanns gehen bei manchen :D
robbitop
2025-02-25, 16:23:20
Die Schärfe ist mit DLSS4 deutlich besser geworden und war bis dato nicht ideal. Aber man muss konstatieren, dass andere Verfahren Schwächen in Bereichen hatten die zT deutlich irritierender waren. Ghosting, temporale Stabilität, Bröseln. Gegenüber Unschärfe konnte man zumindest bis zu einem gewissen Grad mit rcas entgegenwirken. Nicht vollständig lösen aber mildern.
fondness
2025-02-25, 16:33:06
Die Schärfe ist mit DLSS4 deutlich besser geworden und war bis dato nicht ideal. Aber man muss konstatieren, dass andere Verfahren Schwächen in Bereichen hatten die zT deutlich irritierender waren. Ghosting, temporale Stabilität, Bröseln. Gegenüber Unschärfe konnte man zumindest bis zu einem gewissen Grad mit rcas entgegenwirken. Nicht vollständig lösen aber mildern.
Das stimmt zwar, aber deshalb muss man klare Schwächen auch nicht immer negieren. Ich kann mich noch gut erinnern, dass mir reihenweise Leute erklärt haben, dass ich falsch liege und DLSS zB einfach mehr Pixel verrechnet und deshalb unschärfer ist als FSR und lauter so nonsense.
robbitop
2025-02-25, 16:38:56
Ja ist absolut ein richtiger Punkt IMO.
Ich hoffe, FSR4 und ggf zukünftige Iterationen von XeSS und TSR kann richtig überzeugen weil Wettbewerb der beste Innovationsmotor ist. :)
Relex
2025-02-25, 17:50:01
Das stimmt zwar, aber deshalb muss man klare Schwächen auch nicht immer negieren. Ich kann mich noch gut erinnern, dass mir reihenweise Leute erklärt haben, dass ich falsch liege und DLSS zB einfach mehr Pixel verrechnet und deshalb unschärfer ist als FSR und lauter so nonsense.
Na ja, du hast als Ausgangspunkte zwei Referenzen.
Einmal hast du TAA in nativer auflösung, das gut glättet und detailliert ist (dadurch objektiv scharf) aber in bewegung etwas Kantenkontrast verliert (subjektiv unscharf)
Und einmal hast du das rohbild ohne TAA, welches zwar extrem viel Kantenkontrast hat (subjektiv "scharf"), aber eben auch viel Aliasing und Flimmern und dadurch auch weniger Detailgrad (weil am wenigsten samples genutzt werden).
DLSS war beim Kantenkontrast bzw. Unschärfe in Bewegung eben mit TAA vergleichbar und hat zugleich meist sogar noch mehr details rekonstruiert.
FSR2 war eben ein stück weit näher am Rohbild. Es flimmerte und bröselte mehr, zeigte weniger Details aber hatte mehr Kantenkontrast.
Es ist doch nur logisch, dass eine Lösung die mehr dem TAA Nativ Bild entspricht bevorzugt wird, wenn das als Referenz gilt.
Wäre FSR2 bei gleicher schärfe nicht so flimmrig und bröselig gewesen, wäre das auch besser angekommen und man hätte diskutieren können, warum DLSS meinetwegen viel unschärfer ist usw.
Aber leider war die qualität von FSR nie vergleichbar und einfach nur in allen Punkten näher am Rohbild, so dass sich so eine Diskussion mMn. nie ernsthaft hätte ergeben können. Es war kein Trade-off über den man diskutieren konnte sondern einfach die weniger leistungsfähige Lösung.
Jetzt mit FSR3.1 finde ich den Vergleich noch schweiriger, da FSR nur etwas weniger bröseln und flimmern zeigt, aber sowohl unschärfer ist als DLSS3 als auch weniger Details zeigt. Jetzt könnte man sogar FSR vorwerfen sie haben sich etwas bessere "Qualität" durch mehr Unschärfe erkauft. Aber man sieht ja an FSR3.1, dass es offensichtlich doch nicht so einfach ist...
Aber gut, letzten Endes gibt es immer eine subjektive Komponente.
Gab früher ja auch Leute, die nichtmal MSAA nutzen wollten, weil sie es als unscharf empfanden, obwohl rein technisch gesehen das Gegenteil der Fall war.
Ich jedenfalls würde ein usncharfes Bild in den allermeisten Fällen vorziehen, wenn ich dadurch im Gegenzug das hochwertigere Bild, also das Bild mit besserer Kantenglättung, weniger Flimmern und besserer Detailrekonstruktion bekomme.
Was z.B. auch der Grund ist, warum ich in Pathtraced Spielen auch nach dem sehr scharfen DLSS4 SR weiterhin das unschärfere DLSS4 RayReconstruction vorziehe. Das hochwertigere Bild ist mir sehr viel wichtiger, als reiner Kantenkontrast. Auch wenn natürlich beides zusammen am besten wäre.
TAA ist ja auch nicht die Messlatte, sondern nativ ohne AA.
Nativ ohne AA ist garantiert keine Messlatte sondern unbrauchbar, es ist auch nicht schärfer, mehr Kantenkontrast ist nicht automatisch schärfer.
Schärfer wird es nur mit mehr echten Pixeln, und zwar am Monitor, die man auch nativ ansteuert.
Die Schärfe sollte möglichst wie nativ ohne AA sein und anhand dessen werden AA Methoden bewertet und nicht anhand einer anderen (schlechten) AA Methode.
Die Schärfe sollte möglichst so nahe der mit den physikalisch verfügbaren Pixeln möglichen kommen. Und die ist nicht Nativ ohne AA, sondern enorm hohes SSAA.
So ist es. Jetzt auf einmal ist DLSS3 so unscharf und früher war man ein Pixelzähler oder dergleichen, wenn man die Unschärfe von DLSS angesprochen hat.
Man muss aber fairerweise auch sagen, dass sehr vieles an Gewohnheit liegt, und verglichen wird immer mit dem was gerade state of the art ist bzw. War und das war nun mal TAA.
Bevor ich einen OLED hatte, hätte ich auch niemals behauptet dass ein LCD mit kompetitiver Schaltzeit unscharf, heute ist es dermaßen offensichtlich.
robbitop
2025-02-25, 18:52:54
Hab FSR3.1 neulich mal in RDR2 mittels Optiscaler injeziert und fand es immer noch sehr bröselig vs DLSS vs XeSS. KA ob das in allen Spielen so ist - aber zumindest in dem Spiel war da noch ordentlich Luft nach oben.
Das ist die Regel, gerade Disocclusion knuspert deutlich.
MfG
Raff
ChaosTM
2025-02-26, 01:47:07
Hab FSR3.1 neulich mal in RDR2 mittels Optiscaler injeziert und fand es immer noch sehr bröselig vs DLSS vs XeSS. KA ob das in allen Spielen so ist - aber zumindest in dem Spiel war da noch ordentlich Luft nach oben.
Luft wohin ?
DrFreaK666
2025-02-26, 01:48:40
Luft wohin ?
Die letzten zwei Wörter überlesen? "nach oben"
ChaosTM
2025-02-26, 01:50:17
wohin ist nach oben
DrFreaK666
2025-02-26, 01:59:24
Kennst die Redewendung wirklich nicht?
https://www.openthesaurus.de/synonyme/Luft+nach+oben#:~:text=Luft%20nach%20oben%20%2D%20Synonyme%20bei%20OpenThesaurus&text=ausbauf%C3%A4hig%20%C2%B7%20entwicklungsf%C3%A4hig%20%C2%B7%20(es%20gibt,)% 20mehr%20drin%20(ugs.)
Lurtz
2025-02-26, 08:40:02
Das stimmt zwar, aber deshalb muss man klare Schwächen auch nicht immer negieren. Ich kann mich noch gut erinnern, dass mir reihenweise Leute erklärt haben, dass ich falsch liege und DLSS zB einfach mehr Pixel verrechnet und deshalb unschärfer ist als FSR und lauter so nonsense.
Dann kann man ja nur hoffen, dass FSR 4 wieder schärfer als FSR 3.1 wird, was massiv unschärfer als FSR 2 war. Aber bis dahin hast du das sicher auch wieder vergessen...
aufkrawall
2025-02-26, 08:48:19
Wobei der Unterschied bez. Bewegtbildschärfe zwischen FSR 2.1 und DLSS Preset C/E auch wesentlich geringer war als zwischen Rest/DLSS-Transformer.
Und FSR 3.1 ist schon um Dimensionen schlechter als Preset E. Die Roten sollten da wirklich besser ganz vorsichtig sein.
DrFreaK666
2025-02-26, 09:13:36
AMD wird FSR4 sicherlich mit 3.1 vergleichen, wie bei dem R&C Vergleich
Platos
2025-02-26, 09:27:15
Nein, AA mindert die Schärfe. Ohne AA ist die Schärfe am höchsten.
Daher ist auch die Messlate nativ ohne AA.
Nativ ohne AA ist garantiert keine Messlatte sondern unbrauchbar, es ist auch nicht schärfer, mehr Kantenkontrast ist nicht automatisch schärfer.
Schärfer wird es nur mit mehr echten Pixeln, und zwar am Monitor, die man auch nativ ansteuert.
Die Schärfe sollte möglichst so nahe der mit den physikalisch verfügbaren Pixeln möglichen kommen. Und die ist nicht Nativ ohne AA, sondern enorm hohes SSAA.
aufkrawall
2025-02-26, 10:05:12
Daher ist auch die Messlate nativ ohne AA.
Natürlich nicht. Die Messlatte wäre ein Ansel-Screenshot mit massiv SSAA/Downsampling.
Kein AA = Schrott per Definition. Irgendwann ist auch mal gut mit immer den gleichen Quatsch-Argumenten...
Geldmann3
2025-02-26, 10:26:44
Nein, AA mindert die Schärfe. Ohne AA ist die Schärfe am höchsten.
Daher ist auch die Messlate nativ ohne AA.
Ja, nämlich harte Kanten an den Pixelrändern. Schärfer als die Realität, könnte man sagen.
Ich habe schon wieder NV4x-Vibes. Chön chafes AF, rrrr! Nein, einfach pure fckn aliasing! :ugly:
MfG
Raff
robbitop
2025-02-26, 10:39:32
Nein, AA mindert die Schärfe. Ohne AA ist die Schärfe am höchsten.
Daher ist auch die Messlate nativ ohne AA.
No AA hat den höchsten Kantenkontrast der auf screenshots als Schärfe wahrgenommen wird. Nützt dann halt nichts weil in Bewegung temporal instabil. So wie aufkrawall sagt stimmt es IMO.
fondness
2025-02-26, 11:19:37
Dann kann man ja nur hoffen, dass FSR 4 wieder schärfer als FSR 3.1 wird, was massiv unschärfer als FSR 2 war. Aber bis dahin hast du das sicher auch wieder vergessen...
Ja, war definitiv nicht gut die Unschärfe nachzuäffen. Dafür braucht es auch keine blöde Unterstellung ala "bis dahin hast du das sicher auch wieder vergessen...". Aber ihr könnt je gerne wieder euch in eurer Blase abfeiern und wer es wagt Schwächen zu kritisieren die NV jetzt eh zum Glück gefixed hat als Fanboy abwürgen. Das Argument "aber AMD" ist lächerlich, so als ob man nicht mehr ernsthaft diskutieren darf solange AMD nichts besseres liefert.
Lurtz
2025-02-26, 11:27:58
Ja, war definitiv nicht gut die Unschärfe nachzuäffen. Dafür braucht es auch keine blöde Unterstellung ala "bis dahin hast du das sicher auch wieder vergessen...".
Aber ihr könnt je gerne wieder euch in eurer Blase abfeiern und wer es wagt Schwächen zu kritisieren die NV jetzt eh zum Glück gefixed hat als Fanboy abwürgen.
:ulol:
Du bist doch hier reinzukommen um rumzubashen, während hier seitenlang Vor- und Nachteile diskutiert und belegt werden.
fondness
2025-02-26, 11:29:30
:ulol:
Du bist doch hier reinzukommen um rumzubashen, während hier seitenlang Vor- und Nachteile diskutiert und belegt werden.
Nachdem ich in der Vergangenheit hier massiv angegangen wurde weil ich die Unschärfe angesprochen habe. Den kleinen Hint wirst du mir ja wohl gönnen. ;)
Nein, AA mindert die Schärfe. Ohne AA ist die Schärfe am höchsten.
Aliasing ist keine Schärfe, Kontrast ist keine Schärfe.
Die Schärfe wird in darstellbaren Linienpaaren pro Längeneinheit gemessen und nicht im Kontrastverhältnis, dafür muss man allerdings auch eine Linie darstellen können und eine Treppe ist keine Linie.
aufkrawall
2025-02-26, 11:47:33
Nachdem ich in der Vergangenheit hier massiv angegangen wurde weil ich die Unschärfe angesprochen habe.
Wird wohl eher so gewesen sein, dass du die Vor- und Nachteile von DLSS und FSR verzerrt/einseitig dargestellt hast, also mal wieder Relativierung der FSR-Suckigkeit in der Breite durch die Hintertür.
Disconnected
2025-02-26, 18:29:54
Nein, AA mindert die Schärfe. Ohne AA ist die Schärfe am höchsten.
Daher ist auch die Messlate nativ ohne AA.
Assets sind leider auf TAA ausgelegt, ohne hat man oft "Dithering"-Artefakte.
TheAntitheist
2025-02-26, 18:39:34
Assets sind leider auf TAA ausgelegt, ohne hat man oft Dithering-Artefakte.
das macht doch gar kein Sinn... keine Assets werden auf TAA ausgelegt, keine 3D Modelle und keine texturen... und was hat das mit dithering zu tun? bei BC compression nutzt keine Sau dithering.
Disconnected
2025-02-26, 19:24:26
Schalts einfach mal ab und erfreu Dich der schönen Sega Saturn Grafik rund um Haare, Vegetation o.ä.
das macht doch gar kein Sinn... keine Assets werden auf TAA ausgelegt, keine 3D Modelle und keine texturen...
Doch, steht sogar im DLSS Dev-Guide dass man aufpassen sollte falls die Assets auf TAA ausgelegt sind, dass diese evtl. für DLSS überarbeitet werden müssen, oder man anders gegensteuern muss (z.B. nicht den üblicherweise für DLSS empfohlenen LOD-BIAS für die entsprechenden Assets verwenden)
und was hat das mit dithering zu tun? bei BC compression nutzt keine Sau dithering.
Keine Ahnung mit dithering hat das wirklich nichts zu tun.
Hatte ne Zeit lang jetzt mal für alle DLSS fähigen Games DLSS 4 forciert und habe festgestellt, dass nicht alle damit gut aussehen. Während z.B. PoE 2 und ESO davon ungemein profitieren und flimmernde Bäume und Hausmauern etc. eliminiert werden, sind bei Star Citizen und SnB nicht hinnehmbare Anomalien zu sehen.
Schade, da ich eigentlich spezifisches Frickeln vermeiden wollte. Naja immerhin hat man die Möglichkeit das Spiel spezifisch einzustellen.
Exxtreme
2025-02-27, 10:01:45
das macht doch gar kein Sinn... keine Assets werden auf TAA ausgelegt, keine 3D Modelle und keine texturen... und was hat das mit dithering zu tun? bei BC compression nutzt keine Sau dithering.
Doch, das kann schon sein, dass Assets für TAA ausgelegt sind. Es passierte öfter, dass die Entwickler ein sog. Undersampling bei Texturen betrieben haben um Rechenleistung zu sparen. Und weil Undersampling zu verwaschenen Texturen führt, hat man TAA benutzt um das wieder zu fixen. Denn TAA ist in der Lage einige Informationen, die es im aktuellen Frame nicht gegeben hätte weil untersampelt trotzdem aus vergangenen Bildern zu rekonstruieren. Dann sieht es zumindest auf Screenshots ganz gut aus. In Bewegung verschmiert das weiterhin.
DLSS bzw. Upscaling ist übrigens eine konsequente Fortführung dieses Undersamplings.
Disconnected
2025-02-27, 11:21:07
Keine Ahnung mit dithering hat das wirklich nichts zu tun.
Ich habe es jetzt mal in Anführungszeichen gesetzt. Es mag der falsche Begriff sein, aber der optische Effekt ist damit vergleichbar.
Lurtz
2025-02-27, 11:21:35
HWU sieht DLSS4 auch in 1440p als großen Schritt nach vorne:
ELEu8CtEVMQ
1440p DLSS Quality/DLAA kann jetzt hervorragende Bildqualität liefern, Balanced oder Performance kann zum Performanegewinn bei akzeptabler Bildqualität genutzt werden.
DLSS4 is the improvement 1440p gaming has needed desperately for years.
Until FSR4 proves itself DLSS4 is categorically the way to play games on 1440p.
Sardaukar.nsn
2025-02-27, 13:03:33
Mein Sohn spielt Palworld auf meinem alten Xiaomi 34" 3440x1440p mit einer 4070super. DLSS4 Performance läuft da hervorragend.
Relex
2025-02-27, 13:09:18
Subjektiv dürfte der Unterschied auf 1440p ja deutlich größer sein.
Wenn DLSS vorher in bewegung Unschärfe von z.B. 2 pixel erzeugt hat, dann nimmt die Unschärfe mit diesen 2 pixeln bei niedrigerer Auflösung ja eine viel größere Fläche bzw. Anteil vom Bild ein.
Hätte es DLSS4 letztes Jahr schon gegeben, als ich noch einen 1440p Monitor genutzt habe, wäre ich mir gar nicht mehr so sicher gewesen, ob ich den dann ausgetauscht hätte.
Vermutlich wäre dann auch ein 1440p OLED ein heißer Kandidat gewesen. (wobei ich mich dann am ende vielleicht über andere Dinge wie verstärktes fringing geärgert hätte)
So oder so, das dürft die Nutzbarkeit von 1080p und 1440p Displays deutlich verlängern. Nicht nur kann man mit DLSS4 von niedrigeren Auflösungen hochskalieren und gewinnt so performance. Auch das Display wird aufgewertet, weil man jetzt eine Bildschärfe bekommt, die vorher mit der Auflösung ohne Downsampling unerreichbar gewesen wäre.
Cubitus
2025-02-27, 13:17:15
Ich habe jetzt für mein Zweitsystem einen 1440p OLED-Monitor zusammen mit einer 4070 Super im Einsatz. Das Ergebnis ist sehr gut, und die Bewegungsunschärfe ist bei den Qualitäts- oder Ausgewogenheits-Einstellungen kein Thema mehr.
Für 4K finde ich, dass der Ausgewogen-Modus definitiv der gesetzte Weg ist, da er eine starke Leistungssteigerung bringt, während die Bildqualität subjektiv echt super bleibt :)
Hätte es DLSS4 letztes Jahr schon gegeben, als ich noch einen 1440p Monitor genutzt habe, wäre ich mir gar nicht mehr so sicher gewesen, ob ich den dann ausgetauscht hätte.
DLSS4 erleichtert sogar den Umstieg auf einen höher aufgelösten Monitor, da man höhere Upsampling-Faktoren mit akzeptablem Qualitätsverlust einstellen kann.
Undersampling bei Texturen betrieben haben um Rechenleistung zu sparen.
Entwickler können kein Undersampling von Texturen betreiben um Rechenleistung zu sparen, Textursampling* ist eines der Dinge welche von der Hardware vorgegeben werden, und vom Entwicklern nur parametrisiert werden kann.
Es ist sogar das Gegenteil der Fall, Undersampling reduziert die Hitrate im Texturcache und kostet damit potentiell Performance.
* Außer man würde die Hardware-TMUs komplett umgehen, und die Texturfilterung händisch als Shader selbst programmieren.
Und weil Undersampling zu verwaschenen Texturen führt, hat man TAA benutzt um das wieder zu fixen.
Was Entwickler mache ist einerseits einen zu niedrigen LOD-BIAS zu verwenden und/oder "falsche" Mip-Maps zu verwenden.
Beides führt effektiv zu Undersampling, allerdings damit zu einer "zu hohen" Bildschärfe und Aliasing.
Die Hoffnung ist dann, dass das TAA das Aliasing welches durch das Undersampling entsteht eliminiert.
Da DLSS weniger verschmiert kann es auch passieren, dass es weniger von dem dadurch entstehenden Aliasing eliminiert, bzw. potentiell auch die Rekonstruktion vom NN verwirrt.
Relex
2025-03-01, 11:58:43
DLSS4 ist in Avowed sehr beeindruckend und schlägt im Performance Modus TAA und TSR native deutlich.
cUTGoDRC9OE
basix
2025-03-01, 16:00:37
"Leaked" DLSS RR Performance Werte:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13717047#post13717047
dildo4u
2025-03-01, 16:06:55
5070 deutlich langsamer als 4070 TI ich hätte sie auf dem selben Level gesehen.
basix
2025-03-01, 16:27:00
Mit 48 vs. 60 SM kann die 5070 auch nicht zaubern.
basix
2025-03-01, 16:52:56
So ich bekam Nsight Graphics wieder zum laufen. Hier ein paar Utilisation Kennzahlen aus CP2077 mit aktiviertem Pathtracing.
SM Tensor Pipe Active:
- DLSS-P + FG mit CNN = 0.5%
- DLSS-P + FG mit Transformer = 0.5% (scheint mir etwas zu wenig, teste ich nachher nochmals)
- DLSS-p + FG + RR mit CNN = 2.9%
- DLSS-P + FG + RR mit Transformer = 4.2%
Ray Reconstruction zeigt sich wirklich sehr gut auf den Tensor Cores. Wir reden hier von 5-6x mehr Ausführungszeit bei gleichzeitig höherer Auslastung.
RTCORE Load ist selten >50% obwohl Pathtracing. L2$ Hitrate ist zu grossen Teilen des Frames >90%.
aufkrawall
2025-03-01, 21:32:01
Danke, wundert jetzt hier ja niemanden mehr. Die Transistoren für die Verbesserungen der TCs in Lovelace waren wirklich sehr gut investiert. Wäre zu hoffen, dass sich das mit DLSS 5 und Blackwell wiederholt.
Hakim
2025-03-01, 21:47:43
Hab jetzt mal heute das Transformer Modell bei DLSS unter Path of Exile 2 probiert. Gefühlt sieht es besser aus, aber mir ist aufgefallen das Board Power ordentlich angestiegen ist. Ich glaube die 3060Ti muß für das neue DLSS schwer Schwitzen. Spiel läuft nur auf 75 FPS limitiert, ich glaube vorher hatte ich so um die ~90-130W dreh, jetzt hab ich vorhin 130-160W gesehen, nur mit dieser Änderung.
Edit: könnte falsch sein da trotz Umstellung aufs alte immer noch hohe Board Power, ist wohl eher seit der Umstellung auf Vulkan vermutlich.
Edit: jo war wegen Vulkan, unter DX12 kein Unterschied.
So ich bekam Nsight Graphics wieder zum laufen. Hier ein paar Utilisation Kennzahlen aus CP2077 mit aktiviertem Pathtracing.
SM Tensor Pipe Active:
- DLSS-P + FG mit CNN = 0.5%
- DLSS-P + FG mit Transformer = 0.5% (scheint mir etwas zu wenig, teste ich nachher nochmals)
- DLSS-p + FG + RR mit CNN = 2.9%
- DLSS-P + FG + RR mit Transformer = 4.2%
Ray Reconstruction zeigt sich wirklich sehr gut auf den Tensor Cores. Wir reden hier von 5-6x mehr Ausführungszeit bei gleichzeitig höherer Auslastung.
RTCORE Load ist selten >50% obwohl Pathtracing. L2$ Hitrate ist zu grossen Teilen des Frames >90%.
Nice! :) Du hast nicht zufällig eine Turing-GPU da, um das Gleiche damit zu messen? Da müsste es völlig anders aussehen (massive TC-Auslastung, viel mehr Off-Chip-Verkehr, mehr Stalls etc.).
MfG
Raff
basix
2025-03-01, 23:26:48
Ich hätte noch die 2080 Ti da, doch. Aber für das umbauen? Evtl. wenn mir morgen zu langweilig ist ;)
Nsight kann jeder runterladen und mit ein paar Clicks lässt sich solch eine GPU Trace ausführen. Ist nicht so schwer:
- Einen aktuellen Treiber sollte man installiert haben
- GPU auf Default Settings ist vorteilhaft (weniger absturzgefährdet)
- Steam etc. sollte man nicht geöffnet haben
- Nsight Graphics: https://developer.nvidia.com/nsight-graphics
- Nsight starten -> Als Administrator
- Oben links "Start Activity"
- Im Fenster eine *.exe anwählen, die man tracen will -> z.B. CP2077
- Trace Einstellungen kann man auf Default lassen ("Throughput Metrics")
- "Launch GPU Trace" -> Applikation startet (etwas langsamer als normal)
- Ganz normal zur gewünschten Stelle im Spiel navigieren / Spielstand laden
- Mit F11 den Trace starten
- Spiel ruckelt dann ein paar Sekunden vor sich hin, bis Trace abgeschlossen
- Zurück zur Nsight App und dort den Trace öffnen (ist links aufgelistet)
- Runterscrollen und ein wenig durchklicken, bis man das findet was man sucht :D
:up:
Ich würde es ja selbst machen, weil mich das sehr interessiert, aber seit dem 2.1. sammle ich so viele Überwochen, dass das gerade einfach nicht drin ist. :ugly:
MfG
Raff
basix
2025-03-01, 23:37:52
Klar, kein Thema ;)
Vielleicht hat ein anderer hier noch eine Turing oder auch Ampere Karte installiert.
Ich müsste auch schauen, dass ich mit DLSS Swapper und forciertem DLSS4 via NvInspector da nicht einen quatsch messe. Bei SR ist das bei der obigen Messung vermutlich der Fall gewesen, da das Transformer DNN nicht länger in der Ausführung hat.
aufkrawall
2025-03-01, 23:41:18
Warum verwendest du noch DLSS Swapper? Wüsste nicht, wieso man das mit dem Inspector-Override und dem DLSS Overlay noch bräuchte.
Ok, für RR CNN müsste man wohl weiterhin die alte DLL reinkopieren und den Override deaktivieren.
basix
2025-03-01, 23:42:54
Ich habe kein "latest Override" sondern Preset X fixiert und bis heute auch noch den 566.36 installiert gehabt. Und man kann mit DLSS Swapper auch XeSS/FSR DLLs swappen ;)
Nightspider
2025-03-02, 01:36:07
Gibts von NV eigentlich sowas wie eine Timeline, was als nächstes geplant ist bzgl. DLSS und woran man gerade arbeitet?
Das Transformer Modell war ja wohl schon länger geplant, wenn ich es richtig verstanden habe aber die AI Fähigkeiten von Blackwell werden ja noch gar nicht genutzt weil das neue Transformer Upscaling auf RTX4000 genauso schnell läuft.
Slipknot79
2025-03-02, 01:50:33
Das wars, DLSS4 can man nicht mehr toppen. :redface:
aufkrawall
2025-03-02, 03:25:56
Dass da noch jede Menge geht, zeigt schon RR. Wobei das auch noch nicht gerade perfekt ist, was das Verschwimmen von Reflexionen in Bewegung angeht.
basix
2025-03-02, 08:43:43
Hier noch ein Closeup aus dem Trace, nur die SR & RR Phase.
Bei normalem SR (sollte Transformer sein):
Total ca. 0.35ms aktive Tensor Zeit
Im Schnitt ca. 20% Auslastung während dieser Zeit
Ausführungszeit * Auslastung * FP16 Durchsatz = ca. 20 GFLOPs
Gegen hinten raus sinkt die Auslastung drastisch, gleichzeitig steigt VRAM Auslastung stark
Sowas dürfte auch ohne Tensor Cores gut machbar sein. Nur ein kurzer Auslastungs-Peak und 40-50% der Zeit ist VRAM limitiert
Nvidia gibt im DLSS Programming Guide 1.07ms für DLSS-P in 4K an (RTX 4090), Tensor Load dauert nur 0.35ms. Also nochmals als Verdeutlichung: DLSS besteht aus weit mehr als nur dem DNN ;)
Mit RR (Transformer):
Ca. 6x längere Ausführungszeit als reines SR
Im Schnitt ca. ~50% Tensor Core Auslastung
Macht rechnerisch total ca. 20...30x höhere Rechenlast als SR
Und es sei darauf hingewiesen, dass RR auf Ada/Blackwell FP8 verwendet
Ausführungszeit * Auslastung * FP8 Durchsatz = 500...600 GFLOPs
Eine 2080 Ti würde für das (FP16) ~10ms benötigen, wenn die Auslastung auch bei ca. 50% liegen würde. Vermutlich liegt sie aber etwas geringer (kein grosser L2$, VRAM wird stärker gefordert). Nvidia gibt 18.33ms für Transformer RR auf einer 2080 Ti an
Ohne Tensor/Matrix Cores wohl nicht in Realtime für Spiele machbar, ausser man kann den Algorithmus deutlich abspecken
Auslastung der Tensor Coers ist nicht konstant. Die Zacken entstehen, weil man was aus dem VRAM nachladen muss
Nvidia gibt im RR Integration Guide 2.35ms für DLSS-P in 4K an (RTX 4090). Ich messe 2.15ms aktive Tensor-Zeit. RR hängt also viel stärker an den Tensor Cores. Die GPU lief während dem Trace glaube ich bei 2.2 GHz (GPC Takt) und 2.0 GHz auf dem L2-Cache. Wenn GPC = GPU Takt, dann wären es bei standard ~2.7GHz immer noch ca. 1.75ms Tensor vs. 2.35ms total
Oliver_M.D
2025-03-02, 15:26:47
Hätte nicht gedacht dass SR so extrem leicht is, bzw. RR im Vergleich so schwerfällig. Danke für die Arbeit!
Frag ich mich was passieren würde wenn man SR auf einer 980/1080 laufen lässt, die Performance und sonstige Daten wären sicher irgendwo interessant.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.