Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3
Schau dir lieber mal Shadow of the Tomb Raider mit neuem DLSS 2.3.20 an, welches mit einem Game-Update vorgestern nachgeliefert wurde, nicht nur die verpixelten raytraced Schatten gehören damit endlich der Vergangenheit an,
Wobei das am aktualisierten Denoiser und nicht an DLSS liegt.
Aber mit einem Forward Renderer wie bei Forza Horizon würde es kaum funktionieren, oder?
Natürlich warum nicht?
DLSS arbeitet an fertigen Frames, ob die aus Forward- oder Deferred Renderer kommen sind ziemlich egal.
Einzig die G-Buffer die man für Deferred Renderer eh schon hat und bei Forward-Renderern nicht unbedingt braucht könnten hilfreich sein, da man daraus die Bewegungsvektoren erzeugen kann. Das ist aber natürlich alles kein Zwang, man kann die Bewegungsvektoren auch anderwertig ermitteln.
Troyan
2021-11-20, 19:41:15
Mit NIS in Experience kann man nun in jedem Spiel ohne wirklich Leistungsverlust nachschärfen. Schick, schick. Ist man nicht mehr auf einen Schärfeslider angewiesen.
aufkrawall
2021-11-20, 21:07:28
Bei dem Shader sollten sie noch nachbessern, neigt zu sehr zu Aliasing gegenüber CAS. Letzteres per ReShade sieht in Deathloop mit DLSS jedenfalls immer noch deutlich besser aus.
Natürlich ist es "TAA", aber es benötigt kein anderes ähnliches Verfahren in einem Spiel. Rise of the Tomb Raider unterstützt nur SMAA und SSAA. Trotzdem konnte DLSS eingebaut werden.
Ich schätze, das war nur möglich, da Rise of die neuere Engine-Version (welche TAA beherrscht) portiert wurde - das ist aber nur eine Vermutung meinerseits. Da hätte man eigentlich auch direkt RT-Schatten miteinbauen können. :D
MfG
Raff
Lurtz
2021-11-20, 22:18:48
Einzig die G-Buffer die man für Deferred Renderer eh schon hat und bei Forward-Renderern nicht unbedingt braucht könnten hilfreich sein, da man daraus die Bewegungsvektoren erzeugen kann. Das ist aber natürlich alles kein Zwang, man kann die Bewegungsvektoren auch anderwertig ermitteln.
Okay, dachte das wäre mit einem Forward-Renderer gar nicht möglich. Danke für die Erläuterung.
Geldmann3
2021-11-21, 02:05:03
Es ist sehr wertvoll für die Implementierung von DLSS, wenn ein Game bereits TAA beherrscht. Denn somit beherrscht die Engine bereits die wichtigsten Features, deren Output man als Entwickler nur noch an das DLSS-SDK weitergeben muss. Vor allem das Jittern der Sample-Koordinaten, das dazu passende Jitter-Offset sowie die Motion-Vektoren. Wenn Forza Horizon das bereits könnte, wäre es ziemlich blöd kein TAA anzubieten.
Slipknot79
2021-11-21, 02:29:41
Bei mir hats nun auch geklappt nach einer Treiberneuinstallation. Funktionier NIS auch in Kombination mit DSR? Bei mir nämlich bisher nicht.
Dann hats da immer noch etwas bei dir yo. Es sollte NIS auch mit DSR funzen, hier geds. (y)
früherer User
2021-11-21, 05:09:52
Wobei das am aktualisierten Denoiser und nicht an DLSS liegt.
Das ist richtig, trotzdem waren die RT Schatten zuvor mit DLSS zu ausgefranst wenn man das mit nativer Auflösung verglich, somit hat man gleich 2 Kritikpunkte aus der Welt geschafft. Eine RTX 3090 ist darüber hinaus nun dank DLSS (2.3) performant genug, die Bildrate inkl. Raytraced Schatten ("Ultra") stets über 60fps @ 3840x2160 zu halten, ohne visuell große Abstriche machen zu müssen, abgesehen von kleineren Verpixelungen in dunkleren Bereichen, dafür gibts bessere Transparenz-Glättung mit DLSS somit genug Vorteile auf der Haben-Seite. :)
Platos
2021-11-22, 11:07:51
Dann hats da immer noch etwas bei dir yo. Es sollte NIS auch mit DSR funzen, hier geds. (y)
Hmm ja, muss wohl noch irgendwo schrauben.
Ich vergnüge mich nachts immer noch in Industria - und stoße dabei immer wieder auf interessante Anti-Aliasing-Tests. Was man auf den folgenden Shots nicht sieht, sind sowohl NIS als auch FXAA, welche ich beide via Treiber draufklatsche und die sich im Spiel zu einem "scharfen Brei" ergänzen. Wie dem auch sei, dieser sich im Wind wiegende Alphatest-Baum ist die übelste Aliasing-Seuche, die ich in einem Spiel dieses Jahr gesehen habe:
UE4-Temporal-AA vs. Nvidia DLSS Q
https://abload.de/thumb/industria_taa81jzz.jpg (https://abload.de/image.php?img=industria_taa81jzz.jpg) https://abload.de/thumb/industria_dlssqa6j4e.jpg (https://abload.de/image.php?img=industria_dlssqa6j4e.jpg)
(ausnahmsweise JPG 95 % - ohne Color-Subsampling -, weil 4K, groß und so)
Eines der eindrücklichsten Beispiele dafür, was DLSS rekonstruieren kann - oder eben ein Beweis dafür, dass das UE4-TAA nicht rockt. Die UE5 hat viele Ansatzpunkte, um besser zu werden. Aber: In Bewegung nähern sich die Verfahren an, hier wird das TAA detaillierter und DLSS etwas "geisterhafter". Und die Raytracing-Schatten fransen mit DLSS stärker aus, da der Ray Count abnimmt. Bei Shadow Maps wirkt DLSS hingegen auch mal als Denoiser (https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1383714&page=3&draft=-1&rank=3) -> Man muss DLSS wirklich von Fall zu Fall bewerten.
Apropos Shadows: Für Rise of the Tomb Raider kam just der "Patch für den Patch", sodass DLSS wieder ohne Rollback-Version genutzt werden kann. =)
MfG
Raff
Troyan
2021-11-25, 10:11:25
Du kannst auch "Deliver us the Moon" testen. Dort wurde TAAU vor ein paar Monaten reingepatcht. DLSS ist nicht optimal eingebaut (unschärfer), aber man erkennt Vor- und Nachteile beider Verfahren.
aufkrawall
2021-11-25, 12:20:07
oder eben ein Beweis dafür, dass das UE4-TAA nicht rockt.
Die meisten Spiele dürften immer noch veraltete Versionen des UE TAAs verwenden.
Aber auch einigermaßen egal. Ohne DL bekommt man die TAA-Artefakte bei niedrigen Render-Auflösungen schlicht nicht gut genug weg. In einem Jahr wird sich bei TAA quasi nichts getan haben, während DLSS und XeSS sich schon einen Schlagabtausch mit neuen Versionen geliefert haben werden.
dildo4u
2021-11-26, 10:25:13
Mit Assetto Corsa Competizione kann man DLSS vs FSR vs Unreal TAA Gen 5 testen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12856311&postcount=386
aufkrawall
2021-12-02, 20:40:06
Nun auch in Diablo 2 Resurrected (2.2.11). Scheint prinzipiell gescheit auszusehen, endlich ist der altertümliche Pixellierungs-Look weg (war nicht Teil des Art Designs :freak: ).
Sie haben aber leider wohl mal wieder das LOD-Bias nicht angepasst. Sieht auf den ersten Blick mit erzwungenem Bias über den Treiber gut aus:
https://abload.de/thumb/d2rbiasdcjcv.png (https://abload.de/image.php?img=d2rbiasdcjcv.png)
aufkrawall
2021-12-03, 23:08:52
Mal in Bildern:
https://abload.de/thumb/d2r_2021_12_03_22_55_jske4.png (https://abload.de/image.php?img=d2r_2021_12_03_22_55_jske4.png) https://abload.de/thumb/d2r_2021_12_03_22_55_ltjlj.png (https://abload.de/image.php?img=d2r_2021_12_03_22_55_ltjlj.png) https://abload.de/thumb/d2r_2021_12_03_22_56_jpklw.png (https://abload.de/image.php?img=d2r_2021_12_03_22_56_jpklw.png)
Auffällig ist, dass ohne DLSS die Schatten sowohl im Stand-, als auch Bewegtbild sehr aliased sind. Das TAA vom Spiel ist halt kein echtes temporales Supersampling, sondern nur leicht lindernder Motion Blur. Auch bei Specular Aliasing (Blutlachen etc.) fällt das extrem auf. Hier zeigt sich mal wieder, dass es viel einfacher ist, DLSS einzubauen, als selber gutes TAA zu entwickeln. Was auch zeigt, wie schlecht AMDs Ansatz ist, mit FSR kein eigenes TSSAA zu nutzen. Für den Müll kann man sich gar nicht zu sehr den Tod wünschen.
Im Auslieferungszustand ist DLSS in D2R leider ziemlich unbrauchbar, das Spiel besteht praktisch nur aus Texturdetails und kaum aus Geometriedetails, und leidet deshalb extrem unter dem nicht angepassten LOD.
Zudem ist es aus Performancesicht auch komplett unnotwendig, da eh CPU limitert, das einzige was sich bei mir mit DLSS tut ist, dass die GPU-Auslastung immer weiter sinkt, bei identischer Performance.
DrFreaK666
2021-12-08, 17:39:51
...Was auch zeigt, wie schlecht AMDs Ansatz ist, mit FSR kein eigenes TSSAA zu nutzen. Für den Müll kann man sich gar nicht zu sehr den Tod wünschen.
Weil jeder eine RTX-Karte hat und wenn nicht, Karten absolut bezahlbar sind.
Achtung: Ironie
aufkrawall
2021-12-08, 17:45:17
Was soll das damit zu tun haben?
Intel XeSS DP4a Fallback hast du schon wieder vergessen? Gibt von AMD auch TAA-Projekte auf Github, nutzt nur kein Mensch...
DrFreaK666
2021-12-08, 18:36:16
Was soll das damit zu tun haben?
Intel XeSS DP4a Fallback hast du schon wieder vergessen? Gibt von AMD auch TAA-Projekte auf Github, nutzt nur kein Mensch...
Gibt es XeSS jetzt denn schon? Weiss jemand wie gut es performan wird?
Sind wir im Speku-Forum?
Slipknot79
2021-12-08, 20:56:35
Der Shice von Intel erinnert mich jedes Mal an Schutzstaffel :mad:
aufkrawall
2021-12-08, 21:28:24
Gibt es XeSS jetzt denn schon? Weiss jemand wie gut es performan wird?
Sind wir im Speku-Forum?
Was ändert das daran, dass FSR auch eine TAAU-basierte Lösung hätte sein können? Gar nichts.
AMD hat das schlicht in der Zeit nicht auf die Kette gekriegt. Wird man dann sehen, wenn noch was kommt...
DrFreaK666
2021-12-08, 22:13:56
... Hier zeigt sich mal wieder, dass es viel einfacher ist, DLSS einzubauen, als selber gutes TAA zu entwickeln...
Und es ist noch einfacher FSR einzufügen, so dass Nicht-RTX-User davon profitieren. Wieso ignorierst du das jedes Mal?
DLSS ist besser, bringt aber nichts wenn keine RTX-Karte hat
aufkrawall
2021-12-08, 22:51:45
Und es ist noch einfacher FSR einzufügen, so dass Nicht-RTX-User davon profitieren. Wieso ignorierst du das jedes Mal?
Das Spiel hat bereits ein eigenes minderwertiges Upscaling. Warum reitest du jedes mal drauf rum, dass es einfach ist, Schrott einzubauen, der niemandem etwas bringt...
Und es ist noch einfacher FSR einzufügen, so dass Nicht-RTX-User davon profitieren.
Weil man davon nicht profitiert, alle halbwegs verbreiteten aktuellen Engines haben mindestens gleichwertiges wenn nicht sogar besseres Upscaling schon integriert.
Nur weil man jetzt statt einem Resolution-Slider an DLSS angelehnte fixe Bezeichnungen verwendet ist das kein Vorteil.
Und das man die höchste Stufe auch noch "Ultra Quality" anstatt "Just acceptable Quality" nennt ist schon fast eine Verhöhnung des Gegeners.
GerryB
2021-12-09, 02:00:40
Das ist doch ganz verständlich, das Niemand von ner 1080Ti auf ne 2080 oder 3070 wechseln will!?
DrFreaK666
2021-12-09, 11:12:41
Das Spiel hat bereits ein eigenes minderwertiges Upscaling. Warum reitest du jedes mal drauf rum, dass es einfach ist, Schrott einzubauen, der niemandem etwas bringt...
Natürlich bringt es was. Zumindest in 4k und je nach Spiel auch in 1440p :rolleyes:
aufkrawall
2021-12-09, 11:35:34
Woher willst du das wissen, wenn noch niemand einen Vergleich in D2R gesehen hat? Trolling much? Egal -> ignore. Kommt eh immer nur die gleiche Platte von dir, kein Verlust.
Troyan
2021-12-09, 12:23:45
Horizon Zero Dawn skaliert ja ziemlich mies auf Ampere (und Turing?) von niedrigen Aufklösungen nach höheren. DLSS Quality ist in 4K ca. 30% schneller als 1440p. Da bin ich auf Intels XeSS gespannt, dass mit DP4a deutlich langsamer laufen wird. Da kommt man wahrscheinlich zu der Situation, wo 4K und 4K@4DPa sich nicht leistungstechnisch unterscheiden.
robbitop
2021-12-09, 12:43:30
Auf 1440p ggf kein volles GPU Limit?
aufkrawall
2021-12-09, 13:55:44
Doch.
basix
2021-12-09, 14:20:14
Ist bei RDR2 ja auch so, dass generell alle Karten nur gering mit der Auflösung skalieren, aber volles GPU-Limit herrscht.
robbitop
2021-12-09, 14:23:40
Da fragt man sich wo dann das (zusätzliche) Limit ist. Zeug was nicht auflösungsabhängig ist: Draw Calls, Geometrie, Culling?
Bei RDR2 ist mir das bei meiner 1080ti auch schon aufgefallen.
-/\-CruNcher-/\-
2021-12-09, 15:49:09
Viel interesannter ist es doch wieviel energie DLSS spart man darf allerdings nicht vergessen die seite auf der die Energie momentan verblassen wird um sie auf der anderen seite innerhalb der Hardware einzusparen ;)
Diese Einsparung setzt man in Performance um man kann diese Einsparung analysieren in dem man alles auf rückwärts modus stellt allerdings ist es nicht einfach zu Analysieren wie viel Nvidia sich das Kosten lässt im Vergleich zu Hardware Bruteforce ;)
Es läuft jedenfalls alles auf ihre eigene optimierte Hardware Platform hinaus allerdings ob wir die jemals als Endconsumer direkt sehen werden bezweifele ich noch.
Ich glaube auch kaum das Nvidia diese Effizienz die sie da gerade intern auf und ausbauen mit überhaupt irgend jemanden jemals Physisch in form von Hardware teilen werden.
DrFreaK666
2021-12-10, 13:53:56
3kIJOTfOG8s
Als Ganzes gesehen, scheint 2.3 besser zu sein als ältere Versionen
Troyan
2021-12-10, 13:57:20
Nicht nur Ghosting/Schmieren, sondern auch Moire Probleme aus der Unterfilterung werden deutlich reduziert.
Ist deutlich Schritt nach vorne.
aufkrawall
2021-12-10, 14:00:48
Tja, trotzdem sollte mal wieder eine DLSS-Version erscheinen, die das Smearing weiter reduziert.
Lurtz
2021-12-10, 15:26:16
Bei Horizon ist Version 2.3.5 dabei, gibt es damit noch feststellbare Verbesserungen?
basix
2021-12-10, 15:54:04
Da fragt man sich wo dann das (zusätzliche) Limit ist. Zeug was nicht auflösungsabhängig ist: Draw Calls, Geometrie, Culling?
Bei RDR2 ist mir das bei meiner 1080ti auch schon aufgefallen.
Oder halt irgendwelches Compute-Zeugs, welches nicht mit der Auflösung skaliert.
Generell, dieses Verhalten kann man bei immer mehr Spielen beobachten, wenn man Nvidias eigenen DLSS Benchmarks glaubt.
Dampf
2021-12-10, 16:12:04
Wie kriegt man jetzt eigentlich das offizielle DLSS 2.3 für Cyberpunk? Ich hab den neuesten Treiber und das Spiel ist auf dem neuesten Stand aber bei mir wird die DLSS.dll nicht durch eine neue ersetzt und das Ghosting bleibt bestehen.
aufkrawall
2021-12-10, 16:26:19
Bei Horizon ist Version 2.3.5 dabei, gibt es damit noch feststellbare Verbesserungen?
In Doom Eternal und HZD jedenfalls nicht.
Wie kriegt man jetzt eigentlich das offizielle DLSS 2.3 für Cyberpunk? Ich hab den neuesten Treiber und das Spiel ist auf dem neuesten Stand aber bei mir wird die DLSS.dll nicht durch eine neue ersetzt und das Ghosting bleibt bestehen.
GeForce Experience.
Winter[Raven]
2021-12-10, 16:37:52
GeForce Experience.
Klappte bei mir definitiv nicht. Also habe ich die DLL im Spieleordner per Hand ausgetauscht.
Auf reddit gab es paar Steps, wie man überprüfen konnte/sollte... bei mir hatte GFE definitiv nichts geladen was vorgegeben war.
aufkrawall
2021-12-10, 16:40:39
Ich habe nicht gesagt, dass ich davon ausgehe, es würde funktionieren. :D
Ist schon eine ultra hässliche Hack-Lösung. Einfach nur richtig dumm, dass die DLL nicht abwärtskompatibel im Treiber selbst enthalten ist, mit ggf. verschiedenen Kompatiblitätsprofilen für Spiele...
robbitop
2021-12-10, 19:30:37
Oder halt irgendwelches Compute-Zeugs, welches nicht mit der Auflösung skaliert.
Generell, dieses Verhalten kann man bei immer mehr Spielen beobachten, wenn man Nvidias eigenen DLSS Benchmarks glaubt.
Compute ohne Auflösungsabhängigkeit? Hm da fällt mir nicht viel ein.
Gaston
2021-12-20, 13:19:12
Pcgh hat grad unerwartet einen wirklich GROSSEN Artikel zum Thema gebracht: https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-Benchmarks-Test-Vergleich-mit-anderen-Upscaling-Verfahren-1385215/
mfg
Pcgh hat grad unerwartet einen wirklich GROSSEN Artikel zum Thema gebracht: https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-Benchmarks-Test-Vergleich-mit-anderen-Upscaling-Verfahren-1385215/
mfg
Yes. Beeindruckend, wie das hier so gar keinen juckt. :|
Hier die krassesten Vergleiche (aus dieser Playlist (https://www.youtube.com/watch?v=C6AH3jJtI1c&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G)):
https://www.youtube.com/watch?v=hEbXqW2vlsY
https://www.youtube.com/watch?v=OqZ4s_bdDHE
https://www.youtube.com/watch?v=X9Q8081gGQY
MfG
Raff
Dampf
2021-12-21, 11:47:35
Gerade bei niedrigen Auflösungen zeigt DLSS seine Stärke. Ist echt krass, wie gut es das Flickern ausmerzt und Details hinzufügt.
Ja.... KI ist die Zukunft, in allen Bereichen
basix
2021-12-21, 11:49:23
@Raff:
Wie siehst du das bezüglich DLSS und Performancegewinn? Mir scheint es, umso neuer die Spiele desto weniger profitiert man von DLSS. Cyberpunk ist da eher noch eine Ausnahme. Andere Spiele laufen entweder in ein CPU-Limit oder profitieren generell nicht so stark von der reduzierten Auflösung. RDR2 ist hier ein Paradbeispiel.
y33H@
2021-12-21, 13:48:43
Youtube für Bildqualität ... ich hab mich schon gegen die 50 MBit/s von GFE gesträubt ^^
Ich nutze wann immer es geht Q-DLSS in 4K für mein 1440p-Display :ulove:
robbitop
2021-12-21, 15:03:34
Ich nutze wann immer es geht Q-DLSS in 4K für mein 1440p-Display :ulove:
Und dann von 2160p auf 1440p downsamplen? Also quasi 1,5x1,5 SSAA? Ungerade Faktoren saugen IMO. Warum nicht P-DLSS in 5K auf 1440p downsamplen? Inputresolution ist dann gleich und man hat einen geraden Downsamplingfaktor.
aufkrawall
2021-12-21, 15:21:01
Halte ich für komplett überbewertet. In Legion sind die Artefakte auch mit 5k DLSS P -> 1440p noch eindeutig zu erkennen, und auch temporales Aliasing noch immer. Der Sprung ist zumindest viel kleiner als von den meist mittelmäßigen bis schlechten TAA-Lösungen in nativer Auflösung hin zu den 66% von DLSS Q (sofern LOD-Bias korrekt verschoben). Der Schrott-Scaler von DSR für <4x macht es auch nicht gerade attraktiver. Kenn es auch vom 4k-Monitors meines Bruders, trifft auch damit zu. DLSS hat den Qualitätsunterschied zwischen 1440p und 2160p deutlich verringert.
][immy
2021-12-21, 16:13:27
Yes. Beeindruckend, wie das hier so gar keinen juckt. :|
Hier die krassesten Vergleiche (aus dieser Playlist (https://www.youtube.com/watch?v=C6AH3jJtI1c&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G)):
https://www.youtube.com/watch?v=hEbXqW2vlsY
https://www.youtube.com/watch?v=OqZ4s_bdDHE
https://www.youtube.com/watch?v=X9Q8081gGQY
MfG
Raff
In der tat, das ist beeindruckend was DLSS aus niedrigen Auflösungen raus holt. Allerdings sehe ich bislang (auf meinem 1440p) Monitor sobald ich DLSS nutze immer ein ziemlich unscharfes Bild. Besonders in Control hat mich das extrem gestört. Das ist mir der Performancegewinn da einfach nicht Wert. Es sieht halt immer so aus, als wenn ein Blur-Filter über das gesamte Bild gezogen wurde.
Bin aber allgemein auch kein Fan von TAA verfahren, auch wenn sie das Bild gern mal stark beruhigen. Aber heutzutage gibt es ja schon fast nichts anderes mehr. Allerdings hat man halt immer das Problem das besonders DLSS auch noch gern mal neue Artefakte einführt auch was die Texturschärfe angeht, kann es hier dann zusätzlich vorkommen, das eine Textur heraussticht, weil DLSS diese tatsächlich "verbessert" hat.
Dampf
2021-12-21, 17:53:00
[immy;12879422']In der tat, das ist beeindruckend was DLSS aus niedrigen Auflösungen raus holt. Allerdings sehe ich bislang (auf meinem 1440p) Monitor sobald ich DLSS nutze immer ein ziemlich unscharfes Bild. Besonders in Control hat mich das extrem gestört. Das ist mir der Performancegewinn da einfach nicht Wert. Es sieht halt immer so aus, als wenn ein Blur-Filter über das gesamte Bild gezogen wurde.
Bin aber allgemein auch kein Fan von TAA verfahren, auch wenn sie das Bild gern mal stark beruhigen. Aber heutzutage gibt es ja schon fast nichts anderes mehr. Allerdings hat man halt immer das Problem das besonders DLSS auch noch gern mal neue Artefakte einführt auch was die Texturschärfe angeht, kann es hier dann zusätzlich vorkommen, das eine Textur heraussticht, weil DLSS diese tatsächlich "verbessert" hat.
Einfach Sharpening nutzen.
In den meisten Fällen ist die Unschärfe bei DLSS nur der Ungleichheit von TAA Sharpening und DLSS Sharpening geschuldet, letzteres ist standardmäßig aus. Wenn das also nicht an das TAA Sharpening angepasst wird, erscheint es blurry. Mit Sharpening kannst du es ausgleichen, ich empfehle dazu CAS.
y33H@
2021-12-21, 22:01:48
Und dann von 2160p auf 1440p downsamplen? Also quasi 1,5x1,5 SSAA? Ungerade Faktoren saugen IMO. Warum nicht P-DLSS in 5K auf 1440p downsamplen? Inputresolution ist dann gleich und man hat einen geraden Downsamplingfaktor.Q-DLSS in 4K ist quasi DLAA in 1440p.
robbitop
2021-12-21, 22:11:13
Ja aber mit o.g. Nachteilen. Meinen Vorschlag schon mal probiert? Müsste von der Schärfe prinzipbedingt besser sein.
y33H@
2021-12-22, 07:40:25
Gesehen und auf die Liste gesetzt =)
aufkrawall
2021-12-27, 17:58:29
Da fragt man sich, wie man RotTR überhaupt mit dem steinzeitlichen SMAA spielen konnte :freak: :
https://abload.de/thumb/rottr_2021_12_27_18_0fbjaa.png (https://abload.de/image.php?img=rottr_2021_12_27_18_0fbjaa.png)
https://abload.de/thumb/rottr_2021_12_27_18_0xikoc.png (https://abload.de/image.php?img=rottr_2021_12_27_18_0xikoc.png) https://abload.de/thumb/rottr_2021_12_27_18_0cxjvo.png (https://abload.de/image.php?img=rottr_2021_12_27_18_0cxjvo.png)
Gut, CAS ist hier auch ein Muss. Aber mal wieder eine magische Kombi mit DLSS. Nvidia sollte das einfach 1:1 in den Treiber als Feature übernehmen anstatt ihr Schrott-Sharpen (wovon es mittlerweile an der Zahl gleich drei gibt :freak: ;D ).
Ex3cut3r
2021-12-27, 20:52:34
Jo. Das frage ich mich auch wieder. Die außenreale vor allem das Geothermale Tal waren schon sehr hässlich. Aber das durch die Flimmerhölle was es nochmal hässlicher.
Rennt nun maximiert mit der 3080Ti @ WQHD und DLSS Q sowie CAS @ 1.6 Stärke mit 170 FPS avg. :hammer:
https://abload.de/thumb/rottr_2021_12_27_20_4iokj2.png (https://abload.de/image.php?img=rottr_2021_12_27_20_4iokj2.png)
Das lief damals Anfang 2016 maximiert aber mit Low Texturen @ GTX 770 2GB mit so mit ca. 30 FPS @ 1080p ;D
Die GTX 1070 dich ich mir im Sommer 2016 geholt hatte könnte es wenigstens für 1440p maxxen, allerdings auch nur mit 50 FPS.
Slipknot79
2021-12-27, 23:27:20
In RotTR schaffe ich es nicht mit CAS+DLSS-Q native Schärfe zu erzeugen.
Mit CAS wird das Bild zwar schärfer, aber mit beiden Reglern auf 1.000 gibt es bereits Überschärfungsaretfakte im Schnee.
Regel ist das Teil so ein, dass die Artefakte verschwinden, wirkt das Bild immer noch etwas unscharf :mad:
Muss man wohl manuell auf 1.6 stellen (Schieberegler ged ja nur max auf 1.000), die intensity. Werde es später probieren. (y)
Ex3cut3r
2021-12-27, 23:54:41
Ja genau. Du öffnest Reshade und machst einen rechtsklick auf AMD Fidelity Bla Bla..dann auf edit CAS.fx und dann im Editor den Wert mit 1.0 auf 2.0 z.B. ändern. Oben auf Save und den Editor schließen. Voila. Mehr als 1.0 auswählbar. :up:
Du kannst aber auch ganz normal die CAS.fx Datei mit dem Windows Text Editor öffnen und da die 2.0 eintragen. Geht auch.
https://abload.de/thumb/imageltk05.png (https://abload.de/image.php?img=imageltk05.png)
aufkrawall
2021-12-28, 00:00:02
Geht auch einfach per Doppelklick in das Schiebereglerfeld. Contrast Adaptation würd ich gar nicht höher als 0 drehen, damit schärft er eh schon Flächen recht deutlich nach.
Bei RotTR sind viele Effekte wie Gras offenbar noch zusätzlich niedriger als der Rest der Szene aufgelöst, das kann man dann logischerweise nicht so scharf wie den Rest bekommen.
Slipknot79
2021-12-28, 00:56:55
Ja genau. Du öffnest Reshade und machst einen rechtsklick auf AMD Fidelity Bla Bla..dann auf edit CAS.fx und dann im Editor den Wert mit 1.0 auf 2.0 z.B. ändern. Oben auf Save und den Editor schließen. Voila. Mehr als 1.0 auswählbar. :up:
Du kannst aber auch ganz normal die CAS.fx Datei mit dem Windows Text Editor öffnen und da die 2.0 eintragen. Geht auch.
https://abload.de/thumb/imageltk05.png (https://abload.de/image.php?img=imageltk05.png)
Yea thx, hab den souce code mal ingame geändert auf 2.0. *FeelingLikeAProCoder* Morgen wird mir Lederjacke ne job offer dropen (y)
Yea CA ist auf 0. Mir war eigentlich beides auf 1.000 nicht scharf genug, nicht so scharf wie mit DLSSoff. oO
CA ab 0.400 liefert Artefakte im Schnee. Lasse den Shice jetzt wieder auf 0 und intensity auch auf 1.600. Bin aber auch gerade in dunklen Levels unterwegs, so dass ich in Sachen Schärfe erst mal nicht viel testen can. :mad:
Nazar
2021-12-28, 16:30:43
Yes. Beeindruckend, wie das hier so gar keinen juckt. :|
Hier die krassesten Vergleiche (aus dieser Playlist (https://www.youtube.com/watch?v=C6AH3jJtI1c&list=PL9RO-m0OS4wZkZUtXLR8EydGnNkq3PL3G)):
https://www.youtube.com/watch?v=hEbXqW2vlsY
https://www.youtube.com/watch?v=OqZ4s_bdDHE
https://www.youtube.com/watch?v=X9Q8081gGQY
MfG
Raff
Wer spielt denn in solchen "Briefmarkenauflösungen"?
Man wechselt von Pest zur Cholera.
Fakt ist, dass DLSS auch in der neusten oder, wenn ich es richtig analysiert habe, sogar mehr Unschärfe ins Spiel bringt als je zuvor.
Ja, es beruhigt das Bild, aber der Effekt ist weg, sobald man mit den Schärfefiltern arbeitet, ohne jedoch an die native Qualität auch nur im Ansatz heranzureichen. Dass AF dabei fast vollkommen vernichtet wird, scheint auch keine der "Zeitschriften" zu interessieren. Auf allen Vergleichsvideos, aber besonders bei TGotG ist besonders gut zu erkennen, wie Texturedetails massive am Boden verloren gehen. Und diese Details bekommt man auch mit Nachschärfen nie wieder zurück!
Das schlimme ist leider, dass man hier über BQ versucht zu diskutieren, obwohl es hier um BQ Reduzierung geht und versucht diese an den "Mann zu bringen".
Mit Bildqualitätsverbesserung hat DLSS absolut >>nichts<< zu tun. Egal in welcher Stufe, es ist >>immer<< eine oft massive Bildqualitätsreduktion!
Ich gewinne immer öfter den Eindruck, dass bestimmte online Magz von nV für diese Werbung "unterstützt" werden. Anders kann ich mir diese massiven Falschdarstellungen ansonsten nicht mehr erklären.
Das, was hier teilweise behauptet wird, ist bei >>jedem<< Spiel widerlegbar. Es stimmt einfach nicht!
DLSS ist maximal eine >>FPS<< Verbesserung durch das Erkaufen von (teilweise massiven) Verlusten bei der BQ. Das ist die simple Wahrheit über DLSS, und dass mit jeder neuen "Weiterentwicklung" die Unschärfe des erzeugten Bildes weiter zugenommen hat.
Es kann natürlich auch sein, dass ich falsch liege und das "scharfes Sehen" nicht mehr wichtig ist und auch, dass gute Texturen in einem Spiel vollkommen bedeutungslos geworden sind. Dann, ja dann ist alles so wie es hier behauptet wird. :freak:
y33H@
2021-12-28, 17:00:20
Statt dieser Textlatte hätte ein "PCGH ist gekauft" es auch getan ...
ChaosTM
2021-12-28, 17:06:11
Niemand schafft längere Textwände mit weniger Inhalt. Das ist schon fast eine Kunstform.
robbitop
2021-12-28, 17:36:17
DLSS ist ja auch gar nicht primär zur BQ Steigerung gedacht sondern zur Performanceerhöhung mit so wenig wie mgl BQ Verlust. Das Endergebnis ist relativ variabel - stark abhängig von der Implementierung und wie gut es zur Renderpipine des jeweiligen Spiels passt.
Id macht es bei Doom Eternal zB sehr gut - einer der besten Implementierungen.
Mit korrekter LOD Verschiebung ist bei Texturen eigentlich auch keine Unschärfe zu erwarten.
aufkrawall
2021-12-28, 18:20:27
Es gibt trotzdem komische Schärfe-Unterschiede zwischen den Spielen, auch mit korrekt verschobenem Bias.
Entweder, einige Entwickler schärfen selber clever nach, oder es gibt noch irgendwelche einstellbaren Parameter bei DLSS, die das beeinflussen. Fortnite sieht komplett natürlich scharf aus, Control hingegen ist ein völliges Blur-Fest.
Edit: In Doom Eternal ist es übrigens schärfer als das TSSAA in nativer Auflösung, auch bei komplett deaktiviertem DLSS-Sharpen. Da muss man mit Q das spieleigene Sharpen schon leicht von den standardmäßigen 33% auf 30% runterdrehen. Würde für das Spiel aufgrund geringeren Smearings btw. weiterhin 2.2.6/2.2.11 anstatt 2.3.x empfehlen.
Fortnite sieht komplett natürlich scharf aus, Control hingegen ist ein völliges Blur-Fest.
Control ist auch ohne DLSS ein Blur-Fest, das ist das komische Temporale Rendering der Remedy Engine.
basix
2021-12-29, 23:47:40
Weiss nicht ob es hier thematisch so richtig reinpasst:
https://www.youtube.com/watch?v=G00A1Fyr5ZQ
Dort wird gezeigt, wie man ein Bewegtbild von eine tiefen Framerate zu einer hohen Framerate hochskaliert. Zum Teil bis 10x mehr FPS.
Ich sehe da zwei Anwendungszwecke:
- Videokompression
- DLSS artiges System, welche nicht die Auflösung upsampled, jedoch die Bilder zwischen zwei Frames interpoliert.
Bei einer hochdynamischen Sache wie Spielen ist temporal upsampling vermutlich besser geeignet. Falls man aber bereits viele FPS hat, sagen wir mal 60...120fps, könnte man die FPS allenfalls auf 240fps erhöhen. Zusätzliche Latenz etc. wäre hier wohl eher gering, man hat aber prinzipbedingt mindestens +1 Frame höhere Latenzen. Fürs Interpolieren zwischen den Frames muss das nächste Frame ja bereits fertig sein. Ob die bessere Bewegtschärfe usw. das aufwiegen können?
Grundsätzlich könnte man es auch auf DLSS obendrauf setzen:
- Rendering @ 1080p @ 60...120fps
- Upsampling @ 4K
- "Up-Pacing" to 120...240fps
Von der Idee her wäre das ziemlich krass. Rendering @ 1080p/60 und bekommt 4K/120. Das sind 8x weniger Pixel.
Ich sehe da zwei Anwendungszwecke:
- Videokompression
- DLSS artiges System, welche nicht die Auflösung upsampled, jedoch die Bilder zwischen zwei Frames interpoliert.
Das erhöht die Latenz und ist damit für Spiele ungeeignet und rein für Videos verwendbar.
Und TVs haben derartige sachen schon seit Ewigkeiten integriert, und genau das ist es was im Spielmodus des TVs deaktiviert wird, um die Latenz zu drücken.
Slipknot79
2021-12-31, 02:43:52
https://store.steampowered.com/app/1330470/FIST_Forged_In_Shadow_Torch/
F.I.S.T.: Forged In Shadow Torch Demo hat nun DLSS und DLSS Sharpening erhalten. (y)
DLSS ist aber weniger notwendig bei dem Spiel wenn man eine dicke Hardware hat, auf meinem Teil +100fps ohne DLSS und RTon in UWQHD.
Troyan
2022-01-11, 16:07:04
nVidia kombiniert mit dem nächsten Treiber DSR und DLSS:
Our January 14th Game Ready Driver updates the NVIDIA DSR feature with AI. DLDSR (Deep Learning Dynamic Super Resolution) renders a game at higher, more detailed resolution before intelligently shrinking the result back down to the resolution of your monitor. This downsampling method improves image quality by enhancing detail, smoothing edges, and reducing shimmering.
DLDSR improves upon DSR by adding an AI network that requires fewer input pixels, making the image quality of DLDSR 2.25X comparable to that of DSR 4X, but with higher performance. DLDSR works in most games on GeForce RTX GPUs, thanks to their Tensor Cores.
https://www.nvidia.com/en-us/geforce/news/god-of-war-game-ready-driver/
Dampf
2022-01-11, 16:38:08
Da isses also, DLSS2x und es funzt mit jedem Game. Raff wird sich freuen ;)
Edgecrusher86
2022-01-11, 16:51:29
Sieht gut aus. =)
https://abload.de/img/1uakxw.png
Fullsize:
https://abload.de/thumb/unbenannth6kf9.png (https://abload.de/image.php?img=unbenannth6kf9.png)
Klar schärfer, als 4.00x DSR und dabei quasi die native Performance - kann was. :)
y33H@
2022-01-11, 17:01:37
Da isses also, DLSS2x und es funzt mit jedem Game.Leider nein, braucht Exclusive Fullscreen - tut also zB nicht in God of War oder Halo Infinite :usad:
Troyan
2022-01-11, 17:05:26
Naja, das selbe wie NIS. Im Desktop einstellen und dann spielen...
y33H@
2022-01-11, 17:15:08
Jupp, das ist richtig - aber halt wieder Druiden Gebastel ^^
aufkrawall
2022-01-11, 18:25:22
In aktuelleren D3D12-Titeln ohne klassischen FSE, will man wohl lieber Upsampling anstatt Downscaling nutzen.
robbitop
2022-01-11, 19:41:29
Ist das nur eine Kombination von DSR und NIS? Also einfach nur das spatiale bessere Samplingverfahren statt für upsampling eben für downsampling? Für die Kanten und Schärfe mag das was bringen aber temporale Stabilität eher nicht.
aufkrawall
2022-01-11, 19:45:07
Die Ankündigung ist doch ziemlich unmissverständlich? Anstatt des schrottigen nearest neighbor + Blur Scalers, gibt es nun einen DL-basierten Scaler für DSR. Mit dem Lanczos-Gammel für NIS dürfte das nichts zu tun haben.
Natürlich kann das keine temporalen Wunder vollbringen, aber es kann überhaupt erstmal ungerade Faktoren brauchbar machen (hoffen wir es mal).
Da isses also, DLSS2x und es funzt mit jedem Game. Raff wird sich freuen ;)
Nein ist es nicht, es hat nichts mit dem temporalen Upscaling von DLSS zu tun.
y33H@
2022-01-11, 20:28:03
Sondern? Es ist DLSS mit höherer als nativer Auflösung.
aufkrawall
2022-01-11, 20:34:00
Es ist DLSS mit höherer als nativer Auflösung.
Wer sagt, dass es, abseits vom Konzept, mit DLSS 1.0 verwandt ist? Es kann ein komplett neuer Algorithmus sein. Würde jedenfalls Sinn ergeben, wenn DLSS 1.0 nur aufs Upscaling trainiert war.
Edit: Und, wie robbitop ausgeführt hat, natürlich rein spatial, im Gegensatz zu DLSS 2.x.
robbitop
2022-01-11, 20:37:25
Sondern? Es ist DLSS mit höherer als nativer Auflösung.
Da es in jeden Game gehen soll ist es das nicht sondern wie krawall schreibt nur DSR kombiniert mit besserem spatialen Downsamplingfilter. Der Filter klingt oberflächlich nach dem was Radeon Super Resolution / FSR macht anstelle des bilinearem Filterkernel (gerade Faktoren) bzw pointsamplibg filter mit vorgelagertem Gaußgeblurre. Das war etwas was bei DSR schon immer katastrophal schlecht war. Insbesondere da GeDoSato Jahre zuvor anständige Filterkernel bot.
Das ganze ist rein spatial - dafür geht es in jedem Spiel (zumindest in denen dsr auch ging).
y33H@
2022-01-11, 20:49:34
Es soll in fast jedem Spiel gehen .. heute war ein schei0 Tag, vll habe ich mich da zu ner Fehleinschätzung hinreißen lassen - ich frage nach bzw schau mir den Treiber an :usad:
Lurtz
2022-01-11, 20:55:59
Wie ist das in Spielen die DLSS bereits unterstützen? Kann man das kombinieren, ist das was völlig anderes?
aufkrawall
2022-01-11, 21:09:11
Dürfte sich schon kombinieren lassen. Ob es Sinn ergibt, wird man dann sehen. Tendiere zu nein. DLSS wird mit steigender Auflösung auch teurer und das klaut dann noch zusätzlich TC-Leistung.
Aber: In höherer Render-Auflösung funktioniert TAA natürlich wesentlich besser als in niedrigerer. Wenn man das in genügender und natürlicher Schärfe nach dem Downscaling bei Faktor 2,25x beibehalten kann, wär das schon gut. Ist halt ein BQ- und kein Performance-Verbesserer.
Sondern? Es ist DLSS mit höherer als nativer Auflösung.
Definitiv nicht, ansonsten könnte es nicht ohne direkte Spielunterstützung funktionieren.
Das ist DSR mit einem besseren Scaler, ich würde mal vermuten ähnlich dem AI-Upscaling im Shield.
robbitop
2022-01-11, 22:11:33
Dürfte sich schon kombinieren lassen. Ob es Sinn ergibt, wird man dann sehen. Tendiere zu nein. DLSS wird mit steigender Auflösung auch teurer und das klaut dann noch zusätzlich TC-Leistung.
Aber: In höherer Render-Auflösung funktioniert TAA natürlich wesentlich besser als in niedrigerer. Wenn man das in genügender und natürlicher Schärfe nach dem Downscaling bei Faktor 2,25x beibehalten kann, wär das schon gut. Ist halt ein BQ- und kein Performance-Verbesserer.
Wahrscheinlich lohnt es kaum. NV hat ja aus ähnlichen Gründen DLAA nie gebracht. Deminishing returns. Kostet ggü nativ und sieht nicht so viel besser aus wohingegen DLSS Leistung spart.
IMO ist verbessertes DSR trotzdem sehr lobenswert - kann ma alte Spiele aufhübschen die kein anständiges TAA haben. :)
iamthebear
2022-01-11, 22:16:00
Also so wie ich das Verstanden habe:
Monitor ist 1440p
DSR 4x ist dann in 5120x2880 (5K) gerendert und runter skaliert auf 1440p
DLDSR 2.25x ist dann 4K runterskaliert auf 1440p
Da stellen sich mir 2 Fragen:
.) Das bedeutet aber, dass die Performance hier etwas schlechter sein muss als 4K. Wie kommt Nvidia auf die Idee, dass DLDSR fast so schnell sein soll wie Native?
.) Wie sieht der Vergleich mit DSR 2.25x bzw. 4x aus wenn gleichzeutig Image Sharpening aktiviert ist? Vergleiche mit Native sind meiner Meinung nach ziemlich sinnlos.
aufkrawall
2022-01-11, 22:22:37
.) Das bedeutet aber, dass die Performance hier etwas schlechter sein muss als 4K. Wie kommt Nvidia auf die Idee, dass DLDSR fast so schnell sein soll wie Native?
Downscaling könnte weniger Leistung als Upscaling brauchen.
.) Wie sieht der Vergleich mit DSR 2.25x bzw. 4x aus wenn gleichzeutig Image Sharpening aktiviert ist? Vergleiche mit Native sind meiner Meinung nach ziemlich sinnlos.
Wird immer noch viel schneller als 4x sein. Das Nvidia Treiber-Sharpen ist (bislang) schlecht. Keine Ahnung, ob es überhaupt mit DSR aktiv bleibt. Aber dann wendest du bei 2,25x auf Schrott-Scaling auch noch Schrott-Sharpen an. Von daher würd ich da nichts erwarten, auch wenn es gehen sollte.
robbitop
2022-01-11, 22:25:11
Ggf hat der spatiale Filter auch einen anständiges content adaptives sharpening dabei.
basix
2022-01-11, 23:10:54
.) Das bedeutet aber, dass die Performance hier etwas schlechter sein muss als 4K. Wie kommt Nvidia auf die Idee, dass DLDSR fast so schnell sein soll wie Native?
Einzig sinnvolle Erklärung: CPU Limit...
DLDSR sieht auf den ersten Blick recht gut aus. Wird interessant, ob bei älteren Spielen mit viel Vegetation sich Flimmern bekämpfen lässt. Heavily Modded Gothic 3 wäre so ein Kandidat :D
DSR hat bis anhin gefühlt immer etwas Unschärfe erzeugt. Hier scheint es knackscharf zu sein.
aufkrawall
2022-01-11, 23:14:31
Mit Faktor 4x und Smoothness 0%, ist auch der alte Scaler scharf und flimmerfrei. Ist dann halt bilinear.
Problem bei Auflösungen wie 5k ist aber auch, dass der RAM-Verbrauch der Anwendung ansteigt und das mit 32 Bit dann gerne oom Crashes verursacht. Black Mesa läuft so keine fünf Minuten. Mit Treiber-SGSSAA hat man das Problem quasi gar nicht. Bei ganz alten Spielen mit homöopathischem RAM-Verbrauch gibt es das Problem natürlich nicht, aber da hat man ja dann auch fast immer SGSSAA zur Verfügung.
Könnte man sowas dann bitte für VR bauen? In nativer Auflösung rendern und auf 2,8x upscalen...
robbitop
2022-01-12, 10:14:33
Heavily Modded Gothic 3 wäre so ein Kandidat :D
DSR hat bis anhin gefühlt immer etwas Unschärfe erzeugt. Hier scheint es knackscharf zu sein.
Gothic 3 ist mit SGSSAA kombinierbar. Da nehme ich doch kein Ordered Grid Supersampling (DSR). ;)
DSR erzeug insbesondere Unschärfe mit ungeraden Faktoren, weil dann Point Sampling mit vorhergehenden Gaußfilter zum Einsatz kam. Dazu der Unschärfeslider. Da hätte man lieber einen sinnvolleren Filterkernel nehmen sollen. Das war zum Release von DSR schon absolut lachhaft.
Bei geraden Faktoren kann man den Unschärfeslider auf 0 stellen, weil immerhin ein bilinearer Filterkernel zum Einsatz kam.
Die Ergebnisse sollten nun besser sein, da ja ein viel komplexerer (sicherlich kontent adaptiver Filter - sonst bräuchte man kein AI) Filterkernel zum Einsatz kommt. Aber an SGSSAA kommt das trotzdem nicht heran, weil viel schlechter gesampelt (Subpixelposition entspricht eben nur einem ordered grid was die edge equivalent resolution halt schlecht macht).
Geldmann3
2022-01-12, 11:10:11
Bin mal gespannt, ob wirklich die Qualität von 4xSSAA erreicht wird. Kann mir nicht vorstellen, wie das ohne temporale Informationen gehen soll, auch nicht mit AI. Details die nicht da sind kann die AI nicht dazuerfinden. Ein flimmriger Zaun kann also z.b. nicht so gut aussehen wie mit 4xSSAA. Es sei denn, die AI weiß gewisserweise doch die Bildinformationen aus vorhergegangenen Frames zu deuten. Dann könnte es in manchen Szenarien klappen, doch selbst hier sollte 4xSSAA meist nicht erreicht werden. Denn im Gegnesatz zu DLSS fehlt einfach der Jitter der Samplekoordinaten.
Andererseits hat Nvidia schon Wunder vollbracht.
Mit DLSS erreicht Nvidia mit 1/4 der internen Auflösung von 4xSSAA eine höhere Qualität als dieses ohne AA.
Eventuell schafft Nvidia es dann mit der halben Auflösung auch ohne den Sample Jitter.
basix
2022-01-12, 11:43:35
Gothic 3 ist mit SGSSAA kombinierbar. Da nehme ich doch kein Ordered Grid Supersampling (DSR). ;)
DSR erzeug insbesondere Unschärfe mit ungeraden Faktoren, weil dann Point Sampling mit vorhergehenden Gaußfilter zum Einsatz kam. Dazu der Unschärfeslider. Da hätte man lieber einen sinnvolleren Filterkernel nehmen sollen. Das war zum Release von DSR schon absolut lachhaft.
Bei geraden Faktoren kann man den Unschärfeslider auf 0 stellen, weil immerhin ein bilinearer Filterkernel zum Einsatz kam.
Die Ergebnisse sollten nun besser sein, da ja ein viel komplexerer (sicherlich kontent adaptiver Filter - sonst bräuchte man kein AI) Filterkernel zum Einsatz kommt. Aber an SGSSAA kommt das trotzdem nicht heran, weil viel schlechter gesampelt (Subpixelposition entspricht eben nur einem ordered grid was die edge equivalent resolution halt schlecht macht).
Gothic 3 fiel mir einfach ein, da DSR mich dort nicht so ganz überzeugt hatte, auch nicht mit DSR 4x.
DSR 4x vs SGSSAA 4x vs. DLDSR 2.25x im Vergleich wäre hier sehr interessant. @Raff das wäre doch was für dich :D Dazu noch Nvidia SSRTGI vs. Reshade Raytraced GI obendrauf :D
robbitop
2022-01-12, 11:55:05
Geldmann3
DLSS ist wie du schon sagst was anderes. Das muss explizit implementiert werden und es nutzt Daten die vorger nie genutzt wurden. Es ist sehr sehr gut aber Zauberei ist es nicht wenn man bedenkt, dass es praktisch sgssaa (die samples kommen wie du weißt von jitter über die zeit) ist.
Das Potenzial sehe ich bei der Lösung nicht. Als Input hast du für die Samples nur spatial die höhere Auflösung als die angezeigte. Ich würde nicht viel mehr als bei FSR erwarten.
Das ist IMO nicht vergleichbar mit dlss.
robbitop
2022-01-12, 11:56:32
Gothic 3 fiel mir einfach ein, da DSR mich dort nicht so ganz überzeugt hatte, auch nicht mit DSR 4x.
DSR 4x vs SGSSAA 4x vs. DLDSR 2.25x im Vergleich wäre hier sehr interessant. @Raff das wäre doch was für dich :D Dazu noch Nvidia SSRTGI vs. Reshade Raytraced GI obendrauf :D
Ich könnte mir sogar vorstellen, dass sie spatial die Kanten über PP Magie gut glätten können. Aber temporal wird es keine Chance gegen sgssaa haben.
Geldmann3
2022-01-12, 13:03:37
Ich könnte mir sogar vorstellen, dass sie spatial die Kanten über PP Magie gut glätten können. Aber temporal wird es keine Chance gegen sgssaa haben.
Genau das würde ich ebenfalls erwarten.
Habe mal mit AI-Videobearbeitung herumgespielt und Kantenflimmern wegrechnen mit einem NN ging super und schnell. Das Bild wurde dabei sogar temporal ,,scheinbar" recht stabil und scharf. Doch die Details von 4xSSAA sehe ich nicht hinzukommen, mehr als das + ~NIS würde mich überraschen.
Die AI kann halt sozusagen aus Pixeltreppen Linien zeichnen. Aber wenn z.b. bei einem Zaun aus Draht einfach Teile fehlen, wegen zu weniger Samples, kann der Zaun auch nicht im Nachhinein vervollständigt werden, wie mit DLSS z.b.
Daher wäre es für mich weiterhin wünschenswert, wenn Nvidia neben 2,25x auch 4x bei der neuen Methode anbietet.
Ich kann mir aber auch sehr gut vorstellen, dass da einfach nur NIS dahinter steckt. ;)
Wenn Nvidia nicht das mit der AI geschrieben hätte.
Denn NIS zusammen mit 2,25X SSAA + TAA im Game sieht durchaus so aus wie 4XSSAA ohne AA.
Sowieso alles Marketing-Gebrabbel.
Bin aber echt gespannt auf Tests!
Ich will ne Battle sehen, gegen 4xSSAA.
Troyan
2022-01-12, 21:47:55
DLSS in God of War zeigt ziemlich gut die Nachteile, wenn Engines mit höherer Auflösung nicht wirklich skalieren:https://www.computerbase.de/2022-01/god-of-war-benchmark-test/3/
DLSS@Qualität ist nur 19% schneller als 4K.
robbitop
2022-01-12, 22:10:59
Und es smeart wohl in GoW.
Was mich wirklich wundert, dass es jetzt schon einige Spiele sind, bei denen die Auflösung deutlich weniger als linear (außerhalb des CPU Limits) limitiert. Ich frage mich dann immer: alles skaliert mit Auflösung. Bandbreite, Texturleistung, Arithmetik. Was frisst da GPU Leistung? Zu viel Geometrie? Verstopfen Drawcalls die Renderpipeline?
Troyan
2022-01-13, 10:45:05
Bei Ampere und ggfs. Turing macht es Sinn, weil dort mehr Berechnungen pro Takt und Compute-Unit ausgeführt werden können als bei anderen GPUs. Steigt die Geometrielast nicht im Gleichschritt, ist der Leistungsverlust deutlich geringer. Die Benchmarks zeigen ja keine CPU-Limitierung in 1080p, auch ist die 3080 in 1080p 30% schneller als die 3070. Das ist "normal".
Bei FSR sieht man, dass es kein Sinn macht es zu benutzen. 19% Leistungsgewinn durch (deutliche) Qualitätsreduzierung.
basix
2022-01-13, 11:02:46
RDNA2 skaliert bei PC Ultra Settings sehr ähnlich wie Ampere. An grundsätzlich höherer Compute Leistung scheint es hier nicht zu liegen.
Interessant wird es im Vergleich zu den PS4 Original-Settings. Hier würde ich dem eher zustimmen, da RDNA2 mit steigender Auflösung deutlich mehr Performance verliert. Hier ist die Auflösungsskalierung aber ebenfalls deutlich stärker ausgeprägt.
Ich denke, dass die PC Ultra Settings abartig Tesselation oder so einsetzen, welches allenfalls nicht mit der Auflösung skaliert. Könnt euch mal die Bäume anschauen, die werden richtig dick und fett auf dem PC :D
robbitop
2022-01-13, 13:03:42
Auflösung kostet alles und zwar proportional. Außer CPU und Geometrieleistung. Mit steigender Auflösung wird CPU und Geometrieleistung immer weiter unwichtig. Entsprechend muss eine steigende Auflösung - egal welche uArch - im GPU Limit nahezu proportional die Framerate drücken. Es sei denn, dass bei der "Basisauflösung" noch obige Bottlenecks reinspielen und somit mehr Auflösung weniger drop bedeutet.
basix
2022-01-13, 13:12:53
Oder kann irgendeine andere Limitierung der Grund sein? Latenzen und Bandbreiten habe ich so im Verdacht. Eine Art Verstopfung des Speichersystem. Die Ressourcen sind halt endlich und je nach (ungünstiger) SW-Umsetzung, kann man viel Bandbreite verpuffen. Wenn man die Bandbreite schon bei 1080p voll ausnutzt und das die Framerate limitiert, bringt zusätzliche Rechenleistung nichts und zusätzliche Pixel kosten fast nichts (wenn die zusätzlichen Pixel nicht entspechend Bandbreite kosten)
Oder kann irgendeine andere Limitierung der Grund sein? Latenzen und Bandbreiten habe ich so im Verdacht.
Die benötigte Bandbreite/Pixel steigt mit der Auflösung nicht an.
robbitop
2022-01-13, 14:18:42
Oder kann irgendeine andere Limitierung der Grund sein? Latenzen und Bandbreiten habe ich so im Verdacht. Eine Art Verstopfung des Speichersystem. Die Ressourcen sind halt endlich und je nach (ungünstiger) SW-Umsetzung, kann man viel Bandbreite verpuffen. Wenn man die Bandbreite schon bei 1080p voll ausnutzt und das die Framerate limitiert, bringt zusätzliche Rechenleistung nichts und zusätzliche Pixel kosten fast nichts (wenn die zusätzlichen Pixel nicht entspechend Bandbreite kosten)
Auflösung kostet linear alles. Bedeutet, das Verhältnis ändert sich nicht. Man braucht linear mehr von allem. Siehe den Gastbeitrag über mir.
basix
2022-01-13, 16:25:20
Ist das wirklich so? Gibt es in keiner Game Engine (wesentliche) Teile, welche mehr oder minder konstant sind und mehr oder minder unabhängig von der Auflösung sind? Du bringst ja selber Geometrieleistung als Beispiel. Und bei GoW ist eindeutig sehr viel Tesselation am Werk. Und dann gibt es halt noch unsaubere Programmierung von Engine-Teilen...
Was ist mit Animationen, KI, Physiksimulatioenn usw. was allenfalls auf der GPU läuft? Ich würde hier erwarten, dass das eben nicht alles mit der Auflösung skaliert. Sowas kann fixe Intervalle oder fixe Koordinatensysteme (z.B. 1m2 in "Spieleweltgrösse") haben. Das skaliert dann genau Null mit der Auflösung. Im Falle FPS-basierter Intervalle sogar rein mit den FPS. Und umso höher die FPS, desto weniger Platz bleibt für das Processing der Pixel.
Man kann natürlich vieles an die Auflösung anbinden, aber dann ist es bei diesen Sachen schwierig, deterministische Algorithmen zu entwickeln oder bei geringeren Auflösungnen nimmt die Qualität überproportional ab.
Die benötigte Bandbreite/Pixel steigt mit der Auflösung nicht an.
Ich hätte ehrlich gesagt Bandbreite/Pixel/Frame als ~konstant angesehen, solange wirklich alles proportional mitskaliert.
Da es eben nicht proportional skaliert, entsteht eben der Verdacht, dass einige Teile der Engine grosse Teile der Bandbreite (oder was auch immer der limitierende Faktor ist) mehr oder minder statisch/auflösungsunabhängig auslastet. Und durch steigende Pixellast zwar unter Umständen die Rechenleistung für die Pixel linear ansteigt, aber eben nicht bezüglich der gesamten Rechenlast.
Edit:
Im Anhang, wie ich mir das so vorstelle. Die Darstellung ist nicht ganz korrekt, zur Veranschaulichung sollte es aber reichen. Die Höhe der Balken soll die Rechenlast darstellen (also nicht FPS und auch nicht Frametime)
- Grundlast (z.B. KI, nicht auflösungsabhängige Simulationen mit fixen Zeitintervallen)
- FPS abhängiger Teil. Dieser sinkt sogar mit steigender Auflösung, da weniger FPS
- Linear mit Pixelanzahl skalierender Teil
Dazu ist zu sagen, dass ich absolut keine Spieleengine kenne, welche perfekt mit der Auflösung skaliert. Benches zwischen 1080p -> 4K weisen nie den Faktor 4x bei den FPS auf (typ. ist eher so ~3x). CPU-Limit muss man hier sicher beachten. Falls einem 1080p zu unsicher ist: Zwichsen 1440p und 4K sieht man auch nie den Faktor 2.25. Ob das jetzt nun an der Engine oder der jeweiligen GPU liegt? Spielt für die Betrachtung keine Rolle. Fakt ist, dass es nicht proportional skaliert. Und dieses Phänomen nimmt bei modernen Spieleengines deutlich zu.
Horizon Zero Dawn ist ebenfalls ein interessantes Beispiel: Zwischen 1080p und 1440p gibt es fast keinen Unterschied. Egal wie schnell die GPU ist. Erst bei 4K nehmen die FPS stärker ab : https://www.computerbase.de/2020-08/horizon-zero-dawn-benchmark-test/2/#diagramm-horizon-zero-dawn-1920-1080
Ein Teil davon macht das unterschiedliche Grafik-Preset aus. Das mach aber nur ~15% Performance Unterschied aus. Zusammengerechnet liegen hier zwischen 1080p und 1440p gerade mal ~1.25x Performance, bei 1.77x Pixeln.
Und wie schon bei RDR2 und GoW skaliert es ja mit stärkeren GPUs. Ein CPU-Limit ist also eher unwahrscheinlich. Hier muss es also Anteile geben, welche Null von der Auflösung abhängen. z.B. die Simulation der Spielewelten, welche eher auf fixen Zeitintervallen und fixen "Spielewelt-Quadratmetern" basieren.
Zusätzlicher Gedanke: RDR2, GoW und HZD sind alles Konsolenspiele. Hängt es evtl. damit zusammen? Bei Konsolen hat man fixe Time-Budgets zur Verfügung, da Auflösung und FPS mehr oder minder fixiert sind. Gewisse Systeme/Berechnungen bindet man dann aus Einfachheit oder weil es Sinn macht bewusst nicht an die Render-Auflösung.
Du bringst ja selber Geometrieleistung als Beispiel. Und bei GoW ist eindeutig sehr viel Tesselation am Werk. Und dann gibt es halt noch unsaubere Programmierung von Engine-Teilen...
Geometrie ist normalerweise unabhängig von der Auflösung, wobei es auch Engines gibt deren Geometrie-LOD zumindest teilweise mit der Auflösung skaliert.
Was ist mit Animationen, KI, Physiksimulatioenn usw. was allenfalls auf der GPU läuft?
Das läuft alles auf der CPU nicht auf der GPU.
Ich hätte ehrlich gesagt Bandbreite/Pixel/Frame als ~konstant angesehen, solange wirklich alles proportional mitskaliert.
Entweder das, oder die relativ benötigte Bandbreite pro Pixel sinkt sogar.
robbitop
2022-01-13, 19:06:42
Je mehr Auflösung desto weniger limitiert Geometrie.
Aufgrund der Latenz kann man zumindest nichts zeitkrtisches was zurück an die CPU muss berechnen. Deshalb geht bei Physik ja auch nur Effektphysik.
-/\-CruNcher-/\-
2022-01-13, 21:01:42
Geometrie ist normalerweise unabhängig von der Auflösung, wobei es auch Engines gibt deren Geometrie-LOD zumindest teilweise mit der Auflösung skaliert.
Das läuft alles auf der CPU nicht auf der GPU.
Entweder das, oder die relativ benötigte Bandbreite pro Pixel sinkt sogar.
Abhängigkeiten wird es immer geben und bei einigen Engines Titeln ist das schon nicht mehr gänzlich der Fall auch wenn man über die Effizienz Async Probleme transfer Effizienz noch streiten kann, da vor allem prediction problematisch ist aber da hilft ja ML schon durchaus teilweise erheblich effizienz energie auf der Client seite zu sparen.
Bin da wirklich gespannt was Nvidia noch damit für Physik anstellt das wird ja der nächste Performance Boost schlechthin werden in allen Simulationsergebnissen die Simultan ablaufen müssen für ihre höchste effizienz Collision/Cloth/Hair/Character alles zur selben Zeit.
Genau dort werden wir sicherlich demnächst von Nvidias R&D noch viel sehen sobald sich der ganze resolution hype erstmal etwas gelegt hat.
Allerdings bin ich skeptisch so viel zu versuchen ausserhalb der Hardware totzuschlagen anstelle das Design auch wenn es physikalisch mehr kostet schneller zu optimieren (funktioniert gut für Endconsumer aber sich selbst ?).
Nvidia wird an ihrer eigenen optimierten Platform so oder so nicht vorbei kommen auch wenn wir die wohl nie im großen still zu Gesicht bekommen werden wie bei AMD eher "noch" der Fall.
Tobalt
2022-01-14, 05:45:51
Ich vermute wie Troyan, dass bei hohen Auflösungen das SIMD besser greift und für die Architektur besser genutzt werden kann wegen parallel Instruktionen.
Bei niedrigen Auflösungen sind demnach evtl. immer mehr leere Instruktionen mit dabei.
Und das CPU Limit kommt ja auch nicht abrupt, sondern schleichend, zuerst nur für bestimmte Frames! Heißt dass je geringer die Auflösung nur der Zeitanteil steigt wo CPU Limit vorliegt.
robbitop
2022-01-14, 08:08:01
Ich vermute wie Troyan, dass bei hohen Auflösungen das SIMD besser greift und für die Architektur besser genutzt werden kann wegen parallel Instruktionen.
Bei niedrigen Auflösungen sind demnach evtl. immer mehr leere Instruktionen mit dabei.
Und das CPU Limit kommt ja auch nicht abrupt, sondern schleichend, zuerst nur für bestimmte Frames! Heißt dass je geringer die Auflösung nur der Zeitanteil steigt wo CPU Limit vorliegt.
Das ist ja grundsätzlich der Fall. Aber bei ein paar Titeln ist es eben auffällig, dass trotz GPU Limit Auflösung sich viel weniger proportional verhält.
y33H@
2022-01-14, 14:53:55
Der Treiber ist da, bin gespannt.
aufkrawall
2022-01-14, 15:29:14
Ich bin schon wieder ganz ungespannt. Ergebnis sieht nach DL-Pfuscherei und nicht wie perfekt sauberes SSAA aus -> uninteressant.
Geldmann3
2022-01-14, 15:41:30
Hmm, also es sieht besser aus als DSR bei gleicher interner Auflösung, doch wie 4xSSAA sieht es für mich auf den ersten Blick nicht aus.
Ist allerdings auch ein sehr eingeschränktes Beispiel.
CkTOhBojdoI
aufkrawall
2022-01-14, 15:48:14
Hmm, also es sieht besser aus als DSR bei gleicher interner Auflösung, doch wie 4xSSAA sieht es für mich auf den ersten Blick nicht aus.
Das ist auch wirklich eine übertriebene Erwartungshaltung. Es ist nur 2,25x bei auflösungsnormiert minderwertigen Subpixel-Informationen vs. SGSSAA.
Das Problem ist eher, dass es "bloaty" aussieht, feine Strukturen werden zu fett aufgebläht. Wie halt alte DL-basierte Scaler wie NNEDI3.
Troyan
2022-01-14, 15:53:04
Hmm, also es sieht besser aus als DSR bei gleicher interner Auflösung, doch wie 4xSSAA sieht es für mich auf den ersten Blick nicht aus.
Ist allerdings auch ein sehr eingeschränktes Beispiel.
https://youtu.be/CkTOhBojdoI
SSAA != Nativ. 1080p mit 4xSSAA hat weiterhin nur 1/4 der Pixel. Das Ergebnis sieht doch sehr gut aus.
Geldmann3
2022-01-14, 16:22:20
SSAA != Nativ. 1080p mit 4xSSAA hat weiterhin nur 1/4 der Pixel. Das Ergebnis sieht doch sehr gut aus.
Was meinst Du? Hat doch niemand geschrieben, dass SSAA nativ sei?
Im Video wird ja scheinbar 4k@NoAA mit 4k@2,25xDSR mit 4k@2,25xDLDSR vergleichen.
Also nichts 1080p...
So würde ich das jedenfalls interpretieren.
Edgecrusher86
2022-01-14, 16:48:06
Mafia II - Definitve Edition - 4.00x DSR (6880x2880) vs. 2.25x DL-DSR (5160x2160)
https://imgsli.com/OTA0MzU
Kann man optisch schon gut vergleichen und die fps sprechen für sich. ;)
robbitop
2022-01-14, 18:15:28
Screenshots sind nur die halbe Miete. Temporale Stabilität sieht man nur in Bewegung. Und die ist wichtig.
edit: läuft das ganze auch mit Pascal oder geht es nur ab Turing wegen der Tensor Cores? Anzunehmen wäre dass es analog FSR wenig Rechenleistung kostet weil nur spatial. Würde mich aber nicht wundenn NV es trotzdem so will, damit ein Anreiz mehr sich eine neue GPU zu kaufen (die dank der Chipknappheit nicht sinnvoll zu bekommen ist X-D)…
Dampf
2022-01-14, 22:06:27
Die Stabilität in GoW ist furchtbar mit DLSS.
Schon im Hauptmenü sieht man hinten alles flackern. Da hat man wieder vergessen, die Post Processing Effekte in voller Auflösung laufen zu lassen. Sogar FSR bietet höhere Stabilität...
aufkrawall
2022-01-14, 22:11:43
Gibt auch die gleichen Halo-Artefakte in Bewegung wie in RDR2 -> unnütz. FSR sieht aber auch widerwärtig aus. Das beste Ergebnis mit Upsampling/-scaling gibts offenbar mit dem in-game TAAU + CAS-Inject via ReShade (aber noch nicht selbst getestet)...
Edit: Doch nicht, TAAU (oder was auch immer der RS-Slider hier ist) sieht ziemlich kaputt aus...
Lurtz
2022-01-14, 22:55:16
Bin auch nicht begeistert von DLSS. Rendering sieht einfach kaputt aus damit.
Geldmann3
2022-01-14, 23:16:01
Mafia II - Definitve Edition - 4.00x DSR (6880x2880) vs. 2.25x DL-DSR (5160x2160)
https://imgsli.com/OTA0MzU
Kann man optisch schon gut vergleichen und die fps sprechen für sich. ;)
Was für eine Form von Anti-Aliasing läuft daunter?
Sieht mir beides ein bisschen zu sauber aus dafür, dass es ,,nur" DSR ist.
TAA?
In Verbindung mit DLSS Quality könnte das eine Optik abliefern, die sich mit 8xSSAA einen Schlagabtausch liefert.
Jedenfalls war das damals in meinen normalen downsampling tests so und mit DLDSR kann man endlich auch aus 2,25X sauber herunterrechnen.
Frage mich auch, ob man dann unnormal viel Performance verliert, weil man die Tensor Cores überlastet.
-/\-CruNcher-/\-
2022-01-15, 00:04:52
Screenshots sind nur die halbe Miete. Temporale Stabilität sieht man nur in Bewegung. Und die ist wichtig.
edit: läuft das ganze auch mit Pascal oder geht es nur ab Turing wegen der Tensor Cores? Anzunehmen wäre dass es analog FSR wenig Rechenleistung kostet weil nur spatial. Würde mich aber nicht wundenn NV es trotzdem so will, damit ein Anreiz mehr sich eine neue GPU zu kaufen (die dank der Chipknappheit nicht sinnvoll zu bekommen ist X-D)…
Bei allem was mit Autos zu tun hat ist es Car Ghosting (vor transparenten objekten vor allen, auch ein großes Problem in der Matrix UE 5 TSR Demo)
Bei Vögeln kann es die komplexität des Flügelschlags sein auch wieder vor komplexen und wieder vor allen transparenten objekten viel spaß mit Volumetric Clouds in kombination mit komplexem fur rendering (da wirds richtig lustig, dagegen ist car ghosting kindergarten problem).
Gen5 in der UE z.b mit ordentlichem Vektor Setup macht schon einiges ordentlicher als noch Gen4 kostet aber auch sehr ordentlich im direkten (fast schon standard gewordenen) 70% Vergleich, wenn es gut funktioniert an DLSS momentane insgesammte temporale stabilität bei perfekter implementierung und Performance auf Nvidia Tensor Hardware kommt es aber bei weitem nicht heran in seiner insgesammten Effizienz sei es auf Nvidia oder AMD Hardware.
Die Tests die man bei den momentanen Publikationen sieht sind alle momentan so gut wie für die Mülltonne.
Das einzige was jetzt nocht interessant wird ist Intels arbeit der rest ist momentan für die Mülltonne vs Nvidia low level hardware optimiert
Geldmann3
2022-01-15, 01:58:27
Hmm, was ich in diesem Video nicht verstehe ist, wie kann 1440p 1,78x DLDSR besser performen als 4K-Native, obwohl es intern in derselben Auflösung rendern müsste? Boosted Nvidia irgendwie auch die Performance oder liegt hier ein Fehler vor?
WACaIncasJI
aufkrawall
2022-01-15, 02:10:57
4k ist von 1440p ausgehend 2,25x, nicht 1,78x.
Geldmann3
2022-01-15, 02:15:26
Uhh, stimmt natürlich, das ist wohl die Erklärung.
Slipknot79
2022-01-15, 03:02:33
Also 2,25x mit DLSS@Q schaut schon ziemlich good aus in SOTR. (y) Keine DLSS-Unschärfe mehr. CAS@reshade kann man da locker wieder updrehen.
Kostet aber auch viel Leistung.
Tradeoff bleibt also native resolution+DLSS@Q+CAS@reshade. (y)
1,78x can ich nicht checken, ist verbugt mit dem Treiber. :mad: Habs an Blaire reported, er hat das an NV bereits weitergeleitet. (y)
Geldmann3
2022-01-15, 12:43:16
Leider bin ich gerade für einige Zeit nicht am System mit der RTX 3090, sonst hätte ich schon begonnen DLDSR großflächig zu testen. :D
Hoffe PCGH tut das für mich. :wink:
Blaire
2022-01-16, 05:11:37
Leider bin ich gerade für einige Zeit nicht am System mit der RTX 3090, sonst hätte ich schon begonnen DLDSR großflächig zu testen. :D
Hoffe PCGH tut das für mich. :wink:
In dem Video welches du weiter gepostet hast, scheint auch nicht dem finalen geshrinkten Bild zu entsprechen, normal ist es eher so, dass DLDSR etwas schärfer und nicht umgekehrt, ohne Capture Card oder GeForce Experience kann er das auch nicht korrekt abgreifen, sehr wahrscheinlich ist das der Grund. Daher sowas besser selber testen. :)
Platos
2022-01-16, 12:58:33
Ist denn DLDSR irgendwie besser, als wenn man einfach manuell DSR und DLSS nutzt? Oder ist es genau das selbe, nur jetzt komfortabler ingame einzustellen ?
Tesseract
2022-01-16, 13:03:56
Ist denn DLDSR irgendwie besser, als wenn man einfach manuell DSR und DLSS nutzt?
DLDSR ist ein neues setting für DSR und hat mit DLSS nix zu tun.
DrFreaK666
2022-01-16, 14:16:06
DLDSR ist ein neues setting für DSR und hat mit DLSS nix zu tun.
Das heißt DSR und DLSS separat eingestellt funktioniert nicht? (Nicht dass es jetzt überhaupt noch Sinn ergeben würde)
Platos
2022-01-16, 14:16:21
Warum dann DL ? Ist doch DLSS und DSR kombiniert bzw. das DL eben aus DLSS. Oder was ist denn der Unterschied?
robbitop
2022-01-16, 14:51:14
DLSS = temporales Supersampling mit Neuronalem Netzwerk für das Clamping
DLDSR = normales Downsamling (DSR) aber nicht mit super schlechtem Filterkernel (bilinear bei geraden Faktoren / point sampling mit vorgelagertem Gaußfilter bei ungeraden Faktoren) sondern ähnlich wie bei FSR einem neuronalen Netzwerk für den Filterkernel für das eigentliche runterrechnen (downsampling). Also nicht temporal sondern spatial.
DLDSR ist einfach nur DSR "done right".
Natürlich kann man (DL)DSR mit DLSS hinzufügen. DLSS erzeugt ja eine höhere Outputresolution. Also z.B. DLSS Performance auf 5K auf einem 1440p Monitor.
DLSS bläßt die Auflösung auf 5K auf (also dem 2x pro Achse) und (DL)DSR downsamplet das.
Da DLSS nicht nur upsampling sondern intelligente Rekonstruktion ist (also im Prinzip Supersampling), kann man damit die Gesamtqualität sicherlich erhöhen.
Aber Downsampling ist nichts anderes als OGSSAA. Also super ineffizient. Also wenn man reichlich Leistung "über" hat kann man das machen. So richtig richtig viel wird es aber IMO nicht herausholen. Ein DLSS ohne niedrigere Inputresolution (DLAA) wäre sicherlich schneller und ähnlich gut.
Primär ist (DL)DSR eigentlich eher etwas für ältere Spiele, wo 1. Leistung "über" ist und 2. meist kein TAA bzw kein gutes TAA verfügbar ist.
Für Spiele wie GTA4 z.B. sicherlich sehr praktisch.
Tesseract
2022-01-16, 17:06:15
Das heißt DSR und DLSS separat eingestellt funktioniert nicht? (Nicht dass es jetzt überhaupt noch Sinn ergeben würde)
doch, das funktioniert mit klassischem DSR aber ebenso. DLDSR ist einfach DSR mit einem besseren, DL-basierten, skalierungsalgorithmus. DLDSR macht aber etwas völlig anderes als DLSS.
DLSS -> aus wenig pixel viele pixel und DL füllt "intelligent" die lücken
DLDSR -> aus vielen pixel wenig pixel und DL rechnet die vielen "intelligent" auf wenige zusammen
Ein DLSS ohne niedrigere Inputresolution (DLAA) wäre sicherlich schneller und ähnlich gut. sollte sowohl schneller als auch qualitativ besser sein. der einzige vorteil der zweistufigen bastellösung ist, dass sie sofort in jedem DLSS-spiel läuft.
basix
2022-01-16, 18:07:40
Ich habe DLDSR kurz in zwei Spielen gestestet:
- Gothic 3
- Witcher 3
Beide sind heavily modded mit maximaler Weitsicht und höherer Objekt- und Vegetationsdichte (z.B. Witcher 3 in Skellige mit 40fps @ 1440p mit einer 2080 Ti).
Mein Fazit: Ich bin begeistert!
Ein paar Punkte dazu:
Verglichen mit 1440p nativ deutlich geringere Treppchenbildung und weniger geflackere von Gräsern, Sträuchern und Bäumen (ist ja klar)
Selbst DSR 4x wird meilenweit geschlagen. DSR 4x blurrt das Bild, bei DLDSR 2.25x ist das überhaupt nicht vorhanden, alles ist knackscharf und sieht gut aus
DLDSR 2.25x hat eine etwas geringere temporale Stabilität als DSR 4x. Da deutlich geringere Pixel am Werk sind, würde mich hier eigentlich noch DLDSR 4x interessieren. Die geringere temporale Stabilität kann allenfalls auch dem Grund geschuldet sein, dass das Bild eben nicht geblurred wird
DSR 4x könnte man mit Reshade und CAS noch einigermassen retten, habe ich aber nicht ausprobiert
Bei Gothic 3 habe ich bemerkt, dass wenn man die Kamera schwenkt und dann stoppt, sich bei den gelb/braunen Gräsern kurz eine Art "Annealing" Phase ergibt (sichtbar anhand von Rauschen, welches dann aufhört, für etwas weniger als eine Sekunde). Das ist bei DSR 4x nicht zu beobachten. Standort war hier zwischen Ardea und Kap Dun. Bei Witcher 3 konnte ich das so nicht beobachten.
DLDSR werde ich wohl öfters mal nutzen. DSR habe ich aufgrund des Geblurres nie verwendet.
Tesseract
2022-01-16, 18:18:49
DSR 4x blurrt das Bild
4x mit 0% smoothness blurrt doch nicht, das ist technisch einfach 2x2 OGSSAA.
basix
2022-01-16, 18:22:43
Danke für dem Input. Muss ich nochmals testen, war nicht auf 0%
BlacKi
2022-01-16, 19:06:20
kannst du die bilder mal hochladen? bei mir bringt dldsr einfach nichts. und auch das eine indische video, das geldmann schon verlinkt hat, zeigt, das es praktisch optisch nichts bringt.
hatte meine vergleichsbilder hier schon hochgeladen und verlinkt. https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12897453#post12897453
aufkrawall
2022-01-16, 19:20:25
4x mit 0% smoothness blurrt doch nicht, das ist technisch einfach 2x2 OGSSAA.
Tja, und DLDSR halluziniert schon bei 1,78x viel mehr Pseudo-Details dazu als die Texturen mit 4x 0% Smoothness überhaupt hergeben. Leider, wie etwa auch FSR, sehr auf Effekthascherei getrimmt als auf ein wirklich sauberes Resultat nahe an Ground Truth. Finde ich mit 1440p @27" mit typischem Betrachtungsabstand inakzeptabel. Ein weiteres nutzloses Feature, genau wie das Gammel-Upscaling oder das schlechte neue Sharpen...
Tobalt
2022-01-16, 19:37:03
Man braucht eigentlich keines von diesen Up/Downsampling Dingern. Einfach Output Auflösung festlegen und dann mit einem intelligenten temporalen Verfahren den Output errechnen.
Die Anzahl an Samples pro Frame, die dafür genutzt wird hat kaum was mit der Zielauflösung zu tun. Kann drunter/drüber liegen oder genau gleich sein, je nach Qualitätspräferenz.
Dass simpelste wäre einfach DLSS zu erlauben mehr Samples pro Frame zu nutzen, anstatt irgendwelches OG downsampling mit Wischiwaschifilter zu verheiraten.
DrFreaK666
2022-01-16, 19:42:03
Funktioniert das nur mit RTX-Karten?
Gibt es irgendwo ein Artikel dazu?
robbitop
2022-01-16, 20:00:32
Man braucht eigentlich keines von diesen Up/Downsampling Dingern. Einfach Output Auflösung festlegen und dann mit einem intelligenten temporalen Verfahren den Output errechnen.
Die Anzahl an Samples pro Frame, die dafür genutzt wird hat kaum was mit der Zielauflösung zu tun. Kann drunter/drüber liegen oder genau gleich sein, je nach Qualitätspräferenz.
Dass simpelste wäre einfach DLSS zu erlauben mehr Samples pro Frame zu nutzen, anstatt irgendwelches OG downsampling mit Wischiwaschifilter zu verheiraten.
Naja DLSS ist ja auf explizite Unterstützung durch den Entwickler angewiesen. Für moderne Spiele fehlt meistens eh der Dampf - IMO primär für ältere Titel gutes AA.
Die Sampleanzahl wird NV schon bis an die Grenzen der Artefakt ildung geprügelt haben. IIRC sind es bis zu 16 samples - heißt, dass über den Pixeljitter bis zu 16 frames kumuliert werden müssen. Das wird oft gar nicht zustande kommen aufgrund von Bewegung. Und was bringt es einem wenn es je nach Bewegung die Sampleanzahl stark variiert - dann ist die BQ inkonsistent. Das stört die menschliche Wahrnehmung.
Dass man überhaupt 16 Samples nutzen kann, grenzt an schwarze Magie und zeigt den Vorsprung des Neuronalen Metzwerks ggü herkömmlichen Heuristiken bei TAA. Und wenn an einigen Stellen Samples nicht verwendbar sind, trofft das DLSS sogar ganz passable Annahmen und erfindet Samples dazu.
Ich wäre dafür, dass NV die Inputauflösung per slider freigibt. Dann könnte man gleiche oder auch höhere Auflösung als Input (ggü Output) nehmen. Viel besser als das ineffiziente OGSS.
Tesseract
2022-01-16, 20:25:07
Tja, und DLDSR halluziniert schon bei 1,78x viel mehr Pseudo-Details dazu als die Texturen mit 4x 0% Smoothness überhaupt hergeben.
1.78 hab ich garnicht probiert aber auf 2.25 ist mir das nicht aufgefallen. extrem feine strukturen (z.B. kettenhemden in witcher 3) sind da in bewegung teilweise sogar ruhiger als mit 4x. perfekt ist die lösung natürlich nicht aber bisher finde ich den filter recht anschaulich, besonders wenn das spiel sonst nur müll-AA wie FXAA hätte und auf 5k dann doch zu langsam ist.
Ich wäre dafür, dass NV die Inputauflösung per slider freigibt.
da bräuchte wohl jede stufe im slider ein eigenes training. aber es wär schon mal was wenn ultra quality (also DLAA) endlich überall verfügbar wäre.
aufkrawall
2022-01-16, 20:41:30
1.78 hab ich garnicht probiert aber auf 2.25 ist mir das nicht aufgefallen. extrem feine strukturen (z.B. kettenhemden in witcher 3) sind da in bewegung teilweise sogar ruhiger als mit 4x. perfekt ist die lösung natürlich nicht aber bisher finde ich den filter recht anschaulich, besonders wenn das spiel sonst nur müll-AA wie FXAA hätte und auf 5k dann doch zu langsam ist.
Ja, es gibt Vorteile. Aber wenn du zwischen DLDSR 1,78x/2,25x und DSR 4x umschaltest, sollte dir der eingeführte "DL-"-Look schon auffallen. Selbst weit entfernte LowRes-Texturen wie die Stadtmauer in W3 sehen auf einmal "bloaty" aus. Das sieht quasi genau so aus wie früher mit NNEDI3-Upscaling in madVR. madshi's selbstentwickelter NGU-Scaler hatte dieses Problem schon vor x Jahren angegangen.
Geralts Haare wirken auch eher fettsträhnig mit DLDSR...
Leider bin ich gerade für einige Zeit nicht am System mit der RTX 3090, sonst hätte ich schon begonnen DLDSR großflächig zu testen. :D
Hoffe PCGH tut das für mich. :wink:
Derzeit steht leider zu viel anderer Kram im Raum, ein dedizierter Artikel muss noch etwas warten.
MfG
Raff
Blaire
2022-01-16, 21:49:12
da bräuchte wohl jede stufe im slider ein eigenes training. aber es wär schon mal was wenn ultra quality (also DLAA) endlich überall verfügbar wäre.
Das liegt wohl eher an den Game-Entwicklern diesen auch zugänglich zu machen. In "God of War" wird in der Config für DLSS ebenfalls der Ultra Quality-Modus gelistet, funktionieren tut dieser im Spiel leider nicht.
[Settings]
VideoDevice=NVIDIA GeForce RTX 3090
Monitor=0
DisplayMode=Borderless ; Values: Windowed, Borderless
WindowLeft=0
WindowTop=0
WindowWidth=3840
WindowHeight=2160
AspectRatio=16:9
Vsync=Off ; Values: Off, On
MotionBlur=0 ; Range: 0 - 10
FilmGrain=0 ; Range: 0 - 10
DLSSQuality=Quality ; Values: Off, UltraPerformance, Performance, Balanced, Quality, UltraQuality
FSRQuality=Off ; Values: Off, Performance, Balanced, Quality, UltraQuality
RenderScale=Off ; Values: Off, 50, 55, 60, 65, 70, 75, 80, 85, 90, 95, 100
Platos
2022-01-16, 22:46:53
DLSS -> aus wenig pixel viele pixel und DL füllt "intelligent" die lücken
DLDSR -> aus vielen pixel wenig pixel und DL rechnet die vielen "intelligent" auf wenige zusammen
Ach so, ich dachte, das sei DLSS und DSR kombiniert in einer Einstellung. Also quasi Rendern in niedrigerer Auflösung (niedriger wie die DSR Auflösung), dann mit DL "intelligent" zur "DSR-Auflösung" hochrechnen und dann wieder auf Displayauflösung runter rechnen.
Aber indem Fall ist DLDSR einfach nur ein verbessertes DSR? Aber man braucht natürlich ne RTX Karte ?
aufkrawall
2022-01-16, 22:49:01
Glaubst du, Nvidia enthält dir diese Informationen vor oder versteckt sie in seitenlangem Kleingedruckten? Das kann man alles ganz leicht recherchieren...
Geldmann3
2022-01-17, 00:05:02
Derzeit steht leider zu viel anderer Kram im Raum, ein dedizierter Artikel muss noch etwas warten.
MfG
Raff
Uff schade, andererseits ist es vielleicht sogar das Beste noch etwas zu warten, erfahrungsgemäß sind viele solcher Features zu Beginn noch nicht ganz Bugfrei. Und diesmal wird es vielleicht auch etwas aufwändiger als Screenshots zu machen, da muss eine Capture-Karte ran. Denn ich weiß nicht, inwiefern sich DSDSR überhaupt auf mit Shadowplay aufgezeichnete Videos auswirkt. Genauso bei Screenshots. Bei DSR zeichnet man jedenfalls die interne Auflösung auf oder die interne Auflösung wird bilinear auf die Zielauflösung heruntergerechnet.
BlacKi
2022-01-17, 00:17:32
Uff schade, andererseits ist es vielleicht sogar das Beste noch etwas zu warten, erfahrungsgemäß sind viele solcher Features zu Beginn noch nicht ganz Bugfrei. Und diesmal wird es vielleicht auch etwas aufwändiger als Screenshots zu machen, da muss eine Capture-Karte ran. Denn ich weiß nicht, inwiefern sich DSDSR überhaupt auf mit Shadowplay aufgezeichnete Videos auswirkt. Genauso bei Screenshots. Bei DSR zeichnet man jedenfalls die interne Auflösung auf oder die interne Auflösung wird bilinear auf die Zielauflösung heruntergerechnet.
wenn du gf experience nutzt, wird das mit alt+f1 als bild mit den tools auf bild aufgenommen, mit alt+f2 wohl nicht. laut blaire.
auf den videos wird ja auch das schärfen mit aufgezeichnet.
BlacKi
2022-01-17, 00:18:08
sry doppelmoppel
Ein DLSS ohne niedrigere Inputresolution (DLAA) wäre sicherlich schneller und ähnlich gut.
DLSS ist mit niedrigerer Inputresolution schon so gut, dass die Erreichbare Qualität im Wesentlichen von der physischen Auflösung des Monitors bestimmt wird. DLAA kann da kaum mehr zusätzliche Qualität bringen, vor allem nicht im Verhältnis zu den Performancekosten.
robbitop
2022-01-17, 07:58:03
DLSS ist mit niedrigerer Inputresolution schon so gut, dass die Erreichbare Qualität im Wesentlichen von der physischen Auflösung des Monitors bestimmt wird. DLAA kann da kaum mehr zusätzliche Qualität bringen, vor allem nicht im Verhältnis zu den Performancekosten.
Gerade letzteres sehe ich auch so. Vermutlich ein Grund warum NV DLAA (so lange) weggelassen hat.
Ich könnte mir gut vorstellen, dass man mit mehr input resolution nochmal mehr temporale Stabilität bekommen könnte. Aber ja: law of deminishing returns.
Platos
2022-01-17, 08:21:27
Glaubst du, Nvidia enthält dir diese Informationen vor oder versteckt sie in seitenlangem Kleingedruckten? Das kann man alles ganz leicht recherchieren...
Man darf doch noch fragen. Ich kannte es eben nicht. Hab nicht mal ne RTX Karte.
Platos
2022-01-17, 08:22:13
Glaubst du, Nvidia enthält dir diese Informationen vor oder versteckt sie in seitenlangem Kleingedruckten? Das kann man alles ganz leicht recherchieren...
Deswegen frage ich doch hier. Ich kannte es eben nicht. Hab nicht mal ne RTX Karte.
DrFreaK666
2022-01-17, 08:28:22
Ach so, ich dachte, das sei DLSS und DSR kombiniert in einer Einstellung...
Das dachte ich tatsächlich auch
Geldmann3
2022-01-17, 08:48:54
Das wäre technisch schon nicht möglich. Ich vermute eine akkuratere Beschreibung wäre wahrscheinlich DLSS 1.7 (Welches noch keine temporale Komponente hatte) allerdings mit Downscaling statt Upscaling. Das geht z.b. auch in AI Gigapixel.
Anders als beim Upscaling sollten die Artefakte auch sehr viel weniger auffällig sein. Eventuell hat man ?DLSS 1.7? hier also wiederverwendet.
basix
2022-01-17, 09:11:42
Evtl. eher DLSS 1.9, das war die letzte Iteration ;)
Ich denke aber nicht, dass das mit DLSS was zu tun hat, auch nicht beim zugrunde liegenden Netzwerk. Temporal Upsampling ist verglichen mit Downsampling einfach eine andere Aufgabe. DLDSR hat meines Wissens nach auch keine temporale Komponente.
Platos
2022-01-17, 09:56:01
Aber DLDSR ist ein bisschen Ressourcenschonender oder gibts bei gleichem Ressourcenbedarf etwas bessere Grafik?
Beim Upscaling kann man ja mit DL viel rausholen graphisch gesehen, aber bei downscaling kann ich mir nicht so recht vorstellen, was da weltbewegendes besser gemacht werden soll (graphisch), denn es wird ja nichts "hinzugedichted", es ist ja quasi das Gegenteil.
Das wäre technisch schon nicht möglich. Ich vermute eine akkuratere Beschreibung wäre wahrscheinlich DLSS 1.7 (Welches noch keine temporale Komponente hatte) allerdings mit Downscaling statt Upscaling. Das geht z.b. auch in AI Gigapixel.
Anders als beim Upscaling sollten die Artefakte auch sehr viel weniger auffällig sein. Eventuell hat man ?DLSS 1.7? hier also wiederverwendet.
Warum wäre das nicht möglich? Geht doch jetzt auch schon, nur eben manuell. Man rendert eben intern in einer DLSS Auflösung und die Outputauflösung ist dann eben eine Auflösung, die höher wie die Monitorauflösung ist und wird dann zusätzlich noch herunterskaliert.
Also theoretisch möglich ist es ja schon. Nur eben etwas umständlicher.
Troyan
2022-01-17, 10:43:26
DLDSR verwendet einen DL-Ansatz zum Downsampling (Downscaling) eines höher aufgelösten Bildes in ein niedriges aufgelöstes Raster. Das ist exakt das Gegenteil von DLSS.
DLDSR soll ermöglichen, dass beim Downsampling auch mit 1/2 der Information zu 4x Upsampling ein ähnliches Ergebnis geliefert wird.
Platos
2022-01-17, 11:27:36
Ok, also primär ein perfomanteres DSR.
Da würde ich mal um FPS Vergleiche freuen zwischen DSR und DLDSR. Irgendjemand wird das sicher testen.
Geldmann3
2022-01-17, 11:28:27
Evtl. eher DLSS 1.9, das war die letzte Iteration ;)
Ich denke aber nicht, dass das mit DLSS was zu tun hat, auch nicht beim zugrunde liegenden Netzwerk. Temporal Upsampling ist verglichen mit Downsampling einfach eine andere Aufgabe. DLDSR hat meines Wissens nach auch keine temporale Komponente.
Nein, ab 1.8 wurde bereits ein temporaler Ansatz verfolgt, auch wenn bis 2.0 die Tensor Cores noch nicht verwendet wurden. Daher ist alles über 1.7 technisch nicht einfach über den Treiber injizierbar.
Warum wäre das nicht möglich? Geht doch jetzt auch schon, nur eben manuell. Man rendert eben intern in einer DLSS Auflösung und die Outputauflösung ist dann eben eine Auflösung, die höher wie die Monitorauflösung ist und wird dann zusätzlich noch herunterskaliert.
Man rendert bei DLSS intern nicht einfach nur in einer niedrigeren Auflösung, sondern jittert dabei intern auch noch die Samplekoordinaten in den Pixeln und stellt dem DLSS SDK Motion-Vektoren und das Jitter-Offset bereit. So kann im Nachhinein aus mehreren Frames ein hochauflösenderes Bild zusammengesetzt werden. Die Samples kannst Du Dir wie ein Puzzle vorstellen, dessen Teile über mehrere Frames generiert und dann von DLSS zusammengesetzt werden. Ohne das Jitter-Offset ist das nicht so einfach möglich. Weil Du dann sozusagen mit jedem Frame immer wieder dieselben großen Puzzleteile generierst, anstatt mehrere kleine, die DLSS dann zu einem hochauflösenderem zusammensetzen kann.
Das erlaubt es DLSS auch so viel effektiver zu arbeiten als Spacial-Upscaler wie FSR. Deshalb muss DLSS manuell implementiert werden.
Realtime-DL-Downscaling kann meiner Erfahrung nach übrigens durchaus für die Durchschnittsperson optisch ansprechendere Ergebnisse abliefern als Lanczos, jedoch entfernt sich das Resultat weiter von der Ground-Truth.
Daher würde ich mir von AMD und Nvidia einfach die Optionen in den Treibern wünschen, die GeDoSaTo schon vor 10 Jahren via Software bot.
Nämlich, dass ich einfach ganz frei die Input und Ausgabeauflösung sowie den gewünschten Algorithmus auswählen kann.
Warum zur Hölle können die Treiber das nicht? Ich will frei eine interne Auflösung von bis zu 16k mit beliebigen Seitenverhältnis auswählen können, denn, why not...
GeDoSaTo konnte das vor 10 Jahren, in Software, ohne Zugriff auf die Treiber zu haben.
robbitop
2022-01-17, 11:40:19
Die news sprechen alle von RTX Karten. Ich vermute, dass das auch auf Pascal Karten möglich gewesen wäre, da der workload eines spatialen Filters stark unter der eines temporalen Verfahrens wie DLSS liegt.
Vermutlich keine Priorität das auch auf alten Karten zu validieren und vermutlich ein weiterer Kaufanreiz für RTX.
Außerhalb einer weltweiten Chipkrise wäre das IMO ein Stück weit eher zu akzeptieren gewesen.
Geldmann3
2022-01-17, 11:42:28
Die news sprechen alle von RTX Karten. Ich vermute, dass das auch auf Pascal Karten möglich gewesen wäre, da der workload eines spatialen Filters stark unter der eines temporalen Verfahrens wie DLSS liegt.
Vermutlich keine Priorität das auch auf alten Karten zu validieren und vermutlich ein weiterer Kaufanreiz für RTX.
Außerhalb einer weltweiten Chipkrise wäre das IMO ein Stück weit eher zu akzeptieren gewesen.
Natürlich, war genau mein Gedanke. Genauso wie AMD FSR über den Treiber nur bei RX 6000er GPUs validieren möchte. Jedenfalls fürs Erste.
Und DL können doch nur RTX Karten. ;) Wobei ich hier wenigstens davon ausgehe, dass wirklich die Tensor-Cores genutzt werden.
Das wäre technisch schon nicht möglich. Ich vermute eine akkuratere Beschreibung wäre wahrscheinlich DLSS 1.7 (Welches noch keine temporale Komponente hatte) allerdings mit Downscaling statt Upscaling.
Auch DLSS1.x hat definitiv temporale Anteile, schon damals gab es temporale Artefakte, teilweise sogar mehr als mit 2.x.
robbitop
2022-01-17, 12:10:39
Das wäre technisch schon nicht möglich. Ich vermute eine akkuratere Beschreibung wäre wahrscheinlich DLSS 1.7 (Welches noch keine temporale Komponente hatte) allerdings mit Downscaling statt Upscaling. Das geht z.b. auch in AI Gigapixel.
Anders als beim Upscaling sollten die Artefakte auch sehr viel weniger auffällig sein. Eventuell hat man ?DLSS 1.7? hier also wiederverwendet.
Ich persönlich denke DLDSR ist massiv simpler als DLSS 1.x. Nicht ohne Grund verlangte auch DLSS bereits explizite (und nicht unkomplexe) Implementierung in das Spiel wohingegen DLDSR mit jedem Spiel funktioniert.
Geldmann3
2022-01-17, 12:57:07
Ich denke DLSS 1.x musste nur aus ,,Nvidia Gründen" so tief ins Spiel implementiert werden. Es wäre technisch genauso möglich gewesen wie FSR. Doch Nvidia wollte auf Nummer sicher gehen, dass z.b. ordentliche Kantenglättung davor geschaltet ist. Zudem wollte Nvidia, dass es vor dem Post-Processing landet.
Ich fand damals übrigens, dass es in einigen Games überraschend gut funktionierte. Weiß noch, dass es mir in Tomb Raider ziemlich gute Arbeit zu leisten schien, für damalige Verhältnisse. Allerdings sah das Bild auch manchmal aus wie gemalt, sogar schlechter als nativ, in Metro Exodus oder Battlefield z.b. Da war dann manchmal sogar Upscaling + Sharpen besser.
robbitop
2022-01-17, 13:07:21
Also wenn man sich (insbesondere bei guter Implementierung - da gab es ja auch eine ganze Bandbreite in Bezug auf die Ergebnisse) DLSS 1.x anschaut ist das IMO rein intuitiv mehr als etwas was nur etwas, was ohne Eingriff durch den Entwickler mit nichts außer dem Backbuffer möglich sein sollte (also Framebuffer nach Anwendung aller Postprocessing effekte und HUD) (mehr gibts nicht wenn es 100% überstülpbar sein soll).
Rein spatial ohne mehr als den Backbuffer? Ich bin da mehr als nur skeptisch.
Der Gast über mir erwähnte ja bereits, dass es auch damals schon temporale Anteile gab. Und wer weiß auf was noch Zugriff notwendig war. Z-Buffer, G-Buffer, framebuffer vor PP+HUD, Geometrie etc?
IMO nichts was man einfach über alles überstülpen kann.
Geldmann3
2022-01-17, 13:25:23
Ich weiß es nicht, doch ich denke schon, dass es mit DLSS bis ausgeschlossen v 1.8 so war. Soweit ich weiß gab es vor Version 1.8 keine temporalen Anteile. Dann folglich auch keinen Sample-Jitter und keine Motion-Vektoren, außer den für das TAA, was auch FSR braucht, um ordentlich auszusehen. Natürlich müssen Post-Processing und HUD optimalerweise zum Schluss drauf, wie es jetzt auch mit FSR der Fall ist. Vermute also, dass man die alten DLSS Versionen in der Tat einfach so drüberstülpen könnte, wie man es auch mit FSR oder NIS tun kann.
robbitop
2022-01-17, 14:25:10
Tja wir wissen es aber nicht. Und nur keine temporalen Daten allein sind ja nicht alles. Wie gesagt: wer kann ausschließen, dass es noch Zugriff auf andere Dinge brauchte wie Z-Buffer, G Buffer, Geometrie usw?
aufkrawall
2022-01-17, 15:49:06
DLSS 1.0 gab es imho nur mit Integration im Spiel, weil der Scaler pro Spiel trainiert war. Ob es mehr Details zu beachten gab, wissen wir nicht. Es sah jedenfalls von Ergebnis her nicht so aus, nämlich einfach nur kotzerbärmlich. So schlecht sieht das komplett generisch arbeitende DLDSR für mich auch nicht aus. ;)
robbitop
2022-01-17, 17:16:45
Wobei der Vergleich auch schwierig ist. Das eine ist ein Upsampling (aus weniger Informationen mehr Informationen generieren -> spart Leistung) und das andere ist Downsampling (das exakte Gegenteil).
Entsprechend schlimm wäre es, wenn ein Downsampling schlechter aussehen würde als ein Upsampling. :)
Es sah jedenfalls von Ergebnis her nicht so aus, nämlich einfach nur kotzerbärmlich.
Hast wohl auch nur Battlefield gesehen. DLSS 1 hat beispielsweise in Tomb Raider durchaus gut ausgesehen. Klar nicht auf DLSS 2.x-Niveau, und auch mit deutlich geringeren Performancegewinnen (und daher vermutlich deutlich höherer realer Renderauflösung), aber durchaus brauchbar. Allerdings mit deutlich mehr temporalen Artefakten als nun DLSS 2.x hat.
Geldmann3
2022-01-18, 15:25:58
Halte den Artikel (https://www.rockpapershotgun.com/nvidia-dldsr-tested-better-visuals-and-better-performance-than-dsr) nicht für sehr Aussagekräftig und er überzeugt mich nicht wirklich, doch besser als gar nichts.
Slidervergleiche zwischen 2,25xDLDSR & 4xDSR möchte ich gerne sehen. Mir ist schon klar, dass es besser aussieht als die reine Ausgabeauflösung.
Auch verstehe ich nicht, warum man hauptsächlich in Games testet, die sowieso schon über temporale Kantenglättung verfügen. Bei solchen hatte man zuvor mit TAA + 2,25xDSR oder DLSS Qualität + 2,25xDSR bereits eine perfekte Bildqualität bekommen. Da gibt es nichts Signifikantes mehr zu gewinnen.
Interessant ist sowas doch in alten Games, die keine ordentliche Kantenglättung haben. Und ich vermute, genau hier versagt DLDSR gegen DSR.
Es fehlen nämlich einfach die Samples im Base-Image.
aufkrawall
2022-01-18, 15:42:28
Auch verstehe ich nicht, warum man hauptsächlich in Games testet, die sowieso schon über temporale Kantenglättung verfügen. Bei solchen hatte man zuvor mit TAA + 2,25xDSR oder DLSS Qualität + 2,25xDSR bereits eine perfekte Bildqualität bekommen. Da gibt es nichts Signifikantes mehr zu gewinnen.
Nicht alles durch eine 4k-Brille sehen. Gerade TAA profitiert von höheren Auflösungen, selbst schlechtes wie das in HZD.
Insbesondere für Leute mit FHD-Monitor/TV ist das interessant, da könnte die Überschärfung durch DLDSR sogar halbwegs passen. Temporale Wunder kann man sich komplett abschminken. Das Bild ist auch in der höheren Auflösung temporal instabil wie sonst was ohne TAA, das kann mit einem spatial Scaler niemals ohne massive Artefakte vergleichbar ruhig werden.
Geldmann3
2022-01-18, 16:06:01
Nicht alles durch eine 4k-Brille sehen. Gerade TAA profitiert von höheren Auflösungen, selbst schlechtes wie das in HZD.
Insbesondere für Leute mit FHD-Monitor/TV ist das interessant, da könnte die Überschärfung durch DLDSR sogar halbwegs passen. Temporale Wunder kann man sich komplett abschminken. Das Bild ist auch in der höheren Auflösung temporal instabil wie sonst was ohne TAA, das kann mit einem spatial Scaler niemals ohne massive Artefakte vergleichbar ruhig werden.
Gebe Dir Recht, das war durch die 4k Brille betrachtet.
robbitop
2022-01-18, 17:14:26
Halte den Artikel (https://www.rockpapershotgun.com/nvidia-dldsr-tested-better-visuals-and-better-performance-than-dsr) nicht für sehr Aussagekräftig und er überzeugt mich nicht wirklich, doch besser als gar nichts.
Slidervergleiche zwischen 2,25xDLDSR & 4xDSR möchte ich gerne sehen. Mir ist schon klar, dass es besser aussieht als die reine Ausgabeauflösung.
Auch verstehe ich nicht, warum man hauptsächlich in Games testet, die sowieso schon über temporale Kantenglättung verfügen. Bei solchen hatte man zuvor mit TAA + 2,25xDSR oder DLSS Qualität + 2,25xDSR bereits eine perfekte Bildqualität bekommen. Da gibt es nichts Signifikantes mehr zu gewinnen.
Interessant ist sowas doch in alten Games, die keine ordentliche Kantenglättung haben. Und ich vermute, genau hier versagt DLDSR gegen DSR.
Es fehlen nämlich einfach die Samples im Base-Image.
Ich würde das auch so sehen. Und es ist ja mit FSR auch so. Gibt es bereits ein gutes TAA, ist das Grundproblem mit der temporalen Stabilität ja bereits behandelt. Entsprechend kann die AI ja am Bild herumdoktern und zumindest einen gewissen Teil an Details schärfen/rekonstruieren und sowas wie Treppenstufen glätten etc. Aber jedoch ohne TAA (z.B. GTA 4) wird es vermutlich deutlich anders aussehen. Dort erwarte ich, dass 2,25 DLDSR deutlich unterliegt ggü 4x DSR in Bezug auf temporale Stabilität und auch Rekonstruktion feiner Details. Z.B. Stromkabel die nur wenige Pixel dünn sind, verschwinden in einigen Bereichen je nach Frame auch mal. Da wird ohne temporale Informationen / temporales Jitter DLDSR nichts ausrichten können.
basix
2022-01-18, 17:40:52
Zu DLDSR wären ein paar technische Informationen hilfreich. Wie das in etwa umgesetzt ist und was die Vorteile verglichen zu normalem OGSSAA sind und wie es sich mit SGSSAA vergleicht (bei 2.25x wie auch 4.0x Faktoren). Bei AMD gab es ja sogar noch SGSSAA+Edge Detection.
Gibt es schon solche Infos im Netz? Oder muss man die Siggraph abwarten?
Ich nehme an DLDSR kann Kanten usw. gut erkennen (siehe EDSGSSAA). Was es dann aber mit dem restlichen Informationsgehalt und temporaler Stabilität anstellt (verglichen mit SSAA) ist eine andere Frage. Allenfalls einfach sowas wie CAS, einfach fürs Downsampling.
aufkrawall
2022-01-18, 17:59:55
Zu DLDSR wären ein paar technische Informationen hilfreich. Wie das in etwa umgesetzt ist und was die Vorteile verglichen zu normalem OGSSAA sind und wie es sich mit SGSSAA vergleicht (bei 2.25x wie auch 4.0x Faktoren). Bei AMD gab es ja sogar noch SGSSAA+Edge Detection.
Gibt es schon solche Infos im Netz? Oder muss man die Siggraph abwarten?
Es ist einfach nur ein DL-gestützter spatial Downscaler. Warum wird hier immer die ganze Tüte von DLSS, über SGSSAA etc. aufgemacht. :confused:
Wirklich technische Detail über das Neural Network etc. wird es nicht geben, weil es Nvidia ist.
Allenfalls einfach sowas wie CAS, einfach fürs Downsampling.
Es sieht in der Tat recht ähnlich aus zu (zu) stark eingestelltem CAS. Aber es wird wohl eher nicht "Postprocessing" sein, sondern das NN arbeitet so bzw. wurde darauf trainiert.
robbitop
2022-01-18, 18:02:39
Zu DLDSR wären ein paar technische Informationen hilfreich. Wie das in etwa umgesetzt ist und was die Vorteile verglichen zu normalem OGSSAA sind und wie es sich mit SGSSAA vergleicht (bei 2.25x wie auch 4.0x Faktoren). Bei AMD gab es ja sogar noch SGSSAA+Edge Detection.
Gibt es schon solche Infos im Netz? Oder muss man die Siggraph abwarten?
Ich nehme an DLDSR kann Kanten usw. gut erkennen (siehe EDSGSSAA). Was es dann aber mit dem restlichen Informationsgehalt und temporaler Stabilität anstellt (verglichen mit SSAA) ist eine andere Frage. Allenfalls einfach sowas wie CAS, einfach fürs Downsampling.
Leider gibt es m.W.n keine Dokumentation dazu die das erläutert. Es geht in die Richtung FSR aber für das Downsampling statt Upsampling.
Nach meinem Verständnis:
- Anständiger Filterkernel - ggf. Kontentadaptiv
- Kontent adaptive Nachbearbeitung (Details rekonstruieren, schärfen, Treppchen glätten)
Das passiert aber rein spatial - also wirklich isoliert auf jedes einzelne Frame. Der Input ist aber ganz herkömmliches OGSSAA. Das Ergebnis wird sicherlich sehr variabel sein - je nach Kontent und je nach bereits vorhandenem AA.
Leider gibt es m.W.n keine Dokumentation dazu die das erläutert. Es geht in die Richtung FSR aber für das Downsampling statt Upsampling.
Meine Vermutung, natürlich ohne jegliche Bestätigung, wäre, dass es ein Upsampler ist und in Wirklichkeit den jeweils eingestellten DLSDSR-Faktor auf 4x DSR hochrechnet, was dann mit dem ganz normalen Downsampler wieder auf die Monitorauflösung heruntergerechnet wird und nicht direkt von der Renderauflösung auf die Zielauflösung geht.
aufkrawall
2022-01-18, 18:43:37
Könnte so oder so ähnlich sein, würd den recht anständigen AA-Effekt von schon 1,78x erklären.
basix
2022-01-18, 19:47:25
Damit würde man sich aber alle Upsampling bezogenen Artefakte einhandeln. Klar, die Upsampling Faktoren sind verglichen mit DLSS relativ gering (1.78x resp. 1.26x anstatt minimal 2.25x bei DLSS Quality). Und der Vorteil ist da, dass man eh mit der höheren Auflösung als der Ausgabeauflösung rendert. Verglichen mit Upsampling (sagen wir mal FSR Ultra Quality - 1.69x Scaling) hat DLSR 2.25x sage und schreibe 3.0x mehr Pixel bei selber Ausgabeauflösung zur Verfügung.
sqrt(1.78) = 1.333 --> 1.500 bis 2.0x erreicht wird (DSR 4x); oder 1.125 bis 1.5x erreicht wird (DSR 2.25x)
sqrt(2.25) = 1.500 --> 1.333 bis 2.0x erreicht wird (DSR 4x)
Die Upsampling Faktoren würden sich also bei DLDSR etwa so bewegen, wenn man auf DSR 4.0x geht:
- DLDSR 2.25x --> ~FSR Ultra Quality (1.69x)
- DLDSR 1.78x --> ~FSR Quality (2.25x)
Ganz unrealistisch scheint mir diese These bezüglich Upsampling und anschliesendem Downsampling nicht zu sein. Ob da dann aber noch viel "DL" drin ist? Das gute an dieser Theorie: AMD kann sowas ähnliches leicht via FSR anbieten ;)
Was mir bei dieser Theorie nicht ganz aufgeht: Gibt es dann nicht Probleme mit der HUD-Skalierung und so? Oder ist das bei Downsampling unkritisch?
@Raff: Nehmt beim PCGH DLDSR Deep Dive das doch bitte mit auf: Ein Spiel mit FSR, welches dann via DSR 4.0x wieder runtergesampled wird. Das dann im Vergleich mit DLDSR bei der selben Output-Auflösung :D Alternativ auch gleich mit RSR auf AMD GPUs mit dabei im Vergleich, das funktioniert wie DLDSR auch bei allen Spielen.
Damit würde man sich aber alle Upsampling bezogenen Artefakte einhandeln.
Nein, Upsampling per se erzeugt überhaupt keine Artefakte es ist nur erstmal unscharf. Was Artefakte erzeugen kann sind beispielsweise Schärfefilter, aber die muss man nicht zwangsweise mit Upsampling kombinieren.
robbitop
2022-01-18, 22:20:21
Meine Vermutung, natürlich ohne jegliche Bestätigung, wäre, dass es ein Upsampler ist und in Wirklichkeit den jeweils eingestellten DLSDSR-Faktor auf 4x DSR hochrechnet, was dann mit dem ganz normalen Downsampler wieder auf die Monitorauflösung heruntergerechnet wird und nicht direkt von der Renderauflösung auf die Zielauflösung geht.
Das ist ein extrem interessanter Gedanke, der richtig Sinn ergibt! :up:
Geldmann3
2022-01-19, 03:10:33
Das wäre auch eine Erklärung dafür, dass 4x nicht zur Verfügung steht. Denn da bleibt dann nichts mehr zum upscalen und damit wäre es fast dasselbe wie das normale DSR 4x.
robbitop
2022-01-19, 06:27:22
Inoffiziell ging ja bis zu 16x DSR IIRC. Wäre schön wenn NV auch höhere Faktorn für DLDSR anbieten würde. Gerade für ältere Spiele ohne TAA sicherlich sinnvoll.
Ich frage mich ob für ältere Spiele PPAA wie fxaa oder smaa in Kombination mit DLDSR überhaupt sinnvoll ist. Wenn eh bereits mehr als ein Downsampling im Spiel ist und viel modernere Verfahren am Werk sind wahrscheinlich nicht.
Dampf
2022-01-19, 13:30:01
Ich muss sagen, trotz der niedrig aufgelösten PP Effekten bin ich sehr zufrieden mit DLSS in GoW. Sieht klasse aus!
Tesseract
2022-01-19, 14:35:15
warum sollte nvidia zuerst auf 4k upscalen und dann bilinear down? ich seh den sinn dahinter nicht. die prozedur wird wahrscheinlich ändlich der von DLSS sein: für das training wird der frame in extrem hoher auflösung gerendert (z.B. in 16x), dann auf 1x verkleinert und das resultat ist die trainingsvorlage für das 1.78->1.0 bzw. 2.25->1.0 DL-downsampling.
das fehlen von 4x führe ich auf drei dinge zurück:
- 4x ist ein sehr günstiger skalierungsfaktor für konventionelle methoden, ergo ist der vorteil von DL viel geringer
- 4x ist bereits so teuer, dass der nutzen ohnehin extrem beschränkt ist. für viel mehr als 5+ jahre alte spiele auf moderner high-end hardware reicht die performance einfach nicht, ganz besonders in zeiten von 4k-monitoren und hohen refreshraten wo die tendenz eher in die gegenrichtung hin zu DLSS geht.
- 1.78x und 2.25x sind genau die faktoren die man braucht um auf die nächst höhere stufe zu kommen, also 1080p->1440p und 1440p->4k, was sie besonders interessant macht. alle anderen DSR-faktoren sind für nvidia wohl zu groß oder zu arbiträr im ressourcen ins training zu stecken.
robbitop
2022-01-19, 15:12:20
Im Gegensatz zu DLSS 1.0 ist es aber agnostisch zum Spiel. DLSS 1.0 erforderte spiele spezifisches Training. Dort wurde dann eine hoch aufgelöste ground truth verwendet.
Spiel agnostisch ist das sicherlich massiv komplexer.
warum sollte nvidia zuerst auf 4k upscalen und dann bilinear down?
Weil "DL-Magic" anzunehmenderweise zusätzliche Informationen erzeugt und man "Speicherplatz" für diese zusätzlichen Informationen braucht, und dieser Speicherplatz sind eben zusätzliche Pixel
ich seh den sinn dahinter nicht. die prozedur wird wahrscheinlich ändlich der von DLSS sein
DLSS ist was komplett anderes, die Hauptquelle für zusätzliche Informationen für DLSS sind tatsächlich berechnete Informationen über mehrere Frames. "DL-Magic" erzeugt hier kaum neue Informationen sondern entscheidet nur welche der berechneten echten Informationen auch verwendet werden.
Bei DLDSR werden alle neue Informationen von "DL-Magic" erraten.
Tesseract
2022-01-19, 16:30:16
Im Gegensatz zu DLSS 1.0 ist es aber agnostisch zum Spiel. DLSS 1.0 erforderte spiele spezifisches Training. Dort wurde dann eine hoch aufgelöste ground truth verwendet.
Spiel agnostisch ist das sicherlich massiv komplexer.
spatial muss nicht zwangsläufig "gnostisch" sein. zwischen DLSS 1.0 und DLDSR stecken jahre R&D, die würde ich überhaupt nicht vergleichen.
Weil "DL-Magic" anzunehmenderweise zusätzliche Informationen erzeugt und man "Speicherplatz" für diese zusätzlichen Informationen braucht, und dieser Speicherplatz sind eben zusätzliche Pixel
was ich beschrieben habe erzeugt "neue information" und mit dem speicherplatz hat das überhaupt nichts zu tun. wenn die trainingsvorlage aus eher höher aufgelösten quelle kommt macht das trainierte netzwerk das in einem schritt. ein zusätzlicher klassischer filter in der kette ist da eher kontraproduktiv, besonders wenn er als downsampler information zerstört.
DLSS ist was komplett anderes, die Hauptquelle für zusätzliche Informationen für DLSS sind tatsächlich berechnete Informationen über mehrere Frames. "DL-Magic" erzeugt hier kaum neue Informationen sondern entscheidet nur welche der berechneten echten Informationen auch verwendet werden.
du kannst diese beiden elemente in einem DL-netzwerk nicht trennen und schon garkeinen prozentsatz aus dem ärmel schütteln. das netzwerk erzeugt aus gegebener information immer systematisch information, daran ist nichts "magic" und es wird auch nichts frei erfunden. der unterschied ist, dass der prozess dank des trainings viel intelligenter vorgeht. das training ist nicht weniger "echt" als die rasterisierung.
Bei DLDSR werden alle neue Informationen von "DL-Magic" erraten.
nein, werden sie nicht.
basix
2022-01-19, 17:11:08
DLDSR kann also zwei Implementationsformen haben (momentane Thesen):
1. ML basierter Downsampling Filter-Kernel, welcher vermutlich Content-Adaptive arbeitet
2. Upsampling auf 4x Auflösung, ausgehend von 1.78x und 2.25x Renderauflösung (ML basiert oder ähnlich wie FSR/RSR) und anschliessendes Downsampling (herkömmlich bilinear oder ebenfalls ML basierter Filter-Kernel)
das fehlen von 4x führe ich auf drei dinge zurück:
- 4x ist ein sehr günstiger skalierungsfaktor für konventionelle methoden, ergo ist der vorteil von DL viel geringer
- 4x ist bereits so teuer, dass der nutzen ohnehin extrem beschränkt ist. für viel mehr als 5+ jahre alte spiele auf moderner high-end hardware reicht die performance einfach nicht, ganz besonders in zeiten von 4k-monitoren und hohen refreshraten wo die tendenz eher in die gegenrichtung hin zu DLSS geht.
- 1.78x und 2.25x sind genau die faktoren die man braucht um auf die nächst höhere stufe zu kommen, also 1080p->1440p und 1440p->4k, was sie besonders interessant macht. alle anderen DSR-faktoren sind für nvidia wohl zu groß oder zu arbiträr im ressourcen ins training zu stecken.
4x ist aus Performance-Gründen wirklich eher für ältere Spiele geeignet. Aber wenn ich den Schärfevorteil zwischen DLDSR 2.25x und DSR 4x sehe (ich habe DSR mit 0% Smoothing nachgetestet) würde ich dennoch gerne ein DLDSR 4x haben wollen. Klar, DLDSR ist etwas überschärft, aber gerade für ältere Spiele und deren Texturen ist etwas nachschärfen etwas Wert (meine Meinung, CAS kann hier ziemlich gute Ergebnisse liefern).
Zum 1.78x/2.25x Faktor: Tja, du kannst das Spiel auch umdrehen. Bei 1.78x fehlen genau noch 2.25x zu 4x. Das entspricht DLSS Quality oder FSR Quality. Bei 2.25x fehlen noch 1.78x zu 4.0x. Das entspricht in etwas FSR Ultra Quality (1.69x). Und da verglichen mit DLSS die Upsampling Faktoren geringer sind und gleichzeitg danach die Ausgabeauslösung geviertelt wird, sind non-temporale upsampling Algorithmen in der Lage, gute Ergebnisse zu erzielen. Als Vergleich: FSR Ultra Quality ist jetzt nicht sooo schlecht. Und die FSR Nachteile wie allenfalls entstehende Unschärfe werden durch das anschliessende Downsampling dann eh negiert.
Für mich scheint die oben beschriebene Variante 2 eigentlich recht schlüssig. Zumindest können beide der Varianten gute Ergebnisse liefern. Ist dann eher die Frage, was aus Qualität- und Performancesicht am Schluss die besseren Ergebnisse liefert. Interessant ist es aber allemal :)
robbitop
2022-01-19, 17:18:11
spatial muss nicht zwangsläufig "gnostisch" sein. zwischen DLSS 1.0 und DLDSR stecken jahre R&D, die würde ich überhaupt nicht vergleichen.
Mit agnostisch meine ich, dass DLDSR nicht vom Spiel wissen muss. Es ist über jedes Spiel überstülpbar. Und das unterscheidet es massiv von DLSS und dem Schwierigkeitsgrad für das Netzwerk. Denn wenn das Spektrum alle Spiele sind, dann hat man nicht nur mehr zu trainieren sondern auch eine viel größere Spanne an Kontent.
du kannst diese beiden elemente in einem DL-netzwerk nicht trennen und schon garkeinen prozentsatz aus dem ärmel schütteln.
Ich vermute er spricht auf das Clamping an und auf den Fall, was passiert mit Samples wenn das Clamping versagt. Dann gibt das DL Netzwerk einen Wert vor, der Sinn ergibt. Und ggf. ist es auch nicht nur ein Netzwerk sondern zwei. Eines für das Clamping der temporalen Super Samples aus mehreren Bildern und eines zum Vorhersagen sinnvoller Ersatzwerte.
nein, werden sie nicht.
Aber doch zumindest die, die nicht aus dem oversampling kommen? Sofern du auch das abstreitest - hast du denn eine Quelle, die dir erlaubt das mit Gewissheit zu sagen?
Aktuell scheint es zumindest keine Dokumentation über die Funktionsweise von DLDSR zu geben und wir spekulieren alle. Schwierig zu validieren, welche Meinung die Richtige ist IMO.
Für mich scheint die oben beschriebene Variante 2 eigentlich recht schlüssig. Zumindest können beide der Varianten gute Ergebnisse liefern. Ist dann eher die Frage, was aus Qualität- und Performancesicht am Schluss die besseren Ergebnisse liefert. Interessant ist es aber allemal :)
Wäre zumindest interessant mal FSR mit entsprechender Stufe (so dass in Summe 2,25 herauskommt) mit 4xDSR zu kombinieren um zu schauen ob ähnliche aussehende Ergebnisse dabei herauskommen.
aufkrawall
2022-01-19, 17:40:23
Mir ist gerade aufgefallen, dass der Smoothness-Slider mit DLDSR den Grad beeinflusst, wie stark der Algorithmus Texturen schärft. Ich hatte erst gedacht, er hätte keine Funktion, weil sich an der Schriftdarstellung auf dem Desktop quasi gar nichts ändert zwischen 0 und 100%. Mit 100% sieht es doch annehmbar in Spielen aus, insbesondere mit etwas CAS via ReShade. Die Vegetation in Witcher 3 flimmert massiv weniger als mit nativen 1440p. Noch optimaler wäre natürlich CAS nach dem Scaling anstatt davor, aber man kann nicht alles haben. Jedenfalls sieht so Faktor 1,78x besser aus als das unangenehm unscharfe VSR mit 4x. ;D
Geldmann3
2022-01-19, 17:44:54
In diesem Video tut DLDSR doch einiges für die Glättung des Bildes und sieht in meinen Augen besser aus als DSR bei der gleichen, internen Auflösung:
U1ICywsuxAs
Tesseract
2022-01-19, 17:56:37
Mit agnostisch meine ich, dass DLDSR nicht vom Spiel wissen muss.
das muss DLSS 2.x auch nicht, es braucht nur mehr input als nur den framebuffer.
Aber doch zumindest die, die nicht aus dem oversampling kommen?
ja, bzw, jein. wie gesagt: DL geht hier methodisch vor und nicht künstlerisch. die szenendaten (polygone, texturen usw.) sind die "wahrheit", rasterisierung verfälscht diese wahrheit und ein wesentlicher aspekt den DL ist, dass es lernt diese rasterisierungsfehler möglichst gut und intelligent zu reversieren. die methoden die sich durch den lernprozess ergeben haben sind die, die am zuverlässigsten bzw. besten von der fehlerhaften rasterisierung zurück zur "wahrheit" kommen.
bei DLDSR ist der rasterisierungsfehler geringer weil die spatiale auflösung höher ist; bei DLSS 2.0 ist diese geringer weil die temporale auflösung höher ist. bei DLSS 2.0 kommt halt noch dazu, dass diese höhere temporale auflösung teilweise von der geringeren spatialen ausgeglichen wird. ansonsten ist das konzept aber recht ähnlich.
Zum 1.78x/2.25x Faktor: Tja, du kannst das Spiel auch umdrehen. Bei 1.78x fehlen genau noch 2.25x zu 4x. Das entspricht DLSS Quality oder FSR Quality. Bei 2.25x fehlen noch 1.78x zu 4.0x. Das entspricht in etwas FSR Ultra Quality (1.69x). Und da verglichen mit DLSS die Upsampling Faktoren geringer sind und gleichzeitg danach die Ausgabeauslösung geviertelt wird, sind non-temporale upsampling Algorithmen in der Lage, gute Ergebnisse zu erzielen. Als Vergleich: FSR Ultra Quality ist jetzt nicht sooo schlecht. Und die FSR Nachteile wie allenfalls entstehende Unschärfe werden durch das anschliessende Downsampling dann eh negiert.
ich verstehe nicht worauf du hinaus willst. mit den 2 vorhandenen DLDSR-faktoren kann man von 1080p oder 1440p jeweils den nächst "größeren" monitor simulieren, was für normale user ein relativ durchschaubares konzept und der eigentliche anwendungsfall dieses features ist. die kombination mit DLSS oder FSR ist nischenbastelei. ich sage nicht, dass nvidia nicht mehr modi anbieten soll, ich sag nur warum alles andere als diese beiden viel weniger priorität hat.
robbitop
2022-01-19, 17:57:09
Ich frage mich, warum NV nicht einfach CAS übernimmt (zumindest wenn die eigene Lösung schlechter ist)? Es ist doch quell offen und darf durch jeden implementiert werden IIRC.
das muss DLSS 2.x auch nicht, es braucht nur mehr input als nur den framebuffer.
Das ist doch aber gar nicht vergleichbar. Bei DLSS 2.x sprechen wir von temporalen Supersampling - das geht natürlich bei jedem Spiel sofern es die notwendigen Schnittstellen bedienen kann und es der Entwickler einbaut. DLDSR hat nichts außer dem Framebuffer nach PP-FX und HUD. Da tut das NN wie auch wahrscheinlich bei DLSS 1.0 etwas völlig anderes.
ja, bzw, jein. wie gesagt: DL geht hier methodisch vor und nicht künstlerisch. die szenendaten (polygone, texturen usw.) sind die "wahrheit", rasterisierung verfälscht diese wahrheit und ein wesentlicher aspekt den DL ist, dass es lernt diese rasterisierungsfehler möglichst gut und intelligent zu reversieren.
Aber DLDSR hat nichts außer dem Framebuffer als Inputs. Von der Geometrie die gerastert wird weiß es nichts. Das ist sicherlich um Größenordnungen schwieriger, artefaktfrei etwas zu halluzinieren.
Temporales Supersampling wie bei DLSS 2.x ist da methodisch schon IMO anders.
ChaosTM
2022-01-19, 17:58:24
proprietär > quelloffen
hab den Ironie tag vergessen. NV steht nicht auf quelloffen
robbitop
2022-01-19, 18:04:12
proprietär > quelloffen
IIRC war es auch zur freien Nutzung für jeden freigegeben.
aufkrawall
2022-01-19, 18:07:15
Ich denke mal, das wollen sie aus Gründen der Gesichtswahrung nicht. Hoffen wir, dass sie das Treiber-Sharpen noch verbessern. Momentan werden sowohl das alte, als auch das neue Treiber-Sharpen ignoriert mit DLDSR.
robbitop
2022-01-19, 18:10:22
Ich denke mal, das wollen sie aus Gründen der Gesichtswahrung nicht. Hoffen wir, dass sie das Treiber-Sharpen noch verbessern. Momentan werden sowohl das alte, als auch das neue Treiber-Sharpen ignoriert mit DLDSR.
Ersteres ergibt Sinn ja. Ist halt etwas enduser freundlicher wenn man nicht mit reshade noch pro Spiel injekten und rumfummeln muss.
aufkrawall
2022-01-19, 18:16:36
Ersteres ergibt Sinn ja. Ist halt etwas enduser freundlicher wenn man nicht mit reshade noch pro Spiel injekten und rumfummeln muss.
Vor allen Dingen ist ReShade/in-game Sharpen vor dem Scaling und nicht danach. Klar kann man so noch etwas Edge Blur durchs PP-AA beheben. Allerdings nicht die leichte Unschärfe für Kanten, die durch den Scaler selbst eingeführt wird. Deshalb ist 4xVSR auch trotz ReShade-Sharpen immer Murks, der Scaler blurt viel zu stark danach. DLDSR ist da wesentlich besser, aber könnte bez. Kanten imho auch noch eine Prise schärfer sein.
basix
2022-01-19, 18:21:13
ich verstehe nicht worauf du hinaus willst. mit den 2 vorhandenen DLDSR-faktoren kann man von 1080p oder 1440p jeweils den nächst "größeren" monitor simulieren, was für normale user ein relativ durchschaubares konzept und der eigentliche anwendungsfall dieses features ist. die kombination mit DLSS oder FSR ist nischenbastelei. ich sage nicht, dass nvidia nicht mehr modi anbieten soll, ich sag nur warum alles andere als diese beiden viel weniger priorität hat.
"Simulieren der nächst höheren Monitors", klar kann man so betrachten. Gilt dann aber für genau zwei Kombinationen (1080p + 1.78x und 1440p + 2.25x). Und ändert nichts an der Tatsache, dass wenn man von Upsampling auf 4x ausgeht, sich ebenso die gleichen Faktoren ergeben wie bei DLSS/FSR. Und da diese Techniken mittlerweile bekannt sind und sich schon relativ breit in der freien Wildbahn bewegen: Entsprechende Upsampling Prinzipien anwenden, Downsampling drüberstülpen, fertig. Ist es ein neuer ML basierter Filter-Kernel ohne Upsampling: Komplett neu im Bereich der Spiele.
Und niemand hier bezieht sich darauf, dass man DLSS mit DLDSR oder FSR und Downsampling mischt. Nein. DLDSR könnte einfach aus einem spatialen Upscaler und einem nachfolgendem Downsampling Pass bestehen. Das hat gar nichts mit DLSS und FSR zu tun und wird auch nicht kombiniert. FSR kann aber aus zwei Gründen als Vergleich hinzugezogen werden:
- Der zugrunde liegende Upscaler könnte ähnlich wie FSR aufgebaut sein. Und auch wenn ML basiert und komplett anders als FSR aufgebaut, hätte der Algorithmus zumindest die gleichen Ziele wie FSR
- FSR/RSR + VSR könnte ähnliche Ergebnisse wie DLDSR liefern (obwohl aufkrawall anscheinend von VSR nicht begeistert scheint) --> Das kann man testen, ist doch genial ;)
Tesseract
2022-01-19, 18:22:43
Aber DLDSR hat nichts außer dem Framebuffer als Inputs. Von der Geometrie die gerastert wird weiß es nichts.
ich kenne die DLSS API nicht aber soweit ich weiß verwendet das auch nur frames und motion vectors.
Troyan
2022-01-19, 18:34:15
Und niemand hier bezieht sich darauf, dass man DLSS mit DLDSR oder FSR und Downsampling mischt. Nein. DLDSR könnte einfach aus einem spatialen Upscaler und einem nachfolgendem Downsampling Pass bestehen. Das hat gar nichts mit DLSS und FSR zu tun und wird auch nicht kombiniert. FSR kann aber aus zwei Gründen als Vergleich hinzugezogen werden:
- Der zugrunde liegende Upscaler könnte ähnlich wie FSR aufgebaut sein. Und auch wenn ML basiert und komplett anders als FSR aufgebaut, hätte der Algorithmus zumindest die gleichen Ziele wie FSR
- FSR/RSR + VSR könnte ähnliche Ergebnisse wie DLDSR liefern (obwohl aufkrawall anscheinend von VSR nicht begeistert scheint) --> Das kann man testen, ist doch genial ;)
DLDSR kostet genauso viel Leistung wie DSR, interne Auflösung oder die reale Auflösung. Es wird keine Leistung bei DLDSR gegenüber der selben hochgesampleten Auflösung gespart.
FSR ist ein Nachschärfefilter mit billiger Kantenerkennung. Das ist was vollkommen anderes. Deiner Logik nach sollte man also mit FSR@Performance aus 1440p -> 2880p hochskalieren und dann auf 2160p runterskalieren. Ich kann dir aus der Erfahrung mit Horizon sagen, dass sieht richtig mies aus.
Ja, du kannst bei DSR nachschärfen. Das Ergebnis wird wahrscheinlich nicht viel schlechter sein. Aber das ist doch was vollkommen anderes als die Nutzung von FSR.
basix
2022-01-19, 18:43:35
DLDSR kostet genauso viel Leistung wie DSR, interne Auflösung oder die reale Auflösung. Es wird keine Leistung bei DLDSR gegenüber der selben hochgesampleten Auflösung gespart.
Hier verstehe ich dich gerade nicht. Zumindest deinen zweiten Satz nicht. Es ging ja nicht um Leistung sparen (kann man ja gar nicht, wenn man mit der selben internen Auflösung rendert, egal ob DSR, DLSS, FSR oder DLDSR).
FSR ist ein Nachschärfefilter mit billiger Kantenerkennung. Das ist was vollkommen anderes. Deiner Logik nach sollte man also mit FSR@Performance aus 1440p -> 2880p hochskalieren und dann auf 2160p runterskalieren. Ich kann dir aus der Erfahrung mit Horizon sagen, dass sieht richtig mies aus.
Das was du beschreibst, kann auch gar nicht optimal funktionieren ;) FSR Performance ist scheisse und der Downsampling Faktor von 1.78x, den du da beschreibst, ebenfalls. Vergleiche bitte auch ähnliche Faktoren miteinander und nicht etwas, was so stark abweicht. Wir reden bei DLDSR eher über FSR Ultra Quality und Quality Faktoren. Also Upsampling mit 1.78x oder 2.25x und fixem 4x Downsampling. Beides deutlich besser, bezogen auf die resultierende Bildqualität.
Und nochmals wiederholt: Es kann Upsampling+Downsampling sein. Muss es aber nicht. Kann eben auch "einfach" ein ML basierter Downsampling Filter-Kernel sein. Nichtsdestotroz wären die beiden Ansätze im Vergleich sehr interessant. Und das könnte man mit FSR + DSR 4x auf einer Nvidia Karte in einem FSR Supported Spiel eben machen. Das mit DLDSR vergleichen und schauen, was dabei rauskommt.
Edit:
Und das werde ich glaube ich heute Abend machen. Habe sicher irgendein FSR Spiel in der Bibliothek.
Tesseract
2022-01-19, 18:48:44
Und ändert nichts an der Tatsache, dass wenn man von Upsampling auf 4x ausgeht, sich ebenso die gleichen Faktoren ergeben wie bei DLSS/FSR. Und da diese Techniken mittlerweile bekannt sind und sich schon relativ breit in der freien Wildbahn bewegen: Entsprechende Upsampling Prinzipien anwenden, Downsampling drüberstülpen, fertig.
so funktioniert DL aber nicht. die "upsampling prinzipien" ergeben sich aus dem training und ich sehe nach wie vor nicht was das willkührliche 4x hier zu suchen hat. klassisches DSR macht eine convolution mit festgelegter gewichtung, DLDSR macht im prinzip was sehr ähnliches, allerdings hat man hier keine gauss-glocke sondern einen dynamischen filterkern den man explizit darauf trainieren kann den output zu erzeugen den man will, also nicht nur mehr rücksicht auf die tücken des ungeraden faktors nimmt sondern sich auch gleich um bestimmte artefakte kümmern kann usw.
wo kommt hier 4x ins spiel und warum gerade 4x wenn es kein besonders verhältnis zu 1.78 oder 2.25 hat? ich weiß echt nicht wie ihr auf diese idee kommt.
ich kenne die DLSS API nicht aber soweit ich weiß verwendet das auch nur frames und motion vectors.
DLSS verwendet mehrere frames und nicht nur einen, und wie du sagst motion vectors, vermutlich auch Z-Buffer.
robbitop
2022-01-19, 19:30:10
ich kenne die DLSS API nicht aber soweit ich weiß verwendet das auch nur frames und motion vectors.
DLSS 2.0 verändert pro Frame die Subpixelposition so dass sich über mehrere Frames ein jitter innerhalb eines Pixels ergibt. Die Samples werden über mehrere Bilder gesammelt und verrechnet. Bei einem stehenden Bild wäre das ohne jegliche Hilfe SGSSAA. Laut der NV Dokumentation akkumuliert man 16 samples was dann bis zu 16x sgssaa entspricht. TAA (zB das TSSAA von idtech macht das auch) Die Krux ist es nun verwertbare Samples zu bekommen wenn sich das Bild bewegt. Dafür gibt es entsprechende Methoden die je nach Variante mehr oder weniger effektiv sind. Die nennt sich „clamping“. Das wiederfinden des Pixels nach der Bewegung und das Entscheiden ob trotz der Bewegung der Farbwert noch sinnvoll ist.
Am Ende entscheidet die Güte des Clampings wie aggrssiv man das machen kann bevor es Artefakte wie Ghosting gibt.
Manche Heuristiken sind schon ganz gut aber das NN von NV ist das was es von amderen Verfahren abhebt. Das clamping funktioniert so gut, dass man artefaktnormiert viel mehr samples aus vergangenen Frames extrahieren kann. Und selbst in Fällen wo das clamping fehl schlägt werden sinnvolle Werte „erfunden“.
Das hat mit DLSS 1.0 und DLDSR nichts zu tun.
Nur aufgrund dessen dass DLSS vorhandene (aber schwer nutzbare) Informationen nutzt ist es temporal so extrem stabil und rekonstruiert auch feine Geometrie so erfolgreich. Weil es im Prinzip SGSSAA ist. Dazu gibt es ganz gute Doku von NV und auch eine schöne Präsentation / GTC Talk. Unbedingt anschauen dann wird einem klar, warum DLSS 2.0 dieser Ergebnisse erzielt.
DLSS 1.0 (mehr als der Name ist nicht gemein mit 2.0) hingegen wird darauf trainiert möglichst viel hochauflösendes Bildmaterial eines spezifisches Spieles als Ground Truth zu kennen und arbeitet großteils spatial. Objekte werden erkannt und anhand der Groundtrutz detailliert. Völlig verschiedene paar Schuhe. DLDSR ist vermutlich eher näher an DLSS 1.0 oder FSR.
Insofern finde den Vergleich unpassend weil die Amwendung des NNs so unterschiedlich ist.
basix
2022-01-19, 20:06:43
wo kommt hier 4x ins spiel und warum gerade 4x wenn es kein besonders verhältnis zu 1.78 oder 2.25 hat? ich weiß echt nicht wie ihr auf diese idee kommt.
Weil 4x pro Achse ein ganzzahliges Verhältnis zur Output Auflösung bietet und somit (einfachstes) Downsampling das beste Ergebnis liefert.
Dazu:
- 1.78*2.25 = 4.0
- DLSS Quality / FSR Quality = 2.25
- DLDSR 1.78x --> 4x --> 2.25x upsampling benötigt --> Aha, DLSS/FSR Quality Faktoren
- DLDSR 2.25x --> 4x --> 1.78 upsampling benötigt --> Aha, naha an FSR Ultra Quality dran (1.69x, UQ fällt hier mit 1.3 pro Achse eigentlich etwas aus der Reihe, 1.33x ist viel üblicher da eben 1.33*1.5=2.0)
Besonders würde ich das Verhältnis nicht nennen. Es ist aber in Teilen gleich mit existierenden DLSS / FSR Upsampling Ratios. Und wenn FSR es schafft, hier noch akzeptable bis gute Ergebnisse zu erzielen, wieso sollten das Nvidia ach so mächtige Tensor Cores und ML/DL Expertise das nicht schaffen ;)
Tesseract
2022-01-19, 20:11:35
eben, also ist es scheinbar nur framebuffer und motion vector information, keine geometrie oder andere szenendaten. wie diese samples dann verrechnet werden ist detailsache aber man könnte das ganze mit DL auch fundamental anders angehen, z.B. bestimmte geometriedaten aus der szene (oder eben depth buffer oder ähnliches) als input zuschießen und den DL-algorithmus damit in irgendeiner form arbeiten lassen.
DLDSR ist vermutlich eher näher an DLSS 1.0 oder FSR.
näher an DLSS 1.0 sicher aber bei FSR hängt es davon ab wie man "nähe" definiert. es ist schon etwas grundlegend anderes auf einen bestimmten output hin zu trainieren (was DLSS 2.0 auch macht) oder einen scaler zu schreiben der mit ganz bestimmten schritten teilprobleme löst.
wie gesagt: die aufgabe von DLDSR ist es, aus einem "unschönen" faktor ein sauberes downsample zu bekommen, also im prinzip was der gauss vorher auch schon gemacht hat, aber intelligenter. ich sehe da kaum parallelen zu FSR.
Tesseract
2022-01-19, 20:22:17
Weil 4x pro Achse ein ganzzahliges Verhältnis zur Output Auflösung bietet und somit (einfachstes) Downsampling das beste Ergebnis liefert.
die outputauflösung hat auch ein ganzzahliges verhältnis zur outputauflösung, und zwar 1. nochmal: warum sollte dieser zwischenschritt über 4x das ergebnis besser statt schlechter machen? was kann der dumme bilineare downsampling-schritt was das netzwerk nicht kann?
Es ist aber in Teilen gleich mit existierenden DLSS / FSR Upsampling Ratios. Und wenn FSR es schafft, hier noch akzeptable bis gute Ergebnisse zu erzielen, wieso sollten das Nvidia ach so mächtige Tensor Cores und ML/DL Expertise das nicht schaffen ;)
tut mir leid, ich verstehe einfach nicht auf was du hinaus willst. man will z.B. von source 1.78 auf target 1.0. warum sollte ich da den umweg über 4.0 mit einem qualitativ suboptimalen bilinaren filter nehmen statt gleich von 1.78 auf 1.0 zu trainieren?
robbitop
2022-01-19, 20:34:45
eben, also ist es scheinbar nur framebuffer und motion vector information, keine geometrie oder andere szenendaten. wie diese samples dann verrechnet werden ist detailsache aber man könnte das ganze mit DL auch fundamental anders angehen, z.B. bestimmte geometriedaten aus der szene (oder eben depth buffer oder ähnliches) als input zuschießen und den DL-algorithmus damit in irgendeiner form arbeiten lassen.
Es bestimmt auch die Subpixel Position, hat Zugriff auf den Z Buffer und den Framebuffer vor Postprocessing und vor dem Hud. Das ist um Welten mehr als DLDSR. Und es funktioniert ganz ganz amders. Das eine ist extremst schlaues SGSSAA mit schwierig zu besorgenden Samples und das andere ist ein spatialer content adaptiver Filter.
Der Aufwand an Inferencing ist wahrscheinlich 1-2 Größenordnungen an TOPs der Tensorcores.
Tesseract
2022-01-19, 21:17:27
der erklärung nach ist es trotzdem rein screenspace- und sample-basiert im gegensatz zu pattern recognition, worldspace/geometrie-inputs, asset-inputs (z.B. materialeigenschaften) und was sonst noch alles denkbar wäre.
ich bleibe dabei dass die "nähe" zu FSR bzw. DLSS 2.0 definitionssache ist. DLSS 1.0 ist natürlich sehr viel ähnlicher.
wo kommt hier 4x ins spiel und warum gerade 4x wenn es kein besonders verhältnis zu 1.78 oder 2.25 hat? ich weiß echt nicht wie ihr auf diese idee kommt.
Ganz einfach weil Nvidia behauptet mit 2,25x + DL die Qualität von 4x ohne DL zu erreichen.
eben, also ist es scheinbar nur framebuffer und motion vector information, keine geometrie oder andere szenendaten.
Es ist auch der G-Buffer und das G darin steht für geometry.
Tesseract
2022-01-19, 21:32:43
Ganz einfach weil Nvidia behauptet mit 2,25x + DL die Qualität von 4x ohne DL zu erreichen.
da besteht kein logischer zusammenhang, mal abgesehen davon ist das reines marketing und stimmt in vielen situationen auch ganz einfach nicht.
basix
2022-01-20, 00:12:26
Und das werde ich glaube ich heute Abend machen. Habe sicher irgendein FSR Spiel in der Bibliothek.
So ich habe mal FSR + DSR in einem Spiel ausprobieren wollen. Und war erstaunt, HZD unter den FSR Titeln zu finden. Und noch mehr, dass sogar DLSS mit an Bord ist :D
Zum Vergleich FSR + DSR vs. DLDSR:
- Beide mit vergleichbarer Renderauflösung
- Output = 1440p; DLDSR = 2160p; FSR Ultra Quality = 2215p --> 2880p DSR 4x
- FSR + DSR gefällt mir aufgrund der etwas höheren Bildschärfe und Detailgrad etwas besser. Vor allem bei den vielen Gräsern
- Bildrauschen ist bei beiden sehr ähnlich. Reduziert verglichen mit nativ aber immer noch gut sichtbar
- Ansonsten nimmt es sich nicht viel. DLDSR zeigte eine etwas höhere Performance (47 vs. 43 fps)
Fazit:
FSR UQ + DSR 4x ist ziemlich gleichwertig mit DLDSR 2.25x, bezüglich Qualität wie auch Performance. Habe nur HZD getestet, deswegen nicht zwingend auf andere Spiele übertragbar.
Was mich dann aber mehr interessiert hat: DLSS :D
Unglaublich, wie viel Bildruhe DLSS reinbringt. Bei HZD Rauschen die vielen Gräser und Sträucher doch ordentlich. DLSS eliminiert das eigentlich komplett. Sogar mit DLSS Performance @ 1440p, was typischerweise eher nicht so optimal funktioniert. DLSS bringt aber generell eine Unschärfe und bei hektischem Grasgewedel Smearing mit sich. Da habe ich aber eine Lösung:
- DSR 4x (höhere Auflösung) --> 2880p
- DLSS Balanced oder Performance (feiner aufgelöste Gräser und so, Eliminierung von Bildrauschen)
- CAS via Reshade (die DLSS Unschärfe wieder wegkompensieren).
Der Qualitätsgewinn verglichen mit 1440p nativ ist enorm. Performance geht aber von 65fps auf 45-50fps runter. Doch schon bei 1440p Output und sind DLSS-P/B/Q erstaunlich effektiv, wenn es um Reduktion von Rauschen geht.
Etwas absurd ist die gemeinsame Nutzung von DLSS + DSR + CAS aber schon :D
Das DLSS-Smearing ist je nach Situation aber auch mit 2880p nicht ganz wegoptmiert. Da würde ich wohl eine höhere Framerate benötigen (Lovelace, where art thou?)
Slipknot79
2022-01-20, 00:50:42
Lösung:
- DSR 4x (höhere Auflösung) --> 2880p
- DLSS Balanced oder Performance (feiner aufgelöste Gräser und so, Eliminierung von Bildrauschen)
- CAS via Reshade (die DLSS Unschärfe wieder wegkompensieren).
Warum so kompliziert? :cool: Reicht nicht DLSS-Q + CAS?
basix
2022-01-20, 00:54:31
Kommt bei 1440p nicht das selbe dabei raus ;)
Geldmann3
2022-01-20, 03:03:06
Habe hier im Forum schon öfter 2,25x Downsampling + DLSS Quality vs. 8xSSAA verglichen und die beiden haben sich meist einen ziemlich engen Schlagabtausch geliefert. Erst 16xSSAA schlägt das eindeutig. Was in 4k 16k downsampling entsprechen würde.
Hier (https://imgsli.com/Nzc2NDk/7/10) z.b. aufgeführt unter DLSS Ultra Quality.
DLSS unterliegt hier in der Bildschärfe teilweise deshalb, weil der LOD-Bias in dem Game nicht korrekt an DLSS angepasst wurde.
Ansonsten würde es noch besser gegen 8xSSAA performen.
robbitop
2022-01-20, 07:23:58
Mit 8x und 16x AA meinst du Downsampling und somit OGSSAA oder?
Geldmann3
2022-01-20, 08:16:42
Korrekt.
basix
2022-01-20, 11:03:19
Warum so kompliziert? :cool: Reicht nicht DLSS-Q + CAS?
Evtl. noch zur Präzisierung:
- DLSS-Q + CAS würde in 960p rendern. Sieht eigentlich schon recht gut aus, das ist wahr
- DLSS-P + CAS + DSR 4x rendert in 1440p. Dadurch ist die Bildqualität schon noch ein bisschen besser. Vor allem das Smearing wird reduziert, obwohl man niedrigere FPS hat.
Slipknot79
2022-01-20, 23:28:53
- DLSS-P + CAS + DSR 4x rendert in 1440p. Dadurch ist die Bildqualität schon noch ein bisschen besser. Vor allem das Smearing wird reduziert, obwohl man niedrigere FPS hat.
Müsste mir die Combo mal reinziehen, war jedenfalls mit DLSS-UP+CAS+4x unzufrieden. :mad:
basix
2022-01-21, 00:50:11
DLSS-UP ist auch einfach Grütze. Die einzige Einstellung, bei welchem ich ein paar gute Ergebnisse gesehen habe, ist 8K. DLSS-UP hat stark mit Artefakten zu kämpfen oder ist einfach unscharf.
Geldmann3
2022-01-21, 01:10:56
Ja und selbst in 8K sah es bei mir teilweise schon grausig aus.
Finde der Schritt zwischen Performance und Ultra Performance ist der größte Schritt zwischen allen DLSS Stufen. Performance sieht in 8K noch perfekt, super glatt geleckt aus, bis auf vielleicht ein paar minimale Artefakte.
Wobei UP in 4k für Nintendo Switch Nutzer z.b. trotzdem noch ein Welten-Upgrade wäre.^^
Wobei UP in 4k für Nintendo Switch Nutzer z.b. trotzdem noch ein Welten-Upgrade wäre.^^
Unwahrscheinlich, je niedriger die Auflösung umso schlechter wird UP, und mit der geringen Auflösung auf der die Switch eh schon läuft wäre es wahrscheinlich unbrauchbar.
robbitop
2022-01-21, 09:18:21
Wobei es besser geworden ist mit 2.3 oder? Zumindest meinte DF, dass es besser aussieht als vorher noch. Man darf natürlich nicht Vergessen, dass der Faktor zwischen input und output 9x ist. :D
Dampf
2022-01-21, 10:57:08
4K UP, mit Post Processing Effekte in 1080p wäre für die Switch 2 ideal.
basix
2022-01-21, 11:09:34
Nein, ist klar. 9x Upsampling Faktor ist eigentlich wahnsinnig viel.
Ich erhoffe mir von DLSS 3.0 (wenn es das gibt) aber 3 Dinge:
- Bessere Unterdrückung von Smearing und Ghosting
- Bessere Qualität bei geringen Auflösungen (<4K)
- Bessere Qualität bei höhere Upsampling Fatoren
Das sollte hoffentlich dazu führen, dass z.B. DLSS-P bei 1080p...1440p brauchbar wird (sehr wertvoll für Mobile) und bei 4K...8K auch mal >DLSS-P gefahren werden kann. Evtl. mit einem zusätzlichen Zwischenmodus zwischen DLSS-P und DLSS-UP oder auch dynamischer Auflösung zwischen DLSS-P und DLSS-UP bei fixen FPS.
Habe gerade gestern Crysis 3 Remastered mal angespielt. Gleich am Anfang auf dem verregneten Deck im Meer gibt es so gelbe Stoffplanen mit einer entsprechenden faserigen Struktur der Textur. Diese bewegen sich relativ schnell im Wind. Mit DLSS sieht das schrecklich aus :D Selbst bei DLSS-Q/P mit 1440p Renderauflösung und dann entsprechendem Downsampling. Aufgrund der schnellen Bewegung verschmiert das zu einem einzigen Matsch und scheint auch über dieser Plane eine Art zu schweben. Da wird es ein fast schwindlig dabei, da drauf zu schauen.
Bei DLSS gibt es also schon noch Verbesserungspotential.
robbitop
2022-01-21, 11:23:36
Wenn man sich die Bandbreite der Ergebnisse anschaut, muss man klar sagen, dass es stark von der Güte der Implementierung abhängt und nicht nur von der Version von DLSS. Ich würde sogar sagen, dass das Gewicht der Implementierung durchaus schwerer wiegt.
basix
2022-01-21, 11:52:19
Dem stimme ich dir zu. Ob das aber wirklich "nur" die Implementierung ist oder auch wie die entsprechende Engine aufgebaut ist? DLSS ist bis anhin halt ein After-Thought. Im Nachhinein eingebaut und die Engine ist nicht optimal darauf zugeschnitten.
Dennoch, wenn DLSS 3.0 mehr / detailliertere Informationen bekommt, kann auch weniger schief gehen. Dazu noch ein verbesserter Algorithmus von DLSS (DLSS 2.0 ist mittlerweile fast 2 Jahre alt). Das Egebnis kann entsprechend robuster sein. Da zudem wohl immer mehr schon früh in der Entwicklung DLSS Integration angepeilt wird (oder allgemein temporal Upsampling), sollten in Zukunft einige der Kinderkrankheiten deutlich weniger oft auftreten.
Keine Ahnung, evtl. kommt DLSS 3.0 sogar mit automatischer MIP und LOD-Bias Anpassung und adaptiver Nachschärfung à la CAS, je nach eingestellter Output-Auflösung und DLSS-Modus. Im Endeffekt dem Entwickler etwas von der Implementierungsbürde abnehmen und sozusagen ein bisschen "Qualitätssicherung" in eigener Sache betreiben. Kann bezüglich Nachschärfung im einfachsten Fall einfach ein Preset sein, welches typischerweise gut funktioniert. Das kann der Entwickler dann immer noch auf den eigenen Content abstimmen.
Edit:
Nochmals zum sagen, dass mich DLSS in HZD wirklich umgehauen hat. Das war wirklich ein Wow-Effekt. Auf Screenshots kann man das gar nicht erfassen. Die Bildruhe ist einfach massiv besser, da HZD so viel Vegetation bietet. Einzige Nachteile sind die gewisse Unschärfe und das Smearing. Ersteres kann man mit CAS perfekt beheben. Letzteres mit höherer Renderauflösung und höheren FPS. Da höhere FPS bei gesetzer HW nicht geht: Auflösung erhöhen + Downsampling ;) Ghosting ist auch vorhanden (z.B. rund um Alloys Kopf/Haare beim drehen der Kameraperspektive), das hat man ohne DLSS aber auch und ist mit DLSS nicht wesentlich ausgeprägter.
Platos
2022-01-21, 11:57:17
Ich würde mir von DLSS 3.0 viel eher "wünschen", dass es gar nicht erst implementiert werden muss bzw. es nur noch einer Pflege zwischen nvidia und Engine-Entwickler bedarf. DAS wäre m.M.n viel wertvoller.
Dampf
2022-01-21, 11:59:34
Könnte man mit einem zweiten NN eventuell Motion Vektoren in Spielen vorhersagen? Vielleicht mit Objekterkennung, d.h. das zweite NN sieht Partikel und gibt den Standpunkt dann als Motion Vektor an DLSS weiter.
Könnte das gehen? So wäre DLSS in jedem Spiel möglich.
Troyan
2022-01-21, 12:01:47
Ich würde mir von DLSS 3.0 viel eher "wünschen", dass es gar nicht erst implementiert werden muss bzw. es nur noch einer Pflege zwischen nvidia und Engine-Entwickler bedarf. DAS wäre m.M.n viel wertvoller.
Also DLSS 1.0 nur ohne Training? :cool:
Das funktioniert nicht, weil spartiales AA deutlich anfälliger ist. MSAA funktioniert auch nicht mehr richtig wegen Compute und PP-Effekten en Masse.
Außerdem kannst du bei TAA das LoD ins negative verschieben ohne massive Artefakte zu erhalten.
Reaping_Ant
2022-01-21, 12:57:47
Könnte man mit einem zweiten NN eventuell Motion Vektoren in Spielen vorhersagen? Vielleicht mit Objekterkennung, d.h. das zweite NN sieht Partikel und gibt den Standpunkt dann als Motion Vektor an DLSS weiter.
Im Prinzip kann man die Bewegungsvektoren schon in gewissem Maße aus dem fertigen Bild bestimmen. Allerdings fehlt dann immer noch eine wichtige Komponente: Der Jitter der Sampleposition. Ohne den kannst Du zwar bewegte Objekte etwas glätten, indem Du sie über mehrere Frames mittelst, würdest aber bei unbewegten Objekten gar nichts gewinnen. Und ob man das über den Treiber erzwingen kann bezweifle ich, sonst würde SGSSAA ja immer noch in jedem Spiel funktionieren.
Ich glaube, das wurde hier schon einmal diskutiert, aber für mich wäre der nächste logische Schritt für DLSS 3.0 ganz klar eine dynamische Renderauflösung. DLSS ist dafür fast schon prädestiniert, da es auch aus deutlich niedrigeren internen Auflösungen noch ein akzeptables Bild auf den Monitor bringt. Idealerweise stellt man dann nur noch die Ausgabeauflösung und einen FPS-Bereich ein.
Wenn man den Gedanken noch etwas weiter spinnt, könnte man sich auch ganz vom Konzept einer Renderauflösung für das ganze Bild verabschieden. Wenn man ohnehin schon die Bewegungsvektoren kennt, könnte man die Anzahl der Samples auch vom Objekt abhängig machen: Sich schnell bewegende Objekte, für die man nicht über so viele Frames mitteln kann, bekommen dann mehr Samples ab, während man für den sich langsam bewegenden Hintergrund die nötigen Informationen auch über eine längere Zeitspanne sammeln kann. Sowas muss aber natürlich von Anfang an in die Engine integriert werden.
Daher wäre meine Vermutung, dass die Verzahnung zwischen DLSS (oder XESS) und Engine eher noch enger wird, als dass wir DLSS per Control Panel in jedem Spiel sehen werden.
Geldmann3
2022-01-21, 13:03:52
Ja, hoffe das ist die Zukunft.
Bildinhalte, welche sich unvorhersehbar bewegen werden dann spacial ,,gesupersampled" und alles andere temporal. Die grobe Anzahl der Samples pro Pixel könnte dann vom Modus oder Performanceziel bestimmt werden.
Troyan
2022-01-21, 13:08:15
Ich glaube, das wurde hier schon einmal diskutiert, aber für mich wäre der nächste logische Schritt für DLSS 3.0 ganz klar eine dynamische Renderauflösung. DLSS ist dafür fast schon prädestiniert, da es auch aus deutlich niedrigeren internen Auflösungen noch ein akzeptables Bild auf den Monitor bringt. Idealerweise stellt man dann nur noch die Ausgabeauflösung und einen FPS-Bereich ein.
Das gibt es schon und wurde in einigen Spielen implementiert.
basix
2022-01-21, 13:42:29
Mir ist nur Doom Eternal bekannt. Welches sind die anderen? Gibt es da eine Liste?
robbitop
2022-01-21, 14:39:27
Dem stimme ich dir zu. Ob das aber wirklich "nur" die Implementierung ist oder auch wie die entsprechende Engine aufgebaut ist? DLSS ist bis anhin halt ein After-Thought. Im Nachhinein eingebaut und die Engine ist nicht optimal darauf zugeschnitten.
Da stimme ich dir zu. Gehört aber zur Implementierung. Und man sieht ja bei id sehr gut, dass man auch die bestehende Renderpipeline gut daran anpassen kann, wenn man die Priorität, Mittel und Zeit hat.
Dennoch, wenn DLSS 3.0 mehr / detailliertere Informationen bekommt, kann auch weniger schief gehen. Dazu noch ein verbesserter Algorithmus von DLSS (DLSS 2.0 ist mittlerweile fast 2 Jahre alt). Das Egebnis kann entsprechend robuster sein. Da zudem wohl immer mehr schon früh in der Entwicklung DLSS Integration angepeilt wird (oder allgemein temporal Upsampling), sollten in Zukunft einige der Kinderkrankheiten deutlich weniger oft auftreten.
Absolut und die Engines und Entwickler werden dann auch gewohnter an diese Art Rekonstruktion (DLSS Erfahrung nimmt zu, XeSS kommt, wer weiß was mit DSR 2.0 passiert) - entsprechend wird auch zusätzlich die Implementierungsqualität erhöhen.
Keine Ahnung, evtl. kommt DLSS 3.0 sogar mit automatischer MIP und LOD-Bias Anpassung und adaptiver Nachschärfung à la CAS, je nach eingestellter Output-Auflösung und DLSS-Modus. Im Endeffekt dem Entwickler etwas von der Implementierungsbürde abnehmen und sozusagen ein bisschen "Qualitätssicherung" in eigener Sache betreiben. Kann bezüglich Nachschärfung im einfachsten Fall einfach ein Preset sein, welches typischerweise gut funktioniert. Das kann der Entwickler dann immer noch auf den eigenen Content abstimmen.
Ich finde es auch furchtbar, dass so grundlegende Dinge so oft falsch oder gar nicht umgesetzt werden. Entsprechend wäre ein fallback-presetting was ~90% des tweakbaren Endergebnisses holt.
Edit:
Nochmals zum sagen, dass mich DLSS in HZD wirklich umgehauen hat. Das war wirklich ein Wow-Effekt. Auf Screenshots kann man das gar nicht erfassen. Die Bildruhe ist einfach massiv besser, da HZD so viel Vegetation bietet. Einzige Nachteile sind die gewisse Unschärfe und das Smearing. Ersteres kann man mit CAS perfekt beheben. Letzteres mit höherer Renderauflösung und höheren FPS. Da höhere FPS bei gesetzer HW nicht geht: Auflösung erhöhen + Downsampling ;) Ghosting ist auch vorhanden (z.B. rund um Alloys Kopf/Haare beim drehen der Kameraperspektive), das hat man ohne DLSS aber auch und ist mit DLSS nicht wesentlich ausgeprägter.
Als ich vor ~2 Jahren den GTC Talk von NV gesehen habe (und verstanden habe, dass es sich essentiell um SGSSAA handelt) war mir klar, wie hoch das Potenzial ist. Die ersten richtig guten Implementierungen zeigten das in der Praxis und es ist gerade mal die Spitze des Eisbergs dieser Verfahrensart (also potenziell auch für XeSS).
Das sollte hoffentlich dazu führen, dass z.B. DLSS-P bei 1080p...1440p brauchbar wird (sehr wertvoll für Mobile) und bei 4K...8K auch mal >DLSS-P gefahren werden kann.
DLSS P ist schon sehr brauchbar, UP ist das einzig unbrauchbare DLSS.
Mit DLSS + Upsampling bekommt man aktuell die bestmögliche Qualität/Performance.
robbitop
2022-01-21, 15:28:54
Allerdings fehlt dann immer noch eine wichtige Komponente: Der Jitter der Sampleposition. Ohne den kannst Du zwar bewegte Objekte etwas glätten, indem Du sie über mehrere Frames mittelst, würdest aber bei unbewegten Objekten gar nichts gewinnen. Und ob man das über den Treiber erzwingen kann bezweifle ich, sonst würde SGSSAA ja immer noch in jedem Spiel funktionieren.
Das ist nicht richtig. Die Sampleposition ist normalerweise die Pixelmittel. Bei SGSSAA und bei DLSS ist das nicht der Fall. Bei SGSSAA wird an verschiedenen Punkten des Pixels abgetastet in einem Bild. Bei DLSS wird die Pixelposition frame pro frame verschoben und Ergebnisse aus der Vergangenheit verrechnet.
Gerade wenn sich nichts bewegt, ist es eine Idealbedingung. Dann kann man ohne Clamping die verschiedenen Werte verrechnen. Gab es schonmal in simpler Form mit MFAA und vor 10+ Jahren als ATIs Temporal AA - da wurde das Subpixelmuster bei aktivem AA gewechselt.
Wo die Schwierigkeit liegt, ist das Finden von gültigen Werten zwischen Frames wenn sich etwas bewegt. Wo bekommt man die Subpixelinformation her, wenn das Dreieck was abgetastet wurde jetzt in einem anderen Pixel liegt? Da kommt das clamping in's Spiel. Es wird also geschaut, in welchem Pixel es nun sein kann um es zu verrechnen. Die Erfolgschance von einem NN ist viel höher als bei reinen Heuristiken - deshalb kann DLSS mehr Samples bei gleicher Artefaktrate akkumulieren als Verfahren, die nur eine Heuristik haben. Z.B. TSAA von id.
Ich glaube, dass das mit dem Pixel jitter viele nicht wirklich verstanden haben.
SGSSAA funktioniert "nur" nicht in jedem Spiel, weil die modernen Renderpipelines einfach zu komplex geworden sind und vieles nicht mehr überstülpbar ist wie früher. Wir haben Render-to-texture, Zugang zum Z Buffer ist nicht mehr so einfach, Post processing etc. So viel Zeug was jedes Mal anders ist.
Wenn man den Gedanken noch etwas weiter spinnt, könnte man sich auch ganz vom Konzept einer Renderauflösung für das ganze Bild verabschieden. Wenn man ohnehin schon die Bewegungsvektoren kennt, könnte man die Anzahl der Samples auch vom Objekt abhängig machen: Sich schnell bewegende Objekte, für die man nicht über so viele Frames mitteln kann, bekommen dann mehr Samples ab, während man für den sich langsam bewegenden Hintergrund die nötigen Informationen auch über eine längere Zeitspanne sammeln kann. Sowas muss aber natürlich von Anfang an in die Engine integriert werden.
Was du beschreibst in Bezug auf mehr und weniger Samples interpretiere ich als Inputresolution. Objekte die sich schnell bewegen bekommen mehr input resolution damit man damit kompensieren kann, dass man weniger zeitliche samples akkumulieren kann?
Ich bin mir nicht sicher ob das mit aktueller API und Hardware funktioniert, Objekte oder Bildteile des gleichen Bildes mit unterschiedlichen input Auflösungen zu haben. Mit VRS könnte man da ggf. was machen.
Und es läge die Befürchtung nahe, dass es dennoch inkonsistent aussieht oder die Qualitätsunterschiede dynamisch hin und her schwanken. Leider ist das menschliche Auge extrem gut darin, dynamische Veränderungen und inkonsistenten sofort zu sehen und wir empfinden das Ganze dann als sehr unschön.
Sicher nicht unmöglich aber sicherlich ziemlich komplex von der Anforderung, damit es auch gut funktioniert und robust ist.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.