PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Platos
2020-12-17, 04:46:46
DLSS Quality bietet doch einen enormen Perfomance Boost. Also ich würde immer auf Quality setzen. Da ist das Bild normalerweise auch sehr gut und trotzdem hat man 75-85% mehr FPS. Das ist doch extrem gut eigentlich.

Balanced bietet dann aber meistens nicht viel mehr FPS wie Quality, Unterschiede sind m.M.n aber schon sichtbar. Deswegen sieht für mich Balanced eher nutzlos aus. Perfomance bietet dann wieder einen FPS-Sprung, hat aber dann doch schon einen Qualitätsverlust und Ultra Perfomance ist m.M.n einfach ultra scheisse ;)

Deswegen scheint es so, als sollte man am besten entweder Quality oder gleich Perfomance nutzen und besser nicht ultra Perfomance. Bei Auflösungen unter 4K würde ich gar nur Quality nehmen.

Geldmann3
2020-12-17, 08:33:19
DLSS Quality bietet doch einen enormen Perfomance Boost. Also ich würde immer auf Quality setzen. Da ist das Bild normalerweise auch sehr gut und trotzdem hat man 75-85% mehr FPS. Das ist doch extrem gut eigentlich.

Balanced bietet dann aber meistens nicht viel mehr FPS wie Quality, Unterschiede sind m.M.n aber schon sichtbar. Deswegen sieht für mich Balanced eher nutzlos aus. Perfomance bietet dann wieder einen FPS-Sprung, hat aber dann doch schon einen Qualitätsverlust und Ultra Perfomance ist m.M.n einfach ultra scheisse ;)

Deswegen scheint es so, als sollte man am besten entweder Quality oder gleich Perfomance nutzen und besser nicht ultra Perfomance. Bei Auflösungen unter 4K würde ich gar nur Quality nehmen.
Ja, sehe ich ebenfalls so. Komischerweise habe ich auch schon viele Fälle gesehen in denen Balanced wieder schlechter aussah als Performance. Was nicht viel Sinn ergibt. Dann kann man auch gleich Performance nehmen. Und Ultra Performance ist völlig indiskutabel. Es sei denn, man hat viel zu wenig Hardware-Power und kann nur die Ultra-Performance Auflösung fahren. Denn es ist immer noch viel besser als klassisches Upscaling. Stelle ich mir auf der nächsten Nintendo-Switch sehr nützlich vor. Oder, um einen 8k Screen irgendwie mit Pixeln zu füllen, auch wenn es Qualitativ lange nicht die hochwertigsten Pixel sind. Konsoleros kann sowas aus ein paar Metern Abstand zum TV sowieso egal sein. Da kann man in Zukunft quasi immer sowas wie Performance fahren.

gnomi
2020-12-17, 09:14:42
Es kommt immer auf die Hardware, Auflösung und das Spiel an denke ich.
Prinzipiell nutze ich allerdings nur Balanced und Quality mit 3440*1440.
Bei Watch Dogs lieber ersteres zusammen mit Ray Tracing Medium.
Das Spiel nutzt die CPU leider immer noch nicht nicht perfekt, bietet jedoch schon einiges grafisch.
Bei Cyberbunk muss es Quality sein, weil es zunächst unschärfer an sich wirkt.
Schalte hier auch Filmkorn und CA aus.
Die CPU Performance wird sehr vorbildlich genutzt. Hätte ich mir von Watch Dogs auch gewünscht. (auch Cold War zieht übrigens zu heftig dann mit Ray Tracing im Vietnam Level)
Mit 8700K OC erste Sahne trotz gigantischer Welt.
Ohne Ray Tracing plus DLSS Quality bei 60 fps avg. spielt es sich dennoch besser als mit Ray Tracing.
Man kann Dank GSync mit 30-45 fps avg. natürlich auch spielen, aber die Ray Tracing Effekte sind sehr teuer oben drauf. (Reflektionen 40%, Lighting 30-35%, Schatten 20%)
Ich bräuchte da schon eine 3090 oder 3080 TI mit knapp doppelter Power.
Aber ich habe es mir bei 30 fps zumindest schon ohne Ruckel Show angesehen, und es sieht einfach genial aus, wenn man a) weiß, wo man hingucken muss und b) um wie viel echter es als traditionell ist.
Für mich glasklar die Zukunft beide Effekte parallel.
Wird sich durch setzen. Ray Tracing allerdings obendrauf und mit schnelleren Grafikkarten und Konsolen Updates die nächsten Monate und Jahre.

Gast
2020-12-17, 09:52:09
DLSS Quality bietet doch einen enormen Perfomance Boost. Also ich würde immer auf Quality setzen. Da ist das Bild normalerweise auch sehr gut und trotzdem hat man 75-85% mehr FPS. Das ist doch extrem gut eigentlich.


Hängt stark von der Auflösung ab. In FullHD würde ich maximal Quality verwenden, WQHD ist Balanced noch sehr gut, und ab 4k kann man auch gut Performance verwenden.

Die allgemeine Qualität unterscheidet sich zwischen Quality und Performance eigentlich kaum. Die Stellen in denen die "DLSS-Magic" nicht gut funktioniert und Artefakte übrig bleiben werden häufiger und auffälliger, je niedriger man die Qualitätsstufe wählt.

Ultra Performance sieht immer sehr Bescheiden aus und es gibt schon einen Grund warum das eigentlich nur für 8k vorgesehen ist.

Dampf
2020-12-17, 12:10:52
Okay, ich nehm es zurück. Die schlechte Rekonstruktion lag einem Treiber-Problem.

Hier nativ von gestern:

https://i.imgur.com/D4jZpTX.jpg

beachtet die Nummer 6909 unter dem linken Blinker. Beachtet die Riffel-Textur auf dem Auto.

DLSS Quality vor der Treiber-Neuinstallation:

https://i.imgur.com/SrBIuSF.jpg

Beachtet, wie die Nummer 6909 kaum mehr zu erkennen ist. Beachtet die verschwundene Riffel-Textur des Autos und natürlich die generelle Unschärfe. Das meinte ich damit, dass das Rekonstruieren der Details (abgesehen von den Heiz-Elementen der hinteren Windschutzscheibe) nicht funktioniert.

Aber das war aufgrund der Treiber-Installation! Jetzt nach der frischen Installation:
DLSS Quality

https://i.imgur.com/trY0eVB.jpg

Riffel Textur wieder da, Nummer wieder lesbar, Heiz-Elemente perfekt. Auch Performance und Balanced rekonstruieren wieder Details ordentlich. Balanced sieht von den Details her eigentlich aus wie Quality. Bei Performance verschwinden die Heiz-Elemente komischerweise, trotzdem sind die meisten Details wie die 6909 Nummer und Riffel-Textur vorhanden (bei Performance vor der Treiber-Installation waren die komplett weg)

Leider ist die Unschärfe immer noch da, aber wie ich im CP2077 Thread schon gesagt hab liegt das wohl daran, dass TAA im Spiel geschärft wird und DLSS nicht, mit ein bisschen Sharpening ist das wieder behoben.

Also Leute, falls ihr Probleme mit DLSS habt, deinstalliert eure Treiber mit DDU und legt ihn wieder frisch auf.

An Nvidia und CDPR: Ihr solltet DLSS um den selben Faktor nachschärfen wie das TAA, damit der Eindruck der Bildqualität beim Ottonormal-User weiterhin gut ist.

aufkrawall
2020-12-17, 12:17:01
Schon wieder typisch Windows-Welt, dass es an so etwas scheitert wie dem Kopieren von Dateien in einen Ordner durch einen Installer. :freak:

Dampf
2020-12-17, 12:23:21
Schon wieder typisch Windows-Welt, dass es an so etwas scheitert wie dem Kopieren von Dateien in einen Ordner durch einen Installer. :freak:

Entweder das oder es liegt daran, dass ich vorher beim negativen LOD Bias Clamp eingestellt hatte wie bei Watch Dogs auch, um die Moire Artefakte zu umgehen. :redface:

Achill
2020-12-17, 12:24:07
[..]
An Nvidia und CDPR: Ihr solltet DLSS um den selben Faktor nachschärfen wie das TAA, damit der Eindruck der Bildqualität beim Ottonormal-User weiterhin gut ist.

Es könnte auch einfach daran liegen, dass eine Rekonstruktion mit Niedriger Auflösung u.U. einfach eine andere oder auch geringere Menge an Informationen hat als ein TAA mit nativer Auflösung und es eben nicht mit "nachschärfen" getan ist.

Dampf
2020-12-17, 12:29:24
Es könnte auch einfach daran liegen, dass eine Rekonstruktion mit Niedriger Auflösung u.U. einfach eine andere oder auch geringere Menge an Informationen hat als ein TAA mit nativer Auflösung und es eben nicht mit "nachschärfen" getan ist.

Naja, nach der Treiber-Installation ging die Rekonstruktion ja wieder, man sieht es an den feinen Details wie der Nummer 6909 und der Riffel-Textur. Ist auf nativ Niveau. Und die Heiz-Elemente sehen sogar besser aus. Alles was fehlt ist jetzt noch Schärfe, die Details selbst sind ja jetzt wieder ordentlich. Schärfen kann man mit CAS oder Nvidia Sharpening. Die Unschärfe von DLSS rührt wohl daher, dass das TAA nachgeschärft wird, aber DLSS nicht. ( Siehe hier: https://forums.cdprojektred.com/index.php?threads/forced-sharpening-in-1-04.11045372/ und hier https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12538930&postcount=4283)

Bedenke, dass das DLNN auf Super Sampled 16K Feed zugreifen kann.

aufkrawall
2020-12-17, 12:32:16
Entweder das oder es liegt daran, dass ich vorher beim negativen LOD Bias Clamp eingestellt hatte wie bei Watch Dogs auch, um die Moire Artefakte zu umgehen. :redface:
Teste doch nochmal, ob du bei der Clamp-Version nicht vielleicht doch einem Placebo-Effekt erlegen bist.
Du kannst im Filter Tester irgendeinen negativen Wert einstellen:
https://www.3dcenter.org/download/3dcenter-filter-tester
Die Treiber Clamp-Option dürfte dies nicht verhindern. Käme mir komisch vor, wenn das nur mit DLSS einen Effekt hätte.

Afaik braucht man negatives LOD-Bias, um nicht die Textur-Pampe der niedrigeren Auflösung zu haben. Das DL-Training hilft da sicherlich ein wenig, aber kann auch nicht zaubern.

Dampf
2020-12-17, 12:42:47
Teste doch nochmal, ob du bei der Clamp-Version nicht vielleicht doch einem Placebo-Effekt erlegen bist.
Du kannst im Filter Tester irgendeinen negativen Wert einstellen:
https://www.3dcenter.org/download/3dcenter-filter-tester
Die Treiber Clamp-Option dürfte dies nicht verhindern. Käme mir komisch vor, wenn das nur mit DLSS einen Effekt hätte.

Afaik braucht man negatives LOD-Bias, um nicht die Textur-Pampe der niedrigeren Auflösung zu haben. Das DL-Training hilft da sicherlich ein wenig, aber kann auch nicht zaubern.

Watch Dogs ist nicht mehr installiert, von daher kann ich das da leider nicht testen. In CP2077 sind die Moire Artefakte aber deutlich seltener, da kann ich mit leben.

Cooler Test. In der Tat, mit dem negativen LOD Bias verstärken sich die Moire-Effekte aber auch die Texturqualität in der Ferne.

Okay, also wenn sie jetzt noch ein bisschen nachschärfen ist das definitiv doch die beste DLSS Implementation.

Dampf
2020-12-17, 13:37:04
Okay, hier ist ein Vergleich zwischen nativem TAA (mit integriertem Sharpening) und DLSS Performance (mit CAS Sharpening per Reshade)

https://imgsli.com/MzM5MjA

Bin absolut von den Socken! Die 6909 Nummer unter dem linken roten Blinker ist sogar mit DLSS Performance in der Ferne deutlich besser zu erkennen, ebenso die Riffel-Textur. Und dank CAS hat man nun ebenso scharfe Bildqualität. Noch dazu ist die Performance, natürlich, deutlich besser. Das ist auf 1440p.

Nachteile, es gibt auf den Boden so ein Texturen Clipping Problem in der Perspektive, das ist schon mit TAA vorhanden wird aber mit DLSS verstärkt. Und das Aliasing auf dem Auto links an der Tür ist ein wenig schlechter.

Sonst sieht es aber gleichwertig zu nativ aus und in einigen Aspekten besser ! Achtet mal oben links auf die Wand-Textur. Dort gibts zusätzliche Details in Form von schwarzen Punkten (die wohl Lack-Abreibungen darstellen)

Geldmann3
2020-12-17, 14:58:44
Okay, hier ist ein Vergleich zwischen nativem TAA (mit integriertem Sharpening) und DLSS Performance (mit CAS Sharpening per Reshade)

https://imgsli.com/MzM5MjA

Bin absolut von den Socken! Die 6909 Nummer unter dem linken roten Blinker ist sogar mit DLSS Performance in der Ferne deutlich besser zu erkennen, ebenso die Riffel-Textur. Und dank CAS hat man nun ebenso scharfe Bildqualität. Noch dazu ist die Performance, natürlich, deutlich besser. Das ist auf 1440p.

Nachteile, es gibt auf den Boden so ein Texturen Clipping Problem in der Perspektive, das ist schon mit TAA vorhanden wird aber mit DLSS verstärkt. Und das Aliasing auf dem Auto links an der Tür ist ein wenig schlechter.

Sonst sieht es aber gleichwertig zu nativ aus und in einigen Aspekten besser ! Achtet mal oben links auf die Wand-Textur. Dort gibts zusätzliche Details in Form von schwarzen Punkten (die wohl Lack-Abreibungen darstellen)
Wow, ich dachte zuerst DLSS Performance sei nativ.
Sicher, dass Du die beiden nicht verwechselt hast? ;D

Dampf
2020-12-17, 15:00:32
Wow, ich dachte zuerst DLSS Performance sei nativ.
Sicher, dass Du die beiden nicht verwechselt hast? ;D

Ganz sicher. Habs doppelt und dreifach gegengeprüft :)

Geldmann3
2020-12-17, 15:01:45
An den meisten Stellen zeigt DLSS Performance in deinen Screenshots mehr Details als Nativ+TAA, es gibt allerdings auch ein paar Ausnahmen im Bild, an denen Nativ einige Details mehr erhält.

Da frage ich mich, sieht Ultra Performance jetzt aus wie nativ +TAA? :biggrin:

Dampf
2020-12-17, 15:17:32
An den meisten Stellen zeigt DLSS Performance in deinen Screenshots mehr Details als Nativ+TAA, es gibt allerdings auch ein paar Ausnahmen im Bild, an denen Nativ einige Details mehr erhält.

Da frage ich mich, sieht Ultra Performance jetzt aus wie nativ +TAA? :biggrin:

Ultra Performance ist für 8K gedacht, auf Screenshots sieht zwar ganz gut aus, aber die temporale Stabilität leidet zu sehr, da die Post Processing Effekte auf einer sehr geringen Auflösung laufen. Es flimmert halt alles sehr.

Hier Ultra Performance in 1440p mit CAS im Vergleich zu DLSS Perf mit CAS.

https://imgsli.com/MzM5MjM

Aber selbst bei Ultra Performance kriegt man zusätzliche Details wie die 6909 Nummer. Das ist echt krass, rendert das nicht in 360p oder so? :O

Tobalt
2020-12-17, 15:34:57
Bedenke, dass das DLNN auf Super Sampled 16K Feed zugreifen kann.

Gehört dieses Statement nicht in die DLSS1-Ära ?
Nach meinem Verständnis braucht ja DLSS2 eben keinen spezifischen Trainingscontent.. Wozu auch ? Alle Informationen, die DLSS2 in das fertige packt, wurden ja live in der Engine gerendert.

Troyan
2020-12-17, 16:26:09
An den meisten Stellen zeigt DLSS Performance in deinen Screenshots mehr Details als Nativ+TAA, es gibt allerdings auch ein paar Ausnahmen im Bild, an denen Nativ einige Details mehr erhält.

Da frage ich mich, sieht Ultra Performance jetzt aus wie nativ +TAA? :biggrin:

Das ist dich nicht neu. TAA vermischt Farbinformationen und führt so zum Verschlucken von Details. Das ist vorallem in niedrigen Auflösungen problematisch. Wurde doch oft schon hier gezeigt, dass vorallem feine Details (u.A. Linien) viel besser rekonstruiert werden können. Problematisch ist meisten, dass bei TAA ein negativer LOD verwendet wird, wodurch TAA schärfer und detailreicher vorkommen kann (Frostbite Engine z.B., oder auch Deliver us The Moon).

woodsdog
2020-12-17, 16:26:20
Also ich finde ja das Performance Setting in 1440p schon indiskutabel. Muss ein bewegt-Bild Ding sein. Hier auf den Vergleichsbildern passt das ja alles irgendwie. :confused:

Geldmann3
2020-12-17, 17:23:19
Also ich finde ja das Performance Setting in 1440p schon indiskutabel. Muss ein bewegt-Bild Ding sein. Hier auf den Vergleichsbildern passt das ja alles irgendwie. :confused:

Es ist sicher auch viel einfacher temporale Samples zu akkumulieren, wenn sich nichts bewegt. Flimmerei fällt im Standbild nicht auf und das Rauschen wirkt wie Filmgrain.^^
Ultra Performance ist für 8K gedacht, auf Screenshots sieht zwar ganz gut aus, aber die temporale Stabilität leidet zu sehr, da die Post Processing Effekte auf einer sehr geringen Auflösung laufen. Es flimmert halt alles sehr.

Hier Ultra Performance in 1440p mit CAS im Vergleich zu DLSS Perf mit CAS.

https://imgsli.com/MzM5MjM

Aber selbst bei Ultra Performance kriegt man zusätzliche Details wie die 6909 Nummer. Das ist echt krass, rendert das nicht in 360p oder so? :O

480p sollten es bei QHD intern sein. Was Du im finalen Frame siehst wurde allerdings aus x mal 480p generiert, wobei die Samples in jeden Frame ein wenig verschoben wurden. Sagen wir es nutzt 4 Frames, dann sind wir schon wieder bei 720p. Hmm, immer noch unglaublich...

Gouvernator
2020-12-17, 17:47:15
Falls jemand ein Bewegtbild sucht.
8K Ultra DLSS. Der Abstand zur Linse ist absolut minimal vielleicht 10cm oder so. Einzig die Details/Schärfe in der Ferne sind nicht wirklich "8k". Aber ein Auto in der Nähe sieht schon ziemlich wie 8K aus.
qT_3RTWQ7yg

Platos
2020-12-17, 17:59:45
Was sollen immer diese abgefilmten Videos? Mal ehrlich, das ist so nutzlos, was du da machst.

Dampf
2020-12-17, 18:03:16
Also ich finde ja das Performance Setting in 1440p schon indiskutabel. Muss ein bewegt-Bild Ding sein. Hier auf den Vergleichsbildern passt das ja alles irgendwie. :confused:

Also bei Bewegung ist das Bild im Performance Modus ziemlich ruhig. Aber ich werde das mal genauer analysieren.

Indiskutabel finde ich es aber gar nicht, es ist super, wenn man CAS oder anderweitges Sharpening dazu mischt.

Rooter
2020-12-17, 18:54:33
Bereits bei Quality fehlen Details:
https://i.ibb.co/c3K2j0k/DLSS.png (https://i.ibb.co/c3K2j0k/DLSS.png)Und wie waren da jeweils die Frameraten?

Was sollen immer diese abgefilmten Videos? Mal ehrlich, das ist so nutzlos, was du da machst.+1

MfG
Rooter

-/\-CruNcher-/\-
2020-12-18, 03:19:03
Mit voller Dröhnung Nvidia Bashing, teils verdient für die PR Abteilung die Engineers aus Nvidias ML Division haben das natürlich nicht verdient.

zUVhfD3jpFE


Nichts ist schlimmer als Ghosting ich bin schon so weit details dafür in Kauf zu nehmen

Control hat das Ghosting glaube perfekt under Control da können die Polen was lernen ;)

pest
2020-12-18, 06:52:48
Mit voller Dröhnung Nvidia Bashing, teils verdient für die PR Abteilung die Engineers aus Nvidias ML Division haben das natürlich nicht verdient.

https://youtu.be/zUVhfD3jpFE


Nichts ist schlimmer als Ghosting ich bin schon so weit details dafür in Kauf zu nehmen

Control hat das Ghosting glaube perfekt under Control da können die Polen was lernen ;)

Gutes Video, deine Schlussfolgerung ist fragwürdig

Leichtes Ghosting ja
Dafür weniger/kaum Flickering von filigranen Details wie Vegetation

basix
2020-12-18, 09:16:57
Okay, hier ist ein Vergleich zwischen nativem TAA (mit integriertem Sharpening) und DLSS Performance (mit CAS Sharpening per Reshade)

https://imgsli.com/MzM5MjA

Danke für die Erinnerung, dass Reshade ein CAS Feature hat. In 1440p blurrt selbst DLSS Quality viele Texturen relativ stark, speziell Bodentexturen. Mit CAS sollten die zurückkommen, mal ausprobieren.

Gast
2020-12-18, 09:58:16
Mit voller Dröhnung Nvidia Bashing, teils verdient für die PR Abteilung die Engineers aus Nvidias ML Division haben das natürlich nicht verdient.

https://youtu.be/zUVhfD3jpFE



So sehr ich Steve mag und so sehr das Bashing von Nvidias Marketing gerechtfertigt ist, sollte er hier wirklich mal seine Brillen aufsetzen.

Fast alle Situationen in denen er davon spricht, dass DLSS Details verliert zeigt der DLSS shot in Wahrheit mindestens gleich viel oder mehr Details.

Cyberpunkt verwendet ohne DLSS völlig übertriebenes Sharpening, das den lokalen Kontrast der vorhandenen Details erhöht. All diese Details sind auch mit DLSS sichtbar, nur mit geringerem Kontrast.

Und wie schlecht dieses übertriebene Sharpening ist zeigt sich gleich am Anfang bei dem Neonschild, bei dem DLSS deutlich mehr Details zeigt, weil im nativen Bild das Sharpening jede Menge Details zerstört hat.

Wenn an unbedingt darauf steht kann man immer noch das DLSS Bild Scharfzeichnen, wobei das vermutlich sogar deutlich besser ist, weil der Nvidia Scharfzeichner deutlich besser ist als jener den Cyberpunk selbst verwendet.

Gast
2020-12-18, 11:08:45
Control hat das Ghosting glaube perfekt under Control da können die Polen was lernen ;)
Dafür hat Control die Schärfungsartefakte nicht under Control ;) .

Dampf
2020-12-18, 14:48:21
Könnte bald ein Ultra-Quality Preset kommen: https://forum.beyond3d.com/threads/nvidia-dlss-antialiasing-discussion-spawn.60896/page-76#post-2184114

Ich frag mich, ob das DLSS 2X ist?

ChaosTM
2020-12-18, 14:51:08
Danke für die Erinnerung, dass Reshade ein CAS Feature hat. In 1440p blurrt selbst DLSS Quality viele Texturen relativ stark, speziell Bodentexturen. Mit CAS sollten die zurückkommen, mal ausprobieren.


Das wäre witzig. Ein AMD Tool entblurrt DLSS..

BlacKi
2020-12-18, 15:11:49
warum?

ChaosTM
2020-12-18, 15:20:03
Weil das eigentlich NVs Aufgabe wäre dafür zu sorgen.

BlacKi
2020-12-18, 15:23:38
freestyle kennst du aber?

ChaosTM
2020-12-18, 15:26:59
Ja, Geforce Experience crap, aber warum blurrt DLSS dann, wenn man so tolle tools hat.

BlacKi
2020-12-18, 15:31:44
bei control wars den leuten nicht recht das alles vorgeschärft wurde. vermutlich ist es deshalb standard aus. ausserdem gibts noch reshade wenn man auf exp. kein bock hat. aber warum ist das witzig?

Geldmann3
2020-12-18, 15:37:21
Könnte bald ein Ultra-Quality Preset kommen: https://forum.beyond3d.com/threads/nvidia-dlss-antialiasing-discussion-spawn.60896/page-76#post-2184114

Ich frag mich, ob das DLSS 2X ist?

Eigentlich wäre es ja nur logisch, das normale TAA damit bald zu ersetzen. DLSS dann intern die Ausgabeauflösung zu geben. Denn DLSS kann mit den Samples sicher mehr anfangen als das klassische TAA. Klassisches TAA ist neben DLSS geradezu Performanceverschwendung. Besonders für QHD und Full HD würde das Sinn ergeben...

Troyan
2020-12-18, 15:41:03
bei control wars den leuten nicht recht das alles vorgeschärft wurde. vermutlich ist es deshalb standard aus. ausserdem gibts noch reshade wenn man auf exp. kein bock hat. aber warum ist das witzig?

Watch Dogs hat einen Schärferegler. Dann könnte jeder entscheiden, wie er spielen will.
Hoffentlich patchen die das in Cyberpunk noch ein.

aufkrawall
2020-12-18, 15:43:10
Eigentlich wäre es ja nur logisch, das normale TAA damit bald zu ersetzen.
Da solltest du nochmal drüber nachdenken. :rolleyes:
DLSS läuft nur auf RTX, ist proprietär und eine Blackbox. Eher gehört DLSS bald ersetzt...

BlacKi
2020-12-18, 15:48:54
du störst dich nur daran das geldmann statt direct ml dlss geschrieben hat, ob wohl er das vermutlich meinte? naja, ab und muss man seinem hate eben frönen oder?

Geldmann3
2020-12-18, 15:58:40
Ich meinte schon DLSS, hatte aber natürlich auch die Nachteile im Kopf, die damit zusammenhängen. Daher habe ich mich eher nur auf Nvidia GPUs bezogen.

Wobei ich mir natürlich auch wünschen würde, dass es hier bald einen Hardware-agnostischen Standard geben wird.

Selbst wenn AMD bald ein eigenes ,,DLSS" bringen sollte, das mit DLSS mithalten kann. (Es muss sich erstmal zeigen, ob das ohne Tensorcores überhaupt möglich ist.) Ist es für die Entwickler ein ,,Pain in the Ass" beides zu implementieren.

Und selbst wenn AMDs Variante ähnlich gut sein sollte, wird Nvidia noch jahrelang darauf beharren, dass ihr DLSS auch implementiert wird.
Nur dann gibt es Support und Geldspritzen.
Jope, ich denke Nvidia verhält sich ein bissl' marktfeindlich. Habe aber trotzdem eine Nvidia und eine AMD Karte. (Radeon VII und RTX 3090) Also bitte bezeichnet mich nicht als Fanboy AMDs.^^

aufkrawall
2020-12-18, 16:05:20
du störst dich nur daran das geldmann statt direct ml dlss geschrieben hat, ob wohl er das vermutlich meinte? naja, ab und muss man seinem hate eben frönen oder?
Ja, wirklich voll der Hate, wenn man gegen herstellerexklusive Blackbox-Features argumentiert. :freak:
Mal ganz abgesehen davon, dass dir nicht anmaßen solltest, für andere zu sprechen. Zumal nicht, wenn du dabei schon einen Post später auf die Klappe fliegst...

BlacKi
2020-12-18, 16:07:54
:biggrin:


Jope, ich denke Nvidia verhält sich ein bissl' marktfeindlich. Habe aber trotzdem eine Nvidia und eine AMD Karte. (Radeon VII und RTX 3090) Also bitte bezeichnet mich nicht als Fanboy AMDs.^^

marktfeindlich aha. wenn jemand unsummen an RND in ein projekt steckt das die performance/quali massiv steigert, dann finde ich es legitim, es zuerst mal zum eigenen vorteil zu nutzen. ohne diesen vorteil hätte es diesen fortschritt garnicht erst gegeben. das ist so ähnlich wie mit den patenten. das hat eben vor und nachteile. sich nur über die nachteile auszulassen, die es bei solchen systemen gibt, halte ich einfach für falsch.

bevor wieder einer meint, ich würde nv verteidigen, ich meinte damit, das ich proprietäre standards weder positiv noch negativ bewerte.

ChaosTM
2020-12-18, 16:16:41
Eine gewisse Verachtung lässt sich nicht leugnen, ja. Basierend auf den Handlungen der Vergangenheit ..

Gast
2020-12-18, 16:24:53
Ja, Geforce Experience crap,

Geht auch über den Treiber, mit Geforce Experience ist es allerdings deutlich praktischer.


aber warum blurrt DLSS dann, wenn man so tolle tools hat.

DLSS blurrt nicht, aber mittlerweile haben sich geschärfte Bilder so ins Hirn der Leute eingebrannt, dass alles was ungeschärft ist gleich als "geblurrt" bezeichnet wird.

Armaq
2020-12-18, 17:08:17
Einfach mal das Video in Ruhe schauen und vorher die Bias-Brille ablegen:

https://www.youtube.com/watch?v=zUVhfD3jpFE&feature=youtu.be

Insbesondere beeindruckend, dass man gegen nativ 4k vergleicht und viele Verbesserungen findet!

Geldmann3
2020-12-18, 17:17:47
Einfach mal das Video in Ruhe schauen und vorher die Bias-Brille ablegen:

https://www.youtube.com/watch?v=zUVhfD3jpFE&feature=youtu.be

Insbesondere beeindruckend, dass man gegen nativ 4k vergleicht und viele Verbesserungen findet!

Das Video wurde hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12539854#post12539854) bereits gepostet.

Armaq
2020-12-18, 17:34:23
Das Video wurde hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12539854#post12539854) bereits gepostet.
Ich bin so penetrant, einfach weil ich in dem Forum mal hängen blieb, weil ich ein absoluter Fan von Technologie bin und mir dieser Dauerbash und die zunehmende Feindseligkeit ggü. einem oder anderem Hersteller richtig auf die Eier geht.

BlacKi
2020-12-18, 19:19:56
Geht auch über den Treiber, mit Geforce Experience ist es allerdings deutlich praktischer.

hast recht, danke für die richtigstellung.


Eine gewisse Verachtung lässt sich nicht leugnen, ja. Basierend auf den Handlungen der Vergangenheit ..
das ist nicht zu überhören. aber ich tue mich schwer es so oberflächlich zu betrachten. ich will an der stelle keinen weiteren OT fanboi krieg entfachen, lediglich sagen, dass das viel zu oberflächlich betrachtet wird. ich sag euch, die gelder die in dlss von nv proprietär gehen, von denen profitieren am ende alle. am ende wird zwar immer amd gefeiert dafür, weil offener standard und quelloffen, aber dafür hat nv anfangs dafür die feder geführt, und viele entwicklungen werden von dritten aufgenommen.

das ist wie mit raytracing, jeder € den nv in die förderung gesteckt hat, treibt die entwicklung an, und am ende profitieren alle davon. schöner wäre es natürlich wenn alles von anfang an offen wäre. aber ich bin der meinung, wenn jemand ordentlich blecht für so eine entwicklung, dann darf er davon auch profitieren. am ende fließen die entwicklungen doch zusammen und wir profitieren alle davon.

wenn alles offen wäre, gäbe es nicht dieses interesse von nv an neuentwicklungen.

Geldmann3
2020-12-18, 20:11:04
hast recht, danke für die richtigstellung.



das ist nicht zu überhören. aber ich tue mich schwer es so oberflächlich zu betrachten. ich will an der stelle keinen weiteren OT fanboi krieg entfachen, lediglich sagen, dass das viel zu oberflächlich betrachtet wird. ich sag euch, die gelder die in dlss von nv proprietär gehen, von denen profitieren am ende alle. am ende wird zwar immer amd gefeiert dafür, weil offener standard und quelloffen, aber dafür hat nv anfangs dafür die feder geführt, und viele entwicklungen werden von dritten aufgenommen.

das ist wie mit raytracing, jeder € den nv in die förderung gesteckt hat, treibt die entwicklung an, und am ende profitieren alle davon. schöner wäre es natürlich wenn alles von anfang an offen wäre. aber ich bin der meinung, wenn jemand ordentlich blecht für so eine entwicklung, dann darf er davon auch profitieren. am ende fließen die entwicklungen doch zusammen und wir profitieren alle davon.

wenn alles offen wäre, gäbe es nicht dieses interesse von nv an neuentwicklungen.

Ich stimme Dir schon zu...

Doch aus Entwicklersicht ist es sicher frustrierend etwas zu implementieren, nur damit es auf den Karten eines einzigen Herstellers läuft. Nvidia nutzt seine Marktstellung mehr oder weniger verständlich eben aus. Wir hätten heute kein Raytracing und kein DLSS, wenn Nvidia hier nicht vorgeprescht wäre. Selbst, ob wir TAA hätten, ist fraglich. Nvidia hat solch eine starke Marktstellung, sie führen ein neues Feature ein, wie Raytracing, auch wenn es völlig irrational Leistungsfressend ist und alle müssen aufspringen. Sonst sind sie nicht mehr im Nvidia-Club. Natürlich machen viele es auch einfach aus Enthusiasmus. Wohlbemerkt ein Feature, was auf Konkurrenzhardware natürlich Scheiße läuft. Nur daher, dass Nvidia solch eine fast unantastbare Stellung im Markt hat, konnten sie so radikal innovieren. Doch das hat auch seine sehr dunklen Seiten. Nvidia setzt Standards, in denen sie selbst natürlich ungeschlagen sind und die anderen Marktteilnehmer werden abgehängt. Nehmen wir CUDA als Beispiel. AMD Karten sind für den Produktiveinsatz in vielen Bereichen nutzlos, da mittlerweile alles auf CUDA aufsetzt. AMD strengt sich sehr an, um den Sprung zu AMD so leicht wie möglich zu machen, doch ein Projekt von nativen CUDA und Nvidias über die Jahre etablierten Libraries wegzuholen ist immer ein gigantischer für viele nicht mehr leistbarer Mehraufwand. Es ist einfach nicht mehr fair und daher schlecht für den Markt. Natürlich hat Nvidia es irgendwo verdient. So wie Microsoft es irgendwo verdient hatte den Internet Explorer auf jedem Windows-Rechner vorzuinstallieren.

ChaosTM
2020-12-18, 20:41:52
@BlacKi

NV hat RT nicht erfunden. Das gibts seit 1963 lt. Wiki. ;)

Was NV permanent gemacht hat war schlicht und einfach die Ausnützung ihrer Marktmacht um Sachen in den Markt zu drücken und die Konkurrenz mit ihrem proprietären Zeugs hinaus zu drücken. Intel hat ähnlich agiert und jetzt gehts den Bach runter. Allerdings hat das auch andere Gründe.
NV ist aber nicht ganz so "dumm" und überheblich wie Intel nehme ich an...

Raff
2020-12-18, 23:16:12
Könnte bald ein Ultra-Quality Preset kommen: https://forum.beyond3d.com/threads/nvidia-dlss-antialiasing-discussion-spawn.60896/page-76#post-2184114

Ich frag mich, ob das DLSS 2X ist?

Das wäre fantastisch. Das könnte man gut in Kombination mit den Mehr-Speicher-Varianten von Ampere launchen (wenngleich die RTX 3090 es schon jetzt gut könnte).

MfG
Raff

Slipknot79
2020-12-19, 01:52:03
@BlacKi

NV hat RT nicht erfunden. Das gibts seit 1963 lt. Wiki. ;)




Eigentlich seit ca 300k Jahre nach dem Urknall. :redface:

-/\-CruNcher-/\-
2020-12-19, 04:45:18
Da solltest du nochmal drüber nachdenken. :rolleyes:
DLSS läuft nur auf RTX, ist proprietär und eine Blackbox. Eher gehört DLSS bald ersetzt...


Na ja es könnte den kompletten Scaler Nvidias ersetzen in der Theorie Hardwareseitig seit DSR arbeiten sie daran vieles davon findet sich in der Shield.
Nvidias bestreben ist es DLSS noch einfacher implementierbar zu machen dafür wirst du weitere standards implementieren Temporal in absoluter Perfektion und Spatial mit bestmöglichem Ergebnis gegen heutige (dümmere) Scaler.
Auch haben sie viele ihrer alten AA ideen im Zuge dessen verworfen zu mindestens erstmal freezed und oder weniger interne resourcen dorthin verteilt.
Mir kommt das ganze momentan noch wie 2nd Stage Hardware Prototyping vor mit großem angeschlossenen Fieldtest in the Wild.
Aber Prinzipiell auch nur ein Ableger, von dem an was sie da in ihrem Cluster basteln der Mittlerweile das Auffällige Zentrum von allen ihren Entscheidungen geworden ist.

basix
2020-12-19, 09:40:59
Geht auch über den Treiber, mit Geforce Experience ist es allerdings deutlich praktischer.



DLSS blurrt nicht, aber mittlerweile haben sich geschärfte Bilder so ins Hirn der Leute eingebrannt, dass alles was ungeschärft ist gleich als "geblurrt" bezeichnet wird.

DLSS Schärferegler im Treiber? Ok, mal schauen und mit CAS vergleichen.

Und natürlich blurrt DLSS in Cyberpunk. In 4K ist das evtl. stark abgeschwächt (die meisten Tester verwenden 4K) aber in 1440p sieht man es sehr gut. Wenn Details der Bodentexturen verschwinden und das Bild auch sonst an Schärfe verliert (alles gegenüber nativ) ist das für mich Blur. Und Cyberpunk hat jetzt nicht eine übermässige Schärfe, ist auch nativ aufgrund all des Postpocessings etwas blurry. Wie gesagt, alles in 1440p. Diese Unschärfeprobleme aufgrund Postprocessing (auch TAA gehört dazu) verringern sich ja mit zunehmernder Auflösung meistens deutlich. Das ist auch der Grund, wieso die 720p auf PS4/XBOne so extrem blurry sind ;) DLSS kann sogar ein weg sein, um die Unschärfe wegzubekommen (siehe Control) aber bei CyberPunk klappt das leider nicht. CAS obendrauf und mal schauen was passiert, hab momentan aber noch ein Problem mit Reshade. Ich kann dann ja mal ein paar Screenshots posten.

-/\-CruNcher-/\-
2020-12-19, 10:14:28
Na ja bin kein Fan von on top Sharpening da gibt es einfach zu viele Faktoren die eine Rolle Spielen im Physical Fine Tuning vom Input bis zum Output, einfach Sharpening Filter über den gesamten Frame drüber knallen sieht vielleicht in manchen Screenshots toll aus hat aber mit der immer komplexer werdenden Material Render Realität wenig zu tun und temporal noch weniger aber ich glaube es gibt zumindest auch einen temporalen CAS Ansatz in Cyberpunk, wenn ich richtig gesehen hab der ist ziemlich interessant wusste nicht das Timothy Lottes auch daran arbeitet, logisch ist es.
Allerdings erwarte ich auch das Nvidia da schon sehr bald was neues präsentiert.
Microsoft arbeitet ja gerade an sehr crazy ideas für die Xbox die runter zu den TMUs gehen und den Input/Output direkt betreffen.
Ehrlichgesagt ein general update wäre da auch mal wünschenswert wenn auch noch ziemlich unwahrscheinlich ML als Zwischenschritt ist allerdings sehr viel einfacher momentan ohne die Hardware neu zu erfinden und alle Workflows aus den fugen zu brechen.

Raff
2020-12-19, 10:57:24
Microsoft arbeitet ja gerade an sehr crazy ideas für die Xbox die runter zu den TMUs gehen und den Input/Output direkt betreffen.

Hast du dazu etwas Lesbares, evtl. eine Präsentation? :)

MfG
Raff

basix
2020-12-19, 11:06:21
Bezüglich DLSS und CAS kam mir gerade noch ein Gedanke: DLSS schärft ja selbst noch etwas nach (je nach Einstellung). Was ist das für ein Schärfefilter? Ist das auch CAS oder was anderes?

Raff
2020-12-19, 11:11:45
Gewiss kein CAS (das stammt von AMD (https://gpuopen.com/fidelityfx-cas/)), sondern Code von Nvidia - der gleiche Kram, der auch für das treibereigene Sharpening verwendet wird.

MfG
Raff

-/\-CruNcher-/\-
2020-12-19, 11:15:02
Du bist der Cyber Journalist also mach dich auf die Suche ;)

Raff
2020-12-19, 11:18:46
Der Cyber-Journalist freut sich, wenn er zur Abwechslung mal nicht alles selbst aufwendig ermitteln muss, sondern einfach mal etwas lesen kann. Spart Überstunden. :D

MfG
Raff

-/\-CruNcher-/\-
2020-12-19, 11:30:25
Hint
bcpack vs kraken

wenn du sehr tief gehst findest du auch die Experimente mit bcpack/xbtc die da gerade bei Microsoft stattfinden auf Texel ebene

Gast
2020-12-19, 16:31:20
DLSS Schärferegler im Treiber? Ok, mal schauen und mit CAS vergleichen.


Kein DLSS Schärferegler, sondern ein ganz allgemeiner Scharfzeichner, unabhängig von DLSS.


Und natürlich blurrt DLSS in Cyberpunk. In 4K ist das evtl. stark abgeschwächt (die meisten Tester verwenden 4K) aber in 1440p sieht man es sehr gut. Wenn Details der Bodentexturen verschwinden und das Bild auch sonst an Schärfe verliert (alles gegenüber nativ) ist das für mich Blur.


Das ist nicht Blur, sondern Scharfzeichnen wenn DLSS nicht aktiv ist.
Wolfenstein verwendet den gleichen Grad an Scharfzeichnung mit DLSS und ohne (lässt sich auch im Spiel anpassen) und hier ist DLSS bedeutend schärfer als TAA in nativer Auflösung.

Cyberpunk verwendet offensichtlich einen extrem übertriebenen Scharfzeichner so lange DLSS nicht aktiv ist, und vermutlich keinen wenn DLSS aktiv ist.


Und Cyberpunk hat jetzt nicht eine übermässige Schärfe, ist auch nativ aufgrund all des Postpocessings etwas blurry.


Das ganze blurry Postprocessing lässt sich allerdings abdrehen, der Scharfzeichner nicht.

Und der Scharfzeichner ist total übertrieben, schön hier zu sehen:
https://youtu.be/zUVhfD3jpFE?t=146

Hier hat der Scharfzeichner eindeutig jede Menge Details des Neonschildes zerstört und links die Balkone zeigen extreme Halos.

Um es mal mit in der Sprache des guten alten Unscharf maskieren Filters der EBV zu beschreiben.
Unscharf maskieren mit hohem Schärfungsgrad und niedrigem Radius betont feine Strukturen ist aber nicht so zerstörerisch.

Was Cyberpunk hier verwendet ist eher sowas wie eine mittlere Scharfzeichnung mit sehr hohem Radius.

Dass lässt Objekte zwar mehr "hervorstechen", zerstört aber kleine Details und führt zu Halos.

Achill
2020-12-19, 17:23:50
Einfach mal das Video in Ruhe schauen und vorher die Bias-Brille ablegen:

https://www.youtube.com/watch?v=zUVhfD3jpFE&feature=youtu.be

Insbesondere beeindruckend, dass man gegen nativ 4k vergleicht und viele Verbesserungen findet!

Ich finde das Video auch sehr Informativ, eben weil es die Stärken und sehr wohl auch Schwächen von DLSS hervorhebt, insb. wenn es eben nicht DLSS Quality sondern ein niedrigeres Setting ist. Besonders auch Dinge in Bewegung sind nochmal eine ganz andere Sache für ein besseres Verständnis als die Standbilder, die hier immer im Forum gepostet werden, diese sind imho für ein Rekonstruktion-Algorithmus wohl einer der Best-Cases da die Akkumulation von Information über Frames hinweg so am besten funktionieren sollte.

Ansonsten wird in dem Video m.E. niemals das PR-Wort "nativ" verwendet sondern sogar regelmäßig auf das Unzureichende TAA hingewiesen und das es keine Option gibt daran Veränderungen vornehmen zu können.

Interessant ist auch folgende Stelle: https://youtu.be/zUVhfD3jpFE?t=1160

Gouvernator
2020-12-19, 21:37:31
DLSS Ultra Perf. skaliert übrigens auch genau so gut nach unten wie nach oben. Gerade bei COD Free Weekend ausprobiert. Man bekommt damit 60 FPS in 8K und 120FPS mit 4K.

dargo
2020-12-19, 22:24:37
Interessant ist auch folgende Stelle: https://youtu.be/zUVhfD3jpFE?t=1160
Die Stelle ist super, völlig verpasst. ;D

Tobalt
2020-12-19, 22:34:22
Schönes Video.

Mich wundert ehrlich gesagt, dass DLSS oftmals bei flachen Flächen mit den Texturen so versagt, selbst ohne starke Bewegung. Hier sollte es mit Motionvektoren ja eigentlich trivial sein, sehr dichte und korrekte Sampleinformationen zu bekommen.

Scheinbar enthält DLSS immernoch einen ziemlich aggresiven Blur Filter, der unterhalb eines gewissen Kontrastniveaus Details rauswischt. Das hilft sicher gegen Flickering an Stellen, die nicht so easy rekonstruiert werden können, wie eine Straßentextur.

ps: Das NV PR Bashing ist natürlich absolut gerechtfertigt. Ich frage mich ob bei den zahlreichen Entgleisungen von nV da immer die selben Leute die Strippen ziehen, oder ob die jedesmal versetzt/entlassen werden ;)

Dampf
2020-12-20, 11:24:56
Interessant:

https://wccftech.com/heres-how-to-improve-cyberpunk-2077-texture-sharpness-when-using-nvidia-dlss/

Hat CDPR wohl vergessen das einzustellen. So kriegt man auch ein gutes Bild ohne Sharpening.

ChaosTM
2020-12-20, 11:31:19
Man kann zu Not auch CAS zum nach schärfen verwenden. Funkt lt. einem Bekannten recht gut.

Raff
2020-12-20, 11:42:02
Interessant:

https://wccftech.com/heres-how-to-improve-cyberpunk-2077-texture-sharpness-when-using-nvidia-dlss/

Hat CDPR wohl vergessen das einzustellen. So kriegt man auch ein gutes Bild ohne Sharpening.

Und das führt nicht zu heftigerem Aliasing? Kann ich mir kaum vorstellen, auch wenn das in der Nvidia-Guideline steht. Pixel-Texel-Konflikt und so, trotz spatiotemporaler Verrechnung. Aber möglicherweise findet da ohne LOD-Adjustierung wirklich ein Oversampling statt - so, wie es auch bei SGSSAA passiert, wenn man das Texture-LOD bei 0.0 lässt.

Cyberpunk 2077 hat einige hochfrequente Inhalte. Schaltet man die Filmkörnung ab, wird es wesentlich ruhiger, da das On-top-Flimmern eliminiert wird. Schaltet man DLSS dazu, bringt das ebenfalls eine starke Filterung (man könnte es auch "Blurriness" nennen). Texture-LOD-Tweaks sind bei dieser Ausgangslage immer gefährlich. Eventuell kann man aber noch etwas gegensteuern, wenn man im Treiber auf HQ-AF geht und 16:1 forciert.

Man kann zu Not auch CAS zum nach schärfen verwenden. Funkt lt. einem Bekannten recht gut.

Leider kann man CAS nicht einschalten, wenn DLSS aktiviert ist, die töten sich gegenseitig. Daher hilft bei DLSS derzeit nur treiberseitiges Sharpening (und zwar deutlich).

MfG
Raff

watugonad00?
2020-12-20, 13:36:17
Daher hilft bei DLSS derzeit nur treiberseitiges Sharpening (und zwar deutlich).

oder mittels reshade :D

welches "verfahren" wird eigtl. bei nvidias treiber sharpen eingesetzt? sry 4 offtopic.

Raff
2020-12-20, 13:46:32
Reshade verursacht einen Overhead durch das "Hooking" des Spielprozesses, frisst also CPU-Ressourcen (die man bei Cyberpunk gebrauchen kann). Insofern würde ich davon abraten - es sei denn, das wurde mit den zahlreichen Reshade-Updates in den vergangenen Monaten gefixt. Das Treiber-Sharpening kostet einfach nur ein paar Prozentchen Rechenzeit.

Welchen Sharpening-Algo der Nvidia-Treiber nutzt, kann dir sicher pixeljetstream verraten. Ich kann dir nur versichern, dass es kein FidelityFX CAS ist. :D

MfG
Raff

pixeljetstream
2020-12-20, 14:16:49
Reshade verursacht einen Overhead durch das "Hooking" des Spielprozesses, frisst also CPU-Ressourcen (die man bei Cyberpunk gebrauchen kann). Insofern würde ich davon abraten - es sei denn, das wurde mit den zahlreichen Reshade-Updates in den vergangenen Monaten gefixt. Das Treiber-Sharpening kostet einfach nur ein paar Prozentchen Rechenzeit.

Welchen Sharpening-Algo der Nvidia-Treiber nutzt, kann dir sicher pixeljetstream verraten. Ich kann dir nur versichern, dass es kein FidelityFX CAS ist. :D

MfG
Raff
Kann nichts verraten was nicht schon öffentlich dokumentiert wurde.

Seth
2020-12-20, 14:24:35
Hat Static FidelityFX CAS auf 100% eigentlich eine Funktion in Cyberpunk? Fällt mir beim Umschalten nicht auf. Muss vielleicht Mal Screenshots machen.

Troyan
2020-12-20, 14:28:47
100% bedeutet native Auflösung.

Geldmann3
2020-12-20, 14:36:40
Reshade verursacht einen Overhead durch das "Hooking" des Spielprozesses, frisst also CPU-Ressourcen (die man bei Cyberpunk gebrauchen kann). Insofern würde ich davon abraten - es sei denn, das wurde mit den zahlreichen Reshade-Updates in den vergangenen Monaten gefixt. Das Treiber-Sharpening kostet einfach nur ein paar Prozentchen Rechenzeit.

Welchen Sharpening-Algo der Nvidia-Treiber nutzt, kann dir sicher pixeljetstream verraten. Ich kann dir nur versichern, dass es kein FidelityFX CAS ist. :D

MfG
Raff

Macht das auch dann noch etwas aus, wenn man z.b. 16 Kerne hat? Ich hatte bisher immer den Eindruck, dass CAS über Rashade auch mehr die GPU belastet als das aus dem Treiber, doch habe nie nachgemessen.

Seth
2020-12-20, 14:47:04
100% bedeutet native Auflösung.

Ach was ;-)
Wollte wissen ob trotzdem was geschärft wird.

aufkrawall
2020-12-20, 15:04:35
Interessant:

https://wccftech.com/heres-how-to-improve-cyberpunk-2077-texture-sharpness-when-using-nvidia-dlss/

Hat CDPR wohl vergessen das einzustellen. So kriegt man auch ein gutes Bild ohne Sharpening.
Hm, neulich meintest du noch, du stellst das lieber aus wegen Moire-Artefakten etc. :confused:
Ich hatte das aber auch schon mit UE4 TAA getestet, das kostet in Vanishing of Ethan Carter mit der Vegetation abartig Leistung...

Dampf
2020-12-20, 15:16:13
Hm, neulich meintest du noch, du stellst das lieber aus wegen Moire-Artefakten etc. :confused:
Ich hatte das aber auch schon mit UE4 TAA getestet, das kostet in Vanishing of Ethan Carter mit der Vegetation abartig Leistung...

Ja bei Watch Dogs.

Bei CP2077 treten sie deutlich weniger auf.

aufkrawall
2020-12-20, 15:32:04
Texturfilterung auf HQ? Mit Q ist das negative LOD-Bias schlechter. Mit Vulkan übrigens mit HQ auch nur auf Q-Niveau.
Bei AMD sieht es standardmäßig in allen APIs gut aus und funktioniert auch mit Virtual Texturing ohne Grafikfehler, was bei Nvidia offenbar nicht der Fall ist. ;)

watugonad00?
2020-12-20, 15:45:47
Reshade verursacht einen Overhead durch das "Hooking" des Spielprozesses, frisst also CPU-Ressourcen (die man bei Cyberpunk gebrauchen kann).. Das Treiber-Sharpening kostet einfach nur ein paar Prozentchen Rechenzeit.

hier "kostet" reshade lumasharpen 0,034ms auf die frametime:

https://abload.de/img/msxnk2d.png

müsste man mal evaluieren, was treiberseitig zu buche steht.

allgemein hat(te) nvidia image sharpening einschränkungen wie z.B. "Sharpening will not work with HDR displays" (https://www.techarp.com/games/nvidia-image-sharpening-guide/) (Stand 26. Nov. 2019), zwischenzeitlich gefixt? kann es nicht prüfen.

Darkman.X
2020-12-20, 16:19:16
Laut PDF (https://us.download.nvidia.com/Windows/460.89/460.89-win10-win8-win7-release-notes.pdf) vom Treiber 460.89 (15.12.2020) ist es immer noch so:

Image Sharpening Feature

NVIDIA Control Panel Image sharpening controls, including GPU upscaling, are introduced in the R440 driver. Currently, the following limitations apply.
• Scaling is not supported on MSHybrid systems.
• HDR displays driven by pre-Turing GPUs will not support scaling
• Scaling will not work with VR
• Scaling will not work with displays using YUV420 format.
• Scaling uses aspect ratio scaling and will not use integer scaling
• Sharpening will not work with HDR displays
• GPU scaling engages when games are played only in full-screen mode, and not in windowed or borderless windowed mode.
• Some G-SYNC displays have a 6-tap/64-phase scaler which scales better than that offered by Turing's 5-tap/32-phase scaler.
• To avoid accidentally triggering scaling by applications or DWM, first change to the desired (< native) resolution from the NVIDIA Control Panel and then launch the application.
• Turing's 5-tap upscaler may not engage on certain monitors depending on the monitor's vblank timing.
• Turing's 5-tap upscaler may not engage if the input resolution is greater than 2560px in either the x or y dimension.
• Scaling is turned off automatically when switching display devices.
• "Restore Defaults" option in the control panel currently does not revert the upscaling resolution.


EDIT:
Ich wurde von einem User des Forums teilweise korrigiert. Der Sharpening-HDR-Bug betrifft "nur" Pre-Turing GPUs!

basix
2020-12-20, 16:57:48
So ich habe mal Screenshots von einer Bodentextur und Jackie aus ein bisschen Distanz aufgenommen. Jeweils nativ 1440p und DLSS Quality. Die Bodentextur zeigt deutlich weniger Details und das Gesicht von Jackie wird unschärfer dargestellt.
https://abload.de/image.php?img=bodentextur_dlss_qualgojfe.jpg
https://abload.de/image.php?img=bodentextur_nativ_144g4jsh.jpg
https://abload.de/image.php?img=jackie_dlss_quality_1vaklw.jpg
https://abload.de/image.php?img=jackie_nativ_1440poqk05.jpg

Mit dem Treiber Schärfefilter bekommt man das grösstenteils weg (Schärfung auf 0.66). Aber nicht ganz. Screenshots kann ich davon leider keine zeigen, die werden ohne die Treiberschärfung aufgenommen.

aufkrawall
2020-12-20, 17:01:26
Treiber Schärfefilter (Schärfung auf 0.66)
Das gibt mit dem Nvidia-Sharpen allerdings schon deutliches Ringing. Bin mittlerweile zu dem Schluss gekommen, dass AMDs CAS deutlich besser ist, auch wenn es etwas Probleme mit Grain hat (also etwa auch dem Rauschen der Schrott-SSRs aus Cyberpunk).

Edit:
Reshade verursacht einen Overhead durch das "Hooking" des Spielprozesses, frisst also CPU-Ressourcen (die man bei Cyberpunk gebrauchen kann).
Kostet hier genau gar nichts im CPU-Limit bei maximaler CPU-Last, inkls. CAS-Shader...
https://abload.de/thumb/sottr_2020_12_20_17_0w0jvx.png (https://abload.de/image.php?img=sottr_2020_12_20_17_0w0jvx.png) https://abload.de/thumb/sottr_2020_12_20_17_0epkev.png (https://abload.de/image.php?img=sottr_2020_12_20_17_0epkev.png)

basix
2020-12-20, 17:16:43
Gewiss kein CAS (das stammt von AMD (https://gpuopen.com/fidelityfx-cas/)), sondern Code von Nvidia - der gleiche Kram, der auch für das treibereigene Sharpening verwendet wird.

MfG
Raff

Fidelity FX CAS ist von AMD. CAS an sich (Adaptive Sharpening anhand des Kontrasts) ist vom Prinzip her eine Technologie. Deswegen fragte ich das. Gibt auch Papers dazu:
https://www.hindawi.com/journals/tswj/2013/105945/
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4182077/

Das gibt mit dem Nvidia-Sharpen allerdings schon deutliches Ringing. Bin mittlerweile zu dem Schluss gekommen, dass AMDs CAS deutlich besser ist, auch wenn es etwas Probleme mit Grain hat (also etwa auch dem Rauschen der Schrott-SSRs aus Cyberpunk).

Deswegen meine Frage, ob DLSS etwas wie CAS nutzt (siehe obige Antwort von Raff). Muss mal Reshade wieder zum laufen bringen, dann sollte CAS klappen ;)

Edit:
Ich konnte Reshade zum laufen bringen (Konflikt mit RivaTuner...). CAS und der Nvidia Treiberfilter nehmen sich auf den ersten Blick nicht viel, zumindest in dieser Szene. Man kommt knapp an nativ Schärfe und Texturdetails ran, aber nicht ganz. Mit Reshade kann man ingame das Kontrast und Schärfe Setting einstellen, das ist deutlich angenehmer als das Spiel jedes mal neu zu starten.

Edit2:
Ich habe noch ein paar Tests mit den verschiedenen DLSS Stufen gemacht. Ich bin mal wieder beeindruckt, was DLSS aus einem 720p Image auf 1440p macht (720p nativ ist ohne DLSS grauenhaft). Nicht alles ist perfekt, feine Details beginnen zu flickern und auch einige Textur- und Beleuchtungsdetails verschwinden. Quality ist hier zudem wirklich das beste aus beiden Welten (Qualität + Framerate). In 4K könnte auch DLSS Performance sehr gut sein, da höhere Grundauflösung als DLSS Quality in 1440o.

Darkman.X
2020-12-21, 00:51:38
@watugonad00?

Ich wurde von einem User des Forums darauf hingewiesen, dass der Sharpening-HDR-Bug "nur" die Pre-Turing GPUs betreffen soll.

Gast
2020-12-21, 11:09:36
Mit Reshade kann man ingame das Kontrast und Schärfe Setting einstellen, das ist deutlich angenehmer als das Spiel jedes mal neu zu starten.


Mit Nvidia auch, wenn man sich nicht aus irgendwelchen verschwörungstheoretischen Gründen unbedingt GFE vom Leib halten will.

watugonad00?
2020-12-21, 17:25:05
Mit Nvidia auch, wenn man sich nicht aus irgendwelchen verschwörungstheoretischen Gründen unbedingt GFE vom Leib halten will.

das hat nichts mit VT zu tun. daten bleiben nunmal daten.

login-zwang kann auch mal in die hose gehen, siehe quest 2.

für alle nicht freiwilligen datenspendern gibts ja BaiGfe (https://github.com/Moyster/BaiGfe#readme) oder reshade :up:

fun fact: der ganze nvideo bloatware-kram verwendet (teilweise) reshade-code (https://forums.guru3d.com/threads/how-to-bypass-nvidia-freestyle-to-working-on-all-games.419619/#post-5522569), gegen ca$h natürlich.

solange es reshade in seiner entwicklung nicht beeinträchtigt, isses mir wurst :redface:


Ich wurde von einem User des Forums darauf hingewiesen, dass der Sharpening-HDR-Bug "nur" die Pre-Turing GPUs betreffen soll.

aha, support also eingestellt worden für den alten kram. verursacht nur kosten. der mündige user kann das eigtl. auch gleich selbst hier reinschreiben.

bleiben nur noch triviale dinge übrig wie
"• Turing's 5-tap upscaler may not engage if the input resolution is greater than 2560px in either the x or y dimension."

i mean wtf? ;D


zurück zu dlss2.0; wieso funzt das nicht auf alten chips? gerade dort wäre es von vorteil.
wäre sicher möglich auf alten generationen, wenn man wöllte. just my 2 eurocents :P:redface:

-/\-CruNcher-/\-
2020-12-21, 17:37:51
Mit Nvidia auch, wenn man sich nicht aus irgendwelchen verschwörungstheoretischen Gründen unbedingt GFE vom Leib halten will.

Intern heist es glaube ich "Sugar" ;)
Mit Sugar fängt man Gamer ;)

Glaube Sugar ist aber der Codename nur für den Datensammel Client Part

https://www.forum-3dcenter.org/vbulletin/showthread.php?t=558960

Gast
2020-12-22, 09:30:41
solange es reshade in seiner entwicklung nicht beeinträchtigt, isses mir wurst :redface:



Es wird die Reshade-Entwicklung mit Sicherheit beeinflussen.
Allerdings wohl nicht gerade negativ, wenn Reshade mehr Geld von Nvidia bekommt.

watugonad00?
2020-12-22, 16:25:27
sich finanziell abhängig machen (gerade bei nvidia) kann sowohl vor- als auch nachteile mit sich bringen (stichwort: proprietääär und knebelverträge)

es gibt jetzt quasi 2 baustellen zu "betreuen".

desweiteren gibt es weitere faktoren die es zu beachten gilt: zeit, motivation, intention,... beurteilen kann das wohl keiner von uns :redface:

robbitop
2020-12-22, 17:38:26
Gab es bei NV nicht 2x Scharfzeichner? Den klassischen und den adaptiven, den man nachdem CAS rauskam und open source wurde, releast hat. Der adaptive sollte doch IIRC relativ ähnliche Ergebnisse erzielen.
Ich habe aber keine Ahnung, ob man beide Verfahren separat anwenden kann oder ob der neue einfach den alten ersetzt hat?

Gast
2020-12-22, 18:38:00
sich finanziell abhängig machen (gerade bei nvidia) kann sowohl vor- als auch nachteile mit sich bringen (stichwort: proprietääär und knebelverträge)

Und wer zwingt sie dazu? Wenn man bisher überleben konnte kann man ja gerne NV die entstandene Technik verkaufen, das zwingt einen ja nicht zu irgendwelchen Exklusivverträgen.

Gast
2020-12-22, 18:38:50
Ich habe aber keine Ahnung, ob man beide Verfahren separat anwenden kann oder ob der neue einfach den alten ersetzt hat?

Der neue hat den alten ersetzt.

pixeljetstream
2020-12-22, 19:41:36
off topic:
zu reshade: der Hauptentwickler ist Vollzeitangestellter bei NVIDIA seit Jahren, das wird auch in dem von euch verlinkten thread erwaehnt. Wir arbeiten manchmal miteinander und sein Job hier hat auch meist nix mit reshade zu tun, so machte er zum Beispiel den RTX support fuer Blender Cycles (gibt davon ein blog von ihm). Er macht reshade in seiner Freizeit. Reshade ist komplett open-source, den code kann jeder nehmen und einbetten.

watugonad00?
2020-12-22, 20:32:15
direkt angestellt; noch abhängiger geht es kaum ;D

spaß beiseite, coole sache für ihn :up:

reshade gab es aber bestimmt schon vor seiner einstellung.. ;)

-/\-CruNcher-/\-
2020-12-23, 02:37:17
Interessant das Marty für Nvidia an den Filter für Fresstyle arbeitet war kein wirkliches Geheimnis und bekannt aber nicht das crosire Nvidianer ist :D

ok ich habs verpennt :D
https://reshade.me/forum/general-discussion/5898-is-this-for-real-crosire
https://code.blender.org/2019/07/accelerating-cycles-using-nvidia-rtx/

I already said congratz in video comment section, but I will say it again!!! Congratulations on this huge step, you guys deserved to be part of something bigger, and finally it became reality.

Ja so lange AMD Optix Perf nicht knackt und einiges an IP exchange drumherum (Redshift,Arnold) wird es düster bleiben aber wir sind mal guter dinge das das schon in sehr naher Zukunft passieren wird und damit fällt dann so gut wie die letzte Bastion ;)

direkt angestellt; noch abhängiger geht es kaum ;D

spaß beiseite, coole sache für ihn :up:

reshade gab es aber bestimmt schon vor seiner einstellung.. ;)

Das frag ich mich gerade selbst Henne oder Ei ;)
Aber ist ja nichts ungewöhnliches gute Ideen und deren Umsetzer werden schnell gecatched bevor die anderen die Chance haben siehe AMD Boost (nichts anderes als Dynamic Resolution die mal API direkt umgesetzt wurde und nun auf die Hardware sehr gezielt angepasst wird) man muss nur schnell genug sein und wissen was da draußen spezieller ist, das es da Scouts auf beiden Seiten gibt die sich das anschauen ist ja logisch, die Frage ist ja auch immer was passiert mit dieser Entwicklung im schlimmsten fall verschwindet sie und wird vollkommen vergessen und taucht dann irgendwo in einer PR Folie als das Super duper neue Feature auf das ja auch nur mit der super neusten Chip Generation funktioniert ;) "Soul sold out"

basix
2020-12-23, 10:45:30
Hm, bei genauerer Inspektion muss ich doch feststellen, dass die DLSS Implementation doch nicht so gut in Cyberpunk ist. Schon bei Quality leidet die Bildschärfe deutlich und bei Performance fehlen Details.

Das hat mich auch enorm gestört und ohne DLSS ist Cyberpunk mit RT nicht spielbar. Mit CAS via Reshade oder auch mit dem Treiber nachschärfen bringt da enorm was. Ich kann auch bei nativ und ohne RT empfehlen das Bild etwas nachzuschärfen. Texturdetails kommen so viel besser zur Geltung, was die Grafikqualität nochmals gut aufwertet. Die TAA und DLSS Unschärfe verschluckt viele dieser Details.

robbitop
2020-12-23, 19:07:54
Ist das CAS via Reshade deutlich besser als das neuere NV Schärfeverfahren? Letzteres soll ja auch content adaptiv sein. Dann braucht man nicht mit Reshade rumzufrickeln und die Performance wäre potenziell auch besser (Anmerkung: letzteres ist eine Annahme).

edit: in kursiver Schrift; Bezuganahme auf dieses Posting: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12547072&postcount=1109

aufkrawall
2020-12-23, 19:19:03
und die Performance wäre auch besser.
Ach, tatsächlich? Dann hast du wohl beides schon gebenchmarkt?

robbitop
2020-12-23, 20:42:01
Ist eine Annahme zugegeben. Sollte aber intuitiv klar sein. Es ist kein hook nötig der overhead erzeugt.

Ich habe Reshade vor ein paar Jahren gern genutzt - die Performance hat zumindest damals mehr gelitten. Ich habe immer einen fps counter an. Der NV Schärfefilter kostet im GPU Limit fast gar nichts.

Aber korrigiere mich gern.

aufkrawall
2020-12-23, 23:21:55
Die drei Minuten Testzeit darf sich auch derjenige nehmen, der Behauptungen in die Welt setzt (nicht ich). Ich hab schließlich schon Raffs Falschaussage bez. CPU-Limit korrigiert, aber trotzdem ist die Unkenntnis anderer nicht meine Baustelle und auch nicht mein Hobby...

Gethvel
2020-12-24, 01:08:54
Die TAA und DLSS Unschärfe verschluckt viele dieser Details.
DLSS macht das Bild eigentlich schärfer. :rolleyes:

aufkrawall
2020-12-24, 01:13:41
Bei den letzten Implementierungen in WD Legion oder CP eindeutig das Gegenteil.

Gethvel
2020-12-24, 01:29:27
Bei den letzten Implementierungen in WD Legion oder CP eindeutig das Gegenteil.

Kann ja sein, gibt immer Ausnahmen. :rolleyes:

ChaosTM
2020-12-24, 01:45:46
Die drei Minuten Testzeit darf sich auch derjenige nehmen, der Behauptungen in die Welt setzt (nicht ich). Ich hab schließlich schon Raffs Falschaussage bez. CPU-Limit korrigiert, aber trotzdem ist die Unkenntnis anderer nicht meine Baustelle und auch nicht mein Hobby...


Du beziehst deiner Energie aus der "Unwissenheit" der Leute hier, in dem du sie sehr eindringlich und herablassend darauf aufmerksam machst. ;)

aufkrawall
2020-12-24, 01:57:46
*OT-Spam, mea culpa*
Ist ja bald Weihnachten...

basix
2020-12-24, 02:55:17
DLSS macht das Bild eigentlich schärfer. :rolleyes:

In vielen Games schon. Hier aber definitiv nicht, zumindest nicht in 1440p ;) Und momentan ist CP das Game, welches DLSS am dringensten braucht, nichtmal Control ist so fordernd.

Bei CP gibt es zwei Probleme: Unschärfe an sich und das die Texturqualität-/details mit DLSS aufgrund der niedrigeren Auflösung zusätzlich abnehmen, was nochmal nach Unschärfe / Weichspüler aussieht. Und umso höher die DLSS Stufe, desto schlimmer. Mit DLSS Performance hat es teilweise fast keine feinen Texturdetails mehr (z.B. poröse Oberflächen von Wänden), sieht alles glatt und künstlicher aus. Mittels CAS und halt DLSS Quality kann man aber viel retten. CP arbeitet viel mit temporalen Effekten und "Auflösungs Aufaggregierung", auch ohne DLSS. Bei reduzierter Auflösung verstärken sich die negativen Effekte hier überproportional. Der DLSS interne Schärferegler und ein angepasstes Textur-LOD von Seiten CDPR würde die grössten Probleme beheben ;)

robbitop
2020-12-24, 13:23:53
Die drei Minuten Testzeit darf sich auch derjenige nehmen, der Behauptungen in die Welt setzt (nicht ich). Ich hab schließlich schon Raffs Falschaussage bez. CPU-Limit korrigiert, aber trotzdem ist die Unkenntnis anderer nicht meine Baustelle und auch nicht mein Hobby...
Grundsätzlich hast du aber natürlich Recht, dass ich das als Annahme kennzeichnen sollte - und habe ich soeben auch getan. Danke für den Hinweis - es sollte schon korrekt zugehen. :) Ich kann beides allerdings nur mit einer 1080 ti testen und nicht mit Cyberpunk (habe das Spiel nicht). Die Frage ist dann, wie groß die Aussagekraft noch ist.

Eine Anmerkung meinerseits:
Es wäre dennoch schön, wenn der "Ton" stimmen würde - du kommst subjektiv relativ unfreundlich rüber.
Dass du das jetzt testen sollst, hat niemand verlangt. Deine Posts haben aber auch leider keinen produktiven Mehrwert gebracht. Wenn du mich nicht korrigieren willst, sondern es nur anzweifelst - wo ist dann die Grundlage für deinen Zweifel? Auch das sollte klar gekennzeichnet und mit einem Mindestmaß an Freundlichkeit ausgeführt sein IMO.

Natürlich muss man konstatieren, dass meine Annahme auch kein wirkliches Fundament hat. Lange Rede kurzer Sinn: Ich sehe deutliches Verbesserungspotenzial auf unser beider Seiten. ;)
Die Tests liefere ich nach Weihnachten aber nach, sofern 1080ti + RDR2 im GPU Limit genehm ist.

Zerozerp
2020-12-25, 11:48:37
DLSS macht das Bild eigentlich schärfer. :rolleyes:
Die Schärfe einer Szene wird maßgeblich durch die Texturauflösung/UV- Mapping bestimmt.

In DLSS 2.x ist vorgesehen, dass die Texturen unbehandelt bleiben. Deshalb auch die Korrektur des MIP-BIAS.

Sind die Texturen/die Szenerie bei einem Titel mit DLSS schärfer oder weniger scharf, hat man sich entweder nicht an den Implementationsleitfaden gehalten, oder hat anderweitig ein Sharpening integriert.

robbitop
2020-12-25, 14:54:43
Bedeutet das, dass gem Leitfaden das Mip Bias dann etwas negativ verschoben wird?

Gethvel
2020-12-25, 18:03:46
Die Schärfe einer Szene wird maßgeblich durch die Texturauflösung/UV- Mapping bestimmt.

In DLSS 2.x ist vorgesehen, dass die Texturen unbehandelt bleiben. Deshalb auch die Korrektur des MIP-BIAS.

Sind die Texturen/die Szenerie bei einem Titel mit DLSS schärfer oder weniger scharf, hat man sich entweder nicht an den Implementationsleitfaden gehalten, oder hat anderweitig ein Sharpening integriert.

Ne das stimmt nicht. Der Deep Learning Algo macht das gesamte Bild schärfer. Das ist doch der Sinn dahinter. :rolleyes:

Gast
2020-12-25, 18:03:54
Bedeutet das, dass gem Leitfaden das Mip Bias dann etwas negativ verschoben wird?

Je nach Sichtweise.
Der Mip-BIAS bleibt auf 0.0 bezüglich der Zielauflösung.
Im Verhältnis zur reduzierten Renderauflösung bedeutet das natürlich einen negativen BIAS.

ChaosTM
2020-12-25, 18:26:14
Schärfen bringt nur dann etwas, wenn dabei keine Artefakte entstehen. Und das tun sie fast immer..
Wenn man weiß worauf man schauen muss, sticht das augenblicklich ins Auge.
Ringing, Doppelkonturen, Farbverschiebungen, Halos, Nachzieheffekte - you name it.

TheAntitheist
2020-12-25, 18:52:09
Bei den letzten Implementierungen in WD Legion oder CP eindeutig das Gegenteil.
bei gleicher Basisauflösung stimmt dies jedoch nicht. 1080p sieht schlechter aus als 1080p -> 4k dlss

das heißt es macht das Bild schärfer und fügt details hinzu.

robbitop
2020-12-25, 19:19:29
Je nach Sichtweise.
Der Mip-BIAS bleibt auf 0.0 bezüglich der Zielauflösung.
Im Verhältnis zur reduzierten Renderauflösung bedeutet das natürlich einen negativen BIAS.
Das ergibt Sinn! Danke für die Klarstellung!! :up:

Gouvernator
2020-12-27, 11:12:48
Ihr könnt jetzt mit dem Nachschärfungsquatsch aufhören. Ich hab die Lösung ---> nativ 8K.
Habe seit 2 Tagen CoD: Cold War MP in 4K/120 gezockt mit allen DLSS Modes. Und dann habe ich mir gedacht, probiere mal 8K/DLSS Ultra aus. Alle Unschärfe ist nun weg. Ok, die Unschärfe ist zwar noch da, sieht aber nun wie feinstes Supersampling aus. Sprich das Bild ist vollkommen Shader-Flimmern free. Und scharf.

Mit annähernd 60FPS/VRR läuft es noch sehr gut und deswegen konnte ich alle Maps noch ausgiebig testen. Alles sieht nur noch atemberaubend schön aus. Im Cyberpunk 2077 war es in etwa das Gleiche aber nur mit 30 FPS. Aber jetzt mit 60 in COD hat es mich vollkommen überzeugt.


PS.
Wenn ich das so aus dem Kopf bewerten wollte, dann sieht es in nativ 8K/DLSS Ultra/60FPS wie nativ 4K@8xSGSAA oder besser.

basix
2020-12-27, 13:14:47
Ihr könnt jetzt mit dem Nachschärfungsquatsch aufhören. Ich hab die Lösung ---> nativ 8K.
Habe seit 2 Tagen CoD: Cold War MP in 4K/120 gezockt mit allen DLSS Modes. Und dann habe ich mir gedacht, probiere mal 8K/DLSS Ultra aus. Alle Unschärfe ist nun weg. Ok, die Unschärfe ist zwar noch da, sieht aber nun wie feinstes Supersampling aus. Sprich das Bild ist vollkommen Shader-Flimmern free. Und scharf.

Nachschärfen ist super simpel und jeder kann es nach seinem Gusto einstellen, wo ist das Problem? Ich hätte aber definitiv lieber, dass die Games ootb im Normalfall etwas schärfer wären. Was nützen mir die schönsten Texturen, wenn das Postprocessing fast alles weichspült?

8K ist momentan nur für einen Bruchteil der Leute interessant. Entweder langt die GPU nicht und/oder es fehlt ein entsprechendes Ausgabegerät. Was soll z.B. ich da also mit 8K anfangen? Mir einen 8K Monitor kaufen, obwohl ich mit dem den ich habe noch zufrieden bin? Da optimiere ich lieber das, was ich habe ;) Da du es angepsrochen hast, habe ich jetzt trotzdem aus Interesse mal 5k mit DLSS Ultra Performance und DSR auf 1440p ausprobiert. Und das dann mit 1440p DLSS Quality verglichen, welches intern die selbe Renderauflösung verwendet (960p). Ergebnis: Schlechtere Performance, schlechtere Bildqualität, mehr Artefakte. Ultra Performance liefert nur mit 8K als Output wirklich zufriedenstellende Ergebnisse. Sonst ist es Grütze.

Edit:
Allgemein zu diesen DLSS Modi: Was denkt ihr, welche weiteren DLSS Modes wird es in Zukunft geben? Hier mal ein Beispiel (die Zahlen entsprechen der Reduktion der Auflösung in einer Achse)

Super Quality = 1.33x
Quality = 1.5x
Balanced = 1.72x
Performance = 2.0x
Super Performance = 2.5x
Ultra Performance = 3.0x
Adaptive = FPS Target + Minimale DLSS Auflösung (z.B. Performance)

Kombiniert mit einer weiteren Verbesserung von DLSS (weniger Artefakte, bessere temporale Stabilität, Super/Ultra Performance sind auch bei 1440p+ brauchbar, reduzierte Ausführungszeit von DLSS auf den Tensor Cores) ergäbe ein sehr schönes Update.

Gouvernator
2020-12-27, 14:49:08
Entweder langt die GPU nicht und/oder es fehlt ein entsprechendes Ausgabegerät
Ich sage einfach nur, das man schon jetzt in die Welt der CGI Qualität eintreten kann. Ob es einem wert ist für 4000€ "Pixelgrafik" von CoD zu verlassen ist eine Entscheidungsfrage. Ich habe es getestet und 8K-Ultra DLSS/HDR/VRR@60FPS funktioniert im neusten CoD und sieht bombastisch aus. Es dauert wohl noch seine Zeit bis man realisiert hat, das typische 4K Anzeige für DLSS zu unterdimensioniert ist.

Achill
2020-12-27, 18:14:58
[..]
Edit:
Allgemein zu diesen DLSS Modi: Was denkt ihr, welche weiteren DLSS Modes wird es in Zukunft geben? Hier mal ein Beispiel (die Zahlen entsprechen der Reduktion der Auflösung in einer Achse)

Super Quality = 1.33x
[..]

[..]


Mich würde als "Super Quality" bei DLSS eigentlich Faktor 1x interessieren bzw. vom Namen dies erwarten. Sprich kein Verlust bei einem einzelnen Frame im Vergleich zu nativen (z.B. MSAA) bzw. TAA Lösungen aber weiterhin die Stabilisierung und Anreicherung von Informationen durch die temp. Rekonstruktion mittels DLSS.

Klar würde man hier keine Perf. mehr gewinnen können sondern der Drop wäre wahrscheinlich sogar größer als bei TAA, mit den Modus gäbe es aber keine Reduktion von Details in einen einzelnen Frame mehr und damit wäre eins der Streit-Argumente gelöst.

Je nach pers. Pref. kann man ja dann weiterhin einen der anderen Modis wählen.


--
Btw & OT: Was mir halt bei der Diskussion wirklich aufn Sack geht, ist das (gefühlte, will nichts unterstellen) mit zweierlei Maß messen/diskutieren.

Wie oft hatten wir früher Fälle:
- wo bei AMD (und ggf. NV) das AF zwischen Standard und Quality einige Prozent (und teilweise auch mal etwas mehr) Performance gefressen/gebracht hätten ohne das die Bild-Qualität merklich unterschiedlich gewesen war (z.B. ME4).
- wo das Verstellen vom max. Tess.Level nicht merklich das Bild verändert hat, jedoch teilweise ordentlich Performance gebracht haben (ich sage nur Crysis, Fallout 4)
- und wie oft musste das erst durch die Community gepushed werden, damit die Fachpresse dies mit aufnimmt - und dann auch oft nur Selektiv/in Einzelfällen

.. obwohl es offizielle Treiber-Feature sind/waren wie auch hier jetzt DLSS.

Geldmann3
2020-12-27, 18:24:29
Mich würde als "Super Quality" bei DLSS eigentlich Faktor 1x interessieren bzw. vom Namen dies erwarten. Sprich kein Verlust bei einem einzelnen Frame im Vergleich zu nativen (z.B. MSAA) bzw. TAA Lösungen aber weiterhin die Stabilisierung und Anreicherung von Informationen durch die temp. Rekonstruktion mittels DLSS.

Klar würde man hier keine Perf. mehr gewinnen können sondern der Drop wäre wahrscheinlich sogar größer als bei TAA, mit den Modus gäbe es aber keine Reduktion von Details in einen einzelnen Frame mehr und damit wäre eins der Streit-Argumente gelöst.

Da stimme ich Dir voll zu. Warum sollte man Performance mit TAA verschenken, wenn man DLSS haben kann...

aufkrawall
2020-12-27, 18:25:31
TAA ist in zig Spielen fast gratis.

Geldmann3
2020-12-27, 18:54:10
TAA ist in zig Spielen fast gratis.

Wirklich? Gegen No AA? Hast Du Benchmarks dazu?

aufkrawall
2020-12-27, 19:00:18
Häufig deutlich billiger als etwa 2xMSAA bei Forward-Rendering. DLSS ist afair bezogen auf die gleiche Render-Auflösung ein gutes Stück teurer als herkömmliches TAA, trotz der TCs.

Geldmann3
2020-12-27, 19:31:52
Häufig deutlich billiger als etwa 2xMSAA bei Forward-Rendering. DLSS ist afair bezogen auf die gleiche Render-Auflösung ein gutes Stück teurer als herkömmliches TAA, trotz der TCs.

Wobei TAA in den meisten Fällen auch 2 Ecken besser aussieht als 2xMSAA doch 2x MSAA ist auch alles andere als gratis. Höchstens gegen SSAA ist (war) MSAA günstig.

aufkrawall
2020-12-27, 19:53:24
Ui, hier kostet TAA ganze 3-5% Performance:

https://abload.de/thumb/690640_20201227193332cnkrn.png (https://abload.de/image.php?img=690640_20201227193332cnkrn.png) https://abload.de/thumb/690640_202012271933460zj2v.png (https://abload.de/image.php?img=690640_202012271933460zj2v.png)

Diese Vernichtung der Leistung, es ist fast nicht mehr spielbar! :eek:
Postfaktische Zeiten @3DCenter...

Asaraki
2020-12-27, 20:00:12
Mich würde als "Super Quality" bei DLSS eigentlich Faktor 1x interessieren bzw. vom Namen dies erwarten. Sprich kein Verlust bei einem einzelnen Frame im Vergleich zu nativen (z.B. MSAA) bzw. TAA Lösungen aber weiterhin die Stabilisierung und Anreicherung von Informationen durch die temp. Rekonstruktion mittels DLSS.

Klar würde man hier keine Perf. mehr gewinnen können sondern der Drop wäre wahrscheinlich sogar größer als bei TAA, mit den Modus gäbe es aber keine Reduktion von Details in einen einzelnen Frame mehr und damit wäre eins der Streit-Argumente gelöst.

Je nach pers. Pref. kann man ja dann weiterhin einen der anderen Modis wählen.


Den Modus kriegen wir erst, wenn DLSS immer besser aussieht und (fast) nie Murks baut. Wird also noch dauern, vielleeeeicht mit 3.0? Aber da mach ich mir vorerst noch keine Hoffnungen. Again - wenn's so einfach wäre, dann wär's längst da. So können sie zumindest in Ruhe in der Blackbox werkeln und die Enthusiasten haben was zu spekulieren :)

P.S: Und *hust* erst wenn wir den Performance-Boost nicht mehr so dringend brauchen *hust hust*

Geldmann3
2020-12-27, 20:20:42
Ui, hier kostet TAA ganze 3-5% Performance:

https://abload.de/thumb/690640_20201227193332cnkrn.png (https://abload.de/image.php?img=690640_20201227193332cnkrn.png) https://abload.de/thumb/690640_202012271933460zj2v.png (https://abload.de/image.php?img=690640_202012271933460zj2v.png)

Diese Vernichtung der Leistung, es ist fast nicht mehr spielbar! :eek:
Postfaktische Zeiten @3DCenter...

Das ist ja wirklich nicht viel.

Den Modus kriegen wir erst, wenn DLSS immer besser aussieht und (fast) nie Murks baut. Wird also noch dauern, vielleeeeicht mit 3.0? Aber da mach ich mir vorerst noch keine Hoffnungen. Again - wenn's so einfach wäre, dann wär's längst da. So können sie zumindest in Ruhe in der Blackbox werkeln und die Enthusiasten haben was zu spekulieren

P.S: Und *hust* erst wenn wir den Performance-Boost nicht mehr so dringend brauchen *hust hust*
Das einzige, was mir persönlich wirklich noch fehlt, ist ein DLSS Modus mit nativer, interner Renderauflösung. Doch auch ein dynamischer DLSS-Modus, das eine Zielframerate anstrebt wäre schön oder einfach ein interner Auflösungsslider, sodass ich selbst 50% - 200% interne Renderauflösung einstellen kann. Denn warum nicht... Das wäre für mich gefühlt ,,ehrliches DLSS". Bin mir sicher, das wäre technisch möglich, wie die Config-Files von Control es demonstriert haben.

robbitop
2020-12-27, 20:24:24
Man kann auch DLSS mit DSR kombinieren. Dann erhält man sicherlich auch gesteigerte Grafikqualität.
ZB 1080p@4K mit DSR auf 1080p downgesampelt oder 1440p@5K auf 1440p downgesampelt.

Geldmann3
2020-12-27, 20:26:35
Man kann auch DLSS mit DSR kombinieren. Dann erhält man sicherlich auch gesteigerte Grafikqualität.
ZB 1080p@4K mit DSR auf 1080p downgesampelt oder 1440p@5K auf 1440p downgesampelt.

Genau das war auch mein Gedanke dahinter, weshalb ich eigentlich kein DLSS brauche, welches intern eine höhere Renderauflösung als die native verwendet. Nvidia soll lieber mal DSR ordentlich pflegen. Es mir ermöglichen unterschiedliche Downsampling-Filter und präzise, interne Auflösungen einzustellen, wie es damals mal mit GeDoSaTo möglich war. Und endlich eine Option dafür einführen mit der man festlegen kann von welcher, nach welcher Auflösung gedownsampled wird. Doch auch AMD könnte hier mit VSR mal nachlegen. Hier ist beispielsweise kein internes 8k möglich und auf meinem 32:9 Monitor ist VSR gar völlig deaktiviert. Manchmal frage ich mich wie Features so lieblos implementiert sein können...

robbitop
2020-12-27, 20:29:47
Wird IMO nicht passieren. DSR gibt es schon so lange und es wird immernoch der müllige bilineare Filter (gerade Faktoren) verwendet (und bei ungeraden Faktoren word per gauss geblurt und point sampling! betrieben).

aufkrawall
2020-12-27, 21:03:37
Ich frage mich gerade, ob nicht viel von dem, was der DL-Magie zugeschrieben wird, nicht eigentlich durchs negative LOD Bias kommt. :freak:
Mit dem Hitman 2 TAA kann man ziemlich problemlos -1.5 ohne großartiges Geflimmer fahren und der Detailgewinn ist schon teilweise sehr massiv:
https://abload.de/thumb/863550_202012272051258aj3r.png (https://abload.de/image.php?img=863550_202012272051258aj3r.png) https://abload.de/thumb/863550_20201227204947qgkyx.png (https://abload.de/image.php?img=863550_20201227204947qgkyx.png)

https://abload.de/thumb/863550_202012272024250vkw6.png (https://abload.de/image.php?img=863550_202012272024250vkw6.png) https://abload.de/thumb/863550_20201227202126rwku2.png (https://abload.de/image.php?img=863550_20201227202126rwku2.png)

Man beachte die Geländer etc., wie durch Zauberhand "rekonstruiert". Scheint sich auch auf andere Details wie Beleuchtung oder Transparenz auszuwirken, die man vielleicht ad hoc erstmal nicht mit LOD Bias in Verbindung bringen würde.

Die eine Szene ist im CPU-Limit, bei der anderen mit viel Vegetation sieht man einen schlechteren Fall bez. Hit im GPU-Limit.
War unter Linux via libstrangle. Mit Nvidia geht es mit D3D auch über den Treiber. Ich hatte da aber auch in Borderlands 3 ohne jede Vegetation afair einen wesentlich größeren Performance-Hit. Hat auf jeden Fall Potenzial, dem Upscaling gehörig Leistung zu klauen. ;)

Gouvernator
2020-12-27, 21:35:41
DLSS ist doch nur ein Nebenprodukt von Ray Tracing. NV würde niemals Chipfläche für Tensor Cores opfern die nur DLSS machen. Man muss dann eher beobachten was beim künftigen Ray Tracing passiert um mögliche DLSS Auswirkungen zu beurteilen.

robbitop
2020-12-27, 21:52:39
Was hat RT mit DLSS zu tun? Die TCs werden iirc bis heute nicht für echtzeit denoise verwendet. IMO ist es eine Anwendung für AI Hardware.

Gouvernator
2020-12-27, 22:49:19
Um RT präsentabel in höheren Auflösungen zu rendern? RT wäre totaler Fail wenn man es nicht in 4K sehen könnte.

Geldmann3
2020-12-28, 00:54:40
Ich frage mich gerade, ob nicht viel von dem, was der DL-Magie zugeschrieben wird, nicht eigentlich durchs negative LOD Bias kommt. :freak:
Mit dem Hitman 2 TAA kann man ziemlich problemlos -1.5 ohne großartiges Geflimmer fahren und der Detailgewinn ist schon teilweise sehr massiv:
https://abload.de/thumb/863550_202012272051258aj3r.png (https://abload.de/image.php?img=863550_202012272051258aj3r.png) https://abload.de/thumb/863550_20201227204947qgkyx.png (https://abload.de/image.php?img=863550_20201227204947qgkyx.png)

https://abload.de/thumb/863550_202012272024250vkw6.png (https://abload.de/image.php?img=863550_202012272024250vkw6.png) https://abload.de/thumb/863550_20201227202126rwku2.png (https://abload.de/image.php?img=863550_20201227202126rwku2.png)

Man beachte die Geländer etc., wie durch Zauberhand "rekonstruiert". Scheint sich auch auf andere Details wie Beleuchtung oder Transparenz auszuwirken, die man vielleicht ad hoc erstmal nicht mit LOD Bias in Verbindung bringen würde.

Die eine Szene ist im CPU-Limit, bei der anderen mit viel Vegetation sieht man einen schlechteren Fall bez. Hit im GPU-Limit.
War unter Linux via libstrangle. Mit Nvidia geht es mit D3D auch über den Treiber. Ich hatte da aber auch in Borderlands 3 ohne jede Vegetation afair einen wesentlich größeren Performance-Hit. Hat auf jeden Fall Potenzial, dem Upscaling gehörig Leistung zu klauen. ;)

Oh ja, auch die Antennen auf dem Dach. Bei DLSS würde es an dieser Stelle wieder heißen, dass es die feinen Strukturen komplettiere.

-/\-CruNcher-/\-
2020-12-28, 02:23:52
Wird IMO nicht passieren. DSR gibt es schon so lange und es wird immernoch der müllige bilineare Filter (gerade Faktoren) verwendet (und bei ungeraden Faktoren word per gauss geblurt und point sampling! betrieben).
Sag niemals nie, gerade dahin kann Nvidia noch arbeiten und werden sie auch wenn sie den Scaler komplett ersetzen wollen

Gast
2020-12-28, 19:11:55
Ich frage mich gerade, ob nicht viel von dem, was der DL-Magie zugeschrieben wird, nicht eigentlich durchs negative LOD Bias kommt. :freak:


DLSS verwendet kein negatives LOD BIAS.

Geldmann3
2020-12-28, 19:16:03
Vor allem konnte ich mit GeDoSaTo damals recht effizient ältere Spiele von 8k downsamplen und das war nicht mal auf Treiberebene und hatte ordentliche downscaling-Filter. Auch, wenn es durchaus ein paar Prozent mehr gekostet hat als DSR oder VSR.

Gast
2020-12-29, 16:27:39
In Control kann man in der "renderer.ini" die jeweiligen Auflösungen beliebig festlegen.
Theoretisch also auch 1:1 Render und Output inkl. DLSS.

-> zuerst ingame Output Resolution einstellen und DLSS anmachen
-> danach in der ini die RenderResolution ändern, z.B. auf 4k

Bsp:

{
"objectType": "rend::UserRendererSettings",
"objectVersion": 16,
"m_iOutputResolutionX": 3840,
"m_iOutputResolutionY": 2160,
"m_iRenderResolutionX": 3840,
"m_iRenderResolutionY": 2160,
"m_iLastWindowSizeX": 1920,
"m_iLastWindowSizeY": 1080,
"m_eWindowMode": 2,
"m_eVSync": 0,
"m_bFilmGrain": true,
"m_eVolumeLightQuality": 2,
"m_eVolumetricSpotLightQuality": 2,
"m_eShadowResolutionQuality": 2,
"m_eShadowFilteringQuality": 1,
"m_eTextureResolution": 3,
"m_eTextureFilteringQuality": 2,
"m_eLodDetail": 2,
"m_eSSAOQuality": 1,
"m_eSSRQuality": 2,
"m_eEffectQuality": 1,
"m_eFoliageQuality": 0,
"m_eMotionBlur": 1,
"m_eGIQuality": 2,
"m_eMSAAQuality": 2,
"m_eRTReflectionQuality": 2,
"m_eRTTransparentQuality": 2,
"m_eRTIndirectDiffuseQuality": 2,
"m_eRTSpotContactShadowQuality": 2,
"m_eRTDebrisQuality": 1,
"m_eDLSSQuality": 1,
"m_eSDFQuality": 2
}

Ist mit meiner RTX 2080 zwar unspielbar, sieht aber einen Tick schärfer aus.

Tobalt
2020-12-29, 22:47:38
DLSS mit mit mehr Samples als nativ wäre IMO schon besser als der Umweg über quality+DSR.
mit DSR kriegt man beim downsampling nur ordered grid sampling.

aufkrawall
2020-12-29, 22:53:54
mit DSR kriegt man beim downsampling nur ordered grid sampling.
Das Hauptproblem ist allerdings der völlige Schrott-Scaler von DSR <4x. Bei hochfrequenten Texturen gibts damit wahlweise elendes Shimmering oder völligen Matsch.

Dampf
2020-12-29, 22:57:08
Wenn ihr möchtet, kann ich euch behilflich sein. Schiebt einfach mal ne PM rüber.

Edit: sorry war verwirrt. Vergesst was ich gesagt hab!

Tobalt
2020-12-30, 07:02:47
Das Hauptproblem ist allerdings der völlige Schrott-Scaler von DSR <4x. Bei hochfrequenten Texturen gibts damit wahlweise elendes Shimmering oder völligen Matsch.

hmm besteht das Problem nur bei nv ? Mit AMD scheint es für mich auf den ersten Blick gut zu funktionieren.

Generell benötigt ein downsampling von nicht-ganzzahligen vielfachen der Auflösung aber natürlich etwas größeres als einen Box Filter um artefaktfrei zu bleiben.

Ein Verfahren wie DLSS, bei dem die Ausgangspixel von vornherein nicht auf einem ordered grid liegen, hätte dieses Problem nicht

Geldmann3
2020-12-30, 19:04:45
hmm besteht das Problem nur bei nv ? Mit AMD scheint es für mich auf den ersten Blick gut zu funktionieren.

Generell benötigt ein downsampling von nicht-ganzzahligen vielfachen der Auflösung aber natürlich etwas größeres als einen Box Filter um artefaktfrei zu bleiben.

Ein Verfahren wie DLSS, bei dem die Ausgangspixel von vornherein nicht auf einem ordered grid liegen, hätte dieses Problem nicht

Ich weiß nicht, ob sie das mittlerweile verbessert haben, doch 2014 hatte ich noch Probleme mit AMDs VSR, wenn die Renderauflösung nicht 4x4 der Ausgabeauflösung entsprach. Schau Dir an, wie der Taskmanager im folgenden Video flimmerte:
9HRVnf7FpFc

aufkrawall
2020-12-30, 19:17:41
hmm besteht das Problem nur bei nv ? Mit AMD scheint es für mich auf den ersten Blick gut zu funktionieren.

VSR <4x ist besser als DSR <4x, aber auch unnötig unscharf.


Generell benötigt ein downsampling von nicht-ganzzahligen vielfachen der Auflösung aber natürlich etwas größeres als einen Box Filter um artefaktfrei zu bleiben.

In Croteams Engine gibts seit Langem einen scharfen bikubischen Scaler zur Auswahl. Der überschärft etwas, kostet aber kaum Leistung und macht kein Shimmering bei DS von 2,25er Auflösung aus. Sähe vermutlich mit etwas weniger schärfender Parameter-Abstimmung genau richtig aus, also wirklich kein Hexenwerk.

DrFreaK666
2020-12-30, 19:25:39
Ehrlich? Wieder das leidige Thema? Hatten wir das nicht schon vor einer halben Ewigkeit?

robbitop
2020-12-31, 11:55:23
Um RT präsentabel in höheren Auflösungen zu rendern? RT wäre totaler Fail wenn man es nicht in 4K sehen könnte.

Es ist aber null abhängig zu RT. Das funktioniert auch ohne RT. Es ist komplett sinnlos, diese Schlussfolgerung zu ziehen.

robbitop
2020-12-31, 11:58:13
Sag niemals nie, gerade dahin kann Nvidia noch arbeiten und werden sie auch wenn sie den Scaler komplett ersetzen wollen

Das läuft über die Shader bei NV - nicht über den Scaler. Es gibt und gab null Grund, da nicht etwas besseres abzuliefern. Außer, dass man das absolute Minimum abliefert. Ist halt ein Nischen feature für 0,0000001% des Marktes. Uns Nerds. Wir interessieren leider niemanden.

robbitop
2020-12-31, 12:02:26
DLSS mit mit mehr Samples als nativ wäre IMO schon besser als der Umweg über quality+DSR.
mit DSR kriegt man beim downsampling nur ordered grid sampling.

Downsampling ist prinzipbedingt nur OG. Dafür läuft es transparent zur Anwendung und ist auch an das LoD gekoppelt.
Aus heutiger Sicht ist OG aber auch kein Beinbruch mehr. Früher brauchte man es zur Kantenglättung und da war das Mister wichtig. Heute gibt es TAA und PP FX AA. Das ist dann kein großes Problem mehr. Heute geht es eher um temporale Stabilität. Moire, Flimmern. Da ist OG total in Ordnung.

Achill
2020-12-31, 14:26:11
Das läuft über die Shader bei NV - nicht über den Scaler. Es gibt und gab null Grund, da nicht etwas besseres abzuliefern. Außer, dass man das absolute Minimum abliefert. Ist halt ein Nischen feature für 0,0000001% des Marktes. Uns Nerds. Wir interessieren leider niemanden.

Ich tippe einfach auf eine Performanceabwägung, bessere und damit i.d.R. auch komplexere Downsize-Filter kosten halt Performance. Ich unterstelle jetzt einfach, dass man dies aus eben diesen Grund nicht anbietet. Jedoch ist NV auch nicht in Zugzwang, weil VSR von AMD eben durch den Scaler limitiert ist. So ging und geht halt 7680×4320 bei DP 1.4 nur mit 60Hz am Monitor via VSR ...

--
Zu DSR mit DLSS kombinieren ist imho einfach nur eine provisorische Krücke und kann nur andeuten was möglich wäre.

aufkrawall
2020-12-31, 14:31:22
Ich tippe einfach auf eine Performanceabwägung, bessere und damit i.d.R. auch komplexere Downsize-Filter kosten halt Performance.
Bikubisch kostete schon 2011 in Serious Sam 3 kaum etwas im Verhältnis zu den Kosten der höheren Auflösung an sich. Und da das ein fixer Kostenpunkt ist, kostet es prozentual mit neuen GPUs wahrscheinlich so gut wie nichts mehr. Es gibt keinen technischen Grund.

robbitop
2020-12-31, 14:57:10
Ich tippe einfach auf eine Performanceabwägung, bessere und damit i.d.R. auch komplexere Downsize-Filter kosten halt Performance.
Vernachlässigbar. Habe vor Jahren als DSR neu war mit Kepler mal mit GeDoSaTo mit verschiedensten Filterkernels verglichen. Der Unterschied war marginal.
Zumindest die Option des besseren Filterkernels für die läppischen 1-2% könnte man schon anbieten.

Das verwundert auch nicht, denn pro Pixel wird für die eigentliche Berechnung des 3D Renderings um Größenordnungen mehr Rechenzeit verwendet als für einen Downsampling Filterkernel.

Geldmann3
2020-12-31, 21:39:57
Vernachlässigbar. Habe vor Jahren als DSR neu war mit Kepler mal mit GeDoSaTo mit verschiedensten Filterkernels verglichen. Der Unterschied war marginal.
Zumindest die Option des besseren Filterkernels für die läppischen 1-2% könnte man schon anbieten.

Das verwundert auch nicht, denn pro Pixel wird für die eigentliche Berechnung des 3D Renderings um Größenordnungen mehr Rechenzeit verwendet als für einen Downsampling Filterkernel.

Jope, wie schonmal geschrieben hatte ich damals auch GeDoSaTo verwendet, da konnte man sogar mit Lanczos downscalen und hat dennoch nur 5% oder ähnlich verloren. Heute müssten die Kosten prozentual ja noch geringer sein. Wenn der Wille da wäre, könnte man auf Grafikkartenhersteller Seite sicher einfach ein Scaler in Hardware verbauen, das wäre dann sogar kostenlos, würde nicht wirklich R&D Kosten verursachen und in der Produktion vielleicht 5€ / Karte aufschlagen.

Ich tippe einfach auf eine Performanceabwägung, bessere und damit i.d.R. auch komplexere Downsize-Filter kosten halt Performance. Ich unterstelle jetzt einfach, dass man dies aus eben diesen Grund nicht anbietet. Jedoch ist NV auch nicht in Zugzwang, weil VSR von AMD eben durch den Scaler limitiert ist. So ging und geht halt 7680×4320 bei DP 1.4 nur mit 60Hz am Monitor via VSR ...

Also ich kann mit meiner Radeon VII kein internes 8k mit meinem 4k Monitor verwenden. Das toppt bei 5k aus.

Dampf
2021-01-10, 12:49:31
https://twitter.com/Jack_Mangano/status/1348228539598983169/photo/1

Typ hatte einen Bug, wo DLSS nicht funktioniert und das Input Bild angezeigt wird.

Wahnsinn was DLSS da leistet. Wandelt ein grottenhässliches 540p Bild in ein schönes 1080p Bild um!

-/\-CruNcher-/\-
2021-01-10, 14:04:24
Naja was ist daran wahnsinn es kommt immer drauf an, natürlich fasziniert das jemanden der sich mit dem topic nicht gänzlich beschäftigt und es das erste mal so sieht ;)

Das alleine kann auch nicht DLSS SR ziemlich gut je optimialer es in der Engine Temporal implementiert und gewichtet ist.

Allerdings ist halt der Performance Part der Kasus knacktus

Geldmann3
2021-01-10, 15:26:31
https://twitter.com/Jack_Mangano/status/1348228539598983169/photo/1

Typ hatte einen Bug, wo DLSS nicht funktioniert und das Input Bild angezeigt wird.

Wahnsinn was DLSS da leistet. Wandelt ein grottenhässliches 540p Bild in ein schönes 1080p Bild um!

Nicht ein grottenhässliches 540p Bild, es wandelt x 540p Bilder in 1 schönes 1080p Bild um. Es arbeitet temporal. Es sind auch nicht irgendwelche 540p Bilder, sondern jede Pixelfarbe jedes Pixels des 540p Bildes wurde an einer gezielten, unendlich kleinen Stelle im Pixel abgetastet, sodass die Pixel eines Bildes, kombiniert mit den Pixeln der folgenden Bilder zu einem hochauflösenderem Bild zusammengepuzzelt werden können. Jedes einzelne Bild enthält nur einen Teil aller Puzzleteile, deshalb sieht es auch hässlich aus. ;)
(Mein Versuch das mal einfacher zu erklären.)

basix
2021-01-12, 12:43:22
Gibt es eigentlich irgendwo einen guten Vergleich zwischen 4K DLSS Performance und 1440p DLSS Quality? Die interne Renderauflösung liegt ja relativ nahe zusammen (1080p zu 960p) und es würde mich interessieren, ob 4K Performance besser wegkommt als 1440p Quality.

Lurtz
2021-01-12, 15:27:28
Gibt es eigentlich irgendwo einen guten Vergleich zwischen 4K DLSS Performance und 1440p DLSS Quality? Die interne Renderauflösung liegt ja relativ nahe zusammen (1080p zu 960p) und es würde mich interessieren, ob 4K Performance besser wegkommt als 1440p Quality.
Das habe ich mich auch schon gefragt.

basix
2021-01-12, 16:47:23
Allgemein ein Qualitätsvergleich von 1080p, 1440p und 4K mit DLSS Quality, Balanced und Performance wäre interessant. Ergäbe 9 Bilder, welche man am besten via Slider direkt nebeneinander vergleichen kann. Jeweils noch nativ als Referenz wäre auch nicht schlecht. 4K Ultra Performance allenfalls noch als Bonus: 1080p Quality hat wie 1440p Performance und 4K Ultra Performance 720p als Ausgangsauflösung.

Die meisten Qualitätsvergleiche im Internet sind mit 4K gemacht worden (PCGH zum Teil mit WQHD). Wie das aber untereinander im Vergleich aussieht: Tote Hose. Vergleiche zur Performance ja, überall. Aber nichts zur Bildqualität.

@mitlesende Redakteure:
Bitte bitte :D

Edit:
OK, CB hat was dazu aber leider fehlt 1440p als Zielauflösung: https://www.computerbase.de/2020-05/nvidia-dlss-2.0-test/

Geldmann3
2021-01-14, 13:15:57
Allgemein ein Qualitätsvergleich von 1080p, 1440p und 4K mit DLSS Quality, Balanced und Performance wäre interessant. Ergäbe 9 Bilder, welche man am besten via Slider direkt nebeneinander vergleichen kann. Jeweils noch nativ als Referenz wäre auch nicht schlecht. 4K Ultra Performance allenfalls noch als Bonus: 1080p Quality hat wie 1440p Performance und 4K Ultra Performance 720p als Ausgangsauflösung.

Die meisten Qualitätsvergleiche im Internet sind mit 4K gemacht worden (PCGH zum Teil mit WQHD). Wie das aber untereinander im Vergleich aussieht: Tote Hose. Vergleiche zur Performance ja, überall. Aber nichts zur Bildqualität.

@mitlesende Redakteure:
Bitte bitte :D

Edit:
OK, CB hat was dazu aber leider fehlt 1440p als Zielauflösung: https://www.computerbase.de/2020-05/nvidia-dlss-2.0-test/

Die Implementierungen sind von Spiel zu Spiel unterschiedlich, sollte solch ein Test nicht auch noch unterschiedliche Games mit einbeziehen? Und wenn ja, welche?

basix
2021-01-14, 13:24:58
Am besten alle Spiele mit DLSS 2.0 ;) Für mich interessant sind Control, CoD: BOCW und CP2077 mit und ohne Raytracing. Andere Personen können andere Präferenzen haben.

Zumindest 2-3 Titel wären OK und mit und ohne Raytracing wäre auch interessant. Der Rest ist Bonus. Ist halt schnell sehr viel Aufwand. Sehr reproduzierbar wäre z.B. der Boundary Benchmark, den spiele ich aber nicht ;)

Geldmann3
2021-01-14, 13:29:02
Am besten alle Spiele mit DLSS 2.0 ;) Für mich interessant sind Control, CoD: BOCW und CP2077 mit und ohne Raytracing. Andere Personen können andere Präferenzen haben.

Zumindest 2-3 Titel wären OK und mit und ohne Raytracing wäre auch interessant. Der Rest ist Bonus. Ist halt schnell sehr viel Aufwand. Sehr reproduzierbar wäre z.B. der Boundary Benchmark, den spiele ich aber nicht ;)

Es gibt mittlerweile rund 40 Games mit DLSS 2.0+. :wink:

basix
2021-01-14, 13:29:34
Ist mir klar, wäre nur das (unrealistische) Optimum ;)

dargo
2021-01-28, 20:05:27
Was ist denn da los? Zuerst Control und jetzt The Medium.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12582183&postcount=15

Dampf
2021-01-30, 12:20:49
https://steamcommunity.com/app/997070/discussions/0/3105763714507091254/

Endlich gibt es DLSS kombiniert mit Dynamic Resolution Scaling. Das wird ein Game-Changer!

Leider vorerst nur bei Marvel.

BlacKi
2021-01-30, 15:06:24
https://steamcommunity.com/app/997070/discussions/0/3105763714507091254/

Endlich gibt es DLSS kombiniert mit Dynamic Resolution Scaling. Das wird ein Game-Changer!

Leider vorerst nur bei Marvel.


wenn ich das richtig verstandenhabe, dann gibts das doch schon in cyberpunk. naja, er wechselt selbstständig zwischen den dlss presets^^

Dampf
2021-01-30, 15:26:21
wenn ich das richtig verstandenhabe, dann gibts das doch schon in cyberpunk. naja, er wechselt selbstständig zwischen den dlss presets^^

Nein, auto guckt nur welche Auflösung du hast und wählt dann entweder Quality, balanced oder Performance. Hat nix mit DRS zu tun

BlacKi
2021-01-30, 15:32:54
war auch nicht besonders gut. selbst in verbindung mit 4k, vorallem mit rt an.

Lurtz
2021-01-30, 21:04:51
https://steamcommunity.com/app/997070/discussions/0/3105763714507091254/

Endlich gibt es DLSS kombiniert mit Dynamic Resolution Scaling. Das wird ein Game-Changer!

Leider vorerst nur bei Marvel.
Ich dachte manuell kann man das schon immer machen?

Behauptet jedenfalls der hier: https://www.youtube.com/watch?v=_gQ202CFKzA

Geldmann3
2021-01-30, 23:31:32
Ich dachte manuell kann man das schon immer machen?

Behauptet jedenfalls der hier: https://www.youtube.com/watch?v=_gQ202CFKzA

Er macht das im Video manuell. Dynamisch ändert sich da nichts.

TheAntitheist
2021-01-31, 09:32:52
Er macht das im Video manuell. Dynamisch ändert sich da nichts.
niemand hat behauptet das es in Death stranding funktioniert xD denke da hast du was durcheinander gebracht. In dem neuen Marvel Spiel soll DSR mit DLSS funktionieren und in Cyberpunk gibts auto DLSS welches die Modi von alleine, je nach Bedarf, wechselt. Also ist DLSS auf Auto auch so eine Art DSR mit DLSS.

basix
2021-01-31, 11:06:39
Auto in CP hat nichts mit DSR zu tun. Es wählt einfach von selbst das Preset aus, sonst gar nichts. Und soweit ich weiss, wird das auch nicht dynamisch während dem spielen angepasst.

Wenn dem anders wäre, bitte um einen Link.

BlacKi
2021-01-31, 11:38:25
doch genau das tut es. es wechselt von alleine freizügig die gaze zeit eigenständig. aber die abstufungen zwischen quality und ultra performance sind zu groß. wenn man stehen bleibt wird das bild schön scharf, aber in bewegung wechselt der modus vorallendingen mit RT on ständig zwischen den niedrigen presets hin und her. das sieht man sehr deutlich.

ich hatte den link von dampf garnicht gelesen. aber das was dort beschrieben wird, das gibts schon in cyberpunk.

When DRS is enabled along with DLSS, DLSS dynamically adjusts render resolution to deliver maximum image quality while maintaining the target frame rate.

aber es funzt nicht besonders.

basix
2021-01-31, 12:06:58
DRS ist aber prinzipiell in der allgemeinen Umsetzung was ganz anderes, da viel granularer. Da kann jedwede Zwischenauflösung dabei sein.

Lurtz
2021-01-31, 20:24:30
Wie hoch ist die Wahrscheinlichkeit, dass das in andere DLSS2-Titel gepatcht wird?

Slipknot79
2021-01-31, 22:39:42
Wie hoch ist die Wahrscheinlichkeit, dass das in andere DLSS2-Titel gepatcht wird?


Praktisch Null.

Ex3cut3r
2021-02-01, 02:34:41
Häää? Was ist daran so magisch? Einfach DSR oder Custom Resoultions erstellen, und ingame die DS Auflösung auswählen, dann DLSS Q oder P wählen. Fertig ist DSR mit DLSS. :confused:

Und es sieht auch sehr geil dann aus. Da braucht man doch nicht auf faule Entwickler warten. Ich z.B benutze bei 3440x1440 Nativ, 4300x1800 (25% mehr Auflösung) oder aber gleich 5160x2160, 50% mehr Auflösung. Dazu dann DLSS Q oder P.

Ist das wirklich so neu für euch? Ich mach das schon seit rls. von DLSS so.

Sonyfreak
2021-02-01, 08:52:17
Es geht nicht um Dynamic Super Resolution (DSR) sondern um Dynamic Resolution Scaling (DRS).

mfg.

Sonyfreak

Gast
2021-02-01, 10:35:52
https://steamcommunity.com/app/997070/discussions/0/3105763714507091254/

Endlich gibt es DLSS kombiniert mit Dynamic Resolution Scaling. Das wird ein Game-Changer!

Leider vorerst nur bei Marvel.

Es geht aber leider nicht klar hervor, ob das tatsächlich dynamisch zwischen den DLSS Stufen wechselt, oder einfach nur on top von der fixierten DLSS Einstellung noch zusätzlich die Renderauflösung skaliert.

Falls letzteres ist das Ganze ziemlich sinnlos, und man wäre mit einer fixen schnelleren DLSS Variante besser dran, zumindest so lange man nicht auf Ultra Performance gehen muss.

Dampf
2021-02-01, 12:56:30
doch genau das tut es. es wechselt von alleine freizügig die gaze zeit eigenständig. aber die abstufungen zwischen quality und ultra performance sind zu groß. wenn man stehen bleibt wird das bild schön scharf, aber in bewegung wechselt der modus vorallendingen mit RT on ständig zwischen den niedrigen presets hin und her. das sieht man sehr deutlich.

ich hatte den link von dampf garnicht gelesen. aber das was dort beschrieben wird, das gibts schon in cyberpunk.



aber es funzt nicht besonders.

Das kann ich so nicht bestätigen. Ich hab schon Tests durchgeführt und das DLSS Preset ändert sich nicht. Dass es in Bewegung unschärfer wird, liegt eher an Motion Blur sowie an der temporalen Komponente von TAA/DLSS.

DLSS Auto wählt je nach Auflösung unterschiedliche Presets und bleibt dann da.

4K: DLSS Performance
1440p: DLSS Balanced
1080p: DLSS Quality

Hat wirklich null mit DRS zu tun. Deswegen ist die Kombination mit DRS und DLSS in Marvel jetzt ein absoluter Game-Changer. Du stellst eine Auflösung und Framerate ein und DLSS erledigt den Rest. Dann kann die Auflösung in wilden Gefechten auch mal unter DLSS Performance gehen um die 60 FPS zu halten. Oder wenn die GPU kaum belastet wird, auch mal höher als DLSS Quality.

Und da DLSS im Rekonstruieren so unfassbar gut ist, wirst du kaum was davon merken. Das ist absolut genial und wird die PC Ports auf eine neue Stufe heben. Ich erwarte nicht, dass das schon in Marvel perfekt funktioniert, aber die ersten Gehversuche damit sind richtig und wichtig. Es ist ein komplexes Zusammenspiel aus drei Faktoren: Auflösung, Framerate und GPU Auslastung, das erstmal richtig eingestellt werden muss. Trotzdem würde mich brennend interessieren, wie gut es in Marvel schon funktioniert... Wenn das Spiel jemand hat, immer her mit Impressionen!

][immy
2021-02-01, 13:36:17
Nun meine Befürchtung bei DLSS ist nach wie vor, das es halt eine Einbahnstraße & Sackgasse zugleich ist. Es erfordert, das die Entwickler das Spiel darauf anpassen (nicht wie bei bisherigen AA Methoden die man zumindest meist erzwingen kann). Zudem ist es nur Kompatibel mit bestimmter Hardware und nutzt keine standardisierte API.
Irgendwann wird nvidia etwas anpassen (oder weglassen) und Schwups klappt es nicht mehr wie es bei proprietären Lösungen gern mal so ist.
DLSS 2.0 sieht teilweise schon ziemlich gut aus. Aber aufgrund der Artefakt-Bildung halte ich es auch hier nicht für geeignet als Lösung um die Grafik zu verbessern. Mich stören nun mal Artefakte mehr als gleichbleibend "schlechtere" Grafik (durch geringere Auflösung).
Zudem ist die Überschärfung einiger Texturen auch etwas, was ich nicht grad toll finde. Das verfälscht häufig das Grafikbild oder hebt Texturen in den Vordergrund wo sie nicht sein sollten.

Aktuell sehe ich das auf jeden Fall ähnlich wie RT. Technisch bemerkenswert, aber ich schalte es doch lieber ab.

y33H@
2021-02-01, 13:55:15
Per Treiber forcierbare Kantenglättung ist seit Jahren schon Geschichte ...

Gast
2021-02-01, 14:53:09
[immy;12585947'] Es erfordert, das die Entwickler das Spiel darauf anpassen (nicht wie bei bisherigen AA Methoden die man zumindest meist erzwingen kann).


Das Einzige was man bei deferred Renderern, also so gut wie allen aktuellen Engines, erzwingen kann ist reines Post-AA alá FXAA.


Aber aufgrund der Artefakt-Bildung halte ich es auch hier nicht für geeignet als Lösung um die Grafik zu verbessern.


DLSS erzeugt weniger Artefakte als das ansonsten verwendete TAA und erzeugt dabei eine bessere Bildschärfe mit gleicher oder besserer Glättung.
Wobei das eine etwas das andere bedingt, TAA muss mehr Unschärfe erzeugen, weil es eben mehr Artefakte erzeugt die durch die Unschärfe danach wieder kaschiert werden, und Artefakte wesentlich störender als eine etwas geringere Bildschärfe sind.



Zudem ist die Überschärfung einiger Texturen auch etwas, was ich nicht grad toll finde. Das verfälscht häufig das Grafikbild oder hebt Texturen in den Vordergrund wo sie nicht sein sollten.


DLSS macht mit Texturen genau gar nichts, was aber einige Entwickler noch nicht so ganz kapiert haben und bei falscher Umsetzung einerseits zu unscharfen Texturen führen kann, bzw. andererseits die Entwickler Schärfefilter verwenden, welche die Unschärfe von TAA kaschieren sollen, und diesen nicht auf die höhere Grundschärfe des DLSS Bildes anpassen, was dann natürlich zu Überschärfung führt.

Mr. Lolman
2021-02-01, 15:32:24
Je höherfrequenter der Inhalt, desto mehr kämpft DLSS mit der Qualität.* Nächstes Problem ist auflösungsabhängiges LOD und gewisse Screenspaceeffekte. Wenn da die Engine das nicht extra berücksichtigt, grieselts gleich mal mehr und zusätzlich hat man weniger Details in der Entfernung (wie zB bei Cyberpunk2077).

*Man kann halt nichts herzaubern wo nichts da ist - zumindest wenn man in Bewegung ist. Da hilft die temporale Komponente nämlich garnix. Ist aber mit TAA auch nicht anders...

robbitop
2021-02-01, 15:50:46
Je höherfrequenter der Inhalt, desto mehr kämpft DLSS mit der Qualität.* Nächstes Problem ist auflösungsabhängiges LOD und gewisse Screenspaceeffekte. Wenn da die Engine das nicht extra berücksichtigt, grieselts gleich mal mehr und zusätzlich hat man weniger Details in der Entfernung (wie zB bei Cyberpunk2077).

*Man kann halt nichts herzaubern wo nichts da ist - zumindest wenn man in Bewegung ist. Da hilft die temporale Komponente nämlich garnix. Ist aber mit TAA auch nicht anders...
DLSS ist natürlich keine schwarze Magie. Aber IIRC ist die Anpassung des LoDs Teil der Implementierungsrichtlinie von DLSS. Die Qualität der Implementierung variiert aber noch stark.

Gerade in der Bewegung differenziert sich DLSS 2.0 von anderen temporalen Rekonstruktionsmechanismen. Einfach da NN vs Heuristik.
Gerade die Funktion in der Bewegung ist die Herausforderung für das Clamping.

Die id Leute scheinen mit der idtech 7 (siehe Doom Eternal) beim Clamping deutliche Fortschritte gemacht zu haben. Deren TSSAA produziert kaum noch Unschärfe und kein Ghosting mehr aber nutzt temporale Samples um SSAA zu machen. Das Ergebnis kann sich sehen lassen.

Je nach Spiel bekommt DLSS 2.0 das in Bewegung auch gut hin. Wie gesagt die Implementierung ist noch stark unterschiedlich gut.

Gast
2021-02-01, 16:46:10
*Man kann halt nichts herzaubern wo nichts da ist - zumindest wenn man in Bewegung ist. Da hilft die temporale Komponente nämlich garnix. Ist aber mit TAA auch nicht anders...

Genau umgekehrt, jede temporale Komponente benötigt Bewegung um einen Einfluss zu haben, weshalb diese auf Subpixelebene ja sogar künstlich erzeugt wird, wenn gerade keine "natürliche" Bewegung vorhanden ist.

aufkrawall
2021-02-02, 00:04:59
Aber IIRC ist die Anpassung des LoDs Teil der Implementierungsrichtlinie von DLSS. Die Qualität der Implementierung variiert aber noch stark.

Du willst nicht zufällig mal in Witcher 3 testen, wie viel ein negatives LOD-Bias von -1.5 vs. 0 auf Nvidia mit viel Vegetation und HQ-Filterung kostet? Das kann man bei dem Spiel in der Config einstellen und entsprechend mit AMD vergleichen.
Edit: Dabei auch noch 16x AF über den Treiber forcieren.

Mr. Lolman
2021-02-02, 07:04:29
Genau umgekehrt, jede temporale Komponente benötigt Bewegung um einen Einfluss zu haben, weshalb diese auf Subpixelebene ja sogar künstlich erzeugt wird, wenn gerade keine "natürliche" Bewegung vorhanden ist.

Auf Subpixelebebe klappt das ja auch gut. Nur in echter Bewegung ist das Delta dann zu groß.

robbitop
2021-02-02, 09:58:09
Genau umgekehrt, jede temporale Komponente benötigt Bewegung um einen Einfluss zu haben, weshalb diese auf Subpixelebene ja sogar künstlich erzeugt wird, wenn gerade keine "natürliche" Bewegung vorhanden ist.
Hm - eigentlich gibt es über den Jitter der Abtastposition des Pixels temporal auch ohne Bewegung ja unterschiedliche Werte pro Pixel die dann spatial genutzt werden kann um zu supersamplen oder zu rekonstruieren. Keine Bewegung ist eigentlich so wie ich das verstehe am besten.
In Bewegung ist ja die Herausforderung genau diese Werte ihrer Position zuzuordnen oder aber eben im E-Fall zu verwerfen.

Du willst nicht zufällig mal in Witcher 3 testen, wie viel ein negatives LOD-Bias von -1.5 vs. 0 auf Nvidia mit viel Vegetation und HQ-Filterung kostet? Das kann man bei dem Spiel in der Config einstellen und entsprechend mit AMD vergleichen.
Edit: Dabei auch noch 16x AF über den Treiber forcieren.
Kann ich mal machen (wobei -1,5 schon ein ganz schön fetter Faktor ist - ich erwarte deutlich kleinere notwendigere Faktoren für DLSS 2.0 je nach Setting). Muss natürlich erstmal sicherstellen, dass ich im GPU Limit bin.
Das Ergebnis wird natürlich je nach Spiel unterschiedlich sein - abhängig davon ob die Texelfüllrate ein wesentlicher Flaschenhals ist.

Geht die Verschiebung des LoD Bias nicht mehr über den Treiber für W3?

aufkrawall
2021-02-02, 17:08:24
(wobei -1,5 schon ein ganz schön fetter Faktor ist - ich erwarte deutlich kleinere notwendigere Faktoren für DLSS 2.0 je nach Setting)

Man kann mit dem UE4-TAA allerdings so viel geben, ohne dass es nennenwert flimmern würde. Wenn DLSS Flimmern ähnlich stark unterdrückt, sollte das eigentlich nicht unvernünftig sein.
Besonders hochfrequente Texturen könnte ein Entwickler dann auch gesondert behandeln, wenn er wollte.


Muss natürlich erstmal sicherstellen, dass ich im GPU Limit bin.

Ist im Skellige-Wald garantiert. Eine höhere Auflösung als 1440p fände ich weniger spannend, weil es ja schließlich um die Implikationen für Upscaling geht.


Das Ergebnis wird natürlich je nach Spiel unterschiedlich sein - abhängig davon ob die Texelfüllrate ein wesentlicher Flaschenhals ist.

Deshalb testen wir ja das gleiche Spiel und erhöhen mit dem forcierten AF wenigstens etwas die TMU-Last. ;)


Geht die Verschiebung des LoD Bias nicht mehr über den Treiber für W3?
Geht bei NV für D3D auch über den Treiber, bei AMD aber nicht. Außerdem ist der Config-Weg einfacher. Nur nicht von den als "niedrig" angegebenen Texturdetails im Spiel verwirren lassen, wenn man 0 eingetragen hat. Die Config schreibgeschützt machen und im Spiel dann nicht verändern.

aufkrawall
2021-02-02, 22:57:53
Bin mal vorgeprescht (Stelle ist Fast Travel zum Druiden-Lager auf Skellige), max. Details (GW off):
https://abload.de/thumb/witcher3_2021_02_02_2ajjyz.png (https://abload.de/image.php?img=witcher3_2021_02_02_2ajjyz.png) https://abload.de/thumb/witcher3_2021_02_02_2bhkmz.png (https://abload.de/image.php?img=witcher3_2021_02_02_2bhkmz.png)
-1.5 kostet auf der 5700 XT hier ~8,2%.

Als ich noch die 1070 hatte, hatte das über den Treiber erzwungen (sollte nichts anderes bewirken als in-game eingestellt) mit HQ-Filterung locker das Doppelte, wenn nicht das Dreifache gekostet (etwa in BL3).

Man sieht ja links am Baum, wie hoffnungslos 1440p trotz 16xAF nicht ausreicht, um die Details aus der Textur auch wirklich zu rendern. Mit gut funktionierendem TSSAA sollte sich mit negativem LOD-Bias die Bildqualität extrem steigern lassen, sofern die Texturfilterung damit nicht Müll (Polaris) oder lahm (Nvidia?) ist.

Tobalt
2021-02-03, 09:35:46
Die Stelle, die du beschreibst, also der Baum, und auch die zwei kleineren Steine am rechten Wegesrand zeigen mit der Textur ja fast genau in die Kamera. In so einem Fall bringt dir AF doch eh nicht viel. Hier braucht es eben SuperSampling (brute force oder halt über temporal).

Gerade bei dem Stein würde ich aber selbst auf dem Screenshot schon vermuten, dass es mit -1.5 in Bewegung flimmert. Mit TAA ist das sicher besser, wobei -1.5 natürlich schon eine ganze Menge ist.

Gast
2021-02-03, 09:43:43
Bin mal vorgeprescht (Stelle ist Fast Travel zum Druiden-Lager auf Skellige), max. Details (GW off):
https://abload.de/thumb/witcher3_2021_02_02_2ajjyz.png (https://abload.de/image.php?img=witcher3_2021_02_02_2ajjyz.png) https://abload.de/thumb/witcher3_2021_02_02_2bhkmz.png (https://abload.de/image.php?img=witcher3_2021_02_02_2bhkmz.png)
-1.5 kostet auf der 5700 XT hier ~8,2%.

Die Frage ist eher warum sollte man das machen.

Auf den Screenshots sieht ja schon die ganze Vegetation deutlich griesliger aus,
gleiche gilt für das Kettenhemd. Ich will mir gar nicht vorstellen wie das in Bewegung aussieht will ich mir gar nicht vorstellen.

Gleichzeitig gibt es aber selbst am Screenshot kaum etwas was wirklich besser aussieht. Beim Boden, wo man eigentlich Verbesserungen erwarten würde, gibt es kaum einen Unterschied, das einzige was am Screenshot wirklich besser aussieht ist der Felsen rechts, wobei dieser im "normalen" Screenshot so stark im Schatten ist, dass ich mich Frage wie viel von dem Vorteil wirklich durch das LOD kommt und wie viel durch die bessere Beleuchtung.

Also warum sollte man etwas machen was in Summe sogar das Bild schlechter macht, dabei auch noch etwas Leistung kostet?

Und das Ganze sogar noch komplett grausam ohne Antialiasing?

Der Performanceverrlust mit negativem LOD kommt übrigens einzig allein da es eine schlechtere Hitrate im Cache verursacht, wäre also interessant ob dieser bei den neuen Radeons mit ihren riesigen Caches geringer ist.

aufkrawall
2021-02-03, 14:55:16
Gerade bei dem Stein würde ich aber selbst auf dem Screenshot schon vermuten, dass es mit -1.5 in Bewegung flimmert.
Das Spiel hat imho eher nur irgendeinen primitiven Object Motion Blur und kein echtes TAA, da flimmert noch viel mehr in Bewegung. Mit dem UE4-TAA würde es aber, wie bereits gesagt, auch mit -1,5 kaum mehr flimmern (mehr Details flimmern btw. allgemein mehr). Es ging jetzt ja nur um die Performance-Kosten.

robbitop
2021-02-03, 15:16:56
Kannst du mir das savegame zur Verfügung stellen? In meinem Spielstand bin ich gerade erst in Skellige angekommen und kenne mich da noch null aus. :D

aufkrawall
2021-02-03, 16:01:21
https://filehorst.de/d/dbtpnhbq
Wie gesagt: Bitte 1440p, max. Details (GW off), HQ-Filterung, 16xAF forciert, 0 vs. -1.5 (schreibschützen)

vinacis_vivids
2021-02-03, 20:09:13
Hab mir das savegame auch mal runtergeladen um mal in den Flimmerwald zu schauen.

Geldmann3
2021-02-04, 10:41:53
Die Frage ist eher warum sollte man das machen.

Auf den Screenshots sieht ja schon die ganze Vegetation deutlich griesliger aus,
gleiche gilt für das Kettenhemd. Ich will mir gar nicht vorstellen wie das in Bewegung aussieht will ich mir gar nicht vorstellen.

Gleichzeitig gibt es aber selbst am Screenshot kaum etwas was wirklich besser aussieht. Beim Boden, wo man eigentlich Verbesserungen erwarten würde, gibt es kaum einen Unterschied, das einzige was am Screenshot wirklich besser aussieht ist der Felsen rechts, wobei dieser im "normalen" Screenshot so stark im Schatten ist, dass ich mich Frage wie viel von dem Vorteil wirklich durch das LOD kommt und wie viel durch die bessere Beleuchtung.

Also warum sollte man etwas machen was in Summe sogar das Bild schlechter macht, dabei auch noch etwas Leistung kostet?

Und das Ganze sogar noch komplett grausam ohne Antialiasing?

Der Performanceverrlust mit negativem LOD kommt übrigens einzig allein da es eine schlechtere Hitrate im Cache verursacht, wäre also interessant ob dieser bei den neuen Radeons mit ihren riesigen Caches geringer ist.

Also ich finde spontan, dass letzteres Bild deutlich besser aussieht. Auf Bild 1 wirken die Pflanzen alle wie aus Pappe. Sollte die temporale Komponente von DLSS das Flimmern nicht beseitigen, schon allein deswegen, weil das Ganze wieder auf eine höhere Auflösung, mit Samplen aus mehreren Frames projiziert wird?

aufkrawall
2021-02-04, 12:24:07
Auf Bild 1 wirken die Pflanzen alle wie aus Pappe.
Das ist ja auch sehr seltsam mit DLSS in War Thunder: Neben der offensichtlichen Auflösungsabhängigkeit der Schattensichtweite, wirken die Pflanzen auf Entfernung in dem Spiel mit DLSS völlig vermatscht (bzw. war zumindest bei der Einführung von DLSS 2.0 für das Spiel so).

Gast
2021-02-04, 13:33:10
Auf Bild 1 wirken die Pflanzen alle wie aus Pappe.


Ja eh, aber flimmerige Pappe auf Bild2 macht das nicht besser, sondern ganz im Gegenteil noch schlechter.



Sollte die temporale Komponente von DLSS das Flimmern nicht beseitigen, schon allein deswegen, weil das Ganze wieder auf eine höhere Auflösung, mit Samplen aus mehreren Frames projiziert wird?

Bei korrekter Anwendung schon. Korrekt mit DLSS ist das LOD für die upgesampelte Auflösung zu verwenden, im Verhältnis zur Renderauflösung hat man damit schon ein negatives Bias. Weiter negativ sollte man diesen aber nicht machen, da dann die temporale Komponente von DLSS eben nicht mehr ausreicht das Flimmern zu verhindern.

Geldmann3
2021-02-04, 14:33:38
Das ist ja auch sehr seltsam mit DLSS in War Thunder: Neben der offensichtlichen Auflösungsabhängigkeit der Schattensichtweite, wirken die Pflanzen auf Entfernung in dem Spiel mit DLSS völlig vermatscht (bzw. war zumindest bei der Einführung von DLSS 2.0 für das Spiel so).

Ich verstehe nicht, wie man DLSS so rücksichtlos falsch implementieren kann... Einfach herzlos ins Spiel klatschen, ohne ein paar Parameter zu ändern.

aufkrawall
2021-02-05, 12:40:11
https://filehorst.de/d/dbtpnhbq
Wie gesagt: Bitte 1440p, max. Details (GW off), HQ-Filterung, 16xAF forciert, 0 vs. -1.5 (schreibschützen)
Wo liegt jetzt das Problem, diesen ein- bis dreiminütigen Versuch durchzuführen?

Dampf
2021-02-05, 13:42:52
Ich verstehe nicht, wie man DLSS so rücksichtlos falsch implementieren kann... Einfach herzlos ins Spiel klatschen, ohne ein paar Parameter zu ändern.

Noch weniger kann ich Nvidia verstehen, die nix dagegen unternehmen. Man sollte meinen, durch die zwingende Zusammenarbeit sollte es kleine Qualitätskontrollen geben..

][immy
2021-02-05, 13:56:47
Noch weniger kann ich Nvidia verstehen, die nix dagegen unternehmen. Man sollte meinen, durch die zwingende Zusammenarbeit sollte es kleine Qualitätskontrollen geben..
nvidia ist doch nur wichtig, das es eingebaut wird, nicht wie. Das sollte doch wohl von allen möglichen, gescheiterten (weil irgendwann der Support einfach aufhört) und ehemaligen nvidia Technologien klar sein.

Ist halt nicht wie "mal eben" MSAA oder TAA einbauen. Es braucht halt erheblich mehr Entwicklungsaufwand. Und in dem Verhältnis wie wenige das am Ende einsetzen, ist der Aufwand normalerweise nicht gerechtfertigt.

Gast
2021-02-05, 15:44:21
[immy;12590151']nvidia ist doch nur wichtig, das es eingebaut wird, nicht wie. Das sollte doch wohl von allen möglichen, gescheiterten (weil irgendwann der Support einfach aufhört) und ehemaligen nvidia Technologien klar sein.


Von welchen gescheiterten Nvidia-Technologien sprichst du, Truform?


Ist halt nicht wie "mal eben" MSAA oder TAA einbauen. Es braucht halt erheblich mehr Entwicklungsaufwand. Und in dem Verhältnis wie wenige das am Ende einsetzen, ist der Aufwand normalerweise nicht gerechtfertigt.

Es ist (fast) genau das selbe wie der Einbau von TAA.

vinacis_vivids
2021-02-08, 20:44:41
Wo liegt jetzt das Problem, diesen ein- bis dreiminütigen Versuch durchzuführen?

Ohne LOD Verschiebung:
RX6800 - AF off - 130 fps
RX6800 - HQ 16XAF - 120 fps
-7,7% Leistung.

Mit LOD Verschiebung kostet es dann sicher wie RDNA 1.0 ~ 8.1%

aufkrawall
2021-02-08, 20:56:42
Es ging um die Kosten des negativen LOD-Bias auf Nvidia. Dieses Forum ist wohl mittlerweile einfach zu alt und bräsig geworden?

][immy
2021-02-09, 02:09:07
Gibt es eigentlich ein Spiel das dlss als "supersampling" anbietet? Sprich ich nutzt 1440p und will 1440p als Basis Auflösung für dlss verwenden um daraus z.b. 4k zu machen.

Bisher hab ich es in spielen nur umgekehrt gesehen. Oder muss ich immer über den Treiber 4k downsampling erzwingen um 1440p als Basisauflösung selektieren zu können.

Geldmann3
2021-02-09, 02:17:46
[immy;12593888']Gibt es eigentlich ein Spiel das dlss als "supersampling" anbietet? Sprich ich nutzt 1440p und will 1440p als Basis Auflösung für dlss verwenden um daraus z.b. 4k zu machen.

Bisher hab ich es in spielen nur umgekehrt gesehen. Oder muss ich immer über den Treiber 4k downsampling erzwingen um 1440p als Basisauflösung selektieren zu können.

In Control ist das über die renderer.ini möglich. Offiziell wird es allerdings noch nicht unterstützt. Das wäre in meinen Augen Next-Level-TAA. Nehme an, Nvidia müsste DLSS erst leicht anpassen, damit es optimal aussieht. Mit DSR funktioniert es bereits ganz gut. Gegen DLSS-Qualität geht das Ergebnis allerdings sehr in die Richtung ,,Diminishing-Return".

robbitop
2021-02-09, 08:40:35
Ja OGSSAA war schon immer nicht besonders toll was Aufwand/Nutzen angeht. DSR mit DLSS zu kombinieren ist ja nichts anderes als die Vergünstigungen von DLSS in OGSSAA zu investieren.
Ich stimme dem zu, dass eine native Variante, die etwas cleverer funktioniert (ich wüßte aber nicht wie), sinnvoller wäre. Ggf. hat NV aber aus genau den Gründen auch DLSS als AA verschoben oder gar fallenlassen. Das wurde ja zum Turing launch damals geteasert - aber nie wieder etwas davon gesehen.

basix
2021-02-09, 10:49:59
Ja OGSSAA war schon immer nicht besonders toll was Aufwand/Nutzen angeht. DSR mit DLSS zu kombinieren ist ja nichts anderes als die Vergünstigungen von DLSS in OGSSAA zu investieren.
Ich stimme dem zu, dass eine native Variante, die etwas cleverer funktioniert (ich wüßte aber nicht wie), sinnvoller wäre. Ggf. hat NV aber aus genau den Gründen auch DLSS als AA verschoben oder gar fallenlassen. Das wurde ja zum Turing launch damals geteasert - aber nie wieder etwas davon gesehen.

Mir wäre lieber, dass die Qualität von DLSS bei gleichbleibender Performance steigt. Also dass bei Quality, Balanced und Performance Modes einfach noch mehr aus den gerenderten Pixeln herausgeholt wird. Insbesondere bei Auflösungen <4K erhoffe ich mir einen Qualitäts-Boost. Das nutzt den meisten Leuten etwas (1440p Monitore, 1080p Laptops, usw.).

DLSS 2.0 ist nun fast 1 Jahr alt. DLSS 3.0 mit besserer Qualität pro gerendertem Pixel und Verknüpfung mit variabler Auflösung und Framerate Target. Dazu noch, dass vermatschte und unscharfe Texturen nicht mehr oder deutlich weniger auftreten. Das ergäbe nochmals einen ordentlichen Sprung bei der Qualität als auch bei der Nutzererfahrung.

robbitop
2021-02-09, 10:53:54
Was du meinst ist volle Basisauflösung (bzw die Basisauflösung die durch dynamic resolution scale vorgegeben wird) mit DLSS 2.0. Je genau das wäre das DLSS 2x(?) was NV mal angekündigt aber nie geliefert hat was für viele hier interessant wäre. Mit dem Unterschied, dass DLSS 2x(?) mit DSR kombiniert werden würde.

Das Problem mit den vermatschten Texturen hat man nicht, wenn der Entwickler sich an die Implementierungsrichtlinien halten. Das Textur LoD muss natürlich angepasst werden. Ich bin mir sicher, dass dir das bisher bewusst ist. :)

Troyan
2021-02-09, 10:56:41
Ja OGSSAA war schon immer nicht besonders toll was Aufwand/Nutzen angeht. DSR mit DLSS zu kombinieren ist ja nichts anderes als die Vergünstigungen von DLSS in OGSSAA zu investieren.
Ich stimme dem zu, dass eine native Variante, die etwas cleverer funktioniert (ich wüßte aber nicht wie), sinnvoller wäre. Ggf. hat NV aber aus genau den Gründen auch DLSS als AA verschoben oder gar fallenlassen. Das wurde ja zum Turing launch damals geteasert - aber nie wieder etwas davon gesehen.

DLSS ist immer AA.

Ansonsten sieht Downsampling in Kombination mit DLSS erheblich besser aus als native Auflösung für ca. 10% Leistungsverlust. Selbst gegenüber reinem Downsampling ist DLSS deutlich besser.

robbitop
2021-02-09, 11:05:40
DLSS ist immer AA.

Ansonsten sieht Downsampling in Kombination mit DLSS erheblich besser aus als native Auflösung für ca. 10% Leistungsverlust. Selbst gegenüber reinem Downsampling ist DLSS deutlich besser.
Ich glaube der Leistungsverlust ist leider höher als 10%. Das Processing für DLSS erhöht offenbar den Computeanteil abhängig mit der Output Resoultion.
Man schaue sich DLSS Ultra Performance @8K an. Gerendert wird mit nur 1440p aber die Performance bricht verglichen mit 1440p nativ sehr stark ein.

Tobalt
2021-02-09, 13:10:58
(zu DSR + DLSS)
Ich stimme dem zu, dass eine native Variante, die etwas cleverer funktioniert (ich wüßte aber nicht wie), sinnvoller wäre.

Ich würde vermuten, dass bei Renderauflösung auf oder über der Targetauflösung automatisches SGSSAA entsteht bei DLSS, weil die Samplepositionen ja intern angeblich gejittert werden.

War nicht mal von einem Super Quality Modus die Rede, der wenigstens bei 100% Target Res rendert ?

Warum Nv das nicht energischer anbietet hat vielleicht damit zu tun, dass der Fokus noch woanders liegt und sie keine Kapazitäten haben. Deren Selling Point ist ja im Prinzip RT zu Spielbaren FPS zu hiefen. Also pushen sie es in alle RT Engines.

robbitop
2021-02-09, 14:33:06
Ich nehme einfach an, dass es deminishing returns waren. Sah ggf. nicht viel besser aus als das Quality Setting war aber langsamer. Ist aber nur eine Vermutung.

Geldmann3
2021-02-10, 08:52:27
Ich nehme einfach an, dass es deminishing returns waren. Sah ggf. nicht viel besser aus als das Quality Setting war aber langsamer. Ist aber nur eine Vermutung.

Davon gehe ich nach diversen Selbstversuchen ebenfalls aus. Besonders bei 4k+ und normalen Sitzabständen nimmt die Bildqualität nach DLSS Qualität einfach nicht mehr merklich zu, vor allem nicht für den Normalo. Hätte man einen DLSS-Modus mit 100% Renderauflösung, könnte man zudem nicht mehr argumentieren besser als TAA auszusehen, als auch Performance zu sparen, weil viele zur höchsten Qualität greifen würden, was keine Performance mehr spart. Obwohl man natürlich auf Qualität runtergehen könnte, würden Enthusiasten den Slider naturgemäß ganz nach rechts schieben. Wäre marketingtechnisch nicht gut.

dildo4u
2021-02-12, 09:24:13
DLSS gibt es jetzt als Plugin für UE 4.26.

https://twitter.com/NVIDIAGameDev/status/1359935065577299971

Sardaukar.nsn
2021-02-12, 11:28:19
Gute Nachrichten!

Dampf
2021-02-12, 12:31:03
Also DLSS sollte damit wirklich jedes UE4 Game haben. Es ist so einfach, dass selbst ein Laie das innerhalb von 2 Minuten implementieren kann!

Echt cool. Hoffe die anderen Verbesserungen des RTX Branches und RTXGI kommen auch bald in den Main Build.

Geldmann3
2021-02-12, 12:53:13
Also DLSS sollte damit wirklich jedes UE4 Game haben. Es ist so einfach, dass selbst ein Laie das innerhalb von 2 Minuten implementieren kann!

Echt cool. Hoffe die anderen Verbesserungen des RTX Branches und RTXGI kommen auch bald in den Main Build.

Meiner Erfahrung nach ist sowas in großen Projekten aufgrund von Abhängigkeiten doch immer viel komplizierter als man sich das von außen so vorstellen kann. Doch prinzipiell stimme ich zu. Sollte jedes halbwegs kommerzielle Game mit der Unreal Engine implementieren.

basix
2021-02-12, 14:21:59
Muss ein Spielentwickler eigentlich Lizenzkosten für die Nutzung von DLSS bezahlen? Wenn nein, sollte das wirklich bei jedem neuen Unreal Engine Spiel mit dabei sein.

x-force
2021-02-12, 14:24:25
Obwohl man natürlich auf Qualität runtergehen könnte, würden Enthusiasten den Slider naturgemäß ganz nach rechts schieben. Wäre marketingtechnisch nicht gut.

mit der argumentation hätte es dsr nie geben dürfen

aufkrawall
2021-02-12, 14:31:32
Sollte jedes halbwegs kommerzielle Game mit der Unreal Engine implementieren.
Außer, der Entwickler hat mit AMD einen Deal, der vendorgelockte Features untersagt, was ich sehr begrüßen würde. Hoffentlich gibts deshalb bei Far Cry 6 kein DLSS und mit etwas Glück durch den Aufkauf von Gearbox durch THQ auch in anderen (UE-) Spielen nicht.
Umgekehrt ist natürlich das vendorgelockte RT in Godfall auch nicht ok, keine Frage. Allerdings hatte AMD Mantle schon sehr früh für D3D12 den Stecker gezogen. So etwas kann man von Nvidia sicherlich nicht erwarten...

DrFreaK666
2021-02-12, 15:41:09
Außer, der Entwickler hat mit AMD einen Deal, der vendorgelockte Features untersagt, was ich sehr begrüßen würde. Hoffentlich gibts deshalb bei Far Cry 6 kein DLSS und mit etwas Glück durch den Aufkauf von Gearbox durch THQ auch in anderen (UE-) Spielen nicht.
Umgekehrt ist natürlich das vendorgelockte RT in Godfall auch nicht ok, keine Frage. Allerdings hatte AMD Mantle schon sehr früh für D3D12 den Stecker gezogen. So etwas kann man von Nvidia sicherlich nicht erwarten...

Darksiders 3 ist auch von THQ, nutzt UE4 und bietet (oder wird bieten) DLSS-Unterstützung.

Reaping_Ant
2021-02-12, 20:36:14
Wo liegt jetzt das Problem, diesen ein- bis dreiminütigen Versuch durchzuführen?
Bei mir (RTX 3070) sind es 111 FPS mit MIP bias 0 und 100 FPS mit -1.5, also kostet es ca. 10%. Kann es übrigens sein, dass das Spiel -1.0 als Standard setzt? Jedenfalls war es bei mir so eingestellt, und ich kann mich nicht erinnern das jemals geändert zu haben.:uponder:

aufkrawall
2021-02-12, 20:57:41
Bei mir (RTX 3070) sind es 111 FPS mit MIP bias 0 und 100 FPS mit -1.5, also kostet es ca. 10%. Kann es übrigens sein, dass das Spiel -1.0 als Standard setzt? Jedenfalls war es bei mir so eingestellt, und ich kann mich nicht erinnern das jemals geändert zu haben.:uponder:
Exzellent, vielen Dank! Negatives LOD-Bias ist dann also offenbar auf Ampere nicht teurer als auf Navi (HQ-Filterung im Treiber eingestellt?).
Ja, das Spiel nutzt trotz fehlenden TSSAAs standardmäßig -1 und flimmert sich entsprechend einen ab. Insbesondere auf Polaris oder mit Nvidia Q-Filterung statt HQ.

Reaping_Ant
2021-02-12, 21:14:22
HQ-Filterung im Treiber eingestellt?
Ja, HQ ist ein, 16x AF ueber den Treiber forciert. Ingame Einstellungen auf Maximum, ausser Hairworks auf aus. Sollte doch so passen?

Ich koennte morgen auch noch mal mit meinem Tiger Lake Laptop nachmessen, falls Interesse besteht? Wobei da wahrscheinlich eh kein vernuenftiger Vergleich moeglich ist, da generell zu lahm. Ausserdem habe ich an der Uni noch eine RTX 2060 Super, falls ein Vergleich mit Turing gewuenscht ist. Das geht aber erst naechste Woche, ich bin im Moment auf Elternzeit. ;)

aufkrawall
2021-02-12, 21:35:56
Du hast genau das getestet, was ich wissen wollte. :)
Intel Gen12 wäre natürlich auch spannend. Ist die Frage, ob die überhaupt vernünftige Filterung für negatives LOD-Bias können. Mit Gen9 flimmert es im Filtertester jedenfalls noch genau so schlimm wie Nvidia Q/Polaris.

Reaping_Ant
2021-02-13, 01:57:11
Intel Gen12 wäre natürlich auch spannend.
OK, dann schaue ich mir das nachher mal an. Sollten wir aber vielleicht in eines der AF-Themen auslagern, sonst wird es hier zu off-topic.

On-topic: Ich habe die letzten Tage auch mal etwas mit DLSS experimentiert, vor allem hat mich der Einfluss der unterschiedlichen Qualitaetsstufen bei gleicher "nativer" Auflösung interessiert.
Testobjekt ist Cyberpunk im Raytracing Medium Preset, Chromatic Aberration und Film Grain sind aus. Verglichen habe ich 2160p Performance, 1872p Balanced, 1620p Quality und 1080p ohne DLSS. Alles läuft auf eine interne Auflösung von (annähernd) 1080p hinaus. Die Screenshots sind hier (https://imgur.com/a/yECCLDv) zu finden, bzw. hier (https://drive.google.com/drive/folders/1yXi6okOTkpNbo6rGVaOdLC5uXkupiWbO?usp=sharing) in Originalgroesse.
Zunächst mal stellt man fest, dass DLSS mit steigender Ausgabeauflösung durchaus etwas mehr Leistung braucht: Von 61 FPS in 1080p nativ geht es ueber 55 FPS und 51 FPS runter auf 50 FPS in 2160p. Es wäre interessant, ob die höhere Zielauflösung für den erhöhten Leistungsbedarf verantwortlich ist, oder ob sich die DLSS Presets durch mehr als den Faktor der Auflösungsskalierung unterscheiden.
Die Bildqualität ist in allen Einstellungen eine deutliche Verbesserung gegenüber dem nativen Rendering, die den Leistungsverlust mehr als rechtfertigt. Interessanterweise steigt die Qualität von 1620p Quality auf 1872p Balanced nochmals deutlich, und auch der Schritt auf 2160p Performance bringt nochmal was bei feinen Details, z.B. beim Geäst der Bäume.
Für mich selbst ist das Fazit aus meinem Experiment, die Auflösung auf 2160p einzustellen und dann ein DLSS Preset zu finden, bei dem die Performance passt. Ideal wäre es natürlich, wenn man den Faktor frei wählen könnte.

Tobalt
2021-02-13, 08:22:59
Danke für den tollen Vergleich !

Wie hast denn das scaling auf 1080p durchgeführt ? Falls mit DSR, dann kostet dies ja auch nochmal ein bisschen. Außerdem wirkt DLSS ja nur auf die 3d Szene. Alles in allem würde ich den Leistungsverlust auch als sehr gering einstufen. Gibt es noch Ultra Performance ? Wäre ja nochmal besser wenn man deiner Argumentation folgt.

Reaping_Ant
2021-02-13, 11:10:35
Wie hast denn das scaling auf 1080p durchgeführt ? Falls mit DSR, dann kostet dies ja auch nochmal ein bisschen. Außerdem wirkt DLSS ja nur auf die 3d Szene. Alles in allem würde ich den Leistungsverlust auch als sehr gering einstufen. Gibt es noch Ultra Performance ? Wäre ja nochmal besser wenn man deiner Argumentation folgt.
Vielleicht habe ich mich etwas missverstaendlich ausgedrueckt: Meine native Aufloesung ist 2160p, d.h. die niedrigeren Aufloesungen wurden vom Monitor hochskaliert. Hat auf die Screenshots natuerlich keinen Einfluss. Mein Ziel war es lediglich, dass in allen Szenarien die selbe interne Renderaufloesung zum Einsatz kommt. Der Hintergedanke ist, dass oft 2160p nativ vs. 2160p mit DLSS verglichen werden, um dann zu sagen letzteres ist xx% schneller. Wenn die Leistung fuer 2160p nativ nicht reicht, bringt mir diese Information aber nicht so viel.
Ich wollte das von der anderen Seite her aufrollen, d.h. nehmen wir mal an, ich habe trotz 4K Monitor nur genug Leistung fuer 1080p, was in Cyberpunk mit Raytracing durchaus realistisch ist. Wieviel bringt mir DLSS (mit 1080p als interner Aufloesug) dann an Bildqualitaet und was kostet es?
Ich kann natuerlich gerne noch Ultra Performance in 3240p nachliefern; dafuer muss ich aber dann wie Du schon sagst, DSR nutzen.

basix
2021-02-13, 11:17:33
Was man an deinen Screenshots aber gut sieht: DLSS in CP2077 macht das Bild und vor allem die Texturen unscharf. 1080p nativ sieht schärfer aus. Da muss man mit Reshade nachhelfen.

robbitop
2021-02-13, 11:23:19
Oder besser das Textur LOD runterstellen. Das hat CDPR wohl vergessen. Das ist korrekter und sollte zu besseren optischen Ergebnissen führen als einfach nur einen Schärfefilter auf den Screenspace anzuwenden.

robbitop
2021-02-13, 12:10:54
Wo liegt jetzt das Problem, diesen ein- bis dreiminütigen Versuch durchzuführen?
Sorry für die starke Verzögerung.

1440p, max details, hairworks aus, Pascal GP102

LOD=0,0 -> 100 fps
LOD=-0,5 -> 99 fps
LOD=-1,0 -> 96 fps (default)
LOD=-1,5 -> 91 fps

Geforce 1080ti @1980/6000
4790K @4,5 GHz DDR2400 alle Timings optimiert
Windows 10

Pascal verliert offenbar nur ~5,2 % bei -1,0 -> -1,5.
Aber es kann natürlich sein, dass ich nicht im GPU Limit war. Soll ich es auf 4K nochmal nachmessen?

Dampf
2021-02-13, 13:45:37
Was man an deinen Screenshots aber gut sieht: DLSS in CP2077 macht das Bild und vor allem die Texturen unscharf. 1080p nativ sieht schärfer aus. Da muss man mit Reshade nachhelfen.

Das ist so nicht richtig formuliert.

Richtig sollte heißen, TAA macht das Bild scharf. TAA hat starkes integriertes Sharpening aktiviert, während DLSS Sharpening inaktiv ist.

x-force
2021-02-13, 15:02:28
TAA hat starkes integriertes Sharpening aktiviert, während DLSS Sharpening inaktiv ist.

ist die frage, ob man dafür überhaupt ein auge hat, wenn man auf reshape steht. :wink:

bei korrektem filter ist idr schlicht die auflösung für entfernte objekte zu niedrig und durch nachschärfen ensteht ein unnatürlicher bildeindruck, den man nur sinnvoll durch überabtastung vermeiden kann.

aufkrawall
2021-02-13, 15:13:37
Es ist nicht "natürlich", wenn Blur den Eindruck räumlicher Tiefe kaputt macht.

Dampf
2021-02-13, 15:35:16
bei korrektem filter ist idr schlicht die auflösung für entfernte objekte zu niedrig und durch nachschärfen ensteht ein unnatürlicher bildeindruck, den man nur sinnvoll durch überabtastung vermeiden kann.

Nein das ist eben bei DLSS nicht so. Dort wird das Bild rekonstruiert, besonders entferne Objekte haben mehr Details. DLSS ist eben nicht nur ein Upscaling Filter.

Wie gesagt scheint DLSS in Cyberpunk nur unscharf zu sein, weil es mit TAA verglichen wird, das in diesem Spiel stark nachgeschärft wird.

Das ist DLSS Performance+ CAS Sharpening auf ungefähr dem Niveau der TAA-Schärfe.

https://imgsli.com/MzM5MjA

Man sieht, dass die Details besser sind. Die Nummer unter dem linken Bremslicht ist deutlich besser zu erkennen. Man sieht auch dass die Bildschärfe absolut identisch ist.

Ich bin es langsam leid, das immer wieder erklären zu müssen. Auf Seite 1 kann sich jeder informieren. Und ich bin es auch leid, dass Nvidia nur auf ihren Sesseln hockt und CDPR nicht mal Druck macht, das DLSS Sharpening zu aktivieren und/ oder TAA Sharpening zu reduzieren. Hat die PR Abteilung da eigentlich Scheuklappen vor den Augen? Jetzt mal im Ernst. DLSS wird in Cyberpunk, dem wichtigsten RTX TItel, ständig angehängt es würde unscharf im Vergleich zu nativer Auflösung. Dass das aber nicht an DLSS sondern an unterschiedlich eingestelltem Sharpening liegt, das weiß der Mainstream natürlich nicht. Folglich wird er denken, DLSS wäre immer unscharf = Der gute Ruf von DLSS wird beschmutzt. Und das lässt Nvidia einfach durchgehen, ist mir unbegreiflich

x-force
2021-02-13, 15:36:08
Es ist nicht "natürlich", wenn Blur den Eindruck räumlicher Tiefe kaputt macht.

darum stellt man sachen wie (motion)blur, dof und bloom als erstes aus.

basix
2021-02-13, 15:55:19
ist die frage, ob man dafür überhaupt ein auge hat, wenn man auf reshape steht. :wink:

bei korrektem filter ist idr schlicht die auflösung für entfernte objekte zu niedrig und durch nachschärfen ensteht ein unnatürlicher bildeindruck, den man nur sinnvoll durch überabtastung vermeiden kann.

Ich brauche Reshade eigentlich nie. Vor langer Zeit mal mit den verschiedenen Optionen bei TW3 rumgespielt. Aber bei CP2077 hat mich die Unschärfe gewaltig gestört. Da gehen so viele Details verloren, welche eigentlich ja da sind. Ob das nun TAA, DLSS oder Reshade Sharpening ist, ist mir eigentlich egal. Wenn negatives LOD hilft ist das auch OK. Nur sollte eigentlich der Spieleentwickler auf solche Dinge achten, immerhin betrifft es die Qualität des Produkts. Ich sehe es nicht als meine Aufgabe an, die Bilddarstellung zu flicken.

Beim Nachschärfen besteht immer eine Gratwanderung zwischen besserer Bildqualität und Überschärfung. Ich lasse lieber etwas Schärfe weg und lebe mit einem kleinen Tick Unschärfe, denn Überschärfung ist wirklich nicht toll und lässt das Bild künstlich und nicht mehr plastisch wirken. Bei CP2077 ist etwas nachhelfen mit CAS via Reshade einfach Gold Wert, vor allem in Verbindung mit DLSS und <4K Ausgabeauflösung.

Bewegungsunschärfe etc. schalte ich eh immer aus. Einzig DoF auf niedrigster Stufe trägt bei manchen Spielen etwas zum Look and Feel bei.

aufkrawall
2021-02-13, 16:11:44
Ob das nun TAA, DLSS oder Reshade Sharpening ist, ist mir eigentlich egal. Wenn negatives LOD hilft ist das auch OK.

Negatives LOD-Bias hilft natürlich gegen die Vernichtung von Texturdetails (bzw. könnte bei richtig gutem [DL-]TSSAA + temporalem Upscaling sogar deutlich mehr Details erlauben als eine höhere native Auflösung ohne negatives LOD-Bias). Allerdings liegt der TAA-Blur zusätzlich auch noch über dem ganzen Bild und verringert entsprechend den lokalen Kontrast zwischen Objekten, wofür es dann wieder auch noch etwas Sharpen braucht. Alte Spiele ohne dafür problematisches PP haben ja schließlich auch mit 8xSGSSAA keine komisch verblurte Optik.

Um es noch etwas zu veranschaulichen:
LOD Bias 0 vs. -1,5 (+ eher geringfügiges CAS via vkbasalt in beiden Fällen):
https://abload.de/thumb/screenshot_20210122_16njmr.png (https://abload.de/image.php?img=screenshot_20210122_16njmr.png) https://abload.de/thumb/screenshot_20210122_1zmk6k.png (https://abload.de/image.php?img=screenshot_20210122_1zmk6k.png)

Ignorieren wir mal die Bodentextur mit POM, die springt auch komisch auf forciertes AF an (ist daher nur app-gesteuert).
Die Detailgewinn an den Hausfassaden und der Vegetation ist einfach nur gigantisch und es flimmert mit dem guten TAA in Bewegung quasi kaum mehr als mit 0 (gibt aber in anderen Leveln teilweise Shimmering von Specular Highlights, die sollte man wenn möglich ausnehmen können). Was da an Potential brach liegt. :eek:

x-force
2021-02-13, 16:26:16
Um es noch etwas zu veranschaulichen:
LOD Bias 0 vs. -1,5 (+ eher geringfügiges CAS via vkbasalt in beiden Fällen):
https://abload.de/thumb/screenshot_20210122_16njmr.png (https://abload.de/image.php?img=screenshot_20210122_16njmr.png) https://abload.de/thumb/screenshot_20210122_1zmk6k.png (https://abload.de/image.php?img=screenshot_20210122_1zmk6k.png)



imo passt das nicht. die hauswand und wand an der großen treppe rechts sind im vergleich zu anderen objekten, die sich näher befinden, wie z.b. die großen blumentöpfe der bäume, zu scharf

links das rote einfahrt/durchfahrt verboten schild zeigt am weißen rand auch schöne artefakte von überschärfung.

schwer zu glauben, daß das in bewegung ruhig sein soll.
fast alle zusätzlichen details an der mauer wirken auf mich wie flimmer kandidaten.

aufkrawall
2021-02-13, 16:29:02
Die Texturen sind einfach nicht gleich gut (wo nichts ist, kann das Bias auch nichts rausholen) und nein, da flimmert durch die hohe temporale Stabilität des TAAs quasi nichts...

robbitop
2021-02-13, 17:05:42
Bei SGSSAA brauchte es damals übrigens auch negatives LOD, damit die Texturschärfe passte. Bei OGSSAA ist das nicht der Fall.

vinacis_vivids
2021-02-13, 17:57:36
Für mich selbst ist das Fazit aus meinem Experiment, die Auflösung auf 2160p einzustellen und dann ein DLSS Preset zu finden, bei dem die Performance passt. Ideal wäre es natürlich, wenn man den Faktor frei wählen könnte.

Ich hab mir jetzt mal deine DLSS Bilder angeschaut, weil ich auch 2160p als native Auflösung habe:
Ich muss sagen, dass die Unschärfe über das gesamte DLSS-Performance 2160p Bild mich wenig begeistert. Das ist so als würde mit meinen Augen was nicht i.O sein und die entfernten Objekte unscharft werden.
Sozusagen eingebaute Kurzsichtigkeit :down:

Dampf
2021-02-13, 18:47:45
Ich hab mir jetzt mal deine DLSS Bilder angeschaut, weil ich auch 2160p als native Auflösung habe:
Ich muss sagen, dass die Unschärfe über das gesamte DLSS-Performance 2160p Bild mich wenig begeistert. Das ist so als würde mit meinen Augen was nicht i.O sein und die entfernten Objekte unscharft werden.
Sozusagen eingebaute Kurzsichtigkeit :down:

Meine Güte wie oft soll ichs denn noch schreiben!!!!!!!!!!

TAA HAT EINEN STARKEN SCHÄRFEFILTER AKTIV, DLSS NICHT. DIE BILDSCHÄRFE IN DEM TITEL ZU VERGLEICHEN IST ABSOLUT SINNFREI

DrFreaK666
2021-02-13, 21:18:19
Wenn das Bild mit DLSS unschärfer ist als natives 4k, dann ist der Vergleich nicht sinnfrei

Zerozerp
2021-02-14, 10:11:59
@DaFreak666
Du hast die Aussage von Dampf nicht verstanden.

Sobald sich die Schärfe der Texturen bei der DLSS Implementation vom nativen Bild unterscheidet, hat der Entwickler den Leitfaden für die Integration von NVIDIA nicht beachtet.

Der vergleich ist insofern Sinnfrei, als dass man dann "natives" 4K gegen ein fehlhaft und nicht vollständig integriertes DLSS stellt. Was soll dabei dann schon rumkommen?

Sehr interessant ist doch aber auch im Augenblick eher, dass NVIDIA ein Standalone- Plugin für die UE4 entwickelt hat, was die Technik näher an eine Universalnutzung bei allen Titeln, die eine TAA Variante zur Kantenglättung bieten, bringen kann. Und das ohne Anmeldung oder sonstigen Klimmzügen, einfach nur durch die Aktivierung eines Plugins.
Ein entscheidender, weiterer Schritt zu einer breitbandigen Nutzung.