Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3
Savay
2020-10-19, 12:52:26
Dafür hat der TV zugriff auf "unendlich" viele Frames nach vorne (da die Bilder ja vorberechnet sind). Diese Bilder fehlen logischerweise bei Echtzeit-Gaming.
Hat er aber eigentlich auch nicht.
Höchstens wenn der Stream komplett vorliegt über NAS/USB/HDD o.ä. ginge es anders, aber das beißt sich mit anderen Zuspielverfahren.
Ansonsten ist kommt ja auch ein synchronisierter Bitstream an, vor allem über HDMI und Online.
Ein TV hat halt nur den Luxus eine beliebige Anzahl an Frames bis hoch in den Sekundenbereich puffern und die dann auswerten zu können, da die Eingabelatenz eine äußerst untergeordnete Rolle spielt. Wenn er das macht kann er natürlich auch in die "Zukunft" auswerten, aber eher nicht unendlich.
Bei Echtzeitgrafik ist das natürlich sowieso absolut kontraproduktiv...deswegen auch der aufriss mit dem ALLM für HDMI 2.1
pixeljetstream
2020-10-19, 12:59:53
Hat er aber eigentlich auch nicht.
Höchstens wenn der Stream komplett vorliegt über NAS/USB/HDD o.ä. ginge es anders, aber das beißt sich mit anderen Zuspielverfahren.
Ansonsten ist kommt ja auch ein synchronisierter Bitstream an, vor allem über HDMI und Online.
Ein TV hat halt nur den Luxus eine beliebige Anzahl an Frames bis hoch in den Sekundenbereich puffern und die dann auswerten zu können, da die Eingabelatenz eine äußerst untergeordnete Rolle spielt. Wenn er das macht kann er natürlich auch in die "Zukunft" auswerten, aber eher nicht unendlich.
Bei Echtzeitgrafik ist das natürlich sowieso absolut kontraproduktiv...deswegen auch der aufriss mit dem ALLM für HDMI 2.1
Unendlich Bilder ist übertrieben aber durch zusätzliches Puffern der "zukünftigen" Bilder eines streams (Verzögerung der Darstellung) ist das schon ne andere Situation. Das kostet zuviel Latenz beim gaming
aufkrawall
2020-10-19, 13:15:10
Wie funktioniert das eigentlich bei Ampere, wenn die TCs gleichzeitig arbeiten? Die können doch auch nur damit arbeiten, womit die GPU vorher schon fertig war?
y33H@
2020-10-19, 16:03:56
Ja, vorheriger Frame.
Rooter
2020-10-19, 16:48:34
Die Motion Vektoren können mittels optischem Fluss berechnet werden, dies ist aber nicht so genau wie die wirklichen Motion Vektoren.Du musst nichts berechnen, fast jede Videokompression arbeitet mit Bewegungsvektoren. Die müsste man ja nach dem Dekodieren des Bilds nicht wegwerfen sondern könnte sie an den Upscaler weitergeben.
Dass auf einer GPU weitere Informationen vorhanden sind, die ein besseres Ergebnis bringen, ist natürlich klar.
MfG
Rooter
Du musst nichts berechnen, fast jede Videokompression arbeitet mit Bewegungsvektoren. Die müsste man ja nach dem Dekodieren des Bilds nicht wegwerfen sondern könnte sie an den Upscaler weitergeben.
Dazu hat mal der Entwickler von x264 gesagt, dass das naiv ziemlich in die Hose geht. Die Bewegungsvektoren, die ein Videoencoder erzeugt, sind halt auf möglichst kleine Kompression ausgelegt und nicht auf z.B. temporale Stabilität. Oder auch nicht, ob die Vektoren "sinnvoll" sind. Da ist ganz einfach die minimale Summe der Differenzen das Kriterium.
Geldmann3
2020-10-19, 17:16:28
Du musst nichts berechnen, fast jede Videokompression arbeitet mit Bewegungsvektoren. Die müsste man ja nach dem Dekodieren des Bilds nicht wegwerfen sondern könnte sie an den Upscaler weitergeben.
Dass auf einer GPU weitere Informationen vorhanden sind, die ein besseres Ergebnis bringen, ist natürlich klar.
MfG
Rooter
Ein HDMI/DP Signal ist in der Regel nicht komprimiert, es trifft also nur auf verlustbehaftete Videostreams zu.
Armaq
2020-10-19, 17:39:10
Ja, vorheriger Frame.
Also habe ich die klassische GPU für das Rendering und danach kommt die GPU für Upscaling des Contents. Weiss man wieviel Strom welcher Teil vom Chip zieht?
aufkrawall
2020-10-19, 17:50:47
Ja, vorheriger Frame.
Also einen ganzen Frame zusätzliche Edit: Ausgabe-Latenz? Das wär aber blöd. :freak:
Rooter
2020-10-19, 17:54:36
Ein HDMI/DP Signal ist in der Regel nicht komprimiert, es trifft also nur auf verlustbehaftete Videostreams zu.
Das stimmt natürlich. Ich ging jetzt von TV oder Streaming aus.
MfG
Rooter
Die Motion Vektoren können mittels optischem Fluss berechnet werden, dies ist aber nicht so genau wie die wirklichen Motion Vektoren.
Ausserdem unterscheiden sie sich dahingehend, dass die optischen Fluss Vektoren die Bewegung zwischen zwei frames wiederspiegeln, die Motion Vektoren der Spiele aber die Bewegung vom letzten Frame zum aktuellen.
Dafür hat der TV zugriff auf "unendlich" viele Frames nach vorne (da die Bilder ja vorberechnet sind). Diese Bilder fehlen logischerweise bei Echtzeit-Gaming.
Man kann also sehen, das es zwar verwandte Probleme sind, die Vorraussetzungen aber unterschiedlich sind. Daher wird man nicht einfach den Algorithmus übernehmen können.
Wobei ich mir vorstellen kann das es am Prinzip nicht so viel Ändert wie man das Neuronale Netz aufbaut und trainiert?
pixeljetstream
2020-10-19, 22:58:15
Also habe ich die klassische GPU für das Rendering und danach kommt die GPU für Upscaling des Contents. Weiss man wieviel Strom welcher Teil vom Chip zieht?
Es gibt keine so harten Linien. Das wird dynamisch über load balancing geregelt so dass möglichst keine harten Grenzen entstehen.
pixeljetstream
2020-10-19, 23:02:41
Wie funktioniert das eigentlich bei Ampere, wenn die TCs gleichzeitig arbeiten? Die können doch auch nur damit arbeiten, womit die GPU vorher schon fertig war?
Wie jeder andere Post processing filter halt auch...
DrFreaK666
2020-10-20, 12:46:37
Wurde das hier schon erwähnt??
OzHenjHBBds
Geldmann3
2020-10-20, 21:53:13
Wurde das hier schon erwähnt??
https://youtu.be/OzHenjHBBds
Ja zuerst hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12456777#post12456777), dann hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12458125#post12458125).
dildo4u
2020-10-26, 17:18:00
DLSS in Watch Dogs Legion.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12473993&postcount=102
Dampf
2020-10-26, 18:55:59
DLSS in Watch Dogs Legion.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12473993&postcount=102
Ein erster Vergleich, der zwar hanebüchen ist, da komprimiertes YouTube Video, aber einige Experten scheint das ja nicht zu stören
4K nativ
https://i.imgur.com/UxCWtK9.jpg
DLSS Performance (auf die anderen Modes hab ich jetzt kein Bock)
https://i.imgur.com/yks1YKA.jpg
Die Performance von DLSS sollte eigentlich die Standard Performance in dem Game sein. Aber hey, da konnte sich Ubisoft dank DLSS wohl ausruhen!
Was mir auffällt, die Kantenglättung scheint besser zu sein bei DLSS. Grüße gehen raus an meinen Freund Dargo!
4K Nativ
https://i.imgur.com/xDMKc4s.png
DLSS Perf
https://i.imgur.com/3800sXh.png
Slipknot79
2020-10-26, 19:37:29
DLSS "performance" verwischt wohl das Bild. Würde ich so nicht spielen. :mad:
Aber alles qool, wird sicher auch DLSS "high" geben.(y)
Dampf
2020-10-26, 20:04:13
DLSS "performance" verwischt wohl das Bild. Würde ich so nicht spielen. :mad:
Aber alles qool, wird sicher auch DLSS "high" geben.(y)
Naja, da würd ich vorsichtig sein, bedenke das sind zwei unterschiedliche Frames von einem YouTube Video. Und ja natürlich gibt es auch wieder Balanced und Quality die in Sachen Bildqualität nochmals einen draufsetzen.
Aber selbst wenn man mal YouTube Kompression ignoriert, sieht das doch gut aus? Etwas bessere Kantenglättung, ein kleinen Ticken unschärfer und dafür deutlich mehr FPS hört sich doch nach nem guten Deal an. DLSS sollte irgendwann auch mal ein Sharpening Slider bekommen...!
Gouvernator
2020-10-26, 20:28:30
Ich teste gerade Marvel Avengers in 8k DLSS. Also Ultra Performance sieht extrem Scheiße aus. Man sieht z.B. so gut wie kein Wasser mehr. Ich will jetzt rausfinden bei welchem Mode man überhaupt noch das Spiel sieht wie man es sehen sollte.
Gouvernator
2020-10-26, 20:53:32
Gerade in 8K macht DLSS egal welche Stufe überhaupt kein Sinn weil alles unscharf. Alles unter Quality macht zudem auch noch die 3D Grafik kaputt. Anstatt Wasser sieht man nur noch irgendwas weißes unscharfes.
https://drive.google.com/file/d/16lVR_DAEsaVscnwa5_KPuUsaUO5RCzXL/view?usp=sharing
Und hier der kompletter Vergleich.
https://drive.google.com/drive/folders/1uQANmgQl0R56A4b3rjNKUZoR8WOMGmBn?usp=sharing
dargo
2020-10-26, 21:18:04
Was ist das denn? :| Das kann eigentlich nur ein Bug sein.
Dampf
2020-10-26, 21:21:54
Naja DLSS bei 8K konnte bisher nicht überzeugen.
Mal sehen obs mit Watch Dogs besser wird.
Gouvernator
2020-10-26, 21:37:15
Was ist das denn? :| Das kann eigentlich nur ein Bug sein.
Das ist wenn man DLSS mit DSR kombiniert. Oder nur in 4K. In nativ 8K sieht es bei Weitem nicht so schlimm aus.
Gebrechlichkeit
2020-10-26, 22:06:07
Watch Dogs Legion (https://www.youtube.com/watch?v=fH5dfOna6ak)
ULTRA 4K nativ + RT ULTRA
23fps (RTX3090 ohne DLSS)
€1,500+ WTF? k.A warum WDL so extrem viel Power verschlingt, bei der Grafik. Da flimmerts, LOD pop in usw. Ubisoft?
https://i.postimg.cc/JGgWNG6k/image.jpg (https://postimg.cc/JGgWNG6k)
nWogai4XFG8
Troyan
2020-10-26, 22:14:57
Was mir auffällt, die Kantenglättung scheint besser zu sein bei DLSS. Grüße gehen raus an meinen Freund Dargo!
4K Nativ
https://i.imgur.com/xDMKc4s.png
DLSS Perf
https://i.imgur.com/3800sXh.png
Liegt daran, dass TAA als Post-Processing meisten nicht richtig erfasst wird. DLSS erzeugt ein komplett neues Bild basierend auf vorigen Frames, TAA benutzt Bildinformationen aus vorigen Frames - daher auch Ghosting, Unschärfe etc.
basix
2020-10-26, 22:52:30
Liegt daran, dass TAA als Post-Processing meisten nicht richtig erfasst wird. DLSS erzeugt ein komplett neues Bild basierend auf vorigen Frames, TAA benutzt Bildinformationen aus vorigen Frames - daher auch Ghosting, Unschärfe etc.
Auch DLSS erzeugt Unschärfe (bei sinkender Grundauflösung oder schnellen Bildwechseln) und Ghosting bei fehlerhafter Implementierung (siehe Death Streanding Partikel-Schlieren). DLSS hat aufgrund der temporalen Komponente die gleichen Grundprobleme wie TAA. DLSS halt mit besserer Performance bei oftmals höherer Bildschärfe (vor allem bei niedriger werdenden Output-Auflösungen), da die Abtast-Samples fürs AA und Upsampling via DNN "intelligent" gewählt werden. DLSS ist aber nicht komplett fehlerfrei. Und die Aussage "komplett neues Bild" ist mMn auch nicht ganz richtig. Komplett neu und basierend auf vorherigen Frames beisst sich mit Logik, neues aus altem ist nicht "komplett neu" ;)
Geldmann3
2020-10-27, 00:39:29
Gerade in 8K macht DLSS egal welche Stufe überhaupt kein Sinn weil alles unscharf. Alles unter Quality macht zudem auch noch die 3D Grafik kaputt. Anstatt Wasser sieht man nur noch irgendwas weißes unscharfes.
https://drive.google.com/file/d/16lVR_DAEsaVscnwa5_KPuUsaUO5RCzXL/view?usp=sharing
Und hier der kompletter Vergleich.
https://drive.google.com/drive/folders/1uQANmgQl0R56A4b3rjNKUZoR8WOMGmBn?usp=sharing
Das mit dem Wasser liegt einfach daran, dass es für unvorhersehbare Bewegungen im Bild sorgt, wofür unmöglich Motion-Vektoren generiert werden können.
Im Optimalfall würde man für solche Stellen im Bild ein Fallback mit normaler Kantenglättung einbauen.
DLSS ist eben keine Magie ohne Nachteile, die alle Probleme löst.
Aber sonst, finde ich, sieht das Bild für die interne Auflösung doch echt nice aus...
Ja, alles was mit transparenzen zu tun hat ist für DLSS halt einfach problematisch. Es gibt ja nicht den einen "richtigen" Bewegungsvektor.
Das Problem hat man aber genauso mit TAA. Grundsätzlich existiert das Problem immer dann, wenn hinter einem Pixel mehr als nur ein Objekt befindet. Und das passiert häufiger als man denkt. Zum Beispiel bei cinematischem DoF oder cinematischem Motionblur, und eben vorallem bei Transparenzen.
Die Frage die sich dabei nämlich stellt ist folgende: Nimmt man den Bewegungsvektor vom Wasser oder dem dahinterliegenden Boden? Oder vielleicht doch der Bewegungsvektor von irgend einem Teilchen dazwischen?
Je nachdem welcher Bewegungsvektor implementiert ist (Spiel abhängig) sieht das ergebnis natürlich unterschiedlich/schlecht aus.
Das kann man jetzt natürlich proprietär für jede Spiel irgendwie hinhacken das es bestmöglich aussieht. Aber das grundsätzliche Problem bleibt, dass hinter jedem Pixel eigentlich nicht ein einzelner Bewegungsvektor sondern eine Verteilung von Bewegungsvektoren liegen müsste.
crux2005
2020-10-27, 08:02:14
Warthunder bekommt DLSS: https://www.eurogamer.de/articles/news-war-thunder-neue-engine-ps5-xbox-series-x-4k-60fps
basix
2020-10-27, 08:12:16
Ja, alles was mit transparenzen zu tun hat ist für DLSS halt einfach problematisch. Es gibt ja nicht den einen "richtigen" Bewegungsvektor.
Das Problem hat man aber genauso mit TAA. Grundsätzlich existiert das Problem immer dann, wenn hinter einem Pixel mehr als nur ein Objekt befindet. Und das passiert häufiger als man denkt. Zum Beispiel bei cinematischem DoF oder cinematischem Motionblur, und eben vorallem bei Transparenzen.
Die Frage die sich dabei nämlich stellt ist folgende: Nimmt man den Bewegungsvektor vom Wasser oder dem dahinterliegenden Boden? Oder vielleicht doch der Bewegungsvektor von irgend einem Teilchen dazwischen?
Je nachdem welcher Bewegungsvektor implementiert ist (Spiel abhängig) sieht das ergebnis natürlich unterschiedlich/schlecht aus.
Das kann man jetzt natürlich proprietär für jede Spiel irgendwie hinhacken das es bestmöglich aussieht. Aber das grundsätzliche Problem bleibt, dass hinter jedem Pixel eigentlich nicht ein einzelner Bewegungsvektor sondern eine Verteilung von Bewegungsvektoren liegen müsste.
Interessant, habe ich mir bis jetzt noch gar nie überlegt. Beit Death Stranding schauen die Flüsse aber definitiv nicht so matschig aus und auch sonst wäre mir nichts dergleichen bekannt.
Geldmann3
2020-10-27, 08:26:39
Ja, alles was mit transparenzen zu tun hat ist für DLSS halt einfach problematisch. Es gibt ja nicht den einen "richtigen" Bewegungsvektor.
Das Problem hat man aber genauso mit TAA. Grundsätzlich existiert das Problem immer dann, wenn hinter einem Pixel mehr als nur ein Objekt befindet. Und das passiert häufiger als man denkt. Zum Beispiel bei cinematischem DoF oder cinematischem Motionblur, und eben vorallem bei Transparenzen.
Die Frage die sich dabei nämlich stellt ist folgende: Nimmt man den Bewegungsvektor vom Wasser oder dem dahinterliegenden Boden? Oder vielleicht doch der Bewegungsvektor von irgend einem Teilchen dazwischen?
Je nachdem welcher Bewegungsvektor implementiert ist (Spiel abhängig) sieht das ergebnis natürlich unterschiedlich/schlecht aus.
Das kann man jetzt natürlich proprietär für jede Spiel irgendwie hinhacken das es bestmöglich aussieht. Aber das grundsätzliche Problem bleibt, dass hinter jedem Pixel eigentlich nicht ein einzelner Bewegungsvektor sondern eine Verteilung von Bewegungsvektoren liegen müsste.
Deshalb empfiehlt Nvidia DLSS VOR dem Post Processing anzuwenden und Letzteres dann zum Schluss auf das bereits hochauflösende Bild zu applizieren. Was man auch mit dem Wasser hätte tun können. Doch daran hat in diesem Fall entweder keiner gedacht oder es wäre von der Entwicklungszeit her zu teuer gewesen. Man hätte die Renderpipeline wesentlich verkomplizieren müssen, ,,nur" für Nvidias DLSS, was noch immer auf den meisten GPUs nicht mal läuft. Hier hat man eben in Kauf genommen, dass DLSS in 99% aller Fälle gut aussieht, doch zu einem Prozent hast Du eben Stellen wie dieses Wasser.
Interessant, habe ich mir bis jetzt noch gar nie überlegt. Beit Death Stranding schauen die Flüsse aber definitiv nicht so matschig aus und auch sonst wäre mir nichts dergleichen bekannt.
In Death Stranding hast Du mit DLSS auch verschwommene Wasserfälle, nur sieht es lange nicht so schlimm aus wie hier, sondern eher, als ob man die Belichtungszeit der Kamera länger eingestellt hätte.
blaidd
2020-10-27, 12:45:44
Hab mich mit Billy Khan unterhalten (Lead Engine Programmer bei id Software). Ein Detail, das ich im Zusammenhang mit DLSS bzw. ML und Anti-Aliasing ganz interessant fande:
Deswegen ist maschinelles Lernen auch eines der Dinge, in die wir sehr stark investieren. Für den Verbraucher machen die Auflösungen wie 4k, 1440p und 1080p am meisten Sinn, denn das sind alles fantastische Auflösungen, die erstaunlich viele Details liefern. Worauf wir uns jetzt also konzentrieren wollen, ist sicherzustellen, dass die Pixel, die wir haben, so aussagekräftig wie möglich sind. Das bedeutet: eine bessere Beleuchtung, dass Pixel auf eine Art und Weise von einem Anti-Aliasing geglättet werden, die nicht stört und die Bildqualität nicht beeinträchtigt oder dass wir anfangen, mehr Zeit auf die Simulation von Materialien zu verwenden. Das machen wir also gerade, wir zerlegen diese komplexen Prozesse, um sie zugänglicher zu machen. Das ist ein riesiger Fokusbereich und auch der Grund, warum ML oder neuronale Netzwerke immer wichtiger werden. Wir haben damit schon mit unserer Anti-Aliasing-Lösung begonnen, aber ich kann die Secret Sauce jetzt hier nicht offenlegen.
EDIT: Das ganze Interview ist hier (https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Interview-mit-Lead-Engine-Programmer-Billy-Khan-1360708/)
robbitop
2020-10-27, 14:20:40
Das wundert mich nicht. Die id Leute (ex Crytek) sind in der Hinsicht sicherlich die Spitze der Industrie. Immerhin haben sie schon in Crysis 2 die ersten Erfahrungen mit inhouse Temporal AA gemacht und mit Crysis 3 dann einen ordentlichen Sprung hingelegt. Ryse legte noch einen oben drauf. Mit id Tech 6 und 7 kam immer ein Sprung dazu.
Tiago und Co sind in der Hinsicht schon immer relativ weit vorn gewesen. Die Erfahrung zeigt aber auch, dass andere Studios auch gut sind und dann Stück für Stück folgen. Das ist auf jeden Fall gut. ML AA sollte unabhängig vom IHV verfügbar sein.
aufkrawall
2020-10-27, 14:46:14
und mit Crysis 3 dann einen ordentlichen Sprung hingelegt. Ryse legte noch einen oben drauf.
Das TAA in beiden Spielen war schlecht vs. das der UE4, das Anfang 2013 mit der Infiltrator-Demo gezeigt wurde. ;)
dargo
2020-10-27, 15:14:18
Hab mich mit Billy Khan unterhalten (Lead Engine Programmer bei id Software). Ein Detail, das ich im Zusammenhang mit DLSS bzw. ML und Anti-Aliasing ganz interessant fande:
Sehr schön, bessere Anti-Aliasing-Lösungen für alle sind immer willkommen. =)
Dampf
2020-10-27, 15:35:50
Betonung liegt auf Anti Aliasing. Wird sicherlich keine Rekonstruktion wie DLSS, sondern einfach ein AA was TAA ersetzt.
aufkrawall
2020-10-27, 15:46:33
Wird sicherlich auch für die Upscaling-Qualität relevant sein, könnte also ca. aufs Gleiche hinauslaufen.
robbitop
2020-10-27, 16:36:12
Das TAA in beiden Spielen war schlecht vs. das der UE4, das Anfang 2013 mit der Infiltrator-Demo gezeigt wurde. ;)
Naja aber eine Demo ist eben kein Spiel. Da kann man ordentlich die Parameter tunen (Schärfe vs Ghosting), da der Content limitiert ist.
Für 2013 war TAA schon ganz gut. Gemessen an dem was heute geht blieb natürlich einiges zu Wünschen übrig.
Und wie gesagt hat man mit Crysis 2 schon 2011 die ersten Gehversuche gemacht. Klar das Ergebnis ist eher meh - aber respektabel ist es schon.
Betonung liegt auf Anti Aliasing. Wird sicherlich keine Rekonstruktion wie DLSS, sondern einfach ein AA was TAA ersetzt.
Das Grundprinzip ist das gleiche. Man nimmt die temporalen Samples um mehr Informationsgehalt pro Bild zu haben. Entweder verrechnet man die in einem Pixel - das ist dann temporales Super Sampling - oder man nimmt diese direkt um neue Pixel zu füllen. Upsampling.
Betonung liegt auf Anti Aliasing. Wird sicherlich keine Rekonstruktion wie DLSS, sondern einfach ein AA was TAA ersetzt.
TAA ist eine Form von Rekonstruktion.
Die Grundprinzipien von TAA und DLSS unterscheiden sich kaum.
Der einzige, und wirklich große, Unterschied ist, dass sich TAA auf Heuristiken verlässt wann es temporale Informationen verwerfen muss, weil diese Artefakte erzeugen würden. Und da Artefakte wesentlich störender als Unschärfe sind, muss es dabei sehr konservativ vorgehen und im Zweifelsfall besser Informationen verwerfen.
DLSS ersetzt die Heuristiken durch das neuronale Netzwerk, was offensichtlich zu wesentlich besseren Ergebnissen führt, da es damit viel feingranularer und effektiv viel mehr vorhandene Informationen auch verwenden kann.
TAA ist schon eine Form der Rekonstruktion. Normalerweise braucht es für AA mehrere Samples pro Pixel und Frame. TAA reduziert das bereits auf 1 Sample pro Pixel und Frame.
Bei DLSS ist das neuronale Netzwerk den Heuristiken aber dermaßen überlegen, dass man selbst mit wesentlich weniger als 1 Sample pro Pixel und Frame auskommt und immer noch ein sehr gutes, ja sogar ein besseres Ergebnis erzielt.
robbitop
2020-10-28, 09:41:52
:up: besser kann man es nicht ausdrücken. Wenn ich immer Dinge lese, dass sich das NN Informationen ausdenkt oder es simples Upsampling sein soll, denke ich, dass viele einfach nicht richtig informiert sind.
Das nächste Ziel ist es IMO, dass alle GPUs so etwas als Option anbieten.
Weiterhin nehme ich an, dass die gelegentlichen Artefakte sicherlich zukünftig abnehmen werden, wenn die Spieleengines und der Content ein wenig mehr auf ML AA ausgelegt werden und es auch entsprechend validiert wurde. Einfach ein paar Jahre abwarten.
DLSS 2.0 wurde bisher wahrscheinlich in jedem Spiel nachgerüstet, da es noch relativ frisch ist und die Spieleentwicklung ja einige Jahre dauert. Auch war die Marktdurchdringung ja noch recht gering. Sobald es vergleichbare Ansätze für alle GPUs gibt und die Entwickler etwas mehr Erfahrung haben, wird es sicherlich immer besser werden.
Man kann darauf ja bereits schließen, wenn man sich die doch relativ große Streuung der Ergebnisse in den derzeitigen Titeln anschaut.
Lawmachine79
2020-10-28, 11:42:42
Hat jemand einen guten "populärwissenschaftlichen" Artikel über DLSS, der über das, was Gamingseiten schreiben, hinausgeht, der aber auch ohne eine Promotion in Informatik lesbar ist? Ist für meine Arbeit interessant (nein, habe da keinen Fall ;) - aber man will ja auf dem Laufenden sein). Insbesondere wäre es interessant, wenn das Buzzword "neuronales Netzwerk" und wieso und wie es in DLSS integriert ist erläutert wird.
Troyan
2020-10-28, 11:44:48
Direkt von nVidia: https://www.youtube.com/watch?v=d5knHzv0IQE
Rooter
2020-10-28, 18:15:58
Das nächste Ziel ist es IMO, dass alle GPUs so etwas als Option anbieten.Ja, und dann braucht es eine generelle API, die Spielehersteller unabhängig von der Hardware in ihr Spiele einbauen können. Aber ich fürchte, das wird nicht passieren. :(
MfG
Rooter
Dampf
2020-10-28, 18:33:06
Ja, und dann braucht es eine generelle API, die Spielehersteller unabhängig von der Hardware in ihr Spiele einbauen können. Aber ich fürchte, das wird nicht passieren. :(
MfG
Rooter
DirectML.
Rooter
2020-10-28, 18:54:52
DirectML.Und damit kann man Spielen DLSS beibringen? :| Ich dachte es geht darum, dass das Spiel Bewegungsvektoren etc. an den Treiber weitergibt, der dann den KI-Part übernimmt!?
Und: DirectML hat keinen Eintrag in der Deutschen oder Englischen Wikipedia. Daran erkenne ich, wie unbedeutend das noch ist. ;)
MfG
Rooter
Geldmann3
2020-10-29, 10:23:55
Direct ML hat etwa so viel mit DLSS zu tun wie Direct 3D mit der Unreal Engine. :rolleyes:
Dampf
2020-10-29, 10:27:24
Ich sagte, dass DirectML eine generelle, unabhängige API für machine learning in Spielen ist, die für sowas wie DLSS genutzt werden kann, was ja auch jetzt mit Super Resolution passiert...
Savay
2020-10-29, 10:30:58
Ich dachte es geht darum, dass das Spiel Bewegungsvektoren etc. an den Treiber weitergibt, der dann den KI-Part übernimmt!?
Was meinst du denn wie der DLSS Blob im Treiber an die Vektoren etc. kommt?
Und: DirectML hat keinen Eintrag in der Deutschen oder Englischen Wikipedia. Daran erkenne ich, wie unbedeutend das noch ist. ;)
Wieso unbedeutend? Das ist einfach eine recht neue API. (Kam mit 1904 afair) Zudem eh nicht auf Spiele beschränkt. (das ist wohl eher ein Sekundärer nutzen!)
DxO benutzt das unter Windows bspw. schon für einen DNN basierten All-in-One Demosaicer und Denoiser, der auch absolut hervorragend funktioniert. (mit entsprechender HW)
Da die neuen XBoxen damit auch umgehen können ist es eh nur eine frage der Zeit, bis es auch in Spielen für bestimmte Effekte genutzt wird.
robbitop
2020-10-29, 12:50:53
Die API ist bei weitem nicht der Bottleneck. Das Know How und R&D um das benötigte neuronale Netzwerk und die Implementierung in der 3D Applikation und entsprechende Tools - das ist die eigentliche Hürde daran.
Dampf
2020-10-29, 15:36:49
Ich frage mich, warum können RT Reflektionen nicht auch von DLSS rekonstruiert werden? In Spielen wie Watch Dogs oder Fortnite ist es ja offensichtlich, dass die Auflösung der Reflektionen mit DLSS massiv reduziert werden. Sollte es nicht theoretisch möglich sein, die Bildqualität dieser mithilfe von DLSS ebenso zu erhöhen wie das restliche Bild?
Geldmann3
2020-10-29, 15:51:21
Ich frage mich, warum können RT Reflektionen nicht auch von DLSS rekonstruiert werden? In Spielen wie Watch Dogs oder Fortnite ist es ja offensichtlich, dass die Auflösung der Reflektionen mit DLSS massiv reduziert werden. Sollte es nicht theoretisch möglich sein, die Bildqualität dieser mithilfe von DLSS ebenso zu erhöhen wie das restliche Bild?
DLSS braucht Bewegungsvektoren, die Du bei Reflektionen aber nicht hast, bzw. Du hättest theoretisch unterschiedliche Bewegungsvektoren für die selben Pixel.
Außerdem werden die Tensor-Cores bei Reflektionen im Optimalfall bereits zum Denoising verwendet, was ja einen sehr ähnlichen Effekt wie DLSS hat.
Du sammelst Samples über mehrere Pixel, in diesem Fall die Intersects der Rays, und ,,errätst" den Rest.
Man könnte sowiet gehen und sagen,
AI-Denoising ist in Raytracing das, was DLSS im klassischen Rasterizing ist.
Ich denke auch, erst durch das AI-Denoising kam man auf die Idee etwas ähnliches mit DLSS für klassisches Rasterizing oder Hybriden zu machen.
In einer perfekten Welt, in der wir genügend Rohleistung haben, wird der Rasterisation-Part komplett gestrichen und alles geraytraced.
Dann braucht man auch kein DLSS mehr, sondern nur noch das AI-Denoising.
Wahrscheinlich warten wir darauf allerdings noch viele Jahre.
Rooter
2020-10-29, 19:17:31
Was meinst du denn wie der DLSS Blob im Treiber an die Vektoren etc. kommt?Über eine Nvidia-eigene Schnittstelle!?
MfG
Rooter
pixeljetstream
2020-10-29, 20:22:46
Ich frage mich, warum können RT Reflektionen nicht auch von DLSS rekonstruiert werden? In Spielen wie Watch Dogs oder Fortnite ist es ja offensichtlich, dass die Auflösung der Reflektionen mit DLSS massiv reduziert werden. Sollte es nicht theoretisch möglich sein, die Bildqualität dieser mithilfe von DLSS ebenso zu erhöhen wie das restliche Bild?
ich glaub es sind noch ein paar Versionsnummern frei ;)
wie Geldmann3 sagt, die Forschung steht da nicht still in den naechsten Jahren
Geldmann3
2020-10-29, 21:59:00
Ich würde mir in Zukunft transparentere Optionen in den Ingame-Menüs wünschen. Beispielsweise den Teiler der Reflexionsauflösung. 1x, 1/2x oder 1/4x z.b.
Genauso wäre es mir lieber in den Optionen grob zu sehen, wie viele Rays/Pixel verschossen werden, anstatt Low, Medium & Ultra. Meinetwegen reicht mir auch eine technische Beschreibung zu den Optionen.
Ansonsten versucht man sogar als erfahrener Anwender zu häufig alles einfach auf Ultra zu stellen, weil man sonst einfach nicht weiß, was man wie stark downgraded. Ich wäre in 4k oder 8k beispielsweise mit 1/2 Auflösung zufrieden, bei Reflexionen und Schatten. Doch man weiß nie, was man sich mit niedrigen Settings verschießt... :rolleyes:
Dampf
2020-10-29, 23:10:00
Ich würde mir in Zukunft transparentere Optionen in den Ingame-Menüs wünschen. Beispielsweise den Teiler der Reflexionsauflösung. 1x, 1/2x oder 1/4x z.b.
Genauso wäre es mir lieber in den Optionen grob zu sehen, wie viele Rays/Pixel verschossen werden, anstatt Low, Medium & Ultra. Meinetwegen reicht mir auch eine technische Beschreibung zu den Optionen.
Ansonsten versucht man sogar als erfahrener Anwender zu häufig alles einfach auf Ultra zu stellen, weil man sonst einfach nicht weiß, was man wie stark downgraded. Ich wäre in 4k oder 8k beispielsweise mit 1/2 Auflösung zufrieden, bei Reflexionen und Schatten. Doch man weiß nie, was man sich mit niedrigen Settings verschießt... :rolleyes:
Wär ja echt toll für Enthusiasten, aber der Ottonormalspieler wäre da überfordert :tongue:
Geldmann3
2020-10-30, 01:15:16
Wär ja echt toll für Enthusiasten, aber der Ottonormalspieler wäre da überfordert :tongue:
Der Ottonormalverbraucher ist eh nicht in der Lage sein Game zielführend zu tweaken. Für den würde ein globales Low, Medium, High und Ultra Setting reichen.
basix
2020-10-30, 13:35:00
Ich packe das mal hierhin, da es thematisch besser zu DLSS passt anstatt in den Navi-Spekuthread.
Um die Diskussion zu AMDs Super Resolution (SupRes) etwas voranzutreiben:
Der Herkelman hat gesagt "für RT Games". Das bedeutet, dass SupRes für alle anderen Spiele nicht erscheinen wird. Aufgrund der NextGen Konsolen kein Beinbruch, da eh sehr viele Spiele mindestens mit RT Schatten kommen werden. Zudem ist DLSS/SupRes vor allem für RT Games von grösstem Vorteil, aufgrund des hohen Rechenaufwands für RT.
Da der Fokus auf RT gelegt wurde: Könnte das das spezifische Optimierungen erlauben, welche DLSS (noch) nicht kann?
Beispiel:
DLSS 2.0 Quality 4K rendert das ganze Bild in 1440p. Alle "Subauflösungen" werden um den selben Faktor reduziert (1.5x pro Bildschirmseite, z.B. ebenfalls 1440p), das gilt auch für RT
AMDs SupRes rendert ebenfalls in 1440p und upsampled auf 4K. Nur wird hier die interne RT Auflösung um z.B. 2.0x pro Bildschirmseite reduziert (bspw. auf 1080p)
AMD könnte damit explizit ihre "RT Schwäche" kompensieren. Da man es schon von vornherein so implementiert / RT denoising spezifisch tuned muss die Bildqualität nicht mal schlechter sein, da hier ein spezieller Fokus darauf lag. DLSS 2.0 ist hier viel genereller, da auf "alles" auf die selbe Weise anwendbar.
In AMDs FidelityFX Bibliothek befinden sich noch so Sachen wie SSSR, welche RT Reflections gut ergänzen sollten und nochmals die RT Last senken würden.
Dampf
2020-10-30, 14:24:09
Normalerweise wird die Auflösung der RT Effekte mittels den Qualitätseinstellungen festgelegt und nicht anhand der DLSS Input Auflösung. Einzige Ausnahmen sind bisher Watch Dogs und Fortnite.
Solange DLSS noch keine Rekonstruktion für RT Effekte bietet, ist das auch komplett sinnlos. Da wird von Ahnungslosen nur wieder DLSS die Schuld in die Schuhe geschoben, dass es die RT Reflektionen schlechter macht, folglich zerstört diese Methode den guten Ruf von DLSS und ist zu unterlassen. Keine Ahnung was sich Ubisoft und Epic bei dem Käse gedacht haben...
basix
2020-10-30, 14:31:42
OK, das wusste ich nicht. Doch meine Idee wird damit nicht weniger relevant. RT Auflösung eben auch zu skalieren mit spezifischem Augemerk darauf für Super Resolution Upsampling.
Troyan
2020-10-30, 14:35:03
Nein, deine Anmerkung ist irrelevant, da man per Spieleeinstellung die Qualität vornimmt. Den Rest macht der Denoiser, der entsprechend auf eine bestimmte Anzahl an Rays pro Pixel optimiert ist. Es obliegt dem Spieleentwickler, welche Qualität er anbieten will.
basix
2020-10-30, 14:54:22
Irrelevant? Bitte den Kopf einschalten und nachdenken ;) Es würde immer noch der Spieleentwickler die Qualität bestimmen, genauso wie der Spieleentwickler DLSS bei seiner Engine einbauen muss und z.B. noch den Schärferegler einstellen muss. Wenn der Entwickler anstatt einen Schärferegler noch einen zusätzlichen RT Regler bekommt, ist das nun irrelevant? Entweder kompensiert AMD mit Super Resolution die weniger werdenden Strahlen automatisch (best case) oder AMD bietet einen alternativen Denoiser oder sonst ein Hilfsmittel an, welches der Spieleentwickler verwenden kann (nicht muss).
DLSS und Super Resolution müssen beide vom Entwickler eingebaut werden. Und mittels Zusatztools wie Schärferegler oder eben neu "RT Regler" hat immer noch der Entwickler das entscheidende Wort über die Qualität. Und ist somit kein sehr grosser Unterschied zum Implementierungsprozess von DLSS 2.0. Und ja, bei DLSS 3.0 erwarte ich auch einen RT Regler ;) Wenn ein Entwickler diesen Regler benutzen will, gut. Wenn nicht, schade, aber auch gut.
Troyan
2020-10-30, 15:03:57
Was denkst du, macht ein Denoiser? Welchen Sinn hat es neben einen Denoiser noch einen weiteren Denoiser einzubauen?
DLSS, Superresolution etc. sind Techniken, um fertige Bilder hoch zu skalieren. Es sind keine Techniken vor Fertigstellung des nativen Inputs weiter die Qualität zu senken. Die Anzahl an Rays sind heute schon von der Renderauflösung abgekoppelt. Du kannst also in 4K spielen und trotzdem nur die Anzahl an Rays pro Pixel einer 720p Auflösung verschießen.
basix
2020-10-30, 15:26:15
Wer sagt, dass man einen weiteren Denoiser einbaut? Was ich meine wäre ein anderer RT Denoiser spezifisch von AMD optimiert ;) Oder Super Resolution weiss um das schlechtere RT Denoising (aufgrund weniger Strahlen) und kann entsprechend die Upsampling Samples anders wählen, um den Qualitätsnachteil möglichst auszugleichen. Wenn du das einen "doppelten Denoiser" nennen willst OK. Aber auch DLSS wird heute schon Noise möglichst reduzieren wollen.
Mir ist völlig klar, dass RT Auflösung unabhängig von der Renderauflösung ist. Deswegen finde ich auch komisch, dass man die RT Auflösung bei DLSS/SuperRes nicht auch reduzieren will. In einem Extrembeispiel läuft RT mit 4K und DLSS intern mit 720p. Um wieder ein 4K Bild zu bekommen. Macht doch Sinn, einen der rechenintensivsten Effekte ebenfalls mit DLSS zu skalieren? Und wenn DLSS/SuperRes diesen Fall spezifisch angehen (ergo das DNN so trainieren), um reduzierte RT Auflösung zu kompensieren, why not?
Wie gut das funktioniert: Ich weiss es nicht. Aber es ist im Interesse beider IHVs, bei RT + DLSS eine möglichst gute Performance und Bildqualität hinzubekommen, weil das ist die Zukunft.
pixeljetstream
2020-10-30, 18:57:35
Aber es ist im Interesse beider IHVs, bei RT + DLSS eine möglichst gute Performance und Bildqualität hinzubekommen, weil das ist die Zukunft.
Damit ist alles gesagt ;) da werden schon noch viele kreative Lösungen kommen. Und auch von großen ISVs selbst. Lass dich von anderen in deinen Gedanken nicht einschüchtern.
Geldmann3
2020-10-31, 00:57:42
Edit: Verzeihung, irgendwie wurde dieser Beitrag ein Doppelpost von mir.
Geldmann3
2020-10-31, 01:27:51
Was denkst du, macht ein Denoiser? Welchen Sinn hat es neben einen Denoiser noch einen weiteren Denoiser einzubauen?
DLSS, Superresolution etc. sind Techniken, um fertige Bilder hoch zu skalieren. Es sind keine Techniken vor Fertigstellung des nativen Inputs weiter die Qualität zu senken. Die Anzahl an Rays sind heute schon von der Renderauflösung abgekoppelt. Du kannst also in 4K spielen und trotzdem nur die Anzahl an Rays pro Pixel einer 720p Auflösung verschießen.
DLSS ist keine Technik, um ein fertiges Bild hochzuskalieren. DLSS ist weniger ein Upscaler als vielmehr temporales Supersampling.
########################################
Da ich meinen Samsung TV in wenigen Tagen durch einen LG OLED ersetzen möchte, jedoch immer beeindruckt von der Qualität des Upscalers des mittlerweile 3 Jahre alten Gerätes war, wollte ich untersuchen was passiert, wenn ich den Upscaler des TVs mit DLSS kombiniere.
Der Upscaler hat in den letzten Jahren wunderbare Arbeit geleistet, oft hatte ich keine Ahnung, ob ich gerade 1080p Content auf den TV ansehe oder eben echtes 4k. In Bewegung, mit etwas Abstand, habe ich jedenfalls keine Chance das zu erkennen.
Hier die Ergebnisse der Kombination aus DLSS im Zusammenspiel mit dem TV-Upscaler. Unglaublich, finde ich:
Natives 4k+TAA
https://i.ibb.co/4FNhsZt/20201031-001859.jpg (https://i.ibb.co/hmfhqtt/20201031-001859.jpg)
Performance DLSS@1080p + TV Upscaling:
(Intern nur 540p :eek:)
https://i.ibb.co/3M5VScS/20201031-001836.jpg (https://i.ibb.co/hc3TF3k/20201031-001836.jpg)
Natives 4k+TAA:
https://i.ibb.co/pyx5gr6/20201031-004225.jpg (https://i.ibb.co/K0wBSwj/20201031-004225.jpg)
Performance DLSS@1080p + TV Upscaling:
(Intern nur 540p :eek:)
https://i.ibb.co/09gFWG5/20201031-004159.jpg (https://i.ibb.co/P5wzL4m/20201031-004159.jpg)
Ja, in manchen Szenen sieht man an einigen Stellen ein paar Artefakte und die Qualität leidet etwas, aber es sind verdammt nochmal auch nur 6,25% der Samples, welche die GPU berechnet! Ich finde das unglaublich... Auf den Bildern kann man es vielleicht noch eher auseinanderhalten, weil man sich alles in Ruhe ansehen kann, aber in Bewegung, aus 2 Metern Entfernung, kann man es völlig vergessen. Beim Verlinken der Bilder musste ich ebenfalls genau hinschauen, um die richtigen Bilder zu verlinken. Ich habe es lediglich an dem leicht ausgefransten Regen, der DLSS Version sowie den leichten Bewegungsartefakten erkannt. Um sicherzugehen habe ich aber sogar das Referenzmaterial angeschaut.
Es sind eine halbe Millionen Pixel gegen 8 Millionen Pixel. Wobei streng genommen in beiden Fällen wesentlich viel mehr Samples in den Bildern verarbeitet werden, denn sowohl TAA als auch DLSS arbeiten temporal.
ChaosTM
2020-10-31, 09:40:23
Ein SD Video mit madVR wiedergegeben auf einem 4K Schirm schaut auch schon recht nett aus. Da ist aber nix temporal afaik..
Ich hab viel mit 1620, 1800 und 1980p gespielt und der Unterschied war nie gravierend. Am Fernseher bei 2m Abstand geht der Unterschied gegen Null.
add.: DLSS ist natürlich überlegen - aber nicht so krass wie immer getan wird. Die Technik dahinter ist nett, nur leider proprietär und daher abzulehnen.
add2.: ähnliches gilt auch für SAM, sollte es auf allen Systemen laufen und bewusst unterdrückt werden
Troyan
2020-10-31, 15:28:08
DLSS ist keine Technik, um ein fertiges Bild hochzuskalieren. DLSS ist weniger ein Upscaler als vielmehr temporales Supersampling.
DLSS gibt es hochskaliertes 4K Bild zurück an die Engine. Es macht auch kein Sinn nur ein "supergesampeltes" Bild zu erzeugen, bei zur Berechnung vielleicht 4x mehr Pixelinformationen verwendet worden sind, aber trotzdem nur 1080p als Rückgabeauflösung existiert. Dann muss nämlich das Spiel wieder das Bild auf 4K hochskalieren.
Siehe hier: https://youtu.be/d5knHzv0IQE?t=2461
pixeljetstream
2020-10-31, 17:10:26
Die Zusammenfassung von Geldmann3 die du zitierst war eine Antwort auf deine Aussage
DLSS, Superresolution etc. sind Techniken, um fertige Bilder hoch zu skalieren.
Und seine Aussage ist treffender.
DLSS ist keine Technik, um ein fertiges Bild hochzuskalieren. DLSS ist weniger ein Upscaler als vielmehr temporales Supersampling.
Das “weniger und mehr” zeigt ja bereits dass es nicht entweder oder ist. Deine Aussage vom “fertigen Bild” klingt eher danach.
Beim raytracing sind die samples so sparse und divergent so dass das traditionelle temporale anti aliasing allein nicht reicht. Deswegen noch die Denoiser davor. Die Trennung ist im Moment von Vorteil da DLSS/TAA unabhängig nutzbar ist. Genau wie der denoiser spezialisiert ist. Diese Trennung muss aber nicht so bleiben.
Geldmann3
2020-10-31, 17:11:32
DLSS gibt es hochskaliertes 4K Bild zurück an die Engine. Es macht auch kein Sinn nur ein "supergesampeltes" Bild zu erzeugen, bei zur Berechnung vielleicht 4x mehr Pixelinformationen verwendet worden sind, aber trotzdem nur 1080p als Rückgabeauflösung existiert. Dann muss nämlich das Spiel wieder das Bild auf 4K hochskalieren.
Siehe hier: https://youtu.be/d5knHzv0IQE?t=2461
Ja, es gibt ein Bild an die Engine zurück, doch es nimmt kein niedriger aufgelöstes Bild als Input entgegen, im Video ist es etwas vereinfacht dargestellt. Es betreibt kein Upsampling eines niedriger aufgelösten Bildes, sondern es nimmt die Samples sowie Motion-Vektoren aus mehreren vorangegangenen Frames entgegen und macht daraus erst ein fertiges Bild. Es akkumuliert für die Zielauflösung mehr als ein Sample pro Pixel also betreibt es temporales Supersampling. Es setzt die Informationen, die in den vergangenen Frames über das Bild gesammelt wurden zusammen.
dargo
2020-11-02, 07:57:23
Hier ist ein netter Vergleich in Watch Dogs Legion @1440p zwischen DLSS Off und DLSS Balanced.
https://youtu.be/63EkU8H1kAw?t=33
Man sieht sehr gut wie die linke Außenfassade von dem rechten Gebäude im Hintergrund flimmert. Gleiches gilt für die Aluminiumblende an der Stoßstange vom Fahrzeug.
Hier kommt DLSS mit den Brückenseilen auch nicht klar... Ameisenhaufen.
https://youtu.be/63EkU8H1kAw?t=104
Hier ist wiederum DLSS ruhiger bei dem Gerüst auf der Brücke, oder was das immer sein soll.
https://youtu.be/63EkU8H1kAw?t=167
ChaosTM
2020-11-02, 08:02:08
Muss noch lernen das DLSS - falls es das überhaupt (noch) tut..
Geldmann3
2020-11-02, 08:39:00
Hier ist ein netter Vergleich in Watch Dogs Legion @1440p zwischen DLSS Off und DLSS Balanced.
https://youtu.be/63EkU8H1kAw?t=33
Man sieht sehr gut wie die linke Außenfassade von dem rechten Gebäude im Hintergrund flimmert. Gleiches gilt für die Aluminiumblende an der Stoßstange vom Fahrzeug.
Hier kommt DLSS mit den Brückenseilen auch nicht klar... Ameisenhaufen.
https://youtu.be/63EkU8H1kAw?t=104
Hier ist wiederum DLSS ruhiger bei dem Gerüst auf der Brücke, oder was das immer sein soll.
https://youtu.be/63EkU8H1kAw?t=167
Links am Gebäude sieht man einfach undersampling Artefakte, das ist für mich jetzt nichts Neues in Videospielgrafik. Klar, könnte das Ergebnis besser sein, aber auch nichts Neues, Überraschendes für mich. Sicher sieht es noch wesentlich besser aus als das native Bild ohne AA und interessant wäre bei den Beispielen sicher der Vergleich mit Nativ+TAA.
Ja, die Brückenseile flimmern, doch das war schon immer hin und wieder ein Problem von temporaler Kantenglättung und dafür, dass das Bild intern nur in 1.484 × 835 Samples, also weniger als Full HD berechnet wird, ist das Ergebnis sehr gut, finde ich. Wenn auch noch verbesserungswürdig.
Mir fiele keine Option zu DLSS ein das Bild bei ähnlicher Performance so sauber von Aliasing zu bekommen. Steigert man die Ausgabeauflösung auf 4k sehen auch sowas wie die Seile besser aus.
dargo
2020-11-02, 08:44:31
Du hast schon mitbekommen, dass links das Bild nativ in 1440p inkl. TAA gerendert wird?
Geldmann3
2020-11-02, 09:20:17
Du hast schon mitbekommen, dass links das Bild nativ in 1440p inkl. TAA gerendert wird?
Nein, da stand zu Beginn nichts von TAA.
Könnte man höchstens raten.
dargo
2020-11-02, 10:34:42
Raten? Glaubst du ernsthaft das Bild wäre so ruhig in Bewegung ohne TAA? :|
Achill
2020-11-02, 11:19:00
Nein, da stand zu Beginn nichts von TAA.
Könnte man höchstens raten.
Das steht ganz am Anfang vom Video, durch die Zeitmarke im Link sieht man es nicht wenn man nicht selbst zurück spult, war auch zuerst irritiert was was ist.
Zeitweise wirkt DLSS schon sehr verschwommen (und ich bin eigentlich nicht empfindlich bei sowas).
bei 1:30 macht native vs DLSS keinen Unterschied, obwohl beide weit von 60FPS sind. Bei Wolfenstein wirkte DLSS wirklich gut, schärfer als native, wobei es vielleicht daran liegt, dass IDTech sehr blurry ist.
Ich habe ein paar Seiten zurück gelesen, dass Motion Vektoren fehlen. Was macht DLSS? Ich dachte das ist DL Upscaling, ist das doch nur eine Art von TAA?
Troyan
2020-11-02, 12:11:46
Komprimierte Videos sind nicht geeignet, um wirklich relevante Aussagen treffen zu können. Imo lässt sich nur erkennen, dass SSRs weiterhin problembehaftet sind und DLSS besser feine Geometrie wiederherstellt als nativ + TAA.
Ansonsten ist DLSS in Watch Dogs unschärfer, aber man kann im Menü per Schärferegler nachjustieren, wenn man will.
Geldmann3
2020-11-02, 12:47:36
Das steht ganz am Anfang vom Video, durch die Zeitmarke im Link sieht man es nicht wenn man nicht selbst zurück spult, war auch zuerst irritiert was was ist.
Da habe ich zwar ein paar Settings aber nichts von TAA gesehen. Da steht nur ,,DLSS - Off"
Zeitweise wirkt DLSS schon sehr verschwommen (und ich bin eigentlich nicht empfindlich bei sowas).
bei 1:30 macht native vs DLSS keinen Unterschied, obwohl beide weit von 60FPS sind. Bei Wolfenstein wirkte DLSS wirklich gut, schärfer als native, wobei es vielleicht daran liegt, dass IDTech sehr blurry ist.
Ich habe ein paar Seiten zurück gelesen, dass Motion Vektoren fehlen. Was macht DLSS? Ich dachte das ist DL Upscaling, ist das doch nur eine Art von TAA?
Es ist eher temporales Supersampling als Upscaling und funktioniert ähnlich wie TAAU in der Unreal-Engine. Das neuronale Netz halluziniert ab DLSS 2.0 keine Details mehr hinzu, weshalb es nicht mehr für jedes Spiel einzeln trainiert werden muss, es kümmert sich am Ende lediglich um das ,,schön machen" der über die letzten Frames gesammelten Samples und verhindert dabei sowas wie Moiré Artefakte oder Flimmern. Wobei es das natürlich auch nur zu einem gewissen Grad kann, hat es zu wenige Samples zur Verfügung, bricht es ebenfalls irgendwann ein. Um herauszufinden, welchen Pixeln es die Samples zuordnen muss, braucht es Motion Vektoren. Denn wenn Objekte oder die Kamera sich bewegen, verändert sich auch die Position, an welcher Samples für ein Objekt generiert werden.
robbitop
2020-11-02, 13:03:23
Entsprechend besser müsste es mit hoher Framerate funktionieren.
Geldmann3
2020-11-02, 13:11:45
Entsprechend besser müsste es mit hoher Framerate funktionieren.
So ist es. Wobei die genaue Wirkung zum Beispiel davon abhängt, ob DLSS immer eine feste Anzahl von Frames verarbeitet, wovon ich fast ausgehe, oder einen festen Zeitraum mit Frames betrachtet. Dennoch entspricht eine höhere Framerate demselben Effekt, wie eine entsprechend langsamere Bewegung der Objekte im Game oder der Kamera, was dazu führt, dass aufeinanderfolgende Frames sich ähnlicher sind und die Samples der vergangenen Frames besser zu den Inhalten des aktuellen passen. Besonders Änderungen der Perspektive einer Szene sind nicht sehr gut zur temporalen Rekonstruktion geeignet.
basix
2020-11-02, 13:53:59
Genau das Thema mit den höheren FPS habe ich versucht anzusprechen, hat aber niemand darauf reagiert :wave2:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12460946#post12460946
Und ja, Szenen- oder Kamerawechsel sind faktisch nicht Upscale fähig im ersten Frame. Bei genug fps (z.B. 120fps) sollte allfällige Unschärfe aber schnell verschwinden (z.B. innerhalb 16.67 ms erhält man schon 3 Frames). Die deutlichsten Szenenwechsel passieren in Zwischensequenzen. Hier könnte man eine höhere Grundauflösung wählen oder Frames prerendern. Oder alternativ sind Zwischensequenzen immer aus der Spielerperspektive mit nahtlosen Übergängen ohne komplette Szenenwechseln.
Dampf
2020-11-02, 14:29:59
Mein Fazit zur DLSS Implementation in Watch Dogs:
+ Kein Nachziehen von kleinen Partikeln (Death Stranding) Motion Vektoren sind also vorhanden
+ Rekonstruktion von feinen Details
+ spart VRAM, mehr als die VRAM Anzeige vermuten lässt
+ temporale Stabilität in Ordnung, manchmal besser als TAA aber...
- manchmal auch schlechter. An Fenstern, Balkonen oder sonstigen Linien (vorzugsweise Lüftungsgitter ähnliche Strukturen) sieht man je nach Kamerawinkel manchmal ein Flackern.
- Schatten und Wolken haben Probleme mit DLSS, sie wirken etwas ausgefranster. Schattierungen sehen in einigen Fällen seltsam aus. Wahrscheinlich nimmt man bei Watch Dogs nicht die Target sondern die Input Auflösung für die Effekte.
- Die Renderauflösung der RT Reflektionen wird durch DLSS reduziert
- Bildqualität im Vergleich zur anderen Implementationen nur mittelmäßig, lässt sich aber mit Sharpening beheben (so wie auch bei TAA). Dadurch kriegt man aber ein paar Sharpenig Artefakte (siehe Control)
- Performance Gewinn eher mäßig
Insgesamt ist die DLSS Implementation hier durchwachsen.
dildo4u
2020-11-03, 09:30:17
Watch Dogs DLSS vergleich kein Plan ob ein Fehler gemacht wurde aber Balanced sieht schärfer aus als Quality.
https://www.techpowerup.com/review/watch-dogs-legion-benchmark-test-performance-analysis/4.html
Geldmann3
2020-11-03, 13:08:35
Watch Dogs DLSS vergleich kein Plan ob ein Fehler gemacht wurde aber Balanced sieht schärfer aus als Quality.
https://www.techpowerup.com/review/watch-dogs-legion-benchmark-test-performance-analysis/4.html
Das fiel mir auch schon bei anderen Tests auf. Frage mich ob der Entwickler sie falsch benannt hat. In Marvel's Avengers wurde glaube ich sogar Nvidia mal zu dem Thema befragt und dort meinten sie, dass es keine Verwechselung sei, sondern daran liege, dass das Post-Processing anders appliziert werden würde. Dort war es meiner Erinnerung zufolge sogar so, dass Balance besser performte. :freak:
Das fiel mir auch schon bei anderen Tests auf. Frage mich ob der Entwickler sie falsch benannt hat.
Das ist sicher nicht falsch benannt, wenn man genau schaut sieht man, dass Quality mehr Samples verwendet.
Mein Verdacht wäre, dass der Hersteller hier einfach zur Kompensation die Scharfzeichnung in den schnelleren DLSS Modi mehr aufgedreht hat im Verhältnis zu Quality.
Dort war es meiner Erinnerung zufolge sogar so, dass Balance besser performte. :freak:
Das Balanced besser als Quality performt ist eigentlich zu erwarten.
Geldmann3
2020-11-05, 00:17:50
Das ist sicher nicht falsch benannt, wenn man genau schaut sieht man, dass Quality mehr Samples verwendet.
Mein Verdacht wäre, dass der Hersteller hier einfach zur Kompensation die Scharfzeichnung in den schnelleren DLSS Modi mehr aufgedreht hat im Verhältnis zu Quality.
Das Balanced besser als Quality performt ist eigentlich zu erwarten.
Hatte es verwechselt, meinte es umgekehrt.
Theoretically, DLSS Quality mode does 2x upscaling, and DLSS Balanced mode does 3x upscaling, but performance for the two modes seems to be swapped. Perhaps the initial release of DLSS support in Marvel's Avengers switched the two modes, or somehow the 3x upscaling results in worse performance. Whatever the case, DLSS Balanced performance is worse than DLSS Quality performance on every GPU we tested, and for these tests we've used the in-game labels.
We mentioned this to Nvidia, and were informed that the reason for the odd performance is because of the way Marvel's Avengers currently works. The game engine's post processing is being run at different resolutions in each case. Quality Mode = 1280x720, Balanced Mode = 2232x1256, Performance Mode = 1920x1080. I'm not quite sure why this would be the case (other than perhaps it's just a bug), but was told Nvidia and Nixxes are working together on the implementation, so things may change in the near future.
Quelle: https://www.tomshardware.com/news/marvels-avengers-dlss-21-support-performance-tested
Sweepi
2020-11-05, 09:26:15
Hab mich mit Billy Khan unterhalten (Lead Engine Programmer bei id Software). Ein Detail, das ich im Zusammenhang mit DLSS bzw. ML und Anti-Aliasing ganz interessant fande:
EDIT: Das ganze Interview ist hier (https://www.pcgameshardware.de/Doom-Eternal-Spiel-72610/Specials/Interview-mit-Lead-Engine-Programmer-Billy-Khan-1360708/)
Sehr spannend, danke!
Und wir wollen nicht, dass dann irgendwas reinpoppt, wenn man da mit einem Affenzahn durch das Level rast. Im Grunde schaut man ja die ganze Zeit mit den Augen in die Mitte des Bildschirms und da will man nicht in der peripheren Sicht sehen, wie Gegenstände auftauchen. Gerade weil man so schnell läuft und der Kampf so schnell ist, man sich zudem mit der Maus so schnell umdrehen kann und Dergleichen müssen wir nach Möglichkeit auf null Pop-Ins bestehen. Weil die Texturen und Co mit einem LoD-Wechsel so schnell wie möglich gestreamt werden, wollen keine aufploppenden Assets sehen. Wir wollen, dass die Pixeldichte und die geometrischen Details normalisiert werden. Wenn man im Spiel dann an hochauflösende Texturen vorbeirauscht, neben denen nur Low-Res möglich ist, nimmt man das dennoch wahr. Man weiß zunächst nicht, was falsch an dem Bild ist, aber man merkt, dass etwas nicht stimmt. Man denkt sich nur, die Grafiken sind wieder reingeploppt. Vor allem, wenn es sich um Silhouetten mit geometrischen Details handelt. Also versuchen wir die Details der Silhouette so weit wie möglich zu erhalten. Das ist also ein superkritisches Kriterium, denn wenn beispielsweise die Hörner unserer Dämonen plötzlich verschwunden oder deformiert sind, dann bekommt man das als Spieler sofort mit. Die Silhouette ist also sehr wichtig und wir versuchen sie zu normalisieren. Wir versuchen das wirklich so hinzubekommen, dass man die Silhouetten der unterschiedlichen LoDs nicht unterscheiden kann. Manchmal klappt das ganz gut, manchmal nicht.
Wie er mir aus der Seele spricht. Dieses rumgepoppe stört Immersion immens.
Lawmachine79
2020-11-05, 11:04:06
Hey Leute, meine mal gelesen zu haben, dass im Zuge weiterer Updates von DLSS keine direkte Unterstützung mehr implementiert werden muss, sondern dass es reicht, wenn das Spiel eine bestimmte Art von AA unterstüzt. Wie sieht es da aus?
pixeljetstream
2020-11-05, 11:09:16
Hey Leute, meine mal gelesen zu haben, dass im Zuge weiterer Updates von DLSS keine direkte Unterstützung mehr implementiert werden muss, sondern dass es reicht, wenn das Spiel eine bestimmte Art von AA unterstüzt. Wie sieht es da aus?
Es gab vorm Ampere Launch leider ein ziemliches BS Gerücht dass es komplett ohne Integration geht. Das war aber nie plausibel. Wenn das Spiel schon eine Form von TAA macht ist eine Integration durch den Entwickler leichter, insbesondere wenn ein Spiel auch dynamisch Auflösungsanpassung schon kann.
Rooter
2020-11-05, 12:37:42
insbesondere wenn ein Spiel auch dynamisch Auflösungsanpassung schon kann.Warum wird es dadurch einfacher?
MfG
Rooter
Geldmann3
2020-11-05, 12:39:54
Sehr spannend, danke!
Wie er mir aus der Seele spricht. Dieses rumgepoppe stört Immersion immens.
Ganze meine Ansicht, ein Super-Beispiel ist in meinen Augen Watchdogs: Legion. Sieht teilweise fantastisch aus, wenn nur die Autos und Lastwagen nicht 50m vor mir ins Bild poppen würden, das macht alles kaputt. Hätte ich 2020 auch niemals mehr erwartet. Eigentlich hätte ich das bereits vom ersten Teil, vor 6 Jahren, nicht mehr.
Als Entwickler wäre das für mich auch einer der letzten Punkte, an dem ich sparen würde. Pop-In ist einfach jedes Mal ein Schlag ins Gesicht.
Warum wird es dadurch einfacher?
Weil man bei DLSS mit verschiedenen Auflösungen (1x Renderauflösung 1x Zielauflösung) arbeitet, und man beachten muss das jeweils zu berücksichtigen.
Gerendert wird beispielsweise in der reduzierten Auflösung, das Postprocessing findet aber auf der Ausgabeauflösung statt, ebenso bestimmte 2D-Rendereffekte, wie beispielsweise das HUD.
Wenn man da auf einer Seite Daten von der anderen benötigt werden (in erster Linie wenn man im Postprocessing auf diverse Puffer aus dem Rendern zugreifen will) muss man das richtig berücksichtigen.
Da es in Shadern teuer ist auf "fremde" Ressourcen zuzugreifen werden in vielen Shadern beispielsweise Berechnungen abhängig von der relativen oder absoluten Pixelposition durchgeführt. Da muss man dann eventuell auch umrechnen.
Ähnliches beispielsweise bei Effekten wenn man durch gewölbtes Glas oder Wasser schaut. Da wird beim eigentlichen Rendern nicht, oder nicht viel gemacht und nur der bereich markiert. Die Verzerrungen finden dann im Postprocessing statt, und diese müssen natürlich an der richtigen Position im finalen Bild stattfinden.
Alldiese Punkte muss eine Engine die dynamische Auflösungen bzw. generell unterschiedliche Auflösungen für Rendertargets und Ausgabe unterstützt bereits berücksichtigen.
pixeljetstream
2020-11-05, 15:18:13
Warum wird es dadurch einfacher?
MfG
Rooter
Für DLSS rendert man ja in niedriger Auflösung, aber eben nicht alles, manche passes wie UI bleiben full Resolution. Sind so Kleinigkeiten schon da macht es halt noch einfacher zu integrieren.
Dampf
2020-11-18, 12:23:38
Die DLSS Implementation in War Thunder kann mich nicht überzeugen...
https://imgsli.com/MzAwMzg
Erst Watch Dogs Legion mit den heftigen Moire-Artefakten und verschwommenen Bildern, jetzt War Thunder und anscheinend hat laut Berichten DLSS auch Probleme in Cold War. Was ist mit DLSS los...?
Geldmann3
2020-11-19, 08:18:46
Die DLSS Implementation in War Thunder kann mich nicht überzeugen...
https://imgsli.com/MzAwMzg
Erst Watch Dogs Legion mit den heftigen Moire-Artefakten und verschwommenen Bildern, jetzt War Thunder und anscheinend hat laut Berichten DLSS auch Probleme in Cold War. Was ist mit DLSS los...?
Finde das Ergebnis auf dem Bild nun nicht schlecht.
Sieht noch immer deutlich besser aus als nativ ohne AA, kommt in diesem Fall aber wohl leider nicht an klassisches TAA heran. Mir fällt auf, dass einige Details verloren gehen und die Kantenglättung im nativen Bild besser ist. Das könnte ich mir deutlich besser vorstellen und es ist enttäuschend, doch das Bild wird immerhin auch in weniger als Full-HD berechnet.
Asaraki
2020-11-19, 09:44:43
Die DLSS Implementation in War Thunder kann mich nicht überzeugen...
https://imgsli.com/MzAwMzg
Erst Watch Dogs Legion mit den heftigen Moire-Artefakten und verschwommenen Bildern, jetzt War Thunder und anscheinend hat laut Berichten DLSS auch Probleme in Cold War. Was ist mit DLSS los...?
Naja, find ich ganz ok. DLSS ist eine Performancegeschichte und keine, respektive nur implizit, eine Qualitätsverbesserung (nämlich Quali pro verfügbarer Performance).
Wer meint eine Technologie wie DLSS wäre "fehlerfrei" in den ersten 5 Jahren, der soll sich mal zurücklehnen :-) Das wird immer besser werden solange sie keinen groben Bockmist bauen.
Anders gesagt : Davon ausgehend, dass dein DLSS Bild mehr FPS hat überzeugt mich das Resultat durchaus.
Troyan
2020-11-19, 11:02:29
Es wird eben auch viel Unsinn erzählt. In Watch Dogs Legion kann man Ingame nachschärfen und dann sieht DLSS genauso gut aus wie 4K mit TAA. In Cold War fehlt es, aber die Glättung ist fast durchgehend auf dem selben Niveau.
Da DLSS@Quality in beiden Spielen >60% an Leistung bringt, sind die Nachteile mehr als verlässigbar. Und es sieht meilenweit besser aus als Upscaling aus unteren Auflösungen, wenn man die selbe Leistung haben will.
Daredevil
2020-11-19, 11:07:36
Die DLSS Implementation in War Thunder kann mich nicht überzeugen...
https://imgsli.com/MzAwMzg
Erst Watch Dogs Legion mit den heftigen Moire-Artefakten und verschwommenen Bildern, jetzt War Thunder und anscheinend hat laut Berichten DLSS auch Probleme in Cold War. Was ist mit DLSS los...?
Für 15FPS mehr würde ich auch niemals DLSS einschalten. Ich meine... why?
Erst wenn es heißt spielbar vs. unspielbar, dann nimmt man mögliche Nachteile in Kauf.
Anders bekommt man z.B. heute nicht Death Stranding in 4K@120fps fixed hin.
Dampf
2020-11-19, 11:12:12
Es wird eben auch viel Unsinn erzählt. In Watch Dogs Legion kann man Ingame nachschärfen und dann sieht DLSS genauso gut aus wie 4K mit TAA. In Cold War fehlt es, aber die Glättung ist fast durchgehend auf dem selben Niveau.
Da DLSS@Quality in beiden Spielen >60% an Leistung bringt, sind die Nachteile mehr als verlässigbar. Und es sieht meilenweit besser aus als Upscaling aus unteren Auflösungen, wenn man die selbe Leistung haben will.
Bei Watch Dogs kann man durch das Nachschärfen eine gute Bildqualität erreichen, aber trotzdem leidet es an ziemlich offensichtlichen Moire-Artefakten und auch die Qualität der Reflektionen leidet maßgeblich.
Hier ein Video von Death Stranding, um zu sehen, was ich meine:
https://www.youtube.com/watch?v=af8y6431s6Y
Bei solch einer Großstadt wie in WDL mit vielen Lüftungsgittern und Fenstern fällt das teilweise deutlich auf.
Daredevil
2020-11-19, 11:13:51
Also als ich das letztens gespielt habe genau an der Stelle, war alles einfach Butterweich.
Das komplette Bild war "ruhig", das wäre mir sofort aufgefallen. :o
Dampf
2020-11-19, 11:15:27
Also als ich das letztens gespielt habe genau an der Stelle, war alles einfach Butterweich.
Das komplette Bild war "ruhig", das wäre mir sofort aufgefallen. :o
Naja, es kommt sehr stark auf den Kamera-Winkel drauf an, ob der Effekt auftritt oder nicht.
Troyan
2020-11-19, 11:29:12
Bei Watch Dogs kann man durch das Nachschärfen eine gute Bildqualität erreichen, aber trotzdem leidet es an ziemlich offensichtlichen Moire-Artefakten und auch die Qualität der Reflektionen leidet maßgeblich.
Hier ein Video von Death Stranding, um zu sehen, was ich meine:
https://www.youtube.com/watch?v=af8y6431s6Y
Bei solch einer Großstadt wie in WDL mit vielen Lüftungsgittern und Fenstern fällt das teilweise deutlich auf.
Und gibt es auch mit TAA. Und nun?
Dampf
2020-11-19, 11:34:21
Und gibt es auch mit TAA. Und nun?
Im Video deaktiviert die Person DLSS und der Effekt is weg.
Auch ich konnte das in Watch Dogs nachprüfen, der Effekt war weg als ich DLSS deaktivierte.
Natürlich ist TAA auch nicht davon verschont, aber mit DLSS tritt es eben deutlich häufiger auf.
Asaraki
2020-11-19, 11:49:09
Im Video deaktiviert die Person DLSS und der Effekt is weg.
Auch ich konnte das in Watch Dogs nachprüfen, der Effekt war weg als ich DLSS deaktivierte.
Natürlich ist TAA auch nicht davon verschont, aber mit DLSS tritt es eben deutlich häufiger auf.
Ja und? Wenn dich das so sehr stört, wird DLSS nie was für dich sein. Schade, aber ist dann halt so. Du wirst mit allen Verfahren immer einen Winkel finden, der kaputt ist. Dann spiel halt Nativ und ohne TAA und freu dich über die vielen Kanten :D
Dampf
2020-11-19, 11:58:44
Ja und? Wenn dich das so sehr stört, wird DLSS nie was für dich sein. Schade, aber ist dann halt so. Du wirst mit allen Verfahren immer einen Winkel finden, der kaputt ist. Dann spiel halt Nativ und ohne TAA und freu dich über die vielen Kanten :D
Ich kann damit leben. Raytracing mit DLSS sieht in Watch Dogs auch deutlich besser aus als nativ und ohne Raytracing. Und natürlich sieht es auch besser aus als ohne irgendein AA.
Trotzdem ist es wichtig, solche Fehler anzusprechen.
Troyan
2020-11-19, 11:59:50
Im Video deaktiviert die Person DLSS und der Effekt is weg.
Auch ich konnte das in Watch Dogs nachprüfen, der Effekt war weg als ich DLSS deaktivierte.
Natürlich ist TAA auch nicht davon verschont, aber mit DLSS tritt es eben deutlich häufiger auf.
Der Effekt existiert auch mit TAA. Vielleicht nicht so ausgeprägt, aber was hilft das einem, wenn ich mit DLSS 40FPS und mit 4K/TAA 25FPS habe?
Immer noch nicht verstanden, dass zuerst Frames und dann BQ kommt? Wir reden hier ja nicht darüber, dass ich mich zwischen 100 und 160FPS entscheiden müsste...
Asaraki
2020-11-19, 12:13:14
Ich kann damit leben. Raytracing mit DLSS sieht in Watch Dogs auch deutlich besser aus als nativ und ohne Raytracing. Und natürlich sieht es auch besser aus als ohne irgendein AA.
Trotzdem ist es wichtig, solche Fehler anzusprechen.
Du nennst es Fehler. Ich nenne es bewusste Schwächen.
Anders gefragt : Wie würdest du das "Problem" denn lösen? Kannst du gerne gleich an nVidia schicken ^^ Dann kriegst du gleich eine 250k offer.
Hier ein Video von Death Stranding, um zu sehen, was ich meine:
https://www.youtube.com/watch?v=af8y6431s6Y
Also das Beispiel sieht ohne DLSS wohl deutlich schlimmer aus.
Mit deaktiviertem DLSS flimmert die gesamte Fläche, mit DLSS nur ein recht begrenzter Bereich.
Schön ist beides nicht, aber die DLSS Variante definitiv weniger unschön.
Und sicher dass es an DLSS liegt, das Ganze erinnert eher an eine längst vergangene Zeit der AF-Optimierungen, und Standard nach der Treiberinstallation ist die Texturfilterung ja auf Quality und Tri-Optimization aktiv.
Ich hab zwar kein Death Stranding, aber Watchdogs und da wäre mir sowas mit DLSS bis jetzt noch nicht aufgefallen. Das erste was ich nach einer Treiberinstallation allerdings checke ist ob die Texturfilteroptimierungen wohl alle deaktiviert sind und diese auf High Quality steht, sowie LOD-Clamp aktiv ist.
Dampf
2020-11-19, 19:47:47
Mit Cyberpunk 2077 findet nun die ultimative DLSS Stufe ihren Weg zu uns: Laut PCGH bietet DLSS nun den Menüpunkt "automatisch" https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/News/Grafikeinstellungen-Raytracing-1362164/
Sehr wahrscheinlich wird in dem Modus DLSS mit dynamischer Auflösung kombiniert, heißt ihr wählt ein FPS Target aus und DLSS erledigt den Rest. Da es so gut im Rekonstruieren ist, sollte es nicht mal auffallen, wenn die Auflösung zugunsten der Framerate reduziert wird.
Da bin ich schon sehr gespannt, das mal zu testen.
@Gast guter Einwand, wenn mir der Effekt mal wieder auffällt, dann checke ich das mal. Bisher war bei mir immer Zulassen statt Clamp eingestellt. Im Menüpunkt steht sogar "Kann zu Aliasing-Effekt führen"
Akkarin
2020-11-20, 10:25:28
Welche Seite macht die meisten Benchmarks zu DLSS, gerade auch bez. Raumverbrauch und Super Resolution ? Much juckt es ja in den Fingern zu sehen wie auf meinem 1440p Monitor ein 5K+ultra DLSS Bild aussehen würde, aber was DF zum Raumverbrauch sagt macht mich skeptisch ob die 3070 das schafft. Details kann man zur bot immer runter stellen, aber wenns ins Ramlimit rennt ist's einfach vorbei.
Oder sehe ich das als AMD-Jünger zu skeptisch ?
woodsdog
2020-11-20, 10:29:07
Gibt es eigentlich Kostenloses DLSS 2.0 Software-Futter für "mal zum schauen"? Ich will jetzt pauschal eigentlich keines der bisherigen Spiele nur dafür kaufen.
-/\-CruNcher-/\-
2020-11-20, 10:33:55
Welche Seite macht die meisten Benchmarks zu DLSS, gerade auch bez. Raumverbrauch und Super Resolution ? Much juckt es ja in den Fingern zu sehen wie auf meinem 1440p Monitor ein 5K+ultra DLSS Bild aussehen würde, aber was DF zum Raumverbrauch sagt macht mich skeptisch ob die 3070 das schafft. Details kann man zur bot immer runter stellen, aber wenns ins Ramlimit rennt ist's einfach vorbei.
Oder sehe ich das als AMD-Jünger zu skeptisch ?
Es ist nicht ganz Vorbei du kannst immernoch auf den Main Memory ausweichen, es wird halt nur erheblich langsamer.
Akkarin
2020-11-20, 10:52:55
Da Ich durchaus Spielen und keine Standbilder ansehen will ist das für mich das Selbe.
Tobalt
2020-11-20, 10:54:07
gibt es irgendwo folgenden vergleich:
rendern in 1440p --DLSS-> 4k
vs
rendern in 1440p --DLSS-> 8k --DSR-> 4k
Performance sollte grob gleich sein, aber habe keine solide Erwartungshaltung was besser aussieht (abseits von entstellten UIs durch DSR).
knüpft an Akarins Frage an: wenn 1) wenigstens gleichgut aussieht, dann erübrigt sich DSR im Prinzip.
-/\-CruNcher-/\-
2020-11-20, 10:55:28
Da Ich durchaus Spielen und keine Standbilder ansehen will ist das für mich das Selbe.
Kann ich verstehen nutze das oft zum Rendern von komplexen Szenen die ich ansonsten mit dem VRAM Limit nie Rendern könnte ohne zu crashen für Offline Rendering mit ML Denoise durchaus nutzbar aus 8 mach 40 GB ;)
Gibt es eigentlich Kostenloses DLSS 2.0 Software-Futter für "mal zum schauen"? Ich will jetzt pauschal eigentlich keines der bisherigen Spiele nur dafür kaufen.
Von Bright Memory gibt es glaub ich noch die kostenlose Demo.
Ich bin mir aber nicht sicher ob da schon die neueste Version drinnen ist.
Gibt es eigentlich Kostenloses DLSS 2.0 Software-Futter für "mal zum schauen"? Ich will jetzt pauschal eigentlich keines der bisherigen Spiele nur dafür kaufen.
fortnite^^
BlacKi
2020-11-20, 11:11:13
Gibt es eigentlich Kostenloses DLSS 2.0 Software-Futter für "mal zum schauen"? Ich will jetzt pauschal eigentlich keines der bisherigen Spiele nur dafür kaufen.
es gibt hier unreal engine builds zum testen
https://youtu.be/g1p7qROx6xo
hier ist die infiltrator demo mit dlss und RT
https://onedrive.live.com/?cid=d702fd2a6252d169&id=D702FD2A6252D169%21152442&authkey=!AMSDVH-q6LQ_qbk
alternativ kannst du dir dein eigenes spiel bauen mit RT und Dlss mit der kostenlosen unreal engine.
sapito
2020-11-20, 11:25:35
Gibt es eigentlich Kostenloses DLSS 2.0 Software-Futter für "mal zum schauen"? Ich will jetzt pauschal eigentlich keines der bisherigen Spiele nur dafür kaufen.
Game Pass sollte helfen XD
aufkrawall
2020-11-20, 11:55:54
Gibt es eigentlich Kostenloses DLSS 2.0 Software-Futter für "mal zum schauen"? Ich will jetzt pauschal eigentlich keines der bisherigen Spiele nur dafür kaufen.
Fortnite.
Würde DLSS von Zen3 profitieren?
Troyan
2020-11-20, 12:56:33
gibt es irgendwo folgenden vergleich:
rendern in 1440p --DLSS-> 4k
vs
rendern in 1440p --DLSS-> 8k --DSR-> 4k
Performance sollte grob gleich sein, aber habe keine solide Erwartungshaltung was besser aussieht (abseits von entstellten UIs durch DSR).
knüpft an Akarins Frage an: wenn 1) wenigstens gleichgut aussieht, dann erübrigt sich DSR im Prinzip.
Soweit ich es sehe, kostet DLSS@Ultra Performance mit 8k downsampling deutlich mehr Leistung als DLSS@Quality in 4K. Imo lohnt sich das nur, wenn man einen 8K Monitor hat. DLSS muss ja doppelt soviele Pixel erzeugen. Der Unterschied in der Qualität ist kaum erkennbar beim Downsampling.
Awrack
2020-11-20, 14:02:24
Könnte DLSS von Zen3 profitieren?
Gouvernator
2020-11-20, 14:05:36
Soweit ich es sehe, kostet DLSS@Ultra Performance mit 8k downsampling deutlich mehr Leistung als DLSS@Quality in 4K. Imo lohnt sich das nur, wenn man einen 8K Monitor hat.
Nope. Lohnt sich nicht. In 8K sieht bereits normaler "Performance" Mode schon Scheiße genug aus. "Ultra" legt noch eine Schippe drauf. Es mag sein durch Ray Tracing die Bildqualität insgesamt besser ist mit "Ultra-Perf" aber unter normaler 3D Grafik wie in Marvels Avengers sieht nur 8K Balanced DLSS akzeptabel gut aus. Bei 8K muss die Bildqualität herausragend sein - egal wie. Und zwar immer so viel besser, das man nicht auf 4K/120 zurück schalten will.
Akkarin
2020-11-20, 14:17:03
Wurden schon Ultra vs Balanced Tests auf niedrigeren Einstellungen gemacht ?
Könnte DLSS von Zen3 profitieren?
Nein, wie denn, das läuft zu 100% auf der Grafikkarte.
dildo4u
2020-11-21, 09:00:26
Rennt zwar schon so gut aber das default TAA ist eine Katastrophe.
k472QLQEdYI
dargo
2020-11-21, 09:13:53
So ein Quatsch. Woran machst du das fest? Nur weil DLSS stärker nachschärft ist das TAA noch lange keine Katastrophe. :rolleyes: Auch beim TAA kannst du nachschärfen.
Edit:
Hier sieht man auch schön das Problem von DLSS bei der Unterabtastung trotz 4k, bei 1440p dürfte das noch schlechter aussehen.
https://abload.de/img/dlssekjt2.png
Bei aller Euphorie... perfekt sind diese Features noch lange nicht. Diese Stelle flimmert auch deutlich stärker mit DLSS als ohne. Bei dem Flugzeug flimmert DLSS auch deutlich stärker wenn sich der Kamerablickwinkel ändert. TAA greift dort sogar richtig gut, kaum Flimmern.
Asaraki
2020-11-21, 11:15:13
Korrekt, aber wir sind noch weit weg von einem wirklichen Test. Das ganze Screenshot-Vergleichen ist ja im Prinzip unsinnig. Man müsste eine ganze Sequenz automatisiert vergleichen und das mit dem gleichen Modus über unzählige Spiele.
Ich bin sicher das macht nV bereits und wird dort keyframes haben, aber die Frage "wie viele Szenen sind für wie viele Frames schlechter gerendert (und unterteilt nach "Fehlerkategorie") mit DLSS vs ohne und dann auch noch in Relation zum relativen FPS-Gain gesetzt"
Erst dann kann irgendwer die Frage nach "wie gut ist DLSS" beantworten und das kann aktuell kein Mensch. Das ist alles Smoke Testing und Vergleichen von zufälligen Bildern.
(Und auch dann kann man korrekterweise noch sagen, dass das alle künstlich ist und es vor allem dann zählt, wenn man z.B. MP-Shooter zockt)
Ich halte das so :
Ich mach's ein und wenn's mir besser gefällt, dann lass ich's drin und sonst mach ich's weg. Bei WDL hab ich's z.B. aus, aber da hänge ich auch im CPU Limit :D
BlacKi
2020-11-21, 12:04:52
Könnte DLSS von Zen3 profitieren? wenn du dadurch ein cpu limit vermeidest oder reduzierst, könnten dann mehr fps drinn sein. grafisch auf jedenfall mal nicht.
Dampf
2020-11-21, 12:30:39
So ein Quatsch. Woran machst du das fest? Nur weil DLSS stärker nachschärft ist das TAA noch lange keine Katastrophe. :rolleyes: Auch beim TAA kannst du nachschärfen.
Edit:
Hier sieht man auch schön das Problem von DLSS bei der Unterabtastung trotz 4k, bei 1440p dürfte das noch schlechter aussehen.
https://abload.de/img/dlssekjt2.png
Bei aller Euphorie... perfekt sind diese Features noch lange nicht. Diese Stelle flimmert auch deutlich stärker mit DLSS als ohne. Bei dem Flugzeug flimmert DLSS auch deutlich stärker wenn sich der Kamerablickwinkel ändert. TAA greift dort sogar richtig gut, kaum Flimmern.
Normalerweise macht DLSS genau das Gegenteil von dem Screenshot, feine Linien ergänzt es.
Die Implementation War Thunder hab ich bereits ausprobiert, zumindest auf 1440p überzeugt sie leider nicht...
Geldmann3
2020-11-21, 13:00:55
Finde, dass es im Screenshot noch immer ziemlich gut aussieht, für die Performance. In Kombination mit VRS sollten solche Probleme in Zukunft verschwinden. Bei feinen Strukturen könnte DLSS Übersamplen und im Himmel oder an sehr dunklen Stellen untersampeln. Das ist die Zukunft.
Ältere Spiele, die sowas nicht ordentlich implementiert haben, wird man in Zukunft einfach mit 8k+SMAA erschlagen können, wie ich es heute bereits tue.
Es wird allerdings mal Zeit für Nvidia und AMD DSR und VSR zu verbessern. Das wurde von Gefühl her seit Release nahezu vergessen.
VSR ist beispielsweise, scheinbar, auf interne 5k limitiert. Und DSR arbeitet mit vielen Monitoren und TVs nur via EDID Hacks ordentlich zusammen, wenn überhaupt.
Dabei finde ich es einfach optimal in neueren Games temporale Techniken wie TAA oder DLSS zu perfektionieren und ältere Games einfach Brute-Force mit Auflösung zu erschlagen.
-/\-CruNcher-/\-
2020-11-21, 14:36:27
es gibt hier unreal engine builds zum testen
https://youtu.be/g1p7qROx6xo
hier ist die infiltrator demo mit dlss und RT
https://onedrive.live.com/?cid=d702fd2a6252d169&id=D702FD2A6252D169%21152442&authkey=!AMSDVH-q6LQ_qbk
alternativ kannst du dir dein eigenes spiel bauen mit RT und Dlss mit der kostenlosen unreal engine.
https://developer.download.nvidia.com/gameworks/dlss/NVIDIA_DLSS_License_Agreement-%2806.26.2020%29.pdf
This supplement is an exhibit to the Agreement and is incorporated as an integral part of the Agreement. In the event of conflict between the terms in this supplement and the terms in the Agreement, the terms in this supplement govern.
1.Interoperability. Your applications that incorporate, or are based on, the SDK must be fully
interoperable with GPU hardware products designed by NVIDIA or its affiliates.
Geldmann3
2020-11-21, 15:30:48
https://developer.download.nvidia.com/gameworks/dlss/NVIDIA_DLSS_License_Agreement-%2806.26.2020%29.pdf
Vielen Dank dafür! :)
Für mich ist DLSS der neue heiße Scheiss...extrem beeindruckend
Letztendlich heißt das Credo: mehr Qualität bei 20-40% mehr Speed
TheAntitheist
2020-11-21, 20:13:17
So ein Quatsch. Woran machst du das fest? Nur weil DLSS stärker nachschärft ist das TAA noch lange keine Katastrophe. :rolleyes: Auch beim TAA kannst du nachschärfen.
Edit:
Hier sieht man auch schön das Problem von DLSS bei der Unterabtastung trotz 4k, bei 1440p dürfte das noch schlechter aussehen.
https://abload.de/img/dlssekjt2.png
Bei aller Euphorie... perfekt sind diese Features noch lange nicht. Diese Stelle flimmert auch deutlich stärker mit DLSS als ohne. Bei dem Flugzeug flimmert DLSS auch deutlich stärker wenn sich der Kamerablickwinkel ändert. TAA greift dort sogar richtig gut, kaum Flimmern.
die Äste sehen schlechter aus, der Rest sieht aber weit schärfer aus, also dennoch ein Win:Win weil mehr performance und zu 99% besseres Bild
Tobalt
2020-11-23, 14:02:33
Ich finde den Vergleich von DLSS vs Nativ auch irgendwie hinrissig, da die beiden weder gleiche Bildqualität haben, noch gleiche Performance und man immer argumentieren muss, was nun gerade schwerer wiegt.
Entweder:
- man vergleicht die *Qualität* von 4K DLSS mit zB WQHD nativ, bzw einer auflösung die dann gleiche FPS bietet
Oder:
- man postuliert dass 4K TAA zB die gleiche Qualität hat wie 4K DLSS Quality und vergleicht dann die FPS.
In beiden Fällen wird der brachiale Fortschritt von DLSS deutlich.
Daredevil
2020-11-23, 14:09:56
FPS sind aber halt auch ein Teil der Bildqualität, es geht nicht nur um Texturschärfe.
Wenn ich bei FFX z.B. in 30/60fps die Kamera schwenke, kann ich viel weniger erkennen bei Bewegung, als mit 120fps.
-Für mich- ist z.B. der Wechsel von 4K auf WQHD, dafür aber 120fps statt 60fps, ein riesen Fortschritt in Bild und Spielqualität. Wenn man sowas dann mit DLSS noch kaschiert, give it to me. ^^
Für manche ist das Ziel Auflösung XYZ in maximal viel FPS, für mich ist das Ziel 120fps in maximal viel Qualität. ^^
Jeder hat so seine Herangehensweise, DLSS hat mich da noch nie im Stich gelassen bei meinem Bedürfniss.
Dampf
2020-11-23, 14:22:41
DLSS in Bright Memory Infinite kann man nur empfehlen.
Perfekte Bildschärfe.
Keine Artefakte /nachziehen von Partikeln.
Scharfe RT Reflektionen.
So muss es sein. Keine Ahnung warum es ein Mann hinkriegt und große Publisher nicht.
aufkrawall
2020-11-23, 14:25:15
Keine Ahnung warum es ein Mann hinkriegt und große Publisher nicht.
Das ist bei Software-Entwicklung doch nichts unübliches. :freak:
Dampf
2020-11-25, 00:45:53
Also das Beispiel sieht ohne DLSS wohl deutlich schlimmer aus.
Mit deaktiviertem DLSS flimmert die gesamte Fläche, mit DLSS nur ein recht begrenzter Bereich.
Schön ist beides nicht, aber die DLSS Variante definitiv weniger unschön.
Und sicher dass es an DLSS liegt, das Ganze erinnert eher an eine längst vergangene Zeit der AF-Optimierungen, und Standard nach der Treiberinstallation ist die Texturfilterung ja auf Quality und Tri-Optimization aktiv.
Ich hab zwar kein Death Stranding, aber Watchdogs und da wäre mir sowas mit DLSS bis jetzt noch nicht aufgefallen. Das erste was ich nach einer Treiberinstallation allerdings checke ist ob die Texturfilteroptimierungen wohl alle deaktiviert sind und diese auf High Quality steht, sowie LOD-Clamp aktiv ist.
Nochmal dazu: Watch Dogs hab ich zwar grad nicht installiert, aber ich konnte das Problem auch bei einem Gitter in Control feststellen und hab es da mal getestet.
Mit deinem Vorschlag, die Filterung auf Clamp zu setzen, verschwand der Effekt und das Bild war sehr ruhig. Danke dafür. :) Hab das auch 2x nachgeprüft, mit Zulassen war es wieder da, mit Clamp weg. Sollte also auch mit Watch Dogs so sein.
Komisch, dass die Standard-Einstellung nicht Clamp ist.
aufkrawall
2020-11-25, 01:03:57
Das kommt mir seltsam vor, die Option ist schon seit Ewigkeiten tot.
Geldmann3
2020-11-25, 01:16:04
Kann mir jemand technisch erklären, was genau ,,Clamp" tut?
x-force
2020-11-25, 01:32:01
es stellt sicher, daß die korrekte lod stufe genutzt wird.
zum faken von schärfe auf standbildern und für ssaa ist es ganz praktisch eine nähere lod stufe zu benutzen. in allen anderen fällen versaust du damit nyquist shannon und es flimmert.
Reaping_Ant
2020-11-25, 01:32:03
Es wird allerdings mal Zeit für Nvidia und AMD DSR und VSR zu verbessern. Das wurde von Gefühl her seit Release nahezu vergessen.
Wenn die Anwendung selbst entscheidet, was in welcher Auflösung gerendert werden soll, ist das doch hinfällig, oder? Idealerweise ist die Renderauflösung komplett unabhängig von der Anzeigeauflösung. Meine Wunschvorstellung ist, dass man nur ein FPS-Target vorgibt und die Anwendung dann die zur Verfügung stehende Rechenleistung je nach Bedarf auf die einzelnen Bildbereiche verteilt. Besonders wenn man dabei noch berücksichtigt, was vom neuralen Netz gut rekonstruiert werden kann und was nicht, sollte das deutlich effizienter sein als einfach stur alles in einer höheren Auflösung zu rendern.
aufkrawall
2020-11-25, 01:54:33
Kann mir jemand technisch erklären, was genau ,,Clamp" tut?
Damit konnte man Pre-Fermi LOD-Bias 0 erzwingen. Wie du im Filtertester sehen können solltest, ist die Option seit Fermi oder Kepler aber nur noch eine Leiche.
Von daher wundert mich Dampfs Aussage.
es stellt sicher, daß die korrekte lod stufe genutzt wird.
zum faken von schärfe auf standbildern und für ssaa ist es ganz praktisch eine nähere lod stufe zu benutzen. in allen anderen fällen versaust du damit nyquist shannon und es flimmert.
Wobei man dazusagen muss, dass in Zeiten temporaler Bilddatenverrechnung jede Art von Flimmern gemindert wird - auch klassisches Textur-Aliasing, wie es durch ein negatives Texture-LOD verursacht wird. Ich spiele derzeit nur noch mit "optimiertem" (= schnellerem) AF, denn TAA und etwas Downsampling bekämpfen die Symptome meist bis zur Unsichtbarkeit.
Wenn die Anwendung selbst entscheidet, was in welcher Auflösung gerendert werden soll, ist das doch hinfällig, oder? Idealerweise ist die Renderauflösung komplett unabhängig von der Anzeigeauflösung. Meine Wunschvorstellung ist, dass man nur ein FPS-Target vorgibt und die Anwendung dann die zur Verfügung stehende Rechenleistung je nach Bedarf auf die einzelnen Bildbereiche verteilt. Besonders wenn man dabei noch berücksichtigt, was vom neuralen Netz gut rekonstruiert werden kann und was nicht, sollte das deutlich effizienter sein als einfach stur alles in einer höheren Auflösung zu rendern.
Sowas gibt's ja bereits ein einigen Spielen, u. a. Assassin's Creed Valhalla. Doof ist nur, wenn mal etwas anderes als die GPU limitiert, dann bringt dir die Pixelschubserei nichts. :ugly:
MfG
Raff
Akkarin
2020-11-25, 10:53:19
"Schnelleres" AF heißt was ? 8x ? 4x ?
Dampf
2020-11-25, 11:02:51
Das kommt mir seltsam vor, die Option ist schon seit Ewigkeiten tot.
Anscheinend nicht, also ich hab sie zumindest:
aufkrawall
2020-11-25, 11:10:55
Wobei man dazusagen muss, dass in Zeiten temporaler Bilddatenverrechnung jede Art von Flimmern gemindert wird - auch klassisches Textur-Aliasing, wie es durch ein negatives Texture-LOD verursacht wird.
In BF1/V klappt das schon mal nicht sonderlich gut.
Anscheinend nicht, also ich hab sie zumindest:
Ich hab auch nicht gesagt, dass sie nicht da wäre. Ich hab gesagt, sie hat im Filtertester/in Spielen mit negativem LOD keinen Effekt.
Tobalt
2020-11-25, 11:14:53
Sowas gibt's ja bereits ein einigen Spielen, u. a. Assassin's Creed Valhalla. Doof ist nur, wenn mal etwas anderes als die GPU limitiert, dann bringt dir die Pixelschubserei nichts. :ugly:
Deshalb ist es aktuell wichtiger denn je, die CPU parallelisierung zu erhöhen um das CPU Limit weiter raus zu schieben, wie ich schon oft schrieb.
Ein sinnvollerer Wert als "60" oder "120" Hz wäre auch entsprechend "CPULimit" Hz.
Man würde also permanent sowohl im CPU als *auch* im GPU Limit rendern. -> Perfekte Hardwareausnutzung.
Eine schnellere CPU erhöht die Bildrate, eine schneller GPU erhöht die Bildqualität. Die Welt war noch nie so einfach :freak:
Dampf
2020-11-25, 11:23:09
In BF1/V klappt das schon mal nicht sonderlich gut.
Ich hab auch nicht gesagt, dass sie nicht da wäre. Ich hab gesagt, sie hat im Filtertester/in Spielen mit negativem LOD keinen Effekt.
Hm, zumindest bei DLSS scheint sie ja was zu tun.
"Schnelleres" AF heißt was ? 8x ? 4x ?
16:1, aber mit Filter-Optimierungen (Samples, Grundfilter). Im NV-Treiber kann man die getrennt ein- und ausschalten.
MfG
Raff
aufkrawall
2020-11-25, 11:45:23
Wo wir gerade davon reden: Mit Navi steigt die Performance im Filtertester übrigens leicht mit bis zu einem LOD von -2. Bei NV mit HQ-Filterung werden die fps dabei schon gut gekeult, wenn ich mich nicht irre?
-/\-CruNcher-/\-
2020-11-26, 00:46:34
Weiss eigentlich jemand wie viel overhead DLSS 2.0 selbst benötigt wenn Nvidia es über CUDA inferencen würde anstelle der späteren Tensor Optimierungen ?
Mich verwundert es ein bischen das sie bei RT unbedingt den support für DXR (RTX) aufrecht gehalten haben (vermutlich um ja eher zu zeigen macht keinen sinn da ist der Weg zu RTX) für Pre Turing aber bei DLSS eben nicht.
Es wäre interesant ob es auch ohne "Tensor Cores" Parallel immernoch einen Performanceboost bringen würde wenn es concurent über CUDA läuft.
Da fragt man sich ob sie nicht irgendwo im Treiber auch dafür einen testpath haben ;)
Auch wie die eigene Reflections Demo das handelt die supportet doch DLSS hmm also wird DLSS bei den Pre Turings deaktiviert und ab Turing aktiviert in der Reflections Demo ?
Sprich der Performance boost von DLSS greift nur ab Turing bei der Reflections Demo und Pre Turing sehen zwar RTX aber ohne DLSS boost ?
Dampf
2020-11-26, 01:29:47
Das ist die Frage aller Fragen, das würde mich auch brennend interessieren, wie die Performance von DLSS auf den CUDA-Kernen wäre.
Ob wir das je erfahren? Gehackt scheint da offenbar auch noch nichts zu sein...
Geldmann3
2020-11-26, 01:35:53
Weiss eigentlich jemand wie viel overhead DLSS 2.0 selbst benötigt wenn Nvidia es über CUDA inferencen würde anstelle der späteren Tensor Optimierungen ?
Mich verwundert es ein bischen das sie bei RT unbedingt den support für DXR (RTX) aufrecht gehalten haben (vermutlich um ja eher zu zeigen macht keinen sinn da ist der Weg zu RTX) für Pre Turing aber bei DLSS eben nicht.
Es wäre interesant ob es auch ohne "Tensor Cores" Parallel immernoch einen Performanceboost bringen würde wenn es concurent über CUDA läuft.
Da fragt man sich ob sie nicht irgendwo im Treiber auch dafür einen testpath haben ;)
Auch wie die eigene Reflections Demo das handelt die supportet doch DLSS hmm also wird DLSS bei den Pre Turings deaktiviert und ab Turing aktiviert in der Reflections Demo ?
Sprich der Performance boost von DLSS greift nur ab Turing bei der Reflections Demo und Pre Turing sehen zwar RTX aber ohne DLSS boost ?
Wenn ich mich nicht täusche, hat DLSS Version 1.9 gar nicht wirklich Verwendung von den Tensor Cores gemacht, obwohl es so vermarktet wurde, wobei die Version 1.9 zugleich die erste Version war, die kein Training für einzelne Games mehr benötigte und auch einen wesentlichen Qualitätsboost über DLSS 1.0 bot. Es war die erste DLSS-Version mit dem Fokus auf dem temporalen Ansatz. (Eher Temporales Upsampling als AI-Upscaling.) Qualitätsmäßig war DLSS 1.9 bereits besser als das temporale Upsampling der Unreal Engine und das ist in meinen Augen auch das Niveau, was wir von AMDs Superresolution erwarten können. Wenn ich mich richtig erinnere, ist man dann mit Version 2.0 erst wirklich auf die Tensor-Cores umgesprungen und hat damit angeblich eine bessere Qualität und Performance erreicht als man es mit den klassischen Shadern hinbekommen hat.
aufkrawall
2020-11-26, 01:42:57
Da "1.9" offenbar nur als Zwischenschritt geplant war, muss das nicht der Weisheit letzter Schluss für eine Lösung sein, die nicht über TCs läuft. Eher kann man das Gegenteil annehmen.
Geldmann3
2020-11-26, 01:52:13
Da "1.9" offenbar nur als Zwischenschritt geplant war, muss das nicht der Weisheit letzter Schluss für eine Lösung sein, die nicht über TCs läuft. Eher kann man das Gegenteil annehmen.
Das hoffe ich. Es entspricht nur meiner Erfahrung aus der Softwareentwicklung, dass da so schnell nichts Besseres mehr kommt. Doch ich halte es für durchaus vorstellbar, dass da noch etwas viel Besseres kommt.
Hier (https://www.youtube.com/watch?v=YWIKzRhYZm4) ein paar ganz ansehnliche Vergleiche zwischen DLSS v1.9 und 2.0.
Wenn da in den nächsten 3 Monaten etwas Effektiveres kommt als DLSS 1.9 dann bleibt mir an die Entwickler bei AMD nur zu sagen:,,Gute Arbeit!"
-/\-CruNcher-/\-
2020-11-26, 02:24:37
Viele der Probleme von 1.9 Control Northlight sind Unreals current wenn man vergleichbare high quality Assets nutzt vor allem das temporal jittering und ghosting bei solchen komplexen alpha transparenten objekten mit high density mesh struktur da wirds richtig böse, vor allem wenn die sich in motion überlappen.
Den Schärfe Slider über den Alex spricht sehen wir anscheinend noch immer nirgends
woodsdog
2020-11-26, 08:10:28
Viele der Probleme von 1.9 Control Northlight sind Unreals current wenn man vergleichbare high quality Assets nutzt vor allem das temporal jittering und ghosting bei solchen komplexen alpha transparenten objekten mit high density mesh struktur da wirds richtig böse, vor allem wenn die sich in motion überlappen.
Den Schärfe Slider über den Alex spricht sehen wir anscheinend noch immer nirgends
Diesen verschwurbelten Unsinn kann man nicht lesen!
kein Satzbau
keine Satzzeichen
und dieses Denglisch WTF
Spar dir solchen Quark
Weiss eigentlich jemand wie viel overhead DLSS 2.0 selbst benötigt wenn Nvidia es über CUDA inferencen würde anstelle der späteren Tensor Optimierungen ?
Mangels Referenz kann Dir diese Frage wohl nur ein DLSS- Techie selbst beantworten.
Man hat schon DLSS1.9, welches CUDA gestütz arbeitet, gegen DLSS2.0 antreten lassen. Letzteres war zwar langsamer, hat streckenweise aber so deutlich mehr mit Qualität geglänzt bzw. weniger Artefakte erzeugt, dass dort wiederum keine wirkliche Vergleichbarkeit gegeben ist.
Mich verwundert es ein bischen das sie bei RT unbedingt den support für DXR (RTX) aufrecht gehalten haben (vermutlich um ja eher zu zeigen macht keinen sinn da ist der Weg zu RTX) für Pre Turing aber bei DLSS eben nicht.
Weil wohl ein ursprüngliches Konzept vorgesehen hat, dass explizit über die Tensor- Cores beschleunigt wird.
Wobei ich schon lange keinen Titel mehr durch den Profiler gejagt habe.
Mich würde nicht wundern, wenn Nvidia auch bei DLSS 2.0 noch "cheated" und da zwar schon Berechnungen drüber laufen, aber dann doch das meiste über Cuda abgewickelt wird ;)
Wenn ich aber eines sicher sagen kann ist, dass das, was sie sich zu Anfangs mit den Tensor- Cores ausgesponnen haben, nicht so funktioniert hat, wie es ursprünglich versprochen wurde.
Wie schon mit dem Denoising, bei welchem die Tensor- Cores als das Mittel der Wahl dargestellt wurden. Wo ist denn der realtime- Tensor- Cores Denoiser nun abgeblieben?
Stattdessen belasten die Denoiser nun die Cuda Cores, wobei sich Ampere hier mit seinen stark verbreiterten FP32 Cores Vorteile "ermogelt".
Dennoch schlagen die Denoiser richtig ins GPU Budget.
Das finde ich bis jetzt ein wenig unterwältigend und war bezüglich der Konsumenten schon ein wenig irreführend, was einem da alles untergejubelt werden sollte.
Sprich der Performance boost von DLSS greift nur ab Turing bei der Reflections Demo und Pre Turing sehen zwar RTX aber ohne DLSS boost ?
Die Reflections Demo war eine Präsentation bezüglich des Zusammenspiel des gesamten Featuresets.
Wie sah es vorher aus ... und wie dann mit Turing. Da war es garnicht erwünscht ein großes Augenmerk auf DLSS zu lenken, da dieses ja auch exklusiv als Tensor- Core- Feature vermarktet wurde.
Troyan
2020-11-29, 13:05:34
Call of Duty bietet eine interne Renderauflösung von 22% an und skaliert dann auf 4K. Also kann man perfekt 720p@4K und DLSS-UP@4K vergleichen:
https://s1.imagebanana.com/file/201129/thb/yHl20CgO.png (https://www.imagebanana.com/s/1954/yHl20CgO.html)
https://s1.imagebanana.com/file/201129/thb/kRMQkLsy.png (https://www.imagebanana.com/s/1954/kRMQkLsy.html)
Ich denke, damit ist auch geklärt, dass DLSS ein eigenes Upscaling durchführt und somit zu deutlich besseren Ergebnissen führt als das Spiel oder Treiber/Monitor.
Der Leistungverlust in Cold War mit DLSS gegenüber nativ beträgt ca. 8%. Damit ist z.B. DLSS-Quality@4K mit Raytracing in vielen Fällen schneller als nativ 4K ohne Raytracing.
Wenn ich mich nicht täusche, hat DLSS Version 1.9 gar nicht wirklich Verwendung von den Tensor Cores gemacht, obwohl es so vermarktet wurde, wobei die Version 1.9 zugleich die erste Version war, die kein Training für einzelne Games mehr benötigte und auch einen wesentlichen Qualitätsboost über DLSS 1.0 bot.
Dafür gibt es soweit ich weiß keinerlei wirkliche Besätigung, es wurde nur immer wieder vermutet.
Dampf
2020-11-29, 21:39:04
Das ist sehr beeindruckend.
Ist schon Wahnsinn, was das DLNN hier leistet dank der Leistung die von den Tensor Cores zur Verfügung gestellt werden.
Asaraki
2020-11-29, 22:26:39
Ich denke, damit ist auch geklärt, dass DLSS ein eigenes Upscaling durchführt und somit zu deutlich besseren Ergebnissen führt als das Spiel.
Das war doch niemals bestritten, dass DLSS auch Upscaling beinhaltet. Man hat nur die Aussage "DLSS ist ein Upscaler" zu Recht als Unsinn abgetan. Oder was meinst du damit?
Das ist sehr beeindruckend.
Ist schon Wahnsinn, was das DLNN hier leistet dank der Leistung die von den Tensor Cores zur Verfügung gestellt werden.
Bisschen komisch ausgedrückt. Das DLNN ist eine eigene Leistung, deren Resultat dann von den Tensor Cores "interpretiert / appliziert" wird. Anders gesagt, dem DLNN ist die Leistung der Tensorcores erstmal egal.
crux2005
2020-11-29, 22:33:54
Call of Duty bietet eine interne Renderauflösung von 22% an und skaliert dann auf 4K. Also kann man perfekt 720p@4K und DLSS-UP@4K vergleichen:
https://s1.imagebanana.com/file/201129/thb/yHl20CgO.png (https://www.imagebanana.com/s/1954/yHl20CgO.html)
https://s1.imagebanana.com/file/201129/thb/kRMQkLsy.png (https://www.imagebanana.com/s/1954/kRMQkLsy.html)
Ich denke, damit ist auch geklärt, dass DLSS ein eigenes Upscaling durchführt und somit zu deutlich besseren Ergebnissen führt als das Spiel oder Treiber/Monitor.
Der Leistungverlust in Cold War mit DLSS gegenüber nativ beträgt ca. 8%. Damit ist z.B. DLSS-Quality@4K mit Raytracing in vielen Fällen schneller als nativ 4K ohne Raytracing.
Das 22% Res Bild bitte nachschärfen und dann vergleichen.
-/\-CruNcher-/\-
2020-11-29, 23:09:16
Mangels Referenz kann Dir diese Frage wohl nur ein DLSS- Techie selbst beantworten.
Man hat schon DLSS1.9, welches CUDA gestütz arbeitet, gegen DLSS2.0 antreten lassen. Letzteres war zwar langsamer, hat streckenweise aber so deutlich mehr mit Qualität geglänzt bzw. weniger Artefakte erzeugt, dass dort wiederum keine wirkliche Vergleichbarkeit gegeben ist.
Weil wohl ein ursprüngliches Konzept vorgesehen hat, dass explizit über die Tensor- Cores beschleunigt wird.
Wobei ich schon lange keinen Titel mehr durch den Profiler gejagt habe.
Mich würde nicht wundern, wenn Nvidia auch bei DLSS 2.0 noch "cheated" und da zwar schon Berechnungen drüber laufen, aber dann doch das meiste über Cuda abgewickelt wird ;)
Wenn ich aber eines sicher sagen kann ist, dass das, was sie sich zu Anfangs mit den Tensor- Cores ausgesponnen haben, nicht so funktioniert hat, wie es ursprünglich versprochen wurde.
Wie schon mit dem Denoising, bei welchem die Tensor- Cores als das Mittel der Wahl dargestellt wurden. Wo ist denn der realtime- Tensor- Cores Denoiser nun abgeblieben?
Stattdessen belasten die Denoiser nun die Cuda Cores, wobei sich Ampere hier mit seinen stark verbreiterten FP32 Cores Vorteile "ermogelt".
Dennoch schlagen die Denoiser richtig ins GPU Budget.
Das finde ich bis jetzt ein wenig unterwältigend und war bezüglich der Konsumenten schon ein wenig irreführend, was einem da alles untergejubelt werden sollte.
Die Reflections Demo war eine Präsentation bezüglich des Zusammenspiel des gesamten Featuresets.
Wie sah es vorher aus ... und wie dann mit Turing. Da war es garnicht erwünscht ein großes Augenmerk auf DLSS zu lenken, da dieses ja auch exklusiv als Tensor- Core- Feature vermarktet wurde.
Der Denoiser schlägt auch ins VRAM rein ich glaube +500MB für UHD aber das waren offline render daten 1 kompleter frame, danke für deine Beobachtungen und Erfahrungen.
Bei RTX Voice weiss man ja sehr genau es gibt einen CUDA mode aber eben auch Tensor und das lastverhalten ist definitiv diffferent und bei dem Tensor werden die CUDA cores nicht mehr genutzt trotzdem das inferencing selbst funktioniert auch über CUDA igor hat glaube 6% gegen 0% shader gemesen gehabt bei dem RTX Voice Inferencing aber die Tensor Leistung lag nur bei 10% bedingt durch das Power Limit scheinbar.
moment igors interessantesten Messungen Analyse :)
iQ1_WcVQe64
ExiToKARU-U
Ich hab ja mal überlegt so alle Nvidia CUDA Experimente zusammenzufassen und wo die letztendlich hingewandert sind, so viele sachen haben ihre Herkunft ja in Nvidias eigenem CUDA Prototyping und teils funktionieren sie ja auch heute noch ;)
Dampf
2020-11-29, 23:34:52
Das 22% Res Bild bitte nachschärfen und dann vergleichen.
Ihgitt.
-/\-CruNcher-/\-
2020-11-30, 00:39:45
Vor allem sagt es nada über das Temporale verhalten und das wurde ja gerade improved mit DLSS 2.0 wenn es ordentlich implementiert wird.
Das 22% Res Bild bitte nachschärfen und dann vergleichen.
Nachschärfen kannst du beides, wobei Nachschärfen niemals Details erzeugen kann, nur schon vorhandene schärfen.
DLSS erzeugt aber sichtbar mehr Details.
mironicus
2020-12-02, 10:07:58
Wie lange könnte es wohl dauern bis eine Technik wie DLSS alle anderen Antialising-Arten komplett ersetzt?
Ich spiele ja gerne JRPG mit Anime-Optik und da wäre so etwas wie DLSS auch bitter nötig um die Kanten besser zu glätten, denn für eine bessere Darstellung muß man die Auflösung so hoch wie möglich setzen und dann in eine niedrigere Auflösung downsamplen, was enorm Ressourcen frißt. Das könnte man mit DLSS elegant umgehen.
w0mbat
2020-12-02, 10:25:59
Ihgitt.
Das DLSS Bild wurde eindeutig nachgeschärft :rolleyes:
Aber ja, es sieht auf jeden Fall besser aus als 720p@4K.
crux2005
2020-12-02, 22:25:36
Das DLSS Bild wurde eindeutig nachgeschärft :rolleyes:
Du musst verstehen. Wenn es DLSS automatisch macht ist es OK. Nur wenn du es manuell machst ist es verwerflich. ;)
dargo
2020-12-02, 23:04:45
Du musst verstehen. Wenn es DLSS automatisch macht ist es OK. Nur wenn du es manuell machst ist es verwerflich. ;)
Genau. :D
Tobalt
2020-12-03, 09:12:09
dargo,crux,wombat:
Beziehen sich eure Antworten auf den Post von Troyan?
Könnt ihr bitte mal eine Stelle zeigen, wo da Schärfungsartefakte erkennbar sind ? Ich habe auf die Schnelle nichts gefunden.
Für mich sieht das einfach nur aus, als ob das zweite Bild in einer höheren Auflösung gerendert wurde, als das erste, was ja genau dem Effekt von TAA/DLSS entspricht.
dargo
2020-12-03, 09:59:59
Wer sprach von irgendwelchen Schärfungsartefakten?
Tobalt
2020-12-03, 11:45:28
wie will man denn sonst einen nachschärfungsfilter beweisen?
dildo4u
2020-12-12, 14:04:39
8K DLSS Performance in Cyperpunk.
https://youtu.be/55gOelekP60
Gouvernator
2020-12-12, 15:10:43
Ja ich habe die Settings ein bisschen getweakt und Vsync auf 30 festgenagelt. So kann man erstmalig RT und pseudo 8K durchaus genießen.
-/\-CruNcher-/\-
2020-12-12, 15:17:40
Linus hat es auf einem echten 8K Device gesehen Fazit Schrott im Ultra/Performance Mode.
Er hat auch super erklärt, woran wir momentan noch scheitern aus seiner eigenen Empfindung heraus was er gesehen hat.
Sehr empfehlenswerte Psycho visuelle Einschätzung eines trainierten Subjektes auf Native Output.
https://youtu.be/kK45BxjSLCs?t=1633
Und alle DLSS modi wo Temporale Artefakte noch auftretten innerhalb der implementation sind es nicht wert beachtet zu werden
Geldmann3
2020-12-12, 16:02:51
Linus hat es auf einem echten 8K Device gesehen Fazit Schrott im Ultra/Performance Mode.
Er hat auch super erklärt, woran wir momentan noch scheitern aus seiner eigenen Empfindung heraus was er gesehen hat.
Sehr empfehlenswerte Psycho visuelle Einschätzung eines trainierten Subjektes auf Native Output.
https://youtu.be/kK45BxjSLCs?t=1633
Und alle DLSS modi wo Temporale Artefakte noch auftretten innerhalb der implementation sind es nicht wert beachtet zu werden
Wenn ich mich richtig entsinne, merkt er aber später auch, dass er die Texturen nicht auf der höchsten Stufe stehen hatte. Außerdem hatte er zuvor mit DLSS-Auto bereits temporales Supersampling an vielen Stellen im Spiel und hat daher in 8k nicht mal unbedingt mehr Samples vor sich, als mit 4k.
Der Ultra-Performance Modus macht in meinen Augen übrigens ebenfalls keinen großen Sinn. Da könnte man gleich in 4k zocken, was sogar noch besser aussehen kann. ,,Performance DLSS" macht hingegen durchaus Sinn. In 8k sieht das noch um Welten besser aus als SMAA und performt noch dazu wesentlich besser. Natürlich verliert es gegen TAA leicht an Details, doch TAA+8k=Impossible...
Perfekte Bildqualität ist für mich noch immer 8k+4xSSAA, dicht gefolgt von
8k+DLSS Quality,
8k+DLSS Balanced oder TAA oder 2xSSAA,
8k+DLSS Performance
8k+SMAA
8k native
Natürlich kann man sich darüber streiten, mit welchem DLSS Modus welche TAA Implementierung und 2xSSAA vergleichbar ist. SSAA ziehe ich im Zweifelsfall allerdings vor, da es immer konstante und verlässliche Ergebnisse liefert, wobei es natürlich Performance ohne Ende verbrennt.
Man muss halt schauen, was man sich leisten kann und wie nah man am Bildschirm sitzen möchte.
Sitze ich beispielsweise 3m von meinem 65 Zoller entfernt, so ist 4k+DLSS Quality schon absolut perfekt.
Doch es ist mein PC Monitor, weshalb ich oft eher 50cm davor sitze.^^ Und ich genieße die Immersion.
Gouvernator
2020-12-12, 16:33:44
Linus hat es auf einem echten 8K Device gesehen Fazit Schrott im Ultra/Performance Mode.
https://youtu.be/kK45BxjSLCs?t=1633
Ja hab das schon gesehen. Er ist ein Depp.
Momentan kann man CP2077 mit Ray Tracing nur im DLSS Ultra Performance zocken: 4K/60, 8K/30. Man kann dann noch entscheiden zwischen 4K/30 DLSS Quality oder 8K/30 Ultra Performance mit Tweaks. Wenn man wirklich spielen will dann kommt man um DLSS Ultra Perf. in 4K nicht herum für 60FPS oder alternativ 1440p/DLSS Quality.
Geldmann3
2020-12-12, 17:54:20
Ja hab das schon gesehen. Er ist ein Depp.
Momentan kann man CP2077 mit Ray Tracing nur im DLSS Ultra Performance zocken: 4K/60, 8K/30. Man kann dann noch entscheiden zwischen 4K/30 DLSS Quality oder 8K/30 Ultra Performance mit Tweaks. Wenn man wirklich spielen will dann kommt man um DLSS Ultra Perf. in 4K nicht herum für 60FPS oder alternativ 1440p/DLSS Quality.
Deshalb würde ich persönlich es mit meiner RTX 3090 in 4k mit Quality DLSS@30FPS zocken, auch, wenn ich es am liebsten in 8k mit 4xSSAA@120Hz sehen würde. :D
Ich muss aber sagen, wenn ich einen nativen 8K TV hätte, würde ich eventuell auf 8k@Ultra Performance gehen, wohlwissend, dass es weit unter nativer Optik landet.
Man muss nur mal Ultra Performance in 4k ausprobieren.
Es sieht zwar nicht so gut aus wie natives 4k, doch es sieht definitiv besser aus als 1080p, egal in welcher Form.
Natürlich lässt sich der Effekt so auch auf 8k übertragen, auch wenn schwerer zu sehen, weil die Pixel kleiner sind.
-/\-CruNcher-/\-
2020-12-12, 18:24:37
Alles was da Ghosting reduziert ist ein Win der rest ist erstmal nebensächlich
Gouvernator
2020-12-12, 19:58:29
Ich habe das mal auf mein 1700p Tablet gestreamt. 8K Downsampling mit DLSS Ultra Perf. sieht doch viel viel besser aus als jedes 4K DLSS. Richtig spielbar sind die 30 FPS aber nicht. Deswegen bleibt es bei 4K/60 Ultra DLSS. Aber es sieht schon bedeutend besser aus auf dem 12" OLED 260ppi Display als auf dem 65" QLED in 4K.
w0mbat
2020-12-12, 20:06:12
Gouvernator, ich glaube der Dell UltraSharp UP3218K wäre was für dich :D
woodsdog
2020-12-14, 10:12:04
8K Ultra Performance DLSS und 4k Quality DLSS rendern beide basierend auf 1440p. Wie kann denn dann das eine bitte "sehr viel besser aussehen"? Wenn da mal kein 8k-ist-besser-bias am Werk ist...
Gerne mit Screenshots argumentieren
Gerne mit Screenshots argumentieren
Screenshots helfen in keinster Weise wenn diese dann auf einem Gerät mit geringer PPI betrachtet werden.
Und 8k Ultra Performance sollte auch deutlich besser aussehen als 4k Quality, ansonsten wäre DLSS ja komplett obsolet.
Wobei man sagen muss, DLSS verliert zwischen Quality und Performance fast überhaupt keine Per Pixel Quality, die schnelleren Versionen haben nur eine leicht höhere Tendenz zu unerwünschten Artefakten.
Von Performance auf Ultra-Performance ist der Verlust in Per-Pixel-Quality dann aber extrem, wobei das natürlich immer noch durch die 4-Fache Pixelanzahl mehr als ausgeglichen werden sollte.
Geldmann3
2020-12-14, 13:40:18
8K Ultra Performance DLSS und 4k Quality DLSS rendern beide basierend auf 1440p. Wie kann denn dann das eine bitte "sehr viel besser aussehen"? Wenn da mal kein 8k-ist-besser-bias am Werk ist...
Gerne mit Screenshots argumentieren
Ganz einfach, DLSS ist temporales Supersampling und in ein 8k Bild passen einfach mehr Bildinformationen hinein, als in ein 4k Bild.
Auch wenn beide Male intern mit der gleichen Auflösung gerendert wurde, so enthalten die finalen Bilder temporale Bildinformationen aus mehreren Frames, also wesentlich mehr Samples als nur die aus einem einzelnen 1440p Bild.
Und die zusätzlich vorhandenen Bildinformationen lassen sich mit mehr Pixeln besser abbilden.
Um das deutlicher zu machen hier mal 1080p Quality DLSS gegen 4k Ultra-Performance. Beide rendern intern mit 720p.
1080p Quality DLSS:
https://i.ibb.co/D7MQsC6/1080p-Quality.png (https://i.ibb.co/D7MQsC6/1080p-Quality.png)
2160p Ultra Performance DLSS:
https://i.ibb.co/7NfYN12/4k-Ultra-Performance.png (https://i.ibb.co/7NfYN12/4k-Ultra-Performance.png)
Beide Ausschnitte wurden intern mit der selben Auflösung gerendert, die 2160p Variante kann im finalen Bild jedoch mehr Details herausarbeiten. Mit 8k ist es das gleiche Spiel, nur jeweils mit der 4 fachen Anzahl an Pixeln.
(Und ja, man muss die Bilder in groß betrachten, um den Unterschied zu sehen.)
Asaraki
2020-12-14, 14:48:12
Das schaffst auch nur du, dann die Screenshots zu anderen Auflösungen und Settings als diskutiert zu bringen ^^
Frage : Schmeckt ein Apfel wirklich wie eine Birne?
Geldmann3 : Also wenn wir diese Ananas hier anschauen, sieht man ganz klar, dass sie zackiger ist als diese Melone.
Geldmann3
2020-12-14, 16:19:54
Das schaffst auch nur du, dann die Screenshots zu anderen Auflösungen und Settings als diskutiert zu bringen ^^
Frage : Schmeckt ein Apfel wirklich wie eine Birne?
Geldmann3 : Also wenn wir diese Ananas hier anschauen, sieht man ganz klar, dass sie zackiger ist als diese Melone.
8k Screenshots zu zeigen wäre nicht zielführend gewesen. Es wäre einfach nur umständlich gewesen so weit hereinzoomen zu müssen.
DLSS funktioniert in allen Auflösungen gleich, bei niedrigeren Auflösungen sind die Schwächen nur leichter zu erkennen.
Ziel der Screenshots war es zu zeigen, dass es besser aussieht in Auflösung x DLSS@Ultra Performance laufen zu lassen als in der Auflösung x/2 DLSS@Quality. Und ich denke dieses Ziel haben die Screenshots erreicht.
Es ist der gleiche Effekt, egal ob ich 8k und 4k nehme oder 1080p und 560p. Nur, dass man die Unterschiede bei niedrigeren Auflösungen besser sieht, da die Pixel größer sind.
aufkrawall
2020-12-14, 16:27:34
Würde nicht sagen, dass der Effekt (!= Prinzip) bei niedrigen Auflösungen der gleiche ist, weil das DL-TSSAA die Detailarmut des gesamten Renderings der niedrigeren Auflösungen nicht kompensieren kann. Bei höheren Auflösungen gibts das Problem einfach quasi nicht mehr.
Ist imho auch eine fragwürdige Marketing-Entscheidung, DLSS >= 2.0 nicht ohne Upscaling anzubieten. Es soll halt den Mythos erzeugen, dass das Bild trotz Upscalings und entsprechend wesentlich höherer Performance einfach besser sei als nativ. Ein DL-TSSAA für native Auflösung wär bei diesem Narrativ nur hinderlich. Für die User-Freiheit ists aber blöd...
Es soll halt den Mythos erzeugen, dass das Bild trotz Upscalings und entsprechend wesentlich höherer Performance einfach besser sei als nativ. Ein DL-TSSAA für native Auflösung wär bei diesem Narrativ nur hinderlich. Für die User-Freiheit ists aber blöd...
Das Bild ist besser als Nativ, in DLSS Quality sogar deutlich.
Und mittlerweile weiß man ja auch einigermaßen gut wie DLSS funktioniert und damit auch warum ist besser sein kann und auch ist als natives Rendering.
DLSS erzeugt ein 4x4 Supergesampeltes Bild von der tatsächlichen Renderauflösung, im Performance Modus hat man also bezüglich der tatsächlich angezeigten Pixel immer noch 2x2 Supersampling.
Du kannst das auch ganz einfach überprüfen, indem du ein DLSS Upgesampeltes Bild auf die interne Renderauflösung runterrechnest und anschließend wieder auf die Ausgabeauflösung hochrechnest, und du wirst einen deutlichen Detailverlust bemerken.
Wobei Ultra Performance ein ganz anderes und deutlich schlechteres Ergebnis liefert, während man die Unterschiede zwischen Quality, Balanced und Performance noch mit der Lupe suchen muss ist Ultra Performance sehr deutlich schlechter, und höchstens für 8k und eventuell 4k mit Fernehabstand zu gebrauchen.
Asaraki
2020-12-14, 16:48:54
Geldmann, eeeeeeben nicht. Ich bestreite garnicht, was du aufzeigen willst, aber du musst schon konsequent bleiben, wenn du einen Beweis erbringen willst. Und die Auflösung ist überhaupt nicht egal, was bei 8k vs 4k stimmen mag, muss bei 1440p vs 1080p z.B. nicht stimmen. Ergo müssen wir da auch präzise bleiben, sonst ist alles für die Katz.
@aufkrawall : Naja aus Marketing-Sicht eben nicht fragwürdig ^^ Sonst einverstanden :)
aufkrawall
2020-12-14, 16:57:12
DLSS erzeugt ein 4x4 Supergesampeltes Bild von der tatsächlichen Renderauflösung
TSSAA ohne DL ist auch eine Form von "SSAA", wurde aber auch alles schon zur Genüge durchgekaut...
Genau wie der Rest...
Gouvernator
2020-12-14, 17:28:26
Das Problem von DLSS, es macht gewisse Spieleffekte kaputt. In CP2077 bezahlt man das z.B. mit der Auflösung von Spiegelungen. Die ganzen Polygon Kanten, Texturen usw. sehen aus wie 8K aber es fehlen massig Details die man normalerweise sehen würde. Bei DLSS Ultra fehlen sie dann komplett. Es ist wie wenn man ein 8K Bild nimmt und nachträglich alle kleinere Details rausrechnet. Auf deren Kosten man mehr FPS bekommt.
aufkrawall
2020-12-14, 17:39:15
Das ist aber Meckern auf hohem Niveau. Wenn man dafür Leistung gewinnt, um die furchtbaren SSR loszuwerden, sind etwas unschärfere RT-Reflections wohl kaum der Untergang. CBP77 ist derzeit eigentlich unspielbar ohne DLSS. Da kann man sich jetzt als NVidialing einen drauf braten, objektiv ist es einfach ein widerwärtiger Kundenumgang von CPR. Mitunter völlig unfertige Grafikeffekte etc., aber für RT und DLSS war Zeit. :freak:
BlacKi
2020-12-14, 17:52:37
Screenshots helfen in keinster Weise wenn diese dann auf einem Gerät mit geringer PPI betrachtet werden.
die ppi angabe ist diesbezüglich nutzlos.
für vergleiche macht nimmt man nahaufnahmen eines teil des bildes, dann kann man auch auf einem fhd bildschirm unterschiede bewerten.
Gouvernator
2020-12-14, 17:59:16
die ppi angabe ist diesbezüglich nutzlos.
für vergleiche macht nimmt man nahaufnahmen eines teil des bildes, dann kann man auch auf einem fhd bildschirm unterschiede bewerten.
Hast du schon mal jemanden mit einem 480p CRT gesehen, der 1080p Bilder drauf vergleicht? Dein FHD Bildschirm ist dann genau so lächerlich vs 8K Bilder.
BlacKi
2020-12-14, 18:02:49
ich glaub du hast mich falsch verstanden.
Geldmann3
2020-12-14, 18:19:58
Ich wollte euch nun gerade mal das Gegenteil beweisen und zeigen, dass 8k Ultra Performance DLSS durchaus besser ist als 4k@Quality DLSS. Doch als ich mich näher damit beschäftigt habe, konnte ich nicht an die Resultate aus niedrigeren Auflösungen wie 4k und 1080p anknüpfen.
In einigen Fällen werden Polygonkanten in 8k Ultra Performance zwar viel besser geglättet, dafür gehen im Bild allerdings Details gegen 4k@ Quality verloren.
Wie hier. (http://www.framecompare.com/image-compare/screenshotcomparison/F0M0JNNU)
In einigen Fällen erzeugt 8k Ultra Performance hässliche Artefakte im Bild, erhält an anderer Stelle allerdings wiederum mehr Details, wie hier (http://www.framecompare.com/image-compare/screenshotcomparison/KW6W7NNX).
Wieder an anderen Stellen, sieht 8k Ultra Performance unbestreitbar besser aus: Wie hier (http://www.framecompare.com/image-compare/screenshotcomparison/F0M0FNNU)
Hier (http://www.framecompare.com/image-compare/screenshotcomparison/KW6WWNNX) ist 8k Ultra Performance einfach nur ganz leicht schärfer. (Und minimal detaillierter)
Dann gibt es Fälle, in denen 8k Ultra Performance für die verwendete, interne Auflösung sogar erschreckend nah an die native Qualität rankommt, wie hier:
https://i.ibb.co/YPXyGYt/vlcsnap-2020-12-14-18h05m11s329.png (https://i.ibb.co/YPXyGYt/vlcsnap-2020-12-14-18h05m11s329.png)
Doch man trifft auch auf das genaue Gegenteil, wo DLSS völlig gegen die native Auflösung verreckt, wie hier (http://www.framecompare.com/image-compare/screenshotcomparison/F0M01NNU).
Fazit: Es ist nicht so einfach. 8k Ultra Performance ist weder eindeutig besser noch schlechter als 4k Quality DLSS. Es kommt ganz auf den Bildinhalt und die Bewegungen im Bild an. Im schlechtesten Fall sieht es aus wie ein billiger Upscale aus der Renderauflösung und erzeugt sogar noch Artefakte. Im besten Fall sieht Ultra Performance nahezu aus wie ein natives Rendering. Da man mit 4k Quality etwas Performance spart, würde ich Besitzern eines nativen 4k Monitors oder TVs jedoch 4k Quality DLSS ans Herz legen.
Geldmann3
2020-12-14, 18:34:46
Sorry, habe den Post aus Versehen zweimal abgeschickt, wie auch immer das passiert ist.
Schade, dass man die eigenen Posts nicht selbst wieder löschen kann...
Tobalt
2020-12-14, 20:30:42
danke für die Mühen, Geldmann :top:
Platos
2020-12-14, 21:11:13
Was für eine interne Renderauflösung haben denn die verschiedenen 8k DLSS Modis?
@Geldman: Im 2. letzten Bild sieht der (hintere) Busch irgendwie völlig verschwommen aus. Warst du da in Bewegung ?
Hast du nun ein natives 8k Display? Spielst du nun meistens in 8K dank DLSS ?
Geldmann3
2020-12-14, 21:34:47
Was für eine interne Renderauflösung haben denn die verschiedenen 8k DLSS Modis?
@Geldman: Im 2. letzten Bild sieht der (hintere) Busch irgendwie völlig verschwommen aus. Warst du da in Bewegung ?
Hast du nun ein natives 8k Display? Spielst du nun meistens in 8K dank DLSS ?
Die internen Renderauflösungen der unterschiedlichen DLSS-Modi in 8k:
Quality: 5.120 × 2.880 Pixel
Balanced: 4.454 × 2.504 Pixel
Performance: 3.840 × 2.160 Pixel
Ultra Performance: 2.560x1440 Pixel
Die Kamera hat sich während der Aufnahme des vorletzten Bildes nicht bewegt, doch es war etwas windig im Game, weshalb der Busch sich wahrscheinlich bewegt hat.
Ein natives 8k Display habe ich nicht, ich habe die Screenshots mithilfe von DSR gemacht und bin im Nachhinein 4x hineingezoomt, um sie nativ zu betrachten.
Verwende an meinem Hauptrechner einen 65 Zoll, 4k OLED und am Zweitrechner einen 49 Zoll, 5k, 32:9 QLED.
woodsdog
2020-12-14, 22:22:59
Das Problem von DLSS, es macht gewisse Spieleffekte kaputt. In CP2077 bezahlt man das z.B. mit der Auflösung von Spiegelungen. Die ganzen Polygon Kanten, Texturen usw. sehen aus wie 8K aber es fehlen massig Details die man normalerweise sehen würde. Bei DLSS Ultra fehlen sie dann komplett. Es ist wie wenn man ein 8K Bild nimmt und nachträglich alle kleinere Details rausrechnet. Auf deren Kosten man mehr FPS bekommt.Wie kann dann das 8K Bild - wie VON DIR behauptet - besser aussehen als alles was in 4K mit DLSS möglich ist? Jetzt erzählst du uns hier das Gegenteil. Wie immer mit dir und deinem 8K-Gesülze.
Danke Geldmann3 für die Mühe, sehr aufschlussreich!
Das DLSS Quali pauschal besser ggü. native ist, kann ich darüber hinaus auch nicht unterschreiben. Gerade in CP ist mir direkt nach dem Start in der Bar aufgefallen, dass die Flaschen im Hintergrund des Barkeepers UND die Bar selber (die Horizontale Oberkante wo man mit den Armen ist) sichtlich ggü nativ flimmern bzw. Treppen bilden. Mit Native 1440p und implizit TAA war das glatt. Kann natürlich sein das das in 4K-Quali DLSS besser ist - jammern auf hohen Niveau.
Platos
2020-12-14, 23:16:20
Die internen Renderauflösungen der unterschiedlichen DLSS-Modi in 8k:
Quality: 5.120 × 2.880 Pixel
Balanced: 4.454 × 2.504 Pixel
Performance: 3.840 × 2.160 Pixel
Ultra Performance: 2.560x1440 Pixel
Die Kamera hat sich während der Aufnahme des vorletzten Bildes nicht bewegt, doch es war etwas windig im Game, weshalb der Busch sich wahrscheinlich bewegt hat.
Ein natives 8k Display habe ich nicht, ich habe die Screenshots mithilfe von DSR gemacht und bin im Nachhinein 4x hineingezoomt, um sie nativ zu betrachten.
Verwende an meinem Hauptrechner einen 65 Zoll, 4k OLED und am Zweitrechner einen 49 Zoll, 5k, 32:9 QLED.
Danke für die Auflistung.
Aber wenn du das per DSR machst, sind doch die Screenshots nicht wirklich natives 8K sondern eben (von 8k) herunterskaliertes 4k? Denn wenn du ein Screenshot machst, machst du doch eine Aufnahme deiner Pixel am Monitor/TV (und nicht etwa vor dem herunterskalieren) und die sind ja immer noch 4k, nur eben herunterskaliert von 8k (nativ).
Oder verstehe ich was falsch? Reine Spekulation: Aber 8K DLSS auf einem nativen 8K Display dürfte wesentlich besser aussehen, wie per DSR "natives" 8K auf 4k herunterskaliert.
Aber 8K Quality ist dann wohl für mich ein gutes Kompromiss-Ziel (mit 8K Display). Bei 4k Quality hat man immer noch so ~+80% Leistung (was ja schon enorm viel ist). Also erreicht man in nativem 8K ~35-40 FPS, sollten mit DLSS quality stable 60 drinn liegen. Hat man ein VRR-fähiges Display, kann man sich auch mit 50FPS als min. zufrieden geben, denke ich. Vlt. setze ich dann ja auf 8K DLSS quality und ab da dann lieber die Framerate erhöhen (anstatt noch besseres Bild). Wobei es gibt ja sowieso noch (vermutlich lange) nicht 8K 120Hz TVs/Monitore. Und wenn ich mir Cyberpunk @DLSS und evtl. noch RT anschaue, wirds sowieso laaaange gehen, bis man das braucht.
Leider gibts keine (für mich) zufriedenstellende 8K Fernseher. Die 8K Displays verbrauchen mir einfach noch deutlich zu viel Strom.
Geldmann3
2020-12-15, 00:53:02
Danke für die Auflistung.
Aber wenn du das per DSR machst, sind doch die Screenshots nicht wirklich natives 8K sondern eben (von 8k) herunterskaliertes 4k? Denn wenn du ein Screenshot machst, machst du doch eine Aufnahme deiner Pixel am Monitor/TV (und nicht etwa vor dem herunterskalieren) und die sind ja immer noch 4k, nur eben herunterskaliert von 8k (nativ).
Oder verstehe ich was falsch? Reine Spekulation: Aber 8K DLSS auf einem nativen 8K Display dürfte wesentlich besser aussehen, wie per DSR "natives" 8K auf 4k herunterskaliert.
Aber 8K Quality ist dann wohl für mich ein gutes Kompromiss-Ziel (mit 8K Display). Bei 4k Quality hat man immer noch so ~+80% Leistung (was ja schon enorm viel ist). Also erreicht man in nativem 8K ~35-40 FPS, sollten mit DLSS quality stable 60 drinn liegen. Hat man ein VRR-fähiges Display, kann man sich auch mit 50FPS als min. zufrieden geben, denke ich. Vlt. setze ich dann ja auf 8K DLSS quality und ab da dann lieber die Framerate erhöhen (anstatt noch besseres Bild). Wobei es gibt ja sowieso noch (vermutlich lange) nicht 8K 120Hz TVs/Monitore. Und wenn ich mir Cyberpunk @DLSS und evtl. noch RT anschaue, wirds sowieso laaaange gehen, bis man das braucht.
Leider gibts keine (für mich) zufriedenstellende 8K Fernseher. Die 8K Displays verbrauchen mir einfach noch deutlich zu viel Strom.
Die Screenshots, denen ich die Ausschnitte entnommen habe, hatten wirklich eine Auflösung von 8k, sie sind trotz DSR nicht herunterskaliert worden. Mir war es so, als wäre es bei meiner 2080 Ti zuvor jedoch noch so gewesen, die 3090 macht in 8k DSR allerdings definitiv auch 8k Screenshots. Vielleicht habe ich das mit der 2080 Ti aber auch falsch in Erinnerung oder es war ein Softwareproblem.
Hier einige der 8k Screenshots (https://drive.google.com/drive/folders/1zh5smFSwmUK5hzsMiXcdHNLaGKnKl4Qp), denen ich die Ausschnitte (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12535503&postcount=955) entnommen habe.
Ja, 8k DLSS auf einem nativen 8k Display sieht besser aus als auf 4k herunterskaliertes 8k DLSS. Jedoch habe ich die Screenshots auch hereingezoomt betrachtet. Die von mir geposteten Ausschnitte hatten teils 1000% Vergrößerung. Unterschiede, die man in den geposteten Bildern nicht sieht, wird man auch auf einem nativen Display niemals sehen.
Mein Ziel ist übrigens 8k@DLSS Performance, solange es noch keine 8k@120Hz TVs gibt, gebe ich mich noch mit 4k@Quality zufrieden. Wohl wissend, dass es theoretisch noch besser aussehen kann.
Wobei ich mich auch frage, wie lange es noch dauert, bis wir 8k@120Hz auf TVs/Monitoren sehen. Das Bottleneck ist momentan HDMI 2.1. Doch ich frage mich, warum man uns nicht einfach die Möglichkeit gibt, z.b. 2 Kabel zu verwenden, um sowas zu erreichen... Ist wohl eine zu tiefe Nische. Wobei ich hier im Forum einige kenne, denen es egal wäre, 2 Kabel verwenden zu müssen, wenn 8k@120Hz erreicht werden. Ich glaube schon, dass sich aufgrund so eines Features ein paar tausend Leute mehr solch einen TV zulegen würden. (Wenn er nicht gerade 5k oder so kostet.)
Tobalt
2020-12-15, 08:19:13
Habe mir die Screenshots nochmal im Detail angesehen.
Ich denke DLSS hat im Kern noch 2 Probleme. Wenn diese auftreten fällt die Qualität mit den stärkeren Modi immer mehr ab.
1) Spiegelungen/Transparenz, wie schon zuvor beschrieben. Schön zu sehen auf dem ersten Screenshot. Hier versagt scheinbar das Prinzip mit dem Motionvektor. Ich kann mir gut vorstellen, dass das künftig gefixt wird indem man wenigstens die 2-3 dominanten Bilder blendet. Abseits des Visiers, sieht man gerade hier auch, dass nicht nur die Kanten sondern auch Texturen oft mit 8k Ultra-Perf schärfer sind, weil hier das Sample Jitter voll greift. Gleiches bei dem Vegetations-Screenshot.
2) Manchmal scheint DLSS komplett auszusteigen, sodass man dann hässliches upscaling zu gesicht bekommt. Das ist sicher ein Fallback für Situationen, wo der Content Konflikte erzeugt oä. Das wird hoffentlich besser wenn die Implementierung in die Engines klarer wird oder noch mehr wenn zB DX ein fixes Framework anbietet.
Gerade in Anbetracht der gewonnenen Performance prognostiziere ich, dass 2 Jahre von heute in den Grafiktests regelmäßig die Implementierungen von AMD vs nVidia getestet werden (wie einst die AF tests). Und 5 Jahre von heute wird wohl kaum noch in nativen Auflösungen gebencht da realitätsfremd.
Was für eine interne Renderauflösung haben denn die verschiedenen 8k DLSS Modis?
Quality 0,67x0,67
Balanced 0,58*0,58
Performance 0,5*0,5
Ultra Performance 0,33x0,33
Könnte man nen DLSS Algorythmus nicht ideal zum "Supersampeln" von VR verwenden? Ich hab jetzt ne Pimax 8kx hier. Für ein "gutes" Bild biste da im 8k Bereich. Drückt natürlich jede Grafikkarte an die Wand, hab teilweise keine 40 FPS mit der 3090.
Asaraki
2020-12-15, 09:31:47
Könnte man nen DLSS Algorythmus nicht ideal zum "Supersampeln" von VR verwenden? Ich hab jetzt ne Pimax 8kx hier. Für ein "gutes" Bild biste da im 8k Bereich. Drückt natürlich jede Grafikkarte an die Wand, hab teilweise keine 40 FPS mit der 3090.
Da dürfte - aber reine Vermutung - noch ein Problem bestehen. Du musst eine Konsistenz der beiden Bilder wahren, d.h. vermeiden, dass Links und Rechts z.B. etwas anders interpretiert wird, sonst kriegst du ganz hässliche Artefakte.
In CP2077 bezahlt man das z.B. mit der Auflösung von Spiegelungen.
CP macht bei ein paar Dingen offenbar was falsch und schickt das Bild nicht durch den DLSS upscaler. Mit dem Effekt dass man dann die tatsächliche Renderauflösung ohne "DLSS Magic" sieht.
Das betrifft unter anderem die Karte, den Charaktereditor am Beginn, sowie den eigenen Character im Inventar, und die Nicht-RT-Spiegel, für die man extra "jetzt in den Spiegel gucken" klicken muss.
Also offenbar alles was Render-to-Textur verwendet, wird in eine Textur mit der reduzierten Auflösung gerendert, ohne dass diese durch DLSS verbessert wird. Das ist jetzt aber kein DLSS Problem sondern eines vom Spiel, die statischen Texturen werden ja auch alle für die Zielauflösung und nicht für die Renderauflösung verwendet.
Im eigentlichen Spiel gibt es davon glücklicherweise fast nichts, eigentlich nur die Spiegel die man extra "einschalten" muss.
][immy
2020-12-15, 09:53:28
Könnte man nen DLSS Algorythmus nicht ideal zum "Supersampeln" von VR verwenden? Ich hab jetzt ne Pimax 8kx hier. Für ein "gutes" Bild biste da im 8k Bereich. Drückt natürlich jede Grafikkarte an die Wand, hab teilweise keine 40 FPS mit der 3090.
Hatte DLSS nicht mal das Problem, das es auf den extra Chips (edit: Tensor cores) ausgeführt wurde und daher stark in der Performance limitiert war. Sprich wenn es zu Viele Frames gab, funktionierte das ganze nicht mehr, weil die Chips nicht hinterher kamen.
Das wäre für die 90-120FPS die du für VR bräuchtest natürlich sub-optimal.
Oder hat sich diese Limitierung mit DLSS 2.x doch in Luft aufgelöst?
pixeljetstream
2020-12-15, 10:00:00
[immy;12536057']Hatte DLSS nicht mal das Problem, das es auf den extra Chips ausgeführt wurde und daher stark in der Performance limitiert war. Sprich wenn es zu Viele Frames gab, funktionierte das ganze nicht mehr, weil die Chips nicht hinterher kamen.
Das wäre für die 90-120FPS die du für VR bräuchtest natürlich sub-optimal.
Oder hat sich diese Limitierung mit DLSS 2.x doch in Luft aufgelöst?
Es gibt keine extra Chips, schon seit Jahrzehnten. DLSS hat fixe kosten je nach Auflösung. Es klingt für mich so als wünsche sich Wuge DLSS Nutzung um mehr als 40fps zu haben.
][immy
2020-12-15, 10:07:02
Es gibt keine extra Chips, schon seit Jahrzehnten. DLSS hat fixe kosten je nach Auflösung. Es klingt für mich so als wünsche sich Wuge DLSS Nutzung um mehr als 40fps zu haben.
Damit meinte ich die Tensor-Cores ;), der Name ist mir nur grad nicht eingefallen.
Ja, 8k DLSS auf einem nativen 8k Display sieht besser aus als auf 4k herunterskaliertes 8k DLSS. Jedoch habe ich die Screenshots auch hereingezoomt betrachtet.
Das ist eben der Fehler.
Ein 8k Display ist eben nicht 4x so groß nur weil es 4x so viele Pixel hat.
Auf einem echten 8k Display sind die Pixel entsprechend kleiner, womit die "Unreinheiten" von DLSS deutlich weniger auffallen.
Das ist der gleiche Blödsinn, wie 100% Vergleiche von Digitalkameras mit unterschiedlichen Auflösungen.
Dass Ultra Performance DLSS keinem Pixelpeeping standhält ist klar, UP ist einfach too much auch für DLSS.
Auf einem 8k Monitor sind aber die Pixel so klein, dass man diese nicht mehr sieht.
Könnte man nen DLSS Algorythmus nicht ideal zum "Supersampeln" von VR verwenden? Ich hab jetzt ne Pimax 8kx hier. Für ein "gutes" Bild biste da im 8k Bereich. Drückt natürlich jede Grafikkarte an die Wand, hab teilweise keine 40 FPS mit der 3090.
Ja kann man, seit dem Ampere Launch ist DLSS auch VR-Fähig (auch auf Turing), mir ist jetzt aber kein Spiel bekannt, welches das implementiert.
basix
2020-12-15, 11:03:37
Ich habe noch eine Verständnisfrage zur Technik hinter DLSS:
Das Sampleraster bei DLSS ist niedriger aber aufgrund des temporalen verändern des Rasters erhält man temporal eine effektiv höhere Auflösung. Was mich interessiert ist diese temporale Komponente und wie das funktioniert.
Fixe Anzahl Frames: Egal ob 30 oder 60fps, es werden z.B. immer 4 gerenderte Frames für DLSS verwendet
Fixer Zeitintervall: Egal ob 30 oder 60fps, es werden z.B. immer die Frames der letzten 100ms für DLSS verwendet
Dynamisch 1: Bei tiefen FPS wird ein Minimum an Daten verwendet (z.B. 4 Frames). Bei hohen FPS schwenkt man eher in Richtung Zeitintervall
Dynamisch 2: Es wird eine fixe Anzahl Samples gerendert. Bei doppelt so hohen FPS werden die Samples pro Einzelbild aber halbiert. Auf eine fixen Zeitintervall hin gesehen hat man, egal welche Framerate, immer die gleiche Anzahl gerenderte Samples / Pixel.
Was wird jetzt bei DLSS 2.0 verwendet (oder ist am nähesten dran)? Ich vermute das erste, da am einfachsten. Wieso ich das eigentlich frage: Die zwei dynamischen Varianten könnten dazu führen, dass man bei hohen FPS die Qualität von DLSS verbessern kann (mehr Informationen im selben Zeitintervall) oder Anzahl der gerenderten Samples / Pixel reduzieren kann (gleichbleibende Informationen pro Zeitintervall). Vor allem letzteres wäre interessant, da man damit in der Theorie praktisch beliebige Framerates ausspuchen kann und die Qualität des Bildes dabei unverändert bleibt.
Es gibt keine extra Chips, schon seit Jahrzehnten. DLSS hat fixe kosten je nach Auflösung. Es klingt für mich so als wünsche sich Wuge DLSS Nutzung um mehr als 40fps zu haben.
Richtig. Ich bräuchte 75 FPS stabil (haha, unrealistisch) oder 38 FPS stabil mit Motion Compensation. Letzteres funktioniert ganz gut, es darf aber keinesfalls einbrechen. aktuell ist das machbar aber ohne Upsampling, was dann "naja" aussieht. Wenn die DLSS Technik daher intern verdoppen oder zumindest x1.5 liefern könnte wäre das schon geil. Als motion Vectoren könnte man sogar die Trackingdaten des HMDs einfüttern, das hilft zwar nicht für die Bewegung des Spiels selbst aber wenn ich den Kopf bewege wüssten die tensor cores genau was motiontechnisch abgeht und könnten mir das Kantenflimmern wegsampeln ;D
Geldmann3
2020-12-15, 13:38:16
Hmm, in VR könnte man nicht nur temporale Samples verwenden, sondern auch die beider Viewports miteinander verrechnen. So bräuchte jedes Auge theoretisch nur noch die halbe Anzahl an Samples, um die gleiche DLSS Qualität zu erreichen. Noch dazu hat man bereits den Versatz beider Viewports, man müsste nicht mit Motion-Vectoren approximieren, wo die Samples hingehören.
So, usecase haben wir. Wer bauts? ;)
Platos
2020-12-15, 18:41:14
@Geldmann: Ja, ich hätte auch nichts gegen 2 HDMI Anschlüsse. Leider habe ich bisher noch von keinen Plänen für HDMI 2.2 gehört. Es hiess ja auch damals, dass HDMI 2.1 langlebiger sein soll und nicht so wie HDMI 2.0 schnell veraltet (für mich war es ja schon von Tag 1 veraltet, aber ok).
Displayport gibts ja normalerweise nicht bei TVs und irgendwie gibts Displayport auch immer nur auf Papier und in der Praxis verwendet man oft alte Standarts.
Naja, 8k 120Hz wird wohl noch ne Weile dauern. Ich habe für mich aber sowieso entschieden, dass ich keinen neuen (8K) TV kaufen werden, wenn er deutlich mehr Strom verbraucht.
Gouvernator
2020-12-15, 19:38:53
8K/120Hz geht sehr wohl noch mit HDMI 2.1 Specs - man muss es nur einbauen.
Platos
2020-12-15, 19:47:29
8K/120Hz geht sehr wohl noch mit HDMI 2.1 Specs - man muss es nur einbauen.
Nur mit Kompression. Also DSC. Oder was meinst du mit "einbauen" ?
BlacKi
2020-12-15, 20:13:26
kompression oder nicht ist doch egal, solange sie verlustfrei ist.
Tobalt
2020-12-15, 20:18:00
Ich kann mich nicht erinnern, jemals von einer funktionierenden Kombo aus Graka+Monitor gehört zu haben, die DSC kann, weder DP noch HDMI.
Wahrscheinlich ist der Markt dafür zu klein ?!
Gouvernator
2020-12-15, 20:56:33
Nur mit Kompression. Also DSC. Oder was meinst du mit "einbauen" ?
Ja genau Kompression. Mein Samsung aus 2019 kann laut EDID kein DSC.
Geldmann3
2020-12-15, 21:31:39
Der Odyssey-G9 verwendet DSC um 240Hz zu erreichen. Mich würde es interessieren wie sich DSC da auf den Input-Lag auswirkt, sowie Bildqualitätstests.
Platos
2020-12-15, 21:48:41
kompression oder nicht ist doch egal, solange sie verlustfrei ist.
Ist DSC denn Verlustfrei? Und ja, Lag würde mich auch interessieren.
Geldmann3
2020-12-15, 22:06:57
Ist DSC denn Verlustfrei? Und ja, Lag würde mich auch interessieren.
Nein, es ist genauso wenig verlustfrei, wie MP3 bei 320KBits/s verlustfrei ist. Du solltest zwar keinen Unterschied sehen, die Farbwerte der Pixel bleiben allerdings nicht zu 100% erhalten.
Mich interessiert daher vor allem, ob DSC auch standhält, wenn das Bild sehr komplex ist, wenn es z.b. etwas Rauschen enthält und wie es sich auf den Input-Lag auswirkt.
Mir persönlich würde es in 8k ausreichen, wenn es unter allen Umständen besser aussieht als Color-Subsampling, wovon ich ausgehe/was ich hoffe.
Stimmt diese Annahme, bleibt als letzter interessanter Punkt der Input Lag. Wenn ich 120Hz aber plötzlich 10ms mehr Input-Lag habe, ist das in meinen Augen auch wieder nicht ganz zielführend.
Platos
2020-12-16, 00:08:37
Ja gut, aber das ist so ne Sache. DLSS nehme ich gerne mit. Quasi "gratis Perfomance" (naja, natürlich ist die Chipfläche nicht Gratis, aber dennoch).
Hingegen einen TV kaufen, der das dann nur mittels verlustbehafteter Kompression hinkriegt... Naja, das muss dann aber sehr, sehr gut aussehen. Also das darf dann keine "Kinderkrankheiten" haben, wie es DLSS noch an manchen Orten hat. Das muss dann indiskutabel überal gut aussehen und nicht nur "meistens".
Gerade, wenn man noch mittels DLSS rechnet und dann noch eine verlustbehaftet Kompression dazu kommt, darf es nicht zu einer Verstärkung von Artefakten kommen.
Und wie du schon sagst, wäre ein höherer Inputlag dann kontraproduktiv, wenn das ganze eigentlich der höheren Framerate dient.
Geldmann3
2020-12-16, 02:53:18
Ja gut, aber das ist so ne Sache. DLSS nehme ich gerne mit. Quasi "gratis Perfomance" (naja, natürlich ist die Chipfläche nicht Gratis, aber dennoch).
Hingegen einen TV kaufen, der das dann nur mittels verlustbehafteter Kompression hinkriegt... Naja, das muss dann aber sehr, sehr gut aussehen. Also das darf dann keine "Kinderkrankheiten" haben, wie es DLSS noch an manchen Orten hat. Das muss dann indiskutabel überal gut aussehen und nicht nur "meistens".
Gerade, wenn man noch mittels DLSS rechnet und dann noch eine verlustbehaftet Kompression dazu kommt, darf es nicht zu einer Verstärkung von Artefakten kommen.
Und wie du schon sagst, wäre ein höherer Inputlag dann kontraproduktiv, wenn das ganze eigentlich der höheren Framerate dient.
Ja, das sehe ich ähnlich. Doch ich bin mir recht sicher, dass Du von DSC im Normalfall nichts mitbekommst. Doch nehmen wir an, das ganze Bild ist voller heavy Filmgrain. Dann ist es physikalisch schlicht unmöglich das Bild auf ein Bruchteil seiner Größe zu komprimieren, ohne die Mikrostrukturen zu verändern. Bei sehr hochfrequenten Inhalten muss irgendwo gespart werden. Es kann also nicht perfekt, in jeder Szene funktionieren. Doch ich wäre zufrieden, wenn es im Schnitt wesentlich besser funktioniert als Color-Subsampling und keinen großartigen, zusätzlichen Input-Lag verursacht.
Gouvernator
2020-12-16, 06:20:50
So schlimm kann DSC gar nicht werden, wenn mein Galaxy Tab S7+ mit Snapdragon 865+ den ganzen H.265 Stream von der Grafikkarte über WLAN in 10ms decoden tut.
Tobalt
2020-12-16, 07:16:01
habe mal was von Latenz von ein paar Mikrosekunden gelesen aber weiß nicht mehr wo. die Kompression passiert wohl nur auf Bilzeilenbasis.
woodsdog
2020-12-16, 20:29:32
So schlimm kann DSC gar nicht werden, wenn mein Galaxy Tab S7+ mit Snapdragon 865+ den ganzen H.265 Stream von der Grafikkarte über WLAN in 10ms decoden tut.
Stimmt! Macht ja auch überhaupt keinen Unterschied ob man Content X auf 12 oder 65 Zoll ausgibt - komplett das Gleiche! Komprimierung, Latenz, Farbunterabtastung, Lesbarkeit - Alles egal!
Tobalt
2020-12-16, 22:31:41
er meint glaube ich, dass h265 deutlich stärker komprimiert ist als DSC und damit mehr Decoding-Aufwand ergibt.
Selbst der Tablet SoC erledigt das in 10 ms, also sollte eine DSC Dekomprimierung wohl wirklich sehr schnell gehen.
Ist DSC denn Verlustfrei? Und ja, Lag würde mich auch interessieren.
visuell verlustfrei, was immer das auch bedeutet.
Gouvernator
2020-12-16, 23:52:55
Wenn wir schon bei HDMI 2.1 Features sind. Samsung 2019&2020 8K TVs sind nun mit Ampere VRR compatibel (https://www.samsung.com/us/support/answer/ANS00087803/?refx=78888-avsforum.com&awc=14815_1608158922_f43270d1ed4132140c81bb06eebc8479&cid=de_paid_affiliate_none_none_none_none_none_shop-textlink_none). Habe gerade die volle Ladung CP2077 ausprobiert: 8K, Ray Tracing, Ultra DLSS, VRR, HDR. Holy crap, sieht das alles zusammen geil aus.
Ich könnte stundenlang auf HDR-RT Spiegelungen starren... :umassa:
Wo8OczPXAJI
Ich könnte stundenlang auf HDR-RT Spiegelungen starren... :umassa:
https://youtu.be/Wo8OczPXAJI
"8k" vom Monitor in 1080p abgefilmt und mit Youtube Kompression? Sehr sinnvoll.
Dampf
2020-12-17, 01:02:20
Hm, bei genauerer Inspektion muss ich doch feststellen, dass die DLSS Implementation doch nicht so gut in Cyberpunk ist. Schon bei Quality leidet die Bildschärfe deutlich und bei Performance fehlen Details.
Das ist schon ein bisschen seltsam, schließlich ist das doch der Vorzeige-Titel schlechthin?
Geldmann3
2020-12-17, 01:20:45
Hm, bei genauerer Inspektion muss ich doch feststellen, dass die DLSS Implementation doch nicht so gut in Cyberpunk ist. Schon bei Quality leidet die Bildschärfe deutlich und bei Performance fehlen Details.
Das ist schon ein bisschen seltsam, schließlich ist das doch der Vorzeige-Titel schlechthin?
Bereits bei Quality fehlen Details:
https://i.ibb.co/c3K2j0k/DLSS.png (https://i.ibb.co/c3K2j0k/DLSS.png)
Dampf
2020-12-17, 01:22:33
Bereits bei Quality fehlen Details:
https://i.ibb.co/c3K2j0k/DLSS.png (https://i.ibb.co/c3K2j0k/DLSS.png)
In der Tat...:frown:
Das kann ich leider so bestätigen...
Ich mach morgen mal ein Vergleich hier.
Geldmann3
2020-12-17, 01:29:25
Wobei ich an solchen Stellen vermute, dass der Detailverlust eher ein Feature von DLSS ist. An den im Bild gezeigten Stellen hat es schlicht zu wenige Samples zur Verfügung, um die Muster noch sauber abbilden zu können, daher muss es sich mancherorts entschieden zwischen Artefakten und Verwerfen der Details. In diesem Fall verwirft es sie wohl lieber, um temporale Artefakte und flimmern zu vermeiden. Was ab einem gewissen Bildschirmabstand nicht mehr von TAA unterscheidbar ist. Die Artefakte wären es hingegen deutlich.
Wie hier im Video bei 32:30 erklärt (https://developer.nvidia.com/gtc/2020/video/s22698) ist das eines der revolutionären Features von DLSS 2.0+.
Dampf
2020-12-17, 01:38:07
Hm, das ist möglich.
In diesem Vergleich ist DLSS ja wieder wie gewohnt gut: https://overclock3d.net/reviews/software/cyberpunk_2077_performance_review_and_optimisation_guide/6
Ich werde das morgen mal mit frischen Treibern genau unter die Lupe nehmen.
-/\-CruNcher-/\-
2020-12-17, 03:15:55
Bereits bei Quality fehlen Details:
https://i.ibb.co/c3K2j0k/DLSS.png (https://i.ibb.co/c3K2j0k/DLSS.png)
Sehr nice wie granular das ML da vorgeht :)
So was ich gesehen hab aus den meisten aufnahmen kann man Perf/Ultra Perf total vergessen für Maximale temporale stabilität
Auf dem Level lohnt sich nur noch OFF/Balanced/Quality zu vergleichen
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.