PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Troyan
2021-09-18, 10:17:03
Wenn man Ghosting sehen will, dann kann man Formel 1 2021 nutzen. Kein Plan, wie man sowas freigeben kann. Sah furchtbar aus.

Elders Scroll Online bekommt neben DLSS bald auch "DLAA". Das ist die AA Variante in nativer Auflösung: https://forum.beyond3d.com/posts/2222311/

BlacKi
2021-09-18, 11:46:12
als post processing prozess dürfte die einbingung hoffentlich einfacher von statten gehen als mit dlss.

Gast
2021-09-18, 12:16:59
ESO bekommt offenbar als erster Titel das schon länger spekulierte DLAA (DLSS mit nativer Auflösung als Anti-Aliasing Methode):
https://mobile.twitter.com/longbool/status/1438973491437527040

Geldmann3
2021-09-18, 15:04:51
Wenn man Ghosting sehen will, dann kann man Formel 1 2021 nutzen. Kein Plan, wie man sowas freigeben kann. Sah furchtbar aus.

Elders Scroll Online bekommt neben DLSS bald auch "DLAA". Das ist die AA Variante in nativer Auflösung: https://forum.beyond3d.com/posts/2222311/

Interessant, hast Du Beispielbilder zu Formel 1 2021 mit Ghosting?

crux2005
2021-09-18, 22:43:47
-ajK3netvv4

Bei ~gleichen FPS ist der Inputlag von FSR und DLS ~gleich.

Troyan
2021-09-19, 09:56:08
Interessant, hast Du Beispielbilder zu Formel 1 2021 mit Ghosting?

Hab nur mal den Benchmark laufen lassen. Das Ghosting sah man sofort - z.B. bei der Kamera auf den Autos, da diese meisten Schwarz ist und der Kies hell gelb.

Platos
2021-09-19, 13:47:10
Hat hier eig. schon jemand Deathloop in 8K DLSS getestet bezüglich Speicherbedarf ? 30 FPS sollten vermutlich gehen per DLSS unter 8K.

Gouvernator
2021-09-19, 14:12:52
ESO bekommt offenbar als erster Titel das schon länger spekulierte DLAA (DLSS mit nativer Auflösung als Anti-Aliasing Methode):
https://mobile.twitter.com/longbool/status/1438973491437527040
Der größte Hindernis für schöneres AA war bis jetzt immer VRAM. Wenn DLAA diese Qualität erhöhen würde ohne großartig ins VRAM einzufallen, dann wäre das großer WIN.

aufkrawall
2021-09-19, 14:56:22
Das größte Hindernis für gutes AA ist die Motivation des Entwicklers, gescheites TAA einzubauen und damit die Grundlage für DLSS/XeSS.
DLAA klingt für mich totlangweilig vs. DLSS, sofern es nicht 0 Smearing zeigt. Gescheites DLSS Q sieht, bis auf das Smearing, nun wirklich gut genug aus.

Troyan
2021-09-19, 15:04:02
DLAA ist eben mehr das SSAA anstatt MSAA von früher. Ist vorallem hilfreich für Leute, die 1080p oder 1440p nutzen und über eine 3070+ verfügen.

Wenn man sich ansieht, wie gut DLSS mit Downsampling zusammenarbeitet (1080 -> 4K@Performance -> 1080p), dann ist es schon eine nette Option für Spiele, die kein Raytracing haben und trotzdem noch >60FPS laufen.

Gouvernator
2021-09-19, 15:07:31
Gescheites DLSS Q sieht, bis auf das Smearing, nun wirklich gut genug aus.
In 8K ja. Aber noch nicht mit 4K Auflösung. Wenn DLAA unter 4K gleiches Bild liefert wie DLSS Q unter 8K, dann ist es ein richtig dickes fettes WIN.

aufkrawall
2021-09-19, 15:17:44
Dein BQ-Fetisch ist halt völlig weltfremd, wenn die Leistung spätestens mit RT vorne und hinten nicht für solche absurden Auflösungen reicht.
DLSS Q kann schon in 1440p deutlich besser aussehen als wirklich gute TAA-Implementierungen in nativen 1440p. Wer da meint, das "reiche nicht"...

Dampf
2021-09-19, 15:25:54
Ich bin gespannt auf DLAA, sehe das aber ähnlich wie Krawall.

DLSS sieht schon gut genug aus. Aber es ist eben ein spieltypisches AA, d.h. es macht viele Fehler und nicht alle Kanten werden perfekt geglättet. Ob DLAA wirklich Sinn macht, wird man dann an der Qualität sehen. Vielleicht erreicht man damit eine Image-Quality, die an die alten Pixar Filme ala Toy Story rankommt? Das wäre natürlich unglaublich.

DrFreaK666
2021-09-19, 16:14:54
Hat hier eig. schon jemand Deathloop in 8K DLSS getestet bezüglich Speicherbedarf ? 30 FPS sollten vermutlich gehen per DLSS unter 8K.

Das Problem ist, dass Deathloop kein DLSS unterstützt.

Wird es reichen die Dateien zu tauschen, um dann DLAA statt DLSS zu haben?

Platos
2021-09-19, 16:18:40
Ach so, daran habe ich nicht gedacht :D

TheAntitheist
2021-09-19, 17:12:53
Vielleicht erreicht man damit eine Image-Quality, die an die alten Pixar Filme ala Toy Story rankommt? Das wäre natürlich unglaublich.
Pixar benutzt (oder nutzte) 64x SSAA, das ist ja unmöglich zu erreichen.

Fragman
2021-09-20, 07:40:41
Pixar benutzt (oder nutzte) 64x SSAA, das ist ja unmöglich zu erreichen.

Die nutzen intern seit Jahren rQMC.

Troyan
2021-09-20, 15:54:18
Wer Elders Scroll Online hat, kann ab heute auf den Testservern DLAA testen.

crux2005
2021-09-20, 16:23:54
Aus der News: https://www.4players.de/4players.php/spielinfonews/PC-CDROM/457/2200183/Nvidia-GeForce-Grafikkarten-Treiber_47212_zum_Download.html

Weitere Spiele, die DLSS via Plugin für die Unreal Engine nutzen, sind:

Anatomy Of Fear
Apocalypse: 2.0 Edition
Beyond Enemy Lines 2
Bodies of Water VR
ChronoTecture: The Eprologue
Cions of Vega
Death Realm
DeepStates [VR]
Exit From
Fall Balance Ball
Frozenheim
Helios
Höll Space 5D6
Last Hope On Earth
Loverowind
Mortal Online 2
Powerslide Legends
RAZE 2070
Recall
REFICUL 666
Soul Dossier
To Hell With It
Twin Stones: The Journey of Bukka
Uncrashed: FPV Drone Simulator
Unknown Woods
Wakamarina Valley, New Zealand
Yag

Kenne zwar kein einziges. Nur Frozenheim sagt mir was. Zeigt aber wie wichtig das Unreal DLSS Plugin ist.

basix
2021-09-20, 17:09:18
Dein BQ-Fetisch ist halt völlig weltfremd, wenn die Leistung spätestens mit RT vorne und hinten nicht für solche absurden Auflösungen reicht.
DLSS Q kann schon in 1440p deutlich besser aussehen als wirklich gute TAA-Implementierungen in nativen 1440p. Wer da meint, das "reiche nicht"...

Du sagst es genau richtig.

Viele verwenden einfach die falsche Vergleichsbasis. Wenn man 4K DLSS P oder Q mit nativem 4K vergleicht, kann es ähnlich aussehen und allenfalls schlechter oder leicht besser. Vergleicht man aber 4K DLSS P / Q entsprechend mit 1080p oder 1440p, wird das in 98% der Fälle einfach (deutlich) besser aussehen.

TheAntitheist
2021-09-20, 18:48:24
Die nutzen intern seit Jahren rQMC.
dann lass es 64x RQMC AA sein, dennoch wird DLAA da kein Land gegen sehen KÖNNEN.

€dit: RQMC ist doch nur random Monte Carlo also fürs Pathtracing oder nicht?

€dit2: in den docs von renderman steht auch nix vom rQMC fürs AA: https://rmanwiki.pixar.com/display/REN24/Filtering also kA, wüsste aber gerne mehr darüber. Auch wenn ein randomizer beim Anti Aliasing in meinen Augen komplett scheisse wäre, weil das Resultat bei darauf folgenden Frames ja anders wäre, also ganz schlecht fürs AA. Also wenn dann wird dein Derandomized MC AA benutzt aber steht auch nix in den docs.

robbitop
2021-09-20, 20:15:02
Ggf gibt es mehrere validierte Pattern (die alle sehr gut sind) die dann per Zufall gewählt werden. Bei 64x Samples hat man eh schon so viel an Informationen pro Pixel, dass da Schwankungen im Muster wenig ins Gewicht fallen sollten.

TheAntitheist
2021-09-20, 20:28:47
vllt benutzen sie ja nicht mehr 64x Samples, das hab ich mal in meinem Video gesehen vor x Jahren. Sonst geb ich dir natürlich Recht. Ich würde sogar so weit gehen und sagen das man bei 64 Samples pro Pixel gar kein AA mehr brauch.

robbitop
2021-09-20, 21:07:57
Mehr als 1 Sample pro Pixel ist AA ;)

iamthebear
2021-09-20, 23:05:30
Wird es reichen die Dateien zu tauschen, um dann DLAA statt DLSS zu haben?

Das setzt voraus, dass das Spiel eine .ini Datei hat, in der man die Renderauflösung frei wählen kann (z.B. Control)
Wenn im Menü des Spiels kann man ja nur die fest hinterlegten Modi auswählen.

Die Frage ist jedoch, ob hier noch weitere Parameter aktiviert werden müssen.

Du sagst es genau richtig.

Viele verwenden einfach die falsche Vergleichsbasis. Wenn man 4K DLSS P oder Q mit nativem 4K vergleicht, kann es ähnlich aussehen und allenfalls schlechter oder leicht besser. Vergleicht man aber 4K DLSS P / Q entsprechend mit 1080p oder 1440p, wird das in 98% der Fälle einfach (deutlich) besser aussehen.

Grundsätzlich hast du hier Recht. Es macht keinen Sinn die Qualität von DLSS oder FSR mit native 4K zu vergleichen.
Man muss die Qualität mit der nächstbesten Upscalingmethode vergleichen, die das Spiel bietet also z.B. statt DLSS/FSR dann Absenken der Renderauflösung + Nachschärfen mit CAS oder im Treiber.

Im Fall von DLSS sollte man jedoch den Overhead nicht außer Acht lassen. Man sollte Technologien nicht auf selber Renderauflösung vergleichen, sondern bei gleicher Framerate. Wenn z.B. DLSS im Quality Modus auf dieselbe Framerate kommt wie FSR im UQ Modus, dann muss man es gegen UQ vergleichen. Oder man vergleicht z.B. DLSS Performance mit Native 1440p + CAS wenn es dieselbe Framerate bietet.

robbitop
2021-09-20, 23:06:47
Kann man in der ini von Control denn die Inputauflösung auf nativ (oder gar höher als nativ) einstellen? :)

DrFreaK666
2021-09-21, 05:19:10
Bei solchen Spielereien bekomme ich Lust auf eine RTX ^^

basix
2021-09-21, 09:15:17
Grundsätzlich hast du hier Recht. Es macht keinen Sinn die Qualität von DLSS oder FSR mit native 4K zu vergleichen.
Man muss die Qualität mit der nächstbesten Upscalingmethode vergleichen, die das Spiel bietet also z.B. statt DLSS/FSR dann Absenken der Renderauflösung + Nachschärfen mit CAS oder im Treiber.

Sinnfrei finde ich den Vergleich mit native 4K jetzt nicht, da dies sozusagen die "Referenz" ist, wo man hin will (oder sogar darüber). Was ich aber falsch finde ist, dass man DLSS eine "Verschlechterung der Qualität" nachsagt. Das ist bei Iso-Performance eben genau nicht der Fall. Ja, Schlieren usw. gibt es aber das wird sich in Zukunft auch lösen lassen. Und es gibt auch Fälle, wo DLSS gegenüber nativ besser aussieht (Control ist so ein Beispiel).


Im Fall von DLSS sollte man jedoch den Overhead nicht außer Acht lassen. Man sollte Technologien nicht auf selber Renderauflösung vergleichen, sondern bei gleicher Framerate. Wenn z.B. DLSS im Quality Modus auf dieselbe Framerate kommt wie FSR im UQ Modus, dann muss man es gegen UQ vergleichen. Oder man vergleicht z.B. DLSS Performance mit Native 1440p + CAS wenn es dieselbe Framerate bietet.

Genau so sollte man es machen, wenn man die Qualität der verschiedenen Verfahren vergleichen will. Hat etwas mehr Performance bei gleicher Qualität? Besser. Hat etwas mehr Qualität bei gleicher Performance? Besser.

Gaston
2021-09-22, 21:44:57
Hat mir Youtube grade vor die Füße geworfen: DLAA in Elder Scrolls Online gecaptured. Gibt ne 4K und eine Full HD Version:

https://www.youtube.com/watch?v=YIor6g8jSy0
https://www.youtube.com/watch?v=uE376hjmc1Y

Laut Text uncompressed via OBS. In der FHD-Version sieht man dass DLAA ruhiger ist als TAA und ich sehe auch besser dargestellte Halme.

mfg

TheAntitheist
2021-09-23, 16:16:44
Mehr als 1 Sample pro Pixel ist AA ;)
hast Recht, wollte eigentlich sagen das man bei 64x höherer Auflösung auch kein zusätzliches AA brauch außer supersampling.

Fragman
2021-09-24, 11:37:40
dann lass es 64x RQMC AA sein, dennoch wird DLAA da kein Land gegen sehen KÖNNEN.

€dit: RQMC ist doch nur random Monte Carlo also fürs Pathtracing oder nicht?

€dit2: in den docs von renderman steht auch nix vom rQMC fürs AA: https://rmanwiki.pixar.com/display/REN24/Filtering also kA, wüsste aber gerne mehr darüber. Auch wenn ein randomizer beim Anti Aliasing in meinen Augen komplett scheisse wäre, weil das Resultat bei darauf folgenden Frames ja anders wäre, also ganz schlecht fürs AA. Also wenn dann wird dein Derandomized MC AA benutzt aber steht auch nix in den docs.

Sorry, da hab ich was durcheinander gebracht.
Die benutzen ihren eigenen Sampler.
Sony nutzt sicher rQMC intern, Pixar hatte das wohl mal evaluiert aber mehr auch nicht.
Das hab ich irgendwann mal falsch zusammen gesetzt.

Dampf
2021-09-24, 19:21:27
Es gibt neue experimentelle DLSS DLLs zum Ausprobieren:

https://twitter.com/NVIDIAGameDev/status/1441447338489237508

White Collie 1 und 2. Was das wohl bedeutet? Die Beschreibung lautet folgendermaßen:

Improved object detail in motion and particle visibility. Also improved the handling of moderate native instability and minimized ghosting.

aufkrawall
2021-09-24, 20:02:38
Wieder besser als andere Versionen nach 2.2.6. 2.2.6 sieht aber in Doom Eternal weiterhin besser aus bez. Smearing.

Lurtz
2021-09-25, 11:25:21
Now if only Nvidia could find a way to force developers to use output resolution instead of internal resolution for mipmaps... it's significantly hurting DLSS in a wide variety of games at the moment
I know. It’s very frustrating to us researchers. The problem is that game developers just don’t believe that DLSS should look detailed, so when the output is fuzzy they blame DLSS instead of checking their mipmaps.
https://mobile.twitter.com/ctnzr/status/1441481203991777281

aufkrawall
2021-09-25, 19:32:51
Vermutlich glauben manche Entwickler auch, dass es mit dem Bias sofort fies flimmern würde, was aber auch mit Schrott-Texturen bei DLSS kaum der Fall ist.
In Fortnite ist die Asphalt-Textur offenbar mit nearest neighbor hochskaliert (unfreiwilliger Pixelart-Look...), entsprechend flimmert die ohne (T)SSAA wie bekloppt (Content-Fail). Trotzdem flimmert die mit DLSS, für das hier neg. Bias verwendet wird, immer noch massiv weniger als ohne AA und ohne Bias.

CD-LABS
2021-09-27, 12:49:17
Dein BQ-Fetisch ist halt völlig weltfremd, wenn die Leistung spätestens mit RT vorne und hinten nicht für solche absurden Auflösungen reicht.
DLSS Q kann schon in 1440p deutlich besser aussehen als wirklich gute TAA-Implementierungen in nativen 1440p. Wer da meint, das "reiche nicht"...
Die Sache ist einfach die, dass diverse Titel kein Performance-*, sondern Bildqualitätsprobleme haben. Besonders im Indiebereich, besonders im Falle von Unitytiteln. Wenn die Bildwiederholrate des Monitors erreicht ist, wenn das Powerlimit bereits gesenkt wurde, muss der Rest der Performance halt irgendwo hin... :biggrin:

Des weiteren limitiert Bildqualität die Distanzdarstellung. Irgendwann muss man Bildqualität pushen, damit Details nicht für nichts und wieder nichts berechnet werden.

*damit sind absolute Performanceprobleme gemeint! Relative Performanceprobleme (performed das Spiel für seine Optik und seinen spielelogischen Inhalt gut genug) beziehen ja unter anderem auch bereits die Bildqualität mit ein...

aufkrawall
2021-09-28, 22:50:29
Der Support für DLSS ist jetzt in DXVK, DXVK-NVAPI und VKD3D-Proton gemergt. Ist noch nicht in einem Proton Build auf Knopfdruck verfügbar, habs aber mit selbstkompilierten Libs reingefrickelt. Tada, DLSS unter Linux in einem D3D12-Spiel (fürs DLSS-Bild CAS via vkBasalt):
https://abload.de/thumb/screenshot_20210928_2bojyq.png (https://abload.de/image.php?img=screenshot_20210928_2bojyq.png) https://abload.de/thumb/screenshot_20210928_2ydj7t.png (https://abload.de/image.php?img=screenshot_20210928_2ydj7t.png) https://abload.de/thumb/screenshot_20210928_2trkfo.png (https://abload.de/image.php?img=screenshot_20210928_2trkfo.png)

dildo4u
2021-10-10, 11:54:50
Dieses Game hat die neue DLSS Version mit schärfe Slider wer es mal testen will.


https://store.steampowered.com/app/1330470/FIST_Forged_In_Shadow_Torch/

PCGH Artikel.

https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/DLSS-Test-Review-Einstellungstipps-1381186/

Raff
2021-10-11, 16:05:10
So kuhl das ist: Mehr, laut Interessierten ist die FIST-Demo nicht RT(X)-fähig. :|

MfG
Raff

Troyan
2021-10-12, 14:46:55
DLSS 2.x kommt zu Rise und Shadow of the Tomb Raider. Das finde ich eine echte Überraschung. Damit sollte Shadow mit Raytracing nun vernünftig spielbar sein.

Raff
2021-10-12, 16:24:05
Viel geiler finde ich, dass RotTR ein deratiges Update erhält. Das Spiel hatte nämlich bisher nur mieses Post-AA oder SSAA - man musste das omnipräsente Aliasing bisher mit DSR/VSR erschlagen, was jedoch ganz schön ins "Geld" geht. Schon jemand getestet? =)

MfG
Raff

aufkrawall
2021-10-12, 16:29:56
Bin skeptisch, das Spiel hatte ähnlich RDR2 viele Effekte in reduzierter Auflösung gerendert. Zumal kein TAA vorhanden = Zusatzaufwand für Bewegungsvektoren etc...

Gast
2021-10-12, 16:38:46
DLSS 2.x kommt zu Rise und Shadow of the Tomb Raider. Das finde ich eine echte Überraschung. Damit sollte Shadow mit Raytracing nun vernünftig spielbar sein.

Raytracing ist schon jetzt gut spielbar, SOTR war eines, wenn nicht der Vorzeigetitel für DLSS 1.x, das sieht dort nämlich richtig gut aus.

Wobei ein Upgrade auf 2.x natürlich trotzdem herzlich willkommen ist, 2.x ist ja nicht nur schöner es bringt auch potentiell deutlich mehr Speedup.

Gast
2021-10-12, 16:39:32
Bin skeptisch, das Spiel hatte ähnlich RDR2 viele Effekte in reduzierter Auflösung gerendert. Zumal kein TAA vorhanden = Zusatzaufwand für Bewegungsvektoren etc...

Naja, sie werden eben die Engine auf eine aktuelle Version upgraden.

basix
2021-10-12, 17:35:18
DLSS 2.x kommt zu Rise und Shadow of the Tomb Raider. Das finde ich eine echte Überraschung. Damit sollte Shadow mit Raytracing nun vernünftig spielbar sein.

Hast du einen Link dazu?

Troyan
2021-10-12, 17:36:48
Direkt von nVidia: https://www.nvidia.com/en-us/geforce/news/october-2021-rtx-dlss-game-updates/

Release ist 18.10, also nächste Woche Montag.

Sardaukar.nsn
2021-10-12, 19:06:49
Die Leistungssteigerungen sind schon eine Ansage:


Back 4 Blood (Release: 12. Oktober, Leistungssteigerung um 46 Prozent bei 4K)
Baldur's Gate 3 (Release: 6. Oktober, Leistungssteigerung um 88 Prozent bei 4K)
Crysis Remastered Trilogy (Release: 15. Oktober, DLSS + Raytracing, verbesserte Texturen, Modelle, Beleuchtungen und Umgebungen)
Shadow of the Tomb Raider (Release: September 2018, DLSS-Update am 18. Oktober)
Rise of the Tomb Raider (Release: November 2015, Leistungssteigerung um 75 Prozent bei 4K)
Chivalry 2 (Release: Juni 2021, DLSS-Update am 26. Oktober, Leistungssteigerung um 45 Prozent bei 4K)
Sword and Fairy 7 (Release: 21. Oktober, DLSS und Raytracing, die Leistung kann um das Doppelte gesteigert werden)
Swords of Legends Online (Release: Juli 2021, DLSS-Update am 14. Oktober, Leistungssteigerung von bis zu 60 Prozent)
F.I.S.T.: Forged in Shadow Torch (Release: 3. Oktober, DLSS und Raytracing, Leistungssteigerung um das Dreifache möglich)
Alan Wake Remastered (Release: 5. Oktober, Leistungssteigerung um das Doppelte bei 4K)



Quelle: https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/News/Nvidia-Geforce-Game-Ready-Treiber-DLSS-Update-fuer-zehn-Spiele-1381368/

aufkrawall
2021-10-12, 19:49:58
Ist auch tatsächlich so (.11 vs. .6 Seitwärtsbewegung):
https://abload.de/thumb/doometernalx64vk_2021xjjzq.png (https://abload.de/image.php?img=doometernalx64vk_2021xjjzq.png) https://abload.de/thumb/doometernalx64vk_2021z8j4m.png (https://abload.de/image.php?img=doometernalx64vk_2021z8j4m.png)

Das sollte bei Nvidia irgendjemand mal merken. :freak:
Kurioserweise ist das Smearing mit 2.2.11 mit aktuellen Treibern oder NGX Profil-Updates gefixt, 2.2.11 sieht in Doom Eternal jetzt so aus wie oben 2.2.6. 2.2.18 sieht aber wiederum schlimm aus, während 2.3.1/2.3.0 etwas besser, aber schlechter als 2.2.6 oder nun auch 2.2.11 sind.

Bei Guru3D hatte btw. auch noch jemand herausgefunden, dass 2.2.11 als einzige spätere Version auch korrekt in Control funktioniert.

Raff
2021-10-12, 20:48:41
Die Leistungssteigerungen sind schon eine Ansage:

Allerdings weitestgehend mit DLSS Performance @ Ultra HD, was idR nicht geil aussieht. Die überproportionalen Gewinne bei Spielen, deren Frames komplett mit Strahlen zugekleistert sind, sehen besonders verlockend aus (und stimmen), aber das kommt eben nur durch das rigorose Wegsparen von "originären" Pixeln.

MfG
Raff

Gast
2021-10-12, 21:26:16
Allerdings weitestgehend mit DLSS Performance @ Ultra HD, was idR nicht geil aussieht.

MfG
Raff

Es gibt auch Leute die haben nur WQHD oder FullHD Monitore und selbst da gefällt's und vergiss nicht dass DLSS@Performance bei 2160p immer noch mehr Pixel im Vergleich zu niedrigeren Auflösungen im höchstem DLSS Quality-Preset für den temporalen Algo hat und eine genauere Skalierung ermöglicht.
Jedenfalls wird sehr viel geboten in der jetztigen RTX 30 Series-Generation dank DLSS 2.x einfach der Wahnsinn. :)

Geldmann3
2021-10-12, 23:14:19
Wobei ich finde, dass es sehr darauf ankommt, ob das LOD-Bias korrekt angepasst wurde.
Wenn richtig implementiert, ist DLSS-Performance in 4K, von der Couch aus, absolut genießbar.
Wenn ich direkt davor sitze, würd' ich's allerdings eher nicht machen.

Perfekt für Konsolen, eigentlich.

Slipknot79
2021-10-13, 01:10:26
DLSS 2.x kommt zu Rise und Shadow of the Tomb Raider. Das finde ich eine echte Überraschung. Damit sollte Shadow mit Raytracing nun vernünftig spielbar sein.


MUUUUUUUUUST-FAPmitHerzinfarkt. :eek:

Lederjacke weiß ganz genau was ich gerade ballere, Lederjacke ist up sofort im dicker Bro Status, das ist Wellenlänge. (y)
Nvidia Gamer Service (y) MOAR!
Muss immer wieder feststellen, dass sich Lederjacke ins Zeug legt für uns Gamer.

Vor 2 Wochen TR Legend durchgeballert, jetzt ist TR Anniversary dran, danach folgen alle weiteren TR in Release-Reihenfolge und 2 davon bekommen DLSS 2.0. (y)



2080 Ti (y)

Highlander Lederjacke m8 die 2080Ti unsterblich: Who waaaaants to keeeep the GPU foreveeeeer? :redface:

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/september-2021-rtx-dlss-game-updates/alan-wake-remastered-geforce-rtx-3840x2160-nvidia-dlss-desktop-gpu-performance.png

-/\-CruNcher-/\-
2021-10-13, 01:21:03
Allerdings weitestgehend mit DLSS Performance @ Ultra HD, was idR nicht geil aussieht. Die überproportionalen Gewinne bei Spielen, deren Frames komplett mit Strahlen zugekleistert sind, sehen besonders verlockend aus (und stimmen), aber das kommt eben nur durch das rigorose Wegsparen von "originären" Pixeln.

MfG
Raff

Was ist daran neu hat dich das Jahrelang bei Youtube und Co oder deinem JPG nutzen jemals gestört ;) ?

Es kommt nur darauf an wie effizient man es macht auf nichts anderes, da kannst du um zu überleben die Fehler mit der Lupe suchen dennoch betrügst du dich letztendlich selbst, du kannst nicht jede information in jedem frame wahrnehmen so wie du es deinen lesern weismachen willst.
Du erreichst irgendwann eine Schwelle die so oldshool nicht mehr messbar ist vor allem unterschätzt du ziemlich deine eigene Fehlerkorrektur.
Für Otto normal sind es bis jetzt nur Gewinne am laufenden Band.

Geldmann3
2021-10-13, 02:04:08
Deshalb hatte ich ja auch geschrieben, dass es auf einer Konsole absolut Sinn ergibt, wenn man ein paar Meter entfernt, auf der Couch sitzt.

Doch jetzt sitze ich gerade einen halben Meter vor meinem 65° OLED, der mein PC-Monitor ist und glaube mir, hier sehe ich DLSS-Performance deutlich.
Ich könnte so beim Zocken in Sekunden sagen, dass mit dem Bild etwas kaputt ist.
Von der Couch aus jedoch niemals.

Übrigens störe ich mich durchaus an Video und Bildkompression, geradezu eine Frechheit, vor allem paid Services wie bei Amazon Prime Video.
Das hat die besten Folgen von Game Of Thrones geradezu misshandelt.
Viel schlimmer als DLSS-Performance.

TheAntitheist
2021-10-13, 08:13:53
Übrigens störe ich mich durchaus an Video und Bildkompression, geradezu eine Frechheit, vor allem paid Services wie bei Amazon Prime Video.

Ich hoffe du hast dich da etwas schlecht ausgedrückt, denn ohne Kompression bräuchtest du eine 5.5Gbit/s Leitung um 4k HDR zu gucken.

Geldmann3
2021-10-13, 08:25:49
Natürlich ist es die Kompressionsrate, die mich stört.
40 MBit/s für 4K oder das doppelte für 8K, dürften es gerne schon sein.
Auch, wenn es dann natürlich immer noch besser ginge.

Raff
2021-10-13, 09:34:31
Was ist daran neu hat dich das Jahrelang bei Youtube und Co oder deinem JPG nutzen jemals gestört ;) ?

Es kommt nur darauf an wie effizient man es macht auf nichts anderes, da kannst du um zu überleben die Fehler mit der Lupe suchen dennoch betrügst du dich letztendlich selbst, du kannst nicht jede information in jedem frame wahrnehmen so wie du es deinen lesern weismachen willst.
Du erreichst irgendwann eine Schwelle die so oldshool nicht mehr messbar ist vor allem unterschätzt du ziemlich deine eigene Fehlerkorrektur.
Für Otto normal sind es bis jetzt nur Gewinne am laufenden Band.

Ich finde DLSS prima. Das ist aber (noch?) kein vollwertiger Ersatz für "echte" Pixel, On-the-fly-Fehlerkorrektur her. Es gibt immer Leute, die Fehler sehen, und solche, die es nicht tun. Ich sehe leider alle Fehler in Bildern, Texten et cetera und mache das daher beruflich. ;)

MfG
Raff

Platos
2021-10-13, 09:39:37
Also in Vergleichen sehe ich den Unterschied bei Perfomance und Quality in 4k normalerweise auch sofort. Da muss ich nicht "suchen". Im "Notfall" (also wenn man die FPS nicht erreicht), kann man das ja vlt. mal nutzen.

Also ich würde in 4K (und darunter sowieso) nur DLSS Quality nehmen bzw. anstreben.

TheAntitheist
2021-10-13, 15:32:30
Natürlich ist es die Kompressionsrate, die mich stört.
40 MBit/s für 4K oder das doppelte für 8K, dürften es gerne schon sein.
Auch, wenn es dann natürlich immer noch besser ginge.
es gibt ja noch nicht mal Vollwertigen 4k content, also kA was 8k bringen soll. Solange die Filme noch CSS 4:2:0 haben ist das doch alles Witzlos. 40Mbit sagt dir außerdem nichts über die Qualität aus. Es kommt auf den Content an und mit welchem Codec+settings encodiert wurde. Gerade bei dem billigen Amazon abo kann man aber nicht wirklich mehr erwarten.

Geldmann3
2021-10-13, 17:16:29
Würde mal hoffen, dass die großen Services wissen, was sie mit den Codecs tun.
Natürlich ist Farbunterabtastung nicht schön, doch das ist ja eh nur die Spitze des Eisbergs.

Gast
2021-10-14, 07:57:48
Natürlich ist Farbunterabtastung nicht schön, doch das ist ja eh nur die Spitze des Eisbergs.

Farbunterabtastung ist für Filme sogar sehr schön, man spart massig Bandbreite für einen minimalen Qualitätsverlust.

Troyan
2021-10-14, 18:17:28
Deathloop hat auch DLSS bekommen und kann in Kombination mit der dynamischen Auflösung analog zu Avengers auch als DLAA verwendet werden.

aufkrawall
2021-10-14, 19:16:35
Sieht deutlich besser aus als das altbackene TXAA, LOD-Verschiebung scheint korrekt berücksichtigt worden zu sein:
https://abload.de/thumb/deathloop_2021_10_14_z8jmz.png (https://abload.de/image.php?img=deathloop_2021_10_14_z8jmz.png) https://abload.de/thumb/deathloop_2021_10_14_g2kem.png (https://abload.de/image.php?img=deathloop_2021_10_14_g2kem.png)

Ist btw. Version 2.3.0. Smeart aber immer noch, Fortschritt also eher so meh seit 2.2.6. Deshalb finde ich auch den "DLAA"-Modus unsinnig, viel zu geringer Optik-Gewinn vs. Q/B nach Sharpen via ReShade/CAS.
Das Smearing nervt bislang auf jeden Fall weniger als die hässlichen TXAA-Fails und die 3060 skaliert ganz nett. Geht doch. :cool:

robbitop
2021-10-14, 20:06:37
Wahrscheinlich ist das der Grund warum DLAA so spät kam.

Dampf
2021-10-14, 21:23:43
Sieht deutlich besser aus als das altbackene TXAA, LOD-Verschiebung scheint korrekt berücksichtigt worden zu sein:
https://abload.de/thumb/deathloop_2021_10_14_z8jmz.png (https://abload.de/image.php?img=deathloop_2021_10_14_z8jmz.png) https://abload.de/thumb/deathloop_2021_10_14_g2kem.png (https://abload.de/image.php?img=deathloop_2021_10_14_g2kem.png)

Ist btw. Version 2.3.0. Smeart aber immer noch, Fortschritt also eher so meh seit 2.2.6. Deshalb finde ich auch den "DLAA"-Modus unsinnig, viel zu geringer Optik-Gewinn vs. Q/B nach Sharpen via ReShade/CAS.
Das Smearing nervt bislang auf jeden Fall weniger als die hässlichen TXAA-Fails und die 3060 skaliert ganz nett. Geht doch. :cool:

Sieht echt sehr gut aus. Endlich mal gescheit eingestellter Mip-Bias.

Dann fehlen in diesem Titel nur zwei einfache Schritte zur Perfektion: Smearing verhindern und die Post Processing Effekte in voller Auflösung laufen lassen.

aufkrawall
2021-10-14, 21:34:12
Mir scheint es, dass 2.3 das Jittering dünner Linien weiter verbessert hat.

Spiele es mit Balanced in 1440p, da kann man spätestens mit CAS echt nicht meckern :eek: :
https://abload.de/thumb/deathloop_2021_10_14_hbj6o.png (https://abload.de/image.php?img=deathloop_2021_10_14_hbj6o.png)

sapito
2021-10-16, 14:11:06
hier stand murks

Gast
2021-10-16, 14:56:00
Wahrscheinlich ist das der Grund warum DLAA so spät kam.

DLAA ist auch sinnlos, außer man hat massenhaft zu viel Leistung. Ansonsten wird man mit DLSS immer die bessere Qualität/Performance bekommen.

Troyan
2021-10-17, 20:37:06
Mal ein Vergleich aus Crysis 2 Remaster jedoch ohne nachträgliche Schärfung vom TAA, da das DLSS-Schärfen buggy ist. Laut der console wird sogar ein -0.25 mipmap Bias bei TAA verwendet: https://imgsli.com/Nzc0Mjk

Ich stelle auch gerade fest, dass die Szene für TAA eher schlecht ist, da alles sehr eintönig. Da kann DLSS seine Überlegenheit deutlich ausspielen. Dafür ist TAA in 4K leicht stabiler als Quality.

aufkrawall
2021-10-17, 20:52:25
Das LOD ist jedenfalls nicht korrekt für DLSS konfiguriert. Es scheint hier keine Fehler zu geben, wenn man über den Treiber erzwingt (Keine Ahnung, ob es auch in-game geht. Dürfte aber eh nur aufs Gleiche hinauslaufen). -1.5 sollte mit HQ-Texturfilterung kein Problem sein.
Das TAA in der CryEngine ist endlich mal recht gut geworden, aber der Motion Blur in Bewegung für Vegetation ist trotzdem nerviger als bei DLSS.
Die Implementierung ist nicht so gut wie in Deathloop, aber auch kein Reinfall wie in RDR2. Mit Tweaks immer noch ein No-Brainer.

crux2005
2021-10-17, 22:29:59
Wo du es erwähnst. Wurde das DLSS in RDR2 endlich verbessert? Oder ist R* zu faul?

aufkrawall
2021-10-17, 22:59:16
Gab afaik kein Update mehr.

Das 2.3.1 funktioniert wirklich gut bez. Smearing in Crysis 2 Rem. Bei solchen mitunter dafür anfälligen Strukturen tritt das die meiste Zeit gar nicht auf:
https://abload.de/thumb/crysis2remastered_202gmjek.png (https://abload.de/image.php?img=crysis2remastered_202gmjek.png)

Mal sehen, ob es mit irgendeinem zukünftigen Treiber- oder NGX Profil-Update auch in z.B. Doom Eternal mit 2.3 so wenig schmiert, wie ja offenbar auch 2.2.11 einen "Fix" erhalten hat.
Schätze, mit 2.3 ist Balanced mittlerweile in einigen Dingen besser als es noch Quality mit 2.1 war. Ich kann das echt in Crysis oder Deathloop einwandfrei mit 1440p Monitor nutzen. Sieht immer noch massivst besser aus als viele TAA-Löungen in 1440p. :eek: :freak:

Troyan
2021-10-18, 15:55:00
Schneller Vergleich aus Shadow of the Tomb Raider - 4K SMAA 2x (TAA + SMAA) + CAS gegen DLSS@Quality: https://imgsli.com/Nzc1MzY

Bei TAA mit CAS sieht man im Hintergrund die Nachschärfeartefakte. Und DLSS ist viel kontrastreicher, weil es eben nicht annährend so abhängig vom Umgebungsfarbwert ist.

Jedoch ist DLSS 2.0 nicht überall besser als DLSS 1.0. Alles, was nicht hochskaliert wird (RT-Schatten, SSRs etc.) flimmern deutlicher. Hier konnte der spartiale Ansatz von DLSS viel mehr überzeugen.

aufkrawall
2021-10-18, 15:56:37
In SotTR SMAA T2x vs. DLSS Q (neue Version 2.3.2):
https://abload.de/thumb/sottr_2021_10_18_15_5jqj33.png (https://abload.de/image.php?img=sottr_2021_10_18_15_5jqj33.png) https://abload.de/thumb/sottr_2021_10_18_15_5aujxk.png (https://abload.de/image.php?img=sottr_2021_10_18_15_5aujxk.png)

Sieht erstmal extrem vielversprechend aus. Mal weiter schauen.

Edit: Die Farben mit DLSS sind übrigens korrekt vs. kein AA, das TAA/SMAA T2x des Spiels dunkelt das Bild extrem ab.

TheAntitheist
2021-10-18, 16:12:16
und wie siehts mit dem smearing aus? wieder auf 2.2.6 Niveau oder haben die es wieder verbockt? Die Qualität ist auf jeden Fall deutlich gestiegen und 25% mehr fps ist ja auch ganz nett

Troyan
2021-10-18, 16:14:48
Auf den ersten Blick nerven die Engine-Fehler mehr. Habe kein Ghosting gesehen. Aber ich habe auch noch nicht weiter gespielt.

aufkrawall
2021-10-18, 16:28:54
und wie siehts mit dem smearing aus? wieder auf 2.2.6 Niveau oder haben die es wieder verbockt? Die Qualität ist auf jeden Fall deutlich gestiegen und 25% mehr fps ist ja auch ganz nett
Smearing-Situation sieht auf den ersten Blick gut aus, Seile und Vegetation am Himmel sind bislang unauffällig. Bislang gibts afaik keinen Nachweis, dass 2.2.6/2.2.11 in den Spielen, die mit 2.3.x shippen, weniger smearen.

Edit: In Kuwaq Yaku gibt es manchmal leichtes Smearing, aber nicht sonderlich schlimm.
Empfehle für DLSS Q in 1440p CAS-Stärke ~0.6 via ReShade.

aufkrawall
2021-10-18, 17:27:59
In Rise of the Tomb Raider sieht es sehr blurry aus, CAS-Stärke 1.7 empfiehlt sich. Gibt aber zumindest mit der letzten ReShade-Version mit D3D12 heftige Einbrüche, mit D3D11 läuft es normal. Das Spiel ist durch Blur-Effekte und wahnsinniges Aliasing ein Härtefall für DLSS. Dafür schlägt es sich gut, trotz Performance-Steigerung wird das Bild massiv beruhigt (wenn auch nicht so ruhig wie SotTR). Hab mit Schlimmerem gerechnet.
https://abload.de/thumb/rottr_2021_10_18_17_2srksq.png (https://abload.de/image.php?img=rottr_2021_10_18_17_2srksq.png)

aufkrawall
2021-10-18, 19:56:59
So wenig los hier? Ich möchte ja nicht spammen, aber ich halte folgendes für sehr hervorhebenswert: DLSS 2.3.2 in SotTR sieht bez. temporale Stabilität und unterdrücktem Pixel-Jittering bei Standbildern nochmal massiv besser aus als 2.2.11. Das ist mindestens noch mal ein ähnlicher Sprung wie von 2.1 auf 2.2, wenn nicht größer. Dafür smeart es leicht mehr als 2.2.11, in den bisher erschienen Spielen mit 2.3 fällt das aber meist wenig bis gar nicht auf. Es smeart jedenfalls immer noch massiv weniger als missratene Versionen wie 2.2.18 oder vermutlich auch jedes Spiel mit 2.1 (zumindest mit den damaligen Treibern/NGX-Profilen dafür).

Wir haben jetzt innerhab von nicht mal sechs Monaten bereits die zweite deutliche Verbesserung. Viel Potenzial ist offenbar in unmittelbarer Reichweite, das wird extrem spannend vs. XeSS. Man könnte dann auch überlegen, Effekte wie voxelbasierten volumetrischen Nebel ebenfalls auf Raytracing umzustellen, damit die niedrigere Renderauflösung hierbei weniger auffällt. Auch könnte man mehr als 1 Ray pro Pixel zu nutzen, um sauberere RT-Effekte und ggf. auch weniger Denoiser-Load zu verursachen. DL + RT ermöglicht wirklich ganz neue Ansätze. Nur blöd, dass die AMD-GPUs so schlecht sind bei hoher Ray-Abtastung und die PS5 nicht einmal DP4a hat. Das dürfte alles ausbremsen...

Zerozerp
2021-10-18, 20:05:07
DLSS wird ja in Sachen Funktionsumfang weiterhin massiv erweitert.

Es ist inzwischen weniger eine Frage der Qualität, als die, inwieweit der Entwickler schwierige Szenen mit den inzwischen vielfach vorhandenen Masken behandeln will.
Interessant wird es, wenn man DLSS mit 3d motion vectors zufüttert (eine der neueren Versionen sollte das unterstützen).
Das sollte den meisten der noch vorhandenen Bildfehler eliminieren.

Troyan
2021-10-18, 20:28:51
Habe SotTR nun weitergeziockt und DLSS ist top. Also ich bin zufrieden. Gibt zwar das ein oder andere Probleme, aber wir reden hier zwischen 40% bis 60% mehr Leistung.

Problematisch sind die RT-Schatten. Die sehen deutlich schlechter aus als nativ. Aber dann wiederum kann ich in 4K mit den RT-Schatten vorallem im Dschungel nicht spielen mit <50FPS. Ein Tod muss man dann wohl sterben. Wird spannend, wie nVidia das Thema Raytracing und DLSS angehen wird.

aufkrawall
2021-10-18, 20:30:54
Die Schatten in SotTR sind einfach ein hoffnungsloser Fall, die sind auch schlecht gefiltert (statisches sowie temporales Aliasing). In Deathloop sehen die mit 835p Renderaulösung weiterhin sauber aus.

Lurtz
2021-10-18, 21:54:36
So wenig los hier? Ich möchte ja nicht spammen, aber ich halte folgendes für sehr hervorhebenswert: DLSS 2.3.2 in SotTR sieht bez. temporale Stabilität und unterdrücktem Pixel-Jittering bei Standbildern nochmal massiv besser aus als 2.2.11. Das ist mindestens noch mal ein ähnlicher Sprung wie von 2.1 auf 2.2, wenn nicht größer. Dafür smeart es leicht mehr als 2.2.11, in den bisher erschienen Spielen mit 2.3 fällt das aber meist wenig bis gar nicht auf. Es smeart jedenfalls immer noch massiv weniger als missratene Versionen wie 2.2.18 oder vermutlich auch jedes Spiel mit 2.1 (zumindest mit den damaligen Treibern/NGX-Profilen dafür).

Wir haben jetzt innerhab von nicht mal sechs Monaten bereits die zweite deutliche Verbesserung. Viel Potenzial ist offenbar in unmittelbarer Reichweite, das wird extrem spannend vs. XeSS. Man könnte dann auch überlegen, Effekte wie voxelbasierten volumetrischen Nebel ebenfalls auf Raytracing umzustellen, damit die niedrigere Renderauflösung hierbei weniger auffällt. Auch könnte man mehr als 1 Ray pro Pixel zu nutzen, um sauberere RT-Effekte und ggf. auch weniger Denoiser-Load zu verursachen. DL + RT ermöglicht wirklich ganz neue Ansätze. Nur blöd, dass die AMD-GPUs so schlecht sind bei hoher Ray-Abtastung und die PS5 nicht einmal DP4a hat. Das dürfte alles ausbremsen...
Wenn DLSS die Marktdurchdringung behält und sich so weiterentwickelt, sehe ich in absehbarer Zeit keine Radeon mehr in meinen PC wandern. Das ist einfach nur ein Gamechanger, der AMD komplett aus dem Spiel nimmt...

Geldmann3
2021-10-18, 23:33:30
Habe mir gerade via Steam Rise of the Tomb Raider, auf dem Rechner mit der RTX 3090, installiert, doch finde, anders als in diversen Youtube-Videos, kein DLSS in meinem Menü unter der Auflösung.
Habe ich nicht die neueste Version oder mache ich etwas falsch?

Edit: Installiere mir nun mal den neuesten Game Ready Treiber.

Edit 2: Auch mit dem neuesten Treiber sehe ich leider noch kein DLSS im Spiel.
Und in Steam unter Updates steht: Aktualisierungsdatum der installierten Inhalte: 18. Okt. 2021 um 23:20

Oh no, das (https://steamcommunity.com/app/391220/discussions/0/4580716151549921865/) wird die Erklärung sein.

Geldmann3
2021-10-19, 01:24:31
DLSS-Modi / Anti-Aliasing-Technologien in ROTR analysiert

Im folgenden Bildvergleich befinden sich alle verfügbaren DLSS-Modi sowie Anti-Aliasing-Technologien aus Rise of the Tomb Raider.

DLSS ,,Ultra Quality" simuliert DLSS mit nativer, interner Auflösung via Downsampling.

Zur Auswahl stehen:

No AA
SMAA
FXAA
DLSS Ultra Performance
DLSS Performance
DLSS Balanced
DLSS Quality
DLSS ,,Ultra Quality"
2xSSAA
4xSSAA
8xSSAA
16xSSAA

https://i.ibb.co/cFxHw1w/Rise-Of-The-Tomb-Raider.png (https://imgsli.com/Nzc2NDk/)

FXAA glättet das Bild zwar, wirkt jedoch zugleich wie ein starker Weichzeichner.

SMAA bewahrt mehr Texturdetails als FXAA, glättet jedoch weniger gut.

DLSS Ultra Performance sieht katastrophal aus.

DLSS Performance ist eine Verbesserung, doch alle gebotenen DLSS-Modi stellen sich als ziemliche Weichzeichner heraus, wenn man in Full HD zockt oder wie ich ca. 50cm vor einem 65 Zoll TV sitzt. In 4K sehe ich diesen Effekt noch immer, jedoch abgeschwächt. Ich frage mich fast, ob hier irgendwas kaputt ist? Aber nein, ich vermute, so sieht das wohl aus. :freak: Erstaunlicherweise wird DLSS-Quality in puncto Texturdetails sogar von stupiden SMAA geschlagen.

Erst DLSS ,,Ultra Quality", bei welchem ich effektiv Rendering in der nativen Auflösung erzwinge, erzeugt eine extrem gute Bildqualität und schlägt SMAA deutlich.
Interessanterweise liefert sich dieses sogar einen Schlagabtausch mit 4xSSAA oder höher.

An den Bäumen ist zu erkennen, dass in dem Game der LOD Bias, jedenfalls scheinbar, nicht korrekt an die DLSS-Modi angepasst wurde.
Er scheint sich an der internen Auflösung zu orientieren, was zu Detailverlusten führt.
100%ig sicher bin ich mir in diesem Falle allerdings nicht, da feine Details bei einer geringeren Abtastrate naturgemäß verloren gehen.
Doch es sieht auf den ersten Blick mal wieder nach einer mangelhaften DLSS-Implementierung aus.
Auch aus diesem Grunde würde ich mir von Nvidia den ,,DLSS Ultra Quality" Modus als weiteres Standard-Setting wünschen.
Denn hier könnten die Entwickler nichts falsch machen.
Außerdem würde es sich hervorragend dazu eignen, überschüssige Performancereserven auszunutzen, denn es ist wesentlich effektiver als SSAA.

Weiterhin kann ich mir vorstellen, dass die Auflösungsunabhängige Anpassung des LOD-Bias in diesem Game und diversen anderen Engines schwer umzusetzen sein könnte, wenn dies bei der initialen Entwicklung nicht berücksichtigt wurde.
Da das eine tiefgreifende Änderung an der Engine wäre.
Eventuell ein Grund, weshalb es hier nicht der Fall ist.

Aus einer anderen Perspektive betrachtet ist DLSS ein wahres Wunder, mit nur 44% der internen Auflösung liefert es vergleichbare Ergebnisse wie natives Rendering.
Mit nur 25% der internen Pixelmenge von 4xSSAA, liefert es sich einen Kampf mit diesem. :eek:
Auch, wenn die Performance je nach Szene absolut nicht ganz vergleichbar mit der puren, internen Auflösung ist, wie wir in den folgenden Performancemessungen sehen:

Anti-Aliasing-Performance-Analyse:

https://i.ibb.co/34m40t7/Rise-Of-The-Tomb-Raider-Benchmarks.png (https://i.ibb.co/34m40t7/Rise-Of-The-Tomb-Raider-Benchmarks.png)

Wie erwartet erzeugt der Ultra-Performance-Modus die meisten Bilder pro Sekunde, ist aufgrund seiner sehr weichgezeichneten Bildqualität jedoch keinem wirklich ans Herz zu legen, es sei denn, man möchte Performance sparen, egal zu welchem Preis. Selbst auf einem Smartphone betrachtet, wirkt DLSS-Ultra-Performance den anderen Modi noch unterlegen.

DLSS Performance und Balanced kommen im Schnitt ebenfalls noch über die 120 FPS Marke und liefern eine durchaus brauchbare Bildqualität ab, obwohl auch sie das Bild noch signifikant weichzeichnen und nicht mit nativen Rendering vergleichbar sind.

DLSS Quality gehört in der 4K Auflösung zu meinen Favoriten. Es verliert zwar Texturqualität gegen FXAA und SMAA ist jedoch temporal wesentlich stabiler und liefert mit der RTX 3090 noch runde 120FPS. Besonders etwas weiter vom Bildschirm wegsitzend, ist dies in 4K der Qualitätsmodus meiner Wahl.

Mit einer AMD-Karte würde ich zu FXAA tendieren.
Dieses und SMAA liefern in diesem Titel verwunderlicher Weise eine höhere Texturqualität als DLSS Qualität.

Das via Downsampling in Verbindung mit DLSS erzeugte ,,DLSS Ultra Quality", welches intern in der nativen Auflösung rendert, verliert gegen das Post-AA deutlich an Performance, erzeugt jedoch eine bis hierhin über alles erhabene Bildqualität und temporale Stabilität. 2xSSAA wird, bei einer gleichzeitig besseren Performance, optisch übertroffen. Ja, häufig liefert sich ,,Ultra Quality" gar einen Schlagabtausch mit 4xSSAA oder 8xSSAA, mit einem vielfachen der FPS von Letzterem. Die temporale Stabilität an den feinen Härchen Laras Daunenjacke in der Schneeszene zu Beginn des Spieles beispielsweise, ist auf einem Level mit 8xSSAA.

Erst 16xSSAA schlägt ,,DLSS Ultra Quality" dann in jederlei Hinsicht mit allerdings fast nur noch einstelligen Frameraten. Zudem sind die 24GB Vram der RTX 3090 ab 8xSSAA überfordert, was vermuten lässt, dass rund 32GB Vram nötig wären, um diese Settings flüssig wiederzugeben. Natürlich vorausgesetzt, man hätte zufällig noch ein Vielfaches der Performance einer RTX 3090 zur Hand.


4K und 8K Benchmarks:

Bevor es ans Eingemachte geht und wir unterschiedliche Grafikkarten gegeneinander antreten lassen, hier das Testsystem, welches auch für die oben angefertigten Benchmarks verwendet wurde:

Testsystem:

Mainboard: Z390 AORUS ELITE-CF
CPU: Intel i9 9900K @Stock
Ram: 64GB DDR4-3200-CL14-14-14-34


Verwendete Grafikkarten:

Nvidia:

RTX 3090 GAMING X TRIO
GeForce RTX 3070 Ti AORUS Master
RTX 3070 GAMING Z TRIO LHR


AMD:

RX 6900 XT Phantom GAMING
RX 6600 XT Gaming OC Pro
RX 6600 Fighter


Alle Karten liefen mit Werkseinstellungen, zur Überwachung der Metriken lief der RTSS Rivatuner Statistics Server mitsamt MSI-Afterburner nebenher.


Die folgenden Benchmarks, welche mit 6 unterschiedlichen Grafikkarten durchgeführt wurden, lieferten mir etwas überraschende Ergebnisse, weshalb ich erst gezögert habe, diese zu veröffentlichen.
Da ich die Ergebnisse jedoch sehr interessant finde und das Herumgebaue in den letzten Abenden ansonsten unnötig gewesen wäre, möchte ich sie hier dennoch mit euch teilen.
Leider standen mir die Karten nicht alle gleichzeitig und auch nur für kurze Zeit zur Verfügung (Bastle gerne für Freunde am PC herum), außerdem waren es nicht unbedingt die absoluten Wunschkarten, die ich gerne gebenchmarkt hätte.


DLSS Qualität 4K
https://i.ibb.co/RgW1YQL/Rise-Of-The-Tomb-Raider-Benchmarks4-KDLSSQ.png

In den letzten Tagen standen mir neben der RTX 3090 nur die RTX 3070 Ti sowie die RTX 3070 zur Verfügung. Gerne hätte ich zum Beispiel eine RTX 3080 oder RTX 3080 Ti getestet, aufgrund ihres größeren VRams, doch ich musste mit dem arbeiten, was ich gerade da hatte.

Die Ergebnisse halte ich für sehr verwunderlich.

Die beiden 8 GB Karten liefern nämlich trotz DLSS Qualität und somit einer internen Auflösung von unter QHD nur noch etwas mehr als ein Viertel der Performance einer RTX 3090 ab. Das wirkt mir zu wenig. Ich hatte daher sogar die Befürchtung, dass etwas von den Treibersettings der RTX 3090 übrig blieb und habe daher den Treiber neu installiert. Erfolglos. Da ich aus Zeitmangel kein komplett frisches OS verwenden konnte, kann ich absolut nicht ausschließen, dass hier etwas schiefläuft. Mache das schließlich nur aus Spaß nebenbei. ;D Doch eine Vermutung kommt mir direkt. Denn die RTX 3090 nutzt hier zwischen 8,2 und 10,3 GB Vram, die beiden Karten haben jedoch lediglich 8 GB Vram. Eventuell ist der VRam Verbrauch, selbst in diesem 6 Jahre alten Spiel, in nicht einmal internem 4K, bereits zu viel für den Speicher dieser Karten. Im Gegenzug zur RTX 3090 ist mit den beiden 8 GB Karten auch überraschend Pop-In einiger großer Objekte zu sehen, bis sich die Kamera kurz vor diesen befindet. Die 8 GB der beiden Karten sind währenddessen übrigens durchgehend entweder am Anschlag oder gar um ein paar hundert MB überschritten. Da es sich hier um ein Treiberproblem handeln könnte, bitte ich die Ergebnisse mit Vorsicht zu genießen. Doch eins ist klar, 8 GB Vram sind in 4K, selbst mit DLSS Qualität, bereits nicht optimal.


DLSS Performance 8K
https://i.ibb.co/PFmBFQW/Rise-Of-The-Tomb-Raider-Benchmarks8-KDLSSQ.png

Aus Spaß an der Freude habe ich das Ganze dann auch mal in 8K, mit DLSS Performance, laufen lassen oder besser gesagt, es auf den 8 GB Karten probiert. Während man mit der RTX 3090 noch absolut spielbare 59,22 FPS erhält, stürzen die beiden 8 GB Karten einfach ab, sobald ich die Settings übernehme. Natürlich war dies erwartbar. Die RTX 3090 nutzt unter diesen Bedingungen, nämlich zwischen 16,1 und 18 GB VRam.


FXAA 4K
https://i.ibb.co/vjHrwTb/Rise-Of-The-Tomb-Raider-Benchmarks4-KFXAA.png

Ja, bei diesen Ergebnisse habe ich mir auch gedacht: What daa fuuuck? :freak:

Um an dieser Stelle den Vergleich mit AMD GPUs ziehen zu können, habe ich unter anderem meine RX 6900 XT aus dem Zweitrechner entführt. Auch hier wundern mich die Ergebnisse jedoch sehr. Die RTX 3070 und 3070 Ti stürzen zwar nicht ab, ruckeln sich jedoch mit rund 2 FPS durch den Benchmark. Leute, ich kann euch wirklich nicht sagen, ob das normal ist. ;D Gegen ein Treiberproblem spricht an dieser Stelle jedoch, dass die RX 6900 XT mit 16GB VRam nur 6% hinter der RTX 3090 liegt und sich hier absolut wacker schlägt. Wäre es ein Grafiktreiberproblem, würde ich zudem erwarten, dass sich die 8GB AMD-Karten wenigstens normal in meinem System verhalten, da sie einen völlig anderen Treiber verwenden. Doch für diese läuft es sogar noch schlechter, als für die Nvidia-Pendants. Die RX 6600 XT ruckelt sich noch mit rund 1FPS durch den Benchmark, haha und die RX 6600 hat sogar das gesamte System zum Absturz gebracht. Obwohl letztere Karte dieselbe Speicherkonfiguration, wie ihre große Schwester, mit nur etwas weniger Bandbreite hat. RTX 3090 und RX 6900 XT verbrauchen in diesem Szenario übrigens zwischen 9,9 und 11,9 GB VRam. Wie geschrieben, betrachtet die Ergebnisse mit einem ,,Grain of Salt", die Ergebnisse wirken mir nicht ganz koscher. Wir haben hier immerhin 500 - 1000 Euro Karten in Verbindung mit einem zudem relativ alten Spiel, mit einer vom Entwickler zurückgezogenen Betaversion des Spiels. Außerdem erinnere ich mich, dass das Game mit vergleichbaren Settings damals ganz passabel auf meiner RTX 2080 Ti lief, diese verfügt jedoch über 3GB mehr Vram, muss man dazu anmerken.

FXAA 8K
https://i.ibb.co/gwQcKQf/Rise-Of-The-Tomb-Raider-Benchmarks8-KFXAA.png

So, jetzt hauen wir noch ein letztes Mal richtig auf die Kacke und werfen den großen Karten 8K mit FXAA entgegen. Alles mit 8 GB Vram bringt das Spiel hier sofort zum Absturz. Die RTX 3090 verbraucht nun zwischen 16,7 und 18,7 GB VRam, also etwas mehr, als der RX 6900 XT zur Verfügung stehen. Bei rund 30 FPS könnte man das Game auf der Nvidia Karte so durchaus noch spielen. Vor nicht allzu langer Zeit waren solche Frameraten auf den Konsolen schließlich noch völlig akzeptiert und zu diesen Konsolenspielen gehörte auch Rise of the Tomb Raider. Die AMD-Karte verliert nun jedoch deutlich an Boden, liefert nur noch rund 60% der Performance der RTX 3090. Vermutlich liegt das daran, dass der Vram nicht nur von der Menge her überfordert, sondern der GDDR6 Ram auch noch dazu viel langsamer arbeitet, als der GDDR6X Speicher der RTX 3090. Weiterhin ist davon auszugehen, dass die 128 MB Infinity Cache unter solch einer hohen Auflösung einen Großteil ihrer beschleunigenden Wirkung verlieren und die RTX 3090 mit ihren vielen Rechenwerken, unter solch einer enormen Auflösung, sicher umso besser in der Lage ist, ihre Leistung auf die Straße zu bringen.

Puuh, habt ihr es bis hierhin geschafft? Verrückte Benchmarkergebnisse, wie angekündigt.
Das wars dann erstmal. ;D

Hinweis:
Hier (https://www.youtube.com/watch?v=cjvNiBJjzG0) befindet sich zum Beispiel Gameplay, welches meinen gemachten Benchmarks widerspricht.
Der Nutzer hat scheinbar eine flüssige Framerate in 4K mit FXAA, im Gegensatz zu mir, mit der RTX 3070.
Einziger Unterschied, den ich sehe ist, dass ich VXAO statt HBAO+ verwende und noch einige Schalter auf ,,On" habe.
Außerdem hat der Nutzer im Video weniger als 8GB Vram Verbrauch.
Eventuell hat sich das Game bei mir auch auf die RTX 3090 eingestellt und blendet daher nicht genügend Details auf Karten mit weniger Vram aus, sodass eine Reinstallation von diesem nötig wäre.
Da ich die Karten gerade nicht mehr habe, kann ich es nicht testen.
Daher, ja, bitte die Ergebnisse mit Vorsicht genießen.

Mit Vram Upgrades hatte ich nie Probleme in Spielen, doch eventuell ist bei Vram-Downgrades Vorsicht geboten.
Eventuell hat Crystal Dynamics das Ganze auch nicht umsonst wieder zurückgezogen.

Troyan
2021-10-20, 12:02:26
Eidos hat den Patch für Shadow zurückgezogen und bieten den als Beta an. Daher mal ein Vergleich in 4K zwischen SMAA 2Tx ohne CAS und mit, sowie DLSS 1.0 und DLSS 2.3 Quality: https://imgsli.com/Nzc4ODQ/0/1

CAS überschärft deutlich. Ohne CAS ist DLSS 2.3 Quality mindesten auf dem Niveau von 4K SMAA 2Tx, aufgrund des besseren In-Bild Kontrast im Gesamtkontext besser. Absolut beeindruckend, was man mit Upscaling erreichen kann.

aufkrawall
2021-10-20, 13:49:40
Würde bei TAAU eher von Upsampling anstatt von Upscaling sprechen, afair hatte Tom Petersen das auch angeregt.

Geldmann3
2021-10-20, 13:57:05
Aufregen tut es mich zwar nicht, doch prinzipiell sehe ich das genauso.
Denn es wird kein einzelnes Bild hochgerechnet, es werden Samples über mehrere Frames gesammelt und diese dann zu einem hochauflösendem Bild verrechnet.

aufkrawall
2021-10-20, 17:32:41
Fortnite hat (vermutlich zusammen mit der Engine-Version) DLSS aktualisiert, ist jetzt 2.2.6.

blaidd
2021-10-20, 18:14:11
Würde bei TAAU eher von Upsampling anstatt von Upscaling sprechen, afair hatte Tom Petersen das auch angeregt.

Ja. Das ist auch literaly ein Upsampling. Jedenfalls wenn die entsprechende Upsampling-Methode gewählt wurde und nicht Nearest Neighbor oder Bilinear (was auch geht).

iamthebear
2021-10-20, 22:44:41
doch alle gebotenen DLSS-Modi stellen sich als ziemliche Weichzeichner heraus, wenn man in Full HD zockt oder wie ich ca. 50cm vor einem 65 Zoll TV sitzt.

Die noch schlimmere Variante ist wie ich unter Full HD zocken UND 50cm vor dem 65er zu sitzen weil die 1070 Ti nicht mehr hergibt :down:

Was DLSS UQ angeht, so denke ich auch, dass das standardmäßig hinzugefügt werden sollte. Ab der nächsten Generation sollte ja sowieso genug Leistung da sein und mir ist besseres AA bzw. mehr Schärfe wichtiger als 8K (was mein Fernseher sowieso nicht darstellen kann) oder RT Effekte, wo man im Blindtests oft nicht einmal weiß wo RT ein ist.

Geldmann3
2021-10-21, 01:32:29
Habe übrigens noch ein paar spannende, unter 4K und 8K angefertigte Ergebnisse mit unterschiedlichen Grafikkarten hinzugefügt (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12823569&postcount=2333). :freak: Die Ergebnisse wirken mir ein wenig verrückt. Schaffen diese teuren Karten es wirklich nicht, das Game flüssig in 4K zu rendern? Wissenschaft ist in meinen Augen jedoch eben, auch unerwartete Ergebnisse herauszuhauen.

4K und 8K Benchmarks:

Bevor es ans Eingemachte geht und wir unterschiedliche Grafikkarten gegeneinander antreten lassen, hier das Testsystem, welches auch für die oben angefertigten Benchmarks verwendet wurde:

Testsystem:

Mainboard: Z390 AORUS ELITE-CF
CPU: Intel i9 9900K @Stock
Ram: 64GB DDR4-3200-CL14-14-14-34


Verwendete Grafikkarten:

Nvidia:

RTX 3090 GAMING X TRIO
GeForce RTX 3070 Ti AORUS Master
RTX 3070 GAMING Z TRIO LHR


AMD:

RX 6900 XT Phantom GAMING
RX 6600 XT Gaming OC Pro
RX 6600 Fighter


Alle Karten liefen mit Werkseinstellungen, zur Überwachung der Metriken lief der RTSS Rivatuner Statistics Server mitsamt MSI-Afterburner nebenher.


Die folgenden Benchmarks, welche mit 6 unterschiedlichen Grafikkarten durchgeführt wurden, lieferten mir etwas überraschende Ergebnisse, weshalb ich erst gezögert habe, diese zu veröffentlichen.
Da ich die Ergebnisse jedoch sehr interessant finde und das Herumgebaue in den letzten Abenden ansonsten unnötig gewesen wäre, möchte ich sie hier dennoch mit euch teilen.
Leider standen mir die Karten nicht alle gleichzeitig und auch nur für kurze Zeit zur Verfügung (Bastle gerne für Freunde am PC herum), außerdem waren es nicht unbedingt die absoluten Wunschkarten, die ich gerne gebenchmarkt hätte.


DLSS Qualität 4K
https://i.ibb.co/RgW1YQL/Rise-Of-The-Tomb-Raider-Benchmarks4-KDLSSQ.png

In den letzten Tagen standen mir neben der RTX 3090 nur die RTX 3070 Ti sowie die RTX 3070 zur Verfügung. Gerne hätte ich zum Beispiel eine RTX 3080 oder RTX 3080 Ti getestet, aufgrund ihres größeren VRams, doch ich musste mit dem arbeiten, was ich gerade da hatte.

Die Ergebnisse halte ich für sehr verwunderlich.

Die beiden 8 GB Karten liefern nämlich trotz DLSS Qualität und somit einer internen Auflösung von unter QHD nur noch etwas mehr als ein Viertel der Performance einer RTX 3090 ab. Das wirkt mir zu wenig. Ich hatte daher sogar die Befürchtung, dass etwas von den Treibersettings der RTX 3090 übrig blieb und habe daher den Treiber neu installiert. Erfolglos. Da ich aus Zeitmangel kein komplett frisches OS verwenden konnte, kann ich absolut nicht ausschließen, dass hier etwas schiefläuft. Mache das schließlich nur aus Spaß nebenbei. ;D Doch eine Vermutung kommt mir direkt. Denn die RTX 3090 nutzt hier zwischen 8,2 und 10,3 GB Vram, die beiden Karten haben jedoch lediglich 8 GB Vram. Eventuell ist der VRam Verbrauch, selbst in diesem 6 Jahre alten Spiel, in nicht einmal internem 4K, bereits zu viel für den Speicher dieser Karten. Im Gegenzug zur RTX 3090 ist mit den beiden 8 GB Karten auch überraschend Pop-In einiger großer Objekte zu sehen, bis sich die Kamera kurz vor diesen befindet. Die 8 GB der beiden Karten sind währenddessen übrigens durchgehend entweder am Anschlag oder gar um ein paar hundert MB überschritten. Da es sich hier um ein Treiberproblem handeln könnte, bitte ich die Ergebnisse mit Vorsicht zu genießen. Doch eins ist klar, 8 GB Vram sind in 4K, selbst mit DLSS Qualität, bereits nicht optimal.


DLSS Performance 8K
https://i.ibb.co/PFmBFQW/Rise-Of-The-Tomb-Raider-Benchmarks8-KDLSSQ.png

Aus Spaß an der Freude habe ich das Ganze dann auch mal in 8K, mit DLSS Performance, laufen lassen oder besser gesagt, es auf den 8 GB Karten probiert. Während man mit der RTX 3090 noch absolut spielbare 59,22 FPS erhält, stürzen die beiden 8 GB Karten einfach ab, sobald ich die Settings übernehme. Natürlich war dies erwartbar. Die RTX 3090 nutzt unter diesen Bedingungen, nämlich zwischen 16,1 und 18 GB VRam.


FXAA 4K
https://i.ibb.co/vjHrwTb/Rise-Of-The-Tomb-Raider-Benchmarks4-KFXAA.png

Ja, bei diesen Ergebnisse habe ich mir auch gedacht: What daa fuuuck? :freak:

Um an dieser Stelle den Vergleich mit AMD GPUs ziehen zu können, habe ich unter anderem meine RX 6900 XT aus dem Zweitrechner entführt. Auch hier wundern mich die Ergebnisse jedoch sehr. Die RTX 3070 und 3070 Ti stürzen zwar nicht ab, ruckeln sich jedoch mit rund 2 FPS durch den Benchmark. Leute, ich kann euch wirklich nicht sagen, ob das normal ist. ;D Gegen ein Treiberproblem spricht an dieser Stelle jedoch, dass die RX 6900 XT mit 16GB VRam nur 6% hinter der RTX 3090 liegt und sich hier absolut wacker schlägt. Wäre es ein Grafiktreiberproblem, würde ich zudem erwarten, dass sich die 8GB AMD-Karten wenigstens normal in meinem System verhalten, da sie einen völlig anderen Treiber verwenden. Doch für diese läuft es sogar noch schlechter, als für die Nvidia-Pendants. Die RX 6600 XT ruckelt sich noch mit rund 1FPS durch den Benchmark, haha und die RX 6600 hat sogar das gesamte System zum Absturz gebracht. Obwohl letztere Karte dieselbe Speicherkonfiguration, wie ihre große Schwester, mit nur etwas weniger Bandbreite hat. RTX 3090 und RX 6900 XT verbrauchen in diesem Szenario übrigens zwischen 9,9 und 11,9 GB VRam. Wie geschrieben, betrachtet die Ergebnisse mit einem ,,Grain of Salt", die Ergebnisse wirken mir nicht ganz koscher. Wir haben hier immerhin 500 - 1000 Euro Karten in Verbindung mit einem zudem relativ alten Spiel, mit einer vom Entwickler zurückgezogenen Betaversion des Spiels. Außerdem erinnere ich mich, dass das Game mit vergleichbaren Settings damals ganz passabel auf meiner RTX 2080 Ti lief, diese verfügt jedoch über 3GB mehr Vram, muss man dazu anmerken.

FXAA 8K
https://i.ibb.co/gwQcKQf/Rise-Of-The-Tomb-Raider-Benchmarks8-KFXAA.png

So, jetzt hauen wir noch ein letztes Mal richtig auf die Kacke und werfen den großen Karten 8K mit FXAA entgegen. Alles mit 8 GB Vram bringt das Spiel hier sofort zum Absturz. Die RTX 3090 verbraucht nun zwischen 16,7 und 18,7 GB VRam, also etwas mehr, als der RX 6900 XT zur Verfügung stehen. Bei rund 30 FPS könnte man das Game auf der Nvidia Karte so durchaus noch spielen. Vor nicht allzu langer Zeit waren solche Frameraten auf den Konsolen schließlich noch völlig akzeptiert und zu diesen Konsolenspielen gehörte auch Rise of the Tomb Raider. Die AMD-Karte verliert nun jedoch deutlich an Boden, liefert nur noch rund 60% der Performance der RTX 3090. Vermutlich liegt das daran, dass der Vram nicht nur von der Menge her überfordert, sondern der GDDR6 Ram auch noch dazu viel langsamer arbeitet, als der GDDR6X Speicher der RTX 3090. Weiterhin ist davon auszugehen, dass die 128 MB Infinity Cache unter solch einer hohen Auflösung einen Großteil ihrer beschleunigenden Wirkung verlieren und die RTX 3090 mit ihren vielen Rechenwerken, unter solch einer enormen Auflösung, sicher umso besser in der Lage ist, ihre Leistung auf die Straße zu bringen.

Puuh, habt ihr es bis hierhin geschafft? Verrückte Benchmarkergebnisse, wie angekündigt.
Das wars dann erstmal. ;D

Edit:
Hier (https://www.youtube.com/watch?v=cjvNiBJjzG0) befindet sich zum Beispiel Gameplay, welches meinen gemachten Benchmarks widerspricht.
Der Nutzer hat scheinbar eine flüssige Framerate in 4K mit FXAA, im Gegensatz zu mir, mit der RTX 3070.
Einziger Unterschied, den ich sehe ist, dass ich VXAO statt HBAO+ verwende und noch einige Schalter auf ,,On" habe.
Außerdem hat der Nutzer im Video weniger als 8GB Vram Verbrauch.
Eventuell hat sich das Game bei mir auch auf die RTX 3090 eingestellt und blendet daher nicht genügend Details auf Karten mit weniger Vram aus, sodass eine Reinstallation von diesem nötig wäre.
Daher, ja, bitte die Ergebnisse mit Vorsicht genießen.

Mit Vram Upgrades hatte ich nie Probleme in Spielen, doch eventuell ist bei Vram-Downgrades Vorsicht geboten.
Eventuell hat Crystal Dynamics das Ganze auch nicht umsonst wieder zurückgezogen.

Gouvernator
2021-10-21, 10:17:03
Die 8Gb VRAM Ergebnisse erinnern mich sehr an meine alte GTX1080, wenn ihr der Speicher ausging. Heutzutage sind die 16Gb must have für 4K. Und 24Gb für 8K. Habe noch kein einziges Mal in 8K solche Bottlenecks erlebt wie die 8Gb Karten bei 4K.

Platos
2021-10-21, 15:09:28
Rottr war schon damals zu 1080Ti zeiten ein Spiel, das ganz klar von den 11GB profitiert hat. Vor allem mit den entsprechenden Kantenglättungsarten. Ich meinte sogar, daas bei max Details auch die 11GB gesprengt werden, bin mir aber nicht sicher.

Aber ja, nix unter 16GB kommt für mich in Frage für 4K.

aufkrawall
2021-10-21, 15:14:03
Zur Wahrheit gehört auch, dass der Nachfolger SotTR besseres Streaming hat und mit viel weniger VRAM auf der höchsten Textur-Stufe auskommt.

Platos
2021-10-21, 15:21:37
Zur Wahrheit gehört auch, dass der Nachfolger SotTR besseres Streaming hat und mit viel weniger VRAM auf der höchsten Textur-Stufe auskommt.

Stimmt, aber man will ja genug RAM für alle potentiellen Spiele (die man spielt) haben. Und das könnte (damals) auch eben RotTR gewesen sein.

Aber es ist ja heute nicht anders. Ich glaube die PCGH hat ja mal die Speichernutzung untersucht. Für 4K war 12GB schon das minimum und für 8K war es glaube ich 20GB (wobei glaube ich ein paar Exoten auch diese Limits gesprengt haben).

ChaosTM
2021-10-21, 15:27:44
GTA5 @ 8k Max (8xAA) (17,4GB) sind meiner 16gb 3080er schon zu viel - mit leichten Einschränkungen wäre das sogar "spielbar". Mit 2x AA was in dem Fall auch völlig reichen würde, sinds immerhin 35-40fps wenn man noch zusätzlich leichte Abstriche macht.

Richtig sinnvoll wird 8k vielleicht in 4-5 Jahren. Übernächste Gen..
Ich mach den Early Adopter Fehler wie bei 4k nicht ein zweites mal ;)

Add.:
Mit DLSS könnte es schon bei der nächsten Gen klappen. Mal schaun.

Platos
2021-10-21, 15:35:22
16GB 3080?

Und mit DLSS geht eig. heute "schon" 8k30. Mit dem Topmodell sollten 8k60 drinn sein. Und man darf auch nicht vergessen, bei 8K muss man sicherlich nicht immer das absolute Maximum ausfahren. Man kann ja auch mal etwas runterdrehen, dann sollte 8k60 mit dem Topmodell praktisch durchgehend möglich sein (ohne RT).

Mit einer 4080 wirds aber achon schwierig.

Aber man bräuchte ja auch noch ein 8K Display. Per DSR ist der Qualitätsgewinn im Vergleich zu natov natürlich schon viel niedriger. Und wenn man 8K will gehen eig. nur TVs, Monitore sind da wieder mal pure Abzocke.

aufkrawall
2021-10-21, 15:36:50
Stimmt, aber man will ja genug RAM für alle potentiellen Spiele (die man spielt) haben. Und das könnte (damals) auch eben RotTR gewesen sein.

Ja, aber das lief mit maximalen Texturdetails damals auch nur auf der 8GB R9 390. Es hatte zu Release aber nur D3D11 und es lief damit dann trotzdem auf der 390 kacke. Mit D3D12 in 1440p waren es dann im geothermischen Tal auch nur 25fps. :freak:
Kann auch sein, dass es mit der 3080 problemlos in 4k DLSS Q mit D3D11 läuft, was sowieso auf Nvidia sauberer und im GPU-Limit schneller ist.
Es gibt bessere Beispiele, um Karten mit wenig VRAM als Krüppel zu überführen.

Wenn ich Deathloop mit DLSS Balanced 1440p minimiere, fängt es trotz der 12GB an zu spiken. Wenig VRAM ist doof, aber kein DLSS wär noch viel doofer.

Ex3cut3r
2021-10-21, 15:58:26
Mit Sampler Feedback könnte der ganze VRAM Wahn sowieso erstmal beendet werden. KA, warum wir darüber mal nicht endlich diskutieren, immer nur mehr und mehr, kann nicht die Lösung sein.

Auch mehr Auflösung braucht man nicht, DLSS zeigt beeindruckend, dass 960p oder gar 835p vollkommen ausreichen können. Wir müssen stattdessen mal endlich mit der Software vorankommen, die ganze Leistung eines Gaming PCs wird nicht intelligent genutzt, ein 8C/16T Prozessor, dreht in SP Games Däumchen, und trotzdem holt sicht fast jeder einen 5900X der dann noch weniger zu hat. Das gleiche mit SSDs, NVMEs usw. auch das (Texturen) Streaming, sowie Shader Compile Ruckler müssen die Entwickler besser lösen, es kann doch nicht sein, das jedes DX12 Game und besonders UE4 Games unter diesem Problem leiden.

Geldmann3
2021-10-22, 17:35:34
Auch mehr Auflösung braucht man nicht, DLSS zeigt beeindruckend, dass 960p oder gar 835p vollkommen ausreichen können.

Naja, dem würde ich nicht ganz zustimmen.
Auf dem Mobilgerät können interne 960p durchaus reichen. Das sehe ich auch langfristig so. Doch auf meinem TV, den ich als Monitor verwende, verursacht das eher Augenkrebs, auch mit DLSS. Hier brauche ich schon eher interne 4K.

Jetzt könnte man natürlich damit argumentieren, dass die Upscaling/Upsampling-Technik von jetzt an nur besser wird, doch ich halte es dennoch für weit hergeholt, dass man mehr als 75% aller Samples einfach so ergänzen kann, ohne deutliche Artefakte zu erzeugen. Enthusiasten werden wahrscheinlich immer mindestens nach 25% interner Auflösung gieren. Und somit, wenn 8K langfristig zum Standard bei TVs wird, wovon ich in den nächsten 10 Jahren ausgehe, wären wir intern bei 4K. Okay, Konsolen kommen vllt. intern mit FHD zurecht, doch nicht die anspruchsvolleren PC-Gamer.

Und auf schlecht entwickelte Spiele hast Du leider nicht viel Einfluss, Du kannst da nur hoffen. Doch mit besserer Hardware und mehr VRam kannst Du durchaus Einfluss darauf nehmen, wie gut ein Game läuft. Und Sampler Feedback wird zwar ordentlich helfen, macht 8 GB Vram Karten bei Spielen aus der Vergangenheit jedoch auch nicht mehr besser und Spiele in der Zukunft werden hoffentlich wieder viel besser aussehen und somit auch wieder VRam-Hungriger.

16 GB könnte ich mir bis zum Ende dieser Konsolengeneration als ordentlichen Standard für 4K Karten vorstellen. Alles darunter ist schon ein wenig schwach. Ich meine, warum auch nicht, was kosten 16 GB Vram? 10 GB, nur damit alte Karten schneller obsolet werden? Das ist in meinen Augen momentan nämlich der Hauptgrund dafür. Das und Produktdiversifikation.

Ex3cut3r
2021-10-22, 18:12:27
Diese Aussage war halt auf mich bezogen, denn Ich benutze keinen 55"? TV. Ganz normaler 27" Monitor mit 1440p und 240HZ ~ 109 PPi mit normalem Schreibtisch und Sitzabstand und da reicht mir DLSS Q mit Reshade CAS vollkommen.

Platos
2021-10-22, 18:48:31
Mit Sampler Feedback könnte der ganze VRAM Wahn sowieso erstmal beendet werden. KA, warum wir darüber mal nicht endlich diskutieren, immer nur mehr und mehr, kann nicht die Lösung sein.

Auch mehr Auflösung braucht man nicht, DLSS zeigt beeindruckend, dass 960p oder gar 835p vollkommen ausreichen können. Wir müssen stattdessen mal endlich mit der Software vorankommen, die ganze Leistung eines Gaming PCs wird nicht intelligent genutzt, ein 8C/16T Prozessor, dreht in SP Games Däumchen, und trotzdem holt sicht fast jeder einen 5900X der dann noch weniger zu hat. Das gleiche mit SSDs, NVMEs usw. auch das (Texturen) Streaming, sowie Shader Compile Ruckler müssen die Entwickler besser lösen, es kann doch nicht sein, das jedes DX12 Game und besonders UE4 Games unter diesem Problem leiden.

Also mir würde das nicht mal annähernd reichen. DLSS Quality unter 4K ist für mich gerade so genug gut. Und das hat intern 1440p. Bei 8k ist DLSS Perfomance vlt. gerade so noch genug gut (bezüglich "Preis"/Leistung) Und das hat 2160p (oder?).

Und man kann sich den Monitor auch 30cm vors Gesicht stellen. Das führt zu deutlich mehr Atmosphäre und da wäre eher irgendwas zwischen 6-8K Ideal auf 27-32" (also Anzeigeauflösung, nicht Renderauflösung).

So unterscheiden sich dann die Geschmäcker.

Platos
2021-10-22, 18:55:41
Mit Sampler Feedback könnte der ganze VRAM Wahn sowieso erstmal beendet werden. KA, warum wir darüber mal nicht endlich diskutieren, immer nur mehr und mehr, kann nicht die Lösung sein.


Solche Dinge bringen aber für Gewöhnlich Konsolen und nicht PC's (bzw. erst viel später). Auch der RAM-Verbrauch ist eigentlich ziemlich dämlich gemacht am PC. Die PS5 macht das z.B deutlich besser. Und solche Effizienz gibts nur, wenn "immer mehr" eben zu teuer wird. Solche "all in one" Systeme wie Konsolen sind da schon erhebliche Entwicklungsbeschleuniger. Am PC gibts keine richtige Zusammenarbeit zwischen Hardware und Software. Bei Konsolen ist das alles aufeinander abgestimmt.

aufkrawall
2021-10-22, 19:22:30
Ich würde die dümmliche RAM-Aufteilung der Series X nicht als "Entwicklungsbeschleuniger" bezeichnen. :freak:

Platos
2021-10-22, 22:07:37
Inwiefern hat das was mit Samplerfeedback oder der SSD der PS5 zu tun?

aufkrawall
2021-10-22, 22:17:40
Inwiefern hat denn der PC etwas mit Samplerfeedback auf den Konsolen oder der SSD der PS5 zu tun? Bislang ist alles, was Cross-Plattform oder Cross-Konsole ist, völliger Last Gen Gammel. Btw. auch auf den Konsolen, die performen bislang abseits einiger Sony-Exclusives absolut unterirdisch gemessen an den Erwartungen an ein abgestimmtes System vs. vergleichbare PC-Hardware.

Ex3cut3r
2021-10-23, 14:08:44
Also mir würde das nicht mal annähernd reichen. DLSS Quality unter 4K ist für mich gerade so genug gut. Und das hat intern 1440p. Bei 8k ist DLSS Perfomance vlt. gerade so noch genug gut (bezüglich "Preis"/Leistung) Und das hat 2160p (oder?).

Und man kann sich den Monitor auch 30cm vors Gesicht stellen. Das führt zu deutlich mehr Atmosphäre und da wäre eher irgendwas zwischen 6-8K Ideal auf 27-32" (also Anzeigeauflösung, nicht Renderauflösung).

So unterscheiden sich dann die Geschmäcker.

Ja gut, dann ist dein Bier. Dürften die wenigsten sein, die so ticken.

Platos
2021-10-23, 15:23:35
Ja gut, dann ist dein Bier. Dürften die wenigsten sein, die so ticken.

Aha, aber deine Meinung mit 900P oder irgendwas, ist dann allgemeingültig :D ?

Ex3cut3r
2021-10-23, 15:32:59
Nein natürlich nicht, die wenigsten wollen sich aber nen 55" TV als Monitor aufstellen und dann 2000€ + für ne 3090 zahlen. Denk mal drüber nach....du als Enthusiast, kannst deine Vorlieben, nicht einfach auf die Allgemeinheit schieben.

1440p 27" mit 170HZ und mehr HZ (240HZ) kommt langsam in einen Vernünftigen Preisbereich, 300-500€ Klasse.

https://geizhals.de/lg-ultragear-27gp850-b-a2511796.html?hloc=at&hloc=de

https://geizhals.de/gigabyte-m27q-a2382972.html?hloc=at&hloc=de

https://geizhals.de/lg-ultragear-27gn800-b-a2466397.html?hloc=at&hloc=de

https://geizhals.de/msi-optix-mag274qrfde-qd-9s6-3ca8da-028-a2452244.html?hloc=at&hloc=de

https://geizhals.de/dell-s2721dgfa-210-axrq-a2425113.html?hloc=at&hloc=de

https://geizhals.de/samsung-odyssey-g7-c27g73tqsr-c27g74tqsr-c27g75tqsr-lc27g73tqsrxen-lc27g74tqsrxzg-lc27g75tqsrxen-a2498642.html?hloc=at&hloc=de

Und das sind halt keine TN-Panels. Ich selbst habe mir davon den G7 Odyssey angeschafft. TN like Reaktionszeiten, gepaart mit einem VA, tolle Farben, und 240HZ sowieo G-Sync Compatible, welches astrein funktnioert. Kann nicht meckern. 4K kann mir da gestohlen bleiben, die sind mir momentan auch zu lahm von den Reaktionszeiten. Und ich musste in Spielen welches kein DLSS bieten, dann wieder mit Resoultion Scale auf 1800p zocken.....um so die 60 FPS avg. zu erreichen....tolle Wurst.

Geldmann3
2021-10-23, 15:46:24
Hmm, naja, will nicht eigentlich jeder ein schärferes und immersiveres Bild, was so gut aussieht wie möglich? Die Frage ist meist nur, was zur jeweiligen Zeit technisch möglich ist und was man dafür zu bezahlen bereit ist. Wenn die Technik erstmal günstiger wird, wovon wir ja mal ausgehen, ist es nur eine Frage der Zeit, bis wir die ,,optimale" Auflösung auf jedem Gerät haben.

Ein Beispiel dafür ist gerade das Varjo Aero (https://aero.varjo.com/product/varjo-aero/), für rund 2000€, nur für das Headset.
Jeder VR Fan hätte bestimmt gerne etwas in diese Richtung, doch nur wenige sind bereit es sich zu leisten.
In wenigen Jahren sehen wir sowas allerdings bestimmt als Standard, dann setzt es sich auch durch.
Natürlich ,,reichen" auch die aktuellen. Es ,,reichen" auch 1080p auf einem Monitor oder TV, dass es der Weisheit letzter Schluss ist, bedeutet das allerdings nicht.

Ex3cut3r
2021-10-23, 15:51:45
Wie gesagt, Sweet Spot dürfte sich jetzt Richtung 1440p, 27", und 160 HZ+ verschieben. Gut bezahlbar ist es jetzt. Und 109PPi sind besser als 81 PPI bei einem 27" mit 1080p. Oder 24" mit 92PPi. Bis 4K Standard wird in DE, rest der Welt dauert es noch länger, habe ihr beide schon 8K TVs, nur hat es dann wieder nix mit der Masse zu tun. Ihr Enthusiasten seit schon lustig. ^^

basix
2021-10-25, 10:34:32
1440p, 27", 120+Hz scheint für die meisten User ein Sweet Spot aus Qualität und Kosten zu sein.

4K hat aber schon seine Daseinsberechtigung, und mit DLSS-Q benötigt man auch nur 1440p Performance auf Seiten GPU (4K/60fps), oder man bekommt 4K/120fps mit stärkeren GPUs. Und DLSS funktioniert besonders gut in höheren Auflösungen, deswegen scheint mir eine Verbreitung von 4K deutlich näher als auch schon. Insbesondere wenn XeSS und FSR2.0 am Markt aufschlagen.

Troyan
2021-10-25, 11:12:47
Mit DLSS ist 4K erst so richtig nutzbar für viele Menschen. Auch ist die Bildqualität aufgrund der doppelt so hohen PPI besser als wenn man nativ in 1440p spielen würde. DLSS (und dann irgendwann Co) sind eine richtige Innovation, die eigentlich früher nur MSAA über SSAA gebracht hat.

basix
2021-10-25, 14:24:32
Das schöne ist, dass wir bei DLSS und Co. noch am Anfang stehen. Ein paar Kinderkrankheiten wie Schlieren und Mipmap-Bias sollten noch behoben werden. Danach wird es nur noch besser, da man mit verbesserten Methoden und mehr HW-Leistung noch viel aus der Technik herausholen können wird (bessere Performance, bessere Qualität).

8K ist mit DLSS Performance in einigen Fällen heute schon erreichbar. Qualität stimmt prinzipiell heute schon (abzüglich den oben genannten Kinderkrankheiten). Das noch mit mehr Performance von Seiten DLSS-Inferencing (was mit schnelleren GPUs automatisch kommen wird) und es schaut wirklich gut aus :)

aufkrawall
2021-10-25, 14:41:56
Ein paar Kinderkrankheiten wie Schlieren und Mipmap-Bias

Letzteres dürfte auch in Zukunft manchmal noch verkackt werden. Ein positives Gegenbeispiel ist SotTR: Wenn man hier LOD Bias über den Treiber für alle Texturen erzwingt, gibt es auch mit der neueren Version weiterhin Grafikfehler. Der Entwickler hat das also korrekt nur für die Texturen eingebaut, für die es nötig ist (Bild ist ja xfach detaillierter als mit TAA).

Es sieht spätestens mit CAS wirklich unglaublich gut aus in SotTR oder Deathloop (oder auch 2.2.11 in Doom Eternal). Seien wir ehrlich, XeSS wird RDNA2 im nächsten Jahr nicht annähernd ähnlich boosten können. Man muss wirklich völlig unwissend oder bescheuert sein, jetzt noch zig hunderte Euro für Produkte mit so einem Malus auszugeben. Klingt hart, aber was ist das Argument dagegen? Als ob ich in Kauf nehmen würde, bei mehreren Titel pro Jahr unnötig auf das Feature zu verzichten. Früher wurde ein riesen Tantam gemacht, wenn bei dem einen Hersteller AF mal etwas besser oder schlechter war. Bei DLSS seit 2.2.x (fürs Bewegtbild) sind sowohl BQ als auch Performance gleichzeitig deutlich besser. :freak:

basix
2021-10-25, 15:40:06
Naja, XeSS / FSR2.0 auf RDNA2 jetzt schon zu verteufeln halte ich auch für falsch. Klar, mit Nvidia kann man in dieser Hinsicht nichts falsch machen, da kommt DLSS als Bonus einfach noch obendrauf.

Wenn XeSS / FSR2.0 / TSR gut werden: DLSS wird "aussterben", wenn Spielehersteller nicht gewillt sind neben DLSS ein zweites Verfahren zu unterstützen. Ausnahme: DLSS würde deutlich bessere Bildqualität / Features für die Spielehersteller bieten. XeSS hat hier aus meiner Sicht sogar den deutlich am grössten Hebel, da man alle Intel CPUs mit Xe-iGPU sowie via DP4a alle RDNA2 basierten iGPUs (Konsolen, Rembrandt+, Zen 4+) mitnehmen kann, falls die Engine XeSS unterstützt. AMDs FSR 2.0 könnte ähnlich gewichtig sein, da wissen wir aber noch zu wenig.

Alternative: Nvidia öffnet DLSS via DP4a für andere GPUs.

aufkrawall
2021-10-25, 15:44:49
Ich würde gar nicht automatisch davon ausgehen, dass der DP4a Fallback gescheit auf Nvidia läuft, bis nicht mal jemand ein Tool schreibt, das den Durchsatz misst. Das macht Intel ja nicht primär für andere Markteilnehmer, sondern für ihre Gen 12 IGPs.

basix
2021-10-25, 16:21:47
Naja, was unterscheidet sich beim Intel DP4a vom Nvidia DP4a? Das ist eine standard Compute-Anweisung und dazwischen ist der Treiber. Mehr nicht. Wie das die HW dann umsetzt ist dann eine Treiber/HW Frage.

Und XeSS soll Open Source sein. Hersteller-Optimierungen sollten also möglich sein. Nvidia als auch AMD werden XeSS möglichst optimal beschleunigen können (zumindest auf die Geschwindigkeit ihrer eigenen Lösung ;))

aufkrawall
2021-10-25, 16:32:42
Naja, was unterscheidet sich vom Intel DP4a vom Nvidia DP4a? Das ist eine standard Compute-Anweisung und dazwischen ist der Treiber. Mehr nicht. Wie das die HW dann umsetzt ist dann eine Treiber/HW Frage.

Eben. Keine Anwendung nutzt bislang DP4a und es ist jetzt nur als suboptimaler Fallback in der Diskussion für GPUs, die nicht die dafür orginär besser geeigneten Formate in HW können. Wo ist denn der ultimative Beweis in Form einer Durchsatzmessung, dass es schnell auf NV-Karten läuft, die extra Silizium für TCs investieren?


Und XeSS soll Open Source sein. Hersteller-Optimierungen sollten also möglich sein. Nvidia als auch AMD werden XeSS möglichst optimal beschleunigen können (zumindest auf die Geschwindigkeit ihrer eigenen Lösung ;))
XeSS ist von Intel und Entwickler werden wohl kaum irgendwelche Forks oder sonst wie angepasste Version statt des Upstream-Projekts shippen. Erst recht nicht, wenn sie einen Deal mit Intel haben.
Nvidia hat 80% Marktanteil bei dGPUs, bei Highend-GPUs seit Ende 2018 insbesondere in Notebooks wahrscheinlich noch höher. Dazu haben sie jahrzehntelange Dev-Relations und ein Framework/SDK zur DLSS-Implementierung + diverse Plug Ins für lizenzierbare Engines. Intel hat Q1 2022 bei dGPUs exakt 0% Marktanteil. XeSS wird da die nächste Zeit nicht mal ansatzweise rankommen. Außerdem hat Intel engedeutet, dass die Qualität des DP4a-Fallbacks ggf. schlechter ist als die Lösung für ihre eigenen "TCs".

Troyan
2021-10-26, 00:16:29
Vergleich von DLSS in Guardians of the Galaxy: https://youtu.be/m0oEgbJYx5s

Langsam scheinen Spieleentwickler und nVidia den Dreh rauszuhaben eine vernünftige Implementierung hinzubekommen.

aufkrawall
2021-10-26, 00:35:43
Offenbar ist Stärke von CAS feingranular einstellbar, die ideale Ergänzung zu den verschiedenen DLSS-Stufen. Vorbildlich. (y)

Dampf
2021-10-26, 19:24:53
Vergleich von DLSS in Guardians of the Galaxy: https://youtu.be/m0oEgbJYx5s

Langsam scheinen Spieleentwickler und nVidia den Dreh rauszuhaben eine vernünftige Implementierung hinzubekommen.

Laut Computerbase isses wieder Scheiße.

Keine Ahnung was die haben

Raff
2021-10-26, 20:51:36
Nope, ist nicht scheiße - man darf nur nicht das Wunder erwarten, dass trotz recht heftiger Pixelsparerei absolut jeder Content besser aussieht als mit TAA.

MfG
Raff

Gast
2021-10-26, 21:37:31
Laut Computerbase isses wieder Scheiße.



Wenn dem so ist, schaffen sie es aber nicht es zu zeigen, auf den dortigen Screenshots sieht DLSS jedenfalls selbst in Performance grandios aus.

Was auch auffällt, anscheinend wendet GoG DLSS auch auf die Reflexionen an, im Gegensatz zu den meisten Spielen verlieren diese nämlich keine Details, im Gegenteil gewinnen anscheinend sogar minimal in den Reflexionen.

Bei den großteils diffusen Reflesionen ist das zwar nicht so wichtig, aber dennoch schön zu sehen dass es prinzipiell funktioniert.

robbitop
2021-10-27, 08:34:46
Ich hätte angenommen dass das temporale SS von DLSS auf alles greift. Warum sollte das nicht so sein? Es funktioniert ja wie super sampling nur eben durch temporales jittering der samples pro pixel.

Tobalt
2021-10-27, 09:22:53
Sinngemäßes Zitat: DLSS wird andere potentielle temporale Upsampling-Varianten von bspw. Intel oder AMD auf Jahre dominieren.

Die Chance besteht aber ist lange nicht in Stein gemeißelt. Erstens ist das Verfahren lange nicht so magisch oder geheim wie es manchmal dargestellt wird. Es gibt massig Paper dazu. Zweitens ist es immer leichter, ein Verfahren nachzumachen, bei dem ein anderer Hersteller die Pionierarbeit geleistet hat.

nv könnte man zugute halten, dass deren Budget dort sicher größer ist. Aber letzlich kommt es bei so einem Algorithmus nicht auf Budget an, sondern auf vielleicht 1-2 kluge Köpfe, die auch bei AMD oder Intel sitzen können. Natürlich steigt die Chance dazu mit dem Budget ;)

Die Motivation dies zu leisten, sollte bei sowohl AMD und Intel hoch sein, weil dein Einwand natürlich richtig ist: aktuell haben non-nV-GPUs einen nicht vertretbaren Malus.

Raff
2021-10-27, 09:24:09
Ich hätte angenommen dass das temporale SS von DLSS auf alles greift. Warum sollte das nicht so sein? Es funktioniert ja wie super sampling nur eben durch temporales jittering der samples pro pixel.

Wenn du schon zu Tode gesparten Content hast – etwa RT Reflections mit Quarter Res –, bringt DLSS eigentlich nur noch eines: den Todesstoß. ;)

MfG
Raff

Gast
2021-10-27, 10:12:13
Ich hätte angenommen dass das temporale SS von DLSS auf alles greift. Warum sollte das nicht so sein? Es funktioniert ja wie super sampling nur eben durch temporales jittering der samples pro pixel.

Heute gibt es üblicherweise nicht ein Rendertarget sondern eine ganze Menge, und DLSS wird nur darauf angewendet, was der Entwickler auch umsetzt.

Beispielsweise bei Cyberpunk (falls das nicht mittlerweile geändert wurde, hab es schon lange nicht mehr gestartet) wird DLSS offensichtlich nur auf das Rendertarget für das "Hauptspiel" angewendet.
Beispielsweise in der Karten oder Inventaransicht bekommst du ganz offensichtlich die ungefilterte reduzierte Auflösung zu sehen, ohne DLSS-Verbesserungen.

Troyan
2021-10-27, 10:47:43
Die Reflektionen sind auch nicht das Problem in dem Spiel. Die Standardreflektionen in den Spiegeln werden sogar besser geglättet als mit TAA. Problematisch ist eher feine Geometrie im Hintergrund. Das neigt stärker zum Flimmern. Aber ist für mich nicht tragisch.

Richtig überrascht bin ich von der Denoiser-Qualität bei Raytracing. Das ist mindesten auf dem Niveau von TAA und sogar noch einen Tick (aka schärfer) besser. Das war in anderen Spielen bis jetzt immer das Gegenteil.

Raff
2021-10-27, 11:12:01
Das Zeug in vielen Spiegeln ist aber kein Raytracing, sondern (Achtung, Augenmaß!) ein bröseliger Render-to-Texture-Trick, der auf jeder GPU funktioniert. Sähe ansonsten mindestens in Zwischensequenzen dämlich aus. :D Oder meinst du die eher schemenhaften Spiegelungen, welche die gleiche Schärfe haben wie andere Spiegelungen auf Metall? Das ist RT, aber eben so diffus, dass DLSS an oder aus fast egal ist. Wie du schon sagst, es sind meist pixelfeine Details, die DLSS aus dem Tritt bringen, was wohl immer noch an den Bewegungsvektoren hängt.

Hier Bilder zur Verdeutlichung:

https://abload.de/thumb/keinrt79k0i.jpg (https://abload.de/image.php?img=keinrt79k0i.jpg) https://abload.de/thumb/rtgyjc4.jpg (https://abload.de/image.php?img=rtgyjc4.jpg)

MfG
Raff

Gast
2021-10-27, 11:47:57
Das Zeug in vielen Spiegeln ist aber kein Raytracing, sondern (Achtung, Augenmaß!) ein bröseliger Render-to-Texture-Trick, der auf jeder GPU funktioniert. Sähe ansonsten mindestens in Zwischensequenzen dämlich aus. :D Oder meinst du die eher schemenhaften Spiegelungen, welche die gleiche Schärfe haben wie andere Spiegelungen auf Metall? Das ist RT, aber eben so diffus, dass DLSS an oder aus fast egal ist. Wie du schon sagst, es sind meist pixelfeine Details, die DLSS aus dem Tritt bringen, was wohl immer noch an den Bewegungsvektoren hängt.

Hier Bilder zur Verdeutlichung:

https://abload.de/thumb/keinrt79k0i.jpg (https://abload.de/image.php?img=keinrt79k0i.jpg) https://abload.de/thumb/rtgyjc4.jpg (https://abload.de/image.php?img=rtgyjc4.jpg)

MfG
Raff

Schau mal hier:
https://pics.computerbase.de/1/0/0/9/8/9-516a6dd69eb829b9/80-1080.2c46c7d1.jpg
https://pics.computerbase.de/1/0/0/9/8/9-516a6dd69eb829b9/82-1080.14a4a7a9.jpg

Rechts hinten wo das gelbe Zeugs im Boden spiegelt sind mit DLSS eindeutig mehr Details in den Spiegelungen sichtbar.

Unter anderem sieht man hier mit DLSS horizontale Linien die nativ höchstens noch erahnbar sind.

Troyan
2021-10-27, 11:55:50
Jap, genau dort ist DLSS stabiler. Im Gegensatz zu den RT-Reflektionen, wo DLSS instabiler, aber deutlich schärfer und schneller ist:https://imgsli.com/Nzg5Mjk

TAA ist hier richtig langsam und verblurrt massiv. Ein Tod muss man wohl sterben.

Gast
2021-10-27, 14:44:55
Richtig überrascht bin ich von der Denoiser-Qualität bei Raytracing. Das ist mindesten auf dem Niveau von TAA und sogar noch einen Tick (aka schärfer) besser.
Ist ja auch nicht schwer, wenn man an die Unschärfe von TAA denkt. DLSS für alle, ohnen gezieltes Inferencing ist das Problem, das schmeckt eben nicht dem Großteil an Engines und Entwickler wollen nunmal kein universelles Modell aufgedrückt bekommen. Das behindert den Fortschritt und Vergleiche. Zudem wollen sie auch nicht ihren Content jedermann zur Verfügungs stellen, nicht mal Nvidia.

Zur Einführung ist es sinnvoll um Standards zu erhalten, aber irgendwann muss man sich nunmal öffnen, wenn es sich durchsetzen soll. Siehs wie TressFX das AMD auf den Markt brachte und dann den Entwicklern überlies, damit sie es so wie sie es brauchten anpassen konnten. Hat sich bewährt.

The_Invisible
2021-10-27, 18:13:22
Doom Eternal scheint jetzt auch den DLSS Sharpening Slider + 2.3.0 bekommen zu haben: https://www.reddit.com/r/nvidia/comments/qgagyr/there_is_a_new_dlss_sharpening_slider_in_todays/

aufkrawall
2021-10-27, 18:43:38
Doom Eternal scheint jetzt auch den DLSS Sharpening Slider + 2.3.0 bekommen zu haben: https://www.reddit.com/r/nvidia/comments/qgagyr/there_is_a_new_dlss_sharpening_slider_in_todays/
Taugt allerdings nichts:
https://forums.guru3d.com/threads/improve-dlss-performance-quality-dlss-swapper.439639/page-2#post-5959414

DLSS Sharpen ist für mich quasi gestorben. Außer, dass es nicht auf Grain/HUD greift, 0 Vorteil gegenüber dem mittelprächtigen Treiber-Sharpen.

TheAntitheist
2021-10-27, 20:42:55
Taugt allerdings nichts:
https://forums.guru3d.com/threads/improve-dlss-performance-quality-dlss-swapper.439639/page-2#post-5959414

DLSS Sharpen ist für mich quasi gestorben. Außer, dass es nicht auf Grain/HUD greift, 0 Vorteil gegenüber dem mittelprächtigen Treiber-Sharpen.
ne blöde Frage aber du nutzt anstatt diesen Sharpener den AMD CAS oder?

aufkrawall
2021-10-27, 21:10:21
ne blöde Frage aber du nutzt anstatt diesen Sharpener den AMD CAS oder?
Ja, per ReShade. Wenn einem die maximale Stärke von 1.0 nicht ausreicht, kann man auch einfach in der Shader-Datei das Limit hochsetzen oder auch einfach im ReShade-UI nach einem Doppelklick eine höhere Zahl eingeben.
CAS mag Rauschen nicht, dafür gibts aber keine hässlichen Halos um insbesondere dunkle Objektkanten.

aufkrawall
2021-10-27, 22:05:15
Hier sieht das Bild bei Guardians of the Galaxy mit DLSS Q immer deutlich detaillierter aus als UHD nativ:
https://www.dsogaming.com/pc-performance-analyses/marvels-guardians-of-the-galaxy-ray-tracing-dlss-benchmarks/
Sieht mir auch sehr nach korrekt verschobenem LOD-Bias aus. Wenn ComputerBase mal nicht ihre eigenen Bilder durcheinander gebracht haben. Davor bewahren würde die fps-Angabe des Performance-Overlays... :freak:
Mal gucken, ob sie das so stehen lassen. Tippe schon...

Edit: Falschen Link gefixt.

Slipknot79
2021-10-31, 02:45:51
Yo, gibts eigentlich irgendwo on da internet eine (laufend gepflegte) Gamelist, die zeigt, welche DLSS-Version am besten mit einem Spiel rennt? Bzw. wo man auch nachlesen kann, welche DLSS-Version welche Konsequenzen im Spiel zur Folge hat?

Langsam wird der Laden nämlich unübersichtlich. :mad:

Troyan
2021-10-31, 10:36:20
Also das DLSS in Guardians ist wirklich top, wenn es zu den RT-Reflektionen kommt: https://imgsli.com/Nzk1MjE

Das ist 4K/TAA ohne CAS gegen 4K/DLSS@Quality. Perse ist für mich DLSS Quality mindesten gleichwertig zu 4K mit TAA. Mal ist TAA besser, mal ist DLSS besser. Aber es ist einfach beeindruckend, wie gut DLSS ist und das temporale Upscaling selbst bei (wahrscheinlich) deutlich weniger Rays pro Pixel eine gleichwertige (manchmal sogar deutlich besser) Qualität liefern kann.

Was Computerbase bzgl. mehr Kantenflimmern geschrieben hat, stimmt auch nur zum Teil. Der Part im Screenshot flimmert mit TAA deutlich mehr als mit DLSS.

Dampf
2021-10-31, 11:14:30
Also das DLSS in Guardians ist wirklich top, wenn es zu den RT-Reflektionen kommt: https://imgsli.com/Nzk1MjE

Das ist 4K/TAA ohne CAS gegen 4K/DLSS@Quality. Perse ist für mich DLSS Quality mindesten gleichwertig zu 4K mit TAA. Mal ist TAA besser, mal ist DLSS besser. Aber es ist einfach beeindruckend, wie gut DLSS ist und das temporale Upscaling selbst bei (wahrscheinlich) deutlich weniger Rays pro Pixel eine gleichwertige (manchmal sogar deutlich besser) Qualität liefern kann.

Was Computerbase bzgl. mehr Kantenflimmern geschrieben hat, stimmt auch nur zum Teil. Der Part im Screenshot flimmert mit TAA deutlich mehr als mit DLSS.

Wow, sieht das geil aus :eek::eek:

Die Reflektionen sehen sogar besser mit DLSS aus, krass. Sonst war ja immer das Gegenteil der Fall.

Technisch ist der Titel echt ein Brett.

Platos
2021-10-31, 12:14:37
Yo, gibts eigentlich irgendwo on da internet eine (laufend gepflegte) Gamelist, die zeigt, welche DLSS-Version am besten mit einem Spiel rennt? Bzw. wo man auch nachlesen kann, welche DLSS-Version welche Konsequenzen im Spiel zur Folge hat?

Langsam wird der Laden nämlich unübersichtlich. :mad:

Würde ich auch gerne haben. Es gibt zwar generell Listen für DLSS support, aber sowas wäre schon praktisch.

DrFreaK666
2021-10-31, 12:20:50
Ihr habt bestimmt auch mal Freizeit ;)

Platos
2021-10-31, 12:30:53
Ihr habt bestimmt auch mal Freizeit ;)

Ich beschäftige mich aber mit DLSS nicht so sehr, um so eine Liste erstellen zu können.

DrFreaK666
2021-10-31, 13:09:30
Wenn mir jemand eine RTX-Karte schenkt, dann mache ich gerne mit :D

Gast
2021-10-31, 13:55:45
Ich beschäftige mich aber mit DLSS nicht so sehr, um so eine Liste erstellen zu können.


Wofür brauchst du dann so eine Liste wenn du dich eh nicht so sehr für DLSS interessierst?

Du wirst doch nicht deine Spiele nach dem DLSS-Support aussuchen, wenn es vorhanden ist verwendest du es eben, ansonsten nicht.

aufkrawall
2021-10-31, 14:14:45
Generell gilt offenbar für alles, was ohne 2.3 erschienen ist: 2.2.11 nehmen, oder im Fall von Problemen 2.2.6 probieren (2.2.11 macht in Fortnite leichte Grafikfehler bei bestimmten Umrandungen).
Crysis 2 Rem., SotTR und Deathloop sahen hier alle mit der mitgelieferten 2.3 Version anständig aus. In älteren Spielen smeart mir 2.3 aber zu viel. Ob da nochmal eine Version erscheint, die dort ähnlich wenig smeart wie 2.2.6/2.2.11, bleibt abzuwarten.

Platos
2021-10-31, 14:56:10
Gibts denn wenigstens eine Liste, bei der man einsehen kann, welche DLSS Version in welchem Spiel verwendet wird (halbwegs Aktuell) ?

Darkman.X
2021-10-31, 16:50:51
Wozu? Du kannst doch mit einem Rechtsklick auf die DLL-Datei -> Eigenschaften prüfen, welche Version installiert ist.

Ex3cut3r
2021-10-31, 17:17:08
Yo Genau. Dachte sowas wäre im 3DCenter Standard. :redface:

DLLs zum Downloaden gibt es übrigens hier:
https://www.techpowerup.com/download/nvidia-dlss-dll/

https://abload.de/img/unbenanntb0jo1.png

Platos
2021-10-31, 17:26:56
Ja, aber es geht doch darum, dass man eine Liste hat.

Ex3cut3r
2021-10-31, 17:41:26
Für was? Du kannst dir eine beliebige Version runterladen und ersetzen, solange das Game DLSS 2.0 Support bietet.

Darkman.X
2021-10-31, 18:53:35
Vielleicht trifft "Platos" seine Kaufentscheidung nicht anhand von Spielspaß, sondern welche DLSS-Version mitgeliefert wird? :freak:

Slipknot79
2021-10-31, 19:42:54
Generell gilt offenbar für alles, was ohne 2.3 erschienen ist: 2.2.11 nehmen, oder im Fall von Problemen 2.2.6 probieren


Das ist ja auch der Shice an der Sache, so pauschal can man so auch nicht sagen. In Metro Exodus funzt reshade nicht mit 2.2.6, 2.2.9, 2.2.10, 2.2.11 und 2.2.16. Funzt nur mit der mitgelieferten 2.1.55.


Los an die Arbeit, macht ne Liste (make a list, falls das wer von overclockers.net oder guru3d oder techpowerup liest) :redface:
Ich faule Sau mag ned arbeiten :redface: bzw habe ja nicht mal alle Spiele. :mad:

aufkrawall
2021-10-31, 19:53:36
Willst du mit dem Geschmiere von 2.1 spielen? Glaube nicht. Treiber-Sharpen mit Stärke <0.1 ist schon mal besser als nichts, das Spiel ist mit DLSS ja nicht so unscharf wie Control.

Raff
2021-10-31, 20:38:39
Also das DLSS in Guardians ist wirklich top, wenn es zu den RT-Reflektionen kommt: https://imgsli.com/Nzk1MjE

Das ist 4K/TAA ohne CAS gegen 4K/DLSS@Quality. Perse ist für mich DLSS Quality mindesten gleichwertig zu 4K mit TAA. Mal ist TAA besser, mal ist DLSS besser. Aber es ist einfach beeindruckend, wie gut DLSS ist und das temporale Upscaling selbst bei (wahrscheinlich) deutlich weniger Rays pro Pixel eine gleichwertige (manchmal sogar deutlich besser) Qualität liefern kann.

Was Computerbase bzgl. mehr Kantenflimmern geschrieben hat, stimmt auch nur zum Teil. Der Part im Screenshot flimmert mit TAA deutlich mehr als mit DLSS.

Könntest du bitte ein Save von der Stelle hochladen? Das sieht sehr spannend aus, da bin ich aber noch nicht. Die Saves liegen unter Steam\userdata\Lange ID\1088850. Gerne auch nur via PN.

Danke im Voraus. :)

MfG
Raff

aufkrawall
2021-10-31, 20:52:50
Sehen die Reflexionen ansonsten gut aus? Auch noch in 1440p mit DLSS Q? Das wär ja in der Tat ein bedeutsamer Fortschritt. Wenn man bedenkt, wie bekloppt das in Control rauscht und die Performance knüppelt. :freak:

Raff
2021-10-31, 20:59:28
Control ist ja mittlerweile auch nur noch als "Early Tech" anzusehen. Deutlich beeindruckender als z. B. Battlefield 5, aber eben nur ein 2019er-Titel. Offenbar haben schon genug Lerneffekte eingesetzt, damit die gröbsten Probleme wegfallen. In den meisten Spielen gilt aber das Logische: DLSS = weniger räumliche Auflösung = größere Pixel in RT-Reflexionen.

MfG
Raff

robbitop
2021-10-31, 21:59:18
Schade, dass die Studios diese Arbeit nicht selbst machen. Neue DLLs testen und wenn es besser ist -> Patch. Ggf in Kooperation mit NV. NV testet (im eigenen Interesse) und benachrichtigt das Studio die neue dll jeweils zu nehmen -> patch.

Wenn man als Enduser durch austauschen der DLL deutliche Verbesserung erzielen kann und das in einschlägigen Foren steht -> dann wäre das doch sicherlich schon der Anspruch, dass das Studio das zeit nah nachpatcht und automatisch alle das Ergebnis out of the box bekämen.

Ex3cut3r
2021-10-31, 22:35:59
Da stimme ich zu, ich weiß aber auch nicht, warum Nvidia so viele Versionen rausbringt, und die besten mit 2.2.11 und 2.2.6 auch schon älter sind.

Die 2.3.x DDLs sind aber bisher bei neuen Spielen alle brauchbar. Ich erkenne keine Schlieren und das mit einem Samsung G7 mit 240HZ, der null schmiert.

DrFreaK666
2021-11-01, 00:59:41
Schade, dass die Studios diese Arbeit nicht selbst machen. Neue DLLs testen und wenn es besser ist -> Patch. Ggf in Kooperation mit NV. NV testet (im eigenen Interesse) und benachrichtigt das Studio die neue dll jeweils zu nehmen -> patch.

Wenn man als Enduser durch austauschen der DLL deutliche Verbesserung erzielen kann und das in einschlägigen Foren steht -> dann wäre das doch sicherlich schon der Anspruch, dass das Studio das zeit nah nachpatcht und automatisch alle das Ergebnis out of the box bekämen.

Würde das nicht auch über den Treiber funktionieren? Treiber erkennt dass Spiel XY gestartet wird und erzwingt eine neuere DLL

Troyan
2021-11-01, 11:07:39
Könntest du bitte ein Save von der Stelle hochladen? Das sieht sehr spannend aus, da bin ich aber noch nicht. Die Saves liegen unter Steam\userdata\Lange ID\1088850. Gerne auch nur via PN.

Danke im Voraus. :)

MfG
Raff

Bin schon weiter. :(
Einfach selbst Spielen. Lohnt sich nicht nur wegen der Szene. :D

Platos
2021-11-01, 11:25:35
Würde das nicht auch über den Treiber funktionieren? Treiber erkennt dass Spiel XY gestartet wird und erzwingt eine neuere DLL

Neuer ist aber nicht gleich besser. Darum gehts doch. Die 2 DLSS 2.xx Versionen, die genannt wurden, sind ja genau das perfekte Beispiel dafür. Aber ne Liste wäre trotzdem gut. Dann könnte man gleich sehen, bei welchem Spiel man die .dll tauschen muss/will und muss das nicht bei jedem Spiel manuell nachschauen.

Platos
2021-11-01, 11:29:09
Da stimme ich zu, ich weiß aber auch nicht, warum Nvidia so viele Versionen rausbringt, und die besten mit 2.2.11 und 2.2.6 auch schon älter sind.

Die 2.3.x DDLs sind aber bisher bei neuen Spielen alle brauchbar. Ich erkenne keine Schlieren und das mit einem Samsung G7 mit 240HZ, der null schmiert.

Sind die bei 2.3.x immer noch schlechter wie 2.2.11 und 2.2.6 ?

aufkrawall
2021-11-01, 13:05:15
Steht in einem Post von mir eine Seite zurück, auf den du geantwortet hast?

Gast
2021-11-01, 14:23:23
Sehen die Reflexionen ansonsten gut aus?

Die Reflexionen ziemlich unabhängig von DLSS aus, entweder verbessert DLSS nun auch die Reflexionen wie alles andere, oder das Spiel berechnet die Reflexionen unabhängig vom DLSS Level.

Bis auf eben die planar reflections die man immer hat, was ich nicht verstehe, warum die nicht bei Aktivieren von Raytracing-Reflexionen ersetzt werden.

Platos
2021-11-01, 18:59:12
Steht in einem Post von mir eine Seite zurück, auf den du geantwortet hast?

Ja man kann daraus deuten, dass sich ab 2.3.x die beiden tieferen Versionen nicht lohnen. Executer deutet da aber das Gegenteil an.

Raff
2021-11-01, 20:54:03
Bin schon weiter. :(
Einfach selbst Spielen. Lohnt sich nicht nur wegen der Szene. :D

Mache ich auf jeden Fall, meine Lebenszeit ist aber derzeit noch limitierter als sonst. Die Spiele wachsen gerade sehr schnell nach. ;)

MfG
Raff

Gast
2021-11-02, 22:19:46
Anscheinend kann Guardians of the Galaxy sogar mehrfache Reflexionen:

https://i.imgur.com/UN7Zs4B.jpg

Und nach längerem herumspielen kann ich auch sicher sagen, dass DLSS in diesem Spiel definitiv auch die RT-Reflexionen bearbeitet.
Im Bewegung funktioniert das nicht ganz perfekt und die Reflexionen werden mit den niedrigeren DLSS-Stufen sichtbar etwas unschärfer, zumindest dort wo es scharfe Reflexionen gibt, steht man einen sekundenbruchteil still sind sie aber auch mit DLSS wieder perfekt scharf und das fast unabhängig von der DLSS Stufe.

Rooter
2021-11-03, 23:22:33
Afaik kann GotG bei RT nur Reflektionen und die, ja, mehrfach:
https://www.computerbase.de/2021-10/marvels-guardians-of-the-galaxy-benchmark-test/

MfG
Rooter

Dampf
2021-11-07, 01:45:42
Afaik kann GotG bei RT nur Reflektionen und die, ja, mehrfach:
https://www.computerbase.de/2021-10/marvels-guardians-of-the-galaxy-benchmark-test/

MfG
Rooter

Ich sehe eine Reflektion und betreibe Selbstreflektion...........! DAS IST GENAU DER GRUND WARUM REAL TIME RTR ERFUNDEN WURDE

IHR MÜSST EUCH ALLE SELBST REFLEKTIEREN; UNSER GOTT JENSEN HAT ES UNS BEFOHLEN!

Platos
2021-11-07, 11:54:48
WTF ?:D

Dampf
2021-11-07, 14:17:40
WTF ?:D

Sorry, ich sollte nicht mehr an den Rechner wenn ich etwas voll bin. :freak:

DrFreaK666
2021-11-07, 15:01:48
Sorry, ich sollte nicht mehr an den Rechner wenn ich etwas voll bin. :freak:

Wollte schon fragen ob der Schnaps wirkt :D

Troyan
2021-11-11, 15:09:19
Vergleich zwischen DLSS 1.0 und 2.0 in Shadow of the Tomb Raider: https://www.youtube.com/watch?v=OoVyw9SmXX8

Troyan
2021-11-16, 12:31:44
nVidia öffnet das treiberinterne Upscaling für Spieleentwickler: https://videocardz.com/newz/nvidia-image-scaling-goes-open-source-nis-now-available-to-all-games

dildo4u
2021-11-16, 12:45:14
Hm ist das nützlich für Nvidia User oder gibt es kein Unterschied zwischen per Treiber erzwingen vs Gameintegration?

Troyan
2021-11-16, 12:49:36
Der Treiber skaliert ein vollständig fertig gerendertes Bild hoch. Integration im Spiel kann feiner vorgehen - z.B. das Mipmap Bias kann verschoben, HUD kann in 4K gerendert werden etc.

Gast
2021-11-16, 13:53:36
nVidia öffnet das treiberinterne Upscaling für Spieleentwickler: https://videocardz.com/newz/nvidia-image-scaling-goes-open-source-nis-now-available-to-all-games

Gar nicht mal (nur) für Spieleentwickler, sondern generell im Treiber für alles.
Das ist es was AMD mit FSR hätte machen sollen, ein immer für alle Spiele verfügbarer Upscaler hätte zumindest irgendeine Daseinsberechtigung, wenn der Entwickler es erst integrieren muss kann er gleich DLSS nehmen.

Raff
2021-11-16, 15:06:51
nVidia öffnet das treiberinterne Upscaling für Spieleentwickler: https://videocardz.com/newz/nvidia-image-scaling-goes-open-source-nis-now-available-to-all-games

Da gibt's noch viel mehr: Nvidias Bildqualitäts-Offensive: FSR-Alternative für alle Spiele, DLSS-Update, Video-Vergleichs-Tool ICAT (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Treiber-Update-Neue-Funktionen-kostenlos-1383631/)

MfG
Raff

Dampf
2021-11-16, 15:19:47
https://www.youtube.com/watch?v=SBjL0M25t04

Scheint so, als wurden mit DLSS 2.3 wieder tolle Fortschritte gemacht! Spannendes Video.

ChaosTM
2021-11-16, 15:21:18
Da gibt's noch viel mehr: Nvidias Bildqualitäts-Offensive: FSR-Alternative für alle Spiele, DLSS-Update, Video-Vergleichs-Tool ICAT (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Treiber-Update-Neue-Funktionen-kostenlos-1383631/)

MfG
Raff




Finally! Es geht ja doch, wenn nur etwas Druck kommt. ;)

Dampf
2021-11-16, 15:30:26
Da gibt's noch viel mehr: Nvidias Bildqualitäts-Offensive: FSR-Alternative für alle Spiele, DLSS-Update, Video-Vergleichs-Tool ICAT (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Treiber-Update-Neue-Funktionen-kostenlos-1383631/)

MfG
Raff

Wie bitte? NIS lässt sich nicht auf Screenshots festhalten?

Das ist ja super dämlich. Dann wird es im Internet zich Vergleichsbilder geben wo NIS null Unterschiede bringt und viele werden es dann logischerweise verteufeln.

Argh. Nvidia's Marketing ist ja echt gut, aber wenn sie's verkacken, dann richtig.

Raff
2021-11-16, 15:34:51
Warum muss ich gerade an das Jahr ~1999 denken? 3dfx und die 22-Bit-Pwnage, die man auf Shots nicht sieht ... :ugly:

Das alte NIS (seit zwei Jahren) musste man auch z. B. im Fenstermodus via Druck-Taste catchen, nebenbei bemerkt.

MfG
Raff

Dampf
2021-11-16, 15:41:18
Warum muss ich gerade an das Jahr ~1999 denken? 3dfx und die 22-Bit-Pwnage, die man auf Shots nicht sieht ... :ugly:

Das alte NIS (seit zwei Jahren) musste man auch z. B. im Fenstermodus via Druck-Taste catchen, nebenbei bemerkt.

MfG
Raff

Dann hätte man das mit dem Release vom neuen NIS ändern sollen.

Die meisten Leute werden nicht wissen, wie man das Ding richtig captured. Ich vermute, nicht mal viele Tech-Youtuber werden das wissen.

Das ist echt sehr, sehr unklug. Ich sehe schon jetzt die ganzen Vergleiche, bei denen NIS komplett gegen FSR abkackt.

Aber gut, da hab ich auch kein Mitleid mit Nvidia. Selbst schuld.

aufkrawall
2021-11-16, 15:45:11
Du übetreibst völlig, geh mal chillen...

Troyan
2021-11-16, 15:47:15
Natürlich lässt es sich nur schwer capturen, wenn der Treiber bzw. am Ende die GPU hochskaliert. nVidia passt doch Experience an. Bald kann man es auch per Video einfangen.

Dampf
2021-11-16, 15:49:37
Du übetreibst völlig, geh mal chillen...

Ich übertreibe nicht. GENAU das wird passieren wenn Nvidia das nicht schleunigst ändert.

Oh Gott, das wird mich wieder sooo viel Zeit in den Reddit Boards, YouTube Kommentare und Foren kosten die Leute aufzuklären, nur weil Nvidia wieder in solche leicht zu vermeidenden Fettnäpfchen tritt.

ChaosTM
2021-11-16, 16:07:40
Funktioniert das eigentlich auch auf AMD Karten, oder ist man wieder mal 100% proprietär unterwegs ?

Geht aus dem Artikel nicht wirklich hervor. Da es als FSR Alternative verkauft wird, sollte die Antwort eigentlich "JA" sein. ;)

Raff
2021-11-16, 16:11:01
Alles, was du im Treiber oder Geforce Experience machst, geht natürlich nur auf Nvidia-Karten. ;) Da NIS aber Open-Source wird, läuft's auch auf Radeons, sobald in Spiele implementiert. Bei so 'nem billigen Shader ergibt ein Vendor-Lock keinen Sinn.

MfG
Raff

Platos
2021-11-16, 16:18:35
Oh Gott, das wird mich wieder sooo viel Zeit in den Reddit Boards, YouTube Kommentare und Foren kosten die Leute aufzuklären, nur weil Nvidia wieder in solche leicht zu vermeidenden Fettnäpfchen tritt.

Lol, du hast echt nichts besseres im Leben zu tun, als DLSS und co. zu promoten ?

ChaosTM
2021-11-16, 16:21:48
Fanboy halt.
So, NV Treiber am Notebook und Standrechner installiert. Mal schauen, ob der FS2020 in irgend einer Form davon profitiert.

Raff
2021-11-16, 16:23:57
Das wird er erst mit DX12 in Kürze. :D

MfG
Raff

ChaosTM
2021-11-16, 16:27:32
Das befürchte ich auch.

Die NV Treiber/Windows schaffen es immer wieder, die Anordnung der Desktop Symbole bei der Installation zu zerstören.
DesktopOK ist selbst in Win11 Zeiten unverzichtbar. ;)

Platos
2021-11-16, 16:32:40
Kann man das denn (ab Maxwell) per Treiber in jedem Spiel aktivieren (Also Nvidia Image Scaling) oder muss das wie FSR implementiert werden?

BTW: Wo finde ich das im Treiber (nicht Geforce Experience)?

ChaosTM
2021-11-16, 16:40:29
Suche gerade..

aufkrawall
2021-11-16, 16:40:52
Kann man das denn per Treiber in jedem Spiel aktivieren (Ab Maxwell)? Also Nvidia Image Scaling.
Man muss es global aktivieren und kann per Profil die Schärfe einstellen (oder live im Spiel per GFE). Das neue Scaling sieht definitiv besser aus als das alte, beim alten hatte einen schon im NV-Panel das Ringing um die Fonts angesprungen. Ist jetzt zumindest mit Sharpen 0 weg. Das neue Sharpen ist auch deutlich besser als das alte: Hat mit 15% schon einen sehr deutlichen Effekt, aber ohne Ekel-Ringing. :up:
Dafür siehts etwas mehr aliased aus, aber auch weniger "rauschig" als CAS. Deutlich über 15% würd ich nicht gehen. Dürfte trotzdem den ReShade-Inject für CAS sehr häufig überflüssig machen. =)
Mal in Metro testen...

Platos
2021-11-16, 16:43:33
Du meinst das, was im Treiber "Bildskalierung" genannt wird? Weil von NIS sehe ich nichts.

ChaosTM
2021-11-16, 16:46:31
GFE kommt mir nicht auf den Rechner ;)

Platos
2021-11-16, 16:48:21
Ah ja, ist "Bildskalierung" im Treiber. Hier sieht man es (etwas runter scrollen). Ist aber auch pro Anwendung einstellbar, muss nicht global eingestellt werden anscheinend. Edit: Muss anscheinend doch global eingestellt werden zuerst und der Faktor kann dann nochmals für jedes Spiel separat eingestellt werden.

https://www.nvidia.com/en-us/geforce/news/battlefield-2042-game-ready-driver/

Troyan
2021-11-16, 16:57:03
Du stellst es wie DSR global ein, aber du musst in den Spielen die reduzierte Auflösung nehmen. Die GPU skaliert dann das komplette Bild hoch.

Dampf
2021-11-16, 17:03:27
Lol, du hast echt nichts besseres im Leben zu tun, als DLSS und co. zu promoten ?

Nö.

Aber mit Nvidia hat das wenig zu tun. Als Technik Fan kann ich es einfach nicht leiden, wenn eine Technologie unter ihrem Potenzial genutzt wird, bzw dann falsche Vergleiche getätigt werden.

Wäre das bei FSR auch so, würde ich auch aufklären.

Fanboy halt.
So, NV Treiber am Notebook und Standrechner installiert. Mal schauen, ob der FS2020 in irgend einer Form davon profitiert.

Das nutzt meines Wissens nach temporale Rekonstruktion, d.h. die spieleigene Hochskalierung ist NIS und FSR überlegen.

Achill
2021-11-16, 17:19:43
[..]
Oh Gott, das wird mich wieder sooo viel Zeit in den Reddit Boards, YouTube Kommentare und Foren kosten die Leute aufzuklären, nur weil Nvidia wieder in solche leicht zu vermeidenden Fettnäpfchen tritt.

Ich hoffe du wirst dafür entlohnt oder halt Hobby, aber nicht Beschweren wenn man den Planeten etwas grüner macht.

aufkrawall
2021-11-16, 17:28:54
Das neue Sharpen 15% vs. off (RTSS Screenshots zeigen es nicht, man muss etwa GFE dafür nehmen):
https://abload.de/thumb/metroexodusenhancededcqjqn.png (https://abload.de/image.php?img=metroexodusenhancededcqjqn.png) https://abload.de/thumb/metroexodusenhancededkmj39.png (https://abload.de/image.php?img=metroexodusenhancededkmj39.png)

Tenderiere bei meiner Präferenz für cleanen Content immer noch zu CAS (weniger Aliasing, mehr "Textur-Boost"), allerdings schärft das neue NV-Sharpen etwa RT-Rauschen (oder Müll-Artefakte in Texturen) viel weniger heraus. Ist definitiv eine große Verbesserung zu vorher.

ChaosTM
2021-11-16, 17:32:12
Funktioniert sehr gut. Nur seh ich Nach-Schärfeartefakte leider immer sofort. Angewohnheit aus der HTPC Phase. Sind blöderweise sehr leicht zu entdecken, wenn mein weiß wohin man schauen muss.

Muss mich da noch mehr vertiefen bzw. den Schärfe Regler etwas nach links bewegen.

Platos
2021-11-16, 17:42:41
Also bei mir funktioniert das irgendwie nicht in the Witcher 3. Habe auch kein Wasserzeichen drinn trotz Häckchen bei Overlay. Wird bei mir anscheinend nicht richtig angewendet. Funktioniert das wirklich mit allen Spielen, die Fullscreen sind ?

Habe natürlich den neuen Treiber installiert und hab ne 1070Ti. Ich habe in the Witcher 3 auch nicht mal diese zusätzlichen Auflösungen, die vorhanden sein sollten.

Lehdro
2021-11-16, 17:47:02
Warum muss ich gerade an das Jahr ~1999 denken? 3dfx und die 22-Bit-Pwnage, die man auf Shots nicht sieht ... :ugly:

Vielleicht war damals in der Insolvenzmasse das Patent auf Bildtechniken die nur auf dem Bildschirm, nicht aber auf simplen Screenshots auftauchen dabei? :redface:

Dampf
2021-11-16, 17:50:55
Ich hoffe du wirst dafür entlohnt oder halt Hobby, aber nicht Beschweren wenn man den Planeten etwas grüner macht.

Wenn es dafür eine Entlohnung gäbe, wäre das mein absoluter Traumjob. PR / Community Manager kommt da wohl am nächsten, dafür wird bei Nvidia, AMD und anderen Tech Companies aber sicherlich wieder drölfzig Studiengänge erforderlich sein... mein Platz in der Welt werde ich wohl nie finden, ich bin nah dran es aufzugeben...

Aber egal, hier geht es um andere Dinge.

Ich hab mal NIS in Forza ausprobiert. Ich bin mir nicht sicher, ob ich es richtig mache, oder ob es FSR wirklich so unterlegen ist. Hab es in den allgemeinen Einstellungen im Control Panel die Bildskalierung aktiviert und im Spiel dann die bereitgestellte Auflösung ausgewählt (1970 x 1108, was wohl ungefähr FSR UQ entspricht). Sobald ich die Auflösung allerdings auswähle, verschwindet das blaue NIS Overlay (das ja eigentlich zu grün springen müsste)

Von der Bildqualität sieht FSR Ultra Quality in Forza viel besser aus. Eventuell liegt das daran, dass NIS ständig nachschärft, das wäre ich später mal alles evaluieren. Stand jetzt bevorzuge ich FSR UQ deutlich, zumindest in Forza.

ChaosTM
2021-11-16, 17:52:23
Also bei mir funktioniert das irgendwie nicht in the Witcher 3. Habe auch kein Wasserzeichen drinn trotz Häckchen bei Overlay. Wird bei mir anscheinend nicht richtig angewendet. Funktioniert das wirklich mit allen Spielen, die Fullscreen sind ?

Habe natürlich den neuen Treiber installiert und hab ne 1070Ti. Ich habe in the Witcher 3 auch nicht mal diese zusätzlichen Auflösungen, die vorhanden sein sollten.



Hast du neu gestartet?
NV empfiehlt das.

Ich kann momentan nicht viel machen am Desktop Rechner, da der vertrottelte FS2020 wieder mal den ganzen Rechner blockiert.
Werde das mal am Laptop mit CP77 probieren, obwohl ich da DLSS hab. Mal schaun.
Forza Horizon 5 bietet sich da eher an..

Platos
2021-11-16, 17:54:29
Ne, kann grad nicht. Spiegle gerade 1TB (klein-)Dateien nebenher ^^ Aber mache ich dann danach in dem Fall.

aufkrawall
2021-11-16, 18:34:09
Gibts mit Pascal somit nur noch Sharpen via GFE?

ChaosTM
2021-11-16, 18:34:56
In Horizon ist zwar jetzt "Extreme" flüssig in 1660p spielbar, dafür ist es Artefakt Central. Aliasing, Ringing, you name it.
"Ultra" ohne Skalierung (4k) schaut klar besser aus bei ähnlichen Bildraten. (3080M)


FS2020 funktioniert gar nicht. Sobald die Skalierung eingeschaltet ist, zeigt das dummer Programm überhaupt keine Auflösungen mehr an. Nur die gerade eingestellte ?! :D
Das Ding ist immer noch so unglaublich müllig..

DrFreaK666
2021-11-16, 19:38:16
Gar nicht mal (nur) für Spieleentwickler, sondern generell im Treiber für alles.
Das ist es was AMD mit FSR hätte machen sollen, ein immer für alle Spiele verfügbarer Upscaler hätte zumindest irgendeine Daseinsberechtigung, wenn der Entwickler es erst integrieren muss kann er gleich DLSS nehmen.

Könnte mir vorstellen dass das AMD noch nachreicht. Dann macht es aber kaum noch Sinn das in das Spiel einzufügen

Raff
2021-11-16, 19:42:35
Gibts mit Pascal somit nur noch Sharpen via GFE?

Das Image Scaling läuft hier selbst mit einer Geforce GTX 980 Ti (Maxwell 2.0) wunderbar via Oldschool-Treiber-CP - wie von Nvidia genannt. :up:

MfG
Raff

Andi Y
2021-11-16, 21:02:39
Kann es sein, dass NIS alle Auflösungen skaliert?
Das grüne NIS Symbol ist bei jeder Auflösung da (außer 800 x 600 :)), egal ob die bei den skalierbaren Auflösungen aufgeführt sind.
Außer nativ, da ist das NIS Symbol blau.

Raff
2021-11-16, 21:06:44
Yep. Einmal an, erfolgt GPU-Skalierung mit dem Algo. Man kann das und die Schärfe via Spielprofil steuern.

MfG
Raff

aufkrawall
2021-11-16, 21:34:52
Sieht halbwegs ok aus in Doom Eternal mit 1108p @ 1440p mit Sharpen-Treiber 30% und in-game 20%, recht scharf und keine Ringing-Hölle.
Kackt in Bewegung allerdings komplett ab gegen DLSS 2.2.11, Motion Blur aus der Hölle bei 120fps. Ist ja ein weit verbreitetes Halbwissen, dass für TAA die Bildrate am wichtigsten sei. Die Renderauflösung ist viel wichtiger, ohne DL kommt bei ~1080p oder weniger eigentlich nur Murks bei rum...

Dampf
2021-11-16, 22:14:48
In anderen Spielen als Forza scheint es zu funktionieren. Aber nicht wirklich gut. Sobald man die Auflösung auswählt, sieht es so aus, als ob alles, auch die HUD und das MSI Afterburner Overlay eben in jener Auflösung gerendert wird und nicht der Zielauflösung. Das Bild sieht auch signifikant schlechter aus.

Muss sagen, da hat mich FSR in den anderen Titeln deutlich mehr überzeugen können. Ultra Qualität war wirklich brauchbar.

Glaube es braucht wirklich Game-Integration für ein gutes Ergebnis.

Lurtz
2021-11-16, 22:21:13
Senuas Haare und Pelzmantel in Hellblade sind ein ganz netter Härtetest für DLSS :)

Selbst in 1440p Performance zeichnet DLSS feinere Details als nativ, wenn auch etwas flimmeranfällig.

Raff
2021-11-16, 22:22:03
In anderen Spielen als Forza scheint es zu funktionieren. Aber nicht wirklich gut. Sobald man die Auflösung auswählt, sieht es so aus, als ob alles, auch die HUD und das MSI Afterburner Overlay eben in jener Auflösung gerendert wird und nicht der Zielauflösung. Das Bild sieht auch signifikant schlechter aus.

Muss sagen, da hat mich FSR in den anderen Titeln deutlich mehr überzeugen können. Ultra Qualität war wirklich brauchbar.

Glaube es braucht wirklich Game-Integration für ein gutes Ergebnis.

Das war ja schon immer der Punkt. Das Spiel weiß ja nicht, was da von außen gepfuscht wird. Klar, da wird dann alles in niedrigerer Auflösung gerendert. Implementiert man das sauber (also an der richtigen Stelle in der Pipe), umgeht man UI-Brei, Grain-Verstärkung etc.

MfG
Raff

ChaosTM
2021-11-16, 22:23:12
Funktioniert fast nirgends richtig gut. Ich nehme an die Treiber sind kaputt. Kommen eh bald neue...

Probiert in 77, FarCry5, FS2020 (Auflösungseinstellungen verschwinden komplett ;) , Forza H. 5, Valhalla, Days Gone

Raff
2021-11-16, 22:24:29
Es gibt ja schon 'nen Hotfix: https://nvidia.custhelp.com/app/answers/detail/a_id/5264 :ulol:

MfG
Raff

aufkrawall
2021-11-16, 22:43:50
Das war ja schon immer der Punkt. Das Spiel weiß ja nicht, was da von außen gepfuscht wird. Klar, da wird dann alles in niedrigerer Auflösung gerendert. Implementiert man das sauber (also an der richtigen Stelle in der Pipe), umgeht man UI-Brei, Grain-Verstärkung etc.

Wer diese Effekte mag, gehört eh in eine Zwangsjacke. Gut, manchmal kann man sie nicht abschalten.
Ich wills jetzt nicht übermäßig loben, aber in Doom Et. sah es hier besser aus als FSR in Deathloop. Zwei-Pass Sharpen mit milderer Intensität scheint bei so einem Krüppel-Scaling nicht so verkehrt zu sein.

Interessiert aber auch imho alles 0, sieht mit Spatial Scalern eh immer kacke aus. Aber so lange deshalb nicht weniger intensiv an DLSS gearbeitet wird, meinetwegen...

ChaosTM
2021-11-16, 22:56:19
Forza Horizon 5 läuft mit dieser Version (496.84) gleich mal überhaupt nicht - Gute Nacht :)

Platos
2021-11-16, 23:51:47
Also bei mir gehts mit the Witcher immer noch nicht. Ich sehe kein Wasserzeichen von NIS. Habe schon PC neugetartet, den hot-fix Treiber installiert und neugestartet... funktioniert alles nicht. Es wird mir nix angezeigt, die Auflösung ist ganz klar bei 1440p (anstatt upscaled 4k) und wie gesagt hat es kein Wasserzeichen, so dass ich erkennen kann, obs an ist.

Bildskalierung ist bei mir unter Global auf "Ein" und Schärfung auf 15% und bei the Witcher 3 ist es auf "globale Einstellung verwenden (Ein)".

Muss man da sonst noch etwas tun ? Hat mal jemand Witcher 3 probiert?

Edit: Geht auch nicht mit Aots oder Dragons Dogma (ja, ein etwas älteres Spiel).

Slipknot79
2021-11-17, 01:18:15
Also in Aliens: Fireteam Elite funzt NIS ziemlich good. Auch can man sich da mit der ingame Auflösugsskalierung (bis 200%) spielen.

Oder anders rum werden mit DSR entsprechende NIS-Auflösungen freigeschlatet (y)

https://abload.de/img/screenshot2021-11-170kmkus.png

Platos
2021-11-17, 10:23:20
Also ich habe zwar in RotT die "neuen" Auflösungen zur Auswahl, aber ich sehe trotzdem nirgendwo eine Overlay-Anzeige. Kann mir jemand sagen, wo man dieses NIS Zeichen sieht und was man da alles machen muss, damit man es sieht (ausser den Hacken setzen)? Wird das evtl. irgendwie blockiert von was anderem?

Ich habe es auch nochmals in dem alten Spiel Dragons Dogma ausprobiert. Da habe ich zwar auch diese speziellen Auflösungen, aber die Bildqualität ist deutlich! schlechter, wie mit 4k, also wird es wohl nicht funktionieren.

Raff
2021-11-17, 10:37:38
Siehe das erste Bild hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12848644&postcount=2465

Links oben steht "NIS" in Grün, sprich: "Ich skaliere gerade die eingestellte Sub-WQHD-Auflösung auf UHD hoch". In nativem UHD wäre es blau. Es kann sein, dass das mit anderen Overlays kollidiert - hatte ich aber bisher nicht (nur RTSS getestet).

-> Die zickigen Steam-, Origin- und Whatever-Überleger ausmachen. :)

MfG
Raff

Platos
2021-11-17, 10:51:56
Ach so, aber ich muss ja die Auflösung nur im Spiel auswählen/ändern ? Die Monitorauflösung kann bei nativer Auflösung bleiben, oder? Laut nvidia ist das nur notwendig, wenn im Spiel kein Vollbildmodus existiert.

Ich habe bei der Monitorauflösung ganz normal 2160p 60Hz RGB und bei Bildskalierung unter "3D Einstellungen verwalten" auf Ein, 15% Schärfung und Overlay auch auf ein. In den Spieleeinstellungen im Treiber habe ich jeweils "Globale Einstellung verwenden" auf ein.

Im Spiel dann immer 2560x1440, aber ich probiere mal andere Auflösungen und schliesse mal den Afterburner und RTSS und deaktivere Steam Overlay.

Platos
2021-11-17, 11:02:23
Also bei mir funktioniert das alles nicht. Habe Steam Overlay deaktiviert, kein Afterburner eingeschalten, andere Auflösungen ingame probiert...hilft alles nichts. Ich habe kein NIS zeichen.

Slipknot79
2021-11-17, 11:06:23
Das NIS Zeichen ist auch nicht so wichtig. Wichtiger ist, dass du im Spiel die NIS-Auflösungen einstellen canst.
Das NIS Zeichen ist nur informativ.

Platos
2021-11-17, 11:09:33
Dann wüsste ich aber, ob skaliert wird oder nur geschärft (oder gar nichts). Also ja, wäre "nur" (sehr) informativ.

In Witcher 3 sehe ich ganz klar, dass 1440p auch 1440p ist (und wenns doch an ist, ist diese Skalierung einfach kacke). Also funktionierts entweder nicht in Witcher 3 (ich kriege die neuen Auflösungen da angezeigt) oder aber die Skalierung ist so kacke, dass es eher wie 1440p aussieht und nicht wie 2160p.

Ich glaube also, dass es erst gar nicht hochskaliert. Daher wäre ein NIS zeichen sehr hilfreich.

Kann man eig. am Overlay vom Afterburner erkennen, ob hochskaliert wird? Also wenn man native 1440p einstellt im Game, dann wird das Overlay ja im Normalfall grösser wie auf nativen 2160p. Wäre das Overlay vom Afterburner mit hochskaliertem 2160p so gross, wie bei nativem 2160p (bei 1440p Renderauflösung) oder wäre es so gross wie natives 1440p?

DrFreaK666
2021-11-17, 11:15:37
Dass man es nicht auf Screenshots festhalten kann, ist in dem Fall auch nicht wirklich hilfreich

Raff
2021-11-17, 17:54:04
"Deep Learning Uber Sampling" (bitte etablieren :biggrin: ) kommt in ein zweites Spiel - den Landwirtschafts-Simulator 22: https://www.pcgameshardware.de/Landwirtschafts-Simulator-22-Spiel-73290/News/DLSS-und-DLAA-1383784/ :up:

MfG
Raff

Troyan
2021-11-17, 17:58:03
Dann wüsste ich aber, ob skaliert wird oder nur geschärft (oder gar nichts). Also ja, wäre "nur" (sehr) informativ.

In Witcher 3 sehe ich ganz klar, dass 1440p auch 1440p ist (und wenns doch an ist, ist diese Skalierung einfach kacke). Also funktionierts entweder nicht in Witcher 3 (ich kriege die neuen Auflösungen da angezeigt) oder aber die Skalierung ist so kacke, dass es eher wie 1440p aussieht und nicht wie 2160p.

Ich glaube also, dass es erst gar nicht hochskaliert. Daher wäre ein NIS zeichen sehr hilfreich.

Kann man eig. am Overlay vom Afterburner erkennen, ob hochskaliert wird? Also wenn man native 1440p einstellt im Game, dann wird das Overlay ja im Normalfall grösser wie auf nativen 2160p. Wäre das Overlay vom Afterburner mit hochskaliertem 2160p so gross, wie bei nativem 2160p (bei 1440p Renderauflösung) oder wäre es so gross wie natives 1440p?

Was erwartest du vom normalen spartialen Upscaling? Es wird minimal besser aussehen als bilinear. Aber der Unterschied ist nicht groß.

Dazu kommt, dass beim Treiberhochskalieren nicht der Mipmap Bias für Texturen und Geometrie verschoben wird. Das skalierte Bild hat daher genauso viele Informationen wie nativ. Immerhin wird es dann nicht wegen der Unterabtastung Flimmern...

Gast
2021-11-17, 21:59:43
"Deep Learning Uber Sampling" (bitte etablieren :biggrin: ) kommt in ein zweites Spiel - den Landwirtschafts-Simulator 22: https://www.pcgameshardware.de/Landwirtschafts-Simulator-22-Spiel-73290/News/DLSS-und-DLAA-1383784/ :up:

DLAA ist eine völlige Verschwendung für die Technologie, das Beste Verhältnis aus Performande+Qualität gibt es in den niedrigeren DLSS-Stufen.

Anstatt die bestehende Auflösung mit DLAA aufzuwerten hätte man die wesentlich bessere Qualität, wenn man anstatt dessen die Auslösung so weit erhöht bis man gleich schnell ist und stattdessen mit DLSS rendert.

Darkman.X
2021-11-18, 00:33:28
Also bei mir funktioniert das alles nicht. Habe Steam Overlay deaktiviert, kein Afterburner eingeschalten, andere Auflösungen ingame probiert...hilft alles nichts. Ich habe kein NIS zeichen.

Auch wenn es dir nicht weiter hilft: Es liegt nicht an Witcher 3, ich habe bei mir das NIS-Zeichen. Der neue Hotfix-Treiber (496.84), Desktop auf 2160p und Spiel auf 1440p eingestellt. Wichtig ist halt, dass das Spiel auf "Vollbild" eingestellt ist, bei "Randlos" gibt's kein NIS-Zeichen.

Testweise auch in "Ghost Recon Wildlands" ausprobiert (was ich gerade spiele) und auch dort keine Probleme.

(Beim Witcher 3-Screenshot nicht die Bildqualität bewerten. Das sieht auf dem Foto schlimmer aus als in der Realität)

Platos
2021-11-18, 18:02:32
Auch wenn es dir nicht weiter hilft: Es liegt nicht an Witcher 3, ich habe bei mir das NIS-Zeichen. Der neue Hotfix-Treiber (496.84), Desktop auf 2160p und Spiel auf 1440p eingestellt. Wichtig ist halt, dass das Spiel auf "Vollbild" eingestellt ist, bei "Randlos" gibt's kein NIS-Zeichen.

Testweise auch in "Ghost Recon Wildlands" ausprobiert (was ich gerade spiele) und auch dort keine Probleme.

(Beim Witcher 3-Screenshot nicht die Bildqualität bewerten. Das sieht auf dem Foto schlimmer aus als in der Realität)

Ich habe auch Vollbild bei Witcher 3. Habe am Desktop 2160p und ingame 1440p. Habe im nvidia Treiber auch Bildskalierung aktiviert und bei Witcher selbst dann auf globale Einstellung verwenden. Ich habe auch den Haken bei Overlay.

M.M.n ist es auch definitiv nicht eingeschalten. Ich habe auch schon mit FSR Spiele ausprobiert und 4K FSR Quality ist definitv näher an 4k wie an nativem 1440p (auf meinem 4k Display sieht 1440p immer scheisse aus).

Darkman.X
2021-11-18, 20:37:36
Tja, keine Ahnung. Ich könnte nur mit dem Universal-Tipp kommen: Den Treiber mit "DDU" deinstallieren und danach den Treiber neu installieren. Wenn das nicht hilft, dann habe ich keine Ahnung.

Raff
2021-11-19, 00:45:12
Ich habe gerade mal etwas in Industria mit dem Triumvirat aus DLSS, FXAA und NIS (als Sharpener) herumgespielt. Es ist beachtlich, was man damit herausholen kann. FXAA kann DLSS' Aufpixeln/Ausfransen in Bewegung sowie feine Noise glätten (klappt nicht bei groben Brocken), während NIS die Schärfe zurückholt. Damit sieht selbst DLSS Balanced mit UHD-Basis recht anständig aus und läuft um Dimensionen besser als natives UHD. Sicher, dieses In-Reihe-Schalten von Post-Gedöns ist etwas pervers, aber mittlerweile ist es im Grunde normal und kann sich lohnen. :D

MfG
Raff

früherer User
2021-11-19, 01:05:28
Ich habe gerade mal etwas in Industria mit dem Triumvirat aus DLSS, FXAA und NIS (als Sharpener) herumgespielt. Es ist beachtlich, was man damit herausholen kann. FXAA kann DLSS' Aufpixeln/Ausfransen in Bewegung sowie feine Noise glätten (klappt nicht bei groben Brocken), während NIS die Schärfe zurückholt. Damit sieht selbst DLSS Balanced mit UHD-Basis recht anständig aus und läuft um Dimensionen besser als natives UHD. Sicher, dieses In-Reihe-Schalten von Post-Gedöns ist etwas pervers, aber mittlerweile ist es im Grunde normal und kann sich lohnen. :D


Schau dir lieber mal Shadow of the Tomb Raider mit neuem DLSS 2.3.20 an, welches mit einem Game-Update vorgestern nachgeliefert wurde, nicht nur die verpixelten raytraced Schatten gehören damit endlich der Vergangenheit an, auch DLSS kann erwartungsgemäß visuell- und performance-technisch auftrumpfen, der übertrieben hohe Schärfegrad vom vorherigen zurückgezogenen Patch wurde auch etwas zurückgefahren, was ich als sehr angenehm empfinde. :)

ChaosTM
2021-11-19, 02:35:13
Meine Resultate mit NIS waren bisher alle eher desaströs, aber sehr intensiv hab ich mich noch nicht damit auseinander gesetzt.
Konnte auch mit Reshade nicht wirklich warm werden. Erkannte man sofort. Hier liegen meine Erfahrungen aber auch schon ein paar Jährchen zurück.
Die Qualität etwas runter setzen (extreme-> ultra) ist zb. bei Horizon 5 die imho beste Option.
Vielleicht/hoffentlich kriegt das ja noch DLSS..

Geldmann3
2021-11-19, 08:46:40
Bei NIS ist es recht wichtig, dass man es mit einem gut geglätteten Input füttert. Am besten ordentliches TAA. Aber ja, den Gedanken mit DLSS hatte ich auch schon. ;D

@ChaosTM
Da das Spiel keine temporale Kantenglättung besitzt, wird es wahrscheinlich auch kein DLSS bekommen.
Da scheint die Grundlagenarbeit schließlich noch nicht einmal im Ansatz da zu sein.

Troyan
2021-11-20, 11:31:57
DLSS benötigt kein TAA.

Ich habe mal Enlisted mit der 2.3 Version getestet. Ist deutlich besser. Vorallem gibt es kaum noch Moire-Muster und flickernde Geometrie. Beeindruckend, wie flexibel das ganze ist.

robbitop
2021-11-20, 12:18:50
Naja DLSS ist TAA (mit einem wesentlich besserem clamping und einer anderen output resolution). Entsprechend benötigt es natürlich keines.

Troyan
2021-11-20, 12:24:21
Natürlich ist es "TAA", aber es benötigt kein anderes ähnliches Verfahren in einem Spiel. Rise of the Tomb Raider unterstützt nur SMAA und SSAA. Trotzdem konnte DLSS eingebaut werden.

Lurtz
2021-11-20, 12:47:33
Aber mit einem Forward Renderer wie bei Forza Horizon würde es kaum funktionieren, oder?

Platos
2021-11-20, 15:52:06
Bei mir hats nun auch geklappt nach einer Treiberneuinstallation. Funktionier NIS auch in Kombination mit DSR? Bei mir nämlich bisher nicht. Sobald ich DSR Auflösungen verwende, verschwindet das NIS Zeichen komplett.

Aber auf jeden Fall kann man nur 85% der nativen Auflösung (als Renderauflösung) gebrauchen und selbst die sieht eig. schon merklich schlechter aus wie nativ (4k). Wenn man mal keine 60FPS schafft, kann man das nutzen, wenn das Game keinen eigenen Skalierer hat. Ansonsten sehe ich da jetzt keinen grossen Mehrwert. Habe 15% Schärfung genutzt.

Tja, keine Ahnung. Ich könnte nur mit dem Universal-Tipp kommen: Den Treiber mit "DDU" deinstallieren und danach den Treiber neu installieren. Wenn das nicht hilft, dann habe ich keine Ahnung.

Habe nun den Treiber ganz neu installiert (Haken bei Neuinstallation). Jetzt funktioniert es.

robbitop
2021-11-20, 18:54:26
Aber mit einem Forward Renderer wie bei Forza Horizon würde es kaum funktionieren, oder?

Warum nicht? Foreard renderer sind eher dankbarer in Bezug auf Komplexität.