Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3
FunkyChris
2023-02-10, 23:51:49
Es gibt eine neue Version: 3.1.1
blaidd
2023-02-11, 00:48:53
Ist mir in Fortnite allerdings noch nie aufgefallen.
Vielleicht ist das in neueren DLSS-Versionen gefixt. Die in Hogwarts ist ja schon ein bisschen älter - kann ja nicht so schwer sein, da bräuchte's ja eigentlich nur eine Art Obergrenze bzw. "clamp".
The_Invisible
2023-02-11, 08:44:40
https://www.phoronix.com/news/NVIDIA-DLSS-SDK-3.1
Heißt es gibt bald Auto Updates für neue dlss Versionen? Wäre schön irgendwie goil :D
robbitop
2023-02-11, 08:56:01
Das wäre wirklich geil. Eine von vielen sehr sehr guten Software Initiativen.
aufkrawall
2023-02-11, 09:25:29
Die Anwendungen können jetzt das DL-Modell wählen. Weiß noch nicht, was ich davon halten soll. Könnte bedeuten, dass man mit neueren DLLs nicht mehr den Motion Blur betroffener Modelle loswird. Aber vielleicht lieg ich auch falsch.
Scheint so, als würde es mit dieser DLL endlich weniger Pixel Jittering/Rauschen geben, ohne, dass die Bewegtbildschärfe den Bach runtergeht. Es rauscht massiv weniger in Skyrim und bislang keine Fails aufgefallen. *testing intensifies*
robbitop
2023-02-11, 10:19:09
Ich finde es sollte zumindest optional für den User eine Möglichkeit geben, das selbst zu bestimmen. Zu oft scheinen die Studios auf BQ Kontrolle zu kacken und wenn es neuere dlls gibt schaut da auch keiner mehr nach. Wenn der User das selbst auswählen kann, dann hat man zumindest eine Möglichkeit das zu fixen/zu optimieren.
DrFreaK666
2023-02-11, 10:33:24
Ich finde es sollte zumindest optional für den User eine Möglichkeit geben, das selbst zu bestimmen. Zu oft scheinen die Studios auf BQ Kontrolle zu kacken und wenn es neuere dlls gibt schaut da auch keiner mehr nach. Wenn der User das selbst auswählen kann, dann hat man zumindest eine Möglichkeit das zu fixen/zu optimieren.
Das würde viele nur überfordern. Die Nerds haben ja eine Möglichkeit gefunden
robbitop
2023-02-11, 10:38:37
Deswegen sage ich „optional“.
robbitop
2023-02-11, 10:58:50
Ist die 3.1.1 ggf schon die dlss Version, die ein optimiertes NN für den Ultra Performance mode hat?
aufkrawall
2023-02-11, 11:31:28
UP-Verbesserung war schon 2.5.1 (kann natürlich mit 3.1.1 auch noch besser sein). Jemand in einem anderen Forum meinte, DLAA und UP nutzen seit 2.5.1 ein anderes DL-Modell als die anderen Modi. Ich kann das für DLAA aber nicht bestätigen. Es scheint aber nun so zu sein, dass mit 3.1.1 auch DLAA in Skyrim besser aussieht.
2.5.1:
https://abload.de/thumb/oldqni86.png (https://abload.de/image.php?img=oldqni86.png)
3.1.1.:
https://abload.de/thumb/newhkd4e.png (https://abload.de/image.php?img=newhkd4e.png)
Skybox leider leicht anders, Unterschiede sind gering. Aber imho sind sie da, mit der neuen Versionen etwas weniger jaggy.
BlacKi
2023-02-11, 11:39:43
Das wäre wirklich geil. Eine von vielen sehr sehr guten Software Initiativen.
auch dieses tool ist eigentlich unnötig. die meisten multiplayerspiele werden nicht dieses ota einbauen, wegen möglicher probleme mit anticheat. und praktisch alle singleplayer spiele haben die option die dll selbst zu tauschen, und damit für die meisten unnötig. die leute, die wirklich davon profitieren würden, merken nichtmal einen unterschied zwischen den dll.
ich würde mich darüber freuen, wenn die anticheatentwickler ein dll zertifizierungsverfahren der dll aufsetzen würden, damit man sie selber switchen kann, erst dann macht ein auto uptdate tool überhaupt sinn.
aufkrawall
2023-02-11, 11:44:36
ich würde mich darüber freuen, wenn die anticheatentwickler ein dll zertifizierungsverfahren der dll aufsetzen würden, damit man sie selber switchen kann, erst dann macht ein auto uptdate tool überhaupt sinn.
Es nervt, dass du ständig von "Anti-Cheat" allgemein sprichst. Nur, weil du ausgerechnet Tarkov und BF2042 spielst, bei denen es nicht geht, trifft es noch längst nicht auf alle Spiele mit Anti-Cheat zu. Könnte sogar nur die Minderheit sein.
Edit: Leider ist die Bewegtbildschärfe mit dem von nun für Quality genutzten Modell immer noch kacke vs. die DLL von Portal RTX:
https://abload.de/thumb/witcher3_2023_02_11_172dol.png (https://abload.de/image.php?img=witcher3_2023_02_11_172dol.png) https://abload.de/thumb/witcher3_2023_02_11_13herb.png (https://abload.de/image.php?img=witcher3_2023_02_11_13herb.png)
aufkrawall
2023-02-11, 15:06:47
Vielleicht ist das in neueren DLSS-Versionen gefixt. Die in Hogwarts ist ja schon ein bisschen älter - kann ja nicht so schwer sein, da bräuchte's ja eigentlich nur eine Art Obergrenze bzw. "clamp".
Ist nicht via DLSS gefixt, in Hogwarts Legacy gibts das mit der Wasserreflexion genau so mit 2.5.1.
FSR 2 versagt dafür aber beim Bloom von Fenstern in Interiors, die flackern damit im Vergleich zu DLSS oder TAA arg.
Ich vermute, es gibt Bloom-Shader irgendwelche Best Practices, damit der ohne temporale Keule stabil ist. Ggf. ist der in Fortnite dahingehend einfach verbessert.
In Overwatch bringt es gefühlt besonders wenig, so schlecht muss es hier nicht funktionieren.
Die Overwatch Engine ist extrem auf low latency optimiert.
Reduce Buffering macht schon was ähnliches wie Reflex, da kann Reflex eben nicht mehr wahnsinnig viel verbessern.
Lurtz
2023-02-13, 10:37:28
Gibt jetzt eine Mod, mit der auch neuere DLSS2-Versionen in Control funktionieren sollen:
https://community.pcgamingwiki.com/files/file/2581-control-hdr/
Version 1.2 is up. The game is now built with the DLSS 3.1.1 SDK, and uses the new DLSS presets to further increase the quality (and reduce ghosting) (this is NOT frame generation).
...
aufkrawall
2023-02-13, 10:49:00
Die Overwatch Engine ist extrem auf low latency optimiert.
Reduce Buffering macht schon was ähnliches wie Reflex, da kann Reflex eben nicht mehr wahnsinnig viel verbessern.
Das Gegenteil ist der Fall, die spieleigene Latenz-Reduktion bringt fast nichts und die Grundlatenz ist ohne Reflex/in-game Limiter beschissen. Zeigt auch der Battle(non)sense-Test.
...
Ja, weil sich meine Befürchtung wohl leider bestätigt: Es wird nun nach App-ID das DL-Modell gewählt, lässt sich nicht überschreiben und der Standard ist jetzt ein anderes als das der Portal-DLL. Das neue Modell smeart, ghostet und matscht stärker, und man kann das ältere Modell vermutlich nicht mehr durch zukünftige Versionen der 3er DLL erzwingen.
Kann also sein, dass man noch sehr lange die Portal-DLL wird verwenden wollen...
Hab mich aber geirrt bez. Fehler und der HDR-Mod, es sieht auch mit der originalen Version und TAA bei manchen Kanten seltsam aus. Control + Mod also alles super mit der Portal-DLL.
Lurtz
2023-02-13, 12:08:46
Also wenn eine DLL bis 2.5.1 im Verzeichnis liegt, wird das Profil der DLL gewählt, ab 3.1.1 wird das zur App-ID gehörige Modell erzwungen?
Funktioniert das Austauschen bei Spielen, die mit 3.1.1. SDK gebaut wurden, das Überschreiben der DLL überhaupt noch?
robbitop
2023-02-13, 12:19:16
Enthalten denn die DLLs zukünftig alle bisherigen Modelle (aka dlls)? Dann müssten sie ja deutlich größer werden.
aufkrawall
2023-02-13, 12:21:34
Also wenn eine DLL bis 2.5.1 im Verzeichnis liegt, wird das Profil der DLL gewählt, ab 3.1.1 wird das zur App-ID gehörige Modell erzwungen?
Offenbar.
Funktioniert das Austauschen bei Spielen, die mit 3.1.1. SDK gebaut wurden, das Überschreiben der DLL überhaupt noch?
Denke nicht, dass Nvidia auf einmal die Updatebarkeit der DLL verschlechtert.
Enthalten denn die DLLs zukünftig alle bisherigen Modelle? Dann müssten sie ja deutlich größer werden.
Siehst du ja schon in der DL-Übersicht bei TPU.
Die 3.1.1-DLL dort ist übrigens nicht die exakt gleiche wie die aus der Demo von Nvidia aus dem Release-Unterordner. Letztere ist neuer signiert.
aufkrawall
2023-02-13, 20:53:24
Woanders gesehen: Gibt schon eine Mod, mit der man das DLSS-Modell erzwingen kann:
https://github.com/emoose/DLSSTweaks
Edit: Ach so, DLAA erzwingen geht auch.
Bin gerade ziemlich gehypt über Model F, das in Skyrim die anderen Modelle unterm Strich um Dimensionen schlägt. Kann mich nicht erinnern, dass das mit einer der alten DLLs mit "hard-coded" Modell jemals so gut ausgesehen hätte. :eek:
Oliver_M.D
2023-02-13, 21:33:46
Wrapper DLL that can force DLAA onto DLSS-supported gamesIch wünsche mir, dass mehr Spiele DLAA unterstützen.Damit wäre das problem wohl gelöst:D
Tesseract
2023-02-13, 21:37:33
vielleicht kommt damit irgendwann die möglichkeit das model im treiber/inspector zu überschreiben, inkl. DLAA.
aufkrawall
2023-02-13, 21:48:38
Huh, in Witcher 3 sieht Model F auch mit Abstand am besten aus: Am wenigsten Rauschen und Smearing gleichzeitig, Motion Blur-Neigung auch deutlich geringer als beim "traily" Modell D. Gibt etwas mehr temporales Aliasing, aber das kann auch am verringerten Smearing liegen.
Hatte auch das "gute, alte" 2.2.6 wieder in Skyrim getestet: Man, sieht das im Vergleich scheiße aus. :freak:
Lurtz
2023-02-13, 22:05:52
Blöde Frage, was macht man mit der dxgi.dll wenn man zusätzlich Reshade verwenden will? Kann man dann die von Reshade belassen?
Edit:
Funktioniert nicht, dann schreibt er das Log nicht mehr, kann also nicht mehr injecten.
aufkrawall
2023-02-13, 22:14:06
Steht ja in der Readme:
; The default dxgi.dll filename should hopefully work for the majority of games, otherwise you can try renaming it to any of the following:
; - XInput1_3.dll
; - XInput9_1_0.dll
; - XAPOFX1_5.dll
; - X3DAudio1_7.dll
; - dxgi.dll
; If you have a game that doesn't work with any of these please let me know!
Hatte es schon in Witcher 3 mit ReShade am laufen.
Oh mein Gott, sieht Modell F gut aus in Hitman 3. :eek:
So eine geniale Bildruhe bei so hoher Bildstabilität, Kanten sind weicher, Smearing ist reduziert... :eek:
Lurtz
2023-02-13, 22:17:16
Ok, dachte das geht nur als Fallback wenn dxgi.dll nicht funktionieren sollte.
F war in Cyberpunk 2077 gerade auch schon sehr viel versprechend.
Wie unfassbar mies TAA verglichen damit einfach aussieht :ugly: :ugly:
aufkrawall
2023-02-13, 22:38:28
Seht ihr irgendwelche Nachteile mit F? Ich seh bislang nur Vorteile. Wie kann das sein? 960p. :freak:
https://abload.de/thumb/hitman3_2023_02_13_22midti.png (https://abload.de/image.php?img=hitman3_2023_02_13_22midti.png)
FunkyChris
2023-02-13, 22:59:39
Damit wäre das problem wohl gelöst:D
Wie cool, gleich mal testen :cool:
Ex3cut3r
2023-02-13, 22:59:59
Ich verstehe gar nichts mehr. :freak:
Könnte mir mal einer erklären was Modell F ist? Aber bitte so, als wenn ich 4 Jahre alt wäre.
Danke!
FunkyChris
2023-02-13, 23:00:01
Ist "Model F" DLAA?
Tesseract
2023-02-13, 23:08:52
die volle DL-keule, also DLAA+DLDSR+FG hat serious 8xSGSSAA vibes bei immer noch höhren fps als native. :freak:
Könnte mir mal einer erklären was Modell F ist? Aber bitte so, als wenn ich 4 Jahre alt wäre.
quality, balanced, DLAA, etc. sind die internen auflösungen, die models scheinen die versionen vom NN zu sein.
aufkrawall
2023-02-13, 23:13:00
Könnte mir mal einer erklären was Modell F ist?
Nvidia shipt unterschiedliche Modelle davon, wie das neuronale Netzwerk trainiert ist, mit entsprechend unterschiedlichen Ergebnissen.
Modell F scheint besser auszusehen als die anderen. Vielleicht signalisiert der Buchstabe auch, dass es neuer ist als die anderen, aber ist nur Mutmaßung.
Ist "Model F" DLAA?
Denke nicht, dass das so fix zugeordnet ist/war. Mit der Portal RTX-DLSS-DLL sieht auch DLAA anders aus als etwa mit der DLL von Witcher 3.
Wenn man es genau wissen will, kann man sich das genutzte Modell mit dem Debug-Overlay von DLSS anzeigen lassen.
Edit: Der Unterschied zwischen Quality und Performance ist so natürlich auch nochmal deutlich geringer geworden:
https://abload.de/thumb/kena-win64-shipping_2pyfb5.png (https://abload.de/image.php?img=kena-win64-shipping_2pyfb5.png) https://abload.de/thumb/kena-win64-shipping_2ejij9.png (https://abload.de/image.php?img=kena-win64-shipping_2ejij9.png)
Sieht ganz nach dem krassesten AA/Upsampling-Sprung seit DLSS 2 aus.
AwesomeSauce
2023-02-13, 23:37:16
Ist "Model F" DLAA?
Aus dem Programming Guide:
Preset A (intended for Perf/Balanced/Quality modes):
An older variant best suited to combat ghosting for elements with missing inputs (such as motion vectors)
Preset B (intended for Ultra Perf mode):
Similar to Preset A but for Ultra Performance mode
Preset C (intended for Perf/Balanced/Quality modes):
Preset which generally favors current frame information. Generally well-suited for fastpaced game content
Preset D (intended for Perf/Balanced/Quality modes):
The default preset for Perf/Balanced/Quality mode. Generally favors image stability
Preset E (Unused)
Preset F (intended for Ultra Perf/DLAA modes):
The default preset for Ultra Perf and DLAA modes.
aufkrawall
2023-02-13, 23:44:25
Top Info. :up:
Das ist dann neu mit den 3.xer DLLs (und Spiele-spezifischen Override von Nvidia gibt es ja zusätzlich auch).
In Spiderman gibt es mit F für Quality mehr Trailing bei sich bewegenden Objekten, weshalb sich C (wird das "klassische" 2.3.9 sein) dort empfiehlt.
Tippe, das hängt auch an spezifischen Eigenschaften der Bewegungsvektoren. In Hitman, Kena etc. sieht F bislang hervorragend aus, viel besser als D. Ich halte D wegen der Trailing-Problematik + zusätzlichen Motion Blur für einen schlechten Default.
A & B sollte man eher meiden, zu miese Bildstabilität und ohne offensichtlich kaputte Bewegungsvektoren auch nicht weniger Smearing.
Edit: Wie erwartet, gibts auch bei DLAA mit F das Trailing-Problem in Spiderman:
https://abload.de/thumb/spider-man_2023_02_13dbixr.png (https://abload.de/image.php?img=spider-man_2023_02_13dbixr.png)
Also kein Unterschied zu Upsampling. Würde daher Stand jetzt auch mit Upsampling immer erst F probieren.
FunkyChris
2023-02-14, 00:14:32
Sehr coole Sache. Habe F + DLAA in Cyberpunk getestet mit aktivierter FG. Funktioniert sehr gut :biggrin:
Edit: In Cyberpunk läuft allerdings doch nicht ganz sauber. Im allerersten Tutorial habe ich beim Stealth killen (wenn man den Gegner im Schwitzkasten hat) und beim Schwertkampf massives Stuttering. Lasse ich es hingegen mit normalem Quality DLSS laufen (also nicht DLAA), läuft es sauber durch.
Edit 2: Es scheint eher ein Problem der FG und der Auflösung zu sein. Das Stuttering tritt bei mir auch mit deaktiviertem DLSS und aktivierter FG in nativer Auflösung (1440p) auf. Sobald man das "echte" DLSS Q aktiviert, ist das Stuttering weg. Umgedreht, ohne FG läuft es dann auch in höheren Auflösungen (mit oder ohne DLSS) flüssig durch.
robbitop
2023-02-14, 08:07:12
Das ist ja mal richtig genial! :up:
Wäre natürlich nett, wenn NV das als "expert setting" auch einfach über die NVAPI exponiert oder gleich im Controlpanel. Wieder ein tool mehr im Werkzeuggürtel! :)
DrFreaK666
2023-02-14, 08:12:22
Wie wendet man das genau an? Gibt's irgendwo ne Anleitung?
Lurtz
2023-02-14, 10:05:10
nvngx_dlss.dll in Version 3.1.1.0 ins Verzeichnis der jeweiligen Exe kopieren und die bestehende Version überschreiben.
dlsstweaks.ini und dxgi.dll vom DLSS-Tweak ebenso. Falls man Reshade verwenden möchte, was ebenfalls eine dxgi.dll liefert, muss man die dxgi.dll vom DLSS-Tweak umbenennen. Bei DX12 sollte zB XInput9_1_0.dll funktionieren.
In der INI konfiguriert man das gewünschte Modell und ob die Erkennung per App-ID ausgeschaltet werden soll. Ist alles in der INI kommentiert, was man wo einstellen kann.
Wenn man das Schreiben der Debug-Logdatei aktiviert hat, kann man durch Vorhandensein der Datei erkennen, ob das Injecten funktioniert.
DrFreaK666
2023-02-14, 10:17:31
ok. Ich lads mal runter und les es mir in der ini durch
aufkrawall
2023-02-14, 10:47:18
Gibt schon neue Builds mit Support für Vulkan und optional erzwungener Auto Exposure.
Von dem ausufernden Gefrickel abgesehen :freak: , ein wahr gewordener Traum. :biggrin:
Lurtz
2023-02-14, 11:17:32
Wäre mal an der Zeit eine Online-Tabelle anzulegen, in der man Empfehlungen festhält.
Vorschläge, was darin enthalten sein sollte?
aufkrawall
2023-02-14, 11:22:07
-Dateiname für Nutzung neben ReShade
-"bestes" Modell (heißt imho, entweder F, oder in Problemfällen wie Spiderman C)
-Auto-Exposure on/off?
-DLL-Version für Multiplayer-Spiele, bei denen man den Modell-Override nicht nutzen kann (heißt imho auch immer Portal RTX 2.5.1 DLL für Modell C)
-beste Sharpen-Alternative, falls ReShade nicht geht
robbitop
2023-02-14, 11:39:31
Auto Exposure scheint bei Ghosting zu helfen. Gibt es dafür irgendwelche Nachteile? Sonst wäre es ja per default on oder?
Ist auto exposure bisher dll abhängig gewesen oder Anwendungsabhängig?
Was genau macht Auto Exposure/wie funktioniert es?
aufkrawall
2023-02-14, 12:48:31
Seite 25:
Using the main exposure parameter (see above) is the preferred method, however in some situations,
taking advantage of the optional auto-exposure feature in the DLSS library can provide improved results.
https://raw.githubusercontent.com/NVIDIA/DLSS/main/doc/DLSS_Programming_Guide_Release.pdf
Auf den vorangehenden Seiten kann man schön lesen, was Entwickler offenbar oft nicht optimal machen. Da nützt dann auch das Austauschen irgendwelcher DLLs nichts.
robbitop
2023-02-14, 13:51:03
Sehr gutes Dokument! Danke dafür :up:
Ja du hast Recht - unglaublich viele Optionen, denen man folgen sollte, um eine gute Implementierung hinzubekomen (oder eben auch nicht). Aber gut, dass NV auch ein paar Mechanismen hat (wie Auto Exposure) um aus mittelmäßigen noch was zu retten.
RDR2 bspw scheint keine besonders gute Implementierung zu haben. Selbst mit neuen DLLs gibt es Ghosting bei manchen Objekten und die Strommasten sind immernoch Betroffen von disocclusion Problemen. (ist das Spiel was ich zuletzt gesuchtet habe und ich deswegen intensiver betrachtet hab)
aufkrawall
2023-02-14, 14:02:04
Gerade in GoW getestet, erzwungene Auto Exposure verringert hier offenbar wirklich das Smearing bei fliegenden Möwen etc. .
Gut vorstellbar, dass es auch in RDR2 oder Watch Dogs Legion viel bringen könnte. Für RDR2 machte das ja auch extra der Patcher.
In Kena hab ich bislang keinen Unterschied festgestellt, hier reduziert Preset F das Smearing aber schon gewaltig. Wie auch in Hitman, Doom Eternal, Tiny Tina Wonderlands und Skyrim. Ist wirklich full of win, wenn es richtig funktioniert (was offenbar meist der Fall ist). Womöglich der größte Sprung seit DLSS 2, kann man kaum überbetonen.
robbitop
2023-02-14, 14:10:35
Ist auf jeden Fall noch sehr friemelig damit der User das beste rausholen kann. Wäre ziemlich gut von NV, wenn es da ein schönes tool geben würde oder man das in GFE integrieren könnte. Idealerweise von NV kuratiert so, dass man es entweder per one-click optimieren kann und optional halt als Expert setting verändern kann. So oder so ähnlich könnte man die Vorteile ja auch in die Masse der User bringen.
aufkrawall
2023-02-14, 14:50:53
Auf jeden Fall. Wär dann auch eigentlich gar nicht mehr nötig, dass die Anwendungen überhaupt noch selbst die DLL shippen. Ist ja jetzt offenbar zu 100% abwärtskompatibel.
Edit: Preset F und forcierte Auto-Exposure scheinen sehr gut in RDR2 auszusehen.
Ex3cut3r
2023-02-14, 16:35:45
Wenn ich die dxgi.dll umbenenne mit irgendeiner alternative aus der Readme. Funktioniert das DebugLog nicht mehr. Wie kann ich Reshade mit DLSSTweaks kombinieren und gleichzeitig das Debug Log erhalten?
Ich bin mir unsicher ob das Modell läuft wenn ich kein Log im Hauptverzeichnis das wo die exe und Ini liegt, habe.
Für God of War:
ForceDLAA = false
ForceAutoExposure = false
OverrideAppId = false
DLAA = F
Quality = F
Balanced = F
Performance = F
UltraPerformance = F
dxgi.dll in XInput1_3.dll umbenannt + Reshade
Lurtz
2023-02-14, 16:49:47
Hast du alle Alternativen probiert? Bei Cyberpunk, Witcher 3 und God of War funktioniert XInput9_1_0.dll bei mir.
Ex3cut3r
2023-02-14, 16:53:30
Habe ne andere Lösung gefunden zumindest für Gow (DX11) man kann die reshade dxgi.dll in d3d11.dll umbenennen und dann die dxgi.dll vom DLSS Tweaks reinkopieren und man hat dann beides Reshade Overlay mit funktionierenden DLSS Tweaks Log.
DLSSTweaks v0.123.8, by emoose: DLL wrapper loaded, watching for DLSS library load...
Applied _nvngx.dll DLL export hooks, waiting for game to call them...
DLSS functions found & parameter hooks applied!
EDIT: Dann funktioniert das AB OSD aber nicht mehr. Mann, so ne Frickel Scheiße, steig wieder auf die 2.5.1 dll um. Ist doch kacke und sehe keinen Unterschied. Drauf geschissen. :freak:
Lurtz
2023-02-14, 17:06:17
Mit XInput9_1_0.dll funktionieren alle drei Anwendungen.
Ex3cut3r
2023-02-14, 17:36:36
Mit XInput9_1_0.dll funktionieren alle drei Anwendungen.
Welche dxgi.dll umbenannt mit diesen Namen die von Reshade? Oder die von DLSS Tweaks?
Sobald ich die dxgi.dll von DLSS Tweaks in irgendwas anderes umbenenne, funktioniert das log nicht mehr, wird also nicht injeceted?
teezaken
2023-02-14, 18:07:17
Gerade in GoW getestet, erzwungene Auto Exposure verringert hier offenbar wirklich das Smearing bei fliegenden Möwen etc. .
Gut vorstellbar, dass es auch in RDR2 oder Watch Dogs Legion viel bringen könnte. Für RDR2 machte das ja auch extra der Patcher.
In Kena hab ich bislang keinen Unterschied festgestellt, hier reduziert Preset F das Smearing aber schon gewaltig. Wie auch in Hitman, Doom Eternal, Tiny Tina Wonderlands und Skyrim. Ist wirklich full of win, wenn es richtig funktioniert (was offenbar meist der Fall ist). Womöglich der größte Sprung seit DLSS 2, kann man kaum überbetonen.
Meinst du God of War? Das hat doch schon Auto Exposure von sich aus aktiv? Eigentlich meine ich sogar praktisch jedes "aktuelle" DLSS Game, so aus dem Gedächtnis fällt mir Control ein wo es z.B. aus ist.
aufkrawall
2023-02-14, 18:15:24
Habs nicht mit der Developer-DLL gegen getestet, es schien aber mit Preset D ohne wirklich übel auszusehen. RDR2 nutzt es jedenfalls garantiert nicht standardmäßig.
teezaken
2023-02-14, 18:23:26
Habs nicht mit der Developer-DLL gegen getestet, es schien aber mit Preset D ohne wirklich übel auszusehen. RDR2 nutzt es jedenfalls garantiert nicht standardmäßig.
Geht ja auch ohne DEV DLL, deswegen habe ich das Log auch aus, wenn es geht sehe ich das ja im Overlay:
Overlay unten Links aktiv
[HKEY_LOCAL_MACHINE\SOFTWARE\NVIDIA Corporation\Global\NGXCore]
"ShowDlssIndicator"=dword:00000400
und deaktiviert
[HKEY_LOCAL_MACHINE\SOFTWARE\NVIDIA Corporation\Global\NGXCore]
"ShowDlssIndicator"=dword:00000000
Aber ja, glaube RDR2 hatte es auch nicht genutzt, auch ist DLAA für mehr Spiele immer gut, God of War mit 4k DLAA und 116 Fps mit Reflex sehen sehr sauber aus.
aufkrawall
2023-02-14, 18:35:10
Geht ja auch ohne DEV DLL, deswegen habe ich das Log auch aus, wenn es geht sehe ich das ja im Overlay:
Ok, dann lade ich es nochmal (schon wieder gelöscht wegen Augenschmerzen...).
Das Spiel kann DLAA in 4k jedenfalls gut vertragen, Preset F kann bei dem Geflimmer mit Upsampling auch keine Wunder bewirken. Die richtige Magic damit sieht man eher in anderen Titeln wie Hitman oder Skyrim.
Kurioserweise (wenn auch nicht völlig überraschend) ist DLAA Preset F ziemlich zickig, was das Geflimmer mit negativem LOD-Bias angeht. Die Bildruhe in Skyrim nimmt mit -1 schon deutlich ab, Preset C/D sind hier konstanter (aber trotzdem schlechter). Sollte man bedenken, wenn man DLAA erzwingt. Das Spiel dürfte dann ja weiterhin das negative Bias für die eingestellte Upsampling-Stufe anwenden.
Edit: Auto-Exposure ist standardmäßig an in GoW, Preset D sieht nur einfach ständig so kacke aus...
Komischerweise fehlt der Auto-Exposure-Teil des OSDs in Skyrim.
blaidd
2023-02-14, 19:35:19
Ist nicht via DLSS gefixt, in Hogwarts Legacy gibts das mit der Wasserreflexion genau so mit 2.5.1.
FSR 2 versagt dafür aber beim Bloom von Fenstern in Interiors, die flackern damit im Vergleich zu DLSS oder TAA arg.
Es ist in Hogwarts teilweise absolut heftig in hellen Innenräumen mit spiegelnden Böden (inklusive glänzenden Ritterrüstungen und Stuff) – insbesondere bei aggressiveren Faktoren und niedrigen Auflösungen. Das sieht da wirklich aus wie Disko. Michael-Bay-Disko für Arme.
FSR (DLSS auch, aber weniger) schmiert auch bei Dis-Occlusion von Alpha-Test-Texturen, die von Alpha-Test-Texturen verdeckt wurden (z.B. ein Ast von einem Baum, der einen anderen Ast von einem anderen Baum verdeckt – das gibt Schmierensuppe feinster Güte^^)
Ich vermute, es gibt Bloom-Shader irgendwelche Best Practices, damit der ohne temporale Keule stabil ist. Ggf. ist der in Fortnite dahingehend einfach verbessert.
Ja, sowas in die Richtung habe ich auch schon theoretisiert – DLSS zieht eventuell bei vorher verdeckten Pixeln die Helligkeit auf und "betont" diese, damit sie bei der temporalen Verrechnung nicht zu sehr "vermischt" werden und dadurch undeutlich werden. AMD macht bei FSR 2.x was Ähnliches, ich schätze, es verhält sich so ähnlich bei Nvidia. Was ich wiederum nicht ganz verstehe, ist, warum das nur bei DLSS auftritt, aber nicht (in dieser Form) mit FSR oder XeSS oder auch nur einem TAA-Upsampling.
Und der Bloom-Shader springt dann auf diese einzelnen, für einen Frame sichtbar stark betonten Pixel an und produziert Lensflares als gäbe es kein Morgen (weil er "denkt", das helle Pixel würde eine blendend strahlende Lichtquelle darstellen). In einigen Spielen ist entweder der Bloom-Shader besser auf temporale Verrechnungen ausgelegt (oder generell unauffälliger bzw. weniger Michael-Bay-y) oder DLSS wurde dahingehend auf etwas weniger "drastisch" abgestimmt (Clamping mit Bezug auf umliegende Pixel? Oder sowas?).
Ex3cut3r
2023-02-14, 19:47:27
Geht ja auch ohne DEV DLL, deswegen habe ich das Log auch aus, wenn es geht sehe ich das ja im Overlay:
Overlay unten Links aktiv
[HKEY_LOCAL_MACHINE\SOFTWARE\NVIDIA Corporation\Global\NGXCore]
"ShowDlssIndicator"=dword:00000400
und deaktiviert
[HKEY_LOCAL_MACHINE\SOFTWARE\NVIDIA Corporation\Global\NGXCore]
"ShowDlssIndicator"=dword:00000000
Aber ja, glaube RDR2 hatte es auch nicht genutzt, auch ist DLAA für mehr Spiele immer gut, God of War mit 4k DLAA und 116 Fps mit Reflex sehen sehr sauber aus.
Funktioniert danke.
Neue Erkenntiss. Ändere ich die DXGI.dll in z.B. XInput9_1_0.dll wird das Preset F nicht mehr übernommen. Sondern D wird angezeigt. Lösche ich ReShade und ändere die XInput9_1_0.dl wieder zu dxgi.dll wird auch wieder das Preset F übernommen. Stand jetzt, einfach nicht kompatibel zu Reshade. Und daher nicht gebrauchen!
aufkrawall
2023-02-14, 20:15:13
Hier gehts:
https://abload.de/thumb/cyberpunk2077_2023_02s5cbz.png (https://abload.de/image.php?img=cyberpunk2077_2023_02s5cbz.png)
Model F ghostet an den Laternen massiv weniger.
Oliver_M.D
2023-02-14, 20:25:01
einfach nicht kompatibel zu Reshade. Und daher nicht gebrauchen!Klar geht es, macht in manchen spielen nur mehr Zicken als in anderen. Uncharted 4 und Judgement machen zum Beispiel keine Probleme, dafür bekomme ich es in Spiderman mit ReShade nicht zum laufen.
Ex3cut3r
2023-02-14, 20:35:42
Hier gehts:
https://abload.de/thumb/cyberpunk2077_2023_02s5cbz.png (https://abload.de/image.php?img=cyberpunk2077_2023_02s5cbz.png)
Model F ghostet an den Laternen massiv weniger.
In God of War krieg es nicht zum laufen, mal geht beides. Dann will das AB OSD aber nicht mehr. :redface:
Wie hast du die reshade dxgi.dll genannt?
In God of War krieg es zumindest nicht ans laufen. Mit Modell F und Reshade.
Irgendwelche anderen RTSS Einstellungen?
https://abload.de/img/screenshot2023-02-142xci8m.png
Außerdem glaube ich, dass Model F mit 3.1.1 DLL wieder mehr Unschärfe bei Bewegung hat. Als die 2.5.1 dll Oder Spinne ich?
DrFreaK666
2023-02-14, 20:38:04
Ist NIS nicht zu gebrauchen, wenn der Rest vom Bild besser ist oder sind mehr Artefakte mit CAS besser?
Sieht sieht es eigentlich mit der Performance zwischen den verschiedenen Versionen aus?
Ex3cut3r
2023-02-14, 20:51:07
Was interessiert einen NIS mit RTX Karte und DLSS Feature?
NIS ist von der Bildquali auf FSR 1.0 Niveau. FSR 2.0 wurde ich als GTX User immer beiden vorziehen. Deshalb ist NIS und FSR 1.0 auch IHMO tot.
DrFreaK666
2023-02-14, 20:55:33
Bei 100% Skalierung sollte bei NIS nur der Schärfefilter aktiv sein. Oder funktioniert das nicht?
aufkrawall
2023-02-14, 21:01:41
In God of War krieg es nicht zum laufen, mal geht beides. Dann will das AB OSD aber nicht mehr. :redface:
Wie hast du die reshade dxgi.dll genannt?
In God of War krieg es zumindest nicht ans laufen. Mit Modell F und Reshade.
Hab die ReShade-DLL nicht umbenannt.
Habs in HZD aber auch nicht beides gleichzeitig ans Laufen gekriegt. Pech und auf eine Lösung warten/hoffen. :)
Außerdem glaube ich, dass Model F mit 3.1.1 Reshade wieder mehr unschärfe bei Bewegung hat. Als die 2.5.1 dll Oder Spinne ich?
Die Bewegungsunschärfe sieht mir generell ähnlich zu Preset C aus, auf jeden Fall deutlich weniger als D. Die Kanten sind aber weicher, da kann man etwas mit der Sharpen-Stärke nach oben gehen.
Ich seh immer noch nicht, wo ich D nutzen wollte.
Lurtz
2023-02-14, 21:31:22
Funktioniert danke.
Neue Erkenntiss. Ändere ich die DXGI.dll in z.B. XInput9_1_0.dll wird das Preset F nicht mehr übernommen. Sondern D wird angezeigt. Lösche ich ReShade und ändere die XInput9_1_0.dl wieder zu dxgi.dll wird auch wieder das Preset F übernommen. Stand jetzt, einfach nicht kompatibel zu Reshade. Und daher nicht gebrauchen!Komisch, F funktioniert hier definitiv mit XInput9_1_0.dll, nur mit den anderen nicht. Dass Reshade unter DX11 gerade nicht geht, liegt an einem Bug in Reshade 6.0.
(https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13228932#post13228932)
https://abload.de/img/screenshot2023-02-1420ycvg.jpg
Lurtz
2023-02-14, 22:32:54
In Uncharted kriege ich es auch nicht hin mit F + Reshade, da crasht es mit XInput9_1_0.dll sofort und die anderen liefern nur D.
ChaosTM
2023-02-14, 22:38:01
In Uncharted machts auch wenig Sinn. Selbst 4k alles max kostetet meiner 90er nur
20% GPU Power @ 60fps. NATIVE.
Ist nicht repräsentativ - aber fuck you DLSS/FSR ;)
Ich mag beide Upscaler, aber nur wenn nötig.
Gott1337
2023-02-14, 23:14:40
Ist auf jeden Fall noch sehr friemelig damit der User das beste rausholen kann. Wäre ziemlich gut von NV, wenn es da ein schönes tool geben würde oder man das in GFE integrieren könnte. Idealerweise von NV kuratiert so, dass man es entweder per one-click optimieren kann und optional halt als Expert setting verändern kann. So oder so ähnlich könnte man die Vorteile ja auch in die Masse der User bringen.
Für die Masse der user ist ja auch das auto-update da. Also egal was Nvidia macht es wird gemeckert...
@Chaos, das macht keinen Sinn, dann benutz doch DLAA.
TAA ist doch das größere Problem und verursacht viel mehr grafische Fehler als das upscaling selbst
Ex3cut3r
2023-02-14, 23:22:51
Komisch, F funktioniert hier definitiv mit XInput9_1_0.dll, nur mit den anderen nicht. Dass Reshade unter DX11 gerade nicht geht, liegt an einem Bug in Reshade 6.0.
(https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13228932#post13228932)
https://abload.de/img/screenshot2023-02-1420ycvg.jpg
Genial, ich danke dir, funktioniert nun auch wieder mit DX11 (GoW)
Alle 3 Sachen klappen. Juhu, Modell F, Reshade und AB OSD. :smile:
https://abload.de/thumb/gow_2023_02_14_23_20_9wiiv.png (https://abload.de/image.php?img=gow_2023_02_14_23_20_9wiiv.png)
Model F Performance + CAS via Reshade ist schon nicht übel (y)
Das ist fucking 1080p interne Auflösung -> Aufgebläht/Upscaled auf natives 4K.
2wA-LYF0tLE
Ex3cut3r
2023-02-15, 04:34:38
In Uncharted kriege ich es auch nicht hin mit F + Reshade, da crasht es mit XInput9_1_0.dll sofort und die anderen liefern nur D.
Habs hinbekommen. So gehts:
Die dxgi.dll von DLSS Tools reinkopieren, diese so namentlich lassen. Install Reshade und die Reshade dxgi.dll in d3d12.dll umbenennen. :up:
https://abload.de/thumb/u4_2023_02_15_04_32_0m7cq2.png (https://abload.de/image.php?img=u4_2023_02_15_04_32_0m7cq2.png)
Ja, der Screenshot ist überschärft. I know. Habs mit dem CAS Wert etwas übertrieben, aber dieses Model F ist mit CAS echt sehr, sehr gut. Wahnsinn. Krawall hat recht.
robbitop
2023-02-15, 09:30:00
Zur "Not" kann man ja noch die Nvidia Schärfefilter von GFE nutzen, wenn Reshade nicht geht. Die haben IIRC 2x Schärfefilter und einer davon ist IIRC auch adaptiv wie CAS (aber schlechter).
In Uncharted machts auch wenig Sinn. Selbst 4k alles max kostetet meiner 90er nur
20% GPU Power @ 60fps. NATIVE.
Ist nicht repräsentativ - aber fuck you DLSS/FSR ;)
Ich mag beide Upscaler, aber nur wenn nötig.
Man kann DLSS aber auch zur Qualitätssteigerung nutzen. Also DLAA statt TAA ist eigentlich immer besser. Und wenn DLAA nicht geht, renderst du halt mit nativer Auflösung und bläst es mit DLSS auf und downsampelst mit (DL)DSR. Dann bekommst du ein Qualitätsupgrade.
Für die Masse der user ist ja auch das auto-update da. Also egal was Nvidia macht es wird gemeckert...
Ich sehe das überhaupt nicht als "Gemecker" sondern als konstruktive Kritik für Verbesserung. Out of the box wird leider Potenzial liegen gelassen was man oft bergen kann (auto exposure, neuere dll, besseres Modell). Nvidia könnte mit vertretbarem Aufwand DLSS noch besser in der Praxis machen. Also in dem man die Settings pro Spiel prüft, kurartiert/optimiert und als "one click optimization" in GFE hinterlegt. Ließe sich sicherlich auch gut bewerben mit noch mehr BQ.
gnomi
2023-02-15, 12:08:40
Jo. Bessere OOTB Lösungen wären toll.
Erinnert mich an die AA Bits früher.
Ist schon der Hammer, was sich machen lässt.
Nur so ein Gefrickel geht für mich persönlich mittlerweile kaum noch.
Finde auch, die Software seitige Arbeit kann sich gerne nvidia bei den GPU Preisen machen. :wink:
aufkrawall
2023-02-15, 12:23:14
Die dxgi.dll von DLSS Tools reinkopieren, diese so namentlich lassen. Install Reshade und die Reshade dxgi.dll in d3d12.dll umbenennen. :up:
Hervorragender Tipp, geht auch in HZD. :up:
Wobei ich mir noch nicht sicher bin, dass F hier besser aussieht als C. F smeart auf jeden Fall deutlich weniger, hat aber etwas mehr temporale Instabilität im dichten Dschungel und etwas mehr Disocclusion-Unschärfe um ehemals verdeckte Bereiche.
Ex3cut3r
2023-02-15, 12:52:29
Kein Prob. :up:
Ist in Control ziemlich geil, vor allem mit der aufgebohrten RT Mod. Allerdings ist die 3080 Ti ein wenig am ende.
Das ist echt heftig. Ich erkenne kaum noch einen Unterschied bei Nativen 4K @ 32" :o
Selbst Performance nun absolut gut.
DLSS 3.1.1 DLL + Model F siehe linke Ecke unten.
Nativ:
https://abload.de/img/control_dx12_2023_02_9ufpq.png
DLSS P (1920x1080 interne Auflösung)
https://abload.de/img/control_dx12_2023_02_9df3m.png
DLSS Q (2560x1440 interne Auflösung)
https://abload.de/img/control_dx12_2023_02_49fc5.png
Muss vlt. nur noch das Sharpening (Reshade CAS) etwas nach unten korrigieren im Performance Modus und bin good to go. :daumen:
aufkrawall
2023-02-15, 14:21:08
Der DLAA-Modus braucht in Skyrim im Standbild mit F jedenfalls deutlich mehr Sharpen als mit C. Dafür ist aber die Bewegungsunschärfe bei größtenteils unverdeckten Bereichen deutlich geringer bzw. nach Sharpen deutlich besser.
Edgecrusher86
2023-02-15, 18:03:20
https://github.com/emoose/DLSSTweaks/files/10733125/dlsstweaks-0.123.9beta.zip
; Ratios/multipliers applied to each axis of screen resolution
; Set to 1 to force this quality level to use full resolution (ie. DLAA)
; ForceDLAA must be disabled above for these to take effect!
UltraPerformance = 0.33333334
Performance = 0.5
Balanced = 0.58
Quality = 0.66666667
UltraQuality = 0.77
Hm, einen offiziellen UQ Mode gibt es ja (noch) nicht. Ob man dann den Wert von z.B. Q bearbeiten muss? Gute Frage.
FunkyChris
2023-02-15, 20:14:07
Model F ist bei DLAA ist aber nicht immer die beste Wahl tatsächlich. F blurrt in Metro Exodus ziemlich stark das Bild nach. Standard ist dort "A", was aber deutlich besser passt.
aufkrawall
2023-02-15, 20:29:47
Das mit dem Blur hat das Modell offenbar so an sich, DLSS Q braucht dann kurioserweise nicht mehr so viel mehr Sharpen als DLAA. Ich denke aber, dass es das durch die anderen Vorteile trotzdem wert ist. Die Schärfe-Diskrepanz zwischen Stand- und Bewegtbild ist massiv geringer.
Lurtz
2023-02-15, 21:30:20
In Uncharted machts auch wenig Sinn. Selbst 4k alles max kostetet meiner 90er nur
20% GPU Power @ 60fps. NATIVE.
Ist nicht repräsentativ - aber fuck you DLSS/FSR ;)
Ich mag beide Upscaler, aber nur wenn nötig.
Sorry, aber was soll solches Off-Topic in einem Thread, wo es explizit um DLSS geht? :confused:
Und ja ich habe auch Uncharted mit FSR2/DLSS2 gespielt.
Habs hinbekommen. So gehts:
Die dxgi.dll von DLSS Tools reinkopieren, diese so namentlich lassen. Install Reshade und die Reshade dxgi.dll in d3d12.dll umbenennen. :up:
:up:
ChaosTM
2023-02-15, 21:51:12
Sorry, aber was soll solches Off-Topic in einem Thread, wo es explizit um DLSS geht? :confused:
Und ja ich habe auch Uncharted mit FSR2/DLSS2 gespielt.
:up:
hat hier nix verloren, das stimmt schon...
Edgecrusher86
2023-02-16, 10:52:12
Mit obiger Beta kann man auch eigene Faktoren bestimmen, etwa 0.85, also quasi Ultra Quality+.
kleine Ausschnitte (ohne Registry-Overlay)
6880x2880 @ DLSS Q orig. - 67%
https://steamuserimages-a.akamaihd.net/ugc/2057618758028537877/8C6CFC31E1F0D73F901C3423CE39D223318D5E5C/
6880x2880 @ DLSS Q - 77%
https://steamuserimages-a.akamaihd.net/ugc/2057618758028547630/1FF7F651AA17E3FBABCE61D1004AAF2DD9EA3F10/
6880x2880 @ DLSS Q - 87%
https://steamuserimages-a.akamaihd.net/ugc/2057618758028536310/9D763259A7B723E03139EAA30B01A606E0A5E62B/
robbitop
2023-02-16, 14:03:08
Gibt es da deutlich sichtbare Unterschiede zwischen Quality (67%) und ~85%?
Troyan
2023-02-16, 16:19:01
Gibt ein Mod für Resident Evil Engine: https://www.reddit.com/r/pcgaming/comments/113477m/resident_evil_dlssdlaafsr2xess_vs_built_in_aa/
DrFreaK666
2023-02-16, 16:34:08
Ich frage mich wie das geht. Dachte da wäre Eingriff in die Engine nötig.
aufkrawall
2023-02-16, 16:49:51
Genau das macht der Mod. Die Engines haben aber meist schon optional 3D-Auflösung und HUD entkoppelt, was weiterhin für Upsampling nötig ist.
DLAA (und FSR 2 nativ) könnte aber auch ohne reinmodbar sein, wenn ein Spiel TAA hat und mod-friendly ist.
Finde btw. Preset D (ist ja der Default) in Fortnite gar nicht mehr so schlecht, wie das noch mit der DLL von Spiderman der Fall war. Auf jeden Fall massiv besser als TSR. Mal sehen, vielleicht besteht für das Preset auch noch Hoffnung. Ist aber auf jeden Fall am pingeligsten, was korrekte Bewegungsvektoren angeht.
Edgecrusher86
2023-02-16, 18:30:26
Gibt es da deutlich sichtbare Unterschiede zwischen Quality (67%) und ~85%?
In Bewegung sollte es eher zu sehen sein - in der Szene oben als Standbild war es das nicht wirklich. Gut, das mag vielleicht auch an der schon sehr hohen Basis gelegen haben von mindestens ~ 4607x1929 bei besagten 67% auf 6880x2880.
Platos
2023-02-16, 19:52:45
Mal ne kurze Zwischenfrage hier: Wenn man DLDSR nutzt, sollte man dann DLSS ein oder ausschalten ?
Eigentlich doch ein, oder ? DLDSR + DLSS ist doch so, als wäre die Zielauflösung höher und somit sollte auch die Renderauflösung in DLSS steigen. Oder verstehe ich da was falsch?
robbitop
2023-02-16, 19:57:35
Du kannst beides kombinieren. Ich halte es für sinnvoll wenn man die Möglichkeit dafür hat. Aber: DLAA soll sogar noch besser sein. Entsprechend ist dlss + dsr was für Spiele wo dlaa nicht geht und dsr ohne dlss was für Spiele wo man Grafikleistung en masse über hat und das vorhandene AA nicht gut ist (und es kein dlss gibt).
Tesseract
2023-02-16, 20:10:24
Eigentlich doch ein, oder ? DLDSR + DLSS ist doch so, als wäre die Zielauflösung höher und somit sollte auch die Renderauflösung in DLSS steigen. Oder verstehe ich da was falsch?
DLDSR erhöht die interne auflösung pro achse um 1.34 bzw. 1.5, DLSS verringert sie um 0.67, 0.58, 0.5, 0.33
wenn du z.B. DLDSR 2.25 mit DLSS-Q kombinierst ist das 1.5*0.67=1, sprich native, also quasi fake-DLAA.
was man kombinieren sollte hängt davon ab was du erreichen willst. die meiste bildqaualität pro leistung bekommt man in der regel bei den niedrigeren DLSS stufen, also theoretisch DSR weit nach oben und DLSS weit nach unten, allerdings können da andere flaschenhälse als die interne auflösung entstehen wenn das ganze zu extrem wird, besonders wenn FG auch noch dazu kommt.
aufkrawall
2023-02-16, 20:32:19
Gerade in Skyrim getestet: Bildstabilität mit 1440p DLAA F ist besser als mit 5k DLSS Performance und egal welchem Preset. Zeitverschwendung imho. Wem BQ derart wichtig ist, der kauft einen 4k-Monitor und nutzt DLAA F nativ. Klatscht alles andere an die Wand...
Ex3cut3r
2023-02-16, 20:35:20
Wem BQ derart wichtig ist, der kauft einen 4k-Monitor und nutzt DLAA F nativ. Klatscht alles andere an die Wand...
Kann ich nur bestätigen. 4K Nativ auf 32" + DLAA/DLSS P sieht besser aus, als 27" 1440p 4K DLDSR + DLSS Q.
Platos
2023-02-16, 20:48:40
Du kannst beides kombinieren. Ich halte es für sinnvoll wenn man die Möglichkeit dafür hat. Aber: DLAA soll sogar noch besser sein. Entsprechend ist dlss + dsr was für Spiele wo dlaa nicht geht und dsr ohne dlss was für Spiele wo man Grafikleistung en masse über hat und das vorhandene AA nicht gut ist (und es kein dlss gibt).
DLDSR stellt man ja wie DSR genau am selben Ort ein - also in den Treibereinstellungen.
Wo müsste ich denn DLAA suchen? Müsste das in den Grafikeinstellungen des Spiels zu finden sein ? Heisst das dann auch DLAA in Spielen?
Habe z.B Witcher 3 Next-Gen
Gerade in Skyrim getestet: Bildstabilität mit 1440p DLAA F ist besser als mit 5k DLSS Performance und egal welchem Preset. Zeitverschwendung imho. Wem BQ derart wichtig ist, der kauft einen 4k-Monitor und nutzt DLAA F nativ. Klatscht alles andere an die Wand...
Ja... also ich rede ja schon von 4k + DLDSR :D
4k Bildschirm habe ich schon. Und mit ner 4070TI + DLDSR + DLSS Quality + Framegen habe ich 60+ FPS bei Witcher 3 Next-Gen mit allem auf Max (ohne Hairworks, weil ich das schlechter wie ohne finde). Also in 4k ohne DLDSR. Mit der höchsten DLDSR Stufe habe ich dann 55-60.
Allerdings habe ich Tearing mit Frame Gen eingeschalten. Keine Ahnung wieso.
Hat jemand auch Tearing Probleme mit Framegen on ?
Kann ich nur bestätigen. 4K Nativ auf 32" + DLAA/DLSS P sieht besser aus, als 27" 1440p 4K DLDSR + DLSS Q.
Das ist klar. Natives 4k sieht natürlich immer besser aus wie 4k downscaled auf 1440p. 32" wäre mir aber eine zu niedrige Pixeldichte für 4k. Kommt aber sicher auf den Sitzabstand an. Bin hald recht nah drann.
aufkrawall
2023-02-16, 20:56:21
Allerdings habe ich Tearing mit Frame Gen eingeschalten. Keine Ahnung wieso.
Hat jemand auch Tearing Probleme mit Framegen on ?
Automatischer Reflex-Limiter mit VRR + Vsync + FG kam erst mit einem späteren Treiber. Entwickler tun immer noch so, als gäbe es das nicht, und bieten in-game Vsync mit FG wegen der ehemals hohen Latenz immer noch nicht an. Weshalb man damit Vsync über den Treiber erzwingen muss.
Tesseract
2023-02-16, 21:07:28
Wem BQ derart wichtig ist, der kauft einen 4k-Monitor und nutzt DLAA F nativ.
sag das LG. :frown:
Platos
2023-02-16, 21:17:36
Automatischer Reflex-Limiter mit VRR + Vsync + FG kam erst mit einem späteren Treiber. Entwickler tun immer noch so, als gäbe es das nicht, und bieten in-game Vsync mit FG wegen der ehemals hohen Latenz immer noch nicht an. Weshalb man damit Vsync über den Treiber erzwingen muss.
Ahh ok, werde ich dann mit Treiber-Force testen, danke.
FunkyChris
2023-02-16, 23:36:46
Der Weg, DLSS mit (DL)-DSR zu kombinieren, ist aber mit der neuen Möglichkeiten quasi obsolet geworden. Klar, durch DSR wird zwar auch das HUD hübscher, aber letztlich verliert man doch einiges an Frames, als wenn man direkt einfach den DLAA-Modus aktiviert. Man verliert sonst doch deutlich Frames durchs up- und downscaling und es hat ganz sicher auch eine negative Auswirkung auf die Latenzen.
Ex3cut3r
2023-02-17, 01:31:07
D32" wäre mir aber eine zu niedrige Pixeldichte für 4k. Kommt aber sicher auf den Sitzabstand an. Bin hald recht nah drann.
Ist ein 31,5" und damit genau 140 PPi. Bei 27" hast du 163. Bei 1440p 27" nur 108 PPi
31,5/32" mit 4K ist schon ein guter Wert, vor allem für die Größe. Bringt einfach nochmal mehr Immersion in Spielen. Auch YouTube, und arbeiten/Texte lesen ist damit sehr angenehm. Bin umgestiegen von einem 27" mit 1440p
Geldmann3
2023-02-17, 10:03:15
Der Weg, DLSS mit (DL)-DSR zu kombinieren, ist aber mit der neuen Möglichkeiten quasi obsolet geworden. Klar, durch DSR wird zwar auch das HUD hübscher, aber letztlich verliert man doch einiges an Frames, als wenn man direkt einfach den DLAA-Modus aktiviert. Man verliert sonst doch deutlich Frames durchs up- und downscaling und es hat ganz sicher auch eine negative Auswirkung auf die Latenzen.
Naja, wenn man maximale BQ will, lohnt es sich in 4K durchaus, finde ich. Die erreicht man nämlich auch mit DLAA erst bei etwa internen 6K. Auf einem 8K TV halte ich DLSS Qualität hingegen bereits für grob optimal. Ist man im Prinzip aber auch wieder bei einer ähnlichen Sample-Anzahl. Besonders bei feinem Geäst lässt sich das Flimmern in 4K noch deutlich verringern.
Sitze in der Regel aber auch 40cm vor 55 - 65 Zoll TVs, bin also wohl eher anforderungsvoll, was Bildqualität angeht.
Da müssen die Pixel richtig glänzen.^^
aufkrawall
2023-02-17, 13:23:45
Mit der 3.1.1-DLL gehen nun auch Preset C & F (anstatt nur D) ohne kaputte temporale Stabilität in SotTR. :up:
Preset C als das "2.3.9"-Modell hat imho seitdem keine nennenswerten Updates mehr erhalten, die Weiterentwicklung läuft wohl nur über D & F. Ein "Preset G", das die Vorteile von D & F kombinieren würde, wäre klasse. Es bleibt spannend.
Edit: Mal etwas mit dem Overlay Detektiv gespielt:
My findings when comparing with various DLLs with the debug overlay:
A Crimson Slug (model name association guessed) - e.g. 2.4.12 v3 (as seen in Spider-Man: Miles Morales) - 2020:
Distinct motion blur and smearing, best avoided altogether. It is intended to be used when there are (proper) motion vectors missing, but seems it is still always worse than C?
B - Similar to A, but used in some games with Ultra Performance upsampling (slightly different tuning?).
C Debonair Caracal - e.g. 2.5.1 (as seen in Portal RTX) - 2021:
Works well in most games. Generally well balanced, though distinct pixel jittering also in still image (at least vs. other "good" DLSS presets D & F).
D White Collie - e.g. 2.4.13 (as seen in WRC Generations, but perhaps newer model version used in 3.1.1?) - 2022:
More stable in motion than C, but more motion blur (far less than A though). Hardest/sharpest edges in still image. Depending on the scene content (or DLSS implementation?), can show less or more smearing than C (often more). Has severe ghosting issues with moving objects in some games (e.g. Hitman 3 or Spiderman), but can be fine in others (e.g. Fortnite seems to be fine).
F Cornflower Rook - 3.1.1. UP/DLAA - 2022:
Much softer edges. Least still image jittering. Requires stronger sharpen. Least smearing. Generally, less motion blur, but more disocclusion blur and temporal instability around objects, especially with upsampling.
Generally, enforcing auto-exposure seems to potentially avoid issues (without creating new ones in most cases?). In Hitman 3, the game may stop using auto-exposure after switching DLSS modes, so enforcing it can also help against such a bug. In Shadow of the Tomb Raider, auto-exposure is required to maintain temporal stability and you need to force it to on when disabling the default per-app override.
Gecko_0815
2023-02-19, 12:23:30
Frage an die Experten: Die 2.5.1 oder die 3.1.1 für A Plaque Tale Requiem auf einem 4k Oled mit DLSS Q und einer 3090?
DrFreaK666
2023-02-19, 12:53:16
teste es doch einfach aus
Gecko_0815
2023-02-19, 13:11:01
3.1.1 sieht gut aus. Meiner Meinung nach besser als die originale. Mit mehr Kontrast.
Troyan
2023-02-19, 14:11:41
Spiele ein bisschen Marvels Midnight Sun und hier sieht man mal wieder, wie beschissen DX12 und UE4 sind: 100 FPS auf meinem 13600K - absolutes CPU-Limit. Mit Raytracing sogar irgendwas um die 80 FPS.
Aber der Spieleentwickler hat Frame Generation eingebaut - Boom ich zocke mit 150FPS+. :eek:
aufkrawall
2023-02-19, 15:21:26
Mit der Beta von DLSSTweaks kann man das Debug-Overlay auch mit Release-DLLs erzwingen (und nun mögliche Umbenennung in winmm.dll ist auch sehr nützlich).
Witzig: Für SotTR ist ein Override mit Preset A und Auto-Exposure aktiv:
https://abload.de/thumb/sottr_2023_02_19_15_1hpeyc.png (https://abload.de/image.php?img=sottr_2023_02_19_15_1hpeyc.png)
Wenn man dann AppID-Override nutzt, ist Auto-Exposure aber deaktiviert und das DLSS-Ergebnis kaputt (temporale Instabilität):
https://abload.de/thumb/sottr_2023_02_19_15_1f7den.png (https://abload.de/image.php?img=sottr_2023_02_19_15_1f7den.png)
Wenn man dann zusätzlich Auto-Exposure erzwingt, ist es wieder "gefixt" (auch mit anderen Presets).
In Atomic Heart sieht DLSS über weite Teile ziemlich gut aus, allerdings "feiert" ein Bug seine Wiederauferstehung, der zuletzt in Hitman 3 richtig gesaugt hat:
548JAIxnhm4
Irgendwas ist da mit der Akkumulation im Eimer. Das tritt allerdings nur selten und nur bei weit entfernten Objekten (wie im Video) auf.
MfG
Raff
Troyan
2023-02-20, 14:52:51
Computerbase meint, dass mit der vorigen Version 2.4.0 keine Probleme existierten. Anscheinend ist es nicht so schlau einfach auf 3.1.1 zu gehen...
Deisi
2023-02-20, 15:06:22
Man könnte sich evtl mit der dev dll mal das genutzte Present anzeigen lassen von Atomic.
aufkrawall
2023-02-20, 15:30:50
Computerbase meint, dass mit der vorigen Version 2.4.0 keine Probleme existierten. Anscheinend ist es nicht so schlau einfach auf 3.1.1 zu gehen...
Immer noch nicht verstanden, dass so etwas nicht von der Versionsnummer, sondern vom verwendeten Preset abhängt?
Der neue Standard Preset D kann mehr Ghosting und Trailing zeigen. Ggf. ist der ziemlich pingelig, was die Qualität der Bewegungsvektoren angeht. In Fortnite scheint es damit gar keine Probleme zu geben, smeart auch total wenig im Vergleich zu etwa Kena oder Hogwarts.
Ansonsten muss man halt selber auf Preset F oder C gehen. Entweder mit DLSSTweaks, oder mit der Portal 2.5.1 DLL.
aufkrawall
2023-02-20, 23:51:50
omg. Startet man Hitman mit DLSS, ist Auto-Exposure standardmäßig an. Switcht man von Quality auf UP, geht es aus und bleibt es auch, nachdem man wieder auf Q geswitcht hat. Mit dem Override der Mod bleibt es immer an. Unlustig, was es für Bugs bei den Implementierungen gibt...
Interessanterweise nimmt er mit Q in Hitman C. Was aufgrund des Ghostings von D nicht überrascht:
https://abload.de/thumb/hitman3_2023_02_20_235yfs6.png (https://abload.de/image.php?img=hitman3_2023_02_20_235yfs6.png)
Ist mit F weg:
https://abload.de/thumb/hitman3_2023_02_20_235ae43.png (https://abload.de/image.php?img=hitman3_2023_02_20_235ae43.png)
Definitiv mit D in Fortnite noch nicht gesehen. Das Problem haben aber offenbar einige Devs: https://forums.developer.nvidia.com/t/dlss-unreal-engine-4-27-ghosting-trailing-behind-moving-objects/228374
Lurtz
2023-02-22, 15:48:14
Bei TPU gibts eine 3.1.1 v2:
3.1.1 v2 (February 21st, 2023)
Source: Atomic Heart
Lurtz
2023-02-22, 20:30:46
Neue Version von DLSSTweak (https://github.com/emoose/DLSSTweaks/releases/tag/0.123.10)ist raus:
Changes in 0.123.10
added DLSSQualityLevels section, where custom ratios can be set for each DLSS level
changed ForceAutoExposure to OverrideAutoExposure, can now be force disabled if desired
added WatchIniUpdates setting, which can try applying any updated dlsstweaks.ini settings during the session
added OverrideDlssHud setting, can allow force enabling/disabling the DLSS debug display without needing to edit registry
added DisableDevWatermark setting to hide watermark message when using dev DLL
improved function definitions, may improve stability (tiny chance that it might help with titles that had issues with DLAA previously)
switched hook library to safetyhook, use spdlog for logging
use ini-cpp to read INI, fixes issues with INI not being writable by external apps during runtime
now uses _beginthreadex instead of CreateThread for our main hook init thread
Was für ein geiles Tool einfach :umassa:
Troyan
2023-02-23, 22:12:27
nVidia hat auch das UE4 DLSS geupdatet:
Developers can now automatically update to the latest DLSS AI networks. You can patch your games over the air (OTA) using the NVIDIA Game Ready Drivers with the latest DLSS improvements. Gamers can also automatically and seamlessly enjoy these latest DLSS enhancements. In addition, developers can now more easily select the best AI network based on game content.
https://developer.nvidia.com/blog/nvidia-dlss-updates-for-super-resolution-and-unreal-engine/
aufkrawall
2023-02-24, 10:14:38
Sons of the Forest hat auch DLSS. Keine Ahnung, ob es hier Probleme mit Preset D gibt, sieht aber erstmal gut aus. Um nicht zu sagen Welten besser als mit dem TAA. Gut, dass es DLSS als Unity Engine Plug-In auch noch für D3D11 gibt. :up:
Kurioserweise ist Auto-Exposure standardmäßig aus.
robbitop
2023-02-25, 15:36:28
Mechwarrior 5 mit DLSSTweaker getestet. Konnte das Smearing und generelle Unschärfe damit beheben. Model F und Autoexposure aktiviert. (ich vermute, damit ließe sich auch mit RDR2 das Smearing der Telefonmasten fixen)
Was mich wundert: das logfile meldet das veränderte Modell nicht. In meinem Fall nur folgendes
[2023-02-25 15:30:37.837] [info] DLSSTweaks v0.123.11, by emoose: DLL wrapper loaded, watching for DLSS library load...
[2023-02-25 15:30:41.881] [info] Applied _nvngx.dll DLL export hooks, waiting for game to call them...
[2023-02-25 15:30:42.653] [info] DLSS functions found & parameter hooks applied!
[2023-02-25 15:30:42.653] [info] Settings:
- ForceDLAA: false
- OverrideAutoExposure: enable
- OverrideAppId: true
------------
Weitere Fragen zum Sharpening
1.) wie gut ist das "sharpen+" in den Nvidia effects (wenn man GFE hat kann man Effekte in das Spiel injecten wie mit reshade)?
2.) Bei CAS gibt es 2x Parameter. Intensität und Radius(?). Intensität ist klar - aber wie stellt man Radius ein? Gibt es einen guten default Wert für beides?
Ex3cut3r
2023-02-25, 15:50:18
Ich habe noch nie die erste Option also "Contrast Adaptation" benutzt. Wüsste auch nicht wozu, das bringt nur Ringing.
https://abload.de/thumb/control_dx12_2023_02_uqdn6.png (https://abload.de/image.php?img=control_dx12_2023_02_uqdn6.png)
aufkrawall
2023-02-25, 15:59:01
1.) wie gut ist das "sharpen+" in den Nvidia effects (wenn man GFE hat kann man Effekte in das Spiel injecten wie mit reshade)?
Nutzt zusätzlich noch den Depth Buffer, sofern verfügbar. Dieses Sharpen+ macht aber auch viel mehr Ringing als CAS, sehe persönlich den Sinn nicht. Zumal der Effekt-Inject von GFE immer noch absurden Overhead vs. ReShade hat.
2.) Bei CAS gibt es 2x Parameter. Intensität und Radius(?). Intensität ist klar - aber wie stellt man Radius ein? Gibt es einen guten default Wert für beides?
Würde ich generell, wie Ex3cut3r schon sagt, von absehen. Kann aber in Spielen ohne negatives LOD Bias wie Wonderlands nützlich sein, um Texturen noch etwas stärker zu bearbeiten. Ansonsten ist der Effekt mit 0 auf Texturen aber schon ziemlich deutlich.
Gibt in der Witcher 3 Config NISSharpness, das immer auf 0,2 steht und mit DLSS genutzt wird. Scheint leider der gleiche Schrott-Shader wie das "neue" NIS-Sharpen im Treiber zu sein, macht abartige temporale Instabilität.
Muss ehrlich sagen, dass mir ohne absurde LOD-Bias-Werte FSR 2 in Witcher 3 wegen des fehlenden Smearings besser als DLSS gefällt. Weiß gar nicht, warum man überhaupt noch das spieleigene Schrott-TAA eingebaut hat.
Lurtz
2023-02-25, 22:06:43
Occlusion macht da kein Problem? Das Spiel hat ja endlos viel Vegetation.
aufkrawall
2023-02-25, 22:33:25
Erstaunlich wenig Disocclusion-Aliasing.
Ex3cut3r
2023-02-28, 04:11:30
Model F in Doom Eternal. Einmal Q und einmal P.
Sharpening individuell angepasst. Da P immer unschärfer ist.
Kann einer die richtigen Quality Modes benennen? :biggrin:
https://abload.de/thumb/doometernalx64vk_2023atidm.png (https://abload.de/image.php?img=doometernalx64vk_2023atidm.png) https://abload.de/thumb/doometernalx64vk_2023lneyk.png (https://abload.de/image.php?img=doometernalx64vk_2023lneyk.png)
Ja, richtig, eins von beiden ist interne 1080p Auflösung.
Fazit: Abnormale Qualität. Nuill Ghosting in Bewegung. Perfektes Anti Aliasing.
Und DLSS Performance läuft mit RT in jeder Lebenslage egal wie viel los ist auf dem Bildschirm immer mit 141HZ/FPS. Dürfte der beste PC Port ever sein. Null Shader Compile Stutter, oder Nachladeruckler. Einzigartig.
Sardaukar.nsn
2023-02-28, 06:48:54
Die Doom Eternal Engine ist aber auch schon super effizient. Läuft gefühlt auf deiner Kartoffel. In schnellen Shootern habe ich aber auch schon gute Erfahrungen mit dem Performance Modus gemacht. Denn max. FPS sind hier fast immer der Bildqualität vorzuziehen. Am besten natürlich beides ;)
kemedi
2023-02-28, 12:42:39
Model F in Doom Eternal. Einmal Q und einmal P.
Sharpening individuell angepasst. Da P immer unschärfer ist.
Kann einer die richtigen Quality Modes benennen? :biggrin:
https://abload.de/thumb/doometernalx64vk_2023atidm.png (https://abload.de/image.php?img=doometernalx64vk_2023atidm.png) https://abload.de/thumb/doometernalx64vk_2023lneyk.png (https://abload.de/image.php?img=doometernalx64vk_2023lneyk.png)
Ja, richtig, eins von beiden ist interne 1080p Auflösung.
Fazit: Abnormale Qualität. Nuill Ghosting in Bewegung. Perfektes Anti Aliasing.
Und DLSS Performance läuft mit RT in jeder Lebenslage egal wie viel los ist auf dem Bildschirm immer mit 141HZ/FPS. Dürfte der beste PC Port ever sein. Null Shader Compile Stutter, oder Nachladeruckler. Einzigartig.
Okay.... Was muss ich tun, um zu erfahren, wie ich den DLSS Tweaker verwende?
Was ist Model / Preset "F"? Durch die Readme vom Tweaker werde ich diesbezüglich nicht schlau...
Lurtz
2023-02-28, 13:29:34
Okay.... Was muss ich tun, um zu erfahren, wie ich den DLSS Tweaker verwende?
Was ist Model / Preset "F"? Durch die Readme vom Tweaker werde ich diesbezüglich nicht schlau...
nvngx_dlss.dll in Version 3.1.1.0 ins Verzeichnis der jeweiligen Exe kopieren und die bestehende Version überschreiben.
dlsstweaks.ini und dxgi.dll vom DLSS-Tweak ebenso. Falls man Reshade verwenden möchte, was ebenfalls eine dxgi.dll liefert, muss man die dxgi.dll vom DLSS-Tweak umbenennen. Bei DX12 sollte zB XInput9_1_0.dll funktionieren.
In der INI konfiguriert man das gewünschte Modell und ob die Erkennung per App-ID ausgeschaltet werden soll. Ist alles in der INI kommentiert, was man wo einstellen kann.
Wenn man das Schreiben der Debug-Logdatei aktiviert hat, kann man durch Vorhandensein der Datei erkennen, ob das Injecten funktioniert.
...
Ex3cut3r
2023-02-28, 14:13:37
Okay.... Was muss ich tun, um zu erfahren, wie ich den DLSS Tweaker verwende?
Was ist Model / Preset "F"? Durch die Readme vom Tweaker werde ich diesbezüglich nicht schlau...
Model F scheint ein anderes KI Preset zu sein. Gibt auch noch andere wie C, D etc.
Model F gefällt mir derzeit am besten, allerdings kann es in manchen Titeln ein wenig mehr Ghosting als mit D oder C auftreten.
Bedenke bitte auch, dass ich Native 4K als Auflösung benutze @ 140 PPi. Wenn du 1440p mit 108/109 PPi benutzt, wird das Ergebnis bei dir am heimischen Monitor anders aussehen.
robbitop
2023-02-28, 14:23:50
Autoexposure ist auch eine wesentliche Variable
kemedi
2023-02-28, 16:59:13
Okay ähm - ich hab nicht den Eindruck, dass es läuft :freak:
@Ex3cut3r
Wie heißt die .dll bei dir @Doom Eternal?
Ex3cut3r
2023-02-28, 22:20:23
Okay ähm - ich hab nicht den Eindruck, dass es läuft :freak:
@Ex3cut3r
Wie heißt die .dll bei dir @Doom Eternal?
Die dxgi.dll vom DLSS Tools in XInput1_3.dll umbenennen.
Reshade habe ich bei Doom Eternal nicht installiert. Hatte damit in diesem Spiel immer große Performance Probleme. Ich benutze fürs Sharpening tatsächlich das Ingame Sharpening, aber nicht das DLSS Sharpening, das funktioniert nämlich nicht mehr, wenn man die Original DLSS dll austauscht, sondern das Sharpening welches im Options-Menü weiter unten ist, und eigentlich fürs TAA vorgesehen ist, funktioniert aber bestens mit DLSS.
Du kannst dir übrigens ein Overlay anzeigen in der DLSS Tweak Config.
OverrideDlssHud = 1
Dann siehst du ob das Model F z.B. genutzt wird.
Sieht dann so aus, untere Ecke links.
https://abload.de/thumb/doometernalx64vk_20232renz.png (https://abload.de/image.php?img=doometernalx64vk_20232renz.png)
kemedi
2023-03-01, 16:12:28
Die dxgi.dll vom DLSS Tools in XInput1_3.dll umbenennen.
Reshade habe ich bei Doom Eternal nicht installiert. Hatte damit in diesem Spiel immer große Performance Probleme. Ich benutze fürs Sharpening tatsächlich das Ingame Sharpening, aber nicht das DLSS Sharpening, das funktioniert nämlich nicht mehr, wenn man die Original DLSS dll austauscht, sondern das Sharpening welches im Options-Menü weiter unten ist, und eigentlich fürs TAA vorgesehen ist, funktioniert aber bestens mit DLSS.
Du kannst dir übrigens ein Overlay anzeigen in der DLSS Tweak Config.
OverrideDlssHud = 1
Dann siehst du ob das Model F z.B. genutzt wird.
Sieht dann so aus, untere Ecke links.
https://abload.de/thumb/doometernalx64vk_20232renz.png (https://abload.de/image.php?img=doometernalx64vk_20232renz.png)
Danke für deine Hilfe. Habs jetzt verstanden und läuft ;)
aufkrawall
2023-03-01, 16:13:55
Feststellungen zu den Presets:
https://github.com/emoose/DLSSTweaks/issues/23#issuecomment-1438821892
Ex3cut3r
2023-03-01, 18:12:56
Danke für deine Hilfe. Habs jetzt verstanden und läuft ;)
Gern. ;)
Freut mich.
Feststellungen zu den Presets:
https://github.com/emoose/DLSSTweaks/issues/23#issuecomment-1438821892
Cool. Danke für deine Schilderungen.
In Dead Space Remake kann ich übrigens auch das Model F empfehlen.
Wichtig ist aber, dass man OverrideAutoExposure auf 1 setzt. Das ist nämlich standardmäßig nicht aktiv in Dead Space Remake. Mit F aber ohne AutoExposure gabs dann ziemlich viel Shader Aliasing. Was ich von DLSS eigentlich nicht gewöhnt bin. Vlt. hat es aber auch der LOD Tweak vom DF Video gefixt, da bin ich mir jetzt unsicher.
https://abload.de/thumb/deadspace_2023_03_01_fsf01.png (https://abload.de/image.php?img=deadspace_2023_03_01_fsf01.png)
Platos
2023-03-04, 00:51:44
Welches findet ihr denn die besten 3 DLSS Versionen bisher?
Wenn ich mir z.B Witcher 3 mit DLSS 3.1.1 ansehe (auf youtube: https://youtu.be/ynchZ1xKl_4?t=144), sieht 2.5.1 einiges Schärfer aus wie 3.1.1.
Konnte das jemand auch in anderen Spielen feststellen ? Das Video hat zwar ne beschissene Auflösung, aber man sieht schon den Unterschied.
Hat eig. mal jemand die Framegen DLSS Versionen verglichen bisher? Habt ihr irgendwelche bevorzugten Versionen ?
Edit: Was macht denn der DLSS Tweaker eig. so besonderes? Also ist das nicht das gleiche, wie einfach die nvngx__dlss.dll Version zu ändern?
ChaosTM
2023-03-04, 01:27:04
FS2020 lauft wunderbar mit FG - alles andere ist mir momentan egal..
aufkrawall
2023-03-04, 10:42:48
Welches findet ihr denn die besten 3 DLSS Versionen bisher?
Wenn ich mir z.B Witcher 3 mit DLSS 3.1.1 ansehe (auf youtube: https://youtu.be/ynchZ1xKl_4?t=144), sieht 2.5.1 einiges Schärfer aus wie 3.1.1.
Konnte das jemand auch in anderen Spielen feststellen ? Das Video hat zwar ne beschissene Auflösung, aber man sieht schon den Unterschied.
Liegt nicht an den Versionsnummern, sondern welches Preset eine DLL vorausgewählt hat.
Witcher 3 2.5.1 ist A Crimson Slug und damit Müll.
Portal RTX 2.5.1 ist C Debonair Caracal und damit "gut".
3.1.1 ist in Witcher 3 standardmäßig D White Collie für Quality und ist damit eine mixed bag gegenüber C.
Hat eig. mal jemand die Framegen DLSS Versionen verglichen bisher? Habt ihr irgendwelche bevorzugten Versionen ?
Bislang ist neuer wohl immer besser, also die 1.0.7 aus W3 zu bevorzugen.
Edit: Was macht denn der DLSS Tweaker eig. so besonderes? Also ist das nicht das gleiche, wie einfach die nvngx__dlss.dll Version zu ändern?
So ziemlich. Kann aber sein, dass White Collie D und F Cornflower Rook mit zukünftigen DLL-Versionen noch weitere Updates bekommen. Die anderen Presets vermutlich eher nicht.
Platos
2023-03-04, 12:23:28
Ah ok, danke für die ausführliche Antwort.
Sorry, bin ja noch etwas planlos... was ist denn das mit den Presets? Verstehe das nicht ganz so... Also das mit C,g und Crimson slug usw.
Kann mir das jemand erklären?
Deisi
2023-03-04, 12:30:57
@aufkrawall Bei mir nutz er automatisch C in Fortnite. Wie ändere ich das Present ohne DLSS Tweaks?
https://abload.de/img/dddddqkdjw.jpg
aufkrawall
2023-03-04, 12:37:49
Oha, weird. Sehe definitiv deutliche Unterschiede zwischen der Portal 2.5.1 DLL und 3.1.1, weshalb ich stark davon ausgehe, dass er bei mir D nimmt.
Mir ist kein Weg bekannt, mit der 3.1.1-DLL als User ein Preset ohne DLSSTweaks zu erzwingen. Du könntest die 2.4.13-DLL nehmen, die White Collie nimmt. Kann aber sein, dass White Collie in 3.1.1 weitere Fixes/Änderungen gegenüber 2.4.13 erhalten hat, denn 2.4.13 hatte bei mir schon mit dem Laub im Menü übles Trailing gezeigt. Mit 3.1.1 hab ich das nicht.
Würd aber echt vorsichtig sein mit Dev-DLLs und DLSSTweaks in Online-Spielen, bzw. das unbedingt vermeiden.
Deisi
2023-03-04, 12:41:27
Ok danke ich teste mal noch etwas.:ucoffee:
Darkman.X
2023-03-04, 16:43:19
Ah ok, danke für die ausführliche Antwort.
Sorry, bin ja noch etwas planlos... was ist denn das mit den Presets? Verstehe das nicht ganz so... Also das mit C,g und Crimson slug usw.
Kann mir das jemand erklären?
Soweit ich verstanden habe, sind das verschiedene DL-Trainingsmethoden (vermutlich der falsche Begriff). Es geht von A bis F. Das andere ("Crimson slug" usw.) sind einfach nur Code-Namen für die verschiedenen Modelle.
Mit dem A-F hat man verschiedene Bildqualitäten. "aufkrawall" war am Anfang sehr von F begeistert. D soll wohl in einigen Spielen auch gut sein. Andere Spiele (Spiderman) benötigen wohl C. Man muss einfach etwas testen bzw. die "aufkrawall"-Posts mitverfolgen, denn es gibt keine Liste oder ähnliches (falls diese Frage kommt ;)).
Zusätzlich gibt es auch "OverrideAutoExposure", was ein weiteres Feature ist und wohl das Smearing in einigen Spielen stark reduziert / verschwinden lässt. Hier scheint es empfehlenswert zu sein, das Feature immer zu aktivieren.
Und es gibt auch noch die Möglichkeit DLAA zu erzwingen.
Soweit mein Verständnis von dem Thema als stiller Mitleser...
Platos
2023-03-04, 17:20:43
Soweit ich verstanden habe, sind das verschiedene DL-Trainingsmethoden (vermutlich der falsche Begriff). Es geht von A bis F. Das andere ("Crimson slug" usw.) sind einfach nur Code-Namen für die verschiedenen Modelle.
Mit dem A-F hat man verschiedene Bildqualitäten. "aufkrawall" war am Anfang sehr von F begeistert. D soll wohl in einigen Spielen auch gut sein. Andere Spiele (Spiderman) benötigen wohl C. Man muss einfach etwas testen bzw. die "aufkrawall"-Posts mitverfolgen, denn es gibt keine Liste oder ähnliches (falls diese Frage kommt ;)).
Zusätzlich gibt es auch "OverrideAutoExposure", was ein weiteres Feature ist und wohl das Smearing in einigen Spielen stark reduziert / verschwinden lässt. Hier scheint es empfehlenswert zu sein, das Feature immer zu aktivieren.
Und es gibt auch noch die Möglichkeit DLAA zu erzwingen.
Soweit mein Verständnis von dem Thema als stiller Mitleser...
Ah ok, also geht es gar nicht um Versionen?
Seit wann gibt es denn verschiedene "Trainingsmethoden" ? Also gibt es denn jeweils immer von jeder Version verschiedene Trainingsmethoden ?
Darkman.X
2023-03-04, 18:05:48
Das muss jemand anderes beantworten.
Soweit ich verstanden habe, gab es wohl schon immer verschiedene Modelle bzw. wurden mit der Zeit immer mehr und sie waren immer alle in den DLL-Dateien vorhanden. Aber die Modelle waren fest mit den App-IDs (vermutlich einem Hash-Wert von den EXE-Dateien der Spiele) fest verknüpft. Mit DLSS 3.1.1 + DLSSTweak kann die App-ID überschrieben und so andere Modelle erzwungen werden.
Du solltest dir vielleicht auch in Ruhe die letzten 5-7 Seiten in dem Thread durchlesen.
aufkrawall
2023-03-08, 14:33:05
Gibt den Bloom-Bug leider doch auch in Fortnite. DLSS:
https://abload.de/thumb/fortniteclient-win64-reeii.png (https://abload.de/image.php?img=fortniteclient-win64-reeii.png)
TSR:
https://abload.de/thumb/fortniteclient-win64-t5fnz.png (https://abload.de/image.php?img=fortniteclient-win64-t5fnz.png)
Irgendwie ganz schön scheiße.
Ex3cut3r
2023-03-13, 01:54:26
UP Mode erstaunt mich mittlerweile, das war früher total unbrauchbar.
Gar nicht mal so schlecht für 720p. Hätte das 720p damals auf der PS3 in Uncharted 2 so ausgesehen wie mit DLSS, hätte ich nen Besen gefressen. :freak:
Uncharted 4, DLSS 3.1.1 Preset F
https://abload.de/thumb/upptck7.png (https://abload.de/image.php?img=upptck7.png) https://abload.de/thumb/puxfgr.png (https://abload.de/image.php?img=puxfgr.png) https://abload.de/thumb/betipv.png (https://abload.de/image.php?img=betipv.png) https://abload.de/thumb/qdjd7z.png (https://abload.de/image.php?img=qdjd7z.png)
Dead Space 2023, DLSS 3.1.1 Preset F
https://abload.de/thumb/dsupm0fxx.png (https://abload.de/image.php?img=dsupm0fxx.png) https://abload.de/thumb/dspmaipw.png (https://abload.de/image.php?img=dspmaipw.png) https://abload.de/thumb/dsbo9fb0.png (https://abload.de/image.php?img=dsbo9fb0.png) https://abload.de/thumb/dsqahise.png (https://abload.de/image.php?img=dsqahise.png)
aufkrawall
2023-03-13, 02:02:17
UP war halt vor Preset F wohl immer Preset B, das ähnlich zu A und damit Müll ist.
Ex3cut3r
2023-03-13, 14:48:04
Jap.
Mal als Vergleich so sah 720p auf der PS3 aus. :freak:
https://abload.de/thumb/unbenanntjgi4k.png (https://abload.de/image.php?img=unbenanntjgi4k.png)
Achill
2023-03-13, 16:53:53
Jap.
Mal als Vergleich so sah 720p auf der PS3 aus. :freak:
https://abload.de/thumb/unbenanntjgi4k.png (https://abload.de/image.php?img=unbenanntjgi4k.png)
Was ist den das für ein Apfel-Gurken-Vergleich und wahrscheinlich frisst die Berechnung von UP-DLSS allein schon mehr Rechenleistung als die PS3-GPU hatte ..
The Playstation 3 GPU 65nm was a high-end gaming console graphics solution by NVIDIA, launched in August 2008. Built on the 65 nm process, and based on the RSX-65nm graphics processor, in its RSX-CXD2991 variant, the device does not support DirectX. The RSX-65nm graphics processor is an average sized chip with a die area of 186 mm² and 300 million transistors. It features 24 pixel shaders and 8 vertex shaders, 24 texture mapping units, and 8 ROPs. NVIDIA includes 256 MB GDDR3 memory, which are connected using a 128-bit memory interface. The GPU is operating at a frequency of 550 MHz, memory is running at 650 MHz.
Its power draw is rated at 58 W maximum. The console's dimensions are 325 mm x 98 mm x 274 mm, and it features a igp cooling solution. Its price at launch was 499 US Dollars.
robbitop
2023-03-13, 17:32:55
Es ist doch aber dennoch beeindruckend was mit 1/9 der Auflösung möglich ist. Klar kostet mächtig Rechenleistung spart aber dennoch wesentlich mehr als es kostet. Das würde einem Switch Nachfolger relativ hohe Outputresolutions erlauben.
Ex3cut3r
2023-03-13, 17:56:32
Es ist doch aber dennoch beeindruckend was mit 1/9 der Auflösung möglich ist. Klar kostet mächtig Rechenleistung spart aber dennoch wesentlich mehr als es kostet. Das würde einem Switch Nachfolger relativ hohe Outputresolutions erlauben.
This. ;) :cool:
Es ist einfach geil. Was Nvidia mit DLSS angestoßen hat. Ist die vollkommen richtige Entwicklung.
Nur wäre es noch geiler, hätte es diese Tech schon vor 5-7 Jahren gegeben.
Gott1337
2023-03-14, 03:34:52
This. ;) :cool:
Es ist einfach geil. Was Nvidia mit DLSS angestoßen hat. Ist die vollkommen richtige Entwicklung.
Nur wäre es noch geiler, hätte es diese Tech schon vor 5-7 Jahren gegeben.
dlss gibts ja seit 4 1/2 Jahren also nahe an deinen 5
robbitop
2023-03-14, 09:44:35
Naja erst DLSS 2 fing an, wirklich gut zu sein. Und das gibt es erst seit Mitte 2020.
Und seit dem hat sich eine Menge bei DLSS getan. Moderne DLLs sind gerade bei kleinen Auflösungen nochmal dramatisch besser.
Ex3cut3r
2023-03-14, 17:05:27
DLSS 1 hat mich damals auch nicht abgeholt. War auch erst ab 4K Auflösung einschaltbar. Ich dachte wirklich, das war nur Marketing ähnlich wie damals PhsyX und wird bald wieder fallengelassen.
Gut, dass ich falsch lag.
Ich bin auch skeptisch, ob das im Endeffekt so eine gute Entscheidung von Nvidia war, DLSS sorgt oder kann dafür sorgen, dass GPUs nun länger zufriedenstellende FPS auf den Bildschirm zaubern. Dafür werden GPUs jetzt auch viel teurer bepreist als früher, hält sich vermutlich die Waage. ;D
Oliver_M.D
2023-03-14, 17:36:02
War auch erst ab 4K Auflösung einschaltbarWar die Mindestauflösung nicht 1440p? Wenn ich mich richtig erinnere, war es zumindest bei Monster Hunter World und Battlefield 5 so.
Ex3cut3r
2023-03-14, 17:37:06
Da muss ich zugegeben, weiß ich nicht mehr genau. Kann schon sein, dass du richtig liegst, da müsste ich jetzt nochmal googeln, wozu ich aber grade zu faul bin.
Gott1337
2023-03-14, 20:53:57
Naja erst DLSS 2 fing an, wirklich gut zu sein. Und das gibt es erst seit Mitte 2020.
Und seit dem hat sich eine Menge bei DLSS getan. Moderne DLLs sind gerade bei kleinen Auflösungen nochmal dramatisch besser.
klar wurde es besser, dennoch 4 1/2 Jahre alt.
Die ersten Shader waren auch ein Witz.
Jede Tech brauch etwas Zeit.
RT in Games ist das gleiche
War die Mindestauflösung nicht 1440p? Wenn ich mich richtig erinnere, war es zumindest bei Monster Hunter World und Battlefield 5 so.
Das war vom Spiel abhängig, auf jeden Fall hat DLSS1 nur für die Auflösungen funktioniert für die es auch trainiert war.
In Battlefield war es auch ziemlich schlecht, in Tomb Raider allerdings schon ziemlich überzeugend, wenn auch natürlich kein Vergleich mit DLSS2, es war immer noch ein leichter Qualitätsverlust zu deutlich höherer Performance.
Dass DLSS 2 dann bessere Bildqualität gepaart mit nochmal deutlich besserer Performance bringt hat wohl kaum jemand ahnen können.
Lurtz
2023-03-15, 09:01:10
DLSSTweaks 0.200.2 (https://github.com/emoose/DLSSTweaks/releases/tag/0.200.2)
DLSSTweaks now offers two different ways to setup the wrapper, which should help let it work across different system configs:
nvngx.dll
The easiest way to install is via nvngx.dll wrapping, this should work fine for the majority of games without needing to rename any files first.
However this method requires a small registry tweak to be applied first to stop DLSS from checking the nvngx.dll signature.
The included EnableSignatureOverride.reg can install this tweak for you (the tweak can also be removed via the DisableSignatureOverride.reg)
After setting up the registry tweak you should be able to just copy the nvngx.dll & dlsstweaks.ini files next to your game EXE, and it should hopefully load into the game fine.
(this is the same registry tweak used by CyberFSR2 to load in their custom nvngx.dll, haven't seen any reports of issues caused by it, but if you play games that use anti-cheat software you may want to use the method below, instead of installing this global registry tweak)
dxgi.dll/etc
Alternatively if you don't wish to use the registry tweak, the older methods of loading in via dxgi.dll etc wrapping are also still supported.
(this older method requires more code hooks to be applied though, which may have issues on certain systems, the nvngx.dll method is believed to be more compatible)
You can switch to these wrappers by renaming the included nvngx.dll file to one of the supported filenames, the dlsstweaks.ini includes a list of filenames you can try.
UltraQuality override: allows setting a value for the normally-unused UltraQuality setting, most games don't support this, but a small number may detect the overridden value & make an Ultra Quality setting available to use (eg. Hogwarts Legacy)
OverrideDlssDll setting: can override the path that DLSS will be loaded from, may help with games that don't allow the included nvngx_dlss.dll file to be modified (eg. with RGL launcher), so you could set this to make it load DLSS from a different path instead
robbitop
2023-03-15, 09:10:42
klar wurde es besser, dennoch 4 1/2 Jahre alt.
Die ersten Shader waren auch ein Witz.
Jede Tech brauch etwas Zeit.
RT in Games ist das gleiche
DLSS 2 hat mit DLSS 1 genau gar nichts gemeinsam außer dem Namen. Insofern ist DLSS 2 (über das wir hier reden) gerade mal 2,5 Jahre alt.
Lurtz
2023-03-15, 09:15:58
Uncharted crasht bei mir mit DLSSTweaks 0.200.2, egal ob mit der neuen oder der alten Installationsmethode. Kann das jemand bestätigen?
Edit:
Hat aufkrawall auch schon festgestellt:
https://github.com/emoose/DLSSTweaks/issues/44#issuecomment-1468518380
Gott1337
2023-03-15, 15:07:32
DLSS 2 hat mit DLSS 1 genau gar nichts gemeinsam außer dem Namen. Insofern ist DLSS 2 (über das wir hier reden) gerade mal 2,5 Jahre alt.
ist doch egal, es ging um upsampling und AA in einem... FSR und TSR haben auch nix mit DLSS zu tun na und?.... kinderkacke
DLSS 2 hat mit DLSS 1 genau gar nichts gemeinsam außer dem Namen.
Nachdem meines Wissens der Code von DLSS1 nicht geleakt wurde kann man das von außen schwer sagen.
Oliver_M.D
2023-03-15, 15:27:51
Uncharted crasht bei mir mit DLSSTweaks 0.200.2, egal ob mit der neuen oder der alten Installationsmethode. Kann das jemand bestätigen?Bin ich immerhin nicht der einzigste, dachte schon das lag an mir:freak:
Tobalt
2023-03-15, 16:04:39
ist doch egal, es ging um upsampling und AA in einem... FSR und TSR haben auch nix mit DLSS zu tun na und?.... kinderkacke
Nein. Es geht um temporales Upsampling, da nur das gut ist. Spatiales Upsampling (DLSS1, FSR1) ist "Kinderkacke", die keiner braucht und keinen interessiert.
robbitop
2023-03-15, 16:41:15
ist doch egal, es ging um upsampling und AA in einem... FSR und TSR haben auch nix mit DLSS zu tun na und?.... kinderkacke
Nein es ging explizit um modernes DLSS im Sinne von temporalem Upsampling mit neuronalen Netzwerken. Das war der Kontext von Executers Aussage.
Und genau diese Verfahren gibt es erstmalig mit DLSS 2.x seit 2,5 Jahren. Und das macht sehr wohl einen entscheidenden Unterschied. Hier nicht zu differenzieren (und offenbar die Verfahren nicht genug zu können) ist nicht unbedingt sinnvoll. Und entsprechend ist das Niveau auf dem du argumentierst ehrlich gesagt "Kinderkacke". ;)
Gott1337
2023-03-15, 18:07:20
Nein es ging explizit um modernes DLSS im Sinne von temporalem Upsampling mit neuronalen Netzwerken. Das war der Kontext von Executers Aussage.
Und genau diese Verfahren gibt es erstmalig mit DLSS 2.x seit 2,5 Jahren. Und das macht sehr wohl einen entscheidenden Unterschied. Hier nicht zu differenzieren (und offenbar die Verfahren nicht genug zu können) ist nicht unbedingt sinnvoll. Und entsprechend ist das Niveau auf dem du argumentierst ehrlich gesagt "Kinderkacke". ;)
auch dlss hatte ein neural network
"DLSS 1.0
The first iteration of DLSS is a predominantly spatial image upscaler with two stages, both relying on convolutional auto-encoder neural networks.[19]"
soße: https://en.wikipedia.org/wiki/Deep_learning_super_sampling
Ex3cut3r
2023-03-15, 18:24:56
Leute, ich glaube, wir sind uns doch alle einige, dass DLSS 1.0 damals wirklich nicht das Gelbe von Ei war. Das sah ähnlich aus, wie FSR 1.0, mit einer Art "dazugedichteten" Details.
Erst DLSS 2.0 war zufriedenstellend, aber auch weit weg vom jetzigen Zustand.
DrFreaK666
2023-03-15, 18:40:55
Einige fanden Radeon Boost mit Sharpening schon besser als DLSS 1 (glaub bei HWU gabs damals einen Vergleich)
Ex3cut3r
2023-03-15, 18:50:30
Kann ich nichts zu sagen. Hatte seit 20 Jahren keine Radeon mehr.
DrFreaK666
2023-03-15, 22:10:55
Ist ja egal.
Spatiales Upsampling (DLSS1, FSR1) ist "Kinderkacke", die keiner braucht und keinen interessiert.
DLSS1 erzeugte Temporale Artefakte (und zwar deutlich mehr als DLSS 2.x) und verwendet damit definitiv auch temporale Daten.
Ändert natürlich nichts daran, dass die Qualität im Verhältnis zu DLSS2.x um Welten schlechter war.
robbitop
2023-03-16, 13:50:38
auch dlss hatte ein neural network
"DLSS 1.0
The first iteration of DLSS is a predominantly spatial image upscaler with two stages, both relying on convolutional auto-encoder neural networks.[19]"
soße: https://en.wikipedia.org/wiki/Deep_learning_super_sampling
Nochmal: Executer hat explizit modernes DLSS benannt. Nicht DLSS 1.
Neuronale Netzwerke als Kriterium für den Vergleich heranzuziehen ist mehr als oberflächlich. Denn schließlich gibt es endlos viele Anwendungen für NN. Wie zum Beispiel ChatGPT. Ist dann wohl auch das gleiche. :freak:
Das NN wird für ganz andere Dinge genutzt. Bei DLSS 2 für das clamping und das prognostizieren stimmige Werte, wenn das Clamping fehlschlägt und bei DLSS1 für das Erkennen und verändern von Elementen die auf dem Frame zu sehen sind.
Das geht jeweils auch ohne NN. (Wobei die Trefferraten von guten NNs besser sind.)
Das entscheidende Kriterium ist die Unterscheidung was das Verfahren überhaupt macht.
DLSS1 ist primär ein besserer spatialer Upscaler.
DLSS2 hingegen ist echtes Supersampling (mit Subpixel Samples die aus vorherigen Frames generiert werden). Und das ist was völlig anderes.
Klar ist Nvidia selbst dran Schuld, wenn man den Namen nicht ändert. Hat AMD dummerweise auch nicht gemacht mit FSR 1 und FSR 2 und dort sind die Unterschiede ähnlich groß.
Aber es sind grundlegend unterschiedliche Dinge - im Gegenteil sie haben nahezu Null gemeinsam. Entsprechend macht der Vergleich null Sinn und Executers Aussage steht.
Troyan
2023-03-16, 13:58:41
DLSS ist genauso "echtes Supersampling", weil ebenfalls das Netzwerk mit 16k Bildern gefüttert wurde.
dildo4u
2023-03-16, 14:15:28
DLSS3 News neue Games, Streamline SDK und Plugin für UE 5.2.
https://wccftech.com/dlss-3-coming-to-diablo-iv-forza-horizon-5-frame-generation-plugin-now-publically-available/
ChaosTM
2023-03-16, 14:41:55
Nice. Forza 5 rennt zwar schon jetzt mit 4k/120 aber mit DLSS3 wohl mit 150 Watt weniger.
+ im Sommer nicht unwichtig
aufkrawall
2023-03-16, 14:45:50
DLSS ist genauso "echtes Supersampling", weil ebenfalls das Netzwerk mit 16k Bildern gefüttert wurde.
Nein, weil der Algorithmus keine zusätzlichen Samples erzeugt, welche er zur Interpolation nutzen würde.
Anyway, das Ergebnis war eh nur ein hässliches Ölgemälde. Kann man den Mist einfach mal in Ruhe kompostieren lassen? :freak:
Gibt den Bloom-Bug leider doch auch in Fortnite.
Fällt jetzt mit dem neuen "Asia"-Content auch auf der eigentlichen Map auf, das kann sogar die Sicht auf Gegner im Wasser behindern. X-(
robbitop
2023-03-17, 09:24:37
DLSS ist genauso "echtes Supersampling", weil ebenfalls das Netzwerk mit 16k Bildern gefüttert wurde.
Das ist kein Supersampling bei DLSS 1. Das vergleichen von hochauflösenden Bildern im NN mit den Inhalten aus einem Frame und ggf. partielles Ersetzen/Verbessern ist was komplett anderes.
Was ich meine ist, dass man pro Pixel echte Farb und Z Werte für mehrere Subpixel hat und diese Verrechnet. Sparsed Grid Super Sampling in dem Falle.
Nein, weil der Algorithmus keine zusätzlichen Samples erzeugt, welche er zur Interpolation nutzen würde.
Anyway, das Ergebnis war eh nur ein hässliches Ölgemälde. Kann man den Mist einfach mal in Ruhe kompostieren lassen? :freak:
This. :up:
Schade*, dass DLSS 2 (und im weiteren Sinne damit auch XeSS und FSR 2) offenbar doch von sehr vielen (in einem 3D Forum) so wenig durchdrungen wurde - und noch schlimmer: fehlendes Wissen hält nicht davon ab, sich mit viel Selbstbewusstsein trotz dessen an einer Diskussion beteiligen zu wollen und selbstbewusst falsche Informationen gepostet wird (anstatt sich entweder zurückzuhalten oder vorher zu recherchieren).
*schade weil moderne temporale Rekonstruktion eine der interessantesten und vielleicht disruptivsten Technologien ist im letzten Jahrzehnt und zum Teil erstaunliche Ergebnisse liefert (wenn man bedenkt aus wie wenig Auflösung mittlerweile temporal stabile und aliasing arme BQ entsteht).
Exxtreme
2023-03-17, 11:10:55
*schade weil moderne temporale Rekonstruktion eine der interessantesten und vielleicht disruptivsten Technologien ist im letzten Jahrzehnt und zum Teil erstaunliche Ergebnisse liefert (wenn man bedenkt aus wie wenig Auflösung mittlerweile temporal stabile und aliasing arme BQ entsteht).
Sagen wir's mal so: früher wäre das als Treiber-Cheating durchgegangen wenn man sowas machen würde, dass man weniger echte Daten rendert und dafür irgendwas dazuerfindet, was so ähnlich aussieht.
Und als disruptiv sehe ich das nicht wirklich. Ich befürchte eher das da:
https://i.redd.it/0vcdq39vq6ka1.jpg
Und das wird dann nicht mehr disruptiv sondern nachteilig für den Spieler. Sobald eine Technologie Schludern erlaubt dann wird geschludert werden. Weil es schlicht Kosten spart. Das siehst du sehr deutlich an Websiten. Praktisch keine Website schafft den W3C-Validator ohne Fehler. Denn die Fehlerkorrektur in den Browsern sorgt dafür, dass man nicht mehr standardkonform arbeiten muss. Das gleiche bei Spielekonsolen. Als Spielepatches nicht möglich waren dann konnten sich die Spielehersteller Schludern nicht erlauben da eine Spielerückrufaktion extrem teuer wäre. Seit Spielepatches aber möglich sind, wird das ausgenutzt.
Tesseract
2023-03-17, 11:28:46
Sagen wir's mal so: früher wäre das als Treiber-Cheating durchgegangen wenn man sowas machen würde, dass man weniger echte Daten rendert und dafür irgendwas dazuerfindet, was so ähnlich aussieht.
ein feature das man explizit einschaltet kann schon mal prinzipiell kein cheating sein und außerdem sind mehr "echte" daten im fertigen frame, nicht weniger. erstens kommen schlicht mehr samples auf der inputseite rein als bei native, zweitens ist das "dazuerfinden" nicht wirklich dazuerfinden sondern systematisches erkennen und vermeiden von samplingproblemen und damit eine genauere abbildung der ground truth.
Lurtz
2023-03-17, 11:34:51
Sagen wir's mal so: früher wäre das als Treiber-Cheating durchgegangen wenn man sowas machen würde, dass man weniger echte Daten rendert und dafür irgendwas dazuerfindet, was so ähnlich aussieht.
Und als disruptiv sehe ich das nicht wirklich. Ich befürchte eher das da:
https://i.redd.it/0vcdq39vq6ka1.jpg
Und das wird dann nicht mehr disruptiv sondern nachteilig für den Spieler. Sobald eine Technologie Schludern erlaubt dann wird geschludert werden. Weil es schlicht Kosten spart. Das siehst du sehr deutlich an Websiten. Praktisch keine Website schafft den W3C-Validator ohne Fehler. Denn die Fehlerkorrektur in den Browsern sorgt dafür, dass man nicht mehr standardkonform arbeiten muss. Das gleiche bei Spielekonsolen. Als Spielepatches nicht möglich waren dann konnten sich die Spielehersteller Schludern nicht erlauben da eine Spielerückrufaktion extrem teuer wäre. Seit Spielepatches aber möglich sind, wird das ausgenutzt.
Konsolen skalieren die Auflösung schon seit mindestens der ersten HD-Gen hoch. Das ist überhaupt nichts Neues, nur dass man jetzt endlich die Technologie hat, das auch in angemessener Qualität zu machen.
Lurtz
2023-03-17, 11:35:56
ein feature das man explizit einschaltet kann schon mal prinzipiell kein cheating sein und außerdem sind mehr "echte" daten im fertigen frame, nicht weniger. erstens kommen schlicht mehr samples auf der inputseite rein als bei native, zweitens ist das "dazuerfinden" nicht wirklich dazuerfinden sondern systematisches erkennen und vermeiden von samplingproblemen und damit eine genauere abbildung der ground truth.
Ich frage mich allerdings wie lange es sich noch explizit einschalten lassen wird. Ich könnte mir durchaus vorstellen, dass Entwickler mit Upsampling per default arbeiten und man höchstens noch die bevorzugte Methode mit TAAU-Fallback wird auswählen können.
Tesseract
2023-03-17, 11:56:34
warum sollte es in diesem fall anders sein als bei nahezu jedem anderen großen feature der letzten jahrzehnte? und selbst wenn wär das kein "cheating". wenn temporales upscaling cheating ist dann sind polygone und rasterisierung auch cheating. RT+upscaling ist streng genommen wesentlich näher an der realität als rasterisierung.
Lurtz
2023-03-17, 12:00:32
Eben deswegen, weil es ein gewisser Paradigmenwechsel sein könnte. TAA kann man in manchen Engines ja auch nicht mehr abschalten.
Troyan
2023-03-17, 12:01:34
Sackboy forciert gerade FG bei Lovelace. Eher eine Nachlässigkeit vom Entwickler, aber hey.
Tesseract
2023-03-17, 12:05:09
TAA kann man in manchen Engines ja auch nicht mehr abschalten.
in den allermeisten kann man das sehrwohl, genauso wie AF, AO, DoF und einem ganzen haufen anderer features. ich sehe keinen grund warum sich das jetzt plötzlich ändern sollte. am ehesten wird es automatisch teil der presets low/medium/high usw.
Exxtreme
2023-03-17, 12:06:56
ein feature das man explizit einschaltet kann schon mal prinzipiell kein cheating sein und außerdem sind mehr "echte" daten im fertigen frame, nicht weniger. erstens kommen schlicht mehr samples auf der inputseite rein als bei native, zweitens ist das "dazuerfinden" nicht wirklich dazuerfinden sondern systematisches erkennen und vermeiden von samplingproblemen und damit eine genauere abbildung der ground truth.
Die Frage ist wie lange es so bleibt, dass man es abschalten kann. Nicht-standardkonformes HTML bei nicht-standardkonformen Websites kannst du nämlich auch nicht abschalten. Da heisst es friss oder stirb und benutze möglichst die drei großen Browser weil andere Browser nicht-standardkonformes HTML eventuell nicht gut genug interpretieren. :freak:
Und deshalb sehe ich Technologien, die Pfusch ungestraft erlauben eher mit Skepsis. Weil dann aus Kostengründen gepfuscht wird. Und nein, ich möchte keine Spiele mit 30 fps-artigen Eingabeverzögerung obwohl das Spiel dank Zwangs-FG mit 60 fps läuft.
Tesseract
2023-03-17, 12:21:59
sry, aber der HTML-vergeich hinkt extrem. außerdem geht der trend seit jahren hin zu mehr latency-bewusstsein. die komplette kette monitor, API, framequeue, inputhandling, inputdevice ist heute viel mehr latency-aware als vor 10 jahren wo das kein schwein interessiert hat und man mit grauenhaftem lag leben bzw. mit treiber/config-hacks arbeiten musste.
robbitop
2023-03-17, 12:39:23
Sagen wir's mal so: früher wäre das als Treiber-Cheating durchgegangen wenn man sowas machen würde, dass man weniger echte Daten rendert und dafür irgendwas dazuerfindet, was so ähnlich aussieht.
Wie Tesseract schreibt, ist es ja optional durch den User einschaltbar. Und es werden ja echte Daten genutzt. Bei "echtem" SGSSAA tastest du ja mehrere Subpixel pro Pixel ab. Bei temporalem SGSSAA holst du dir die Subpixel aus vergangenen Frames. Ein überwiegend großer Teil dieser ist tatsächlich vorhanden und identisch mit dem was man bei "echtem" SGSSAA bekommen würde. Nur wurde das bisher nicht genutzt - einfach weil es sehr sehr schwierig ist, diese (bei Bewegung) wieder zu finden. Dank moderner Methoden (rechenintensive Algorithmen und/oder NN) nun aber möglich.
Und das ist schon beeindruckend.
Und als disruptiv sehe ich das nicht wirklich. Ich befürchte eher das da:
https://i.redd.it/0vcdq39vq6ka1.jpg
Und das wird dann nicht mehr disruptiv sondern nachteilig für den Spieler. Sobald eine Technologie Schludern erlaubt dann wird geschludert werden. Weil es schlicht Kosten spart. Das siehst du sehr deutlich an Websiten. Praktisch keine Website schafft den W3C-Validator ohne Fehler. Denn die Fehlerkorrektur in den Browsern sorgt dafür, dass man nicht mehr standardkonform arbeiten muss. Das gleiche bei Spielekonsolen. Als Spielepatches nicht möglich waren dann konnten sich die Spielehersteller Schludern nicht erlauben da eine Spielerückrufaktion extrem teuer wäre. Seit Spielepatches aber möglich sind, wird das ausgenutzt.
Unabhängig vom Verfahren und dass ich dieses beeindruckend finde, teile ich deine Sorge. Das gilt auch für andere Verfahren wie Frame Generation. Das wird dann zukünftig "eingepreist".
Allerdings gibt es -zumindest auf fixen HW Konfigurationen wie Konsolen - dennoch Incentives trotz Frame Generation und Temporaler Rekonstruktion alles herauszuholen um sich optisch von der Konkurrenz abzusetzen. Da ja alle Studios Zugriff auf die Verfahren haben und die HW Leistung begrenzt ist, kann man sich nach wie vor über Optimierung differenzieren. Zumindest ein kleiner Trost.
Ganon
2023-03-17, 13:22:12
Im Endeffekt steht ja nichts im Wege verschiedene Fame-Generation Verfahren anzubieten und die Framerate nicht nur zu verdoppeln, sondern zu verdrei- oder zu vervierfachen (z.B. 30fps -> 120fps). Das würde natürlich auch die Artefakte sichtbarer machen, aber das ist ja bei DLSS-(Ultra-)Performance aktuell auch kein "Problem", sodass man es nicht anbieten würde.
Ab wann wäre es denn "cheaten"?
robbitop
2023-03-17, 13:32:05
Gar nicht solange es durch den User einstellbar ist oder zumindest transparent ist.
Wesentlicher finde ich das Ergebnis.
Tesseract
2023-03-17, 13:45:23
man muss auch bedenken, dass 144Hz-VRR heute quer durch alle preissegmente vertreten ist und wir an der schwelle zu massentauglichen 240Hz stehen. die typischen fps-targets sind heute ganz andere als vor 5-10 jahren und in diesem kontext muss man FG sehen.
Ganon
2023-03-17, 13:54:40
Ich hab da eher den anderen Blickwinkel: Das Marketing verspricht Frameraten, die ohne diese Technologien gar nicht erreicht werden _und_ die auch mit den damaligen Vergleichsmethoden auch überhaupt nicht vergleichbar sind. Dazu gepaart, dass man ohne diese Technologien in aktuellen Titeln selbst auf den besten Grafikkarten kaum die Möglichkeit hat anständige Frameraten zu erreichen.
4K@60fps war vor DLSS und Co. ein fest definierter Zustand. Heute ist 4K@60fps lediglich ein Ausgabeformat. Trotzdem argumentiert man großteils immer noch mit den einzigen Elementen "Auflösung" und "Framerate", obwohl beides keinerlei eigenen Wert mehr hat.
Von daher sehe ich es weiterhin auch als Cheating an. Spätestens vor dem 08/15 Gamer, der nicht jede neue Technologie durchstudiert.
Das "Problem" (wenn man es denn so sehen will), wird sich über die Jahre nur noch verschärfen. Da ist man dann wieder bei dem Punkt, wovon ich fest überzeugt bin, dass Spiele später ohne diese Technologien gar nicht mehr sinnvoll funktionieren. Einfach mangels Optimierung.
Tesseract
2023-03-17, 14:05:47
4K@60fps war vor DLSS und Co. ein fest definierter Zustand.
und was genau ist dieser zustand? ist 4k output mit unscharfen texturen 4k? ist 4k mit schatten die einen bruchteil der outputresolution haben 4k? ist 4k mit eckigen polygonsilhouetten 4k?
ihr tut so als wär das eine völlig neue problemstellung und nicht etwas das es seit beginn des 3D-renderings gibt.
4k und davor 1440p und davor 1080p und davor SD-auflösungen waren noch nie was anderes aus ausgabeformate.
Exxtreme
2023-03-17, 14:12:29
sry, aber der HTML-vergeich hinkt extrem. außerdem geht der trend seit jahren hin zu mehr latency-bewusstsein. die komplette kette monitor, API, framequeue, inputhandling, inputdevice ist heute viel mehr latency-aware als vor 10 jahren wo das kein schwein interessiert hat und man mit grauenhaftem lag leben bzw. mit treiber/config-hacks arbeiten musste.
Der Vergleich hinkt nicht wenn man ihn aus betriebswirtschaftlicher Perspektive anschaut. Es ist so: Optimierung benötigt Zeit und Personal. Und beides kostet Geld. Und fehlende Optimierung kann ein Projekt hinauszögern. Und in unserem Wirtschaftssystem ist Geld jetzt einnehmen viel besser als Geld in drei Monaten einzunehmen. Denn jetzt eingenommenes Geld kann man jetzt anlegen und bekommt jetzt Zinsen angerechnet. Und man verliert nicht drei Monate an Zinseinnahmen.
Und deshalb bin ich mir sehr sicher, dass man sowas wie FG primär zur Personaleinsparung/Kostensenkung nutzen wird und weniger für bessere Grafik.
Tesseract
2023-03-17, 14:22:19
die realität ist dass visual fidelity eines der verkaufsargumente gerade bei AAA-spielen ist und man deswegen optimiert um einen vorteil gegenüber der konkurrenz zu haben. ein großer teil der kosten entsteht sowieso auf der asset-creation-seite und nicht durch low-level engineoptimierungen. zum einsparen von optimierungen braucht man auch kein DLSS, da hätte man auch 100 andere stellschrauben.
wie gesagt: diese thematik ist nicht neu sondern jahrzehnte alt.
Ganon
2023-03-17, 14:28:03
4k und davor 1440p und davor 1080p und davor SD-auflösungen waren noch nie was anderes aus ausgabeformate.
Und du vermischst jetzt Details anderer Elemente im Rendering und würfelst sie mit in die Auflösung rein. Texturauflösung und Co. hat grob nichts mit der Ausgabeauflösung zu tun. Ich kann auch 4K Texturen in 480p rendern. Sehe davon zwar nichts, aber im Speicher liegen sie trotzdem und es wird auf sie zugegriffen und je nach Abstand kann es weiterhin besser aussehen als wenn ich 512x512 Texturen haben. Der dahinterliegende Wert ist trotzdem ein fester.
Und 4K hieß, dass das resultierende Bild eben in 4K gerendert wird und nicht $irgendwas auf 4K angehoben wird. Auch hieß 60fps, dass die Grafikkarte 60 unabhängige Bilder voneinander berechnet hat und nicht $irgendwas auf 60 hochschmiert.
DLSS, VRS und FG verwischt hier schlicht die Bedeutung hinter Werten. Oder anders gefragt: Was bringt mir die 4K-Einstellung, wenn das Bild am Ende trotzdem in seiner Auflösung verwaschen aussieht und dazu noch Upscaling-Artefakte hat? Eine höhere Zahl an der Bildschirm-Info, weil größere Zahl besser als kleinere Zahl?
Troyan
2023-03-17, 14:30:57
DLSS, VRS und FG verwischt hier schlicht die Bedeutung hinter Werten. Oder anders gefragt: Was bringt mir die 4K-Einstellung, wenn das Bild am Ende trotzdem in seiner Auflösung verwaschen aussieht und dazu noch Upscaling-Artefakte hat? Eine höhere Zahl an der Bildschirm-Info, weil größere Zahl besser als kleinere Zahl?
Was bringt dir natives Rendering, wenn dem Bild alles weitere fehlt: Kein GI, keine Schatten, keine Reflektionen, kein AO. Ein einfaches Pre-Pixel/Vertex-Shader Bild ohne irgendwas.
Davon abgesehen, die Ausgabe erfolgt in einem Gerät mit einem staren Raster. Wieso ist es relevant, wie der Farbwert für den Rasterpunkt ermittelt wird?
/edit: Frame Generation erzeugt dir ein reales 4K Bild. Nur sind die Farbwerte nicht durch das Hostsystem vorgegeben, sondern werden selbstständig aus zwei berechneten Frames ermittelt.
Ganon
2023-03-17, 14:37:27
Was bringt dir natives Rendering, wenn dem Bild alles weitere fehlt: Kein GI, keine Schatten, keine Reflektionen, kein AO. Ein einfaches Pre-Pixel/Vertex-Shader Bild ohne irgendwas.
Du meinst, weil die Grafikkarte ohne cheaten sonst gar nicht die Leistung hätte, diese Effekte in $Auflösung zu rendern?
Davon abgesehen, die Ausgabe erfolgt in einem Gerät mit einem staren Raster. Wieso ist es relevant, wie der Farbwert für den Rasterpunkt ermittelt wird?
Öh? Was hat das damit zu tun? Nach der Logik wäre es auch irrelevant, ob ich einfach 720p bilinear hoch skaliere oder mittels DLSS.
Tesseract
2023-03-17, 14:38:35
Und 4K hieß, dass das resultierende Bild eben in 4K gerendert wird und nicht $irgendwas auf 4K angehoben wird.
natürlich wird es das. was glaubst du passiert wenn zu niedrig aufgelöste texturen in 4k rasterisiert werden? die magnification-mechanik interpoliert die fehlenden zwischenwerte um die lücken im raster zu füllen. das ist im prinzip nix anderes als upscaling einer niedrigeren rasterauflösung aber halt selektiv und an einem anderen punkt in der pipeline. für schatten und alle möglichen anderen algorithmen gilt genau das gleiche. selbst polygone als grundlegendes renderprimitiv sind konzeptionell dynamische rasterlückenfüller.
Ganon
2023-03-17, 14:45:23
natürlich wird es das. was glaubst du passiert wenn zu niedrig aufgelöste texturen in 4k rasterisiert werden? die magnification-mechanik interpoliert die fehlenden zwischenwerte um die lücken im raster zu füllen. das ist im prinzip nix anderes als upscaling einer niedrigeren rasterauflösung aber halt selektiv und an einem anderen punkt in der pipeline. für schatten und alle möglichen anderen algorithmen gilt genau das gleiche. selbst polygone als grundlegendes renderprimitiv sind konzeptionell dynamische rasterlückenfüller.
Äh, ja und? Was hat das damit zu tun, wenn ich ein Bild in einer niedrigeren Auflösung rendere und dann mittels irgend einem Verfahren hochskaliere und dann das Label "4K" drauf klatsche? Du verschiebst trotzdem das Verschmieren in immer weitere Teile der Pipeline, bei denen das vorher nicht der Fall war.
Tesseract
2023-03-17, 14:56:33
Äh, ja und? Was hat das damit zu tun, wenn ich ein Bild in einer niedrigeren Auflösung rendere und dann mittels irgend einem Verfahren hochskaliere und dann das Label "4K" drauf klatsche? Du verschiebst trotzdem das Verschmieren in immer weitere Teile der Pipeline, bei denen das vorher nicht der Fall war.
beide varianten "skalieren hoch" und klatschen "4k" drauf. entscheidend ist wie nah die varianten an der ground truth sind und wie dabei die performance ist und da ist DLSS in vielen fällen sowohl näher and der ground truth als auch schneller.
diese doppelmoral jahrzehnte rastertrickserei als "echt" zu deklarieren obwohl sie das noch nie war und dann einer neuen technik genau das vorzuwerfen macht null sinn.
DrFreaK666
2023-03-17, 15:04:42
Ich glaub das war jetzt genug OT
Ganon
2023-03-17, 15:11:32
diese doppelmoral jahrzehnte rastertrickserei als "echt" zu deklarieren obwohl sie das noch nie war und dann einer neuen technik genau das vorzuwerfen macht null sinn.
Wie schon gesagt, du mischst hier einfach Dinge rein, von denen ich gar nicht rede. Und jetzt so zu tun als wäre eine eingestellte 4K Auflösung noch nie und nirgendwo "echte 4K" gewesen ist auch albern.
Es geht auch nicht darum die Verfahren als schlecht darzustellen. Mir ist schon klar, dass DLSS besser ist als ein einfacher Filter, aber letztendlich entwertet es trotzdem die Aussage über die Auflösung bzw. Framerate.
Die Bildqualität von 4K@60fps mit diesen jeweiligen Verfahren auf einer RTX 3xxx ist was anderes als 4K@60fps auf einer RTX 4xxx, ist was anderes als 4K@60fps auf einer RX 7xxx. Und da brauchst du mir nicht erzählen, dass das ohne diese Verfahren schon immer so war. Und das ist auch mein Punkt. 4K@60fps (oder irgend eine andere Kombination davon) hat einfach eine andere (nutzlosere) Bedeutung bekommen.
Troyan
2023-03-17, 15:12:14
Du meinst, weil die Grafikkarte ohne cheaten sonst gar nicht die Leistung hätte, diese Effekte in $Auflösung zu rendern?
Ja. Wieso eine Fläche in nativ berechnen, um sie dann darauf mit 1/4 der Auflösung per SSR zu verunstalten?
Öh? Was hat das damit zu tun? Nach der Logik wäre es auch irrelevant, ob ich einfach 720p bilinear hoch skaliere oder mittels DLSS.
Das ist es ja: Am Ende zählt die Qualität und nicht, wie man zur Qualität gelangt. Wenn DLSS@Performance 90% vom nativen 4K erreicht und dabei >2x schneller ist, würdest du dann wirklich nativ vorziehen?
DrFreaK666
2023-03-17, 15:13:53
Ich sehe das Problem nicht.
Bei Reviews gibt es weiterhin Benchmarks ohne FSR/DLSS/XeSS.
In meiner Wahrnehmung sind sie sogar in der Mehrheit
Ganon
2023-03-17, 15:16:16
Ja. Wieso eine Fläche in nativ berechnen, um sie dann darauf mit 1/4 der Auflösung per SSR zu verunstalten?
Das ist es ja: Am Ende zählt die Qualität und nicht, wie man zur Qualität gelangt. Wenn DLSS@Performance 90% vom nativen 4K erreicht und dabei >2x schneller ist, würdest du dann wirklich nativ vorziehen?
Ich sehe das Problem nicht.
Bei Reviews gibt es weiterhin Benchmarks ohne FSR/DLSS/XeSS.
In meiner Wahrnehmung sind sie sogar in der Mehrheit
Wie ich schon geschrieben habe: Darum geht's mir nicht :)
Troyan
2023-03-17, 15:22:05
Wir haben nativ gespielt, weil es keine Alternative gab. Genauso wie man mit SSRs gespielt hat. Aber technischer Fortschritt führt auch zur Veränderung. DLSS ist einfach effizienter als stures natives Rendering.
aufkrawall
2023-03-17, 15:29:15
DLSS ist einfach effizienter als stures natives Rendering.
Erstmal ist das jedes TAAU, das nicht besonders schlecht ist. Das war schon 2017 so in Assassin's Creed Origins, wenn man AA auf "low" gestellt hat. Hatte nur keiner gemerkt, was ja den Punkt bestätigt...
Tesseract
2023-03-17, 15:33:43
Und jetzt so zu tun als wäre eine eingestellte 4K Auflösung noch nie und nirgendwo "echte 4K" gewesen ist auch albern.
es ist nie "echteres" 4k gewesen als das was du als unechtes 4k bezeichnest. "4k" war immer der finale framebuffer und immer gab es in der pipeline haufenweise "skalierung" in irgendeiner form. man kann argumenitieren dass RT-GI mit upscaling (also die vision von turing) wesentlich "echteres" 4k ist als alles was man seit den ersten GPUs rasterisiert hat.
Die Bildqualität von 4K@60fps mit diesen jeweiligen Verfahren auf einer RTX 3xxx ist was anderes als 4K@60fps auf einer RTX 4xxx, ist was anderes als 4K@60fps auf einer RX 7xxx.
ich weiß nicht warum du dich an irgendwelchen GPUs aufhängst. die bildqualität 4K@60fps unterscheidet sich auch zwischen schattenauflösungen, texturauflösungen, klassischen AA-varianten usw. und das ist die passende analogie zu DLSS (oder FSR) vs "native".
zu behaupten diverse shader, texturen, maps usw. @ultra sind genau so "echtes" 4k wie @low vollkommen egal wie hart diverse buffer in der pipeline hochinterpoliert werden aber temporales upscaling auf der anderen seite als "unecht" zu bezeichnen ist ein völlig inhaltsleeres label.
Ganon
2023-03-17, 15:42:08
es ist nie "echteres" 4k gewesen als das was du als unechtes 4k bezeichnest.
Na da freut sich doch das Marketing. Dann kann's ja so weitergehen. :)
aufkrawall
2023-03-17, 15:46:25
Na da freut sich doch das Marketing. Dann kann's ja so weitergehen. :)
Nach der Logik gäbe es auch keine Delta Color Compression bei GPUs, denn nur die "echte" Bandbreite zählt...
Tesseract
2023-03-17, 15:47:54
Na da freut sich doch das Marketing. Dann kann's ja so weitergehen. :)
du kannst mir gerne eine technische definition anbieten was als "echt" und was als "unecht" gelten soll. ich wüsste nichtmal wo ich da anfangen soll.
Ganon
2023-03-17, 16:00:31
du kannst mir gerne eine technische definition anbieten was als "echt" und was als "unecht" gelten soll. ich wüsste nichtmal wo ich da anfangen soll.
Ich weiß ehrlich gesagt gar nicht was so schwer daran zu verstehen ist, ob ein Spiel in einer Auflösung bzw. Framerate gerendert und dann auch mit dieser dargestellt wird, oder ob da noch ein artefaktbehafteter, temporaler Upscaler für beides dazwischen liegt. Jetzt unabhängig davon, wo du noch überall (technologisch vollkommen andere) Mini-Upscaler in einer Rendering Pipeline siehst und damit alles nachfolgende ebenfalls relativieren willst.
Aber wie ich ja sagte, wenn alle damit glücklich sind, dann ist das doch super für's Marketing. :) Funktioniert im Video-Streaming Bereich ja auch schon länger gut.
Tesseract
2023-03-17, 16:11:49
Ich weiß ehrlich gesagt gar nicht was so schwer daran zu verstehen ist
dann gib mir bitte eine definition. ausgabeauflösung und framebuffer ist in beiden fällen 4k, temporale upscaler sind wie viele andere schritte teil der pipeline. artefaktneigung ist durch die im schnitt höhere abtastung (mehr samples pro pixel) in vielen fällen geringer.
wenn es so einfach zu verstehen ist kannst du mir sicher eine schlüssige definition geben die nicht auf willkühr basiert.
aufkrawall
2023-03-17, 16:23:26
Übrigens: Seit dem letzten Update ist TSR Epic in Fortnite in Bewegung gleichzeitig sowohl extrem stabil, als auch extrem scharf. Das sieht bei 50% Auflösung massiv besser als TAA 100% aus. :freak:
Allerdings ist der Performance-Overhead auch abartig. DLSS kommt auch weiterhin mit "2D-Effekten" deutlich besser klar, aber es tut sich schon was. Bei Geometrie und Bewegungsschärfe ist TSR Epic mitunter schon ein gutes Stück besser. Es könnte noch Jahrzehnte signifikante Verbesserungen bei temporalem Upsampling geben.
Ganon
2023-03-17, 16:25:05
dann gib mir bitte eine definition.
Weiß jetzt nicht was du von mir hören willst. Ich hab doch schon erklärt, dass ich den Stand im Vergleich zu vor den temporalen Upscalern (bzw. diese abgeschaltet) meinte und nicht deine echt breit geschmierte Definition von "alles ist Upscaling". Du bist der, der hier allen möglichen Quark in die Angabe einer Auflösung@Framerate mit einbezieht anstatt die Auflösung@Framerate mal für sich alleine betrachtet.
Und jetzt erzähle mir nicht, dass die ganzen reinen upscaling Artefakte, über die hier im Forum seitenweise gejammert wird, ohne diese auch schon da sind.
aufkrawall
2023-03-17, 16:26:56
Und jetzt erzähle mir nicht, dass die ganzen reinen upscaling Artefakte, über die hier im Forum seitenweise gejammert wird, ohne diese auch schon da sind.
Genau das ist der Fall. Die allermeisten Artefakte kommen eben nicht durch eine gewisse Reduktion der Auflösung, sondern durch die temporalen Verfahren selbst. Kapieren viele leider nicht.
Lurtz
2023-03-17, 16:32:29
Und jetzt erzähle mir nicht, dass die ganzen reinen upscaling Artefakte, über die hier im Forum seitenweise gejammert wird, ohne diese auch schon da sind.
Nur mal meine letzten Beispiele in toller nativer Auflösung, ohne cheatendes Upsampling:
klL56s4mUic
ECVmq2rkIZs
:whistle:
Tesseract
2023-03-17, 16:45:56
Weiß jetzt nicht was du von mir hören willst.
deine definition von "native". "alles vor tag X" ist reine willkühr.
vor 5-10 jahren war die implizite definition von "native" kein bilineares (oder dazu sehr ähnliches) upscaling mit seinen ziemlich klaren, einheitlichen problemen, das war aber eine andere diskussion. was ist für dich "native" und warum sind temporale upscaler deiner meinung nach nicht native, andere upscaler in der pipeline aber nicht?
Ganon
2023-03-17, 17:05:17
Nur mal meine letzten Beispiele in toller nativer Auflösung, ohne cheatendes Upsampling
TAA ist auch ein temporales Verfahren und schmiert mehrere Bilder zusammen, wenn auch gerade nicht explizit in der Diskussion erwähnt. Praktisch ist es ein Blur-Filter über deinem Bild.
aufkrawall
2023-03-17, 17:08:41
TAA ist auch ein temporales Verfahren und schmiert mehrere Bilder zusammen, wenn auch gerade nicht explizit in der Diskussion erwähnt. Praktisch ist es ein Blur-Filter über deinem Bild.
Du hast da irgendwie eine Verständnis-Barriere, dass man Samples > Pixel braucht, und die realistisch einzig verfügbaren temporaler Natur sind. Nennt sich temporales Supersampling und ist weit mehr als ein "Blur-Filter". Und alternativlos.
Ganon
2023-03-17, 17:12:34
Nennt sich temporales Supersampling und ist weit mehr als ein "Blur-Filter". Und alternativlos.
Ich weiß was TAA ist, "praktisch" heißt, das was am Ende bei raus kommt. Die Bildschärfe nimmt einfach extrem ab inkl. einiger temporaler Artefakte, je nach Umsetzung.
Ganon
2023-03-17, 17:14:23
warum sind temporale upscaler deiner meinung nach nicht native, andere upscaler in der pipeline aber nicht?
Wie ich schon sagte, ich teile schlicht deine Definition von "Upscaling" nicht. Das Eine ist eine reine technische Notwendigkeit, weil sonst einfach nur ein schwarzer Pixel an der Stelle wäre, das andere etwas was zusätzlich oben drauf anwendet wird, um Performance zu gewinnen.
Und den Rest hab ich jetzt schon mehrfach erklärt. Die Diskussion dreht sich im Kreis. :)
aufkrawall
2023-03-17, 17:29:13
Ich weiß was TAA ist, "praktisch" heißt, das was am Ende bei raus kommt. Die Bildschärfe nimmt einfach extrem ab inkl. einiger temporaler Artefakte, je nach Umsetzung.
Ja, mit TAA alter Generation. DLSS/FSR 2/TSR liefern aber mitunter dramatisch bessere Ergebnisse, trotz niedrigerer Auflösung. Echt so schwer zu verstehen?
Schalte einfach in Fortnite zwischen TAA und TSR high um...
ChaosTM
2023-03-17, 17:31:24
Du solltest zur Abwechslung mal was anders spielen, obwohl ich deine Sucht verstehen kann. :)
ich spiel fast nur FS2020 und Uncharted
Ganon
2023-03-17, 17:37:51
Echt so schwer zu verstehen?
Ist es nicht, wenn du mir nicht einfach Worte in den Mund legen würdest. Ich hab mich schlicht auf die Aussage "in toller nativer Auflösung, ohne cheatendes Upsampling" bezogen und sehe Videos wo es um TAA geht. Das erkennt man übrigens daran, dass im Beitrag ein anderer Beitrag mit enthalten ist und darüber steht "Zitat von ..." und darin die Aussage der anderen Person.
Und auch wenn du es mir gerne anderes unterstellen willst, ich hab in Beitrag #4451 schon erwähnt, dass es mir nicht darum geht Verfahren wie DLSS und Co. als schlecht darzustellen.
Tesseract
2023-03-17, 17:39:57
Wie ich schon sagte, ich teile schlicht deine Definition von "Upscaling" nicht. Das Eine ist eine reine technische Notwendigkeit, weil sonst einfach nur ein schwarzer Pixel an der Stelle wäre, das andere etwas was zusätzlich oben drauf anwendet wird, um Performance zu gewinnen.
deine übersimplifizierungen führen zu nix. DLSS (wie auch TAA) ist eine weitere stage in der pipeline in der unzählige samples aus unzähligen buffern in unzählige andere buffer verrechnet werden. fast jedes mal wenn du irgendwo ein setting runter drehst werden irgendwo in der pipeline buffer kleiner und als folge operationen eingespart bzw. werte interpoliert. warum ist der DLSS-buffer da fundamental anders als ein shadow buffer, eine height map, irgendwelche screenspace buffer oder was weiß ich was?
Die Bildschärfe nimmt einfach extrem ab inkl. einiger temporaler Artefakte
nein, die bildschärfe im sinne von detailabbildung der szene nimmt in vielen fällen extrem zu, der bildkontrast nimmt ab, unter anderem weil artefakte meist höheren kontrast haben als echte details. das war bei MSAA und SSAA auch schon so. da der algorithmus nicht perfekt ist gibt es auch downsides aber in summe ist es ein deutlicher gewinn. schalt mal in einem modernen grafisch anspruchsvollen spiel mit vielen details alle temporalen algorithmen aus, da ätzt dir das geflimmer die augen kaputt.
TAA schmiert keine bilder zusammen, das ist eine falschdarstellung was da technisch passiert.
Ganon
2023-03-17, 17:43:23
deine übersimplifizierungen führen zu nix.
Anders, was findest du besser: DLSS oder DLAA?
ChaosTM
2023-03-17, 17:47:10
8k - downsampled to 4k ;)
ich hab den Überblick über all die Methoden verloren..
aufkrawall
2023-03-17, 17:57:55
Anders, was findest du besser: DLSS oder DLAA?
Falsche Frage. Die richtige Frage, was besser aussieht, wäre: Günstigeres TAA bei 100% Auflösung oder teureres TAAU, was durch abgesenkte Renderauflösung mindestens gleich schnell läuft?
Und ja, da sind die Ressourcen der GPU besser in teureres TAAU investiert als in höhere Auflösung. Deshalb ist die ganze Diskussion verfehlt...
Tesseract
2023-03-17, 17:59:48
Anders, was findest du besser: DLSS oder DLAA?
was findest du besser: schatten auf hoch oder niedrig? texturen auf niedrig oder hoch? natürlich sind mehr samples qualitativ besser, und das gilt auch nicht nur in eine eine richtung sondern auch in die andere über die framebufferauflösung hinaus.
und jetzt die eigentliche frage: was ist besser, DLAA + preset niedrig oder DLSS + preset hoch? die einzig richtige antwort darauf ist dass das von der situation abhängt und die erste variante nicht special ist nur weil der DL-buffer mit dem framebuffer überein stimmt.
Ganon
2023-03-17, 18:11:31
Falsche Frage.
Ne ne, die ist ganz bewusst gewählt. :)
die einzig richtige antwort darauf ist dass das von der situation abhängt und die erste variante nicht special ist nur weil der DL-buffer mit dem framebuffer überein stimmt.
Na wenn du dir deine Antwort schon zurecht gelegt hast, dann ist das doch schön. Wie gesagt, das Marketing freut's. Es geht zwar weiterhin an meinem ursprünglichen Punkt bzw. Aussage weit vorbei, aber ich denke das wird hier heute nichts mehr. Ich hoffe Benchmark-Seiten finden irgendwann einen Weg Bildqualität in Balkenlängen abzubilden.
Ich würde sagen wir belassen es dabei und gehen ins Wochenende. :)
The_Invisible
2023-03-17, 18:48:39
Sackboy hat dlss3 und, interessanter, SER bekommen. Erstes Spiel? Benchmarks anyone? :D
https://wccftech.com/sackboy-a-big-adventure-update-adds-nvidia-dlss-3-shader-execution-reordering-support/amp/
Troyan
2023-03-17, 18:49:51
Wird schwer, weil SER ist nicht ausschaltbar. Wenn ich es bei mir mit Youtube von vor 4 Monaten vergleiche, wären es ca. 20% oder so. Aber muss nichts heißen, das Spiel wurde ja öfters aktualisiert.
Lurtz
2023-03-17, 21:24:35
TAA ist auch ein temporales Verfahren und schmiert mehrere Bilder zusammen, wenn auch gerade nicht explizit in der Diskussion erwähnt. Praktisch ist es ein Blur-Filter über deinem Bild.
Gibt nur keine Alternative, weil es dir ohne temporales Verfahren die Augen wegflimmert.
Also schwebt dir offenbar Grafik wie Anfang der 2000er in nativen 8k vor, das ist natürlich der deutlich bessere Weg :uup:
Ne ne, die ist ganz bewusst gewählt. :)
Na wenn du dir deine Antwort schon zurecht gelegt hast, dann ist das doch schön.
:ulol: Kann man sich nicht ausdenken.
Wird schwer, weil SER ist nicht ausschaltbar. Wenn ich es bei mir mit Youtube von vor 4 Monaten vergleiche, wären es ca. 20% oder so. Aber muss nichts heißen, das Spiel wurde ja öfters aktualisiert.
Da gibt's doch bestimmt ein Commandline-Argument (Startparameter) ... spannend ist's schon, zumal das sicher bald in mehr Spiele mit der UE Einzug halten wird.
MfG
Raff
Gott1337
2023-03-18, 04:40:16
Und du vermischst jetzt Details anderer Elemente im Rendering und würfelst sie mit in die Auflösung rein. Texturauflösung und Co. hat grob nichts mit der Ausgabeauflösung zu tun. Ich kann auch 4K Texturen in 480p rendern. Sehe davon zwar nichts, aber im Speicher liegen sie trotzdem und es wird auf sie zugegriffen und je nach Abstand kann es weiterhin besser aussehen als wenn ich 512x512 Texturen haben. Der dahinterliegende Wert ist trotzdem ein fester.
sorry aber die Annahme das man 4k texturen bei 480p nicht sehen kann ist ja auch nicht korrekt. wer sagt denn dass das ganze Objekt immer Komplett auf dem Schirm ist? Oder Landschaften, da würdest du dennoch viel größere Texturen sehen. Nicht Ohne Grund nutzen wir schon lange UDIMs damit man mehrere 2k texturen für einen charakter nutzen können. zB nur fürs gesicht, arme, beine. weil man eben mal Szenen mit einer Nahaufnahme hat. Bei Totalen sieht man dann die kleineren Mipmap Stufen.
Ganon
2023-03-18, 07:32:03
Also schwebt dir offenbar Grafik wie Anfang der 2000er in nativen 8k vor, das ist natürlich der deutlich bessere Weg :uup:
Nein. Schwebt mir nicht vor und war nicht meine Aussage. Vielleicht nochmal: Meine grundlegende Aussage war, dass mit all den Methoden (und die, die da vermutlich noch kommen werden) eine Angabe wie "Es läuft in 4K mit 60fps" einfach keine relevante bzw. sinnvolle Angabe mehr ist. Erst danach kam das ganze bla bla, dass das angeblich noch nie wirklich aussagekräftig war und all der Unsinn.
wer sagt denn dass das ganze Objekt immer Komplett auf dem Schirm ist?
Joahr, steht in dem von dir zitierten Text sogar mit drin. Einfach mal alles lesen.
Tobalt
2023-03-18, 08:39:35
Der einzig vergleichbare Bezugspunkt des Nutzens ist das Ausgabeformat, was an das Display geschickt wird (objektiv) und der wahrgenommene Sinneseindruck (subjektiv). Für beides sind die Anzahl und Art der internen Rechnungen (Kosten) völlig irrelevant.
Temporales Upsampling ist ein absoluter Meilenstein um Nutzen/Kosten-Ratio massiv zu steigern. Etwas vergleichbares fällt mir ehrlich gesagt nicht ein.
Nein. Schwebt mir nicht vor und war nicht meine Aussage. Vielleicht nochmal: Meine grundlegende Aussage war, dass mit all den Methoden (und die, die da vermutlich noch kommen werden) eine Angabe wie "Es läuft in 4K mit 60fps" einfach keine relevante bzw. sinnvolle Angabe mehr ist. Erst danach kam das ganze bla bla, dass das angeblich noch nie wirklich aussagekräftig war und all der Unsinn.
andere wollen dir hier zart mitteilen, dass schon immer! teile der renderpipeline in unterschiedlichen auflösungen gerendert werden und DLSS ist ein anderes Verfahren
wichtig ist, was am Ende rauskommt
Troyan
2023-03-18, 12:41:08
Da gibt's doch bestimmt ein Commandline-Argument (Startparameter) ... spannend ist's schon, zumal das sicher bald in mehr Spiele mit der UE Einzug halten wird.
MfG
Raff
Gibt kein offizielles SER in UE4. nVidia hast es nur im UE5 Branch eingebaut. Wahrscheinlich wurde das hier direkt im Quellcode geändert.
Oh, wow, das macht die Sache noch viel interessanter. Ich hatte nicht erwartet, dass ein so kleines (und leider nicht erfolgreiches) Projekt im Nachhinein so viel Technik-Liebe erhält.
MfG
Raff
aufkrawall
2023-03-18, 14:55:35
Leider ist die RT-AO trotzdem nicht sehr gut und dürfte weiterhin abartig bei viel Bewegung rauschen.
Lurtz
2023-03-18, 15:40:34
Nein. Schwebt mir nicht vor und war nicht meine Aussage. Vielleicht nochmal: Meine grundlegende Aussage war, dass mit all den Methoden (und die, die da vermutlich noch kommen werden) eine Angabe wie "Es läuft in 4K mit 60fps" einfach keine relevante bzw. sinnvolle Angabe mehr ist. Erst danach kam das ganze bla bla, dass das angeblich noch nie wirklich aussagekräftig war und all der Unsinn.
Und "unsere" grundlegende Aussage ist, dass das für sich noch nie eine sonderlich relevante Aussage war, weil das alles von Flimmerhölle mit SD-Texturen bis hin zu mit SGSSAA totgeglättete HD-Grafik, mit gutem/schlechtem Framepacing etc. pp bedeuten konnte.
Ex3cut3r
2023-03-18, 18:15:25
An die "Experten" Was ist DLSS P? Was ist Native Auflösung? :biggrin:
Eins ist DLSS 3.1.1 mit Preset F im Pefromance Mode (1080p interne Auflösung)
Eins ist native 4K mit TAA.
Preset F ist in machen Spielen so gut IMHO, dass man keinen Unterschied mehr erkennen kann. Ist einfach unmöglich.
Und jetzt kommt der Gag, mit DLSS gibt es satte 60-70% mehr Leistung auf einer 3080 Ti als Native 4K. Mit DLSS wird mein Framerate Limit von 141 mit 1280 Mhz erreicht, und die GPU chillt bei 200W mit RT Spiegelungen!
https://abload.de/thumb/doometernalx64vk_2023cuc5k.png (https://abload.de/image.php?img=doometernalx64vk_2023cuc5k.png) https://abload.de/thumb/doometernalx64vk_2023o3fjw.png (https://abload.de/image.php?img=doometernalx64vk_2023o3fjw.png)
DrFreaK666
2023-03-18, 18:24:43
Würde mich nicht als Experte sehen, aber meiner Meinung nach ist das erste Bild mit DLSS
Stell dich mal vor eine der zahlreichen Oberflächen, die tatsächlich eine ordentliche Spiegelung zeigen (etwa am Anfang von The Ancient Gods, Part 1), dann wirst du leider das Aufbröseln/-matschen von DLSS sehen. Natürlich ist eine Szene, bei der die Farben um höchstens 20 Prozent abweichen, ein guter Showcase. Die Unterschiede sind aber wirklich sehr gering in diesem dunklen Standbild, was schon krass ist angesichts 1/4 der Auflösung bei DLSS P. Bild #2 dithert mehr, was DLSS-Nachschärfung sein könnte, und zeigt vereinzelte LOD-Unterschiede. Wenn's in Bewegung nicht schmiert, spricht gar nichts dagegen, DLSS P zu nehmen. :)
MfG
Raff
Ex3cut3r
2023-03-18, 18:38:57
Würde mich nicht als Experte sehen, aber meiner Meinung nach ist das erste Bild mit DLSS
;D Falsch. Das zweite ist DLSS.
Was war denn deine Begründung? Bzw. wie kamst du darauf?
Im zweiten Bild kannst du an den Seiten, so eine Art Schrauben Nocken erkennen. Die fehlen im nativen Bild komplett. Weil DLSS das perfekte Bild von 16K Ausgangsbasis benutzt. Und die feinen Details, damit besser rekonstruieren kann.
https://abload.de/img/neuesprojektuni55.png
Hier nochmal mit FPS Anzeige. Native 4K erreiche ich nur 134 FPS. Mit DLSS P bin ich im FPS Limit (144HZ Monitor)
https://abload.de/thumb/doometernalx64vk_2023viivi.png (https://abload.de/image.php?img=doometernalx64vk_2023viivi.png) https://abload.de/thumb/doometernalx64vk_2023l0i5d.png (https://abload.de/image.php?img=doometernalx64vk_2023l0i5d.png)
Das Ergebnis mit 3.1.1 im Preset F ist einfach der Wahnsinn, da kann man so viel labern wie man will. Ich lache mich über Hater nur noch schlapp, hier im 3DCenter gehts ja noch. Weil es hier einige "gebildete" Leute gibt, aber im Steam und CB Forum, was für ne scheiße man da über DLSS lesen muss, zum totlachen....
Die habe ich auch gesehen, aber eindeutig ist das nicht – solche Details können bei DLSS auch mal fehlen (weil sie am Texture-LOD hängen können), kommt aufs Spiel an. Doom Eternal ist damit ein hübsches Lehrbuch-Beispiel für "So macht man's richtig". :)
MfG
Raff
Troyan
2023-03-18, 19:05:52
Stell dich mal vor eine der zahlreichen Oberflächen, die tatsächlich eine ordentliche Spiegelung zeigen (etwa am Anfang von The Ancient Gods, Part 1), dann wirst du leider das Aufbröseln/-matschen von DLSS sehen. Natürlich ist eine Szene, bei der die Farben um höchstens 20 Prozent abweichen, ein guter Showcase. Die Unterschiede sind aber wirklich sehr gering in diesem dunklen Standbild, was schon krass ist angesichts 1/4 der Auflösung bei DLSS P. Bild #2 dithert mehr, was DLSS-Nachschärfung sein könnte, und zeigt vereinzelte LOD-Unterschiede. Wenn's in Bewegung nicht schmiert, spricht gar nichts dagegen, DLSS P zu nehmen. :)
MfG
Raff
Deswegen ist Frame Generation auch so gut. Kein kaputtes LoD, keine Artefakte aufgrund Unterabtastung, kein Flimmern etc. Wenn man 60 FPS hat, dann macht Upscaling kein Sinn gegenüber FG.
DrFreaK666
2023-03-18, 19:06:08
... Im zweiten Bild kannst du an den Seiten, so eine Art Schrauben Nocken erkennen. Die fehlen im nativen Bild komplett. Weil DLSS das perfekte Bild von 16K Ausgangsbasis benutzt. Und die feinen Details, damit besser rekonstruieren kann...
Genau deswegen dachte ich es sei nativ ^^
basix
2023-03-18, 19:26:30
Deswegen ist Frame Generation auch so gut. Kein kaputtes LoD, keine Artefakte aufgrund Unterabtastung, kein Flimmern etc. Wenn man 60 FPS hat, dann macht Upscaling kein Sinn gegenüber FG.
Sicher erzeugt FG Artefakte durch Unterabtastung. Es ist ja effektiv auch unterabgetastet, im Gegensatz zu DLSS aber temporal und nicht spatial. Das DF Video mit Spiderman zeigt die Artefakte ganz gut. Ob man es merkt ist eine andere Sache.
FG kann gut sein, aber DLSS (temporal supersampling) schlägt es mMn nicht. FG wird geil, wenn man z.B. 240fps anstrebt. Bei gerenderten 60fps hat es mich nicht vollends überzeugt. Am besten gefiel mir bei niedrigen FPS noch Portal RTX, ist oftmals aber eher langsames Gameplay.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.