Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3
Ex3cut3r
2023-04-16, 16:29:44
Ging überhaupt nicht um die SSRs, sondern um den "Schlamm" im Wasser bzw. in meinen Bildern. Mal ist er da, mal nicht.
Das ist einfach nur ein Game Bug, der random den Schlamm entfernt, wenn man ingame zwischen Nativ und DLSS wechselt. Mal ist der Schlamm, auf dem DLSS Bild, mal nur im nativen Bild.
aufkrawall
2023-04-16, 16:33:30
Ging überhaupt nicht um die SSRs
Find ich aber viel auffälliger als irgendeine Entengrütze, die ich ohne Vergleichsscreenshots wohl niemals vermissen würde.
Ex3cut3r
2023-04-16, 16:40:23
Finde ich nicht so schlimm in 4K mit Q (1440p Renderauflösung)
Ehrlich gesagt, sind die SSRs in TLOU so schlimm (allgemein) das ich darüber nachdenke, die komplett auszumachen.
robbitop
2023-04-16, 17:39:58
Je mehr RT und screenspace Effekte um so mehr werden wir zns mit dem Upsampling in Zukunft umgucken weil der Kram da nicht greift.
Lurtz
2023-04-16, 17:50:14
Das "Tuning" ist aber meist auch nur ein "Un-Shittening". Ich würde so ziemlich kein Spiel mit Preset A spielen wollen, außer ggf. so etwas wie Diablo aus isometrischer Perspektive.
Klar, aber sowas wie ein ootb kaputtes RDR2 dürfte schon deutlich besser abschneiden.
basix
2023-04-17, 12:43:43
Je mehr RT und screenspace Effekte um so mehr werden wir zns mit dem Upsampling in Zukunft umgucken weil der Kram da nicht greift.
Upsampling könnte dort schon greifen. Nur fehlt hier aktuell die richtige Schnittstelle.
Je mehr RT und screenspace Effekte um so mehr werden wir zns mit dem Upsampling in Zukunft umgucken weil der Kram da nicht greift.
Irgendwie ein Widerspruch, Raytracing ersetzt ja gerade zumindest einzelne Screenspace-Effekte. Es wird also nicht mehr Raytracing und mehr Screenspace Effekte, sondern je mehr Raytracing zum Einsatz kommt umso mehr werden Screenspace Effekte zurückgedrängt.
Und gerade Raytracing arbeitet schon heute quasi immer mit "Upscaling", ganz unabhängig vom generellen Upscaling. Für fast alle RT-Effekte werden Strahlen pro Frame mehr oder weniger Random verschossen und über mehrere Frames kumuliert, selbst wenn ansonsten "Nativ" gerendert wird. Und RT Effekte sind eigentlich immer mehr oder weniger beliebig und völlig unabhängig von der Rasterauflösung skalierbar.
basix
2023-04-19, 12:02:15
Und gerade Raytracing arbeitet schon heute quasi immer mit "Upscaling", ganz unabhängig vom generellen Upscaling. Für fast alle RT-Effekte werden Strahlen pro Frame mehr oder weniger Random verschossen und über mehrere Frames kumuliert, selbst wenn ansonsten "Nativ" gerendert wird. Und RT Effekte sind eigentlich immer mehr oder weniger beliebig und völlig unabhängig von der Rasterauflösung skalierbar.
Korrekt. Nur ist es aber Fakt, das RT Schatten und Reflektionen mit niedrig werdender Render-Auflösung in der Qualität entsprechend abnehmen und von Techniken wie DLSS und Co. aber faktisch nicht temporal upsampled werden. Beim restlichen Bild klappt es aber bei den RT-Effekten bleibt man irgendwie auf der niedrigeren Rendering-Resolution hängen. Der Grund dafür ist mir nicht ganz klar. Eine Vermutung: Das Sample-Jittering für das Temporal Upsampling wird nicht auf die RT-Acceleration appliziert. D.h., dass die RT-Effekte (Rays?) im fixen z.B. 1080p Raster abgetastet werden und nicht über ein internes 4K Raster gejittert werden (wie der Rest des Renderings, wenn man DLSS und Co. nutzt). Das führt dazu, dass die RT-Effekte auf einer geringeren Qualität hängen bleiben. Da kann RT temporal akkumulieren wie man will, wenn das Sample-Raster nicht gejittert wird limitiert das die Auflösung der Effekte. Das sieht man bei Reflexionen ab deutlichsten, aber auch Schatten und GI sind davon betroffen.
Wäre interessant, wie das bei DLSS, FSR und RTX verglichen mit der UE5 und TSR aussieht. Evtl. könnte das jemand in Fortnite testen: Spiegelungen in z.B. Wasser bei 4K nativ, 1080p nativ und 4K TSR Performance (1080p Rendering) sowie 4K DLSS Performance miteinander vergleichen. Wenn TSR hier besser abschneidet: Limitierung der Schnittstellen von DLSS und FSR. Sind beide gleich schlecht: Limitierungen in der DXR API? Falsche Umsetzung in der Engine?
robbitop
2023-04-19, 12:05:13
Und gerade Raytracing arbeitet schon heute quasi immer mit "Upscaling", ganz unabhängig vom generellen Upscaling. Für fast alle RT-Effekte werden Strahlen pro Frame mehr oder weniger Random verschossen und über mehrere Frames kumuliert, selbst wenn ansonsten "Nativ" gerendert wird. Und RT Effekte sind eigentlich immer mehr oder weniger beliebig und völlig unabhängig von der Rasterauflösung skalierbar.
Ja aber du kannst halt nicht temporal vorhandene Daten nutzen was ja DLSS/FSR/XeSS und Co ausmacht. Das ist schon ein Nachteil.
Upsampling könnte dort schon greifen. Nur fehlt hier aktuell die richtige Schnittstelle.
Naja dazu müssten die Rays aber auch mit definierten Subpixelpositionen verschossen werden, damit das sinnvoll funktionieren kann.
basix
2023-04-19, 12:09:55
Naja dazu müssten die Rays aber auch mit definierten Subpixelpositionen verschossen werden, damit das sinnvoll funktionieren kann.
Ja, nur wieso wird das nicht gemacht? Sollte die Kosten for RT und die Rays ja nicht wesentlich erhöhen, oder nicht? Man verschiesst pro Frame immer "1080p Rays" doch über mehrere Frames wird daraus ein "4K Rays" Raster.
Oder anders gefragt: Was sind die Limitierungen, dass das nicht mit gejitterten Pixelrastern gemacht werden kann?
robbitop
2023-04-19, 12:12:38
Das übersteigt meine Kenntnisse. Das einzige was mir bekannt ist, dass DLSS und Co bei RT nicht greifen. Wenn sich das nicht ändert, ist ein guter Teil des Effekts mittelfristig wieder weg. Klar Geometrie und alles was noch gerastert wird profitiert nach wie vor.
basix
2023-04-19, 12:13:39
Richtig. Und genau deswegen müssten zukünftige Entwicklungen RT-Effekte mit ins Upsampling einbeziehen. Sonst nimmt der Wert von DLSS und Co. immer mehr ab.
Und vermutlich liegen die Gründe nicht bei DLSS an sich, sondern wie die RT-Effekte funktionieren.
robbitop
2023-04-19, 12:16:21
Das klingt schlüssig.
Ja aber du kannst halt nicht temporal vorhandene Daten nutzen was ja DLSS/FSR/XeSS und Co ausmacht. Das ist schon ein Nachteil.
Selbstverständlich kannst du das, und musst es sogar. Der einzige Weg mit aktueller Hardware überhaupt in die Richtung Echtzeit Raytracing zu denken ist die Nutzung temporal vorhandener Daten.
Selbst eine 4090 wäre viel zu langsam um irgendwie Echtzeitig Raytracing ohne die Nutzung vorangegangener Frames zu bieten.
Naja dazu müssten die Rays aber auch mit definierten Subpixelpositionen verschossen werden, damit das sinnvoll funktionieren kann.
Das gesamte "Effekt-Raytracing" was heute verwendet wird ist komplett unabhängig von Pixel/Subpixelpositionen. Einzig Primary Rays sind an physische Pixelpositionen gebunden, die werden allerdings nirgends verwendet, deren Aufgabe übernimmt immer noch das Rasterizing.
basix
2023-04-19, 13:50:58
Das gesamte "Effekt-Raytracing" was heute verwendet wird ist komplett unabhängig von Pixel/Subpixelpositionen. Einzig Primary Rays sind an physische Pixelpositionen gebunden, die werden allerdings nirgends verwendet, deren Aufgabe übernimmt immer noch das Rasterizing.
Dann erklär uns dann bitte, wieso Temporal Upsampling hier nicht greift, wenn die Output Auflösung steigt und die Render-Auflösung nicht.
Dann erklär uns dann bitte, wieso Temporal Upsampling hier nicht greift, wenn die Output Auflösung steigt und die Render-Auflösung nicht.
Weil das eine unabhängig vom anderen ist. Jeder RT-Effekt wird in eigene Buffer gerendert und über das gerasterte Bild drüber gelegt.
basix
2023-04-19, 14:44:39
Und was soll mich jetzt daran hindern, die RT-Effekte von den Sample-Positionen her genau gleich wie das Rasterbild zu jittern und erst dann drüber zu legen?
Und was soll mich jetzt daran hindern, die RT-Effekte von den Sample-Positionen her genau gleich wie das Rasterbild zu jittern und erst dann drüber zu legen?
Grundsätzlich nichts, die Frage ist ob/wie sinnvoll das ist, da man beim Raytracing abhängig vom jeweiligen Effekt in der Regel effizientere Maßnahmen zur Verfügung hat.
Im Grunde passiert beim Raytracing schon etwas sehr ähnliches, nur wird es dort nicht Upsampling sondern Denoising genannt.
Denoising funktioniert sehr ähnlich, auch hier werden die Rays pro Frame möglichst sparsam eingesetzt und über mehrere Frames quasi zufällig verteilt und zu einem konsistenten Ergebnis akkumuliert.
Das schöne an Raytracing ist allerdings, dass man eben nicht an ein Pixelraster gebunden ist, und hochdynamisch die Anzahl der verschossenen Rays anpassen kann. Und das Ganze auch für jeden Effekt unterschiedlich. Beispielsweise kann man für die Schattenberechnung mittels Raytracing gezielt an den Schattenkanten viele Rays verwenden um eine gute Abbildung zu erreichen, gleichzeitig aber innerhalb des Schattens Rays einsparen, da diese eh nur einen geringen Einfluss auf das Endergebnis haben. Oder bei Spiegelungen die Anzahl der verschossenen Rays von der Surface Roughness abhängig machen.
basix
2023-04-19, 15:14:34
Das alles ist schön und gut. Nur erklärt es immer noch nicht, wieso z.B. RT-Reflexionen in allen mir bekannten Spielen so mager wie in der gerenderten Auflösung aussehen. Primär ist die räumliche Auflösung der RT-Effekte an die Renderauflösung gebunden, was dann eben zu unscharfen und blockigen RT-Effekten führt (Spiegel = Auffälligstes Beispiel). Ich meine hier also die "Geometrie" der Effekte (Detailgrad von Personen und Objekten etc.)
Und das temporale Upsampling hat ja genau den Vorteil, das pro Frame nicht mehr Rays verschossen werden müssen als in der Renderauflösung. Im Falle von DLSS-P 1/4 der Rays für fast gleiche Output-Qualität. Da sehe ich beim RT jetzt nichts, das effizienter sein könnte. Auch Temporal Upsampling ist eine Art inhärenter Denoiser. Du könntest das RT-Denoising ins Postprocessing verschieben, womit man mehr Informationen fürs Denoising hat. Denoising wäre damit evtl. effizienter (=weniger Rays fürs gleiche Ergebnis). Damit würde man aber eine Parallelstruktur zu DLSS aufbauen (noisy Input willst du nicht bei DLSS, also wäre der DLSS-Input frei von RT-Informationen), wo RT-Effekte und der Rest des Bildes separat temporal upsampled würden. Nur verdoppelt man damit quasi die Arbeit fürs Upsampling und die Denoising Kosten für RT steigen...
Prinzenrolle
2023-04-19, 16:05:05
FG bei 30fps Basis macht wenig Spass und zudem sind oftmals anderweitige Artefakte vom DLSS Upsampling stark ausgeprägt (welche FG nicht lösen kann).
Richtig Freude kommt keine auf. Ich finde der tradeoff ist in Cyberpunk aber dennoch fett, vor allem wenn man mit dem Auto durch night city steuert oder längere Strecken läuft. Fürs Gefecht, würde ich dann DLSS-Q zuschalten.
Ja aber du kannst halt nicht temporal vorhandene Daten nutzen was ja DLSS/FSR/XeSS und Co ausmacht. Das ist schon ein Nachteil.
Besonders sichtbar an den Zäunen in Cyberpunk PT.
Da reicht mit DLSS-Q einfach die Raymenge nicht mehr aus und das ganze Gitternetz flimmert vor sich hin.
Gut dass man das manuell anpassen kann.
basix
2023-04-19, 19:47:11
Bei Zäunen gibt es eine Art "Disco-Geflicker". Das siehst du aber auch in 4K nativ oder mit DLAA noch mehr als gut. Da scheint es noch Probleme beim Pathtracing-Algorithmus zu geben.
Das alles ist schön und gut. Nur erklärt es immer noch nicht, wieso z.B. RT-Reflexionen in allen mir bekannten Spielen so mager wie in der gerenderten Auflösung aussehen.
Das ist kein Naturgesetz sondern ein Implementierungsdetail des Herstellers, man muss es nicht so machen, auch wenn es ein Großteil, wenn auch nicht alle Spiele dermaßen handhaben.
Ich meine hier also die "Geometrie" der Effekte (Detailgrad von Personen und Objekten etc.)
Die Geometrie ist in der Regel völlig unabhängig von der Auflösung, sowohl mit Rasterizing als auch mit Raytracing, von Ausnahmen wie Nanite mal abgesehen. Was evtl. für Raytracing die Geometrieauflösung limitiert ist eine vereinfachte Geometrie um den BVH zu erstellen.
Und das temporale Upsampling hat ja genau den Vorteil, das pro Frame nicht mehr Rays verschossen werden müssen als in der Renderauflösung. Im Falle von DLSS-P 1/4 der Rays für fast gleiche Output-Qualität.
Nicht wirklich. Raytracing-Effekte sind im Endeffekt nichts anderes als Texturen, und DLSS kann keine Texturen verbessern. Was es kann ist Aliasing welches durch zu hoch aufgelöste Texturen entstehen würde zu unterdrücken, und damit dass man eine höher aufgelöste Mip als eigentlich zulässig verwenden kann. Das setzt aber voraus dass diese höher aufgelösten Texturen auch existieren und im VRAM vorhanden sind. Bei Texturen die nicht vorberechnet sind sondern in Echtzeit erstellt werden müssen diese eben auch in höherer Auflösung berechnet werden, ansonsten kann DLSS auch nicht mehr helfen.
DLSS selbst wirkt auch als eine art Denoiser, je nach Effekt kann man also mit weniger Rays bei vergleichbarer Qualität auskommen, das gilt aber nicht für detaillierte Effekte wie Spiegel.
Du könntest das RT-Denoising ins Postprocessing verschieben, womit man mehr Informationen fürs Denoising hat.
Genau das Gegenteil ist der Fall, im Postprocessing sind alle Farben aus den diversen Quellen bereits vermischt und nicht mehr nach Quelle unterscheidbar, womit du effektiv weniger Informationen hast.
Du verlierst damit auch die Möglichkeit je nach Raytracing-Effekt den optimalen Denoiser zu verwenden, und der Denoiser würde zusätzlich Details die aus der Raster-Stage stammen zerstören.
Damit würde man aber eine Parallelstruktur zu DLSS aufbauen (noisy Input willst du nicht bei DLSS, also wäre der DLSS-Input frei von RT-Informationen),
Stimmt nur teilweise. DLSS wirkt wie bereits erwähnt schon als Denoiser, einen gewissen grad von Noise als Input ist nicht unbedingt schlecht. DLSS blurrt allerdings deutlich weniger als die meisten konventionellen TAA-Algorithmen, weshalb der Denoise-Effekt auch schwächer ist, und ein Denoiser aus der RT-Stage, der für TAA getunt wurde zu schwach sein könnte, wenn dann anstatt TAA DLSS verwendet wird. In jedem Fall hat der DLSS output weniger Noise als der Input.
wo RT-Effekte und der Rest des Bildes separat temporal upsampled würden.
Wie gesagt macht die RT-Stage bereits eine Akkumulation über mehrere Frames, was dem Grundgedanken von DLSS entspricht, aber mit wesentlich mehr Kontrolle über den gesamten Prozess. Ich will es jetzt nicht vollkommen ausschließen, aber kaum vorstellbar dass hier eine separate DLSS-Stage großartig was bringen würde.
Tobalt
2023-04-19, 21:40:02
Anstelle RT mit eigenen Sampleposition und Denoiser mit dem Raster DLSS zu verheiraten, könnte es einfach mittelfristig dahingehen, dass man das Rastern einfach sein lässt.
Komplettes RT mit Denoising. Die Adaptivität der Sampleverteilung hat man bei RT schon. Wenn man via Motionvectors aus dem DLSS Know-How noch die Geometrie/Textur Kanten sauberer geschätzt bekommt, gibt es doch ein gutes Ergebnis.
Das IMO schöne an dem Ansatz ist auch, dass es immer mehr dem menschlichen Sehapparat ähnelt, neue Infos dynamisch in das Seherlebnis einzubauen.
robbitop
2023-04-20, 06:35:31
Wäre aber Verschwendung weil rasterizen viel billiger ist. Mit Path Tracing so wie es heute verwendet wird ergänzt sich RT und Rasterizing. Beide haben ihre Stärken und Schwächen und so werden jeweils noch die Stärken genutzt.
Tobalt
2023-04-20, 07:06:34
Rastern + Shaden ist aber nur billiger weil man beim Shaden eklatante Vereinfachungen in Kauf nimmt..Je realistischer und dynamischer das werden soll, umso mehr wird der Vorsprung von Rastern+Shaden schmelzen.
Deshalb schrieb ich "mittelfristig"..Ich denke mal dass wir innerhalb von 10 Jahren erste Engines sehen werden
basix
2023-04-20, 07:53:18
Primary Rays via Rastern ist viel effizienter als via Raytracing. Deswegen würde ich das jetzt nicht unbedingt als nutzlos betrachten, auch wenn man "reines" Raytracing anstrebt.
dildo4u
2023-04-20, 08:19:36
Muss sagen DLSS 3.1 überzeugt hier massiv in 1440p/4k macht sogar die 3060 performant ohne RT.
https://youtu.be/5hDDEL7ruZ8?t=533
Wäre aber Verschwendung weil rasterizen viel billiger ist.
Nicht unbedingt. Primary Rays sind um ein vielfaches effizienter zu berechnen.
Quake RTX verzichtet komplett auf Rasterizing, und es gab einen Talk der Entwickler ua. bezüglich der Performance, dass man damit auf Ampere nur geringfügig langsamer ist, als wenn man die Szene rastern würde.
Eine geringfügige Verschiebung des Performanceprofils von GPUs zu Raytracing würde schon für den break even reichen, es würde mich nicht wundern wenn Lovelace schon sehr nahe dran wäre.
Raytracing an sich ist zwar teuer, dafür spart man sich aber einiges an Overhead.
aufkrawall
2023-04-20, 11:33:31
Muss sagen DLSS 3.1 überzeugt hier massiv in 1440p/4k macht sogar die 3060 performant ohne RT.
https://youtu.be/5hDDEL7ruZ8?t=533
Was ist dir an der Leistungsskalierung mit DLSS neu?
dildo4u
2023-04-20, 11:46:18
Die Letzten 3060 Benches die ich gesehen hab waren grad mal 30fps in 1440p, da sind 70fps mit DLSSQ extrem hoch.
aufkrawall
2023-04-20, 12:10:50
Dann musst du mal richtig gucken, vol. fog nur medium und SSR nur high, was in diesem Müll-Spiel jede Menge Leistung spart. Leider sehen die SSR aber selbst auf Psycho noch etwas eklig grainy aus...
dildo4u
2023-04-20, 12:13:19
Ah danke die Beschreibung in der Zeitleiste sagt Ultra.
Leider sehen die SSR aber selbst auf Psycho noch etwas eklig grainy aus...
SSR Psycho sind komplett unnütz, die kosten mehr Leistung als RT-Reflections und sehen kaum anders als auf High aus.
aufkrawall
2023-04-20, 13:45:24
Sie sehen nochmal deutlich verrauschter als psycho aus. Dass auch psycho immer noch mies aussieht und dafür einen absurden Performance-Hit hat, musst du mir nicht erzählen.
DSD512
2023-04-24, 14:32:24
Von 7900 XTX zu 4080 gewechselt.
DLSS3 in Spiderman Miles Morales getestet.
Die Frametimes sind damit wie glatt gebügelt.
Geschmeidige Frameausgabe. Topp!
Hammer. Hätte ich absolut nicht erwartet.
Ein echtes Killer-Feature seitens NV.
Troyan
2023-04-24, 14:35:39
Tja, wenn man das Licht sieht, weiß man erstmal, was Dunkelheit ist.
Funktioniert selbst halbwegs in bei ~35FPS in Cyberpunk, um damit auf >55FPS zu kommen. Aber ab nativen 60FPS ist es richtig gut.
aufkrawall
2023-04-24, 15:13:53
Funktioniert selbst halbwegs in bei ~35FPS in Cyberpunk, um damit auf >55FPS zu kommen.
Soll ich mal ein paar Screenshots davon machen, wie absurd fett der Frame Time Graph mit FG bei so niedrigen fps in CP77 oft wird, insbesondere nach Schließen der Map etc.? Flüssigkeitsgefühl und Input Lag schwanken dann entsprechend wie bekloppt. "Wenn man das Licht gesehen hat".. vielleicht sollte man dann reingehen. ;D
Troyan
2023-04-24, 15:24:07
Soll ich mal ein paar Screenshots davon machen, wie absurd fett der Frame Time Graph mit FG bei so niedrigen fps in CP77 oft wird, insbesondere nach Schließen der Map etc.? Flüssigkeitsgefühl und Input Lag schwanken dann entsprechend wie bekloppt. "Wenn man das Licht gesehen hat".. vielleicht sollte man dann reingehen. ;D
Klar, mach das. Am besten mit deiner tollen 6700XT Karte bei ebenfalls 35FPS. Müsste ja deutlich besser sein, so ohne Reflex und >100ms.
SamLombardo
2023-04-24, 15:27:59
Soll ich mal ein paar Screenshots davon machen, wie absurd fett der Frame Time Graph mit FG bei so niedrigen fps in CP77 oft wird, insbesondere nach Schließen der Map etc.? Flüssigkeitsgefühl und Input Lag schwanken dann entsprechend wie bekloppt. "Wenn man das Licht gesehen hat".. vielleicht sollte man dann reingehen. ;D
Dieser kurze Zuckler nach Schließen der Map ist vermutlich Red Engine bedingt (?), den gibt's beim Witcher genau so. Darauf nun rumzureiten...kann man machen, muss man aber nicht. Ansonsten hat Troyan aber durchaus Recht, bei CP Pathtracing komme ich mit FG auf um die 60fps in fordernden Szenen (4090 4k DLSS Quality) und ohne FG wären es 35-40. Das Spielgefühl ist trotz der relativ niedrigen fps Basis deutlichst besser und irgendeinen gestiegenen Inputlag merke ich auch nicht. Das Wort "Killerfeature" ist schon gar nicht sooo übertrieben.
aufkrawall
2023-04-24, 15:34:23
Klar, mach das. Am besten mit deiner tollen 6700XT Karte bei ebenfalls 35FPS. Müsste ja deutlich besser sein, so ohne Reflex und >100ms.
Nur ist damit der Lag konstant und schwankt ohne absurd fette Frame Time Varianz nicht wie bekloppt.
Lurtz
2023-04-24, 16:35:45
https://abload.de/thumb/untitled4bdwa.jpg (https://abload.de/image.php?img=untitled4bdwa.jpg)
Reflektierende Glasscherben a la TLOU @DLSS2 :ugly:
The_Invisible
2023-04-24, 16:55:16
Von 7900 XTX zu 4080 gewechselt.
DLSS3 in Spiderman Miles Morales getestet.
Die Frametimes sind damit wie glatt gebügelt.
Geschmeidige Frameausgabe. Topp!
Hammer. Hätte ich absolut nicht erwartet.
Ein echtes Killer-Feature seitens NV.
Jap schon sehr nett, vor allem CPU limited Games, FS2020 ist Paradebeispiel. Würde ich mir in mehr Strategiegames wünschen, Anno1800 zb wärs im Endgame auch super
Returnal hat heute auch ein DLSS3 Update bekommen.
CPU Limit und die kleinen Microruckler sind damit praktisch gar kein Problem mehr.
Wird alles sehr gut glatt gebügelt. Inputlag ist damit nach meinem Empfinden auch nicht schlechter als "nativ".
Alternativ kann man natürlich auch Reflex ohne FG nutzen (reflex gabs in dem Spiel bisher nicht), und da sind die Eingabelatenzen dann wirklich spürbar besser.
Beide Features sind also eine deutlich Aufwertung für das Spiel.
Ich muss schon sagen, DLSS und FSR2 waren ja bereits nette Funktionen, aber Frame Generation habe ich lieben gelernt.
Ich bin extrem empfindlich was Microruckler angeht. Gut, für mich kein Grund ein Spiel deswegen nicht zu genießen, aber trotzdem lege ich höchsten wert auf glatte Frametimes, wenn es irgendwie möglich ist. Und FG ist hier ein Segen.
Es ermöglicht Frametimes, die wir wahrscheinlich erst mit CPUs sehen würden, die in 5 Jahren auf den Markt kommen. Da kann auch kein FPS Limiter wie RTSS mithalten.
Wenn das Spiel einen Microruckler zeigt, weil im Hintergrund z.B. was nachgeladen wird, dann gibts den Ausreißer auch mit einem FPS Limiter wie RTSS (außer man limitiert extrem niedrig)
Frame Generation hingegen kompensiert jeden Ruckler um die halbe Frametime. Kommt man mit FG ins FPS oder Vsync limit ist der Effekt sogar nochmal stärker, da aufgrund der halben "realen" Framerate die CPU stärker entlastet wird.
Troyan
2023-04-26, 12:10:47
nVidia's Frameview wurde aktualisiert und kann nun einen Teil der Latenz messen: https://www.nvidia.com/de-de/geforce/technologies/frameview/
Einfaches Latenz-Benchmarking mit PC-Latenz
Keine Eingabe erforderlich
Keine spezielle Hardware
Keine spezifische Maus oder ein bestimmter Monitor
Im Mittelpunkt steht der PC selbst. Isoliert die PC-Latenz von der Maus- und Monitorlatenz, um die reine Leistung eines PCs hervorzuheben.
Miss gleichzeitig die Latenz und die FPS. Drücke einfach die Benchmarking-Tastenkombination, um sofort Ergebnisse zu erhalten. Das Testen von Latenz war noch nie so einfach!
Alle mit DLSS-3-Frame-Erstellung kompatiblen Messwerte
Plattformübergreifende GPU-Überprüfungen. Vergleiche mühelos verschiedene GPUs und Anbieter.
Erkenne problemlos die Vorteile der Latenzverringerung durch NVIDIA DLSS und NVIDIA Reflex.
Messung der Latenz pro Frame
Ausreißer-Messwert bezüglich der niedrigsten 1 % aller FPS-Werte jetzt verfügbar
Sofortige Benchmarking-Ergebnisse im Overlay – sieh dir deine Ergebnisse bei Bedarf an!
Ex3cut3r
2023-05-04, 19:49:45
Die Mod "DLSSTweaks" kommt jetzt auch mit GUI.
Jetzt hat das Ini Rumgefuchtel, ein ende. :biggrin:
Man kann sogar die DLSS DLL irgendwo hinpacken, und die originale vom Spiel so lassen. Damit kann man RDR2 z.B. endlich die DLSS Version austauschen, ohne das der Rockstar Launcher meckert oder gar die alte DLL 2.2 DLL wieder einfügt.
Geniales Tool.
https://abload.de/img/unbenannt5icmx.png
RDR2, DLSS Q 3.1.11 DLL, Preset F + Reshade CAS @ 5120x2880 DLDSR @ Native 4K
Jetzt sind die Stromkabel perfekt glatt. :eek:
https://abload.de/thumb/rdr2_2023_05_04_19_44e8fw4.jpg (https://abload.de/image.php?img=rdr2_2023_05_04_19_44e8fw4.jpg)
Troyan
2023-05-04, 20:43:06
Jemand arbeitet an DLSS Mods für nicht unterstützte Spiele - Elden Ring und Jedi Survivor werden schon unterstützt: https://www.patreon.com/posts/eldenringupscale-82406298
Slipknot79
2023-05-05, 00:14:31
Die Mod "DLSSTweaks" kommt jetzt auch mit GUI.
Jetzt hat das Ini Rumgefuchtel, ein ende. :biggrin:
Man kann sogar die DLSS DLL irgendwo hinpacken, und die originale vom Spiel so lassen. Damit kann man RDR2 z.B. endlich die DLSS Version austauschen, ohne das der Rockstar Launcher meckert oder gar die alte DLL 2.2 DLL wieder einfügt.
Geniales Tool.
https://abload.de/img/unbenannt5icmx.png
RDR2 @ 4K, DLSS Q 3.1.11 DLL, Preset F + Reshade CAS @ 5120x2880 DLDSR @ Native 4K
Jetzt sind die Stromkabel perfekt glatt. :eek:
https://abload.de/thumb/rdr2_2023_05_04_19_44e8fw4.jpg (https://abload.de/image.php?img=rdr2_2023_05_04_19_44e8fw4.jpg)
Wie stellst du preset F ein, sehe dazu nix im Windows? Oo
Ex3cut3r
2023-05-05, 01:17:20
Einfach weiter runter scrollen.
https://abload.de/img/unbenannt6fikw6td2l.png
crux2005
2023-05-05, 02:09:42
Die Mod "DLSSTweaks" kommt jetzt auch mit GUI.
Jetzt hat das Ini Rumgefuchtel, ein ende. :biggrin:
Man kann sogar die DLSS DLL irgendwo hinpacken, und die originale vom Spiel so lassen. Damit kann man RDR2 z.B. endlich die DLSS Version austauschen, ohne das der Rockstar Launcher meckert oder gar die alte DLL 2.2 DLL wieder einfügt.
Geniales Tool.
https://abload.de/img/unbenannt5icmx.png
RDR2, DLSS Q 3.1.11 DLL, Preset F + Reshade CAS @ 5120x2880 DLDSR @ Native 4K
Jetzt sind die Stromkabel perfekt glatt. :eek:
https://abload.de/thumb/rdr2_2023_05_04_19_44e8fw4.jpg (https://abload.de/image.php?img=rdr2_2023_05_04_19_44e8fw4.jpg)
Danke. :up: Genau so was habe ich für RDR2 gesucht.
basix
2023-05-05, 09:07:34
Nice, genau so ein GUI habe ich mir für DLSSTweaks gewünscht :)
dildo4u
2023-05-05, 12:42:08
Hogwarts hat upscaling Updates bekommen.
Upscalers
Update DLSS to 3.1.2
Set XeSS as default upscaler for Intel Arc GPUs
Added warning to be shown when using outdated drivers on the Intel Arc GPU.
Updated to FSR 2.2
Updated to XeSS 1.1
https://portkeygamessupport.wbgames.com/hc/en-us/articles/16304407055251-Hogwarts-Legacy-PlayStation-5-Xbox-Series-X-S-and-PC-Patch-Notes-05-04-2023
DrFreaK666
2023-05-05, 12:58:14
Das ist mal vorbildlich :up:
aufkrawall
2023-05-06, 20:32:07
Nutzt für DLAA (sah btw. komisch flimmrig im Gras aus, hatte im DLSS Debug HUD aber auch nicht auf die ausgewählte Auflösung geachtet) bis Performance Preset C und für UP Preset B. :freak:
Von D & F keine Spur...
Wie lauten denn eure Erfahrungen bezüglich DLAA-Forcierung? Welche Spiele machen Probleme, welche laufen mit welchem Preset richtig geil? Die DLSS-Presets sind generell ein gutes Thema.
Wissende legen idealerweise im Schwarm eine geile Liste wie diese an: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867 :)
MfG
Raff
aufkrawall
2023-05-08, 08:35:10
Die DLSS-Presets sind generell ein gutes Thema.
Eher ein deprimierendes. U.a. deshalb, da sich der Eindruck einstellt, dass auch nach Jahren neue Presets immer nur eine etwas andere Gewichtung von Stärken und Schwächen darstellen. Wobei das Ghosting-Problem von D da noch zusätzlich den Vogel abschießt.
Exxtreme
2023-05-08, 08:48:37
Die DLSS-Presets sind generell ein gutes Thema.
Eigentlich sind solche Presets eher ein Zeichen, dass eine Technologie noch nicht so wirklich ausgereift ist. Hinzu kommt noch das DLLs austauschen für potentiell bessere Ergebnisse. Und fertig ist das Gefrickel. Das Ganze sollte viel benutzerfreundlicher und zuverlässiger werden.
aufkrawall
2023-05-08, 08:55:30
Hinzu kommt noch das DLLs austauschen für potentiell bessere Ergebnisse.
Das kommt nicht hinzu, das ist das Gleiche.
Sardaukar.nsn
2023-05-13, 09:40:27
Der Diablo 4 Server Slam hat ja jetzt auch DLSS 3 inkl. Frame Generation bekommen und lädt zum testen ein.
Praxisgerechtes Setting 4k, FPS Cap bei 117, alles Ultra. DLSS 3 funktioniert prima und reduziert hier die Leistungsaufnahme um etwa 60%. Meiner Meinung nach absolut spielbar.
Ohne DLSS - 315 Watt https://i.imgur.com/XYewD52.jpg
Mit DLSS+FG - 129 Watt https://i.imgur.com/RzY58yV.jpg
Vergleich mit Slider: https://cdn.knightlab.com/libs/juxtapose/latest/embed/index.html?uid=3f77b5ea-f163-11ed-b5bd-6595d9b17862
Der Diablo 4 Server Slam hat ja jetzt auch DLSS 3 inkl. Frame Generation bekommen und lädt zum testen ein.
Ein Spiel dass es unbedingt braucht. Das läuft auf 40er Hardware dermaßen gut, dass man sicher keine FG braucht.
Schön dass es auch DLAA bekommt, was wirklich gut aussieht, mit einer kleinen Ausnahme, im Inventar gibt es bei manchen Materialien minimal sichtbares Moire.
00-Schneider
2023-05-15, 08:41:38
Ein Spiel dass es unbedingt braucht. Das läuft auf 40er Hardware dermaßen gut, dass man sicher keine FG braucht.
Da gehts dann eher ums Stromsparen.
aufkrawall
2023-05-15, 09:17:29
Tja, hoffentlich läuft das wenigstens auf einer 4080 in 4k mit Ultra-Texturen...
Es läuft laut den jüngsten Meldungen im Rahmen des Server Slams sogar mit weit schwächerer Hardware gut, das Speicherleck ist anscheinend gestopft worden.
MfG
Raff
aufkrawall
2023-05-15, 09:23:15
Den Eindruck hatte ich nicht. Es hat auch nicht immer alles mit hohem Verbrauch ein "Leck"...
Troyan
2023-05-15, 09:25:25
Da gehts dann eher ums Stromsparen.
Ja. Habe keine Unterschiede zwischen FG an und aus erkennt. Warum also nicht damit spielen und die 4090 bei 250W laufen lassen.
Darkman.X
2023-05-15, 09:40:36
Als ob sich ein 4090-Käufer wirklich für den Stromverbrauch während des Gamings interessiert :D
Troyan
2023-05-15, 10:11:20
Bei den Brocken an Kühlern, ja. Denn bei 250W ist die Karte nicht hörbar. :cool:
Thunder99
2023-05-15, 10:20:07
Wie lauten denn eure Erfahrungen bezüglich DLAA-Forcierung? Welche Spiele machen Probleme, welche laufen mit welchem Preset richtig geil? Die DLSS-Presets sind generell ein gutes Thema.
Wissende legen idealerweise im Schwarm eine geile Liste wie diese an: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=490867 :)
MfG
Raff
Bisher nur Diablo IV Beta getestet und läuft gut sowie unauffällig. RTX 4080 langweiligt sich auf WQHD :D. Grafikkarte war nicht ausgelastet.
Sehe ich es richtig, DLSS V3.x.x hat alles von V2.x.x drin? Alle weiteren Updates für DLSS 2 geht in V3 mit rein? Bezüglich potentiellen DLL Austausch in Zukunft
Ja. Habe keine Unterschiede zwischen FG an und aus erkennt. Warum also nicht damit spielen und die 4090 bei 250W laufen lassen.
Also meine 4090 war mit DLAA und ohne FG im Durchschnitt so bei 250W.
Und warum nicht: FG erhöht immer die Latenz, und ja die ist bei Diablo 4 mit Reflex exorbitant gut, nur wieso auf Latenz verzichten nur für ein paar W.
Es läuft laut den jüngsten Meldungen im Rahmen des Server Slams sogar mit weit schwächerer Hardware gut, das Speicherleck ist anscheinend gestopft worden.
Das Speicherleck war kein Speicherleck.
Das Spiel krallt sich generell den gesamten VRAM, was auch sinnvoll ist je mehr Daten man über den PCIe schaufeln muss umso ineffizienter wird es.
Die "Nachladeruckler" der früheren Betas waren keine Nachladeruckler, sondern Server-Sync-Probleme wenn man von einer Instanz in eine andere wechselt.
Und ja die wurden praktisch komplett behoben, ich hatte das ganze Wochenende ein einziges mal das Problem, dass die Stadt nicht geladen wurde.
Insgesamt läuft das Spiel extrem Smooth, nach solchen Sachen wie Jedi Survivor auf jeden fall eine sehr positive Überraschung, dass es technisch dermaßen gut ist.
Es zeigt sich, dass es durchaus sinnvoll ist eine eigene Engine zu entwickeln, die genau dafür ausgelegt ist was sie soll, anstatt eine aufgeblähte Engine zu verwenden die alles irgendwie kann.
Das geniale, Diablo 4 sieht mindestens 10x besser aus als Path of Exile und läuft dabei wesentlich schneller, bzw. alternativ bei gleichem Framelimit mit deutlich geringerer Leistungsaufnahme.
Und ja es läuft auch wesentlich besser als Diablo 3 und sieht dabie 100x besser aus.
Tja, hoffentlich läuft das wenigstens auf einer 4080 in 4k mit Ultra-Texturen...
Das läuft wunderbar. Was für max. Texturen allerdings wichtig ist, sind 32GB Hauptspeicher, mit nur 16 läuft es unrund. Das Streaming ist sehr effizient.
Einzig auf dem Steamdeck ist es etwas hackelig, definitiv spielbar, aber selbst auf min Details sind keine locked 60FPS drinnen.
Wobei alles darauf hindeutet, dass die gesamt 16GB einfach zu wenig sind.
Oliver_M.D
2023-05-15, 16:40:03
Als ob sich ein 4090-Käufer wirklich für den Stromverbrauch während des Gamings interessiert :DIch kenne da mindestens zwei, einer davon bin ich;)
Edgecrusher86
2023-05-15, 16:40:18
Als ob sich ein 4090-Käufer wirklich für den Stromverbrauch während des Gamings interessiert :D
Also mich interessiert es! :biggrin:
Die Karte läuft bei mir eigentlich nur mit 1000RPM, mehr gaaanz selten. ;D
Seit Pascal bin ich richtig befallen (angefangen hatte es bei der GTX 295 Dual-PCB, dann kamen Fermi mit 825mV P12-State und auch Maxwells, wo ich auch wieder unter P0 optimierte) . :)
Ich finde es halt sehr erstrebenswert, wenn die Karte zwar stark genug für maxed out und mein fps Target ist, aber dennoch möglichst leise und kühl dabei läuft, sprich sie auch noch geschont wird.
Für Manche mag es im Winter sicher mollig sein, wenn der PC Hilft, die Bude zu wärmen - spätestens im Sommer wäre mir das aber nichts. :D
Hier sind es zumeist nur 80 - 130W an TGP, die nötig sind - inkl. DLSS Q, wenn vorhanden. ;)
MAFIA Definitve lief hier mal spaßeshalber uncapped mit Stock Boost im Menü bei 240 fps und 400W - das war echt furchtbar - ein Zikaden-Konzert. Bei 270W (60% PT) war es nur halb so laut und darunter quasi nicht zu hören.
Letztens hatte ich auch mal CP 2077 in 5160x2160 Overdrive mit bis zu 315W laufen, aber da hörte ich nix - mag vielleicht am UV von maximal 900mV sowie zweistelligen fps gelegen haben. :)
aufkrawall
2023-05-18, 18:22:15
Kann das FG-Stutter-Problem auf Ryzens bestätigen:
https://abload.de/thumb/witcher3_2023_05_18_136izz.png (https://abload.de/image.php?img=witcher3_2023_05_18_136izz.png)
In Hitman 3 ging FG mit RT nach kurzer Zeit einfach von selbst aus.
Den Treiber hats in W3 auch schon gecrasht...
ChaosTM
2023-05-18, 18:25:57
Ich kenne da mindestens zwei, einer davon bin ich;)
Das schöne an einer 4090er ist unter anderem, dass ich den FS2020 nun doppelt so schnell mit nur einem drittel des Stromverbrauchs einer 1080ti betreiben kann.
Dank FG..
Und ich verbringe sehr viele Stunden in dem "Spiel"
..so auch jetz
Kann das FG-Stutter-Problem auf Ryzens bestätigen:
https://abload.de/thumb/witcher3_2023_05_18_136izz.png (https://abload.de/image.php?img=witcher3_2023_05_18_136izz.png)
In Hitman 3 ging FG mit RT nach kurzer Zeit einfach von selbst aus.
Den Treiber hats in W3 auch schon gecrasht...
Hast du dazu mehr Details?
Du wirfst ein Thema in den Raum ohne Kontext dazu.
Warum kannst du es "auch" bestätigen? Wo wurde noch davon berichtet, welche CPUs sind genau betroffen, welche Spiele? Hier im Thread bist du soweit ich sehen kann der erste, der davon spricht (oder ich bin blind, kann auch sein)
Linmoum
2023-05-18, 19:15:03
Kann das FG-Stutter-Problem auf Ryzens bestätigen:
https://abload.de/thumb/witcher3_2023_05_18_136izz.png
In Hitman 3 ging FG mit RT nach kurzer Zeit einfach von selbst aus.
Den Treiber hats in W3 auch schon gecrasht...Auch mit einem 5000er? Strange, sollte eigentlich nur Zen4 betreffen. Den 5800X3D hatte ich nicht mehr zum gegentesten, aber sowohl mit 7700X als auch 7800X3D gab/gibt es das Problem hier ebenfalls. Ist auch schon seit Day1 der Fall, das hat jetzt erst vor 1-2 Wochen noch mal an Fahrt aufgenommen, weil's da dann auch mal durch die Presse ging.
Wenn ich mir den Ryzen-Fix in CP2077 vor Augen halte, gibt's hier wahrscheinlich auch irgendwo irgendetwas, womit man das Problem eigenständig umgehen kann. Auf CDPR kann man sich bei sowas vermutlich nicht verlassen.
aufkrawall
2023-05-18, 19:42:35
Auch mit einem 5000er?
Jo. Gibts in CP77 auch, stockt nach Blicken in den Himmel meist wie hulle.
In Miles Morales scheint es das Problem nicht zu geben.
Troyan
2023-05-20, 10:30:02
Bright Memory Infinity hat nun Unterstützung für FSR 2.2 und XeSS 1.1 bekommen: https://imgsli.com/MTgwMDQy/2/1
Ihr werdet nie erraten, was FSR ist. Bilder wurden aus der Bewegung gemacht.
DrFreaK666
2023-05-20, 10:31:27
Ich rieche Sarkasmus :D
robbitop
2023-05-20, 10:38:03
Klar wenn der Propellerjunge himself was postet ist es immer biased. Den kann man nicht ernst nehmen.
Exxtreme
2023-05-20, 17:24:45
Bright Memory Infinity hat nun Unterstützung für FSR 2.2 und XeSS 1.1 bekommen: https://imgsli.com/MTgwMDQy/2/1
Ihr werdet nie erraten, was FSR ist. Bilder wurden aus der Bewegung gemacht.
Beides hässlich wie die Nacht. Auch wenn mir das linke Bild etwas besser gefällt. Da sieht die Vegetation rechts nicht so zerklüftert aus.
Klar wenn der Propellerjunge himself was postet ist es immer biased. Den kann man nicht ernst nehmen.
Aber er hat Recht.
Thunder99
2023-05-20, 18:00:53
Wenn man die Auflösung via downsampling erhöht und dann DLSS einschaltet, hat man dann auch quasi DLAA? Schon, oder, oder besser? 5k auf WQHD DLSS Q ergäbe 4k auf Basis eines WQHD Monitor. :confused:
robbitop
2023-05-20, 18:06:04
Aber er hat Recht.
Stimmt in dem Fall aber es geht um die Selektivität. Er postet bei NV und Intel ausschließlich Positives und bei AMD ausschließlich Negatives. Aber nie anders herum. Beide IHVs haben natürlich auch ambivalente Aspekte. Aber als Propellerjunge immer nur für den Verein. Was mega lächerlich ist Fan einer Firma zu sein.
dargo
2023-05-20, 18:07:32
Bright Memory Infinity hat nun Unterstützung für FSR 2.2 und XeSS 1.1 bekommen: https://imgsli.com/MTgwMDQy/2/1
Ihr werdet nie erraten, was FSR ist. Bilder wurden aus der Bewegung gemacht.
Eigentlich ist es ganz einfach. Das Bild mit höherer Framerate ist FSR 2 weil XESS immer bei gleichen Preset teurer ist. Zumindest auf non Intel Hardware.
Troyan
2023-05-23, 15:08:24
Computerbase hat die Latenz bei der 4060TI und FG in The Witcher 3 mit Raytracing getestet: https://www.computerbase.de/2023-05/nvidia-geforce-rtx-4060-ti-8gb-test/2/#abschnitt_nvidia_dlss_3_in_the_witcher_3_untersucht
1080p + FG (Reflex) hat eine geringere Latenz als 1080p + DLSS P (ohne Reflex). 1080p + FG hat 50% mehr Frames und die halbe Latenz zu Nativ ohne Reflex (also vergleichbar zu AMD).
Platos
2023-05-23, 15:30:15
Warum hat bei denen Nativ eine niedrigere Latenz als Nativ+ Framegen (ohne Reflex, ohne DLSS) ? Eigentlich kann doch durch Framegen die Latenz gar nicht sinken?
Troyan
2023-05-23, 15:36:08
Reflex reduziert die Latenz von 112ms auf 45ms in nativ. Mit FG steigt diese auf 60ms an.
Je stärker das GPU Limit (also Arbeit nicht "Auslastung"), umso besser ist Reflex.
aufkrawall
2023-05-23, 15:38:09
Tut sie ja auch nicht wegen FG, sondern weil FG gleichzeitig Reflex on erzwingt. Das spiel hat absurden CPU Prerender von vermutlich drei Frames, da kann Reflex viel rausholen. Anti-Lag bringt hier aber auch wesentlich mehr als in Overwatch. Außerdem bleibt die Diskrepanz zwischen Flüssigkeit und Lag mit FG, eine gewisse Schwammigkeit bleibt trozt Reflex. 90fps mit Reflex erscheinen deutlich direkter als 138 mit Reflex + FG.
Exxtreme
2023-05-23, 15:45:15
90fps mit Reflex erscheinen deutlich direkter als 138 mit Reflex + FG.
Sind sie auch. Man bräuchte 180 fps + Reflex + FG um die gleiche Direktheit wie 90 fps + Reflex zu haben. :)
dildo4u
2023-05-23, 15:59:19
Es sollen Gamepatches für Ryzen 7000 Plus DLSS3 Stottern in CDPR Games kommen.
https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/News/DLSS-3-Patch-fuer-Stottern-in-Cyberpunk-2077-und-The-Withcer-3-auf-Ryzen-7000-1420278/
Platos
2023-05-23, 16:32:28
Mir reicht ja persönlich die native 60FPS Latenz (also ohne Reflex).
Bei dem Spiel ist die native Latenz von 60FPS (62.8FPS) laut CB also 86.4ms. Wieso eigentlich so "viel"?
Wenn man das jetzt mal so ganz grob (für dieses Spiel) "umrechnet": Dank Reflex habe ich dann ca. 0.55 mal die Latenz, d.h 60FPS Framegen + Reflex ergibt mir etwa die Latenz, wie Nativ 60FPS ohne Framegen (sogar weniger). Für mich ist nativ schliesslich "normal". Also ist Framegen + Reflex für mich immer noch normal.
D.h für mich hat Framegen + nativ keinen Nachteil. Es gibt ja jetzt nicht sooo viele Spiele, die Reflex supporten. Die meisten von mir gespielten haben alle kein Reflex. D.h wenn ich da in 60FPS spiele, ist die Latenz genau so hoch, wie in Witcher 3 mit Framegen auf 60FPS. Also wie gesagt, "normal" für mich (und die meisten anderen Gamer).
Kombiniert mit DLSS Quality hat man so ne richtig fette Grafik bei normaler Latenz im Vergleich zu ohne Reflex mit aber deutlich höherer Bewegtschärfe. Darum gehts mir.
Wer spielt schon Witcher 3 auf 144FPS, anstatt die Grafik weiter aufzudrehen? Das machen dann nur die wenigsten. Abgesehen davon kommt die grösste Latenz bei Witcher 3 vor allem durch die beschissene Animationszeit bei der Steuerung.
Tut sie ja auch nicht wegen FG, sondern weil FG gleichzeitig Reflex on erzwingt. Das spiel hat absurden CPU Prerender von vermutlich drei Frames, da kann Reflex viel rausholen. Anti-Lag bringt hier aber auch wesentlich mehr als in Overwatch. Außerdem bleibt die Diskrepanz zwischen Flüssigkeit und Lag mit FG, eine gewisse Schwammigkeit bleibt trozt Reflex. 90fps mit Reflex erscheinen deutlich direkter als 138 mit Reflex + FG.
Ah ok, wusste ich nicht.
Ja dann ist das klar.
Troyan
2023-05-23, 16:46:49
Bei dem Spiel ist die native Latenz von 60FPS (62.8FPS) laut CB also 86.4ms. Wieso eigentlich so "viel"?
Weil die GPU unter kompletter Vollauslastung ist und das Spiel intern die Verarbeitung "cachen" muss, um die Daten zur CPU zu schicken.
Mit Reflex wird das ganze an die GPU gekoppelt und deswegen sinkt die Latenz fast auf CPU-Limit.
SamLombardo
2023-05-24, 06:54:29
Es sollen Gamepatches für Ryzen 7000 Plus DLSS3 Stottern in CDPR Games kommen.
https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/News/DLSS-3-Patch-fuer-Stottern-in-Cyberpunk-2077-und-The-Withcer-3-auf-Ryzen-7000-1420278/
Und was ist mit Ryzen 5000? Stottert zumindest in The Witcher 3 ebenfalls.
Ph0b0ss
2023-05-24, 07:53:48
Sind sie auch. Man bräuchte 180 fps + Reflex + FG um die gleiche Direktheit wie 90 fps + Reflex zu haben. :)
Man bräuchte sogar ~204,5 fps + Reflex + FG um mit 90 fps + Reflex die gleiche Direktheit zu haben, da FG bei gleicher Grundfps ~13,6% mehr Latenz hat.
BlacKi
2023-05-31, 20:17:57
sehen intern gerechnete 720p dlss auf fhd und uhd gleich schlecht aus? hat das schon jemand getestet? und gibt es fps unterschiede?
sehen intern gerechnete 720p dlss auf fhd und uhd gleich schlecht aus? hat das schon jemand getestet? und gibt es fps unterschiede?
DLSS hat fixe Kosten pro Frame, die mit der Ausgabeauflösung steigen.
DLSS UP (was für 720p --> 4k notwendig ist) hat sich seit der Einführung deutlich verbessert und ist kein komplett unbrauchbarer Mist mehr. Annähernd gleiche oder gar bessere Qualität als Native + TAA, was bis TAA-Performance oft durchaus erreicht wird darf man sich natürlich nicht erwarten, aber mittlerweile ist der Qualitätsverlust deutlich geringer als der Performancegewinn (sofern letzterer nicht anderwertig ausgebremst wird).
basix
2023-06-01, 11:09:16
In UHD sollte es besser aussehen, da das Bild einfach deutlich höher aufgelöst ist, aber DLSS Ultra Performance ist nicht auf dem Niveau von DLSS Quality. Ab DLSS 2.5 wurde Ultra Quality allerdings einiges verbessert (Preset F?)
Exxtreme
2023-06-01, 11:23:00
Annähernd gleiche oder gar bessere Qualität als Native + TAA,
Kann man pauschal nicht sagen. In The Elder Scrolls Online sieht DLSS Q beträchtlich schlechter aus als nativ + TAA. Und TAA alleine blurrt schon extrem.
aufkrawall
2023-06-01, 11:27:24
In UHD sollte es besser aussehen, da das Bild einfach deutlich höher aufgelöst ist, aber DLSS Ultra Performance ist nicht auf dem Niveau von DLSS Quality. Ab DLSS 2.5 wurde Ultra Quality allerdings einiges verbessert (Preset F?)
Hängt mit neueren DLLs allerdings vom Spiel oder dem Profil von Nvidia fürs Spiel ab, ob es genutzt wird. Ist offenbar, genau wie für DLAA, oft nicht der Fall und es wird dann schon mal Preset B für UP genutzt...
Kann man pauschal nicht sagen.
Hab ich auch nicht.
aufkrawall
2023-06-05, 01:21:45
Ich denke 31,5" im 16:9 Format wäre mir zu groß von den Pixeln.
Sieht mit 4k allerdings schon noch deutlich feiner aus als 27" 1440p und auch TAA funktioniert durch die mehr Pixel/Objekt deutlich besser. Würds mir vor der nächsten Monitor-Anschaffung mal anschauen. Es ist in Spielen wie Battlefield/Fortnite etc. auch wirklich leichter, Gegner auf große Entfernung zu erkennen. Halte ich für wichtiger als mehr Blickfeld in den Augenwinkeln.
Slipknot79
2023-06-05, 01:39:55
DLDSR 2,25x + DLSS-Q sieht schon ziemlich good aus auf UWQHD, da kann man nix dagegen sagen. Nachschärfen mit CAS@reshade usw ist dann überhaupt nicht mehr notwendig, dazu kommt Bildqualitätsgewinn durch DLDSR. Das Bild ist schon ziemlich knackig, Äste in RE4 werden fein ausgearbeitet, Texturen und Details wirken knackiger. Die Spiele werden dick aufgewertet.
Nochdazu hat man den Vorteil, dass man jederzeit nen fallback auf nativ 3440x1440 machen kann, wenn DLDSR ne 4090 überfordern sollte, wovon auszugehen ist, da ja noch entsprechende Spiele releast werden. Man muss einfach davon ausgehen, dass die 4090 keine 4k Karte ist.
Nightspider
2023-06-05, 01:41:18
Ahjo, du sagtest ja bei 4K, brainfart.
Bei 4K wird das auf jeden Fall schon gehen mit 31,5".
Aber wenn man sich aber ein mal an das breite Bild gewöhnt hat will man das auch nicht mehr missen.
Keine Ahnung, ich müsste wohl beides hier haben und besser vergleichen zu können aber um in Betracht zu kommen müssten da eh erstmal Derivate mit OLED Panels an den Start gehen.
aufkrawall
2023-06-05, 01:44:32
DLDSR 2,25x + DLSS-Q sieht schon ziemlich good aus auf UWQHD, da kann man nix dagegen sagen.
Wenn man irgendeine natürliche Resistenz gegen verschwommene Objektkanten hat. Mein Bruder fand DLDSR auch erst toll, aber irgendwann wanderte das genau so in die Mottenkiste wie DLSS Preset F. Trotz 4k-Monitor btw...
Nightspider
2023-06-05, 01:44:51
DLDSR 2,25x + DLSS-Q sieht schon ziemlich good aus auf UWQHD, da kann man nix dagegen sagen. Nachschärfen mit CAS@reshade usw ist dann überhaupt nicht mehr notwendig, dazu kommt Bildqualitätsgewinn durch DLDSR. Das Bild ist schon ziemlich knackig, Äste in RE4 werden fein ausgearbeitet, Texturen und Details wirken knackiger.
Würde das halt gerne mal ausprobieren.
Woran liegt das eigentlich, das Texturen durch DLDSR so geschärft wirken?
DF hatte dazu mal ein Video rausgebracht wo die Texturen teils deutlich....(mir fällt kein passendes Adjektiv ein)....herausstechen? Bei The Witcher hatten Gesichtstexturen auf einmal teils Texturen wie zu stark geschminkt+Falten. Mit 50% Smoothness war es dann wieder normal.
Ist das bei DLSS auch so?
aufkrawall
2023-06-05, 01:51:28
Würde das halt gerne mal ausprobieren.
Woran liegt das eigentlich, das Texturen durch DLDSR so geschärft wirken?
DF hatte dazu mal ein Video rausgebracht wo die Texturen teils deutlich....(mir fällt kein passendes Adjektiv ein)....herausstechen? Bei The Witcher hatten Gesichtstexturen auf einmal teils Texturen wie zu stark geschminkt+Falten. Mit 50% Smoothness war es dann wieder normal.
Ist leider selbst bei 100% Smoothness nicht neutral, die Stadtmauer in Witcher 3 sieht selbst bei DLDSR 100% Smoothness 2,25x seltsam geschärft aus vs. DSR 4x 0% Smoothness. Es ist kein neutrales Bild mehr, und trotzdem sind leider Objektkanten etwas verschwommen. Scheint aber vielen Leuten nicht aufzufallen oder sie zu stören, wobei das natürlich nichts heißen muss.
Ist das bei DLSS auch so?
Zum Glück nicht, DLSS & DLAA sehen hinsichtlich "Stil" komplett neutral aus. Und da nach CAS sonst nichts mehr mit dem Bild passiert (anders als bei Downsampling), bleibt die Schärfung der Objektkanten zum Glück erhalten.
Slipknot79
2023-06-05, 01:59:40
Wenn man irgendeine natürliche Resistenz gegen verschwommene Objektkanten hat. Mein Bruder fand DLDSR auch erst toll, aber irgendwann wanderte das genau so in die Mottenkiste wie DLSS Preset F. Trotz 4k-Monitor btw...
Ich nehme an auf nem 4k LCD-Monitor? Was bringt es, wenn er DLDSR deaktivert, aber auf nem LCD Monitor spielt wo jedes Pixel verschwommen ist, weil es kein OLED ist? Da sind verschwommene Objektkanten doch sein geringstes Problem. (y)
aufkrawall
2023-06-05, 02:05:41
Das Eine hat mit dem Anderen einfach mal gar nichts zu tun. Bzw. auf einem OLED mit ungünstiger Subpixel-Struktur wär es sogar schlechter...
Exxtreme
2023-06-05, 08:53:02
Ich habe diese Unschärferesistenz leider nicht. Und deshalb sind DLSS und FSR keine Features für mich. Mir ist das in Jedi Survivor sofort aufgefallen, dass da Upscaling aktiv ist obwohl ich FSR2 deaktiviert hatte. Ist offenbar ein Bug in dem Spiel, dass das aktiv ist, ausser man setzt die Deatilstufe auf "Epic". In The elder scrolls online sehe ich ein aktiviertes DLSS2 auch sofort.
Da setze ich lieber die Detailstufe herunter falls ein Spiel zu langsam laufen sollte.
Slipknot79
2023-06-05, 10:35:05
Das Eine hat mit dem Anderen einfach mal gar nichts zu tun. Bzw. auf einem OLED mit ungünstiger Subpixel-Struktur wär es sogar schlechter...
Technisch vielleicht nicht. Aber wenn ich die Wahl habe, zwischen LCD-Bewegtunschärfe mit DLDSRoff und OLED-Bewegtschärfe mit DLDSRon, dann ist das, was dein Bro am Start hat, eine eindeutige Verschlechterung. Einfach deswegen, weil bei ihm jedes Pixel betroffen ist und am OLED nur die Objektkanten. Im Spiel fallt das eben auch nicht auf, weil man beim Spielen in der Regel nicht auf Objektkanten gezielt achtet, sondern das Gesamtbild erfasst und wirken lässt. Und das Gesamtbild ist bei deinem Bro nunmal Shice da jedes Pixel betroffen, ob nun DLDSRon oder off, auch schon egal. Er hat die Wahl zwischen Shice oder noch mehr Shice.
aufkrawall
2023-06-05, 11:10:29
Ob OLED oder LCD, ist für die Darstellung von Strukturen wie Linien erstmal völlig unerheblich. Du brauchst mir auch nicht erzählen, dass Kontrast so etwas irgendwie ausgleichen könnte. Etwa 13" 1080p Pentil-AMOLEDs sehen trotz hoher Pixeldichte aus wie komplett bröseliger Müll, dass es selbst in Spielen schon wieder nervt. Keine Ahnung, weshalb du meinst, OLED wäre in dem Zusammenhang interessant. Musstest wohl unbedingt erwähnen, dass du so ein Display hast, um wieder irgendwen oder was runterziehen zu können. Womit du trotz Ukraine-Briefings wieder auf meiner Ignore-List landest (hat qualitativ eh arg abgenommen). Diese Grundschüler-Anglizismen sind eh schlecht für die Gehirnzellen...
Slipknot79
2023-06-05, 11:29:32
Da meine Infos auch andere interessieren, wohingegen ein ignore-Fluchverhalten inklusive Begründung uninteressant sind wegen Zielgruppenverfehlung:
Niemand redet von AMOLEDs 13", es geht um einen Anwender mit seinem LCD, auch wenn das ein Versuch war abzulenken, ist eben gescheitert.
Es geht darum, was da oben stand. Um das Erfassen des Gesamtbildes und die Aufwertung dessen. Es ist einfach sinnlos sich darüber aufzuregen, dass DLDSR Objektkanten verschwimmen lassen soll, wenn bei LCDs schon mal prinzipiell das Gesamtbild unscharf ist in Bewegung und es hier schon Abstriche gibt. Warum also nicht das Gesamtbild aufwerten, und dann (angeblich) reduzieren lassen mit DLDSR.
Schränken wir uns auf LCD ein, so wird aber auch sogar mit DLDSR das Gesamtbild aufgewertet, da jedes Pixel betroffen ist. Es wird also um 100% aufgewertet und von mir aus um 20% an den Objektkanten reduziert und das auch nur dann, wenn man gezielt danach sucht. Sind immer noch 80% Gewinn. (y)
Grundsätzliches:
Mir ist sowieso nie klar, warum man sich über derartiges aufregt, das betrifft andere genauso ("RT sieht Shice aus, nur als Hybrid-Lösung anwendbar", "DLSS/FSR/XeSS senkt die BQ" und ähnliche Aussagen usw...) und dann spielt man letztendlich doch auf qualitätsreduzierenden LCDs mit komprimierten (also erst wieder mit Artefakten) Texturen und sonstigen technischen Tricksereien, damit z.B. 100fps möglich sind. Am besten gleich das Hobby aufgeben wenn man es ohnehine nicht genießen kann?
Exxtreme
2023-06-05, 11:35:36
Also Grundsätzliches:
Mir ist sowieso nie klar, warum man sich über derartiges aufregt, das betrifft andere genauso ("RT sieht Shice aus", "DLSS/FSR/XeSS senkt die BQ" und ähnliche Aussagen usw...) und dann spielt man letztendlich doch auf qualitätsreduzierenden LCDs mit komprimierten (also mit Artefakten) Texturen und sonstigen technischen Tricksereien, damit z.B. 100fps möglich sind. Am besten gleich das Hobby aufgeben wenn man es ohnehine nicht genießen kann?
Zwei Unschärfefilter hintereinander geschaltet sind schlechter als nur ein Unschärfefilter. Sprich, wenn schon der LCD-Monitor Unschärfe verursacht dann muss zusätzliche Unschärfe durch Upscaler nicht unbedingt sein. Und ja, die zusätzliche Unschärfe durch Upscaler ist auch auf einem LCD-Monitor sichtbar.
Slipknot79
2023-06-05, 11:45:54
Zwei Unschärfefilter hintereinander geschaltet sind schlechter als nur ein Unschärfefilter. Sprich, wenn schon der LCD-Monitor Unschärfe verursacht dann muss zusätzliche Unschärfe durch Upscaler nicht unbedingt sein. Und ja, die zusätzliche Unschärfe durch Upscaler ist auch auf einem LCD-Monitor sichtbar.
Du meinst DLSS als Zweitfilter?
Da bietet sich ja DLDSR+DLSS an. Im Vgl. zu nativ ist das jedenfalls eine dicke Aufwertung.
aufkrawall
2023-06-05, 11:50:46
Zwei Unschärfefilter hintereinander geschaltet sind schlechter als nur ein Unschärfefilter. Sprich, wenn schon der LCD-Monitor Unschärfe verursacht dann muss zusätzliche Unschärfe durch Upscaler nicht unbedingt sein. Und ja, die zusätzliche Unschärfe durch Upscaler ist auch auf einem LCD-Monitor sichtbar.
Das Problem haben leider auch nicht nur Up-, sondern auch Downscaler wie VSR & DSR/DLDSR. Bis auf die Ausnahme 4xDSR mit Smoothness 0%, sind Objektkanten deutlich unschärfer als etwa mit den alten OGSSAA-Modi im Nvidia-Treiber. Und Sharpen kann man auch nur vor dem Downscaling anwenden, nicht danach. Selbst mit TAA/DLSS/FSR 2 bekommt man die Objektkanten schärfer als mit Downsampling, da das Sharpen als letzter Schritt passiert. Und selbst mit 4xDSR + DLSS/FSR 2 Performance fällt auf, dass die Pixel-Vervierfachung den Upsamplern schwerer fällt als 66% Render-Auflösung, gibt etwa deutlich mehr Disocclusion-Unschärfe (trotz gleichen DLSS-Presets).
Das spatiale Skalierungs-Geschmiere (nicht zu verwechseln mit TAAU) ist einfach nur Müll vs. native Auflösung. Egal, was man sonst an OT-Kram rumerzählt...
Exxtreme
2023-06-05, 11:59:44
Du meinst DLSS als Zweitfilter?
Da bietet sich ja DLDSR+DLSS an. Im Vgl. zu nativ ist das jedenfalls eine dicke Aufwertung.
Nein, das ist keine pauschale Aufwertung sondern teils eine Aufwertung und teils eine Abwertung. Es gibt Dinge, die werden schärfer, andere Dinge werden wiederum verschwommener. Man muss das ausprobieren, was einem besser gefällt.
Ex3cut3r
2023-06-05, 12:39:32
Lieber DLAA auf native Auflösung erzwingen, als DLDSR. Gefällt mir auf native 4K 31.5" mit 140 PPi auch besser. Weiß aber nicht, ob das genauso so genial mit 1440p und 109/108 PPi aussieht. Wohl eher nicht.
https://github.com/emoose/DLSSTweaks
Jupiter
2023-06-05, 13:05:34
Es ist einfach sinnlos sich darüber aufzuregen, dass DLDSR Objektkanten verschwimmen lassen soll, wenn bei LCDs schon mal prinzipiell das Gesamtbild unscharf ist in Bewegung und es hier schon Abstriche gibt. Warum also nicht das Gesamtbild aufwerten, und dann (angeblich) reduzieren lassen mit DLDSR.
Schränken wir uns auf LCD ein, so wird aber auch sogar mit DLDSR das Gesamtbild aufgewertet, da jedes Pixel betroffen ist. Es wird also um 100% aufgewertet und von mir aus um 20% an den Objektkanten reduziert und das auch nur dann, wenn man gezielt danach sucht. Sind immer noch 80% Gewinn. (y)
Grundsätzliches:
Mir ist sowieso nie klar, warum man sich über derartiges aufregt, das betrifft andere genauso ("RT sieht Shice aus, nur als Hybrid-Lösung anwendbar", "DLSS/FSR/XeSS senkt die BQ" und ähnliche Aussagen usw...) und dann spielt man letztendlich doch auf qualitätsreduzierenden LCDs mit komprimierten (also erst wieder mit Artefakten) Texturen und sonstigen technischen Tricksereien, damit z.B. 100fps möglich sind. Am besten gleich das Hobby aufgeben wenn man es ohnehine nicht genießen kann?
Auf Konsumenten-LCD gibt es ausschließlich minderwertige Bilderlebnisse. LCD taugt einzig und allein für beinahe Standbilder wie Uhren usw.
LCD liefert bei Bewegbildern Matsch. Dagegen sind selbst TAA- oder Raytracing-Nachzieheffekte nichts. Ein Plasma mit 60 Hz und 3000 Hz Focus Field Drive ist erheblich schärfer als ein LCD-Bewegbild mit 240 Hz. Wenn man beim VTW60 ein Foto bei Bewegungen macht sieht das exakt so scharf wie ein scharfes Standbild aus. Am besten ist aber das 120 Hz BFI bei OLEDs wie den CX oder C1.
Als PC-Spieler die schlechtere Konsolenspielgrafik belächelten musste ich auch immer die Augen reiben, wenn ich an die verwendeten Monitore denke. Ein Konsolenspiel auf einen OLED sieht um ein vielfaches beeindruckender aus als ein Spiel am PC und LCD-Monitor.
Ex3cut3r
2023-06-05, 14:00:21
Also eigentlich technisch gesehen ziemlich falsch. Wenn die Reaktionszeiten schnell genug sind für die Refresh Rate, dann ist das schon in Ordnung. Hold Type bedingt, hat man nie 100% "schärfe" selbst bei OLED mit 0,5 ms Reaktionszeit nicht.
500HZ mit dafür ausgelegten Reaktionszeiten ist für LCD schon verdammt gut. Problem ist nur die 500FPS auch konstant zu erreichen aktuell. Ist nur in E-Sports Titel mit einem 13900k @ 6,0Ghz + getunten DDR5 ansatzweise möglich. DLSS 3 könnte dafür in Zukunft auch enorm wichtiger werden.
aufkrawall
2023-06-05, 14:27:48
Außerdem ist das Fehlen von Hold-Type-Blur auch nicht einfach so nebenwirkungsfrei, denn dann sehen 120Hz ziemlich juddery aus. Selbst mit meiner lahmen Gurke sehen 165Hz noch merkbar flüssiger aus als 144Hz.
Vermutlich ist die Bewegtschärfe bei 120Hz OLED mit Strobing wesentlich beeindruckender als die fehlende Flüssigkeit, aber perfekt ist das auch nicht. Um so interessanter wird FG, aber leider nicht in Shootern, wo man gern die meisten fps hätte.
Wenn die Reaktionszeiten schnell genug sind für die Refresh Rate, dann ist das schon in Ordnung.
Solche gibt es allerdings nicht. Responsetime=Frametime ist bei weitem nicht genug, bei Responsetime=Frametime ist man ständig in der Transition-Phase und hat genau nie ein scharfes Bild.
Die Responsetime muss deutlich unter der Frametime liegen um zumindest dem überwiegenden Teil der Zeit die korrekte Farbe anzuzeigen.
robbitop
2023-06-05, 15:09:04
Und deswegen wirken OLEDs in Bewegung schärfer. :)
Gipsel
2023-06-05, 15:57:20
Und deswegen wirken OLEDs in Bewegung schärfer. :)Je nachdem, wie Du die Bewegtschärfe definierst, stimmt das nur mit mit gutem Strobing (und die minimale Pulsdauer ist von der maximalen Helligkeit und damit indirekt durch die Lebensdauer begrenzt), sonst sind es eben auch hold-type Displays (sogar fast ideale, weil die Schaltzeiten sehr kurz sein können, also wenige µs statt ms). Und mit Strobing kommt man auch bei LCDs recht weit was den hold-type-blur angeht (die minimalen Pulsdauern dürften sogar kürzer sein, weil siliziumbasierte LEDs [z.B. als Micro-LED Hintergrundbeleuchtung ausgeführt] höhere Helligkeiten als organische LEDs erreichen können, ohne zuviel Lebensdauer zu opfern).
aufkrawall
2023-06-05, 16:01:14
Könnte sein, dass bald Preset G kommt: https://videocardz.com/newz/nvidia-dlss-plugin-for-unreal-engine-to-feature-a-new-g-preset
Wollen wir mal die Daumen drücken...
Ex3cut3r
2023-06-05, 16:57:47
Und deswegen wirken OLEDs in Bewegung schärfer. :)
Also beim 360HZ Asus ist das schon nicht schlecht für LCD.
https://geizhals.de/asus-rog-swift-pg27aqn-90lm0820-b013b0-a2850135.html?hloc=at&hloc=de
https://www.rtings.com/monitor/reviews/asus/rog-swift-360hz-pg27aqn
Zukünftige Modelle dürften noch besser weren. OLED ist halt problemtatisch am PC mit dem Einbrennen und dem VRR Flickering. :smile:
LG OLED @ 240HZ
https://i.rtings.com/assets/products/ruPQIU94/lg-27gr95qe-b/motion-blur-max-large.jpg
Asus @ 360HZ
https://i.rtings.com/assets/products/oN6qjTip/asus-rog-swift-360hz-pg27aqn/motion-blur-max-large.jpg
robbitop
2023-06-05, 17:59:52
Ja das perfekte Panel gibt es leider noch nicht. Mal schauen wie MicroLED (kann man bei Samsung kaufen wenn man 100.000€ zu viel hat) wird, wenn es massentauglich wird.
Es gibt nun den ersten Fall, wo die Erzeugung der Zwischenbilder das Geschehen ausbremsen kann - Diablo 4 auf einer Geforce RTX 4090: https://www.pcgameshardware.de/Diablo-4-Spiel-55956/Specials/Diablo-4-Benchmarks-Tuning-Tipps-Technical-Review-1421206/3/#a2
MfG
Raff
Exxtreme
2023-06-07, 10:56:00
Es gibt nun den ersten Fall, wo die Erzeugung der Zwischenbilder das Geschehen ausbremsen kann - Diablo 4 auf einer Geforce RTX 4090: https://www.pcgameshardware.de/Diablo-4-Spiel-55956/Specials/Diablo-4-Benchmarks-Tuning-Tipps-Technical-Review-1421206/3/#a2
MfG
Raff
FG ist halt nichts für Spiele, die im GPU-Limit laufen und ist somit nicht geeignet um einer zu schwachen Grafikkarte auf die Beine zu helfen.
aufkrawall
2023-06-07, 11:07:45
Da stimmt offenkundig irgendetwas anderes generell nicht, denn die 1% low steigen selbst in 4k mit DLSS Q vs. TAA bei PCGH gar nicht.
Würde eher von Bugs ausgehen.
Es gibt nun den ersten Fall, wo die Erzeugung der Zwischenbilder das Geschehen ausbremsen kann - Diablo 4 auf einer Geforce RTX 4090: https://www.pcgameshardware.de/Diablo-4-Spiel-55956/Specials/Diablo-4-Benchmarks-Tuning-Tipps-Technical-Review-1421206/3/#a2
Sicher dass es nicht ein Auslesefehler ist? Evtl. bekommt der Framezähler die generierten Frames einfach nicht mit und zählt nur die berechneten.
FG ist halt nichts für Spiele, die im GPU-Limit laufen und ist somit nicht geeignet um einer zu schwachen Grafikkarte auf die Beine zu helfen.
FG hilft in Cyberpunk oder PortalRTX im GPU-Limit ordentlich.
Es ist natürlich trotzdem nix für schwache Grafikkarten, weil man eine ausreichend hohe Grund-FPS braucht damit die Latenz im Rahmen bleibt.
Ex3cut3r
2023-06-07, 13:41:06
Neue 3.1.13 DLL mit Preset G.
https://github.com/NVIDIA/DLSS/raw/main/lib/Windows_x86_64/rel/nvngx_dlss.dll
Weiß stand jetzt, aber nicht ob man das neue Preset mit DLSS Tools erzwingen/benutzen kann. Muss ich später mal ausprobieren.
https://github.com/emoose/DLSSTweaks
aufkrawall
2023-06-07, 13:57:50
In der Doc steht "unused":
https://github.com/NVIDIA/DLSS/blob/main/doc/DLSS_Programming_Guide_Release.pdf
Die Dateigröße ist ja auch gar nicht angestiegen.
Exxtreme
2023-06-07, 23:30:37
OK, DLSS sieht in Diablo 4 echt gut aus. Hätte nicht gedacht, dass das so gut funktioniert. Scheint aber extrem content- und implementierungsabhängig zu sein. In The Elder Scrolls Online sieht man das sofort, dass es aktiv ist.
aufkrawall
2023-06-07, 23:34:20
In Elder Scrolls wird afair das LOD nicht verschoben -> Entwickler-Fail.
Das Bild mit DLSS Q + CAS ist typischerweise detaillierter als TAA + CAS und Preset C hat oft auch weniger Motion Blur als TAA.
In The Elder Scrolls Online sieht man das sofort, dass es aktiv ist.
In Diablo 4 auch, allerdings positiv.
blaidd
2023-06-09, 11:23:45
Sicher dass es nicht ein Auslesefehler ist? Evtl. bekommt der Framezähler die generierten Frames einfach nicht mit und zählt nur die berechneten.
Es funktioniert, sobald man die Max-Fps herunterregelt.
Wenn die Frame Generation mit offiziell 3-5 ms länger braucht als ein regulärer Frame (333 - 200 Fps ~ 3-5 ms), dann kann die Bildrate nicht durch einschieben langsamerer Zwischenbilder erhöht werden, dann bremst die FG.
Wenn man allerdings ein (passendes) Framelock setzt, sinkt die Last auf CPU und GPU. Wertlos ist die FG also trotzdem nicht. Und das ist auch ein Extremfall.
Ich denke außerdem nicht, dass allzu viele die Bildraten beim Einsatz von Diablo 4 samt FG auf >240 Fps limitieren. Wozu auch? Bei Full HD und WQHD, wo es entsprechende Monitore gibt, kommt man selbst ohne FG auf diese Bildraten, wenn man halbwegs potente Hardware verbaut hat, und wenn nicht, also vorher etwa die CPU bremst, dann bringt die FG wieder was, weil die CPU die Berechnungszeit auf höher 3-5 ms ausbremst.
Alles halb so wild - und vielleicht ist da tatsächlich auch etwas noch leicht im Argen. Aber das könnten Interessierte eventuell auch mal in anderen Games untersuchen (z.B. Forza mit herabgeregelten [LOD-]Settings) :wink: - mit zunehmender Bildrate wird die FG ineffizienter.
Wenn die Frame Generation mit offiziell 3-5 ms länger braucht als ein regulärer Frame (333 - 200 Fps ~ 3-5 ms), dann kann die Bildrate nicht durch einschieben langsamerer Zwischenbilder erhöht werden, dann bremst die FG.
Stimmt logischerweise, wobei mir 3-5ms zu lange vorkommen für ein generiertes Frame bei 200FPS sind es schließlich gerade mal 5ms für ein echtes Frame, und FG muss da schon deutlich schneller sein um da was zu bringen.
Ich denke außerdem nicht, dass allzu viele die Bildraten beim Einsatz von Diablo 4 samt FG auf >240 Fps limitieren.
Ich denke nicht dass viele in Diablo 4 überhaupt FG einsetzen, das Spiel ist auf Grafikkarten die FG können eh schon mehr als schnell genug.
Ex3cut3r
2023-06-11, 20:31:46
Ich denke nicht dass viele in Diablo 4 überhaupt FG einsetzen, das Spiel ist auf Grafikkarten die FG können eh schon mehr als schnell genug.
FG macht immer Sinn, du musst mal deinen Horizont erweitern, gibt schon genug User mit 4K 240HZ und 1440p User mit 360-500HZ Monitore.
Exxtreme
2023-06-11, 20:33:12
Ich denke nicht dass viele in Diablo 4 überhaupt FG einsetzen, das Spiel ist auf Grafikkarten die FG können eh schon mehr als schnell genug.
Also ich setze es ein. X-D Nämlich zum Strom sparen. :)
The_Invisible
2023-06-11, 20:35:42
Hier auch und mit nur 144Hz, braucht die Grafikkarte ja nicht umsonst rödeln...
Also ich setze es ein. X-D Nämlich zum Strom sparen. :)
meine 4090 brauch mit 120Hz gerade mal 80 Watt, bringt das denn soviel?
Also ich setze es ein. X-D Nämlich zum Strom sparen. :)
Also meine 4090 fadisiert sich in Diablo4 mit DLAA, ohne FG bei 250-300W mit 170FPS limiter.
Das Spiel ist schon ein Phänomen, sieht gefühlt 10x besser als POE aus und läuft dabei wesentlich schneller bzw. alternativ mit Framelimiter wesentlich sparsamer.
FG macht immer Sinn, du musst mal deinen Horizont erweitern, gibt schon genug User mit 4K 240HZ und 1440p User mit 360-500HZ Monitore.
Erstens funktioniert FG bei derart hohen Frequenzen nicht mehr, wie erst ein paar Postings zuvor festgestellt wurde.
Und zweitens gibt es noch keinen 500Hz Monitor zu kaufen, und alle 360Hz Monitore bis auf einen sind FullHD.
blaidd
2023-06-12, 11:18:02
Hier auch und mit nur 144Hz, braucht die Grafikkarte ja nicht umsonst rödeln...
Selbst wenn die GPU noch immer relativ stark ausgelastet wäre (die FG lastet die Grafikkarte ja zumindest zu einem gewissen Teil trotzdem aus, Bilder "malen" muss sie ja z.B. trotzdem, interpoliert oder nicht), zumindest die CPU und auch ein paar andere Faktoren drumherum kann man ziemlich stark entlasten.
Wenn meine Grafikkarte das könnte (und nicht gerade ultra-nervige Artefakte auftreten, aber das tun sie, wenn, meist nur ganz zu Beginn. Z.B. in Forza [wo sie jetzt nahezu verschwunden sind]) würde ich das wohl auch zuschalten.
Mit 144 Hz würde sich das wohl immer noch ganz gut anfühlen und ich würde trotzdem Leistung sparen (vor allem verglichen zur Saufaus-RTX-3090-Ti, die aktuell im Rechner steckt - die rechnet in einigen anspruchsvollen Spielen, die ich aktuell zocke, tatsächlich mit 60-Fps-Lock, weil sie mich sonst kocht wie einen Lobster).
The_Invisible
2023-06-12, 11:45:59
meine 4090 brauch mit 120Hz gerade mal 80 Watt, bringt das denn soviel?
Welche Auflösung/AA? Hört sich nach LowPowerState an, mit 4k/144Hz/DLAA kommt man da nicht hin..
@blaidd
Ja haste recht das meinte ich auch irgendwie so :D
Jedenfalls wirklich nettes Feature, hoffe das gibts öfter, Starfield wäre ja so ein Kandidat...
Ex3cut3r
2023-06-12, 12:44:43
Erstens funktioniert FG bei derart hohen Frequenzen nicht mehr, wie erst ein paar Postings zuvor festgestellt wurde.
Und zweitens gibt es noch keinen 500Hz Monitor zu kaufen, und alle 360Hz Monitore bis auf einen sind FullHD.
FG wird auch noch weiterentwickelt. Für E-Sports Spiele wie CS:Go wurde FG das Game auf 500 FPS und mehr locker beschleunigen können. Rennt ja jetzt schon mit einem 13900k @ 6GHz und RAM Tuning auf 400 FPS.
Exxtreme
2023-06-12, 13:11:33
FG wird auch noch weiterentwickelt. Für E-Sports Spiele wie CS:Go wurde FG das Game auf 500 FPS und mehr locker beschleunigen können. Rennt ja jetzt schon mit einem 13900k @ 6GHz und RAM Tuning auf 400 FPS.
Mit dieser Generation wird zumindest DLSS3 aber wohl nicht schneller werden. Es braucht selbst pro generiertes Bild einige Millisekunden. Und diese Zeit markiert ein recht hartes Maximum was damit möglich ist. Sie könnten es möglicherweise erweitern damit es mehrere Zwischenbilder generieren kann, auf Kosten der Eingabelatenz natürlich.
FG wird auch noch weiterentwickelt. Für E-Sports Spiele wie CS:Go wurde FG das Game auf 500 FPS und mehr locker beschleunigen können.
Die laufen ja auch so schon mit 500FPS.
Abgesehen davon ist der Grund warum man solche Spiele mit derartigen Frameraten spielt die bessere Latenz. FG erzeugt immer zusätzliche Latenz.
Sie könnten es möglicherweise erweitern damit es mehrere Zwischenbilder generieren kann, auf Kosten der Eingabelatenz natürlich.
Sofern dadurch nicht das reguläre Rendering ausgebremst wird, ist es egal ob ein oder mehrere Zwischenbilder berechnet werden, der Latenzanstieg ist der selbe.
Ex3cut3r
2023-06-12, 15:01:56
Mit dieser Generation wird zumindest DLSS3 aber wohl nicht schneller werden. Es braucht selbst pro generiertes Bild einige Millisekunden. Und diese Zeit markiert ein recht hartes Maximum was damit möglich ist. Sie könnten es möglicherweise erweitern damit es mehrere Zwischenbilder generieren kann, auf Kosten der Eingabelatenz natürlich.
Ich denke ein Qualitäts Slider/Preset wurde mehr Sinn machen, wie bei DLSS 2.
Für schlechtere Bild Qualtität gibts auch mehr Bilder pro Sekunde etc. :smile:
Wurde bei den E-Sports Titeln auch Sinn machen, da spielt man sowieso auf Low und viele sogar gar nicht auf der nativen Auflösung. 800x600, 1024×768 sind immer noch sehr beliebt. X-D
Der AAA 4K, 144HZ User wählt halt einfach FG Qualität aus. Der E-Sports Spieler FG Performance/Ultra Performance aus.
aufkrawall
2023-06-12, 15:08:38
Niemand aktiviert in E-Sports-Titeln (=Anspruch auf Sieg allem untergeordnet) eine Option, die den Lag erhöht...
Ex3cut3r
2023-06-12, 15:10:25
Lag bleibt bei nativen 300 FPS mit FG UP auf 500 FPS, um seinen 1080p 500HZ Monitor auszureizen, absolut gleich, oder so gering, dass es völlig wumpe ist, es sei denn du bist einer der angeblich 1ms - 5ms Unterschied spüren kann.
Das Beispiel bezieht sich z.B. auf Counter Strike.
aufkrawall
2023-06-12, 15:12:43
Ja, diesen 800x600-Leuten geht es um 3-5ms. Deshalb kaufen die sich ja solche Monitore...
Platos
2023-06-12, 15:59:00
Die ganzen CS Kiddies mit ihren 300FPS plus kann man eh nicht ernst nehmen. Die wenigsten davon sind wirklich so gut, dass sie davon profitieren.
DrFreaK666
2023-06-12, 20:03:22
Ja, diesen 800x600-Leuten geht es um 3-5ms. Deshalb kaufen die sich ja solche Monitore...
Ganz ehrlich. Welcher E-Sportler spielt in 800x600? Je höher die Auflösung, desto einfacher lassen sich Gegner ausmachen
basix
2023-06-12, 20:09:08
Ganz ehrlich. Welcher E-Sportler spielt in 800x600? Je höher die Auflösung, desto einfacher lassen sich Gegner ausmachen
Die Hitbox kann bei grösseren Pixeln grösser sein ;) Vermutlich eine Urban Legend aber hey, wenn es hilft ;)
Mit dieser Generation wird zumindest DLSS3 aber wohl nicht schneller werden. Es braucht selbst pro generiertes Bild einige Millisekunden. Und diese Zeit markiert ein recht hartes Maximum was damit möglich ist. Sie könnten es möglicherweise erweitern damit es mehrere Zwischenbilder generieren kann, auf Kosten der Eingabelatenz natürlich.
FG kostet momentan mMn zu viel. Bei FSR3 ist das erste Indiz 0.7ms und nicht 3-5ms. Die Frage bei DLSS3 ist: Was kommt wirklich durch die Zwischenbildberechnung und was ist vom Frame Pacing?
aufkrawall
2023-06-12, 20:42:35
Ganz ehrlich. Welcher E-Sportler spielt in 800x600? Je höher die Auflösung, desto einfacher lassen sich Gegner ausmachen
Hyperbel sagt dir was?
Lag bleibt bei nativen 300 FPS mit FG UP auf 500 FPS, um seinen 1080p 500HZ Monitor auszureizen, absolut gleich, oder so gering, dass es völlig wumpe ist, es sei denn du bist einer der angeblich 1ms - 5ms Unterschied spüren kann.
FG erhöht IMMER den Lag, und der einzige Zweck für ultrahohe Frameraten, sogar über der Refreshrate des Monitors ist den Lag zu reduzieren.
Ganz ehrlich. Welcher E-Sportler spielt in 800x600? Je höher die Auflösung, desto einfacher lassen sich Gegner ausmachen
Hängt wohl vom Spiel ab, aber einige spielen tatsächlich Counterstrike in 4:3-Auflösungen auf 16:9 Monitoren, da damit die (sichtbare) Hitbox gestreckt und damit auf dem Monitor größer wird. Praktisch das gesamte Aim findet ja auf der horizontalen statt, da man schon vorher weiß wo in welcher Höhe sich die Head-Hitbox befindet.
The_Invisible
2023-06-12, 22:43:49
Mit dieser Generation wird zumindest DLSS3 aber wohl nicht schneller werden. Es braucht selbst pro generiertes Bild einige Millisekunden. Und diese Zeit markiert ein recht hartes Maximum was damit möglich ist. Sie könnten es möglicherweise erweitern damit es mehrere Zwischenbilder generieren kann, auf Kosten der Eingabelatenz natürlich.
Wobei irgendwie noch immer nicht geklärt ist ob hier die dickeren Ada Chips eine schnellere Optical Flow Einheit haben oder alle Ada Chips die gleiche. Laut Raff gabs da ja selbst bei Nachfrage bei Nvidia keine Antwort.
Exxtreme
2023-06-12, 22:51:05
FG kostet momentan mMn zu viel. Bei FSR3 ist das erste Indiz 0.7ms und nicht 3-5ms. Die Frage bei DLSS3 ist: Was kommt wirklich durch die Zwischenbildberechnung und was ist vom Frame Pacing?
Ob DLSS3 zu viel kostet, keine Ahnung. Es ist halt so, dass es in sehr CPU-limitierten Spielen trotzdem helfen kann, ohne den Lag nennenswert zu erhöhen. Und wenn das mit 0,7ms bei FSR3 stimmt dann wäre das nice. Die Frage ist wiederum wie gut FSR3 aussieht. Es wird wahrscheinlich viel simpler sein als DLSS3. Andererseits kann es auch sein, dass DLSS3 viel komplexer ist als es eigentlich sein müsste.
The_Invisible
2023-06-13, 11:12:50
Finds ja witzig das FSR3 schon "gelobt" wird bevor es überhaupt released wurde bzw. nur ein paar Folien davon gibt. Ich tippe eher wieder wie bei FSR2: Nicht schlechtes Gesamtpaket aber nicht besser als DLSS2. Auch Intel ist auf den KI Zug aufgesprungen, das wird schon seine Gründe haben.
Exxtreme
2023-06-13, 11:41:27
Auch Intel ist auf den KI Zug aufgesprungen, das wird schon seine Gründe haben.
Naja, oft ist das so, dass man mit so Sachen wie KI ein tolle Lösung hat, für die noch ein passendes Problem gefunden werden muss. :D Und da kann es schon sein, dass man Dinge wie Upscaler und FG so konstruiert, dass die verbauten KI-Einheiten auch mal was tun dürfen. Ansonsten hätte man dark silicon verbaut. Und da bleibt auch noch die Frage wie schnell das Intel-FG so wird. Wenn das auch ~5 ms braucht dann skaliert das bis 200 fps recht gut und ab da nimmt der Nutzen immer weiter ab.
Ex3cut3r
2023-06-13, 13:00:27
Ich habe letzens Callisto Protocol durchgezockt (Ein Video gibts auf meinen YouTube Channel) das Spiel bietet nur FSR 2.1 und eben TAAU (UE4 Temproal Upsampler) an. Ich habe lieber das TAAU als FSR 2.1 Q genutzt. FSR taugt in 8 von 10 Spielen einfach mal gar nicht. Miserable Qualität gerade auch wenn man DLSS 3.1.11 mit Preset F gewöhnt ist.
Von FSR 3.0 bzw. AMDs FG erwarte ich deshalb auch nichts gutes. Wird genau so eine miserable Qualität wie FSR 2.0 haben. Das ist eigentlich jetzt schon sicher.
Lurtz
2023-06-13, 20:36:22
Frame Generation ist bisher bestenfalls eine Beta, kann das sein?
CP 2077: Funktioniert technisch abseits der bekannten Probleme gut, allerdings ist da der Eindruck bei maximal ~50 base fps wie aufkrawall das schon mal beschrieben hat - die Flüssigkeit des Bildes passt nicht zu dem Gefühl, den man am Mauszeiger hat. In der 1st Person fällt das sehr auf. Da merkt man auch sehr deutlich, wie die Latenz mit FG ansteigt. Crasht ab und zu mal.
Witcher 3: Crasht permanent, völlig unbrauchbar mit Patch 4.03. Wenn es läuft bringt es aber enorm viel im CPU-Limit ohne ein so starkes Gefühl, dass was falsch wäre.
Flight Simulator: Komplett kaputte Frametimes, fühlt sich furchtbar an.
Spider-Man: Super Implementierung, kein Wunder dass das die Referenz-Implementierung war.
Forza Horizon 5: Scheint gut zu laufen, bringt aber auch relativ wenig, weil nicht so CPU-fordernd.
Ist jetzt natürlich eine sehr kleine Stichprobe (wobei die Verbreitung eh noch nicht so groß ist), aber vor allem aufgrund der Crashes und teils völlig wild fluktuierenden Frametimes fühlt sich das nicht wie ein finales Produkt an, deutlich weniger als beim DLL-Gefrickel von DLSS Super Resolution.
Mit RTX 5000 gibts dann wahrscheinlich die fertige Version, die wieder nicht auf Ada läuft :uup:
Troyan
2023-06-13, 20:39:02
Naja, Spielegrafik ist voller Fehler. Wenn für dich das Beta ist, entdecke nie die tolle Welt von FSR.
Ich finde die Nachteile sind akzeptabel und es sind weniger Bildfehler als mit Upscaling.
Lurtz
2023-06-13, 20:44:16
Die Bildqualität finde ich gut, darüber habe ich mich ja auch nicht beklagt :uponder: Crashes und kaputte Frametimes sind natürlich "ungünstig".
Gibts Spiele mit DLSS3, die Demos anbieten?
Troyan
2023-06-13, 20:45:04
Hast du AMD Prozessor? Ich hatte auf Intel keine Abstürze und keine kaputten Frametimes.
Lurtz
2023-06-13, 20:46:45
Ne, i5 12500.
Gibts Spiele mit DLSS3, die Demos anbieten?
Ex3cut3r
2023-06-13, 21:02:26
Ne, i5 12500.
Gibts Spiele mit DLSS3, die Demos anbieten?
Unrunde Framtimes mit DLSS 3 sind eigentlich bisher nur auf Ryzen Prozessoren aufgetreten.
Hast du mal einen Screenshot oder Video?
Lurtz
2023-06-13, 21:52:31
https://abload.de/thumb/microsoftflightsimulaijcyj.jpg (https://abload.de/image.php?img=microsoftflightsimulaijcyj.jpg)
dildo4u
2023-06-14, 12:07:17
Interessant also kein Bug in D4.
"Negative scaling may occur when the generated frame time is higher than the input/rendered frame time. This can occur on GPUs with fewer Tensor Cores that are run at high resolutions. We recommend gamers use GeForce Experience's Optimal Settings to avoid hitting these corner cases."
https://www.pcgameshardware.de/Diablo-4-Spiel-55956/Specials/Diablo-4-Benchmarks-Tuning-Tipps-Technical-Review-1421206/
Deisi
2023-06-14, 13:34:24
Ne, i5 12500.
Gibts Spiele mit DLSS3, die Demos anbieten?
Portal müsstest du bestimmt haben.
Ex3cut3r
2023-06-14, 13:46:56
https://abload.de/thumb/microsoftflightsimulaijcyj.jpg (https://abload.de/image.php?img=microsoftflightsimulaijcyj.jpg)
Soll das Grüner Regen sein? Wieso ist das Haus in der Mitte gelb? Ist das richtig so?
Hast du Mods installiert? Ohne FG ist der Frametime Graph richtig smooth?
redpanther
2023-06-14, 13:52:41
Der Grüne "Regen" dürften die Luftströmungen sein die man optional einblenden kann. Wozu er die braucht, keine Ahnung.
Aber warum zeigt das OSD da eine RTX 4070 UND 3070 an? Beide gleichzeitig eingebaut?
Ex3cut3r
2023-06-14, 14:01:44
Ah ok. Danke kenne das Spiel nicht.
Ne, wird wohl den Afterburner noch nicht angepasst haben mit den Namen.
Er hatte nämlich früher eine 3070.
Lurtz
2023-06-14, 14:46:17
Ja, hatte eine Bezeichnung im OSD vergessen. Die Luftströmungen habe ich nicht angemacht, keine Ahnung woher die kommen :ugly: Hab das Spiel bisher nur als Techdemo benutzt, weil bei Steam mit Preisfehler bekommen :D
Ohne FG hänge ich halt im CPU-Limit, aber der Frametime-Graph ist nicht so kaputt.
Lehdro
2023-06-14, 15:45:17
FG in Darktide funktioniert recht gut, aber ich würde es nur auf einem 240 Hz Monitor empfehlen, da man zwangsläufig bei weit über 100 Basis fps für ein gutes Spielgefühl starten sollte. Ansonsten spielt man lieber ohne FG aber mit Reflex.
Troyan
2023-06-14, 16:06:45
Du schaffst keine 100 FPS in Darktide, wenn die Horde kommt...
Lehdro
2023-06-15, 16:13:37
Du schaffst keine 100 FPS in Darktide, wenn die Horde kommt...
Natürlich nicht, aber das ist ein CPU Limit was du eh nicht beheben kannst, dafür musst du schon Richtung MTL/Zen5 schielen.
blaidd
2023-06-15, 17:59:17
FG in Darktide funktioniert recht gut, aber ich würde es nur auf einem 240 Hz Monitor empfehlen, da man zwangsläufig bei weit über 100 Basis fps für ein gutes Spielgefühl starten sollte. Ansonsten spielt man lieber ohne FG aber mit Reflex.
Ja, da sieht es auch ziemlich sauber aus. Selbst sowas wie HUD-Elemente haben schon von Beginn an praktisch keine Artefakte gezeigt.
Die oft ziemlich düstere Optik hilft eventuell auch, da ein wenig zu kaschieren, aber generell macht die FG da eine gute Figur (soweit ich es in Tests/bei Benchmarks beobachten konnt, stundenlang mit FG gespielt und gesucht habe ich bislang nicht).
Sonyfreak
2023-06-20, 13:14:03
Witcher 3: Crasht permanent, völlig unbrauchbar mit Patch 4.03. Wenn es läuft bringt es aber enorm viel im CPU-Limit ohne ein so starkes Gefühl, dass was falsch wäre.Ich habe am Wochenende zwei Stunden Witcher 3 mit FG und ohne Crash gespielt. Bin mir daher nicht sicher, ob das ein generelles Problem ist. :uponder:
mfg.
Sonyfreak
Lurtz
2023-06-20, 17:59:39
Tja, keine Ahnung woran es liegen kann. Ich habe schon alles mögliche versucht. Nutzt du einen aktuellen oder älteren Treiber?
BlacKi
2023-06-21, 22:11:24
Und das soll was bringen? Preset F wurde erst mit 2.5.1 eingeführt.was haben die presets damit zu tun?
2.5 ist halbwegs akzeptabel, bf2042 hatte jahrelang eine dll version die vor der ersten beta entwickelt wurde. deshalb war die einfach scheife.
Jupiter
2023-06-21, 22:15:18
What’s Up With The Missing NVIDIA DLSS Support In AMD Sponsored FSR Titles?
https://wccftech.com/whats-up-with-the-missing-nvidia-dlss-support-in-amd-sponsored-fsr-titles/
So it looks like NVIDIA cannot do much in this situation since certain sponsorships or deals can restrict developers and publishers from actively participating and integrating another competitor's tech within their games. But it gives gamers a very clear message that NVIDIA-sponsored titles are friendlier and open to competitors than AMD.
Das fiel mir auch vor einigen Monaten auf.
DF sagte im letzten DF Direct-Video auch das FSR bei Bewegung in mittleren bis niedrigen Auflösung hässlich aussieht.
Es scheint etwas mehr Input zu brauchen, um nicht-bröselige Bilder auszugeben, yep. Das heißt auch: In UHD sind eigentlich alle hübsch, wenn's nicht gerade schliert.
MfG
Raff
Ex3cut3r
2023-06-22, 13:10:35
What’s Up With The Missing NVIDIA DLSS Support In AMD Sponsored FSR Titles?
https://wccftech.com/whats-up-with-the-missing-nvidia-dlss-support-in-amd-sponsored-fsr-titles/
Das fiel mir auch vor einigen Monaten auf.
DF sagte im letzten DF Direct-Video auch das FSR bei Bewegung in mittleren bis niedrigen Auflösung hässlich aussieht.
Unglaublich, aber laut den AMD Experten hier im Forum, war das ja nie der Fall. Fiel mir auch letztens auf. Das AMD gesponserte Spiele, niemals DLSS 2 oder 3 bekommen. Während Nvidia gesponserte Spiele entweder zum Launch bereits FSR drin haben, oder aber es wird nachgepatcht mit der Zeit. So viel dazu. AMD der Samariter, am Arsch.
was haben die presets damit zu tun?
2.5 ist halbwegs akzeptabel, bf2042 hatte jahrelang eine dll version die vor der ersten beta entwickelt wurde. deshalb war die einfach scheife.
Wenn die 2.5.0 DLL das Preset C oder D nutzt, dann ist gar kein Unterschied zur 2.2.1 drin, die BF 2042 die ganze Zeit lang genutzt hat. :freak:
Ohne DLSS Tools, kann ich aber nicht nachsehen, welches Preset genau genutzt wird. Gebannt werden, will ich nicht.
aufkrawall
2023-06-22, 13:31:47
Afaik gab es in keinem Spiel mit irgendeiner DLL vor 2.3.9 Preset C.
Wenn die 2.5.0 aber etwa Preset A verwendet, ist das natürlich meh.
Bez. der "AMD-Spiele" & DLSS: Es ist ja auch nicht bewiesen. Aber spätestens seit dieser Rumdrucks-Aussage von AMD stinkt es. Was zu 100% feststeht, ist, dass AMD sich wieder unnötig mit Anlauf selbst in einen Hundehaufen geworfen hat.
Jetzt wär dann vermutlich doch ein guter Zeitpunkt für sie, StreamLine zu unterstützen. Das hängt ihnen sonst ewig nach, aber doof genug wären sie wohl dafür auch...
Winter[Raven]
2023-06-22, 14:07:35
What’s Up With The Missing NVIDIA DLSS Support In AMD Sponsored FSR Titles?
https://wccftech.com/whats-up-with-the-missing-nvidia-dlss-support-in-amd-sponsored-fsr-titles/
Das fiel mir auch vor einigen Monaten auf.
DF sagte im letzten DF Direct-Video auch das FSR bei Bewegung in mittleren bis niedrigen Auflösung hässlich aussieht.
Man muss sich ja nur das Statement von AMD anschauen und was sich das Unternehmen einbildet für MICH zu entscheiden, was für mich gut und schlecht ist.
Linmoum
2023-06-22, 14:24:07
Das ist bei gesponsorten Titeln von AMD tatsächlich irgendwie auffällig.
Ich verstehe es aber auch nicht, genauso wenig wie dieses "FSR2 reicht doch, läuft ja mit allen Herstellern"-Argument mancher Leute. Ich will Qualität und nicht Quantität und der Markt an dGPUs besteht halt zu >80% aus Nvidia.
Die Integration von DLSS aus irgendwelchen absurden Gründen zu unterbinden ist einfach nur kundenfeindlich.
Und ja, es gibt auch Titel, in denen FSR2 nicht implementiert wird und nur DLSS verfügbar ist, bevor hier wieder jemand mit diesem Whataboutism anfangen will. Es geht aber weniger darum, ob das der Fall ist, sondern in welcher Häufig- bzw. Auffälligkeit.
DrFreaK666
2023-06-22, 15:02:22
Es gibt aber auch Spiele mit DLSS, aber ohne FSR. Das ist kein Whataboutism, da wir im DLSS-Thread sind :D
Am besten wäre eine Upscaling-Variante, die auch noch die beste BQ und Performance bietet.
aufkrawall
2023-06-22, 15:19:37
Es gibt aber auch Spiele mit DLSS, aber ohne FSR.
Es gibt fast kein aktuelleres Spiel, das DLSS via StreamLine integriert und nicht mindestens zusätzlich entweder noch XeSS, FSR 2 oder beides dabei hätte.
Also doch Whataboutism.
DrFreaK666
2023-06-22, 15:22:18
A Plague Tale 2. Achso, das ist ja uralt. Mein Fehler
aufkrawall
2023-06-22, 15:28:27
Respekt, an einem Einzelfall ein Muster zu erkennen...
Exxtreme
2023-06-22, 15:33:33
Es gibt aber auch Spiele mit DLSS, aber ohne FSR. Das ist kein Whataboutism, da wir im DLSS-Thread sind :D
Am besten wäre eine Upscaling-Variante, die auch noch die beste BQ und Performance bietet.
Es geht um gesponsorte Spiele. Und ja, das ist schon auffällig, dass AMD-gesponsorte Spiele öfter kein Dlss oder Xess können. Umgekehrt ist das nicht so. Dass aber AMD der Grund ist, ist wiederum pure Spekulation.
Platos
2023-06-22, 15:50:50
Mal ne Frage bezüglich DLSS und "speziellere" Auflösungen:
Wenn man einen Monitor mit 5k oder 6k hat (ja die gibts), funktioniert DLSS dann genau so gut ? Also meine Frage: Hat die native Auflösung des Monitors (bei "speziellen" Auflösungen) einen negativen Einfluss?
Also früher war das doch mal so, dass nur bestimmte Output-Auflösungen unterstützt wurden oder nicht?
Ex3cut3r
2023-06-22, 16:02:40
Respekt, an einem Einzelfall ein Muster zu erkennen...
Du musst verstehen, dass er so der größte AMD Fanboy im Forum ist. AMD böse? Das kann gar nicht sein !!!!1einself. :rolleyes:
Mal ne Frage bezüglich DLSS und "speziellere" Auflösungen:
Wenn man einen Monitor mit 5k oder 6k hat (ja die gibts), funktioniert DLSS dann genau so gut ? Also meine Frage: Hat die native Auflösung des Monitors (bei "speziellen" Auflösungen) einen negativen Einfluss?
Also früher war das doch mal so, dass nur bestimmte Output-Auflösungen unterstützt wurden oder nicht?
Natürlich um so höher die native Auflösung, umso besser das Output Ergebnis.
Platos
2023-06-22, 16:17:55
Natürlich um so höher die native Auflösung, umso besser das Output Ergebnis.
So meinte ich das nicht. Ich meinte, ob die Input-Render Auflösung steigt, wenn ich DLSS Quality unter 5k nehme, oder ob einfach z.B die von DLSS 4k Quality genutzt wird und somit 5k nur noch durch die Outputresolution unterschieden wird. Beispielsweise ist die Inputresolution bei DLSS Quality bei 1080p (output) nicht die selbe, wie bei 4k output.
Also ob es nur bestimmte Renderauflösungen gibt oder ob das automatisch auf jede beliebige Outputauflösung angepasst wird (mittels Faktor).
Geldmann3
2023-06-22, 16:40:10
So meinte ich das nicht. Ich meinte, ob die Input-Render Auflösung steigt, wenn ich DLSS Quality unter 5k nehme, oder ob einfach z.B die von DLSS 4k Quality genutzt wird und somit 5k nur noch durch die Outputresolution unterschieden wird. Beispielsweise ist die Inputresolution bei DLSS Quality bei 1080p (output) nicht die selbe, wie bei 4k output.
Also ob es nur bestimmte Renderauflösungen gibt oder ob das automatisch auf jede beliebige Outputauflösung angepasst wird (mittels Faktor).
Die Renderauflösung wird mittels Faktor bestimmt (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/).
Thunder99
2023-06-22, 18:26:11
Unglaublich, aber laut den AMD Experten hier im Forum, war das ja nie der Fall. Fiel mir auch letztens auf. Das AMD gesponserte Spiele, niemals DLSS 2 oder 3 bekommen. Während Nvidia gesponserte Spiele entweder zum Launch bereits FSR drin haben, oder aber es wird nachgepatcht mit der Zeit. So viel dazu. AMD der Samariter, am Arsch.
Wenn die 2.5.0 DLL das Preset C oder D nutzt, dann ist gar kein Unterschied zur 2.2.1 drin, die BF 2042 die ganze Zeit lang genutzt hat. :freak:
Ohne DLSS Tools, kann ich aber nicht nachsehen, welches Preset genau genutzt wird. Gebannt werden, will ich nicht.
Wenn aber das Spiel DLSS 2.x hat aber nur FSR 1.0 ist dann Nvidia im Vorteil und der Kunde im Nachteil. Bei FSR 2.x only Spiele können es zumindest beide oder alle 3 das Nutzen bzw deren Kunden.
Kostet nicht DLSS Lizenzgebühren? :confused:
Ex3cut3r
2023-06-22, 18:43:36
Auch wenn es was kostet. Hindert AMD laut wccftech vertraglich DLSS und/oder XeSS zu unterstützen. Das ist momentan der Unterschied. Es gibt Spiele die haben beides oder alle 3 (mit XeSS), aber es gibt nie Spiele die von AMD gesponsert sind, und DLSS und/oder XeSS bekommen/bekommen werden.
Und das ist einfach Anti Consumer. Weil ich z.B. mit FSR nicht viel anfangen kann. Ich bevorzuge sogar Epics Lösung wie TAAU und TSR als FSR 2.0+
Vermutlich ist Nvidia diesmal "offener" weil DLSS auch überlegen ist, und im Direkt Vergleich bei den gängigen Fachleuten wie z.B. PCGH, DF und Co. immer besser wegkommt. AMD dagegen will natürlich diesen Direktvergleich im gleichen Spiel nicht, und pocht deshalb so darauf.
Sehr kindliche Einstellung von AMD. Einfach mal an sich selbst arbeiten und den Arsch hochkriegen? Ne, das ist natürlich zu schwer.
Thunder99
2023-06-22, 18:45:51
Ok, danke für die Klarstellung. Das hat echt einen faden Beigeschmack...
aufkrawall
2023-06-22, 18:47:04
aber es gibt nie Spiele die von AMD gesponsert sind, und DLSS und/oder XeSS bekommen/bekommen werden.
Ist nicht korrekt, die Sony-Spiele für AMD-Bundles haben auch DLSS.
Lurtz
2023-06-22, 18:47:53
Wo bleibt eigentlich das ominöse neue Preset?
Es geht um gesponsorte Spiele. Und ja, das ist schon auffällig, dass AMD-gesponsorte Spiele öfter kein Dlss oder Xess können. Umgekehrt ist das nicht so. Dass aber AMD der Grund ist, ist wiederum pure Spekulation.
Warum sagen sie es dann nicht einfach, so wie nVidia das getan hat? Bei der Quote mittlerweile kann man schon davon ausgehen, dass da was im Busch ist. Zumindest wenn der Entwickler/Publisher wie offenbar im Fall von Sony nicht auf DLSS besteht.
Und ja, es ist absolut ekelhaft kundenfeindliches Verhalten. Erst nicht liefern und dann die überlegene Technologie des Mitbewerbers per Vertrag raushalten. Good guy AMD.
Ex3cut3r
2023-06-22, 18:47:54
Ist nicht korrekt, die Sony-Spiele für AMD-Bundles haben auch DLSS.
Die sind aber doch nicht AMD gesponsert? Ein Bundle ist nicht gesponsert mit AMD Tech ingame. Da wurde einfach nur die Genehmigung gekauft, das Spiel mit AMD HW zu bundeln IHMO.
aufkrawall
2023-06-22, 18:58:28
Wo bleibt eigentlich das ominöse neue Preset?
Wenn das so läuft wie mit Preset E, kommt das nie, weil es laut der DLSS-Dokumentation fehlgeschlagen ist. War ziemlich unseriös, dass manche Seiten da eine News draus gebastelt haben.
Preset F DLAA ist eigentlich auch ein Witz, wenn man das mit TSR Epic 100% in Fortnite vergleicht. Ist zwar deutlich teurer, aber die Mischung aus Schärfe und Stabilität ist meilenweit voraus.
Die sind aber doch nicht AMD gesponsert? Ein Bundle ist nicht gesponsert mit AMD Tech ingame. Da wurde einfach nur die Genehmigung gekauft, das Spiel mit AMD HW zu bundeln IHMO.
Also nach Werbung in den Intro-Videos gehen? So richtig durchblicken kann man das imho nicht.
Lurtz
2023-06-22, 19:02:18
Blöde Frage, aber was bringt TSR eigentlich genau, wenn es so viel Leistung kostet? Und wie skaliert das? Hat das sowohl eine Input-Auflösung (50? bis 100%) als auch eine Qualitätsstufe (Low bis Epic)?
Oder ist TSR Epic 100% dann eher mit DLAA zu vergleichen?
Exxtreme
2023-06-22, 19:19:56
Auch wenn es was kostet. Hindert AMD laut wccftech vertraglich DLSS und/oder XeSS zu unterstützen.
Wccftech spekuliert auch bloß rum.
"This is something to be concerned about since these are major AMD-sponsored titles and game developers might have been asked to keep upscaling technology exclusivity to the Radeon camp since there's no reason to not have DLSS or XeSS support within these titles. "
Das gibt dieser Satz nicht her, dass AMD die Unterstützung für andere Upscaler vertraglich blockt oder anders behindert.
Warum sagen sie es dann nicht einfach, so wie nVidia das getan hat? Bei der Quote mittlerweile kann man schon davon ausgehen, dass da was im Busch ist. Zumindest wenn der Entwickler/Publisher wie offenbar im Fall von Sony nicht auf DLSS besteht.
Und ja, es ist absolut ekelhaft kundenfeindliches Verhalten. Erst nicht liefern und dann die überlegene Technologie des Mitbewerbers per Vertrag raushalten. Good guy AMD.
Ja keine Ahnung warum AMD mit so einer PR-Nichtsaussage daherkommt. Aber solange sich keine Spielefirmen zum Thema äussern, ist das Spekulation. Es gibt auch andere mögliche Gründe warum man lieber FSR2 anstatt DLSS nutzt.
aufkrawall
2023-06-22, 19:25:04
Oder ist TSR Epic 100% dann eher mit DLAA zu vergleichen?
Ja, man kann Auflösung und TSR-Qualität getrennt einstellen. TSR Epic hat auf einmal eine wahnsinnig hohe Bewegtbildschärfe und -stabilität und bei 100% Auflösung auch fast keine Probleme mit Disocclusion etc. Unterm Strich mit Abstand am nächsten an 8xSGSSAA dran. Zeigt vermutlich, wie unglaublich viel Potenzial in temporalen Verfahren noch liegt und in Zukunft nutzbar sein wird (durch mehr Forschung und mehr Rechenleistung).
The_Invisible
2023-06-22, 19:27:25
Gibts eigentlich schon Games die die OTA-Update Funktionalität von DLSS nutzen?
aufkrawall
2023-06-22, 19:28:38
Gibts eigentlich schon Games die die OTA-Update Funktionalität von DLSS nutzen?
Ist die Frage, was man sich davon erhofft, außer, dass ein bestimmtes Preset gewählt wird o.ä.
Ex3cut3r
2023-06-22, 19:44:35
Also nach Werbung in den Intro-Videos gehen? So richtig durchblicken kann man das imho nicht.
Ja, geht mir genau so. Jetzt ist mir auch gerade in diesen Moment eingefallen. Das ForSpoken, das hier: https://store.steampowered.com/app/1680880/Forspoken/
Eigentlich auch ein AMD gesponsertes Spiel ist, hat sogar zahlreiche "FidelityFX Optionen" IMHO (habs nie gekauft) aber auch DLSS ist drin. :freak:
Also so richtig schlau wird man wirklich nicht draus.
Achill
2023-06-22, 20:01:10
Wccftech spekuliert auch bloß rum.
"This is something to be concerned about since these are major AMD-sponsored titles and game developers might have been asked to keep upscaling technology exclusivity to the Radeon camp since there's no reason to not have DLSS or XeSS support within these titles. "
Das gibt dieser Satz nicht her, dass AMD die Unterstützung für andere Upscaler vertraglich blockt oder anders behindert.
[..]
THIS!!!
Ich empfehle das (Hör)Buch .. wer es nicht aushält, ab 2:20 geht es passend los.
u_RvPgoiB_U
Jupiter
2023-06-22, 20:29:47
Wenn ich höre das ein Computerspiel AMD gesponsort ist, weckt das sofort negative Assoziationen. Die PC-Version bleibt bewusst unter seinen Möglichkeiten. Der Eindruck kommt nicht von ungefähr. Das letzte mir bekannte Spiel wo etwas positives mit einer AMD-Kooperation hervorkam war Alien: Isolation mit AMDs HDAO und Kontaktschatten.
DrFreaK666
2023-06-22, 20:42:47
Respekt, an einem Einzelfall ein Muster zu erkennen...
Sagte ich, dass es die Regel ist?
Du solltest aufhören zwischen den Zeilen zu lesen, denn das liegt dir nicht.
aufkrawall
2023-06-22, 20:45:47
Du solltest den Mund mit deiner Kontext-Dyslexie besser nicht voll nehmen. Es wurde der wccftech-Artikel verlinkt, in dem es um ein Muster ging...
DrFreaK666
2023-06-22, 20:49:18
Und jetzt? Hab ich die Seite verlinkt und mich darauf bezogen?
Du hast mich netterweise auch nicht komplett zitiert, denn der Emoji zeigt, dass das nicht ernst gemeint war.
AMDs Antwort auf die Vorwürfe, das sie exklusivität versuchen zu forcieren: "Gibt ja auch DLSS only Titel".
Nvidias Antwort: "wir blocken gar nichts, nicht im ineteresse von gamern"
das sagt ja auch schon einiges. AMD hätte ganz klar sagen können, nein machen wir nicht... haben sie aber nicht
aufkrawall
2023-06-22, 20:55:47
Maxime der Relation / Relevanz (Maxim of Relevance)
Sage nichts, was nicht zum Thema gehört, wechsle nicht das Thema.[1]
Beachte den Gesprächskontext vorangegangener Kommunikation und das Vorwissen deines Kommunikationspartners.
https://de.wikipedia.org/wiki/Konversationsmaximen
Deine Posts sind einfach nur kommunikative Unfälle...
DrFreaK666
2023-06-22, 21:05:25
Habs verstanden: du verstehst keinen Spaß und unvollständig zitieren ist total in Ordnung.
Ja, man kann Auflösung und TSR-Qualität getrennt einstellen. TSR Epic hat auf einmal eine wahnsinnig hohe Bewegtbildschärfe und -stabilität und bei 100% Auflösung auch fast keine Probleme mit Disocclusion etc. Unterm Strich mit Abstand am nächsten an 8xSGSSAA dran. Zeigt vermutlich, wie unglaublich viel Potenzial in temporalen Verfahren noch liegt und in Zukunft nutzbar sein wird (durch mehr Forschung und mehr Rechenleistung).
TSR ist ganz gut, aber ich finde DLSS besser.
Gerade bei der neuen MAWI Regenwald Techdemo sieht das in Bewegung ziemlich seltsam aus. Ziemlich viel Ghosting und das Bild wirkt irgendwie wie von Videokompressionsartefakten übersäht. Selbst bei TSR Ultra Quality fällt das auf.
Sieht zwar besser aus als FSR und bröselt nicht, aber auch bei FSR habe ich in manchen Spielen diesen "komprimierten" look gesehen. Da dieser so großflächig sichtbar ist sticht mir das deutlich mehr ins Auge, als die Artefakte von DLSS.
Bei DLSS ist mir das so noch nicht aufgefallen.
Und zudem ist es wie du schon sagtest sehr teuer. In Layers of Fear ist DLSS Q laut PCGH 32% schneller als TSR Q. Sogar 60% schneller als TSR nativ. Das ist ordentlich Holz.
Ich habs auch in der Experimental von Satisfactory getestet. Da ist TSR Quality auf meiner 4080 teurer als TAA Nativ. Gut, es sieht auch irgendwie besser aus, holt mehr Details raus, aber wenn ich dann auf balanced oder performance runter schalte, dann sieht es direkt wieder kacke aus, obwohl ich erst da den Performanceboost bekomme, den ich normalerweise von DLSS erwarte. Und da sieht DLSS wiederum besser aus..
Lurtz
2023-06-22, 23:19:14
THIS!!!
Ich empfehle das (Hör)Buch .. wer es nicht aushält, ab 2:20 geht es passend los.
https://youtu.be/u_RvPgoiB_U
Es ist eine Verschwörungstheorie zu sagen, AMD hat die Frage nicht beantwortet, sondern nur drumrum geredet, während nVidia eindeutig dementiert hat?
Habs verstanden: du verstehst keinen Spaß und unvollständig zitieren ist total in Ordnung.
Du tust nicht nur so, du verstehst es echt nicht, oder?
Ja keine Ahnung warum AMD mit so einer PR-Nichtsaussage daherkommt. Aber solange sich keine Spielefirmen zum Thema äussern, ist das Spekulation. Es gibt auch andere mögliche Gründe warum man lieber FSR2 anstatt DLSS nutzt.
Ich wüsste keine Spielefirma, die über sowas spricht. Welche Gründe sollte es geben, reihenweise nur FSR2 anzubieten? Selbst in UE4-Spielen.
aufkrawall
2023-06-22, 23:49:31
Gerade bei der neuen MAWI Regenwald Techdemo sieht das in Bewegung ziemlich seltsam aus. Ziemlich viel Ghosting und das Bild wirkt irgendwie wie von Videokompressionsartefakten übersäht. Selbst bei TSR Ultra Quality fällt das auf.
Klingt nach Postprocessing-Hölle, auf solche und ähnliche Effekte kommt DLSS ja meist mit Abstand am besten klar. Wobei DLSS auch die Virtual Shadow Maps immer noch wesentlich besser glättet, mit TSR muss man dafür mit der Auflösung hoch.
Vermutlich könnte man TSR noch etwas auf die Sprünge helfen, wenn man die ganzen Blur-Effekte in diesen seltsamen Demos via Config abschaltet.
Platos
2023-06-23, 00:52:53
Die Renderauflösung wird mittels Faktor bestimmt (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/).
Thx, dann passt das ja.
DrFreaK666
2023-06-23, 01:02:59
... Du tust nicht nur so, du verstehst es echt nicht, oder?...
Wenn man in Rätseln spricht, dann sicherlich nicht
Ja keine Ahnung warum AMD mit so einer PR-Nichtsaussage daherkommt. Aber solange sich keine Spielefirmen zum Thema äussern, ist das Spekulation.
Die werden sich nicht äußern, weil es doch ziemlich üblich ist, dass man über Vertragsinhalte nicht öffentlich plaudern darf.
dargo
2023-06-23, 08:37:31
Wenn ich höre das ein Computerspiel AMD gesponsort ist, weckt das sofort negative Assoziationen.
Mir gehts genau so bei von Nvidia gesponserten Spielen. :lol:
Exxtreme
2023-06-23, 08:38:16
Die werden sich nicht äußern, weil es doch ziemlich üblich ist, dass man über Vertragsinhalte nicht öffentlich plaudern darf.
Bei sowas kann man aber mit Leaks rechnen. Nur bisher ist da nichts. Ergo bleibt das Ganze vorerst ein reines Hirngespinst der Wccftech-Autoren.
robbitop
2023-06-23, 08:56:43
Auch wenn es was kostet. Hindert AMD laut wccftech vertraglich DLSS und/oder XeSS zu unterstützen. Das ist momentan der Unterschied.
Wenn es wirklich so ist, ist das wirklich verwerflich.
Aber: das sind schwere Vorwürfe von wccftech. IMO muss man dann auch Beweise liefern. Ansonsten sind es nur Vorwürfe nach Hörensagen gepaart mit Indizien.
robbitop
2023-06-23, 09:19:17
Preset F DLAA ist eigentlich auch ein Witz, wenn man das mit TSR Epic 100% in Fortnite vergleicht. Ist zwar deutlich teurer, aber die Mischung aus Schärfe und Stabilität ist meilenweit voraus.
Finde ich mega interessant! :)
Ich hab da ein paar (vielleicht auch dumme) Fragen:
1. das aktuelle TSR, was du so gut findest gibt es momentan nur in Fortnite zu sehen oder?
2. Wie viel schlechter ist "high" ggü "epic"?
3. Vermutest du, dass TSR auch bei anderem Kontent als Fortnite (ist ja ein bisschen Comicartig) sich auch so gut halten wird?
Mal sehen, wie sich das entwickelt. Wäre ja ggf doch ein Nachweis, dass es auch ohne NN sehr gut gehen kann.
Bei sowas kann man aber mit Leaks rechnen. Nur bisher ist da nichts. Ergo bleibt das Ganze vorerst ein reines Hirngespinst der Wccftech-Autoren.
Da alle die davon wissen können damit sehr schlecht dastehen würden, ist das sehr unwahrscheinlich.
Derartige Leaks gibt es nur wenn eine Partei dadurch in der öffentlichen Meinung profitieren würde.
basix
2023-06-23, 09:40:02
Das TSR in der neuen Mawi Rainforest Demo ist ganz gut. Bis und mit 4K Balanced. Bei Performance fällt es auseinander (Ghosting, Smearing).
aufkrawall
2023-06-23, 09:49:11
1. das aktuelle TSR, was du so gut findest gibt es momentan nur in Fortnite zu sehen oder?
Bei den hohen Performance-Kosten gegenüber DLSS würde ich vermuten, dass es in Layers of Fear ähnlich dem Epic-Preset ist. Sieht ja auch ziemlich scharf aus.
In diesen ganzen Demos mit extrem viel komischem Blur sieht es schlechter aus als in Fortnite.
2. Wie viel schlechter ist "high" ggü "epic"?
Schon einigermaßen signifikant, die Bewegtbildunschärfe nimmt deutlich zu. Bei den Problemfällen wie animierten Texturen ist es allerdings eher wenig schlechter, weshalb niedrigere Auflösung mit Epic für gleiche Performance nicht immer gut aufgeht. Die Unschärfe von High kann manchmal etwas Disocclusion-Aliasing etwas lindern, aber nicht auf DLSS-Niveau (dafür smeart es halt im Vergleich ~nicht).
3. Vermutest du, dass TSR auch bei anderem Kontent als Fortnite (ist ja ein bisschen Comicartig) sich auch so gut halten wird?
Ich denke schon. Hab auch den Eindruck, die temporale Stabilisierung greift mit anderen Effekten ineinander. Wenn man VSM + Lumen abschaltet, sieht man mit TSR in der Geometrie von Bäumen (ist ja mit Nanite auf Entfernung im Vergleich zu Nanite off ziemlich komplex) ziemliche Aliasing- und Disocclusion-Probleme. Sind die besagten Effekte aktiviert, ist das oft kaum noch vorhanden. Würde also davon ausgehen, dass TSR auch mit dem Content von Stalker ziemlich gut aussehen dürfte. Bei Content wie in Matrix Demo oder Spiderman mit vielen Diagonalen dünnen Linien wird DLSS aber imho weiterhin Vorteile haben, falls TSR da nicht auch noch zulegt. basix hatte ja schon mal weitere geplante Performance-Optimierungen für TSR mit 5.3 verlinkt, hoffentlich klappt das (+ weitere Verbesserungen?).
robbitop
2023-06-23, 09:56:26
Klingt nach Postprocessing-Hölle, auf solche und ähnliche Effekte kommt DLSS ja meist mit Abstand am besten klar. Wobei DLSS auch die Virtual Shadow Maps immer noch wesentlich besser glättet, mit TSR muss man dafür mit der Auflösung hoch.
Vermutlich könnte man TSR noch etwas auf die Sprünge helfen, wenn man die ganzen Blur-Effekte in diesen seltsamen Demos via Config abschaltet.
Eigentlich sollten die temporalen updampling Verfahren ja vor dem post processing greifen und das Postprocessing dann mit nativer Auflösung. Zumindest so habe ich das verstanden.
Wenn sich das dann trotzdem in‘s Gehege kommt, wurde die Implementierung ggf nicht nach Vorgabe gemacht?
Exxtreme
2023-06-23, 10:27:43
Da alle die davon wissen können damit sehr schlecht dastehen würden, ist das sehr unwahrscheinlich.
Derartige Leaks gibt es nur wenn eine Partei dadurch in der öffentlichen Meinung profitieren würde.
Bei einem Leak weiss man nicht unbedingt wer die Quelle ist. Damit würde man nicht unbedingt schlechter dastehen.
Wie dem auch sei, bis auf Spekulationen liefert Wccftech überhaupt nichts.
basix
2023-06-23, 10:32:54
Soweit ich weiss, wird bei TSR Epic die History auf 4x Outputresolution gerechnet und dann runterskaliert. Deswegen ist es so teuer.
The resolution multiplier of the history of TSR based off the output resolution. Increasing the resolution adds runtime cost to TSR but allows it to maintain a better sharpness and stability with the details stored in history throughout the reprojection. By default, the value is set to 200 because a particular property relying on the NyQuist-Shannon sampling theorem is used that establishes a sufficient condition for the sample rate of the accumulated details in the history. As a result, only values between 100 and 200 are supported. This value is controlled with the Anti-Aliasing scalability group. Epic and Cinematic quality levels use 200, while all others use 100.
https://docs.unrealengine.com/5.2/en-US/temporal-super-resolution-in-unreal-engine/
Bei einem Leak weiss man nicht unbedingt wer die Quelle ist. Damit würde man nicht unbedingt schlechter dastehen.
Aber wer auch immer leakt, möchte seine eigenen Interessen besser dastehen lassen.
Realistischerweise gibt es aber niemanden mit Einblick in die Verträge, der davon profitieren wüsste wenn die Öffentlichkeit deren Inhalt kennt, ganz im Gegenteil, sowohl für die Softwareentwickler als auch für AMD wäre es negativ wenn die Öffentlichkeit darüber informiert wäre.
Wie dem auch sei, bis auf Spekulationen liefert Wccftech überhaupt nichts.
Richtig, es ist nicht mehr als eine, wenn auch interessante, Beobachtung.
Von Außen kann man eben nur die sichtbaren Tatsachen beobachten, über die Gründe dafür kann man nur spekulieren.
Wobei der größte Hinweis, dass an der Spekulation möglicherweise durchaus was dran ist, die PR-wischiwaschi Antwort von AMD ist.
Da üblicherweise alle beteiligten Vertragsparteien nicht über den Inhalt öffentlich sprechen dürfen, dürfte AMD vermutlich auch gar nicht bestätigen wenn es tatsächlich eine derartige Klausel geben würde.
Über alles was nicht Teil des Vertrages ist darf man aber frei sprechen, und wenn es nichts geben würde, wäre AMD nicht zu so einer verklausulierten Aussage genötigt.
aufkrawall
2023-06-23, 10:55:39
Soweit ich weiss, wird bei TSR Epic die History auf 4x Outputresolution gerechnet und dann runterskaliert. Deswegen ist es so teuer.
Ah, interessant. Dachte, das wäre nur bei Cinematic so. Krass, wie viel das bringt, obwohl gar nicht mehr Informationen für die Interpolation herangezogen werden.
basix
2023-06-23, 11:04:18
Ah, interessant. Dachte, das wäre nur bei Cinematic so. Krass, wie viel das bringt, obwohl gar nicht mehr Informationen für die Interpolation herangezogen werden.
Prinzipiell ist es ähnlich wie DLSS mit 4x DSR. Evtl. etwas intelligenter und qualitativ hochwertiger als einfaches Downsampling, da direkt in den TSR Algorithmus integriert.
Ich finde das eine gute Lösung. DLSS, FSR & Co. wird in nächster Zeit relativ günstig werden, wenn die GPU Leistung noch weiter steigt. Die GPU-Leistung steigt aber die Output-Auflösung nicht (8K ist noch weit weg), deswegen sinken die relativen Kosten an der Frametime. Mit TSR Epic+ gibt es nun einen Weg, die Qualität noch weiter zu steigern, wenn man genug Performance übrig hat. Würde mich nicht wundern, wenn DLSS zukünftig auch sowas anbieten wird.
robbitop
2023-06-23, 11:17:04
Naja DLAA erreicht bereits hörere Qualität als DLSS mit DSR normiert auf die Inputresolution. Entsprechend scheint NV diesen Aspekt bereits optimiert zu haben mit DLAA.
FSR kann man ja auch mit Downsampling kombinieren. Mal sehen wie es dann gegen TSR Epic dasteht. Gibt es überhaupt schon Spiele, die das neue TSR UND FSR 2 unterstützen?
robbitop
2023-06-23, 11:22:43
Ich finde das eine gute Lösung. DLSS, FSR & Co. wird in nächster Zeit relativ günstig werden, wenn die GPU Leistung noch weiter steigt. Die GPU-Leistung steigt aber die Output-Auflösung nicht (8K ist noch weit weg), deswegen sinken die relativen Kosten an der Frametime.
Dafür steigen aber die Kosten pro Pixel. Pathtracing wird nicht billig und generell will man auch immer mehr Details und teurere Effekte.
aufkrawall
2023-06-23, 11:26:17
Prinzipiell ist es ähnlich wie DLSS mit 4x DSR. Evtl. etwas intelligenter und qualitativ hochwertiger als einfaches Downsampling, da direkt in den TSR Algorithmus integriert.
Unterschiede beim Downsampling werden da aber nicht die einzige Erklärung sein, da TSR Epic in Bewegung massiv schärfer ist als DLSS Preset C Performance @4xDSR.
FSR kann man ja auch mit Downsampling kombinieren. Mal sehen wie es dann gegen TSR Epic dasteht.
Mit hoher Wahrscheinlichkeit deutlich schlechter, da TSR Disocclusion, Ghosting und Effekt-Aliasing deutlich besser im Griff hat als FSR.
unl34shed
2023-06-23, 11:30:38
Über alles was nicht Teil des Vertrages ist darf man aber frei sprechen, und wenn es nichts geben würde, wäre AMD nicht zu so einer verklausulierten Aussage genötigt.
Wenn die Aussage von der normalen PR/Marketing Abteilung bei AMD kommt, wird die Person auber auch keine Ahnung haben was in den Verträgen steht.
An AMDs Aussage ist eigentlich nichts verwerflich ist einfach Marketing. Keine Firma wird ihre Technologie als schlecht bezeichnen (ist FSR2 ja auch nicht).
Hier wird irgendwas aus der Luft gegriffen um einen angeblich Skandal zu generieren. Clickbait halt, wie immer bei WTFtech...
Exxtreme
2023-06-23, 11:44:23
Wobei der größte Hinweis, dass an der Spekulation möglicherweise durchaus was dran ist, die PR-wischiwaschi Antwort von AMD ist.
Also ich halte mich bei sowas an Occam's razor.
https://de.wikipedia.org/wiki/Ockhams_Rasiermesser
Für mich sieht das eher so aus als ob AMDs Marketing keinen Plan hatte was die Anfrage überhaupt soll und welchen Kontext sie hat. Und dann gab es halt ein wohlklingende Standardantwort und fertig. Eventuell wird es in den nächsten Tagen eine umfangreichere Antwort geben nachdem die bei AMD gemerkt haben was deren Marketing da angerichtet hat.
Jupiter
2023-06-23, 20:54:19
Mir gehts genau so bei von Nvidia gesponserten Spielen. :lol:
Bei Nvidia gesponserten Spielen gibt es oft einen großen grafischen Unterschied zur Konsolenversion. Bei AMD nicht.
Nvidia-Grafikkarten werden am meisten gekauft und wenn da FSR und dafür kein DLSS bei einem AAA-Spiel unterstützt wird, ist das verdächtig. Etwa 40 % der von Steamnutzern verwendeten Grafikkarten unterstützt DLSS. https://store.steampowered.com/hwsurvey/videocard/
aufkrawall
2023-06-23, 20:57:29
Bei Nvidia gesponserten Spielen gibt es oft einen großen grafischen Unterschied zur Konsolenversion.
Das ist schon länger her.
Bei Nvidia gesponserten Spielen gibt es oft einen großen grafischen Unterschied zur Konsolenversion. Bei AMD nicht.
So isses, wer nicht wagt, der nicht gewinnt. Ohne NVIDIA wäre PC Gaming schon längst erledigt, deren innovative Features machen dieses erst wirklich reizvoll.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.