Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3
Oliver_M.D
2024-07-06, 17:31:36
Preset E ist einfach, das beste. -- YT bevorzugt immer noch C. -- Finde E am besten.Kann sich ja alles noch ändern, oder vielleicht auch nie, aber für mich scheint das Ganze noch ziemlich subjektiv. Der eine mag das lieber, der andere das, ganz simpel.
Und ein blinder Depp wie ich findet F ganz gut, keine Ahnung;D, wie weit 1440p und Quality/Balanced da relevant sind.
robbitop
2024-07-06, 18:04:25
Aber was ist das auch für ein komischer Vergleich, wenn du beim einen zuerst die Qualität "künstlich" heruntersetzen musst in Form von DLSS Perfomance, damit deine Aussage korrekt ist? Wenn dann vergleicht man Nativ+ DLAA vs Nativ+ DLDSR.
Bevor es DLAA gab war DLSS-P mit DSR die günstigste (und eine durchaus praktikable) Möglichkeit das Maximum aus der Input resolution zu tun. Natürlich ginge auch immer mehr. Über mehr Downsampling oder mehr input resolution. Aber das wäre dann viel teurer.
Und bedenke: du setzt die Qualität relativ zur Inputresolution ja nicht runter. Du oversamplest 2x pro Achse. Also zB wenn man einen 1080p Monitor hat, oversimplified man auf 4K mittels DSR. Aber man nutzt DLSS Performance um die Kosten zu senken. Das senkt die Input resolution auf 1080p. Und das ist in dem Fall die native Auflösung. Das ist ein sehr kostengünstiger Weg höhere BQ zu erreichen ohne die input resolution anzuheben. Man bezahlt entsprechend nur das Processing von dlss. Hat aber bessere BQ als nativ. DLAA ist nochmal etwas besser.
Nativ plus DLDSR bzw DSR zu vergleichen kann man machen - kostet dann aber um den Scalingfaktor mehr Performance. Also 2x pro Achse viertelt die Rohleistung der GPU. Und da kein besonders gutes temporales Verfahren zum Einsatz kommt, lost man damit gegen DLSS Per + 2x2 DSR auch ab. Und gegen DLAA sowieso. DLDSR ist nichts als ein besserer Filterkernel für Downsampling. Eine teure, ineffiziente Keule.
DLAA ist besser als DLSS Performance kombiniert mit 2x2 DSR.
Nicht mal ansatzweise, DLSS-P + 2x2SSAA ist qualitativ um ein vielfaches besser.
Was auch vollkommen logisch ist, es sind schließlich 4x so viele Pixel, die vielleicht 10% in der Qualität pro Pixel einbüßen.
Relex
2024-07-06, 21:47:38
Ja, gerade die leichte Kantenunschärfe die ja jedes temporale Verfahren mitbringt kann man durch den zusätzlichen Up und Downsampling Schritt reduzieren, obwohl die Renderauflösung die gleiche ist. DLAA sieht da eindeutig schlechter aus.
Kostet allerdings auch performance. Je nach Spiel mal mehr oder weniger. Und VRAM...
Finde trotzdem, dass es das kaum wert ist. Da nutze ich lieber DLSS Q mit mehr FPS und nehm die bessere Bewegtbildschärfe und Latenz.
The_Invisible
2024-07-06, 21:56:52
Als BQ-Fetischist ist es schon geil DLDSR+DLSS zu haben, selbst in 4k wenn man mit weniger fps leben kann. StarCitizen sieht so zb wie geleckt aus, wobei dort aber eh sowieso ein CPU Limit herrscht.
Deswegen umso ärgerlicher wenn zb durch DSC kein DSR geht...
robbitop
2024-07-07, 07:32:23
Nicht mal ansatzweise, DLSS-P + 2x2SSAA ist qualitativ um ein vielfaches besser.
Was auch vollkommen logisch ist, es sind schließlich 4x so viele Pixel, die vielleicht 10% in der Qualität pro Pixel einbüßen.
Die Inputresolution ist in beiden Fällen die gleiche. Die Anzahl an temporal akkumulierten Super Samples ist die gleiche. Bei DSR wird dann aber ein archaischer bilinearer Filter zum Downsampling verwendet wohingegen NV DLAA dafür getunt hat, das Maximum aus den temporalen Samples herauszuholen und sehr wahrscheinlich den besseren Filterkernel hat.
DLAA vs DLSS-P + 2x2 DSR (also gleiche Inputresolution) wurde hier im Forum schon mehrfach getestet (zB aufkrawall und executer - gerade aufkrawall ist sehr pingelig und scheint den besten Blick für BQ bei uns im Forum zu haben und nimmt jedes upsampling Verfahren auseinander). Da kam ein Sieg für DLAA heraus.
——————————
Man kann natürlich noch einen oben draufsetzen und DSR / DLDSR noch auf DLAA oben drauf packen. Das kostet dann aber massiv extra. Und ob man dann noch deutliche Vorteile sehen kann? Immerhin akkumuliert DLSS/DLAA bis zu 64 supersamples - und zwar mit sparse grid. Wohingegen DSR/DLDSR nur ordered Grid sind. (und eben pro Performance ja nur marginal mehr Informationen dazupacken).
DLDSR gibt es übrigens nur für ungerade Faktoren. Und 2x2 DSR ist schon besser als 1,5x1,5x DLDSR. Aber auch teurer. Insofern kann DLDSR ein guter Kompromiss aus P/L sein für Downsampling.
Platos
2024-07-07, 14:05:55
Ja, gerade die leichte Kantenunschärfe die ja jedes temporale Verfahren mitbringt kann man durch den zusätzlichen Up und Downsampling Schritt reduzieren, obwohl die Renderauflösung die gleiche ist. DLAA sieht da eindeutig schlechter aus.
Kostet allerdings auch performance. Je nach Spiel mal mehr oder weniger. Und VRAM...
Finde trotzdem, dass es das kaum wert ist. Da nutze ich lieber DLSS Q mit mehr FPS und nehm die bessere Bewegtbildschärfe und Latenz.
DLSS und Bewegtschärfe? Soll das ein Witz sein ? Genau DLSS sorgt massiv für matsch, sobald man sich bewegt wirds noch schlimmer. Mit DLAA oder DLDSR ist das massiv besser.
robbitop
2024-07-07, 14:52:17
Naja theoretisch gewinnt man indirekt Bewegtschärfe durch mehr FPS (wenn man ein fps sparendes preset nimmt). :)
Auch (und unabhängig davon) nimmt die Qualität von DLSS (und allen temporalen Verfahren) mit den fps zu. Einfach weil mehr sinnvolle Samples pro Zeiteinheit akkumulierbar sind. :)
aufkrawall
2024-07-07, 15:08:05
Es herrscht leider Unkenntnis darüber, dass nicht nur die Input-Auflösung entscheidend für die Qualität ist. Der Skalierungsfaktor spielt auch dafür eine Rolle dafür, wie der Algorithmus Disocclusion-Bereiche behandelt etc. Und das wird umso schlechter (mehr Matsch um Objekte herum in Bewegung etc.), je höher (bzw. niedriger) der Skalierungsfaktor ist. Deshalb geht Preset C mit Ultra Performance ja auch trotz absurd hoher Output-Auflösung immer noch ziemlich kaputt, weil das Preset für diesen Skalierungsfaktor nicht mehr richtig funktioniert.
Fand DLDSR auch komplett lachhaft in Witcher 3 und Fortnite. Total verpfuschter Grafik-Stil ähnlich Ray Reconstruction, und mit DLSS wars dann Matsch-/Smear-Bewegtbild + Matsch-Kanten auch im Standbild. ;D Wobei es mittlerweile wenigstens das fiese Kanten-Aliasing von Preset E aufräumen könnte...
Völliger Müll, nicht einmal länger genutzt auf der 3060 oder 4070. RDNA3-VSR ist wesentlich benutzbarer. ~Genügend scharfe Kanten bei sämtlichen Skalierungsfaktoren ohne verpfuschten Grafikstil. Nutze es gerade in Fortnite für 2880p mit dem Performance-Mode, scheint deutlich klarer als Classic DSR 4x auszusehen und auch die Texturen (neben allem anderen) flimmern trotzdem weniger als nativ...
DrFreaK666
2024-07-07, 15:49:43
DLSS FG scheint mehr VRAM zu fressen als FSR3 FG. Schaut mal auf die Spikes (und auf die FPS). Oder ist DLSS FG in Ghost of Tsushima broken?
https://i.postimg.cc/nCdMz21p/FG-spikes.jpg (https://postimg.cc/nCdMz21p)
Quelle:8KuxORuIQGI
aufkrawall
2024-07-07, 15:55:42
Schon zig mal erwähnt und war klar, dass auf den 8GB-Krüppeln so etwas passieren muss. Prinzipiell auch auf den 12GB GeForces denkbar.
FSR 3.1 ist jedenfalls ein gigantisches Geschenk für 3060 12GB-Besitzer. Dürfte damit die am besten alterndste Mittelklasse-Karte ever sein. Von Anfang an nicht schnell, drei Jahre später aber kaum langsamer, wenn man flexibel mit Upsampling und FG ist. :freak:
Hatte die btw. rauf und runter empfohlen vs. 8GB-Krüppel, just saying...
basix
2024-07-07, 15:56:28
DLSS und Bewegtschärfe? Soll das ein Witz sein ? Genau DLSS sorgt massiv für matsch, sobald man sich bewegt wirds noch schlimmer. Mit DLAA oder DLDSR ist das massiv besser.
Interessanterweise ist hier DLAA im FSR 3.1 Test unschärfer als DLSS-Q: https://www.techpowerup.com/review/amd-fidelity-fx-fsr-3-1/
============================
Aber vielleicht mal noch was Speku für DLSS 4 (~Blackwell Release):
Besseres Upsampling, welches TF32 / FP16 Matrix und Sparsity nutzt (man verwendet ein grösseres und komplexeres DNN). Und gleichzeitig weniger Vektor-FP32 nutzt, was heute noch einen Grossteil der DLSS-Ausführungszeit kostet. Sieht besser aus und kostet ab Ampere (Switch 2) nicht mehr Performance als das heutige DLSS 3.7. Das Mehr an nötiger Rechenleistung wird durch die entsprechende Nutzung der Tensor-Core Datenformate bewältigt. Auf Turing kostet es etwas mehr als DLSS 2/3. Ziel: Höhere Skalierungsfaktoren und weniger Ghosting/Smearing. Ultra Performance sieht in etwa so aus wie Performance, Performance wie Quality und so weiter. In Pathtracing Games gewinnt man dadurch ~2x Performance, da man mit einer geringeren Renderauflösung arbeiten kann und immer noch gleichwertige Qualität erreicht. In anderen Games ist der Performance-Gewinn geringer oder man nutzt in diesem Fall die gleichen Upsamling-Faktoren wie heute, gewinnt dafür aber Qualität
Verbessertes Ray Reconstruction. Zusammen mit RTXGI 2.0+ (Area ReSTIR und SHaRC) kann man bei gleichbleibender Performance die Qualität verbessern oder bei in etwa gleichbleibender Qualität (CP2077, AW2) die Performance um ~2x erhöhen. Grund: Man kommt mit weniger Samples pro Pixeln aus und mehr Bounces sind inkl. SHaRC relativ billig.
Frame Extrapolation, welches ebenfalls TF32 / FP16 und allenfalls FP8 Matrix und Sparsity nutzt. Nur für Lovelace und Blackwell. Durch Extrapolation anstatt Interpolation hat man den Latenznachteil nicht und es skaliert deutlich näher an 2.0x als das heutige FG ab DLSS 3.5. Neben Latenzverbesserung also ebenfalls verbesserte Performance.
Meiner Meinung nach wären das für Nvidia sehr attraktive Ziele und auch für uns Kunden sehr schicke Sachen. Gleichbleibende Qualität und deutlich mehr Performance? Kein Latenzzuwachs bei FG? Gerne her damit. Und Nvidia würde dadurch ihre Marktstellung rund um DLSS zementieren und den RTX Use Case zusätzlich pushen (wo sie ebenfalls stark sind). Grundsätzlich ist das meiste dafür schon vorhanden (RTXGI 2.0, Area ReSTIR, Tensor Core FLOPS). Was fehlt sind die entsprechend verbesserten Algorithmen für das verbesserte DLSS, Ray Reconstruction sowie Frame Generation/Extrapolation. Zwischen DLSS 3.5 und Blackwell Release liegen mehr als 1 Jahr, da denke ich sind entsprechende Algorithmen-Verbesserungen im Rahmen des Möglichen und Nvidia will DLSS sowie Tensor-Core Nutzung vermutlich eh pushen.
aufkrawall
2024-07-07, 15:57:37
Interessanterweise ist hier DLAA im FSR 3.1 Test unschärfer als DLSS-Q: https://www.techpowerup.com/review/amd-fidelity-fx-fsr-3-1/
Das ist imho nicht interessant, sondern eher traurig, weil typischer Nixxes Fuck Up mit forciertem Sharpen.
Lurtz
2024-07-07, 17:23:44
Jep, DLSS Upsampling ist immer noch grauenhaft in Forbidden West weil forciertes Nachschärfen.
TheAntitheist
2024-07-07, 17:57:09
DLSS FG scheint mehr VRAM zu fressen als FSR3 FG. Schaut mal auf die Spikes (und auf die FPS). Oder ist DLSS FG in Ghost of Tsushima broken?
https://i.postimg.cc/nCdMz21p/FG-spikes.jpg (https://postimg.cc/nCdMz21p)
Quelle:https://youtu.be/8KuxORuIQGI
scheint bei anderen mit einer 4060 keine Probleme zu machen ->
https://www.youtube.com/watch?v=sxka7QCp0AE
DLSS FG ist bei den low% auf dem niveau von FSR FG oder minimal drüber, also genau gleich. Aber bessere Qualität.
aufkrawall
2024-07-07, 18:18:56
Es wurd da gar kein FG getrennt vom Upsampling getestet, Medienkompetenz lässt schon wieder sehr zu wünschen übrig.
Da bevorzuge ich aber ganz klar DLSS, weil es einfach viel ruhiger ist. Man sieht selbst bei dem YouTube-Video, wie es beim nativen Rendering flackert und auch noch immer bei FSR. Nur bei DLSS ist es deutlich ruhiger und stabiler.
https://youtu.be/sxka7QCp0AE?t=77
DrFreaK666
2024-07-07, 19:16:25
scheint bei anderen mit einer 4060 keine Probleme zu machen ->
https://www.youtube.com/watch?v=sxka7QCp0AE
DLSS FG ist bei den low% auf dem niveau von FSR FG oder minimal drüber, also genau gleich. Aber bessere Qualität.
In deiner Quelle wurde mit Upscaling getestet, aber gut...
https://i.postimg.cc/fTW4NM9M/1440-spikes.jpg (https://postimg.cc/MXL3025L)
FSR FG scheint die bessere Qahl zu sein
TheAntitheist
2024-07-07, 22:24:20
In deiner Quelle wurde mit Upscaling getestet, aber gut...
https://i.postimg.cc/fTW4NM9M/1440-spikes.jpg (https://postimg.cc/MXL3025L)
FSR FG scheint die bessere Qahl zu sein
stimmt, hab nur native im Titel gesehen und dann reingeskipped. finde FSR ist die schlechtere Wahl, solange alles in den VRAM passt. Ausserdem sind die lowend GPUs nicht für High settings gedacht
DrFreaK666
2024-07-08, 00:18:09
111FPS. Wie kann die 4060 dafür nicht geeignet sein? Weil das mit FSR FG erreicht wird und nicht mit DLSS FG?
TheAntitheist
2024-07-08, 01:07:20
111FPS. Wie kann die 4060 dafür nicht geeignet sein? Weil das mit FSR FG erreicht wird und nicht mit DLSS FG?
wer sagt nicht geeignet? schlechtere Wahl ist wohl was ganz anderes...:rolleyes:
DrFreaK666
2024-07-08, 01:50:18
111FPS mit FSR FG, 73FPS mit DLSS FG.
Seltsam dass dann FSR die schlechtere Wahl sein soll.
Augenrollen ist eigentlich eher hier angesagt.
TheAntitheist
2024-07-08, 04:13:05
111FPS mit FSR FG, 73FPS mit DLSS FG.
Seltsam dass dann FSR die schlechtere Wahl sein soll.
Augenrollen ist eigentlich eher hier angesagt.
sag mir mal woher du diese Zahlen hast... in dem Video war dies nicht zu sehen. Einfach irgendeinen Quatsch rausballern bringt hier keinen weiter.
DrFreaK666
2024-07-08, 07:35:30
sag mir mal woher du diese Zahlen hast... in dem Video war dies nicht zu sehen. Einfach irgendeinen Quatsch rausballern bringt hier keinen weiter.
Willst mich eigentlich verarschen?
In deiner Quelle wurde mit Upscaling getestet, aber gut...
https://i.postimg.cc/fTW4NM9M/1440-spikes.jpg (https://postimg.cc/MXL3025L)
FSR FG scheint die bessere Qahl zu sein
Deisi
2024-07-08, 10:33:27
Das ist imho nicht interessant, sondern eher traurig, weil typischer Nixxes Fuck Up mit forciertem Sharpen.
sorry für OT, aber hat jemand dafür einen Hex edit o.Ä. gefunden? Bei Uncharted und LoU war das möglich.
Ex3cut3r
2024-07-08, 13:52:45
Willst mich eigentlich verarschen?
Es scheint keinen Sinn zu ergeben. Der VRAM ist mit DLSS FG nicht voll ausgelastet, da er weniger beansprucht wird als mit AMD FG. Meiner Meinung nach hat er wahrscheinlich Aufnahmen verwechselt oder vertauscht, was bei der Menge an verschiedenen Benchmarks in seinem Video nicht verwunderlich wäre.
aufkrawall
2024-07-08, 13:59:49
sorry für OT, aber hat jemand dafür einen Hex edit o.Ä. gefunden? Bei Uncharted und LoU war das möglich.
Es gibt einen Thread bei Reddit fucktaa dazu, aber ohne Hex-Werte und auch ansonsten eingeschlafen (leider). Ich hätte jetzt den Link angegeben, hätte Schrottfox den in der History-Sync nicht vergessen. :redface:
Es scheint keinen Sinn zu ergeben. Der VRAM ist mit DLSS FG nicht voll ausgelastet, da er weniger beansprucht wird als mit AMD FG.
Das sagt überhaupt nichts aus. Hab auch schon selbst gesehen, dass durch stärkeres VRAM Pressure weniger als alloziert gemeldet wird als mit geringerem. Weshalb ich ständig erzähle, dass der einzige Test auf ausreichende VRAM-Menge ein Gegentest mit Karten mit mehr ist. Alles andere stimmt einfach nicht.
Meiner Meinung nach hat er wahrscheinlich Aufnahmen verwechselt oder vertauscht, was bei der Menge an verschiedenen Benchmarks in seinem Video nicht verwunderlich wäre.
Er kann auch einfach obs statt GFE genommen haben, oder es war nach einer Einstellungsänderung o.ä. gestorben. Oder es lief vielleicht noch Chrome oder Discord, oder das Steam-Fenster war mit eingeschalteter Hardwarebeschleunigung geöffnet. Kann mit knappem VRAM alles zur Katastrophe führen.
vinacis_vivids
2024-07-08, 14:46:34
111fps AMD FSR3-FG gegen 73fps NV DLSS3-FG. Die Frame-Time Spikes bei DLSS3-FG sind architekturbedingt durch die Zugriffe auf die dezidierten Einheiten. Eines der Gründe, wieso ich seit über 20 Jahren keine NV bei mir betreibe.
Vermutlich hat sogar Intel XMX die Spikes besser im Griff als Huang`s DLSS3, AMD FSR3 ist sowieso erhaben.
DrFreaK666
2024-07-08, 15:50:42
... Meiner Meinung nach hat er wahrscheinlich Aufnahmen verwechselt oder vertauscht, was bei der Menge an verschiedenen Benchmarks in seinem Video nicht verwunderlich wäre.
Natürlich. Bei Ghost of Tsushima hat er plötzlich alle Aufnahmen mit FG verwechselt
Ex3cut3r
2024-07-08, 16:44:58
Wo habe ich das gesagt? Akzeptiere einfach, was deinem Bias entspricht, und hinterfrage nichts. Offensichtlich liegt DLSS 3 plötzlich massiv 60% hinter FSR FG. Es könnte nur daran liegen, dass der VRAM voll ist, und wenn nicht, dann ist wahrscheinlich die Aufnahme falsch beschriftet usw. Es ist nicht nötig, etwas anderes hineinzuinterpretieren, oder man macht eben den V_V.
TheAntitheist
2024-07-08, 16:51:21
Willst mich eigentlich verarschen?
du kannst dann einfach nicht lesen, mein Beileid
aufkrawall
2024-07-08, 16:57:18
Vermutlich hat sogar Intel XMX die Spikes besser im Griff als Huang`s DLSS3, AMD FSR3 ist sowieso erhaben.
Es gibt keine Frame Time Spikes bei Nvidia durch die Nutzung der TCs, erzähl keinen Mist.
Was da prinzipbedingt ineffizienter ist, ist dass dafür wahrscheinlich immer der CUDA-Treiber und -Workload seine eigenen Ressourcen braucht und damit in Konkurrenz zum und außerhalb der Kontrolle des D3D/Vulkan-Spiels steht. Ist dann aber auch nicht die Welt. Rächt sich eher nur, wenn es um jedes MB geht...
DrFreaK666
2024-07-08, 18:39:48
Wo habe ich das gesagt? Akzeptiere einfach, was deinem Bias entspricht, und hinterfrage nichts. Offensichtlich liegt DLSS 3 plötzlich massiv 60% hinter FSR FG. Es könnte nur daran liegen, dass der VRAM voll ist, und wenn nicht, dann ist wahrscheinlich die Aufnahme falsch beschriftet usw. Es ist nicht nötig, etwas anderes hineinzuinterpretieren, oder man macht eben den V_V.
Was soll das erste Fettgedruckte bitte heißen? :rolleyes:
Und Daniel Owen vermutet, dass der VRAM voll ist mit DLSS. Wenn man eine Qualitätsstufe runtergeht, dann ist das wieder in Ordnung. Aber wahrscheinlich hat er zufällig da die Videos nicht vertauscht...
du kannst dann einfach nicht lesen, mein Beileid
Klar, lass mir das alles seit 22 Jahren von einer KI vorlesen
DLSS FG kann nicht schlechter sein, da es grün ist - oder so, nicht wahr?
Platos
2024-07-08, 21:28:25
Solange du es dir nicht von einer KI schreiben lässt :D
Gibt ja hier im Forum schon ein paar, die Teile Ihrer Antworten (in einer Diskussion) vorher von einer Ki schreiben lassen :D
Relex
2024-07-08, 22:27:15
DLSS FG scheint mehr VRAM zu fressen als FSR3 FG. Schaut mal auf die Spikes (und auf die FPS). Oder ist DLSS FG in Ghost of Tsushima broken?
https://i.postimg.cc/nCdMz21p/FG-spikes.jpg (https://postimg.cc/nCdMz21p)
Quelle:https://youtu.be/8KuxORuIQGI
Ne, da ist nichts broken. FG funktioniert in dem Spiel absolut fehlerfrei, sowohl FSR FG als auch DLSS FG.
Aber ja, DLSS FG braucht etwas mehr VRAM und ist teurer/skaliert schlechter.
Die extrem schlechte Skalierung in deinem Beispiel kommt aber offensichtlich vom vollen VRAM. Das ist schon echt ein witz mit den 8 GB bei Nvidia.
Wenn du nicht VRAM limitiert bist haste halt das übliche Verhalten wo FSR FG so ca 10-15% mehr FPS erreicht.
Dafür sind mit DLSS FG die Latenzen besser und die Qualität ist auch höher.
Die bessere Qualität siehst du z.B. hier in dem Video:
69k7ZXLK1to
Die Performance Skalierung hängt aber allgemein immer sehr stark von der Zielauflösung und der Framerate ab.
Je höher die Auflösung, desto teurer die Zwischenbilder. In 4K skaliert FG also schlechter als in 1080p.
Außerdem hängt es von der Framerate ab. Bei 120 FPS muss der Algo viel mehr Zwischenbilder erzeugen, als bei z.B. 40-50 FPS. Wird also bei hohen FPS teurer und bei niedrigen FPS günstiger relativ zu den Renderkosten der eigentlichen Frames vom Spiel, was ja auch der Grund ist, warum man bei sehr hohen FPS irgendwann immer weniger Zugwinn durch FG hat und irgendwann eine negative Skalierung sieht. Besonders in 4K merkt man das wenn man richtung 200 FPS will. Da wird die Skalierung immer schlechter.
Mich würde mal interessieren, wie die Skalierung von FG auf low, midrange und High End Karten ist. Jeweils mit Nvidia und AMD bzw. DLSS FG und FSR FG.
Zumindest bei Nvidia hatte ich bisher in den Benches gesehen, dass die Skalierung mit DLSS FG annähernd gleich war, egal wie stark die Karte ist.
raffa
2024-07-08, 22:41:34
Man sollte sich da aber auch nicht vom Marketing blenden lassen. Framegeneration, also Zwischenbildberechung, ist eben nur das. Eine zeitliche Interpolation zwischen zwei echten Frames, die niemals perfekt sein wird und vorallem maximal die optische Flüssigkeit erhöht. Thats it
aufkrawall
2024-07-08, 22:59:29
Mich würde mal interessieren, wie die Skalierung von FG auf low, midrange und High End Karten ist. Jeweils mit Nvidia und AMD bzw. DLSS FG und FSR FG.
Wahrscheinlich auf einer 7600 XT immer noch besser als auf einer 4090, wenn ich noch mit der midrange 7800 XT im GPU-Limit ständig >80% habe. :freak:
DrFreaK666
2024-07-08, 23:09:13
...Die bessere Qualität siehst du z.B. hier in dem Video...
Ich kenne das Video. Alex zeigt den Unterschied in einem Standbild und extrem reingezoomt. Ich glaub dazu muss man nichts mehr sagen. Wahrscheinlich hat er auch noch genau die Stelle ausgesucht, bei dem der Unterschied am größten ist
Man sollte sich da aber auch nicht vom Marketing blenden lassen. Framegeneration, also Zwischenbildberechung, ist eben nur das. Eine zeitliche Interpolation zwischen zwei echten Frames, die niemals perfekt sein wird und vorallem maximal die optische Flüssigkeit erhöht. Thats it
Wenn die Zwischenbilder unregelmäßig kommen, dann bringt das aber auch nichts. Bei AMD wurde das bemängelt. Bei Nvidia ist das dann plötzlich ok
vinacis_vivids
2024-07-09, 07:13:20
Wo bleiben denn die Videos von den vielen DLSS3-Fans?
Diese ganzen sogenannten Tester und Experten haben jahrelang AMD's FSR auf Huang's zaubermagic Hardware "getestet" und mantraartig wiederholt und vorgegeben was besser sei.
Jetzt ist FSR3 allerdings durchweg besser als Huang's Mogelpackungen. Ich kann mit der 7 Jahre alten Vega64 in 99% der Spiele bessere Werte liefern als die 3060 / 4060 und wahrscheinlich auch der zukünftigen 5060.
Warum? FSR3-UP-FG ist derzeit die beste SR-Technik im Jahr 2024 und darüber hinaus.
Außerdem fehlen hier noch die "SR + FG + Ray-Tracing + HDR" Werte. Aber da haben die Experten-Redaktionen bestimmt keine Zeit.
Seit dem Erscheinen von DLSS hat sich keiner darum gekümmert, wieso?
Für den zusätzlichen Leistungsverlust bei Zuschaltung von HDR interessieren wieder nur so wenige? Eigenartig...
robbitop
2024-07-09, 08:00:04
Wahrscheinlich auf einer 7600 XT immer noch besser als auf einer 4090, wenn ich noch mit der midrange 7800 XT im GPU-Limit ständig >80% habe. :freak:
Irgendwie schon eine Ironie, wenn eine Hardwarebeschleunigtes Verfahren langsamer als das in Software ist. X-D
—————————-
Das mit der leicht höheren Qualität des FG von NV glaube ich. Alex sagt ja selbst da es eine stroboskopischen Effekt mit dem echten Bild gibt fällt das praktisch nicht auf. (bei gleichem TAA bzw. bei gleichem Upsampling und nur das FG verglichen! hier gibt es ja diesen einen motorischen gast der das immer vermischen will)
Viel wichtiger als obiges ist (und das war immer die Hauptkritik an AMDs FG): Latenz muss niedrig sein und frametimes müssen smooth sein. Und das muss konsistent über möglichst viele Spiele der Fall sein - idealerweise über alle.
Der Unterschied ist, dass NV es schafft hier deutlich konsistenter abzuliefern.
ChaosTM
2024-07-09, 08:20:07
Irgendwie schon eine Ironie, wenn eine Hardwarebeschleunigtes Verfahren langsamer als das in Software ist. X-D
—————————-
Das mit der leicht höheren Qualität des FG von NV glaube ich. Alex sagt ja selbst da es eine stroboskopischen Effekt mit dem echten Bild gibt fällt das praktisch nicht auf. (bei gleichem TAA bzw. bei gleichem Upsampling und nur das FG verglichen! hier gibt es ja diesen einen motorischen gast der das immer vermischen will)
Viel wichtiger als obiges ist (und das war immer die Hauptkritik an AMDs FG): Latenz muss niedrig sein und frametimes müssen smooth sein. Und das muss konsistent über möglichst viele Spiele der Fall sein - idealerweise über alle.
Der Unterschied ist, dass NV es schafft hier deutlich konsistenter abzuliefern.
Die S3 Virge ruft an aus dem Jahr 1995 :D
Der Unterschied ist, dass NV es schafft hier deutlich konsistenter abzuliefern.
Das ist eigentlich der Hauptpunkt - Nvidia liefert einfach. Bei FSR ist das immer ein Hit oder Miss oder öfter ein Miss als ein Hit.
Irgendwie schon eine Ironie, wenn eine Hardwarebeschleunigtes Verfahren langsamer als das in Software ist. X-D
Schon, aber erklärbar – der Algo ist tatsächlich aufwendig, was ja Nvidias Ausrede war, DLSS FG nicht für ältere Generationen freizuschalten. Sicherlich könnte man das "runterdumben", aber Produktpolitik und so.
DLSS ist ja auch teurer als FSR und TSR (und erst recht rein spatiales Upscaling gleicher Auflösung). Aber DLAA ist in einigen Fällen schneller als Native-whatever.
Jetzt ist FSR3 allerdings durchweg besser als Huang's Mogelpackungen.
Absolut! FSR 3 FG bringt dir Faktor 1,9 und AFMF obendrauf bringt dir nochmal Faktor 2! Das ist viel mehr als der durchschnittliche Faktor 1,7 bei DLSS FG.
:ulol:
MfG
Raff
Exxtreme
2024-07-09, 09:28:59
Irgendwie schon eine Ironie, wenn eine Hardwarebeschleunigtes Verfahren langsamer als das in Software ist. X-D
Kann gut sein, dass DLSS FG ebenfalls nur Software ist.
Relex
2024-07-09, 09:37:38
Wahrscheinlich auf einer 7600 XT immer noch besser als auf einer 4090, wenn ich noch mit der midrange 7800 XT im GPU-Limit ständig >80% habe. :freak:
Mit einer 7600XT oder 7800XT wirst du aber vermutlich nicht in 4K bei 120 FPS spielen und dann FG an machen.
Da wird es halt am teuersten. Egal ob AMD oder Nvidia. Das hatte ich gerade erklärt und schon wird wieder pauschalisiert.
Dass AMD's FG mehr FPS erzeugt hatte ich ja bereits gesagt. Keine Ahnung, warum ihr das jetzt so vorwurfsvoll wiederholt, als hätte ich je was anderes behauptet.
Ich hatte das sogar vor Monaten getestet, als einer der ersten hier. Das brauchste mir nicht erzählen.
Dass DLSS FG trotz Hardware Support etwas schlechter skaliert ist ziemlich Mist, hatte ich auch schon mehrmals kritisiert. Aber aufgrund der spürbar geringeren Latenzen trotzdem für mich die bessere Option.
Vermutlich ist es ein Tradeoff zwischen Qualität, Latenzen und FPS. Sowohl FSR FG als auch DLSS FG bieten ja sowohl nachteile als auch Vorteile gegenüber der anderen Technik.
Wir wissen praktisch nichts über die Probleme die da im Detail zu lösen sind. Ich denke manche unterschätzen da auch die komplexität da gerade bei schwankenden Frametimes entstehen. Damit hatte AMD ja auch monatelang zu kämpfen und AntiLag2 ist noch immer kein Teil von FSR FG.
Die Frage ist dann eben, wie gut FSR FG noch skaliert, wenn AL2 mal damit kompatibel ist. Und passt dann noch das Framepacing oder muss man dann wieder anderweitig Kompromisse machen? Sehen wir dann ne schlechtere Skalierung oder eine gleich gute. Who knows.
Bisher ist es halt ein bisschen Äpfel vs Birnen.
robbitop
2024-07-09, 09:52:09
Kann gut sein, dass DLSS FG ebenfalls nur Software ist.
Die aber den HW Block für Optical Flow Acceleration nutzt (also wird entsprechende Rechenzeit dieses Schritts komplett gespart auf den FPUs), was bei FSR FG über die Vector FPUs läuft.
————-
Der Grund für bessere Latenzen bei DLSS FG liegt nicht an diesem Teil sondern an Reflex für das es bei AMD noch kein funktionierendes Äquivalent für FSR FG gibt.
Relex
2024-07-09, 10:02:46
Der OFA wird eben für höhere Qualität sorgen. Gleichwertige Qualität ist ohne Hardwarebescheleunigung vermutlich zu teuer, was man dann spätestens auf schwächeren GPUs spüren wird.
Ich bin mir trotzdem immernoch unschlüssig inwiefern die Skalierung von FG mit den latenzen und dem Framepacing zusammenhängt.
Ich meine ein LSFG kann dir auch 3x Frames geben. Dafür haste eben kein Framepacing und katastrophale Latenzen.
Also kurz gesagt: Skaliert Nvidia schlechter, nur weil der Algo (vermeintlich?) teurer ist, oder weil man den Tradeoff aufgrund latenzen und Framepacing machen muss?
Die Antwort sollten wir haben, sobald AMD mit FSR FG auf ähnliche Latenzen kommt.
robbitop
2024-07-09, 10:27:37
Lossless Scaling FG kann man mit FSR3 und DLSS FG überhaupt nicht vergleichen weil sie null Zugriff zur Engine haben. Das ist reines post processing von 2D Bildern. Das kann in Bezug auf Latenz nirgends eingreifen weil es komplett nachgelagert ist und es ist zwangsweise qualitativ hinten. Man kann es einzig mit AFMF vergleichen.
Ansonsten: der Mechanismus für die Latenzreduktion ist eigentlich sehr bekannt. Reflex und AL2 sorgen mit einem dynamischen Framelimiter für eine leichte GPU Teillast, was die renderqueue kurz hält und das drückt die Latenz.
Aktuell gibt es das funktional nur für DLSS FG.
Die leicht bessere Qualität ist zwar da - aber man muss sie schon mit der Lupe suchen. Also sich speziell nur die generierten Frames in einem aufgenommenen Videostream rauspicken oder aber die Sequenz stark verlangsamt anschauen. Real scheint es so gut wie nichts auszumachen.
Da Optical Flow in HW ist müsste es unabhängig von der BQ schneller sein - es sei denn der HW Block limitiert (was unclever bei der Auslegung gewesen wäre).
NV ist IMO wie gesagt ganz ganz vorn weil sie konsistent abliefern. Es sind selten echte Misses dabei. Das ist IMO etwas wo AMD ansetzen muss.
Also kurz gesagt: Skaliert Nvidia schlechter, nur weil der Algo (vermeintlich?) teurer ist, oder weil man den Tradeoff aufgrund latenzen und Framepacing machen muss?
Letzteres, mit Ansage. Man denke an die Frame-Pacing-Tweaks, welche einst für SLI eingeführt wurden. Ungeregeltes AFR ("Fire and forget") skalierte besser.
MfG
Raff
Kann gut sein, dass DLSS FG ebenfalls nur Software ist.
Selbstverständlich ist DLSS-FG Software, was soll es sonst sein.
robbitop
2024-07-09, 11:10:09
Letzteres, mit Ansage. Man denke an die Frame-Pacing-Tweaks, welche einst für SLI eingeführt wurden. Ungeregeltes AFR ("Fire and forget") skalierte besser.
MfG
Raff
Ich wüsste nicht warum das AVG FPS kosten würde. Man schiebt die frames auf der Zeitachse hin und her. Wäre für mich eher ein Tradeoff zwischen Latenz und Framepacing aber nicht unbedingt avg fps.
Relex
2024-07-09, 11:25:24
Sind ja drei Faktoren. Nvidia hat gutes Framepacing und gute Latenzen. Vielleicht wirkt sich das dann eben auf die AVG FPS aus.
AMD hat mittlerweile gutes Framepacing, aber schlechtere Latenzen, dafür mehr AVG FPS.
Von außen Betrachtet könnte das zusammenhängen. Warum das auf technischer Ebene so sein könnte kann ich mir aber auch nicht einfach so zusammenreimen. Da fehlt einfach der Einblick und das tiefere Verständndis für die logischen Probleme die so eine Technik im Detail mit sich bringt.
Oder es liegt doch einfach am Algo der bei Nvidia schlichtweg mehr Leistung kostet.
Für mich aktuell nicht zu beantworten. Wenn AMD wie gesagt AL2 für FG bringt, dann haben wir ein weiteres Puzzleteil, das vielleicht dann mehr oder bessere Schlussfolgerungen zulässt.
robbitop
2024-07-09, 11:30:29
Interessant finde ich dass AL+ was ja ähnlich wie AL2 arbeitet (mit dem Unterschied dass AL+ von außen gehookt wurde und AL2 explizit in der Anwendung implementiert).
Ob es dafür einen systematischen Grund gibt? Immerhin hatte man mit AL2 ja jetzt >6 Monate Zeit.
Ich wüsste nicht warum das AVG FPS kosten würde. Man schiebt die frames auf der Zeitachse hin und her. Wäre für mich eher ein Tradeoff zwischen Latenz und Framepacing aber nicht unbedingt avg fps.
Weil man unter Umständen kurze Pausen einlegen muss.
Für ein flüssiges Ergebnis ist ja nicht nur wichtig, dass die Frames zur richtigen Zeit angezeigt werden, sondern dass sie auch mit der dazu passenden Spielzeit berechnet wurden.
aufkrawall
2024-07-09, 13:55:26
Mit einer 7600XT oder 7800XT wirst du aber vermutlich nicht in 4K bei 120 FPS spielen und dann FG an machen.
Sind immer noch +55% in Witcher 3. Würde mal sagen, "leicht" besser als die -3% bei ComputerBase in Diablo 4 mit DLSS FG. ;D
Und Anti-Lag 2 für FG sollte sich auch nicht anders verhalten als ein fps-Limiter. Man kann in diversen Spielen mit FSR 3 FG den in-game Limiter nutzen und funktioniert problemlos bei Reflex-Latenz. Man hat das Gefühl, manch einer macht den ganzen Tag nichts anderes als sich hypothetische Problemfälle für FSR auszudenken...
Platos
2024-07-09, 14:06:40
Interessanterweise ist hier DLAA im FSR 3.1 Test unschärfer als DLSS-Q: https://www.techpowerup.com/review/amd-fidelity-fx-fsr-3-1/
DLSS matcht vor allem in Bewegung. Also Standbilder sind hier nicht Aussagekräftig genug. Muss mir das Video dazu ansehen, wenn ich am PC bin. Am Handy kann ich nur bei den Screenshots zoomen.
Edit: Ok, das Video zeigt gar kein DLAA. Muss ich wohl selber ausprobieren. Spiele das Spiel aber nicht so schnell xD
robbitop
2024-07-09, 14:44:52
Weil man unter Umständen kurze Pausen einlegen muss.
Für ein flüssiges Ergebnis ist ja nicht nur wichtig, dass die Frames zur richtigen Zeit angezeigt werden, sondern dass sie auch mit der dazu passenden Spielzeit berechnet wurden.
Das ergibt Sinn. Aber das würde dann ja bedeuten, dass der Treiber der Geforce dem Spiel sagen kann dass es zu einem späteren Tick den Frame berechnen soll. Inkl all dem was die CPU berechnet (Geometrie, draw calls, KI usw). Und das geht?
aufkrawall
2024-07-09, 14:52:22
Ist quasi 1:1 die Funktionsweise von Reflex/Anti-Lag 2.
robbitop
2024-07-09, 14:55:26
Hm ja das macht Sinn. Entsprechend wir die CPU ja auch eingebremst bzw kurz warten gelassen damit man das framecap nicht übersteigt.
Ex3cut3r
2024-07-10, 15:58:57
DLSS matcht vor allem in Bewegung. Also Standbilder sind hier nicht Aussagekräftig genug. Muss mir das Video dazu ansehen, wenn ich am PC bin. Am Handy kann ich nur bei den Screenshots zoomen.
Edit: Ok, das Video zeigt gar kein DLAA. Muss ich wohl selber ausprobieren. Spiele das Spiel aber nicht so schnell xD
Das ist eigentlich seit DLSS 2.5.1 DLL nicht mehr der Fall.
aufkrawall
2024-07-10, 16:16:44
Jedes TAA und Abkömmlinge matschen in Bewegung, sei es bei Kamera- oder Objektbewegung. Preset C & E sind bei Kamerabewegung ok, aber nicht toll. TSR epic ist in der Hinsicht um mehrere Dimensionen besser, halt dabei mit mehr Disocclusion-Geflimmer (und Disocclusion-Blur kann auch auffällig sein).
In Fortnite mit konstanter Bewegung (Gleiter, diagonale Vorwärtsbewegung...) entspricht das in etwa dem Unterschied wie zwischen Office- und Gaming-Monitor. Man kann sich halt an vieles gewöhnen, und reguläres TAA ist oft noch schlechter. Wobei es auch nicht nur um den Grad der Unschärfe geht, sondern auch um die Dauer. DLSS Preset A ist am allerschlimmsten in der Hinsicht. Braucht ewig, bis es nach der kleinsten Bewegung wieder scharf wird. Quasi simulierte Sehschwäche.
Ex3cut3r
2024-07-10, 16:27:44
Finde DLSS Preset C und E vollkommen ok, zumindest so ok, dass man in SP auf nem IPS 144HZ und VRR nichts in Bewegung unscharf wird, nutze aber auch CAS. vlt. deswegen. KA.
Platos
2024-07-11, 14:59:33
Ist mir unerklärlich. Und ich sehe es matschen direkt bei kleinster Bewegung (auch mit DLSS 2.5.1 oder höher). Und das auf nem 60Hz IPS und auf nem 60Hz Samsung TV aus 2016. Und ja, es ist DLSS, dass so matscht. Merkt man daran, dass es aufhöhrt, wenn mans ausschaltet.
Aber ich weiss ja nicht, was du als Vergleich nimmst. Nativ + TAA? Dann wäre es klar, dass du keine Verschlechterung siehst. Vergleich mal mit Nativ ohne Kantenglättung.
Aber ich muss mal das neue Preset E ausprobieren. Habe ich noch nicht gemacht.
Aber gut, vlt. sind ja manche am Ende einfach weniger empfindlich gegen unscharfe Bilder. Du kommst ja beispielsweise von 1440p kommrnd auf 4k und bist dir daher gar nicht gewöhnt, was 4k ohne DLSS und match TAA ist, oder ?
aufkrawall
2024-07-11, 15:28:13
Aber ich muss mal das neue Preset E ausprobieren. Habe ich noch nicht gemacht.
Ist nicht schärfer als C in Bewegung, tendenziell imho eher unschärfer. Aber längst nicht so unscharf wie D.
F ist da etwas besser, aber dafür halt im stillen Bild umso schlechter.
Lurtz
2024-07-11, 15:34:59
Du kommst ja beispielsweise von 1440p kommrnd auf 4k und bist dir daher gar nicht gewöhnt, was 4k ohne DLSS und match TAA ist, oder ?
Ist letztendlich auch irrelevant weil das inakzeptables Aliasing bedeutet.
Deisi
2024-07-11, 16:52:32
Warum geht ihr da immer wieder drauf ein? Die exakt gleiche Diskussion gibts hier alle paar Seiten. Ich warte nur auf die teso Screenshots von Exxtreme. :freak:
Exxtreme
2024-07-11, 16:55:32
Ich warte nur auf die teso Screenshots von Exxtreme. :freak:
Soll ich FF14-Screenshots liefern? ;D Da sieht man das Gematsche in Bewegung ebenfalls sehr deutlich, selbst mit DLAA und Preset E oder F.
Lurtz
2024-07-11, 17:17:08
Die exakt gleiche Diskussion gibts hier alle paar Seiten.
Ist das nicht die Daseinsberechtigung des Internets? ;D
Ex3cut3r
2024-07-11, 17:38:25
Aber gut, vlt. sind ja manche am Ende einfach weniger empfindlich gegen unscharfe Bilder. Du kommst ja beispielsweise von 1440p kommrnd auf 4k und bist dir daher gar nicht gewöhnt, was 4k ohne DLSS und match TAA ist, oder ?
Ich weiß beim besten Willen nicht, was du meinst. Sample Hold Displays haben bei Bewegung immer eine Unschärfe, dazu kommt natürliches Motion Blur von unserem Eye Movement. Hast du mal Screenshots oder Videos parat? :redface:
aufkrawall
2024-07-11, 18:07:28
Du bewegst dich in einem Spiel mit stabiler Kamera und drückst dabei die Screenshot-Taste.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13548035&postcount=1158
Preset C/E sind dabei weder gut noch schlecht, eher Mittelmaß.
Würde mich nicht wundern, wenn das exemplarisch für die Limitiertheit von ML ist. Es gab damit einigen beachtlichen Fortschritt, aber irgenwie gehts dann doch nicht weiter. Schon enttäuschend, Stichwort Blase...
Ex3cut3r
2024-07-11, 18:34:08
Bis auf ein paar Disclussion Probs an den Bäumen sehe ich jetzt da auch nichts.
Habe es auch mal getestet mit God of War 3.7 DLL Preset E.
Stillstand:
https://s20.directupload.net/images/240711/t8p3zsjb.png
Bewegung nach Rechts:
https://s20.directupload.net/images/240711/6v6eq233.png
TAA Stillstand:
https://s20.directupload.net/images/240711/8ki4x86z.png
TAA Bewegung nach rechts:
https://s20.directupload.net/images/240711/gsjefqui.png
Wo soll da jetzt "total" unscharf sein in Bewegung? Muss wohl blind sein.
Relex
2024-07-12, 13:22:51
4K nutzen hilft schon recht viel, um die Unschärfe zu reduzieren auch mit Upscaling. Je feiner das Pixelraster ist, in das TAA, DLSS und co auflösen können, desto besser.
Bei geringeren Auflösungen wie 1440p oder 1080p ist die Unschärfe deutlich ausgeprägter.
Schade, dass es keine Möglichkeit gibt, zumindest nur an den Kanten virtuell die Auflösung MSAA-like zu erhöhen. Gleiche interne Renderauflösung, aber das Pixelraster in das der Algorithmus das Bild auflösen kann wäre an allen Geometriekanten feiner.
Platos
2024-07-12, 14:57:34
Würde mich nicht wundern, wenn das exemplarisch für die Limitiertheit von ML ist. Es gab damit einigen beachtlichen Fortschritt, aber irgenwie gehts dann doch nicht weiter. Schon enttäuschend, Stichwort Blase...
Ich hoffe nicht. Hoffentlich kann das irgendwann noch gelöst werden. Also bei Videoupscaling ist es z.B so, dass man Unschärfe mittlerweile extrem gut reduzieren kann. Das basiert aber (unter anderem) auch darauf, dass man dort über mehrere Frames hinweg vergleicht und quasi darauf hofft, dass in einem davon Teile nicht geblurrt sind und dann nutzt man quasi aus jedem frame die scharfen Bereiche und macht das dann... irgendwie :D
Aber das kostet a) extrem Perfomance (weit, weit weg von Realtime) und b) gibts da scharfe frames. Wenn jedes Frame gleich unscharf ist, funktionierta vermutlich nicht.
Es müsste fast 1 Frame ohne upscaling-Verfahren gerendert werden und dann irgendwie die Kanten bei den upgescalten Frames mit dem nicht upgescalten verglichen werden.
Wobei: Ich verstehe eigentlich nicht ganz, warum es nur in Bewegung auftritt. DLSS vergleicht doch nicht verschiedene Frames oder? In einer Engine gibts ja bei Bewegung eigentlich gar keine Unschärfe wie in einer Videokamera. Wieso gibts eig. bei DLSS in Bewegung Unschärfe ? Wenn sich nix bewegt gehts ja eig. noch halbwegs.
Schade dass E da nicht besser ist. Ich wrrds trotzdem noch ausprobieren.
Ist letztendlich auch irrelevant weil das inakzeptables Aliasing bedeutet.
Ah ok, Texturmatsch ist dann aber ok... Nach der Logik ist auch DLSS irrelevant, weil es inakzeptabler Matsch ist in Bewegung...
Warum geht ihr da immer wieder drauf ein? Die exakt gleiche Diskussion gibts hier alle paar Seiten. Ich warte nur auf die teso Screenshots von Exxtreme. :freak:
Ich weiss. Bubbles wollen am liebsten keine Kritik haben und nur untereinander sich selbst verstärken und sich ja nie mit Problemen beschäftigen.
Ich weiß beim besten Willen nicht, was du meinst. Sample Hold Displays haben bei Bewegung immer eine Unschärfe, dazu kommt natürliches Motion Blur von unserem Eye Movement. Hast du mal Screenshots oder Videos parat? :redface:
Ich habe ja gesagt, dass der Beweis, dass es nicht am Monitor liegt da ist. Es tritt nur bei DLSS auf und nicht unter nativ.
Nein, Screenshots habe ich nicht, bin am Handy. Aber Extreeme hat doch hier auch schon oft welche gepostet oder nicht?
Das ist doch jetzt keine Neuheit mehr, dass DLSS (spätestens) in Bewegung nur noch Matsch erzeugt. Aber es ist hald jeder auf andere Dinge anfällig.
Edit: Ich sehe gerade, du hast Screenshots gemacht: Also 1: Um ein Upscaling- oder AA-Verfahren zu beurteilen, vergleicht man es mit Nativ (ohne weiteres) und sicher nicht mit einem anderen. Ist das nicht klar? Du kannst doch auch nicht die Wirksamkeit eines Pflanzendüngers testen, indem du bei der Referenz einen anderen Dünger nutzt. Wenn ich sage, Pflanzendünger hilft beim Wachstum, meint man damit immer in Bezug auf den Ursprung, also ohne Dünger. Genau so klar ist es doch, dass wenn man ein Upscaling-Verfahren testet, man es mit Nativ testet und nicht mit einem anderen AA Verfahren... Man nutzt bei der Referenz immer den Ursprung und nicht ein anderes Verfahren...
Und abgesehen davon: Ich habe GoW damals 2018 gezockt (auf PS4 Pro). Kann also jetzt gerade nicht beurteilen, ob die Bäume auf PC in Nativ auch so matsch sind, weil das sind sie in allen deinen Screenshots. Ich glaube aber, es liegt daran, dass die alle so weit entfernt sind und dann eben nicht mehr die hoch aufgelösten Texturen geladen werden. Weil auch der Boden sieht so Matsche aus...
Steh doch mal vor Vegetation in Nähe, wo es auch scharf dargestellt werden sollte (und vlt. noch bei Tag und nicht bei nebliger Nacht) und vergleich dann nochmals. Also natürlich nur, wenn es dich persönlich interessiert und du Zeit hast. Weil das, was du da vergleichst ist ein Baumstamm, der auch im Standbild so schlechte Texturen hat (vermutlich wegen der Distanz), so dass man da eh nicht viel erkennen kann. Und der Boden ist bei dir auch eher ne sehr dunkle Wasserpfütze und der in weiter Entfernung wieder maximal matsch.
Musst du aber nicht machen. Extreeme hat ja schon genug Material geliefert, das zeigt, wie sehr DLSS matscht. Ich kann natürlich nicht beurteilen, ob es in jedem DLSS Spiel ein Problem ist (habe ja nicht alle). Bin aber auch grad am Handy.
Edit2: Ich teste heute/morgen mal mal Horizon Zero Dawn, sehe gerade, das soll dlss haben. Ist aber 72GB gross, muss es zuerst runterladen.
aufkrawall
2024-07-12, 16:02:27
Ah ok, Texturmatsch ist dann aber ok... Nach der Logik ist auch DLSS irrelevant, weil es inakzeptabler Matsch ist in Bewegung...
Nicht wirklich. Das diametrale Extrem zu gar kein AA wäre eher so ein Ekel-TAA wie in RDR2, und nicht DLSS.
Wär natürlich trotzdem etwas, wo ein hypothetisches neues Preset ansetzen sollte. Würd ich von der Wichtigkeit aber erst an die dritte Stelle setzen, das Smearing und die hässlich verpixelten Kanten von D/E finde ich störender.
robbitop
2024-07-12, 16:03:47
Bei DLSS kommt es manchmal vor, dass das Textur LoD nicht korrekt auf einen negativen Wert gesetzt wurde und/oder dass kein / oder kein guter Schärfefilter (der Prinzipbedingt notwendig ist durch das hitter Muster der subpixel samples) genutzt wurde?
Im Zweifel LoD per externem Tool einstellen und rCAS per reshade justieren.
Ich vermute was partiellen Blur (also den Blur von nur Teilelementen) angeht hat man die Wahl zwischen temporal unstabilen Artefakten (grizzeln, moire, aufpixeln) oder blur. Das gilt für die Pixel wo es aus den Vorframea keine validen Samples gab. Das menschliche Auge ist evolutionär auf sich bewegende / sich ändernde Dinge trainiert. Insofern kann blur hier die besser Wahl (bzw. der bessere Kompromiss) sein.
aufkrawall
2024-07-12, 16:12:14
Insofern kann blut hier die besser Wahl (bzw. der bessere Kompromiss) sein.
Kann, muss aber nicht. Das Gras in Fortnite sieht mit DLSS Performance in 1440p in Bewegung gleichzeitig viel flimmriger und unschärfer vs. TSR epic 50% aus.
Natürlich sieht DLSS an anderer Stelle wieder wesentlich besser aus. Zeigt aber, wie viel Potenzial es trotzdem liegen lässt.
Platos
2024-07-12, 16:52:25
Bei DLSS kommt es manchmal vor, dass das Textur LoD nicht korrekt auf einen negativen Wert gesetzt wurde und/oder dass kein / oder kein guter Schärfefilter (der Prinzipbedingt notwendig ist durch das hitter Muster der subpixel samples) genutzt wurde?
Im Zweifel LoD per externem Tool einstellen und rCAS per reshade justieren.
Ich vermute was partiellen Blur (also den Blur von nur Teilelementen) angeht hat man die Wahl zwischen temporal unstabilen Artefakten (grizzeln, moire, aufpixeln) oder blur. Das gilt für die Pixel wo es aus den Vorframea keine validen Samples gab. Das menschliche Auge ist evolutionär auf sich bewegende / sich ändernde Dinge trainiert. Insofern kann blur hier die besser Wahl (bzw. der bessere Kompromiss) sein.
Mit welchem externen Tool kann man Textur LoD anpassen?
Und bezüglich geflimmer: Kommt aufs Spiel drauf an. Beispielsweise solche Spiele wie Riftbreaker sind m.M.n ohne AA besser dran unter 4k 27". Da nehme ich lieber geflimmer, als dass alles aussieht, als hätte ich totaler Matsch. (Wobei natürlich DLDSR bei Verfügbarkeit auch ganz nett ist).
Ich finde das ja auch immer so komisch bei Leuten, die so auf Bewegtschärfe pochen, dann aber mit der Einstellung kommen.
Aber am Ende ist es hald wie bei Auflösung vs. FPS. Ist hald Geschmackssache.
robbitop
2024-07-12, 16:54:16
Mit welchem externen Tool kann man Textur LoD anpassen?
NV Inspector zB
aufkrawall
2024-07-12, 18:17:06
Kommt doch kaum noch vor und ändert an temporaler Unschärfe nichts.
Macht außerdem ständig Grafikfehler, wenn man es über den Treiber forciert.
Platos
2024-07-12, 22:38:10
Bis auf ein paar Disclussion Probs an den Bäumen sehe ich jetzt da auch nichts.
Wo soll da jetzt "total" unscharf sein in Bewegung? Muss wohl blind sein.
(Edit: am besten sichtbar auf der Rinde des Baums und des Farns direkt rechts neben dem Baum auf den 2 Bildern "DLSS 3 stehen" und "DLSS 3 gehen"). Bilder bitte in Fullscreen betrachten (Bild in neuem Tab öffnen)
Also, ich habe nun mal Horizon installiert und Screenshots gemacht. Wie erwartet. DLSS matscht. Habe Nativ(also ohne AA), SMAA und DLSS getestet. Nativ und SMAA matschen nicht.
Ich habe es jeweils so gemacht, dass ich gerade auf den Baum zu gelaufen bin, also d.h das Bild im bewegten Zustand ist näher am Baum dran, was bedeutet, dass das Bild im stehen weiter weg ist (also potentiell noch Nachteile hat). Gerade drauf zu laufen, nicht seitwärts, weil bei einer Seitwärtsbewegung testet man im Grund auch den Monitor mit und da spielt die Framerate auch ne Rolle. Läuft man gerade auf ein Objekt zu, bleibt es in der Monitor-Mitte und bewegt sich somit kaum (Also geringste Monitor- und FPS-Verfälschung). Das ist natürlich nur für mich als Tester relevant. In Screenshots sieht man das ja nicht mit dem Monitor.
Hier die Bilder:
DLSS stehend:
https://www.directupload.eu/file/d/8613/bsjckkni_jpg.htm
DLSS gehend:
https://www.directupload.eu/file/d/8613/8ny8npt8_jpg.htm
Nativ ohne AA stehend:
https://www.directupload.eu/file/d/8613/ik9ac7eu_jpg.htm
Nativ ohne AA gehend:
https://www.directupload.eu/file/d/8613/adm6n9j8_jpg.htm
SMAA AA stehend:
https://www.directupload.eu/file/d/8613/gnqkgyec_jpg.htm
SMAA gehend:
https://www.directupload.eu/file/d/8613/upqc676d_jpg.htm
Es blurrt bei DLSS überall bei Bewegung, aber natürlich sehr gut zu sehen auf dem Baumstamm oder der nahen Vegetation, z.B dem Farn direkt neben dem Baum (bei Zeug, das weit weg ist, ist es ja ohnehin nicht so gut sichtbar).
Wenn du jetzt das nicht siehst, weiss ich auch nicht...
DLAA hat das Spiel jetzt aber leider nicht, soweit ich das sehe. Könnte man natürlich jetzt mit Tools sicherlich erzwingen.
Edit: Die restlichen Settgins sind auf Ultra jeweils (ausser eben die AA-Einstellugnen) und immer 4k Anzeigeauflösung.
Ich habe gesehen gerade, dass das Bild mit DLSS das ist, was am weitesten weg ist vom Baum. Für die Leute, für die das jetzt nicht so gut sichtbar ist, habe ich nochmals 4 Bilder mit DLSS gemacht näher am Baum. Einmal wieder gerade drauf zu laufend und einmal nach rechts laufend (das ist am besten gelungen, da sieht man es am besten auf Baum und Farn):
DLSS stehen 2:
https://www.directupload.eu/file/d/8613/ureip55h_jpg.htm
DLSS gehen 2:
https://www.directupload.eu/file/d/8613/uuajtonm_jpg.htm
DLSS stehen 3:
https://www.directupload.eu/file/d/8613/czidmym9_jpg.htm
DLSS gehen 3:
https://www.directupload.eu/file/d/8613/maix46hf_jpg.htm
aufkrawall
2024-07-12, 23:14:10
War noch nie bei DF so zu sehen, hast du wohl gefälscht. :tongue:
basix
2024-07-13, 08:26:38
Seitdem das NV Sharpen nicht mehr da ist, ist der Effekt aber deutlich schwächer geworden. Er ist vorhanden und wird bei allen Temporalen Upsamplern vorhanden sein, da muss man sich keine Illusionen machen. Und er wird natürlich stärker, desto tiefer die Output- wie auch Renderauflösung werden. Ist ein vom Prinzip her wie bei TAA: Bei 4K sieht TAA ganz OK aus und in 1080p einfach übel.
Bei FSR2 war der Blur in Bewegung meistens nur sehr schwach ausgeprägt, weiss aber nicht wie das neu bei FSR3.1 aussieht. Für mich war damals die geringe Blur-Neigung einer der grossen Vorteile gegenüber DLSS.
Platos
2024-07-13, 15:19:02
Seitdem das NV Sharpen nicht mehr da ist, ist der Effekt aber deutlich schwächer geworden. Er ist vorhanden und wird bei allen Temporalen Upsamplern vorhanden sein, da muss man sich keine Illusionen machen. Und er wird natürlich stärker, desto tiefer die Output- wie auch Renderauflösung werden. Ist ein vom Prinzip her wie bei TAA: Bei 4K sieht TAA ganz OK aus und in 1080p einfach übel.
Bei FSR2 war der Blur in Bewegung meistens nur sehr schwach ausgeprägt, weiss aber nicht wie das neu bei FSR3.1 aussieht. Für mich war damals die geringe Blur-Neigung einer der grossen Vorteile gegenüber DLSS.
Also ich habs bei Horizon noch nicht getestet, aber bei the witcher habe ich damals dlss 3.5.1 (glaube die hiess so) getestet und ich konnte da keinen signifikanten Unterschied erkennen. Hat immer noch geblurrt. Aber vlt. ist das bei dem Spiel auch besonders schlecht implementiert.
Oder hat das nichts mit der dll Version zu tun und ist fest in manchen Spielen implementiert?
FSR habe ich noch nicht in Horizon getestet. Was man so hört, scheint die Qualität von FSR (unabhängig von der Version) von Spiel zu Spiel stark zu schwanken. Weil auch bei Witcher 3 empfand ich es als grausig (es bröselt, so ähnlich dem Prinzip von Sonys Checkerboard-Rendering und das hasse ich persönlich). Aber muss ich mal testen.
Und warum wird es mit NV Shapren unschärfer ? Hört sich für mich erstmal widersprüchlich an.
Und: Und ja, es sieht "ganz ok" aus auf 4k (die Screenshots sind 4k Ausgabeauflösung). Aber auch nur, weil man im Hinterkopf hat, dass es eben Perfomance bringt. Ansonsten finde ich eben nicht, dass es "ok" aussieht bis zu 4k. Da muss man schon weitaus höher gehen. Nutze ich DLDSR 2.25 + DLSS ist das deutlich besser. Aber natürlich kostet das ordentlich Perfomance...
Also kurz gesagt: Für mich ist DLSS nur was, wenn es wirklich darum geht, dass ich sonst in (für mich) unspielbare FPS-Bereiche komme. Aber "besser als nativ", wie viele sagen, empfinde ich einfach als Bullshit. Es ist temporal stabil, das stimmt. Aber das ist ja auch keine Kunst, wenn man dafür Bildschärfe ofpert. Wenn man Scharfe kanten stark "blurrt", wird es temporal stabil... Das ist keine Weltneuheit. Und ich spiele auf 60FPS. Wenn ich mal auf 120/144FPS gehe, dann erwarte ich, dass ich eine deutlich gesteigerte Bewegtschärfe habe und genau hier geht dann dieses Blurry-Zeug noch viel weniger. Dann ist ja der ganze Sinn dahin für mich (weil ich war noch nie Latenz-empfindlich).
DLAA oder DLDSR + DLSS oder nur DLDSR ist ne coole Sache. Aber ansonsten empfinde ich DLSS als Blurr-Filter. Und ja ich weiss, dafür brauchts ordentlich perfomance. Ein Vorteil, wenn man Spiele erst 1-2 Jahre nach Release kauft, wenn sie schon potentiell "alt" sind. Aber es hat natürlich auch nicht jeder eine High-End GPU. Und ich kann ja auch verstehen, wenn jemand lieber blurry und dafür temporal stabil hat, genau so muss man aber auch verstehen, dass andere lieber nicht matsch haben und mit etwas temporaler instabilität leben können (in 4k ist die nicht sooooo hoch).
Ich brauch 8k :D Dann nutze ich vlt. DLSS Quality:biggrin:
aufkrawall
2024-07-13, 15:23:44
Also ich habs bei Horizon noch nicht getestet, aber bei the witcher habe ich damals dlss 3.5.1 (glaube die hiess so) getestet und ich konnte da keinen signifikanten Unterschied erkennen. Hat immer noch geblurrt. Aber vlt. ist das bei dem Spiel auch besonders schlecht implementiert.
Oder hat das nichts mit der dll Version zu tun und ist fest in manchen Spielen implementiert?
Wenn du nur die DLL ersetzt, nutzt das Spiel weiterhin das schon erwähnte unausstehliche Preset A. Falls sie das mit noch neueren DLLs nicht nun mit E überschreiben, ist mir aber nicht bekannt.
Preset via Inspector oder DLSSTweaks überschreiben. Mit DLSSTweaks kannst du auch das HUD aktivieren, das dir das genutzte Preset anzeigt.
Und warum wird es mit NV Shapren unschärfer ? Hört sich für mich erstmal widersprüchlich an.
Weil es der größte Müll war, den Nvidia je fabriziert hatte. Ist seit 2.5.1 aber tot.
Leider ist der Ersatz NIS auch grotesker Schrott und führt absurdes temporales Aliasing ein.
Ex3cut3r
2024-07-13, 15:30:05
Bilder
Hau doch bei DLSS Q CAS via Reshade rein, dann hast du auch keine leichte Unschärfe mehr. Plot Twist, 1440p (intern) ist nun mal unschärfer als Nativ.
Bei meinen Screens z. B. weiter oben mit God of War nutze ich CAS bei DLSS Q.
aufkrawall
2024-07-13, 15:32:06
Sharpen bringt gar nichts dagegen, dass das Bewegtbild unschärfer wird als das Standbild. Ist nun wirklich keine besonders komplexe Logik hinter diesem Sachverhalt.
Platos
2024-07-13, 15:55:25
Wenn du nur die DLL ersetzt, nutzt das Spiel weiterhin das schon erwähnte unausstehliche Preset A. Falls sie das mit noch neueren DLLs nicht nun mit E überschreiben, ist mir aber nicht bekannt.
Preset via Inspector oder DLSSTweaks überschreiben. Mit DLSSTweaks kannst du auch das HUD aktivieren, das dir das genutzte Preset anzeigt.
Stimmt, ich muss mal die anderen Presets in horizon testen.
Dass man das nicht gleich in jedem Spiel machen kann so irgendwo unter erweiterte Optionen nervt aber schon...
The_Invisible
2024-07-13, 16:07:02
War noch nie bei DF so zu sehen, hast du wohl gefälscht. :tongue:
Stimmt DF hat ja nur SidebySide-Videovergleiche mit exakt gleichen Szenen, bei den Screenshots oben sind sinds sogar unterschiedliche Blickwinkel.
Wobei ich noch immer nicht ganz verstehe was hier Platos beweisen will nach 4 Jahren DLSS2 was eh nicht schon bekannt ist...
aufkrawall
2024-07-13, 16:14:44
Stimmt DF hat ja nur SidebySide-Videovergleiche mit exakt gleichen Szenen, bei den Screenshots oben sind sinds sogar unterschiedliche Blickwinkel.
Wenn man sich doof stellen will, kann man das natürlich als Argument nehmen. Wär bestimmt schärfer, wär der Baum drei Pixel weiter rechts...
Deisi
2024-07-13, 16:20:23
Ich weiss. Bubbles wollen am liebsten keine Kritik haben und nur untereinander sich selbst verstärken und sich ja nie mit Problemen beschäftigen.
Weil dir das alles schon vor einem halben Jahr erklärt wurde:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=600122&page=293
Nein, nein und nein. Ein Vergleich mit einem Bild, bei dem fast jeder Pixel aus Aliasing besteht, ist idiotisch. Wie will man da subjektiv zwischen Details und Aliasing unterscheiden? Geht nicht. Logik hilft beim Denken...
The_Invisible
2024-07-15, 07:41:19
Herr Krawall weht halt auch wie eine Fahne im Wind, je nachdem welche GPU er gerade besitzt, da verlasse ich mich lieber auf diese unsäglichen genauen NV biased Reviews lol
dildo4u
2024-07-15, 08:33:04
Schätze AMD kann nicht einfach Epic Lösungen nutzen fand ich interessant das es besser in Bewegung arbeitet.(Geschütze IP?)
Du kannst jetzt das Problem haben das Konsolen FSR 3.0 nutzen obwohl TSR besser wäre.
3.1 sollte zumindest erlauben Framegen mit besseren Upsampling zu nutzen.
Lurtz
2024-07-15, 11:08:25
Herr Krawall weht halt auch wie eine Fahne im Wind, je nachdem welche GPU er gerade besitzt, da verlasse ich mich lieber auf diese unsäglichen genauen NV biased Reviews lol
Im Gegenteil, er ist einer der wenigen hier, der es schafft auf allen Seiten belegte Vor/Nachteile aufzuzählen, statt ein Feature zu verherrlichen nur weil es von einem bestimmten Hersteller kommt.
Macht natürlich auf beiden Seiten unbeliebt, wenn man nicht alles 100% hochjubelt.
aufkrawall
2024-07-15, 15:15:04
Besonders bei Fanboys, die nie auch nur irgendetwas von ihrem Lieblingshersteller kritisieren, stattdessen nur relativieren (oder ad hominems bringen).
Screenshots von Guru3D geklaut:
https://i.pilt.io/images/2024/07/14/GEdEC.png
https://i.pilt.io/images/2024/07/14/GElfg.png
Manche Kanten sehen mit DLSS Preset E so pixelig aus wie mit 2xMSAA, wesentlich schlechter als mit Preset C (was da auch schon nicht gut ist). Hat afaik DF auch mal wieder "übersehen"...
robbitop
2024-07-15, 15:27:47
Im Gegenteil, er ist einer der wenigen hier, der es schafft auf allen Seiten belegte Vor/Nachteile aufzuzählen, statt ein Feature zu verherrlichen nur weil es von einem bestimmten Hersteller kommt.
Macht natürlich auf beiden Seiten unbeliebt, wenn man nicht alles 100% hochjubelt.
This :up:
aufkrawall
2024-07-15, 15:33:51
Ich nehme für mich auch nicht in Anspruch, nie meine Meinung gewechselt zu haben. Ich sage auch ständig, dass DLSS manche Dinge mit Abstand am besten bzw. als einziges gut machen kann. Ändert halt nichts an den Problemen, und dann muss man abwägen. Scheint für manche trotzdem ein rotes Tuch zu sein. :freak:
Verwandschaft mit 4090 4k hat btw. auch fest auf Preset C global im Inspector gepinnt. Für den ist DLSS wichtig und mit Kauf entscheidend, trotzdem mag er Preset E überhaupt nicht...
robbitop
2024-07-15, 16:52:50
Seine Meinung zu wechseln ist etwas was sinnvoll sein kann. Zumindest wenn es einen Erkenntnisgewinn gibt. Wer stur immer die gleiche Meinung hat unabhängig von den Randbedingungen und Erkenntnissen ist nicht objektiv und wird sich nie weiterentwickeln. Wer immer möglichst das Beste aus sich herausholen will, wird natürlich seine Meinung anpassen/ändern sollten neue Erkenntnisse oder andere Randbedingungen dazu führen.
Merkwürdig dass stures Verhalten offenbar bei vielen (ich erlebe es immer wieder dass Meinungsänderung als negativ empfunden wird) positiv assoziiert ist.
rentex
2024-07-15, 20:16:43
Seine Meinung zu wechseln ist etwas was sinnvoll sein kann. Zumindest wenn es einen Erkenntnisgewinn gibt. Wer stur immer die gleiche Meinung hat unabhängig von den Randbedingungen und Erkenntnissen ist nicht objektiv und wird sich nie weiterentwickeln. Wer immer möglichst das Beste aus sich herausholen will, wird natürlich seine Meinung anpassen/ändern sollten neue Erkenntnisse oder andere Randbedingungen dazu führen.
Merkwürdig dass stures Verhalten offenbar bei vielen (ich erlebe es immer wieder dass Meinungsänderung als negativ empfunden wird) positiv assoziiert ist.
+1 Die Leute mögen Beständigkeit. Empfinde aktuell DLSS als Bereicherung und Möglichkeit meine Karte länger zu nutzen.
Exxtreme
2024-07-20, 15:26:24
DLSS 3.7.20 ist da:
https://www.techpowerup.com/download/nvidia-dlss-dll/
Troyan
2024-07-20, 15:40:08
Musst du dir nicht runterladen, wenn du den aktuellen Treiber hast. Die Dlls kommen jetzt per Treiber dank DirectSR.
Oliver_M.D
2024-07-20, 15:54:15
Musst du dir nicht runterladenAußer man will Treiber nicht updaten:biggrin:. Schön dass die DLLs endlich per Treiber geupdatet werden, wurde echt mal langsam Zeit dafür.
Hoffe jetzt muss man sich nicht mehr mit DLL Wechseln beschäftigen, oder sich stress machen wenn entwickler alte DLLs shippen.
aufkrawall
2024-07-20, 16:01:53
Ist die Frage, wann das mal genutzt wird. Bislang shipt jedes Spiel immer noch seine eigene DLL. Und für das Umleiten vom Pfad gits schon lange Funktionalität von Nvidia, die aber offiziell wohl auch nie genutzt worden ist.
Platos
2024-07-20, 16:27:59
Wie soll das denn gehen per Treiber, solange Spiele noch ihre eigenen dll haben? Und wenn Spiele dann nicht mehr ihre eigenen dll haben, wie ändere ich sie dann als Nutzer noch manuell, wenn mir nvidias Ansicht nicht passt mit (es gab ja schon einige neuere Versionen, die bei A Fortschritt machten und dafür bei B einen Rückschritt). Und dann kommt noch das Preset. Wie ändere ich das dann?
Für mich hört sich das eher so an, als könnte man dann als Nutzer nicht mehr selber drauf zugreifen und beispielsweise Presets ändern.
aufkrawall
2024-07-20, 16:31:54
Mit DLSSTweaks vermutlich ohne Weiteres nicht mehr, aber per NVAPI/Inspector geht hoffentlich weiterhin.
The_Invisible
2024-07-20, 17:12:37
Wie soll das denn gehen per Treiber, solange Spiele noch ihre eigenen dll haben? Und wenn Spiele dann nicht mehr ihre eigenen dll haben, wie ändere ich sie dann als Nutzer noch manuell, wenn mir nvidias Ansicht nicht passt mit (es gab ja schon einige neuere Versionen, die bei A Fortschritt machten und dafür bei B einen Rückschritt). Und dann kommt noch das Preset. Wie ändere ich das dann?
Für mich hört sich das eher so an, als könnte man dann als Nutzer nicht mehr selber drauf zugreifen und beispielsweise Presets ändern.
Der Standardsuchpfad für DLLs von Windows fängt immer im Verzeichnis der .exe an, kannst also dann noch immer "überschreiben" wenn nicht gerade irgendwelche dll verbiegungen stattfinden.
aufkrawall
2024-07-20, 17:14:11
Das geht nicht, wenn die Anwendung das nicht will. Kannst dem Browser auch keine dxgi.dll in seinem Verzeichnis unterjubeln.
The_Invisible
2024-07-20, 17:26:51
Was du nicht sagst... wenn die dll nicht mehr mitgeliefert wird, wird die system dll geladen von nvidia. wennst die dll in den ordner der exe kopierst wird diese zuerst geladen außer die anwendung fordert einen statischen pfad an...
aufkrawall
2024-07-20, 17:29:28
Und woher willst du jetzt wissen, was Spiele mit genutzter DirectSR-API machen? Glaskugel?
The_Invisible
2024-07-20, 17:37:48
Weiß man eh noch nicht, aber statisch wär einfach dumm... vielleicht bietet da ja wirklich Nvidia eine Möglichkeit oder per DirectSR wird was umgebogen. Dass das Anwendungsverzeichnis ignoriert wird, glaube ich aber kaum.
Exxtreme
2024-07-20, 17:54:05
Und woher willst du jetzt wissen, was Spiele mit genutzter DirectSR-API machen? Glaskugel?
Wenn ein Programm das DLL-Suchverhalten nicht explizit festlegt, ist es so, dass zuallererst im Verzeichnis der .exe nach DLLs gesucht wird. Dieses Verhalten ist dokumentiert.
aufkrawall
2024-07-20, 18:13:05
Nur lädt ein Programm nicht einfach alle möglichen DLLs, nur weil sie im Verzeichnis rumliegen. Witcher 3 lädt etwa auf Radeon die DLSS-DLL nicht in den Prozess. Eben weil es am Loader-Code hängt, und der ändert sich mit DirectSR. Und DirectSR existiert genau dafür, dass Spiele nicht mehr Custom-Kram für TAAU im Verzeichnis rumschleppen. Also abwarten.
Platos
2024-07-20, 18:28:19
Könnte es denn nicht auch sein, dass das mit dem Treiber kommt (also in diesen integriert ist) und somit nicht mehr änderbar ist (da man sonst den Treiber modifiziert und somit nicht signierte Treiber hat)?
Troyan
2024-07-20, 18:37:02
Wie soll das denn gehen per Treiber, solange Spiele noch ihre eigenen dll haben? Und wenn Spiele dann nicht mehr ihre eigenen dll haben, wie ändere ich sie dann als Nutzer noch manuell, wenn mir nvidias Ansicht nicht passt mit (es gab ja schon einige neuere Versionen, die bei A Fortschritt machten und dafür bei B einen Rückschritt). Und dann kommt noch das Preset. Wie ändere ich das dann?
Für mich hört sich das eher so an, als könnte man dann als Nutzer nicht mehr selber drauf zugreifen und beispielsweise Presets ändern.
Mit DirectSR liefert der Treiber die Sourcen (dll). Aktuell ist es irrelevant.
aufkrawall
2024-07-20, 18:40:58
Könnte es denn nicht auch sein, dass das mit dem Treiber kommt (also in diesen integriert ist) und somit nicht mehr änderbar ist (da man sonst den Treiber modifiziert und somit nicht signierte Treiber hat)?
Dürfte egal sein. Dateien von Usermode-Modulen müssen nur gültige Signaturen haben, dann kann man im DCH-Verzeichnis mit entsprechenden Schreibrechten wechseln, wie man lustig ist.
Aber die DLSS-DLL muss wahrscheinlich erstmal DirectSR überhaupt unterstützen (keine Ahnung, ab welcher Version der Fall). Ich kann aber auch deine Sorge da nicht nachvollziehen, sofern die NVAPI-Methode zur Preset-Auswahl nicht abgeschafft wird. Was ich wirklich nicht glaube, weil Nvidia solche Dinge für gewöhnlich verlässlich unterstützt. Die eigentliche Zäsur war bereits DLSS 3.
Exxtreme
2024-07-20, 18:50:33
Nur lädt ein Programm nicht einfach alle möglichen DLLs, nur weil sie im Verzeichnis rumliegen.
Ja, das ist korrekt. Man muss das Laden einer externen DLL manuell anstoßen.
https://learn.microsoft.com/de-de/windows/win32/api/libloaderapi/nf-libloaderapi-loadlibrarya
Ist es so, dass Windows dann nach einer Prioritätenliste vorgeht welche DLL geladen werden soll wenn man das Suchverhalten nicht explizit umkonfiguriert. Und die DLLs im Programmverzeichnis sind sehr weit oben in der Priorität. Nur noch die DLLs in %windir%\WinSxS werden AFAIR noch höher priorisiert.
Musst du dir nicht runterladen, wenn du den aktuellen Treiber hast. Die Dlls kommen jetzt per Treiber dank DirectSR.
Wenn jetzt noch Change Logs beilägen ... :)
MfG
Raff
The_Invisible
2024-07-20, 21:12:10
Ja, das ist korrekt. Man muss das Laden einer externen DLL manuell anstoßen.
https://learn.microsoft.com/de-de/windows/win32/api/libloaderapi/nf-libloaderapi-loadlibrarya
Ist es so, dass Windows dann nach einer Prioritätenliste vorgeht welche DLL geladen werden soll wenn man das Suchverhalten nicht explizit umkonfiguriert. Und die DLLs im Programmverzeichnis sind sehr weit oben in der Priorität. Nur noch die DLLs in %windir%\WinSxS werden AFAIR noch höher priorisiert.
Gibt eh offizielle Doku dazu: https://learn.microsoft.com/en-us/windows/win32/dlls/dynamic-link-library-search-order
Wie gesagt, wenn keine spezielle redirection konfiguriert ist, kann man es einfach neben die exe kopieren und wird vorgereiht, Datei muss natürlich gleich heißen und kompatibel sein. Werden ja auch gerne dx-dll dateinamen benutzt um so funktionalität zu implementieren da sie vor den system-dlls geladen werden. Aber gut, heavy Speku natürlich alles
qu3x^
2024-07-23, 12:53:15
elig aus wie mit 2xMSAA, wesentlich schlechter als mit Preset C (was da auch schon nicht gut ist). Hat afaik DF auch mal wieder "übersehen"...
Ich musste sowas auch bei meiner Timesink, Deep Rock Galactic, feststellen als die Nasen auf DLSS3 upgedated haben.
DLSS 3 benötigt unbedingt eine Preset-Anpassungen damit DLAA wieder ordentliche Qualität liefert. Default ist zum Kotzen :uroll:
tl; dr DLSS 2.5.1 reinschmeißen, kein Gefrickel und gut ists.
Dann bin ich über das hier gestoßen und hab mal selbst durch getestet.
r/FuckTAA/Transform DLSS to DLAA without game modifications, like DLSSTweaks - Nvidia Inspector (https://www.reddit.com/r/FuckTAA/comments/16zsr9y/transform_dlss_to_dlaa_without_game_modifications/)
DRG_1.39.x_DLSS_2.5.1_DLAA-FSR1
https://s20.directupload.net/images/240723/temp/44majucs.png (https://www.directupload.eu/file/d/8624/44majucs_png.htm)
DRG_1.39.x_DLSS_3.7.20_pA_DLAA-FSR1
https://s20.directupload.net/images/240723/temp/3wmrytau.png (https://www.directupload.eu/file/d/8624/3wmrytau_png.htm)
DRG_1.39.x_DLSS_3.7.20_pB_DLAA-FSR1
https://s20.directupload.net/images/240723/temp/za24y7x3.png (https://www.directupload.eu/file/d/8624/za24y7x3_png.htm)
DRG_1.39.x_DLSS_3.7.20_pC_DLAA-FSR1
https://s20.directupload.net/images/240723/temp/aj9eipmm.png (https://www.directupload.eu/file/d/8624/aj9eipmm_png.htm)
DRG_1.39.x_DLSS_3.7.20_pD_DLAA-FSR1
https://s20.directupload.net/images/240723/temp/amnm36uc.png (https://www.directupload.eu/file/d/8624/amnm36uc_png.htm)
DRG_1.39.x_DLSS_3.7.20_pE_DLAA-FSR1
https://s20.directupload.net/images/240723/temp/izqy97vv.png (https://www.directupload.eu/file/d/8624/izqy97vv_png.htm)
DRG_1.39.x_DLSS_3.7.20_pF_DLAA-FSR1
https://s20.directupload.net/images/240723/temp/4yc96szk.png (https://www.directupload.eu/file/d/8624/4yc96szk_png.htm)
Ex3cut3r
2024-07-23, 18:55:45
Danke. Aber wurde hier schon ewig vorgeschlagen von Krawall und anderen.
Habe meinen Post von Mai gefunden.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13545532#post13545532
qu3x^
2024-07-23, 19:14:59
Danke. Aber wurde hier schon ewig vorgeschlagen von Krawall und anderen.
Habe meinen Post von Mai gefunden.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13545532#post13545532
Jain, nur dass es hier speziell um DLAA geht und Preset E schlicht weg shice ist. Egal für welchen Anwendungszweck.
robbitop
2024-07-23, 19:16:38
Welches Preset ziehst du denn vor und warum? C?
aufkrawall
2024-07-23, 19:32:26
tl; dr DLSS 2.5.1 reinschmeißen, kein Gefrickel und gut ists.
Sieht deinen Screenshots nach zu urteilen aus, als wär mit der 3.x DLL NIS aktiviert: üble Überschärfungsartefakte überall.
Ist mir auch nach wie vor wirklich unbegreiflich, wie man bei Machine Learning so ein Pionier sein kann, und dann gleichzeitig zu unfähig für einen simplen Sharpen Shader ist, der nicht sofort das ganze Bild zerstört. :freak:
qu3x^
2024-07-23, 19:38:34
Welches Preset ziehst du denn vor und warum? C?
Wenn ich mit der DLSS 3 DLL weiterspielen sollte Preset F für diese Spiel, wegen der besseren Kantenstabilität & -glättung, jedoch läuft auch alles klaglos mit der 2.5.1er.
Der Move hin zu DLSS 3 bei DRG ist für mich weitgehend unverständlich. Sinn macht es absolut keinen denn FG ist erst ab einer RTX 40x Karte verfügbar. D läuft das Spiel sowieso wie geschmiert. Selbst auf einer 1080Ti hast angenagelte 144 fps in 1080p. Mir ist in der neuen Season aufgefallen dass es nicht mehr so hübsch aussah weswegen ich mir das mal näher ansehen wollte mit den Presets unter DLSS3
Ex3cut3r
2024-07-23, 19:45:38
Jain, nur dass es hier speziell um DLAA geht und Preset E schlicht weg shice ist. Egal für welchen Anwendungszweck.
DLAA wird im Bild einen Reiter hoher aktiviert im Inspector. Post nicht mal angesehen/gelesen. Schade. :redface:
Preset E ist ein verbessertes D -> genau das gleiche, was du so lobst, nur ohne Smearing Effekt bei Stillstand im Bild.
Deine Beweggründe, warum E deshalb schlecht sein soll, und D "Super" sind nicht nachvollziehbar. Aber gut, jeder wie der denkt, meint.
qu3x^
2024-07-23, 20:20:16
Sieht deinen Screenshots nach zu urteilen aus, als wär mit der 3.x DLL NIS aktiviert: üble Überschärfungsartefakte überall-
Vll. sind auch meine alten Augen schon sehr müde, was verstehst du als Artefakt?
Deine Beweggründe, warum E deshalb schlecht sein soll, und D "Super" sind nicht nachvollziehbar. Aber gut, jeder wie der denkt, meint.
Bitte quote mich wo ich schreibe das D besser aussieht. Reim dir doch nix zusammen.
"Force all quality levels to DLAA" ist a nichtssagend und funkt nicht vs. der Aussage Use Preset F for DLAA stuff und siehe da it just works!
Abschließend ein Bild mit Deiner Empfehlung, kA was du da nicht siehst das E typische "2x MSAA" Kantenglättung erzeugt.
Executioner Eyesore
https://s20.directupload.net/images/240723/temp/qeiif9vh.png (https://www.directupload.eu/file/d/8624/qeiif9vh_png.htm)
Force all quality levels to DLAA - On
Preset E
Ex3cut3r
2024-07-23, 20:55:18
Ok. Für DLAA scheint E wirklich nicht so gut zu sein. Da gibt es mehr Aliasing, gut sichtbar an den Säulen. Für Q, B, P sieht es aber anders aus, das Ding ist, ich benutze kein DLAA, da natives 4K Display.
aufkrawall
2024-07-23, 21:54:27
Vll. sind auch meine alten Augen schon sehr müde, was verstehst du als Artefakt?
Hier in erster Linie das Aliasing. NIS ist absurd schlechtes Sharpen, indem es überall Aliasing einführt, sowohl im Standbild als auch temporal.
Preset E hat schon ein Aliasing-Problem, und NIS betont das dann nochmal zusätzlich. Völlig bekloppt.
Für Q, B, P sieht es aber anders aus, das Ding ist, ich benutze kein DLAA, da natives 4K Display.
Nervt auch mit Q, B und P, wenn man nah genug am Schirm ist. Preset E ist nicht einfach das Beste aus beiden Welten von C & D, das unschöne Aliasing von D hat man leider mit übernommen. Gibt überall Aliasing-Vierecke in Vegetation, wenn sich diese nicht/kaum bewegt.
vinacis_vivids
2024-07-23, 22:10:56
Super-duper DLSS wird mit Raster-HLSL nochmal "nachgeschärft". Köstliche Diskussion hier :-)
aufkrawall
2024-07-23, 22:20:48
Warum geierst du bei den mitunter wesentlich größeren Problemen von FSR Upsampling nicht genauso gehässig rum?
Super-duper DLSS wird mit Raster-HLSL nochmal "nachgeschärft". Köstliche Diskussion hier :-)
Was genau ist Raster-HLSL und wie schärft man damit nach?
TheAntitheist
2024-07-24, 18:29:01
Was genau ist Raster-HLSL und wie schärft man damit nach?
er hat nie Ahnung wovon er redet, HLSL ist ja die Shadersprache für zB DX, die benutzt AMD genauso... einfach Hirnverbrannter Bullshit
aufkrawall
2024-07-24, 18:50:55
FG vorübergehend aus Dying Light 2 wegen Treiber-Problemen gelöscht...
https://steamcommunity.com/app/534380/discussions/0/4523386757646165611/
Lurtz
2024-07-24, 21:24:41
Das zieht sich bei DLSS FG auch so durch... Scheint auch nicht so sorgenfrei zu implementieren sein, wie das gegen FSR FG gerne mal als Argument verwendet wird.
Außerdem bricht nVidia es immer mal in bestimmten Treiberversionen, ohne dass Entwickler was dagegen machen können.
Das zieht sich bei DLSS FG auch so durch... Scheint auch nicht so sorgenfrei zu implementieren sein, wie das gegen FSR FG gerne mal als Argument verwendet wird.
Außerdem bricht nVidia es immer mal in bestimmten Treiberversionen, ohne dass Entwickler was dagegen machen können.
Immernoch besser als wenn user mit neuen Treibern gebannt werden können *hust* AMD...
Das ist echt ein Running Gag. Aber kein guter. :ugly:
MfG
Raff
TheAntitheist
2024-07-25, 04:33:26
Das ist echt ein Running Gag. Aber kein guter. :ugly:
MfG
Raff
gut aber traurig eher :D aber wenns nur das wäre.
Troyan
2024-07-29, 18:27:18
Gab es hier nichtmal eine Diskussion, dass 1440p mit DLSS Quality besser wäre als 4K mit DLSS Performance? Hier mal ein Vergleich zwischen 1440 nativ, 1440p Q und 4K P: https://www.youtube.com/watch?v=WSIg89lQZ04
Im Grunde macht es kein Sinn mehr 1440p zu kaufen.
Relex
2024-07-29, 18:52:39
Ich glaube ich hatte mal so nen Vergleich gemacht, aber im Monitor thread.
Bei schwierigen Situationen (Raytracing) kann 1440p Quality durchaus stabiler sein und etwas weniger Artefakte zeigen, als 4K Performance. Dafür ist es eben sehr viel unschärfer.
Die Performance ist auch höher, was in besserer Bewegtbildschärfe mündet und der VRAM Verbrauch ist geringer.
Der Schärfegewinn und die allgemeine Qualität sind aber in 4K trotzdem so massiv besser, dass es aus meiner Sicht das eindeutig bessere Bild ergibt. In den meisten Fällen auch deutlich besser als 1440p nativ.
Trotzdem hat alles gewisse Vor und Nachteile. Die Auflösung wird wie ich finde zunehmend irrelevant, da man je nach Display und GPU quasi fast schon stufenlos die Qualität und Bildschärfe hoch und runterschrauben kann.
Ich finde sobald 1440p nativ schnell genug läuft, sollte man überlegen, auf 4K zu gehen.
DLSS Performance läuft schneller und sieht idr. deutlich besser aus bzw. lassen sich damit größere Displays bei gleichbleibendem Sitzabstand bespielen ohne dass es zu unscharf wird.
Und mit DLSS Q bekommt man in 4K qualität die idr. deutlich besser ist als 4K nativ TAA aber jetzt auch nicht wirklich weit von 4K DLAA entfernt ist. In beiden Fällen ist das Bild ultra scharf und fein gezeichnet und kostet nur wenig mehr leistung, als 1440p nativ.
Unterm Strich fühlt sich die Rechenleistung meiner 4080 bei 4K deutlich besser und sinnvoller investiert an, als bei 1440p. Ganz egal, welchen Upscaling Modus man nutzt.
Bei 1440p haste ja im Endeffekt nur zwei Optionen 1440p Nativ und 1440p DLSS Quality.
Bei Quality hatte ich meistens viel mehr Frames als ich brauche und bei 1440p nativ bzw. DLAA bekomme ich nichtmal ansatzweise die Schärfe die ich auf nem 4K Display mit einem gleich schnellen Preset bekomme.
Würde sagen, spätestens ab ner 4070ti Super würde ich 4K empfehlen. Performancemäßig auch mit ner 4070 sicher kein Problem, aber die 12 GB sind halt etwas knapp...
Thunder99
2024-07-30, 20:51:35
Was wäre dann aus deiner Sicht oder Erfahrung besser. 1440p DLAA oder 4k quality?
Je nach Monitor Seitenverhältnis kann aber 1440p der bessere Kompromiss sein?
Relex
2024-07-30, 21:25:38
4K Quality ist meilenweit überlegen. Überhaupt kein Vergleich.
Kostet aber auch mehr Leistung.
Aber wie gesagt, mMn. ist selbst DLSS Performance (intern 1080p) in 4K besser als 1440p mit DLAA.
Man hat einfach keine Chance auf 1440p die Bildschärfe zu erreichen, die in 4K möglich ist.
wolik
2024-07-30, 21:59:10
4K Quality ist meilenweit überlegen. Überhaupt kein Vergleich.
Kostet aber auch mehr Leistung.
Aber wie gesagt, mMn. ist selbst DLSS Performance (intern 1080p) in 4K besser als 1440p mit DLAA.
Man hat einfach keine Chance auf 1440p die Bildschärfe zu erreichen, die in 4K möglich ist.
Warte mal, bist du 8K siehst...
Relex
2024-07-30, 23:30:25
Aus performancesicht sind 8K aktuell komplett sinnfrei, da man selbst mit performance mode Upscaling in 4K rendern müsste.
Mit Ultra Performance käme man zwar auf 1440p runter aber bei dem Faktor 3x pro Achse kommt auch DLSS an seine Grenzen und besonders das AntiAliasing wird deutlich instabiler und die Artefakte nehmen überproprotional zu im Vergleich zum Performance Modus.
Zumal Ultra Performance Upscaling in 8K deutlich fordernder ist, als 4K DLSS Quality oder 1440p nativ. Das schlägt auch übel aufs Speicherinterface und den VRAM verbrauch.
Und Frame Generation kannste auf 8K dann auch vergessen, da die Zwischenbilder viermal so groß sind und entsprechend viel Leistung kosten. Da wird man dann mit FG häufig ne negative Skalierung sehen und mit FG weniger FPS haben als ohne.
Reden wir in 10-15 Jahren nochmal drüber…
robbitop
2024-07-31, 08:41:59
DLSS schlägt bei so hohen outputresolutions (also UP mode mit 8K output) nicht nur auf die Speichermenge und das Speicherinterface (bandbreite). Es kostet tatsächlich dann so viel compute, dass die Frametime deutlich anwächst (oder anders gesagt es kostet dann extrem viel Performance).
Wer sich noch an das NV Marketing mit 8K UP DLSS zum 3090 launch erinnert. Da war 8K mit UP DLSS trotz nur 1440p inputresolution erstaunlich langsam - viel viel viel langsamer als 1440p native. IIRC war das im Bereich von 4K native oder noch langsamer ... ist schon eine ganze Weile her. :D
Relex
2024-07-31, 11:00:31
Jup, Upscaling und FG werden bei so wahnsinnigen Auflösungen unglaublich ineffizient, da man verhältnissmäßig so viel Rechenleistung in diese Algorithmen steckt, dass es sich kaum noch lohnt.
In Zukunft kann sich das durchaus rentieren, wenn die Rechenleistung von GPUs weiter ansteigt und die Kosten für Upscaling und FG im Verhältnis zur restlichen Rechenlast und Leistungsfähigkeit der Karte gering sind.
Aber aktuell ist es Unsinn.
Man hat ja auch bei sehr alten karten schnell bemerkt, dass Upscaling via FSR und auch FG zu teuer sind und man bei weitem nicht den Performanceboost bekommt, den man bei aktuellen Karten bekommt. Für die Hardware ist der Algo einfach zu teuer. Und genau das gleiche sieht man aktuell bei 8K. Die Hardware dafür ist noch lange nicht ready.(außer man spielt irgend was altes oder was aktuelles was auf jedem toaster läuft)
Interessant ist dabei aber trotzdem die Erkenntnis, dass Upscaling und FG so teuer sind, dass das z.B. in den frühen 2010er Jahren selbst wenn man die heutige Software gehabt hätte, gar nicht sinnvoll möglich gewesen wäre, weil viel zu viel Rechenleistung dafür hätte aufgewendet werden müssen.
Eine Playstation 4 kann zwar sehr viele Spiele in nativen 1080p bei 30 FPS rendern, aber 4K mit Performance Mode Upscaling und ggf. noch Frame Generation wäre trotz gleicher Renderauflösung völlig unvorstellbar für die Hardware.
aufkrawall
2024-07-31, 12:02:20
Man bekommt mit einer RX 6600 mit FSR FG mitunter einen ähnlichen Boost wie mit DLSS FG auf einer 4090. Was daran "zu langsam" sein soll, weißt wohl nur du selbst. Mal abgesehen von der Möglichkeit, auf mobilen Geräten Strom zu sparen.
Ex3cut3r
2024-07-31, 12:29:25
Aus performancesicht sind 8K aktuell komplett sinnfrei, da man selbst mit performance mode Upscaling in 4K rendern müsste.
Mit Ultra Performance käme man zwar auf 1440p runter aber bei dem Faktor 3x pro Achse kommt auch DLSS an seine Grenzen und besonders das AntiAliasing wird deutlich instabiler und die Artefakte nehmen überproprotional zu im Vergleich zum Performance Modus.
Zumal Ultra Performance Upscaling in 8K deutlich fordernder ist, als 4K DLSS Quality oder 1440p nativ. Das schlägt auch übel aufs Speicherinterface und den VRAM verbrauch.
Und Frame Generation kannste auf 8K dann auch vergessen, da die Zwischenbilder viermal so groß sind und entsprechend viel Leistung kosten. Da wird man dann mit FG häufig ne negative Skalierung sehen und mit FG weniger FPS haben als ohne.
Reden wir in 10-15 Jahren nochmal drüber…
5K könnte wie 1440p erstmal ein sinnvoller Zwischenschritt sein. Bis 8K günstiger und GPUs mehr Leistung bieten. Bei 4K hat es ja auch erstmal gut 7-10 Jahre gedauert bis es wirklich ankam.
Dank DLSS sehe ich aber keinen Sinn mehr für 1080p und 1440p Displays. 4K DLSS P auf 27" oder 31.5" sehen besser aus DLAA oder Q 1440p auf 27" IMHO
Exxtreme
2024-07-31, 12:34:29
8K ist utopisch für absehbare Zeit. Einfach mal die Monitorauflösung in den Steam-Umfragen anschauen. Da ist schon 4K eine absolute Nische. Ein weiteres Problem ist, dass die Nvidia-Grafikkarten keine passenden Monitoranschlüsse haben um 8K zu betreiben. Mit DP1.4 kommt man da nicht weit. Das ist schon für 4K knapp.
Relex
2024-07-31, 12:45:36
DSC ist das Zauberwort.
AMD bietet aber auch nur DP2.0 mit UHBR 13.5 was für 54 Gbps reicht. Bringt jetzt auch nicht so viel mehr als HMDI 2.1.
Das nächste Problem mit UHBR20 wären dann die ultra kurzen kabel...
So oder so bräuchte man für spieletaugliche Bildwiederholraten incl HDR zwingend DSC (was kein Nachteil ist).
Aber die Diskussion fangen wir jetzt nicht im DLSS Thread an :D
Exxtreme
2024-07-31, 12:56:35
DSC ist vielleicht für 4K gut um auf über 120 Hz zu kommen. 8K ist aber gleichmal die 4-fache Datenmenge ggü. 4K. DSC wird also da 4x so viel entfernen müssen damit es da noch vernünftige Bildwiederholfrequenzen gibt.
Von daher bleibe ich dabei, 8K gibt schon die bestehende Technik nicht vernünftig her. Da hilft auch DLSS nichts weil es schon an ganz anderen Stellen mangelt.
Ex3cut3r
2024-07-31, 13:06:32
"Wir" reden ja auch nicht von jetzt. Sondern was in 5-10 Jahren so der Standard sein wird. 2012 oder 2013. Hat man über 4K genauso gelabert wie du jetzt über 8K.
DrFreaK666
2024-07-31, 13:09:35
Im DLSS-Thread sollte es nicht darum gehen, was in 5-10 Jahren Standard sein könnte.
Versucht es mal https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13588010#post13588010
ChaosTM
2024-07-31, 13:11:39
8k wir irgendwann kommen (müssen), aber der Visuelle Gewinn ist im Vergleich von 1080p vs 2106p bei den momentanen Display Größen vernachlässigbar.
Sobald 42+ Zoll 4k/240er Monitore Mainstream werden (2030?) tut sich da nix.
Platos
2024-07-31, 13:58:54
"Wir" reden ja auch nicht von jetzt. Sondern was in 5-10 Jahren so der Standard sein wird. 2012 oder 2013. Hat man über 4K genauso gelabert wie du jetzt über 8K.
Angeblich soll 8k total Probleme machen in Windows. Also nicht vergleichbar mit 4k damals. Denn wenn man z.B 4k @ 100% Skalierung nutzt, ist das nicht soooo schlimm, wie wenn man 100% Skalierung auf 8k nutzt.
Aber nicht nur wegen der Skalierung. Soll auch vieles irgendwie nicht richtig funktionieren.
Und 8k ist im Monitormarkt nirgendswo für Gamer. Es gibt dieses eine Modell da, welches uralt ist und 3k kostet. Ich sehe auch nix kommen in absehbarer Zeit. Bei 4k gabs relativ Zügig immer wieder neue Modelle. Bei 8k aber nicht...
Und wenn du jetzt 8k 120Hz haben willst, dann gehts sowieso nicht... Dafür bräuchte es wieder einen neuen Displayanschluss, da DSC viele Probleme hat. Ausnahmsweise wäre das Nichtfunktionieren von nvidia DSR kein Problem für mich unter 8k. Dafür aber andere Dinge.
Wenn es 8k@ 120Hz mit guter Bildqualität gibt und nicht mit absurd hohem Stromverbrauch und es keine extremen Probleme mit 8k gibt, werde ich auf 8k umsteigen. Aber so wie es jetzt aussieht, wird 8k noch lange nix für Gamer sein (Monitore).
Relex
2024-07-31, 14:23:35
8k wir irgendwann kommen (müssen), aber der Visuelle Gewinn ist im Vergleich von 1080p vs 2106p bei den momentanen Display Größen vernachlässigbar.
Sobald 42+ Zoll 4k/240er Monitore Mainstream werden (2030?) tut sich da nix.
Kommt auf den Abstand an.
42 Zoll auf 1 m oder 32 Zoll auf 0,75 m wie bei mir macht halt keinen Unterschied. Ist beides ca 50 Grad Sichtfeld die ausgefüllt werden.
8K brauchst halt, wenn du ne wahnsinns Sehkraft hast und dir das noch zu unscharf ist.
Größere Dispalys bei gleichem Sitzabstand, für das 8K ebenfalls sinnvoll sein könnte, kann ich mir aktuell nicht vorstellen.
z.b. 42 Zoll auf 0,75 m Abstand wäre mir dann wirklich viel zu groß mit fast 64 Grad realem FoV.
50 ist für mich so die Grenze. Darüber bekomme ich Motion Sickness bzw. müsste im Spiel das FoV deutlich erhöhen (richtung 100 Grad und mehr). Für Filme daher z.B. schon viel zu viel.
Letztendlich hat alles seine Grenzen. 8K wird sicherlich noch kommen. Aber es wird breits völliger overkill und damit der letzte Auflösungsschritt sein. Und da die diminishing returns so extrem sind wird es wahrscheinlich eine Ewigkeit dauern, bis es sich halbwegs durchsetzt. Wahrscheinlich sehr viel länger als 4K.
Platos
2024-07-31, 14:34:10
8k ist ja auch nicht für Leute, die sagen, mehr wie 4k@42" würde sich nicht gross lohnen bei 70cm Sitzabstand. Für die ist vermutlich auch 1440p bei 27" und "normalem" Sitzabstand schon extrem gut.
Aber ich würde das mal so unterschreiben, dass nach 8k nix mehr kommt bzw. wenn doch, dann wird es sich niemals durchsetzen abseits von irgendwelchen Riesengeräten oder in extrem niedriger Stückzahl.
Und im Beamerbereich bin ich mir nicht so sicher, ob die Projektionsfläche nicht lange vorher der limitierende Faktor ist.
Aber abseits von Gaming gibts ja noch nicht mal 8k Content und ich würde sagen, dass es niemals relevante Mengen an 16k Content geben wird für Privatleute.
Und grössere Displays wind ja mit 55" 8k TVs eig. schon bedient. Die gibts ja schon.
The_Invisible
2024-07-31, 15:26:48
Höhere dpi sind immer besser, würde auch zu 8k@32" nicht nein sagen. Der Unterschied ist ja schon groß zwischen meinen 27" 1440p in der Firma und den 32" 2160p daheim, viel schärfer alles falls die Skalierung halbwegs hinhaut.
Mein neues 14" 1800p OLED Firmennotebook ist da nochmals eine andere Liga, das bitte hochskaliert in 32" und man will gar nicht mehr weg vom Schirm ;)
wolik
2024-08-01, 17:06:55
Aus performancesicht sind 8K aktuell komplett sinnfrei, da man selbst mit performance mode Upscaling in 4K rendern müsste.
OT. Aber Nö. 8K/60FPS mit DLSS Q (oder UL) ist in fast allen Spielen möglich und sieht einfach atemberaubend aus.
Aber für 8K gibt es eigene Threads. Und im gesamten 3DC gibt es nur zwei Leute, die 8K (TV) ihr Eigen nennen.
Relex
2024-08-01, 18:24:44
Nein, das ist einfach komplett falsch. (Außer du schließt mit deinem "fast" jedes moderne Spiel aus)
8K mit Quality Upsampling sind intern 5120x2880.
Das sind bereits 78% mehr Pixel als native 4K.
Dann kommt noch ein gewaltiger Performanceoverhead für das Upscaling oben drauf. 8K dürfte trotz DLSS Q somit etwa doppelt so fordernd wie native 4K sein.
Die allermeisten der aktuellen grafischen Top Spiele laufen aber in 4K selbst auf einer 4090 nicht mit 60 FPS.
Das typische UE5 game braucht bereits in 4K schon Quality upsampling (1440p intern) um mal auf 75 FPS zu kommen:
https://www.computerbase.de/2024-08/nobody-wants-to-die-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd
Von 4K nativ sind wir da mit aktueller Hardware noch weit entfernt, erstrecht da Raytracing (was UE5 Lumen ist) extrem mit der Auflösung skaliert. Jedes zusätzliche gerenderte Pixel kostet mit RT sehr viel Leistung, viel mehr als bei Rastergrafik. Bei nativ 4K bricht die Framerate dann nahe 30 FPS ein, alles darüber, erstrecht 5120x2880 sind völlig utopisch. Und dann reden wir nur von Software Lumen. Ein Spiel mit Hardware Raytracing oder Pathtracing ist idr. nochmal deutlich fordernder.
Also keine Ahnung, welche Spiele du spielst (wohl keine aktuellen), aber mit grafisch aufwändigen Games ist 8K nicht sinnvoll nutzbar.
Zumal 120 Hz für ein Gaming Display das mindeste wären, da man sonst auf VRR verzichten müsste.
Es hat schon seinen Grund, warum es selbst hier in der Bubble nur zwei Leute gibt, die nen 8K TV nutzen. Solange nichtmal 4K ohne Upscaling brauchbar ist, brauchen wir über 8K nicht reden, wo selbst Performance Upscaling schon 4K ist.
Und nein, ich will deine Hardware nicht schlecht reden. Aber du greifst dir hier Sachen aus der Luft, die einfach falsch sind. Das kann man so nicht stehen lassen.
wolik
2024-08-01, 20:23:36
@Relex
Um es kurz zu machen: Welche Spiele soll ich in 8K für dich testen, damit du anhand der Fakten verstehst, dass du falsch liegst? CP2077, RDR2, BG3, HFW, Starfield, Death Stranding – keine Ahnung, was noch anspruchsvoll ist – laufen perfekt in 8K/60 FPS. Und ja, auf einem 8K-Monitor sehen Games in 8K DLSS Q-UL viel besser aus als in 4K DLAA. Über native Auflösung braucht man gar nicht sprechen, das ist Mist.
Und ich „greife Sachen nicht aus der Luft“, ich nutze seit 10 Jahren 4K und seit einem halben Jahr 8K. ;)
Was noch interessant ist: Man meint, wenn 8K die vierfache Auflösung von 4K hat, dann müsste die Performance nur ein Viertel betragen. Das ist falsch. Manchmal wird nur 50 % mehr Leistung benötigt. Und Raytracing (RT) killt nicht immer die Performance (FPS). Es gibt schon grafische Einstellungen, die bei manchen Spielen, z.B. "Nobody Wants to Die", wie "Nachbearbeitung", 8K zum Aufhängen bringen.
x-force
2024-08-01, 20:33:48
CP2077 in 8K DLSS Q-UL
der integrierte bench einmal mit und ohne frame gen wäre nice
Relex
2024-08-02, 00:14:02
Cyberpunk mit RT oder PT, Alan Wake 2, Avatar, Hellblade 2, Witcher 3 Next Gen mit RT oder sonstige UE5 games mit Lumen.
Aber brauchst mir nichts beweisen. Bei Avatar hab ich z.B. 15-20 FPS in 8K mit DLSS Q und 30-35 FPS mit DLSS performance. Ist ja nicht so als könnte ich das via DSR nicht einfach selbst ausprobieren… Das ist komplett unbrauchbar. Selbst wenn man der 4090 sehr großzügige +50% mehr Leistung im absoluten Ausnahme Bestfall zurechnet ist es immernoch unbrauchbar.
Und was soll denn DLSS Q-UL sein?
Es gibt DLAA, Quality, Balanced, Performance, Ultra Performance und in manchen Spielen Ultra Quality.
Platos
2024-08-02, 00:30:35
Machen wir im 8k-Thread weiter (ab hier):
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13588980#post13588980
x-force
2024-08-02, 02:55:34
Das ist komplett unbrauchbar. Selbst wenn man der 4090 sehr großzügige +50% mehr Leistung im absoluten Ausnahme Bestfall zurechnet ist es immernoch unbrauchbar.
wenn der speicher ausgeht, ist es wesentlich mehr als 50%
Relex
2024-08-02, 07:52:18
Deswegen hab ich Avatar getestet, das haut vorher alle Texturen und Details aus dem Speicher bevor es wegen vollem VRAM langsamer läuft.
blaidd
2024-08-08, 02:43:27
Ha, hier ist genau der Effekt, der bei DLSS auftreten kann - hab mir schon gedacht, dass der mit dem Bloom und irgendeiner plötzlichen Betonung eines einzelnen Pixel liegt zusammenhängt.
(Runde grelle "Blitzartefakte" - "Fireflies" also.)
Aber wieso tritt das immer noch auf? Die Lösung ist doch gleich dabei? :freak:
EDIT: WHY CAN'T YOU?!
Fuck this.This will do:
[Original: Falls wer nicht genau was damit anzufangen kennt...
Ab rund ca. Sekunde 40.]
https://www.youtube.com/watch?v=A9qTY-s7t74
redpanther
2024-08-08, 13:40:06
[Original: Falls wer nicht genau was damit anzufangen kennt...
Ab rund ca. Sekunde 40.]
https://www.youtube.com/watch?v=A9qTY-s7t74
Was soll man da sehen? Sind meine Augen, Monitor oder YT kaputt?
Sitze 50cm vorm 4k 32" Moni und der stream ist auf 4k gestellt.
Darkman.X
2024-08-08, 19:10:45
Das ist ein gute Frage.
Das ist in meinen Augen das Problem bei den ganzen Qualitäts-Diskussionen bei FSR/DLSS. Wenn ich nicht weiß, worauf man genau achten muss, dann sehe ich die Fehler oftmals nicht.
Die Diskussionen sind für mich viel zu elitär / abgehoben geworden. Ich behaupte einfach mal, wenn ich die Probleme interessierter Laie schon nicht eindeutig identifizieren kann, dann können die Spieler, die nicht 3Dc, Guru3d oder ähnliches besuchen, die Fehler vermutlich erst recht nicht erkennen. Daher beobachte ich den Thread nur noch oberflächlich.
Ich dachte erst, dass er den glitzernden Sand meint, wenn Aloy in die Höhle läuft, aber das ist weit vor den "Ab rund ca. Sekunde 40".
Relex
2024-08-08, 20:45:31
Schau mal auf das blaue leuchten am Ohr. Da blitzt immer wieder je nach Blickwinkel so ein weißer "blob" auf, vor allem, wenn die Kamera von vorne auf die Spielfigur gerichtet ist..
Hab das eben mal versucht nachzustellen. Ist mir nicht gelungen. Auch nicht bei anderen Lichtquellen. Ist wohl recht selten.
Sardaukar.nsn
2024-08-08, 21:09:45
Ich habe heute für einen Schüler und seinen ersten PC eine verhasste 4060 gekauft. Mal sehen ob das gut geht :eek:
Ausschlaggebend war tastächlich DLSS + FG das inzwischen für sehr viele Spiele verfügbar ist. Preis aktuell bei ~250€ (Asus Dual, abzüglich Cashback).
Fand ich als Überblick ganz hilfreich, was davon zu erwarten ist.
CtdoZ2j9u-E
blaidd
2024-08-08, 22:04:12
Schau mal auf das blaue leuchten am Ohr. Da blitzt immer wieder je nach Blickwinkel so ein weißer "blob" auf, vor allem, wenn die Kamera von vorne auf die Spielfigur gerichtet ist..
Hab das eben mal versucht nachzustellen. Ist mir nicht gelungen. Auch nicht bei anderen Lichtquellen. Ist wohl recht selten.
Ist es nicht. Ich seh es dauernd! (EDIT: Das ist allerdings auch so etwas wie ein aktuelles Pet-Peeve von mir^^. Es ärgert mich nur ein bisschen, aber das die ganze Zeit... hier ist the same mit DLSS und in Hogwarts (https://www.youtube.com/watch?v=ObIqZhm8uhI). EDIT²: AAAAAAAARRRRRRGGGG!!! (https://youtu.be/GiAMw8qKTz4?t=662)! das haben sie jetzt allerdings gefixt^^)
Es tritt allerdings auch nicht nur mit DLSS auf. Da nur deutlich verstärkt. Es sollte ein easy Fix sein (man muss lediglich die maximale Helligkeit "clampen", beschränken).
Hier ist das "Firefly"-Artefakt mit UE4 und dem UE4-TAAU (nativ!). Ist eine Wechselwirkung mit dem Bloom-Shader. Reproduzierbar. Once you've seen it... you will see it everywhere (zumindest mit DLSS und Profil D).
Ich kann dir sogar sagen, woran es liegt: Der eine helle Pixel da wird vor dem Post-Processing nicht an einen verringerten Farbraum angepasst, die maximale Helligkeit nicht beschränkt, nicht "geclampt". Für den Bloom-Shader sieht der einzelne, maximal helle Pixel da also unendlich strahlend aus. Und dann geht Bloom-Shader halt auch maximal ape-shit.
Ich verstehe allerdings nicht ganz, wieso das offenbar keiner, niemand gefixt bekommt. Nicht mal und besonders Nvidia. Das(!) ist weird. (Ist btw. auch mit HDR der Fall - irgendwie und irgendwarum ist das Ding IMMER NOCH! außerhalb des Farbraums bzw. der maximalen Helligkeit. Zumindest bei "Auto-HDR" und dergleichen. Why, the Fuck?)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89098&stc=1&d=1723147441
Ergänzung:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13563761#post13563761
Darkman.X
2024-08-08, 22:45:29
Schau mal auf das blaue leuchten am Ohr. Da blitzt immer wieder je nach Blickwinkel so ein weißer "blob" auf, vor allem, wenn die Kamera von vorne auf die Spielfigur gerichtet ist..
Hab das eben mal versucht nachzustellen. Ist mir nicht gelungen. Auch nicht bei anderen Lichtquellen. Ist wohl recht selten.
Oh Gott.....ich hatte mich so auf die Umgebung konzentriert, da fiel mir der Fokus gar nicht auf. Danke für den Hinweis.
blaidd
2024-08-08, 23:12:48
Ich verstehe allerdings nicht ganz, wieso...
Es muss doch schon fast irgendeinen Nebeneffekt geben, falls man es täte, oder? Und irgendeine Abwägung, was hier oder dort besser oder schlechter wäre... Irgendjemand (und offenbar nicht vereinzelt, sondern mehrfach, auch unabhängig voneinander...) hat irgendeinen "guten" Kompromiss "für alle" gefunden... (zu finden geglaubt!) Irgendwer hat entschieden: "Na, die da überall explosionsartig grassierende Glühwürmchen-Pest ist immer noch besser als die Alternative". Was auch immer die gewesen wäre.
Ich wüsst nicht was, aber ansonsten könnt ich das kaum nachvollziehen.
Und offenbar ist das total High-Tech, Geheimwissen, oder so. Schweigepflicht!!
"Aber unser guter, treuer Secret-Sauce-Service-FBI-KGB-StaSi-BLOOMSHADER!!! Nachher fliegt der noch auf!!! Nicht auszudenken!!!!"
EDIT: Ghost of Tsushima hat gerade ein Update (https://store.steampowered.com/app/2215430/Ghost_of_Tsushima_DIRECTORS_CUT/)erhalten. Da haben sie es offenbar hinbekommen!^^
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89107&stc=1&d=1723217259
DrFreaK666
2024-08-13, 10:51:05
Frame Generation can be used with DLSS, FSR and TSR but it looks like NVIDIA cards don't support FSR Frame-Gen at the moment DLSS Frame-Gen works fine.
https://wccftech.com/black-myth-wukong-pc-benchmark-tool-available-ray-tracing-dlss-fsr-xess-support/
Was ist das für ein Move?
redpanther
2024-08-13, 12:31:17
Schau mal auf das blaue leuchten am Ohr. Da blitzt immer wieder je nach Blickwinkel so ein weißer "blob" auf, vor allem, wenn die Kamera von vorne auf die Spielfigur gerichtet ist..
Hab das eben mal versucht nachzustellen. Ist mir nicht gelungen. Auch nicht bei anderen Lichtquellen. Ist wohl recht selten.
Ich seh immer noch keinen Blob. Was ich sehe ist eine weiße Linie/Reflektion Richtung Mund. Eventuell ein Mikro am Headset? Meint ihr das?
Aber worüber sich blaidd aufregt ist doch kein DLSS Problem?
Der GoT Fix ist doch für AMD?
Also generell falscher Tread dafür?
ChaosTM
2024-08-13, 12:38:19
https://wccftech.com/black-myth-wukong-pc-benchmark-tool-available-ray-tracing-dlss-fsr-xess-support/
Was ist das für ein Move?
Die Kombi DLSS und FSR3 FrameGen funktioniert momentan nur bei Tsushima out of the box.
Sollte im Spiel verfügbar sein, zur Not mit Mod.
dildo4u
2024-08-13, 12:58:39
https://wccftech.com/black-myth-wukong-pc-benchmark-tool-available-ray-tracing-dlss-fsr-xess-support/
Was ist das für ein Move?
Fehlinformation?Hier sinds absurd hohe FPS auf einer 3060 die ja kein NV FG kann.
https://www.techradar.com/gaming/consoles-pc/i-tried-the-new-black-myth-wukong-benchmark-and-was-pleasantly-surprised-by-the-results-on-my-aging-pc
DrFreaK666
2024-08-13, 13:52:58
Fehlinformation?Hier sinds absurd hohe FPS auf einer 3060 die ja kein NV FG kann.
https://www.techradar.com/gaming/consoles-pc/i-tried-the-new-black-myth-wukong-benchmark-and-was-pleasantly-surprised-by-the-results-on-my-aging-pc
Er schreibt aber auch nirgends, dass er FG genutzt hat.
Und woher weißt, dass es absurd hohe FPS sind?
dildo4u
2024-08-13, 14:40:03
Er schreibt aber auch nirgends, dass er FG genutzt hat.
Und woher weißt, dass es absurd hohe FPS sind?
FG steht auf on in den Screens für 90fps muss man FG nutzt 1080p High plus DLSSQ ergibt nur 50fps.
https://youtu.be/4U8KRFT9s4g?si=-aVtQz3bKRPqrmgF&t=750
DrFreaK666
2024-08-13, 16:11:45
Stimmt, hab ich übersehen.
Wieder so ne Seite die müllig für Mobile optimiert ist.
Dann geht's wohl doch und vielleicht nur mit RTX4000 nicht
aufkrawall
2024-08-13, 16:12:41
Ich seh immer noch keinen Blob. Was ich sehe ist eine weiße Linie/Reflektion Richtung Mund. Eventuell ein Mikro am Headset? Meint ihr das?
Der Bloom-Effekt knallt bei schrägem Winkel völlig durch, wie kann man das nicht sehen. :freak:
Ist mir auch kürzlich extrem störend in Plague Tale mit HDR aufgefallen. Die leuchtenden Augen der Ratten waren mit DLSS in einer dunklen Höhle wie bekloppt am flackern, während das mit TAA komplett weg war. 100% Immersionszerstörung...
Darkman.X
2024-08-13, 17:55:38
Ich seh immer noch keinen Blob. Was ich sehe ist eine weiße Linie/Reflektion Richtung Mund. Eventuell ein Mikro am Headset? Meint ihr das?
Ich denke, dass die plötzliche Taschenlampe am Ohr gemeint ist.
EDIT:
Ist mir auch kürzlich extrem störend in Plague Tale mit HDR aufgefallen. Die leuchtenden Augen der Ratten waren mit DLSS in einer dunklen Höhle wie bekloppt am flackern, während das mit TAA komplett weg war. 100% Immersionszerstörung...
Vielleicht sind es wild blinzelnde Ratten und TAA macht die Immersionszerstörung :freak:
aufkrawall
2024-08-13, 18:09:18
Vielleicht sind es wild blinzelnde Ratten und TAA macht die Immersionszerstörung :freak:
Haben mit DLSS LED-Scheinwerferaugen :freak: :
https://i.ibb.co/18FP9sT/Screenshot-2024-08-13-180601.png
Und die Augen, die nicht so extrem aufblitzen, sind dafür viel zu dunkel vs. TAA. Ist echt ätzend und das Problem zieht sich seit zig Jahren durch alle möglichen Titel mit DLSS. Wenn man auf XeSS oder FSR schaltet, ist das dann quasi immer weg oder zu ~99% reduziert...
redpanther
2024-08-13, 19:22:01
Der Bloom-Effekt knallt bei schrägem Winkel völlig durch, wie kann man das nicht sehen. :freak:
Ist mir auch kürzlich extrem störend in Plague Tale mit HDR aufgefallen. Die leuchtenden Augen der Ratten waren mit DLSS in einer dunklen Höhle wie bekloppt am flackern, während das mit TAA komplett weg war. 100% Immersionszerstörung...
Ich glaube jetzt verstehe ich was ihr meint, aber das ist doch ein Bloom effekt.
Ich habe das für einen, übertriebenen, Blendeffekt gehalten, da es in bestimmten winkeln auftat. Mir ist es nicht als "Fehler" aufgefallen.
Kann das denn keine Absicht sein?
Kommt mir zu groß vor, als das es von DLSS hinzugedichtet wäre.
Relex
2024-08-13, 19:43:55
Doch, sowas sieht man in Cyberpunk auch öfter an Fahrzeugen. Macht man z.B. Ray Reconstruction an, dann ist es komplett weg.
Klar, man kann es für "gewollt" halten, da es eben von einer Lichtquelle oder einem bereits hellen Fleck aus geht. So auffällig finde ich es auch nicht. Wenn das irgend wo anders auftreten würde abseits einer Lichtquelle wäre es natürlich deutlich auffälliger.
Aber dass es je nach Winkel sichtbar ist, dann verschwindet und dann wieder sichtbar wird, ergibt absolut keinen Sinn. Das soll so nicht sein.
Wenn das wirklich blenden SOLL, dann nur einmalig aus einem bestimmten Winkel und nicht so. Wenn du an ner Taschenlampe vorbeiläufst, dann blendet die auch nur einmal. Ne spiegelung in ner Pfütze von der Sonne blendet auch nur einmal aus nem bestimmten winkel und dann nicht mehr, wenn du weiter gehst.
Aber wie ich schon sagte. Ich konnte es in Horizon selbst nicht reproduzieren. In dem Fall scheint es eine ziemlich spezielle Situation zu sein, die im Spiel nicht häufig vor kommt.
Wäre mal interessant zu wissen, wie es zu diesem Artefakt kommt. Da Ray Reconstruction davon nicht betroffen ist hat es wahrscheinlich was damit zu tun, wie größzügig Informationen über mehrere Frames hinweg verrechnet werden. je mehr tolreanz man zulässt, desto eher würde sowas wahrscheinlich unterdrückt werden (RR ist ja auch sehr gut in jeglicher Rauschunterdrückung auf kosten von Schärfe und ghosting), je präziser man arbeitet, desto mehr solcher Artefakte können in den Output wandern und sogar noch verstärkt werden.
Würde zumindest subjektiv zur Charakteristik von Ray Reconstruction und DLSS sowie auch FSR passen. Ist aber natürlich komplett ins blaue geraten.
redpanther
2024-08-14, 11:01:30
D
Klar, man kann es für "gewollt" halten, da es eben von einer Lichtquelle oder einem bereits hellen Fleck aus geht. So auffällig finde ich es auch nicht. Wenn das irgend wo anders auftreten würde abseits einer Lichtquelle wäre es natürlich deutlich auffälliger.
Aber dass es je nach Winkel sichtbar ist, dann verschwindet und dann wieder sichtbar wird, ergibt absolut keinen Sinn. Das soll so nicht sein.
Wenn das wirklich blenden SOLL, dann nur einmalig aus einem bestimmten Winkel und nicht so. Wenn du an ner Taschenlampe vorbeiläufst, dann blendet die auch nur einmal. Ne spiegelung in ner Pfütze von der Sonne blendet auch nur einmal aus nem bestimmten winkel und dann nicht mehr, wenn du weiter gehst.
Naja, eben da man direkt in die Lichtquelle schaut, kann die sehr wohl in verschiedenen Winkeln Blenden, wenn es kein Spot ist sondern in alle Richtungen scheint. Unterschied zur Pfütze.
Und dieses Headset scheint ja in alle Richtungen.
Könnt auch einfach fehlende Präzision/Auflösung sein, um es immer korrekt zu berechnen.
Spiele Grafik kann halt nicht immer Perfekt sein. Und HZD ist ja auch komplett Raster, oder? Kein RT/PT drin. Aber auch die ist nicht perfekt.
Sich wegen sowas aufzuregen, finde ich absolut übertrieben, solange der Rest großartig aussieht.
aufkrawall
2024-08-21, 20:16:16
In The First Descendant überrascht bzw. überzeugt mich RR jetzt zum ersten Mal (bei einem ersten Blick zumindest), Nanite-Vegetation bleibt schön filigran und flimmert auch noch weniger als mit Preset E. Smearing von Level-Geometrie ist auch deutlich reduziert, mir fällt bislang quasi kein Ringing um Konturen auf. Scheint die Mehrkosten wert zu sein, auch wenn nicht jede feine Linie zumindest im Standbild besser aussieht:
https://i.ibb.co/kBYvgVC/M1-Win64-Shipping-2024-08-21-19-53-44-725.jpg
https://i.ibb.co/5TGhBmz/M1-Win64-Shipping-2024-08-21-19-53-55-883.jpg
aufkrawall
2024-08-21, 21:59:40
In CP77 gibts auch mit DLSS 3 FG Box-Artefakte an den Bildrändern, wenn man die Kamera schwenkt:
https://i.ibb.co/sv0nxjD/Cyberpunk2077-2024-08-21-21-52-08-197.jpg
Edit: Will nicht ausschließen, dass ich die Nukem-Mod im Verzeichnis übersehen habe. Irgendwann nochmal überprüfen...
Hab auch den Eindruck, der Nvidia-Treiber ist zu blöd für perfektes LFC. Denn wenn durch FG der Frame Time Graph auch nur etwas fetter wird, ruckelt das bei den fps direkt derbe auf dem Schirm. Kann mich nicht erinnern, dass mir so etwas auf der 7800 XT mit FSR 3 FG mal aufgefallen wäre. Auch so viel dazu, das wären mit FG keine realen Frame Times...
In Miles Morales ist DLSS FG auch völlig kaputt, gibt direkt in den Intros trotz Treiber-Vsync abartiges Tearing. Ist mit FSR 3 FG weg...
Edit: Betrifft ggf. nur die Into-Videos, scheint ein Reflex-Bug o.ä. zu sein. Gibts auch in Ratchet & Clank.
Positiver siehts in The First Descendant aus, da scheinen die Frame Times zwischendurch nicht fett zu werden und ist auch mit 70fps noch gut spielbar.
Deisi
2024-10-07, 11:31:09
Da man in Silent Hill 2 RR über die ini aktivieren kann, habe ich das auch mal bei anderen UE5 Spielen gestestet. Nobody Wants to Die und Satisfactory funktionieren z.B. auch. Wukong würde mich interessieren, falls jemand Zeit hat. Am Besten mit dlss debug overlay verifizieren.
aufkrawall
2024-10-07, 12:50:33
Funktioniert in Talos 2. Leider hat RR aber ein Problem mit vermutlich dem Screen Space Anteil von VSM, das flackert gerne unschön. Ist in The First Descendant mit offizieller Implementierung auch so. Mit den RT-Schatten in Wukong aber ggf. kein Thema.
Deisi
2024-10-07, 13:00:41
In Silent Hill gefällts mir bisher sehr gut, besonders bei den Reflections: https://imgsli.com/MzAzNDgw
aufkrawall
2024-10-07, 13:26:02
Wow, der Unterschied in den Forschungsanlagen in Talos 2 ist gigantisch. Das SWRT-Lumen sieht damit mal eben locker doppelt so gut aus. :eek:
Lurtz
2024-10-07, 21:33:51
Wie aktiviert man das manuell?
Darkman.X
2024-10-08, 01:49:39
Vermutlich ist folgender Beitrag aus dem Silent Hill 2-Thread gemeint:
Man kann übrigends einfach RR über die ini aktivieren: https://www.pcgamingwiki.com/wiki/Silent_Hill_2#Nvidia_RR_.28Ray_reconstruction.29
Gerade probiert und funktioniert:
https://imgsli.com/MzAzNDA5
(Ich habe den Link zu pcgamingwiki.com korrigiert)
Was mir noch nicht so klar ist: Funktioniert das jetzt bei allen UE5-Spielen? Einfach so, nur durch das hinzufügen einer Datei und der Änderungen in der INI-Datei?
The_Invisible
2024-10-08, 06:33:21
In Silent Hill gefällts mir bisher sehr gut, besonders bei den Reflections: https://imgsli.com/MzAzNDgw
Und kriegt 15fps extra dazu? Wär ja arg wenn das bei jedem UE5 so geht
aufkrawall
2024-10-08, 10:49:19
Was mir noch nicht so klar ist: Funktioniert das jetzt bei allen UE5-Spielen? Einfach so, nur durch das hinzufügen einer Datei und der Änderungen in der INI-Datei?
Sieht so aus, dass die quasi immer gegebene Streamline-Implementierung mit halbwegs aktueller Version für den Trick ausreicht, ja.
Ob die empfohlenen Settings im PCGamingWiki schon optimal sind, sei dahin gestellt. Auf dem Wassershader in Talos 2 gibts damit jedenfalls recht viel Noise. Wobei der auch mit Standardeinstellungen und TSR furchtbar aussieht.
Und kriegt 15fps extra dazu? Wär ja arg wenn das bei jedem UE5 so geht
Die 15fps gibts durch Upsampling, RR wird hier auch wieder ein ordentliches Stück teurer als Legacy-DLSS sein.
Ist mit der Nanite-Vegetation in Talos 2 auch ziemlich am Limit, aber auch bei weniger Fake-Stabilität durch Unschärfe und Smearing als Legacy. Geht auch im Gegensatz dazu nicht in den Bunkern kaputt, wenn man raus ins Helle schaut. Das rauscht übel mit Legacy, mit RR gar nicht.
aufkrawall
2024-10-08, 15:00:33
Prima Video-Vergleich:
zKbzaxuU-UU
Einfach nur krasser Sh*t. Ich fand die ersten Ergebnisse mit RR so schlimm in CP77. Völlig neue Welt jetzt (auch mit 4k Schirm).
Deisi
2024-10-10, 18:20:24
Ist der UE5 denoiser generell so schlecht oder nur in SH2? Die Kosten von RR sind schon relativ hoch in der UE5. In CP77 steigt ja die Leistung sogar.
aufkrawall
2024-10-10, 19:31:18
In CP77 sinkt die Leistung mit RR allerdings auch, wenn du statt PT nur die RT-Reflexionen einschaltest.
Ne, der UE-Denoiser ist generell so schlecht. In Talos 2 ist der Unterschied in besagten Levelabschnitten ebenso gigantisch. Die Mehrkosten von RR rentieren sich um mehrere Größenordnungen.
Mit 5.5 soll es aber einen neuen Denoiser geben.
Wie man oben im Video sieht, hat RR aber auch manchmal noch mit Moire zu kämpfen. Wenn das noch bald verbessert würde, wäre das das i-Tüpfelchen. Hoffentlich spätestens mit HL2 PT.
Lurtz
2024-10-24, 23:33:17
Hab mir nochmal ein wenig 1440p DLSS Quality/Native vs. 2160p DLDSR DLSS Performance angeschaut.
Was bei letzterem enorm gewinnt, ist einfach die Bildschärfe. Die ist ootb fast perfekt und das sorgt wahrscheinlich auch allein schon für den viel besseren Eindruck.
Typische Renderartefakte sind IMO meist ziemlich gleichwertig, außer Ray Reconstruction ist im Spiel, da klatscht 2160p 1440p auch komplett an die Wand.
Echt nicht einfach, hinsichtlich Monitorkauf. Wenn man das weichere Bild von 1440p gewöhnt ist, stört es nicht so sehr, der AA-Aspekt funktioniert dennoch sehr gut. Aber wenn man die Schärfe von 2160p sieht, das ist schon ziemlich eklatant.
Bin dennoch der Meinung, dass die 4070 auch mit DLSS Performance einfach (zu) langsam für 2160p ist. Wenn man 90 fps aufwärts anpeilt ist das in 1440p einfach ungleich realistischer.
robbitop
2024-10-25, 08:34:20
Kannst du die Kombinationen noch etwas klarifizieren? :)
Deine Monitorauflösung: 1440p?
1440 DLSS Quality/Native -> was ist damit gemeint? Der Vergleich von 950p@1440p mit DLSS-und Native (also 1440p ohne DLSS)?
vs
2160p DLDSR 2160p DLSS-P? Also 1080p@2160p mit DLSS und dann gedownsamplet auf 1440p?
Ist das so korrekt (was du meintest)?
Dann ist es wenig verwunderlich, dass letzteres gewinnt. Ich bin etwas überrascht, dass eine 4070 nicht schnell genug dafür ist. Alles auf max details? (IMO lohnt es sich so ziemlich immer Details zu optimieren oder stumpf auf Stufe 2 oder 3 runterzustellen - kostet idR keine im Blindtest erkennbare BQ und spart idR mächtig fps)
Was (unabhängig davon) auch interessant ist, ist 1440p DLAA vs 5K DLSS-P (1440p inputres) downgesampelt auf 1440p. Mit modernen DLLs und modernen presets.
Lurtz
2024-10-25, 09:05:33
1440p Monitor.
Angeschaut habe ich mir 2160p DLSS P und 1440p DLSS Quality (DLSS Native/DLAA nur zum Vergleich der Bildqualität, die Performance ist dann natürlich ebenfalls deutlich schlechter).
Mit DLDSR. Wobei ich da die standardmäßigen 33% Smoothness hatte, die schärfen aber wohl schon deutlich nach. Damit ist der Schärfevergleich natürlich schon verzerrt. Oder wäre reines DSR besser?
Naja, "nicht schnell genug" ist natürlich dehnbar. Bei Titeln mit aufwendigem RT wie Alan Wake 2 oder CP 2077 bricht sie damit komplett ein (deutlich unter 60 fps), das ist natürlich nicht überraschend. Das geht ja schon in 1440p im Grunde nur mit noch niedrigeren DLSS-Stufen und/oder Frame Generation.
Aber auch sonst habe ich das Gefühl, ohne es jetzt alles notiert zu haben, dass sie je nach Spiel in 2160p mehr einbricht als es der reine Auflösungsunterschied zwischen 960 und 1080p vermuten lassen würde.
Ich habe mich die letzten Jahre seit dem 144 Hz-Monitor halt schon ziemlich an höhere Frameraten (idealerweise mindestens ~80 fps) gewöhnt und gerade mit OLED profitiert man noch mehr davon :upondern:
Unter der Sichtweise wäre mir die 4070 schon in nativen 1440p zu langsam in aufwendigen Titeln, ehrlich gesagt...
Lurtz
2024-10-25, 09:13:59
@aufkrawall:
Wo muss man in Talos Principle 2 die RR-DLL hinterlegen?
The Talos Principle 2\Engine\Plugins\Marketplace\nvidia\DLSS\Binaries\ThirdParty\Win64
Relex
2024-10-25, 09:24:20
Das mit der Performance kann ich absolut nachvollziehen. Selbst mit der 4080 hab ich mehr als einmal überlegt, ob ich auf 4K gehe, weil eben DLSS Performance in 4K teurer ist als 1440p mit DLSS Quality. Wegen der höheren Renderauflösung + Overhead und Frame Gen ist in 4K auch teurer.
Bei der 4080 hatte ich aber in 1440p mit DLSS Q und FG so viele FPS dass es schon Verschwendung war und ich das Gefühl hatte, dass die Performance in 4K deutlich besser investiert ist. Und das war sie. (Gut, ich hatte eh schon ständig den direkten Vergleich mit meinem OLED TV, aber letztendlich gings eben darum, ob ich auch noch den 1440p Monitor am Schreibtisch ersetze)
Bei ner 4070 hast du aber einerseits das VRAM Problem und andererseits eben die Performance. Oft ist 1440p mit DLSS Q ja Voraussetzung um überhaupt gute Frameraten (mit RT) zu erreichen.
Grundsätzlich ist 4K mit der Karte absolut machbar. Die PS5 Pro hat schließlich weniger Rechenleistung. Und vor der 4080 hab ich mit einer 3060ti in 4K gespielt. Allerdings wirst du dich dann eher richtung 60 FPS + optimierte Settings orientieren müssen.
Luxusproblem… aber man wird wohl trotzdem deutlich früher aufrüsten.
gnomi
2024-10-25, 09:30:39
Mit der 4080S bin ich auf 4K 28 Zoll gewechselt.
DLSS Performance ist erstaunlich gut.
Unter 4070 TI Super würde ich 4K Ausgabe Auflösung jedoch nicht empfehlen, wenn man auch mal volle Details einschalten möchte.
Vorher nutzte ich UWQHD 34 Zoll mit maximal DLSS Balanced nach unten.
Performance hat mich qualitativ nicht mehr überzeugt.
Rohleistung und VRAM passten mit der 3080TI.
Die FG Option ist aber eben eingeschränkt, da nvidia halt enttäuschender weise den Cut gemacht hat.
Der damals weit günstigeren 2080 ging leider etwas die Puste aus und an die 3080 UVP kam ich nicht ran.
Deisi
2024-10-25, 11:06:06
Mir gefällt ehrlich gesagt das Sharpening von DLDSR überhaupt nicht. Imho produziert DLAA+CAS das deutlich angenehmere Bild.
Lurtz
2024-10-25, 11:12:11
Hat wohl alles wieder Vor- und Nachteile. Mit 4k profitiert man auf dem Desktop und in älteren Spielen natürlich immer/auf andere Weise als mit Downsampling. Zudem dürfte ein Großteil des Nachschärfe-Geeiers mit Upsampling dann wegfallen.
Keine Ahnung was man von der 5070 erwarten kann. Etwa 30% Mehrperformance zur Super? Dann würde der Großteil der aktuellen Spiele wohl gut laufen (vom VRAM mal abgesehen). Aber glaubt jemand, dass die Anforderungen stagnieren werden? Wenn man sieht wie die UE5 sich konstant weiterentwickelt und viele Entwickler noch auf Crossgen festhingen, glaube ich es nicht.
Am Ende ist das ab 1440p aber sicher Meckern auf hohem Niveau, insbesondere verglichen mit den Jahren vor DLSS2. Man darf sich nur keine Detailvergleiche anschauen... :redface: Irre, was DLSS in 4k selbst bei 1080p Inputresolution an Details gegenüber 1440p rekonstruieren kann.
Das Kanten-AA von Preset E ist in 1440p auch nicht gerade der Brüller.
robbitop
2024-10-25, 11:24:10
1440p Monitor.
Angeschaut habe ich mir 2160p DLSS P und 1440p DLSS Quality l. Mit DLDSR.
1440p Quality passt aber nicht zu DLDSR. Denn da kommt ja nur native resolution raus. 1440p output, 950p input. Da die outputresolution dann nicht größer als native ist gibts da nichts downzusamplen
Lurtz
2024-10-25, 11:42:14
1440p lief natürlich nativ auf dem Monitor. Klar sind das alles nur krude Annäherungen, aber viel besser gehts halt nicht. Man könnte auch mal 1080p Renderauflösung mit 1440p Zielauflösung forcieren, für einen direkteren Performancevergleich, aber das ist ja auch nicht sonderlich praxisnah.
Relex
2024-10-25, 11:43:48
Aber glaubt jemand, dass die Anforderungen stagnieren werden? Wenn man sieht wie die UE5 sich konstant weiterentwickelt und viele Entwickler noch auf Crossgen festhingen, glaube ich es nicht.
Kommt drauf an, welche Anforderungen.
Die Anforderungen für Maximale Details werden immer weiter ansteigen und die Anforderungen für Raytracing Features speziell von nvidia werden immer exakt so gestaltet sein, dass es nur auf der jeweils aktuellsten Generation gut läuft. Das hat Nvidia selbst bestätigt im letzten Digital Foundry interview.
Was aber die grundlegenden Anforderungen (leicht optimierte Settings) von Spielen angeht, erwarte ich Stagnation, weil das zu PS4 zeiten auch schon so war.
Ich hatte von 2014 bis 2020 eine GTX980 und die hat von anfang bis ende praktisch immer gleiche Performance abgeliefert. Es waren fast immer high Settings bei 60 FPS @ 1080p. Die Schwankungen waren erstaunlich gering.
Für Very High, Ultra oder gar Maxed out Settings in 1440p oder gar 4K sind die Anforderungen natürlich regelrecht explodiert. Aber das tun sie auch heute, wenn man sich Spiele wie Avatar oder Outlaws ansieht. Aber wenn du das Niveau gleich hältst, so wie es die Konsole auch macht, erwarte ich da keine Probleme.
Ich schätze, dass ich die 4080 genauso lange behalten kann und bis zum Erscheinen der PS6 nutze.
Aber du siehst schon, ich denke da aus Konsolensicht und nicht aus PC sicht. Denn Konsole ist für mich der grundlegende Faktor, der über die Anforderungen aktueller Spiele bestimmt. Der PC ist immer relativ dazu zu betrachten.
Einzig wenn man eben maxed out Settings + Nvidia RT Features nutzen will, siehst das komplett anders aus. Aber da sind eh alle überlegungen hinfällig, weil du dann "einfach" alle zwei Jahre die XX90 kaufst...
Ich hab mir die 4080 auch nur rein aus dieser Überlegung heraus gekauft. Ich hab nicht vor, alle zwei Jahre 2K€ Nvidia in den Rachen zu schieben, das sollen ruhig andere machen (das Portfolio freut sich). Und generell würde ich den preis einer 4080 auch nicht zahlen, wenn ich alle paar Jahre aufrüsten würde.
Leisten kann ich mir das sicherlich, aber aus meiner Sicht ist es einfach unnötiges Geldverbrennen das nicht sein muss - auch wenns ein Hobby ist.
Aber die 4080 hat für mich eben damals genau das geboten, was ich haben wollte. 2-3x Leistung einer Konsole. Gleiches oder besseres Featureset, moderate Leistungsaufnahme und ausreichend VRAM (diesmal im vergleich PC/Konsole sogar doppelt so viel wie die 980 damals - 16GB/16GB vs 4GB/8GB).
Und das eben weil ich mir relativ sicher bin, dass die grundlegenden Anforderungen stagnieren solange keine neue Konsolengeneration erscheint.
Sobald die PS6 draußen ist, werd ichs wieder genauso machen. Warten bis ne Karte mit 2-3x Leistung bei akzeptabler leistungsaufnahme erscheint und die Karte kaufen. Und wenn sie dann 2K kostet, ist es mir auch egal, solange sie mir bis zur PS7 gute Dienste leistet.
The_Invisible
2024-10-25, 12:48:01
Wenn man sich die UE5 Games anschaut ist die Performancecharacteristik fast immer die selbe wenn Nanite + SW-Lumen aktiviert ist. Die neuen Engine Versionen scheinen hier ja auch noch gut was zu optimieren. Mit HW-Lumen ist es halt noch eine Stufe höher, aber mit 12GB scheint man da auch noch sehr gut auszukommen. Zudem scheint die halbe Industrie auf UE5 zu gehen.
Bei heavy RT/PT könnts natürlich anders aussehen, da wird NV sicher wieder einen 5090 Vorzeigetitel liefern.
Ich kann auf jeden Fall 4k auch nur empfehlen, es sieht einfach alles nochmal besser/schärfer aus, vor allem wenn die Games HQ Texturen mitbringen. Pixeldichte ist auch höher was einem durch die Bank hilft, wenn man zumindest keinen >40" nimmt :D
Lurtz
2024-10-25, 15:34:21
Ich hatte von 2014 bis 2020 eine GTX980 und die hat von anfang bis ende praktisch immer gleiche Performance abgeliefert. Es waren fast immer high Settings bei 60 FPS @ 1080p. Die Schwankungen waren erstaunlich gering.
Für Very High, Ultra oder gar Maxed out Settings in 1440p oder gar 4K sind die Anforderungen natürlich regelrecht explodiert. Aber das tun sie auch heute, wenn man sich Spiele wie Avatar oder Outlaws ansieht. Aber wenn du das Niveau gleich hältst, so wie es die Konsole auch macht, erwarte ich da keine Probleme.
Ok, auch ein Ansatz. Aber ich glaube dafür bin ich dann doch zu detailverliebt und zu wenig IQ-Nerd. Ich habe ja jetzt schon Alan Wake 2 mit PT gespielt und lieber 1440p DLSS Balanced oder Performance in Kauf genommen ;D
Bei Talos Principle 2 lässt Lumen auf High gegenüber Ultra auch schon ordentlich nach, bei den Reflexionen zB.
Wird nur bitter wenn die PS5 Pro dank PSSR dann bessere Bildqualität als die 700€ Grafikkarte bietet... :ugly:
aufkrawall
2024-10-25, 15:40:46
@aufkrawall:
Wo muss man in Talos Principle 2 die RR-DLL hinterlegen?
Afair in den gleichen Ordner wie die reguläre DLSS-DLL. Man kann mit dem Debug HUD via DLSSTweaks kontrollieren, ob es genutzt wird.
DrFreaK666
2024-10-25, 15:44:19
Glaube kaum dass die Pro in irgendeinem Spiel PT bieten wird, wenn bei dir IQ "GI>flimmerfreie Kanten" bedeutet.
Lurtz
2024-10-25, 15:52:38
Glaube kaum dass die Pro in irgendeinem Spiel PT bieten wird, wenn bei dir IQ "GI>flimmerfreie Kanten" bedeutet.
Natürlich nicht. Aber die reine Bildqualität dürfte mit einer PS5 Pro an einem 4k-Display meist über der von DLSS an einem 1440p Display liegen. Wobei, kommt sicher auch auf die Input Resolution an, mal sehen wie gut PSSR im Alan Wake 2 Performance-Mode funktioniert.
Relex
2024-10-25, 17:44:39
Ok, auch ein Ansatz. Aber ich glaube dafür bin ich dann doch zu detailverliebt und zu wenig IQ-Nerd. Ich habe ja jetzt schon Alan Wake 2 mit PT gespielt und lieber 1440p DLSS Balanced oder Performance in Kauf genommen ;D
Bei Talos Principle 2 lässt Lumen auf High gegenüber Ultra auch schon ordentlich nach, bei den Reflexionen zB.
Wird nur bitter wenn die PS5 Pro dank PSSR dann bessere Bildqualität als die 700€ Grafikkarte bietet... :ugly:
Na ja, aber wenn du mal genug Leistung für Lumen auf Ultra hast, dann wirst du darauf auch in künftigen Spielen tendenziell nicht unbedingt verzichten müssen, solange keine PS6 oder UE6 auf den Markt kommt, welche die Grundanforderungen deutlich anheben würde.
Die Frage ist dann nur, ob du mit deiner aktuellen GPU das von dir gewünschte Optik/Performance Niveau erreichst. Die Frage ist ja völlig unabhängig davon, ob die Anforderungen der Spiele steigen.
Aber wie gesagt, wenn du stets die bestmögliche Optik willst, dann steigen natürlich die Anforderungen stetig, weil ja auch schnellere GPUs auf den Markt kommen, die dann bei Max Settings auch ausgelastet werden wollen und dementsprechend auch immer bessere Grafik bieten können. Aber dann erhöhst du ja ganz bewusst die Anforderungen, welche deine aktuelle GPU eben logischerweise irgendwann nicht mehr stemmen kann. Aber das versteht sich ja von selbst.
aufkrawall
2024-10-25, 17:57:19
Wenn ein 1000€ Monitor drin ist, juckt es ggf. auch bei einer 5080 in den Fingern. Mit RT ist man ja auch in 1440p schon arg am Limit mit einer 4070. Zum Glück skaliert das gut mit der Auflösung/Upsampling. Lumen/VSM weniger, aber das braucht in Fortnite@high auch nicht mehr so viel Leistung bei immer noch anständiger Grafik. Ob das andere Titel auch so hinbekommen werden, ist natürlich unsicher. Aber 100%ige Sicherheit gibts halt nur mit 4090/5090...
Darkman.X
2024-11-04, 02:32:26
Spielt jemand von euch "Satisfactory"?
Das ist nach Witcher 3 mein 2. Spiel mit FG und das läuft diesmal nicht so toll. Ungefähr alle 8 Sek. bricht die Framerate mal kurz ein, was ich als kurzes Ruckeln wahrnehme, selbst wenn ich einfach nur still stehe und die Maus nicht bewege. Ohne FG (mit DLSS auf Quality) läuft das Spiel mit 2160p geschmeidig.
Ich weiß nun nicht was/wie ich hier analysieren kann, was die Ursache sein kann.
- Spiel nutzt UE5. In den Eigenschaften der "FactoryGameSteam-Win64-Shipping.exe" steht Version 5.3.2.0.
- Spiel nutzt DLSS FG v3.7.10, was laut techpowerup.com aktuell die neueste Version ist.
- Ich nutze den Ingame-Framelimiter. Aber auch ohne keine Besserung.
- Ich spiele für gewöhnlich immer mit NVCPL-VSync. Ingame-VSync ohne Besserung getestet.
- Mit und ohne Low Latency im NVCPL getestet. (keine Ahnung ob das überhaupt eine Rolle spielt)
- "Vollbild" und "Fenster-Vollbild" getestet.
- CPU: 14900K
- GPU: 4090
- Treiber: 566.03
- Win 11 Version 23H2.
Was nun? Ist FG in dem Spiel einfach kaputt? Oder ein Treiber-Problem? Oder eine andere Ursache?
Spielt jemand von euch "Satisfactory"?
Das ist nach Witcher 3 mein 2. Spiel mit FG und das läuft diesmal nicht so toll. Ungefähr alle 8 Sek. bricht die Framerate mal kurz ein, was ich als kurzes Ruckeln wahrnehme, selbst wenn ich einfach nur still stehe und die Maus nicht bewege. Ohne FG (mit DLSS auf Quality) läuft das Spiel mit 2160p geschmeidig.
Ich weiß nun nicht was/wie ich hier analysieren kann, was die Ursache sein kann.
- Spiel nutzt UE5. In den Eigenschaften der "FactoryGameSteam-Win64-Shipping.exe" steht Version 5.3.2.0.
- Spiel nutzt DLSS FG v3.7.10, was laut techpowerup.com aktuell die neueste Version ist.
- Ich nutze den Ingame-Framelimiter. Aber auch ohne keine Besserung.
- Ich spiele für gewöhnlich immer mit NVCPL-VSync. Ingame-VSync ohne Besserung getestet.
- Mit und ohne Low Latency im NVCPL getestet. (keine Ahnung ob das überhaupt eine Rolle spielt)
- "Vollbild" und "Fenster-Vollbild" getestet.
- CPU: 14900K
- GPU: 4090
- Treiber: 566.03
- Win 11 Version 23H2.
Was nun? Ist FG in dem Spiel einfach kaputt? Oder ein Treiber-Problem? Oder eine andere Ursache?
ja ist broken in SF, wäre das perfekte Spiel dafür aber kA was sie Jungs da verbockt haben. alle upscaler funktionieren auch nicht wirklich gut, DLSS noch mit Abstand am besten.
Darkman.X
2024-11-05, 20:46:54
hmm, Schade. Danke für die Bestätigung.
Thunder99
2024-11-06, 09:15:48
Generelle Frage. Wenn man jetzt ein älteres Spiel anfangen will und diese noch eine "stein"alte DLSS Version hat diese dennoch verwenden oder immer die Neuste Version? Oder je nach Fall? Möchte so wenig wie nötig da rumfummmeln da ich mittlerweile nur noch spielen möchte und nicht mehr stundenlang die Beste Grafik suchen bzw einstellen möchte :freak: (ja man wird älter... :freak:)
Relex
2024-11-06, 09:28:47
Klar, einfach so nutzen wie es vom Spiel kommt.
Auf eine neue Version upzudaten und z.B. das aktuellste Preset über den Nvidia Inspector einzustellen ist 100% optional. Das machst du in der Hoffnung noch ein bisschen mehr Bildqualität rauszuholen.
Neosix
2024-11-06, 12:24:58
Generelle Frage. Wenn man jetzt ein älteres Spiel anfangen will und diese noch eine "stein"alte DLSS Version hat diese dennoch verwenden oder immer die Neuste Version? Oder je nach Fall? Möchte so wenig wie nötig da rumfummmeln da ich mittlerweile nur noch spielen möchte und nicht mehr stundenlang die Beste Grafik suchen bzw einstellen möchte :freak: (ja man wird älter... :freak:)
Generell kannst du bei DLSS versionen alles so lassen wie es ist, aber gerade die "erste Generation" DLSS spiele waren oft suboptimal. Da hat es mit späteren DLSS Versionen merkliche Verbesserungen gegeben.
DLSS lässt sich in 2 Gruppen unterteilen.
x bis -> 2.5.1 . Und 3.1 bis -> was eben aktuell ist, stand jetzt 3.7.2
Alte Spiele kommen mit dem neuen DLSS ab 3.1 nicht klar.
Damit hast du 2 Gruppen. Bis 2.5.1 und drüber. Gerade bei älteren Spielen sehe ich zu, dass ich immer auf die 2.5.1 upgrade.
Ich empfehle da das Programm DLSS Swapper, was fast alles automatisch erledigt.
edit: korrigiert
Lurtz
2024-11-06, 15:26:56
Alte Spiele kommen mit dem neuen DLSS ab 3.1 nicht klar.
Inwiefern?
Neosix
2024-11-06, 15:36:29
Das musst du schlauere Leute Fragen warum es technisch ist nicht geht, vielleicht weil mit 3.1 Frage Generation dazu kam und es anders implementiert wurde? Aber man kann in Spielen die <=2.5 .dlls, nicht gegen die 3.x tauschen. Die Spiele crashen dann meist sofort beim start. Hab ich selber schon mehrfach so erlebt. Daher die Unterteilung von mir.
Lurtz
2024-11-06, 15:39:03
Ich frage weil mir das bisher nicht aufgefallen wäre. Und die DLSS-DLL hat nichts mit der FG-DLL zu tun, oder nur wenn eh Streamline genutzt wird?
aufkrawall
2024-11-06, 16:15:03
Aber man kann in Spielen die <=2.5 .dlls, nicht gegen die 3.x tauschen. Die Spiele crashen dann meist sofort beim start. Hab ich selber schon mehrfach so erlebt.
Das kann ich nicht bestätigen. Mir fällt gerade kein Fall ein, wo es nicht gehen würde. Fortnite etwa shipt noch 2.2.6, 3.7.20 mit Preset E geht aber problemlos.
Auf TPU ist die 3.7.20 btw. die komische DirectSR-Version, die akzeptiert Fortnite seltsamerweise nicht. Mit der DLL aus dem SDK geht es:
https://github.com/NVIDIA/DLSS/tree/main/lib/Windows_x86_64/rel
Per Inspector Ultra Performance erzwungen, läuft mittlerweile auch mit VSM/Lumen ~komplett im GPU-Limit auf meiner 170€-CPU. :freak:
Preset E geht zum Glück auch für UP, vorher war man ja auf den Preset F-Matsch beschränkt.
Exxtreme
2024-11-06, 16:21:01
DLSS vor 2.5.1 hatte noch einen Schärfefilter. Kann sein, dass ein Spiel den nutzt. Gibt man dem Spiel eine DLSS-Version >=2.5.1 dann kann es sein, dass das Spiel sehr vermatscht aussieht weil der Schärfefilter nicht mehr dabei ist. Das ist aber der einzige Fall, der mir einfällt wo ein Austausch der DLL Probleme machen kann.
aufkrawall
2024-11-06, 16:29:18
Preset E und RR brauchen mit 4k-Monitor defakto keinen Schärfefilter mehr. Eher bräuchte es eine abgewandelte Version von Preset E für Q und DLAA, bei der Hochkontrastkanten weniger aliased verpixeln.
RR hat das Problem der aliasten Kanten nicht und scheint trotzdem mit zunehmendem Upscaling-Faktor auch der dadurch entstehenden Unschärfe aktiv entgegen zu wirken. Mit UP nimmt dann das Ringing aber deutlich zu und die Kanten wirken zunehmend "wobbly", also nicht mehr gerade durchgezogen. Für Portal RTX geht das noch so halbwegs, in CP77 siehts aber recht fies gegenüber P aus.
Neosix
2024-11-06, 16:35:42
Ok hab meine Aussage vorsichtshalber gestrichen.
Einer meiner problemfälle war bei RDR2, kann mich aber nicht mehr an Einzellheiten erinnern. Entweder war das ein Randproblem oder vielleicht von mir was falsch gemacht. Aber gut dass wir das geklärt haben.
edit. ok nochmal korrigiert, danke aufkrawall
aufkrawall
2024-11-06, 16:41:00
RDR2 überschreibt die DLL nervig bei Spielstart, wenn man nicht die Epic Games Store-Version nutzt. Die zwar auch den Rockstar Launcher startet, aber er unterlässt es dann trotzdem, warum auch immer. Habs aber schon länger nicht mehr getestet.
Es soll in RDR2 aber wohl weiterhin Probleme mit Auto-Exposure und Zielfernrohren mancher Waffen geben.
Keine Ursache. :cool:
Relex
2024-11-06, 16:52:04
Bei der Steam Version wird auch nichts überschrieben.
Da startet zwar auch der Rockstar Launcher mit, aber die gesamte Installation liegt in der Hand von Steam. Und Steam pfuscht da nicht rein.
aufkrawall
2024-11-10, 18:09:58
Nvidia-Dev erwartet weitere Denoiser-Verbesserungen, ggf. ohne höhere Performance-Kosten:
https://youtu.be/zD9kS1nOuyU?t=1582
Er erwähnt zwar DL/RR nicht direkt (bzw. erst später), aber dürfte gemeint sein.
The_Invisible
2024-11-13, 12:49:47
Neue Version DLSS 3.8.10 DLL
Anscheinend um die Hälfte kleiner da laut reddit alle Presets außer E/F entfernt wurden?!?
https://www.reddit.com/r/nvidia/comments/1gpqqu2/dlss_3810_dll_from_drivers_56614
aufkrawall
2024-11-13, 12:54:43
Ja, leider. Wollen wir hoffen, dass in der SDK-Version sie wieder drin sind. Um A/B/D ist es nicht schade, aber C ist ziemlich gut für DLAA und in 4k ggf. auch Q.
Relex
2024-11-13, 14:37:07
C ist für mich veraltet. Stabilität, Bildschärfe, Kantenglättung. Alles nicht so gut. Einzig ghosting ist stark reduziert. War damals halt ne Alternative zu preset A und B.
Seit Preset D hat sich die Bildqualität deutlich gesteigert, aber eben mit vermehrtem Ghosting in bewegung.
Das wurde mit E aber alles gefixed und die Qualität weiter erhöht, vor allem in Bewegung.
Preset F eben das "softe" preset mit Fokus auf möglichst glatte Kanten auf Kosten von Schärfe, aber ansonsten ähnlich gut wie Preset E.
Von daher kann ich absolut nachvollziehen, dass man A, B, C und D rauswirft.
Natürlich etwas schade, dass man dem Spieler so die Wahl abimmt, aber es hat dann wohl auch den Vorteil, dass man beim DLL Tausch kein Preset mehr erzwingen muss und immer E genommen wird?
Hab ich selbst noch nicht getestet, werde ich aber heute mal prüfen.
aufkrawall
2024-11-13, 14:56:53
C ist für mich veraltet. Stabilität, Bildschärfe, Kantenglättung. Alles nicht so gut.
Teilweise falsch. Preset E hat noch mehr Aliasing bei Hochkontrastkanten als Preset C. Das Problem (zwar nicht im Vergleich zu C, aber trotzdem) ist auch DF schon aufgefallen:
https://s20.directupload.net/images/241113/oasod9vb.png
Und nein, liegt nicht nur an Sharpen. Preset E ist super für hohe Upsampling-Faktoren, die sonst sehr unscharf werden würden. Für Q/DLAA kann das Aliasing aber ziemlich nerven.
Preset F eben das "softe" preset mit Fokus auf möglichst glatte Kanten auf Kosten von Schärfe, aber ansonsten ähnlich gut wie Preset E.
Hab ich dir schon mal erklärt: nein. Preset F rauscht nicht so wie C, es hat dafür aber viel mehr Disocclusion-Aliasing. Das sieht selbst schon mit der billigen Witcher 3-Vegetation komplett kacke aus, wenn man im Wald durch die Baumwipfel schaut. Überall flimmert es. Fast schon wie FSR 2, nur noch viel unschärfer.
Das sieht so kacke aus, da würd ich lieber mit E und Balanced spielen.
Gibts eigentlich Bestrebungen, DLSS 3 / Framegen mal mit VR zu implementieren? Könnte mir vorstellen dass das sehr gut funktioniert, wenn man Bewegungsdaten des HMDs bei der Framegen berücksichtigt. Die HMDs haben ja schon smart smoothing Funktionen, die Zwischenbilder interpolieren. DLSS kann das ja sicher besser.
Relex
2024-11-13, 15:49:02
@aufkrawall
Ok, hab ich wohl vergessen. Das mit Disocclusion bei preset F muss ich mir nochmal ansehen...
Dass Preset E mehr Treppchen bei Kanten zeigt... eigentlich kommt das nur sehr selten vor.
Preset C zeigt die gleichen treppchen, nur weniger deutlich.
Preset E löst das Bild einfach etwas anders auf, aber das Aliasing ist dadurch nicht stärker. Preset E ist eher vergleichbar mit klassischem 4x DSR mit smoothness auf 0% und die Treppchen sind eben auch kein richtiges Aliasing, da sie an einer Kante nicht auf und ab wandern wie es bei klassischem Aliasing der Fall wäre, sondern stabil bleiben und in bewegung verwischen, ohne dass flimmern entsteht.
Ist natürlich trotzdem ein Aspekt, der noch etwas finetuning vertragen könnte.
So oder so, ich hab gerade eben nochmal Preset E mit C in Horizon Remastered verglichen. Der Detailgewinn mit Preset E ist teilweise schon erschreckend. Bei solchen perfekt scharfen Rasterized Spielen sieht man die Unterschiede noch viel deutlicher, als bei Raytraced spielen, die durch das Denoising grundsätzlich mehr Unschärfe und Artefakte haben.
Und ja, das Spiel nutzt standardmäßig Preset C und hat mit der neuen DLL automatisch Preset E. Umstellen im NV Inspector damit hinfällig (bis auf DLAA, wenn man Preset F nicht mag)
aufkrawall
2024-11-13, 16:06:53
Vermutlich ist es auch weiterhin F für Ultra Performance, das würd ich unbedingt auf E umstellen, weil unendlich viel schärfer. Und anders als C, fällt E mit UP nicht komplett auseinander. Sieht mit dem aktuellen Legacy-Content in Fortnite mit 4k-Target sogar gar nicht wirklich schlecht aus.
Und das E-Aliasing (nur weil es temporal unterdrückt wird, heißt das nicht, dass es statisch kein Aliasing wäre) betrifft quasi jedes Geometrie-Element mit hohem Kontrast, so selten tritt das mit Q/DLAA nicht auf. Das Rauschen von C nimmt mit weniger Upsampling ab, das Aliasing von E hingegen nimmt so zu.
Relex
2024-11-13, 20:42:07
F hat bei UP schon Vorteile.
Gibt z.B. in Cyberpunk einige Stellen, die mit E extrem flimmern und mit F stabil sind. Mit RR sind sie dann aber noch viel stabiler.
Ich hab die hoffnung, dass Nvidia es mit DLSS4 irgendwie schaft, Preset E, F und RR zu verschmelzen.
Da liegt noch einiges ungenutztes Potenzial.
Oliver_M.D
2024-11-14, 01:42:05
Anscheinend um die Hälfte kleiner da laut reddit alle Presets außer E/F entfernt wurden?!?Und ja, das Spiel nutzt standardmäßig Preset C und hat mit der neuen DLL automatisch Preset E. Umstellen im NV Inspector damit hinfällig (bis auf DLAA, wenn man Preset F nicht mag)Interessant, aber auch nicht ganz unerwartet. Spart mir immerhin etwas Arbeit und Stress, falls iwelche Spiele unsinnige Presets erzwingen (Hunt).
Mir fehlt bei dem Thema allerdings auch die Erfahrung und das Auge, daher war ich bisher ganz zufrieden mit F. :D
aufkrawall
2024-11-14, 01:58:10
Bei Hunt lässt sich die DLL nicht tauschen.
Relex
2024-11-14, 12:22:25
Hier hat jemand einen Vergleich zwischen Preset C und E gemacht, wo man die Unterschiede teils recht deutlich sieht.
doKULU2W8P4
aufkrawall
2024-11-14, 18:28:11
Ja, in 1440p rauscht das mit C-Q, je nach Content, schon ziemlich übel (XeSS 1.3 ist nochmal viel schlechter :freak: ). Leider fallen mir die gezackten Kanten mit E real auf dem Monitor trotzdem manchmal störender auf, spätestens mit 4k DLAA.
Andererseits nutze ich real mit der 4070S aber sowieso nie etwas anderes als 4k Performance, und da kann man E definitiv unterm Strich eine sehr große Verbesserung ohne wirkliche Verschlechterung attestieren. Witzig ist auch der Vergleich gegen das ehemals gute 2.2.6 (welches Preset auch immer das war). Das sieht bei 50% so unfassbar matschig vs. E aus, ist schon krass.
Ich würde mir für neue Titel aber eigentlich eh nur noch RR wünschen. Das ist einfach eine Evolutionsstufe weiter, und hoffentlich bald noch mehr. Schon allein den Bloom-Bug damit los zu sein, ist so sehr full of win...
(Natürlich darf das "Legacy-DLSS" gerne weiter unterstützt werden.)
Relex
2024-11-14, 18:36:15
Drück mal bei dem Starfield Vergleich auf Pause.
Wenn das Flimmern nicht da ist, würde mir preset C fast besser gefallen. Preset E wirkt stellenweise etwas ausgefranst.
Aber gut. Wie schon gesagt. Man kann hier und da noch einiges verbessern, aber was in der praxis zählt ist dann eben Stabilität und Detaillevel/Schärfe in bewegung und da liefert preset E schon sehr gut ab und ist ein großer Fortschritt.
RR finde ich aber noch nicht optimal. Ich habs letztens in Nobody Wants to Die per ini tweak reingefriemelt und da erzeugt es wieder diesen leichten "AI" ölgemälde look. Vor allem in bewegung sieht man es.
Ansonsten ist die Bildqualität natürlich bis runter zu DLSS Ultra performance in 4K erstaunlich gut und mMn besser und vor allem auch stabiler als klassisches DLSS.
aufkrawall
2024-11-14, 18:44:17
Ggf. war UE Tonemapper Sharpen on top? Mit RR ist nachträgliches Sharpen noch mehr pures Gift als schon mit Preset E (wobei es in Fortnite mit Performance-Upsampling noch halbwegs passt).
In irgendeinem Spiel mit UE ließ sich das Sharpen afair auch trotz Tonemapper Sharpen=0 in der Config nicht abschalten, komme aber nicht mehr auf den Titel (Talos 2 war es nicht).
robbitop
2024-11-14, 18:46:12
RR ist doch aber nur wenn auch RT zum Einsatz kommt oder?
aufkrawall
2024-11-14, 18:49:09
RR ist doch aber nur wenn auch RT zum Einsatz kommt oder?
Würde davon ausgehen, dass das selbst ohne jegliches SWRT/HWRT einfach als AA/Upsampler funktioniert. Ist halt von Nvidia ggf. nur nicht gewollt, weil es um so teurer wird, je günstiger die anderen Renderkosten werden.
Relex
2024-11-14, 19:08:07
Ggf. war UE Tonemapper Sharpen on top? Mit RR ist nachträgliches Sharpen noch mehr pures Gift als schon mit Preset E (wobei es in Fortnite mit Performance-Upsampling noch halbwegs passt).
In irgendeinem Spiel mit UE ließ sich das Sharpen afair auch trotz Tonemapper Sharpen=0 in der Config nicht abschalten, komme aber nicht mehr auf den Titel (Talos 2 war es nicht).
Das Game hat nen ingame scharfzeichner und soweit ich das mit dem Auge beurteilen kann ist der Scharfzeichner auch komplett aus, wenn man den Regler ganz nach links zieht.
Tatsächlich sieht das Bild mit Schärfung auf niedrigster Stufe aber sogar ganz gut aus, weil die die leichte Unschärfe von RR komplett durchbricht.
Aber der Ölgemälde look ist auch ohne Schärfung da.
Ich hab RR aber Primär wegen dem Lumen rauschen eingefügt. Das ist in dem Game ziemlich ausgeprägt. RR reduziert das schon sehr gut, wenn auch noch nicht perfekt.
Kann auch gut sein, dass RR je nach UE5 Version mal besser mal schlechter funktioniert. Bei Cyberpunk war der ölgemälde look ja auch viel stärker ausgeprägt, als bei anderen Spielen. Daher keine Ahnung was ich davon halten soll.
Aber egal. Man muss eben das nehmen was zur Verfügung steht und RR ist für mich unterm strich schon besser, weil das Rauschen sonst zu übel ist.
aufkrawall
2024-11-14, 19:10:22
Findest du? :D
R_DXVplZsaU
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.