PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27

Troyan
2023-03-18, 19:33:40
Sicher erzeugt FG Artefakte durch Unterabtastung. Es ist ja effektiv auch unterabgetastet, im Gegensatz zu DLSS aber temporal und nicht spatial. Das DF Video mit Spiderman zeigt die Artefakte ganz gut. Ob man es merkt ist eine andere Sache.

FG kann gut sein, aber DLSS (temporal supersampling) schlägt es mMn nicht. FG wird geil, wenn man z.B. 240fps anstrebt. Bei gerenderten 60fps hat es mich nicht vollends überzeugt. Am besten gefiel mir bei niedrigen FPS noch Portal RTX, ist oftmals aber eher langsames Gameplay.

Artefakte bei FG existieren nur jedes zweite Bild und sind, wie bei BFI, eben nicht annährend auffällig wie Unterabtastung bei DLSS, oder kaputtes LoD, oder Flimmern etc.

FG leidet auch nicht an Unterabtastung, da es immer die volle Auflösung zur Verfügung hat.

basix
2023-03-18, 21:20:33
FG ist ganz klar Unterabtastung, ohne wenn und aber. Da kannst du behaupten was du willst ;)

Und andere Dinge wie falsches LoD oder Flimmern transportiert man mit FG einfach mit. Ob das von DLSS erzeugt wird oder vom Spiel auch nativ vorliegt spielt da keine Rolle. FG kann da auch nicht zaubern.

Einzig beim Punkt, dass Artefakte je nachdem weniger auffallen kann ich dir zustimmen.

Deine FG Beweihräucherung braucht es hier nicht. Sonst können wir ja nochmals bei DLSS vs. FG über das Thema Inputlatenz sprechen. Reflex bei beiden an ;) Lustig finde ich zwar schon, dass du gegen DLSS stänkerst, jetzt wo FG noch Nvidia exklusiv ist :D

Achill
2023-03-18, 21:44:52
[..]
Im zweiten Bild kannst du an den Seiten, so eine Art Schrauben Nocken erkennen. Die fehlen im nativen Bild komplett.
[..]


Wenn das erste Bild nativ mit TAA ist, dann wird mit den "Nocken" dort jetzt etwas angezeigt was so aka "nativ" nicht vorgesehen ist. Es ist entweder ein BUG bei Nativ weil es fehlt oder etwas zu viel bei DLSS und damit auch ein Bug. Es kann natürlich sein, dass man dies nicht hören will ... falls jemand noch die Release-Version hat, man könnte ja einfach schauen wie es mal ausgesehen hat.


[..]
Weil DLSS das perfekte Bild von 16K Ausgangsbasis benutzt. Und die feinen Details, damit besser rekonstruieren kann.
[..]


Was ist den jetzt die 16K Ausgangsbasis und wo kommt diese Zahlt jetzt her?

--
Schwer zu finden ... aber vor 3 Jahren war da nichts: https://youtu.be/LJ6BnaE0Inc?t=256

https://i.imgur.com/LHHHAGx.png

Lurtz
2023-03-18, 21:56:20
Wenn das erste Bild nativ mit TAA ist, dann wird mit den "Nocken" dort jetzt etwas angezeigt was so aka "nativ" nicht vorgesehen ist. Es ist entweder ein BUG bei Nativ weil es fehlt oder etwas zu viel bei DLSS und damit auch ein Bug. Es kann natürlich sein, dass man dies nicht hören will ... falls jemand noch die Release-Version hat, man könnte ja einfach schauen wie es mal ausgesehen hat.


Die ganzen Details, die DLSS hier rekonstruiert, sind nativ also auch nicht vorgesehen? Die Fenstergitter, die Details in den Lichterketten sollen da gar nicht sein? :rolleyes:

https://abload.de/img/screenshot2023-01-141l6cfu.jpg

Ex3cut3r
2023-03-18, 22:17:24
Wenn das erste Bild nativ mit TAA ist, dann wird mit den "Nocken" dort jetzt etwas angezeigt was so aka "nativ" nicht vorgesehen ist. Es ist entweder ein BUG bei Nativ weil es fehlt oder etwas zu viel bei DLSS und damit auch ein Bug. Es kann natürlich sein, dass man dies nicht hören will ... falls jemand noch die Release-Version hat, man könnte ja einfach schauen wie es mal ausgesehen hat.



Was ist den jetzt die 16K Ausgangsbasis und wo kommt diese Zahlt jetzt her?

--
Schwer zu finden ... aber vor 3 Jahren war da nichts: https://youtu.be/LJ6BnaE0Inc?t=256

https://i.imgur.com/LHHHAGx.png

Nvidia trainiert das neuronale Netz jetzt mit 16K-Bildmaterial, das insbesondere feine Details in 3D-Spielen verbessern soll.

https://www.heise.de/newsticker/meldung/Nvidia-DLSS-2-0-KI-Upscaling-soll-Bildrate-in-Spielen-deutlich-steigern-4688882.html

Ansonsten, nimm doch bitte kein YouTube Videos, um feine Details zu erkennen. Die Kompression bei YouTube ist einfach zu stark. Ohne DLSS gibt es die Schrauben Nocken (wie nennt man die "Dinger" überhaupt richtig?) in solche einer Genauigkeit auch nicht.

Raff
2023-03-18, 22:17:39
Man kann übrigens ganz einfach testen, was vorgesehen, also im Content vorhanden ist: 8K-Downsampling. Sieht man dort Dinge, die "nativ" (= irgendeine geringe Auflösung) absaufen, rekonstruiert DLSS tatsächlich Dinge aus der Ground Truth. Passiert erschreckend oft. :D

MfG
Raff

Achill
2023-03-18, 22:38:27
Die ganzen Details, die DLSS hier rekonstruiert, sind nativ also auch nicht vorgesehen? Die Fenstergitter, die Details in den Lichterketten sollen da gar nicht sein? :rolleyes:

https://abload.de/img/screenshot2023-01-141l6cfu.jpg

Ist je wohl ein anderer Fall, die Niete/Nocke ist deutlich näher an der Position des Spielers. Die sollte auch ohne TAA zu sehen sein, nur dann halt mit Aliasing. Das (schlechte) TAA den DLSS2/FSR2/.. Ansätzen überlegen ist hab ich nicht geschrieben.

Ich habe die Aussage, dass nur DLSS2 richtig rendert, da die Nocke sichtbar ist, kritisiert.

--

Nvidia trainiert das neuronale Netz jetzt mit 16K-Bildmaterial, das insbesondere feine Details in 3D-Spielen verbessern soll.

https://www.heise.de/newsticker/meldung/Nvidia-DLSS-2-0-KI-Upscaling-soll-Bildrate-in-Spielen-deutlich-steigern-4688882.html

Ansonsten, nimm doch bitte kein YouTube Videos, um feine Details zu erkennen. Die Kompression bei YouTube ist einfach zu stark. Ohne DLSS gibt es die Schrauben Nocken (wie nennt man die "Dinger" überhaupt richtig?) in solche einer Genauigkeit auch nicht.

1. Der Heise-Artikel ist uralt und beinhaltet nicht einmal, dass DLSS und DLSS2 nichts wirklich miteinander zu tun haben außer auf nur NV-HW zu laufen - das ist Überspitzt aber trifft es imho ganz gut. Hier gibt ein Überblick über die Versionen: https://en.wikipedia.org/wiki/Deep_learning_super_sampling#Implementation .. Kann man sich in Ruhe hier anschauen, einfach des Marketing am Anfgang überspringen: https://youtu.be/d5knHzv0IQE?t=1486

2. Mir ist die Problematik mit YT Videos bewusst, ich brauchte aber Referenz-Material aus der Vergangenheit, wo in Doom E. noch kein DLSS2 integriert war - kam so ja zuerst auf den Mart.

Platos
2023-03-18, 22:48:10
Würde ich auch sagen. Als ob die Nocke in 4k Nativ nicht sichtbar wäre so nah am Spieler. Da muss was reingerutscht sein.

DLSS ist aber trotzdem gut. Bei Witcher 3 z.B siehts mit 4k DLSS Quality nicht gleich gut aus, sondern sogar besser (vor allem in Bewegung flimmert es weniger). Es ist fast schon mit Downsampling zu vergleichen und der Witz ist natürlich, dass ich nicht mehr Leistung brauche, sondern sogar noch die Last reduziere.

Aber keine Ahnung, wie es in dem Spiel von oben ist.

Ex3cut3r
2023-03-18, 23:27:22
Die Nocke aber nicht wirklich sichtbar, sobald DLSS deaktiviert ist. Soll ich ein HQ Video machen?

Ob der Heise Artikel uralt ist, ist doch kacke egal. DLSS benutzt 16K als "Rohmaterial" Mir doch wumpe, was so ein paar AMDler sagen. ;D

Troyan
2023-03-18, 23:43:42
FG ist ganz klar Unterabtastung, ohne wenn und aber. Da kannst du behaupten was du willst ;)

Es kann keine Unterabtastung sein, weil die Interpolation aus der nativen Auflösung erfolgt.


Und andere Dinge wie falsches LoD oder Flimmern transportiert man mit FG einfach mit. Ob das von DLSS erzeugt wird oder vom Spiel auch nativ vorliegt spielt da keine Rolle. FG kann da auch nicht zaubern.

Nichts davon hat irgendwas mit FG zu tun. FG führt nicht zu mehr flimmern und somit unterscheidet es sich massiv vom Upscaling.



Deine FG Beweihräucherung braucht es hier nicht. Sonst können wir ja nochmals bei DLSS vs. FG über das Thema Inputlatenz sprechen. Reflex bei beiden an ;) Lustig finde ich zwar schon, dass du gegen DLSS stänkerst, jetzt wo FG noch Nvidia exklusiv ist :D

Lustig finde ich, das du glaubst den Unterschied zu bemerken. ;D

Achill
2023-03-18, 23:44:50
[..]DLSS benutzt 16K als "Rohmaterial" Mir doch wumpe, was so ein paar AMDler sagen. ;D


Junge, DLSS nutzt kein 16k "Rohmaterial" .. das ist kompletter Quatsch sowas zu schreiben. Die DLSS2/3 DLL welche mit den Spielen ausgeliefert wird, besteht grob:
- aus der stabileren API für die Programme/Games (darum kann die dll ausgetauscht werden)
- ein oder mehreren? NV TAAU Verfahren
- die trainierten CNNs (gibt ja mehrere die man jetzt mit tweaks wählen kann) um (vereinfacht) Entscheidungen zum Input zu treffen

Die CNNs wurden von NV mit (tausenden) Szenarien aus Spielen und Co trainiert und beim Trainings gegen die "Ground Truth" vergleichen, dies mögen gern SSAA Bilder sein, gern irgendwas mit 16k .. das ist Zeit und Rechenaufwendig - kann aber unbeaufsichtigt Ablaufen was im Kern der große Vorteil von ML ist, egal ob (C)NN, Decision-Trees oder eine andere Teildisziplin von Machine-Leaning.

Nazar
2023-03-18, 23:58:10
Die ganzen Details, die DLSS hier rekonstruiert, sind nativ also auch nicht vorgesehen? Die Fenstergitter, die Details in den Lichterketten sollen da gar nicht sein? :rolleyes:

https://abload.de/img/screenshot2023-01-141l6cfu.jpg


Dicke versus Pixel versus Darstellbarkeit versus DLSS macht es trotzdem.
Obwohl die Streben aufgrund der Pixelgröße gar nicht so fein wie "gedacht" dargestellt werden können = DLSS haut einfach mal ein paar "fette" Streben raus, obwohl die im Größenverhältnis doppelt so dick sind wie vorgesehen.

Den DLSS Fans zu zeigen, dass sie Unrecht haben, ist einfacher als einem Baby den Schnuller zu klauen, nur das anschließende Geheule ist gleich. :D

Tesseract
2023-03-19, 00:14:42
was korrekt ist entscheidet aber - wie raff schon angemerkt hat - ein hochaufgelöstes referenzbild und nicht worauf du gerade lust hast.

Raff
2023-03-19, 00:33:45
FSR 2 kann ebenfalls pixelfeine Details rekonstruieren, die bei herkömmlicher Abtastung schon mal im Pixelraster absaufen. Ist das nun auch falsch, weil "nativ" nicht im Bild? Rhetorische Frage. ;)

MfG
Raff

aufkrawall
2023-03-19, 00:41:33
Man könnte ihm wahrscheinlich auch ein Bild mit 64xSSAA zeigen und er würd irgendwas bemäkeln. Kann man echt nur ignorieren, so ein Gefasel.

robbitop
2023-03-19, 09:21:48
FG ist ganz klar Unterabtastung, ohne wenn und aber. Da kannst du behaupten was du willst ;)


Er versteht das Prinzip der Abtastung offenbar nicht (Grundlagen Mess- und Regelungstechnik) und verknüpft das nur mit spatialer Auflösung (was zwar eine von vielen Dingen ist die man abtasten kann aber nicht Abtastung selbst ist - so wie ein Quadrat auch ein Rechteck ist aber nicht alle Rechtecke Quadrate sind). Ist leider nicht jeder auf dem Bildungsniveau das wir gern hätten. Entsprechend ist es wie Blinden etwas über Farben zu erzählen.

———————————

Was das Training für Ground Truth Auflösung angeht:
Man nutzt ja echte Subpixel samples die man aus vorherigen Frames zusammensucht. Da braucht es keine ground truth weil man echte Informationen hat. Klingt eher nach DLSS 1.
Ggf kann das zum Einsatz kommen, wenn das NN beim Clamping versagt und dann als „fallback“ mechanismus um für die Stellen halbwegs plausible Werte zu prognostizieren.

DrFreaK666
2023-03-19, 13:11:34
funktioniert das noch? Dann sollte ein 16k Screenshot zum Vergleich kein Problem sein
https://www.3dcenter.org/news/custom-dsr-tool-bietet-bis-zu-40x-downsampling-anti-aliasing

Achill
2023-03-19, 15:03:24
[..]
Was das Training für Ground Truth Auflösung angeht:
Man nutzt ja echte Subpixel samples die man aus vorherigen Frames zusammensucht. Da braucht es keine ground truth weil man echte Informationen hat. Klingt eher nach DLSS 1.
Ggf kann das zum Einsatz kommen, wenn das NN beim Clamping versagt und dann als „fallback“ mechanismus um für die Stellen halbwegs plausible Werte zu prognostizieren.

Ich glaube hier wird etwas missverstanden, DLSS2 (NV's TAAU mit CNN) wird mit/gegen die "Ground Truth" trainiert - nicht "für". Die Ground Truth ist die definierte (aber subjektiv) Wahrheit im Context von ML, bei Raster-Grafik m.E. also möglichst gutes AA (mit ggf. temp. Stabilität) und damit möglicherweise das gute klassische Super Sampling (daher Wahrscheinlich auch immer die Referenz zur 16k Auflösung).

Und auch der Ansatz von DLSS 1, wo auch ein CNN zu Anwendung kam (laut unserem Wissen), muss eben jenes gehen eine "Wahrheit" trainiert werden.

Wen es wirklich interessiert, den kann ich zum Einstig in die Thematik folgende YT-Reihe Making Friends with Machine Learning von Cassie Kozyrkov (https://www.youtube.com/playlist?list=PLRKtJ4IpxJpDxl0NTvNYQWKCYzHNuy2xG) empfehlen.

Ex3cut3r
2023-03-19, 16:42:38
Junge, DLSS nutzt kein 16k "Rohmaterial" .. das ist kompletter Quatsch sowas zu schreiben. Die DLSS2/3 DLL welche mit den Spielen ausgeliefert wird, besteht grob:
- aus der stabileren API für die Programme/Games (darum kann die dll ausgetauscht werden)
- ein oder mehreren? NV TAAU Verfahren
- die trainierten CNNs (gibt ja mehrere die man jetzt mit tweaks wählen kann) um (vereinfacht) Entscheidungen zum Input zu treffen

Die CNNs wurden von NV mit (tausenden) Szenarien aus Spielen und Co trainiert und beim Trainings gegen die "Ground Truth" vergleichen, dies mögen gern SSAA Bilder sein, gern irgendwas mit 16k .. das ist Zeit und Rechenaufwendig - kann aber unbeaufsichtigt Ablaufen was im Kern der große Vorteil von ML ist, egal ob (C)NN, Decision-Trees oder eine andere Teildisziplin von Machine-Leaning.

Gut, dann lag ich wohl falsch. Ändert trotzdem nichts an der Sache, dass 3.1.1. mit dem Preset F in 4K schon im Performance Mode hervorragende Ergebnisse erzielt. Mit einem 31.5" und Native 4K Auflösung @ 140 PPi.

FSR 2.0+ ist da leider im jetzigen Stand, ziemlich weit von entfernt.

Raff
2023-03-19, 16:43:33
funktioniert das noch? Dann sollte ein 16k Screenshot zum Vergleich kein Problem sein
https://www.3dcenter.org/news/custom-dsr-tool-bietet-bis-zu-40x-downsampling-anti-aliasing

Das Downsampling ging eine Weile jenseits von 2×2 kaputt, es wurde bröselig. Wie's aktuell aussieht, weiß ich nicht. Man kann aber trotzdem über 8K kommen, wenn man DSR/VSR mit einem Spiel kombiniert, das integriertes OGSSAA anbietet. 8K mit ordentlichem TAA ist schon verdammt dank an der "Wahrheit", zumindest bei aktuellem Content. ;) Brutales Supersampling kitzelt dann nur noch Details heraus.

Gut, dann lag ich wohl falsch. Ändert trotzdem nichts an der Sache, dass 3.1.1. mit dem Preset F in 4K schon im Performance Mode hervorragende Ergebnisse erzielt. Mit einem 31.5" und Native 4K Auflösung @ 140 PPi.

Mich würde wirklich ein Vergleich vor einer Raytracing-Reflexion interessieren. Ob das nun eine Scheibe oder Metallwand ist, dürfte egal sein. Jedenfalls fällt der Eindruck mit DLSS dann in sich zusammen, glaub mir. Ich bin gespannt, wann auch das ordentlich kompensiert werden kann. Ich dachte eigentlich, dass ich mal derartige Shots gemacht hätte, finde sie aber nicht. Magst du? :)

MfG
Raff

Ex3cut3r
2023-03-19, 16:53:32
Mich würde wirklich ein Vergleich vor einer Raytracing-Reflexion interessieren. Ob das nun eine Scheibe oder Metallwand ist, dürfte egal sein. Jedenfalls fällt der Eindruck mit DLSS dann in sich zusammen, glaub mir. Ich bin gespannt, wann auch das ordentlich kompensiert werden kann. Ich dachte eigentlich, dass ich mal derartige Shots gemacht hätte, finde sie aber nicht. Magst du? :)

MfG
Raff

Ja kann ich gerne machen. Weiß auch schon wo, im ersten DLC, erstes Level gibt gute Stellen. Spaziergang mit der Freundin steht aber erstmal an, werde es heute Abend machen. ;)

Ex3cut3r
2023-03-19, 20:33:48
So, hier die Screenshots, wie von Raff gewünscht.

Habe auch mal links unten in der Ecke das DLSS "HUD" aktiviert, dann sieht man auch das nicht bescheiße.

Die Spiegelungen leiden wie erwartet etwas mit DLSS, ich finds trotzdem immer noch ganz ok, für 1080p interne Render Auflösung.

Aber es wäre schon besser, wenn DLSS die Spiegelungen nicht "anfassen" wurde. Oder aber es zumindest aus Performancegründen, eine wählbare Option den User überlassen wurde.

https://abload.de/thumb/doometernalx64vk_2023b4dnd.png (https://abload.de/image.php?img=doometernalx64vk_2023b4dnd.png) https://abload.de/thumb/doometernalx64vk_2023m5dkb.png (https://abload.de/image.php?img=doometernalx64vk_2023m5dkb.png) https://abload.de/thumb/doometernalx64vk_2023e4fcn.png (https://abload.de/image.php?img=doometernalx64vk_2023e4fcn.png) https://abload.de/thumb/doometernalx64vk_2023uwien.png (https://abload.de/image.php?img=doometernalx64vk_2023uwien.png) https://abload.de/thumb/doometernalx64vk_20236mcvy.png (https://abload.de/image.php?img=doometernalx64vk_20236mcvy.png) https://abload.de/thumb/doometernalx64vk_2023g1dl7.png (https://abload.de/image.php?img=doometernalx64vk_2023g1dl7.png)

aufkrawall
2023-03-19, 21:07:01
Aber es wäre schon besser, wenn DLSS die Spiegelungen nicht "anfassen" wurde. Oder aber es zumindest aus Performancegründen, eine wählbare Option den User überlassen wurde.
Gibt im Control HDR-Mod die Option, die Anzahl der Rays zu erhöhen. Leider kostet das auch bei niedriger Auflösung noch massiv Leistung, läuft dann mit DLSS Performance langsamer als sonst mit Quality und sieht eher schlechter aus.
Es leiden halt auch insbesondere semi-glossy Reflexionen am meisten, bei perfekten Spiegeln stört es eher weniger. Semi-glossy wirkt dann leider sehr unsauber auf größeren Bereichen.

basix
2023-03-20, 00:30:45
Es kann keine Unterabtastung sein, weil die Interpolation aus der nativen Auflösung erfolgt.

Dann hast du Abtastung / Unterabtastung leider nicht verstanden. Gibt Wikipedia Artikel dazu ;)

Vielleicht aber ein erster Denkanstoss: DLSS tastet räumlich niedriger ab (geringere Auflösung). Man hat also nicht die volle räumliche Auflösung für die Rekonstruktion des Bildes zur Verfügung. Unterabtastung in räumlicher Ebene. Was macht FG? Man generiert ein Zwischenbild aus einer zeitlich gesehen nicht kompletten Bildabfolge. Man hat nicht die volle zeitliche Auflösung zur Verfügung. Ergebnus: DLSS und FG sind beide Beispiele von Unterabgetastung. Unterschied? Zeitlich vs. räumlich. That's it.

Zweiter Denkanstoss: Die Performance in FPS ist eine Funktion der "Abtastungsgeschwindigkeit" einer GPU. Desto schneller die GPU, desto schneller kann abgetastet werden, desto höher die FPS. Will man die Performance erhöhen, ohne eine höhere "Abtastunggeschwindigkeit" zu haben, klappt das nur mit weniger Samples oder eben Unterabtastung. So kann die GPU mehr FPS erzeugen, weil pro Bild eine geringere "Abtastungsgeschwindigkeit" nötig ist. Nun erhöht DLSS die FPS, da die GPU eben räumlichweniger abtasten/samplen muss. Was macht also FG, um die FPS erhöhen zu können? Prinzipbedingt geht das nur mit Unterabtastung, da die "Abtastungsgeschwindigkeit" der GPU sich nicht geändert hat ;)

Gott1337
2023-03-20, 00:32:21
FG hat nix mit Subsampling oder sampling in diesem Sinne zu tun, es ist einfach so.
Ich weiß worauf du hinaus willst, aber die Begriffe haben dennoch nix damit zu tun.

Außer es wird nur ein Teil der "echten" Frames genommen, dann könnte man schon von subsampling iiiirgendwie sprechen, DLSS ist indirekt subsampling, wenn man von der Ausgabeauflösung ausgeht. Davon weiß DLSS aber nix, denn es nimmt für sich schon ein nativen frame und skaliert ihn noch. Daher sprechen wir auch einfach von upscaling.

basix
2023-03-20, 00:38:56
DLSS = Upsampling oder Supersampling ;)

Upscaling ist was anderes und wird leider oft mit Upsampling gleichgestellt

Gott1337
2023-03-20, 00:46:52
DLSS = Upsampling oder Supersampling ;)

Upscaling ist was anderes und wird leider oft mit Upsampling gleichgestellt
ist schon klar, es wird aber erst durch mehrere frames zum supersampling, es bleibt dennoch auch upscaling mit supersampling. Der erste Frame ist auf jedenfall subsampled.
Bei dem eigentlich supersampling bleibt die Auflösung nämlich gleich.

Gast
2023-03-21, 11:01:59
Die Spiegelungen leiden wie erwartet etwas mit DLSS, ich finds trotzdem immer noch ganz ok, für 1080p interne Render Auflösung.



RT Spiegelungen werden in Doom Eternal Standardmäßig mit halber Renderauflösung gerendert.

Per Konsole kann man aber volle Renderauflösung erzwingen, womit diese mit DLSS Performance gleich gut wie ohne DLSS@Default aussehen.

DLSS-Performance + 1:1 Spiegelungen ist aber immer noch deutlich schneller als kein DLSS und 1:2 Spiegelungen.

Lurtz
2023-03-21, 20:17:25
Gibt eine DLSS DLL 3.1.11 aus dem DLSS-SDK.

teezaken
2023-03-21, 20:26:14
Gibt eine DLSS DLL 3.1.11 aus dem DLSS-SDK.
Jap und FG 3.1.10, welche ich aber schlechter finde als 1.0.7.0

aufkrawall
2023-03-22, 01:06:30
Jap und FG 3.1.10, welche ich aber schlechter finde als 1.0.7.0
Hoffentlich keine komischen Presets nun auch für FG, die teilweise furchtbar sind. X-D
Was ist denn schlechter?

Minimal OT, aber da es vor Kurzem noch um TAAU allgemein ging:
https://abload.de/thumb/fortniteclient-win64-t0ism.png (https://abload.de/image.php?img=fortniteclient-win64-t0ism.png) https://abload.de/thumb/fortniteclient-win64-0deqy.png (https://abload.de/image.php?img=fortniteclient-win64-0deqy.png)

TAA alte vs. neue Generation + Upsampling (ins fps-Limit). Nicht Ganon oder Nazar sagen, die würden darauf nicht klarkommen. :ulol:
Troyan wohl auch nicht, so ganze ohne DL. Ist in Bewegung sogar deutlich schärfer als DLSS Preset C, von D gar nicht zu reden. :freak:

basix
2023-03-22, 01:12:08
Ist das TAAU und TSR? Oder von was für Upsampling sprechen wir hier?

aufkrawall
2023-03-22, 01:13:31
TAA 100% und TSR high 70%. Sieht btw. auch etwas besser aus als TSR medium 80%, beides etwa gleich schnell auf der 6700 XT.
Das TSR wurde in den letzten Monaten massiv verbessert.

basix
2023-03-22, 01:20:28
Ja, sieht so aus :)

Wie sieht das mit Ghosting und Blurring aus? Das gefiel mir z.B. in den Mawi Demos überhaupt nicht. TSR Quality ging noch gerade so und TSR Performance war mMn unbrauchbar.

Ich hoffe sie drehen noch etwas and der Performance. 70% und nur so wenig schneller? Oder skaliert hier die UE5 einfach nur mager mit der Auflösung?

aufkrawall
2023-03-22, 01:45:38
Etwas schwer zu trennen, was das TSR verkackt und was es andererseits nicht schafft, an Artefakten anderer Effekte wie Lumen und Virtual Shadow Maps wegzufiltern. Je niedriger die Auflösung, desto schlechter klappt Letzteres. In 4k mit 66% ist es noch gut dabei, mit 50% dann schon deutlich schlechter.

Für meinen Fall ohne Lumen und Schatten hat es eigentlich fast gar keine temporalen Fuck Ups, von den üblichen Schwächen gegenüber DLSS (animierte Texturen etc.) abgesehen. Quasi gar kein Ghosting, selbst Jittering dünner Linien sieht bei dem Fortnite-Content oft ziemlich gut aus gegenüber DLSS. Grenzt schon an ein Wunder, wie scharf das in Bewegung ist bei gleichzeitig guter temporaler Stabilität und Freisein anderer Artefakte. Die extrem bzw. absurd teure TSR epic-Einstellung deklassiert DLSS regelrecht bei der Bewegungsschärfe und Stabilität (von Worst Case Disocclusion-Fails wie Sturmgrenze in Bäumen abgesehen).

Der größte Bonus ist natürlich kein Smearing gegenüber DLSS. Ist deutlich angenehmer, wenn bewegende, weit entfernte Gegner sich klarer vom Hintergrund abzeichnen, und das Smearing nervt auch sonst gerne mal beim Klettern/Springen etc. Hatte deshalb zuletzt auch auf der 3060 stattdessen TSR genutzt.
https://abload.de/thumb/fortniteclient-win64-u6i95.jpg (https://abload.de/image.php?img=fortniteclient-win64-u6i95.jpg)

teezaken
2023-03-22, 17:37:00
Hoffentlich keine komischen Presets nun auch für FG, die teilweise furchtbar sind. X-D
Was ist denn schlechter?

UI Artifacting ist so viel schlimmer das ich es auch bei 3 stelligen FPS deutlich und ohne Probleme sehen kann.

Sardaukar.nsn
2023-03-23, 06:28:20
Nur noch 1/8 Pixel werden mit Rasterizer berechnet, dann schlägt die Stunde der KI...

https://cdn.abcteach.com/abcteach-content-free/docs/free_preview/r/rectangleeighths8rgb_p.png

DLSS allows games to render 1/8th of the pixels, then uses AI and GeForce RTX Tensor Cores to reconstruct the rest, dramatically multiplying frame rates, while delivering crisp, high-quality images that rival native resolution.

https://blogs.nvidia.com/wp-content/uploads/2023/03/GDC_PathTracing-406x213.jpg

https://blogs.nvidia.com/blog/2023/03/22/cyberpunk-2077-path-traced-visuals-gdc/

robbitop
2023-03-23, 08:45:26
Marketingsprech von Nvidia.
Gemeint ist damit DLSS Peformance (1/4 der Pixel) + FG (verdoppelt die FPS).

Aber irgendwie finde ich das auch etwas irreführend. Denn die KI denkt sich ja die Pixel nicht aus. Die Informationen sind ja real vorhanden durch jittering der Subpixel. Sie sind temporal nur etwas aufwändiger wieder zu finden. Aber es sind echte Informationen, die (wenn wieder gefunden) genauso valide sind als würde man diese pro Frame nochmal berechnen. Es ist eher das schlaue Nutzen von dem was eh schon immer da war.
Das NN hilft dabei. Geht aber auch ohne sie FSR und TSR.

Frame Generation geht da schon eher in die Richtung - nutzt aber aufgrund der Flow Acceleration und der Motion Vectors eigentlich auch viele Informationen, die bereits da waren.

Die Aussage ist nicht falsch aber etwas irreführend finde ich und stellt AI besser da als sie aktuell ist.

Sardaukar.nsn
2023-03-23, 09:39:57
Ist natürlich auch eine Aussage aus dem Marketin, aber zeigt doch ganz klar wohin die Reise geht. Gut finde ich das durch den Einsatz von KI auch massiv die Effizienz steigt.

aufkrawall
2023-03-23, 09:41:55
das durch den Einsatz von KI auch massiv die Effizienz steigt.
Ist genau so ein Marketing-Bla wie der Rest. Nicht wirklich falsch, aber mit ganz viel kleingedrucktem Sternchen-Text.

robbitop
2023-03-23, 09:52:46
Ist natürlich auch eine Aussage aus dem Marketin, aber zeigt doch ganz klar wohin die Reise geht. Gut finde ich das durch den Einsatz von KI auch massiv die Effizienz steigt.
Naja TSR und FSR zeigen, dass es auch ohne KI geht. Mal schauen was FSR 3 so zeigt. Ggf. das gleiche.
Aber ja bis dato ist DLSS qualitativ fast immer vorn.

Gast
2023-03-23, 09:54:29
Aber irgendwie finde ich das auch etwas irreführend. Denn die KI denkt sich ja die Pixel nicht aus.

Aber klassisch gerendert werden tatsächlich nur 1/8 der Pixel. Klar wird der Rest von der AI nicht einfach random aufgefüllt, sondern aus dem tatsächlich gerendertem Achtel rekonstruiert.

Gast
2023-03-23, 10:01:45
Ist genau so ein Marketing-Bla wie der Rest. Nicht wirklich falsch, aber mit ganz viel kleingedrucktem Sternchen-Text.

Naja, es stimmt schon, dass DLSS der größte Sprung im Verhältnis Performance zu dargestellter Qualität über so ziemlich die gesamte Geschichte der 3D Beschleuniger ist.

Und das selbst wenn man die Zeit mitbetrachtet, in der Moores Law und Dennards Law noch gültig waren.

Das einzige was dem irgendwie Nahe kommt sind die allerersten 3D-Beschleuniger.

Umso beeindruckender ist, dass dies in einer Zeit stattfindet in der Echtzeit 3D Grafik schon einigermaßen fortgeschritten ist und man eigentlich immer mehr Performance für noch mehr Qualität braucht.

robbitop
2023-03-23, 10:10:09
Ich finde es auch beeindruckend. Aber beides scheint auch ohne AI zu gehen. Ist halt modernes compute um das beste aus den tatsächlich vorhandenen (aber bisher nie sinnvoll genutzten) Informationen zu machen. Man hat einfach nur die Effizienz / den Ausnutzungsgrad der vorhandenen Informationen erhöht.
NV bewirbt (nachvollziehbarerweise - denn sie setzten als Firma einen großen Fokus auf R&D für AI HW und SW) in einer etwas verzerrenden Art und Weise AI.

btw:
ist Epics TSR eigentlich open source wie FSR so, dass es auch außerhalb von Unreal Engine Spielen genutzt werden kann? Ich vermute nicht, oder?

Gast
2023-03-23, 12:00:37
Ich finde es auch beeindruckend. Aber beides scheint auch ohne AI zu gehen.


Gut wenn du dich jetzt explizit auf das AI-Buzzword beziehst stimmt es natürlich, dass dieses vom Marketing heutzutage inflationär verwendet wird.

Mir geht es aber eher um die Technik an sich und vor allem um das Ergebnis was sie bringt, und nicht wie man das jetzt nennt, und da finde ich es einfach extrem beeindruckend wie viel Rechenleistung man einsparen kann und wie gut das Ergebnis ist.


btw:
ist Epics TSR eigentlich open source wie FSR so, dass es auch außerhalb von Unreal Engine Spielen genutzt werden kann? Ich vermute nicht, oder?

Ist nicht die gesamte UE open source? Oder gilt das für 5.x nicht mehr?

Wobei ich jetzt nicht auf dem aktuellsten Stand bin, aber ist Epics Ansatz nicht auf dem Niveau von FSR, und damit deutlich schlechter als die aktuellen ML-basierten (fuck jetzt hab ich selbst das Buzzword verwendet) von DLSS und XeSS?

Bei FSR ist das kriseln jedenfalls selbst auf dem Minidisplay vom Steamdeck unübersehbar.

robbitop
2023-03-23, 13:29:01
Dem User "aufkrawall" ist (hat er gerade erst hier gepostet - und er ist da ziemlich aufmerksam und pingelig) aufgefallen, dass TSR im UE5 Fortnite build kürzlich (per update) deutlich besser und auch teurer geworden ist.

Dass man Artefakte bei dieser Technik auf dem Steamdeck sieht ist nicht überraschend. Immerhin ist die Baseline mit der Displayauflösung ja schon recht gering, so dass man am Ende mit so niedriger Inputresolution arbeiten muss, dass es für diese Verfahren halt schwierig wird. Hätte es ein 1080p Display und man würde im Performancemode mit 540p inputresolution arbeiten wäre es wahrscheinlich deutlich besser.

Ich weiß nicht in wiefern UE5 open source ist und in wievern man TSR in Titeln mit anderen Engines bringen kann und darf.

basix
2023-03-23, 15:55:40
UE5 ist Open Source, ja. Das heisst aber nicht, dass man TSR in andere Engines einbauen kann. Die Lizenzmodelle der UE5 sind komplett anders als bei FidelityFX von AMD.

robbitop
2023-03-23, 16:14:52
Sehr schade - klingt ja als wenn es eine coole Technologie ist. Je mehr nicht proprietäre Optionen desto besser.

Gott1337
2023-03-23, 17:14:28
Sehr schade - klingt ja als wenn es eine coole Technologie ist. Je mehr nicht proprietäre Optionen desto besser.
Nein, nur OpenSource ist auch nicht gut. Es würde keine Konkurrenz geben. Kein Druck sich einen Vorteil zu verschaffen und das würde die Entwicklung verlangsamen. Wenn sich mal eine Technik durchgesetzt hat weil sie allen anderen überlegen ist, dann wäre es schön wenn sie OpenSource wird.

Sieht man ja auch schön an OpenAI, da ist nix mehr Open. AMD könnte ja auch ihre CPU und GPU Architekturen OpenSource machen klar, werden sie aber nicht weils dumm wäre.
Wer gibt die Entwicklungsrichtung bei einem Opensource Projekt vor? Wer bestimmt am Ende? Am Ende gibt es forks und dann hast du auch keinen Gewinn dadurch.

Gast
2023-03-23, 17:25:18
Naja TSR und FSR zeigen, dass es auch ohne KI geht. Mal schauen was FSR 3 so zeigt. Ggf. das gleiche.
Aber ja bis dato ist DLSS qualitativ fast immer vorn.

Bisher zeigen die was? Bitte nicht immer solch pauschalen Unsinn verbreiten, es nervt einfach.

Gast
2023-03-23, 17:30:45
UE5 ist Open Source, ja. Das heisst aber nicht, dass man TSR in andere Engines einbauen kann.


Es heißt aber nicht, dass man sich nicht Ideen anschauen und das Ganze nachbauen kann.

Eine 1:1 Kopie lässt das Lizenzmodell freilich nicht zu

robbitop
2023-03-23, 17:55:47
Nein, nur OpenSource ist auch nicht gut. Es würde keine Konkurrenz geben. Kein Druck sich einen Vorteil zu verschaffen und das würde die Entwicklung verlangsamen. Wenn sich mal eine Technik durchgesetzt hat weil sie allen anderen überlegen ist, dann wäre es schön wenn sie OpenSource wird.

Sieht man ja auch schön an OpenAI, da ist nix mehr Open. AMD könnte ja auch ihre CPU und GPU Architekturen OpenSource machen klar, werden sie aber nicht weils dumm wäre.
Wer gibt die Entwicklungsrichtung bei einem Opensource Projekt vor? Wer bestimmt am Ende? Am Ende gibt es forks und dann hast du auch keinen Gewinn dadurch.

Ja das ergibt schon Sinn.

robbitop
2023-03-23, 17:57:46
Bisher zeigen die was? Bitte nicht immer solch pauschalen Unsinn verbreiten, es nervt einfach.

Ggf mal in einem angemessenen Ton antworten. Die Verfahren zeigen (insbesondere bei guten Implementierungen), dass sie auch gute Ergebnisse (in Bezug auf Artefakte in Relation zur Inputresolution) in der Rekonstruktion erreichen können. Laut aufkrawall ist TSR seit kurzem in Fortnite sogar auf einem besonders gutem Level.

Gast
2023-03-23, 18:16:24
Ggf mal in einem angemessenen Ton antworten. Die Verfahren zeigen (insbesondere bei guten Implementierungen), dass sie auch gute Ergebnisse (in Bezug auf Artefakte in Relation zur Inputresolution) in der Rekonstruktion erreichen können. Laut aufkrawall ist TSR seit kurzem in Fortnite sogar auf einem besonders gutem Level.

An die Rekonstruktionsleistung von DLSS kommt bisher kein anderes Verfahren heran, das wird auch noch einige Zeit so bleiben.
Nur weil irgendjemand etwas behauptet, muss es den Tatsachen entsprechen? Sehr naive Denkweise...
Ich bewerte nur das , was es aktuell an Implementierungen gibt und selbst Intel's XeSS ist den meisten Games dem FSR überlegen und selbst dieses ist noch nicht so robust über alle Preset's hinweg wie NVIDIA DLSS bei weniger Samples.

Sardaukar.nsn
2023-03-23, 19:25:23
Naja, es stimmt schon, dass DLSS der größte Sprung im Verhältnis Performance zu dargestellter Qualität über so ziemlich die gesamte Geschichte der 3D Beschleuniger ist...

Das einzige was dem irgendwie Nahe kommt sind die allerersten 3D-Beschleuniger.

Umso beeindruckender ist, dass dies in einer Zeit stattfindet in der Echtzeit 3D Grafik schon einigermaßen fortgeschritten ist und man eigentlich immer mehr Performance für noch mehr Qualität braucht.

Obwohl ich ja auch schon seit 3Dfx Zeiten dabei bin, finde ich dieses Sprung ganz besonders enorm. Rohleistung ist gegenüber meiner Vorgänger 3080 10GB um +120% gestiegen und inzwischen bei 100 Tera-FLOPS (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13264458#post13264458). Wenn man bedenkt das davon nur ein Bruchteil benötigt wird und bis zu 7/8 Pixeln aus den Tensor-Cores kommen ist der Sprung für eine Generation absolut enorm. Durch die Implementierung von von DLSS3 in fast allen großen Spielen und Engines wird sich das auch in der Breite durchsetzen.

aufkrawall
2023-03-23, 19:43:11
Laut aufkrawall ist TSR seit kurzem in Fortnite sogar auf einem besonders gutem Level.
Das muss man mir ja auch nicht blind glauben, sondern kann sich jeder in dem F2P-Spiel auch selbst anschauen. ;)

Tobalt
2023-03-23, 19:55:52
Wer denkt dass 1/8 der Pixel zu Rendern krass ist, sollte sich mal mehr mit der menschlichen visuellen Bildentstehung beschäftigen.

Nur ein aberwitzig geringer Anteil dessen was wir "erleben", haben wir tatsächlich physisch wahrgenommen. Det Rest ist zusammeninterpoliert aus vergangenen Infos.

Dabei erreichen wir eine Auflösung die deutlich über der unserer Netzhaut liegt und erleben kaum temporale Artefakte. Wenn man die Selbstreflexion zulässt, ist der Sinneseindruck aber auch bei Menschen nicht Artefaktfrei. Beispiel:

Am Rande des Sehfeldes haben wir eine sehr geringe Auflösung. Deshalb kann es sein, dass unsere Psyche dort etwas interpretiert, was bei richtigem Hinsehen dann doch etwas anderes ist.

Oder bei richtig krasser Dunkelheit: Auch hier kommen einfach zu wenig Infos im Hirn an, als dass die Szene immer temporal kohärent bleibt und die Interpretation von Silhouetten oder Tiefeanstufungen kann sich sprunghaft ändern.

Trotz allem zeigt dieser Sinnesapparat, was mit spatiotemporaler Interpolation möglich ist. Langfristig ist es sicher realistisch unter 1% der Pixel durch den Rasterizer zu schicken.

robbitop
2023-03-23, 19:59:21
Das muss man mir ja auch nicht blind glauben, sondern kann sich jeder in dem F2P-Spiel auch selbst anschauen. ;)
Ich kenne keinen anderen, der sich das so genau und so kritisch und auch so differenziert anschaut wie du. Das beweist du ja hier im Forum fast täglich. Entsprechend nehme ich deine Hinweise da auch sehr ernst.

robbitop
2023-03-23, 20:05:34
An die Rekonstruktionsleistung von DLSS kommt bisher kein anderes Verfahren heran, das wird auch noch einige Zeit so bleiben.
Nur weil irgendjemand etwas behauptet, muss es den Tatsachen entsprechen? Sehr naive Denkweise...
Ich bewerte nur das , was es aktuell an Implementierungen gibt und selbst Intel's XeSS ist den meisten Games dem FSR überlegen und selbst dieses ist noch nicht so robust über alle Preset's hinweg wie NVIDIA DLSS bei weniger Samples.
Ich habe nicht behauptet, dass FSR gleich gut rekonstruiert wie die modernsten dlls von DLSS. DLSS liegt vorn und das sieht man besonders je geringer die Inputresolution wird. Ich habe selbst genau deswegen zu Ampere gegriffen statt zu RDNA2.
Aber es ist dennoch im Quality Preset in 4K absolut brauchbar und grob auf dem Level der ersten DLSS 2 Implementierungen (in Cyberpunk und Hitman 3 ist FSR 2.1 relativ gut umgesetzt) mit den ersten DLLs. Und auch bei FSR sieht man entsprechende Verbesserungen von Version zu Version. Bei TSR offenbar auch. Und aufkrawall ist nicht einfach "irgendein anderer User". Er schaut sich die BQ dieser Verfahren so akribisch an wie kein anderer (inkl Testredaktionen die man so kennt) und berichtet regelmäßig detailiert inkl Bildern zu seinen Beobachtungen. Wenn er sagt, dass die neuste Implementierung von TSR relativ zu DLSS auf einem sehr guten Level mittlerweile bei Fortnite angekommen ist (und sogar die üblichen Aspekte wie disocclusion, smearing, Artefakte bei Transparenzeffekten usw beleuchtet) dann ist das immerhin ein brauchbarer Anfang. Wie wäre es mit einem Gegenbeleg?

Ggf. mäßigst deinen Ton und legst anderen Leuten nicht etwas in den Mund, was sie nicht gesagt haben. Sachlich diskutieren ist doch sinnvoller. Btw bist du es Axel? ;)

Sardaukar.nsn
2023-03-23, 20:27:05
Wer denkt dass 1/8 der Pixel zu Rendern krass ist, sollte sich mal mehr mit der menschlichen visuellen Bildentstehung beschäftigen. [...]
Trotz allem zeigt dieser Sinnesapparat, was mit spatiotemporaler Interpolation möglich ist. Langfristig ist es sicher realistisch unter 1% der Pixel durch den Rasterizer zu schicken.

Da stimme ich dir zu und genau darum wird ja die KI-Komponente in aktuellen GPUs immer spannender als die Steigerung der Rohleistung um Faktor-XY. Natürlich kann man pauschal alles Fake-Pixel oder Fake-Frame abtun. Dem subjektiven Spielgefühl einem ultra-flüssigen Witcher 3 mit Frame-Generation hat das aber keinen Abbruch getan. Ich bin gespannt wohin die Reise geht, aber aktuell machen wir auch dank Technik wie DLSS riesige Fortschritte.

basix
2023-03-23, 20:42:33
Es heißt aber nicht, dass man sich nicht Ideen anschauen und das Ganze nachbauen kann.

Eine 1:1 Kopie lässt das Lizenzmodell freilich nicht zu
Natürlich kann man sich Ideen anschauen und solange nichts patentiert ist oder dem UE5 Lizenzmodell widerspricht bleibt das auch ohne rechtliche Konsequenzen. Epic präsentiert einige Dinge auch an z.B. den Grafik-Engine Messen, wo man die entsprechenden Konzepte dann eh öffentlich macht.

FSR2 ist aber wohl gutmütiger in Punkto "abschauen"

robbitop
2023-03-23, 20:59:17
So habe mir jetzt das verbesserte TSR in Fortnite im Modus "Forrest of the Guardian" (da wird man nicht von anderen Spielern genervt) angeschaut und mit DLSS verglichen.

1440p und hohe Details (Lumen und Nanite an).

1.) TSR epic ist teuer - TSR high war ungefähr auf dem Performance Level von DLSS bei gleicher Inputresolution.
2.) TSR epic sieht trotz nur 1440p schon mMn bei 50% Inputresolution schon echt gut aus. DLSS etwas besser - vor allem bei Disocclusion. Aber ich finde man muss schon genau hinsehen. Bei 70% wird er dann noch schwieriger die Unterschiede zu sehen.

Also so weit ist das vom Ergebnis auf den ersten Blick (trotz mäßiger Outputresolution und wirklich kleiner Inputresolution) von DLSS nicht entfernt - im Gegenteil. Schade, dass kein FSR 2.x angeboten wird. Ich würde gern den Vergleich zu der neusten TSR Iteration haben. Aber TSR hat sich mMn wirklich gemacht - das sehe ich auch wie aufkrawall.

Mich wundert, warum Epic das nicht beworben hat auf der GDC.

Gast
2023-03-24, 00:43:37
Aber es ist dennoch im Quality Preset in 4K absolut brauchbar und grob auf dem Level der ersten DLSS 2 Implementierungen (in Cyberpunk und Hitman 3 ist FSR 2.1 relativ gut umgesetzt) mit den ersten DLLs. Und auch bei FSR sieht man entsprechende Verbesserungen von Version zu Version.

Nein ist es nicht, da es genau das Gegenteil von dem macht, für was Temporal SSAA stehen sollte, es flimmert und neigt zu mehr Artefakten (Moire-Muster bei weniger Samples, der "handcrafted" Algo einfach zu oft danebengreift)
Selbst in neuesten Titeln wie COD MW 2022 mit FSR 2.1 kann nicht überzeugen, auch DLSS (2.xx) war in Cyberpunk 2077 nie so schlecht, wie kann man nur so argumentieren? *kopfschüttel*
FOP_p_7EDX8?t=48

robbitop
2023-03-24, 07:01:06
:rolleyes: agree to disagree. Mit dir zu diskutieren ist sinnlos, weil du offenbar nicht sachlich diskutieren kannst oder willst und lieber rumpöbelst und Argumente zT ignorierst und zum Teil völlig verdrehst. Und offenbar hast du vergessen, wie DLSS 2.0 in den allerersten dlls und Imolementierungen aussah. Death Stranding und Control. Das sollte man sich entsprechend ungepatcht anschauen. Da griff DLSS auch noch öfter daneben. Und das Lel meinte ich. Nicht das aktuelle Level von halbwegs neuen dlls. Und btw schaue dir gern mal in Fortnite das neue TSR an - habe ich gestern abend auch gemacht.

Sardaukar.nsn
2023-03-24, 07:12:35
TSR in Fortnite schön und gut, aber halt kein Game-Changer wie DLSS.

Die ADA Chips bestehen zu 1/3 aus Tensor bzw. Ki-Kernen und so langsam zeigt sich was für ein Potential in dieser Deep-Learning Hardware steckt. Ist ne andere Liga als was AMD da aktuell macht.

https://developer.nvidia.com/blog/wp-content/uploads/2018/09/image11-601x1024.jpg

robbitop
2023-03-24, 09:01:14
Nutzt du jetzt ein Blockschaudiagramm um die relative Größe der Tensor Cores zu zeigen? :D

Dass DLSS bis dato ungeschlagen ist, ist doch bereits konsens. Es geht nur darum, dass nicht NN Verfahren auch immer besser werden und zumindest bei halbwegs guter Output und Inputresolution auch gute Ergebnisse erzielen. Bei TSR in Fortnite musst du unter den Bedingungen schon genau hinschauen um die Unterschiede zu sehen.
Je geringer die Auflösung (input) desto größer wird der Unterschied. In "ultra performance" ist er dann riesig.

Ja ohne Frage ist das wirklich ein Gamechanger und besser. Aber grundsätzlich sind in der Praxis auch gute Ergebnisse in obigen Konstellationen möglich. Es gibt nicht nur schwarz und weiß.

DrFreaK666
2023-03-24, 09:51:45
"Ja, aber NV ist besser wegen KI" ^^
Schon lustig hier :D

Tobalt
2023-03-24, 09:59:33
Wichtig ist, dass Enginehersteller und Nutzer(Gamer) akzeptieren, dass spatiotemporale Interpolation künftig ein unverzichtbarer Bestandteil des Renderings wird genauso wie es die 3d Hardware beschleuniger Chips früher wurden (Riva/Voodoo/Rage).

Dann ist das signal nämlich da für GPU Hersteller, dass sie durch die LowPrec Einheiten keinen Die space "verschwenden", sondern im Gegenteil, mit der Richtigen Mischung Top Performer werden.

Für diese Aufgabe scheinen DNNs softwareseitig das beste Konstrukt zu sein und händische Algos nicht adaptiv genug zu funktionieren, um überall mithalten zu können. Also macht es auch Sinn dafür Hardwareeinheiten aufzubieten.

Ich kann aber das Zögern verstehen.. Solange noch viele Gamer von der tollen Qualität des Nativen Renderings schwadronieren, kann man Karten ohne Low Precision Einheiten noch gut verkaufen.

robbitop
2023-03-24, 11:05:08
Wichtig ist, dass Enginehersteller und Nutzer(Gamer) akzeptieren, dass spatiotemporale Interpolation künftig ein unverzichtbarer Bestandteil des Renderings wird genauso wie es die 3d Hardware beschleuniger Chips früher wurden (Riva/Voodoo/Rage).

Dann ist das signal nämlich da für GPU Hersteller, dass sie durch die LowPrec Einheiten keinen Die space "verschwenden", sondern im Gegenteil, mit der Richtigen Mischung Top Performer werden.

Für diese Aufgabe scheinen DNNs softwareseitig das beste Konstrukt zu sein und händische Algos nicht adaptiv genug zu funktionieren, um überall mithalten zu können. Also macht es auch Sinn dafür Hardwareeinheiten aufzubieten.

Ich kann aber das Zögern verstehen.. Solange noch viele Gamer von der tollen Qualität des Nativen Renderings schwadronieren, kann man Karten ohne Low Precision Einheiten noch gut verkaufen.

:up: Ich finde, das ist ein guter Post, den ich inhaltlich so genauso sehe.

NN Verfahren erzielen derzeit die besten Ergebnisse. Da herrscht Konsens. Und entsprechend es wäre gut, wenn es zukünftig IHV agnostische Verfahren mit NN geben wird.

Weiterhin ist es wünschenswert, wenigstens ein temporales Upsampling Verfahren welches auf jeder Hardware läuft zu unterstützen (zusätzlich zu proprietären Verfahren). Und das scheint ja auch mittlerweile zumeist der Fall zu sein.
Es ist anzunehmen, dass diese Verfahren 1. besser werden und 2. (hoffentlich) mittelfristig auch auf NN aufbauen werden, wenn entsprechende Hardware den Hardwaremarkt durchdringt.
Intel und Nvidia haben entsprechende HW. AMD noch nicht. Ggf. wird aber auch genug Vektorrechenleistung mittelfristig geboten, um auch ohne Matrixcores NN nutzen zu können und man findet einen Weg auch gute Ergebnisse mit etwas weniger komplexen NN damit möglich zu machen (XeSS mit INT8 geht ja in die Richtung auch wenn deren Ergebnisse nicht berauschend sind). Ggf. gibt es dann auch irgendwann bei AMD Matrixcores und man muss sukzessive immer weniger Rücksicht auf Hardware mit besonders geringer Matrixleistung nehmen.
So dass sich das ganze evolutionär auch in der breiten Masse in optionalen HW agnostischen Verfahren durchsetzt und qualitativ immer besser wird.

Ja DLSS ist (insbesondere mit modernen dlls und normiert zur inputresolution) ohne Frage besser. Aber auch TSR und FSR erzielen (bei hoher Auflösung) schon relativ brauchbare Ergebnisse. Es wäre ein sehr guter Schritt das als kleinsten gemeinsamen Nenner in jedem Spiel zu haben.
Was mich an DLSS 2 gestört hat, dass es bis Mitte 2022 (FSR 2 launch) keine HW agnostische Alternative gab, so dass nur ein Bruchteil der User Zugriff auf überhaupt ein solches Verfahren hatten. Das ändert sich jetzt zum Glück. Und wer das beste nutzen will und moderne NV HW hat, kommt in den Genuss von DLSS. Und alle anderen schauen nicht mehr in die Röhre.
Wenn man sich den (durch den Wettbewerb erzeugten) Fortschritt von temporaler Rekonstruktion (auch außerhalb von DLSS) anschaut, ist das schon beeindruckend, wenn man bedenkt, dass TAUU und checkerboarding (und co) die einzigen Alternativen waren, die es nur in einem kleinen Teil der Spiele gab (Checkerboarding primär auf Konsolen) und auch deutlich schlechter waren. Da wird sicherlich auch in den HW agnostischen Verfahren noch Luft nach oben sein diese Verfahren zu verbessern.

Troyan
2023-03-24, 11:29:39
Stimmt, es stört nicht, dass FSR scheiße ist, nein, es stört, dass DLSS nur für nVidia-User ist.

Niemand hat AMD gehindert ein "offenes" Verfahren zu bauen, was die Möglichkeiten der überlegenen nVidia-Hardware nutzt.

Langsam nerven solche Postings nur noch. Ohne nVidia wäre TAAU beim PC immer noch Nische.

Tobalt
2023-03-24, 11:36:39
nV ist hier durchaus führend.

Fakt ist aber auch, wie die vorherigen 3-4 Posts erläutern, dass für das ganze Thema fundamental entscheidend ist, dass alle Gamer und Engineentwickler mit in den Zug einsteigen. Und dafür ist ein Vendorlock halt Kaka.

Die nicht DNN-basierten Verfahren (TSR, FSR2) sind somit ein essentieller Zwischenschritt zur Akzeptanzerhöherung von temporalem Upsampling.

Wie ich schon vor Jahren schrieb: Aktuell sehe ich es so dass der Ball bei MS liegt, in DirectX eine entsprechende API einzubauen für temporales Upsampling. Dort kann dann evtl. noch per Graka-Treiber eine evtl spielespezifische dll angeflanscht werden.

robbitop
2023-03-24, 11:49:39
Stimmt, es stört nicht, dass FSR scheiße ist, nein, es stört, dass DLSS nur für nVidia-User ist.

Niemand hat AMD gehindert ein "offenes" Verfahren zu bauen, was die Möglichkeiten der überlegenen nVidia-Hardware nutzt.

Langsam nerven solche Postings nur noch. Ohne nVidia wäre TAAU beim PC immer noch Nische.

Es ist doch längst Konsens, dass DLSS die besseren Ergebnisse erzielt und auch einer der Haupteinflüsse dafür war, dass es Wettbewerb gibt. Das heißt aber nicht, dass FSR "scheisse" ist (es gibt so etwas wie ein Spektrum). Es geht darum, dass andere Verfahren deutlich bessere Ergebnisse erreichen als man vor kurzem noch erwartet hätte und diese kontinuierlich besser werden. Und dass es sinnvoll ist, diese hw agnostischen Verfahren zu haben, damit jeder Gamer anstatt einer kleinen Minderheit die Möglichkeit hat, die Vorteile dieser Verfahren zu nutzen.

Was eher "nervt" sind undifferenzierte, hohle Propellerjungentum Postings wie deine. Ich frage mich immer, wie limitiert Bildung und/oder die kognitive Leistungsfähigkeit (im Generellen - nicht zwangsläufig auf dich bezogen) sein muss, damit man einen Bias für oder gegen ein Unternehmen entwickeln kann. Unternehmen sind eine dynamische Gruppierung von Organisationsstrukturen, die in ihrer Gesamtheit versuchen, ihren Gewinn zu maximieren. Diese sollten einem egal sein (companies are not your friends) - wichtig ist nur was für einen selbst als Endkunden dabei herauskommt. Und das muss man "stets und ständig" neu bewerten. Sofern du an einer differenzierten Diskussion mit einem Spektrum statt schwarz/weiß (Übersimplifizierung/Populismus) mit erwachsenen, kultivierten Mitmenschen interessiert bist, solltest du deine Position ggf. noch einmal überdenken. Ehrlich gesagt ist alles andere in diesem Forum unerwünscht - da ist man auf anderen Plattformen ggf besser aufgehoben.

nV ist hier durchaus führend.

Fakt ist aber auch, wie die vorherigen 3-4 Posts erläutern, dass für das ganze Thema fundamental entscheidend ist, dass alle Gamer und Engineentwickler mit in den Zug einsteigen. Und dafür ist ein Vendorlock halt Kaka.

Die nicht DNN-basierten Verfahren (TSR, FSR2) sind somit ein essentieller Zwischenschritt zur Akzeptanzerhöherung von temporalem Upsampling.

Genauso ist es. :)

Lurtz
2023-03-24, 21:07:52
Mit den Dev-Builds vom RE-Framework kann man jetzt auch DLSS2 in jedem auf der RE-Engine basierenden Resident Evil nutzen. Wie es geht steht hier in der Videobeschreibung:
https://www.youtube.com/watch?v=wPeC7QiG6Ig

Gast
2023-03-24, 21:45:16
Stimmt, es stört nicht, dass FSR scheiße ist, nein, es stört, dass DLSS nur für nVidia-User ist.

Niemand hat AMD gehindert ein "offenes" Verfahren zu bauen, was die Möglichkeiten der überlegenen nVidia-Hardware nutzt.

Langsam nerven solche Postings nur noch. Ohne nVidia wäre TAAU beim PC immer noch Nische.

Ich hätte schon gerne echte Argumente von ihm gehört, aber eigentlich hätte mir klar sein müssen, nachdem was ich von FSR bisher sah, es vergebene Müh ist... Sich hinter dem Deckmantel Open-Source zu verstecken, kann man immer machen, nur bringt das auf Dauer keinerlei Fortschritt, schon garnicht für den PC-Gamer. Das kapieren solche Leute nicht... es ist wichtig das etwas riskiert wird am PC, so wie es NVIDIA seit vielen Jahren mit ihren Möglichkeiten macht, in Research und Forschung zu investieren.

DrFreaK666
2023-03-24, 22:22:09
Es ist wichtig, dass man einen Teil der Gamer ausschließt. :ugly:
Viele Spiele waren damals 3dfx only (z.B. Pandemonium 2 wenn ich mich nicht irre).
Die, die keine Voodoo hatten, schauten (damals tatsächlich noch) in die Röhre und fanden das bestimmt nicht witzig.

Oliver_M.D
2023-03-25, 01:06:59
Mit den Dev-Builds vom RE-Framework kann man jetzt auch DLSS2 in jedem auf der RE-Engine basierenden Resident Evil nutzen.Funktioniert in RE2R wie es scheint ohne Probleme, hat aber noch so seine Probleme und ist nicht ganz sauber.

basix
2023-03-25, 02:02:17
Stimmt, es stört nicht, dass FSR scheiße ist, nein, es stört, dass DLSS nur für nVidia-User ist.


Immer diese Negativität...

Wieso nicht mal positiv formulieren:
FSR2 ist OK bis gut, DLSS ist qualitativ in vielen Fällen aber noch besser ;)

Und was bringt einem AMD/Intel GPU oder iGPU Nutzer DLSS? Genau: Nichts. Da ist etwas Entäuschung, dass es nicht läuft, wohl normal, oder? Und Vendor Lock-In bei Features stört definitiv, egal welche Marke.


Niemand hat AMD gehindert ein "offenes" Verfahren zu bauen, was die Möglichkeiten der "überlegenen" nVidia-Hardware nutzt.

Hat AMD doch gemacht, es läuft von Maxwell bis Lovelace ;)

Viele Leute hätten gerne DLSS auf ihren GPUs. Könnte auch über Shader und langsamer laufen. Wenn Nvidia so "überlegene" HW hat, wieso nicht öffnen?

Ohne nVidia wäre TAAU beim PC immer noch Nische.
Sind wir doch ehrlich: Temporal Upsampling ist naheliegend. Das wäre so oder so gekommen. Ist in Form von TAAU schon relativ alt und auf Konsolen weit verbreitet (in verschiedenen Formen, Checkerboarding gab es auch usw.).

Nvidia kann man einzig zugutehalten, dass DLSS 2.0 gezeigt hat, zu was temporal Upsampling zu leisten im Stande ist. Und dass deswegen die Entwicklung beschleunigt wurde.

Tobalt
2023-03-25, 06:08:00
Temporales Upscaling ist super alt. Man denke nur an den Deinterlacer, den die LCD-TVs brauchten, um ein Streifenfreies Bild zu erzeugen

Ex3cut3r
2023-03-25, 10:29:32
Es ist wichtig, dass man einen Teil der Gamer ausschließt. :ugly:
Viele Spiele waren damals 3dfx only (z.B. Pandemonium 2 wenn ich mich nicht irre).
Die, die keine Voodoo hatten, schauten (damals tatsächlich noch) in die Röhre und fanden das bestimmt nicht witzig.

Wieso ausschließen? Man hat doch immer selbst die Wahl, welchen Hersteller man wählt? Ich wurde das abwägen, was bringt mir den AMD momentan im Vergleich zu Nvidia? Also, auch wenn ich da ganz tief in mich gehe, nicht viel ehrlich gesagt, deshalb ganz klar -> Nvidia Karte kaufen.

DrFreaK666
2023-03-25, 10:52:46
Was AMD bringt? Mehr VRAM! Für ca. 550€ bekommst entweder eine 3070 oder eine 6800. Ganz klar Nvidia bei der Hälfte an VRAM? Wohl kaum

Raff
2023-03-25, 11:05:50
Er meint vermutlich eher so "Bonus-Sachen" wie DLSS, nutzbar(er)es Raytracing und NVAPI-Gimmicks via Nvidia Inspector. Aus Nerd-Sicht klare Pluspunkte. Für normale Leute (solche, die nicht in Foren angemeldet sind ;)) sind viele AMD-Karten der bessere Deal, zur Zeit eben RX 6700 (XT) und RX 6800 (XT).

MfG
Raff

aufkrawall
2023-03-25, 11:14:25
DLSS fehlt mir schon in Hogwarts oder Spiderman, ja. In Fortnite aber gar nicht, und das läuft bez. Streaming-Einbrüchen unfassbar schlecht auf Nvidia vs. AMD/Intel, wenn man im realen Spiel die Map durchquert. Etwa Warzone 2 lief auf Nvidia auch deutlich unrunder. Gibt also schon Gründe, wenn man genau genug hinsieht.
Auch ansonsten baut Nvidia teilweise wirklich argen Müll, was Treiber-Sharpen, Auflösungswechsel ohne bekloppte Monitor-Umschaltungen oder dynamische Taktung angeht. Der RDNA2-Kram läuft mittlerweile echt krass gut, hätte ich vor zwei Jahren mit der 6800 nicht für möglich gehalten.
Bei Nvidia wirkt es so, als hätten die eine kleine Anzahl guter Core-Entwickler und sonst nur Praktikanten, die wieder vieles versauen. :freak:

Ex3cut3r
2023-03-25, 11:41:16
Er meint vermutlich eher so "Bonus-Sachen" wie DLSS, nutzbar(er)es Raytracing und NVAPI-Gimmicks via Nvidia Inspector. Aus Nerd-Sicht klare Pluspunkte. Für normale Leute (solche, die nicht in Foren angemeldet sind ;)) sind viele AMD-Karten der bessere Deal, zur Zeit eben RX 6700 (XT) und RX 6800 (XT).

MfG
Raff
Richtig! Ich habe momentan eine RTX 3080 Ti und wurde unter 4080/7900XTX nichts neues kaufen, in dieser Preiskategorie, bietet mir AMD keinen Vorteil.

DrFreaK666
2023-03-25, 15:44:47
Er meint vermutlich eher so "Bonus-Sachen" wie DLSS, nutzbar(er)es Raytracing und NVAPI-Gimmicks via Nvidia Inspector. Aus Nerd-Sicht klare Pluspunkte. Für normale Leute (solche, die nicht in Foren angemeldet sind ;)) sind viele AMD-Karten der bessere Deal, zur Zeit eben RX 6700 (XT) und RX 6800 (XT).

MfG
Raff

Mir sind diese Features natürlich bekannt, aber einfach VRAM ausklammern und sagen "deshalb ganz klar", eben gerade in diesem Forum...

Gast
2023-03-25, 22:01:13
Immer diese Negativität...

Wieso nicht mal positiv formulieren:
FSR2 ist OK bis gut, DLSS ist qualitativ in vielen Fällen aber noch besser ;)

Vermutlich kennt ihr es einfach nicht besser, seid anspruchslos, es fehlt der Vergleich zu DLSS oder wisst nicht, wie vernünftiges Supersampling Anti Aliasing aussieht oder stellt euch bewusst auf beiden Augen blind. Wie man FSR als gut oder OK bezeichnen kann, ist mir ein Rätsel... da schüttelts mich brrr..

Gast
2023-03-26, 01:01:36
Die ADA Chips bestehen zu 1/3 aus Tensor bzw. Ki-Kernen und so langsam zeigt sich was für ein Potential in dieser Deep-Learning Hardware steckt.

Du schließt jetzt aber nicht von einem Blockschaltbild auf die physische Größe?

Bei Turing gab es ja Varianten ohne RT/Tensorcores, wodurch man anhand von DIE-Fotos schön erkennen konnte wie viel Platz das kostet. Und da war der Hardwareanteil von Tensorcores + RT Cores deutlich unter 10%.

Mit Ampere + Lovelace dürfte dieser wohl gestiegen sein, aber garantiert deutlich unter 1/3.

basix
2023-03-26, 04:06:06
Vermutlich kennt ihr es einfach nicht besser, seid anspruchslos, es fehlt der Vergleich zu DLSS oder wisst nicht, wie vernünftiges Supersampling Anti Aliasing aussieht oder stellt euch bewusst auf beiden Augen blind. Wie man FSR als gut oder OK bezeichnen kann, ist mir ein Rätsel... da schüttelts mich brrr..

Dann schüttel dich mal gut durch. Vielleicht hilfts ;)

PS:
DLSS kenne ich sehr wohl, kannst ja mal in meine Sysconfig schauen. Und FSR2 ist deutlich besser als TAAU, Checkerboarding und was TSR der UE5 bis vor kurzem war. Von wegen "vernünftiges temporal Supersampling" und so...

Sardaukar.nsn
2023-03-26, 09:38:52
Du schließt jetzt aber nicht von einem Blockschaltbild auf die physische Größe?

Bei Turing gab es ja Varianten ohne RT/Tensorcores, wodurch man anhand von DIE-Fotos schön erkennen konnte wie viel Platz das kostet. Und da war der Hardwareanteil von Tensorcores + RT Cores deutlich unter 10%.

Mit Ampere + Lovelace dürfte dieser wohl gestiegen sein, aber garantiert deutlich unter 1/3.

Ich habe die Bilder zu der Aufteilung des Die gesucht, aber nichts bessere gefunden. Wenn jemand was hat, gerne her damit. Mich interessiert schon der Anteil der Tensor Cores.

Gast
2023-03-26, 11:59:56
Ich habe die Bilder zu der Aufteilung des Die gesucht, aber nichts bessere gefunden.


Gibt es vermutlich nicht. Meines Wissens ist es noch niemandem gelungen, Tensorcores auf einem DIE-Shot zu identifizieren.
Dass das noch niemandem gelungen ist zeigt allerdings eines, sie können nicht besonders groß sein, wären es große zusammenhängende Blöcke könnte man sie nämlich recht einfach identifizieren.

Am nächsten der Realität kommen wir wie gesagt mit Turing, da konnten wir SMs mit Tensor+RT cores mit SMs ohne diesen vergleichen. Und da waren die Unterschiede verschwindend gering. Wieviel davon auf Tensor und RT cores fällt wissen wir auch wieder nicht, weil sie dafür einfach zu klein sind.

Dampf
2023-03-26, 12:47:21
Man muss schon sagen, dass mit FSR2 der Nutzen der Tensor Cores deutlich gesunken ist. Da wo es sehr gut implementiert ist, ist der Unterschied zu DLSS kaum mehr ersichtlich. TSR in Fortnite ist auch sehr gut. Alle Varianten laufen in ähnlicher Geschwindigkeit.

Nvidia sollte sich überlegen, wo man die TCs eventuell noch nutzen kann. Ich denke da beispielsweise an ML gesteuerte Cloth-Physik und dergleichen. Wenn Games mehr ML in real time nutzen, könnte Nvidia sich mit den Tensor Cores deutlich abheben.

HOT
2023-03-26, 12:59:26
Wichtig ist, dass Enginehersteller und Nutzer(Gamer) akzeptieren, dass spatiotemporale Interpolation künftig ein unverzichtbarer Bestandteil des Renderings wird genauso wie es die 3d Hardware beschleuniger Chips früher wurden (Riva/Voodoo/Rage).

Dann ist das signal nämlich da für GPU Hersteller, dass sie durch die LowPrec Einheiten keinen Die space "verschwenden", sondern im Gegenteil, mit der Richtigen Mischung Top Performer werden.

Für diese Aufgabe scheinen DNNs softwareseitig das beste Konstrukt zu sein und händische Algos nicht adaptiv genug zu funktionieren, um überall mithalten zu können. Also macht es auch Sinn dafür Hardwareeinheiten aufzubieten.

Ich kann aber das Zögern verstehen.. Solange noch viele Gamer von der tollen Qualität des Nativen Renderings schwadronieren, kann man Karten ohne Low Precision Einheiten noch gut verkaufen.

Das ist so, aber erst ab der PS6+neue XBox, vorher nicht. Vorher haben wir FSR1-3, was komplett ohne AI-Kram auskommt, weil die Konsolen den Schritt vorgeben. Mit FSR3 kann die Konsole einen 120Hz-Modus anbieten! Aber ich bin mir sicher, dass AMD hier bei der nächsten Konsolen einen riesigen Schritt machen wird und es ab da vollkommen esseniziell wird, diese Techniken zu nutzen. Ab da gibts wird natives Rendering zur Nische. NV wird sich mMn den Vorteil bis dahin erhalten können, ab da ist DLSS tot. Und da bei Intel ja offenbar ein radikaler Kahlschlag im ARC-Geschäft erfolgt ist und von B und C nur noch ein Mainstreamchip überlebt hat um am Markt am Ball zu bleiben, ist Intel hier irrelevant. XeSS wird nie eine relevante Reichweite erhalten.

Er meint vermutlich eher so "Bonus-Sachen" wie DLSS, nutzbar(er)es Raytracing und NVAPI-Gimmicks via Nvidia Inspector. Aus Nerd-Sicht klare Pluspunkte. Für normale Leute (solche, die nicht in Foren angemeldet sind ;)) sind viele AMD-Karten der bessere Deal, zur Zeit eben RX 6700 (XT) und RX 6800 (XT).

MfG
Raff

Das ist AMDs wahre Stärke im Moment und wird auch bei RDNA3 so sein. Die 7900 ist nett, aber richtig interessant sind die kleineren Modelle. Ich würd mir als Option eine 7600 mit 16GB wünschen, vielleicht machen die das sogar.

Troyan
2023-03-26, 12:59:43
Der Sinn von DL ist, dass man eben nicht immer händisch alles optimieren muss. Und solche Netzwerke laufen effizientmäßig über dedizierte Einheiten. Warum man nach vier Jahren Turing immer noch nicht dieses Prinzip verstanden hat, ist mir unbegreiflich.

DrFreaK666
2023-03-26, 15:03:42
Guter Punkt. Ich hole mir lieber eine Nvidia-Karte mit weniger VRAM (Ich gebe keine 800+€ aus), weil AMD das händisch optimieren muss

Ex3cut3r
2023-03-26, 15:09:41
Bei deiner Kiste, wäre jegliche neue GPU aber eine ziemliche Verschwendung, du musst schon leider komplett neu kaufen. :redface:

DrFreaK666
2023-03-26, 15:15:14
Bei deiner Kiste, wäre jegliche neue GPU aber eine ziemliche Verschwendung, du musst schon leider komplett neu kaufen. :redface:

Hab ich vor, sonst hätte ich keinen Thread im Kaufberatungs-Unterforum erstellt. Mein veralteter PC ist aber schon wieder nicht das Thema

DrFreaK666
2023-03-26, 19:50:13
Was AMD bringt? Mehr VRAM! Für ca. 550€ bekommst entweder eine 3070 oder eine 6800. Ganz klar Nvidia bei der Hälfte an VRAM? Wohl kaum

Tadaaaa

RQA3cTPNicg

Gast
2023-03-26, 20:57:25
Man muss schon sagen, dass mit FSR2 der Nutzen der Tensor Cores deutlich gesunken ist. Da wo es sehr gut implementiert ist, ist der Unterschied zu DLSS kaum mehr ersichtlich.

Nur bei 4k-Q ist FSR2.x einigermaßen zu DLSS2.x vergleichbar.

Mit DLSS kannst du mit Performance spielen und siehst ohne Pixelpeeping kaum Unterschiede, FSR sind diese Settings grausam.

Gott1337
2023-03-26, 22:28:46
Man muss schon sagen, dass mit FSR2 der Nutzen der Tensor Cores deutlich gesunken ist. Da wo es sehr gut implementiert ist, ist der Unterschied zu DLSS kaum mehr ersichtlich. TSR in Fortnite ist auch sehr gut. Alle Varianten laufen in ähnlicher Geschwindigkeit.

Nvidia sollte sich überlegen, wo man die TCs eventuell noch nutzen kann. Ich denke da beispielsweise an ML gesteuerte Cloth-Physik und dergleichen. Wenn Games mehr ML in real time nutzen, könnte Nvidia sich mit den Tensor Cores deutlich abheben.
dafür kannst du bei DLSS eben auf performance runter gehen, wo du FSR auf quality lassen musst...

Ex3cut3r
2023-03-26, 23:00:30
Tadaaaa

https://youtu.be/RQA3cTPNicg

Bei einem gesponserten AMD Titel, der nicht mal DLSS Support hat. Wundert dich das wirklich? Komischerweise, bist du einer der ersten, der meckert, wenn RT mal wieder die ganze AMD Riege nach unten zieht. :rolleyes:

Der Content, so wie das Spiel aussieht, rechtfertigt ja vollkommen, die 8GB+ Belegung. Ist einfach eine AMD Masche, AMD gesponserte Spiele mit 8GB Karten zu überfordern, weil Nvidia Karten da eine Schwäche haben in der Regel. Leider gibt es auch genug 8GB AMD Karten, das scheinen Sie dabei immer wieder zu vergessen.

Bei FC6 war es nämlich der gleiche Käse.

Außerdem, falscher Thread?

DrFreaK666
2023-03-27, 00:20:06
AMD-gesponsert? Kein Plan. Hogwarts wurde später auch erwähnt und das hat sogar DLSS3.
Falsches Thema, jein, dein der geringe VRAM war hier durchaus ein Thema.
Falscher Thread? Wahrscheinlich schon, aber Nvidia kann man nicht gedankenlos empfehlen

crux2005
2023-03-27, 00:32:18
Falscher Thread? Wahrscheinlich schon, aber Nvidia kann man nicht gedankenlos empfehlen

Leider kann man nie eine Karte bedenkenlos empfehlen.

Exxtreme
2023-03-27, 01:06:59
AMD-gesponsert? Kein Plan. Hogwarts wurde später auch erwähnt und das hat sogar DLSS3.
Falsches Thema, jein, dein der geringe VRAM war hier durchaus ein Thema.
Falscher Thread? Wahrscheinlich schon, aber Nvidia kann man nicht gedankenlos empfehlen

Sowohl DLSS wie auch FSR sind derzeit eher im Alpha-Stadium. Alleine wie spielspezifisch irgendwelche DLLs hin-und-her kopiert werden. Das ist ein Gefrickel hoch drei und für unbedarfte Leute eher nicht zu empfehlen.

DrFreaK666
2023-03-27, 01:34:21
Leider kann man nie eine Karte bedenkenlos empfehlen.

Stimmt wohl. Jede hat Ecken und Kanten

y33H@
2023-03-27, 05:53:18
Sowohl DLSS wie auch FSR sind derzeit eher im Alpha-Stadium. Alleine wie spielspezifisch irgendwelche DLLs hin-und-her kopiert werden. Das ist ein Gefrickel hoch drei und für unbedarfte Leute eher nicht zu empfehlen.
Das ist völlig optional.

Sardaukar.nsn
2023-03-27, 06:17:50
DLSS zusammen mit einem aktuellen game-ready Treiber würde ich nicht als Alpha-Stadium bezeichnen.

Exxtreme
2023-03-27, 08:37:02
Das ist völlig optional.

Wenn du brauchbare Ergebnisse haben willst dann eher nicht. ;) Denn sonst gäbe es dieses Tamtam um's Kopieren der DLLs gar nicht.

Linmoum
2023-03-27, 08:55:00
Dann liegt die Schuld aber nicht dort und auch kein Alpha-Stadium vor, wenn man kompetente Entwickler hätte. ;) Man hat eher dass Gefühl, dass die DLLs willkürlich nach keinem Schema ausgesucht werden. Gefühlt wird das nicht mal vernünftig getestet.

Exxtreme
2023-03-27, 09:01:35
Alpha-Status impliziert jetzt nicht, dass etwas schlecht ist. Das bedeutet in erster Linie, dass etwas nicht fertig bzw. etwas unausgereift ist. Und das trifft IMHO hier sehr gut zu. Da scheint es noch sehr viel Luft nach oben zu geben.

Linmoum
2023-03-27, 09:34:56
Ich hab das jetzt auch eher auf den "Unausgereift-Status" bezogen. Aber wie gesagt, auch das ist IMO die Schuld der Entwickler. Ist ja jetzt nicht so, dass die User erst nach ein paar Wochen zu dem Ergebnis kommen, dass eine andere DLL bessere Resultate liefert. Das geht immer relativ schnell und das erwarte ich eigentlich auch vom Entwickler.

Das wirkt von letzteren einfach oftmals nur völlig willkürlich ohne nachvollziehbare Kriterien ausgewählt. Teilweise sind das ja sogar noch irgendwelche Uralt-DLLs, mit denen ein Spiel dann launcht.

BlacKi
2023-03-27, 10:27:00
Alpha-Status impliziert jetzt nicht, dass etwas schlecht ist. Das bedeutet in erster Linie, dass etwas nicht fertig bzw. etwas unausgereift ist. Und das trifft IMHO hier sehr gut zu. Da scheint es noch sehr viel Luft nach oben zu geben.kommt auf das ziel an. wenn das ziel ist, eine bessere perf/optic zu erreichen, dann wurde das ziel schon mit 2.0 erreicht. das sehen viele entwickler so, denn sonst würden sie ihr spiel updaten.


und deshalb kann dlss auch nicht perfekt werden. das rumkopieren findet ja bei älteren spielen statt, und die werden niemals geupdatet. also findet dein alpha statium nie ein ende.

dildo4u
2023-03-27, 11:15:02
AMD-gesponsert? Kein Plan. Hogwarts wurde später auch erwähnt und das hat sogar DLSS3.
Falsches Thema, jein, dein der geringe VRAM war hier durchaus ein Thema.
Falscher Thread? Wahrscheinlich schon, aber Nvidia kann man nicht gedankenlos empfehlen
Das was Capcom macht ist trotzdem Blödsinn die Beta von Diablo 4 belegt z.b bei mir über 8GB auf der 1070 und lagert dann in den Hautspeicher.
Was langsamer ist und ruckelt aber nicht zum kompletten abkacken führt.

DrFreaK666
2023-03-27, 11:40:01
Das was Capcom macht ist trotzdem Blödsinn die Beta von Diablo 4 belegt z.b bei mir über 8GB auf der 1070 und lagert dann in den Hautspeicher.
Was langsamer ist und ruckelt aber nicht zum kompletten abkacken führt.

So sollte es natürlich nicht sein. Aber im Video wird noch Hogwarts gezeigt und auch da sinken die FPS extrem. Mit mehr VRAM wäre das kein Problem.
Vielleicht kann ein Mod das VRAM-Thema hier abspalten und in einen neuen Thread verschieben. Ich denke in Zukunft werden sich die 8GB VRAM noch öfter negativ bemerkbar machen, aber hier hat das Thema nichts zu suchen

Gast
2023-03-27, 11:47:33
Das was Capcom macht ist trotzdem Blödsinn die Beta von Diablo 4 belegt z.b bei mir über 8GB auf der 1070 und lagert dann in den Hautspeicher.

Die Diablo 4 Beta frisst auf max. Einstellungen aktuell auch mal 20GB+ an VRAM, und lässt mit 16GB RAM gar nicht die max Einstellungen zu.

ChaosTM
2023-03-27, 12:05:47
Bei der Upscaling Thematik sollte man die VRAM Bestückung sehr wohl mit im Auge behalten.
Ganz wichtig, sonst gibt es sehr schnell ein sehr böses Erwachen. Gehört imho untrennbar zusammen.

dildo4u
2023-03-27, 12:56:06
Aktuelle Betrachtung von DLSS vs FSR Performance auf 4070 Ti/7900XT.


LW6BeCnmx6c

Troyan
2023-03-27, 13:44:48
Wow - nachdem AMDunboxed vor Wochen festgestellt hat, dass es ja keinen relevanten Unterschied in der Leistung gäbe, liefert man nun genau das auch noch nach. Natürlich vollkommen unvoreingenommen, fair gebencht und rein zufällig kommt am Ende das selbe Ergebnis raus.

So sieht wahrlich objektiver Journalismus aus.

Das DLSS einfach besser aussieht, scheint für den Kanal vollkommen irrelevant zu sein. Ist auch logisch, dann müssten die nVidia Hardware bewerben und das geht nicht. Also wird einfach so getan als ob es zwischen FSR und DLSS kein Unterschied gäbe.

Wahrlich objektiver Journalismus aus der Schule von bezahlten Influenzern.

DrFreaK666
2023-03-27, 14:21:39
...Das DLSS einfach besser aussieht, scheint für den Kanal vollkommen irrelevant zu sein....

Reddit Users Expose Steve: DLSS vs. FSR Performance

Jage das Wort "Performance" durch einen Übersetzer deiner Wahl :rolleyes:
Sie erwähnen immer wieder, dass DLSS besser aussieht als FSR

Exxtreme
2023-03-27, 14:28:53
Jage das Wort "Performance" durch einen Übersetzer deiner Wahl :rolleyes:
Sie erwähnen immer wieder, dass DLSS besser aussieht als FSR

Und vor allem, er erklärt es auch, dass egal wie man testet, es ist immer falsch.

Lassen sie das Hochskalieren weg dann sind sie pro-AMD weil sie wissen, dass AMD den Kürzeren ziehen würde. Testen sie nur mit FSR dann sind sie pro-AMD weil sie das bessere DLSS verschweigen. Testen sie mit FSR auf AMD und DLSS auf Nvidia dann sind sie pro-AMD weil DLSS besser aussieht und das ein unfairer Vergleich ist. :freak:

Lurtz
2023-03-27, 14:30:25
Und vor allem, er erklärt es auch, dass egal wie man testet, es ist immer falsch.

Lassen sie das Hochskalieren weg dann sind sie pro-AMD weil sie wissen, dass AMD den Kürzeren ziehen würde. Testen sie nur mit FSR dann sind sie pro-AMD weil sie das bessere DLSS verschweigen. Testen sie mit FSR auf AMD und DLSS auf Nvidia dann sind sie pro-AMD weil DLSS besser aussieht und das ein unfairer Vergleich ist. :freak:
nVidia muss halt immer der beste sein und wenn ein Spiel zu viel VRAM für die heiligen nVidia-Produkte braucht, ist es entweder Software-Crap oder von AMD dafür bezahlt worden :up:

Lehdro
2023-03-27, 14:31:04
Das DLSS einfach besser aussieht, scheint für den Kanal vollkommen irrelevant zu sein.
Er stellt doch oft genug klar das DLSS besser aussieht ("visual it’s generally better"), aber mal davon ab, ist die Entscheidung eh Banane. Sollen lieber mal immer nativ testen und ab und an ein DLSS und FSR Update machen - fertig ist der Lack.

Troyan
2023-03-27, 15:25:12
Er stellt doch oft genug klar das DLSS besser aussieht ("visual it’s generally better"), aber mal davon ab, ist die Entscheidung eh Banane. Sollen lieber mal immer nativ testen und ab und an ein DLSS und FSR Update machen - fertig ist der Lack.

Wenn DLSS eine bessere Qualität bei gleicher Einstellung liefere, müsste man dann nicht eine höhere FSR Einstellung nehmen? :freak:

Es ist offensichtlich, dass hier nichts anderes als devaluing stattfindet. Ein Vorteil von nVidia soll einfach negiert werden, um AMD Hardware besser darstehen zu lassen.

Widerlich, aber in der Youtube-Welt normal.

DrFreaK666
2023-03-27, 16:22:10
Es wird bei gleicher Renderauflösung verglichen, was auch absolut logisch ist. Mit DLSS hat man zusätzlich ein besseres Bild.
Keine Ahnung wie man was negatives für Nvidia finden kann

Lehdro
2023-03-27, 16:32:29
Wenn DLSS eine bessere Qualität bei gleicher Einstellung liefere, müsste man dann nicht eine höhere FSR Einstellung nehmen? :freak:
So einfach ist das aber nicht, klar sieht DLSS besser aus, aber die Vor- und Nachteile sind in unterschiedlichen Bereichen zu finden. Einfach DLSS B gegen FSR Q zustellen wäre auch wieder nicht das Richtige. Ebenso könnte man DLSS Q dann nur isoliert betrachten und was da noch alles dazukommt - welcher Modus ist mit welchem vergleichbar? In welchem Spiel? Hauptkritikpunkt: Das steht der gewollten Vereinfachung der Benchmarks komplett diametral gegenüber. Das wäre viel mehr Arbeit, anstatt ein bisschen weniger.

Es ist offensichtlich, dass hier nichts anderes als devaluing stattfindet. Ein Vorteil von nVidia soll einfach negiert werden, um AMD Hardware besser darstehen zu lassen.

Widerlich, aber in der Youtube-Welt normal.
Du musst die Debatte einfach auf zwei Ebenen sehen, was hier leider viel zu kurz kommt.

FSR für alle Tests zu nutzen folgt folgender Argumentation:
Logisch für ihn als Tester ist das, wenn DLSS und FSR sehr ähnliche FPS Steigerungen produzieren - denn nur darum geht es ja in dem Benchmarks. Vergleichbarkeit der Performancesteigerungen bei gleicher Implementation: Alles mit FSR, hat also immer dieselbe Basis, kein rumgewurschtle mit verschiedenen Techniken in verschiedenen Spielen.

Dass bei dir, als NV User, natürlich DLSS immer vorzuziehen ist, ist ein Fakt der keinen Einfluss auf die Benchmarkergebnisse an sich, also das Zahlenmaterial, hat, wohl aber auf deine Bildqualität. Sein Gedankengang dazu ist also die Zahlen von FSR mit der Bildqualität von DLSS für NV User zu kombinieren, dabei aber selber als Reviewer der Einfachheit halber nur mit FSR testen zu müssen.

Wobei ich mich frage wo da der Sinn ist, gemäß dem Fall dass das alles so stimmt: Dann reicht auch eine grobe Einordnung der Technik alle paar Monate - zum Beispiel als Zusammenfassung nach dem Launch einer neuen Iteration/Generation (analog wie sie es mit DLSS 3 FG gemacht haben).

DrFreaK666
2023-03-27, 16:41:02
Gott muss damit leben, obs ihm passt oder nicht. Er kann in Zukunft einfach HWU ignorieren und fertig ist der Lack.
Wegen einem User in einem deutschen Nerd-Forum werden die sicherlich nichts ändern.
Im Video wird übrigens mehrfach erwähnt, dass DLSS als Geforce-User wegen der Bildquaität vorzuziehen ist.
Hier gehts aber um die Performance bei gleicher Arbeit

edit: wenn ich es richtig verstanden habe, werden sie sich in Zukunft größtenteils auf Benchmarks in nativen Auflösungen beschränken und Upscaling nur noch am Rande nutzen

Lurtz
2023-03-27, 16:59:32
Es ist offensichtlich, dass hier nichts anderes als devaluing stattfindet. Ein Vorteil von nVidia soll einfach negiert werden, um AMD Hardware besser darstehen zu lassen.

Widerlich, aber in der Youtube-Welt normal.
Nein, es wird versucht eine möglichst generalisierbare Basis für einen direkten Vergleich zu finden. Wenn du weißt, dass dir die Bildqualität von DLSS Performance ausreicht, kannst du ja noch 50% FPS draufrechnen gedanklich.

Ex3cut3r
2023-03-27, 17:08:46
Sowohl DLSS wie auch FSR sind derzeit eher im Alpha-Stadium. Alleine wie spielspezifisch irgendwelche DLLs hin-und-her kopiert werden. Das ist ein Gefrickel hoch drei und für unbedarfte Leute eher nicht zu empfehlen.

Alpha Stadium @ DLSS? ;D

Der war echt gut, bei solchen Ergebnissen von Alpha zu sprechen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13257330&postcount=4393

DrFreaK666
2023-03-27, 18:11:10
Alpha Stadium @ DLSS? ;D

Der war echt gut, bei solchen Ergebnissen von Alpha zu sprechen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13257330&postcount=4393

Hast du das Zitat, das du genommen hast, überhaupt durchgelesen?

Gast
2023-03-27, 18:13:57
Wenn DLSS eine bessere Qualität bei gleicher Einstellung liefere, müsste man dann nicht eine höhere FSR Einstellung nehmen? :freak:

Es ist offensichtlich, dass hier nichts anderes als devaluing stattfindet. Ein Vorteil von nVidia soll einfach negiert werden, um AMD Hardware besser darstehen zu lassen.

Widerlich, aber in der Youtube-Welt normal.

Macht ja auch praktisch null Sinn, FSR liefert keine brauchbare BQ daher kann ich die Leute, wo sich gegen wehren und ihren Unmut äußern, auch voll verstehen. Entweder man lässt Upsampling ganz weg oder man testet mit voller Dröhnung sprich -> DLSS 3 um das wahre Leistungsbild offen zu legen.
Es sollte sich immer an maximaler BQ orientiert werden, wenn der Mitbewerber nichts hat, dann ist das eben deren Pech, ganz einfach.
Ist ja nicht das erste Mal das HWU bewusst in die Irre führen, deren Test-Praktiken fragwürdig und einseitig sind, entsprechend merken es nun immer mehr Leute, das ist das einzig Positive an der Sache.

Exxtreme
2023-03-27, 18:19:42
Alpha Stadium @ DLSS? ;D

Der war echt gut, bei solchen Ergebnissen von Alpha zu sprechen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13257330&postcount=4393

Ähhh, mir ging es nicht um Ergebnisse sondern um das Gefrickel mit DLLs kopieren um möglicherweise gute Ergebnisse zu bekommen. Aber bitte die richtigen DLL-Versionen aus dem richtigen SDK benutzen! ;)

Ex3cut3r
2023-03-27, 19:09:40
Gefrickel? Eine DLL downloaden und dann kopieren/ersetzen. Soll Gefrickel sein? :lol:

DrFreaK666
2023-03-27, 19:15:53
Für die Mehrzahl der User: ja

"welches dll für Spiel XY? Wo finde ich die dll? Wo kopiere ich sie hin? Sind spielinterne Einstellungen nötig?"

mühsam, zeitaufwendig -> Gefrickel

Sardaukar.nsn
2023-03-27, 19:22:32
Für die faulen: https://www.computerbase.de/2021-08/dlss-swapper-kleines-tool-tauscht-die-dlss-versionen-in-spielen-aus/

Exxtreme
2023-03-27, 19:24:15
Gefrickel? Eine DLL downloaden und dann kopieren/ersetzen. Soll Gefrickel sein? :lol:

Ja, ist es. Zumal das die Abkürzung "SDK" schon impliziert an wen sich solche DLLs richten: an Softwareentwickler.

DrFreaK666
2023-03-27, 19:28:59
Für die faulen: https://www.computerbase.de/2021-08/dlss-swapper-kleines-tool-tauscht-die-dlss-versionen-in-spielen-aus/

"This tool does NOT guarantee that swapping DLSS dlls will:

Improve DLSS performance
Reduce DLSS artifacts
Give a crash free expereince"

Gefrickel :D

Darkman.X
2023-03-27, 19:31:43
Ich kann die Argumentation von "Trojan" schon verstehen, auch wenn er immer sehr stark Pro-Nvidia ist ;) (Es geht um die Diskussion weiter oben, wegen dem Performance-Vergleichs-Video)

Man könnte das auch mit den damaligen Schummeleien beim Trilinear Filtering vergleichen. Hersteller X nutzt normales Filtering und Hersteller Y nutzt "optimiertes" Filtering. Und jetzt macht man einfach nur einen reinen Performancevergleich und sagt danach, dass Hersteller Y schneller ist. Messtechnisch mag das richtig sein, aber wollen wir wirklich diese Qualitätsreduzierung?

Man sollte schon bei gleicher Qualität vergleichen, weil sonst fördert man damit nur neue Schummeleien. Nvidia könnte sich ja genötigt fühlen, zukünftig alle DLSS-Qualitätsstufen um eine Stufe runter zu setzen. Das neue Q ist das alte B, das neue B das alte P usw.

Exxtreme
2023-03-27, 19:42:30
Verstehen kann ich das auch. Aber wenn man DLSS performance vs. FSR quality vegleicht dann passt das auch nicht so wirklich. :freak: Beides ist halt zu unterschiedlich auch wenn es den gleichen Zweck hat.

Troyan
2023-03-27, 19:48:04
Wobei ich mich frage wo da der Sinn ist, gemäß dem Fall dass das alles so stimmt: Dann reicht auch eine grobe Einordnung der Technik alle paar Monate - zum Beispiel als Zusammenfassung nach dem Launch einer neuen Iteration/Generation (analog wie sie es mit DLSS 3 FG gemacht haben).

Wenn die Qualität des Upscalings egal ist, benötigt man überhaupt keine Benchmarks mit Upscaling. Das Ergebnis wird immer geringer als die native Inputauflösung (+ billig Upscaling) sein.

Tesseract
2023-03-27, 19:54:57
Man könnte das auch mit den damaligen Schummeleien beim Trilinear Filtering vergleichen. Hersteller X nutzt normales Filtering und Hersteller Y nutzt "optimiertes" Filtering. Und jetzt macht man einfach nur einen reinen Performancevergleich und sagt danach, dass Hersteller Y schneller ist. Messtechnisch mag das richtig sein, aber wollen wir wirklich diese Qualitätsreduzierung?

so ist es. das thema ist leider relativ komplex und macht den vergleich deutlich schwieriger als einfach nur "run benchmark" und dann in die tabelle eintragen aber dieses problem einfach zu ignorieren wie das viele reviewer machen kann nicht sinn der übung sein, ganz besonders dann nicht wenn man danach kaufempfehlungen gibt die diesen aspekt einfach ignorieren - und nein "sieht besser aus" ist keine ausreichende abarbeitung des themas, da könnte man auch gleich auf einer karte 4k gegen 720p auf der anderen testen und dann mit "4k sieht besser aus" im kleingedruckten zwei balken zeigen wo einer um ein vielfaches länger ist als der andere.

kaufempfehlungen zu geben die implizit davon ausgehen, dass das feature nicht genutzt wird aber gleichzeitig darauf hin zu weisen das feature zu nutzen ist paradox.

Ähhh, mir ging es nicht um Ergebnisse sondern um das Gefrickel mit DLLs kopieren um möglicherweise gute Ergebnisse zu bekommen. Aber bitte die richtigen DLL-Versionen aus dem richtigen SDK benutzen! ;)

so läuft das aber nicht ab. sowohl DLSS als auch FSR laufen out of the box, neue versionen werden vom spiele dev eingepflegt und mit den spieleupdates ausgeliefert, so wie bei jeder anderen lib auch. nur weil man neuere versionen händisch in das spiel hacken kann wenn man das explizit will ist das nicht "alpha".

basix
2023-03-27, 20:00:29
Das Problem ist: Es gibt keine leicht verständlichen objektive / quantitative Metriken für Bildqualität. Deswegen auch immer die subjektive Kontroverse über die Qualität, siehe AF-Thematik oder jetzt halt DLSS. Man könnte das geupsampelte Bild mit einem 16k SSAA Bild mittels SNR oder so vergleichen, nur ist hier die Interpretation schwierig und nur lokal auf Bildbereiche anwendbar. Also müsste man das SNR mit einer 2D-Heatmap des Bildformats und in Bewegung darstellen. Ergo: Aufwändig und nur wenige mit entsprechendem Fachwissen können es korrekt interpretieren. Und: Obektives SNR != Subjektives Qualitätsempfinden. Nochmals erschwerte Bewertungsgrundlage...

Prinzipiell die einfachste Lösung: Nvidia gibt DLSS frei. Dann kann jeder die selbe Qualität geniessen. Auf Nvidia läuft es dann halt einfach schneller. Und hey, eine DLSS-Freigabe wäre zudem sehr positives Marketing für Nvidia. Anscheinend haben sie es momentan aber nicht nötig, ihr Geschäft läuft zu gut. Ich hoffe, dass FSR3 zu DLSS auschliesst (Qualität + FG) und deutlich in der Verbreitung zulegt. Dann gäbe es entsprechenden Druck, dass DLSS freigegeben wird. Im besten Fall sogar retrospektiv auf alle DLSS Spiele. DAS würde ich mit "Nvidia ist Innovationsführer und bringt PC-Gaming vorwärts" bezeichnen und nicht irgendwelche Closed Source und Vendor-Locked Features.

Troyan
2023-03-27, 20:04:54
Du meinst so wie Raytracing? Funktioniert prächtig, wenn etwas auf AMD Hardware deutlich langsamer läuft...

basix
2023-03-27, 20:07:20
Nvidia hat Raytracing nie freigegeben, das ist Teil der DX12 und Vulkan APIs ;)

Aber ja, im Prinzip wäre das so wie du sagst. Der mit der besseren HW hat die bessere Performance. Das dargestellte Bild ist aber identisch.

Tesseract
2023-03-27, 20:08:05
Prinzipiell die einfachste Lösung: Nvidia gibt DLSS frei.

was soll das bedeuten? das NN auf den shadern mit wahrscheinlich >90% performanceverlust? was soll das bringen?

Ex3cut3r
2023-03-27, 20:11:14
"This tool does NOT guarantee that swapping DLSS dlls will:

Improve DLSS performance
Reduce DLSS artifacts
Give a crash free expereince"

Gefrickel :D

So ein Schwachsinn, kann nur von jemanden wie auch von dir kommen.

Ich habe die DLL 3.1.1 mit DLSS Mod im Preset F (das beste aktuell) in jedem meiner installierten Spiele installiert, und null Probleme.

Immer wieder erstaunlich wie Leute mit Gewalt, irgendwas gegen DLSS bzw. Nvidia allgemein suchen, ja die GPUs sind teuer. Aber AMD Karten sind auch nicht (mehr) viel billiger.

basix
2023-03-27, 20:14:46
was soll das bedeuten? das NN auf den shadern mit wahrscheinlich >90% performanceverlust? was soll das bringen?

Wer sagt, dass dem so sein wird? Eine 4090 bringt ~650 TOPS INT8, eine 7900XTX ~120. Und dann noch 100% einige FP16/FP32 Operationen. Selbst wenn DLSS 5x langsamer ausgeführt wird (vermutlich eher weniger als 5x, dazu Postprocessing etc. was unabhängig von DLSS auf AMD/Nvidia gleich laufen müsste da vom Spiel in Ouputauflösung vorgegeben), hätte man immer noch einen Performancegewinn und die potentiell besser als nativ Bildqualität von DLSS (=gutes AA). Nicht 2x Performance aber evtl. 1.3...1.5x. wo wäre also das Problem?

Darkman.X
2023-03-27, 20:17:38
@Ex3cut3r:
Du steckst in deiner Nerd-Blase. Es gibt viele Menschen, die noch nie das Nvidia/AMD-Controllpanel oder die Grafikoptionen in Spielen gesehen haben. Und wenn doch, können sie mit den Optionen nichts anfangen. Und genau für solche Menschen ist das schon Gefrickel.

DrFreaK666
2023-03-27, 20:18:02
...Man sollte schon bei gleicher Qualität vergleichen, weil sonst fördert...

Also nur mit FSR benchen. Dann hat man Äpfel-Äpfel Vergleiche

So ein Schwachsinn, kann nur von jemanden wie auch von dir kommen.

Ich habe die DLL 3.1.1 mit DLSS Mod im Preset F (das beste aktuell) in jedem meiner installierten Spiele installiert, und null Probleme.

Immer wieder erstaunlich wie Leute mit Gewalt, irgendwas gegen DLSS bzw. Nvidia allgemein suchen, ja die GPUs sind teuer. Aber AMD Karten sind auch nicht (mehr) viel billiger.

Wie ich schon vorhin schrieb... und du gehst da komischerweise überhaupt nicht ein: für die Mehrzahl der User ist das Gefrickel. Das schließt uns NICHT ein.
Ich nutze auch Reshade und spiele mit Variablen rum, die Mehrheit der User aber nicht.
Wie kann man das nicht verstehen?
Schonmal was von Empathie gehört?

Hätte ich ne RTX dann würde ich auch dlls kopieren, mein Bruder aber nicht, weil er kein Nerd ist, was das angeht.

Jupiter
2023-03-27, 20:28:21
Gefrickel? Eine DLL downloaden und dann kopieren/ersetzen. Soll Gefrickel sein? :lol:

Dann wäre ein PC-Spiel mit optionalen Grafikeinstellungen generell Alpha.

Wenn DLSS eine bessere Qualität bei gleicher Einstellung liefere, müsste man dann nicht eine höhere FSR Einstellung nehmen? :freak:

Es ist offensichtlich, dass hier nichts anderes als devaluing stattfindet. Ein Vorteil von nVidia soll einfach negiert werden, um AMD Hardware besser darstehen zu lassen.

Widerlich, aber in der Youtube-Welt normal.

Man müsste DLSS Performance oder Ultra Performance mit FSR Qualität vergleichen.

Lurtz
2023-03-27, 20:43:19
@Ex3cut3r:
Du steckst in deiner Nerd-Blase. Es gibt viele Menschen, die noch nie das Nvidia/AMD-Controllpanel oder die Grafikoptionen in Spielen gesehen haben. Und wenn doch, können sie mit den Optionen nichts anfangen. Und genau für solche Menschen ist das schon Gefrickel.
Sind das nicht auch die Leute, die DLSS gar nicht anschalten, weil sie nicht wissen was es ist, wenn es nicht zufällig von einem Preset automatisch aktiviert wird?

Tesseract
2023-03-27, 20:58:09
Wer sagt, dass dem so sein wird? Eine 4090 bringt ~650 TOPS INT8, eine 7900XTX ~120.

mit sparsity und realen taktraten sollten es eher ~1400 TOPS auf der 4090 sein und diese sind async zu den shadern, keine ahnung wie das bei RDNA3 ist aber im günstigsten fall sieht das selbst gegen die kleinen amperes nicht besonders gut aus. außerdem weiß ich nicht welche datentypen überhaupt verwendet werden.

basix
2023-03-27, 21:03:49
Turing hat kein Sparsity und DLSS läuft relativ zu Ampere nicht ungewöhnlich langsam. Zudem ist die Frage, wie nah man an Peak herankommt (imsbesondere wenn die SMs parallel aich noch Arbeit verrichten sollen) und wie du sagst, was sind die Datentypen? DLSS besteht garantiert nicht nur aus dem DNN. Und Async Compute gibt es auch noch ;)

Deswegen: DLSS wird langsamer laufen auf AMD. Aber bei weitem nicht in dem Masse, was reine Rohleistungswerte suggerieren könnten.

Tesseract
2023-03-27, 21:40:23
Turing hat kein Sparsity und DLSS läuft relativ zu Ampere nicht ungewöhnlich langsam.
weißt du das oder glaubst du das nur? die 2080Ti holzhammert da noch mit purer tensor-rohleistung dagegen und die kleineren turings brechen meist durch fehlende shader/raster-leistung vorher weg. um die unterschiede testen zu können müsste man kleine turings mit bereits auf sparsity optimierten NN in hohen auflösungen mit hohen frameraten (z.B. 4k/100fps+, also dem was man mit einer 7900XTX realistisch erwarten kann) mit entsprechenden amperes vergleichen ohne dass dabei bei turing shader oder was anderes limitiert das die fps nach unten zieht wodurch DLSS weniger zu tun hat. ich kann mich nicht daran erinnern sowas schon mal gesehen zu haben und ich habe auch keinen turing im haus mit dem ich das testen könnte.

DLSS besteht garantiert nicht nur aus dem DNN.
ziemlich sicher nichts was signifikant last erzeugt.

Und Async Compute gibt es auch noch ;)
async sind die tensorcores bei nvidia sowieso. async für TOPS bei RDNA3 ist der optimalfall, alles andere würde das verhältnis noch schlechter machen.

Troyan
2023-03-27, 22:15:20
Nvidia hat Raytracing nie freigegeben, das ist Teil der DX12 und Vulkan APIs ;)

Aber ja, im Prinzip wäre das so wie du sagst. Der mit der besseren HW hat die bessere Performance. Das dargestellte Bild ist aber identisch.

Und was würde es bringen? Benötigt es bei nVidia 1ms und bei AMD 3ms wäre bei 10ms nativer Auflösung plötzlich nVidia 18% schneller... Und du glaubst, das würde von AMD Usern einfach so akzeptiert werden? :confused: :freak:

Mal ein Vergleich aus Januar mit Stable Diffusion und Matrix-Berechnung:
https://cdn.mos.cms.futurecdn.net/5xRLCknXRdn9EFSKYETiye-970-80.png
https://www.tomshardware.com/news/stable-diffusion-gpu-benchmarks

Darkman.X
2023-03-27, 23:33:09
Sind das nicht auch die Leute, die DLSS gar nicht anschalten, weil sie nicht wissen was es ist, wenn es nicht zufällig von einem Preset automatisch aktiviert wird?

Ja und? Es geht darum, ob (für uns simples) Dateien austauschen ein Gefrickel ist oder nicht. Ganz generell, nicht nur auf DLSS bezogen, auch wenn ich es jetzt im Zusammenhang mit DLSS geschrieben hatte. Für viele Spieler ist schon das Ändern von Grafikoptionen ein "Gefrickel".

basix
2023-03-28, 00:28:21
weißt du das oder glaubst du das nur? die 2080Ti holzhammert da noch mit purer tensor-rohleistung dagegen und die kleineren turings brechen meist durch fehlende shader/raster-leistung vorher weg. um die unterschiede testen zu können müsste man kleine turings mit bereits auf sparsity optimierten NN in hohen auflösungen mit hohen frameraten (z.B. 4k/100fps+, also dem was man mit einer 7900XTX realistisch erwarten kann) mit entsprechenden amperes vergleichen ohne dass dabei bei turing shader oder was anderes limitiert das die fps nach unten zieht wodurch DLSS weniger zu tun hat. ich kann mich nicht daran erinnern sowas schon mal gesehen zu haben und ich habe auch keinen turing im haus mit dem ich das testen könnte.

Finde deinen Vorschlag gut, dass man das mal testet. Ich vermute die Dinge in der Tat, nennen wir es aber mal "educated guess" ;)

Eine 4090 kann sich in 4K + DLSS nicht von einer 3080/3090 absetzen. Obwohl theoretisch die Rohleistung dazu da wäre und beide GPUs mit <4K Rendering nicht voll ausgelastet werden. Der Faktor Sparsity fällt hier auch weg. Was ich also sehe ist, dass DLSS nicht wirklich mit der Rohleistung skaliert sondern maximal mit der "Spieleleistung" (im Falle der 4090 nichtmal das). Und Troyans Link zeigt zudem, dass Rohleistung und Anwendungsleistung nicht korrelieren müssen.

Ein weiterer Punkt ist, dass sich die Performance-Lücken bei eingeschaltetem DLSS schliessen. Eine 2070 kommt näher an eine 2080 Ti ran. Eine 3060 näher an eine 3080 Ti und ein 4070 näher an eine 4090. Weniger Rohperformance heisst also nicht, dass es nicht brauchbar läuft.

PS:
Alle Leistungsvergleiche natürlich ohne CPU Limit

Und was würde es bringen? Benötigt es bei nVidia 1ms und bei AMD 3ms wäre bei 10ms nativer Auflösung plötzlich nVidia 18% schneller... Und du glaubst, das würde von AMD Usern einfach so akzeptiert werden? :confused: :freak:

Mal ein Vergleich aus Januar mit Stable Diffusion und Matrix-Berechnung:
https://cdn.mos.cms.futurecdn.net/5xRLCknXRdn9EFSKYETiye-970-80.png
https://www.tomshardware.com/news/stable-diffusion-gpu-benchmarks

"Theoretical FP16 Throughput". Kannst ja auch die Bilder der Benchmarks der effektiven Anwendungsleistung verlinken (siehe dein TH Link), dann sieht der Leistungsvorteil für Nvidia plötzlich nichtmehr ganz so rosig aus, auch inkl. Sparsity ;)

DrFreaK666
2023-03-28, 06:12:47
Du willst Troyan doch nicht etwa Cherry-Picking vorwerfen :eek:

basix
2023-03-28, 06:48:11
Niemals ;)

Aber vielleicht zur wichtigeren Frage von Troyan, ob AMD Nutzer "18%" geringere Performance bei DLSS akzeptieren würden: Die allermeisten sicher. Solange entsprechend begründbar mit z.B. Tensor-Core Acceleration. Ist ja nicht so, dass das die Leute nicht verstehen würden und dass DLSS für AMD-Nutzer keinen Mehrwert hätte. FSR bleibt ja bestehen.

aufkrawall
2023-03-28, 08:31:57
Ich finde die Debatte verfehlt, die Kosten wären auf kleinen Chips garantiert viel zu hoch. Jeder kann sich aussuchen, welche GPU mit welchem Feature-Set er kaufen will. Deal with it? Gibt auch immer noch keinen "offiziellen" CUDA-Support auf AMD/Intel, wobei das schon deutlich älter ist. Würde empfehlen, mal realistisch zu bleiben.

Viel wichtiger wäre, die bestehenden Probleme von DLSS weiter zu verbessern. Zwar hat es mitunter deutliche Vorteile, aber es kocht auch nur mit Wasser bez. Smearing und Bewegungsunschärfe etc. Dieses Preset-Chaos ist auch ein Unding: A ist Müll und wird trotzdem ständig von Apps genutzt, während C, D und F Vor- und Nachteile anders ausbalancieren. Eigentlich sollte man ja erwarten können, dass es ein Preset gibt, das ausschließlich Vorteile gegenüber FSR 2/TSR hätte. Aber ist real weit davon entfernt...

Lurtz
2023-03-28, 09:15:07
Ja und? Es geht darum, ob (für uns simples) Dateien austauschen ein Gefrickel ist oder nicht. Ganz generell, nicht nur auf DLSS bezogen, auch wenn ich es jetzt im Zusammenhang mit DLSS geschrieben hatte. Für viele Spieler ist schon das Ändern von Grafikoptionen ein "Gefrickel".
Es ging gerade darum ob das Tauschen von DLLs für ein optimales Erlebnis DLSS zu einer Alpha macht. Wenn gewisse Spielerkreise am PC eh nie in die Optionen schauen, sehe ich die Relevanz der Frage einfach nicht.

robbitop
2023-03-28, 09:50:31
Nvidia täte gut daran, den Mechanismus zu nutzen und es zu automatisieren. Entsprechend müsste man ggf. 1x Person abstellen, das für alle existierenden und kommenden Spiele zu testen und zu kuratieren, so dass alles automatisch für jedes Spiel herausgeholt werden kann. Könnte man dann per "optimize" button in GFE hinterlegen. Das würde die Zugänglichkeit für viele Nicht-Nerds deutlich steigern.

------------------------

Nvidia wird aus Gründen der customer retention DLSS wahrscheinlich nicht herausgeben. Aber es ist doch anzunehmen, dass hardware agnostische Verfahren evolutionär besser werden. Und es ist auch nicht auszuschließen, dass diese auch irgendwann ein NN bekommen, da ja die Tensorleistung steigen wird in GPU Hardware.

1. durch immer mehr vorhandene INT8 Vektorrechenleistung, Instruktionen, die das auch auf Vector FPUs beschleunigen

2. und irgendwann wird ggf. jede GPU auch Matrixcores haben - diese müssen dann durch entsprechende offene Schnittstellen ansprechbar sein

Der Wettbewerb in dem Segment ist ja längst vorhanden.


-----------------------

Verstehen kann ich das auch. Aber wenn man DLSS performance vs. FSR quality vegleicht dann passt das auch nicht so wirklich. :freak: Beides ist halt zu unterschiedlich auch wenn es den gleichen Zweck hat.
Das Blöde daran ist, dass es auch Dinge gibt, die an der Inputresolution hängen, die temporale Upsamplingverfahren dann nicht mitskalieren. Wie zum Beispiel raytracing. Da werden n rays per Pixel der Inputresolution ausgesendet. Natürlich kann man das auch separat erhöhen - ist aber nicht in jedem Spiel verfügbar. Das müsste dann gleichzeitig und automatisch mitpassieren, wenn man das Preset für das Upsampling setzt. Kostet dann aber auch Leistung.

Ein weiteres Beispiel ist das Geometrielevel von Nanite. Das hängt von der Inputresolution ab. Entsprechend sieht dann Geometriedetail schlechter aus, je aggressiver das Performancesetting der Upsamplingverfahren ist. Ggf. passt Epic das noch an.

Es gibt sicher noch andere Dinge, die abhängig von der Inputresolution sind.

aufkrawall
2023-03-28, 10:05:46
Nvidia täte gut daran, den Mechanismus zu nutzen und es zu automatisieren.
Macht Nvidia doch, mit den 3.x DLLs gibts eine Datenbank für Preset x für Spiel y. Und dabei kommt dann halt ständig Preset A mit Ekel-Blur rum oder Preset D für einige Spiele, in denen das massives Ghosting erzeugt.

robbitop
2023-03-28, 10:06:54
Deswegen meinte ich, dass es (von Leuten, die was davon verstehen) kuratiert werden sollte, so dass man das Optimum rausholt. ;)
Wirklich aktuell eine Verschwendung von Potenzial, welches sicherlich nur ein Bruchteil der Gamer manuell hebt.

Und natürlich noch das Austauschen alter 2.x dlls.

aufkrawall
2023-03-28, 10:12:42
Deswegen meinte ich, dass es kuratiert werden sollte, so dass man das Optimum rausholt. ;)

Tja, und was ist "das Optimum"? Preset C-F haben eigene Vor- und Nachteile. Zu bestimmen, was der Mehrzahl der Spieler besser gefällt, ist schlicht unmöglich.
Weshalb der einzige "echte" Fix ein einzelnes Preset/Modell wäre, das die Vorteile ohne Nachteile vereint. Vielleicht ist Preset D auf dem Weg dahin, vielleicht nicht...

robbitop
2023-03-28, 10:14:58
OK aber man könnte zumindest mehr herausholen als bis dato. :)
Ich stelle mir da einen aufkrawall bei Nvidia vor, der das für uns alle raussucht und einstellt. :D
Ggf. könnte man ja Kriterien aufstellen (z.B. die von Alex bei DF) und je nach Profil und Spiel einen Erfüllungsgrad von 1-10 vergeben und ggf. eine Gewichtung pro Kriterium und dann wird eben nach Nutzwertanalyse entschieden. Ggf. bräuchte es dann doch ein paar mehr Leute, die da einen Blick drauf werfen und die Kennzahlen bewerten um möglichst wenig bias zuzulassen.

aufkrawall
2023-03-28, 10:20:29
Sehr schmeichelhaft, aber "aufkrawall" ist sich leider auch nicht immer einig. :freak:
Mein Bruder ist wieder von F zu C zurückgekehrt, Disocclusion ist teilweise schon arg schlecht mit F bei bestimmten Bildänderungen. Das geht so weit, dass es hinter aufsteigendem Rauch in Control sogar teilweise mehr Aliasing gibt als mit der FSR 2-Mod. Bei den Bäumen von Hogwarts sieht es natürlich trotzdem viel besser aus als FSR 2. Aber demonstriert, was es für Abwägungsschwierigkeiten gibt.

Lurtz
2023-03-28, 11:06:11
Nochmal zur Aussagekraft nativer Auflösung von vor ein paar Tagen:
RE4 Remake image quality on PS5 or PC is a reminder that pixel counts are generally not informative anymore. Native 1440p w/ TAA on PC runs and looks a heck of a lot worse than modded 4K DLSS in performance mode, even though 4K DLSS performance mode has far fewer internal pixels.
https://twitter.com/Dachsjaeger/status/1640625886037721090

https://pbs.twimg.com/media/FsSsQIJWYAEORC1?format=jpg&name=4096x4096

BlacKi
2023-03-28, 11:07:51
performance war fhd native oder?

robbitop
2023-03-28, 11:31:14
1/2 pro Achse. Also wird aus 4K dann 1080p internal resoultion, ja. :)

aufkrawall
2023-03-28, 11:46:28
Das NN schafft eine Stabilisierung mit dem üblen Content weitaus gezielter als der TAA-Blurhammer. Würde aber auch mit DLSS mit Content, der sich an Best Practices für Echtzeitgrafik hält, besser aussehen.
Dass Alex ein ähnliches Emblem übers Video legt wie bei Videos von NV direkt zu sehen, nun ja...

BlacKi
2023-03-28, 11:56:03
für eine qualitative bewertung bräuchte man aber eine aufnahme (zumindest etwas) in bewegung.

Lurtz
2023-03-28, 11:57:49
Dass Alex ein ähnliches Emblem übers Video legt wie bei Videos von NV direkt zu sehen, nun ja...
Es ist mindestens unglücklich, tendenziell aber mehr. So sehr ich ihre Arbeit grundsätzlich auch schätze, Digital Foundry kann man leider nicht als unabhängig ansehen.

Lurtz
2023-03-28, 11:58:25
für eine qualitative bewertung bräuchte man aber eine aufnahme (zumindest etwas) in bewegung.
Das Video dazu wird wahrscheinlich heute erscheinen.

aufkrawall
2023-03-28, 12:20:09
Es ist mindestens unglücklich, tendenziell aber mehr. So sehr ich ihre Arbeit grundsätzlich auch schätze, Digital Foundry kann man leider nicht als unabhängig ansehen.
Ist perfekte Munition für Hater, die wegen des Bias seine ganze Arbeit ablehnen (ist ja auch viel Gutes dabei). Sieht schon fast nach vorsätzlicher Provokation aus? :freak:
Ich verstehe es nicht.

DrFreaK666
2023-03-28, 12:34:22
... Dass Alex ein ähnliches Emblem übers Video legt wie bei Videos von NV direkt zu sehen, nun ja...

Sag ich schon länger dass er biased ist. Wahrscheinlich kommt wieder keine AMD-Karte beim Test zum Einsatz

aufkrawall
2023-03-28, 12:39:30
Wahrscheinlich kommt wieder keine AMD-Karte beim Test zum Einsatz
Dann schieß mal los, weshalb das eine Rolle spielen soll.

robbitop
2023-03-28, 13:58:23
Schwer zu sagen ob Alex als Person biased ist. Aber sein Arbeitgeber DF hat sich in die unglückliche Situation begeben sich von Nvidia zumindest ein Stück weit im Messanging beeinflussen zu lassen. Sie haben ein paar Exclusives von Nvidia bekommen und es ist von anderen Seiten und Kanälen bekannt, dass man die nur bekommt, wenn man Nvidia einen gewissen Einfluss in die Berichterstattung gewährt und sich an bestimmte Richtlinien hält.
Dadurch kommt man zwar in den Luxus dieser Exclusives gibt aber potenziell ein Stück den Aspekt der unabhängigen Berichterstattung auf. Ich hätte das nicht getan an ihrer Stelle - aber ggf. war man sich der trade-offs bewusst und hat die Entscheidung dennoch getroffen. Von den Viewer Zahlen hat es ihnen nicht geschadet (was mit dem Thema der Unabhängigkeit und Integrität nichts zu tun hat aber es ist aus geschäftlicher Sicht eine wesentliche Metrik).

Ex3cut3r
2023-03-28, 14:05:00
Warum sollte er biased sein? Raff hat auch persönlich eine GeForce im Privat Rechner, ist er nun auch Biased? :freak:

Gegenfrage, was bietet AMD dem Geek für sein Geld? Also ich sehe da nichts, wo ich sage, juhu, jetzt muss ich mir auch eine AMD Karte kaufen.

aufkrawall
2023-03-28, 14:19:40
Warum macht er wohl ein Video über einen DLSS-Mod, und nicht einen FSR-Mod. Eigentlich sagt das schon alles. ;D

Gast
2023-03-28, 14:22:33
Warum macht er wohl ein Video über einen DLSS-Mod, und nicht einen FSR-Mod. Eigentlich sagt das schon alles. ;D

Wofür? FSR saugt qualitativ.

robbitop
2023-03-28, 14:29:17
Gegenüber DLSS ist FSR 2.x praktisch immer hinten. Aber wenn man keine Karte (und das sind im Markt ziemlich viele PCs auf die das zutrifft - viel an Maxwell, Pascal, GCN und RDNA) hat, die DLSS beherrscht, hat man die Wahl zwischen FSR 2.x und spatialem Upscaling. Da ist FSR 2.x schon besser. Aber es gibt leider viele Spiele, wo es allgemein furchtbar aussieht (wie RDR2 die Artefakte mit den Strommasten).

Lurtz
2023-03-28, 14:36:25
Warum sollte er biased sein? Raff hat auch persönlich eine GeForce im Privat Rechner, ist er nun auch Biased? :freak:

Blendet Raff ein fettes nVidia-Logo in seinen Benchmarks ein? Wenn dann hoffentlich nur mit gesetzlich vorgeschriebener Werbemarkierung.

Gegenfrage, was bietet AMD dem Geek für sein Geld? Also ich sehe da nichts, wo ich sage, juhu, jetzt muss ich mir auch eine AMD Karte kaufen.
Da gehts aber nicht um Geektum, das ist ein Business.

robbitop
2023-03-28, 14:40:32
Man muss zwischen der Redaktion und den Menschen, die da arbeiten unterscheiden. Die Beiträge von DF spiegel nicht zwangsweise die private Einstellung der Angestellten wieder.

Gast
2023-03-28, 15:29:15
Blendet Raff ein fettes nVidia-Logo in seinen Benchmarks ein? Wenn dann hoffentlich nur mit gesetzlich vorgeschriebener Werbemarkierung.

HWU gehen da noch einen Schritt weiter, die wollten nur mehr Benchmarks mit FSR für NV/AMD, eine bessere Werbeplattform hätte sich AMD kaum wünschen können. ;-) Mit "Apples vs. Apples" ist da nicht viel, die sollten sich einfach auf ihren Job konzentrieren und vorbehaltlos und vollumfänglich testen (sprich inkl. DLSS 3) sonst kann man sich das auch gleich ganz sparen...

Gegenüber DLSS ist FSR 2.x praktisch immer hinten. Aber wenn man keine Karte (und das sind im Markt ziemlich viele PCs auf die das zutrifft - viel an Maxwell, Pascal, GCN und RDNA) hat, die DLSS beherrscht, hat man die Wahl zwischen FSR 2.x und spatialem Upscaling. Da ist FSR 2.x schon besser. Aber es gibt leider viele Spiele, wo es allgemein furchtbar aussieht (wie RDR2 die Artefakte mit den Strommasten).

Auch wenn ich deinen Punkt dahinter verstehen kann, so ist der Nutzen doch sehr fragwürdig, soviele Titel fielen mir zumindest jetzt nicht ein, wo das in Frage käme? in Deatloop vielleicht, das war noch einer der besseren Titel wo das einigermaßen aufging... aber sonst?
Auch die Vegetation vermatscht ziemlich stark, so dass kaum noch Details der Gräser erkennbar waren @ RDR2

DrFreaK666
2023-03-28, 15:54:25
Warum sollte er biased sein? Raff hat auch persönlich eine GeForce im Privat Rechner, ist er nun auch Biased? :freak:

Gegenfrage, was bietet AMD dem Geek für sein Geld? Also ich sehe da nichts, wo ich sage, juhu, jetzt muss ich mir auch eine AMD Karte kaufen.

Raff ist pro-3dfx :D

Und was pro-AMD geht: VRAM-Diskussion wieder vergessen?

Lurtz
2023-03-28, 16:45:13
HWU gehen da noch einen Schritt weiter, die wollten nur mehr Benchmarks mit FSR für NV/AMD, eine bessere Werbeplattform hätte sich AMD kaum wünschen können. ;-) Mit "Apples vs. Apples" ist da nicht viel, die sollten sich einfach auf ihren Job konzentrieren und vorbehaltlos und vollumfänglich testen (sprich inkl. DLSS 3) sonst kann man sich das auch gleich ganz sparen...

Sie wollen jetzt wieder native benchen, weil sonst eh keiner zufrieden ist. Und Digital Foundry liefern abseits von GPU-Tests überhaupt keine Benchmarks, die wollen und können gar keinen Marktüberblick für Hardware geben.

robbitop
2023-03-28, 16:49:51
Auch wenn ich deinen Punkt dahinter verstehen kann, so ist der Nutzen doch sehr fragwürdig, soviele Titel fielen mir zumindest jetzt nicht ein, wo das in Frage käme? in Deatloop vielleicht, das war noch einer der besseren Titel wo das einigermaßen aufging... aber sonst?
Auch die Vegetation vermatscht ziemlich stark, so dass kaum noch Details der Gräser erkennbar waren @ RDR2
RDR2 war wirklich furchtbar. Allerdings haben sie sich mit der DLSS Implementierung auch nicht mit Ruhm bekleckert. Schaue es dir mal out of the box mit der Standard DLL an. Pferdehaar und Strommasten aliasen wie verrückt und einige Elemente ghosten wie sonst was.
Mit neueren DLLs wird es besser (wobei man hier frickeln muss, wenn man das Spiel über den Rockstarlauncher gekauft hat - da wird die DLL automatisch gegen die Alte getauscht und man muss die neue reinkopieren, sobald das Spiel gestartet ist - bei jedem Spielstart...)

Angeblich (ich hab's mir noch nicht angeschaut) soll FSR 2 in Hitman 3 und Cyberpunk brauchbar (heißt nicht auf DLSS level) sein.

aufkrawall
2023-03-28, 17:15:52
Angeblich (ich hab's mir noch nicht angeschaut) soll FSR 2 in Hitman 3 und Cyberpunk brauchbar (heißt nicht auf DLSS level) sein.
CyberPunk auf keinen Fall, jittert sich einen ab. Hitman eher so meh, sah vor den letzten Updates via Mod besser aus. Aber ist eigentlich alles OT hier?

Raff
2023-03-28, 19:58:13
Raff ist pro-3dfx :D

Yep. Daraus mache ich keinen Hehl. Das Geile: Deswegen bin ich "immun" gegen die übliche Grabenkriegeritis, Hersteller der Gegenwart perlen an mir ab. Die wollen alle nur unser Geld, kommt klar damit. ;) Dieses Posting kann bei Bedarf verlinkt werden.

MfG
Raff

Gast
2023-03-29, 07:46:54
Die wollen alle nur unser Geld, kommt klar damit. ;)


3dfx wollte das auch. Hat eben am Ende nicht genug davon bekommen.

robbitop
2023-03-29, 09:07:43
Da gab es doch mal eine Dokumentation zu 3dfx. Die waren damals noch sehr nicht-coporate artig. Die Engineers waren auch passionierte Gamer und deren "Office" sah aus wie unsere LAN Parties nach einem durchzechten LAN Wochenende in den 90ern. Cola und Pizzareste überall - die Leute in kurzen Hosen und T-Shirts oder Jogging Hosen. :D
Klar wäre aus ihnen, wenn sie es geschafft hätten zu überleben, zwangsweise auch eher etwas corporate artiges geworden. Aber zumindest in der Zeit war das alles noch irgendwie sehr nerdig, sehr hemdsärmlig, sehr sympatisch. Klar wollten die auch Geld haben - aber es sah für mich nicht so aus, als wenn dort die "Suits" das Sagen hätten. Wichtig schien den 3DFX Leuten vor allem, dass die Grafikkarte zum Zocken geil war - die meisten waren ja auch Gamer. Mir war das sehr sympatisch. Das ist natürlich alles aus einer ganz anderen Zeit bei der Research einen Bruchteil von dem gekostet hat was wir heute kennen. In der eine Hand voll Leute eine GPU designt haben.

Gast
2023-03-29, 19:10:39
Da gab es doch mal eine Dokumentation zu 3dfx. Die waren damals noch sehr nicht-coporate artig.

Ändert halt nix daran, dass sie auch auf dein Geld aus waren.
Sie kannten nur nicht all die tollen "Tricks" um den Kunden das Geld aus der Tasche zu ziehen.


Cola und Pizzareste überall - die Leute in kurzen Hosen und T-Shirts oder Jogging Hosen. :D


So sieht unser office heute noch aus, zumindest im Sommer.

Sardaukar.nsn
2023-03-29, 21:11:06
Update inkl Forza Horizon 5 https://www.nvidia.com/en-us/geforce/news/forza-horizon-5-dlss-3-update-available-now/

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/forza-horizon-5-dlss-3-update-available-now/forza-horizon-5-geforce-rtx-3840x2160-nvidia-dlss-desktop-gpu-performance.png

robbitop
2023-03-30, 07:12:19
Ändert halt nix daran, dass sie auch auf dein Geld aus waren.
Sie kannten nur nicht all die tollen "Tricks" um den Kunden das Geld aus der Tasche zu ziehen.

Klar aber halt anders und mit Passion und Nerdtum. Da kann ich schon nachvollziehen, dass es eine Teilmenge ähnlicher Zeitgenossen sich damit eher identifizieren kann als mit irgendeinem einem Großkonzern.

Lurtz
2023-03-31, 08:26:03
Mit DLSSTweaks 0.200.5-beta3 kann man das Preset bei hinterlegten App-IDs nun ohne das Überschreiben der App-ID ändern. Das sollte möglicherweise andere mit der App-ID hinterlegte Tweaks erhalten und dennoch eine Änderung des Presets ermöglichen.

Deisi
2023-03-31, 10:17:36
Gibts da schon ein konkretes Beispiel, bei welchem Spiel das etwas ändert?

aufkrawall
2023-03-31, 13:23:05
Gibts denn überhaupt noch andere per-app Tweaks als Preset und Auto-Exposure?

Lurtz
2023-03-31, 14:10:13
Keine Ahnung. Im Changelog steht nur "(this might help DLSS to make any game-specific changes now too, since it'll now always be told the correct AppId for the game)".

Schnitzl
2023-03-31, 19:58:33
Ändert halt nix daran, dass sie auch auf dein Geld aus waren.
Sie kannten nur nicht all die tollen "Tricks" um den Kunden das Geld aus der Tasche zu ziehen.

Sollen die ihre Karten verschenken oder was?

Tut mir leid aber du hast keine Ahnung wie 3dfx war. Ich hatte damals mit denen zu tun. Das waren keine Welten zu nVidia, das waren UNIVERSEN!

Gott1337
2023-03-31, 20:49:10
Sollen die ihre Karten verschenken oder was?

Tut mir leid aber du hast keine Ahnung wie 3dfx war. Ich hatte damals mit denen zu tun. Das waren keine Welten zu nVidia, das waren UNIVERSEN!
auch wenn du mit denen zu tun hattest, kannst du erst einen Unterschied feststellen, wenn du beide gut kanntest. Ich denke eher das alle Firmen voller Nerds zu der Zeit waren. Auch Jensen ist ein super Nerd, guckt euch mal die Vorträge von ihm an wo er von seiner Studienzeit erzählt.

auch MS/Apple/ATI etc. waren voller Nerds, muss ja auch so sein bei so kleinen Firmen, da bleibt gar kein Geld übrig für andere.

"Leider" ändert sich das bei allen wenn sie größer werden, was es aber auch muss. Die Nerds sind da immer noch, von denen hörst du aber nichts mehr weil die Kommunikation eben von Angestellten übernommen wird die nur dafür eingestellt wurden.

Aber ist doch alles OT Leute

Schnitzl
2023-03-31, 21:28:26
auch wenn du mit denen zu tun hattest, kannst du erst einen Unterschied feststellen, wenn du beide gut kanntest. Ich denke eher das alle Firmen voller Nerds zu der Zeit waren. Auch Jensen ist ein super Nerd, guckt euch mal die Vorträge von ihm an wo er von seiner Studienzeit erzählt.

auch MS/Apple/ATI etc. waren voller Nerds, muss ja auch so sein bei so kleinen Firmen, da bleibt gar kein Geld übrig für andere.

"Leider" ändert sich das bei allen wenn sie größer werden, was es aber auch muss. Die Nerds sind da immer noch, von denen hörst du aber nichts mehr weil die Kommunikation eben von Angestellten übernommen wird die nur dafür eingestellt wurden.

Aber ist doch alles OT Leute
ist nicht ganz OT.
Wie 3dfx heute wäre kann keiner sagen. Ich sprach von damals, und bereits da war nVidia auf dem Raubtier Kapitalismus Trip.

Und das Bild dass du da von Jensen zeichnest (bzw. nVidia) ... da brauchts schon eine sehr tiefgrüne Brille um das so zu sehen.
Deshalb konnte ich das nicht so stehen lassen. Bevor das noch mehr abdriftet gerne per PN oder extra Thread :)

Gott1337
2023-04-01, 03:13:00
ist nicht ganz OT.
Wie 3dfx heute wäre kann keiner sagen. Ich sprach von damals, und bereits da war nVidia auf dem Raubtier Kapitalismus Trip.

Und das Bild dass du da von Jensen zeichnest (bzw. nVidia) ... da brauchts schon eine sehr tiefgrüne Brille um das so zu sehen.
Deshalb konnte ich das nicht so stehen lassen. Bevor das noch mehr abdriftet gerne per PN oder extra Thread :)
Ich Zeichne hier gar kein Bild, das haben andere Menschen mit einer Kamera aufgenommen ;D

Natürlich muss er ein Hardcore Nerd gewesen sein, sonst wird man nicht so groß und offensichtlicherweise waren sie auch gut.

Du weißt auch nicht viel über Nvidia weil sie dir nicht gefallen, ist ja auch okay. Dennoch stellst du hier deine Ansicht, die komplett subjektiv ist, als objektiv dar. Erzählt darüber wie er fast Nvidia gegen die Wand gefahren als er entschieden hat programmierbare Shader zu entwickeln.
Auch was für ein Reinfall die Geforce FX war und sie nur ein Kind war das eine Mutter lieben könnte...
Ich bin kein Fanboy von Ihm, auch von Steven Jobs nicht aber man muss respektieren was die Leute geschaffen haben und das wir ohne Sie nicht dort wären wo wir eben jetzt sind. Man kann Apple hassen wie man will, ich mag Apple auch nicht wegen dem proprietärem scheiss, aber sie waren und sind extrem wichtig für unsere jetzige Gesellschaft.

Und auch das du behauptest das es nicht OT ist, ist natürlich Bullshit, hier soll es nur um DLSS gehen, wie du hier Sachen verdrehen willst ist schon fragwürdig.

https://www.youtube.com/watch?v=Xn1EsFe7snQ Jensen erzählt da schon sehr offen über alles, wie sie an Geld kamen, was sie wollten, wie er nicht glaubte das etwas wie google erfolgreich sein könnte. Er stellt sich gar nicht als der geilste Typ hin.
ein gutes Beispiel wäre auch Steve Balmer, ist er ein Nerd? Natürlich, zwar kein Computernerd aber er war doch total vernarrt in MS und hat alles für die Firma getan, sowas wollen "wir" doch sehen.

DrFreaK666
2023-04-02, 06:56:58
...hat alles für die Firma getan, sowas wollen "wir" doch sehen.

Wollen wir das? Proprietäres NV-Zeugs will ich nicht-proprietär sehen.
Wo soll das hinführen, wenn jeder sein eigenes Süppchen kocht?
Ich will sehen, dass die was für uns machen und nicht für sich selbst.

Gast
2023-04-02, 18:57:17
Wollen wir das? Proprietäres NV-Zeugs will ich nicht-proprietär sehen.
Wo soll das hinführen, wenn jeder sein eigenes Süppchen kocht?
Ich will sehen, dass die was für uns machen und nicht für sich selbst.

Dann kauf dir ne Konsole, der PC lebt von Innovation, Ideen und Vielfältigkeit.

wolik
2023-04-02, 20:27:53
RDR2...
Mit neueren DLLs wird es besser (wobei man hier frickeln muss, wenn man das Spiel über den Rockstarlauncher gekauft hat - da wird die DLL automatisch gegen die Alte getauscht und man muss die neue reinkopieren, sobald das Spiel gestartet ist - bei jedem Spielstart...)

Mit DLAA Tool kann mann richtige DLSS puschen.
Bei RDR2 DLDSR 5720p /Q /Ultra beste Setting.
DLSS, insbesondere FG ist der Heilige Gral.
Next?
(In 10+ Jahren?) Spiele werden nicht mehr gerendet, sondern generiert.

robbitop
2023-04-02, 20:47:20
2x gab es gen over gen leider schon ewig nicht mehr (unwahrscheinlich, dass blackwell daran was ändert). Die 4090 schaffte gerade mal knappe 1,7x (vs 3090ti) was als völlig neue Klasse bejubelt wurde. X-D
Daran merkt man wie man sich runtergewöhnen kann.

basix
2023-04-02, 20:48:49
Habe heute nochmals mit The Witcher 3 Next Gen auf der 4090 rumgespielt. Mein persönlicher Favorit:
- 2880p @ 4K Monitor
- DLSS-P (2.5.1)
- DLSS-FG = On
- FidelityFX CAS via Reshade

Reshade ist noch etwas hakelig mit TW3NG, Abstürze oder falsch skalierte Bild auf dem Monitor treten immer mal wieder auf. Hoffe, dass eines der nächsten Updates das Problem lösen.

Das läuft in den meisten Gebieten mit 60-80fps und im Extremfall mit knapp 45fps (sehr dichtes Gras). DLSS-P und DLDSR stellen Gras und feine Geometrie relativ glatt und sauber dar (CAS ist aber nötig). DLSS-P und FG machen zudem einen erstaunlich guten Job. Ghosting und andere Artefakte sind >60fps an den meisten Objekten nur selten zu erkennen. Am störendsten sind so schwarze Pixel, wenn man sich in sehr dichtem Gras umdreht (Problem von DLSS). Bei <60fps nimmt zudem das Ghosting von im Wind wiegendem Gras aber stark zu. Kein Wunder, es wird hier mit <40fps gerendert. Die erhöhte Latenz von FG ist spürbar aber noch knapp vertretbar. FG hat aber definitiv einen positiven Effekt auf die visuelle Flüssigkeit, was mir in diesem Spiel mehr Wert ist.

Hach, für eine "optimales" Spielerlebnis würde ich nochmals 2x Performance benötigen. Das würde die meisten Unzulänglichkeiten beheben (Latenz, Ghosting von Gras, temporale Artefakte/langsame Akkumulation). Das gibt es aber wohl erst mit der 5090...

Deisi
2023-04-02, 20:52:43
DLDSR + DLSS lohnt sich eigentlich nicht mehr seit es DLSS Tweaks gibt. DLAA F ist von der Optik und Performance besser.

basix
2023-04-02, 21:29:42
Ja, habe ich gehört. Habe DLSS Tweaks aber noch nicht verwendet.

Ein GUI ähnlich wie bei DLSS-Swapper wäre noch nice ;)
Ich könnte schon selber rumfrickeln aber für jedes Game separat ist auf Dauer nicht optimal.

Deisi
2023-04-02, 22:55:07
So fricklig ist das garnicht. Solltest du dir auf jeden Fall mal anschauen, wenn du gerade Muße hast zum tweaken. (y)

Atma
2023-04-03, 01:08:24
Die Vegetation in Sons of the Forest mit Abstand der fieseste Worst Case den ich bisher gesehen habe. Das interne TAA ist völlig unbrauchbar weil es schmiert wie Hölle und bei DLSS stellt mich kein Preset wirklich zufrieden. Klar sind alle Presets besser als TAA, doch entweder schmiert es leicht oder die Stabilität in Bewegung ist zu schlecht. Bleibe erstmal bei Preset D, wirklich glücklich bin ich aber nicht :frown:

Gast
2023-04-03, 07:23:01
Die 4090 schaffte gerade mal knappe 1,7x (vs 3090ti) was als völlig neue Klasse bejubelt wurde.


Die 4090 rennt halt ohne Raytracing quasi ständig zumindest ins partielle CPU-Limit.

Selbst Cyberpunk mit voller RT-Dröhnung hängt bei mir spätestens ab DLSS-Q dauerhaft im CPU-Limit.

Die aktuellen Durchschnittswerte zeigen definitiv nicht die reale Leistungsverbesserung, und es würde mich nicht wundern wenn wir mit anspruchsvolleren Spielen und dann 3090Ti vs. 4090Ti (sprich beides mal quasi Vollausbau) zumindest sehr nahe an 2x sein werden.

DrFreaK666
2023-04-03, 09:17:52
2x gab es gen over gen leider schon ewig nicht mehr (unwahrscheinlich, dass blackwell daran was ändert). Die 4090 schaffte gerade mal knappe 1,7x (vs 3090ti) was als völlig neue Klasse bejubelt wurde. X-D
Daran merkt man wie man sich runtergewöhnen kann.

Bei der Umfrage ist jede Antwortmöglichkeit unter 100% Zuwachs
https://abload.de/img/screenshot_20230403_0tgce0.jpg (https://abload.de/image.php?img=screenshot_20230403_0tgce0.jpg)

Sardaukar.nsn
2023-04-03, 09:28:27
Gegenüber meiner 2ghz 3080 10GB bin ich bei +120% TES https://www.3dmark.com/compare/spy/29595315/spy/33420218 PortRoyal https://www.3dmark.com/compare/pr/709029/pr/1958110#

Mit DLSS3 sind wir dann irgendwo bei 2-4x faster :freak:

robbitop
2023-04-03, 10:29:53
Die 4090 rennt halt ohne Raytracing quasi ständig zumindest ins partielle CPU-Limit.

Selbst Cyberpunk mit voller RT-Dröhnung hängt bei mir spätestens ab DLSS-Q dauerhaft im CPU-Limit.

Die aktuellen Durchschnittswerte zeigen definitiv nicht die reale Leistungsverbesserung, und es würde mich nicht wundern wenn wir mit anspruchsvolleren Spielen und dann 3090Ti vs. 4090Ti (sprich beides mal quasi Vollausbau) zumindest sehr nahe an 2x sein werden.
Bald kann man es in CP2077 mit dem neuen RT Setting ja testen. Aber natürlich bekommt man eine 4090 auch in's GPU Limit und mehr als +70% habe ich auch da noch in keinem Review gesehen vs 3090 ti. Wenn die neuen FF RT Units in einem Spiel genutzt wird (wie zB SER) kann es natürlich sein.

The_Invisible
2023-04-03, 13:29:54
Größer als 70% gibts schon manchmal, vor allem in >=UHD+RT: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/

robbitop
2023-04-03, 15:00:54
Stimmt - ein paar Einzeltitel sind bei 75%-80%. (was aber auch kein 2x also 100% sind) Dafür aber auch andere bei nur 45-55%.
Mir geht es eher darum, dass man es im Index auch schafft.

Gast
2023-04-03, 22:07:13
Mir geht es eher darum, dass man es im Index auch schafft.

Der Index ist bei der CPU-Limitierung der 4090 0 Aussagekraft..

Die Einzeltitel die aktuell mit 70-80% skalieren sind die einzigen welche die Wahre Leistungsfähigkeit der Karte zeigen.

Olliver
2023-04-05, 10:39:24
Nach ursprünglicher Skepsis, zähle ich nach 2 1/2 Monaten 4090, eigentlich FG mit zum Performancegewinn gegenüber der 3090.
Das sind gerade bei RT Spielen die die 3090 überfordert haben, wie Witcher 3RT und Cyberpunk 2077 auf höchster Qualität,
fast +200% und der Unterschied zwischen spielbar, oder Auflösung runterdrehen.
Wo sonst soll ich den Leistungsunterschied werten, als dort wo ich ihn brauche?

Lehdro
2023-04-05, 14:55:20
Nach ursprünglicher Skepsis, zähle ich nach 2 1/2 Monaten 4090, eigentlich FG mit zum Performancegewinn gegenüber der 3090.
Das sind gerade bei RT Spielen die die 3090 überfordert haben, wie Witcher 3RT und Cyberpunk 2077 auf höchster Qualität,
fast +200% und der Unterschied zwischen spielbar, oder Auflösung runterdrehen.
Wo sonst soll ich den Leistungsunterschied werten, als dort wo ich ihn brauche?
Du solltest dabei bedenken dass dieser FPS Boost nur solange einen Wert hat, wie deine "normalen" FPS den vernünftigen Basiswert (je nach Game >60-90 FPS im Normalfall) erreichen. DLSS 3.0 FG ist halt ziemlich nutzlos wenn man eh nur mit 30 FPS durch die Gegend zuckelt. Da muss dann das normale DLSS mithelfen, damit auch diese Schwelle erst einmal überwunden wird und spielbare FPS erreicht sind.

Ja, DLSS 3.0 FG ist ein großer Pluspunkt, allerdings einer der trotz Vorhandensein der Technik (Software + Hardware) rein konzeptionell nicht immer greifen kann.

basix
2023-04-05, 16:24:40
Kann ich so unterschreiben. FG bei 30fps Basis macht wenig Spass und zudem sind oftmals anderweitige Artefakte vom DLSS Upsampling stark ausgeprägt (welche FG nicht lösen kann). Bei 40-45fps kann es bei etwas gemächlicherem Gameplay allerdings bereits relativ gut funktionieren, solange das Bild relativ sauber ist (=artefaktfrei) und Grundlatenz der entsprechenden Engine nicht allzu gross ist.

FG an sich für Framerateerhöhung funktioniert an sich aber recht gut auch bei niedrigen FPS in z.B. TW3RT, wenn das zugrundeliegende Bild sauber ist (keine DLSS oder TAA Artefakte und Schmierereien). FG in Zwischensequenzen müsste eigentlich optimal funktionieren (30 -> 60fps, Latenzen egal)

Olliver
2023-04-05, 21:54:03
Mir ist das bewusst, ich habe nur diesen Fall bei meinen Spielen nirgendwo gesehen.
Spiele wie die eben genannten laufen mit der 4090 und 70 FPS zwar deutlich besser, aber erst mit FG dann flüssig und ruckelfrei.
Mit RT ohne DLSS bekommt man wahrscheinlich den Fall, dass FG es auch nicht mehr retten kann.
Mal sehen was nächste Woche mit Pathtracing passiert, läuft es dann wie mit der 3090,
oder hat nvidia recht mit den behaupteten FPS?
Muss DLSS dann auf performance stehen?

The_Invisible
2023-04-05, 22:42:51
FG würde ich mir am liebsten in allen Strategie/Aufbauspielen wünschen die stark CPU limitiert sind, Anno 1800 Lategame ahoi... da ist die Eingabelatenz auch völlig egal, wenn das Bild/Scrolling dafür flüssiger ist ist schon geholfen... FS2020 ist ja auch so ein Fall

Es gibt eben nicht nur schnelle Aktionspiele, ich hoffe die Entwickler springen auch in diesem Bereich auf ; )

Geldmann3
2023-04-06, 10:21:51
Um ehrlich zu sein würde ich mir das sogar in allen Games wünschen.

Ob es einem die Artefakte und ggf. minimal höhere Latenz wert ist kann dann schließlich jeder selbst entscheiden. Strategiespiele sind dafür natürlich ein Top-Usecase.

ChaosTM
2023-04-06, 10:25:44
Beim FS2020 ist es trotz 3D CPU ein unglaubliche Erleichterung.
Ich hätte es auch gerne in jedem Spiel. Vielleicht kommt ja noch was "offenes" von der Konkurrenz.

gnomi
2023-04-06, 11:57:38
Das CPU fps Niveau ist ja seit mehr Kernen und DX12 im Optimalfall schon ganz gut gestiegen.
Sehe keine Veranlassung, Coffee Lake schon zu tauschen.
Anno 1800 hat gerade erst ne Konsolen Fassung bekommen, weil dort jetzt brauchbare CPU's drin sind und dann noch mehr Leute das brauchbar zocken können. =)

DLSS ab 2.0 ab 2019 ist sehr brauchbar, weil qualitativ so gut und weil RT Effekte die GPU schnell grillen.
Ampere hat aber schon deutlich mehr Power als Turing.
Kann mit einer 3080TI gegenüber einer 2080 etwa Faktor 1,8-2x erreichen.
Ich persönlich komme mit 60 fps für SP/neuere Games und 120fps für alles andere prima klar.
4090 mit 100% mehr Performance plus DLSS 3 obendrauf wäre optimal und würde ich mir gerne mal ansehen.
Ich finde den Sprung aber wohl eher technisch interessant, als persönlich notwendig, weswegen ich das wohl dann erst Ende 24 Anfang 25 angehen werde.
Ich schätze, dass wir dann die Leistung einer 4090 für 1k in der 5000er Generation sehen könnten.
Und dann haben wir auch mehr passende Monitore jenseits von 120Herz.
Standards ändern sich. Würde aber nicht sofort hinterherspringen auf dem bestehenden Niveau. Müsste mein Surface 2 Book dann ja auch gleich wegschmeißen mit nur 60Herz Display.
Aktuell sind diese ganzen Spielzeuge doch völlig ausgereizt auch bei den Preisen. (okay, wird langsam :freak: )

Gast
2023-04-06, 14:24:10
Das CPU fps Niveau ist ja seit mehr Kernen und DX12 im Optimalfall schon ganz gut gestiegen.



Sehe ich eher umgekehrt. Das CPU-Limit steigt trotz mehr Kernen (was beim Gaming eh nix bringt) mehr Cache usw. viel zu langsam um mit den immer schneller werdenden Monitoren Mithalten zu können.

basix
2023-04-06, 14:51:00
Beim FS2020 ist es trotz 3D CPU ein unglaubliche Erleichterung.
Ich hätte es auch gerne in jedem Spiel. Vielleicht kommt ja noch was "offenes" von der Konkurrenz.

FS2020 ist halt auch ein Paradebeispiel für FG:
- Stark CPU limitiert
- Langsames Gameplay & langsame Kameraschwenks (Artefakte, Latenzen)

Bei Strategiespielen das selbe, da stimme ich meinen Vorrednern zu.

Das "offene" der Konkurrenz wirst du bald in Form von FSR3 bewundern dürfen ;)

Sardaukar.nsn
2023-04-10, 21:48:48
DLSS brutal...

https://i.imgur.com/7nMzNcP.jpg

Ab morgen wohl im CP2077 Update zum selber testen.

I-ORt8313Og

basix
2023-04-10, 22:18:06
Sehe ich da 4K DLAA? :D

Man sieht selbst auf diesen "lowres" Bilder, dass etwas an GI Qualität sowie "Bildknackigkeit" verloren geht. Nicht extrem viel, aber man bemerkt es. Und was ich so gesehen habe, smeared das GI relativ stark, wenn sich z.B. Personen bewegen. Aber mal schauen. Ist vermutlich nicht ein Problem von DLSS sondern der temporalen Akkumulation des Pathtracings.

robbitop
2023-04-11, 06:02:49
IIRC hat DLSS keine Auswirkungen auf RT. Entsprechend ist DLSS Performance dann RT Auflösung von 1080p. Das wird man sicherlich sehen.

Olliver
2023-04-11, 22:05:57
falscher Thread, sorry

aufkrawall
2023-04-12, 15:41:49
Sieht btw. so aus, als würde CP77 nun Preset D auch für DLAA nutzen.

robbitop
2023-04-12, 18:49:20
Passt das besser als F in CP77 für DLAA? :)

Ex3cut3r
2023-04-12, 18:57:19
Passt das besser als F in CP77 für DLAA? :)

Das kann er dir nicht mehr sagen, da er jetzt AMDler ist.
Also für UP und DLAA wird F immer vorgegeben. Ich bin auch eher ein Fan von F ab Q mit 3.1.11
Aber Geschmäcker/Vorlieben können anders ausfallen. Das kann auch sein, dass das vom Spiel zu Spiel etwas anders aussieht. In Control z.B. gibt F einige schlimme Artefakte bei den Volumetrischen Effekten.

robbitop
2023-04-12, 20:58:29
Deswegen frage ich ja ganz speziell zu CP77. So wie ich aufkrawall kenne hat er trotzdem noch Zugriff auf eine NV Karte. :)

aufkrawall
2023-04-12, 21:43:48
Passt das besser als F in CP77 für DLAA? :)
Kann gut sein, da F ziemlich blurry ist. Zusammen mit der Denoiser-Unschärfe fand ich F In Control deshalb unpassend. In Half-Life PT kam ich zum gleichen Schluss, da kommt man in 1440p auch mit Sharpen nicht mehr in einen wirklich angenehmen Bereich. D hat die höchste Schärfe im Standbild und größte Bildruhe im Bewegtbild, was bei dem ganzen Gerausche hilft. Ggf. ist das die Intention hinter der Entscheidung, falls man nicht einfach geschlampt hat. Obs nicht irgendwo im Spiel Ghosting mit D gibt, weiß ich nicht. War mir ohne PT jedenfalls nicht aufgefallen.

tb
2023-04-14, 21:37:21
Hier ein Vergleich https://www.tommti-systems.de/main-Dateien/reviews/DlssXessFsr/index.html von DLSS 2.x, 3,x, AMD FSR und Intel XeSS - halt nur in Videos, alles andere macht kaum Sinn.

Orbmu2k
2023-04-15, 13:27:03
DLSS CP2077 :freak:
https://cdn.discordapp.com/attachments/546778130757582848/1096757691218673684/2023-04-15_13_23_12-Cyberpunk_2077_Ray_Tracing_Overdrive_DLAA_4K___RTX_4090___i9_13900K_6GHz_-_YouTu.jpg

Ghost1nTh3GPU
2023-04-15, 13:40:04
Hier ein Vergleich https://www.tommti-systems.de/main-Dateien/reviews/DlssXessFsr/index.html von DLSS 2.x, 3,x, AMD FSR und Intel XeSS - halt nur in Videos, alles andere macht kaum Sinn.

Schöner Vergleich, Danke! :up:


Btw. Deine Seite ist auch netter Ausflug in die Vergangenheit. Ich kann mich noch erinnern wie man vor nun über 20 Jahren:eek: mit 3DAnalyze TnL-Support für manche Spiele faken konnte, damit man diese auf Non-TnL-Karten starten konnte. :freak:

aufkrawall
2023-04-15, 17:24:06
DLSS CP2077 :freak:
https://cdn.discordapp.com/attachments/546778130757582848/1096757691218673684/2023-04-15_13_23_12-Cyberpunk_2077_Ray_Tracing_Overdrive_DLAA_4K___RTX_4090___i9_13900K_6GHz_-_YouTu.jpg
Mit Preset F ist das etwas besser bzw. weniger schlimm. Aber zeigt halt ganz gut, dass DLSS auch nur mit Wasser kocht.
Gibt auch in Fortnite mit DLSS auch immer noch bei bestimmten Lichtstimmungen Ghosting mit den Seilen des Battle Bus vor dem Horizont, das mit TSR komplett nicht existiert.

basix
2023-04-15, 18:05:02
Was ich mich bei DLSS und Co. frage:
Wieso verbessert man nicht die Motion Vectors? Soweit ich weiss sind es heute 2D-Motion Vectors im Screenspace, welche die per Pixel Verschiebung zwischen zwei Frames encodieren. Pixel A verschiebt sich zwischen zwei Frames um N Pixel im XY-Koordinatensystem.

Mittels 3D-Motion Vectors oder gar per-object Motion Vectors, wo so Sachen wie Occlusion / Disocclusion automatisch abgefangen werden könnten.

Nun ist aber die Frage, ob es das benötigt oder ob der Input von den Engines einfach suboptimal ist. Wenn man sich die Dokumentation von FSR2 anschaut, sind da momentan viele Fallstricke vorhanden, wodurch die Motion Vectors stark an Qualität verlieren können, wenn nicht optimal and FSR übermittelt (z.B. bei alpha-blended Sachen, transparente Objekte).

Gast
2023-04-15, 18:25:43
Soweit ich weiss sind es heute 2D-Motion Vectors im Screenspace, welche die per Pixel Verschiebung zwischen zwei Frames encodieren. Pixel A verschiebt sich zwischen zwei Frames um N Pixel im XY-Koordinatensystem.

Die Motion-Vectors sind wesentlich genauer, ansonsten würde das gar nicht funktionieren.



Mittels 3D-Motion Vectors oder gar per-object Motion Vectors, wo so Sachen wie Occlusion / Disocclusion automatisch abgefangen werden könnten.


Bessere Motion-Vectors helfen dir da überhaupt nicht, eigentlich sollten diese für diese Fälle schon perfekt sein. Bei Disoclusion hast du eben nichts verwertbares im History-Buffer, egal wie gut deine Motionvectors sind, und musst einen weg drum herum finden trotzdem was vernünftiges anzuzeigen.


(z.B. bei alpha-blended Sachen, transparente Objekte).

Es gibt bei alphablending/transparenz keinen korrekten perfekten Motionvektor.
Wenn mehrere Objekte übereinander gleichzeitig sichtbar sind, wäre der korrekte Motionvektor für jedes dieser Objekte ein anderer. Es gibt aber pro Screenspaceposition nur 1 Motionvector. Aber selbst wenn man mehrere Vektoren hätte würde das nichts bringen, da man nach dem Blending nicht mehr unterscheiden kann, welcher Anteil zum Vorder- und welcher zum Hintergrundobjekt gehört.

Ex3cut3r
2023-04-15, 23:15:21
3.1.11 DLSS Q (Preset F) + Reshade CAS Sharpening vs TAA :freak:

https://abload.de/thumb/tlou-i_2023_04_15_22_z3cvs.jpg (https://abload.de/image.php?img=tlou-i_2023_04_15_22_z3cvs.jpg) https://abload.de/thumb/tlou-i_2023_04_15_22_ykidy.jpg (https://abload.de/image.php?img=tlou-i_2023_04_15_22_ykidy.jpg)

Mit FPS Anzeige (60 FPS Lock)

https://abload.de/thumb/tlou-i_2023_04_15_23_qmecx.jpg (https://abload.de/image.php?img=tlou-i_2023_04_15_23_qmecx.jpg) https://abload.de/thumb/tlou-i_2023_04_15_23_i3fzk.jpg (https://abload.de/image.php?img=tlou-i_2023_04_15_23_i3fzk.jpg)

Nativ !!11elf. Von wegen.

Lurtz
2023-04-16, 15:22:07
Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs FSR 2 vs Native (https://www.youtube.com/watch?v=O5B_dqi_Syc)

https://abload.de/img/untitledjufe9.jpg

Und das Ergebnis ist wie gehabt noch ohne getuntes DLSS.

Wenn man noch den Performancegewinn einbezieht ist DLSS Quality unter 1440p und erst recht 2160p einfach ein NoBrainer.

Lurtz
2023-04-16, 15:34:26
3.1.11 DLSS Q (Preset F) + Reshade CAS Sharpening vs TAA :freak:

https://abload.de/thumb/tlou-i_2023_04_15_22_z3cvs.jpg (https://abload.de/image.php?img=tlou-i_2023_04_15_22_z3cvs.jpg) https://abload.de/thumb/tlou-i_2023_04_15_22_ykidy.jpg (https://abload.de/image.php?img=tlou-i_2023_04_15_22_ykidy.jpg)

Mit FPS Anzeige (60 FPS Lock)

https://abload.de/thumb/tlou-i_2023_04_15_23_qmecx.jpg (https://abload.de/image.php?img=tlou-i_2023_04_15_23_qmecx.jpg) https://abload.de/thumb/tlou-i_2023_04_15_23_i3fzk.jpg (https://abload.de/image.php?img=tlou-i_2023_04_15_23_i3fzk.jpg)

Nativ !!11elf. Von wegen.
Warum sieht die Wasseroberfläche so unterschiedlich aus?

MadManniMan
2023-04-16, 15:46:43
Die "Entengrütze" verschwindet, wenn man durchläuft ... vielleicht taucht sie auch nach einer Weile wieder auf? Hatte ich nicht probiert.

Jedenfalls zu den BQ-Vergleichen oben HW-Unboxed: Ich hatte noch keine Zeit für das Video, aber warum ist DLSS-Q häufiger in WQHD besser als in 4K? Sollte das nicht mit steigender Auflösung besser werden?

Ex3cut3r
2023-04-16, 15:52:24
Scheint ein Spiel Bug zu sein, wenn man von DLSS auf Nativ und umgekehrt umschaltet. Mal ist die Wasser "Grütze" im nativen Bild, mal im DLSS Bild. KA, ändert aber auch nichts daran, dass das DLSS Bild die bessere Bildqualität bietet.

basix
2023-04-16, 16:06:52
Jedenfalls zu den BQ-Vergleichen oben HW-Unboxed: Ich hatte noch keine Zeit für das Video, aber warum ist DLSS-Q häufiger in WQHD besser als in 4K? Sollte das nicht mit steigender Auflösung besser werden?

Meine Erfahrung zeigt, dass die TAA und/oder Postprocessing-Qualität in 1440p extrem abfällt. In 4K nativ ist das TAA + Postprocessing meistens recht OK. Deswegen kann es schon sein, dass DLSS-Q vs. nativ in 1440p nichtmal so schlecht dasteht.

Was man allerdings garantiert sagen kann: DLSS-Q in 4K sieht besser aus als DLSS-Q in 1440p. Selbst DLSS-P in 4K wird eigentlich immer besser aussehen als 1440p mit DLSS-Q. Und DLSS-P in 1440p ist meistens unbrauchbar und merkbar schlechter als 1440p nativ wohingegen DLSS-P in 4K brauchbar ist. Da stimmt das mit der steigenden Auflösung also schon.

ChaosTM
2023-04-16, 16:12:36
Je höher die Basisauflösung, desto geringer der Verlust.
Verseht sich fast von selbst..

Ex3cut3r
2023-04-16, 16:16:09
Meine Erfahrung zeigt, dass die TAA und/oder Postprocessing-Qualität in 1440p extrem abfällt. In 4K nativ ist das TAA + Postprocessing meistens recht OK. Deswegen kann es schon sein, dass DLSS-Q vs. nativ in 1440p nichtmal so schlecht dasteht.

Was man allerdings garantiert sagen kann: DLSS-Q in 4K sieht besser aus als DLSS-Q in 1440p. Selbst DLSS-P in 4K wird eigentlich immer besser aussehen als 1440p mit DLSS-Q. Und DLSS-P in 1440p ist meistens unbrauchbar und merkbar schlechter als 1440p nativ wohingegen DLSS-P in 4K brauchbar ist. Da stimmt das mit der steigenden Auflösung also schon.

Da stimme ich dir sofort zu.

Allerdings lautet die Empfehlung (Ich weiß aber gar nicht, woher die kommt) Bei 1080p Q zu benutzen, bei 1440p Balanced, und bei 4K, Performance.

Das soll ok sein, wenn man DLSS wirklich wegen mangelhafter Performance benötigt.

Wenn ich aktuell eine 4090 hätte, wurde ich immer mit erzwungener DLAA Mod zocken. Anstatt dem ingame TAA. Nach 2 Jahren wurde ich dann runtergehen, wenn in neuen AAA Spielen, die FPS langsam weniger werden, auf DLSS Q nach weiteren 3 Jahren dann auf P + FG (bei 32" mit 4K, 144HZ) könnte die 4090 so wirklich sehr lange nutzen.

aufkrawall
2023-04-16, 16:25:21
Warum sieht die Wasseroberfläche so unterschiedlich aus?
SSR leiden ähnlich RT-Reflexionen oft stärker unter abgesenkter Render-Auflösung. Und dann war entweder vorgesehen, dass der TAA-Blur als Denoiser fungiert, oder ein Denoiser-Pass ist mit DLSS/FSR abgeschaltet (kommt auch in UE manchmal vor, warum auch immer). Kann die DL-Magie jedenfalls auch nicht ausgleichen.


Und das Ergebnis ist wie gehabt noch ohne getuntes DLSS.

Das "Tuning" ist aber meist auch nur ein "Un-Shittening". Ich würde so ziemlich kein Spiel mit Preset A spielen wollen, außer ggf. so etwas wie Diablo aus isometrischer Perspektive.