PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26

dildo4u
2022-09-20, 20:29:56
Frag mich warum die Spiderman zeigen das wird gar nicht aufgeführt.


https://www.globenewswire.com/news-release/2022/09/20/2519483/0/en/NVIDIA-Introduces-DLSS-3-With-Breakthrough-AI-Powered-Frame-Generation-for-up-to-4x-Performance.html

Dampf
2022-09-20, 20:30:55
Scheinbar haben Turing und Ampere den so hochgepriesenen Optical Flow Accelerator, der DLSS 3.0 auf Lovelace ermöglicht. :freak:

https://docs.nvidia.com/video-technologies/optical-flow-sdk/nvofa-application-note/

Troyan
2022-09-20, 20:33:59
Das sagt doch garnichts aus. Lovelace und Turing haben auch RT Cores, trotzdem sind die bei Lovelace 4x schneller...

Akkarin
2022-09-20, 20:42:44
Oh man, die disocclusion Artefakte sind teils echt übel.

DLSS 3 ist so verschieden zu DLSS 2 das es evt. sogar einen eigenen Thread verdient hat? @mods

Ex3cut3r
2022-09-20, 20:46:17
Smooth Video Project
https://www.svp-team.com/

nutzt für die Artefakt Maskierung Nvidia Flow (Ab Turing). Verstehe nicht, warum DLSS 3 jetzt angeblich nicht auf Ampere oder Turing laufen soll. Aber naja, FSR 3.0 bringt es dann vermutlich für alle. Wenn man natürlich scharf drauf ist. (Ich nicht)

Andron
2022-09-20, 20:57:46
Wieso gehen alle von einem größeren Inputlag aus?

NV ist nicht dumm. Die Latenz mit DLSS 3.0 wird ähnlich sein wie wenn du die Framerate ohne DLSS 3.0 hättest.

Wie soll das funktionieren? Eingaben wie Maus/Tastatur/Controller kann man noch rudimentär auf das fertig Bild Anwenden und es verschieben/verzerren, um diese zu simulieren (Siehe VR, wo Frame Interpolation schon seit Jahren verwendet wird). Das Ganze ist dann dennoch nur eine grobe Näherung und alle CPU/GPU seitigen Berechnungen fehlen im interpolierten Frame. Deren Latenz bleibt auf dem Level ohne Frameinterpolation.

Je höher die ausgangsframerate, desto geringer werden die auftretenden Nachteile sein. Um unspielbare Bildraten in spielbare zu beschleunigen, wie DLSS 2.X und Co. es tun, dürfte die Frameinterpolation relativ ungeeignet sein.

crux2005
2022-09-20, 21:01:46
Wie soll das funktionieren?

Wenn ich das Wüsste würde ich für NV arbeiten. :D

Scheinbar haben Turing und Ampere den so hochgepriesenen Optical Flow Accelerator, der DLSS 3.0 auf Lovelace ermöglicht. :freak:

https://docs.nvidia.com/video-technologies/optical-flow-sdk/nvofa-application-note/
Smooth Video Project
https://www.svp-team.com/

nutzt für die Artefakt Maskierung Nvidia Flow (Ab Turing). Verstehe nicht, warum DLSS 3 jetzt angeblich nicht auf Ampere oder Turing laufen soll. Aber naja, FSR 3.0 bringt es dann vermutlich für alle. Wenn man natürlich scharf drauf ist. (Ich nicht)

Bizarr.

Lurtz
2022-09-20, 21:04:49
Das sagt doch garnichts aus. Lovelace und Turing haben auch RT Cores, trotzdem sind die bei Lovelace 4x schneller...
Das heißt die kleinste Lovelace wird schnellere Tensor Core-Performance als die schnellste Ampere haben?

crux2005
2022-09-20, 21:18:28
In der Präsentation nannte NV es "2D SGM Optical Flow" bei Ada. Evtl. eine neuere Einheit?

https://abload.de/img/2dsgm_ofavia9.jpg

Gast
2022-09-21, 00:46:03
Das heißt die kleinste Lovelace wird schnellere Tensor Core-Performance als die schnellste Ampere haben?

Wenn sie hauptsächlich das FP8-Format nehmen wahrscheinlich ja.

Gast
2022-09-21, 08:15:48
Also DLSS3 ist ein echter Gamechanger, statt einer Generation an Mehrperformance bekommt man quasi noch eine weitere Generation obendrauf.

why_me
2022-09-21, 10:23:16
Scheinbar haben Turing und Ampere den so hochgepriesenen Optical Flow Accelerator, der DLSS 3.0 auf Lovelace ermöglicht. :freak:

https://docs.nvidia.com/video-technologies/optical-flow-sdk/nvofa-application-note/

Hätte Nvidia DLSS3 es bei Ampere aktiviert hätten sie aber nicht mit 2-4x einer 3090 werben können. Sondern nur mit 1,5-2x und 2x dann auch nur in RT.

Das interessante ist eigentlich, dass DLSS laut Diagram losgelöst von der Engine laufen soll, es also in jedem Spiel per Treiber laufen könnte (sofern das Diagram stimmt).
Nur halt die Frage, wass diese interpolierten Frames am Ende wert sind.
Inputlag bleibt gleich (zu DLSS2.0), neue artefakte kommen dazu, Input könnte sich schwammiger anfühlen, da die motion vektoren evtl falsch erraten wurden...
Mit all den Nachteilen sind lediglich die Balken in Benchmarks länger, ohne ersichtlichen Vorteil für den Spieler.

Was bringen mit 40 FPS, wenn der Input immer noch mit 20 abgearbeitet wird. Dadurch wird das Spiel auch nicht Spielbarer. Von 60 auf 120 ist zwar ganz Nett, aber der Input fühlt sich dann immer noch wie 60 an, ob das so toll ist?

E: Es verwendet auch die Motion vectoren des Spiels für das Framdoubling.

Gipsel
2022-09-21, 13:29:06
E: Es verwendet auch die Motion vectoren des Spiels für das Framdoubling.Nope. Laut nV's Beschreibung ist es eine Screenspace-Methode (kommt ohne Bewegungsvektoren des Spiels aus), die quasi als Postprocessing-Filter aus den echt gerenderten vergangenen Frames (wo die dann die Optical Flow Analyse drüberjagen) ein Zwischenbild für die Zukunft bastelt. Es gibt Null Input von der Spielenegine, lediglich die gerenderten Frames der Vergangenheit dienen als Input.

why_me
2022-09-21, 13:39:09
Steht hier aber nicht so:
https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/
For each pixel, the DLSS Frame Generation AI network decides how to use information from the game motion vectors, the optical flow field, and the sequential game frames to create intermediate frames. By using both engine motion vectors and optical flow to track motion, the DLSS Frame Generation network is able to accurately reconstruct both geometry and effects, as seen in the picture below.

Bin auch erst von der Grafik aus der Präsentation ausgegangen, aber Nvidia war da ja sowieso etwas kreativ bei den Zahlen gestern.

Also DLSS3 ist ein echter Gamechanger, statt einer Generation an Mehrperformance bekommt man quasi noch eine weitere Generation obendrauf.

Du bekommst nur doppelte FPS, input bleibt ja gleich. Hast du ein 30FPS spiel mit DLSS2, bleibt dein input bei 30FPS. Was sich bei DLSS3 ändert, in der Ecke oben stehen doppelt so hohe FPS zahlen. Wie gut das am Ende wirklich wird, oder ob es nur Beschiss ist um die Balken zu verdoppeln, bleibt abzuwarten.

robbitop
2022-09-21, 13:44:43
3-4x Leistung ist natürlich nett. Aber bessere Qualität wäre mir lieber. Wobei es da keine großen Sprünge mehr geben wird.

https://abload.de/img/dlss3juc8f.jpg
https://www.youtube.com/watch?v=qyGWFI1cuZQ
Qualität und Performance sind doch austauschbar, da es in's gleiche "Budget" läuft.

Nur als arbiträres Beispiel (und wir klammern mal die Inputlag Debatte aus): Wenn DLSS 3.0 die Performance bei gleicher Qualität erhöht, und du aber nicht mehr Performance sondern mehr Qualität willst, kannst du den Quality level performancenormiert hoch drehen.
Insofern liefert ein Verfahren was qualitätsnormiert mehr performance liefert auch mehr qualität in Bezug auf ISO Performance. ;)

Andron
2022-09-21, 13:57:43
Steht hier aber nicht so:
https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/

Ich denke, die Bewegungsvektoren des letzten gerenderten Frames werden dazu genommen, da für das interpolierte Bild ja gar keine Bewegsvektoren vorliegen können. Man interpoliert also die Bewegung der vergangenen Vektoren und vergleicht zusätzlich die Bewegung zwischen den letzten Frames, so wie es mit Optical Flow seit Jahren üblich ist. Letzteres gewährleistet dann eine bessere Genauigkeit bei Elementen, für die gar keine Bewegungsvektoren bereit stehen (siehe den RT-Schatten in Nvidias Beispiel).

Die Technik hinter DLSS 3.0 ist ja ein alter Hut, siehe VR, wo es seit Jahren eingesetzt wird, um konstante Frameraten zu gewährleisten. In Sachen Artefaktbildung wird und muss sich der Nvidia-Ansatz allerdings deutlich abheben, damit DLSS 3.0 eine wirkliche Alternative wird.

Mir kommt es wie ein Schnellschuss vor, um FSR 2.1 auszukontern, welches überraschend schnell kam und sehr nahe an DLSS 2.X rankommt. Für DLSS 3.0 hätte ich eher Dinge wie Variable Rate Shading, höher aufgelöste Bewegungsvektoren etc. erwartet, was neben der Performance ggf. auch die Qualität hätte steigern können bzw. Bildfehler reduzieren. Die Zugewinne dürften damit natürlich deutlich kleiner sein und der Aufwand größer, als beim jetzigen Ansatz.

Gast
2022-09-21, 14:59:04
Ich denke, die Bewegungsvektoren des letzten gerenderten Frames werden dazu genommen, da für das interpolierte Bild ja gar keine Bewegsvektoren vorliegen können.

Man kann durchaus für das interpolierte Bild angepasste Bewegungsvektoren verwenden.

Beispielsweise können Mausbewegungen, welche in First Person Spielen ja die Kamera rotieren dazu benutzt werden, die Bewegungsvektoren aus dem vorhergehenden Frame zu so zu verändern, dass sie für den interpolierten Frame passen.

VR Headsets machen ja ähnliches, wenn die Performance nicht ausreicht um die Refreshrate des Headsets zu erreichen.

Ex3cut3r
2022-09-21, 15:00:52
Wird DLSS 3 überhaupt mit VRR Techniken oder gar normales V-Sync funktionieren? Wenn VRR nicht geht, wäre das nix für mich. VRR ist so ziemlich das beste Feature der letzten Jahre. Egal ob im niedrigen FPS Bereich oder im hohen, das Bild ist mit einfach viel Flüssiger, das Tearing komplett wegfällt erstmal ausgeklammert.

Auch bitte wissen, ich werde keine 40er Karte kaufen! Ich bin endgültig Huang geheilt, und hier sprich jemand der bisher nur Nvidia Karten hatte. Außer einmal. Diese Firma braucht IHMO einen saftigen Denkzettel, dass man da oben mal wieder etwas runterkommt. Denn eine 4070 12GB (4080 12 Name offiziell) für 1200€ ist einfach nur, wie soll ich es ausdrücken? Wahnsinn!

Gast
2022-09-21, 15:42:19
Wird DLSS 3 überhaupt mit VRR Techniken oder gar normales V-Sync funktionieren? Wenn VRR nicht geht, wäre das nix für mich.


Klar, dem Grafikkartenausgang, egal ob DP oder HDMI ist es ja egal woher die Frames kommen die er ausgibt.

Das einzige "Problem" die FPS könnten zu hoch werden um innerhalb der VRR Range zu bleiben.


VRR ist so ziemlich das beste Feature der letzten Jahre. Egal ob im niedrigen FPS Bereich oder im hohen, das Bild ist mit einfach viel Flüssiger, das Tearing komplett wegfällt erstmal ausgeklammert.


Wenn dich Tearing nicht stört, und ehrlicherweise tut es das mit Monitoren mit hoher Refreshrate auch nicht, brauchst du auch kein VRR. VSYNC Off ist gleich flüssig.

Der einzige Sinn von VRR ist, dass man nun dieses "Flüssigkeitsgefühl" auch ohne Tearing haben kann.

Lurtz
2022-09-21, 15:52:32
Wird DLSS 3 überhaupt mit VRR Techniken oder gar normales V-Sync funktionieren? Wenn VRR nicht geht, wäre das nix für mich. VRR ist so ziemlich das beste Feature der letzten Jahre. Egal ob im niedrigen FPS Bereich oder im hohen, das Bild ist mit einfach viel Flüssiger, das Tearing komplett wegfällt erstmal ausgeklammert.

Wahrscheinlich funktioniert es nur mit G-Sync, nicht mit G-Sync compatible :ugly:

Auch bitte wissen, ich werde keine 40er Karte kaufen! Ich bin endgültig Huang geheilt, und hier sprich jemand der bisher nur Nvidia Karten hatte. Außer einmal. Diese Firma braucht IHMO einen saftigen Denkzettel, dass man da oben mal wieder etwas runterkommt. Denn eine 4070 12GB (4080 12 Name offiziell) für 1200€ ist einfach nur, wie soll ich es ausdrücken? Wahnsinn!
Wir erinnern dich daran wenn du dann eine 4080 hast...

Gipsel
2022-09-21, 16:01:51
Steht hier aber nicht so:
https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/

Bin auch erst von der Grafik aus der Präsentation ausgegangen, aber Nvidia war da ja sowieso etwas kreativ bei den Zahlen gestern.Die Beschreibung dort widerspricht tatsächlich etwas der Präsentation (und auch der gezeigten Grafik).
Der erste Schritt der Bearbeitung (Erzeugung der hochaufgelösten temporal rekonstruierten Frames) ist ja im Prinzip genau das, was man von DLSS 2.x schon kennt (mit Verwendung der Bewegungsvektoren aus dem Spiel). Als zusätzlicher (und optionaler!) Schritt kommt dann ja die "Optical Multi Frame Generation" (nV und die Abkürzungen, wollen die jetzt mit Musk konkurrieren? :lol:) dazu, die laut Präsi eigentlich genau ohne die nochmal explizit dazukommenden Bewegungsvektoren auskommen sollte (die stecken indirekt in den rekonstruierten "echten" Frames drin). Die würden dann zur Multi Frame Generation (der eigentlichen Extrapolation) also eigentlich nicht mehr direkt beitragen.
Aber die längere Beschreibung auf der Webseite behauptet das jetzt etwas anders, da hast Du recht. Die Webseiten-Variante ist vermutlich die bessere, weil man so die Artefakte eventuell besser in den Griff bekommen könnte.

aufkrawall
2022-09-21, 16:06:17
DLSS 3 ist ohne Bildrateninterpolation abwärtskompatibel und beinhaltet immer Reflex:
https://www.resetera.com/threads/nvidia-debuts-dlss-3-october-12th-release-35-games-will-get-support.634256/page-3#post-93607910

AMD und Intel sollten sich gegen Reflex wirklich mal etwas einfallen lassen. Wie FSR 2.x gezeigt hat, kann man das nicht den Spieleentwicklern überlassen.

Troyan
2022-09-21, 16:24:08
In Spider-Man sieht man den Vorteil: https://www.youtube.com/watch?v=zzbc_fODYso

Besserer Skalierung als mit DLSS 2.0. Je höher die Frames, umso besser schlägt sich die halbe CPU-Leistung durch.

why_me
2022-09-21, 16:39:59
Welche bessere Skalierung?
Was für eine halbe CPU-Leistung?
:facepalm:

Durch die Interpolation ist der Framecounter doppelt so groß, das wars. Da gibts keine bessere Skalierung oder halbe CPU-Leistung. Hör auf hier irgendwas schönreden zu wollen.

blaidd
2022-09-21, 16:41:46
Sitz grade in einer mehrstündigen Nvidia-Videokonferenz.

Bei DLSS 3.0 wird man offenbar auch die Framegeneration ("DLSS-G") abstellen können – das ist schon mal eine gute Info. Falls es da also zu unschönen Latenzen (bzw. merklichen Schwankungen) aufgrund der Generierung kommen sollte.. Irgendwelche wird es definitiv geben, die Frage ist nur, ob und wie merklich - sie nutzen quasi Reflex, um der CPU zu sagen, den aktuellen Frame sofort zur GPU zu senden, statt einen oder zwei vorzuhalten, wie sonst üblich.

Ganz cool finde ich die ganzen Optimierungen für RT, z.B. für Vegetation und um die Szene zu vereinfachen.

Allerdings setzen sie jetzt wirklich sehr stark auf RT, ihre proprietären Techniken und KI... das ist zweifellos cool und technisch sexy, aber meines Erachtens auch etwas gewagt. Das muss sich dann natürlich auch breit durchsetzen... aber Studios motivieren konnte Nvidia ja eigentlich schon immer ganz gut.

Jetzt darf ich mir wahrscheinlich noch einmal den "so bencht ihr richtig!"-Part anhören, für den uns Nvidia zuletzt (nach dem FSR-2.0-Launch) schon nach München antraben lassen hat (DLSS soll mitgebencht werden, und mit "ähnlicher Qualität" verglichen werden – beispielhaft damals: DLSS 2.0 Balanced vs FSR 1.0 Quality, weil letzteres auf gleicher Stufe ja schlechter aussieht als DLSS... da hat dann komischerweise Nvidia den Beispiel-Benchmark knapp gewonnen ;) )

Irgendwo ist das aber natürlich ein Punkt: Ab wann ist native Auflösung tot und KI-/Auflösungs"geschummel" die Norm? Und wie vergleicht man das adäquant, wenn jeder bzw. jede GPU was anderes macht?

Gipsel
2022-09-21, 16:52:04
Bei DLSS 3.0 wird man offenbar auch die Framegeneration ("DLSS-G") abstellen könnenOffizieller Name ist DLSS-OMFG. ;)

Troyan
2022-09-21, 17:00:28
Welche bessere Skalierung?
Was für eine halbe CPU-Leistung?
:facepalm:

Durch die Interpolation ist der Framecounter doppelt so groß, das wars. Da gibts keine bessere Skalierung oder halbe CPU-Leistung. Hör auf hier irgendwas schönreden zu wollen.

Die CPU berechnet nur die Hälfte - nämlich alle 10ms ein Frame. Dargestellt werden reale 5ms Frames. DLSS Performance skaliert viel schlechter bei hohen Frames.

Savay
2022-09-21, 17:01:29
Und wie vergleicht man das adäquant, wenn jeder bzw. jede GPU was anderes macht?

Und wie ist das für die Anwender überhaupt noch transparent?!

Wenn als Anwender nicht mehr nachvollziehbar ist welche Einstellung überhaupt welche absolute Qualität bedeutet kann man sich das alles langsam sowieso schenken.
Diese ganzen Begriffe (Quality, Balanced etc.) werden ja auch irgendwie für jedes Verfahren anders definiert.
Da Vergleicht man dann einfach irgendwas gegen irgendwas.

Eigentlich braucht es eine Art universelles "Auflösungs-" oder "Qualitätsäquivalent", das objektiv vergleichbare Einstellungen kennzeichnet.

Irgendwann muss man wahrscheinlich sowas wie Netflix' Video Multimethod Assessment Fusion (VMAF) mit einem fixen Zielscore drüber jagen um vorher erstmal vergleichbare Settings zu generieren. :freak:

https://netflixtechblog.com/toward-a-practical-perceptual-video-quality-metric-653f208b9652

Troyan
2022-09-21, 17:04:25
nVidia hat doch ein Tool rausgebracht, wo man Bildqualität in Bildern und Videos vergleichen kann.

Savay
2022-09-21, 17:13:07
Finde den Fehler.

Es braucht eine transparente Kennzeichnung oder einen Index oder was auch immer.
Kein externes nV Tool.

Es geht schlicht langsam jeglicher Überblick für den Anwender flöten mit diesen Verfahren...und klar ist das der feuchte Marketingtraum der Hersteller, dass sie die alleinige Deutungshoheit darüber haben.

aufkrawall
2022-09-21, 17:18:11
Ich halte das nicht für objektivierbar. Geübtes Auge + Erklärtext. Man muss sich auch nicht an Kleinigkeiten aufhängen. Je nach Content finde ich etwa mal FSR 2 besser, mal DLSS; zumindest mit Q. Mit Performance-Option ist DLSS dann etwa zunehmend überlegen. Gilt btw. auch leider noch für 4k Zielauflösung.

Savay
2022-09-21, 17:22:56
Wenn man es aus Qualitätssicht schon nicht objektivieren kann wäre es zumindest transparent im ersten und einfachsten Schritt immer auch die absolute Inputauflösung anzugeben.
Da hat man wenigstens einen sehr groben Anhaltspunkt.
Was ich aber wirklich maximal schlecht finde ist teilweise je nach verfahren unterschiedliche relative Faktoren hintern blumigen Begriffen wie "Quality", "Balance", "Performance" und "Mystical" zu verstecken. ;)

Aber das ist ja offensichtlich auch der Sinn dahinter.

why_me
2022-09-21, 17:24:50
Die CPU berechnet nur die Hälfte - nämlich alle 10ms ein Frame. Dargestellt werden reale 5ms Frames. DLSS Performance skaliert viel schlechter bei hohen Frames.

Der DLSS Teil also das supersampling skaliert bei beiden gleich. z.B. 50 nativ->100 FPS.
Jetzt kommt beim einen noch die Frameinterpolation dazu und verdoppelt die FPS 100->200FPS.

Die CPU ist bei beiden gleich ausgelastet. Der DLSS Teil skaliert gleich.
Es kommen nur die interpolierten Frames bei DLSS3.0 dazu.
Ob das jetzt "reale" Frames und nicht eher interpolierte oder erlogene Frames sind, darüber lässt sich sicher streiten.

Troyan
2022-09-21, 17:40:12
Spider-Man mit DLSS Performance und Raytracing: https://www.computerbase.de/2022-08/spider-man-remastered-pc-benchmark-test/3/#abschnitt_nvidia_dlss_und_amd_fsr_20_und_igti_in_der_analyse

91 FPS auf einer 3080. DLSS P kostet auf einer 3080 ca. 1,5ms+ um von 1080p -> 2160p hochzuskalieren. Da das Spiel bei 110 FPS CPU-limitiert war, sinkt die Framerate deutlich. Bei DLSS 3 geht es in die entgegengesetzte Richtung, da nun ein zusätzliches Bild zwischen Frame 1 und 3 erzeugt wird. Also statt 11ms zu warten, sind es nur noch 5,5ms. Trotz CPU-Limit erhält man deutlich mehr Frames.

aufkrawall
2022-09-21, 17:42:06
Ich verstehe die Diskussion nicht. Es macht aus einem Frame zwei. Fertig.
:confused:

why_me
2022-09-21, 17:57:53
Trotz CPU-Limit erhält man deutlich mehr Frames.

Und wie ist dabei die Schwuppdizität?
Wenn dadurch das inputlag erhöhrt wird, die steuerung schwammig wird, dann bringen die doppelten FPS überhaupt nix, außer längere Balken.

aufkrawall
2022-09-21, 17:59:47
Und wie ist dabei die Schwuppdizität?
Wenn dadurch das inputlag erhöhrt wird, die steuerung schwammig wird, dann bringen die doppelten FPS überhaupt nix, außer längere Balken.
Im CPU-Limit ist der Input Lag geringer als im GPU-Limit, das gleicht sich also eher an. Und fürs GPU-Limit gibt es Reflex.
Man muss mal verstehen, dass ohne Reflex oder in-game fps-Limiter der Input Lag sowieso immer unnötig massiv erhöht ist.

The_Invisible
2022-09-21, 18:07:57
Weiß net ob das schon hier war zwecks DLSS3: https://www.reddit.com/r/nvidia/comments/xjo42x/for_those_complaining_about_dlss3_exclusivity/

BlacKi
2022-09-21, 18:17:25
Weiß net ob das schon hier war zwecks DLSS3: https://www.reddit.com/r/nvidia/comments/xjo42x/for_those_complaining_about_dlss3_exclusivity/


damit gibt es dlss 3 für alle karten ab turing, wenn man sowie so nicht diese framegeneration nutzen will?


ich denke, das wird viele erhitze gemüter beruhigen, und wie dort schon erwähnt, auch der verbreitung von dlss helfen.

aufkrawall
2022-09-21, 18:21:33
Eine Seite vorher...

unl34shed
2022-09-21, 18:37:24
Ist das nicht dann DLSS2.x, wenn man DLSS3 ohne Framedoubling nutzt? :confused:

aufkrawall
2022-09-21, 18:39:10
Ob das temporale Upsampling von DLSS 3 bessere Ergebnisse als das von 2 erzielt, wissen wir noch nicht.

crux2005
2022-09-21, 18:40:36
Qualität und Performance sind doch austauschbar, da es in's gleiche "Budget" läuft.

Nur als arbiträres Beispiel (und wir klammern mal die Inputlag Debatte aus): Wenn DLSS 3.0 die Performance bei gleicher Qualität erhöht, und du aber nicht mehr Performance sondern mehr Qualität willst, kannst du den Quality level performancenormiert hoch drehen.
Insofern liefert ein Verfahren was qualitätsnormiert mehr performance liefert auch mehr qualität in Bezug auf ISO Performance. ;)

Ich verstehe dich. Aber jein. DLSS 3.0 kann andere Artefakte erzeugen als DLSS 2.x und oder braucht anderen Basisauflösung damit es die gleichen Ergebnisse liefert wie DLSS 2.x. Dann ist auch die Leistung gleich futsch.

Fusion_Power
2022-09-21, 18:42:04
Was wohl die "kleinste" Karte werden wird, die das neue DLSS unterstützt? Sowas wie eine "RTX 4050"? Ich frag mal ehr aus Budget-Gründen, das beinhaltet dann natürlich auch den Stromverbrauch. ^^"

aufkrawall
2022-09-21, 18:43:23
Was wohl die "kleinste" Karte werden wird, die das neue DLSS unterstützt?
Die kleinste neue Karte.

crux2005
2022-09-21, 18:47:14
ich denke, das wird viele erhitze gemüter beruhigen, und wie dort schon erwähnt, auch der verbreitung von dlss helfen.

Das es ein Fallback für DLSS 2.x und Turing/Ampere geben wird habe ich mir schon gestern gedacht. Und arbeite nicht mal in der Branche. :freak:

The_Invisible
2022-09-21, 18:50:44
damit gibt es dlss 3 für alle karten ab turing, wenn man sowie so nicht diese framegeneration nutzen will?


ich denke, das wird viele erhitze gemüter beruhigen, und wie dort schon erwähnt, auch der verbreitung von dlss helfen.

Upscaling soll noch immer weiterentwickelt werden da es ein Teil von DLSS3 ist und somit alle RTX Karten profitieren, zudem kommt noch Reflex dazu.

Bin ja gespannt ob es dann wieder Hacks gibt die die neuen Features auch auf ältere RTX Karten aktivieren.

why_me
2022-09-21, 18:58:58
Was wohl die "kleinste" Karte werden wird, die das neue DLSS unterstützt? Sowas wie eine "RTX 4050"? Ich frag mal ehr aus Budget-Gründen, das beinhaltet dann natürlich auch den Stromverbrauch. ^^"

Will man das überhaupt auf einer kleinen Karte nutzen? Es werden die Frames verdoppelt, die Engine läuft dadurch aber nicht schneller.

Man wird eine gewisse mindest FPS brauchen, damit die eingaben sich nicht komisch anfühlen und ab einer gewissen FPS Zahl hat man von der Verdopplung auch nichts mehr (außer längere Balken), weil das Display sie nicht mehr anzeigen kann, bzw. die Frames nicht mehr übertragen werden können.
Es bleibt mMn. am Ende ein gewisses FPS Band in dem sich DLSS3.0 vielleicht Sinn machen wird. Irgendwie komisch.

crux2005
2022-09-21, 19:02:21
Will man das überhaupt auf einer kleinen Karte nutzen? Es werden die Frames verdoppelt, die Engine läuft dadurch aber nicht schneller.

Man wird eine gewisse mindest FPS brauchen, damit die eingaben sich nicht komisch anfühlen und ab einer gewissen FPS Zahl hat man von der Verdopplung auch nichts mehr (außer längere Balken), weil das Display sie nicht mehr anzeigen kann, bzw. die Frames nicht mehr übertragen werden können.
Es bleibt mMn. am Ende ein gewisses FPS Band in dem sich DLSS3.0 vielleicht Sinn machen wird. Irgendwie komisch.

Vielleicht wird der Inputlag nicht besser aber der Lag des Monitors kann dadurch verbessert werden. z.B. wenn du einen theoretischen 4K 240Hz Monitor hast kannst du mit DLSS 3.0 eher die "vollen" 240 Hz benutzen. Ob VRR oder fixed refresh sei dahingestellt. Vielleicht will NV damit die eigenen HRR G-sync Modelle pushen. Ich höre schon das Marketing rufen, die beste Erfahrung mit DLSS 3.0 und Reflex habt ihr nur mit unseren HRR G-sync Monitoren. :biggrin:

BlacKi
2022-09-21, 19:03:04
Bin ja gespannt ob es dann wieder Hacks gibt die die neuen Features auch auf ältere RTX Karten aktivieren.

warscheinlich so hilfreich wie RT für pascal war. es ist aus performance gründen nicht aktivierbar, und NV will dlss3 vor schlechter reputation schützen. es fehlt ja nur die frame generation für dlss3. das ist eigentlich halb so wild. bin mir nichtmal sicher ob ich es selbst nutzen werde. wenn ich statt quality auf performance setze um dieselben fps zu bekommen, aber keinen zusätzlichen input habe, ist das eine option imho nicht viel schlechter ist. wenn man auf ada unterwegs ist, hat man die wahl, wenn nicht, geht immernoch eine dlss stufe runter, was für die meisten spiele sicher kein problem ist.

why_me
2022-09-21, 19:07:54
... wenn du einen theoretischen 4K 240Hz Monitor ...

Geht das überhaupt mit DP1.4?

crux2005
2022-09-21, 19:10:33
Geht das überhaupt mit DP1.4?

Richtig. Ada hat kein DP 2.0. Dann eben 1440p oder Ultrawide + 240 Hz.

Wobei 4K 120 Hz auch schon ein Problem war, falls du in modernen Spielen max. settings + RT benutzen wolltest.

Troyan
2022-09-21, 19:18:27
Will man das überhaupt auf einer kleinen Karte nutzen? Es werden die Frames verdoppelt, die Engine läuft dadurch aber nicht schneller.

Man wird eine gewisse mindest FPS brauchen, damit die eingaben sich nicht komisch anfühlen und ab einer gewissen FPS Zahl hat man von der Verdopplung auch nichts mehr (außer längere Balken), weil das Display sie nicht mehr anzeigen kann, bzw. die Frames nicht mehr übertragen werden können.
Es bleibt mMn. am Ende ein gewisses FPS Band in dem sich DLSS3.0 vielleicht Sinn machen wird. Irgendwie komisch.

Die Latenz ist mit Reflex niedriger. DLSS 3 erhöht nicht die Latenz gegenüber DLSS 2.0 mit Reflex. Im Cyberpunk Video sieht man, dass die Latenz bei ca. 60ms bleibt: https://www.youtube.com/watch?v=eGHjP9zq53w&t=4s

Mit DLSS 3 hat man also ca. 50% mehr Frames und eine gegenüber DLSS eine 10% fehlende bessere Latenz.

Offensichtlich ist dieser Tradeoff ziemlich gut.

The_Invisible
2022-09-21, 19:20:49
Richtig. Ada hat kein DP 2.0. Dann eben 1440p oder Ultrawide + 240 Hz.

Wobei 4K 120 Hz auch schon ein Problem war, falls du in modernen Spielen max. settings + RT benutzen wolltest.

Mit DSC sind über DP1.4 4k mit 240Hz + HDR(10bit) möglich (unten Limits including compression and chroma subsampling aufklappen): https://en.wikipedia.org/wiki/DisplayPort#Refresh_frequency_limits_for_HDR_video

BlacKi
2022-09-21, 19:27:44
@trojan
aber wenn du dieselben fps hast, dann sieht es so aus, als hätte man grob 33% höhere latenz mit frame generation on.

Linmoum
2022-09-21, 19:28:16
https://forums.anandtech.com/attachments/1663775168564-png.67898/
https://forums.anandtech.com/attachments/1663775224086-png.67899/

Wenn sowas schon als einer der Showcases bei der Vorstellung herhalten muss...

why_me
2022-09-21, 19:31:27
Mit DSC sind über DP1.4 4k mit 240Hz + HDR(10bit) möglich (unten Limits including compression and chroma subsampling aufklappen): https://en.wikipedia.org/wiki/DisplayPort#Refresh_frequency_limits_for_HDR_video

Ah ausklappen, das hatte ich vorhin nicht gesehen. Danke.

@Troyan: Ich seh da nur FPS und eine ms angabe, was die aussagen soll, keine Ahnung, dazu finde ich im Video und der Beschreibung nichts.

robbitop
2022-09-21, 19:38:37
Ich verstehe dich. Aber jein. DLSS 3.0 kann andere Artefakte erzeugen als DLSS 2.x und oder braucht anderen Basisauflösung damit es die gleichen Ergebnisse liefert wie DLSS 2.x. Dann ist auch die Leistung gleich futsch.
Muss man natürlich erstmal abwarten ja.


—————
Was die Frame Generation angeht: ich finde man vergleicht Äpfel mit Birnen. Man vergleicht die Inputlatenz ohne Reflex mit niedriger Framerate mit der Inputlatenz der verdoppelten Framerate mit Reflex.
Also sagen wir mal 30 fps ohne reflex und ohne dlss vs 60 fps mit reflex und dlss3.0 (also verdoppelt).

Äpfel vs Äpfel wäre für mich echte 60 fps mit reflex vs durch dlss 3.0 verdoppelte 30 fps@60fps mit reflex.

Wenn die Grundframerate niedrig ist (also zB 25 oder 30 fps) wird es verdoppelt nicht wie echte 60 fps anfühlen.

Man nutzt reflex um den Nachteil zu reduzieren. Aber man sollte besser eine gewisse Geundframerate haben (ich schätze 50-60 fps plus wenn man mit Maus spielen willst).

iamthebear
2022-09-21, 19:58:08
Einmal grundsätzliche Frage: Müssen Spiele DLSS 3.0 aktiv unterstützen oder schafft das Nvidia auch rein treiberseitig?

Freestaler
2022-09-21, 20:01:43
@Robbitop, sehe ich gleich. Mich nimmt voallem der Frameverlauf dann wunder. 60 nativ sind was anderes als dlss3 60.. ;-)

@iamthebear, gib nen Liste welche Games Dlss3 supporten werden, muss also wohl integriert werden.

aufkrawall
2022-09-21, 20:01:48
Es muss natürlich weiterhin durch die Anwendung unterstützt werden. Evtl. gibts aber null Zusatzaufwand gegenüber DLSS 2.

blaidd
2022-09-21, 20:08:57
Sitz grade in einer mehrstündigen Nvidia-Videokonferenz.

Jetzt darf ich mir wahrscheinlich noch einmal den "so bencht ihr richtig!"-Part anhören, [...]

Fünf fucking Stunden später^^


Here we go: "What even is performance?" ;)
(darf keine Folien bzw. Inhalte zeigen – aber beschreiben darf ich)

(Laut Nvidia: Smoothness, Responsiveness, Image Quality ("how close can we get to the artists intent" – also nicht: 100 % akkurat. Das ist der Knackpunkt :cool:)

Braucht jemand Echtzeit-Fps-Daten aus Cyberpunk (Pre-Release-Version mit DLSS 3.0 - "take with a grain of salt")?
Seth Schneider zeigt uns gerade, wie man mit (dem Nvidia-Tool) Frameview Benchmarks macht..


RTX 4090:
1440p maxed mit Psycho-Raytracing (nicht die neue Max-Stufe!): 59,9/49,3 Fps (nativ) - da hab ihr einen potenziellen Vergleichswert :)
1440p maxed mit DLSS 3.0 Quality: 170,7/91 Fps (P1-Werte schwanken da allerdings stark!)

Leistungsaufnahme GPU:
DLSS off: 461,4 Watt
DLSS on: 348,95 Watt


Das könnte zumindest eine relativ nützliche Info sein.

Tangletingle
2022-09-21, 20:10:01
https://forums.anandtech.com/attachments/1663775168564-png.67898/
https://forums.anandtech.com/attachments/1663775224086-png.67899/

Wenn sowas schon als einer der Showcases bei der Vorstellung herhalten muss...
Sind leider nur mit Login bei Anand sichtbar.

Troyan
2022-09-21, 20:16:44
https://forums.anandtech.com/attachments/1663775168564-png.67898/
https://forums.anandtech.com/attachments/1663775224086-png.67899/

Wenn sowas schon als einer der Showcases bei der Vorstellung herhalten muss...

Achja, hier in Bewegung in 4K: https://www.youtube.com/watch?v=zzbc_fODYso

Aber ich kann natürlich per Frame mir das ansehen. Nur, wie würde man die Qualität von FSR 2.1 beschreiben? ;D

aufkrawall
2022-09-21, 20:19:28
In Bewegung matscht der Video-Codec das für die Wahrnehmung noch stärker weg. In PNG-Screenshots würde es noch viel beschissener aussehen.
Und über die Probleme von FSR 2 sollte man sich bei den ganzen DLSS-Fails besser nicht zu sehr auslassen...

crux2005
2022-09-21, 20:26:55
RTX 4090:
1440p maxed mit Psycho-Raytracing (nicht die neue Max-Stufe!): 59,9/49,3 Fps (nativ) - da hab ihr einen potenziellen Vergleichswert :)
1440p maxed mit DLSS 3.0 Quality: 170,7/91 Fps (P1-Werte schwanken da allerdings stark!)

Leistungsaufnahme GPU:
DLSS off: 461,4 Watt
DLSS on: 348,95 Watt

Das könnte zumindest eine relativ nützliche Info sein.

Max., Avg. oder was sind das für FPS Werte. Eine 2k€ GraKa schafft in einem 2 Jahre alten Spiel endlich avg. 50 FPS in 1440p? :freak:

Der Verbrauch ist auch nicht ohne. Wobei DLSS wirklich gut W einspart.

BlacKi
2022-09-21, 20:33:12
Der Verbrauch ist auch nicht ohne. Wobei DLSS wirklich gut W einspart.


vermutlich cpu limit.

aufkrawall
2022-09-21, 20:37:26
Erklärt auch die schwankenden 1% low.

blaidd
2022-09-21, 20:37:57
Max.,h Avg. oder was sind das für FPS Werte. Eine 2k€ GraKa schafft in einem 2 Jahre alten Spiel endlich avg. 50 FPS in 1440p? :freak:

Der Verbrauch ist auch nicht ohne. Wobei DLSS wirklich gut W einspart.

Durchschnitt und P1-Perzentil ("P1%").
Und wie von Nvidia angemerkt: "Noch nicht finale Version". Die schwankenden Perzentile bekommen sie bestimmt noch verbessert, da reiten sie ja unter anderem gerade drauf rum ("smoothness"). Eventuell könnten das aber die von DLSS 3.0 eingeschobenen Frames sein, wenn die (messbar) unterschiedliche Berechnungszeiten zu den "echten" haben, schwanken tendenziell die Perzentile...

CPU war btw. ein 12900KS

(Arrggg... jetzt kommt wieder der Vergleich zwischen den Grafikkarten und "vergleichbarer Bildqualität", die man als Tester anwenden soll, wenn es nach Nvidia geht. Samt Vor- und Nachher-Vergleich – vorher gewinnt "GPU B" mit "Scaling Technology B", nachher auf gar wundersame Weise "GPU A" mit "Scaling Technology A" – dreimal dürft ihr raten, wer da wer ist... Der Part ist echt ein bisschen frech.^^)

EDIT: Szene war hier in der Gegend, nachts (Bild aus dem Netz, nicht dem Stream geklaut).
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80616&stc=1&d=1663786389

Ex3cut3r
2022-09-21, 20:44:31
vermutlich cpu limit.

CPU Limit bei 460W GPU Verbrauch? Wohl kaum.

59 FPS wäre ein schwaches Ergebnis. Komme mit einer 3080 Ti, in selben Einstellungen, 1440p Nativ, RTX Psycho auf 42 FPS.

https://abload.de/thumb/cyberpunk2077_2022_09oje0m.png (https://abload.de/image.php?img=cyberpunk2077_2022_09oje0m.png)

aufkrawall
2022-09-21, 20:46:50
Nur +50%, trotz DLSS 2 und verschwenderischem RT? Das wär ja wirklich mega kacke. :freak:

Ex3cut3r
2022-09-21, 20:48:10
Das ist ohne DLSS, natives 1440p wie bei Blaire.

Ja, das wäre tatsächlich erschreckend. Entweder Treiber noch Beta Beta, oder irgendwas stimmt nicht. :confused:

The_Invisible
2022-09-21, 21:00:22
CPU Limit bei 460W GPU Verbrauch? Wohl kaum.

59 FPS wäre ein schwaches Ergebnis. Komme mit einer 3080 Ti, in selben Einstellungen, 1440p Nativ, RTX Psycho auf 42 FPS.

https://abload.de/thumb/cyberpunk2077_2022_09oje0m.png (https://abload.de/image.php?img=cyberpunk2077_2022_09oje0m.png)

Kannst vielleicht die Szene von blaidd noch testen von seinem Screenshot?

Irgendwie sind meine Saves alle weg, kann mich aber auch erinnern sonst so immer bei 40fps herumgegurkt zu haben...

crux2005
2022-09-21, 21:01:10
CPU Limit bei 460W GPU Verbrauch? Wohl kaum.

Er meint wohl die 170 FPS und 348W Verbrauch.

Nur +50%, trotz DLSS 2 und verschwenderischem RT? Das wär ja wirklich mega kacke. :freak:

Keine 50% (3080 Ti vs 4090), aber ohne DLSS und ja, mit psycho RT.
Sehr schwach. Die Ada ist noch mehr GCN als Ampere.

Das ist ohne DLSS, natives 1440p wie bei Blaire.

Ja, das wäre tatsächlich erschreckend. Entweder Treiber noch Beta Beta, oder irgendwas stimmt nicht. :confused:

:D

blaidd

BlacKi
2022-09-21, 21:04:59
die grain of salt stückchen sind zu grob. eine ausgemaxte 3090ti hat schon 48-67fps.

sicher dass das nicht 4k war? dann würden die 2x wenigstens in cyberpunk passen.

blaidd
2022-09-21, 21:05:08
Da lieft auch noch Übertragungs-Software im Hintergrund...

Eventuell hat das merklich Leistung abgezwackt - aber dann scheinen mir die DLSS-Ergebnisse eigentlich etwas hoch... aber maybe, mit DLSS 3, gebeutelter CPU durch Recording und Streaming...

Wir werden es wohl bald genug wissen. EDIT: Nvidia zeichnet das außerdem auf. In spätestens 1-2 Tagen kann ich das nochmal genau checken.

EDIT2: War grade Q&A-Runde, hab noch mal nachgefragt: Ultra-Detailstufe plus Psycho-RT, 1440p. Aber "there was a bunch of stuff running in the background". Also ja, scheint ein wenig niedrig, merkt wohl auch Seth ;)

crux2005
2022-09-21, 21:06:25
Das Treiber Team wird aktuell im Overdrive Mode sein. Genau wie die Take Two Anwälte. :biggrin:

Sardaukar.nsn
2022-09-21, 21:07:08
Richtig. Ada hat kein DP 2.0. Dann eben 1440p oder Ultrawide + 240 Hz.

Wobei 4K 120 Hz auch schon ein Problem war, falls du in modernen Spielen max. settings + RT benutzen wolltest.

Mit Ampere 3080 und HDMI 2.1 habe ich keine Probleme. 4k OLED, 120fps, VRR/G-Sync inkl. HDR. Ich bin mir sicher das wird die nächsten paar Jahre erstmal der Stand der Dinge sein. https://i.imgur.com/EoO7WdH.jpg

Ex3cut3r
2022-09-21, 21:09:03
GA102 vs AD102 "nur" + 40/+50% in CP77 ohne DLSS (3.0)
Das wäre nicht nur enttäuschend, das wäre eine Katastrophe.

Kannst vielleicht die Szene von blaidd noch testen von seinem Screenshot?

Irgendwie sind meine Saves alle weg, kann mich aber auch erinnern sonst so immer bei 40fps herumgegurkt zu haben...

Ja, sry Bild nicht gesehen. Sonst hätte ich das gleich gemacht.

Ich hols jetzt nach, zumindest versuche ich es.

EDIT:

So habe es hinbekommen. ;D

Da sind es "nur" 31 FPS. Das wären dann 90%+ für die RTX 4090 wenn Blaire mit 59 FPS genau die Stelle meinte.
Das hört sich schon viel besser an. ;)

Aber, x4 wie von Huang angekündigt in RT ist es nicht. ^^

https://abload.de/thumb/cyberpunk2077_2022_09n3fyc.png (https://abload.de/image.php?img=cyberpunk2077_2022_09n3fyc.png)

crux2005
2022-09-21, 21:23:47
EDIT:

So habe es hinbekommen. ;D

Da sind es "nur" 31 FPS. Das wären dann 90%+ für die RTX 4090 wenn Blaire mit 59 FPS genau die Stelle meinte.
Das hört sich schon viel besser an. ;)

Aber, x4 wie von Huang gemeint in RT ist es nicht. ^^

https://abload.de/thumb/cyberpunk2077_2022_09n3fyc.png (https://abload.de/image.php?img=cyberpunk2077_2022_09n3fyc.png)

Danke für die Mühe. :up:

Bei der ~Verdoppelung der Leistung wäre die Karte interessant. Für ~1400€ mit MwSt.

dargo
2022-09-21, 21:25:11
Aber, x4 wie von Huang gemeint in RT ist es nicht. ^^

Der Lederjacken-RT-Mode ist noch gar nicht in CP77 drin der deinen Ampere komplett in die Knie zwingen wird. ;)

btw.
Aber das ist wieder so typisch Nvidia. Die bringen CDPR dazu wieder so ein Bullshit RT-Setting in das Spiel zu integrieren nur um die Konkurrenz auszustechen anstatt, dass mal CDPR die Basics in den Griff bekommt wie zb. das völllig katastrophale LOD welches sofort ins Auge sticht. :uclap: Wo ist eigentlich unser Trojaner wenn es um gekaufte DEVs geht? ;)

crux2005
2022-09-21, 21:33:21
Der Lederjacken-RT-Mode ist noch gar nicht in CP77 drin der deinen Ampere komplett in die Knie zwingen wird. ;)

btw.
Aber das ist wieder so typisch Nvidia. Die bringen CDPR dazu wieder so ein Bullshit RT-Setting in das Spiel zu integrieren nur um die Konkurrenz auszustechen anstatt, dass mal CDPR die Basics in den Griff bekommt wie zb. das völllig katastrophale LOD welches sofort ins Auge sticht. :uclap: Wo ist eigentlich unser Trojaner wenn es um gekaufte DEVs geht? ;)

Ja, eigentlich traurig. Wenn es keine neuen Spiele gibt werden neuen Einstellungen gebracht.
Witcher 3 NG macht mir in dem Zusammenhang mehr Sorgen. Kann mir vorstellen das sie darin RT bis zum geht nicht mehr pushen damit Ada gut aussieht.

Troyan
2022-09-21, 21:33:35
blaidd,
gibt es überhaupt ein NDA von den Zeug heute? Bei Techpowerup kann man sich schonmal die Founders Edition ansehen...

Der Lederjacken-RT-Mode ist noch gar nicht in CP77 drin der deinen Ampere komplett in die Knie zwingen wird. ;)

btw.
Aber das ist wieder so typisch Nvidia. Die bringen CDPR dazu wieder so ein Bullshit RT-Setting in das Spiel zu integrieren nur um die Konkurrenz auszustechen anstatt, dass mal CDPR die Basics in den Griff bekommt wie zb. das völllig katastrophale LOD welches sofort ins Auge sticht. :uclap: Wo ist eigentlich unser Trojaner wenn es um gekaufte DEVs geht? ;)

Jaja, blabla. Die Konkurrenz muss doch nur bessere GPUs bauen. Aber gut, das ist schwer. Dann liebers PS4 Emulatoren für grottige Grafik. ;D

Ex3cut3r
2022-09-21, 21:37:06
Der Lederjacken-RT-Mode ist noch gar nicht in CP77 drin der deinen Ampere komplett in die Knie zwingen wird. ;)


Ist mir stand jetzt egal. Blaire hat auch "nur" Psycho genutzt, meiner Meinung nach zeigt das eher wie wichtig es ist, Regler zu bedienen.

Mit RT Medium, Reflections, und nur die Lokalen RT Schatten ON. Mit DLSS Q + CAS komme in der selben Stelle auf 64 FPS. Bei der gleichen Bild Qualität. Ich sehe einfach keinen Unterschied zwischen Medium RT und Psycho RT. So ein Blödsinn, wer mit Psycho oder noch höher spielt.

dargo
2022-09-21, 21:39:51
Jaja, blabla. Die Konkurrenz muss doch nur bessere GPUs bauen.
Macht sie schon bei der alten Gen, nur nicht für Lederjacken-Bullshit-Settings.

aufkrawall
2022-09-21, 21:40:59
So schlecht, dass man das RT von RDNA2 schönreden kann, ist Ada auch nicht. ;D

Tangletingle
2022-09-21, 21:41:26
Blair!=blaidd

crux2005
2022-09-21, 21:42:41
GA102 vs AD102 "nur" + 40/+50% in CP77 ohne DLSS (3.0)
Das wäre nicht nur enttäuschend, das wäre eine Katastrophe.



Ja, sry Bild nicht gesehen. Sonst hätte ich das gleich gemacht.

Ich hols jetzt nach, zumindest versuche ich es.

EDIT:

So habe es hinbekommen. ;D

Da sind es "nur" 31 FPS. Das wären dann 90%+ für die RTX 4090 wenn Blaire mit 59 FPS genau die Stelle meinte.
Das hört sich schon viel besser an. ;)

Aber, x4 wie von Huang angekündigt in RT ist es nicht. ^^

https://abload.de/thumb/cyberpunk2077_2022_09n3fyc.png (https://abload.de/image.php?img=cyberpunk2077_2022_09n3fyc.png)

Deine Karte hat so ~39 TFLOPS (10240 x 2 x 1,905 GHz), die 4090 hat 83 TFLOPs (eigentlich mehr dankt Boost und mehr TGP).
Also mindestens 2,13x mehr Shaderleistung. Bringt in CP77 (dem Shaderlastigem Spiel) mit RT auf 1,93x mehr Leistung.

Ada wäre also mindestens 20% weniger effektiv als Ampere!

dargo
2022-09-21, 21:43:17
Ist mir stand jetzt egal. Blaire hat auch "nur" Psycho genutzt...
Darum gings mir nicht. Es geht darum, dass Nvidia verzweifelt nach DEVs sucht die völlig bescheuerte RT-Settings in ihre Spiele einbauen damit Ada wenigstens bei Einzelfällen überproportional glänzt. Das ist der Witz an der ganzen Geschichte. Und einen Idioten @CDPR scheinen die bereits gefunden zu haben.

aufkrawall
2022-09-21, 21:44:48
Mehr RT für dynamische Lichtquellen ist erstmal nur logisch, wenn die Hardware nicht so kacke wie bei RDNA2 ist. Nur leider wird man wohl auch anderweitig übers Ziel hinausschießen.

blaidd
2022-09-21, 21:45:04
Der Lederjacken-RT-Mode ist noch gar nicht in CP77 drin der deinen Ampere komplett in die Knie zwingen wird. ;)

btw.
Aber das ist wieder so typisch Nvidia. Die bringen CDPR dazu wieder so ein Bullshit RT-Setting in das Spiel zu integrieren nur um die Konkurrenz auszustechen anstatt, dass mal CDPR die Basics in den Griff bekommt wie zb. das völllig katastrophale LOD welches sofort ins Auge sticht. :uclap: Wo ist eigentlich unser Trojaner wenn es um gekaufte DEVs geht? ;)

Ich geb dir schon irgendwie recht, das ist schon ein bisschen typisch Nvidia, aber hier kann ich ja vielleicht mal ein bisschen differenzieren (bzw. sollte man dem Versprochenen Glauben schenken, worauf ich immerhin einigermaßen gespannt bin, es auf die Probe zu stellen - ich muss dafür aber natürlich auch keine Graflkkare kaufen...): Der ganze neue RT-Kram da ist Multi-Bounce, inklusive GI. Man soll dann laut Nvidia gar keine Vorberechnungen für u.a. indirektes Licht mehr benötigen und die GI ist zugleich auch die AO. Dann sollte zumindest das in Cyberpunk wirklich lästige Lighting-Fade-In verschwinden.

Kostet halt ~2.000 Euro. (Jedenfalls UVP. Es klang allerdings so, als würden die Stückzahlen zunächst eher niedrig sein, so jedenfalls Jensen zu u.a. anwesenden Redakteuren und Redakteurinnen von Marketwatch, Reuters und dem Manager Magazin – der eher kleine Zahlen für 2022, größere für 2023 anklingen lassen hat), plus wahrscheinlich neues Netzteil

Das Objekt-LoD könnte CD Projekt RED allerdings auch mal ein bisschen aufziehen. Zumindest für kleine Zierobjekte in mittlerer Distanz. Das kann ja wohl nicht so teuer sein, dass man die 15 Meter vor der virtuellen Nase erscheinen lassen muss...

blaidd,
gibt es überhaupt ein NDA von den Zeug heute? Bei Techpowerup kann man sich schonmal die Founders Edition ansehen...

Sorry, grade erst gesehen...

Nein, war quasi Free-for-all. Alles durfte sofort raus - nur halt nicht der Stream oder direkt daraus gecapturetes Material – kann aber sein, dass da schon Material auf dem Presseserver lag (die Videos liegen auch da, die darf man aber immer noch nicht teilen - macht allerdings auch aus anderer Sicht Sinn, denn da sind auch Kommentare dabei, und da könnte es potenziell Stress mit Rechten geben...)

dargo
2022-09-21, 21:45:50
Mehr RT für dynamische Lichtquellen ist erstmal nur logisch...
Klar... vor allem mit 600W. ;D ;D ;D

Gast
2022-09-21, 21:46:43
Da sind es "nur" 31 FPS. Das wären dann 90%+ für die RTX 4090 wenn Blaire mit 59 FPS genau die Stelle meinte.
Das hört sich schon viel besser an. ;)


RT Overdrive gibt´s doch noch gar nicht in der Auslieferungsversion

blaidd
2022-09-21, 22:09:12
Aber, x4 wie von Huang angekündigt in RT ist es nicht. ^^


Das funktioniert nur mit DLSS 3.0 und den von DLSS hinzugedachten Frames. Jeder zweite, jedenfalls wie es in den Slides oft dargestellt wurde. In der reinen Render-Leistung also vielleicht eher 4x durch zwei. ;)

Troyan
2022-09-21, 22:11:53
Und in Cyberpunk mit dem Overdrive RT oder? Die 4090 soll mit DLSS 3 4,28x schneller sein als die 3090TI mit DLSS Performance. And DLSS 3 ist ~4,3x schneller als nativ 4K...

blaidd
2022-09-21, 22:32:03
Und in Cyberpunk mit dem Overdrive RT oder? Die 4090 soll mit DLSS 3 4,28x schneller sein als die 3090TI mit DLSS Performance. And DLSS 3 ist ~4,3x schneller als nativ 4K...

Nein, das war nur "Psycho".

Aber wenn man die von DLSS 3.0 eingeschobenen Frames berücksichtigt, erscheint das gar nicht mal allzu weit gereicht. "Reel" (dafür rechnet halt ein anderer Teil der GPU, also ist das wohl nicht 100%ig zutreffend) muss die GPU nur jeden zweiten Frame berechnen. Und wenn ich mich recht erinnere, haben die Nvidia-Folien bei DLSS auch eine Viertel-Auflösung suggeriert. Und dass die Performance mit DLSS 3.0 ziemlich heftig steigt, habe ich ja selbst gesehen (nur nicht gut oder in brauchbarer Qualität, der Stream lief da mit 17 Fps oder so, war dazu also wenig brauchbar...)

Auf die Technik und die ganzen Features bin ich tatsächlich mal gespannt. Da gibt's auch eine ganze Reihe RT-Optimierungen unter der Haube, z.B. zum Abtasten von Alpha-Test-Texturen etwa für Vegetation. Das war bisher Frameraten-Killer, weil es mehrere Passes benötigt hat (oder händische Optimierungen bzw. Vereinfachungen durch den Entwickler). Und es gibt auch eine ziemlich umfangreiche Verbesserung beim Erfassen der Szene und Weglassen von unnötigem Stuff. Ich mag Optimierungen. :) Da gibt es bislang aber auch echt noch viel Potenzial...

Ex3cut3r
2022-09-21, 22:33:50
Danke Blaire für die Eindrücke.

Wenige Stückzahlen 2022, klingt so, als müsse man noch ein paar Ampere Karten on Top loswerden. 2023 gibts dann mehr.

Scalper wirds natürlich freuen.

aufkrawall
2022-09-21, 23:32:31
Von welchem Blaire sprichst du da immer? :freak:

Die DLSS-Mod für Wonderlands wurde geupdatet, mit FSR Sharpen 0 ist nun DLSS Sharpen deaktiviert. :love4:

Gast
2022-09-21, 23:36:49
So ein Blödsinn, wer mit Psycho oder noch höher spielt.

Psycho hat ungefähr 10x so gutes indirect bounce lighting wie alles darunter, und ja an den entsprechenden Szenen sieht man das auch mehr als deutlich.

Gast
2022-09-21, 23:39:24
Darum gings mir nicht. Es geht darum, dass Nvidia verzweifelt nach DEVs sucht die völlig bescheuerte RT-Settings in ihre Spiele einbauen damit Ada wenigstens bei Einzelfällen überproportional glänzt.

Haha bescheuerte RT settings der war gut.

Alle aktuellen RT Spiele mit Außnahme der RTX Techdemos haben immer noch viel zu wenig RT eingebaut, nur war es eben bis jetzt auch mit Ampere gar nicht nutzbar.

crux2005
2022-09-21, 23:45:09
Laut den Werten schafft die 4090 erst dankt DLSS über 2x die Leistung einer 3090 zu bieten. Könnte ich mit leben.

Die DLSS 3.0 FPS Werte sind aber fürn Popo. Ob das die Masse kappieren wird? Und die AMD Fans werden wieder einen Grund zum flamen haben.
Keiner Gewinnt. ;(

Von welchem Blaire sprichst du da immer? :freak:

Bist der dritte der ihn darauf hinweist. Im Geiste ist auch Blaire noch im 3DC aktiv. :redface:

Dampf
2022-09-21, 23:47:34
Es ist wirklich geschickt von Lederjacke, dass er RTX on vs Off in CP2077 vergleicht, wenn doch wirklich interessant wäre, wie groß der Unterschied zwischen dem neuen Overdrive Mode und Psycho Settings wäre.

Mein Gefühl sagt mir, dass man die Unterschiede eher in der Performance als auf dem Bild wahrnehmen wird.

Wieso können die nicht alle mal bei 4A Games anklopfen. Die können dann zeigen, wie eine performante und gut aussehende GI funktioniert, bei der man schon auf dem ersten Blick einen riesigen Unterschied erkennt.

blaidd
2022-09-21, 23:47:59
Von welchem Blaire sprichst du da immer? :freak:

Ich glaube, das ist schottisch und bedeutet "Schlachtfeld". Vielleicht eine Referenz an mein Gemüt nach acht Stunden Nvidia-Wochenschau... ;)

crux2005
2022-09-22, 00:07:27
Es ist wirklich geschickt von Lederjacke, dass er RTX on vs Off in CP2077 vergleicht, wenn doch wirklich interessant wäre, wie groß der Unterschied zwischen dem neuen Overdrive Mode und Psycho Settings wäre.

Mein Gefühl sagt mir, dass man die Unterschiede eher in der Performance als auf dem Bild wahrnehmen wird.

Davon können wir ausgehen. Schon der Unterschied zwischen Ultraund Psycho ist an vielen Stellen nicht zu erkennen. Psycho aktiviert RTGI:
https://www.youtube.com/watch?v=pC25ambD8vs&t=16m56s

Troyan
2022-09-22, 00:17:50
Cyberpunk bekommt einige Updates:

NVIDIA RTX Direct Illumination (RTXDI) gives each neon sign, street lamp, car headlight, LED billboard and TV accurate ray-traced lighting and shadows, bathing objects, walls, passing cars and pedestrians in accurate colored lighting
Ray-traced indirect lighting and reflections now bounce multiple times, compared to the previous solution’s single bounce. The result is even more accurate, realistic and immersive global illumination, reflections, and self-reflections
Ray-traced reflections are now rendered at full resolution, further improving their quality
Improved, more physically-based lighting removes the need for any other occlusion techniques

Supporting the new Ray Tracing: Overdrive Mode are several new NVIDIA technologies that greatly accelerate and improve the quality of advanced ray tracing workloads, for even faster performance when playing on GeForce RTX 40 Series graphics cards:

Shader Execution Reordering (SER) reorders and parallelizes the execution of threads that trace rays, without compromising image quality.
Opacity Micromaps accelerate ray tracing workloads by encoding the surface opacity directly onto the geometry, drastically reducing expensive opacity evaluation during ray traversal, and enabling higher quality acceleration structures to be constructed. This technique is especially beneficial when applied to irregularly-shaped or translucent objects, like foliage and fences. On GeForce RTX 40 Series graphics cards, the Opacity Micromap format is directly decodable by ray tracing hardware, improving performance even further.
NVIDIA Real Time Denoisers (NRD) is a spatio-temporal ray tracing denoising library that assists in denoising low ray-per-pixel signals with real-time performance. Compared to previous-gen denoisers, NRD improves quality and ensures the computationally intensive ray-traced output is noise-free, without performance tradeoffs.

https://www.nvidia.com/en-us/geforce/news/dlss3-supports-over-35-games-apps/

Viel interessanter sind die Lovelace-Features wie SER und Opacity Micromaps.

Ex3cut3r
2022-09-22, 00:29:35
Blair!=blaidd
Von welchem Blaire sprichst du da immer? :freak:




Bist der dritte der ihn darauf hinweist. Im Geiste ist auch Blaire noch im 3DC aktiv. :redface:

Ich glaube, das ist schottisch und bedeutet "Schlachtfeld". Vielleicht eine Referenz an mein Gemüt nach acht Stunden Nvidia-Wochenschau... ;)

Sry, wenig geschlafen heute. Meinte natürlich Blaidd oder Phil natürlich. Sry nochmal, das war keine Absicht.

blaidd
2022-09-22, 00:36:06
Sry, wenig geschlafen heute. Meinte natürlich Blaidd oder Phil natürlich. Sry nochmal, das war keine Absicht.

Kein Problem, ich fand's eigentlich eher lustig.
Und deswegen bin ich ja auch irgendwie hier, zu Unterhaltung, nicht für den Fame. ;)

crux2005
2022-09-22, 01:40:23
Es ist wirklich geschickt von Lederjacke, dass er RTX on vs Off in CP2077 vergleicht, wenn doch wirklich interessant wäre, wie groß der Unterschied zwischen dem neuen Overdrive Mode und Psycho Settings wäre.

Mein Gefühl sagt mir, dass man die Unterschiede eher in der Performance als auf dem Bild wahrnehmen wird.

Da hast du deine Antwort:

Cyberpunk bekommt einige Updates:

https://www.nvidia.com/en-us/geforce/news/dlss3-supports-over-35-games-apps/

Viel interessanter sind die Lovelace-Features wie SER und Opacity Micromaps.


RTXDI für alle Lichtquellen.
multiple RT bounces anstatt maximal einem
RT Spiegelungen in voller Auflösung
keine anderen AO Techniken


Wird sicher besser aussehen. Aber alleine die RT Reflexions in voller Auflösung und mehrere bounces werden die Leistung richtig drücken.
30-50% weniger FPS würden mich nicht wundern. Je nach Karten Gen. Bei Ada weniger dank den neuen Erweiterungen.

@Troyan: wäre es möglich den Text im Quote zu packen? Der CODE Tag zieht die ganzen Beiträge unnötig in die breite.

Gast
2022-09-22, 08:01:55
RTXDI für alle Lichtquellen.
multiple RT bounces anstatt maximal einem
RT Spiegelungen in voller Auflösung
keine anderen AO Techniken




Die ersten beiden sind auf jeden Fall ein großer Unterschied.
Das würde bedeuten endlich RT-Shadows von allen Lichtquellen, nicht nur von der Sonne.

The_Invisible
2022-09-22, 08:57:46
GA102 vs AD102 "nur" + 40/+50% in CP77 ohne DLSS (3.0)
Das wäre nicht nur enttäuschend, das wäre eine Katastrophe.



Ja, sry Bild nicht gesehen. Sonst hätte ich das gleich gemacht.

Ich hols jetzt nach, zumindest versuche ich es.

EDIT:

So habe es hinbekommen. ;D

Da sind es "nur" 31 FPS. Das wären dann 90%+ für die RTX 4090 wenn Blaire mit 59 FPS genau die Stelle meinte.
Das hört sich schon viel besser an. ;)

Aber, x4 wie von Huang angekündigt in RT ist es nicht. ^^

https://abload.de/thumb/cyberpunk2077_2022_09n3fyc.png (https://abload.de/image.php?img=cyberpunk2077_2022_09n3fyc.png)

Danke, ist dann doch einiges mehr.

CP77 ist eins der wenigen Spiele die in 4k + RT trotz DLSS ziemlich an der Grenze laufen von den spielbaren fps, hatte ja gehofft auf eine 4080 16GB um ~1k die so >50% liefert, wird aber nix :D

@topic
FS2020 hat jetzt auch DLSS bekommen, da eh meist CPU limitiert kann man da wieder DLDSR + DLSS kombinieren

wolik
2022-09-22, 09:10:35
Ich denke, es war sehr unklug, DLSS 3.0, DLSS 3.0 zu nennen.
So wurde die 3er Serie sofort dezimiert.
Einfach "DLAA" zu nennen wäre auch ok und hat nicht den ganzen Shitstrom gegeben, den man jetzt im Internet liest.

Jupiter
2022-09-22, 09:37:35
Cyberpunk bekommt einige Updates:

https://www.nvidia.com/en-us/geforce/news/dlss3-supports-over-35-games-apps/

Viel interessanter sind die Lovelace-Features wie SER und Opacity Micromaps.

Aktuell fehlen bei manchen lokalen Lichtquellen die davon ausgelösten Schatten. Ist das weg, wäre dies genial.

Mit Abstand am rechenintensivsten waren in Cyberpunk 2077 die Stellen mit vielen Bäumen. Da stieg der Verbrauch um 1/3. Hoffentlich hilft OM da.

Der Lederjacken-RT-Mode ist noch gar nicht in CP77 drin der deinen Ampere komplett in die Knie zwingen wird. ;)

btw.
Aber das ist wieder so typisch Nvidia. Die bringen CDPR dazu wieder so ein Bullshit RT-Setting in das Spiel zu integrieren nur um die Konkurrenz auszustechen anstatt, dass mal CDPR die Basics in den Griff bekommt wie zb. das völllig katastrophale LOD welches sofort ins Auge sticht. :uclap: Wo ist eigentlich unser Trojaner wenn es um gekaufte DEVs geht? ;)

Wir werden sehen. Nach meiner Vermutung wird es eine Steigerung der Bildqualität geben.

Troyan
2022-09-22, 10:11:41
https://www.techpowerup.com/img/jWeCXcotbiGuMZnF.jpg
https://www.techpowerup.com/299130/nvidia-ada-ad102-block-diagram-and-new-architectural-features-detailed

Wuge
2022-09-22, 10:31:34
So, gestern jetzt endlich auch mal in den Genuss von DLSS gekommen (klar, vorher mal mit CoD ausprobiert aber das lief ja auch nativ flüssig). MS Flight Simulator 2020, das ist das Spiel, bei dem man in hochauflösendem VR entweder harte Qualitätseinschnitte inkauf nehmen oder mit 15 FPS fliegen muss. Nach 2 Jahren ist die Engine jetzt soweit, dass es mit etwa 30 FPS auf einer übertakteten Wakü-3090 läuft. Seit gestern wird DLSS unterstützt - Gamechanger! Im Performance-Modus 46 FPS, in Quality solide über 40 und keine Framedrops unter 30 mehr. Endlich spielbar :D

Geldmann3
2022-09-23, 13:50:34
Hätte eine ziemlich grundsätzliche Frage.

Gibt es irgendwo offizielle Informationen dazu, wie viele Frames DLSS 2.0+ in welcher Qualitätseinstellung maximal akkumuliert? Habe mal von 16 gehört, finde dazu allerdings leider nichts.

Selbe Frage stelle ich mir zu FSR 2.0 und klassischem TAA.

Troyan
2022-09-23, 13:52:46
Steht in der Readme vom SDK.

Geldmann3
2022-09-23, 14:07:32
Habe da auf die Schnelle keine fixe Zahl gefunden und auch keine ,,Readme".
Ein paar ,,Programming Guides" waren dabei, die ein wenig suggerieren, dass die maximale Anzahl von Frames = (Zielauflösung / Targetauflösung) x 8 wäre.
Mit DLSS Performance also 32 Frames.

Das entspricht allerdings nicht meiner Erfahrung, auch ein völlig still stehendes Bild mit DLSS Ultra-Performance sieht nämlich nicht so gut aus wie eines mit DLSS Qualität.

In den FSR 2.0 Folien finde ich immer wieder ein Grid bestehend aus 9 Pixeln.
Ich würde vermuten, dass auch DLSS versucht, ein solches Grid zu komplettieren.

Andron
2022-09-23, 14:26:26
Gibt es irgendwo offizielle Informationen dazu, wie viele Frames DLSS 2.0+ in welcher Qualitätseinstellung maximal akkumuliert? Habe mal von 16 gehört, finde dazu allerdings leider nichts.

Selbe Frage stelle ich mir zu FSR 2.0 und klassischem TAA.

Zu FSR 2.0 gab es dazu eine Antwort im Interview der PCGH mit Nicolas Thibieroz, AMDs Director of Game Engineering:

https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/Specials/Interview-Nic-Thibieroz-AMD-FSR-20-Upsampling-1395899/

Laut seiner Aussage werden, je nach Situation, bis zu 72 Frames zur Verrechnung verwendet werden können. Ich denke, DLSS wird hier auch auf ähnliche Werte kommen, wenn man bedenkt, dass
im Performance-Modus trotz 1/4 der Ausgabeauflösung feine Details oftmals besser als in Nativ + TAA rekonstruiert werden können.

In Bewegung sieht das aber vermutlich ganz anders aus, je nach Situation gibt es kaum Frames, die miteinander verrechnet werden können.

Im UP Modus kommt zusätzlich hinzu, dass 9 Pixel aus einem einzigen generiert werden müssen. Da kann es durch die sehr niedrige Eingabeauflösung dazu kommen, dass feine Details komplett durchs Pixelraster fallen und zu keinem Zeitpunkt im gerenderten Frame vorhanden sind. Hier kann DLSS dann auch im Stillstand nichts mehr rekonstruieren, egal wie viele Frames zur Verfügung stehen.

Troyan
2022-09-23, 14:29:11
Kapitel 3.7.1 im Dokument "DLSS_Programming_Guide_Release.pdf" beschreibt das Phasing und Sampling.

Geldmann3
2022-09-23, 14:33:41
Kapitel 3.7.1 im Dokument "DLSS_Programming_Guide_Release.pdf" beschreibt das Phasing und Sampling.

Das meinte ich mit ,,Frames = (Zielauflösung / Targetauflösung) x 8"

Doch das widerspricht Erfahrungswerten. Ein stilles Bild, sollte dann in allen Modi gleich aussehen.
Wäre die Anzahl der Samples pro Pixel immer gleich, könnte man keine stillen Vergleichsbilder zwischen den Modi anfertigen. Da alle gleich aussehen müssten.
Ein stilles Bild müsste immer 8xSSAA sein.

Andron
2022-09-23, 14:39:24
Ein stilles Bild, sollte dann in allen Modi gleich aussehen.

Nicht zwangsläufig, da bei niedrigerer Renderauflösung mehr feine Details komplett durchs Raster fallen und überhaupt nicht mehr dargestellt werden. Da kann dann auch nichts mehr rekonstruiert werden, egal wie viele Frames man verrechnet. In den höheren Modi sind diese Details durch das feinere Pixelraster partiell vorhanden und können über die Zeit rekonstruiert werden.

Gipsel
2022-09-23, 14:42:29
Optimalerweise jittert man aber das Sampleraster von Frame zu Frame etwas, so daß man auch bei niedrigen Eingangsauflösungen irgendwann mal jede Position sampelt.
In welchem Umfang das jeweils gemacht wird (also wie viele temporale Subpixelpositionen benutzt werden), entzieht sich aber meiner Kenntnis. Wenn das z.B. immer nur 4 wären, helfen einem auch bei völligem Stillstand natürlich keine 8 oder noch mehr Frames.

Geldmann3
2022-09-23, 14:51:12
Hmm Antron könnte schon Recht haben, bei höheren Auflösungen werden einfach mehr Samplepositionen abgedeckt.

Ein sehr vereinfachtes Beispiel, oben 2x2 Pixel mit jeweils 4 Samples und unten 3x3 Pixel mit jeweils 4 Samples:

https://i.ibb.co/8N9TTGp/image.png

Das könnte die Ursache sein. Man könnte hier in niedrigeren Auflösungen also entsprechend mutmaßlich noch weiter optimieren, indem man den Jitter der Samplepositionen variiert, um die Abdeckung dieser zu erhöhen.

Nehme aber an, das würde die Implementierung von DLSS wieder stark verkomplizieren, doch könnte eine Idee für die Zukunft sein.

Bisher war es eben einfach DLSS zu implementieren, sofern die Engine bereits TAA konnte und das hat wahrscheinlich meist ein fixes Jitter-Pattern.

basix
2022-09-23, 15:00:26
Prinzipiell müsste man das Jitter-Pattern an die FPS, Motion-Vektoren sowie Disocclusion-Masks koppeln. Bei hohen FPS und wenig Bewegung beziehungseweise Veränderung im Bild kann man ein feineres Jitter-Pattern verwenden, da mehr Informationen nützlich verarbeitet werden können.

Umso mehr Änderungen im Spiel sind, desto gröber müsste das Jitter-Pattern ausfallen. Aber vielleicht ist das gar nicht nötig. Das passiert ja irgendwie automatisch durch die Bewegung an sich und wenn das Jitter-Pattern in einer entsprechend sinnvollen Reihenfolge abgetastet wird.

Was man aber machen könnte: Adaptiv die Bereiche mit viel Veränderung höher abtasten als Bereiche, wo nichts passiert. Ist prinzipiell eine lokal begrenzte variable Auflösung, ähnlich wie bei VRS. Aber halt auf den gesamten Rendervorgang bezogen.

Andron
2022-09-23, 15:21:34
Optimalerweise jittert man aber das Sampleraster von Frame zu Frame etwas, so daß man auch bei niedrigen Eingangsauflösungen irgendwann mal jede Position sampelt.
In welchem Umfang das jeweils gemacht wird (also wie viele temporale Subpixelpositionen benutzt werden), entzieht sich aber meiner Kenntnis. Wenn das z.B. immer nur 4 wären, helfen einem auch bei völligem Stillstand natürlich keine 8 oder noch mehr Frames.

Korrigiert mich, wen ich einen Denkfehler habe, aber wenn durch eine sehr geringe Ausgangsauflösung das Abtastraster so grob wird, dass feine Details <50% eines Pixels sind, nützt auch jittering nichts mehr und diese Details werden nicht mehr aufgelöst.

Geldmann3
2022-09-23, 15:47:58
Hmm, auch wieder ein interessanter Punkt. Man versucht ja keine Polygone zu rendern, die viel kleiner als ein Pixel sind. Allerdings sollte man als Entwickler ja das LOD-Bias entsprechend der Ausgabeauflösung verschieben, wenn man DLSS verwendet. Dementsprechend sollten diese kleinen Details mit DLSS nicht verloren gehen, auch, wenn ein Polygon kleiner ist als ein interner Pixel.

Ich weiß allerdings leider nicht, wie Engines das dann praktisch handhaben.

aufkrawall
2022-09-23, 16:42:55
Geometriekanten rutschen aber auch trotz negativem LOD-Bias weiterhin genau so bei niedriger Auflösung aus dem Pixelraster, das betrifft ja nur Texturen (inkls. Alphatests).

basix
2022-09-23, 17:04:53
Korrigiert mich, wen ich einen Denkfehler habe, aber wenn durch eine sehr geringe Ausgangsauflösung das Abtastraster so grob wird, dass feine Details <50% eines Pixels sind, nützt auch jittering nichts mehr und diese Details werden nicht mehr aufgelöst.

Hmm, auch wieder ein interessanter Punkt. Man versucht ja keine Polygone zu rendern, die viel kleiner als ein Pixel sind. Allerdings sollte man als Entwickler ja das LOD-Bias entsprechend der Ausgabeauflösung verschieben, wenn man DLSS verwendet. Dementsprechend sollten diese kleinen Details mit DLSS nicht verloren gehen, auch, wenn ein Polygon kleiner ist als ein interner Pixel.

Ich weiß allerdings leider nicht, wie Engines das dann praktisch handhaben.
Um mal einen Anhaltspunkt zu geben: Nanite von UE5 rendert ja unglaublich detaillierte Geometrie. Brian Karis hat dazu aber gesagt, das ein Polygon durchschnittlich ~13 Pixel gross ist (https://www.youtube.com/watch?v=NRnj_lnpORU) (weiss nicht, wie stark das vom Content abhängt).

Und zudem muss man bedenken, dass sobald die Kamera sich bewegt sich auch das Pixelraster relativ zur Geometrie bewegt. Damit können auch Subpixel-Details über die Zeit als Information gewonnen werden, welche für eine konkrete Kameraposition von Nutzen sein können.

BlacKi
2022-09-23, 18:11:31
Ich denke, es war sehr unklug, DLSS 3.0, DLSS 3.0 zu nennen.
So wurde die 3er Serie sofort dezimiert.
Einfach "DLAA" zu nennen wäre auch ok und hat nicht den ganzen Shitstrom gegeben, den man jetzt im Internet liest.


ich sehe das mittlerweile entspannt. am anfang mit dlss 1.0 hat sich nv auch keine freunde gemacht, und das nachhaltig bis 2.0. dann kam aber die kehrtwende und alles wurde wieder gut.


bei dlss 3.0 sind es ja nur die weltuntergangspropheten die da meckern, und zwar weil sie die framegeneration verteufeln, die sie noch garnicht testen konnten. es war wirklich schlau, reflex mit frame generation zu koppeln, so wird sich der casual über die doppelte leistung freuen und dank reflex noch nichtmal was merken. die profis deaktivieren frame generation und spielen auf fhd oder maximal 1440p, wo dann framegeneration garnicht gebraucht werden, erst recht nicht nicht competitive settings.


ich prophezeihe, dlss 3 wird ein rießen erfolg, und möglicherweiße werden wir mit dlss 4 soweit sein, dass das ursprungliche rendern vl garnichtmehr stattfindet.

Slipknot79
2022-09-23, 19:35:34
Kostet halt ~2.000 Euro. (Jedenfalls UVP. Es klang allerdings so, als würden die Stückzahlen zunächst eher niedrig sein, so jedenfalls Jensen zu u.a. anwesenden Redakteuren und Redakteurinnen von Marketwatch, Reuters und dem Manager Magazin – der eher kleine Zahlen für 2022, größere für 2023 anklingen lassen hat), plus wahrscheinlich neues Netzteil


Na dann, gleich mal auf 2800-3000EUR Straßenprice einstellen für die 4090 in 2022. (y)

Ex3cut3r
2022-09-23, 20:48:39
Na dann, gleich mal auf 2800-3000EUR Straßenprice einstellen für die 4090 in 2022. (y)

^^
In Zukunft kommt man dann halt mit Fotos seiner Frau/Freundin, seiner Yacht, seinem Auto, seinem Haus, und seiner Grafikkarte an. ;D

Geldmann3
2022-09-24, 03:51:57
Habe hier mal einen Vergleich der DLSS-Modi im FS 2020 zusammengestellt.

Bin beeindruckt.

4K Vergleich: https://imgsli.com/MTI2ODk4/1/2
1080p Vergleich: https://imgsli.com/MTI2ODk5/1/2

In Bewegung sehe ich hinter den Flügeln minimale Disocclusion Artefakte.
Diese verschwinden allerdings bei ~6K + DLSS Quality gänzlich und sind darunter auch mit TAA vorhanden. ;D

Ich verstehe nicht, warum hier wieder kein DLAA dabei ist.
Warum darf ich mich nicht für ultimative Bildqualität entscheiden?

crux2005
2022-09-24, 05:19:25
4K Vergleich: http://shorturl.at/guvX5
1080p Vergleich: http://shorturl.at/ijnv1

Die Links funktionieren nicht.

Geldmann3
2022-09-24, 05:24:01
Danke für den Hinweis!
Fixed!

unl34shed
2022-09-24, 09:59:07
DLSS sieht im Flight Sim so verwaschen aus.

E: wie sieht es denn im Cockpit mit DLSS aus?

basix
2022-09-24, 11:35:03
Habe hier mal einen Vergleich der DLSS-Modi im FS 2020 zusammengestellt.

Bin beeindruckt.

4K Vergleich: https://imgsli.com/MTI2ODk4/1/2
1080p Vergleich: https://imgsli.com/MTI2ODk5/1/2?

Egal wie viele Vergleiche man anstellt, ich sehe immer wieder das gleiche Resultat: ~1000p müssen als Renderauflösung vorliegen, sonst sinkt die Qualität deutlich. Die 1080p DLSS Modi verlieren klar gegen 1080p nativ.

4K DLSS Performance sieht aber wirklich ganz gut aus.

Dampf
2022-09-24, 12:53:04
Egal wie viele Vergleiche man anstellt, ich sehe immer wieder das gleiche Resultat: ~1000p müssen als Renderauflösung vorliegen, sonst sinkt die Qualität deutlich. Die 1080p DLSS Modi verlieren klar gegen 1080p nativ.

4K DLSS Performance sieht aber wirklich ganz gut aus.

Nö, finde ich gar nicht. DLSS in 1080p sieht in den meisten Fällen besser als natives 1080p aus. In dem Screenshot sehe ich abseits vom Horizont keine Unterschiede.

DLSS Performance vs TAA Performance, DAS ist ein Unterschied. DAS ist deutlich. Nicht ein paar Zacken mehr auf dem Horizont.

basix
2022-09-24, 13:15:02
Das Bild ist in 1080p blurrier. Und das gegen ein inhärent blurry TAA in dieser niedrigen Auflösung. Klar, DLSS-Q ist hier nicht komplett unbrauchbar, aber der Qualitätsverlust ist ersichtlich.

In 4K sehe ich diesen zusätzlichen DLSS-Blur deutlich weniger akzentuiert.

Und dass DLSS gegen TAA Upsampling klar gewinnt, ist auch keine Neuheit ;)

why_me
2022-09-24, 13:37:32
Die Wolken sehen mit DLSS übel aus, nativ noch schön klar, mit DLSS keine scharfe kante mehr vorhanden.
Die Schatten der Gebäude und Bäume in der Entfernung sind auf einmal weg, bzw deutlich heller.
Über die Schärfe wurde ja schon genug gesagt.

Die Frage von unl34shed ist noch interessant, wie sieht das ganze im Cockpit aus. Da sind ja immerhin instrumente, die man ablesen muss. Wenn da die Qualität nicht stimmt, bringen die FPS halt auch nichts.

Ex3cut3r
2022-09-24, 17:28:48
welcher FPS gewinn? Es ist mit DLSS Q @ 4K schon hoffnungslos CPU Limitiert.

Mit DLSS Q, 4K
https://imgsli.com/i/cac9f865-7809-4eeb-93ab-b953a3f06681.jpg

Ohne DLSS, TAA,
https://imgsli.com/i/677b4bca-2227-4c55-aaf2-ef571969dabb.jpg

Ansonsten kann man für die Unschärfe ja CAS via Reshade benutzen.

Btw. was sind das für GPU Temperaturen? @ Geldmann3
Wie ist der Hotspot? Bei 90 Grad schon? Und der GDDR6X bei 105 Grad oder was?

Konami
2022-09-24, 19:01:58
Von WCCFTech (https://wccftech.com/nvidia-ada-lovelace-follow-up-qa-dlss-3-ser-omm-dmm-and-more/) (Videobeitrag von Daniel Owen (https://youtu.be/-J5K1zxXXik?t=738)) kommt in einem Q&A mit Nvidia eine Klarstellung zum Thema DLSS3 Frame Generation und Lag:Q: For eSports users who might want to achieve the lowest latency, will it be possible to only enable NVIDIA DLSS 2 (Super Resolution) + Reflex without the DLSS Frame Generation that improves FPS but also increases system latency?

A: Our guidelines for DLSS 3 encourage developers to expose both a master DLSS On/Off switch, as well as individual feature toggles for Frame Generation, Super Resolution, and Reflex, so users have control and can configure the exact settings they prefer. Note that while DLSS Frame Generation can add roughly a half frame of latency, this latency is often mitigated by NVIDIA Reflex and DLSS Super Resolution - all part of the DLSS 3 package. NVIDIA Reflex reduces latency by synchronizing CPU and GPU, and DLSS Super Resolution reduces latency by decreasing the size of the render resolution.
Im Endeffekt hängt es also vom Entwickler ab – sie sollen lt. Guideline den User Reflex und Frame Generation individuell ein-/ausschalten lassen, müssen es aber anscheinend nicht.

aufkrawall
2022-09-24, 19:56:27
Also noch mehr Dinge, die der Entwickler verkacken kann.
DLSS in MWII ist schon wieder ein gigantischer Griff ins DLSS Sharpen-Klo, inkls mieser 2.4.12 Version:
https://abload.de/thumb/cod_2022_09_24_19_38_3edoo.png (https://abload.de/image.php?img=cod_2022_09_24_19_38_3edoo.png)
Sieht einfach nur unerträglich aus. Langsam sehe ich wirklich schwarz für DLSS. Fehlt nur noch ein Update für Fortnite, was es mir dort auch vergrätzt. Was für inkompetente Deppen bei NV...

Ex3cut3r
2022-09-24, 20:16:57
Ich glaub da wird seit Monaten schon keine Entwicklungspower mehr investiert, die schrauben alle an Ada + Treiber und DLSS 3.

DLSS 2.0+ und die "alten" Karten sind jetzt nur Altware bei Nvidia.

why_me
2022-09-24, 20:30:01
Aber DLSS2 ist doch das upsampling von DLSS3... oder glaubst du das sie DLSS2 absichtlich so verwaschen gemacht haben um dann mit der upsampler Version von DLSS3 einen wow-Effekt zu haben, wenn es wieder schärfer wird?

E: Nvidia sagt ja selbst, dass DLSS3 aus Interpolation, Reflex und DLSS2 besteht.
DLSS 3 consists of 3 technologies – DLSS Frame Generation, DLSS Super Resolution (a.k.a. DLSS 2), and NVIDIA Reflex.
https://www.nvidia.com/en-us/geforce/news/rtx-40-series-community-qa/

Geldmann3
2022-09-24, 20:54:54
Btw. was sind das für GPU Temperaturen? @ Geldmann3
Wie ist der Hotspot? Bei 90 Grad schon? Und der GDDR6X bei 105 Grad oder was?

Eventuell ist die GPU ein wenig angestaubt. Doch bald kommt da eh die 4090 rein. :D Dat hält die schon aus.
FS 2020 ist für den Rechner eine der härtesten Aufgaben. Die 240 Watt des 12900K noch daneben. (Und trotzdem, in dieser Szene, bei unter 50FPS CPU limitiert, in manchen Szenen sind nicht einmal 30FPS drin. Ist aber auch etwas gemodded.)
Ist übrigens eine RTX 3090 GAMING X TRIO.

Ex3cut3r
2022-09-24, 21:53:05
Ui, ok. Dann ist vertretbar. Eine 4090 wäre mir zu teuer. Aber das muss jeder für sich entscheiden.

Jupiter
2022-09-25, 11:49:40
Also noch mehr Dinge, die der Entwickler verkacken kann.
DLSS in MWII ist schon wieder ein gigantischer Griff ins DLSS Sharpen-Klo, inkls mieser 2.4.12 Version:
https://abload.de/thumb/cod_2022_09_24_19_38_3edoo.png (https://abload.de/image.php?img=cod_2022_09_24_19_38_3edoo.png)
Sieht einfach nur unerträglich aus. Langsam sehe ich wirklich schwarz für DLSS. Fehlt nur noch ein Update für Fortnite, was es mir dort auch vergrätzt. Was für inkompetente Deppen bei NV...

Sieht widerlich aus. Warum macht keiner etwas dagegen?

BlacKi
2022-09-25, 11:58:40
das sharpen kann man doch ingame einstellen? stand bei mir standard auf 80%?

Lurtz
2022-09-25, 15:16:19
Also noch mehr Dinge, die der Entwickler verkacken kann.
DLSS in MWII ist schon wieder ein gigantischer Griff ins DLSS Sharpen-Klo, inkls mieser 2.4.12 Version:
https://abload.de/thumb/cod_2022_09_24_19_38_3edoo.png (https://abload.de/image.php?img=cod_2022_09_24_19_38_3edoo.png)
Sieht einfach nur unerträglich aus. Langsam sehe ich wirklich schwarz für DLSS. Fehlt nur noch ein Update für Fortnite, was es mir dort auch vergrätzt. Was für inkompetente Deppen bei NV...
War schon in Modern Warfare 1 unerträglich. In Cold War gings. Reine Entwickler-Lotterie ob DLSS brauchbar ist oder nicht.

aufkrawall
2022-09-25, 15:58:57
das sharpen kann man doch ingame einstellen? stand bei mir standard auf 80%?
wtf, wieso hab ich das nicht gesehen (diese Menüs...).
Kann man tatsächlich auf 50% runterstellen, was hier offenbar "aus" bedeutet. Die DLSS-Version kann man zum Glück auch ersetzen.

Lurtz
2022-09-25, 18:04:24
Gabs das in Modern Warfare 2019 auch schon? Meine ich hätte das versucht und es hätte nichts gebracht gegen die Schärfeartefakte mit DLSS.

aufkrawall
2022-09-25, 18:26:54
In Warzone gibts diesen Balken definitiv nicht. Würde sagen, es sieht mit 50% und 2.4.6 einigermaßen normal gut aus (mir fehlt CAS...):
https://abload.de/thumb/cod_2022_09_25_15_53_8ee2l.png (https://abload.de/image.php?img=cod_2022_09_25_15_53_8ee2l.png)

Wobei gut natürlich relativ ist. Was ist wohl FSR 2.1 und was DLSS 2.4.6? :D
https://abload.de/thumb/hitman3_2022_09_25_18vtepz.png (https://abload.de/image.php?img=hitman3_2022_09_25_18vtepz.png) https://abload.de/thumb/hitman3_2022_09_25_184gfos.png (https://abload.de/image.php?img=hitman3_2022_09_25_184gfos.png)

Ex3cut3r
2022-09-25, 18:33:35
Erstes Bild DLSS, zweites Bild FSR.

Das kleine Boot im Hintergrund hat ein Segel, im ersten Bild ist die kleine dünne Linie/Seil davon besser zu erkennen, das ist einer der Stärken von DLSS als im zweiten Bild.

Des weiteren müsst du den FPS Counter deaktivieren, DLSS hat IMHO mit einer RTX Karte immer ein paar mehr FPS.

Oder liege ich falsch? ^^

Das ist schon schwerer, als mit FSR 1.0 oder gar 2.0 IMHO.

unl34shed
2022-09-25, 18:42:11
Anhand der Seilen hätte ich es jetzt auch so bestimmt. Viel nehmen sich beide nicht.
Das Geländer zum Strand bekommen beide nicht hin.
Aber was macht DLSS oben links mit dem Baum?

aufkrawall
2022-09-25, 18:42:14
Ja, aber achte mal auf so etwas wie Schlieren, die von Dingen wie spitzen Enden oder dünnen Linien ausgehen. Ist überall in einem der Bilder.

BlacKi
2022-09-25, 19:04:38
das bild mit mehr bewegungsartefakten ist fsr^^

why_me
2022-09-25, 19:08:05
Beim ersten sticht sofort das Ghosting ins Auge. Bei dem Baum hinten links, alle Laternen, Pasanten, dem Infoschild und dem Fahnenmast.

Das zweite hat zwar auch Ghosting, aber auffällig nur bei der Frau direkt hinter Agent 47 und leicht bei dem Infoschild.

Kann mich den Vorrednern da aber auch nur anschließen:
1 Kann die feineren Linien anzeigen und hat auch etwas mehr FPS -> DLSS und 2. dann FSR
Vom Ghosting hätte ich anders herum argumentiert, aber da gabs mit FSR2.1 wenn ich recht erinnere auch deutliche Verbesserungen.... Also bleib ich bei 1 DLSS 2 FSR

BlacKi
2022-09-25, 19:19:28
das mit dx12 ist dlss, geringerer vram verbrauch, mehr fps und weniger ghosting. bei fsr am main charakter ist das schon heftig.

aufkrawall
2022-09-25, 19:24:43
Der Leistungsunterschied kommt eher durch VKD3D-Proton, sonst gibt es mit der FSR 2.1-Mod nur ein schwarzes Bild. ;)
Tja, ghostet dafür aber bei anderen Figuren oder Strukturen im Bild stärker mit DLSS, + das eklige Smearing.

Mhhmmm, sieht das gut aus ^^ :
https://abload.de/thumb/hitman3_2022_09_25_19tac4u.png (https://abload.de/image.php?img=hitman3_2022_09_25_19tac4u.png)

Ich würds mit der FSR 2-Mod spielen...

DrFreaK666
2022-09-28, 19:56:27
6pV93XhiC1Y

Troyan
2022-09-28, 20:02:30
31 Minuten? Muss viel Zeitlupe sein. :D

/edit: CPU-Limit, was das? https://youtu.be/6pV93XhiC1Y?t=619

/edit 2:
https://media.discordapp.net/attachments/252159858583928834/1024747618309513296/Screenshot_20220928_132056.jpg

Jupiter
2022-09-28, 20:26:01
In Cyberpunk 2077 ist die Verzögerung höher, aber noch immer niedriger als mit deaktiviertem Reflex. In Spiderman ist es fast identisch.

Troyan
2022-09-28, 20:31:57
Bin auch soweit gekommen. Sieht okay aus von der Latenz. In Spider-man sind die höhere Frames viel wichtiger als die erhöhte Latenz gegen DLSS Performance.

Sardaukar.nsn
2022-09-28, 20:49:19
So geil, wir reden hier nicht mehr über den Launch der neuen Nvidia Karten sondern über "the arrival of RTX 4000". Das DF Video gönn ich mir...

Orbmu2k
2022-09-28, 21:11:57
Irgendwie hab ich Zweifel an der Erklärung von DF.

Sie sagen ja, dass ein Frame zurückgehalten wird um dann ein Zwischenbild zum vorherigen Bild zu berechnen und dann beide nacheinander auszuliefern. Das wäre ein Inputlag von 2 Frames.

Ich bin immer davon ausgegangen dass ein zukünftiges Frame von der AI vorhergesagt wird. Das hätte Worst Case (falsche Vorhersage) nur 1 Frame Lag.

Ohne VSYNC oder mit GSYNC werden doch gar keine Frames vorgehalten.

:confused::confused::confused:

crux2005
2022-09-28, 21:22:52
Irgendwie hab ich Zweifel an der Erklärung von DF.

Sie sagen ja, dass ein Frame zurückgehalten wird um dann ein Zwischenbild zum vorherigen Bild zu berechnen und dann beide nacheinander auszuliefern. Das wäre ein Inputlag von 2 Frames.

Ich bin immer davon ausgegangen dass ein zukünftiges Frame von der AI vorhergesagt wird. Das hätte Worst Case (falsche Vorhersage) nur 1 Frame Lag.

Ohne VSYNC oder mit GSYNC werden doch gar keine Frames vorgehalten.

:confused::confused::confused:

Ich denke du siehst es falsch. Die AI benutzt die bekanntem Frames und ein Frame dazwischen zu "interpolieren".

Der "1. Frame" wird angezeigt & Informationen (motion vectors) zwischengespeichert. Der "3. Frame" wird gerendert, der "2. Frame" von AI anhand der Informationen vom 1. und 3. dazwischen geschoben, der "3. Frame" wird angezeigt & Informationen zwischengespeicher. Der "3. Frame" ist jetzt der "1. Frame"... usw.

Orbmu2k
2022-09-28, 21:35:04
Ich denke du siehst es falsch. Die AI benutzt die bekanntem Frames und ein Frame dazwischen zu "interpolieren".

Der "1. Frame" wird angezeigt & Informationen (motion vectors) zwischengespeichert. Der "3. Frame" wird gerendert, der "2. Frame" von AI anhand der Informationen vom 1. und 3. dazwischen geschoben, der "3. Frame" wird angezeigt & Informationen zwischengespeicher. Der "3. Frame" ist jetzt der "1. Frame"... usw.

Ja so hab ich die DF Erklärung auch verstanden und beschrieben, das sind 2 Frames Lag. Ich halte Bild 3 zurück und liefere Bild 2. aber so gepaced aus dass es zeitlich in der mitte liegt.


Alex hat übrigens geantwortet, und leider wird wirklich noch kein Frame vorhergesagt :(


Predicting future frames based on previous frames is surely possible but it would result in much more disocclusion artifacts especially on the edge of the screen.
So holding the current frame back, and output an intermediate frame instead introduces lag but currently it seems to be the only way to go. Implementing Frame prediction could be way more complicated to implement in an game if you want to overcome the possible issues. Maybe with DLSS4?

Tangletingle
2022-09-28, 21:40:45
What? Die schieben nen frame ein den es nicht gibt um einen frame der schon fertig ist zurück zuhalten um mehr fps zu generieren? Wie soll das flüssiger sein? Ich ging da von ai aus, die einen Futureframe macht um mehr Zeit für einen gerenderten frame zu haben.

Orbmu2k
2022-09-28, 21:45:45
What? Die schieben nen frame ein den es nicht gibt um einen frame der schon fertig ist zurück zuhalten um mehr fps zu generieren? Wie soll das flüssiger sein? Ich ging da von ai aus, die einen Futureframe macht um mehr Zeit für einen gerenderten frame zu haben.

Ja das dachte ich ja auch, ist aber scheinbar nicht so.

Flüssiger ist das schon, aber die FPS sind halt fragwürdig wenn man dafür den Lag in Kauf nehmen muss.

So ist es wirklich mehr ein Marketing Feature als dass es Innovation wäre.

crux2005
2022-09-28, 21:46:26
Ja so hab ich die DF Erklärung auch verstanden und beschrieben, das sind 2 Frames Lag.

Wieso 2 Frames? Ich denke nur 1 Frame delay. Der 2. und 3. sollten fast parallel abgearbeitet werden nur dann versetzt gerendert.

Linmoum
2022-09-28, 21:47:40
Haben Nvidia und deren DF-Buddys echt keinen besseren Showcase gefunden als Spider-Man? Von guter Werbung für DLSS3 ist das meilenweit entfernt, damit erreicht man aktuell eher das Gegenteil.

Dampf
2022-09-28, 21:47:50
Wie soll das auch gehen? Eine AI kann nicht vorhersagen, in welche Richtung ich gucke oder welche Aktion ich ausführe. Dazu müsste die AI in die Zukunft gucken können.

Einen zweiten Frame anhand den Informationen des dritten Frames und ersten Frames zu berechnen ist da die einzig logische Vorgehensweise.

Orbmu2k
2022-09-28, 21:49:59
Wieso 2 Frames? Ich denke nur 1 Frame delay. Der 2. und 3. sollten fast parallel abgearbeitet werden nur dann versetzt gerendert.

Ausgehend von den Ziel-FPS natürlich. Also klar gegen vorher ist es nur 1 Frame Lag aber im Ergebnis 2. Bild 2 ist Vergangenheit und Bild 3 ist Vergangenheit wenn es auf dem Display landet.

Orbmu2k
2022-09-28, 21:52:13
Wie soll das auch gehen? Eine AI kann nicht vorhersagen, in welche Richtung ich gucke oder welche Aktion ich ausführe. Dazu müsste die AI in die Zukunft gucken können.

Einen zweiten Frame anhand den Informationen des dritten Frames und ersten Frames zu berechnen ist da die einzig logische Vorgehensweise.


Doch das geht mit den Motion Vectors. Man kann mal daneben liegen oder Änderung ist zu groß, aber pripiell geht das schon. Wenn er halt falsch liegt ist das wie 1 Frame Lag.

Troyan
2022-09-28, 21:57:23
Wieso 2 Frames? Ich denke nur 1 Frame delay. Der 2. und 3. sollten fast parallel abgearbeitet werden nur dann versetzt gerendert.

Halber Frame, da die Ausgabe von Frame 2 um die Hälfte der Zeit verzögert wird.

crux2005
2022-09-28, 21:58:46
Haben Nvidia und deren DF-Buddys echt keinen besseren Showcase gefunden als Spider-Man? Von guter Werbung für DLSS3 ist das meilenweit entfernt, damit erreicht man aktuell eher das Gegenteil.

Technisch gesehen ist es schon beeindruckend. Aber wenn schon DLSS 2.x bei vielen Enthusiasten (z.B. Dargo) als "schlecht, weil nicht nativ" angesehen wurde wird es NV sehr schwer mit DLSS 3.x haben.

aufkrawall
2022-09-28, 22:09:18
In Kena muss man DLSS Sharpen mit der Tastatur genau auf 0.0 stellen, damit es das Bewegtbild nicht entweder extrem vermatscht oder überschärft. 0.0 per Maus eingestellt kann so überschärft sein, während "-0.0" (das gibts wirklich :freak: oder auch nicht...) massiv matscht. Es nimmt wirklich lächerliche Züge mit DLSS Sharpen an. Zum Glück kann man es so abstellen, hat mich "nur" ca. 30min gekostet...

Sieht dann nach manuellem Upgrade auf 2.4.6 und mit UE Tonemapper Sharpen aber auch sehr nett vs. nativ kein Sharpen aus:
https://abload.de/thumb/taax4dnt.png (https://abload.de/image.php?img=taax4dnt.png) https://abload.de/thumb/dlssbias0sharpenq1inj.png (https://abload.de/image.php?img=dlssbias0sharpenq1inj.png)

basix
2022-09-28, 22:09:35
Einen zweiten Frame anhand den Informationen des dritten Frames und ersten Frames zu berechnen ist da die einzig logische Vorgehensweise.

Jepp.

Doch das geht mit den Motion Vectors. Man kann mal daneben liegen oder Änderung ist zu groß, aber pripiell geht das schon. Wenn er halt falsch liegt ist das wie 1 Frame Lag.
In der Theorie, ja. Aber das würde zu viel mehr Bildartefakten führen und allenfalls sogar zu einer Art stottern, wenn die Prediction falsch war.

Halber Frame, da die Ausgabe von Frame 2 um die Hälfte der Zeit verzögert wird.
1/2 Frame plus das, was die Optical Flow Engine benötigt. Irgendwo im Video sagt Alex 3ms (bei vermutlich 4K). Ist jetzt kein Beinbruch. Die Spiele Engines an sich müssten aber schon möglichst mit kurzen Pre-Render Buffern daherkommen. Triple Buffering und Co. wären suboptimal.

Im grossen und ganzen:
- Qualität ist OK. Ist nicht per se schlecht aber Bildartefakte gibt es halt doch einige
- Wenn Artefakte nicht stören, ist es nicht tragisch. Hängt aber wohl von Fall zu Fall und Spiel zu Spiel ab
- Gibt einige Situationen, wo man halt einfach nichts interpolieren kann (das mit dem Geländer und Disocclusion hat Alex schön gezeigt). Hier könnte man nur erfinden
- Gestiegene Latenz von DLSS3 ist negativ. Ob man es merkt? Wohl wiederum fallabhängig. Die zum Teil +20ms Latenz wie bei Cyberpunk gefallen mir nicht. Bei nur 5ms wäre es in den meisten Fällen wohl vernachlässigbar.
- Momentan gefällt mir am meisten: Reflex ist immer dabei. Auch ohne Frame Generation

crux2005
2022-09-28, 22:12:49
- Momentan gefällt mir am meisten: Reflex ist immer dabei. Auch ohne Frame Generation

Anders Rum bedeutet DLSS 3 Unterstützung mehr Arbeit für die Entwickler.
Dazu mehr Toggles. ;D

Troyan
2022-09-28, 22:12:52
1/2 Frame plus das, was die Optical Flow Engine benötigt. Irgendwo im Video sagt Alex 3ms (bei vermutlich 4K). Ist jetzt kein Beinbruch. Die Spiele Engines an sich müssten aber schon möglichst mit kurzen Pre-Render Buffern daherkommen. Triple Buffering und Co. wären suboptimal.


3ms für das Mittelframe. Kein Unterschied zu DLSS oder FSR, die ebenfalls zusätzliche Zeit benötigen.

Wird also erst problematisch, wenn zwischen Frame 1 und Frame 2 die Renderzeit in der Nähe liegt. Stellt sich die Frage, ob FG in GPU-limitierenden Szenen von 150FPS+ noch so relevant ist.

basix
2022-09-28, 22:23:17
Doch, doch, du brauchst schon zusätzliche +3ms. DLSS3 interpoliert ja zwischen zwei DLSS generierten Frames. Das Zwischen-Frame kann also erst generiert werden, wenn das zweite von "DLSS2" ausgespuckt wird.

Sonst müsste man ja ein 4K DLSS Bild (1. Frame) mit einem 1080p Bild (2. Frame) verrechnen und daraus das Zwischenbild berechnen. Die +1-2ms für DLSS, die man hier länger warten muss, sind den Qualitätsunterschied vermutlich schon wert.

Bei DLSS2 benötigt man zwar zusätzliche Rechenzeit, was ein wenig Latenz hinzufügt (1-2ms auf einer 4090), aber durch die höhere Framerate sinkt netto die Latenz deutlich.
Und bei modernen Renderern läuft so Zeug eh parallel ab: DLSS2 von Frame 1 wird abgearbeitet, während der Rest der GPU bereits am nächsten Frame arbeitet. Dieses parallele Arbeiten geht bei der Frame Generation leider nicht. Man muss warten, bis das nächste Frame da ist.

Troyan
2022-09-28, 22:33:12
Sie werden wahrscheinlich nicht sofort anfangen, sondern erstmal ein paar Frames rendern und dann FG anwerfen. So kann man die zusätzliche Latenz mehr als halbieren. nVidia sagt ja, dass man maximal ein halbes Frame Latenz hat.

Raff
2022-09-28, 23:03:59
https://youtu.be/6pV93XhiC1Y

Sehr interessant. Vermutlich gab es für diese Art von First Look strenge Restriktionen (siehe "keine Framerates und -times"), aber sie haben das Beste daraus gemacht. Besonders spannend finde ich den Teil, welcher DLSS 3 vor aufwendigen Offline-Aufblase-Algos sieht - das ist wirklich beeindruckend. Hunderte von Millisekunden gegenüber Echtzeit. "Gut genug" ist ein Prädikat, das wohl die meisten Spieler abgeben werden, sofern sich alle Spiele so verhalten. Vermutlich schwankt das aber stark je nach Implementierung, wie auch die Qualität der Detailrekonstruktion bei DLSS 2.

Was komplett offen, aber gewiss der Knackpunkt bei DLSS 3 ist: der Einsatz bei "normalen" Bildraten. 120 Fps sind schön. Aber was passiert, wenn ich nur 30 echte Frames habe, die auf 60 aufgeblasen werden? Dann werden die dazugedichteten Frames deutlich länger angezeigt, die Abstände von Objekten in Bewegung nehmen deutlich zu und das Verfahren wird öfter versagen. Vor allem wirkt sich hier der potenziell höhere Lag fühlbar aus - aber es scheint ja Spiele zu geben, wo man das mittels Reflex egalisieren kann. Spannende Zeiten, so und so.

MfG
Raff

basix
2022-09-28, 23:06:25
Wenn der Input Lag nicht das Problem ist, dann sehen 60 vs. 30fps viel flüssiger aus. Nur wenn hier das Wörtchen Wenn nicht wär.

Vorteil von DLSS3 gegenüber Offline-Interpolation: Man hat die Bewegungsvektoren des Inhalts zur Hand. Offline muss das zusätzlich anhand des Bildmaterials "abgeschätzt" werden. Da hat DLSS3 einen inhärenten Vorteil. Das Ergebnis sieht zum Teil wirklich beeindruckend aus. Gibt aber noch so ein paar Qualitäts-Problemchen.

Troyan
2022-09-28, 23:15:32
Was ist denn der Unterschied zwischen den offline-Renderer und nVidias FRUC:

Frame interpolation using the FRUC library is extremely fast compared to other software-only methods. The APIs are easy to use, and support ARGB and NV12 input surface formats. It can be directly integrated into any DirectX or CUDA application.
https://developer.nvidia.com/blog/av1-encoding-and-fruc-video-performance-boosts-and-higher-fidelity-on-the-nvidia-ada-architecture/

Jedenfalls sollte der OFA von Lovelace auch offline Renderer helfen.

basix
2022-09-28, 23:18:15
Für das ist der OFA ja auch in Turing und Ampere da ;)

Ex3cut3r
2022-09-29, 02:12:41
Der Input Lag ist selbst mit Reflex ON fast doppelt hoch, rechnen wir den DF Bias weg, vermutlich genau doppelt so hoch. Das ist doch totaler Mindfuck. Die Augen sehen ein flüssiges 60 FPS Bild z.B. aber in der Hand spüren wir nur 30-40 FPS.

https://abload.de/img/digitalfoundry-nvidiaxsekx.png

https://abload.de/img/digitalfoundry-nvidiar9fef.png

aufkrawall
2022-09-29, 03:11:33
Enttäuschend: CP77 hat immer noch das hässliche Smearing an den Laternen und der Bloom knallt mit DLSS immer noch mit sinkender Auflösung immer häufiger mit extremer Intensität durch. *seufz*

Sardaukar.nsn
2022-09-29, 05:50:32
Sehr interessant. Vermutlich gab es für diese Art von First Look strenge Restriktionen (siehe "keine Framerates und -times"), aber sie haben das Beste daraus gemacht.

Ich fand besonders spannend wie man mit DLSS 3 bestehende Limits bei GPU und noch viel interessanter bei CPU intensiven Szenen umgeht. Im Video ab 10:00min (https://www.youtube.com/watch?v=6pV93XhiC1Y) erklärt.

https://i.imgur.com/NugwyXY.jpg

In einem früheren Artikel von wwcftech (https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/) war auch die Stromspar-Funktion von DLSS 3 ein Thema. Was gerade zu diesen Zeiten sicher ein sehr interessantes Thema ist, da ja auch Abwärme und Lautstärke reduziert wird. Ähnlich wie Ziele beim Undervolting.

Müsste man natürlich genauer und kritisch untersuchen, aber im Beispiel mit dem Vorgänger ist durch den Einsatz von DLSS bzw. KI die Effizienz in Perf/Watt gerade zu explodiert.

https://i.imgur.com/kt3y8iO.jpg

Hat natürlich alles auch seinen Preis und und wird mit Kompromissen erkauft. So wird es sicher Stimmen geben die nach DLSS 1 und 2 mit ihrer Fake-Auflösung jetzt die die Fake-Frames sehen. Natürlich auf einer Fake-4080 :freak:

DrFreaK666
2022-09-29, 06:27:27
Man muss Geld ausgeben um Geld zu sparen :ugly:
Wann hat man den "break even point" erreicht?

Sardaukar.nsn
2022-09-29, 06:34:19
In vielen Bereichen geht es halt mit der Brechstange nicht weiter, siehe aktuelle Diskussion bei Zen 4. Ich sehe hier Deep Learning und KI im Allgemeinen als Schlüsseltechnologie in Bereichen wo man mit immer "mehr Hubraum" nicht weiterkommt.

Wobei, schließt man eine 4090 mit DLSS 3 an einen FullHD/60hz Monitor an, VSync und bam! hat man wahrscheinlich die sparsamste Grafikkarte der Welt :freak:

wolik
2022-09-29, 07:28:23
DLSS im Qualitätsmodus verbessert das Bild. DLSS 3.0 erhöht "nur" die FPS? Was ist mit der Bildqualität?
Am 13-14.10 werde ich das selbst feststellen können :)
Für mich ist nur die Qualität wichtig. 8K oder 4K x 2.25 DLDSR.

Loeschzwerg
2022-09-29, 08:02:59
Was komplett offen, aber gewiss der Knackpunkt bei DLSS 3 ist: der Einsatz bei "normalen" Bildraten. 120 Fps sind schön. Aber was passiert, wenn ich nur 30 echte Frames habe, die auf 60 aufgeblasen werden? Dann werden die dazugedichteten Frames deutlich länger angezeigt, die Abstände von Objekten in Bewegung nehmen deutlich zu und das Verfahren wird öfter versagen. Vor allem wirkt sich hier der potenziell höhere Lag fühlbar aus - aber es scheint ja Spiele zu geben, wo man das mittels Reflex egalisieren kann. Spannende Zeiten, so und so.


Genau das sind die wichtigen Fragen. Da kommen viele Messungen auf euch zu ^^

Ganz allgemein nehme ich die 60 auf 120 (um bei diesem Beispiel zu bleiben) gerne mit, um allein schon mehr "Bewegungsschärfe" vom Monitor zu erhalten. Also weniger Blur und Ghosting.

Wie ich schon nach der Ankündigung geschrieben habe, mehr Optionen sind besser als weniger. Von daher kann ich über das teilweise viele Gemeckere nur müde lächeln... Man schaut sich das persönliche Szenario an und entscheidet dann einfach was am besten passt.

Gast
2022-09-29, 08:06:24
Wie soll das auch gehen? Eine AI kann nicht vorhersagen, in welche Richtung ich gucke oder welche Aktion ich ausführe. Dazu müsste die AI in die Zukunft gucken können.


Das geht schon und wird im Prinzip in VR mit Async TimeWarp auch schon lange gemacht.

Das wichtige ist nur, dass das Predicted Frame neue Eingaben bekommt, in VR eben die Kopfposition, ohne VR müssten es Tastatur/Mauseingaben zwischen den Frames sein.

Richtig gut geht es natürlich nur in First Person Spielen in denen Tastatur und Maus quasi direkt die virtuelle Kamera steuern.

Gibt es mit DLSS 3 leider anscheinend zumindest noch nicht, evtl. dann mit 3.x oder DLSS 4.

Damit ist DLSS3 eigentlich vor allem dafür gut richtig hohe Frameraten zu erzeugen. Auch wenn sich das Output-Lag damit nicht verbessert, erhöht sich damit die Bewegtbildschärfe enorm, vor allem auf einem OLED, und das ist durchaus ein nicht zu verachtender Vorteil.

Aber DLSS3 um von 30 auf 60FPS zu kommen macht wohl kaum sinn, von 60 auf 120 dagegen sehr viel.

Gast
2022-09-29, 08:36:29
Besonders spannend finde ich den Teil, welcher DLSS 3 vor aufwendigen Offline-Aufblase-Algos sieht - das ist wirklich beeindruckend. Hunderte von Millisekunden gegenüber Echtzeit.


Beeindruckend ja, aber nicht wirklich ein fairer Vergleich.

DLSS hat hier wesentlich mehr Informationen zur Verfügung, als ein Offline Algo, der nichts anderes als die fertigen Bilder als Input bekommt.

Der Offline-Algo ist auch mit Filmaufnahmen trainiert und nicht mit Computergrafik. Vor allem hat DLSS den Vorteil, das Bild bevor es mit Motion-Blur und DOF bearbeitet wurde zu bekommen.

Raff
2022-09-29, 09:35:34
Das Gemeckere kommt vor allem daher, dass Nvidia eben wieder einen auf Nvidia macht, sprich: die Eintrittskarte kostet, keine Charity-Veranstaltung. ;) Ein hohes Maß an Innovation erfordert Opfer. Nvidia trifft in diesem Kontext gerne unpopuläre, proprietäre Entscheidungen.

Aber schauen wir mal, ob Nvidia DLSS 3 später doch öffnet - zumindest für Ampere, denn da sollte mindestens GA102 genug Tensor-Leistung haben.

MfG
Raff

robbitop
2022-09-29, 09:45:07
Sehr interessant. Vermutlich gab es für diese Art von First Look strenge Restriktionen (siehe "keine Framerates und -times"), aber sie haben das Beste daraus gemacht.
Ich finde man hat das doll gemerkt, dass NV da ganz klare Vorgaben gemacht hat.

1.) kein Vergleich 3090ti vs 4090 mit gleichen Gegebenheiten (die 4090 hatte dann Frame Generation an)
2.) kein Vergleich 3090ti vs 4090 in herkömmlichen Spielen
3.) die Kritik der generated Frames war sehr milde - ettliche Shots hatten um die Kontur von Spiderman mini blockartige Artfakte wo Alex dann sinngemäß gesagt hatte "alles töfte"

Ich kann DF verstehen. So ein Exclusive ist verlockend und bringt sicherlich einiges an Erfolg. Aber es ist auch an der Grenze zur eigenen Integrität den OEM/IHV den Kontent diktieren zu lassen.
Das Video war auffällig unkritisch und wenn sie kam dann oft zwischen den Zeilen.

Nvidia hat sicherlich glas klare Vorstellungen über die Randbedingungen eines solchen Exclusives und erlaubt da wenig Abweichung.

Besonders spannend finde ich den Teil, welcher DLSS 3 vor aufwendigen Offline-Aufblase-Algos sieht - das ist wirklich beeindruckend. Hunderte von Millisekunden gegenüber Echtzeit. "Gut genug" ist ein Prädikat, das wohl die meisten Spieler abgeben werden, sofern sich alle Spiele so verhalten. Vermutlich schwankt das aber stark je nach Implementierung, wie auch die Qualität der Detailrekonstruktion bei DLSS 2.

Wobei man konstatieren muss, dass der Vergleich ein wenig hinkt:

1. DLSS 3 Frame Generation hat Zugriff auf wesentlich mehr Daten als die Offline Algoritmen. Motion Vectors, Z Buffer, Motion Vektors usw usf. Die Offline Verfahren sehen ja nur das fertige Bild inkl HUD und PostFX
2. DLSS 3 Frame Generation nutzt fixed function Hardware - die Offline Verfahren laufen über General Purpose Hardware

Ich finde das Ergebnis dennoch überraschend gut.

Was ich allerdings vermisse: sich auch mal das andere Ende des Spektrums anzuschauen. Ich habe herausgehört, dass die 4090 in 4K dank DLSS Performance eh schon eine sehr hohe Grundframerate hat. Entsprechend geringer ist die Herausforderung an einen solchen Algoritmus da man ja schon eine recht hohe zeitliche Abtastung hat.

Was für spätere lower end Hardware aber auch interessant werden kann ist: was passiert denn mit 30@60fps?

- Wie sehen dort Bildartefakte aus?
- juddert es?

Entweder durfte man das nicht oder man hat nicht dran gedacht. Klar ist es nett einen hohen dreistelligen fps Betrag durch das Verfahren zu bekommen. Aber: von 30 auf 60 fps ist IMO viel interessanter weil das Budget oder low TDP Hardware Einsatzzwecke beschreiben würde was in Summe mehr User betreffen kann.

Machen könnte man das auch mit einer 4090: 16K mit DSR und höchstem DLSS Preset und/oder untertakten.

Was mich gewundert hat, dass das HUD zu Bildartefakten geführt hat. Man hat doch Zugriff auf den Framebuffer vor HUD und PPFX - das dürfte völlig unnötig sein. Ggf. hat man hier auf den falschen Buffer zugegriffen.


Was komplett offen, aber gewiss der Knackpunkt bei DLSS 3 ist: der Einsatz bei "normalen" Bildraten. 120 Fps sind schön. Aber was passiert, wenn ich nur 30 echte Frames habe, die auf 60 aufgeblasen werden? Dann werden die dazugedichteten Frames deutlich länger angezeigt, die Abstände von Objekten in Bewegung nehmen deutlich zu und das Verfahren wird öfter versagen. Vor allem wirkt sich hier der potenziell höhere Lag fühlbar aus - aber es scheint ja Spiele zu geben, wo man das mittels Reflex egalisieren kann. Spannende Zeiten, so und so.

MfG
Raff

Ich habe jetzt erst diesen Teil des Postings gelesen. Ich sehe wir ticken sehr ähnlich.

Lange Rede kurzer Sinn:
Interessantes Verfahren und interessantes Video - aber IMO enttäuschend wie es nur die best cases betrachten durfte und wie es nicht kritisch sein durfte. Ich mag DF und insbesondere Alex aber ich finde, sie haben ein Stück ihrer Integrität damit verkauft haben.

Die Art wie NV seine Partner zu solchen Sachen zwingt und Puzzlestücke wie GPP oder das Ausscheiden von EVGA setzen sich alle zu einem konsistenten Bild zusammen IMO.

Tangletingle
2022-09-29, 09:45:36
Ich dachte es liegt an der flow engine die mit der neuen Generation aufgebohrt wurde und nicht an den Matrixunits.

dildo4u
2022-09-29, 09:48:59
Das Gemeckere kommt vor allem daher, dass Nvidia eben wieder einen auf Nvidia macht, sprich: die Eintrittskarte kostet, keine Charity-Veranstaltung. ;) Ein hohes Maß an Innovation erfordert Opfer. Nvidia trifft in diesem Kontext gerne unpopuläre, proprietäre Entscheidungen.

Aber schauen wir mal, ob Nvidia DLSS 3 später doch öffnet - zumindest für Ampere, denn da sollte mindestens GA102 genug Tensor-Leistung haben.

MfG
Raff
Nicht nur das die Tech ist nutzlos wenn die Hardware nicht in der Lage ist die nötige Grund Performance zu bieten.
Das heißt eine möglich 4050 kann so langsam sein das sie bei Unreal Engine 5 Game keine 60fps stemmt wenn es für 30fps auf PS5 ausgelegt ist.(siehe Matrix Demo)
Das heißt das Bild ist unscharf da von 720p skaliert wird und die "60"FPS fühlen sich wie Grütze an da die Latenz zu hoch ist.
Das wird die 4060 "lösen" aber zu einem absurden Preis.

Gast
2022-09-29, 09:49:36
Wobei, schließt man eine 4090 mit DLSS 3 an einen FullHD/60hz Monitor an, VSync und bam! hat man wahrscheinlich die sparsamste Grafikkarte der Welt :freak:

DLSS3 funktioniert nur ohne VSYNC.

robbitop
2022-09-29, 09:54:58
Das Gemeckere kommt vor allem daher, dass Nvidia eben wieder einen auf Nvidia macht, sprich: die Eintrittskarte kostet, keine Charity-Veranstaltung. ;) Ein hohes Maß an Innovation erfordert Opfer. Nvidia trifft in diesem Kontext gerne unpopuläre, proprietäre Entscheidungen.

Aber schauen wir mal, ob Nvidia DLSS 3 später doch öffnet - zumindest für Ampere, denn da sollte mindestens GA102 genug Tensor-Leistung haben.

MfG
Raff
Ich würde jede Wette eingehen, DLSS 3 Framegeneration läuft auch auf Ampere. Und auch nicht zu langsam. So viel schneller sind die Tensor Cores auf Lovelace jetzt nicht geworden und wenn man die Tensorcore Leistung von GA102 mit dem ggf. kleinsten Lovelace AD106/7(?) vergleichen wird, sollte GA102 da massiv vorn liegen und dennoch wird es wahrscheinlich auf kleinen Lovelace GPUs laufen.
Auch der Flow Accelerator war ja schon verbaut. Aber man will Ampere loswerden und Lovelace zu hohen Preisen verkaufen.

Mich würde nicht wundern, wenn T239 (wohl die next gen Switch SoC basierend auf A78E und Ampere) Frame Generation unterstützen und nutzen wird.

Gast
2022-09-29, 09:55:13
Aber schauen wir mal, ob Nvidia DLSS 3 später doch öffnet - zumindest für Ampere, denn da sollte mindestens GA102 genug Tensor-Leistung haben.



Ampere fehlt der 8bit-Modus mit nochmals verdoppeltem Durchsatz, je nachdem wieviel dieser zum Einsatz kommt könnte es schon an der reinen Tensor-Leistung fehlen.

Viel mehr fehlt Ampere aber der aufgebohrte Optical Flow Generator.

Gast
2022-09-29, 09:59:58
Ich würde jede Wette eingehen, DLSS 3 Framegeneration läuft auch auf Ampere. Und auch nicht zu langsam. So viel schneller sind die Tensor Cores auf Lovelace jetzt nicht geworden und wenn man die Tensorcore Leistung von GA102 mit dem ggf. kleinsten Lovelace AD106/7(?) vergleichen wird, sollte GA102 da massiv vorn liegen und dennoch wird es wahrscheinlich auf kleinen Lovelace GPUs laufen.

FP8 ist auf AD102 ca. 5x schneller als auf GA102, bei AD104 sind es immer noch deutlich mehr als doppelt so schnell. Fraglich wie weit Ada runtergeht, aber wenn wir bei AD106 von einer weiteren Halbierung von AD104 ausgehen, bleibt immer noch mehr als bei GA102 übrig.

Was aber die Framegeneration mit der Geschwindigkeit erst ermöglicht ist der Optical Flow Generator, den es zwar auch seit Turing gibt, der aber mit Ada deutlich beschleunigt wurde.

robbitop
2022-09-29, 10:05:19
Sagt zumindest Nvidia ohne Details zu nennen. Wie gesagt ich würde mich wundern, wenn es auf GA102 nicht wenigstens so gut laufen würde wie auf einem low level AD106/07. Wenn es etwas weniger bringt wäre es ja ggf. immer noch sinnvoll. Hier ist sicherlich auch Kalkül mit im Spiel.

Das entsprechende SDK für Ampere und Turing gab es ja bereits schon lange und scheint auch für Frameverdopplung (allerdings von Videomaterial) genutzt worden zu sein. Und ich hatte auch von einer ähnlichen Anwednung von Optical Flow Acceleration im Zusammenhang mit VR und der Erhöhung der Framerate gehört. Für Ampere.

edit hier aus 2021:

Optical Flow SDK 3.0 enables DirectX 12 applications to use the NVIDIA Optical Flow engine. The computed optical flow can be used to increase frame rate in games and videos for smoother experience or in object tracking. To increase the frame rate, Frame Rate Up Conversion (FRUC) techniques are used by inserting interpolated frames between original frames. Interpolation algorithms use the flow between frame pair(s) to generate the intermediate frame.

https://developer.nvidia.com/blog/whats-new-in-optical-flow-sdk-3-0/

Funktioniert auf Turing und Ampere

wolik
2022-09-29, 10:08:56
Was für spätere lower end Hardware aber auch interessant werden kann ist: was passiert denn mit 30@60fps?

- Wie sehen dort Bildartefakte aus?
- juddert es?

Entweder durfte man das nicht oder man hat nicht dran gedacht. Klar ist es nett einen hohen dreistelligen fps Betrag durch das Verfahren zu bekommen. Aber: von 30 auf 60 fps ist IMO viel interessanter weil das Budget oder low TDP Hardware Einsatzzwecke beschreiben würde was in Summe mehr User betreffen kann.

Machen könnte man das auch mit einer 4090: 16K mit DSR und höchstem DLSS Preset und/oder untertakten.


Es ist viel wichtiger stabiles 30/60 FPS zu haben und was noch wichtige bei 60 FPS UND DLSS 3.0 Stromverbrauch von Graka stark zu reduzieren.
400 FPS können mir gestohlen bleiben.

Ich würde jede Wette eingehen, DLSS 3 Framegeneration läuft auch auf Ampere. Und auch nicht zu langsam. So viel schneller sind die Tensor Cores auf Lovelace jetzt nicht geworden und wenn man die Tensorcore Leistung von GA102 mit dem ggf. kleinsten Lovelace AD106/7(?) vergleichen wird, sollte GA102 da massiv vorn liegen und dennoch wird es wahrscheinlich auf kleinen Lovelace GPUs laufen.
Auch der Flow Accelerator war ja schon verbaut. Aber man will Ampere loswerden und Lovelace zu hohen Preisen verkaufen.

Mich würde nicht wundern, wenn T239 (wohl die next gen Switch SoC basierend auf A78E und Ampere) Frame Generation unterstützen und nutzen wird.
Nach zwei Jahren gibt immer noch kein klares Antwort wieviel RT+Tensor Core in gesamten Transistoren Budget GPU ausmachen.
Man hat jetzt von 25 auf 75 Mlrd. Transistoren GPU erhöht. Und ich denke vielfaches wurde Tensor Core vergrößert.
DLSS 3.0 natürlich kann auch auf 3090 laufen. Nur Ergebnis wird (vermutlich) sehr schlecht.

robbitop
2022-09-29, 10:22:16
Es ist viel wichtiger stabiles 30/60 FPS zu haben und was noch wichtige bei 60 FPS UND DLSS 3.0 Stromverbrauch von Graka stark zu reduzieren.
400 FPS können mir gestohlen bleiben.


Nach zwei Jahren gibt immer noch kein klares Antwort wieviel RT+Tensor Core in gesamten Transistoren Budget GPU ausmachen.
Man hat jetzt von 25 auf 75 Mlrd. Transistoren GPU erhöht. Und ich denke vielfaches wurde Tensor Core vergrößert.
DLSS 3.0 natürlich kann auch auf 3090 laufen. Nur Ergebnis wird (vermutlich) sehr schlecht.

Das bleibt erstmal abzuwarten. Ich wäre da sehr skeptisch ob das Ergebnis besonders schlecht ist. Fixed function Hardware ist ja da und auch nicht gerade schwachbrüstig in den Top SKUs. Und es bleibt abzuwarten wie viel fixed function hardwareleistung das wirklich frisst. Das kann man ja pro Frame im nvperf tool nachschauen und man wird es sich anschauen können bei low tier Lovelace GPUs nächstes Jahr. Wenn es da immernoch die Frames verdoppelt trotz einem Bruchteil der Performance wird die Skepsis weiter wachsen.

Dazu kommt: gerade wenn man niedrigere Frameraten verdoppeln will. Sagen wir von 30->60 oder von 40->80. Hat man ja auch ein Vielfaches der Frametime Zeit ggü 120->240 wie jetzt mit der 4090 gezeigt. Ggf. ist es bei sehr hohen Frameraten nicht mehr sinnvoll. Aber ich wäre mehr als skeptisch wenn es nicht einen guten Teil des Spektrums gäbe, wo es sinnvoll wäre.

Das Optical Flow SDK 3.0 hat die Frameverdopplung schon für Turing und Ampere angeboten für DX12 API. Ggf. war das in 2021 noch nicht so ausgefuchst wie das Verfahren was jetzt in DLSS 3 ist - aber es wird davon sicherlich abstammen. Ist zumindest ein Indiz dafür, dass es auch sinnvoll für wenigstens eine Teilmenge der GPUs und eine Teilmenge des fps Spektrums wäre.

robbitop
2022-09-29, 10:36:22
Was 30@60fps angeht mit diesem oder anderen Verfahren. Ich sehe da vor dem geistigen Auge:

endlich auch mal 60 fps Spiele ODER mehr Akkulaufzeit:
1. Nintendo Switch 2
2. Steam Deck Nachfolger (ggf. mit einem offenen Verfahren von AMD*)
3. Konsolen
4. Thin and Light Laptops

Ein gutes Framegenerationverfahren ist sicherlich viel hilfreicher (aber auch herausfordernder) für niedrige Frameraten weil es viel mehr User betrifft als die Käufer von GPUs >1.000 USD die dann niedrige dreistellige Frameraten verdoppeln.

*man wird sicherlich schon dran arbeiten. Wenn man blickig war bei AMD hat man das schon kommen sehen. Optical Flow SDK gibt es ja schon lange und seit 2021 auch mit Schnittstelle für DX12 Games und seit grob ~1 Jahr reden auch schon Branchenexperten davon, dass Framedoubling der nächste Schritt ist.

why_me
2022-09-29, 10:59:32
Laut Nvidia soll es bei Ada Änderungen an der Optical Flow HW gegeben haben, die DLSS3 erst ermöglichen würde. Ob das wirklich stimmt, werden wir sehen müssen. Falls sich die Lager der 30er Karten nicht schnell genug leert, wird man es sicher auch auf Ampere lauffähig bekommen um die Verkäufe zu puschen.

Zum Thema DLSS3 Stromverbrauch, wird Frame/Watt jetzt eigenltich die neue Sau, die durch Dorf gejagt wird? Wie es damals MinFPS, Frametimes, Inputlag... etc waren, bis AMD nachgezogen ist, dann wird es plötzlich uninteressant, bzw nicht mehr so prominent getestet?

Der Gewinn von DLSS3 (längere Balken) steht mMn. einem haufen möglicher Nachteile gegenüber, bei denen ich mir nicht vorstellen kann, das Nvidia diese alle in den Griff bekommen wird, bzw es wie bei DLSS2 dann einen Wildwuchs an DLLs geben wird, die mal gut und mal schlecht funktionieren werden. Bedeutet aber auch, dass es deutlich mehr Parameter im vergleich zu DLSS2 sind, die Nvidia mit DLSS3 in den Griff bekommen muss... Mal abwarten, wie sich das entwickelt.

Gast
2022-09-29, 12:16:58
Was 30@60fps angeht mit diesem oder anderen Verfahren. Ich sehe da vor dem geistigen Auge:


30 --> 60 ist mit der Latenz uninteressant.
Ab so 50 --> 100 fängt es an interessant zu werden.

Frame-Generation eignet sich (zumindest in derartiger Form) nicht um von unspielbar in Spielbar zu kommen, die eignet sich nur um schon spielbare FPS weiter zu pushen und das spiel flüssiger und vor allem schärfer (Motion Blur vom Monitor) darzustellen.

Ben Carter
2022-09-29, 13:03:08
Ich muss sagen, DLSS3 ist bisher das erste DLSS, das ich wirklich interessant finde. Die Erhöhung des Inputlags kratzt mich persönlich jetzt gar nicht.

Mit dieser Technologie sollte eigentlich auch richtigen Motion Blur irgendwann möglich sein. Man hält einen Frame sowieso schon zurück, das heißt, man kann das Motion Blur auf den vorhergehenden Frame draufrechnen. Auf dem "Zwischenframe" sowieso auch und wenn man mit den Motion Vectors in die Zukunft rechnet, dann sollte man es ordentlich hinbiegen. Für Motion Blur ist ja keine extrem hohe Genauigkeit notwendig. Für den Bildschirmrand könnte man es sicherlich auch lösen, indem das berechnete Bild etwas größer ist, als das ausgegebene Bild. Kostet zwar wiederum etwas Performance, aber wirklich gut umgesetztes Motion Blur + DLSS3 Framedoubling sollte locker ausreichen, um am Ende ein wesentlich flüssigeres Ergebnis zu liefern.

Allerdings wird das natürlich nicht für alle Spiele gut funktionieren, denn in manchen ist es sicherlich einfach nur nervig. Aber wenn man einen "filmischen" Look schaffen will, wäre das eine Möglichkeit.

lg Ben

Gast
2022-09-29, 13:08:13
Mit dieser Technologie sollte eigentlich auch richtigen Motion Blur irgendwann möglich sein. Man hält einen Frame sowieso schon zurück, das heißt, man kann das Motion Blur auf den vorhergehenden Frame draufrechnen.


"Richtigen" Motion Blur braucht man nicht berechnen.
Richtiger Motion Blur entsteht ganz automatisch wenn die Framerate hoch genug ist, und ja dazu kann DLSS3 natürlich beitragen.
Richtiger Motion Blur beinhaltet eben auch, dass es weniger/keinen Blur gibt, wenn man das bewegte Objekt mit den Augen verfolgt, und das geht nicht wenn man den Motion Blur bereits ins Bild reinrechnet, sondern nur wenn dieser durch die Relative Bewegung zwischen Objekt und Auge "in Echt" entsteht.

Jeglicher berechneter Motion Blur ist per definition nicht "richtig" sondern entweder künstlerische Freiheit und/oder eine Methode eine nicht ausreichende Framerate flüssiger erscheinen zu lassen als sie eigentlich ist.

why_me
2022-09-29, 13:15:20
Wer will denn freiwillig Motion Blur haben? :confused:

robbitop
2022-09-29, 13:30:01
Laut Nvidia soll es bei Ada Änderungen an der Optical Flow HW gegeben haben, die DLSS3 erst ermöglichen würde.
Der AI SVP von NV hat längst gesagt, dass es auf Ampere machbar wäre aber angeblich nicht schnell genug. Anhand obiger Indizien bezweifle ich zumindest, dass es nicht ein Teilspektrum an Ampere GPUs und Situationen gibt, wo das sinnvoll funktioniert.

Ob das wirklich stimmt, werden wir sehen müssen. Falls sich die Lager der 30er Karten nicht schnell genug leert, wird man es sicher auch auf Ampere lauffähig bekommen um die Verkäufe zu puschen.
Macht auch nach Ampere Verkauf noch Sinn um Amperebesitzer zum Kauf von Lovelace zu animieren. Wäre ich NV CEO würde ich das genauso machen. :D


Zum Thema DLSS3 Stromverbrauch, wird Frame/Watt jetzt eigenltich die neue Sau, die durch Dorf gejagt wird? Wie es damals MinFPS, Frametimes, Inputlag... etc waren, bis AMD nachgezogen ist, dann wird es plötzlich uninteressant, bzw nicht mehr so prominent getestet?

IMO bei Desktop GPU sekundär. Aber für mobiles Gaming total interessant. Schaue dir Formfaktoren wie Switch oder Steamdeck an. Oder thin and lights. Da hat der SoC 15W. Wenn du die Framerate für kaum Energie verdoppeln kannst, wäre das in diesen eingeschränkten Szenarien schon ziemlich hilfreich. Auf einmal bekommst du 60 fps wo es vorher nur 30-40fps gab. Für gleiche TDP. Oder du kannst deine TDP senken und bekommst mehr Akkulaufzeit.

Je nach dem wie auslastend die Spiele sind bekommst du in dem Formfaktor ~2-3h Spielzeit. Eine weitere Stunde würde es IMO genug machen, dass man praktisch nicht mehr limitiert ist.

robbitop
2022-09-29, 13:33:18
30 --> 60 ist mit der Latenz uninteressant.
Ab so 50 --> 100 fängt es an interessant zu werden.

Frame-Generation eignet sich (zumindest in derartiger Form) nicht um von unspielbar in Spielbar zu kommen, die eignet sich nur um schon spielbare FPS weiter zu pushen und das spiel flüssiger und vor allem schärfer (Motion Blur vom Monitor) darzustellen.

Ich glaube da muss man etwas differenzieren. Man stelle sich Joypad basierte Plattformen vor. Da ist der Inputlag bereits mit 30 fps für die meisten Spiele schon echt in Ordnung und es ist prinzipiell spielbar. Auch ohne Reflex. (Zumindest sehen die Massen an Konsolenkäufern das so :D)
Jetzt könnte man mit Reflex ggf den zusätzlichen Inputlag mitigieren und mit grob dem gleichen Inputlag das flüssigere Bild hinbekommen.
Oder aber die Hardware schafft 40 fps (was von der Frametime schon der halbe Weg zw 30 und 60 fps ist) und man bekommt es so smooth wie 80 fps. Dazu Reflex (oder was Ähnliches von AMD/Intel) und man hätte schon eine Verbesserung.
Genau die Szenarien sind IMO für die meisten Menschen viel interessanter.

robbitop
2022-09-29, 13:35:21
Ich muss sagen, DLSS3 ist bisher das erste DLSS, das ich wirklich interessant finde. Die Erhöhung des Inputlags kratzt mich persönlich jetzt gar nicht.

Mit dieser Technologie sollte eigentlich auch richtigen Motion Blur irgendwann möglich sein. Man hält einen Frame sowieso schon zurück, das heißt, man kann das Motion Blur auf den vorhergehenden Frame draufrechnen. Auf dem "Zwischenframe" sowieso auch und wenn man mit den Motion Vectors in die Zukunft rechnet, dann sollte man es ordentlich hinbiegen. Für Motion Blur ist ja keine extrem hohe Genauigkeit notwendig. Für den Bildschirmrand könnte man es sicherlich auch lösen, indem das berechnete Bild etwas größer ist, als das ausgegebene Bild. Kostet zwar wiederum etwas Performance, aber wirklich gut umgesetztes Motion Blur + DLSS3 Framedoubling sollte locker ausreichen, um am Ende ein wesentlich flüssigeres Ergebnis zu liefern.

Allerdings wird das natürlich nicht für alle Spiele gut funktionieren, denn in manchen ist es sicherlich einfach nur nervig. Aber wenn man einen "filmischen" Look schaffen will, wäre das eine Möglichkeit.

lg Ben
2x Frames bringt noch keine anständiges Motion Blur. Außerdem gibt es viel viel effizienteres per object motion blur heutzutage was mit viel mehr samples viel günstiger arbeitet.

Aber grundsätzlich kann es uns nach oben hin (wie DF es andeutet) auch mittel/langfristig die 1000 hz und fps Ära bringen. Dort gäbe es praktisch keinen wahrnehmbaren hold type blur mehr. Gestochen scharfe Bewegtdarstellung ohne Lichtverlust bei BFI.

Wer will denn freiwillig Motion Blur haben? :confused:
Die meisten Leute setzen Motion Blur mit Motion Trail gleich. Echtes Motion Blur ist praktisch Super Sampling auf der zeitlichen statt der räumlichen Achse. Das sieht gut aus. Schau dir das per object motion blur von Waffen bei den modernesten Doom oder Wolfensteintiteln an. Das sieht wirklich gut aus - besser als ohne. Motion trail hingegen ist einfach nur sinnlose Suppe - und ja das hingegen saugt.

Ben Carter
2022-09-29, 13:37:24
Wer will denn freiwillig Motion Blur haben? :confused:
Kommt eben auf das Spiel an. Aber richtiges Motion Blur ist mit dem, was wir aktuell bekommen ja nicht wirklich vergleichbar.

Gast
2022-09-29, 13:54:15
Die meisten Leute setzen Motion Blur mit Motion Trail gleich. Echtes Motion Blur ist praktisch Super Sampling auf der zeitlichen statt der räumlichen Achse.


Zeitliches Supersampling = mehr FPS, also genau das was DLSS3 eh macht.

Künstliches Blur ist da (außer wenn aus ästhetischen Gründen gewünscht) nicht sinnvoll, und lediglich eine Limitierung von zu wenig FPS.

Und mehr FPS erzeugen gleichzeitig realistisches Motion Blur und höhere Bewegtbildschärfe, ganz so wie räumliches Supersampling auch die Bildschärfe erhöht.

robbitop
2022-09-29, 14:01:56
Mehr FPS ist mehr zeitliche Auflösung. Motion blur ist im prinzip dann super sampling. Wenn der Monitor sagen wir mal nur 60 Hz kann, bringt dir 120 fps nichts. Oder er kann 120 Hz aber du hast 300 fps.
Ich finde es sieht schon deutlich anders aus. Damit das aber sinnvoll funktioniert, reicht Faktor 2 IIRC nicht aus. Alex Bataglia hat das mal für Halo 1 gezeigt. Da hatte er >300 fps und hat entsprechend mit motion blur deutlich down gesampelt. Keine Ahnung auf 60 fps oder so? Und es sah schon sehr sehr nett und ziemlich destinct aus. Aber wie gesagt, gibt es viel viel effizienteres per object motion blur insofern ist das eh eine sehr praxisirrelevante Diskussion.

crux2005
2022-09-29, 18:02:33
Was für spätere lower end Hardware aber auch interessant werden kann ist: was passiert denn mit 30@60fps?

IMHO ist aktuell Frame Generation in DLSS3 für <60 FPS nicht geeignet.

1.) zu große Abstände zwischen den Frames.
2.) auch mit Reflex zu großer Inputlag.

Ex3cut3r
2022-09-29, 18:41:32
Glaube für unter 60 FPS ist Frame Generation nicht geeignet.

1.) zu große Abstände zwischen den Frames.
2.) auch mit Reflex zu großer Inputlag.

Verstehe stand jetzt nicht, wofür man diese Tech eingeführt hat. Mit einer 4090 hast du spätestens mit DLSS Q in 4K eigentlich immer über 144 FPS/HZ. Ich komme schon heute mit einer 3080 Ti und DLSS Q-P regelmäßig auf 90-120 FPS

Grade wenn die Karte älter wird, sagen wir mal 5 Jahre, wäre DLSS 3 nun interessant, einfach die 30 FPS in einem AAA Unreal Engine 5 Spiel auf 60 FPS beschleunigen. Doch unter 60 FPS ist diese Technologie vermutlich zu fehlerbehaftet. Sodass man dann auch wieder drauf verzichet. Also braucht man zum rls die Tech nicht, da die Karte auch schon so sau schnell ist, und in Zukunft wird die Karte grade dann wenn man es braucht, zu langsam sein um Artefaktfrei zumindest großenteils darzustellen.

Meiner Meinung nach hätte sich Nvidia eher auf eine weitere Verbesserung von DLSS 2 konzentrieren sollen.

Dampf
2022-09-29, 18:42:40
Verstehe stand jetzt nicht, wofür man diese Tech eingeführt hat. Mit einer 4090 hast du spätestens mit DLSS Q in 4K eigentlich immer über 125 FPS/HZ. Ich komme schon heute mit einer 3080 Ti und DLSS Q-P regelmäßig auf 90-120 FPS


Keine Sorge, Nvidia wird genug Overdrive Modes in die Spiele hauen, um deine 3080Ti unter 60 FPS zu zwingen :tongue:

Ex3cut3r
2022-09-29, 18:46:38
Die ich aber nicht nutzen werde, ich spiele schon jetzt nur mit RT Medium in CP77 :tongue:

crux2005
2022-09-29, 19:12:13
Verstehe stand jetzt nicht, wofür man diese Tech eingeführt hat.

Ich glaube für HRR Monitore. Ansonsten wären 120Hz+ mit RT schwer zu stemmen.

Robbitop hat auch eine interessante Ansicht. Jetzt mit Ada die Tech (DLSS 3 FG) einführen, später kann es ja auch für die Massen interessant werden. Die Konsolen haben mit 30 FPS auch einen hohen Inputlag. Wenn da DLSS 3 mit FG immer noch +- den gleichen Inputlag aber 60 FPS oder sogar mehr auf den OLED zaubern, reicht es wohl für die Massen.

robbitop
2022-09-29, 19:20:24
Glaube für unter 60 FPS ist Frame Generation nicht geeignet.

1.) zu große Abstände zwischen den Frames.
2.) auch mit Reflex zu großer Inputlag.
Und worauf basiert diese Annahme? Glauben? Noch gibt es keine Tests und somit keine Substanz.

ChaosTM
2022-09-29, 19:22:35
Frame Creation ohne Artefakte wird tricky. Bin schon sehr gespannt.
Der Lag erhöht sich auch zwangsweise.

blaidd
2022-09-29, 19:33:08
[...]später kann es ja auch für die Massen interessant werden. Die Konsolen haben mit 30 FPS auch einen hohen Inputlag. Wenn da DLSS 3 mit FG immer noch +- den gleichen Inputlag aber 60 FPS oder sogar mehr auf den OLED zaubern, reicht es wohl für die Massen.

Hab mich vor zwei Wochen oder so mit dem technischen Vize-Vorsitzenden einer größeren britischen Tech-Firma (Endava (https://www.endava.com/de-DE), ~12.000 Mitarbeiter weltweit) über etwas mehr als eine Stunde über kommende Techniken/KI/Meta-Verse/AR/VR unterhalten (das sind ihre Spezialgebiete, die haben unter anderem virtuelle Museums-Touren und AR-unterstütze Führungen etc. umgesetzt und arbeiten als Berater bzw. Service-Dienstleister für andere große Unternehmen).

Um's kurz zu machen: Ich denke, das kommt sowieso. Gerade für die Massen (da ist Nvidia mit ihren Exklusiv-Geschichten ja aber auch in gewisser Weise immer selbst-gehandicapt - dusseliger Weise, meines Empfindens. Ja, "Teile und Herrsche" funktioniert auch bei Märkten, siehe Apple und das bekommt Nvidia ja auch ganz gut hin, aber mit sowas landet man halt auch oft in der Sackgasse, wenn der restliche Markt andere Wege geht oder einen auch nur einholt). Nach dem, was ich da so gehört habe, gibt es eine ganze Reihe solcherart Vornehmen. Insbesondere auch, was AI-Asset-/und Content Creation betrifft, sowie sowas wie Interpolation und Interpretationen von bereits existierendem Content (z.B. Animationen, Wegfindung, lernfähige NPCs...).

Nvidia hat da allerdings (zumindest meines Erachtens, allerdings bin ich da auch nicht sooo tief drin, dass ich bezüglich KI-Entwicklung etc. den vollsten Durchblick hätte) einen Zeit-/bzw. Entwicklungsvorteil. Den nutzen Sie natürlich nach bester Möglichkeit. Bei DLSS 2.x sind sie aber z.B. gerade schon dabei, den zu verlieren. Gibt nicht mehr wirklich einen Grund, DLSS gegenüber anderen Techniken zu bevorzugen (XeSS hat noch ein paar Macken und ist bei sowohl AMD und Nvidia teuer, aber das ist wohl nur eine Frage der Zeit und FSR 2.0 ist schon auf sehr ähnlichen Level - und beide sind nicht exklusiv, wie DLSS sogar für ältere Nvidia-Karten. FSR 2.0/XeSS funktionieren auch noch auf einer GTX 970), der "Luxus-" bzw. "Exklusiv-Aspekt" davon ist jetzt nahezu nicht mehr vorhanden. Da musste jetzt also im Grunde auch was kräftig neues kommen.

crux2005
2022-09-29, 19:43:29
@blaidd: Ja, ergibt Sinn. :)

Und worauf basiert diese Annahme? Glauben? Noch gibt es keine Tests und somit keine Substanz.

Habe meine Aussage noch verbessert.

Die DF Preview. Sind auf beides eingegangen. Die AI kann nur interpolieren und wenn "etwas" neues im 2. Frame gerendert wird was im 1. Frame fehlt, kann die AI sich das nicht eben "ausdenken". Bei größeren Abständen ist die Gefahr dass das passiert größer.

Den Inputlag hat DF angegeben. Bei CP77 hat NV geleaked das sie ~60 FPS im Worstcase(?) schaffen. Wenn er nur annähernd linear skaliert ist es mit 30 FPS für PC Spieler zu viel. Das ist aber nur eine persönliche Meinung. Viele finden auch 30 FPS als sehr gut spielbar.

aufkrawall
2022-09-29, 19:45:55
Ich find die Reflex-Werte von DF teilweise seltsam, ich würde da unabhängigen Input to Pixel-Messungen von Battle(non)sense eher glauben. Hoffe, er wird das mit DLSS 3 machen.

blaidd
2022-09-29, 19:55:47
Ich find die Reflex-Werte von DF teilweise seltsam, ich würde da unabhängigen Input to Pixel-Messungen von Battle(non)sense eher glauben. Hoffe, er wird das mit DLSS 3 machen.

Wie haben die das gemessen? Hab mir das noch nicht so genau zu Gemüte geführt...

"Mechanischen" Messungen wie z.B. mit (Nvidias) FCAT/LDAT würde ich weitgehend trauen, wenn die nicht total seltsam wären... Die könnte man auch überprüfen

(Nvidias) Frameview dagegen ist ein bisschen eine andere Sache. Dem Ding traue ich nicht so ganz. Das basiert zwar auf Presentmon und diesen Daten würde ich tendenziell auch vertrauen (wäre auch easy, die zu überprüfen) aber da gibt es "spezifische" Auslese-Arten für etwa GPU-Latenz und -Leistungsaufnahme.

Die sind NICHT! (direkt) mit den "geschätzten" Latenzen und Leistungsaufnahmen von Presentmon vergleichbar(die man z.B. mit anderen Tools auslesen kann, aber eben auch nur geschätzt sind) - habe ich explizit erfragt. Und Nvidia unterscheidet z.B. in Frameview schon mal zwischen einer AMD- und Nvidia-GPU.

Ich unterstelle ausdrücklich nichts, aber das ist aus meiner Sicht nicht kosher. Ich habe keine Ahnung, woher Nvidia die Werte da bekommt, wie sie eventuell interpretiert werden und habe auch keine wirkliche Möglichkeit, die zu überprüfen (jedenfalls kann ich sie nicht genau reproduzieren). Und dass Nvidia aktuell so sehr darauf bedacht ist, uns Messen mit ihren selbstentwickelten Tools beizubringen, finde ich auch etwas dubios.

Solange ich da keinen besseren Einblick habe oder sich unabhängige den Source-Code genau angesehen haben, kommt mir das jedenfalls nicht auf den Test-Rechner.

Troyan
2022-09-29, 20:03:13
NVIDIA Reflex Analyzer sollte doch vollkommen ausreichend sein, um Latenz zu messen: https://www.nvidia.com/en-us/geforce/news/reflex-latency-analyzer-360hz-g-sync-monitors/

aufkrawall
2022-09-29, 20:34:16
Bei Battle(non)sense reduziert Reflex trotz ~144fps in Fortnite und Apex Legends den Input Lag massiv:
https://youtu.be/7DPqtPFX4xo?t=901

Bei DF deckt sich das nur in CP77. Bei Spiderman kann man es so erklären, dass das bereits im CPU-Limit läuft und hier Reflex fast nichts mehr bringt.
Aber dann muss man schon sehr klar zwischen CPU- und GPU-Limit unterscheiden. Es drängt sich der Verdacht auf, dass der Sinn der fps-Verdopplung <120fps nativ bzw. DLSS 2 als Basis massiv abnimmt. Sei es wegen Input Lag, als auch wegen Grafikfehlern.

crux2005
2022-09-29, 20:46:47
Es drängt sich der Verdacht auf, dass der Sinn der fps-Verdopplung <120fps nativ bzw. DLSS 2 als Basis massiv abnimmt. Sei es wegen Input Lag, als auch wegen Grafikfehlern.

Und worauf basiert diese Annahme? Glauben? Noch gibt es keine Tests und somit keine Substanz.

:D

robbitop
2022-09-29, 20:53:04
@blaidd: Ja, ergibt Sinn. :)



Habe meine Aussage noch verbessert.

Die DF Preview. Sind auf beides eingegangen. Die AI kann nur interpolieren und wenn "etwas" neues im 2. Frame gerendert wird was im 1. Frame fehlt, kann die AI sich das nicht eben "ausdenken". Bei größeren Abständen ist die Gefahr dass das passiert größer.

Den Inputlag hat DF angegeben. Bei CP77 hat NV geleaked das sie ~60 FPS im Worstcase(?) schaffen. Wenn er nur annähernd linear skaliert ist es mit 30 FPS für PC Spieler zu viel. Das ist aber nur eine persönliche Meinung. Viele finden auch 30 FPS als sehr gut spielbar.
Ich schrieb explizit von Gamepad als Inputgerät und nannte nicht Desktops. Der Massenmarkt findet den Inputlag von 30 fps ohne reflex und sogar auf TVs (wo das default setting oft nicht der gamemode ist) in Ordnung.
Die Hypothese war 30 fps mit dlss 3 (oder späterem Äquivalent) inkl Reflex (oder späterem Äquivalent) auf ein vergleichbaresy Gesamtinputlag level zu behalten aber mehr Frames zu generieren.


Ich sehe an aktueller Faktenlage bis dato noch nichts was dagegenspricht. Außer „glauben“. Entsprechend ist völlig unklar, wie gut das Verfahren in Bezug auf Artefakte ist bei 30 fps.

Ex3cut3r
2022-09-29, 20:53:49
Ich glaube für HRR Monitore. Ansonsten wären 120Hz+ mit RT schwer zu stemmen.

Robbitop hat auch eine interessante Ansicht. Jetzt mit Ada die Tech (DLSS 3 FG) einführen, später kann es ja auch für die Massen interessant werden. Die Konsolen haben mit 30 FPS auch einen hohen Inputlag. Wenn da DLSS 3 mit FG immer noch +- den gleichen Inputlag aber 60 FPS oder sogar mehr auf den OLED zaubern, reicht es wohl für die Massen.

Was ist HRR? :redface: Meinst du vlt. HFR ~ High Frame Rate.

Habe ich schon mit 240HZ. Kann ich außer in Doom Eternal und RE3 in keinen AAA Game der Letzen 4 Jahre ausfahren. Also konstante ~ 237FPS bzw. HZ

unl34shed
2022-09-29, 20:54:49
High Refresh Rate denke ich, also schnelle Monitore

Ex3cut3r
2022-09-29, 20:55:36
Ah. Danke.

aufkrawall
2022-09-29, 20:55:47
Ich sehe an aktueller Faktenlage bis dato noch nichts was dagegenspricht. Dagegen spricht das Latenz-Ergebnis von DF für CP77 im GPU-Limit, bei dem mit der fps-Verdopplung der Input Lag signifikant ansteigt. Das entspricht wohl eher der Realität mit teuren RT-Effekten als Spiderman, was seltsam gefräßig im CPU-Limit ist. Ggf. nimmt die Latenz mit der fps-Verdopplung im CPU-Limit deutlich weniger zu.

Edit: Ok, eigentlich ist das Spiderman-Ergebnis auch nicht so prickelnd. Bei "200fps" den Input Lag von ~70fps? Na ja...

ChaosTM
2022-09-29, 20:56:58
Das ist zu erwarten. Gewisse Sachen lassen sich ohne überlichtschnelle Technologie einfach nicht umschiffen.

add.: wenns 1-3ms sind, ok.

Ex3cut3r
2022-09-29, 20:58:41
add.: wenns 1-3ms sind, ok.

Ist es laut DF nicht. Sondern teilweise schon heftig. Wenn man dann noch den DF Bias wegnimmt, sieht es vermutlich noch schlimmer aus.

https://abload.de/img/digitalfoundry-nvidiaxsekx.png

https://abload.de/img/digitalfoundry-nvidiar9fef.png

crux2005
2022-09-29, 21:05:49
Was ist HRR? :redface: Meinst du vlt. HFR ~ High Frame Rate.

Habe ich schon mit 240HZ. Kann ich außer in Doom Eternal und RE3 in keinen AAA Game der Letzen 4 Jahre ausfahren. Also konstante ~ 237FPS bzw. HZ
High Refresh Rate denke ich, also schnelle Monitore

Korrekt. HRR = high refresh rate.

Habe ich schon mit 240HZ. Kann ich außer in Doom Eternal und RE3 in keinen AAA Game der Letzen 4 Jahre ausfahren. Also konstante ~ 237FPS bzw. HZ

Dieses Problem will NV mit DLSS 3 "beseitigen".

Ist es laut DF nicht. Sondern teilweise schon heftig. Wenn man dann noch den DF Bias wegnimmt, sieht es vermutlich noch schlimmer aus.

https://abload.de/img/digitalfoundry-nvidiaxsekx.png

https://abload.de/img/digitalfoundry-nvidiar9fef.png

Glaube nicht das DF die Werte erfunden hat. Aber CP77 ist ein guter Anhaltspunkt weil wir grob die FPS einer 4090 im Markt kennen (hat NV selber geleaked - 59,9 in 1440p also grob 40+ in 4K).

40 FPS = 62ms Inputlag mit Reflex
160 FPS = 54ms Inputlag mit DLSS3 und Reflex

4x FPS aber ~gleicher Inputlag. SP Spielen wie CP77 oder FS2020 sind dafür Idealbeispiele.

btw: Ich empfand CP77 mit <80 FPS als nicht sehr "flüssig".

Ex3cut3r
2022-09-29, 21:08:25
Korrekt. HRR = high refresh rate.
Dieses Problem will NV mit DLSS 3 "beseitigen".


Klar. Aber, ich spiele ja nicht mit hoher HZ/FPS weil ich das Bild alleine so schön flüssig ausschaut, sondern weil der Input Lag auch sehr niedrig ist, und das Gefühl in der Hand mit der Maus richtig gut ist. Mit DLSS 3 ist das Bild zwar vermutlich ähnlich flüssig mit manchmal sichtbaren Artefakten, aber das Gefühl in der Hand bleibt aus. Stelle ich mir als totalen Mindfuck vor, wenn man richtiges high Refresh Gaming über Jahre mit guten Frametimes gewohnt ist. :biggrin:

Außerdem mal abwarten ob DLSS 3 mit VRR überhaupt kompatibel ist. Ich zocke jedenfalls nie wieder ohne VRR.

aufkrawall
2022-09-29, 21:09:26
In CP77 muss man in der Ego-Perspektive zielen. Deutlich mehr Input Lag (Reflex ist als neue Basis dann natürlich legitim) für mehr Smoothness + mehr Grafikfehler? Na ja...
Außer bei ggf. Simulationskram, ist mehr Input Lag eigentlich immer unschön. Selbst in Mobas will man das nicht.

crux2005
2022-09-29, 21:14:03
Klar. Aber, ich spiele ja nicht mit hoher HZ/FPS weil ich das Bild alleine so schön flüssig ausschaut, sondern weil der Input Lag auch sehr niedrig ist, und das Gefühl in der Hand mit der Maus richtig gut ist. Mit DLSS 3 ist das Bild zwar vermutlich ähnlich flüssig mit manchmal sichtbaren Artefakten, aber das Gefühl in der Hand bleibt aus. Stelle ich mir als totalen Mindfuck vor, wenn man richtiges high Refresh Gaming über Jahre mit guten Frametimes gewohnt ist. :biggrin:

Außerdem mal abwarten ob DLSS 3 mit VRR überhaupt kompatibel ist. Ich zocke jedenfalls nie wieder ohne VRR.

Ich kann mir das gerade auch nicht vorstellen. Vielleicht hat das flüssigeres Bild einen größeren Anteil daran was wir als "flüssiger" ansehen. Und der niedrigere Inputlag trägt auch einen Teil dazu bei aber weniger. Sie haben sicher eine Studie dazu gemacht.

In CP77 muss man in der Ego-Perspektive zielen. Deutlich mehr Input Lag (Reflex ist als neue Basis dann natürlich legitim) für mehr Smoothness + mehr Grafikfehler? Na ja...
Außer bei ggf. Simulationskram, ist mehr Input Lag eigentlich immer unschön. Selbst in Mobas will man das nicht.

Frame Generation kannst du separat abschalten.

DLSS 2.0 + Reflex sollte auch mit Turing und Ampere in CP77 gehen. Das wäre für mich schon ein Grund es mal zu spielen. Unter 80 FPS empfand ich es als sehr "lahm".

aufkrawall
2022-09-29, 21:18:13
Frame Generation kannst du separat abschalten.
Ist mir schon klar. DF testet halt eine freakin' 4090 mit DLSS Performance, also mit schon ziemlich hohen (locker dreistelligen?) fps. Jetzt stelle man sich vor, was mit dem Input Lag mit fps-Verdopplung passiert, wenn die Basis-fps "nur" 60 sind, etwa bei armen Losern mit einer RTX 4080 12GB...
:freak:

ChaosTM
2022-09-29, 21:19:36
Ex3cut3r 3-4ms wären ja noch (theoretisch rechnerisch gegangen).
Ohne VRR macht spielen wenig Spass, ja.

Wenn man die zusätzlichen Bilder haben will kostet das einfach..

Für high speed FPS wird das so bald nix werden*


*außer wir entdecken endlich 5/6 dimensionale, zeit-verlustfreie Kommunikation ;)

crux2005
2022-09-29, 22:24:35
Ist mir schon klar. DF testet halt eine freakin' 4090 mit DLSS Performance, also mit schon ziemlich hohen (locker dreistelligen?) fps. Jetzt stelle man sich vor, was mit dem Input Lag mit fps-Verdopplung passiert, wenn die Basis-fps "nur" 60 sind, etwa bei armen Losern mit einer RTX 4080 12GB...
:freak:

Ich gehe davon aus das die 4090 in 4K auch keine 60 FPS avg. geliefert hat. Falls sie im Markt mit Psycho RT gebenchmarked haben. Eher 40-45 FPS Bereich. Dann also 80-90 mit DLSS 2.x und erst 160-180 FPS mit 3.0 FG.

Die 16GB ist 0,5 langsamer und die 12GB noch mal 0,5.

4080 16G: ~26 FPS nativ, ~67 mit DLSS 2.x und ~104 mit DLSS 3
4080 12G: ~20 FPS nativ, ~52 mit DLSS 2.x und ~80 mit DLSS 3

Die Inputlag Werte der 4080 12G werden am interessantesten sein.

why_me
2022-09-29, 22:28:17
Laut wccftech schon.
https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/

crux2005
2022-09-29, 22:39:42
Laut wccftech schon.
https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/

1440p

DF ist 4K

Ex3cut3r
2022-09-29, 22:50:00
Jo. Das wird interessant wie kleinen Ada Chips das bewerkstelligen wollen. Also ich muss sagen, ich bin von DLSS 3 stand jetzt nicht begeistert, und das ganz ohne Neid/Hate Karte.

Klingt auf dem Papier einfach nicht so toll, wie es FSR 2.1 und DLSS 2 waren.
Ich kenn diese Technologie vom SVP (Smooth Video Project) und den TVs. Da gibt halt immer noch genügend Artefakte obwohl das mit Turing/Ampere und Optical Flow erheblich besser geworden ist, als früher. Und ich nur zuschaue.

Bei Spielen wo ich selber aktiv bin, finde ich den Gedanken einfach falsch, vor allem da das Gefühl des Flüssigen Bildes welches man sieht, wie gesagt nicht übereinstimmt mit dem Gefühl in der Hand. Das mag mit der Zeit sicherlich besser werden (DLSS 4) aber stand jetzt erscheint es mir das noch zu Beta.

mr coffee
2022-09-29, 23:30:19
Den größten Nutzen wird man wohl daraus ziehen, wenn die fps sowieso schon hoch sind, weil dann der zusätzliche lag nicht in‘s Gewicht fällt.