PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27

BTB
2021-02-14, 10:22:52
Freue mich drauf das in mehr VR Titeln zu sehen. Die Engine wird ja wohl doch hier und da verwendet.

Gast
2021-02-14, 11:05:50
@DaFreak666
Du hast die Aussage von Dampf nicht verstanden.

Sobald sich die Schärfe der Texturen bei der DLSS Implementation vom nativen Bild unterscheidet, hat der Entwickler den Leitfaden für die Integration von NVIDIA nicht beachtet.

Der vergleich ist insofern Sinnfrei, als dass man dann "natives" 4K gegen ein fehlhaft und

Solang man nur Standbilder vergleicht, ist ohnehin jeder Vergleich sinnbefreit.

Geldmann3
2021-02-14, 12:48:22
Mit dem DLSS-Plugin für die Unreal-Engine kann man übrigens den DLSS-Ultra-Qualität Modus aktivieren (https://www.youtube.com/watch?v=4JkHE48YptA), welcher intern ?in der nativen Auflösung? rendert. Es ist etwas versteckt, da das Setting nicht in den Viewport-Einstellungen nach außen geführt wird, doch es ist da. Was mich wundert ist, dass die Performance noch immer ein bisschen besser zu sein scheint als nativ. Doch da könnte ich mich auch täuschen.

y33H@
2021-02-14, 14:43:00
Cooler Fund! Hoffe, das wird künftig bei UE4-Titeln dann auch tatsächlich angeboten =)

EDIT

Ist auch in den Developer Guidelines drin, allerdings ohne weitere Infos.

74195

Gast
2021-02-15, 16:32:25
Metro Exodus Enhanced Edition gets NVIDIA DLSS 2.0 support and Advanced Ray Traced Reflections 😃

Source: https://videocardz.com/press-release/metro-exodus-enhanced-edition-gets-nvidia-dlss-2-0-support-and-advanced-ray-traced-reflections

Lurtz
2021-02-15, 21:11:10
Oh schön, DLSS 2.0 für Metro Exodus. Wobei die da ja heftig optimiert haben müssen wenn alles bis auf 2 Raytracing-Optionen auch auf den Konsolen laufen soll, selbst bei einem 30 fps-Target.

-/\-CruNcher-/\-
2021-02-15, 23:45:57
Jetzt gehts los es ist aus der Private Beta in den Public state

@Geldmann3
Naja das Video hier kann nur die Performance im Editor richtig wiederspiegeln mehr aber auch erstmal nicht
Das Dynamische hin und her switchen ist schon eine feine sache :)

mit der 3090 aber langweilig sollte sich aber auf jeder Tensor Ampere gleich verhalten 16-20 ms sprich scheinbar maximum 4 ms overhead Einsparung die in ~80 Watt ersparniss mit Ampere resultieren, wenn man das ganze umdreht ;).
Minimum Driver 461.40 wird wohl alle up2date weights haben

Dampf
2021-03-02, 15:17:25
Bisher hat man DLSS nur gegen TAA verglichen, was ja sowieso schon blurred.

Doch wie schlägt sich DLSS gegen ein rohes natives Bild ohne blurry AA? Findet es gemeinsam mit Alex von DF hier heraus:
https://www.youtube.com/watch?v=6BwAlN1Rz5I&feature=youtu.be

-/\-CruNcher-/\-
2021-03-02, 17:18:12
Nichts neues die 10 FPS der 2060 im Quality mode sind interessant scheint so als das Amperes Tensor doch nochmal + 10 FPS drauf legt

mit der 3070 scheinen es immer so um die + ~ 20 FPS im Quality mode sprich 50% mehr wenn ich mich nicht täusche

die 3070 ist aber ja nativ gesehen eher die 2080 Ti bzw mehr doch in Richtung 2080 Super der 1 zu 1 Vergleich wäre mal wünschenswert

aufkrawall
2021-03-02, 17:40:12
Bisher hat man DLSS nur gegen TAA verglichen, was ja sowieso schon blurred.

Als ob da bei manchen DLSS-Implementierungen nicht einfach obligatorisch nachgeschärft wird, oder warum blurt es in anderen Titeln ebenfalls wie "trad." TAA?

-/\-CruNcher-/\-
2021-03-02, 17:43:55
Frag mich warum er den Mip vergleich nicht gleich bei der Woodplank textur gleich am Anfang gemacht hat da ist der unterschied extreme fatal und sticht sofort ins Auge das Details futsch sind, im direkten non Psy Metric vergleich PSNR/RMSE würde das extreme schlecht aussehen.

Er geht aber gut auf die Motion Stability ein die nunmal eher König bei Games und allem was in Bewegung ist ist,allerdings scheint man bei dem Titel aber eh gefühlt 90% am Slashen da nimmt man eh nix mehr richtig wahr was da ausserhalb des ROI mitten vorm Gegner abgeht ;)

Allerdings ist auch da das Ergebnis eher nüchtern im Helm Vergleich der Blur unterdrückt das Reflection flickering einfach Reflection ist hier einfach viel zu low res sieht nichtmal wie 1024 aus ein direkter Spiegel vergleich wäre hier sehr viel effizienter.

https://abload.de/img/woodplanksdetail8mk27.jpg

Gast
2021-03-03, 11:08:38
Frag mich warum er den Mip vergleich nicht gleich bei der Woodplank textur gleich am Anfang gemacht hat

Vielleicht weil es eine extrem detailarme Textur ist?

Auf jeden Fall ist das Verhalten etwas seltsam, hier sieht man beispielsweise schön, dass für DLSS die korrekte Mip für die Zielauflösung verwendet wird:

https://youtu.be/6BwAlN1Rz5I?t=246

Kann es sein, dass das Spiel für verschiedene Oberflächen einen unterschiedlichen BIAS verwendet, und bei einigen vergessen wurde diesen an DLSS anzupassen?

Achill
2021-03-03, 23:01:58
Ich finde die Texturen haben die Qualität von einen 2014er Game für 3.5GB VRAM Karten - ich weiß nicht was das soll von DF. Schlimm ist dieser Nachzieheffekt, der später gezeigt wird ... muss jeder selber wissen.

Raff
2021-03-03, 23:23:50
Da wurde DLSS einfach halbgar implementiert. Nvidias Designrichtlinien besagen, dass man das MIP-Bias händisch anpassen muss, wenn man die Implementierung schnitzt. Dazu gab es mal irgendwo ein Video, das ich gerade nicht finde. Jedenfalls ist das mit Nioh 2 interessant, da man bisher sagte, dass ein Spiel TAA braucht, damit man DLSS einfach implementieren kann.

MfG
Raff

Gast
2021-03-04, 12:04:41
Jedenfalls ist das mit Nioh 2 interessant, da man bisher sagte, dass ein Spiel TAA braucht, damit man DLSS einfach implementieren kann.


Keiner sagt, dass man das braucht. Aber wenn man schon TAA hat, dann hat man in der Engine schon fast alle Voraussetzungen integriert, und wenn die Engine bereits TAA mit dynamic resolution scaling kann eigentlich alle.

-/\-CruNcher-/\-
2021-03-04, 16:29:14
Ich finde die Texturen haben die Qualität von einen 2014er Game für 3.5GB VRAM Karten - ich weiß nicht was das soll von DF. Schlimm ist dieser Nachzieheffekt, der später gezeigt wird ... muss jeder selber wissen.

Ghosting ist das tödlichste auch bei DLSS bei Cyberpunk totalversagen wenn die texturen richtig komplex werden vor allem opacity textures übereinanderliegen wirds immer sehr interessant auf der einen seite kämpfst du mit aliasing,noise und moire auf der anderen ghosting und dennoch willst du alles Kristallklar.

Nvidia wird die Tensor Cores immer besser effizienter auslasten

CRwqfSZaKOQ
Mal schauen die nächste Nvidia Arm Generation wird hier mehr Klarheit verschaffen was sie als Effizienzboost planen.
Bin gespannt wann wir Nvidias AI Texture Streaming Compression sehen werden vor oder nach Microsoft ;)

-/\-CruNcher-/\-
2021-03-14, 17:03:28
Crytek DLSS Adaption into CryEngine Finished

ENnklGyrp7Q


Unity Next on the Nvidia list

-/\-CruNcher-/\-
2021-03-17, 17:34:15
Wir gehen nun laut Nvidia auf 2x Performance zuwachs nur durch DLSS 2.0 zu im Idealfall

für 2x muss man lange optimieren

wir sehen hier faktisch 7-8 ms Pipeline overhead Reduzierung

1NsfqJPmhYY

Raff
2021-03-17, 17:37:35
Simple Mathematik. Mit dem DLSS-UP-Modus (der selbst in UHD ziemlich hässlich ist), geht das eben. Solange das Schmieren besteht, welches bei hohen Upscaling-Faktoren schlimmer wird, ist das nicht cool.

MfG
Raff

-/\-CruNcher-/\-
2021-03-17, 17:46:48
wir müssten demnach bei ~100W Reduzierung angelangt sein beim FPS lock

allerdings ist diese idealfall Darstellung doch sehr utopisch

dennoch ist es interessant mal zu schauen und zu vergleichen wie weit man mit Epics Gen2 TAAU kommt :)

robbitop
2021-03-18, 13:42:17
https://www.computerbase.de/2021-03/amd-fidelityfx-super-resolution-dlss-alternative-2021/


Man braucht dafür kein maschinelles Lernen, man kann das auf viele verschiedene Arten machen und wir evaluieren viele verschiedene Möglichkeiten.


AMD hat ja schon in 2020 verlauten lassen, dass es nicht auf AI basiert. IMO ist der neuste Podcast nochmal eine Bestätigung. Offenbar wird es doch anders funktionieren als NV's DLSS.

Ich kann mir aber kaum vorstellen, dass man um temporale Rekonstruktion herumkommen wird. Immerhin hat man das schon beim Checkerboard Rendering gemacht und die Informationen sind ja auch da.
Die Frage ist, wie gut ihr Clamping sein wird im Vergleich zu einem NN. Je besser das Clamping, desto mehr samples kann man beim jittering akkumulieren bevor es zu Artefakten kommt.

Dampf
2021-03-18, 14:09:49
Simple Mathematik. Mit dem DLSS-UP-Modus (der selbst in UHD ziemlich hässlich ist), geht das eben. Solange das Schmieren besteht, welches bei hohen Upscaling-Faktoren schlimmer wird, ist das nicht cool.

MfG
Raff

Gute Theorie, aber nein, das Spiel nutzt definitiv nicht den UP Modus. Das würde man sofort deutlich erkennen. Die Qualität ist sehr gut und trotzdem gibts einen Performance-Boost von rund 105%.

https://imgsli.com/NDQ4MDM

Ist echt seltsam, hab ich zuvor auch noch nicht gesehen.

blaidd
2021-03-18, 14:56:08
Gute Theorie, aber nein, das Spiel nutzt definitiv nicht den UP Modus. Das würde man sofort deutlich erkennen. Die Qualität ist sehr gut und trotzdem gibts einen Performance-Boost von rund 105%.

https://imgsli.com/NDQ4MDM

Ist echt seltsam, hab ich zuvor auch noch nicht gesehen.

Da ist Raytracing an, nehme ich an. Das kann in einigen Szenarien extrem viel ausmachen (mit DLSS sinkt ja auch die Strahlenlast), insbesondere, wenn da viele RT-Effekte bzw. überall Spiegelungen etc. sind. Ich müsste das in Bewegung sehen, aber es wäre zumindest vorstellbar, dass da in System Shock alle (oder sehr viele) der glänzenden Oberflächen mit RT veredelt werden - dann wäre auch ein größerer Sprung durch DLSS nachvollziehbar.

Ich hab z.B. in Medium teilweise +200 % Leistung gehabt (allerdings nur in Worst-Case-Szenen). Hier z.B. (ausgehend von UHD mit RTX 3090) (https://www.pcgameshardware.de/commoncfm/comparison/clickSwitch.cfm?id=163003) Da bringt schon DLSS "aus" zu DLSS "hoch" +100 % (mittlerweile umbenannt in "quality", "balanced" etc. wie gewohnt)

-/\-CruNcher-/\-
2021-03-18, 15:27:40
FSR könnte Lottes Meisterstück werden gegen seinen ex Arbeitgeber :D
Allerdings ein NN zu schlagen das mit so vielen exakten daten gefüttert wird, wobei man muss es nicht wirklich schlagen aber ich glaub einfach nicht dran das es jemals besser sein wird.
Vor allem nicht in der Power Efficiency und am Ende eben der daraus gewonnen Performance sprich einer Latenzreduzierung von 8 ms

robbitop
2021-03-18, 15:33:05
Ich hoffe, dass Tiago Sousa von id Tech mitwirken konnte. Er hat IIRC die erste Implementierung von TAA in AAA Spielen gemacht (Crysis 2 und 3) und in id Tech 7 ist das clamping offenbar sehr sehr gut geworden. IMO akkumuliert das Verfahren mehr Samples über die Zeitachse als alle anderen ohne Artefakte in signifikanter Form zu zeigen.

-/\-CruNcher-/\-
2021-03-18, 15:40:29
Jep und er hat ja nicht still gestanden an der Optimierung man weiss nur nichts drüber und jetzt mit Microsoft Resourcen zusätzlich im Rücken.
Das wird noch interessant.

Wobei der teils interessenkonflikt zwischen DX12 und Vulkan hier das wird noch heiss ob Microsoft in der Lage oder überhaupt gewillt ist es zu trennen.
Es wird noch interessant zu sehen ob Vulkan in der Idtech Engine überhaupt überleben wird

Erstmal schauen wir ob Microsoft es Exclusive so stehen lässt für die PC Ports, wenn sie das tun würden dann glaube ich selbst wir könnten vor einem neuen Windows stehen, von welchem in der form so wirklich niemand in seinem leben mit gerechnet hätte diese mögliche Transfusion mitzuerleben.

Jensen sitzt wohl mit seiner Lederjackenrüstung in Ritter Pose auf seinem Cluster und sagt sich nur "Kommt nur alle, mein Cluster wird euch noch alle das fürchten lehren" ;)

DrFreaK666
2021-03-18, 16:33:00
...Es wird noch interessant zu sehen ob Vulkan in der Idtech Engine überhaupt überleben wird...

Doom lief auf den One- und Series-Geräten sicherlich auch schon mit DX12. Ich denke dass diese Engine-Abspaltung weiterentwickelt wird

-/\-CruNcher-/\-
2021-03-18, 17:13:39
Weiterentwickeln vom DX12 Part ist ja schön das einstellen vom Vulkan Branch währe es ganz und garnicht.

dildo4u
2021-03-19, 19:41:36
Ich frag mich gerade warum man wenn FSR Kommt eine AMD Karten kaufen sollte, AMDs Politik ist ja das es überall läuft.
Damit hätte man dann mit Ampere die größt mögliche Abdeckung an unterstützen Games.

dargo
2021-03-19, 20:06:26
Und ich frage mich warum du wieder in deinen Trollmodus verfällst.

aufkrawall
2021-03-19, 20:12:27
Nach der Logik konnte man auch bisher keine AMD-Karte kaufen, weil es gar kein DLSS-Gegenstück gab. Und wenn es dann (hoffentlich) eines gibt, ist das in dildos Denke erst recht nicht ausreichend. Was ein Hirnfurz. ;D

dargo
2021-03-19, 20:28:40
Das war auch mein Gedanke, ich wollte es nur nicht so hart zum Ausdruck bringen. :D

Ex3cut3r
2021-03-19, 22:02:47
Als ob man mit einer 6800 aufwärts, für 1440p irgendwie eine Art Upscaling brauchen wurde, die spuckt doch über 100 FPS in den Titeln von heute aus. Ne 6800XT oder gar 6900XT sind viel zu stark für 2560x1440, das schreit eigentlich nach nen 34" mit 3440x1440 oder 4K.

y33H@
2021-03-19, 22:26:16
Oder 144+ Hz

Sardaukar.nsn
2021-03-19, 23:44:57
Genau das ist doch der heiße Scheiß der PC-Gaming von den next-gen Konsolen unterscheidet: Ultrawide Format und variable FPS im dreistelligen Bereich.
Wie wuchtig so ein Spielerlebnis auf einem 34" Curved Bildschirm rüber kommt, lässt sich ein einem Youtube Video nicht gut erklären. Leute die guten HDR Content auf einem OLED gesehen haben können das vielleicht nachvollziehen.

Slipknot79
2021-03-19, 23:59:45
System Shock Demo ohne DLSS: 380W und 2100MHz
System Shock Demo mit DLSS: 120W und 1200MHz (142fps driver lock)

(y)

Genug Luft für RT.

Unschärfe zufolge DLSSon konnte ich auch noch ned feststellen, dürfte wieder ne bessere DLSS Umsetzung sein. (y)

Raff
2021-03-20, 00:45:45
Oh ja, das ist guter, recht gnädiger Content als DLSS-Showcase. ~220 vs. 110 Fps in 4K mit DLSS on vs. DLSS off bei dieser Qualität (Bilder bewusst nicht benannt ;)):

https://abload.de/thumb/systemreeshockljkz9.png (https://abload.de/image.php?img=systemreeshockljkz9.png) https://abload.de/thumb/systemreshock6skll.png (https://abload.de/image.php?img=systemreshock6skll.png)

(Achtung, gut 8 MiB pro Bild, da lossless compression - die originalen Bitmaps sind je ~25 MiB groß.)

MfG
Raff

crux2005
2021-03-20, 00:53:45
systemreeshockljkz9.png - DLSS aus
systemreshock6skll.png - DLSS an

Die Qualität der Texturen ist auch fürchterlich... next

-/\-CruNcher-/\-
2021-03-20, 01:40:25
@Raff
Leider sind Spatial Ergebnisse überhaupt nicht mehr Zielführend für Gamer spielt der Spatial part sogar eine wesentlich niedriegere rolle
und so gesehen von der Content Komplexität dieses Test vollkommen irrelevant

Es erfordert ABX tests auf HVS Ebene wie bei Video/Audio Compression Evaluation sonst auch üblich und das mit komplexen temporalen Szenen die auch den Hauptanteil eines Gamer Usecases abbilden.

The Official Final Release Nvidia Epic Unreal plugin Demonstration

2 Stunden mit Richard Cowgill auf seinem bekannten 2080 TI Demonstration Setup (Hint AMDs Big Navi Kill Target)
a9KJo9llIpI


Jetzt wird es nicht mehr lange dauern bis sie DLSS in Adobes und anderen DC Workflows pushen werden

aufkrawall
2021-03-20, 02:17:03
systemreeshockljkz9.png - DLSS aus
systemreshock6skll.png - DLSS an

Würde eher umgekehrt annehmen, weil im ersten Bild einige Linien durchgängiger erscheinen und die SSR an der Decke pixeliger aussehen.


Die Qualität der Texturen ist auch fürchterlich... next
Das würde jedenfalls auch problemlos mit temporalem Upscaling + Sharpen noch anständig aussehen.

DLSS erhöht die Gegensätze im Bild zwischen besser und weniger gut rekonstruierten Bereichen. Ob das für die Immersion immer so gut ist...

Slipknot79
2021-03-20, 02:19:10
Wer traut sich? :redface:

https://abload.de/thumb/systemreshock-win64-snsjg6.jpg (https://abload.de/image.php?img=systemreshock-win64-snsjg6.jpg)

https://abload.de/thumb/systemreshock-win64-s47kip.jpg (https://abload.de/image.php?img=systemreshock-win64-s47kip.jpg)



systemreeshockljkz9.png ist DLSSon bei Raff (y).

crux2005
2021-03-20, 02:31:43
Ist doch die gleiche Stelle wie bei Raff

systemreeshockljkz9.png ist DLSSon bei Raff (y).

Falls das Stimmt, dann lag ich falsch und DLSS hat mich erfolgreich ausgetrickst. Das Bild mit DLSS an sah jedenfalls schärfer aus.

Slipknot79
2021-03-20, 03:22:10
Ist bewusst die selbe Stelle wie bei Raff, wollte statt zu raten selbst checken.
Wenn bei Raff das schärfere 9.png Bild DLSSon ist, dann ist die Lösung bei meinem Bild nicht moar weit. :redface:

Man sieht wie DLSS an den Deckenpanelen die Texturen rekonstrukiert, also das was es machen soll. (y) Das ist bei meinem Bild auch der Fall.

TheAntitheist
2021-03-20, 05:14:18
Ist doch die gleiche Stelle wie bei Raff



Falls das Stimmt, dann lag ich falsch und DLSS hat mich erfolgreich ausgetrickst. Das Bild mit DLSS an sah jedenfalls schärfer aus.
ich würd eher sagen das du nicht objektiv warst oder es gar nicht wahr haben wolltest... und in Bewegung kann kaum noch einer einen Unterschied feststellen.

crux2005
2021-03-20, 05:29:02
ich würd eher sagen das du nicht objektiv warst oder es gar nicht wahr haben wolltest... und in Bewegung kann kaum noch einer einen Unterschied feststellen.

Und jetzt noch einmal mit Sinn.

-/\-CruNcher-/\-
2021-03-20, 08:01:28
Jep auch in Cowgills Demo 0.55 ms verlust vs 8 ms Gewinn
vor allem bei der Meerkat Demo verweist es TAAU GEN2 in die Schranken

Die Convolution verschiebt das ganze DOF, macht sinn. Die "AI" mag kein DOF weil sie es noch nicht von Blur wirklich unterscheiden kann ;)
Das wird wohl eine sache sein die man sich gegen FSR sehr genau anschauen sollte ;)

Allerdings ist DOF eher was für die Hollywoodfreaks und in vielen Augen eher ein Artefakt

robbitop
2021-03-20, 08:30:13
DoF ist doch ein post effect. Laut Implementierungsrichtlinie passiert DLSS vor Postfx. PostFX wird dann mit voller Endauflösung nach dlss gemacht.

-/\-CruNcher-/\-
2021-03-20, 08:36:51
Stimm dann ist es komisch was hier mit dem DOF passiert

Er sagt aber auch "DLSS does it in a slightly different Way" "we keep working on" "and further improve this" "higher consistency"

Ehrlichgesagt mich würde es überhaupt nicht stören wenn es nicht 100% Physical Correct ist

Bin eh kein Fan von zu agressivem DOF "Hey ich muss dich da auf was hinweisen" usage

Und in VR will ich das mal überhaupt nicht sehen als POST

robbitop
2021-03-20, 08:47:17
Viele Implmentierungen sind einfach nicht besonders gut. Ein afterthought. Das wird mit der Zeit besser werden, wenn mehr Fokus drauf gelegt wird und mehr Erfahrungen damit gesammelt werden. Ggf schon von anfamg an mitbedacht wurde.

In der jetzigen Generation von Spielen ist es so, dass diese schon fast fertig waren als DLSS 2.0 herauskam. Es kann eben sein, dass sich bestimmte Dinge dann nicht mehr so leicht ändern lassen, die man hätte zu einem früheren Zeitpunkt leichter anpassen können in der Renderpipeline. ZB dass alles Mögliche Motionvectors braucht. Da gibt es sicherlich ettliche Detailrandbedingungen die nicht überall vernünftig passten.
Die guten Implementierungen zeigen das Potenzial. Mit der Zeit wird die Konsistenz der Umsetzung sicherlich im breiten Feld besser werden.

-/\-CruNcher-/\-
2021-03-20, 08:55:02
Jep im Real Case muss das Ghosting bei allen verschwinden wie du sagtest Perfekte Motion Vector anpassung bei bewegten objekten das ist der absolute killer für mich als ich das Ergebniss in den Cyberpunk Videos gesehen hab.

Wenn man Ghosting unter Kontrolle hat ist man schon einen guten schritt gegangen, alles was Ghosting verursacht würde ich nichtmal in tests in Erwägung ziehen.

Sondern als Fail ignorieren

vinacis_vivids
2021-03-20, 09:05:05
Wer traut sich? :redface:

https://abload.de/thumb/systemreshock-win64-snsjg6.jpg (https://abload.de/image.php?img=systemreshock-win64-snsjg6.jpg)

https://abload.de/thumb/systemreshock-win64-s47kip.jpg (https://abload.de/image.php?img=systemreshock-win64-s47kip.jpg)



systemreeshockljkz9.png ist DLSSon bei Raff (y).

Antwort:
systemreshock-win64-s47kip.jpg = DLSS on
Das Bild hat eine grundsätzliche Tiefenunschärfe

-/\-CruNcher-/\-
2021-03-20, 14:29:05
Ich bin echt gespannt OB AMD die 8 ms overhead reduktion packen, das ist schon eine hausnummer die da frei wird vor allen für Physics

Slipknot79
2021-03-20, 14:45:16
Ok, dann kommt nun die Auflösung:

snsjg6.jpg ist DLSSon.


Eigentlich habe ich schon nen Hint platziert, als ich Raffs DLSSon Bild aufgelöst habe. Dann braucht man nun noch sein Bild mit meinem vergleichen. :redface:
Auch die untere Bodentextur bei der Tür ist schärfer.

aufkrawall
2021-03-20, 14:58:19
Seien wir mal ehrlich: Die Sichtweite beträgt 5m, 80% des Bilds sind dunkel und die Texturen sind für Indie-Kram ok, um mal kein zu vernichtendes Urteil zu fällen.
*zzzz...*

Achill
2021-03-20, 19:37:57
Was ich eigentlich eher erschreckend finde ist:
1. Wir brauchen eine 3070/80/90 für diese doch sehr einfache Szene
2. Es scheint völlig egal zu sein, dass anscheinend ein negative LOD bei DLSS aktiv ist
3. Das der Textur/Geometrie-Übergang an der Decke wie ein Bilinearer-Filtern von Mipmaps aussieht

Aber wir haben RT und eine gute Performance-Steigerung mittels DLSS - alles was früher mal wichtig war, ist es jetzt irgendwie nicht mehr.

-/\-CruNcher-/\-
2021-03-20, 21:00:44
Wir stehen am Anfang Nvidia ist den ersten Schritt in ein vollständiges Massenmarktprodukt gegangen.
Du kannst nicht erwarten das alles so rund läuft und du kannst davon ausgehen das DLSS nicht das einzige ML GPU Realtime Upscaling bleiben wird.
Auch FSR wird nicht das letzte sein es wird weitergehen auch Nvidia wird weiter optimieren und vor allem trainieren und DLSS auch weiter über 3D Workflows hinaus pushen.

Momentan geht es um die Balance die einfach einzigartig ist zwischen Power/Quality/Performance auf dem Endgerät

Die DLSS Performance aber vor allem Stabilität wird steigen gleichzeitig wird auch die RT Performance steigen das werden wir schon mit dem Shrink zu Lovelace sehen.
Nvidia wird jedes mal ihren Cluster weiter ausbauen noch effizienteres training sie werden mehr und mehr Cloud Services starten wohl auch andere aufkaufen das übliche halt sie werden dieses Feld vor allem nicht Microsoft,Google oder Tesla einfach so überlassen auch gegen Apple wird man sich stärker positionieren.
Nvidia ist mitten in Jensens Transformation zu etwas neuem angekommen da werden viele karten neu gemischt werden.

Wie gesagt vor allem ist jetzt die Zeit der Acquisitions wieder angesagt es gibt genug aufstrebendes wegzukaufen und zu integrieren was über die jahre so neu gewachsen ist jetzt ist die Zeit der Ernte von dem was man mit gegossen hat ;)

Ex3cut3r
2021-03-20, 22:02:55
Was ich eigentlich eher erschreckend finde ist:
1. Wir brauchen eine 3070/80/90 für diese doch sehr einfache Szene
2. Es scheint völlig egal zu sein, dass anscheinend ein negative LOD bei DLSS aktiv ist
3. Das der Textur/Geometrie-Übergang an der Decke wie ein Bilinearer-Filtern von Mipmaps aussieht

Aber wir haben RT und eine gute Performance-Steigerung mittels DLSS - alles was früher mal wichtig war, ist es jetzt irgendwie nicht mehr.

KA, was du da an den Bilder von Slipknot siehts, ist doch vollkommen in Ordnung, dazu 40% mehr FPS.

dargo
2021-03-22, 14:54:15
Was ich eigentlich eher erschreckend finde ist:
1. Wir brauchen eine 3070/80/90 für diese doch sehr einfache Szene
2. Es scheint völlig egal zu sein, dass anscheinend ein negative LOD bei DLSS aktiv ist
3. Das der Textur/Geometrie-Übergang an der Decke wie ein Bilinearer-Filtern von Mipmaps aussieht

Aber wir haben RT und eine gute Performance-Steigerung mittels DLSS - alles was früher mal wichtig war, ist es jetzt irgendwie nicht mehr.
Ich frage mich eher wie zukünftige Reviews aussehen werden wenn AMD FSR liefert? Ich hoffe weiterhin mit nativen Auflösungen (DLSS/FSR gerne separat). Ansonsten hat man nur einen Äpfel/Birnen Vergleich mit DLSS vs. FSR. Und wenn Intel sich dazu gesellt kommt womöglich noch eine Orange dazu.

Savay
2021-03-22, 16:36:32
Man könnte, wenn die Methoden das unterstützen, in nativer Auflösung + die Upscaler als FSAA Ersatz benchen. (Quasi VSR/DSR)

Damit gäb`s dann evtl. auch mal wieder eine Renaissance der lange nicht mehr gesehenen "AA" Qualitätsvergleiche die gefühlt seit den altehrwürdigen Cypress Zeiten irgendwie keine wirkliche Rolle mehr spielten. :wink:

blaidd
2021-03-22, 18:42:10
Man könnte, wenn die Methoden das unterstützen, in nativer Auflösung + die Upscaler als FSAA Ersatz benchen. (Quasi VSR Ersatz)

Damit gäb`s dann evtl. auch mal wieder eine Renaissance der lange nicht mehr gesehenen "AA" Qualitätsvergleiche die gefühlt seit den altehrwürdigen Cypress Zeiten irgendwie keine wirkliche Rolle mehr spielten. :wink:

Solange man Auflösungen tatsächlich auch am PC einstellen kann werden wir natürlich nativ<->nativ vergleichen, weil das die tatsächliche Pixel-Pusher-Power (und am ehesten auch die tatsächliche Speicherbelastung sowie RT-Leistung) zeigt. Und die ganze Chose vergleichbar bleibt (das Upsampling kostet ja - zumindest theoretisch - auch Leistung, da wird ja schließlich was berechnet. Es bringt eben mehr Leistung, als es kostet. Es erscheint mir aber sehr unwahrscheinlich, dass das in zwei unterschiedlichen Lösungsansätzen auf obendrein unterschiedlicher Hardware tatsächlich gleich wäre, selbst wenn das Ergebnis gleich wäre - wovon ich außerdem nicht ausgehe).

Aber natürlich wären dann auch Bildqualitätstest mit unterschiedlichen Upsampling-Herangehensweisen sehr interessant und müssten im Grunde bei GPU- und Spiele-Tests zumindest berücksichtigt werden. Wenn die Qualität stimmen sollte (also ähnlich wie jetzt bei DLSS in vielen Fällen), gibt es schließlich kaum mehr einen Grund für den Nutzer, nicht mit Upsampling zu spielen (es sei denn, es wird wirklich Wert auf "echte" Pixel gelegt. Ich denke aber, das interessiert nur die wenigsten, selbst in Hardcore-Foren wie diesem hier - und dann wahrscheinlich auch nur im Vergleich: Ich freu mich schon auf Diskussionen wie "Bäähhh, AMD rendert aber 2 % mehr Pixel, also sind die 2 % besser", "buuuhh Nvidias rekonstruierte Pixel sind aber 3% genauer und deren gerenderte Bilder haben deswegen insgesamt viel mehr Wert als die aus Radeon-Pixeln!!.." ["was wiederum nur bedingt wahr wäre, wenn der zeitliche Faktor eine große Rolle spielen und die so verglichene AMD ein paar mehr Fps zeichnen könnte"] ;) )

Bei einigen Dingen wird's wohl ein wenig kompliziert werden (beispielsweise bei der Güte des Upsamplings in Bewegung, das lässt sich nur recht schwer vermitteln - in Standbildern schlecht (weil man auch mehrfach den genau gleichen Frame bei gleichgeschalteter Performance [für den temporalen Faktor] erwischen müsste, damit sich Unterschiede auch da zeigen), bei Bewegungsbildern haben wir das Problem mit Video-Kompression, die etwaige Unterschiede überdecken könnte...

Zumindest ich bereite mich auf sowas aber schon länger vor (zumindest theoretisch und in gewissen Rahmen auch praktisch) - ist ja nicht so, als ob das alles total überraschend über uns hineingebrochen wäre ;)

dargo
2021-03-22, 18:49:28
Ich freu mich schon auf Diskussionen wie "Bäähhh, AMD rendert aber 2 % mehr Pixel, buuuhh Nvidias Pixel sind aber mehr Wert als Radeon-Pixel ;)

Ich auch. ;D

Savay
2021-03-22, 19:03:14
bei Bewegungsbildern haben wir das Problem mit Video-Kompression, die etwaige Unterschiede überdecken könnte...


https://de.wikipedia.org/wiki/Animated_Portable_Network_Graphics :wink:

blaidd
2021-03-22, 19:43:21
https://de.wikipedia.org/wiki/Animated_Portable_Network_Graphics :wink:

Maybe. Als ich das letzte Mal ein PNG-Bild als Aufmacher genommen hab, hab ich einen bösen Anruf von der IT bekommen, weil der Artikel (ich glaube es war Tomb Raider 2013) ziemlich viele Aufrufe (60.000+ an einem einzelnen Tag) gemacht hat und den Traffic jenseits von Gut und Böse katapultiert hat^^ PNG (ich schätze, auch die animierte Variante) kann halt sehr Unterschiedliches in Sachen Dateigröße bedeuten, je nachdem, welchen Inhalt das Bild hat (vgl. z.B. Text oder Graphiken mit Fotos etc.)

Irgendwas sinnvolles und gleichzeitig realistisch durchführbares wird sich schon ergeben. Jedenfalls wäre das meine persönliche, professionelle Agenda für die kommende Zeit. Die hängt natürlich auch von der allgemeinen Entwicklung ab und ich gehe nicht davon aus, dass Tester/Reviewer (inklusive mir) das alles auf Anhieb alles komplett zufriedenstellend lösen werden können, aber das ist ja ein relativ langsamer, gradueller Übergang (jedenfalls wenn man den Anfang von Upscaling-Technologien auf den Konsolen miteinschließt). Man kann sich also schon vor der eigentlichen, zumindestet suggerierten Problematik relativ ausführlich mit dem Thema beschäftigen.

Achill
2021-03-22, 19:48:40
Maybe. Als ich das letzte Mal ein PNG-Bild als Aufmacher genommen hab, hab ich einen bösen Anruf von der IT bekommen, weil der Artikel (ich glaube es war Tomb Raider 2013) ziemlich viele Aufrufe (60.000+ an einem einzelnen Tag) gemacht hat und den Traffic jenseits von Gut und Böse katapultiert hat^^ PNG (ich schätze, auch die animierte Variante) kann halt sehr Unterschiedliches in Sachen Dateigröße bedeuten, je nachdem, welchen Inhalt das Bild hat (vgl. z.B. Text oder Graphiken mit Fotos etc.)

Irgendwas sinnvolles und gleichzeitig realistisch durchführbares wird sich schon ergeben. Jedenfalls wäre das meine persönliche, professionelle Agenda für die kommende Zeit. Die hängt natürlich auch von der allgemeinen Entwicklung ab und ich gehe nicht davon aus, dass Tester/Reviewer (inklusive mir) das alles auf Anhieb alles komplett zufriedenstellend lösen werden können, aber das ist ja ein relativ langsamer, gradueller Übergang (jedenfalls wenn man den Anfang von Upscaling-Technologien auf den Konsolen miteinschließt). Man kann sich also schon vor der eigentlichen, zumindestet suggerierten Problematik relativ ausführlich mit dem Thema beschäftigen.

Dann macht es doch zu Plus-Content, gibt doch auch ein wirkliches gutes Argument mit den Traffic warum dies dann eben nur Leute mit ABO sehen können bzw. in einer entsprechenden Auflösung ...

Gast
2021-03-22, 20:00:15
Bei einigen Dingen wird's wohl ein wenig kompliziert werden (beispielsweise bei der Güte des Upsamplings in Bewegung, das lässt sich nur recht schwer vermitteln - in Standbildern schlecht (weil man auch mehrfach den genau gleichen Frame erwischen müsste, damit sich Unterschiede auch da zeigen), bei Bewegungsbildern haben wir das Problem mit Video-Kompression, die etwaige Unterschiede überdecken könnte...


Das ist eigentlich eine gute Analogie.
Niemand (außerhalb der Postproduction, und nicht mal dort durchgehend) verwendet unkomprimiertes Video, ganz einfach weil es keinen Sinn macht.

Selbst auf einer 4k BD ist das Videomaterial mehr oder weniger stark komprimiert, und damit eigentlich kein "echtes" 4k.

Nvidias DLSS 4k @ Quality ist also quasi das Analog zum 4k auf einer BD, und DLSS 4k @ Performance das Analog zum 4k von Netflix&Co.

Achill
2021-03-22, 20:06:13
Wer traut sich? :redface:

https://abload.de/image.php?img=systemreshock-win64-snsjg6.jpg

https://abload.de/image.php?img=systemreshock-win64-s47kip.jpg



systemreeshockljkz9.png ist DLSSon bei Raff (y).

KA, was du da an den Bilder von Slipknot siehts, ist doch vollkommen in Ordnung, dazu 40% mehr FPS.

Ich habe einen der markanten Teile als GIF-Animation für den entsprechenden Ausschnitt erstellt, ich habe danach nicht explizit gesucht sondern finde dies fällt schon markant ins Auge ... wenn das nicht auffällt, dann braucht man auch gar nicht über TAA vs DLSS vs ... diskutieren.

74682

-/\-CruNcher-/\-
2021-03-22, 20:12:40
@Achill
Bist du Shareholder :D

Das ist eigentlich eine gute Analogie.
Niemand (außerhalb der Postproduction, und nicht mal dort durchgehend) verwendet unkomprimiertes Video, ganz einfach weil es keinen Sinn macht.

Selbst auf einer 4k BD ist das Videomaterial mehr oder weniger stark komprimiert, und damit eigentlich kein "echtes" 4k.

Nvidias DLSS 4k @ Quality ist also quasi das Analog zum 4k auf einer BD, und DLSS 4k @ Performance das Analog zum 4k von Netflix&Co.

Ja und deswegen gilt der Generationsverlust aber der spielt hier keine große Rolle wenn man bestimmte wichtigere HVS kritierien setzt vor allem für diese Zielgruppe.
So wie es eben auch Nvidia selbst macht in ihren internen tests und studien.

Und eben hier wird auch interessant in wie weit Nvidia DLSS auf NVENC optimiert

Natürlich wenn man es richtig machen will schaut man sich auch die ganzen Metriken an sprich was man jetzt schon für FPS macht macht man dann genauso wie die Game Devs selbst für den Output bei diesem Aufwand wird es dann aber bald keine Release Reviews mehr geben ;)

Das Hauptkriterium vorerst sollte aber erst die technische Umsetzung im generellen sein sprich man sollte erstmal jede Artefakte die man findet eiskalt PUNISHEN und hervorheben sprich "Die Stabilität" und Qualität der Implementation im gesammten bewerten und das einzeln auf jeden Titel indeepth.

Und als ein KO kriterium sollte man Ghosting ganz weit nach oben setzen.

Dein Vergleich mit UHD-BD und H.265 standard compression vs DLSS UHD hinkt aber etwas weil eben DLSS UHD ja so ausgelegt ist den Verlust durch die DCT "Quantization" auch teils direkt abzufedern ansonsten bräuchte man kein aufwendiges ML um verlorene daten quasi aus dem nichts zu zaubern.
Was eben wohl auch der Hauptunterschied zu FSR werden wird das sich "nur" der temporalen vorhandenen daten bedient und daraus rekonstruiert eben 3D Space Super Resolution ohne ML.

Was sehr vorausichtlich dann so aussehen wird im Endergebniss

DLSS 1.0->FSR 1.0/DLSS 2.0 (suboptimale Implementierung)->DLSS 2.0

aufkrawall
2021-03-25, 17:51:07
Mit dem Anvil-TAA klappt negatives LOD-Bias hervorragend.

1xAA:
https://abload.de/thumb/screenshot_20210325_1rdkhp.png (https://abload.de/image.php?img=screenshot_20210325_1rdkhp.png)

TAA high (defakto ~gratis :freak: ):
https://abload.de/thumb/screenshot_20210325_186jxx.png (https://abload.de/image.php?img=screenshot_20210325_186jxx.png)

TAA high + LOD-Bias -1.5:
https://abload.de/thumb/screenshot_20210325_12hklm.png (https://abload.de/image.php?img=screenshot_20210325_12hklm.png)

Texturdetails wie bei echter SSAA-Keule für fast gratis. :eek:
Nur echt traurig, wie wenig das Entwickler auf dem Schirm haben.

Achill
2021-03-25, 20:30:04
Mit dem Anvil-TAA klappt negatives LOD-Bias hervorragend.

1xAA:
https://abload.de/thumb/screenshot_20210325_1rdkhp.png (https://abload.de/image.php?img=screenshot_20210325_1rdkhp.png)

TAA high (defakto ~gratis :freak: ):
https://abload.de/thumb/screenshot_20210325_186jxx.png (https://abload.de/image.php?img=screenshot_20210325_186jxx.png)

TAA high + LOD-Bias -1.5:
https://abload.de/thumb/screenshot_20210325_12hklm.png (https://abload.de/image.php?img=screenshot_20210325_12hklm.png)

Texturdetails wie bei echter SSAA-Keule für fast gratis. :eek:
Nur echt traurig, wie wenig das Entwickler auf dem Schirm haben.

Sieht wirklich gut aus, hat DXVK für neg LOD jetzt eine Option (unter Linux)?

aufkrawall
2021-03-25, 20:37:04
Das geht mit libstrangle in jeder Vulkan-Anwendung (neben AF, Vsync, fps-Limit...) mit jedem Treiber. Ist sehr bedauerlich, dass es dieses Programm nicht für Windows gibt.
Ich habs auch mit dem TAA in RDR2 probiert, aber das vernichtet leider viel zu aggressiv Details und Vegetation sieht entsprechend weiterhin komplett verklebt aus. Das Anvil-TAA ist schon ganz besonders gut, auch Specular Highlights sehen trotz Bias -1.5 immer noch sehr ruhig aus.

basix
2021-03-25, 21:36:53
Texturdetails wie bei echter SSAA-Keule für fast gratis. :eek:
Nur echt traurig, wie wenig das Entwickler auf dem Schirm haben.

Ist schon schade. Vor allem, da es eigentlich gratis ist und die Infos an sich vorhanden wären. Ein sehr einfacher Trick in der Trickkiste.

Mr. Lolman
2021-03-25, 22:45:12
Mit dem Anvil-TAA klappt negatives LOD-Bias hervorragend.


TAA high + LOD-Bias -1.5:
https://abload.de/thumb/screenshot_20210325_12hklm.png (https://abload.de/image.php?img=screenshot_20210325_12hklm.png)

Texturdetails wie bei echter SSAA-Keule für fast gratis. :eek:
Nur echt traurig, wie wenig das Entwickler auf dem Schirm haben.

Ähem, hier fehlt doch komplett das AA... :uponder:

aufkrawall
2021-03-25, 22:49:36
Da hast du wohl irgendwas bei der Bildbetrachtung durcheinander gewürfelt.

-/\-CruNcher-/\-
2021-03-25, 23:22:02
Ähem, hier fehlt doch komplett das AA... :uponder:

Komplett nicht aber teils bei der foliage oder den tree edges vor allem weil die wieder nachgeschärft werden
Specular stability könnte aber problematischer werden in Motion
die Assets hier sind aber von der komplexität her nicht wirklich problematisch und nicht wirklich als worst case zu betrachten

Auch der insgesammte output ist so la la

aufkrawall
2021-03-26, 00:39:24
Lesekompetenz: mangelhaft
auch Specular Highlights sehen trotz Bias -1.5 immer noch sehr ruhig aus.
Sieht nicht nach Ameisenhaufen aus, gell?
https://abload.de/thumb/screenshot_20210325_1idjfc.png (https://abload.de/image.php?img=screenshot_20210325_1idjfc.png)

Ich weiß nicht, in welchem Paralleluniversum manche hier leben, bei minimalen Jaggies gleich den Kritiker raushängen lassen zu müssen. Bei einem AA, das niedrig einstellig kostet. :freak:

Vor allen Dingen, wenn der heilige Gral DLSS neben Ghosting auch noch übles Bloom-Geflimmer verursacht (+die niedrige Auflösung des vol. fog tut hier ihr übriges):
2ZCroI36pbQ

Gibts überhaupt ein einziges Spiel, wo DLSS nicht deutliche Probleme mit Bloom, DoF, Moires, Ghosting oder Transparenz hat? So ein Augenkrebs reißt mich jedenfalls deutlicher aus der Immersion als etwas Kantenflimmern...

Cpu0815
2021-03-26, 01:47:34
Vor allen Dingen, wenn der heilige Gral DLSS neben Ghosting auch noch übles Bloom-Geflimmer verursacht (+die niedrige Auflösung des vol. fog tut hier ihr übriges):
Das habe ich aber auch ohne DLSS.

aufkrawall
2021-03-26, 02:29:00
Der Nebel-Effekt ist schon in nativer Auflösung etwas flimmerig, ja. Durchs Upscaling wird das aber noch schlimmer und mit DLSS flimmert der Bloom zusätzlich:
VAF2ixKIkkw
Wenn ich in Legion temporales Upscaling nutze, werden einfach nur Kanten etwas flimmriger und das Bild leicht unschärfer. Solche komischen Fails gibt es gar nicht. :confused:

robbitop
2021-03-26, 07:25:23
Ist schon schade. Vor allem, da es eigentlich gratis ist und die Infos an sich vorhanden wären. Ein sehr einfacher Trick in der Trickkiste.

CDPR scheint das zu wissen. Default LoD ist -1,5 bei Witcher 3. Iiirc hatte aufkrawall das neulich erwähnt und ich tippe darauf, dass ihn das inspiriert hat, das in anderen Spielen zu testen. :)

Dampf
2021-03-26, 12:06:50
Der Nebel-Effekt ist schon in nativer Auflösung etwas flimmerig, ja. Durchs Upscaling wird das aber noch schlimmer und mit DLSS flimmert der Bloom zusätzlich:
https://youtu.be/VAF2ixKIkkw
Wenn ich in Legion temporales Upscaling nutze, werden einfach nur Kanten etwas flimmriger und das Bild leicht unschärfer. Solche komischen Fails gibt es gar nicht. :confused:

Das sollte so nicht sein. Nvidia sagt in ihren Guidelines ausdrücklich, dass Post Processing Effekte in nativer Auflösung bleiben sollen.

Das wurde hier mal wieder nicht bedacht.

Ich frage mich echt, neben den MIP Level Bias und der nicht aktivierten DLSS Schärfe, warum es bei so einem wichtigen RTX Titel von Nvidia keine Qualitätskontrollen gibt?! Oder die Verantwortlichen bei Nvidia, die CDPR geholfen haben, hatten selbst kein Plan von DLSS :freak:



Gibts überhaupt ein einziges Spiel, wo DLSS nicht deutliche Probleme mit Bloom, DoF, Moires, Ghosting oder Transparenz hat? So ein Augenkrebs reißt mich jedenfalls deutlicher aus der Immersion als etwas Kantenflimmern...

Ja, das gibt es. Wolfenstein Youngblood hat die meiner Meinung nach beste DLSS Implementation. Da gibts null Artefakte, es hat perfekte Schärfe, kein Ghosting, kein Nachziehen, mehr Details als nativ.

Troyan
2021-03-26, 12:09:40
Lesekompetenz: mangelhaft

Sieht nicht nach Ameisenhaufen aus, gell?
https://abload.de/thumb/screenshot_20210325_1idjfc.png (https://abload.de/image.php?img=screenshot_20210325_1idjfc.png)

Ich weiß nicht, in welchem Paralleluniversum manche hier leben, bei minimalen Jaggies gleich den Kritiker raushängen lassen zu müssen. Bei einem AA, das niedrig einstellig kostet. :freak:

Vor allen Dingen, wenn der heilige Gral DLSS neben Ghosting auch noch übles Bloom-Geflimmer verursacht (+die niedrige Auflösung des vol. fog tut hier ihr übriges):
https://youtu.be/2ZCroI36pbQ

Gibts überhaupt ein einziges Spiel, wo DLSS nicht deutliche Probleme mit Bloom, DoF, Moires, Ghosting oder Transparenz hat? So ein Augenkrebs reißt mich jedenfalls deutlicher aus der Immersion als etwas Kantenflimmern...

Du redest ein Blech, unglaublich. Zeige doch mal ein Spiel, dass die selben Frames bei der selben Qualität liefert. Sollte ja nicht schwer sein.

robbitop
2021-03-26, 12:13:05
Das sollte so nicht sein. Nvidia sagt in ihren Guidelines ausdrücklich, dass Post Processing Effekte in nativer Auflösung bleiben sollen.

Das wurde hier mal wieder nicht bedacht.

Ich frage mich echt, neben den MIP Level Bias und der nicht aktivierten DLSS Schärfe, warum es bei so einem wichtigen RTX Titel von Nvidia keine Qualitätskontrollen gibt?! Oder die Verantwortlichen bei Nvidia, die CDPR geholfen haben, hatten selbst kein Plan von DLSS :freak:



Ich vermute, dass es mehr Beschränkungen/Einschränkungen in den Spielen und deren Engine builds gibt, als wir wissen. DLSS 2.0 kam für die meisten Spiele zu einem späten Zeitpunkt, so dass es mehr ein "afterthought" war. Wie viel ist man bereit zu ändern am jeweiligen Enginebuild und wie viel Arbeit zieht das nach sich um DLSS 2.0 optimal zu unterstützen? Ich vermute, viele schauen da mit dem Blick von "Pareto" drauf. Dazu kommt, dass es eine proprietäre NV Technologie ist. Also etwas was nur auf einem Bruchteil der Zielhardware läuft. Ampere und Turing ab 2060. Lower end Turing und Pascal sind raus. Konsolen sind raus. AMD und Intel Graphics sind raus.
Wie viel Zeit ist das aus Sicht eines Studios wert?

Meine Annahme ist, dass es bei Spielen, bei denen DLSS und andere Verfahren von Anfang an verfügbar ist und mit bedacht wird, die Ergebnisse konsistenter werden.
Ich kann mir auch gut vorstellen, dass AMDs FSR mittelfristig besser unterstützt werden wird, da es mindestens eine größere Hardwarebasis hat - wenn es nicht sogar gänzlich GPU agnostisch funktioniert.


Ja, das gibt es. Wolfenstein Youngblood hat die meiner Meinung nach beste DLSS Implementation. Da gibts null Artefakte, es hat perfekte Schärfe, kein Ghosting, kein Nachziehen, mehr Details als nativ.
Wundert mich nicht. Die haben IMO die besten Leute und die best optimierteste Engine im ganzen Markt. Ich kann mir gut vorstellen, dass die Änderungen besser hinbekommen und diese auch bestmöglich umsetzen.

Dampf
2021-03-26, 12:19:02
Wie viel Zeit ist das aus Sicht eines Studios wert?




Naja, diese Anpassungen benötigen eben keinen zeitlichen Aufwand, das kann jeder Dödel mal eben so einstellen. Das ist es ja gerade, was mich so aufregt.

DLSS Schärfe ist wirklich nur ein Punkt in der config file in dem man einfach DLSSSSharpness=0.50 eingeben kann.

MIP Level Bias kann man easy im Profile Inspector einstellen.

Und für die Post Processing Auflösung gibt es auch sicher einfache Methoden. Notfalls muss da etwas Code geschrieben werden.

Als großes Studio setzt du da einen Praktikanten für 20 Minuten dran, dann ist das erledigt.

Am peinlichsten ist da aber echt die Schärfe. Sehe so viele Kommentare die beschreiben wie blurry DLSS in Cyberpunk ist, dabei ist es einfach nur blurry weil TAA einfach krasses Sharpening aktiv hat, während DLSS Schärfe inaktiv ist.

robbitop
2021-03-26, 12:33:58
Das muss aber spezifisch zu DLSS und spezifisch zum DLSS Faktor eingestellt werden. Wenn dafür kein Mechanismus enthalten ist, der das automatisiert, müsste man diesen implementieren. Sicherlich machbar - aber ganz so einfach wie es als Enduser scheint, ist es leider nicht immer.

Am einfachsten wäre es wohl für den Entwickler, einfach Lodbias und Schärfe für den geübten Enduser zu exponieren. In der ini oder im Menü.

x-force
2021-03-26, 12:36:48
Du redest ein Blech, unglaublich. Zeige doch mal ein Spiel, dass die selben Frames bei der selben Qualität liefert. Sollte ja nicht schwer sein.

das ist der entscheidende punkt, den einige offenbar noch immer nicht begriffen haben.

+1 für tolle screenshot vergleiche

taa leidet ebenfalls häufig unter ghosting.
ausreichend hohe fps vermindern das problem jedoch stark

dargo
2021-03-26, 12:42:10
Ja, das gibt es. Wolfenstein Youngblood hat die meiner Meinung nach beste DLSS Implementation. Da gibts null Artefakte, es hat perfekte Schärfe, kein Ghosting, kein Nachziehen, mehr Details als nativ.
Und zusätzliches Flimmern in Teilbereichen welches es mit TAA nicht gibt. Das Thema hatten wir schon.

BTB
2021-03-26, 12:47:06
DLSS ist nicht für Nerds die jeden Pixel zählen.

Ich find das geil, bei Watch Dogs einschalten und läuft in 4k. Auch Death Stranding lief super.

Diesen ganzen Detailfragen sind in Bewegung und wenn man im Spiel ist uninteressant. Wer möchte kann sich ja die Hardwarepower holen um ohne Tricks hinzukommen. Ich freue mich mit meiner kleinen 3060ti doch etwas Raytracing in 4k erleben zu können

-/\-CruNcher-/\-
2021-03-26, 12:57:32
Aus sicht des Endkonsumenten absolut Valid auf genau dich Zielt DLSS ja auch :)
das value wird höher umso niedrieger der Energieverbrauch wird und Nvidia spart kosten ohne noch mehr hardware overhead die ganzen kosten werden auf den Cluster ausgelagert.

Dampf
2021-03-26, 13:00:20
Und zusätzliches Flimmern in Teilbereichen welches es mit TAA nicht gibt. Das Thema hatten wir schon.

Hmm... Nö. :tongue:

Im Gegenteil, DLSS flimmert weniger da es bessere Kantenglättung bietet.

https://youtu.be/N8M8ygA9yWc?t=185

aufkrawall
2021-03-26, 13:01:49
das ist der entscheidende punkt, den einige offenbar noch immer nicht begriffen haben.

Der Punkt, den einige hier partout nicht begreifen, ist dass die Vorteile von DLSS (bessere Kantenrekonstruktion...) sich blendend in Screenshots festhalten lassen, viele der Artefakte hingegen kaum bzw. schwierig.

dargo
2021-03-26, 13:07:53
Hmm... Nö. :tongue:

Hmm... doch. :P Und ich werde garantiert nicht wieder eine Diskussion darüber mit dir führen.

Troyan
2021-03-26, 13:27:33
Der Punkt, den einige hier partout nicht begreifen, ist dass die Vorteile von DLSS (bessere Kantenrekonstruktion...) sich blendend in Screenshots festhalten lassen, viele der Artefakte hingegen kaum bzw. schwierig.

Stimmt. Vorallem die 2x so hohen Frames. Wobei, vielleicht muss man einfach immer zwei DLSS Bilder gegen 1 natives stellen. :freak:

x-force
2021-03-26, 13:41:59
Stimmt. Vorallem die 2x so hohen Frames. Wobei, vielleicht muss man einfach immer zwei DLSS Bilder gegen 1 natives stellen. :freak:

wirf bitte nicht wieder alles zusammen in den mixer, so kann man keine vernünftigen aussagen treffen! natürlich ist das bild mit dlss schlechter wenn man gleichzeitig doppelt so viele bilder haben möchte.

um konstruktiv zu bleiben sollte man mit dlss ein bild mit genau so vielen fps wie mit dem zu vergleichenden bild via herkömmlichen rendering erzeugen.

also falls jemand mit einer aktuellen nvidia das experiment starten will:

man nehme eine herkömmlich gerenderte szene der auflösung x. hierbei fallen y fps an.
nun stellt man dlss so ein, daß ebenfalls y fps erzeugt werden.
die auflösung des dlss bildes hängt hierbei natürlich von der gewählten szene bzw. des spiels ab.
erst jetzt ist ein sinnvoller vergleich in hinblick auf die qualität möglich!

Der Punkt, den einige hier partout nicht begreifen, ist dass die Vorteile von DLSS (bessere Kantenrekonstruktion...) sich blendend in Screenshots festhalten lassen, viele der Artefakte hingegen kaum bzw. schwierig.

viele der artefakte entstehen schlicht durch zu wenig fps. ich wette auf 120/144fps ist der effekt zu vernachlässigen

-/\-CruNcher-/\-
2021-03-26, 13:45:24
Ergebniss = -80W in dem letzten sample von Bioshock sind wir wohlmöglich schon bei 100W angekommen

aufkrawall
2021-03-26, 13:56:41
viele der artefakte entstehen schlicht durch zu wenig fps. ich wette auf 120/144fps ist der effekt zu vernachlässigen
Das trifft so ziemlich nur auf Motion Blur zu, vielleicht nimmt Ghosting auch noch leicht ab. Wenn es aber auch mit 60fps wahrnehmbare hässliche Artefakte gibt, wird es die auch mit 120fps noch geben.

-/\-CruNcher-/\-
2021-03-26, 13:58:26
Richtig je nach Engine Motion Vector Genauigkeit und der jeweiligen Asset und Szenen komplexität

Ob das Ergebniss gut ist testet man allerdings bei dem niedriegsten Energieoutput der möglich ist

Lurtz
2021-03-26, 14:34:20
Ich frage mich echt, neben den MIP Level Bias und der nicht aktivierten DLSS Schärfe, warum es bei so einem wichtigen RTX Titel von Nvidia keine Qualitätskontrollen gibt?! Oder die Verantwortlichen bei Nvidia, die CDPR geholfen haben, hatten selbst kein Plan von DLSS :freak:
Ich glaube bei Cyberpunk gab es "leicht" andere Probleme als eine schlechte DLSS-Implementierung ;D Zumal die meisten es ja dennoch abfeiern :ugly:

DLSS ist nicht für Nerds die jeden Pixel zählen.

Ich find das geil, bei Watch Dogs einschalten und läuft in 4k. Auch Death Stranding lief super.

Diesen ganzen Detailfragen sind in Bewegung und wenn man im Spiel ist uninteressant. Wer möchte kann sich ja die Hardwarepower holen um ohne Tricks hinzukommen. Ich freue mich mit meiner kleinen 3060ti doch etwas Raytracing in 4k erleben zu können
Death Stranding hat auch heftige Probleme mit Ghosting, das kann man eigentlich nur als Bildfehler bezeichnen. Würde AMD sowas liefern würden sie dafür geteert und gefedert...

BTB
2021-03-26, 14:38:53
Death Stranding hat auch heftige Probleme mit Ghosting, das kann man eigentlich nur als Bildfehler bezeichnen. Würde AMD sowas liefern würden sie dafür geteert und gefedert...

War ja auch mit Geistern ;D Also ich habe auf nix spezielles geachtet und gestört hat mich auch nichts. War halt flüssig

x-force
2021-03-26, 14:42:04
Das trifft so ziemlich nur auf Motion Blur zu, vielleicht nimmt Ghosting auch noch leicht ab. Wenn es aber auch mit 60fps wahrnehmbare hässliche Artefakte gibt, wird es die auch mit 120fps noch geben.

motion blur hat wie chomatic abberation und dof eh nichts in einem spiel verloren und ist daher auszustellen :freak:

die sichtbarkeit von ghosting hängt direkt mit den fps zusammen. da es ja "überbleibsel" der vorherigen frames sind.
durch höhere fps liegen die vorausgehenden bilder räumlich dichter zusammen und lassen sich besser verrechnen, dadurch sind die ghosts deutlich schlechter erkennbar bzw existieren vielleicht erst gar nicht, je nach implementierung.

Troyan
2021-03-26, 15:11:05
War ja auch mit Geistern ;D Also ich habe auf nix spezielles geachtet und gestört hat mich auch nichts. War halt flüssig

Ist auch nichts. Ich meine, das sind die selben Leute, die im Raytracing-Thread gegen Raytracing hetzen und massive Bildfehler als vollkommen in Ordnung ansehen, da die FPS höher sind.

Vollkommen irre.

-/\-CruNcher-/\-
2021-03-26, 15:21:33
Da ist schon was was nicht sein soll aber so gut wie jeder wird es übersehen, wenn man ihn nicht direkt drauf schubst oder wenn er nicht darauf trainiert ist es zu sehen.
Je nach Spiel kann die Wahrnehmung auch komplett anders sein bei BTB überwiegt der Temporale Aspekt und das ist bei der Zielgruppe Gamer hauptsächlich der Fall

Ex3cut3r
2021-03-26, 15:42:28
Ich habe einen der markanten Teile als GIF-Animation für den entsprechenden Ausschnitt erstellt, ich habe danach nicht explizit gesucht sondern finde dies fällt schon markant ins Auge ... wenn das nicht auffällt, dann braucht man auch gar nicht über TAA vs DLSS vs ... diskutieren.

74682

LOL, dein Ernst? Und wegen so einer kleinigkeit, ist das DLSS für dich natürlich ein Fail? Sry, kann ich gar nicht erst nehmen, das wäre mir ohne Direkt Screenshot Vergleich doch nie im Leben aufgefallen. Dazu sage ich es nochmal, 40% mehr FPS.......GPU wechseln, kann man sich sparen, wenn ein Spiel DLSS bietet.

-/\-CruNcher-/\-
2021-03-26, 16:16:41
@Ex3cut3r
Das sind sachen die können viele nicht greifen, bei Youtube und Co haben sie sich dran gewöhnt hier wird es noch etwas dauern ;)
Vor allem werden die Ergebnisse immer besser werden

Achill
2021-03-27, 14:52:44
LOL, dein Ernst? Und wegen so einer kleinigkeit, ist das DLSS für dich natürlich ein Fail? Sry, kann ich gar nicht erst nehmen, das wäre mir ohne Direkt Screenshot Vergleich doch nie im Leben aufgefallen. Dazu sage ich es nochmal, 40% mehr FPS.......GPU wechseln, kann man sich sparen, wenn ein Spiel DLSS bietet.

@Ex3cut3r
Das sind sachen die können viele nicht greifen, bei Youtube und Co haben sie sich dran gewöhnt hier wird es noch etwas dauern ;)
Vor allem werden die Ergebnisse immer besser werden

Anstatt die Artefakte anzuerkennen (diese sind in diesem Fall nun einmal auch auf Standbildern zu sehen) und damit hier oder auch woanders eine konstruktive Diskussion zu starten (was im Endeffekt auch DLSS helfen würde), kommt hier nur Rant von den üblichen Verdächtigen. Wenn das Niveau hier nicht passt, dann zieht einfach zu einer anderen passenden Plattform.

-/\-CruNcher-/\-
2021-03-27, 15:18:08
@Achill
In der Tat sehr konstruktiv,
Ja zum jetzigen Zeitpunkt und Stand erkenne ich sie absolut im Verhältniss zur Performance/Energieoutput gesetzt an, so lange es sich vor allem nicht um Ghosting handelt.
Der rest ist erstmal HVS kritisch und der Zielgruppe und Usecase entsprechend ziemlich uninteressant.

Es gibt andere sachen die sehe ich viel kritischer und da geht es mehr um die Politik dahinter.

x-force
2021-03-27, 15:26:14
kommt hier nur Rant von den üblichen Verdächtigen. Wenn das Niveau hier nicht passt, dann zieht einfach zu einer anderen passenden Plattform.

dann ließ lieber nochmal was ich oben vorgeschlagen habe :wink:

Troyan
2021-03-27, 15:33:21
wirf bitte nicht wieder alles zusammen in den mixer, so kann man keine vernünftigen aussagen treffen! natürlich ist das bild mit dlss schlechter wenn man gleichzeitig doppelt so viele bilder haben möchte.


Das war Sarkasmus.

Es geht hier doch nicht mehr um die Technik, sondern bestimmte Gruppen von Hardwarebesitzer wollen sich einfach den Kauf von rückständiger Hardware hier schön schreiben. Würden die DLSS nutzen können, niemand würde hier wegen irgendwelchen minimalen Nachteilen so einen Aufstand machen.

Ich spiele gerade "The Fabled Wood" und in 4K ist DLSS@Quality ~65% schneller gegenüber nativ mit Raytracing. Oder besser gesagt: DLSS ermöglich 60FPS mit 4K ähnlicher BQ.

Interessieren mich da die Nachteile, die man sehen kann? Nope. Denn Spiele sind keine Stillbilder. FPS ist ein Qualitätsmerkmal.

vinacis_vivids
2021-03-27, 15:42:29
Tja, dein Erkenntnishorizont ist eben klein.

Ich selbst bin zu sehr an guter AMD-Bildqualität gewöhnt, so dass DLSS für mich reines Marketing mit verminderter Bildqualität ist. Und Bildqualität ist ein hartes Kriterium für Hardware.

Slipknot79
2021-03-27, 15:45:17
BQ ist kein Argument. Die meisten nutzen hintergrundbeleuchtete TFTs. Das sagt alles.

w0mbat
2021-03-27, 15:56:07
Dann braucht man aber auch kein DLSS, sondern kann einfach alles von high auf medium stellen.

robbitop
2021-03-27, 16:20:03
Es ist doch lediglich eine Option - ein Werkzeug. Wer es nicht nutzen will, lässt es aus. Alternativ kann man es auch mit Downsampling kombinieren, um die BQ pro W zu steigern.
Beispielsweise 1440p mit Performance Mode auf 5K hochrechnen und dann auf 1440p downsamplen. Das wird sicherlich die BQ steigern.

-/\-CruNcher-/\-
2021-03-27, 16:48:50
Richtig es wird keinem direkt aufgezwängt jeder kann entscheiden ob er es nutzen möchte oder ob er einen anderen weg wählt nur die anderen wege sind deutlich steiniger und die Einbusen auf irgend einer seite deutlich höher.
Es ist da und es kann genutzt werden, allerdings seh ich schon mehr darin da es weitere Produktentwicklungen powern wird wie CUDA zuvor.

Bis auf die älteren Nvidia Hardware user die schauen wie immer mal in die Röhre aber daran muss man sich als Nvidia user gewöhnen bzw hat man sich schon gewöhnt ;)

Immerhin es sind 2 Generationen die schon davon profetieren und die 3te wird es auch von daher muss man abschliesen mit dem was war ;)

Und als Pascal user könnte man das ziemlich gut, nur gerade das abschliesen ist momentan auch einfacher gesagt als getan und lief wahrlich nicht nach Plan oder vielleicht doch ;)

Gast
2021-03-27, 23:48:43
Texturdetails wie bei echter SSAA-Keule für fast gratis. :eek:


"Texturdetails" bei den undetailiertesten Texturen im Jahr 2021, sehr sinnvoll damit einen neg. LOD-BIAS zu demonstrieren.

y33H@
2021-03-28, 00:13:27
Ohne vorheriges Training ist Upscaling aber halt genau das, nur Upscaling - wohingegen DLSS ein Rekonstruktionafilter ist.

Gast
2021-03-28, 00:25:43
Ich selbst bin zu sehr an guter AMD-Bildqualität gewöhnt, so dass DLSS für mich reines Marketing mit verminderter Bildqualität ist. Und Bildqualität ist ein hartes Kriterium für Hardware.

Die Bildqualität ist mit DLSS bei gegebener Performance signifikant höher.

Mehr noch DLSS ist das Feature was für den größten Sprung aller Zeiten im Verhältnis von Performance und Bildqualität gesorgt hat. Das einzige was da noch irgendwie nahe kommt ist das erste Mal Echtzeit Texturfilterung mit der Voodoo, und das ist bald 25 Jahre her.

Und das mit riesigem Abstand beste Feature das Grafikkarten die letzen 20 Jahre gebracht haben, noch um Größenordnungen über Raytracing, auch wenn es dafür eigentlich als enabler gedacht ist.

Savay
2021-03-28, 01:16:41
Häh?! Wo ist da der Unterschied?!
Alles was nicht grade Nearest-Neighbour ist, ist doch ein Rekonstruktionsfilter.
Oder meinst du die temporale Komponente?!

Raff
2021-03-28, 01:22:38
Das Wissen, wie das Bild auszusehen hat, basierend auf Hi-Res-Material.

MfG
Raff

Savay
2021-03-28, 01:32:49
Was DLSS in der Theorie macht wissen wir denke ich langsam alle.
Nur ist das eigentlich nicht die Definition eines Rekonstruktionsfilters. :uponder:

Ihr habt mit euren ewigen AF vergleichen vor ewigen Zeiten doch auch nichts anderes gemacht als Rekonstruktionsfilter zu vergleichen. ;)

Und am Ende ist selbst ein per NN erstellter Filter auch nicht wirklich unbedingt sehr viel mehr als ein LUT basierter "Upscaler" wie HQ3x o.ä.
(Funktioniert für ScummVM ja ganz okayish und entsprechend ähnlich sah interessanterweise DLSS1 ja streng genommen auch aus. :ulol:)
Nur das die LUT und Algo halt "trainiert" und ne vergleichsweise Black-Box ist.
Weshalb das je nach Problemstellung auch durchaus auf ein mit Kanonen auf Spatzen schießen hinauslaufen kann. Ist halt oft schon ziemlich Brute-Force.

robbitop
2021-03-28, 11:37:23
Es wird immer wieder neu erklärt, weil es anscheinend Personen gibt, die es immer noch nicht verstanden zu haben scheinen und es "upscaling" oder "Filter" nennen. ;)
Was daran "faszinierend" sein soll, erschließt sich mir nicht.

Es ändert jedoch nichts daran, wenn schlussendlich auch nicht bessere Bildqualität dabei heraus kommt.

Das Ziel von DLSS ist es in den aktuellen Modi nicht, die BQ zu erhöhen, sondern um möglichst wenig BQ Einbußen zu haben und gleichzeitig die Framerate zu steigern. Es ist eine Option - ein Werkzeug. Mehr nicht.

Ein Beispiel: So ermöglicht es bspw 2060 Besitzern auch 4K Displays in Spielen spielbare Framerate, was ohne DLSS nicht spielbar möglich wäre. Die Alternative wäre dann 1440p ohne DLSS auf einem 4K Monitor oder TV. 4K @DLSS sieht dann sicherlich in der Mehrzahl der Fällen (insbesondere in guten Implementierungen) besser aus als 1440p ohne DLSS. Ähnliches machte die PS4Pro mit Checkerboarding oder je nach Spiel anderen temporalen Bildrekonstruktionen. Sah sicherlich schlechter aus als natives 4K. Aber die Option mit der Hardware wäre ansonsten nur 1200p gewesen. Entsprechend war es für die Leistung die zur Verfügung stand die in der Regel bessere Wahl (man schaue sich Horion Zero Dawn an). DLSS 2.0 geht hier in der Evolution einfach nur einen Schritt weiter.

Theoretisch könnte man sicherlich auch die BQ steigern, in dem man es mit Downsampling kombiniert.


Es stellt sich immer die Frage ob man das nicht effizienter hinbekommt und mit weniger Vorarbeit, die der Harwarehersteller auf separaten Servern macht um diese dann einzupflegen.
Das trainierte neuronale Netz ist kontentagnostisch. Im Gegensatz zu DLSS 1.x. Das neuronale Netz wird darauf hin trainiert, das Clamping möglichst gut zu machen.

Diese Frage kann man sich natürlich gerne stellen. Die bisherige Antwort lautet: es haben viele ohne NN (Checkerboarding, bisherige TAAs, Ubisofts Image Reconstruction, Insomniacs Lösung aus Ratchet & Clank, die Lösung aus der UE4 etc) probiert. Und keine der Lösungen ist in Bezug auf das Clamping annähernd konkurrenzfähig. Entsprechend weniger Samples kann man (relativ zum DLSS Ansatz) sammeln und somit rekonstruieren.
Temporale Rekonstruktion ist nicht neu. Das wird grundsätzlich seit ~2013 in verschiedensten Formen in Spielen gemacht. Entsprechend mangelt es hier bis dato nicht an Versuchen.

Neuronale Netzwerke erzielen bei solchen Aufgaben in der Regel die besseren Ergebnisse als Heuristiken. Aber wer weiß - ggf. ändert sich das noch. Aber bis dato ist es so.


Temporale Element werden auch anders berücksichtigt, wie du ja auch schreibst. Es ist eine mögliche Form des Postprocessing aber ich sehe nicht, dass es sich so entscheidend von schon bestehenden Lösungen abhebt in der Qualität, als dass AMD darauf aufbauend nicht eine ebenfalls für Raytracing gut funktionierende Lösung entwickeln kann, ganz ohne den Abhängigkeiten die DLSS schon konzeptionell hat.
Es hebt sich deutlich von bisherigen Rekonstruktionstechniken ab, wenn das Ziel ist, mit weniger Grundauflösung eine höhere Auflösung zu erzielen. DLSS ist kein Ersatz für native Auflösung + gutes TAA. Zumindest gibt es keinen solchen Modus bei DLSS zur Auswahl. Aktuell ist es ein Werkzeug was versucht möglichst wenig Verlust an BQ zu erzielen beim Senken der Grundauflösung.

Wenn du das als Postprocessing bezeichnest, würdest du auch Checkerboarding oder TSSAA als "Postprocessing" bezeichnen? IMO passt der Begriff nicht wirklich - das geht deutlich über Postprocessing hinaus. Bei DLSS 1.x hätte ich noch zugestimmt. Aber DLSS 1.x funktioniert völlig anders. Man hätte 2.0 einen anderen Namen geben müssen, weil es wirklich etwas völlig anderes tut. Viele denken bei DLSS immer noch an 1.x.


AMD hat separate Compute Controler mit ACE um das Postprocessing zu interleaven und das wird wohl kaum mehr FPU Renderzeit kosten, wie ja schon mehrfach demonstriert wurde. Hier entlastet ja auch bei DLSS das rendern auf niedriger Auflösung und nichts anderes.
Die ACEs ermöglichen eine besonders gute Auslastung der FPUs via async compute. Aber wenn es deutlich mehr Rechenlast gibt, können die auch nicht zaubern. Bisherige heuristische Clampingansätze sind offenbar relativ rechenunintensiv. Kosten sehr wenig Frametime und Rechenleistung.

Bei DLSS 2.x hingegen: Wenn man sich im NV Performancetool die Rechenzeiten pro Frame anschaut, sieht man bei DLSS 2.x (abhängig von der Zielauflösung) schon signifikante Zeitaufwändungen. 2-3 ms sind es schon, die auf die Gesamtrenderzeit draufkommen (da werden dann die Matrix FPUs "Tensor Cores" genutzt). Würden sie das über die regulären Vektor FPUs machen würde es sicherlich deutlich länger dauern. Man sieht es auch ohne, wenn man sich Benchmarks z.B. vom ultraperformance Mode anschaut. 8K Zielauflösung und nur 1440p Basisauflösung. Verglichen mit den fps von 1440p ohne DLSS brechen die FPS richtig stark ein. Oder man vergleich den Quality Mode mit 4K (auch 1440 Basisauflösung aber nur 4K Endauflösung statt 8K) - ein himmelweiter Unterschied in Bezug auf die FPS. Entsprechend aufwändig ist das ganze und zwar abhängig von der Zielauflösung.

Die Frage ist, wie gut bekommt man die Ergebnisse noch hin ohne NN? Denn es ist wesentlich weniger rechenaufwändig. Die bisherige Evolution der Ergebnisse macht zumindest ein klein wenig Mut.

Complicated
2021-03-28, 11:40:16
Dass du an Begriffen anstatt an dem Thema argumetierst. Nur weil DLSS kein Filter ist heisst es nicht, dass Filter/Postprocessing nicht gleich gute Ergebnisse liefern können.
Hier geht es nicht um Tech-Checklisten die AMD erfüllen muss, sondern ob das Ergebnis am Ende gleichwertig ist.

Etwas überheblich zu unterstellen jemand versteht etwas nicht nur weil er eine andere Meinung/Perspektive vertritt. Findest du nicht?

robbitop
2021-03-28, 12:18:24
Dass du an Begriffen anstatt an dem Thema argumetierst. Nur weil DLSS kein Filter ist heisst es nicht, dass Filter/Postprocessing nicht gleich gute Ergebnisse liefern können.

Nur ein kleiner Teil meines Postings befasst sich mit Begriffen. Der Großteil befasst sich relativ inhaltlich zum Thema Bildrekonstruktion.


Hier geht es nicht um Tech-Checklisten die AMD erfüllen muss, sondern ob das Ergebnis am Ende gleichwertig ist.
Ich habe nirgendwo das Gegenteil behauptet. Ich bin hier lediglich skeptisch. Denn temporale Bildrekonstruktion ist seit vielen Jahren alltägliche Praxis in Spielen. Es gibt sehr viele Ansätze. Die Ergebnisse sind bis dato nicht vergleichbar. (immer bezogen auf niedrige Grundauflösung -> temporale Rekonstruktion zur höheren Zielauflösung)

Das heißt nicht, dass es nicht möglich ist. Es läßt es aber unwahrscheinlicher erscheinen.


Etwas überheblich zu unterstellen jemand versteht etwas nicht nur weil er eine andere Meinung/Perspektive vertritt. Findest du nicht?
Der erste Absatz meines letzten Postings war ganz allgemein gemeint und nicht auf dich als Person bezogen. Das kann man aber natürlich so verstehen. Ich habe mich da nicht glücklich ausgedrückt. Entschuldige bitte.

Complicated
2021-03-28, 12:42:16
Der erste Absatz meines letzten Postings war ganz allgemein gemeint und nicht auf dich als Person bezogen. Das kann man aber natürlich so verstehen. Ich habe mich da nicht glücklich ausgedrückt. Entschuldige bitte.Referenz verwechselt? Ich bezog mich doch eindeutig auf deine Begründung warum immer wieder die Technik erläutert wird. Du hast hier Unwissenheit unterstellt und falsche Bezeichnungen. Vielleicht kehren wir mal zum Thema zurück und wir gehen den Schritt zu diskutieren ob die bei DLSS eingesetzte Technik überhaupt eine bessere Qualität bringt und ob das ohne AI nicht ganz genauso gut aussehen kann auf AMD Hardware mit Filter und Postprocessing. Du kannst ja jetzt gerne erneut den Unterschied erläutern der hinlänglich bekannt ist, doch ich würden irgendwann gerne mal zu dieser Diskussion weiter fortschreiten. Es ist faszinierend, wie ich schon schrieb, dass da niemand den Schritt weiter auf den Prüfstand stellen möchte.

y33H@
2021-03-28, 12:50:31
Upscaling und (Schärfe)filter kann mangels zusätzlichen Informationen nicht so gut aussehen wie DLSS oder generell temporales Supersampling.

robbitop
2021-03-28, 12:57:43
AMD`s Lösung ist ohnehin besser, weil plattformübegreifend, ohne Marketing schnick schnack, mehr CPU-Nutzung auch für schwächere GPU`s und einfacher umzusetzen ist. Dazu ohne zusätzlichen Server und ohne überflüssige dezidierte Einheiten.

Das sind defintiv Vorteile. Ob man damit vergleichbare Ergebnisse erzielen wird, bleibt spannend. Es ist aber zu hoffen, denn proprietäre Verfahren sind nicht gut für den Konsumenten. Technisch interessant hingegen sind alle.

Referenz verwechselt? Ich bezog mich doch eindeutig auf deine Begründung warum immer wieder die Technik erläutert wird. Du hast hier Unwissenheit unterstellt und falsche Bezeichnungen.
Wo habe ich explizit Unwissenheit unterstellt? Sofern dass der Fall war entschuldige ich mich. Das war nicht meine Intension.

Die Bezeichnungen sind aus meiner Sicht keine glückliche Wahl, da sie bei Dritten schnell zu falschen Schlussfolgerungen führen. Zu meinen Ausführungen stehe ich nach wie vor.


Vielleicht kehren wir mal zum Thema zurück und wir gehen den Schritt zu diskutieren ob die bei DLSS eingesetzte Technik überhaupt eine bessere Qualität bringt und ob das ohne AI nicht ganz genauso gut aussehen kann auf AMD Hardware mit Filter und Postprocessing.
Dazu habe ich in vorherigen Postings bereits Inhalte geliefert.

Du kannst ja jetzt gerne erneut den Unterschied erläutern der hinlänglich bekannt ist, doch ich würden irgendwann gerne mal zu dieser Diskussion weiter fortschreiten. Es ist faszinierend, wie ich schon schrieb, dass da niemand den Schritt weiter auf den Prüfstand stellen möchte.
Dann mal los. Ich bin auf deine inhaltlichen Beiträge zur Fortsetzung der originären Thematik gespannt.

-/\-CruNcher-/\-
2021-03-28, 13:56:54
Es wird immer wieder neu erklärt, weil es anscheinend Personen gibt, die es immer noch nicht verstanden zu haben scheinen und es "upscaling" oder "Filter" nennen. ;)
Was daran "faszinierend" sein soll, erschließt sich mir nicht.



Das Ziel von DLSS ist es in den aktuellen Modi nicht, die BQ zu erhöhen, sondern um möglichst wenig BQ Einbußen zu haben und gleichzeitig die Framerate zu steigern. Es ist eine Option - ein Werkzeug. Mehr nicht.

Ein Beispiel: So ermöglicht es bspw 2060 Besitzern auch 4K Displays in Spielen spielbare Framerate, was ohne DLSS nicht spielbar möglich wäre. Die Alternative wäre dann 1440p ohne DLSS auf einem 4K Monitor oder TV. 4K @DLSS sieht dann sicherlich in der Mehrzahl der Fällen (insbesondere in guten Implementierungen) besser aus als 1440p ohne DLSS. Ähnliches machte die PS4Pro mit Checkerboarding oder je nach Spiel anderen temporalen Bildrekonstruktionen. Sah sicherlich schlechter aus als natives 4K. Aber die Option mit der Hardware wäre ansonsten nur 1200p gewesen. Entsprechend war es für die Leistung die zur Verfügung stand die in der Regel bessere Wahl (man schaue sich Horion Zero Dawn an). DLSS 2.0 geht hier in der Evolution einfach nur einen Schritt weiter.

Theoretisch könnte man sicherlich auch die BQ steigern, in dem man es mit Downsampling kombiniert.


Das trainierte neuronale Netz ist kontentagnostisch. Im Gegensatz zu DLSS 1.x. Das neuronale Netz wird darauf hin trainiert, das Clamping möglichst gut zu machen.

Diese Frage kann man sich natürlich gerne stellen. Die bisherige Antwort lautet: es haben viele ohne NN (Checkerboarding, bisherige TAAs, Ubisofts Image Reconstruction, Insomniacs Lösung aus Ratchet & Clank, die Lösung aus der UE4 etc) probiert. Und keine der Lösungen ist in Bezug auf das Clamping annähernd konkurrenzfähig. Entsprechend weniger Samples kann man (relativ zum DLSS Ansatz) sammeln und somit rekonstruieren.
Temporale Rekonstruktion ist nicht neu. Das wird grundsätzlich seit ~2013 in verschiedensten Formen in Spielen gemacht. Entsprechend mangelt es hier bis dato nicht an Versuchen.

Neuronale Netzwerke erzielen bei solchen Aufgaben in der Regel die besseren Ergebnisse als Heuristiken. Aber wer weiß - ggf. ändert sich das noch. Aber bis dato ist es so.


Es hebt sich deutlich von bisherigen Rekonstruktionstechniken ab, wenn das Ziel ist, mit weniger Grundauflösung eine höhere Auflösung zu erzielen. DLSS ist kein Ersatz für native Auflösung + gutes TAA. Zumindest gibt es keinen solchen Modus bei DLSS zur Auswahl. Aktuell ist es ein Werkzeug was versucht möglichst wenig Verlust an BQ zu erzielen beim Senken der Grundauflösung.

Wenn du das als Postprocessing bezeichnest, würdest du auch Checkerboarding oder TSSAA als "Postprocessing" bezeichnen? IMO passt der Begriff nicht wirklich - das geht deutlich über Postprocessing hinaus. Bei DLSS 1.x hätte ich noch zugestimmt. Aber DLSS 1.x funktioniert völlig anders. Man hätte 2.0 einen anderen Namen geben müssen, weil es wirklich etwas völlig anderes tut. Viele denken bei DLSS immer noch an 1.x.


Die ACEs ermöglichen eine besonders gute Auslastung der FPUs via async compute. Aber wenn es deutlich mehr Rechenlast gibt, können die auch nicht zaubern. Bisherige heuristische Clampingansätze sind offenbar relativ rechenunintensiv. Kosten sehr wenig Frametime und Rechenleistung.

Bei DLSS 2.x hingegen: Wenn man sich im NV Performancetool die Rechenzeiten pro Frame anschaut, sieht man bei DLSS 2.x (abhängig von der Zielauflösung) schon signifikante Zeitaufwändungen. 2-3 ms sind es schon, die auf die Gesamtrenderzeit draufkommen (da werden dann die Matrix FPUs "Tensor Cores" genutzt). Würden sie das über die regulären Vektor FPUs machen würde es sicherlich deutlich länger dauern. Man sieht es auch ohne, wenn man sich Benchmarks z.B. vom ultraperformance Mode anschaut. 8K Zielauflösung und nur 1440p Basisauflösung. Verglichen mit den fps von 1440p ohne DLSS brechen die FPS richtig stark ein. Oder man vergleich den Quality Mode mit 4K (auch 1440 Basisauflösung aber nur 4K Endauflösung statt 8K) - ein himmelweiter Unterschied in Bezug auf die FPS. Entsprechend aufwändig ist das ganze und zwar abhängig von der Zielauflösung.

Die Frage ist, wie gut bekommt man die Ergebnisse noch hin ohne NN? Denn es ist wesentlich weniger rechenaufwändig. Die bisherige Evolution der Ergebnisse macht zumindest ein klein wenig Mut.

Auf welches Szenario (Engine) gesammt Simulationskomplexität API beziehen sich die 2-3 ms genau ?

-/\-CruNcher-/\-
2021-03-28, 16:34:43
@Gast
Nicht den Verbrauch ignorieren der für Mobile Platforms und Clouds extreme effizient sein wird und von wohl noch viel größerer Bedeutung für Nvidia selbst ist ;)
Da sieh ja schon demonstrieren wie sie damit einen Node Unterschied ausgleichen ohne das ihre andere Balance sonderlich leidet
Das raffen viele einfach scheinbar nicht wie viele + punkte gegenüber - steht innerhalb des gesammten Nvidia Okösystem Einsatzbereiches und es die gesammte Platform Effizienz steigert.
Das kann man aber auch nur bei extreme breiter Betrachtung überhaupt verstehen und nicht mit einem Tunnelblick auf einen Anwendungsbereich ;)
Turing war teils auch die Antwort auf Async Compute und geht weit darüber hinaus mit Ampere hat man die Effizienz nochmal gesteigert soweit das man selbst TSMC kurz vors schienbein tretten konnte.

Mit ADALovelace wird das ganze dann richtig Unleashed

aufkrawall
2021-03-28, 16:49:24
"Texturdetails" bei den undetailiertesten Texturen im Jahr 2021, sehr sinnvoll damit einen neg. LOD-BIAS zu demonstrieren.
Und trotzdem bringt es bei den Alphatests jede Menge...

Complicated
2021-03-28, 17:19:48
@ Cruncher
Edit: Entschuldige bitte, doch in der mobilen Ansicht war das nicht für mich erkennbar, dass du lediglich zitiert hattest.

@robbitop
Danke für die Klarstellung. Aber wie du siehst hatte ich das nicht nur auf dich bezogen. Cruncher wiederholt deine Antwort mit noch grösserer Textwall.

Bisher sehe ich nirgends die Prämise als bewiesen, dass DLSS 1.0 besser aussieht als z.B. das schon bestehende Fidelity+RIS.
Die Richtungsänderung bei DLSS 2.0 war in jedem Fall eine klare Verbesserung, was die Bildqualität angeht.

Doch hier muss man doch jetzt eines festhalten was immer wieder falsch diskutiert wird im Forum: Die Beschleunigung kommt sowohl bei Nvidia als auch AMD durch das Upscaling aus einer kleineren Auflösung. Punkt. Dass DLLS 4K beschleunigt und AMD da nun nachziehen muss und keine vergleichbare Technik hat trifft hier also nicht zu. Die existiert und kann verglichen werden.

Das zweite ist dann eben die Anforderung bei dem Upscaling möglichst nahe an die native 4K+Postprocessing Qualität des Bildes zu führen. Wir sind also eigentlich nur beim Bildqualitäsvergleich, wenn wir auf AMDs angekündigte FFSS dieses Frühjahr warten.
Ob da AI im. Spiel ist oder nicht ist da eigentlich egal.

Wenn die Qualitätsunterschiede messbar sind, kommen die anderen Kriterien zum tragen. Welche Plattformen?
Welche Spiele?
Sind jeweils separate Anpassungen für jedes Spiel nötig?
Läuft das nur mit einem GPU Hersteller exklusiv (offenerStandard?)?
Wieviel Aufwand hat der Entwickler?

Diese Fragen kann ich mir auch jetzt schon stellen und die Bildqualität in 4K nativ vs. Upscaling mit AMD RIS+TAA und DLSS 2.0 vergleichen.

https://www.pcmag.com/news/testing-nvidias-dlss-20-higher-frame-rates-for-free?amp=true

Hier kann man die Erwartung für AMDs kommende Technologie ja schon definieren.
Wenn ich das aber tue, stelle ich schon jetzt fest, dass die Bildverbesserung im Verhältnis zu den Einschränkungen bei obigen Fragen nicht den Mehrwert bietet um alle diese Einschränkungen tragfähig zu machen. Verbessert AMD seine schon vorhandenen Technologien in einem, meiner Meinung nach, realistisch zu erwartenden Umfang, dann ist AI basiertes DLSS mit im Schrank abzulegen wo PhysX und Gsync gelandet sind. Und wie wahrscheinlich diese Fall ist kann man abschätzen an dem Delta das heute noch da ist zu nativ 4k bei AMD. IMHO ziemlich wahrscheinlich wenn ich mir obigen Test anschaue.
Ich persönlich finde nicht, dass die DLSS 2.0 Verbesserung es wert ist diese proprietären Einschränkungen beim Kauf einer so teuren GPU zu akzeptieren.
Kann jeder anders sehen, doch dies kann in 2 Monaten nur noch schlechter aussehen mit AMDs Release.

Edit:
Ach und sorry, dass ich nicht auf das irrelevante 8K eingehe. Auch das ist immer eine der typischen Nebelkerzen die da immer herangezogen werden.

Gast
2021-03-28, 18:37:05
Und trotzdem bringt es bei den Alphatests jede Menge...

Genau die Alphatests sehen damit extrem scheiße aus.
Beim Rest könnte man zumindest am Screenshot ja noch von einer Qualitätssteigerung sprechen.

Nakai
2021-03-28, 22:03:36
Upscaling und (Schärfe)filter kann mangels zusätzlichen Informationen nicht so gut aussehen wie DLSS oder generell temporales Supersampling.

DLSS dichtet sich Informationen dazu.

w0mbat
2021-03-28, 23:30:32
Daher auch die Artifakte.

Raff
2021-03-29, 00:38:36
DLSS dichtet sich Informationen dazu.

... die aus dem Training stammen. Und auf das Low-Res-Bild angewendet werden (jede praktisch nutzbare Bildschirmauflösung ist verglichen mit diesem Material "low-res"). Ist das echt so schwer zu kapieren, vor allem der Fakt, dass man ein solches Verfahren nicht über Nacht schreibt? Wir drehen uns in diesem und in anderen Threads im Kreis. Einige erwarten hier Wunder von AMD und werden damit - schätze ich - ziemlich hart auf dem Boden der Tatsachen aufschlagen, wenn FSR mal public geht. Ich bewundere hier robbis Engelsgeduld und Erklärungsversuche, obwohl man deutlich sieht, dass hier einige DLSS prinzipiell verfluchen, weil das [Übersetzung]eine böse Closed-Source-Blackbox einer bösen Firma[/Übersetzung] ist. ;) Niemand würde eine offene Alternative ablehnen, die qualitativ ebenbürtig ist, nur ist eine solche schlicht und ergreifend unwahrscheinlich. Dabei lassen wir uns aber gerne eines Besseren belehren. =)

Theoretisch könnte man sicherlich auch die BQ steigern, in dem man es mit Downsampling kombiniert.

Jo, das geht prinzipiell mit jedem DLSS-2.x-Spiel: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Tuning-Tipps-DLSS-2x-aktivieren-1346292/

Temporale Artefakte wie Schmieren bleiben zwar auch mit der nativen oder einer Super-Auflösung, aber die Rekonstruktion von Details und sonstige Stabilität werden zweifellos besser.

Dazu ohne zusätzlichen Server und ohne überflüssige dezidierte Einheiten.

Die "überflüssigen" dedizierten Fixed-Function-Einheiten schuften anstelle der Allzweck-ALUs, wie von robbitop erläutert. Nvidia würde wohl kaum diesen Umweg gehen und die Programmierung derart verkomplizieren, wenn das nichts bringen würde. Im Grunde fehlt nur ein Fallback-Modus, bei dem die FP-/INT-ALUs auch die DLSS-Berechnungen durchführen, aber einen solchen kann man nicht aktivieren. Eigentlich kurios, dass Nvidia das nicht ermöglicht, denn damit könnte man den Nutzen der Tensorkerne endlich abseits von Nsight in Zahlen pressen und so manchen Mythos killen.

MfG
Raff

Savay
2021-03-29, 00:48:04
(...) dass hier einige DLSS prinzipiell verfluchen, weil das [Übersetzung]eine böse Closed-Source-Blackbox einer bösen Firma[/Übersetzung] ist. ;)
(...)

Und was genau ist daran bitte falsch!? Das gehört genauso in die Mottenkiste der Geschichte wie FPGA basiertes G-Sync, HairWorks und Co.
Und das am besten noch bevor es irgendeine nennenswerte Relevanz erreicht.
Als Techdemo...okay...nett. aber sonst?! Danke, aber Nein Danke.

Raff
2021-03-29, 01:01:26
Der Zug ist abgefahren, DLSS ist längst relevant. Wenn ihr einen Schuldigen sucht, dann ist das übrigens am ehesten AMD, denn da kam Raytracing spät (was als Hardware-Geber aller großen Konsolen umso fataler ist) und eine praktische Antwort auf die naheliegende Frage "Wie kriegen wir den Krempel jetzt flüssig?" noch gar nicht. Man kann Nvidia viel vorwerfen, u. a. das Forcieren proprietärer Funktionen anstelle von Industriestandards, aber gewiss keine Untätigkeit. Da wird Pionierarbeit geleistet. Natürlich eigennützig, aber hochspannend und somit beachtenswert.

MfG
Raff

Complicated
2021-03-29, 01:41:08
Das eine ist beachten und das andere ist etwas über den Klee zu bejubeln. Das selbe haben wir bei Gsync erlebt und welche kurze Haltbarkeit das hatte. Da sitzen genügend jetzt auf überteuerten propriäteren Bildschirmen. Kann einem ja egal sein, nur sich über die aufzuregen denen das nicht egal ist, das erzeugt keinen guten Eindruck.

Savay
2021-03-29, 02:04:59
Der Zug ist abgefahren, DLSS ist längst relevant

Wo?! In den 3 1/2 RT Titeln die auf jeder HW absolut Grütze laufen und streckenweise eh (aus absolut verständlichen Gründen) härtestens rein nV optimiert sind?! :uponder:

Relevant ist es für mich BTW wenn es in den meisten modernen Spielen unterstützt wird und auf jeder HW mit selbem DX Level läuft. So wie normales TAA.
Oder es zumindest aus dem Treiber heraus für jedes Spiel mit entsprechendem AA Modus als Override aktivierbar wäre...wie damals RGSSAA.
Aber so brauchst du nicht nur ne passende HW, nein auch das passende Spiel und sowieso den entsprechenden Bedarf.

Aber ja sorry vergaß...alles was nV bringt ist ja der geilste scheiß und muss über den grünen Klee gelobt werden.
Egal ob es für die User nen Vendor-Feature-LockIn bedeutet oder nicht.

Bei DLSS übrigens bedeutend schlimmer als es das bei HairWorks jemals war. Bringt nämlich nicht einfach eine absurden HW Bias mit aufgrund einer absolut hirnverbrannten Implementierung, einen closed Source Code-Blob, sondern benötigt wortwörtlich dedizierte und proprietäre Rechenkerne die definitiv wohl eher nicht nachbaubar sein werden, selbst wenn es gewollt wäre. (was ich für unwahrscheinlich halte)

Stattdessen sind natürlich nur die Wettbewerber daran "Schuld". Klar.
Echt supergeil Entwicklung...die man unbedingt toll finden muss und nicht mal sanft kritisieren darf.

Technologisch ist vom Ansatz vor allem DLSS2.x wie gesagt wirklich sehr interessant (und das deutlich mehr als DLSS1.x) aber deswegen muss ich als Anwender trotzdem noch lange kein Fan der konkreten Umsetzung sein.
Davon abgesehen ist es wenn man es auf das wesentliche runterkondensiert ja auch wirklich nicht viel mehr als ein TSSAA Reloaded.

Eigentlich kurios, dass Nvidia das nicht ermöglicht, denn damit könnte man den Nutzen der Tensorkerne endlich abseits von Nsight in Zahlen pressen und so manchen Mythos killen.

Du meinst damit wohl nicht den Mythos, dass die nV Lösungen generell die cleversten und effizientesten sind und es absolut nicht anders geht?! :freak:

*hust* Hairworks *hust*

aufkrawall
2021-03-29, 02:13:01
Richtig arschig bei DLSS ist auch, dass sie nicht wenigstens die Shader-Lösung "1.9" für alle GPUs ohne TCs anbieten.
Außerdem nervt das implizite Narrativ, dass ohne DLSS Upscaling quasi unbrauchbar wäre. Gibt in so einigen Spielen temporales Upscaling, das etwas taugt. Wenn man dann davon ausgeht, dass FSR deutlich besser als das aussehen dürfte, ist dieses vorab madig machen (und damit rechtfertigen von DLSS) um so unverständlicher...

Langlay
2021-03-29, 02:37:08
Der Zug ist abgefahren, DLSS ist längst relevant.

Es bleibt aber trotzdem ne Blackbox, daher wirds auch wieder verschwinden. Nicht heute, nicht morgen, aber wahrscheinlich in ein paar Jahren.


Wenn ihr einen Schuldigen sucht, dann ist das übrigens am ehesten AMD, denn da kam Raytracing spät (was als Hardware-Geber aller großen Konsolen umso fataler ist) und eine praktische Antwort auf die naheliegende Frage "Wie kriegen wir den Krempel jetzt flüssig?" noch gar nicht.


Man könnte das jetzt auch anders auslegen, eine Firma hat ein Feature als Alleinstellungsmerkmal gelauncht was noch nicht wirklich performant läuft und versucht jetzt mit mehr oder weniger guten Verschlimmbesserungen die Performance zu liefern.

Davon ab das ich Raytracing grundsätzlich gut finde, ist das Problem halt nach wie vor die Performance. Cyberpunk RTX kannste mit na 3090 in 1440p und DLSS Quality gut spielen und der Unterschied zu DLSS off ist auch relativ gering. 4K mit DLSS Balanced ist dann schon nicht mehr ganz so schön.

Wir haben jetzt die 2. Generation an Raytracing Karten von Nvidia und eigentlich sind nur die 3090 und 3080 für Raytracing zu gebrauchen selbst mit DLSS. In ein paar Jahren wenn genug Power da ist wird das sicherlich richtig geil zur Zeit isset imo zuviel Kompromiss, bei zu geringen Gegenwert.
Aber das ist nur ganz persönlich meine Meinung.

amdfanuwe
2021-03-29, 04:00:46
Der Zug ist abgefahren, DLSS ist längst relevant.
So relevant wie PhysX

Fragman
2021-03-29, 07:28:22
Es bleibt aber trotzdem ne Blackbox, daher wirds auch wieder verschwinden. Nicht heute, nicht morgen, aber wahrscheinlich in ein paar Jahren.


Ist aber irrelevant, da man dieses Feature gebraucht haben wird.
Genau darum geht es ja, custom weil es nichts gemeinesames gibt.
AMD hängt da einige Jahre hinterher, wobei sie erstmal zeigen müssen, das sie noch zu RDNA2 Lebzeiten liefern (und am Ende nicht doch noch auf RDN3 warten um auf Hardwarebasis zu liefern) und MS hat bisher nur die Schnittstelle.

Langlay
2021-03-29, 08:34:48
Ist aber irrelevant, da man dieses Feature gebraucht haben wird.
Genau darum geht es ja, custom weil es nichts gemeinesames gibt.
AMD hängt da einige Jahre hinterher, wobei sie erstmal zeigen müssen, das sie noch zu RDNA2 Lebzeiten liefern (und am Ende nicht doch noch auf RDN3 warten um auf Hardwarebasis zu liefern) und MS hat bisher nur die Schnittstelle.

Aha, es wird niemals verschwinden, weil es innerhalb der nächsten 3 Vollmonde keine Alternative gibt.


Yap, voll Plausibel. Eben wenns es irgendwann Alternativen gibt die keine Blackbox sind, wird es sterben.

Fragman
2021-03-29, 08:59:04
Wieso so pampig?
Wenn ich mich nicht klar ausgedrueckt hab, frag nach.

HOT
2021-03-29, 09:12:54
Der Zug ist abgefahren, DLSS ist längst relevant. Wenn ihr einen Schuldigen sucht, dann ist das übrigens am ehesten AMD, denn da kam Raytracing spät (was als Hardware-Geber aller großen Konsolen umso fataler ist) und eine praktische Antwort auf die naheliegende Frage "Wie kriegen wir den Krempel jetzt flüssig?" noch gar nicht. Man kann Nvidia viel vorwerfen, u. a. das Forcieren proprietärer Funktionen anstelle von Industriestandards, aber gewiss keine Untätigkeit. Da wird Pionierarbeit geleistet. Natürlich eigennützig, aber hochspannend und somit beachtenswert.

MfG
Raff
Das ist so ein Blödsinn. DLSS ist weg vom Fenster, sobald es eine offene Lösung seitens Microsofts gibt oder die Spielehersteller eigene temporale Rekonstruktion verwenden. DLSS hat dann seinen Beitrag geleistet, indem es bessere, vor allem billigere Lösungen den Weg geebnet hat. Und RT ist alles, aber nicht relevant. Warten wir noch mal 2 Jahre, dann sieht die Welt wieder völlig anders aus und RT ist ein relevanter Faktor.

Thunder99
2021-03-29, 10:53:59
DLSS ist ja mittlerweile in der Unreal Engine integriert. Damit wird es wohl nicht so schnell wieder verschwinden. Bis AMD was vergleichbares liefert dauert es ja noch. Begrüßenswert ist es ja, da es offen ist. Wenn aber die Qualität am Ende schlechter ist bringt uns das nicht viel (Spekulationen)

fondness
2021-03-29, 11:06:10
Der Zug ist abgefahren, DLSS ist längst relevant. Wenn ihr einen Schuldigen sucht, dann ist das übrigens am ehesten AMD, denn da kam Raytracing spät (was als Hardware-Geber aller großen Konsolen umso fataler ist) und eine praktische Antwort auf die naheliegende Frage "Wie kriegen wir den Krempel jetzt flüssig?" noch gar nicht. Man kann Nvidia viel vorwerfen, u. a. das Forcieren proprietärer Funktionen anstelle von Industriestandards, aber gewiss keine Untätigkeit. Da wird Pionierarbeit geleistet. Natürlich eigennützig, aber hochspannend und somit beachtenswert.

MfG
Raff

Immer derselbe narrativ der NV-Fans, AMD ist Schuld das Nvidia proprietären Mist bringt. Was natürlich völliger Blödsinn ist, es steht NV frei dasselbe frei anzubieten - dann wäre es nämlich tatsächlich Pionierarbeit die man loben könnten und welche die Industie voran bringt.

Leute die eine solche Vorgangsweise verteidigen sägen an dem Ast auf dem sie sitzen. Eine PC-Spielewelt in dem sich NVs proprietärer Mist durchgesetzt hat will mit Sicherheit kein Spieler, außer vielleicht die hardcore NV-Fans denen alles egal ist.

JVC
2021-03-29, 11:15:31
Proprietär + Blackbox = nein Danke. M.M.

Ich kann gut ohne dem "unglaublichen fantastischen Jahrmarkt Wunder DLSS" leben ;)
Irgendwie besitze ich noch kein einziges Speil welches DLSS unterstützt und wo ich es benötigt hätte.

Ob ich wohl noch den Tag erlebe, wo sich NV mal für offene Standards, also für Alle bemüht? :rolleyes:

Seit gefühlt Jahrzehnten wiederholt sich das "Spielchen" bei NV...
Aber immer wieder glaubt man an das Beste, bevor man es dann wieder zu Grabe trägt...
(wer so oft "versagt", dem gebe ich doch keine Vorschusslorbeeren mehr.)

Was nützt ein XXXX was nur in wenigen Spielen mit viel Nacharbeit gut was bringt?
(nebenbei benötigt es mit den Tensor-Kernen auch noch zusätzliche spezielle Hardware)

Da hab ich doch lieber ein XXX was etwas weniger bringt und dafür Überall und von Jedem simpel eingesetzt werden kann.

M.f.G. JVC

Es steht NV frei, dasselbe frei und offen anzubieten - dann wäre es nämlich tatsächlich Pionierarbeit die man loben könnte und welche die Industie voran bringt.

+1

robbitop
2021-03-29, 12:08:06
Bisher sehe ich nirgends die Prämise als bewiesen, dass DLSS 1.0 besser aussieht als z.B. das schon bestehende Fidelity+RIS.
DLSS 1.0 sah sogar schlechter aus. DLSS 1.0 ist Upsampling + Schärfe + Ausdenken via Neuronalem Netzwerk. Die Ergebnisse waren nicht so toll.
DLSS 1.0 war tatsächlich eine Art Filter / PP.


Die Richtungsänderung bei DLSS 2.0 war in jedem Fall eine klare Verbesserung, was die Bildqualität angeht.

Doch hier muss man doch jetzt eines festhalten was immer wieder falsch diskutiert wird im Forum: Die Beschleunigung kommt sowohl bei Nvidia als auch AMD durch das Upscaling aus einer kleineren Auflösung. Punkt. Dass DLLS 4K beschleunigt und AMD da nun nachziehen muss und keine vergleichbare Technik hat trifft hier also nicht zu. Die existiert und kann verglichen werden.
Die Beschleunigung kommt von einer geringeren Grundauflösung. Das stimmt. Aber beide Technologien sind kaum vergleichbar. Das eine Verfahren ist wirklich nur Upsampling und Schärfen und das andere ist echte Bildrekonstruktion. Ein himmelweiter Unterschied. Mit Upsampling und Schärfen kommen keine Bildinformationen dazu. Bei temporaler Rekonstruktion ist das anders. Die Presse scheint es in so ziemlich allen Tests ähnlich zu sehen. Auch digital foundry benennt das immer wieder.

Wie aufkrawall schon sagt: gibt es allerdings schon existierende Verfahren basierend auf temporaler Bildrekonstruktionen, die nicht von Nvidia sind.
Checkerboard Rendering, Ubisofts Lösung (siehe Watchdogs 2&3), Remedys Lösung (siehe Quantum Break), Epics Lösung (siehe UE 4.0), Insomniacs Lösung (siehe Ratchet and Clank).


AMD arbeitet auch an einer vergleichbaren Lösung. Die dann hoffentlich offen für alle IHVs und Studios ist. Wäre wünschenswert.


Das zweite ist dann eben die Anforderung bei dem Upscaling möglichst nahe an die native 4K+Postprocessing Qualität des Bildes zu führen. Wir sind also eigentlich nur beim Bildqualitäsvergleich, wenn wir auf AMDs angekündigte FFSS dieses Frühjahr warten.
Ob da AI im. Spiel ist oder nicht ist da eigentlich egal.
Absolut. Es ist sogar egal ob es temporale Rekonstruktion ist. Nur Ergebnisse zählen.


Wenn die Qualitätsunterschiede messbar sind, kommen die anderen Kriterien zum tragen. Welche Plattformen?
Welche Spiele?
Sind jeweils separate Anpassungen für jedes Spiel nötig?
Läuft das nur mit einem GPU Hersteller exklusiv (offenerStandard?)?
Wieviel Aufwand hat der Entwickler?

IMO würde es schon im ersten Schritt reichen, wenn man halbwegs rankäme, es dafür aber offen ist und einfach zu implementieren ist.
Und es wird wahrscheinlich schneller sein - denn Clamping ohne NN sind in der Regel super fix.


Diese Fragen kann ich mir auch jetzt schon stellen und die Bildqualität in 4K nativ vs. Upscaling mit AMD RIS+TAA und DLSS 2.0 vergleichen.

https://www.pcmag.com/news/testing-nvidias-dlss-20-higher-frame-rates-for-free?amp=true

Hier kann man die Erwartung für AMDs kommende Technologie ja schon definieren.
Wenn ich das aber tue, stelle ich schon jetzt fest, dass die Bildverbesserung im Verhältnis zu den Einschränkungen bei obigen Fragen nicht den Mehrwert bietet um alle diese Einschränkungen tragfähig zu machen. Verbessert AMD seine schon vorhandenen Technologien in einem, meiner Meinung nach, realistisch zu erwartenden Umfang, dann ist AI basiertes DLSS mit im Schrank abzulegen wo PhysX und Gsync gelandet sind.
Das sehe ich auch so. Es reicht, wenn man halbwegs in Schlagreichweite kommt, dafür aber nicht proprietär ist.


Ich persönlich finde nicht, dass die DLSS 2.0 Verbesserung es wert ist diese proprietären Einschränkungen beim Kauf einer so teuren GPU zu akzeptieren.
Kann jeder anders sehen, doch dies kann in 2 Monaten nur noch schlechter aussehen mit AMDs Release.
Ich sehe das auch so. Selbst wenn man "nur" das Niveau der besten Checkerboard Rendering Implementationen erreicht. Das kann man ja immer weiter ausbauen.
Und ich vermute, AMD's Ziel ist es nicht, nur auf das Niveau zu kommen.


Edit:
Ach und sorry, dass ich nicht auf das irrelevante 8K eingehe. Auch das ist immer eine der typischen Nebelkerzen die da immer herangezogen werden.
Ich darf dich an deine Anfrage erinnern, einen sachlichen, angemessenen Ton zu bewahren. Entsprechend ist die Erwartung, dass du dich nach den gleichen Maßstäben verhälst. Argumente von anderen abfällig als "Nebelkerzen" zu bewerten folgt meiner Ansicht nach nicht diesem Schema.

Es war keine Nebelkerze sondern zeigt nur Wege auf (wenn man nicht NVs Performance Tools für die Analyse nutzen will), zu zeigen, wie viel Rechenzeit in ms in das Verfahren fließt und dass es es gekoppelt an die Output resolution ist.


Gibt in so einigen Spielen temporales Upscaling, das etwas taugt. Wenn man dann davon ausgeht, dass FSR deutlich besser als das aussehen dürfte, ist dieses vorab madig machen (und damit rechtfertigen von DLSS) um so unverständlicher...
Gibt es defintiv. Bisherige Verfahren kommen aber leider nicht an DLSS 2.0, wenn es gut implementiert ist, heran. Leider. Die UE 4 Resultate sind deutlich schlechter. Auch die von Ubisofts Upsampling.
Die mit Abstand beste Implementierung außerhalb von DLSS 2.0 ist IMO Checkerboarding in Horizon Zero Dawn.

DF verglich die Ergebnisse von Checkerboard Rendering in Death Stranding mit denen von DLSS 2.0:
https://www.youtube.com/watch?v=9ggro8CyZK4

Bis auf das geblurre von den Particles (die offenbar keine Motion Vectors haben) war das ein relativ klares Ergebnis.

Complicated
2021-03-29, 12:11:40
DLSS hängt aber nicht nur am Chipdesign. Es erfordert auch zusätzlichen Aufwand der Herstellers auf einem Server um die Profile für jedes Speil zu trainieren, was immer der dümmste Weg für eine übergreifende Implementation für alle ist. Das selbe sieht man wenn man den Laptop-Herstellern die Treiberupdates überlässt für die APUs. AMD hat auch da die Notbremse gezogen und schließt die APUs nun mit dem direkt verfügbaren Treibern ein - die selbe Hürde hat DLSS.
Die Beschleunigung kommt von einer geringeren Grundauflösung. Das stimmt. Aber beide Technologien sind kaum vergleichbar. Das eine Verfahren ist wirklich nur Upsampling und Schärfen und das andere ist echte Bildrekonstruktion. Ein himmelweiter Unterschied. Mit Upsampling und Schärfen kommen keine Bildinformationen dazu. Bei temporaler Rekonstruktion ist das anders. Die Presse scheint es in so ziemlich allen Tests ähnlich zu sehen. Auch digital foundry benennt das immer wieder.
Bitte lass uns diesen Kreisel mal verlassen - egal wie du es nennst und was unter der Haube passiert - die Frage ist ob es ein besseres Ergebnis wird. Und wie breit die GPU-Käufer davon profitieren. Da ist DLSS in einer Sackgasse by Design.

Es war keine Nebelkerze sondern zeigt nur Wege auf (wenn man nicht NVs Performance Tools für die Analyse nutzen will), zu zeigen, wie viel Rechenzeit in ms in das Verfahren fließt und dass es es gekoppelt an die Output resolution ist.
Natürlich ist ein Argument ohne Relevanz eine Nebelkerze für diese GPU-Generation. Was daran auch unsachlich sein soll erschließt sich mir hier nicht. 8K Beispiele bilden nicht die Realität ab, wenn 4K noch nicht mal Standard ist.

Daredevil
2021-03-29, 12:13:42
DLSS hängt aber nicht nur am Chipdesign. Es erfordert auch zusätzlichen Aufwand der Herstellers auf einem Server um die Profile für jedes Speil zu trainieren, was immer der dümmste Weg für eine übergreifende Implementation für alle ist. Das selbe sieht man wenn man den Laptop-Herstellern die Treiberupdates überlässt für die APUs. AMD hat auch da die Notbremse gezogen und schließt die APUs nun mit dem direkt verfügbaren Treibern ein - die selbe Hürde hat DLSS.
Wurde das nicht mit DLSS 2.0 ersetzt bzw. vereinfacht?
Meine da in meiner Erinnerung Infofetzen zu finden. :D

Complicated
2021-03-29, 12:15:04
@Daredevil
Braucht es keine Trainings mehr auf dem AI-Server? DLSS 2.0 ist nur schneller geworden, laut meinen Infos.

Daredevil
2021-03-29, 12:17:32
Habs gefunden. :)
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/DLSS-20-Test-Infos-1346121/#a3

Sowas wird AMD mit Sicherheit auch machen, damit sie die kompletten Konsolenspiele abdecken können, das wäre eine wahnsinnig gute Entwicklung!

Fragman
2021-03-29, 12:18:26
Nvidia hätte mit gar nichts warten müssen. Sie hätten es einfach als offenen Standard etablieren können. Wie schon so vieles vorher. Wie es andere dann implementieren steht doch auf einem völlig anderen Blatt. Sie müsse dich nicht ihre HW für andere zum Nachbau freigeben. Was ist daran so unverständlich? Hier scheinen viele zu glauben, dass der Standard durch die HW definiert wird.


Offene Standards funktionieren wenn alle die es nutzen wollen auch dran arbeiten.
Nv kann da gar nicht fuer amd oder jemand anders sprechen. Also haetten sie die anderen mit ins Boot holen muessen und damit haetten sie die Tech aufschieben muessen. Directml kam ja auch erst spaeter.

Davon ab stimmt es natuerlich das es die Konkurrenz foerdert.

Complicated
2021-03-29, 12:18:59
Habs gefunden. :)
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/DLSS-20-Test-Infos-1346121/#a3
Da steht es doch eindeutig:
Dieses Wissen wird in komprimierter Form abgespeichert und gelangt mittels Spiel- und Treiber-Code auf die Rechner der Spieler.

Daredevil
2021-03-29, 12:20:58
Da steht es doch eindeutig:
Du musst schon den Absatz lesen, den ich verlinkt habe zu DLSS 2.0. ^^
Herausgekommen ist DLSS 2.0. Dieses zeichnet sich laut Nvidia durch seine gesteigerte Qualität und Flexibilität aus. Man verwendet nun ein universell trainiertes Netz, das Pro-Spiel-Training ist nicht mehr notwendig und vereinfacht damit auch die Integration von DLSS in Spiele

Complicated
2021-03-29, 12:20:59
Directml kam ja auch erst spaeter.
Auch DirectML (DX) ist kein offener Standard, jedoch allen kostenlos zugänglich - das macht Nvidia halt nicht. Da liegt der Hund begraben.

Complicated
2021-03-29, 12:22:58
Du musst schon den Absatz lesen, den ich verlinkt habe zu DLSS 2.0. ^^
Und wo muss da keine Anpassung mehr ausgeliefert werden?
Training ist nicht mehr notwendig und vereinfacht damit auch die Integration von DLSS in Spiele - Zutun durch deren Entwickler ist jedoch nach wie vor nötig, da DLSS Zugriff auf diverse Buffer benötigt.
Zwar kein Training mehr, doch Anpassungen pro Spiel. Hairworks/PhysX lässt grüßen.

Daredevil
2021-03-29, 12:26:23
Na du hattest das Training kritisiert, das wurde mit 2.0 im Grunde "für jedes Spiel extra" entfernt.
Also hat man sich deiner Kritik offensichtlich angenommen. :)

Dass jeder Hersteller das ganze nun separat einbauen muss, ist ebenfalls Kritik würdig, auch das stimmt. Deswegen wird es ja auch aktuell in eine der größten Engines implementiert, damit der Hersteller aber keinen Aufwand hat für die Anpassung für DLSS.
Das ist ebenfalls etwas, was deiner Kritik entspricht und geändert wird.

Scheint also alles den richtigen Weg zu gehen und AMD kann sich wunderbar anschauen, wie sie es am besten nicht machen sollten. ^^
Also so wenig Arbeit wie möglich machen und so weit wie möglich verbreiten.
Wie gesagt, wenn sie das universelle DLSS entwickeln für jede Plattform, dann ist das ein Killer Feature, welches Nvidia sicherlich überrennen wird.
Die fokussieren sich halt nicht auf die Masse, sondern die Klasse. Und RT Grafikkarten sind halt... teuer und erreichen nicht den großen Markt.
Alleine eine neue Switch könnte Nvidia helfen, um die Masse zu erreichen, AMD steht jetzt viel besser da. Dann müssen sie jetzt aber auch liefern. :D

JVC
2021-03-29, 12:34:27
"In Kürze werden "2 weitere Spiele" mit DLSS 2.0 ausgerüstet.
Die entsprechenden Patches erscheinen im Laufe der Woche und benötigen..."

Klingt nicht recht universell...

M.f.G. JVC

robbitop
2021-03-29, 12:37:44
DLSS hängt aber nicht nur am Chipdesign. Es erfordert auch zusätzlichen Aufwand der Herstellers auf einem Server um die Profile für jedes Speil zu trainieren, was immer der dümmste Weg für eine übergreifende Implementation für alle ist.
Du weißt, dass das auf DLSS 2.0 nicht zutrifft, oder? Das NN für das clamping ist Anwendungsagnostisch. Hattest du nicht behauptet, du weißt, wie das Verfahren funktioniert?

edit:
@Daredevil
Braucht es keine Trainings mehr auf dem AI-Server? DLSS 2.0 ist nur schneller geworden, laut meinen Infos.
Du hast dich also null damit befasst. Willst aber mitdiskutieren. DLSS 2.0 hat mit DLSS 1.0 fast gar nichts mehr zu tun. Jetzt verstehe ich auch den Hintergrund deiner Postings.

meine Empfehlung ist:
https://www.youtube.com/watch?v=d5knHzv0IQE

Das erklärt relativ detailiert den Sachverhalt.



Bitte lass uns diesen Kreisel mal verlassen - egal wie du es nennst und was unter der Haube passiert - die Frage ist ob es ein besseres Ergebnis wird. Und wie breit die GPU-Käufer davon profitieren. Da ist DLSS in einer Sackgasse by Design.
Absolut. Upsampling und Filtern ist prinzipbedingt niemals auf vergleichbarer Augenhöhe wie Rekonstruktion.

Die Sackgasse sehe ich darin, dass es proprietär ist und proprietäre APIs nutzt.


Natürlich ist ein Argument ohne Relevanz eine Nebelkerze für diese GPU-Generation. Was daran auch unsachlich sein soll erschließt sich mir hier nicht. 8K Beispiele bilden nicht die Realität ab, wenn 4K noch nicht mal Standard ist.
Das war überhaupt nicht der Punkt.


Zwar kein Training mehr, doch Anpassungen pro Spiel. Hairworks/PhysX lässt grüßen.
Ohne Anpassung pro Spiel läßt sich in modernen Renderpipelines fast nichts mehr machen. Selbst TAA muss explizit von Entwickler implementiert und für das Spiel parametriert werden. Wenn man Bildrekonstruktion will, wird auch für das kommende Verfahren von AMD für jedes Spiel eine Anpassung nötig sein.

Daredevil
2021-03-29, 12:39:02
"In Kürze werden "2 weitere Spiele" mit DLSS 2.0 ausgerüstet.
Die entsprechenden Patches erscheinen im Laufe der Woche und benötigen..."

Klingt nicht recht universell...

M.f.G. JVC

Die News ist ein Jahr alt.
Und seit dem hat sich in der Tat die Unterstützung rasch beschleunigt, aber wir reden hier von vielleicht 2 statt 1 Spiel pro Monat. Also noch meilenweit weg von einer universellen Plattform...

Das hier ist von diesem Jahr:
https://www.pcgameshardware.de/Unreal-Engine-Software-239301/News/Nvidia-DLSS-Plugin-Unreal-Engine-1366887/
Damit dürfte DLSS nun, zumindest auf der Unreal Engine, für alle Spieleentwickler bereitstehen und mit der Zeit häufiger genutzt werden. Theoretisch können nun auch Indie-Entwickler die Technik nutzen, um die Performance ihres Spiels aufzubessern. In manchen Fällen ist aber wohl zu befürchten, dass dadurch auf eine weitere Optimierung verzichtet wird und Entwickler Leistungsprobleme nicht immer beheben, sondern aus Zeitgründen einfach auf DLSS verweisen.
Tolle neue Welt. :D
Da wird doch eigentlich direkt Medium beschrieben, oder? ^^

aufkrawall
2021-03-29, 12:46:09
Gibt es defintiv. Bisherige Verfahren kommen aber leider nicht an DLSS 2.0, wenn es gut implementiert ist, heran. Leider. Die UE 4 Resultate sind deutlich schlechter. Auch die von Ubisofts Upsampling.
Die mit Abstand beste Implementierung außerhalb von DLSS 2.0 ist IMO Checkerboarding in Horizon Zero Dawn.

DF verglich die Ergebnisse von Checkerboard Rendering in Death Stranding mit denen von DLSS 2.0:
https://www.youtube.com/watch?v=9ggro8CyZK4

Bis auf das geblurre von den Particles (die offenbar keine Motion Vectors haben) war das ein relativ klares Ergebnis.
Nicht nur Partikeleffekte haben in Death Stranding übelstes Ghosting, das trifft auch auf ganz normale Geometrie wie Geländer vor Wolken-Hintergrund zu. Wenn ein Spiel kein vernünftiges TAA hat, kommt DLSS offenbar immer mit absurdem Ghosting daher. Anstatt den Entwicklern dabei auf die Sprünge zu helfen, werden Ressourcen in eine ebenfalls mängelbehaftete Integration der Blackbox-Lib gesteckt. Toll, wie Nvidia die Industrie voran bringt. :freak:

Wenn es um das Erhalten des Detailreichtums geht, macht das temporale Upscaling in Legion einen verdammt guten Job.
1440p:
https://abload.de/thumb/watchdogslegion_2021_uhksf.png (https://abload.de/image.php?img=watchdogslegion_2021_uhksf.png)

70% 1440p:
https://abload.de/thumb/watchdogslegion_2021_1cjxz.png (https://abload.de/image.php?img=watchdogslegion_2021_1cjxz.png)

Wobei das Anvil- oder idTech-TAA Kantenflimmern allerdings wesentlich besser unterdrückt, jedoch ist Legion natürlich immer noch zigfach besser als das Schrott-TAA in Death Stranding. Die Bewertung von DLSS in Legion ist bei etwa CB aber auch nicht gerade überschwänglich positiv.

robbitop
2021-03-29, 12:50:02
Nicht nur Partikeleffekte haben in Death Stranding übelstes Ghosting, das trifft auch auf ganz normale Geometrie wie Geländer vor Wolken-Hintergrund zu. Wenn ein Spiel kein vernünftiges TAA hat, kommt DLSS offenbar immer mit absurdem Ghosting daher. Anstatt den Entwicklern dabei auf die Sprünge zu helfen, werden Ressourcen in eine ebenfalls mängelbehaftete Integration der Blackbox-Lib gesteckt. Toll, wie Nvidia die Industrie voran bringt. :freak:

Ich sehe das ganz genauso. Und jeder Entwickler wird dir dabei zustimmen. Das Verfahren ist grundsätzlich ziemlich gut und hat nennenswertes Potenzial. Es ist aber absolut schade, dass es komplett proprietär ist. Und es wäre sicherlich auch einfacher, dafür zu sorgen, dass alle Randbedingungen vorhanden sind, damit es dieses Geblurre nicht gibt, wenn es offen dokumentiert wäre.


Wenn es um das Erhalten des Detailreichtums geht, macht das temporale Upscaling in Legion einen verdammt guten Job.
1440p:
https://abload.de/thumb/watchdogslegion_2021_uhksf.png (https://abload.de/image.php?img=watchdogslegion_2021_uhksf.png)

70% 1440p:
https://abload.de/thumb/watchdogslegion_2021_1cjxz.png (https://abload.de/image.php?img=watchdogslegion_2021_1cjxz.png)

Wobei das Anvil- oder idTech-TAA Kantenflimmern allerdings wesentlich besser unterdrückt, jedoch ist Legion natürlich immer noch zigfach besser als das Schrott-TAA in Death Stranding. Die Bewertung von DLSS in Legion ist bei etwa CB aber auch nicht gerade überschwänglich positiv.
Ich kann mir gut vorstellen, dass AMD mit allen Studios, die in Bezug auf temporale Rekonstruktion mitgeholfen haben Fortschritte zu erzielen, sprechen wird und eine Art best practice einholen wird.

Sieht (Rekonstruktion von WD3) IMO im Standbild gar nicht schlecht aus was die Details angeht - siehe "Wifi" auf der Telefonzelle. Wie steht es um die temporale Stabilität? Mehr/weniger/gleichviel Flimmern/Moire etc?

aufkrawall
2021-03-29, 14:19:30
Sieht (Rekonstruktion von WD3) IMO im Standbild gar nicht schlecht aus was die Details angeht - siehe "Wifi" auf der Telefonzelle. Wie steht es um die temporale Stabilität? Mehr/weniger/gleichviel Flimmern/Moire etc?
Die Schwäche des TAAs bezüglich Kantenflimmern/unterbrochene Linien nimmt deutlich zu, davon ab sieht das Bild in Bewegung erstaunlich sauber aus (von ein paar unschönen Dingen wie Schattenflimmern in einigen Situationen absehen, die es aber auch in nativer Auflösung gibt). Die Vegetation bleibt erstaunlich ruhig für den kaum vorhandenen Motion Blur.
70% ist für 1440p aber auch die Grenze, 60% sehen schlagartig wesentlich schlechter aus.

Gipsel
2021-03-29, 14:26:52
Das Wissen, wie das Bild auszusehen hat, basierend auf Hi-Res-Material.
Das ist kein Wissen, das ist (anhand von Erfahrungswerten) Raten/Schätzen.
DLSS dichtet sich Informationen dazu.Daher auch die Artifakte.
Das gilt Alles (auch Raffs Quote) nur für DLSS 1. DLSS 2.0 funktioniert (wie ja schon von mehreren Leuten erwähnt) deutlich anders. Das ist ein temporale Rekonstruktion bei denen das NN eben gerade keine Bildinformationen mehr herbeihalluziniert (sondern für die Gewichtung der temporalen Information aus den vorhergehenden Frames im Zielframe zuständig ist).

aufkrawall
2021-03-29, 14:33:30
Das gilt Alles (auch Raffs Quote) nur für DLSS 1. DLSS 2.0 funktioniert (wie ja schon von mehreren Leuten erwähnt) deutlich anders. Das ist ein temporale Rekonstruktion bei denen das NN eben gerade keine Bildinformationen mehr herbeihalluziniert (sondern für die Gewichtung der temporalen Information aus den vorhergehenden Frames im Zielframe zuständig ist).
DLSS 2.0 kann natürlich trotzdem auch bei korrekt vorhandenen Bewegungsvektoren Artefakte verursachen, wenn die Heuristik zu aggressiv bez. Bewegtbildschärfe oder vermeintlich gewollter Details vorgeht. Wie halt jedes andere TAA auch.

robbitop
2021-03-29, 14:35:04
DLSS 2.0 kann natürlich trotzdem auch bei korrekt vorhandenen Bewegungsvektoren Artefakte verursachen, wenn die Heuristik zu aggressiv bez. Bewegtbildschärfe oder vermeintlich gewollter Details vorgeht. Wie halt jedes andere TAA auch.
On the spot! :up:
Das NN scheint dort aber (abhängig von der Implementierung) ein wenig weiter gehen zu können.

Gipsel
2021-03-29, 14:41:47
DLSS 2.0 kann natürlich trotzdem auch bei korrekt vorhandenen Bewegungsvektoren Artefakte verursachen, wenn die Heuristik zu aggressiv bez. Bewegtbildschärfe oder vermeintlich gewollter Details vorgeht. Wie halt jedes andere TAA auch.Genau. Die Artefakte stammen da von der TAA-Technik selber, also der nicht ganz korrekten Verrechnung der Bildinformationen der vorhergehenden Frames (das NN versucht dies nur möglichst zu minimieren) und nicht von "herbeihalluzinierter" Bildinformation.

Tobalt
2021-03-29, 21:23:10
fidelity super resolution ist das worauf ich dieses Jahr am meisten warte (falls da wieder eine 3dc Umfrage zu kommt)

Es wird der Technik den nötigen Impuls geben um mittelfristig eine 100%ige Unterstützung zu erhalten... Selbst dann wenn es anfangs schlechter sein sollte als DLSS.

DLSS wird anschließend den gleichen langsamen Tod sterben wie Gsync.

Ich finde es aber nicht nur negativ dass NV da immer wieder mit ihren proprietären Sachen vorprescht.. so üben sie Druck aus und die offenen Lösungen kommen dadurch wahrscheinlich eher auf den Markt und mit weniger Kinderkrankheiten

Gast
2021-03-30, 13:33:18
Auch DirectML (DX) ist kein offener Standard, jedoch allen kostenlos zugänglich - das macht Nvidia halt nicht. Da liegt der Hund begraben.

Das sind 2 völlig verschiedene Paar Schuhe, DirectML ist eine API, DLSS ein fertiger Algorithmus.

Savay
2021-03-30, 17:48:25
DLSS läuft aber über CUDA auf NVAPI wenn mich nicht alles täuscht.
Damit ist die Nutzung auf anderer HW schonmal eh ausgeschlossen.

Ob ein hypothetisches DLSS Release auf DirectML eh mit anderer HW Kompatibel wäre, wäre auch noch zu beweisen.
Anscheinend muss auch da wirklich sehr stark auf die passenden Datenformate, die nV für die Tensor Cores bevorzugt, optimiert werden und alles dafür stimmen, damit das fluppt.
Wenn überhaupt dann müsste es wohl einen separaten Fallback für andere HW geben und ob das überhaupt repräsentativ wäre, da dieser dann wahrscheinlich eher platt auf FP32 (un-)optimiert wäre als alles andere, stünde dann auch noch zur Debatte.

Troyan
2021-03-30, 17:54:37
Nein, DirectML ist eine API. Die Modelle laufen über jede Hardware, die unterstützt wird.

Savay
2021-03-30, 17:57:19
Aber nicht jedes Modell läuft automatisch auf den Tensor Cores nur weil es irgendwas mit Matrizen und DNN macht. :whisper:
Und das was auf den Tensor Cores gut läuft, läuft auch nicht automatisch optimalst möglich auf anderer HW und umgekehrt.

Die Dinger sind offensichtlich wirklich sehr nV spezifisch und nur nen Compiler drüber jagen reicht anscheinend auch nicht. :tongue:

Gast
2021-03-30, 18:47:11
Die Dinger sind offensichtlich wirklich sehr nV spezifisch und nur nen Compiler drüber jagen reicht anscheinend auch nicht. :tongue:

Tensor Cores sind alles andere als NV-Spezifisch, es gibt alle mögliche Chips mit Tensor-Beschleunigern, nur haben diese eben keine GPU herumgebaut.

Troyan
2021-03-30, 19:04:13
Aber nicht jedes Modell läuft automatisch auf den Tensor Cores nur weil es irgendwas mit Matrizen und DNN macht. :whisper:
Und das was auf den Tensor Cores gut läuft, läuft auch nicht automatisch optimalst möglich auf anderer HW und umgekehrt.

Die Dinger sind offensichtlich wirklich sehr nV spezifisch und nur nen Compiler drüber jagen reicht anscheinend auch nicht. :tongue:

DirectML is soweit abstrahiert, dass die unterliegende nicht 100% ausschlaggebend ist. Daher ist jeder IHV verantwortlich die Metacommands auf die Hardware zu mappen.

Gipsel
2021-03-30, 19:07:47
DirectML is soweit abstrahiert, dass die unterliegende nicht 100% ausschlaggebend ist. Daher ist jeder IHV verantwortlich die Metacommands auf die Hardware zu mappen.Stell Dir vor: Es könnte so sein, daß bestimmte Befehle mit bestimmten Datenformaten und -layouts besser auf eine bestimmte Art von Hardware mappen als auf eine andere und andere Befehle mit anderen Datenformaten und -layouts schlechter auf eine bestimmte Art von Hardware mappen als auf eine andere. ;)

Savay
2021-03-30, 19:26:47
nV schreibt es sogar selbst:

Models that run on Windows Machine Learning (WinML) using ONNX can benefit from Tensor Cores on NVIDIA hardware, but it is not immediately obvious how to make sure that they are in fact used. There is no switch or button labeled Use Tensor Cores and there are certain constraints by which the model and input data must abide.

https://developer.nvidia.com/blog/accelerating-winml-and-nvidia-tensor-cores

Aber was wissen die schon.

Ich könnte auch gern nochmal wieder die Benches eines praktisch angewendeten DNN via DirectML/WinML rausziehen, wo eine 6900XT eine 3090 recht locker wegnascht, weil die TensorCores da anscheinend entweder gar nix tun oder es ihnen einfach absolut nicht schmeckt was sie da verarbeiten müssen und die theoretische FP32 Leistung auch nicht durchschlägt. Aber das wird hier dann doch zu OT. :freak:

Tensor Cores sind alles andere als NV-Spezifisch, es gibt alle mögliche Chips mit Tensor-Beschleunigern, nur haben diese eben keine GPU herumgebaut.

Mir ist echt nicht ganz klar was du meinst.
Mit TensorCore ist im nVidia Kontext offensichtlich nVs spezifische offizielle Bezeichnung und Implementierung für deren HW Matrixeinheiten gemeint.
Natürlich ist diese Umsetzung auch deren Eigengewächs und hat sogar defacto eigene Datenformate spendiert bekommen wie TF32.

Das es ähnliche Einheiten bei Apple und mittlerweile sogar AMD (CDNA) und sonstwo gibt hat damit doch nix zu tun.

Dampf
2021-03-30, 19:32:23
Modelle, die auf den TCs laufen sollen, müssen entweder in FP16, INT8 oder iNT4 Präzision nutzen.

Gipsel
2021-03-30, 20:56:28
Modelle, die auf den TCs laufen sollen, müssen entweder in FP16, INT8 oder iNT4 Präzision nutzen.Das ist vielleicht eine Bedingung, aber nicht die einzige.

Gast
2021-03-30, 22:19:14
Mir ist echt nicht ganz klar was du meinst.
Mit TensorCore ist im nVidia Kontext offensichtlich nVs spezifische offizielle Bezeichnung und Implementierung für deren HW Matrixeinheiten gemeint.


Tensorcores ist Hardware für spezielle Matrizenoperationen. Das ist keine große Kunst, derartige Hardware gibt es zuhauf.

Selbst Google hat für Tensorflow eigene Hardware mit Tensorcores gebaut, und die ganzen "AI-Beschleuniger" in den SoCs sind auch nichts anderes.

Klar unterscheidet sich die Implementierung im Detail, genauso wie sich die Implementierung von GPUs zwischen AMD Intel und Nvidia unterscheidet, aber als Übergruppe sind es trotzdem alles Tensorcores.

Gipsel
2021-03-31, 11:07:00
Tensorcores ist Hardware für spezielle Matrizenoperationen."Tensor Core" ist nVs Marketingbezeichnung für eine Funktionseinheit zur Beschleunigung bestimmter Operationen (Matrixmultiplikationen). Andere Firmen nennen die Einheiten mit dem gleichen/ähnlichen Aufgabenbereich anders. Bei AMD nennt es sich z.B. "Matrix Core". :lol:
Allgemein ist "Tensor" in dem Zusammenhang einfach nur eine fancy Bezeichnung für eine Matrix. Es ist mir nicht bekannt, daß z.B. die nV Tensor Cores mit was Anderem klar kommen als Tensoren zweiter Stufe (gemeinhin als Matrizen bezeichnet). Weder Tensoren erster Stufe (Vektoren) noch höherer Stufen können von denen nativ verarbeitet werden (Vektoren werden nativ von den normalen GPU-Einheiten abgearbeitet, und niemand nennt die "einstufige Tensorcores" oder sowas).

Savays Punkt war einfach, daß nVs spezifische Implementation (und auf die bezog er sich) auch spezifische Eigenheiten aufweist.

Gast
2021-03-31, 13:51:17
Weder Tensoren erster Stufe (Vektoren) noch höherer Stufen können von denen nativ verarbeitet werden (Vektoren werden nativ von den normalen GPU-Einheiten abgearbeitet, und niemand nennt die "einstufige Tensorcores" oder sowas).


Nvidias "Tensorcores" können mit Vektoren arbeiten, jede FP16 Operation wird ab Turing von den "Tensorcores" berechnet, unabhängig davon ob es eine der speziellen Matrixoperationen sind die jene besonders schnell können oder nur einfache MADDs


Savays Punkt war einfach, daß nVs spezifische Implementation (und auf die bezog er sich) auch spezifische Eigenheiten aufweist.

Jede spezifische Implementation von irgendwas hat spezifische Eigenschaften. Wir sagen ja auch auch nicht zu einer CPU von AMD dass sie keine CPU ist weil sie andere spezifische Eigenschaften als Intel-CPUs haben.
Oder vielleicht ein besseres Beispiel, wir sagen ja nicht nur den Siliziumdingern auf AMD-Grafikkarten dass sie keine GPUs sind, weil sie andere spezifische Eigenschaften als die Siliziumdinger von NV haben, und NV den Begriff GPU "erfunden" hat. Aber vielleicht sollten wir von ja wirklich "GPU" auf NV beschränken und bei AMD VPU sagen, als AMD noch ATI hieß wollten sie das ja.

Gipsel
2021-03-31, 15:01:16
Nvidias "Tensorcores" können mit Vektoren arbeiten, jede FP16 Operation wird ab Turing von den "Tensorcores" berechnet, unabhängig davon ob es eine der speziellen Matrixoperationen sind die jene besonders schnell können oder nur einfache MADDsOkay, aber nur dadurch, daß der Durchsatz an nutzbaren Operationen mächtig fällt. Jede Matrixmultiplikation ist ja im Grunde ein Sack voll Dot Products aller Kombinationen der Spalten bzw. Zeilenvektoren aus den beiden Matrizen (die Matrixeinheiten profitieren hier von der Ausnutzung von lokaler Datenkohärenz, also Wiederbenutzung der Operanden; insbesondere für die kleineren Datenformate ist ja der Registerzugriff deutlich aufwändiger als die eigentlichen Rechnungen). So eine Matrixmultiplikation degeneriert also in gewissen Fällen effektiv zu einer Vektoroperation. Mit einem Dot Product von zwei Vektoren läßt sich ja auch eine skalare Multiplikation oder Addition von zwei Werten ausrechnen lassen, wenn man die anderen Werte der Vektoren geeignet auf 0 oder 1 setzt. Dadurch wird daraus auch keine Einheit, die nativ mit Skalaren arbeitet. Wenn man das dann als Feature und nicht als Nebeneffekt sehen will, okay.
Jede spezifische Implementation von irgendwas hat spezifische Eigenschaften.Na also. Und dann schau nochmal auf Savays Post und die daran enthaltene These im Vergleich zu Deiner Antwort! ;)

Dampf
2021-04-02, 13:10:08
Weil ich immer wieder höre, dass DLSS, auch bei Version 2, unter 4K nicht zu gebrauchen sei:

Hier ein 1080p Vergleich, DLSS Performance (540p) mit Cas Sharpening vs natives 1080p:

https://imgsli.com/NDc5ODY

Als Bonus noch mit FidelityFX Upscaling auf 50% (auch 540p)

https://imgsli.com/NDc5ODY/0/2

BTB
2021-04-02, 13:12:26
Also ich kann Watch Dogs Legion in 4k mit Raytracing sehr gut spielen. Bin von DLSS begeistert. :)

Troyan
2021-04-02, 13:15:18
Ja, DLSS ist die beste Upscaling-Technik, die im Gaming-Markt existiert. Selbst DLSS 1.0 sieht z.B. in Shadow of the Tomb Raider besser aus als eine vergleichbare Auflösung.

Vorallem je geringer die Input-Auflösung ist, umso besser ist das Endergebnis. Was DLSS z.B. aus 720p -> 4K macht, grenzt wahrlich an Voodoo.

-/\-CruNcher-/\-
2021-04-02, 15:19:16
@Troyan
Vielleicht nicht nur im Gaming Markt abwarten, da kommt noch einiges aus Jensens Wundertüte oder sagen wir eher Wundercluster und wer weiss schon wohin Jensen dessen Tentakeln überall hin ausstrecken möchte wir sehen Nvidia faktisch schon fast überall am Aktiv sein ;)
Das kann alles sehr schnell gehen und zum Schluss fliegen die announcements nur so umher ;)
Es prägt auf jedenfall schon sehr viel mehr die Hardware Entscheidungen und die Ausrichtung dessen Balance.
Im Gegensatz zu AMD die in 2 Produkte splitten hat Nvidia diesmal einen anderen Weg gewählt einen verdammt experimentelen.
Und aus dieser Sicht heraus ist ihr Ergebniss doch schon beindruckend für Nvidia vor allem vom wirtschaftlichen faktor aus gesehen
Nvidia gewinnt auf jeder linie überall da ist der Raster Performance Verlust der dagegen steht ein schlechter Contra Witz wenn man es gegen AMDs früheren verlusten vergleicht.
Den nehm ich überhaupt nicht ernst und wenn ein Reviewer damit kommt fang ich an zu lachen.

Raff
2021-04-02, 20:07:25
Vorallem je geringer die Input-Auflösung ist, umso besser ist das Endergebnis. Was DLSS z.B. aus 720p -> 4K macht, grenzt wahrlich an Voodoo.

Du meinst das zwar anders, aber jetzt, wo du's sagst: Die gemeine Schliererei bei hohen Upscaling-Faktoren hat tatächlich etwas von Voodoo. Voodoo 2 am ehesten, wenn man ein schlechtes (nachgebasteltes) SLI-Kabel verwendet. :ugly:

MfG
Raff

Geldmann3
2021-04-02, 21:11:03
Du meinst das zwar anders, aber jetzt, wo du's sagst: Die gemeine Schliererei bei hohen Upscaling-Faktoren hat tatächlich etwas von Voodoo. Voodoo 2 am ehesten, wenn man ein schlechtes (nachgebasteltes) SLI-Kabel verwendet. :ugly:

MfG
Raff
HAHA, der Raff. Finde die Interpretation lustig.^^

Nein, ich finde es schon unglaublich, dass DLSS-Performance noch etwas auf den Bildschirm zaubert, was in vielen Situationen ,,vergleichbar" mit nativer Auflösung samt TAA ist. Ich sage nicht, dass es so gut wäre, wie die native Auflösung, doch allein, dass man in die Nähe davon kommt, allein, dass man darüber diskutieren kann ist schon ein Wunder. Übrigens, aus etwa 2 Metern Abstand zu meinem TV kann ich keinen Unterschied mehr zwischen DLSS-Performance und nativer Auflösung+TAA erkennen. Es sei denn, es ist eine Szene mit heftigen Artefakten. Solch ein Upscaling wird zweifelsfrei ein Gamechanger für Spielekonsolen sein.

basix
2021-04-03, 12:43:42
Weil ich immer wieder höre, dass DLSS, auch bei Version 2, unter 4K nicht zu gebrauchen sei:

Hier ein 1080p Vergleich, DLSS Performance (540p) mit Cas Sharpening vs natives 1080p:

https://imgsli.com/NDc5ODY

Als Bonus noch mit FidelityFX Upscaling auf 50% (auch 540p)

https://imgsli.com/NDc5ODY/0/2

Da bin ich jetzt neugierig: Wurde in CP2077 die Nachschärfung und LOD bei DLSS Nutzung nun korrekt umgesetzt oder hat man da manuell nachgeschärft? Die Bodentexturen der Strasse sehen fast 1zu1 identisch mit nativ aus. Das sieht mit Patch <1.2 definitiv nicht so aus, auch nicht in 1440p

Ansonsten: Ja, bie diesem Bild sieht DLSS sehr nahe an nativ aus. Erstaunlich, was aus 540p rausgeholt wird.

-/\-CruNcher-/\-
2021-04-03, 13:03:34
Was rausgeholt werden kann
Das wird auch teils noch mit FSR gehen aber der Aufwand ist vorausichtlich sehr viel höher Maneuelles Weighting auf die Engine erfordert Zeit.
Die meiste Zeit hat Nvidia schon vorinvestiert und das schon vor Jahren.

Dampf
2021-04-03, 13:18:02
Da bin ich jetzt neugierig: Wurde in CP2077 die Nachschärfung und LOD bei DLSS Nutzung nun korrekt umgesetzt oder hat man da manuell nachgeschärft? Die Bodentexturen der Strasse sehen fast 1zu1 identisch mit nativ aus. Das sieht mit Patch <1.2 definitiv nicht so aus, auch nicht in 1440p

Ansonsten: Ja, bie diesem Bild sieht DLSS sehr nahe an nativ aus. Erstaunlich, was aus 540p rausgeholt wird.

Ich erkläre es gerne nochmal:

Das Spiel schärft bei TAA automatisch nach, und das nicht zu wenig:

https://forums.cdprojektred.com/index.php?threads/forced-sharpening-in-1-04.11045372/

Währenddessen ist das DLSS Sharpening komplett inaktiv und der MIP Level Bias ist falsch gesetzt:

https://www.nexusmods.com/cyberpunk2077/mods/511
https://wccftech.com/heres-how-to-improve-cyberpunk-2077-texture-sharpness-when-using-nvidia-dlss/

Was ich in dem Vergleich gemacht habe ist Folgendes: Wenn ich DLSS aktiviere, dann aktiviere ich CAS Sharpening per Reshade gleich mit und zwar auf ungefähr dem Level, das dem automatischen TAA Sharpening vom Game entspricht. Also ja, ich hab bei DLSS wieder manuell nachgeschärft!

Wenn ich dann den TAA Vergleich aufnehme, deaktiviere ich CAS Sharpening wieder, denn sonst käme das ja noch auf das automatische TAA Sharpening oben drauf und es wäre deutlich überschärft.

Das ist also ein Vergleich zwischen dem TAA mit automatischem Sharpening vom Game und von DLSS mit manueller Schärfe per CAS Sharpening Reshade! Und da DLSS die fehlenden Details der niedrigen Auflösung durch Machine Learning rekonstruiert, sieht es ziemlich identisch zur nativen Auflösung aus.

Anders sieht es bei FidelityFX CAS Upscaling aus: Da kannst du noch so viel Sharpening draufhauen, es wird nie auch nur ansatzweise an DLSS heranreichen, weil es eben nur upscaling ist und keine Rekonstruktion.

Aber um deine Frage zu beantworten, leider ist die DLSS Schärfe immer noch aus und TAA wird immer noch deutlich geschärft, auch mit dem neuen Patch. Da hat sich leider nix geändert, vollkommen zu meinem Unverständnis. Denn dem Ottonormalverbraucher wird damit immer noch suggeriert, dass DLSS einfach unscharf ist.

teezaken
2021-04-04, 13:19:50
Finde DLSS in einigen Games auch sehr gut (z.B. Control oder Ghostrunner), aber gerade F1 2020 und Cyberpunk 2077 erzeugen genug Artefakte sodass es mich stört (selbst bei DLSS Quality @ 4k).
Will damit sagen DLSS ist stark Spielabhängig und kann (für mein empfinden) von unbrauchbar bis zu "beste Technik überhaupt" schwanken.

Apropo, finde DLSS 1.0 z.B. in FFXV und Tomb Raider auch sehr gut (vielleicht ein wenig zu scharf), nur in Anthem, Monster Hunter und Metro z.B wieder nicht.

DLSS 1.0 hatte zumindest keine Artefakte wie Ghosting oder sonstige Bildfehler, ich empfand das tatsächlich in manchen Aspekten besser als das was wir mit DLSS 2.0 haben.

Würde mich aber sehr über eine dynamisch regulierte DLSS Variante in Spielen freuen, möglich ist es ja, leider nutzt das keiner? Wäre doch sehr nützlich.

Geldmann3
2021-04-09, 00:41:13
Finde es beeindruckend wie viele Details DLSS Qualität in der Meerkat Demo zusätzlich herausholt und das, obwohl nicht einmal die Hälfte der Informationen zur Verfügung stehen wie es bei TAA der Fall ist:

https://i.ibb.co/CKpdTwX/DLSS-Compare-PS.png

https://i.ibb.co/mbQm5Zj/DLSS-Compare2-PS.png

Nicht nur die Performance ist in diesem Szenario rund 50% höher als mit TAA, sondern das Bild ist auch noch indiskutabel besser und temporal stabiler.

Edit: Sehe gerade doch einige Stellen, die mit DLSS heftig zu flimmern anfangen, doch hey, es sind zweifellos mehr Details im Bild.
Das Flimmern könnte durchaus etwas sein, was man in Zukunft beheben kann, wenn man dem Algorithmus temporal mehr Informationen verarbeiten lässt.
Denn es fällt vor allem in ,,Standbildern" auf, in denen man ja wunderbar die Bildinformationen aus den letzten x Frames verwerten können sollte.

Nvidia scheint ja gerade an einem DLSS-Modus mit 100% oder gar noch höherer interner Auflösung zu experimentieren, spätestens das sollte es fixen.
Wobei dann natürlich das Performanceplus wegfällt. Doch kann mir vorstellen, dass das dann wirklich nahezu durchgehend besser als 4xSSAA aussieht, jedoch ohne signifikanten Performanceverlust gegenüber TAA.

Dampf
2021-04-09, 10:37:14
Das flimmern sind bestimmt Post Processing Effekte, die auf niedriger Auflösung laufen. Das sollte man als Spieleentwickler leicht beheben können.

robbitop
2021-04-09, 10:39:13
@Geldmann
Es ist halt ein Kompromiss. Will man mehr temporale Informationen akkumulieren kommt es irgendwann zu Artefakten. Zaubern kann auch ein NN für's Clamping nicht.

Das flimmern sind bestimmt Post Processing Effekte, die auf niedriger Auflösung laufen. Das sollte man als Spieleentwickler leicht beheben können.
Sicher? Ich hab die Demo nicht gesehen. Flimmern ist idR ein Zeichen für nicht ideale temporale Stabilität. Da fehlt es dann an Abtastung. (spatial und oder temporal)

Dampf
2021-04-09, 11:34:02
@Geldmann
Es ist halt ein Kompromiss. Will man mehr temporale Informationen akkumulieren kommt es irgendwann zu Artefakten. Zaubern kann auch ein NN für's Clamping nicht.


Sicher? Ich hab die Demo nicht gesehen. Flimmern ist idR ein Zeichen für nicht ideale temporale Stabilität. Da fehlt es dann an Abtastung. (spatial und oder temporal)

So genau weiß ich es auch nicht denn die Demo hab ich auch nicht ausprobiert, aber wenn Effekte wie DOF in deutlich geringerer Auflösung laufen, kann es schon mal ordentlich flimmern.

Geldmann3
2021-04-09, 14:08:00
@Geldmann
Es ist halt ein Kompromiss. Will man mehr temporale Informationen akkumulieren kommt es irgendwann zu Artefakten. Zaubern kann auch ein NN für's Clamping nicht.


Sicher? Ich hab die Demo nicht gesehen. Flimmern ist idR ein Zeichen für nicht ideale temporale Stabilität. Da fehlt es dann an Abtastung. (spatial und oder temporal)

Naja Zauberei wäre das nicht. Wenn das Bild still steht hat man nach 4 Frames genauso viele Informationen wie mit 4xSSAA. Sowas wie Haare ist eben sehr dynamisch und daher schwer mit Motion Vektoren zu matchen. Da wird schnell mal zufällig ein Härchen in einem Frame von einem Sample erfasst und im nächsten dann nicht mehr, was dann zu Flimmern führt. Doch wenn das DL in DLSS schlau ist, geht es intelligent mit den Samples um, die es zur Verfügung hat und zeigt ein Haar nicht in einem Frame an und im nächsten einfach nicht mehr.

crazycow
2021-04-09, 18:39:03
Für mich sieht das eher nach verschiedenen Detailstufen der Demo aus. Ich meine da konnte was per ini eingestellt werden🤔

robbitop
2021-04-09, 19:18:35
Naja Zauberei wäre das nicht. Wenn das Bild still steht hat man nach 4 Frames genauso viele Informationen wie mit 4xSSAA. Sowas wie Haare ist eben sehr dynamisch und daher schwer mit Motion Vektoren zu matchen. Da wird schnell mal zufällig ein Härchen in einem Frame von einem Sample erfasst und im nächsten dann nicht mehr, was dann zu Flimmern führt. Doch wenn das DL in DLSS schlau ist, geht es intelligent mit den Samples um, die es zur Verfügung hat und zeigt ein Haar nicht in einem Frame an und im nächsten einfach nicht mehr.

DLSS „weiß“ von dem Haar nichts. Und ich gehe davon aus, dass die Anzahl der akkumulierten Samples konstant ist und nicht von der Bewegung abhängt. Das würde zu mehr Variabilität in den Ergebnissen führen.

Bei feiner Geometrie kann abhängig von der Auflösung auch je nach Frame mal Teile eines dünnen Objektes nicht getroffen werden. Man muss bedenken dass es nur 42% der Auflösung sind. Klar werden Samples akkumuliert - aber das hat alles seine Grenzen. Shannon-Nyquist Theorem lässt grüßen.

Troyan
2021-04-09, 19:32:09
Natürlich weiß DLSS vom "Haar" etwas. Nämlich die Struktur über die vergangenen Frames sowie der Heuristik (aka Netzwerk), was daraus dann die Rekonstruktion macht. Daher ist DLSS auch deutlich besser für feine Geometrie geeignet als TAA.

robbitop
2021-04-09, 19:37:46
DLSS tut beinahe das gleiche wie TAA oder Checkerboarding. Es verändert pro Frame die Subpixelposition für die Abtastung. Und es werden dann über mehrere Frames die Werte verrechnet. Damit das in Bewegung nicht zu Artefakten führt, muss man clampen.
Der Unterschied bei DLSS ist, dass diese Aufgabe nicht von einer Heuristik erledigt wird sondern von einem NN. Die Trefferrate vom NN ist anscheinend signifikant höher als die der bisherigen Heuristiken so dass man aggressiver sein kann - also mehr Samples akkumulieren kann bei gleicher Artefaktausprägung.

DLSS weiß natürlich nicht, dass das Objekt ein Haar ist oder überhaupt etwas. Aber es erhöht die Abtastrate und damit die Chance die Dreiecke zu erwischen. Aber auch das hat Grenzen.

Geldmann3
2021-04-09, 22:51:04
DLSS tut beinahe das gleiche wie TAA oder Checkerboarding. Es verändert pro Frame die Subpixelposition für die Abtastung. Und es werden dann über mehrere Frames die Werte verrechnet. Damit das in Bewegung nicht zu Artefakten führt, muss man clampen.
Der Unterschied bei DLSS ist, dass diese Aufgabe nicht von einer Heuristik erledigt wird sondern von einem NN. Die Trefferrate vom NN ist anscheinend signifikant höher als die der bisherigen Heuristiken so dass man aggressiver sein kann - also mehr Samples akkumulieren kann bei gleicher Artefaktausprägung.

DLSS weiß natürlich nicht, dass das Objekt ein Haar ist oder überhaupt etwas. Aber es erhöht die Abtastrate und damit die Chance die Dreiecke zu erwischen. Aber auch das hat Grenzen.

DLSS kann lokal die Abtastrate erhöhen?

Für mich sieht das eher nach verschiedenen Detailstufen der Demo aus. Ich meine da konnte was per ini eingestellt werden��
Das lief direkt im Unreal Engine Editor und die einzige veränderte Variable war der DLSS-Modus mithilfe des Nvidia-Plugins.

Raff
2021-04-10, 00:07:02
Holy shit.

Ich habe gerade in Outriders reingespielt und das erste Level ist direkt ein Aliasing-Worstcase – gutes "Anti" kommt da wie gerufen. Es scheint, als hätten wir einen neuen Showcase für DLSS. Das sieht ziemlich beeindruckend aus. Das Texture LOD wird offenbar nach Nvidia-Lehrbuch angepasst und dennoch nimmt DLSS bei langsamen Bewegungen fast das komplette Flimmern weg und ergänzt es durch rekonstruierte Details. Nur bei sehr filigranen Objekten, die es auf dem Gemüseplaneten zuhauf gibt, kommt das Verfahren ins Straucheln, was sich in Pixelation bei horizontalen Kameraschwenks äußert. Aber, und das wurde Zeit, hat Nvidia anscheinend die Bewegungsvektoren in den Griff bekommen. Auch Outriders zeigt Schmieren mit DLSS - aber verhältnismäßig mild (siehe 400-Prozent-Crop unten). Insgesamt sieht das UE4-TAA dagegen aus wie Grütze aus dem letzten Jahrzehnt. :freak:

Anbei mal drei schnelle Bilder. Unkomprimiert und resized auf 200 Prozent Achsenauflösung für größere Pixel.
Eines ist Full HD mit TAA, eines Full HD mit TAA und 200 Prozent Auflösung, eines Full HD mit Quality-DLSS. Aber was ist was?

https://abload.de/thumb/1l0khp.png (https://abload.de/image.php?img=1l0khp.png) https://abload.de/thumb/2afk0x.png (https://abload.de/image.php?img=2afk0x.png) https://abload.de/thumb/3fkkj7.png (https://abload.de/image.php?img=3fkkj7.png)

Man sieht es, wenn man weiß, was DLSS auszeichnet. :)

MfG
Raff

Geldmann3
2021-04-10, 01:05:42
Holy shit.

Ich habe gerade in Outriders reingespielt und das erste Level ist direkt ein Aliasing-Worstcase – gutes "Anti" kommt da wie gerufen. Es scheint, als hätten wir einen neuen Showcase für DLSS. Das sieht ziemlich beeindruckend aus. Das Texture LOD wird offenbar nach Nvidia-Lehrbuch angepasst und dennoch nimmt DLSS bei langsamen Bewegungen fast das komplette Flimmern weg und ergänzt es durch rekonstruierte Details. Nur bei sehr filigranen Objekten, die es auf dem Gemüseplaneten zuhauf gibt, kommt das Verfahren ins Straucheln, was sich in Pixelation bei horizontalen Kameraschwenks äußert. Aber, und das wurde Zeit, hat Nvidia anscheinend die Bewegungsvektoren in den Griff bekommen. Auch Outriders zeigt Schmieren mit DLSS - aber verhältnismäßig mild (siehe 400-Prozent-Crop unten). Insgesamt sieht das UE4-TAA dagegen aus wie Grütze aus dem letzten Jahrzehnt. :freak:

Anbei mal drei schnelle Bilder. Unkomprimiert und resized auf 200 Prozent Achsenauflösung für größere Pixel.
Eines ist Full HD mit TAA, eines Full HD mit TAA und 200 Prozent Auflösung, eines Full HD mit Quality-DLSS. Aber was ist was?

https://abload.de/thumb/1l0khp.png (https://abload.de/image.php?img=1l0khp.png) https://abload.de/thumb/2afk0x.png (https://abload.de/image.php?img=2afk0x.png) https://abload.de/thumb/3fkkj7.png (https://abload.de/image.php?img=3fkkj7.png)

Man sieht es, wenn man weiß, was DLSS auszeichnet. :)

MfG
Raff

Finde, es ist wirklich nicht einfach zu sagen. Bild 2 ist den anderen Beiden auf jeden Fall unterlegen. Es fehlen viele kleine Details, das wird also TAA sein. Bild 3 scheint mir ein bisschen mehr Details herauszuholen als Bild 1, jetzt bin ich mal ganz ketzerisch und sage, dass Bild 3 DLSS ist, aus meiner tollen Erfahrung mit der Meerkat Demo. ;D Doch kann DLSS im Standbild wirklich besser als 4xSSAA sein?

Blaire
2021-04-10, 04:02:12
Finde, es ist wirklich nicht einfach zu sagen.

Damit ist schon viel gesagt, oft hilft nur das reinzoomen. Eigentlich hat es Raff dank dem Vorschau-Bild bereits verraten. ;) Bild 3 dann wohl, bessere Vegetationsglättung bei markant mehr Details.

Dampf
2021-04-10, 10:28:26
Ich würde auch Bild 3 sagen. Man sieht, dass die Lianen im Hintergrund deutlich besser rekonstruiert werden als bei TAA+200%

Das mittlere ist dann wohl TAA...? Das ist echt ein heftiger Unterschied. Ist das echt 1080p auf 100% ?

Das mit dem Smearing interessiert mich auch mal. Ich hab das Gefühl, es wird von Titel zu Titel weniger. Bei Death Stranding war es ja sehr krass, bei Cyberpunk schon deutlich reduziert. Outriders sieht wohl so aus, als wäre es in Bewegung kaum wahrnehmbar...?

Raff
2021-04-10, 10:58:25
Ich bin stolz auf euch. :D Richtig, Bild 3 ist DLSS Q, Bild 2 ist TAA nativ und Bild 1 ist TAA @ 200 %.

Ich habe mal die entscheidenden Stellen ausgeschnitten. Man sieht, dass DLSS einen extrem guten Job bei der Detailrekonstruktion macht. Das geschulte Auge sieht aber das typische Ausfransen/Zerbröseln, speziell bei langen vertikalen Linien. Angesichts der popeligen internen Auflösung bei DLSS Q ist das Ergebnis dennoch beeindruckend. Schaltet man die Ausschnitte nacheinander durch, sieht man, dass SSAA natürlich stellenweise Vorteile hat - u. a. werden LOD-abhängige Dinge wie weit entfernte Objekte besser herausgearbeitet und das Gras ist etwas glatter. Und in Bewegung ist DLSS bei den rekonstruierten Inhalten temporal leider recht pixelig (während TAA diese Details frisst, dafür aber weniger flimmert).

Was man nicht gut sieht: DLSS erzeugt eine schlechtere Texturqualität beim Boden in Entfernung, die mit steigender Upscaling-Stufe sichbar absäuft. Irgendwo muss die geringe Auflösung ja negativ durchschlagen (das kann man btw auch bei CoD Black Ops Cold War "gut" sehen).

MfG
Raff

Achill
2021-04-10, 11:15:31
Holy shit.

Ich habe gerade in Outriders reingespielt und das erste Level ist direkt ein Aliasing-Worstcase – gutes "Anti" kommt da wie gerufen. Es scheint, als hätten wir einen neuen Showcase für DLSS. Das sieht ziemlich beeindruckend aus. Das Texture LOD wird offenbar nach Nvidia-Lehrbuch angepasst und dennoch nimmt DLSS bei langsamen Bewegungen fast das komplette Flimmern weg und ergänzt es durch rekonstruierte Details. Nur bei sehr filigranen Objekten, die es auf dem Gemüseplaneten zuhauf gibt, kommt das Verfahren ins Straucheln, was sich in Pixelation bei horizontalen Kameraschwenks äußert. Aber, und das wurde Zeit, hat Nvidia anscheinend die Bewegungsvektoren in den Griff bekommen. Auch Outriders zeigt Schmieren mit DLSS - aber verhältnismäßig mild (siehe 400-Prozent-Crop unten). Insgesamt sieht das UE4-TAA dagegen aus wie Grütze aus dem letzten Jahrzehnt. :freak:

Anbei mal drei schnelle Bilder. Unkomprimiert und resized auf 200 Prozent Achsenauflösung für größere Pixel.
Eines ist Full HD mit TAA, eines Full HD mit TAA und 200 Prozent Auflösung, eines Full HD mit Quality-DLSS. Aber was ist was?

https://abload.de/thumb/1l0khp.png (https://abload.de/image.php?img=1l0khp.png) https://abload.de/thumb/2afk0x.png (https://abload.de/image.php?img=2afk0x.png) https://abload.de/thumb/3fkkj7.png (https://abload.de/image.php?img=3fkkj7.png)

Man sieht es, wenn man weiß, was DLSS auszeichnet. :)

MfG
Raff

Danke für die Bilder, das sieht gut aus im Vergleich zu TAA. Wichtig wäre das keine neuen temp. Artefakte eingeführt werden (ist aber subjektiv, da es mich sehr stört).

Anzumerken ist hier m.E. mal wieder, dass TAA sehr schlecht umgesetzt bzw. in der generischen Ausprägung mit den Verlust von vielen Details einher geht und es eben nicht "Nativ" ist sondern die keine Schwester von Nett und die temp. Stabilität imho teuer erkauft ist.

Damit jetzt auch niemand sagen kann, dass dies erst seit DLSS ein Streitpunkt (von mir) ist, ich habe mal etwas gesucht ... zum Detailverlust T(X)AA hatten wir schon u.a. eine Diskussion bei DH2:

Weil es böse blurred, die Texturen haben Details, diese gehen m.E. nur böse unter. Mit TXAA siehen die Texturen 1-2 Stufen schlechter aus und man braucht auch kein HQ-AF (@PCGH) weil das dann eh nur matschig ist.

Nochmal andere Screens, da sollte man es evtl. besser sehen:

(TXAA)
http://i.imgur.com/oWUPKZh.png
--
(no AA)
http://i.imgur.com/UuhULwo.png
--
(reshade fxaa ohne subpixel glättung)
http://i.imgur.com/96WjyKF.png

robbitop
2021-04-10, 11:21:40
DLSS kann lokal die Abtastrate erhöhen?

.
Nicht lokal. Global. So wie es auch TSSAA tut oder Checkerboarding. Nur aggressiver. :)

Troyan
2021-04-10, 11:22:05
Ich habe mal die entscheidenden Stellen ausgeschnitten. Man sieht, dass DLSS einen extrem guten Job bei der Detailrekonstruktion macht. Das geschulte Auge sieht aber das typische Ausfransen/Zerbröseln, speziell bei langen vertikalen Linien.

:confused:
DLSS zeigt mehr Details, weil TAA Bildinformation einfach wegretuschiert. Natürlich sieht das besser aus, wenn eine ehemals komplett schwarze Linie plötzlich bläuchlich wirkt, weil der Hintergrund blau ist. Das ist aber ein Fehler und somit ein Artefakt von TAA.

Raff
2021-04-10, 13:17:31
Danke für die Bilder, das sieht gut aus im Vergleich zu TAA. Wichtig wäre das keine neuen temp. Artefakte eingeführt werden (ist aber subjektiv, da es mich sehr stört).

Anzumerken ist hier m.E. mal wieder, dass TAA sehr schlecht umgesetzt bzw. in der generischen Ausprägung mit den Verlust von vielen Details einher geht und es eben nicht "Nativ" ist sondern die keine Schwester von Nett und die temp. Stabilität imho teuer erkauft ist.

Ich habe auch den Eindruck, dass das Spiel nicht die bestmögliche Variante des UE4-TAA zeigt. Letzteres gehört zwar nicht zum Besten, das es gibt (Ubi und id haben es mehr drauf), aber hier ist sowohl die temporale Stabilität als auch die Detailstärke eher "meh". DLSS gelingt es, über weite Bildteile stabiler und vollständiger zu zeichnen - bringt aber dafür an anderen Stellen etwas mehr Aufpixeln und das leichte Schmieren rein.

:confused:
DLSS zeigt mehr Details, weil TAA Bildinformation einfach wegretuschiert. Natürlich sieht das besser aus, wenn eine ehemals komplett schwarze Linie plötzlich bläuchlich wirkt, weil der Hintergrund blau ist. Das ist aber ein Fehler und somit ein Artefakt von TAA.

Es geht um die bröseligen Lianen. Vergleich das mal mit SSAA, dort sind die Linien graduell feiner und nicht teil-versetzt. Natürlich ist es besser, wenn das Bild vervollständigt wird - aber man sieht bei DLSS, dass das nur kompromissbehaftet geht. Wobei jeder Screenshot nur eine Momentaufnahme ist. Das Ausfransen ist in Bewegung dynamisch, aber in geringen Auflösungen bzw. Pixeldichten immer sichtbar, sofern man einen hochkontrastigen Inhalt wie dort hat. Meckern auf hohem Niveau, wie bei Control (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/2/). :)

MfG
Raff

Gast
2021-04-10, 16:27:26
DLSS kann lokal die Abtastrate erhöhen?



Klar, das macht jedes TAA Verfahren, indem es lokal entscheidet wie viele Informationen aus den vorangegangenen Frames es verwendet.

DLSS hat eben die Vorteile, es schaut bis zu 16 Frames zurück, TAA üblicherweise eher so in die Richtung max. 4, und DLSS kann diese Informationen auch viel öfter verwenden, bzw. falls mal doch nicht die fehlenden Informationen besser "erraten" als einfach nur zu blurren.

-/\-CruNcher-/\-
2021-04-10, 18:06:37
@Raff
Kommt drauf an welches Unreal TAAU Square Enix hier nutzt Gen4 (Fortnite) oder Gen5 (Fortnite(UE5 test)(/DLSS/UE5 TAAU)/UE5 Demo)
Gen5 wird erst vollständig mit UE5 eingeführt werden weil die Optimierungen und das weighting schon sehr in den gesammten content production kern mit einfliesen auch im Zuge aller bisherigen 3rd party acquisition Workflow Optimierungen die drumherum stattfinden.

Geldmann3
2021-04-10, 19:59:55
Klar, das macht jedes TAA Verfahren, indem es lokal entscheidet wie viele Informationen aus den vorangegangenen Frames es verwendet.

DLSS hat eben die Vorteile, es schaut bis zu 16 Frames zurück, TAA üblicherweise eher so in die Richtung max. 4, und DLSS kann diese Informationen auch viel öfter verwenden, bzw. falls mal doch nicht die fehlenden Informationen besser "erraten" als einfach nur zu blurren.

Woher hast Du die Information mit den 16 Frames?

Gast
2021-04-10, 20:19:04
Woher hast Du die Information mit den 16 Frames?

Aus dem Stream in dem die Funktionalität erklärt wird.

Es wird zwar nicht direkt erwähnt, aber dass das Bild zwischen den Frames auf einem 4x4 Grid verschoben wird, und das macht nur Sinn wenn man mindestens die letzten 16 Frames betrachtet.

Deshalb sieht es auch so verdammt gut aus, weil es (bezogen auf die Renderauflösung quasi 4x4 Supersampling ist.

robbitop
2021-04-10, 21:39:23
Klar, das macht jedes TAA Verfahren, indem es lokal entscheidet wie viele Informationen aus den vorangegangenen Frames es verwendet.

DLSS hat eben die Vorteile, es schaut bis zu 16 Frames zurück, TAA üblicherweise eher so in die Richtung max. 4, und DLSS kann diese Informationen auch viel öfter verwenden, bzw. falls mal doch nicht die fehlenden Informationen besser "erraten" als einfach nur zu blurren.
Wie steht es mit dem Verfahren von id? Benannt ist es ja als 8x tssaa. Bedeutet es entsprechend bis zu 8x Bilder? Deren Verfahren erzielt IMO die besten Ergebnisse. Wundern täte es mich nicht.

Gast
2021-04-11, 16:20:08
Wie steht es mit dem Verfahren von id? Benannt ist es ja als 8x tssaa. Bedeutet es entsprechend bis zu 8x Bilder? Deren Verfahren erzielt IMO die besten Ergebnisse. Wundern täte es mich nicht.

Angeblich verwendet idTech bis zu 32 samples.

https://twitter.com/idSoftwareTiago/status/1243386905300877314?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1243386 905300877314%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.pcgameshardware.de%2FDoom-Eternal-Spiel-72610%2FNews%2FEntwickler-ueber-die-Technik-1346629%2F

-/\-CruNcher-/\-
2021-04-11, 19:11:58
Übrigens da die Ökosysteme von Nvidia und AMD sich immer näher kommen auch was die insgesammte qualität auf der jeweiligen Platform betrifft, gibt es da mittlerweile schon ein paar sehr interessante shootout Vergleichsmöglichkeiten der Teams auf lower level ;)

z.b hier

Nvidia Texture Tools Exporter (CUDA) vs AMD Compressonator (OpenCL/DirectCompute) ;)

Auch auf seiten des Unreal Engine Fights ist es höchst interessant, wie viel resourcen SU da jetzt reinbuttert um Nvidia bei Epics jahrelanger colab stand zu halten und den ersten Erfolg sah man ja mit dem rausschmiss von Physx schon deutlich gegen Nvidia die ein für allemal in ihren eigenen Branch verbannt wurden :)
Der ganze Konsolen Overtake wird immer sichtbarer vor allem zur seite hin zu Microsofts Ökosystem Einbindung

Fidelity FX SR (FSR) wird hier auch eine relativ gesehen für AMD prompte gegen Antwort die man so schnell wohl selten gewohnt ist gegen Nvidias Ökosystem Power in der Vergangenheit ;)

Da kommen einige interessante Review möglichkeiten zusammen auf lower level in allen möglichen berreichen auch vs Intel :)

Bin sehr gespannt was von Nvidias Vorteil bei UE5 noch übrig bleiben wird für Nvidia User

robbitop
2021-04-12, 11:47:32
Angeblich verwendet idTech bis zu 32 samples.

https://twitter.com/idSoftwareTiago/status/1243386905300877314?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1243386 905300877314%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.pcgameshardware.de%2FDoom-Eternal-Spiel-72610%2FNews%2FEntwickler-ueber-die-Technik-1346629%2F
Oh wow (und danke für den Link!:)). Ich frage mich, warum sie es dann nur 8x TSSAA nennen. Ggf. sind 8x Samples der ungefähre Mittelwert in der tatsächlichen Verwendbarkeit?

Ich frage mich, ob die Samples, die verwendet werden einem sparsed oder einem ordered grid entsprechen. Eigentlich sind moderne GPUs ja super flexibel was die Subpixelpositionen angeht - insofern würde ich mal tippen, dass man es in einem sparsed grid anordnet (insofern genug sinnvolle Samplepositions vorhanden sind - für 32x SG (mit auch noch sinnvollen Positionen für volles EER) müsste das subpixelgrid ja wirklich groß sein - aber hier fehlt mir die Informationen über die tatsächlichen Grenzen dieses Aspekts bei modernen GPUs)
Für 32 Samples kann es ja eigentlich (zumindest wenn beide Achsen gleich aufgelöst werden sollen) kein OG sein. (Quadratwurzel ergibt keine natürliche Zahl)

Für AA wäre SG sinnvoll. Für mehr Auflösung (DLSS und andere temporale upsampling Lösungen) müsste es dann aber OG sein mMn.

aufkrawall
2021-04-12, 11:51:11
Könnte sich auf akkumulierte Passes für Geometrie, Schatten, PP etc. beziehen.

robbitop
2021-04-12, 11:54:25
Könnte sich auf akkumulierte Passes für Geometrie, Schatten, PP etc. beziehen.
Kannst du das etwas ausführen? Ich befürchte, ich kann dir nicht ganz folgen. :)


--------------------
Nachdem die Info mit den 32 Samples kam, hoffe ich immer mehr, dass AMD sich Tiagos Verfahren genau angeschaut hat und ihn konsultiert hat. Oder besser ihn mitarbeiten lassen hat.
Am Ende ist natürlich die Frage, wie viele Samples kann man im Mittel auch artefaktfrei/ -arm nutzen und nicht wie viele kann man maximal nutzen. Rein vom Eindruck her sieht das Verfahren bei idtech 7 aber schon am besten aus, was aktuelle TAAs angeht. Und ich würde behaupten mit einem recht großen Abstand.

BTB
2021-04-12, 11:58:32
Das erste VR Spiel nutzt nun DLSS

Into the Radius. Nicht mein Spiel, sonst würde ich das mal testen.

https://mixed.de/into-the-radius-dlss-in-vr-im-test/

aufkrawall
2021-04-12, 12:20:23
Kannst du das etwas ausführen? Ich befürchte, ich kann dir nicht ganz folgen. :)

Man nutzt TSSAA nicht nur für die komplette Szene, sondern auch für einzelne Renderschritte. Damit erhöht sich natürlich effektiv die Anzahl der Samples in vielen Bereichen.

Gast
2021-04-12, 12:36:27
Am Ende ist natürlich die Frage, wie viele Samples kann man im Mittel auch artefaktfrei/ -arm nutzen und nicht wie viele kann man maximal nutzen. Rein vom Eindruck her sieht das Verfahren bei idtech 7 aber schon am besten aus, was aktuelle TAAs angeht. Und ich würde behaupten mit einem recht großen Abstand.

Und trotzdem ist Wolfenstein, auch ein idtech Spiel jenes bei dem sich DLSS qualitativ wohl am meisten von TAA absetzen kann.

Auch sieht idtechs TAA zwar für TAA sehr gut aus, ist aber trotzdem schon mit nativer Renderauflösung schlechter als DLSS, und wenn man die Renderauflösung vergleichbar verringert nicht mal mehr ansatzweise qualitativ vergleichbar.

Der Vorsprung von NVs "NN-Enhanced TAA" ist einfach riesig.

robbitop
2021-04-12, 12:49:13
Und trotzdem ist Wolfenstein, auch ein idtech Spiel jenes bei dem sich DLSS qualitativ wohl am meisten von TAA absetzen kann.

Auch sieht idtechs TAA zwar für TAA sehr gut aus, ist aber trotzdem schon mit nativer Renderauflösung schlechter als DLSS, und wenn man die Renderauflösung vergleichbar verringert nicht mal mehr ansatzweise qualitativ vergleichbar.

Der Vorsprung von NVs "NN-Enhanced TAA" ist einfach riesig.
Wolfenstein 2 und Youngblood sind idTech6. Da ist das neue AA der idTech7 noch nicht drin.

Gast
2021-04-12, 13:22:07
Das erste VR Spiel nutzt nun DLSS

Into the Radius. Nicht mein Spiel, sonst würde ich das mal testen.

https://mixed.de/into-the-radius-dlss-in-vr-im-test/

Das mit foveated rendering zu kombinieren wäre interessant, in der Mitte DLSS Quality, dann Balanced und ganz am Rand Performance.

robbitop
2021-04-12, 14:19:37
Man nutzt TSSAA nicht nur für die komplette Szene, sondern auch für einzelne Renderschritte. Damit erhöht sich natürlich effektiv die Anzahl der Samples in vielen Bereichen.
Nach meinem Verständnis funktioniert TSSAA wie klassisches SGSSAA, nur eben, dass die Subpixelsamples über mehrere Frames gelesen werden und nicht über eines. Somit ist es nach meinem Verständnis nicht beschränkt auf einzelne Teile sondern für alles.

basix
2021-04-12, 14:21:12
Für AA wäre SG sinnvoll. Für mehr Auflösung (DLSS und andere temporale upsampling Lösungen) müsste es dann aber OG sein mMn.

Alles mit dynamischer Auflösung + Upscaling oder auch DLSS werden oftmals krumme Faktoren im Verhältnis zur Zielauflösung aufweisen. Da ist OG evtl. suboptimal, nicht?

Man kann zwischen den Sampling-Positionen der finalen Auflösung hin und her jittern (mit OG), das stimmt. Aber gerade wenn AA von SG profitiert, wieso sollte das die Auflösung nicht auch? Schliesslich reduziert man mit mehr Auflösung Aliasing, genauso wie AA.

DLSS und Upsampling wäre eigentlich noch optimal kombinierbar mit dynamischer Auflösung als auch Variable Rate Shading (bei Kanten / hoher Geometriedichte mehr Samples). Dadurch kann der Qualitätsverlust bei reduzierter Auflösung minimiert werden. Was dann aber wichtig ist: Die Texturqualität / LOD usw. muss mit relativ feinem Raster veränderbar sein, damit man in Bereichen mit reduzierter Sampling Rate keinen Matsch bekommt (wie so oft bei VRS und schlechten DLSS Implementierungen)

aufkrawall
2021-04-12, 14:22:15
Nach meinem Verständnis funktioniert TSSAA wie klassisches SGSSAA, nur eben, dass die Subpixelsamples über mehrere Frames gelesen werden und nicht über eines. Somit ist es nach meinem Verständnis nicht beschränkt auf einzelne Teile sondern für alles.
Daher meine Formulierung "nicht nur (...), sondern auch".

Gast
2021-04-12, 14:48:06
DLSS und Upsampling wäre eigentlich noch optimal kombinierbar mit dynamischer Auflösung als auch Variable Rate Shading (bei Kanten / hoher Geometriedichte mehr Samples). Dadurch kann der Qualitätsverlust bei reduzierter Auflösung minimiert werden. Was dann aber wichtig ist: Die Texturqualität / LOD usw. muss mit relativ feinem Raster veränderbar sein, damit man in Bereichen mit reduzierter Sampling Rate keinen Matsch bekommt (wie so oft bei VRS und schlechten DLSS Implementierungen)

Ich bin mir nicht sicher ob das so optimal funktioniert, zumindest die bisherigen Spiele die VRS und DLSS unterstützen deaktivieren VRS automatisch wenn DLSS aktiv ist.

Auch der dermaßen extreme optische Rückschritt zwischen DLSS Performande und Ultra Performance, während man selbst zwischen Quality und Performance die Unterschiede mit der Lupe suchen muss, lassen darauf schließen dass DLSS das Abtastraster grundsätzlich so optimiert hat, dass es gut zur Zielauflösung passt.

Mit Ultra Performance geht das aber nicht mehr, da man einfach zu wenig Samples hat bzw. die Auflösung zu weit resultiert, und man erzeugt neben allgemeiner Unschärfe auch seltsame Artefakte die man früher auch bei exotischen MSAA/SSAA Kombinationen gesehen hat.

robbitop
2021-04-12, 14:57:12
Daher meine Formulierung "nicht nur (...), sondern auch".
Ja aber dann passt das nicht mehr zu der Frage woher die 8x Samples kommen statt 32. Ich würde viel eher darauf tippen, dass es im Mittelwert 8x nutzbare Samples sind. Bzw die BQ am ehesten equivalent zu 8x Samples pro Pixel ist.

basix
2021-04-12, 21:01:07
Ich bin mir nicht sicher ob das so optimal funktioniert, zumindest die bisherigen Spiele die VRS und DLSS unterstützen deaktivieren VRS automatisch wenn DLSS aktiv ist.

Auch der dermaßen extreme optische Rückschritt zwischen DLSS Performande und Ultra Performance, während man selbst zwischen Quality und Performance die Unterschiede mit der Lupe suchen muss, lassen darauf schließen dass DLSS das Abtastraster grundsätzlich so optimiert hat, dass es gut zur Zielauflösung passt.

Mit Ultra Performance geht das aber nicht mehr, da man einfach zu wenig Samples hat bzw. die Auflösung zu weit resultiert, und man erzeugt neben allgemeiner Unschärfe auch seltsame Artefakte die man früher auch bei exotischen MSAA/SSAA Kombinationen gesehen hat.

Mit dem heutigen Stand von DLSS glaube ich auch nicht, dass es gut funktioniert. Aber die Zeit bleibt ja nicht stehen ;) DLSS 3.0 oder wie es dann heisst, wird sicher nochmals einen Fortschritt bieten: Hoffentlich nochmals etwas bessere Qualität / weniger Artefakte / mehr Performance und sehr wahrscheinlich dynamische Auflösungsskalierung. Sobald letzteres da ist, würde es prinzipiell auch mit VRS funktionieren. Dynamische Auflösung wäre einfach ein Killer Feature um ein Spiel flüssig auf die entsprechende Plattform / HW zu bringen.

Ein höherer Upsampling Faktor als Performance ist vermutlich nur bei hohen FPS wirklich brauchbar (120fps), da man damit mehr Informationen pro Zeitintervall erhält. Bei 1080p / 120fps hat man im selben Zeitintervall 1.12x so viele Samples abgetastet wie bei 1440p / 60fps und gleich viele wie bei 4K / 30fps. 30fps ist noch eine einigermassen anständige Zeitauflösung. Bei 4K60 und somit 15fps Zeitauflösung sehe ich so langsam die Grenzen kommen. Bei 8K/60fps bei Ultra Performance hat man noch 6.7fps um das ganze 8K Raster abzutasten. Die grosse Lücke zur Zielauflösung und die geringe temporale Auflösung aufs Gesamtraster gesehen genügt dann halt nicht, um die Qualität hoch zu halten. Ich behaupte aber, dass Nvidia mit DLSS 3.0 noch mehr Informationen verarbeitet. Entweder eine höhere "temporale Tiefe" (=mehr Samples) und/oder noch mehr Informationen aus der Spieleengine (mehr noch als die Bewegungsvektoren und Z-Buffer)

-/\-CruNcher-/\-
2021-04-12, 23:38:46
Kannst du das etwas ausführen? Ich befürchte, ich kann dir nicht ganz folgen. :)


--------------------
Nachdem die Info mit den 32 Samples kam, hoffe ich immer mehr, dass AMD sich Tiagos Verfahren genau angeschaut hat und ihn konsultiert hat. Oder besser ihn mitarbeiten lassen hat.
Am Ende ist natürlich die Frage, wie viele Samples kann man im Mittel auch artefaktfrei/ -arm nutzen und nicht wie viele kann man maximal nutzen. Rein vom Eindruck her sieht das Verfahren bei idtech 7 aber schon am besten aus, was aktuelle TAAs angeht. Und ich würde behaupten mit einem recht großen Abstand.

Naja so sonderlich komplex sieht da keine Textur aus um das Genau bestimmen zu können zudem ist das Target ja auch absolut blur unempfindlich bei der temporalen geschwindigkeit die angepeilt wird.
Doom hat wahrlich nicht die Visuelle komplexität eines MS Flight Simulators mal als extremesten PBR schärfe vergleich dagegengestellt obwohl idiotisch da vollkommen andere targets.

Morgenlicht
2021-04-14, 01:47:19
2021.04.12 - NARAKA: BLADEPOINT | 4K NVIDIA DLSS
https://i.ytimg.com/vi/3YC-mvyzXZU/sddefault.jpg
klick auf Bild für YouTube-Video 01:07 Minuten (https://www.youtube.com/embed/3YC-mvyzXZU)

-/\-CruNcher-/\-
2021-04-14, 10:06:40
+ 25-30 FPS ist schon eine Hausnummer das aus dem Native result rauszuquetschen ohne Nachteile das wird nicht spaßig

sind so gesehen auch so immernoch +20 FPS gegen AMDs raster Vorteil und die +20 FPS müsste FSR kompensieren mit cleverer VRS combo vieleicht sogar noch mehr drin aber ob das perceptively dann noch "schön" sein wird und das alles noch ohne RT oben drauf :D

Zumal der FSR Aufwand des Studios lass die Kalkulation dafür keinen Lean Manager in die Hand bekommen, wobei das dank des hauptsächlichen Konsolen Targets nicht so das momentane Problem ist.

Mal sehen wann wir wieder beim Physics Boom Landen den sehe ich auch als weitaus höheren Mehrwert im gesammten Gameplay nur das auch noch oben drauf da würd ich lieber auf RT verzichten :)
Wobei Control es ja schon sehr ordentlich hinbekommt alles zu vereinen mit 33ms target :)

Dampf
2021-04-14, 11:22:42
Mit dem heutigen Stand von DLSS glaube ich auch nicht, dass es gut funktioniert. Aber die Zeit bleibt ja nicht stehen ;) DLSS 3.0 oder wie es dann heisst, wird sicher nochmals einen Fortschritt bieten: Hoffentlich nochmals etwas bessere Qualität / weniger Artefakte / mehr Performance und sehr wahrscheinlich dynamische Auflösungsskalierung. Sobald letzteres da ist, würde es prinzipiell auch mit VRS funktionieren. Dynamische Auflösung wäre einfach ein Killer Feature um ein Spiel flüssig auf die entsprechende Plattform / HW zu bringen.

Ein höherer Upsampling Faktor als Performance ist vermutlich nur bei hohen FPS wirklich brauchbar (120fps), da man damit mehr Informationen pro Zeitintervall erhält. Bei 1080p / 120fps hat man im selben Zeitintervall 1.12x so viele Samples abgetastet wie bei 1440p / 60fps und gleich viele wie bei 4K / 30fps. 30fps ist noch eine einigermassen anständige Zeitauflösung. Bei 4K60 und somit 15fps Zeitauflösung sehe ich so langsam die Grenzen kommen. Bei 8K/60fps bei Ultra Performance hat man noch 6.7fps um das ganze 8K Raster abzutasten. Die grosse Lücke zur Zielauflösung und die geringe temporale Auflösung aufs Gesamtraster gesehen genügt dann halt nicht, um die Qualität hoch zu halten. Ich behaupte aber, dass Nvidia mit DLSS 3.0 noch mehr Informationen verarbeitet. Entweder eine höhere "temporale Tiefe" (=mehr Samples) und/oder noch mehr Informationen aus der Spieleengine (mehr noch als die Bewegungsvektoren und Z-Buffer)

DRS für DLSS 2.1 gibts schon, wird aber noch nicht verwendet, aus irgendeinem Grund!

Geldmann3
2021-04-14, 12:27:38
Ich habe versucht DLSS über das Plugin in eines meiner komplexeren Unreal Engine Projekte zu implementieren, bin dabei jedoch auf massive Probleme (https://forums.unrealengine.com/t/i-am-losing-performance-with-dlss/213214) gestoßen. Also falls jemand eine Idee haben sollte, wäre ich dankbar. Andernfalls werde ich das Projekt diese Woche ohne DLSS veröffentlichen müssen.

Troyan
2021-04-14, 15:23:57
DLSS wird bis zum Jahresende auch als PlugIn für Unity zur Verfügung stehen: https://www.nvidia.com/en-us/geforce/news/unity-engine-adding-dlss/

-/\-CruNcher-/\-
2021-04-14, 23:02:32
Alter schwede
Avoid the time consuming process of creating and optimizing models from scratch or by using unoptimized open source models by focusing on your solution.

Optimization and Deployment of TensorFlow Models with TensorRT
Duration:2.5 hours
Price:$30.00

Wake
2021-04-15, 01:13:09
DLSS für Unity ist vorerst nur für die HDRP geplant, da URP noch keine motion vectors unterstützt (ist aber auf der Roadmap).
Also noch nicht wirklich überall einsetzbar, wobei HDRP-Projekte die Performance sicher nötiger haben.

-/\-CruNcher-/\-
2021-04-15, 14:06:35
Naja dieses Casual Game als Unitys Errungenschaft für DLSS zu präsentieren oh backe noch schlimmer als EA SEEDs Präsentation ;)

Hätte ja einen vergleich zwischen The Heretic mit und ohne DLSS erwartet aber sowas ein raytraced kinder cube das sieht aus wie Nvidias erste Turing präsentationen und selbst die waren aufregender ;)
Da ist selbst Quake2 RTX interessanter oder Epics Chaos Fluid Sim Demo.

basix
2021-04-21, 20:29:44
Im Konsolen Thread sind einige Videos zu FidelityFX zu finden, welche sich auch um Raytracing drehen: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12658416#post12658416

Das erste Video dreht sich um Denoising und der letzte Teil des Videos dreht sich um mögliche Verbesserungen. Fand ich sehr spannend: https://youtu.be/RTtVC-Zk5yI?t=1676

- Denoising bei halber Auflösung und dann Upsampling (bei z.B. Soft Shadows)
- Guide Raytracing (dort wo es am meisten Sinn macht), compare history frames, use VRS input, ...

Allenfalls also ein Anhaltspunkt, wie AMD ihr FSR umsetzen könnten. Schlussendlich will man mit weniger Strahlen und Denoising Aufwand auskommen. Ob solche Sachen auch auf andere Sachen wie Raytracing umsetzbar sind: Keine Ahnung.

Edit:
VRS Tier 2 scheint deutlich granularer arbeiten zu können. Das wäre interessant, da damit die reduzierten Raytracing-Samples deutlich besser und lokaler kontrolliert werden können (deutlich geringere Qualitätsnachteile und allenfalls nochmals bessere Performance)

Prinzenrolle
2021-04-21, 22:08:26
AMD versucht halt ihre im Moment noch niedrige RT Leistung so gut es geht auszuquetschen, zur Not mit weniger Strahlen. Wenn nur Schatten benötigt werden, geht die Performance auch in Ordnung. Möchte man parallel noch Spiegelungen dazu, wirds eng.

robbitop
2021-04-21, 22:28:03
@basix
guter Punkt! IIRC hatte AMD in 2020 mal in einem Interview FSR explizit als Tool um RT zu beschleunigen genannt. Das hatte ich damals nur so halb wahrgenommen und angenommen, dass FSR wie DLSS grundsätzlich und damit auch abseits von RT greift. Aber ggf war ja an dem Punkt doch mehr dran als wir dachten.

Ich persönlich hoffe, dass es nicht RT spezifisch ist, da auch rasterizer basierte Spiele stark profitieren. Und selbst bei RT Spielen ist ja nicht unwesentlich viel Aufwand noch im rasterizing Anteil. Man würde also Potenzial auf der Straße liegen lassen.
Aber ggf gibt es ja beide Verfahren auch unabhängig voneinander. Zwei verschiedene Tools in der Werkzeugbox. The right tool for the right job.

edit ein weiterer Hinweis:

Laut AMD soll Raytracing bei einer Auflösung von 1440p verbessert werden.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/AMD-Fidelity-FX-Super-Resolution-Releasetermin-1370690/

Geldmann3
2021-04-22, 08:46:48
Bei der Entwicklung meines Raytracing Benchmarks (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605831) habe ich mit der Schärfungsfunktionalität von DLSS gespielt.
Das scheint überraschenderweise mehr zu sein, als ein einfacher Schärfefilter, denn wenn ich geschärft habe, gab es in spiegelnden Oberflächen glitzernde Artefakte ohne Ende, wo vorher gar nichts war.
Daher gehe ich davon aus, dass es tatsächlich nochmal etwas anderes mit den Samples anstellt.
Eventuell ist das ein Grund, warum in manch einem Game nicht standardmäßig mit DLSS geschärft wird.
Man müsste in diesen Situationen eine externe Bibliothek verwenden.

Da der Benchmark (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=605831) fast nur spiegelnde Oberflächen enthält, habe ich das Setting weder aktiviert noch für den Nutzer nach außen geführt.

Wenn ihr wollt, kann ich euch bei Gelegenheit mal Screenshots zeigen, sobald ich wieder am Rechner mit der RTX 3090 bin.

dildo4u
2021-04-24, 14:12:16
G1swwdn4dfA

Troyan
2021-04-28, 17:14:30
Vergleich von DLSS1.0 und 2.1 auch mit TAAU in Metro-Upgrade: https://youtu.be/NbpZCSf4_Yk?t=2061

Auch hier ist DLSS.21 wieder Lichtjahre besser als simples Upscaling.

Lurtz
2021-04-28, 20:28:51
Beeindruckend dass selbst DLSS Performance bei einem 4k-Target besser als TAA arbeitet. It's the future baby...

wolik
2021-04-28, 21:46:44
Beeindruckend dass selbst DLSS Performance bei einem 4k-Target besser als TAA arbeitet. It's the future baby...

Leider DLSS bringt (in CP2077) nicht besseres Bild sondern bessere Leistung. CP2077 ohne DLSS sieht schon bemerkenswert besser aus. Einfach scharf und detailreich, "dank" DLSS OFF.
PS. Ok. In Dead Stranding mit DLSS werden Kantenflimmern eliminiert.

Lurtz
2021-04-28, 22:23:11
In Cyberpunk ist DLSS aber auch teils kaputt implementiert (wie so vieles andere in dem Spiel).

Gast
2021-04-28, 23:21:30
Leider DLSS bringt (in CP2077) nicht besseres Bild sondern bessere Leistung. CP2077 ohne DLSS sieht schon bemerkenswert besser aus. Einfach scharf und detailreich, "dank" DLSS OFF.

Wenn du so auf ein Kaputtgeschärftes Bild stehst kannst du ja gerne noch zusätzlich einen Schärfefilter aktivieren.

Cyberpunk ist ohne DLSS extrem (und unabschaltbar) überschärft, mit DLSS gibt es dann offenbar keinen oder maximal einen sehr schwachen Schärfefilter.

Auch in Cyberpunk zeigt DLSS wie in jedem DLSS 2.x Spiel mehr echte Details als die native Darstellung, auch weil die Überschärfung ohne DLSS offensichtlich jede Menge Details zerstört.

Es gibt allerdings ein paar andere Probleme in Cyberpunk mit DLSS, offensichtlich sind nicht alle Bewegungsvektoren korrekt, es macht den Eindruck als ob diese teilweise relativ zum Worldspace und nicht zum Screenspace an das DLSS gesendet werden, besonders offensichtlich wenn man mit den Fahrzeugen in 3rd Person fährt. In 1st Person fällt es eigentlich kaum auf.

Und dann gibt es noch das Problem, das offenbar alles was nicht auf das Main-Rendertarget gerendert wird gar keine DLSS Behandlung bekommt, und man bekommt direkt die niedrige Auflösung zu Gesicht, beispielsweise auf der Map, oder im Charaktereditor, oder auch in den "aktivierbaren" (nicht RT) Spiegeln.