Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3
Deisi
2023-09-05, 17:24:49
CyberFSR funktioniert meist schon ganz zuverlässig. Hab es bei Baldurs Gate 3 auf dem SteamDeck auch ohne Probleme am laufen. Im Github ist auch eine Kompatibilitätsliste verlinkt.
The_Invisible
2023-09-05, 17:30:32
Jedi Survivors wurde aktualisiert und unterstützt nun DLSS 3.
Vielleicht macht das ja jetzt die Runde das AMD die DLSS Implementierung nicht mehr verbietet, Starfield next bitte :D
Dafür hat das letzte Immortals update DLSS komplett kaputt gemacht
aufkrawall
2023-09-12, 13:29:51
Jo, soll jetzt mit Quality in etwa aussehen wie vorher mit Performance. :freak:
Keine Ahnung, was die da gemacht haben...
FG VRAM-Test in 1440p mit zweimaligem Spielneustart auf einer 4070:
https://abload.de/thumb/cyberpunk2077_2023_09pffv9.png (https://abload.de/image.php?img=cyberpunk2077_2023_09pffv9.png) https://abload.de/thumb/cyberpunk2077_2023_097cia3.png (https://abload.de/image.php?img=cyberpunk2077_2023_097cia3.png)
Also ~800MB.
Jo, soll jetzt mit Quality in etwa aussehen wie vorher mit Performance. :freak:
Noch deutlich schlechter, selbst Ultra Performance sieht normal deutlich besseraus, sah eher so aus als wurde die Auflösung 2x verringert aber nur 1x upgescaled.
Der letzte Patch hat aber alles wieder geradegerückt und DLSS bietet wieder die beste Qualität, auch besser als Nativ. Auch FG ist nun nutzbar und das HUD-Ghosting gefixt.
aufkrawall
2023-09-12, 16:08:00
Die FG-Probleme mit Zen 3 sind offenbar auch gefixt. Ich hab gar nicht groß andere DLL-Versionen als die aktuellste 3.5 so weit probiert, aber die ständigen Monster-Spikes sind weg und scheint auch sonst gut zu funktionieren (kein HUD-Ghosting etc.).
Skalierung + bessere Frame Times (Nvidia D3D12...) gleichzeitig sind schon kein so übles Argument:
https://abload.de/thumb/witcher3_2023_09_12_1t0fdu.png (https://abload.de/image.php?img=witcher3_2023_09_12_1t0fdu.png) https://abload.de/thumb/witcher3_2023_09_12_1mxcrs.png (https://abload.de/image.php?img=witcher3_2023_09_12_1mxcrs.png)
Oliver_M.D
2023-09-12, 23:45:29
Schau an, hast recht, läuft jetzt auch bei mir richtig anständig, wie es scheint. Kann FG inzwischen sogar gescheit FPS limitieren, wie in allen anderen FG-Spielen, die ich bis jetzt getestet habe.
Hatte zum Release extreme Lag und Latenz probleme in Witcher und Cyberpunk. Selbst 160 FPS waren mit FG ein Problem. Jetzt sind aber sogar 250-300 FPS (ohne RT) kein Problem.
The_Invisible
2023-09-13, 09:54:14
Wie kappt FG eigentlich die fps?
Zb Zielframerate 144fps... Ohne FG würde ich 100fps haben, füllt FG dann nur diese 44fps auf oder wird die Basisframerate auf 72fps gestellt und jeder zweiter Frame mit FG-Frames aufgefüllt?
Exxtreme
2023-09-13, 10:02:13
Zwangsläufig zweiteres. :) Dein 144 fps-Spiel läuft dann nativ mit 72 fps.
robbitop
2023-09-13, 10:04:43
Deswegen machen mit FG auch Monitore mit deutlich höheren Refreshrates Sinn. Ansonsten limitiert das schnell
Platos
2023-09-13, 10:17:24
Zwangsläufig zweiteres. :) Dein 144 fps-Spiel läuft dann nativ mit 72 fps.
Hast du eine Quelle dafür?
Wer sagt, dass das zwangsweise so sein muss? Warum wird nicht in 100FPS gerendert und dann eben nur jedes x-te frame interpoliert, so dass daraus 144fps entsteht?
Warum führt Framegen eig. nicht zur doppelten Framerate ?
rumpeLson
2023-09-13, 11:17:48
Hast du eine Quelle dafür?
Wer sagt, dass das zwangsweise so sein muss? Warum wird nicht in 100FPS gerendert und dann eben nur jedes x-te frame interpoliert, so dass daraus 144fps entsteht?
Warum führt Framegen eig. nicht zur doppelten Framerate ?
Nur eine Verdopplung der Frames ergibt doch aus Sicht der Frametimes Sinn. Bei 72 FPS wird grob alle 14 ms ein neuer Frame angezeigt. Mit der Verdopplung auf 144 FPS wird entsptechend etwa alle 7 ms ein neuer Frame ausgegeben. Würdest du von 100 FPS ausgehend nur immer mal wieder einen Frame generieren, könntest du zwar rechnerisch auf 144 FPS kommen, die Frametimes wären aber massiv unrund. Und ein 144 Hz Monitor könnte das auch nur mit Tearing anzeigen. Nur eine verx-fachung der Framerate ergibt mit Framegeneration Sinn.
Ansonsten führt Framegeneration halt nicht zur doppelten Performance, weil Rechenleistung erforderlich ist, um die Zwischenbilder zu berechnen. Und dieser Overhead steigt mit der Auflösung an.
Exxtreme
2023-09-13, 11:30:08
Hast du eine Quelle dafür?
Wer sagt, dass das zwangsweise so sein muss? Warum wird nicht in 100FPS gerendert und dann eben nur jedes x-te frame interpoliert, so dass daraus 144fps entsteht?
Das wäre aufgefallen, dass FG Bilder weglässt. Allerspätestens bei der Frametime-Analyse würde man das deutlichst sehen. Ob DLSS3 grundsätzlich nicht fähig ist überflüssige Bilder wegzulassen, das weiss ich nicht. Leider sind die "white papers" von Nvidia zu diesem Thema reines Marketingmaterial und man erfährt da nichts.
Warum führt Framegen eig. nicht zur doppelten Framerate ?
Weil FG sowohl den Speicherbus wie auch die GPU zusätzlich belastet.
robbitop
2023-09-13, 11:32:25
Und es kostet natürlich ein bisschen compute.
BlacKi
2023-09-13, 12:54:20
Hast du eine Quelle dafür?
Wer sagt, dass das zwangsweise so sein muss? Warum wird nicht in 100FPS gerendert und dann eben nur jedes x-te frame interpoliert, so dass daraus 144fps entsteht?
Warum führt Framegen eig. nicht zur doppelten Framerate ?weil FG rechenleistung kostet, kann FG im gpu limit keine verdoppelung erreichen. im cpu limit dagegen schon, wenn die gpu nur 60-70% ausgelastet ist.
angenommen du hast 66 echte bilder ohne fg, und mit fg aktiviert 50 echte und 50 FG bilder(dürfte reales szenario sein).
dann braucht die gpu 15,15ms für ein echtes bild ohne fg und mit fg braucht man 20ms für ein echtes bild(fg kostet leistung und deshalb brauch die gpu mehr zeit für ein echtes bild).
so, wenn du jetzt jedes 3. bild nur FG rendern lässt, müsste die gpu ein echtes bild in weniger zeit rendern als alle anderen methoden davor, weil du dann nämlich auf 66 fps echte fps kämst, + FG was ja performance kostet und dadurch keine 66 echte fps mehr schaffen könntest.
es fehlt sozusagen an der rechenleistung. zumal die render pipeline da wohl nicht mitmachen würde.
ich würde die echten fps versuchen zu limitieren, sozusagen ein fps limiter aber nur für die echten fps. ich denke das geht bestimmt einfacher und wird wohl bald kommen. also man limitiert die echten fps auf 72fps und mit fg werden dann grob 110fps, wenn man unter 120 fps bleiben will.
Troyan
2023-09-13, 13:00:27
Ja, Frame-Limitierung kann ein gutes Mittel sein. Habe ich in F1 22 gemacht. Auf 83 FPS limitiert und per FG auf 166 FPS hochgezogen. Nativ wären es 110 FPS -> 166FPS (V-Sync) gewesen.
Die GPU lief mit weniger Last, da FG effizienter ist als ein natives Bild zu berechnen. Latenz spielt keine Rolle, da die GPU nicht vollständig ausgelastet war.
aufkrawall
2023-09-13, 13:02:26
Latenz spielt keine Rolle, da die GPU nicht vollständig ausgelastet war.
Das Spielt überhaupt keine Rolle, die Latenz mit Reflex ist die gleiche wie im CPU-Limit.
Tesseract
2023-09-13, 13:55:06
Wer sagt, dass das zwangsweise so sein muss? Warum wird nicht in 100FPS gerendert und dann eben nur jedes x-te frame interpoliert, so dass daraus 144fps entsteht?
wie soll das funktionieren? auf 144Hz ist der scanout ~7ms lang, mit 100fps rendert ein frame in 10ms. fügst du alle paar frames eines ein wären die frametimes 10, 10, 10, 5, 5, 10, 10, 5, 5, 10, 10, 10, 5, 5 oder so ähnlich. um das anzeigen zu können müsste man mehrere frames buffern, irgendwie "de-jittern" und bekommt als folge visuellen jitter weil die "echten" frames zueinander verschoben werden.
robbitop
2023-09-13, 14:09:29
Ja, Frame-Limitierung kann ein gutes Mittel sein. Habe ich in F1 22 gemacht. Auf 83 FPS limitiert und per FG auf 166 FPS hochgezogen. Nativ wären es 110 FPS -> 166FPS (V-Sync) gewesen.
Die GPU lief mit weniger Last, da FG effizienter ist als ein natives Bild zu berechnen. Latenz spielt keine Rolle, da die GPU nicht vollständig ausgelastet war.
Gute Idee! Aber leider unterstützen viele Spiele keinen fps granularen Framelimiter. Und externe Framelimiter fügen leider wieder Latenz hinzu.
Besser man hat ein 165Hz display - besser 240 Hz um genug headroom zu haben. Die Bewegtschärfe ist dann vermutlich extrem geil (insbesondere mit einem OLED). 4K240Hz OLEDs sollen ja 2024 kommen (z.B der PG32UCDM).
Mit 32" finde ich den zu groß und fände es in 27" feiner - aber es ist ein guter Anfang. Mit einer 4090 mit DLSS Upsampling und Frame Generation sollte man da schon in einigen Spielen ziemlich gut auskommen vom Bewegtschärfe ergebnis. Und mit höheren dreistelligen FPS und reflex ist auch die Latenz dann einfach so gut, dass es egal ist ob FG oder nicht (weil es die wenigsten noch merken sollten).
Exxtreme
2023-09-13, 14:37:20
Mit einer 4090 mit DLSS Upsampling und Frame Generation sollte man da schon in einigen Spielen ziemlich gut auskommen vom Bewegtschärfe ergebnis. Und mit höheren dreistelligen FPS und reflex ist auch die Latenz dann einfach so gut, dass es egal ist ob FG oder nicht (weil es die wenigsten noch merken sollten).
Das wird wohl erst mit einem Ada-Nachfolger ordentlich funktionieren. Es ist so, Ada braucht ca. 5 ms um ein generiertes Bild zu erstellen. Damit ergibt sich ein implizites weiches Limit von 200 fps mit FG oder 100 fps nativ. Ab dieser Grenze wird FG immer mehr kontraproduktiv je höher die nativen fps nach oben gehen.
aufkrawall
2023-09-13, 14:41:43
Ich sags mal so: Es ist bei 70fps nativ +FG definitiv nicht sonderlich direkt. Gegen den Lag von Vsync bei 75Hz ohne VRR ist es allerdings auch schon wieder komplett harmlos.
Es sieht in CP77 bei der Vorwärtsbewegung mit 110fps FG definitiv deutlich weniger anstrengend aus als mit 70 nativ. Dafür ist das Zielen schwammiger.
Kann mit der 4070 witzigerweise mit PT + FG wirklich minutenlang bei ~50fps (DLSS Q) durch die Stadt fahren, ohne dass das Bild einmal zuckt oder einen schlimme Artefakte anspringen (zumindest nicht von FG). Wenn es richtig funktioniert, ist es schon nicht übel.
Was problematischer als der Grund-Lag ist, sind die Lag-Schwankungen, wenn der Frame Time Graph durch Events wie Lastabfall kurz fett wird. Im Grunde ist das der eigentliche Grund, weshalb man auch in SP-Spielen eher komfortabel hohe fps mit FG will. Wobei das bei etwas wie Rennspielen natürlich auch weniger wichtig ist.
Lehdro
2023-09-13, 14:51:58
Wobei das bei etwas wie Rennspielen natürlich auch weniger wichtig ist.
Sehe ich nicht so. Ich fand NFS:Unbound mit FG fürchterlich, trotz >70 fps + Nativ. Beim Witcher hat es mich gar nicht gestört und bei Darktide sowie CP2077+PT sowieso nicht. Wobei CP2077 sich irgendwie immer wie eine Schlammgrube spielt...
Exxtreme
2023-09-13, 14:58:53
Ich sags mal so: Es ist bei 70fps nativ +FG definitiv nicht sonderlich direkt.
Du musst immer 5 ms draufrechnen, die man immer bekommt wenn man mit FG spielt. 70 fps nativ (140 fps mit FG) hat eine Eingabeverzögerung als ob man mit ~52 fps ohne FG spielen würde. Und ein Spiel, welches mit 52 fps läuft, wird sich schwammig anfühlen, ja.
aufkrawall
2023-09-13, 15:10:26
Hat die Leute aber auch nicht davon abgehalten, vor Reflex und FG irgendwas zu spielen. Das schwachsinnige CPU Prerender von Witcher 3 etwa ist ~3 Frames, bei 70fps also völlig unnötige 43ms. Und mit Vsync wären es nochmal ähnlich viel oben drauf.
Dann kommen bei Vsync ggf. noch gedropte/wiederholte Bilder dazu und schlechteres Frame Pacing ohne FG (ist zumindest oft so). Ganz so einfach ist es also auch nicht.
Ich sags mal so: Es ist bei 70fps nativ +FG definitiv nicht sonderlich direkt. Gegen den Lag von Vsync bei 75Hz ohne VRR ist es allerdings auch schon wieder komplett harmlos.
Cyberpunk hat generell eine extrem schlechte Latenz, auch ganz ohne FG und mit hohen FPS. Reflex macht es überhaupt erst erträglich.
Du musst immer 5 ms draufrechnen, die man immer bekommt wenn man mit FG spielt.
FG erzeugt immer mindestens 1 Frametime der tatsächlich berechneten Frames.
Erst ab 100 nativen FPS bist du da unter 5ms.
Platos
2023-09-13, 18:29:34
Du musst immer 5 ms draufrechnen, die man immer bekommt wenn man mit FG spielt. 70 fps nativ (140 fps mit FG) hat eine Eingabeverzögerung als ob man mit ~52 fps ohne FG spielen würde. Und ein Spiel, welches mit 52 fps läuft, wird sich schwammig anfühlen, ja.
60FPS ohne Reflex fühlt sich für die meisten Gamer auch nicht schwammig an. Also fühlt sich 52FPS mit Reflex auch nicht schwammig an für die meisten.
Von daher: Für die meisten passt Framegen vom Inputlag.
The_Invisible
2023-09-13, 18:45:16
Ich hab auch kein Problem mit 70 FG FPS solangs kein hardcore Shooter ist. Aber kann ja jeder selbst entscheiden, pumpe die Leistung lieber in mehr BQ.
Platos
2023-09-13, 19:15:10
Ich hab auch kein Problem mit 70 FG FPS solangs kein hardcore Shooter ist. Aber kann ja jeder selbst entscheiden, pumpe die Leistung lieber in mehr BQ.
Ja, was ja gut geht mit Framegen. Wobei ich bezüglich Bewegtschärfe noch keine Aussagen treffen kann.
Das Spielt überhaupt keine Rolle, die Latenz mit Reflex ist die gleiche wie im CPU-Limit.
Wieso nicht? Wenn er 110FPS ohne Framegen erreicht und mittels framelimiter auf 83 limitiert, ist die Latenz doch höher, weil die CPU nur noch 83FPS berechne. ?
Und es kostet natürlich ein bisschen compute.
Machen denn das nicht die Tensorcores ?
wie soll das funktionieren? auf 144Hz ist der scanout ~7ms lang, mit 100fps rendert ein frame in 10ms. fügst du alle paar frames eines ein wären die frametimes 10, 10, 10, 5, 5, 10, 10, 5, 5, 10, 10, 10, 5, 5 oder so ähnlich. um das anzeigen zu können müsste man mehrere frames buffern, irgendwie "de-jittern" und bekommt als folge visuellen jitter weil die "echten" frames zueinander verschoben werden.
Hmm ok, ja das ergibt sinn.
Also das heisst, wenn ich 130FPS erreiche und noch die 144Hz schaffe, würde dann mit Framegen nativ nur noch 72FPS gerechnet werden ? Weil dann sollte man ja Framegen nur einschalten, wenn man nahe an eine Verdopplung kommt. Sonst wird der Inputlag nicht nur wegen Framegen an sich schlechter im Vergleich zu Nativ+ Reflex.
Ja, Frame-Limitierung kann ein gutes Mittel sein. Habe ich in F1 22 gemacht. Auf 83 FPS limitiert und per FG auf 166 FPS hochgezogen. Nativ wären es 110 FPS -> 166FPS (V-Sync) gewesen.
Die GPU lief mit weniger Last, da FG effizienter ist als ein natives Bild zu berechnen. Latenz spielt keine Rolle, da die GPU nicht vollständig ausgelastet war.
Wie kannst du auf 83FPS limiteren und dann trotzdem mit Framegen über dieses Limit hinaus kommen?
aufkrawall
2023-09-13, 19:26:47
Wieso nicht? Wenn er 110FPS ohne Framegen erreicht und mittels framelimiter auf 83 limitiert, ist die Latenz doch höher, weil die CPU nur noch 83FPS berechne. ?
Darauf hab ich mich nicht bezogen, sondern auf die Behauptung, die Latenz würde im CPU-Limit weniger ansteigen. Würde mal annehmen, dass das Quatsch ist, weil "Reflex GPU-Limit" und CPU-Limit bei gleichen fps die ~gleiche Latenz haben und auch bei nicht voll ausgelasteter GPU trotzdem immer die Latenz des FG-Frames da ist. Dass hohe GPU-Last die Optical Flow Accelerators ausbremsen würde, ist afair auch nicht nachgewiesen.
Auch sein komisches fps-Limit erscheint mir nicht schlüssig, sofern er nicht für eine höhere maximale Refreshrate aus irgendwelchen Gründen das Limit selbst tiefer setzen will. Das Rendering würde eh durch Vsync/Limit gemetered werden.
Exxtreme
2023-09-13, 22:33:56
FG erzeugt immer mindestens 1 Frametime der tatsächlich berechneten Frames.
Erst ab 100 nativen FPS bist du da unter 5ms.
Unter 5 ms kommt man offenbar nicht da Ada die Bilder nicht schneller generieren kann. Und damit hastdu eine weiche Grenze bei 200 fps.
60FPS ohne Reflex fühlt sich für die meisten Gamer auch nicht schwammig an. Also fühlt sich 52FPS mit Reflex auch nicht schwammig an für die meisten.
Von daher: Für die meisten passt Framegen vom Inputlag.
Ja, das sind halt Casuals. ;) Andererseits sind Leute, die sich mit sowas wie FG beschäftigen, schon eher fit was Technik angeht.
Tesseract
2023-09-13, 23:25:02
wo kommen die 5ms her? ich habe definitiv schon 240fps+ gesehen mit FG auf 4k.
Also das heisst, wenn ich 130FPS erreiche und noch die 144Hz schaffe, würde dann mit Framegen nativ nur noch 72FPS gerechnet werden ? Weil dann sollte man ja Framegen nur einschalten, wenn man nahe an eine Verdopplung kommt. Sonst wird der Inputlag nicht nur wegen Framegen an sich schlechter im Vergleich zu Nativ+ Reflex.
genau.
Exxtreme
2023-09-13, 23:56:14
wo kommen die 5ms her? ich habe definitiv schon 240fps+ gesehen mit FG auf 4k.
OK, sind angeblich 3 - 5 ms:
https://extreme.pcgameshardware.de/threads/diablo-4-mit-dlss-3-offenbar-wirksames-mittel-gegen-framedrops.634689/#post-11308502
Aber von 5 ms sollte man pessimistischerweise ausgehen.
Unter 5 ms kommt man offenbar nicht da Ada die Bilder nicht schneller generieren kann.
Das sind jetzt 2 verschiedene Dinge.
Einmal die zusätzliche Latenz, deren Untergrenze ist mindestens 1x echte Frametime (wenn FG aktiv ist), die Frametime des Fake-Frame ist dafür egal.
Das zweite ist die sinnvolle Einsetzbarkeit von FG generell, und dafür muss die Frametime des Fake Frame unter Frametime-Echt/2 liegen
robbitop
2023-09-14, 10:34:09
Hat die Leute aber auch nicht davon abgehalten, vor Reflex und FG irgendwas zu spielen. Das schwachsinnige CPU Prerender von Witcher 3 etwa ist ~3 Frames, bei 70fps also völlig unnötige 43ms. Und mit Vsync wären es nochmal ähnlich viel oben drauf.
Dann kommen bei Vsync ggf. noch gedropte/wiederholte Bilder dazu und schlechteres Frame Pacing ohne FG (ist zumindest oft so). Ganz so einfach ist es also auch nicht.
Kann man die prerender frames erfolgreich über den Treiber auf einen kleineren Wert zwingen oder muss man über die ini ran?
robbitop
2023-09-14, 10:35:17
FG erzeugt immer mindestens 1 Frametime der tatsächlich berechneten Frames.
Erst ab 100 nativen FPS bist du da unter 5ms.
Ich glaube er meint es kostet pro Frame 5 ms zusätzlichen compute overhead (frameratesenkend also).
robbitop
2023-09-14, 10:37:52
Machen denn das nicht die Tensorcores ?
Das heisst ja nicht das das kostenlos wird. Das ist ein Irrglaube. Die TCs benutzen resources im SM die dann weniger für die Vektor FPUs zur Verfügung stehen. Scheduler resource, Register usw.
Ich glaube er meint es kostet pro Frame 5 ms zusätzlichen compute overhead (frameratesenkend also).
Das wäre viel zu viel um sinnvoll einsetzbar zu sein.
Die 5ms können höchstens die gesamte Frametime für den Fake-Frame sein, wovon aber ein großer Teil von dedizierter Hardware (Tensorcores, Optical Flow maybe andere Magic die NV nicht verraten will) übernommen wird.
Würde die FG tatsächlich 5ms Compute draufschlagen, würde die Framerate der echten Frames sagen wir mal von 100FPS auf 67FPS einbrechen.
FG kann nur dann sinnvoll funktionieren, wenn es entweder rasend schnell (<1ms) ist, oder der größte Teil von anderer Hardware übernommen wird und nicht die reguläre Grafikberechnung stört.
aufkrawall
2023-09-14, 17:51:15
Funktioniert :D :
https://abload.de/thumb/jedisurvivor_2023_09_rpi3c.png (https://abload.de/image.php?img=jedisurvivor_2023_09_rpi3c.png) https://abload.de/thumb/jedisurvivor_2023_09_vve34.png (https://abload.de/image.php?img=jedisurvivor_2023_09_vve34.png)
BlacKi
2023-09-16, 00:32:59
mlid labert von dlss 4.0 verbessert RT quali.
https://youtu.be/iwPNbv6WGXc
DrFreaK666
2023-09-16, 01:47:52
War ja überhaupt nicht abzusehen nach 3.5
BlacKi
2023-09-16, 02:21:37
War ja überhaupt nicht abzusehen nach 3.5ich doubte das erstmal. warum sollte man das für wahr nehmen? was meinst du mit absehen? oh 3.5 bringt qualitötsvorteile, 4.0 muss noch mehr quali bieten um amds performance patch entgegenzuwirken?
makes no sense.
Platos
2023-09-16, 10:22:16
War ja überhaupt nicht abzusehen nach 3.5
Du sagst das so, als wäre es stink langweilig.
Dabei ist das grandios, da ja RT so Perfomancehungrig ist.
Leider gerät AMD damit immer weiter ins Hintertreffen. Irgendwann kann man AMD nicht mehr guten Gewissens empfehlen, wenn dieses Ungleichgewicht immer grösser wird.
Fragman
2023-09-16, 10:31:50
Das DLSS Thema im mlid Vid hab ich kurz nach dem Beginn abgebrochen, weil die Informationsgehalt gleich 0 ist.
Dazu ist das alles so diffuse gehalten, das egal was mit DLSS4 kommt, gesagt werden kann, das man die Informationen schon vorher hatte.
Lurtz
2023-09-16, 10:38:47
Das DLSS Thema im mlid Vid hab ich kurz nach dem Beginn abgebrochen, weil die Informationsgehalt gleich 0 ist.
Dazu ist das alles so diffuse gehalten, das egal was mit DLSS4 kommt, gesagt werden kann, das man die Informationen schon vorher hatte.
MLID in a nutshell. Endloses Rambling ohne Basis.
robbitop
2023-09-16, 10:56:08
Naja er hat schon einige Sachen getroffen, die man nicht hätte raten können. Aber ja er liegt auch daneben (wobei man sagen muss dass viele Dinge ein „moving target“ sind.
Er scheint schon einige Quellen zu haben aber das Gelaber und Spekulieren könnte er besser sein lassen.
Auf jeden Fall immer ein halbe Kilo Skepsis dazu.
Linmoum
2023-09-16, 11:04:47
iirc sagte er damals was von DLSS3 für Ampere und auf Treiberebene, also gerade bei dem Thema sollte man ihn eh nicht ernst nehmen. Eigentlich scheint er nur primär in Bezug auf Intel halbwegs valide zu sein, beim Rest lässt sich vieles auch nicht immer einfach nachverfolgen, da er gerne Videos löscht, bei denen sich herausstellt, dass er Quatsch erzählt hat. Toller Typ halt.
robbitop
2023-09-16, 11:12:03
Wie gesagt vieles ist ein moving target. Dinge die mal zu Zeitpunkt X geplant waren oder angefacht waren ändern sich. Und natürlich können Quellen auch falsch liegen.
Ich glaube du fokussierst dich hier auf die Sachen wo er daneben lag. Man müsste ggf eher mal eine vollumfängliche Liste machen mit daneben / nicht daneben unter Berücksichtigung was moving target sein kann und was nicht.
Ich bin selbst kein MLID fan aber ich finde hier wird sowas auch schnell mal indifferenziert betrachtet.
Linmoum
2023-09-16, 11:35:02
Natürlich hat niemand einen 100%igen Trackrecord. Wer aber, gerade in diesem Bereich, teilweise so dünnhäutig reagiert wenn er falsch liegt und anfängt, im nachhinein Videos kommentarlos zu löschen, bei denen sich herausgestellt hat, dass das dort vorgetragene Quatsch war, den kann man in meinen Augen schlicht nicht ernst nehmen.
The_Invisible
2023-09-16, 11:41:08
Du sagst das so, als wäre es stink langweilig.
Dabei ist das grandios, da ja RT so Perfomancehungrig ist.
Leider gerät AMD damit immer weiter ins Hintertreffen. Irgendwann kann man AMD nicht mehr guten Gewissens empfehlen, wenn dieses Ungleichgewicht immer grösser wird.
Selbst Apple in den iPhones bietet jetzt RT-Einheiten und KI-Upscaling, lange wird sich da AMD nicht mehr verweigern können. Zudem hat sich auch das Thema erledigt das RT irgendein Randthema wäre, das ist schon voll im Mainstream angekommen.
BlacKi
2023-09-16, 11:52:42
Du sagst das so, als wäre es stink langweilig.
Dabei ist das grandios, da ja RT so Perfomancehungrig ist.
Leider gerät AMD damit immer weiter ins Hintertreffen. Irgendwann kann man AMD nicht mehr guten Gewissens empfehlen, wenn dieses Ungleichgewicht immer grösser wird.mir war so, als hätte ich gelesen, das 3.5 die RT optik aufhübscht mit minimalem performance benefit.
amd hat ja ebenfalls gesagt, das man eine ähnliche technik bringen wird, die hauptsächlich einen performance boost bringen wird.
das problem wird also eher das sein, das man bei selben einstellungen im spiel wohl bei nv bessere optik sehen wird, statt eines performance boosts wie bei amd. die vergleichbarkeit ist dann nichtmehr gegeben.
DrFreaK666
2023-09-16, 12:08:55
John von DF spekuliert ja ob man in Zukunft nicht mit Hilfe von KI die Bildqualität "benchmarken" könnte. Könnte ich mir gut vorstellen.
Einfach drauf zu verzichten, wie es HWU aktuell macht, halte ich für den falschen Weg
Lurtz
2023-09-16, 12:21:02
IMO kommt es bei Spekulationen nicht darauf an, ob man am Ende richtig oder falsch lag, sondern wie die Aussagen begründet sind. Und das sind sie meist bis auf "ich habe Quellen, trust me bro!" halt nicht gut.
Exxtreme
2023-09-16, 12:22:58
Also ich kann HWU komplett verstehen. Früher hätte man sowas wie Upscaling schlicht Cheating genannt. Und gecheatet wurde früher reichlich. Sei es winkelabhängige anisotropische Filterung oder hier und da mit geringerer Farbtiefe gerendert und hässliche Artefakte inkauf genommen etc.
DrFreaK666
2023-09-16, 12:31:29
Solche 4k Benchmarks ohne Upscaling sind halt komplett sinnlos. Was bringen mir die Werte.
Wären die lieber bei "FSR2 für alle Karten" geblieben. Aber es gab ja "Mimimi" von NV-Fanboys. Idioten
https://abload.de/img/screenshot_20230916_142iah.jpg (https://abload.de/image.php?img=screenshot_20230916_142iah.jpg)
Jupiter
2023-09-16, 12:38:15
Also ich kann HWU komplett verstehen. Früher hätte man sowas wie Upscaling schlicht Cheating genannt. Und gecheatet wurde früher reichlich. Sei es winkelabhängige anisotropische Filterung oder hier und da mit geringerer Farbtiefe gerendert und hässliche Artefakte inkauf genommen etc.
Postprocessingeffekte, Bildschirmbereicheffekte, Schadowmaps, volumetrische Effekte usw. werden meist auch nicht in nativer Auflösung berechnet. Oft werden da Auflösungen von z. B. 1/4 genommen.
Die Bildschirmauflösung nicht nativ zu berechnen reiht sich neben vielen Punkten in einer sehr langen Liste von Bereichen ein, bei denen Leistung gespart wird. Von daher ist die Argumentation nicht schlüssig.
was meinst du mit absehen? oh 3.5 bringt qualitötsvorteile, 4.0 muss noch mehr quali bieten um amds performance patch entgegenzuwirken?
Alleine die Bezeichnung ist schon ein klarer Hinweis, dass 3.5 noch nicht alles ist.
Bisher bekam jedes Update welches eine komplett neue Technik gebracht hat eine neue Hauptversionsnummer. Und von dem was NV gezeigt hat, würde auch 3.5 einen 4er verdienen. Dass dem nicht so ist, zeigt ziemlich klar 3.5 ist eigentlich noch die Beta der Ray Reconstruction und erst 4.0 wird das Final sein.
Exxtreme
2023-09-16, 13:03:09
Die Bildschirmauflösung nicht nativ zu berechnen reiht sich neben vielen Punkten in einer sehr langen Liste von Bereichen ein, bei denen Leistung gespart wird. Von daher ist die Argumentation nicht schlüssig.
"Leistung gespart" auf Kosten der Bildqualität. Also früher Cheating genannt.
DrFreaK666
2023-09-16, 13:07:16
ich doubte das erstmal. warum sollte man das für wahr nehmen? was meinst du mit absehen? oh 3.5 bringt qualitötsvorteile, 4.0 muss noch mehr quali bieten um amds performance patch entgegenzuwirken?
makes no sense.
Nachdem 3.5 auf bessere Qualität abzielt, war es doch klar, dass NV den Weg weiter geht. Bessere Qualität ist doch NVs Stärke
Jupiter
2023-09-16, 13:10:23
"Leistung gespart" auf Kosten der Bildqualität. Also früher Cheating genannt.
Wenn man Postprocessingeffekte, Bildschirmbereicheffekte, Schadowmaps, volumetrische Effekte usw. nicht nativ berechnet, kann die Bildqualität auch leiden. Dagegen sieht sie bei DLSS oft gleich oder sogar besser als die native Auflösung aus. DLSS ist eine intelligente Lösung. Da von "Cheating" zu sprechen ist weit hergeholt und eine rückschrittliche und technikfeindliche Denkweise.
DLSS vs. identische FSR Auflösung zu vergleichen ist nutzlos, wenn das Ergebnis eine unterschiedliche Qualität hat.
Als ich meine erste RTX-Karte kaufte vervielfachte sich die Geschwindigkeit meines PCs bei einem Kartenwechsel mehr den je. Schließlich kam neben der höheren Rohrechenleistung auch DLSS hinzu, welches die Geschwindigkeit neben der gesteigerten Rechenleistung noch einmal verdoppelte.
DrFreaK666
2023-09-16, 13:23:32
...Als ich meine erste RTX-Karte kaufte vervielfachte sich die Geschwindigkeit meines PCs bei einem Kartenwechsel mehr den je. Schließlich kam neben der höheren Rohrechenleistung auch DLSS hinzu, welches die Geschwindigkeit neben der gesteigerten Rechenleistung noch einmal verdoppelte.
Naja, anfangs war DLSS eher selten und besonders hässlich
BlacKi
2023-09-16, 13:48:01
Alleine die Bezeichnung ist schon ein klarer Hinweis, dass 3.5 noch nicht alles ist.
Bisher bekam jedes Update welches eine komplett neue Technik gebracht hat eine neue Hauptversionsnummer. Und von dem was NV gezeigt hat, würde auch 3.5 einen 4er verdienen. Dass dem nicht so ist, zeigt ziemlich klar 3.5 ist eigentlich noch die Beta der Ray Reconstruction und erst 4.0 wird das Final sein.ich finde die definition aber falsch. dlss verbessert bisher eigentlich im normal fall nicht die quali, sondern boostete bishernur die performance um nahe genug an native quali zu kommen. das ziel war bessere performance bei möglichst wenig quali zu verlieren. auch 3.5 verbessert erstmal nicht die grafik vs native. 3.5 versucht immernoch native grafics zu imitieren.
MLID sagt nun im prinzip aber, dlss 4 soll besser werden als native.
https://youtu.be/iwPNbv6WGXc?t=303
dann betritt man eben neue gebiete. daran find ich ja per se nichts schlimmes, bessere grafik ist immer nice, aber ich hätte ja lieber bessere performance durch dlss, damit ich endlich mal echtes RT nutzen kann.
naja, im prizip bekommt man das dann auch, muss man halt dlss UP nehmen statt p.
The_Invisible
2023-09-16, 13:58:44
Naja, anfangs war DLSS eher selten und besonders hässlich
Wie so vieles im Grafikbereich. Seien wir froh das irgendwer den Anfang macht und anfangs den Shitstorm absorbiert...
robbitop
2023-09-16, 16:35:53
Natürlich hat niemand einen 100%igen Trackrecord. Wer aber, gerade in diesem Bereich, teilweise so dünnhäutig reagiert wenn er falsch liegt und anfängt, im nachhinein Videos kommentarlos zu löschen, bei denen sich herausgestellt hat, dass das dort vorgetragene Quatsch war, den kann man in meinen Augen schlicht nicht ernst nehmen.
Hast du für das Löschen der Videos einen Beleg? Oder ist das Hören-sagen? Will das nicht bestreiten aber ist mir neu (was nichts heißen miss).
ich finde die definition aber falsch. dlss verbessert bisher eigentlich im normal fall nicht die quali, sondern boostete bishernur die performance um nahe genug an native quali zu kommen.
Schon lange nicht mehr. Framegeneration ist eine reine Verbesserung der Bildqualität, auch wenn es Nvidia als was anderes verkaufen will.
das ziel war bessere performance bei möglichst wenig quali zu verlieren. auch 3.5 verbessert erstmal nicht die grafik vs native. 3.5 versucht immernoch native grafics zu imitieren.
Schon DLSS 2.x ist in >95% der Fälle besser als native.
The_Invisible
2023-09-16, 19:50:19
Unterschied zwischen FSR und DLSS ist hier wieder enorm, im Prinzip fehlen sogar Details wie die Funken:
lsskwVyPoxs
aceCrasher
2023-09-16, 21:45:26
Hast du für das Löschen der Videos einen Beleg? Oder ist das Hören-sagen? Will das nicht bestreiten aber ist mir neu (was nichts heißen miss).
https://www.reddit.com/r/BustedSilicon/comments/yo9l2i/collection_of_mlidmoores_law_is_dead_past_claims/
Ist bekannt.
Nightspider
2023-09-16, 21:48:56
iirc sagte er damals was von DLSS3 für Ampere
Wirds ja wahrscheinlich für die Switch 2 geben, insofern könnte er Recht gehabt haben. ;D
Wobei die Switch 2 ja angeblich sogar 3.1 o.ä. beherrschen können wird.
aufkrawall
2023-09-16, 21:49:30
Er hatte auch einfach ohne jeden Beweis behauptet, DLSS würde den Input Lag erhöhen. Komplett unseriös + unerträglicher Narzissmus.
Achill
2023-09-16, 22:39:41
https://www.reddit.com/r/BustedSilicon/comments/yo9l2i/collection_of_mlidmoores_law_is_dead_past_claims/
Ist bekannt.
Interessant, aber man sollte zur Einordnung schreiben, dass diese Reddit Post von ~10 Monaten auf den Reddit von vor 3 Jahren mit der gleichen Liste verweist (https://www.reddit.com/r/Amd/comments/io0pcc/comment/g4bshut/?context=3) und die Links sind irgend welche mini Redits sind ... der Verfasser der ursprünglichen Liste ist dann auch Speziell (https://www.reddit.com/user/knz0/) ... k.a. was man damit jetzt anfangen soll - sind jetzt diese Aussagen glaubhafter als die von MLID ???
Alles was ich bei MLID bisher gesehen habe, meist hier verlinkt, war und ist für mich reine Speku ... ich glaub da kein Stück dran bis ich es im Laden und in Benchs gesehen habe.
Man sollte sich m.E. immer wieder bewusst machen, dass im Zeitalter wo jeder zu irgend etwas schreiben kann, ohne unbedingt Wissen dazu zu haben oder gar ggf. reine Fiktion sein kann, man auch alles im Netz finden kann - und damit seine subjektiv gebildet Meinung bestätigt sieht.
Ich sage nicht das irgend etwas richtig oder falsch ist, aber man sollte zu allen Aussagen eine gesunde portion Skepsis mitbringen ...
---
Er hatte auch einfach ohne jeden Beweis behauptet, DLSS würde den Input Lag erhöhen. Komplett unseriös + unerträglicher Narzissmus.
Wenn das passiert spricht es natürlich nicht für Qualität ...
BlacKi
2023-09-17, 00:11:27
Schon lange nicht mehr. Framegeneration ist eine reine Verbesserung der Bildqualität, auch wenn es Nvidia als was anderes verkaufen will.
Schon DLSS 2.x ist in >95% der Fälle besser als native.
das ist quatsch. eher in 5% der fälle kann dlss besseres AA bieten als native + standard AA.
was du meinst ist dlaa, aber selbst da würde ich von 95% absehen.
aufkrawall
2023-09-17, 00:20:38
das ist quatsch. eher in 5% der fälle kann dlss besseres AA bieten als native + standard AA.
Wohl eher umgekehrt.
BlacKi
2023-09-17, 00:43:20
dann hab ich die falschen spiele + eindrücke.
aufkrawall
2023-09-17, 01:44:58
Kannst sie ja nennen.
Das mit den RT-Reflexionen ist klar, aber darum ging es ja nicht (zumindest nicht vordergründig).
das ist quatsch. eher in 5% der fälle kann dlss besseres AA bieten als native + standard AA.
was du meinst ist dlaa, aber selbst da würde ich von 95% absehen.
Nein ich meine DLSS, DLSS-Q sieht in jedem Spiel dass ich bisher sehen konnte besser aus als Nativ+TAA, oft genug sieht sogar DLSS-P noch besser aus.
Der Qualitätsgewinn von DLAA ist dermaßen gering, das man eigentlich überhaupt nur darüber nachdenken sollte, wenn man mit DLSS-Q entweder im CPU-Limit oder über der Monitor-Refreshrate landet.
robbitop
2023-09-17, 08:30:30
Also in RDR2 sieht DLSS-Q in 1440p out of the box nicht toll aus zB an einigen Stellen. Telefonleitungen aliasen. Gibt gibt einige Objekte die ghosten. Mechwarrior 5 zeigt ebenso Artefakte. Das lässt sich mit besseren dlls und presets aber fixen.
Thunder99
2023-09-17, 11:28:03
Gibts eine Übersicht welche DLSS Version mit welchem Spiel am Besten ist? Ggf auch Preset
Slipknot79
2023-09-17, 13:29:41
Gibts eine Übersicht welche DLSS Version mit welchem Spiel am Besten ist? Ggf auch Preset
Das sollte Raff machen, dann würde ich sogar den Artikel kaufen. (y)
Auch mehr Infos zu der LOD-Thematik.
Gehört dann natürlich auch aktuell gehalten.
Exxtreme
2023-09-17, 13:37:18
Nein ich meine DLSS, DLSS-Q sieht in jedem Spiel dass ich bisher sehen konnte besser aus als Nativ+TAA, oft genug sieht sogar DLSS-P noch besser aus.
Dann habe ich wohl die falschen Spiele. Bisher sieht alles, was ich habe mit DLSS komplett verblurrt aus. Und ich deaktiviere es deswegen. Da nehme ich Treppchen an den Kanten inkauf anstatt ein total vermatschtes Bild zu haben.
Jupiter
2023-09-17, 13:41:26
TAA ist viel matschiger als DLSS. Vor allem in Bewegung.
Tesseract
2023-09-17, 13:47:57
außerdem kann man gegen blur in einem sauberen bild per schärfefilter leichter was machen als gegen aliasing, das ist schon seit SMAA vs TAA so.
Slipknot79
2023-09-17, 14:42:38
Dann habe ich wohl die falschen Spiele. Bisher sieht alles, was ich habe mit DLSS komplett verblurrt aus. Und ich deaktiviere es deswegen. Da nehme ich Treppchen an den Kanten inkauf anstatt ein total vermatschtes Bild zu haben.
Mach mal DLDSR 2,25x + DLSS an. (y)
Ex3cut3r
2023-09-17, 14:51:00
Braucht man gar nicht. 4K mit 27-32" dazu DLSS Q und Preset F via DLSS Tools dazu eine bisschen CAS via Reshade. Taddaaaa. Ist aber anscheinend für viele eine Mammutaufgabe.
The_Invisible
2023-09-17, 15:06:50
Sag ich auch, steigt endlich Mal auf UHD um, mehr BQ Gewinn gibt's nicht...
Slipknot79
2023-09-17, 15:15:41
Würden wir ja gerne, nur dass es die passende GPU dazu noch gar nicht am Markt gibt, nicht mal die 4090 ist 4k-tauglich. (y)
aufkrawall
2023-09-17, 15:16:19
Kriegt auch mal wieder ein. Gerade in niedrigerer Auflösung funktioniert DLSS besser als TAA, und mit Ray Reconstruction dürfte sich das noch (ggf. massiv) verstärken.
Manche Leute sind halt unfähig, CAS zu benutzen, oder spielen (absichtlich?) nur Spiele mit verhunzter Mip-Anpassung. :freak:
Exxtreme
2023-09-17, 15:18:08
Braucht man gar nicht. 4K mit 27-32" dazu DLSS Q und Preset F via DLSS Tools dazu eine bisschen CAS via Reshade. Taddaaaa. Ist aber anscheinend für viele eine Mammutaufgabe.
Reshade ist problematisch in MMORPGs.
Platos
2023-09-17, 15:21:28
Ne liste mit Settings für Spiele wäre immer noch nice.
Wie wäre es mit so ner Art google-doc (online), auf die man Zugriff kriegt, wenn man hier angemeldet ist und dann kann man das Spiel angeben und die Settings inkl. seinem Nutzernamen. Durch den Nutzernamen verhindern man Streitigkeiten darüber, was nun das "beste" Setting ist.
Wer wäre dabei ?
aufkrawall
2023-09-17, 15:28:56
Reshade ist problematisch in MMORPGs.
Da ist die Bildqualität bei der China 1999-Grafik natürlich das Allerwichtigste. :freak:
Mit Elder Scrolls Online bist zu hier wohl ziemlich Nische.
Linmoum
2023-09-17, 15:52:57
Reshade ist problematisch in MMORPGs.Ich nutze Reshade seit es das gibt in WoW, noch nie was passiert. Genauso hab ich noch nie von jemandem gehört oder gelesen, dass er deswegen gebannt worden ist. Wird auch nie passieren, da Reshade keine Game Files modifiziert.
aufkrawall
2023-09-17, 16:42:27
Manche Spiele blocken das Laden der DLL. Trotzdem muss sich die Diskussion nicht immer auf die Minderheit von Problemfällen beschränken. Langweilig und nervig.
DrFreaK666
2023-09-17, 17:02:18
Weil CAS per Reshade nicht von einer Minderheit genutzt wird ^^
Nightspider
2023-09-17, 17:04:19
Hab ich auch noch nie getestet.
Lurtz
2023-09-17, 17:04:22
Ne liste mit Settings für Spiele wäre immer noch nice.
Wie wäre es mit so ner Art google-doc (online), auf die man Zugriff kriegt, wenn man hier angemeldet ist und dann kann man das Spiel angeben und die Settings inkl. seinem Nutzernamen. Durch den Nutzernamen verhindern man Streitigkeiten darüber, was nun das "beste" Setting ist.
Wer wäre dabei ?
Das hatte ich auch schonmal vorgeschlagen, hatte bisher leider nicht die Zeit/Lust dazu.
Sicher zielführender, zum xten Mal zu diskutieren ob kein AA/MSAA besser als zeitgemäßes AA ist ;)
aufkrawall
2023-09-17, 17:10:09
Weil CAS per Reshade nicht von einer Minderheit genutzt wird ^^
Es verzichtet auch nicht jedes Spiel auf Sharpen mit DLSS und vielen reicht sogar das Treiber-Sharpen. Also nur ein dummes Nicht-Argument.
Lurtz
2023-09-17, 21:42:54
Stand nicht mal das Gerücht im Raum, Frame Generation würde auf schwächeren Karten nicht so gut skalieren?
Laut HWU skaliert die 4060 genauso gut wie die 4090:
https://abload.de/thumb/untitledoxcfl.jpg (https://abload.de/image.php?img=untitledoxcfl.jpg)
https://www.youtube.com/watch?v=X-h_R488Mq8
aufkrawall
2023-09-17, 21:58:18
Die beste Skalierung im GPU-Limit von 70% hab ich bislang in CP77 mit PT gesehen, obwohl das die GPU dem Verbrauch nach schon mit am stärksten auslastet. Lässt sich wohl nicht alles auf wenige Faktoren runterbrechen.
The_Invisible
2023-09-17, 22:22:34
Stand nicht mal das Gerücht im Raum, Frame Generation würde auf schwächeren Karten nicht so gut skalieren?
Laut HWU skaliert die 4060 genauso gut wie die 4090:
https://abload.de/thumb/untitledoxcfl.jpg (https://abload.de/image.php?img=untitledoxcfl.jpg)
https://www.youtube.com/watch?v=X-h_R488Mq8
Würde keinen Sinn ergeben da jede Ada Karte die gleich schnelle OFA Einheit verbaut hat. Da FG aber so 3-5ms pro Frame braucht ist die Skalierung irgendwann bei >250fps zu Ende.
Stand nicht mal das Gerücht im Raum, Frame Generation würde auf schwächeren Karten nicht so gut skalieren?
Laut HWU skaliert die 4060 genauso gut wie die 4090:
https://abload.de/thumb/untitledoxcfl.jpg (https://abload.de/image.php?img=untitledoxcfl.jpg)
https://www.youtube.com/watch?v=X-h_R488Mq8
Nein, jeder normale user hier weiß, das die Hardware-Einheit doch bei allen GPUs die gleiche ist.
Stand nicht mal das Gerücht im Raum, Frame Generation würde auf schwächeren Karten nicht so gut skalieren?
Bei niedrigeren FPS kein Wunder dass die Skalierung besser wird.
Da FG aber so 3-5ms pro Frame braucht ist die Skalierung irgendwann bei >250fps zu Ende.
Die 3-5ms können zumindest für die 4090 nicht stimmen, ansonsten wären die kleineren Karten viel zu langsam um FG überhaupt nutzen zu können.
Dass alle Karten den selben optical flow accelerator verbaut haben hilft hier überhaupt nicht, der OFA generiert die Frames nicht, er liefert "nur" Inputs welche für die FG anschließend verwendet werden.
Die FG Selbst passiert aber in den SMs, und kleinere GPUs haben weniger davon, wodurch sie zwangsweise länger für die FG benötigen werden.
Platos
2023-09-18, 11:10:16
Das hatte ich auch schonmal vorgeschlagen, hatte bisher leider nicht die Zeit/Lust dazu.
Sicher zielführender, zum xten Mal zu diskutieren ob kein AA/MSAA besser als zeitgemäßes AA ist ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13397663#post13397663
Ich habe es mal versucht und eine google doc Tabelle erstellt und einen eigenen Thread erstellt dafür. Meine Tabellenkenntisse sind aber nicht die besten^^
Es sind also die Spezialisten hier gerne eingeladen, in Zukunft wenn sie Zeit/Lust haben dort ihre Gamesettings zu posten. Im Thread und Doc steht eig. soweit alles, wie man da Einträge macht (und wenn etwas fehlt/nicht gut ist, bitte melden).
Edit: Die Tabelle ist so ein Grobentwurf. Also daran kann noch gearbeitet werden ^^
Edit 2: Die Tabelle ist für Upscalingverfahren und AA gedacht und alle sonstigen Einstellungen (wie z.b mipbias, schärfen und co), die (darauf aufbauend) als Ergänzung dienen.
Es geht also nicht darum, wie das Spiel am "hüpschesten" aussieht. Geht primär um Bildschärfe, Bildstabilität und solche Dinge.
Troyan
2023-09-19, 15:09:17
Laut nVidia unterstützt das Cyberpunk 2.0 Update DLSS 3.5 mit Ray Reconstruction. Kann also Donnerstag losgehen:
On September 21st, return to the neon lights of Night City when Cyberpunk 2077’s 2.0 update launches, featuring support for NVIDIA DLSS 3.5 and its new Ray Reconstruction technology, enhancing the quality of full ray tracing in Cyberpunk 2077’s Ray Tracing: Overdrive Mode.
https://www.nvidia.com/en-us/geforce/news/dlss-3-5-cyberpunk-2077-september-21-launch/
Gibt auch einen neuen Trailer von nVidia: https://www.youtube.com/watch?v=DbuKZgZpDP8
Rancor
2023-09-19, 15:53:35
Feature Set von Nvidia ist einfach nice
The_Invisible
2023-09-19, 15:59:30
Die 3-5ms können zumindest für die 4090 nicht stimmen, ansonsten wären die kleineren Karten viel zu langsam um FG überhaupt nutzen zu können.
Dass alle Karten den selben optical flow accelerator verbaut haben hilft hier überhaupt nicht, der OFA generiert die Frames nicht, er liefert "nur" Inputs welche für die FG anschließend verwendet werden.
Die FG Selbst passiert aber in den SMs, und kleinere GPUs haben weniger davon, wodurch sie zwangsweise länger für die FG benötigen werden.
OK, auch nicht gewusst. Zu OFA & FG gibts sowieso so wenig Infos, was ich weiß hat da ja nicht mal PCGH nach Nachfrage bei Nvidia mehr Infos bekommen.
@Troyan
Sehr cool eigentlich sollte neuer Treiber auch kommen oder? War RTXDI vorher auch schon drinnen?
Troyan
2023-09-19, 16:11:07
Ja, Overdrive Modus hat RTXDI und RTXGI. Treiber kommt laut nVidia ebenfalls am Donnerstag.
DrFreaK666
2023-09-19, 17:53:48
Qv9SLtojkTU
aufkrawall
2023-09-19, 18:46:50
Klingt so, als wär das Preset/Model nicht nutzbar bzw. erzwingbar, wenn Entwickler das für TC Denoising nicht explizit in der DLSS-Implementierung festlegen.
Hoffentlich findet das noch seinen Weg generisch in Unreal etc.
Der CDPR-Dev ist hart begeistert von 3.5, "keine Nachteile".
Definitiv ein sehr interessanter Talk, mit Themen wie Modding usw.
Linmoum
2023-09-19, 19:32:49
Wer hätte vor bald fast 3 Jahren gedacht, dass das gegen Ende 2023 quasi der Technik-Showcase und Hingucker schlechthin werden würde.
Einerseits natürlich großes Lob an CDPR nach dem Desaster zum ursprünglichen Launch, andererseits wäre das ohne Nvidia in der Form vermutlich auch nie möglich. Muss man hier einfach nüchtern und neidlos anerkennen. So gehen technischer Fortschritt und Innovationen.
Troyan
2023-09-19, 19:39:11
Es ist viel überraschender, dass "Real Time Pathtracing" überhaupt schon möglich ist.
Mit nVidias UE5 Branch kann man ebenfalls auf Pathtracing umsteigen mit RTXGI und RTXDI. Und mindesten auf Lovelace ist RTXGI fast genauso schnell wie Lumen bei deutlich besserer Qualität.
Das Tempo ist unglaublich, was die an Entwicklung vorlegen.
DrFreaK666
2023-09-19, 19:50:21
Bringt halt nur einem Mini-Bruchteil der Spieler etwas - aktuell jedenfalls
crux2005
2023-09-19, 19:51:47
Das Tempo ist unglaublich, was die an Entwicklung vorlegen.
Ja, definitiv. Bei Konsolen gibt es solche Technik wohl erst 2028.
DrFreaK666
2023-09-19, 19:55:40
Ja, definitiv. Bei Konsolen gibt es solche Technik wohl erst 2028.
Und erst dann wird es etabliert sein
TheCounter
2023-09-19, 19:56:16
Bringt halt nur einem Mini-Bruchteil der Spieler etwas - aktuell jedenfalls
Ist doch fast immer so wenns um neue Technologien geht.
Wobei das hier wirklich krass ist.
Fragman
2023-09-19, 20:08:09
Wobei das hier wirklich krass ist.
Weil sich der 2. Big Player bisher kaum einbringt.
Wann war das mal so?
Weder bei 3D Beschleunigung am Anfang, noch bei T&L oder den Shadern in Hardware.
Wenn AMD wirklich bis 2028 braucht, reden wir von 10 Jahren.
Man kann nur hoffen das zumindest RDNA4 da etwas Strecke machen kann, auch wenn das dann immer noch 6 Jahre waren.
Jupiter
2023-09-19, 20:11:13
Also ich kann HWU komplett verstehen. Früher hätte man sowas wie Upscaling schlicht Cheating genannt. Und gecheatet wurde früher reichlich. Sei es winkelabhängige anisotropische Filterung oder hier und da mit geringerer Farbtiefe gerendert und hässliche Artefakte inkauf genommen etc.
In dem oben verlinkten Video sagt er bei 16:00 Minuten das dann auch LOD und Mipmaps "Cheating" wären.
Das sehe ich auch so. Daher bleibe ich bei dem, was ich vorher schrieb. Man muss die Techniken intelligent nutzen. Natives berechnen von Bildpunkten ist Leistungsverschwendung.
TheCounter
2023-09-19, 20:13:17
Mit krass meinte ich eher die Steigerung der Bildqualität ;)
Aber ja, es ist schade das AMD dachte, RTRT wird nur ein "Nischenprodukt" bleiben.
Jupiter
2023-09-19, 20:14:42
Und erst dann wird es etabliert sein
Ich nutze es schon jetzt und habe meine Freude daran.
The_Invisible
2023-09-19, 20:20:43
In dem oben verlinkten Video sagt er bei 16:00 Minuten das dann auch LOD und Mipmaps "Cheating" wären.
Das sehe ich auch so. Daher bleibe ich bei dem, was ich vorher schrieb. Man muss die Techniken intelligent nutzen. Natives berechnen von Bildpunkten ist Leistungsverschwendung.
Die ganze Computergrafik ist "Cheating" wenn man es mit Referenzbild vergleicht, warum dann nur Upsampling böse sein soll, ka...
Interessant aber auch das an RayReconstruction schon seit 2020 gearbeitet wird, da sieht man mal gut welchen Vorsprung Nvidia hier hat, AMD hat noch nicht mal KI Supersampling draußen geschweige den richtige KI-Kerne.
Der Seitenhieb auf Starfield war auch richtig böse ;)
aufkrawall
2023-09-19, 20:21:38
Wenn AMD wirklich bis 2028 braucht, reden wir von 10 Jahren.
Man kann nur hoffen das zumindest RDNA4 da etwas Strecke machen kann, auch wenn das dann immer noch 6 Jahre waren.
Bryan Catanzaro hat gesagt, sie würden das Modell für DLSS mit Unreal Engine (was ihre Forks mit NV HW-RT einschließen dürfte) und Omniverse trainieren. Dazu haben sie noch ihre eigenen, riesigen Server-Kapazitäten.
Ich behaupte jetzt mal, dass AMD ~nie die finanziellen und technischen Ressourcen haben wird, das zu leisten. Die Konsolen waren schon 2020 vom zwei Jahre älteren Turing abgehängt, und das sieht nach einem sich eher noch verstärkenden Trend aus. "Dit wars."
Man kann eigentlich nur hoffen, dass es wirklich irgendwann keine neuen Konsolen mehr geben wird und nur der PC übrig bleibt. Sonst seh ich nicht, wie das überwunden werden könnte. Oder AMD ist so dermaßen abgeschlagen, dass die Konsolenhersteller doch noch auf Nvidia oder Intel zugehen und auf Marge verzichten. Aber wohl eher nicht.
Edit: Der Lichtblick ist da eigentlich nur SW-RT wie in UE5, sodass das für den PC optional einfach gegen HW-RT ausgetauscht werden kann.
DrFreaK666
2023-09-19, 20:28:14
...Aber ja, es ist schade das AMD dachte, RTRT wird nur ein "Nischenprodukt" bleiben.
Denke sie waren eher überrascht wie schnell es sich entwickelt.
Andererseits läuft die breite Masse gut mit AMD-Karten.
Nvidia kann nicht alle mit Geld und Manpower unterstützen
Troyan
2023-09-19, 20:36:56
Edit: Der Lichtblick ist da eigentlich nur SW-RT wie in UE5, sodass das für den PC optional einfach gegen HW-RT ausgetauscht werden kann.
Nein, SW-RT ist viel zu schlecht. Das arbeitet komplett anders als richtiges HW-RT.
Sinnvoller ist es vernünftiges HW-RT zu unterstützen und dann bei bestimmten Spielen per Probe-Verfahren das GI vorzuberechnen - siehe Warhammer Darktide.
Lumen ist miserabel und ist heute schon von nVidias ReStir GI abgehängt.
aufkrawall
2023-09-19, 20:41:13
Sinnvoller ist es vernünftiges HW-RT zu unterstützen und dann bei bestimmten Spielen per Probe-Verfahren das GI vorzuberechnen - siehe Warhammer Darktide.
Kompletter Bullshit für alles, was Open World oder sonst wie Dynamik hat.
Von der GI in Fortnite mit 60fps kann man bei zig anderen Spielen auf der Konsole nur träumen, also erzähl keinen Mumpitz.
-> Abwarten, inwiefern Lumen optional mit noch mehr HW-RT erweitert wird. Mal ganz abgesehen davon, dass auch Lumen aktuell schon enorm von Tensorcore-Denoising profitieren würde.
Lurtz
2023-09-19, 20:56:12
Was ich rausgezogen habe:
Nvidia trainiert ihr Machine Learning Modell vor allem mit einer eigenen Version der Unreal Engine 5 und Nvidia Omniverse.
Ray Reconstruction hat die meisten Wins in Pathtracing Anwendungen, sollte aber auch mit einzelnen Raytracing Effekten besser als von Hand getunte Denoiser funktionieren.
Das Problem bei von Hand getunten Denoisern ist, dass man vor allem mit Pathtracing konkurrierende Anforderungen hat. Lichter erfordern zB ein anderes Denoising als glänzende Oberflächen, und das ist extrem schwer zu vereinbaren.
Es gibt wie bereits vermutet nur noch ein Modell für Super Resolution und Ray Reconstruction, sprich man wird sich, will man RR nutzen, das Preset für Super Resolution nicht mehr aussuchen können.
Auf einer RTX 4090 kostet Super Resolution in 2160p 0,5 ms Rechenzeit, Ray Reconstruction benötigt mit 2 ms vier mal so viel.
Und erst dann wird es etabliert sein
Oder es sind einfach zusätzliche Features, wie sie der PC schon immer hatte.
Troyan
2023-09-19, 21:35:06
Kompletter Bullshit für alles, was Open World oder sonst wie Dynamik hat.
Von der GI in Fortnite mit 60fps kann man bei zig anderen Spielen auf der Konsole nur träumen, also erzähl keinen Mumpitz.
-> Abwarten, inwiefern Lumen optional mit noch mehr HW-RT erweitert wird. Mal ganz abgesehen davon, dass auch Lumen aktuell schon enorm von Tensorcore-Denoising profitieren würde.
Klar, wer auf minderwertige Qualität und Disco-Effekt steht.
Ich spiele aktuell ein bisschen mit dem nVidia-UE5.2 Branch und Restir GI ist LICHTJAHRE besser. Selbst mit Nanite kann das Ergebnis überzeugen und kommt viel näher an den Pathtracer. Und das mit kaum Leistungsverlust gegenüber Hardware-Lumen.
Was interessieren mich 60 FPS auf einer rückständigen Konsole? :rolleyes:
aufkrawall
2023-09-19, 21:56:24
Warum überrascht es mich nicht, dass du dich in deine eigene Traumwelt aus UE-Editorspielchen mit NV-Branches zurückziehst. ;D
Kannst froh sein, wenn das nächste CDPR-Spiel überhaupt irgendwelche Features von außerhalb des Main-Branches nutzen wird.
crux2005
2023-09-19, 22:37:34
Kannst froh sein, wenn das nächste CDPR-Spiel überhaupt irgendwelche Features von außerhalb des Main-Branches nutzen wird.
Davon ist auszugehen. CDPR kooperiert mit NV schon seit Jahren.
https://youtu.be/Qv9SLtojkTU
Haha der Seitenhieb auf Starfield war richtig genial 🤩
Platos
2023-09-19, 23:17:37
Es gibt wie bereits vermutet nur noch ein Modell für Super Resolution und Ray Reconstruction, sprich man wird sich, will man RR nutzen, das Preset für Super Resolution nicht mehr aussuchen können.
Mit superresolution meinst du DLSS Upscaling? Also ob DLSS quality, Perfomance usw?
crux2005
2023-09-20, 00:16:08
Mit superresolution meinst du DLSS Upscaling? Also ob DLSS quality, Perfomance usw?
Ja, DLSS upscaling und nein, das Preset ist nicht die Qualitätsstufe.
DrFreaK666
2023-09-20, 00:18:44
Haha der Seitenhieb auf Starfield war richtig genial 🤩
Der war dumm, da Starfield schon FSR2 hat als Upscaler
aufkrawall
2023-09-20, 05:08:02
FSR 2.2 vs. DLSS Preset D:
https://abload.de/thumb/riftapart_2023_09_20_mmda3.png (https://abload.de/image.php?img=riftapart_2023_09_20_mmda3.png) https://abload.de/thumb/riftapart_2023_09_20_nuch7.png (https://abload.de/image.php?img=riftapart_2023_09_20_nuch7.png)
Was wohl was ist? :freak:
crux2005
2023-09-20, 05:31:05
FSR 2.2 vs. DLSS Preset D:
https://abload.de/thumb/riftapart_2023_09_20_mmda3.png (https://abload.de/image.php?img=riftapart_2023_09_20_mmda3.png) https://abload.de/thumb/riftapart_2023_09_20_nuch7.png (https://abload.de/image.php?img=riftapart_2023_09_20_nuch7.png)
Was wohl was ist? :freak:
Du musst es positiv sehen. FSR glättet den weisen Kreis am Boden besser als DLSS.
aufkrawall
2023-09-20, 06:27:57
Das macht Preset D in der Tat am schlechtesten, dafür filtert es allerdings auch RT-Artefakte in Bewegung am besten weg. Hat aber leider in Ratchet & Clank aber mal wieder Ghosting-Probleme mit zu lange rumstehenden NPCs. Hoffentlich wurden daraus für Ray Reconstruction Lektionen gelernt.
Der war dumm, da Starfield schon FSR2 hat als Upscaler
Der es nicht mal schafft ohne Upscaling, also bei 100% Skalierung ein ruhiges Bild zu produzieren.
Platos
2023-09-20, 09:08:01
Ja, DLSS upscaling und nein, das Preset ist nicht die Qualitätsstufe.
Ah ok, du meinst also, wir können dann mit Tools nicht mehr das Preset austauschen?
aufkrawall
2023-09-20, 09:27:27
Mit Ray Reconstruction nicht, da das benötigte Preset dafür ja neu ist. Ggf. wird es irgendwann später geupdatet. Oder halt auch nicht und irgendwann wieder durch einen Nachfolger ersetzt. Ohne Ray Reconstruction sollte man mit neuen DLL-Versionen auch weiterhin die alten Presets wählen können (wäre ja sonst unsinnig).
DrFreaK666
2023-09-20, 12:38:33
Der es nicht mal schafft ohne Upscaling, also bei 100% Skalierung ein ruhiges Bild zu produzieren.
Darum gings ja nicht, sondern um Upscaling in Starfield um die Performance zu verbessern
The_Invisible
2023-09-20, 12:46:29
War ja auf die schlechte Performance bezogen das man dann quasi eh alle 3 Upsampler einbaut wenn das Spiel nur mit Upsampling gut läuft wie Remnant 2.
DrFreaK666
2023-09-20, 12:55:52
War ja auf die schlechte Performance bezogen das man dann quasi eh alle 3 Upsampler einbaut wenn das Spiel nur mit Upsampling gut läuft wie Remnant 2.
Eben. Wo ist dann der Joke bei "Starfield benötigt DLSS um gut zu laufen", wenn es schon FSR hat?
Natürlich kam das vom NV-Mann... Wie "lustig"
TheCounter
2023-09-20, 13:07:18
Kann es sein, dass es vom DF Video keine 4K Version gibt? Egal wo ich es anschauen möchte, bekomme immer nur 1080p60 angezeigt.
Fragman
2023-09-20, 13:11:35
Eben. Wo ist dann der Joke bei "Starfield benötigt DLSS um gut zu laufen", wenn es schon FSR hat?
Natürlich kam das vom NV-Mann... Wie "lustig"
Das wird die Zukunft, auch wenn im Fall von Starfield eher auf die schlechte Performance angespielt wird.
Wo ist dann der Joke bei "Starfield benötigt DLSS um gut zu laufen", wenn es schon FSR hat?
Weil es mit DLSS wenigstens noch gut aussehen würde, mit FSR nicht.
Troyan
2023-09-20, 16:46:31
GameGPU hat das NDA für Cyberpunk gebrochen und einen sehr kleinen Vergleich von Nativ/DLSS 3.5 und DLSS 2.0/3.5 gemacht: https://gamegpu.com/action-/-fps-/-tps/cyberpunk-2077-v-2-0-test-gpu-cpu
Oliver_M.D
2023-09-20, 17:31:44
Warum ist Reconstruction eine on/off option:confused:
Lurtz
2023-09-20, 17:45:44
Warum ist Reconstruction eine on/off option:confused:
Wieso nicht? Alle DLSS-Technologien werden einzelon abschaltbar sein, das hat nVidias AI-Guru in dem Video gestern nochmals betont.
crux2005
2023-09-20, 17:46:37
Eben. Wo ist dann der Joke bei "Starfield benötigt DLSS um gut zu laufen", wenn es schon FSR hat?
Natürlich kam das vom NV-Mann... Wie "lustig"
Das hat Herr Catanzaro überhaupt nicht gesagt. Und nur so am Rande, alle seine Aussagen waren sehr intelligent.
Lurtz
2023-09-20, 17:47:53
Das hat Herr Catanzaro überhaupt nicht gesagt. Und nur so am Rande, alle seine Aussagen war sogar sehr intelligent.
Der nVidia-PR-Typ hat das gesagt.
Troyan
2023-09-20, 18:18:08
Wccftech hat ein Vergleich mit Ray Reconstruction on/off in 4K DLSS Performance: https://wccftech.com/cyberpunk-2077-phantom-liberty-is-the-most-beautiful-technically-advanced-game-with-path-tracing-dlss-3-5/
Beeindruckend. :eek:
DrFreaK666
2023-09-20, 18:42:12
Morgen wird Youtube mit Videos überflutet werden.
Oliver_M.D
2023-09-20, 18:50:31
Wieso nicht?Ich dachte das zeugs funktioniert wie ein preset, bei den "alles besser ist". Warum ist es also nicht standardmäßig aktiviert?
Ich habe kein Problem damit dass man es ausschalten kann, es hat mich nur im ersten Moment verwundert.
crux2005
2023-09-20, 18:55:33
Ich dachte das zeugs funktioniert wie ein preset, bei den "alles besser ist". Warum ist es also nicht standardmäßig aktiviert?
Ich habe kein Problem damit dass man es ausschalten kann, es hat mich nur im ersten Moment verwundert.
Im DF Interview wurde drauf eingegangen. Nicht alle Entwickler wollen den NV Denoiser benutzen. Auch ist eine GeForce ab Turing erforderlich. Deswegen optional.
Platos
2023-09-20, 19:55:30
Mit Ray Reconstruction nicht, da das benötigte Preset dafür ja neu ist. Ggf. wird es irgendwann später geupdatet. Oder halt auch nicht und irgendwann wieder durch einen Nachfolger ersetzt. Ohne Ray Reconstruction sollte man mit neuen DLL-Versionen auch weiterhin die alten Presets wählen können (wäre ja sonst unsinnig).
Ah ok. Hast du DLSS Tweaks mal ausprobiert mit DLSS 3.5.0. Also ich meine in einem "alten" Spiel, dass kein Ray Reconstruction benutzt. Also manuell die DLSS 3.5.0 ins Spiel "eingesetzt" und dann DLSS Tweaks benutzt?
In Witcher 3 (aktuellste Spieleversion) blurrt es direkt, wenn ich mich bewege mit dlss. Nativ ist das nicht so. Ist auch so mit der neuesten dlss version (3.5.0).
Edit: Ok habe es probiert. Preset ändern geht somit auch mit der 3.5.0 dll. Aber sowohl mit der 3.1.3 und 3.5.0 dll blurrt es sowohl mit Preset F und C in Bewegung. Kriege das nicht weg. Wenn ich mittels DLSS Tweak DLAA erzwinge, dann geht es beinahe ganz weg.
Also ganz komisch.
Edit 2: Und das Wasser ohne RT sieht deutlich "matter" aus mit dlss, egal welcher Version/Preset. Sieht irgendwie weniger "echt" aus so matt.
Edit 3: Also das mit der Unschärfe in Bewegung fällt umsomehr auf mit Scharfzeichnen auf Hoch in Witcher 3.
Das hat Herr Catanzaro überhaupt nicht gesagt. Und nur so am Rande, alle seine Aussagen waren sehr intelligent.
In Cyberpunk, aber ich würde nicht darauf wetten, dass das immer und überall der Fall sein wird.
Nachdem es ja praktisch ein Ersatz für alle Denoiser, könnte ich mir durchaus vorstellen, dass für ein Spiel dessen Entwicklung heute startet, nur mehr DLSS3.5 als Denoiser angeboten wird.
Warum sollte man noch haufenweise Entwicklungszeit in andere Denoiser stecken, wenn DLSS3.5 das alles auf einmal erledigen kann und schon existiert?
Wie man in dem über 1 Stündigen Video ja auch hören konnte, steckt in den vielen verschiedenen manuell getunten Denoisern jede Menge Entwicklungszeit.
Für Cyberpunk macht es natürlich keinen Sinn die eh schon vorhandenen Denoiser nicht verfügbar zu machen.
Lurtz
2023-09-20, 21:10:00
Ich dachte das zeugs funktioniert wie ein preset, bei den "alles besser ist". Warum ist es also nicht standardmäßig aktiviert?
Ich habe kein Problem damit dass man es ausschalten kann, es hat mich nur im ersten Moment verwundert.
Da ist nicht "alles besser", das ist ein Preset, das Super Resolution mit besserem RT-Denoising vereinen soll. Ein Allheil-Wundermittel wird das auch nicht sein...
Außerdem sind Optionen ja erstmal gut.
The_Invisible
2023-09-20, 21:18:54
Könnte auch einfach dienen damit man besser vergleichen kann bzw welchen Gewinn man damit bekommt
DrFreaK666
2023-09-20, 21:25:40
...nur mehr DLSS3.5 als Denoiser angeboten wird.
Warum sollte man noch haufenweise Entwicklungszeit in andere Denoiser stecken, wenn DLSS3.5 das alles auf einmal erledigen kann und schon existiert?...
So ein Quatsch. Und auf Konsolen wird das Spiel dann zu einem Myst-Clone oder wie?
Der Tellerrand scheint bei dir besonders hoch zu sein
aufkrawall
2023-09-20, 21:35:20
Tja, Lumen nutzt vermutlich selbst auf der Konsole eine Nvidia-Technik als Teil des Denoisings:
We were able to reduce noise greatly by integrating NVIDIA’s Spatiotemporal Blue Noise, a technique that pre-optimizes noise patterns to cancel out quickly when accumulated over multiple frames.
https://www.unrealengine.com/en-US/tech-blog/lumen-brings-real-time-global-illumination-to-fortnite-battle-royale-chapter-4
Wenn die da jetzt für Hardware ohne TCs weniger machen, könnte das schon ins Gewicht fallen. Ist ja offenbar sonst nirgendwo jemand zu finden, der die Lücke wirklich füllen könnte.
So ein Quatsch. Und auf Konsolen wird das Spiel dann zu einem Myst-Clone oder wie?
Auf Konsolen gibt es dann eben kein Raytracing, schnell genug sind sie dafür eh nicht.
Der Tellerrand scheint bei dir besonders hoch zu sein
Klar ansonsten würde ja die Suppe überlaufen.
DrFreaK666
2023-09-20, 22:45:05
Klar. Nvidia sind die einzigen, die forschen
https://www.intel.com/content/www/us/en/developer/articles/technical/temporally-stable-denoising-and-supersampling.html
aufkrawall
2023-09-20, 22:57:48
Toll, und wer nutzt das? Intel hatten eine Zusammenarbeit für RT in Hitman 3, nutzt trotzdem den Nvidia-Denoiser (NRD.dll)...
DrFreaK666
2023-09-20, 22:58:51
Nvidia hat halt ne Marktmacht.
Trotzdem sind andere nicht untätig
aufkrawall
2023-09-20, 23:03:34
AMD war auch nicht untätig bei SSAO etc. Hat halt trotzdem schon ewig niemand mehr genutzt (oder?), weil technisch völlig uninteressant, in-house Lösungen besser etc...
Wenn Intel in XeSS das Gegenstück zu Ray Reconstruction bringt, wirds, wie bislang halt auch schon, wieder closed source, zu teuer für Konsolen etc. Aber warte mal schön weiter auf die Wunderlösung für alle...
DrFreaK666
2023-09-20, 23:06:08
Forspoken hat CACAO genutzt, aber es sah müllig aus
Troyan
2023-09-21, 16:58:40
nVidia hat die UE5 Ramen Shop Tech Demo leider nur der Presse zum Testen von RR gegeben:https://wccftech.com/nvidia-photo-realistic-ramen-shop-unreal-engine-5-tech-demo-dlss-3-5/
https://www.youtube.com/watch?v=GOhK4V9lGtU
Weiterhin beeindruckend. Über 10% mehr Leistung, wenn die einzelnen Denoiser ersetzt werden und bessere BQ mit DLSS SR.
Platos
2023-09-21, 17:55:55
Ray Reconstruction wird zwar gut gemacht, aber die Demo ist mal wieder das Musterbeispiel für unrealistische Umgebungen.
Ne Küche, deren Bodenkacheln glänzen, als wären es polierte Oberflächen ;D
Selbst Schlüsselfertig neu gebaut glänzt die nicht so...
Ray Reconstruction wird zwar gut gemacht, aber die Demo ist mal wieder das Musterbeispiel für unrealistische Umgebungen.
Ne Küche, deren Bodenkacheln glänzen, als wären es polierte Oberflächen ;D
Selbst Schlüsselfertig neu gebaut glänzt die nicht so...dafür gibts doch Cyberpunk... also wofür Aufregen?
Oliver_M.D
2023-09-21, 18:41:39
Perfekt scheint das Ganze zumindest noch nicht zu sein, es gibt wohl auch ein paar Ghosting und Smearing Probleme.
https://www.youtube.com/watch?v=zZVv6WoUl4Y
Lurtz
2023-09-21, 21:32:20
Ausgewogenes Video. Mal schauen ob DF nur die Hälfte der Probleme finden ;)
Manche Kommentare sind auch interessant, es gibt offenbar einige Stellen, bei denen RR grafische Bugs aufdeckt, die die bisherigen Denoiser praktisch überdeckt haben, die aber auch zuvor da waren. Und wie RR kan auch kann auch der traditonelle Denoiser grafische Details "herbeifantasieren".
Ach ja, CDPR und nVidia hatten vier verschiedene Embargos rund um 2.0 und RR im Einsatz (good guy CDPR :ugly:) und das Optionsmenü ist ein einziges Desaster, weil es ständig Dinge verstellt und falsch anzeigt...
dildo4u
2023-09-22, 05:28:14
Video zeigt sehr gute tonnen Artefakte.
dYZ1jYTTtH8
Sardaukar.nsn
2023-09-22, 06:46:58
Schon echt stark der Vergleich im Ramen Shop. Das ist der Weg (y)
Jetzt bekomm ich gleich mal Lust Cyberpunk noch vor Phantom Liberty neu zu starten.
The_Invisible
2023-09-22, 10:18:26
Test von Igor: https://www.igorslab.de/strahlende-zukunft-nvidia-dlss-3-5-und-die-naechste-stufe-des-raytracings/
blaidd
2023-09-22, 11:12:40
Hab hier noch ein paar Vergleiche.
https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Phantom-Liberty-DLSS-35-Pathtracing-1429566/
Ich freu mich besonders, dass die elenden Artefakte verschwinden... die haben mich ein bisschen genervt.
U1-ffjgtYyY
Ganz perfekt ist es nicht, es betont hier und da andere Artefakte (insbesondere bei Alpha-Tests, z.B. um Haare herum, Halbtransparenzen machen auch ab und an Probleme etc.), aber generell sieht das schon echt top aus. Und es ist zumindest nahezu für lau - wobei es vielleicht größere Unterschiede gäbe, wenn die restliche Last nicht ganz so heavy wie in pathtraced Cyberpunk wäre...
Hier, der Autolack ist was, wo es mal nicht so gut funktioniert. Da entstehen durch die RR auch irgendwelche seltsamen schwarzen Flecken.
4abzZJAsIXU
Troyan
2023-09-22, 11:15:09
Na, mit Raytracing wird es langsamer sein, weil das RR mehr Zeit benötigt.
Jedoch ist dies in Ordnung, wenn z.B. Reflektionen deutlich aufgewertet werden. Das funktioniert perfekt in Cyberpunk.
Hier, der Autolack ist was, wo es mal nicht so gut funktioniert. Da entstehen durch die RR auch irgendwelche seltsamen schwarzen Flecken.
https://youtu.be/4abzZJAsIXU
Da hat jemand aber ein zerkratztes Auto
Cubitus
2023-09-22, 11:37:42
Schneller ist es auch zumindest bei der 40er Gen durch RR, denke mal das ist den Tensor Cores geschuldet da die etwas Leistung dabei zusteuern :uponder:
Troyan
2023-09-22, 11:43:58
Ne, es werden alle individuellen Denoiser in Cyberpunk mit Pathtracing deaktiviert. Die benötigen ebenfalls Rechenleistung. Wenn man jedoch nur Reflektionen darstellt, dann kann dies auch schlechtere Leistung bedeuten.
aufkrawall
2023-09-22, 11:54:21
Hier, der Autolack ist was, wo es mal nicht so gut funktioniert. Da entstehen durch die RR auch irgendwelche seltsamen schwarzen Flecken.
https://youtu.be/4abzZJAsIXU
Man wird aberdutzende Beispiele finden können, wo es völligen Mist zusammenhalluziniert. Ja, es hat riesige Vorteile. Da müsste im Optionsmenü aber genau so eine "Technical-Preview"-Warnung rein wie fürs PT. Anstatt des RTs, smeart jetzt das DLSS ständig abartig.
Und ja, meinetwegen kann man wegen XeSS auch FSR rauslöschen, um mal dem transparenten Gaslighting-Versuch von Trollyan vorwegzugreifen.
vinacis_vivids
2023-09-22, 12:01:37
CP2077 mit Artefakten / Flimmern bei Ray-Reconstruction
ntGo5glOGiU
The_Invisible
2023-09-22, 12:08:49
Man wird aberdutzende Beispiele finden können, wo es völligen Mist zusammenhalluziniert. Ja, es hat riesige Vorteile. Da müsste im Optionsmenü aber genau so eine "Technical-Preview"-Warnung rein wie fürs PT. Anstatt des RTs, smeart jetzt das DLSS ständig abartig.
Und ja, meinetwegen kann man wegen XeSS auch FSR rauslöschen, um mal dem transparenten Gaslighting-Versuch von Trollyan vorwegzugreifen.
Dazu muss man eh zuerst Pathtracing zuerst aktivieren das so betitelt ist. :D
Deswegen spannend wie es Alan Wake 2 macht
Troyan
2023-09-22, 15:27:44
Ray Recontruction überzeugt vorallem dann, wenn Reflektionen gerendert werden müssen: https://youtu.be/nbnbRfHxKUY?t=53
Schätze mal, der Denoiser für Reflektionen benötigt ein paar Überarbeitungen in Cyberpunk...
habs 2 Stunden mit PT und RR gespielt und zu 99% der Zeit ist das wirklich alles gut Spielbar und wenig störend. Schöner Sprung. Natürlich noch nicht perfekt aber jetzt kann man das Spiel wirklich mit PT spielen. in WQHD hatte ich sogar 140-180fps mit DLSS quality und natürlich FG. musste die Frames limitieren (der Framelimiter ist kaputt, nur die nativen frames als limit setzen, also 60fps für 120)
crux2005
2023-09-23, 02:29:53
cbKqp32ODDw
basix
2023-09-23, 10:42:03
Wann gibt es die zum Download? :)
Die Demo sieht wirklich sehr gut aus und der Unterschied mit Ray Reconstruction ist mMn deutlich fühlbar. Das ganze Bild wirkt stimmiger und homogener. Ohne RR gibt es einzelne Bildbereiche die scharf sind (helle Objekte) und umso mehr indirektes Licht vorhanden ist, desto unschärfer und detailärmer wird es. RR vermag das aufzuheben, genial! Zudem wirken Objekte deutlich plastischer, da Details ind Contact Shadows deutlich akkurater zur Geltung kommen.
In CP2077 ist der gefühlte Unterschied mMn nicht ganz so gross wie hier, da die Geometrie weniger detailliert ist. Aber auch dort gibt es Bereiche, wo RT Psycho schlecht wegkommt (z.T. sogar schlechter als ohne RT). Pathtracing ist dann zwar wieder einiges besser, aber deutlich unschärfer und unruhiger über das gesamte Bild und das GI Color Bleeding ist ebenfalls auf Overdrive (es wird etwas zu stark "abgefärbt"). RR macht das Bild viel knackiger und behebt fast alle Probleme rund um kleine Objekte und schraubt das GI Color Bleeding wieder etwas zurück. Gut zu sehen auf dem Tresen bei der Bar ganz am Anfang im Spiel (siehe Ingame-Benchmark) und im Gesicht des Barkeepers. Von etwas zu viel Grünstich wird es wieder etwas gelblicher (interessanterweise wieder näher an RT Psycho oder ohne RT heran). PT ohne RR ist ebenfalls etwas zu dunkel, was RR auch behebt.
Alles in allem: Geile Technologie. Smearing und Ghosting von GI mit schwachen Lichtquellen sind noch etwas problematisch (z.B. GI Shadows im Schatten von Gebäuden), ich hoffe das wird mit der Zeit besser. Erinnert mich ein wenig an Lumen in der UE5, auch wenn etwas weniger stark ausgeprägt und weniger auffällig. Ohne RR ist das Ghosting auch mit PT geringer.
Zudem sind die Reflexionen zum Teil auch zu scharf. In CP2077 gibt es überall diese Leuchtreklamen über den Strassen. Die Reflexion ist knackscharf aber wenn man nach oben direkt auf die Leuchtreklame draufschaut ist diese selbst nicht so scharf. Anscheinend ist dort noch ein Shader, welcher das Leuchten durch (verdrecktes?) Glas über die Lichtquelle gelegt wird, was soweit gut aussieht. RR scheint dies aber nicht zu berücksichtigen und die Reflexion ist dann schärfer als das Objekt selbst. Das sollte nicht so sein ;) RR hat zudem zum Teil Aussetzer in Reflexionen. Wechselt die Anzeige auf den Leuchtreklamen wird plötzlich nur noch Matsch angezeigt. Schaut man kurz weg (Reflexion nicht mehr im Bild) und dann wieder zurück, behebt sich das Problem.
Lurtz
2023-09-23, 11:05:43
Was ist jetzt besser? :ugly:
Ölgemälde mit RR:
https://abload.de/thumb/rrw1drn.jpg ('https://abload.de/image.php?img=rrw1drn.jpg')
Matsch ohne RR:
https://abload.de/thumb/nonrr6ucql.jpg ('https://abload.de/image.php?img=nonrr6ucql.jpg')
LastGen Lighting:
https://abload.de/thumb/home23.09.202310_40_5q2idk.jpg ('https://abload.de/image.php?img=home23.09.202310_40_5q2idk.jpg')
Das größte Problem ist, dass RR den Super Resolution-Teil zerstört:
https://abload.de/img/untitledobc60.jpg
aufkrawall
2023-09-23, 11:12:10
Was hältst du von dieser Antwort :D ?
UE5 AA-Titel
https://abload.de/img/immortalsofaveum-win63wis4.jpg (https://abload.de/image.php?img=immortalsofaveum-win63wis4.jpg)
Der CDPR-Typ hatte im DF ja ständig erzählt, wie viel das RR bei den Gesichtern helfen würde...
Dass er sich offenbar auf einen Madame Tussaud-Level bezog, hatte er nicht erwähnt...
Troyan
2023-09-23, 11:17:19
Ingame-Cutszenen gegen Ingame-Gameplay...
Was hälst du von dieser Antwort:
https://abload.de/thumb/immortalsofaveumscree4icun.png (https://abload.de/image.php?img=immortalsofaveumscree4icun.png)
aufkrawall
2023-09-23, 11:19:20
Immer noch besseres Lighting als mit Psycho RT. ;D
Troyan
2023-09-23, 11:25:03
Was auch logisch ist, da Pyscho RT gerade mal Metro Exodus GI hat. Und wäre auch irgendwie traurig, wenn hunderte von Engine-Entwickler nichtmal Billo-GI schaffen, wenn selbst 4A Remedy das weitaus besser hinbekommen hat...
The_Invisible
2023-09-23, 11:41:07
Was ist jetzt besser? :ugly:
Ölgemälde mit RR:
https://abload.de/thumb/rrw1drn.jpg ('https://abload.de/image.php?img=rrw1drn.jpg')
Matsch ohne RR:
https://abload.de/thumb/nonrr6ucql.jpg ('https://abload.de/image.php?img=nonrr6ucql.jpg')
LastGen Lighting:
https://abload.de/thumb/home23.09.202310_40_5q2idk.jpg ('https://abload.de/image.php?img=home23.09.202310_40_5q2idk.jpg')
Das größte Problem ist, dass RR den Super Resolution-Teil zerstört:
https://abload.de/img/untitledobc60.jpg
Gibt aber auch genug Beispiele wo RR viel besser aussieht, und LastGen willst dir da nicht mehr wirklich geben . Aber Cherry-Picking ist halt mal wieder angesagt, technical Preview wird übersehen und das es die erste Iteration ist sowieso.
Schon lustige Welt wo alles immer sofort perfekt sein muss, manche dürfte da wohl nie irgendwo in der Entwicklung arbeiten sonst würden sie wohl instant einen Herzinfarkt bekommen ;)
Lurtz
2023-09-23, 11:46:47
Wo ist das Cherry Picking? Das ist ein Dialog aus einer der ersten Hauptmissionen, ich hätte auch zig andere Stellen nehmen können.
DF beschreibt den Effekt hier doch auch:
https://www.youtube.com/watch?v=hhAtN_rRuQo&t=1230s
Aber klar, Pathtracing will man sich ohne RR jetzt nicht mehr wirklich geben... Ist eben nur schade, dass der SR-Teil so sehr leidet, es gibt jetzt wirklich viele Objekte, die extrem ghosten. Auch die eigene Waffe ist bei wenig Licht richtig extrem.
Aber da DLSS 2.0 zu Beginn ähnliche Probleme hatte, würde ich hoffen das bessert sich noch. So kann es eigentlich nicht bleiben...
The_Invisible
2023-09-23, 12:00:35
Mit cherrypick meinte ich eher nur schlechte Beispiele raussuchen. Das NN kann man für die Gesichter sicher noch tunen, hat bei FG ja auch ein paar Updates gegeben und wo DLSS einmal stand weiß man auch.
Darum sage ich ja wird Alan Wake 2 interessant, ob das noch als technical preview behandelt wird oder ob es mit Pathtracing schon länger in Entwicklung ist.
Sollte jedenfalls in Sachen DLSS nicht langweilig werden
DrFreaK666
2023-09-23, 12:19:34
Für gute Beispiele haben wir Troyan und Nvidia selbst :D
Sehe da kein Problem, auch mal Schattenseiten zu zeigen.
basix
2023-09-23, 12:26:07
RR vesrtärkt Kontraste rund um Objektkanten. Das ist meistens gut, da das Details besser zum Vorschein bringt. Zum Teil aber etwas zu viel, was dann in Richtung einer Art Cell-Shading/Ölgemälde Look abdriftet. Overall sieht es aber deutlich besser aus. Allein schon dass der Bildmatsch verschwindet ist für mich ein riesiger Gewinn.
Und bei CP2077 sind einige Materialen nicht optimal, was diesen Effekt verstärkt. Andere Materialien sind davon nicht betroffen.
ChaosTM
2023-09-23, 13:08:01
zZVv6WoUl4Y
falls wir das schon hatten, sorry
Ex3cut3r
2023-09-23, 13:40:50
Was ist jetzt besser? :ugly:
Ölgemälde mit RR:
https://abload.de/thumb/rrw1drn.jpg ('https://abload.de/image.php?img=rrw1drn.jpg')
Matsch ohne RR:
https://abload.de/thumb/nonrr6ucql.jpg ('https://abload.de/image.php?img=nonrr6ucql.jpg')
LastGen Lighting:
https://abload.de/thumb/home23.09.202310_40_5q2idk.jpg ('https://abload.de/image.php?img=home23.09.202310_40_5q2idk.jpg')
Das größte Problem ist, dass RR den Super Resolution-Teil zerstört:
https://abload.de/img/untitledobc60.jpg
Das Problem bei CP77 ist IMHO das 1440p nicht wirklich ausreichend ist. Fand das auf den 27" Samsung G7 (Nativer 1440p mit 240HZ) mit DLSS Q (damals noch die 2.5.1 DLL nicht so berauschend. 4K gibt dem Spiel einen gewaltigen optischen Schub. Zumindest mit realtiven hohen PPi für PC Verhältnisse.
Lurtz
2023-09-23, 13:52:18
Auf Alan Wake 2 bin ich auch gespannt. Würde hoffen, dass das dankbarer für RR ist als CP 2077.
Das Problem bei CP77 ist IMHO das 1440p nicht wirklich ausreichend ist. Fand das auf den 27" Samsung G7 (Nativer 1440p mit 240HZ) mit DLSS Q (damals noch die 2.5.1 DLL nicht so berauschend. 4K gibt dem Spiel einen gewaltigen optischen Schub. Zumindest mit realtiven hohen PPi für PC Verhältnisse.
Ja, das kommt noch dazu. Das Spiel profitiert enorm von höherer Auflösung. Die Engine ist da aber auch einfach komisch, selbst mit dem Legacy-Renderer sieht es nie wirklich 100% klar aus IMO. Dazu kommt noch das immer weiter verschlimmbesserte LoD.
Tesseract
2023-09-23, 14:11:31
das ist mir auch aufgefallen. wenn ich das spiel am anderen monitor in 1440p statt 4k starte gibt es an allen ecken und enden deutlich mehr probleme (generell, nicht nur mit RT) als man nur aufgrund der pixelzahl erwarten würde. das upgrade durch RR ist auf 4k imho signifikanter als auf 1440p.
Ex3cut3r
2023-09-23, 15:11:29
:up:
1440p @ 27" finde ich sonst in den meisten Spielen absolut ausreichend. Gar kein Thema. Aber wie gesagt, bei CP77 sieht es wirklich nicht sooo gut aus. Warum das so ist, kann ich nicht sagen.
Lurtz
2023-09-25, 10:01:17
emoose hat DLSSTweaks für RR angepasst, man kann sich jetzt mit dem Overlay auch das verwendete Modell ausgeben lassen:
https://abload.de/img/untitled9ffmo.png
Er vermutet, dass da wieder ein Sharpen-Pass von nVidia im Spiel sein könnte :facepalm:
https://github.com/emoose/DLSSTweaks/issues/101#issuecomment-1732665106
aufkrawall
2023-09-25, 10:30:32
Denkbar, dass das Sharpen den aufgedunsenen Oil Paint-Look von RR abmildern soll. Das hat mit objektiver BQ aber alles rein gar nichts mehr zu tun.
00-Schneider
2023-09-25, 13:39:44
Denkbar, dass das Sharpen den aufgedunsenen Oil Paint-Look von RR abmildern soll. Das hat mit objektiver BQ aber alles rein gar nichts mehr zu tun.
Führt zusätzliches Scharpen nicht eher zu diesem Look, als dass es ihn abmildert?
aufkrawall
2023-09-25, 13:44:19
Führt zusätzliches Scharpen nicht eher zu diesem Look, als dass es ihn abmildert?
Das kommt auf den Filter an. Etwa in madVR gibts ein "thin line" Sharpen für genau solche Fälle.
Platos
2023-09-28, 09:08:22
Wie ich lese, funktioniert nun RTX Super Resolution für Firefox und für VLC.
Weiss jemand etwas darüber, ob/wie es möglich ist, das ganze nicht als live-rendering zu machen sondern direkt abzuspeichern? Also wenn man im VLC-Player live rendern kann, gibts da keine Möglichkeit, das gleich abzuspeichern?
Hat da jemand etwas ausprobiert/sich da reingefuchst?
DrFreaK666
2023-09-28, 15:46:27
Laut wccftech.com ist der Performance-Boost bei Witchfire mit DLSS3 nicht der Rede wert (mal frei übersetzt)
https://abload.de/img/witchfire-dlss-3-hd-sardiu.jpg (https://abload.de/image.php?img=witchfire-dlss-3-hd-sardiu.jpg)
https://wccftech.com/witchfires-performance-doesnt-really-improve-much-with-dlss-3-and-the-hitches-are-still-there/
Oliver_M.D
2023-09-28, 17:01:54
Weiß ja nicht wie es bei anderen Spielen, mit FG support, aussieht, aber bei den frametimes ist die FG performance das kleinste problem... Soll aber keine ausrede sein.
aufkrawall
2023-09-28, 17:16:04
Gab hier kein Spiel, das mit FG an nicht massiv flüssiger aussah als ohne.
Exxtreme
2023-09-28, 18:40:07
Laut wccftech.com ist der Performance-Boost bei Witchfire mit DLSS3 nicht der Rede wert (mal frei übersetzt)
https://abload.de/img/witchfire-dlss-3-hd-sardiu.jpg (https://abload.de/image.php?img=witchfire-dlss-3-hd-sardiu.jpg)
https://wccftech.com/witchfires-performance-doesnt-really-improve-much-with-dlss-3-and-the-hitches-are-still-there/
Kann sein, dass DLSS3 da nicht richtig implementiert ist. Sprich, man aktiviert zwar DLSS3 aber die FG ist trotzdem deaktiviert.
DrFreaK666
2023-09-28, 18:52:46
Es sind ja Zuwächse erkennbar, im Vergleich zu DLSS2 only sind sie aber eher klein.
Nvidias Vergleich ist wieder ein schlechter Witz.
https://abload.de/img/screenshot_20230928_118i0n.jpg (https://abload.de/image.php?img=screenshot_20230928_118i0n.jpg)
The_Invisible
2023-09-28, 19:05:11
Es sind ja Zuwächse erkennbar, im Vergleich zu DLSS2 only sind sie aber eher klein.
Nvidias Vergleich ist wieder ein schlechter Witz.
https://abload.de/img/screenshot_20230928_118i0n.jpg (https://abload.de/image.php?img=screenshot_20230928_118i0n.jpg)
Quality vs Performance Mode...
DrFreaK666
2023-09-28, 19:22:02
Eher DLSS off vs on (performance).
Im Benchmark oben ist es DLSS2 vs DLSS3 (FG)
The_Invisible
2023-09-28, 20:02:15
Ja meinte ich, oben mit DLSS Quality und Nvidia mit DLSS Performance
DrFreaK666
2023-09-28, 20:36:05
Achso. Klar, damit die Differenz zu nativ noch größer ist
Troyan
2023-10-05, 15:11:18
Das heutige 2.01 Update von Cyberpunk hat Ray Reconstruction angepasst. Schliert nun (deutlich) weniger. Z.B. gut erkennbar bei den Kakerlaken.
Habe aktuell einen 4K Monitor hier und DLSS Q mit RR sieht schon ziemlich gut aus.
Oliver_M.D
2023-10-05, 16:13:59
Habe aktuell einen 4K Monitor hier und DLSS Q mit RR sieht schon ziemlich gut aus.Dann frage ich mich aber, warum sie nur UP erwähnen. Ich glaube dir schon, finde es nur merkwürdig von CDPR.
"Improved image quality of DLSS Ray Reconstruction in the Ultra Performance setting."
Troyan
2023-10-05, 16:31:16
Vielleicht will nVidia nicht, dass die Leute dann irgendwas kritisieren. Die aktuelle Qualität wird dann als "war ja schon immer so wahrgenommen" abgestempelt.
Aber hey, ich nehme hier alles mit, was geht. :D
TheAntitheist
2023-10-06, 00:50:39
Dann frage ich mich aber, warum sie nur UP erwähnen. Ich glaube dir schon, finde es nur merkwürdig von CDPR.
"Improved image quality of DLSS Ray Reconstruction in the Ultra Performance setting."
Nvidia hatte doch gesagt das RR noch nicht für UP optimiert wurde, genauso wie DLAA...
DrFreaK666
2023-10-08, 14:12:39
DLSS 3 Mods Released for Assassin’s Creed Mirage and Lies of P
https://wccftech.com/dlss-3-mods-released-for-assassins-creed-mirage-and-lies-of-p/
OgrEGT
2023-10-14, 09:44:49
https://videocardz.com/newz/frame-generation-on-rtx-20-30-cards-in-portal-prelude-rtx-is-just-a-bug-nvidia-confirms
Frame Generation on RTX 20/30 cards in Portal Prelude RTX is just a bug, NVIDIA confirms
DLSS3.5.10 .dlls sind verfügbar:
DLSS3 (https://www.techpowerup.com/download/nvidia-dlss-dll/)
DLSS3 FG (https://www.techpowerup.com/download/nvidia-dlss-3-frame-generation-dll/)
DLSS3 RR (noch 3.5.0 aber der Vollständigkeit halber inkludiert) (https://www.techpowerup.com/download/nvidia-dlss-3-ray-reconstruction-dll/)
oder gleich direkt über
DLSS Swapper (https://github.com/beeradmoore/dlss-swapper/releases) + DLSS Tweaks (https://www.nexusmods.com/site/mods/550?tab=files) einrichten.
Lurtz
2023-10-18, 17:07:29
Ohne neues Modell alles langweilig. Wobei RR das noch am nötigsten hätte.
robbitop
2023-10-18, 17:28:10
Werden die Modelle nicht auch ab und an mal geupdatet? Oder ist zB das Modell C von der DLSS 2.1.x noch das gleiche wie in 2.5.x wie in 3.5.x?
Platos
2023-10-18, 17:36:23
Würde mich auch interessieren. Gibts da immer noch nichts neues/besseres ?
aufkrawall
2023-10-18, 17:43:52
Gibt jedenfalls keinen Nachweis dafür. Die komplexeren Nanite-Bäume in Talos 2 sind übrigens der Härtetest schlechthin, Preset F zerbröselt mit ein paar von denen hintereinander buchstäblich beim Hinsehen.
robbitop
2023-10-18, 17:45:34
Naja ohne Modellupdate gäbe es doch relativ wenig Sinn für stetig neue DLLs. Was machen die denn?
Tja müsste man halt mal testen mit einem Game was mit DLSS 2.1 geshippt ist und dann mal gegen die neuste Version mit gleichem Modell testen.
Achill
2023-10-18, 17:48:55
Es kann einfach Bugfixes enthalten, ggf. Workarounds für bestimmte Fälle/Spiele und/oder auch nur ein Release sein um im Gespräch zu bleiben und damit ein PR Zweck erfüllen. Ohne Release/ChangeLog aber nur reine Speku ...
robbitop
2023-10-18, 17:51:35
Letzteres ist eher unwahrscheinlich, da Nvidia die dlls überhaupt nicht bewirbt und mEn nicht mal veröffentlicht. Die werden soweit ich weiß von PC Spielen, die damit releast werden von manchen webseiten extrahiert und dann zum Download angeboten.
Was spricht denn logisch gesehen gegen Updates der jeweiligen Modelle? Nvidias Supercomputer trainieren doch sicherlich permanent. Da wird es doch potenziell Updates geben.
aufkrawall
2023-10-18, 17:57:20
Tja müsste man halt mal testen mit einem Game was mit DLSS 2.1 geshippt ist und dann mal gegen die neuste Version mit gleichem Modell testen.
Diese alten DLLs werden wohl mehr oder weniger fast immer Preset A genutzt haben. Den Vergleich kann man sich sparen, weil es sowieso Müll ist. ;)
Das Modell aus der (ehemals) "guten" 2.2.6 DLL konnte ich nicht zuordnen. Es verschwimmt aber auch hässlich mit Bloom in Bewegung, ggf. ist es deshalb gar nicht mehr in den aktuellen DLLs enthalten (Spekulation). 2.2 hatte halt Auto-Exposure neu, das dürfte aber nicht am Preset hängen.
Ganz ausschließen, dass Preset D Updates erhalten hat, will ich nicht. Es hat aber immer noch das krasse Objekt-Ghosting in vielen Spielen. Selbst in Aveum UE5 bei manchen Partikeln ist das der Fall, und in Hitman 3 generell mit länger rumstehenden NPCs auch. Außerdem smeart es auch immer noch teilweise mehr als C.
Ich sehe da nirgendwo die eindeutig feststellbare Verbesserung, dass sich nach 2.3.9/Preset C ohne DLSS Sharpen irgendetwas unterm Strich wirklich, also ohne anderweitige deutliche Rückschritte, weiterentwickelt hätte.
Lurtz@Gast
2023-10-18, 17:57:55
Preset D hat einen uralten Bug, insofern unwahrscheinlich:
https://twitter.com/Dachsjaeger/status/1714233359558386107
Achill
2023-10-18, 18:10:05
Letzteres ist eher unwahrscheinlich, da Nvidia die dlls überhaupt nicht bewirbt und mEn nicht mal veröffentlicht.
[..]
Es gibt schon lange das entsprechende Projekt von NV auf GitHub: https://github.com/NVIDIA/DLSS
Und es gibt dort auch das Release inkl. Demo und DLL für für v3.5.10 ..
NVIDIA DLSS SDK 3.5.10 is now available for download for all developers.
- Bug Fixes & Stability Improvements
Das ein Unternehmen Werbung machen kann, ohne direkt selbst zu werben, sollte uns allen bekannt sein.
---
Das ChangeLog von Streamline gibt evtl. ein paar Hinweise was sich geändert hat, klingt für mich aber so, als ob die nicht Out-of-the-Box geht sondern explizit angesprochen werden muss ...
======== Release 2.2.1 Entries ========
* Added support for DLSS Frame Generation Dynamic Frame Generation.
See section 22.0 "Dynamic Frame Generation" in `ProgrammingGuideDLSS_G.md`
for more information.
* Added two new buffer types:
- `sl::kBufferTypeTransparencyLayer`
- `sl::kBufferTypeTransparencyLayerOpacity`
See section 4.1.10 "Transparency Overlay" in `ProgrammingGuideDLSS_RR.md`
for more information.
* Added new buffer type `sl::kBufferTypeBidirectionalDistortionField` for
post-processed distortion patterns applied to the backbuffer and
`sl::kBufferTypeUIColorAndAlpha`.
See section 5.0 "TAG ALL REQUIRED RESOURCES" in `ProgrammingGuideDLSS_G.md`
for more information.
* Added a new `sl::Constants` field `minRelativeLinearDepthObjectSeparation`
for describing the minimum depth difference between two objects in screen-space.
* Added a new structure `sl::PrecsisionInfo` for specifying floating-point
precision bias for a `sl::Resource`.
See section 2.8 "TAGGING RESOURCES" in `ProgrammingGuide.md` for more
information.
* Fixed a bug where `sl.interposer.dll` would crash if plugins were located
in paths containing wide characters.
* Fixed a bug where verbose logging would not include additional information for OTA Updates.
* Updated documentation for `sl::DLSSGMode::eOff` to match current behavior.
See section 5.0 "TURN DLSS-G ON/OFF/AUTO AND PROVIDE OTHER DLSS-G OPTIONS" in
`ProgrammingGuideDLSS_G.md` for more information.
[..]
=> Es kann also auch sein, dass die neue Version für Anpassungen/Fetures in Streamline benötigt wird. Ist ja eine abhängige Lib für das Projekt.
aufkrawall
2023-10-18, 18:24:18
=> Es kann also auch sein, dass die neue Version für Anpassungen/Fetures in Streamline benötigt wird. Ist ja eine abhängige Lib für das Projekt.
Nutzen Spiele mit aktuellen UE-Versionen ja. Sehe auch nicht, dass sich dort etwas getan hätte, was man bei der Qualität merken würde. In Talos 2 sind einfach die Modelle am Limit.
Wobei Preset C hier im Vergleich natürlich auch immer noch sehr gut dasteht und massiv bessere Bildruhe hat als XeSS DP4a, FSR 2 und zumindest teilweise auch als TSR.
The_Invisible
2023-10-18, 18:56:20
Interessant da Nvidia ja ihre Modelle mit einer Custom UE5 Demo trainiert. Solltest die mal darauf hinweisen :D
Relex
2023-10-18, 19:06:15
Ich glaub ich hab das schonmal geschrieben. Falls ja, einfach ignorieren, wenn nicht, auch gut:
Ich kann dazu nur sagen, dass mir die Qualitätsunterschiede in Cyberpunk am deutlichsten aufgefallen sind.
Zum Release war das Spiel mit DLSS Quality einfach unscharf, das war ein deutlicher Kompromiss.
im Laufe der Zeit gab es ein, zwei Updates für das Spiel, wo die DLSS Version hochgezogen wurde.
Hier konnte ich das erste mal ein ziemlich deutliches Qualitätsupgrade durch DLSS feststellen.
Später wurde dann DLSS Tweaks veröffentlicht und man konnte mit neueren .dlls das Preset anpassen. Keines der Presets hat der schlechten Qualität zum Release entsprochen. Alle Presets waren schärfer und erzeugten ein detaillierteres Bild, selbst Preset F, was ja ein wenig unschärfer als die anderen ist, war schärfer als Cyberpunk zum Release.
Mit der Pathtracing Tech preview kam dann das letzte Update von DLSS, was die Bildqualität nochmals deutlich gesteigert hat und dem aktuellen Stand entspricht.
Aber auch hier muss ich wieder sagen, dass ich vor diesem patch mit keinem der Presets die Qualität erreicht habe, die ich heute sehe.
Ich würde sagen, dass Cyberpunk noch immer kein Bestcase für DLSS ist, dafür ist der content an einigen Stellen wohl einfach zu "schwierig" für DLSS, aber die Verbesserungen die man über die Zeit gesehen hat (insgesamt zwei sichtbare qualitäts updates) sprechen schon sehr stark dafür, dass Nvidia die Presets aktualisiert.
Dass das Spiel diese Verbesserungen aktiv ansprechen muss und diese nicht automatisch durch das ersetzen der DLL Datei appliziert werden würde auch zu den Beobachtungen passen.
Heißt, man kann vielleicht durch das Ersetzen der DLL Dateien von allgemeinen Verbesserungen und Bugfixes profitieren sowie das Preset anpassen, aber wenn Nvidia jegliche Updates abwärtskompatibel gestaltet, dann werden die neuen DLL Dateien für alte Spiele funktionieren, eventuell neue Features werden dann aber schlichtweg nicht genutzt, solange sie nicht vom Spiel angesprochen werden.
Eventuell ziehe ich hier aber auch die falschen Schlüsse. Denn ich habe immer mit Raytracing gespielt und wie spätestens seit Ray Reconstruction jedem klar sein sollte ist die Grafik mit Raytracing und insbesondere Pathtracing unschärfer als mit reinem Rasterizing, weil es ziemlich starkes denoising braucht.
Könnte natürlich sein, dass die Verbesserungen, die ich sehen konnte nicht (nur?) DLSS zuzuschreiben sind, sondern ggf. angepassten Denoising Filtern. Vielleicht geht das aber auch Hand in Hand.
aufkrawall
2023-10-18, 19:36:24
Das hattest du schon mal geschrieben und ich war auch darauf eingegangen. ;)
Aber gerade ist mir wieder gedämmert, dass CP77 mit DLSS afair zu Anfang nicht das Mip-Bias korrekt gesetzt hatte. Erklärt auch eine Menge.
robbitop
2023-10-18, 19:47:05
Es gibt schon lange das entsprechende Projekt von NV auf GitHub: https://github.com/NVIDIA/DLSS
Und es gibt dort auch das Release inkl. Demo und DLL für für v3.5.10 ..
Nvidia ist nie subtil mit Werbung. Mit Releases auf Github macht man im Vergleich zu dem was man sonst veranstaltet IMO keine Werbung. IMO ist das Werbungsargument unwahrscheinlich.
basix
2023-10-18, 20:20:39
Ich habe mir nochmals Neural Radiance Caching (https://tom94.net/data/publications/mueller21realtime/mueller21realtime.pdf) & Multiresolution Hash Encoding (https://d1qx31qr3h6wln.cloudfront.net/publications/mueller2022instant.pdf) im Zusammenhang mit Ray Reconstruction angesehen.
Hier meine These:
- Ray Reconstruction könnte Neural Radiance Caching (NRC) & Multiresolution Hash Encoding (MrHE) enthalten
- Ray Reconstruction erweitert das allerdings mit Super Resolution, evtl. was zusätzlichem für Reflexionen und einem Denoiser (der Denoiser kann aber relativ lightweight gehalten werden, wegen hoher Input Qualität aufgrund Neural Radiance Caching & Multiresolution Hash Encoding)
Effekte von Neural Radiance Caching & Multiresolution Hash Encoding:
- Besseres / akkurateres Global Illumination -> "mehr Samples"
- Bessere Abbildung von GI-Details wie an Geometriekanten, feiner Geometrie
- Geringerer temporal Lag, da Qualität vor dem Denoising stark höher
Wenn ich diese Liste so ansehe: All das bietet Ray Reconstruction auch.
Und aus meiner Sicht macht das auch Sinn: Nvidia bekommt dadurch ein Differenzierungsmerkmal. Würde man das in RTXDI direkt integrieren, könnten AMD-Karten das auch. So aber kann man die Eigenleistung in einen Konkurrenzvorteil ummünzen. Es war irgendwie zu lange zu still im Neural Radiance Caching und wenn DF usw. Nvidia Execs danach fragten, wurde nie wirklich konkret darauf geantwortet.
Ich kann mich irren. So unabwegig finde ich es aber nicht. Aber irgendwie hoffe ich, dass ich mich irre, da die Performance-Vorteile von NRC & MrHE nämlich enorm sind. Diese noch obendrauf auf ReSTIR + Ray Reconstruction wäre ja schon nice. Wenn Ray Reconstruction das aber schon abgeholt hat und die Performance-Vorteile primär in erhöhte Qualität umwandelt, dann geht das halt leider nicht.
Ex3cut3r
2023-10-18, 20:32:04
Nvidia ist nie subtil mit Werbung. Mit Releases auf Github macht man im Vergleich zu dem was man sonst veranstaltet IMO keine Werbung. IMO ist das Werbungsargument unwahrscheinlich.
Sehe ich genauso. Als ob Github irgendwas mit Marketing am Hut hätte. Außer ein paar Freaks weiß kein Mensch, wie man da überhaupt was herunterlädt, jetzt mal etwas übertrieben dargestellt. :biggrin:
aufkrawall
2023-10-18, 20:42:19
Preset D hat einen uralten Bug, insofern unwahrscheinlich:
https://twitter.com/Dachsjaeger/status/1714233359558386107
Guter Link. Und auch gut, dass es Alex endlich mal Preset D zugeordnet anspricht.
Das ist ja das von Nvidia generell empfohlene Default-Preset. Einfach absurd, wie so etwas sein kann, und das seit mittlerweile Jahren. Aber es zeigt sich leider ein Muster: DLSS Sharpen, NIS, Preset D, Oil Paint Look von RR, RTX Video SR sieht mit der neuen Version auch nochmal stärker nach Oil Paint aus als vorher schon...
Genauso, wie Nvidia in Führung ist, bauen die leider auch kontinuierlich mächtig Scheiße. Eigentlich erwarte ich mir da mittlerweile gar nichts mehr (ausgerechnet FG jetzt mal ausgeklammert, das hat sich wirklich auf einen guten Stand weiterentwickelt).
Dass AMD sowieso nur Mist baut, macht es irgendwie auch nicht besser. :freak:
Achill
2023-10-18, 21:16:05
Nvidia ist nie subtil mit Werbung. Mit Releases auf Github macht man im Vergleich zu dem was man sonst veranstaltet IMO keine Werbung. IMO ist das Werbungsargument unwahrscheinlich.
Sehe ich genauso. Als ob Github irgendwas mit Marketing am Hut hätte. Außer ein paar Freaks weiß kein Mensch, wie man da überhaupt was herunterlädt, jetzt mal etwas übertrieben dargestellt. :biggrin:
Ich habe nie sagt noch gemeint, dass GitHub Werbung wäre. Mit Github bin ich auf den Punkt von robbitop eingegangen, dass NV sehr wohl offizielle Releases von DLSS macht.
Werbung ist auch, dass man (positiv) im Gespräch bleibt und je nach Zielgruppen erreicht man dies unterschiedlich. Unterschiedliche Multiplikatoren können dies verstärken, wie z.B. der DLSS Swapper für eine techn. Zielgruppe.
Just saying ... ohne auf irgend etwas weiter hinaus zu wollen.
Ex3cut3r
2023-10-19, 01:48:24
Ich habe nie sagt noch gemeint, dass GitHub Werbung wäre. Mit Github bin ich auf den Punkt von robbitop eingegangen, dass NV sehr wohl offizielle Releases von DLSS macht.
Werbung ist auch, dass man (positiv) im Gespräch bleibt und je nach Zielgruppen erreicht man dies unterschiedlich. Unterschiedliche Multiplikatoren können dies verstärken, wie z.B. der DLSS Swapper für eine techn. Zielgruppe.
Just saying ... ohne auf irgend etwas weiter hinaus zu wollen.
Nun der DLSS Swapper wurde soweit ich weiß, von einem Hobby Typen erstellt, der keine offizielle Vergütung dafür bekommt. Da dieser aber eh keine Preset Wahl anbietet, fällt der bei mir sowieso unten durch.
Nun der DLSS Swapper wurde soweit ich weiß, von einem Hobby Typen erstellt, der keine offizielle Vergütung dafür bekommt. Da dieser aber eh keine Preset Wahl anbietet, fällt der bei mir sowieso unten durch.
Kann man auch beides zusammen benutzen - Tweaks im Spielverzeichnis zum Einstellen von Presets etc. (was Swapper nicht macht) und Swapper zum Beziehen und C+Pen der .dlls ins Spielverzeichnis (was Tweaks nicht macht).
Zum Release war das Spiel mit DLSS Quality einfach unscharf, das war ein deutlicher Kompromiss.
Zum Release hatte DLSS ganz einfach überhaupt kein Sharpening aktiviert.
Schon zum Release hatte DLSS deutlich mehr feine Details dargestellt, als Nativ, aber ohne Schärfefilter mit sehr geringem lokalen Kontrast.
The_Invisible
2023-10-19, 08:33:47
Es gibt schon lange das entsprechende Projekt von NV auf GitHub: https://github.com/NVIDIA/DLSS
Und es gibt dort auch das Release inkl. Demo und DLL für für v3.5.10 ..
Das ein Unternehmen Werbung machen kann, ohne direkt selbst zu werben, sollte uns allen bekannt sein.
---
Das ChangeLog von Streamline gibt evtl. ein paar Hinweise was sich geändert hat, klingt für mich aber so, als ob die nicht Out-of-the-Box geht sondern explizit angesprochen werden muss ...
=> Es kann also auch sein, dass die neue Version für Anpassungen/Fetures in Streamline benötigt wird. Ist ja eine abhängige Lib für das Projekt.
Das hört sich auch interessant an:
Release Notes
Streamline Plugin NVIDIA DLSS 3.5.10 SDK is now available through Streamline SDK 2.2+
DLSS Frame Generation
New Distortion Map API
Support for Dynamic Frame Generation which can intelligently enable/disable DLSS Frame Generation to help ensure positive performance scaling
DLSS Ray Reconstruction
New Particle Layer API
Please contact your NVIDIA account manager for early access, or sign up to be notified when its publicly available here: https://developer.nvidia.com/rtx/dlss/notify-me
Miscellaneous
Bug Fixes & Stability Improvements
https://www.reddit.com/r/nvidia/comments/17b1fd6/dlss_and_fg_dll_files_updated_to_v3510_at/
robbitop
2023-10-19, 09:10:22
Ich habe nie sagt noch gemeint, dass GitHub Werbung wäre. Mit Github bin ich auf den Punkt von robbitop eingegangen, dass NV sehr wohl offizielle Releases von DLSS macht.
Werbung ist auch, dass man (positiv) im Gespräch bleibt und je nach Zielgruppen erreicht man dies unterschiedlich. Unterschiedliche Multiplikatoren können dies verstärken, wie z.B. der DLSS Swapper für eine techn. Zielgruppe.
Just saying ... ohne auf irgend etwas weiter hinaus zu wollen.
OK das macht Sinn. :) (wobei ich das mit dem DLSS Swapper so sehe wie Executor - das ist ein tool von Hobbyleuten - wäre aber total cool wenn NV sowas in ihre GUI einbauen würde - als Expert Setting oder sowas - oder zumindest die Tool Macher (Afterburner, DLSS Tweaker etc) mit Dokumentation unterstützt - dann können sie es schneller und fehlerfreier einbauen)
Exxtreme
2023-10-19, 09:28:33
Das werden sie wohl nicht machen. Weil das zu Banns in Onlinespielen führen könnte wenn man DLLs austauscht.
robbitop
2023-10-19, 09:30:55
Stimmt. Ich vergesse immer die Online Spiele. X-D (selbst absoluter single player Spieler)
Ex3cut3r
2023-10-19, 15:12:29
Kann man auch beides zusammen benutzen - Tweaks im Spielverzeichnis zum Einstellen von Presets etc. (was Swapper nicht macht) und Swapper zum Beziehen und C+Pen der .dlls ins Spielverzeichnis (was Tweaks nicht macht).
Mit DLSS Tools, brauchst du die DLL nicht im Spieleverzeichniss auszutauschen. Sondern kannst sie beliebig platzieren, und dann im DLSS Tools quasi verlinken, ohne das die Originale DLL im Spieleverzeichnis angefasst wird. Steam "updated" bzw. ladet immer wieder die Urspungs DLL runter, wenn sie manuell austauscht im Spieleverzeichnis z.B.
Ist IMHO das beste, was man machen kann, dazu schön das bevorzugte Preset wählen. Mir gefällt F meistens am besten.
DLSS RR habe ich mir in CP77 angesehen. Bei 40 FPS in 4K mit DLSS P und Bounce Lighting Tweak von Nexus. Mehr schafft die 3080 Ti OC nicht. Scheint irgendwie manchmal etwas überschärft zu sein. Und hat wieder mehr Probleme mit Ghosting und Anti-Aliasing. (Zäune und Palmen)
Positiv stechen natürlich die Reflexionen hervor, die nun besser sind als mit DLSS Q @ 4K (1440p interne Auflösung)
Wenn man die Probleme davon langsam aber sich in den Griff bekommt, ist DLSS 3.5 (RR) aber ein ziemlicher Game Changer.
Lange auf DLSS für DCS World gewartet, da es MSFS in VR endlich geschmeidig gemacht hat. Nun ists in der DCS beta 2.9 auch verfügbar und bringt 50% FPS-Uplift, aber leider auch matschig und mit vereinzelten Darstellungsproblemen. Immerhin DLAA ist brauchbar.
Mal mit DLLs rumprobieren?
redpanther
2023-10-21, 13:24:46
FG haben die aber nicht eingebaut oder doch?
Hast du nachgeschärft und ist immer noch matschig?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.