Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4
blaidd
2025-03-04, 14:47:59
Wollt ihr mal sehen, was passiert, wenn irgendein falsches Material in irgendeinem Buffer rumfliegt, der benötigt wird, um mittels einer Frame Generation ein Zwischenbild zu erzeugen?
So. Der schwebende Monstermund tritt NUR in einem EINZELNEN FG-Frame auf. Nirgendwo sonst.
(Motion Vector Buffer, would be my guess... the others don't make much sense.)
Allerdings sowohl mit FSR-FG als auch DLSS-FG.
Das hier ist FSR 3 Performance mit FSR 3 FG.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91824&stc=1&d=1741096028
Das hier ist DLSS 3 Performance mit DLSS 3 FG.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91825&stc=1&d=1741096028
Gibt noch einen Fall, deshalb bin ich da überhaupt drauf gestoßen. Aber dazu kann ich nix sagen ;)
(AMD und Nvidia verrechnen die volumetrischen Wolken allerdings offenkundig in unterschiedlicher Reihenfolge. Aber vielleicht ja auch nur in Monster Hunter. Sowas ist mir bisher jedenfalls noch nicht bewusst untergekommen^^)
(Höchstens, dass mir DAS auch noch nie untergekommen ist^^)
Troyan
2025-03-04, 21:16:23
Spiele gerade Spider-Man 2 mit forcierten MFG und V-Sync durch den Treiber. Was ich nirgendwo gelesen habe: nVidia drittel bzw. viertel die Frames, so dass man mit MFG immer im Reflex-Limit bei G-Sync landet. Bei meinen 160Hz ist das Limit bei ca. 155Hz und mit 3x liegen maximal nativ 51 FPS und bei 4x nativ 38 FPS an.
Wird echt Zeit, dass auch in 4K die Monitore nachziehen. 240Hz ist hier schonmal gut, so dass man nativ 60 FPS haben kann.
Muss sagen, dass es selbst MFG selbst mit 38 und drei zusätzlichen Bildern vernünftig funktioniert. Jedenfalls erheblich besser als wenn man mit 38 FPS rumzappeln möchte...
blaidd
2025-03-04, 22:38:21
Spiele gerade Spider-Man 2 mit forcierten MFG und V-Sync durch den Treiber. Was ich nirgendwo gelesen habe: nVidia drittel bzw. viertel die Frames, so dass man mit MFG immer im Reflex-Limit bei G-Sync landet. Bei meinen 160Hz ist das Limit bei ca. 155Hz und mit 3x liegen maximal nativ 51 FPS und bei 4x nativ 38 FPS an.
Wird echt Zeit, dass auch in 4K die Monitore nachziehen. 240Hz ist hier schonmal gut, so dass man nativ 60 FPS haben kann.
Muss sagen, dass es selbst MFG selbst mit 38 und drei zusätzlichen Bildern vernünftig funktioniert. Jedenfalls erheblich besser als wenn man mit 38 FPS rumzappeln möchte...
Jo. Du brauchst Hertz. Sonst funktioniert das erst gar nicht richtig.
(Außer, man will Leistung sparen. Dann kann man mit "Nichtvollberecheten Frames" natürlich auch so potenziell "optimieren")
Troyan
2025-03-06, 08:41:37
Also was ich feststellen konnte, dass G-Sync + V-Sync + (M)FG bei Blackwell kaputt ist. Das ruckelt sich einen ab, unglaublich. Ohne V-Sync funktioniert alles, wie es soll, aber bei meinem 4K 160Hz Monitor läuft man dann jedoch ins Tearing...
Bin jetzt mal günstig an den Asus PG27AQN mit 360Hz rangekommen. Und hier funktioniert MFG viel besser. Cyberpunk beendet, in 1440p mit Pathtracing und locker über 200 FPS zu spielen, ist schon pure Freude.
Man kann MFG auch in anderen Spielen wie Robocop erzwingen. In Kombination mit gelockten 360Hz und ULMB2 ist das eine Bewegtbildschärfe, die schon sehr nah an CRT rankommt. Sieht einfach astrein aus. Die paar Fehler sind dagegen komplett zu vernachlässigen. Da das neue FG auch mit ~90% skaliert, kann man mit einer 5090 fast immer irgendwas zwischen 240 und 360 FPS schaffen.
Das ruckelt sich einen ab, unglaublich. Ohne V-Sync funktioniert alles, wie es soll, aber bei meinem 4K 160Hz Monitor läuft man dann jedoch ins Tearing...
MFG ist auch nicht für 160Hz sondern für 360Hz+ Monitore.
Hier noch ein Closeup aus dem Trace, nur die SR & RR Phase.
Wow, das sieht ja cool aus (y), wie machst Du das?
Troyan
2025-03-06, 11:39:38
MFG ist auch nicht für 160Hz sondern für 360Hz+ Monitore.
Die 160Hz sind nicht das Problem. Es funktioniert einfach nicht mit V-Sync. Damit läuft man immer ins Tearing. Latenz ist belanglos, wenn man ca. 60 FPS erreicht.
Relex
2025-03-06, 12:31:28
Würde mich sehr wundern, wenn MFG nicht mit Vsync funktioniert.
Kann das sonst noch jemand bestätigen? Mit 2x FG funktioniert das weiterhin völlig problemlos auf Ada, auch wenn man ins Vsync Limit kommt (z.B. max 116 FPS durch das automatische Reflex cap bei 120 Hz)
Badesalz
2025-03-06, 12:47:36
DLSS4 ist in Avowed sehr beeindruckend und schlägt im Performance Modus TAA und TSR native deutlich.Ein YT-Video. SUPER :uup:
aufkrawall
2025-03-06, 12:54:27
Wer in dem YT-Video nicht das krasse Ghosting von FSR 3.1 oder die üblen Jitter-Pattern von TSR erkennt, muss sich über Upsampler-Qualität erst gar keine Gedanken machen.
Badesalz
2025-03-06, 13:15:38
Alles vor FSR4 ist nun in nur wenigen Wochen komplett tot. Man sollte sich damit langsam arrangieren. Später wird es den meisten sogar zu schlecht gewesen sein, um sich daran nur zu erinnern ;) Nettgemeinte erste Gehversuche. Bis 3.1 hin.
Wenn man eh schon DLSS4 in der Hand hält und das mit before-FSR4 vergleichen möchte, ist wie mit einem Kindergartenkindern Handdrücken machen wollen. Für BEIDE Seiten peinlich :ulol:
Die 160Hz sind nicht das Problem. Es funktioniert einfach nicht mit V-Sync. Damit läuft man immer ins Tearing. Latenz ist belanglos, wenn man ca. 60 FPS erreicht.
Man verwendet das auch nicht mit V-Sync, sondern mit G-Sync(Compatibel) und natürlich mit einem Monitor mit dem man dauerhaft im G-Sync-Bereich bleibt.
Exxtreme
2025-03-06, 13:24:30
Man verwendet das auch nicht mit V-Sync, sondern mit G-Sync(Compatibel) und natürlich mit einem Monitor mit dem man dauerhaft im G-Sync-Bereich bleibt.
MFG ist wohl noch ziemlich Beta. Im Nvidia-Forum gibt es recht viele Leute, die sich darüber beschweren, dass die Spiele sehr oft einen Crash hinlegen wenn man es aktiviert. Und es betrifft auch Vorzeigetitel ala Cyberpunk2077.
Alles vor FSR4 ist nun in nur wenigen Wochen komplett tot.
Für 80% der User ist alles außerhalb von DLSS4 schon seit einiger Zeit tot, mit dem Zwischenschritt FSR4 müssen die sich nicht abgeben, den kaum jemand überhaupt verwenden kann.
Troyan
2025-03-06, 13:27:12
Man verwendet das auch nicht mit V-Sync, sondern mit G-Sync(Compatibel) und natürlich mit einem Monitor mit dem man dauerhaft im G-Sync-Bereich bleibt.
Man nutzt V-Sync natürlich auch bei G-Sync, um immer im Sync-Bereich zu bleiben. Mit Reflex cappt der Treiber ja bei 5% oder so unter dem oberen Limit. Das führt aber mit 4x MFG zu massiven Ruckeln, was nicht existiert, wenn V-Sync aus ist aber G-Sync weiter an.
Badesalz
2025-03-06, 13:33:20
Für 80% der User ist alles außerhalb von DLSS4 schon seit einiger Zeit tot, mit dem Zwischenschritt FSR4 müssen die sich nicht abgeben, den kaum jemand überhaupt verwenden kann.Bist du schon betrunken? Wozu sollte man das auch tun?
Entspann dich. Intel lag auch mal bei 80%...
MFG ist wohl noch ziemlich Beta. Im Nvidia-Forum gibt es recht viele Leute, die sich darüber beschweren, dass die Spiele sehr oft einen Crash hinlegen wenn man es aktiviert.
Das betrifft nicht nur MFG, auch das alte FG auf Lovelace hat immer wieder Crashes erzeugt, so dass Entwickler es teilweise deaktivierten bis sie die Crashes gelöst haben.
Mit Reflex cappt der Treiber ja bei 5% oder so unter dem oberen Limit. Das führt aber mit 4x MFG zu massiven Ruckeln, was nicht existiert, wenn V-Sync aus ist aber G-Sync weiter an.
Logisch, wenn du mit V-Sync die FPS unter der Refreshrate kappst alternierst du immer 1 Frame 2 Refreshcycles und 1 Frame 1 Refreshcycle. Wobei FG dann möglicherweise auch noch die Frames falsch positioniert.
Bist du schon betrunken? Wozu sollte man das auch tun?
Ähm nein, du?
Entspann dich. Intel lag auch mal bei 80%...
Ja und? Jeder mit einer RTX-Karte kann DLSS4 nutzen, und davon gibt es eine Menge.
Niemand der keine RDNA4-Karte hat kann aktuell FSR4 nutzen, und bis RDNA4 (+Nachfolger) eine nennenswerte Verbreitung haben werden wird es in jedem Fall noch sehr lange dauern.
Bis eine 2-Stellige Prozentzahl an Spielern überhaupt FSR4 nutzen kann werden noch Jahre ins Land ziehen, und alle anderen haben von FSR4 nichts, und für diejenigen sind andere Upscaler sehrwohl noch lange relevant.
Es ist höchst zweifelhaft ob FSR4-fähige Hardware jemals DLSS4-fähige übersteigen wird, in diesem Jahrzehnt aber sicher nicht mehr.
robbitop
2025-03-06, 15:24:33
Das Bessere ist des Guten Feind. Aber dennoch muss man konstatieren, dass FSR4 ein gewaltiger Sprung war und die riesen Lücke deutlich verkleinert hat. Das kann man auch mal anerkennen. Nvidia liegt natürlich noch vorn.
Das größte Problem ist die Verbreitung von HW und SW (Spiele in denen FSR3.1 wenigstens implementiert ist). Aber hier kann man sich ja mit dem Optiscaler behelfen.
Ich kann das undifferenzierte Bashing von RDNA4 / FSR4 nicht nachvollziehen. AMD hat alle Kritikpunkte deutlich verbessert und bietet nun auch HW zu einem viel besseren Preis als Nvidia. Ja auch in Punch pro Transistor und in reiner RT/PT Performance liegt man transistor- oder transistornormiert noch vorn. Aber insgesamt hat sich der Abstand deutlich verkürzt und es ist endlich mal eine brauchbare Alternative.
Und das obwohl die RTG nur ein Bruchteil der Ressourcen von Nvidias Geforce Gruppe hat. Ich finde das kann man auch mal würdigen und man kann Kritik auch differenziert anbringen - denn die benannten Probleme sind ja nicht falsch. Aber die Formulierung lässt es aussehen, als wenn AMD da nichts Gutes abgeliefert hat. Sämtliche Reviewer waren positiv beeindruckt und haben das von AMD nicht erwartet.
Das Bessere ist des Guten Feind. Aber dennoch muss man konstatieren, dass FSR4 ein gewaltiger Sprung war und die riesen Lücke deutlich verkleinert hat. Das kann man auch mal anerkennen. Nvidia liegt natürlich noch vorn.
Das größte Problem ist die Verbreitung von HW und SW (Spiele in denen FSR3.1 wenigstens implementiert ist). Aber hier kann man sich ja mit dem Optiscaler behelfen.
Ich kann das undifferenzierte Bashing von RDNA4 / FSR4 nicht nachvollziehen. AMD hat alle Kritikpunkte deutlich verbessert und bietet nun auch HW zu einem viel besseren Preis als Nvidia. Ja auch in Punch pro Transistor und in reiner RT/PT Performance liegt man transistor- oder transistornormiert noch vorn. Aber insgesamt hat sich der Abstand deutlich verkürzt und es ist endlich mal eine brauchbare Alternative.
Und das obwohl die RTG nur ein Bruchteil der Ressourcen von Nvidias Geforce Gruppe hat. Ich finde das kann man auch mal würdigen und man kann Kritik auch differenziert anbringen - denn die benannten Probleme sind ja nicht falsch. Aber die Formulierung lässt es aussehen, als wenn AMD da nichts Gutes abgeliefert hat. Sämtliche Reviewer waren positiv beeindruckt und haben das von AMD nicht erwartet.
Wenn es etwas Gutes hat, dass Upscaling Benchmarks wieder gerechter werden, jahrelang wurde alles auf Auflösung heruntergebrochen, ohne dass die Qualität und FT Kosten vergleichbar. AMD ist leider paar Jahre zu spät, Innovationen haben andere gefeiert!
Das Bessere ist des Guten Feind. Aber dennoch muss man konstatieren, dass FSR4 ein gewaltiger Sprung war und die riesen Lücke deutlich verkleinert hat.
Ist es auf jeden Fall, und zwar sowohl bei Hard- als auch bei Software.
Was allerdings bleibt, AMD-Karten müssen sich weiter mit einer Leistungskategorie niedriger von NV-Karten herumschlagen, was wohl auch für AMD überraschend war. Kaum jemand hätte gedacht dass Nvidia mit Version 4 vom "ausoptimierten" DLSS noch mal so zulegen kann.
Das größte Problem ist die Verbreitung von HW und SW (Spiele in denen FSR3.1 wenigstens implementiert ist). Aber hier kann man sich ja mit dem Optiscaler behelfen.
Das Hauptproblem ist die fehlende Hardware, selbst wenn AMD ab morgen für 2 Jahre 70:30 bei den Verkaufszahlen vorne liegen würde, hätte man immer noch einen Bruchteil der Verbreitung von RTX-Karten.
Ich kann das undifferenzierte Bashing von RDNA4 / FSR4 nicht nachvollziehen.
Volle Zustimmung, die Lobhudelei, dass FSR-Latest nun mit DLSS-Latest mitziehen kann aber genauso wenig.
AMD hat alle Kritikpunkte deutlich verbessert und bietet nun auch HW zu einem viel besseren Preis als Nvidia. Ja auch in Punch pro Transistor und in reiner RT/PT Performance liegt man transistor- oder transistornormiert noch vorn. Aber insgesamt hat sich der Abstand deutlich verkürzt und es ist endlich mal eine brauchbare Alternative.
Naja, aktuell ist NV gar keine alternative, da nicht verfügbar. Gut für AMD, vor allem wenn es länger dauert.
Wie es bei "normaler" Verfügbarkeit auf beiden Seiten aussieht werden wir erst sehen.
Wenn es etwas Gutes hat, dass Upscaling Benchmarks wieder gerechter werden, jahrelang wurde alles auf Auflösung heruntergebrochen, ohne dass die Qualität und FT Kosten vergleichbar.
Glaube ich kaum. Wenn man weiter stur nach gleicher Renderauflösung vergleicht, müsste man FSR4 vs. DLSS3 testen, was natürlich komplett Praxisfremd ist, da DLSS4 bei gleicher Performance schöner bzw. bei gleicher Qualität schneller ist.
Im Endeffekt bekommt Nvidia für die Verbesserungen von DLSS4 eins auf den Deckel, man verliert Performance gegenüber CNN ohne von der besseren Qualität zu profitieren.
Badesalz
2025-03-06, 18:27:49
Das größte Problem ist die Verbreitung von HW und SW (Spiele in denen FSR3.1 wenigstens implementiert ist). Aber hier kann man sich ja mit dem Optiscaler behelfen.Ich bin der Meinung das hat man selten implementiert, weil das noch so schlecht war, daß man oft keinen Sinn und Mehrwert für die Kundschaft darin sah :rolleyes: Das könnte sich mit bzw. für FSR4-Q schlagartig drehen.
AMD ist leider paar Jahre zu spät, Innovationen haben andere gefeiert!NV macht schon mehrere Jahre nacheinander mehr Gewinn als AMD insgesamt seit Opteron machte. Das erwarte ich vom derartigen Primus. Wo liegt das Prob?
Was ich aber auch erwarte ist, daß es auch Gaming für Normalogamer macht. Das gibt es nur leider, bei mehr Umsatz als viele Länder BSP haben, aktuell nicht mehr. Daher ist das schon ok, daß AMD sich genau da platziert und sich drum bemüht, daß Zocken am PC kein elitäres Vergnügen wird.
Keine Ahnung warum du jetzt bei jedem Post mit dem Füßschen stampfen musst :| Einfach mal zurück zum Topic my Friend. Im Topic steht nichts über FSR. Keine Ahnung wer das hier immer anschleppt. Ich schätze Leute mit einer AMD-Graka eher nicht oder?
Glaube ich kaum. Wenn man weiter stur nach gleicher Renderauflösung vergleicht, müsste man FSR4 vs. DLSS3 testen, was natürlich komplett Praxisfremd ist, da DLSS4 bei gleicher Performance schöner bzw. bei gleicher Qualität schneller ist.
Im Endeffekt bekommt Nvidia für die Verbesserungen von DLSS4 eins auf den Deckel, man verliert Performance gegenüber CNN ohne von der besseren Qualität zu profitieren.
Gerechter also vorher zumindest, drücken wir es erstmal so aus. Die Kluft würde noch größer wenn man Frame Generation mit einbeziehen würde. Die Faulheit der Redaktionen kennt da bekanntlich keine Grenzen...
basix
2025-03-07, 10:25:33
[...], die Lobhudelei, dass FSR-Latest nun mit DLSS-Latest mitziehen kann aber genauso wenig.
Wo gibt es das? Alle sagen, dass FSR4 die letzte DLSS3 Iteration leicht übertrifft aber DLSS4 nicht ganz erreicht. Zumindest nicht in allen Bereichen (primär Bildschärfe).
Im Endeffekt bekommt Nvidia für die Verbesserungen von DLSS4 eins auf den Deckel, man verliert Performance gegenüber CNN ohne von der besseren Qualität zu profitieren.
Armes Nvidia :rolleyes:
DLSS4 wird überall sehr gelobt und stark hervorgehoben. Reviewer promoten DLSS4 deutlich mehr als es Nvidia selbst tut (die promoten primär MFG).
Die Kluft würde noch größer wenn man Frame Generation mit einbeziehen würde.
Würde ich jetzt nicht sagen, bei FG liegen die unterschiedlichen Lösungen viel näher beinander als mit SR.
DLSS4 wird überall sehr gelobt und stark hervorgehoben. Reviewer promoten DLSS4 deutlich mehr als es Nvidia selbst tut (die promoten primär MFG).
Ähm ja überall, wie z.B. bei Computerbase die behaupten DLSS4 ist außer in Situationen in denen DLSS3 versagt eh quasi nicht besser.
Die einzigen die DLSS4 die Aufmerksamkeit geben die es verdient sind HU und DF. Quasi überall sonst ist DLSS4 in den Reviews ein kleines Beiwerk ohne große Aufmerksamkeit, oder wie bei CB schrammt es schon an einer Lüge.
Dass NVidia viel lieber MFG promotet ist klar, sie brauchen ja ihren USP für Blackwell, und nachdem DLSS4 abseits von MFG auf jeder RTX lauffähig ist, will man logischerweise nicht viele Worte darüber verlieren, ansonsten erkennen die ganzen RTX-Besitzer vielleicht noch dass sie Blackwell gar nicht brauchen.
robbitop
2025-03-07, 11:25:38
Würde ich jetzt nicht sagen, bei FG liegen die unterschiedlichen Lösungen viel näher beinander als mit SR.
Würde ich auch so sehen. Gab neulich ein Video dazu - wo habe ich vergessen. War aber einer der großen. Kann DF gewesen sein. Das schlechte SR mit FSR 3.1 (wurde in Horizon gezeigt) schaukelt sich mit dem Framegeneration total auf und sieht dann furchtbar aus. Mit FSR 4 SR hingegen ist es viel besser.
Ich nutze hier mittels Optiscaler DLSS4 (K) + FSR3.1 FG + Reflex und muss sagen, dass die Frame Generation wirklich gut ist. Die von DLSS ist ggf nochmal etwas besser. Aber wie du sagst war das Hauptproblem das schlechte SR was sich auch auf die generierten Frames auswirkte.
basix
2025-03-07, 11:50:40
Ähm ja überall, wie z.B. bei Computerbase die behaupten DLSS4 ist außer in Situationen in denen DLSS3 versagt eh quasi nicht besser.
Ich kann aus eigener Erfahrung sagen: Diese Fälle gibt es. Sehr feine Geometrie ist teilweise nicht stabiler oder besser anti-aliased.
Nicht in allen Spielen und jedem Content. Aber vorhanden sind diese Fälle definitiv.
aufkrawall
2025-03-07, 12:01:08
Mich nervt dieses Getue etwas, dass DLSS 4 so perfekt wäre.
DLSS Transformer hat immer noch seltsame Gitter-Artefakte in manchen Fällen, und es ist außerdem sehr schlecht gegen Rausch-Artefakte diverser Effekte. Die SSR in Witcher 3 rauschen deutlich mehr damit, und dann gibts noch Extremfälle wie das:
https://youtu.be/QeB8-X8qmzE?t=113
Und ggf. funktioniert FSR 4 deutlich besser mit Nanite-Disocclusion. Gleichzeitig bleibt RR Nische, weil Nvidia das nicht richtig pusht...
Bloom-Explosion auf Wasser in Hogwarts ohne RR btw. auch imho komplett unverändert.
Lurtz
2025-03-07, 12:16:18
Mich nervt dieses Getue etwas, dass DLSS 4 so perfekt wäre.
Dürfte vor allem von der erhöhten Schärfe (bei sehr gutem Kanten-AA) kommen (dass FSR4 da so nah ran kommt, ist stark). Die restlichen Bereiche sind gleich geblieben oder fallen ab gegenüber E.
UE5 kann je nach Content richtig hässlich sein mit Preset K. Das ist angesichts der abzusehenden Verbreitung ein Problem, wenn RR nicht die Lösung dafür sein soll.
aufkrawall
2025-03-07, 12:22:01
Wenn ichs jetzt ganz unsachlich platt sagen soll, würd ich Transformer-SR (nicht RR) als Fehlentwicklung bezeichnen, wenn die nachfolgenden Presets die Schwächen nicht deutlich angehen.
Wieso bringt man jetzt eine Technik, die wesentlich schlechter mit RT-Artefakten o.ä. und Nanite-Disocclusion umgehen kann? :confused:
Einfach mal komplett die Realität diverser Spiele mit modernem Rendering ignoriert. In meinen Fortnite-Screenshots hatte ich auch lieber Preset E genutzt, weil überall RT-Brösel-Artefakte mit K übrig geblieben waren...
Zumal FSR 4 offenbar auch nicht gerade zum Smearing neigt. Aber davon überzeuge ich mich dann doch lieber erst noch selbst. :biggrin:
Lurtz
2025-03-07, 12:30:58
Die Entwicklung war da leider falsch rum. K ist perfekt für Spiele mit genügsamerem Content, für komplexeren Content bräuchte man eigentlich ein weiterentwickeltes E :ugly:
robbitop
2025-03-07, 12:49:41
Mal eine Frage: Bei DLSS RR sagt der NV Inspector gibt es 4x Models. A, B, C und D. Welches davon ist das beste? Bei SR ist es klar -> K. Aber bei RR gibts nur A-D.
Würde ich jetzt nicht sagen, bei FG liegen die unterschiedlichen Lösungen viel näher beinander als mit SR.
Doch sehr deutlich sogar! Handling von Schatten und allgemein mehr Jitter in Bewegung. Auch hat AMDs FG starke Reprojektionsartefakte an Bildschirmrändern.
In neusten Games sieht es für AMDs FG Lösung auch nicht so gut aus...
https://www.dsogaming.com/articles/marvels-spider-man-2-dlss-4-multi-frame-gen-benchmarks/
Troyan
2025-03-07, 22:26:32
Okay, also ich kann hier mit einer 5090 sagen:
G-Sync mit V-Sync und MFG führt zu massiven Stuttering. Kein Plan, ob das mit dem neuen Metering von Blackwell zusammenhängt, aber ich kann beides nicht verwenden.
Forciere ich MFG außerhalb eines Spiels, dann ist es mit G-Sync unbrauchbar. Haufenweise Artefakte. Wenn ich jedoch ohne G-Sync Spiele, funktioniert es astrein. Zocke so Spider-Man 2 und Robocop.
Also da muss noch einiges von nVidia repariert werden. So finde ich MFG ziemlich schwierig.
Optisch ist es mit einem High-Speed Monitor und in Kombination mit Backlight Strobing fantastisch.
basix
2025-03-07, 23:29:03
Mal eine Frage: Bei DLSS RR sagt der NV Inspector gibt es 4x Models. A, B, C und D. Welches davon ist das beste? Bei SR ist es klar -> K. Aber bei RR gibts nur A-D.
D ist laut Doku definitiv ein Transformer Modell. Bei den anderen könnten es noch CNN Modelle sein.
robbitop
2025-03-08, 07:24:27
Doch sehr deutlich sogar! Handling von Schatten und allgemein mehr Jitter in Bewegung. Auch hat AMDs FG starke Reprojektionsartefakte an Bildschirmrändern.
In neusten Games sieht es für AMDs FG Lösung auch nicht so gut aus...
https://www.dsogaming.com/articles/marvels-spider-man-2-dlss-4-multi-frame-gen-benchmarks/
Dort wurde für SR aber kein FSR4 sondern FSR3.1 genutzt - und wenn es schon in den gerenderten Bildern Artefakte gibt verstärken diese sich in den generierten umso mehr. Solche Tests sind nur sinnvoll wenn man die BQ von FG beurteilen will wenn ein ordentliches SR (also entweder FSR4 oder DLSS4 K oder DLSS 3.8 E mittels Optiscaler) als Basis benutzt wird.
Dort wurde für SR aber kein FSR4 sondern FSR3.1 genutzt - und wenn es schon in den gerenderten Bildern Artefakte gibt verstärken diese sich in den generierten umso mehr. Solche Tests sind nur sinnvoll wenn man die BQ von FG beurteilen will wenn ein ordentliches SR (also entweder FSR4 oder DLSS4 K oder DLSS 3.8 E mittels Optiscaler) als Basis benutzt wird.
Ich traue dem Autor schon zu , dass er das selbst unterscheiden kann.
Ich traue dem Autor schon zu , dass er das selbst unterscheiden kann.
Der Autor kann nur das finale Ergebnis sehen, nicht was dazu geführt hat
dildo4u
2025-03-11, 18:02:43
Wenn ich DLSS 4 über den Nvidia Inspektor erzwingen wird das auch in Games erzwungen die Anti Cheat nutzen wie Fortnite?
aufkrawall
2025-03-11, 18:03:11
Ja.
Der Autor kann nur das finale Ergebnis sehen, nicht was dazu geführt hat
Du kannst auch DLAA mit deren Frame Generation verwenden, daher erübrigt sich solche Diskussion.
robbitop
2025-03-11, 18:32:35
Ich traue dem Autor schon zu , dass er das selbst unterscheiden kann.
Da steht nicht, dass das separat getestet wurde. Ich bezweifle das auch. Teste es selbst wenn du mitreden willst. Ich habe es getan und kann bestätigen das größte Problem an AMDs FG war das schlechte SR und ursprünglich auch das schlechte Framepacing und die nicht so tolle Latenz. Nicht jedoch die BQ der FG selbst. Mit moderner Implementierung (framepacing gut), mit DLSS oder FSR4 und mit reflex oder AL2 sind all die Themen erledigt.
Das soll aber nicht heißen dass das NV FG nicht auch qualitativ besser ist als das von AMD. Das ist es. Aber der Unterschied ist weit weniger eklatant als die genannten. Es ist IMO absolut brauchbar wenn die anderen Komponenten auch stimmen. Tritt aber in freier Wildbahn ohne Mods bis dato nur selten in der Kombination auf. Meist ist FSR FG nicht wählbar mit DLSS SR und/oder reflex. Selbst bei 3.1 Implementierungen.
Für mich lesen sich deine Beiträge nach bias und ohne es selbst differenziert untersucht zu haben.
Da steht nicht, dass das separat getestet wurde. Ich bezweifle das auch. Teste es selbst wenn du mitreden willst. Ich habe es getan und kann bestätigen das größte Problem an AMDs FG war das schlechte SR und ursprünglich auch das schlechte Framepacing und die nicht so tolle Latenz. Nicht jedoch die BQ der FG selbst. Mit moderner Implementierung (framepacing gut), mit DLSS oder FSR4 und mit reflex oder AL2 sind all die Themen erledigt.
Das soll aber nicht heißen dass das NV FG nicht auch qualitativ besser ist als das von AMD. Das ist es. Aber der Unterschied ist weit weniger eklatant als die genannten. Es ist IMO absolut brauchbar wenn die anderen Komponenten auch stimmen. Tritt aber in freier Wildbahn ohne Mods bis dato nur selten in der Kombination auf. Meist ist FSR FG nicht wählbar mit DLSS SR und/oder reflex. Selbst bei 3.1 Implementierungen.
Für mich lesen sich deine Beiträge nach bias und ohne es selbst differenziert untersucht zu haben.
Es ist nicht meine Aufgabe die Leute zu überzeugen oder aufzuklären, ich hab ein paar Punkte genannt und lediglich den Artikel verlinkt, welcher meine Beobachtungen bestätigt. Aktuell failen alle Redaktionen durch , weil sie zu faul sind Frame Generation auf visuelle Wiedergabetreue zu testen! Beschwer dich also bitte bei den Leuten der schreibenden Zunft, auf alberne Blindtests gebe ich nichts, noch auf andere faule Ausreden.
Das soll aber nicht heißen dass das NV FG nicht auch qualitativ besser ist als das von AMD. Das ist es. Aber der Unterschied ist weit weniger eklatant als die genannten.
Vor allem ist der Unterschied in der Praxis kaum relevant.
Wenn man sich einzelne Screenshots von DLSS-FG vs. FSR-FG ansieht gibt es teilweise durchaus eklatante Unterschiede, die meistens Vorteile für DLSS zeigen.
Wenn man FG aber sinnvoll einsetzt, also mit ausreichend hoher Grundframerate, sind selbst größere Qualitätsunterschiede der Einzelframes nicht wirklich relevant, da schnell genug ein vollständiges Frame nachfolgt, sodas die Fehler nur schwer wahrnehmbar sind.
Youtube-Videos können das auch mangels HFR-Unterstützung nicht zeigen, und hohe Frameraten kann man auch nicht ohne weiteres aufzeichnen. Durch Frameratelimitierungen bei der Aufzeichnung und dann noch Zeitlupen bei der Wiedergabe, wird ein viel höherer Qualitätsunterschied suggeriert, als er in der Praxis wahrnehmbar ist.
Hauptproblem von FSR-FG bleibt aber das Framepacing, zumindest auf einer Geforce ist da DLSS immer noch deutlich besser.
Wenn man FG aber sinnvoll einsetzt, also mit ausreichend hoher Grundframerate, sind selbst größere Qualitätsunterschiede der Einzelframes nicht wirklich relevant, da schnell genug ein vollständiges Frame nachfolgt, sodas die Fehler nur schwer wahrnehmbar sind.
Eine höhere Bildrate ändert nichts an sichtbaren Unregelmäßigkeiten, die Fehler und Abweichungen in generierten Frames sind trotzdem da und fallen auch nicht weniger auf!
Relex
2025-03-12, 09:46:00
Hab das hier gestern gesehen. Holpriges Interview aber eines war interessant.
Nvidia spricht davon, dass man MFG aktuell für RTX4000 Karten prüft.
Sie können zwar nichts versprechen, aber auch nichts ausschließen.
https://youtu.be/sjpSYmj1Rho?si=HreSZOTgt4j18CfY&t=1834
DrFreaK666
2025-03-12, 09:57:49
Dann hätte RTX5000 ja gar keine Vorteile mehr
Relex
2025-03-12, 10:10:23
Na ja, ich denke die wenigsten werden wegen MFG von RTX40 auf RTX50 aufrüsten.
Wenn aufgerüstet wird dann wegen Rohleistung. Die RTX40 Karten stehen also so oder so kaum in Konkurrenz zu den 50er Karten, da sie ja auch nicht mehr verfügbar sind/sein werden.
Es ist (aus Nvidias Sicht) eher nochmal ein zusätzlicher Anreiz für AMD User oder Besitzer älterer Karten, zu Nvidia zu greifen.
Praktisch hätte Nvidia also sicherlich keinen Einbußen für RTX50 Verkäufe, wenn sie MFG für die 40er bringen.
Im Gegenteil, es würde sicherlich sehr positiv von Presse und Kunden aufgenommen werden. War ja bei DLSS4 SR schon genauso.
Wenns nach mir ginge würde ich es so machen:
RTX30 bekommt 2x FG
RTX40 bekommt 2x, 3x MFG
RTX50 bekommt 2x, 3x, 4x, MFG Vielleicht geht ja auch 5x oder mehr.
Ich wäre mit nem 3x FG schon sehr zufrieden. Alles darüber ist nice to have, aber für 3x würde ich durchaus noch größeren nutzen sehen. z.B. von 50 auf 150 FPS.
basix
2025-03-12, 10:28:23
Wenns nach mir ginge würde ich es so machen:
RTX30 bekommt 2x FG
RTX40 bekommt 2x, 3x MFG
RTX50 bekommt 2x, 3x, 4x, MFG Vielleicht geht ja auch 5x oder mehr.
Ich wäre mit nem 3x FG schon sehr zufrieden. Alles darüber ist nice to have, aber für 3x würde ich durchaus noch größeren nutzen sehen. z.B. von 50 auf 150 FPS.
+1, passt für mich ;)
4x MFG hätte ich zwar schon gerne (nice to have), aber 3x würde bei mir in vielen Fällen reichen um die 240Hz des Monitors zu füllen. Und 80fps Basis fühlen sich sicher besser an als 60fps.
Ich nehme an, das neue Transformer FG verwendet ebenfalls FP8. 4x MFG wäre auf Lovelace-Karten also gleichwertig beschleunigt wie auf Blackwell-Karten. Das ist also keine technische Limitierung. Auf Ampere wäre 2x FG via FP16 wohl auch sehr gut stemmbar (und eigentlich auch auf Turing).
Eine höhere Bildrate ändert nichts an sichtbaren Unregelmäßigkeiten, die Fehler und Abweichungen in generierten Frames sind trotzdem da und fallen auch nicht weniger auf!
Selbstverständlich fallen sie weniger auf. Je schneller der nächste "Reparaturframe", also der echte ohne Artefakte am Bildschirm ist, desto weniger sieht man die Artefakte dazwischen.
Wenn du für eine Videoaufzeichnung die FPS auf 120 limitierst, weil du nicht mehr capturen kannst und dann noch die Wiedergabeframerate auf 1/2 setzt, weil Youtube auf 60FPS limitiert ist, hast du zwischen mit 2 echten Frames 33ms. Da werden Artefakte sehr auffällig. Und mit mehr als 2x FG ist diese Methode sowieso kompletter Nonsens. Bei 4xFG hast du schon als Basis nur mehr 30 Render-FPS, was viel zu wenig ist für artefaktfreie FG, und beim anschauen sogar nur 15FPS.
Wenn du jetzt aber in "echt" 80FPS hast, die auf 160 verdoppelt werden hast du nur 12,5ms zwischen 2 echten Frames in der Realität, damit fallen Artefakte sehr viel weniger auf.
Ich wäre mit nem 3x FG schon sehr zufrieden.
Also wenns nach mir ginge würde Reflex2/Framewarp sich endlich mal zeigen, mit und ohne FG.
Langfristig wäre natürlich die Performance von ca. 100FPS + 10xFG auf einem 1000Hz Monitor wünschenswert.
Selbstverständlich fallen sie weniger auf. Je schneller der nächste "Reparaturframe", also der echte ohne Artefakte am Bildschirm ist, desto weniger sieht man die Artefakte
Laber kein Blech, es gibt keine "Reparatur Frames" sich abwechselnde permanente Artefakte sind egal ob bei 60Hz oder 480Hz immer vorhanden!
Laber kein Blech, es gibt keine "Reparatur Frames" sich abwechselnde permanente Artefakte sind egal ob bei 60Hz oder 480Hz immer vorhanden!
Sie sind immer vorhanden, bei 480Hz aber nicht mehr wahrnehmbar.
Sie sind immer vorhanden, bei 480Hz aber nicht mehr wahrnehmbar.
Da liegst du komplett falsch. Natürlich sind diese genauso wahrnehmbar, egal ob 60hz/fps oder 480hz/fps.
Da liegst du komplett falsch. Natürlich sind diese genauso wahrnehmbar, egal ob 60hz/fps oder 480hz/fps.
Nein, zumindest nicht wenn du von FG-Artefakten sprichst, upscaling Artefakte sind natürlich identisch.
Nein, zumindest nicht wenn du von FG-Artefakten sprichst, upscaling Artefakte sind natürlich identisch.
Erzähl kein Blech...
AMD FG 60fps
https://easyupload.io/rqcfwd
AMD FG 120fps
https://easyupload.io/hwkh36
Die Bildrate ist völlig nebensächlich, AMD FG-Reprojektionsfehler bleiben immer sichtbar, egal wie hoch die RR+FPS.
x-force
2025-03-12, 20:52:39
Alles darüber ist nice to have, aber für 3x würde ich durchaus noch größeren nutzen sehen. z.B. von 50 auf 150 FPS.
imo ist (m)fg selbst auf blackwell erst für basisframerates über 60 interessant, mit ausnahme von controller games und aufbauspielen, aber da kann man auch mit 100fps klasse leben.
ich denke der inputlag wird ada implementierungen den spaß verderben. transformer kostet im vergleich auch schon deutlich mehr.
Selbstverständlich fallen sie weniger auf. Je schneller der nächste "Reparaturframe", also der echte ohne Artefakte am Bildschirm ist, desto weniger sieht man die Artefakte dazwischen.
Wenn du jetzt aber in "echt" 80FPS hast, die auf 160 verdoppelt werden hast du nur 12,5ms zwischen 2 echten Frames in der Realität, damit fallen Artefakte sehr viel weniger auf.
hängt wahrscheinlich vom auge und hirn des betrachters ab.
grundsätzlich werden bei 2xmfg fake und render zu jeweils 50% der zeit angezeigt. die framerate bestimmt dann, ob die störung eher als flackern, smear oder ghosting wahrgenommen wird.
Relex
2025-03-12, 22:20:22
imo ist (m)fg selbst auf blackwell erst für basisframerates über 60 interessant, mit ausnahme von controller games und aufbauspielen, aber da kann man auch mit 100fps klasse leben.
ich denke der inputlag wird ada implementierungen den spaß verderben. transformer kostet im vergleich auch schon deutlich mehr.
Nein, wie kommst du denn darauf?
Der neue Frame Generation Algorithmus der mit DLSS4 eingeführt wurde ist deutlich schneller und kostet weniger performance und skaliert dadurch selbst mit 2x FG schon viel besser auf Ada. Die Basis Framerate ist dadurch automatisch viel höher. Selbst mit 3x MFG sollte die Basisframerate immernoch höher sein, als mit 2x FG und dem alten Algorithmus.
Und als ich MFG via dll hack auf meiner 4080 ausprobiert habe, hat das genauso gut wie auf einer 5080 skaliert.
Siehe hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13694358#post13694358
Klar, in dem beispiel wäre die Basis Framerate auch für meinen Geschmack etwas zu gering, aber das ändert ja nichts an der Performance-Skalierung, die einwandfrei funktionieren würde.
Also nein, die Kosten und Latenzen sind im Vergleich zu Blackwell überhaupt kein Problem. Das einzige was beim dll hack nicht funktioniert ist das Framepacing. Das ist komplett kaputt.
Ach ja und was die Basisframerate angeht. Die Diskussion ist genauso sinnfrei wie eine Diskussion darüber, wie viele FPS man braucht. Das ist nicht zielführend.
Man sollte Reflex + Upscaling + FG eher als Werkzeuge sehen mit denen man sowohl Framerate als auch Latenzen sowie das Verhältnis zueinander nahezu bliebig "einstellen" kann. Und das ist ausnahmslos immer eine sinnvolle Sache. Egal auf welchem Leistungsniveau man sich bewegt.
Zu sagen man braucht 60 FPS basis für FG ist genauso als würdest du sagen man braucht 60, 100 oder 200 FPS um vernünftig spielen zu können.
Die Aussage ist halt weder wahr noch falsch und somit als Pauschalaussage sinnfrei, da es je nach Person und Spiel von zig faktoren und Umständen abhängt.
DrFreaK666
2025-03-12, 22:27:48
...aber das ändert ja nichts an der Performance-Skalierung, die einwandfrei funktionieren würde...
In den Tests, die ich gesehen habe, hat man mit 4xMFG dreifache Performance. Einwandfreie Performance-Skalierung sieht für mich anders aus
Relex
2025-03-12, 22:39:12
Doch, weil die Skalierung von 2x auf 3x auf 4x nicht schlechter wird. Also ist die Skalierung in Ordnung.
Das was du meinst wäre, wenn der Algorithmus gar keine Berechnungszeit bräuchte. Das ist nicht möglich.
DrFreaK666
2025-03-12, 22:49:38
Dann hab ich dich falsch verstanden
x-force
2025-03-13, 02:14:28
Die Diskussion ist genauso sinnfrei wie eine Diskussion darüber, wie viele FPS man braucht. Das ist nicht zielführend.
solange man sich im klaren darüber ist, dass die basisframerate die latenz bestimmt und damit die hälfte des feelings darstellt, wenn die engine was taugt
indiana jones ist auch ohne fg auf 90 fps eine krankheit. gefühlt schlimmer als tripple buffer früher.
dagegen fühlt sich cyberpunk mit 45 fps basis und 4x mfg in jeder hinsicht besser an.
Relex
2025-03-13, 07:31:32
Mit Reflex was bis vor zwei Jahren nur in wenigen esports Spielen verfügbar war, muss man die Latenzen aber eh völlig neu bewerten. Oft wird die Latenz halbiert (und mit FG nur moderat erhöht).
Wenn du 45 FPS sagst, ist das halt auch nicht die „klassische“ 45 FPS Latenz die man vor zwei Jahren noch kannte. Wobei das auch stark vom Spiel abhängt.
Zumal es subjektiv eh schwer ist, die Latenz von 45 FPS subjektiv zu bewerten, wenn dabei praktisch alles am ruckeln ist. Das ruckeln macht es ja gefühlt auch nochmal viel schlimmer.
Man sollte sich hier einfach völlig von FPS Werten verabschieden und sich einfach an den Latenzen orientieren. Es reicht ja, wenn man die aus dem Nvidia Overlay nimmt. Die stellen zwar nicht die Gesamtlatenz dar, aber zumindest den Teil der von Reflex und FG beeinflusst wird. Hat man da einen passenden Wert gefunden lässt sich das ja beliebig auf andere Spiele übertragen.
Das ist als Orientierungspunkt jedenfalls sinnvoller, als ne FPS Angabe, die nur sehr indirekt die Latenz vorgibt.
robbitop
2025-03-13, 08:18:36
Was viele bei FG (auch mit Latency Mitigation) stört ist nicht die absolute Latenz sondern eher die Korrelation zwischen Flüssigkeit und Latenz. Für eine gewisse Flüssigkeit bekommt man auch eine gewisse Latenz an die das Gehirn gewohnt ist. Flupdizität sozusagen. Ich stelle mir das wie einen Lookuptable vor. Und der sieht nun mit FG und MFG anders aus. Und das fühlt sich dann merkwürdig an auch wenn die absolute Latenz nicht notwendigerweise schlecht ist im Einzelfall.
Und um die absolute Latenz so tief zu bekommen, dass man die Unterschiede nicht mehr merkt muss man in einigen Spielen (die ohnehin eine ziemlich latente Renderpipeline haben - da gibt es ja einige Tiel) schon ordentlich hoch mit der Mindestframerate. Bei anderen Spielen wiederum nicht.
Ich sehe das wie Relex. Es gibt nicht die Mindestframerate. Es ist ein Werkzeug. Je nach Spiel und je nach Spieler kann die Konfiguration extrem variieren.
Ich hoffe unabhängig davon aber auch, dass die Technik aus Reflex 2 (am besten Hersteller agnostisch) sich bald durchsetzt. Das kann tatsächlich deutlich helfen beim Thema Flupdizität.
Aber ich vermute man braucht auch da (je nach Spiel und Spieler) eine gewisse Mindestframerate damit es keine merkbaren Artefakte gibt. Mir kam das zumindest so vor weil Reflex 2 einzig für high fps Onlineshooter vermarktet wurde.
dagegen fühlt sich cyberpunk mit 45 fps basis und 4x mfg in jeder hinsicht besser an.
Aber auch erst seit Reflex. Das beste an Cyberpunks FG-Integration ist, dass Reflex dazugekommen ist, davor war die Latenz grauenhaft.
Lurtz
2025-03-13, 08:27:16
Ich finde daran kann man ich meist schnell gewöhnen. Zumal die Flupdizität allein schon je nach Engine, Reflex On/Off etc. stark schwanken kann.
robbitop
2025-03-13, 08:33:42
Aber auch erst seit Reflex. Das beste an Cyberpunks FG-Integration ist, dass Reflex dazugekommen ist, davor war die Latenz grauenhaft.
Reflex ist doch zwingend bei DLSS FG dabei. Unabhängig von Cyberpunk. Es gab kein "davor". Zumal Reflex auch noch ohne DLSS FG schon eine ganze Weile vorher verfügbar war.
Ich finde daran kann man ich meist schnell gewöhnen. Zumal die Flupdizität allein schon je nach Engine, Reflex On/Off etc. stark schwanken kann.
Ja Gewöhnung kommt natürlich dazu. Und letzteres habe ich ja auch schon ausdrücken wollen. All in all kommt es auf den Spieler und das Spiel an. :)
Relex
2025-03-13, 10:16:39
Das ist ja der Punkt. Ob Latenz X zu Framerate Y passt ist reine gewöhnung an bisherige Gegebenheiten. Das Verhältnis könnte auch schon immer völlig anders aussehen. Es gibt da kein richtig oder falsch sondern einfach das was sich bisher technisch ergeben hat.
Wenn ich mit FG + Reflex + Upscaling bei gleicher Latenz viel mehr FPS erreiche dann mag das von dem abweichen, was man bisher gewohnt war, aber ich wüsste nicht, was daran schlechter sein sollte.
Schlechter wirds ja erst, wenn man die Settings nicht mehr so konfigurieren kann, dass die Latenzen gut sind. Aber solange die Latenzen gut sind und ich meinetwegen 500 FPS statt 60 haben könnte, nehm ich die 500, auch wenn man nach bisherirger gewöhnung dann extrem geringe Latenzen haben müsste.
Soll heißen ich habe zwischen Latenz und Framerate noch nie einen unmittelbaren oder zwingenden Zusammenhang für MICH gesehen. Die latenz skaliert zwar klassischerweise mit der Framerate, aber die höhe der Latenz ist eben schon immer abhängig von GPU Last und Engine sehr unterschiedlich. Ein richtig oder falsch gibts da nicht, weswegen sich 500 FPS mit 50 ms Latenz für mich auch nicht seltsam anfühlen würden. Für mich ist zu geringe Framerate primär ein Artefakt (unschärfe und ruckeln). Warum sollte man das nicht unabhängig der Latenzen und Renderzeiten beseitigen können?
robbitop
2025-03-13, 10:28:33
Also zumindest mir geht es so, dass ich bei einer gewissen Flüssigkeit eine gewisse Latenz erwarte und ich mag es dann weniger wenn diese nicht erreicht wird. Was nicht heißt, dass ich das Ergebnis schlechter als ohne FG finde. Aber ich empfinde das Ergebnis schlechter als echte FPS. Vom Spielerlebnis her.
Ich merke ich brauche deutlich mehr FPS um mich wohl zu fühlen.
Relex
2025-03-13, 10:34:42
Na ja, aber es ist doch trotzdem so, dass die Latenz der persönliche Maßstab sein sollte.
Man muss sich ja nur mal das Szenario vorstellen, dass du z.B. einen 1000 Hz Monitor nutzt und Frame Generation in DLSS5 oder DLSS6 einfach immer die Bildrate bis zur max. Refreshrate auffüllt.
Würdest du dann - keine Ahnung - immer eine latenz von <5 ms erwarten, damit es sich "richtig" anfühlt oder reichen dir auch 10, 20, 30, 50 oder 60 ms, auch wenn du in allen Fällen 1000 FPS bekommst?
Ich hätte damit jedenfalls kein Problem. Ruckeln und bewegungsunschärfe wäre praktisch komplett beseitigt und welche latenzen ich haben will oder akzeptiere, mache ich abhängig vom Spiel und ist auch abhängig von Grafiksettings und Rohleistung der Hardware.
Und so denke ich schon immer über Frame Generation. Ich nehme grundsätzlich erstmal so viele FPS wie nur möglich und die bekomme ich nur mit FG. Im zweiten Schritt schau ich dann eben wie ich mit Settings und Super Resolution (wenn nötig) arbeiten muss, um die Latenzen auf ein von mir gewünschtes Niveau zu bringen.
Und wenn ich etwas Latenzen gegen Bleeding Edge Grafik mit pathtracing tauschen kann, dann mach ich das bis zu nem gewissen Punkt auch. Das ist ja heute nicht anders als früher mit extremen Grafiksettings, nur mit dem Unterschied, dass es heute dank FG dabei potenziell viel weniger Ruckeln und in Zukunft gar kein Ruckeln mehr geben wird.
robbitop
2025-03-13, 10:42:28
Für mich nimmt diese Divergenz asymptotisch ab was ja auch logisch ist weil die absolute Latenz dann in einen Bereich kommt, der immer weniger wahrnehmbar ist. Also ich brauche so um die ~140...150 fps (inkl 2x FG) damit die Lücke dann geschlossen ist darüber hinaus wäre es dann wohl egal / gleichwertig von der Fluppdizität (in Mechwarrior 5 Clans). Mit 120 fps ist es oft schon gut aber nicht perfekt. Aber ja das ist bei jedem Spieler und jedem Spiel anders.
Und wie gesagt ich empfinde FG nicht schlechter als kein FG. Also FG on ist fast immer besser als FG OFF. Also ein Performance normierter Vergleich.
Aber 120 echte FPS empfinde ich als deutlich besser als 120 generierte.
Troyan
2025-03-13, 10:59:58
Das ist unlogisch. Latenz ist abhängig von Auslastung. 120 FPS im CPU Limit werden eine niedrige Latenz haben als 120 FPS unter 99% GPU-Last.
Das Problem bei vielen ist einfach, dass man sich alles einredet. Ohne Latenzanzeige würde man nie ein Problem feststellen. Deswegen finden viele ja auch Gaming an einem CRT aufgrund der Bewegtbilddarstellung besser als auf einem LCD oder OLED.
Relex
2025-03-13, 11:04:01
Deswegen sag ich ja, das persönliche Empfinden an eine Framerate zu koppeln funktioniert nicht.
Man muss die Latenzen als Maßstab oder Orientierungspunkt heranziehen, da sie alleine schon von Spiel zu spiel sehr unterschiedlich sind (bei gleicher Framerate).
Reflex ist doch zwingend bei DLSS FG dabei. Unabhängig von Cyberpunk. Es gab kein "davor". Zumal Reflex auch noch ohne DLSS FG schon eine ganze Weile vorher verfügbar war.
Cyberpunk hatte lange kein Reflex, das kam erst mit FG dazu. Kann jetzt natürlich sein, dass das Reflex Update kurz vorm FG-Update schon integriert wurde, auf jeden Fall war davor die Latenz extrem schlecht.
Insofern, dass beste an FG ist, dass dadurch viel mehr Spiele Reflex-Integration bekommen haben als es ohne FG der Fall wäre.
Das ist unlogisch. Latenz ist abhängig von Auslastung. 120 FPS im CPU Limit werden eine niedrige Latenz haben als 120 FPS unter 99% GPU-Last.
Mit Reflex ist der Unterschied vernachlässigbar.
Troyan
2025-03-13, 19:44:55
Na, auch mit Reflex hängt die Latenz maßgeblich von der GPU-Auslastung ab.
nVidia hat für die GDC nun auch mehr Information zu DLSS 4 und den ganzen Verbesserungen veröffentlicht: https://research.nvidia.com/labs/adlr/DLSS4/
FG 4 ist knapp 3x schneller bei der Bilderzeugung. Jedenfalls in den Spielen mit FSR ist FG 4 nun (leicht) schneller.
FG 4 ist knapp 3x schneller bei der Bilderzeugung. Jedenfalls in den Spielen mit FSR ist FG 4 nun (leicht) schneller.
Nicht 3x schneller, 3 generierte Frames brauchen auf der 5090 3ms, ein generiertes Frame auf der 4090 3,25ms.
Ein Großteil der Arbeit ist aber die Differenzen zwischen den 2 echten Frames zu ermitteln, und das muss man nur 1x machen egal wieviele Frames man dazwischen erzeugt. DLSS4 FG kann also sicher nicht 2x FG plötzlich in 1ms fertig bekommen.
nVidia hat für die GDC nun auch mehr Information zu DLSS 4 und den ganzen Verbesserungen veröffentlicht: https://research.nvidia.com/labs/adlr/DLSS4/
Wann ist denn Framewarp endlich real einsetzbar.
Troyan
2025-03-20, 11:51:46
Mit dem aktuellen Treiber kann ich nun G-Sync, V-Sync und MFG verwenden. Lustigerweise scheint nVidia hier das Reflex-Limit zu ignorieren.
Lurtz
2025-03-21, 16:38:25
In AC Shadows hat man auch wieder schön flimmernde Reflexionen auf Wasseroberflächen, wenn sie in den Point of View kommen. Mit solch schnellen, großflächigen Änderungen kann das Transformer-Modell gar nicht gut umgehen.
In 1440p Performance ziehen laufende NPCs auch schöne Disocclusion-Trails hinter sich her :D
Vielleicht braucht DLSS auch eine Mischung aus CNN und Transformer. Würde sagen FSR4 ist da im Zweifel tendenziell stabiler, auch wenn es nicht ganz an die Schärfe von J/K rankommt, ist es immerhin schärfer als E.
Man könnte sogar die These aufstellen, dass FSR4 aktuell die beste Allround-Lösung ist :)
aufkrawall
2025-03-22, 13:16:12
Wie sieht das aus, wenn du auf die Pflanzen durchs Portal schaust?
https://youtu.be/3-9fqdtPaxM?t=112
Lurtz
2025-03-22, 15:42:56
Flimmert/rauscht in Bewegung mit K. Wie ist das bei FSR4? Die YT-Kompression dürfte das ziemlich wegrechnen.
Sonst scheint K aber einen besseren Job in Reawakened als in Teil 2 zu machen. Sehr scharf und kaum Vegetationsflimmern.
aufkrawall
2025-03-22, 15:52:49
Bleibt ~stabil, so wie halt auch mit Preset E.
Die Vegetation im Reawakened wurde imho von Grund auf für Nanite neu erstellt (so weit in der Demo beurteilbar), während für Teil 2 die offenbar noch zu einem nicht unerheblichen Teil nur alte importierte Assets aus SS4 war. Überfordert TSR trotzdem brutal. :freak:
Gast²
2025-03-22, 16:44:34
netter vergleich CNN vs Transformer in Assassins Creed Shadows
https://www.youtube.com/watch?v=v7Od5Q9UDQ4
ich würd da fast das alte CNN bevorzugen.
Relex
2025-03-22, 18:08:19
Joa, das zeigt gut einige Regressionen.
Trotzdem versagt das Video aufgrund der starken Komprimierung völlig, dern Schärfeunterschied darzustellen.
Wenn man in dem Spiel einmal Transformer gesehen hat, dann wirkt CNN im Vergleich, als hätte man FXAA, TAAU oder ähnliches aktiviert.
robbitop
2025-03-22, 18:19:56
Kann ich bestätigen. Damit sieht 1440p sogar im balanced Profil echt in Ordnung aus von der Schärfe. :)
aufkrawall
2025-03-22, 18:36:02
Tja, der Nimbus, dass DLSS einfach alles fressen kann und in keiner Situation wirklich deutlich versagt, ist mit Transformer-SR aber weg.
Und sie haben es jetzt in bald zwei Monaten auch immer noch nicht geschafft, die Raster-Grafikfehler in bestimmten Spielen/Situationen zu fixen.
Lurtz
2025-03-22, 21:23:48
CB lobt Transformer-SR bei Shadows ja so stark, obwohl sie zuvor nicht beeindruckt davon waren. Langsam habe ich das Gefühl bei Computerbase geht man was Upscaling angeht am besten vom Gegenteil des Gesagten aus :ugly:
Ich würde aber auch dazu tendieren hier E besser zu finden. K hat zu viele Regressionen während die Schärfe hier gar nicht so sehr zum Tragen kommt.
FSR4 ist hier ein sehr guter Kompromiss aus beiden Welten, aber das geht ja jetzt nur nach Grafikkarten-Tausch :)
Bleibt ~stabil, so wie halt auch mit Preset E.
Die Vegetation im Reawakened wurde imho von Grund auf für Nanite neu erstellt (so weit in der Demo beurteilbar), während für Teil 2 die offenbar noch zu einem nicht unerheblichen Teil nur alte importierte Assets aus SS4 war. Überfordert TSR trotzdem brutal. :freak:
Ist schon faszinierend was Croteam mit der UE5 leistet. Wenn man sich das optische und performancetechnische Desaster anschaut, was ein Serious Sam 4 im Vergleich ist...
Relex
2025-03-22, 21:37:02
Ich finde gerade bei AC den Unterschied gewaltig.
E sieht fast schon kaputt aus. z.B. der Boden blurrt wie Hölle. Man könnte fast schon denken, die haben die motion vectors vergessen.
Mit K bleibt alles scharf. Dafür gibts an anderen Stellen häufiger mal Ghosting.
Ich schätze mal die starke Unschärfe ohne Transformer hat was mit der virtualisierten mesh Shader Geometrie zu tun?
Also bei Assassins Creed sieht man schon im Ladebildschirm wie viel Transformer besser ist als alles andere bisher dagewesene.
Lurtz
2025-03-23, 18:33:35
Und ingame siehst du dann ständig nie dagewesene Regressionen :ugly:
Ich war zu Beginn und in Fällen wie RDR2 auch begeistert von Transformer. Nach einigem Abstand ergibt sich ein durchwachseneres Bild.
Und ingame siehst du dann ständig nie dagewesene Regressionen :ugly:
Bis jetzt ist mir noch nichts aufgefallen, einzig das fließende Wasser im Benchmark zeigt deutliches Ghosting, was aber auch nicht schlimm ist, das ist ja normal schon blurry.
Lurtz
2025-03-23, 23:09:52
Das Spiel hat sich ständig bewegende, feine Vegetation und Partikeleffekte ohne Ende, das gibt teils starkes Ghosting und allgegenwärtige Disocclusion-Artefakte, zumindest in niedrigerer Auflösung.
Nightspider
2025-03-25, 00:53:16
Irgendwie kann ich mich nicht entscheiden ob ich Games lieber in hoher Auflösung mit DLSS4 Performance oder einer etwas niedrigeren Auflösung mit Quality nutzen soll. :redface:
Hab per DSR / DL DSR ja Zwischenauflösungen zur Auswahl und kann über verschiedene Wege die gleiche Performance erreichen aber mir fällt es schwer herauszufinden was für die Bildqualität besser ist.
In BF2042 habe ich schon oft DL DSR mit DLSS genutzt aber irgendwie kann ich hin und her wechseln und mich nicht für einen Modus entscheiden.
Am Ende merke ich immer das 2,25x DL DSR mit Quality am geilsten aussieht aber wegen der Performance gehe ich dann doch wieder zurück auf beispielsweise ~1800p - 1900p mit Quality oder springe wieder zwischen den Einstellungen rum.
Den ultimativen Ratschlag gibts nicht, ob man lieber Auflösung oder die Qualitätsstufe von DLSS heraufsetzen sollte oder? :redface:
Solche Probleme hatte ich früher nicht. :uhammer:
Damit ich nicht ewig herumdoktorn muss wollte ich mir ja eigentlich Blackwell holen aber die 5090 war ja auch kein großer Wurf in irgendeiner Disziplin.
robbitop
2025-03-25, 07:10:28
DLAA @ native :)
Und sie haben es jetzt in bald zwei Monaten auch immer noch nicht geschafft, die Raster-Grafikfehler in bestimmten Spielen/Situationen zu fixen.
Hast dazu evtl. ein Bild? Ich habe nämlich festgestellt, das es komische Darstellungen mit DLSS4 in den meisten Games gibt, so dass ich sogar wieder auf DLSS3 zurück bin.
Bisher nutze ich DLSS4 hauptsächlich für weniger Flimmern in
TESO
Path of Exile 2
und da es einen komischen Schliereffekt mit Nebel gibt nicht in
Star Citizen
Stalker 2
Skull n Bones
Scheinbar ist ein natives (also ins Spiel eingebaute) DLSS4 besser?
basix
2025-03-25, 11:05:36
Nicht 3x schneller, 3 generierte Frames brauchen auf der 5090 3ms, ein generiertes Frame auf der 4090 3,25ms.
Ein Großteil der Arbeit ist aber die Differenzen zwischen den 2 echten Frames zu ermitteln, und das muss man nur 1x machen egal wieviele Frames man dazwischen erzeugt. DLSS4 FG kann also sicher nicht 2x FG plötzlich in 1ms fertig bekommen.
Dieses Verhalten sieht man wunderbar bei den Half Life RTX Benches von PCGH. 3x und 4x MFG skalieren perfekt (1.5x / 2x ausgehend von FG 2x). FG 2x mit 1.87x
https://www.pcgameshardware.de/Half-Life-2-Spiel-5176/Specials/RTX-5090-Demo-Release-Test-Grafik-1468681/2/#a2
Könnte somit bedeuten, dass 6x / 8x MFG relativ günstig zu realisieren wäre. Falls das natürlich kein komplexeres Auswerte/Bildvergleich-DNN nötig macht.
Relex
2025-03-25, 12:58:16
Woher hat Gast denn diese Werte?? Vergleicht man da mal wieder das alte FG gegen das neue?
Ich hab kürzlich im FSR Thread beispielhafte Zahlen gepostet (mit DLSS4 FG):
z.B. von 50 auf 92 FPS (+84%)
oder von 82 auf 140 FPS (+71%)
Das heißt im ersten Beispiel haben wir für die 50 FPS eine Frametime von 20 ms.
Für die 92 FPS nach FG ergibt sich aus 46 FPS (base) eine Frametime von 21,74 ms.
Macht also 1,74 ms die für 2x FG drauf gehen.
Beim zweiten Beispiel haben wir für die 82 FPS eine Frametime von 12,2 ms.
Für die 140 FPS nach FG ergibt sich aus 70 FPS (base) eine Frametime von 14,29 ms.
Macht also 2,09 ms die für 2x FG drauf gehen.
2x FG kostet also selbst auf der "lahmen" 4080 nur noch ~2 ms in 4K
wobei das mit 250W Powerlimit war bei 320W dürfte es eher noch etwas weniger sein.
Für den alten Algo waren es, wenn ich mich recht erinnere 3-4 ms mit ausreißern richtung 5 ms (4080), die ich ermittelt hatte.
Das würde also auf der 4090 eher zu den genannten 3 ms passen. Aber wie gesagt, ist eben der alte algo. Mit dem neuen dürfte die 4090 wohl eher bei 1,5 ms liegen.
Irgendwie kann ich mich nicht entscheiden ob ich Games lieber in hoher Auflösung mit DLSS4 Performance oder einer etwas niedrigeren Auflösung mit Quality nutzen soll. :redface:
DLSS-Performance ist immer the most bang for the buck.
Wenn man überschüssige Performance hat kann man freilich auch höhere Einstellungen wählen.
Macht also 2,09 ms die für 2x FG drauf gehen.
Du kannst nicht aus FPS-Werten die Zeit für die Framegenerierung ermitteln.
Die Framegenerierung könnte theoretisch bis zur gesamten Frametime dauern und du kannst es von außen nicht ermitteln.
Troyan
2025-03-25, 13:13:27
FrameGeneration reduziert nicht die native Frameerstellung. Die Frameausgabe wird um mindesten einen halben Frame verlängert. Man kann nicht einfach durch "2" rechnen. Das passiert einzig, wenn man die FPS limitiert oder im V-Sync Limit hängt.
The_Invisible
2025-03-25, 13:40:36
Woher hat Gast denn diese Werte?? Vergleicht man da mal wieder das alte FG gegen das neue?
Ich hab kürzlich im FSR Thread beispielhafte Zahlen gepostet (mit DLSS4 FG):
z.B. von 50 auf 92 FPS (+84%)
oder von 82 auf 140 FPS (+71%)
Das heißt im ersten Beispiel haben wir für die 50 FPS eine Frametime von 20 ms.
Für die 92 FPS nach FG ergibt sich aus 46 FPS (base) eine Frametime von 21,74 ms.
Macht also 1,74 ms die für 2x FG drauf gehen.
Beim zweiten Beispiel haben wir für die 82 FPS eine Frametime von 12,2 ms.
Für die 140 FPS nach FG ergibt sich aus 70 FPS (base) eine Frametime von 14,29 ms.
Macht also 2,09 ms die für 2x FG drauf gehen.
2x FG kostet also selbst auf der "lahmen" 4080 nur noch ~2 ms in 4K
wobei das mit 250W Powerlimit war bei 320W dürfte es eher noch etwas weniger sein.
Für den alten Algo waren es, wenn ich mich recht erinnere 3-4 ms mit ausreißern richtung 5 ms (4080), die ich ermittelt hatte.
Das würde also auf der 4090 eher zu den genannten 3 ms passen. Aber wie gesagt, ist eben der alte algo. Mit dem neuen dürfte die 4090 wohl eher bei 1,5 ms liegen.
DLSS4-FG skaliert richtig nice (wenns nicht crasht :D ), hänge da jetzt zb bei Stalker2/Remnant2 bei meinen Teststellen stehts im 144(138)fps Limit wo ich vorher bei 110-120 war.
basix
2025-03-25, 14:22:44
Woher hat Gast denn diese Werte?? Vergleicht man da mal wieder das alte FG gegen das neue?
Von diesem (schönen) Artikel über DLSS4:
https://research.nvidia.com/labs/adlr/DLSS4/
In DLSS 3's Frame Generation, a single 4K frame could be generated (thus doubling the frame rate) in around 3.25ms on a GeForce RTX 4090. In contrast DLSS 4's Multi Frame Generation, each of the three new frames (a quadrupling of the frame rate) can be generated in around 1ms on average on a GeForce RTX 5090 at the time of launch.
The new DLSS Multi Frame Generation architecture splits the neural component of DLSS 3's Frame Generation in half. One half of the network runs once for every input frame pair and its output is then able to be re-used. The other (much smaller) half runs once for every generated output frame. This split architecture allowed us to understand and optimize these networks in parallel, helping to bring the final algorithmic latency within the target.
Das Basis-Netzwerk ist deutlich grösser (dieses ermittelt die Bildunterschiede zwischen zwei Frames) und die "Generator-DNN" sind deutlich schlanker. In der Summe 3ms auf einer 5090 oder durchschnittlich 1ms pro Frame. Wie viel von den 3ms vom Basis-Netzwerk belegt werden? Keine Informationen vorhanden.
FSR3-FG kostet 2.4ms auf einer 7900XTX. Einen Teil davon wird man via Async Compute verstecken können. Der Speedup von FSR3-FG und DLSS4-FG ist ähnlich, deswegen könnte das Basis-Netzwerk von DLSS4-FG ebenfalls etwa ~2ms benötigen (auf einer 5090). Die kleineren "Generator-DNN" wären dann ~0.33ms pro Ausführung. Grösser dürfte das nicht sein, sonst hätten wir nicht diese sehr gute Skalierung von 2x FG -> 3/4x MFG.
Es sind halt Processing Times und keine Frametime-Differenzen, die da jeweils angegeben werden. Die Frametime-Differenz dürfte in den meisten Fällen kleiner sein als die reine Ausführungszeit -> Async Compute.
Relex
2025-03-25, 14:56:31
Ist aber dann trotzdem ein Äpfel / Birnen Vergleich, wenn man DLSS3 FG mit DLSS4 FG vergleicht.
FrameGeneration reduziert nicht die native Frameerstellung.
Natürlich tut es das. Der Algo kann die FPS nur vervielfachen. Wenn du also nach 2x FG z.B. 120 FPS hast, dann ist die basisframerate nunmal bei 60 FPS. Aber du kannst mir gerne erklären, wie du es anstellen würdest, zwischen zwei Frames immer einen generierten Frame einzufügen, ohne dabei die Framerate exakt zu verdoppeln. Es kann logisch gar nicht anders funktionieren.
Die Differenz zwischen alter Basis Framerate und neuer Basis Framerate entspricht den effektiven Performancekosten.
Die Verzögerung der Ausgabe durch das warten auf den nächsten Frame hat zudem keinen Einfluss auf die Bildrate mit der die Bilder ausgegeben werden. Man kann verzögern ohne dass sich die Bildrate ändern muss. Auf einem Graphen würde sich da einfach nur die Phase verschieben, aber nicht die Frequenz ändern. Die Frequenz ändert sich praktisch nur durch höhere Rechenkosten.
Du kannst nicht aus FPS-Werten die Zeit für die Framegenerierung ermitteln.
Die Framegenerierung könnte theoretisch bis zur gesamten Frametime dauern und du kannst es von außen nicht ermitteln.
Spielt ja praktisch keine Rolle, wie lange die tatsächlichen Berechnungszeiten sind, wenn sie z.B: durch async compute maskiert werden.
Was zählt ist, was am Ende beim FPS zähler ankommt. Also letztendlich die skalierung bzw. reduzierung der Basisframerate während FG aktiv ist.
aufkrawall
2025-03-25, 15:01:07
Async Compute bringt in OptiFG ziemlich wenig auf der 9070, auf der 3060 war der Unterschied größer.
basix
2025-03-25, 15:45:17
Ist aber dann trotzdem ein Äpfel / Birnen Vergleich, wenn man DLSS3 FG mit DLSS4 FG vergleicht.
Naja, den Vergleich hat Nvidia höchstselbst so gemacht und sind die einzigen belastbaren Zahlen zu DLSS FG Execution Times ;)
Und Ausgangspunkt war Troyan, der hier Blödsinn erzählt hat. Von wegen DLSS4 läuft 3x so schnell (der Gast hat es im nächsten Post richtig gestellt).
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13725940#post13725940
Dem ist eben nicht so, da es zwei gesplittete Netzwerke sind wobei bei DLSS4 2x FG die Hauptarbeit für das grösser DNN anfällt.
Am Ende ist es ja egal: DLSS4 FG skaliert gut und deutlich besser als DLSS3 FG. Das ist das wichtige, sagst du ja auch. Technische Details sind dennoch interessant. Hätte Nvidia das bei DLSS4 echt auch so gemacht, wenn FSR3 FG nicht so gut skaliert hätte? :)
aufkrawall
2025-03-25, 15:55:00
Nur leider lügt Nvidia, indem sie tun, als ob TC-FG bei der Qualität gleichwertig oder besser wäre als OFA-FG. Mann kann mehrfach lesen, wie User die DLL wieder downgraden, weil es mit der neuen Variante mehr Ghosting/Haloing gibt.
robbitop
2025-03-25, 15:55:40
Async Compute bringt in OptiFG ziemlich wenig auf der 9070, auf der 3060 war der Unterschied größer.
Ggf aber auch durch die höhere Rechenleistung der 9070 zu erklären.
basix
2025-03-25, 15:56:23
Nur leider lügt Nvidia, indem sie tun, als ob TC-FG bei der Qualität gleichwertig oder besser wäre als OFA-FG. Mann kann mehrfach lesen, wie User die DLL wieder downgraden, weil es mit der neuen Variante mehr Ghosting/Haloing gibt.
Es gibt Verbesserungen in einigen Bereichen und Regressionen in anderen. Nvidia erzählt einfach nur eine Seite davon, was noch nicht ganz eine Lüge ist ;)
Lurtz
2025-03-25, 16:05:35
Mit SpecialK kann man jetzt "DLSS Flip Metering" mit RTX 4000 und 5000 aktivieren. Sorgt aktuell aber dafür, dass nach kurzer Zeit die GPU nicht mehr richtig ausgelastet wird.
Es gibt Verbesserungen in einigen Bereichen und Regressionen in anderen. Nvidia erzählt einfach nur eine Seite davon, was noch nicht ganz eine Lüge ist ;)
Ich scheine gegenüber FG-Artefakten eh größtenteils ignorant zu sein, SR-Artefakte fallen mir wesentlich mehr auf.
Ich scheine gegenüber FG-Artefakten eh größtenteils ignorant zu sein, SR-Artefakte fallen mir wesentlich mehr auf.
FG-Artefakte sind auch kaum wahrnehmbar, wenn man FG in Frameratebereichen einsetzt für welches es konzipiert wurde.
Wenn man nur 120FPS Captured, und dass dann auch noch mit 60FPS wiedergibt, damit man es auf YouTube hochladen kann werden die Artefakte freilich enorm verstärkt, erst recht mit MFG und damit noch mal niedrigerer Basisframerate.
Ist aber dann trotzdem ein Äpfel / Birnen Vergleich, wenn man DLSS3 FG mit DLSS4 FG vergleicht.
Genau dieser Vergleich war das Ziel, bzw. die Schlussfolgerung, dass DLSS4-FG 3x so schnell ist wie DLSS3-FG einfach nur falsch, die kann man nur weil man 3x so viele Frames in annähernd der selben Zeit generiert nicht machen, da die zusätzlichen Frames eben deutlich günstiger sind wenn man schon die Basis für FG hat.
Async Compute bringt in OptiFG ziemlich wenig auf der 9070, auf der 3060 war der Unterschied größer.
Async-Compute hat damit auch höchstens sehr wenig zu tun.
Beim Rendering muss die aus API-Sicht logische Reihenfolge eingehalten werden, z.B. damit Transparenzen erst gerendert werden wenn der Rest fertig ist.
Mit Async-Compute habe ich als Entwickler einfach eine weitere Queue, in der ich der Hardware sagen kann mir ist egal wann du diese ausführst.
Wenn dann die Renderqueue stallt weil die nächste Aufgabe auf den Abschluss einer vorherigen warten muss, erlaube ich der Hardware diese Lücken mit Aufgaben aus der Compute-Queue zu füllen.
Ob ich da tatsächlich „nur“ compute oder Rendering in der einen oder anderen Queue betreibe, wobei Rendering im Endeffekt ja auch nur Compute ist, ist egal.
Der einzige Unterschied ist, dass der Entwickler festlegt, was in welcher Reihenfolge geschehen muss, und wo die Reihenfolge egal ist.
Das Ganze gilt aber immer innerhalb eines Frames. FG passiert aber nicht im Scope des Renderings „echter“ Frames. Es kann einerseits immer erst dann ausgeführt werden wenn die beiden „umschließenden“ Frames fertig sind, und andererseits kann immer der nächstfolgende Frame bereits parallel gerendert werden, ich brauche für dafür kein Async Compute, da die Aufgaben unabhängig voneinander sind ist der Ausführungszeitpunkt auf der Hardware egal, und ich brauch kein Async-Compute um der Hardware mitzuteilen dass sie das tun kann.
basix
2025-03-26, 10:08:01
Ach ja? Kein Async Compute? Dann lies dir die FSR3 Doku durch und suche nach "Async" im Text:
https://gpuopen.com/fidelityfx-super-resolution-3/
The Optical Flow and Frame Generation workloads can be either run on the presentation queue provided by the game, or an async queue provided by the FrameInterpolationSwapchain .
Integrating FSR 3 with async compute can help reduce the cost of frame generation by having it scheduled asynchronously.
==========================================
Ich scheine gegenüber FG-Artefakten eh größtenteils ignorant zu sein, SR-Artefakte fallen mir wesentlich mehr auf.
Ist bei mir auch so. Bei FG fällt mir am am ehesten verstärktes Ghosting/Smearing auf, das ist aber abhängig vom Content (z.B. Partikel / Schnee / Regen / wehendes Gras). Auch bei 120+fps
Ach ja? Kein Async Compute? Dann lies dir die FSR3 Doku durch und suche nach "Async" im Text:
https://gpuopen.com/fidelityfx-super-resolution-3/
Sagt ja niemand, dass man kein Async Compute verwenden kann. Der Impact ist nur überschaubar, da FG schon sowieso Async zum Rendering läuft. Dass man einzelne Schritte der FG auch Async machen kann ist ja schön, nur ist schon die gesamte FG ein Schritt, der im Verhältnis zum Rendering sehr wenig Zeit benötigt, selbst wenn Async-Compute die Zeit halbieren würde, wäre der Einfluss auf die Gesamtperformance minimal.
robbitop
2025-03-27, 08:26:27
Bei meiner 3080 bringt AC on vs off via Optiscaler wenn FSR 3 FG läuft gut ~2-3 fps wenn ich in den 100er fps bin (inkl generierter Frames). Also spart es pro Frame ~2-3 ms. Das ist schon was.
Lurtz
2025-03-27, 13:59:49
wYl_csjvN4M
Das sieht fast aus wie der Bug von Preset D bei Kamerastillstand :ugly:
Relex
2025-03-27, 16:07:59
Das ist deutlich schlimmer als D :D
Betrifft aber komischerweise "nur" solche neblingen Abschnitte mit geringem Kontrast.
Wahrscheinlich passt dem neuen Model da irgend was an den Motion Vectors oder dem Exposure nicht.
Oliver_M.D
2025-03-28, 19:01:33
Blöde Frage an die experten, aber was ist euer meinung nach denn aktuell der Stand in Sachen "bestes Modell für X"?
J/K ist scharf, daher nutze ichs gerne für Performance. Aber was wäre ideal für DLAA, oder welches sorgt für die meiste Bildstabilität (AA/Smearing)?
aufkrawall
2025-03-28, 19:15:03
K oder FSR 4. :freak:
Lurtz
2025-03-28, 19:58:57
Der NVCP-Limiter harmoniert doch mit DLSS FG? Oder sorgt der für deutlich höhere Latenzen?
Lurtz
2025-03-31, 10:26:30
Da Reflex immer unterhalb der maximalen Hertz limitiert kann man DLSS FG nicht über der maximalen Refreshrate des Displays laufen lassen, oder?
aufkrawall
2025-03-31, 10:33:26
Es limitiert nur mit VRR + Vsync gleichzeitig.
Shaft
2025-03-31, 13:38:17
Sagt mal, gibt es Irgendwo eine Listung, welches Preset für welches DLSS empfohlen wird?
So wie ich das sehe, gilt nicht unbedingt jedes Setting für jedes Spiel?
Und andere Fragte, wieso kann ich über die NV App nicht jedes Spiel DLSS hinzufügen, da ausgegraut?
Da greife ich auf DLS Swapper oder NvidiaProfile zurück.
Soweit bin ich doch von DLSS 4 sehr beeindruckt. Bin noch am testen, noch nicht alle Spiele durch, aber teils muss ich sagen, von WQHD auf UHD zu scalieren macht keinen Sinn mehr.
Da DLSS 4 schlicht schon in der nativen Hervorragend aussieht.
Relex
2025-03-31, 14:00:24
Die Frage nach den Profilen versteh ich nicht ganz. Wenn du sowieso die dll via DLSS Swapper tauschst, dann hast du ja immer die neueste dll Datei und somit zugriff auf die neuesten Presets.
Da stellt sich doch dann die Frage gar nicht, welche Presets für verschiedene dlss Versionen am besten sind…
Letztendlich bleibt nur Preset E wenn man das alte DLSS3 CNN Model nutzen will oder Preset K, wenn man das neue DLSS4 Transformer Model nutzen will.
Alle anderen Presets sind mMn. obsolet.
Shaft
2025-03-31, 14:50:20
Ahso, na dann vielen dank.
Christopher_Blair
2025-03-31, 17:36:50
Preset F bei DLAA oder Ultra Performance, ist das nicht mehr aktuell?
Einige Spiele stellen dies so noch ein, ich meine sogar cyberpunk und Control nach dem neuesten Update.
robbitop
2025-03-31, 18:21:59
Ich würde vermuten für die meisten ist die globale einmalige Einstellung im nvprofileinspector neuste dll und preset k völlig ausreichend. Es gibt ein paar Spiele wo preset E besser ist. Aber wer keinen Bock auf die Fummelei und den Vergleich hat kann so ganz gut fahren IMO.
Relex
2025-03-31, 19:18:26
Preset F bei DLAA oder Ultra Performance, ist das nicht mehr aktuell?
Einige Spiele stellen dies so noch ein, ich meine sogar cyberpunk und Control nach dem neuesten Update.
Stimmt, wenn man das alte CNN Model nutzen will, dann sollte man für Ultra Performance Preset F nutzen. Die anderen Presets erzeugen je nach Content sonst extremes Kantenflimmern.
Bei DLAA sehe ich aber keinen Grund auf F zu gehen. Es kostet viel zu viel Bildschärfe, was DLAA mit preset F gegenüber DLSS Quality mit Preset E ziemlich sinnfrei macht, weil letzteres meistens besser aussieht.
Aber so oder so würde ich momentan eh immer auf das Transformer Model K gehen.
Hat zwar vereinzelt noch Probleme mit Ghosting (nvidia, macht mal hinne jetzt und gebt uns Preset L !!), aber grundsätzlich ist der Sprung bei der allgemeinen Qualität so enorm, dass ich die alten Presets überhaupt nicht mehr in Erwägung ziehen würde.
Sardaukar.nsn
2025-03-31, 19:50:12
Muss beim nvinspector nicht nach jedem Treiber Update noch mal Hand anlegen? Uch habe bisher Dlss Swapper genommen und fand es sehr komfortabel.
Lurtz
2025-03-31, 20:06:29
SpecialK behaupten sie hätten das Ghosting in AC Shadows gefixt:
It was missing settings for DLSS4 and could not use Transformer Model Preset J or K without ghosting.
https://steamcommunity.com/app/3159330/discussions/0/612032512885050246/?ctp=9#c591767272707658233
Die ganze DLSS-Implementierung ist extrem schlampig, in Streamline wird das Spiel nicht mit dem richtigen App-Namen angesprochen, sondern mit "default-nda".
FG erzeugt auch ständig Doppelbilder nach Alt+Tab in dem Spiel :crazy:
Edit:
Hab nur kurz reingeschaut, würde aber sagen es ist gefixt, K ghostet jetzt massiv weniger bei Vegetation :eek: :up:
Sieht jetzt deutlich schärfer aus als FSR4 ohne die bisher vorhandenen Nachteile (ok etwas schlechtere Disocclusion, aber das ist durch die Schärfe zu verschmerzen wenn die Auflösung nicht zu niedrig wird).
Wenn aufkrawall gerade keine Geforce hat, ist hier echt tote Hose ;D
Relex
2025-03-31, 23:02:20
Also wie vermutet ein Problem des Spiels. Hätte mich auch gewundert. So starkes Ghosting wie bei dem Game hat man sonst nirgends mit Preset K gesehen.
aufkrawall
2025-04-01, 04:41:38
Wenn aufkrawall gerade keine Geforce hat, ist hier echt tote Hose ;D
Iwo, hab das Spiel ja eh nicht. :)
Es sah in deinem Video aber definitiv verdächtig kaputt aus, von daher nicht überraschend.
In Stalker 2 gibts das mehr oder weniger umgekehrt, da sind die Inputs mit FSR 3.1 in-game offenbar für den Hintern, und auch XeSS ist nicht optimal. Mit DLSS Input ist es eindeutig am besten, wobei FSR 4 die Schrott-Vegetation mit der Rausch-AO trotzdem in Bewegung ziemlich vermatscht. Aber DLSS hat da wieder andere Probleme, Reflexionen in Pfützen scheinen damit wesentlich instabiler vs. FSR 4 (und teilweise auch XeSS/TSR) zu werden.
Relex
2025-04-01, 10:08:06
SpecialK behaupten sie hätten das Ghosting in AC Shadows gefixt
Hab nur kurz reingeschaut, würde aber sagen es ist gefixt, K ghostet jetzt massiv weniger bei Vegetation :eek: :up:
Habs jetzt auch mal mit der nightly getestet. Ich sehe keinen Unterschied.
Die Stellen, die vorher deutlich geghostet haben, tun das weiterhin.
Die Bildqualität ist für mich absolut identisch.
In den Releasenotes steht beim DLSS Fix folgendes:
This fix may require local injection if render hook initialization is
too slow; it cannot be fixed if delayed injection is used.
Muss man hier irgendwas beachten?
Lurtz
2025-04-01, 21:48:58
Versuchs nochmal so?
25.4.1 should work, but you may need to reset your config. Worst-case, set AsyncInit=false
Edit:
Ist in der aktuellen Version leider sehr instabil bei mir geworden. Startet teils nicht mal mehr korrekt...
Gibt auch Helligkeitsschwankungen im Bild. Ne, das ist jetzt leider sehr instabil so :(
crux2005
2025-04-02, 23:12:54
Habe nach Spielen gesucht die RR unterstützen und diese Tabelle gefunden:
https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/ (es lässt sich nach RR "yes" filtern)
Keine Ahnung ob das bekannt war aber andere Details sind auch enthalten.
Aktuell Spiele mit RR:
Alan Wake 2
Cyberpunk 2077
Hogwarts Legacy
Indiana Jones and the Great Circle
Marvel's Spider-Man 2
Portal with RTX
Star Wars Outlaws
Sind nicht viele.
Relex
2025-04-03, 06:42:06
Warum hast du jetzt HL2 und Portal ausgelassen?
Aber ja, sind nicht viele.
crux2005
2025-04-03, 23:51:35
Portal habe ich übersehen. HL2 ausgelassen weil es aktuell nur eine Demo ist.
Hakim
2025-04-04, 11:46:51
Bringt das eigentlich was wenn man bei Spielen, WQHD DLSS mit der Qualitäts Einstellung, die Basis Auflösung etwas zu erhöhen? Also von 1706×960 auf 1920x1080 manuell erhöhen wenn die fps mitmachen
Exxtreme
2025-04-04, 11:49:58
Ja, es bringt was. Je mehr Informationen geliefert werden desto besser.
Hakim
2025-04-04, 11:54:07
Ja dachte ich mir auch. Hatte aber die Vorstellung das die Berechnungen evtl auf die vorgegebenen Auflösungen optimiert sind.
Relex
2025-04-04, 12:17:18
Theoretisch bringt es was, praktisch kommst du ganz schnell an diminishing returns, vor allem mit dem Transformer Model.
Da ist es dann oft egal, ob du 50%, 67% oder 90% Auflösung nimmst, das Ergebnis wird nicht unbedingt besser.
Oft kommen die verbleibenden Problemstellen eher daher, dass man grundsätzlich mit weniger als der nativen Auflösung rendert. Wenn DLSS an solchen Stellen versagt, dann versagt DLSS immer, egal ob man 50% oder 90% Auflösung nutzt. Erst bei 100% sieht es dann sauber aus.
Deswegen finde ich den Split eigentlich schon sehr sinnvoll. DLSS Quality, solange es gut genug funktioniert, oder eben direkt DLAA, wenn das Spiel bzw. einige Effekte schlecht mit Upscaling funktionieren. Alles dazwischen kostet nur performance ohne entsprechenden optischen Gegenwert.
crux2005
2025-04-04, 21:02:45
Also ich hätte gerne eine Stufe zwischen Perf. und Ultra Perf. Gerade für 4K Nutzer kann das u.U nützlich sein.
aufkrawall
2025-04-04, 21:10:08
Du kannst doch mit neuen Treibern via App/Inspector den Faktor weitestgehend frei einstellen, oder nicht?
crux2005
2025-04-04, 21:26:50
Du kannst doch mit neuen Treibern via App/Inspector den Faktor weitestgehend frei einstellen, oder nicht?
0,4x nativ ginge mit Inspector. Habe es aber noch nicht probiert.
Relex
2025-04-04, 22:11:23
Wo Problem? =)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92459&stc=1&d=1743797460
Ich hab mal spaßeshalber Chat GPT gefragt, was sich als Stufe unterhalb Performance anbieten würde, wenn man die Abstände zwischen Quality, Balanced und Performance (bezogen auf den Skalierungsfaktor bzw. Pixelmenge) sinnvoll weiterführt.
Ergebnis sind 43% (laut o3 mini) bzw. 43,5 (laut GPT.4o).
Begründung war übrigens, dass es zwischen Balanced und Quality bzw. Balanced und Performance eine Progression des Skalierungsfaktors gibt.
Bei Quality ist es 1,5, bei Balanced 1,72, bei Performance 2,0.
Von einer Stufe zur nächsten sind es also immer Faktor 1,15 bzw. 1,16 des vorherigen Skalierungsfaktores.
1,5 x 1,15 = ~1,72 (~58% = Balanced)
1,725 x 1,16 = ~2,0 (~50% = Performance)
2,0 x 1,15 = ~2,30 (~43%)
Damit würde sich sogar noch eine weitere Stufe anbieten.
2,3 x 1,15 = 2,645 (~38%)
2,645 x 1,15 = 3,04 (~33% = Ultra Performance)
Schon nett, dass die KI das Muster direkt erkennt. Wäre mir auf Anhieb nur auf Basis der Prozentwerte nicht aufgefallen.
crux2005
2025-04-04, 22:55:13
Habe keins. Mit dem neuen Inspector 2.4.0.19 kann ich jede Prozentzahl wählen. Mit der älteren ging es nur in 5% Schritten.
x-force
2025-04-05, 09:13:33
Da ist es dann oft egal, ob du 50%, 67% oder 90% Auflösung nimmst, das Ergebnis wird nicht unbedingt besser.
kein unterschied, ob 50% oder 90% :freak:
belege das mal bitte, es reicht ein einziger screenshot
ich habe bisher noch kein szenario gefunden, das keinen unterschied zwischen q und dlaa zeigt. der unterschied von p zu q war jedes mal ebenso deutlich.
Shaft
2025-04-05, 09:36:00
Wo sich hier mir die frage stellt, was ist der beste kompromiss Leistung und bildqualität?
Wenn ausreixhend fps möglich klar immer DLAA.
basix
2025-04-05, 10:06:50
kein unterschied, ob 50% oder 90% :freak:
belege das mal bitte, es reicht ein einziger screenshot
ich habe bisher noch kein szenario gefunden, das keinen unterschied zwischen q und dlaa zeigt. der unterschied von p zu q war jedes mal ebenso deutlich.
Quality sieht schon besser aus als Performane ;)
Aber Relex hat nicht ganz unrecht. Bei DLSS4 ist der relative Unterschied zwischen P und Q deutlich kleiner geworden. Man sieht es zum Teil nicht auf den ersten Blick anhand z.B. der Unschärfe, weil bei DLSS4 der P-Modus ähnlich scharf und detailliert ist wie Q. Nicht ganz gleich aber erstaunlich nahe dran. P zeigt aber naturgemäss mehr Artefakte und Flickering.
Da ich persönlich hohe FPS mag, tendiere ich seit DLSS4 ziemlich stark zu 4K-P oder 4K-B. 4K-Q nutze ich nur noch selten (meistens wenn fast kein Performance-Benefit von P oder B besteht).
robbitop
2025-04-05, 10:48:28
Wo sich hier mir die frage stellt, was ist der beste kompromiss Leistung und bildqualität?
Wenn ausreixhend fps möglich klar immer DLAA.
Naja theoretisch ist Bewegtbildschärfe auch BQ. Weil sich ja durch den Hold Type Effekt in Bewegung alles zu Matsch verwandelt. Also mehr fps erzeugen (durch kleinere Upsampling presets zB) und Frame Generation kann insgesamt trotzdem zu besserer BQ führen wenn man sich im Spiel auch mal bewegt oder die Kamera bewegt
Platos
2025-04-05, 11:09:34
Das Ding ist halt, dass man im Normfall immer ins Zentrum schaut. Die wenigsten Leute steuern das Blickfeld komplett woanders hin, als sie eig. hinschauen wollen. Normalerweise steuert man immer da hin, wo man hinschauen will und dadurch bleibt man meistens immer in der Mitte und dort ist die Bewegung immer am geringsten, ergo am wenigsten Bewegtunschärfe.
Aber das kommt ein bisschen auch aufs Spiel an. Bei nem Action-Rollenspiel z.B ist das gefühlt 80% des Spiels so. Klar, es gibt Kämpfe usw., aber gerade in Action achtet man da eh nicht mehr sooo sehr drauf.
Aber das ist natürlich alles individuell, wie sehr man auf was achtet. Aber aus diesem Grund habe ich lieber eine höhere Auflösung, als eine höhere Framerate. Zu sagen, dass es ja in Bewegung sowieso matsch ist, stimmt deswegen (ins Zentrum schauen) eben nicht. Vor allem, wenn man mit Controller zockt und nicht wie die Kiddies bei Fortnite mit höchster Mausempfindlichkeit spielt, weils "cool" ist.
Aber darüber kann man ewigs diskutieren. Am Ende ist es individuell und eben nicht irgendwie mathematisch begründbar, da das Visuelle stark mit Wahrnehmung zusammenhängt.
Ich muss aber sagen, dass ich auch sehr gerne BFI einschalte, auch wenns dadurch (bei mir) manchmal etwas flackert. Ich finde, man sollte solche Technologien weiterentwickeln, so dass es auch standart wird, dass man das z.B zusammen mit VRR und Dolby Vision nutzen kann z.B
Die Framerate nativ zu erhöhen ist m.M.n "Bruteforce", in etwa so, wie manche Leute hier sagen, natives Rendern ist blödsinn. Man sollte Technologien fördern, die eben ohne natives Erhöhen der Framerate die Bewegtschärfe erhöhen. BFI ist hier m.M.n zwingend notwendig. Momentan hat es aber bei den meisten Geräten keine Komp. mit VRR.
Im Grunde sollte die native Framerate nur so hoch sein, wie jeder (individuell) für den Inputlag braucht und dab da wird nur noch Bewegtschärfe und/oder Smoothness auf nicht-nativ-Weise erhöht.
The_Invisible
2025-04-05, 11:22:05
Dafür gibt's ja eigentlich gsync Pulsar, keine Ahnung ob's da schon Monitore damit gibt.
Platos
2025-04-05, 11:46:24
Ich meinte natürlich nicht Technologien, die dann nur auf einer Grafikkartenmarke laufen.
Ein Monitor/TV halte ich (wenn ers überlebt) durchaus 10 Jahre. Da will ich nicht auf einen best. Grakahersteller beschränkt sein.
aufkrawall
2025-04-06, 15:38:55
Transformer wie gehabt massiv schärfer und stabiler als CNN, aber auch partiell wesentllich mehr Ghosting und Disocclusion-Aliasing:
jTjeY8xfDhc
robbitop
2025-04-06, 15:47:30
Das Ding ist halt, dass man im Normfall immer ins Zentrum schaut. Die wenigsten Leute steuern das Blickfeld komplett woanders hin, als sie eig. hinschauen wollen. Normalerweise steuert man immer da hin, wo man hinschauen will und dadurch bleibt man meistens immer in der Mitte und dort ist die Bewegung immer am geringsten, ergo am wenigsten Bewegtunschärfe.
Aber das kommt ein bisschen auch aufs Spiel an. Bei nem Action-Rollenspiel z.B ist das gefühlt 80% des Spiels so. Klar, es gibt Kämpfe usw., aber gerade in Action achtet man da eh nicht mehr sooo sehr drauf.
Aber das ist natürlich alles individuell, wie sehr man auf was achtet. Aber aus diesem Grund habe ich lieber eine höhere Auflösung, als eine höhere Framerate. Zu sagen, dass es ja in Bewegung sowieso matsch ist, stimmt deswegen (ins Zentrum schauen) eben nicht. Vor allem, wenn man mit Controller zockt und nicht wie die Kiddies bei Fortnite mit höchster Mausempfindlichkeit spielt, weils "cool" ist.
Aber darüber kann man ewigs diskutieren. Am Ende ist es individuell und eben nicht irgendwie mathematisch begründbar, da das Visuelle stark mit Wahrnehmung zusammenhängt.
Ich muss aber sagen, dass ich auch sehr gerne BFI einschalte, auch wenns dadurch (bei mir) manchmal etwas flackert. Ich finde, man sollte solche Technologien weiterentwickeln, so dass es auch standart wird, dass man das z.B zusammen mit VRR und Dolby Vision nutzen kann z.B
Die Framerate nativ zu erhöhen ist m.M.n "Bruteforce", in etwa so, wie manche Leute hier sagen, natives Rendern ist blödsinn. Man sollte Technologien fördern, die eben ohne natives Erhöhen der Framerate die Bewegtschärfe erhöhen. BFI ist hier m.M.n zwingend notwendig. Momentan hat es aber bei den meisten Geräten keine Komp. mit VRR.
Im Grunde sollte die native Framerate nur so hoch sein, wie jeder (individuell) für den Inputlag braucht und dab da wird nur noch Bewegtschärfe und/oder Smoothness auf nicht-nativ-Weise erhöht.
Frame Generation ist auch nicht schlecht dafür. Und ich könnte mir vorstellen, dass so ein adaptiver Modus wie bei lossless scaling irgendwann auch in FSR und DLSS und XeSS Frame Generation Einzug halten wird. Entsprechend würde man unabhängig von der Inputframerate immer mit maximaler Refreshrate ausgeben.
Allerdings kostet das ordentlich Rechenleistung. Bei Lossless Scaling kann man das eine 2. GPU tun lassen und für sowas bräuchte es dann schon eine GPU der Klasse 4060/ti nur für das FG damit die Input FPS nicht sinkt. Wäre aber ggf ja auch was für AMD/NV/Intel. Anbieten das compute für FG auf einer zweiten GPU laufen zu lassen. Dann kann man wie früher zu SLI Zeiten auch mehr GPUs verkaufen.
Braucht allerdings schon ordentlich PCIe Bandbreite und wenn die Ausgabe der FGs zurück auf die Main GPU gehen sollen wahrscheinlich dann eher PCIe 5.0 wenn man nur 4 lanes für den zweiten slot hat (was bei normalen Plattformen ja schon das Maximum ist).
BFI - egal in welcher Form - hat leider wieder den Nachteil dass es Helligkeit kostet. Und wenn man OLED haben will ist das eher unschön. :)
Troyan
2025-04-06, 16:07:45
Asus hat BFI bei den OLEDs mit >200 NITs bei 100% weiß. Das ist ca. 50 Nits weniger als der ULMB2 Monitor von Asus. Das ist eigentlich schon gut.
Aber BFI bringt nur eine Verdopplung. Strobing bei LCD schafft die 4x Verbesserung.
Relex
2025-04-06, 16:36:32
Transformer wie gehabt massiv schärfer und stabiler als CNN, aber auch partiell wesentllich mehr Ghosting und Disocclusion-Aliasing:
https://youtu.be/jTjeY8xfDhc
Er gibt sich so viel Mühe mit den Vergleichen, aber die Videos haben übelstes Macroblocking z.B. 4:35 sehr deutlich sichtbar. Die Bitrate, die er zur Aufnahme nimmt ist locker um Faktor 10 zu niedrig. Schade.
Ansonsten ja, Ghosting und Disocclusion Probleme sieht man auch in dem Spiel. Aber sehr viel weniger als z.B: bei AC Shadows.
Ich hab das Ghosting bisher zweimal wahrgenommen ohne danach zu suchen.
Die extrem viel höhere Stabilität und das bessere AntiAliasing sowie Bildschärfe fällt aber natürlich durchgehend in jedem Frame auf.
Bin mal gespannt, wann Nvidia aus ihrem Frühlingsschlaf erwachen und mal nen stabilen Treiber mit neuem Preset raushauen. Langsam wirds Zeit...
kein unterschied, ob 50% oder 90% :freak:
belege das mal bitte, es reicht ein einziger screenshot
ich habe bisher noch kein szenario gefunden, das keinen unterschied zwischen q und dlaa zeigt. der unterschied von p zu q war jedes mal ebenso deutlich.
https://i.ibb.co/xdLDqfb/Unbenannt-1.png
https://ibb.co/3Qd7mMb
Fröhliches DLSS-Raten.
Im Jackpot von 5 aus 5 liebt... leider nichts.
Das Ding ist halt, dass man im Normfall immer ins Zentrum schaut. Die wenigsten Leute steuern das Blickfeld komplett woanders hin, als sie eig. hinschauen wollen. Normalerweise steuert man immer da hin, wo man hinschauen will und dadurch bleibt man meistens immer in der Mitte und dort ist die Bewegung immer am geringsten, ergo am wenigsten Bewegtunschärfe.
Freilich schaut man (in einem First Person Game) hauptsächlich in die Mitte, deshalb ist dort aber nicht weniger Bewegung, man sieht sich eben nicht mit den Augen oder Kopf um sondern mit der Maus.
[quote]
Aber das ist natürlich alles individuell, wie sehr man auf was achtet. Aber aus diesem Grund habe ich lieber eine höhere Auflösung, als eine höhere Framerate. Zu sagen, dass es ja in Bewegung sowieso matsch ist, stimmt deswegen (ins Zentrum schauen) eben nicht.
Stimmt schon, die Frage ist wie sehr stört es einen, und achtet man vielleicht eh nur auf kleine Details wenn es gerade wenig/keine Bewegung gibt.
Vor allem, wenn man mit Controller zockt und nicht wie die Kiddies bei Fortnite mit höchster Mausempfindlichkeit spielt, weils "cool" ist.
Keine Ahnung was die Kiddies so machen, aber Zocken die nicht alle Low-Sense weil es ja auch alle Pros so machen?
Aber seis drum, das ändert nichts daran wie viel Bewegung da ist, man sieht sich deshalb ja nicht langsamer um, ob high oder low sense macht nur den Unterschied wie viel man dafür seinen Arm bewegen muss.
Aber darüber kann man ewigs diskutieren. Am Ende ist es individuell und eben nicht irgendwie mathematisch begründbar, da das Visuelle stark mit Wahrnehmung zusammenhängt.
Ob mathematisch keine Ahnung, visuell ist es auf jeden fall objektiv beweisbar:
https://blurbusters.com/massive-upgrade-with-120-vs-480-hz-oled-much-more-visible-than-60-vs-120-hz-even-for-office/
Ich muss aber sagen, dass ich auch sehr gerne BFI einschalte, auch wenns dadurch (bei mir) manchmal etwas flackert.
BFI hilft natürlich mehr oder weniger viel, dafür erzeugt es aber flimmern.
Und je mehr Bildschärfe, desto mehr führt es zu flimmern, um die höchste Bildschärfe zu erreichen muss das Bild nämlich möglichst kurz "eingeschaltet" sein. Das verlängert aber die Schwarzphasen, und je länger diese sind desto stärker wird flimmern wahrnehmbar.
Transformer wie gehabt massiv schärfer und stabiler als CNN, aber auch partiell wesentllich mehr Ghosting und Disocclusion-Aliasing:
https://youtu.be/jTjeY8xfDhc
Zocke es seit der ersten Minute mit DLSS 4 Preset K. Der Schärfeunterschied ist komplett krank, dafür nehme ich ein bisschen Ghosting und Disocclusion-Aliasing gerne in Kauf. In Verbindung mit der Mod die das forcierte Sharpening deaktiviert, sieht das Spiel einfach super schön aus. Bin nach gut 10 Stunden hin und weg :D
aufkrawall
2025-04-07, 16:12:26
Seltsame Gitter-Muster mit Transformer auch in TLOU2:
https://youtu.be/X8QE_hvMtM0?t=410
Hatte DF schon zum Blackwell-Release angesprochen, und Nvidia hat es seitdem immer noch nicht überhaupt anerkannt...
Lurtz
2025-04-07, 16:31:58
Gibts immer wieder mit Transformer. Der Himmel in AC Shadows bekommt auch immer wieder ein Gittermuster.
Langsam wäre es echt mal Zeit für ein Preset L non-beta.
x-force
2025-04-08, 00:48:11
https://i.ibb.co/xdLDqfb/Unbenannt-1.png
https://ibb.co/3Qd7mMb
Fröhliches DLSS-Raten.
Im Jackpot von 5 aus 5 liebt... leider nichts.
danke für die mühe
3 ist am schlechtesten, dann kommt 1.
qed, oder? ;)
wieso überhaupt 5 samples?
Relex
2025-04-08, 02:55:59
1 dürfte DLAA sein, 3 DLSS Ultra Performance und die anderen DLSS Quality, Balanced und Performance. Wobei ich die auf den ersten Blick nicht sicher unterscheiden könnte. Da müsste ich die Bilder schon einzeln ausschneiden und übereinander legen.
redpanther
2025-04-08, 11:08:03
Seltsame Gitter-Muster mit Transformer auch in TLOU2:
https://youtu.be/X8QE_hvMtM0?t=410
Hatte DF schon zum Blackwell-Release angesprochen, und Nvidia hat es seitdem immer noch nicht überhaupt anerkannt...
Gut zu wissen.
Ich spiele grad noch TLOU1 und da ist es exakt genauso!
Ich meine aber nur mit DLSS(K), mit DLAA ist es weg .
Viel mehr habe ich damit nicht experimentiert.
3 ist am schlechtesten, dann kommt 1.
Das war der easy Task, 3 ist Ultra Performance.
Jetzt noch den Rest auflösen.
wieso überhaupt 5 samples?
Je 1x:
UltraPerformance Performance Balanced Quality DLAA
Relex
2025-04-08, 12:08:59
Ist mir bisher tatsächlich noch nirgends aufgefallen.
Junge bin ich froh, dass ich so blind bin. :D
Troyan
2025-04-08, 12:49:27
Gut zu wissen.
Ich spiele grad noch TLOU1 und da ist es exakt genauso!
Ich meine aber nur mit DLSS(K), mit DLAA ist es weg .
Viel mehr habe ich damit nicht experimentiert.
Ich habe festgestellt, dass in TLoU 1 das Transformer-Modell ziemlich gut mit DLAA arbeitet, aber sobald Upscaling genutzt wird, gibt es massives Ghosting.
redpanther
2025-04-08, 12:56:32
Ja, aber CNN hat noch viiiiel mehr Ghosting (zumindest Prof A) was zunächst aktiv war, was dann wohl auch kein Wunder ist :D
Troyan
2025-04-08, 13:03:15
Das Ersetzen ist aber schon cool. Zocke wieder BF2042 und das CNN Model ist richtig scheiße. Aber das Transformer macht aus DLSS astreine Grafik.
Finde generell, dass 1440p mit DLAA und Transformer eine Bildqualität liefert, wo ich eher auf mehr Frames gehe als in 4K mit DLSS Quality zu spielen. 240Hz sind schon nett (vor allem mit OLED), aber >360Hz sind schon eine andere Klasse. Läuft alles auch ziemlich gut mit nVidias MFG.
aufkrawall
2025-04-08, 15:40:07
Ich habe festgestellt, dass in TLoU 1 das Transformer-Modell ziemlich gut mit DLAA arbeitet, aber sobald Upscaling genutzt wird, gibt es massives Ghosting.
DLAA funktioniert in TLOU1 nicht richtig, das gibt bei den Kirchenfenstern von außen betrachtet extremes Ghosting. Mit 99% Auflösung ist das komischerweise weg.
SentinelBorg
2025-04-09, 17:20:44
Zocke es seit der ersten Minute mit DLSS 4 Preset K. Der Schärfeunterschied ist komplett krank, dafür nehme ich ein bisschen Ghosting und Disocclusion-Aliasing gerne in Kauf. In Verbindung mit der Mod die das forcierte Sharpening deaktiviert, sieht das Spiel einfach super schön aus. Bin nach gut 10 Stunden hin und weg :D
Das Sharpening wurde wohl via Game Update jetzt generell reduziert bzw. entfernt.
redpanther
2025-04-09, 17:38:10
DLAA funktioniert in TLOU1 nicht richtig, das gibt bei den Kirchenfenstern von außen betrachtet extremes Ghosting. Mit 99% Auflösung ist das komischerweise weg.
Hmm? Das wäre mir noch nicht aufgefallen. Nur bei Kirchenfenstern? :freak:
Spiele gerade mit DLAA, das sieht für mich jedenfalls am besten aus.
DLSS hat leider erheblich mehr Probleme.
Relex
2025-04-11, 10:11:22
Endlich gibts auch offiziell im SDK das Preset K.
https://github.com/NVIDIA/DLSS/releases/tag/v310.2.1
NVIDIA DLSS SDK 310.2.0 is now available for all developers:
Added Preset K to DLSS Super Resolution.
Added Preset E to DLSS Ray Reconstruction, which adds provision for Depth of Field Guide Buffer in addition to Subsurface Scattering (SSS)
Bug Fixes & Stability Improvements
Für Super Resolution auch neue Empfehlungen:
Preset K
Default preset for DLAA/Perf/Balanced/Quality modes that is transformer based. Best image quality preset at a higher performance cost.
Preset J
Similar to preset K. Preset J might exhibit slightly less ghosting at the cost of extra flickering. Preset K is generally recommended over preset J
Troyan
2025-04-11, 10:45:35
Hmm? Das wäre mir noch nicht aufgefallen. Nur bei Kirchenfenstern? :freak:
Spiele gerade mit DLAA, das sieht für mich jedenfalls am besten aus.
DLSS hat leider erheblich mehr Probleme.
Ich habe festgestellt, wenn man DLSS Quality in der App einstellt, dann funktioniert das ziemlich gut in TLoU 1. Transformer-Modell und In-Game DLSS Quality geht überhaupt nicht.
Lurtz
2025-04-11, 10:51:41
Added Preset E to DLSS Ray Reconstruction
RR hat also doch Presets? :confused:
Relex
2025-04-11, 10:58:25
Jap, aber sind soweit ich weiß erst seit DLSS4 release bekannt bzw. mit den neueren Treibern änderbar.
Bisher ging es von Preset A bis D, wobei ab/mit D das Transformer Model genutzt wird.
RR zeigt im DLSS Debug Overlay aber auch verschiedene Parameter und kryptische bezeichnungen für die Modelle. Seltsamerweise gibts Spiele die das Transformer Model für RR nutzen, aber die Bezeichnung im Overlay passte bisher nicht zu Preset A bis D. Vielleicht war das schon preset E, keine Ahnung.
So wirklich blicke ich bei RR auch nicht durch. Aber D und E sind wohl Transformer.
Exxtreme
2025-04-11, 10:58:53
RR hat also doch Presets? :confused:
Ray Reconstruction ist auch nur TAA + AI-Halluzinationen. :) Von daher ja, kann sein, dass sie auch Presets haben.
Relex
2025-04-11, 11:01:54
Alles was du wahrnimmst ist eine Halluzination deines Gehirns.
Das Bild das deine Augen physisch aufnehmen wäre z.B. auf dem Kopf und eigentlich siehst du mit wahrscheinlich 99% deines Sichtfeldes komplett unscharf. :D
Unser gehirn arbeitet so gesehen auch mit ner Art TAA, wenn deine Augen die Umgebung vor dir scannen und sich das Bild in deinem Kopf zusammensetzt. Kannste dann nur hoffen, dass du bei der Geburt ein gutes Preset erwischt hast ;D
basix
2025-04-11, 11:26:53
Endlich gibts auch offiziell im SDK das Preset K.
Für Super Resolution auch neue Empfehlungen:
Also ist Ultra Performance immer noch CNN?
Relex
2025-04-11, 11:37:04
Nicht zwingend. Kannst ja K für alles nutzen. Den Entwicklern steht das ja völlig frei. Ob sie es vergessen haben in dem Kommentar aufzuführen oder ob es wirklich nicht empfohlen wird kann man da nicht rauslesen.
Slipknot79
2025-04-11, 13:11:14
Der NV inspector (wegen preset K) funzt nicht mit der NvidiaApp die ich gerne für RTX HDR verwende.
Oder gibts eine Möglichkeit für preset K + RTX HDR im selben Spiel?
:mad:
Eigentlich müsste RTX HDR und preset K über den inspector aktivierbar sein? Oo (Habs noch nicht probiert)
Lurtz
2025-04-11, 14:23:05
DLSS Tweaks? Funktioniert ja immer noch zB per Installation nur fürs Spiel mit Injection.
aufkrawall
2025-04-11, 21:07:50
In The First Descendent gabs im Menü mit RR kaputtes bzw. flimmriges DoF. Nun gefixt?
Es soll sich über die Preset-Einstellung für RR wohl etwas an der gemeldeten Gewichtung des Modells im DLSS-HUD ändern. Aber natürlich wieder maximal verwirrend, dass das mit "Preset E" RR-Transformer nun so heißt wie bei SR das letzte CNN-Modell...
Gibt einen Trick, wie man der App die ungefragten Overrides abgewöhnen kann.
Wär allerdings besser, einzusehen, dass RTX HDR einfach nur Dreck durch Clipping und Flicker ist.
aufkrawall
2025-04-12, 22:50:46
In The First Descendent gabs im Menü mit RR kaputtes bzw. flimmriges DoF. Nun gefixt?
Ist es, auch das Flackern des Screen Space-Anteils der VSM. :up:
Müsste allgemein nur noch etwas schärfer sein, ist im Standbild schon deutlich softer als auch FSR 4.
00-Schneider
2025-04-13, 16:17:56
iK4tT9AHIOE
aufkrawall
2025-04-14, 13:03:18
Der "gute", alte (das in der Tat) Bloom-"Bug" von DLSS:
http://youtu.be/cZwqR5v-iNM?t=1992
Da sind andere optische Probleme völlig nachrangig, wenn es im Grunde gleißend helle, riesige Grafikfehler gibt. :freak:
In Aveum ist Preset K trotz Spar-Nanites auch am Limit, Vegetation beim Strafing ist mit FSR 4 (und DLSS Input) stabiler. Bzw. dürfte K mit AO im Gras schon im Menü mehr geflackert haben...
Relex
2025-04-14, 20:08:38
Kannst ja mal Avowed vergleichen. Ich fand, das sah mit Preset K richtig gut aus.
cUTGoDRC9OE
SentinelBorg
2025-04-16, 09:59:45
Ray Reconstruction ist auch nur TAA + AI-Halluzinationen. :) Von daher ja, kann sein, dass sie auch Presets haben.
Korrekt, RR bietet mehrere verschiedene Denoiser zur Wahl an. Bei der letzten Abhandlung die ich gelesen habe waren es zwei, deren Namen mir wieder entfallen sind. Nur dass Cyberpunk den einen und Alan Wake den anderen nutzt und dass es mit den normalen DLSS Presets nichts zu tun hat weiss ich noch.
Ex3cut3r
2025-04-16, 10:35:53
Der "gute", alte (das in der Tat) Bloom-"Bug" von DLSS:
http://youtu.be/cZwqR5v-iNM?t=1992
Da sind andere optische Probleme völlig nachrangig, wenn es im Grunde gleißend helle, riesige Grafikfehler gibt. :freak:
Ähmm ja, kenn ich gibt es auch. Z.B. Früher in CP77. Aber, RE4 hat kein offizielles DLSS je bekommen. Sondern das läuft nur per Mod. Von daher sind solche Bugs natürlich mehr anzutreffen.
EDIT: Das ist glaube ich gar nicht RE4 sondern das Silent Hill Remake?! Sry. :D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.