Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4
blaidd
2025-03-04, 14:47:59
Wollt ihr mal sehen, was passiert, wenn irgendein falsches Material in irgendeinem Buffer rumfliegt, der benötigt wird, um mittels einer Frame Generation ein Zwischenbild zu erzeugen?
So. Der schwebende Monstermund tritt NUR in einem EINZELNEN FG-Frame auf. Nirgendwo sonst.
(Motion Vector Buffer, would be my guess... the others don't make much sense.)
Allerdings sowohl mit FSR-FG als auch DLSS-FG.
Das hier ist FSR 3 Performance mit FSR 3 FG.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91824&stc=1&d=1741096028
Das hier ist DLSS 3 Performance mit DLSS 3 FG.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=91825&stc=1&d=1741096028
Gibt noch einen Fall, deshalb bin ich da überhaupt drauf gestoßen. Aber dazu kann ich nix sagen ;)
(AMD und Nvidia verrechnen die volumetrischen Wolken allerdings offenkundig in unterschiedlicher Reihenfolge. Aber vielleicht ja auch nur in Monster Hunter. Sowas ist mir bisher jedenfalls noch nicht bewusst untergekommen^^)
(Höchstens, dass mir DAS auch noch nie untergekommen ist^^)
Troyan
2025-03-04, 21:16:23
Spiele gerade Spider-Man 2 mit forcierten MFG und V-Sync durch den Treiber. Was ich nirgendwo gelesen habe: nVidia drittel bzw. viertel die Frames, so dass man mit MFG immer im Reflex-Limit bei G-Sync landet. Bei meinen 160Hz ist das Limit bei ca. 155Hz und mit 3x liegen maximal nativ 51 FPS und bei 4x nativ 38 FPS an.
Wird echt Zeit, dass auch in 4K die Monitore nachziehen. 240Hz ist hier schonmal gut, so dass man nativ 60 FPS haben kann.
Muss sagen, dass es selbst MFG selbst mit 38 und drei zusätzlichen Bildern vernünftig funktioniert. Jedenfalls erheblich besser als wenn man mit 38 FPS rumzappeln möchte...
blaidd
2025-03-04, 22:38:21
Spiele gerade Spider-Man 2 mit forcierten MFG und V-Sync durch den Treiber. Was ich nirgendwo gelesen habe: nVidia drittel bzw. viertel die Frames, so dass man mit MFG immer im Reflex-Limit bei G-Sync landet. Bei meinen 160Hz ist das Limit bei ca. 155Hz und mit 3x liegen maximal nativ 51 FPS und bei 4x nativ 38 FPS an.
Wird echt Zeit, dass auch in 4K die Monitore nachziehen. 240Hz ist hier schonmal gut, so dass man nativ 60 FPS haben kann.
Muss sagen, dass es selbst MFG selbst mit 38 und drei zusätzlichen Bildern vernünftig funktioniert. Jedenfalls erheblich besser als wenn man mit 38 FPS rumzappeln möchte...
Jo. Du brauchst Hertz. Sonst funktioniert das erst gar nicht richtig.
(Außer, man will Leistung sparen. Dann kann man mit "Nichtvollberecheten Frames" natürlich auch so potenziell "optimieren")
Troyan
2025-03-06, 08:41:37
Also was ich feststellen konnte, dass G-Sync + V-Sync + (M)FG bei Blackwell kaputt ist. Das ruckelt sich einen ab, unglaublich. Ohne V-Sync funktioniert alles, wie es soll, aber bei meinem 4K 160Hz Monitor läuft man dann jedoch ins Tearing...
Bin jetzt mal günstig an den Asus PG27AQN mit 360Hz rangekommen. Und hier funktioniert MFG viel besser. Cyberpunk beendet, in 1440p mit Pathtracing und locker über 200 FPS zu spielen, ist schon pure Freude.
Man kann MFG auch in anderen Spielen wie Robocop erzwingen. In Kombination mit gelockten 360Hz und ULMB2 ist das eine Bewegtbildschärfe, die schon sehr nah an CRT rankommt. Sieht einfach astrein aus. Die paar Fehler sind dagegen komplett zu vernachlässigen. Da das neue FG auch mit ~90% skaliert, kann man mit einer 5090 fast immer irgendwas zwischen 240 und 360 FPS schaffen.
Das ruckelt sich einen ab, unglaublich. Ohne V-Sync funktioniert alles, wie es soll, aber bei meinem 4K 160Hz Monitor läuft man dann jedoch ins Tearing...
MFG ist auch nicht für 160Hz sondern für 360Hz+ Monitore.
Hier noch ein Closeup aus dem Trace, nur die SR & RR Phase.
Wow, das sieht ja cool aus (y), wie machst Du das?
Troyan
2025-03-06, 11:39:38
MFG ist auch nicht für 160Hz sondern für 360Hz+ Monitore.
Die 160Hz sind nicht das Problem. Es funktioniert einfach nicht mit V-Sync. Damit läuft man immer ins Tearing. Latenz ist belanglos, wenn man ca. 60 FPS erreicht.
Relex
2025-03-06, 12:31:28
Würde mich sehr wundern, wenn MFG nicht mit Vsync funktioniert.
Kann das sonst noch jemand bestätigen? Mit 2x FG funktioniert das weiterhin völlig problemlos auf Ada, auch wenn man ins Vsync Limit kommt (z.B. max 116 FPS durch das automatische Reflex cap bei 120 Hz)
Badesalz
2025-03-06, 12:47:36
DLSS4 ist in Avowed sehr beeindruckend und schlägt im Performance Modus TAA und TSR native deutlich.Ein YT-Video. SUPER :uup:
aufkrawall
2025-03-06, 12:54:27
Wer in dem YT-Video nicht das krasse Ghosting von FSR 3.1 oder die üblen Jitter-Pattern von TSR erkennt, muss sich über Upsampler-Qualität erst gar keine Gedanken machen.
Badesalz
2025-03-06, 13:15:38
Alles vor FSR4 ist nun in nur wenigen Wochen komplett tot. Man sollte sich damit langsam arrangieren. Später wird es den meisten sogar zu schlecht gewesen sein, um sich daran nur zu erinnern ;) Nettgemeinte erste Gehversuche. Bis 3.1 hin.
Wenn man eh schon DLSS4 in der Hand hält und das mit before-FSR4 vergleichen möchte, ist wie mit einem Kindergartenkindern Handdrücken machen wollen. Für BEIDE Seiten peinlich :ulol:
Die 160Hz sind nicht das Problem. Es funktioniert einfach nicht mit V-Sync. Damit läuft man immer ins Tearing. Latenz ist belanglos, wenn man ca. 60 FPS erreicht.
Man verwendet das auch nicht mit V-Sync, sondern mit G-Sync(Compatibel) und natürlich mit einem Monitor mit dem man dauerhaft im G-Sync-Bereich bleibt.
Exxtreme
2025-03-06, 13:24:30
Man verwendet das auch nicht mit V-Sync, sondern mit G-Sync(Compatibel) und natürlich mit einem Monitor mit dem man dauerhaft im G-Sync-Bereich bleibt.
MFG ist wohl noch ziemlich Beta. Im Nvidia-Forum gibt es recht viele Leute, die sich darüber beschweren, dass die Spiele sehr oft einen Crash hinlegen wenn man es aktiviert. Und es betrifft auch Vorzeigetitel ala Cyberpunk2077.
Alles vor FSR4 ist nun in nur wenigen Wochen komplett tot.
Für 80% der User ist alles außerhalb von DLSS4 schon seit einiger Zeit tot, mit dem Zwischenschritt FSR4 müssen die sich nicht abgeben, den kaum jemand überhaupt verwenden kann.
Troyan
2025-03-06, 13:27:12
Man verwendet das auch nicht mit V-Sync, sondern mit G-Sync(Compatibel) und natürlich mit einem Monitor mit dem man dauerhaft im G-Sync-Bereich bleibt.
Man nutzt V-Sync natürlich auch bei G-Sync, um immer im Sync-Bereich zu bleiben. Mit Reflex cappt der Treiber ja bei 5% oder so unter dem oberen Limit. Das führt aber mit 4x MFG zu massiven Ruckeln, was nicht existiert, wenn V-Sync aus ist aber G-Sync weiter an.
Badesalz
2025-03-06, 13:33:20
Für 80% der User ist alles außerhalb von DLSS4 schon seit einiger Zeit tot, mit dem Zwischenschritt FSR4 müssen die sich nicht abgeben, den kaum jemand überhaupt verwenden kann.Bist du schon betrunken? Wozu sollte man das auch tun?
Entspann dich. Intel lag auch mal bei 80%...
MFG ist wohl noch ziemlich Beta. Im Nvidia-Forum gibt es recht viele Leute, die sich darüber beschweren, dass die Spiele sehr oft einen Crash hinlegen wenn man es aktiviert.
Das betrifft nicht nur MFG, auch das alte FG auf Lovelace hat immer wieder Crashes erzeugt, so dass Entwickler es teilweise deaktivierten bis sie die Crashes gelöst haben.
Mit Reflex cappt der Treiber ja bei 5% oder so unter dem oberen Limit. Das führt aber mit 4x MFG zu massiven Ruckeln, was nicht existiert, wenn V-Sync aus ist aber G-Sync weiter an.
Logisch, wenn du mit V-Sync die FPS unter der Refreshrate kappst alternierst du immer 1 Frame 2 Refreshcycles und 1 Frame 1 Refreshcycle. Wobei FG dann möglicherweise auch noch die Frames falsch positioniert.
Bist du schon betrunken? Wozu sollte man das auch tun?
Ähm nein, du?
Entspann dich. Intel lag auch mal bei 80%...
Ja und? Jeder mit einer RTX-Karte kann DLSS4 nutzen, und davon gibt es eine Menge.
Niemand der keine RDNA4-Karte hat kann aktuell FSR4 nutzen, und bis RDNA4 (+Nachfolger) eine nennenswerte Verbreitung haben werden wird es in jedem Fall noch sehr lange dauern.
Bis eine 2-Stellige Prozentzahl an Spielern überhaupt FSR4 nutzen kann werden noch Jahre ins Land ziehen, und alle anderen haben von FSR4 nichts, und für diejenigen sind andere Upscaler sehrwohl noch lange relevant.
Es ist höchst zweifelhaft ob FSR4-fähige Hardware jemals DLSS4-fähige übersteigen wird, in diesem Jahrzehnt aber sicher nicht mehr.
robbitop
2025-03-06, 15:24:33
Das Bessere ist des Guten Feind. Aber dennoch muss man konstatieren, dass FSR4 ein gewaltiger Sprung war und die riesen Lücke deutlich verkleinert hat. Das kann man auch mal anerkennen. Nvidia liegt natürlich noch vorn.
Das größte Problem ist die Verbreitung von HW und SW (Spiele in denen FSR3.1 wenigstens implementiert ist). Aber hier kann man sich ja mit dem Optiscaler behelfen.
Ich kann das undifferenzierte Bashing von RDNA4 / FSR4 nicht nachvollziehen. AMD hat alle Kritikpunkte deutlich verbessert und bietet nun auch HW zu einem viel besseren Preis als Nvidia. Ja auch in Punch pro Transistor und in reiner RT/PT Performance liegt man transistor- oder transistornormiert noch vorn. Aber insgesamt hat sich der Abstand deutlich verkürzt und es ist endlich mal eine brauchbare Alternative.
Und das obwohl die RTG nur ein Bruchteil der Ressourcen von Nvidias Geforce Gruppe hat. Ich finde das kann man auch mal würdigen und man kann Kritik auch differenziert anbringen - denn die benannten Probleme sind ja nicht falsch. Aber die Formulierung lässt es aussehen, als wenn AMD da nichts Gutes abgeliefert hat. Sämtliche Reviewer waren positiv beeindruckt und haben das von AMD nicht erwartet.
Das Bessere ist des Guten Feind. Aber dennoch muss man konstatieren, dass FSR4 ein gewaltiger Sprung war und die riesen Lücke deutlich verkleinert hat. Das kann man auch mal anerkennen. Nvidia liegt natürlich noch vorn.
Das größte Problem ist die Verbreitung von HW und SW (Spiele in denen FSR3.1 wenigstens implementiert ist). Aber hier kann man sich ja mit dem Optiscaler behelfen.
Ich kann das undifferenzierte Bashing von RDNA4 / FSR4 nicht nachvollziehen. AMD hat alle Kritikpunkte deutlich verbessert und bietet nun auch HW zu einem viel besseren Preis als Nvidia. Ja auch in Punch pro Transistor und in reiner RT/PT Performance liegt man transistor- oder transistornormiert noch vorn. Aber insgesamt hat sich der Abstand deutlich verkürzt und es ist endlich mal eine brauchbare Alternative.
Und das obwohl die RTG nur ein Bruchteil der Ressourcen von Nvidias Geforce Gruppe hat. Ich finde das kann man auch mal würdigen und man kann Kritik auch differenziert anbringen - denn die benannten Probleme sind ja nicht falsch. Aber die Formulierung lässt es aussehen, als wenn AMD da nichts Gutes abgeliefert hat. Sämtliche Reviewer waren positiv beeindruckt und haben das von AMD nicht erwartet.
Wenn es etwas Gutes hat, dass Upscaling Benchmarks wieder gerechter werden, jahrelang wurde alles auf Auflösung heruntergebrochen, ohne dass die Qualität und FT Kosten vergleichbar. AMD ist leider paar Jahre zu spät, Innovationen haben andere gefeiert!
Das Bessere ist des Guten Feind. Aber dennoch muss man konstatieren, dass FSR4 ein gewaltiger Sprung war und die riesen Lücke deutlich verkleinert hat.
Ist es auf jeden Fall, und zwar sowohl bei Hard- als auch bei Software.
Was allerdings bleibt, AMD-Karten müssen sich weiter mit einer Leistungskategorie niedriger von NV-Karten herumschlagen, was wohl auch für AMD überraschend war. Kaum jemand hätte gedacht dass Nvidia mit Version 4 vom "ausoptimierten" DLSS noch mal so zulegen kann.
Das größte Problem ist die Verbreitung von HW und SW (Spiele in denen FSR3.1 wenigstens implementiert ist). Aber hier kann man sich ja mit dem Optiscaler behelfen.
Das Hauptproblem ist die fehlende Hardware, selbst wenn AMD ab morgen für 2 Jahre 70:30 bei den Verkaufszahlen vorne liegen würde, hätte man immer noch einen Bruchteil der Verbreitung von RTX-Karten.
Ich kann das undifferenzierte Bashing von RDNA4 / FSR4 nicht nachvollziehen.
Volle Zustimmung, die Lobhudelei, dass FSR-Latest nun mit DLSS-Latest mitziehen kann aber genauso wenig.
AMD hat alle Kritikpunkte deutlich verbessert und bietet nun auch HW zu einem viel besseren Preis als Nvidia. Ja auch in Punch pro Transistor und in reiner RT/PT Performance liegt man transistor- oder transistornormiert noch vorn. Aber insgesamt hat sich der Abstand deutlich verkürzt und es ist endlich mal eine brauchbare Alternative.
Naja, aktuell ist NV gar keine alternative, da nicht verfügbar. Gut für AMD, vor allem wenn es länger dauert.
Wie es bei "normaler" Verfügbarkeit auf beiden Seiten aussieht werden wir erst sehen.
Wenn es etwas Gutes hat, dass Upscaling Benchmarks wieder gerechter werden, jahrelang wurde alles auf Auflösung heruntergebrochen, ohne dass die Qualität und FT Kosten vergleichbar.
Glaube ich kaum. Wenn man weiter stur nach gleicher Renderauflösung vergleicht, müsste man FSR4 vs. DLSS3 testen, was natürlich komplett Praxisfremd ist, da DLSS4 bei gleicher Performance schöner bzw. bei gleicher Qualität schneller ist.
Im Endeffekt bekommt Nvidia für die Verbesserungen von DLSS4 eins auf den Deckel, man verliert Performance gegenüber CNN ohne von der besseren Qualität zu profitieren.
Badesalz
2025-03-06, 18:27:49
Das größte Problem ist die Verbreitung von HW und SW (Spiele in denen FSR3.1 wenigstens implementiert ist). Aber hier kann man sich ja mit dem Optiscaler behelfen.Ich bin der Meinung das hat man selten implementiert, weil das noch so schlecht war, daß man oft keinen Sinn und Mehrwert für die Kundschaft darin sah :rolleyes: Das könnte sich mit bzw. für FSR4-Q schlagartig drehen.
AMD ist leider paar Jahre zu spät, Innovationen haben andere gefeiert!NV macht schon mehrere Jahre nacheinander mehr Gewinn als AMD insgesamt seit Opteron machte. Das erwarte ich vom derartigen Primus. Wo liegt das Prob?
Was ich aber auch erwarte ist, daß es auch Gaming für Normalogamer macht. Das gibt es nur leider, bei mehr Umsatz als viele Länder BSP haben, aktuell nicht mehr. Daher ist das schon ok, daß AMD sich genau da platziert und sich drum bemüht, daß Zocken am PC kein elitäres Vergnügen wird.
Keine Ahnung warum du jetzt bei jedem Post mit dem Füßschen stampfen musst :| Einfach mal zurück zum Topic my Friend. Im Topic steht nichts über FSR. Keine Ahnung wer das hier immer anschleppt. Ich schätze Leute mit einer AMD-Graka eher nicht oder?
Glaube ich kaum. Wenn man weiter stur nach gleicher Renderauflösung vergleicht, müsste man FSR4 vs. DLSS3 testen, was natürlich komplett Praxisfremd ist, da DLSS4 bei gleicher Performance schöner bzw. bei gleicher Qualität schneller ist.
Im Endeffekt bekommt Nvidia für die Verbesserungen von DLSS4 eins auf den Deckel, man verliert Performance gegenüber CNN ohne von der besseren Qualität zu profitieren.
Gerechter also vorher zumindest, drücken wir es erstmal so aus. Die Kluft würde noch größer wenn man Frame Generation mit einbeziehen würde. Die Faulheit der Redaktionen kennt da bekanntlich keine Grenzen...
basix
2025-03-07, 10:25:33
[...], die Lobhudelei, dass FSR-Latest nun mit DLSS-Latest mitziehen kann aber genauso wenig.
Wo gibt es das? Alle sagen, dass FSR4 die letzte DLSS3 Iteration leicht übertrifft aber DLSS4 nicht ganz erreicht. Zumindest nicht in allen Bereichen (primär Bildschärfe).
Im Endeffekt bekommt Nvidia für die Verbesserungen von DLSS4 eins auf den Deckel, man verliert Performance gegenüber CNN ohne von der besseren Qualität zu profitieren.
Armes Nvidia :rolleyes:
DLSS4 wird überall sehr gelobt und stark hervorgehoben. Reviewer promoten DLSS4 deutlich mehr als es Nvidia selbst tut (die promoten primär MFG).
Die Kluft würde noch größer wenn man Frame Generation mit einbeziehen würde.
Würde ich jetzt nicht sagen, bei FG liegen die unterschiedlichen Lösungen viel näher beinander als mit SR.
DLSS4 wird überall sehr gelobt und stark hervorgehoben. Reviewer promoten DLSS4 deutlich mehr als es Nvidia selbst tut (die promoten primär MFG).
Ähm ja überall, wie z.B. bei Computerbase die behaupten DLSS4 ist außer in Situationen in denen DLSS3 versagt eh quasi nicht besser.
Die einzigen die DLSS4 die Aufmerksamkeit geben die es verdient sind HU und DF. Quasi überall sonst ist DLSS4 in den Reviews ein kleines Beiwerk ohne große Aufmerksamkeit, oder wie bei CB schrammt es schon an einer Lüge.
Dass NVidia viel lieber MFG promotet ist klar, sie brauchen ja ihren USP für Blackwell, und nachdem DLSS4 abseits von MFG auf jeder RTX lauffähig ist, will man logischerweise nicht viele Worte darüber verlieren, ansonsten erkennen die ganzen RTX-Besitzer vielleicht noch dass sie Blackwell gar nicht brauchen.
robbitop
2025-03-07, 11:25:38
Würde ich jetzt nicht sagen, bei FG liegen die unterschiedlichen Lösungen viel näher beinander als mit SR.
Würde ich auch so sehen. Gab neulich ein Video dazu - wo habe ich vergessen. War aber einer der großen. Kann DF gewesen sein. Das schlechte SR mit FSR 3.1 (wurde in Horizon gezeigt) schaukelt sich mit dem Framegeneration total auf und sieht dann furchtbar aus. Mit FSR 4 SR hingegen ist es viel besser.
Ich nutze hier mittels Optiscaler DLSS4 (K) + FSR3.1 FG + Reflex und muss sagen, dass die Frame Generation wirklich gut ist. Die von DLSS ist ggf nochmal etwas besser. Aber wie du sagst war das Hauptproblem das schlechte SR was sich auch auf die generierten Frames auswirkte.
basix
2025-03-07, 11:50:40
Ähm ja überall, wie z.B. bei Computerbase die behaupten DLSS4 ist außer in Situationen in denen DLSS3 versagt eh quasi nicht besser.
Ich kann aus eigener Erfahrung sagen: Diese Fälle gibt es. Sehr feine Geometrie ist teilweise nicht stabiler oder besser anti-aliased.
Nicht in allen Spielen und jedem Content. Aber vorhanden sind diese Fälle definitiv.
aufkrawall
2025-03-07, 12:01:08
Mich nervt dieses Getue etwas, dass DLSS 4 so perfekt wäre.
DLSS Transformer hat immer noch seltsame Gitter-Artefakte in manchen Fällen, und es ist außerdem sehr schlecht gegen Rausch-Artefakte diverser Effekte. Die SSR in Witcher 3 rauschen deutlich mehr damit, und dann gibts noch Extremfälle wie das:
https://youtu.be/QeB8-X8qmzE?t=113
Und ggf. funktioniert FSR 4 deutlich besser mit Nanite-Disocclusion. Gleichzeitig bleibt RR Nische, weil Nvidia das nicht richtig pusht...
Bloom-Explosion auf Wasser in Hogwarts ohne RR btw. auch imho komplett unverändert.
Lurtz
2025-03-07, 12:16:18
Mich nervt dieses Getue etwas, dass DLSS 4 so perfekt wäre.
Dürfte vor allem von der erhöhten Schärfe (bei sehr gutem Kanten-AA) kommen (dass FSR4 da so nah ran kommt, ist stark). Die restlichen Bereiche sind gleich geblieben oder fallen ab gegenüber E.
UE5 kann je nach Content richtig hässlich sein mit Preset K. Das ist angesichts der abzusehenden Verbreitung ein Problem, wenn RR nicht die Lösung dafür sein soll.
aufkrawall
2025-03-07, 12:22:01
Wenn ichs jetzt ganz unsachlich platt sagen soll, würd ich Transformer-SR (nicht RR) als Fehlentwicklung bezeichnen, wenn die nachfolgenden Presets die Schwächen nicht deutlich angehen.
Wieso bringt man jetzt eine Technik, die wesentlich schlechter mit RT-Artefakten o.ä. und Nanite-Disocclusion umgehen kann? :confused:
Einfach mal komplett die Realität diverser Spiele mit modernem Rendering ignoriert. In meinen Fortnite-Screenshots hatte ich auch lieber Preset E genutzt, weil überall RT-Brösel-Artefakte mit K übrig geblieben waren...
Zumal FSR 4 offenbar auch nicht gerade zum Smearing neigt. Aber davon überzeuge ich mich dann doch lieber erst noch selbst. :biggrin:
Lurtz
2025-03-07, 12:30:58
Die Entwicklung war da leider falsch rum. K ist perfekt für Spiele mit genügsamerem Content, für komplexeren Content bräuchte man eigentlich ein weiterentwickeltes E :ugly:
robbitop
2025-03-07, 12:49:41
Mal eine Frage: Bei DLSS RR sagt der NV Inspector gibt es 4x Models. A, B, C und D. Welches davon ist das beste? Bei SR ist es klar -> K. Aber bei RR gibts nur A-D.
Würde ich jetzt nicht sagen, bei FG liegen die unterschiedlichen Lösungen viel näher beinander als mit SR.
Doch sehr deutlich sogar! Handling von Schatten und allgemein mehr Jitter in Bewegung. Auch hat AMDs FG starke Reprojektionsartefakte an Bildschirmrändern.
In neusten Games sieht es für AMDs FG Lösung auch nicht so gut aus...
https://www.dsogaming.com/articles/marvels-spider-man-2-dlss-4-multi-frame-gen-benchmarks/
Troyan
2025-03-07, 22:26:32
Okay, also ich kann hier mit einer 5090 sagen:
G-Sync mit V-Sync und MFG führt zu massiven Stuttering. Kein Plan, ob das mit dem neuen Metering von Blackwell zusammenhängt, aber ich kann beides nicht verwenden.
Forciere ich MFG außerhalb eines Spiels, dann ist es mit G-Sync unbrauchbar. Haufenweise Artefakte. Wenn ich jedoch ohne G-Sync Spiele, funktioniert es astrein. Zocke so Spider-Man 2 und Robocop.
Also da muss noch einiges von nVidia repariert werden. So finde ich MFG ziemlich schwierig.
Optisch ist es mit einem High-Speed Monitor und in Kombination mit Backlight Strobing fantastisch.
basix
2025-03-07, 23:29:03
Mal eine Frage: Bei DLSS RR sagt der NV Inspector gibt es 4x Models. A, B, C und D. Welches davon ist das beste? Bei SR ist es klar -> K. Aber bei RR gibts nur A-D.
D ist laut Doku definitiv ein Transformer Modell. Bei den anderen könnten es noch CNN Modelle sein.
robbitop
2025-03-08, 07:24:27
Doch sehr deutlich sogar! Handling von Schatten und allgemein mehr Jitter in Bewegung. Auch hat AMDs FG starke Reprojektionsartefakte an Bildschirmrändern.
In neusten Games sieht es für AMDs FG Lösung auch nicht so gut aus...
https://www.dsogaming.com/articles/marvels-spider-man-2-dlss-4-multi-frame-gen-benchmarks/
Dort wurde für SR aber kein FSR4 sondern FSR3.1 genutzt - und wenn es schon in den gerenderten Bildern Artefakte gibt verstärken diese sich in den generierten umso mehr. Solche Tests sind nur sinnvoll wenn man die BQ von FG beurteilen will wenn ein ordentliches SR (also entweder FSR4 oder DLSS4 K oder DLSS 3.8 E mittels Optiscaler) als Basis benutzt wird.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.