Archiv verlassen und diese Seite im Standarddesign anzeigen : Frame Generation für jede GPU
DrFreaK666
2024-01-10, 19:20:38
Bin bei PCGH über diesen Artikel gestolpert. Klingt nach AFMF nicht nur für Radeons.
Hat jemand Lossless Scaling und kann es testen?
https://www.pcgameshardware.de/Spiele-Thema-239104/News/Frame-Generation-fuer-alle-LSFG-10-soll-DLSS-und-FSR-Beine-machen-1437817/
Leonidas
2024-01-14, 16:55:29
Uff. Keiner?
DrFreaK666
2024-01-14, 17:02:34
Anscheinend. AMD hat was eigenes und Nvidia-User mögen nur Nvidia-Zeugs, alles andere ist "Müll".
Bleibt noch Intel Arc, aber die Karten sind hier kaum verbreitet
Langlay
2024-01-14, 17:27:25
Anscheinend. AMD hat was eigenes und Nvidia-User mögen nur Nvidia-Zeugs, alles andere ist "Müll".
Ja das wird es sein. Nicht der Fakt das Nvidia FG Müll ist und AFMF von AMD noch größerer Müll.
Schubladendenken at its best.
DrFreaK666
2024-01-14, 17:45:37
Als NV FG eingeführt wurde, haben es Nvidia-User gefeiert. Jetzt gibt es FG für jeden und niemanden juckts.
Welchen Grund soll es dann deiner Meinung nach geben?
Wie dem auch sei: ich denke das Thema kann geschlossen werden
The_Invisible
2024-01-14, 18:02:35
Wie schon im AMD Thread geschrieben: Spielintegriertes FSR3/DLSS3-FG + AntiLag/Reflex ist eine ganze andere Liga als generisches FG irgendwie injiziert.
boxleitnerb
2024-01-14, 18:06:40
Teste es doch selbst statt gleich wieder einen Rückzieher zu machen und den Thread schließen zu wollen. Die Seitenhiebe auf vermeintliche Fanboys kannst du dir sparen - bleibe doch mal sachlich!
Uff. Keiner?
Du glaubst echt, dass das mit derartigen Einschränkungen irgendwen interessiert?
Funktioniert nicht mit VRR, funktioniert nicht im GPU Limit, funktioniert nicht mit Overlays.
Und zu allem Überfluss muss man noch Geld ausgeben um das überhaupt verwenden zu können.
Die Nutzbarkeit von FG ist generell stark eingeschränkt mit jeder aktuell verfügbaren Lösung, mit diesen zusätzlichen Einschränkungen geht die Nutzbarkeit gegen 0.
Die einzige Situation in der das überhaupt irgendwie Sinnvoll sein kann, ist ein Spiel vollständig im CPU-Limit bei dem man gerade mal auf die halbe Refreshrate seines Monitors kommt.
Langlay
2024-01-14, 18:48:22
Als NV FG eingeführt wurde, haben es Nvidia-User gefeiert. Jetzt gibt es FG für jeden und niemanden juckts.
Welchen Grund soll es dann deiner Meinung nach geben?
Ich kann nur für mich sprechen, aber meine Meinung zu FG allgemein hat sich in letzter Zeit nicht geändert.
FSR/DLSS sind imo nice2have. Aber FG ist ein Gimmick wo ich den Sinn dahinter noch nicht ganz sehe. Ich kann halt aus 80 FPS 140FPS machen die sich von der Inputseite (Mausfeeling usw.) anfühlen wie 80 FPS. Ja wow meine Begeisterung kennt keine Grenzen.
Der Post ist von April 2023.
Bevor ich die 4090 hatte, fand ich FG allgemein auch ganz interessant, nach dem ich es erlebt habe, hat sich meine Meinung halt geändert. Und AFMF hat da nichts geändert, schön das es quasi überall läuft, aber dafür ist es halt noch sinnloser als das FG von Nvidia das nur zusammen mit Reflex läuft.
Relex
2024-01-15, 21:25:04
Tja, so unterschiedlich sind die Meinungen.
Ich finde Frame Generation ist das mit großen Abstand beste, was Gaming je passieren konnte und falls AMD und Nvidia es hinbekommen wird das die wahrscheinlich einzige Lösung sein, um 240, 480 oder irgendwann 980 Hz Displays voll auszureizen, wenn man mehr als nur ein Zwischenbild erzeugen kann.
Bisher hatte ich auch kein einziges Spiel wo ich es nicht genutzt habe. Selbst bei 80 oder 90 FPS fühlt sich die doppelte Framerate so viel smoother an. Selbst bei 30 FPS ist es noch brauchbar und ein deutlicher Zugewinn, wenn auch kompromissbehaftet.
Der Gewinn an Schärfe in Bewegung ist in jedem Fall einfach immens.
Und endlich kann man in sehr vielen Spielen auch 150-200 FPS genießen ohne dass die Frametimes aufgrund teilweise einsetzender CPU limits langsam unrund werden. Zumal so hohe Frameraten mit Raytracing eh zunehmen schwieriger geworden sind, nachdem RT auch gehörig auf die CPU performance schlägt.
Der Impact auf die Bildqualität ist generell auch sehr viel geringer, als mit den Upscalern und die Latenz ist dank Reflex kein Problem.
Dealbreaker bei Lossless Scaling ist leider genauso wie bei FSR3 für mich der fehlende/schlechte VRR support. Für mich ist das essenziell, wesshalb ich nichtmal geneigt bin, es auszuprobieren.
Erstrecht nachdem praktisch alle aktuellen Spiele, bei denen mir die Leistung zu knapp sein könnte sowohl Upsacling als auch Frame Generation (notfalls per Mod) unterstützen.
Hätte Starfield noch immer keinen Frame Generation support und gäbe es auch keine Mods dafür, hätte ich das Tool wahrscheinlich ausprobiert.
Im aktuellen Spieleumfeld ist der Nutzen daher wohl stark begrenzt. Für ältere Spiele mit FPS lock oder Emulation oder einfach Spiele mit extremen CPU limits könnte das aber auf jeden Fall interessant sein.
Bisher hatte ich auch kein einziges Spiel wo ich es nicht genutzt habe. Selbst bei 80 oder 90 FPS fühlt sich die doppelte Framerate so viel smoother an. Selbst bei 30 FPS ist es noch brauchbar und ein deutlicher Zugewinn, wenn auch kompromissbehaftet.
Kann ich nicht bestätigen, die doppelte Framerate fühlt sich überhaupt nicht Smoother an, sie sieht definitiv deutlich besser aus.
Bei PortalRTX musste ich FG ausmachen, weil die Basisframerate teilweise auf 50 fällt, und dann fühlt es sich ziemlich beschissen an, und in den Levels in denen man die Portale verschießen muss während man irgendwo runterspringt ist es definitiv wesentlich schwieriger das Timing hinzubekommen.
In Cyberpunk-PT und Immortals fühlt es sich sehr gut an, weil die Basisframerate praktisch immer über 70 liegt und damit die zusätzliche Latenz vernachlässigbar wird, wobei bei Immortals das Problem andersrum ist, das läuft teilweise zu schnell so dass die Framerate über der vom Monitor landet.
Der Gewinn an Schärfe in Bewegung ist in jedem Fall einfach immens.
Ja, der Verlust an Latenz bei niedriger Basisframerate aber auch.
Der Impact auf die Bildqualität ist generell auch sehr viel geringer, als mit den Upscalern und die Latenz ist dank Reflex kein Problem.
Ist sie eben (teilweise) schon, wenn die Latenz ohne FG schon in einem nicht angenehmen Bereich liegt, wird es nur schlimmer. Auch mit Reflex wird diese schlechter.
BlacKi
2024-01-16, 11:12:26
Als NV FG eingeführt wurde, haben es Nvidia-User gefeiert.
FG ist nicht FG. und ich kann mir einfach nicht vorstellen, das die lösung besser ist, als die afmf von amd. und die ist IMHO schon nicht nutzbar.
ich will mir garnicht ausmalen wie schlecht jene ist.
aber hey, wenn du willst kannst du ja tester spielen.
wenn man das auf steam kauft, kann man das doch 2h lang zurück geben.
mir wäre da schon die zeit zu schade für.
Argo Zero
2024-01-16, 11:39:22
Als NV FG eingeführt wurde, haben es Nvidia-User gefeiert. Jetzt gibt es FG für jeden und niemanden juckts.
Welchen Grund soll es dann deiner Meinung nach geben?
So richtig relevant wurde Frame Generation bei mir mit Cyberpunk 2077.
Das neue Ray Tracing fordert halt viel von der Karte und mit Frame Generation kommt man auf sehr angenehme Frameraten.
Das LSFG 1.0 auf wenig Resonanz bisher gestoßen ist liegt vielleicht daran, dass es "Gebastel" ist und nicht direkt im Spiel aktiviert werden kann.
Ich nutze meinen PC mittlerweile wie eine Konsole. Das heißt, einschalten, Spiel paar Settings einstellen und los gehts. Auf Treiber Tweaks, Reshading etc. pp. hbe ich wenig Lust. Am Ende gibts dann noch Fehler, weil das Spiel nicht darauf ausgelegt wurde.
Eigentlich ein Fall für die PCGH das mit gängigen aktuellen Spielen zu testen.
ChaosTM
2024-01-16, 11:50:04
Ohne FG ist 77 in der höchsten Einstellung schlicht und einfach nicht vernünftig spielbar.
Und ja, man kann natürlich die Grafik runter drehen, aber das will ich nicht.
Wozu hab ich eine 1700€ Graka im Rechner stecken.
FG kann grandios sein, natürlich immer abhängig vom Spiel. 77, Avatar im Unobtanium Mode, Witcher 3 und natürlich der Flight Simulator gehören da dazu.
Das Agument bezüglich angeblich stark flackernder HUD bei Avatar ist kompletter Blödsinn, weil sich diese total leicht ausschalten lässt. Braucht kein Mensch.
Und selbst eingeschaltet flackert da fast nichts - in 4k.
Relex
2024-01-16, 13:09:01
Ja, der Verlust an Latenz bei niedriger Basisframerate aber auch.
Die Latenz wird mit FG nur schlechter, wenn du vorher Reflex aktiv hattest - logischerweise.
Im Vergleich zu deaktiviertem Reflex hast du mit FG + Reflex normalerweise keine höhere Latenz. Oft sogar eine etwas bessere.
Finde es immer extrem seltsam, wenn man die Latenz die man mit Reflex ohne FG erreicht immer als mindeststandard für Spielbarkeit definiert. Das ergibt überhaupt keinen Sinn, da vor FG kaum ein Spiel außer ein paar e-sports spiele reflex unterstützt haben.
Außerdem muss man mit AMD und Intel hardware so oder so immer ohne Reflex auskommen.
Zu argumentieren, dass FG (was ja immer reflex aktiv schaltet) also gegenüber Reflex (ohne FG) Latenz kostet ist für mich kein Argument. Zumindest nicht, wenn man damit argumentieren will, dass ein Spiel sich wegen der Latenz mit FG schlecht anfühlt oder es nicht spielbar wäre. Dann wären AMD und Intel GPUs ja generell gar nicht kaufbar und alles darauf unspielbar. Und generell alle Spiele ohne Reflex wären auch unspielbar.
Aber gut, die Diskussion hatten wir mittlerweile eigentlich zu genüge. Muss man jetzt nicht neu durchkauen.
Ich bin jetzt eigentlich auch nicht unempfindlich, was Latenzen betrifft. Ich spüre den Vorteil durch Reflex ohne FG deutlich. Als bei FSR3 in Forspoken die Latenzen bei meiner Nvidia karte schlechter wurden ist mir das auch sehr negativ aufgefallen.
Aber wenn ich mit FG die Latenzen im Bereich dessen bewegen, was ich ohne Reflex und ohne FG bekommen würde, dann ist das einfach ein non-issue.
Cubitus
2024-01-16, 20:24:33
Bei Avatar mit Frame-Genration via Nvidia Mod läufts geschmeidiger als ohne.
Die App-Latancy (das was die APP wirklich als Eingabeverzögerung hat) als auch die Frametime sind besser, des merkst du beim Spielen.
Hab mir eine tolle Szene rausgesucht, Unabtanium 4K--> DLSS Balanced ohne FG absolut im GPU Limit, mit FG wechselst sich diese Szene sogar mit dem CPU Limit ab. :eek:
Unabtanium 4K--> DLSS Balanced ohne FG
https://i.postimg.cc/ZRWK3r6H/20240116-200159.jpg (https://postimg.cc/MM8SJfPf)
Pure-Darks FG Mod
https://i.postimg.cc/26gjxVwD/20240116-200257.jpg (https://postimg.cc/jwQrxqmg)
Mit FG+Reflex
https://i.postimg.cc/6qRWbtjG/20240116-200318.jpg (https://postimg.cc/T5dvpMXR)
Beweis-Bild das auch die CPU bei dieser Szene mit FG limitiert.
https://i.postimg.cc/SRww592y/20240116-200334.jpg (https://postimg.cc/GTx7THxN)
zu Erklärung
GPU-Busy bedeutet die Latenz, mit der die GPU die Frames bereitstellt
je niedriger desto besser. Auswirkungen sind z.b ein CPU-Limit oder eben FG welches intern der Karte Bilder bereitstellt.
Frametime, denke ich sollte klar sein
App-Latancy ist das interessanteste, hier greift Nvidias Reflex, das ist quasi die Latenz mit welcher die App die Eingabe wiedergibt.
Hier misst sich dann auch der Input-Lag.. und die Daten beweisen es laggt gar nix..
Ah ja übrigends der 13600K läuft smooth mit ~40 Watt, das ist ja laut den renommierten Tests gar nicht möglich, Intels saufen einem perse die Steckdose leer ;D
Einen großen Dank geht an Angiesan raus, welcher dieses Overlay mit viel Enthusiasmus und Hirnschmalz zusammengebaut hat :umassa:
Die Latenz wird mit FG nur schlechter, wenn du vorher Reflex aktiv hattest - logischerweise.
Logischerweise habe ich Reflex immer aktiv falls verfügbar, und das ist es mit und ohne FG. Der Vergleich mit Reflex Off ist praxisfern und komplett irrelevant.
Und die Latenz mit FG ist auch nicht notwendigerweise besser als ohne Reflex, manche Spiele zeigen bereits ohne Reflex eine sehr gute Latenz da bringt Reflex kaum was, FG dagegen kostet immer Latenz. Je nach Spiel kann FG besser sein als komplett ohne Reflex aber auch schlechter.
Im Vergleich zu deaktiviertem Reflex hast du mit FG + Reflex normalerweise keine höhere Latenz. Oft sogar eine etwas bessere.
Nachdem Reflex nicht FG voraussetzt wie erwähnt komplett irrelevant.
Finde es immer extrem seltsam, wenn man die Latenz die man mit Reflex ohne FG erreicht immer als mindeststandard für Spielbarkeit definiert.
Es geht um keinen Mindeststandard, es geht darum was das beste Spielerlebnis in einem bestimmten Spiel bringt.
Die Frage ist bringt FG+Reflex insgesamt ein besseres Spielerlebnis als Reflex ohne FG. Und da lautet die Antwort bei niedrigen Base-FPS ganz klar nein, bei mittleren Base-FPS ja und bei hohen Base-FPS (abhängig vom Monitor) wieder nein.
Dass Reflex+FG potentiell ein besseres Spielerlebnis als kein Reflex und kein FG bringen kann ist irrelevant, weil jedes Spiel was FG unterstützt auch Reflex unterstützt und ich damit immer die Wahl habe Reflex mit oder ohne FG.
Wieso sollte ich ein Feature aktivieren, wenn es mein Spielerlebnis verschlechtert?
Hab mir eine tolle Szene rausgesucht, Unabtanium 4K--> DLSS Balanced ohne FG absolut im GPU Limit, mit FG wechselst sich diese Szene sogar mit dem CPU Limit ab. :
Wie soll das gehen? FG reduziert die CPU Abhängigkeit im Spiel. Es halbiert die CPU last vs ohne. FG erhöht die GPU last.
BlacKi
2024-01-17, 00:53:48
@cubi.
FG kann keine echtzeit frames ausgeben. FG laggt !!!immer!!! 1/2 base frame hinterher.
selbst bei 120fps fg on vs 60fps fg off hast du trotzdem höheren inputlag mit fg on. und nichtmal gleichen inputlag, sondern höheren inputlag, weil die gpu 2 bilder braucht um daraus einzwischenbild zu machen.
reflex kann da helfen die baseframes in der latenz zu optimieren, dass der zusätzliche FG lag wegfällt. es kann die echten frames mit fg on nicht sofort ausgeben wie FG off.
FG selbst hat immer zusätzlichen lag.
du kannst lediglich behaupten, der inputlag ist noch akzeptabel für dich. aber schlechter ist es auf jeden fall.
und wenn dann noch reflex im spiel fehlt, wird das ganze recht schnell unspielbar, höchstens bei pervers hohen fps, aber das kostet dann trotzdem rechenleistung, denn FG kostet bei nv rechenleistung.
ps hier wurde das jedermann FG getestet. massive artefakte und trotzdem ruckler. funzt wohl auch nur in FHD?
fz5EPUsQF0Q
Fusion_Power
2024-01-17, 01:13:22
Für ALLE GPU? Das will ich sehen wie man das auf meiner GTX 1050Ti zum laufen bringt. :D Cool wäre es natürlich.
gnomi
2024-01-17, 07:41:15
Habe noch einfache Standards.
120 Herz mit GSync Modul reichen mir.
Annährend 120 fps angetackert. Geil, aber muss bei aktuellen Games nicht sein.
80-120 fps avg. Geht bei vielen aktuellen Games. Man braucht nichts reduzieren. Sehr angenehm.
60 fps. Für herausfordernde Games das Ziel bei den Einstellungen.
40-60 fps. Als Minimum auch noch okay bei außergewöhnlicher Grafik.
Falls ich die 3080TI dann doch mit der 4080 noch tausche, würde ich es aktivieren und auf 60 einstellen.
Ich verspreche mir davon aber keine Revolution. Das ist ein nettes Gimmick.
Erst mit dem nächsten System mit mehr CPU Power und einem besserem Bildschirm und mehr Auflösung und hz wird es interessant.
Zumindest meinen Erfahrungen nach aus Immortals of Aveum.
Es funktioniert mit FSR und FG, aber ich bleibe eben lieber bei DLSS und warte dann, bis ich die nächste nvidia GPU habe.
Auf die 60fps muss ich ohnehin einstellen.
Hier bringt es keinen Vorteil!
Die Technik ist denke ich nicht gehypt, aber nicht jeder hat jetzt sofort 240/480hz Displays und diesen Mega Anspruch.
Das ist so ein bisschen wie beim Smartphone und anderen Geräten mit 90/120hz Support. Schon besser, aber mir wird ja jetzt nicht schwindlig am 60fps Gerät. Wird halt nach und nach neuer Standard.
Und Frame Generation wird auch einfach bei jeder neuen Karte in Verbindung mit Minimum einem Upscaling Verfahren dann genutzt werden können.
Steht und fällt aber mit standardisiertem Support und gutem Upscaling.
Shink
2024-01-17, 09:37:43
ps hier wurde das jedermann FG getestet. massive artefakte und trotzdem ruckler. funzt wohl auch nur in FHD?
Das wär natürlich großartig, wenn man aus "upscaled FHD mit 30fps" 60fps machen könnte auf seiner Laptop-GPU. Aber klarer Weise funktioniert genau so etwas am aller wenigsten.
Cubitus
2024-01-17, 10:14:21
@cubi.
FG kann keine echtzeit frames ausgeben. FG laggt !!!immer!!! 1/2 base frame hinterher.
selbst bei 120fps fg on vs 60fps fg off hast du trotzdem höheren inputlag mit fg on. und nichtmal gleichen inputlag, sondern höheren inputlag, weil die gpu 2 bilder braucht um daraus einzwischenbild zu machen.
reflex kann da helfen die baseframes in der latenz zu optimieren, dass der zusätzliche FG lag wegfällt. es kann die echten frames mit fg on nicht sofort ausgeben wie FG off.
FG selbst hat immer zusätzlichen lag.
du kannst lediglich behaupten, der inputlag ist noch akzeptabel für dich. aber schlechter ist es auf jeden fall.
und wenn dann noch reflex im spiel fehlt, wird das ganze recht schnell unspielbar, höchstens bei pervers hohen fps, aber das kostet dann trotzdem rechenleistung, denn FG kostet bei nv rechenleistung.
ps hier wurde das jedermann FG getestet. massive artefakte und trotzdem ruckler. funzt wohl auch nur in FHD?
https://youtu.be/fz5EPUsQF0Q
FG ist nicht gleich FG:
Bei MP-Shootern kann es schon zu Nachteilen kommen, wenn man einen extra Frame berechnet bekommt, den die anderen Spieler nicht haben.
Bei Avatar ist das aber nicht der Fall, da ist es tatsächlich so, dass sich das ganze Spiel in unabtanium@4k und DLSS balanced relativ langsam anfühlt, was auch die APP-Latency bestätigt.
Dann kommt eben Frame-Generation + Reflex zum Einsatz, in den Tensor Cores wird dann eben das nächste künstliche Bild für die Szene berechnet, der Snowdrop Engine gefällt das anscheinend so gut das sich die App-Latency halbiert, bedeutet also das deine Eingaben auch schneller von der APP verarbeitet werden. und die FPS gehen nach oben, sogar das GPU Limit fällt nun teilweise, und die Karte benötigt mehr Daten von der CPU.
Man kann auch davon ausgehen, dass Nvidia seine Treiber für Avatar trainiert hat, also auch für FG optimiert hat.
Es fühlt sich zumindest besser als AMDs "Lösung" an, und sieht dank DLSS auch besser aus. Es gibt z.b hier kein Flackern in Verbindung mit VRR..
Das Overlay zapft die Daten von Perfmon an, die Datenquelle ist also recht zuverlässig. Wer das Riva-Statistic-Overlay haben möchte,
kann sich gerne per PN an Angiesan wenden. --> das läuft sowohl mit Intel als auch AMD, kommt eben drauf an was ihr so im System habt ;)
Argo Zero
2024-01-17, 10:28:47
Bei MP Shooter macht es auch keinen Sinn mit Ultra Detail zu spielen. Da nimmt man meistens eine Mischung an Einstellungen damit man theoretische Vorteile hat.
Da heißt es Latenz- und FPS targets erreichen und parallel Einstellungen finden für bessere Sichtbarkeit usw.
Ich denke FG wird da nie wirklich zum Einsatz kommen, wenn man einigermaßen ernsthaft MP Shooter spielt.
Cubitus
2024-01-17, 10:38:33
Genau, FG hat in MP Shootern erstmal nichts zu suchen, Reflex aber schon, da es nachweislich die Latenz drückt.
Bzw. ich habe mir das Video lossless Scaling angeschaut.
Es müsste eigentlich useless Scaling heißen ;D
Warum, einfach warum :confused:
Lurtz
2024-01-17, 10:38:42
Für viele meiner Spiele ist nativ integrierte Frame Generation ein Segen. Ich empfinde die steigende Latenz in den meisten Singleplayerspielen als wesentlich weniger schwerwiegend, gegenüber der viel flüssigeren und bewegungsschärferen Darstellung der Frames auf dem Display.
Dabei spiele ich mittlerweile fast alles mit Maus und Tastatur, mit Gamepad würde die Bilanz wahrscheinlich noch positiver für FG ausfallen.
BlacKi
2024-01-17, 10:38:59
Beweis-Bild das auch die CPU bei dieser Szene mit FG limitiert.
https://i.postimg.cc/SRww592y/20240116-200334.jpg
wie kann es sein, das eine cpu ohne FG 57fps bringt und dann mit fg on bei 45 fps(dank fg on 90) im cpu limit sein soll.
das geht nicht.
genauso scheint die app die du da installiert hast bei FG off zuviel app latency zu zeigen. und bei fg on zu wenig.
selbst nvidias folien zeigen mit fg on + reflex schlechteren input lag als fg off ohne reflex. was schon recht unfair ist.
deine folien sollen belegen, das FG den inputlag mehr als halbiert?
Cubitus
2024-01-17, 10:53:40
wie kann es sein, das eine cpu ohne FG 57fps bringt und dann mit fg on bei 45 fps(dank fg on 90) im cpu limit sein soll.
das geht nicht.
genauso scheint die app die du da installiert hast bei FG off zuviel app latency zu zeigen. und bei fg on zu wenig.
selbst nvidias folien zeigen mit fg on + reflex schlechteren input lag als fg off ohne reflex. was schon recht unfair ist.
deine folien sollen belegen, das FG den inputlag mehr als halbiert?
Das mit dem CPU Limit geht schon, natürlich nicht permanent, das wechselt je nach Szene im Sekundenbereich,
aber ohne FG oder DLSS ist die GPU letztendlich dauerhaft mit der Engine beschäftigt.
Plakativ ist es natürlich, wenn man auf 1080p low geht, dann ist man quasi immer im CPU Limit.
Das Overlay beweist, dass sich die Latenz der App mit FG+Reflex halbiert, das betrifft letztendlich auch die Eingaben, das ist auch klar, wenn die App eine geringere Latenz hat,
kann sie auch schneller auf deine Eingaben reagieren.
Vor allem bei Avatar + FG ist das so, bisher konnte ich bei meinen aktuellen Spielen noch keinen so krassen Unterschied in der Applatenz in Verbindung mit FG feststellen.
Wie gesagt, die Datenquelle vom Overlay ist Perfmon, und von Perfmon ist es das System selbst.
Das Overlay macht nichts anderes als die Daten, die ja da sind, anzuzapfen und dann entsprechend darzustellen.
Relex
2024-01-17, 11:17:49
Und da lautet die Antwort bei niedrigen Base-FPS ganz klar nein, bei mittleren Base-FPS ja und bei hohen Base-FPS (abhängig vom Monitor) wieder nein.
Dass Reflex+FG potentiell ein besseres Spielerlebnis als kein Reflex und kein FG bringen kann ist irrelevant, weil jedes Spiel was FG unterstützt auch Reflex unterstützt und ich damit immer die Wahl habe Reflex mit oder ohne FG.
Wieso sollte ich ein Feature aktivieren, wenn es mein Spielerlebnis verschlechtert?
Ja, du versuchst die Diskussion eben wieder richtung "ohne Reflex = unspielbar" zu ziehen und definierst damit Latenz als das Kriterium #1 für Spielbarkeit. Steht halt bei mir, insbesondere bei Singleplayer Games nur an zweiter Stelle.
Klar, wenn für dich Latenzen oberste Prio haben, meinetwegen. Dann ist das so.
Ich sag ja nur, dass man dem ganzen rein logisch nicht den Nutzen absprechen kann, solange die Latenzen im üblichen Rahmen sind oder sogar besser. Das ist der Punkt.
Leute behaupten, die Latezen mit FG lassen das Spiel träge wirken und es wäre dadurch schlecht spielbar, was eben faktisch falsch ist.
Ich sehe im bereich 30-120 FPS daher einen großen Nutzen durch FG.
Natürlich sind 30 FPS auf 60 FPS mit FG nicht optimal. Aber 30 FPS sind es genauso wenig.
Das Spielerlebnis wird aber massiv aufgebessert. 60 FPS mit FG mit der Latenz von 30 FPS ist immernoch spielbar, aber 30 FPS ohne FG sind eine Ruckelorgie, die ich mir nicht geben könnte.
Und letztendlich gibt mir der Hype um FG sowohl bei Nvidia als auch bei AMD mit FSR3 und FMF auch Recht. Die allermeisten Leute brauchen die alleinige Latenzreduktion nicht und sind auch mit den latenzen zufrieden, die bisher gang und gäbe waren. Wenn man jetzt mit Latenzreduktion + FG doppelte FPS bei gleichen oder geringeren latenzen bekommt, dann ist das für die meisten ein großer Zugewinn.
Dass das nicht jeder so sieht ist ja okay. Gibt auch Leute, die mit Low settings in 720p spielen, damit die Latenzen passen. Gibt halt unterschiedliche Prioritäten und auch mal extreme Auswüchse davon.
Hier mal ein paar Daten, die ich selbst rausgemessen habe aus einem älteren Kommentar von mir (die entsprechenden frameraten habe ich durch anpassen des Powerlimits der GPU erzeugt)
Cyberpunk 2077
1440p
60 FPS nativ = 75 ms
60 FPS reflex = 40 ms
100 FPS FG = 50 ms
30 FPS nativ = 150 ms
30 FPS reflex = 60 ms
55 FPS FG = 80 ms
2160p
60 FPS nativ = 75 ms
60 FPS reflex = 40 ms
88 FPS FG = 55 ms
30 FPS nativ = 150 ms
30 FPS reflex = 60 ms
50 FPS FG = 85 ms
Returnal
2160p
30 FPS nativ = 140 ms
30 FPS reflex = 60 ms
45 FPS FG = 85 ms
60 FPS nativ = 70 ms
60 FPS reflex = 30 ms
90 FPS FG = 50 ms
1440p
60 FPS nativ = 70 ms
60 FPS reflex = 35 ms
100 FPS FG = 45 ms
Und hier noch ein Beispiel aus einem Computerbase Test:
https://abload.de/img/screenshot2023-08-0927we1s.png
Also wo ist dieses angebliche Latenzproblem mit FG denn?
Es ist langsamer als Reflex, was ich niemals bestreiten würde, da es auch nicht anders sein kann. Aber dass sich das träge oder schlecht anfühlt, braucht mir wirklich keiner erzählen.
Erstrecht nicht, wenn die Latenz mit FG auch noch besser ist, als nativ.
ChaosTM
2024-01-17, 11:25:34
Beim Flight Simulator geht die Bildrate auf manchen Flughäfen auf an die 30 runter, da das Spiel immer noch hauptsächlich auf einem Kern läuft.
Da ist FG sehr praktisch.
Es kommt zwar bei sehr schnellen Schwenks der Außenkamera zu Artefakten, aber das ist angenehmer als mit 30, oder tw. sogar minimal darunter, herumzugurken.
Optimal ist es natürlich auch nicht..
Exxtreme
2024-01-17, 11:33:54
Also wo ist dieses angebliche Latenzproblem mit FG denn?
Vergleich Nativ + Reflex mit Nativ + FG und schon siehst du das Latenzproblem.
Cubitus
2024-01-17, 11:35:39
Leute behaupten, die Latezen mit FG lassen das Spiel träge wirken und es wäre dadurch schlecht spielbar, was eben faktisch falsch ist.
Genau, und es ist auch mittlerweile nachvollziehbar bzw. adhoc auslesebar :)
Avatar ist so ein Spiel welches mit (NV)FG das eindeutig bessere Spielgefühl abliefert.
Ich sehe im Bereich 30-120 FPS daher einen großen Nutzen durch FG.
Ich sehe im Monitor-Thread, dass Leute von 480Hz - 900Hz "träumen".
Mit welcher HW soll das gehen :freak: Das geht nur mit FG.
Und da würde ich gerne die "bessere" Lösung haben, die auf KI setzt und nicht perse im Spiel implementiert werden muss und dedizierte Einheiten in der GPU verwendet,
um die Leistung und Qualität hoch zu halten und das kann eben aktuell in der Form nur Team Green.
Lurtz
2024-01-17, 11:35:49
Vergleich Nativ + Reflex mit Nativ + FG und schon siehst du das Latenzproblem.
Also haben alle Spiele, die nicht mit nVidia GPU + Reflex gespielt werden können, ein Latenzproblem?
Exxtreme
2024-01-17, 11:39:11
Also haben alle Spiele, die nicht mit nVidia GPU + Reflex gespielt werden können, ein Latenzproblem?
Ähhh, wie kommst du da drauf?
Lurtz
2024-01-17, 11:40:10
Ähhh, wie kommst du da drauf?
Weil dein Argument unter der Annahme keinen Sinn ergibt, merkst du ja jetzt selbst...
BlacKi
2024-01-17, 11:46:02
Das mit dem CPU Limit geht schon, natürlich nicht permanent, das wechselt je nach Szene im Sekundenbereich,
aber ohne FG oder DLSS ist die GPU letztendlich dauerhaft mit der Engine beschäftigt.
tut mir leid. das stimmt nicht. deine eigenen werte widerlegen deine aussagen. deine cpu schafft mindestens 57fps ohn FG und mit FG schafft sie nur noch 45? bei fg on halbiert sich die cpu last und erhöht sich die gpu last.
wieso soll eine cpu unter niedrigerer last (FG on) stärker limitieren als unter mehr last (FG off)?
Exxtreme
2024-01-17, 11:48:01
Weil dein Argument unter der Annahme keinen Sinn ergibt, merkst du ja jetzt selbst...
Wie bitte? Es macht schlicht keinen Sinn "Nativ + FG" mit "Nativ ohne Reflex" zu vergleichen.
Relex
2024-01-17, 11:51:26
Ich vermute das Overlay zeigt "CPU limit" an, weil Reflex die Framerate dynamisch limitiert, so dass die GPU Last immer knapp unter 100% liegt.
Die Tatsache, dass die Latenzen bei 100% GPU Last steigen und unter 100% sinken ist einer der wesentlichen Aspekte, die Reflex zur Latenzreduktion nutzt.
Technisch gesehen hat man mit einem FPS limit eben immer ein "CPU limit". Die Anzeige ist daher genau genommen schon richtig, aber in dem Fall eben anders zu interpretieren, da man unter CPU limit üblicherweise was anderes versteht.
Wie bitte? Es macht schlicht keinen Sinn "Nativ + FG" mit "Nativ ohne Reflex" zu vergleichen.
Warum?
Es geht nicht um das absolute optimum, sondern um die Frage, ob man mit FG ein "Latenzproblem" hat und es dadurch nicht gut spielbar ist. Und da ist es nur richtig, sich einfach mal die Ausgangslage ohne besondere vendorspezifische optimierungen anzusehen. Und da schneidet FG ziemlich gut ab, wenn du mich fragst ;)
Lurtz
2024-01-17, 11:52:54
Wie bitte? Es macht schlicht keinen Sinn "Nativ + FG" mit "Nativ ohne Reflex" zu vergleichen.
Natürlich macht das Sinn, das ist ja genau das Baseline-Setting, in dem ein Großteil der Spiele gespielt wird.
Das ist ja auch genau Relex Argument, dass FG dem gegenüber immer noch eine enorme Verbesserung darstellt.
Wenn du mit FG+Reflex bessere Latenzen als mit Native ohne Reflex, und ein deutlich flüssigeres Bild bekommst, ergibt es keinerlei Sinn, FG+Reflex ein Latenzroblem zu unterstellen.
Langlay
2024-01-17, 11:55:22
Natürlich macht das Sinn, das ist ja genau das Baseline-Setting, in dem ein Großteil der Spiele gespielt wird.
Das ist ja auch genau Relex Argument, dass FG dem gegenüber immer noch eine enorme Verbesserung darstellt.
Da es Nvidia Framegeneration aber nicht ohne Reflex gibt, ist die Baseline da nicht nativ sondern Reflex ohne FG.
In Spielen ohne Reflex gibt es halt auch kein Nvidia Framegeneration. Da ist dann halt friss oder stirb.
Exxtreme
2024-01-17, 11:57:03
Natürlich macht das Sinn, das ist ja genau das Baseline-Setting, in dem ein Großteil der Spiele gespielt wird.
Das ist ja auch genau Relex Argument, dass FG dem gegenüber immer noch eine enorme Verbesserung darstellt.
Ich glaube, du verstehst es immer noch nicht. Jedes Spiel, welches FG unterstützt, hat automatisch Reflex-Unterstützung. Also warum sollte man Reflex deaktiviert lassen wenn man FG deaktiviert? Das macht schlicht keinen Sinn. Man aktiviert Reflex und hat bessere Latenzen als mit FG + Reflex. Und Spiele ohne Reflex haben auch keine FG. Und da stellt sich die Frage überhaupt nicht.
Cubitus
2024-01-17, 11:58:17
tut mir leid. das stimmt nicht. deine eigenen werte widerlegen deine aussagen. deine cpu schafft mindestens 57fps ohn FG und mit FG schafft sie nur noch 45? bei fg on halbiert sich die cpu last und erhöht sich die gpu last. wieso soll eine cpu unter niedrigerer last (FG on) stärker limitieren als unter mehr last (FG off)?
DLSS belastet indirekt auch die CPU, da die GPU schneller rendern kann und Daten will, wenn die interne Auflösung niedriger ist.
Nimm kein so anspruchsvolles Spiel und eine 4090 und stelle DLSS auf Balanced oder Performance, dann kann es schon unter 4K zu nem dauerhaften CPU Limit kommen.
Lurtz
2024-01-17, 12:01:32
Da es Nvidia Framegeneration aber nicht ohne Reflex gibt, ist die Baseline da nicht nativ sondern Reflex ohne FG.
Heißt im Umkehrschluss aber eben auch, dass jedes Spiel ohen Reflex laut euch ein Latenzproblem hat.
Ist das nicht der Fall, ist es kein Problem, sondern einfach nur eine Wahl zwischen zwei Optionen, die beide sinnvoll sein können.
Ich glaube, du verstehst es immer noch nicht. Jedes Spiel, welches FG unterstützt, hat automatisch Reflex-Unterstützung. Also warum sollte man Reflex deaktiviert lassen wenn man FG deaktiviert? Das macht schlicht keinen Sinn. Man aktiviert Reflex und hat bessere Latenzen als mit FG + Reflex. Und Spiele ohne Reflex haben auch keine FG. Und da stellt sich die Frage überhaupt nicht.
Das kann ich direkt zurückgeben.
Nach der verqueren Logik hätten Spiele mit FG plötzlich kein Latenzproblem mehr, würde nVidia Reflex an FG bundeln und ohne nicht aktivierbar machen ;D
Langlay
2024-01-17, 12:07:59
Heißt im Umkehrschluss aber eben auch, dass jedes Spiel ohen Reflex laut euch ein Latenzproblem hat.
Nein, heißt es im Umkehrschluss nicht. Es heisst nur das es ohne Reflex wahrscheinlicher ist das es Latenzprobleme gibt als mit Reflex. Aber es ist keine Garantie es Latenzprobleme gibt.
Wenn das Spiel nativ mit 600FPS läuft wirste trotzdem super Latenz haben, auch ganz ohne Reflex.
DrFreaK666
2024-01-17, 12:09:19
Nein, heißt es im Umkehrschluss nicht...
Für manche heißt es das: "AMD ist Müll weil es kein Reflex gibt"
Langlay
2024-01-17, 12:12:25
Für manche heißt es das: "AMD ist Müll weil es kein Reflex gibt"
Das ist dann das Problem vom manchen. Aber bei AMD gibts es ja Anti-Lag+ was ja quasi das gleiche in rot ist.
BlacKi
2024-01-17, 12:15:30
Natürlich macht das Sinn, das ist ja genau das Baseline-Setting, in dem ein Großteil der Spiele gespielt wird.
Das ist ja auch genau Relex Argument, dass FG dem gegenüber immer noch eine enorme Verbesserung darstellt.
Wenn du mit FG+Reflex bessere Latenzen als mit Native ohne Reflex, und ein deutlich flüssigeres Bild bekommst, ergibt es keinerlei Sinn, FG+Reflex ein Latenzroblem zu unterstellen.
es sind halt 2 diskussionen. ist es spielbar mit FG vs bietet FG die gleiche oder sogar bessere latenz.
und bei hohen fps halte ich es mit reflex für nutzbar, dennoch steigt der inputlag spürbar an. ich habs ja selbst in cyberpunk getestet. man kann schlicht nicht behaupten, es setzt garkeinen lag obendrauf. das ist schlicht die unwahrheit.
Exxtreme
2024-01-17, 12:20:59
Das kann ich direkt zurückgeben.
Nach der verqueren Logik hätten Spiele mit FG plötzlich kein Latenzproblem mehr, würde nVidia Reflex an FG bundeln und ohne nicht aktivierbar machen ;D
Nein, das bedeutet, dass es wahrscheinlicher ist, dass man spürbare Latenzen bekommt bei Spielen ohne/mit deaktivierten Reflex. Mehr nicht.
Aber darum ging es mir nicht. Relex hat Dinge verglichen, die in der Praxis schlicht keinen Sinn machen. Denn jedes Spiel, welches FG unterstützt, hat damit automatisch Reflex-Untersützung. Bzw. sein Vergleich macht nur dann Sinn wenn man zwei verschiedene Spiele vergleicht. Nämlich eins mit FG-Unterstützung und eins ohne FG/Reflex-Untersützung. Aber das hat Computerbase in dem Artikel nicht gemacht. Und Latenzvergleiche von verschiedenen Spielen sind sowieso meist für die Katz da die Engine und der Content grundverschieden sind.
Lurtz
2024-01-17, 12:30:17
Nein, das bedeutet, dass es wahrscheinlicher ist, dass man spürbare Latenzen bekommt bei Spielen ohne/mit deaktivierten Reflex. Mehr nicht.
Aber darum ging es mir nicht. Relex hat Dinge verglichen, die in der Praxis schlicht keinen Sinn machen. Denn jedes Spiel, welches FG unterstützt, hat damit automatisch Reflex-Untersützung. Bzw. sein Vergleich macht nur dann Sinn wenn man zwei verschiedene Spiele vergleicht. Nämlich eins mit FG-Unterstützung und eins ohne FG/Reflex-Untersützung. Aber das hat Computerbase in dem Artikel nicht gemacht. Und Latenzvergleiche von verschiedenen Spielen sind sowieso meist für die Katz da die Engine und der Content grundverschieden sind.
Hat er nicht, er hat genau geschrieben, worum es ihm geht:
und definierst damit Latenz als das Kriterium #1 für Spielbarkeit. Steht halt bei mir, insbesondere bei Singleplayer Games nur an zweiter Stelle.
Ich sag ja nur, dass man dem ganzen rein logisch nicht den Nutzen absprechen kann, solange die Latenzen im üblichen Rahmen sind oder sogar besser. Das ist der Punkt.
Da Reflex keine zusätzlichen Bilder generiert, ist der Vergleich darüber hinaus natürlich zulässig.
Aber das wars jetzt davon auch von mir, keine Lust meine Zeit zu verschwenden, wie jedes Mal wenn du in einer TAA und Upsampling-Diskussion mit deinem TESO-Bild und MSAA ist eh das schärfste kommst.
BlacKi
2024-01-17, 12:32:37
Das ist dann das Problem vom manchen. Aber bei AMD gibts es ja Anti-Lag+ was ja quasi das gleiche in rot ist.also tests belegen, das reflex besser ist. test belegen aber auch, das fps limiter die besseren reflexes/antilags sind. je nach game.
mal davon abgesehen, das antilag+ bei mir nicht vorhanden ist, auch bei games die das angeblich supporten.
Relex
2024-01-17, 12:48:07
hatte auch schon oft die Situation wie in Avatar, dass FG erst nachträglich per Patch oder Mod ins Spiel kommt.
Da ist es einfach in jeder Hinsicht ein großes Upgrade, mit etwas besseren latenzen und gleichzeitig doppelter Framerate zu spielen. Ich könnte bei diesen mods genauso FG aus machen und nur den Reflex Vorteil mitnehmen. Aber ich hab mich ausnahmslos immer für FG + Reflex entschieden.
@Exxtreme
Ich finde es interessant, wie du dem Kern der Diskussion ausweichst und immer davon sprichst, dass es doch mit Reflex alleine noch bessere Latenzen gibt.
Ich weiß nicht, wie oft ich mittlerweile schon geschrieben habe, dass ich dem zustimme. Damit rennst du bei mir eine offene Tür ein und dennoch versuchst du es als Argumentationsgrundlage zu nehmen. Das ist wirklich kurios.
Aber ich wiederhole es gerne nochmal. Ich sehe bei FG+Reflex einfach kein Latenzproblem, wenn ich damit gleiche oder bessere Latenzen habe, als in den meisten anderen Spielen ohne Reflex.
Letztendlich hast du eben die Wahl zwischen sehr guten latenzen mit Reflex und guten bzw. normalerweise üblichen Latenzen jedoch bei doppelter Bildrate.
Dass du Reflex als Option mit der geringsten Latenz als Argument nutzt, um FG Latenzprobleme zu unterstellen ergibt aus meiner Sicht deswegen keinen Sinn, weil ein Problem das ich als solches bemängle nicht von dem im Spiel verfügbaren Optionen abhängt (sprich, wenn Reflex exisitiert, ist die Latenz mit FG ein Problem, wenn es nicht exisitiert, sind die Latenzen ohne Reflex die dann gleich oder schlechter zu FG wären, plötzlich wieder ok - so argumentierst du gerade), sondern von meinem persönlichen Empfinden und das ändert sich nicht plötzlich nur, weil im Spiel andere Optionen verfügbar sind.
Auf Basis dessen argumentieren zu wollen ist echt wild, aber gut... :smile:
Aber wir drehen uns hier wieder im Kreis. Wenn ihr kein FG nutzen wollt, meinetwegen. Die meisten leute wollen es nutzen und es ist eines der Features, das bei neuen Spielen besonders oft nachgefragt wird. Schau dir irgend einen Thread auf beliebigen Seiten zu den Systemanforderungen eines Spiels an. Es dauert nur wenige Kommentare, bis die Frage kommt, ob FG unterstützt wird.
Aber kaum jemand fragt nach Reflex oder nach den Latenzen.
Das ist einfach kein Priothema für die meisten Leute, weil es kaum Latanzeprobleme gibt weder mit FG noch ganz ohne Reflex.
Für die allermeisten Leute fangen Latenzprobleme beim spielen im Vsync limit an. Und da reden wir von Latenzen die vielfach höher sind, als bei Reflex off.
Cubitus
2024-01-17, 13:24:23
Ich vermute das Overlay zeigt "CPU limit" an, weil Reflex die Framerate dynamisch limitiert, so dass die GPU Last immer knapp unter 100% liegt.
Die Tatsache, dass die Latenzen bei 100% GPU Last steigen und unter 100% sinken ist einer der wesentlichen Aspekte, die Reflex zur Latenzreduktion nutzt.
Technisch gesehen hat man mit einem FPS limit eben immer ein "CPU limit". Die Anzeige ist daher genau genommen schon richtig, aber in dem Fall eben anders zu interpretieren, da man unter CPU limit üblicherweise was anderes versteht.
Ich bin mir nicht sicher, ob Reflex sich dynamisch auf der Einstellung "FPS 0" anpasst, vermutlich schon und dann ist es genauso so zu interpretieren, danke :)
Ja, du versuchst die Diskussion eben wieder richtung "ohne Reflex = unspielbar" zu ziehen und definierst damit Latenz als das Kriterium #1 für Spielbarkeit. Steht halt bei mir, insbesondere bei Singleplayer Games nur an zweiter Stelle.
Bist du des lesens mächtig? Ich habe ganz klar geschrieben dass es überhaupt nicht um die absolute Spielbarkeit geht sondern rein um den Vergleich Reflex ohne FG und Reflex mit FG. Da Reflex bei Spielen mit FG immer dabei ist, ist das auch der einzig zulässige Vergleich.
Die einzig relevante Frage ist, fühlt sich das Spiel mit FG oder ohne FG (jeweils natürlich mit Reflex) besser an. Und die Antwort auf diese Frage hängt zwar nicht nur aber sehr stark davon ab wieviele FPS man ohne FG erreichen kann.
Ich sag ja nur, dass man dem ganzen rein logisch nicht den Nutzen absprechen kann, solange die Latenzen im üblichen Rahmen sind oder sogar besser. Das ist der Punkt.
Der einzige Nutzen ist, dass Entwickler durch den Einbau von DLSS3-FG dazu gezwungen werden auch Reflex mit einzubauen, was jeden Vergleich ohne Reflex obsolet macht, wie bereits mehrfach geschrieben.
Leute behaupten, die Latezen mit FG lassen das Spiel träge wirken und es wäre dadurch schlecht spielbar, was eben faktisch falsch ist.
Genauso wie es pauschal falsch ist, dass es nicht so ist.
Ob dem so ist hängt von sehr vielen Faktoren ab unter anderem der "Basislatenz" welche die Gameengine erzeugt, und eben sehr stark von der Framerate welche beeinflusst wieviel zusätzliche Latenz durch FG entsteht.
Ich sehe im bereich 30-120 FPS daher einen großen Nutzen durch FG.
Hängt stark vom Spiel und auch der eigenen Hardware ab. Wenn dein Monitor nur 144Hz hat, ist FG mit 120 FPS sinnlos. Unter 60FPS wird es auch in den meisten interaktiven Spielen sinnlos, vielleicht in sowas wie Flight Simulator, oder auch in Quantum Dream Spielen die mehr interactive movies sind, aber eine generelle Nutzbarkeit ist hier definitiv nicht gegeben.
Natürlich sind 30 FPS auf 60 FPS mit FG nicht optimal. Aber 30 FPS sind es genauso wenig.
30FPS fühlt sich in jedem Fall schlecht an, 30FPS mit FG aber noch viel schlechter. So lange es keine FG gibt die nur mit vergangenen Frames funktioniert wird jede Art der FG mindestens 1x Frametime der berechneten Frames an extra Latenz erzeugen, bei 30FPS Base also mindestens +33ms an Latenz, was einfach inakzeptabel ist.
Das Spielerlebnis wird aber massiv aufgebessert. 60 FPS mit FG mit der Latenz von 30 FPS ist immernoch spielbar, aber 30 FPS ohne FG sind eine Ruckelorgie, die ich mir nicht geben könnte.
Es ist abe rnicht 60FPS mit der Latenz von 30, es ist 60FPS mit deutlich schlechterer Latenz als echte 30.
Wenn man jetzt mit Latenzreduktion + FG doppelte FPS bei gleichen oder geringeren latenzen bekommt, dann ist das für die meisten ein großer Zugewinn.
Dem ist aber nicht so, es sind doppelte (real eher +50-70%) FPS bei deutlich schlechterer Latenz, und je niedriger die FPS umso deutlicher wird der Unterschied.
Hier mal ein paar Daten, die ich selbst rausgemessen habe aus einem älteren Kommentar von mir (die entsprechenden frameraten habe ich durch anpassen des Powerlimits der GPU erzeugt)
Cyberpunk 2077
Wie herausgemessen? Wenn mit Overlay tools kannst du die Werte mal in die Tonne treten.
Und selbst LDAT-Ergebnisse sind irreführend, da diese nicht die echten von den generierten Frames unterscheiden können, und nur auf irgendeine Veränderung reagieren, die auch in den generierten Frames sichtbar sind.
Zu diesem Zeitpunkt ist aber das nächste Frame schon fertig, das übernächste gerade im Rendern und zwischen nächsten und übernächsten wird noch ein generiertes zwischengeschoben. Jegliche Reaktion von dir auf eine Bildänderung in einem generierten Frame, hat also mindestens 4 weitere Frames Verzögerung bis sie sich tatsächlich auf den Gamestate auswirkt.
Heißt im Umkehrschluss aber eben auch, dass jedes Spiel ohen Reflex laut euch ein Latenzproblem hat.
Nicht jedes, aber es gibt sie durchaus. Cyberpunk ist beispielsweise ein Kandidat, der ohne Reflex eigentlich unbrauchbar ist, außer man hat die Hardware die 200FPS+ hergibt.
Cubitus
2024-01-18, 08:54:22
Nicht jedes, aber es gibt sie durchaus. Cyberpunk ist beispielsweise ein Kandidat, der ohne Reflex eigentlich unbrauchbar ist, außer man hat die Hardware die 200FPS+ hergibt.
Quatsch, die Latenz der Anwendung liegt bei Cyberpunk ohne Reflex bei ca. 30-32ms.
Das ist nicht unspielbar wenn ich bedenke das ein Battefield mit 20-25ms rumkrebst, das ist auch nicht unbedingt von den FPS abhängig.
Mit Reflex sind es bei Cyberpunk ca. 25-30ms.
Und mit FG sind es ca ~10-14ms, es läuft auch gefühlt sehr sehr gut mit FG.
Die anderen Grafikeinstellungen spielen dabei keine Rolle.
Quatsch, die Latenz der Anwendung liegt bei Cyberpunk ohne Reflex bei ca. 30-32ms.
Das ist nicht unspielbar wenn ich bedenke das ein Battefield mit 20-25ms rumkrebst, das ist auch nicht unbedingt von den FPS abhängig.
Mit Reflex sind es bei Cyberpunk ca. 25-30ms.
Und mit FG sind es ca ~10-14ms, es läuft auch gefühlt sehr sehr gut mit FG.
Die anderen Grafikeinstellungen spielen dabei keine Rolle.
Keine Ahnung was du da "misst", alleine die Tatsache dass du mit FG deutlich niedrigere Werte hast zeigt dass es nicht die Latenz sein kann.
BlacKi
2024-01-18, 10:43:01
10-14ms oben drauf, ja.
DLSS belastet indirekt auch die CPU, da die GPU schneller rendern kann und Daten will, wenn die interne Auflösung niedriger ist.
Nimm kein so anspruchsvolles Spiel und eine 4090 und stelle DLSS auf Balanced oder Performance, dann kann es schon unter 4K zu nem dauerhaften CPU Limit kommen.
dlss belastet die cpu nur mehr, wenn hinten auch mehr fps rauskommen. FG halbiert die cpu anforderungen. was meinst du warum deine cpu mit fg on so wenig verbraucht?
90fps mit FG sind geringere cpu last als 60fps mit fg off. ziemlich genau 33% weniger cpu last.
Cubitus
2024-01-18, 11:23:05
dlss belastet die cpu nur mehr, wenn hinten auch mehr fps rauskommen. FG halbiert die cpu anforderungen. was meinst du warum deine cpu mit fg on so wenig verbraucht?
Ich weiß genau warum mein 13600K so wenig verbraucht :freak:
Das hat nichts mit der FG zu tun, besonders am Beispiel mit Avatar
sondern damit, dass die 13600K bzw. 14600K eigentlich die beste Spiele CPU aus der Raptorlake Gen ist.
Sparsam und schnell, wenn man ein paar Kleinigkeiten beachtet.
Low-Level Loadine Calibration auf Level 1 und den Takt anpassen, in meinem Fall laufen die 6 P-Kerne mit 5 Ghz und die 8 E-Kerne mit 4.0 Ghz. Damit liegt der Verbrauch bei den meisten Spielen zwischen ~25 und 60 Watt.
Bei Cyberpunk oder Last of US sind es ca. ~80 Watt im Peak, dabei ist meine 13600K auch vom Binning her nicht wirklich gut. Ich kenne auch CPUs die bei gleichen Einstellungen noch 10-15 Watt weniger verbrauchen.
Durch meinen guten Ram bin ich mit diesem Setup so schnell wie ein 13700k.
Das erste Bild ist zudem ohne FG ;)
Unabtanium 4K--> DLSS Balanced ohne FG
https://i.postimg.cc/ZRWK3r6H/20240116-200159.jpg (https://postimg.cc/MM8SJfPf)
Unglaublich, wie sparsam und ausreichend schnell ein Intel sein kann und so gar nicht der Stromfresser ist, wie das Narrativ allgemein heraufbeschworen wird.
Das Narrativ hat diese Generation dem 13-14900K zu verdanken, der wirklich alles in Grund und Boden säuft, aber dieser ist keine Gaming-CPU, sondern eher für Workloads gedacht --> Intel hat das leider nicht verstanden.
Bzgl: DLSS
In meinem Fall bei nativer 4K Auflösung mit Balanced bei Avatar, also eigl mit 2227*1253.
Trotzdem kostet das interne Hochskalieren auf nativ die GPU keine Leistung, verlangt aber von der CPU Nachschub.
Wobei unabtanium wirklich leistungsfressend ist, und es kommt eben die Limitierung von Reflex hinzu was das CPU Limit sozusagen triggert.
10-14ms oben drauf, ja
Nein, es ist wahr, dass die APP Latenz sinkt.
10-14ms als Grundwert. Cyberpunk spielt sich wirklich sehr gut mit FG + Reflex, das ist nicht nur ein Gefühl, das ist faktisch so.
Langlay
2024-01-18, 12:06:42
Nein, es ist wahr, dass die APP Latenz sinkt.
10-14ms als Grundwert. Cyberpunk spielt sich wirklich sehr gut mit FG + Reflex, das ist nicht nur ein Gefühl, das ist faktisch so.
Dann misst dein Tool da einfach Mist.
Cyberpunk RT Ultra 3440x1440 Reflex off
https://i.postimg.cc/B6GQbfwK/2024-01-18-11-59-59-Cyberpunk-2077-C-2020-by-CD-Projekt-RED.png
33-35ms PC Latenz
Cyberpunkt RT Ultra 3440x1440 Reflex on + Boost
https://i.postimg.cc/xCTjM3nf/2024-01-18-12-01-08-Cyberpunk-2077-C-2020-by-CD-Projekt-RED.png
25-28ms PC Latenz
Cyberpunkt RT Ultra + Reflex on + Boost und Framegeneration
https://i.postimg.cc/wjng7Ybk/2024-01-18-12-01-34-Cyberpunk-2077-C-2020-by-CD-Projekt-RED.png
38-44ms PC Latenz
Imo isset technisch auch garnicht möglich das bei FG die Latenz unter der Latenz von Reflex ohne FG liegt.
Die Implementierung von Reflex ist für DLSS 3.0 wichtig, da es gegenüber nativem Rendering (oder auch gegenüber DLSS 2.x, FSR 2.x und XeSS) einen zusätzlichen Frame zurückbehält, um von diesem die KI-generierten Frames abzuleiten
https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Specials/Nvidia-DLSS-3-RTX-4000-First-Test-1404973/2/
BlacKi
2024-01-18, 12:16:39
@langlay
glaubt er halt nicht.
Nein, es ist wahr, dass die APP Latenz sinkt.
10-14ms als Grundwert.
Was soll diese ominöse "App Latenz" sein? Motion2Photon Delay ist entscheidend.
Cyberpunk spielt sich wirklich sehr gut mit FG + Reflex, das ist nicht nur ein Gefühl, das ist faktisch so.
Glaub ich dir sofort... wenn die Framerate vor der FG schon über 60 war.
Argo Zero
2024-01-18, 14:33:14
Als nVidias FG raus kam hatte ich das auch so aufgeschnappt, dass man für FG schon genug Frames haben sollte. Bei unter 60 ist nicht genug Material vorhanden damit das gescheit generiert werden kann.
Relex
2024-01-18, 14:57:14
Dann misst dein Tool da einfach Mist.
Ich glaube auch, dass der Wert nicht stimmt.
Ich denke, das Nvidia Overlay ist halbwegs brauchbar, weil es sehr gut auf Vsync, FPS limiter CPU und GPU limits reagiert und dann auch Werte anzeigt, die ich dementsprechend erwarten würde.
Dass du ohne Reflex geringe Latenzen hast liegt vermutlich daran, dass du teilweise im CPU Limit bist. Im CPU limit sinken die Latenzen eh schon stark, der Einfluss von Reflex ist dort dann auch gering und die zusätzliche Latenz mit FG ist dann eben im Vergleich am schlechtesten.
Hier, so sieht es bei mir im GPU Limit aus.
1440p DLAA Pathtracing bei 35 FPS
Reflex aus 101,4 ms
https://i.postimg.cc/RVcK9H4S/Reflex-off.png
Reflex an 61 ms
https://i.postimg.cc/kXF6LPvD/Reflex-on.png
FG 67,7 ms
https://i.postimg.cc/pTpKtcX4/FG.png
Dann das ganze nochmal mit DLSS Quality bei 60 FPS
Reflex aus 52,6 ms
https://i.postimg.cc/N0QyQJbb/02-Reflex-off.png
Reflex an 39,2 ms
https://i.postimg.cc/vZs76v3x/02-Reflex-on.png
FG 45,8 ms
https://i.postimg.cc/W1grNJVp/02-FG.png
00-Schneider
2024-01-18, 15:16:03
Als nVidias FG raus kam hatte ich das auch so aufgeschnappt, dass man für FG schon genug Frames haben sollte. Bei unter 60 ist nicht genug Material vorhanden damit das gescheit generiert werden kann.
Für Controller sollte man 40fps als Ausgangsbasis, für Maus eher 60fps haben, ansonsten ist es nach Frame Gen zu schwammig.
imho...
Cubitus
2024-01-18, 15:28:19
@Gast oder Krawall :uponder:
Grundlage ist der Befehl msInputLatency von PresentMon.
Frameview, bzw. das Nvidia Performance Overlay verwendet ebenfalls PresentMon als Grundlage, allerdings hält sich Nvidia bedeckt, wie genau die durchschnittliche PC-Latenz berechnet wird.
Allerdings ist es schon so, dass Framegeneration die Formel von PresentMon durcheinander bringt.
Ohne FG sind die Ergebnisse zu Frameview ähnlich. Wobei Frameview doch eine höhere Grundlatenz auswirft.
https://github.com/GameTechDev/PresentMon/issues/129
Es ist dann alles nicht so wirklich einfach. :frown:
Was in dem Overlay aber richtig und korrekt ausgelesen wird, ist GPU-Busy und das CPU-Limit, sofern man das Limit in diversen Szenerien auch korrekt deuten kann.
@Gast oder Krawall :uponder:
Grundlage ist der Befehl msInputLatency von PresentMon.
Also wie erwartet nichts brauchbares. Entscheidend ist wann welches Frame angezeigt wird, nicht wann es fertig ist, und das kannst du nicht per Tool auslesen, sondern nur am Monitor, bzw. noch besser am Videoausgang.
Lurtz
2024-01-19, 09:47:04
https://youtu.be/cOSG6JN9PGU?t=772
Alan Wake 2 hat mit FG und optimierten PT-Settings im Worst Case 100 ms Latenz - laut Richard kein Problem, das ist so viel Latenz wie CP 2077 im Performance Mode auf Konsole - und da hat sich (mit Gampead) ja auch keiner beschwert.
"Latency is kind of relative".
Und ihr streitet hier über 12 ms ;)
MiamiNice
2024-01-19, 10:20:33
So wenig ich auch von FG halte, "Latency is kind of relative" ist einfach falsch. Wem 100ms Latenz nicht stören, der sollte nicht spielen. Er ist auch kein Spieler, sondern einfach nur jemand der seine "Lebenslangeweile" sinnlos füllt.
Was so jemanden stört oder auch nicht, hat keinerlei Relevanz für jemanden der sich mit dem Thema beschäftigt.
Exxtreme
2024-01-19, 10:26:00
Und ihr streitet hier über 12 ms ;)
Wenn ihn 100 ms nicht stören dann will er nicht spielen sondern daddeln. Kann man gerne wollen. Aber so man wird nicht wirklich Maßstab für Spieler. :)
Und 100 ms würden mich arg stören.
ChaosTM
2024-01-19, 10:29:22
Bei schnellen/kompetitiven Ego Shootern stört das sicher. Da schaltet man das auch nicht ein.
Bei 3rd Person Zockerei kaum. Siehe RDR2 etc..
Argo Zero
2024-01-19, 10:37:32
Was hatte RDR2 dann für ne input Latenz? Gefühlt 2 Sekunden. Das kann man echt nur auf der Konsole spielen :D
Exxtreme
2024-01-19, 10:40:50
Bei 3rd Person Zockerei kaum. Siehe RDR2 etc..
Also bei MMORPGs merke ich den Unterschied zwischen 60 und 120 fps relativ deutlich. Die sind auch 3rd person und 60 vs. 120 fps sind 8,33 ms Unterschied.
BlacKi
2024-01-19, 11:09:23
es gibt halt auch echt leute, die merken keinen unterschied zwischen 60 und 120 fps. etc.
ChaosTM
2024-01-19, 11:29:05
Was hatte RDR2 dann für ne input Latenz? Gefühlt 2 Sekunden. Das kann man echt nur auf der Konsole spielen :D
Knapp unter 2 Sekunden. ;)
Ist aber auch am PC gut spielbar finde ich. Ich hab um 1998 herum Online Spiele mit bis zu 500ms Netzlatenz gespielt. Da lernt man das "vorausahnen". ^^
@ 60 vs 120.: Natürlich bevorzuge ich hier auch 120 und dazu braucht man halt oft FG..
Lurtz
2024-01-19, 12:46:48
So wenig ich auch von FG halte, "Latency is kind of relative" ist einfach falsch. Wem 100ms Latenz nicht stören, der sollte nicht spielen. Er ist auch kein Spieler, sondern einfach nur jemand der seine "Lebenslangeweile" sinnlos füllt.
Was so jemanden stört oder auch nicht, hat keinerlei Relevanz für jemanden der sich mit dem Thema beschäftigt.
In jeder Konsolengeneration spielen über 200 Millionen Spieler mit meist noch höheren Latenzen. Deshalb "latency is kind of relative"...
Und ihr streitet hier über 12 ms ;)
Damit es nur +12ms sind, muss die Baseframerate aber schon um die 80 liegen.
In dem Bereich ist FG ja durchaus sinnvoll.
Und es ist eben auch eine Kette von Latenzen, es ist ja nicht jede einzelne Latenz die möglicherweise im vernachlässigbaren Bereich liegt, sondern die Summe an Latenzen die es eben dann nicht mehr ist.
Lehdro
2024-01-19, 13:36:37
In jeder Konsolengeneration spielen über 200 Millionen Spieler mit meist noch höheren Latenzen. Deshalb "latency is kind of relative"...
Weil sie es nicht anders kennen. Ich würde heute Crysis auch nicht mehr mit sub 30 fps spielen wollen, damals war das aber kein Problem.
Am Steamdeck hat mich aber zum Beispiel Witcher 3 mit gelocked 30 fps nicht wirklich gestört. Den Unterschied zum PC habe ich zwar deutlich festgestellt, aber das Gameplay ist eher langsam, weshalb es im Rahmen der Möglichkeiten dann doch ok war. Mit Maus wäre mir das aber nix gewesen, Controller ist dann Pflicht. Need for Speed war/ist auch mit Controller unspielbar träge mit allem unter 60 fps, Gott sei dank hat dass das Steamdeck noch geschafft.
basix
2024-01-19, 13:55:58
AW2 ist ein eher langsames Spiel. Da stört mich die Latenz bei 80-90fps inkl. FG nur wenig bis gar nicht. "Latenz ist relativ" ist also nicht ganz falsch ;)
Relex
2024-01-19, 14:36:38
Ja, wie man die Latenz bewertet hängt eben auch vom Gameplay bzw. vom jeweiligen Spiel ab.
Zumal die Toleranz je nach Spiel auch unterschiedlich ist.
Spürbarkeit und Toleranz sind eben zwei unterschiedliche Dinge.
Selbst wenn ich zwei first Person Spiele habe. Wenn das eine fordert, dass ich Headshots verteile, dann muss die Latenz natürlich möglichst gering sein, sonst klappt das weniger gut. Allerdings ein Spiel das das nicht erfordert, kann ich auch mit höherer Latenz spielen.
Ich würde also den Unterschied merken, es würde aber nicht immer stören.
Es gibt halt genauso viele Spiele bei denen die Latenz egal ist wie Spiele, wo sie nicht egal ist.
RDR2, Death Stranding, Anno, Snow Runner, Talos Principle, Baldurs Gate 3. Was juckt mich da die Latenz?
CS, Doom, Quake, Hollow Knight, LoL, da wirds eben wichtiger.
Sollte doch selbsterklärend sein.
Also bei MMORPGs merke ich den Unterschied zwischen 60 und 120 fps relativ deutlich. Die sind auch 3rd person und 60 vs. 120 fps sind 8,33 ms Unterschied.
Also ich merke es selbst in Windows überdeutlich wenn ich in Onlinegames in der Queue bin und das Spiel auf Fenster umgeschaltet habe, und nebenher durch den Browser scrolle, wenn das Spiel im Menü einen 60fps Limiter hat und damit VRR das Display auf 60Hz stellt.
DrFreaK666
2024-06-02, 00:22:11
t8-9Gv0ZvbE
Lurtz
2024-06-02, 12:34:54
Kein VRR-Support und am besten gelockte Framerate? Klingt wie ein Anwendungsfall für Leute die ihren PC an einem TV hängen und Leistung über haben.
DrFreaK666
2024-06-02, 15:14:48
Auf jeden Fall kann man das Tool ja mal im Auge behalten. Kann nur besser werden
Ne Alternative zum proprietären AMD-FMF im Treiber. Ob man das unbedingt möchte? Eher nicht.
Ein Blindtest sagt alles: :D
XvAowY0I2b0
MfG
Raff
Ich glaube nicht, dass das Tool für mich sehr interessant werden wird. Ich spiele eh nur AAA-Titel und zwar die neuesten, und da ist ja dank Nvidia meistens ohnehin DLSS 3 FG bereits dabei.
Aber wenn man kein DLSS in einem Spiel hat und einem die FSR-Mod zu kompliziert ist mit einer älteren Nvidia-Karte, dann ist das Tool sicher sehr geil!
aufkrawall
2024-06-17, 03:43:21
Kein VRR-Support
Soll wohl ein Nvidia-exklusives Problem sein:
https://forums.developer.nvidia.com/t/fix-vrr-for-overlays-always-on-top-windows/296168
downforze
2024-06-17, 08:14:23
Hat jemand mal kurz ein paar Erklärungen, was:
Super Resolution
Fluid Motion Frames
Radeon Boost
konkret sind. Ich blicke langsam nicht mehr durch, wann was sinnvoll ist und was die Voraussetzungen sind.
][immy
2024-06-17, 08:24:06
Hat jemand mal kurz ein paar Erklärungen, was:
Super Resolution
Fluid Motion Frames
Radeon Boost
konkret sind. Ich blicke langsam nicht mehr durch, wann was sinnvoll ist und was die Voraussetzungen sind.
Super resolution: klassisches downsampling / supersampling. Der Treiber sagt das dein Monitor eine höhere als die native Auflösung fährt. Also kannst du im Spiel höhere Auflösungen wählen, die dann von deiner GPU in der für den Monitor nativen Auflösung weiter gegeben werden.
Fluid motion frames: Zwischenbildberechnung. Zwischen 2 frames wird ein weiterer aus den Ergebnissen der letzten beiden frames berechnet. Schon etwas ausgefeilter als das was einige Monitore als Option bieten, aber im Grunde noch das gleiche. Erhöht den lag etwas, weil das Zwischenbild erst komplett berechnet werden kann, wenn das nächste fertig ist. Dafür sind Bewegungsabläufe etwas flüssiger.
Radeon boost: (korrigiert mich wenn ich falsch liege) war meine ich dynamische Reduzierung der Auflösung, damit das Performance Ziel gehalten wird. Das gilt wohl nur für unterstützte dx11 Titel und in unterstützten dx12 Titeln kann die shading Auflösung angepasst werden um die framerate zu erhöhen.
BlacKi
2024-06-17, 09:56:38
radeon boost reduziert die ausflösung, damit die bewegungen mit der maus flüssiger werden. es soll den fokus darauf haben, bei standbildern und minimalen bewegungen volle auflösungen bei niedrigen fps zu bieten, aber den guten inputlag in bewegungen durch hohe fps zu ermöglichen.
der nutzen ist eher begrenzt, eher für langsame singleplayer spiele geeignet, in kombination mit motionblur, damit man die nachteile nicht bemerkt.
AMD FidelityFX Super Resolution (FSR)
FSR ist eine Upscaling-Technologie, die Spieleleistung verbessert, indem sie niedrigere Auflösungen auf höhere hochskaliert, ohne die Bildqualität wesentlich zu beeinträchtigen.
FSR 1.0: Nutzt räumliches Upscaling, um die Bildrate zu erhöhen.
FSR 2.0: Verwendet temporales Upscaling, das frühere Frames einbezieht, um eine höhere Bildqualität zu erzielen.
AMD Fluid Motion Frames (AFMF)
AFMF glättet das Gameplay, indem es Zwischenframes generiert, was die Bildrate effektiv erhöht. Dies ist besonders nützlich in schnellen Spielszenen, um eine flüssigere Bewegung zu erreichen.
AMD Radeon Boost
Radeon Boost ist eine intelligente Skalierungstechnologie, die die Auflösung während schneller Bewegungen dynamisch reduziert, um höhere Bildraten zu ermöglichen. Die Technologie passt sich in Echtzeit an, sodass der Spieler die Auflösungsreduzierung kaum bemerkt, aber einen signifikanten Leistungsgewinn erfährt.
BlacKi
2024-06-17, 13:10:19
AMD Fluid Motion Frames (AFMF)
AFMF glättet das Gameplay, indem es Zwischenframes generiert, was die Bildrate effektiv erhöht. Dies ist besonders nützlich in schnellen Spielszenen, um eine flüssigere Bewegung zu erreichen.
inwiefern ist das hinzufügen von inputlag besonders nützlich für schnelle spielszenen?
letztendlich erhöht es nur die immersion, falls der rechner zu langsam für echte bilder ist, da eine zu niedrige fps anzahl unangenehm ist, genau wie motion blur, bloß besser. durch inkaufnahme eines zusätzlichen lags.
inwiefern ist das hinzufügen von inputlag besonders nützlich für schnelle spielszenen?
Vor allem wird es bei schnellen Spielszenen automatisch deaktiviert.
BlacKi
2024-06-17, 14:05:15
Vor allem wird es bei schnellen Spielszenen automatisch deaktiviert.ich glaub nur mit radeon boost. denn sonst hätte man nur noch grob die hälfte an fps. das hab ich so nicht erlebt.
downforze
2024-06-18, 11:32:32
Fluid Motion Frames erzeugt immer mehr Latenz. Ich habe es in WRC 2023 getestet. Man kann sich dann über das AMD GUI die Latenz zuschalten. Sobald FMF aktiviert ist, taucht im GUI eine zusätzliche Latenz auf. Die ist nicht ohne. Das Spiel fühlt sich damit nicht besser an, sondern schlechter, auch wenn es flüssiger aussieht.
Danke für die Erklärungen.
ich glaub nur mit radeon boost. denn sonst hätte man nur noch grob die hälfte an fps. das hab ich so nicht erlebt.
Genau umgekehrt, Radeon boost aktiviert sich in Bewegung, AMFM deaktiviert sich wenn 2 Frames zu weit auseinander liegen.
aufkrawall
2024-06-23, 09:01:55
82% Skalierung im GPU-fordernden Wald :cool: :
https://i.ibb.co/mGrNWjg/Screenshot-8.png
https://i.ibb.co/xJg5d8H/Screenshot-9.png
Einfach nur krass, wie unfassbar schlimm ungeglättete 80fps aussehen, wenn man vorher auf geglättete >140 via Uniscaler geguckt hat. Und limitiert die fps unterm Vsync-Limit (vorm FG), fühlt sich dann auch ziemlich direkt an.
Relex
2024-07-04, 16:22:52
69k7ZXLK1to
Übringes auch mit nem kleinen Bildqualitätsvergleich zwischen LS FG, DLSS FG und FSR FG.
BlackBirdSR
2024-07-05, 08:14:01
Was mir bei dieser Betrachtung noch fehlt:
ich spiele meistens im Performance Modus, entweder zweifach oder dreifach, weil ich sonst mit der 5700 XT zu viel Leistung verliere. Ohne Performance Modus merke ich den zusätzlichen input lag stark, im Performance Modus kann ich spiele wie helldivers, 2 oder Deep Rock Galactic problemlos spielen, ohne es zu merken.
https://youtu.be/69k7ZXLK1to
Übringes auch mit nem kleinen Bildqualitätsvergleich zwischen LS FG, DLSS FG und FSR FG.
Platos
2024-07-06, 04:09:53
Schade, Digital Foundry hat das AMD Treiber Framegen nicht mitgetestet. Das wäre doch genau der richtige Vergleich gewesen (neben den anderen beiden).
Gibt es ein Test, wo alle 4 Techniken verglichen werden?
Frame Generation mit X4-Modus für alle Grafikkarten (https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Lossless-Scaling-4x-Frame-Generation-1453147/)
DLSS 4 ist da. Irgendwie. Das sieht sicher ganz fantastisch aus. Sieht man ja schon, wenn man etwa FSR FG mit AFMF "stapelt" ... :ulol:
MfG
Raff
Relex
2024-08-12, 12:47:47
Gestern gabs das Update offiziell.
Toll ist, dass Lossless Scaling jetzt generell edit: nur mit LSFG - mit G-Sync funktioniert. Das war für mich bisher das Ausschlusskriterium.
Ich hab es eben mal in Cyberpunk getestet und na ja, gerade der 4x Modus ist in 4K extrem teuer. Die Basis Framerate geht von z.B. 75 FPS auf 40 FPS runter und wird dann vervierfacht.
Die latenzen steigen entsprechend sehr stark an. Viel stärker als mit DLSS FG.
Damit das also überhaupt latenztechnisch gut spielbar wird, bräuchte man mindestens 100 FPS als basis, da der Algo einfach zu teuer ist. Dann wäre man aber wiederum mit einfachem 2x FG besser bedient, weil man weniger FPS verliert und trotzdem in einen hohen FPS bereich kommt.
Ich finde FG an sich genial, aber für das hier sehe ich momentan kein Nutzungszenario. In 1440p kann das vielleicht etwas anders aussehen.
Und na ja, die Bildqualität.. Ich muss sagen, brauchbar ist es mittlerweile. Aber es geht trotzdem deutlich an Bildschärfe verloren. Der Performancemodus mit schnellerem Algo hingegen ist mMn. komplett unbrauchbar. Viel zu viele Artefakte.
Interessant fand ich, dass DLSS FG in kombination mit LSFG 4x funktioniert. Also es funktioniert komplett ruckelfrei und sieht soweit sauber aus. Das hätte ich nicht erwartet. Nur praktisch bringt es halt nichts. Die FPS steigen im Vergleich zu DLSS FG dann nur noch geringfügig an, die basisframerate bricht ins bodenlose und die Latenzen sind kaum noch spielbar. Aber trotzdem erstaunlich, dass das ohne ruckeln geht.
Letztendlich kommen wir mit aktuellen GPUs, gerade in 4K eben schnell ans Limit. Aktuelle Karten sind zu langsam um in 4K bei hohen Frameraten eine 3x oder 4x FG zu ermöglichen. Kosten/Nutzen gerät dort völlig aus den Fugen.
Das geht alles auf Kosten der Latenz (weil Basisframerate dann sehr gering) und Bildqualität.
2x FG ist imho aktuell das einzig sinnvolle. Für 3x oder 4x braucht es deutlich stärkere Karten oder eben ne High End karte die man bei geringer Auflösung betreibt.
Für mich ist LSFG damit ein guter Showcase der aufzeigt, warum AMD und Nvidia sowas (noch) nicht machen.
Platos
2024-08-13, 11:12:24
Warum verliert man bei offenen FPS überhaupt Frames?
Bei nvidia Framegen z.B verliert man echte Frames, wenn man ein Framelimit hat (z.b 60FPS) und ohne Framegen z.B 45FPS hätte. Dann hat man nur 30FPS, weil man wahrscheinlich dann 60FPS output hat.
Aber warum hat man irgendwelche Verluste, wenn die Framerate offen ist? Dann sollte man doch eig. nie Verluste haben.
BlacKi
2024-08-13, 11:15:34
man verliert echte frames, weil die 2-3 zwischenframes gpu last erzeugen. das geht zulasten der echten frames. dadurch steigt eben die latenz, auch wenn die gesammtanzahl der ausgegebenen bildern steigt. cpu limit mal ausgenommen.
Platos
2024-08-13, 11:21:00
Ok, und wie viel verliert man dadurch üblicherweise so? 10%?
Bei Framegen soll es so sein, dass man unter 4k so ab ~200 echten Frames eher noch Perfomance verliert, als gewinnt. Bei 8k ist es etwa bei 40-50FPS anscheinend.
Also: Ist denn der Perfomanceverlust hier bei LSFG höher bzw. tritt schneller ein? Schliesslich hat man hier eine viel höhere Framegenerierung.
BlacKi
2024-08-13, 12:47:11
über 23% der gpu leistung geht schon bei x2 verloren. allerdings mit seinen settings hier. man kann da ja einiges einstellen und das wird auch einfluss auf die performance haben.
https://youtu.be/XAl2OAklhF4?t=230
x3
kostet 26% gpu leistung.
https://youtu.be/XAl2OAklhF4?t=355
du bekommst also nicht nur zusätzlichen inputlag durch frame gen, weil dort frames zurückgehalten werden, sondern obendrauf inputlag durch die reduzierung der baseframes.
aufkrawall
2024-08-13, 17:04:49
du bekommst also nicht nur zusätzlichen inputlag durch frame gen, weil dort frames zurückgehalten werden, sondern obendrauf inputlag durch die reduzierung der baseframes.
Das ist immer der Fall mit FG, wenn es nicht wirklich ein ganzes Xfaches an mehr fps ist.
Heißt also, DLSS FG führt mit der oft schlechteren Skalierung mehr Input Lag ein als FSR FG. Genauso, wie dann die Fake-Frames mit Artefakten entsprechend länger zu sehen sind.
Relex
2024-08-13, 17:35:09
Theoretisch ja, praktisch ist DLSS FG mit Reflex zumindest auf Nvidia deutlich responsiver als FSR FG trotz schlechterer Performance. Bei FSR FG spüre ich sofort die Latenz. Bei DLSS FG kaum.
Sobald FSR FG zusammen mit AL2 funktioniert bzw. es dann erste richtige Messungen gibt könnte AMD aber im Vorteil sein. Den ein oder anderen patch gabs ja schon. Dann bleibt nur noch die meist bessere Bildqualität die für DLSS FG spricht.
Ansonsten ist es ja offensichtlich, dass die Latenzen besser werden, wenn die Framerate höher ist. Ist auch völlig egal, ob man die "basis" Framerate betrachtet oder die Framerate die man am Ende nach der Frame Generation erreicht.
Es wird ja bei FSR FG und DLSS FG so oder so IMMER und ausnahmslos exakt verdoppelt. Der Algo kann nichts anderes als die Framerate zu verdoppeln. Er kann dir nicht 50 oder 60% mehr FPS generieren, sondern immer exakt das doppelte.
Der unterschied zwischen FSR FG und DLSS FG liegt nicht darin wie viele Frames sie generieren können. Denn das ist gleich (bei beiden 2x). Der Unterschied liegt nur in den Kosten. FSR FG ist meist günstiger zu berechnen und reduziert die Framerate beim aktivieren weniger stark. Deswegen stehen nach Verdoppelung mehr FPS auf dem Schirm.
Ok, und wie viel verliert man dadurch üblicherweise so? 10%?
Bei Framegen soll es so sein, dass man unter 4k so ab ~200 echten Frames eher noch Perfomance verliert, als gewinnt. Bei 8k ist es etwa bei 40-50FPS anscheinend.
Also: Ist denn der Perfomanceverlust hier bei LSFG höher bzw. tritt schneller ein? Schliesslich hat man hier eine viel höhere Framegenerierung.
Ja, LSFG ist zumindest bei mir in 4K auch mit 2x schon teurer als DLSS FG und bei 4X eben noch viel teurer.
Sobald man es aktiviert, fallen die kosten für den Algorithmus an. Die Framerate geht runter. Die dann erreichte Framerate wird dann entsprechend vervielfacht.
Der 4x Modus drückt die Framerate natürlich initial am stärksten, da der algorithmus drei Bilder generieren muss, statt einem beim 2x modus.
Bei steigender (Basis) Framerate wird der Algorithmus natürlich auch immer teurer relativ zum Rest des Spiels. Reduzierst du z.B. die Settings oder nutzt stärkeres Upscaling, kann die Grafikkarte bei gleicher Last mehr Bilder pro Sekunde berechnen. Das sorgt aber dafür, dass die Frame Generation ebenfalls mehr Bilder pro Sekunde generieren muss. Der Algorithmus muss also viel öfter pro Sekunde ausgeführt werden und wird dadurch immer teurer. So teuer, dass er irgendwann mehr Leistung kostet als durch die verdopplung der Frames dazu gewonnen werden. Und schon hast du negative Performance-Skalierung.
aufkrawall
2024-08-13, 17:38:20
Theoretisch ja, praktisch ist DLSS FG mit Reflex zumindest auf Nvidia deutlich responsiver als FSR FG trotz schlechterer Performance. Bei FSR FG spüre ich sofort die Latenz. Bei DLSS FG kaum.
Mit GeForce ist laut CB-Test der Lag mit FSR FG auch höher als mit Radeon, und das schon ohne Anti-Lag.
Relex
2024-08-13, 17:50:32
Ja, deswegen sag ich ja. Auf nvidia. Da ist FSR FG einfach nicht das Wahre, obwohl es dort schneller läuft als DLSS FG.
Auf AMD schaut das natürlich besser aus. Da läuft FSR FG nochmal schneller als auf GeForce und mit AL2 wird man gegenüber Reflex wahrscheinlich keinen Nachteil mehr haben.
Die höhere Performance kann sich dann erstmals auch in entsprechend niedrigeren Latenzen zeigen (gegenüber Nvidia).
In den Tests wird also FSR FG mit AL2 am Ende höhere Frameraten und sehr wahrscheinlich bessere Latenzen zeigen als auf GeForce. Nur verursacht dadurch, dass der DLSS FG algo teurer ist und mehr performance kostet.
Nvidia darf da ruhig nachbessern. Gerne auch den Algo optimieren. Wahrscheinlich wird man das aber mit RTX5000 einfach mit entsprechend schnellerer Hardware und OFA erschlagen und dann nen 3x Modus oder so bringen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.