PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24

DrFreaK666
2024-03-20, 10:05:21
Könnte es sich durch DirectSR bessern?

robbitop
2024-03-20, 10:46:39
DirectSR ist auch nicht großartig anders als Streamline von Nvidia. Einfach eine standardisierte Schnittstelle für die Inputs die diese Verfahrensart braucht. Nach meinem Verständnis sind es aber eher Dinge, die in der existierenden Renderpipeline eines Spieles die sich je nach Verfahren nicht so toll mit manch einem der Verfahren vertragen. Was beachtet werden muss, steht in den jeweiligen Guidelines. Das wird aber nicht immer allumfassend befolgt. Eine der Ursachen kann sein, dass sich diese Dinge in der Renderpipeline dann nicht so einfach ändern lassen ohne umfassende Änderungen an dieser durchzuführen.

dargo
2024-03-20, 10:54:37
Mir geht diese "These" nicht aus dem Kopf warum angeblich Geforces schlechter mit FSR3 + FG abschneiden als Radeons. Könnte das eventuell damit zusammen hängen, dass Spiele zwei verschiedene Renderpfade für die jeweiligen IHVs verwenden? AMD wird einen Teufel tun und Manpower zu DEVs schicken um den Geforcepfad zu optimieren. Nur so eine wilde Idee. Feedback zu Intel FSR3 + FG vs. Radeon gabs noch nicht oder?

Exxtreme
2024-03-20, 11:04:09
Selbst Intel hat mit XeSS ein bessers/moderneres Upsampling
Wenn man starkes Ghosting nicht sieht dann kann man Xess als besser empfinden, ja. :)

robbitop
2024-03-20, 11:22:46
Mir geht diese "These" nicht aus dem Kopf warum angeblich Geforces schlechter mit FSR3 + FG abschneiden als Radeons. Könnte das eventuell damit zusammen hängen, dass Spiele zwei verschiedene Renderpfade für die jeweiligen IHVs verwenden? AMD wird einen Teufel tun und Manpower zu DEVs schicken um den Geforcepfad zu optimieren. Nur so eine wilde Idee. Feedback zu Intel FSR3 + FG vs. Radeon gabs noch nicht oder?
Aber ist das wirklich der Fall? IIRC hatte Alex von DF es zuletzt sowohl mit einer Geforce als auch mit einer Radeon probiert und kam auf die gleichen Ergebnisse.

Wenn man starkes Ghosting nicht sieht dann kann man Xess als besser empfinden, ja. :)
Es kommt wahrscheinlich auch stark darauf an ob die XMX oder die dp4a Variante gemeint ist.

dargo
2024-03-20, 11:26:57
Aber ist das wirklich der Fall? IIRC hatte Alex von DF es zuletzt sowohl mit einer Geforce als auch mit einer Radeon probiert und kam auf die gleichen Ergebnisse.

Keine Ahnung... vielleicht auch etwas vom Bias des jeweiligen Testers abhängig. ;D

robbitop
2024-03-20, 12:01:44
Also so wie ich FSR3 verstehe ist das einfach HLSL code der per compute ausgeführt wird. Dazwischen hängt ja dann noch die Grafik API und der Treiber um das dann in GPU Instruktionen zu übersetzen. Das sollte eigentlich keinen Unterschied ausmachen, welche GPU das ist, solange sie kompatibel ist.

Slipknot79
2024-03-20, 12:05:27
Raff, komm raus und teste mal DLDSR 2,25x mit XeSS, DLSS (+FG) und FSR (+FG).
Was sind deine Erkenntnisse? (y) :redface:

Gast
2024-03-20, 13:05:03
Mir geht diese "These" nicht aus dem Kopf warum angeblich Geforces schlechter mit FSR3 + FG abschneiden als Radeons. Könnte das eventuell damit zusammen hängen, dass Spiele zwei verschiedene Renderpfade für die jeweiligen IHVs verwenden?


Eher hat AMD ihren Shadercompiler auf FSR optimiert, und Nvidia sieht dafür keinerlei Veranlassung.

robbitop
2024-03-20, 13:09:41
Bei Framegeneration kann das gut sein. IIRC hatte CB(?) das Performancescaling bei hohen Frameraten gemessen und RDNA3 hat hier relativ gesehen mehr fps Steigerungen bei hohen fps Werten herausgeholt (was bedeutet, dass die Berechnungsdauer in ms kürzer ist). Das gilt aber auch ggü DLSS3 FG. AMDs FG ist auch auch Geforces "günstiger" (in ms) als DLSS FG. Aber am günstigsten ist es auf RDNA3. Entsprechend macht die Vermutung mit dem Shadercompiler Sinn.

Achill
2024-03-20, 13:20:49
Also so wie ich FSR3 verstehe ist das einfach HLSL code der per compute ausgeführt wird. Dazwischen hängt ja dann noch die Grafik API und der Treiber um das dann in GPU Instruktionen zu übersetzen. Das sollte eigentlich keinen Unterschied ausmachen, welche GPU das ist, solange sie kompatibel ist.

Stimmt so nicht, da passiert deutlich mehr und ist auch so offiziell im Integration-Guide von AMD aufgeführt. Konkret geht es um die Punkte 2 und 3 auf der Folie 9 im entsprechenden PDF: https://gpuopen.com/presentations/2023/AMD_FidelityFX_Super_Resolution_3-Overview_and_Integration.pdf#page=9


[..]

Step 2 - Swapchain
• Replace or create your swap chain using FrameInterpolationSwapChain
- Implementing IDXGISwapChain interface
- Handling frame generation, frame pacing and present
• This will internally create
- CPU threads for frame pacing calculations and real present/UI callbacks
- A GPU queue to handle presents and another for interpolation

Step 3 – Frame Generation
• FSR 3 frame generation requires some additional input on setup and dispatch, and swapchain handling.
- Start off with Async disabled to validate integration quality.

[..]


Damit können alle Teile (OS, Treiber, Spiel, andere Software), welche die Threads stören bzw. Tools welche an Thread-Priorität oder CPU Core Affinität etwas ändern, entsprechend neg. Auswirkungen haben. Die zeigt auch, dass GPUs mit ihren jeweils eigenen Treibern sich im Vergleich anders verhalten können.

Der gute Alex von DF musste ja auch "nachträglich" eingestehen, dass das Frame Pacing zumindest nicht immer kaputt ist ...

Aus Betrachtung der Komplexität ist es eben schwerer eine Lösung für viele unterschiedliche Variablen zu schaffen als etwas umzusetzen, was nur mit einen bestimmten Treiber auf einen Subset an GPUs funktionieren muss.

robbitop
2024-03-20, 13:37:37
https://www.youtube.com/watch?v=89XXX0wcX4s
Ancient Gameplays hat FSR3 FG in TLoU getestet. Scheint besser auf der Radeon zu laufen als auf der Geforce. Frametimes sehen sauberer aus. Aber richtig zufrieden ist er auf der Radeon auch nicht im Vergleich zu den Ergebnissen die er aus Avatar (bevor kaputt gepatcht) und Starfield kannte.

dargo
2024-03-20, 13:43:55
https://www.youtube.com/watch?v=89XXX0wcX4s
Ancient Gameplays hat FSR3 FG in TLoU getestet. Scheint besser auf der Radeon zu laufen als auf der Geforce. Frametimes sehen sauberer aus. Aber richtig zufrieden ist er auf der Radeon auch nicht im Vergleich zu den Ergebnissen die er aus Avatar (bevor kaputt gepatcht) und Starfield kannte.
Guten Morgen der Herr. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13511351&postcount=4245

robbitop
2024-03-20, 14:32:23
Guten Morgen der Herr. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13511351&postcount=4245
Ich hab den Link nicht geklickt in dem Posting - aber die Beschreibung im Posting hat nicht den Inhalt enthalten, den ich geschrieben habe. Insofern ist das nichts mit "guten Morgen" ;)

Exxtreme
2024-03-20, 14:42:34
- CPU threads for frame pacing calculations and real present/UI callbacks

Joa, das scheint das Problem zu sein, was ich vermutete: FSR3 weiss nicht so richtig wo zeitlich "die Mitte" zwischen zwei echten Bildern ist und rotzt den generierten Frame rein wenn er fertig ist. Was dann einen ähnlichen Effekt auslöst wie Mikroruckler bei SLI. Und da der FG-Teil von FSR3 auch noch so schnell ist, wirkt das sogar kontraproduktiv. Und dürfte auch der Grund sein warum sie VSync empfehlen. Denn dann kann man die Bildwiederholfrequenz als Referenz für die "zeitliche Mitte" nehmen. Und das Ändern der Thread-Prioritäten scheint das auch noch zu stören. Ich könnte mir auch noch vorstellen, dass sie dazu spezielle Hardware oder spezielle Treiberunterstützung brauchen um die genaue Zeit zwischen den echten Bildern zu messen.

dildo4u
2024-03-20, 14:49:21
Last of US + FG auf 7900XTX

FDBRVH2pXNw

Frametimes scheinen nicht schlechter?

HOT
2024-03-20, 16:31:14
Mir geht diese "These" nicht aus dem Kopf warum angeblich Geforces schlechter mit FSR3 + FG abschneiden als Radeons. Könnte das eventuell damit zusammen hängen, dass Spiele zwei verschiedene Renderpfade für die jeweiligen IHVs verwenden? AMD wird einen Teufel tun und Manpower zu DEVs schicken um den Geforcepfad zu optimieren. Nur so eine wilde Idee. Feedback zu Intel FSR3 + FG vs. Radeon gabs noch nicht oder?
Vielleicht verursacht FSR ja auch zusätzliche CPU-Last.

dildo4u
2024-03-20, 23:08:21
FSR3.1 angekündigt

Im Link gibt es Vergleiche mit Ratchet and Clank



Upscaling image quality improvements:

Improved temporary stability at rest and in movement – less flickering and/or shimmering and "Fizziness" around objects in motion.
Ghosting reduction and better preservation of detail.

Decoupling FSR 3 upscaling from frame generation:

Allows FSR 3.1 frame generation technology to work with other upscaling solutions.

New AMD FidelityFX API:

Makes it easier for developers to debug and allows forward compatibility with updated versions of FSR.

Vulkan® and Xbox Game Development Kit (GDK) support.

AMD FSR 3.1 will be available for developers on GPUOpen in Q2 and will be coming to games later this year.

https://community.amd.com/t5/gaming/amd-fsr-3-1-announced-at-gdc-2024-fsr-3-available-and-upcoming/ba-p/674027/jump-to/first-unread-message

Exxtreme
2024-03-20, 23:11:52
Decoupling FSR 3 upscaling from frame generation:

Da knallen grad die Sektkorken. X-D

Ansonsten mal schauen wie die Upscaling-Verbesserungen aussehen.

Raff
2024-03-20, 23:24:53
Sehr gute Entwicklung, geht alle Nervigkeiten an. :up: Bin gespannt. Jetzt müssen das nur viel schneller viel mehr Spiele werden.

MfG
Raff

][immy
2024-03-20, 23:41:08
Sieht auf deren Screenshots/Videos schon mal besser aus.
Ist mir trotzdem noch zu Artefaktbelastet (wie auch DLSS).
Da man es konsolenseitig nur für das Xbox sdk angekündigt hat, gehe ich ja schon fast davon aus, das es mit kleineren int Formaten zu tun hat (die PS5 pro bekommt ja paar). Das würde allerdings die Hardware am PC auch auf 'neuere" chips eingrenzen.
Bin mal gespannt wie sich das entwickelt.

DrFreaK666
2024-03-20, 23:56:14
"These GIF examples were taken from video captures of Ratchet & Clank: Rift Apart running at 1080p using AMD FSR 2.2/3.1 Performance mode."

Sollte das stimmen, dann hat man die Qualität signifikant verbessert

raffa
2024-03-21, 00:02:08
Joa, das scheint das Problem zu sein, was ich vermutete: FSR3 weiss nicht so richtig wo zeitlich "die Mitte" zwischen zwei echten Bildern ist und rotzt den generierten Frame rein wenn er fertig ist. Was dann einen ähnlichen Effekt auslöst wie Mikroruckler bei SLI. Und da der FG-Teil von FSR3 auch noch so schnell ist, wirkt das sogar kontraproduktiv. Und dürfte auch der Grund sein warum sie VSync empfehlen. Denn dann kann man die Bildwiederholfrequenz als Referenz für die "zeitliche Mitte" nehmen. Und das Ändern der Thread-Prioritäten scheint das auch noch zu stören. Ich könnte mir auch noch vorstellen, dass sie dazu spezielle Hardware oder spezielle Treiberunterstützung brauchen um die genaue Zeit zwischen den echten Bildern zu messen.

Schlechtes Framepacing ist echt ne schlimme Sache.
Ich komme nochmal zurück zu Witcher 3, da ist in dx12 das pacing (via vkd3d-proton) so dermassen im Eimer, dass man das eigentlich nur mit vsync spielen kann.

-> FG frames helfen nichts wenn sie nicht auch zeitlich richtig interpolieren

@FSR3.1, sehr fein dass der Upscaler jetzt wieder Zuwendung bekommt.

dargo
2024-03-21, 06:23:12
Und die Frame Generation macht genau das gleiche wie seit dem letzten Avatar Update, wo die Frames einfach nur dupliziert werden, aber keine tatsächlichen Zwischenbilder zu sehen sind.

Daher macht es optisch absolut keinen Unterschied, ob FG an oder aus ist. Nur der FPS Zähler sagt, dass sich die FPS veroppelt hätten.

Und mit der Beobachtung bin ich auch nicht alleine.
https://twitter.com/beyond_fps/status/1770131563365179809

Ich kann das jetzt bestätigen, ist bei mir auch so. 140fps sehen nicht nach 140fps aus sondern eher nach der Hälfte davon. Mit FG Off habe ich in Szene X 90-100fps und das sieht wesentlich flüssiger aus. Da ist bei der Implementierung im ersten Anlauf definitiv was schief gelaufen.

Da knallen grad die Sektkorken. X-D

Cool... endlich ist dann auch TSR + FG möglich. Ob ich dann FG aber nutze weiß ich immer noch nicht. ;D

btw.
Die GIFs sehen schon mal vielversprechend aus.

robbitop
2024-03-21, 07:08:38
Endlich! Hoffentlich kommen jetzt wieder mehr Iterationen! :up:

Platos
2024-03-21, 07:16:46
Kann man eig. bei FSR als Nutzer zwischen verschiedenen Versionen wechseln mittlerweile? Also so wie bei DLSS.

raffa
2024-03-21, 07:48:22
Das geht nur, wenn FSR2 nicht in die Gamebinaries kompiliert wurde, sondern als dll vorliegt. Und dann auch nur bedingt, weil die Iterationen mehr oder weniger große Anpassungen in der Implementierung erfordern.

vgl hier:
https://github.com/GPUOpen-Effects/FidelityFX-FSR2/releases

Lurtz
2024-03-21, 09:27:42
Hardware Unboxed ist vor allem für Konsolen bekannt :rolleyes:
Als würde das Spiel auf Konsole mit FSR2 anders rendern als am PC mit FSR2 :rolleyes:

FSR3.1 angekündigt

Sehr gut :up:

Wenn man jetzt noch die FSR-Version selber upgraden könnte... :frown:

robbitop
2024-03-21, 09:50:25
Joa, das scheint das Problem zu sein, was ich vermutete: FSR3 weiss nicht so richtig wo zeitlich "die Mitte" zwischen zwei echten Bildern ist und rotzt den generierten Frame rein wenn er fertig ist. Was dann einen ähnlichen Effekt auslöst wie Mikroruckler bei SLI. Und da der FG-Teil von FSR3 auch noch so schnell ist, wirkt das sogar kontraproduktiv. Und dürfte auch der Grund sein warum sie VSync empfehlen. Denn dann kann man die Bildwiederholfrequenz als Referenz für die "zeitliche Mitte" nehmen. Und das Ändern der Thread-Prioritäten scheint das auch noch zu stören. Ich könnte mir auch noch vorstellen, dass sie dazu spezielle Hardware oder spezielle Treiberunterstützung brauchen um die genaue Zeit zwischen den echten Bildern zu messen.
So ganz kann das aber auch nicht stimmen. Es gibt ja Implementierungen die sehr gut laufen was frame pacing angeht: Starfield und Avatar (vor dem FSR 3.03 patch).

Das geht nur, wenn FSR2 nicht in die Gamebinaries kompiliert wurde, sondern als dll vorliegt. Und dann auch nur bedingt, weil die Iterationen mehr oder weniger große Anpassungen in der Implementierung erfordern.

vgl hier:
https://github.com/GPUOpen-Effects/FidelityFX-FSR2/releases
Leider geht das oft nicht. Gibt es überhaupt ein Beispiel wo das Ersetzen der DLLs funktioniert? Bei RDR2 gab es ja DLLs aber wenn man sie ersetzt, crasht das Spiel.

DrFreaK666
2024-03-21, 09:51:33
Als würde das Spiel auf Konsole mit FSR2 anders rendern als am PC mit FSR2 :rolleyes:..

Was hat das mit "genug normale Spieler, denen die Bildqualität von Immortals of Aveum oder Talos Principle 2 auf Konsole sehr negativ aufgefallen ist" zu tun?
Den Beweis bist uns noch schuldig

raffa
2024-03-21, 10:17:34
...
Leider geht das oft nicht. Gibt es überhaupt ein Beispiel wo das Ersetzen der DLLs funktioniert? Bei RDR2 gab es ja DLLs aber wenn man sie ersetzt, crasht das Spiel.

Meine Antwort auf die Frage von Platos ist als Nein, das geht normalerweise nicht, weil..zu verstehen.
Ob es Fälle gibt, bei denen es tatsächlich funktioniert und auch Sinn macht, weiss ich nicht.

"yeah u can swap fsr2 in tlou part 1, only can be downgraded to 2.1 from 2.2 "
von reddit,
https://www.reddit.com/r/Amd/comments/178h5ua/comment/k55mm6v/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button

dargo
2024-03-21, 10:30:45
So ganz kann das aber auch nicht stimmen. Es gibt ja Implementierungen die sehr gut laufen was frame pacing angeht: Starfield und Avatar (vor dem FSR 3.03 patch).

Hier läuft alles mit FSR3 + FG absolut sauber was Framepacing angeht, warum also nur Reduzierung auf die zwei Spiele? Die beiden genannten habe ich noch nicht gespielt.

DrFreaK666
2024-03-21, 12:38:32
mF_rlgyvuBg

DrFreaK666
2024-03-21, 12:40:59
mF_rlgyvuBg

kMNolPbmlrU

robbitop
2024-03-21, 12:44:08
Hier läuft alles mit FSR3 + FG absolut sauber was Framepacing angeht, warum also nur Reduzierung auf die zwei Spiele? Die beiden genannten habe ich noch nicht gespielt.
Das sind zwei Beispiele von denen ich weiss dass sie gut laufen aber nicht als Limitierung auf die zwei gemeint.

fondness
2024-03-21, 13:44:53
Hier läuft alles mit FSR3 + FG absolut sauber was Framepacing angeht, warum also nur Reduzierung auf die zwei Spiele? Die beiden genannten habe ich noch nicht gespielt.

Ja, das ist sowieso auch leicht lächerlich, die Tester mit NV-HW beschweren sich und beurteilen dann anhand ihrer nicht "gesupporteten" HW ein AMD-Feature mies.

fondness
2024-03-21, 13:46:46
FSR3.1 angekündigt

Im Link gibt es Vergleiche mit Ratchet and Clank



https://community.amd.com/t5/gaming/amd-fsr-3-1-announced-at-gdc-2024-fsr-3-available-and-upcoming/ba-p/674027/jump-to/first-unread-message

Hm, die Bildruhe scheint leider wie bei NV mit deutlich mehr Blur erkauft. Wäre schön wenn man das einstellen kann, wenn ein Spiel einen "dankbaren" Content hat kann ich auf den Blur gerne verzichten.

Aber immerhin scheint das alles ohne irgendwelche lustigen AI-Features machbar zu sein, und damit wohl auch voll kompatibel zu allem.

dargo
2024-03-21, 14:33:31
Hm, die Bildruhe scheint leider wie bei NV mit deutlich mehr Blur erkauft.
Ist mir auch schon aufgefallen. Aber ich bewerte es erst wenn ich es live am Bildschirm sehe. Zumal 1080p Performance-Preset eh lachhaft ist. Wer will denn sowas am Desktop-Monitor nutzen? :freak:

dildo4u
2024-03-21, 15:03:32
Macht Sinn das so zu zeigen da höhere Auflösungen deutlich weniger Artefakte aufzeigen.
Leider wird Performance Modus immer mehr zu Realität für Leute mit Konsolen/6700 XT etc.

6700XT sieht z.b gerade keine 60fps in Dragons Dogma.

https://i.ibb.co/7Ysn60W/Screenshot-2024-03-21-152008.png (https://ibb.co/HF5tk9z)

https://www.computerbase.de/2024-03/dragons-dogma-2-benchmark-test/2/

DrFreaK666
2024-03-21, 15:10:48
...Zumal 1080p Performance-Preset eh lachhaft ist. Wer will denn sowas am Desktop-Monitor nutzen? :freak:
Windows-Handheld User?

robbitop
2024-03-21, 15:25:01
Ja, das ist sowieso auch leicht lächerlich, die Tester mit NV-HW beschweren sich und beurteilen dann anhand ihrer nicht "gesupporteten" HW ein AMD-Feature mies.
Naja "Ancient Gameplays" testet beides an HW und sieht trotzdem bei einigen neuen Titeln mit FSR3.03 Framepacing Probleme. Und der wirkt schon nicht inkompetent finde ich.

Hm, die Bildruhe scheint leider wie bei NV mit deutlich mehr Blur erkauft. Wäre schön wenn man das einstellen kann, wenn ein Spiel einen "dankbaren" Content hat kann ich auf den Blur gerne verzichten.

Aber immerhin scheint das alles ohne irgendwelche lustigen AI-Features machbar zu sein, und damit wohl auch voll kompatibel zu allem.
Man muss folgendes bedenken.

(1) das war 1080 Performance - also 540p input resolution! (ich finde das gut, denn gerade in den Fällen wo ein Verfahren an der Grenze ist kann man die Schwächen und Stärken am besten beurteilen - Probleme werden mit zunehmender Auflösung natürlich kleiner)
(2) Shannon Nyquist Abtasttheorem - eine gewisse Abtastrate ist notwendig um artefaktarme Ergebnisse zu haben. Upsampling reduziert eben diese Abtastrate. Am Ende ist es dann immer ein Kompromiss zwischen Schärfe und Artefakten / Temporaler Stabilität. Unsere Augen sind evolutionär darauf trainiert Veränderungen / Dynamik zu erkennen. Deshalb stört temporale Instabilität potentiell (normiert auf ein vergleichbares Ausmaß) als Unschärfe.
Aber da gibt es sicherlich einen sweet spot je nach Kontent und Auflösung.

The_Invisible
2024-03-21, 15:30:16
Hm, die Bildruhe scheint leider wie bei NV mit deutlich mehr Blur erkauft. Wäre schön wenn man das einstellen kann, wenn ein Spiel einen "dankbaren" Content hat kann ich auf den Blur gerne verzichten.

Aber immerhin scheint das alles ohne irgendwelche lustigen AI-Features machbar zu sein, und damit wohl auch voll kompatibel zu allem.

Bei DLSS gibt's kein automatisches nachschärfen mehr, außerdem lustig das man das anhand Gifs schon nachweisen will lol

dargo
2024-03-21, 15:31:05
Macht Sinn das so zu zeigen da höhere Auflösungen deutlich weniger Artefakte aufzeigen.
Leider wird Performance Modus immer mehr zu Realität für Leute mit Konsolen/6700 XT etc.

6700XT sieht z.b gerade keine 60fps in Dragons Dogma.

https://i.ibb.co/7Ysn60W/Screenshot-2024-03-21-152008.png (https://ibb.co/HF5tk9z)

https://www.computerbase.de/2024-03/dragons-dogma-2-benchmark-test/2/
Was ein Quatsch wieder, als ob es keine Grafikoptionen gäbe. Und was genau soll jetzt ein Spiel beweisen? Irgendwann wird jede Grafikkarte für eigene Presets bzw. "Schmerzgrenze" zu langsam, ergo Upgrade fällig. Mit N48 bekommen N22 User bald ca. Faktor 2.

Windows-Handheld User?
Ein Handheld hat eine typische Bilddiagonale von 27"? :freak:

DrFreaK666
2024-03-21, 15:34:39
Wenn die GIFs aus Videos erstellt wurden, dann sollte AMD Videos hochladen.

raffa
2024-03-21, 16:11:53
Hätte AMD mal lieber keine Bilder gepostet, als diese zwei mini Schnipsel. Jetzt versucht das halbe Internet anhand dieser zwei Beispiele Aussagen über die generelle Qualität von FSR 3.1 zu treffen. :o)

Wir werden es sehen, und ich bin zuversichtlich, dass es besser aussieht als bisher.

dargo
2024-03-21, 16:14:08
Wir werden es sehen, und ich bin zuversichtlich, dass es besser aussieht als bisher.
Naja... für eine schlechtere BQ bringt man wohl kaum ein Update. :D

DrFreaK666
2024-03-21, 16:16:19
...Ein Handheld hat eine typische Bilddiagonale von 27"? :freak:

Man hat zumindest die Möglichkeit es per HDMI zu nutzen ;)

dargo
2024-03-21, 16:20:31
Dann muss man aber schon sehr schmerzresistent für 1080p performance sein.

raffa
2024-03-21, 16:24:57
Unterschätz du mal die Jugend nicht, die spielt auch Fortnite mit 30fps auf der Switch am Monitor :D

dargo
2024-03-21, 16:26:14
Ausnahmen bestätigen die Regel. :D Es wird immer Extreme in die eine Richtung sowie die andere geben. :) Man stelle sich vor alle Menschen wären gleich, wäre langweilig.

DrFreaK666
2024-03-21, 16:34:22
Wären alle wie ich, dann wäre die Welt eine bessere :devil:
Aber die Handheld-User profitieren wahrscheinlich wirklich davon, da die Leistung ja noch geringer ist als bei Desktop-PCs

dargo
2024-03-21, 16:39:04
Wären alle wie ich, dann wäre die Welt eine bessere :devil:

Typischer Fall von Selbstüberschätzung. :devil:


Aber die Handheld-User profitieren wahrscheinlich wirklich davon, da die Leistung ja noch geringer ist als bei Desktop-PCs
Ja logisch... je kleiner der Bildschirm umso besser die BQ bei sonst gleichem Pixelcount und Sichtabstand.

DrFreaK666
2024-03-21, 16:40:49
Ich sehs kommen: FSR3.1 ist draußen und CP2077 bekommt FSR3.0.3 :freak:

dargo
2024-03-21, 16:43:12
Wer bei CP77 FG braucht nutzt schon längst die Mod.

DrFreaK666
2024-03-21, 16:46:02
Du bemängelst ja eher das Upscaling

dargo
2024-03-21, 16:50:24
Ich spiele auch kein CP77. ;D Und damals hatte ich das nativ in 1440p gespielt.

Gast
2024-03-21, 17:07:21
Kann ein Mod mal durchwischen, dieses Geseier ist ja furchtbar..

Relex
2024-03-21, 18:28:50
Ich kann das jetzt bestätigen, ist bei mir auch so. 140fps sehen nicht nach 140fps aus sondern eher nach der Hälfte davon. Mit FG Off habe ich in Szene X 90-100fps und das sieht wesentlich flüssiger aus. Da ist bei der Implementierung im ersten Anlauf definitiv was schief gelaufen.



Danke fürs ausprobieren. Falls die 6800XT in deinem Profil aktuell ist zeigt das wohl auch, dass es auf AMD das gleiche Problem gibt bzw. dass es da keinen Unterschied zwischen NV und AMD gibt.
Denn das wäre noch die einzige Variable gewesen bei der ich ein Fragezeichen gesetzt hätte.


Aber FSR3.1 macht mir Hoffnung.

Wie wir ja mittlerweile festgestellt haben, skaliert die Performance mit FSR3 FG besser als mit DLSS3 FG.

Wenn AMD es bald erlaubt, DLSS mit FSR3 FG zu kombinieren, dann wäre das selbst auf Nvidia Karten eine sehr interessante Option um das Maximum an Frames herauszuholen (vorausgesetzt, FSR3 FG funktioniert und macht nicht wieder nur doppelbilder)

In Starfield wäre das z.B. tatsächlich meine bevorzugte Variante, wenn es denn möglich wäre.

Aber falls das Upscaling mit FSR3.1 auch in manchen Aspekten besser wird, als DLSS, würde ich natürlich auch komplett auf FSR setzen. Im grunde ist es ja egal. Das was am meisten Performance bei gleichzeitig bestmöglicher Qualität bringt, wird halt genutzt. Und deswegen macht es mich auch glücklich, wenn AMD nachzieht.

dargo
2024-03-21, 19:43:43
Danke fürs ausprobieren. Falls die 6800XT in deinem Profil aktuell ist zeigt das wohl auch, dass es auf AMD das gleiche Problem gibt bzw. dass es da keinen Unterschied zwischen NV und AMD gibt.
Denn das wäre noch die einzige Variable gewesen bei der ich ein Fragezeichen gesetzt hätte.

Die Karte ist aktuell.


Wenn AMD es bald erlaubt, DLSS mit FSR3 FG zu kombinieren, dann wäre das selbst auf Nvidia Karten eine sehr interessante Option um das Maximum an Frames herauszuholen (vorausgesetzt, FSR3 FG funktioniert und macht nicht wieder nur doppelbilder)

TLOU ist bisher das einzige Beispiel mit diesem Problem. Alles andere was ich mit FSR3 + FG mir angeschaut habe passte bisher. Hohe fps sahen nach diesen auch aus. Das wären Talos 2, Forspoken, Immortals of Aveum, Remnant 2 und CP77 Mod. Möglicherweise noch was vergessen.

robbitop
2024-03-21, 19:51:23
Hast du die aktuelle Version von Avatar geprüft?

dargo
2024-03-21, 19:54:00
Meinst du jetzt mich? Falls ja...
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13512198&postcount=4282

robbitop
2024-03-21, 19:59:43
Achso und Robocop soll es auch kaputt sein.

Gast
2024-03-21, 21:20:21
Das wären Talos 2, Forspoken, Immortals of Aveum, Remnant 2 und CP77 Mod. Möglicherweise noch was vergessen.

Immortals ist auf jeden Fall auch Stutter City. Den Rest habe ich nicht.

dargo
2024-03-22, 07:02:37
Immortals ist auf jeden Fall auch Stutter City.
Hier nicht, läuft einwandfrei sauber. Bei Immortals of Aveum ist FSR3 + FG aber eh wayne. Erstens schärfen die DEVs viel zu stark nach. Zweitens... TSR liefert deutlich besseres Upscaling. Vielleicht dann in Zukunft mit FSR 3.1 sofern es nachgeliefert wird mit TSR + FG.

Gast
2024-03-22, 10:03:37
Hier nicht, läuft einwandfrei sauber.


Glaube ich dir gerne, nur läuft es eben viel zu oft nicht sauber, und keiner weiß warum. DF hatte ja selbst bei Avatar was ja so ziemlich als erste brauchbare Umsetzung gilt, am gleichen Rechner im selben Levelabschnitt einmal eine einwandfreie Bildausgabe und dann wieder ein Stutterfest.

Bei Immortals of Aveum ist FSR3 + FG aber eh wayne. Erstens schärfen die DEVs viel zu stark nach. Zweitens... TSR liefert deutlich besseres Upscaling. Vielleicht dann in Zukunft mit FSR 3.1 sofern es nachgeliefert wird mit TSR + FG.

Stimmt das FSR-Upscaling ist in Immortal ähnlich schlecht wie in Ratchet & Clank

dargo
2024-03-22, 12:07:54
Glaube ich dir gerne, nur läuft es eben viel zu oft nicht sauber, und keiner weiß warum.
Ja... da blicke ich auch noch nicht so richtig durch was die Ursache dafür sein kann. Manches kann aber schon an der Kompetenz des Testers alleine scheitern. Zumindest wenn man gewillt ist nach einem Workaround zu schauen lässt sich so manches in den Griff kriegen. Ein gutes Beispiel dafür ist Remnant 2.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13500821&postcount=4152

Besser wäre natürlich wenn solche Fuckups gar nicht erst aufkommen... logisch.

Gast
2024-03-22, 13:21:19
Zumindest wenn man gewillt ist nach einem Workaround zu schauen lässt sich so manches in den Griff kriegen.


Sorry, aber es kann nicht die Aufgabe des Users sein nach Workarounds zu suchen, sollte dies notwendig sein muss dies vom Hersteller kommuniziert werden.

Und wenn man sieht wie instabil das Framepacing von FSR3-FG sein kann, kann man auch nicht davon ausgehen, nur weil dieser Workaround bei dir funktioniert, dass er auch auf anderen Systemen funktioniert.

aufkrawall
2024-03-22, 15:42:08
Da ist mit der LukeFZ Mod und RDNA3 + HAGS gar nichts instabil, wenn man Vsync nicht in den Anwendungen selbst aktiviert, sondern über den Treiber erzwingt. Gleiches trifft auf natives FSR 3 in Remnant 2 und Talos 2 zu. Ja, in-game Vsync sollte, wie mit DLSS 3, auch mit FSR 3 besser ausgegraut werden. In Avatar (als es vor den letzten Updates noch ging) war das nicht so, ggf. muss der Entwickler da irgendwas bei der Swap Chain-Config mit Vsync beachten und AMDs eigenes UE5 Plug-In macht das nicht. Wäre ja ein Klassiker, die Dokumentation von AMD zur Implementierung von FSR 3 scheint (noch) völliger Müll zu sein. Das muss definitiv besser werden, hoffentlich mit dem Fidelity FX SDK in Q2.

Frame Times auf RDNA3 HAGS mit Treiber-Vsync + LukeFZ-Mod:

JYLxighkzmg

Cen5SxZmnDk

XUZ-JZ6HkTU

Das FSR 3-Update in TLOU ist sogar noch mülliger als in Avatar, hat auch noch die AA-Qualität gegenüber dem alten Stand mit 2.2 ruiniert. Und vorher funktionierte auch die Mod, natürlich flüssig...

Übrigens: Das HUD in Witcher 3 mit Mod sieht 100% identisch zu nativem DLSS 3 FG aus...

dargo
2024-03-22, 15:44:54
Und wenn man sieht wie instabil das Framepacing von FSR3-FG sein kann, kann man auch nicht davon ausgehen, nur weil dieser Workaround bei dir funktioniert, dass er auch auf anderen Systemen funktioniert.
Du hast offenbar nicht verstanden was ich im Link geschrieben habe, also gerne nochmal. Ohne den RTSS-Limiter ist die Frameausgabe absolut sauber mit FSR3 + FG in Remnant 2 mit Vsync On. Mit RTSS-Limiter nur wenn Vsync Off verwendet wird. Bei Vsync On ruckelt die Bildausgabe nur wenn der externe Framelimiter ins Spiel dazu kommt. In dem Fall wo die Bildausgabe ruckelt sind die Frametimes absolut sauber. Und vor jedem Spielstart bekommt man bei diesem Spiel auch das zu Gesicht.
87574

Was ich damit sagen will... eine externe Applikation verursacht hier nur mit Ingame Vsync On ein Problem bei FG.

GerryB
2024-03-22, 15:45:13
2/3 aller jungen User wissen nichtmal was Vsync ist (default sollte das Häkchen in den Spielen eeh=aus sein)
Problem erledigt

Ich lass einfach frei laufen mit FG+AFMF und fertig.(bei meinem Moni dann Fps>Hz, gewohnheitsmäßig deswegen ES= on)
Nur eine Sache habe ich generell geändert, sprich max.effTakt ist etwas reduziert@UV ggü. Default.
Damit regelt der max.Takt den Verbrauch. (entspricht ca. dem eff.Takt beim Launchreview in DE)

aufkrawall
2024-03-22, 15:53:25
Ich lass einfach frei laufen FG+AFMF und fertig.
Und am besten noch die Zwischenbildberechnung von TV zusätzlich drauf. Ich seh schon, das Niveau krebst hier immer noch auf Chihuahua-Höhe...

dargo
2024-03-22, 15:55:42
2/3 aller jungen User wissen nichtmal was Vsync ist (default sollte das Häkchen in den Spielen eeh=aus sein)
Problem erledigt

Sorry aber das ist totaler Käse. Sobald meine Framerate über mein VRR-Limit geht ruckelt es. Wer will denn bitte so spielen?


Ich lass einfach frei laufen mit FG+AFMF und fertig.

Das lässt tief blicken. Du weißt noch nicht mal wie eine vollkommen flüssige Bildausgabe aussieht.

aufkrawall
2024-03-22, 16:03:57
Sorry aber das ist totaler Käse. Sobald meine Framerate über mein VRR-Limit geht ruckelt es. Wer will denn bitte so spielen?

FSR 3 FG funktioniert ohne HAGS nicht optimal (sagt AMD auch selbst).
Bei voller GPU-Last oder kurz davor gibts ohne HAGS mehr Tearing oder mit (auch Treiber-forciertem) Vsync Ruckler (sind mitunter kaum im Graphen zu sehen, aber definitiv spürbar und mit HAGS komplett weg).

HAGS off: mit Vsync übles Gezucke bei dieser spezifischen GPU-Last kurz vor 100% (nochmal ein etwas anderer Fall als die kleineren Ruckler, wenn man bequemer in der VRR-Range und weiter unterm Vsync-Maximum ist):
https://i.ibb.co/pQtgz31/witcher3-2024-02-21-17-44-46-924.jpg

HAGS on: Monitor bleibt konstant bei 165Hz und sieht perfekt flüssig aus, auch wenn es wieder unters VRR-Maximum geht (der fette Frame Time Graph täuscht hier), und es bleibt auch bei weniger fps immer komplett bzw. normal flüssig:
https://i.ibb.co/74PccFd/witcher3-2024-02-21-17-47-11-046.jpg

RDNA2-Besitzer sind da etwas gefi.. gekniffen.
Und laut CB sind ja auch die Frame Times auf Nvidia schlechter. Läuft also nur optimal (=bei ~120fps vergleichbar flüssig zu echten 120fps ohne Vsync-Probleme) auf RDNA3-dGPUs mit HAGS (mit Phoenix-APU gibts auch kein HAGS...).

GerryB
2024-03-22, 16:17:21
Sobald meine Framerate über mein VRR-Limit geht ruckelt es.

ES bei meinem Moni mit DP funzt.

Freesync lasse ich auch aktiv.

aufkrawall
2024-03-22, 16:29:45
ES bei meinem Moni mit DP funzt.

Was soll das furchtbare Enhanced Sync mit dem Monitoranschluss zu tun haben? Oh Gott, ist das schlimm hier. :freak:

GerryB
2024-03-22, 16:38:47
VRR ist doch HDMi -Käse, hat nichts mit "richtigen" Computermonis zu tun.

GerryB
2024-03-22, 16:52:12
Und am besten noch die Zwischenbildberechnung von TV zusätzlich drauf.
erst Nachdenken und dann posten

162fps sind bei mir schon >Hz am 4k-PC-Moni (kein 240Hz-TV, der Das auch bloss nicht verdoppeln könnte)
(glaube nicht, das ein TV selber AFMF-ähnliche Zwischenbilder berechnet, wird einfach nur doppelt gezeigt)

aufkrawall
2024-03-22, 17:01:48
Ach, Typ. Mit VRR und FG für maximale Flüssigkeit zu spielen, um dann Frames oberhalb der VRR-Range einfach unregelmäßig zu droppen, ist komplett absurd. Du hast da wirklich extreme Verständnisprobleme. Und mit der Wahrnehmung von flüssiger Bildausgabe kann es auch nicht weit her sein.
Mal abgesehen davon, dass ES vermutlich genau wie normales Vsync durch aktiviertes AFMF einfach off forciert wird. Wobei das bei der Judder-Bildgrütze mit komischen Pseudo-Tearlines durch AFMF schwer zu sagen ist. Scheint aber auch trotz ES zusätzliches klassisches Tearing dazu zu kommen...
:upicard::upicard::upicard:

vinacis_vivids
2024-03-22, 17:19:45
FSR2 + AFMF und FSR3 + FG ist schon ziemlich top. Da gibs zurzeit nix besseres. Am besten mit RDNA3 nutzen.

aufkrawall
2024-03-22, 17:37:12
Mit FSR 2 "muss" man in den meisten Fällen überhaupt kein AFMF nutzen (es bleibt einfach Schrott), die LukeFZ-Mod kann generisch FSR 2 zu 3 für sowohl Upsampling/AA als auch FG wrappen. Das UI-Ghosting ist verglichen mit dem AFMF-Judder-Tearing oft der zigfach bessere Deal.
Nutze es gerade im Uncharted-DLC für FSR 3 nativ (sieht mit dem Github-Release von FSR 3 abseits von Nanite mitunter gar nicht schlecht aus) + FG, das wischt einfach nur den Boden mit den ganzen Schrott-Implementierungen und dem AFMF-Gedöns. 100% glatte Linie im Graphen mit Treiber-Vsync + RTSS-Limiter bei 164...

Durch die Gewöhnung an glatte fps >130 mit FG sehen jetzt leider 90Hz für mich nur noch wie völliger Schrott aus. :redface:

The_Invisible
2024-03-22, 17:59:16
VRR ist doch HDMi -Käse, hat nichts mit "richtigen" Computermonis zu tun.

Was? VRR ist eins der besten Features überhaupt...

aufkrawall
2024-03-22, 18:11:12
Er denkt offenbar, dass "VRR" nur bei HDMI eine gebräuchliche Bezeichnung sei vs. Vesa Adaptive Sync und nimmt da offenbar irgendwelche technischen Unterschiede an. Zusätzliches völliges Quatsch-Argument in der Quatsch-Diskussion, es ist so low hier...

dargo
2024-03-22, 18:22:39
FSR 3 FG funktioniert ohne HAGS nicht optimal (sagt AMD auch selbst).

Also das kann ich zumindest auf der 6800XT nicht bestätigen. Ich bin unter Windows 10 unterwegs und da habe ich eh kein HAGS zur Auswahl. Aber so langsam könnte ich auf Win11 gehen. :uponder: Oder gibts HAGS nur mit RDNA3 bei Win10?

aufkrawall
2024-03-22, 18:36:53
Also das kann ich zumindest auf der 6800XT nicht bestätigen.

Musst du auch nicht, weil AMD es selbst sagt. Bzw. sie sagen mehr Tearing ohne HAGS. Aber logisch, dass das auch Vsync beeinträchtigen kann, wenn das Frame Pacing nicht optimal funktioniert.


Ich bin unter Windows 10 unterwegs und da habe ich eh kein HAGS zur Auswahl. Aber so langsam könnte ich auf Win11 gehen. :uponder: Oder gibts HAGS nur mit RDNA3 bei Win10?
Gibt auch mit RDNA3 dGPUs HAGS nur mit Windows 11.

dargo
2024-03-22, 18:44:41
Musst du auch nicht, weil AMD es selbst sagt. Bzw. sie sagen mehr Tearing ohne HAGS.
Mag sein. Aber wie gesagt mir fällt mit FSR3 + FG unter Win10 ohne HAGS kein Tearing auf. Und so blind kann ich nicht sein wenn mir neulich in Horizon Forbidden West Mausstotterer (wie überraschend von den Sony Studios :ulol:) auffallen die andere wieder nicht sehen (wollen). :D


Gibt auch mit RDNA3 dGPUs HAGS nur mit Windows 11.
Hmm... ok, dann werde ich bald wechseln.

VRR ist doch HDMi -Käse, hat nichts mit "richtigen" Computermonis zu tun.
OMG. :freak:

VRR ist nichts weiter als Variable Refresh Rate. Ob das jetzt Freesync, G-Sync oder weiß der Geier wie genannt wird ist absolut wayne.


Durch die Gewöhnung an glatte fps >130 mit FG sehen jetzt leider 90Hz für mich nur noch wie völliger Schrott aus. :redface:
Lol... das ging ja schnell bei dir. ;D Vor nicht allzu langer Zeit sah ich Screens von dir noch mit 40+ bis 50+fps teilweise. :D Und die erhöhte Latenz an der Maus stört dich echt nicht dabei?

aufkrawall
2024-03-22, 19:14:12
Mag sein. Aber wie gesagt mir fällt mit FSR3 + FG unter Win10 ohne HAGS kein Tearing auf.

Ist auch etwas komisch. Es können in Witcher 3 offenbar hunderte Frames ~ohne sichtbares Tearing ausgegeben werden, bei bestimmten Lastzuständen etc. tritt es dann trotz komplett glatten Graphens trotzdem mal auf. Mit Vsync gibts dann einen Mini-(Mini-)Spike mit sichtbarem Ruckler. Mit HAGS ist beides weg. Es schien mit dem 23.12.1 Treiber aber auch noch schlechter zu sein, ggf. optimieren sie das noch weiter.


Lol... das ging ja schnell bei dir. ;D Vor nicht allzu langer Zeit sah ich Screens von dir noch mit 40+ bis 50+fps teilweise. :D Und die erhöhte Latenz an der Maus stört dich echt nicht dabei?
Der Input Lag ist schon nicht toll, ja. Aber das Geruckel ist für viele SP-Spiele schlimmer. Das FG glättet ja auch die Frame Times, der Unterschied in Witcher 3 mit RT ist einfach unfassbar. Sieht im Grunde mehr als doppelt so flüssig aus.

Btw. nimmt der Input Lag mit FSR 3 FG etwas weniger zu als mit DLSS 3 FG (Reflex mal ausgeklammert), weil die bessere Skalierung halt auch eine niedrigere Frame Time des echten Frames bedeutet, das gebuffert wird (und die Artefakte im FG-Frame sind entsprechend auch weniger lange sichtbar).

dargo
2024-03-22, 19:17:55
Btw. nimmt der Input Lag mit FSR 3 FG etwas weniger zu als mit DLSS 3 FG (Reflex mal ausgeklammert), weil die bessere Skalierung halt auch eine niedrigere Frame Time des echten Frames bedeutet, das gebuffert wird (und die Artefakte im FG-Frame sind entsprechend auch weniger lange sichtbar).
Schon klar... je höher die fps desto geringer die Latenz. Mir kommt aber der Input an der Maus bei den Fake 140fps irgendwie falsch vor. Das fühlt sich einfach nicht nach echten 140fps an. Naja... jeder wie er mag. Bisher bringt mir persönlich Frame Generation wenig. Ich teste es gelegentlich aus und das wars dann auch.

aufkrawall
2024-03-22, 19:23:47
In CP77 kann man die Latenz mit dem in-game Limiter drücken. In Remnant 2 funktioniert das auch, aber dort lässt sich der Wert nicht frei einstellen.
Es fehlt definitiv ein Reflex-Gegenstück mit automatischem Limiter. Das normale Anti-Lag funktioniert auch nicht richtig mit FG, ohne die Frame Times zu killen. Das ist definitiv noch eine Baustelle. Tippe aber, das wird auch irgendwann besser. Sollte eigentlich einfacher sein als das FG selbst, und hier hat AMD ja wirklich positiv überrascht (zumindest mich).

Relex
2024-03-23, 10:11:53
Ich vermute, dass das Latenzthema auch mit dem Framepacing zusammenhängt. Und wie sich zeigt ist das wohl der schwierigste Part an dem ganzen.


Ich denke auch, dass bei DLSS FG Reflex für das Framepacing zuständig ist, da es ja ein dynamischer FPS limiter ist, der damit logischerweise stests die Kontrolle über das Framepacing haben muss. Denn Reflex reduziert ja nicht nur die latenz, es limitiert auch generell die FPS knapp unterhalb der Maximalfrequenz des Displays. Es greift also permanent in die Frameausgabe ein.

Kurz gesagt: ich vermute, dass Reflex quasi die "secret sauce" bei Nvidia ist, warum das Framepacing mit FG so gut klappt.


Die Vermutung liegt für mich auch deswegen nahe, weil zum einen die DLSS3 FG Mods von Pure dark einen FPS limiter haben, der von Reflex gesteuert wird (Reflex damit nicht nur Latenzreduktion sondern auch FPS limiter) und zum anderen kann man in manchen Spielen im Fenstermodus Reflex außer Kraft setzen. Bei meinem 170 Hz Monitor hab ich dann auch tatsächlich 170 FPS mit Frame Generation anstatt 163 FPS wenn Reflex greift.
Und jetzt ratet mal, was passiert, wenn DLSS3 Frame Generation ohne Reflex ins Vsync limit läuft - es gibt ständig Ruckler...

The_Invisible
2024-03-23, 10:38:40
Könnte auch erklären warum dlss-fg generell weniger FPS liefert als fsr3, wenn versucht wird die Frametimes zu glätten weil Reflex ja immer bei dlss-fg aktiv ist.

Lurtz
2024-03-23, 10:43:15
Da ist mit der LukeFZ Mod und RDNA3 + HAGS gar nichts instabil, wenn man Vsync nicht in den Anwendungen selbst aktiviert, sondern über den Treiber erzwingt.
Funktioniert das mittlerweile eigentlich zuverlässig bei AMD?
Könnte auch erklären warum dlss-fg generell weniger FPS liefert als fsr3, wenn versucht wird die Frametimes zu glätten weil Reflex ja immer bei dlss-fg aktiv ist.
Ich kann mir nicht vorstellen, dass das einen so großen Unterschied ausmacht. Wir sprechen hier teils locker von 25-30% Unterschied zwischen DLSS FG und FSR FG.

Relex
2024-03-23, 10:48:39
Wie kommst du auf 25-30%?

Als ich es bei Starfield ausprobiert habe, war FSR FG "nur" ca 11% schneller.

Das ist zwar durchaus ein positiver Vorteil für FSR3, aber weit weg von 25-30%.
In welchem Spiel hast du das gemessen?


Edit: Okay, ich glaube du meinst den Test von Computerbase von vor ein paar Wochen, wo FSR3 FG auf einer AMD Karte nochmal besser skaliert hat.

Ja, da hast du natürlich recht, wenn man FSR3 auf AMD und Nvidia Karten vergleicht, ist die Skalierung auf AMD besser. Sowohl im Vergleich zu DLSS FG als auch im Vergleich zu FSR FG auf einer Nvidia Karte. (Ob das auch für RDNA2 gilt, gibt der Test aber auch nicht her)

Trotzdem gings ja hier um die Frage was Reflex für einen Unterschied macht und da siehst du eben auf einer Nvidia Karte mit FSR3 FG nur ca 10% mehr FPS als mit DLSS3 FG. Also kanns schon sein, dass das Framepacing durch Reflex hier ein paar FPS kostet, schwer zu sagen.

Troyan
2024-03-23, 11:38:25
Reflex macht kein Framepacing. Das Framepacing geschieht in der dll.

robbitop
2024-03-23, 13:53:42
Wie kommst du auf 25-30%?

Als ich es bei Starfield ausprobiert habe, war FSR FG "nur" ca 11% schneller.
.

Der Unterschied wird größer je kleiner die Frametimes sind (bzw. je höher die fps sind). Weil das frametime cost delta zwischen DLSS FG und FSR3 FG ein fester offset ist. Und bei Radeons ist die frametime cost noch kleiner.
Dazu gab es bei cb einen Artikel.

IMO bringt das alles aber nix wenn Latenz und Frametime nicht gut sind. Die resultierende FPS Anzahl für sich ist nicht indikativ wie spielbar oder smooth es ist. Die Konsistenz dieser Güte über den breiten Schnitt der Spiele ist bei dlss fg und reflex aktuell anscheinend noch ein Stück besser.

Achill
2024-03-23, 14:04:20
Funktioniert das mittlerweile eigentlich zuverlässig bei AMD?
[..]


Der Mod funktioniert bei mir einwandfrei, es gehen sogar solch interessanten Sachen wie in "Outcast - A New Beginning":
- CyberXeSS für DLSS2 auf FSR2
- Lurtz Mod um FSR2 auf FSR3 FG zu heben

Frametime und Spielen mit Limiter funktionieren ohne Probleme, mich stört aber die Artefakte (durch FG) in der UI zu sehr, daher ist dies nichts für mich. Leider kann der LukeFZ Mod das UI Artefakt Problem nur beheben, wenn die nötigen Information wie z.B. mit DLSS3-FG im Spiel vorliegen.

aufkrawall
2024-03-23, 15:48:03
Funktioniert das mittlerweile eigentlich zuverlässig bei AMD?

Ist so ziemlich das Einzige, was sich zuverlässig über den AMD-Treiber erzwingen lässt. :freak:


Als ich es bei Starfield ausprobiert habe, war FSR FG "nur" ca 11% schneller.

Hatte den verlinkten Test-Run in W3 mit der 7800 XT, wo es 83% avg in 1440p bringt, auch in 4k auf einer 4090 wiederholt. Da hatte DLSS 3 FG avg nur +45% gebracht.

Die HW-Lösung von Nvidia ist schon ziemlicher Murks im Vergleich zu FSR 3 FG auf RDNA3. Paar Edge Cases + UI sind besser, wobei das wahrscheinlich zum überwiegenden Teil "nur" Software ist.
Hier hats jemand mit GeForce bei 30fps verglichen, DLSS FG verursacht viel stärkere Artefakte als FSR 3 FG :eek: :
https://forums.guru3d.com/threads/fsr-thread.440398/page-110#post-6214587

Lurtz
2024-03-23, 16:54:35
Hatte den verlinkten Test-Run in W3 mit der 7800 XT, wo es 83% avg in 1440p bringt, auch in 4k auf einer 4090 wiederholt. Da hatte DLSS 3 FG avg nur +45% gebracht.
Sowas meine ich. Das stelle ich mit der 4070 im GPU-Limit immer wieder fest.

Die HW-Lösung von Nvidia ist schon ziemlicher Murks im Vergleich zu FSR 3 FG auf RDNA3.
Wird Blackwell-exklusiv bestimmt besser :) :ugly:

Achill
2024-03-23, 17:48:17
Hier gibts den Talk FSR3 in der Snowdrop Engine (mit ein paar Details zu FSR 3.1 am Ende) ...
- @9:05 wird auf die Schwierigkeit von Frame Pacing eingegangen und zeigt nochmal, dass allerlei mögliche Tools / Settings dies beeinflussen können
- @40:00 geht es dann konkret um FSR 3.1 und @41:00 gibt es die hier verlinkten GIFs als Inhalt im Video mit imho besserer Qualität

ojhkxXLRcTU

Relex
2024-03-23, 19:13:40
Hatte den verlinkten Test-Run in W3 mit der 7800 XT, wo es 83% avg in 1440p bringt, auch in 4k auf einer 4090 wiederholt. Da hatte DLSS 3 FG avg nur +45% gebracht.

Die HW-Lösung von Nvidia ist schon ziemlicher Murks im Vergleich zu FSR 3 FG auf RDNA3.


Ne, das kannste so nicht vergleichen. :D

Du vergleichst hier 1440p mit 4K.

Die Performanceskalierung mit FG, egal ob AMD oder Nvidia, egal ob DLSS oder FSR ist unter 1440p als Zielauflösung deutlich besser als unter 4K.

Ein 4K Zwischenbild zu berechnen kostet einfach deutlich mehr Rechenzeit als ein 1440p Zwischenbild.

Du musst wenn dann schon beide Karten in 1440p ODER 4K miteinander vergleichen, sonst macht es leider keinen Sinn.


FSR wird natürlich trotzdem im Vorteil sein, insbesondere auf AMD Karten, wie ja der CB Test zeigt, aber 1440p und 4K sind mit FG nicht vergleichbar.

aufkrawall
2024-03-23, 19:32:56
Wieso soll das in 4k relativ gesehen teurer sein? Bei einer Software-Lösung sollte das eher nicht so sein. Wenn das bei einer Hardware-Lösung so ist, ist die Hardware für die Aufgabe offenbar schlicht zu langsam.
Mal abgesehen davon, dass man einer 4090 schon 4k zumuten kann und sie in 1440p im CPU-Limit an der Stelle wäre. Bzw. vielleicht in nativem 4k nicht, wo die fps dann aber vorne und hinten nicht für FG reichen...

Exxtreme
2024-03-23, 19:41:52
Ein 4K Zwischenbild zu berechnen kostet einfach deutlich mehr Rechenzeit als ein 1440p Zwischenbild.


Es ist mit ein Grund, aber nicht der einzige. Es ist so, die Zwischenbildberechnung kostet selbst Rechenleistung. Und krächzt die Grafikkarte bereits unter der Pixellast, wie es in UHD recht wahrscheinlich sein wird, dann entzieht die Zwischenbildberechnung auch noch Rechenleistung, die dann für das eigentliche Spiel fehlt. Und deshalb kommt man praktisch nie auf eine Verdoppelung. Und weil die Grundbildwiederholfrequenz jetzt niedriger ist, erhöht das auch noch die Eingabelatenzen.

Von daher, die Zwischenbildberechnung bringt dann gute Ergebnisse wenn man im CPU-Limit ist.

aufkrawall
2024-03-23, 19:51:43
Blödsinn, auf Radeon skaliert FSR 3 FG auch im völligen GPU-Limit ständig >80%.

Exxtreme
2024-03-23, 20:00:04
Nicht immer:
https://www.computerbase.de/2023-10/amd-fsr-3-fmf-test/3/

Bei Immortals of Aevum geht es nur um 66% rauf von FSR Q auf FSR Q + FG.

aufkrawall
2024-03-23, 20:02:02
Kann sein, ist aber auch noch das alte FSR 3 mit dem Schrott-Pacing bei dynamischen fps.
Btw. "ständig" != "immer". Logisch, dass es irgendwo einen Fall gibt, wo eine SW-Lösung mal je nach GPU-Last schlechter skaliert. Nur ist dann halt der Worst Case mit FSR 3 oft immer noch besser als der Best Case mit DLSS...

Exxtreme
2024-03-23, 20:13:10
Hier gibt es aktuelle Benchmarks:
https://www.computerbase.de/2024-03/amd-fsr-nvidia-dlss-frame-generation-vergleich/

In die Nähe von 80% kommt da nur Starfield.

aufkrawall
2024-03-23, 20:20:41
Schön für den Test. Meine geposteten Videos mit Benchmark und Auslastungsdaten transparent im OSD sagen etwas anderes.

dargo
2024-03-23, 20:33:12
FSR 2.2 finde ich in HFW eigentlich recht ok. Mit dem Wasserfall kommt es aber gar nicht klar. XeSS leistet dort gute Arbeit, schmiert aber bei den kleinen Viechern in der Luft ordentlich. Massives Flackern im Hintergrund gibts auch noch dazu.

oCmK-sq3tVQ

Relex
2024-03-23, 20:42:21
Es ist mit ein Grund, aber nicht der einzige. Es ist so, die Zwischenbildberechnung kostet selbst Rechenleistung. Und krächzt die Grafikkarte bereits unter der Pixellast, wie es in UHD recht wahrscheinlich sein wird, dann entzieht die Zwischenbildberechnung auch noch Rechenleistung, die dann für das eigentliche Spiel fehlt. Und deshalb kommt man praktisch nie auf eine Verdoppelung. Und weil die Grundbildwiederholfrequenz jetzt niedriger ist, erhöht das auch noch die Eingabelatenzen.

Von daher, die Zwischenbildberechnung bringt dann gute Ergebnisse wenn man im CPU-Limit ist.


Klingt plausibel entspricht aber nicht der Realität.

Ich hab das doch alles schon durchgetestet. Zumindest mit DLSS3 FG :biggrin:
(Ja, ich hab wohl zu viel Zeit)

https://docs.google.com/spreadsheets/d/e/2PACX-1vRXJZuwogZbsz91XV6cm5Zjtf-q6TZQvOH8LVNYbXOa-D1FPocK0N1_AC1fwoW2-07LZSLuopD5rcWw/pubhtml


Also dein Argument ist schonmal dadurch entkräftet, dass ich im absoluten Worst Case bei 4K mit DLAA und Pathtracing 85% mehr FPS mit FG bekomme.
Aber gut, das ist wohl ein Ausreißer, würde auch meine Herleitung entkräften :redface:


Ganz grundsätzlich sieht man, dass die Zugewinne mit FG in 4K immer deutlich niedriger sind, als in 1440p und zwar selbst dann, wenn die FPS in 4K z.B. durch den DLSS performance Modus höher sind als in 1440p z.B. mit DLAA.


Siehe 1440p mit DLAA. Da bringt FG durchgängig mehr Zugewinne, als in 4K.
Am übelsten wird es, wenn man in 4K mit dem DLSS Performance Modus in den 100 FPS Bereich kommt. Da bringt FG nahezu gar nichts mehr (zumindest in Cyberpunk)

Ich hab das auch mal in Dying Light und Returnal gegengetestet. Sobald man irgendwo im 150-200 FPS Bereich landet, wird die Skalierung in 4K mit FG extrem schlecht, bis man irgendwann sogar den Punkt der negativen Skalierung erreicht.

In 1440p hingegen hab ich es selbst bei 250 FPS nicht geschafft, in eine Negative Skalierung zu kommen. (Da kann FG auch locker 400-500 FPS ausgeben).


Aber egal. Bilde dir gerne selbst nen Reim auf die Daten.

Für mich steht fest, dass die Skalierung in 4K völlig unabhängig der Pixelllast generell deutlich schlechter ist, als in 1440p. Oder anders gesagt. FG bringt in 4K viel weniger als in 1440p.
Wobei man hier auch feststellen muss, dass das auch Framerateabhängig ist. Sind die FPS niedrig, dann bringt FG auch in 4K viel. Sind die FPS allerdings in 4K schon relativ hoch, dann bringt FG nicht mehr viel. Vermutlich weil die Berechnungszeit in ms dafür dann einfach zu hoch wird.

Und das trifft in anderen Spielen genauso auf FSR FG dazu. Nur mit einem gewissen Offset bei dem FSR immer etwas schneller ist... Aber das Problem, dass FG in 4K teurer ist als in 1440p hat auch FSR.



EDIT: Ich glaube am meisten Sinn macht ein FPS normierter Vergleich sofern möglich.

Also wenn man sich beispielsweise 1440p mit DLAA mit RT bei 57 FPS ansieht, dann bringt FG +56% mehr FPS.
Wenn man sich dagegen 4K mit RT im Quality Modus bei 52 FPS ansieht, dann bringt FG nur noch +32% mehr FPS.

Lurtz
2024-03-23, 21:20:56
Ich spreche hier von 1440p mit mindestens DLSS Quality und unter 138 fps. Also weit vom Worst Case entfernt für DLSS FG. Dennoch habe ich nie eine wesentlich bessere Skalierung mit zB niedrigeren DLSS-Faktoren gesehen. IMO hat nVidia da noch einiges zu beweisen wieso das eine Hardwarelösung braucht.

Ist der Optical Flow Accelerator in allen Adas gleich schnell?

Relex
2024-03-23, 21:36:09
Davon würde ich ausgehen. Zumindest hatte ich auf CB mal Benchmarks verglichen. Da hat die RTX4070 mit FG genauso viele FPS dazu gewonnen wie die RTX4090.

Ich würde also davon ausgehen, dass es da keine Unterschiede gibt.

Aber mal ehrlich, das Thema ist sehr schwer zu analysieren und zu diskutieren, da die Skalierung je nach Auflösung, Framerate, Spiel, Nvidia/AMD, FSR/DLSS unterschiedlich ausfällt.


Und wenn mans ganz genau machen würde, dann müsste man auch erstmal prüfen, ob die Animationszeit zum Zeitpunkt der Darstellung des Bildes passt und inwiedern es da Unterschiede zwischen FSR/DLSS und AMD oder Nvidia Karten gibt. Das ganze kann dann auch wieder Auflösungs und Framerate abhängig sein.

The_Invisible
2024-03-23, 21:37:03
Hier gibt es aktuelle Benchmarks:
https://www.computerbase.de/2024-03/amd-fsr-nvidia-dlss-frame-generation-vergleich/

In die Nähe von 80% kommt da nur Starfield.

So schlechte Skalierung von DLSS-FG hätte ich noch nirgends sonst gesehen bzw auch selbst nicht, sicher das bei CB da alles in Ordnung war oder irgendein VRAM Problem, warum testen die in 4k?

aufkrawall
2024-03-23, 22:25:36
In der Tat würde ich 7800 XT/4070 eher in 1440p testen und erst 7900 XTX/4090 in 4k. Einfach, weil es viel realistischer ist.

Ich hatte ja im September kurz eine 4070 und die Skalierung war definitiv so viel schlechter als mit der 7800 XT, dass der Gewinn an Flüssigkeit der Bildausgabe deutlich spürbar geringer war. Vor allen Dingen wird mit DLSS FG der Graph ständig mal mehr, mal weniger fett. Mit FSR 3 FG ist das durchgängig eine komplett glatte Linie. Zwar ist der Input Lag höher, dafür schwankt die Erfahrung aber auch nicht so. Sieht einfach wesentlich flüssiger aus. Wobei die Frame Times ohne FG in Witcher 3 auch immer noch mies auf Nvidia sind, hilft vermutlich auch nicht...

dargo
2024-03-24, 06:21:59
- @40:00 geht es dann konkret um FSR 3.1 und @41:00 gibt es die hier verlinkten GIFs als Inhalt im Video mit imho besserer Qualität

Auf jeden Fall. In dem Video flimmert das Bild mit FSR 3.1 nahezu gar nicht mehr und mit FSR2.2 nicht so extrem wie in den GIFs.

Zum Vergleich...
https://youtu.be/GcjQGWClMBs?si=075ZAJbTPqS51q67&t=667

robbitop
2024-03-24, 12:07:23
Hier gibts den Talk FSR3 in der Snowdrop Engine (mit ein paar Details zu FSR 3.1 am Ende) ...
- @9:05 wird auf die Schwierigkeit von Frame Pacing eingegangen und zeigt nochmal, dass allerlei mögliche Tools / Settings dies beeinflussen können
- @40:00 geht es dann konkret um FSR 3.1 und @41:00 gibt es die hier verlinkten GIFs als Inhalt im Video mit imho besserer Qualität

https://youtu.be/ojhkxXLRcTU

Das klingt nicht gut, dass man da in Bezug auf Frame Pacing so viel in die Hände des Entwicklers legt (also auf diesen angewiesen ist) - ggf kommt daher die große Bandbreite an der Güte des Framepacings über die Spanne verschiedener Spiele. Wäre ggf. doch besser wenn man da mehr Implementierungsrobustheit hinbekommen würde.

aufkrawall
2024-03-24, 14:36:51
ggf kommt daher die große Bandbreite an der Güte des Framepacings über die Spanne verschiedener Spiele.
Ist ein Mythos. In Avatar lag es an der Latency-Reduktion. Hatte man die (als FG im Spiel noch funktionierte) in der Config-Datei abgeschaltet, waren die Frame Times völlig normal. Ansonsten fällt mir nur noch Starfield ein. Hab ich nicht, kann ich nicht beurteilen. Ansonsten hab ich ~überall eine glatte Linie bzw. oft bessere Frame Times als mit DLSS.

~Glatte Linie auch in TLOU (via Mod gefixt), mal wieder mit 83% Skalierung:
https://i.ibb.co/HgjkJSF/tlou-i-2024-03-24-01-46-28-587.png

https://i.ibb.co/FzYBrMQ/tlou-i-2024-03-24-01-46-44-399.png


In-game Limiter geht auch sauber (zumindest Kurztest in der Szene), läuft dann bei 160fps mit wenig Input Lag und null Tearing via Treiber-Vsync...

dargo
2024-03-24, 14:43:13
Seit wann geht wieder bei AMD Vsync über den Treiber bei D3D12 erzwingen?

aufkrawall
2024-03-24, 14:50:18
Zwei Jahre, oder so? Vulkan geht auch seit vermutlich 23.20 Branch.

Achill
2024-03-24, 14:51:12
Das klingt nicht gut, dass man da in Bezug auf Frame Pacing so viel in die Hände des Entwicklers legt (also auf diesen angewiesen ist) - ggf kommt daher die große Bandbreite an der Güte des Framepacings über die Spanne verschiedener Spiele. Wäre ggf. doch besser wenn man da mehr Implementierungsrobustheit hinbekommen würde.

Aber es geht imho nicht anders, da es ja keine "geschützte" (im doppelten Sinne) Umsetzungen im Treiber / proprietäre Lib ist sondern soll auf allen Herstellern, über Generationsgrenzen hinweg, funktionieren. In meinen Verständnis stellt AMD auch eine Implementierung, da es aber Open Source ist, können Entwickler Anpassungen vornehmen.

Das ist halt eine der Stärken von OSS ... "Aus großer Kraft folgt große Verantwortung" - egal in welchen Context.

dargo
2024-03-24, 14:51:50
Zwei Jahre, oder so? Vulkan geht auch seit vermutlich 23.20 Branch.
Lol... ist an mir komplett vorbei gegangen. :redface:

DrFreaK666
2024-03-24, 15:14:13
Man kann den Haken setzen und es funktioniert auch? Muss ich nachher mal testen

dargo
2024-03-24, 15:21:08
Habs gerade in Remnant 2 probiert. Bei mir greift kein Vsync über den Treiber. Also alles wie gehabt. :tongue:

aufkrawall
2024-03-24, 15:21:57
Ja, funktioniert meiner Erfahrung nach immer. In-game Vsync sollte mit FG aber weiter deaktiviert sein, das Überschreiben via Treiber "fixt" das nicht.

Btw: Gibt eine neue LukeFZ-Mod mit Upsampling wahlweise nach FSR, DLSS & XeSS. :biggrin:
Gäbe es jetzt eine neue Über-XeSS-Version, könnte man die einfach reinkopieren. Intel soll mal den Arsch hochkriegen, sonst läuft ihnen FSR 3.1 noch komplett den Rang ab. :D

dargo, ich habe es schon selber in Remnant 2 erfolgreich erzwungen. Keine Ahnung, was bei dir schief läuft...

dargo
2024-03-24, 15:26:00
dargo, ich habe es schon selber in Remnant 2 erfolgreich erzwungen. Keine Ahnung, was bei dir schief läuft...
Strange... gibts da eventuell wieder einen Unterschied zwischen Win10 und Win11 oder RDNA2 und RDNA3? :D

aufkrawall
2024-03-24, 15:29:01
Strange... gibts da eventuell wieder einen Unterschied zwischen Win10 und Win11 oder RDNA2 und RDNA3? :D
Unmöglich ist das mit Win 11 nicht. Win 11 22H2 hatte auch ein neues Feature für Direct Flip mit D3D11 borderless erhalten. Kann ja sein, dass das irgendwie zusammenhängt.
Kann mich nur wiederholen: Es funktioniert hier zu 100% in jedem Spiel.

https://i.ibb.co/wsyY8T1/Screenshot-187.png
https://i.ibb.co/cYgJ1qn/Screenshot-186.png

Edit: Ging auch auf der 6700 XT.

fondness
2024-03-24, 16:46:33
Das klingt nicht gut, dass man da in Bezug auf Frame Pacing so viel in die Hände des Entwicklers legt (also auf diesen angewiesen ist) - ggf kommt daher die große Bandbreite an der Güte des Framepacings über die Spanne verschiedener Spiele. Wäre ggf. doch besser wenn man da mehr Implementierungsrobustheit hinbekommen würde.

Das sind wohl wieder irgendwelche Mythen basierend auf Leuten die mit NV-Karte testen...und die ganzen NV-Fans verbreiten es fleißig in den Foren. AMD-Karte hat ja keiner mehr. :ugly:

aufkrawall
2024-03-24, 18:58:46
Das auch, aber nicht nur. Die nativen Implementierungen sind bislang schon unterm Strich eher katastrophal. Mir fallen gerade nur Remnant 2 und Talos 2 ein, wo der FG-Part an sich offenbar problemlos zu funktionieren scheint. Und ansonsten halt nur Mods. Trotzdem muss man Frame Times und andere Probleme trennen. Wenn es trotz FG einfach nach halber Bildrate aussieht, klemmt da offensichtlich etwas anderes als das "Pacing". Zumal es in den Problemfällen Avatar und TLOU auch eine glatte Linie im Graphen gibt.

Lurtz
2024-03-24, 21:08:29
Ansonsten fällt mir nur noch Starfield ein.
Starfield ist IMO top, selbst auf Geforces.

Gast
2024-03-24, 23:48:15
Das klingt nicht gut, dass man da in Bezug auf Frame Pacing so viel in die Hände des Entwicklers legt (also auf diesen angewiesen ist) - ggf kommt daher die große Bandbreite an der Güte des Framepacings über die Spanne verschiedener Spiele. Wäre ggf. doch besser wenn man da mehr Implementierungsrobustheit hinbekommen würde.

Richtig interessant wird es so ab Minute 32, wenn der Typ von Ubisoft darüber redet wie schwierig es ist das Framepacing überhaupt hinzubekommen.

So wie es aussieht gibt es keine wirklich generelle zufriedenstellende Lösung um das Framepacing mit FSR3 in jeder Situation ordentlich hinzubekommen. Jede Lösung hat ihre Flaws, und es liegt am Hersteller den besten Kompromiss für seine Software zu finden.

Das erklärt auch sehr gut, warum es dermaßen viele unterschiedliche Berichte zum Framepacing, selbst in identischen Spielen gibt.

Relex
2024-03-25, 01:37:36
Schon übel, wie sich sowohl AMD selbst als auch die Entwickler über das Framepacing auskotzen. Daran scheinen sie sich wirklich gerade die Zähne auszubeißen.

Das Problem ist leider, dass der Frametime Graph die Probleme nicht immer zeigt. Du kannst einen perfekten Frametime Verlauf haben und trotzdem sieht man nur judder oder einfach das gleiche Bild doppelt und damit effektiv keinen Unterschied zu FG off.

Exxtreme
2024-03-25, 01:40:53
Wobei man fairerweise auch sagen muss, Entwickler wollen meist die volle Kontrolle. Deshalb sind Vulkan und Direct3D 12 auch so wie sie sind. Und deshalb sind C und C++ immer noch so beliebt obwohl das Uraltsprachen sind. Sprich, AMD hat das geliefert was die Entwickler normalerweise haben wollen. Dass mit voller Kontrolle auch volle Verantwortung einhergeht, tja.

aufkrawall
2024-03-25, 01:44:44
Das stellst du (absichtlich?) ziemlich verzerrt dar. Wenn der Graph Quatsch erzählt, geht da irgendwas mit der Swap Chain Config o.ä. komplett schief.
Ich hab hier mit Radeon mittlerweile mit Mod + nativ so ca. ein Dutzend Spiele mit FSR 3 FG mit glattem Frame Time Graph am laufen gehabt und da ruckelt mit VRR, dynamischen fps und 100% GPU-Last gar nichts "unerklärlich"...

TheAntitheist
2024-03-25, 02:12:53
Das stellst du (absichtlich?) ziemlich verzerrt dar. Wenn der Graph Quatsch erzählt, geht da irgendwas mit der Swap Chain Config o.ä. komplett schief.
Ich hab hier mit Radeon mittlerweile mit Mod + nativ so ca. ein Dutzend Spiele mit FSR 3 FG mit glattem Frame Time Graph am laufen gehabt und da ruckelt mit VRR, dynamischen fps und 100% GPU-Last gar nichts "unerklärlich"...
5 posts vorher hast du doch geschrieben das es nur bei zwei Spielen problemlos lief ;D

dargo
2024-03-25, 08:56:17
Wir halten also mal fest...

1. Mods laufen problemlos, ergo ist die Technik am schlechten Framepacing schuld. :freak:

2. Offizielle Implementierungen in Remnant 2, Forspoken, Immortals of Aveum, Talos 2, TLOU (hier aktuell Fehler bei der Frameerhöhung) laufen hier beim Framepacing mit Radeon absolut sauber sowohl beim Frametimegraphen also auch visuell am Bildschirm, ergo ist das Framepacing beim FSR 3 + FG kacke. :freak:

Kannst du dir echt nicht ausdenken. Aber gut... irgendeinen Strohhalm brauchen einzelne grüne Lemmimge noch.

robbitop
2024-03-25, 09:43:52
Klingt ja als wenn FSR3 FG ordentlich auf AMD HW läuft! Wäre super wenn sie AL+ mit FG noch vernünftig zum Laufen bekommen. Wenn FSR3.1 wirklich beim Upsampling ordentliche Fortschritte macht und N48 beim Raytracing kann das echt eine sehr gute Generation werden. Wie Polaris damals. Wenn dann der Preis noch halbwegs interessant wird … das wäre was. :up:
Gut für uns Endkunden!

fondness
2024-03-25, 10:04:08
und N48 beim Raytracing kann das echt eine sehr gute Generation werden.

Wem genau interessiert eigentlich noch Raytracing? Ist für mich der nächste Rohrkrepierer der einen leisen Tod sterben wird. Aber unabhängig davon wird es AMD sicher über kurz oder lang performant implementieren müssen.

Relex
2024-03-25, 10:15:42
Das stellst du (absichtlich?) ziemlich verzerrt dar. Wenn der Graph Quatsch erzählt, geht da irgendwas mit der Swap Chain Config o.ä. komplett schief.
Ich hab hier mit Radeon mittlerweile mit Mod + nativ so ca. ein Dutzend Spiele mit FSR 3 FG mit glattem Frame Time Graph am laufen gehabt und da ruckelt mit VRR, dynamischen fps und 100% GPU-Last gar nichts "unerklärlich"...


Na ja, das läuft ja auch. Bei Avatar und Last of us IST der Frametime Graph sauber und man sieht KEIN Ruckeln. Also praktisch alles "perfekt".

Das Problem ist nur, dass es rein optisch nicht flüssiger wird als vorher. Aber auch nicht schlechter. Wir hatten mal ne Situation da wurde es mit FG schlechter, aber jetzt wird eben weder schlechter noch besser. Das muss man eben auch unterscheiden, wird aber hier auch ständig überlesen... :rolleyes:



Ich könnte das ganze mit Kameraaufnahmen belegen. Aber ohne Radeon GPU weiß ich halt auch nicht, was dort passiert. Ich kann jetzt annehmen dass es bei dir funktioniert, weil du es sagst, aber solange man selbst bei Radeon Usern unterschiedliche Aussagen hört, kann man darauf leider auch nichts geben. Der eine sagt so, der andere so...


Mich macht es kirre, dass sich noch kein Tester das ganze auf Radeon und GeForce GPUs mal im Detail angesehen hat. CB hatte ja zuletzt ein paar Tests gemacht, hat sich dann aber auch nur wieder die Werte ausgeben lassen und in die Diagramme geworfen, anstatt dass man mal WIRKLICH aufs Bild schaut und prüft, was da überhaupt passiert.


Letztendlich bringt das doch alles nichts. Wir streiten uns hier und wissen gar nicht, wies beim jeweiligen anderen tatsächlich aussieht. Vielleicht haben wir alle Recht, vielleicht haben manche von uns unrecht. Man weiß es nicht...


Das einzige was man festhalten kann ist, dass sowohl mit Radeon als auch GeForce Karten Probleme mit dem Framepacing berichtet werden und DF meinte ja zuletzt, dass sie auf ein und dem selben System in Avatar ganz unterschiedliches Verhalten hatten. Das konnte ich zwar auch noch nicht nachstellen (bei mir verhält es sich mit dem Jeweiligen Spiel/Patch immer exakt gleich) aber das zeigt ja auch, dass das Ergebnis nicht konsistent ist.



Aber mal ganz grundlegend macht es doch mehr Sinn, berichte über Probleme ernst zu nehmen und als solche zu respektieren, anstatt versuchen zu argumentieren/beweisen/whatever, dass alles gut ist.
Dass alles gut läuft kann eben zwei Ursachen haben.
1. Es läuft tatsächlich so wie es sein soll
2. Das Problem wird nicht erkannt, weil für denjenigen zu subtil/nicht sichtbar


Hingegen wenn von Problemen berichtet wird, dann sind diese Probleme ja für denjenigen vorhanden. Das Szenario, dass jemand etwas nicht erkennt gibt es da ja nicht.

Die Negativen reports sind also rein logisch gesehen deutlich höher zu gewichten, als die positiven reports.

robbitop
2024-03-25, 10:20:19
Wem genau interessiert eigentlich noch Raytracing? Ist für mich der nächste Rohrkrepierer der einen leisen Tod sterben wird. Aber unabhängig davon wird es AMD sicher über kurz oder lang performant implementieren müssen.

Ist ein freies Land - die Meinung kann dir keiner nehmen. Aber es sieht im Moment nicht danach aus, dass RT sterben wird. Alle, die GPU IP machen investieren dort massig Transistoren. Sogar Apple und Intel. Und Qualcomm und ARM wohl auch in ihren nextgen SoCs. Was man von RDNA4 und 5 hört auch AMD.

Und ja es ist teuer und es geht auch ohne hübsch. Mir reicht oft sogar die Grafik der Spiele auf dem Steam Deck.

Aber es gibt eben einige Dinge, die nur mit RT gehen. Es ist höchst unwahrscheinlich, dass RT in nächster Zeit wieder weg gehen wird.

basix
2024-03-25, 10:21:38
Wem genau interessiert eigentlich noch Raytracing? Ist für mich der nächste Rohrkrepierer der einen leisen Tod sterben wird. Aber unabhängig davon wird es AMD sicher über kurz oder lang performant implementieren müssen.

Alle wollen es, die NextGen Grafik geniessen wollen und die Karte eine vernünftigen Zeitraum benutzen wollen? Wir haben 2024, Turing kam 2018 mit einer bereits relativ guten Implementation daher. Spiele und SW-Buden verwenden RT immer mehr. Jetzt käme RDNA4 mit halbschwachen RT Performance daher, wie sieht das bei Spielen in 1-2 Jahren aus? Absolut beschi**en für jeden Käufer.

RT ist kein Rohrkrepierer. In spätestens(!) 3-4 Jahren wird es allgemeiner Standard sein. Sogar Smartphones haben bereits RT-Acceleration. Ob es dann SW oder HW RT ist, spielt da mal keine Rolle.

The_Invisible
2024-03-25, 10:21:50
Wem genau interessiert eigentlich noch Raytracing? Ist für mich der nächste Rohrkrepierer der einen leisen Tod sterben wird. Aber unabhängig davon wird es AMD sicher über kurz oder lang performant implementieren müssen.

Eh nur die gesamte Industrie, sag mir einen Hersteller der nicht in RT-Hardware investiert...

Exxtreme
2024-03-25, 10:31:20
Wem genau interessiert eigentlich noch Raytracing? Ist für mich der nächste Rohrkrepierer der einen leisen Tod sterben wird. Aber unabhängig davon wird es AMD sicher über kurz oder lang performant implementieren müssen.

Nein, RT ist kein Rohrkrepierer. Da der optische Zusatzgewinn einfach viel zu gut ist im Vergleich zu irgendwelchen Fake-Beleuchtungen ala normal mapping oder light maps. RT im großen Stil wird aber wahrscheinlich bei weitem nicht so schnell kommen, wie es sich einige Leute (inkl. mir) erhoffen.

robbitop
2024-03-25, 11:00:43
Alle wollen es, die NextGen Grafik geniessen wollen und die Karte eine vernünftigen Zeitraum benutzen wollen? Wir haben 2024, Turing kam 2018 mit einer bereits relativ guten Implementation daher. Spiele und SW-Buden verwenden RT immer mehr. Jetzt käme RDNA4 mit halbschwachen RT Performance daher, wie sieht das bei Spielen in 1-2 Jahren aus? Absolut beschi**en für jeden Käufer.

RT ist kein Rohrkrepierer. In spätestens(!) 3-4 Jahren wird es allgemeiner Standard sein. Sogar Smartphones haben bereits RT-Acceleration. Ob es dann SW oder HW RT ist, spielt da mal keine Rolle.

Die PS5 Pro bei der laut Gerüchten starkes RT eines der Hauptziele gewesen sein soll unterstreicht diese Intention sogar noch.

dildo4u
2024-03-25, 11:00:45
Capcom nutzt aktuell RT GI auf Konsole und PC.
Wenn man keine festen Tageszeiten will macht das sinn.
Game saugt was CPU Performance angeht aber das RT ist harmlos und wirklich Sichtbar.

aQpPpHgf6lU

Relex
2024-03-25, 11:26:07
Tag/Nacht Wechsel in einer Open World ist ohne RT verdammt schwierig und aufwändig, da man für jede Lichtsituation neue Lightmaps braucht oder die Beleuchtungsfehler anderweitig kaschieren muss.

RT ist gerade für Studios wo nicht das gesamte Budget in die Grafik fließen kann eine Wohltat.
Dying Light 2 profitiert auch massivst von der RT GI, weil der Rasterpart aus Budgetgründen eben nicht bis in jede kleinste Ecke von einem Entwickler nachkorrigiert wurde.

Es muss auch nicht Pathtracing sein. RT GI in den aktuellen Formen löst bereits das größte und am deutlichsten sichtbare Problem von Rastergrafik und ist vergleichsweise günstig. Fotorealismus braucht natürlich am Ende Pathtracing. Aber den typischen Videospiel comic look bekommt man mit RT GI schon sehr gut weg und kann dann super schöne Grafik bauen, die es immer mehr mit älteren CGI Rendertrailern aufnehmen kann.

Man muss auch imho nicht jetzt schon die komplette Computing Power mit Pathtracing verballern, nur damit man (foto)realistisch beleuchtete Inhalte hat bzw. sich dem annähert, wenn die Inhalte selbst dem Niveau noch überhaupt nicht gerecht werden. Das ist momentan irgendwie Perlen vor die Säue...



Aber ich hab das Gefühl, wir sind hier im falschen Thread für dieses Thema?!

Dampf
2024-03-25, 12:07:13
Wem genau interessiert eigentlich noch Raytracing? Ist für mich der nächste Rohrkrepierer der einen leisen Tod sterben wird. Aber unabhängig davon wird es AMD sicher über kurz oder lang performant implementieren müssen.

Ist das Trolling oder Ernst? Fast jedes Game, das jetzt released unterstützt RT und manche wie Avatar nutzen es als Standard.

Capcom nutzt aktuell RT GI auf Konsole und PC.
Wenn man keine festen Tageszeiten will macht das sinn.
Game saugt was CPU Performance angeht aber das RT ist harmlos und wirklich Sichtbar.

https://youtu.be/aQpPpHgf6lU

Der Unterschied ist beeindruckend und performance technisch ist das eine sehr gute Implementation, das zieht ja kaum was. Die Konsolen nutzen es auch.

Wer ohne RT spielt, sollte sich dessen bewusst sein, dass derjenige eine Grafik bekommt, die deutlich schlechter aussieht als auf der Konsole.

Gast
2024-03-25, 12:18:05
Erstmal müsste geklärt werden ob die Technik an sich zu miserablen Ergebnissen führt oder die Implementierung der DEVs dieser. Absolut niemand konnte das bis heute aufklären! Alles nur reine Spekulationen.

Einen Schuldigen außerhalb von AMD muss es ja geben. :D

DrFreaK666
2024-03-25, 12:57:45
Back 2 Topic!?

Gast
2024-03-25, 13:19:35
Erstmal müsste geklärt werden ob die Technik an sich zu miserablen Ergebnissen führt oder die Implementierung der DEVs dieser.


Die Unterscheidung ist nicht so wirklich relevant, das Endergebnis zählt. Eine gute Library lässt nicht zu dass man sie dermaßen "falsch" benutzt.

Exxtreme
2024-03-25, 13:23:38
Die Unterscheidung ist nicht so wirklich relevant, das Endergebnis zählt. Eine gute Library lässt nicht zu dass man sie dermaßen "falsch" benutzt.

Natürlich lassen es auch gute Bibliotheken zu, dass man sie arg falsch benutzen kann. Denn sehr sehr oft sind Idiotensicherheit und gute Performance schlicht Ausschlusskriterien. Sprich, man kann nur das eine oder das andere haben aber nie beides gleichzeitig. Und wenn sich die Bibliothekenmacher für gute Performance entscheiden dann bleibt die Idiotensicherheit oft auf der Strecke.

basix
2024-03-25, 13:24:45
Hach, immer diese Gäste hier, welche die Flamewars anheizen...

Ich finde gut, wenn als "Minimalvariante" FSR 2.2.2 in DirectSR eingebunden ist. Das sollte ein paar der Problemchen von FSR2 langfristig etwas reduzieren, da es quasi als Benchmark dient. Oben drauf kann man immer noch FSR3/4, DLSS2/3/4 usw. via Treiber ermöglichen.

/Locutus oB
2024-03-25, 13:42:28
Ist das Trolling oder Ernst? Fast jedes Game, das jetzt released unterstützt RT und manche wie Avatar nutzen es als Standard.



Der Unterschied ist beeindruckend und performance technisch ist das eine sehr gute Implementation, das zieht ja kaum was. Die Konsolen nutzen es auch.

Wer ohne RT spielt, sollte sich dessen bewusst sein, dass derjenige eine Grafik bekommt, die deutlich schlechter aussieht als auf der Konsole.

ich spiele NUR noch in VR, da is RT irrelevant genauso wie FSR/DLSS. und bei Mobile gaming dürfte es ähnlich sein.... Dieses forum hier Ist Nicht der Mittelpunkt des gaming...lasst doch jedem seine Meinung...

aufkrawall
2024-03-25, 15:02:57
Na ja, das läuft ja auch. Bei Avatar und Last of us IST der Frametime Graph sauber und man sieht KEIN Ruckeln. Also praktisch alles "perfekt".

Das Problem ist nur, dass es rein optisch nicht flüssiger wird als vorher. Aber auch nicht schlechter. Wir hatten mal ne Situation da wurde es mit FG schlechter, aber jetzt wird eben weder schlechter noch besser. Das muss man eben auch unterscheiden, wird aber hier auch ständig überlesen... :rolleyes:

Ich hatte schon längst erwähnt, dass in TLOU genau der gleiche Fall vorliegt, und das Reinkopieren der Mod das fixt. Wobei Exxtreme aber auch schon wieder Posts mit Inhalt löscht.

basix
2024-03-29, 00:20:57
Ich weiss nicht, ob das hier schon zur Sprache kam: FSR 3.1 erlaubt FG mit anderen Upscaling Technologien: https://gpuopen.com/events/amd-at-gdc-2024/
AMD FSR 3.0 required that FSR 3 upscaling to execute and generate information before FSR 3 frame generation. This did save GPU resources (allowing for higher FPS) but did restrict choices. With AMD FSR 3.1, the frame generation can run with any third party upscale component – with the small caveat that an additional step is required to precompute some data from the upscaler inputs.

Im selben Link gibt es auch eine Vergleich zwischen FSR 2.2 und 3.1, wo letzteres deutlich weniger flimmert und ghosting aufweist.

robbitop
2024-03-29, 00:30:38
ja das wurde iirc schon vor Tagen gepostet und auch schon diskutiert.

aufkrawall
2024-03-29, 00:39:02
Wenn der Input Schrott ist, etwa unzureichende Bewegungsvektoren für bestimmte animierte Objekte, würd ich da aber vs. NN auch keine Wunder erwarten.
Aber gut, ansonsten klingt es sehr vielversprechend. Es muss aber unbedingt auch stabil mit Nanite bleiben. Wenn sie das hinkriegen: Chapeau. Tippe, sie werden da bei diesem evolutionären Update auch eher nicht die Renderkosten erhöhen wollen. Dürfte es meinetwegen aber auch gerne geben, wenn die Qualität überproportional zulegt.

robbitop
2024-03-29, 11:43:27
Ancient Gameplay hat die neusten DLSSFG-> FSR3FG mods getestet. Fixt die kaputten Frametimes in Spielen wo es anscheinend kaputt war: https://youtu.be/SSlBT-sJfME?si=JxA-oq7UFOkdsv7b

Ich kann bei sowas nur den Kopf schütteln. Ein Hobbytyp ohne Zugriff auf den Sourcecode und die Doku des Spiels baut (viele!) Mods die besser funktionieren als die offizielle Implementierung.
Ob es da keine QA gibt und die Entwickler Tomaten auf den Augen haben? An deren Stelle würde ich mich jedenfalls schämen.

Was aber auch auffällt. Es sind laut HWUB immer die gleichen handvoll Leute die an FG und Upsampling arbeiten. Gab also beim Upsampling keinen Fortschritt weil die gleichen vier Leute derweil FG machen mussten.
Das sieht so aus als würde dort Priorität fehlen. Das Team müsste man definitiv vergrößern um dann leapfrogging zu machen bzw an mehreren Dingen zu arbeiten.
Und der hands-off approach mit dem Studios führt dann zu unnötig durchwachsenen Ergebnissen. Da müsste man viel mehr hinterher sein. Die Studios würden sich sicherlich kaum gegen Kolaboration und Hinweise bei mangelhaften Implementierungen wehren.

Wirkt IMO eine Spur zu unpriorsiert, zu reaktiv/passiv.
Das Verfahren selbst (fsr3 fg - unabhängig vom upsampling) scheint ja durchaus sehr gut funktionieren zu können. Und es ist schade, dass das nicht konsistenter der Fall ist.

Lurtz
2024-03-29, 11:49:47
Was aber auch auffällt. Es sind laut HWUB immer die gleichen handvoll Leute die an FG und Upsampling arbeiten. Gab also beim Upsampling keinen Fortschritt weil die gleichen vier Leute derweil FG machen mussten.
Das sieht so aus als würde dort Priorität fehlen. Das Team müsste man definitiv vergrößern um dann leapfrogging zu machen bzw an mehreren Dingen zu arbeiten.
Wo jetzt? Bei AMD laut der Code-Commits? :confused:

robbitop
2024-03-29, 12:10:22
Wo jetzt? Bei AMD laut der Code-Commits? :confused:

Und bei den whitepapers die auf opengpu vorgestellt werden.

Passt ja auch perfekt ins Bild. Es gibt seit fsr 2.2 keine updates mehr beim Upsampler. Und FG hat viel zu lange gedauert als dass das keine Reaktion auf dlss fg gewesen sein soll. Jetzt wo FG halbwegs funktioniert gibt es wieder Fortschritte beim Upsampling.

Da gab es offenbar nicht viel Parallelisierungsmöglichkeit.

DrFreaK666
2024-03-29, 12:21:49
Man darf nicht vergessen, dass letztes Jahr ein Großteil der RTG in China entlassen wurde
https://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/Bericht-AMD-mit-Entlassungen-in-der-Radeon-Technologies-Group-1432076/

Linmoum
2024-03-29, 12:30:24
Nein, wurden sie nicht. Das hatte AMD schon kurz nach Bekanntwerden des Gerüchts damals dementiert.

Selbst das wäre aber auch wahrlich keine Ausrede dafür, dass man hier augenscheinlich derart wenig Aufwand betreibt, obwohl er bitter nötig ist.

Exxtreme
2024-03-29, 12:41:36
Hängt davon ab welche Prioritäten man hat. Und AMD hat wohl FG gewählt da das für die Spieler einen einzigartigen Nutzen hat im Gegensatz zum Upscaling.

DrFreaK666
2024-03-29, 13:02:10
AMDs Prioritäten liegen eher bei AI/ML, da dort das Geld verdient wird

fondness
2024-03-29, 15:26:55
Das Verfahren selbst (fsr3 fg - unabhängig vom upsampling) scheint ja durchaus sehr gut funktionieren zu können. Und es ist schade, dass das nicht konsistenter der Fall ist.

Mittlerweile haben dich mehrere Personen die es verwenden darauf hingewiesen, dass es konsistent der Fall ist. Der CB test sieht es auch nicht anders, trotzdem behauptest du immer wieder den gleichen bullshit.

aufkrawall
2024-03-29, 15:53:31
Da gab es offenbar nicht viel Parallelisierungsmöglichkeit.
Das zieht sich doch wie ein roter Faden durch die gesamte GPU-Sparte bei AMD, siehe das Drama um Hotz und die verbugten Firmwares.
Man kann es Su schon ankreiden, dass sie niemanden für die GPU-Sparte gefunden hat, der das stärker aufbaut.

Mit dem Fidelity FX SDK scheint es aber in die richtige Richtung zu gehen. Mal sehen, ob ggf. auch Microsoft o.a. das aufnehmen.
Man muss sich auch nicht immer nur auf das Negative einschießen. Immerhin hat FSR 2.2 kein Abart-Smearing in HFW wie XeSS und dieses Vegetationsdesign verursacht noch weniger Disocclusion-Geflimmer als in Avatar...

DrFreaK666
2024-03-29, 17:11:55
Mittlerweile haben dich mehrere Personen die es verwenden darauf hingewiesen, dass es konsistent der Fall ist. Der CB test sieht es auch nicht anders, trotzdem behauptest du immer wieder den gleichen bullshit.

DFs Alex behauptet nach einem "Test" halt was anderes und für viele hat DF mehr Gewicht als alle anderen Seiten gemeinsam

Gast
2024-03-29, 17:26:21
Hängt davon ab welche Prioritäten man hat. Und AMD hat wohl FG gewählt da das für die Spieler einen einzigartigen Nutzen hat im Gegensatz zum Upscaling.

Seltsame Prioriorisierung. Upsampling bringt jedem was, während FG ein extrem begrenztes Klientel hat dass es sinnvoll nutzen kann.

robbitop
2024-03-29, 18:18:07
Mittlerweile haben dich mehrere Personen die es verwenden darauf hingewiesen, dass es konsistent der Fall ist. Der CB test sieht es auch nicht anders, trotzdem behauptest du immer wieder den gleichen bullshit.

Ancient Gameplay hat mehrere Videos gemacht sowohl auf Radeons als auch auf Geforces wo klar sichtbar war dass es framepacing issues gab. Ich empfehle dir den Link zu klicken, den ich als Beleg geliefert habe. Das Video ist brandneu mit einer RDNA3.

robbitop
2024-03-29, 18:22:04
DFs Alex behauptet nach einem "Test" halt was anderes und für viele hat DF mehr Gewicht als alle anderen Seiten gemeinsam
Nicht nur DF. Es gibt mehrere Videobelege von Ancient Gameplays mit Radeon und Geforce, die das belegen.

aufkrawall
2024-03-29, 18:26:21
Was tut denn GeForce zur Sache, wenn es mit dem Nvidia-Treiber offenbar eh nicht richtig läuft? Das muss man im Grunde komplett ausklammern, wenn man die Frame Pacing-Qualität an sich bewerten will. Ist Open Source und Nvidia könnte es vermutlich fixen, wenn sie wollten.

robbitop
2024-03-29, 18:28:05
Das zieht sich doch wie ein roter Faden durch die gesamte GPU-Sparte bei AMD, siehe das Drama um Hotz und die verbugten Firmwares.
Man kann es Su schon ankreiden, dass sie niemanden für die GPU-Sparte gefunden hat, der das stärker aufbaut.

Mit dem Fidelity FX SDK scheint es aber in die richtige Richtung zu gehen. Mal sehen, ob ggf. auch Microsoft o.a. das aufnehmen.
Man muss sich auch nicht immer nur auf das Negative einschießen. Immerhin hat FSR 2.2 kein Abart-Smearing in HFW wie XeSS und dieses Vegetationsdesign verursacht noch weniger Disocclusion-Geflimmer als in Avatar...
Die Intention von mir ist nicht sich auf das Negative einzuschiessen. Es ist eher so, dass das Potenzial da ist und die Technologischen Hürden (und das ist das Schwierigste!) oft überwunden sind. Und dann vertendelt man es durch Inkonsequentes Handeln. Aus RTG könnte man schon mehr rausholen. IMO hat RTG ein Leadership Problem. Die Mannschaft an sich scheint das Zeug zu haben um mitzuhalten.

DrFreaK666
2024-03-29, 18:39:04
Nicht nur DF. Es gibt mehrere Videobelege von Ancient Gameplays mit Radeon und Geforce, die das belegen.

Ja schon. Wollte halt gegen DF stänkern, weil von denen gar nichts kommt

fondness
2024-03-29, 19:25:39
Man kann es Su schon ankreiden, dass sie niemanden für die GPU-Sparte gefunden hat, der das stärker aufbaut.

AMD hat nicht den Luxus wie Nvidia oder Intel, dass man einfach überall endlos Ressourcen drauf hauen kann, Lisa muss priorisieren. Und wo diese Priorität liegt, das hat sie mehrmals klargestellt: Datacenter. MI300 ist ein beeindruckendes Stück Hardware, gerade wenn man bedenkt, dass AMD in dem Markt vorher kaum vorhanden war und dort stecken mit Sicherheit ein Großteil der Ressourcen der RTG drinnen. Dieser MI300 rettet AMD auch gerade die Zahlen und dafür ist man offensichtlich auch bereit, die nächster Gamer Generation zu opfern, da man die knappen packaging Kapazitäten nicht teilen will. Bei CPUs hat man das Glück, dass man die Datacenter CPU cores im customer Bereich recyceln kann, bei den GPUs laufen professioneller Bereich und gaming allerdings immer weiter auseinander. Womit sich der Kreis schließt und wir wieder beim Anfang sind: AMD muss priorisieren.

Lurtz
2024-03-29, 19:50:08
AMD hat nicht den Luxus wie Nvidia oder Intel, dass man einfach überall endlos Ressourcen drauf hauen kann, Lisa muss priorisieren. Und wo diese Priorität liegt, das hat sie mehrmals klargestellt: Datacenter. MI300 ist ein beeindruckendes Stück Hardware, gerade wenn man bedenkt, dass AMD in dem Markt vorher kaum vorhanden war und dort stecken mit Sicherheit ein Großteil der Ressourcen der RTG drinnen. Dieser MI300 rettet AMD auch gerade die Zahlen und dafür ist man offensichtlich auch bereit, die nächster Gamer Generation zu opfern, da man die knappen packaging Kapazitäten nicht teilen will. Bei CPUs hat man das Glück, dass man die Datacenter CPU cores im customer Bereich recyceln kann, bei den GPUs laufen professioneller Bereich und gaming allerdings immer weiter auseinander. Womit sich der Kreis schließt und wir wieder beim Anfang sind: AMD muss priorisieren.
Das heißt man sollte aktuell keine Radeons kaufen, weil PC-Gaming keine Priorität bei AMD hat?

aufkrawall
2024-03-29, 19:50:16
Sie sind doch seit locker fünf Jahren nicht mehr von der Insolvenz bedroht, da kann man nicht mit Geld etwa ein Dutzend Leute mit guten Ideen nur für Gaming von anderen abwerben? Glaub ich nicht.
Dass dann die knappen Ressourcen in so etwas wie AFMF investiert werden, zeigt exemplarisch auf, dass da jemand ohne den richtigen Riecher wichtige Entscheidungen trifft. Die haben einfach Glück gehabt, dass da ein (? :freak: ) kluger Kopf für FSR 3 FG die richtigen Ideen gehabt hat, das hätte sonst ggf. auch wieder böse enden können... :eek:
Grottiges Personal-Management. Steinigt mich, aber: bestimmt zu viele Chinesen. Der FSR-Typ scheint auch einen schottischen Akzent zu haben. Wie hoch war die Chance, dass der zu AMD stößt? Mehr Glück als Verstand bzw. Geschäftssinn. :freak:

Gast
2024-03-29, 20:15:20
Nicht nur DF. Es gibt mehrere Videobelege von Ancient Gameplays mit Radeon und Geforce, die das belegen.

Das ist ein AMD Fanboy, kann man nicht ernst nehmen. Egal ob viele Abonennenten oder nicht.

DrFreaK666
2024-03-29, 20:42:29
Das ist ein AMD Fanboy, kann man nicht ernst nehmen. Egal ob viele Abonennenten oder nicht.

Und was ist deine Meinung zu DF?

Das heißt man sollte aktuell keine Radeons kaufen, weil PC-Gaming keine Priorität bei AMD hat?

Dann kann man allgemein keine Karten kaufen, denn Nvidia sieht sich auch nicht mehr als Gaming Firma

fondness
2024-03-29, 21:06:18
Das heißt man sollte aktuell keine Radeons kaufen, weil PC-Gaming keine Priorität bei AMD hat?

Du glaubst ernsthaft, dass Nvidia PC-Gaming priorisiert? Der Unterschied ist vielleicht, dass es sich bei nVidia nicht so stark auswirkt, weil sie genug Ressourcen für beides haben. Und was du kaufst musst du selbst wissen. Klar ist, dass man sich nicht wundern braucht warum es so läuft wie es läuft. Ich erwarte da keine Wunder mehr, das PC-Gaming Geschäft war für AMD defacto durchgehend ein Verlust Geschäft.

Gast
2024-03-29, 21:19:56
AMD hat nicht den Luxus wie Nvidia oder Intel, dass man einfach überall endlos Ressourcen drauf hauen kann, Lisa muss priorisieren. Und wo diese Priorität liegt, das hat sie mehrmals klargestellt: Datacenter.


Scheint nicht besonders gut zu funktionieren, da ist man ja noch weiter hinten wie beim Gaming.

Exxtreme
2024-03-29, 22:11:14
Das heißt man sollte aktuell keine Radeons kaufen, weil PC-Gaming keine Priorität bei AMD hat?

PC-Gaming hat eine gewisse Priorität, Radeons nicht unbedingt.

The_Invisible
2024-03-29, 22:32:27
Dann kann man allgemein keine Karten kaufen, denn Nvidia sieht sich auch nicht mehr als Gaming Firma

Doch Intel :freak:

Naja mal sehen, NV braucht für sein Software Ökosystem auch starke Workstation Karten (Omniverse), also auch entsprechend Treiber, hier werden also schon auch ein paar kaputte Dies fürs Gaming übrigbleiben.

vinacis_vivids
2024-03-30, 00:06:46
FSR4 könnte vierfache Frame Generation machen um vom 60hz Standard wegzukommen auf 240hz Standard. FSR-Matrix-KI-Upscale auf 8K wäre damit möglich (mit entsprechender Rechenleistung).

KI-Matrix ist halt ultraheiß.

DrFreaK666
2024-03-30, 00:33:57
Bitte nicht in zwei Threads fantasieren

raffa
2024-03-30, 00:48:27
das wär ja mega, 240fps, die sich anfühlen wie 60. top. : )

damit das ein wenig inhalt hat: es gibt schon anwendungsfälle, wo frame interpolation sinn macht. aber eigentlich will man echte hohe zeitliche auflösung für interaktiven content aka games.

Relex
2024-03-30, 01:30:49
Dass mehr Zwischenbilder das Ziel sind, wurde ja von den Herstellern schon in diversen Interviews angedeutet. AMD und Intel meine ich…

Ich würde das auf jeden Fall nutzen. Ziel sollte halt sein, dass die GPU meinetwegen 60, 90 oder 120 FPS schafft und der Rest, der bis zur Maximalfrequenz des Displays fehlt, einfach generiert wird. Die Performance (Latenz) hängt dann weiterhin von der tatsächlichen Leistungsfähigkeit der GPU ab, aber ruckeln und Bewegtbildschärfe wären immer Optimal, ganz egal ob man einen 144, 240, 360 oder 1000 Hz Monitor hat. Damit könnte man sample and hold blur für immer beseitigen.

Aktuell scheint die Berechnung von nur einem Zwischenbild schon recht teuer, was viele weitere Zwischenbilder vorerst unsinnig erscheinen lässt. Aber wenn man dafür stärkere dedizierte Hardware baut könnte das in Zukunft schon klappen.

basix
2024-03-30, 09:04:14
Ich hätte eher Lust auf Frame Extrapolation als nächsten Schritt. 3-4x interpolierte Bilder sind zwar schön und gut. Und vermutlich nicht so schwer machbar. Aber der Nutzen ist nochmals grenzwertiger als bei 2x Frames. Extrapolation hätte mMn da mehr Vorteile.

fondness
2024-03-30, 09:15:52
Scheint nicht besonders gut zu funktionieren, da ist man ja noch weiter hinten wie beim Gaming.

Also die mit Abstand größte sparte bei AMD ist mittlerweile datacenter, die sparte war vor wenigen Jahren praktisch nicht vorhanden.

vinacis_vivids
2024-03-30, 09:26:21
Die Motion Frames müssen dann wohl mit Matrix-Multiplikation per int8 besser, schneller und asynchron gepixelt werden. Die Pixelshader kann man ja per fp16 + int8 Algorithmen auf 240hz festtackern.

Müsste deutlich billiger sein als jedes Pixel in voller Auflösung auszurechnen. Man dichtet mit der "KI" per int8 Matrix-Multiplikation etwas hinzu.

Die fp32-Einheiten müsste AMD von den Pixelshader asynchron betreiben können. Am besten noch RT-shading Code automatisiert in int8 (von fp32) integrieren. Das löst dann jede Bremse bei RT-shading Game-Code.

][immy
2024-03-30, 10:15:58
das wär ja mega, 240fps, die sich anfühlen wie 60. top. : )

damit das ein wenig inhalt hat: es gibt schon anwendungsfälle, wo frame interpolation sinn macht. aber eigentlich will man echte hohe zeitliche auflösung für interaktiven content aka games.
Nein, langsamer als 60fps. Die Bewegung wird zwar flüssiger (theoretisch), die Artefakte vermehren sich, aber der Lag ist höher als bei 60 fps.
Ich bin derzeit mit 60fps mehr als Zufrieden. Muss nicht flüssiger werden. Das die Displays flotter werden, nehme ich trotzdem gerne mit, denn dann sind die Bildübergänge auch weniger Schlierenanfällig.

Gast
2024-03-30, 10:43:46
Aber der Nutzen ist nochmals grenzwertiger als bei 2x Frames. Extrapolation hätte mMn da mehr Vorteile.


Nicht wirklich, den Penalty hast du durch das Zurückhalten eines Frames. Ob du dazwischen 1, 2 oder noch mehr berechnest ist ziemlich egal, die einzigen Limits sind die Performance welche für die Frameberechnung aufgewendet werden muss und das Display-Interface.

Weitere Nachteile sind durch mehr generierte Frames jedenfalls nicht zu erwarten.

Gast
2024-03-30, 10:45:35
Also die mit Abstand größte sparte bei AMD ist mittlerweile datacenter, die sparte war vor wenigen Jahren praktisch nicht vorhanden.

Ich meine auch den realen Erfolg. Beim Gaming hat man ja immerhin noch 1 Fuß in der Tür, beim Datacenter stampft Nvidia ja alles in Grund und Boden, und alle anderen sind komplett vernachlässigbar, und vor allem liegt Nvidias Vorsprung nicht an der Hardware.

robbitop
2024-03-30, 11:36:07
Das ist ein AMD Fanboy, kann man nicht ernst nehmen. Egal ob viele Abonennenten oder nicht.

Er hat es aber auch auf den radeons als kaputt attestiert. Außerdem sollte man lieber die Videos und wie er testet beurteilen und nicht über ein Vorurteil die Ergebnisse in Frage stellen. Und er nutzt die richtigen Tools und schaut sich IMO die richtigen Dinge an. Wenn Kritik dann spezifisch und mit Substanz. Alles andere ist IMO nicht das Diskussionsniveau was man als Akademiker führen sollte m. ;)

robbitop
2024-03-30, 11:37:28
Was tut denn GeForce zur Sache, wenn es mit dem Nvidia-Treiber offenbar eh nicht richtig läuft? Das muss man im Grunde komplett ausklammern, wenn man die Frame Pacing-Qualität an sich bewerten will. Ist Open Source und Nvidia könnte es vermutlich fixen, wenn sie wollten.

Es ist immer gut beides zu testen. Mehr Datenpunkte sind nie ein Nachteil. ;)
Und da das kaputte framepacing dort auch auf Radeons in einigen Spielen attestiert wurden, passt es doch.

robbitop
2024-03-30, 11:39:35
Sie sind doch seit locker fünf Jahren nicht mehr von der Insolvenz bedroht, da kann man nicht mit Geld etwa ein Dutzend Leute mit guten Ideen nur für Gaming von anderen abwerben? Glaub ich nicht.
Dass dann die knappen Ressourcen in so etwas wie AFMF investiert werden, zeigt exemplarisch auf, dass da jemand ohne den richtigen Riecher wichtige Entscheidungen trifft. Die haben einfach Glück gehabt, dass da ein (? :freak: ) kluger Kopf für FSR 3 FG die richtigen Ideen gehabt hat, das hätte sonst ggf. auch wieder böse enden können... :eek:
Grottiges Personal-Management. Steinigt mich, aber: bestimmt zu viele Chinesen. Der FSR-Typ scheint auch einen schottischen Akzent zu haben. Wie hoch war die Chance, dass der zu AMD stößt? Mehr Glück als Verstand bzw. Geschäftssinn. :freak:
Genau so :up:
Es sind nur ein paar Leute die in der Gesamt P/L g.a.r. nicht auffallen würden bei so einem Konzern. Das ist kein Resourcenthema sondern IMO ein Führungsthema der RTG.

robbitop
2024-03-30, 11:45:51
Die Motion Frames müssen dann wohl mit Matrix-Multiplikation per int8 besser, schneller und asynchron gepixelt werden. Die Pixelshader kann man ja per fp16 + int8 Algorithmen auf 240hz festtackern.

Müsste deutlich billiger sein als jedes Pixel in voller Auflösung auszurechnen. Man dichtet mit der "KI" per int8 Matrix-Multiplikation etwas hinzu.

Die fp32-Einheiten müsste AMD von den Pixelshader asynchron betreiben können. Am besten noch RT-shading Code automatisiert in int8 (von fp32) integrieren. Das löst dann jede Bremse bei RT-shading Game-Code.

Der Code für Optical Flow nutzt Vektorinstruktionen. Matrixinstruktionen braucht es in der 3D Grafik kaum. Aktuell eher für NN.
Und Datenformate kann man ohne Artefakte fürchten zu müssen nicht einfach so reduzieren.
Die Vektor FPUs werden für Pixelshader und auch alle anderen Shadertypen (Compute, Geometry etc) genutzt.

Was du da alles zusammenhaust ist Kauderwelsch.

Relex
2024-03-30, 11:54:32
[immy;13517112']Nein, langsamer als 60fps. Die Bewegung wird zwar flüssiger (theoretisch), die Artefakte vermehren sich, aber der Lag ist höher als bei 60 fps.
Ich bin derzeit mit 60fps mehr als Zufrieden. Muss nicht flüssiger werden. Das die Displays flotter werden, nehme ich trotzdem gerne mit, denn dann sind die Bildübergänge auch weniger Schlierenanfällig.

Auch falsch. Die Latenz ist höher als mit Latenzreduzierenden Maßnahmen a la Reflex.

Idealerweise ist die Latenz aber damit immernoch besser als standardmäßige 60 FPS ohne Latenzreduzierende Maßnahmen.

Nur im Worst Case ist die Latenz schlechter.


Du hast also die Wahl.
Willst du gleiche FPS und bessere Latenzen, dann aktivierst du AntiLag+ oder Reflex.
Willst du mehr FPS, in Zukunft ggf. sogar 2x oder 4x so viele FPS, dann aktivierst du eben FG + AL/Reflex und hast damit bei vergleichbaren Latenzen sehr viel mehr Frames.


Und Artefakte ist auch relativ. Was ist wohl besser? Ein komplett fehlendes Frame und damit entsprechend starke sample and hold Unschärfe oder ein Zwischenbild, das den Sample and hold Blur um die Hälfte Reduziert mit einigen wenigen Problemstellen, die nur im Zwischenbild zu sehen wären.

The_Invisible
2024-03-30, 12:08:02
Genau so :up:
Es sind nur ein paar Leute die in der Gesamt P/L g.a.r. nicht auffallen würden bei so einem Konzern. Das ist kein Resourcenthema sondern IMO ein Führungsthema der RTG.

Sag ich ja schon länger, CPU Hui und GPU pfui (zumindest die Entscheidungen). Kaum zu glauben daß beide unter dem selben Dach sind. Das man das AI Thema zb so lange schleifen hat lassen kann ja kein Zufall sein.

fondness
2024-03-30, 14:10:45
Genau so :up:
Es sind nur ein paar Leute die in der Gesamt P/L g.a.r. nicht auffallen würden bei so einem Konzern. Das ist kein Resourcenthema sondern IMO ein Führungsthema der RTG.

Ich glaube manchen fehlt hier völlig der Realitätssinn. Zu glauben, dass man da mit einer Hand voll Leute alles ändert ist völlig absurd. Aber nachdem wir hier im forum eh die Experten sitzen haben ist wohl jede Diskussion überflüssig. Sarkasmus off.

fondness
2024-03-30, 14:12:25
Ich meine auch den realen Erfolg. Beim Gaming hat man ja immerhin noch 1 Fuß in der Tür, beim Datacenter stampft Nvidia ja alles in Grund und Boden, und alle anderen sind komplett vernachlässigbar, und vor allem liegt Nvidias Vorsprung nicht an der Hardware.

Also wenn ich mir ansehe, dass AMD aus dem Stand im ersten Quartal wo man mit dem Verkauf begann gleich mal annähernd 10% Marktanteil erreicht und wie nervös Nvidia auf die Vorstellung von MI300 reagiert hat, scheint das wohl nicht den Tatsachen zu entsprechen.

Wenn ich angeblich so überlegen bin wie Nvidia es ist, dann ignoriere ich so einen wintzling wie AMD. Stattdessen gab es einen Schlagabtausch mit benchmarks.

aufkrawall
2024-03-30, 18:50:20
Ich glaube manchen fehlt hier völlig der Realitätssinn. Zu glauben, dass man da mit einer Hand voll Leute alles ändert ist völlig absurd. Aber nachdem wir hier im forum eh die Experten sitzen haben ist wohl jede Diskussion überflüssig. Sarkasmus off.
So wie eine handvoll Leute einen komplett neuen Shader Compiler geschrieben haben, der um mehrere Größenordnungen schneller auf der CPU kompiliert als der von AMD selbst, und dabei auch noch schnelleren Code für die GPU erzeugt? :freak:

robbitop
2024-03-30, 19:25:51
Ich glaube manchen fehlt hier völlig der Realitätssinn. Zu glauben, dass man da mit einer Hand voll Leute alles ändert ist völlig absurd. Aber nachdem wir hier im forum eh die Experten sitzen haben ist wohl jede Diskussion überflüssig. Sarkasmus off.

Schau mal in die FSR Whitepaper. Das sind eine Hand voll Leute, die FSR geschrieben haben.

OpenVMSwartoll
2024-03-30, 19:37:23
Schau mal in die FSR Whitepaper. Das sind eine Hand voll Leute, die FSR geschrieben haben.

Das ist eine Frage, die Du mit Recht aufwirfst: Wie viele gibt es am Markt, die wirklich etwas bewegen können? Sprich: Mangelt es an AMDs Engagement oder sind wir hier in einem Bereich, den nur wenige wirklich voranbringen können?

Da ich es nicht weiß, hoffe ich auf Eure Expertise.

robbitop
2024-03-30, 19:50:25
IMO ist das ein Führungsthema. Klar wächst Talent nicht auf Bäumen und es gibt Dinge, die nur manche können. Aber sowas kann man auch mittelfristig aufbauen. Absolventen gibt es von den Eliteunis einige und die große Entlassungswelle gab es auch im Silicon Valley. Frische Leute müssen dann von den Profis angelernt werden.

Woran es häufig scheitert, ist dass der „richtige“ nicht das Mandat hat, um große Veränderungen durchzuboxen. Was passiert, wenn das doch mal der Fall ist, sieht man wenn Jim Keller geholt wird. Der erkennt die richtigen Leute, definiert die Vision und das Ziel und dann wird ein Plan mit Initiativen aufgestellt, welche zu diesem führen. Alle Widerstände werden mit dem dicken Mandatshammer weggewalzt.

Leider sind viele große Organisatoren vergriesgnaddelt. Nicht den einen großen Mandatsträger sondern mehrere die sich nicht einigen und/oder Mandatsträger mit zu wenig Fachkompetenz und/oder sie stellen keine Vision auf und entsprechende Pläne mit konkreten Initiativen die den Weg dahin bilden (der regelmäßig mit ganz viel Ungesuld neu ausgerichtet und durchgeboxt werden muss).

Wenn man bei AMD auf der Webseite das senior leadership team anschaut, fällt auf, dass es nicht den einen Leader für die RTG gibt sondern auf mehrere aufgeteilt ist. Potenziell mit im Konflikt stehenden Jahrezielen/KPIs.

Als jemand der im senior leadership eines börsennotierten US Unternehmens arbeitet kann ich sagen: ich kenne beides. Gutes und schlechtes leadership. Leider meist letzteres. Entropie halt.

Andrew Kapathy (ex Tesla FSD Chefentwickler und jetzt bei OpenAI) beschreibt es (am Beispiel von Musk) so: https://youtu.be/c3b-JASoPi0?si=7hTpaQUfSD7LndjC
Ab Minute 16:30

OpenVMSwartoll
2024-03-30, 20:35:20
Danke Dir, das war informativ.

vinacis_vivids
2024-03-31, 01:24:53
Der OT Beitrag hat jetzt wieviel mit FSR2 / FSR3 zu tun?
Ich denke zu viele "Entwickler" haben einfach ihre Seele schon an Huang NDA-DLSS3 verkauft, um auf der vermeintlich richtigen Seite zu stehen. Oder der Entwickler steht unter einem NV-Fanboi als Chef. Da sieht seine freie Entwicklung für FSR2 / FSR3 relativ düster aus wenn Chefchen in NV-Bettdecke schläft und Schweigegeld kassiert hat.

Exxtreme
2024-03-31, 01:31:21
Ich glaube manchen fehlt hier völlig der Realitätssinn. Zu glauben, dass man da mit einer Hand voll Leute alles ändert ist völlig absurd. Aber nachdem wir hier im forum eh die Experten sitzen haben ist wohl jede Diskussion überflüssig. Sarkasmus off.

Eine Handvoll Leute sind in der Softwareentwicklung extrem effizient. Teams in der Softwareentwicklung skalieren sinnvoll nur bis zu 5 Leuten. Alles, was über 5 Leute hinausgeht, skaliert praktisch nicht mehr. Ist auch der Grund warum die ganzen Socialmedia-Riesen hunderte Entwickler beschäftigen und sich bei denen auf der Website seit Jahren fast nichts mehr tut. Bzw. wenn 5 Leute trotzdem zu langsam sind dann muss man anfangen zu modularisieren.

Slipknot79
2024-03-31, 04:13:59
>Oder der Entwickler steht unter einem NV-Fanboi als Chef.

Vielleicht sind es aber auch nur die 15% Marktanteil (Steam Hardware Umfrage) von AMD, die abschrecken. Ich meine, verständlich.
Es wird für Konsolen entwickelt. Es wird für Nvidia entwickelt. Die kleine StartUp-Garage AMD interessiert einfach nicht. (Noch weniger interessiert Intel)

Man muss sogar Nvidia dankbar sein, dass der Laden das nicht mal ausnutzt, sondern von Generation zu Generation liefert. Nvidia hat nur sich selbst als Konkurrenz. (y)

OpenVMSwartoll
2024-03-31, 04:40:39
Der OT Beitrag hat jetzt wieviel mit FSR2 / FSR3 zu tun?
Ich denke zu viele "Entwickler" haben einfach ihre Seele schon an Huang NDA-DLSS3 verkauft, um auf der vermeintlich richtigen Seite zu stehen. Oder der Entwickler steht unter einem NV-Fanboi als Chef. Da sieht seine freie Entwicklung für FSR2 / FSR3 relativ düster aus wenn Chefchen in NV-Bettdecke schläft und Schweigegeld kassiert hat.

Ich verstehe, wenn Du diesen Exkurs, der letztlich für mich ein perspektivischer Blick auf das Hauptproblem des Nachhinkens hinter Nvidia darstellt, als OT betrachtest.

Ich fand es interessant, zu verstehen warum AMD nur ein Problem nach dem anderen adressiert und nicht an breiter Front angreifen kann.

NV hat die Manpower, FG und Upscaling parallel voranzutreiben, AMD kümmert sich isoliert immer nur um eine Baustelle.

Und daher wollte ich einfach verstehen, wie realistisch es ist, dass sich bei AMD etwas ändert. Und wie man sieht, ist das Wissen in diesem Forum zum Glück vorhanden, um den Blick über den Tellerrand zu wagen.

Ich bitte um Verständnis und wünsche Frohe Ostern.

fondness
2024-03-31, 10:45:47
Schau mal in die FSR Whitepaper. Das sind eine Hand voll Leute, die FSR geschrieben haben.

Ach bitte, was soll das denn beweisen? Vermutlich sind dort nur die Lead Engineers aufgeführt. Alleine um eine solche Doku zu schreiben brauche ich eine Hand voll Leute. :ugly:

https://gpuopen.com/manuals/fidelityfx_sdk/fidelityfx_sdk-index/

dargo
2024-03-31, 10:47:14
Hier noch ein Problem bei FSR 2.2 in HFW, zum Glück kommt es nicht ganz so häufig vor. Hängt mit dem Hintergrund zusammen. Bin schon gespannt ob FSR 3.1 auch hier Besserung bringt.
OSB7zTvwebc

woodsdog
2024-03-31, 11:05:19
was soll man denn da sehen was nicht vielleicht von YT kapottkomprimiert wurde?

dargo
2024-03-31, 11:22:44
Du siehst das Ghosting bei den Symbolen nicht? :freak:

basix
2024-03-31, 11:26:19
Nicht wirklich, den Penalty hast du durch das Zurückhalten eines Frames. Ob du dazwischen 1, 2 oder noch mehr berechnest ist ziemlich egal, die einzigen Limits sind die Performance welche für die Frameberechnung aufgewendet werden muss und das Display-Interface.

Weitere Nachteile sind durch mehr generierte Frames jedenfalls nicht zu erwarten.

Du hast das Konzept von Extrapoplation wohl nicht verstanden. Und ausserdem auch nicht den Frame Shutter von 2x Inpterpolation.

Extrapolation:
Du musst das Frame nicht zurückhalten. Das wäre der riesige Vorteil davon. Doppelte FPS ohne Latenznachteil. Das würde sich inkl. Reflex etc. deutlich näher an "realen" doppelten Frames anfühlen. Und entsprechend auch bei <60fps ein grosser Vorteil sein. Nutzen = Gross

Frame Shutter:
Abwechselnd gerenderte und generierte Frames übertölpeln das Auge. Fehler in den generierten Frames werden "übersehen". Wenn du nun 4x FG machst, hast du keinen zusätzlichen Latenznachteil, das ist richtig. Aber es sind 75% der Frames generiert. Fehler in den generierten Frames werden viel deutlicher auffallen. Die Qualität der FG Frames muss deutlich steigen, damit das nicht zum Problem wird. Wenn die Qualität stimmt, kann das mit 4x FG natürlich schon nice sein. Aber auch hier: In Kombination mit Extrapolation wäre es die bessere Situation. Da wäre 40 -> 120fps evtl. gleich gut brauchbar wie heute 60 -> 120fps. Und somit viel breiter einsetzbar / brauchbar. Dazu noch 40 -> 160fps als Option, wenn das noch was nützen sollte.

Gast
2024-03-31, 12:58:43
Hier noch ein Problem bei FSR 2.2 in HFW, zum Glück kommt es nicht ganz so häufig vor. Hängt mit dem Hintergrund zusammen. Bin schon gespannt ob FSR 3.1 auch hier Besserung bringt.
https://youtu.be/OSB7zTvwebc


Da werden die Elemente wohl erst im PP drüber gelegt und haben deshalb keine Bewegungsvektoren.

Gast
2024-03-31, 13:15:37
Du hast das Konzept von Extrapoplation wohl nicht verstanden. Und ausserdem auch nicht den Frame Shutter von 2x Inpterpolation.



Doch.


Extrapolation:
Du musst das Frame nicht zurückhalten. Das wäre der riesige Vorteil davon. Doppelte FPS ohne Latenznachteil.


Allerdings auch ohne Vorteil.

Und entsprechend auch bei <60fps ein grosser Vorteil sein. Nutzen = Gross

Nicht wirklich, 60-->120 mit Interpolation fühlt sich wie 40 an. 60-->120 fühlt sich immer noch wie 60 an, und da sich 60 in allem was viel Bewegung beinhaltet, und nur was viel Bewegung beinhaltet profitiert auch von hohen FPS, nicht wirklich gut anfühlt bringt es immer noch nicht wirklich viel.


Frame Shutter:
Abwechselnd gerenderte und generierte Frames übertölpeln das Auge. Fehler in den generierten Frames werden "übersehen". Wenn du nun 4x FG machst, hast du keinen zusätzlichen Latenznachteil, das ist richtig. Aber es sind 75% der Frames generiert.


Es ist vollkommen irrelevant wie viele generierte Frames angezeigt werden, das einzige was relevant ist, ist wie lange es dauert bis der nächste echte Frame wieder zu sehen ist und damit das Auge/Gehirn wieder auf die richtige Bahn gelenkt wird.

Und damit wird FG weiterhin nicht sinnvoll für niedrige Ausgangs-FPS, selbst mit Extrapolation und damit ohne zusätzliche Latenz, weil damit der Abstand zwischen den echten Frames zu groß wird.

Da wäre 40 -> 120fps evtl. gleich gut brauchbar wie heute 60 -> 120fps. Und somit viel breiter einsetzbar / brauchbar. Dazu noch 40 -> 160fps als Option, wenn das noch was nützen sollte.

40-->120 sind eben nicht brauchbar, da man nur alle 25ms ein echtes Frame bekommt, und damit Artefakte auffallen. Man braucht je nach Content irgendwo zwischen 10 und 15ms für das nächste echte Frame für eine zufriedenstellende Latenz und Artefaktfreiheit.

Wenn man das erreicht hat, ist es egal wieviele Frames man dazwischen interpoliert, sofern dadurch nicht die "echte" Performance gedrückt wird.
Dann bräuchte man "nur" noch ein Display-Interface >1000Hz, und man hätte die MPRT von BFI ohne dessen Nachteile. Statt Black Frame Insertion hätte man dann quasi "Generated Frame Insertion".
Damit hätte man die selbe Motion Clarity, ohne Flimmern und ohne Helligkeitsverluste.

DrFreaK666
2024-03-31, 17:10:17
...Vielleicht sind es aber auch nur die 15% Marktanteil (Steam Hardware Umfrage) von AMD, die abschrecken. Ich meine, verständlich.
Es wird für Konsolen entwickelt. Es wird für Nvidia entwickelt. Die kleine StartUp-Garage AMD interessiert einfach nicht...

Von welchem Hersteller ist Konsolen-Hardware nochmal? DLSS-kompatibel ist sie jedenfalls nicht

Exxtreme
2024-03-31, 17:37:29
Extrapolation:
Du musst das Frame nicht zurückhalten. Das wäre der riesige Vorteil davon. Doppelte FPS ohne Latenznachteil.

Das ist nur die halbe Wahrheit. Denn doppelte FPS wird es da nicht geben. Interpolatoren haben einen Riesenvorteil: sie errechnen Bilder aus Daten, die echt sind und definitiv vorhanden sind. Diesen Luxus haben Extrapolatoren nicht. Extrapolatoren müssen raten. Und es gibt viele Szenarien, bei denen es komplett unmöglich ist auch nur halbwegs exakt zu raten. Das fängt schon bei schnellen Mausbewegungen an. Da wird es immer wieder Grafikfehler geben weil plötzlich Dinge aufpoppen werden, die man gar nicht extrapolieren konnte weil die Bilder, die man für die Extrapolation benutzt hat, diese Dinge gar nicht enthalten können.

Und ja, man kann das zum Teil mitigieren indem man z.B. eine größere Fläche rastert als auf dem Bildschirm vorhanden ist. Hat bloß den Nachteil, dass das Performance kostet weil man Dinge rendert, die sich ausserhalb des Bildschirmes befinden. Ein größeres viel Problem werden klassische Disocclusion-Artefakte sein. Denn die kann man oft nicht raten. Und auch hier besteht die Gefahr, dass Dinge aufpoppen werden.

aufkrawall
2024-03-31, 17:42:05
Was ist jetzt eigentlich mal mit XeSS Extrapolation? Zieht sich bis zur nächsten Gen? Die zieht sich bis wann? :freak:

Slipknot79
2024-03-31, 18:29:14
Von welchem Hersteller ist Konsolen-Hardware nochmal? DLSS-kompatibel ist sie jedenfalls nicht

Daran sieht man, dass AMD selbst mit Konsolenhardware nichts zu melden hat im PC-Bereich. (y)
Tja, wenn man das Potential nicht auszunutzen weiß, SSKM.

Gast
2024-03-31, 22:54:50
Er hat es aber auch auf den radeons als kaputt attestiert. Außerdem sollte man lieber die Videos und wie er testet beurteilen und nicht über ein Vorurteil die Ergebnisse in Frage stellen. Und er nutzt die richtigen Tools und schaut sich IMO die richtigen Dinge an. Wenn Kritik dann spezifisch und mit Substanz. Alles andere ist IMO nicht das Diskussionsniveau was man als Akademiker führen sollte m. ;)

Nein das macht er ja eben nicht, ein Mod/Hack als optimal zu bezeichnen ist fern ab jeder Realität und ist erst recht kein Maßstab. Du bist ziemlich naiv und zu gutgläubig.

Gast
2024-03-31, 23:55:43
Was ist jetzt eigentlich mal mit XeSS Extrapolation? Zieht sich bis zur nächsten Gen? Die zieht sich bis wann? :freak:

Das ist laut der Präsentation keine Extrapolation ins Blinde. Es wird lediglich das Shading nur für jeden 2. Frame tatsächlich durchgeführt, der Geometry-Pass wird weiterhin für jeden Frame berechnet, auch für die extrapolierten.

Auf dem Papier hört es sich mal vielversprechend an, da wir damit eine echte Performanceverbesserung hätten, im Gegensatz zu den bisherigen FG-Methoden die in Wahrheit Performance kosten und dafür die Motion-Clarity verbessern.

Relex
2024-04-01, 09:43:21
Das ganze steht und fällt umso mehr mit dem Ergebnis.

Die Extrapolation dürfte hinsichtlich Bildqualität fragiler sein und das Framepacing wird sich noch schwieriger gestalten. Dafür haben wir bessere Latenzen.

Dabei dürften die Performancekosten aber höher sein, als mit der Zwischenbildberechnung, da ja noch die Geometrieberechnung dazu kommt, was den Latenzvorteil wieder negieren könnte.


Ich glaube dass das unterm Strich keinen großen Unterschied machen wird. Sowohl AMD als auch Nvidia standen vor der Entscheidung, eine extrapolation oder Interpolation zu machen.
Bei AMD stand recht früh auch schon die Frage im Raum, warum man nicht einfach mehrere Zwischenbilder berechnet, statt nur eines.


Und was kam am Ende? AMD berechnet auch nur ein Zwischenbild und beide Hersteller haben sich für die Zwischenbildberechnung und nicht für die Extrapolation entschieden und AMD hat trotz vermeintlich einfacherer Zwischenbildberechnung Probleme mit dem Framepacing. Das wird alles viele Gründe gehabt haben.

Gut möglich, dass Intel im fertigen Produkt zum selben Schluss kommt und falls nicht werden die Unterschiede im Endergebnis vermutlich geringer sein, als man sich erhofft.

basix
2024-04-01, 10:55:26
Interpolation ist ganz einfach: Einfacher. Das als Startpunkt zu nehmen ist vermutlich naheliegend. Noch mehr Zwischenbilder zu berechnen ist davon ausgehend dann auch kein Gedanke, der ein Geniestreich wäre. Aber eben, 2x FG ist einfacher als 3/4x FG. Deswegen ist es auch hier naheliegend, dass man bei der ersten Version bei 2x bleibt.

Extrapolation hat sich AMD auch überlegt. Ist in ihrer FSR 3.1 Präsentation drin. Interpolation ist aber wie auch hier schon erwähnt algorithmisch einfacher umzusetzen und weniger Artefakt behaftet.
https://gpuopen.com/gdc-presentations/2024/GDC2024_High_Performance_Rendering_in_Snowdrop_Using_AMD_FidelityFX_Super_Resolu tion_3.pdf

Extrapolation hat noch einen weiteren Vorteil:
Grundsätzlich hat man 50% der Frametime Zeit, um das generierte Frame zu berechnen, ohne dass man einen Latenznachteil bekommt. Das ist selbst bei 100fps gerendert immer noch 5ms. Das ist relativ viel Zeit und kann via Async Compute wohl gut versteckt werden. FG in 4K native benötigt auf einer 7900XTX 2.4ms (https://gpuopen.com/fidelityfx-super-resolution-3/)
Das schwierige wird halt sein, das artefaktfrei hinzubekommen und auch das Framepacing ist vermutlich etwas schwieriger.

Langfristig gesehen müsste aber Extrapolation das Ziel sein. Stellt euch eine PS6 vor, welche von 40fps auf 120fps skaliert. Das fühlt sich aber am Controller eher wie heutige 60fps+ an, wenn die Konsole und Engine noch zusätzlich auf niedrige Latenz optimiert wurden (sowas wie ein "Konsolen Reflex").
Das gute: PS6 und Xbox-Next sind noch so weit weg, dass sich FG bis dahin bereits deutlich verbessert haben wird und auch bei HW & SW-Design berücksichtigt werden kann. Insbesondere bei Konsolen wäre FG ein Game Changer. Und bei Extrapolation ohne Latenznachteil kann man die Render-FPS relativ tief ansetzen, was bei Interpolation deutlich schlechter gehen würde. Damit holt man das maximale aus einem begrenzten Rechenleistung-Budget raus. Hoher Temporal-Upsamling Faktor (Performance+) und 2...4x FG. Bei fixer Framerate dürfte dann auch das Frame Pacing kein Problem mehr darstellen. Rendertime Varianzen kann man mit variabler Auflösung entgegen treten, wie heute auch schon.

aufkrawall
2024-04-01, 16:11:04
und AMD hat trotz vermeintlich einfacherer Zwischenbildberechnung Probleme mit dem Framepacing.

Nö, ist besser als DLSS 3 FG.

Dampf
2024-04-01, 16:30:51
Das stimmt, selbst mit dem Mod ist das Frame Pacing von FSR3 Frame Gen perfekt.

aufkrawall
2024-04-01, 16:35:41
Das stimmt, selbst mit dem Mod ist das Frame Pacing von FSR3 Frame Gen perfekt.
Ich hätte jetzt gesagt, oft nur mit der Mod. :D

Es gibt natürlich auch Fälle, wo mal was mit der Mod klemmt. Etwa in Hogwarts muss man DLSS Sharpen auf irgendeinen Wert stellen, sonst werden die FG-Bilder offenbar nicht mehr zwischen die echten Bilder eingefügt und diese werden einfach 2x angezeigt, obwohl laut Overlay alles in Ordnung sein soll. Warum in Robocop nativ der Graph fett ist, keine Ahnung. Mit der Mod noch nie gesehen.

fondness
2024-04-01, 21:04:03
Nö, ist besser als DLSS 3 FG.

Das sagt jeder hier, der es verwendet. Interessiert die NV-Fans aber nicht, weil ein Youtube was anderes sagt. :ugly:

aufkrawall
2024-04-01, 21:24:40
Das sagt jeder hier, der es verwendet. Interessiert die NV-Fans aber nicht, weil ein Youtube was anderes sagt. :ugly:
Na ja. Erstmal kann man das nur dann optimal beurteilen, wenn man sowohl DLSS FG auf Lovelace als auch FSR FG auf RDNA3 + Mod selbst ausprobiert hat.

Aber der AncientGameplays-Typ auf YT sagt eigentlich auch genau das Gleiche wie ich. Im Gegensatz zu etwa den komisch ausgeprägten Gewinnen mit SAM auf der 6700 XT, kann ich seine Ergebnisse bei dem Thema einfach nur komplett bestätigen. Wesentlich aufschlussreicher als DF. :freak:

Gast
2024-04-01, 21:36:51
Das sagt jeder hier, der es verwendet. Interessiert die NV-Fans aber nicht, weil ein Youtube was anderes sagt. :ugly:

Weil der Kram auf NVIDIA einfach funktioniert, es braucht keine Mods. Dieser Krawall findet doch immer nur das gut , was er gerade im Rechner hat, solche Leute kann man doch nicht mehr ernst nehmen.

Lurtz
2024-04-01, 22:18:00
Vielleicht kauft er auch einfach nur das, was er gerade gut findet (zumal er auch eine RTX 4070 getestet hat) ;D

Aber ad hominems sind natürlich immer einfacher als Argumente.

1ch0
2024-04-01, 22:26:25
Weil der Kram auf NVIDIA einfach funktioniert, es braucht keine Mods.

Das ist leider nen Fakt.

Gast
2024-04-01, 22:32:13
Nö, ist besser als DLSS 3 FG.
gibt ja genug Videos die die Fehler zeigen die AMDs FG erzeugt (bei nativer Auflösung)

Ich weiß nicht was es dir bringt, aber deine Lügen bringen uns nicht weiter.

Exxtreme
2024-04-01, 22:35:54
gibt ja genug Videos die die Fehler zeigen die AMDs FG erzeugt (bei nativer Auflösung)

Ich weiß nicht was es dir bringt, aber deine Lügen bringen uns nicht weiter.

Fehler erzeugen beide Verfahren. Qualitativ sind beide Verfahren in etwa gleich.

aufkrawall
2024-04-01, 22:36:19
Aber ad hominems sind natürlich immer einfacher als Argumente.
Vielleicht ist da jemand grumpy, dass FSR 3 FG zu gut wegkommt, weil er für Lovelace-FG extra Geld von Ampere kommend ausgegeben hat. :freak:
Aber danke für die Unterstützung. :)

Na ja, meinen 5700X find ich nicht sonderlich toll. Einfach nur Lowend mit angemessenem Preis, mit dem man es aushalten kann. :redface:
(Mit FG noch etwas besser. :biggrin: )

Das ist leider nen Fakt.
Ist aber auch nicht implausibel, dass die aktuell vorgesehene Variante zur Implementierung nur ein Platzhalter ist, weil die nächste Fidelity FX SDK-Version offenbar deutlich mehr Abstraktion zur vereinfachten Implementierung bieten wird.
Das machts im konkreten Fall nicht besser, aber die Technik an sich ist schon sehr innovativ und solide.

Btw. war Nvidias FG auch geplagt von UI-Ghosting und Crashes...

Gast
2024-04-01, 22:49:54
Fehler erzeugen beide Verfahren. Qualitativ sind beide Verfahren in etwa gleich.

LOL? Das ist doch Blödsinn... es gibt doch kaum Games welche AMD FG offiziell unterstützen, noch kann man AMDs FG-Methode wirklich mit anderen Upscalern kombinieren oder FPS-normiert vergleichen. Schlicht Wunschdenken von dir, mehr nicht! :-)

Blediator16
2024-04-01, 22:51:29
Das ist leider nen Fakt.


Stimmt nicht? Nicht umsonst wird mit .dlls um sich geworfen bis man ein besseres Ergebnis hat. Woher ich das weiß? Weil ich das mehrere male selbst hinter mir habe. Ob ich nun mit einer AMD GPU oder NV GPU herumbasten muss macht aktuell kaum noch einen Unterschied.

aufkrawall
2024-04-01, 22:54:42
Stimmt nicht? Nicht umsonst wird mit .dlls um sich geworfen bis man ein besseres Ergebnis hat.
Aber das neuronale Netzwerk lernt doch immer dazu, weshalb es mit neuen DLLs immer besser wird.*

*Ist natürlich, typisch Nvidia, einfach nur Fake News, die leider vom 0815-User (und DF :biggrin: ) unkritisch wiedergegeben wird.

1ch0
2024-04-01, 22:56:39
Naja, ich vergleiche da meine erfahrung mit FSR3 damals und DLSS jetzt. FSR3 in Avatar war fantastisch. Aber in Immortals wars grausam und broken. In Forspoken wars wieder ok. DLSS FG in Plague Tale Requim arbeitete perfect, genau wie in Cyberpunk.

Das ist halt meine Erfahrung bisher. Und da schneidet DLSS besser ab.

aufkrawall
2024-04-01, 22:59:42
FSR3 in Avatar war fantastisch.

Eher solide, in den räumlich hintereinander liegenden Alphatests in höheren Baumetagen gibts auch wieder das typische Disocclusion-Geflimmer.


Aber in Immortals wars grausam und broken.
Dann hattest du wohl nicht mitbekommen, dass DLSS 3 FG in dem Spiel Wochen, wenn nicht Monate lang HUD-Ghosting hatte...

Btw. ist bekannt, dass FSR 2/3.0 mit Nanite immer noch versagt. Wird auch in jedem zukünftigen Spiel damit so sein, wenn 3.1 in der Hinsicht nicht deutlich optimiert wird. Aber lässt sich dann immerhin mit TSR kombinieren, falls das Upsampling/AA wirklich immer noch nicht gut genug sein sollte.

Exxtreme
2024-04-01, 23:08:07
LOL? Das ist doch Blödsinn... es gibt doch kaum Games welche AMD FG offiziell unterstützen, noch kann man AMDs FG-Methode wirklich mit anderen Upscalern kombinieren oder FPS-normiert vergleichen. Schlicht Wunschdenken von dir, mehr nicht! :-)

https://youtu.be/jnUCYHvorrk?t=627

Da haben sich schon einige Leute das Ergebnis angeschaut. Und die können keinen eindeutigen Sieger feststellen.

Lurtz
2024-04-01, 23:11:39
Vielleicht ist da jemand grumpy, dass FSR 3 FG zu gut wegkommt, weil er für Lovelace-FG extra Geld von Ampere kommend ausgegeben hat. :freak:

Verstehe halt diese Abwehrhaltung nicht. DLSS FG ist einfach enttäuschend wenn man sieht was AMD jetzt hier rein in Software hinbekommen hat.

Deutlich inkompatibler, selbst wenn man nur Geforces betrachtet, langsamer/schlechter skalierend, Bildqualität kann man sich nicht groß absetzen. Und Crashes/UI-Probleme etc. gibts damit auch noch oft genug.

Wow :uclap: Da kann man nur hoffen dass nVidia hier noch einiges investieren wird, denn der jetzige Stand ist noch bei weitem nicht gut genug.


Dann hattest du wohl nicht mitbekommen, dass DLSS 3 FG in dem Spiel Wochen, wenn nicht Monate lang HUD-Ghosting hatte...

Es geht vor allem auch ständig kaputt und zeigt dann die Zwischenbilder nicht mehr richtig an oder bleibt sekundenlang stehen. Kompletter Crap die Implementierung.

Gast
2024-04-01, 23:18:00
https://youtu.be/jnUCYHvorrk?t=627

Da haben sich schon einige Leute das Ergebnis angeschaut. Und die können keinen eindeutigen Sieger feststellen.

Äpfel vs. Birnen? Der Mangel an Software-Unterstützung für FSR 3 nebst fehlender Flexibilität lässt eine Vergleichbarkeit momentan garnicht zu. Nennen wir es einfach, ein schlechter unzureichender Versuch von HWU, denen fehlt einfach der Skill.

aufkrawall
2024-04-01, 23:21:51
Verstehe halt diese Abwehrhaltung nicht. DLSS FG ist einfach enttäuschend wenn man sieht was AMD jetzt hier rein in Software hinbekommen hat.

Danke mal, bei den (im Vergleich zu den Unterschieden beim Upsampling) geringfügigen Problemfällen Schatten und ggf. "Boxing" (etwa bei Talos 2 in Fahrten durch Tunnel) gibt es auch noch Optimierungspotenzial. Auf jeden Fall das Beste, was AMD seit CAS hinbekommen hat, und halt mehrere Größenordnungen komplexer.

Gast erzählt schon wieder Quatsch. Natürlich kann man ganz einfach FSR AA/Upsampling + DLSS 3 FG in diversen Spielen testen. Und selbst wenn man die Mod mitzählt, die potenziell nur das FSR 3 FG aufgrund des generischen Injects benachteiligt, im Gegensatz zu DLSS FG, gibts da keine großartigen Unterschiede. Kann halt nicht sein was nicht sein darf...

Exxtreme
2024-04-01, 23:23:05
Äpfel vs. Birnen? Der Mangel an Software-Unterstützung für FSR 3 nebst fehlender Flexibilität lässt eine Vergleichbarkeit momentan garnicht zu. Nennen wir es einfach, ein schlechter unzureichender Versuch von HWU, denen fehlt einfach der Skill.
Kein Äpfel-Birnen-Vergleich. Derzeit gibt es keinerlei Belege, dass FSR FG schlechter ist als DLSS FG.

Gast
2024-04-01, 23:36:21
Kein Äpfel-Birnen-Vergleich. Derzeit gibt es keinerlei Belege, dass FSR FG schlechter ist als DLSS FG.

Du behauptetest das beides vergleichbar wäre, einen Beleg dafür soll dieser stümperhafte HWU-Test sein?!? Ernsthaft? Ich hab keine Zwischenbildvergleiche gesehen, du etwa, noch Latenzmessungen FPS-normiert. Und nochmal der Mangel an Software-Unterstützung und Flexibilität lässt sich nunmal nicht wegargumentieren, DLSS funktioniert einfach auf ganz anderen Level, das ist alles mit NV Reflex und flexibler Treiber-Unterstützung (VRR-VSync) ist sehr klug durchdacht und funktioniert einfach!

Exxtreme
2024-04-01, 23:58:43
Du behauptetest das beides vergleichbar wäre, einen Beleg dafür soll dieser stümperhafte HWU-Test sein?!?

Dann zeig doch mal deinen Artikel mit Vergleichen. Denn offenbar kannst du das ja viel besser als HWU.

Gast
2024-04-02, 00:02:43
Kein Äpfel-Birnen-Vergleich. Derzeit gibt es keinerlei Belege, dass FSR FG schlechter ist als DLSS FG.

Kurzer Nachtrag: FSR Upscaling/Nativ AA ist objektiv immer schlechter als DLSS/DLAA so dass es keinen wirklichen Anwendungsfall gäbe.
Und die FSR3 FG Mods die derzeit umherschwirren, haben wiederum ganz andere Nachteile , nicht nur was die Kompatibilität zur Game-Engine und Vorbereitung selbiger angeht, die Probleme rund um Anti-Lag(+) sind ja auch noch sehr frisch und sollten eigentlich Warnung genug sein.

aufkrawall
2024-04-02, 00:10:06
Was von Äpfel-Birnen-Vergleich faseln und jetzt lauter verschiedene Fässer aufmachen.. *gähn*

Gast
2024-04-02, 00:16:56
Dann zeig doch mal deinen Artikel mit Vergleichen. Denn offenbar kannst du das ja viel besser als HWU.

Ich hab ja nichts falsches behauptet, es bräuchte einfach mehr offizielle Software-Unterstützung + Flexibilität (mit FSR 3.1 wollen sie das ja ändern, nur fällt damit der erste Punkt ja nicht automatisch weg...) NVIDIA hat bereits abgeliefert und etwaige Vergleichbarkeit ist aktuell nicht, so leid es mir tut.

fondness
2024-04-02, 08:16:59
Fehler erzeugen beide Verfahren. Qualitativ sind beide Verfahren in etwa gleich.

Der Computerbase test sieht es ebenfalls so, und die haben es auch ausführlich begründet. Aber es kann nicht sein was nicht sein darf.

dargo
2024-04-02, 09:50:32
Der Computerbase test sieht es ebenfalls so, und die haben es auch ausführlich begründet. Aber es kann nicht sein was nicht sein darf.
Es ist doch immer das gleiche. NV prescht mit XYZ vor, AMD zieht (so ganz ohne "Magic" Tensor Cores) nach und schon ist die Empörung im NV-Lager bei einigen groß. :ulol:

btw.
Wie schön, dass meine Posts wieder gelöscht werden aber das Geschwurbel einiger Gäste hier bleibt. :rolleyes:

robbitop
2024-04-02, 10:04:11
Es werden halt Dinge vermischt. Wenn man isoliert(!) die Bildqualität der FG Verfahren vergleicht (also das upsampling ausklammert und das framepacing und die latenz) ist das laut bisherigen Quellen absolut vergleichbar. Und das ohne extra HW und schneller (weniger ms Rechenzeit).