PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24]

DrFreaK666
2025-03-01, 18:06:36
Wenn sie auf DLSS 3.7/8 Niveau mit E Model kommen wäre das schon ein guter Sprung ausgehend von FSR3.1. DLSS4 Level wäre krass aber ich denke Nvidia hatte da ggf. einfach zu viel zeitlichen Vorsprung und wahrscheinlich auch mehr Forschung in die Richtung (mit viel mehr Ressourcen), dass die Erwartung da ran zu kommen - aus dem Stand(!) - ggf etwas zu hoch ist. Aber ggf werden wir ja noch positiv überrascht. :)

Beim Showcase wurde ja erwähnt, dass Project Amethyst schon Früchte trägt, da man mit Sony schon seit einem Jahr daran arbeitet.
Könnte mir vorstellen, dass sowohl PSSR als auch FSR4 Qualitätsupdates bekommen (Ist sogar sehr wahrscheinlich)

Relex
2025-03-01, 18:25:27
Wir haben die klaren Aussagen von z.b. Digital Foundry oder anderen Magazinen dei vor ORt waren, die was sie bisher live an FSR4 gesehen haben, ziemlich gut fanden. Das ist jetzt auch schon mehr als bekannt, aber anscheinend zählt das ja nicht, wenn man immer wieder sagt, dass das offensichtlich nicht so ist.. Sorry kann ich nicht nachvollziehen.

Ich kann mir auch nicht vorstellen dass sie direkt an DLSS 4 rankommen, aber der ansatz einer Kombination finde ich spannend, da ja DLSS4 völlig neue Probleme hervorgerufen hat (siehe computerbase artikel zu 5090) Wer weiss was rauskommt, aber es wird ein riesenschritt für AMD nach vorne sein.

Digital Foundry
https://youtu.be/YpYjWxwHv4U?t=6353


Ich will das nicht als falsch abtun, aber wenn ich eine Aussage zu etwas mache, dann würde ich es vermeiden, die Meinung von anderen wiederzukauen, sondern mir selbst ein Bild davon machen. Zur Not über ein (gut gemachtes) Video, aber ich würde nicht die Meinung von anderen 1:1 übernehmen, ohne es selbst gesehen zu haben.

Aber das hatte basix ja auch nicht vor. Er dachte fälschlicherweise mein Bild zeigt FSR4 und hat eben das bewertet.


Und was computerbase angeht...

Die sind bei mir völlig raus, was Bildqualitätsvergleiche angeht.
Sie haben nichtmal erkannt, dass DLSS4 SR die TAA typische unschärfe in Bewegung völlig beseitigt. Sie schreiben es sieht "anders" aber "nicht unbedingt besser" aus. Dazu dann im Fazit dieser Satz:

Wenn DLSS 3 bereits eine sehr gute Qualität in einem Spiel erreicht, was inzwischen häufig der Fall ist, kann DLSS 4 diese auch nicht mehr übertreffen.


Das Fazit ist eine absolute Frecheit. Ich kann kaum in Worte fassen, wie weit das von der Realität entfernt ist.
Man muss denen schon fast Blindheit unterstellen. Das ist nur noch lächerlich.

Kannst dir auch gerne mein Video dazu aus dem DLSS Thread ansehen.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13716930#post13716930

Da ist zwar DLSS3 nicht dabei, weil zum deaktivieren des DLSS4 Override das Spiel neugestartet werden muss, aber ich kann dir trotzdem sagen, dass DLSS3 selbst in der aktuellsten Version im Vergleich zu DLSS4 und FSR3 DEUTLICH näher an FSR3 ist.

Man ist fast schon geneigt, die Unterschiede zwischen DLSS3 und FSR3 als irrelevant abzutun, wenn man mal gesehen hat, wie viel besser das Bild mit DLSS4 ist.


Stand jetzt kommt für mich nur Hardware Unboxed und Digital Foundry für Bildvergleiche in Frage, vor allem weil sie auch fähig sind, die Unterschiede nicht nur zu erkennen, sondern auch in Videoform deutlich sichtbar herauszuarbeiten (was gar nicht so einfach ist z.B. wegen Videokomprimierung)

DrFreaK666
2025-03-01, 18:38:09
Ich will das nicht als falsch abtun, aber wenn ich eine Aussage zu etwas mache, dann würde ich es vermeiden, die Meinung von anderen wiederzukauen, sondern mir selbst ein Bild davon machen. Zur Not über ein (gut gemachtes) Video, aber ich würde nicht die Meinung von anderen 1:1 übernehmen, ohne es selbst gesehen zu haben...
Man hat schon bei dem abgefilmten Video überdeutlich gesehen, dass FSR4 deutlich besser aussieht.
Stell die Audio-Asugabe auf stumm (wenn du die Meinung anderer nicht hören willst), schaue das Video und mach dir dein eigenes Bild.
Und "CB vs DLSS4" hat hier nichts verloren. Reg dich darüber im DLSS-Thread auf

...Stand jetzt kommt für mich nur Hardware Unboxed und Digital Foundry für Bildvergleiche in Frage...
Und genau die haben gesagt, dass FSR4 deutlich besser aussieht. Ist Meinung anderer dann plötzlich doch wieder ok? :ugly:

basix
2025-03-01, 18:48:14
Ach streitet euch nicht ;)

FSR4 wird sicher einiges besser als FSR3 aussehen. Das zeigte die CES Demo und auch das jetzt veröffentlichte Bildmaterial zeigt das (FSR4-P schon fast besser als FSR3-Native). Wir werden am 5/6. März erstes echtes & unabhängiges Bildmaterial zu Gesicht bekommen.

Und hinsichtlich CB Test von DLSS4 muss ich Relex schon teilweise recht geben. Aber auch bei PCGH war da initiale Fazit gemischt. Ich weiss nicht, ob da irgendwas bei DLSS4 noch nicht funktioniert hat (z.B. Game Patch etc.) aber die gezeigten Bilder sahen zum Teil schon nicht ideal aus. Wenn man heute den Test wiederholen würde (CB wie auch PCGH) wäre das Fazit wohl etwas anderes. Aber hey, da FSR4 vor der Tür steht, wird es sicher massig neue Vergleichstests geben.

Mich würde noch das "proprietäre" Modell von FSR4 interessieren, da anscheinend ein Hybrid aus CNN und Transformer. Vermutlich wird AMD das aber unter Verschluss halten (via Amethyst mit Sony sharen allenfalls schon).

Relex
2025-03-01, 18:49:12
@DrFreaK666
Was sie sagen ist zweitranging. Wichtig ist, was sie zeigen.

Und auf Basis eines abgefilmten Videos kann und will ich mir keine Meinung bilden.

Und ja, dass es deutlich besser aussieht, sieht man und davon war ja auch auszugehen. Wäre ja schlimm, wenn nicht.


Aber man muss halt auch festhalten, dass PSSR und auch DLSS4 mit dem älteren Preset "J" einige Regressionen zeigten.

Kann bei FSR4 auch passieren. Oder eben nicht.
Deswegen sage ich ja, abwarten und sich vernünftige Vergleiche ansehen.

DrFreaK666
2025-03-01, 18:52:57
...Und auf Basis eines abgefilmten Videos kann und will ich mir keine Meinung bilden.

Und ja, dass es deutlich besser aussieht, sieht man...


Du bist witzig ;D

Relex
2025-03-01, 19:07:06
Du verstehst mich nicht...

FSR3 hatte ich der gezeigten Szene Probleme, welche z.B. ein DLSS3 nicht hatte.
FSR4 behebt diese Probleme.

Aber man kann daraus dann trotzdem nicht ableiten, ob das jetzt besser oder schlechter als DLSS3, oder sogar besser als DLSS4 wäre.

Darum geht's mir. Man sieht einen Unterschied, kann ihn aber aufgrund der Tatsache, dass es nur abgefilmt ist unmöglich einordnen.

Aber gut, ich sag schon wieder zu häufig das böse "D" wort, das mit SS aufhört. Ich weiß, dass du das hier nicht hören willst :D

TheGood
2025-03-01, 19:11:45
@DrFreaK666
Was sie sagen ist zweitranging. Wichtig ist, was sie zeigen.

Und auf Basis eines abgefilmten Videos kann und will ich mir keine Meinung bilden.

Und ja, dass es deutlich besser aussieht, sieht man und davon war ja auch auszugehen. Wäre ja schlimm, wenn nicht.


Aber man muss halt auch festhalten, dass PSSR und auch DLSS4 mit dem älteren Preset "J" einige Regressionen zeigten.

Kann bei FSR4 auch passieren. Oder eben nicht.
Deswegen sage ich ja, abwarten und sich vernünftige Vergleiche ansehen.
Alles klar, aber dir ist schon klar dass du dich in Bezug auf digital foundry widersprichst.

Achtung persönliche Meinung:
Ich glaube auch dass du in dem Thema extrem tief drin bist, was dich aber für die Normale Menschheit dann als zu extrem herausstellst, weil sie auf der Ebene wie du es ansiehst nichts finden würden oder schlichtweg übersehen.

Habe da oben deinen AVowed video vergleich angesehen und für mich waren da vier sehr ähnliche qualitäten wo ich mit allen kein problem gehabt hätte. Am schlechtesten fand ich das TAA. ABer unterschiede musste ich mit meinem Blickwinkel mit der Lupe suchen.
Du hast da in der Sache sicher recht, aber irgendwann ist bei so vergleichen ein Punkt angekommen an dem es für 80 % nicht mehr relevant ist ob es noch besser ist oder nicht.

robbitop
2025-03-01, 19:34:06
Beim Showcase wurde ja erwähnt, dass Project Amethyst schon Früchte trägt, da man mit Sony schon seit einem Jahr daran arbeitet.
Könnte mir vorstellen, dass sowohl PSSR als auch FSR4 Qualitätsupdates bekommen (Ist sogar sehr wahrscheinlich)
Ja aber Nvidia macht das seit 2020 (Plus die Zeit die es gedauert hat DLSS 2 zu entwickeln). Da hat man schon ordentlich Vorsprung. Aber klar wird AMD auch FSR immer weiter verbessern und ich vermute, dass die Qualität der Ergebnisse der upscaler asymptotisch zunimmt und deswegen dann alle anderen irgendwann (aber hoffentlich bald oder ggf auch schon mit FSR4) auch auf einem sehr ähnlichen Level sein werden.

TheGood
2025-03-01, 19:53:50
Du verstehst mich nicht...

FSR3 hatte ich der gezeigten Szene Probleme, welche z.B. ein DLSS3 nicht hatte.
FSR4 behebt diese Probleme.

Aber man kann daraus dann trotzdem nicht ableiten, ob das jetzt besser oder schlechter als DLSS3, oder sogar besser als DLSS4 wäre.

Darum geht's mir. Man sieht einen Unterschied, kann ihn aber aufgrund der Tatsache, dass es nur abgefilmt ist unmöglich einordnen.

Aber gut, ich sag schon wieder zu häufig das böse "D" wort, das mit SS aufhört. Ich weiß, dass du das hier nicht hören willst :D

ES hat auch niemand mit DLSS verglichen sondern man hat alleine in dem abgefilmten Video gesehen wie viel besser es geworden ist. Das ist ja ein Quantensprung und was aus meiner Sicht sicher irgendwoe bei einem DLSS 3(+) liegen wird. Vor allem weil es worst case szenarien sind. Soviel kann man dann schon ableiten und das kann man auch einfach mal so sehen.

AMD nutzt kein CNN modell eher was richtung Transformer. AM ende wird es das sein, was videocardz geschrieben hat. Wenn sie wirklich ein eigenes Modell gemacht haben, wäre das schon wirklich ne Leistung. Dass es gut ist, steht für mich ausser Frage, die Frage ist wie gut.

Lurtz
2025-03-01, 20:43:26
Ich kann mir auch nicht vorstellen dass sie direkt an DLSS 4 rankommen, aber der ansatz einer Kombination finde ich spannend, da ja DLSS4 völlig neue Probleme hervorgerufen hat (siehe computerbase artikel zu 5090)
Computerbase hat nicht mal erkannt, das DLSS4 den TAA-Blur praktisch komplett entfernt. Solange sie ihre Einschätzung nicht korrigieren kann man deren Aussagen was Upsampling angeht nicht mehr ernst nehmen.

Gast
2025-03-01, 20:48:54
Wir haben die klaren Aussagen von z.b. Digital Foundry oder anderen Magazinen dei vor ORt waren, die was sie bisher live an FSR4 gesehen haben, ziemlich gut fanden.


Das war BEVOR sie DLSS4 gesehen haben.

crux2005
2025-03-01, 20:54:02
Die 22% GPU- und 1% CPU-Last in der rechten oberen Ecke mit FSR sind bestimmt auch authentisch. ;D

Klar, AMD wird das NV Overlay benutzen. ;D

Gast
2025-03-01, 21:26:38
Wenn sie auf DLSS 3.7/8 Niveau mit E Model kommen wäre das schon ein guter Sprung ausgehend von FSR3.1. DLSS4 Level wäre krass aber ich denke Nvidia hatte da ggf. einfach zu viel zeitlichen Vorsprung und wahrscheinlich auch mehr Forschung in die Richtung (mit viel mehr Ressourcen), dass die Erwartung da ran zu kommen - aus dem Stand(!) - ggf etwas zu hoch ist. Aber ggf werden wir ja noch positiv überrascht. :)

Wenn die ungefähr XeSS Niveau erreichen, können sie zufrieden sein.

TheGood
2025-03-01, 23:00:44
Das war BEVOR sie DLSS4 gesehen haben.
wegen dem wirds nicht schlechter ;) Das sind hier so Argumentationen.... Von dem mal abgesehen haben sie es diese Woche schon wieder gesagt.... Ihr solltet einfach mal die Videos gucken die ich verlinke ;) Wundert mich dass das bisher keiner gemacht hat oder habt ihr den Inhalt nicht verstanden? Oder wolltet ihr ihn nicht verstehen?

Irgendiwe scheint es schon schlimm zu sein wenn jetzt DLSS auch noch Konkurrenz bekommt oder wie muss ich das alles verstehen? Ich rieche Angst ;D
Glaube aber dass ihr die nicht haben braucht. Vielleicht in ein paar Jahren oder so, da wird der Fortscrhitt so klein dass man sich nicht mehr über die Bildqualität unterhalten muss.

robbitop
2025-03-02, 07:54:58
Wenn die ungefähr XeSS Niveau erreichen, können sie zufrieden sein.

Ich kenne nur die dp4a Version - und zumindest bei der finde ich nicht, dass man damit zufrieden sein kann.

Lurtz
2025-03-02, 13:19:57
wegen dem wirds nicht schlechter ;) Das sind hier so Argumentationen.... Von dem mal abgesehen haben sie es diese Woche schon wieder gesagt.... Ihr solltet einfach mal die Videos gucken die ich verlinke ;) Wundert mich dass das bisher keiner gemacht hat oder habt ihr den Inhalt nicht verstanden? Oder wolltet ihr ihn nicht verstehen?

Irgendiwe scheint es schon schlimm zu sein wenn jetzt DLSS auch noch Konkurrenz bekommt oder wie muss ich das alles verstehen? Ich rieche Angst ;D
Glaube aber dass ihr die nicht haben braucht. Vielleicht in ein paar Jahren oder so, da wird der Fortscrhitt so klein dass man sich nicht mehr über die Bildqualität unterhalten muss.
Es ändert aber die Einordnung. Bis DLSS4 war ein gewisser TAA-Blur Standard und erwartbar, jetzt nicht mehr.

Gast
2025-03-02, 13:51:51
wegen dem wirds nicht schlechter ;) Das sind hier so Argumentationen....


Natürlich, gut und schlecht ist immer relativ und das bessere ist des guten Feind.

Ohne die NN-Upscaler würde FSR2 auch gut aussehen, es ist immerhin eine klare Verbesserung von Performance/Qualität. Neben den NN-Upscalern sieht es dagegen ziemlich schlecht aus.

Nach deiner Argumentation würden ja die Spiele die wir damals auf der Voodoo Graphics gespielt haben immer noch gut aussehen.

Es kann nur ein S-Tier geben, und wenn sich dieses verbessert, rückt logischerweise alles andere ein oder mehrere Tiers nach unten.


Irgendiwe scheint es schon schlimm zu sein wenn jetzt DLSS auch noch Konkurrenz bekommt oder wie muss ich das alles verstehen? Ich rieche Angst ;D


Ganz im Gegenteil, eine echte Konkurrenz wäre das beste was passieren kann.
Und hardwaremäßig sieht RDNA4 selbst mit der notwendigen Prise Salz der Herstellerinfos ja ziemlich gut aus. Ohne was vergleichbarem zu DLSS4 wird es aber leider an der Software scheitern.

Schon bei Turing habe ich gesagt DLSS und nicht unbedingt RT ist der große Gamechanger, der bringt effektiv mindestens eine Hardwaregeneration mehr an Performance. Und DLSS4 gegenüber DLSS3 bringt erneut einen Hardwaregenerationssprung (gut für AMD dass zumindest die Hardware selbst außerhalb der 5090 quasi nichts bringt).
Wenn FSR4 nur DLSS3 Qualität bietet, konkurriert AMD effektiv schon mit NV-Next hardware.

Relex
2025-03-05, 15:03:17
nzomNQaPFSk

Noch nicht angesehen, aber die Überschrift stimmt ja schonmal sehr positiv!


EDIT: Ah okay. Etwas besser als DLSS3, aber das was DLSS4 erreicht hat (TAA blur eliminieren) schafft FSR4 nicht.
Also tatsächlich wie erwartet.

Nur schade, dass man wieder Horizon zum Vergleich heranzieht, das bei aktivem Upscaling deutlich nachschärft und was sich nicht abschalten lässt.

Lurtz
2025-03-05, 15:25:55
Etwas besser als DLSS3, aber das was DLSS4 erreicht hat (TAA blur eliminieren) schafft FSR4 nicht.
Also tatsächlich wie erwartet.

Schade, wäre auch zu schön gewesen. Passt aber, dass Computerbase meint, man würde den Unterschied in Spielen nicht sehen, da die ja schon die TAA-Blur-Eliminierung bei DLSS 4 nicht gesehen haben. Wenn schon dann konsequent den Holzweg weitergehen... ;D

aufkrawall
2025-03-05, 15:33:45
Na ja, das Disocclusion-Aliasing von Transformer fällt im DF-Video schon deutlich auf.
Wenigstens passt so jetzt das P/L-Verhältnis vs. Nvidia, das Nvidia-RT kann man auf 12GB-Karten eh vergessen.

Relex
2025-03-05, 15:34:41
Schade, wäre auch zu schön gewesen. Passt aber, dass Computerbase meint, man würde den Unterschied in Spielen nicht sehen, da die ja schon die TAA-Blur-Eliminierung bei DLSS 4 nicht gesehen haben. Wenn schon dann konsequent den Holzweg weitergehen... ;D


Ja... ich meine in dem DF Video sieht wohl ein Blinder den Unterschied.

DLSS4 wirkt natürlich aufgrund des scharfzeichners im Spiel maßlos überschärft, aber das ist dann eben auch die Konsequenz, wenn plötzlich der ganze Blur weg ist und scharfzeichner völlig überflüssig werden.


Nichtsdestotrotz sehr positive Entwicklung. Hätte ich DLSS4 nicht gesehen hätte ich den Sprung bei AMD vor wenigen Wochen kaum für möglich gehalten. Aber wie ich schon sagte, sie hatten jetzt lange genug nicht die Hardware dafür und hatten aber parallel mehr als genug Zeit, Softwareseitig was zu kochen. Das haben sie wohl auch getan. AMD endlich mal nicht am reinscheißen, sondern gas geben. Gefällt mir! Der Markt braucht das dringend.

Lurtz
2025-03-05, 15:44:06
Schon beachtlich, dass AMD mit dem ersten Machine Learning-Upscaler DLSS CNN in letzter Ausbaustufe tendenziell sogar schlägt. Wobei FSR4 auch teurer als DLSS CNN zu sein scheint? Zeigt mal wieder, wie viel Potenzial da noch zu heben ist.

Hätte nVidia nicht Transformer auf den Markt gebracht, würden wir jetzt wahrscheinlich darüber sprechen, dass FSR4 vor DLSS3 liegt.

DrFreaK666
2025-03-05, 15:48:02
Jetzt muss AMD nur noch FSR4 für RDNA3 bringen, auch wenn es dort wahrscheinlich auf FSR4 B/P/UP beschränkt sein wird

aufkrawall
2025-03-05, 15:53:48
wenn plötzlich der ganze Blur weg
Von "der ganze Blur weg" kann auch mit DLSS Transformer noch längst keine Rede sein. Auch damit hast du um teilverdeckte Bereiche in Bewegung immer noch unscharf-transparente Silhouetten.
Außerdem sind bewegte Objekte auf Entfernung auch immer noch unscharf, und können zudem Smearing zeigen. Ähnliches gilt für Partikel-Ghosting.

Exxtreme
2025-03-05, 16:26:12
Wirklich schade, dass FSR 4 RDNA4-exklusiv ist. Das würde ich mir gerne anschauen.

dildo4u
2025-03-05, 16:27:05
EZU0_ZVZtOA

Raff
2025-03-05, 16:27:54
Wirklich schade, dass FSR 4 RDNA4-exklusiv ist. Das würde ich mir gerne anschauen.

Easy. Alte Karte verkaufen, neue RDNA-4-Karte kaufen. :biggrin:

MfG
Raff

ChaosTM
2025-03-05, 16:31:20
https://youtu.be/EZU0_ZVZtOA


Hab jetzt einige Vergleiche 4 vs 4 gesehen und ich persönlich kann den Unterschied kaum mehr wirklich auflösen. Bei Horizon noch am ehesten, da deutlich mehr Details übrig bleiben
FSR3 vs FSR4 hingegen ist eine Hinrichtung..

aufkrawall
2025-03-05, 16:34:53
Easy. Alte Karte verkaufen, neue RDNA-4-Karte kaufen. :biggrin:

Ach, so meinte AMD das, genügend ML-fähige Geräte für FSR 4 am Markt zu haben. Dann hatten sie ja doch nicht dreist gelogen. =)

Relex
2025-03-05, 16:38:06
https://youtu.be/EZU0_ZVZtOA

Ah ja, einfach nur die DLL Datei via DLSSswapper getauscht. :facepalm:


Wer nimmt Wetten an, dass er nicht das Preset K im Nvidia Inspector eingestellt hat und somit nur mit DLSS3 getestet hat..


Oh man. Ich sags ja. Digital Foundry oder HUB. Alles andere kannste bei solchen Vergleichen praktisch vergessen.

Linus Tech tips scheint wohl den gleichen Fehler gemacht zu haben.

The_Invisible
2025-03-05, 16:40:30
Hab jetzt einige Vergleiche 4 vs 4 gesehen und ich persönlich kann den Unterschied kaum mehr wirklich auflösen. Bei Horizon noch am ehesten, da deutlich mehr Details übrig bleiben
FSR3 vs FSR4 hingegen ist eine Hinrichtung..

Deswegen war es ja schon lange nicht mehr Stand der Dinge das bei Benchmarks FSR3 gegen DLSS3/4 Upscaling getestet wurde, selbst FSR3-Q gegen DLSS-P hat letzteres besser ausgesehen.

ChaosTM
2025-03-05, 16:40:49
@ Relex

Er gibt selber zu, dass der eine DLSS Test nur "injected" ist.
Von daher noch "akzeptabel".

@The_Invisible

Ja, alles unter FSR3 Q war quasi unbrauchbar

Relex
2025-03-05, 16:46:34
Ja, er deutet bewusst oder nicht bewusst darauf hin, dass das vermeintliche DLSS4 bei ihm kaum besser aussieht, was aber letztlich nur daher kommt, das er mit DLSS3 testet.

Praktisch würde nativ vs "injected" halt keinen großen Unterschied machen. Der Unterschied zwischen DLSS3 und 4 ist sehr deutlich, auch wenn es nur per override appliziert wird. Hab das ja selbst erst letztens durchgespielt. In dem Video sieht man davon nix.


Aaargh. sowas nervt mich.

AMD hat tolle Arbeit geleistet, aber solche Testfehler verzerren die Wahrheit leider extrem.

dildo4u
2025-03-05, 16:58:27
Paar Werte zu den Performance kosten.

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/65637-mit-rdna-4-zum-comeback-modelle-der-radeon-rx-9070-und-radeon-rx-9070-xt-im-test.html?start=19

Shaft
2025-03-05, 17:03:34
https://youtu.be/EZU0_ZVZtOA


Mehr bitte, ich will Tonnenweise Vergleiche.

Das ist ein deutlicher Fortschritt.

@ Relex

Er gibt selber zu, dass der eine DLSS Test nur "injected" ist.
Von daher noch "akzeptabel".

@The_Invisible

Ja, alles unter FSR3 Q war quasi unbrauchbar

Dennoch, auch zu DLSS 3.7.1 ein guter Fortschritt.

aufkrawall
2025-03-05, 17:17:24
In CP77 etwa bleibts auch mit der 3.7 DLL beim Schrott-Preset D.
Warum auch immer das überhaupt noch existiert...

robbitop
2025-03-05, 20:35:27
Ein riesen Sprung! Sehr gut AMD! :)
Endlich eine moderne uArch und modernes Upsampling (auch wenn es an das Transformer Modell noch nicht rankommt finde ich es dennoch beeindruckend).

Wenn mit 789 TOPS FSR4 schon so teuer ist wird das mit RDNA3 nichts. Zum Laufen wird man es sicher bekommen aber es wird dann wohl langsam sein. Mal schauen ob AMD analog Intel noch ein low fidelity Modell trainiert.

Frage mich ob es bei RDNA4 separate Mateix Cores sind (sieht ja so aus) und ob sie parallel zu den Vektor FPUs laufen können. Mal schauen wann der erste echte uArch deepdive (zB chipsandcheese) kommt.

TheGood
2025-03-05, 20:44:20
Also alles gut. Beim ersten Wurf gleich so ein sehr gutes Rrgebnis. Theoretisch ist also noch viel Luft nach oben :)

Gast
2025-03-05, 20:45:36
Ein riesen Sprung! Sehr gut AMD! :)
Endlich eine moderne uArch und modernes Upsampling (auch wenn es an das Transformer Modell noch nicht rankommt finde ich es dennoch beeindruckend).

Wenn mit 789 TOPS FSR4 schon so teuer ist wird das mit RDNA3 nichts. Zum Laufen wird man es sicher bekommen aber es wird dann wohl langsam sein. Mal schauen ob AMD analog Intel noch ein low fidelity Modell trainiert.

Frage mich ob es bei RDNA4 separate Mateix Cores sind (sieht ja so aus) und ob sie parallel zu den Vektor FPUs laufen können. Mal schauen wann der erste echte uArch deepdive (zB chipsandcheese) kommt.

Naja viele Jahre zu spät. Fast schon egal jetzt! Mangel an Game Unterstützung und beschränkt auf die neue Serie macht es noch sinnloser.

fizzo
2025-03-05, 22:31:30
Bildqualität & Benchmarks: AMD FSR 4 gegen FSR 3.1, DLSS 4 und DLSS 3 im Vergleich ( https://www.computerbase.de/artikel/grafikkarten/amd-fsr-4-fsr-3-1-dlss-4-dlss-3-vergleich.91650/)

Guter, ausführlicher Artikel von CB.

DrFreaK666
2025-03-05, 23:46:02
Laut Daniel Owen gibt es einige Games, die kein FSR4 anbieten, obwohl sie FSR3.1 haben (Ghost of Tsushima und FF XVI).
Er vermutet, dass AMD Spiele per Whitelist freischaltet.
Sollte das so sein, dann bringt es wahrscheinlich wenig, Spiele per Optiscaler auf 3.1 upzudaten

robbitop
2025-03-06, 06:41:30
Naja viele Jahre zu spät. Fast schon egal jetzt! Mangel an Game Unterstützung und beschränkt auf die neue Serie macht es noch sinnloser.

Manchen kann man es nie recht machen. Es ist nie zu spät etwas zu verbessern. Und mit Optiscaler kann man in jedes Spiel was DLSS kann jeden upsampler injecten. Bald auch FSR 4. Und auch reflex in AL2 umleiten.

DrFreaK666
2025-03-06, 07:21:54
Dieser Spruch stirbt halt nie aus: Hater gonna hate

madzapp
2025-03-06, 07:41:17
Vor allen Dingen zu spät für was? Geht die Welt heute unter? :confused:


Bis auf die Performance sind alle sehr zufrieden. Habe schon ein paar Videos durch.


PS. könnte jemand bitte den Threadtitel anpassen?

Gast
2025-03-06, 09:29:27
Laut Daniel Owen gibt es einige Games, die kein FSR4 anbieten, obwohl sie FSR3.1 haben (Ghost of Tsushima und FF XVI).


Soweit ich weiß funktioniert das Upgrade per DLL-Injection, und auch wenn es ab FSR3 empfohlen ist FSR per DLL zu integrieren kann AMD die Entwickler nicht dazu zwingen. Wenn ein Entwickler FSR direkt in seinen eigenen Sourcecode übernommen hat, funktioniert ein Upgrade per Treiber nicht.

Evtl. gibt es sogar eine Checksummenüberprüfung, auf bekannte DLLs, dann würde ein Upgrade auch nicht funktionieren, wenn der Entwickler die DLL selbst verändert hat.

Lurtz
2025-03-06, 09:57:51
Dieser Spruch stirbt halt nie aus: Hater gonna hate
Sind schon relevante Kritikpunkt. Aber gut, lieber ein Ende mit Schrecken als ein Schrecken ohne Ende. Sind verlorene Jahre, in denen AMD sich ML-Upscaling verweigert hat. Dass der Updatemechanismus von FSR so beschissen ist, ist da leider doppelt ungünstig.

robbitop
2025-03-06, 10:00:03
Ja das stimmt. Aber dennoch braucht man es nicht als "zu spät" abzutun. Es ist nie zu spät. Es ist unschön spät ja - und man hat jetzt dadurch eine Weile ein Problem mit der FSR4 Unterstützung. Zumindest für die Normalos. Wir Nerds können uns ja mit Optiscaler behelfen.

Lurtz
2025-03-06, 10:00:45
Zu spät ist es sicher nicht. Insbesondere auch wenn man die nächsten Konsolen einbezieht.

Ein besseres FSR4 hilft jetzt sicher mehr weiter als ein kompatibleres :up:

aufkrawall
2025-03-06, 10:01:40
Wir Nerds können uns ja mit Optiscaler behelfen.
Oder auch nicht, bei Spielen mit Anti-Cheat.

The_Invisible
2025-03-06, 10:02:05
Ist proprietäre closed Tech jetzt eigentlich wieder "gut" weils AMD jetzt auch so macht bzw RDNA4 only? Hätte ich noch keinen bemängeln gehört ;)

Aber gut egal, man hat mehr aufgeholt als ich gedacht hätte, würde mich interessieren wie lange man daran gewerkelt hat.

aufkrawall
2025-03-06, 10:03:17
Aber gut egal, man hat mehr aufgeholt als ich gedacht hätte, würde mich interessieren wie lange man daran gewerkelt hat.
Ja. Absolut verrückt, wie sie das überhaupt geschafft haben. Offenbar auch mal eben XeSS komplett deklassiert.

robbitop
2025-03-06, 10:10:10
Ich denke dass FSR überall laufen musste und man selbst auch keine starke Matrix HW hatte wurde FSR qualitativ halt zum Verhängnis. Sie haben es ja x mal versucht zu verbessern, sind dann aber gegen eine Wand gelaufen ohne AI. (interessanterweise sieht das non AI Upsampling von Epic mit TSR und das von Gurilla Games was jetzt im neuen Horizon auf der PS5PRO zum Einsatz kommt besser aus - ob das mehr Inputs von der Engine bekommt und das der Gamechanger ist? Wer weiß)

Jedenfalls zog DLSS immer weiter davon und es gab IMO keine andere Wahl als auf ein AI Upsampling zu setzen. Und wenn man sieht wie sehr selbst N48 mit 789 TOPS einbricht, wird das Verfahren für RDNA3 und auch für XDNA2 einfach zu teuer sein.

Ich stimme auch zu, dass man viel zu lange mit der Upgradebarkeit gewartet hat. Das ging bei DLSS seit Version 2 IIRC. Und wäre auch seit FSR2 sinnvoll gewesen.

Interessant wird, wie man mit dem legacy Pfad umgeht. Denn Entnwickler fanden das sicherlich bisher gut mit einem Verfahren alle GPUs zu unterstützen. Etwas was nur auf RDNA4 läuft betrifft erstmal nur einen Bruchteil der HW Installation. Ja es gibt 3.1 als fallback - ggf. ziehen sie den non AI Pfad ja dann zukünftig einfach mit. Denn wenn man ehrlich ist brauchen Nvidia und Intel GPUs FSR4 nicht, da sie eigene Verfahren haben und RDNA2/3 wird sukzessiv aus dem Markt verschwinden.
Andererseits würde ein fallback (ggf. mit kleinerem Modell wie bei XeSS dp4a) ggf. schon helfen FSR4 schmackhafter zu machen.

Auch bleibt es interessant, ob und wann AMD den Sprung wie Nvidia mit dem Transformer Modell machen wird. AMD war relativ uneindeutig was Transformer / CNN angeht. Meine Vermutung ist, dass das noch CNN ist und dass es eine ganze Weile dauern wird bis man bei AMD diesen Sprung macht - da hat Nvidia sicherlich eine Weile dran gearbeitet.
Meine Einschätzung: zu UDNA dann in 2 Jahren.

Oder auch nicht, bei Spielen mit Anti-Cheat.
Das stimmt natürlich. Da ich absoluter Single Player bin, vergesse ich immer die Mehrspieler. X-D

Ist proprietäre closed Tech jetzt eigentlich wieder "gut" weils AMD jetzt auch so macht bzw RDNA4 only? Hätte ich noch keinen bemängeln gehört ;)
Das ist grundsätzlich nicht gut. Wenigstens ein dp4a Modell sollte man noch bringen als Fallback wie Intel mit XeSS.
Weiterhin gibt es seit kurzem ja auch APIs um Matrix Cores anzusprechen. Damit könnte man dann auch den vollen Pfad von FSR4 öffnen sobald eine GPU diese API unterstützt. Dann würde potenziell FSR4 mit großem Modell (dem jetzigen) auch gut auf Geforce und ARC laufen.

Ich vermute aber bei AMD war jetzt erstmal absoluter Fokus darauf mit RDNA4 ein gutes FSR4 abzuliefern. Entsprechend wird man diese Punkte sicherlich erstmal zurück gestellt haben. Solange diese noch kommen wäre aber alles in Butter. IMO. Und auch der richtige Fokus. Auch IMO.

robbitop
2025-03-06, 10:14:52
Ja. Absolut verrückt, wie sie das überhaupt geschafft haben. Offenbar auch mal eben XeSS komplett deklassiert.
Wobei XeSS auch bei den Meisten nur im billig Modell beurteilt werden kann mangels ARC GPU. Interessant wäre schon auch ein Vergleich mit XMX Modell. Ggf. baut DF ja einen Vergleich. :)

Exxtreme
2025-03-06, 10:21:07
Xess ist in etwa mit DLSS3 vergleichbar. Gegen FSR4 wird es wahrscheinlich ziemlich alt aussehen.

Gast
2025-03-06, 10:28:26
Ein riesen Sprung! Sehr gut AMD! :)
Endlich eine moderne uArch und modernes Upsampling (auch wenn es an das Transformer Modell noch nicht rankommt finde ich es dennoch beeindruckend).


Es ist auf jeden Fall am oberen Ende der Erwartungen. AMDs Pech ist eben dass man immer mindestens eine Generation zurückliegt, und das DLSS4 überraschenderweise von einem schon hohen Niveau noch mal dermaßen starke Verbesserungen zeigt.


Wenn mit 789 TOPS FSR4 schon so teuer ist wird das mit RDNA3 nichts. Zum Laufen wird man es sicher bekommen aber es wird dann wohl langsam sein. Mal schauen ob AMD analog Intel noch ein low fidelity Modell trainiert.


Sollte es für RDNA3 kommen, dann garantiert mit reduzierter Qualität.
Die Performancekosten sind wirklich überraschend hoch, bei Nvidia ist ja üblicherweise DLSS bis 3 dank Tensorcorenutzung sogar minimal schneller als FSR2/3. RDNA4 hat jetzt auch Matrix-Cores und trotzdem ist FRS4 langsamer als 3.


Frage mich ob es bei RDNA4 separate Mateix Cores sind (sieht ja so aus) und ob sie parallel zu den Vektor FPUs laufen können.


Separat sind sie garantiert, in wie weit sie parallel nutzbar sind fraglich, und die Performancekosten von FSR4 deuten eher darauf hin dass die parallele Nutzung zumindest in der Praxis nicht besonders stark sein kann.
Generell hat ja AMD die Tradition Hardwareteile für andere Zwecke zu reusen, siehe auch RT-Cores die nicht parallel mit den TMUs arbeiten können.

aufkrawall
2025-03-06, 10:36:54
Xess ist in etwa mit DLSS3 vergleichbar.
Unsinn. Auch die XMX-Variante von XeSS 1.3 hat ständiges Pixel Crawling, was es mit DLSS Preset E ~überhaupt nicht gibt (bzw. nur mit Bewegung in etwas anderer Form, bei XeSS ist das auch im Standbild die ganze Zeit hochfrequent vorhanden):
https://youtu.be/PneArHayDv4?t=536

FSR 4 wäre folglich massiv besser als XeSS XMX.

raffa
2025-03-06, 11:00:47
Wobei XeSS auch bei den Meisten nur im billig Modell beurteilt werden kann mangels ARC GPU. Interessant wäre schon auch ein Vergleich mit XMX Modell. Ggf. baut DF ja einen Vergleich. :)

Der XeSS Fallback läuft zB auf RDNA2 höchst bescheiden, zudem sieht er nicht sonderlich gut aus, da ziehe ich FSR3.1 vor - Man darf also gespannt sein, ob AMD einen nutzbaren Fallback bringt, der dann zumindest auf RDNA3 gut performt.

DrFreaK666
2025-03-06, 11:43:22
Ist proprietäre closed Tech jetzt eigentlich wieder "gut" weils AMD jetzt auch so macht bzw RDNA4 only? Hätte ich noch keinen bemängeln gehört ;)...
Proprietär ist Mist, wie RTX5000-User nun auch bei GPU-PhysX merken.
Für Entwickler auch, wenn sie tausend Technologien unterstützen müssen statt nur 5

Wobei XeSS auch bei den Meisten nur im billig Modell beurteilt werden kann mangels ARC GPU. Interessant wäre schon auch ein Vergleich mit XMX Modell. Ggf. baut DF ja einen Vergleich. :)

Intel Arc kennt Alex doch gar nicht

aufkrawall
2025-03-06, 12:09:39
Er hat dann XeSS XMX wohl auf einer gehackten GeForce getestet, oder was soll der dumme Kommentar...

Badesalz
2025-03-06, 12:16:08
Es ist auf jeden Fall am oberen Ende der Erwartungen. AMDs Pech ist eben dass man immer mindestens eine Generation zurückliegt, und das DLSS4 überraschenderweise von einem schon hohen Niveau noch mal dermaßen starke Verbesserungen zeigt.Eigentlich ja, aber alle Tests sprechen nicht vom Pech. Am Ende dessen und kurz vor dem Fazit schaut man sich noch die Straßenpreise an, um es mit anderen zu vergleichen. Mal sehen wie der Markt das bald regeln wird.

DrFreaK666
2025-03-06, 12:22:43
Er hat dann XeSS XMX wohl auf einer gehackten GeForce getestet, oder was soll der dumme Kommentar...

https://i.postimg.cc/J0PFc7Wj/Screenshot-20250306-122023-You-Tube.jpg (https://postimg.cc/FkkGh4zK)
https://youtu.be/PneArHayDv4?si=wUTec4u0MDXrQ037
Worauf DP4a hindeutet, muss ich dir wohl nicht erklären. Oder welches Video meinst du?
Ja gut. Weiter vorne im Video nutzt er Arc. Vor 10 Monaten

Exxtreme
2025-03-06, 12:31:31
Ja gut. Weiter vorne im Video nutzt er Arc. Vor 10 Monaten

Nur hat sich hier auch nichts getan. Selbst Spieleentwickler beschweren sich drüber, dass Xess 1.x tot ist und Xess 2.x noch nicht da ist.

https://www.reddit.com/r/intel/comments/1j374wy/xess_1_has_been_abandoned_for_8_months_xess_2/

aufkrawall
2025-03-06, 12:46:23
Worauf DP4a hindeutet, muss ich dir wohl nicht erklären.
Warum wohl hab ich mit Timestamp verlinkt, du Schlaumeier?
Und da sieht man eindeutig, dass XMX genau das gleiche Problem mit dem Pixel Crawling hat wie DP4a. Ob nun ggf. 5 oder 10% weniger ausgeprägt, spielt da auch keine Rolle.
Es ist deutlich minderwertig vs. DLSS Preset E (und nun offenbar auch FSR 4).

Gast
2025-03-06, 13:30:46
Das ist grundsätzlich nicht gut. Wenigstens ein dp4a Modell sollte man noch bringen als Fallback wie Intel mit XeSS.


Es müsste gar nicht DP4a sein, mittlerweile kann man auch innerhalb von DX Matrix-Cores ansprechen und hätte damit eine Unterstützung aller Hersteller die entsprechende GPUs anbieten.

Aber wenn AMD plötzlich eine Software hat die Konkurrenzfähig genug ist, dass Entwickler auch aus einem anderen Grund als der freien Verfügbarkeit einbauen ist OSS anscheinend nicht mehr so wichtig.

robbitop
2025-03-06, 14:30:15
Es müsste gar nicht DP4a sein, mittlerweile kann man auch innerhalb von DX Matrix-Cores ansprechen und hätte damit eine Unterstützung aller Hersteller die entsprechende GPUs anbieten.

Aber wenn AMD plötzlich eine Software hat die Konkurrenzfähig genug ist, dass Entwickler auch aus einem anderen Grund als der freien Verfügbarkeit einbauen ist OSS anscheinend nicht mehr so wichtig.
Naja ich würde es so sehen: In dubio pro reo.

Dass man erstmal fokussiert, zu RDNA4 direkt ein gutes FSR4 zu haben und alles andere zurückstellt, macht schon Sinn. Sofern sie es aber nachliefern wäre das IMO ok und nachvollziehbar.

robbitop
2025-03-06, 15:50:20
CB hat einen Test mit FSR4 veröffentlich.
https://www.computerbase.de/artikel/grafikkarten/amd-fsr-4-fsr-3-1-dlss-4-dlss-3-vergleich.91650/

Was ich interessant finde. FSR4 ist zwar etwas teurer als FSR3.1 - aber: die Geforces gewinnen mit FSR3.1 im Performance preset (relativer Gewinn vs nativ -> also nativ auf 100% normiert jeweils) mehr als die Radeons. Und zwar deutlich. FSR3.1 und DLSS ist ungefähr gleichschnell auf Blackwell.

Gast
2025-03-06, 16:06:25
Dass man erstmal fokussiert, zu RDNA4 direkt ein gutes FSR4 zu haben und alles andere zurückstellt, macht schon Sinn. Sofern sie es aber nachliefern wäre das IMO ok und nachvollziehbar.

Offizieller Support ja, aber man wechselt sicher nicht später die API, nur um andere auch zu unterstützen.

Ist ja prinzipiell nichts verwerfliches, es gibt ja keinen Zwang zu OSS, es zeigt nur dass auch für AMD OSS nur so lange wichtig ist, so lange es ihnen nutzt.
Ist eben ein Unternehmen wie jedes andere und das einzige was für alle Unternehmen zählt ist die Einnahmen zu maximieren.

robbitop
2025-03-06, 16:18:53
Offizieller Support ja, aber man wechselt sicher nicht später die API, nur um andere auch zu unterstützen.

Ist ja prinzipiell nichts verwerfliches, es gibt ja keinen Zwang zu OSS, es zeigt nur dass auch für AMD OSS nur so lange wichtig ist, so lange es ihnen nutzt.
Ist eben ein Unternehmen wie jedes andere und das einzige was für alle Unternehmen zählt ist die Einnahmen zu maximieren.
Die Offenheit würde ihnen weiterhin nutzen, weil solange es auf jeder HW läuft, haben sie nicht den Nachteil der geringen Installationsbasis. Und nach der entscheidet ein Studio sicherlich schon mal ob sie es implementieren oder nicht. Und wenn sie es implementieren wie viel Zeit (und Güte) in die Implementierung fließt.
AMD braucht aufgrund des kleinen Marktanteils (und aufgrunddessen, dass es nur auf RDNA4 läuft wird das ja noch weiter verschärft) die Offenheit (bzw zumindest dass es GPU agnostisch läuft bzw dafür einen Pfad gibt). Nvidia hat das Problem nicht, weil unangefochtener Marktführer und mehrere Generationen an GPUs mit Tensor Cores.
Ich denke, dass ein low precision Pfad der GPU agnostisch ist sehr sehr hilfreich für AMD wäre FSR4 zu pushen. Ob man zwangsweise den high precision Pfad für die DX Schnittstelle öffnet? Wer weiß - würde ja ohnehin niemandem nutzen oder? RDNA3 und älter wäre trotz der AI Schnittstelle mit dem dicken Modell wahrscheinlich zu lahm, Intel GPUs sind quasi nicht existent und Nvidia GPUs haben DLSS. Eigentlich eher ein rein akademisches Thema. Aber man könnte zumindest den low precision Pfad mit der DX AI API versehen, so dass bei RDNA3 auch WMMA benutzt werden kann.

DrFreaK666
2025-03-06, 16:53:52
Hat AMD schon bekanntgegeben, wann FSR4 in Github und GPUOpen verfügbar ist?

Gast
2025-03-06, 17:33:43
Hat AMD schon bekanntgegeben, wann FSR4 in Github und GPUOpen verfügbar ist?

Noch hat AMD gar nicht bekanntgegeben ob es jemals verfügbar sein wird.

Ravenhearth
2025-03-06, 18:54:08
Nein, wahrscheinlich nie...

Milchkanne
2025-03-06, 23:26:14
Könnte man eigentlich nicht einfach ein "Optiscaler SDK" bereitstellen, das einmal eingebunden wird und dann alle Verfahren bereitstellt? Idealerweise auch als DLL, die man für zukünftige Verfahren austauschen kann. Das wäre für den Dev doch noch einfacher. Evtl. erlaubt Nvidia sowas natürlich nicht, das DLSS über eine Zwischenschicht angebunden wird oder so. Die DLLs darf ja wahrscheinlich nicht jeder einfach so verbreiten. Der Dev müsste die dann aus dem DLSS SDK kopieren, falls das eben erlaubt ist.

DLSS wird ja eh eingebaut, also hätte AMD an sowas Interesse und könnte das bereitstellen...

robbitop
2025-03-06, 23:39:43
Nvidia hat mit Streamline ja so eine API vorgestellt und die ist in manchen Spielen auch verwendet. Aber ist halt von einem IHV und MS kommt kaum so richtig aus dem Knick. Schade.

samm
2025-03-07, 07:53:48
MS bietet doch genau Direct SR an. Wird das nicht eingesetzt? Ist die dortige FSR-2-basierte API nicht mehr verwendbar, um FSR 3.1/4 und DLSS 3/4 anzusprechen?

Gast
2025-03-07, 08:32:40
Könnte man eigentlich nicht einfach ein "Optiscaler SDK" bereitstellen, das einmal eingebunden wird und dann alle Verfahren bereitstellt?


Gibt es bereits nennt sich Steamline, wird nur von einem Hersteller boykottiert.

Wäre es nicht schön wenn alle Streamline-Spiele ein automatisches FSR4-Upgrade bekommen würden...

Exxtreme
2025-03-07, 08:56:31
Gibt es bereits nennt sich Steamline, wird nur von einem Hersteller boykottiert.


Es wird von zwei Herstellern boykottiert und nur von einem unterstützt.

DrFreaK666
2025-03-07, 09:25:25
Man benötigt kein Streamline, wenn es DirectSR gibt, das alle Hersteller unterstützen

aufkrawall
2025-03-07, 09:33:29
Ja, toll. Dann gibts halt auch kein FG, Reflex, Anti-Lag 2 oder RR. Geiler Fortschritt. Hauptsache, für alle gleich schlecht...

DrFreaK666
2025-03-07, 09:41:03
Das kann man trotzdem einfügen. Das SR steht für Super Resolution

aufkrawall
2025-03-07, 09:54:48
= unnötig zusätzlicher Code = unnötig zusätzliches Potenzial für Bugs. Dumme Idee.

Gast
2025-03-07, 10:15:33
= unnötig zusätzlicher Code = unnötig zusätzliches Potenzial für Bugs. Dumme Idee.

Ja DirectX ist auch eine dumme Idee.

BTW: AMD FSR 4 Confirmed to Have Been Co-Developed with Sony
https://wccftech.com/amd-fsr-4-confirmed-to-have-been-co-developed-with-sony/

aufkrawall
2025-03-07, 10:44:16
Ja DirectX ist auch eine dumme Idee.

Der Vergleich geht fehl, ohne DirectX gibts kein Bild.
Etwas völlig Anderes, als wenn man zusätzlich extra DirectSR einbaut, anstatt eine Checkbox in StreamLine oder FidelitySDK für den Upsampler zu setzen.

Gast
2025-03-07, 10:51:34
Der Vergleich geht fehl, ohne DirectX gibts kein Bild.
Etwas völlig Anderes, als wenn man zusätzlich extra DirectSR einbaut, anstatt eine Checkbox in StreamLine oder FidelitySDK für den Upsampler zu setzen.

Der Vergleich geht nicht fehl. Genausogut könnten die Hersteller jetzt für jedes x-beliebige Feature eine eigene API basteln. Wohin das führt liegt auf der Hand. Zumal warum soll eine "Checkbox" für DirectSR aufwendiger sein als eine Checkbox in StreamLine, FidelitySDK und Intel XeSS? Da lann dann zumindest kein Schindluder mehr getrieben werden und es werden alle unterstützt die DirectSR supporten.

Gast
2025-03-07, 10:54:41
Es wird von zwei Herstellern boykottiert und nur von einem unterstützt.

Es wird von 2 Herstellern unterstützt.

Gast
2025-03-07, 10:59:28
Man benötigt kein Streamline, wenn es DirectSR gibt, das alle Hersteller unterstützen

DirectSR bzw. DirectX ist dafür viel zu langsam und unflexibel.

Wenn jemand mit einer neuen Technik kommt, wie z.B. die FG mit Extrapolation die Intel mal angeteasert hat muss er erstmal ein Jahr warten dass MS DX updatet bis es einsetzbar wird, oder alternativ er macht erstmal in der Zwischenzeit wieder eine proprietäre API.

Streamline ist OS, jeder Hersteller der eine neue Idee hat muss nur die Schnittstellen dafür integrieren, Spieleentwickler müssen und sobald Spieleentwickler die aktualisierte Version einsetzen funktioniert alles.

Lurtz
2025-03-07, 11:15:01
H38a0vjQbJg

FSR4 funktioniert auch in 1440p sehr gut :up: Es ist deutlich schärfer als DLSS3, allerdings instabiler. Wenn FSR4 zur Verfügung steht hält er den Aufpreis zu einer Geforce nur noch "vielleicht" für gerechtfertigt, nicht mehr zwingend. Die Verbreitung ist eben noch ein Problem.

Er meint FSR4 Balanced wäre teils stabiler als FSR4 Quality, klingt als könnte man das fixen.

Exxtreme
2025-03-07, 11:17:10
Es wird von 2 Herstellern unterstützt.

Welche 2? Intel und AMD sind es schonmal nicht.

Gast
2025-03-07, 11:42:30
Welche 2? Intel und AMD sind es schonmal nicht.

Intel ist dabei, und natürlich der Erfinder.

Milchkanne
2025-03-07, 11:46:51
Gibt es bereits nennt sich Steamline, wird nur von einem Hersteller boykottiert.


Der Vorschlag war ja, das es nicht die Hersteller unterstützen müssen, weil das ein dritt Dev macht. (Der dritt Dev kann ruhig auch ein Hersteller sein.)

Der Game-Dev muss dann nur noch passende DLLs reinkopieren und die eine API unterstützen.

Exxtreme
2025-03-07, 11:51:32
Intel ist dabei, und natürlich der Erfinder.

Intel ist nicht dabei. Sie haben es vor langer Zeit mal angeteasert, dass sie möglicherweise mitmachen wollen. Passiert ist aber bisher nichts mehr.

Badesalz
2025-03-07, 12:01:09
[URL]FSR4 funktioniert auch in 1440p sehr gut :up: Es ist deutlich schärfer als DLSS3, allerdings instabiler. Wenn FSR4 zur Verfügung steht hält er den Aufpreis zu einer Geforce nur noch "vielleicht" für gerechtfertigt, nicht mehr zwingend. Die Verbreitung ist eben noch ein Problem.

Er meint FSR4 Balanced wäre teils stabiler als FSR4 Quality, klingt als könnte man das fixen.Wow. Das ist eine DERMASSEN andere Welt, daß FSR3.1 fast peinlich wirkt :freak:

@all
So hat sie das vor zig Monaten auch angesagt. Software hat ab jetzt und für ne ganze Weile die erste Priorität. Was ROCm angeht und was Driver angeht.
Sie scheint das Geld endlich entsprechend zu investieren :tongue:

DrFreaK666
2025-03-07, 12:12:40
Gibt es bereits nennt sich Steamline, wird nur von einem Hersteller boykottiert.

Wäre es nicht schön wenn alle Streamline-Spiele ein automatisches FSR4-Upgrade bekommen würden...

Wen interessiert das, wenn das niemand nutzt? Sonst hätten mehr Spiele XeSS statt FSR

aufkrawall
2025-03-07, 12:14:29
Wen interessiert das, wenn das niemand nutzt?
Nach der Logik kann auch DirectSR weg.

basix
2025-03-07, 12:35:03
https://youtu.be/H38a0vjQbJg

FSR4 funktioniert auch in 1440p sehr gut :up: Es ist deutlich schärfer als DLSS3, allerdings instabiler. Wenn FSR4 zur Verfügung steht hält er den Aufpreis zu einer Geforce nur noch "vielleicht" für gerechtfertigt, nicht mehr zwingend. Die Verbreitung ist eben noch ein Problem.

Sieht für ziemlich gut aus. Unter dem Strich also etwa in der Mitte zwischen DLSS 3.7 und DLSS 4. Bei manchen Aspekten ähnlich wie DLSS3 und anderen wie DLSS4. Für mich persönlich wäre FSR4 > DLSS3 definitiv angesagt, primär wegen der höheren Bewegtbildschärfe.

Bei der Verbreitung hoffe ich auf einen einfach anzuwendenden DLSS to FSR4 Wrapper. Am besten direkt im Treiber (wenn das rechtlich geht).

Exxtreme
2025-03-07, 12:38:59
Wen interessiert das, wenn das niemand nutzt? Sonst hätten mehr Spiele XeSS statt FSR

Nvidia nutzt standardmäßig Streamline. Und da sie ~80% Marktanteil haben, ist das sehr wohl sehr weit verbreitet.

DrFreaK666
2025-03-07, 12:42:51
Nach der Logik kann auch DirectSR weg.

BS, weil da alle Hersteller an Bord sind

Nvidia nutzt standardmäßig Streamline. Und da sie ~80% Marktanteil haben, ist das sehr wohl sehr weit verbreitet.

Dann braucht man ja kein Streamline, wenn es nur für DLSS genutzt wird. Oder was willst du damit sagen?

Das Thema ist übrigens ziemlich OT

aufkrawall
2025-03-07, 12:44:35
Du hast nur leider vergessen zu erwähnen, dass offenbar ~kein Spielehersteller an Board ist, obwohl es den Kram jetzt schon einige Zeit gibt.
Aber du weißt das wohl besser als die Leute, die in der Branche arbeiten...

Relex
2025-03-07, 12:49:14
Wow. Das ist eine DERMASSEN andere Welt, daß FSR3.1 fast peinlich wirkt :freak:



FSR3.1 war schon seit Release peinlich, aber wenn man das anspricht wird man ja immer direkt als Nvidia Jünger beschimpft.

Finde es auch übel, wie er FSR3.1 hier kritisiert mit "awful", "horrible", "unusable", jetzt wo FSR4 draußen ist und man im zweiten Satz dann AMD loben darf. ;D



Unterm Strich ist FSR4 schon wirklich überraschend gut geworden, aber DLSS4 bleibt in den meisten Szenarien klar besser. Das bestätigt sich hier wieder. Aber auch nvidia hat noch Hausaufgaben zu machen, könnte sich aber offiziell mit dem "Beta" Status, den DLSS4 SR aktuell noch hat rausreden.

Nur wirklich schade, dass RDNA3 und früher kein FSR4 bekommen.

Ich schätze man könnte bestimmt irgendwas AI basiertes basteln, das auf den alten Karten läuft, aber bei XeSS hat man ja auch schon gesehen, dass selbst das abgespeckte DP4A model auf RDNA viel performance kostet. Und man will ja sicher besser als XeSS sein. Das scheint also irgendwie ne ziemliche Sackgasse zu sein...

Badesalz
2025-03-07, 13:19:45
FSR3.1 war schon seit Release peinlich, aber wenn man das anspricht wird man ja immer direkt als Nvidia Jünger beschimpft.

Finde es auch übel, wie er FSR3.1 hier kritisiert mit "awful", "horrible", "unusable", jetzt wo FSR4 draußen ist und man im zweiten Satz dann AMD loben darf. ;DDem stimme ich zu.

Unterm Strich ist FSR4 schon wirklich überraschend gut geworden, aber DLSS4 bleibt in den meisten Szenarien klar besser."klar", "extrem" usw. usw. Hmm... Ja es ist besser. Superlativen in irgendeine Richtung überlasse ich denen die du oben noch auslachst ;) Einen "klaren" Vorteil hat es nicht. FSR4 liegt je nach Spiel und Frame (!) mal bisschen über 3.7, mal kratzt es schon an DLSS4. Das ist schon recht gut so.. "Performance" ignoriere ich dabei allerdings. Für mich ist das Blödsinn. Alles unter B_alanced schau ich mir nichtmal an. Egal wann wie wo.

Für AMD war es wichtig, daß sie etwas haben was benutzbar ist. Das ist es nun offensichtlich. Es gab UMGEKEHRT auch ewig Leute die DLSS2 oder 3.0 besungen haben. Ist/war aus heutiger Sicht auch weit weg von ansehnlich.

Das scheint also irgendwie ne ziemliche Sackgasse zu sein...Für FSR4 ist das so. Irgendwie spielen die Leute aber auf RDNA3 und haben auch ohne FSR Spaß dran. Wahrscheinlich weil sie Auflösungen und Settings wählen wo das auch Spaß macht. Das sind meist solche die das Zocken am PC nicht als ein elitäres Vergnügen sehen. Ich sehe die Situation also nicht wo man sie jetzt auf einmal als gearsc... bemitleiden sollte :|
Oder was genau sollte dein O-Ton implizieren? ;)

Savay
2025-03-07, 13:46:14
Ich schätze man könnte bestimmt irgendwas AI basiertes basteln, das auf den alten Karten läuft, aber bei XeSS hat man ja auch schon gesehen, dass selbst das abgespeckte DP4A model auf RDNA viel performance kostet.

Darauf würde ich ehrlich gesagt erstmal nicht zu viel geben, das kann auch mit an der Implementierung liegen.
Der DP4a Pfad ist ja wohl primär für Xe (die ohne XMX!) optimiert...Intel wird da wohl eher keine Arbeit reingesteckt haben, dass das auf ner anderen als einer der eigenen Architekturen immer bestmöglich läuft. :wink:

Was da eher zu denken geben sollte ist die eher Schwache BQ des DP4a Pfads...
Nicht das ich da von ""awful", "horrible", "unusable"" sprechen würde...aber wenn FSR das schon sein soll...was ich nicht finde...dann ist DP4a XeSS das erst Recht.

basix
2025-03-07, 14:17:47
Cool wäre es, wenn AMD einen 1-zu-1 Port auf FP16 WMMA machen würde. Das wäre mal primär für RDNA3 (dGPU, iGPU, PS5 Pro) sowie XDNA2 (Strix APUs) geeignet. Nimmt man standard APIs (z.B. DX12 WMMA) wäre sowas dann auch auf Intel Arc sowie Nvidia RTX GPUs lauffähig. Sicher wird das stärker für AMDs Architekturen optimiert werden, aber es würde auf den anderen GPUs wohl dennoch zufriedenstellend laufen. Am schnellsten und besten aber immer auf RDNA4 (FP8 sowie Optimierungen).

Ausgeschlossen wären dann leider alle RDNA2 Nutzer. Ich denke allerdings, dass man FSR4 auch mit FP16 Packed Math gut hinkriegen würde. Läuft sicher langsamer als mit WMMA, aber IQ-Gewinn vs. Performancekosten dürften dennoch lohnend sein.

Also ich würde hier schwer promoten, das DNN nicht abzuspecken und lieber mit den erhöhten Performancekosten zu leben. Das ist viel weniger Aufwand für AMD und wenn man neu FSR4-B/P anstatt FSR3-Q nutzt (ca. gleichbleibende Performance) und dafür die verbesserte Bildqualität erhält, wäre das immer noch ein Gewinn für RDNA2 Nutzer. Das selbe würde dann auch bei der PS5 / XBSX gelten.

Tesseract
2025-03-07, 14:20:47
Es gab UMGEKEHRT auch ewig Leute die DLSS2 oder 3.0 besungen haben. Ist/war aus heutiger Sicht auch weit weg von ansehnlich.

war es nicht. selbst in der ersten version ist DLSS2 in entscheidenden bereichen viel näher an FSR4 als an FSR3.1, wenn natürlich auch nicht so gut wie die aktuellsten modelle.
unansehnlich waren höchstens die versionen mit dem kaputten schärfefilter.

Lurtz
2025-03-07, 14:38:35
Ich denke für eine abschließende Beurteilung ist es noch zu früh. Insbesondere was (Software-)RT, Lumen und Co angeht.

Die wird dann aufkrawall liefern... :D

ChaosTM
2025-03-07, 14:43:56
Ja, er wird das wieder auf YT Videos basierendes Material beurteilen. (SCNR)

Nein, er hat schon ein gewisses Auge für..

robbitop
2025-03-07, 14:49:50
Cool wäre es, wenn AMD einen 1-zu-1 Port auf FP16 WMMA machen würde. Das wäre mal primär für RDNA3 (dGPU, iGPU, PS5 Pro) sowie XDNA2 (Strix APUs) geeignet. Nimmt man standard APIs (z.B. DX12 WMMA) wäre sowas dann auch auf Intel Arc sowie Nvidia RTX GPUs lauffähig. Sicher wird das stärker für AMDs Architekturen optimiert werden, aber es würde auf den anderen GPUs wohl dennoch zufriedenstellend laufen. Am schnellsten und besten aber immer auf RDNA4 (FP8 sowie Optimierungen).

Ausgeschlossen wären dann leider alle RDNA2 Nutzer. Ich denke allerdings, dass man FSR4 auch mit FP16 Packed Math gut hinkriegen würde. Läuft sicher langsamer als mit WMMA, aber IQ-Gewinn vs. Performancekosten dürften dennoch lohnend sein.

Also ich würde hier schwer promoten, das DNN nicht abzuspecken und lieber mit den erhöhten Performancekosten zu leben. Das ist viel weniger Aufwand für AMD und wenn man neu FSR4-B/P anstatt FSR3-Q nutzt (ca. gleichbleibende Performance) und dafür die verbesserte Bildqualität erhält, wäre das immer noch ein Gewinn für RDNA2 Nutzer. Das selbe würde dann auch bei der PS5 / XBSX gelten.
Wird aber ggf ziemlich lahm. Selbst eine 7900 XTX hat dann im besten Fall < 1/6 des Durchsatzes mit BF16 vs FP8 von der 7090XT.
Und das ist schon die absolute Spitze. Wenn wir die 7700XT, 7600XT oder Strix Point (trotz NPU -> da waren da dann um die ~50 TOPs?) anschauen wird es noch mal deutlich schlimmer. Und FSR4 ist schon mit 789 TOPs ziemlich teuer.

aufkrawall
2025-03-07, 14:55:51
Die wird dann aufkrawall liefern... :D
Leider ist ja die Spieleauswahl etwas eingeschränkt, hoffentlich lässt die Mod-Unterstützung nicht lange auf sich warten...

Savay
2025-03-07, 15:02:17
Selbst eine 7900 XTX hat dann im besten Fall < 1/6 des Durchsatzes mit BF16 vs FP8 von der 7090XT.

Wieso 1/6?

Ich sehe da pro CU 1/4...Wird Sparsity denn für FSR4 benutzt?

Und FSR4 ist schon mit 789 TOPs ziemlich teuer.

Da wir noch keine Profiling Daten haben wissen wir doch noch gar nicht ob die Matrix Instruktionen hier der größte Bottleneck sind... :wink:

Davon abgesehen könnte da ja evtl. auch noch hier und da was zu holen sein bzgl. Performance. Ist immerhin erst der Erste Aufschlag.

basix
2025-03-07, 15:06:13
Wird aber ggf ziemlich lahm. Selbst eine 7900 XTX hat dann im besten Fall < 1/6 des Durchsatzes mit BF16 vs FP8 von der 7090XT.
Und das ist schon die absolute Spitze. Wenn wir die 7700XT, 7600XT oder Strix Point (trotz NPU -> da waren da dann um die ~50 TOPs?) anschauen wird es noch mal deutlich schlimmer. Und FSR4 ist schon mit 789 TOPs ziemlich teuer.

Wenn ich DLSS3/4 als Beispiel nehme: Ca. 0.1ms von 0.35ms ist wirklich hohe Auslastung. Der Rest ist bandbreitenlimitiert. Diese Bandbreitenlimitation ist der Punkt, wo die alten GPUs nicht unbedingt langsamer sind.

Für mich heisst das: Eine 7900XTX würde vielleicht 0.5ms länger für FSR4 benötigen. Evtl. sogar weniger (120 TFLOPS FP16 vs. 400 TFLOPS FP8 / 400 TOPS INT8 sind nur ~3x, Sparsity ist sicher nicht in Gebrauch). Bei 100fps sind das gerade mal 5%. Nimmt man eine 7700XT sind es halt 10%. Alles tip top machbar.

Bei schwächeren GPUs wie 7600er Serie oder APUs hilft, dass man dort in niedrigeren Auflösungen unterwegs ist. Und im Falle der APU + XDNA2 noch die iGPU entlastet wird. Sollte also auch klappen.
Eine 2060 kann auch DLSS4 und die 50 TFLOPS FP16 scheinen dort auch zu reichen.

Wo es langsam kritisch wird, das sind RDNA2 Karten. Die haben nochmals halbierten FP-Durchsatz und kein WMMA Support. Aber vielleicht kriegt das AMD auch hin. 20% Performance-Verlust gegenüber FSR3 kann man durch Q -> B/P ausgleichen und sieht vermutlich immer noch besser aus.

Was ich bei RDNA2 als ausgeschlossen ansehe ist sowas wie Ray Reconstruction. Da wird auch RDNA3 etwas damit zu kämpfen haben.

Savay
2025-03-07, 15:09:54
Die haben nochmals halbierten FP-Durchsatz und kein WMMA Support.

FP16 war mit Packed Math m.W. identisch pro CU, weil RDNA3 das mit den Dual Issue ALUs wohl nicht nutzen kann.
D.h. RDNA2 hat daher m.W. nen Speedup von 2x für FP16, RDNA3 aber nur 1x (im Worst-Case, bzw Best-Case für Dual-Issue)

Was aber fehlt ist WMMA und BF16 etc.

basix
2025-03-07, 15:12:01
Eine 7900XTX hat 120 TFLOPS FP16 (WMMA oder Packed-Math) und eine 6900XT hat nur knapp 50 TFLOPS FP16 Packed-Math. Ist bei RDNA2 also schon halbiert pro CU ;)

robbitop
2025-03-07, 15:12:53
Wieso 1/6?

Ich sehe da pro CU 1/4...Wird Sparsity denn für FSR4 benutzt?
FSR4 nutzt FP8. Da hat N48 789 TOPS mit Sparsity und da kann man von ausgehen dass die genutzt werden. N31 hat FP16 123 TFLOPs und keine Erhöhung für FP8.



Da wir noch keine Profiling Daten haben wissen wir doch noch gar nicht ob die Matrix Instruktionen hier der größte Bottleneck sind... :wink:

Davon abgesehen könnte da ja evtl. auch noch hier und da was zu holen sein bzgl. Performance. Ist immerhin erst der Erste Aufschlag.
Das stimmt - aber was soll es sonst sein? :) Und XeSS zeigt ja bereits wie teuer NN Upsampling ohne Matrix cores ist.

basix
2025-03-07, 15:18:32
Wieso willst du Sparsity nutzen? Wo siehst du den Vorteil davon?

robbitop
2025-03-07, 15:24:37
Bringt doch mehr Durchsatz. Oder sind die Matrizen alle "voll"? Ich habe da keinen Einblick in das was da durch die Rechenwerke läuft. Aber ich wäre jetzt davon ausgegangen.

Savay
2025-03-07, 15:37:19
Ist bei RDNA2 also schon halbiert pro CU ;)

Stimmt...hier stehts ja auch...
https://gpuopen.com/learn/wmma_on_rdna3/

Weiß ehrlich gesagt nicht mehr wo ich das her habe...vielleicht aus einer Worst-Case betrachtung sobald das Dual Issue VALU nicht greift... :freak:
wobei Matrizen ja eigentlich wie dafür gemacht sein sollten. :uponder:

Badesalz
2025-03-07, 20:11:17
war es nicht. selbst in der ersten version ist DLSS2 in entscheidenden bereichen viel näher an FSR4 als an FSR3.1, Wünsch dir was... Das war die gleiche Matsche wie FSR vor 4. Deswegen kippten sie erstmal soviel so lange Schärfe drüber bis die Leute angefangen haben zu protestieren.

Tesseract
2025-03-07, 21:38:06
nichtmal eine woche raus und schon ist das revisionist history gaslighting in vollem gange.

:facepalm:

robbitop
2025-03-08, 07:30:47
Diese Bröseln bei Disocclusion war bei DLSS 2 IIRC nie. Wenn man bei Settings wo die Spreu vom Weizen sich trennt vergleicht ist selbst DLSS2 in der Hinsicht deutlich vor 3.1.
Und leider ist das Problem sehr immersionsbrechend. Genau wie das ghosting von particles. Wobei es da mit den ersten Models von DLSS 2 auch Schwierigkeiten gab.

Wenn DLSS 2 gemeint ist sollte man lieber noch dazu sagen welche Version und welches Model. Denn da gab es ja auch große Unterschiede.

basix
2025-03-08, 08:39:26
DLSS2 hatte nie die ganz grossen Probleme wie FSR2/3. Es skalierte auch besser zu niedrigeren Renderauflösungen hin. FSR2/3 fiel da irgendwann komplett auseinander.

Ghosting, Smearing und vor allem die Unschärfe waren die grossen Probleme. Die hat man zwar deutlich verbessert mit z.B. DLSS 3.7 Preset E, aber wirklich weggekriegt hat man es nie. CNN ist sehr gut für lokale Detailrekonstruktion aber nicht gut für globale Informationsgewinnung. Deswegen Probleme bei bewegten Objekten (z.B. Ghosting) oder generell in Bewegung (Unschärfe). Transformer-Modelle können einen deutlich grösseren Bildbereich für die Rekonstruktion auswerten, deswegen sieht das jetzt in Bewegung so viel besser aus. Transformer-Modelle haben aber mehr Mühe mit lokaler Detailrekonstruktion, deswegen ein paar der neuen Problemchen oder zum Teil nur geringfügigen Verbesserungen zu DLSS3, primär wenn wenig Bewegung im Spiel ist (z.B. sehr feine Details).

DLSS4 löst die meisten Probleme von DLSS2/3. Führt aber auch ein paar neue ein (z.B. Disocclusion ist ein bisschen bröselig). Die neuen Probleme fallen in den meisten Fällen aber kaum auf. Und der Netto-Benefit von DLSS4 ist schon ziemlich gross. Da noch sehr neu, gibt es aber ein paar Stellen wo DLSS4 nicht besser ist als DLSS2/3 oder sogar komplett auf die Schnauze fällt (siehe aufkrawalls verlinktes Video ein paar Posts weiter oben). Das wird wohl schon noch verbessert werden.

Bei FSR4 ist es ja ein wenig ähnlich wie mit DLSS4: Das Ding ist neu. Wir sollten in den nächsten Monaten laufend Verbesserungen erhalten. Und wer weiss, vielleicht schliesst sich die Lücke zu DLSS4 noch mehr.
Das wichtigste bei FSR4 sind momentan 2 Dinge: Spiele-Support und dass auch mehr AMD-GPUs FSR4 Nutzen können. Das ist wichtiger als leicht verbesserte Qualität.

Badesalz
2025-03-08, 13:26:08
nichtmal eine woche raus und schon ist das revisionist history gaslighting in vollem gange.

:facepalm:Kannst die Threads von der Zeit durchblättern. Wir hatten genug Diskussionen darüber. DLSS2 vor allem war da schon teilweise nahezu das Ende des Möglichen und sowas von gut :freak:

Ist jetzt aber für beide Seiten sehr bequem. Frame für Frame kann man sich jetzt mit Beispielen überhäufen welche entweder die eine oder die andere Thesen besser untermauern sollen :uup:
Jetzt aber auch andererseits, zu marodieren und rumerzählen DLSS2 schon, war näher an FSR4 als FSR3.1, während Leute die damit zu tun hatten das je nach Fall schwankend zwischen 3.7 und 4 sehen, ist wie sich nie damit beschäftigt zu haben. Ich rede von Matsche, klarer Fail der DLSS-Versionen davor. robbi springt dir zu Seite und redet vom Brösel, was tatsächlich auch bsi dahin der Fail von FSR war (und Ghosting).

Schönes Tauziehen der anstehen könnte. Könnte. Denn der Sinn dahinter erschliesst sich nicht. Keiner mehr will unterhalb von DLSS3.7 und keiner unterhalb von FSR4. Erzählungen (Betonungen?), DLSS2 war schon näher an FSR4 als an FSR3 könnten für manche Akteure zwar noch wichtig sein..., einen nützlichen Erkenntnisgewinn generieren sie aber auch in dem Fall nicht, wenn sie stimmen würden.

Von den beständig trüben Lichtern spreche ich wegen ihrer geringen Bedeutung nicht, aber grad keine Ahnung was auch Leute vom eigentlich Format bei sowas antreibt. Sie werden es schon wissen... in einem FSR-Thread.
Das ist eher etwas für Leute denen beispielhaft heute noch wichtig wäre darüber zu diskutieren, ob TNT1 oder TNT2 attraktiver als VooDoo2 war. Kein Problem. Ich bin gewillt derartigem fernzubleiben.

robbitop
2025-03-08, 13:37:31
Ich habe beide Verfahren seit sie releast waren selbst testen können und habe das auch gemacht. Gerade im Performance Preset war das Bröseln schon immer ein Problem. Im Quality Preset waren die Abstände weniger. Einfach weil weniger Spreu vom Weizen getrennt.

Beide Verfahren hatten Stärken und Schwächen. DLSS zB die Unschärfe und ein Stück weit kommt es auch auf den Kontent und die Präferenz an. Aber IMO zerbricht FSR (alles unter 4) bei niedrigen Inputresolutions ab einem gewissen Punkt so dass es temporal instabil wird und bei disocclusion bröselt. Und das ist dann so immersionstötend dass es IMO schlimmer als Unschärfe ist.
In Spielen mit gutem Content und keiner kleinen Inputresolution war FSR3.1 nicht schlecht das stimmt.
Ich beurteile Verfahren allerdings eher wenn sie gestresst sind und zeigen können müssen was sie drauf haben (die Erwartung an einen guten Upscaler sind schon 50% pro Achse - das formuliert Alex im DF Video vom ersten FSR2 Test übrigens auch so). Genau wie man CPUs und GPUs in deren Limit testet und Sportwagen nicht in der Stadt.
Ungestresst kann FSR3.1 bei gutem Content aber auch besser aussehen als frühe DLSS 2 Versionen. Spätestens seit 2.5.1 aber auch da nicht mehr imo.

Badesalz
2025-03-08, 13:48:26
Performance. Ich nehm das mal in meine Sig auf. Über "Performance" rede ich nie. Wer irgendwas was von mir über SuperSampling liest, dran denken, da ist nirgendwo "Performance" mit gemeint. thx

Sehr gut. Man könnte jetzt das Spiel Brösel vs. Matsche aufziehen. Coole Idee, aber keine gute. Über die Technologiestudien FSR vor v4 kann man sich bald nur aus einer archivarischen Leidenschaft unterhalten. Wer das mag.

Andere machen es sich auf Grund ihrer Schwächen auch einfacher (Tipp der Woche). Es macht viel weniger Mühen und lässt sich auch viel kürzer fassen nur Gerüchte zu streuen AMD hat FSR nicht gebacken bekommen und FSR4 wurde größtenteils von Sony entwickelt. Hauptsache man folgt irgendwie seinem grund O-Ton.

AMD. Nichts können sie. Nichts :rolleyes:

aufkrawall
2025-03-08, 13:50:08
Hat weniger mit "gutem" Content zu tun, sondern eher Zufall, wie weit die Probleme auffallen. FSR 2/3 sehen bei animierten Texturen immer aus wie unscharfer aliaster Müll, genauso bei Partikeleffekten in der Tiefe des Raumes oder Schichten hochfrequenter Vegetation mit Höllen-Disocclusion. An den Problemen ändert auch höhere Auflösung/weniger Upsampling nicht so viel, selbst FSR 3.1 nativ AA ist weiterhin mittelmäßig bis kompletter Müll in der Hinsicht.

Diese ganzen Probleme hatte DLSS nie, selbst Preset A nicht. Dafür halt mehr Smearing bei Geometrie und Kamera-/Objektbewegungsunschärfe.

Badesalz
2025-03-08, 14:03:28
Ich glaub Texturen sind ggf. nicht Geometrie, aber daß Texturen die nicht vor der Nase des Spielers liegen gefühlt die Halbe Auflösung des Zentrums vermittelten, davon hatten wir damals genug. Auch seltsam aussehende längere Waffen in Egoshootern fielen damals ziemlich auf damit.

In Quality...

Relex
2025-03-08, 14:08:51
@Badesalz

Also DLSS hat auch in Version 2 meist mehr Details aufgelöst, als natives TAA. Bzgl. Stabilität und Schärfe war es gegen Nativ TAA meistens ein hin und her. Je nach Implementierung von DLSS und TAA war mal das eine, mal das andere besser.

FSR2 hat sich halt immer die Blöße gegeben, nicht nur zu bröseln, sondern auch zu flimmern und eben sehr instabil zu sein. Und ja, DLSS4 hat ein paar disocclusion Brösel Probleme, das sollte Nvidia schnellstens fixen. Aber die waren bei FSR2 und 3 zum einen um ein vielfaches stärker (sieht man z.B. in den Digital Foundry Vergleichen in dem Test wo sich Aloy bewegt. Die wird mit FSR komplett pixelig und verrauscht, bei DLSS4 aber nicht) und außerdem hat DLSS4 eben nicht das Problem, dass das Bild dann flimmert und instabil ist. Im Gegenteil, es ist trotz disocclusion bröseln deutlich stabiler als DLSS3, was sowohl der DF test als auch der HUB test bestätigen.
Man kann halt nicht alles über einen Kamm scheren. Nur weil DLSS4 disocclusion bröseln hat verhält es sich in den Bereichen noch lange nicht wie FSR2/3.

DLSS3 hatte z.B. auch Probleme mit treppchenbildung an Kanten, aber deswegen war es noch lange kein Aliasing, welches zu flimmern neigte. Im Gegenteil diese Kanten waren sehr stabil. FSR hatte teilweise glattere Kanten mit weniger Treppchen, als DLSS und trotzdem haben die Kanten mehr geflimmert. Ja, glattere Kanten, die mehr flimmern. Hört sich wie ein Widerspruch an, ist es aber nicht.

Nur weil ein Artefakt ähnlich aussieht heißt das noch lange nicht, dass es vergleichbar ist. Gerade bei KI Upscalern sollte man da schon zweimal hinsehen.


Wie auch immer, zurück zum Thema worauf ich eigentlich hinaus wollte:
Mit DLSS3.x kam dann noch Preset D bei DLSS dazu, was den Detailgrad und Stabilität weiter gesteigert hat, aber stärker zu schlieren neigte. Das wurde dann mit 3.7 und Preset E behoben. Da wurde dann auch nochmal die Schärfe verbessert, vor allem auch in Bewegung. Die Fortschritte zwischen den ersten DLSS Presets und zuletzt Preset E mit 3.7 sind zwar recht deutlich sichtbar, das sind klare Fortschritte, aber eben auch nur iterativ über einen ziemlich langen Zeitraum. Soo stark fällt DLSS2 da eben auch nicht im Vergleich ab. Ich würde sagen DLSS2 war bereits bei ~70% dessen, was DLSS3.7 erreicht hat, während FSR vielleicht eher so bei 40% war (natürlich rein willkürliche Zahen auf basis meines subjektiven Eindrucks)

Man darf auch nicht vergessen, dass 2024 noch sehr viele Spiele veröffentlicht wurden, die z.B. das DLSS Preset C nutzen, welches auch schon uralt ist und trotzdem fällt sowas den wenigsten auf.
Wie gesagt, so gravierend sind die Forschritte bei DLSS nicht gewesen, als dass man deswegen jetzt behaupten müsse, dass all das was man früher an DLSS gelobt hat, aus heutiger sicht völliger Müll wäre. Nein, so einfach ist es nicht und so gravierend sind die Unterschiede auch nicht. Die Unterschiede zwischen FSR3 und FSR4 oder DLSS3 und DLSS4 bewegen sich in einer völlig anderen Größenordnung.


Es ist natürlich richtig, dass ein großes Upgrade bei der Bildqualität die vorherigen Fortschritte relativiert und in ein anderes Licht stellt, aber deswegen werden die alten Techniken ja nicht von heute auf morgen schlechter und die ganzen Vergleiche plötzlich falsch. Ich verstehe nicht, warum manche jetzt diese Narrative pushen wollen, nur um es irgendwie so hinzudrehen, dass man behaupten kann, dass DLSS3 ja wohl gar nicht so gut sei, wie man immer sagte.


Klar sind FSR4 und DLSS4 jetzt deutlich besser. Es macht daher aus aktueller Sicht keinen Sinn, die alten Techniken weiter hervorzuheben. Ist halt jetzt ein alter hut. Wo man damals eben gelobt hat, dass man größtenteils gleich und in vielen Bereichen auch besser als nativ ist, ist es jetzt eben so, dass nativ TAA häufig gar kein Land mehr sieht. Die Messlatte wurde eben höher gesetzt. Nicht mehr und nicht weniger.

Ex3cut3r
2025-03-08, 14:19:10
Ich fand 2.5.1 - Preset C ohne integrierten Schärfe Filter mit manuellem CAS @ 4K - 31.5" mit Q richtig geil damals. Mit D wurde ich nie so wirklich warm, weil es immer mehr smearing hatte als C. Zwischendurch hatte ich mal F präferiert. Aber mit 3.7 habe ich E lange genutzt, war dann ein besseres D. Und aktuell nutze ich Preset K aka. Transformer.

Lurtz
2025-03-08, 17:32:19
Gibt bereits einen Optiscaler Alpha-Build für FSR4:
https://github.com/cdozdil/OptiScaler/issues/248#issuecomment-2707789606

Und Compatibility List:
https://github.com/cdozdil/OptiScaler/wiki/FSR4-Compatibility-List

Sieht bisher nach gemischten Ergebnissen aus.

aufkrawall
2025-03-08, 17:55:50
Sieht ziemlich gut aus in Witcher 3. Mit der SSAO und Feldern wirkt es bei 4k 50% Mip Bias -2 etwas floaty, aber ansonsten echt ein Quantensprung. Man steht im dichtesten Wald und es gibt keine verdammte Verpixelung in den Bäumen mehr. Wischt den Boden mit XeSS.
Noch größer in Ratchet & Clank. Nicht ganz so stabil wie Preset K, aber doch richtig gut mit SSAA-Eindruck für alle Rendering-Aspekte. An den Problemen von FG am Bildrand hat sich aber nichts verbessert.
Etwas fraglich, ob man es qualitativ wirklich über Preset E einordnen kann. Wird dann davon abhängen, wie man die Vor- und Nachteile gewichtet.
Neue LukeFZ-Mod wär noch nice, mit Radeon muss man mit Optiscaler ziemliche Verrenkungen in manchen Spielen fürs NV-Spoofing machen.

x-force
2025-03-08, 20:22:52
Wird dann davon abhängen, wie man die Vor- und Nachteile gewichtet..

wie gewichtest du sie?

w0mbat
2025-03-08, 20:33:18
Also wenn ich FSR3 in Ratchet&Clank anmache und im Treiber FSR4 aktiviere, steht im in-game overlay, dass FSR nicht aktiv sei. Obwohl es offensichtlich ist. Hmm.

Ich hätte gerne eine Anzeige, dass FSR4 läuft.

aufkrawall
2025-03-08, 20:38:37
Nicht so einfach zu beantworten, ehe man nicht zig Dinge getestet hat.
Ich lege mich aber schon fest, dass es ein sehr gut ausbalanciertes Ergebnis ist. Wahrscheinlich deutlich besser als DLSS Preset C. Es ghostet trotz der guten Stabilität verblüffend wenig. Die animierte Vegetation in HZD (Spiel erkennt verblüffender Weise den Treiber-Override in seinen Optionen) sieht trotz 50% RS richtig super aus:
https://s1.directupload.eu/images/250308/temp/n7fotha6.jpg (https://www.directupload.eu/file/d/8852/n7fotha6_jpg.htm) https://s1.directupload.eu/images/250308/temp/bnnmjsj3.jpg (https://www.directupload.eu/file/d/8852/bnnmjsj3_jpg.htm)

Lurtz
2025-03-08, 20:49:14
(Spiel erkennt verblüffender Weise den Treiber-Override in seinen Optionen)
Im Spiel springt die Anzeige auf FSR 4.0, wenn man den Treiber-Override aktiv hat?

aufkrawall
2025-03-08, 20:58:57
Im Spiel springt die Anzeige auf FSR 4.0, wenn man den Treiber-Override aktiv hat?
Ja.
lol, wie das mit Performance-Upsampling 4k nativ TAA bei der temporalen Stabilität an die Wand klatscht. ;D

x-force
2025-03-09, 00:30:10
Ich lege mich aber schon fest, dass es ein sehr gut ausbalanciertes Ergebnis ist. Wahrscheinlich deutlich besser als DLSS Preset C.

wie siehts in bewegung mit der schärfe aus?
verglichen mit szenarien in denen k gut läuft, ist fsr4 performance mit dlss4 performance vergleichbar, oder bräuchte es dafür eine stufe mehr beim rendertarget?

basix
2025-03-09, 08:26:37
HWUB zeigt das ja auf:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13721705#post13721705

Deutlich besser wie DLSS3 aber etwas weniger gut wie DLSS4. Es kommt hier allerdings etwas auf den Content an. Texturen usw. können bei FSR4 gleich knackig sein aber da DLSS4 mehr Details rekonstruiert, kann das schärfer / höher aufgelöst aussehen.

Zwischen Stillstand und Bewegung gibt es auch keinen nennenswerten Unterschied, ähnlich wie bei DLSS4.

TheGood
2025-03-09, 08:55:06
Habt ihr denn schon alle RDNA4 Grafikkarten ?

basix
2025-03-09, 09:33:48
Hier ein kleiner Vergleich MFG vs. (FSR 4 FG + AFMF 2.1). Habe das Quellenmaterial-Video leider nicht finden können.
https://www.reddit.com/r/AyyMD/comments/1j6w0zv/amd_fgafmf_vs_nvidia_mfg_4x/

Wäre interessant, wenn das jemand testen könnte. Ich nehme an, dass bei FG + AFMF die Latenz höher sein sollte als bei MFG. Die Bildqualität scheint bei den gezeigten Fotos allerdings mithalten zu können. Ich denke aber nicht, dass das insgesamt zutrifft, MFG sollte generell einen Vorteil haben. Da AFMF via Treiber aktiviert wird, kann man jedes FSR FG Spiel zu "MFG" pimpen. Geht bei Nvidia allerdings auch.

Interessant wären hier folgende Vergleiche:
- 2x FG -> FSR4 FG vs. DLSS4 FG
- 4x FG -> (FSR4 FG + AFMF) vs. (DLSS4 FG + Smooth Motion)
- 4x FG -> (FSR4 FG + AFMF) vs. (DLSS4 MFG)
- 4x FG -> (DLSS4 MFG) vs. (DLSS4 FG + Smooth Motion)
- 8/4x FG -> (DLSS4 MFG + Smooth Motion) vs. (DLSS4 FG + Smooth Motion)

Ist mehr akademischer Natur, aber interessant wäre es auf alle Fälle ;)

aufkrawall
2025-03-09, 12:36:31
AFMF 2.1 sieht immer noch aus wie völliger Müll gegen das NV Treiber Smooth Motion, da erübrigt sich so ein Vergleich.


verglichen mit szenarien in denen k gut läuft, ist fsr4 performance mit dlss4 performance vergleichbar, oder bräuchte es dafür eine stufe mehr beim rendertarget?
Die Renderauflösung ändert an den Unterschieden nicht so viel. K wird immer bei un- oder nur teilverdeckten Bereichen schärfer und stabiler sein, FSR 4 auch bei niedrigerer Auflösung vermutlich RT-Rauschen etc. besser aufräumen.

Lurtz
2025-03-09, 14:30:58
Interpretiere ich die Diskussionen auf dem Optiscaler-Github richtig, dass noch gar keine unter Vulkan lauffähige Version von FSR4 (in der Öffentlichkeit) existiert?

Gast
2025-03-09, 14:33:36
HWUB zeigt das ja auf:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13721705#post13721705

Deutlich besser wie DLSS3 aber etwas weniger gut wie DLSS4. Es kommt hier allerdings etwas auf den Content an. Texturen usw. können bei FSR4 gleich knackig sein aber da DLSS4 mehr Details rekonstruiert, kann das schärfer / höher aufgelöst aussehen.

Zwischen Stillstand und Bewegung gibt es auch keinen nennenswerten Unterschied, ähnlich wie bei DLSS4.

FSR 4 hat offensichtlich mit mehr Aliasing zu kämpfen, das Gegenteil also wofür Temporal SS steht, mit DLSS 3 sieht das wesentlich besser aus

aufkrawall
2025-03-09, 14:44:26
Die DLL-Beschreibung sagt jedenfalls nur DX12. Das ist bei AMD aber oft so, dass Vulkan etwas später kommt. Wobei es in dem Fall ggf. wegen potenziell fehlender Treiber-Extension etwas schwerer zu lösen sein könnte.

Mit DX12 scheint es via Optiscaler hier bislang immer genauso gut modbar zu sein wie FSR 3. Also geht eigentlich immer, wenn der Mod selbst geht. Nur FSR-Input ist halt allgemein etwas wackelig vs. XeSS-/DLSS-Input, obs überhaupt geht oder nicht. Da können die AMD-Fans jetzt nochmal ganz doll Blödsinn verbreiten, dass die Verbreitung vor 3.1 in Nicht-DLL-Form irgendwie vorteilhaft gewesen wäre...

DrFreaK666
2025-03-09, 15:20:24
unterstützen jetzt eigentlich tatsächlich 30 Spiele FSR4?
Wenn ja: wieso wird immer mit den üblichen Verdächtigen getestet?

aufkrawall
2025-03-09, 15:26:54
Wahrscheinlich, weil von diversen Titeln auf der Liste noch nie jemand etwas gehört hat.
Der ML-Kram frisst aber eh ~alles an Input und haut mit Optiscaler viel bessere Ergebnisse raus als jede native FSR 3.1-Implementierung (ohne FSR 4-Treiberaufwertung). Würde da bis auf Bugs im Einzelfall keine Überraschungen in der Breite mehr erwarten. Der Shit ist jetzt einfach ein Nobrainer mit entsprechender Grafikkarte. RIP RDNA1-3.

w0mbat
2025-03-09, 17:24:11
Es sind aktuell viele Sony Titel darunter. HZD Remastered, alle drei Spiderman-Spiele, TLOU Teil 1 & 2, Ratchet & Clank, GoW: Ragnarok und Marvel Rival. Alles Hochkaräter.

Dazu CoD: BO6, KCDII, Hunt Showdown, Space Marines 2 und Remnant II. Auch alles Top-Titel.

Leider ist CP77 ein Nvidia-Sponsor-Spiel, die haben FSR3.0 implementiert als es schon lange FSR3.1 gab, und das auch noch extrem schlecht. Ich hoffe wirklich, dass CP77 noch FSR3.1 bzw. FSR4 bekommt, aber denke wohl eher nicht.

Sonst sollte AMD schauen, dass man FSR4 super einfach in der UE5 implementieren kann, damit möglichst viele UE5 Spiele mit FSR4 kommen. Das wäre klasse. Wäre cool wenn z.B. Silent Hill 2 auch auf die FSR4 whitelist kommt. Hat auch schon FSR3.1.

Gast
2025-03-09, 17:50:06
Es sind aktuell viele Sony Titel darunter. HZD Remastered, alle drei Spiderman-Spiele, TLOU Teil 1 & 2, Ratchet & Clank, GoW: Ragnarok und Marvel Rival. Alles Hochkaräter.

Dazu CoD: BO6, KCDII, Hunt Showdown, Space Marines 2 und Remnant II. Auch alles Top-Titel.

Leider ist CP77 ein Nvidia-Sponsor-Spiel, die haben FSR3.0 implementiert als es schon lange FSR3.1 gab, und das auch noch extrem schlecht. Ich hoffe wirklich, dass CP77 noch FSR3.1 bzw. FSR4 bekommt, aber denke wohl eher nicht.

Sonst sollte AMD schauen, dass man FSR4 super einfach in der UE5 implementieren kann, damit möglichst viele UE5 Spiele mit FSR4 kommen. Das wäre klasse. Wäre cool wenn z.B. Silent Hill 2 auch auf die FSR4 whitelist kommt. Hat auch schon FSR3.1.

Das FSR 4 viel zu spät kam, ist ganz allein die Schuld von AMD.

robbitop
2025-03-09, 18:07:52
Es sind aktuell viele Sony Titel darunter. HZD Remastered, alle drei Spiderman-Spiele, TLOU Teil 1 & 2, Ratchet & Clank, GoW: Ragnarok und Marvel Rival. Alles Hochkaräter.

Dazu CoD: BO6, KCDII, Hunt Showdown, Space Marines 2 und Remnant II. Auch alles Top-Titel.

Leider ist CP77 ein Nvidia-Sponsor-Spiel, die haben FSR3.0 implementiert als es schon lange FSR3.1 gab, und das auch noch extrem schlecht. Ich hoffe wirklich, dass CP77 noch FSR3.1 bzw. FSR4 bekommt, aber denke wohl eher nicht.

Sonst sollte AMD schauen, dass man FSR4 super einfach in der UE5 implementieren kann, damit möglichst viele UE5 Spiele mit FSR4 kommen. Das wäre klasse. Wäre cool wenn z.B. Silent Hill 2 auch auf die FSR4 whitelist kommt. Hat auch schon FSR3.1.

Probier mal Optiscaler. Das sollte mit CP77 gehen. Dann kannst du auch FSR4 injecten.

aufkrawall
2025-03-09, 18:44:07
Ja, die Mod ist schon der absolute Wahnsinn geworden. OptiFG skaliert hier in Witcher 3 RT auch mal eben mit kranken +87% in 4k. ;D
In Kena sieht FSR 4 auch richtig super aus, gute Stabilität und wesentlich weniger Smearing als Preset E. Ist auch immer noch ein Stück schneller als XeSS DP4a, das es optisch völlig deklassiert. In Kena gibts mit FSR 4 Performance ~90% mehr fps als TAA nativ.

w0mbat
2025-03-09, 21:15:56
Mit Optiscaler läuft FSR4 in Cyberpunk. FSR4 Performance sieht besser aus als FSR3 Quality. Pathtracing läuft mit UWQHD@FSR4 Perf. bei 50-60 FPS :D

dargo
2025-03-09, 21:29:28
Die FSR3 Implementierung in CP77 ist auch die schlechteste die ich kenne. :tongue:

Lurtz
2025-03-09, 22:00:57
Na dann los, Optiscaler installieren und fleißig testen...

basix
2025-03-10, 07:22:38
RIP RDNA1-3.

Da ist mMn das letzte Wort noch nicht gesprochen. AMD wäre ziemlich dumm, wenn sie FSR4 nicht für mindestens RDNA3 releasen würden.

Tesseract
2025-03-10, 11:21:07
direkte vergleiche mit anderen technologien gehören zu einer offenen diskussion dazu. was hier absolut nicht reingehört ist das ständige seitenweise zumüllen des threads mit irgendwelchen fanboy-verfolgungswahn-triaden

aufkrawall
2025-03-10, 13:32:47
Da ist mMn das letzte Wort noch nicht gesprochen. AMD wäre ziemlich dumm, wenn sie FSR4 nicht für mindestens RDNA3 releasen würden.
Hat ja nichts mit dumm zu tun, wenn es technisch schwierig oder nicht machbar wäre. Was hingegen auf jeden Fall dumm war, war von ML-Verfügbarkeit in der Produktbasis durch RDNA3 zu schwafeln. Wär imho jedenfalls besser, die RDNA3-Variante wäre eher teurer denn von kondensierter Qualität. Besseres AA ist einfach wichtiger als alles andere. Wenn die Qualität weniger wichtig ist, gibt es ja schon Alternativen.
Smeart btw. in Kena weniger als Preset K, richtig tolle Technologie.

basix
2025-03-10, 14:00:08
Wieso sollte das besonders schwerig sein? FP16 WMMA oder INT8 WMMA und gut ist. Wird es langsamer auf RDNA3 laufen? Natürlich. Aber anhand dem was ich von DLSS kenne (Tensor Cores nur kurz aktiv) und dass FSR4 vom Algorithmus her vermutlich ähnlich ausschaut, sollte das technisch kein grösseres Problem sein.

Ein paar Prozent Performance-Verlust auf RDNA3 Karten ist aus meiner Sicht den Qualitätsgewinn zu 100% wert.

Technisch schwierig oder allenfalls nicht sinnvoll nutzbar (da zu langsam) ist es höchstens auf RDNA1/2. Die haben keinen WMMA Support. Bei RDNA3 sollte das weniger ein Problem sein.

DrFreaK666
2025-03-10, 14:04:12
Ich würde alles über FSR4 Balanced einfach nicht fur RDNA3 veröffentlichen. Am Ende sollte der BQ-Gewinn trotzdem hoch genug sein.

Exxtreme
2025-03-10, 14:28:43
Also ich würde alles freischalten und es dann dem Nutzer überlassen was er wie nutzt.

basix
2025-03-10, 14:47:42
Also ich würde alles freischalten und es dann dem Nutzer überlassen was er wie nutzt.
+1

aufkrawall
2025-03-10, 14:55:51
Bei RDNA3 sollte das weniger ein Problem sein.
Bei deinem Optimismus hätte es FSR 4 auch direkt für RDNA3 geben müssen, also erstmal abwarten. :freak:

Btw. wird ihnen RDNA4 gerade aus den Händen gerissen, die müssen gar nichts mehr für die alten Karten tun.

Lurtz
2025-03-10, 14:56:51
Also ich würde alles freischalten und es dann dem Nutzer überlassen was er wie nutzt.
Eben. Dann spielt man ein fünf Jahre altes, genügsameres Spiel, das dennoch IQ-technisch von FSR4 profitieren würde und kann es nicht auswählen...

robbitop
2025-03-10, 14:57:56
Ich kann mir gut vorstellen, dass sie eine WMMA Variante machen werden. Ob mit oder ohne Reduktion der Qualität wird man sehen. Man will sicherlich nicht die neusten APUs im Regen stehen lassen und es sieht so aus als wenn Medusa (Zen 6) auch noch RDNA3 bekommt.

Können eigentlich die XDNA NPUs WMMA?

aufkrawall
2025-03-10, 15:07:32
Auf APUs ist selbst die FSR 2-Performance grenzwertig. Schwer vorstellbar, wie man auch noch auf ausgerechnet so mickrigen RDNA3-GPUs das sinnvoll beschleunigen will.

robbitop
2025-03-10, 15:11:07
Es kommt stark auf die Auflösung an und welche APU.
ZB läuft FSR2 auf dem Deck mit gerade mal 720p outputresolution und nur 360...540p inputresolution relativ okay. Und das ist eine kleine 8 CU APU mit wenig Takt.
Dann gibt es ja aktuell Strix Point mit 16 CUs RDNA3.5 und zusätzlicher XDNA2 NPU (die ggf. den AI Teil von FSR4 machen kann) und dann gibt es HALO mit 40 CUs RDNA3.5.
Medusa soll sogar eine Halo SKU mit 48 CUs RDNA3.X bringen.

Aber ja ich bin auch skeptisch was die NN Load angeht. Ggf. eben ja dann doch mit reduziertem NN.

dargo
2025-03-10, 15:25:48
Bei deinem Optimismus hätte es FSR 4 auch direkt für RDNA3 geben müssen, also erstmal abwarten. :freak:

Nicht unbedingt. Hängt alles davon ab wann die Zusammenarbeit mit Sony begonnen hat.

Edit:
Falls es wen interessiert... hier gibts ein Tutorial für FSR4 @CP77.
https://youtu.be/cz2kCCIdLws?si=VP4cFOsWXov2qJ46&t=640

basix
2025-03-10, 16:06:18
Bei deinem Optimismus hätte es FSR 4 auch direkt für RDNA3 geben müssen, also erstmal abwarten. :freak:

Btw. wird ihnen RDNA4 gerade aus den Händen gerissen, die müssen gar nichts mehr für die alten Karten tun.

Hey, man darf doch etwas optimistisch sein ;)

FSR4 soll es erst Mitte Jahr auf GPUOpen geben (stand afaik irgendwo in einer AMD Mitteilung). Bis dahin ist noch etwas Zeit.

Und für AMD wäre RDNA3 / XDNA2 / APU Support sehr wertvoll: APUs (vs. Nvidia Mobile GPUs) wie auch PS5 Pro (generelle Verbreitung und Spielintegration). Dass man damit auch noch bestehende AMD Kunden zufriedenstellen kann, ist ein zusätzlicher Bonus (positives Ansehen). Die RDNA4 Karten werden nicht unbedingt wegen FSR4 gekauft, sondern wegen allen ihren anderen Merkmalen. FSR4 Support für RDNA3 ist also eher von Vorteil für AMD, das untergräbt nicht die potentielle Käuferschicht für RDNA4 Karten.

Dass man RDNA1/2 Karten wohl absägt oder generell alle Karten ohne WMMA-Support ist allerdings wahrscheinlich. Das könnte je nachdem wie die WMMA Lösung aussieht, etwas komisch wirken (WMMA Support nur für AMD Karten oder generell alle Karten mit WMMA Support inkl. Nvidia und Intel?).

aufkrawall
2025-03-10, 17:40:01
Falls es wen interessiert... hier gibts ein Tutorial für FSR4 @CP77.

Und frisst ganz normal den FSR 3 Input, und "auf einmal" sieht das gut aus. :rolleyes:
So viel zu angeblich schlechten "Implementierungen", FSR 2.2 und 3.1 hatten die Qualität vom Algorithmus selbst noch weiter regressed...

blaidd
2025-03-10, 17:57:37
Nicht so einfach zu beantworten, ehe man nicht zig Dinge getestet hat.
Ich lege mich aber schon fest, dass es ein sehr gut ausbalanciertes Ergebnis ist. Wahrscheinlich deutlich besser als DLSS Preset C. Es ghostet trotz der guten Stabilität verblüffend wenig. Die animierte Vegetation in HZD (Spiel erkennt verblüffender Weise den Treiber-Override in seinen Optionen) sieht trotz 50% RS richtig super aus:
https://s1.directupload.eu/images/250308/temp/n7fotha6.jpg (https://www.directupload.eu/file/d/8852/n7fotha6_jpg.htm) https://s1.directupload.eu/images/250308/temp/bnnmjsj3.jpg (https://www.directupload.eu/file/d/8852/bnnmjsj3_jpg.htm)

Interessant. Das hatte ich bislang nur bei Spider-Man 2 (allerdings noch vorab von dem eigentlichen Release). Und ich hab nur Horizon Forbidden West ausgecheckt, da war es bislang nicht als "FSR 4.00" gelistet.

Aber Sony hat ja anscheindend auch bei der Entwicklung mitgeholfen (https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/News/AMD-FSR-4-Keine-Eigenentwicklung-Amethyst-1467695/).

aufkrawall
2025-03-10, 18:06:34
Optiscaler liest genau den gleichen Versionsnummern-String aus, ggf. ist das in der API so angelegt.
In Talos 1 Rem. funktionierts nicht unbedingt schlechter als Preset K. Zwar deutlich softer, aber dafür gehts hinter transparenten Portalen nicht komplett kaputt. Da ist Preset K übel gegenüber E regressed. Klatscht auch TSR völlig weg, und denoised wie DLSS CNN die Virtual Shadow Maps deutlich merkbar.
Wieso ist das so gut? :freak:
Imho wärs unterm Strich knapp besser als Preset K, wenn die Stabilität mancher unverdeckter Bereiche noch etwas erhöht wird.

Gast
2025-03-10, 18:23:01
Wieso ist das so gut? :freak:

Das klingt fast so, als würde dich das stören. :ugly:


Imho wärs unterm Strich knapp besser als Preset K, wenn die Stabilität mancher unverdeckter Bereiche noch etwas erhöht wird.

Kann man das auch übersetzen für nicht-pro-User? Preset K ist was? DLSS3 oder DLSS4?

raffa
2025-03-10, 19:36:30
Anscheinend wird an einer Version für die PS5 Pro getüftelt.

XBvfvBfU3gw

aufkrawall
2025-03-10, 19:58:17
Kann man das auch übersetzen für nicht-pro-User?
Könnte man.
.
.
Das war's.

robbitop
2025-03-11, 07:04:25
Kann man das auch übersetzen für nicht-pro-User? Preset K ist was? DLSS3 oder DLSS4?

Preset K ist das neuste (Transformer) Modell für DLSS4.

Gast
2025-03-11, 09:15:01
Preset K ist das neuste (Transformer) Modell für DLSS4.

Danke.

Hakim
2025-03-11, 13:40:00
Ist auch so ein Ding, musste googeln um das rausfinden. Wieso nicht einfach beim Namen benennen, statt preset und irgendwelche Buchstaben

Colin MacLaren
2025-03-11, 13:40:02
Ich habe heute Morgen bisschen herumprobiert und den Anwenderfehler gefunden, dass man bei Optiscaler "Entfernen" drücken muss und es da ein Menü gibt :)

Das optimale Setup ist nicht ganz banal.

- neueste Nightly von Optiscaler herunterladen
- neueste nvngx_dlss.dll herunterladen und reinkopieren
- Nukems Mod herunterladen und dlssg_to_fsr3_amd_is_better.dll in den Optiscaler Ordner
- aktuelle amdxcffx64.dll besorgen - liegt wahrscheinlich im Driverstore, als c:\windows\wsystem32 und Unterordner durchsuchen und in den Optiscaler Ordner kopieren
- DisableNvidiaSignatureChecks.reg ausführen
- OptiScaler.ini bearbeiten:
Dx12Upscaler = fsr31, VulkanUpscaler = fsr31, FGType = Nukems

Den ganzen Optiscaler-Ordner in das Exe-Verzeichnis des Spiels kopieren und ggf. vorhandenen Dateien überschreiben. Bei Unreal-Enginge-Games ist das nicht das Hauptverzeichnis, sondern meist /CODENAME/Binaries/Win64, also z.B. "Hogwarts Legacy\Phoenix\Binaries\Win64"
OptiscalerSetup.BAT ausführen.

Im Spiel dann idealerweise DLSS als Upscaler wählen, Reflex auf On oder On + Boost und Framegeneration anschalten. Es kann zwar jeder Upscaler als Input dienen (FSR2, FSR2, DLSS2, DLSS3, DLSS4, XESS), aber wenn man ordentliche Framegen möchte, dann funktioniert DLSS FG -> FSR3-Framegen am Besten. Hat das Spiel nativ FSR3 Framegen, dann kann man natürlich diese nutzen und der Input-Upscaler ist egal.

Mit der Entfernen-Taste kann man dann das Optiscaler-Menü öffnen und checken, ob alles funktioniert. Das Driver Overlay von AMD zeigt nicht FSR4-Status enabled(!)

So hat man FSR4 Upscaling, FSR3-Framegen und Antilag 2. Imho ist FSR3-2x-Framegen der NVIDIA 2x-Framegen überlegen, da es vergleichbar aussieht, aber eine höhere und stabilere Bildrate liefert. Erst mit MFG wird NVIDIAs FG wieder interessant.

Hat das Spiel gar keine FG-Untersützung, kann man im Menü OptiFG + HUDFix versuchen. Manchmal soll es funktionieren, oft macht es aber auch böse Artefakte.

Getestet habe ich es bisher in Hogwarts Legacs, Avowed und Robocop. Alle liefen problemlos.

Damit ist der Abstand imho echt nicht groß, gerade da FSR3-FG eben besser performt. Mit FSR3 2x FG komme ich in ähnliche FPS-Bereiche wie mit einer 5080 mit NVIDIA 2x FG.

Für die Hälfte des Preises ist die 9070XT daher imho eine spannende Alternative zur 5080, zur 5070 TI sowieso.

Was halt wirklich fehlt, sind Ray Reconstruction und eine nutzbare Pathtracing-Performance. Ray Reconstrcution soll noch kommen. In Hogwarts Legacy sehe ich hier definitv einen Unterschied, weniger Krisseln im Haar und deutlich detaillierter Reflexionen. Bei Path Tracing kommt es auf die Spiele an und was man selbst bevorzugt. Bei den Pathtracing-Titeln habe ich Cyberpunk schon durch, Alan Wake 2 und Indy interessieren mich nicht, Star Wars Outlaws und Black MYtgh Wukong sind eher weiter hinten in der "Vielleicht"-Ecke des Backlogs.

basix
2025-03-11, 14:19:01
RR ist mMn wichtiger als mehr Rohperformance. Selbst mit 5x Rohperformance würde man nicht an die Resultate von RR rankommen.

Was RR ebenfalls ermöglichen würde: Weniger Rays.

ReSTIR arbeitet afaik mit der vollen Renderauflösung, also im Schnitt 1 Sample/Pixel. Ich denke, das könnte man auf 1/2 oder 1/4 reduzieren und damit die Performance massiv erhöhen. Den Qualitätsunterschied zwischen 1/1 und 1/4 wird RR zu einem grossen Teil aufwischen. 1/4 zusammen mit Area ReSTIR (https://dl.acm.org/doi/10.1145/3658210) und RR wäre aus meiner Sicht eine sehr gute Kombination:
- Area ReSTIR = Qualitätsgewinn in schwierigen Bereichen, kostet aber etwas an Performance gegenüber ReSTIR (ca. 1.5x)
- 1/4 spp erhöht die Performance um ~3x -> Netto ca. 2x Performance Gewinn inkl. Area ReSTIR
- Ray Reconstrucion für Denoising, Super Resolution und Qualitätsverbesserungen. Area ReSTIR dürfte hier ebenfalls hilfreich sein, da Problemstellen besser bearbeitet werden.

Wäre doch nice: Im Schnitt etwa gleiche Qualität wie heutiges PT + RR, dafür 2x schneller und vermutlich bessere Qualität bei heutigen RR Problemstellen. Nehme ich den PCGH Pathracing Index, käme man mit 2x auf heutige 5080 PT Performance. Für die meisten Sachen ist das knapp schnell genug und zusammen mit FG auch ein flüssiges Bild ;) Für 690 Euro kein schlechter Deal (wenn man eine für den Preis kriegt)

TheAntitheist
2025-03-11, 18:10:20
RR ist mMn wichtiger als mehr Rohperformance. Selbst mit 5x Rohperformance würde man nicht an die Resultate von RR rankommen.

Was RR ebenfalls ermöglichen würde: Weniger Rays.

ReSTIR arbeitet afaik mit der vollen Renderauflösung, also im Schnitt 1 Sample/Pixel. Ich denke, das könnte man auf 1/2 oder 1/4 reduzieren und damit die Performance massiv erhöhen. Den Qualitätsunterschied zwischen 1/1 und 1/4 wird RR zu einem grossen Teil aufwischen. 1/4 zusammen mit Area ReSTIR (https://dl.acm.org/doi/10.1145/3658210) und RR wäre aus meiner Sicht eine sehr gute Kombination:
- Area ReSTIR = Qualitätsgewinn in schwierigen Bereichen, kostet aber etwas an Performance gegenüber ReSTIR (ca. 1.5x)
- 1/4 spp erhöht die Performance um ~3x -> Netto ca. 2x Performance Gewinn inkl. Area ReSTIR
- Ray Reconstrucion für Denoising, Super Resolution und Qualitätsverbesserungen. Area ReSTIR dürfte hier ebenfalls hilfreich sein, da Problemstellen besser bearbeitet werden.

Wäre doch nice: Im Schnitt etwa gleiche Qualität wie heutiges PT + RR, dafür 2x schneller und vermutlich bessere Qualität bei heutigen RR Problemstellen. Nehme ich den PCGH Pathracing Index, käme man mit 2x auf heutige 5080 PT Performance. Für die meisten Sachen ist das knapp schnell genug und zusammen mit FG auch ein flüssiges Bild ;) Für 690 Euro kein schlechter Deal (wenn man eine für den Preis kriegt)
1 ray pro pixel ist schon extrem wenig, das sollte man nicht noch weiter reduzieren. für ein anständiges bild würde man ohne jegliche filter weit über 100 benötigen (kommt natürlich auf die Szene an)

aufkrawall
2025-03-11, 18:14:20
AMD hat bislang allerdings afaik nicht von "Ray Reconstruction" gesprochen, sondern von Neural Denoising. Klingt eher wie extra Denoiser vorm Upsampling, und nicht in einem Schritt wie NV-RR. Ergibt ggf. Sinn, zwei kleinere spezialisierte NNs laufen zu lassen anstatt ein sehr großes und teures, wenn man nicht TC-Performance ala Ada+ hat.

robbitop
2025-03-11, 18:27:52
Die TOPS sind aber eigentlich vergleichbar pro SM/CU.

basix
2025-03-11, 18:44:54
1 ray pro pixel ist schon extrem wenig, das sollte man nicht noch weiter reduzieren. für ein anständiges bild würde man ohne jegliche filter weit über 100 benötigen (kommt natürlich auf die Szene an)

Wenn ich das Resultat von ReSTIR + RR sehe, kommt man mit 1spp schon sehr weit ;) Lumen arbeitet mit deutlich weniger als 1spp und ist auch ganz OK.

Und wie gesagt, es gibt Techniken die aus jedem Ray & Sample noch mehr rausholen (siehe den Link auf Area ReSTIR).

Ich glaube, momentan ist nicht die Qualität das Problem. (Area) ReSTIR + RR werden auch mit 1/4 spp besser aussehen als "schnödes" SW oder HW Lumen. Wo es momentan am meisten krankt ist Performance.

Und falls es jemandem nicht gefällt: Integriert doch bitte einen Sample-per-Pixel Slider ins Optionsmenü. Da kann dann jeder selbst wählen, ob 1/4...1spp. Ich bin relativ stark überzeugt, dass die meisten den Regler links lassen werden ;)

Tesseract
2025-03-11, 18:52:12
Die TOPS sind aber eigentlich vergleichbar pro SM/CU.

ist eigentlich bekannt ob die tensorcores wie bei nvidia parallel zum rest laufen können?

Relex
2025-03-11, 18:53:38
Wenn man RR im Performance Modus nutzt und das Spiel 1spp nutzt dann hat man doch automatisch 1/4 spp?

Oder hab ich einen Denkfehler?

robbitop
2025-03-11, 19:00:11
ist eigentlich bekannt ob die tensorcores wie bei nvidia parallel zum rest laufen können?
Die gleiche Frage hatte ich auch schon gestellt. Leider bisher nicht bekannt.

w0mbat
2025-03-11, 19:41:46
ist eigentlich bekannt ob die tensorcores wie bei nvidia parallel zum rest laufen können?
RDAN4 hat - wie auch RDNA3 - keine Tensor Cores, also keine dezidierten KI-Kerne. Das läuft alles über die shader, wenn auch beschleunigt via WMMA.

basix
2025-03-11, 19:43:39
Wenn man RR im Performance Modus nutzt und das Spiel 1spp nutzt dann hat man doch automatisch 1/4 spp?

Oder hab ich einen Denkfehler?

Bezogen auf die Output-Auflösung: Ja, das ist so. Kein Denkfehler ;)

Bei 1/4 auf die Renderauflösung bezogen würde man dann bei 1/16 landen, aber das restliche Shading, Geometrie etc. bleibt bei 1/4. Das wäre der springende Punkt hinsichtlich Reduktion der Rays pro Pixel. Den Teil weiter reduzieren, der den höchsten Anteil an der Frametime hat. Mit verbesserten Algorithmen halte ich das für absolut realistisch. Und gerade AMD sollte da am stärksten daran interessiert sein, da sie die schwächere RT-HW haben aber bei Compute mithalten können.

Lurtz
2025-03-11, 20:18:41
Die Optiscaler FSR4-Integration scheint unter Windows 10 deutlich crashanfälliger als unter Windows 11 zu sein. Mindestens bei Cyberpunk 2077 und Alan Wake 2 ist Windows 11 lauffähig während 10 crasht.

Relex
2025-03-11, 20:20:54
Bezogen auf die Output-Auflösung: Ja, das ist so. Kein Denkfehler ;)

Bei 1/4 auf die Renderauflösung bezogen würde man dann bei 1/16 landen, aber das restliche Shading, Geometrie etc. bleibt bei 1/4. Das wäre der springende Punkt hinsichtlich Reduktion der Rays pro Pixel. Den Teil weiter reduzieren, der den höchsten Anteil an der Frametime hat. Mit verbesserten Algorithmen halte ich das für absolut realistisch. Und gerade AMD sollte da am stärksten daran interessiert sein, da sie die schwächere RT-HW haben aber bei Compute mithalten können.

Die 1/16 würde man effektiv mit zusätzlichem 4x FG bereits erreichen ;)

Aber ja, verstehe, worauf du hinaus willst.

basix
2025-03-11, 20:22:53
4x FG ist leider keine "Performance", wie wir ja alle wissen :D

Weckt mich wieder, wenn es FG als Extrapolation + Framewarp gibt, dann können wir wieder über "gefühlte Performance" sprechen ;)

Achill
2025-03-11, 20:38:38
ist eigentlich bekannt ob die tensorcores wie bei nvidia parallel zum rest laufen können?

Die gleiche Frage hatte ich auch schon gestellt. Leider bisher nicht bekannt.

Ich weiß nicht ob AMD in Spielen wie NV eine eigene API unter Windows anbietet. Meines Wissens können die NV Tensor-Cores nur über CUDA angesprochen werden, andere Szenarien wie bei DLSS oder RR laufen wie auch SER über proprietäre API von NV.

Mit WMMA gibt es eine Erweiterung als API von MS, da nicht jede HW alle Matrix-Operationen unterstützt, müssen diese abgefragt werden (man braucht also wie bei CPUs ein Fallback für ältere Architekturen). In meinen weiteren Verständnis hält einen Entwickler aber nichts davon ab, diese (neuen) WMMA in Compute-Shaders zu nutzen und diese können via async compute und compute queues (Anzahl ist glaube von der HW abhängig) parallel abgesetzt und ausgeführt werden.

Bei https://chipsandcheese.com/i/158416347/compute-unit-and-matrix-unit-updates gibt es auch ein paar Details zu den Matrix Units von AMD. Ich habe aber nichts genaueres gelesen gehabt, weiß aber auch nicht ob das weiter hilft weil es m.E. ein Apfel-Birnen-Vergleich ist.

Relevant ist (IMHO), wie sich die SW verhält, die darauf laufen kann, und wenn SW nur für eine Anbieter angeboten / von diesen Entwickelt wird, erledigt sich m.E. alles restliche und ist dann rein theoretisch und es bringt nichts noch irgend welche Vergleich zu versuchen, da die Lösung die man Vergleich will (bzw. hier im Hinterkopf ist), generell nur für eine Art von HW umgesetzt ist und man für eine andere Architektur ggf. eine andere Lösung wählen würde.

Bzgl. Parallelität sei noch erwähnt, dass diese nicht automagisch gegeben ist, sondern immer auch anderen Limits unterliegt - i.d.R. geteilte Ressourcen, wie:
- Register, Cache, Bandbreiten
- Scheduling, HW-Queues, Speicher
- Energiebudget

robbitop
2025-03-11, 21:01:31
RDAN4 hat - wie auch RDNA3 - keine Tensor Cores, also keine dezidierten KI-Kerne. Das läuft alles über die shader, wenn auch beschleunigt via WMMA.

Sicher? Bei RDNA3 war der output ja nicht mal höher. Aber hier ist der output wirklich deutlich höher für die verwendeten Datentypen. Wie soll das gehen?

aufkrawall
2025-03-11, 21:11:55
Ggf. ist mit dem nächsten Build von OptiScaler die BQ mit FSR 4 noch etwas besser:
https://github.com/cdozdil/OptiScaler/commit/cf2ca8c7badf3a0b6d98d9d023c46778f03d4e2a

Lurtz
2025-03-11, 21:12:13
Die Optiscaler FSR4-Integration scheint unter Windows 10 deutlich crashanfälliger als unter Windows 11 zu sein. Mindestens bei Cyberpunk 2077 und Alan Wake 2 ist Windows 11 lauffähig während 10 crasht.
Today we had an unexpected visit on the server - FSR devs joined and mentioned being quite pleased with Optiscaler and how fast FSR4 support was implemented. Even gave tips for a possible image quality improvement (game-dependent).
One of the devs also mentioned the Windows 10 crashes are most likely caused by the AGS/Agility SDK due to incompatible shader model versions (may get fixed in a future driver, but could not give further guarantees). Maybe Linux is connected to the same thing.
https://github.com/cdozdil/OptiScaler/issues/248#issuecomment-2715453798

TheAntitheist
2025-03-11, 21:16:45
Wenn man RR im Performance Modus nutzt und das Spiel 1spp nutzt dann hat man doch automatisch 1/4 spp?

Oder hab ich einen Denkfehler?
nein es wird ja alle upscaled... ist doch logisch

w0mbat
2025-03-11, 21:16:55
Sicher? Bei RDNA3 war der output ja nicht mal höher. Aber hier ist der output wirklich deutlich höher für die verwendeten Datentypen. Wie soll das gehen?
Nicht 100%, ich bin selber noch am recherchieren.

aufkrawall
2025-03-11, 21:21:48
Wurde afaik nirgendswo erwähnt, dass es nun (mehr oder wenige) unabhängige dedizierte Einheiten wären. Also würde ich davon ausgehen, dass das weiterhin nicht der Fall ist. Ergo weiterhin mehr Konkurrenz um Zeit/Ressourcen als mit dedizierten TCs, wenn gleichzeitig noch 3D läuft.
Dafür (bzw. auch sonst) läuft das erstaunlich gut.

Achill
2025-03-11, 21:28:56
Nochmal, ging wohl unter: https://chipsandcheese.com/p/amds-rdna4-architecture-video?open=false#%C2%A7compute-unit-and-matrix-unit-updates

Im Bild und Text ist von Unit aka Einheit die Rede:

https://substackcdn.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F9c8d2fdc-d8da-4a62-8a86-ddaa99fb51c4_2035x1143.png

aufkrawall
2025-03-11, 21:35:43
Da wird im Text die RDNA3-Lösung allerdings auch als "Units" bezeichnet. Na gut, ggf. Haarspalterei. Es scheint ja definitiv so zu sein, dass von der Peak-Leistung auch mit 3D-Last noch ordentlich etwas bei rum kommt.

w0mbat
2025-03-11, 21:42:05
Jupp, auf den Launchfolien ist es auch nochmal direkt ersichtlich. Die "AI-Accelerators" sind einfach die WMMA-Formate die beschleunigt auf den ALUs und TLUs laufen. Es gibt keine dezidierten "Tensor-Cores".

crux2005
2025-03-11, 21:58:14
Nochmal, ging wohl unter: https://chipsandcheese.com/p/amds-rdna4-architecture-video?open=false#%C2%A7compute-unit-and-matrix-unit-updates

Im Bild und Text ist von Unit aka Einheit die Rede:

Welche Einheit meinst du? Weil "AI Accelerator" hat keine Units und Scalar Unit hat nichts damit zu tun.

Gast
2025-03-11, 22:28:44
ist eigentlich bekannt ob die tensorcores wie bei nvidia parallel zum rest laufen können?

Da FSR4 langsamer als FSR3 läuft ist es ein Indiz, dass sie nicht parallel laufen.

Zum Vergleich, DLSS3 läuft bei Nvidia in der Regel etwas schneller als FSR3

Achill
2025-03-11, 22:43:17
Welche Einheit meinst du? Weil "AI Accelerator" hat keine Units und Scalar Unit hat nichts damit zu tun.

Im dem Text später:


[..]
RDNA4 has also significantly beefied-up the matrix units compared to RDNA3. The FP16/BF16 throughput has been doubled along with a quadrupling of the INT8 and INT4 throughput. RDNA4 has also added FP8 (E4M3) along with BF8 (E5M2) at the same throughput as INT8. RDNA4 has also added 4:2 sparsity to its matrix units. However, one part of the Compute Unit that hasn’t seen improvement is the dual-issuing capability.
[..]


Ich verstehe noch immer nicht was hier diskutiert werden soll. Wenn es um Tensor-Durchsatz in den neuen Formaten geht, dann wird man nicht um ein Test herum kommen, dafür muss man den/die Use-Cases definieren um dann mögliche Umsetzungen zu beschreiben und diese dann auf der HW zu implementieren und testen.

DrFreaK666
2025-03-11, 22:47:14
Die Optiscaler FSR4-Integration scheint unter Windows 10 deutlich crashanfälliger als unter Windows 11 zu sein. Mindestens bei Cyberpunk 2077 und Alan Wake 2 ist Windows 11 lauffähig während 10 crasht.
Steht auch hier
https://github.com/cdozdil/OptiScaler/wiki/FSR4-Compatibility-List

The_Invisible
2025-03-11, 22:49:04
Windows 10 geht dieses Jahr EOL, wenn man bei Windows bleiben will sollte man wohl mal bald upgraden...

Lurtz
2025-03-11, 22:54:50
Steht auch hier
https://github.com/cdozdil/OptiScaler/wiki/FSR4-Compatibility-List
Warum gehen eigentlich Titel wie Death Stranding DC oder Control nicht? Misslingt da das Faken der NVAPI? Unterscheidet sich die Implementierung so sehr je nach Spiel? :confused:

Tesseract
2025-03-11, 23:07:14
Ich verstehe noch immer nicht was hier diskutiert werden soll.

mir geht es eigentlich nur darum ob so dinge wie das FSR4 NN parallel zu den shadern laufen können. ob das über WMMA angesprochen wird oder wie stark die "AI accelerators" vom rest abgekapselt sind spielt eigentlich keine rolle.

crux2005
2025-03-11, 23:41:17
Keine Ahnung ob das hier schon gepostet wurde und ob das stimmt: https://x.com/Deathlyrage/status/1898075220591644911
AMD is making a critical mistake with FSR4

FSR4 is actually shipping to devs in Q3 2025 (second half of this year) while NVIDIA DLSS4 is already shipped with binaries and docs on their github and Unreal Plugin. I think this tech should be shipping with the GPU launch.

AMD is currently doing this NDA / private partner program where only a subset of games can actually properly add in FSR4.

[..]
Würde jedenfalls einiges erklären. Scheint so das die Entwickler FSR3.1 implementieren sollen und dann auf AMD, bzw. whitelisting "warten" sollen.

Im dem Text später:

Danke. Wollte nur wissen was gemeint war.

Exxtreme
2025-03-11, 23:46:27
Es ist so, die ganzen Upscaler brauchen alle die gleichen Daten von der Engine. Ein Dev hat mal geschrieben, dass wenn man einen Upscaler mal implementiert hat, dass es dann nur noch eine Kleinigkeit ist die anderen auch einzubauen. Von daher kann das schon sein, dass FSR3.1 ausreichend ist weil FSR4 keine Sonderbehandlung braucht.

Achill
2025-03-11, 23:49:40
mir geht es eigentlich nur darum ob so dinge wie das FSR4 NN parallel zu den shadern laufen können. ob das über WMMA angesprochen wird oder wie stark die "AI accelerators" vom rest abgekapselt sind spielt eigentlich keine rolle.

Das war und ist eine Kernidee von Async Compute, das Shader nicht mehr sequenziell abgearbeitet werden sondern parallel zueinander mit natürlich dem Vorteil, die Auslastung damit auch Erhöhen zu können.


[..]

ASYNCHRONOUS COMPUTING
[..]

In DirectX 12, this is handled by allowing applications to submit work to multiple queues. The API
defines three types of queues:
- Graphics queues for primary rendering tasks
- Compute queues for supporting GPU tasks (physics, lighting, post-processing, etc.)
- Copy queues for simple data transfers

Command lists within a given queue must execute synchronously, while those in different queues
can execute asynchronously (i.e. concurrently and in parallel). Overlapping tasks in multiple queues
maximize the potential for performance improvement

[..]

SCHEDULING

A basic requirement for asynchronous shading is the ability of the GPU to schedule work from
multiple queues of different types across the available processing resources.

[..]


=> Da die WMMA Befehle in Task einer Compute-Queue genutzt werden können, können diese parallel ausgeführt werden - es kommt in meinen Verständnis auf die aktuelle Auslastung an.

Wie ähnlich (oder nicht) dies bei Cuda und Tensor-Cores ist (nur weil diese auf den Bildern / Texten / Dev-Tools geteilt dargestellt werden), können noch immer nur Tests zeigen. Das ist am Ende des Tages auch nur was was zählt, die konkrete Umsetzung in HW ist zweitranging wenn es besser als beim der Konkurrenz performt (und in der Regel ist "performed" nicht nur reine Geschwindigkeit sondern mannigfaltig, wie u.a. Transistor-Verbrauch, Energie-Verbrauch, ...).

Tesseract
2025-03-12, 00:10:07
mir ist klar wie async compute funktioniert, die frage ist ob der durchsatz von z.B. FP32 auf der graphics queue sinkt wenn man auf einer compute queue einen WMMA task startet, von indirekten effekten durch speicherbandbreite mal abgesehen.
wenn auf der graphics queue FP32 läuft und man mit gleicher priorität FP32 auf einer compute queue startet bricht der durchsatz auf der graphics queue logischerweise um 50% ein.

Savay
2025-03-12, 01:42:25
Hab vorhin einfach mal quick and dirty mit dem GPU Profiler rumgespielt mit nem Capture aus HFW mit FSR4...

91994

Das Event 2945 scheint der Compute Shader für FSR4 zu sein...ist zumindest das Einzige das ich gefunden habe wo WMMA Instruktionen mit FP8 drin vorkommen.
(Und damit ist auch klar das Sparsity wahrscheinlich nicht zum Einsatz kommt...das stände sonst nämlich V_SWMMAC_F32_16X16X32_FP8_FP8)

Der WMMA Anteil am CS scheint jetzt erstmal auch nicht unbedingt allzu groß sein. (Sollte angesichts des Aufbaus von DLSS aber auch nicht wirklich verwundern)
Ob und Inwiefern innerhalb des CS die Pipeline dann aber parallel mit "normalen" FP32 und WMMA Instruktionen gefüllt ist oder sein kann stellt das Tool nicht so wirklich dar.

91995