Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution 2.0/3.0/4.0 (FSR 2.0, FSR 3.0, FSR 4.0)
aufkrawall
2023-04-07, 16:20:10
Das liegt aber nicht an der Auflösung, in W3 funktioniert das mit der ganzen Vegetation mit korrektem LOD auch in 960p ziemlich gut. Das Hauptproblem ist offenbar eher, dass es ständig in zig Spielen nicht den optimalen Input erhält und dann Mist interpoliert wie das Dauer-Gejitter der Vegetation in CoD etc.
dargo
2023-04-07, 16:23:28
Das liegt aber nicht an der Auflösung, in W3 funktioniert das mit der ganzen Vegetation mit korrektem LOD auch in 960p ziemlich gut. Das Hauptproblem ist offenbar eher, dass es ständig in zig Spielen nicht den optimalen Input erhält und dann Mist interpoliert wie das Dauer-Gejitter der Vegetation in CoD etc.
Das möchte ich nicht mal abstreiten.
btw.
Mit Gefrickel in W3 habe ich es mir noch nicht angeschaut. Hast du eine Anleitung dazu die auch ich verstehe?
@DrFreaK666
Er verdaut noch die 1.800€ für die RTX 3080TI, habe Verständnis.
aufkrawall
2023-04-07, 16:31:18
btw.
Mit Gefrickel in W3 habe ich es mir noch nicht angeschaut. Hast du eine Anleitung dazu die auch ich verstehe?
Dokumente\The Witcher 3\dx12user.settings
TextureMipBias=0 oder -0.5 setzen anstatt der standardmäßigen -2. Mit FSR 2/DLSS verschiebt er das Bias der meisten Texturen noch zusätzlich und das bricht FSR 2 das Genick. FSR2SharpnessLow=0.8 kann man auch noch setzen, der Wert scheint mir optimal für Q@1440p zu sein (im Spiel FSR 2 Sharpen low auswählen).
Mit RT kommt es allerdings auch deutlich schlechter klar als ohne. Würde sagen, TSR in Fortnite überholt die "besten" FSR 2-Implementierungen zunehmend deutlich. Und teilweise auch schon DLSS.
basix
2023-04-07, 16:45:08
TSR hat den Vorteil, dass es direkt in die Engine integriert ist. Es gab dazu mal eine Präsentation (oder sogar in der UE5 Dokumentation?), wo man eben auch an anderen Stellen in der Engine einhängen / abgreifen kann als mit den DLSS & FSR APIs. Das gibt Epic mehr Flexibilität.
Und TSR High läuft von der Performance her ganz OK. Und wenn man so mit DLSS und Co. gleichzieht, umso besser für kommende UE5 Spiele.
https://youtu.be/1WM_w7TBbj0
Ich spreche denen jede Kompetenz ab, die selbe Person fand damals einen PP-Schärfefilter schon besser als DLSS hehe ;-)
dargo
2023-04-07, 16:55:57
Dokumente\The Witcher 3\dx12user.settings
TextureMipBias=0 oder -0.5 setzen anstatt der standardmäßigen -2. Mit FSR 2/DLSS verschiebt er das Bias der meisten Texturen noch zusätzlich und das bricht FSR 2 das Genick. FSR2SharpnessLow=0.8 kann man auch noch setzen, der Wert scheint mir optimal für Q@1440p zu sein (im Spiel FSR 2 Sharpen low auswählen).
Danke... probiere ich später aus.
Mit RT kommt es allerdings auch deutlich schlechter klar als ohne.
RT juckt mich eh nicht.
Würde sagen, TSR in Fortnite überholt die "besten" FSR 2-Implementierungen zunehmend deutlich. Und teilweise auch schon DLSS.
Warte erstmal ein paar andere Games mit UE5 ab. Imho hängt das auch zum großen Teil vom Content ab wie gut Upscaling abschneidet. Ich sehe in Fortnite keinen fein detalierten Content. Da fallen mir zb. feine Stromleitungen, feine Vegetation etc. ein.
aufkrawall
2023-04-07, 17:08:08
Warte erstmal ein paar andere Games mit UE5 ab. Imho hängt das auch zum großen Teil vom Content ab wie gut Upscaling abschneidet. Ich sehe in Fortnite keinen fein detalierten Content. Da fallen mir zb. feine Stromleitungen, feine Vegetation etc. ein.
Gibt in Fortnite lauter dünne Linien auf Entfernung und es ist der direkte Vergleich mit DLSS + austauschbaren DLLs möglich. Das lässt schon einige Schlussfolgerungen zu.
Außerdem gibts auch RT durch Lumen, was durch den Noise eine weitere Schwierigkeit darstellt. Mit Patch 24.10 haben sie offenbar schon wieder an TSR rumgeschraubt: Hat jetzt @high mehr Motion Blur, aber weniger Jittering und der RT-Noise scheint deutlich besser weggefiltert zu werden. Gefällt mir mit Lumen so deutlich besser, ohne aber etwas schlechter. Bewegtbildschärfe @TSR epic ist weiterhin phänomenal, nur immer noch viel zu teuer. Dürfte spannend bleiben.
Anders als FSR 2 und DLSS, wo mir die Entwicklung gerade nicht sonderlich gefällt. FSR 2.2 zeigt bisher bei offenbar keiner Implementierung erkennbare Vorteile, bei DLSS gibts nur unterschiedliche Trade-Offs mit den Presets. :rolleyes:
Tesseract
2023-04-07, 17:28:39
ich finde der HUB-vergleich zeigt recht gut was ich auch in der praxis gesehen habe, was ich aber nach wie vor nicht verstehe ist warum der unterschied so klein geredet wird. für den unterschied den man da teilweise sieht bzgl. flimmerneigung hat man vor 10 jahren supersampling oder downsampling mit 50%+ performancedrop in kauf genommen um das weg zu bekommen.
dargo
2023-04-07, 17:33:57
ich finde der HUB-vergleich zeigt recht gut was ich auch in der praxis gesehen habe, was ich aber nach wie vor nicht verstehe ist warum der unterschied so klein geredet wird.
Liegt am Bias des Betrachters. ;) Spaß bei Seite... für mich sind das alles nur Kompromisse wenn Bildbereich 1 besser wird, dafür aber Bildbereich 2 plötzlich andere Probleme bekommt. Ich bin mir ziemlich sicher gäbe es mit Upscaling kein Performanceboost würde der Biasmeter bei einigen nicht so hoch ausschlagen.
aufkrawall
2023-04-07, 17:35:34
Das kann man sich auch fragen bei den Schmieren, die Vögel in W3 mit egal welchem DLSS-Preset hinter sich herziehen. Natürlich sieht DLSS in Hogwarts zigfach besser aus. Aber man muss nicht ständig so tun, als hätte es keine Probleme, die nicht nerven würden. Finde dieses Geschmiere immer noch deutlich nerviger als etwa die gröbere Disocclusion von TSR, die größere Bereiche unscharf zeichnet als DLSS.
robbitop
2023-04-07, 18:04:19
Warum nutzen die nahezu überall irgendwelche miesen Uralt-dlls bei DLSS? Wenn man schon irgendwas qualitativ vergleichen will, dann sollte man das auch entsprechend tun und nicht so halbgar.
Naja ist halt die out of the box Konfiguration. Das ist das was alle Nicht-Nerds - also 99% der Spieler zu sehen bekommen. Man hätte aber dll Tausch und Wahl anderer Modelle in der dll dazu testen können.
robbitop
2023-04-07, 18:15:12
Gibt in Fortnite lauter dünne Linien auf Entfernung und es ist der direkte Vergleich mit DLSS + austauschbaren DLLs möglich. Das lässt schon einige Schlussfolgerungen zu.
Außerdem gibts auch RT durch Lumen, was durch den Noise eine weitere Schwierigkeit darstellt. Mit Patch 24.10 haben sie offenbar schon wieder an TSR rumgeschraubt: Hat jetzt @high mehr Motion Blur, aber weniger Jittering und der RT-Noise scheint deutlich besser weggefiltert zu werden. Gefällt mir mit Lumen so deutlich besser, ohne aber etwas schlechter. Bewegtbildschärfe @TSR epic ist weiterhin phänomenal, nur immer noch viel zu teuer. Dürfte spannend bleiben.
Anders als FSR 2 und DLSS, wo mir die Entwicklung gerade nicht sonderlich gefällt. FSR 2.2 zeigt bisher bei offenbar keiner Implementierung erkennbare Vorteile, bei DLSS gibts nur unterschiedliche Trade-Offs mit den Presets. :rolleyes:
Beherrscht TSR eigentlich mittlerweile Transparenzeffekte/Partikel ohne zu aliasing zu führen wie bei fsr 2?
aufkrawall
2023-04-07, 18:22:51
Beherrscht TSR eigentlich mittlerweile Transparenzeffekte/Partikel ohne zu aliasing zu führen wie bei fsr 2?
Partikel und 2D-Sprites werden mit TSR mittlerweile viel besser gehandhabt. Nicht so schön anti-aliased wie mit DLSS (insbesondere nicht bei 50% RS), aber massiv weniger Aliasing und Ghosting als in defakto jedem Spiel mit FSR 2. Fällt mir bei 70% RS eigentlich gar nicht mehr störend auf, wenn ich nicht mit der Lupe drauf achte.
Was noch definitiv besser aussehen dürfte, wären animierte 2D-Texturen, wie sie etwa manche Skins haben. Die bleiben mit DLSS deutlich schärfer in Bewegung.
ich finde der HUB-vergleich zeigt recht gut was ich auch in der praxis gesehen habe, was ich aber nach wie vor nicht verstehe ist warum der unterschied so klein geredet wird. für den unterschied den man da teilweise sieht bzgl. flimmerneigung hat man vor 10 jahren supersampling oder downsampling mit 50%+ performancedrop in kauf genommen um das weg zu bekommen.
Seit wann ist HWU denn eine seriöse Quelle für derartige Vergleiche?
dargo
2023-04-07, 18:54:10
Dokumente\The Witcher 3\dx12user.settings
TextureMipBias=0 oder -0.5 setzen anstatt der standardmäßigen -2. Mit FSR 2/DLSS verschiebt er das Bias der meisten Texturen noch zusätzlich und das bricht FSR 2 das Genick. FSR2SharpnessLow=0.8 kann man auch noch setzen, der Wert scheint mir optimal für Q@1440p zu sein (im Spiel FSR 2 Sharpen low auswählen).
Boah... endlich eine gute Bildqualität mit FSR 2.x in Witcher3. :up:
1440p TAUU:
https://abload.de/thumb/thewitcher3wildhunt_2ijf1d.png (https://abload.de/image.php?img=thewitcher3wildhunt_2ijf1d.png)
1440p + FSR2.x:
https://abload.de/thumb/thewitcher3wildhunt_2grezl.png (https://abload.de/image.php?img=thewitcher3wildhunt_2grezl.png)
Wie kann man sowas als DEV nicht wissen? :facepalm:
Mir fehlt damit (TextureMipBias=0, FSR2SharpnessLow=0.8) nur noch ganz minimal an Bildschärfe gesamt. Wo muss ich nachjustieren? Oder einfach CAS mit reshade drüber jagen?
btw.
Das Gras bzw. die ganze Vegetation profitiert enorm von FSR 2.x, die Haare vom Protagonisten werden auch sichtbar feiner dargestellt. Die Baumäste ohne Blätter könnten aber eine etwas höhere Abtastung noch vertragen. :) Sprich Inputauflösung etwas höher.
aufkrawall
2023-04-07, 19:06:53
Das Spiel wendet nicht richtig AF fürs Terrain an. Da man mit AMD nicht für D3D12 AF erzwingen kann, kann man da leider nichts machen. Deshalb der Kompromiss mit Bias -0.5 anstatt 0.
dargo
2023-04-07, 19:42:40
Was meinst du eigentlich mit "im Spiel FSR 2 Sharpen low"? Das hier?
83401
Weil das war vorher bei mir auf "Off". Mit "niedrig" ist es mir eigentlich schon etwas zu überschärft. Ich lasse es mal auf "Off" und jage minimal CAS drüber.
aufkrawall
2023-04-07, 19:52:09
Du kannst die Werte für die low und high Option wie oben beschrieben festlegen.
dargo
2023-04-07, 20:04:55
Und du meinst diese Nachschärfung über das Game ist nicht schlechter als CAS?
Edit:
Also sharpen Ingame Off und CAS 0.35 gefällt mir schon sehr gut. Jepp... hier würde ich tatsächlich sagen 1440p + FSR 2.x_Q ist sehr brauchbar. Jetzt müsste mich nur noch das Game interessieren, was leider nicht der Fall ist. X-D
aufkrawall
2023-04-07, 20:22:12
Das ist RCAS von FSR 2.
dargo
2023-04-07, 20:24:22
Ah ok... finde reshade dennoch praktischer. Kannst ja schön on the fly mit der Schärfe rumspielen anstatt jedes Mal in der cfg zu fummeln.
Lurtz
2023-04-07, 23:08:31
Man muss der Argumentation von HWU ja nicht immer folgen, aber immerhin versuchen sie aus einer Pro-Consumer-Haltung und möglichst IHV-neutral zu argumentieren, während Digital Foundry klare nVidia-Influencer sind.
Ich habe genug Beispiele gesehen wo TAA + nativ besser ist als Upscaling. Wenn ich es richtig im Video von HWU mitbekommen habe rät der Typ da in Dead Space sogar dazu die native Auflösung zu verwenden weil beide Upscalingtechnologien versagen. Also keine Ahnung was dieses generelle Bashing von TAA immer soll? Auch dort gibt es gute und wenige gute Implementierungen. Eher ist bei dir der Bias wegen mehr fps beim Upscaling stärker ausgeprägt habe ich die Vermutung. Was ich auch nachvollziehen kann... denn je schwächer die Graka umso stärker ist man darauf angewiesen für sein Ziel X.
Was heißt Bias. Wenn ich für die gleichen FPS mit gutem Upsampling Optionen deutlich höher drehen kann, kann das der deutlich bessere Kompromiss als native sein.
Aber man muss nicht ständig so tun, als hätte es keine Probleme, die nicht nerven würden.
Es ist eben auch nicht so, dass TAA keine Probleme hat, und in allen Spielen in denen ich es gesehen habe (was natürlich bei weitem nicht alle sind, dafür gibt es DLSS schon in viel zu vielen Spielen), sieht DLSS mindestens so gut, meistens besser als TAA aus. Selbst ohne den Performanceboost ist es ein enormer Qualitätsgewinn, und zu mehr Performance (oder alternativ sparsamer/kühleren GPU) sagt man natürlich auch nicht nein.
Finde dieses Geschmiere immer noch deutlich nerviger als etwa die gröbere Disocclusion von TSR, die größere Bereiche unscharf zeichnet als DLSS.
Dem kann ich absolut nicht zustimmen. Jegliches Flimmern zieht einfach den Blick auf sich egal wo man gerade den Fokus hat. Schmieren fällt nur auf wenn der Fokus schon vorher in der Zone liegt, bzw. natürlich wenn man extra danach sucht.
Klar wäre es schön wenn DLSS auch noch diese Probleme loswerden könnte, aber schon in der jetzigen Form ist es ein enormer Gewinn und ein Unique Selling Point für Nvidia Hardware.
Κριός
2023-04-08, 10:27:31
Ist FSR 2 eigentlich jetzt durch? Oder wird da noch etwas entwickelt?
DrFreaK666
2023-04-08, 12:09:54
Ob ein FSR 2.3 kommt, kann dir hier niemand beantworten. Wahrscheinlich konzentriert sich AMD auf FSR 3
dildo4u
2023-04-08, 12:31:48
2.2 wurde erst im März in Unreal integriert das wird sich ziehen bis es "Standard" ist.
https://gpuopen.com/unreal-engine-fsr2-2-plugin-available/
aufkrawall
2023-04-08, 14:05:40
Dem kann ich absolut nicht zustimmen. Jegliches Flimmern
Was für ein Flimmern? TSR hat eine ziemlich gute Bildstabilität. Ist auch nicht so, dass DLSS da nicht auch Nachholbedarf hätte, dünne Geometrie-Elemente sehen mit DLSS in Bewegung ziemlich "wobbly" aus:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13012486#post13012486
Fällt etwa auch in Witcher 3 an den Dachfirsten in der Novigrad-Vorstadt auf, FSR 2 ist da deutlich stabiler...
DLSS Preset D ist weniger "wobbly" als C, hat aber auch Unmengen mehr an Bewegungsunschärfe als FSR 2. TSR epic schafft bei so etwas die höchste Bildstabilität bei der gleichzeitig geringsten Bewegungsunschärfe.
basix
2023-04-08, 14:55:49
Ob ein FSR 2.3 kommt, kann dir hier niemand beantworten. Wahrscheinlich konzentriert sich AMD auf FSR 3
Die Arbeit am Upsampling ist ja nicht eingestellt. FSR3 kann intern auf eine "FSR 2.3" setzen, heisst dann aber FSR3 weil Frame Generation dazukommt.
Ist bei DLSS ja das selbe. Nur weil es DLSS3 heisst und FG dazugekommen ist, wird die Arbeit am "DLSS 2.x Upsampling" nicht komplett eingestellt.
Was für ein Flimmern?
Das Flimmern was FSR (fast) überall bei disoclusion hat, bzw. auch praktisch alle TAA Umsetzungen.
Ich hab jetzt sicher nicht bei weitem alle DLSS-Umsetzungen gesehen, aber bei allen die ich gesehen habe ist das Bild mit DLSS-Q deutlich ruhiger als TAA Nativ.
Dafür nehme ich gerne das ein oder andere Schmieren/Ghosting in kauf, die gewonnene Bildruhe überwiegt hier in der Gesamtqualität bei weitem.
aufkrawall
2023-04-13, 21:28:46
Das Flimmern was FSR (fast) überall bei disoclusion hat, bzw. auch praktisch alle TAA Umsetzungen.
Nur sind da die Unterschiede bei FSR 2 zwischen "normalen" Resultaten wie in Uncharted oder TLOU und komischem Dauer-Gejitter selbst bei großteils unverdeckter Bereiche wie in CoD gigantisch. Bei dünnen Ästen vor klarem Himmel, etwa in Metro EE oder W3 Rem., kann DLSS auch mehr flimmern als FSR 2. Ist also nicht so, dass DLSS ausschließlich Vorteile bei der Bildruhe hätte. Zumal auch FSR 2 da TAA schlagen kann, etwa in TLOU.
Btw. wird die Disocclusion-Problematik von FSR 2 mit Nvidia unter Vulkan offenbar zusätzlich schlechter, weil die Texturfilterung von negativem LOD-Bias minderwertig ist und so die Flimmer-Problematik verschärft wird. Habe den Eindruck, in RDR2 Vulkan flimmert es mit AMD ein gutes Stück weniger im Sumpf. Auch in Doom Eternal fiel im ersten Level an den Alphatest-Bodengittern mit Nvidia und FSR 2-Mod in Bewegung ein hässlicher Moiré-Effekt auf. Auch der ist mit RDNA2 weitestgehend nicht vorhanden.
In D3D12-Titeln mit HQ-Filterung ändert sich dadurch natürlich nichts.
Unerfreulich:
-FSR 2-Mod geht in DL2 seit der StreamLine-Implementierung nicht mehr auf AMD
-gibt offenbar eine AMD-Treiber-Regression (?), durch die es mit der Mod Grafikfehler in Kena und HZD gibt
Erfreulich:
-FSR 2.2 via aktuellstem CyberFSR2 git-master scheint gut in Doom Eternal zu funktionieren: https://github.com/PotatoOfDoom/CyberFSR2/actions/workflows/build.yml
-gibt auch einen Fork, wo Loader und FSR 2-DLLs getrennt sind: https://github.com/noInk/CyberFSR2
Hier ein Vergleich https://www.tommti-systems.de/main-Dateien/reviews/DlssXessFsr/index.html von DLSS 2.x, 3,x, AMD FSR und Intel XeSS - halt nur in Videos, alles andere macht kaum Sinn.
aufkrawall
2023-04-15, 01:35:55
-FSR 2.2 via aktuellstem CyberFSR2 git-master scheint gut in Doom Eternal zu funktionieren: https://github.com/PotatoOfDoom/CyberFSR2/actions/workflows/build.yml
Hat aber mehr Ghosting als 2.1. Da das in Kena auch so ist, ist da für die Mods da mit 2.1 schon praktisch Schicht, wenn Modder die Kompatibilität zu DLSS nicht noch irgendwie erhöhen. Wenn es denn daran liegt, und 2.2 hoffentlich keine generelle Regression dafür darstellt. :redface:
Andron
2023-04-15, 10:17:53
@aufkrawall: Eher letzteres, im besten Fall Stagnation. Auch in RotT und Control gibt es hier keinen Vorteil durch 2.2 per Mod. Eine deutliche Verbesserung zu 2.1 habe ich persönlich noch nicht gesehen.
So positiv überrascht ich von der FSR Entwicklung bis Version 2.1 war, danach kam praktisch keine erwähnenswerte Verbesserung. Fairerweise muss man aber sagen, das sowohl 2.1 als auch 2.2 in einigen Titeln ganz gut funktionieren.
Lurtz
2023-04-20, 09:33:18
Returnal hat FSR 2.1 bekommen:
https://store.steampowered.com/news/app/1649240/view/6360813434325680193
Andersherum in FSR2-exklusiven Spielen wäre auch mal nett, nicht wahr Capcom? :rolleyes:
DrFreaK666
2023-04-20, 11:43:45
Returnal hat FSR 2.1 bekommen:
https://store.steampowered.com/news/app/1649240/view/6360813434325680193
Andersherum in FSR2-exklusiven Spielen wäre auch mal nett, nicht wahr Capcom? :rolleyes:
Sony-Studios waren da schon immer ziemlich positiv. Besser wäre aber natürlich 2.2 gewesen
Lurtz
2023-04-20, 15:05:31
2.2 scheint in der Praxis ja keine Vorteile gegenüber 2.1 zu haben?
dildo4u
2023-04-20, 15:13:59
Grottig in Forza Horizon bin wieder zurück aufs neue TAA.
DrFreaK666
2023-04-20, 15:15:56
"FSR 2.2 upgrades the already improved upscaling image quality of FSR 2.1 (learn more in this blog) with further quality enhancements to alleviate ghosting on fast-moving objects"
Ich denke bei Returnal gibt es viele sich schnell bewegende Objekte
aufkrawall
2023-04-20, 15:22:01
2.2 scheint in der Praxis ja keine Vorteile gegenüber 2.1 zu haben?
Eher nicht automatisch:
The application-side FSR2 API has changed, so updating to FSR 2.2 from 2.1.2 will take some work, but it should be straightforward. Developers should pay particular attention to the changes related to mask generation to get the best quality upscale.
https://github.com/GPUOpen-Effects/FidelityFX-FSR2/releases/tag/v2.2.0
Ist die Frage, wann man davon nachweislich etwas sehen wird, wenn momentan immer noch 2.1 implementiert wird und uralte DLSS-DLLs geshipt werden...
Platos
2023-04-20, 17:57:23
Gibt es eig. eine Liste von FSR (2.x) Spielen auf der PS5 ?
Lurtz
2023-04-20, 18:11:51
Gibt es da außer Cyberpunk 2077 (und Witcher 3?) bisher überhaupt was?
basix
2023-04-20, 21:22:12
Scorn auf der Xbox
aufkrawall
2023-04-21, 13:39:38
Mit dem FSR 2-Mod für Plague Tale/StreamLine geht es glücklicherweise doch noch in Dying Light 2 auf Radeons:
https://www.nexusmods.com/aplaguetalerequiem/mods/9?tab=description
dargo
2023-04-23, 20:31:02
Uff... also in TLOU hat FSR2 massive Probleme mit den feinen Haarsträhnen. Vor allem glaube ich auf hellen Hintergrund.
FSR2.2-Q vs. 1440p nativ
https://abload.de/thumb/2023.04.23-19.161bi5m.jpg (https://abload.de/image.php?img=2023.04.23-19.161bi5m.jpg) https://abload.de/thumb/2023.04.23-19.17yyc9y.jpg (https://abload.de/image.php?img=2023.04.23-19.17yyc9y.jpg)
Würde mich echt mal interessieren ob die Technik hier am Limit ist oder eher schlechte Implementierung. Das spieleigene TAA hat zwar auch so seine Problemchen mit den Haaren, diese bröseln aber nicht so stark auf wie mit FSR2.2. Witzigerweise fällt das imho Ingame in Bewegung gar nicht so schlimm auf wie im Fotomodus vom Spiel bei Standbildern.
Uff... also in TLOU hat FSR2 massive Probleme mit den feinen Haarsträhnen. Vor allem glaube ich auf hellen Hintergrund.
FSR2.2-Q vs. 1440p nativ
https://abload.de/thumb/2023.04.23-19.161bi5m.jpg (https://abload.de/image.php?img=2023.04.23-19.161bi5m.jpg) https://abload.de/thumb/2023.04.23-19.17yyc9y.jpg (https://abload.de/image.php?img=2023.04.23-19.17yyc9y.jpg)
Wobei man sagen muss, viel besser ist es nativ auch nicht.
Wiseman
2023-04-24, 01:09:14
Uff... also in TLOU hat FSR2 massive Probleme mit den feinen Haarsträhnen. Vor allem glaube ich auf hellen Hintergrund.
FSR2.2-Q vs. 1440p nativ
https://abload.de/thumb/2023.04.23-19.161bi5m.jpg (https://abload.de/image.php?img=2023.04.23-19.161bi5m.jpg) https://abload.de/thumb/2023.04.23-19.17yyc9y.jpg (https://abload.de/image.php?img=2023.04.23-19.17yyc9y.jpg)
Würde mich echt mal interessieren ob die Technik hier am Limit ist oder eher schlechte Implementierung. Das spieleigene TAA hat zwar auch so seine Problemchen mit den Haaren, diese bröseln aber nicht so stark auf wie mit FSR2.2. Witzigerweise fällt das imho Ingame in Bewegung gar nicht so schlimm auf wie im Fotomodus vom Spiel bei Standbildern.
Ich würde sagen, dein Monitor ist am Limit. Bei dir bröselt Ellies Haar sowohl in FSR Q als auch in TAA.
Bei mir in 6k bröselt Ellies Haar nicht.
dargo
2023-04-24, 07:20:26
Was soll diese Briefmarke wieder beweisen? Wenn ich mein FSR-Bild weiter runterskaliere bröselt da auch nichts mehr. Zudem ist da bei dir viel zu viel DOF im Bild.
GerryB
2023-04-24, 07:33:33
https://www.youtube.com/watch?v=HMkQPrrjD-Q&t=1011s
In dem 4k-Video schauts gut aus auf meinem 4k-Moni.
dargo
2023-04-24, 08:14:11
Als ob man diese Probleme in einem kaputt komprimierten 4k-Video bei YT erkennen könnte. :rolleyes: Zumal ich bereits sagte, dass es in Bewegung weniger auffällig ist.
DrFreaK666
2023-04-24, 08:39:51
das Spiel ist kein Myst, es werden wieder Probleme generiert.
Vergiss nicht 10x rein zu zoomen!
robbitop
2023-04-24, 08:49:52
Das Zoomen etc sind doch nur Mittel, um entsprechende Auffälligkeiten/Artefakte auch anderen zeigen zu können. Das menschliche Auge ist evolutionär darauf trainiert, dynamische Muster zu erkennen. Entsprechend sieht man das beim Spielen (vor allem wenn man die Effekte kennt) ohne Hilfsmittel und sie stören sogar. Flimmern, Ghosting, Moire usw.
Nur bekommt man das in einem Screenshot (ohne Hilfsmittel) nicht dargestellt, da es vor allem in Bewegung sichtbar ist. Und entsprechend muss man das mit Zoom herausarbeiten.
Videos werden zu stark komprimiert - also auch da Zoom.
Auch will man diese Dinge ja möglichst herausarbeiten ohne, dass jetzt jemand danach suchen muss. Entsprechend machen Zooms absolut Sinn. Dann versteht derjenige sofort das Artefakt - insbesondere, wenn er es schon gesehen hat.
Wenn man damit ein bisschen Erfahrungen hat, zieht man das nicht in's Lächerliche. :)
dargo
2023-04-24, 08:50:15
Habe ich wieder paar Trolle geweckt? Meine Güte... wenn ihr keinen hohen Anspruch an Bildqualität beim Upscaling legt dann haltet euch einfach von solchen Threads fern.
Das Zoomen etc sind doch nur Mittel, um entsprechende Auffälligkeiten/Artefakte auch anderen zeigen zu können.
Es ist überhaupt kein Zoomen, da fantasiert sich mal einer wieder was zusammen. Es ist ein ganz normaler Screen aus einer Cutszene von vielen in diesem Spiel.
Nur bekommt man das in einem Screenshot (ohne Hilfsmittel) nicht dargestellt, da es vor allem in Bewegung sichtbar ist. Und entsprechend muss man das mit Zoom herausarbeiten.
Nochmal... da es offenbar immer noch nicht angekommen ist. In Bewegung fällt dieses bröseln der feinen Strukturen weniger auf als im Fotomodus.
robbitop
2023-04-24, 08:57:31
Mein Kommentar war eher auf Zoomen als Veranschaulichung im Allgemeinen gemeint und nicht im Speziellen auf den Kontent, den du hier gepostet hast. ;) Eben weil der Vorredner sich subtil darüber lächerlich gemacht hat es aber absolut sinnvoll sein kann um Artefakte zu veranschaulichen.
aufkrawall
2023-04-24, 09:01:13
Und wie soll dir jetzt irgendjemand sagen können, woran das genau liegt? Können alle möglichen Bugs sein. Kann etwa allein schon sein, dass die Jitter-Verrechnung im Fotomodus kaputt ist usw. In dem Spiel geht FSR 2 schon allein durch schnelle Kameradrehungen kaputt und selbst DLSS soll eklig aussehen. FSR 2-Implementierungen werden weiterhin einige Bugs und sonstige Probleme haben, dann musst du es halt deaktiviert lassen und mit Kotz-TAA spielen...
dargo
2023-04-24, 09:10:19
Hier noch paar Beispiele mit dem bröseln.
https://abload.de/thumb/2023.04.17-21.00phi12.jpg (https://abload.de/image.php?img=2023.04.17-21.00phi12.jpg) https://abload.de/thumb/unknown_2023.04.22-18dye7q.png (https://abload.de/image.php?img=unknown_2023.04.22-18dye7q.png) https://abload.de/thumb/unknown_2023.04.22-19mkiuz.png (https://abload.de/image.php?img=unknown_2023.04.22-19mkiuz.png) https://abload.de/thumb/unknown_2023.04.22-199cd5m.png (https://abload.de/image.php?img=unknown_2023.04.22-199cd5m.png)
Hier macht FSR2.2 wiederum sehr gute Arbeit.
https://abload.de/thumb/2023.04.23-19.01o0dfb.jpg (https://abload.de/image.php?img=2023.04.23-19.01o0dfb.jpg)
Deshalb mein Verdacht, dass entweder die Technik oder Implementierung große Probleme bei hohen Kontrasten hat. Wie gesagt... nur eine Vermutung.
Platos
2023-04-24, 10:15:58
Mein Kommentar war eher auf Zoomen als Veranschaulichung im Allgemeinen gemeint und nicht im Speziellen auf den Kontent, den du hier gepostet hast. ;) Eben weil der Vorredner sich subtil darüber lächerlich gemacht hat es aber absolut sinnvoll sein kann um Artefakte zu veranschaulichen.
Und am Ende kommt noch zu deinen Gründen hinzu, dass man beim "Zuschauen" (also Video) niemals das selbe "Sieht", wie beim selber Spielen.
Ich sehe in Videos auch oft nicht sooo viel, aber wenn ichs dann selber Spiele, fällt mir auf einmal alles auf, weil eben ich jetzt wirklich Steuere.
Ist wie Auto fahren als Beifahrer und Fahrer.
Hier noch paar Beispiele mit dem bröseln.
https://abload.de/thumb/2023.04.17-21.00phi12.jpg (https://abload.de/image.php?img=2023.04.17-21.00phi12.jpg) https://abload.de/thumb/unknown_2023.04.22-18dye7q.png (https://abload.de/image.php?img=unknown_2023.04.22-18dye7q.png) https://abload.de/thumb/unknown_2023.04.22-19mkiuz.png (https://abload.de/image.php?img=unknown_2023.04.22-19mkiuz.png) https://abload.de/thumb/unknown_2023.04.22-199cd5m.png (https://abload.de/image.php?img=unknown_2023.04.22-199cd5m.png)
Hier macht FSR2.2 wiederum sehr gute Arbeit.
https://abload.de/thumb/2023.04.23-19.01o0dfb.jpg (https://abload.de/image.php?img=2023.04.23-19.01o0dfb.jpg)
Deshalb mein Verdacht, dass entweder die Technik oder Implementierung große Probleme bei hohen Kontrasten hat. Wie gesagt... nur eine Vermutung.
FSR hat immer Probleme bei halbtransparenten Dingen, wie in den ersten 4 Screenshots.
basix
2023-04-24, 12:52:28
Deshalb mein Verdacht, dass entweder die Technik oder Implementierung große Probleme bei hohen Kontrasten hat. Wie gesagt... nur eine Vermutung.
Ist auch bei DLSS so, dass hohe Kontraste (Stromleitungen vs. Himmel) schwierig sind. Zudem fallen uns Menschen dort die Probleme am schnellsten auf, weil der Kontrast eben hoch ist.
dargo
2023-04-24, 12:55:50
Dieser Whataboutism nervt manchmal echt. Auf der anderen Seite frage ich mich dann auch wieder was diese Lobhudeleien der grünen Lemminge bei DLSS die ganzen Jahre sollten? :rolleyes:
Und am Ende kommt noch zu deinen Gründen hinzu, dass man beim "Zuschauen" (also Video) niemals das selbe "Sieht", wie beim selber Spielen.
Ich sehe in Videos auch oft nicht sooo viel, aber wenn ichs dann selber Spiele, fällt mir auf einmal alles auf, weil eben ich jetzt wirklich Steuere.
Ist wie Auto fahren als Beifahrer und Fahrer.
Jein... der Hauptgrund warum man in Videos bestimmte Probleme nicht erkennt ist die miese Kompression von YT. Wenn du so ein Video nahezu verlustfrei uploaden könntest würde vieles deutlich besser auffallen. Erst danach kommt dein Hinweis mit dem Zuschauer.
Lurtz
2023-04-24, 13:00:49
DLSS2 schmiert extrem in dem Spiel, FSR2 bröselt, passt ins Gesamtbild bei dem Spiel ;)
basix
2023-04-24, 13:02:03
Dieser Whataboutism nervt manchmal echt. Auf der anderen Seite frage ich mich dann auch wieder was diese Lobhudeleien der grünen Lemminge bei DLSS die ganzen Jahre sollten? :rolleyes:
Was hat meine Aussage mit Whataboutism zu tun? OK, wie du meinst. Eine Gegenfrage habe ich nämlich nicht gestellt, nur erörtert dass alle Temporal SSAA Algorithmen Probleme damit haben. Und dass sich durch die menschliche Wahrnehmung das Problem verschärft ;)
Deine Gegenfrage zu den DLSS Lobhudeleien intepretiere ich deutlich stärker als "Whataboutism". Die sind hier nämlich nicht das Thema ;)
dargo
2023-04-24, 13:10:38
Was hat meine Aussage mit Whataboutism zu tun? OK, wie du meinst.
Das war jetzt nicht abwertend gemeint. Es nervt manchmal nur immer ein Hinweis wie... DLSS oder XYZ hat auch dieses und jedes Problem. Dadurch wird das Ergebnis von FSR auch nicht besser. Mehr wollte ich damit eigentlich nicht sagen.
DrFreaK666
2023-04-24, 13:27:40
... Eben weil der Vorredner sich subtil darüber lächerlich gemacht hat es aber absolut sinnvoll sein kann um Artefakte zu veranschaulichen.
Natürlich habe ich mich darüber lächerlich gemacht, weil dargo nebenher gesagt hat, dass es während dem Spielen kaum auffällt. Wie schlimm ist es also in der Realität wirklich?
Mir natürlich schon klar wieso Screenshots und Zoom. Das Thema hatten wir aber auch schon ein paar Mal.
Aber wenn es während dem Spielen "gar nicht so schlimm" auffällt, wieso dann Screenshots?
robbitop
2023-04-24, 13:37:27
Ich habe mich wie gesagt nicht auf den Kontent von dargo bezogen. Kann sein, dass es in dem Beispiel nicht so stark auffällt (ist das so? wenn ja hab ich das überlesen). Ich kenne aber genug Beispiele, wo es vermeintlich kaum auffällt, mir aber sehr auffällt eben aufgrund der Mustererkennung der Augen sofort auffällt und mich stört. Insbesondere wenn man die Artefakte kennt und wenn man weiß wo man hinschauen muss. Ich bin immer dankbar wenn es gleich mundfertig vorbereitet ist (mit Zoom etc). Dann ist es mir gleich klar, was zu erwarten ist. Ich finde es sinnvoll zu Veranschaulichungszwecken.
Ob es jemanden stört kann er dann nur selbst im echten Gameplay beurteilen.
aufkrawall
2023-04-24, 14:01:01
Haare mit FSR 2 in Uncharted:
https://abload.de/thumb/u4_2023_04_09_22_05_03cfam.png (https://abload.de/image.php?img=u4_2023_04_09_22_05_03cfam.png)
-> Gibt wirklich wichtigere Themenfelder. Disocclusion-Gebrösel (und Ghosting) muss besser werden (ist es in TSR):
https://abload.de/thumb/u4_2023_04_11_20_43_4rwdol.png (https://abload.de/image.php?img=u4_2023_04_11_20_43_4rwdol.png)
DrFreaK666
2023-04-24, 21:03:25
Haben wir eigentlich einen TSR-Thread? :ugly:
Slipknot79
2023-04-24, 21:41:58
Can jemand die Haare mal mit DLDSR 2,25x + DLSS testen?
The_Invisible
2023-04-24, 22:45:40
Als ob man diese Probleme in einem kaputt komprimierten 4k-Video bei YT erkennen könnte. :rolleyes: Zumal ich bereits sagte, dass es in Bewegung weniger auffällig ist.
YT ist natürlich blöd, aber in vielen Fällen hilft viel Auflösung/PPI halt doch, gerade bei feinen Objekten. Deswegen sagte ich ja immer, upgraded mal eure 1440p Steinzeitmonitore ;)
aufkrawall
2023-04-24, 23:05:55
Quatsch mit Soße. Die Pflanzen in CP77 flimmern auch in 4k selbst mit DLAA mehr als mit TAA. Ich sehe vorm 4k Monitor auf Anhieb die exakt gleichen Artefakte, nur in "feiner"...
GerryB
2023-04-25, 03:51:47
Jein... der Hauptgrund warum man in Videos bestimmte Probleme nicht erkennt ist die miese Kompression von YT. Wenn du so ein Video nahezu verlustfrei uploaden könntest würde vieles deutlich besser auffallen.
Häh?
Das 4k-Video sollte doch von YT ca. 1:1 übernommen werden.
Eher hast Du auf Deinem WQHD-Moni dann irgend ne Transformation, weil die Pixel net passen.
Bitteschön in Zukunft 4k-Content auch in 4k anschauen.
(damit meine ich "echte 4k" erstellte Gamingvideos)
YT ist natürlich blöd, aber in vielen Fällen hilft viel Auflösung/PPI halt doch, gerade bei feinen Objekten. Deswegen sagte ich ja immer, upgraded mal eure 1440p Steinzeitmonitore ;)
1+
dargo
2023-04-25, 09:02:56
YT ist natürlich blöd, aber in vielen Fällen hilft viel Auflösung/PPI halt doch, gerade bei feinen Objekten. Deswegen sagte ich ja immer, upgraded mal eure 1440p Steinzeitmonitore ;)
Ich werde zwar sicherlich wenn der Zeitpunkt reif ist auf 27-28" und 4k gehen (noch sind mir die Grakas in einem 250-300W Budget dafür zu langsam, habe keinen Bock auf die nächsten Heizplatten). Aber selbst in 8k + FSR2.2-Q @1440p waren die Haarsträhnen noch nicht perfekt gebügelt. Insofern kann 4k auch nicht zaubern. Diverse Fuckups vom Upscaling sind zwar etwas abgemildert aber gewiss nicht vollständig weg.
Häh?
Das 4k-Video sollte doch von YT ca. 1:1 übernommen werden.
Hast du dir schon mal die Kompression von einem 4k-YT Video angesehen? :rolleyes: Die Kompression von 4k-YT reicht gerade mal so für hochwertiges 720p aus.
dargo
2023-04-25, 21:28:12
Ich habe mir das FSR 2.2 in TLOU nochmal genauer angesehen. Es sieht tatsächlich danach aus, dass der Fotomodus ein großes Problem was das bröseln angeht hat. Wenn man Screenshots direkt aus dem Gameplay bsw. Cutszenen macht gibt es dieses bröseln nicht. WTF? Kann mir das einer mal erklären?
Hier mal drei Bilder direkt aus dem Spiel screenshotet. So sehen die Haare imho für nur 960p Input sehr gut aus. :up:
https://abload.de/thumb/tlou-i_2023_04_25_19_01ibm.jpg (https://abload.de/image.php?img=tlou-i_2023_04_25_19_01ibm.jpg) https://abload.de/thumb/tlou-i_2023_04_25_21_nrix4.jpg (https://abload.de/image.php?img=tlou-i_2023_04_25_21_nrix4.jpg) https://abload.de/thumb/tlou-i_2023_04_25_21_8xccp.jpg (https://abload.de/image.php?img=tlou-i_2023_04_25_21_8xccp.jpg)
Leider kann ich keinen direkten Vergleich zum Fotomodus anstellen. Keine Chance da den selben Frame zu erwischen.
PS: beim ersten Bild ist ein kleines Fuckup hinten am Hals zu erkennen, aber geschenkt.
Wiseman
2023-04-25, 23:47:04
Ich habe mir das FSR 2.2 in TLOU nochmal genauer angesehen. Es sieht tatsächlich danach aus, dass der Fotomodus ein großes Problem was das bröseln angeht hat. Wenn man Screenshots direkt aus dem Gameplay bsw. Cutszenen macht gibt es dieses bröseln nicht. WTF? Kann mir das einer mal erklären?
Leider kann ich keinen direkten Vergleich zum Fotomodus anstellen. Keine Chance da den selben Frame zu erwischen.
Na klar kann es nur am Fotomodus liegen. Ich benutzte den Fotomodus kein einziges Mal und auf allen meinen Ellie-Screenshot bröselt ihr Haar nicht. Aber du musstest ja wieder mal ein Fass aufmachen.
dargo
2023-04-26, 06:32:00
Ist es echt so schwer zu verstehen, dass man die besten Szenen zum Screenshoten nur mit dem Fotomodus erfassen kann weil man pausieren kann? :rolleyes:
vinacis_vivids
2023-04-26, 09:19:09
3U8fj7j-Fq8
FSR 2.0 > DLSS 2.0
aufkrawall
2023-04-30, 15:10:03
;(
https://abload.de/thumb/u4_2023_04_30_00_07_0o6fbp.png (https://abload.de/image.php?img=u4_2023_04_30_00_07_0o6fbp.png)
DrFreaK666
2023-04-30, 17:03:03
Ohne Ghosting würde man auf dem Screenshot nicht erkennen, dass sich das Fahrzeug bewegt
basix
2023-05-01, 07:45:48
Ohne Ghosting würde man auf dem Screenshot nicht erkennen, dass sich das Fahrzeug bewegt
Es ist ein Feature! :D
So Comic mässiges "Whooosh" hinter dem Auto ;D
vinacis_vivids
2023-05-07, 23:04:05
https://www.hardwaretimes.com/amds-999-rx-7900-xtx-is-faster-than-the-1599-rtx-4090-in-jedi-survivor-even-with-ray-tracing/
UHD@FSR+RT mit AMD 7900XTX in Bestform:
RTX4090: 47,5fps - 72,7fps
7900XTX: 57,1fps - 75,5fps
Die Leistungsgewinne bei RDNA3 durch FSR ist sensationell.
Bei 1440p RT@FSR
RTX4090: 52,9 min fps - 74,9 avg fps
7900XTX: 63,7 min fps - 82,1 avg fps
999USD laufen schneller als 1599USD
RDNA3 uArch profitiert extrem von FSR, vermutlich schlägt die fp16-Rate richtig gut durch.
N31XTX - 122,8 Tflops fp16
AD102 - 82,58 Tflops fp16
Rooter
2023-05-07, 23:11:57
Die Leistungsgewinne bei RDNA3 durch FSR ist sensationell.
Bei 1440p RT@FSR
RTX4090: 52,9 min fps - 74,9 avg fps
7900XTX: 63,7 min fps - 82,1 avg fps:confused:
NV wird +41% schneller
AMD wird +29% schneller
Oder hast du die Zahlen vertauscht? ;D
MfG
Rooter
just4FunTA
2023-05-07, 23:17:19
https://www.hardwaretimes.com/amds-999-rx-7900-xtx-is-faster-than-the-1599-rtx-4090-in-jedi-survivor-even-with-ray-tracing/
UHD@FSR+RT mit AMD 7900XTX in Bestform:
RTX4090: 47,5fps - 72,7fps
7900XTX: 57,1fps - 75,5fps
Die Leistungsgewinne bei RDNA3 durch FSR ist sensationell.
Bei 1440p RT@FSR
RTX4090: 52,9 min fps - 74,9 avg fps
7900XTX: 63,7 min fps - 82,1 avg fps
999USD laufen schneller als 1599USD
RDNA3 uArch profitiert extrem von FSR, vermutlich schlägt die fp16-Rate richtig gut durch.
N31XTX - 122,8 Tflops fp16
AD102 - 82,58 Tflops fp16
Schade nur das fsr scheisse ist..
In Jedi Survivor ist es zumindest alternativlos. ;) Zumal es mit TAA anscheinend kuriose Bugs gibt (https://extreme.pcgameshardware.de/threads/star-wars-jedi-survivor-pcgh-technik-test-und-tuning-tipps-das-erwachen-der-pracht-und-die-rache-der-fps.634242/page-3#post-11301781).
MfG
Raff
vinacis_vivids
2023-05-07, 23:25:56
:confused:
NV wird +41% schneller
AMD wird +29% schneller
Oder hast du die Zahlen vertauscht? ;D
MfG
Rooter
Die 7900XTX ist sowohl bei 1% min. fps als auch bei avg fps schneller mit 1440p + RT @ FSR
Habe die nativen Zahlen hier nicht aufgeführt, die sind ja im Artikel da.
Das dürfte die 7900XTX bei den Verkaufszahlen nach oben bringen, wenn die Info durchsickert, dass AMD mit RT schneller ist :-D
Schön wär's, wenn AMD beim Raytracing aufholen würde, aber dem ist nun mal nicht so: https://www.pcgameshardware.de/Star-Wars-Jedi-Survivor-Spiel-73723/Specials/Tech-Test-PC-Review-Benchmarks-1418501/4/ (das sind alles FSR-2-Q-Benchmarks)
Navi 31 ist gerade in hohen Auflösungen stark, aber kein Gegner für AD102.
MfG
Raff
Slipknot79
2023-05-07, 23:31:17
Das dürfte die 7900XTX bei den Verkaufszahlen nach oben bringen, wenn die Info durchsickert, dass AMD mit RT schneller ist :-D
Das passiert sogar gerade, aktuell 4090 bei 1250EUR, 7900XTX schon bei 1500EUR. Die Kunden haben das Spiel somit durchschaut, es wird gerade eingepreist, Lisas Plan geht dank deiner secret info auf. (y) :rolleyes:
Exxtreme
2023-05-07, 23:38:43
Schön wär's, wenn AMD beim Raytracing aufholen würde, aber dem ist nun mal nicht so: https://www.pcgameshardware.de/Star-Wars-Jedi-Survivor-Spiel-73723/Specials/Tech-Test-PC-Review-Benchmarks-1418501/4/ (das sind alles FSR-2-Q-Benchmarks)
Navi 31 ist gerade in hohen Auflösungen stark, aber kein Gegner für AD102.
MfG
Raff
Wobei auch nur die RTX 4090 wirklich viel schneller mit RT ist. Und die kostet gleich ~650 EUR mehr. Schade, dass da keine RTX 4080 mitgetestet wurde.
Jo, Origin die EA App ist leider 'ne Bitch bei Hardware-Wechseln und sperrt hier schneller Accounts als (das ebenfalls vorhandene) Denuvo. Die 7900 XTX dürfte die RTX 4080 in den meisten Fällen abziehen.
MfG
Raff
Die Leistungsgewinne bei RDNA3 durch FSR ist sensationell.
Was für ein sensationeller Vergleich, im CPU-Limit.
In Jedi Survivor ist es zumindest alternativlos. ;)
Mann muss FSR zugute halten, dass es deutlich besser aussieht als die tatsächliche reduzierte Renderauflösung.
Nachdem man sich in Jedi Survivor zu 90% im CPU-Limit bewegt, dürften es wohl die wenigsten aus Performancesicht brauchen, und auch wenn das TAA nicht besonders gut ist, ist es wenigstens größtenteils stabil.
FSR ist der wie üblich komplett überschärft und sieht damit auf den ersten Blick auf Screenshots ganz gut aus, aber komplett instabil. Und die typischen Starwars Gittertexturen zeigen extremes Moire, leider auch mit TAA, aber in einem deutlich geringeren Ausmaß.
Hier fehlt leider DLSS, das kommt mit solchen Situationen üblicherweise deutlich besser klar.
DrFreaK666
2023-05-08, 13:11:52
Jo, Origin die EA App ist leider 'ne Bitch bei Hardware-Wechseln und sperrt hier schneller Accounts als (das ebenfalls vorhandene) Denuvo. Die 7900 XTX dürfte die RTX 4080 in den meisten Fällen abziehen.
MfG
Raff
Mehrmals das Spiel kaufen löst das Problem :biggrin:
aufkrawall
2023-05-08, 13:23:05
FSR ist der wie üblich komplett überschärft
Wo der Blödsinn immer herkommt. FSR 2 Quality ist ohne zusätzliches Sharpen deutlich softer als kein AA oder massives SSAA.
Lurtz
2023-05-08, 20:14:18
FSR 2.2: AMD’s Upscaler matures (https://medium.com/@opinali/fsr-2-2-amds-upscaler-matures-d2faf01fb1c2)
Schon schade dass man die Version nicht manuell aktualisieren kann :frown:
FSR 2.2: AMD’s Upscaler matures (https://medium.com/@opinali/fsr-2-2-amds-upscaler-matures-d2faf01fb1c2)
FSR 1.0 (June 2021) was a stopgap, with value in the right place.
Nach diesem Satz kann man eigentlich aufhören zu lesen. FSR1 war und ist kompletter Crap
robbitop
2023-05-09, 08:44:45
Kommt drauf an woran man das misst. FSR 1.0 hält natürlich keinen Vergleich gegen temporale Rekonstruktion stand. Und da das Stand der Technik war/ist, kann man das schon so sagen (crap).
Aber: verglichen mit reiner spatialer Skalierung über lineare Interpolation ist es schon deutlich besser. Bringt temporal keine Stabilität aber vermeidet immerhin die sonst entstehenden Skalierungsartefakte wie Unschärfe. Entsprechend ist es damit immerhin möglich, nicht native Auflösungen nicht besonders unschön aussehen zu lassen. (im Prinzip wie bei einem CRT - der Grund dafür ist ein anderer)
Wenn man beispielsweise einen 27" 4K Monitor hat, kann man mit FSR 1.0 1440p fahren und das Resultat nicht schlechter aussehen lassen als bei einem 27" Monitor mit nativer 1440p Auflösung.
Da geht es wie gesagt rein um Skalierungsartefakte.
Aber ja: sobald man temporale Verfahren dafür nutzen kann, ist es natürlich klar, was man nimmt.
Nach diesem Satz kann man eigentlich aufhören zu lesen. FSR1 war und ist kompletter Crap
Nein, das ist eine nette Ergänzung für alte GPUs. FSR 1 läuft rasend schnell auf Pascal, GCN und Konsorten und kann bessere Bilder als viele andere Spatial-Upcaler erzielen (siehe robbi oben). FSR 2 läuft zwar auch auf diesen GPUs, hebt die Fps aber nur marginal. Wenn das spieleigene TAAU ordentlich ist, ergibt das mit dem FSR-1-Aufsatz teilweise echt gute Ergebnisse, wohingegen der FSR-2-Ersatz eigene Nebenwirkungen einführt (zuletzt im Resident Evil 4 Remake, da kann man FSR 1 und 2 vergleichen).
MfG
Raff
Kommt drauf an woran man das misst. FSR 1.0 hält natürlich keinen Vergleich gegen temporale Rekonstruktion statt.
FSR1 war/ist nicht besser als bereits vorher vorhandene Lanzcos Upscaler, und bringt damit keinerlei Benefit außer ein neuer Branding, wobei man sich eher fragen muss, ob selbst das ein Benefit war und nicht eher das FSR-Branding auch heute noch (zu Unrecht) beschmutzt.
Aber: verglichen mit reiner spatialer Skalierung über lineare Interpolation ist es schon deutlich besser.
Besser als bilinear gab es schon seit Ewigkeiten.
Bringt temporal keine Stabilität aber vermeidet immerhin die sonst entstehenden Skalierungsartefakte wie Unschärfe.
FSR führt sogar zu jeder Menge Unschärfe. Die typischen Blockartefakte von bilinearer Skalierung werden natürlich vermieden, gegen den Schärfeverlust durch die verringerte Auflösung richtet FSR aber praktisch gar nichts aus.
robbitop
2023-05-09, 09:27:22
Nein, das ist eine nette Ergänzung für alte GPUs. FSR 1 läuft rasend schnell auf Pascal, GCN und Konsorten und kann bessere Bilder als viele andere Spatial-Upcaler erzielen (siebe robbi oben). FSR 2 läuft zwar auch auf diesen GPUs, hebt die Fps aber nur marginal. Wenn das spieleigene TAAU ordentlich ist, ergibt das mit dem FSR-1-Aufsatz teilweise echt gute Ergebnisse, wohingegen der FSR-2-Ersatz eigene Nebenwirkungen einführt (zuletzt im Resident Evil 4 Remake, da kann man FSR 1 und 2 vergleichen).
MfG
Raff
Auf meiner 1080ti rannte FSR 2.x eigentlich ziemlich gut und kaum langsamer als auf Turing.
robbitop
2023-05-09, 09:28:43
FSR1 war/ist nicht besser als bereits vorher vorhandene Lanzcos Upscaler, und bringt damit keinerlei Benefit außer ein neuer Branding, wobei man sich eher fragen muss, ob selbst das ein Benefit war und nicht eher das FSR-Branding auch heute noch (zu Unrecht) beschmutzt.
Besser als bilinear gab es schon seit Ewigkeiten.
FSR führt sogar zu jeder Menge Unschärfe. Die typischen Blockartefakte von bilinearer Skalierung werden natürlich vermieden, gegen den Schärfeverlust durch die verringerte Auflösung richtet FSR aber praktisch gar nichts aus.
Viele Spiele, die kein temporales Upscaling haben, haben aber kein Lanczos. Es bringt in der Praxis also schon immer mal wieder was.
Auf meiner 1080ti rannte FSR 2.x eigentlich ziemlich gut und kaum langsamer als auf Turing.
Pascal macht das noch am besten, aber auf älteren bzw. kleineren GPUs ist die Skalierung ziemlich mau. Pro Pixel sowieso - FSR 1 UQ läuft meist besser als FSR 2 Q.
MfG
Raff
Viele Spiele, die kein temporales Upscaling haben, haben aber kein Lanczos.
Die haben aber auch kein FSR.
Und ein großer Teil der Spiele hat seit Jahren TAA und Resolution-Scaling und damit ein Upscaling dass zumindest nicht schlechter als FSR ist.
robbitop
2023-05-09, 09:54:11
Die haben aber auch kein FSR.
Und ein großer Teil der Spiele hat seit Jahren TAA und Resolution-Scaling und damit ein Upscaling dass zumindest nicht schlechter als FSR ist.
Ja aber man kann mit RSR den größten Teil des Vorteils nutzen und das über alle Spiele drüberstülpen. (nur dass das HUD und PostFX nicht in nativer Auflösung gerendert werden)
Im Zusammenhang mit der nativen Implementierung als FSR hast du natürlich Recht. Da gab es oftmals schon temporales upscaling und internes resoultion scaling.
DrFreaK666
2023-05-09, 09:54:14
Nach diesem Satz kann man eigentlich aufhören zu lesen. FSR1 war und ist kompletter Crap
Als FSR 1 eingeführt wurde, war afair DLSS 1 noch das maximum.
Da DLSS ziemlich blurry war, empfanden viele das Bild mit FSR besser.
Oder verwechsle ich es gerade mit CAS?
robbitop
2023-05-09, 09:55:32
Als FSR 1 eingeführt wurde, war afair DLSS 1 noch das maximum.
Da DLSS ziemlich blurry war, empfanden viele das Bild mit FSR besser
Nein. DLSS 2 kam Mitte 2020. FSR 1 kam Mitte 2021 und FSR 2 dann Mitte 2022.
DLSS 1 war von Q3 2018.
aufkrawall
2023-05-09, 09:58:23
DLSS 2 kam in Youngblood schon im Januar 2020.
DrFreaK666
2023-05-09, 09:59:48
Habs mit Radeon Image Sharpening verwechselt
robbitop
2023-05-09, 10:03:57
DLSS 2 kam in Youngblood schon im Januar 2020.
Wurde wohl erst im April nachgepatcht.
In April 2020, Nvidia advertised and shipped an improved version of DLSS named DLSS 2.0 with driver version 445.75. DLSS 2.0 was available for a few existing games including Control and Wolfenstein: Youngblood, and would later be added to many newly released games and game engines such as Unreal Engine[11] and Unity.[12]
https://en.wikipedia.org/wiki/Deep_learning_super_sampling
Geldmann3
2023-05-09, 10:11:27
Oha, der Wiki-Artikel ist so unvollständig und falsch, muss ich dazu einfach mal sagen. Teilweise sind die Fakten gemixt und teilweise wird einfach das Marketing-geblubber von Nvidia niedergeschrieben.
DLSS 1.9 war schon temporal, lief aber !noch! auf den Cuda-Cores.
Naja, nach einem zweiten Lesen ist der Artikel doch ganz in Ordnung, besser als das Meiste da draußen.
aufkrawall
2023-05-09, 10:16:57
Wurde wohl erst im April nachgepatcht.
Hier steht Ende März 2020, es wäre in Youngblood zu dem Zeitpunkt schon verfügbar gewesen:
https://www.nvidia.com/de-de/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
Na ja, auch egal.
Ja aber man kann mit RSR den größten Teil des Vorteils nutzen und das über alle Spiele drüberstülpen.
Als RSR, und damit quasi als Ersatz für den Display-Scaler kann man darin noch einen minimalen Nutzen sehen.
Allerdings wurde RSR erst deutlich nach FSR in den Treiber integriert, nachdem die FSR-Integration in Spiele verständlicherweise nur wenig Verbreitung fand.
Und es ist eine extreme Nischenanwendung, die man nur verwenden würde wenn man ein Spiel hätte dass keine integrierte Skalierung (und damit HUD in nativer Auflösung) anbietet. Diese Spiele sind aber in der Regel so alt, dass diese auch keine Performanceansprüche stellen.
Zumal es fraglich ist, ob die Qualität überhaupt über bereits vorhandenem GPU-Scaling, bzw. selbst dem von Monitoren überlegen ist, da diese mittlerweile auch schon recht gut Scaler aus dem TV-Bereich "geborgt" haben.
Aber bei einer derartigen Nischenanwendung wird sich kaum jemand die Mühe machen das auszutesten.
Wiseman
2023-05-09, 15:48:04
Nach diesem Satz kann man eigentlich aufhören zu lesen. FSR1 war und ist kompletter Crap
Ich habe nach diesem Satz aufgehört zu lesen. ;D
I should admit I'm partial to FSR since v2.0. This is an engineer’s bias: FSR started delivering >80% of the quality of DLSS, and now approaching 100%, at 10% of the computational cost; with wide hardware compatibility including older GPUs that need upscaling the most; it’s portable and open source, delivering a consistent cross-platform presentation for developers.
Es doch immer gut möglichst viele Optionen zu haben. Es ist nur ein bisschen schade, dass DLSS zugunsten von FSR2 etwas untergehen wird, weil die Entwickler vor allem bei Ports größtenteils schlicht der Meinung sein werden, dass das Ergebnis gut genug ist, immerhin kann man es modden. Ich würd mich darüber freuen, dass fast alle FSR1 weiterhin implementieren, weil das für alte GPUs, grad mit zuwenig VRAM, immer noch ne gute Option ist, das Spiel trotzdem spielbar zu halten.
DrFreaK666
2023-05-09, 17:25:20
Nein. FSR1 bitte nur weil die Arbeit gering ist
Nein. FSR1 bitte nur weil die Arbeit gering istOder wenn einfach nur das Bild upscaled werden soll, ohne irgendwelche AA-Vorspiegelungen...
Nein. FSR1 bitte nur weil die Arbeit gering ist
Versteht sich von selbst, dass das zusätzlich gemeint ist.
Also FSR2 ist in Jedi Survivor mMn wirklich nicht gut.
Es ist leicht überschärft und bröselt in Bewegung sehr stark. Wenn man mal auf TAA in nativer Auflösung wechselt (geht aktuell nur mit dem Epic preset, sonst wird mit 50% Auflösung gerechnet), dann sieht man erst wie viel hochwertiger das Bild ist. Echt schade, dass kein DLSS oder TAAU auswählbar ist.
Letztendlich hab ich nun nach dieser Anleitung hier von "Hyydrotoo" TAAU aktiviert und bin auf 80% Auflösung in 4K.
https://www.nexusmods.com/starwarsjedisurvivor/mods/9?tab=posts
r.DefaultFeature.AntiAliasing=2
r.PostProcessAAQuality=4
r.TemporalAA.Upsampling=1
r.TemporalAA.Algorithm=1
r.ScreenPercentage=80
Gibt nochmal nen netten performance boost gegenüber nativ 4K und sieht um Welten besser aus, als FSR. Finde sogar, dass TAAU bei 66% in Bewegung immernoch besser, als FSR Quality aussieht. TAAU bröselt halt einfach nicht und glättet trotzdem gut.
Würde mir sehr wünschen, dass AMD bei der Qualität nochmal deutlich nachlegt.
Man muss ja leider akzeptieren, dass nicht immer alle Upscaler verfügbar sind. Wenn schon exklusiv, dann sollte auch die Qualität passen!
Achill
2023-05-09, 21:45:00
Also FSR2 ist in Jedi Survivor mMn wirklich nicht gut.
[..]
Würde mir sehr wünschen, dass AMD bei der Qualität nochmal deutlich nachlegt.
Man muss ja leider akzeptieren, dass nicht immer alle Upscaler verfügbar sind. Wenn schon exklusiv, dann sollte auch die Qualität passen!
Ich würde mir wünschen, wenn die Entwickler bzw. Publisher aktuelle Versionen nutzen. Wenn AMD überhaupt Einfluss hat, dann hat man m.E. bei der Qualitätskontrolle versagt was EA bzw. deren Entwickler da so treiben.
Imho nutzt Jedi Survivor eine alte FSR 2.0 Version für die UE4. Zumindest legen dies die Settings, welche man mittels Console anpassen kann, nahe. So ist zum Beispiel "r.FidelityFX.FSR2.DeDither" noch nicht in Jedi Survivor verfügbar, in Hogwarts aber schon (schon ab Release).
Nimmt man https://web.archive.org/web/20220701000000*/https://gpuopen.com/learn/ue-fsr2/ und geht zu einen der ersten Versionen, so passt dies mit den Settings.
- Das FSR 2.0 Plugin vom Aug 2022 hat es noch nicht: https://web.archive.org/web/20220808164749/https://gpuopen.com/learn/ue-fsr2/
- Das FSR 2.1.2 Plugin vom Okt 2022 hat es dann: https://web.archive.org/web/20221024093744/https://gpuopen.com/learn/ue-fsr2/
Warum ein Spiel welches 2023 raus kommt noch mit FSR 2.0 arbeitet, dass kann man nicht erklären - wäre so als ob DLSS 2.0.x in einem Spiel im Jahre 2023 ausgeliefert wird ...
Darüber hinaus nutzt Jedi Survivor dann noch Settings wie "r.FidelityFX.FSR2.HistoryFormat=1" was das schlechtere History Texture Format laut Doku ist oder setzt "r.FidelityFX.FSR2.Sharpness=0.8" was dann zu einer Überschärfung und damit Flimmern nur noch verstärkt (hilft aber nicht viel dies anzupassen, da das FSR einfach zu alt ist).
Also FSR2 ist in Jedi Survivor mMn wirklich nicht gut.
Na guten Morgen, das taugt bisher nirgends so wirklich. Jedi Survivor bildet da keine Ausnahme...
Also FSR2 ist in Jedi Survivor mMn wirklich nicht gut.
Richtig, wobei TAA auch nicht wirklich gut ist. TAA ist auf der schmiert teilweise gehörig und erzeugt auch sichtbares Ghosting, speziell am Startbildschirm mit den kleinen Flugobjekten im Hintergrund.
FSR ist zwar schärfer, aber total instabil, speziell auf Koboh mit den vielen Plfanzen. Und beide haben deutliche Moiree Probleme bei den vielen Gittertexturen, wobei FSR noch deutlich schlimmer ist.
Alleine für letzteres vermisse ich DLSS, das hat damit üblicherweise deutlich weniger Probleme.
Aus Perfommancesicht ist es eh komplett unnotwendig, da man >90% komplett CPU-Limitiert ist, da könnte höchstens DLSS3 helfen, wobei dafür die allgemeine Framerate aber wohl zu niedrig ist.
Warum ein Spiel welches 2023 raus kommt noch mit FSR 2.0 arbeitet, dass kann man nicht erklären - wäre so als ob DLSS 2.0.x in einem Spiel im Jahre 2023 ausgeliefert wird ...
Das kann man mit den komplett üblichen Softwareentwicklungszyklen erklären.
Jedes Feature wird irgendwann eingebaut, durchläuft den Testzyklus und wird dann freigegeben. Selbst wenn der Entwicklungsaufwand für den Austausch gegen eine neuere Version minimal ist, der restliche Rattenschwanz hintendran ist es nicht.
Irgendwann wird dann ein kompletter Feature-Freeze gesetzt und nur mehr Bugfixing betrieben, wobei hier 3-6 Monate vor Release kein unüblicher Zeitpunkt dafür sind.
Speziell für Jedi Survivor, in dem ganz offensichtlich die Zeit für Test und Bugfixing am Ende ausgegangen ist wird man ganz sicher nicht am letzten Abdruck noch ein Feature-Update einbauen.
aufkrawall
2023-05-13, 14:32:53
Gegenüber der Beta wurde in Diablo 4 FSR 2 Sharpen und Lensflare-Flackern gefixt. (y)
Habe bis zur Stadt gespielt und noch keinen Fail festgestellt, selbst Partikel ghosten gar nicht. Hat deutlich weniger Blur und Jittering gegenüber TAA nativ.
Achill
2023-05-13, 15:37:15
Das kann man mit den komplett üblichen Softwareentwicklungszyklen erklären.
Jedes Feature wird irgendwann eingebaut, durchläuft den Testzyklus und wird dann freigegeben. Selbst wenn der Entwicklungsaufwand für den Austausch gegen eine neuere Version minimal ist, der restliche Rattenschwanz hintendran ist es nicht.
Irgendwann wird dann ein kompletter Feature-Freeze gesetzt und nur mehr Bugfixing betrieben, wobei hier 3-6 Monate vor Release kein unüblicher Zeitpunkt dafür sind.
Speziell für Jedi Survivor, in dem ganz offensichtlich die Zeit für Test und Bugfixing am Ende ausgegangen ist wird man ganz sicher nicht am letzten Abdruck noch ein Feature-Update einbauen.
Die Aussage aus der SW-Welt kenne ich auch, die Verallgemeinerung wie hier verwendet, stimmt so aber nicht.
Man muss immer zuerst unterschieden, ob man etwas selbst entwickelt oder auf Frameworks / Libs / Tools zurück greift. Setzt ein Team wirklich ein Feature selbst um, dann ist natürlich der Austausch bzw. das Ersetzen gegen eine neue Version immer "teuer". Der Aufwand solte aber nicht der gleiche sein, weil man natürlich Tests für das Feature umgesetzt hat. Wenn nicht und man selbst konnte es nicht ändern => Firma/Projekt wechseln ansonsten ... *kein Kommantar*
Im Falle der UE 4.26.x und den FSR 2.x (bzw. DLSS2 UE Plugin) sind dies aber Komponenten auf denen man aufbaut. Die UE gegen eine neue zu tauschen ist nicht Trivial, das Plugin (FSR2 oder DLSS2) welches gegen die UE integriert wird, hat deutlich weniger oder sogar gar keine Abhängigkeiten gegen das Spiel.
Die Integration ist auch schon durch Epic und AMD/NV erfolgt wie auch generelle Test (ich hoffe man erkennt den Unterschied zur initialen Aussage des Gastes). Die Leistung eines SW-Team besteht in diesen Fällen darin, diese Komponenten wie dokumentier zu nutzen und ggf via Konfiguration noch Anpassungen vorzunehmen.
Sicherlich gibt es visuelle Tests, die Problemstellen von AMDs/NVs/Intels Ansätzen sind m.E. aber bekannt und hier sollte man prüfen ob sich eine Verbesserung eingestellt hat. Eine starke Verschlechterung würde man leicht sehen ...
Die alternative ist dann noch (und das geht auch hier), wenn man einfach eine Beta an die Kunden gibt und diese testen lässt ... ist das Feedback wie gewünscht, dann wir diese Version die nächste Stable.
Zusammengefasst gibt es also natürlich Aufwände, im Vergleich zur Entwicklung des Spiels oder den Umsetzen eines solchen AAA Titels sind diese verschwindend gering und es gibt kein Grund eine neuere Version und auch die bekannten Lösungen (AMD+NV+Intel) anzubieten.
Man muss immer zuerst unterschieden, ob man etwas selbst entwickelt oder auf Frameworks / Libs / Tools zurück greift. Setzt ein Team wirklich ein Feature selbst um, dann ist natürlich der Austausch bzw. das Ersetzen gegen eine neue Version immer "teuer".
Genau umgekehrt. Bei der Verwendung externer Libs wird in der Regel wesentlich früher die verwendete Version eingefroren und nicht mehr geändert. Änderungen an externen Libs sind logischerweise weniger Aufwändig, genau gesagt haben sie intern den Aufwand 0 schließlich macht diese ein anderer.
Die Integration selbst und vor allem das Debugging ist aber in der Regel wesentlich aufwändiger.
Wenn mit einer Lib ein Problem auftritt und diese von einem internen Team entwickelt wurde kann man sich sehr schnell an dieses wenden und das Problem hoffentlich lösen. Bei externen Libs ist das in jedem Fall wesentlich zeitaufwändiger.
Sicherlich gibt es visuelle Tests, die Problemstellen von AMDs/NVs/Intels Ansätzen sind m.E. aber bekannt und hier sollte man prüfen ob sich eine Verbesserung eingestellt hat. Eine starke Verschlechterung würde man leicht sehen ...
Es geht nicht um visuelle Tests und evtl. noch Haarspaltereien ob jetzt die eine oder andere Version optisch etwas besser ist. Es geht vor allem um die Stabilität des gesamten Softwarepaketes. Es bringt nichts 1000 Änderungen auf einmal durchzuführen, dann hast du am Ende 0 Ahnung welche Änderung deine Software jetzt stabiler und welche instabiler macht.
Und ja, der Austausch einer Lib durch eine neuere Version kann die Stabilität sowohl in die eine oder andere Richtung beeinflussen.
Die alternative ist dann noch (und das geht auch hier), wenn man einfach eine Beta an die Kunden gibt und diese testen lässt ... ist das Feedback wie gewünscht, dann wir diese Version die nächste Stable.
Kann man machen, braucht aber wenn es Sinnvoll sein soll auch Ressourcen.
Und der Kunde muss sich hier wirklich als Beta-Tester engagieren, sprich er muss beide Versionen Testen und über Unterschiede berichten, und bei Problemen auch versuchen diese zu reproduzieren und Rückmeldung zu geben.
Alles Punkte die im B2C-Geschäft eher selten anzufinden sind.
Sinnvoll wäre evtl. noch dass man quasi random unterschiedliche Versionen ausliefert, und automatische Crashberichte auswertet. Das setzt aber voraus, dass zumindest ein großer Teil der Spieler diese auch zulässt.
basix
2023-05-15, 10:51:46
Wäre zumindest wünschenswert, wenn es der User selbst und einfach austauschen kann. Zum Beispiel via DLSS-Swapper. Dann ist der User selbst schuld und der SW-Vendor fein raus, falls was instabil sein sollte.
Dazu benötigt es aber die entsprechenden Schnittstellen. Streamline wäre ein denkbarer Ansatzpunkt für DLSS und XeSS. FSR2 müsste anders gelöst werden (vor allem auch via austauschbare DLL)
Lurtz
2023-05-15, 14:34:31
Stabile Performance von FSR2 in Jedi Survivor :ugly:²
https://abload.de/img/starwarsjedi_survivor60ffh.jpg
TAA ist aber kaum besser. Kein Wunder dass DF im Podcast zuletzt meinten sie würden insbesondere bei niedrigen Auflösungen lieber wieder Checkerboarding als temporale Artefakte sehen.
Dabei ist das sogar 1440p FSR2 Quality. Aber gut, bei dem Spiel läuft in Sachen Bildqualität eh einiges schief, das hat so üble Artefakte, auch mit TAA, in vielen Bereichen.
Stabile Performance von FSR2 in Jedi Survivor :ugly:²
https://abload.de/img/starwarsjedi_survivor60ffh.jpg
Keine Ahnung, nachdem man trotz 7800X3D fast durchgehend im CPU-Limit ist, macht FSR wenig Sinn.
DrFreaK666
2023-05-15, 15:04:33
Das sieht eher aus als wäre das Lighting defekt. Muss das so aussehen?
Das sieht aus wie Doom 3 auf Voodoo Karten
Achill
2023-05-15, 15:36:15
Genau umgekehrt. Bei der Verwendung externer Libs wird in der Regel wesentlich früher die verwendete Version eingefroren und nicht mehr geändert. Änderungen an externen Libs sind logischerweise weniger Aufwändig, genau gesagt haben sie intern den Aufwand 0 schließlich macht diese ein anderer.
Die Integration selbst und vor allem das Debugging ist aber in der Regel wesentlich aufwändiger.
Wenn mit einer Lib ein Problem auftritt und diese von einem internen Team entwickelt wurde kann man sich sehr schnell an dieses wenden und das Problem hoffentlich lösen. Bei externen Libs ist das in jedem Fall wesentlich zeitaufwändiger.
Mein Punkt war, dass im Falle von UE 4 & 5 und den FSR2/DLSS2/XeSS Plugins die Integration schon erledigt und getestet ist. Das sind Standard-Plugins für die UE und keine 3ed Party Software die das Team selbst integriert ...
Der zweite Teil stimmt so nicht, ein internes Team oder eine Interne Lib kann schnellere Reaktionszeiten haben, bei einer ext. Lib kommt es auf den abgeschlossenen Vertrag an. Denn Reaktionzeit != Zeitaufwand ..
Es geht nicht um visuelle Tests und evtl. noch Haarspaltereien ob jetzt die eine oder andere Version optisch etwas besser ist. Es geht vor allem um die Stabilität des gesamten Softwarepaketes. Es bringt nichts 1000 Änderungen auf einmal durchzuführen, dann hast du am Ende 0 Ahnung welche Änderung deine Software jetzt stabiler und welche instabiler macht.
Und ja, der Austausch einer Lib durch eine neuere Version kann die Stabilität sowohl in die eine oder andere Richtung beeinflussen.
Ich habe nichts bzgl. optischen Vorteilen der unterschiedlichen Upscaler geschrieben! Es ging darum das alle Plugins integriert werden können. Bzgl. der Menge von Änderungen in einen Softwaresystem ist der erste Teil wieder richtig. Man will nie zu viele Dinge auf einmal ändern und das Optimum ist in der Regel genau eine Sache.
Der Tausch das Plugins (gegen eine neue Version oder gegen eine andere Lösung) ist aber eben nur eine Änderung und nicht 1000 ..
Kann man machen, braucht aber wenn es Sinnvoll sein soll auch Ressourcen.
Und der Kunde muss sich hier wirklich als Beta-Tester engagieren, sprich er muss beide Versionen Testen und über Unterschiede berichten, und bei Problemen auch versuchen diese zu reproduzieren und Rückmeldung zu geben.
Alles Punkte die im B2C-Geschäft eher selten anzufinden sind.
Sinnvoll wäre evtl. noch dass man quasi random unterschiedliche Versionen ausliefert, und automatische Crashberichte auswertet. Das setzt aber voraus, dass zumindest ein großer Teil der Spieler diese auch zulässt.
Ein Kunde (und hier wir als Gamer) sind nur genervt wenn wir gezwungene Beta-Tester sind bzw. das "Produkt beim Kunden reift" .. gibt man ihm die Wahl mit der Option eine neues Feature zu testen und Feedback zu geben, dann ist es was ganz anderes ..
Und ja es kostet Aufwand und damit Geld, ist also immer entsprechend Abzuwägen. Ein Release mit neg. PR kann schnell viel mehr kosten .. EA wird dies aber selbst wissen wie sie am meisten Gewinn machen.
Achill
2023-05-15, 15:41:10
Stabile Performance von FSR2 in Jedi Survivor :ugly:²
https://abload.de/img/starwarsjedi_survivor60ffh.jpg
TAA ist aber kaum besser. Kein Wunder dass DF im Podcast zuletzt meinten sie würden insbesondere bei niedrigen Auflösungen lieber wieder Checkerboarding als temporale Artefakte sehen.
Dabei ist das sogar 1440p FSR2 Quality. Aber gut, bei dem Spiel läuft in Sachen Bildqualität eh einiges schief, das hat so üble Artefakte, auch mit TAA, in vielen Bereichen.
Es ist auch leider FSR 2.0 und nichts neueres, in 4k ist es mir noch nicht so deutlich aufgefallen. Du bist doch jetzt mit einer 4090 unterwegs? Wenn dann einfach Down-Sampling nutzen - die Leistung ist ja da, dass Ghosting sollte damit abnehmen.
Das sieht eher aus als wäre das Lighting defekt. Muss das so aussehen?
Vermutlich ein HDR-Screenshot.
Lurtz
2023-05-15, 16:50:55
Keine Ahnung, nachdem man trotz 7800X3D fast durchgehend im CPU-Limit ist, macht FSR wenig Sinn.
Mit der 3070 bin ich ohne FSR2 oft genug im GPU-Limit unter 60 fps. Außerdem ist TAA kaum besser was Bildstabilität und Ghosting angeht.
Das sieht eher aus als wäre das Lighting defekt. Muss das so aussehen?
Das sieht aus wie Doom 3 auf Voodoo Karten
Das sieht an diversen Stellen so kaputt aus. Gibt viele Stellen, wo es wirklich toll aussieht, manchmal bricht es aber komplett zusammen.
Es ist auch leider FSR 2.0 und nichts neueres, in 4k ist es mir noch nicht so deutlich aufgefallen. Du bist doch jetzt mit einer 4090 unterwegs? Wenn dann einfach Down-Sampling nutzen - die Leistung ist ja da, dass Ghosting sollte damit abnehmen.
Nein, bin ich nicht. Aber ich bezweifle, dass selbst massives Downsampling das so viel besser lösen würde.
Da FSR2 ja meist die Charakteristika der TAA-Implementierung teilt, könnte hier wahrscheinlich nur DLSS2 deutlich was bringen.
Stabile Performance von FSR2 in Jedi Survivor :ugly:²
https://abload.de/img/starwarsjedi_survivor60ffh.jpg
TAA ist im Bezug auf Ghosting nicht wirklich besser, allerdings insgesamt deutlich stabiler.
https://i.imgur.com/mvKgJvu.jpg
BTW: HDR-Screenshot, deshalb wirkt alles eher flach.
DrFreaK666
2023-05-16, 19:23:46
...BTW: HDR-Screenshot, deshalb wirkt alles eher flach.
Ah, das erklärt wohl auch das seltsame Screenshot von Lurtz
Lurtz
2023-05-16, 22:52:50
TAA ist im Bezug auf Ghosting nicht wirklich besser, allerdings insgesamt deutlich stabiler.
https://i.imgur.com/mvKgJvu.jpg
BTW: HDR-Screenshot, deshalb wirkt alles eher flach.
Naja, deutlich. Da gibts auch genug Moire etc. Angesichts der Performancekosten auch nicht überzeugend.
Die DLSS2-Mod zerstört wohl das Framepacing komplett.
Ah, das erklärt wohl auch das seltsame Screenshot von Lurtz
Was? Das war ein SDR-Screenshot.
DrFreaK666
2023-05-17, 06:57:08
Ok, dann sah das Spiel da einfach kacke aus
Naja, deutlich. Da gibts auch genug Moire etc.
Ja, die typischen Star Wars Gitter zeigen deutliches Moire mit beiden, wobei FSR etwas stärker sind. Hier würde ich definitiv gerne DLSS sehen, was diese Moires üblicherweise komplett oder zumindest fast komplett unterdrückt.
Die ganze Vegetation auf Koboh flimmert sich allerdings mit mit FSR einen ab, und ist mit TAA rock stable.
FSR ist definitiv deutlich besser als TAA mit selber Renderauflösung, wenn die GPU für max. Auflösung nicht ausreicht definitiv eine Option. Angesichts der harten CPU-Limitierung in 90% der Szenen bringt es eben fast keine Performance.
Die DLSS2-Mod zerstört wohl das Framepacing komplett.
Gibt es mittlerweile einen DLSS2-Mod? Den ersten Mod an den ich mich erinnern kann war soweit ich weiß quasi ein reiner DLSS3 Mod, sprich nur FG ohne Upscaling. Wobei das angesichts des CPU-Limits vielleicht noch das beste wäre. Was man der Engine zugute halten muss, trotz der schlechten Performance ist die Latenz extrem gut, da könnte DLSS3 tatsächlich gut funktionieren.
Ex3cut3r
2023-05-17, 13:44:14
Ja, hier:
https://www.patreon.com/posts/jedisurvivorupsc-83054683
Ist hinter einer Paywall. Keine Ahnung, ob es irgendwann fürs Public rls. wird.
Ansonsten, sehr schade, dass nicht einfach offiziell FG und DLSS integriert werden, bei der UE4 ist das eigentlich super easy, da die Plugins in der Engine schon vorhanden sind.
DrFreaK666
2023-05-17, 16:17:16
Schon schade, wenn das FSR-Ergebnis eher unterdurchschnittlich ist
basix
2023-05-24, 14:46:50
Neue Gerüchte zu FSR 3.0:
https://www.pcgameshardware.de/FidelityFX-Super-Resolution-Software-277617/News/AMD-FSR-3-Geruechte-um-4-interpolierte-Zwischenbilder-1420362/
- Bis zu 4x Frame-Generation Ratio (3x Zwischenbilder anstatt nur 1x wie bei DLSS3)
- Via Treiber aktivierbar
Finde ich noch interessant. Ich interpretiere da folgendes rein:
- FSR 3.0 läuft auch auf andere GPUs
- FSR 3.0 kann aber auf Radeon im Treiber aktiviert werden. Ähnlich wie RSR vs. FSR 1.0 schlechtere Qualität, als wenn es via FSR 2.0 + FG läuft.
- Mehr Zwischenbilder führen nur zu geringfügig mehr Latenz: 1x FG-Bild = +0.5 Frame Latenz; 3x FG-Bilder = + 0.67 0.75 Frame Latenz
- Hoffnung: AMD bringt obendrauf noch was so effektives wie Reflex. Anti-Lag ist momentan deutlich unterlegen
Die Latenzen sind Idealfälle, wenn das Generieren der Zwischenbilder nur eine geringe Ausführungszeit hat und aufgrund Frame Pacing usw. nicht noch zusätzliche Delays entstehen (wie bei DLSS3)
Exxtreme
2023-05-24, 14:51:47
- Mehr Zwischenbilder führen nur zu geringfügig mehr Latenz: 1x FG-Bild = +0.5 Frame Latenz; 3x FG-Bilder = +0.67 Frame Latenz
Nein, das stimmt nicht. Für die Eingabelatenz sind ausschließlich die echten Bilder pro Sekunde maßgebend. Wieviele Bilder die Grafikkarte von sich aus generiert, das weiss das Spiel gar nicht.
robbitop
2023-05-24, 14:53:36
Wesentlich ist IMO auch die BQ. Hoffentlich liegt man da gut. Bei FSR 2.x ist man ja leider noch hintendran.
basix
2023-05-24, 15:00:02
Nein, das stimmt nicht. Für die Eingabelatenz sind ausschließlich die echten Bilder pro Sekunde maßgebend. Wieviele Bilder die Grafikkarte von sich aus generiert, das weiss das Spiel gar nicht.
Verstehe deinen Punkt nicht. Ich habe nur relative Werte angegeben. Beispiel:
Best Case (1x Frame Time zwischen Eingabe und Ausgabe, Prerender-Limit=0):
60fps ohne FG: 16.7ms
60fps mit FG 1x: 25.0ms
60fps mit FG 3x: 29.2ms
Worst Case (2x Frame Time zwischen Eingabe und Ausgabe, Prerender-Limit=0):
60fps ohne FG: 33.3ms
60fps mit FG 1x: 41.6ms
60fps mit FG 3x: 45.8ms
Basis ist dabei immer die Render-Frametime. Was anderes habe ich nie behauptet. Bei den FG Frames fliesst der Input aus Frame N+1 ein und nun wir verglichen, wie viel Latenz FG dazuaddiert. Wie das im Vergleich zu 4x FPS aussieht muss ich gar nicht darlegen, das ist ja klar (4x kleinere Latenzen).
Mein Punkt war nur der, dass man theoretisch eine unendliche Anzahl Zwischenbilder berechnen kann und das verglichen mit der Render-Framerate zu max. +1 Frame Latenz führt. Das ist kein vergleich zu real gerenderten "unendlich FPS".
Bin mir aber gerade selbst nicht mehr ganz sicher ob das alles stimmt, ich überlege mir das nochmals.
Edit:
OK, ich glaube es kommt in allen Fällen einfach +1 Frametime dazu. Egal wie viele Zwischenbilder generiert werden. Das macht das Framepacing viel einfacher, da man die Frametime der Ausgabebilder einfach um den FG-Faktor stückelt. Für noch besseres Framepacing müsste man noch etwas länger warten und die vorhergenden Render-Frametimes berücksichtigen, was dann allerdings die Latenz erhöht. Und klar, das ist die Render-Frametime. Verglichen mit mehr FPS kann man das in eine Formel giessen, wenn man es mit effektiv gerenderten FPS vergleichen will:
- Absolute Latency = ([1...2] + 1 + Framepacing-Adder) * Render-Frametime
- Relative Latency = Absolute Latency / FG-Factor
Man könnte allerdings spekulativ ausführen und Frame N bereits darstellen bevor Frame N+1 fertig ist, dann sinkt der Latenzadder "+1" in der Formel eben auf +0.5 oder +0.75 bei 1x respektive 3x Zwischenbildern. Wird aber problematischer wegen Framepacing.
Wesentlich ist IMO auch die BQ. Hoffentlich liegt man da gut. Bei FSR 2.x ist man ja leider noch hintendran.
Logisch, nur kann man die momentan nicht bewerten ;)
Tesseract
2023-05-24, 15:21:24
das liest sich so als wäre FSR3 ein reines marketing-checklistenfeature. drei zwischenbilder sind bzgl. latenz, monitorfähigkeiten (und wahrscheinlich auch bildqualität) nahezu unbenutzbar und aktivierbar im treiber hört sich nach zusatzlatenz aus der hölle an.
ich sehe schon die marketingabteilung bei 30 basis-fps und vervierfachung auf 120fps mit der bildqualität einer trashigen telenovela und dreistelligem inputlag über die "neue RT performance" prahlen. :freak:
basix
2023-05-24, 15:30:03
Ich sehe das nicht als problematisch an, wenn das nicht als Performance deklariert werden würde, sondern als Visual Framerate Smoothing. Denn genau das macht FG.
Bei der absoluten Latenz sollten sich 1x oder 3x Zwischenbilder aber nicht viel nehmen.
Tesseract
2023-05-24, 15:40:20
4x fps ist selbst auf einem 240Hz-monitor ~60fps basis die prinzipbedingt höhere latenz haben als "normale" 60fps. wo will man das jemals sinnvoll verwenden? selbst DLSS3 mit reflex ist auf 144Hz-monitoren schon grenzwertig weil die minimallatenz ohne tearing nur bei knapp über 70 liegt.
dieser modus existiert garantiert dafür um unspielbare basis-fps deutlich unter 60 aufzublasen.
basix
2023-05-24, 15:56:39
Ich sehe eher eine andere Chance: Spiele-Engines müssen auf geringe interne Latenz optimiert werden, wenn FG maximal ausgenutzt werden will. 40fps sehen kacke aus. 40fps -> 120fps fühlen sich zwar nicht besser an, doch sehen viel besser aus. Bei ideal 50...75ms Latenz sind 40fps auch noch spielbar (je nach Genre des Spiels). Gibt viele Spiele, die heute bei 60fps höhere Latenzen aufweisen.
Und: Man kann dem User die FG Einstellung überlassen. FG-Faktor 2-4 oder kein FG. Solange man es eben als Smoothness Faktor verkauft und nicht als Performance-Faktor sehe ich da keine allzu grossen Probleme.
Ausserdem: Gibt noch andere Anwendungen als Spiele. Wenn man FG auch für Zwischensequenzen, Grafik-Rendering oder wie Fluid Motion initial für Video-Smoothing verwenden kann, why not? 30fps Content auf 120fps hochskalieren.
aufkrawall
2023-05-24, 16:05:05
Ggf. gibt es wieder das "echte" FSR 3 via Anwendung und für nicht unterstützte Spiele einen Treiber-Fallback wie bei RSR. Ich bin aber wirklich null gehypt drüber und erwarte in den ersten Versionen eklatante Beeinträchtigungen. Wie einige sich hier freuen, das kann doch nur böse enden. :freak:
Tesseract
2023-05-24, 16:07:47
Ich sehe eher eine andere Chance: Spiele-Engines müssen auf geringe interne Latenz optimiert werden, wenn FG maximal ausgenutzt werden will.
augenauswischerei. 40fps mit aktivem FG drumherum ist eine absolute katastrophe, egal wie optimiert die engines sind. das ist ein reiner marketingmodus.
Achill
2023-05-24, 17:15:10
Ich sehe eher eine andere Chance: Spiele-Engines müssen auf geringe interne Latenz optimiert werden, wenn FG maximal ausgenutzt werden will. 40fps sehen kacke aus.
augenauswischerei. 40fps mit aktivem FG drumherum ist eine absolute katastrophe, egal wie optimiert die engines sind. das ist ein reiner marketingmodus.
:confused: .. Bei FG mit DLSS3 ist diese deine Aussage (ja, etwas älter - vielleicht hat sich jetzt deine Meinung geändert)
gerade ausprobiert. wenn die frametimes vor der FG halbwegs gleichmäßig sind ist dieses feature einfach so crazy gut das ist unfassbar. scheint momentan aber in kombination mit ingame resoluton scale kaputt zu sein.
edit: ok, doch nicht kaputt, FG fängt einfach deutlich zum artefakten an wenn die ausgangsframerate unter ~30fps liegt, bei 40fps dann eher minimal, darüber quasi nichts mehr sichtbar.
Tesseract
2023-05-24, 17:23:56
:confused: .. Bei FG mit DLSS3 ist diese deine Aussage (ja, etwas älter - vielleicht hat sich jetzt deine Meinung geändert)
diese aussage bezog sich ausschließlich auf die bildqualität vom algorithmus. <60fps inputlag bleibt immer <60fps inputlag.
basix
2023-05-24, 18:15:46
augenauswischerei. 40fps mit aktivem FG drumherum ist eine absolute katastrophe, egal wie optimiert die engines sind.
Ehm, ich spiele TW3E mit 80fps inkl. FG und das sind genau 40fps gerendert. Ist nicht super genial und nicht so fluppig wie 100fps gerendert, aber eine Katastrophe ist es nicht und definitiv deutlich besser als nur 40-50fps auf dem Schirm zu haben. Und 120fps wären noch besser. Ist irgendwann Asymptoten-Schleiferei und der visuelle Zugewinn wird vernachlässigbar oder die Base-FPS zu tief für ein ansprechendes Spielerlebnis. Ich sehe aber schon gute Chancen, das mit FG besser ist als ohne FG. Bei gleichen oder fast gleichen Render-FPS! Und auch <60fps, je nach Spiel
Und wie gesagt, könnte die Technologie auch ausserhalb von Realtime-Anwendungen von Nutzen sein. Bei Spielen nutzt man dann vielleicht nie mehr als 2x FG aber in anderen Applikationen dann 4x. Who knows.
das ist ein reiner marketingmodus.
Bei Nvidia im Falle von DLSS3 sicher. Bei AMD werden wir sehen. Ich hoffe, sie vermarkten es wie oben geschrieben nicht als Performance sondern als "Bild-Smoothness" Feature. Die Hoffnungen sind nicht extrem riesig aber auch nicht verschwindend klein ;) DLSS3 wurde zurecht von sehr vielen Seiten kritisiert, dass es eben nicht die "echte" Performance abbildet. Hoffe dass hat AMD ebenfalls mitbekommen.
00-Schneider
2023-05-24, 18:17:56
augenauswischerei. 40fps mit aktivem FG drumherum ist eine absolute katastrophe, egal wie optimiert die engines sind. das ist ein reiner marketingmodus.
Jup, 40fps als Ausgangslage für FG-Frames on top sollten es minimum* sein. Alles andere wird zu schwammig.
*Und selbst 40fps sind mit Maus imho jetzt nicht wirklich responsiv, maximal "erträglich".
- Bis zu 4x Frame-Generation Ratio (3x Zwischenbilder anstatt nur 1x wie bei DLSS3)
Das wird extrem starke Artefakte bilden.
Achill
2023-05-24, 19:32:08
[..]
Das wird extrem starke Artefakte bilden.
Hintergrund dieser Behauptung?
Ich behaupte (kann natürlich daneben liegen), es gibt nicht mehr Artefakte innerhalb eines Interpolierten Frames mit steigender Anzahl dieser. Warum?
1. Bisher gehen wir davon aus, dass wie bei DLSS3 immer schon die "echten" Frames F1 und F2 existieren. Wenn F2 berechnet ist, kennt man den zeitlichen Abstand t(F2, F1) zwischen F1 und F2. Das Interpolierte Frame I1 (egal mit welchen Ansatz) wird bei einer Interpolation von +1 in die Mitte t(F2, F1)/2 gesetzt und bei der Berechnung von I die Daten von X und Y gleich? gewichtet.
2. Erhöhen wir die Menge der interpolierten Frames zwischen F1 und F2 auf +2 so werden zwei Frames I1 und I2 zwischen F1 und F2 platziert, der zeitliche Abstand ist dann 1/3*t(F2, F1)/3 und 2/3*t(F2, F1). Wir haben aber weiterhin F1 und F2 als Referenz, es muss m.E. nur die Gewichtung angepasst werden. I1 nutzt also "mehr" Daten von X (2/3) und "weniger" von X+1 (1/3) und bei I2 dann umgekehrt.
3. Benötigt wird hierfür eine Abbildung und Hilfsstruktur, die basieren auf den Daten von F1 und F2, ein Bild Ix zum Zeitpunk t(x) zwischen t(F1) und t(F2) erzeugen kann. Ein Lösung zur Veranschaulichung des Ansatz (die AMD sicherlich nicht wählt) ist eine lineare Blend Methode, mit dieser kann leicht ein Zwischenbild zu einen beliebigen Zeitpunkt zwischen F1 und F2 berechnen. Sofern die Abbildung sich ähnlich für ein t(x) verhält, bleibt auch der entstandene Fehler für jedes Ix ähnlich.
Btw. ... Überlegungen zu Latenzen
Wie man sieht, würde bei diesen Ansatz auch die Latzen nicht wirklich weiter ansteigen, wenn die Anzahl der interpolierten Frames steigt.
1. Ohne FG ist die Latzen mit der Ausgabe von Frame X gleich L
2. Mit FG ist die Latzen immer um t(F2)-t(F1) größer, weil wir bei den Ansatz immer F2 benötigen und damit warten müssen.
3. Sobald F2 vorliegt, muss die Abbildung und Hilfstruktur erzeugt werden und I1 berechnet, dies erhöht die Latzen nochmal um einen Wert LI
4. Die Zusätzliche Latzen LI ist aber konstant und steigt nicht, weil die Berechnung von I1, I2, .., Ix teilweise oder ganz parallel ausgeführt werden kann (ggf. auch schon zum Rendern des nächsten Frames)
augenauswischerei. 40fps mit aktivem FG drumherum ist eine absolute katastrophe, egal wie optimiert die engines sind. das ist ein reiner marketingmodus.
Das stimmt nur teilweise.
Beispielsweise das (zurecht) viel gescholtene Jedi Survivor rennt zwar teilweise nur mit 40FPS, aber das mit einer besseren Latenz als so manche Spiele mit 100FPS.
Wobei FG mehr zusätzliche Latenz erzeugt je niedriger die FPS sind, also 40 als Basis sind definitiv zu wenig.
00-Schneider
2023-05-24, 20:13:23
Hintergrund dieser Behauptung?
Weil nur ein Drittel der Information zur Bilderzeugung ggü. nur einem Zwischenbild vorliegt.
AMD wird dies für Qualitätsstufen nutzen, d.h. ein Zwischenbild ist "max quality", zwei "medium" und drei "low", ähnlich FSR2 mit der Ausgangsauflösung.
Das wird extrem starke Artefakte bilden.
Wenn die Frametime kurz genug ist, ist das vollkommen egal.
Weil nur ein Drittel der Information zur Bilderzeugung ggü. nur einem Zwischenbild vorliegt.
Falsch, die vorhandenen Informationen sind immer das vorhergehende und das nachfolgende (echte) Bild.
Es ist vollkommen unabhängig davon wieviele künstliche Bilder man dazwischen schiebt.
Achill
2023-05-24, 21:41:26
Weil nur ein Drittel der Information zur Bilderzeugung ggü. nur einem Zwischenbild vorliegt.
AMD wird dies für Qualitätsstufen nutzen, d.h. ein Zwischenbild ist "max quality", zwei "medium" und drei "low", ähnlich FSR2 mit der Ausgangsauflösung.
(Edit) Zumindest bei meinen aufgestellten Ansatz wäre dies Das ist falsch, es gibt immer die zwei "echten" Bilder. Jedes interpolierte Bild, ob jetzt eins oder mehrere, kann nur auf den zwei Datensätzen (F1 und F2) operieren. Jedes dieser "Zwischenbilder" ist also immer ähnlich falsch im Vergleich zu einem "echten" Bild. Es wird nichts "falscher" durch die reine Anzahl ...
Im Unterschied dazu kann man die Verteilung über alle Frames meinen, hier verschiebt sich natürlich das Verhältnis je mehr Frames mittels Interpolation (aka NV generated) erzeugt werden. Aber da wir dies ja hoffentlich auswählen können (später ja auch bei DLSS 3.x bzw XeSS 2.x) kann es dann jeder nach eigen Gefallen wählen: aus, 1, 2, .. n
basix
2023-05-24, 21:57:36
Weil nur ein Drittel der Information zur Bilderzeugung ggü. nur einem Zwischenbild vorliegt.
Du hast für jedes Bild genau gleich viele Informationen verfügbar. Und da es nichtlineare Motion Vectors sind, ist das Spacing des Zwischenframes eigentlich egal. Vielleicht kann man bei einem 1/2 Verhältnis einige Sachen im Algorithmus vereinfachen aber qualitativ sehe ich keinen Anhaltspunkt, dass sich das bei 1-3 Zwischenbildern in irgendeiner Form negativ auswirken sollte.
Ich hätte behauptet, dass die Artefaktneigung bei 1-3 Bildern nicht wesentlich unterschiedlich ist. Schlussendlich macht man bei 3 Bilder folgendes: Man berechnet die Motion Vectors für 3 anstatt 1 Bilder und Interpoliert mit einem unterschiedlichen Delta zwischen den Frames. That's it. Und solange es Intrapolation und nicht Extrapolation ist, ist es weniger heikel für schwere Fehler.
Jedes interpolierte Bild, ob jetzt eins oder mehrere, kann nur auf den zwei Datensätzen (F1 und F2) operieren.
Ist die Frage, wie du Datensatz F1 und F2 definierst. Das kann eine History über bis zu 72 Frames enthalten (im Falle von FSR2). Wie diese History aussieht und was sie beinhaltet bin ich überfragt, aber es stehen definitiv mehr Informationen zur Verfügung als nur Frame N und Frame N+1. Ausnahme: Wenn es in den Treiber integriert ist wie RSR, hat man im besten Fall nur die letzten paar Frames (History ist kürzer) und keine Engine Motion Vectors. Macht es sicher schwieriger.
Aber folgendem würde ich trotzdem zustimmen.
Jedes dieser "Zwischenbilder" ist also immer ähnlich falsch im Vergleich zu einem "echten" Bild. Es wird nichts "falscher" durch die reine Anzahl
Was allerdings sein kann ist, dass wenn ein Artefakt über alle 3 Zwischenbilder vorhanden ist, sich das stärker bemerkbar machen könnte. Grund: Artefakt wäre zu 75% der Zeit vorhanden anstatt nur zu 50% der Zeit.
Tesseract
2023-05-24, 22:17:44
Ist nicht super genial und nicht so fluppig wie 100fps gerendert, aber eine Katastrophe ist es nicht und definitiv deutlich besser als nur 40-50fps auf dem Schirm zu haben.
besser als 40-50fps ja aber eine katastrophe ist es trotzdem. der wechsel von CRT auf 60Hz TFT war schon nervig aber in zeiten von high refresh 120+ TFTs wieder auf (sub) 60 zu gehen finde ich persönlich absolut inakzeptabel, auch wenn die framerate rein visuell deutlich über nativen 60 liegt. da schraube ich vorher lieber am upscaling rum um die basis-fps höher zu bekommen.
Bei Nvidia im Falle von DLSS3 sicher. Bei AMD werden wir sehen. Ich hoffe, sie vermarkten es wie oben geschrieben nicht als Performance sondern als "Bild-Smoothness" Feature. Die Hoffnungen sind nicht extrem riesig aber auch nicht verschwindend klein ;) DLSS3 wurde zurecht von sehr vielen Seiten kritisiert, dass es eben nicht die "echte" Performance abbildet. Hoffe dass hat AMD ebenfalls mitbekommen.
DLSS3 ist grundlegend als nutzbares feature designt, vom reflex-zwang mit spielintegration bis zum optical flow accelerator. ob das marketing das als echte performance verkaufen will oder nicht, die technik dahinter ist auf nutzbarkeit ausgelegt. bei den FSR3-gerüchten sehe ich das nicht. mehrere inter-frames und aktivierung im treiber ergeben aus nutzbarkeitsicht keinen sinn soweit ich das beurteilen kann.
Das ist falsch, es gibt immer die zwei "echten" Bilder.
das weiß von uns hier keiner. im videobereich gibt es in einer typischen group of pictures mehrer verschiedene frametypen die sich unterschiedlich berechnen und ab einem gewissen punkt spielt auch die laufzeit der FG eine rolle. was AMD hier genau macht werden wir sehen wenn es raus ist.
vinacis_vivids
2023-05-24, 22:47:52
https://abload.de/thumb/amd-fsr-3-fidelityfx-65eiz.png (https://abload.de/image.php?img=amd-fsr-3-fidelityfx-65eiz.png)
FSR 3.0 mit Frame-Inter-Presentation sieht sehr regelmäßig aus. Die Technik wird sich wohl auf der PS5 Pro weitgehend durchsetzen. Ausgehend von hypothetisch 30fps native werden es dann ~120fps upcaled-interpoliert.
Die Technik ist auch für kleine APUs, mobile Handhelds und Notebooks interessant.
Dass AMD die Frameausgabe vervierfacht könnte der Gamechanger für 8k-Auflösung werden. Hier agiert AMD dank FSR 3.0 praktisch ohne Konkurrenz.
Das "Upscale"-Bild kann man auch in 4K rendern und dank dual-issue fp32 und auf dem 8K Monitor vervierfacht präsentieren.
Mit HDMI 2.1 und DSC sind dann 8k@120hz möglich. Das ist außerhalb der Konkurrenz.
Die Lösung ist einfach und genial.
Achill
2023-05-24, 23:02:59
[..]
Ist die Frage, wie du Datensatz F1 und F2 definierst.
Mit F1 meinte ich ein Ntes von der Game-Engine/Spiel gerendertes Frame. Mit F2 war dann der Nachfolger, dass N+1te von der Game-Engine/Spiel gerendetes Frame, gemeint. I1, I2, .. die interpolierten Frames zwischen F1 und F2.
Das kann eine History über bis zu 72 Frames enthalten (im Falle von FSR2). Wie diese History aussieht und was sie beinhaltet bin ich überfragt, aber es stehen definitiv mehr Informationen zur Verfügung als nur Frame N und Frame N+1. Ausnahme: Wenn es in den Treiber integriert ist wie RSR, hat man im besten Fall nur die letzten paar Frames (History ist kürzer) und keine Engine Motion Vectors. Macht es sicher schwieriger.
Hast du dazu eine Quelle? Oder ggf. selbst mal in den Quellcode geschaut? In der techn. Präsentation https://gpuopen.com/gdc-presentations/2022/GDC_FidelityFX_Super_Resolution_2_0.pdf wird auf Folie 51 nicht ersichtlich, dass es mehre Puffer für vergangene Bilder und Motion-Vektoren hält.
Ich könnte mir vorstellen, dass irgendwo gesagt wurde / steht, dass die Informationen von bis zu 72 vergangene Bilder im History-Buffer akkumuliert werden. Man kommt an diese dann aber nicht mehr konkret ran sondern es ist vielleicht der max. Informationsgehalt gemeint gewesen.
Auch die Datenmengen wären sehr groß, laut Folie Nr. 7 hat der History-Buffer das r16g16b16a16_float Format und ein Pixel ist damit 64Bit/8Byte groß. Ein Buffer für UHD als Ziel braucht also ~63MB pro Bild, es kommen dann noch die Motion-Vektoren und Masks hinzu (ignoriere ich einfach mal).
Bei angenommen 72 Bildern sind wir alleine für diese ~4.56 GB die man pro Frame verarbeiten müsste, da diese in keine Cache passen, müssen diese aus den VRAM gelesen werden. Bei 60 fps würde dies allein 266 GB/s an Bandbreite fressen ohne das die Anwendung überhaupt etwas anderes gemacht hat. Eine Indikation gibt auch Folie Nr 34, wo es schon die Information gibt, dass das Ziel UHD in Tiles verarbeitet werden sollte weil FSR2 nicht mehr gut im L3 Cache von RDNA2 ablaufen kann.
Was allerdings sein kann ist, dass wenn ein Artefakt über alle 3 Zwischenbilder vorhanden ist, sich das stärker bemerkbar machen könnte. Grund: Artefakt wäre zu 75% der Zeit vorhanden anstatt nur zu 50% der Zeit.
Das kommt auf die Abbildung an, ich würde davon ausgehen, dass ein Artefakt nie die ganze Zeit gleichmäßig da/sichtbar ist. Bin da aber zu wenig Computer-Grafik experte. Ich würde jedoch davon ausgehen, dass die interpolierten Frame an den Rändern / Grenze zu F1 und F2 weniger Artefakte haben als in der Mitte.
---
[..]
das weiß von uns hier keiner. im videobereich gibt es in einer typischen group of pictures mehrer verschiedene frametypen die sich unterschiedlich berechnen und ab einem gewissen punkt spielt auch die laufzeit der FG eine rolle. was AMD hier genau macht werden wir sehen wenn es raus ist.
Das stimmt - hab meinen Text verbessert, dass es nur falsch wäre unter meiner getroffenen Annahme/Behauptung.
Falsch, die vorhandenen Informationen sind immer das vorhergehende und das nachfolgende (echte) Bild.
...
das nachfolgende?
Taigatrommel
2023-05-25, 11:21:09
Laut Computerbase bahnt sich in Gollum eine FSR Pleite an (https://www.computerbase.de/2023-05/herr-der-ringe-gollum-raytracing-in-uhd-will-eine-rtx-4080-mit-dlss-performance/#update-2023-05-25T10:52):
Ein weiteres Problem gibt es beim Upsampling. Das Spiel bietet Nvidia DLSS 2 und DLSS 3 sowie AMD FSR 2. DLSS Super Resolution macht meist einen guten Eindruck und kann, sollte und muss in Ultra HD genutzt werden. Einzig manche Bloom nutzende Objekte können mit DLSS wie verrückt leuchten, dass ist dann störend. FSR 2 ist dagegen enttäuschend, hier stimmt schlicht irgend etwas nicht. Das gesamte Bild wird mit FSR 2 sehr unscharf, was mit der nativen Auflösung und DLSS nicht passiert. Da es auch keine Schärfe-Option gibt (für DLSS gibt es sie), ist FSR 2 aktuell nicht nutzbar, was für AMD-Grafikkarten ein großes Problem darstellt.
Wobei man berücksichtigen muss, dass es sich um eine Vorabversion für die Presse handelt und der Titel wohl generell massive technische Probleme bereithält. Es kann also gut sein, dass die Entwickler hier noch nachsteuern.
dargo
2023-05-25, 11:24:51
Ist CB nicht in der Lage reshade zu injecten oder noch einfacher den Schärferegler im Treiber zu verwenden? :freak:
Ist CB nicht in der Lage reshade zu injecten oder noch einfacher den Schärferegler im Treiber zu verwenden? :freak:
Was hat das eine mit dem anderen zu tun? "Ist Publikation XYZ nicht in der Lage, eine Voltage/Frequency Curve zu schnitzen, damit die versoffene Grafikkarte effizienter wird?" wäre eine ähnliche Kategorie. Werkszustand = Testmaterial. Alles andere ist Tuning/Frickeln. ;)
MfG
Raff
Exxtreme
2023-05-25, 11:32:11
Ist CB nicht in der Lage reshade zu injecten oder noch einfacher den Schärferegler im Treiber zu verwenden? :freak:
Naja, die Previews sind eher für Nicht-Frickler geschrieben. :freak: Zumal Reshade selbst nicht unproblematisch ist und zu Crashes führen kann.
Andererseits, wenn man sich die Previews zu diesem Spiel so durchliest dann hätte das Spiel anscheinend 6 Monate Reifezeit vertragen. Und da der Hersteller nichteinmal die Mindest-/empfohlenen Voraussetzungen für AMD-Karten auflistet, scheinen sie selbst keinen Plan zu haben wie es auf AMD-Karten so läuft.
dargo
2023-05-25, 11:34:35
Was hat das eine mit dem anderen zu tun? "Ist Publikation XYZ nicht in der Lage, eine Voltage/Frequency Curve zu schnitzen, damit die versoffene Grafikkarte effizienter wird?" wäre eine ähnliche Kategorie. Werkszustand = Testmaterial. Alles andere ist Tuning/Frickeln. ;)
Eine Treiberoption ist bei dir frickeln? :freak: Dann sind Game-Grafikoptionen also auch frickeln. :uup: Am besten gleich das ganze Upscaling-Gedöns lassen denn das ist auch nichts anderes als frickeln.
Achill
2023-05-25, 11:38:19
Ist CB nicht in der Lage reshade zu injecten oder noch einfacher den Schärferegler im Treiber zu verwenden? :freak:
Sollte schon im Spiel umgesetzt werden, externe Tools werden >80% der Gamer nicht nutzen/kennen.
--
Eine Treiberoption ist bei dir frickeln? :freak: Dann sind Game-Grafikoptionen also auch frickeln. :uup: Am besten gleich das ganze Upscaling-Gedöns lassen denn das ist auch nichts anderes als frickeln.
Du hast recht das es diese im Treiber gibt, bin mir aber da nicht sicher, wie viele Nutzer von AMD's und NV's GPUs wissen und nutzen ..
dargo
2023-05-25, 11:46:13
Du hast recht das es diese im Treiber gibt, bin mir aber da nicht sicher, wie viele Nutzer von AMD's und NV's GPUs wissen und nutzen ..
Das gleiche könnte ich dann auch auf die Nutzer übertragen die keine Grafikoptionen Ingame verwenden. Solche Spieler sind wirklich bei einer Konsole besser aufgehoben. Also zumindest offizielle Grafikkartenoptionen wäre ein Mindestmaß an Wissen als PC-Spieler.
DrFreaK666
2023-05-25, 12:05:37
...Du hast recht das es diese im Treiber gibt, bin mir aber da nicht sicher, wie viele Nutzer von AMD's und NV's GPUs wissen und nutzen ..
Das im Artikel mitsamt Screenshot zu vermitteln sollte kein Hexenwerk darstellen.
https://www.amd.com/de/technologies/radeon-image-sharpening
Ist CB nicht in der Lage reshade zu injecten oder noch einfacher den Schärferegler im Treiber zu verwenden? :freak:
Was trotzdem eine Suboptimale Lösung ist, da damit HUD&Co überschärft werden.
aufkrawall
2023-05-25, 18:58:45
Endlich fällt mal einem Textschreiber das Bloom-Problem mit DLSS auf...
Was trotzdem eine Suboptimale Lösung ist, da damit HUD&Co überschärft werden.
Ist mit CAS mangels Ringing aber kein nennenswertes Problem. Da Texte in Spielen kein Subpixel-AA haben, kann das oft sogar mit CAS besser aussehen.
Ist aber die Frage, obs nur das Sharpen ist, oder ob der Entwickler hier auch das Mip-Bias mit FSR 2 vergeigt hat. Wobei das eigentlich mit dem UE Plug-In automatisch gehen sollte?
Achill
2023-05-25, 19:15:07
[..]
Ist aber die Frage, obs nur das Sharpen ist, oder ob der Entwickler hier auch das Mip-Bias mit FSR 2 vergeigt hat. Wobei das eigentlich mit dem UE Plug-In automatisch gehen sollte?
Ist konfigurierbar beim Plugin (r.FidelityFX.FSR2.AdjustMipBias), könnte (warum auch immer) nicht aktiviert sein bzw. deaktiviert werden. Default bei den neuen Versionen ist "1".
Ist mit CAS mangels Ringing aber kein nennenswertes Problem.
Jede Form von Sharpening erzeugt Ringing, auch wenn es mit CAS sehr gut unter Kontrolle ist.
könnte (warum auch immer) nicht aktiviert sein bzw. deaktiviert werden.
Weil die LOD-Vorgaben von AMD viel zu aggressiv sind um mit hochfrequentem Material zu funktionieren.
dildo4u
2023-06-04, 09:49:12
Hängt vermutlich vom Content ab aber FSR2 gefällt besser als TAA in Diablo 4 selbst in 1080p.
GTX 1070 alles Maxed bringt mich ca von 80 auf 100fps mit FSRQ.
Achill
2023-06-04, 11:07:11
Hängt vermutlich vom Content ab aber FSR2 gefällt besser als TAA in Diablo 4 selbst in 1080p.
GTX 1070 alles Maxed bringt mich ca von 80 auf 100fps mit FSRQ.
Ja, ich habe auch noch keine Artefakte in D4 mit FSR2@Q gesehen. Wir können dies also gern als eine sehr gute Implementierung ansehen und haben damit ggf. eine Referenz was möglich ist, wenn das Studio/Publisher nur will. Ich denke es ist auch klar warum, Blizzard will möglichst viele Systemkonfigurationen zu möglichen potenziellen Käufern machen.
Btw. spiele es mit 90fps Limit in UHD weil wir haben Sommer und jedes Watt weniger lässt meine Zimmer kühler bleiben (avg ist damit ~160W).
aufkrawall
2023-06-05, 00:23:14
Hängt vermutlich vom Content ab aber FSR2 gefällt besser als TAA in Diablo 4 selbst in 1080p.
Ja, das TAA hat hässlichen Jitter bei den Schlamm-Pfützen und sieht grobpixelig aus.
Ist hier wohl eine ähnliche Situation wie in No Man's Sky, wobei das TAA da sogar noch schlimmer zu sein scheint.
Wir können dies also gern als eine sehr gute Implementierung ansehen und haben damit ggf. eine Referenz was möglich ist, wenn das Studio/Publisher nur will.
Isometrische Ansicht aus fixem Winkel mit quasi nur 2 Freiheitsgraden ist praktisch das Optimum für Upsampling welches auf temporalen Daten basiert.
Da ist weder die Technik noch die Implementierung besonders gut, es ist schlicht und ergreifend die Beschränkungen des Contents die mit dieser Technik sehr gut funktionieren.
Exxtreme
2023-06-05, 08:49:20
Hängt vermutlich vom Content ab aber FSR2 gefällt besser als TAA in Diablo 4 selbst in 1080p.
GTX 1070 alles Maxed bringt mich ca von 80 auf 100fps mit FSRQ.
FSR und DLSS sind technisch gesehen ein gepimptes TAA. ;) Und ja, TAA ist nicht der Hit was Bildqualität angeht. Hier ist klassisches SSAA immer noch the king of the hill. TAA hat aber den Vorteil, dass es sehr billig ist und viel besser aussieht als FXAA.
Und ja, TAA ist nicht der Hit was Bildqualität angeht. Hier ist klassisches SSAA immer noch the king of the hill.
Nur für einen Single Frame.
Die temporale Stabilität von TAA ist wesentlich höher, bzw. bräuchte man eine unrealistische Anzahl an Samples um mit SSAA auf eine vergleichbare Stabilität zu kommen.
aufkrawall
2023-06-05, 09:50:28
Schwer zu vergleichen, weil SSAA über Höher-/Mehrfachberechnung pro Frame nicht die Disocclusion-Probleme etc. hat.
Aber ja, temporale Samples sind realistisch betrachtet alternativlos. Die jeweiligen Vorteile von DLSS, FSR und TSR zeigen auch, dass da noch lange nicht das Ende der Fahnenstange erreicht sein dürfte.
Nachdem ich Diablo 4 nun auch mal mit FSR testen konnte, muss ich ganz klar sagen, das Lob der Qualität kam deutlich verfrüht.
Ja, in der Stadt und beim umherwandern sieht es einwandfrei aus.
Im Kampf mit zig Zaubern und Effekten ist es aber grausam, weil es unter praktisch jedem Zaubereffekt das typische FSR-Kriseln gibt.
DrFreaK666
2023-06-13, 13:10:24
FSR hat vor wenigen Tagen einen Hotfix erhalten.
Aber wohl keine großartigen Verbesserungen zu erwarten
https://gpuopen.com/fsr2-2-1-hotfix/
Lurtz
2023-06-13, 13:30:25
Wieso hotfixt man das, dauert doch eh Monate bis es mal in einem Spiel landet... ;D
robbitop
2023-06-13, 22:56:41
Das (fsr 2.2) war doch schon in ein paar Spielen von 2022. Sogar lange bevor es auf github releast wurde.
Nachdem ich Diablo 4 nun auch mal mit FSR testen konnte, muss ich ganz klar sagen, das Lob der Qualität kam deutlich verfrüht.
Ja, in der Stadt und beim umherwandern sieht es einwandfrei aus.
Im Kampf mit zig Zaubern und Effekten ist es aber grausam, weil es unter praktisch jedem Zaubereffekt das typische FSR-Kriseln gibt.
Kann ich nicht bestätigen. Spiele mit der Einstellung Qualität. Ich finde Blizzard hat hier tolle Arbeit geleistet, ich sehe kaum einen Unterschied gegenüber der nativen Einstellung.
Gast_samm
2023-06-14, 06:00:59
Wieso hotfixt man das, dauert doch eh Monate bis es mal in einem Spiel landet... ;DKann auch einfach mit deren Release-Management zusammenhängen, dass das "Hotfix" heisst: Ein branch, der vom letzten Release ausgehend - z.B. von einem früheren als dem aktuellsten commit auf einem dev-Branch - sowohl in den release / main als auch dev branch zurückgemerged wird.
Adam D.
2023-06-14, 10:14:04
Kann ich nicht bestätigen. Spiele mit der Einstellung Qualität. Ich finde Blizzard hat hier tolle Arbeit geleistet, ich sehe kaum einen Unterschied gegenüber der nativen Einstellung.
Kann ich auch überhaupt nicht nachvollziehen, 4k + FSR-Q liefert bei mir absolut vorbildliche Ergebnisse.
dildo4u
2023-06-15, 12:10:55
Hab das gerade erst gefunden AMD muss endlich FSR AI Optimierungen bringen auch wenn es RDNA3 only ist.
Ich hoffe sie nutzen es nicht nur für Framegeneartion sondern auch Qualität.
https://www.tomshardware.com/news/stable-diffusion-gpu-benchmarks
BlacKi
2023-06-23, 11:40:56
Das (fsr 2.2) war doch schon in ein paar Spielen von 2022. Sogar lange bevor es auf github releast wurde.
wie ist das eigentlich bei fsr. wie erkenne ich um welche version es sich handelt? kann ich die selbst updaten? gibts das update extra zum downloaden?
aufkrawall
2023-06-23, 11:46:57
Kurze Antwort: 3x nein.
Achill
2023-06-23, 20:43:40
Kurze Antwort: 3x nein.
Bei Unreal Engine Spielen kann man die Version vom FSR2 Plugin bestimmen wenn die PAKs nicht encrypted sind.
Ich habs hier in eng. beschrieben: https://www.techpowerup.com/forums/threads/star-wars-jedi-survivor-fsr-2-2.307978/page-2
just4FunTA
2023-06-23, 21:08:52
kurz FSR in f1 2023 ausprobiert und es sieht immernoch scheisse aus. ;)
4K @42"
FSR läuft deutlich langsamer als XeSS auf einer A380 in F1 23, was mich sehr wundert.
Bright Memory Infinite unterstützt FSR 2.2 und XeSS 1.1, was ich mir mal angesehen habe. FSR quality langsamer als XeSS high quality. Auch die Qualität ist schlechter, starkes ghosting am Boden bei FSR. XeSS sieht deutlich sauberer aus.
FSR läuft deutlich langsamer als XeSS auf einer A380 in F1 23, was mich sehr wundert.
Wundert mich nicht. DLSS läuft auf der GeForce auch schneller als FSR.
XeSS auf Arc kann eben XMX benutzen, FSR nicht.
robbitop
2023-06-29, 16:46:35
IIRC liegt FSR 2 und DLSS 2 so ziemlich im gleichen Bereich des Hits in Benchmarks die ich bisher gesehen habe. Wenn dann war der Unterschied wirklich extremst marginal.
Lurtz
2023-06-29, 16:52:39
Gamestar behauptet in dem Starfield-Video FSR2 würde regelmäßig schlechtere Performance als DLSS2 liefern. Alte FUD-Schleuder... :ugly:
Die haben ja nicht mal verstanden, dass eine 4090 für Jedi Survivor reicht und sie einfach nur im CPU-Limit hängen :facepalm:
Gamestar behauptet in dem Starfield-Video FSR2 würde regelmäßig schlechtere Performance als DLSS2 liefern. Alte FUD-Schleuder... :ugly:
Auf einer Nvidia-Karte stimmt das ja auch. Und auf anderen ist kein Vergleich möglich.
Lurtz
2023-06-29, 22:14:11
Auf einer Nvidia-Karte stimmt das ja auch. Und auf anderen ist kein Vergleich möglich.
Wo soll das der Fall sein?
Wo soll das der Fall sein?
In jedem Spiel dass DLSS und FSR unterstützt?
Wo soll das der Fall sein?
In fast jedem Spiel: https://youtu.be/1WM_w7TBbj0?t=1355
DLSS, dann XeSS, dann FSR.
Platos
2023-06-30, 01:18:04
Interessanter Test, kannte ich noch nicht.
Interessant ist auch, dass je höher die Auflösung wird, desto weniger (aber immer noch) überlegen ist DLSS gegenüber FSR aus Sicht von Hardwareunboxed.
Man könnte jetzt spekulieren, dass sie einfach nicht dazu fähig sind, diese Fehler zu erkennen, da ja die Auflösung und somit die insgesamte Bildqualität steigt (oder sie als nicht so gravierend einstufen)
Oder aber, FSR kommt mit niedrigeren Inputauflösungen einfach schlechter klar.
Ich kann das beispielsweise am Witcher 3 ausmachen: Für mich persönlich ist DLSS da MEILENWEIT voraus in 4k, im Test gibt es aber nur "ein" Plus. Gerade bei Felder (Weizen z.B) ist DLSS Quality in Witcher 3 einfach so viel besser, wie FSR auf höchster Stufe (bzw. allg. bei Bewegung). Wärend dem DLSS Quality sogar besser wie nativ ist, ist FSR da schlechter wie nativ. Also das ist schon ein riesen Unterschied für mich.
Von daher habe ich so die Vermutung, dass die das einfach nicht so sehen (wortwörtlich), wie ich :D
Naja, Augen sind halt subjektiv.
DrFreaK666
2023-06-30, 01:22:17
Dass FSR bei niedrigen Auflösungen schlechter performt, wurde schon mehrmals erwähnt
robbitop
2023-06-30, 07:02:13
Performance =/ BQ. Die Performance pro Preset ist nach allen Bemchmarks die ich kenne so ähnlich, dass sie in der Messtoleranz liegt.
Wenn es um Bildqualität gehen soll: jap da ist DLSS absolut unangefochten. Ist aber schon merkwürdig Bildqualität als „Performance“ zu bezeichnen.
—————————
Was die Auflösung angeht. Je niedriger siese ist, desto mehr trennt sich die Spreu vom Weizen.
Je mehr Auflösung desto geringer werden Artefakte sichtbar und desto mehr Informationen stehen zur Rekonstruktion zur Verfügung.
The_Invisible
2023-06-30, 08:11:09
Hier hat Nvidia/Intel halt einen Vorteil durch ihren AI Ansatz in niedrigen inputauflösungen.
Würde mich nicht wundern wenn AMD hier was nachschiebt für ihre RDNA3 KI-Kerne, eventuell sogar zusammen mit fsr3? Ist halt irgendwie auch verdächtig still...
Troyan
2023-06-30, 09:34:00
FSR läuft deutlich langsamer als XeSS auf einer A380 in F1 23, was mich sehr wundert.
Bright Memory Infinite unterstützt FSR 2.2 und XeSS 1.1, was ich mir mal angesehen habe. FSR quality langsamer als XeSS high quality. Auch die Qualität ist schlechter, starkes ghosting am Boden bei FSR. XeSS sieht deutlich sauberer aus.
FSR ist in F1 23 eine absolute Beleidigung. Kein Plan, wie man das so einbauen kann. Selbst das Spiele-eigene Upscaling (dynamische Auflösung) ist Lichtjahre besser.
Gipsel
2023-06-30, 11:43:06
In fast jedem Spiel: https://youtu.be/1WM_w7TBbj0?t=1355Die Diskussion drehte sich um Performance (wie in Framerate), nicht um die Qualitätsbewertung. ;)
Exxtreme
2023-06-30, 11:50:04
Die haben ja nicht mal verstanden, dass eine 4090 für Jedi Survivor reicht und sie einfach nur im CPU-Limit hängen :facepalm:
Das Problem ist, es ist nicht sehr trivial in Jedi Survivor die Upscaler zu deaktivieren. Sobald du eine andere Bildqualität als "Epic" einstellst, hast du Zwangs-Upscaling drin, egal ob du in den Optionen FSR2 deaktivierst oder nicht.
Die Diskussion drehte sich um Performance (wie in Framerate), nicht um die Qualitätsbewertung. ;)
Auf NV Karten ist DLSS auch schneller. Die Unterschiede sind nicht groß, aber es ist schneller.
DrFreaK666
2023-06-30, 12:25:19
Performance =/ BQ. Die Performance pro Preset ist nach allen Bemchmarks die ich kenne so ähnlich, dass sie in der Messtoleranz liegt.
Wenn es um Bildqualität gehen soll: jap da ist DLSS absolut unangefochten. Ist aber schon merkwürdig Bildqualität als „Performance“ zu bezeichnen.
—————————
Was die Auflösung angeht. Je niedriger siese ist, desto mehr trennt sich die Spreu vom Weizen.
Je mehr Auflösung desto geringer werden Artefakte sichtbar und desto mehr Informationen stehen zur Rekonstruktion zur Verfügung.
Ja, mir ging es schon um BQ. Hab mich missverständlich ausgedrückt.
Was Performance angeht, hat Steve von HWU vor ein paar Monaten DLSS und FSR verglichen. Die Unterschiede waren verschwindend gering
Lurtz
2023-06-30, 12:29:51
In fast jedem Spiel: https://youtu.be/1WM_w7TBbj0?t=1355
DLSS, dann XeSS, dann FSR.
Ich meinte Performance, nicht Bildqualität.
Das Problem ist, es ist nicht sehr trivial in Jedi Survivor die Upscaler zu deaktivieren. Sobald du eine andere Bildqualität als "Epic" einstellst, hast du Zwangs-Upscaling drin, egal ob du in den Optionen FSR2 deaktivierst oder nicht.
Das wurde doch gepatcht, dachte ich.
Wiseman
2023-06-30, 15:07:54
Also Diablo IV schaut in 5760x3240 supi-dupi aus mit FSR2 Quality. Ich weiß, wovon ich rede, denn ich spiele es so. :biggrin:
Enjoy da 1440p screenie. *
* Das Hochladen eines 2160p-Screenshots schlug leider fehl.
aufkrawall
2023-06-30, 15:41:57
Hier hat Nvidia/Intel halt einen Vorteil durch ihren AI Ansatz in niedrigen inputauflösungen.
Das ist vergleichsweise unbedeutend vs. die schlechtere Disocclusion und Bearbeitung von Effekten.
Würde mich nicht wundern wenn AMD hier was nachschiebt für ihre RDNA3 KI-Kerne, eventuell sogar zusammen mit fsr3? Ist halt irgendwie auch verdächtig still...
Ich würd da gar nichts erwarten, da offenbar die real erreichbare FP16-Performance von RDNA3 ziemlich schlecht gegen Nvidia TCs ist.
Platos
2023-06-30, 16:52:35
Die Diskussion drehte sich um Performance (wie in Framerate), nicht um die Qualitätsbewertung. ;)
Wenn DLSS bessere Qualität liefert, kann man auch ne Stufe runter stellen, und hat möglicherweise je nach Spiel immer noch die gleich gute Qualität, wie bei FSR.
Ergo ist es sehr wohl schneller.
Dass die auf der selben Einstellung (Quality, Perfomance etc) in etwa ~ gleich schnell sind, liegt doch auf der Hand. Muss es ja, sonst wären sie ja in Benches schlechter.
aufkrawall
2023-06-30, 16:57:37
Man braucht nicht lange suchen, um Ergebnisse zu finden, bei denen DLSS Performance besser aussieht als FSR 2 Quality. Das ist aber nicht generalisierbar und auch mit DLSS werden RT-Reflexionen dann halt unansehnlicher Matsch. Im Zweifel bleibt man besser bei Äpfel vs. Äpfel-Vergleichen, man kann nicht alles in Balken abbilden.
Das ist aber nicht generalisierbar und auch mit DLSS werden RT-Reflexionen dann halt unansehnlicher Matsch.
Nicht in jedem Spiel.
Also Diablo IV schaut in 5760x3240 supi-dupi aus mit FSR2 Quality. Ich weiß, wovon ich rede, denn ich spiele es so. :biggrin:
Auf den Aussichtspunkten schon.
Im Spiel je nachdem. Wenn du einen Build der Projectiles verschießt hast du am Boden unter jedem der Projectiles das wunderschöne FSR Dissoclusion-Grieseln.
Tesseract
2023-07-04, 21:09:51
hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=615554&page=3) gehts weiter mit feature-gate
vinacis_vivids
2023-07-04, 21:22:14
https://youtu.be/QPZKqccdBFU
The Last of Us FSR vs DLSS
FSR sieht exzellent aus.
TheAntitheist
2023-07-04, 23:40:37
Also Diablo IV schaut in 5760x3240 supi-dupi aus mit FSR2 Quality. Ich weiß, wovon ich rede, denn ich spiele es so. :biggrin:
Enjoy da 1440p screenie. *
* Das Hochladen eines 2160p-Screenshots schlug leider fehl.
danke, auf Standbildern siehts immer gut aus, wurde das hier nicht x trillionen mal durchgekaut?
ChaosTM
2023-07-04, 23:58:27
https://youtu.be/QPZKqccdBFU
The Last of Us FSR vs DLSS
FSR sieht exzellent aus.
Hast du dieses Video wirtlich gesehen?
Ich vergleiche momentan mit einem 4k 28er IPS Monitor und einem recht
gutem 55er 2160p VA TV
FSR ist gut, aber DLSS ist sichtbar besser, speziell in Bewegung
Platos
2023-07-05, 02:18:42
Sprachlich gesehen hat er dem nicht widersprochen :D
Aber er würde sowieso nie ein gutes Wort üner nvidia/Intel verlieren. Was erwartest du ?
vinacis_vivids
2023-07-06, 18:50:43
https://www.computerbase.de/2023-07/f1-23-benchmark-test/#abschnitt_benchmarks_ohne_raytracing
https://abload.de/thumb/2023-07-0618_46_04-f1kxf0m.png (https://abload.de/image.php?img=2023-07-0618_46_04-f1kxf0m.png)
Mit der RX 7900XTX gibs RT als freie Zugabe zu FSR (fast) ohne Leistungsverlust ggü. 1440p native. Hier wurde fp16 zugeschaltet. Weiß nicht ob die AI-Cores mit WMMA auch benutzt werden oder nicht, wenn nicht, steckt ja noch Potential bei FSR.
Langlay
2023-07-06, 19:25:43
https://www.computerbase.de/2023-07/f1-23-benchmark-test/#abschnitt_benchmarks_ohne_raytracing
https://abload.de/thumb/2023-07-0618_46_04-f1kxf0m.png (https://abload.de/image.php?img=2023-07-0618_46_04-f1kxf0m.png)
Mit der RX 7900XTX gibs RT als freie Zugabe zu FSR (fast) ohne Leistungsverlust ggü. 1440p native. Hier wurde fp16 zugeschaltet. Weiß nicht ob die AI-Cores mit WMMA auch benutzt werden oder nicht, wenn nicht, steckt ja noch Potential bei FSR.
Von FP16 steht dort allerdings nichts. Aber auch allgemein ergibt das Geschriebsel von Computerbase dazu nicht viel Sinn.
So ist in Ultra HD die GeForce RTX 4080 bei aktivierten Strahlen 13 Prozent zügiger unterwegs als die Radeon RX 7900 XTX, in WQHD sind es klar höhere 30 Prozent. Hier zeigt sich eine Auffälligkeit: FSR 2 „Quality“ kostet auf einer Radeon quasi keine Rechenleistung, wenn Raytracing genutzt wird.
Ohne die Strahlen kostet FSR 2 viel mehr Performance, Gleiches gilt für DLSS auf einer GeForce. Offenbar blockiert irgendetwas die Render-Pipeline einer Radeon bei Raytracing, sodass der FSR-Algorithmus keine zusätzliche Leistung vereinnahmt. Das sollten sich die Entwickler noch mal genauer ansehen.
Exxtreme
2023-07-06, 19:42:13
Wäre interessant ob andere RT-Spiele ebenfalls so skalieren. Wenn ja dann könnte die Radeon RT und Upscaling eventuell parallel ausführen bzw. die vorhandenen Einheiten besser auslasten.
vinacis_vivids
2023-07-06, 20:25:14
RDNA2 profitiert auch davon, ist nichts RDNA3 spezifisches. Die 6800XT 78fps FSR und 80fps 1440p native nahezu ohne Geschwindigkeitsverlust.
Bei reiner fp16-Leistung käme die 6950XT an die RTX4080 ran. Müsste sowas mal in Ultra-P FSR probieren, also 300% upscale ggü. native rendering.
robbitop
2023-07-07, 08:32:37
Auch Ada verdoppelt ihren Throughput mit FP16. Zumal reine FP Leistung selten der Flaschenhals ist.
vinacis_vivids
2023-07-07, 11:43:47
Nein, Ada kann keine fp16 verdoppeln.
Achill
2023-07-07, 12:00:55
Wäre interessant ob andere RT-Spiele ebenfalls so skalieren. Wenn ja dann könnte die Radeon RT und Upscaling eventuell parallel ausführen bzw. die vorhandenen Einheiten besser auslasten.
Ich kenne nicht die Charakteristik wie RT auf der AMD Architektur welche Einheiten auslastet. Wenn nichts durch Studio/Team anders umgesetzt wurde, so läuft FSR 2 (und wahrscheinlich genauso DLSS X sowie XeSS) mittels Async Compute. Die Hardware kann dies ja nun endlich bei jeden Anbieter seit ein paar Generationen.
The_Invisible
2023-07-07, 15:01:45
https://www.computerbase.de/2023-07/f1-23-benchmark-test/#abschnitt_benchmarks_ohne_raytracing
https://abload.de/thumb/2023-07-0618_46_04-f1kxf0m.png (https://abload.de/image.php?img=2023-07-0618_46_04-f1kxf0m.png)
Mit der RX 7900XTX gibs RT als freie Zugabe zu FSR (fast) ohne Leistungsverlust ggü. 1440p native. Hier wurde fp16 zugeschaltet. Weiß nicht ob die AI-Cores mit WMMA auch benutzt werden oder nicht, wenn nicht, steckt ja noch Potential bei FSR.
Hilft halt auch nix wenn FSR wieder mal (viel) schlechter aussieht als DLSS und eine 4080 trotzdem schneller ist, dabei wurde nicht mal mit RT High getestet und ohne DLSS3.
Langlay
2023-07-07, 15:50:06
Bei reiner fp16-Leistung käme die 6950XT an die RTX4080 ran.
Das stimmt aber nur wenn man die Tensor Cores von der 4080 unterm Tisch fallen lässt.
vinacis_vivids
2023-07-07, 18:09:24
Tensor Cores können kein echtes fp16-shading, auch kein RT-shading mit fp16, sondern lediglich Matrix-Multiplikation mit fp16.
basix
2023-07-07, 18:31:06
Wenn man Algorithmen auf DX12 WMMA umschreibt, können die auch "echtes FP16-Shading" ;)
Langlay
2023-07-07, 18:39:59
Tensor Cores können kein echtes fp16-shading, auch kein RT-shading mit fp16, sondern lediglich Matrix-Multiplikation mit fp16.
Das stimmt nicht.
https://www.techspot.com/article/2049-what-are-tensor-cores/
Wenn ich Matrix rechnen kann, kann ich auch Skalar rechnen. Es ist halt nur ungefähr so als ob ich einen Supercomputer nutze um das kleine 1x1 berechnen zu lassen.
robbitop
2023-07-07, 18:54:49
Wundert mich ehrlich gesagt, dass NV doppelten FP16 Vektordurchsatz seit Ampere hat liegen lassen. Turing konnte das noch. Bei AMD ging das seit Vega iirc bis zu rdna3. (wobei laut chipsandcheese Messungen N31 (zumindest außerhalb von wmma) auch nicht mehr durch fp16 profitiert.)
BlacKi
2023-07-07, 19:20:39
welche spiele erlauben ein updaten von fsr?
Wundert mich ehrlich gesagt, dass NV doppelten FP16 Vektordurchsatz seit Ampere hat liegen lassen. Turing konnte das noch.
Ampere kann das genauso, Ada auch.
(Non-Matrix) Tensor hat sich überhaupt nicht geändert, was sich geändert hat, ist dass FP32 nach Turing verdoppelt wurde.
Damit hat sich zwar der Peak-Durchsatz von FP32 zu FP16 von Turing zu Ampere von 1:2 auf 1:1 geändert, aber nicht weil FP16 langsamer ist, sondern weil FP32 schneller wurde.
Und was sogar verbessert wurde, ist die parallele Verarbeitung von FP32, RT und Tensor/FP16.
Long story short, FP16 wurde ab Ampere nicht verschlechtert, FP32 wurde nur stärker skaliert.
Platos
2023-07-07, 20:49:41
Um mal auf FSR zurückzukommen:
Hat mal hier jemand Riftbreaker mit FSR und Nativ plus TXAA verglichen (alles auf Ultra sonst) ? Hat ja mittlerweile FSR 2 und in 4k sieht das mit FSR 2 richtig schlecht aus. Bin direkt erschrocken, als ich es umgestellt habe, so auffällig ist das.
Hat Riftbreaker ne besonders schlechte Implementierung von FSR 2? Weil es sieht so aus, als wäre es ein anderes Textursetting. Vor allem die Vegetation (Gras z.B).
Hat das hier jemand ausprobiert ? Also mit FSR 2.
robbitop
2023-07-07, 20:56:56
welche spiele erlauben ein updaten von fsr?
Im Sinne einer höheren Version? Ohne mods gar keine iirc.
robbitop
2023-07-07, 20:58:45
Ampere kann das genauso, Ada auch.
(Non-Matrix) Tensor hat sich überhaupt nicht geändert, was sich geändert hat, ist dass FP32 nach Turing verdoppelt wurde.
Damit hat sich zwar der Peak-Durchsatz von FP32 zu FP16 von Turing zu Ampere von 1:2 auf 1:1 geändert, aber nicht weil FP16 langsamer ist, sondern weil FP32 schneller wurde.
Und was sogar verbessert wurde, ist die parallele Verarbeitung von FP32, RT und Tensor/FP16.
Long story short, FP16 wurde ab Ampere nicht verschlechtert, FP32 wurde nur stärker skaliert.
Bei RDNA3 scheint das anders zu sein. Da wurde pro WGP durch dual issue fp32 verdoppelt aber on top gibt es eine weitere Verdopplung zu FP16. Zumindest gibt AMD das so an.
Bei RDNA3 scheint das anders zu sein. Da wurde pro WGP durch dual issue fp32 verdoppelt aber on top gibt es eine weitere Verdopplung zu FP16. Zumindest gibt AMD das so an.
ich frag mich dann nur wo dann die ganze Leistung liegen bleibt, Pro takt sind das nur 10-15% über RDNA2, es scheint so als ob die Arch am Ende ist, denn auch ein Monolitisches design aka n33 ist ja auch nicht schneller geworden
Gipsel
2023-07-07, 22:41:02
Bitte nicht in eine allgemeine Architekturdiskussion abdriften! Hier soll es um FSR2 gehen.
Exxtreme
2023-07-07, 22:41:08
ich frag mich dann nur wo dann die ganze Leistung liegen bleibt, Pro takt sind das nur 10-15% über RDNA2, es scheint so als ob die Arch am Ende ist, denn auch ein Monolitisches design aka n33 ist ja auch nicht schneller geworden
Die Computergrafik besteht ja nicht aus 100% FP16/FP32. :) Deshalb skaliert das auch nicht so wirklich.
BlacKi
2023-07-07, 23:43:26
Im Sinne einer höheren Version? Ohne mods gar keine iirc.
was passiert wenn man die fsr daten gegen neuere ersetzt? im multiplayer wird der anticheat anspringen, und im singleplayer?
Bei RDNA3 scheint das anders zu sein. Da wurde pro WGP durch dual issue fp32 verdoppelt aber on top gibt es eine weitere Verdopplung zu FP16. Zumindest gibt AMD das so an.
Bei RDNA3 rechnen auch die FP32-Cores FP16 mit doppeltem Durchsatz.
Logischerweise verdoppelt sich damit mit Verdopplung der FP32 Cores auch der FP16 Durchsatz.
Nvidia hat dedizierte FP32 und FP16(aká Tensor) Cores.
Von Turing auf Ampere hat man die FP32 Cores verdoppelt, die FP16 Cores gleich gelassen, wodurch wieder ein Peak-Durchsatz von 1:1 entsteht.
In der Praxis hat Nvidia allerdings den Vorteil FP16 nebenläufig abarbeiten zu können. Bei AMD können die FP32 zwar FP16 doppelt so schnell, aber dann logischerweise kein FP32 mehr.
Bei Mischcode ist also Nvidia vom Vorteil, erst mit >50% FP16 Anteil kann AMD einen Vorteil haben, wobei das in der Praxis eher selten der Fall sein dürfte.
Die Computergrafik besteht ja nicht aus 100% FP16/FP32. :) Deshalb skaliert das auch nicht so wirklich.
da hast du Recht, aber shaderanzahl und Bandbreite ging auch hoch, nur brachte alles kaum Leistung.
robbitop
2023-07-09, 19:52:39
Interessant fand ich (DF Video) dass Apples Upsampling Technik „Metal FX temporal“ im getesteten Spiel (No Mans Sky) besser zu funktionieren schien als FSR 2.
https://youtu.be/jTsc_UvlT3E
Und das neuste TSR scheint ja auch vielversprechend zu sein. Beides nutzt kein NN. Ggf vielversprechend für NN freie, IHV agnostische Verfahren. Bei FSR kam ja nun leider seit 8…9 Monaten kein Upgrade mehr. Ggf gibts auch abseits der Bildverdopplung mit FSR3 noch ordentliche Verbesserungen.
aufkrawall
2023-07-10, 11:22:20
Schon peinlich, dass Microsoft und Sony hier nicht nachlegen.
Trotzdem bekommt FSR 2 zu viel Gülle von YT-Clickbaitern und hysterischen NV-Fanboys ab. Auch im gescholtenen Jedi Survivor springen einem direkt in der ersten Szene lauter üble TAA-Fails an, die mit FSR 2 deutlich reduziert werden.
Bei DLSS hat sich seit dem "Glücksgriff" Preset C seit Januar 2022 nicht wirklich etwas bei der Qualität getan und es gibt auch damit immer noch diverse Fails. Sah in dem (extrem oberflächlichen) DF-Video ja auch teilweise schlechter als Metal FX aus. Aber gut, scheint viele Leute nicht zu stören. Oder nicht zu sehr. Was auch etwas aussagt...
dildo4u
2023-07-10, 11:56:02
Die Strategie könnte sein das 2.3 Verbesserungen mit FSR 3 kommen, da man zu dem Zeitpunkt wieder neue Test Videos erwarten kann..
Starfield wird massiv CPU limitiert sein das sollte wenn möglich der erste Titel mit AMDs Framegeneration sein.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.