Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution (FSR)
Seiten :
1
2
3
4
5
6
7
[
8]
9
Platos
2022-03-15, 19:59:20
Also rechts ist ja wirklich grauenhaft. Wer tut sich das bitte an? Die zwei Versionen sind ja schon wie 2 verschiedene Auflösungsstufen. Richtig mies das Rechte. Und das ganze dann bei weit unterhalb von 10% FPS Unterschied :D
aufkrawall
2022-03-15, 21:01:37
Also rechts ist ja wirklich grauenhaft. Wer tut sich das bitte an?
Leute, die mit FSR spielen. :D
DrFreaK666
2022-03-15, 22:31:37
Naja, Wer würde hier lieber 240FPS statt 230FPS spielen und diese Bildqualität in Kauf nehmen? Als Beispiel eher ungeeignet
aufkrawall
2022-03-15, 22:35:31
Es ging ihm wohl weniger um die Performance, dafür ergibt ein Test im CPU-Limit nicht sonderlich Sinn. Insbesondere mit RPM kann FSR schneller sein (wenn TAAU das nicht nutzt, warten wir mal FSR 2.0 ab), sieht aber immer noch überproportional viel schlechter aus.
Platos
2022-03-16, 03:45:15
Naja, Wer würde hier lieber 240FPS statt 230FPS spielen und diese Bildqualität in Kauf nehmen? Als Beispiel eher ungeeignet
Stimmt, ist natürlich im FPS Limit. SIeht man an der GPU Auslastung.
Aber mir gings ja mehr um die Qualität. Sieht einfach grottig aus. Hoffen wir mal, das FSR 2.0 das (fast schon wortwörtlich) ausbügelt.
Tobalt
2022-03-16, 05:40:51
Vielleicht war auch das Checkerboard-Rendering von Sony+AMD der Anstoß weiter in dieser Richtung zu forschen?
Ich würde noch weiter zurück gehen:
Als Anfang des Jahrhunderts langsam LCD Bildschirme populär wurden, brauchten TVs plötzlich De-Interlacer für ein ordentliches 576p Bild aus dem 576i Material, ohne dass dabei Streifenartefakte entstehen.
Das ging nicht sofort super, und anfangs gab es da viel Gematsche.
Guess what.. temporal upscaling brachte die Lösung.
Monsta
2022-03-16, 08:30:45
Leute, die mit FSR spielen. :D
FSR Performance ist auch sehr schlecht sind auch nur 50% der Renderauflösung, aber FSR in der maximalen Qualitätsstufe auf einem 4K Ausgabegrät ist ertragbar.
Auf jedenfall besser als 4K Nativ mit low settings.
Hier kann man gut vergleichen.
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1374282&page=2&draft=-1&rank=7
Argo Zero
2022-03-16, 08:34:44
Meine Karte ist auch schon was älter (5700XT) und da meine native Auflösung 1440p ist, nehme ich solche Features dankend an.
Auf FSR 2.0 bin ich auf jeden Fall sehr gespannt auch geil ist, dass es im Treiber aktiviert werden kann :)
Geldmann3
2022-03-16, 08:42:04
FSR Performance ist auch sehr schlecht sind auch nur 50% der Renderauflösung, aber FSR in der maximalen Qualitätsstufe auf einem 4K Ausgabegrät ist ertragbar.
Auf jedenfall besser als 4K Nativ mit low settings.
Hier kann man gut vergleichen.
https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1374282&page=2&draft=-1&rank=7
Auch, wenn ich FSR technisch für ,,billig" halte, muss ich doch zugeben, dass ich in einem Game mit gutem TAA nicht merken würde, ob Ultra Qualität aktiv ist oder nicht. Zudem habe ich auf einem 8K TV die Erfahrung gemacht, dass Games mit FSR Qualität hochgerechnet, solange sie gutes TAA beherrschen, perfekt scharf wirken. Für 8K also perfekt. Doch DLSS Performance erreicht hier potentiell dasselbe mit viel besserer Performance. Allerdings habe ich auch gelernt, dass DLSS in 8K selbst einen erheblichen Overhead ins Spiel bringen kann und auch den VRam Bedarf erheblich gegen die interne Renderauflösung steigert. Es ist also nicht so einfach.
Auch für ältere Karten ist FSR ein super Feature.
Wir sind hier immerhin das Forum der High-End User und Pixel-Peepings.
Ich garantiere euch, andere stört einiges noch viel weniger als uns.^^
DrFreaK666
2022-03-16, 12:21:48
Stimmt, ist natürlich im FPS Limit. SIeht man an der GPU Auslastung.
Aber mir gings ja mehr um die Qualität. Sieht einfach grottig aus. Hoffen wir mal, das FSR 2.0 das (fast schon wortwörtlich) ausbügelt.
Natürlich sieht es grottig aus, wenn man FSR P nutzt.
Ich habe FSR UQ auf einem 32:9 1440p Monitor gesehen und war mit der Qualität zufrieden.
Mit einer 3090 natürlich unsinnig, weil GoW auch DLSS anbietet, aber ohne RTX kann man sich das antun.
Platos
2022-03-16, 13:34:52
Naja, ich habe FSR Quality auf 4K gesehen und muss sagen: Nur im Notfall. Ist aber kein Ultra Quality.
Ist aber sicher Spieleabhängig.
DrFreaK666
2022-03-16, 14:49:35
Naja, ich habe FSR Quality auf 4K gesehen und muss sagen: Nur im Notfall. Ist aber kein Ultra Quality.
Ist aber sicher Spieleabhängig.
Vielleicht bist du auch empfindlicher.
Ich habe selbst 1440p auf 4k gesehen.
Man sah dass es unschärfer war, aber 4k, aber dafür weniger Details sah für mich schlechter aus.
Und FSR Q auf 4k sieht besser aus als 1440p, daher wäre das eine Option für mich
dildo4u
2022-03-17, 14:02:24
Slides zu FSR 2.0 erste Implementierung im 2 Quartal.
https://www.computerbase.de/2022-03/fidelityfx-super-resolution-2.0-amd-fsr-2.0-stellt-sich-im-zweiten-quartal-gegen-dlss/
BlacKi
2022-03-17, 14:33:57
ErfOEj4CVi0
mboeller
2022-03-17, 14:49:59
links aus dem Beyond3D-Forum:
https://gpuopen.com/fsr2-announce/
https://community.amd.com/t5/gaming...d-fidelityfx-super-resolution-2-0/ba-p/516395
Argo Zero
2022-03-17, 14:50:46
Slides zu FSR 2.0 erste Implementierung im 2 Quartal.
https://www.computerbase.de/2022-03/fidelityfx-super-resolution-2.0-amd-fsr-2.0-stellt-sich-im-zweiten-quartal-gegen-dlss/
Hyped :D
Dampf
2022-03-17, 14:52:26
In 4K sieht das echt gut aus, war aber zu erwarten.
Ich würde mal gerne 1080p und 1440p sehen.
Emil_i_Lönneberga
2022-03-17, 15:10:53
@Dampf
In der linken und rechten oberen Ecke lassen sich jeweils unterschiedliche Einstellungen vornehmen und mit einem Slider vergleichen.
https://www.techpowerup.com/review/amd-radeon-super-resolution-rsr/2.html
Ist anscheinend selbst erstelltes Material aus insgesamt acht Spielen.
Mit dem Mausrad kannst du in die Szenen beliebig hineinzoomen und mit einem Klick auf "Maximize" erscheint es im Vollbild.
Neurosphere
2022-03-17, 15:16:45
oKD98lTqilQ
Von AMD selbst.
mboeller
2022-03-17, 15:17:22
@Dampf
In der linken und rechten oberen Ecke lassen sich jeweils unterschiedliche Einstellungen vornehmen und mit einem Slider vergleichen.
https://www.techpowerup.com/review/amd-radeon-super-resolution-rsr/2.html
Das ist aber RSR und nicht FSR2.0.
RSR ist noch ein wenig schlechter als FSR1.0 laut AMD Slide.
Emil_i_Lönneberga
2022-03-17, 15:40:35
:whistle::sneak:
BlacKi
2022-03-17, 15:54:56
In 4K sieht das echt gut aus, war aber zu erwarten.
Ich würde mal gerne 1080p und 1440p sehen.
es gab auch keinerlei performance info bezüglich qualitymode. theoretisch könnte die interne render resolution auch bei 90% liegen und der performancevorteil liegt dann bei 5-10%. screens mit der performanceeinstellung hätten mich echt interessiert.
sacht mal, meinen die das ernst mit dem video das amd da gebracht hat? fhd youtubematsch in bewegung?:hammer:
aufkrawall
2022-03-17, 16:05:09
https://youtu.be/oKD98lTqilQ
Von AMD selbst.
Leider kleine Ausschnitte, hohe Bewegungsgeschwindigkeit und YT-Kompression. Aber: Es springen einen schon mal keine Fails an, kommt ziemlich sauber rüber.
Platos
2022-03-17, 16:27:40
Das Video ist in 4k hochgeladen. Wie immer wird zuerst die niedrige Auflösung freigeschalten. Bei solchen Video sollte man sowas verhindern und alles auf einmal hochladen (können).
Bei 0:41 sieht die weisse Wand m.M.n sogar besser aus wie nativ. Selbes gilt für das Auto genau dort.
Bei 0:41 sehen auch die Steinfelsen hinter/oberhalb der weissen Wand mit FSR schärfer/besser aus.
Bei 1:01 sieht man dann, dass FSR 2.0 Perfomance schlechter aussieht wie nativ (das ist ja auch zu erwarten). Aber trotzdem noch ganz ok.
Gleich danach sieht man aber auch den Vergleich FSR 2.0 und 1.0 unter Perfomance. Da sieht man sehr gut, wie miserabel 1.0 ist. (Interessant wäre auch noch der Vergleich FSR 2.0 Perf. vs. FSR 1.0 Quality gewesen. Würde mal drauf tippen, dass FSR 2.0 da immer noch gewinnen könnte)
Also jetzt aus dem kleinen Ausschnitt würde ich sagen, wird FSR 2.0 was ganz gutes. Sieht auf jeden Fall überzeugend aus. Läuft das auch noch auf den gleichen Grafikkarten wie FSR 1.0, könnte das wirklich sehr gut werden. Interessant ist dann noch, wie das ganze bei kleinen, fliegenden Objekten aussieht (also da, wo DLSS z.B lange Zeit sehr schlecht war). Oder auch bei feinen Details, die sich bewegen (oder der Nutzer). Also z.B sich bewegende Büsche oder Gitter (und ein sich bewegender Spieler). DLSS sorgt da ja für ein deutlich ruhigeres Bild wie nativ. Würde mich interessieren, wie das dann unter FSR 2.0 (quality) aussieht.
Natürlich wäre auch noch wichtig zu wissen, wie die Perfomanceeinsparung aussieht.
Edit: Interessant wäre auf jeden Fall auch, ob FSR 2.0 nachträglich noch bei anderen Spielen "upgegraded" wird (also wo bisher nur FSR 1.0 möglich war). Damit könnte AMD auf jeden Fall punkten. Z.B bei mir :D
Edit 2: Da das jetzt wirklich brauchbar wäre, frage ich mich auch, ob das vlt. irgendwann mal auf den Konsolen nutzbar wird. Denn Checkerboard Rendering stinkt gegen FSR 2.0 mal mit Sicherheit vollkommen ab. Kann mir gut vorstellen, dass Sony und Microsoft FSR 1.0 zu schlecht war. Kann mir aber auch gut vorstellen, dass es schlicht nicht keine Kooperation gibt.
Troyan
2022-03-17, 16:29:07
Ne, ist nur deutlich nachgeschärft. Siehe die Bilder bei Computerbase: https://www.computerbase.de/2022-03/fidelityfx-super-resolution-2.0-amd-fsr-2.0-stellt-sich-im-zweiten-quartal-gegen-dlss/
aufkrawall
2022-03-17, 16:30:06
Ja, das alte TXAA ist völliger Schrott. Überhaupt nicht unrealistisch, dass FSR 2.0 das auch ohne DL übertreffen kann.
Ne, ist nur deutlich nachgeschärft. Siehe die Bilder bei Computerbase: https://www.computerbase.de/2022-03/fidelityfx-super-resolution-2.0-amd-fsr-2.0-stellt-sich-im-zweiten-quartal-gegen-dlss/
Aha, die besser rekonstruierten feinen Details im Hintergrund sollen durchs Nachschärfen kommen? Du sabbelst wieder einen Müll...
Troyan
2022-03-17, 16:36:01
Lies auf was ich geantwortet habe, trollo.
aufkrawall
2022-03-17, 16:39:37
Alles, was du sagst, ist wirr und wahnhaft. Themenübergreifend. Ich werd mir jetzt nicht mehr die Mühe machen, den Unrat manuell mit Klicks wegen der Ignore-Liste einzublenden. :cool:
BlacKi
2022-03-17, 17:14:40
Das Video ist in 4k hochgeladen. Wie immer wird zuerst die niedrige Auflösung freigeschalten.
also in 3 tagen kann ich mir das in 4k ansehen? btw. kann man das video auch abseits von youtube runterladen?
€dit, die computerbase bilder taugen besser zum vergleich, halt eben ohne bewegung. besser als 1.0 sieht es auf jeden fall aus. sogar performance 2.0 sieht im stand noch gut aus. #habenwillfürsteamdeck
aufkrawall
2022-03-17, 17:17:35
Ist schon in 4k vorhanden. Und vermutlich ist die Qualität woanders nur deutlich schlechter, wenn es H.264 Re-Encodes von YT VP9 sind.
Platos
2022-03-17, 18:16:27
also in 3 tagen kann ich mir das in 4k ansehen? btw. kann man das video auch abseits von youtube runterladen?
€dit, die computerbase bilder taugen besser zum vergleich, halt eben ohne bewegung. besser als 1.0 sieht es auf jeden fall aus. sogar performance 2.0 sieht im stand noch gut aus. #habenwillfürsteamdeck
Warum soll ohne Bewegung besser sein? Standbilder taugen nur bedingt. Ja, man kann genau das gleiche gut Vergleichen bei CB, aber eben in einem Standbild. Und spielst du Standbild oder Videospiel? Bei Standbildern erfährt man nur die halbe Wahrheit. Auch wenn das ein Youtubevideo ist, taugt es m.M.n besser wie Screenshots, bei dem man null Aussage darüber treffen kann, wenn Bewegung im Spiel ist. Was nützen dir Standbilder?
Da nehme ich lieber 4k Youtube wie irgendwelche Bilder.
Ansonsten: Die Schatten sehen bei CB unter FSR 2.0 Quality etwas blasser aus.
Edit: Und bei CB sieht FSR 2.0 Perfomance zwar schon etwas schlechter aus, aber immer noch besser wie FSR 1.0 Quality. Da sieht man mal, wie nutzlos FSR 1.0 war und wie viel besser FSR 2.0 zu sein scheint. Aber mich interessiert sowieso generell unter 4k nur Quality (sowohl bei DLSS als auch FSR 2.0). Mich interessiert vor allem, wie der Perfomancevorteil aussieht. Hoffe da auf 40-70% (je nach Spiel hald).
Aber keine Ahnung, habe das Video erst jetzt gesehen und da wars gleich in 4k.
basix
2022-03-17, 18:17:18
Abschätzung zur Performance von FSR 2.0:
Ich habe einige DLSS Benches von Computerbase durchgeschaut und mit der Performanceangabe bei Deathloop verglichen. Fazit: FSR 2.0 Performance @ UHD (vs. Nativ) kostet auf der 6900 XT vergleichbar viel Performance wie DLSS Performance @ UHD (vs. Nativ) auf Turing und Ampere. Ohne Matrix-Beschleunigung und INT8-DP4A Produkt. Respekt. Und noch mehr Respekt, wenn das Resultat ebenbürtig zu DLSS 2.0 sein sollte.
Ich hoffe, dass FSR 2.0 mindestens noch Vega und Pascal mitnimmt. RSR scheint z.B nur mit RDNA1 aufwärts zu funktionieren und Vega nicht (was eigentlich sehr dämlich bezüglich AMDs APUs)
Erster Negativpunkt an FSR 2.0 oder besser gesagt der Implementierung in Deathloop:
Shadow Map Auflösung scheint an der Rendering-Auflsöung zu hängen. Schade. Gerade am Fenster oben links und den gemauerten Ecksteinen der Mauer ist das deutlich ersichtlich.
Platos
2022-03-17, 18:24:57
Ich hoffe, dass FSR 2.0 mindestens noch Vega und Pascal mitnimmt. RSR scheint z.B nur mit RDNA1 aufwärts zu funktionieren und Vega nicht (was eigentlich sehr dämlich bezüglich AMDs APUs)
Erster Negativpunkt an FSR 2.0 oder besser gesagt der Implementierung in Deathloop:
Shadow Map Auflösung scheint an der Rendering-Auflsöung zu hängen. Schade. Gerade am Fenster oben links und den gemauerten Ecksteinen der Mauer ist das deutlich ersichtlich.
Funktioniert denn RSR wirklich nicht mit Vega ? Also auch inoffiziell? Weil Inoffiziell funktioniert ja glaube ich auch FSR 1.0 mit älteren Karten. Und FSR benötigt doch keine Hardware? Also sollte es theoretisch auch mit Pascal gehen?
basix
2022-03-17, 18:34:23
Prinzipell funktioniert RSR ja mit Vega (siehe FSR, ist ja der selbe Algorithmus), ist im Treiber halt nicht implementiert und nur für RX 5000 Series und aufwärts freigeschaltet. Und genau das ist der Unterschied zu FSR, RSR hängt vom Treiber ab und ist nicht "Open Source" im Spiel integriert. Gerade die APUs würden von solch einem Performance-Boost stark profitieren, auch wenn die Qualität von RSR nicht optimal ist. Deswegen die Befürchtung bei FSR 2.0 mit eingeschränktem Support. Da FSR 2.0 jedoch Open Source ist, kann man den Support jederzeit ausweiten ;)
Bei FSR 2.0 ist der HW-Support vermutlich der gleiche wie bei FSR 1.0. Ist nur die Frage, ob das von AMD direkt supported wird oder dem Spieleentwickler überlassen ist.
Noch zur Qualität von FSR 2.0:
Ich habe die gezoomten Screenshots von Deathloop angeschaut. Selbst FSR 2.0 Performance ist in gewissen Belangen der nativen Auflösung überlegen. Ziemlich nice. Einziger Kritikpunkt momentan ist wie gesagt die Shadow Map Auflösung, was nicht zwingend an FSR 2.0 sondern der Engine hängt.
Platos
2022-03-17, 18:40:07
Naja insgesammt ist FSR 2.0 Perfomance aber nativ schon deutlich unterlegen. Das muss man jetzt schon nicht übertreiben. Sieht aber auf jeden Fall gut aus. Dürfte einigen Genügen (mir nicht). Aber Quality scheint mir (bei guter Implementierung) ein "Immer einschalten" Feature zu sein. Sieht nämlich (fast) durchgehend besser aus wie nativ.
Also für mich sieht FSR 2.0 Perfomance ein bisschen zu bröselig aus. Bisschen so, als hätte man zu stark nachgeschärft (Edit: Siehe die Steie im Turm hinten beim gezoomten Bild bei CB - sieht bröselig/überschärft aus). Und mir scheint es so, als seien die Schatten grundsätzlich etwas blasser/schlechter bei FSR. Bei 2.0 Perfomance fällt es aber bei den Rohren links an der Wand schon auf (gezoomtes Bild anschauen. Und insgesammt ist es leicht "pixelig" oder eben bröselig. Aber auf jeden Fall gute Arbeit
basix
2022-03-17, 18:42:09
Ich behaupte, wenn das mit der Shadow Map Auflösung nicht wäre, wäre FSR 2.0 Performance sehr, sehr nahe an nativ dran.
Edit: Ist ja Raytracing aktiviert. Ist also nicht unbedingt die Shadow Maps sondern die reduzierte RT-Auflösung.
Edit 2:
Sieht nicht wirklich gut aus für RSR @ Vega. Frank Azor sagt, RSR Support kommt für Ryzen 6000 Series in Q2/2022.
https://youtu.be/JUQ8j-bpQ1Q?t=110
Edit 3:
Und mir scheint es so, als seien die Schatten grundsätzlich etwas blasser/schlechter bei FSR. Bei 2.0 Perfomance fällt es aber bei den Rohren links an der Wand schon auf (gezoomtes Bild anschauen.
Das ist momentan auch mein grösster Kritikpunkt. Aber genau das selbe Verhalten sieht man in Cyberpunk mit DLSS. Anscheinend sind hier gewisse Systeme so an die Renderauflösung gekoppelt, dass das Temporal Supersampling nichts dagegen ausrichten kann. Hat man auch schon bei weiteren Games insbesondere mit RT gesehen. Ich hoffe, dass in Zukunft die Game-Engines mit dem umgehen können und diese Systeme an die Output-Auflösung und nicht Render-Auflösung ankoppeln. Wenn das denn geht.
aufkrawall
2022-03-17, 19:11:27
Das mit den Schatten würd ich mal nicht überbewerten, das merkt man ohne Vergleichsbilder häufig kaum.
Natürlich wird FSR 2.0 auch auf alten Radeons laufen, wenn es auch auf der Konkurrenz funktionieren soll.
Die Rekonstruktion scheint schon mal gut zu sein. Jetzt dürfen nur keine hässlichen Bewegtbildartefakte lauern, die man in YT-Videos nicht gut bemerkt. Ein weiterer, aber dummer Fallstrick wäre noch nicht anpassbare Sharpen-Stärke. Hoffentlich empfiehlt AMD von Anfang an, die Sharpen-Stärke einstellbar im Optionsmenü anzubieten.
robbitop
2022-03-17, 20:35:56
Abschätzung zur Performance von FSR 2.0:
Ich habe einige DLSS Benches von Computerbase durchgeschaut und mit der Performanceangabe bei Deathloop verglichen. Fazit: FSR 2.0 Performance @ UHD (vs. Nativ) kostet auf der 6900 XT vergleichbar viel Performance wie DLSS Performance @ UHD (vs. Nativ) auf Turing und Ampere. Ohne Matrix-Beschleunigung und INT8-DP4A Produkt. Respekt. Und noch mehr Respekt, wenn das Resultat ebenbürtig zu DLSS 2.0 sein sollte.
Kannst du die Zahlenbasis für die Abschätzung bitte kurz darlegen? Wo kommt die her? Und die Zahlen dazu. :)
Die Zahlen von Computerbase könnten hier wackelig sein. Ggf andere Szene? Anderes System? Anderer Treiber? Meine Erwartung ist, dass es deutlich günstiger in Bezug auf Rechenleistung ist als DLSS.
Da FSR 2.0 kein NN verwendet (wie DLSS für das Clamping) sind die Kosten in Bezug auf Rechenleistung wahrscheinlich auch gering. Da müssen keine Matrizen gerechnet werden - Matrix FPUs brächten da wenig und ich vermute INT8 auch nichts. Wird wahrscheinlich sehr vergleichbar zu UE5s TSR sein. Von den Kosten und vom breiten Spektrum der Ergebnissen her.
Es wird eine herrliche Zeit für alle. XeSS und FSR 2.0 bietet für die bisher (von DLSS) Ausgesperrten eine Alternative. Und dazu gehören auch Nvidiakarten ohne TCs. Pascal aber auch die kleinen Turings.
Ein zweiter Frühling für viele 1080ti Karten :)
Mittelfristig erwarte ich allerdings noch ein FSR DLSS 3.0 mit NN. Wahrscheinlich erst, wenn entsprechende Hardware bei AMD verbaut werden wird. RDNA 3 oder 4.
DrFreaK666
2022-03-17, 21:12:09
Jetzt bitte viele patches für Xbox Spiele. Besonders die Serie S dürfte davon profitieren
basix
2022-03-17, 22:52:16
Kannst du die Zahlenbasis für die Abschätzung bitte kurz darlegen? Wo kommt die her? Und die Zahlen dazu. :)
Die Zahlen von Computerbase könnten hier wackelig sein. Ggf andere Szene? Anderes System? Anderer Treiber? Meine Erwartung ist, dass es deutlich günstiger in Bezug auf Rechenleistung ist als DLSS.
Weil du es bist :)
Alle Benches wenn es geht mit ca. 100fps @ 1080p nativ / 4K DLSS Performance, damit die Framerate das Bild nicht zu stark verzerrt. Und wenn es geht mit einer ähnlich starken GPU wie die 6900/6800 XT. Ist aber wie gesagt eine grobe Abschätzung und keine exakte Wissenschaft.
FSR 2.0
Deathloop: 6900 XT FSR 2.0 (https://www.computerbase.de/2022-03/fidelityfx-super-resolution-2.0-amd-fsr-2.0-stellt-sich-im-zweiten-quartal-gegen-dlss/) Performance = 53 -> 101fps = 1.91x; 6800 XT FSR 1.0 (https://www.computerbase.de/2021-09/deathloop-benchmark-review-test/2/#abschnitt_die_performance_von_amd_fsr) Performance = 36 -> 86fps = 2.36x; 2.36 / 1.91 = 1.24x (+ 3-4% von FSR1.0 selbst) --> ~1.25...1.30x
DLSS 2.0
RDR2 (https://www.computerbase.de/2021-07/red-dead-redemption-2-dlss-test/#abschnitt_die_performancevorteile_mit_dlss): RTX 3080 1080p nativ = 109fps; 4K DLSS Performance = 79fps --> 1.38x
Outriders (https://www.computerbase.de/2021-05/outriders-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd): RTX 3080 1080p nativ = 148fps; 4K DLSS Performance = 100fps --> 1.48x
Dying Light 2 (https://www.computerbase.de/2022-02/dying-light-2-benchmark-test/2/#abschnitt_die_performance_von_amd_fsr_und_nvidia_dlss): RTX 3080 1080p nativ = 138fps; 4K DLSS Performance = 105fps --> 1.31x
HZD (https://www.techpowerup.com/review/horizon-zero-dawn-dlss-vs-fsr-comparison/): RTX 3080 1080p nativ = 115fps; 4K DLSS Performance = 100fps --> 1.15x
Fazit:
FSR 2.0 liegt anhand dieser Daten bezüglich Performance im Ballpark von DLSS 2.0. Klar, das Sample von Deathloop ist mager, da nur ein einzelner Messpunkt. Was möglich sein kann: 101fps bei Deathloop liegt im CPU Limit. Dieser FSR/DLSS Vergleich (https://www.techpowerup.com/review/deathloop-dlaa-vs-dlss-vs-fsr-comparison/) scheint an einer ähnlichen Stelle wie AMDs Preview gemacht worden zu sein. CPU Limit = 101fps (10700F anstatt 5900X). AMD Sandbagging again? :D
Egal. Warten bis Reviews aufschlagen. Gibt noch zu viele Freiheitsgrade.
Mittelfristig erwarte ich allerdings noch ein DLSS FSR 3.0 mit NN. Wahrscheinlich erst, wenn entsprechende Hardware bei AMD verbaut werden wird. RDNA 3 oder 4.
ftfy ;)
Aber ja, sowas wäre denkbar. Kommt halt auf Aufwand und Ertrag an. Gibt auch hier abnehmenden Grenzertrag. Wenn FSR 2.0 wirklich wie oben gezeigt doch etwas an Ausführungszeit benötigt, dann würde mir Matrix-Acceleration von FSR 2.0 auch gefallen, wenn das technisch geht (z.B. via FP16). Dito bei DLSS, welches bei >100fps doch noch weit von nativer Render-Performance entfernt ist. Es wollen doch auch 120/144Hz Monitore mit DLSS und FSR befeuert werden ;)
Platos
2022-03-17, 22:58:22
Jetzt bitte viele patches für Xbox Spiele. Besonders die Serie S dürfte davon profitieren
Alle neuen Konsolen bitte. Die profitieren alle davon. Sei es durch bessere Grafik (Series S) oder einfach höhere Framerate (eher 60FPS) bei den anderen beiden.
Rumbah
2022-03-17, 23:05:28
Ich bin mal gespannt, falls es gut funktioniert und einfach zu implementieren ist, ob es dann auch gleich als normale TAA Lösung mit Option auf TAAU in Spielen genutzt wird.
Also ob FSR 2.0 dann die standard AA Variante wird.
basix
2022-03-18, 00:44:06
https://gpuopen.com/fsr2-announce/
iamthebear
2022-03-18, 01:22:28
Interessant wäre wie unterschiedlich die Schnittstellen zu DLSS sind d.h. wie viel Aufwand ist es FSR 2.0 zu integrieren wenn das Spiel bereits DLSS unterstützt. Wenn man mehr oder weniger nur eine zweite dll einbinden muss und ein paar Menüpunkte im Einstellungsmenü hinzufügen muss dann könnte es relativ schnell gehen.
Wenn es jedoch komplett unterschiedlich ist und der Aufwand ähnlich groß ist wie bei DLSS dann fürchte ich, dass es sich nicht flächendeckend durchsetzen wird.
aufkrawall
2022-03-18, 01:26:56
Wird wohl ähnlich sein, wenn es in Deathloop per Update nachgeschoben wird. Prinzipiell braucht es nur den gleichen Input wie DLSS.
robbitop
2022-03-18, 06:26:22
Weil du es bist :)
Alle Benches wenn es geht mit ca. 100fps @ 1080p nativ / 4K DLSS Performance, damit die Framerate das Bild nicht zu stark verzerrt. Und wenn es geht mit einer ähnlich starken GPU wie die 6900/6800 XT. Ist aber wie gesagt eine grobe Abschätzung und keine exakte Wissenschaft.
FSR 2.0
Deathloop: 6900 XT FSR 2.0 (https://www.computerbase.de/2022-03/fidelityfx-super-resolution-2.0-amd-fsr-2.0-stellt-sich-im-zweiten-quartal-gegen-dlss/) Performance = 53 -> 101fps = 1.91x; 6800 XT FSR 1.0 (https://www.computerbase.de/2021-09/deathloop-benchmark-review-test/2/#abschnitt_die_performance_von_amd_fsr) Performance = 36 -> 86fps = 2.36x; 2.36 / 1.91 = 1.24x (+ 3-4% von FSR1.0 selbst) --> ~1.25...1.30x
DLSS 2.0
RDR2 (https://www.computerbase.de/2021-07/red-dead-redemption-2-dlss-test/#abschnitt_die_performancevorteile_mit_dlss): RTX 3080 1080p nativ = 109fps; 4K DLSS Performance = 79fps --> 1.38x
Outriders (https://www.computerbase.de/2021-05/outriders-benchmark-test/2/#abschnitt_benchmarks_in_full_hd_wqhd_und_ultra_hd): RTX 3080 1080p nativ = 148fps; 4K DLSS Performance = 100fps --> 1.48x
Dying Light 2 (https://www.computerbase.de/2022-02/dying-light-2-benchmark-test/2/#abschnitt_die_performance_von_amd_fsr_und_nvidia_dlss): RTX 3080 1080p nativ = 138fps; 4K DLSS Performance = 105fps --> 1.31x
HZD (https://www.techpowerup.com/review/horizon-zero-dawn-dlss-vs-fsr-comparison/): RTX 3080 1080p nativ = 115fps; 4K DLSS Performance = 100fps --> 1.15x
Fazit:
FSR 2.0 liegt anhand dieser Daten bezüglich Performance im Ballpark von DLSS 2.0. Klar, das Sample von Deathloop ist mager, da nur ein einzelner Messpunkt. Was möglich sein kann: 101fps bei Deathloop liegt im CPU Limit. Dieser FSR/DLSS Vergleich (https://www.techpowerup.com/review/deathloop-dlaa-vs-dlss-vs-fsr-comparison/) scheint an einer ähnlichen Stelle wie AMDs Preview gemacht worden zu sein. CPU Limit = 101fps (10700F anstatt 5900X). AMD Sandbagging again? :D
Egal. Warten bis Reviews aufschlagen. Gibt noch zu viele Freiheitsgrade.
ftfy ;)
Aber ja, sowas wäre denkbar. Kommt halt auf Aufwand und Ertrag an. Gibt auch hier abnehmenden Grenzertrag. Wenn FSR 2.0 wirklich wie oben gezeigt doch etwas an Ausführungszeit benötigt, dann würde mir Matrix-Acceleration von FSR 2.0 auch gefallen, wenn das technisch geht (z.B. via FP16). Dito bei DLSS, welches bei >100fps doch noch weit von nativer Render-Performance entfernt ist. Es wollen doch auch 120/144Hz Monitore mit DLSS und FSR befeuert werden ;)
Ich tippe da auf CPU Limit. Ausschließen kann man es nicht aber bisher sind alle temporalen Verfahren (die kein NN nutzen) spottbillig (iirc auch UE5 TSR und ids exzellentes TSSAA). Ich halte obige Zahlen für wie du sagst einen ersten Datenpunkt aber für noch zu wackelig.
Was willst du eigentlich mit Matrixbeschleunigung? Das bringt primär was für Inferencing von NN. Für FSR 2.0 kommt offenbar eine Heuristik zum Einsatz. Das wird ganz normaler Floating Point Vektorcode sein.
00-Schneider
2022-03-18, 08:03:20
Wenn es jedoch komplett unterschiedlich ist und der Aufwand ähnlich groß ist wie bei DLSS dann fürchte ich, dass es sich nicht flächendeckend durchsetzen wird.
Ich gehe davon aus, das MS und Sony das stark auf ihren Konsolen pushen werden. Sobald ein aktuelles Game mit RT oder 60fps laufen soll ist meist bei 1440p als interne Auflösung Schluss. Mit FSR 2.0 wird man gut was an Performance in den Kisten rausholen können.
Und wenn es die Konsolen nutzen sollen, wird es die Option auch in die PC-Fassungen schaffen.
basix
2022-03-18, 08:31:29
Was willst du eigentlich mit Matrixbeschleunigung? Das bringt primär was für Inferencing von NN. Für FSR 2.0 kommt offenbar eine Heuristik zum Einsatz. Das wird ganz normaler Floating Point Vektorcode sein.
Ich nehme auch an, dass es Vektor-Code ist. Sonst könnte man die breite HW-Basis weniger einfach ansprechen (man müsste sowas wie Intel mit XeSS machen, zwei separate Ausführungspfade). Matrizen sind wegen dem aber nicht per se nutzlos.
Matrize = 2D-Vektor. Je nachdem, wie der Algorithmus funktioniert, könnte man mit Matrix-Beschleunigung also schon was gewinnen. Entweder per Matrix-Matrix-Produkt oder Matrix-Vektor-Produkt. Der Algo muss dafür aber ausgelegt sein oder zumindest angepasst werden. Bei DNN ist das anscheinend per se gegeben.
Und ich hätte das Ding nicht in INT8 sondern FP16 gelassen, wenn es Floating Point benötigt. Ich bin relativ zuversichtlich, dass auch bei FSR 2.0 FP16 zum Einsatz kommt.
Etwas ähnliches sehen wir bei FP64-Linpack. Der selbe Algo kann per Vektor oder per Matrize gerechnet werden. Und Linpack ist weit entfernt von einem DNN.
Bei FSR 2.0 könnte man auch nur die Algo-Teile als Matrize rechnen lassen, wo der Gewinn hoch ist. Vermutlich können nicht alle Teile per Matrize optimiert werden. Jetzt hat man im Idealfall etwas in folgender Art:
1/3 läuft via Vektor (FP16 und/oder FP32)
2/3 läuft via Matrix-Beschleunigung (FP16), parallel zu Vektor
Verhältnis hängt von Vektor <-> Matrix Cores ab, aber ein stärkeres Offloading zu Matrix befreit Vektor Engines von der Last. Und letztere sollen gefälligst das Rendering übernehmen ;)
Zu was führt das:
Beschleunigung der Ausführung. Entweder erleichterd das High FPS @ Hohen Auflösungen oder man kann mit der freigewordenen Performance die Qualität von FSR erhöhen.
Sehr viele GPUs schaffen in 1080p 100+fps. Da wäre es doch nice, wenn man das auf 4K via FSR Performance mitnehmen könnte und nicht auf 70-80fps dropt.
Offloading der Vektor-Engines würde auch bei einem 1-1 FP16 Verhältnis Sinn machen (z.B. 20 TFLOPs FP16 via RPM; 20 TFLOPs FP16 via Matrix-Cores), da die Matrix Cores in der Tendenz nichts zu tun haben und die Vektor-Engines sind mit dem Rendering beschäftigt
Aber:
Wenn FSR 2.0 wie du vermutest fast keine Performance kostet, ja dann kann man sich das alles sparen. Nicht dass es nutzlos wäre, aber der Nutzen wäre gering bei erhöhter Komplexität der Implementierung. Und nicht falsch verstehen, ich hoffe sogar, dass FSR 2.0 fast keine Performance kostet. Einfach weil das halt der Idealfall einer solchen Technik ist. Wenn dem bei FSR 2.0 so wäre und qualitätstechnisch auch DLSS 2.0 ebenbürtig: Sehr geil.
Tobalt
2022-03-18, 08:46:00
Die spärlichen Infos zu FSR 2 stimmen mich bislang sehr zufrieden! Das ist wirklich mal ein Riesenschritt vorwärts in der Computergrafik, weil er diesmal alle mitnimmt. Es scheint solide implementiert und liefert ordentliche Performance Gains bei toller Qualität ab, wie man es von anständigem Temporal Upscaling erwarten kann. Man kann nun AMD den ABSOLUT MÜLL vergeben, den sie mit FSR1 auf die Welt losgelassen haben, genauso, wie wir nV den ABSOLUTEN MÜLL namens DLSS1 vergeben haben. Mir ist nach wie vor unerklärlich, wieso sich beide Firmen zu diesem völlig absurden weil unnützen Zwischenschritt hingerissen gefühlt haben.
Es *scheint* anhand der Infos auch, dass FSR jedenfalls nicht massiv gegen DLSS abstinkt - vielleicht sogar ein ähnliches (besseres?) Level erreicht - man kann es einfach noch nicht bewerten. Das habe ich auch erwartet. Einfach weil es in den letzten Jahren in der Fachwelt halt immer wieder ordentlich Denoising Algos gab, auch ohne DNN. Denoising und Temporal Upscaling sind IMHO schon verwandt, in beiden muss aus spärlich gesampelten Szenen die Basis ermittelt werden. Auch wenn AMD hier weiter beteuert, (aus welchen Gründen auch immer), dass kein NN einsetzen, so ist die Grenze zwischen "Algorithmus", wie sie es nennen und "Neural Network" einfach viel zu schwammig bzw. nicht existent. Jeder digitale Filter, was man auf eine 2D oder 3D szene anwendet ist inhärent schonmal ein Matrixprodukt. Wenn man nun mit verschiedenen Filterschritten auf verschiedenen Basisszenen (zB motion vektors, Luma, Chroma , Infos aus älteren Frames...) ansetzt und diese nacher wieder gewichtet mischt, ist man ja topologisch schon bei einer Art Neural Network. Vielleicht nicht besonders "deep" und nicht besonders "blackboxig" aber mathematisch betrachtet gibt es doch einfach keinen Unterschied. Von daher sehe ich die Streiterei über NN ja oder nein als Marketinggeblubber, wo sich jeder Akteur möglichst zum eigenen vermeintlich Vorteil positionieren will.
Dennoch unterstütze ich die Fordering in mittelfristiger Zukunft (~10 Jahre) viel größere Anteile der Computergrafik Berechnung in Low precision Einheiten durchzuführen, auf basis von Inferencing via DNNs.
robbitop
2022-03-18, 08:55:25
Ich nehme auch an, dass es Vektor-Code ist. Sonst könnte man die breite HW-Basis weniger einfach ansprechen (man müsste sowas wie Intel mit XeSS machen, zwei separate Ausführungspfade). Matrizen sind wegen dem aber nicht per se nutzlos.
Matrize = 2D-Vektor. Je nachdem, wie der Algorithmus funktioniert, könnte man mit Matrix-Beschleunigung also schon was gewinnen. Entweder per Matrix-Matrix-Produkt oder Matrix-Vektor-Produkt. Der Algo muss dafür aber ausgelegt sein oder zumindest angepasst werden.
Ist mir alles klar. Meines Wissens nach ist bisher so ziemlich alles was die GPU in der 3D Welt inkl Postprocessing zu tun hat kaum mit Matrixoperationen im Zusammenhang. Und ich sehe auch keinen Grund für FSR 2.0 etwas anderes anzunehmen. :)
Etwas ähnliches sehen wir bei FP64-Linpack. Der selbe Algo kann per Vektor oder per Matrize gerechnet werden. Und Linpack ist weit entfernt von einem DNN.
Bei FSR 2.0 könnte man auch nur die Algo-Teile als Matrize rechnen lassen, wo der Gewinn hoch ist. Vermutlich können nicht alle Teile per Matrize optimiert werden. Jetzt hat man im Idealfall etwas in folgender Art:
1/3 läuft via Vektor (FP16 und/oder FP32)
2/3 läuft via Matrix-Beschleunigung (FP16), parallel zu Vektor
Verhältnis hängt von Vektor <-> Matrix Cores ab, aber ein stärkeres Offloading zu Matrix befreit Vektor Engines von der Last. Und letztere sollen gefälligst das Rendering übernehmen ;)
Zu was führt das:
Beschleunigung der Ausführung. Entweder erleichterd das High FPS @ Hohen Auflösungen oder man kann mit der freigewordenen Performance die Qualität von FSR erhöhen.
Sehr viele GPUs schaffen in 1080p 100+fps. Da wäre es doch nice, wenn man das auf 4K via FSR Performance mitnehmen könnte und nicht auf 70-80fps dropt.
Offloading der Vektor-Engines würde auch bei einem 1-1 FP16 Verhältnis Sinn machen (z.B. 20 TFLOPs FP16 via RPM; 20 TFLOPs FP16 via Matrix-Cores), da die Matrix Cores in der Tendenz nichts zu tun haben und die Vektor-Engines sind mit dem Rendering beschäftigt
Wenn das sinnvoll möglich gewesen wäre, hätte man das auch schon für andere Sachen im Bereich 3D umgesetzt. Ich habe da wenig Hoffnung. Die Matrix Cores kommen eigentlich nur aus der Welt des Umgangs mit NN.
An FP16 glaube/hoffe ich auch. :)
Aber:
Wenn FSR 2.0 wie du vermutest fast keine Performance kostet, ja dann kann man sich das alles sparen. Nicht dass es nutzlos wäre, aber der Nutzen wäre gering bei erhöhter Komplexität der Implementierung. Und nicht falsch verstehen, ich hoffe sogar, dass FSR 2.0 fast keine Performance kostet. Einfach weil das halt der Idealfall einer solchen Technik ist. Wenn dem bei FSR 2.0 so wäre und qualitätstechnisch auch DLSS 2.0 ebenbürtig: Sehr geil.
Es wäre schön, wenn ich falsch liegen würde und das Ergebnis auf aktuellem DLSS 2.x Niveau läge. Und im Gegenzug wären etwas mehr Kosten als aktueller Verfahren total OK.
Oder es ist am Ende irgendwo dazwischen und kostet doch die 20-25% die du annimmst. Wir werden sehen. :)
Selbst wenn es "nur" auf TSR Niveau wäre, würde es helfen. Warum? Na weil dann endlich Konsistenz in die Breite der Spiele gibt. Viele Spiele haben nur mittelmäßige oder schlechtere temporale Upscalingmechanismen. Das das TAA schwankt sehr. Wenn über die Breite der Spiele kurz bis mittelfristig der obere Standard der Heuristik basierten temporalen Rekonstruktionen (für quasi jede Hardware!!) verfügbar ist, wäre das ein super Sprung. Auch sehe ich das dann für die Konsolen relevant werden. Wenn es nicht zu teuer ist ggf sogar für die Switch (1). Und on top gäbe es ja nochmal Intel's XeSS. Die kommenden Jahre werden super. :)
Es *scheint* anhand der Infos auch, dass FSR jedenfalls nicht massiv gegen DLSS abstinkt - vielleicht sogar ein ähnliches (besseres?) Level erreicht - man kann es einfach noch nicht bewerten.
Das Spiel unterstützt ja auch DLSS soweit ich weiß. Ich hoffe, jemand macht sich die Mühe und geht an die gleiche Stelle des Spiels mit gleichen Settings und erstellt einen Slidervergleich von gezoomten Details. AMD hat ja nun high resolution shots der Stelle hochgeladen. Sollte zumindest für den screenshot vergleichbar sein - als aller erster Datenpunkt ggü DLSS.
basix
2022-03-18, 08:58:28
Das Thema Vektorlast beim Gaming ist mMn auch ein wenig ein Henne-Ei Problem. Wenn ich eine super-optimierte Vektor-Maschine habe, verwende ich für mein Problem Vektoren.
Das wird sich mMn in Zunkunft mit der Verbreitung von Matrix-Accelerators ändern. Auch im wissenschaftlichen Bereich sieht man immer mehr, dass Algos von Vektor auf Matrix portiert werden. Und zum Teil zusätzlich noch Low Precision obendrauf.
Ich gehe davon aus, das MS und Sony das stark auf ihren Konsolen pushen werden. Sobald ein aktuelles Game mit RT oder 60fps laufen soll ist meist bei 1440p als interne Auflösung Schluss. Mit FSR 2.0 wird man gut was an Performance in den Kisten rausholen können.
Und wenn es die Konsolen nutzen sollen, wird es die Option auch in die PC-Fassungen schaffen.
Prinzipell ist FSR 2.0 auch was für Old Gen Konsolen. Endlich stabile 1080p/30fps bei anspruchsvollen Games und/oder verbesserte Qualität. So einem Horizon Forbidden West würde das sicher gut tun. Weg von Checkerboarding und Ausgabeauflösung = 1080p (PS4) und 4K (PS4 Pro). Bei der PS5 wäre es dann eine Aufwertung des 60fps Performance Modes.
mboeller
2022-03-18, 09:26:46
bzgl. CPU/GPU unzuverlässige Quelle, aber trotzdem:
https://www.gsmarena.com/amd_announces_fidelityfx_super_resolution_20-news-53612.php
FSR 2.0 will work on all hardware that FSR 1.0 currently works on. As with FSR 1.0, FSR 2.0 can be adopted on PC, consoles, and also mobile and up to the respective game developer.
das wäre gut. Damit hatte ich eigentlich nicht gerechnet. Mal sehen ob das auch auf die Geschwindigkeit zutrifft
Troyan
2022-03-18, 09:30:34
Natürlich läuft es auf jeder Hardware, weil es ein einfacher Compute-Shader ist. UE4 TAAU läuft auch auf jeder Hardware, die DX11 unterstützt.
Lasst euch doch nicht immer von Marketing blenden. Wichtig ist Qualität und Leistungsverlust.
mironicus
2022-03-18, 10:30:27
Könnte AMD dann auch später FSR 2.0 als RSR in den Treiber integrieren?
Tobalt
2022-03-18, 10:41:35
IMO nein. Das muss in der 3d Engine integriert sein.
mboeller
2022-03-18, 10:45:13
Man kann nun AMD den ABSOLUT MÜLL vergeben, den sie mit FSR1 auf die Welt losgelassen haben, .... Mir ist nach wie vor unerklärlich, wieso sich beide Firmen zu diesem völlig absurden weil unnützen Zwischenschritt hingerissen gefühlt haben.
ich glaube für AMD hat sich der Zwischenschritt schon gelohnt. FSR ist seit einem Jahr in aller Munde, denn wie in der Politik gilt, auch schlechte News sind News und so lange sich alle die Mäuler zerreißen ist man im Gespräch.
Etwas ernster:
FSR 1.0 kann man einfach implementieren. Damit hat AMD sehr schnell eine sehr große Basis an Spielen und "Awareness" bei den Entwicklern geschaffen. RSR rundet das jetzt noch ab und erlaubt FSR für viele vor allem ältere Spiele gänzlich ohne Entwicklersupport.
FSR 2.0 benötigt Entwicklersupport und eine Einbindung in die Spiele-Engine und damit eine lange(?) Vorlaufzeit. Wenn AMD das als erstes veröffentlicht hätte wären alle zufrieden gewesen und hätten sich dann nur gewundert, wie selten es benutzt wird und wie lange es dauert bis die ersten Spiele kommen. Mich würde nicht wundern, wenn wir so in ein paar Monaten oder 1-2 Jahren erfahren, dass beide Verfahren FSR 1.0 und 2.0 eigentlich "gleichzeitig" fertig waren aber es eben ein wenig länger gedauert hat bis 2.0 auch vorzeigbar war in Form von Spielen.
ergo: ich denke der Zwischenschritt war für AMD notwendig und sinnvoll.
basix
2022-03-18, 11:02:30
AMD hatte bei FSR 1.0 einen anderen Fokus. Es ging erstmal darum, eine schnelle Adoption zu erreichen und etwas was Nvidias DLSS nicht kann: Breite HW-Unterstützung und leichte Integration in die Engine. Differenzierung ist wichtig für einen Neueintritt einer Technologie. Damit hat man DLSS 2.0 auf eine Art rechts überholt.
Und bei FSR 2.0 benötigte AMD nun halt knapp ~2 Jahre nach Release von DLSS 2.0, um ein entsprechendes Verfahren ohne DNN und Matrix-Acceleration umzusetzen. Da steckt viel Know How und Entwicklungsaufwand dahinter. Selbst Nvidia hat nach DLSS 1.0 fast 2 Jahre gebraucht, um das Verfahren zu verbessern.
Gäbe es FSR 1.0 nicht, wäre die Alternative gewesen: Man hat nichts. FSR 2.0 wäre mNn nicht früher erschienen. Die Technologie musste zuerst entwickelt werden. DLSS 2.0 konnte man sicher als Referenz nehmen, das hat AMD verglichen mit Nvidia sicher einen gewissen Head Start gegeben (sie mussten nicht bei Null anfangen).
Noch zum Thema Performance:
- Einige Komponenten des Renderings werden bei DLSS 2.0 in Output-Auflösung berechnet: Depth of Field, Motion Blur, Bloom, Tone Mapping (interessante Randnotiz zu TAAU in Unreal Engine: Depth of Field wird in Renderauflösung berechnet, ist also ein wenig anders gebaut)
- Je nachdem wie viel Rechenlast diese Komponenten benötigen, reduziert das die Performance verglichen zu nativem Rendering auf der Basisauflösung von DLSS. z.B. 1080p nativ wird immer performanter sein als 4K DLSS Performance, selbst wenn DLSS an sich kostenlos sein würde.
- Frage: Hat jemand eine Ahnung, wie viel Performance diese Render-Komponenten im Schnitt kosten? Nur so als Grössenordnung.
robbitop
2022-03-18, 11:07:12
Außerdem ist FSR 1.0 fast ohne SW Anpassung möglich - entsprechend ist eine schnelle Verbreitung ganz anders möglich. Geht super schnell. Und ist besser als so manches spieleeigenes Upsampling. Es ist kein DLSS Kontrahent aber es ist ein Werkzeug mehr im Optionsgürtel.
Und dem Steamdeck hilft es aktuell ganz gut.
Optionen muss man nicht ja nutzen. Es sind Optionen. ;)
Platos
2022-03-18, 11:09:11
Mir ist nach wie vor unerklärlich, wieso sich beide Firmen zu diesem völlig absurden weil unnützen Zwischenschritt hingerissen gefühlt haben.
Ich würde sagen offene Alpha. Irgendwann muss man etwas mal in die "reale" Welt lassen.
basix
2022-03-18, 11:19:43
Und es generiert Kontakte zu Entwicklern. Das ist auch nicht schlecht.
Platos
2022-03-18, 11:27:31
Ich bin auch mal gespannt, wie FSR 2.0 mit feinen Strukturen in Bewegung umgeht, wie z.B Haare/Fell usw. Das sieht man auf Screenshots bekanntlich nicht gut. Bin gespannt, ob da FSR 2.0 auch ein ruhigeres Bild liefern kann als nativ.
Prinzipell ist FSR 2.0 auch was für Old Gen Konsolen. Endlich stabile 1080p/30fps bei anspruchsvollen Games und/oder verbesserte Qualität. So einem Horizon Forbidden West würde das sicher gut tun. Weg von Checkerboarding und Ausgabeauflösung = 1080p (PS4) und 4K (PS4 Pro). Bei der PS5 wäre es dann eine Aufwertung des 60fps Performance Modes.
Checkerboarding ist m.M.n auch so eine Ausgeburt der Hölle. Das bröselt so dermassen stark, wenn man stark upscaled (von einer niedrigen Auflösung). Das hat man auch schon in Death Stranding wunderbar gesehen: https://youtu.be/9ggro8CyZK4?t=330
Technisch wäre es ja interessant, wenn ein Spiel mal Checkerboard und FSR 2.0 hat. Einfach damit man mal ein 1 zu 1 Vergleich sieht. Wirds aber sicher nie geben und eig. ist das Resultat ja auch klar. Aber rein aus Interesse.
bzgl. CPU/GPU unzuverlässige Quelle, aber trotzdem:
https://www.gsmarena.com/amd_announces_fidelityfx_super_resolution_20-news-53612.php
das wäre gut. Damit hatte ich eigentlich nicht gerechnet. Mal sehen ob das auch auf die Geschwindigkeit zutrifft
Aus der angegeben Quelle kann man das so nicht entnehmen (da steht zwar das gleiche wie unten, nur ohne den Vergleich mit FSR 1.0).
Hier ne andere Quelle, die zwar auch nur eine sehr ungenaue Aussage macht aber trotzdem: https://community.amd.com/t5/gaming/announcing-and-first-look-at-amd-fidelityfx-super-resolution-2-0/ba-p/516395
FSR 2.0 will work across a wide range of products and platforms, and like FSR 1.0, that includes select competitor graphics cards.
Nicht ganz deutlich formuliert, aber es scheint wirklich so, dass das auf allen Karten läuft, auf denen FSR 1.0 funktioniert.
why_me
2022-03-18, 12:11:38
Aber aus dieser Quelle: https://community.amd.com/t5/gaming/announcing-and-first-look-at-amd-fidelityfx-super-resolution-2-0/ba-p/516395
Nicht ganz deutlich formuliert, aber es scheint wirklich so, dass das auf allen Karten läuft, auf denen FSR 1.0 funktioniert.
Es könnte auch sein, dass FSR2.0 zwingend FP16 benötigt und dadurch Pascal (1/64 FP16) und älter rausfallen, weil es einfach kein Performance gewinn bringen kann. Mit dieser Formulierung hält man sich alle Möglichkeiten offen.
Es könnte auch sein, dass FSR2.0 zwingend FP16 benötigt und dadurch Pascal (1/64 FP16) und älter rausfallen, weil es einfach kein Performance gewinn bringen kann.
Alles was du in FP16 machen kannst, kannst du immer auch in FP32 machen, im Zweifelsfall eben langsamer.
Lurtz
2022-03-18, 13:30:32
Meint ihr man wird XeSS, DLSS und FSR 2.0 oft zusammen in Spielen sehen, zumindest solange sich eines davon nicht absetzen konnte? Vermutlich dürfte der Implementierungsaufwand für die entsprechende Endlösung relativ gering sein, wenn man eine der drei Varianten eh einbaut.
dildo4u
2022-03-18, 13:35:32
XESS wird abgeschlagen sein FSR 2.0 wegen den Konsolen auf Level mit DLSS.
Imo ist klar das auch die XBox kein AA mit AI bekommt obwhol das vor Ewigkeiten mal geteasert wurde.
basix
2022-03-18, 13:44:48
Es könnte auch sein, dass FSR2.0 zwingend FP16 benötigt und dadurch Pascal (1/64 FP16) und älter rausfallen, weil es einfach kein Performance gewinn bringen kann. Mit dieser Formulierung hält man sich alle Möglichkeiten offen.
Vermutlich wie FSR 1.0 mit Fallbackpfad auf FP32, dann klappt das schon.
aufkrawall
2022-03-18, 14:19:36
Meint ihr man wird XeSS, DLSS und FSR 2.0 oft zusammen in Spielen sehen, zumindest solange sich eines davon nicht absetzen konnte? Vermutlich dürfte der Implementierungsaufwand für die entsprechende Endlösung relativ gering sein, wenn man eine der drei Varianten eh einbaut.
Schätze, Intel muss häufiger mit Geld oder Connections winken, damit es eine größere Anzahl an Entwicklern interessiert. Kann natürlich auch sein, dass XeSS so gut ist, dass es von sich aus strahlt.
robbitop
2022-03-18, 14:43:59
Checkerboarding ist m.M.n auch so eine Ausgeburt der Hölle. Das bröselt so dermassen stark, wenn man stark upscaled (von einer niedrigen Auflösung). Das hat man auch schon in Death Stranding wunderbar gesehen: https://youtu.be/9ggro8CyZK4?t=330
Checkerboard Rendering ist sehr abhängig von der Implementierung. Bei Horizon Zero Dawn ist es laut Digital Foundry sehr sehr gut.
Vermutlich wie FSR 1.0 mit Fallbackpfad auf FP32, dann klappt das schon.
Richtig und wenn es ähnlich günstig ist wie bisherige TAA Heuristiken (siehe id's TSSAA oder Epics TSR) ist das auch kein Beinbruch.
aufkrawall
2022-03-18, 14:47:03
Sollte jedenfalls weit günstiger sein als XeSS via DP4a.
00-Schneider
2022-03-18, 14:49:37
Checkerboard Rendering ist sehr abhängig von der Implementierung. Bei Horizon Zero Dawn ist es laut Digital Foundry sehr sehr gut.
Bei Days Gone und Ratched and Clank(2016) ebenfalls. Beide laufen mit 2160c.
Der Nachfolger von Horizon nur noch mit 1800c und dort versagt es dann leider komplett -> Flimmerhölle bei Vegetation. (Außer man sitzt 4m von seinen TV entfernt)
Also imho nur mit hoher Ausgangsauflösung zu gebrauchen.
Platos
2022-03-18, 16:18:03
Checkerboard Rendering ist sehr abhängig von der Implementierung. Bei Horizon Zero Dawn ist es laut Digital Foundry sehr sehr gut.
Im Grafikmodus ja. Im FPS Modus siehts grottig au. Aber es flimmert auch noch auf 2160c.
Siehe hier: https://youtu.be/0Y8u7MvuArA?t=235
Da flimmert die Vegeation in der Entfernung.
robbitop
2022-03-18, 16:20:13
Anscheinend ist es nur gut, wenn 2160c genutzt wird ausgehend von 1080p. Vertikale Auflösung verdoppelt. Ist dann zwar etwas regide aber kann trotzdem zu guten Ergebnissen führen, wenn man das beachtet.
Geldmann3
2022-03-18, 18:26:30
Meint ihr man wird XeSS, DLSS und FSR 2.0 oft zusammen in Spielen sehen, zumindest solange sich eines davon nicht absetzen konnte? Vermutlich dürfte der Implementierungsaufwand für die entsprechende Endlösung relativ gering sein, wenn man eine der drei Varianten eh einbaut.
Ich vermute, dass wir in vielen Spielen mehr als ein Verfahren sehen werden, es sei denn, eines läuft auf allen neueren GPUs performant und kann gleichzeitig die beste Bildqualität liefern.
Da ich vermute, dass FSR 2.0 nur auf dem Level von TSR landen wird, gibt es in der Unreal Engine eventuell keinen Grund FSR auch noch einzubauen.
Daher werden wir 2023/2024 bestimmt oft FSR 2.0 + DLSS 3.0 ODER TSR + DLSS 3.0 sehen.
Intels XeSS traue ich es am ehesten zu, einen Marktstandard zu schaffen. (Das fürchtet Nvidia auch)
Das könnte auf allem halbwegs gut laufen und etwa auf dem Level von DLSS landen. Doch das ist alles noch schwer einzuschätzen. Wenn XeSS viel besser auf Intel-Hardware läuft 10%+ sehen wir das eventuell oft neben DLSS oder FSR 2.0.
Eventuell sollte Nvidia DLSS langsam mal öffnen.
Der Sourcecode scheint sowieso geleakt und mit Alternativen, die auf allem laufen, wird es immer mehr zum Klotz am Bein. Ich wette, es würde mit ein bisschen Optimierung auch ordentlich ohne die Tensor-Cores laufen. Auch, wenn andere hier anderer Meinung sind. -10% Performance höchstens, würde ich schätzen. Das wäre zwar schlechter, aber Nvidia hätte den Vorteil, dass Entwickler faul sein könnten und nur DLSS implementieren könnten, was auf der eigenen Hardware (erstmal) am besten läuft. Bis die GPU-Architekturen der Konkurrenz sich eine Generation später daran adaptiert, hätten. (RDNA 4 wird sicher selbst bereits ML-Cores mitbringen.) Wäre doch wieder ein toller Nvidia-typischer, wettbewerbsfeindlicher Hack. Nvidia wäre der Held, wenn DLSS Open-Source geht.
Andron
2022-03-18, 19:06:23
Intels XeSS traue ich es am ehesten zu, einen Marktstandard zu schaffen. (Das fürchtet Nvidia auch)
Das könnte auf allem halbwegs gut laufen und etwa auf dem Level von DLSS landen. Doch das ist alles noch schwer einzuschätzen. Wenn XeSS viel besser auf Intel-Hardware läuft 10%+ sehen wir das eventuell oft neben DLSS oder FSR 2.0.
Das größte Problem für XeSS wird die Abhängigkeit von DP4A auf Fremdhardware sein. Bei AMD ist damit alles vor RDNA2 raus außer Vega 20, was wohl angesichts der relativ geringen Marktdurchdringung kein großes Problem darstellt. Nvidia ist mit DP4A-Support seit Pascal gut aufgestellt. Mit der Playstation 5 ist aber eine für Entwickler wichtige Plattform inkompatibel, während TSR und FSR 2.0 lauffähig sein werden.
robbitop
2022-03-18, 19:36:18
Wobei die Zeit ja nicht stillsteht. Dieses Jahr kommt RDNA3. Dann sind es zwei Generationen mit dp4a. Vega kann immerhin fp16 speedup. Und Polaris muss halt ohne Speedup arbeiten.
Savay
2022-03-18, 20:04:42
Müssten die 7nm Vega APUs nicht theoretisch auch
V_DOT4_I32_I8
V_DOT4_U32_U8
beherrschen?
Die sollen doch auf GCN5.1 basieren?!
Oder sind die doch nur GCN5.0 und werden einfach nur "GCN5.1" genannt weil sie auf 7nm umgesetzt wurden?
Andron
2022-03-18, 20:42:45
Wobei die Zeit ja nicht stillsteht. Dieses Jahr kommt RDNA3. Dann sind es zwei Generationen mit dp4a. Vega kann immerhin fp16 speedup. Und Polaris muss halt ohne Speedup arbeiten.
Das wollte ich indirekt mit meinem Post auch Aussagen. AMDs älteren Karten alleine haben zu wenig Marktanteil, um die Verbreitung von XeSS zu hemmen. Natürlich wird dieser Anteil in nicht allzu ferner Zukunft mit RDNA 3 nochmal unbedeutender. Die Kombination mit der kastrierten PS5 ist da mMn. schwerwiegender, zumindest wenn es um das Thema Marktstandard geht. Mit der PS5 Pro kann sich das aber wieder ändern. Vega und Polaris sind aber stand jetzt auf jeden Fall raus, Intel hat einem FP16/32 Fallback eine Absage erteilt.
https://wccftech.com/intel-xess-interview-karthik-vaidyanathan/
(https://wccftech.com/intel-xess-interview-karthik-vaidyanathan/)
Versteht mich nicht falsch, ich traue XeSS absolut einen festen Platz in vielen zukünftigen Veröffentlichungen zu, eine Verdrängung der Konkurrenztechnologien kann ich mir aber noch nicht vorstellen.
Eine große Unbekannte gibt es noch: wie gut wird die Performance auf kleineren RDNA2-, Pascal- oder Turing-GTX-Karten trotz DP4A Speedup sein? XeSS dürfte deutlich mehr Leistung auf diesen Karten binden, als TSR, TAAU oder FSR 2.0. Wenn der zusätzliche Rechenaufwand so groß ist, dass man die Ausgangsauflösung signifikant reduzieren muss, könnte ein evtl. AI-Vorteil bei gleicher Performance am Ende verpuffen.
Die spärlichen Infos zu FSR 2 stimmen mich bislang sehr zufrieden! Das ist wirklich mal ein Riesenschritt vorwärts in der Computergrafik, weil er diesmal alle mitnimmt. Es scheint solide implementiert und liefert ordentliche Performance Gains bei toller Qualität ab, wie man es von anständigem Temporal Upscaling erwarten kann. Man kann nun AMD den ABSOLUT MÜLL vergeben, den sie mit FSR1 auf die Welt losgelassen haben, genauso, wie wir nV den ABSOLUTEN MÜLL namens DLSS1 vergeben haben. Mir ist nach wie vor unerklärlich, wieso sich beide Firmen zu diesem völlig absurden weil unnützen Zwischenschritt hingerissen gefühlt haben.
Erstmal müsste FSR 2.0 qualitativ zu DLSS 1.0 aufschließen, zumindest den AA Part haben sie diesmal mit bedacht, was schonmal ein Fortschritt ist.
aufkrawall
2022-03-18, 22:14:26
DLSS 1.0 sieht aus wie Müll vs. vernünftige TAAU-Implementierungen, das deutlich zu übertreffen sollte wirklich nicht das Problem sein.
BlacKi
2022-03-18, 22:23:33
DLSS 1.0 sieht aus wie Müll vs. vernünftige TAAU-Implementierungen, das deutlich zu übertreffen sollte wirklich nicht das Problem sein.was, wenn fsr2 die vernünftigen implementierungen einfacher machen würden?
aufkrawall
2022-03-18, 22:32:01
was, wenn fsr2 die vernünftigen implementierungen einfacher machen würden?
Der Sinn und Zweck von FSR 2.0 ist, dass Entwickler nicht mehr ein eigenes TAAU implementieren müssen, sondern nur noch die Basisarbeit dafür leisten.
Platos
2022-03-19, 00:10:10
Also wenn Intels Version nicht auf Konsolen läuft, sehe ich FSR 2.0 schon enorm vorne. Wenn man auf der Konsole und PC eine gemeinsame Technik hat, sehe ich nicht, warum man noch Intels Version supporten sollte.
FSR 2.0 könnte wirklich sowas wie AA Methoden ersetzen
Tobalt
2022-03-19, 05:34:33
Erstmal müsste FSR 2.0 qualitativ zu DLSS 1.0 aufschließen.
Troyan, sind Sie's ?
robbitop
2022-03-19, 07:28:27
Ich erinnere mich an den hwub Vergleich von DLSS 1 vs normale Skalierung und CAS und CAS hatte gewonnen. Das war anfänglich zumindest nicht so toll. 1.9 wurde deutlich besser war aber sehr kurzlebig.
basix
2022-03-19, 09:52:21
Noch zum Thema Schattenqualität der veröffentlichten FSR 2.0 Screenshots: Liegt eindeutig an der Renderauflösung und nicht FSR 2.0. Wenn man die FSR 1.0 Screenshots danebenstellt, sieht man ebenfalls die sich verändernde Schattenqualität. Wäre schon nice, wenn sich das in Zukunft an die Output-Auflösung anlehnen würde.
iamthebear
2022-03-19, 13:33:19
Erstmal müsste FSR 2.0 qualitativ zu DLSS 1.0 aufschließen, zumindest den AA Part haben sie diesmal mit bedacht, was schonmal ein Fortschritt ist.
Die Frage ist: Vergleichst du hier gleiche Renderauflösung oder gleiche Performance? Das Problem von DLSS 1.0 war in erster Linie die Performance. Renderauflösung war z.B. 1080p und Performance war irgendwo zwischen 1440p und 4K ähnlich wie FSR UQ.
Das größte Problem für XeSS wird die Abhängigkeit von DP4A auf Fremdhardware sein. Bei AMD ist damit alles vor RDNA2 raus außer Vega 20, was wohl angesichts der relativ geringen Marktdurchdringung kein großes Problem darstellt. Nvidia ist mit DP4A-Support seit Pascal gut aufgestellt. Mit der Playstation 5 ist aber eine für Entwickler wichtige Plattform inkompatibel, während TSR und FSR 2.0 lauffähig sein werden.
Das größte Problem von XeSS wird sein, dass Intel erst einmal eine brauchbare GPU inkl. Treiber auf den Markt bringen muss. Meiner Meinung wird das komplett overhyped.
Auch von XeSS erwarte ich ehrlich gesagt nicht allzu viel. Alle Videos bisher wurden gefaked indem die 1080p Native Bildqualität künstlich gesenkt wurde. Abgesehen davon gehe ich davon aus, dass der Performance Overhead beträchtlich sein wird bzw. das Ganze auf Nvidia/AMD Karten keinen Sinn ergeben wird. Umsonst fügt Intel nicht Unmengen an Matrixeinheiten hinzu, die nur für XeSS genutzt werden.
Um ehrlich zu sein: Ich glaube DG2 wird im Gamingmarkt ein riesiger Fail. Wo doe Karten möglicherweise brauchbar sein werden ist für Content Creator.
Rooter
2022-03-19, 14:24:10
Das größte Problem von XeSS wird sein, dass Intel erst einmal eine brauchbare GPU inkl. Treiber auf den Markt bringen muss.Sehe ich auch so. Die Hardware wird schon zumindest okay sein, die haben sich ja ein paar gute Leute eingekauft. Aber etliche Jahre Treiber-Entwicklung aufzuholen ist ein Problem. Ich bin gespannt.
MfG
Rooter
-/\-CruNcher-/\-
2022-03-19, 15:54:18
Erstmal müsste FSR 2.0 qualitativ zu DLSS 1.0 aufschließen, zumindest den AA Part haben sie diesmal mit bedacht, was schonmal ein Fortschritt ist.
Timothy arbeitet aktiv an der Unity seite das FSR 2.0 durchschlagen wird sein wechsel hin zur vollen Engine Optimierung war der richtige schritt.
http://advances.realtimerendering.com/s2021/Unity%20AMD%20FSR%20-%20SIGGRAPH%202021.pdf
Das wird Nvidia/Epic schon ein bischen netter unter druck setzen
Argo Zero
2022-03-19, 16:08:33
was ich bisher echt geil finde ist, dass es auf (fast?) jeder Hardware läuft.
Performance 4 free und das gerade in Zeiten wo eine Grafikkarte 1.000 EUR kostet...
DrFreaK666
2022-03-19, 16:17:22
...Das größte Problem von XeSS wird sein, dass Intel erst einmal eine brauchbare GPU inkl. Treiber auf den Markt bringen muss...
Wieso? Wenn XeSS mit anderen Karten funktioniert, dann sollte das unabhängig von Intel-Karten auf den Markt kommen.
Death Stranding soll XeSS erhalten. Fraglich wen das bei dem dann alten Spiel noch juckt
7LFCxF9Ox4g
Da Death Loop für die Xbox erst noch erscheinen wird, könnte ich mir vorstellen, dass diese Version dann mit FSR 2.0 läuft.
robbitop
2022-03-19, 16:26:47
Ich vermute, dass XeSS und auch FSR 2.0 sehr ähnliche Voraussetzungen und Schnittstellencharakteristiken haben. Kann mir gut vorstellen, dass wenn DLSS 2.x implementiert ist, ist die Implementierung der anderen beiden Standards deutlich schneller weil grundsätzlich ein Großteil der Voraussetzungen ja bereits vorhanden ist.
Entsprechend kann man auch alte Spiele nochmal in die News bringen. „Death Stranding kann jetzt XeSS“ ist auch wieder PR zum Produkt. Das kann nochmal Käufe generieren. Nicht durch XeSS sondern durch die bloße Erwähnung in den News.
DrFreaK666
2022-03-20, 00:20:07
Ja, aber DS würde ich nicht als Verkaufsschlager einschätzen.
Daran wird XeSS sicherlich auch nichts ändern
Ich erinnere mich an den hwub Vergleich von DLSS 1 vs normale Skalierung und CAS und CAS hatte gewonnen. Das war anfänglich zumindest nicht so toll. 1.9 wurde deutlich besser war aber sehr kurzlebig.
Bei Battlefield ja, bei Tomb Raider war schon DLSS 1 bedeutend besser als herkömliche Skalierung.
Gratzner
2022-03-21, 15:36:24
Leonidas hat in der News vom 19/20 März auf "FPS & Tech Testing" verwiesen. Diese haben die Szene aus AMDs Vergleichsfoto zu FSR 2.0 nachgespielt und dazu passende DLSS 2.3 Screenshots erstellt.
Habe aus deren Youtube-Video[1] mal ein paar Vergleichsbilder mit Schieberegler zum direkten Vergleichen erstellt:
https://imgsli.com/MTAwNzIw/4/1
https://imgsli.com/MTAwNzE5/1/3
Ich habe bewusst nur gezoomte Bilder verwendet (300% zoom), weil Youtube einfach eine viel zu niedrige Bitrate in ihren Videos hat.
Also für Alle, die dlss 2.x mit FSR 2.0 vergleichen wollen (sowohl performance- als auch quality-Einstellung).
[1]Youtube Video von FPS & Tech Testing (https://www.youtube.com/watch?v=upGTctUo93A)
Edit: Beispielsweise fällt auf, das beide, dlss als auch FSR, die Raytracing-Schatten nicht rekonstruieren können
basix
2022-03-21, 16:06:38
Top! Danke für den Vergleich.
Der Unterschied von FSR 1.0 Performance und FSR 2.0 Performance ist wirklich riesig.
DLSS 2.3 vs. FSR 2.0:
- Im groben und ganzen gleichwertig
- DLSS scheint schärfer zu sein, fast überschärft (was man bei FSR mit CAS oder einem Schärferegler im Spiel nachschärfen könnte)
- Dafür hat FSR die etwas bessere Kantenglättung
Zu den Schatten: Ja, man kann halt nichts rekonstruieren, wo nichts da ist. Keine Ahnung, was man da an der Engine anpassen müsste. Evtl. gibt es diesen Sample Jitter bei RT nicht?
dargo
2022-03-21, 16:16:12
DLSS 2.3 vs. FSR 2.0:
- Im groben und ganzen gleichwertig
- DLSS scheint schärfer zu sein, fast überschärft (was man bei FSR mit CAS oder einem Schärferegler im Spiel nachschärfen könnte)
- Dafür hat FSR die etwas bessere Kantenglättung
Ich sehe zwar auch die bessere Kantenglättung von FSR 2.0. Allerdings frage ich mich ob das nicht einfach nur daran liegt, dass DLSS 2.3 zu stark nachschärft oder eben FSR 2.0 zu wenig? Wenn ich die Bildschärfe vs. nativ vergleiche würde ich sagen die Bildschärfe von DLSS 2.3 ist näher an der Bildschärfe der nativen Auflösung dran als die Bildschärfe von FSR 2.0. Soll heißen bei FSR 2.0 müsste man manuell minimal nachschärfen. Das sind immer so ein wenig Äpfel/Birnen Vergleiche wenn der Output unterschiedliche Bildschärfen liefert. FSR 1.0 disqualifiziert sich hier natürlich komplett. Aber das ist ja nichts Neues.
Troyan
2022-03-21, 16:19:03
Weiß nicht, ob DLSS 2.3 zu stark nachgeschärft wurde. Das Ringing gibt es auch in 4K, wird nur bei DLSS verstärkt. Das scheint vom raw-Input zu kommen. FSR 2.0 zeigt typische TAA Probleme indem Kanten zu stark verblurrt werden. Die schwarzen Kontrastkanten an den Balloons fehlen teilweise. Und das starke blurren führt dann zu mehr Unschärfe.
Am Ende zählt sowieso nur der Eindruck in Bewegung.
aufkrawall
2022-03-21, 16:28:14
Edit: Beispielsweise fällt auf, das beide, dlss als auch FSR, die Raytracing-Schatten nicht rekonstruieren können
TAA kann auch nur Aliasing beseitigen und sekundär Noise, ansonsten kann es aber nicht übers Wasser gehen.
Der Vergleich ist seltsam, bei meinem Vergleich mit DLSS Balanced + CAS ist da ziemlich genau gar kein Ringing zu erkennen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12822662&postcount=1569
Ist einfach noch zu früh für irgendwelche Vergleiche...
Tobalt
2022-03-21, 17:18:40
Mein vorläufiger Eindruck ist, dass FSR konservativer temporale Infos entsorgt und deshalb insgesamt etwas weniger Samples als DLSS zur Rekonstruktion nutzt, deshalb etwas unschärfer ist, aber weniger stark zu Artefakten neigt.
Auf jeden Fall sind sie selbst auf dem Screenshot nicht gerade "ähnlich", sondern ziemlich unterschiedlich. Aber beide gut. FSR liegt IMO näher an nativ. Wobei DLSS streckenweise deutlich besser als nativ ist, an anderen Stellen aber weiter daneben.
DrFreaK666
2022-03-21, 17:48:14
Am Ende bringt das alles nichts, wenn AMD Spiele-Entwickler nicht davon überzeugen kann.
Aber wahrscheinlich wird AMD wieder eine Liste mit Spielen zeigen, die das verwenden werden.
könnte ja nur über geld/entwickler bei nvidia laufen. wer sich einem äquivalenten und hersteller agnostischen verfahren gegenüber sperrt und lieber auf eine blackbox mit massiv eingeschränkter plattform sperrt, dem ist eh nicht zu helfen.
robbitop
2022-03-21, 19:33:41
Mein vorläufiger Eindruck ist, dass FSR konservativer temporale Infos entsorgt und deshalb insgesamt etwas weniger Samples als DLSS zur Rekonstruktion nutzt, deshalb etwas unschärfer ist, aber weniger stark zu Artefakten neigt.
Auf jeden Fall sind sie selbst auf dem Screenshot nicht gerade "ähnlich", sondern ziemlich unterschiedlich. Aber beide gut. FSR liegt IMO näher an nativ. Wobei DLSS streckenweise deutlich besser als nativ ist, an anderen Stellen aber weiter daneben.
Etwas anderes hätte mich auch gewundert. Heuristik vs NN.
Aber „nah dran“ ist schonmal besser als vorher.
Ich sehe gute Chancen für die Implementierung:
1.) es läuft potenziell auf jeder Hardware -> Zielgruppe größer und man muss es (inkl Konsolen) nur 1x implementieren
2.) Open Source statt blackbox.
Andron
2022-03-21, 19:59:36
Interessant finde ich den Vergleich von FSR/DLSS Performance: Die Artefakte an der Schrift des roten Schildes sind bei beiden Verfahren in gleicher Weise vorhanden (die grünen und roten Pixel, die an Chroma Subsampling erinnern. Es wurde ja bisher spekuliert, dass das an FSR 2.0 und dem fehlenden AI-Ansatz liegt. Scheinbar ist das doch eine Eigenart des Spiels. Für wirklich aussagekräftige Vergleiche braucht es wohl noch einige Zeit und am besten mehrere spielbare Beispiele, um auch die schwankende Qualität der Implementierungen berücksichtigen zu können.
Gratzner
2022-03-21, 22:03:56
Der Vergleich ist seltsam, bei meinem Vergleich mit DLSS Balanced + CAS ist da ziemlich genau gar kein Ringing zu erkennen:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12822662&postcount=1569
Die beiden FSR Beispiele und Nativ hat "FPS & Tech Testing" wahrscheinlich direkt von AMD verwendet, während das DLSS Beispiel von Youtuber selber erstellt wurde. Der Youtuber hat meiner Meinung nach definitiv da nachgeschärft und überschärft.
Beispielsweise im zweiten Link (https://imgsli.com/MTAwNzE5/0/2), beim Vergleich Nativ vs. DLSS-Quality. Man schaue sich unten Rechts den Torbogen an. Die Texture von der Zugemauerten Wand unter dem Torbogen beginnt bei DLSS-Quality schon mit Rauschen, so stark wurde nachgeschärft. Dabei leidet DLSS meiner Erfahrung nach eher mehr oder weniger stark Unschärfe.
Gratzner
2022-03-21, 22:06:50
Interessent finde ich ja, was für Artefakte alles Übersehen wurden (ich habe sie selber auch übersehen).
Beginnen wir mit DLSS. Da gibt es irgendwelches Ghosting und Smearing
https://imgsli.com/MTAwODY0/1/3
Bilder aus dem Youtube-Video von FPS & Tech Testing
Bei FSR sehen einige Texturen mindestens chaotisch aus, wenn man sehr nah ranzoomt.
https://imgsli.com/MTAwODYz/2/1
(Bilder aus den 4k-Screenshots von AMD, bereitgestellt via Computerbase)
Beim nahen ranzoomen sieht man viele Schwarze Punkte, welche definitv nicht zur Textur gehören. (Schwarze Punkte = Pixel wo FSR keine Samples finden konnte?)
https://imgsli.com/MTAwODYx/2/0
(Bilder aus den 4k-Screenshots von AMD, bereitgestellt via Computerbase)
Edit:
Die DLSS-Artefakt-Bilder wurden durch Vergleichsbilder mit Schiebereglern ersetzt.
Die Bilder zu den FSR-Artefakten wurden ebenfalls durch Vergleichsbilder mit Schieberegler ersetzt. Hier kann jetzt auch Nativ vs. FSR2-Quality vs. FSR2-Performance verglichen werden
Andron
2022-03-21, 23:50:05
Bei FSR sehen einige Texturen ziemlich mindestens Chaotik aus, wenn man sehr nah ranzoomt. Ich habe hier noch netterweise nativ mit FSR 2.0 Quality verglichen
Beim nahen ranzoomen sieht man viele Schwarze Punkte, welche definitv nicht zur Textur gehören. (Schwarze Punkte = Pixel wo FSR keine Samples finden konnte?)
Die schwarzen Pixel sind schon verschiedenen Leuten aufgefallen:
https://www.youtube.com/watch?v=ovVz-UgGnLg&ab_channel=2kliksphilip
(https://www.youtube.com/watch?v=ovVz-UgGnLg&ab_channel=2kliksphilip)
Die Frage ist, ob es sich hierbei um ein Problem seitens FSR oder der Engine handelt, denn sowohl die Schatten als auch Farbkontraste weisen Artefakte mit DLSS sowie FSR auf. Ein DLSS Vergleichsbild von der betroffenen Mauer wäre interessant. Alles in allem ist eine objektive Bewertung mit dem spärlichen, vorliegenden Material eigentlich noch nicht möglich.
Platos
2022-03-22, 00:49:41
Interessent finde ich ja, was für Artefakte alles Übersehen wurden (ich habe sie selber auch übersehen).
[In den Spoilern sind Vergleichsbilder. Ich empfehle Rechtsklick auf das Bild -> Bild in einem neuen Tab öffnen, um das Bild in voll Größe zu sehen. Sonst wird man die Artefakte eher schwer sehen]
Beginnen wir mit DLSS. Da gibt es irgendwelches Ghosting und Smearing
https://s20.directupload.net/images/220321/8pskka5o.png
Bilder aus dem Youtube-Video von FPS & Tech Testing
Bei FSR sehen einige Texturen ziemlich mindestens Chaotik aus, wenn man sehr nah ranzoomt. Ich habe hier noch netterweise nativ mit FSR 2.0 Quality verglichen
https://s20.directupload.net/images/220321/t85jk9je.png
Bilder aus den 4k-Screenshots von AMD, bereitgestellt via Computerbase
Beim nahen ranzoomen sieht man viele Schwarze Punkte, welche definitv nicht zur Textur gehören. (Schwarze Punkte = Pixel wo FSR keine Samples finden konnte?)
https://s20.directupload.net/images/220321/twbpbe3g.png
Bilder aus den 4k-Screenshots von AMD, bereitgestellt via Computerbase
Rein Subjektiv gefällt mir im ersten Bild FSR 2.0 sogar besser wie DLSS 2.3. DLSS ist da etwas "körniger"/"überschärfter" und FSR 2.0 ist da deutlich weicher, was mir persönlich besser gefällt.
Bei den anderen beiden Bildern: Gibts da auch noch DLSS als Vergleich? Sieht natürlich unter FSR 2.0 schon schlechter aus, wie nativ. Aus welchem der Bilder stammt das mit den schwarzen Punkten?
Aber nachdem ich das Video angesehen habe: Ich finde, DLSS sieht an manchen Orten einfach noch einen ticken schärfer aus. An anderen dafür aber irgendwie "pixeliger", während dem FSR 2.0 da irgendwie "weichzeichnet". FSR 2.0 gefällt mir da persönlich besser. Sieht man z.B beim Ballon.
Edit: Im Video das von Andron verlinkt wurde, sieht man aber dann doch, dass FSR 2.0 an einigen Stellen noch Nachteile hat bezüglich Nativ (oder DLSS).
robbitop
2022-03-22, 08:43:59
Statische Bilder sind das eine - aber gerade in Bewegung sieht man eher die temporale Stabilität des Bildes.
Auch performen bisherige Verfahren (inkl DLSS) in einem breiten Spektrum von Kontent und Kamerabewegungen sehr sehr unterschiedlich. Will sagen: viel wird uns dieses eine Bild nicht über den generellen Zustand von FSR 2.0 nicht verraten können.
Geldmann3
2022-03-22, 08:56:01
Statische Bilder sind das eine - aber gerade in Bewegung sieht man eher die temporale Stabilität des Bildes.
Auch performen bisherige Verfahren (inkl DLSS) in einem breiten Spektrum von Kontent und Kamerabewegungen sehr sehr unterschiedlich. Will sagen: viel wird uns dieses eine Bild nicht über den generellen Zustand von FSR 2.0 nicht verraten können.
Exakt, das fiel mir letztens beim Erstellen meiner Bildvergleiche in Cyberpunk 2077 auf. In Frame 1 war eine Kante komplett glatt, in Frame 2 gab es dann einen heftigen Treppeneffekt mit DLSS an der Stelle und in Frame 3 war dann z.b. wieder alles in Ordnung. :freak: Obwohl ich keine Kamerabewegung gemacht hatte und nichts. Cyberpunk ist hier allerdings auch das schlimmste Beispiel, welches mir je zu Augen kam. DLSS-Performance wirkt in schneller Bewegung plötzlich wie No AA. Bestenfalls. Echt komisch. In vielen anderen Games sieht auch DLSS-Performance noch gut aus, auch in Bewegung.
Liegt sicher am Zusammenspiel der speziellen Game-Engine mit dem RTX DLSS SDK und den Daten, die sie an das SDK weiterreicht.
Hmm, vielleicht reflektiert in Cyberpunk auch vieles einfach und an Reflektionen zerbricht DLSS naturgemäß.
robbitop
2022-03-22, 09:16:30
Hast du in Cyberpunk verschiedene DLSS dlls probiert? DF hatte mal darüber berichtet, dass eine neuere dll die Ergebnisse dort deutlich verbessert hat. Aber dummerweise ist bei den dlls leider das Motto "je neuer desto besser" nicht wahr. Je nach Spiel ist eine entsprechende DLL besonders gut oder etwas schlechter.
Geldmann3
2022-03-22, 09:27:34
Hast du in Cyberpunk verschiedene DLSS dlls probiert? DF hatte mal darüber berichtet, dass eine neuere dll die Ergebnisse dort deutlich verbessert hat. Aber dummerweise ist bei den dlls leider das Motto "je neuer desto besser" nicht wahr. Je nach Spiel ist eine entsprechende DLL besonders gut oder etwas schlechter.
Nein, wollte die Bildqualität des Spiels allerdings auch bewusst im Auslieferungszustand testen.
Hmm, vielleicht reflektiert in Cyberpunk auch vieles einfach und an Reflektionen zerbricht DLSS naturgemäß.
In Guardians of the Galaxy nicht.
basix
2022-03-22, 10:25:23
Interessent finde ich ja, was für Artefakte alles Übersehen wurden (ich habe sie selber auch übersehen).
[In den Spoilern sind Vergleichsbilder. Ich empfehle Rechtsklick auf das Bild -> Bild in einem neuen Tab öffnen, um das Bild in voll Größe zu sehen. Sonst wird man die Artefakte eher schwer sehen]
Beginnen wir mit DLSS. Da gibt es irgendwelches Ghosting und Smearing
https://s20.directupload.net/images/220321/8pskka5o.png
Bilder aus dem Youtube-Video von FPS & Tech Testing
Bei FSR sehen einige Texturen ziemlich mindestens Chaotik aus, wenn man sehr nah ranzoomt. Ich habe hier noch netterweise nativ mit FSR 2.0 Quality verglichen
https://s20.directupload.net/images/220321/t85jk9je.png
Bilder aus den 4k-Screenshots von AMD, bereitgestellt via Computerbase
Beim nahen ranzoomen sieht man viele Schwarze Punkte, welche definitv nicht zur Textur gehören. (Schwarze Punkte = Pixel wo FSR keine Samples finden konnte?)
https://s20.directupload.net/images/220321/twbpbe3g.png
Bilder aus den 4k-Screenshots von AMD, bereitgestellt via Computerbase
Die schwarzen Punkte sind interessant. Wenn FSR hier keine Samples findet, wäre das komisch. Für den Rest rund herum findet man ja auch welche (und deren Position ist bekannt). Und würde man keine schlauen Daten finden, würde es eigentlich dann am meisten Sinn machen, hier das Average der umgebenden Pixel zu verwenden. Aber evtl. will man das nicht, da das ansonsten zu einem positiven Feedback Loop führen würden, bei welchen man einen Fehler einfügt und nicht wieder rausbekommt. Interessant ist es allemal.
Andereseits: Wenn Artefakte übersehen werden, selbst wenn man das Bild detailliert betrachtet, dann können sie nicht so schlimm sein ;) Die Ghosting Artefakte von DLSS und die Blockartefakte in einigen Schatten bei FSR 2 sind mMn störender.
Geldmann3
2022-03-22, 12:59:30
Na das mit den schwarzen Pixeln wird ja hoffentlich ein Fehler sein, der entweder mit dem Spiel zusammenhängt oder bis zum Release behoben wird.
Dann ist es doch auch gut gewesen, dass sie dieses Material Monate zuvor veröffentlicht haben, so macht man das ordentlich. Die Zuschauer sehen nämlich noch andere Sachen als die Tester. :)
aufkrawall
2022-03-22, 13:07:19
Als ob da FSR 2.0 einfach schwarze Pixel interpoliert. :freak:
Das wird wohl eher einfach die Nachschärfungskeule sein, das fällt ja nun sehr deutlich bei Betrachtung des 4k FSR 2.0 Screenshots auf 1440p ohne Skalierung auf. Über was hier diskutiert wird...
Geldmann3
2022-03-22, 13:20:22
Stimmt, das könnte es durchaus sein!
HAHA, das wär' schon richtig strange.
Platos
2022-03-22, 13:48:50
Statische Bilder sind das eine - aber gerade in Bewegung sieht man eher die temporale Stabilität des Bildes.
Auch performen bisherige Verfahren (inkl DLSS) in einem breiten Spektrum von Kontent und Kamerabewegungen sehr sehr unterschiedlich. Will sagen: viel wird uns dieses eine Bild nicht über den generellen Zustand von FSR 2.0 nicht verraten können.
Das stimmt natürlich. Aber in Bewegeung haben wir ja schon gesehen (auuch wenns nur ein ganz kleiner Ausschnitt war). Aber klar, mehr wäre besser. Mehr ist aber momentan nicht vorhanden.
Gratzner
2022-03-22, 14:14:21
Interessent finde ich ja, was für Artefakte alles Übersehen wurden (ich habe sie selber auch übersehen).
Beginnen wir mit DLSS. Da gibt es irgendwelches Ghosting und Smearing
https://imgsli.com/MTAwODY0/1/3
Bilder aus dem Youtube-Video von FPS & Tech Testing
Bei FSR sehen einige Texturen mindestens chaotisch aus, wenn man sehr nah ranzoomt.
https://imgsli.com/MTAwODYz/2/1
(Bilder aus den 4k-Screenshots von AMD, bereitgestellt via Computerbase)
Beim nahen ranzoomen sieht man viele Schwarze Punkte, welche definitv nicht zur Textur gehören. (Schwarze Punkte = Pixel wo FSR keine Samples finden konnte?)
https://imgsli.com/MTAwODYx/2/0
(Bilder aus den 4k-Screenshots von AMD, bereitgestellt via Computerbase)
Edit:
Die DLSS-Artefakt-Bilder wurden durch Vergleichsbilder mit Schiebereglern ersetzt.
Die Bilder zu den FSR-Artefakten wurden ebenfalls durch Vergleichsbilder mit Schieberegler ersetzt. Hier kann jetzt auch Nativ vs. FSR2-Quality vs. FSR2-Performance verglichen werden
Wie im Edit steht, habe ich mal die Vergleichsbilder durch Vergleiche mit Schieberegler geupdatet
Als ob da FSR 2.0 einfach schwarze Pixel interpoliert. :freak:
Das wird wohl eher einfach die Nachschärfungskeule sein, das fällt ja nun sehr deutlich bei Betrachtung des 4k FSR 2.0 Screenshots auf 1440p ohne Skalierung auf. Über was hier diskutiert wird...
Ich meinte nicht, das FSR da schwarze Pixel interpoliert, sondern das Pixel ohne Samples defaultmäßig Schwarz bekommen und AMD dort vergessen hat eine Interpolation hinzuzufügen.
Wie dem auch sei. Ich habe nochmal die Schwarzen Pixel aus den 4k-Screenshots, welche direkt von AMD stammen (und via Computerbase bereitgestellt wurden) mit der Pipette angeschaut. Die Pixel sind nicht schwarz, sondern das sind alles verschiedene dunkelblaue Töne. Also meine Spekulation ist da definitiv falsch.
Das dunkle Punkte an einer hellen Wand durchs Nachschärfen entstehen ist imho mindestens komisch
Tobalt
2022-03-22, 14:26:27
Ich finde die Nachschärfehypothese schon plausibel.
Erstelle mal ein Bild mit grauem Rauschen, das nur ganz leicht von mittlerem grau (127) abweicht - sagen wir von 119-135.
Wenn du jetzt Sharpen draufgibts, wird der Wertebereich immer breiter. Bei genug Sharpen wird es Schwarzweiß.
Ich persönlich reagiere sehr allergisch auf Sharpening und habe eigentlich alle meine Geräte immer so eingestellt dass absolut kein zusätzliches Sharpening geschieht. Und zumindest mein "Allergiedetektor" ist bei dem Wandbild auch angesprungen ;)
basix
2022-03-22, 14:52:17
Das dunkle Punkte an einer hellen Wand durchs Nachschärfen entstehen ist imho mindestens komisch
Nachschärfen oder Kontrasterhöhung könnte schon einer der Gründe sein.
Ich wüsste aber gerade nicht, wie ein Nachschärfefilter wie hier beobachtet aus einem Braunton fast schwarze oder wie du sagst dunkelblaue Pixel machen sollte. Zumindest nicht in dieser Form. Der Kontrastunterschied zu den Nachbarpixeln ist einfach ungewöhnlich (zu) hoch. Es gibt viele Kanten mit Kontrastverläufen, wo alles gut aussieht. Und dann plötzlich BAM, einzelnes Pixel schwarz. Sehr ungewöhnlich.
why_me
2022-03-22, 16:25:47
Die Pixel sin ja nicht plötzlich dunkel und an ungewöhnlichen stellen, sondern an stellen in denen auch die Textur der Wand dunkel ist. Im Nativen Bild werden die einfach durch den Blur ausgebügelt.
Es scheint auch nur diese Wand stark davon betroffen zu sein, der Rest sieht eigentlich normal aus. Vielleicht ist einfach diese Textur das Problem?
Und was man auch sagen muss, es wurde doch stark herein gezoomt, bleibt auch die Frage, ob das ohne Zoom überhaupt auffällt.
aufkrawall
2022-03-22, 16:33:17
Tippe auf neg. LOD-Bias + Sharpen. Die detaillierter wirkenden Gräser/Büsche mit FSR deuten darauf hin. Dann können logischerweise auch mehr Details in anderen Texturen sein, die mit dem Mip Level in nativer Auflösung nicht dargestellt werden.
Hat AMD ja auch schon für FSR 1.0 empfohlen. Haben nur viele Entwickler nicht gemacht, weil es ohne sehr effektives TSSAA zu entsetzlichem Shimmering neigt.
blaidd
2022-03-22, 21:59:49
Ich finde die Nachschärfehypothese schon plausibel.
Erstelle mal ein Bild mit grauem Rauschen, das nur ganz leicht von mittlerem grau (127) abweicht - sagen wir von 119-135.
Wenn du jetzt Sharpen draufgibts, wird der Wertebereich immer breiter. Bei genug Sharpen wird es Schwarzweiß.
Ich persönlich reagiere sehr allergisch auf Sharpening und habe eigentlich alle meine Geräte immer so eingestellt dass absolut kein zusätzliches Sharpening geschieht. Und zumindest mein "Allergiedetektor" ist bei dem Wandbild auch angesprungen ;)
Würde auch auf Überschärfung tippen - und kann das ebenfalls nicht ausstehen^^
Am Mast der Fahne rechts sieht man gut einige dieser Artefakte hervortreten, die zuvor bloß leicht akzentuiert zu erkennen waren (z.B. der leicht grünliche Schimmer, der mit FSR dunkelgrün wird.) Viele andere Kontraste treten auch auffällig stark hervor. Vielleicht ist das auch noch ein bisschen buggy...
aufkrawall
2022-03-22, 23:05:55
Wo ist auf den PNGs ein Fahnenmast?
mboeller
2022-03-23, 13:29:10
https://schedule.gdconf.com/session/fidelityfx-super-resolution-20-presented-by-amd/886070
FidelityFX Super Resolution 2.0 (Presented by AMD)
Thomas Arcila (Software Engineer, AMD)
Colin Riley (Senior Developer Technology Engineer, AMD)
Location: Virtual GDC Platform
Date: Wednesday, March 23
Time: 10:30 am - 11:30 am
das sollte heute Abend um 18:30 - 19:30uhr sein, wenn google richtig gerechnet hat
Mal schauen was es über FSR2.0 gibt, oder ob es nur Marketing wird
DrFreaK666
2022-03-23, 14:12:23
Wieso sollte es in der Stunde nichts zu FSR 2.0 geben?
mboeller
2022-03-23, 14:22:53
ich habe mich unklar ausgedrückt...
nur Marketing zu FSR2.0 oder was technisches zu FSR2.0
DrFreaK666
2022-03-23, 15:15:16
Ich hoffe dass es zeitnah Patches geben wird.
blaidd
2022-03-23, 17:54:14
Wo ist auf den PNGs ein Fahnenmast?
Ach shit :freak: Das ist ein Regenrohr! und die sonnenbeschienene Seite der Mauer ;D - ich hab nur auf die Ausschnitte gelinst^^ Das sah ein bisschen aus wie eine beige Fahne, die an einem krummen Fahnenmast hängt...
Anyways - da am Rohr.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78834&stc=1&d=1648054436
aufkrawall
2022-03-23, 18:05:06
Ah, ok. :)
Ich tu mich immer etwas schwer damit, mit Nearest Neighbor Zoom eindeutig Artefakte ausfindig zu machen. Ringing ist da die Ausnahme, weil das ziemlich eindeutig und isoliert zu identifizieren ist.
Das bislang Gezeigte von FSR 2.0 finde ich zumindest mit dem (großen) Disclaimer des Vorbehalts ziemlich beeindruckend. Ich hoffe nur, dass das auch noch für Upsampling auf 1440p zutrifft und das große Fragezeichen dürfte die Bewegtbildschärfe sein. Die neue DLSS 2.3.9 Version killt in Doom Eternal dahingehend, trotz Upsamplings von 0,65x, das spieleigene TSSAA nativ 1440p regelrecht:
https://abload.de/img/doometernalx64vk_202294kj9.png
https://abload.de/img/doometernalx64vk_2022qkj1w.png
Die paar Treppchen mehr fallen weit weniger auf.
Achill
2022-03-23, 18:39:48
Ich hoffe eigentlich (auch wenn ich es nicht bald sehe, so wie auch nicht bei DLSS), dass ein Nutzer auch die native Auflösung als Input für FSR 2 wählen können sollte und das mehr an Informationen wirklich rein für eine höher Bildqualität genutzt werden würde ohne ein Umweg über VSR und co gehen zu müssen.
Linmoum
2022-03-23, 19:23:50
https://gpuopen.com/fidelityfx-superresolution-2/?utm_source=twitter&utm_medium=social&utm_campaign=fsr2
aufkrawall
2022-03-23, 19:50:22
Witzig, wie man jetzt "No ML" versucht als Vorteil darzustellen. Genau das Gleiche hatte man schon bei der Nutzung (Edit: bzw. Nicht-Nutzung) temporaler Daten mit FSR 1.0 getan, nur um nun 2.0 als massiv überlegen einzuführen. :freak:
robbitop
2022-03-23, 20:04:41
Für die BQ wird ein ML basiertes Verfahren wahrscheinlich Vorteile behalten, für die Kosten (Rechenleistung) und die Verbreitung auf existierender Hardware wird ein Heuristik basierendes Verfahren Vorteile bieten. Alles hat so seine Vor- und Nachteile.
Es scheint auch nicht irre teuer zu sein. Je nach Konfiguration etwa 1 ms.
Jetzt bin ich gespannt auf die Qualität. Wenn es DLSS 2.x auch nur nahe kommt, wäre das verdammt interessant, da auf einmal eine riesen Menge an HW das ganze nutzen kann. Meine 1080ti bekommt einen zweiten Frühling und selbst die Konsolen inkl Nintendo Switch könnten profitieren.
dargo
2022-03-23, 20:17:42
https://gpuopen.com/fidelityfx-superresolution-2/?utm_source=twitter&utm_medium=social&utm_campaign=fsr2
WTF? FSR 2.0 UP bedeutet bei 1440p 480p beim Input? :freak: Da bin ich mal gespannt wie sowas dann wirklich aussieht. :tongue:
Troyan
2022-03-23, 20:23:10
Jetzt bin ich gespannt auf die Qualität. Wenn es DLSS 2.x auch nur nahe kommt, wäre das verdammt interessant, da auf einmal eine riesen Menge an HW das ganze nutzen kann. Meine 1080ti bekommt einen zweiten Frühling und selbst die Konsolen inkl Nintendo Switch könnten profitieren.
Wie soll die Switch profitieren? Auf einer 5700XT mit 30x mehr Rechenleistung kostet das Upscalung von Performance aus 540p -> 1080p 0,5ms. Das kostet also alleine auf der Switch 15ms...
Dampf
2022-03-23, 20:23:36
"Performance mode provides similar quality to native rendering"
Ja, in 4K aber sicherlich nicht in 1440p oder gar 1080p. Zeigt endlich 1440p oder 1080p, was zum Teufel ist daran so schwer? Schon bei FSR 1.0 konnte man sich sehr guter hinter der eh schon sehr hohen Input-Auflösung von FSR UQ @ 4K verstecken. Jetzt tut man das wieder, IMO ist das ein schlechtes Zeichen.
DrFreaK666
2022-03-23, 20:30:04
Nvidia bewirbt DLSS auch mit 4k.
Andron
2022-03-23, 20:32:40
WTF? FSR 2.0 UP bedeutet bei 1440p 480p beim Input? :freak: Da bin ich mal gespannt wie sowas dann wirklich aussieht. :tongue:
Nicht berauschend, wie man schon bei DLSS UP sehen kann. Nvidia hat den Modus offiziell eingeführt, um extreme Auflösungen wie 8K flüssig auf der 3090 nutzen zu können. Selbst in 4K (720p Input) leidet die Qualität schon sehr. Im Umkehrschluss ist gerade die Rekonstruktion feiner Details und auch das Gesamtbild ziemlich beeindruckend, wenn man die genutzten Ausgangsauflösungen betrachtet.
Halbwegs nutzbares 4K auf den RDNA2 IGPUS wäre z.B. ein Anwendungsfeld, wenn das Ergebnis nicht zu schwach ausfällt. Besser als einfaches Upscaling, auch von 1080p aus, kann es in solchen Fällen schon werden. Auch ältere Karten können damit etwas besser als Übergangslösung dienen, wenn ein hochauflösender Monitor vorhanden ist.
In WQHD oder geringer wird man sich das abseits von ein paar Tests aber nicht antun wollen.
aufkrawall
2022-03-23, 20:32:57
Alles hat so seine Vor- und Nachteile.
Deshalb sollte man am besten beides anbieten, also DL als HQ-Modus. Eines Tages könnten sie das auch machen, wenn sie intern mit der Forschung und Entwicklung weit genug sind, und das dann halt wieder als großen Fortschritt gegenüber dem alten Verfahren bewerben. ;)
Und mich interessiert 4k auch nicht sonderlich. Der Vorteil von DLSS ist gerade, dass man mit 1440p-Monitor nicht mehr TAA-Matschepampe sehen muss. Dass DLSS für 4k besonders interessant wäre, ist imho ein Missverständnis.
Dampf
2022-03-23, 20:34:50
Nvidia bewirbt DLSS auch mit 4k.
Sie bewerben auch noch andere Auflösungen.
Als sie DLSS 2.0 auf ihrer GTC Konferenz präsentiert haben, haben sie als erstes(!) 540p auf 1080p gezeigt. Das ist für einen Upscaler ein viel schwierigeres Unterfangen als 1440p/1080p auf 4K, weil mit viel weniger Daten gearbeitet werden muss.
Dass AMD selbst auf ihrer GTC Konferenz nichts zu niedrigeren Auflösungen gezeigt hat, aber stolz 4K Material präsentiert, ist eine rote Flagge.
just4FunTA
2022-03-23, 20:59:51
Deshalb sollte man am besten beides anbieten, also DL als HQ-Modus. Eines Tages könnten sie das auch machen, wenn sie intern mit der Forschung und Entwicklung weit genug sind, und das dann halt wieder als großen Fortschritt gegenüber dem alten Verfahren bewerben. ;)
Und mich interessiert 4k auch nicht sonderlich. Der Vorteil von DLSS ist gerade, dass man mit 1440p-Monitor nicht mehr TAA-Matschepampe sehen muss. Dass DLSS für 4k besonders interessant wäre, ist imho ein Missverständnis.
Hö also gerade 4k wäre für mich der Grund überhaupt für einen guten upscaler. In 4k qualität zu spielen mit der Performance von 1440p oder gar 1080p das wäre doch ein Traum.
Und jetzt wo es raytracing gibt braucht man den upscaler ja selbst mit highendgraka für spielbare fps..
aufkrawall
2022-03-23, 21:05:35
Ständig >90fps mit RT sind illusorisch mit 4k. Wenn man einen 144Hz Monitor hat und ansonsten viel Geld für die Hardware ausgegeben hat, macht das Geruckel doch keinen Spaß. Gut, bei semi-glossy Reflexionen gibts dann häufig eine deutliche Verschlechterung bei der Qualität in so niedriger Auflösung, ist halt noch Neuland. Es wäre sicherlich hilfreich, wenn man selber einfach das Ray/Pixel-Verhältnis einstellen könnte, um da den besten Kompromiss zu finden.
Mein Punkt war im wesentlichen aber, dass der größte Qualitätsfortschritt mit DLSS/DL-Upsampler eben mit Auflösungen <4k stattfindet. Traditionelles TAA versagt vs. DLSS bei <1440p Renderauflösung recht arg. Wär schon ein Novum, wenn FSR 2.0 hier ein anderes Bild abgibt.
DrFreaK666
2022-03-23, 21:16:30
Leider doch weniger Infos wie erhofft.
Aber es erscheint für die Xbox :up:
Platos
2022-03-23, 21:21:52
Hat wohl jeder so seine Präferenzen. Ich nehme lieber 4k60 wie 1440p144 oder sowas. So wie manche nach 144Hz nie mehr auf 60 gehen würden, gehen normalerweise Leute mit 4k Monitor nie mehr darunter.
Dampf
2022-03-23, 22:17:50
Was bringt 4K auf einem PC Monitor überhaupt? Mit normalen Betrachtungsabstand sehe ich überhaupt keine Pixel auf meinem 26 Zoll 1440p Monitor und jeglicher Kontent sieht gestochen scharf aus. Ich kann mir nicht vorstellen dass 4K da große Unterschiede macht.
aufkrawall
2022-03-23, 22:24:22
In erster Linie sehen Spiele in 4k deutlich sauberer und detaillierter aus. Aber: Wenn die Effekte der Spiele so ausgelegt sind, dass sie in niedrigerer Auflösung immer noch ziemlich sauber sind, schmilzt der Vorteil von 4k mit vernünftig implementiertem DLSS doch ziemlich weg. Es ist einfach nur unglaublich. Ich will nicht wie eine Werbe-Hure klingen, aber ich spiele just in diesem Moment Shadow Warrior 3 mit DLSS Q in 1440p und bin absolut mind-blown. Absolut nichts reicht näher an 8xSGSSAA heran und anstatt Performance zu kosten, gibts noch massig oben drauf. wtf. :eek:
*schmeißt den Rechner an die Wand*...
Dampf
2022-03-23, 23:36:10
https://www.reddit.com/r/Amd/comments/tlbycb/amd_fsr_20_already_implemented_in_god_of_wars/
Fehler oder echt?
aufkrawall
2022-03-23, 23:42:31
Ist immer noch 1.0, wird nur ein Typo bzw. Leak-Ankündigung sein.
Savay
2022-03-24, 01:21:03
Was bringt 4K auf einem PC Monitor überhaupt?
Mehr Realestate, besseres Textrendering , mehr Bildschärfe, mehr Details, bessere Mikrokontraste.
Bringt defakto im Alltag mehr als 4K aufm Fernseher.
Wer es nicht sieht, sieht es halt nicht. (Visus ahoi)
Ich hätte, wenn es das mit anständigen Parametern gäbe, sogar lieber 5K@27"...~110ppi ist mir schlicht zu wenig.
In erster Linie sehen Spiele in 4k deutlich sauberer und detaillierter aus.
In erster Linie sind halt die Pixel kleiner.
Ist mit (SS)AA nicht direkt zu vergleichen und auch nicht dadurch ersetzbar. (sowie umgekehrt)
Deswegen hoffe ich auch eher darauf das FSR2.0 irgendwie mit VSR kombinierbar ist ala DLAA
https://www.reddit.com/r/Amd/comments/tlbycb/amd_fsr_20_already_implemented_in_god_of_wars/
Fehler oder echt?
Ist tatsächlich drin, seit dem Patch von ... vorhin. Interessanter Pastell-Look mit FSR 2.0 Performance. :biggrin:
MfG
Raff
-/\-CruNcher-/\-
2022-03-24, 02:00:30
Mal dran errinern das man die bei einigen Cyberpunk Ergebnissen vor allem beim Haar Ergebnis von DLSS genauso gesehen hat teils kommen die aber eher vom Denoise part ;)
pastell effekt ist ein gängiges compression artefakt
Bei DLSS ging es aber in Richtung Wavelets typisch
https://de.wikipedia.org/wiki/Wavelet-Transformation
hier ein nettes Artefakt Ergebnis von Nvidias Denoiser (Der Caustic Fractal Warp) ;)
https://abload.de/img/causticfractalwarpmqjqw.jpg
ML kann ein paar sehr schöne effekte zaubern, wenn es schief läuft ;)
Platos
2022-03-24, 02:18:18
Was bringt 4K auf einem PC Monitor überhaupt? Mit normalen Betrachtungsabstand sehe ich überhaupt keine Pixel auf meinem 26 Zoll 1440p Monitor und jeglicher Kontent sieht gestochen scharf aus. Ich kann mir nicht vorstellen dass 4K da große Unterschiede macht.
Na manche haben halt auch einfach nicht so gute Augen. Wie man 1440p auf 27" nicht Pixel sieht, ist mir schleierhaft.
Aber als Anmerkung: Selbst wenn man keien Pixel einzeln sieht, hat das genau 0 damit zu tun, ob einem das Bild nicht "sauberer" oder "schärfer" vorkommt. Oder kannst du die Frames bei 30 FPS einzeln zählen? Nur mal so als kleine Analogie ;)
y33H@
2022-03-24, 06:45:43
Ich bringe nachher was zum GDC Talk, war spannend.
Geldmann3
2022-03-24, 08:56:57
Ich kann mir vorstellen, dass Nvidia als nächstes versuchen könnte, Studios im Partnerprogramm dazu zu erpressen, DLSS als einigen temporalen Upscaler zu implementieren. Sonst fließt kein Geld mehr.
Sollte das zu shady sein, wenigstens unauffällig einen Monat zeitliche Exklusivität, bevor ein anderer Upscaler implementiert werden darf.
Fakt ist, die qualitätsgesicherte Implementierung von FSR 2.0 + DLSS sollte höchstens ein paar Wochen dauern, wenn ein Game bereits TAA hat. Sehen wir in neuen Games DLSS aber kein FSR 2.0 und da kommt nach spätestens 3 Wochen kein Patch, ist das schon etwas shady oder kundenunfreundlich.
Tobalt
2022-03-24, 09:00:25
Wenn man sich die Geschichte von GSync anschaut, kann man doch einiges erahnen. nV wird versuchen, das Vieh so lange wie möglich zu melken. Und wenn es gar nicht mehr geht, öffnen sie DLSS und bezahlen die Entwickler, dass sie FSR, TSR etc. als "DLSS compatible" oder "DLSS light" oä. bezeichnen.
Andron
2022-03-24, 09:10:53
Ist tatsächlich drin, seit dem Patch von ... vorhin. Interessanter Pastell-Look mit FSR 2.0 Performance. :biggrin:
MfG
Raff
God of war hat afaik nur einen DX11 Renderpfad, wie kann FSR 2.0 da überhaupt lauffähig sein? Laut AMD ist es erstmal nur DX12 kompatibel und irgendwann später soll Vulkan folgen.
Sieht mir ehe nach einem Fehler aus. In den Patchnotes wurde auch nichts erwähnt. Pastell passt ja auch zu FSR 1.0 Performance.
Lurtz
2022-03-24, 09:11:26
Zumindest mit Deathloop und God of War sind ja schon zwei Spiele bekannt, die DLSS + FSR 2.0 bekommen. Wobei bei Deathloop zB DLSS auch erst nachgereicht wurde, also vermutlich sind solche Deals nichts Neues in der Branche.
dildo4u
2022-03-24, 09:14:46
Forspoken bekommt es auch das Game wurde aber leider auf Oktober verschoben.
Bq_eXMA5KqM
robbitop
2022-03-24, 09:56:06
Gibt es die GDC keynote zu fsr 2.0 noch irgendwo?
basix
2022-03-24, 09:57:49
Forspoken bekommt es auch das Game wurde aber leider auf Oktober verschoben.
https://youtu.be/Bq_eXMA5KqM
Mit SATA SSD sieht es eigentlich auch sehr gut aus :)
Zu FSR 2.0:
https://community.amd.com/t5/gaming/amd-fidelityfx-super-resolution-2-0-gdc-2022-announcements/ba-p/517541/jump-to/first-unread-message
https://www.theverge.com/2022/3/23/22993152/amd-fsr-2-0-xbox-nvidia-gpus
Edit:
Haben sie das mit den Schatten in Deathloop verbessert? :confused::eek: Ich sehe zwischen FSR 2.0 Performance und Nativ keinen so deutlichen Unterschied mehr wie bei den Screenshots von vor einer Woche.
Edit 2:
Ein ziemlich smarter Move von AMD, dass FSR 2.0 auf einer sehr ähnlichen oder gar derselben Basis wie DLSS 2.0 funktioniert. AMD sagt hier, dass wenn ein Game DLSS 2.x unterstützt, die Integration <3 Tage dauert. Einige der Spielemacher werden wohl auf der FSR 2.0 Marketingwelle mitreiten wollen um ihr Spiel nochmals in die Medien zu bringen. Mögliches Resultat: Eine doch ansehliche Anzahl der bisherigen DLSS 2.0 Games könnte auch FSR 2.0 Support bekommen. Wäre sehr nice für alle non-Nvidia non-RTX User. AMD müsste hier aus Eigeninteresse eigentlich gezielt die entsprechenden Studios anpingen und die Integration von FSR 2.0 vorschlagen. Was man hier dann auch anmerken muss: AMD würde massiv von der Vorarbeit von Nvidia mit den Spieleentwicklern profitieren.
Oder wenn man entweder DLSS 2.0 oder FSR 2.0 einbaut, kann man auch gleich beides einbauen. Das ist ein riesen Win für all uns Spieler. Vice versa ob AMD oder Nvidia Nutzer. Und später auch Intel-Nutzer.
dargo
2022-03-24, 10:34:03
https://www.reddit.com/r/Amd/comments/tlbycb/amd_fsr_20_already_implemented_in_god_of_wars/
Fehler oder echt?
Sieht mir eher nach Fake aus. Es gibt bei FSR 2.0 weder ein 1108p bei einer Auflösung von 1440p noch gibt es Ultra Quality bei FSR 2.0.
Edit 2:
Ein ziemlich smarter Move von AMD, dass FSR 2.0 auf einer sehr ähnlichen oder gar derselben Basis wie DLSS 2.0 funktioniert. AMD sagt hier, dass wenn ein Game DLSS 2.x unterstützt, die Integration <3 Tage dauert. Einige der Spielemacher werden wohl auf der FSR 2.0 Marketingwelle mitreiten wollen um ihr Spiel nochmals in die Medien zu bringen. Mögliches Resultat: Eine doch ansehliche Anzahl der bisherigen DLSS 2.0 Games könnte auch FSR 2.0 Support bekommen. Wäre sehr nice für alle non-Nvidia User.
Wieso denn das? Alle Gamer mit ner Pascal-GPU profitieren ebenfalls davon inkl. Turing @TU116/117.
Dampf
2022-03-24, 10:40:09
Oder wenn man entweder DLSS 2.0 oder FSR 2.0 einbaut, kann man auch gleich beides einbauen. Das ist ein riesen Win für all uns Spieler. Vice versa ob AMD oder Nvidia Nutzer. Und später auch Intel-Nutzer.
Problem ist, sobald ein Game AMD gesponsored ist, wird DLSS nicht eingebaut. Das konnte man bisher bei so vielen Spielen erkennen. Also kein win für alle Spieler.
Wie sich FSR 2 in 1440p und 1080p schlägt, muss sich erst noch zeigen. Ich nutze nur DLSS Performance in WQHD und 1080p und da wird FSR 2.0 mit ziemlicher Sicherheit deutlich hinterherhinken.
Für mich wäre das also kein win...
basix
2022-03-24, 10:41:38
@dargo:
Äh ja sorry, auch die profitieren natürlich ;) Also alle non-RTX User wäre somit korrekter.
Zu God of War. Gerade angeschmissen. Dort steht wirklich FSR 2.0 ;) Aber es läuft immer noch FSR 1.0, also "Entwarnung". FSR 2.0 als Schrift ist wohl zu früh reingepatcht worden :D
Problem ist, sobald ein Game AMD gesponsored ist, wird DLSS nicht eingebaut. Das konnte man bisher bei so vielen Spielen erkennen. Also kein win für alle Spieler.
Wie sich FSR 2 in 1440p und 1080p schlägt, muss sich erst noch zeigen. Ich nutze nur DLSS Performance in WQHD und 1080p und da wird FSR 2.0 mit ziemlicher Sicherheit deutlich hinterherhinken.
Für mich wäre das also kein win...
Wer sagt, dass das so bleiben wird oder muss? AMD täte gut daran, bei FSR 2.0 keine Exklusivität anzustreben, wenn sie DLSS die Marktmacht streitig machen wollen.
Und ich sehe nur ein "effektives" Problem, wenn DLSS wirklich besser ist, was momentan noch keiner genau weiss. Wenn es gleichwertig ist, ist es unschön, aber nicht ein Beinbruch. Bei DLSS ist es so, dass man alle non-RTX User aussschliesst. Das ist wesentlich hässlicher.
Dampf
2022-03-24, 10:51:03
Wer sagt, dass das so bleiben wird oder muss?
Forspoken kriegt kein DLSS. Und das kommt erst Oktober.
basix
2022-03-24, 11:07:57
1 Spiel. Und es ist gerade Fidelity FX Marketing Show für Forspoken. Da würde ich natürlich auch gleich DLSS erwähnen, wenn es integriert würde und ich schon dabei bin, ein Video zu machen.
Bravo, du hast es somit eindeutig und unwiderlegbar bewiesen, dass DLSS nicht integriert wird. Merkst du es? ;)
Edit:
Solange wir nichts anderes wissen gilt für mich immer: Im Zweifel für den Angeklagten (das würde ich dir bezüglich Erwartungshatung der Qualität von FSR 2.0 bei WQHD und 1080p bis zum Release auch raten ;)). Und Marketing Exklusiv-Deals wird es mMn immer geben, von allen Vendors. Ist nur die Frage, wie oft und wer hat dabei das Nachsehen. Wie gesagt, wenn FSR 2.0 gleichwertig mit DLSS ist, sehe ich das nicht so tragisch. Und ich bin selbst RTX Nutzer. Welcher Name draufsteht ist mir Wurst, es geht um Performance und Qualität. Und solange die gleichwertig ist, ist es für mich OK. Ist aber meine persönliche Meinung.
Wenn die Qualität von FSR 2.0 nicht gleichwertig sein sollte und FSR 2.0 Exklusivität mitbringt (kein gleichzeitiger DLSS Support), ja dann können wir die Diskussion wieder aufnehmen. Momentan sehe ich aber keinen Nutzen darin.
Andron
2022-03-24, 11:11:36
Problem ist, sobald ein Game AMD gesponsored ist, wird DLSS nicht eingebaut. Das konnte man bisher bei so vielen Spielen erkennen. Also kein win für alle Spieler.
Wie sich FSR 2 in 1440p und 1080p schlägt, muss sich erst noch zeigen. Ich nutze nur DLSS Performance in WQHD und 1080p und da wird FSR 2.0 mit ziemlicher Sicherheit deutlich hinterherhinken.
Für mich wäre das also kein win...
Hätte Nvidia eine Non-RTX Version von DLSS 2.X gebracht, würde sich die Frage bis auf wenige AMD Titel wie Far Cry 6 etc. gar nicht mehr stellen und FSR 2.0 würde kaum noch aufsehen erregen. Dank DP4A Unterstützung seit Pascal dürfte das sogar ziemlich gut funktionieren, etwas schlechtere Qualität zur Tensor Core beschleunigten Variante wären kein Beinbruch, ein Win für viele GTX-Besitzer und dennoch bliebe ein Argument für die großen RTX auf dem Papier bestehen. Dank Chipkrise hätte es wohl auch keine Absatzprobleme beschert und AMD wäre mit allem vor RDNA2 draußen gewesen, was den Druck noch deutlich erhöht hätte. Und selbst die großen RDNA2 Karten wären in Tests und Benchmarks schlechter dagestanden, da DLSS auf beiden Architekturen hätte verglichen werden können, mit Vorteilen für RTX.
TAAU, TSR und die ersten Beispiele von FSR 2.0 zeigen, das schon ohne ML-Ansatz richtig gute Ergebnisse zu erzielen sind, XESS könnte noch einen draufsetzen. Das Argument "Ohne Tensor Cores ist temporals Upscaling nicht sinnvoll möglich" wurde jetzt vielfach widerlegt. Nvidia hat sich dafür entschieden, den Nutzerkreis von DLSS unnötig klein zu halten und somit ggf. die Verbreitung zu hemmen, sobald ein breiter aufgestelltes Verfahren aufschlägt.
robbitop
2022-03-24, 11:23:40
Wenn es stimmt, dass God of War bereits FSR 2.0 mit dem neusten Patch bekommen hat, dann kann bereits ein Vergleich von DLSS vs FSR gemacht werden. Live und in Bewegung. :)
TAAU, TSR und die ersten Beispiele von FSR 2.0 zeigen, das schon ohne ML-Ansatz richtig gute Ergebnisse zu erzielen sind, XESS könnte noch einen draufsetzen. Das Argument "Ohne Tensor Cores ist temporals Upscaling nicht sinnvoll möglich" wurde jetzt vielfach widerlegt. Nvidia hat sich dafür entschieden, den Nutzerkreis von DLSS unnötig klein zu halten und somit ggf. die Verbreitung zu hemmen, sobald ein breiter aufgestelltes Verfahren aufschlägt.
Ein paar Kommentare:
- NV hatte bereits Tensor Cores vor DLSS aus dem HPC Bereich und der Forschung - kann also schon sein, dass es sich angeboten hat
- ABER: DLSS zeigt aktuell, dass das Ergebnis zumindest besser ist als alle derzeit testbaren Heuristikverfahren (TAUU und TSR und DLSS gab es von Geldmann3 einen schönen vergleich)
- XeSS geht auch ohne Tensor Cores und dennoch hat Intel in Xe HPG Tensor Cores verbaut - und in den Slides ist es auch zu sehen, dass es mit dp4a langsamer ist
Am Ende ist es hilfreich, alle Optionen zu haben. Heuristik und NN um ein großes Spektrum an Hardwarekombinationen abedcken zu können. Und idealerweise eine NN Lösung, die auch mit dp4a läuft. Und gerade letzteres ist wirklich schade, dass es bei DLSS nicht vorgesehen ist - aus Gründen der Customer retention. Gut, dass diese Mauern jetzt langsam abgebrochen werden. Genau wie damals bei VRR.
basix
2022-03-24, 11:24:43
Tensor Cores als Werkzeug für DLSS zu Nutzen machte mMn schon Sinn. Man hat halt viel Rohpower. Das Problem ist, dass dadurch unter Umständen den Lösungsansatz (nachteilig) beeinflusst wurde. Das DNN ist nun evtl. so schwer, dass es ohne Tensor Cores nur bedingt Sinn macht.
Wenn es stimmt, dass God of War bereits FSR 2.0 mit dem neusten Patch bekommen hat, dann kann bereits ein Vergleich von DLSS vs FSR gemacht werden. Live und in Bewegung. :)
Vermutlich nur im Menü reingepatcht. Die Grafik sieht eher noch nach FSR 1.0 aus.
Dampf
2022-03-24, 11:28:02
Im Zweifel bin ich bei solchen Sachen lieber pessimistisch. Es deutet nichts daraufhin, dass Forspoken DLSS unterstützen wird, alle Zeichen sprechen dagegen. Die Qualität von FSR 2.0 in niedrigeren Auflösungen ist ein Rätsel.
FSR 2.0 bietet nun mal kein Machine Learning. Sobald der Daten-Input also kleiner wird, eben bei 1440p und 1080p, ist es nur logisch dass die Upscaling-Qualität signifikant abnimmt im Vergleich zu 4K wo in der Input Auflösung schon zuhauf Daten vorhanden sind. Ich bin mir sicher dass die ML Komponente bei DLSS der Grund ist, weshalb es auch noch bei niedrigeren Auflösungen so gut aussieht, warum sonst kommt ein TAAU besonders in niedrigeren Auflösungen nicht an DLSS ran?
FSR 2.0 hat noch gar nicht gezeigt, dass ohne ML Ansatz gute Ergebnisse erzielt werden. In 4K ist das nun wirklich keine Kunst, Checkerboarding und TAAU erzielen hier schon seit Ewigkeiten gute Ergebnisse. Mich nervt es dass wir hier spekulieren müssen, AMD will einfach kein 1440p/1080p Material zeigen.
Nvidia hätte DLSS ruhig öffnen können, da sind wir uns alle einig. Dann läuft es eben schlechter auf Pascal, was solls. Trotzdem ist die Geschlossenheit von DLSS kein Grund, es wegzuprügeln sobald AMD sponsored auf dem Titel steht.
dargo
2022-03-24, 11:29:41
Wenn es stimmt, dass God of War bereits FSR 2.0 mit dem neusten Patch bekommen hat, dann kann bereits ein Vergleich von DLSS vs FSR gemacht werden. Live und in Bewegung. :)
Das mit GoW ist schon etwas strange. Eigentlich kann GoW gar kein FSR 2.0 liefern da D3D11. Auf der anderen Seite sehen wir hier vielleicht einen D3D12 Renderer mit FSR 2.0 kommen mit einer kleinen Panne seitens der DEVs. :D
Troyan
2022-03-24, 11:32:05
TAAU ist verdammt gut, um aus niedrigen vernünftig zu skalieren. Es ist nichts anderes wie DLSS und XeSS. Was jedoch nVidias und Intels Verfahren als Vorteil haben, ist das Tracken der Pixel über die Vergangenheit und dann das rekonstruieren von Kanten und die Stabilität. AMD versucht dies durch einen massiven Einsatz von TAA auszugleichen, was eben wie in den Bilder zu sehen ist, in einer deutlich Veränderung des Ausgabebildes resultiert.
basix
2022-03-24, 11:33:44
@Dampf:
Du wir werden sehen. Aufgrund der Nähe von DLSS 2.0 zu FSR 2.0 ist eine Dual-Implementation mMn einfach deutlich wahrscheinlicher als bei FSR 1.0. FSR 1.0 war einfach zu integrieren. Half das für DLSS? Nö, dort hätte man den vollen Integrations-Aufwand noch stemmen müssen. Hat man nun FSR 2.0 implementiert: OK, 2-3 Entwicklertage für DLSS und that's it. Ist somit also auch eine andere Ausgangslage bezüglich "Exklusivität". Ist eines von beidem implementiert, ist es nicht der Aufwand, der von der Implementation abhält. Bei FSR 1.0 -> DLSS 2.0 war das eher noch der Fall.
Und: Ich hoffe für uns beide, dass DLSS 2.0 bei jedem FSR 2.0 Spiel dabei ist ;) Dann erübrigen sich all die Diskussionen und jeder kann das verwenden, was einem besser gefällt. Am Entwickleraufwand für die Integration sollte es jedenfalls nicht liegen.
dargo
2022-03-24, 11:35:42
Im Zweifel bin ich bei solchen Sachen lieber pessimistisch. Es deutet nichts daraufhin, dass Forspoken DLSS unterstützen wird, alle Zeichen sprechen dagegen. Die Qualität von FSR 2.0 in niedrigeren Auflösungen ist ein Rätsel.
FSR 2.0 bietet nun mal kein Machine Learning. Sobald der Daten-Input also kleiner wird, eben bei 1440p und 1080p, ist es nur logisch dass die Upscaling-Qualität signifikant abnimmt im Vergleich zu 4K wo in der Input Auflösung schon zuhauf Daten vorhanden sind. Ich bin mir sicher dass die ML Komponente bei DLSS der Grund ist, weshalb es auch noch bei niedrigeren Auflösungen so gut aussieht, warum sonst kommt ein TAAU besonders in niedrigeren Auflösungen nicht an DLSS ran?
FSR 2.0 hat noch gar nicht gezeigt, dass ohne ML Ansatz gute Ergebnisse erzielt werden. In 4K ist das nun wirklich keine Kunst, Checkerboarding und TAAU erzielen hier schon seit Ewigkeiten gute Ergebnisse. Mich nervt es dass wir hier spekulieren müssen, AMD will einfach kein 1440p/1080p Material zeigen.
Und mich nervt dein Trampeln mit den Füssen wie so ein Kleinkind, als ob es aktuell keine anderen Probleme in Europa gäbe. :rolleyes: Wie wärs wenn du einfach mal abwartest bis FSR 2.0 offiziell für alle zur Verfügung steht?
basix
2022-03-24, 11:49:01
Was mich bei FSR, DLSS, XeSS und TSR in Zukunft wünschen würde: Dynamic Resolution Scaling in allen Games. Alles zwischen Nativ und Ultra Performance anhand von Ziel-FPS und Auflösung.
Andron
2022-03-24, 11:51:13
Ein paar Kommentare:
- NV hatte bereits Tensor Cores vor DLSS aus dem HPC Bereich und der Forschung - kann also schon sein, dass es sich angeboten hat
- ABER: DLSS zeigt aktuell, dass das Ergebnis zumindest besser ist als alle derzeit testbaren Heuristikverfahren (TAUU und TSR und DLSS gab es von Geldmann3 einen schönen vergleich)
- XeSS geht auch ohne Tensor Cores und dennoch hat Intel in Xe HPG Tensor Cores verbaut - und in den Slides ist es auch zu sehen, dass es mit dp4a langsamer ist
Am Ende ist es hilfreich, alle Optionen zu haben. Heuristik und NN um ein großes Spektrum an Hardwarekombinationen abedcken zu können. Und idealerweise eine NN Lösung, die auch mit dp4a läuft. Und gerade letzteres ist wirklich schade, dass es bei DLSS nicht vorgesehen ist - aus Gründen der Customer retention. Gut, dass diese Mauern jetzt langsam abgebrochen werden. Genau wie damals bei VRR.
Genau deine drei Punkte wollte ich ja eigentlich ausdrücken und aufzeigen, dass keiner einen wirklichen Nachteil hätte:
- Das jetzige DLSS (welches zweifelsfrei die beste Qualität aller verfügbaren Verfahren zeigt) sollte in meinem Gedankenspiel nicht ersetzt werden, sondern erweitert um eine abgespeckte Variante, welche dank DP4A Unterstützung evtl. nicht mal zwingend auf eine Heuristik zurückgreifen müsste (allerdings nur Spekulation). Doch egal welchen Ansatz man gewählt hätte, die Implementierung in DLSS Titeln wäre durch die gleichen Anforderungen an die Engine ein leichtes gewesen und Non-RTX Nutzer (speziell GTX Kunden) hätten einen großen Vorteil gegenüber der jetzigen Situation gehabt und RTX wäre dennoch unangefochten an der Spitze in Sachen Performance und Bildqualität.
Wie du geschrieben hast, wäre es das beste, beide Varianten (Heuristik und NN) parallel nutzen zu können, genau darauf wollte ich hinaus.
basix
2022-03-24, 12:01:53
Anhand von XeSS werden wir sehen, wass Matrix vs. DP4A bedeutet. Das lässt sich vermutlich sehr gut auf DLSS übertragen.
- XeSS @ Matrix -> [ms] Ausführungszeit
- XeSS @ DP4A -> [ms] Ausführungszeit -> Faktor zu Matrix
- DLSS @ Matrix -> [ms] Ausführungszeit
- DLSS @ DP4A -> XeSS Faktor Matrix vs. DP4A einsetzen
Was man allenfalls berücksichtigen muss ist, ob Matrix-Cores parallel zu den Shadern laufen können oder auch Async Compute für DP4A. Dann wird der Vergleich aufwändiger. Vom Prinzip her wären aber vermutlich fast alle Überlegungen von XeSS auf DLSS übertragbar.
Edit:
Es kommt zusätzliche Bewegung ins Spiel: XeSS
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12959069#post12959069
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12959368#post12959368
why_me
2022-03-24, 12:11:06
Was mich bei FSR, DLSS, XeSS und TSR in Zukunft wünschen würde: Dynamic Resolution Scaling in allen Games. Alles zwischen Nativ und Ultra Performance anhand von Ziel-FPS und Auflösung.
Zumindest FSR2.0 kann das wohl, aber ob es auch implementiert wird :confused:
Was man allenfalls berücksichtigen muss ist, ob Matrix-Cores parallel zu den Shadern laufen können oder auch Async Compute für DP4A.
Mit Async Compute kann nur was parallel laufen, wenn sonst gerade nix zu tun ist. Matrix-Cores haben im Gegensatz zu den "normalen" ALUs dagegen außer DLSS/XeSS eher wenig zu tun. von daher ist der mögliche Speedup durch Async-Compute eher begrenzt.
basix
2022-03-24, 12:12:52
Auch DLSS kann es. Siehe Doom Eternal.
Und ja, die Umsetzung ist das Problem. Die Engine muss mit Dynamic Resolution klar kommen. Bei Konsolen wird Dynamic Resolution doch oft verwendet. Hoffentlich beim PC in Kombination mit diesen hochqualitativen temporal-upsampling Technologien auch immer häufiger.
Dampf
2022-03-24, 12:36:16
Ja, es funktioniert sehr gut in Doom Eternal. Leider geht es nur auf 88% runter. Für Doom kein Problem, aber bei anderen Games wäre es wünschenswert, wenn es auf 50% oder sogar drunter absinken könnte. Und andersrum, wenn mehr als genug GPU Leistung zur Verfügung steht.
Die Kombination Upscaling + VRS + DRS ist IMO Killer und der absolute Weg, fortzugehen. Diese verschiedenen Modis wie Quality, Balanced, Performance braucht es IMO nicht.
Als Game Entwickler würde ich dafür Sorge tragen, dass der User so wenig wie möglich selbst einstellen muss.
Erkennung: RTX Hardware-> DLSS aktiv, sonst FSR 2.0
Erkennung: Monitor-Refreshrate -> 60 Hz, dann FPS Target 60 FPS
Erkennung: Auflösung des Monitors, das als 100% für Upscaling DRS nehmen.
Im Idealfall würde sich alles selbst einstellen. Gut beim FPS Target könnten sich 144 FPS als problematisch erweisen. Als Game-Entwickler würde ich bei einem 144HZ Display dann je nachdem wie aufwendig mein Titel ist, 72 FPS oder 144 FPS festlegen.
Das ist halt echt die Zukunft. Es gibt mehr als genug Titeln, wo 80% des Spiels mit stabilen 60 FPS in DLSS Quality läuft und dann für eine Sektion kracht es runter auf 48 FPS oder so. Dann stell ich für das gesamte Spiel auf DLSS Performance um, um die 60 FPS zu halten. Nachdem die Sektion wieder vorbei ist, langweilt sich mein PC komplett. Das wäre mit der Kombination aus DRS+Upscaling Geschichte, es würde immer die bestmöglichste Leistung/Bildqualität ausgewählt werden, ganz automatisch.
Es sollte eigentlich schon längst Standard sein.
basix
2022-03-24, 12:50:02
XeSS unterstützt Dynamic Resolution Scaling ebenfalls. Gerade das Video zu Intels GDC Talk geschaut.
Edit:
XeSS Performance scheint auf Alchemist ähnlich wie bei DLSS 2.0 auf RTX GPUs zu sein.
- Es gibt einen Ultra Quality Mode wie bei FSR 1.0
- Ultra Performance gibt es auch, aber nur mit 2.3x Faktor anstatt 3.0x wie bei DLSS 2.0 / FSR 2.0
aufkrawall
2022-03-24, 13:12:53
In erster Linie sind halt die Pixel kleiner.
Es ging ja schon um Spiele und nicht den luftleeren Raum, und da macht sich die Summe aus höher aufgelöstem Mip-Level, besser funktionierendem TAA und Abmilderung unsauberer Effekte stärker bemerkbar. Aber wer das subjektiv anders empfinden will, kann das natürlich tun. ;)
Ich hatte kurz 4k @27" da und mir kam es wie völlige Leistungsverschwendung vor, weit geringeres Qualität/Geschwindigkeits-Verhältnis als 1440p imho.
robbitop
2022-03-24, 14:37:16
Auch DLSS kann es. Siehe Doom Eternal.
Und ja, die Umsetzung ist das Problem. Die Engine muss mit Dynamic Resolution klar kommen. Bei Konsolen wird Dynamic Resolution doch oft verwendet. Hoffentlich beim PC in Kombination mit diesen hochqualitativen temporal-upsampling Technologien auch immer häufiger.
Der Punkt war, bei gleichzeitiger Umsetzung sowohl dp4a als auch Tensor Cores, dass dp4a auf Ressourcen zugreift, die bereits "zu tun" haben, während Tensor Cores während des Frames sonst wenig "zu tun" haben. Entsprechend ist durch den Fakt, dass es extra Einheiten sind noch eine grundsätzlich höheres Maß an Beschleunigung zu erwarten.
Geldmann3
2022-03-24, 15:08:31
XeSS unterstützt Dynamic Resolution Scaling ebenfalls. Gerade das Video zu Intels GDC Talk geschaut.
Edit:
XeSS Performance scheint auf Alchemist ähnlich wie bei DLSS 2.0 auf RTX GPUs zu sein.
- Es gibt einen Ultra Quality Mode wie bei FSR 1.0
- Ultra Performance gibt es auch, aber nur mit 2.3x Faktor anstatt 3.0x wie bei DLSS 2.0 / FSR 2.0
Je nach Auflösung gelten hier andere Faktoren?
Finde ich sehr verwirrend.
Und ich vermisse hier einen nativen Modus.
DrFreaK666
2022-03-24, 15:14:17
...Als Game Entwickler würde ich dafür Sorge tragen, dass der User so wenig wie möglich selbst einstellen muss...
Hast du dir mal Gedanken gemacht eine Konsole zu kaufen?
Das ist doch der Vorteil eines PCs, dass man alles (solange sich die Entwickler die Mühe gemacht haben) einstellen kann.
Außerdem gibt es mehr als nur FSR an/aus.
Einfach Bild und Performance von FSR 2.0 bei 1080p/Q und 2160p/P vergleichen.
Ex3cut3r
2022-03-24, 17:00:41
Also FSR 2.0 ist das nicht. Sieht eher wie 1.0 in GOW aus.
4K ~ DLDSR von 1440p
https://abload.de/thumb/gow_2022_03_24_16_35_8ek6d.png (https://abload.de/image.php?img=gow_2022_03_24_16_35_8ek6d.png)
4K + FSR "2.0" P
https://abload.de/thumb/gow_2022_03_24_16_35_rukqz.png (https://abload.de/image.php?img=gow_2022_03_24_16_35_rukqz.png)
EDIT: DLSS SS hinzugefügt, allerdings nicht 1:1 mit der exakt selben Ausrichtung (man möge es verzeihen)
4K + DLSS P
https://abload.de/thumb/gow_2022_03_24_16_56_r5k4e.png (https://abload.de/image.php?img=gow_2022_03_24_16_56_r5k4e.png)
Linmoum
2022-03-24, 17:01:57
Wie gesagt, GoW hat (noch) gar kein DX12. Daher kann das auch gar nicht FSR 2.0 sein.
Ex3cut3r
2022-03-24, 17:05:18
Ich wusste gar nicht, dass man für FSR 2.0 DX12 braucht. DLSS geht nämlich auch mit DX11 Titeln. Das wäre IHMO auch ein kleiner Nachteil für FSR.
Platos
2022-03-24, 17:15:23
Da ich nicht gerade die neuesten Spiele spiele, weiss ich das jetzt nicht, aber welche neuen Spiele kommen denn noch mit DX11 bzw. ohne DX12?
DrFreaK666
2022-03-24, 17:15:30
DX12 only ist schon ein Nachteil, keine Frage.
Die Präsentation ist übrigens online
97JIldpUGE4
why_me
2022-03-24, 17:58:47
Habe mir das GDC video noch nicht angeschaut, aber wurde da ein Grund genannt, warum nur DX12 und Vulkan?
Am ende müsste doch die API egal sein, es werden ja nur die entsprechenden Buffer benötigt und die dürften API unabhängig sein.
Ex3cut3r
2022-03-24, 18:00:20
Da ich nicht gerade die neuesten Spiele spiele, weiss ich das jetzt nicht, aber welche neuen Spiele kommen denn noch mit DX11 bzw. ohne DX12?
Uncharted 4 für den PC (vermutlich) Es kommen leider immer noch AAA Titel ohne DX12 am PC tatsächlich raus, das wäre irgendwie "dumm" wenn es wirklich nur mit DX12 Titeln gehen wurde, was ich aber stand jetzt auch nicht glaube.
Rumbah
2022-03-24, 18:14:31
Ich denke mal, dass sie die Shader einfach in SM6 geschrieben haben, daher DX12. Laut dem Vortrag wird das ja z.B. genutzt, um die Wavegröße je nach Workload zu ändern.
Vulkan kommt auch etwas später, da sind die Shader wahrscheinlich noch nicht fertig.
Aber da es offen ist, kann natürlich jeder Entwickler das auch für DX11 anpassen und eventuell sogar per Pull Request öffentlich zur Verfügung stellen.
basix
2022-03-24, 21:34:07
Der Punkt war, bei gleichzeitiger Umsetzung sowohl dp4a als auch Tensor Cores, dass dp4a auf Ressourcen zugreift, die bereits "zu tun" haben, während Tensor Cores während des Frames sonst wenig "zu tun" haben. Entsprechend ist durch den Fakt, dass es extra Einheiten sind noch eine grundsätzlich höheres Maß an Beschleunigung zu erwarten.
Da ist ein Missverständnis passiert ;) Ich habe nicht auf den Post des Gasts geantwortet, sondern why_me. Gast hat 1sek früher auf den Antworte-Button geklickt als ich, dessen Post hatte ich gar nie gesehen.
basix
2022-03-24, 21:36:27
Je nach Auflösung gelten hier andere Faktoren?
Finde ich sehr verwirrend.
Und ich vermisse hier einen nativen Modus.
Die Faktoren sind immer gleich und gleich wie bei DLSS und FSR (rechts oben im geteilten Bild).
Die Speedups sind es aber nicht, für das sind die Balken. Ist halt wie bei DLSS, dass man in der geringeren Auflösung aufgrund der höheren FPS nicht so viel Speed-Up bekommt.
Edit:
FSR soll noch einen TAA-only Mode bekommen, ohne Upsampling. Details wurde noch keine genannt, aber im besten Fall geht das in Richtung DLAA.
Edit 2:
Deathloop kommt mit allen 4 FSR Settings von Q bis UP und dazu DSR noch obendrauf :) Bin gespannt auf die Vergleiche mit DLSS.
Erster Showcase von FSR Ultra Performance: https://youtu.be/Vn4Q4XeMyBk?t=2905 Auf den 1080p YT-Video sieht man nicht viel, ausser dass es etwas unschärfer wird. Dramatisch scheint der Unterschied auf den ersten Blick aber nicht zu sein.
y33H@
2022-03-24, 23:56:06
Patch v1.0.10 for God of War
Fixed typo in UI regarding the FSR version.:ulol:
Andron
2022-03-25, 01:03:57
Erster Showcase von FSR Ultra Performance: https://youtu.be/Vn4Q4XeMyBk?t=2905 Auf den 1080p YT-Video sieht man nicht viel, ausser dass es etwas unschärfer wird. Dramatisch scheint der Unterschied auf den ersten Blick aber nicht zu sein.
Da hat Dampf zumindest einen ersten kleinen Ausblick auf FSR mit niedrigen Eingangsauflösungen (in dem Fall 720p). das 1080p Youtube-Standbild ist zwar etwas suboptimal und lässt keine abschließende Beurteilung zu, ein Totalausfall scheint es allerdings nicht zu werden.
Platos
2022-03-25, 08:42:08
Uncharted 4 für den PC (vermutlich) Es kommen leider immer noch AAA Titel ohne DX12 am PC tatsächlich raus, das wäre irgendwie "dumm" wenn es wirklich nur mit DX12 Titeln gehen wurde, was ich aber stand jetzt auch nicht glaube.
Uncharted 4 ist aber ein uraltes Spiel. Muss zwar erstmal portiert werden, ist wohl mit DX11 weniger Aufwand.
Geldmann3
2022-03-25, 08:58:48
Interessant wird FSR 2.0 in Bewegung. Ich erwarte dort eine etwas bessere Optik als TSR, jedoch eine schlechtere als DLSS. Einfach deshalb, weil man sich das UE5 Plugin sonst ja sparen könnte. Andererseits, FSR 1.0 hat ja auch ein Plugin spendiert bekommen, obwohl die Unreal Engine besseres kann. TSR hat halt Probleme bei Kameraschwenks um Objekte herum, hoffe FSR 2.0 kann das besser.
mksn7
2022-03-25, 09:36:58
Ich würde das ganze "Machine Learning" vs "No Machine Learning" nicht so schwarz und weiß sehen. Es gibt jede Menge "klassische" Algorithmen, die man als Neuronales Netz umformulieren/uminterpretieren könnte.
Selbst wenn einen einzigen tunebaren Parameter in einer Heuristik könnte man als Neuronales Netz deklarieren (1 Neuron, 1 Input) und das einzelne Gewicht dann "erlernen" lassen. Das hieß früher einfach Statistik oder Optimierung.
NVIDIA wird bei DLSS sicherlich schon noch ein bisschen mehr drin haben, mit mehr freien Parametern. Ich glaube aber auch dass der Deep Learning Anteil bewusst hochgespielt wird, weil
1. NVIDIA ist halt mittlerweile nur noch eine AI company.
2. Man kann damit die Bedeutung der Tensor Cores stärker herausstellen, bis zu dem Punkt dass man den Eindruck hat das Verfahren geht gar nicht ohne Tensor Cores, was natürlich Quatsch ist. Wie groß der Speedup ist kann niemand sagen, aber er ist sicherlich weit weg vom theoretischen Durchsatzfaktor.
3. Die Leute kennen ja mittlerweile was mit komplexen neuronalen Netzen alles an erstaunlichen, fast schon unheimlichen Dingen geht, und projizieren das auch auf DLSS. Wenn ich überzeugt bin dass da "Magie" drin steckt dann sieht auch alles besser aus.
Deswegen wird NVIDIA den DL Anteil an dem Verfahren bewusst hoch hypen. Obwohl wir wissen, dass ein reines DL-Magie Verfahren (DLSS 1.0) mit der verfügbaren Rechenzeit nicht abliefert.
AMD auf der anderen Seite wird aus den gleichen Gründen die Bedeutung von DL in ihrem Verfahren eher herunterspielen. Edit: Hab das Video gesehen, das ist schon eher "gar kein DL" bei AMD.
Ich möchte echt nie mehr so was wie "FSR muss schlechter sein, weil das hat ja kein DL" hören. DL leistet ganz Erstaunliches, aber nur wenn man auch entsprechend Rechenleistung rein steckt. Bei der Rechenleistung die eben momentan dafür vorhanden ist, sind direkte Verfahren vielleicht einfach effizienter. (Oder auch nicht. Das weiß keiner von uns, der nicht viel in dem Bereich geforscht hat. Aber es ist sicher kein DL = Besser)
robbitop
2022-03-25, 10:12:50
Ein guter Kommentar. Aber: man muss erstmal sehen, ob sich letzteres bewahrheitet. Bisher ist es nunmal der Status Quo.
Und auch Intel (ohne eine AI Firma zu sein oder einen großartigen Background oder Historie in dem Thema zu haben) hat sich für eine Implementierung via NN entschieden.
Man muss mal sehen wie sich FSR 2.0 und XeSS machen und ob es den Status Quo ändert.
Ich habe auch noch (ich weiß nicht von wo) eine Aussage von NV im Hinterkopf als sie DLSS 2.0 vorgestellt hatten, dass sie sich aufgrund der Rechenleistung mit ihrem Modell stark einschränken mussten und, dass man wenn davon deutlich mehr in der Zukunft vorhanden ist, da noch einiges mehr an Potenzial nach oben hat in Bezug auf ihr Modell und ihr Verfahren.
Die breite Praxis zeigt, dass NN in bestimmten Anwendungsbereichen (ob dieses unbedingt dazu gehören muss sei dahin gestellt) einfach Ergebnisse erzielen, die deutlich besser sind als alles, was es davor gab. Und man sieht, dass alle großen HW Vendors entsprechende Matrixeinheiten verbauen. Google fing ja vor ~ einem halben Jahrzehnt mit den TPUs an und jetzt sind sie selbst in jedem Smartphone Chip. Und man schaue sich z.B. die Ergebnisse an, was diese in Bildern in Dunkelheit auf einmal erzielen. Das ist echt freaky.
Also zumindest indikativ gibt es schon einige Beispiele die zeigen, dass in bestimmten Anwendungen NN ganz klar die besten Ergebnisse erzielen. Aber nicht in jeder Anwendung und nicht zwangsweise in dieser Anwendung (aber eventuell schon).
Platos
2022-03-25, 10:20:02
Ich habe auch noch (ich weiß nicht von wo) eine Aussage von NV im Hinterkopf als sie DLSS 2.0 vorgestellt hatten, dass sie sich aufgrund der Rechenleistung mit ihrem Modell stark einschränken mussten und, dass man wenn davon deutlich mehr in der Zukunft vorhanden ist, da noch einiges mehr an Potenzial nach oben hat in Bezug auf ihr Modell und ihr Verfahren.
Inwiefern ist dass denn vorteilhaft, wenn man mehr Rechenleistung braucht? Also es soll ja Rechenleistung sparen. Was bringt es also, wenn man mehr bräuchte und für was bräuchte man mehr? Vessere Qualität? Wofür, wenn darunter die Perfomance stark leiden würde?
Dampf
2022-03-25, 11:02:01
Da hat Dampf zumindest einen ersten kleinen Ausblick auf FSR mit niedrigen Eingangsauflösungen (in dem Fall 720p). das 1080p Youtube-Standbild ist zwar etwas suboptimal und lässt keine abschließende Beurteilung zu, ein Totalausfall scheint es allerdings nicht zu werden.
Ja, kein Totalausfall. Leider ist das Video nur in 1080p, dafür sieht es aber gut aus.
Das was ich sehen kann gefällt mir.
robbitop
2022-03-25, 11:37:41
Inwiefern ist dass denn vorteilhaft, wenn man mehr Rechenleistung braucht? Also es soll ja Rechenleistung sparen. Was bringt es also, wenn man mehr bräuchte und für was bräuchte man mehr? Vessere Qualität? Wofür, wenn darunter die Perfomance stark leiden würde?
Tensorrechenleistung - die wird von der 3D Renderingpipeline eh nicht genutzt. Und mit reinen Tensor FPUs kann man relativ transistorschonend die TOP/s Rohleistung steigern.
Ich nehme an, dass ein rechenintensiveres Modell besser ist und damit damit dann die Konsistenz der Ergebnisse und damit dann auch die Qualität. Und mit mehr Qualität pro Inputresolution kann man diese dann wenn man nur gleich gut sein will weiter senken und dann sogar eher mehr Leistung sparen. Je nach Qualitysetting also mehr Leistung pro gleicher BQ oder mehr BQ bei gleicher Leistung.
Ggf. haben sie ja auch vor zusätzlich zum temporal SS noch mehr on top zu machen. Spekulation.
robbitop
2022-03-25, 11:56:22
Interessantes Detail aus der GDC Präsentation (Minute ~34...35):
Die Frametimekosten von FSR 2.0 ersetzen die Frametimekosten bestehender TAA Lösungen. Und diese sieht AMD in ähnlicher Höhe. Bedeutet, dass wenn ein Spiel TAA hat und dies durch FSR 2.0 ersetzt wird es kaum bis keine "Mehrkosten" durch FSR 2.0 gibt.
Entsprechend kann es eben doch relevant für die Nintendo Switch sein. Dort gibt es einige Spiele mit TAA.
Inwiefern ist dass denn vorteilhaft, wenn man mehr Rechenleistung braucht? Also es soll ja Rechenleistung sparen.
Weil man "teure" Rechenleistung , sowohl vom Verbrauch als auch von der DIE-Size, gegen "billige" Rechenleistung (Matrixcores) eintauscht.
Ich nehme an, dass ein rechenintensiveres Modell besser ist und damit damit dann die Konsistenz der Ergebnisse und damit dann auch die Qualität. Und mit mehr Qualität pro Inputresolution kann man diese dann wenn man nur gleich gut sein will weiter senken und dann sogar eher mehr Leistung sparen. Je nach Qualitysetting also mehr Leistung pro gleicher BQ oder mehr BQ bei gleicher Leistung.
Ggf. haben sie ja auch vor zusätzlich zum temporal SS noch mehr on top zu machen. Spekulation.
Intel wird nicht umsonst die doppelte Tensorleistung pro "SM" (keine Ahnung wie das Intel Äquivalent heißt) verbaut haben.
robbitop
2022-03-25, 12:35:42
"EU" heißt das Intel Äquivalent. Ist aber IIRC nur 1x SIMD8 FPUs (+1x SIMD2 extended Math) pro EU. :)
robbitop
2022-03-25, 16:56:15
Ich habe mir die technische Präsentation jetzt komplett angeschaut:
1.)
Ich habe keine Limitierung auf DX12 gesehen - ggf. ist das im Slidedeck. Kann mir aber vorstellen, dass DX11 noch kommt.
2.)
Die Anpassung des Texture LoDs wurde nicht erwähnt in Bezug auf Implementierung. Das sollte grundsätzlich sinnvoll sein bei Temporal Upsampling. Ein LoD was dann zur Outputresoultion passt. Ggf. nur nicht erwähnt aber in der Dokumentation vorhanden?
DrFreaK666
2022-03-25, 17:10:53
Schade dass es von AMD keine Techdemo dazu gibt. Dann könnte man sich selbst ein Bild von machen
Andron
2022-03-25, 19:26:37
Die Anpassung des Texture LoDs wurde nicht erwähnt in Bezug auf Implementierung. Das sollte grundsätzlich sinnvoll sein bei Temporal Upsampling. Ein LoD was dann zur Outputresoultion passt. Ggf. nur nicht erwähnt aber in der Dokumentation vorhanden?
Wurde doch ab Minute 44:15 thematisiert:
Link (https://youtu.be/97JIldpUGE4?t=2657)
robbitop
2022-03-25, 19:41:56
Oh danke das ist mir tatsächlich durchgerutscht. :up:
y33H@
2022-03-25, 19:43:06
Nvidia hat in ihrem DLSS 2.3 Talk auch die Bias Sache noch mal auf paar Slides erläutert - offenbar wird das tatsächlich "gerne" vergessen.
aufkrawall
2022-03-25, 19:49:13
Sehr gut auch der Hinweis in der FSR-Präsentation, dass Entwickler das Bias für hochfrequente Texturen weniger verschieben sollten. Die empfohlenen Bias-Werte von AMD kommen mir allerdings ziemlich hoch bzw. negativ vor. Ich halte es auch für nicht so klug, bei immer niedrigerer Auflösung immer weiter runter zu gehen. Klar gibt es sonst einen leichten Detailverlust, aber die Flimmerneigung nimmt schon stark zu. Würde auch hier nur selektiv weiter runter gehen.
Gut, dass Sharpen standardmäßig aus ist. Obligatorische Überschärfung ruiniert alles.
y33H@
2022-03-25, 19:58:54
Es ist ja bereits etwas Sharpening drin, daher RCAS optional wohl.
Geldmann3
2022-03-25, 22:04:27
Finde es interessant, dass FSR 2.0 zum Upscaling der Samples in die finale Auflösung auch wieder Lanczos verwendet. Es hat den Namen FSR also verdient. Die Algorithmen für das Ganze sind ja eigentlich überraschend simpel. Fände es echt geil, wenn das gut funktioniert.
Nach einem Bildwechsel, also, wenn man nur einen Sample pro Pixel hat, fällt es im Prinzip wahrscheinlich nahezu auf FSR 1.0 herab. Wobei es deutlich schlechter aussehen wird, als FSR 1.0, weil 1 Sample pro Pixel, geupscaled, sehr hässlich ist. FSR 1.0 braucht einen sauberen Input, um gut zu arbeiten.
Bei der Beschreibung des neuen Quality Modus betreibt AMD mal wieder schwaches Marketing. ,,Equal or superior to native rendering".
Mensch, da schreibt man einfach nur ,,superior" hin. :D
Finde es interessant, dass FSR 2.0 zum Upscaling der Samples in die finale Auflösung auch wieder Lanczos verwendet. Es hat den Namen FSR also verdient.
Also "verdient" alles was Lanzcos verwendet den Namen FSR oder wie.
Was für ein Blödsinn, wenn etwas nicht den Namen FSR verdient ist es FSR1.0 weil daran ist wirklich nicht das geringste "Super".
"EU" heißt das Intel Äquivalent. Ist aber IIRC nur 1x SIMD8 FPUs (+1x SIMD2 extended Math) pro EU. :)
Nicht bei Xe, da heißt das Xe Core und sieht auf dem Papier sehr ähnlich einem Nvidia SM.
basix
2022-03-26, 00:02:05
Interessantes Detail aus der GDC Präsentation (Minute ~34...35):
Die Frametimekosten von FSR 2.0 ersetzen die Frametimekosten bestehender TAA Lösungen. Und diese sieht AMD in ähnlicher Höhe. Bedeutet, dass wenn ein Spiel TAA hat und dies durch FSR 2.0 ersetzt wird es kaum bis keine "Mehrkosten" durch FSR 2.0 gibt.
Die Aussage war etwas differenzierter: Es gibt TAA Umsetzungen, die anscheinend ähnlich viel Frametime kosten. Bei diesen hast du mit deiner Aussage recht. Bei den meisten Spielen kostet TAA aber fast nix.
Tobalt
2022-03-26, 00:38:27
Habe mir die Präsentation auch Mal angesehen. Im großen und ganzen war da jetzt keine Überraschung drin.
Den Pseudo-Lanczos-2-Kernel für die Interpolation sehe ich aber mit Sorge. Ein pseudo-Gauß oder pseudo-cosine hätte halt kein inherentes Sharpening.
edit: late hour brainfart.. Lanczos macht Sinn, da es gerade so gut wie kein ringing macht.
Tobalt
2022-03-26, 00:45:25
Also "verdient" alles was Lanzcos verwendet den Namen FSR oder wie.
Was für ein Blödsinn, wenn etwas nicht den Namen FSR verdient ist es FSR1.0 weil daran ist wirklich nicht das geringste "Super".
Exakt. Mehr als dezentes Schmunzeln entlockte mir auch der Satz 'FSR2.0 is NOT based on FSR1.0'... :D wow, da scheinen die FSR devs ja auch sauer zu sein, dass denen 1 Jahr vor release vom Marketing FSR1 aufgezwängt wurde und somit den Namen FSR erstmal ruiniert hat.
edit: late hour brainfart.. Lanczos macht Sinn, da es gerade so gut wie kein ringing macht.
Lanczos erzeugt schon gerne Ringing, hat ja negative Lobes, aber es wird wieder wie bei FSR 1 durch eine Beschränkung aufs ursprüngliche Maximum und Minimum abgefangen. (also Werte können nicht heller oder dunkler werden als in einer 2x2 Ursprungsregion)
Also "verdient" alles was Lanzcos verwendet den Namen FSR oder wie.
Was für ein Blödsinn, wenn etwas nicht den Namen FSR verdient ist es FSR1.0 weil daran ist wirklich nicht das geringste "Super".
Irgendwie muss man ja am Ende die ganzen Samples an unterschiedlichen Orten und aus unterschiedlichen Zeiten für die neuen Pixel zusammenrechnen, und da bietet sich Lanczos an. Ist halt eine gute, recht effiziente Annäherung ans Optimum.
Und man muss es nicht gleich "Super" nennen, aber FSR 1 ist schon eine sehr effiziente Implementierung für einen kantenadaptiven, nahe Lanczos liegenden Interpolator mit integrierter Ringingunterdrückung. Das habe ich vorher so noch nicht gesehen.
Milchkanne
2022-03-26, 01:23:29
Ich habe keine Limitierung auf DX12 gesehen - ggf. ist das im Slidedeck. Kann mir aber vorstellen, dass DX11 noch kommt.
Ich denke nicht, dass es eine harte Limitierung des Algos auf DX12/Vulkan gibt. Auf Folie 47, Minute 36 steht, dass sie Beispielcode für DX12 & Vulkan, ein UE Plugin und GDKX samples bereitstellen. Damit ist es vorläufig auf das beschränkt, bis das jemand mal selber mit DX11 oder so macht.
Tobalt
2022-03-26, 06:48:11
Lanczos erzeugt schon gerne Ringing, hat ja negative Lobes, aber es wird wieder wie bei FSR 1 durch eine Beschränkung aufs ursprüngliche Maximum und Minimum abgefangen. (also Werte können nicht heller oder dunkler werden als in einer 2x2 Ursprungsregion)
Jein. Die Sinc Funktion ist ja die FFT der Rechteckfuntion. Würde man statt Lanczos eine unabgeschnittene Sinc nehmen, gibt es tatsächlich kein Ringing, obwohl jedes Pixel auch negative Lobes hat..in der Summe heben sich dann aber die negativen und positiven Lobes aus der Umgebung gerade auf. Bei Lanczos-n ist das durch das "Ausfaden" nach Lobe n nicht vollständig aber sehr gut gegeben. Auf jeden Fall besser als bei einem Boxsincfilter
Irgendwie muss man ja am Ende die ganzen Samples an unterschiedlichen Orten und aus unterschiedlichen Zeiten für die neuen Pixel zusammenrechnen, und da bietet sich Lanczos an. Ist halt eine gute, recht effiziente Annäherung ans Optimum.
Nur wird deshalb nicht alles was Lanczos verwendet zu FSR.
Akkarin
2022-04-02, 12:32:51
FSR 1 ist schon eine sehr effiziente Implementierung für einen kantenadaptiven, nahe Lanczos liegenden Interpolator mit integrierter Ringingunterdrückung. Das habe ich vorher so noch nicht gesehen.
Inwiefern ist FSR Kantenadaptiv ?
Troyan
2022-04-02, 12:42:20
Ich denke nicht, dass es eine harte Limitierung des Algos auf DX12/Vulkan gibt. Auf Folie 47, Minute 36 steht, dass sie Beispielcode für DX12 & Vulkan, ein UE Plugin und GDKX samples bereitstellen. Damit ist es vorläufig auf das beschränkt, bis das jemand mal selber mit DX11 oder so macht.
AMD nutzt für RDNA für bestimmte Berechnungen Wave64 anstelle von Wave32 (nVidia), da es effizienter ist. Das geht nur mit DX12 (und ggfs. Vulkan Extension) als Umschaltoption.
Das ist eben eines der größten Probleme, wenn man das ganze per Compute-Shader umsetzen will. Es ist abhängig von der Architektur und Optimierungen.
basix
2022-04-02, 15:33:35
Und bei Matrix-Acceleration ist es nicht abhängig von Architektur und Optimierungen, oder was? Alle Algorithmen können optimiert werden.
Compute Shader sind mitunter am flexibelsten und kann es faktisch perfekt für eine Architekur optimieren. Ich sehe da keinen Nachteil, sondern ein Vorteil. Den Aufwand dafür muss man aber spendieren. Den Aufwand hätte man bei Matrix- Acceleration und DP4A aber auch.
Rumbah
2022-04-02, 15:56:54
Inwiefern ist FSR Kantenadaptiv ?
FSR 1.0 dreht den Filterkernel in Richtung der dominanten Kante.
Akkarin
2022-04-02, 16:14:08
Gibts dazu irgendwo ne Erläuterung ? Ich hab schon ein wenig Grundwissen, aber nicht genug um da in den Sourcecode etc. ein zu steigen.
Rumbah
2022-04-02, 22:01:12
Ich glaube, ich habe den Vortrag von Timothy Lottes gefunden, wo das erklärt wird (habs jetzt nicht nochmal geguckt ;) ):
https://www.youtube.com/watch?v=aKyjQPq5aUU
Milchkanne
2022-04-02, 23:17:56
AMD nutzt für RDNA für bestimmte Berechnungen Wave64 anstelle von Wave32 (nVidia), da es effizienter ist. Das geht nur mit DX12 (und ggfs. Vulkan Extension) als Umschaltoption.
Also auf allen nicht RDNA Karten geht auch DX11 (theoretich) ohne Einschränkung und auf RDNA dann halt nicht ganz so schnell? Oder war da ein Widerspruch zu meiner Einschätzung?
Savay
2022-04-03, 04:09:00
GCN nutzt afair doch sogar immer Wave64 und VEGA hat ja dann auch RPM.
Hat mit RDNA also irgendwie nix zu tun, sie haben da halt nur den Wave64 Modus neben Wave32 zusätzlich zur Verfügung, falls er hilfreich sein sollte.
Ich verstehe aber auch nicht wo da das ungewöhnliche Problem sein soll.
Dann gibt es halt nen fp16 Wave64 Code Pfad für RDNA/GCN und einen fp16/fp32 Wave32 für alles andere. ;)
Und wenn es Open Source ist sollte es sich doch sogar mannigfaltig optimieren lassen.
Ist ja nicht so als würde nicht woanders auch auf die jew. Architektur optimiert werden. (TensoCore ahoi)
ChaosTM
2022-04-03, 04:26:38
Braucht man dafür wirklich "tensor kerne" oder ist das eine Marketing Geschichte?
Ein ähnliches Gefühl beschleicht(e)mich des öfteren bei "RTX" ? :D
NV war/ist immer schon gut gewesen bei solchen Sachen.
Nicht falsch verstehen, ich arbeite ausschließlich mit NV Karten.
Bin nur skeptisch..
Tobalt
2022-04-03, 06:39:43
Du kannst das alles auch auf CPU rechnen. Je exakter die Hardware auf das Problem passt, desto effizienter und schneller wird es aber. Wenn in einem Problem massiv Matrixmulitiplikation mit niedriger Präzision auftreten (wie bei DNN Inference), dann wird mit solchen Einheiten eine hohe Geschwindigkeit und Effizienz erreicht im Vergleich mit generischen Einheiten die zB FP32 FMA können.
Das kann soweit reichen, dass man bestimmte Aufgaben nur mit entsprechend angepasster Hardware sinnvoll lossn kann in Echtzeit.
Oft ist es aber auch möglich einen ähnlichen Algo zu formulieren der sehr gut auf FP32 läuft, der dann vom Ergebnis her nicht so schlecht ist, wie den ursprünglichen Algo auf den generischen Einheiten laufen zu lassen. Das wäre aktuell der FSR2 Ansatz.
Braucht man dafür wirklich "tensor kerne" oder ist das eine Marketing Geschichte?
Wofür, FSR2.0? Nein.
Prinzipiell kannst du jeden Algorithmus auf jeder Maschine die Turing complete ist berechnen lassen. Die Frage ist wie schnell und wie effizient.
Ob es ohne Tensor Kerne noch schnell genug um sinnvoll zu sein wäre kann man schwer sagen, aber wahrscheinlich ja.
Nachdem über den internen Algorithmus von DLSS wenig bekannt ist kann man das schwer abschätzen.
Anhaltspunkte gibt es wenige, wenn ich mich recht erinnere gab es mal von Metro Exodus eine Aufschlüsselung was wieviel Zeit in einem Frame braucht, und auch wieviel man durch RT-Cores und Tensorcores erspart. Das war allerdings noch mit DLSS 1.x und Tensorcores können auch bei "normalen" Shadern verwendet werden wenn FP16 zum Einsatz kommt, wieviel der Zeitersparnis rein an DLSS liegt kann man also schwer sagen.
Der zweite Anhaltspunkt wäre Intels XeSS, was ja sehr ähnlich funktionieren sollte, und von Intel gab es Slides die zeigen, dass deren Matrixcores gegenüber DP4a etwa doppelt so schnell arbeiten. Da das Upscaling aber nur einen kleinen Teil der gesamten Frametime ausmacht, macht das insbesondere bei niedrigen FPS gar keinen so großen Unterschied.
TheAntitheist
2022-04-03, 22:50:41
Braucht man dafür wirklich "tensor kerne" oder ist das eine Marketing Geschichte?
Ein ähnliches Gefühl beschleicht(e)mich des öfteren bei "RTX" ? :D
NV war/ist immer schon gut gewesen bei solchen Sachen.
Nicht falsch verstehen, ich arbeite ausschließlich mit NV Karten.
Bin nur skeptisch..
Skepsis ist ja schön und gut, aber es gibt doch Fakten... nicht ohne Grund sind die Nvidia Karten 3-4x schneller wenn viel RT Leistung benötigt wird. auch DLSS wird viel besser aussehen als FSR 2.0 also kA was du willst. eine 3060 schlägt teilweise eine 6900 in manchen RT Titeln. DAS sollte doch alles sagen.
basix
2022-04-03, 23:07:50
Ob es ohne Tensor Kerne noch schnell genug um sinnvoll zu sein wäre kann man schwer sagen, aber wahrscheinlich ja.
Bei Beschleunigungen um 2x wird es ohne Tensor Cores wohl definitiv noch was bringen. Halt einiges weniger. Genau das werden wir bei Intels DP4a Lösung bei XeSS dann sehen.
Was man zu DP4a bei XeSS abschätzen kann:
Intels GPUs haben eine sehr hohe XMX-Rohleistung. Die grösste Desktop GPU wohl so ~280 TOPS INT8. Auf Intels Folien zu XeSS sind ähnliche Performance-Vorteile wie bei DLSS zu sehen, deswegen nehme ich an, dass es ähnlich viel Ausführungszeit wie DLSS benötigt (2080 Ti = 240 TOPS, 3090 = 320 TOPS). DLSS @ 4K benötigt auf der 2080 Ti ~1.5ms und ~1.0ms auf einer 3090. Jetzt nehmen wir für XeSS Rohleistungsnormiert die selben Werte an. Nimmt man jetzt eine 6900XT, welche via DP4a ~90 TOPS bietet, würde XeSS ~3.5...4ms Ausführungszeit benötigen. Was bei DLSS/FSR/XeSS auch gilt: Das Post Processing wird hier in diesem Beispiel in vollem 4K berechnet. Das kostet in vielen Spielen ~1ms. Jetzt haben wir:
- 3090 = 1ms DLSS + 1ms Post Processing = 2ms
- 6900XT = 4ms XeSS + 1ms Post Processing = 5ms
Bei der 6900XT wird es inkl. XeSS für 60fps wohl noch gut reichen (@4K). Man müsste so in ~90fps rendern (@1080p). XeSS Performance mit >2x Performancegewinn lohnt sich also. XeSS Quality hätte aber bereits einen schweren Stand. Je nach Spiel würde man keine oder nur wenig Performance gewinnen.
100fps könnte man noch erreichen, wenn man auf XeSS Performance setzt. Aber mit geringem Performance-Gewinn gegenüber nativ und man müsste in nativ 1080p mit 200fps rendern können.
120fps sind dann schliesslich fast utopisch (man müsste mit 300fps in nativ 1080p Auflösung rendern können).
Mit stärkeren GPUs wie N31 wird wohl auch XeSS mit DP4a gut nutzbar sein. RDNA2 könnte aber seine Mühe damit haben, wenn man nicht gleich auf XeSS Performance geht.
Wie sieht DP4a eigentlich bei Nvidia aus? Wird das über die Tensor Cores beschleunigt?
...auch DLSS wird viel besser aussehen als FSR 2.0...
Aha, ein Allwissender ;)
aufkrawall
2022-04-04, 00:11:37
Wie sieht DP4a eigentlich bei Nvidia aus? Wird das über die Tensor Cores beschleunigt?
Das große Fragezeichen afaik. Nur über TCs wäre Pech, denn dafür muss man anscheinend NGX (also CUDA) oder ggf. noch NVAPI (wobei wohl eher nicht) verwenden.
Felixxz2
2022-04-04, 01:54:48
nicht ohne Grund sind die Nvidia Karten 3-4x schneller wenn viel RT Leistung benötigt wird…….auch DLSS wird viel besser aussehen als FSR 2.0 als…….kA was du willst
Hahahhaha, ich will das Zeug das du rauchst. :freak:
TheAntitheist
2022-04-04, 04:06:31
Hahahhaha, ich will das Zeug das du rauchst. :freak:
und was davon zweifelst du an? eigentlich ist die reine RT Leistung sogar viel höher aber nun gut. Und nach ein paar Benchmarks kannst du wohl selber googlen oder? natürlich ist das sehr selten aber dennoch zeigt es die Probleme die RDNA hat auf. Ampere hat andere Probleme...
horirim
2022-04-04, 08:49:30
und was davon zweifelst du an? eigentlich ist die reine RT Leistung sogar viel höher aber nun gut. Und nach ein paar Benchmarks kannst du wohl selber googlen oder? natürlich ist das sehr selten aber dennoch zeigt es die Probleme die RDNA hat auf. Ampere hat andere Probleme...
Sorry, aber 3-4 mal schneller ist total übertrieben!
Anbei an paar Benchmarks:
Aktuelle Benchmarks (mit aktuellen Treibern) von Computerbase, jeweils RT/Raster und Full-RT.
https://www.computerbase.de/2022-03/geforce-radeon-treiber-benchmark-test/
Zusätzlich noch worst-case -> ältere 3dmark DXR Benchmarks von Guru3d jeweils in Hybrid- und Full-RT
https://www.guru3d.com/articles-pages/amd-radeon-rx-6900-xt-review,26.html
In real-world-Szenarien ist der Abstand zwischen RX 6800XT und RTX 3080 mittlerweile sogar überraschend gering.
basix
2022-04-04, 08:55:14
Das große Fragezeichen afaik. Nur über TCs wäre Pech, denn dafür muss man anscheinend NGX (also CUDA) oder ggf. noch NVAPI (wobei wohl eher nicht) verwenden.
Da XeSS Open Source ist, könnte man es prinzipiell selbst integrieren. Wenn ich Nvidia wäre, würde ich schon schauen, dass es für XeSS via TC eine Lösung gäbe.
- DLSS = Gut
- XeSS via TC beschleunigt = Gut
- FSR 2.0 via Shader = Gut
- UE5 TSR via Shader = Gut
- id-Tech TSSAA via Shader = Gut
--> Alle "grossen" temporal Upsampling Verfahren würden auf Nvidia HW dann gut laufen
--> Alternative: Nvidia pusht Streamline. Wird XeSS implementiert, wäre DLSS wohl dann gleich automatisch dabei.
robbitop
2022-04-04, 09:26:49
Bei Beschleunigungen um 2x wird es ohne Tensor Cores wohl definitiv noch was bringen. Halt einiges weniger. Genau das werden wir bei Intels DP4a Lösung bei XeSS dann sehen.
Was man zu DP4a bei XeSS abschätzen kann:
Intels GPUs haben eine sehr hohe XMX-Rohleistung. Die grösste Desktop GPU wohl so ~280 TOPS INT8. Auf Intels Folien zu XeSS sind ähnliche Performance-Vorteile wie bei DLSS zu sehen, deswegen nehme ich an, dass es ähnlich viel Ausführungszeit wie DLSS benötigt (2080 Ti = 240 TOPS, 3090 = 320 TOPS). DLSS @ 4K benötigt auf der 2080 Ti ~1.5ms und ~1.0ms auf einer 3090. Jetzt nehmen wir für XeSS Rohleistungsnormiert die selben Werte an. Nimmt man jetzt eine 6900XT, welche via DP4a ~90 TOPS bietet, würde XeSS ~3.5...4ms Ausführungszeit benötigen. Was bei DLSS/FSR/XeSS auch gilt: Das Post Processing wird hier in diesem Beispiel in vollem 4K berechnet. Das kostet in vielen Spielen ~1ms. Jetzt haben wir:
- 3090 = 1ms DLSS + 1ms Post Processing = 2ms
- 6900XT = 4ms XeSS + 1ms Post Processing = 5ms
Kann man den Vergleich so rechnen? Bei modernen Spielen rechnen die Tensor Cores simultan zu den FPUs bei Ampere. Ich meine gelesen zu haben, dass der Rest der GPU schon mit dem nächsten Frame anfängt während die TCs noch DLSS machen vom letzten Frame. Wenn es seriell wäre, wäre der Vergleich passend. Es scheint aber bei den neueren Implementierungen mit Ampere einiges an Parallelität dazu gekommen zu sein (was mit separaten Rechenwerken ja auch sinnvoll ist).
Wie sieht DP4a eigentlich bei Nvidia aus? Wird das über die Tensor Cores beschleunigt?
Nein, zumindest nicht abseits dessen, dass Tensorcores FP16 und kleiner parallel ausführen können.
Von Intel wird es keine Implementierung für Matrixcores anderer Hersteller geben.
WedgeAntilles
2022-04-04, 10:25:44
Sorry, aber 3-4 mal schneller ist total übertrieben!
Anbei an paar Benchmarks:
In real-world-Szenarien ist der Abstand zwischen RX 6800XT und RTX 3080 mittlerweile sogar überraschend gering.
Bei Cyberpunk ist die 3080 knapp 60% vor der 6800XT.
Das ist meilenweit von 3-4mal schneller weg, aber "überraschend gering" ist es auch nicht.
ABER: Seit Patch 1.5 - und dem noch mal etwas aufgehübschten RT - reichen 8GB VRAM nicht mehr wirklich aus.
Die 3070 ist daher etwa 11% LANGSAMER als die 6800XT.
Hier wird man von dem zu kleinen Ram eingeholt.
Bereits auf FullHD!
Full HD, alles Max.
Quelle: PC-Games Hardware.
Bei MetroExodus ist eine 3080 12GB vs 6900XT bei WQHD um den Faktor 2,5 schneller.
Bei Full HD ist es der Faktor 2,1.
Quelle: Hardware Unboxed, 1 Monat alt
https://www.youtube.com/watch?v=maqLX05hMuQ
(Leider hat HW-Unboxed z.B. Cyberpunk OHNE RT getestet, so dass ich nur MetroExodus gefunden habe bei dem klar war, dass RT aktiviert war.
Nach einem aktuellen Test für Control oder Doom oder einem anderen Spiel, bei dem RT einen optischen Mehrwert hat, bin ich jetzt ehrlich gesagt zu faul zu suchen.
Unterm Strich ist Faktor 3-4 deutlich zu hoch gegriffen.
Aber "erstaunlich nahe" würde ich bei +50% bzw. +150% jetzt auch nicht gerade sagen.
Das ist nämlich der Unterschied zwischen: Perfekt spielbar und nicht spielbar.
Da XeSS Open Source ist, könnte man es prinzipiell selbst integrieren. Wenn ich Nvidia wäre, würde ich schon schauen, dass es für XeSS via TC eine Lösung gäbe.
Bin mir nicht 100% sicher ob das überhaupt möglich wäre. So wie es Intel bisher formuliert hat wäre auch denkbar, dass XeSS nicht vollständig Opensource sondern nur die Interfaces für die Integration in Spiele, und die eigentliche Upscaling-Magic weiterhin Closed Source bleibt, wobei Intel hier eine XMX optimierte und eine generische DP4A Lösung implementiert.
Aber selbst wenn der vollständige Algorithmus Opensource ist....
--> Alternative: Nvidia pusht Streamline. Wird XeSS implementiert, wäre DLSS wohl dann gleich automatisch dabei.
... denke ich dass dies der Grund ist, dass es von Nvidia keine Tensorcorelösung von XeSS geben wird.
Nachdem ja bestätigt ist, dass Intel bei Streamline mit an Bord ist, werden wohl so gut wie alle Spiele XeSS über Streamline einbauen.
Aus Nvidias Sicht wäre es also sogar Vorteilhaft, wenn XeSS auf den eigenen Karten nur über DP4a läuft, einfach deshalb weil man damit Performancevorteile der eigenen DLSS Lösung zeigen kann. Ein Nachteil wäre es für Nvidia nur wenn es Spiele nur mit XeSS und ohne DLSS geben würde, was aber dank Streamline nicht der Fall sein wird.
basix
2022-04-04, 12:33:44
Bin mir nicht 100% sicher ob das überhaupt möglich wäre. So wie es Intel bisher formuliert hat wäre auch denkbar, dass XeSS nicht vollständig Opensource sondern nur die Interfaces für die Integration in Spiele, und die eigentliche Upscaling-Magic weiterhin Closed Source bleibt, wobei Intel hier eine XMX optimierte und eine generische DP4A Lösung implementiert.
Wir werden sehen, wie XeSS dann bezüglich Open Source wirklich aussieht. mMn wird der DNN-Kernel inkl. dem Netzwerk nicht Open Source sein und die XMX-Implementation auch nicht aber das Gerüst rundherum. Das Gerüst umfasst auch die Implementation für DP4a abfragen. Das erlaubt Open Source Optimierungen für die anderen Vendors. Und genau dort könnte man für eine Tensor Core Lösung ansetzen.
Aus Nvidias Sicht wäre es also sogar Vorteilhaft, wenn XeSS auf den eigenen Karten nur über DP4a läuft, einfach deshalb weil man damit Performancevorteile der eigenen DLSS Lösung zeigen kann. Ein Nachteil wäre es für Nvidia nur wenn es Spiele nur mit XeSS und ohne DLSS geben würde, was aber dank Streamline nicht der Fall sein wird.
Oder auch ein Nachteil, wenn XeSS qualitative Vorteile hätte. Intel legt sich hier mit Nvidia ins Bett, da sie damit XeSS deutlich einfacher pushen und im Markt verteilen können. DLSS ist immer noch marktführend. Und Nvidia hat den Vorteil, dass bei XeSS Spielen automatisch auch DLSS dabei wäre. Evtl. sogar mit dem Vorteil, dass via Streamline die DLSS-DLL Version dann direkt vom Treiber gehandled wird. Schlussendlich Win-Win für Nvidia und Intel. Für AMD wäre es auch kein Nachteil, wenn sie FSR 2.0 mittels Streamline anbieten würden. Dann hat man FSR 2.0 auch automatisch in Games, welche XeSS und DLSS unterstützen. DLSS läuft auf AMD nicht und XeSS auf RDNA2 vermutlich relativ langsam. Und für Nvidia wäre das auch ein Vorteil. Sonst kann es sein, dass FSR 2.0 aufgrund der breiten HW-Basis und Konsolen-Unterstützung den Markt "übernimmt", was ein Vorteil für AMD wäre.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.