Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution (FSR)
Seiten :
[
1]
2
3
4
5
6
7
8
9
horn 12
2021-06-01, 04:28:30
Die Neuerung für Gamer schlechthin:
FidelityFX Super Resolution
kurz als FSR bekannt.
F S R ----> Release am 22.ten Juni 2021
Bis Vega abwärtskompatibel
und auch auf Nvidia Grafikkarten lauffähig.
Das dazu passende Video mit dem Release Date:
https://youtu.be/eHPmkJzwOFc
Zudem frei wählbar in 4 Quality Settings
und von Doppelter bis hin zu 3-facher Leistung Alles dabei
Bei Absolut Bester Qualität immerhin noch um die 60% schneller als Nativ.
Dies ist mal eine Ansage!
Der HeinZ
2021-06-01, 06:43:30
Wenn du schreibst
"auch auf Nvidia Grafikkarten lauffähig"
ist dann damit auch die Pascal Generation gemeint?
Dann wäre DLSS ja nurnoch 2te Wahl.
Interessant...
Gruss Matthias
misterh
2021-06-01, 06:53:03
@ Der HeinZ
Guck dir das Video an. Ab ca 2:59
Daredevil
2021-06-01, 07:04:47
Wenn jetzt wirklich die Qualität passt, dann will AMD Nvidia echt an die Wäsche :D
DLSS auf Vega Karten wäre erstmal zu schön um wahr zu sein, aber lets see.
Loeschzwerg
2021-06-01, 07:21:24
Zumindest 1440P + Quality sieht jetzt nicht wirklich toll aus, auf dem Bild hier:
https://www.hardwareluxx.de/images/cdn01/E9BEDDEB5FF24F5EAD4B272BBC528DBE/img/62DAEF3D50C84EDB9F0FBDF45438FC84/Computex2021-AMD-Radeon-FFXSS-00004_62DAEF3D50C84EDB9F0FBDF45438FC84.jpg
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/56275-auch-fuer-geforce-karten-fidelityfx-super-resolution-kommt-am-22-juni.html
Prinzipiell aber sehr interessante Geschichte, das wird definitiv spannend.
YeahBuoy!
2021-06-01, 07:42:52
Uh, ich seh schon Jensens Lederjacken Gang die Messer wetzen für den 22.06. Da DLSS in der 1. Iteration ja eher so lala von der Qualität her war und mit dem 2 Anlauf richtig brauchbar aussah denke ich das das FFXSR noch etwas reifen muss (siehe Godfall Ausschnitt, auch wenn das jetzt exemplarisch ist).
Ich finde den Hardware agnostischen Ansatz extrem gut und hoffe das der einerseits von den Devs gut aufgenommen wird und andererseits AMD richtig Ressourcen in die Hand nimmt um das zu puschen.
Loeschzwerg
2021-06-01, 07:51:59
Ich finde das Feature gerade hinsichtlich den APUs richtig super. Stellt euch das mal beim Aya Neo und dem verbauten 7" Schirm vor, das bringt ordentlich Leistung und fällt optisch vermutlich nicht großartig auf.
ChaosTM
2021-06-01, 07:58:10
Jetzt muss AMD nur noch RT für meine alte 1080ti drauflegen, dann brauch ich doch nicht aufzurüsten :biggrin:
*not happening*
IceKillFX57
2021-06-01, 08:08:37
Qualität ist zumindest noch fast unbrauchbar zumindest aufm Desktop.
Mobile schaut die Sache schon anders aus. Da wird es schon einen Mehrwert bieten. Zumindest wenn man sich die Bildqualität von z.B einer Switch anschaut.
Loeschzwerg
2021-06-01, 08:16:05
Mich würde ja interessieren ob es auch mit Intel Grafik funktioniert. Wüsste jetzt zwar nicht was dagegen sprechen sollte, aber man weiß ja nie ^^
Lowkey
2021-06-01, 08:19:18
Ich finde das Feature gerade hinsichtlich den APUs richtig super. Stellt euch das mal beim Aya Neo und dem verbauten 7" Schirm vor, das bringt ordentlich Leistung und fällt optisch vermutlich nicht großartig auf.
Pling Pling ... der Kandidat hat 100 Punkte. Die neuen Handhelds auf AMD Basis mit APU werden noch interessanter.
Jetzt muss AMD nur noch RT für meine alte 1080ti drauflegen, dann brauch ich doch nicht aufzurüsten :biggrin:
Das hat Nvidia eh schon gemacht.
Dampf
2021-06-01, 09:22:01
Bildqualität kann man jetzt nicht wirklich beurteilen, ich muss native Screenshots sehen mit vollem Detail und vergleichen.
https://www.pcgameshardware.de/screenshots/original/2021/05/AMD-Fidelity-FX-Super-Resolution3-pcgh.jpg
Das Motion Blur macht Vergleiche echt hinfällig, doch man sieht schon wenn man einige Bereiche betrachtet, wie z.B. die Marmor Säule, dass die Qualität schlechter ist.
War aber auch nicht anders zu erwarten, schließlich wird kein ML verwendet und keine Motion Vektoren genutzt.
Ist aber trotzdem eine tolle Sache für Karten die kein DLSS können.
Fragman
2021-06-01, 09:33:25
Ausgehend von dem Screen kann man schon sagen, das es stark weichgezeichnet ist.
Das ist auch der Quality Mode, oder?
Man muss mal schauen wie der Unterschied zu reinem Upscaling ist und was man mit Nachschaerfen noch rausholen kann.
robbitop
2021-06-01, 09:39:54
Uh, ich seh schon Jensens Lederjacken Gang die Messer wetzen für den 22.06. Da DLSS in der 1. Iteration ja eher so lala von der Qualität her war und mit dem 2 Anlauf richtig brauchbar aussah denke ich das das FFXSR noch etwas reifen muss (siehe Godfall Ausschnitt, auch wenn das jetzt exemplarisch ist).
Ich bin mir nicht sicher, ob es da zwangsweise einen Zusammenhang gibt.
Ich merke immer wieder wie DLSS 1.x und 2.x thematisch vermischt wird. Und das obwohl beide Verfahren extrem unterschiedlich sind. Eigentlich ist nur das Ziel gleich - mit weniger Basisauflösung ein möglichst gutes Bild zu erzeugen um Framerate zu erhöhen.
übersimplifiziert:
DLSS 1.x wollte mittels spielespezifischen Training sich Bildinhalte "ausdenken". Das war aufwändig zu implementieren und die Resultate waren nicht wirklich toll.
DLSS 2.x ist temporale Rekonstruktion. Wie Checkerboarding oder TAA. Also ein Verfahren, was grundsätzlich seit fast 10 Jahren gut bekannt ist. Nur eben verbessert über ein NN für das clamping statt einer festen Heuristik. Und genau diese Änderung erhöhte die durchschnittlich nutzbare durchschnittliche Anzahl an kumulierten Samples.
FSR scheint gleich in die Richtung temporale Rekonstruktion zu gehen.
Das soll nicht heißen, dass es sich FSR nicht noch verbessert über Iteration. Aber es wird aber thematisch nicht daran gekoppelt sein, dass man zunächst einen Irrweg (DLSS 1.x) geht.
Ich will DLSS 1.x auch gar nicht verurteilen. Je mehr verschiedene Experimente man macht, desto höher ist die Chance auf gute Ergebnisse. Man muss einfach viele verschiedene Dinge probieren mit der Annahme, dass es auch suboptimale Ergebnisse gibt. So funktioniert Forschung nunmal. :)
AMD hatte den Vorteil, dass sie sehen konnten (DLSS 2.x und auch Checkerboarding, TSSAA 8x etc) was besonders gut funtioniert und sich daran orientieren konnten.
00-Schneider
2021-06-01, 09:55:31
FSR scheint gleich in die Richtung temporale Rekonstruktion zu gehen.
Nope, spatial-based upscaling tech. :(
https://twitter.com/RyanSmithAT/status/1399567480813625344
YeahBuoy!
2021-06-01, 10:13:08
Ich bin mir nicht sicher, ob es da zwangsweise einen Zusammenhang gibt.
Ich merke immer wieder wie DLSS 1.x und 2.x thematisch vermischt wird. Und das obwohl beide Verfahren extrem unterschiedlich sind. Eigentlich ist nur das Ziel gleich - mit weniger Basisauflösung ein möglichst gutes Bild zu erzeugen um Framerate zu erhöhen.
übersimplifiziert:
DLSS 1.x wollte mittels spielespezifischen Training sich Bildinhalte "ausdenken". Das war aufwändig zu implementieren und die Resultate waren nicht wirklich toll.
DLSS 2.x ist temporale Rekonstruktion. Wie Checkerboarding oder TAA. Also ein Verfahren, was grundsätzlich seit fast 10 Jahren gut bekannt ist. Nur eben verbessert über ein NN für das clamping statt einer festen Heuristik. Und genau diese Änderung erhöhte die durchschnittlich nutzbare durchschnittliche Anzahl an kumulierten Samples.
FSR scheint gleich in die Richtung temporale Rekonstruktion zu gehen.
Das soll nicht heißen, dass es sich FSR nicht noch verbessert über Iteration. Aber es wird aber thematisch nicht daran gekoppelt sein, dass man zunächst einen Irrweg (DLSS 1.x) geht.
Ich will DLSS 1.x auch gar nicht verurteilen. Je mehr verschiedene Experimente man macht, desto höher ist die Chance auf gute Ergebnisse. Man muss einfach viele verschiedene Dinge probieren mit der Annahme, dass es auch suboptimale Ergebnisse gibt. So funktioniert Forschung nunmal. :)
AMD hatte den Vorteil, dass sie sehen konnten (DLSS 2.x und auch Checkerboarding, TSSAA 8x etc) was besonders gut funtioniert und sich daran orientieren konnten.
Danke für die Klarstellung! Da ich, mangels grüner Karte, nie in den Genuss von DLSS gekommen bin habe ich die Implementierungen nicht weiter verfolgt. Ich bin generell sehr angetan davon das jetzt mehr User, und dazu noch Hersteller UND generationenübergreifend (Pascal!), die Möglichkeit bekommen ihre Performance zu verbessern.
Nope, spatial-based upscaling tech. :(
https://twitter.com/RyanSmithAT/status/1399567480813625344
Das eine schließt das andere nicht aus.
Spatial upsampling heißt nicht viel anderes als mach aus wenig Pixel mehr, und sagt überhaupt nichts darüber aus wie der weg von "wenig" zu "mehr" ist.
Ich gehe mit hoher Wahrscheinlichkeit davon aus, dass AMDs Lösung auch in irgendeiner Form temporale Daten verwendet, irgendwo muss ja das Mehr an Informationen herkommen. Falls nicht werden sie auf jeden Fall in der Qualität deutlich hinter DLSS liegen, und wahrscheinlich sogar hinter bisherigen spielespezifischen Lösungen.
Uh, ich seh schon Jensens Lederjacken Gang die Messer wetzen für den 22.06. Da DLSS in der 1. Iteration ja eher so lala von der Qualität her war und mit dem 2 Anlauf richtig brauchbar aussah denke ich das das FFXSR noch etwas reifen muss (siehe Godfall Ausschnitt, auch wenn das jetzt exemplarisch ist).
Das ist eben das Problem wenn man immer "zu spät" auf den Markt kommt, man wird mit einer fortschrittlicheren Version des/der Konkurrenten verglichen.
Daran ist aber nichts falsches, wenn FidelityFX SR heute auf den Markt kommt muss es selbstverständlich gegen DLSS2.x antreten, und nicht gegen DLSS 1.x.
Das gleiche mit der Raytracing-Performance, verglichen mit Turing sieht RDNA2 eigentlich gar nicht schlecht aus, nur gibt es eben Turing schon mehrere Jahre und der Konkurrent von RDNA2 ist nicht Turing sondern Ampere, und dagegen sieht man eben doch recht alt aus (so alt wie Turing um genau zu sein).
Es ist ja nicht so, dass die Entwicklung bei der Konkurrenz schläft. Der RDNA2 Nachfolger wird sich bei der Raytracing-Performance vielleicht mit Ampere anlegen können. Und dann? Nvidia schläft auch nicht, und Ampere wird nicht der Gegner sein, AMD "nur" einen ähnlichen Sprung wie NV von Turing zu Ampere macht wird man wieder nur die 2. Geige spielen.
BlacKi
2021-06-01, 10:20:34
Wenn du schreibst
"auch auf Nvidia Grafikkarten lauffähig"
ist dann damit auch die Pascal Generation gemeint?
Dann wäre DLSS ja nurnoch 2te Wahl.
da der AI part wegfällt, denke ich das dlss immer besser aussehen wird, als die alternative. aber besser eine alternative zu haben als garnichts.
die unreal engine 5 hat ja mithilfe von amd das feature nativ eingebaut. dlss wirds vermutlich trotzdem nochmal obendrauf geben, weil besser.
robbitop
2021-06-01, 11:48:14
Nope, spatial-based upscaling tech. :(
https://twitter.com/RyanSmithAT/status/1399567480813625344
Die Frage ist, wie das "spatial" gemeint ist - und ob man sich wirklich sicher ist, dass keine temporalen Daten genutzt werden. Denn die Auflösung als solche ist ja spatial und entsprechend wird diese upgesampelt.
Ohne temporale Daten fehlt die Datengrundlagen, um es zu mehr als Upsampling zu machen. Und damit wäre es sehr unwahrscheinlich, dass die Ergebnisse (temporale Stabilität, Detailrekonstruktion etc) auf vergleichbarer Ebene zu DLSS 2.0 stünden.
Das wäre wirklich merkwürdig, wo doch temporales Upsampling so extrem gut bekannt und verbreitet ist.
Das gleiche mit der Raytracing-Performance, verglichen mit Turing sieht RDNA2 eigentlich gar nicht schlecht aus, nur gibt es eben Turing schon mehrere Jahre und der Konkurrent von RDNA2 ist nicht Turing sondern Ampere, und dagegen sieht man eben doch recht alt aus (so alt wie Turing um genau zu sein).
Wenn man diesen Aspekt auf eine uArch beziehen will, dann muss man diesen rohleistungsnormiert oder relativ betrachten. Der "impact" RT=an vs aus ist bei Turing iirc nahezu identisch mit Ampere. Ampere hat vor allem deutlich mehr Rohleistung. Deshalb finde ich das Beispiel nicht ideal gewählt. :)
da der AI part wegfällt, denke ich das dlss immer besser aussehen wird, als die alternative. aber besser eine alternative zu haben als garnichts.
In den Illustrationen zum AMD Patent zu FSR ist doch von AI die Rede. Aber mir ist noch nicht klar, wofür sie genutzt wird.
Ich bin gespannt wie FSR funktioniert. Wegen dem "spatial" bin ich jetzt doch wieder skeptisch.
Wenn man diesen Aspekt auf eine uArch beziehen will, dann muss man diesen rohleistungsnormiert oder relativ betrachten. Der "impact" RT=an vs aus ist bei Turing iirc nahezu identisch mit Ampere. Ampere hat vor allem deutlich mehr Rohleistung. Deshalb finde ich das Beispiel nicht ideal gewählt. :)
Nur wenn man Software betrachtet bei denen Raytracing eben nicht den ganz großen Performanceeinfluss hat.
Der Fehler den viele machen ist, den Performanceimpact eines Spiels beim Aktivieren von Raytracing zu 100% dem Raytracing zuzuschreiben.
Das kann aber falscher gar nicht sein, bei der Grafikberechnung mittels Raytracing muss eben noch jede Menge extra berechnet werden und nicht nur das Raytracing selbst. Und einiges davon braucht sogar CPU-Leistung, und anderes "General Purpose" Shader-Leistung.
Ampere kann sich nur dann entscheidend absetzen, wenn wenn der Anteil des Raytracings an der Gesamtberechnungszeit des Frames groß genug ist, was bei den heutigen Spielen mit Raytracing-Unterstützung kaum bis gar nicht der Fall ist.
IceKillFX57
2021-06-01, 12:47:37
Find's jetzt nicht so wild zwecks der Qualität. Gerade "Kindern" wird es nicht so unbedingt auffallen aber unter Umständen ob ein Spiel mit 40 oder 55 FPS läuft..
Wobei ich bezweifle das mit damals die 25fps aufm n64 aufgefallen sind ..
aufkrawall
2021-06-01, 12:48:46
Die Frage ist, wie das "spatial" gemeint ist - und ob man sich wirklich sicher ist, dass keine temporalen Daten genutzt werden. Denn die Auflösung als solche ist ja spatial und entsprechend wird diese upgesampelt.
Das Gezeigte legt nahe, dass das spieleigene TAA weitestgehend erhalten bleibt, was eben bei der UE4 viel Motion Blur bedeutet.
w0mbat
2021-06-01, 12:48:51
Ich denke das wird min. genau so unbrauchbar wie DLSS.
Lowkey
2021-06-01, 12:55:24
"Aber Nvidia hat DLSS. Ein Feature mehr. Ich will Nvidia".
Nächsten Monat: "AMD hat FSR, also Gleichstand" <--- dann kommt das 3Dc-Zentralkomitee zusammen und zählt die Spiele mit FSR an einer Hand ab. Das Feature ist einfach zunächst Marketing und entfalltet sich erst Jahren.
Wie AMD auf der eigenen Plattform GPUOpen verrät, unterstützen folgende AMD-GPUs FidelityFX Super Resolution: Radeon RX 6000, RX 5000, RX 500, RX Vega und sämtliche Ryzen-APUs.
Insgesamt stellt AMD für dieses Jahr mehr als zehn Spiele in Aussicht, die FSR in die Engine integrieren werden – es sollte also mindestens elf Spiele mit FSR geben, es könnten aber auch deutlich mehr sein.
Ich denke das wird min. genau so unbrauchbar wie DLSS.
Unbrauchbar?
Fragman
2021-06-01, 13:26:18
Find's jetzt nicht so wild zwecks der Qualität. Gerade "Kindern" wird es nicht so unbedingt auffallen aber unter Umständen ob ein Spiel mit 40 oder 55 FPS läuft..
Wobei ich bezweifle das mit damals die 25fps aufm n64 aufgefallen sind ..
Wir kannten das damals nicht anders, es hat uns vielleicht geaergert, aber so war das halt.
Doom2 hab ich damals mit nur 4MB Ram im kleinsten moeglichen Fenster gespielt, mit ruckeln.
Das Quake 1 Retro Video von DF hat mich auch wieder dran erinnert das ich das Game in Software mit Dauerruckeln gespielt hab (der hallende nachziehende Sound war am besten), bis die Voodoo1 da war. Gespielt haben wir trotzdem. So ein Theater wie heut um die Frames haben wir nicht gemacht. ;D
Dampf
2021-06-01, 13:32:34
Ich denke das wird min. genau so unbrauchbar wie DLSS.
Wenigstens bist du konsequent :tongue:
BlacKi
2021-06-01, 13:33:31
Das Feature ist einfach zunächst Marketing und entfalltet sich erst Jahren.
da es in ue5 standard eingebaut ist und sehr viele spiele die unrealengine nutzen werden ist das praktisch ein selbstläufer. andere große engines werden dem wohl folgen.
robbitop
2021-06-01, 14:30:17
Nur wenn man Software betrachtet bei denen Raytracing eben nicht den ganz großen Performanceeinfluss hat.
Der Fehler den viele machen ist, den Performanceimpact eines Spiels beim Aktivieren von Raytracing zu 100% dem Raytracing zuzuschreiben.
Das kann aber falscher gar nicht sein, bei der Grafikberechnung mittels Raytracing muss eben noch jede Menge extra berechnet werden und nicht nur das Raytracing selbst. Und einiges davon braucht sogar CPU-Leistung, und anderes "General Purpose" Shader-Leistung.
Ampere kann sich nur dann entscheidend absetzen, wenn wenn der Anteil des Raytracings an der Gesamtberechnungszeit des Frames groß genug ist, was bei den heutigen Spielen mit Raytracing-Unterstützung kaum bis gar nicht der Fall ist.
Das leuchtet ein. Das sieht man vermutlich nur mit den Performance Profiler Tools im Detail, oder?
Ex3cut3r
2021-06-01, 14:33:14
Ich denke das wird min. genau so unbrauchbar wie DLSS.
Sagt der Typ der 1080p auf nen 34“ rockt. Sry aber der Bildqualität Experte warst du nie, wenn du dir sowas freiwillig Jahrelang antun kannst.
w0mbat
2021-06-01, 14:37:36
Sagt der Typ, der mit ner ollen 2060S versucht 3440x1440 zu befeuern. Sorry, aber der Experte warst du nie, wenn du dir freiwillig sowas antun kannst. Avg. 14,7 FPS @very low oder was, und das soll dann die tolle BQ sein? :ugly:
;)
DrFreaK666
2021-06-01, 14:37:49
da es in ue5 standard eingebaut ist und sehr viele spiele die unrealengine nutzen werden ist das praktisch ein selbstläufer. andere große engines werden dem wohl folgen.
Ist das in der UE 5 das gleiche? Denn dort heißt es etwas anderst
w0mbat
2021-06-01, 14:39:08
Wenigstens bist du konsequent :tongue:
Ich korrigiere: Es wird weniger brauchbar, mit etwas Glück leicht besser als DLSS 1.0.
aufkrawall
2021-06-01, 14:41:23
Ich korrigiere: Es wird weniger brauchbar, mit etwas Glück leicht besser als DLSS 1.0.
Schon temporales Upsampling war besser als DLSS 1.0, sofern das TAA etwas getaugt hat. Wenn das TAA gut ist, sollte FSR deutlich besser als DLSS 1.0 sein.
Es ersetzt halt, anders als DLSS 2.0, das TAA nicht bzw. deutet sich das bisher so an.
NikLaw
2021-06-01, 14:59:08
War auch über 1 Jahr mit 2560x1080 34" zufrieden. Aber jetzt 3440x1440 ist schon ein krasser Unterschied. Leider will ich nicht mehr weg von Ultrawide, sonst hätte ich ja gleich auf 4K gehen können. DLSS rockt!
Mal sehen, wenn ich mit FSR alles mit 144 FPS zocken kann und die Einbußen minimal sind, gerne.
Ex3cut3r
2021-06-01, 15:16:21
Sagt der Typ, der mit ner ollen 2060S versucht 3440x1440 zu befeuern. Sorry, aber der Experte warst du nie, wenn du dir freiwillig sowas antun kannst. Avg. 14,7 FPS @very low oder was, und das soll dann die tolle BQ sein? :ugly:
;)
Du weißt doch ganz genau, dass das eine Übergangskarte ist, die 2080er OC war schnell genug dafür. Und die 3080 die ich für eine große an einen Spinner verscherbelt habe, erst recht. Du allerdings tuts dir 2560x1080 auf 34" freiwillig an, das ist eine PPi von sagenhaften 81. Wow. FHD @ 27" Herzliche Glückwunsch. Du hast du gar keine Ahnung was Bildqulität ist, denn diese PPi lässt dich über DLSS überhaupt nicht urteilen. Weil du quasi immer eine verwaschene Optik hast. :freak:
Sry, aber du bist einfach ein ganz großer Spinner. Den ich nicht ernst nehmen kann.
IceKillFX57
2021-06-01, 15:32:30
DLSS auf Quali @4K in Cyberpunk ist einfach Bombe.
Ravenhearth
2021-06-01, 15:58:22
Ist das in der UE 5 das gleiche? Denn dort heißt es etwas anderst
Nein, ist es nicht. Das in der UE5 ist ja temporal.
Nein, ist es nicht. Das in der UE5 ist ja temporal.
AMD hat meines wissens nirgends gesagt, dass es nicht temporal ist.
Das leuchtet ein. Das sieht man vermutlich nur mit den Performance Profiler Tools im Detail, oder?
Ja mit Nsight sollte man das im Detail sehen.
Achill
2021-06-01, 18:27:51
Edit: Danke fürs verschieben ...
Der HeinZ
2021-06-01, 19:42:24
Hmm, ich hab mir das Video angesehen.
Es sieht mir so aus als wäre der Modus "Quality" schon erheblich schlechter als "Ultra Quality", auf dem kurzen ausschnitt der RX6800 XT kann man das schon feststellen. "Ultra Quality" kommt schon eher dem nahe was man von DLSS 2.0 erwartet, also kaum ein unterschied zu nativ. vielleicht verfeinert AMD noch die Stufen zwischen den Qualitätseinstellungen. Außerdem kann ich mir noch nicht vorstellen, das auf NVIDIA Karten der Ultra Modus nutzbar sein wird. Außerdem Frage ich mich wo die Pascal Karten die Leistung nehmen sollen? Die Berechnung wird doch wohl stark von Integer Leistung abhängen, da ist Pascal doch ein wenig schlapp auf der Brust. Aber ich hab mich da leider auch noch zuwenig mit beschäftigt.
Mal sehen.
Gruss Matthias
aufkrawall
2021-06-01, 20:20:22
Immerhin soll Ultra Quality schon +59% mehr Performance in dem Beispiel bringen (aber sicherlich auch wegen RT).
ChaosTM
2021-06-01, 20:37:06
Wunder darf man sich bei Version Eins keine erwarten. Mir persönlich genügt meist Upsampling. Ich stell die Auflösung einfach von 4k auf 1800p oder noch weiter runter -> Schasaugert wie man hier so schön sagt. ;)
aufkrawall
2021-06-01, 20:41:36
Das ist bei Spielen mit temporalem Upsampling das Schlechteste, was man machen kann, weil das TSSAA so das Bild in niedriger Auflösung rekonstruiert. Das Spiel/Windows/Treiber skaliert das dann einfach nur noch plump hoch, anstatt das TSSAA es direkt in höherer Auflösung rekonstruieren zu lassen.
Platos
2021-06-01, 22:18:58
8k Auflösung sollte damit ja auch locker gehen, nehme ich an. Frage mich, wie das da dann aussieht (auf nem 4k Monitor, z.B mittels DSR/AMD Alternative, geht ja auch mit nvidia).
DrFreaK666
2021-06-01, 22:58:28
Wurde das nun in Zusammenarbeit mit MS entwickelt, oder ist das wieder was anderes?
Ravenhearth
2021-06-01, 23:18:48
AMD hat meines wissens nirgends gesagt, dass es nicht temporal ist.
Haben sie: (https://www.anandtech.com/show/16723/amd-formally-unveils-fidelityfx-super-resolution-open-source-game-upscaling)
In our pre-briefing with AMD, the company did confirm that FSR is going to be a purely spatial upscaling technology; it will operate on a frame-by-frame basis, without taking into account motion data (motion vectors) from the game itself.
Ich erwarte mittlerweile von FSR nicht viel mehr als was es schon mit FidelityFX CAS in Verbindung mit Auflösungsskalierung gibt.
Fusion_Power
2021-06-02, 00:26:00
Hab keine Ahnung von solcher Technik, bringt das ganze Wunderwerk was wenn man eh nur in 1080p spielt...und nur ne GTX 1050Ti hat? :uponder:
Birdman
2021-06-02, 00:33:46
Ich erwarte mittlerweile von FSR nicht viel mehr als was es schon mit FidelityFX CAS in Verbindung mit Auflösungsskalierung gibt.
Sehe ich bisher ähnlich - quasi einfach mit Schieberegler direkt im Spiel anstelle im Treiber-UI...
Platos
2021-06-02, 01:20:33
Hab keine Ahnung von solcher Technik, bringt das ganze Wunderwerk was wenn man eh nur in 1080p spielt...und nur ne GTX 1050Ti hat? :uponder:
Wenn selbst 4k @ FSR auf höchster Qualität viel verschwommener aussieht wie natives 4k, will ich nicht wissen, wie verschwommen 1080p@ FSR aussieht vs 1080p nativ.
Damit erübrigt sich für (zumindest) mich jegliche Brauchbarkeit. Ich will ja schliesslich auf meiner Monitorauflösung spielen und wenn diese (wie in deinem Fall) 1080p ist, dann hättest du nachher mit 1080p@ FSR eine schlechtere Bildqualität bei höheren FPS.
Und ne höhere Auflösung wie die Monitorauflösung geht schliesslich nicht. Ausser per Downsampling, aber das wäre sehr ineffizient und eig. genau das Gegenteil von dem Ansatz "möglichst viel Bildqualität bei selben FPS". Also erübrigt sich das m.M.n auch.
Also ich würde daher sagen eher nein. Der Vorteil von DLSS ist ja, dass man bei selber Ausgabeauflösung subjektiv die (fast) gleiche Bildqualität erreicht und! noch deutlich viel mehr FPS hat. D.h ich kann an meiner Monitorauflösung mehr FPS erreichen.
Bei FSR scheint es wohl eher so zu sein, dass man mehr FPS kriegt, dafür aber auch eine deutlich schlechtere Grafikqualitat
Zumindest Stand heute basierend auf dem bisher vorhandenem Videomaterial. In Zukunft ändert sich das vlt.
Und wenn du sagst, dir reicht auch schlechtere Grafik wie FHD, willst/brauchst aber mehr FPS, dann könnte FSR noch etwas bringen (wobei selbst das in den Sternen steht, viele Spiele haben ja ein eigenes upscaling).
BlacKi
2021-06-02, 01:29:03
bei CB haben sie zu fsr nachgemeldet:
Update 01.06.2021 12:50 Uhr
Wie AMD auf der eigenen Plattform GPUOpen verrät, unterstützen folgende AMD-GPUs FidelityFX Super Resolution: Radeon RX 6000, RX 5000, RX 500, RX Vega und sämtliche Ryzen-APUs. Entsprechend ist es keine technische Entscheidung, dass die Radeon-400-Serie nicht dabei ist, denn diese basiert wie die Radeon-RX-500-Serie auf einer Polaris-GPU.
Angaben zu den unterstützten GPUs anderer Hersteller gibt es nicht. Jedoch weist AMD darauf hin, dass es für GPUs abseits von AMD keine technische Unterstützung geben wird.
https://www.computerbase.de/2021-06/fidelityfx-super-resolution-dlss-konkurrenz-ab-22.-juni-fuer-amd-und-nvidia-gpus/#update-2021-06-01T12:50
laufen wirds wohl auch auf nicht supporteten karten, aber rx570/580 bekommt noch support, die rx480 nichtmehr^^
Screemer
2021-06-02, 01:30:35
auf ne 480 ein 580 bios zu flashen ist ja jetzt kein hexenwerk, falls die geschichte wirklich schlicht auf ner 480 nicht funktionieren sollte. letzteres glaube ich aber nicht.
DrFreaK666
2021-06-02, 02:29:20
...Und ne höhere Auflösung wie die Monitorauflösung geht schliesslich nicht. Ausser per Downsampling, aber das wäre sehr ineffizient und eig. genau das Gegenteil von dem Ansatz "möglichst viel Bildqualität bei selben FPS". Also erübrigt sich das m.M.n auch...
Wenn man FSR mit Downsampling kombiniert, dann sollte doch eine bessere Bildqualität bei gleichen FPS möglich sein, oder täusche ich mich da?
Platos
2021-06-02, 03:36:19
Wenn man FSR mit Downsampling kombiniert, dann sollte doch eine bessere Bildqualität bei gleichen FPS möglich sein, oder täusche ich mich da?
Naja, das kommt dann eben drauf an, das kann man aus meiner Sicht weder bejahen noch verneinen (gibt ja keine genauen Tests dazu etc.). Die Bildqualität von Downsampling ist im Vergleich zu nativ viel schlechter und die Leistung, die dafür benötigt wird aber identisch. Also sehr ineffizient.
Dann kommt es also schlussendlich drauf an, ob das Bild per Downsampling (z.B) 1440p auf nem (z.B) 1080p Monitor + FSR überhaupt noch mehr Qualität bei gleicher FPS liefert bzw. mehr FPS bei gleicher Qualität. Denn wenn ich so sehe, was FSR bisher so abliefert, dann würde ich das durchaus mal so offen im Raum stehen lassen. Schliesslich müsste man ja quasi die "Ineffizienz" von Downsampling vollständig mit FSR wieder "wett" machen.
Es kommt dann auf die Art des Spiels an. Wenn ich z.B ein AAA Rollenspiel am PC auf meinem 4K Monitor (oder 1400p/1080p) spielen will, dann will ich vermutlich nicht FSR nutzen, wenn ich damit nicht einmal die native Qualität erreiche. Klar, bei gleicher Qualität mehr FPS nimmt jeder, aber wenn ich gleiche Qualität nur durch downsampling+ FSR erreiche, bleibt wie gesagt dei Frage, ob man durch das ineffiziente Downsampling nicht jeglichen Perfomanceboost gleich wieder auffrisst. Will ich also die gleiche Qualität, wie mit meiner nativen monitorauflösung (und dafür mehr FPS), dann scheint es so, als ob FSR dafür komplett nutzlos ist (denn ich glaube nicht, dass man die enormen Leistungsverluste von Downsampling mittels FSR "auffangen" kann).
Spielt man nun aber irgend ein Shooter, bei denen vlt. viele Leute auch sonst schon mittels gameinternem Upscalingverfahren spielen, dann könnte es evtl. was bringen. Aber da ist dann wieder die Frage, ob AMDs FSR überhaupt besser ist wie interne Upscalingverfahren in Spielen. Ich meinte letztens mal gelesen zu haben, dass irgend ein Entwicklerstudio AMDs FSR nicht verwenden wollte, weil das Gameinterne upscalingverfahren besser sei (aber finde grad die Quelle nicht mehr).
Auch ein Fall, wo es etwas bringen könnte, wäre bei Konsolen. Die Verwenden ja (mittlerweile) auch immer upscalingverfahren. Falls nun also AMDs FSR besser ist wie z.B Checkerboardrendering auf der Playstation, dann könnte es natürlich sehr nützlich sein, auch wenn es nur 20% mehr FPS liefern würde bei gleicher Qualität.
Edit: Man könnte natürlich z.B als 1080p Monitorbesitzer auf nen 1400p Monitor umsteigen und dann per FSR auf 1440p Spielen :D Why not, wenn man übriges Geld hat. Aber das dürfte dann doch wohl nicht das Ziel sein, wenn man FPS "sparen" will aber trotzdem keine Bildqualität verlieren will. Das scheint mir irgendwie paradox.
Aber gut, es ist quasi "Tag 1". Hoffentlich entwickelt sich da noch sehr viel. Aber ich bezweifle nun (wo ich das gesehen habe), dass AMDs FSR jemals mit dieser Methode mit nvidia mithalten kann (vlt. steigen sie ja in ein paar Jahren auch auf Ki-basierte Methoden mit neuen Hardwareinheiten um). Ist ja nicht so, als ob AMD sich nun weiterentwickelt und nvidia aber komplett stehen bleibt in der Entwicklung. AMD müsste nicht nur mindestens genau so eine steile "Lernkurve" haben, sondern sogar noch viel steiler.
Edit2: Übrigens: Falls die Switch pro mit DLSS 2.0 daher kommt, dann dürfte die sie in der Hinsicht nun einen ziemlichen Vorteil haben. Ich könnte mir gut vorstellen, dass sie dadurch mit einer Series S mithalten könnte. Quasi ne Series S in der Hosentasche (naja, ne sehr grosse Hosentasche). Vlt. nicht ganz mithalten, aber der Bildschirm ist ja auch viel kleiner, also muss sie auch nicht ganz mithalten.
Tobalt
2021-06-02, 03:36:36
Purely spatial??
Sorry aber die Arbeit hätten sie sich sparen können. Was soll das? Und dann so ein tam tam drum herum machen??
So etwas kann doch seit schon immer jede GPU und jeder Monitor.
Einfach völlig veraltete Technik. Wohl wieder nur Geld für Marketing gehabt und nicht für tatsächliche Entwicklung?
Die Analogie von Dlss 1 auf 2 ist auch Käse. Schließlich baut das zweite ja nicht auf dem ersten auf. DLSS 2 ist das eigentliche Produkt und DLsS 1 gab es IMO nur, weil das eigentliche Produkt noch nicht fertig war. Also hat der Intern Freitag Nachmittag noch kurz DLSS 1 zusammen gefrickelt.
Der einzige Hoffnungsschimmer ist, dass auch hier nur so ein Schrott releast wird, weil die eigentliche Technik noch Zeit braucht
TheAntitheist
2021-06-02, 06:07:41
Purely spatial??
Sorry aber die Arbeit hätten sie sich sparen können. Was soll das? Und dann so ein tam tam drum herum machen??
So etwas kann doch seit schon immer jede GPU und jeder Monitor.
Einfach völlig veraltete Technik. Wohl wieder nur Geld für Marketing gehabt und nicht für tatsächliche Entwicklung?
Die Analogie von Dlss 1 auf 2 ist auch Käse. Schließlich baut das zweite ja nicht auf dem ersten auf. DLSS 2 ist das eigentliche Produkt und DLsS 1 gab es IMO nur, weil das eigentliche Produkt noch nicht fertig war. Also hat der Intern Freitag Nachmittag noch kurz DLSS 1 zusammen gefrickelt.
Der einzige Hoffnungsschimmer ist, dass auch hier nur so ein Schrott releast wird, weil die eigentliche Technik noch Zeit brauchtich geb dir total Recht, habs auch schon vorher gesagt. Wenn es so gut wie DLSS sein würde, wären die shader ja fast nur damit beschäftigt. Es fehlen einfach die tensor kerne. Den Platz auf dem Die hat man eben lieber in Shader gesteckt.
Zum Glück hat Epic wohl einen besseren Software-Ansatz gefunden also halb so schlimm vielleicht.
Tobalt
2021-06-02, 07:02:34
Ist die Rolle der Tensor Kerne den wirklich Mal irgendwie klar geworden für DLSS2?
TAA geht doch auch ohne Tensor Kerne. Checkerboarding auch.
Wenn man jetzt checkerboarding und TAA kombiniert, hat man ja immerhin schon etwas solides. Den Algorithmus zur Artefakte Vermeidung bei der temporären Rekonstruktion kann man auch ohne Tensorkerne gestalten. Selbst wenn man dafür ein neuronales Netz nutzt, braucht es nicht unbedingt extra Einheiten. Ist ja nicht so als ob Matrix multiplication für GPUs eine völlig fremde Operation ist ..
Selbst wenn man dadurch nicht gleich die Performance von DLSS2 erreicht Mangels extra low precision Einheiten, so hätte man doch wenigstens vergleichbare Quali und immernoch bessere Performance als nativ.
Mit purely spatial gibt einfach gar keinen Mehrwert gegenüber aktuellen Möglichkeiten
Fragman
2021-06-02, 07:35:12
Die aktuelle Version ist doch eh nur eine Übergangslösung.
AMD wird im nächsten Chip Tensor Cores verbauen V2 wird dann die entsprechende Qualität liefern.
Alles was ich sehe ist eine massive Vorverurteilung ohne alle Fakten zu kennen. Vielleicht ist das ein Flop aber warten wir doch bitte ab, wie das wirklich funktioniert und wie die Ergebnisse auch in Bewegung sind.
AMD bekommt keine Tensor Kerne, davon sollte man sich verabschieden. RDNA2 ist von sich aus schon AI-Compute fähig, mehr wirst du nicht sehen. Entsprechend wird es auch kein entsprechend gestützte FSR geben. Die Philosophie unterscheidet sich hier stark.
robbitop
2021-06-02, 09:23:04
Hmm, ich hab mir das Video angesehen.
Es sieht mir so aus als wäre der Modus "Quality" schon erheblich schlechter als "Ultra Quality", auf dem kurzen ausschnitt der RX6800 XT kann man das schon feststellen. "Ultra Quality" kommt schon eher dem nahe was man von DLSS 2.0 erwartet, also kaum ein unterschied zu nativ. vielleicht verfeinert AMD noch die Stufen zwischen den Qualitätseinstellungen. Außerdem kann ich mir noch nicht vorstellen, das auf NVIDIA Karten der Ultra Modus nutzbar sein wird. Außerdem Frage ich mich wo die Pascal Karten die Leistung nehmen sollen? Die Berechnung wird doch wohl stark von Integer Leistung abhängen, da ist Pascal doch ein wenig schlapp auf der Brust. Aber ich hab mich da leider auch noch zuwenig mit beschäftigt.
Mal sehen.
Gruss Matthias
Ein Pascal SM kann 128x FP Operationen als auch 128x INT Operationen durchführen. Genau wie ein Ampere SM. Sogar deutlich flexibler.
Allerdings kostet jede INT Operation FP Operationen.
Einzig Turing/Volta SMs haben getrennte INT und FP Operationen. 64INT+64FP pro SM.
Da wir noch nicht wissen, wie FSR wirklich funktioniert, ist auch überhaupt nicht abschätzbar was das kostet. Reguläre temporale Rekonstruktion (via Heuristik) kostet z.B. nahezu keine Frametime. < 5%.
-----------------------
Wenn das Ganze wirklich ohne temporale Daten funktioniert dann lässt sich daraus mMn folgendes schlussfolgern:
1. Es erklärt, warum die Implementierung angeblich so "leicht" ist.
Temporale Daten würden mehr Schnittstellenarbeit und Feintuning erfordern.
Damit es richtig gut ist, müsste ähnlich zu DLSS 2.0 auch LoD und Nachschärfung enthalten sein.
2. Ohne temporale Daten wird wahrscheinlich das Verhältnis aus Rekonstruktion und temporaler Stabilität nicht besonders toll sein.
3. Man kann nach dem Gesagten auch davon ausgehen, dass kein spielespezifisches Training (wie bei DLSS 1.x) nötig ist.
4. Ggf. geht es in Richtung wie DLSS 1.x - aber sicher wissen tut man das noch nicht
Ich finde es schade, denn mit existierender Technologie für temporale Rekonstruktion hätte man - auch ohne AI für clamping - einen potenziell besseren Ansatz umsetzen können. Mit Checkerboarding gab es ja schon ein gutes Verfahren was man kennt. Das Clamping von ID bei 8xTSSAA hätte man sich ggf mal anschauen können, um eine Art Checkerboarding 2.0 umsetzen zu können.
Ja ohne temporale Rekonstruktion geht die Umsetzung potenziell viel schneller. Aber man hat wahrscheinlich auch viel weniger davon.
Wenn man richtig darüber nachdenkt, ist es ein wenig Verschwendung von Daten. Temporale Daten sind quasi ein "free lunch". Die Daten sind eh da. Und es sind Daten die wertvoll sind. Man sollte sie nutzen.
Interessant wird, ob und inwiefern es eine Interaktion zwischen dem TAA und der spatialen Rekonstruktion geben wird.
ChaosTM
2021-06-02, 09:33:51
Das ist bei Spielen mit temporalem Upsampling das Schlechteste, was man machen kann, weil das TSSAA so das Bild in niedriger Auflösung rekonstruiert. Das Spiel/Windows/Treiber skaliert das dann einfach nur noch plump hoch, anstatt das TSSAA es direkt in höherer Auflösung rekonstruieren zu lassen.
Das ist mir bewusst, aber es schaut immer noch besser aus, als wenn ich die allgemeine PQ herunter-regle. Der 4K Monitor war objektiv gesehen für Spiele tw. ein Fehler, aber ich will die hohe Auflösung am Desktop nicht mehr missen.
robbitop
2021-06-02, 10:02:19
ich geb dir total Recht, habs auch schon vorher gesagt. Wenn es so gut wie DLSS sein würde, wären die shader ja fast nur damit beschäftigt. Es fehlen einfach die tensor kerne. Den Platz auf dem Die hat man eben lieber in Shader gesteckt.
Ein Verfahren mit einer guten Heuristik kostet fast gar nichts. Siehe TSSAA 8x. Die Chance and das Clamping von einem NN heranzukommen sind ggf nicht sehr hoch. Aber 80-90% dessen sollten drin sein. Und das zu einem deutlich geringeren Preis, da kein NN nötig.
MiamiNice
2021-06-02, 10:12:39
Ich habe gerade die angeblichen Screens von dem FidelityFX Zeug gesehen. Kann es sein das da nur Fakes unterwegs sind? Die Bildquali war regelrecht unterirdisch.
So was z.b.:
https://abload.de/img/amdfsradjkr.jpg
robbitop
2021-06-02, 10:20:14
Ryan hat im Anandtech Review ja auch ein Bild veröffentlicht. Und das kommt aus dem offiziellen Slidedeck. Sieht auf den ersten Blick richtig enttäuschend aus. Und das war ultra-quality. In einem slide deck versucht man doch sicherlich, möglichst repräsentative Ergebnisse zu veröffentlichen.
Tja mal schauen wie es wird, wenn getestet werden darf. Ggf. auch Verwirrungstaktik. Aber was bisher gezeigt wurde lässt nicht auf sehr viel hoffen leider.
Ravenhearth
2021-06-02, 10:37:25
Frage: Wenn FSR keine Bewegungsvektoren braucht und nicht temporal ist, welche technischen Gründe gibt es, das nicht einfach über den Treiber aktivierbar zu machen?
Tobalt
2021-06-02, 10:38:06
Die Bilder sind alle underwhelming.
"Spatial reconstruction" unwort des Jahres.. muss man sich Mal auf der Zunge zergehen lassen. Interpolationsfilter gibt's seit Jahrzehnten. Standard DSP Knowhow der 80iger
Dampf
2021-06-02, 10:44:25
Ich habe gerade die angeblichen Screens von dem FidelityFX Zeug gesehen. Kann es sein das da nur Fakes unterwegs sind? Die Bildquali war regelrecht unterirdisch.
So was z.b.:
https://abload.de/img/amdfsradjkr.jpg
Leider nicht, das ist aus diesem Video:
https://www.youtube.com/watch?v=eHPmkJzwOFc Stelle 3:13
zur Erinnerung hier nochmal mein 1440p Vergleich mit DLSS Performance und CAS in Cyberpunk:
https://imgsli.com/MzM5MjA
Stand jetzt meilenweit von DLSS entfernt imo. Aber warten wir mal ab.
Wenn wir schon von CAS reden, AMD sollte da eigentlich schon viel davon nutzen für FSR, denn CAS ist imo die beste Sharpening Injektion. Aber im Falle von FSR kann man eben keine Details verschärfen, die nicht da sind.
robbitop
2021-06-02, 10:59:02
Frage: Wenn FSR keine Bewegungsvektoren braucht und nicht temporal ist, welche technischen Gründe gibt es, das nicht einfach über den Treiber aktivierbar zu machen?
Naja man braucht sicherlich Zugriff auf den Framebuffer bevor das post processing passiert. Ggf. auch Zugriffe auf andere Buffer.
Bei modernen Renderpipelines ist nur relativ wenig möglich ohne Implementierung im Spiel.
BlacKi
2021-06-02, 12:46:28
Wenn man FSR mit Downsampling kombiniert, dann sollte doch eine bessere Bildqualität bei gleichen FPS möglich sein, oder täusche ich mich da?
was die kantenglättung angeht auf jeden fall. man muss schauen, ob man sich halt nicht irgendwelche artefakte einfängt, durch die rekonstruktion.
Platos
2021-06-02, 12:47:36
Ich bewzweilfe, dass da ohne entsprechende Hardwareinheiten noch was brauchbares kommt.
Ich denke aber schon, dass AMD in Zukunft noch was liefern wird. Denn damit erübrigt sich für mich jegliche AMD Grafikkarte für die nächsten Jahren. Wenn ivh Native Qualität mit 60-90% mehr FPS kriege, dann greife ich sicherlich nicht zu AMD. Ich kann dann auch ne nummer kleiner kaufen und bin trotzdem besser bedient, wie bei AMD...
robbitop
2021-06-02, 13:06:35
Fixed Function Hardware ist nicht zwangsweise nötig. siehe hier:
Ein Verfahren mit einer guten Heuristik kostet fast gar nichts. Siehe TSSAA 8x. Die Chance and das Clamping von einem NN heranzukommen sind ggf nicht sehr hoch. Aber 80-90% dessen sollten drin sein. Und das zu einem deutlich geringeren Preis, da kein NN nötig.
NV hatte die Tensor Cores von Volta und aus ihrer Compute Sparte und hat Anwendungsfälle gesucht (und gefunden). Das heißt aber nicht, dass etwas wie DLSS nicht auch sehr gut in leicht anderer Implementierung auch komplett ohne auskommen würde.
BlacKi
2021-06-02, 13:12:18
https://i.ibb.co/Yp9GTMD/Radeon-page-0019-scaled.png
mboeller
2021-06-02, 13:15:05
ich bin gespannt wo der Unterschied zu CAS ist:
https://gpuopen.com/fidelityfx-cas/
Präsentation (54MB): https://gpuopen.com/wp-content/uploads/2019/07/FidelityFX-CAS.pptx
fondness
2021-06-02, 13:15:18
Ich habe gerade die angeblichen Screens von dem FidelityFX Zeug gesehen. Kann es sein das da nur Fakes unterwegs sind? Die Bildquali war regelrecht unterirdisch.
So was z.b.:
https://abload.de/img/amdfsradjkr.jpg
Ein tot komprimiertes Bild aus einem Video willst du jetzt hoffentlich nicht wirklich als Vergleich heranziehen?
robbitop
2021-06-02, 13:18:02
Es sind doch aber beide Seiten des Bildes durch die gleiche Kompression betroffen. Und es ist konsistent auf der Bildhälfte von FSR zu sehen, dass Bilddetails verloren gehen.
Ich hoffe jedoch, dass das nicht repräsentativ zu dem ist, was wir am Ende sehen werden. Dann wäre allerdings fraglich, warum man in ein offizielles Slidedeck nicht möglichst repräsentative Bilder einfügt.
Cpu0815
2021-06-02, 13:37:54
Für mich als Laien hat FSR was von FXAA. Ähnlich unscharfes Bild und ich habe es vermieden so gut ich konnte.
Ein tot komprimiertes Bild aus einem Video willst du jetzt hoffentlich nicht wirklich als Vergleich heranziehen?
Kompression kostet Details, aber nur dort wo auch solche vorhanden sind, ein eh schon undetailiertest Bild wird nicht/kaum schlechter.
Kompression sollte die Unterschiede also verwischen, dass es trotz Kompression dermaßen deutliche Unterschiede gibt ist alles andere als ein gutes Zeichen.
YeahBuoy!
2021-06-02, 13:51:09
Macht es Stand heute überhaupt Sinn sich über die geglückte / nicht geglückte Implementierung von FFXSR zu unterhalten? Korrigiert mich wenn ich das falsch wiedergebe aber wurde das Demomaterial nicht auf einer GTX 1060 mit 6 GB vorgestellt (ergo einer Karte die 2016 vorgestellt wurde) und dann noch in Godfall, einem von AMDs Showcase Games?
Versteht mich nicht falsch; mit dem ausgewählten Material hat sich AMDs Marketing selber ins Knie geschossen. Ebenso klar das natürlich jetzt jeder das Pixelzählen anfängt. Wenn man jetzt unterstellt das AMD mit FFXSR hauptsächlich Budgetkarten aus dem eigenen Hause einen Performanceboost ermöglichen will, wäre es eventuell interessanter wie das ganze bspw. auf einer RX580 oder RX 5500 performen würde. Laut letztem Update soll es für andere Hersteller ja auch keine technische Unterstützung geben (https://www.computerbase.de/2021-06/fidelityfx-super-resolution-dlss-konkurrenz-ab-22.-juni-fuer-amd-und-nvidia-gpus/#update-2021-06-01T12:50)
aufkrawall
2021-06-02, 13:55:27
Es ist davon auszugehen, dass es, wie x-beliebiger anderer Grafik-Code, konform typische APIs und Shader nutzen wird. Es braucht damit keinen Extra-Support für irgendetwas, was die Treiber aller GPUs sowieso können.
Ist natürlich ein klassischer AMD-Fail, dass man es auf der GTX 1060 demonstriert, aber die RX 400er Serie komplett unerwähnt lässt. ;D
maximus_hertus
2021-06-02, 13:57:43
Das sieht erstmal überhaupt nicht gut aus, aber ich will zumindest mal den 22.6. abwarten + Reviews. So lange sollte man AMD schon Zeit geben, bevor man FSR "abschreibt", auch wenn es aktuell nicht gut aussieht.
aufkrawall
2021-06-02, 13:59:56
Das wird schon in Bewegung so matschen, wie in dem Video zu sehen. Das UE4 TAA erzeugt in niedrigerer Auflösung einfach mehr Motion Blur, bzw. ist das zumindest mit temporalem Upsampling so. Dürfte dann eine starke Diskrepanz zwischen Stand- und Bewegtbild geben.
robbitop
2021-06-02, 14:01:42
Ohne temporale Daten - wo soll die temporale Stabilität herkommen? Entsprechend ist eine Unschärfe nicht unwahrscheinlich als Folge. Ich bin leider auch sehr skeptisch.
Tobalt
2021-06-02, 14:07:45
robbi, ich kann deinen letzten Kommentar nicht ganz nachvollziehen.
Ohne temporale Daten ist es doch inhärent temporal stabil. Das wäre dann wohl so ziemlich der einzige "Vorteil". Flacker-Artefakte durch unpassende Motionvektoren wird es da nicht geben.
aufkrawall
2021-06-02, 14:12:04
Tja, leider klingt es jetzt so, dass das TAA das Bild in niedriger Auflösung rekonstruiert und FSR es dann wirklich mit einem SuperRes-Algorithmus, der nur das Bild und den Tiefenpuffer nutzt, aufpumpt. Eigentlich schlimmer als alles, was man vorher erwartet hätte. :freak:
Vielleicht entgeht mir etwas, aber momentan tendiere ich in Richtung Epic Fail...
YeahBuoy!
2021-06-02, 14:12:52
Es ist davon auszugehen, dass es, wie x-beliebiger anderer Grafik-Code, konform typische APIs und Shader nutzen wird. Es braucht damit keinen Extra-Support für irgendetwas, was die Treiber aller GPUs sowieso können.
Ist natürlich ein klassischer AMD-Fail, dass man es auf der GTX 1060 demonstriert, aber die RX 400er Serie komplett unerwähnt lässt. ;D
Laut dem verlinkten Update hat AMD die Rx480 explizit nicht bei den unterstützten Karten erwähnt obwohl die RX580 mit dabei ist. Find ich jetzt auch etwas weird.
Fusion_Power
2021-06-02, 14:24:26
Wenn selbst 4k @ FSR auf höchster Qualität viel verschwommener aussieht wie natives 4k, will ich nicht wissen, wie verschwommen 1080p@ FSR aussieht vs 1080p nativ.
Damit erübrigt sich für (zumindest) mich jegliche Brauchbarkeit. Ich will ja schliesslich auf meiner Monitorauflösung spielen und wenn diese (wie in deinem Fall) 1080p ist, dann hättest du nachher mit 1080p@ FSR eine schlechtere Bildqualität bei höheren FPS.
Und ne höhere Auflösung wie die Monitorauflösung geht schliesslich nicht. Ausser per Downsampling, aber das wäre sehr ineffizient und eig. genau das Gegenteil von dem Ansatz "möglichst viel Bildqualität bei selben FPS". Also erübrigt sich das m.M.n auch.
Also ich würde daher sagen eher nein. Der Vorteil von DLSS ist ja, dass man bei selber Ausgabeauflösung subjektiv die (fast) gleiche Bildqualität erreicht und! noch deutlich viel mehr FPS hat. D.h ich kann an meiner Monitorauflösung mehr FPS erreichen.
Bei FSR scheint es wohl eher so zu sein, dass man mehr FPS kriegt, dafür aber auch eine deutlich schlechtere Grafikqualitat
Zumindest Stand heute basierend auf dem bisher vorhandenem Videomaterial. In Zukunft ändert sich das vlt.
Und wenn du sagst, dir reicht auch schlechtere Grafik wie FHD, willst/brauchst aber mehr FPS, dann könnte FSR noch etwas bringen (wobei selbst das in den Sternen steht, viele Spiele haben ja ein eigenes upscaling).
Ah, verstehe. Es geht nicht darum, eine gleich gute Bildqualität bei niedrigerer Auflösung zu erreichen sondern ehr eine "nicht so schlechte" Bildqualität bei nicht nativer Ultra HD Auflösung hinzubekommen, wenn man so hoch auflösende Anzeigegeräte besitzt aber die 4k oder 8k nicht packt. Danke für die Erklärung. :)
robbitop
2021-06-02, 14:25:19
robbi, ich kann deinen letzten Kommentar nicht ganz nachvollziehen.
Ohne temporale Daten ist es doch inhärent temporal stabil. Das wäre dann wohl so ziemlich der einzige "Vorteil". Flacker-Artefakte durch unpassende Motionvektoren wird es da nicht geben.
Temporale Daten sind weit mehr als nur Motion Vectors.
Das Mehr an Informationen bei Temporaler Rekonstruktion kommt durch temporales Supersampling.
Dazu wird (ähnlich zu SGSSAA) die Subpixelposition statt einfach nur der Pixelmitte auf bestimmte andere Positionen gelegt. Im Unterschied zu SGSSAA habe ich aber nur 1x Sample pro Frame. Da ich die Subpixelposition von Bild zu Bild aber variiere, generiere ich diese Samples.
Bei einem Standbild wäre das ganze äquivalent zu SGSSAA.
Jetzt bewegt sich die Szene jedoch. Entsprechend würde das sofort zu Artefakten führen. Und genau da kommen Motion Vectors in's Spiel. Sie helfen dem Clamping Algoritmus the sich weg bewegten Objekte im Screenspace wieder zu finden und dementsprechend die Samples von dort zu holen. Und je nach dem wie gut das Clamping ist, desto mehr aufeinanderfolgende Bilder kann ich kumulieren. (und genau das macht NV mittels NN und genau das ist so gut im Vergleich zu bisherigen Clampings, dass DLSS mehr Bilder kumulieren kann bis es zu Artefakten führt).
Was folgt daraus? Es sind temporal Daten vorhanden - man muss sie nur samplen und nutzen. Das ist wie Goldstaub, den man nutzen kann. Wenn es richtig gut sein soll, dann muss eben das Clamping gut sein.
Was passiert mit den Daten? Tja das ist wie gesagt Supersampling. Also mehr Daten. Und genau das erhöht temporale Stabilität und dazu noch auch potenziell mehr Geometrie und Texturdetail (deswegen ist auch eine Geometrie- und Textur- LoD Erhöhung möglich - analog zu SGSSAA).
Das nicht zu nutzen heißt, viel Potenzial nicht zu nutzen. Genau das oben beschriebene temporale Supersampling ermöglicht, dass wirklich auch mehr Informationen (gerade sichtbar bei feinen Details) im Bild zu sehen ist.
Bild für Bild kann man sicherlich Informationen dazu "halluzinieren". Berücksichtigt man aber keine vorhergehende Bilder, wird es mehr als schwierig, das temporal stabil zu bekommen.
Lurtz
2021-06-02, 14:25:46
Tja, leider klingt es jetzt so, dass das TAA das Bild in niedriger Auflösung rekonstruiert und FSR es dann wirklich mit einem SuperRes-Algorithmus, der nur das Bild und den Tiefenpuffer nutzt, aufpumpt. Eigentlich schlimmer als alles, was man vorher erwartet hätte. :freak:
Vielleicht entgeht mir etwas, aber momentan tendiere ich in Richtung Epic Fail...
Dann kann man nur auf bessere Alternativen in den großen Engines hoffen. Und die großen Konsolen-Studios wie Naughty Dog werden sich damit ganz sicher auch nicht zufrieden geben.
aufkrawall
2021-06-02, 14:45:00
Das SuperRes ist vielleicht schon sehr gut und damit nützlich für andere Entwickler, die es in ausgeklügelteren Konzepten nutzen wollen, oder zumindest vielleicht dabei etwas hilfreich ist.
Nur wirds halt irgendwann eh Vorträge dazu von den Studios auf Entwicklerkonferenzen geben und in den UE5 Source Code kann man auch reinschauen. Wenn sich AMDs Erklärungen, es dauere so lange, weil man sich mit allen abstimmen wolle etc., mal nicht noch als komplettes Geschwafel herausstellen werden. :freak:
Hoffen wir das Beste. Aber es wird wohl so oder so eine evolutionäre Entwicklung, während DLSS 2.0 seit Anfang 2020 verfügbar ist...
robbitop
2021-06-02, 14:48:17
Hm naja also wenn FSR und TAA verzahnt sind, gibt es ggf doch Hoffnung. Denn TAA macht ja heutzutage fast immer temporales Super Sampling.
Allerdings werden dann die Ergebnisse extrem variabel sein. Je nach dem wie gut das jeweilge TAA ist und welche Charakteristik es hat.
Dazu kommt: Die meisten Verfahren sind ja eigentlich weniger für Upsampling konfiguriert sondern eher für Anti Aliasing. Aber ggf hat AMD entsprechende Schnittstellen und auch entsprechende Konfigurationen definiert. Damit das gut funktioniert müsste das vorhandene TAA eben die höhere Auflösung generieren und FSR ein entsprechendes Post processing machen.
Ohne temporale Daten ist es doch inhärent temporal stabil.
Ist kein AA temporal stabil?
Ist es natürlich nicht, du siehst wandernde Treppchen. Der Grund der Entwicklung in die Richtung TAA war ja die temporale Stabilität zu erhöhen, weil man das mit Single-Frame-AA eben nicht, bzw. nur mit extrem hohen AA-Stufen schafft.
Der Preis dafür ist eine geringere Bildschärfe, aber eben dafür eine wesentlich höhere temporale Stabilität, was auch wesentlich besser ist, weil Flackern nimmt man immer war, Unschärfe nicht unbedingt.
Wobei ich mich mittlerweile überhaupt frage, ob FSR hier überhaupt irgendwie mit DLSS vergleichbar ist. DLSS ersetzt ja die bisherige AA-Lösung, ich bin mir nicht sicher ob das mit FSR auch der Fall ist, oder ob das nicht Quasi ein Postprocessing-Filter ist, der erst nach dem spieleigenen AA zum Einsatz kommt.
aufkrawall
2021-06-02, 14:50:48
Das ist sowieso der Fall, so lange FSR die temporale Verrechnung nicht ersetzt.
Und die Verzahnung von SuperRes + TAA gibt es in der UE5 bereits. Ich sehe die Gefahr, dass FSR "1.0" komplett nutzlos vs. bisheriges temporales Upsampling ist.
Hoffentlich ersetzen Entwickler jetzt nicht temporales Upsampling damit, wenn sie mit AMD irgendwelche Deals abschließen. :eek:
Tobalt
2021-06-02, 14:59:58
@robbitop Ok verstehe. Du meinst dass durch T(SS)AA die temporale stabilität des Bildes insgesamt besser sein kann als nativ ohne AA, weil zB. feine Vegetation eine bessere Abtastung erfährt und weniger flimmtert. Da stimme ich zu.
Ich hatte das in die Richtung gedeutet, dass bei schnellen oder unregelmäßigen Kamerafahrten die Motionvektoren bei DLSS manchmal nicht passen und dann komplette Objekte bzw Silhouetten aufflackern.. also diese offensichtlichen Rekonstruktionsartefakte hatte ich unter temporale Instabilität verbucht. Und dies wird ja durch die Nichtnutzung des temporalen Schatzes quasi effektiv verhindert ;)
Was meinst du übrigens mit "Clamping" im Zusammenhang mit der temporalen Rekonstruktion? Ich lese das öfter bei dir.
Geldmann3
2021-06-02, 15:02:27
Wissen wir überhaupt schon sicher, dass es keine temporale Komponente gibt?
Denn wenn es die nicht geben sollte, warum muss man es dann überhaupt in ein Spiel implementieren und kann es nicht einfach im Treiber für alle Games aktivieren?
Btw. die bisher gezeigten Beispiele empfinde ich als völligen Reinfall. Hoffe, das ist nicht die Speerspitze von dem, was FSR kann. Dann ist ja sogar das Checkerboarding auf den Konsolen teilweise besser. Selbst mein TV, der LG CX, scaled ähnlich gut up.
Wenn es wirklich nur Image-Upscaling und kein temporales Supersampling wie DLSS ist, wäre das kein Wunder. Immerhin kann diese Methode dann auch nicht mehr tun, als ein TV, Filter oder Upscaler es könnte. Wäre schon enttäuschend, wenn AMD da so lange drangesessen hat. Und eine Frechheit dann die Settingnamen von DLSS dafür zu verwenden, was pure Kundenverwirrung wäre.
robbitop
2021-06-02, 15:08:36
Ist es natürlich nicht, du siehst wandernde Treppchen. Der Grund der Entwicklung in die Richtung TAA war ja die temporale Stabilität zu erhöhen, weil man das mit Single-Frame-AA eben nicht, bzw. nur mit extrem hohen AA-Stufen schafft.
Dazu kommt ja auch noch, wenn man temporales Supersampling durchführt (wie id es tut) dass man mehr Details bekommt. Geometrie wird ja höher abgetastet.
Wobei ich mich mittlerweile überhaupt frage, ob FSR hier überhaupt irgendwie mit DLSS vergleichbar ist. DLSS ersetzt ja die bisherige AA-Lösung, ich bin mir nicht sicher ob das mit FSR auch der Fall ist, oder ob das nicht Quasi ein Postprocessing-Filter ist, der erst nach dem spieleigenen AA zum Einsatz kommt.
DLSS 2.0 hat IMO den Vorteil zu der großen Sammlung von existierenden TAAs in der freien Wildbahn wie ein MCDonalds. Es ist sehr konsistent (ob du den Big Mac in China, USA oder Deutschland isst - du weißt was du bekommst). Weil es die vorhandene Lösung ersetzt. :)
IMO ist TAA je nach Studio sehr sehr unterschiedlich gut.
Es wird spannend zu sehen, ob das TAA direkt mit FSR verzahnt ist. Das würde erklären, warum es einfacher zu implementieren ist als DLSS.
------------------
Aber: wahrscheinlich sind dann Dinge wie LoD Anpassung in Abhängigkeit vom FSR Setting, die ja hilfreich für Schärfe und Geometriedetails sind nicht verfügbar.
Auch wird die Rekonstruktionsqualität sehr unterschiedlich sein. Entsprechend - um Artefakte zu vermeiden, wird man dann bei schlechteren Verfahren mit mehr Unschärfe leben müssen.
Ob und wie FSR mit TAAs interagiert, wird mMn hoch spannend. Aber wohl wie gesagt sehr variabel.
Wenn das so wäre, wäre es aber DLSS 2.x wesentlich ähnlicher (nicht vom Ergebnis sondern von der Funktionsweise) als DLSS 1.x.
Aber ggf. muss man das auch deutlich unabhängiger voneinander betrachten.
Ich kann mir aber gut vorstellen, dass die Prämisse, der möglichst einfachen Implementierung wichtiger war als die maximale Bildqualität.
Denn dann hätte man sich mindestens alle existierenden TAA Verfahren anschauen müssen, das beste nehmen müssen und entsprechend in allen Spielen wo FSR zum Einsatz kommen sollte, diese ersetzen.
Da aber jede Renderpipeline irgendwie doch einzigartig ist, wird das Anpassen an genau diese Schnittstellen eben schwieriger für das Studio (siehe DLSS 2.x).
Ich hätte ehrlich gesagt trotzdem wesentlich lieber die MCDonalds Variante gehabt. :D
(und zwar wahrscheinlich mit id's Algoritmus im Kern)
Tobalt
2021-06-02, 15:09:18
@Geldmann3 Ja es gab etwas eher im Thread ein Zitat von AMD wo hochtrabend von "purely spatial reconstruction" gesprochen wurde.
mboeller
2021-06-02, 15:12:14
Wissen wir überhaupt schon sicher, dass es keine temporale Komponente gibt?
ja:
https://gpuopen.com/fsr-announce/
How does it work?
FidelityFX Super Resolution is a spatial upscaling technique, which generates a “super resolution” image from every input frame. In other words, it does not rely on history buffers or motion vectors. Neither does it require any per-game training.
edit:
hab mal ein bisschen rumgesucht nach SSR.
-> https://paperswithcode.com/task/image-super-resolution
Platos
2021-06-02, 15:12:42
Wissen wir überhaupt schon sicher, dass es keine temporale Komponente gibt?
Denn wenn es die nicht geben sollte, warum muss man es dann überhaupt in ein Spiel implementieren und kann es nicht einfach im Treiber für alle Games aktivieren?
Btw. die bisher gezeigten Beispiele empfinde ich als völligen Reinfall. Hoffe, das ist nicht die Speerspitze von dem, was FSR kann. Dann ist ja sogar das Checkerboarding auf den Konsolen teilweise besser. Selbst mein TV, der LG CX, scaled ähnlich gut up.
Wenn es wirklich nur Image-Upscaling und kein temporales Supersampling wie DLSS ist, wäre das kein Wunder. Immerhin kann diese Methode dann auch nicht mehr tun, als ein TV, Filter oder Upscaler es könnte. Wäre schon enttäuschend, wenn AMD da so lange drangesessen hat. Und eine Frechheit dann die Settingnamen von DLSS dafür zu verwenden, was pure Kundenverwirrung wäre.
Ja, und gekonnt haben sie es noch "ultra quality" genannt, damits sich besser anhört, wie "quality" bei nvidia :D
Also ich bezweifle mittlerweile langsam, dass man da noch grossartige Fortschritte macht (ist ja nur "handelsübliches" upscaling wie es scheint). Ich kann mir aber vorstellen, dass das nur eine Übergangslösung ist, quasi damit man auch etwas hat. Und danach kommt entweder was komplett anderes oder es wird auch in Hardware gegossen. Ich hoffe es zumindest. RT wird irgendwann vermutlich auch in Hardware kommen.
Aber das kann auch erst in 5 Jahren sein...
Btw. feiert der Grossteil bei Youtube wieder alles. Wieder mal erstaunlich...
robbitop
2021-06-02, 15:17:45
Ich hatte das in die Richtung gedeutet, dass bei schnellen oder unregelmäßigen Kamerafahrten die Motionvektoren bei DLSS manchmal nicht passen und dann komplette Objekte bzw Silhouetten aufflackern.. also diese offensichtlichen Rekonstruktionsartefakte hatte ich unter temporale Instabilität verbucht. Und dies wird ja durch die Nichtnutzung des temporalen Schatzes quasi effektiv verhindert ;)
Tja bei manchen Implementierungen sind nicht alle Objekte mit korrekten Motion Vectors versehen. Dann kommt natürlich ein Artefakt dabei heraus. Ich gehe davon aus, dass nach ein paar Iterationen das aber jeder hinbekommen wird.
Was meinst du übrigens mit "Clamping" im Zusammenhang mit der temporalen Rekonstruktion? Ich lese das öfter bei dir.
Ich hatte weiter oben Clamping doch bereits erläutert. :)
Das Problem ist, dass die Samples aus vorherigen Frames nicht zu den Samples des aktuellen Frames passen, wenn es Bewegung gibt. Es würde zu Artefakten führen.
Clamping ist eine Heuristik die mit Hilfe von Motion Vectors nach dem wegbewegten Pixel sucht, der zu erst genannten Pixel passt. Je besser das funktioniert - also je höher die Trefferrate - desto mehr aufeinanderfolgende Frames sind entsprechend akkumulierbar.
NV nutzt dafür ein NN. Das sucht zuverlässiger die entsprechenden Pixel als eine Heuristik (wobei hier in der Praxis die Unterschiede schon sehr nennenswert sind - die Heuristik von id scheint wirklich richtig richtig gut zu sein ggü UE4 Beispielen). Entsprechend mehr Samples können benutzt werden. Im Ernstfall halluziniert das NN clamping auch mal was, dass besser passt als ein Fehltreffer. Entsprechend artefaktärmer ist es bei der gleichen Samplezahl oder aber mehr Samples bei ähnlicher Ausprägung an Artefakten.
Nichts desto trotz gibt es in Spielen die unterschiedlichsten Konstellationen an Kontent und Bewegungen. Da kann auch bei so moderner Rekonstruktion mal was in die Hose gehen. Bei manchen Konstellationen mehr als bei anderen.
Da gibt es entsprechende Parameter, die das Studio pro Spiel nutzen kann, um dagegen zu wirken. Vor allem aber die Aggressivität in der Nutzung der temporalen Samples.
Am Ende ist es echtes Supersampling aber eben mit gelegentlichen Artefakten - aber zu einem Bruchteil des Preises. Das Ergebnis hat schon manchmal was von schwarzer Magie. :D
robbitop
2021-06-02, 15:19:29
Wissen wir überhaupt schon sicher, dass es keine temporale Komponente gibt?
Denn wenn es die nicht geben sollte, warum muss man es dann überhaupt in ein Spiel implementieren und kann es nicht einfach im Treiber für alle Games aktivieren?
Btw. die bisher gezeigten Beispiele empfinde ich als völligen Reinfall. Hoffe, das ist nicht die Speerspitze von dem, was FSR kann. Dann ist ja sogar das Checkerboarding auf den Konsolen teilweise besser. Selbst mein TV, der LG CX, scaled ähnlich gut up.
Wenn es wirklich nur Image-Upscaling und kein temporales Supersampling wie DLSS ist, wäre das kein Wunder. Immerhin kann diese Methode dann auch nicht mehr tun, als ein TV, Filter oder Upscaler es könnte. Wäre schon enttäuschend, wenn AMD da so lange drangesessen hat. Und eine Frechheit dann die Settingnamen von DLSS dafür zu verwenden, was pure Kundenverwirrung wäre.
AMD hat Anandtech im Pre-Briefing wohl gesagt, dass FSR keine temporale Komponente hat.
ABER: wenn es direkt mit dem Spieleigenen TAA verzahnt ist (und AMD den Entwicklern Richtlinien gibt, dieses etwas anders zu konfigurieren) könnte das schon einen Unterschied machen.
Stelle ich mir so vor, dass das TAA genutzt wird, um das Bild in einer höheren Auflösung zu rekonstruieren und FSR dann rein spatial läuft. Gezieltes Schärfen z.B.
Rein spatial wäre aus meiner Sicht ziemlich hoffnungslos.
Tobalt
2021-06-02, 15:22:04
Ok ist "clamping" in dem Kontext ein gängiger Fachausdruck ? Ich würde es tracking oder alignment nennen
Platos
2021-06-02, 15:23:19
AMD hat Anandtech im Pre-Briefing wohl gesagt, dass FSR keine temporale Komponente hat.
ABER: wenn es direkt mit dem Spieleigenen TAA verzahnt ist (und AMD den Entwicklern Richtlinien gibt, dieses etwas anders zu konfigurieren) könnte das schon einen Unterschied machen.
Stelle ich mir so vor, dass das TAA genutzt wird, um das Bild in einer höheren Auflösung zu rekonstruieren und FSR dann rein spatial läuft. Gezieltes Schärfen z.B.
Rein spatial wäre aus meiner Sicht ziemlich hoffnungslos.
Naja, gezieltes "schärfen" ist dann ja bei den bisher gezeigten Videoaufnahmen mal so richtig in die Hose gegangen.
robbitop
2021-06-02, 15:26:01
Ok ist "clamping" in dem Kontext ein gängiger Fachausdruck ? Ich würde es tracking oder alignment nennen
Das heißt in der Branche so - da braucht man sich keinen Begriff mehr auszudenken. ;)
Naja, gezieltes "schärfen" ist dann ja bei den bisher gezeigten Videoaufnahmen mal so richtig in die Hose gegangen.
Naja das ist wirklich pure (und wilde!) Spekulation meinerseits.
ABER: wenn ein Bild mit 4K vs einem Bild mit sagen wir 1440p Grundauflösung verglichen wird und das TAA wirklich schlecht ist (temporale Stabilität) - dann kann man auch nur bedingt nachschärfen bevor es zu Artefakten kommt.
Das Bild aus AMDs Präsentation gibt leider wenig Anlass zur Hoffnung.
Man kann nur hoffen, dass es bessere Implementationen gibt.
Platos
2021-06-02, 15:32:54
Ja, vor allem hat es nur dann einen Nutzen, wenn man niedrigere Qualität haben will, wie die native Auflösung (wobei es vlt. sogar dann noch bessere Alternativen gibt). Gleiche Qualität mit mehr FPS geht ja anscheinend nicht mal ansatzweise. Mit DLSS geht (mit noch ein paar Artefakten) selbe Quaität wie nativ aber mit deutlich mehr FPS.
Irgendwie ist es schon fast lächerlich was AMD da liefert.
Und ja, kann man nur hoffen.
robbitop
2021-06-02, 15:39:11
Ziel muss es natürlich sein, besser zu sein als nur die Auflösung zu reduzieren + CAS.
Besser in Bezug auf BQ/Performance.
Idealerweise sollte es im besten Preset immer noch deutlich schneller sein als nativ bei kaum schlechter BQ.
Platos
2021-06-02, 16:00:00
Idealerweise sollte es im besten Preset immer noch deutlich schneller sein als nativ bei kaum schlechter BQ.
Ja, das sehe ich auch so. Kann FSR aber bisher kein bisschen erreichen.
robbitop
2021-06-02, 16:13:31
Wir werden abwarten müssen. Aber das bisher Gezeigte stimmt nicht gerade hoffnungsvoll.
N0Thing
2021-06-02, 16:19:57
Ich habe gerade die angeblichen Screens von dem FidelityFX Zeug gesehen. Kann es sein das da nur Fakes unterwegs sind? Die Bildquali war regelrecht unterirdisch.
So was z.b.:
https://abload.de/img/amdfsradjkr.jpg
Bei Anandtech gibt es ein Bild aus dem offiziellen AMD-Paket. Sieht auch nicht vielversprechender aus.
https://www.anandtech.com/show/16723/amd-formally-unveils-fidelityfx-super-resolution-open-source-game-upscaling
Wenn es auch langfristig bei dieser Bildqualität bleiben würde, wäre es sehr schade und enttäuschend. Denn auch wenn FSR Open-source ist, auf Grafikkarten verschiedener Hersteller läuft und leichter einzubauen sein sollte, als es bei DLSS der Fall ist, wird das Bild stärker vermatscht, als mir der FPS-Gewinn wert wäre.
thomas62
2021-06-02, 21:12:10
Hi,
wie kommt dieses FSR auf meinen Rechner ?
per Chipset Update für meinen R5 3600 + Nvidia 1660
oder per Nvidia Treiber ? Wobei ich nicht glaube das es Nvidia im Treiber verbaut.
Aber wie heisst so schön " Geschenktem Gaul schaut man nicht ins Maul "
lg
wie bereits im Thread vorhanden: Es muss in die Spiele eingebaut/hineingepatcht werden :) Dann lässt es sich über die Optionen der Spiele aktivieren/konfigurieren.
gruntzmaker
2021-06-02, 23:09:58
Hi,
wie kommt dieses FSR auf meinen Rechner ?
per Chipset Update für meinen R5 3600 + Nvidia 1660
oder per Nvidia Treiber ? Wobei ich nicht glaube das es Nvidia im Treiber verbaut.
Aber wie heisst so schön " Geschenktem Gaul schaut man nicht ins Maul "
lg
Der Gaul ist leider schon bei Ankunft abgeknallt worden. Krass ist die Bildqualität unterirdisch!
Das Ding braucht locker zwei Jahre zusätzliche Entwicklungszeit. Aber ohne AI war eben kein anderes Ergebnis zu erwarten.
Wahrscheinlich hätte Checkerboarding es genauso gut hinbekommen. Einfach nur enttäuschend!
w0mbat
2021-06-02, 23:19:58
Witzig, wie die ganzen Nvidia Fanbois aus ihren Löchern kriechen, die schon vor release natürlich die BQ kennen. Aber DLSS ist "better than native". Ach, manche Dinge ändern sich auch nie :D
Screemer
2021-06-02, 23:22:37
Die Videos überzeugen mich jetzt auch nicht wirklich. Der Detailverlust scheint teilweise enorm zu sein. Bin schon gespannt wie das dann in den ersten Implementierungen aussieht. Ue5 dürfte da aber durch andere Renderingtechniken aber wohl mehr Potential zu haben als die eh schon blurrige ue4.
maximus_hertus
2021-06-02, 23:24:58
Der Gaul ist leider schon bei Ankunft abgeknallt worden. Krass ist die Bildqualität unterirdisch!
Das Ding braucht locker zwei Jahre zusätzliche Entwicklungszeit. Aber ohne AI war eben kein anderes Ergebnis zu erwarten.
Wahrscheinlich hätte Checkerboarding es genauso gut hinbekommen. Einfach nur enttäuschend!
So wie der BVB nach dem Frankfurtspiel abgeknallt wurde und noch fast zum Absteiger geschrieben wurde (unter anderem von dir...) ;)
Warte doch den 22.6. ab. Dann kann man immer noch meckern oder enttäuscht sein.
Oder bist du auch schon jetzt über die neue Saison 21/22 enttäuscht?
Einfach weniger Emotionen und mehr Fakten / auf den echten Launch warten, selbst wenn es wohl schwierig für FSR werden könnte.
vinacis_vivids
2021-06-02, 23:30:52
AMD ist eben eine ehrliche Techfirma, die sich langfristig durchsetzen muss Aufgrund der technischen Qualität, saubere Dokumentation und transparente Methoden.
Dagegen ist das ganze Marketing-Neusprech ohne nennenswert technischem Mehrwert von Huang`s Jüngern Kindergarten.
Platos
2021-06-02, 23:48:10
Witzig, wie die ganzen Nvidia Fanbois aus ihren Löchern kriechen, die schon vor release natürlich die BQ kennen. Aber DLSS ist "better than native". Ach, manche Dinge ändern sich auch nie :D
Du willst also sagen, in 3 Wochen wird aus Matsch Pixelwunder werden?
DrFreaK666
2021-06-02, 23:51:32
Du willst also sagen, in 3 Wochen wird aus Matsch Pixelwunder werden?
Vielleicht ist es weniger matschig wie befürchtet
gruntzmaker
2021-06-02, 23:57:31
So wie der BVB nach dem Frankfurtspiel abgeknallt wurde und noch fast zum Absteiger geschrieben wurde (unter anderem von dir...) ;)
Warte doch den 22.6. ab. Dann kann man immer noch meckern oder enttäuscht sein.
Oder bist du auch schon jetzt über die neue Saison 21/22 enttäuscht?
Einfach weniger Emotionen und mehr Fakten / auf den echten Launch warten, selbst wenn es wohl schwierig für FSR werden könnte.
Also gut, dann eben so:
Das Ding braucht sehr viel mehr Zeit als gut für den Ansatz wäre und das lässt sich ja leider schon jetzt recht gut beobachten.
Auf der anderen Seite ist Open Source eben auch eine Sache, die immerhin Input von allen möglichen Firmen (nicht nur von AMD) bekommen kann.
Das muss allerdings ziemlich schnell gehen, da Tech Märkte alles nur nicht geduldig sind.
Da NVIDIA bereits quasi einen Standard etabliert hat, war es im Nachhinein eine richtige Entscheidung eben auch Pascal Karten mit zu unterstützen.
Imho ist es dennoch quasi "dead on arrival", DLSS 2.0 ist ein Gamechanger, bevor sich FSR auf AMD durchsetzen kann, könnte auch AMD einfach DLSS lizensieren. Aus wirtschaftlichen Gründen wäre das durchaus denkbar, da Entwicklungskosten für FSR quasi nie an die Kunden weitergereicht werden können, zumindest nicht direkt, diese jedoch unzweifelhaft bestehen werden.
Also mag es zwar für alle anderen Unternehmen Open Source sein, für AMD jedoch ist es am Ende rausgeschmissenes Geld, wenn der Ansatz nicht wenigstens konkurrenzfähig wird. Aber dann hätte man eventuell keinen Open Source Ansatz nötig.
Birdman
2021-06-03, 00:07:44
Witzig, wie die ganzen Nvidia Fanbois aus ihren Löchern kriechen, die schon vor release natürlich die BQ kennen. Aber DLSS ist "better than native". Ach, manche Dinge ändern sich auch nie :D
Es gtibs von AMD bereitgestellte Slides und Videos, sowie einige technische Hintergrundinfos zur Funktionsweise.
Damit lässt sich die BQ in den gezeigten Titeln klar erkennen und in weiteren ziemlich gut erahnen.
Wenn es hier also einen Fanboi gibt, dann der welcher die Kotstulle nicht erkennen will, selbst wenn sie ihm ins Gesicht gedrückt wird.
Platos
2021-06-03, 00:12:32
Vielleicht ist es weniger matschig wie befürchtet
Es gibt ja schon Videomaterial dazu in 4K, also wie stellst du dir das vor? Was soll das heissen, es ist vlt. ncht so matschig, wie befürchtet ? Hier wird ja nichts "erahnt", es gibt Video und Bildmaterial dazu in genug hoher Qualität um das zu beurteilen. Von AMD persönlich.
https://www.youtube.com/watch?v=eHPmkJzwOFc
Hier nochmals das Video. Also was meinst du? Dass es in diesem einen Spiel besonders schlecht umgesetzt ist? Technisch natürlich möglich, aber wahrscheinlich? Wahrscheinlich, dass AMD dann genau dieses schlecht umgesetzte Spiel nimmt, um damit FSR vorzustellen?
Für so bescheuert halte ich AMD nicht.
BlacKi
2021-06-03, 00:47:33
wccftech hat wegen den überschwänglichen amd fanbois einen ganzen artikel geschaltet.
kurzer auszug:
With the non-DL implementation AMD has rolled out with FSR, you are looking at quality that is worse than DLSS 1.0 on the highest preset. Performance presets should impact quality even more.
Radeon owners deserve a true competitor to DLSS - one that is based on DL/ML and uses AI inference to upscale the input images. Without this implementation, FSR would never be able to compete with the likes of NVIDIA DLSS.
https://wccftech.com/no-amds-fsr-fidelityfx-super-resolution-is-not-a-dlss-alternative-and-here-is-why-you-should-care/
TheAntitheist
2021-06-03, 01:07:31
AMD ist eben eine ehrliche Techfirma, die sich langfristig durchsetzen muss Aufgrund der technischen Qualität, saubere Dokumentation und transparente Methoden.
Dagegen ist das ganze Marketing-Neusprech ohne nennenswert technischem Mehrwert von Huang`s Jüngern Kindergarten.
EHRLICH? AHAHAAAH
Ja als sie bei RDNA zig features versprochen haben und nix geht bis heute... primitive shaders? still waiting for RDNA1 ;D
Es ist eine normale Firma die nur auf den Profit ausgerichtet ist.
€dit: ja sie haben features einfach nach released gestrichen xD https://www.techpowerup.com/240879/amd-cancels-implicit-primitive-shader-driver-support
Also de facto Betrug, die GPU konnte nicht das was versprochen wurde...
Platos
2021-06-03, 02:02:31
videocardz hat wegen den überschwänglichen amd fanbois einen ganzen artikel geschaltet.
kurzer auszug:
https://wccftech.com/no-amds-fsr-fidelityfx-super-resolution-is-not-a-dlss-alternative-and-here-is-why-you-should-care/
Ist doch immer das Selbe auf beiden Seiten. Schau dir nur mal die Komentarsektion an. Ist ja richtig traurig da unten...
DrFreaK666
2021-06-03, 03:13:49
...Wahrscheinlich, dass AMD dann genau dieses schlecht umgesetzte Spiel nimmt, um damit FSR vorzustellen?...
Woher weißt du dass es schon in mehr Spielen implementiert wurde? Vielleicht haben die nur das eine Spiel!?
Platos
2021-06-03, 03:29:36
Woher weißt du dass es schon in mehr Spielen implementiert wurde? Vielleicht haben die nur das eine Spiel!?
Dann hätten sie es einfach sein gelassen es zu zeigen bzw. dafür gesorgt, dass wenigstens das "Showmaterial" ordentlich funktioniert.
Und ich sage ja nicht, dass es schon mehrere Titel gibt, ich meinte damit, dass sie es nicht gezeigt hätten, wäre es eher durchschnittlich umgesetzt.
w0mbat
2021-06-03, 10:26:47
wccftech hat wegen den überschwänglichen amd fanbois einen ganzen artikel geschaltet.
Ne, das war wegen den Nvidia-Fanbois, sie wollen Klicks (und bekommen Sie auch von dir).
Und da schon normales upscaling + RIS besser war als DLSS 1.0, wird FSR wohl nicht schlechter sein :freak:
robbitop
2021-06-03, 10:47:23
wccftech hat wegen den überschwänglichen amd fanbois einen ganzen artikel geschaltet.
kurzer auszug:
https://wccftech.com/no-amds-fsr-fidelityfx-super-resolution-is-not-a-dlss-alternative-and-here-is-why-you-should-care/
AMD's Patent enthielt meiner Erinnerung nach AI.
Das Problem ist weniger die Nutzung von AI als die Nutzung oder Nichtnutzung temporaler Daten. Da ist selbst ohne AI einiges möglich.
Mal sehen wie sie FSR mit den TAA Implementierungen verzahnen. Die Hoffnung stirbt zuletzt.
Fragman
2021-06-03, 10:47:59
Und da schon normales upscaling + RIS besser war als DLSS 1.0, wird FSR wohl nicht schlechter sein :freak:
Was soll das jetzt aussagen?
DLSS 1 nutzt aktuell keiner mehr daher ist V2 die Referenz in dieser Diskussion.
Moeglich ist natuerlich auch, das AMD hier trollt und Ende des Monats eine Bombe platzen laesst. Waere aber schon sehr unprofessionell von denen, wenn auch spassig. :D
robbitop
2021-06-03, 10:50:40
Elon Musk trollt auch gern und dennoch hat er Erfolg. :D
Ist ja auch für viele unterhaltsam und prägt sich wesentlich besser ein.
DrFreaK666
2021-06-03, 11:26:59
Was soll das jetzt aussagen?
DLSS 1 nutzt aktuell keiner mehr daher ist V2 die Referenz in dieser Diskussion...
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12697507#post12697507
Ravenhearth
2021-06-03, 11:58:14
FSR auch offiziell für RX 400: https://www.reddit.com/r/Amd/comments/nqz4ie/quick_update_regarding_fidelityfx_super/
Blediator16
2021-06-03, 21:19:43
Wenn man davon ausgeht, dass FSR genau so schlecht bleibt, wie im Video, dann ja, kann man gerne mit dem Shitposting weiter machen. Ansonsten einfach abwarten und schauen, ob es besser wird. Wenn nicht, dann wird es sich sowieso nicht durchsetzen. Blurrscheiße will doch keiner.
Prinzenrolle
2021-06-03, 21:55:10
Witzig, wie die ganzen Nvidia Fanbois aus ihren Löchern kriechen, die schon vor release natürlich die BQ kennen.
Bei deiner Beitragshistorie zu DLSS, was rein von der Methode her einen viel höheren Anspruch hat, müsstest du AMD jetzt zum Teufel jagen.
DLSS 1.0 war besser als das was AMD nun bringt.
wccftech hat wegen den überschwänglichen amd fanbois einen ganzen artikel geschaltet.
Ja, die haben den AMD Fans die spatiale Kotstulle so richtig ums Maul geschmiert, jetzt haben sie wieder was zu feixen.;D
Daredevil
2021-06-03, 22:01:56
Witzig, wie die ganzen Nvidia Fanbois aus ihren Löchern kriechen, die schon vor release natürlich die BQ kennen. Aber DLSS ist "better than native". Ach, manche Dinge ändern sich auch nie :D
Das ist hier halt keine fiktive Serie wie Silicon Valley, sondern die reale Welt.
Die Chance, dass AMD "mal eben" einen DLSS Konkurrenten raushaut, der auf jeder Hardware ab Polaris UND Nvidia Karten gut funktioniert, gut performt, gut aussieht und maximal Kompatibel ist ohne Extra Hardware, ist sehr gering.
So gering, wie das AMD in wenigen Jahren Intel hinter sich lassen wird.
Es kann passieren, aber zaubern kann AMD wiederum auch nicht.
Und wie Prinzenrolle schon schrieb.... schau dir mal deine alten Posts an.
Dampf
2021-06-03, 22:12:18
Falscher Thread
DrFreaK666
2021-06-03, 22:14:07
...DLSS 1.0 war besser als das was AMD nun bringt...
Das werden wir bald genauer wissen
7MLr1nijHIo
robbitop
2021-06-03, 22:39:54
Ich finde diesen Beitrag über Unreal 5's eigenes Upsampling "Temporal Super Resolution" Verfahren interessant (enthält auch gute Bildvergleiche mit Slider):
https://www.reddit.com/r/hardware/comments/nozuvo/testing_unreal_engine_5_temporal_super_resolution/
Ich hätte bei AMDs FSR auch eher so etwas erwartet. Ich kann mir gut vorstellen, dass TSR DLSS relativ nahe kommt, jedoch ohne NN auskommt.
ChaosTM
2021-06-04, 07:19:08
Das "Problem" gleich in der Engine selbst anzugehen ist imho ein guter Ansatz.
Hängt natürlich von der Qualität ab, ob es dann genutzt wird oder nicht. Die Unterschiede sind schwer auszumachen, da ich hier nur einen 1200p Monitor hab.
Geldmann3
2021-06-04, 08:41:10
Ich finde diesen Beitrag über Unreal 5's eigenes Upsampling "Temporal Super Resolution" Verfahren interessant (enthält auch gute Bildvergleiche mit Slider):
https://www.reddit.com/r/hardware/comments/nozuvo/testing_unreal_engine_5_temporal_super_resolution/
Ich hätte bei AMDs FSR auch eher so etwas erwartet. Ich kann mir gut vorstellen, dass TSR DLSS relativ nahe kommt, jedoch ohne NN auskommt.
Uhh, die UE5 Lösung SCHEINT kaum eine Chance gegen DLSS zu haben. Oder liegt es eventuell nur daran, dass Nanite mit TSR einfach weniger Polygone rendert und man hier entsprechend, wie bei DLSS, einen negativen LOD-Bias einstellen müsste?
Edit: Wenn ich so darüber nachdenke, wäre ein auflösungsunabhängiger Nanite-Subdivision-Scale cool. Stellt man diesen höher ein, wird man mit mehr Details, jedoch auch mehr Flimmern (und schlechterer Performance) belohnt. Bei sub-nativen Settings hingegegen wird das Bild weicher, stabiler, jedoch auch detailärmer. (Und man gewinnt Performance.) Ich gehe sogar mal davon aus, Nanite kann sowas bereits.
Uhh, die UE5 Lösung SCHEINT kaum eine Chance gegen DLSS zu haben. Oder liegt es eventuell nur daran, dass Nanite mit TSR einfach weniger Polygone rendert und man hier entsprechend, wie bei DLSS, einen negativen LOD-Bias einstellen müsste?
Sieht aber zumindest deutlich besser als die AMD Lösung aus.
Zu DLSS 2.x bräuchten wir erst vergleiche mit der UE5, ich könnte mir durchaus vorstellen dass auch DLSS mit Nanite ähnliche Probleme haben wird.
robbitop
2021-06-04, 12:49:48
Uhh, die UE5 Lösung SCHEINT kaum eine Chance gegen DLSS zu haben. Oder liegt es eventuell nur daran, dass Nanite mit TSR einfach weniger Polygone rendert und man hier entsprechend, wie bei DLSS, einen negativen LOD-Bias einstellen müsste?
Genau das habe ich angenommen. Grundsätzlich macht eine LoD Anpassung bei solchen Verfahren Sinn. Mir ist grundsätzlich unklar, warum das so oft nicht gemacht wird.
Platos
2021-06-04, 13:16:52
Ihr meint für Entwickler oder als Endanwender? Quasi ein Regler mit der Anzahl Polygonen, so wie es eben ein Regler für die Auflösung (Anzahl Pixel) gibt?
Also quasi eine "Polygonauflösung"?
M.M.n ergibt es keinen Sinn mehr Polygone zu verwenden, als es Pixel gibt. Eig. müsste aus meiner Sicht die Pixelanzahl merkbar höher sein wie die Polygonanzahl. Man kann ja schliesslich die Form eines Polygons nicht mit einem Pixel darstellen.
Also was ich sagen will: Es muss (am PC) eig. einen Polygonregler geben (vlt. auch von den Entwicklern an eine bestimmte Auflösung gekoppelt). Man kann schlecht wie bei der UE5 Demo damals auf der PS5 so viel Leistung für Polygone "verschwenden", wenn die Auflösung z.B nur 1080p wäre. Da muss es also fast ne Regelung geben.
aufkrawall
2021-06-04, 13:19:24
Genau das habe ich angenommen. Grundsätzlich macht eine LoD Anpassung bei solchen Verfahren Sinn. Mir ist grundsätzlich unklar, warum das so oft nicht gemacht wird.
Das war jetzt aber nicht auf die Texturen bezogen, sondern auf die Geometrie bzw. Nanite. Ob da etwas ähnliches möglich wäre? Geometrie-LOD an Mip-Level hängen?
w0mbat
2021-06-04, 13:19:56
Und wie Prinzenrolle schon schrieb.... schau dir mal deine alten Posts an.
Kannst du mal nicht in Rätseln sprechen? Was willst du damit sagen?
BlacKi
2021-06-04, 13:25:38
Ihr meint für Entwickler oder als Endanwender? Quasi ein Regler mit der Anzahl Polygonen, so wie es eben ein Regler für die Auflösung (Anzahl Pixel) gibt?
Also quasi eine "Polygonauflösung"?
M.M.n ergibt es keinen Sinn mehr Polygone zu verwenden, als es Pixel gibt. Eig. müsste aus meiner Sicht die Pixelanzahl merkbar höher sein wie die Polygonanzahl. Man kann ja schliesslich die Form eines Polygons nicht mit einem Pixel darstellen.
Also was ich sagen will: Es muss (am PC) eig. einen Polygonregler geben (vlt. auch von den Entwicklern an eine bestimmte Auflösung gekoppelt). Man kann schlecht wie bei der UE5 Demo damals auf der PS5 so viel Leistung für Polygone "verschwenden", wenn die Auflösung z.B nur 1080p wäre. Da muss es also fast ne Regelung geben.
gibts schon. sollte man aber per spiel einstellen je nach bedarf.
ist halt nicht on the fly einstellbar und nicht vom spiel vorgesehen. kann bugs hervorbringen.
nvidia profile inspector.
manche nutzen es um die sichtbarkeit in online games unfair zu erhöhen, eben eine unzulässige übervorteilung der mitspieler halt.
Platos
2021-06-04, 13:56:09
gibts schon. sollte man aber per spiel einstellen je nach bedarf.
ist halt nicht on the fly einstellbar und nicht vom spiel vorgesehen. kann bugs hervorbringen.
nvidia profile inspector.
manche nutzen es um die sichtbarkeit in online games unfair zu erhöhen, eben eine unzulässige übervorteilung der mitspieler halt.
Was macht der denn? Wie kann man mehr Polygone erzeugen, als es eigentlich gibt im Spiel? Und vor allem ,was ist die Voraussetzung, dass das funktioniert? Man wird ja wohl kaum alte polygonarme Spiele auf einmal in Wunderwerke verwandeln können.
aufkrawall
2021-06-04, 14:13:30
Man kann im GeForce-Treiber das LOD-Bias für die Texturenfilterung erzwingen (mit Ausnahme von Vulkan), aber nichts mit Geometrie.
BlacKi
2021-06-04, 14:15:29
gelöscht. krawall hat recht.
Platos
2021-06-04, 14:23:05
Ja was jetzt :D Verändert man nun nur die Texturen oder auch die Polygone :D ?
(Edit: Ok, also dann "nur" Texturen?)
Aber ich meinte ja im meinem Beitrag vorhin, dass man generell eine andere Polygon"auflösung" einstellt, wenn man eine andere Pixelauflösung verwendet.
Wenn die Anzahl Polygone die Anzahl Pixel übersteigt, ergibt es keinen Sinn mehr, diese zu berechnen. Das wäre verschwendete Rechenleistung. Und mit Nanite könnte das durchaus vorkommen. Siehe UE5 Demo, die auf der PS5 lief. Wie viele Millionen Polygone hatte da einer dieser Figuren? 8 Millionen (bin mir grad nicht mehr sicher)? Das wäre komplett für'n Arsch, wenn jemand z.B in 1080p oder 1440p spielt. Selbst in 4k hätte es nur ein Pixel pro Poylgon (bringt das überhaupt noch was bei nur einem Pixel pro Poylgon? Für die 3D-Form vlt. aber ansonsten...?)
Ich meinte jetzt nicht nur mittels LOD, also in der Entfernung. Da natürlich aber auch. Eben quasi proportional zur verwendeten Pixelauflösung. In der Entfernung dann eben proportional auch weniger Pylogne. Ich weiss nicht, wo das sinnvolle Maximum an Polygonen ist (bei einer besitmmten Pixelauflösung), aber höher wie die Pixelauflösung sicher nicht.
Geldmann3
2021-06-04, 14:37:54
Genau das habe ich angenommen. Grundsätzlich macht eine LoD Anpassung bei solchen Verfahren Sinn. Mir ist grundsätzlich unklar, warum das so oft nicht gemacht wird.
Bei Nanite in Verbindung mit TSR gehe ich davon aus, dass es schlicht nicht gemacht wird, um Performance zu sparen. Denn bei kleineren Polygonen wäre der Return sehr diminishing.
Doch das ist auch bei SSAA der Fall und man kann es trotzdem tun, wenn man möchte.
Außerdem haben wir durch das temporale Supersampling schließlich wieder mehr Auflösung, als nur die interne, weshalb man sich darüber streiten kann, ob sich das Verschieben des Nanite-LOD nicht doch lohnt.
Bin mir recht sicher, dass es in Verbindung mit TSR eine leichte, optische Verbesserung ergeben würde.
DrFreaK666
2021-06-04, 15:51:50
Ihr meint für Entwickler oder als Endanwender? Quasi ein Regler mit der Anzahl Polygonen, so wie es eben ein Regler für die Auflösung (Anzahl Pixel) gibt?
Also quasi eine "Polygonauflösung"?...
Bei AMD konnte man den Tesselation-Grad senken. Weiss aber nicht ob das noch möglich ist
robbitop
2021-06-04, 15:58:06
Das war jetzt aber nicht auf die Texturen bezogen, sondern auf die Geometrie bzw. Nanite. Ob da etwas ähnliches möglich wäre? Geometrie-LOD an Mip-Level hängen?
Beides. Sowohl das Geometrie LoD als auch das Textur LoD ist fast immer an die Auflösung gekoppelt 3D Anwendungen.
Entsprechend sollte man logischerweise alle auflösungsgekoppelte LoDs an die Zielauflösung koppeln bei temporalen Upsampling.
robbitop
2021-06-04, 16:00:45
Bei Nanite in Verbindung mit TSR gehe ich davon aus, dass es schlicht nicht gemacht wird, um Performance zu sparen. Denn bei kleineren Polygonen wäre der Return sehr diminishing.
Doch das ist auch bei SSAA der Fall und man kann es trotzdem tun, wenn man möchte.
Außerdem haben wir durch das temporale Supersampling schließlich wieder mehr Auflösung, als nur die interne, weshalb man sich darüber streiten kann, ob sich das Verschieben des Nanite-LOD nicht doch lohnt.
Bin mir recht sicher, dass es in Verbindung mit TSR eine leichte, optische Verbesserung ergeben würde.
Naja ob mehr Polygone Leistung kosten hängt ja von der jeweiligen Konstellation ab. Bei hoher Auflösung sollte Geometriedurchsatz nicht limitieren. Bei niedrigen Auflösungen ggf schon. Je nach HW.
Zumindest einen Slider würde ich hinterlegen - dann kann das ja jeder an die jeweilige Konstellation anpassen.
Mir genügt eigentlich das "Samsung Quantum Prozessor Scaling"
Das geht immer und bei allem :tongue:
Man muss halt im Windof die Auflösung verstellen. (das wirklich weniger beim Fernseher ankommt)
Einen Screenshot für Euch kann ich so halt nicht machen, aber Hauptsache Mir gefällt es ^^
M.f.G. JVC
Beides. Sowohl das Geometrie LoD als auch das Textur LoD ist fast immer an die Auflösung gekoppelt 3D Anwendungen.
Nicht wirklich Geometrie-LOD ist üblicherweise unabhängig von der Auflösung, bei Nanite dürfte dies allerdings anders sein.
Das Ziel von Nanite solle es ja sein 1 Polygon/Pixel, und dafür wird ja sogar der Hardware-Rasterizer umgangen (da dieser bei kleinen Polygonen extrem ineffizient wird) und ein Software-Rasterizer als Compute-Shader ausgeführt.
Es ist allerdings fraglich ob sich das gut mit "1 Polygon pro upgescaltem Pixel" verträgt.
Platos
2021-06-04, 16:58:34
Wird es bestimmt, wenn sie sogar ein hauseigenes Upscalingverfahren in der Engine haben.
robbitop
2021-06-04, 17:15:39
Nicht wirklich Geometrie-LOD ist üblicherweise unabhängig von der Auflösung, bei Nanite dürfte dies allerdings anders sein.
Wirklich? Also wenn das tatsächlich so ist, wundert mich das warum man das nicht so macht. Das macht doch absolut Sinn. Mehr Auflösung heißt, ich kann mehr Details darstellen und das auch temporal stabil. Entsprechend sinnvoll ist es auch eher entsprechend feinere Meshes zu laden.
Bist du dir absolut sicher, dass das grundsätzlich nicht der Fall ist? Wenn das so ist, würde mich das stark interessieren, warum man das nicht grundsätzlich tut.
@1 Triangle / Pixel
Sind heutige Grafikpipelines eigentlich noch Quadpipelines? Das würde, wenn das noch der Fall ist ja wirlich richtig unschön sein in Bezug auf overhead.
In wiefern hilft es eigentlich, wenn der HW Rasterizer umgangen wird?
Geldmann3
2021-06-05, 14:57:02
Mir genügt eigentlich das "Samsung Quantum Prozessor Scaling"
Das geht immer und bei allem :tongue:
Man muss halt im Windof die Auflösung verstellen. (das wirklich weniger beim Fernseher ankommt)
Einen Screenshot für Euch kann ich so halt nicht machen, aber Hauptsache Mir gefällt es ^^
M.f.G. JVC
Mir kam auch schon der Gedanke, dass das Scaling meines LG-OLEDs auf den ersten Blick besser wirkt als die AMD-Technik. ;D Da ist es bei einem 1080p input in vielen Szenen nämlich selbst aus 50cm Entfernung schwer zu sagen, ob es intern 1080p oder 4k ist. Das hat schon zu Situationen geführt, in denen ich dachte, irgendwas stimme nicht, weil die Performance so gut ist, bis ich dann bemerkt habe, dass ein Game intern nur in 1080p läuft.
Platos
2021-06-05, 15:25:44
Funktioniert das denn auch noch wenn Bewegung im Spiel ist (gut)? Sind die TVs dann nicht oft "schmierend"? Aber der Input-Lag steigt dann ziemlich an, nehme ich an.
Dürfte vlt. bei 60FPS nicht so eine grosse Rolle spielen, aber bei mehr dann schon.
basix
2021-06-05, 15:54:15
Mir kam auch schon der Gedanke, dass das Scaling meines LG-OLEDs auf den ersten Blick besser wirkt als die AMD-Technik. ;D Da ist es bei einem 1080p input in vielen Szenen nämlich selbst aus 50cm Entfernung schwer zu sagen, ob es intern 1080p oder 4k ist. Das hat schon zu Situationen geführt, in denen ich dachte, irgendwas stimme nicht, weil die Performance so gut ist, bis ich dann bemerkt habe, dass ein Game intern nur in 1080p läuft.
Ihr vergesst: Real Time Rendering. Bei TVs kann man x-Frames im voraus analysieren. Eigentlich temporales Upsampling, wo die Motion Vectors anstatt von der Engine kommen vom Bildprozessor abgeschätzt werden. Und man hat deutlich mehr Zeit, um an einem Frame rumzurechnen (grundsätzlich 1/Hz). Die Art des Contents macht auch was aus (Filme @ 1080p können gestochen scharf aussehen, versuch das mal bei Games).
Wirklich? Also wenn das tatsächlich so ist, wundert mich das warum man das nicht so macht.
Beim einen oder anderen Spiel mag es vielleicht der Fall sein, dass die Auflösung beim Geometrie-LOD eine Rolle spielt, üblich ist das aber nicht, und wenn dann ehere für Partikeleffelte oder ähnliches (falls man dafür überhaupt Geometrie verwendet), und nicht für die "normalen" Levelausengrenzen.
Das macht doch absolut Sinn. Mehr Auflösung heißt, ich kann mehr Details darstellen und das auch temporal stabil.
In einer herkömlichen Engine ist das Verhältnis von von Pixeln zu Polygonen sehr viel größer, dass man gar nicht in dern Bereich kommt, dass eine feinere Auflösung auch von mehr Polygonen nennenswert profitieren würde.
Vor allem auch weil es extrem ineffizient ist so kleine Polygone zu rendern, das mag die Hardware gar nicht.
@1 Triangle / Pixel
Sind heutige Grafikpipelines eigentlich noch Quadpipelines? Das würde, wenn das noch der Fall ist ja wirlich richtig unschön sein in Bezug auf overhead.
So ist, es und deshalb gibt es bisher auch keine derartigen Polygondichten.
In wiefern hilft es eigentlich, wenn der HW Rasterizer umgangen wird?
Offenbar sind hier Compute-Shader effizienter als HW-Rasterizer, die ja wie du schon erwähnt hast in Quads rastern und damit mit so kleinen Polygonen sehr ineffizient werden.
Ihr vergesst: Real Time Rendering.
Du vergisst Realtime Rendering... hat wesentlich mehr Informationen über die Szene. Der TV kann nur fertige Bilder analysieren, bei Real-Time-Rendering hat man Z-Buffer, die diversen G-Buffer und reale Motion-Vektoren welche der TV erst über die Analyse mehrerer Bilder erraten muss.
Deshalb sollte ein Upscaling im Rahmen eines 3D-Renderings einem reinen 2D-Upscaling das ein TV machen kann immer deutlich überlegen sein.
basix
2021-06-06, 00:39:47
Da hast du prinzipiell recht: Durch Bewegungsvektoren und weitere Infos könnte Upsampling bei Spielen deutlich genauer sein.
Aber: Bei Filmen kann man deutlich längere History-Buffer verwenden, wenn man will. Hat deutlich grosszügigere Time Budgets. Hat fixed Framerates und nur geringe real-time Anforderungen. Und wie gesagt, typischerweise ist 1080p Filmmaterial hochwertiger als 1080p Material eines Spiels (Aliasing, Flimmern usw.).
TheAntitheist
2021-06-06, 00:45:06
Da hast du prinzipiell recht: Durch Bewegungsvektoren und weitere Infos könnte Upsampling bei Spielen deutlich genauer sein.
Aber: Bei Filmen kann man deutlich längere History-Buffer verwenden, wenn man will. Hat deutlich grosszügigere Time Budgets. Hat fixed Framerates und nur geringe real-time Anforderungen. Und wie gesagt, typischerweise ist 1080p Filmmaterial hochwertiger als 1080p Material eines Spiels (Aliasing, Flimmern usw.).
eigentlich ist Film Material eben nicht so hochwertig. Chroma subsampling, rauschen, blocking, halos, spill falls nicht entfernt.
robbitop
2021-06-06, 10:12:52
Ein Film ist schon was anderes als Echtzeit 3D.
Bei Echtzeit Rasterizing tastest du pro Pixel nur 1x Sample ab. Zumindest ohne Anti Aliasing. Entsprechend kommt es dazu dass Geometrie je nach Beschaffenheit und Entfernung) gar nicht vollständig abgetastet wird. Das gilt auch für alles andere. Siehe shannon-nyquist Abtasttheorem.
Ein Film hingegen funktioniert anders. Bei CGI wird grundsätzlich 64x (oder mehr) Samples abgetastet (sgssaa). Bei Filmaufnahmen selbst treffen Photonen auf den Film oder aber auf den Digitalen Photosensor. In jedem Falle ist eine sehr sehr sehr (um viele Größenordnungen) große Menge an Information pro Pixel vorhanden. Und nicht nur 1x Sample. Entsprechend ist ein Film (sofern nicht mit völlig hirnrissigen filtern oder gar point sampling gerized wird) temporal super stabil. Echtzeit 3D Grafik ist das nicht.
Und das ist ganz unabhängig vom Videoformat und chroma subsampling etc.
Und genau deshalb profitiert 3D Grafik sehr von super sampling. Auch von temporalem super sampling. Und das ist wie gesagt weit mehr als nur motion vectors.
DrFreaK666
2021-06-06, 11:11:50
Wie erwartet kommmt es auf für die Xbox
https://www.ign.com/articles/xbox-series-x-s-amd-fidelity-fx-super-resolution-support-confirmed
Nightspider
2021-06-06, 11:32:12
Gab es nicht mal eine Methode für Videoaufzeichnung wo zwischen den lower resolution Aufnahmen einzelne highres Bilder geschossen wurden und dann durch die einzelnen highres Bilder die Qualität des gesamten Videos massiv verbessert werden konnte?
Könnte man eine ähnliche Technik nicht auch bei Spielen verwenden? Beispielsweise das jeder 15. Frame die doppelte Auflösung oder zumindest 50% mehr hat und dies bei dem Upsampling hilft?
Oder das man halt bestimmte temporale Inhalte auch kurz höher abtastet?
robbitop
2021-06-06, 11:40:48
Das wäre nicht zielführend. Dann gäbe es Spikes in den Frametimes. Würde sich total gurkig spielen. Zumal temporale Samples konsistenter sein sollten. Und sie sind 4 free - weil sie eh da sind. Man muss sie nur einsammeln. :)
@1 Triangle / Pixel
Sind heutige Grafikpipelines eigentlich noch Quadpipelines? Das würde, wenn das noch der Fall ist ja wirlich richtig unschön sein in Bezug auf overhead.
Ja und ja.
In wiefern hilft es eigentlich, wenn der HW Rasterizer umgangen wird?
Es reduziert den Overdraw und es hilft, wenn man LOD + Rasterizer in der Hand hat. Auf Pixelsize ist der Epic Rasterizer Faktor 3 schneller und für Dreiecke ab ein paar Pixel Größe fallen sie wieder auf den HW Rasterizer zurück.
robbitop
2021-06-06, 12:17:41
Interessant. Ich hab mich schon seit 10-15 Jahren gefragt, wann wir an diesen Punkt kommen werden. Und auf einmal sind wir angekommen. :)
Danke für deine Antworten! Super aufschlussreich :up:
basix
2021-06-06, 13:28:05
Ja und ja.
Es reduziert den Overdraw und es hilft, wenn man LOD + Rasterizer in der Hand hat. Auf Pixelsize ist der Epic Rasterizer Faktor 3 schneller und für Dreiecke ab ein paar Pixel Größe fallen sie wieder auf den HW Rasterizer zurück.
Zum Faktor 3 und HW Rasterizer Fallback: https://youtu.be/TMorJX3Nj6U?list=PLZlv_N0_O1gbggHiwNP2JBXGeD2h12tbB&t=4062
Hier zum Thema Overdraw: https://youtu.be/TMorJX3Nj6U?list=PLZlv_N0_O1gbggHiwNP2JBXGeD2h12tbB&t=2385
Und zum präzisieren: 3x gilt gegenüber Primitive Shader! Die sind gegenüber der herkömmlichen Pipeline nochmals 3-4x schneller (laut AMD Folien von Vega).
Ausserdem ermöglich Nanite 1x Draw Call für eine beliebige Anzahl and Objekten, was viel CPU-Performance einspart. Nanite benötig einfach N Drawcalls für N Materials, was von der Anzahl her aber anscheinend geringer ist als Objekte.
Nanite Performance auf einer PS5 ausserdem ~60fps fähig laut Brian Karis (total ~4.5ms @ 1440p).
Aber: Bei Filmen kann man deutlich längere History-Buffer verwenden, wenn man will. Hat deutlich grosszügigere Time Budgets.
Wenn man es in Echtzeit mach, so wie alle aktuellen Fernseher hat man auch kein großartiges Zeitbudget zur Verfügung. Klar kann man sich, sofern es sich nicht um interaktives Material handelt Latenz erlauben, bei 60FPS kann man sich aber trotzdem nicht beliebig viel Zeit zum Upsampling genehmigen.
Offline Upscaler für Videos brauchen in der Regel ein vielfaches der Zeit des Videos und erreichen damit nicht mal ansatzweise die Qualität die beispielsweise DLSS erreicht, was sie auch nicht können, da DLSS eben echte Informationen intelligent verrechnet, während reine 2D-Upscaler mehr oder weniger nur "raten".
Hat fixed Framerates und nur geringe real-time Anforderungen. Und wie gesagt, typischerweise ist 1080p Filmmaterial hochwertiger als 1080p Material eines Spiels (Aliasing, Flimmern usw.).
Ganz im Gegenteil. Filmmaterial hat jede Menge Unzulänglichkeiten. Optiken und Sensoren/Film sind nicht perfekt und erzeugen jede Menge Unschärfe.
Dazu kommt das in der Regel nur ein Bruchteil des gesamten Bildes wirklich scharf ist, genau genommen sogar nur eine Ebene, und der Rest durch DoF mehr oder weniger unscharf wird.
3D-Renderings sind dagegen quasi Perfekt, da sie keine der Unzulänglichkeiten aufweisen wie sie in der Natur nun mal unvermeidbar sind.
Gerade diese "Inkonsistenzen" die es in Filmaufnahmen immer nimmt stören beim Upscaling ungemein.
Intelligentes Upscaling will ja Details erzeugen die im Ausgangsmaterial gar nicht vorhanden sind, dafür wären erstmal so viele Details wie möglich im Ausgangsmaterial wünschenswert, was eben nicht der Fall ist, da schon in der Kamera selbst jede Menge vernichtet wird. Und das nächste Problem ist, dass der Upscaler dann natürlich auch versucht dort Details zu erzeugen wo es gar nicht erwünscht wird, beispielsweise wenn bewusst mit geringem DoF gearbeitet wird, neigen Upscaler dazu auch im unscharfen Bereich Details zu erzeugen die dann ablenken.
gruntzmaker
2021-06-10, 13:58:11
https://www.eurogamer.net/articles/digitalfoundry-2021-weekly-god-of-war-gt7-crossgen-amd-fsr-doom-eternal-rt
Der Beurteilung von Alex Battaglia von Digital Foundry muss man schon irgendwo recht geben. FSR wird es imho nicht einmal gegen die jetzt schon bestehenden Softwarelösungen schaffen.
Da hat Epic zB Besseres im Angebot.
Open Source ist ohnehin immer ein Zeichen für eine geringere qualitative Einschätzung durch das jeweilige Unternehmen.
Meine optimistische Vermutung:
Ab Vollendung der Forschungsphase ist es Open Source, sobald man aber etwas aktivieren kann, dürfte AMD eher sein eigenes Süppchen kochen und dann hat FSR eben doch die eine oder andere Geheimzutat mehr als die Open Source Variante.
Realistisch gesehen, dürfte das aber erst mit RDNA3 eine Rolle spielen, wenn Hardwarekomponenten zusätzlich auch FSR besser aussehen lassen kann. Für RDNA2 wird es so kaum eine Rolle spielen. Aber immerhin ist es besser als nichts.
aufkrawall
2021-06-10, 14:18:33
Open Source ist ohnehin immer ein Zeichen für eine geringere qualitative Einschätzung durch das jeweilige Unternehmen.
Die Aussage ist in ihrem Absolutheitsanspruch echt mal harter Stuss.
=Floi=
2021-06-10, 15:37:13
AMD steht damit ja am anfang und man sollte wohl hier auch erstmal abwarten, wie es in 6-12 monaten aussieht. Eventuell profitieren die stärkeren karten besser davon.
aufkrawall
2021-06-10, 15:42:47
Der Performance-Gewinn steht doch gar nicht zur Debatte, auch auf alten GPUs dürfte die SuperRes-Bearbeitung nicht viel Leistung kosten (siehe UE5, ansonsten Fail).
Das angenommene Problem ist das Verfahren an sich. Kein temporales Upsampling = Müll.
ChaosTM
2021-06-10, 16:45:55
Solange es zumindest besser als Checkerboard (oder ähnlichem) Upscaling ist, wäre es schon ein Gewinn für mich. 😉
Dampf
2021-06-10, 17:08:54
Das kommt davon wenn man sich zu sehr auf alte Schinken fokusiert. Die hätten es exklusiv für RDNA2 machen und auf Machine Learning setzen sollen.
Tobalt
2021-06-10, 17:41:17
Bevor sie entscheiden ob NN oder nicht für die Interpolation, sollten sie vor allem erstmal temporale Daten *nutzen*
Platos
2021-06-10, 18:39:31
Das kommt davon wenn man sich zu sehr auf alte Schinken fokusiert. Die hätten es exklusiv für RDNA2 machen und auf Machine Learning setzen sollen.
Und was ändert RDNA 2 denn ?
Solange es zumindest besser als Checkerboard (oder ähnlichem) Upscaling ist, wäre es schon ein Gewinn für mich. 😉
Genau das ist allerdings zu bezweifeln.
Dampf
2021-06-10, 19:21:22
Und was ändert RDNA 2 denn ?
INT8 Instruktionen. Damit lassen sich neuronale Netze deutlich effizienter ausführen.
Κριός
2021-06-10, 19:24:52
Ich könnte Kotzen. Ich wette, die gesamte Industrie steigt jetzt wie sonst auch auf den AMD Zug und DLSS stirbt aus, wie vorher schon andere Nvidia Technologien die besser und überlegen waren.
Was bringt es einem immer die überlegene Tech zu kaufen, wenn sich das gute Zeug eh nie durchsetzt?
Das kommt davon wenn man sich zu sehr auf alte Schinken fokusiert. Die hätten es exklusiv für RDNA2 machen und auf Machine Learning setzen sollen.
AMD hat doch gar nicht das Knowhow dafür. Die machen halt ihren Shader Mist und setzen darauf das das Marketing und Konsolenkiddies den Unterschied eh nicht merken. Den meisten geht es doch eh nur um das Abhaken von Features.
TheAntitheist
2021-06-10, 20:35:44
AMD steht damit ja am anfang und man sollte wohl hier auch erstmal abwarten, wie es in 6-12 monaten aussieht. Eventuell profitieren die stärkeren karten besser davon.
kann man so oder so sehen, sie hängen mal wieder Jahre hinterher. Das Problem ist nur, DLSS gibt es jetzt seit über 2 Jahren auf dem Markt, also hatte AMD auch mindestens jene Zeit zur Verfügung, also so am Anfang stehen sie damit nicht.
Schlimmer ist noch, das sie ihre Lösung für Vorzeigbar halten. Offensichtlicherweise wissen Sie das ihr FSR Schrott ist, dennoch wollen sie damit flexen und Nvidia damit Einhalt gebieten. Die machen das nur damit die unwissenden denken das AMD etwas vergleichbares hat. Das war nur Marketing und mehr nicht, die haben da mit Sicherheit nicht viel Geld investiert, sonst wäre niemals so ein Schrott dabei rumgekommen. Bei RDNA3 kommen bestimmt auch Tensor Kerne und dann kommt was vergleichbares, oder man setzt direkt auf Epics Ansatz, der ja wirklich verdammt gut aussieht.
rentex
2021-06-10, 20:44:22
[QUOTE=Κριός;12704009]Ich könnte Kotzen. Ich wette, die gesamte Industrie steigt jetzt wie sonst auch auf den AMD Zug und DLSS stirbt aus, wie vorher schon andere Nvidia Technologien die besser und überlegen waren.
Was bringt es einem immer die überlegene Tech zu kaufen, wenn sich das gute Zeug eh nie durchsetzt?
Das kommt in der Tech Welt schon öfters vor, das eine "bessere" Technologie sich nicht durchsetzt.
Monsta
2021-06-10, 21:02:25
Ich könnte Kotzen. Ich wette, die gesamte Industrie steigt jetzt wie sonst auch auf den AMD Zug und DLSS stirbt aus, wie vorher schon andere Nvidia Technologien die besser und überlegen waren.
Was bringt es einem immer die überlegene Tech zu kaufen, wenn sich das gute Zeug eh nie durchsetzt?
AMD hat doch gar nicht das Knowhow dafür. Die machen halt ihren Shader Mist und setzen darauf das das Marketing und Konsolenkiddies den Unterschied eh nicht merken. Den meisten geht es doch eh nur um das Abhaken von Features.
Wenn der Nvidia Kram Open Source wäre würde das vielleicht anders aussehen, aber solange die Ihrem Kram alleine druchziehen und die Mehrheit der Spieler (Pc plus Konsolen) Amd Hardware nutzt geht sowas halt vieleicht nach hinten los.
INT8 Instruktionen. Damit lassen sich neuronale Netze deutlich effizienter ausführen.
Und was ändert das?
Ist ja nicht so dass die alte Hardware kein INT8 könnte, RDNA2 wär halt schneller.
Tobalt
2021-06-10, 21:59:53
Welche überlegene NV Tech wurde denn wegen einer schlechteren "AMD Tech" geopfert ? Ich kann mich gerade an kein bsp erinnern, wo es Mal eine richtig überlegene NV Tech gab, und sich dann Schrott durchgesetzt hat.
DLSS ist mEn. der erste solche Fall. Und ich Wette dass die Alternative FSR sich definitiv nicht durchsetzt. DLSS ist ein game changer und FSR nicht. Eine massiv verbesserte hypothetische Version von FSR vielleicht in Zukunft, aber auch nur wenn es ähnlich gut ist und noch andere Vorteile bietet wie opennsource oä
gruntzmaker
2021-06-10, 23:07:11
Welche überlegene NV Tech wurde denn wegen einer schlechteren "AMD Tech" geopfert ? Ich kann mich gerade an kein bsp erinnern, wo es Mal eine richtig überlegene NV Tech gab, und sich dann Schrott durchgesetzt hat.
DLSS ist mEn. der erste solche Fall. Und ich Wette dass die Alternative FSR sich definitiv nicht durchsetzt. DLSS ist ein game changer und FSR nicht. Eine massiv verbesserte hypothetische Version von FSR vielleicht in Zukunft, aber auch nur wenn es ähnlich gut ist und noch andere Vorteile bietet wie opennsource oä
Fsr ist für alle älteren Grafikkarten ja ebenfalls eine echte Verbesserung, keine Frage. Der Unterschied zwischen nichts und FSR eben. NVIDIA hat das Feld quasi kampflos aufgegeben.
DLSS 2.0 wird AMD qualitativ niemals schlagen können - das sollte klar sein.
aufkrawall
2021-06-10, 23:18:47
Fsr ist für alle älteren Grafikkarten ja ebenfalls eine echte Verbesserung, keine Frage. Der Unterschied zwischen nichts und FSR eben.
Was für ein "nichts"? Die Mehrheit der Spiele mit temporalem SSAA bietet entweder einen Resolution Scale Slider, oder versteckt etwa im Falle von Ubisoft Upsampling hinter niedrigen TAA-"Detailstufen".
Schon seit über fünf Jahren gibt es so etwas, etwa in Doom. Was für eine Unkenntnis hinsichtlich der Existenz temporalen Upsamplings herrscht, ist echt erstaunlich. :freak:
Tobalt
2021-06-11, 06:17:27
Ja und nicht-temporales upscaling gab's sogar schon immer. Das beherrscht jeder Monitor. CRT waren besonders gut darin. Zusammen mit dem Auge konnten CRT sogar temporales Upsampling (deinterlacing).
Also das Fazit, dass 'FSR besser als nichts' ist, würde ich auch nicht unterschreiben wollen .
arcanum
2021-06-11, 11:41:20
ich bin auch kein fan von DLSS 1.0 aber DLSS 2.x hat sich mit der breiten unterstützung der großen engines etabliert. zudem kriegen große titel eine nachträgliche unterstützung - RDR2 und selbst ID-tech titel.
sollte die switch pro tatsächlich auch noch DLSS unterstützen, ist die technologie als standard gesetzt. FSR wird nebenher existieren und wahrscheinlich besser werden aber DLSS ist gekommen um zu bleiben und wird im laufe der zeit ebenfalls besser werden.
ChaosTM
2021-06-11, 11:44:41
Deshalb wäre es doppelt wichtig, das FSR gut wird. Proprietär ist niemals gut.
Hmm, das wird wieder wie der Kampf VHS vs. Beta und HDDVD vs. Bluray. Die Industrie entscheidet. Naja, mal sehen, wer bessere (finanzielle) Karten einsetzt.
arcanum
2021-06-11, 11:50:24
Deshalb wäre es doppelt wichtig, das FSR gut wird. Proprietär ist niemals gut.
mich stört es in dem fall nicht und warum: weil es keine übergreifende lösung gab und DLSS eine ergänzung ist. hier wird geredet als ob nvidia die wasserversorgung in deutschland aufgekauft hätte und nicht als ob sie lange vor der konkurrenz einen mehrwert geliefert hätten.
DrFreaK666
2021-06-11, 11:59:18
Hmm, das wird wieder wie der Kampf VHS vs. Beta und HDDVD vs. Bluray. Die Industrie entscheidet. Naja, mal sehen, wer bessere (finanzielle) Karten einsetzt.
Wenn Disney sagt dass sie FSR unterstützen, dann hat DLSS verloren :ugly:
edit: in 11 tagen wissen wir mehr. Ich hoffe es wird mindestens eine Alternative zu DLSS-Balanced und -Performance
Tobalt
2021-06-11, 12:39:48
Es gibt doch zwei Fakten:
1) DLSS in der aktuellen geschlossenen Blackbox Form wird sich niemals *etablieren*. Dafür ist die Tech nicht unnachahmbar genug
2) FSR in der aktuellen (gezeigten) Form ist veraltete und sinnlose Technik, die niemand gebrauchen kann
Es gibt also dementsprechend 2 Optionen, wie sich eine Technik etabliert, nämlich in dem Sie den Hinderungsgrund abstellt:
1) DLSS wird open source nutzbar. Falls dafür aktuell Lizenzkosten an nV abfließen (?), muss auch das weg
2) Jemand anderes macht einen gescheiten temporalen Upsampler nach dem Vorbild von DLSS. Das dies geht, haben ja diverse Forschergruppen gezeigt, so wie ich das mitbekommen habe. Es ist ja nicht so kompliziert: TAA mit bischen NN Entscheidungshilfe bezgl. der zu verwendenden temporalen Daten.
Ich vermute es wird wie in der Vergangenheit immer bei guter nV Tech laufen: nV bewegt sich erst keinen Meter. Dann kommt eine offene konkurrenzfähige Technik (FSR ist dies aktuell nicht). Dann macht nV salamischeibchenweise Zugeständnisse. Dann öffnet nV irgendwann komplett, bezeichnet aber auch den offenen Standard mit dem nV Sprech.
Davon abgesehen ist natürlich auch DLSS nicht unübertreffbar: Auch mit DLSS 2 werden immer noch Millionen Pixel zum gleichen Szenen-Zeitpunkt (Frame) gerendert, was extrem suboptimal ist aus Sicht von spatiotemporaler Abtastung der Szene. Optimal wäre, wenn gerade soviele Pixel/Tiles gleichzeitig gerendert werden, wie es zur Auslastung der Render Hardware benötigt. Bei Software-RT in Renderprogrammen werden die Pixel einzeln geredendert und füllen nach und nach die Szene. In Bewegung wirkt das ohne temporale Interpolation natürlich wie Schrott. Aber mit temporaler Interpolation ließe sich ein besseres Ergebnis als DLSS 2 erreichen bei gleicher Pixelzahl/Sekunde. Außerdem hätte man immer soviele FPS wie die CPU rausprügeln kann. Dafür braucht es aber noch mehr Fokus auf Low Precision Einheiten in GPUs, damit die etwas komplexere Interpolations dann in wenigen Millisekunden durchlaufen kann.
DLSS liegt aktuell aber nahe am Sweetspot, weil Highend-Grakas eben auch bei 100-200 Hz noch mehrere Megapixel/Frame oder mehr rendern können. In Zukunft wird es aber mehr Sinn machen und viel effizienter sein die Interpolation Hardware zu erhöhen, und die Pixelzahl pro Render nicht weiter zu erhöhen. Ich hoffe, dass sich die Grakas dahingehend entwickeln.
Dampf
2021-06-11, 12:50:02
Wenn DLSS Open-Source wird, können es trotzdem nur RTX GPUs ordnungsgemäß ausführen. Den anderen fehlt die Compute-Leistung. Den Sinn sehe ich da also nicht.
Bedenkt, dass eine 2080Ti rund 100 TFLOPS FP16 compute leistung durch die Tensor Cores alleine bringt. Eine ganze RX 6800XT GPU bringt es auf 41 TFLOPS.
Anders sieht es aus wenn RDNA3 auch ML-Beschleuniger mitbringt.
Tobalt
2021-06-11, 13:03:39
Dampf, wenn DLSS ein Standard werden sollte ( weil Open Source), dann ist dies natürlich damit verbunden dass andere GPU Hersteller auch entsprechende Einheiten haben.
Außerdem ist ja nicht gesagt, dass in Open Source Form dann FP16 vorgeschrieben werden würde. Man kann auch mit anderen Formaten NN bauen. Direct X schreibt ja auch nicht vor, wieviele Einheiten welchen Typs eine Graka haben muss.
Sobald NV keine Tensorkerne mehr verbaut, ist DLSS in der Form tot.
NVs Vorteil kommt nur von den Tensorkernen.
Und wer glaubt, das uns die "Profikerne" im Gaming erhalten bleiben?
M.f.G. JVC
Tobalt
2021-06-11, 13:17:47
Profis gibt es in unterschiedlichen Branchen. Und alle brauchen unterscheidliche Einheiten. Von was sprichst du also ?
Low Precision Einheiten werden dem Gamer natürlich nicht nur erhalten bleiben, sondern werden künftig immer mehr an Bedeutung zulegen. Große Sprünge in der Grafik sind nur möglich wenn man das Brechstangenrendering aufgibt. Den Trend dazu gibt es ja schon viele Jahre, nur ist halt DLSS2 ein größerer Schritt gewesen. MSAA war auch so eine Technik.. oder das Nichtrendern von unsichtbaren Dreiecken ;)
aufkrawall
2021-06-11, 13:23:01
Sobald NV keine Tensorkerne mehr verbaut, ist DLSS in der Form tot.
Doof nur, dass die aktuelle TC-Performance für diesen isolierten Einsatzzweck schon ausreicht und der Die-Anteil bei Shrinks immer geringer wird. Was nicht heißt, dass sie sie nicht trotzdem noch ausbauen, weil sie womöglich noch andere Pläne haben (Denoising...).
NVs Vorteil kommt nur von den Tensorkernen.
Nein. Nvidias Vorteil kommt in erster Linie daher, dass jemand mit Grips die richtige Entscheidung getroffen hat, für 2.0 auf temporales Upsampling zu setzen und den alten Ansatz in die Tonne zu treten.
Umgekehrt hat jemand bei AMD offenbar riesigen Mist verzapft, jetzt noch auf gammeliges Upscaling ohne temporale Komponente zu setzen. Wenn es am 22. wirklich so eintrifft wie anzunehmen, sollte die verantwortliche Person dafür gefeuert werden. Dieser Fehler kann sich noch als richtig unternehmensschädigende Entscheidung herausstellen...
Nein. Nvidias Vorteil kommt in erster Linie daher, dass jemand mit Grips die richtige Entscheidung getroffen hat, für 2.0 auf temporales Upsampling zu setzen und den alten Ansatz in die Tonne zu treten.
Ok, wusste nicht das die Tensorkerne jetzt zu Garnichts mehr gut sind...
Oder verstehe ich dich da Mist?
M.f.G. JVC
aufkrawall
2021-06-11, 13:30:32
Ok, wusste nicht das die Tensorkerne jetzt zu Garnichts mehr gut sind...
Oder verstehe ich dich da Mist?
Die TCs werden immer noch genutzt, mit 2.0 halt für temporale Rekonstruktion anstatt fürs Aufpumpen eines fertigen Frames.
Vermutlich etwas arg vereinfacht, aber dürfte hinhauen.
Wenn DLSS Open-Source wird, können es trotzdem nur RTX GPUs ordnungsgemäß ausführen. Den anderen fehlt die Compute-Leistung. Den Sinn sehe ich da also nicht.
Bedenkt, dass eine 2080Ti rund 100 TFLOPS FP16 compute leistung durch die Tensor Cores alleine bringt. Eine ganze RX 6800XT GPU bringt es auf 41 TFLOPS.
Anders sieht es aus wenn RDNA3 auch ML-Beschleuniger mitbringt.
Das stimmt nicht. DLSS2 lief zuerst auch nur über die Shader und das ging problemlos. Das Upgrade über die Tensor-Cores kam erst später IIRC.
Klar entlasten die Tensor-Kerne die Shader, aber das wird den Bock nicht wirklich fett machen. Die AMDs würden das jedenfalls problemlos packen.
OK danke :) also doch über die Tensorkerne.
Naja, wir werden sehen ob DLSS gekommen ist um zu bleiben...
M.f.G. JVC
aufkrawall
2021-06-11, 13:37:15
Das stimmt nicht. DLSS2 lief zuerst auch nur über die Shader und das ging problemlos. Das Upgrade über die Tensor-Cores kam erst später IIRC.
Klar entlasten die Tensor-Kerne die Shader, aber das wird den Bock nicht wirklich fett machen.
Da hießt es noch "1.9" (in Control, bevor es durch 2.0 ersetzt wurde). Es sah schon etwas schlechter aus, aber ja: Das SR der UE5 zeigt ja auch, dass man auch mit bislang für GPUs typischen Rechenformaten noch eine ganze Menge reißen kann. Wobei die Linienkonstruktion von DLSS 2.0 schon der DL-Magie geschuldet sein wird und man das wohl bisher noch nicht performant auf GPUs abseits der TCs zumindest noch nicht demonstriert hat.
Dampf
2021-06-11, 14:01:25
Das stimmt nicht. DLSS2 lief zuerst auch nur über die Shader und das ging problemlos. Das Upgrade über die Tensor-Cores kam erst später IIRC.
Klar entlasten die Tensor-Kerne die Shader, aber das wird den Bock nicht wirklich fett machen. Die AMDs würden das jedenfalls problemlos packen.
Wie Krawall schon sagte war das DLSS 1.9 und das sah schon deutlich schlechter aus. Aber immer noch FSR deutlich überlegen, insgesamt betrachtet sah es schon ganz gut aus.
Aber natürlich würde DLSS 2.0 auch auf AMD Hardware laufen, dann würde es aber keine so großen Performance-Boosts geben, denn die Compute-Arbeit wird von den TCs getan die deutlich mehr Compute Power als Shader Cores haben.
Ich bin mir nicht mal sicher, ob DLSS 1.9 nicht doch zumindest von den Tensor Cores beschleunigt wurde. Als ich 2019 nSight ausführte, hab ich gesehen, dass bei DLSS 1.9 die Tensor Pipeline genutzt wurde.
Anfang 2020 (kurz vor dem DLSS-2.0-Reveal) sprach Nvidia im Kontext Control, Deliver Us The Moon und Wolfenstein Youngblood definitiv von Tensor Cores. 110 TFLOPS, geil und so. Insofern ist davon auszugehen, dass diese Iteration bereits TC Acceleration hatte.
MfG
Raff
Sorry, aber Nvidia als Quelle? Die sprachen doch bei dlss grundsätzlich von tc, dlss war ja das Argument für die tc und zwar schon bei dlss 1.0.
Also Nvidia als Quelle? Nee.
Und wer glaubt, das uns die "Profikerne" im Gaming erhalten bleiben?
Das sind lange keine "Profikerne" mehr. Fast jedes neue Smartphone hat irgendwas Richtung Tensorcores. Die eigentliche Frage ist, wer überhaupt glaubt, dass irgendeine GPU/CPU mittelfristig nicht etwas ähnliches anbietet?
Ja, Nvidia als Quelle. Die geben Reviewern auf Nachfrage auch Informationen zu Caches heraus, nur ein Beispiel. Um alle Zweifel zu beseitigen, kann ja mal jemand mit Langeweile nSight anwerfen.
MfG
Raff
Das stimmt nicht. DLSS2 lief zuerst auch nur über die Shader und das ging problemlos.
Das ist nicht so ganz klar, es gab zwar einige die das behauptet haben aber niemals einen eindeutigen Beweis.
NSight hat mit dem alten Control auf jeden Fall Tensor/FP-Usage angezeigt, wobei das natürlich kein Beweis ist, dass es für DLSS verwendet wurde.
Achill
2021-06-11, 16:01:09
Ja, Nvidia als Quelle. Die geben Reviewern auf Nachfrage auch Informationen zu Caches heraus, nur ein Beispiel. Um alle Zweifel zu beseitigen, kann ja mal jemand mit Langeweile nSight anwerfen.
MfG
Raff
Dafür braucht man ein Stand des Spiels von Anfang 2020 (aus einem Backup). Und selbst dann würde es nur die Frage beantworten, ob es schon damals über TC lief oder nicht. Es ist m.E. den Aufwand nicht Wert, es würde nichts ändern noch würde NV DLSS mit einer alternativen Implementierung für seine älteren GPUs sowie die von AMD + Intel verfügbar machen.
Wie Krawall schon sagte war das DLSS 1.9 und das sah schon deutlich schlechter aus. Aber immer noch FSR deutlich überlegen, insgesamt betrachtet sah es schon ganz gut aus.
Aber natürlich würde DLSS 2.0 auch auf AMD Hardware laufen, dann würde es aber keine so großen Performance-Boosts geben, denn die Compute-Arbeit wird von den TCs getan die deutlich mehr Compute Power als Shader Cores haben.
Ich bin mir nicht mal sicher, ob DLSS 1.9 nicht doch zumindest von den Tensor Cores beschleunigt wurde. Als ich 2019 nSight ausführte, hab ich gesehen, dass bei DLSS 1.9 die Tensor Pipeline genutzt wurde.
Typisch Dampf, es werden verschiedenste Aussagen gemixt um spekulative (ich möchte ja nicht falsche schreiben, da bis jetzt nicht beweisbar/verifizierbar) Argumentationsketten einen möglichst faktischen Anschein zu geben.
- FSR ist noch nicht released, unabhängig von der Tatsache das es nach jetzigen Wissen keine temp. Komponente nutzt, wissen wir noch nicht wie es in verschieden Spielen aussehen wird. Ja es gibt ein Video, aber wenn man sich das Video mit dem Split-Screen anschaut, sieht man die LOD Sprünge der Engine zu unterschiedlichen Zeitpunkten im Video passieren und insb. die "berühmte" und geteilte Stelle ist solcher Fall ist. Wenn es ein Fail wird, zerreißt es doch dann, aber müllt doch nicht ein Thread im Technologie-Teil voll ohne wirkliche Grundlagen.
- Das TC optimiert für das Teilgebiet der Inference genutzt werden kann, bestreitet niemand. Es gibt jedoch keine Grundlage für eine Argumentation, ob z.B. ein Umsetzung dieser Operationen mittels async. Shader auf (zumindest so oft genannter nicht ausgelasteter) HW-Einheiten der Konkurrenz wirklich so viel Performance kosten würde. Zumal m.W.n. TC nicht parallel zu Shader laufen kann.
Sumpfmolch
2021-06-11, 16:27:26
Ist eigentlich inzwischen klar, ob das jetzt implementierte FSR auf dem "Gaming Super Resulution" Patent von AMD aufbauen wird?
https://uspto.report/patent/app/20210150669
"Conventional super-resolution techniques include a variety of conventional neural network architectures which perform super-resolution by upscaling images using linear functions. These linear functions do not, however, utilize the advantages of other types of information (e.g., non-linear information), which typically results in blurry and/or corrupted images. In addition, conventional neural network architectures are generalizable and trained to operate without significant knowledge of an immediate problem. Other conventional super-resolution techniques use deep learning approaches. The deep learning techniques do not, however, incorporate important aspects of the original image, resulting in lost color and lost detail information.
[...]
The devices and methods include a gaming super resolution (GSR) network architecture which efficiently super resolves images in a convolutional and generalizable manner. The GSR architecture employs image condensation and a combination of linear and nonlinear operations to accelerate the process to gaming viable levels. GSR renders images at a low quality scale to create high quality image approximations and achieve high framerates. High quality reference images are approximated by applying a specific configuration of convolutional layers and activation functions to a low quality reference image. The GSR network approximates more generalized problems more accurately and efficiently than conventional super resolution techniques by training the weights of the convolutional layers with a corpus of images."
TC nicht parallel zu Shader laufen kann.
Natürlich können sie das, ansonsten wären sie ja sinnlos.
Bei Ampere kann sogar alles parallel laufen, bei Turing nur 2 aus 3 (INT/FP32, RT, Tensor/FP16)
Tobalt
2021-06-11, 20:10:50
was da steht, ist ja effektiv DLSS 1 mit jeder menge buzzwort geblubber.
Man hat ja gesehen wie "toll" das war.
Sumpfmolch
2021-06-11, 21:40:38
Ich warte erst mal ab, was dann am 22. wirklich da ist. Gibt es eine Liste für welche Spiele es am Anfang verfügbar sein wird? Soweit ich AMD verstanden habe, kann FSR zwar generell funktionieren, jedoch ist es für ein optimales Bild notwendig für jedes Spiel eine optimale Gewichtung der verschiedenen Bildlayer festzulegen.
https://images.hothardware.com/contentimages/newsitem/55150/content/small_amd_patent.jpg
Soweit ich AMD verstanden habe, kann FSR zwar generell funktionieren, jedoch ist es für ein optimales Bild notwendig für jedes Spiel eine optimale Gewichtung der verschiedenen Bildlayer festzulegen.
FSR wird eine Integration der Entwickler benötigen, automatisch geht gar nichts.
Eine spezielle Anpassung pro Spiel ist nicht notwendig.
Sumpfmolch
2021-06-12, 23:00:46
FSR wird eine Integration der Entwickler benötigen, automatisch geht gar nichts.
Eine spezielle Anpassung pro Spiel ist nicht notwendig.
Ich dachte da an die Aussage im Patent, dass die Gewichtung der einzelnen Layer eben trainiert wird. Das könnte ja spielspezifisch sein...
"The GSR network approximates more generalized problems more accurately and efficiently than conventional super resolution techniques by training the weights of the convolutional layers with a corpus of images."
edit: AMD sagt selbst, dass nicht jedes Spiel angelernt werden muss.
TheAntitheist
2021-06-13, 16:10:35
Anfang 2020 (kurz vor dem DLSS-2.0-Reveal) sprach Nvidia im Kontext Control, Deliver Us The Moon und Wolfenstein Youngblood definitiv von Tensor Cores. 110 TFLOPS, geil und so. Insofern ist davon auszugehen, dass diese Iteration bereits TC Acceleration hatte.
MfG
Raff
da gabs ein update für, das die tensor kerne gleichzeitig laufen und nicht erst am ende des frames. Das konnte die Turing architectur nicht, ampere kann es aber.
€dit: hat ein Gast schon auf der letzten Seite geschrieben
Ich dachte da an die Aussage im Patent, dass die Gewichtung der einzelnen Layer eben trainiert wird. Das könnte ja spielspezifisch sein...
"The GSR network approximates more generalized problems more accurately and efficiently than conventional super resolution techniques by training the weights of the convolutional layers with a corpus of images."
edit: AMD sagt selbst, dass nicht jedes Spiel angelernt werden muss.
Ja und? Trotzdem muss es vom Entwickler integriert werden.
da gabs ein update für, das die tensor kerne gleichzeitig laufen und nicht erst am ende des frames. Das konnte die Turing architectur nicht, ampere kann es aber.
Tensor-Cores können auch in Turing parallel laufen.
Allerdings immer nur 2 aus 3 von RT + Tensor/FP16, + FP32/INT32.
Bei Ampere kann alles 3 parallel laufen.
mboeller
2021-06-14, 08:16:24
https://images.hothardware.com/contentimages/newsitem/55150/content/small_amd_patent.jpg
das 2. Bild findet man im PDF hier wieder:
https://arxiv.org/abs/1609.05158
und sie haben anscheinend diese GPU (im Text: K2-GPU) benutzt:
https://www.techpowerup.com/gpu-specs/grid-k2.c1700
Nazar
2021-06-14, 14:13:03
Welche überlegene NV Tech wurde denn wegen einer schlechteren "AMD Tech" geopfert ? Ich kann mich gerade an kein bsp erinnern, wo es Mal eine richtig überlegene NV Tech gab, und sich dann Schrott durchgesetzt hat.
DLSS ist mEn. der erste solche Fall. Und ich Wette dass die Alternative FSR sich definitiv nicht durchsetzt. DLSS ist ein game changer und FSR nicht. Eine massiv verbesserte hypothetische Version von FSR vielleicht in Zukunft, aber auch nur wenn es ähnlich gut ist und noch andere Vorteile bietet wie opennsource oä
Könntest du auch belegen, warum das so ist oder im Fall von FSR, nicht so ist?
Du haust ganz schön auf die Kacke, ohne auch nur ein Stück davon zu belegen, bzw. belegen zu können.
Ich könnte Kotzen. Ich wette, die gesamte Industrie steigt jetzt wie sonst auch auf den AMD Zug und DLSS stirbt aus, wie vorher schon andere Nvidia Technologien die besser und überlegen waren.
Was bringt es einem immer die überlegene Tech zu kaufen, wenn sich das gute Zeug eh nie durchsetzt?
AMD hat doch gar nicht das Knowhow dafür. Die machen halt ihren Shader Mist und setzen darauf das das Marketing und Konsolenkiddies den Unterschied eh nicht merken. Den meisten geht es doch eh nur um das Abhaken von Features.
Jede Technologie, die geschlossen Entwickelt wurde aber einen freien Markt bedienen wollte, ist gescheitert. Leider ist nV Spezialist dafür Dinge zu Entwickeln, die einzig und alleine dazu dienen sollen eine Monopolstellung zu erzielen. Leider hat nV genügend Kapital, um an dieser Idiotie festzuhalten.
Eines muss man aber nV lassen. Sie schaffen es immer wieder die Presse so zu vereinnahmen, dass diese immer wieder anfängt tote Pferde zu reiten, nur um dann, kurz vor Schluss, zu schreiben: "Das war klar, dass das nichts werden konnte."
Solange es 2 Bewerber auf dem GPU Markt gibt (ich hoffe, dass noch mehr dazukommen und es nie ein Monopol geben wird), sind alle geschlossenen Entwicklungen zum Scheitern verurteilt. AMD hat nV nun so oft in den von nV selbst entblößten Unterleib getreten, dass aus dem Kerl (nV) doch mindestens ein Eunuche geworden sein muss. Egal ob PhysX, G-Sync, Tensor Cores oder DLSS, allesamt sind vom Start an zum Scheitern verurteilt gewesen. Und nV hat auch einen wesentlichen Anteil daran, dass sich die offen Entwicklungen verzögern, da sie zwar mit in den Gremien sitzen aber, anstatt mit an den offenen Standards zu arbeiten, lieber ihr eigens Süppchen kochen und sich später ins gemachte Nest setzen (G-Sync -> Freesync). Ohne Freesync, dessen Entwicklung im Wesentliche AMD vorangetrieben hat, wäre G-Sync schon längst vom Markt verschwunden oder wie war noch mal die Aussage von nV ganz zu Anfang: "Es gibt keine Kompatibilität von G-Sync GPUs und Freesync Monitoren."
Es ist so wunderbar, dass man das Internet einfach so durchsuchen kann, um nV seine Verlogenheit bei jedem der von mir genannten Punkte unter die Nase reiben zu können.
nV entwickelt etwas auf eigene Faust und man kann sofort sagen, dass sie lügen werden. Das ist schon zu einem Naturgesetz geworden!
robbitop
2021-06-14, 14:27:36
Die Indizien lassen es leider so aussehen (dass DLSS 2.x das deutlich überlegene Verfahren in Bezug auf BQ ist) - aber ja wir müssen abwarten. :)
Tobalt
2021-06-14, 17:25:20
@Nazar: wenn ich schreibe "ich Wette" dann ist doch implizit, dass die Aussage anfechtbar ist?! du kannst das ja auch gern tun. für mich ist eben aufgrund der vorgezeigten Demos leider jede Vorfreude verflogen. da sieht FSR gleichwertig mit bspw. Monitor Upscaling aus und das hat sich nun auch nicht gerade durchgesetzt.
DrFreaK666
2021-06-14, 20:45:57
Wenn FSR kein besseres P/L-Verhältnis (bzw. BQ-Verlust/Leistungs-gewinn Verhältnis) hat, dann kann man FSR 1.0 wohl vergessen und überspringen
aufkrawall
2021-06-14, 20:51:15
Mit etwas Pech nicht, wenn es temporales Upsampling in manchen Spielen ersetzen sollte.
TheAntitheist
2021-06-14, 22:06:49
Jede Technologie, die geschlossen Entwickelt wurde aber einen freien Markt bedienen wollte, ist gescheitert. Leider ist nV Spezialist dafür Dinge zu Entwickeln, die einzig und alleine dazu dienen sollen eine Monopolstellung zu erzielen.
Naja ist schon viel Quatsch aber nun gut.
Cuda ist sehr erfolgreich, x86 ist glaub ich gehört zu haben auch ein Erfolg geworden.
Hätte Nvidia Gsync nicht auf den Markt gebracht, dann hätte es gar kein Freesync gegeben.
Ich hab selbst einen Freesync Monitor (ASUS ROG Strix XG27WQ) und das Freesync in dem ist Schrott...
Es flackert bei niedrigen Framerates und das passiert leider oft in Blender. Dabei senkt der Monitor die Helligkeit anstatt die frames zu doublen/trippeln etc.
Es ist eben so das Opensource lange Zeit nicht erfolgreich war. auch iOS und Windows sinds nicht und dennoch die Erfolgreichsten OS.
DCC softwares? Maya Max Houdini am erfolgreichsten und nicht Blender (was ich selbst nutze)
AMD wird doch dazu genötigt alles open source zu machen weil sie selbst nichts neues bringen wie DLSS oder Raytracing. Wann hat AMD zuletzt eine Innovation gebracht? Bei den CPUs mit den Chiplets joa, ist das OpenSource?
vllt ein schlechtes Beispiel aber sonst waren sie nicht gerade Erfolgreich also fällt mir sonst nix ein.
/Locutus oB
2021-06-14, 22:53:00
AMD64 / x64
Wie meinst du "x86 glaub ich gehört zu haben auch ein Erfolg geworden." ? Ist von Intel/AMD...
Ich finde nicht das AMD nicht Innovativ ist. Vielleicht nicht so wie Nvida im GPU Bereich aber AMD macht ja auch noch andere Sachen und hat leider auch nicht so viel Geld zur Verfügung.
Blediator16
2021-06-14, 23:20:52
Naja ist schon viel Quatsch aber nun gut.
Cuda ist sehr erfolgreich, x86 ist glaub ich gehört zu haben auch ein Erfolg geworden.
Hätte Nvidia Gsync nicht auf den Markt gebracht, dann hätte es gar kein Freesync gegeben.
Ich hab selbst einen Freesync Monitor (ASUS ROG Strix XG27WQ) und das Freesync in dem ist Schrott...
Es flackert bei niedrigen Framerates und das passiert leider oft in Blender. Dabei senkt der Monitor die Helligkeit anstatt die frames zu doublen/trippeln etc.
Es ist eben so das Opensource lange Zeit nicht erfolgreich war. auch iOS und Windows sinds nicht und dennoch die Erfolgreichsten OS.
DCC softwares? Maya Max Houdini am erfolgreichsten und nicht Blender (was ich selbst nutze)
AMD wird doch dazu genötigt alles open source zu machen weil sie selbst nichts neues bringen wie DLSS oder Raytracing. Wann hat AMD zuletzt eine Innovation gebracht? Bei den CPUs mit den Chiplets joa, ist das OpenSource?
vllt ein schlechtes Beispiel aber sonst waren sie nicht gerade Erfolgreich also fällt mir sonst nix ein.
Mantle und der Rattenschwanz.
TheAntitheist
2021-06-15, 00:32:30
AMD64 / x64
Wie meinst du "x86 glaub ich gehört zu haben auch ein Erfolg geworden." ? Ist von Intel/AMD...
Ich finde nicht das AMD nicht Innovativ ist. Vielleicht nicht so wie Nvida im GPU Bereich aber AMD macht ja auch noch andere Sachen und hat leider auch nicht so viel Geld zur Verfügung.
x86 ist von Intel und nicht AMD, AMD lizenziert den Befehlssatz.
Aber Blediator16 hat recht, das letzte war Mantle (Vulkan). Ja DAS war was großes, LEIDER ist aber D3D12 wieder viel erfolgreicher. Daran sieht man wieder das auch Proprietär oft erfolgreicher ist.
Versteht mich nicht falsch, natürlich wäre alles Open Source besser, aber wenn man viel Geld in etwas investiert hat, muss eine Firma damit auch erst einmal Geld machen also verstehe ich auch diesen Ansatz. Und Nvidia ist nicht nur durch Marketing viel größer als AMD geworden. Die sind zuerst ins ML gegangen, zu den Wissenschaftlern und auch Ärzten um Produkte zu entwerfen.
Open Source werden Firmen nahezu immer nutzen, wenn sie nicht der Technologieführer sind. Wäre AMD dies, würde sich das aber zu 100% ändern.
Szudri
2021-06-15, 07:50:40
x86 ist von Intel und nicht AMD, AMD lizenziert den Befehlssatz.
Aber Blediator16 hat recht, das letzte war Mantle (Vulkan). Ja DAS war was großes, LEIDER ist aber D3D12 wieder viel erfolgreicher. Daran sieht man wieder das auch Proprietär oft erfolgreicher ist.
Versteht mich nicht falsch, natürlich wäre alles Open Source besser, aber wenn man viel Geld in etwas investiert hat, muss eine Firma damit auch erst einmal Geld machen also verstehe ich auch diesen Ansatz. Und Nvidia ist nicht nur durch Marketing viel größer als AMD geworden. Die sind zuerst ins ML gegangen, zu den Wissenschaftlern und auch Ärzten um Produkte zu entwerfen.
Open Source werden Firmen nahezu immer nutzen, wenn sie nicht der Technologieführer sind. Wäre AMD dies, würde sich das aber zu 100% ändern.
Mantle ist auch in DX12 aufgegangen...
CUDA ist doch nicht mit proprietären Dx-Technologien vergleichbar :freak:
Mantle ist auch in DX12 aufgegangen...
Nicht wirklich, es ist eher ein Vorläufer von Vulkan.
TheAntitheist
2021-06-15, 15:30:52
CUDA ist doch nicht mit proprietären Dx-Technologien vergleichbar :freak:
er meinte das allgemein opensource am Ende sich immer gegen Proprietäre Technologie durchsetzt.
War nur ein Beispiel wo es nicht so ist, OpenCL vs Cuda e.g.
TheAntitheist
2021-06-15, 15:31:24
Mantle ist auch in DX12 aufgegangen...
nö in Vulkan oO
aufkrawall
2021-06-15, 15:37:22
Leider bestätigt AMD selbst Nvidias Strategie und Gebaren komplett, wenn FSR der befürchtete Komplett-Flop wird. Sie haben sich nun wirklich lange genug Zeit gelassen, da kann man nicht 1,5 Jahre nach DLSS 2.0 so einen Müll bringen. Ist mir dann auch völlig egal, dass es eine Blackbox mit Vendor-Lock ist. Man sollte geduldige Kunden nicht derart enttäuschen, das kann sich übel rächen...
er meinte das allgemein opensource am Ende sich immer gegen Proprietäre Technologie durchsetzt.
War nur ein Beispiel wo es nicht so ist, OpenCL vs Cuda e.g.
Das ist trotzdem was völlig anderes. Im API-Universum hat sich bisher keine einzige prorietäre Technolgie durchgesetzt, die nicht von Microsoft kam oder durch Microsoft standardisiert wurde (S3TC z.B.). CUDA ist halt ne API, die sehr effektiv ist und ganze Industrieteile an sich bindet. Das kann man nicht vergleichen.
Leider bestätigt AMD selbst Nvidias Strategie und Gebaren komplett, wenn FSR der befürchtete Komplett-Flop wird. Sie haben sich nun wirklich lange genug Zeit gelassen, da kann man nicht 1,5 Jahre nach DLSS 2.0 so einen Müll bringen. Ist mir dann auch völlig egal, dass es eine Blackbox mit Vendor-Lock ist. Man sollte geduldige Kunden nicht derart enttäuschen, das kann sich übel rächen...
Ist egal, wie toll das letztendlich wird. Ich denke mal, es wird schon schlechter als DLSS, aber es wird reichen, dann ist das durch, denn dann wirde das von der XBox in jedes PC-Spiel durchgereicht. DLSS wirds dann nur bei NV-Support weiterhin geben. NV wäre echt gut bedient gewesen, DLSS an Microsoft abzugeben, denn dann hätte man auch durch die eigene Hardware im beschränkten Maße davon profitieren können. Jetzt aber sorgt die total restriktive Politik dafür, dass sich der schlechtere Standard durchsetzt und NV hat evtl. echt wenig davon. Ich denke mal, dass NV DLSS erst öffnet, wenn es bereits zu spät ist und es ein FSR 2.0 mit evtl. temporaler Komponente gibt.
aufkrawall
2021-06-15, 15:57:35
Warum sollten Entwickler an FSR interessiert sein, falls es nicht die Bohne taugt? Und NV wird DLSS weiterhin aggressiv promoten. Ist auch immer eine gute Werbung für ein Spiel, wenn es DLSS unterstützt, weil es die zumindest informierten NV-Kunden auch erwarten.
TheAntitheist
2021-06-15, 16:13:44
Glide hat sich eine Zeit lang sehr wohl gegen DX durchgesetzt...
Brillus
2021-06-15, 17:06:59
In den meisten Fällen setzt sich eher der Standard der entweder einfacher zu verwenden oder billiger ist. Und da sehe ich AMD im Vorteil, schon einfach da für Konsolen die Arbeit sowieso gemacht wird.
Geh davon aus das es ähnlich endet wie GSync NV wird noch paar Jahre strappeln und dann effeltiv es aufgeben ohne es so zu nennen.
DrFreaK666
2021-06-15, 17:15:17
Glide hat sich eine Zeit lang sehr wohl gegen DX durchgesetzt...
Weil DX am Anfang Müll war
Glide hat sich eine Zeit lang sehr wohl gegen DX durchgesetzt...
Glide war nur ein Subset von OpenGL.
In den meisten Fällen setzt sich eher der Standard der entweder einfacher zu verwenden oder billiger ist. Und da sehe ich AMD im Vorteil, schon einfach da für Konsolen die Arbeit sowieso gemacht wird.
Was wir bisher gesehen haben sieht FSR nicht besser aus als die schon in den bisherigen Engines integrierten upsampling Technologien.
Insofern sehe ich kaum einen Anwendungsfall.
Alle Spiele die eine der großen Engines verwenden haben schon was mindestens gleichwertiges verfügbar, und wenn man was besseres will nimmt man eben DLSS.
Bleibt als einziger Anwendungsfall die quasi nicht existente Spezies die unbedingt eine eigene Engine entwickeln wollen und dabei kaum Budget zur Verfügung haben.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.