PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMDs FidelityFX Super Resolution (FSR)


Seiten : 1 2 3 4 5 [6] 7 8 9

DrFreaK666
2021-07-31, 21:12:06
FSR @Linux
ytGR7JKYhL8

kJDzkSOc8sc

hmmm
2021-08-02, 07:54:42
Noch ein Test, FSR erstaunlich gut.

https://www.igorslab.de/nvidia-dlss-und-amd-fsr/

why_me
2021-08-02, 10:46:37
Schade, dass nur ein Spiel getestet wurde, aber auch verständlich, kostet sehr viel zeit.

Leider wie so vieles Geschmackssache und stark von der implementierung der einzelnen Entwickler des jeweiligen Spiels abhängig. Ist das TAA grütze, kann FSR nicht zaubern, wird die Schärfe von FSR nicht richtig eingestellt,... wurde die letzten Seiten ja zu oft durchgekaut.

Etwas unglücklich finde ich folgenden Satz im Fazit: "NVIDIA hat mit DLSS eine Möglichkeit für alle Gamer geschaffen, mehr Leistung aus ihrer Grafikkarte zu holen."
Möglichkeit muss man hier sehr weit dehnen, sind ja nur mindestens 500€ die man für die Möglichkeit ausgeben muss...

WedgeAntilles
2021-08-02, 11:51:33
Etwas unglücklich finde ich folgenden Satz im Fazit: "NVIDIA hat mit DLSS eine Möglichkeit für alle Gamer geschaffen, mehr Leistung aus ihrer Grafikkarte zu holen."
Möglichkeit muss man hier sehr weit dehnen, sind ja nur mindestens 500€ die man für die Möglichkeit ausgeben muss...

Die 2060 unterstützte ebenfalls DLSS. Die hatte deutlich weniger als "mindestens 500 Euro" gekostet.

Und falls du die aktuellen Preise meinst: Ich kann auch keine Karte für unter 500 Euro kaufen die FSR unterstützt. Ist also kein ARgument.
Einfach weil man gar keine Karte unter 500 Euro kaufen kann.

dargo
2021-08-02, 11:54:25
Und falls du die aktuellen Preise meinst: Ich kann auch keine Karte für unter 500 Euro kaufen die FSR unterstützt. Ist also kein ARgument.

Ich schon. *lach*
https://www.amazon.de/dp/B082KYTYSP?linkCode=xm2&camp=2025&creative=165953&smid=A206ULAR6UT9T8&creativeASIN=B082KYTYSP&tag=geizhals10-21&ascsubtag=CAtL28JHGhiLXumLuqx8Ow
https://www.mindfactory.de/product_info.php/8GB-PowerColor-Radeon-RX-580-Red-Devil-Aktiv-PCIe-3-0-x16--Retail-_1167702.html

Screemer
2021-08-02, 12:02:24
oder schau mal auf gh nach ner 2060 und selbst die 3060 nähert sich langsam dieser marke ;)

DrFreaK666
2021-08-02, 12:06:07
... Ich kann auch keine Karte für unter 500 Euro kaufen die FSR unterstützt...

Viele haben eine Karte, die FSR unterstützt. Da muss man nicht zwingend eine kaufen

WedgeAntilles
2021-08-02, 12:15:14
Viele haben eine Karte, die FSR unterstützt. Da muss man nicht zwingend eine kaufen
Und viele haben eine 2060.
Was ist das denn jetzt für eine Argumentation?

Es geht um die Aussage, dass DLSS nur für die High-End GraKas mit Preisen über 500 Euro verfügbar wäre, was schlicht und ergreifend falsch ist.

Gast
2021-08-02, 12:36:46
gtx 16xx unterstützen auch FSR, oder?

lg madzapp

why_me
2021-08-02, 12:37:39
Tut mir leid, hab nicht ab die 2060 gedacht, dann sind es aktuell laut gh 440€... Macht jetzt auch keinen großen Unterschied.

Viele mögen eine 2060 haben oder besser, aber nicht alle, sondern vielleicht 25%, wenn man den Werten von Steam traut. Was ja mit den Internet Cafés ja schonmal etwas daneben lag. Aber das sollte hier nicht diskutiert werden.

Gast
2021-08-02, 12:39:19
die gtx 16xx Serie unterstüzt doch auch FSR, oder?

lg madzapp

madzapp
2021-08-02, 12:47:00
die gtx16xx Serie unterstüzt auch FSR, oder?

aufkrawall
2021-08-02, 13:04:00
die gtx16xx Serie unterstüzt auch FSR, oder?
Jede Grafikkarte, die ein Bild mit D3D11 rendern kann, "unterstützt" FSR. ;)

Igor fand DLSS 1.0 in SotTR auch schon nicht so schlecht. Hatte ich mir vor ein paar Wochen auch mal angeschaut, kann ich nicht so ganz nachvollziehen...

unl34shed
2021-08-02, 13:13:21
Geschmäcker sind halt verschieden.
Vielleicht sind seine alten Augen auch nicht mehr die besten :D

DrFreaK666
2021-08-02, 14:22:37
Wie könnte man sowas in Windows umsetzen? Muss doch irgendwie gehen

"Some folks have had the genius idea to simply replace the basic upscaler included in Proton by… AMD’s FSR! It makes it work out of the work on any game that uses Vulkan through ProtonGE – a benefit that Windows gamers can’t get for now!"
https://boilingsteam.com/using-fsr-to-boost-any-games-framerate-on-linux/

So gibt es jedenfalls deutlich mehr Spiele, die durch FSR beschleunigt werden ;)

aufkrawall
2021-08-02, 14:32:29
Nur hat Screemer dir schon mal versucht mitzuteilen, dass das ohne Depthbuffer-Support ist, also (noch) schlechter aussieht als bei echter Integration.
Und nein, geht nicht so einfach unter Windows, weil ReShade für so etwas nicht vorgesehen ist und es kein Equivalent zum Wine-Windowing gibt. Mit etwas wie Gedosato ginge es, ist aber halt aufwendiger und weniger kompatibel.

just4FunTA
2021-08-02, 14:45:59
sagt mal das fidelityFx Upscaling in F1 2021 ist FSR oder? Sehe ich das richtig man kann das nur ein oder ausstellen? War hier nicht die Rede davon man hätte wie bei DLSS verschiedene Qualitätsstufen?

Jedenfalls sieht das richtig scheisse aus, absolutes Nogo. :eek:

Argo Zero
2021-08-02, 14:55:09
FidelityFx ist von 2019. FidelityFX Super Resolution ist das neue und das hat Qualitätsstufen.

just4FunTA
2021-08-02, 15:05:22
Gerade gelesen auch für dlss bietet das Spiel nur an oder aus an.

https://www.hardwareluxx.de/index.php/artikel/software/spiele/56725-f1-2021-mit-raytracing-effekten-im-test.html

Argo Zero
2021-08-02, 15:12:12
Laut dieser Liste kann F1 2021 nur DLSS 2.0
https://en.wikipedia.org/wiki/List_of_games_with_support_for_high-fidelity_image_upscaling

aufkrawall
2021-08-02, 15:15:36
Das hatte auch schon die Einstellungs-Modi. Das Spiel liefert aber eine angeblich bez. Smearings verbugte 2.2-Version aus, die man durch neuere ersetzen kann. Völlig dämlich, dass sie die Modi nicht anbieten. Mit 2.2 sieht selbst Performance in Doom Eternal unterm Strich erstaunlich gut aus.

DrFreaK666
2021-08-02, 15:48:00
Nur hat Screemer dir schon mal versucht mitzuteilen, dass das ohne Depthbuffer-Support ist, also (noch) schlechter aussieht als bei echter Integration...

Was hat das mit dem Depth-Buffer zu tun?
Der Nachteil über Proton ist, dass es bei dem Endbild angewendet wird, also auch nach PP, Grain Filter und UI.

Der Depth-Buffer hat mit FSR überhaupt nichts zu tun. Den benötigt man unter anderem für Lighting und AO

aufkrawall
2021-08-02, 15:58:38
Kannst du dann mal erklären, was sonst mit "spatial" gemeint sein soll? Tipp: Pixel-Farbwerte haben keine räumliche Dimension.

Oddzz
2021-08-02, 16:12:55
Wie könnte man sowas in Windows umsetzen? Muss doch irgendwie gehen

Angeblich kann man es mit Magpie (https://github.com/Blinue/Magpie) einsetzen. In der originalen, chinesischen Version , allerdings noch nicht in der englischen Version (https://github.com/andrewcs0901/Magpie/releases/tag/v0.5.1).
https://i.imgur.com/2pmMu8e.png
(vom chinesischen übersetzt)

Wie gut das nun funktioniert, kann ich leider nicht beantworten.

-/\-CruNcher-/\-
2021-08-02, 16:54:44
Es ist gut das die nicht alle am Chinesischen Cyber Angriff arbeiten,schöner hook ;)

DrFreaK666
2021-08-02, 18:38:48
Kannst du dann mal erklären, was sonst mit "spatial" gemeint sein soll? Tipp: Pixel-Farbwerte haben keine räumliche Dimension.

"AMD bezeichnet FSR offiziell als Compute-Shader-basierte "spatial upscaling solution", ergo einen Algorithmus, der Details räumlich rekonstruieren kann."

Das "räumlich" ist bei mir nicht hängengeblieben. In dem Fall hast Recht.
Ich dachte FSR wirkt auf das fertige Bild

aufkrawall
2021-08-02, 18:41:15
Es gibt da aber auch wirklich keinen näheren Kommentar in der Doc oder im Shader-Source dazu. Wenn ein Profi das noch genauer erläutern könnte, wär das schon nicht schlecht.

MrX1980
2021-08-02, 19:02:44
AMD hat eine Umfrage gestartet, welche Spiele als nächstes FSR bekommen soll. Man kann 3 Spiele benennen.
Hier ist die Umfrage:
https://explore.amd.com/en/technologies/radeon-software-fidelityfx-super-resolution/survey

Ich habe mir folgendes gewünscht:
1) Shadow of the Tomb Raider
2) MS Flight Simulator
3) The Medium

Gratzner
2021-08-02, 19:17:55
@aufkrawall Du steigerst Dich nur in irgendein BS rein. FSR benötigt keine Depth-Buffer und zu deiner großen Frage: Was ist "spatial" in einem Bild? Tipp: Du müsstest hierfür Bilder > 1 Pixel x 1 Pixel betrachten.
Auch steht es in den Kommentare des FSR-Codes (Github: GPUOpen-Effects/FidelityFX-FSR) mehr als Ausreichend erklärt, was FSR macht und ist (dafür müsste man aber auch lesen können (sogar in englisch)).


// The scalar uses a modified fast approximation to the standard lanczos(size=2) kernel.
// EASU [Anmerk.: edge adaptive spatial upsampling = FSR] runs in a single pass, so it applies a directionally and anisotropically adaptive radial lanczos.
// This is also kept as simple as possible to have minimum runtime.
//------------------------------------------------------------------------------------------------------------------------------
// The lanzcos filter has negative lobes, so by itself it will introduce ringing.
// To remove all ringing, the algorithm uses the nearest 2x2 input texels as a neighborhood,
// and limits output to the minimum and maximum of that neighborhood.

Gast
2021-08-02, 19:48:46
Kannst du dann mal erklären, was sonst mit "spatial" gemeint sein soll? Tipp: Pixel-Farbwerte haben keine räumliche Dimension.

Doch jedes Pixel hat eine 2-Dimensionale räumliche Koordinate und spatial Upsampling heißt nichts anderes als das auf dem selben Raum am Ende mehr Pixel rauskommen als reingekommen sind und sagt genau 0 über den Weg von weniger nach mehr Pixel aus.

Kleiner Hinweis, DLSS ist auch eine form von spatial upsampling.

Screemer
2021-08-02, 19:56:46
@grazer: Da verweise ich mich mal auf meinen Post: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12740582#post12740582

Ist dem nun so oder nicht?

Gratzner
2021-08-02, 20:04:10
Man kann den Lanczos-Algorithmus auf stinknormale Bilder anwenden. Hier das Wikipedia-Beispiel:

https://upload.wikimedia.org/wikipedia/commons/b/ba/Lanczos_interpolation_-_Sheet_music%2C_interpolated.jpg

Dieses Bild von ein paar Noten hat ganz sicher keine Tiefen-Buffer

aufkrawall
2021-08-02, 20:04:32
@aufkrawall Du steigerst Dich nur in irgendein BS rein. FSR benötigt keine Depth-Buffer und zu deiner großen Frage: Was ist "spatial" in einem Bild? Tipp: Du müsstest hierfür Bilder > 1 Pixel x 1 Pixel betrachten.
Auch steht es in den Kommentare des FSR-Codes (Github: GPUOpen-Effects/FidelityFX-FSR) mehr als Ausreichend erklärt, was FSR macht und ist (dafür müsste man aber auch lesen können (sogar in englisch)).
Da steht überhaupt nichts dahingehend erläutert und dein Gegrantel ist komplett wertlos (Aber congrats zum erfolgreichen Anwenden von strg + f, mit dem du diese eine Erwähnung im Source gefunden hast!).
Mit dem Vorwurf der Leseschwäche solltest du dich btw. zurückhalten, da es gar nicht darum ging, ob FSR ohne Depth Buffer-Informationen überhaupt funktioniert, sondern, ob es diese zu einem besseren Ergebnis nutzt. Siehe auch den Link von Screemer...

Edit: Er hats wirklich nicht kapiert, aber grantelt oberlehrerhaft rum. Bester Member!

DrFreaK666
2021-08-02, 20:37:43
In Screemers Zitat geht es darum dass der depth Buffer deaktiviert wurde, damit man nicht von anti Cheat software gebannt wird.
Mit FSR hat das nichts zu tun

Secondly, ReShade became allowed because it started disabling Depth Stencil Buffer access, which is widely used in WallHack cheats, if any internet activity is detected (i.e. you are playing online)

Du hast jemanden zu früh beleidigt.
Meinem Sohn würde ich jetzt sagen, dass eine Entschuldigung fällig wäre

Screemer
2021-08-02, 20:55:05
Den Zusammenhang dass sich fsr dort deshalb nicht impliziert lässt überliest du?

Gratzner
2021-08-02, 20:55:34
Da steht überhaupt nichts dahingehend erläutert und dein Gegrantel ist komplett wertlos (Aber congrats zum erfolgreichen Anwenden von strg + f, mit dem du diese eine Erwähnung im Source gefunden hast!).
Mit dem Vorwurf der Leseschwäche solltest du dich btw. zurückhalten, da es gar nicht darum ging, ob FSR ohne Depth Buffer-Informationen überhaupt funktioniert, sondern, ob es diese zu einem besseren Ergebnis nutzt. Siehe auch den Link von Screemer...

Edit: Er hats wirklich nicht kapiert, aber grantelt oberlehrerhaft rum. Bester Member!

Doch da steht es sehr genau erläutert! Du kannst entweder nicht lesen, oder weist einfach nicht, was sich dahinter verbirgt. Ich erklär dir mal Zeile für Zeile, was da steht und was das bedeutet:

// The scalar uses a modified fast approximation to the standard lanczos(size=2) kernel.

Der "Lanczos-Kernel" bzw. der Lanczos-Algorithmus kommt aus der Signalverarbeitung und kennt überhaupt keine räumliche Zusammenhänge. Ursprünglich ging es darum Zeitdiskrete Signale wieder zeitkontinuierlich zu rekonstruieren. Vereinfacht gesagt wird jedem Signalpunkt eine gefensterte Sinc-Funktion zugewissen. Man hat dann so viele gefensterte Sinc-Funktionen, wie Signalpunkte. Diese Sinc-Funktionen werden dann alle aufsummiert, womit man dann das rekonstruierte Signal erhält. Da die sinc-Funktion zeitkontinuierlich ist, ist dann das rekonstruierte Signal ebenfalls zeitkontinuierlich und kann unendlich oft abgetastet werden (wodurch dann die Auflösung unendlich hoch skaliert werden kann).

Bei FSR wird statt mit Signalen eben mit Bildern gearbeitet. Bilder sind nicht zeitdiskret, aber jede Pixel stellt ebenfalls ein Wert an einer diskreten Position dar. Diese diskrete Position stellt statt einen bestimmten Zeitpunkt eben ein festen räumlichen Punkt dar. Der Mathematik ist das aber egal, ob da ein t oder x steht. Der Funktionswert ist dann statt einer Signalspannung eben die Intensität(0-255) der einzelne Farbwerte (rgb). Da Bilder 2-Dimensional sind, gesellt sich eben zu den x noch ein y hin (übersimplifiziert gesprochen). Es wird dann für jede der drei Farbe (rgb) einzeln der Algorithmus angewendet.

Size= 2 beschreibt nur, wie ein Parameter der gefensterten sinc-Funktion gesetzt wird.

Hier nochmal ein Bild zur Anschaulichkeit und eine richtige Erklärung für Laien:

https://upload.wikimedia.org/wikipedia/commons/a/a7/Lanczos-r02-filtering.svg
Die X-Achse könnte z.B.: die X-Position im Bild sein und die Y-Achse kann z.B.: den Farbintensität für rot darstellen. Dann stellen die Schwarzen Punkte jeweils die Rotwerte des Bildes dar. Will man jetzt das Bild hochskalieren, müsste man zwischen den schwarzen Punkte zusätzliche abtasten. Diese Abtastungen werden dann aber keine Werte abtasten, da diese eben nur an den diskreten hier ganzzahligen Stellen gibt, sondern nix abtasten. Also ordnet man jedem vorhandenem schwarzen Punkt eine gefensterte Sinc-Funktion zu. Für den Pixel 4 (rot) und Pixel 11 (grün) ist es im Bild mal dargestellt. Summiert man nun alle gefensterte Sinc-Funktionen jedes Pixel auf, erhält man die blaue Linie. Diese ist nun an jeden Punkt definiert und kann nach belieben abgetastet werden. Bild ist von der Wikipedia: [https://upload.wikimedia.org/wikipedia/commons/a/a7/Lanczos-r02-filtering.svg


// EASU [Anmerk.: edge adaptive spatial upsampling = FSR] runs in a single pass, so it applies a directionally and anisotropically adaptive radial lanczos.

Bedeutet nur, das der Lanczos-Algorithmus einmal angewandt wird. Man könnte ja das Bild mit den Lanczos-Algorithmus rekonstruieren, dann neu-abtasten (z.B.: mit einer höheren Abtastfrequenz also höheren Auflösung) und dann das hochskalierte Bild nochmal mit den Lanczos-Algorithmus erneut rekonstruieren und erneut in einer höheren Auflösung abtasten. Ich verstehe diesen Satz eben so, dass nur einmal rekonstruiert wird (single-pass).

// This is also kept as simple as possible to have minimum runtime.

Hier werden weitere Vorteile des "single-pass" dargestellt.

// The lanzcos filter has negative lobes, so by itself it will introduce ringing.

Hier wird nochmal darauf hingewiesen, das die sinc-Funktion negative Seitenkeulen (Lobes) hat und im rekonstruierten Bild zu ringing führen sollen.

https://upload.wikimedia.org/wikipedia/commons/3/3b/Ringing_artifact_example.png
https://upload.wikimedia.org/wikipedia/commons/7/73/Ringing_artifact_example_-_original.png
Hier das Wikipedia-Beispiel zu ringing (unten das original). Der Weise und schwarze Rand sind die Überschwinger, laut AMD-Dokumentation ausgelöst durch die negativen Lobes. Das ganze ist Ihmo vergleichbar mit dem Gibbschen Phönomen aus dem Fourier-Zeug.
(Anmerkung: das Ringing-Bild ist nicht FSR-rekonstruiert, sondern nur ein Beispielbild für Ringing)

// To remove all ringing, the algorithm uses the nearest 2x2 input texels as a neighborhood,
// and limits output to the minimum and maximum of that neighborhood.

Um eben dieses Phänomen der Über- und Unterschwinger zu vermeiden oder graphisch gesprochen, um zu vermeiden, dass der rekonstruierte Pixel Heller und Dunkler wird als der original-Pixel (was zu den hässlichen Rändern im Wikipedia-Bild führt), werden die benachbarten Pixel des ursprünglichen Pixel aus dem Ursprungsbild analysiert. Das heißt, deren höchste und niedrigste Helligkeit wird ermittelt. Die beiden Helligkeitswerte stellen im skalierten Bild bei dem entsprechenden "skalierten Pixel "den maximal und Minimalwert dar (was effektiv die Überschwinger abschneidet).

Das war die ganze Funktionsweise von FSR.

In dem ganzen Prozess kommen überhaupt keine Tiefenpuffer zum Einsatz. Nicht mal zum Optimieren. Es passieren ja nur 2 Dinge: Rekonstruktion mit dem Lanczos-Algorithmus und neu-Abtastung. Hier wird wirklich nur das Ausgangsbild verwendet, es mit gefensterten sinc-funktionen rekonstruiert und eben neu in einer höheren Auflösung abgetastet. Und als zweites das Unterdrücken des Ringings. Hier wird ebenfalls nur das Ausgangsbild verwendet, indem aus dem zur Rekonstruktion verwendeten Pixel die benachbarten Pixel für die Maximalen und Minimalen Farbwerte analysiert werden, um die Überschwinger zu cappen.

DrFreaK666
2021-08-02, 21:54:49
Den Zusammenhang dass sich fsr dort deshalb nicht impliziert lässt überliest du?

Hier ging es um FSR und du kommst dann mit der Verbindung mit Reshade? Kein Wunder ist die Verwirrung komplett :rolleyes:

FSR benötigt keinen Depth Buffer.
Denke damit ist das Thema erledigt.
Der Depth Buffer wurde in Verbindung mit Cheaten erwähnt

aufkrawall
2021-08-02, 21:55:41
Erst einmal danke für die Erklärung!

Trotzdem: Der Zusammenhang war, dass räumlich = Tiefenwerte angenommen wurde. Und zwar nicht nur von mir, siehe Link Screemer. Menschen, die nicht fachlich mit Mathematik zutun haben, werden diesen Zusammenhang eher nicht herstellen. Es ist unglücklich, dass AMD sich mit solchen Informationen an die allgemeine Öffentlichkeit/Medien richtet (schon bevor es den Source gab), ohne diese näher zu erklären.

Und nochmal als Hinweis: ReShade kann den Tiefenpuffer für bessere Ergebnisse mit SMAA nutzen. Ist also nicht völlig frei herbei gesponnen. Der Satz des GTA-Modders ist da leider auch etwas verwirrend. Ich denke, er meint das mit dem Depth Buffer wirklich nur auf ReShade bezogen:
Secondly, ReShade became allowed because it started disabling Depth Stencil Buffer access, which is widely used in WallHack cheats, if any internet activity is detected (i.e. you are playing online). This mod doesn't touch depth buffer at all.
Er sagt zwar explizit, dass der Mod den Depth Buffer nicht nutzt. Es erscheint aber nicht ganz schlüssig, diese Hintergrundinformation mit ReShade ausgerechnet an dieser Stelle anzumerken.

Aber gut: FSR nutzt keinen Depth Buffer, du hast recht.

iamthebear
2021-08-02, 22:39:24
Ja das ist etwas verwirrend formuliert und ich hätte es ursprünglich auch so aufgefasst.

Hier mal das ganze Zitat:

People ask me to add this mod to ReShade because it is allowed in GTA:Online.

First of all, it's impossible. ReShade doesn't work with frame scaling and custom resolutions AFAIK.

Secondly, ReShade became allowed because it started disabling Depth Stencil Buffer access, which is widely used in WallHack cheats, if any internet activity is detected (i.e. you are playing online). This mod doesn't touch depth buffer at all. Anyway, use this mod in GTA Online at your own risk.

Wenn man schnell drüber liest, fasst man es so auf:
1.) ReShade geht nicht weil es keine Änderung der Auflösung erlaubt
2.) ReShade geht nicht, weil kein Zugriff auf den depth buffer möglich

In Wirklichkeit war gemeint:
1.) ReShade geht nicht weil es keine Änderung der Auflösung erlaubt
2.) Auch der Mod ist kein Regelverstoß weil er genauso wie ReShade den depth buffer nicht angreift (was für Wallhacks notwendig wäre)

Also los jetzt, habt Euch wieder lieb :uconf3:

Gast
2021-08-03, 08:42:13
Trotzdem: Der Zusammenhang war, dass räumlich = Tiefenwerte angenommen wurde.


Räumlich heißt nicht zwangsweise 3-Dimensional. Auch nur 1 oder 2 Raumdimensionen sind, naja räumlich.

Es ist unglücklich, dass AMD sich mit solchen Informationen an die allgemeine Öffentlichkeit/Medien richtet (schon bevor es den Source gab), ohne diese näher zu erklären.


Was ist daran unglücklich die fachlich korrekte Terminologie zur Beschreibung eines Sachverhaltes zu verwenden?

Wer sich für die Funktionalität interessiert muss sich in jedem Fall entsprechendes Wissen aneignen und wer dazu zu faul ist darf sich auch nicht beklagen. Vor allem was hat das mit dem Source zu tun? Es gibt definitiv mehr Menschen die den Begriff räumliches Upscaling verstehen als es Menschen gibt die Sourcecode verstehen können.

Ex3cut3r
2021-08-03, 19:50:55
Monatelang nicht hier gewesen, erster Blick beim Überfliegen immer noch Grabenkämpfe? :biggrin:

Also ich muss sagen, mit FSR kann ich @ 1440p @ 27" @ 109PPi gar nix anfangen, sieht einfach richtig schlecht aus. DLSS Q dagegen geht in Ordnung, noch besser ist es DLSS Q mit Downsampling 1,25 oder 1,50 zu mixxen.

DrFreaK666
2021-08-03, 20:37:02
FSR kann man auch mit Downsampling kombinieren

Ex3cut3r
2021-08-03, 20:41:42
Sieht trotzdem kacke aus.
Ich bin trotzdem guter Dinge, das AMD da in Zukunft besser wird. DLSS Q ab 109PPi ist stand jetzt meilenweit voraus. Videos oder Bilder helfen nicht wirklich, man braucht mindestens eine Turing Karte um den direktvergleich am heimischen Monitor zu haben. Wer das nicht, den nehme ich nicht mal für voll.

aufkrawall
2021-08-03, 20:48:12
Ich bin trotzdem guter Dinge, das AMD da in Zukunft besser wird.
Leider sieht auch das UE5 SR bei 960p @ 1440p ziemlich pixelig vs. DLSS aus und hat eine Tonne Motion Blur. Eine Verbesserung gegenüber FSR 1.0 ist sicherlich weit im Rahmen des Realistischen, aber für einen wirklichen DLSS-Gegenspieler müssten sie ganz andere Geschütze auffahren. Ist nicht ganz pessimistisch anzunehmen, dass sie für Deep Learning vs. Nvidia überhaupt gar keine Expertise haben, und bei einem Vergleich ohne DL wahrscheinlich gegenüber Edel-Studios wie Insomniac auch nicht viel vorzuweisen haben. Einfach nicht deren DNA...

-/\-CruNcher-/\-
2021-08-03, 21:09:43
Da wundert man sich das nicht mehr mal den Low Bitrate unterschied hervorheben Post stamp to 4K schon daran sieht man das ein FSR und Co keine Chance haben können, was die gesamt Effizienz angeht. :D

Das ist so als vergleichst du MPEG-4 Part 2 H.263 mit H.264 FRExt (psy optimized)

Da brauch PCGamesHardware nicht mit so einigen schrott vergleichen ankommen die machen sich total lächerlich.

DrFreaK666
2021-08-04, 04:41:13
Sieht trotzdem kacke aus.
Ich bin trotzdem guter Dinge, das AMD da in Zukunft besser wird. DLSS Q ab 109PPi ist stand jetzt meilenweit voraus. Videos oder Bilder helfen nicht wirklich, man braucht mindestens eine Turing Karte um den direktvergleich am heimischen Monitor zu haben. Wer das nicht, den nehme ich nicht mal für voll.

Dass man mit einer RTX-Karte zu DLSS greifen sollte, haben wir ja schon mehrmals geklärt

Platos
2021-08-04, 12:08:47
Gibts eig. ne Liste mit allen Gratisspielen, die FSR unterstützen ?

aufkrawall
2021-08-06, 14:17:16
Hab mal mit fidelityfx-cli und madVR gespielt: EASU 1080p -> 1440p sieht nach RCAS fast genau so aus wie bikubisch mit leicht stärkerem RCAS:
https://abload.de/thumb/bic60sharpi2j3g.png (https://abload.de/image.php?img=bic60sharpi2j3g.png) https://abload.de/thumb/output9xjkb.png (https://abload.de/image.php?img=output9xjkb.png)
Was ein grandioser technischer Fortschritt. :eek:

unl34shed
2021-08-06, 18:24:20
könntest du noch das Original und die verwendeten Parameter anhängen?

Gratzner
2021-08-06, 19:04:40
@aufkrawall
Falls bei dem bikubischen Filter der Spline von Mitchell-Netravali verwendet wurde, dann sollte das Ergebnis gegenüber der Lanczos-Rekonstruktion fast identisch sein, weil die gefensterte sync-Funktion des Lanczos-Algorithmus und der Mitchel-Netravali spline sehr ähnlich aussehen (je nach Parametern der Funktionen).

Falls Du deine Parameter für die beiden Bilder teilst, wäre noch wichtig, welcher spline für den bikubischen Filter wirklich genutzt wurde (inklusive deren Parametern). Nebenbei: Bikubisch ist halt nicht gleich bikubisch, sondern heißt nur, das bei den Splines Polynome dritten grades verwendet wurden. Je nachdem was für splines verwendet wurden, können die bikubischen Filter auch relativ gut (und teuer sein) oder eben blurry sein

Edit: Hier mal ein Vergleich zwischen Lanczos und Mitchell-Netravali:
https://i.ibb.co/pyzpTnW/Lanczos-Mitchell-Netravali-comparison.png
Man sieht eben, dass Mitchel-Netravali und Lanczos je nach Parameter sehr ähnlich aussehen, Lanczos hat den Vorteil, dass die Werte bei x=1 und x=-1 jeweils immer 0 sind

hmmm
2021-08-06, 20:44:38
RPCS3 open-source PlayStation 3 emulator now supports AMD FidelityFX Super Resolution

https://videocardz.com/newz/rpcs3-open-source-playstation-3-emulator-now-supports-amd-fidelityfx-super-resolution

Mindestens so sollte die Konfiguration in jedem "FSR-Game" aussehen:
https://pbs.twimg.com/media/E8HZfH_XMAAFZVm?format=png&name=small

TheAntitheist
2021-08-06, 20:51:48
Hab mal mit fidelityfx-cli und madVR gespielt: EASU 1080p -> 1440p sieht nach RCAS fast genau so aus wie bikubisch mit leicht stärkerem RCAS:
https://abload.de/thumb/bic60sharpi2j3g.png (https://abload.de/image.php?img=bic60sharpi2j3g.png) https://abload.de/thumb/output9xjkb.png (https://abload.de/image.php?img=output9xjkb.png)
Was ein grandioser technischer Fortschritt. :eek:
ich seh null Unterschied, hast du ausversehen das gleiche Bild 2x geupped? ;D

aufkrawall
2021-08-06, 20:56:47
Sieht in MPC HC genau so aus wie in madVR mit A=-0.6.

Source 1080p:
https://abload.de/img/input1080pk3jqt.png

FSR/EASU -> 1440p + RCAS 1.2:
https://abload.de/img/fsrbhkek.png

MPC HC bikubisch A=-0.6 -> 1440p RCAS 1.6:
https://abload.de/img/mpcrcasm0kkg.png

Über letzteres lacht übrigens jede dedizierte GPU der letzten 5-10 Jahre bez. Renderkosten. Und für so etwas feiern Leute AMD, unfassbar... :facepalm:

Gratzner
2021-08-06, 21:08:21
RCAS kann unter Umständen schon sehr gut aussehen. Mach doch mal zum Spaß bitte einen bikubischen Vergleich ohne RCAS und einen mit

ich seh null Unterschied, hast du ausversehen das gleiche Bild 2x geupped? ;D
Das ist nicht dasselbe Bild (unterschiedliche Dateigröße, Zoom mal ganz stark oben Rechts an der Auslastungsanzeige ran und schaue dir die Buchstaben an oder den Kurvenverlauf der Framtimes -> man erkennt da schon kleine Unterschiede)

Hier habe ich auch mal gezeigt, das bikubisch und Lanczos (also der Rekonstruktionsalgorithmus von FSR) sehr ähnlich sein können:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12755369&postcount=1300

Argo Zero
2021-08-06, 21:08:25
FSR @Linux
https://youtu.be/ytGR7JKYhL8

https://youtu.be/kJDzkSOc8sc

Für Windoof geht FSR bei Cyberpunk mit dem Mod nicht nehme ich an? :/

TheAntitheist
2021-08-06, 21:11:07
Ist halt wie mit Religionen, es ergibt keinen Sinn aber dennoch feiern sie es, egal wie scheisse es ist. AMD und Nvidia haben kacke fabriziert und wir wollen alles was schlecht ist "aufdecken" oder eher den Finger in die Wunde legen, damit wir schlechte Ansätze los werden.

Mein Problem ist, das AMD dafür 2 Jahre gebraucht hat. Das heißt da saß nur eine arme Sau dran und das nur nach Feierabend. ABER das Geld wurde hoffentlich in RDNA 3 gesteckt und dann kommt wirklich ein DLSS konkurrent, wenn sie auch Tensor Cores oder ähnliches haben. Das dann noch Open Source und alle gewinnen wirklich.

aufkrawall
2021-08-06, 21:15:57
RCAS kann unter Umständen schon sehr gut aussehen. Mach doch mal zum Spaß bitte einen bikubischen Vergleich ohne RCAS und einen mit

Das muss man ja eh machen, weil das CLI-Tool von AMD nicht beides in einem Rutsch machen kann.

Ohne RCAS: Man sieht, dass es mit bikubusch geringfügig mehr Aliasing gibt. Dafür schleift EASU bestimmte Kanten aber auch einfach rund ab, wie man an den Zahnrädern im HUD unten links vs. original 1440p erkennt:
https://abload.de/img/1440pscaledl3kmj.png
https://abload.de/img/mpcbic-60vekmy.png

Native 1440p:
https://abload.de/img/1440p85k1n.png

Wie jeder andere schnelle "lineare" Scaler auch, einfach nur eine geringfügig andere Gewichtung von Artefakten. Kann man nicht wirklich als Fortschritt bezeichnen...

Gratzner
2021-08-06, 21:29:42
Ich wollte nur eine Skalierung (egal ob bikubisch oder lanczos) mit und ohne RCAS vergleichen, nicht bikubisch gegen Lanczos ohne RCAS, aber danke für die Bilder

why_me
2021-08-06, 22:09:00
Mal wieder eine neue Sau gefunden, die ihr durchs Dorf treiben könnt? Es bezweifelt doch niemand, dass der Effekt, den FSR erzeugt mit anderen mitteln auch erreicht werden kann... Verstehe nicht, wie man so viel Zeit und Energie damit verschwenden kann um jeden noch so kleinen Fehler oder Gemeinsamkeit mit anderen Verfahren zu finden.

Wie auch die Seiten zuvor bleibt nur zu sagen, DLSS und FSR können beide nicht zaubern, beide können einen netten Performance boost bringen, wenn man mit der Bildqualität leben kann, wobei beide in der höchsten Einstellung sehr nahe an das Native Bild kommen.

Und wem es nicht gefällt, der muss es ja nicht verwenden...

DrFreaK666
2021-08-06, 23:49:21
Sieht in MPC HC genau so aus wie in madVR mit A=-0.6.

Source 1080p:
https://abload.de/img/input1080pk3jqt.png

FSR/EASU -> 1440p + RCAS 1.2:
https://abload.de/img/fsrbhkek.png

MPC HC bikubisch A=-0.6 -> 1440p RCAS 1.6:
https://abload.de/img/mpcrcasm0kkg.png

Über letzteres lacht übrigens jede dedizierte GPU der letzten 5-10 Jahre bez. Renderkosten. Und für so etwas feiern Leute AMD, unfassbar... :facepalm:

Reicht es dann wenn MPC im Hintergrund läuft, oder wie funktioniert das dann?

aufkrawall
2021-08-07, 00:15:03
Reicht es dann wenn MPC im Hintergrund läuft, oder wie funktioniert das dann?
Es zeigt nur, dass der EASU-Teil von FSR (also der Image-Scaler) völlig unspektakuläre Ergebnisse bei einem Bild liefert, das ziemlich typisch für Echtzeit-Grafik ist. Ja, es ist ein guter Kompromiss aus keinem Ringing und wenig Aliasing. Das bewegt sich aber alles im Bereich von Nuancen, wenn man sieht, wie hart das Sharpen reinhaut. Ist mir wirklich schleierhaft, wie man so einen Schlag ins Gesicht auch noch freudig hinnehmen soll, nachdem man hunderte Euro bezahlt hat. Man wird mit dem denkbar billigsten Billig-Kram abgepeist, wie kann man das gut finden...

DrFreaK666
2021-08-07, 00:18:31
... Ist mir wirklich schleierhaft, wie man so einen Schlag ins Gesicht auch noch freudig hinnehmen soll, nachdem man hunderte Euro bezahlt hat...

Was redest du da? Man muss kein Geld ausgeben um FSR nutzen zu können.
Versuchst du tatsächlich schlecht zu reden, dass man keine RTX-Karte haben muss um das Feature nutzen zu können? :ugly:

aufkrawall
2021-08-07, 00:24:15
Ist eine rein theoretische Größe, wenn es in der Praxis trotzdem kaum jemand nutzen wird, und damit auch ein rein theoretischer Vorteil.
In Serious Sam 3 von 2011 kann man auch bikubisch als Up- und Downscaler auswählen, wow. :eek: (Edit: Und gar Lanczos :eek: :eek: :eek: )
Jeder Entwickler, den so etwas auch nur im entferntesten interessiert, hat das schon längst eingebaut. Oder halt gleich etwas viel besseres wie das TAAU in Doom Eternal, läuft auch überall...

DrFreaK666
2021-08-07, 00:34:58
Nicht jedes Spiel bietet TAA an, auch wenn es in deiner Realität so aussieht.
Manche Spiele nutzen FSR, in Zukunft werden noch Spiele dazukommen.
Über Proton kann man FSR auf manche Spiele erzwingen. Der PS3-Emulator bietet es auch an. Wie man an den letzten Beispielen sieht, ist es wohl einfach einfügbar.

Verstehe nicht wieso man das mit Gewalt schlecht reden will

Wenn dich viele Optionen überfordern, dann spiele in Zukunft an Konsolen

aufkrawall
2021-08-07, 00:47:28
Verstehe nicht wieso man das mit Gewalt schlecht reden will

Gewalt ist wohl eher das Stichwort, mit dem du jegliche argumentive Zugänglichkeit über die Bewertung des Nutzens völlig der Doktrin "Aber es ist für alle vorhanden!!!" unterordnest. Du liebe Güte...

DrFreaK666
2021-08-07, 00:54:40
The Ascent mit FSR @Linux
kI7XaQhRiCE

Echt scheiße dass man als Linux-Gamer die Möglichkeit hat es zu erzwingen

HarryHirsch
2021-08-07, 01:03:53
ich finds echt schade das es diesen quatsch gibt nur weil die hardware zu langsam ist. früher wurde mit automatischer lod anpassung runtergerechnet, heute sowas.

DrFreaK666
2021-08-07, 01:07:31
ich finds echt schade das es diesen quatsch gibt nur weil die hardware zu langsam ist. früher wurde mit automatischer lod anpassung runtergerechnet, heute sowas.

Das funktioniert ja auch immer so zuverlässig.

HarryHirsch
2021-08-07, 01:15:53
keine ahnung was heute abgeht aber bei dem was ich damals gespielt habe hat es funktioniert. 16x sgssaa wenn beide karten liefen.
heute ist es wie - unsere hardware verballert über 400watt ist aber trotzdem zu langsam, aber hier hast du den kram.
ich will den kram nicht, ich will hardware die das stemmt. und zwar ohne zu zucken

DrFreaK666
2021-08-07, 01:27:20
keine ahnung was heute abgeht aber bei dem was ich damals gespielt habe hat es funktioniert. 16x sgssaa wenn beide karten liefen.
heute ist es wie - unsere hardware verballert über 400watt ist aber trotzdem zu langsam, aber hier hast du den kram.
ich will den kram nicht, ich will hardware die das stemmt. und zwar ohne zu zucken

Wenn du den Kram nicht willst, dann nutze ihn nicht.
Und es gab immer Spiele, die Hardware jahrelang ausreizten.
"Can it run Crysis" sagt dir sicherlich was

HarryHirsch
2021-08-07, 01:41:03
but "Can it run Crysis" ist ein klassiker. es hat für mich aber auch nix mit hardware ausreizen zu tun wenn vorher schon klar ist das der bughaufen + rt nur mit dlss gut läuft. hier wird mit gewalt versucht etwas durchzudrücken was nicht nötig ist. wenn sie rt anpreisen dann sollte das auch min. nativ laufen. just my two cents

TheAntitheist
2021-08-07, 04:12:07
but "Can it run Crysis" ist ein klassiker. es hat für mich aber auch nix mit hardware ausreizen zu tun wenn vorher schon klar ist das der bughaufen + rt nur mit dlss gut läuft. hier wird mit gewalt versucht etwas durchzudrücken was nicht nötig ist. wenn sie rt anpreisen dann sollte das auch min. nativ laufen. just my two cents
läuft doch auch alles nativ, dann aber mit 30fps. Mit AMD, die es auch anpreisen, dann die hälfte der framerate...

Man sollte auch immer mal daran denken das es niemals optimal sein kann, wenn man RT erst im nachhinein einbaut. In Metro Exodus sieht man doch schön was sowas aus macht. das läuft Nativ und sieht auch noch besser aus.

BlacKi
2021-08-07, 12:46:30
but "Can it run Crysis" ist ein klassiker. es hat für mich aber auch nix mit hardware ausreizen zu tun wenn vorher schon klar ist das der bughaufen + rt nur mit dlss gut läuft. hier wird mit gewalt versucht etwas durchzudrücken was nicht nötig ist. wenn sie rt anpreisen dann sollte das auch min. nativ laufen. just my two cents
RT läuft halt nicht kacke weil es schlecht optimiert ist, sondern weil es schlicht ein erheblicher mehraufwand ist. eigentlich ist RT nativ, und fake reflektionen und co. sind rotz. RT ist echt, RT kommt, weil es zuviel arbeit ist, guten fake herzustellen. dlss und fsr ermöglichen es dir lediglich mehr fps zu bekommen, sozusagen statt dich mit fhd zufriedengeben zu müssen, darfst du nun gute fps in nahezu bester 4k auflösung genießen.

derzeit hast du noch die freie wahl was für dich der beste kompromiss ist. naja, zumindest auf dem pc^^

Wiseman
2021-08-07, 14:02:16
AMD hat eine Umfrage gestartet, welche Spiele als nächstes FSR bekommen soll. Man kann 3 Spiele benennen.
Hier ist die Umfrage:
https://explore.amd.com/en/technologies/radeon-software-fidelityfx-super-resolution/survey

Ich habe mir folgendes gewünscht:
1) Shadow of the Tomb Raider
2) MS Flight Simulator
3) The Medium

Prima Hinweis. Danke.

Ich habe mir gewünscht:

1. Assassin's Creed Valhalla
2. Horizon Zero Dawn
3. Shadow of the Tomb Raider

Mr. Lolman
2021-08-07, 22:13:40
g5QzZmEW1fg

Ich finde das sieht schon sehr überzeugend aus (die nächste Sezene wirkt noch besser) https://youtu.be/g5QzZmEW1fg?t=95

DrFreaK666
2021-08-07, 22:45:15
Das gute an PS3-Spielen: die Texturen sind schon unscharf :D

Badesalz
2021-08-08, 09:04:42
but "Can it run Crysis" ist ein klassiker. es hat für mich aber auch nix mit hardware ausreizen zu tun wenn vorher schon klar ist das der bughaufen + rt nur mit dlss gut läuft.Schneller scheint nun nicht zwangsläufig gut zu bedeuten.

DLSS2.0 + HW-RT scheint die Quali der RT-Effekte generell zu verschlechtern.
Naja, vielleicht kommt ja noch 3.0, sobald man über RT sagen kann, daß es in Spielen gängig ist.

dargo
2021-08-08, 10:51:59
Schneller scheint nun nicht zwangsläufig gut zu bedeuten.

DLSS2.0 + HW-RT scheint die Quali der RT-Effekte generell zu verschlechtern.

Ist das nicht schon immer der Fall gewesen wenn die RT-Effekte nicht in nativer Auflösung geliefert werden? Ich kann mich noch sehr gut an das Beispiel in Cyberpunk 2077 erinnern. DLSS sieht dort absolut grausam aus wenn man in den Spiegel schaut. Afaik wird die Spiegelung nur in halber Auflösung von nativ dargestellt. Wenn man da noch DLSS (oder halt FSR) draufhaut sieht es entsprechend zum Kotzen aus.

PS: ich weiß jetzt aber nicht ob die RT-Effekte in dem genanten Crysis nativ oder nicht geliefert werden.

Badesalz
2021-08-08, 12:15:05
@dargo
Ja. Das stört im Verhältnis nur noch Grafiknerds. Die Leute laufen im Spiel nicht ständig durch die Gegend nur um sich in Schaufenstern zu betrachten.
Mit DLSS aber scheint der Qualikontrast aber soweit potenziert, daß es leider wieder klar auffällt.

Gast
2021-08-09, 13:54:28
Wie auch die Seiten zuvor bleibt nur zu sagen, DLSS und FSR können beide nicht zaubern, beide können einen netten Performance boost bringen, wenn man mit der Bildqualität leben kann, wobei beide in der höchsten Einstellung sehr nahe an das Native Bild kommen.


Also was DLSS abliefert erscheint schon fast Magie zu sein. Gut wenn man sich näher mit der Technik beschäftigt versteht man natürlich wie das funktioniert, aber mit weniger berechneter Auflösung ein besseres Bild abzuliefern als ein Spiel standardmäßig mit nativer Auflösung kann hat schon was.

Gast
2021-08-09, 13:59:56
DLSS sieht dort absolut grausam aus wenn man in den Spiegel schaut.

Die Spiegel in denen du dich selbst beobachten kannst?
Die werden nicht mit Raytracing berechnet, egal ob RT aktiv ist oder nicht, das dürfte irgendein Render-To-Texture Zeugs sein.
Und ganz offensichtlich verwendet Cyberpunk für das Rendertarget kein DLSS, reduziert aber trotzdem die Auflösung. Das schaut natürlich grausam aus, du siehst hier quasi das Bild in reduzierter Auflösung ohne DLSS-Verschönerung.

Das gleiche gilt in Cyberpunk für alle Rendertargets die nicht das Main Rendertarget sind, z.B. Inventar, Map etc.

Gast
2021-08-09, 14:01:15
Verstehe nicht wieso man das mit Gewalt schlecht reden will



Ich auch nicht, über etwas was objektiv einfach schlecht ist braucht man kein Wort verlieren, das sieht ja eh jeder mit 2 Augen im Kopf.

hmmm
2021-08-10, 11:50:34
Für die, für die Lanczos einfach immer nur Lanczos und Bikubisch einfach immer nur Bikubisch ist. - Klar, die werden immer bei ihrer Meinung bleiben sclicht weil nicht sein kann was nicht sein darf.

Aber auch für alle anderen könnte das hier interessant sein:

https://twitter.com/GPUOpen/status/1424752442705694723
If you're interested in some of the technical underpinnings of FSR (psst, it's not "just Lanczos") or need inspiration on how to integrate it into your engine, Unity are presenting on just that at SIGGRAPH tomorrow. Find out more on GPUOpen

aufkrawall
2021-08-10, 12:20:31
und Bikubisch einfach immer nur Bikubisch ist.

Das oben ist ganz simples bikubisch, also kein teureres Spline etc. Nicht die Fakten (sofern sie denn überhaupt geläufig sind...) verdrehen, danke.

DrFreaK666
2021-08-10, 12:36:06
Ich auch nicht, über etwas was objektiv einfach schlecht ist braucht man kein Wort verlieren, das sieht ja eh jeder mit 2 Augen im Kopf.

Kannst ja weiterhin in 4k/40 spielen, wenn das so geil im Vergleich ist

hmmm
2021-08-10, 12:41:53
Das oben ist ganz simples bikubisch, also kein teureres Spline etc. Nicht die Fakten (sofern sie denn überhaupt geläufig sind...) verdrehen, danke.
Was "oben" meinst du denn nun genau?MPC HC oder doch madVR? Wer hier alles dreht wie es ihm passt, das bist nur du - eigentlich wie immer.
Ungeachtet dessen solltest du dir mal_auch_ bei MPC anschauen WAS da mit "bikubisch" gemacht wird, anderst macht das hier mit dir wenig sinn. Selbst wenn du dir nur mal die Laufzeit betrachtest, könntest du darauf kommen dass es eben nicht so ist wie du es hier darstellen willst.

Ich denke wir werden hier zeitnah etwas aus der konferenz veröffentlichen können ...

aufkrawall
2021-08-10, 12:45:51
Was "oben" meinst du denn nun genau?MPC HC oder doch madVR? Wer hier alles dreht wie es ihm passt, das bist nur du - eigentlich wie immer.

Deshalb steht ja auch "MPC HC" an den Bildern dran. ;D
Ich mache alles komplett transparent, während du einfach nur feist lügst.
Abgesehen davon ist auch das bikubisch in madVR ebenfalls kein Spline, den gibts nochmal als Extra-Option.

DrFreaK666
2021-08-10, 12:56:12
Könnt ihr euer MPC-Gelaber auslagern? Sonst komme ich auf die Idee DLSS mit Topaz Gigapixel zu vergleichen

DrFreaK666
2021-08-10, 13:04:06
Das schlechte FSR mit Arkham Knight.
Nvidia-Fans können ja gerne zu DLSS greifen XD

4HLzJtBJYzE

Argo Zero
2021-08-10, 13:33:44
Das schlechte FSR mit Arkham Knight.
Nvidia-Fans können ja gerne zu DLSS greifen XD

https://youtu.be/4HLzJtBJYzE

Soll man da überhaupt einen Unterschied erkennen?
Mir fällt nichts auf.

aufkrawall
2021-08-10, 13:41:11
Hab mal Serious Sam 3/Fusion angeworfen, das bikubisches Upscaling anbietet, und CAS via ReShade injected.

1080p -> 1440p bikubisch + ReShade CAS (strength 2.0):
https://abload.de/thumb/bicsharpefjt1.png (https://abload.de/image.php?img=bicsharpefjt1.png)

EASU + RCAS (Sharpness 0.3) (dessen Kosten sind natürlich im RTSS-Overlay nicht zu sehen, ich erwähne diese offensichtliche Begebenheit vorsichtshalber lieber mal explizit...):
https://abload.de/thumb/easuscaledsharpajjdj.png (https://abload.de/image.php?img=easuscaledsharpajjdj.png)

720p 1080p Original:
https://abload.de/thumb/720py6klb.png (https://abload.de/image.php?img=720py6klb.png)


Wie man sieht, ist das bikubische Upscaling auf 1440p, welches das Spiel vornimmt, defakto gratis. 2-3fps dürfte ReShade + CAS abknabbern...

Native 1440p:
https://abload.de/thumb/sam2017_2021_08_10_13gqkmd.png (https://abload.de/image.php?img=sam2017_2021_08_10_13gqkmd.png)

Manche Elemente sind mit FSR etwas unschärfer, andere mit bikub. + CAS. Unterm Strich jedenfalls geringe Unterschiede, und wenn man beide mit jeweils nur CAS oder RCAS vergleicht, dürften die noch geringer werden (CAS schärft offenbar Kanten weniger nach, RCAS manche Flächeninhalte weniger). Anyhow, lineare Image-Scaler für 3D-Grafik sind einfach kompletter Gammel und FSR erhöht, komplett anders als DLSS 2.x, die Rendereffizienz kaum mehr als Verfahren von anno dunnemal...

Achso, das Spiel bietet übrigens auch Lanczos an. Kostet ebenfalls fast nichts...

DrFreaK666
2021-08-10, 13:44:46
Soll man da überhaupt einen Unterschied erkennen?
Mir fällt nichts auf.

Die FPS sind höher. Der Youtuber sagt, dass er bei normalen Abstand zum TV auch keinen Unterschied sieht

Wenn jemand mal Magpie testen will...
YoJrlKj8xsI

TheAntitheist
2021-08-10, 14:07:21
Soll man da überhaupt einen Unterschied erkennen?
Mir fällt nichts auf.
Das video strotzt doch nur vor Artefakten weil die Bitrate zu schlecht ist oder die Aufnahme schlecht war... wie soll man da überhaupt irgendwas erkennen ihr Scherzkekse... also bitte :rolleyes: JA AUCH in 4k

Gast
2021-08-10, 17:07:56
Kannst ja weiterhin in 4k/40 spielen, wenn das so geil im Vergleich ist

In Anno auf jeden Fall die bessere Wahl als das FSR-Geschmiere.

Gratzner
2021-08-10, 17:19:54
Hab mal Serious Sam 3/Fusion angeworfen, das bikubisches Upscaling anbietet, und CAS via ReShade injected.

1080p -> 1440p bikubisch + ReShade CAS (strength 2.0):
https://abload.de/thumb/bicsharpefjt1.png (https://abload.de/image.php?img=bicsharpefjt1.png)

EASU + RCAS (Sharpness 0.3) (dessen Kosten sind natürlich im RTSS-Overlay nicht zu sehen, ich erwähne diese offensichtliche Begebenheit vorsichtshalber lieber mal explizit...):
https://abload.de/thumb/easuscaledsharpajjdj.png (https://abload.de/image.php?img=easuscaledsharpajjdj.png)

720p 1080p Original:
https://abload.de/thumb/720py6klb.png (https://abload.de/image.php?img=720py6klb.png)


Wie man sieht, ist das bikubische Upscaling auf 1440p, welches das Spiel vornimmt, defakto gratis. 2-3fps dürfte ReShade + CAS abknabbern...

Native 1440p:
https://abload.de/thumb/sam2017_2021_08_10_13gqkmd.png (https://abload.de/image.php?img=sam2017_2021_08_10_13gqkmd.png)

Manche Elemente sind mit FSR etwas unschärfer, andere mit bikub. + CAS. Unterm Strich jedenfalls geringe Unterschiede, und wenn man beide mit jeweils nur CAS oder RCAS vergleicht, dürften die noch geringer werden (CAS schärft offenbar Kanten weniger nach, RCAS manche Flächeninhalte weniger). Anyhow, lineare Image-Scaler für 3D-Grafik sind einfach kompletter Gammel und FSR erhöht, komplett anders als DLSS 2.x, die Rendereffizienz kaum mehr als Verfahren von anno dunnemal...

Achso, das Spiel bietet übrigens auch Lanczos an. Kostet ebenfalls fast nichts...

Glückwunsch zu einem unglaublichen Äpfel mit Autoreifen Vergleich.

Erstmal das Spiel kam 2011 raus, FidelityFX-CAS kam 2020 (Github release). Dein Vergleich ist schon deshalb Fragwürdig, weil es im Spiel damals unmöglich war CAS einzustellen. Es war nicht nur unmöglich, es wäre auch unmöglich gewesen es in der Releasefassung zu integrieren oder Zeitnah über ein Update mitzuliefern aufgrund der 9 Jahre Differenz.

Nun unser Aufkrawall, nimmt das bikubische Upscaling des Spieles bzw. das Lancos-Upscaling des Spieles und appliziert CAS extra über eine weitere Software, damit das bikubische/Lancos-Upscaling des Spieles nicht Scheiße aussieht und nicht gegen die typischen FSR-Implementationen verliert. Man könnte jetzt Schlussfolgern, das CAS der Große Unterschied von heute und damals ist.

Aber Aufkrawall, trotz das er CAS manuell über Reshade applizieren muss, kommt zur Schlussfolgerung: es ist ein fairer Vergleich, das alte Spiel mit einer 9 Jahren jüngeren Qualitätsverbesserer aufzuwerten.

aufkrawall
2021-08-10, 17:26:22
Dumm nur, dass das hier der FSR-Thread ist und man CAS schon seit zwei Jahren auf z.B. TAAU anwenden kann. Aber hauptsache, du konntest mal wieder stänkern. :up:
Aber du liegst inhaltlich natürlich gar nicht so falsch damit, dass das Sharpen zentral ist. Entsprechend hab ich schon vor zig Seiten FSR als "CAS 2.0" bezeichnet. Womit das initiale Release von CAS natürlich viel bedeutsamer ist als FSR, was einfach nur unverdient viel Zuspruch erhält...

Gratzner
2021-08-10, 17:31:43
Dumm nur, das CAS teil der meisten FSR-Implementierung ist, und damit sehr wohl in den FSR-Thread gehören kann, weil es ein Teil des Upscaling ist. Außerdem ist es doch Scheiß egal, ob man CAS auf TAAU anwenden kann oder nicht. Ändert aber rein gar nix, das CAS ein Teil von FSR ist.

Wie dem auch sei, hast recht, da es TAAU schon seit 2 Jahren mit CAS gibt, ist CAS wohl nur 8 Jahre jünger als Serious Sam 3. Ich habe eben den Github-Release zum vergleich genommen, weil es erst seit diesem Zeitpunkt jeder frei auf ein spatial upscaling anwenden kann.
Womit das initiale Release von CAS natürlich viel bedeutsamer ist als FSR, was einfach nur unverdient viel Zuspruch erhält...

Deine Kritik hat sich beispielsweise hier noch ganz anders angehört:
Wie jeder andere schnelle "lineare" Scaler auch, einfach nur eine geringfügig andere Gewichtung von Artefakten. Kann man nicht wirklich als Fortschritt bezeichnen...
----
die von EASU interpolierten Pixel so schlecht sind. Halt nicht signifikant besser als altbackenes und billiges bikubisch (und damit Gammel)
hab ich halt hier schon versucht "mathematisch" zu zeigen, das EASU sich von bikubisch kaum Unterscheidet:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12755369&postcount=1300
EASU ist aber nicht FSR, sondern nur ein Teil von FSR und den meisten FSR-Implementierungen. Diese schieben halt noch CAS nach.

aufkrawall
2021-08-10, 17:39:13
Mit FSR ist leider eine Sharpen-Stärke auf Steroiden nötig, weil die von EASU interpolierten Pixel so schlecht sind. Halt nicht signifikant besser als altbackenes und billiges bikubisch (und damit Gammel), nichts anders sollte der Vergleich zeigen. Wenn es dich nicht interessiert, kannst du btw. einfach weiterscrollen...

Und derartig starkes Sharpen verfremdet natürlich den Look deutlich. Es sieht vs. nativ immer noch unscharf aus, aber noch stärkeres Sharpen will man sich auch nicht antun, wenn einem die BQ nicht komplett egal ist...

DrFreaK666
2021-08-10, 17:58:46
...Wenn es dich nicht interessiert, kannst du btw. einfach weiterscrollen...

Ich glaube du bist der einzige, dem das wirklich interessiert :D
Andere sind zufrieden dass sie mehr FPS bei schlechterer Qualität haben

Gast
2021-08-11, 07:44:25
Andere sind zufrieden dass sie mehr FPS bei schlechterer Qualität haben

Ist das so eine erwähnenswerte Neuigkeit? Mehr FPS bei schlechterer BQ konnte man schon immer haben.

Die Frage ist eben immer wie das Verhältnis von Performancegewinn zu Qualitätsverlust ist, und hier bringt FSR leider keine wesentliche Verbesserung zu bereits vorhandenen Techniken.

hmmm
2021-08-11, 13:18:27
Patch für Resident Evil Village ist da:

- Minor fine-tuning to FidelityFX Super Resolution (FSR)

DrFreaK666
2021-08-11, 16:58:32
Ist das so eine erwähnenswerte Neuigkeit? Mehr FPS bei schlechterer BQ konnte man schon immer haben.

Die Frage ist eben immer wie das Verhältnis von Performancegewinn zu Qualitätsverlust ist, und hier bringt FSR leider keine wesentliche Verbesserung zu bereits vorhandenen Techniken.

Die Verbesserung ist dass es einfach einfügbar ist. Schon vergessen? :rolleyes:

Gast
2021-08-12, 09:42:08
Die Verbesserung ist dass es einfach einfügbar ist. Schon vergessen? :rolleyes:

In ein paar wenigen Spielen.

Auflösung reduzieren + Upscaling + Sharpening konnte man schon die letzten 10 Jahre vor FSR.

So gut wie jedes Spiel der letzten Jahre ermöglicht Upscaling oft sogar mit dynamic Resolution. FSR bietet hier keine nennenswerten Qualitätsvorteile gegenüber den bereits vorhandenen und schon lange integrierten Techniken.

Aktuell ist die Verfügbarkeit von FSR sogar wesentlich schlechter als bei anderen Upscaling-Techniken.

dargo
2021-08-12, 10:47:26
Wieder @Linux.

z4dP5TYoB8E

DrFreaK666
2021-08-12, 15:09:50
Der Performance-Gewinn ist schon nice

aufkrawall
2021-08-12, 15:35:27
Sieht auch offenbar wesentlich schlechter aus als mit der Anti-Aliasing-Einstellung auf low, die temporales Upsampling aktiviert (was übrigens auch unter Linux funktioniert, inkls. CAS Sharpen via vkbasalt oder ReShade :eek: ). Zumindest flimmern die Dächer mit FSR fies (und das wird nicht mal mit negativem LOD-Bias sein, womit es nochmal viel schlimmer wäre...), was selbst durch die Matsch-Kompression auffällt...

Argo Zero
2021-08-12, 15:51:15
Baut so etwas mal jemand bitte für Windows? :D
Die Anzahl der Spiele ist leider noch überschaubar :(

DrFreaK666
2021-08-12, 16:50:07
Baut so etwas mal jemand bitte für Windows? :D
Die Anzahl der Spiele ist leider noch überschaubar :(

https://www.notebookcheck.net/Magpie-allows-AMD-FidelityFX-Super-Resolution-support-in-any-Windows-game-not-really-as-good-as-native-FSR-but-seems-to-get-the-job-done.553404.0.html

Sieht auch offenbar wesentlich schlechter aus als mit der Anti-Aliasing-Einstellung auf low, die temporales Upsampling aktiviert (was übrigens auch unter Linux funktioniert, inkls. CAS Sharpen via vkbasalt oder ReShade :eek: ). Zumindest flimmern die Dächer mit FSR fies (und das wird nicht mal mit negativem LOD-Bias sein, womit es nochmal viel schlimmer wäre...), was selbst durch die Matsch-Kompression auffällt...

Schließt "very high" AA nicht mit ein?

aufkrawall
2021-08-12, 16:54:12
Natürlich, sonst wär das ja flimmern wie sonst was. Es gibt nur halt schon eine Upsampling-Option direkt im Spiel, die einem bereits ganz nett Performance für kaum reduzierte BQ gibt...
FSR um des FSR willens einschalten, na ja...

DrFreaK666
2021-08-12, 16:57:42
Natürlich, sonst wär das ja flimmern wie sonst was. Es gibt nur halt schon eine Upsampling-Option direkt im Spiel, die einem bereits ganz nett Performance für kaum reduzierte BQ gibt...
FSR um des FSR willens einschalten, na ja...

Naja, was spricht gegen noch mehr Performance?

Platos
2021-08-12, 17:08:36
Naja, was spricht gegen noch mehr Performance?

schlechtere Bildqualität natürlich.

DrFreaK666
2021-08-12, 21:42:28
schlechtere Bildqualität natürlich.

Wenn man mehr Performance will, dann geht das nur über schlechtere Bildqualität, wenn man keine Hardware kaufen will

Platos
2021-08-12, 23:20:19
Wenn man mehr Performance will, dann geht das nur über schlechtere Bildqualität, wenn man keine Hardware kaufen will

Nein, das sehe ich anders. DLSS kriegt das in vielen Fällen sehr gut hin. Zumindest in meinen Augen (wort wörtlich).

DrFreaK666
2021-08-13, 00:54:54
Nein, das sehe ich anders. DLSS kriegt das in vielen Fällen sehr gut hin. Zumindest in meinen Augen (wort wörtlich).

Ich finde DLSS auch recht gut (bei niedrigen Auflösungen die deutlich bessere Wahl), aber dafür benötigt man immer noch eine RTX-Karte und wir drehen uns im Kreis ;)
Außerdem ging es um AC V über Proton, und da gibt es kein DLSS (Bei AC V soweit ich weiss auch nativ nicht).
FC6 setzt, soweit ich weiss, nur auf FSR, womit eine hohe Kompatibilität erreicht wird. Mit DLSS unmöglich

Platos
2021-08-13, 01:11:44
Naja, du hast gefragt, was gegen mehr Perfomance spricht, und das war nunmal meine Antwort. Es bringt mir nichts, wenn ich mehr Perfomance habe, aber das Bild dafür dann schlechter aussieht.

DrFreaK666
2021-08-13, 08:07:07
Naja, du hast gefragt, was gegen mehr Perfomance spricht, und das war nunmal meine Antwort. Es bringt mir nichts, wenn ich mehr Perfomance habe, aber das Bild dafür dann schlechter aussieht.

Das ist doch eine der Stärken des PCs. Für bessere Performance kann man BQ opfern, egal ob Ambient Occlusion Qualität oder Auflösung.

-/\-CruNcher-/\-
2021-08-13, 09:35:50
Können die Konsolen mittlerweile auch das ist kein gutes Argument Pro PC mehr ;)

DrFreaK666
2021-08-13, 12:00:58
Bei Konsolen beschränkt es sich oft auf "Performance"- und "Quality"-Modi.
Beim PC kann man mit vielen Parametern (wenn die Entwickler nicht faul waren) die BQ verringern um die FPS zu erhöhen, z.B. mit FSR :D

Platos
2021-08-13, 12:29:59
Bei Konsolen beschränkt es sich oft auf "Performance"- und "Quality"-Modi.
Beim PC kann man mit vielen Parametern (wenn die Entwickler nicht faul waren) die BQ verringern um die FPS zu erhöhen, z.B. mit FSR :D

Ach so, du siehst FSR quasi als dynamische Auflösung. Ja, da wäre ich dann in etwa bei dir.

DrFreaK666
2021-08-13, 19:18:48
The Witcher 3 mit FSR
BhpaDtUJZWE

Platos
2021-08-13, 19:31:06
Irgendwie sieht beides erstaunlich schlecht aus für 4K. Muss wohl an Youtube liegen.

Aber bis ich Withcer 3 Spiele, warte ich auf das "remake". Das soll ja anscheinend (gratis) DLCs beinhalten, die auf der Netflix Serie basieren (und das Upgrade ist selbst auch gratis als Spielebesitzer der normalen Version. Habe lustigerweise die PS4 und PC Version und es trotzdem nie fertig gespielt, obwohl ich Witcher 1&2 gut fand).

Achtung: Nicht das Spiel oder Serie spoilern, das hier ist kein Spielethread.

Edit: Ach so, es handelt sich um 1400p ultra wide. Das erklärt einiges.

DrFreaK666
2021-08-13, 21:40:09
Das Remake könnte FSR uns DLSS erhalten.
Und FSR sieht am Besten aus, wenn es in die Engine integriert ist. Über Proton wirkt es ja auf das gesamte Bild

-/\-CruNcher-/\-
2021-08-13, 23:14:49
The Witcher 3 mit FSR
https://youtu.be/BhpaDtUJZWE

Das einzige was ich hier sehe das es in diesem bestimmten use case rein Performancetechnisch absolut 0 sinn macht.

von 16 ms zu 10 ja von 10 zu 8 was für einen sinn soll es machen ?

Andron
2021-08-13, 23:37:18
z9wMBbozQ5I

Im RPCS3 sieht Gran Turismo 5 laut diesem Vergleich mit FSR deutlich besser aus als ohne. Bessere Kantenglättung, sogar feine Details wie Zäune werden teilweise dargestellt und sind kein vollkommen undefinierter Pixelbrei mehr.

Glauben kann ich es eigentlich nicht, wie viel FSR hier bringen soll. Ist mit rein räumlichem Upscaling so wohl kaum möglich.

https://abload.de/thumb/gt5_fsrdmkpv.jpg (https://abload.de/image.php?img=gt5_fsrdmkpv.jpg)

EDIT: Da muss die interne Auflösung wohl höher sein, Vram und die GPU sind stärker ausgelastet. Nach FSR Performance (1080p->2160p) sieht das auf keinem Fall aus. Also einfach Äpfel mit Birnen verglichen...

OpenVMSwartoll
2021-08-14, 01:32:45
[...]
Glauben kann ich es eigentlich nicht, wie viel FSR hier bringen soll. Ist mit rein räumlichem Upscaling so wohl kaum möglich.

https://abload.de/thumb/gt5_fsrdmkpv.jpg (https://abload.de/image.php?img=gt5_fsrdmkpv.jpg)

EDIT: Da muss die interne Auflösung wohl höher sein, Vram und die GPU sind stärker ausgelastet. Nach FSR Performance (1080p->2160p) sieht das auf keinem Fall aus. Also einfach Äpfel mit Birnen verglichen...

Hab jetzt 90 Sekunden gesehen. Links UHD mit FSR, rechts FullHD ohne. Wenn Du das Video verlinkst, dann schaue es bitte auch.

Platos
2021-08-14, 02:17:11
Das einzige was ich hier sehe das es in diesem bestimmten use case rein Performancetechnisch absolut 0 sinn macht.

von 16 ms zu 10 ja von 10 zu 8 was für einen sinn soll es machen ?

Und jetzt?

-/\-CruNcher-/\-
2021-08-14, 06:34:49
https://youtu.be/z9wMBbozQ5I

Im RPCS3 sieht Gran Turismo 5 laut diesem Vergleich mit FSR deutlich besser aus als ohne. Bessere Kantenglättung, sogar feine Details wie Zäune werden teilweise dargestellt und sind kein vollkommen undefinierter Pixelbrei mehr.

Glauben kann ich es eigentlich nicht, wie viel FSR hier bringen soll. Ist mit rein räumlichem Upscaling so wohl kaum möglich.

https://abload.de/thumb/gt5_fsrdmkpv.jpg (https://abload.de/image.php?img=gt5_fsrdmkpv.jpg)

EDIT: Da muss die interne Auflösung wohl höher sein, Vram und die GPU sind stärker ausgelastet. Nach FSR Performance (1080p->2160p) sieht das auf keinem Fall aus. Also einfach Äpfel mit Birnen verglichen...

Das ist mal ein sehr schönes Perceptible beispiel wo es richtig ordentlich hilft wenn es wahr wäre ;)

vinacis_vivids
2021-08-14, 08:48:08
Tja, FSR kann zaubern, wie es DLSS nicht kann :-)

FSR holt mehr aus der CPU raus, das ist absolut genial.
FSR holt mehr aus der GPU raus, das ist absolut genial.
FSR erhöht die interne Rechnungsauflösung als auch die Ausgabeauflösung durch höhere GPU-CPU-Nutzung.
FSR holt aus der verfügbaren Rechenleistung mehr Bildqualität heraus, das ist besonders bei älteren Systemen genial. Free 4K Upgrade.

-/\-CruNcher-/\-
2021-08-14, 09:07:12
Ja ne aber das ist ein Uralt Titel speziel noch mit Entwicklungsziel PS3 Cell + Nvidia
Exklusiver ging Engine Entwicklung dann nur noch auf der PSP und da waren modernere approaches noch nicht ausgereift.
Das waren so die Anfänge überhaupt von breitem PBR/PBS einsatz und die Problemlösungsansätze die daraus resultierten namen erstmal langsam Fahrt auf.
Das jetzt auch noch emuliert zu vergleichen mit heutigen ansätzen selbst unterhalb von DLSS da gehört schon schneid dazu oder dummheit :D

Oddzz
2021-08-14, 09:44:29
Ich glaub, das wurd noch nicht hier verlinkt, oder?
Die Folien von der Siggraph 2021 FSR-Präsentation der Unity-Entwickler: https://advances.realtimerendering.com/s2021/Unity%20AMD%20FSR%20-%20SIGGRAPH%202021.pdf

-/\-CruNcher-/\-
2021-08-14, 09:47:38
Passt doch Timothy jetzt bei Unity, du hast versagt gegen deinen ex auf wiedersehen.
Wenn man sieht was er da gebastellt hat fragt man sich wo er die ganzen jahre steckengeblieben ist, auch nur ansatzweise zu glauben das er seine eigene TXAA weitere Entwicklung damit schlagen könnte, schon mit Turing muss ihm ja klar geworden sein das wird nichts mehr, denke mal als er die ersten DLAA ergebnisse sah war ihm klar wo Nvidias reise hingeht und das sein Effort aussichtslos sein wird, sobald ihn die iteration geschwindigkeit Nvidias Cluster auseinanderreist.
Glaube einfach nicht das er wirklich dachte das Nvidia bei TXAA und DSR stehenbleiben wird.

Andron
2021-08-14, 10:01:53
Hab jetzt 90 Sekunden gesehen. Links UHD mit FSR, rechts FullHD ohne. Wenn Du das Video verlinkst, dann schaue es bitte auch.

Was willst du jetzt damit sagen? Habe es geschaut und auch die Auflösungen waren mir bekannt. UHD mit FSR bedeutet, dass es nicht in UHD berechnet wird und im Performance-Modus wird genau 1080p gerendert und skaliert.

Daher ging ich davon aus, dass genau dieser Modus verwendet wurde, da gleiche Ausgangsauflösung. Anders ist auch überhaupt kein sinnvoller Vergleich möglich.

Ich hätte gleich auf das OSD schauen müssen, dann wäre es klar gewesen, sorry. Dein Post ist aber genauso überflüssig, alleine aufgrund den Angaben "UHD FSR" und "1080p nativ" kann man eben nicht schließen, dass unterschiedliche Renderauflösungen zugrunde liegen...

DrFreaK666
2021-08-14, 16:18:39
Das einzige was ich hier sehe das es in diesem bestimmten use case rein Performancetechnisch absolut 0 sinn macht.

von 16 ms zu 10 ja von 10 zu 8 was für einen sinn soll es machen ?

Wenn ich mich nicht täusche, dann entsprechen 8ms 120FPS.
Da es genügend 120FPS-Bildschirme gibt, macht es meiner Meinung nach schon Sinn

TheAntitheist
2021-08-14, 18:17:45
Was willst du jetzt damit sagen? Habe es geschaut und auch die Auflösungen waren mir bekannt. UHD mit FSR bedeutet, dass es nicht in UHD berechnet wird und im Performance-Modus wird genau 1080p gerendert und skaliert.

Daher ging ich davon aus, dass genau dieser Modus verwendet wurde, da gleiche Ausgangsauflösung. Anders ist auch überhaupt kein sinnvoller Vergleich möglich.

Ich hätte gleich auf das OSD schauen müssen, dann wäre es klar gewesen, sorry. Dein Post ist aber genauso überflüssig, alleine aufgrund den Angaben "UHD FSR" und "1080p nativ" kann man eben nicht schließen, dass unterschiedliche Renderauflösungen zugrunde liegen...
dann erklär mal warum die GPU Auslöastung 50+% höher ist und der VRAM verbrauch auch 50% höher ist. Er hat nicht Performance genutzt offensichtlicherweise...

OpenVMSwartoll
2021-08-14, 18:46:53
dann erklär mal warum die GPU Auslöastung 50+% höher ist und der VRAM verbrauch auch 50% höher ist. Er hat nicht Performance genutzt offensichtlicherweise...

Das ist ja das Dumme an dem Video. Nichts Genaues weiß man nicht...

Andron
2021-08-14, 23:09:29
dann erklär mal warum die GPU Auslöastung 50+% höher ist und der VRAM verbrauch auch 50% höher ist. Er hat nicht Performance genutzt offensichtlicherweise...

Genau die Erkenntnis hatte ich in meinen Ausgangspost editiert, schon vor deiner Antwort...

dildo4u
2021-08-18, 13:28:27
Edge Of Eternity FSR vs DLSS mit 6600XT und 3060.

https://www.computerbase.de/2021-08/amd-fsr-nvidia-dlss-edge-of-eternity/

Das Game nutzt Unity und laut dem Test überzeugt das Game eigene TAA am meisten.

hmmm
2021-08-18, 14:09:32
Zeigt einmal mehr, die Qualität von FSR steht und fällt mit dem AA des Spiels selbst, gutes AA gleich gutes FSR. Bei DLSS ist es genau andersrum, je besser das spieleeigene AA desto weniger kann sich DLSS absetzt, bzw desto mehr stechen dann die strukturellen Nachteile hervor.

Gast
2021-08-18, 20:05:52
Das Game nutzt Unity und laut dem Test überzeugt das Game eigene TAA am meisten.

Also wenn ich den Test lese überzeugt bei dem Game gar nix.

TAA = Unscharf, DLSS = falsche Mip-Levels, FSR scharf aber instabil.

Klares Beispiel von wie sollte man es nicht machen.

TheAntitheist
2021-08-18, 21:52:30
Edge Of Eternity FSR vs DLSS mit 6600XT und 3060.

https://www.computerbase.de/2021-08/amd-fsr-nvidia-dlss-edge-of-eternity/

Das Game nutzt Unity und laut dem Test überzeugt das Game eigene TAA am meisten.
Tja dann sollte man den Test auch lesen:

"DLSS kann in vielen Spielen mit einer hervorragenden Bildstabilität punkten und das ist auch in Edge Of Eternity der Fall. Das spieleigene HQ-TAA erledigt diesbezüglich einen mittelmäßigen Job, denn selbst in hohen Auflösungen flimmern zahlreiche Bildelemente noch leicht. "

hmmm
2021-08-18, 22:28:02
Tja dann sollte man den Test auch lesen:


Tja, dann mach das.

"FAZIT
...
Die beste Bildqualität gibt es entsprechend mit nativer Auflösung inklusive des spieleigenen TAAs."

TheAntitheist
2021-08-19, 04:26:35
Tja, dann mach das.

"FAZIT
...
Die beste Bildqualität gibt es entsprechend mit nativer Auflösung inklusive des spieleigenen TAAs."
Ja aber nicht beim AA... da steht doch das die falschen Mip Maps bei DLSS das Endergebnis negativ beeinflussen und das haben die Devs verkackt... Also noch einer der nicht lesen kann :rolleyes:

Dildo4u meinte das AA und du postest etwas über Bildqualität. Jetzt finde den Fehler.

hmmm
2021-08-19, 05:44:10
Also noch einer der nicht lesen kann :rolleyes:

Dildo4u meinte das AA und du postest etwas über Bildqualität. Jetzt finde den Fehler.

"inklusive des spieleigenen TAAs"

Ja genau. *Kopfschüttel*

TheAntitheist
2021-08-19, 06:10:26
"inklusive des spieleigenen TAAs"

Ja genau. *Kopfschüttel*
was zitierst du da bitte für eine Lüge, Dildo4u sagte: "Das Game nutzt Unity und laut dem Test überzeugt das Game eigene TAA am meisten." dreister gehts nicht...
und CB sagt zum TAA: "Das spieleigene HQ-TAA erledigt diesbezüglich einen mittelmäßigen Job"

erzähl mal weiter deine Märchengeschichten. kommst jetzt auf die Ignore.

DrFreaK666
2021-08-19, 06:20:05
was zitierst du da bitte für eine Lüge, Dildo4u sagte: "Das Game nutzt Unity und laut dem Test überzeugt das Game eigene TAA am meisten." dreister gehts nicht...
und CB sagt zum TAA: "Das spieleigene HQ-TAA erledigt diesbezüglich einen mittelmäßigen Job"

erzähl mal weiter deine Märchengeschichten. kommst jetzt auf die Ignore.

Bist am DLSS verteidigen, oder?
Also ist dir unscharfes DLSS lieber als scharfes natives Bild, nur weil die Bildruhe besser ist?

hmmm
2021-08-19, 07:22:02
was zitierst du da bitte für eine Lüge, Dildo4u sagte: "Das Game nutzt Unity und laut dem Test überzeugt das Game eigene TAA am meisten." dreister gehts nicht...
und CB sagt zum TAA: "Das spieleigene HQ-TAA erledigt diesbezüglich einen mittelmäßigen Job"

erzähl mal weiter deine Märchengeschichten. kommst jetzt auf die Ignore.

Ist nur das Fazit von computerbase. Lese es doch mal bitte.

Edit:

"Die von AMD FSR und Nvidia DLSS erzeugten Bilder sehen völlig unterschiedlich aus. Überzeugen können in dem Spiel schlussendlich aber beide nicht sonderlich, da es zu viele, ganz unterschiedliche Problembereiche gibt. Die beste Bildqualität gibt es entsprechend mit nativer Auflösung inklusive des spieleigenen TAAs."

Lurtz
2021-08-19, 10:21:53
Bist am DLSS verteidigen, oder?
Also ist dir unscharfes DLSS lieber als scharfes natives Bild, nur weil die Bildruhe besser ist?
Das ist doch der Deal, den man jeher seit spätetens TAA hat und ja, mir ist das lieber als Flimmern. Das reißt mich mittlerweile sofort aus jeder Immersion, zumal man die Unschärfe meist gut wegschärfen kann.

Iscaran
2021-08-19, 10:47:33
CB-Testet 2 Bildverschlechterer die beide dazu da sind mehr FPS bei vernachlässigbaren Bildqualittätseinbrüchen zu liefern.

Beide liefern auch vom Original "unterscheidbare" Bilder - wenn auch in den höchsten Stufen nur marginal sichtbar (Standbild und Pixelsuche).

Welche Bildqualität für einen persönlich ausreichend ist - oder was einem eher zusagt ist Geschmackssache. Ich persönlich finde z.B. das CB schon seit jeher überempfindlich auf "flimmern" fokussiert ist - und lieber ein "Matschbild" akzeptiert (Hauptsache es "flimmert" nicht).

Dabei finde ich persönlich es gerade andersrum angenehmer. Scharfes Bild im Stand - ist besser. Weil das "flimmern" bei Bewegung filtert unser (zumindest mein) Auge gut raus.

Deswegen finde ich konkret euf EoE FSR hier als die angenehmere FPS-Verbesserungslösung.

Das beste an FSR ist - es DÜRFEN auch nVidia-User benutzen.

Gast
2021-08-19, 11:06:22
Also ist dir unscharfes DLSS lieber als scharfes natives Bild, nur weil die Bildruhe besser ist?

Ja Bildruhe >> Bildschärfe.

Fehlende Bildschärfe fällt nur im direkten Vergleich auf, fehlende Bildruhe dagegen immer, weil nun mal Unruhe sehr anziehend auf das Auge wirkt.

Zumal die fehlende Bildschärfe ja vom nicht angepassten LOD stammt, und man hier selbst noch nachhelfen könnte.

dargo
2021-08-19, 11:19:23
Ja Bildruhe >> Bildschärfe.

Fehlende Bildschärfe fällt nur im direkten Vergleich auf, fehlende Bildruhe dagegen immer, weil nun mal Unruhe sehr anziehend auf das Auge wirkt.

Was ein bullshit wieder. Als ob das jeder nach deinem Schema so empfinden würde. Ich kann bsw. ein unscharfes Bild überhaupt nicht leiden.

Iscaran
2021-08-19, 11:20:00
Ja Bildruhe >> Bildschärfe.
Fehlende Bildschärfe fällt nur im direkten Vergleich auf, fehlende Bildruhe dagegen immer, weil nun mal Unruhe sehr anziehend auf das Auge wirkt.


Sehe ich genau andersherum - sofern die Bildruhe nicht massive gestört ist (z.B. wegen "Tearing" - aber seit V-Sync ist Tearing kein Problem mehr).

Bildflimmern von kleinen Bildbereichen, wenn man sich bewegt und das Bild hin- und herschwankt (Veränderung des Blickwinkels weil man hin und her schaut bei Spielen), fällt hingegen nur auf, wenn man sich genau darauf konzentriert.

Fehlende Schärfe, gerade in der Entfernung hingegen bemerkt man(ich) auch bei bewegten Bildern noch im bestimmten Maße sehr wohl.

Troyan
2021-08-19, 11:26:26
Klar, Bildflimmern fällt nur auf, wenn man hinschaut. Wo schaut man denn so hin, beim Spielen? Neben den Bildschirm?

FSR wird immer mehr flimmern als nativ. Sei es fehlende Kantenglättung oder Unterabtastung durch das verschobene LoD.

Iscaran
2021-08-19, 11:36:35
Klar, Bildflimmern fällt nur auf, wenn man hinschaut. Wo schaut man denn so hin, beim Spielen? Neben den Bildschirm?


Bildschärfe fällt auch auf wenn man hinschaut? Was ist also dein Argument?

Gast
2021-08-19, 11:50:33
Was ein bullshit wieder. Als ob das jeder nach deinem Schema so empfinden würde. Ich kann bsw. ein unscharfes Bild überhaupt nicht leiden.

Nein kein Bullshit sondern evolutionsbedingt. Durch unsere vor-vor-vorfahren sind wir nun mal extrem trainiert auch auf kleinste Bewegungen zu achten, für diese konnte das nämlich ein Raubtier das sich im hohen Gras anschleicht anstatt eines Pixelflimmerns durch Unterabtastung sein, und wenn man dann nicht schnell genug reagiert wars das.

Wir sind von Natur aus darauf ausgelegt so auf jegliche Bewegungen zu reagieren und unsere Aufmerksamkeit darauf zu lenken, und flimmernde Pixel bewegen sich nun mal wie wild.

Die Schärfe spielt dafür keine große Rolle, was auch gut ist weil der Bereich des Gesichtsfeldes der wirklich scharf ist, ist in Wirklichkeit extrem klein, da sich unsere Augen so schnell bewegen können glauben wir nur, dass alles was wir sehen wirklich scharf ist.
Das ist auch gut so, wenn wir auf Bildschärfe anstatt auf Bewegung reagieren würden, können wir Bedrohungen im Augenwinkel nämlich gar nicht wahrnehmen.

Gast
2021-08-19, 11:53:39
Dabei finde ich persönlich es gerade andersrum angenehmer. Scharfes Bild im Stand - ist besser. Weil das "flimmern" bei Bewegung filtert unser (zumindest mein) Auge gut raus.


Dein Auge filtert garantiert kein Flimmern raus, wenn dann filtert es dein Monitor mit lahmen Pixelschaltzeiten raus.

aufkrawall
2021-08-19, 12:37:53
In Doom Et. ist DLSS schärfer als TAA nativ, wahrscheinlich dreht das ohne Sharpen Kreise um EASU bez. Bildschärfe. ;)
Die xte langweilige Sharpen-Debatte...

Troyan
2021-08-19, 12:41:22
Bildschärfe fällt auch auf wenn man hinschaut? Was ist also dein Argument?

Bildschärfe sollte regelbar sein. Da FSR jedoch nur Bildschärfe ist, sollte man jeden Spieler die Option einfach anbieten.

Der Rest ist dummes kaum besseres bilineares Upscaling mit verschobenen LoD. Das wiederum wird immer zu mehr Flimmern führen als bei DLSS, da im Gegensatz zu DLSS eben nicht mehr Informationen zur Verfügung stehen.

aufkrawall
2021-08-19, 12:42:35
Kannst du mal den Stuss mit "bilinear" sein lassen? Im SC sieht man eindeutig, dass es ein Lanczos-Scaler ist. Ist zwar auch nichts tolles, aber auch kein bilinear...

Gast
2021-08-19, 12:46:49
Bildschärfe fällt auch auf wenn man hinschaut? Was ist also dein Argument?

Eben nicht, zumindest erst ab einem bestimmten Maß. Flimmern ist immer sofort komplett unnatürlich, bei fehlender Schärfe ist das nicht unbedingt der Fall. Fehlende Schärfe kann auch ganz natürlich auftreten, sei es durch Hitzeflimmern, Luftverschmutzung Dunst oder ähnliches und sticht deshalb nicht von vorne herein als "falsch" ins Auge.

dargo
2021-08-19, 13:20:25
Bildschärfe sollte regelbar sein. Da FSR jedoch nur Bildschärfe ist, sollte man jeden Spieler die Option einfach anbieten.

Der Rest ist dummes kaum besseres bilineares Upscaling mit verschobenen LoD.
Cool Story Bro.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12747867&postcount=1227

Mir wäre neu, dass bilineares Upscaling Objektkanten glättet.

DrFreaK666
2021-08-19, 14:13:18
...Der Rest ist dummes kaum besseres bilineares Upscaling ....

Schau dir das Video von Hardware Unboxed an. Die zeigen dass FSR deutlich besser aussieht als einfaches Upscaling, egal wie oft du es hier noch behaupten willst.

Was den momentanen Topic angeht: als ich noch eine schnellere Karte hatte, habe ich bei jedem Spiel (!!) Reshade mit dem CAS-Sharpener installiert. Mir ist ein scharfes Bild daher wichtiger

aufkrawall
2021-08-19, 14:22:52
Schau dir das Video von Hardware Unboxed an. Die zeigen dass FSR deutlich besser aussieht als einfaches Upscaling, egal wie oft du es hier noch behaupten willst.

Ohne Sharpen aber nur minimal, siehe mein bikubisch-Vergleich. EASU ist btw. immer noch "einfach" bzw. "dumb", weil der wirklich nur die Nachbar-Pixel in einem bestimmten Radius anschaut und in die Verrechnung für die interpolierten Pixel einfließen lässt (genau wie CAS/RCAS). Das ist tatsächlich erstmal näher an bikubisch als an irgendwas mit Deep Learning.

Gast
2021-08-19, 14:31:19
Kannst du mal den Stuss mit "bilinear" sein lassen? Im SC sieht man eindeutig, dass es ein Lanczos-Scaler ist. Ist zwar auch nichts tolles, aber auch kein bilinear...

Naja er hat kaum besser als bilinear geschrieben und lanzcos ist kaum besser als bilinear.

DrFreaK666
2021-08-19, 14:41:31
Ohne Sharpen aber nur minimal, siehe mein bikubisch-Vergleich. EASU ist btw. immer noch "einfach" bzw. "dumb", weil der wirklich nur die Nachbar-Pixel in einem bestimmten Radius anschaut und in die Verrechnung für die interpolierten Pixel einfließen lässt (genau wie CAS/RCAS). Das ist tatsächlich erstmal näher an bikubisch als an irgendwas mit Deep Learning.

AMD sagte explizit dass es keine DL-Technik nutzt. Keine Ahnung wieso du das nochmal erwähnen musst

aufkrawall
2021-08-19, 14:50:37
Weil du gesagt hast, FSR wäre kein "einfaches" Upscaling. Es ist aber defakto nur einfaches Upscaling + einfaches Sharpen. Man hat halt versucht im Rahmen des primitiven das maximal mögliche rauszuholen. Hat ja auch ganz gut geklappt, aber ist halt trotzdem nur primitiv.

DrFreaK666
2021-08-19, 15:09:09
Weil du gesagt hast, FSR wäre kein "einfaches" Upscaling. Es ist aber defakto nur einfaches Upscaling + einfaches Sharpen. Man hat halt versucht im Rahmen des primitiven das maximal mögliche rauszuholen. Hat ja auch ganz gut geklappt, aber ist halt trotzdem nur primitiv.

Ja gut, dann haben wir verschiedene Ansichten. Im Vergleich zu DLSS ist es natürlich einfach, im Vergleich zu Bilinear allerdings nicht

Gast
2021-08-19, 23:51:34
Ja gut, dann haben wir verschiedene Ansichten. Im Vergleich zu DLSS ist es natürlich einfach, im Vergleich zu Bilinear allerdings nicht

Lanzcos ist besser als Bilinear, aber jetzt auch nicht wesentlich.

Das DLSS-Upscaling ist dagegen so gut, das es in den meisten Fällen gar nicht mal als Upscaling sichtbar ist, während FSR, auch wenn es mit ausreichender Grundauflösung und Pixeldichte vielleicht gut genug ist, immer klar als Upscaling wahrnehmbar ist.

dargo
2021-08-21, 07:30:12
Das DLSS-Upscaling ist dagegen so gut, das es in den meisten Fällen gar nicht mal als Upscaling sichtbar ist, während FSR, auch wenn es mit ausreichender Grundauflösung und Pixeldichte vielleicht gut genug ist, immer klar als Upscaling wahrnehmbar ist.
Schön pauschalisierter Nonsens mal wieder. Ob es als Upscaling wahrnehmbar ist hängt von vielen Faktoren ab.

1. Pixelcount
2. Pixeldichte vom eigenen Bildschirm
3. FSR-Stufe
4. Spiele-Content
5. eigene Wahrnehmung von dem der vor dem Bildschirm sitzt
6. falsche Nachschärfung seitens DEVs

Gast
2021-08-21, 16:39:04
1. Pixelcount
2. Pixeldichte vom eigenen Bildschirm


Dazu müsste die Pixeldichte aber in Smartphone-Bereiche gehen, für normale PC-Monitore ist nichts vergleichbares erhältlich, abgesehen davon dass wir dann selbst mit FSR Renderauflösungen bräuchten die keine aktuelle Hardware berechnen kann.


3. FSR-Stufe


Höhere berechnete Auflösung führt zu mehr Qualität, no-na da wäre man wohl nie drauf gekommen.


4. Spiele-Content


Ein Upscaling-Algorithmus der keine Details wiederherstellen kann fällt nicht auf wenn der Grundcontent diese Details gar nicht beinhaltet? Was für eine Feststellung nur ist das nichts woran sich die Qualität des Upscalings feststellen lässt. Wenn ich am ganzen Monitor ein vollfarbiges pinkes Rechteck darstellen will, kann ich es auch als 1x1 Pixel berechnen und hochskalieren lassen und es wird nicht anders aussehen. Darum geht es aber nicht, die Qualität eines Upscalers muss daran beurteilt werden wenn es darum geht Details darzustellen die eben von der realen Renderauflösung nicht mehr ordnungsgemäß abgetastet werden können. Wenn diese nicht vorhanden sind kann ich auch ganz altmodisch einfach die Auflösung verringern und werden keine großen Nachteile bemerken.


5. eigene Wahrnehmung von dem der vor dem Bildschirm sitzt


Gleiches 0-Argument wie darüber, ja wenn der eigene Visus schlecht genug und nicht korrigiert ist kann man die schlechtere BQ nicht wahrnehmen? Nicht falsch, aber wie der Punkt darüber komplett irrelevant und auch nichts was für FSR spricht, weil dann kann man auch ganz einfach Auflösung/Renderscale reduzieren und sieht auch nicht schlechter, dazu braucht es kein FSR.


6. falsche Nachschärfung seitens DEVs

Nachschärfung ist immer Subjektiv, falsch kann eigentlich nur zu viel sein, weil Nachschärfung selbst Details zerstört.

Gratzner
2021-08-22, 22:00:52
Dazu müsste die Pixeldichte aber in Smartphone-Bereiche gehen, für normale PC-Monitore ist nichts vergleichbares erhältlich, abgesehen davon dass wir dann selbst mit FSR Renderauflösungen bräuchten die keine aktuelle Hardware berechnen kann.
Um mal vor den Augen zu halten, was harte Fanboys schreiben (Dieser Gast ist offensichtlich einer): Ein PC-Monitor mit Pixeldichte eines Smartphones:

- Ich nehme mal einen hypothetischen 28-Zoll Monitor an: Dieser hat somit 24 Zoll/langen Seite und 14.5 Zoll/kurzen Seite
- Pixeldichte eines Smartphones beträgt etwa 500 pixel/inch (die Highend-Dinger sind bei über 800 Pixel/inch)
- 1 inch = 1 Zoll (= 2,54 cm)
- Also hat der Bildschirm an der langen Seite 24 Zoll *500 Pixel/inch =12.000 Pixel
- An der kurzen Seite sind es 14.5 Zoll *500 pixel/inch = 7250 Pixel
- Gesamtauflösung 12000 *7250 =87.000.000 Pixel

Nur mal zum Vergleich: das Auge hat ~6 Millionen Zapfen. (~2 Mio. Zäpfchen/Farbe)

- Gut Fanboy und Realität ... ist manchmal schwierig

Ein Upscaling-Algorithmus der keine Details wiederherstellen kann fällt nicht auf wenn der Grundcontent diese Details gar nicht beinhaltet?

Welche Details sollen den wiederhergestellet werden? Beim Upscaling wird ja nicht das Bild in volle Auflösung berechnet, dann die Hälfte der Pixel verworfen, um sie mit dem Upscaling wiederherzustellen (Zur Erklärung warum: Das würde ja die Bildqualität gegenüber nativ verschlechtern und trotzdem die Rechenleistung von Nativ benötigen). Sondern das Bild wird von Anfang in niedrigerer Auflösung berechnet. Und dann gibt es keine fehlende Pixel wiederherzustellen oder Rekonstruieren, weil es die Details der höheren Auflösung nie gab.

Darum geht es aber nicht, die Qualität eines Upscalers muss daran beurteilt werden wenn es darum geht Details darzustellen die eben von der realen Renderauflösung nicht mehr ordnungsgemäß abgetastet werden können.

Ähm, es gibt kein Echtzeit-Upscaler, welcher Details in Computerspielen hinzufügen können. Es gibt GANs, die können Details mehr oder weniger gut dazu-raten, aber weder in Echtzeit und es ist auch nur raten auf Basis gelernter Bilder. Und wieder: Eine Information, die die reale Renderauflösung nicht abgetastet hat, kann auch nicht "widerhergestellt" oder "Rekonstruiert" werden. Und schon gar nicht DLSS. DLSS holt Informationen, wie jeder andere temporaler SS auch, aus vorherigen Bilder. Details die DLSS dem aktuellen Bild hinzufügt, gab es somit schon in den vorherigen Bilder und sind nicht rekonstruiert oder was auch immer.

Gleiches 0-Argument wie darüber, ja wenn der eigene Visus schlecht genug und nicht korrigiert ist kann man die schlechtere BQ nicht wahrnehmen? Nicht falsch, aber wie der Punkt darüber komplett irrelevant und auch nichts was für FSR spricht, weil dann kann man auch ganz einfach Auflösung/Renderscale reduzieren und sieht auch nicht schlechter, dazu braucht es kein FSR.


FSR macht mehr als Bikubisch und sieht auch besser aus als Bikubisch (alleine), nämlich noch ein Kontrastadaptive Schärfung (scheinbar wird hier leider oftmals der sharpness_knob-Faktor von den Devs zu hoch gewählt). Optional kann FSR noch: Film-Grain drüberwerfen und "Temporal Energy Preserving Dither", also Pseudo-Farbtiefe erzeugen. Bikubisch kann das alles nicht

Nachschärfung ist immer Subjektiv, falsch kann eigentlich nur zu viel sein, weil Nachschärfung selbst Details zerstört.

Die Schärfung kann normallerweise keine Details zerstören. Dazu müsste man benachbarte Pixel(gruppen), welche verschiedene Details repräsentieren ununterscheidbar machen. Da Schärfung nur die Farbwerte der Pixel anpasst, müsste also Schärfung die Farbwerte der benachbarten Pixel(gruppen) gleich machen, also den Kontrast unendlich verringern, um Details zu zerstören. Mmh, sharpening macht aber genau das Gegenteil: Es erhöht die Kontraste Benachbarter Pixel...

Gratzner
2021-08-22, 22:11:46
Zur Erklärung was FSR und DLSS machen:

Erstmal was zu den Bedeutungen bestimmter Wörter, um einen bestimmten Sachverhalt zu verstehen:
- es gibt (physikalische) Schärfe, also tatsächlich in einem Bild vorhandene Details
- und es gibt Schärfeeindruck, also die wahrgenommenen Details

Wahrgenommene Details /= tatsächlich vorhandene Details. Man sieht in Computerspielen nur ein Bruchteil der Details aus beispielsweise folgende Gründen:

- Die Pixelfläche, die das Details darstellt ist Flächenmäßig zu klein (Achtung, wie klein die Auflösungsgrenze ist, hängt vom Kontrast ab -> hoher Helligkeitskontrast, z.B.: Schwarz-Weiß-Pixel, sind in eine wesentliche höhere Auflösung als niedrige Farbkontraste, z. B.: RGB [0 200 1] vs. RGB [1 200 0] wahrnehmbar)
- Eine Möglichkeit mehr wahrnehmbare Details darzustellen bei gleicher physikalischen Detailzahl, wäre also die Fläche zu erhöhen -> nimmt wahrscheinlich niemand ernsthaft als gutes Upscaling wahr. Da Geht halt bei Computerspielen normalerweise immer Renderauflösung verloren, da Größe und Pixelzahl eines Monitors fest sind. Aber bei Bildbearbeitungssoftware kennt man diesen Vorgang, Fläche eines Details zu erhöhen, um diesen (besser) zu sehen können als zoomen.

- Kontrast zu schwach -> RGB [0 200 1] vs. RGB [1 200 0] sind als benachbarte Pixel vielleicht schwer zu unterscheiden, besonders da es einzelne Pixel sind und vielleicht in einem Computerspiel nur wenige Frames dargestellt werden.
- Erhöht man aber den Farb- und Helligkeitsunterschied zwischen diese zwei Pixel ("Kontrasterhöhung"), kann man die Pixel sicherlich besser unterscheiden und macht so nicht sichtbare Details sichtbar (deshalb wird Kontrasterhöhung auch Schärfen genannt(!), es erhöht aber nicht die physikalische Schärfe, sondern wahrgenommene Schärfe), (FSR bzw. CAS arbeiten so)

- Details können auch dem Menschlichen Auge verborgen bleiben, weil sie zu kurz dargestellt werden (z.B.: nur 1 Frame lang, bei 120FPS).
- Wenn man diese Details mehrere Bilder lang darstellt (beispielsweise zeitliche Wiederholung der Information), so erhöht es ebenfalls die wahrgenommenen Details und hilft nebenbei bei vielen Artefakten in Computerspielen


Die Aussagen, wie DLSS-Upscaling oder FSR-Upscaling rekonstruieren Details oder sehen besser aus als bikubisch kommen imho einfach nur durch Äpfel mit Birnen vergleichen:

- so erhöht FSR den Schärfeeindruck, also die Wahrnehmbaren Details, durch Kontrasterhöhung (CAS, Kontrast-Adaptive-Schärfung, nennt sich das Modul, welche dies in FSR macht).
- Bei den ganzen FSR-Vergleichen vergleicht man aber Bild [Nativ ohne Kontrasterhöhung/ohne CAS] vs. [FSR] statt [Nativ mit CAS/Kontrasterhöhung] vs. [FSR]. Würde man letzteres machen, so würde FSR wie Bikubisches Upscaling aussehen. Und es ist auch technisch kein Problem CAS einzubauen. 1. ist CAS open source, 2. wer FSR einbaut hat ohnehin CAS mit eingebaut, weil es Teil von FSR ist.

- DLSS erhöht den Schärfeeindruck durch die Analyse der letzten Frames und baut die daraus gewonnenen Informationen in ein neues Bild ein. Auch hier wieder wird [Nativ] vs. [DLSS-Upscaling] verglichen statt [Nativ mit DLSS ohne Verringerung der Inputauflösung] vs. [DLSS-Upscaling].
- Würde man letzteres machen, bezweifele ich stark, das was merklich besseres als bikubisch rauskommt. Auch hier wieder: wo DLSS-Upscaling eingebaut ist, wäre es sicher ein leichtes DLSS mit nativer Auflösung zu implementieren, da DLSS ohnehin schon eingebaut ist. Ggf. ist es den Entwicklern nicht so einfach möglich, weil 1. NVidia es nicht vorgesehen hat und 2. diese Firma dazu neigt so viel wie möglich unter closed source und Verschwiegenheit zu stellen

Gast
2021-08-23, 10:47:26
- Pixeldichte eines Smartphones beträgt etwa 500 pixel/inch (die Highend-Dinger sind bei über 800 Pixel/inch)


Stimmt nicht ganz da hier ja alle höher aufgelösten Smartphones Pen-Tile verwenden und damit keine vollständigen Pixel, was die realen PPI etwas senkt.

Was es aber auf jeden Fall braucht sind 300-400 echte PPI.


Nur mal zum Vergleich: das Auge hat ~6 Millionen Zapfen. (~2 Mio. Zäpfchen/Farbe)


Nur sind diese:
1. nicht wie bei unseren technischen Geräten schön gleichmäßig über die ganze Fläche verteilst sondern extrem konzentriert um den gelben Fleck.

2. Sind die Zapfen wie du sagst für die Farben zuständig, nur warum unterschlägst du dann die Stäbchen von denen das Auge immerhin ca. 125 Millionen hat.

Die Stäbchen sind für das Kontrastsehen und damit auch für das Erfassen von Details zuständig.

Genau deshalb teilen fast alle verlustbehafteten Bildkompressionsverfahren in Farb- und Helligkeitsinformationen und erlauben viel stärkere Verluste in den Farbinformationen.
Der Großteil der Details ist aber in den Helligkeitsinformationen enthalten und weil wir eben viel mehr Stäbchen als Zapfen haben reagieren wir wesentlich empfindlicher auf Fehler in den Helligkeitsinformationen als in jenen der Farbinformationen.

Du musst nur mal in Photoshop ein Bild in ein Format mit getrennten Farb- und Helligkeitsinformationen konvertieren. Dann wendest du einen Blurfilter einmal nur auf die Farbkanäle und einmal nur auf den Helligkeitskanal an, so lange bis du die Unterschiede auch wahrnimmst.
Du wirst erstaunt sein, wie viel man die Farbkanäle blurren kann bevor man es auch sieht, und wie wenig am Helligkeitskanal ausreicht bis es deutlich sichtbar ist.


Welche Details sollen den wiederhergestellet werden?

Details die in der Zielauflösung vorhanden wären, wenn diese nativ berechnet würde.


Beim Upscaling wird ja nicht das Bild in volle Auflösung berechnet,


Natürlich, deshalb heißt es ja UP-Scaling.
Das Ziel des Upscalers muss es aber sein, jene Details wiederherzustellen, die aufgrund der verringerten Renderauflösung eben fehlen.


Ähm, es gibt kein Echtzeit-Upscaler, welcher Details in Computerspielen hinzufügen können.


Es gibt DLSS, es gibt TUAA in der Unreal Engine, es gibt das Temporale Upscaling dessen Name mir gerade entfallen ist in der Id-Tech Engine...

DLSS holt Informationen, wie jeder andere temporaler SS auch, aus vorherigen Bilder. Details die DLSS dem aktuellen Bild hinzufügt, gab es somit schon in den vorherigen Bilder und sind nicht rekonstruiert oder was auch immer.


Sie werden im aktuellen Bild erzeugt, aus Informationen die von den vorhergehenden Bildern zur Verfügung stehen.

Wenn man einen Upscaler verwendet der keine temporalen Informationen benutzt hat man damit natürlich eine schlechtere Ausgangsposition gegenüber Upscalern die temporale Informationen verwenden.


FSR macht mehr als Bikubisch und sieht auch besser aus als Bikubisch (alleine), nämlich noch ein Kontrastadaptive Schärfung (scheinbar wird hier leider oftmals der sharpness_knob-Faktor von den Devs zu hoch gewählt).


Also das war alle in diesem Thread sagen, FSR ist nicht mehr als Lanzcos + Sharpening, wobei nicht unterschlagen werden sollte, dass das Sharpening eine sehr hohe Qualität hat. Aber es ist eben nur Sharpening und kann damit keine Details erzeugen sondern nur vorhandene Details betonen, im Gegensatz zu anderen höherwertigeren Upsalern.

Die ganze Diskussion erinnert mich irgendwie an Homöopathie.

Ja Homöopathie wirkt keine Frage ..... nicht über den Placeboeffekt hinaus.
Hoffentlich werde ich jetzt nicht verklagt.

Und mehr ist FSR auch nicht, ein Placeboeffekt.


Optional kann FSR noch: Film-Grain drüberwerfen und "Temporal Energy Preserving Dither", also Pseudo-Farbtiefe erzeugen. Bikubisch kann das alles nicht



Noch so eine Unart moderner Spiele, warum versucht man in Spielen unbedingt Kamerafehler, die man im Film unbedingt vermeiden will künstlich zu erzeugen. Film-Grain + Chromatische Aberration sind ein absolutes No-Go und werden immer als erstes deaktiviert.


Die Schärfung kann normallerweise keine Details zerstören. Dazu müsste man benachbarte Pixel(gruppen), welche verschiedene Details repräsentieren ununterscheidbar machen. Da Schärfung nur die Farbwerte der Pixel anpasst, müsste also Schärfung die Farbwerte der benachbarten Pixel(gruppen) gleich machen, also den Kontrast unendlich verringern, um Details zu zerstören. Mmh, sharpening macht aber genau das Gegenteil: Es erhöht die Kontraste Benachbarter Pixel...


Dann öffne einmal ein beliebiges Bild in einem Bildbearbeitungsprogramm deiner Wahl und öffne den Filter "Unscharf Maskieren". Dieser sollte normalerweise 2 Regler haben, Radius und Stärke. Dann stell diese mal hoch und beobachte wie vor allem der Radiusregler Details vernichtet je höher man ihn stellt.

DrFreaK666
2021-08-23, 11:54:16
AMD FSR Helped Ensure the Myst Remake Could Run at 60FPS on Xbox Series Consoles
https://wccftech.com/amd-fsr-helped-ensure-the-myst-remake-could-run-at-60fps-on-xbox-series-consoles/

Das native Bild könnte aber auch CAS vertragen

Troyan
2021-08-23, 12:24:44
Ähm, es gibt kein Echtzeit-Upscaler, welcher Details in Computerspielen hinzufügen können. Es gibt GANs, die können Details mehr oder weniger gut dazu-raten, aber weder in Echtzeit und es ist auch nur raten auf Basis gelernter Bilder. Und wieder: Eine Information, die die reale Renderauflösung nicht abgetastet hat, kann auch nicht "widerhergestellt" oder "Rekonstruiert" werden. Und schon gar nicht DLSS. DLSS holt Informationen, wie jeder andere temporaler SS auch, aus vorherigen Bilder. Details die DLSS dem aktuellen Bild hinzufügt, gab es somit schon in den vorherigen Bilder und sind nicht rekonstruiert oder was auch immer.

Natürlich haben die erstellten Frames rekonstruierte Informationen. Genauso wie auch eine native Auflösung Informationen versucht zu rekonstruieren. Was denkst du denn, wofür "Samples" da sind? :rolleyes:
DLSS kann also eine Linie aus 1/4 der Eingabedaten rekonstruieren, woingehen eine native 4K Auflösung aufgrund der geringen vorhanden Informationen scheitert.

HOT
2021-08-23, 12:27:27
Wenn die Auflösung niedriger berechnet wird, gibts nichts zu rekonstruieren, das ist doch total logisch. Du kannst höchstens Informationen hinzufügen, das tut DLSS 2.0 offenbar aber gar nicht, denn das ist schlichtweg zu schwer. Das Wort "Rekonstruktion" ist hier einfach nur irreführend. Du könntest höchstens was rekonstruieren, wenn es zwischendurch Frames mit voller Auflösung gäbe. Aber DLSS kommt vollständig mit den Informationen der niedrigeren Auflösung aus.

Gast
2021-08-23, 14:34:48
Wenn die Auflösung niedriger berechnet wird, gibts nichts zu rekonstruieren, das ist doch total logisch.

Ähm nein, genau umgekehrt wenn du in hoher Auflösung berechnest musst du nichts rekonstruieren, ist eh schon alles da.

Nur durch die niedrige Auflösung entsteht überhaupt erst die Notwendigkeit zu rekonstruieren.

Geldmann3
2021-08-23, 15:03:47
Wenn die Auflösung niedriger berechnet wird, gibts nichts zu rekonstruieren, das ist doch total logisch. Du kannst höchstens Informationen hinzufügen, das tut DLSS 2.0 offenbar aber gar nicht, denn das ist schlichtweg zu schwer. Das Wort "Rekonstruktion" ist hier einfach nur irreführend. Du könntest höchstens was rekonstruieren, wenn es zwischendurch Frames mit voller Auflösung gäbe. Aber DLSS kommt vollständig mit den Informationen der niedrigeren Auflösung aus.

Den Begriff rekonstruieren fand ich in der Tat schon immer etwas fehl am Platze, sowas wie Ergänzen wäre eventuell passender.
Allerdings wäre das auch so, wenn es zwischendrin Bilder in der vollen Auflösung gäbe, denn Du müsstest erraten, was dazwischen passiert ist.

Es gibt schon was zu rekonstruieren, angenommen Du hast eine Linie und entfernst einen Teil davon mit dem Radiergummi. Wenn Dir nun jemand sagt, dass die Linie zuvor dazwischen fortgesetzt war, kannst Du durchaus wieder mit einem Stift hingehen und die Linie rekonstruieren. Bei DLSS allerdings ist es immer auch ein wenig erraten, denn niemand weiß, ob die Linie nicht doch durch etwas unterbrochen wurde, was nur nicht von einem Sample erfasst ist.

DLSS fügt schon Informationen hinzu oder besser gesagt, es generiert sogar 100% der Bildinformationen, nämlich das gesamte Bild. Denn davor hattest Du nur Bilder in einem Bruchteil der internen Auflösung mit einem Sample-Jitter. DLSS reinterpretiert die berechneten Samples in ein Bild mit höherer Auflösung. Vor DLSS hatte kein einziger Pixel denselben Farbwert wie danach, ja, es gab nicht einmal ein Bild in der finalen Auflösung. So gesehen ,,erschafft" DLSS das Bild sogar aus den berechneten Samples. Vorher gab es kein Bild, nur Samples, verteilt in Zeit und Raum.

So gesehen passt Rekonstruieren als Begriff dann doch wieder ganz gut. Wir rekonstruieren schließlich auch z.b. das Aussehen eines Dinosauriers aus seinen verbliebenen Knochen oder das Gesicht eines Neandertalers.
Der Begriff klingt an dieser Stelle passend.
Doch präzise ist er nicht, denn streng genommen ist es immer Raten.

HOT
2021-08-23, 15:37:04
Ähm nein, genau umgekehrt wenn du in hoher Auflösung berechnest musst du nichts rekonstruieren, ist eh schon alles da.

Nur durch die niedrige Auflösung entsteht überhaupt erst die Notwendigkeit zu rekonstruieren.

Nochmal ganz langsam zum Mitschreiben, damit es der letzte (also du) auch versteht:

REkonstruktion


Dieser Rekonstruktionsblödsinn ist purer MarketingBS.



Falls das wieder falsch rüberkommt: DLSS ist die beste Upscalingtechnik, das ist schon großes Kino. Und wenns eben gut wirkt ist auch alles i.O. Dennoch sollte man hier bei der Wahrheit bleiben und die Tatsachen vom Marketing trennen. Das ist halt ne Technik die mit erheblich weniger Rechenaufwand als die tatsächliche Auflösung ein gutes optisches Ergebnis auf höher aufgelösten Displays erzeugt. Damit war es das dann aber auch.

aufkrawall
2021-08-23, 15:42:15
So komplett daneben ist das nicht, denn das Aliasing entsteht ja erst während des Renderings, nicht in der Quelle.

Gast
2021-08-23, 20:05:01
Nochmal ganz langsam zum Mitschreiben, damit es der letzte (also du) auch versteht:

REkonstruktion



??? So schlecht ist meine Rechtschreibung nicht.



Falls das wieder falsch rüberkommt: DLSS ist die beste Upscalingtechnik, das ist schon großes Kino. Und wenns eben gut wirkt ist auch alles i.O. Dennoch sollte man hier bei der Wahrheit bleiben und die Tatsachen vom Marketing trennen. Das ist halt ne Technik die mit erheblich weniger Rechenaufwand als die tatsächliche Auflösung ein gutes optisches Ergebnis auf höher aufgelösten Displays erzeugt. Damit war es das dann aber auch.

Ja und wenn man aus wenigen Pixeln pro Frame gleich viele Frames mit mehr Pixeln erzeugt die auch noch mehr Details beinhalten als mit den wenigen Pixeln eigentlich möglich wäre nennt man das rekonstruieren.

Gast
2021-08-23, 20:17:02
Natürlich haben die erstellten Frames rekonstruierte Informationen. Genauso wie auch eine native Auflösung Informationen versucht zu rekonstruieren. Was denkst du denn, wofür "Samples" da sind? :rolleyes:
DLSS kann also eine Linie aus 1/4 der Eingabedaten rekonstruieren, woingehen eine native 4K Auflösung aufgrund der geringen vorhanden Informationen scheitert.

Eine Linie ist definiert, wenn man zwei Punkte kennt, durch die sie verläuft. Dann ist bereits die räumliche Information dieser Linie vollständig definiert. Wenn man das nicht weiß, scheint es natürlich Zauberei, das man mithilfe von nur zwei Punkte eine Linie unendlich hoch Auflösung kann. Deshalb fügt für dich in deinem Beispiel DLSS Informationen hinzu. Ich weiß aber, das eine Linie nur aus zwei Punkten besteht und deshalb wird für mich in diesem Beispiel keine Information hinzugefügt, sondern aus einer vorhandener Information mehr Samples erzeugt, die zusammen den gleichen Information Gehalt haben

Gratzner
2021-08-23, 21:12:21
Stimmt nicht ganz da hier ja alle höher aufgelösten Smartphones Pen-Tile verwenden und damit keine vollständigen Pixel, was die realen PPI etwas senkt.

Was es aber auf jeden Fall braucht sind 300-400 echte PPI.
...



2. Sind die Zapfen wie du sagst für die Farben zuständig, nur warum unterschlägst du dann die Stäbchen von denen das Auge immerhin ca. 125 Millionen hat.

Ich will mich jetzt mit Deinem Realitätsfernen Bullshit, man Bräuchte 87 Mio. Pixel, bevor man mit FSR keine unterschiede mehr wahrnimmt nicht weiter einlassen. Oder von mir aus auch nur irgendwelche 20 Mio. Pixel, weil Smartphone-dpis getrickst sind. Daher ganz zum Schluss:

Die Stäbchen habe ich ganz bewusst weggelassen. Mag sein, dass das menschliche Auge 126 Mio. Sehzellen hat. Deine Zahlen stimmen so.

Aber mal was anderes: es beantwortet nicht die Frage, wie viel Bildpunkte zum menschliche Gehirn gelangen, wo die Bildverarbeitung stattfindet. Diese Frage kann ich Dir aber beantworten: Pro Auge: bis zu 1,5 Mio. Bildpunkte, weil man genau so viele Ganglienzellen hat.

Ganglienzellen sind Nervenzellen direkt unter der Netzhaut und fassen Information von mehreren Sehzellen zusammen und leiten so auch nur 1,5 Mio. Bildpunkte pro Auge zum visuellen Cortex weiter, wo die Bildwahrnehmung im Gehirn stattfindet. Mag sein, das man wegen irgendwelcher Effekte auch noch von doppelt so viel Bildpunkte profitiert. Aber Deine Aussagen, man bräuchte irgendwelche 20 Mio. Pixel fürs Auge sind einfach nur kompletter Bullshit, denn Du dir ausgedacht hast, weil du ein lächerliches Problem mit einem Konsumwarenhersteller hast (Marken-Antibindung? Fanboytum?) (... dabei wird man nichtmal gezwungen FSR zu verwenden, wenn es einem nicht gefällt)


Es gibt DLSS, es gibt TUAA in der Unreal Engine, es gibt das Temporale Upscaling dessen Name mir gerade entfallen ist in der Id-Tech Engine...

Die Fügen alle genau 0 Details der Computergrafik hinzu. Alle Information, die sie einem Frame hinzufügen, holen sie aus vorherigen Frames ("temporal"). Damit gibt es zusätzliche keine Information oder Detail, welche es nicht in einem vorherigen Frame gab. (man muss natürlich wissen, das ein Computerspiel bewegte Bilder erzeugt, also die Informationen, die man wahrnimmt, nicht durch ein einzelnen Frame vollständig definiert sind) Ich weiß nicht, wie oft ich das noch schreiben darf. Ich meine für einige ist lesen offensichtlicherweise so unfassbar schwierig.



DLSS holt Informationen, wie jeder andere temporaler SS auch, aus vorherigen Bilder. Details die DLSS dem aktuellen Bild hinzufügt, gab es somit schon in den vorherigen Bilder und sind nicht rekonstruiert oder was auch immer.
Sie werden im aktuellen Bild erzeugt, aus Informationen die von den vorhergehenden Bildern zur Verfügung stehen.

Ich sehe, Du bist sehr schwer von Begriff. Du widersprichst dich innerhalb von einem Satz. Im ersten Teilsatz heißt es, sie (die Informationen) werden erzeugt. Im zweiten Teilsatz schreibst Du, sie kommen von vorhergehenden Bildern. Lass einfach mal Dein endloses Fanboytum weg.

Mag sein, das die Informationen aus vorhergehende Bilder noch bearbeitet und dreimal geschaukelt werden, dadurch wird daraus aber keine neue Information. Sondern es bleibt Information aus vorhergehenden Bildern, welche eben verändert werden.

Btw. lancos und bikubisch schaukeln die Information auch mehrfach. Man kann auf ein bikubisches Bild eine DTFT machen und sieht wesentlich mehr Amplituden als vorher. Trotzdem hat ein bikubisches Bild nicht mehr Informationen. Woher kommen dann diese wesentlich mehr Amplituden, welche man in der DTFT sieht? Durchs schaukeln, genauer gesagt: Jede Amplitude in der DTFT des originalen Bildes wird glaube ich (ich bin mir nicht ganz sicher mit der Rechenoperation) mit der DTFT des bikubischen Splines gefalten (in der DTFT des skalierten Bildes). Der Spline hat aber null Bildinformationen und die zusätzliche Amplituden in der DTFT des skalierten Bildes sind somit keine Zusätzliche Informationen.
---
Es ist wie Hot schrieb: Es ist Rekonstruktion im Marketing-Sinne, aber nicht was tatsächlich passiert. Egal ob DLSS oder FSR

Ich habe das versucht hier zu erklären, warum die zu mindestens etwas wirken: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12770402&postcount=1421
Man macht halt nicht sichtbare Details sichtbar. Es gibt nämlich sowas, wie Schärfe (tatsächliche Details) und Schärfeindruck (wahrgenommene Details)

Vielleicht hätte ich noch hinzufügen sollen, das temporale Verfahren unheimlich gut funktionieren können, weil der Rasterizer an feinen Details (Objekte die aus Sicht des Viewports kleiner als ein Pixel sind, Kanten, etc.) oft vorbeirastert und sie nur manchmal treffen (damit sind diese feinen Details beim Rasterizer vorhanden, aber zeitlich betrachtet manchmal mehr ein flimmern oder Rauschen, als gut wahrnehmbares Detail) -> die temporale Verfahren beheben jedoch dieses große Makel (mehr oder weniger gut).

Gratzner
2021-08-23, 21:20:45
DLSS fügt schon Informationen hinzu oder besser gesagt, es generiert sogar 100% der Bildinformationen, nämlich das gesamte Bild. Denn davor hattest Du nur Bilder in einem Bruchteil der internen Auflösung mit einem Sample-Jitter. DLSS reinterpretiert die berechneten Samples in ein Bild mit höherer Auflösung. Vor DLSS hatte kein einziger Pixel denselben Farbwert wie danach, ja, es gab nicht einmal ein Bild in der finalen Auflösung. So gesehen ,,erschafft" DLSS das Bild sogar aus den berechneten Samples. Vorher gab es kein Bild, nur Samples, verteilt in Zeit und Raum.

Nochmal, nur weil man die Informationen aus vorhergehende Bilder noch bearbeitet, oder sogar Informationen nur aus die Renderauflösung nimmt (welche in der skalierten "Bildschirmauflösung" ebenfalls drinstecken), werden aus den Informationen plötzlich keine neuen Informationen, sondern es bleiben Informationen aus vorhergehende Bildern. Diese werden lediglich angepasst/verändert um irgendwelche negativen Effekte zu vermeiden oder das "visuelle Erlebnis zu verbessern", warum auch immer

Gast
2021-08-23, 22:24:01
Nochmal, nur weil man die Informationen aus vorhergehende Bilder noch bearbeitet, oder sogar Informationen nur aus die Renderauflösung nimmt (welche in der skalierten "Bildschirmauflösung" ebenfalls drinstecken), werden aus den Informationen plötzlich keine neuen Informationen, sondern es bleiben Informationen aus vorhergehende Bildern.

Und wenn man Informationen aus den vorherigen Bildern ins aktuelle hinzufügt, was passiert dann mit dem aktuellen Bild?

Richtig es sind plötzlich mehr Informationen im Bild

why_me
2021-08-23, 23:56:24
Eine Linie ist definiert, wenn man zwei Punkte kennt, durch die sie verläuft. Dann ist bereits die räumliche Information dieser Linie vollständig definiert. Wenn man das nicht weiß, scheint es natürlich Zauberei, das man mithilfe von nur zwei Punkte eine Linie unendlich hoch Auflösung kann. Deshalb fügt für dich in deinem Beispiel DLSS Informationen hinzu. Ich weiß aber, das eine Linie nur aus zwei Punkten besteht und deshalb wird für mich in diesem Beispiel keine Information hinzugefügt, sondern aus einer vorhandener Information mehr Samples erzeugt, die zusammen den gleichen Information Gehalt haben

Selten so einen Unsinn bezüglich DLSS gelesen.....

Wie DLSS im groben funktioniert sollte mittlerweile doch bekannt sein. DLSS hat eine Ahnung von irgendwelchen Linien irgendwelcher Objekte im Spiel. Temporales Supersampling der letzten X Bilder.

Andron
2021-08-23, 23:56:55
Nochmal, nur weil man die Informationen aus vorhergehende Bilder noch bearbeitet, oder sogar Informationen nur aus die Renderauflösung nimmt (welche in der skalierten "Bildschirmauflösung" ebenfalls drinstecken), werden aus den Informationen plötzlich keine neuen Informationen, sondern es bleiben Informationen aus vorhergehende Bildern. Diese werden lediglich angepasst/verändert um irgendwelche negativen Effekte zu vermeiden oder das "visuelle Erlebnis zu verbessern", warum auch immer

Egal wie oft es wiederholt wird, es bleibt falsch. Für FSR gelten deine Ausführung zwar, für DLSS allerdings nicht. Bei der Verrechnung mehrerer Bilder wird nix erfunden oder "geschaukelt". Man kann durch verrechnen mehrerer, leicht verschobener Bilder tatsächlich vorhandene Details auf Subpixelebene (bis auf geringe Abweichungen durch die Mittelung) rekonstruieren.

Das nutzen z.B. auch Kamerahersteller: Durch verschieben des Bildsensors bei gleichzeitiger Aufnahme von Bildern (Sensor-Shift) werden höhere Auflösungen erreicht, als sie der Bildsensor physikalisch bietet. Kann man übrigens mit jeder x-beliebigen Kamera + Photoshop & Co ebenso erreichen.

Das Problem ist, dass sich natürlich nichts im Bild während der Aufnahme sichtbar Bewegen darf, da die Pixel der einzelnen Bilder sonst nicht mehr zueinander passen.

Genau dieses Problem wird durch berücksichtigen von Bewegungsvektoren in Spielen minimiert, bei DLSS funktioniert das momentan dank ML-Ansatz am besten.

Freestaler
2021-08-24, 00:07:55
OT: Berufstolz, 2 Angaben für Linie reichen nicht. Nur für eine Gerade, eine spezifische Linie oder eine Linie mit drei Angaben und eben nicht nur zwei. Ja ein Strahl ist das was sehr verwantes, jedoch nicht gleich wie ne Gerade.

Gratzner
2021-08-24, 00:24:46
Für FSR gelten deine Ausführung zwar, für DLSS allerdings nicht. Bei der Verrechnung mehrerer Bilder wird nix erfunden oder "geschaukelt". Man kann durch verrechnen mehrerer, leicht verschobener Bilder tatsächlich vorhandene Details auf Subpixelebene (bis auf geringe Abweichungen durch die Mittelung) rekonstruieren.

Das nutzen z.B. auch Kamerahersteller: Durch verschieben des Bildsensors bei gleichzeitiger Aufnahme von Bildern (Sensor-Shift) werden höhere Auflösungen erreicht, als sie der Bildsensor physikalisch bietet. Kann man übrigens mit jeder x-beliebigen Kamera + Photoshop & Co ebenso erreichen.

Das Problem ist, dass sich natürlich nichts im Bild während der Aufnahme sichtbar Bewegen darf, da die Pixel der einzelnen Bilder sonst nicht mehr zueinander passen.

Genau dieses Problem wird durch berücksichtigen von Bewegungsvektoren in Spielen minimiert, bei DLSS funktioniert das momentan dank ML-Ansatz am besten.

Dein Kameravergleich ist unpassend. Ein Bildsensor tastet nicht ab, der hat eine Belichtungszeit, in der viele tausende Photonen zu unterschiedlichen Zeiten während der Belichtungszeit reinfallen. Wenn ich jetzt das Sensor verschiebe, kann ich während der Belichtungszeit leicht variieren, welche räumliche Informationen auftreffen. Ja das geht mit Analogen Bauteilen, weil die Zeitkontinuirlich arbeiten
Computergrafik hingegen, macht zeitlich gesehen pro Frame genau eine Abtastung. Weil Computer arbeiten im Gegensatz zur Analogen Bauteilen Zeitdiskret. Die können nicht die Rasterizer Grafik belichten und währenddessen den Viewport leicht verschieben.

Wenn sie verschobene Bilder haben wollen, müssen sie die letzten Frames auswerten (Und die letzten Frames sind Information, welche dem Spieler bereits präsentiert wurden). Und die können aus den letzten Frames nur Informationen gewinnen, welche in den Frames drinstecken, also keine neuen erzeugen. temporale Verfahren verrechnen diese bereits präsentierten Informationen mit aktuellen Bild.
(Ausnahme: Es sei den man hat die letzten Frames gezielt verworfen (dann hat der Spieler diesen Frame nicht gesehen). Dann kostet dich aber die höhere Auflösung genau die Menge an FPS, welche man an Auflösung gewinnt, und die Gesamtsumme der Information bleibt immer noch gleich)

Da kannst du Subpixel noch so fett schreiben, auch ohne temporale verfahren, haben Rasterizer übrigens ebenfalls Subpixelinformation. Informationen Subpixel-kleiner Details entstehen beispielsweise durchs abtasten: Wenn ich an Subpixel-kleine Details abtaste, werde ich zeitlich gesehen, diese manchmal treffen und manchmal den Hintergrund treffen. Das Verhältnis aus getroffen und nicht getroffen verrät mir die Größe dieses Subpixeldetails. Diese Informationen stecken im Rasterizer auch ohne temporale Verfahren drinnen, nur nicht immer räumlich sondern auch manchmal zeitlich

Man kann durch verrechnen mehrerer, leicht verschobener Bilder tatsächlich vorhandene Details auf Subpixelebene (bis auf geringe Abweichungen durch die Mittelung) rekonstruieren.

Noch so ein falsche Aussage. Da werden keine Informationen rekonstruiert, die vermeintlich gewonnen Details, habe sich vorher nur auf räumlich (oder zeitlich benachbarte) Pixel aufgeteilt und dort ggf. mit anderen Details vermischt, wodurch sie aber nicht verloren gegangen sind (Eine Mischung besteht ja immer aus mehr als eine Komponente), sondern bereits immer in den Bilder drinnen waren. Du schreibst ja selber, man brauch mehrere Bilder. Warum denn wohl? Weil die Informationen bereits temporal drinstecken in den Bilder drinnen stecken.

Nochmal für dich: Computergrafik sind bewegte Bilder, keine Standbildern. Wenn ich bewegten Bildern neue Informationen hinzufügen will und benutzt Information aus vorherige Bilder und verrechne diese mit dem Aktuellen Bilder, dann gebe ich den einzelnen Bildern mehr Details (aus vorherigen Bildern). Aber ich gebe den bewegten Bilder, also der Computergrafik, als gesamtes keine weiteren Information dazu

Andron
2021-08-24, 01:22:47
Dein Kameravergleich ist vollkommener Blödsinn. Ein Bildsensor tastet nicht ab, der hat eine Belichtungszeit, in der viele tausende Photonen zu unterschiedlichen Zeiten während der Belichtungszeit reinfallen. Wenn ich jetzt das Sensor verschiebe, kann ich während der Belichtungszeit leicht variieren, welche räumliche Informationen auftreffen. Ja das geht mit Analogen Bauteilen, weil die Zeitkontinuirlich arbeiten. (Davon ab brauch Phase-Shift eine längere Belichtungszeit, als ohne Phaseshift, womit die zusätzliche räumliche Auflösung wieder "FPS" bei einem Video kosten würden -> also wieder gleiche Informationsgehalt)

Der Sensor-Shift geschieht bei einer Kamera nicht während, sondern zwischen den Belichtungen. Die Belichtungszeit ist daher (bis auf etwaige Bewegungsunschärfe) völlig irrelevant. Die Technik ist damit sehr wohl vergleichbar. Außerdem funktioniert es wie gesagt mit Serienbildern auch ohne Sensor-Shift im Nachhinein am PC... Stichwort "Super-Resolution".


Computergrafik hingegen, macht zeitlich gesehen pro Frame genau eine Abtastung. Weil Computer arbeiten im Gegensatz zur Analogen Bauteilen Zeitdiskret. Die können nicht die Rasterizer Grafik belichten und währenddessen den Viewport leicht verschieben.

Erübrigt sich, da Sensor-Shift unabhängig von der Belichtungszeit funktioniert und somit sehr wohl vergleichbar ist. In beiden Fällen werden digitale, gerasterte Bilder (bzw. Sensordaten) verrechnet.


Wenn sie verschobene Bilder haben wollen, müssen sie die letzten Frames auswerten (Und die letzten Frames sind Information, welche dem Spieler bereits präsentiert wurden). Und die können aus den letzten Frames nur Informationen gewinnen, welche in den Frames drinnestecken, also keine neuen erzeugen. temporale Verfahren verrechnen diese bereits präsentierten Informationen mit aktuellen Bild. Wegen Schärfe und Artefakte brauch man auch subpixelinformationen

Die Subpixelinformationen können eben aus mehreren Bildern ziemlich genau angenähert werden. Denn eine Bildinformation, die kleiner als das Pixelraster ist, trägt dennoch zur Farb- und Helligkeitsinformation eines Pixels bei. Je nach Position dieser Subpixelinformation kann diese entweder einen großen Teil eines Pixels ausmachen und damit tatsächlich sichtbare Unterschiede ergeben oder im Extremfall auf 4 Pixel aufgeteilt werden und damit kaum noch sichtbar sein. Durch die Mittelung leicht versetzter Bilder kann diese Subpixelinformation durchgängig klar sichtbar und nicht nur Sporadisch dargestellt werden. Genau deswegen glänzt DLSS ja bei der Rekonstruktion feiner Strukturen. FSR schwächelt an dieser Stelle, da hier neben der reduzierten Auflösung keine weiteren Informationen verwertet werden können.

Erklärst du im Folgenden ja auch selbst:

Da kannst du Subpixel noch so fett schreiben, auch ohne temporale verfahren, haben rasterizer übrigens ebenfalls Subpixelinformation. Informationen Subpixel-kleiner Details enstehen beispielsweise durchs abtasten: Wenn ich an Subpixel-kleine Details abtaste, werde ich zeitlich gesehen, diese manchmal treffen und manchmal den Hintergrund treffen. Das Verhältnis aus getroffen und nicht getroffen Verrät mir die Größe dieses Subpixeldetails. Diese Informationen stecken im Rasterizer auch ohne temporale Verfahren drinne, nur nicht immer räumlich sondern auch manchmal zeitlich

Natürlich sind die Informationen über mehrere Frames verteilt vorhanden, aber eben nie gleichzeitig als zusammenhängendes Detail sichtbar. Genau darin besteht die Rekonstruktion, diese auf viele Bilder verteilten Informationen zu einen sichtbaren Gesamtbild zusammenzufügen. Was bitte ist das denn anderes als Rekonstruktion:confused:?
Nach dieser Logik gäbe es auch keine temporale Kantenglättung, da die nötigen Informationen ja sowieso schon in den vorangegangen Frames vorhanden waren und damit gar keine zusammenhängenden Kanten rekonstruiert werden könnten.


Noch so ein falsche Aussage. Da werden keine Informationen rekonstruiert, die vermeintlich gewonnen Details, habe sich vorher nur auf räumlich (oder zeitlich benachbarte) Pixel aufgeteilt und dort ggf. mit anderen Details vermischt, wodurch sie aber nicht verloren gegangen sind (Eine Mischung besteht ja immer aus mehr als eine Komponente)

Da gehe ich noch teilweise mit. Informationen werden nicht rekonstruiert, sondern Details, welche sich aus zeitlich getrennten Teilinformationen zusammensetzen. Da diese aber ohne temporale Verrechnung niemals in einem einzelnen Bild zusammenhängend auftreten, kann man mMn. nicht davon sprechen, das nichts rekonstruiert wird.

Eine weitere Diskussion führt allerdings zu nichts und wird zu sehr OT.

Gratzner
2021-08-24, 01:48:34
Natürlich sind die Informationen über mehrere Frames verteilt vorhanden, aber eben nie gleichzeitig als zusammenhängendes Detail sichtbar. Genau darin besteht die Rekonstruktion, diese auf viele Bilder verteilten Informationen zu einen sichtbaren Gesamtbild zusammenzufügen. Was bitte ist das denn anderes als Rekonstruktion:confused:?
Nach dieser Logik gäbe es auch keine temporale Kantenglättung, da die nötigen Informationen ja sowieso schon in den vorangegangen Frames vorhanden waren und damit gar keine zusammenhängenden Kanten rekonstruiert werden könnten.

Ich habe ja auch von der Rekonstruktion von tatsächlich vorhanden physikalischen Information geredet (egal ob wahrnehmbar oder nicht). Und da ist es, wie du es schreibst, tatsächlich so, es werden keine Informationen rekonstruiert.

Bin auch voll deiner Meinung, das man die Informationen, die oft schwer oder gar nicht als Detail wahrnehmen sind, DLSS am besten wahrnehmbar macht (neben XeSS evtl.). Um Verwirrung zu vermeiden, habe ich ja auch geschrieben, es gibt sowas wie physikalische Schärfe (physikalisch vorhandene Details, egal ob wahrnehmbar oder nicht) und Schärfeindruck (nur wahrnehmbare Details) (beide gerne als Schärfe beschrieben). DLSS "rekonstruiert" (wenn dir dieses Wort lieb ist) aus physikalischen Details (welche im besten Fall schwer oder gar nicht wahrnehmbar sind), wahrnehmbare Details. Und es Rekonstruiert jedoch keine physikalische Details aus dem nix oder anderen physikalischen Details (das geht halt nicht wirklich).
(Gründe, warum man physikalische Details nicht wahrnehmen kann, hast du auch selbst beschrieben, z. B.: "Natürlich sind die Informationen über mehrere Frames verteilt vorhanden, aber eben nie gleichzeitig als zusammenhängendes Detail sichtbar." Und ich habe auch ein fast gleiches Beispiel gebracht mit den Rasterizer, welcher an Details kleiner als ein Pixel oft vorbeitastet und diese nur manchmal trifft -> also total unzusammenhängend abtastet und dadurch ist diese kleine physikalische Information womöglich nicht als gleichzeitig zusammenhängendes Detail sichtbar)

Bezüglich wahrnehmbarer und physikalischer Details, du verwendest diese Unterscheidung übrigens jetzt auch, z. B.: "Natürlich sind die Informationen über mehrere Frames verteilt vorhanden [Anm.: physikalische Details]), aber eben nie gleichzeitig als zusammenhängendes Detail sichtbar. [Anm.: wahrnehmbare Details]" Und ich gehe übrigens zu dieser Aussage auch voll mit und bin auch der Meinung, das DLSS (neben evtl. XeSS), die besten Verfahren für diese Problematik sind (zumindest bisher).
zu deiner Frage: "Was bitte ist das denn anderes als Rekonstruktion:confused:?"
Das ist für mich keine Rekonstruktion von physikalisch Details oder physikalischen Informationen, das ist, um mal beim Wort Rekonstruktion zu bleiben, Rekonstruktion von wahrnehmbaren Details oder von mir aus Rekonstruktion von wahrnehmbare Informationen. Für mich war bisher Rekonstruktion wirklich nur die Rekonstruktion von physikalischen Details, die Rekonstruktion von wahrnehmbaren Details war für mich sowas wie Wahrnehmbarmachung von kaum oder gar nicht sichtbaren physikalischen Details


Da gehe ich noch teilweise mit. Informationen werden nicht rekonstruiert, sondern Details, welche sich aus zeitlich getrennten Teilinformationen zusammensetzen. Da diese aber ohne temporale Verrechnung niemals in einem einzelnen Bild zusammenhängend auftreten, kann man mMn. nicht davon sprechen, das nichts rekonstruiert wird.
Da gehe ich auch vollkommen mit, "physikalische Details" als "Information" und "wahrnehmbare Details" als "Detail" zu benennen. Hat aber ebenfalls Verwirrungspotenzial und sollte unterschieden werden und nicht vermischt werden

Reaping_Ant
2021-08-24, 03:07:39
Ich kenne mich mit den Begriffen in der Bildverarbeitung nicht so gut aus, daher schreibe ich mal aus Sicht der Informationstheorie. Die folgende Erklaerung ist etwas lang und mathematisch, aber ich hoffe trotzdem verstaendlich und hilfreich. Ich lasse ausserdem bewusst den neural network Aspekt unter den Tisch fallen, da dieser die Diskussion nur unnoetig verkompliziert.

Aus mathematischer Sicht kann man einen Upscaling-Algorithmus als Funktion X_H = f(X_L) auffassen, die aus einem Eingangsdatensatz X_L (dem Bild in niedriger Aufloesung) ein Ergebnis X_H (das Bild in hoeherer Aufloesung) erzeugt. Wenn I(X) die in X enthaltene Information ist - wobei man sich auch Gedanken machen muss, wie genau man Information quantifiziert - dann gilt I(X_H) = I(f(X_L)) <= I(X_L), das heisst, ein Algorithmus kann niemals Information erzeugen.

Im Falle von Upscaling ohne temporaere Komponente enthaelt das Bild auf dem Monitor also niemals mehr Information als das Bild in der Ursprungsaufloesung. Nun kommt aber noch die Komponente unserer Wahrnehmung hinzu. Vereinfacht ausgedrueckt kann man die menschliche Wahrnehmung als weitere Funktion Y = g(X) beschreiben, die aus einem Bild X ein "gehirnkompatibles" Signal Y erzeugt. Also muessen wir nicht X_H mit X_L vergleichen, sondern Y_H mit Y_L. Nun gilt zwar erneut I(Y_H) <= I(X_H), das heisst, unsere Wahrnehmung reduziert im Allgemeinen den Informationsgehalt weiter. Wir haben also I(Y_H) <= I(X_L) und I(Y_L) <= I(X_L), im Gehirn kommen also in jedem Fall weniger Informationen an, als im niedrig aufgeloesten Ursprungsbild enthalten waren. Allerdings sagt das nichts ueber das Verhaeltnis zwischen Y_H und Y_L (also dem, was unsere Wahrnehmung aus dem hochgerechneten und dem urspruenglichen Bild macht) aus. Es kann (und sollte, wenn der Algorithmus seine Aufgabe erfuellt) also I(Y_H) > I(Y_L) gelten, so dass die wahrgenommene Information (siehe Gratzners Posts) durch das Upscaling zunimmt.

Bei Verfahren, die mit temporaeren Daten arbeiten ist die Situation ein wenig komplizierter. Hier besteht der Algorithmus aus einer Funktion (X_H1, X_H2, X_H3) = f(X_L1, X_L2, X_L3) - der Einfachheit halber nehme ich einmal an, dass wir drei Bilder in niedriger Aufloesung nehmen und drei Bilder in hoher Aufloesung erzeugen. Nun gilt wiederum I(X_H1, X_H2, X_H3) <= I(X_L1, X_L2, X_L3); wenn wir die gesamten Eingabe- und Ausgabedaten vergleichen, kann der Algorithmus wiederum keine Information erzeugen.

Allerdings ist Information im Allgemeinen nicht additiv (wenn die Datensaetze Korrelationen haben), das heisst es gilt im Allgemeinen nicht I(X_H1, X_H2, X_H3) = I(X_H1) + I(X_H2) + I(X_H3). Ein einfaches Beispiel ist, wenn jedes der drei Ausgabebilder gleich ist und einfach nur aus den Eingabebildern nebeneinander gelegt besteht. Dann gilt natuerlich I(X_H1, X_H2, X_H3) = I(X_L1, X_L2, X_L3) = I(X_H1), also enthaelt jedes Ausgabebild die komplette Information aller Eingabebilder und die Information nimmt nicht weiter zu, wenn ich einfach nur dieses Ausgabebild dreimal wiederhole. Dieses triviale Beispiel zeigt aber, dass durchaus I(X_H1) > I(X_L1) gelten kann. Obwohl der Algorithmus im Gesamten keine Information erzeugt, kann die Infomation eines einzelnen Ausgabebildes durchaus hoeher sein als die eines einzelnen Eingabebildes.

Die Tatsache, dass die gesamte Information nicht erhoeht wird, macht sich natuerlich trotzdem bemerkbar, da die Korrelation zwischen den einzelnen Bildern zunimmt. Das kann bei einer Folge von sich unterscheidenden Bildern natuerlich unerwuenscht sein und sich in Schlieren oder Nachzieheffekten aeussern, wenn man es mit der temporaeren Komponente uebertreibt.

Auf das Ergebnis kann man jetzt noch z.B. Sharpening anwenden, um die wahrgenommene Information nochmals zu erhoehen. Was die Betrachtung weiter verkompliziert, ist dass unsere Wahrnehmung auch temporaer arbeitet, das heisst, wir nehmen keine Reihe von Einzelbildern sondern sich von Bild zu Bild bewegende Objekte wahr. Also muessten wir eigentlich I(Y_H1, Y_H2, Y_H3) mit I(Y_L1, Y_L2, Y_L3) vergleichen, also was von der hochgerechneten vs. originalen Bildsequenz im Gehirn ankommt.

Im Falle von DLSS kommt noch hinzu, dass bei der Berechnung von Echtzeitgrafik eigentlich deutlich mehr Information entsteht, als in den fertigen Bildern enthalten ist. Im Speziellen waeren das z.B. die Bewegungsvektoren Z, die natuerlich ebenfalls Information enthalten, die allerdings in den Bildern nicht (oder zumindest nicht vollstaendig) enthalten ist. Also kann man DLSS als einen Algorithmus (X_H1, X_H2, X_H3) = f(X_L1, Z_1, X_L2, Z_2, X_L3, Z_3) beschreiben, der zusaetzliche Eingabedaten nutzt. In diesem Fall kann auch I(X_H1, X_H2, X_H3) > I(X_L1, X_L2, X_L3) gelten, d.h. die in den fertigen Bildern enthaltene Information ist groesser als die der Eingabebilder alleine.

Zusammenfassend kann man also sagen:
- Wenn man die gesamten Eingabedaten und Ausgabedaten vergleicht, kann kein Algorithmus (ob temporaer oder nicht) Information erzeugen.
- Ein temporaerer Algorithmus kann die in einem einzelnen Bild enthaltene Information durchaus erhoehen.
- Der Preis dafuer ist, dass die Unterschiede zwischen den Bildern durch Korrelationen verringert werden.
- Zusaetzliche Eingabedaten wie z.B. Bewegungsvektoren koennen die in den fertigen Bildern enthaltene Information im Vergleich zu den reinen Bilddaten weiter erhoehen.

Disclaimer: Ich weiss nicht, wie DLSS und FSR im Detail arbeiten, sondern kombiniere nur aus dem, was ich mir so angelesen habe.

Geldmann3
2021-08-24, 03:09:39
Nochmal, nur weil man die Informationen aus vorhergehende Bilder noch bearbeitet, oder sogar Informationen nur aus die Renderauflösung nimmt (welche in der skalierten "Bildschirmauflösung" ebenfalls drinstecken), werden aus den Informationen plötzlich keine neuen Informationen, sondern es bleiben Informationen aus vorhergehende Bildern. Diese werden lediglich angepasst/verändert um irgendwelche negativen Effekte zu vermeiden oder das "visuelle Erlebnis zu verbessern", warum auch immer

Wenn ich ein Bild bearbeite und es dann erneut speichere, generiere ich neue Bildinformationen, oder? Sofern ich mir keine Kopie des Originalbildes speichere, generiere ich Neue und vernichte alte Informationen.

Edit: Sorry, habe gar nicht gesehen wie viele Posts jetzt dazwischen waren und was für eine Diskussion daraus geworden ist, weil ich den Tab länger nicht neu geladen hatte. :freak: Ich halt mich da mal raus. haha

Gast
2021-08-24, 07:52:34
Pro Auge: bis zu 1,5 Mio. Bildpunkte, weil man genau so viele Ganglienzellen hat.



Ah OK danke, jetzt weiß ich auch warum wir niemals eine höhere Auflösung als FullHD brauchen werden, schließlich sind das eh schon 2 Mio. Bildpunkte und damit Overkill für unser Auge. Im Worst Case eben 2x FullHD, falls wir Stereoskopische Bilder verwenden.

Hättest du einmal ein HMD aufgehabt die alle schon deutlich über FullHD pro Auge haben wüsstest du was für einen Schwachsinn du gerade von dir gibst.


Die Fügen alle genau 0 Details der Computergrafik hinzu. Alle Information, die sie einem Frame hinzufügen, holen sie aus vorherigen Frames ("temporal").


Zum hundertausendsten mal, wie du gerade geschrieben hast genau damit, und wie du es eigentlich selbst auch schreibst werden in jedes Frame Informationen hinzugefügt, und zwar aus den Informationen der vorhergehenden Frames.

Jedes Frame für sich hat damit mehr Information als es in der ursprünglichen Renderauflösung hatte.

Klar die Gesamtinformation einer Folge von Frames kann damit nicht erhöht werden und das Ganze funktioniert nur weil sehr viele Informationen redundant in mehreren Frames vorhanden sind.

Die Information pro Einzelbild erhöht sich mit temporalen Upsamplingmethoden durchaus.


Damit gibt es zusätzliche keine Information oder Detail, welche es nicht in einem vorherigen Frame gab.


Aber es gibt zusätzliche Informationen in jedem Frame die in dessen eigentlicher Renderauflösung nicht vorhanden war.


Und genau das ist der Unterschied zwischen temporalen Upsampingmethoden und jenen ohne temperaler Komponente.

Erstere erhöhen den Informationsgehalt für jeden Frame und zwar mit echten Informationen die tatsächlich vorhanden sind.
Zweitere erhöhen den Informationsgehalt nicht, zumindest definitiv nicht mit echten Informationen, höchstens mit irgendwelchen von einer AI erfundenen Informationen.

Troyan
2021-08-24, 08:47:56
Eine Linie ist definiert, wenn man zwei Punkte kennt, durch die sie verläuft. Dann ist bereits die räumliche Information dieser Linie vollständig definiert. Wenn man das nicht weiß, scheint es natürlich Zauberei, das man mithilfe von nur zwei Punkte eine Linie unendlich hoch Auflösung kann. Deshalb fügt für dich in deinem Beispiel DLSS Informationen hinzu. Ich weiß aber, das eine Linie nur aus zwei Punkten besteht und deshalb wird für mich in diesem Beispiel keine Information hinzugefügt, sondern aus einer vorhandener Information mehr Samples erzeugt, die zusammen den gleichen Information Gehalt haben

Auf Geometrieebene, aber nicht beim Rastern. Rasterizing ist auch nur das Abbilden von unendlich aufgelöster Geometrie (analog) in ein Monitorraster (digital).

Vergleiche einfach 1080p ohne AA und DLSS mit 1080p als Inputauflösung. Je feiner eine Linie dargestellt werden muss, umso mehr Abtastpunkte werden notwendig. Würde es also beim Rasterizing nicht zu einer Rekonstruktion kommen, dürfte es auch zwischen 1080p und 4K keine Unterschiede in der Darstellung geben.


Nochmal für dich: Computergrafik sind bewegte Bilder, keine Standbildern. Wenn ich bewegten Bildern neue Informationen hinzufügen will und benutzt Information aus vorherige Bilder und verrechne diese mit dem Aktuellen Bilder, dann gebe ich den einzelnen Bildern mehr Details (aus vorherigen Bildern). Aber ich gebe den bewegten Bilder, also der Computergrafik, als gesamtes keine weiteren Information dazu

Dir ist klar, dass diese Aussage überhaupt kein Sinn ergibt? Es sind alles Standbilder. Nur die schnelle Abfolge der Darstellung kreiert die Illusion von Bewegung: Ist egal ob Daumenkino, analog oder digital.

Gleichzeitig scheinst du einfach zu ignorieren, dass DLSS normal gerastete Bilder nachträglich bearbeitet und somit "weitere Informationen" hinzufügt bzw. entfernt. Wenn also beim Rastern ein falscher Farbwert aufgrund der geringen Abtastpunkte ermittelt wird, jedoch DLSS anhand zusätzlicher Informationen dies korrigiert, dann nennt man das Rekonstruktion.

robbitop
2021-08-24, 09:52:22
Der entscheidende Unterschied ist meiner Meinung nach das Jittering. Die Subpixelposition wird gewechselt. Dadurch tastest du in jedem Frame einen anderen Bereich ab. Die Akkumulation dessen ist dann Super sampling.
Ohne DLSS / TAUU wird nicht gejittert - entsprechend wird immer die Pixelmitte abgetastet.

Im Prinzip ist es SGSSAA - nur eben mit temporal vorhandenen (und sonst nicht genutzten) Informationen. Weil eben sonst nur die Pixelmitte abgetastet wird.

Damit das zu keinen Artefakten kommt, kommt clamping in's Spiel. Und damit möglichst viele Samples korrekt akkumuliert werden können, macht das ein NN. Und im "miss" Fall werden tatsächlich wie Troyan schreibt Informationen hinzugefügt. Das NN "rät" Informationen, die aufgrund des Kontextes sinnvoll sind. Und das funktioniert tatsächlich relativ gut.

Gast
2021-08-24, 11:40:29
Auf Geometrieebene, aber nicht beim Rastern. Rasterizing ist auch nur das Abbilden von uendlich aufgelöster Geometrie (analog) in ein Monitorraster (digital).

Die Geometrie selbst ist auch digital und nicht unendlich hoch aufgelöst, auch wenn deren Auflösung im Endeffekt viel höher als jene vom Pixelraster ist.

Gast
2021-08-24, 11:43:47
Der entscheidende Unterschied ist meiner Meinung nach das Jittering. Die Subpixelposition wird gewechselt. Dadurch tastest du in jedem Frame einen anderen Bereich ab. Die Akkumulation dessen ist dann Super sampling.
Ohne DLSS / TAUU wird nicht gejittert - entsprechend wird immer die Pixelmitte abgetastet.


So ist es, um Informationen von Frame N auf den Frame N+1 zu übertragen müssen in den jeweiligen Frames natürlich unterschiedliche Informationen vorhanden sein. Wenn in jedem Frame die selben Informationen wären gäbe es logischerweise keinen Mehrwert.


Im Prinzip ist es SGSSAA - nur eben mit temporal vorhandenen (und sonst nicht genutzten) Informationen. Weil eben sonst nur die Pixelmitte abgetastet wird.


Genau, DLSS und XeSS tragen nicht umsonst Supersampling im Namen. Es ist Supersampling nur eben nicht in einem einzelnen Frame sondern über mehrere Frames kumuliert.

Geldmann3
2021-08-30, 15:30:20
Aus diesem Grund halte ich den Oberbegriff ,,temporales Supersampling" auch für wesentlich präziser als die Marketingnamen, denn das sind DLSS, TSR und XeSS im Prinzip.

Kann FSR eigentlich auch downscalen anstatt nur upzuscalen? Lanczos kann das immerhin sehr gut, doch FSR ist kein Lanczos... Wäre eventuell ein performanter und optisch hervorragender Algorithmus zum ,,Downsamplen". Doch kann FSR das? Ich weiß dafür ist es vielleicht nicht gemacht, doch kann es das?

why_me
2021-08-30, 17:31:45
Zumindest das Command line tool von FSR kann das, ob es ein Entwickler jemals einbaut bleibt aber abzuwarten.

aufkrawall
2021-08-30, 17:48:56
doch FSR ist kein Lanczos
EASU ist Lanczos mit auf 3D-Grafik abgestimmten Parametern.

hmmm
2021-08-31, 18:33:05
Dank Open Source:

Optimizing AMD FSR for Mobiles
...However, although FSR is highly optimized and runs efficiently on PCs, it is overweight on Mobiles. This article describes how we optimize FSR greatly on an iPhone 12 without sacrificing too much image quality.
...
1. Using Half Precision
At first we used the fp32 version of EASU for simplicity, but on mobile devices fp16 operations are basically twice the throughput of fp32 operations. Since our shader system doesn’t support uint16/int16, we have to tweak the original FsrEasuH code a little bit to make it compiles. Simple modification but high profit, the fp16 version only takes 4.7 ms.

https://atyuwen.github.io/posts/optimizing-fsr/

Gast
2021-08-31, 20:46:43
Dank Open Source:

Optimizing AMD FSR for Mobiles
...However, although FSR is highly optimized and runs efficiently on PCs, it is overweight on Mobiles. This article describes how we optimize FSR greatly on an iPhone 12 without sacrificing too much image quality.
...
1. Using Half Precision
At first we used the fp32 version of EASU for simplicity, but on mobile devices fp16 operations are basically twice the throughput of fp32 operations. Since our shader system doesn’t support uint16/int16, we have to tweak the original FsrEasuH code a little bit to make it compiles. Simple modification but high profit, the fp16 version only takes 4.7 ms.

https://atyuwen.github.io/posts/optimizing-fsr/

Fast 5ms was soll das bringen?

Wenn wir 60FPS wollen, haben wir gerade mal 16ms für ein Frame und fast 1/3 davon soll allein fürs Upscaling draufgehen?

Aber rechnen wir mal kurz nach. Die einzig brauchbare Qualitätsstufe von FSR ist UHQ. Nachdem wir von unseren 16,6ms die wie für 60FPS haben schon 4,7ms fürs Upscaling vergeuden bleiben uns gerade mal ~12ms für den Frame.

UHQ rendert tatsächlich 62% der Zielauflösung.
Wenn wir also annehmen, dass wir mit FSR die 16,6ms gerade so schaffen, bräuchten wir für die direkte Berechnung der Renderauflösung 19,2ms.

Im allerbesten Fall gewinnt man also mikrige 15%, real wahrscheinlich noch weniger.

Fazit: Schöne Machbarkeitsstudie, in der Realität unbrauchbar.

robbitop
2021-09-01, 06:34:22
Mich wundert, dass es so viel Frametime braucht. Auf AMD Karten ist es ja nahezu kostenlos.

hmmm
2021-09-01, 08:09:37
Mich wundert, dass es so viel Frametime braucht. Auf AMD Karten ist es ja nahezu kostenlos.
Nun es ist halt "nur" ein Mobile Device (iPhone 12). Ich finde es interessant zu sehen wie sie das Problem in freier Wildbahn lösen, ohne dabei merklich an Qualität einzubüßen.

Schau dir Punkt 5 (Less Texture Fetch) an:

...
(This change improves the performance dramatically, the EASU cost goes from 3.6 ms to 1.8 ms. Now the total cost of FSR is 1.8 ms (EASU) + 0.9 ms (RCAS) = 2.7 ms. Don’t forget without FSR we still need a pass to copy the offscreen target to back buffer, which takes about 0.7 ms. So the net cost of our optimized FSR is 2.7 ms - 0.7 ms = 2.0 ms. Not extremely efficient but we are satisfied.


Wäre eventuell auch was für ältere Desktop GPUs, auch wenn man es nur dazu benutzen würde die render Auflösung leicht zu erhöhen.

robbitop
2021-09-01, 08:24:30
Aber es ist halt auch nur relativ simples Post Processing im Vergleich zu temporalen Verfahren (die ja auch noch billig sind, sofern kein NN zum Einsatz kommt).

hmmm
2021-09-01, 08:59:51
Aber bei der Zielauflösung mit Sicherheit nicht "billiger" als dieses FSR. Zudem musst man bedenken, dass auf den Geräten eher nicht 100+ FPS erreicht werden, also die Kosten für FSR in Relation gesehen werden müssen.

DrFreaK666
2021-09-01, 22:17:22
FSR@Linux - Borderlands 3

PWddtOZeADQ

aufkrawall
2021-09-01, 22:33:29
Aber bei der Zielauflösung mit Sicherheit nicht "billiger" als dieses FSR.
Das UE TAAU kostet nicht mehr Zeit als TAA und wird billiger, je niedriger die Render-Auflösung ist.
Btw. ist bei dem "Mobile-FSR" auch der Anti-Ringing Pass entfernt...

Dampf
2021-09-01, 23:09:20
Wieder kriegt ein neuer Kracher, den auch jeder spielt und super beliebt ist, FSR:

https://twitter.com/Radeon/status/1433172814392139777

:freak:

Raff
2021-09-01, 23:23:33
Spaßfakt zum Spaßpost: Das Spiel beherrscht FSR seit dem FSR-Launch Ende Juni. ;)

MfG
Raff

DrFreaK666
2021-09-02, 01:41:14
Ist das nicht ein Space Dungeon Keeper?
Gibt echt schlimmere Spiele...

hmmm
2021-09-02, 12:46:11
Das UE TAAU kostet nicht mehr Zeit als TAA und wird billiger, je niedriger die Render-Auflösung ist.
Btw. ist bei dem "Mobile-FSR" auch der Anti-Ringing Pass entfernt...
Das stimmt so ja nicht. TAAU kostet mehr als TAA und dies umso mehr je höher die Zielauflösung ist, zumindest wenn man das Post Processing auch auf der Zielauflösung lässt.
Zudem würd ich jetzt mal vermuten dass TAAU auf den Mobilen "Dingern" nochmals überproportional Frametime kostet

----
Btw brauchst du das Deringing, dann lass es drinn. Kostet (i12) 0.4ms.

aufkrawall
2021-09-02, 13:20:42
Das stimmt so ja nicht. TAAU kostet mehr als TAA und dies umso mehr je höher die Zielauflösung ist, zumindest wenn man das Post Processing auch auf der Zielauflösung lässt.

Komisch, dass diese wesentlich qualifiziertere Untersuchung dir widerspricht (Tabelle Kapitel 7.): http://behindthepixels.io/assets/files/TemporalAA.pdf
Deine Anmerkung zu PP ist auch Quatsch in dem Zusammenhang, denn da besteht kein Unterschied zu FSR.
Der Performance Hit ist auf Mobile natürlich immer größer, aber dafür sieht es mit TAAU auch ruhiger aus als nativ ohne TAA. Mit FSR hat man die Kosten von AA und Upscaling, toller Deal...

Gast
2021-09-02, 13:32:05
Komisch, dass diese wesentlich qualifiziertere Untersuchung dir widerspricht (Tabelle Kapitel 7.): http://behindthepixels.io/assets/files/TemporalAA.pdf


Ich sehe nicht wo sich das widerspricht.

In contrast, the cost of MSAA, which is tied to the forward shading pass,
varies based on factors such as geometry density, depth complexity,
multi-sample count, and hardware implementation characteristics.
That said, MSAA is often cheaper than TAA on lower-end platforms (especially tile-based mobile GPUs), and are sometimes a
preferred option on forward renderers.


Deine Anmerkung zu PP ist auch Quatsch in dem Zusammenhang, denn da besteht kein Unterschied zu FSR.
Der Performance Hit ist auf Mobile natürlich immer größer, aber dafür sieht es mit TAAU auch ruhiger aus als nativ ohne TAA. Mit FSR hat man die Kosten von AA und Upscaling, toller Deal...

Deine qualifizierte Untersuchung sieht das anders:

As a result, these postprocessing effects have to be
computed at the upsampled resolution. The impact of this change
varies by the cost of these effects and the upsampling factor.

Das Fazit deiner qualifizierten Untersuchung sagt, TAA/TAAU wird umso teurer je schwächer die Hardware ist, was auch Sinn macht wenn dessen Kosten konstant sind, und man auf schwächerer Hardware andere Details reduzieren muss um auf zufriedenstellende Frameraten zu kommen, wird natürlich der relative Anteil von TAA/TAAU an der gesamten Frametime größer.

Weiteres Fazit, je mehr upgesamplet wird, desto höher wird der Overhead von TAAU gegenüber TAA alleine, was auch klar ist wenn das Postprocessing auf die Zielauflösung durchgeführt wird und dementsprechend einen immer höheren Anteil an der gesamten Frametime bekommt.

aufkrawall
2021-09-02, 13:38:48
Ich sehe nicht wo sich das widerspricht.

Mein Beileid, dann nochmal für die schnellen: Ohne TAA/TAAU brauchst du noch anderes AA, dessen Kosten sich mit FSR summieren...


Deine qualifizierte Untersuchung sieht das anders:

Nein, weil es um die Situation vs. FSR geht, und auch bei FSR nicht sämtliches PP in der niedrigen Auflösung stattfindet. So schwer zu verstehen?

blaidd
2021-09-02, 14:53:58
Es gibt noch ein paar Spiele, die FSR unterstützen und wahrscheinlich ein wenig unter'm Radar fliegen.

Elite Dangerous zum Beispiel. Das ist dahingehend eigentlich ganz interessant, dass es kein TAA nutzt, sondern Oldschool-Post-Processing-AAs wie FXAA, MLAA oder SMAA.
Das Spiel sieht generell ohne Supersampling sehr flimmrig aus (bislang konnte man Supersampling auch ohne größere Probleme nutzen, das Odyssey-Addon hat aber u.a. ein neues Beleuchtungs- und System für volumetrische Atmosphären erhalten, das frisst trotz Patches immer noch Leistung ohne Ende) und FSR macht's nicht direkt besser^^
Aber es ist definitv besser als einfaches Bilineares Upscaling, man kann da relativ gut erkennen, wie Kanten und Ecken "nachgezeichnet" werden, allerdings fehlt der temporale Faktor, um etwa Zäune oder dünne Mästen volllständig zu erfassen.
Grafisch eher meh, aber ganz interessant, das mal so zu sehen.

Auch ganz interessant: Im Indie-Coop-Rogue-Lite-Action-Shooter-whatever Arcadegeddon (UE4) kann man im Optionsmenü bei FSR auswählen, ab wann und wie das injiziert wird. Da kann man also nur FSR zum Upsampling nutzen, FSR mit TAA kombinieren oder TAAU-Upsampling mit und ohne FSR Zuschalten. Das ist außerdem der erste Konsolentitel (jedenfalls mW und nach Auskunft des Entwicklers), der FSR nutzt (auf der PS5 läuft das Spiel standardmäßig damit und mit Raytracing-Spiegelungen, auf dem PC kann man wählen). Da hab ich auch ein wenig mit den Entwicklern gequatscht, bei Gelegenheit mach ich dazu mal einen kurzen Artikel oder so...

Lehdro
2021-09-02, 15:29:28
Black Desert Online unterstützt seit gestern auch FSR - forciert im Normalzustand aber leider TAA. Ein TAA welches an blurryness nicht zu überbieten, also recht sinnlos ist. Mit ein bissl Tweaking kann man stattdessen FXAA für FSR statt TAA forcieren, allerdings ist auch das für mich noch zu matschig und versaut vor allem teilweise die Ingameschrift (auch ein Problem mit TAA + FSR). Schade.

hmmm
2021-09-02, 15:58:02
Nein, weil es um die Situation vs. FSR geht, und auch bei FSR nicht sämtliches PP in der niedrigen Auflösung stattfindet. So schwer zu verstehen?

Schau dir doch bitte einmal die UE TAAU Implementierung an, sonnst hat das hier keinen sinn.

aufkrawall
2021-09-02, 16:04:21
Schau dir doch bitte einmal die UE TAAU Implementierung an, sonnst hat das hier keinen sinn.
Es ergibt mit dir sowieso nie Sinn, siehe deinen letzten unsinnigen "Beitrag" zum Thema Bewegtbild mit TAA. Da kam dann auch nichts mehr, und so wird es auch diesmal sein...

DrFreaK666
2021-09-02, 21:16:46
Könnt ihr das per PN klären? :rolleyes:

Geldmann3
2021-09-03, 01:18:14
Seit einiger Zeit ist es in GTA V via Mod (https://github.com/NarutoUA/gta5_fsr) möglich FSR zu aktivieren.

Hier ein 4K Vergleich der unterschiedlichen Modi:

https://i.ibb.co/sHYpZ7Y/GTA-V-Compare.png (https://imgsli.com/NjkzMzU/0/4)

Man verliert mit jeder Stufe, die man heruntergeht, eindeutig weiter an Bildqualität.

Persönlich würde ich nicht unter ,,FSR Quality" gehen, bei allen Stufen darunter fängt man im Gameplay an zu merken, dass alles ein wenig unscharf wirkt. ,,Quality", kann sich jedoch durchaus lohnen. Wenn man nicht mit der Lupe hingeht, bekommt man in 4K gut 35% Performance geschenkt.

Es fällt außerdem auf, dass FSR sehr gut darin ist, Bereiche hochzurechnen, welche Aliasing- und Artefaktfrei sind, weshalb ich es als wichtig angesehen habe, FSR mit TXAA zu kombinieren.

An Stellen, wie den inneren Polygonkanten der Autokarosserie ist zu erkennen, dass nicht geglättetes Aliasing mit jeder weiteren Absenkung der internen Renderauflösung logischerweise verschlimmert wird.
FSR ist qualitativ folglich sehr von der Qualität des Input-Materials abhängig.

Den auf den Screenshots abgebildeten Frameraten sollte keine allzugroße Bedeutung zugemessen werden, da der i9 9900k hier bei um die 100FPS scheinbar ans CPU-Limit stößt.

Bei meinen 8K Versuchen hat FSR mich eher enttäuscht, da es doch einen ziemlich großen Overhead gegen natives Rendering mit sich bringt.
Beispielsweise hatte ich in einer Szene bei nativen 8K + 4xTXAA 22FPS. Mit Performance FSR, was einer internen Renderauflösung von 4K entspricht, 55FPS, nativ in 4K allerdings 72FPS.
Ich weiß nicht, ob es an der Implementierung liegt, doch in 8K entsteht teilweise heftiger Overhead.
Wozu allerdings gesagt sein sollte, dass Performance FSR auf einem 8K TV durchaus eine Ecke besser aussieht als vom TV hochgerechnetes 4K. Denn an Stellen, an denen der Input sehr sauber und Artefaktfrei ist, ist FSR einfach sehr gut im Upscaling von Grafiken. Dementsprechend wären in Zukunft auch Implementierungen in Gimp, Photoshop und co. wünschenswert.

Gast
2021-09-03, 08:06:50
Nein, weil es um die Situation vs. FSR geht, und auch bei FSR nicht sämtliches PP in der niedrigen Auflösung stattfindet. So schwer zu verstehen?

Der von dir zitierte Satz vergleicht TAA mit TAAU und nicht mit FSR.

Gast
2021-09-03, 08:08:16
Es fällt außerdem auf, dass FSR sehr gut darin ist, Bereiche hochzurechnen, welche Aliasing- und Artefaktfrei sind, weshalb ich es als wichtig angesehen habe, FSR mit TXAA zu kombinieren.



Logisch, da es ohne temporale Komponente selbst kein Antialiasing durchführen kann, kann es kein Aliasing/Artefakte verhindern und wenn man diese hochskaliert sieht es immer beschissen aus.

dargo
2021-09-03, 10:42:50
FSR ist in Farcry 6 drin, was wenig überrascht.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12780880&postcount=148

Platos
2021-09-03, 12:31:44
@ Geldmann: Schafft denn DLSS im Perfomance Mode (4k rendern) gleich viel FPS wie nativ?

Mr. Lolman
2021-09-03, 12:34:37
Ich hätt ja gehofft, dass es im aktuellen NMS Update drinnen ist. ;(

Geldmann3
2021-09-03, 13:10:33
@ Geldmann: Schafft denn DLSS im Perfomance Mode (4k rendern) gleich viel FPS wie nativ?

Nein. Siehe hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12776687&postcount=2191). In meinem letzten Test war es aber sogar etwas schneller als FSR unter den gleichen Umständen. Doch abschließend müsste man das genauer testen, da die Performancedifferenzen je nach Spiel und Szene stark schwanken. Insgesamt schaffen aber weder FSR noch DLSS es im Performance-Modus so schnell zu rendern wie in der internen Auflösung nativ. Man scheint in 8K gerne mal 20%+ oder manchmal sogar 30%+ zu verlieren und zumindest DLSS hat im Performance-Modus in meinem letzten Test auch wesentlich mehr Vram verbraucht.

Platos
2021-09-03, 13:23:18
Die Optik dürfte aber auch näher an 8k liegen, wie an 4k. Also zumindest im Perfomancemodus. Der Ultraperf.-Modus finde ich ehrlich gesagt ziemlich Nutzlos über alle Auflösungen hinweg.

Aber erreichen denn niedrigere Zielauflösungen bei 0.5x Renderauflösung (Perfomance Mode) in etwa die FPS der halben Auflösung in nativ? Also beispielsweise 4k perfomance vs 1080p nativ? Ich habe bisher immer gleiche optik vs FPS verglichen oder aber einfach gleiche Zielauflösungen verglichen usw. Und bei 8K wird oft im U-Perfomance Mode verglichen und den finde ich schlecht.

Control @DLSS 2.0 liefert bei 1080p nativ 108% der FPS, die 4k DLSS Perfomance liefert. Also durchaus relativ gleich.

Geldmann3
2021-09-03, 13:49:52
Die Optik dürfte aber auch näher an 8k liegen, wie an 4k. Also zumindest im Perfomancemodus. Der Ultraperf.-Modus finde ich ehrlich gesagt ziemlich Nutzlos über alle Auflösungen hinweg.

Aber erreichen denn niedrigere Zielauflösungen bei 0.5x Renderauflösung (Perfomance Mode) in etwa die FPS der halben Auflösung in nativ? Also beispielsweise 4k perfomance vs 1080p nativ? Ich habe bisher immer gleiche optik vs FPS verglichen oder aber einfach gleiche Zielauflösungen verglichen usw. Und bei 8K wird oft im U-Perfomance Mode verglichen und den finde ich schlecht.

Control @DLSS 2.0 liefert bei 1080p nativ 108% der FPS, die 4k DLSS Perfomance liefert. Also durchaus relativ gleich.

Habe dazu nicht genug getestet, doch logischerweise steigen die Kosten für DLSS und FSR mit höherer Ausgabeauflösung, scheinbar auch prozentual zur Gesamtperformance. DLSS Performance @8K ist definitiv wesentlich näher an nativen 8K als an nativen 4K. Es wäre logisch, wenn sich der prozentuale Anteil in den nächsten Jahren verringert. Denn die DLSS Kosten sollten relativ konstant bleiben, während die Kosten für die Bildberechnung mit besser werdender Grafik eher steigen sollten. Außerdem wird die Hardware immer mehr darauf spezialisiert sowas zu beschleunigen.

robbitop
2021-09-03, 16:26:07
Wobei ich davon ausgehe, dass NV mehr Matrixrohleistung verbauen wird in Machfolge uArchs. Bei gleichem Verfahren und gleicher output resolution sollte als die Frametime für dlss dann sinken.

hmmm
2021-09-03, 19:34:13
Ein weiteres "FSR Game" ;)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76645&stc=1&d=1630690415

https://twitter.com/AMDGaming/status/1433822372851851270

DrFreaK666
2021-09-03, 20:15:12
Ich hätte das gerne auf der SS, nachdem ich das Spiel kürzlich installiert habe.
Wieso nimmt das auf der Xbox nicht an Fahrt auf?

DrFreaK666
2021-09-03, 20:28:53
Neues zu FSR@Linux

ZuguzjHY0vc

aufkrawall
2021-09-03, 20:54:00
Was soll daran neu sein? Es geht mit dem Patch für Wine/Proton generisch in allem, was einen Vollbildmodus mit auswählbarer Auflösung hat. Willst du jetzt von jedem unter Linux lauffähigen Windows-Spiel ein Video posten?

vinacis_vivids
2021-09-03, 21:19:05
AMD`s FSR ist deswegen ein absolut geiles Feature, weil die Technik an Einfachheit und Genialität nicht zu übertreffen ist.
Immer wieder ein Beweis wieso AMD grundsolide ist und viel mehr Verbreitung finden muss.

Gast
2021-09-03, 21:23:59
Wobei ich davon ausgehe, dass NV mehr Matrixrohleistung verbauen wird in Machfolge uArchs.


Haben sie eigentlich schon, aber nur bei GA100.

DrFreaK666
2021-09-04, 05:13:08
Was soll daran neu sein? Es geht mit dem Patch für Wine/Proton generisch in allem, was einen Vollbildmodus mit auswählbarer Auflösung hat. Willst du jetzt von jedem unter Linux lauffähigen Windows-Spiel ein Video posten?

Klar, stört es dich dass FSR deutlich flexibler ist im Vergleich zum RTX-only DLSS? Deal with it :D

Platos
2021-09-04, 12:47:38
Praktisch(-er) wäre ne Liste mit Spielen, die FSR supporten (und am besten gleich auch ne Liste für DLLS)

aufkrawall
2021-09-04, 13:07:05
Klar, stört es dich dass FSR deutlich flexibler ist im Vergleich zum RTX-only DLSS? Deal with it :D
Auch nicht so flexibel wie Optionen in einem guten TV. :freak:
Außerdem fehlt das LOD-Bias...

robbitop
2021-09-04, 13:15:27
Rein vom Abtasttheorem her sollte FSR eigentlich nicht mit negativem LOD kombiniert werden. Die Inputresolution wird ja nur spatial upgesampelt. Aber es gibt ja kein Supersampling wie bei DLSS. Entsprechend würde FSR mit negativem LoD eigentlich das Abtasttheorem verletzen. Mit gutem TAA sollte das kein Problem sein - aber das hat dann mit FSR nichts zu tun ind kann auch dann ohne FSR negativ eingestellt werden (LoD bias).

aufkrawall
2021-09-04, 13:23:15
Richtig, Spiele mit gutem TAA lassen ohne negatives LOD-Bias leider konsequent Potenzial liegen. Bei FSR wird es häufig Shimmering erzeugen oder verstärken, aber die Alternative ist halt ein noch viel detailarmeres Bild.

vinacis_vivids
2021-09-04, 13:30:49
Aber das Video haste dir mal angeschaut? 😂

DrFreaK666
2021-09-04, 14:17:50
Auch nicht so flexibel wie Optionen in einem guten TV. :freak:
Außerdem fehlt das LOD-Bias...

Was willst du mit dem LOD-Bias? Willst du ins Positive um Flimmern vorzubeugen?
Wie viele PC-Spieler spielen an einem TV und nicht am Monitor?

aufkrawall
2021-09-04, 14:30:54
Was willst du mit dem LOD-Bias? Willst du ins Positive um Flimmern vorzubeugen?

Du solltest vielleicht mal die Doc von AMD lesen, wenn du schon ständig überall FSR bewirbst... :freak:

Gast
2021-09-05, 01:44:08
Timothy Lotte empfiehlt (ist sicher das Gleich wie in der offiziellen Anleitung) ein LOD Bias von -log2(Skalierungsfaktor).

Orko
2021-09-05, 22:11:35
Praktisch(-er) wäre ne Liste mit Spielen, die FSR supporten (und am besten gleich auch ne Liste für DLLS)

https://en.wikipedia.org/wiki/List_of_games_with_support_for_high-fidelity_image_upscaling

Platos
2021-09-06, 11:22:42
https://en.wikipedia.org/wiki/List_of_games_with_support_for_high-fidelity_image_upscaling

Danke

DrFreaK666
2021-09-07, 16:06:03
https://wccftech.com/retroarch-1-9-9-adds-amd-fsr-and-high-dynamic-range-support/amp/

Noch mehr Unterstützung

basix
2021-09-08, 22:14:44
Für solche ältere Spiele ist FSR ein grosser Gewinn.

just4FunTA
2021-09-08, 23:53:31
Für solche ältere Spiele ist FSR ein grosser Gewinn.
:confused: