Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3
unl34shed
2022-09-29, 23:47:27
Wo du aber dann auch keine extra fps mehr brauchst, vor allem wenn sie mit Artefakten kommen. Um längere Balken in Benchmarks zu bekommen ist es natürlich nützlich.
Gott1337
2022-09-30, 04:40:56
Das Gemeckere kommt vor allem daher, dass Nvidia eben wieder einen auf Nvidia macht, sprich: die Eintrittskarte kostet, keine Charity-Veranstaltung. ;) Ein hohes Maß an Innovation erfordert Opfer. Nvidia trifft in diesem Kontext gerne unpopuläre, proprietäre Entscheidungen.
Aber schauen wir mal, ob Nvidia DLSS 3 später doch öffnet - zumindest für Ampere, denn da sollte mindestens GA102 genug Tensor-Leistung haben.
MfG
Raff
solltest schon wissen das da eine Hardware-Unit für fehlt, also ich mein für jemandem der bei einem Blatt arbeitet das sich auf Hardware fokussiert!?
Jo. Das wird interessant wie kleinen Ada Chips das bewerkstelligen wollen. Also ich muss sagen, ich bin von DLSS 3 stand jetzt nicht begeistert, und das ganz ohne Neid/Hate Karte.
Klingt auf dem Papier einfach nicht so toll, wie es FSR 2.1 und DLSS 2 waren.
Ich kenn diese Technologie vom SVP (Smooth Video Project) und den TVs. Da gibt halt immer noch genügend Artefakte obwohl das mit Turing/Ampere und Optical Flow erheblich besser geworden ist, als früher. Und ich nur zuschaue.
Bei Spielen wo ich selber aktiv bin, finde ich den Gedanken einfach falsch, vor allem da das Gefühl des Flüssigen Bildes welches man sieht, wie gesagt nicht übereinstimmt mit dem Gefühl in der Hand. Das mag mit der Zeit sicherlich besser werden (DLSS 4) aber stand jetzt erscheint es mir das noch zu Beta.
DLSS 3 ist SVP und diversen anderen Software-Aufblasern voraus, da es mehr Wissen, also Inputs bekommt (siehe einige Postings/Seiten vorher). Insofern ist das schon "Next Level", was Upsampling angeht. Nicht mehr nur Pixel, sondern ganze Frames. Könnte man das einfach so per Treiber forcieren, wär's wohl direkt ein Killer Feature. In der jetzigen Form muss man aber die Implementierungen abwarten.
solltest schon wissen das da eine Hardware-Unit für fehlt, also ich mein für jemandem der bei einem Blatt arbeitet das sich auf Hardware fokussiert!?
Die fehlt eben nicht. Nvidia spricht von deutlichen Verbesserungen in Ada. Solltest du schon wissen, wenn du mich direkt dafür rundmachen möchtest. :D Tatsächlich bin ich gerade dabei, Nvidia deswegen Löcher in den Bauch zu fragen.
MfG
Raff
Tangletingle
2022-09-30, 08:51:44
solltest schon wissen das da eine Hardware-Unit für fehlt, also ich mein für jemandem der bei einem Blatt arbeitet das sich auf Hardware fokussiert!?
Die optical flow engine gibt es seit turing. Solltest du als Gott doch wissen.
Ja die wurde in der aktuellen Ausbaustufe wohl aufgebohrt.
robbitop
2022-09-30, 08:55:58
Dagegen spricht das Latenz-Ergebnis von DF für CP77 im GPU-Limit, bei dem mit der fps-Verdopplung der Input Lag signifikant ansteigt. Das entspricht wohl eher der Realität mit teuren RT-Effekten als Spiderman, was seltsam gefräßig im CPU-Limit ist. Ggf. nimmt die Latenz mit der fps-Verdopplung im CPU-Limit deutlich weniger zu.
Edit: Ok, eigentlich ist das Spiderman-Ergebnis auch nicht so prickelnd. Bei "200fps" den Input Lag von ~70fps? Na ja...
Ich schrieb explizit von Gamepad als Inputgerät und nannte nicht Desktops. Der Massenmarkt findet den Inputlag von 30 fps ohne reflex und sogar auf TVs (wo das default setting oft nicht der gamemode ist) in Ordnung.
Die Hypothese war 30 fps mit dlss 3 (oder späterem Äquivalent) inkl Reflex (oder späterem Äquivalent) auf ein vergleichbaresy Gesamtinputlag level zu behalten aber mehr Frames zu generieren.
.
Nicht jeder hat die Ansprüche von uns Nerds. ;) Hunderte Millionen Leute fanden das Spielerlebnis auf einer Xbone, PS4, Switch auf einem TV ohne aktivem Spielemode ok. Da liegt man oft locker bei 100 ms.
Mit Reflex und DLSS 3 sollte das kein Problem sein da lockerst drunter zu liegen.
Wo du aber dann auch keine extra fps mehr brauchst, vor allem wenn sie mit Artefakten kommen. Um längere Balken in Benchmarks zu bekommen ist es natürlich nützlich.
Doch, vor allem mit einem OLED können die FPS nicht hoch genug sein, um die Schaltzeiten und die damit mögliche Bewegtbildschärfe auch auszunutzen.
Beim LCD bringt es leider bald nicht mehr viel, da die Schaltzeiten für die hohen FPS großteils gar nicht mehr ausreichen.
The_Invisible
2022-09-30, 09:15:26
Ich würde es auch erst beurteilen wenn ich es selbst testen könnte oder es mehrere Reviews davon gibt.
Wenn ich daran denke das ich derzeit gerade Cyberpunk mit 40-50fps spiele und für mich performancemäßig ohne Probleme auf halber Strecke bin gibts hier wohl sehr viele verschiedene "Geschmäcker" wenns für andere erst ab 80fps flüssig ist.
Aber lange ist ja nicht mehr hin...
Troyan
2022-09-30, 09:25:54
Klingt auf dem Papier einfach nicht so toll, wie es FSR 2.1 und DLSS 2 waren.
Ich kenn diese Technologie vom SVP (Smooth Video Project) und den TVs. Da gibt halt immer noch genügend Artefakte obwohl das mit Turing/Ampere und Optical Flow erheblich besser geworden ist, als früher. Und ich nur zuschaue.
Bei Spielen wo ich selber aktiv bin, finde ich den Gedanken einfach falsch, vor allem da das Gefühl des Flüssigen Bildes welches man sieht, wie gesagt nicht übereinstimmt mit dem Gefühl in der Hand. Das mag mit der Zeit sicherlich besser werden (DLSS 4) aber stand jetzt erscheint es mir das noch zu Beta.
Wie klingt denn bitte FSR 2 interessant? Das produziert Artefakte am laufenden Band. Alles unter Quality ist DLSS deutlich unterlegen. Ergo musst du höhere Einstellungen nutzen, wodurch eine höhere Renderzeit entsteht, was die Systemlatenz erhöht.
why_me
2022-09-30, 10:25:16
Ach troyan, lies doch die Beiträge erst einmal richtig, bevor du wieder mit deinem AMD bashing an der Aussage Meilen weit vorbei schießt...
Troyan
2022-09-30, 10:32:59
Ich habe auf sein Posting bezug genommen. FSR ist so schlecht, dass nur höhere Stufen sinnvoll sind. Dadurch verzögert sich die Latenz, weil weniger Frames produziert werden.
Simpel ausgedrückt:
DLSS 3 mit FG ist auf einem ähnlichen Latenzniveau wie FSR Quality. Man bekommt ähnliche Bildqualität bei doppelten Frames.
Andron
2022-09-30, 10:45:12
Ich habe auf sein Posting bezug genommen. FSR ist so schlecht, dass nur höhere Stufen sinnvoll sind. Dadurch verzögert sich die Latenz, weil weniger Frames produziert werden.
Simpel ausgedrückt:
DLSS 3 mit FG ist auf einem ähnlichen Latenzniveau wie FSR Quality. Man bekommt ähnliche Bildqualität bei doppelten Frames.
Was völliger Quatsch ist, speziell ab Version 2.1. ist es oftmals höchst subjektiv, da beide Verfahren Vor- und Nachteile haben, durch die Bank besser ist DLSS aber definitiv nicht mehr (siehe z.B. Smearingartefakte). In einigen Spielen ist sogar eine FSR 2.1 MOD DLSS vorzuziehen, in anderen nicht.
Troyan
2022-09-30, 10:50:14
Was völliger Quatsch ist, speziell ab Version 2.1. ist es oftmals höchst subjektiv, da beide Verfahren Vor- und Nachteile haben, durch die Bank besser ist DLSS aber definitiv nicht mehr (siehe z.B. Smearingartefakte). In einigen Spielen ist sogar eine FSR 2.1 MOD DLSS vorzuziehen.
Lmao, was? FSR ist nur mit Quality konkurrenzfähig. Alles darunter ist deutlich schlechter. Quality benötigt in den meisten Fällen 50% länger als Performance - ergo ein halber Frame verzug.
Andron
2022-09-30, 11:17:48
Ist in einigen Fällen richtig, in anderen nicht.
Unterm Strich gibt es natürlich mehr Beispiele, in denen DLSS die Oberhand über alle derzeit verfügbaren Verfahren gewinnt, speziell was Detailrekonstruktion in niedrigen Auflösungen angeht. In GoW oder Spiderman kann FSR auch im Quality-Modus nicht mithalten.
Die DLSS Probleme wie das absolute Schrott-Sharpen oder Smearing unterschlägst du als ehrenamtlicher Nvidia Anwalt aber mal wieder gekonnt.
In Spielen wie Dying Light 2 bröckelt deine komplett pauschale Aussage schon wieder, da sieht FSR 2.1 auch in den niedrigeren Presets in vielen Bereichen besser aus oder ist ebenbürtig.
Troyan
2022-09-30, 12:07:48
Das ist Performance im Farm Simulator mit FSR 2.1 aus der Bewegung aufgenommen: https://imgsli.com/MTI3ODkx
Das ist bestimmt einiges, aber der Begriff "gleichwertig" kommt da nicht vor. DLSS Performance ist so gut, dass es nah an DLSS Quality rankommt. Wer auf die geringste Latenz wert legt, kann mit der Qualität zufrieden sein.
Sieht bei FSR komplett anders aus. Da ist Quality im Grunde das einzige vernünftige Setting.
Andron
2022-09-30, 12:17:16
FS22 hat eine der schlechtesten FSR 2.X Umsetzungen überhaupt, wurde auch im FSR Thread auch diskutiert. Es ist eher erstaunlich, wie viel Besserung Version 2.1 nach der desaströsen ersten Version mit 2.0 hier bieten konnte.
Du bestätigst mal wieder deinen Bias, indem du genau dieses Beispiel herauskramst anstatt Dying Light 2 oder Hitman 3 zu vergleichen. Natürlich ist die Anzahl der wirklich guten FSR 2.X Beispiele auch mit verfügbaren Mods noch überschaubar, deine Pauschalaussagen zur Qualität von FSR 2.1 wurden dennoch mehrfach widerlegt.
EDIT: Im übrigen zeigt DLSS in deinem Beispiel Smearing an den Silos, den Bäumen und dem Scheunendach, welches bei FSR nicht auftritt. Die Schaukel rechts unten ghostet mit DLSS munter vor sich hin. Also nicht einmal im FS22 ist die Überlegenheit von DLSS so deutlich, wie Du es immer darstellst.
Platos
2022-09-30, 15:01:23
Ich frage mich manchmal, ob die ganzen DLSS/FSR Analysten auch mal ein Spiel spielen oder die nur die Grafik vergleichen ;D
Ex3cut3r
2022-09-30, 15:16:12
Wie klingt denn bitte FSR 2 interessant? Das produziert Artefakte am laufenden Band. Alles unter Quality ist DLSS deutlich unterlegen. Ergo musst du höhere Einstellungen nutzen, wodurch eine höhere Renderzeit entsteht, was die Systemlatenz erhöht.
FRS 2.1 das ist durchaus konkurrenzfähig zu DLSS 2.0+
FRS 2.0 fand ich dagegen noch nicht optimal. 2.1 durchaus. Und dabei ich es bisher nur per Mod ausprobiert. Eine offizielle 2.1 Implementation dürfte nochmal besser sein. :smile:
Dazu kommt noch das FSR 2.1 sogar gleich schnell ist wie DLSS auf meiner GeForce. Da frage ich mich schon, werden die Tensor Cores überhaupt genutzt? Ich bezweifle es, wenn ich sehe das FSR 2.1 gleich schnell ist.
DrFreaK666
2022-09-30, 15:23:44
Ich frage mich manchmal, ob die ganzen DLSS/FSR Analysten auch mal ein Spiel spielen oder die nur die Grafik vergleichen ;D
Die Spielen 1min, machen ein Screenshot und untersuchen es zwei Stunden lang :D
Troyan
2022-09-30, 15:31:26
FS22 hat eine der schlechtesten FSR 2.X Umsetzungen überhaupt, wurde auch im FSR Thread auch diskutiert. Es ist eher erstaunlich, wie viel Besserung Version 2.1 nach der desaströsen ersten Version mit 2.0 hier bieten konnte.
AMD bewirbt FSR 2.1 mit Farming Simulator 22. ;D
Du bestätigst mal wieder deinen Bias, indem du genau dieses Beispiel herauskramst anstatt Dying Light 2 oder Hitman 3 zu vergleichen.
Die Spiele haben kein FSR 2.1. Und soweit ich weiß, hat Hitman 3 nichtmal FSR 2 implementiert...
EDIT: Im übrigen zeigt DLSS in deinem Beispiel Smearing an den Silos, den Bäumen und dem Scheunendach, welches bei FSR nicht auftritt. Die Schaukel rechts unten ghostet mit DLSS munter vor sich hin. Also nicht einmal im FS22 ist die Überlegenheit von DLSS so deutlich, wie Du es immer darstellst.
Bewegung. Das Ölgemälde scheint dich ja nicht zu stören, sowie das massive Flimmern und die miserable Kantenglättung.
Aber ist gut trollo. Laut dir darf ich keine Spiele mit offiziellem FSR 2.1 support vergleichen, sondern soll Spiele nehmen, die kein FSR 2 haben. Du hast gerade die Flateathler-Stufe erreicht. Ab mir dir auf die Ignore-Liste.
robbitop
2022-09-30, 15:36:58
Die Frage ist was man vergleichen will. Implementierungen oder Verfahren? IMO vergleicht man Verfahren am besten mit der besten Implementierung um nicht die Implementierungsgüte das Ergebnis verunreinigen zu lassen.
Ergo sollte man für DLSS und für FSR 2.1 schon die beste Implementierung nehmen für den Vergleich. Egal ob offiziell implementiert oder per Mod.
In den besten Implementierungen sind die beiden Verfahren auch im Performance Preset wohl relativ "toe to toe".
Troyan
2022-09-30, 15:50:29
Und woran erkenne ich, dass es die beste Implementierung ist? Gibt es da Maßstäbe? Eine objektive Liste von Punkten? Schlussendlich ist jede Implementierung auch individuell - Assets, Grafikstil, Design etc.
Ich habe nur Farming Simulator 22 hier, wo FSR 2.1 offiziell eingebaut ist. Ich kann davon ausgehen, dass es die "beste" Implementierung ist. Ein Mod in ein Spiel ohne FSR 2 support zu nutzen, erscheint mir dagegen nicht als bestmögliche Implementierung...
robbitop
2022-09-30, 15:53:17
Und woran erkenne ich, dass es die beste Implementierung ist? Gibt es da Maßstäbe? Eine objektive Liste von Punkten? Schlussendlich ist jede Implementierung auch individuell - Assets, Grafikstil, Design etc.
Alex Bataglia hat eine Liste die er da jedes Mal abarbeitet an Kriterien (zu sehen im XeSS und im FSR 2.0 Video von DF). Das sind IMO die wesentlichen Kriterien zur Beurteilung der Ergebnisse unabhängig vom Spiel. Damit kann man IMO ziemlich gut Implementierung für Implementierung vergleichen. Wenn es ein Kriterium bei gleichem Verfahren in einer anderen Implementierung besser gab: liegts nicht am Verfahren sondern der Implementierung.
Ich habe nur Farming Simulator 22 hier, wo FSR 2.1 offiziell eingebaut ist. Ich kann davon ausgehen, dass es die "beste" Implementierung ist. Ein Mod in ein Spiel ohne FSR 2 support zu nutzen, erscheint mir dagegen nicht als bestmögliche Implementierung...
Die Situation der Implementierung vom Studio aus ist aktuell noch nicht die beste. Wenn man technikinteressiert (anstatt borniert) ist, dann kümmert man sich nicht um diese Formalitäten sondern schaut, was überall so möglich ist. Unabhängig ob Mod oder nicht. Jetzt kannst du mit deiner Sichtweise entscheiden ob du borniert sein willst oder technikinteressiert bist.
Troyan
2022-09-30, 15:56:16
Aber wie hilft dir das? Wie willst du die Probleme, die sich aus einem einfacheren Verfahren lösen? FSR Performance muss vier verschiedene Samples kombinieren und hochskalieren - aber kann nur auf eine Rechenleistung zurückgreifen, die deutlich geringer ist als bei den TensorCores und hat keine Unterstützung durch ein trainiertes Netzwerk.
Bei Twitter hat jemand nur die AI generierten Frames vom DigitalFoundry als Video hochgeladen: https://twitter.com/pixelmager/status/1575833476896620546?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1575835 158502064130%7Ctwgr%5E0d5171768b984fc0aa3fbc122014fe3cd1a8bcb2%7Ctwcon%5Es3_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Fnvidia-dlss-3-antialiasing-discussion.62985%2Fpage-17
robbitop
2022-09-30, 15:58:30
Es geht einzig um das Ergebnis. Bei guter Implementierung sieht FSR 2.1 für mich ähnlich gut aus wie einer guten DLSS 2.4 Implementierung. Beide haben ihre unterschiedlichen Stärken und Schwächen - viel nimmt sich das (auch im Performancemode) IMO nicht.
Es ist sicherlich anzunehmen, dass FSR 2.1+ immer weitere Verbreitung finden wird.
Die Verfahren für das Clamping sind grundlegend unterschiedlich - und einfach nur der rohe Bedarf an Rechenleistung ist noch kein Indikator für dessen Güte. Wenn man es mit einem anderen Ansatz mit weniger Rechenleistungsbedarf schafft - warum nicht.
DrFreaK666
2022-09-30, 16:02:15
AMD bewirbt FSR 2.1 mit Farming Simulator 22. ;D...
Es war das erste Spiel mit FSR 2.1, genauso wie Deathloop das erste Spiel mit FSR 2.0 und nicht perfekt war
Es geht einzig um das Ergebnis. Bei guter Implementierung sieht FSR 2.1 für mich ähnlich gut aus wie einer guten DLSS 2.4 Implementierung. Beide haben ihre unterschiedlichen Stärken und Schwächen - viel nimmt sich das (auch im Performancemode) IMO nicht.
Das ist eher Wunschdenken deinerseits. Zeig uns doch mal wo FSR 2.1 so toll ist oder an DLSS Qualität heran kommt?
robbitop
2022-09-30, 16:35:12
Hitman 3, Rise of the Tomb Raider, Horizon Zero Dawn, Red Dead Redemption 2 (in dem neusten Release des mods sind die issues mit Haaren und Stromkabeln gefixt). Allesamt Mods um FSR 2.1 zu integrieren - sieht nach meinem Dafürhalten aber sehr kompetativ zu DLSS aus.
basix
2022-09-30, 16:44:33
Aber wie hilft dir das? Wie willst du die Probleme, die sich aus einem einfacheren Verfahren lösen? FSR Performance muss vier verschiedene Samples kombinieren und hochskalieren - aber kann nur auf eine Rechenleistung zurückgreifen, die deutlich geringer ist als bei den TensorCores und hat keine Unterstützung durch ein trainiertes Netzwerk.
Eine objektive Checkliste zur Hand nehmen und vergleichen hilft also nicht?
Jedenfalls hilft es sicher mehr, als hier mit einem Schlechtredeversuch kommen à la "kein AI und keine Tensor Cores, daher schlecht". Starke Argumentationsbasis :freak: Kannst ja das selbe Verfahren auf DLSS vs. XeSS anwenden, da müsste XeSS ja gleich gut wie DLSS sein ;D
Die obektive Qualität und Performance entscheidet. Oder anders gesagt: Das, was hinten rauskommt. Und bei FSR 2.1 wurden einige der gröbsten Mängel deutlich entschärft. Wieso das also schlechtreden? Als Nvidia Nutzer hast du ja sogar den Vorteil, DLSS und die anderen Verfahren wie XeSS oder FSR2 zu nutzen. Das geht in das hinein, was robbi gesagt hat: Technikinteressiert sein. Und wenn es dir nicht gefällt: Lass es einfach abgeschaltet ;)
Hitman 3, Rise of the Tomb Raider, Horizon Zero Dawn, Red Dead Redemption 2 (in dem neusten Release des mods sind die issues mit Haaren und Stromkabeln gefixt). Allesamt Mods um FSR 2.1 zu integrieren - sieht nach meinem Dafürhalten aber sehr kompetativ zu DLSS aus.
Nur zählen solche Hacks nicht als Grundlage für irgendetwas und haben zudem mit anderen problemen zu kämpfen, die es mit DLSS so nicht gibt. In Chernobylite oder God of War ist FSR 2.x katastrophal schlecht, in RDR2 ebenso.
Andron
2022-09-30, 16:54:54
AMD bewirbt FSR 2.1 mit Farming Simulator 22. ;D
Nvidia bewirbt auch nahezu alle Spiele mit DLSS Unterstützung auf ihrem Kanal, egal wie gut die Implementierung ist...
Die Spiele haben kein FSR 2.1. Und soweit ich weiß, hat Hitman 3 nichtmal FSR 2 implementiert...
Ich Vergleiche Verfahren gegen Verfahren, nicht die Implementierung. Natürlich ist DLSS deutlich weiter verbreitet und hat viele Titel mehr als FSR zu bieten, in denen es einen deutlichen Mehrwert bietet. Habe ich nie bestritten und mehrfach erwähnt, dass AMD hier richtig Gas geben muss, um halbwegs die Lücke schließen zu können.
Bewegung. Das Ölgemälde scheint dich ja nicht zu stören, sowie das massive Flimmern und die miserable Kantenglättung.
Mich würde die Implementierung von FSR in FS22 insgesamt stören, wenn mich das Spiel interessieren würde. Habe ich im FSR Thread auch schon geschrieben und die Probleme in Screenshots gezeigt.
Du übersiehst dagegen die DLSS Fails konsequent, während du Sie bei FSR aufbauschst.
Aber ist gut trollo. Laut dir darf ich keine Spiele mit offiziellem FSR 2.1 support vergleichen, sondern soll Spiele nehmen, die kein FSR 2 haben. Du hast gerade die Flateathler-Stufe erreicht. Ab mir dir auf die Ignore-Liste.
Sonst geht´s Dir noch gut? Du kannst Vergleichen, was du möchtest und meinen was du willst.
Wenn du die Verfahren Vergleichen willst, musst du momentan fast zwangsläufig auf Mods zurückgreifen, wegen der sehr geringen Verbreitung von FSR 2.1. Es in FS22 zu kritisieren ist legitim, daraus eine allgemeingültige Aussage über das Verfahren zu treffen halt Bullshit, wenn es bereits Beispiele gibt, in denen es anders aussieht.
Davon abgesehen vergleichst du ja auch DLSS mit teilweise ausgetauschten DLLs, wo ist da dann der große Unterschied zu FSR Mods, welche sogar im Nachteil sein sollten mangels Spielspezifischer Anpassungen?
Andere als Verschwörungstheoretiker bezeichnen und selbst jede Kritik an der eigenen Lieblingsfirma mit Aber-AMD-Mimimi beantworten... Kann man sich nicht ausdenken.
Es geht einzig um das Ergebnis. Bei guter Implementierung sieht FSR 2.1 für mich ähnlich gut aus wie einer guten DLSS 2.4 Implementierung. Beide haben ihre unterschiedlichen Stärken und Schwächen - viel nimmt sich das (auch im Performancemode) IMO nicht.
Es ist sicherlich anzunehmen, dass FSR 2.1+ immer weitere Verbreitung finden wird.
Genau das wollte ich Aussagen, beide Verfahren haben Schwächen, bei guter Implementierung nehmen Sie sich kaum was und der persönliche Geschmack entscheidet. Das der Nutzen von DLSS 2.X (für RTX Nutzer) dank der Verbreitung ungleich höher ist momentan, bestreitet niemand.
ChaosTM
2022-09-30, 19:03:43
Ist mir schon klar. DF testet halt eine freakin' 4090 mit DLSS Performance, also mit schon ziemlich hohen (locker dreistelligen?) fps. Jetzt stelle man sich vor, was mit dem Input Lag mit fps-Verdopplung passiert, wenn die Basis-fps "nur" 60 sind, etwa bei armen Losern mit einer RTX 4080 12GB...
:freak:
https://youtu.be/6pV93XhiC1Y
Wie fast immer der interessanteste Beitrag dazu. Grad erst gesehen..
Der Latenzverlust ist tw. unglaublich gering, aber oft auch fast "spübar".
Overall ziemlich beeindruckend..
robbitop
2022-09-30, 19:28:15
Nur zählen solche Hacks nicht als Grundlage für irgendetwas und haben zudem mit anderen problemen zu kämpfen, die es mit DLSS so nicht gibt. In Chernobylite oder God of War ist FSR 2.x katastrophal schlecht, in RDR2 ebenso.
GoW und RDR2 haben in der offiziellen Implementierung nur FSR2.0. Nicht jedoch 2.1. Dafür braucht es aktuell mods.
Wenn es darum geht das Verfahren zu beurteilen und nicht die Güte der Implementierung, dann macht es Sinn, sich die beste Implementierung anzuschauen (inkl mods). Denn die zeigt was mit dem Verfahren möglich ist. Ist die Implementierung nicht so toll limitiert die Implementierung und nicht das Verfahren. Und genau um letzteres geht es mir.
Es ist natürlich blöd, dass es kaum fsr 2.1 Implementierungen out of the box gibt. Das wird sich sicherlich aber noch ändern. Der Punkt an der Verfahrensbeurteilung mit der besten Implementierung ist es für mich das Potenzial des Verfahrens absehen zu können vor dem Hinblick, dass immer mehr Implementierungen kommen werden und diese sicherlich durch Lerneffekte auch sukzessive besser werden.
Auch DLSS 2.x hatte einige schlechte Implementierungen- insbesondere anfangs. Wenn man das Verfahren nur nach denen beurteilt hätte, hätte man sich geirrt. Mit ein wenig Weitblick und Differenzierung sieht man etwas weiter. ;)
aufkrawall
2022-09-30, 20:10:18
Eine größere Beständigkeit über Titel hinweg bzw. größere Robustheit gegenüber Implementierungs-Schwächen kann man DLSS schon attestieren (zumindest, wenn man in der Beurteilung etwas großzügig gegenüber Schwachsinns-Versionen und DLSS Sharpen ist). Auch verliert es weniger BQ mit Q vs. P als FSR 2. Aber ja, beide sind weit von perfekt entfernt. Mit FSR 2 hat DLSS an Bedeutung verloren, aber es ist natürlich weiterhin ein Punkt auf der Haben-Seite. Je nach Spiel auch mal ein großer.
Sardaukar.nsn
2022-09-30, 20:23:13
Schöner Vergleich der drei Techniken heute bei Techpowerup: https://www.techpowerup.com/review/marvel-s-spider-man-remastered-xess-vs-dlss-vs-fsr-2-0/
BlacKi
2022-09-30, 21:29:57
Hitman 3, Rise of the Tomb Raider, Horizon Zero Dawn, Red Dead Redemption 2 (in dem neusten Release des mods sind die issues mit Haaren und Stromkabeln gefixt). Allesamt Mods um FSR 2.1 zu integrieren - sieht nach meinem Dafürhalten aber sehr kompetativ zu DLSS aus.als NV nutzer würde ich mir wünschen, das fsr2 zuerst auf non dlss titeln zu finden sein wird XD
DrFreaK666
2022-09-30, 22:48:53
Als Gamer würde ich mir wünschen dass FSR überall Verwendung findet ;)
robbitop
2022-10-01, 06:57:40
Schöner Vergleich der drei Techniken heute bei Techpowerup: https://www.techpowerup.com/review/marvel-s-spider-man-remastered-xess-vs-dlss-vs-fsr-2-0/
Leider suboptimal weil FSR 2.p seit Wochen nicht mehr der Stand der Technik ist.
Geldmann3
2022-10-01, 08:41:29
Gott, der LOD Bias scheint in Spiderman wieder nicht korrekt angepasst. Vergleicht nur mal die Bäume zwischen Nativ und DLSS/XeSS Performance.
00-Schneider
2022-10-01, 08:58:03
Hier hat sich jemand die Mühe gemacht und jeden generierten Frame aus dem Spiderman-Video von DF zu einen kurzen Clip zusammenzuschneiden:
hJ1Ym1tWMb4
wolik
2022-10-01, 08:59:58
Als Gamer würde ich mir wünschen dass FSR überall Verwendung findet ;)
The XeSS implementation comes with noticeable compromises in image quality—in favor of performance in most sequences of the game. We spotted excessive shimmering and flickering on thin objects and especially steel objects; they are shimmering even when standing stil
Bei 0:30 bitte Video anschauen. Einfach. No go.
https://www.youtube.com/watch?time_continue=32&v=66UWijppM8A&feature=emb_logo
Dampf
2022-10-01, 09:08:08
Schöner Vergleich der drei Techniken heute bei Techpowerup: https://www.techpowerup.com/review/marvel-s-spider-man-remastered-xess-vs-dlss-vs-fsr-2-0/
Ooof. FSR2 sieht echt besser aus als XeSS (zumindest im dp4a Pfad).
Das war ein Geniestreich von AMD.
unl34shed
2022-10-01, 11:19:27
Und das ist nur FRS2.0
Btw. was macht bei DLSS Quality eigentlich die Dachkante auf der Spiderman sitzt? Was ist den da kaputt?
basix
2022-10-01, 12:19:41
Ooof. FSR2 sieht echt besser aus als XeSS (zumindest im dp4a Pfad).
Das war ein Geniestreich von AMD.
Bei FSR2 sieht generell die Vegetation am besten aus. DLSS hat Vorteile bei Detailrekonstruktion beim restlichen Bild, ist aber auch stärker geglättet / gefiltert (leichter Blur). FSR2 zeigt zum Teil einzelne Pixel mit der "falschen" Farbe, was dann ein bisschen bröselig wirkt.
XeSS ist im Vergleich aber deutlich abfallend. Da müsste man mal noch die XMX-Version gegenüberstellen.
Bei 0:30 bitte Video anschauen. Einfach. No go.
https://www.youtube.com/watch?time_continue=32&v=66UWijppM8A&feature=emb_logo
Jap, so sind FSR und XeSS einfach unbrauchbar.
Mir ist egal ob die eine oder andere Technik einen Hauch mehr oder weniger Details anzeigt wenn man mit der Lupe danach sucht, aber diese Flimmerei geht gar nicht
Ooof. FSR2 sieht echt besser aus als XeSS (zumindest im dp4a Pfad).
? Gegen DLSS ist doch beides vollkommen unbrauchbar.
DrFreaK666
2022-10-01, 17:42:46
? Gegen DLSS ist doch beides vollkommen unbrauchbar.
Das Gegenteil hat er ja nicht behauptet
aufkrawall
2022-10-01, 17:52:00
Tippe, es ist in Spiderman nicht zu 100% optimal implementiert. Etwa sahen zumindest mit Spiel-Version 1.0 bestimmte Bäume auf Entfernung seltsam aliased und unruhig aus, DLSS funktioniert wahrscheinlich bei suboptimalem Input einfach besser. Aber DLSS dürfte auch mit den ganzen dünnen Linien bei Strukturen in der Schräge wie Wolkenkratzern einfach besser funktionieren.
Würde z.B. Fortnite auch perfekte XeSS- und FSR 2-Implementierungen erhalten, so wie für DLSS, würde das Fazit ggf. leicht anders ausfallen.
Auch DLSS 2.x hatte einige schlechte Implementierungen- insbesondere anfangs. Wenn man das Verfahren nur nach denen beurteilt hätte, hätte man sich geirrt. Mit ein wenig Weitblick und Differenzierung sieht man etwas weiter. ;)
Das ist aber uninteressant im hier und jetzt. NVIDIA haben die Wichtigkeit als erster wahrgenommen und entsprechend genutzt, im Grunde hat DLSS 2.x bereits die Ernte eingefahren, mit DLSS 3 folgt bereits der nächste Evolution's-Schritt, wogegen Nachzügler eben nicht mehr so interessant sind.
robbitop
2022-10-01, 18:17:47
Es ist interessant wenn man die Verfahren beurteilen will. Die IST Situation für den Endanwender ist aber natürlich aktuell sehr sehr deutlich für DLSS aufgrund der Verbreitung.
Slipknot79
2022-10-01, 18:38:41
Ich sehe das etwas chilliger. Ob DLSS, FSR 2.1 oder XeSS. Solange nicht einer von den drei in Sachen Bildqualität dick aus der Reihe tanzt, wird es wohl egal sein, zu welcher Lösung man greift. Eventuell noch zu jener, die die meisten fps rausballert. (y)
Sonst ist es wirklich Zeitverschwendung, rauszufinden, welche Lösung in welcher Situation das beste Ergebnis liefert. Eigentlich sollten das Hardwaremagazine/Websites übernehmen und dann zu jedem Spiel ihre Erkentnisse präsentieren. :redface:
DrFreaK666
2022-10-01, 19:13:16
Das ist aber uninteressant im hier und jetzt. NVIDIA haben die Wichtigkeit als erster wahrgenommen und entsprechend genutzt, im Grunde hat DLSS 2.x bereits die Ernte eingefahren, mit DLSS 3 folgt bereits der nächste Evolution's-Schritt, wogegen Nachzügler eben nicht mehr so interessant sind.
DLSS 3 ist nur für RTX4000 User interessant und davon gibt es im Privatbereich genau Null
robbitop
2022-10-01, 19:14:35
Und das wird bei der Marktsegmentierung noch ein bisschen so bleiben. Aber mittelfristig braucht AMD was ähnliches.
Und das wird bei der Marktsegmentierung noch ein bisschen so bleiben. Aber mittelfristig braucht AMD was ähnliches.
Interessiert als Enthusiast nicht sonderlich, kein wirkliches Argument. Qualität setzt sich immer durch.
DrFreaK666
2022-10-01, 19:44:36
Ich frage mich immer noch was aus Microsofts Upscaling-Bestrebungen wurde
Tippe, es ist in Spiderman nicht zu 100% optimal implementiert.
"100% optimal implementiert" = keinen Content verwenden mit dem die Upscaling nicht gut klar kommt.
Die Upscaling-Technik sollte aber nicht die Kreativität bei der Contenterstellung beeinträchtigen.
Wenn eine Upscaling-Technik mit bestimmten Content schlechter klar kommt, dann ist die Upscaling-Technik schlechter, nicht der Content nicht "100% optimal".
Und am Ende ist die Upscaling-Technik die mit der größten Breite an Content am besten klarkommt auch die beste.
basix
2022-10-02, 10:41:32
Gute Frage, ja. Für die Xbox wäre das je nach dem ein Vorteil vs. Playstation.
Redneck
2022-10-02, 12:40:44
Interessiert als Enthusiast nicht sonderlich, kein wirkliches Argument. Qualität setzt sich immer durch.
Ich sach nur VHS..
aufkrawall
2022-10-02, 16:58:10
"100% optimal implementiert" = keinen Content verwenden mit dem die Upscaling nicht gut klar kommt.
Da musst du mal gescheit lesen. Es liegt garantiert nicht nur am Content, wenn manche entfernt isolierte Objekte seltsam jittery aussehen und andere ansonsten vergleichbare nicht.
blaidd
2022-10-07, 00:16:35
Was ich bei dem ganzen (potenziellen) Latenz-Gedöns ein bisschen seltsam finde:
Nehmen wir mal an, ein voll berechneter Frame braucht 10 ms (100 Fps), ein mit DLSS 3.0 generierter, hastig und nicht volloptimal durch irgendwelche KI-Prozesse "erfundener" 3 ms (in der Praxis vielleicht auch minimal mehr). Dann schwankt die Performance zwischen dem "reel" errechneten und "KI-erfundenen" Frame berächtlich, was man u.a. auch an der Maus bemerken könnte...
Wieso analysiert Nvidia nicht den vorherigen Frame, der 10 ms Berechnungzeit gekostet hat (was man mehr oder minder zweifelsfrei erörtern kann) und gibt dann der KI ebensoviel Zeit, und damit mehr oder minder mehr Qualitätspotenzial, den nächsten Frame zu erfinden? Tun sie nicht. Das würde natürlich die absolute Leistung etwas verringern (die allseits geliebte Balkenlänge), aber dafür schwankenden Lag und quasi sämtliche anderen, bezüglich Input betreffenden, Probleme minimieren....
Kommt dann wahrscheinlich mit DLSS 4.0...^^
Reaping_Ant
2022-10-07, 06:28:39
Soweit ich die Erklaerung bisher verstanden habe, nutzt DLSS3 ja ohnehin zwei Frames zur Berechnung des Zwischenbildes - daher auch mindestens ein Frame zusaetzlicher Lag, den man ganz oder teilweise mit Reflex zu kompensieren versucht. Dementsprechend wuerde ich davon ausgehen, dass die Frames entsprechend gepaced werden.
Ich habe mal schell ein Schaubild mit Powerpoint zusammengezimmert (ohne Anspruch auf Korrektheit). Wenn die Berechnung eines "echten" Frames also 10 ms dauert, hat man 10 ms zusaetzlichen Lag (im Vergleich zu DLSS2 mit Reflex), aber dafuer alle 5 ms ein "neues" Bild. Alles natuerlich unter der Annahme, dass die Berchnung der Zwischenbilder parallel laeuft und keine Ressourcen vom eigentlichen Rendering klaut. Ausserdem funktioniert das so nur, wenn die DLSS3 Rechenzeit weniger als 50% der Renderzeit eines echten Frames betraegt, ansonsten muss man die Ausgabe nochmal um die Differenz verschieben. Daher macht es schon auch Sinn, den interpolierten Frame so schnell wie moeglich fertigzustellen, da man sich andernfalls zusaetzlichen Lag bei hohen Frameraten einhandelt.
Freestaler
2022-10-07, 06:51:47
Ich sach nur VHS..
Ich dopple nach mit MP3...
robbitop
2022-10-07, 08:15:04
Ich würde auch davon ausgehen, da es eine Zwischenbildberechnung ist (zumindest habe ich DF so verstanden), dass der generierte Frame genau zwischen n und n-1 liegt (zeitlich und geometrisch).
Sardaukar.nsn
2022-10-07, 10:08:44
War DLSS 2 beim Ampere Launch von zwei Jahren noch ein eher experimentelles Gimmick ist es jetzt der key selling point für Nvidia.
Wie auch schon bei DF ganz deutlich betont wurde, wir künstliche Intelligenz und mit KI erzeugte Auflösung oder ganze Frames in Zukunft eine immer größere Rolle spielen. Alle Unternehmen werden darauf setzen. Gleichzeitig werden wir aber auch ganz andere Benchmarks benötigen, da die unterschiedlichen Verfahren nicht 1zu1 vergleichbar sind. Eigentlich spannende Zeiten.
Troyan
2022-10-07, 10:09:47
Du meinst Turing. Mit Ampere gab es schon DLSS 2.0 und das war zu der Zeit schon in etlichen Spielen eingebaut und hat sich bewiesen.
Sardaukar.nsn
2022-10-07, 10:37:18
Du meinst Turing. Mit Ampere gab es schon DLSS 2.0 und das war zu der Zeit schon in etlichen Spielen eingebaut und hat sich bewiesen.
Eher für mich persönlich. Also ich im Dezember 2020 die 3080 10GB gekauft habe, war DLSS für mich noch kein Kriterium. In den letzten zwei Jahren hat sich das aber so gut weiterentwickelt das ich in Zukunft nicht mehr drauf verzichten möchte. Könnte mir vorstellen das andere auch ähnlich denken.
blaidd
2022-10-07, 10:37:38
Nehmen wir mal an...
Brainfart. Wenn man mit den KI-berechneten Frames so lange wartet, bis sie die gleiche Berechnungszeit (bzw. Latenz) eines "richtigen" Frames erreichen, kann man sie ja gleich weglassen, weil sie keinerlei Vorteile bringen... :rolleyes:
Dann erhält man natürlich auch kein Performance-Plus. Aber vielleicht könnte man mehrere Frames analysieren und mit KI-berechneten Frames gleichmäßig die Berechnungszeit drücken.
Das wird noch eine interessante Diskussion (because it contains "The feels"). :cool:
robbitop
2022-10-07, 10:46:55
Man hat keinen Vorteil in Bezug auf Inputlag. Eher ein kleinen Nachteil*
Aber die Flüssigkeit und Bewegtschärfe wird besser. Und wahrscheinlich ist es so, dass ab einem gewissen Inputlag auch eine weitere Verringerung nicht mehr spürbar ist. Deshalb macht das Verfahren besonders viel Sinn mit einer bereits hohen Grundframerate.
*
gegenüber keine Framegeneration wahrscheinlich kaum, da das mit Reflex mitigiert wird. Aaaber: man könnte Reflex ja auch ohne Framegeneration nutzen. Apples-to-Apples ist es ein Nachteil - der aber bei hoher Grundframerate (bzw niedrigem Grundinputlag) immer weniger wichtig ist.
Reaping_Ant
2022-10-07, 10:56:43
Brainfart. Wenn man mit den KI-berechneten Frames so lange wartet, bis sie die gleiche Berechnungszeit (bzw. Latenz) eines "richtigen" Frames erreichen, kann man sie ja gleich weglassen, weil sie keinerlei Vorteile bringen... :rolleyes:
Das stimmt so nicht ganz: Wenn jedes Zwischenbild genau die selbe Berechnungszeit wie ein "normales" Bild haette, koennte man immer noch die Bildrate verdoppeln - angenommen die Berechnung nutzt nur Ressourcen (Tensorcores?), die beim Rendern selbst nicht genutzt werden. Siehe mein Schaubild auf der vorigen Seite.
blaidd
2022-10-07, 11:06:35
Man hat keinen Vorteil in Bezug auf Inputlag. Eher ein kleinen Nachteil*
Aber die Flüssigkeit und Bewegtschärfe wird besser. Und wahrscheinlich ist es so, dass ab einem gewissen Inputlag auch eine weitere Verringerung nicht mehr spürbar ist. Deshalb macht das Verfahren besonders viel Sinn mit einer bereits hohen Grundframerate.
*
gegenüber keine Framegeneration wahrscheinlich kaum, da das mit Reflex mitigiert wird. Aaaber: man könnte Reflex ja auch ohne Framegeneration nutzen. Apples-to-Apples ist es ein Nachteil - der aber bei hoher Grundframerate (bzw niedrigem Grundinputlag) immer weniger wichtig ist.
Ich kann dazu natürlich nichts Definitives sagen, aber ja, das wäre wohl im Bereich des Möglichen. Die Problematik mit Lag könnte halt insbesondere dann auftreten, wenn die Performance generell eher niedriger ist (und damit die Berechnungszeit von regulären Frames und auch der Input-Lag eher hoch) und man dann sehr schnelle KI-Frames injiziert (ob wirklich 3 ms oder vielleicht minimal höher sei mal dahingestellt...). Dann schwankt die Latenz potuenziell sehr stark. Auch mit Reflex.
Das stimmt so nicht ganz: Wenn jedes Zwischenbild genau die selbe Berechnungszeit wie ein "normales" Bild haette, koennte man immer noch die Bildrate verdoppeln - angenommen die Berechnung nutzt nur Ressourcen (Tensorcores?), die beim Rendern selbst nicht genutzt werden. Siehe mein Schaubild auf der vorigen Seite.
Ja, man müsste die "richtigen" und "erdachten" Frames halt über einen gewissen Zeitraum angleichen, dann würde es einen Vorteil bringen.
Nehmen wir mal an, ein voll berechneter Frame braucht 10 ms (100 Fps), ein mit DLSS 3.0 generierter, hastig und nicht volloptimal durch irgendwelche KI-Prozesse "erfundener" 3 ms (in der Praxis vielleicht auch minimal mehr). Dann schwankt die Performance zwischen dem "reel" errechneten und "KI-erfundenen" Frame berächtlich, was man u.a. auch an der Maus bemerken könnte...
Die Berechnungszeit für den erfundenen Frame ist vollkommen egal, so lange sie kurz genug ist, dass sie nicht von den echten Frames überholt wird.
Die Berechnungszeit eines Frames auf der GPU ist sogar generell prinzipiell fürs Framepacing egal.
Eine GPU ist "dumm" die hat 0 Ahnung vom zeitlichen Verlauf der Gameengine, die GPU führt nur Befehle der Gameengine aus, und die lauten zeichne Dreieck X an Position Y oder schicke den Strahl von A nach B.
Diese Befehle haben aber keinen direkten Zusammenhang mit dem zeitlichen Verlauf der Gamesimulation.
Selbst wenn die reine Berechnungszeit der Frames auf der GPU vollkommen gleichmäßig ist und die Gameengine beschissen ist kannst du trotzdem komplett ungleichmäßiges Framepacing haben.
Bezeichnen wir mal den Start der Gamesimulation mit t0 = 0. (ohne Berücksichtigung von Latenzen)
Nehmen wir mal an die GPU braucht 20ms pro Frame.
Die Ausgabezeit der GPU erfolgt also in dieser Folge:
0 ... 20ms ... 40ms ... 60ms usw.
Wenn die Gameengine beschissen ist, kann sie aber unter Umständen in folgender Zeit berechnen:
0 ... 10ms ... 30ms ... 35ms... usw.
Du wirst dann obwohl es keine messbaren Varianzen gibt ein Microstuttering wahrnehmen.
Wenn die Gameengine aber ordentlich synchron mit der GPU läuft werden die Frames in Gamezeit auch so berechnet.
0 ... 20ms ... 40ms ... 60ms usw.
Die erfundenen Frames werden dann immer und ausnahmslos genau zwischen 2 echten Frames berechnet.
Du hättest also folgende Ausgabe:
0 ... 10ms(I) ... 20ms ... 30ms(I) ... 40ms usw.
Dabei ist es unerheblich ob das interpolierte 10ms frame schon bei t0+3ms oder bei t0+5ms oder t0+8ms fertig ist. Es wird zeitlich immer genau in die Mitte zwischen 2 echten Frames interpoliert. Problematisch wäre erst, wenn die Interpolation selbst über 10ms dauern würde.
aufkrawall
2022-10-07, 18:20:52
Erzwungenes DLSS Müll-Sharpen nun auch in Hitman 3 seit dem Update:
https://abload.de/thumb/hitman3_2022_10_06_154fde5.png (https://abload.de/image.php?img=hitman3_2022_10_06_154fde5.png)
Das tut so weh in den Augen (und im Hirn)...
ChaosTM
2022-10-07, 18:22:26
Das seh sogar ich auf dem 1200er Monitor. Doppelkonturen gehen gar nicht..
Redneck
2022-10-07, 19:24:47
Ich dopple nach mit MP3...
Ich setz noch einen drauf : GSYNC
Ich setz noch einen drauf : GSYNC
G-Sync ist einfach nicht tot zu kriegen... Der fühe Vogel fängt halt den Wurm. Kann man auf viele Features übertragen oder anders ausgedrückt "Wer nicht wagt , der nicht gewinnt!" so einfach kann das sein...
Ich setz noch einen drauf : GSYNC
Komplett daneben, GSYNC ist keine Verschlechterung der Bildqualität.
Lurtz
2022-10-08, 09:59:05
Erzwungenes DLSS Müll-Sharpen nun auch in Hitman 3 seit dem Update:
https://abload.de/thumb/hitman3_2022_10_06_154fde5.png (https://abload.de/image.php?img=hitman3_2022_10_06_154fde5.png)
Das tut so weh in den Augen (und im Hirn)...
Grauenhaft. Wie kann man sein Spiel nur so vergewaltigen?
aufkrawall
2022-10-08, 20:38:17
Ist in Spiderman übrigens auch seit den Patches verkackt: DLSS Sharpen 4/10 blurt wie in Dying Light 2 unnötig in Bewegung, ab 5/10 gibt es hingegen auch Ringing. Keine neutrale Einstellung vorhanden.
Trottelvidia...
ChaosTM
2022-10-08, 20:41:01
Das Spiel selbst wird dadurch aber nicht viel schlechter.
aufkrawall
2022-10-08, 20:45:40
Das Spiel wird auch nicht schlechter, wenn es FSR 1 hätte. Akzeptier es, dass es Leute gibt, die es stört und spam keinen OT-Schrott...
ChaosTM
2022-10-08, 21:04:09
War das wirklich so OT?..
mag sein..
Deine Besessenheit mit Kleinigkeiten solltest du vielleicht auch überdenken.
Dampf
2022-10-08, 21:10:59
Das Spiel wird auch nicht schlechter, wenn es FSR 1 hätte. Akzeptier es, dass es Leute gibt, die es stört und spam keinen OT-Schrott...
Chaos hat aber schon einen Punkt. Es ist bedenklich, wie sehr du dich mittlerweile über so Kleinigkeiten aufregst, von sachlicher Kritik ist das ziemlich weit entfernt.
Vielleicht solltest du dich etwas entspannen und dich erstmal anderen Dingen zuwenden, die dir mehr Freude bieten.
Lurtz
2022-10-08, 21:13:34
Ich lese seine Einschätzungen hier sehr gerne, gibt keinen anderen User hier, der die Qualität so zuverlässig nachweist.
Dein Verweis auf die Qualität des Spiels hilft dagegen genau gar nichts weiter in diesem Thread.
Man muss sich wohl so oder so damit abfinden, dass nVidia das Sharpen haben möchte, egal wie unsinnig es erscheint.
Übrigens sagte Intel bezüglich XeSS, dass ein Schärfe-Regler zum Zeitpunkt der Nachfrage (Ende August) nicht in der Mache sei, sondern dass die Schärfe während des Trainingsprozesses festgelegt wird. Wie das zu verstehen ist, müsste sich einer, jemand oder man ;) mal mit Fokus auf die reine Nachbearbeitung ansehen. Insgesamt sollten wir aufkrawall aber beipflichten, dass Upscaler jeder Art erst mal mit neutraler Schärfe (nicht Detailabbildung) im Vergleich mit nativ appliziertem TAA implementiert werden sollten. Knackiger kann man's auf Wunsch immer noch machen.
MfG
Raff
ChaosTM
2022-10-08, 21:17:21
Krawalls Einwände sind meisten valide, aber es kommt of so rüber, als ob das Spiel Crap wäre.
Und ja, ich mag solche Einwände bezüglich der Grafikqualität grundsätzlich auch.
Dampf
2022-10-08, 21:17:25
Ich lese seine Einschätzungen hier sehr gerne, gibt keinen anderen User hier, der die Qualität so zuverlässig nachweist.
Dein Verweis auf die Qualität des Spiels hilft dagegen genau gar nichts weiter in diesem Thread.
Man muss sich wohl so oder so damit abfinden, dass nVidia das Sharpen haben möchte, egal wie unsinnig es erscheint.
Da stimme ich absolut zu, seine Einschätzungen sind sehr wertvoll. Der Punkt ist aber, dass es scheinbar seine Psyche runterzieht, da er sehr abfällige Bemerkungen nutzt und immer toxischer wirkt. Wie gesagt, er entfernt sich immer mehr der sachlichen Kritik.
robbitop
2022-10-08, 21:18:15
Ich lese seine Einschätzungen hier sehr gerne, gibt keinen anderen User hier, der die Qualität so zuverlässig nachweist.
Dein Verweis auf die Qualität des Spiels hilft dagegen genau gar nichts weiter in diesem Thread.
Man muss sich wohl so oder so damit abfinden, dass nVidia das Sharpen haben möchte, egal wie unsinnig es erscheint.
Sehe ich auch so. Weiter so aufkrawall :up:
Wenn die Aufreger jemanden stören, kann man sie doch überlesen. Die Qualitätseinschätzung haben Substanz und die bietet hier zum Thema BQ kein anderer in vergleichbarer Form.
Krawalls Einwände sind meisten valide, aber es kommt of so rüber, als ob das Spiel Crap wäre.
Und ja, ich mag solche Einwände bezüglich der Grafikqualität grundsätzlich auch.
Wo kommt das so rüber? Empfinde ich nicht so. Er regt sich klar über das Sharpening auf nicht über das Spiel.
Übrigens sagte Intel bezüglich XeSS, dass ein Schärfe-Regler zum Zeitpunkt der Nachfrage (Ende August) nicht in der Mache sei, sondern dass die Schärfe während des Trainingsprozesses festgelegt wird. Wie das zu verstehen ist, müsste sich einer, jemand oder man ;) mal mit Fokus auf die reine Nachbearbeitung ansehen. Insgesamt sollten wir aufkrawall aber beipflichten, dass Upscaler jeder Art erst mal mit neutraler Schärfe (nicht Detailabbildung) im Vergleich mit nativ appliziertem TAA implementiert werden sollten. Knackiger kann man's auf Wunsch immer noch machen.
MfG
Raff
Schau dir mal XeSS in Spiderman Remastered an, das flimmert wie sau und erzeugt unschöne Moire-Artefakte, ein Schärfefilter würde das Problem nur mehr verschärfen, im wahrsten Sinne des Wortes. Wenn man einen guten 4K Monitor verwendet, braucht es mit DLSS auch keinerlei Schärfe zusätzlich, solange das optional bleibt ist das jedoch in Ordnung.
ChaosTM
2022-10-08, 21:21:21
Es kam mir so vor, sorry wenn ich das misinterpretiert habe.
robbitop
2022-10-08, 21:24:45
Da stimme ich absolut zu, seine Einschätzungen sind sehr wertvoll. Der Punkt ist aber, dass es scheinbar seine Psyche runterzieht, da er sehr abfällige Bemerkungen nutzt und immer toxischer wirkt. Wie gesagt, er entfernt sich immer mehr der sachlichen Kritik.
Er geht mit der Kritik / Kontroverse niemanden hier im Forum an - sondern der unschönen und unnötigen Schwäche des Verfahrens. Man kann Inhalte auch einfach überlesen, wenn sie einen stören. Ich finde es ist klar ersichtlich, dass er sich über das Sharpening aufregt.
Ggf kann man das Thema jetzt auch abhaken da es hier um dlss geht und nicht um Befindlichkeiten. Wenn was nicht gefällt -> ignorieren.
robbitop
2022-10-08, 21:27:44
Schau dir mal XeSS in Spiderman Remastered an, das flimmert wie sau und erzeugt unschöne Moire-Artefakte, ein Schärfefilter würde das Problem nur mehr verschärfen, im wahrsten Sinne des Wortes. Wenn man einen guten 4K Monitor verwendet, braucht es mit DLSS auch keinerlei Schärfe zusätzlich, solange das optional bleibt ist das jedoch in Ordnung.
Meinst du damit neustem Patch und das VMX Verfahren? Oder pre patch und dp4? Letzteres soll deutlich schwächer sein.
Slipknot79
2022-10-08, 22:36:25
NV Reflex wird ja in Zusammenhang mit DLSS 3 genannt. Ist damit gemeint, dass die Mouse und der Monitor den Shice auch supporten müssen?
Gott1337
2022-10-08, 22:42:40
Das Spiel wird auch nicht schlechter, wenn es FSR 1 hätte. Akzeptier es, dass es Leute gibt, die es stört und spam keinen OT-Schrott...
du musst auch akzeptieren, dass die Entwickler Schuld sind wenn das Sharpening erzwungen wird.. aber das wäre ja zu viel von dir verlangt
NV Reflex mit ja in Zusammenhang mit DLSS 3 genannt. Ist damit gemeint, dass die Mouse und der Monitor den Shice auch supporten müssen?
Nope, das ist primär eine Leerung der Rendering Queue, sprich, die Frames werden schnellstmöglich rausgefeuert. Bei DLSS 3 hat dies die Funktion, den durch die Frame Generation induzierten Lag bestenfalls zu egalisieren.
MfG
Raff
aufkrawall
2022-10-08, 23:38:15
NV Reflex mit ja in Zusammenhang mit DLSS 3 genannt. Ist damit gemeint, dass die Mouse und der Monitor den Shice auch supporten müssen?
Die Reduktion des Lags durch Reflex passiert zu 100% in Software.
du musst auch akzeptieren, dass die Entwickler Schuld sind wenn das Sharpening erzwungen wird.. aber das wäre ja zu viel von dir verlangt
Kann ich mir nichts von kaufen. Sie hätten auch DLSS Sharpen einfach gescheit auf die Reihe bekommen können, dann wär eine geringfügige Minimalintensität überhaupt nicht schlimm. Dass du auf so etwas nicht von selbst kommst...
Slipknot79
2022-10-09, 00:30:47
kk thx @beide. (y)
aufkrawall
2022-10-09, 01:48:26
DLSS Sharpen 4 (das ist kein DoF :freak: ):
https://abload.de/thumb/spider-man_2022_10_080ic7r.png (https://abload.de/image.php?img=spider-man_2022_10_080ic7r.png)
DLSS Sharpen 5:
https://abload.de/thumb/spider-man_2022_10_089edlx.png (https://abload.de/image.php?img=spider-man_2022_10_089edlx.png) https://abload.de/thumb/spider-man_2022_10_082bdr4.png (https://abload.de/image.php?img=spider-man_2022_10_082bdr4.png)
Selbst die blauen Fensterscheiben im Hintergrund werden durch das DLSS Sharpen in Bewegung deutlich heller. :freak:
Einfach nur grausam. Ich kam auch schon auf die verwegene Idee, die geshippte 2.4.12-Version zu nehmen und das Sharpen weiter reinzudrehen, aber das geht auch nicht sonderlich gut auf. Diese Version blurt einfach abnormal in Bewegung vs. 2.4.6. Was machen Nvidia...
Btw. danke für das Lob. :smile:
Ich setz noch einen drauf : GSYNC
Passt in der Analogie nicht im Geringsten. All diese Technologien waren qualitativ schlechter als das zum jeweiligen bestmögliche, aber "gut genug" um sich durchzusetzen.
G-SYNC ist qualitativ besser, aber nicht in dem Maße um sich genug abzusetzen, so dass die alternativen Technologien von der Allgemeinheit als "gut genug" betrachtet zu werden.
Anders ausgedrückt, G-SYNC ist das Betamax Äquivalent, VRR/Freesync VHS.
Schau dir mal XeSS in Spiderman Remastered an, das flimmert wie sau und erzeugt unschöne Moire-Artefakte, ein Schärfefilter würde das Problem nur mehr verschärfen, im wahrsten Sinne des Wortes. Wenn man einen guten 4K Monitor verwendet, braucht es mit DLSS auch keinerlei Schärfe zusätzlich, solange das optional bleibt ist das jedoch in Ordnung.
Matrix-Core beschleunigt oder DP4a? Letzteres ist deutlich schlechter.
NV Reflex wird ja in Zusammenhang mit DLSS 3 genannt. Ist damit gemeint, dass die Mouse und der Monitor den Shice auch supporten müssen?
Nein, das "brauchst" du nur wenn du selbst Latenzen ohne LDAT messen willst.
Die reine Funktionalität von Reflex ist mit jeder Hardware (und NV Grafikkarte) verfügbar.
Redneck
2022-10-10, 19:32:44
Passt in der Analogie nicht im Geringsten. All diese Technologien waren qualitativ schlechter als das zum jeweiligen bestmögliche, aber "gut genug" um sich durchzusetzen.
G-SYNC ist qualitativ besser, aber nicht in dem Maße um sich genug abzusetzen, so dass die alternativen Technologien von der Allgemeinheit als "gut genug" betrachtet zu werden.
Anders ausgedrückt, G-SYNC ist das Betamax Äquivalent, VRR/Freesync VHS.
Es passt genau so um deine Aussage zu widerlegen.
Die vorherigen waren negativ Beispiele, die sich durchsetzten und das letzte ein positiv Beispiel, welches sich nicht durchgesetzt hat.
Beides Seiten einer Medaille und GSYNC insbesondere weil es von deinem Lieblings Hersteller kommt.
Matrix-Core beschleunigt oder DP4a? Letzteres ist deutlich schlechter.
Das ist doch egal, beides Müll... selber schuld wenn sie es kaputt freischalten und FSR 2.1 macht es ja noch viel schlimmer, das ist überschärft und flimmert extrem, die Reflektionen u.a. flackern regelrecht. Einzig DLSS kann überzeugen.
mojojojo
2022-10-10, 22:55:50
Sorry für OT:
@MP3/VHS/Betamax/GSync Diskussion:
ÄCKSCHUALLY:
MP3 war zu dem Zeitpunkt wo es sich "durchsetzte" im Prinzip alternativlos (benötigte Rechenpower für De- und Encoding darf man nicht vergessen ;)). Als wirklich brauchbare Konkurrenz verfüg- und nutzbar (Rechenpower) war, war der Drops schon laaaange gelutscht und auf Grund der Natur der Abspieler ist (bzw. war) der Markt sehr langsam in seinen Reaktionen. Die Leute kaufen sich nicht ständig neue Abspieler und alle Songs nochmal bzw. konvertieren alles nochmal neu, weil jetzt ein neues Kompressionsverfahren da ist. Und in dem Moment hat man da ein dickes Henne/Ei Problem.
VHS setzte sich durch weil Betamax eigentlich ein Stück weit am Markt vorbei entwickelt war. Ja, das Video an sich war bei Betamax technisch hochwertiger. Das brachte bei den damaligen TV Geräten dem Endanwender aber nix (also wirklich NIX). Dafür wars trotzdem ein gutes Stück teurer. Für den Heimvideomarkt war die Kassettenlänge ein wichtiges Kriterium und in diesem war VHS einfach besser. Tja und dann ist der Markt schnell in eine Richtung gekippt, weil man nämlich auch Filme mit den Kumpels tauschen wollte.
Und dann war da auch noch was mit der Pornoindustrie...:D Nee quatsch dieser Mythos wurde, glaube ich, größtenteils entkräftet. Wobei er auch einen sehr wahren Kern haben dürfte.
Ja VHS war billiger und das dürfte ein großer Punkt gewesen sein. Es war aber für den Anwender effektiv trotzdem nicht das schlechtere Produkt das sich nur wegen irgendwelcher Randbedingungen (wie Preis, etc.) durchsetzte weil es eben "gut genug" war. Die Vorteile von Betamax boten einfach keinen effektiven Mehrwehrt und brachten trotzdem Nachteile mit.
G-Sync hat sich AFAIK nicht durchgesetzt, weil Vendor Lock und allein schon durch die Lizenz-/Dongle Kosten einen Aufpreis bei den Monitoren, der bei normalen Usern (und je nach Ansicht auch bei vielen Enthusiasten) schlichtweg keinen Mehrwehrt bot. Naja, und ein G-Sync Monitor hat ja bis heute eher kein Freesync, bzw. VRR, oder? Also nur noch grüne Karten... Ja, klingt nach 'nem guten Deal. Dürfte für die meisten "Nicht Fanboys" und Normalverdiener eigentlich mehr oder weniger ein K.O Kriterium sein, das nur wenig mit "gut genug" zu tun hat.
Also meiner Meinung nach schon vieles ein bisschen anders, als das einige hier sehen.
SCNR.
ÄCKSCHUALLY:
MP3 war zu dem Zeitpunkt wo es sich "durchsetzte" im Prinzip alternativlos (benötigte Rechenpower für De- und Encoding darf man nicht vergessen ;)).
Die CD gab es bereits vor MP3 und war technisch hochwertiger.
Es gab mit SACD und DVD-Audio auch technisch noch hochwertigere Nachfolger, die auch vor/zur Zeit als sich MP3 langsam durchsetzen begann auf den Markt kamen (den ganz genauen zeitlichen Ablauf hab ich nicht mehr im Kopf)
Trotzdem sind diese technisch besseren Produkte absolute Nischenprodukte geblieben, während MP3 langsam aber sicher den technisch hochwertigeren Vorgänger abgelöst hat.
Es hat jetzt fast 20 Jahre gedauert bis nun Streamingdienste mit "HD/UHD Audio" bzw. teilweise auch Dolby Atmos/360 Audio Musik in einer Qualität anbieten wie es damals mit DVD-Audio bzw. SACD eigentlich schon annähernd möglich gewesen wäre und damit erstmals auch Musik in einem Massenmedium die technisch tatsächlich hochwertiger ist als das Vorgängermassenmedium der CD.
Ja, das Video an sich war bei Betamax technisch hochwertiger. Das brachte bei den damaligen TV Geräten dem Endanwender aber nix (also wirklich NIX).
Also ganz ähnlich wie heute G-Sync. Das ist auch teurer und zumindest teilweise nur geringfügig besser als andere VRR-Alternativen.
Und dann war da auch noch was mit der Pornoindustrie...:D Nee quatsch dieser Mythos wurde, glaube ich, größtenteils entkräftet. Wobei er auch einen sehr wahren Kern haben dürfte.
Da ist durchaus weniger Mythos dran als man vielleicht glaubt.
Die Erwachsenenunterhaltung hat schon immer eine technische Vorreiterrolle eingenommen, und macht es auch heute noch.
Sei es VHS, Videostreaming oder aktuell VR. Alles Technologien die sich auf diesem Sektor lange vor dem Mainstream durchgesetzt haben.
G-Sync hat sich AFAIK nicht durchgesetzt, weil Vendor Lock und allein schon durch die Lizenz-/Dongle Kosten einen Aufpreis bei den Monitoren, der bei normalen Usern (und je nach Ansicht auch bei vielen Enthusiasten) schlichtweg keinen Mehrwehrt bot.
G-Sync bietet keinerlei Mehrwert gegenüber guten Freesync/VRR-Monitoren.
Den einzigen Mehrwert den G-Sync bietet, ist dass Monitore Qualitätskriterien erfüllen müssen, damit sie den Sticker auf die Verpackung kleben dürfen.
Freesync darf sich absolut jeder Monitor nennen der irgendeine Form von VRR beherrscht. Gerade in der Anfangszeit von VRR gab es da schon einige "Perlen".
G-Sync bietet also eine Mindestqualität, Freesync kann diese unterbieten, gleichziehen oder auch überbieten, das Logo allein macht darüber aber keine Aussage.
Naja, und ein G-Sync Monitor hat ja bis heute eher kein Freesync, bzw. VRR, oder?
Bei den ersten G-Sync Monitoren könnte das tatsächlich zutreffen, bin mir da jetzt nicht sicher, jeder G-Sync-Monitor der letzten Jahre kann aber genauso mit VRR angesteuert werden, also auch Freesync auf AMD-Karten, oder den Konsolen (bei letzteren allerdings aufpassen ob der Monitor wohl auch HDMI 2.1 hat).
Die meisten aktuellen G-Sync Monitore haben auch ein Freesync-Logo auf der Verpackung, das darf sich ja jeder raufkleben wenn er möchte.
dildo4u
2022-10-11, 18:19:00
_eoHguqNDqM
Raff schrieb, dass das Bild unruhig wird, da die Frametimes unregelmäßig sind. Das könnte evtl. Probleme geben wie bei CF/SLI damals mit DLSS3.
blaidd
2022-10-11, 20:39:59
Raff schrieb, dass das Bild unruhig wird, da die Frametimes unregelmäßig sind. Das könnte evtl. Probleme geben wie bei CF/SLI damals mit DLSS3.
Die Frames werden zusätzlich temporal verrechnet – also die KI-Frames mit den echten. Das mindert Artefakte natürlich, inklusive Frametime-Schankungen. Also ist das definitiv ein bisschen was anderes. Fühlt sich auch nicht so an wie typisches Multi-GPU-Rendering, das hat eher einen Stutter-Effekt, DLSS 3.0 fühlt sich einfach nur ein bisschen "unrund"/"komisch" an.
Das bekomme ich hoffentlich in näherer Zukunft noch etwas präzisiert/objektiv belegt, allerdings ist das definitiv nicht so einfach. Und zumindest bei hohen Bildraten mit FG würde ich annehmen, dass es nur den etwas sensibleren Naturen auffällt. Ist schon ziemlich dope, zumindest nach meinem aktuellen Kenntnisstand.
EDIT: So, wie es hier steht, stimmt das wahrscheinlich nicht ganz. Die beiden gerenderten Frames mögen miteinander verrechnet werden und der KI-Frame von ihnen abstammen, aber untereinander verrechnet werden die wohl eher nicht.
aufkrawall
2022-10-11, 20:42:45
DLSS 3.0 fühlt sich einfach nur ein bisschen "unrund"/"komisch" an.
Das anstatt verbessertes Upsampling, tolles neues Feature. X-(
blaidd
2022-10-11, 20:52:53
Das anstatt verbessertes Upsampling, tolles neues Feature. X-(
Naja, ein bisschen differenziert betrachtet, ist das schon eine ganz nette Sache - aber halt keine Wunder-Technologie, welche die Regeln der Physik (bzw. in diesem Sinne wohl eher Mathematik) bricht.
Außerdem ist das Ganze mal wieder ziemlich Holterdiepolter und alles noch nicht so ganz fertig, das kennt man ja heutzutage (die mögen das Rad neu erfunden haben, aber noch bevor sie ausgetüftelt haben, wie man das ummantelt und mit Luft befüllt, kann man schon die neue S-Klasse vorbestellen^^). Dass man z.B. das Tearing nicht vollständig eliminiert bekommt, beeinflusst natürlich auch das Ergebnis der optischen Betrachtung.
Aber ein paar Stellen gibt's, an denen man sich wohl reiben könnte – wäre da durchaus auch interessiert, was du dazu sagen würdest ;)
Ne RTX 4090 kann ich dir allerdings nicht klarmachen. ;(;)
aufkrawall
2022-10-11, 20:55:47
Naja, ein bisschen differenziert betrachtet, ist das schon eine ganz nette Sache - aber halt keine Wunder-Technologie, welche die Regeln der Physik (bzw. in diesem Sinne wohl eher Mathematik) bricht.
Außerdem ist das Ganze mal wieder ziemlich Holterdiepolter und alles noch nicht so ganz fertig, das kennt man ja heutzutage. Dass man z.B. das Tearing nicht vollständig eliminiert bekommt, beeinflusst natürlich auch das Ergebnis der optischen Betrachtung.
Hab auch schon woanders gelesen, dass man kein Vsync nutzen könnte. Stimmt das also? Wenn ja: WTF.
Aber ein paar Stellen gibt's, an denen man sich reiben könnte - wäre da durchaus auch interessiert, was du dazu sagen würdest ;)
Ne RTX 4090 kann ich dir allerdings nicht klarmachen. ;(;)
Aber danke, dass du an mich gedacht hast. :freak: :cool:
Ich glaube aber, als Input Lag-Hasser falle ich sowieso komplett aus der Zielgruppe.
blaidd
2022-10-11, 20:57:33
Hab auch schon woanders gelesen, dass man kein Vsync nutzen könnte. Stimmt das also? Wenn ja: WTF.
Aktuell?: Ja.
Bildratenbegrenzungen funktionieren auch nicht (richtig).
Ex3cut3r
2022-10-11, 20:58:24
Wie kein VRR? Mit Frame Generation? Ne, oder. Epic Fail.
Troyan
2022-10-11, 20:59:46
Nein, kein V-Sync. Natürlich funktioniert VRR - wird auch von nVidia wegen dem deaktivierten V-Sync empfohlen.
blaidd
2022-10-11, 21:00:36
Wie kein VRR? Mit Frame Generation? Ne, oder. Epic Fail.
Zumindest Gsync funktioniert wohl (außer, man überschreitet die maximale Refresh-Rate). VRR im Generellen? Mein Display am Testrechner (4K, 144 Hz, Gsync Compatible) nicht korrekt (außerdem habe ich oft weit über 144 Fps).
aufkrawall
2022-10-11, 21:13:42
Das ist ja mega blöd, ohne Vsync kann es auch mit VRR mitunter Tearing geben. In Fortnite hab ich ohne Vsync mit VRR bei 135fps in-game Limiter bei 144Hz Maximum eine Tear-Linie in Bodennähe.
Milchkanne
2022-10-11, 21:55:58
Ich fände es ja mega spannend ein DLSS3 Video zu sehen, wo jeder zweite Frame weggeworfen wurde. Also im Vergleich dann nur die zwischen Frames und nur die Echten zu sehen.
Hab auch schon woanders gelesen, dass man kein Vsync nutzen könnte. Stimmt das also? Wenn ja: WTF.
Auf 240Hz braucht das auch niemand, besser LMB, was zusammen mit der Framegeneration für super scharfe Bewegtbildschärfe sorgen sollte.
Ich fände es ja mega spannend ein DLSS3 Video zu sehen, wo jeder zweite Frame weggeworfen wurde. Also im Vergleich dann nur die zwischen Frames und nur die Echten zu sehen.
Hat jemand mit dem Digital Foundry Video gemacht.
Neurosphere
2022-10-12, 07:37:27
Da bei Twitter gerade viele Detailbilder von DLSS 3 eingehen um die schärfe zu verdeutlichen:
Kann es sein daß viel einfach über den Kontrast gemacht wird? Es wirkt dann schärfer, aber die oftmals versprochenen zusätzlichen Bildinformationen kann ich bei den Beispielen nicht finden.
MasterElwood
2022-10-12, 08:44:11
Ich fände es ja mega spannend ein DLSS3 Video zu sehen, wo jeder zweite Frame weggeworfen wurde. Also im Vergleich dann nur die zwischen Frames und nur die Echten zu sehen.
Hat DF doch gemacht? Man sah keinen Unterschied...
robbitop
2022-10-12, 08:55:24
Ich hab gestern Abend das Video von Phil und Raff zur 4090 geschaut. Zum Thema DLSS 3 FG:
Mich wundert das juddern, was Phil beschrieben hat. Selbst wenn die GPU nur 3 ms braucht, um das Zwischenbild zu berechnen, heißt das ja nicht, dass das zwangsweise starr 3 ms nach Frame n-1 angezeigt werden muss.
Sagen wir mal wir haben 60 fps - das würde bedeuten, dass wir 16 ms zwischen 2 echten Frames haben:
ohne FG:
[Frame n-1] -> [Frame n] dauert 16 ms
mit FG:
[Frame n-1] -> [generated Frame] 3 ms -> [frame n] 13 ms
So habe ich die Beobachtung verstanden. Aber das muss IMO nicht so sein (bzw wenn es so ist kann NV das ja ändern. Man könnte das generierte Frame verzögern bis es genau mittig zwischen n-1 und n ist also so:
[n-1] -> [generated] 8 ms -> [n] 8 ms
Vom Bildinhalt her sollte es sowieso genau mittig sein, weil n-1 und n als Referenz dienen.
Dass es da tearing gibt sollte sich doch hoffentlich auch ändern lassen.
Das Argument, dass die 4090 zu schnell wäre, um FG zu untersuchen und man auf langsamere Karten warten will (AD103/04/06) hingegen kann ich nicht wirklich verstehen. Per DSR auf beliebig hohe Auflösung aufdrehen um die Framerate zu senken und schon ist das Problem gelöst. So könnte man sich das Verhalten auch bei niedrigen Frames anschauen. Mit Auflösung kann man sich die Framerate doch in den fps Bereich legen, wie man es sich anschauen will. Mit 30..40..50 fps als Basis oder mit 60 fps als Basis oder mit 120 fps als Basis.
Und Latenzmessungen kann man jeweils auch machen - das Equipment dafür sollte doch relativ verfügbar sein.
-------------------
Eigentlich müssten sich die issues (kein VSync), Verzögerung des FG usw alle fixen lassen. Man könnte wegen des VSync issues auch temporär mit Framelimiter arbeiten.
Zum Testen: Wenn das Display nur 144 Hz kann, Framelimiter auf 142 setzen. Und sich die Framerate zur Not über DSR so hinlegen, dass es in den Framebereich passt, den man untersuchen will. Was natürlich schön wäre, wenn entsprechende Displas mit hoher Refreshrate zum Testen vorhanden wäre. Zum Beispiel 1440p Display mit 240 Hz und per DSR mit 4K und 5K testen.
Einfach nur um einen genaueren Blick auf Frame Generation werfen zu können.
basix
2022-10-12, 09:36:42
Hier gibt es interessante Videos, auch bei niedrigen FPS:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/35.html
Ersteindruck: Man sieht die Artefakte bei F1 22 deutlich. Zum Beispiel an den Hinterrädern des Frontmanns. Und da man doch oftmals auch auf den konzentriert ist, wenn man überholen will, stört es mMn definitiv. Bei 100fps sieht es evtl. anders aus.
robbitop
2022-10-12, 10:28:24
Ich schätze auch, dass man einfach viele Grund FPS haben muss und DLSS 3 FG dann als Werkzeug nutzen kann um high fps Monitore zu befeuern (175...240...360 Hz). Das hilft dann der Bewegtschärfe ungemein. Latenz sollte dann dank hoher Grund FPS und Reflex in einem Bereich sein, der so gut ist, dass es egal ist und die Artefakte sollten sich dann halbwegs in Grenzen halten da die Frames inhaltlich dann recht nah aneinander sein sollten.
Aber auch dort wird es Border Cases geben - z.B. dass ein Objekt ein anderes überdeckt und sich bewegt und eine jeweils andere Überdeckung ergibt, so dass im Zweifel Informationen fehlen. Da muss das NN sich dann im Zweifel Dinge "ausdenken".
Ganz artefaktfrei wird das nicht gehen.
Ich finde es aber schon bezeichnend, dass NV DLSS 3 Benchmarks (laut Phil von PCGH) als Voraussetzung für die Reviews angegeben hat. Schön Äpfel mit Birnen vergleichen um den Wettbewerb schlecht aussehen zu lassen.
DLSS 3 FG ist ein (sicherlich noch reifendes) sinnvolles weiteres Werkzeug im Werkzeuggürtel. Aber wie alles gibt es Nachteile und man kann/muss es situationsabhängig nutzen.
robbitop
2022-10-12, 10:37:50
Hier gibt es interessante Videos, auch bei niedrigen FPS:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/35.html
Sehr gutes Video! Man sieht gerade bei 0,25x speed folgendes: das Frame Generation Bild wirkt erstmal grundsätzlich smoother - ABER: es stottert trotzdem irgendwie. Sichtbar an den Laternenpfählen rechts. Das stottern passt nicht zu dem Eindruck, den man hätte wenn die erhöhten FPS echt wären.
Außerdem sehe ich bei den Schatten unter den Rennwagen Flimmern, was ohne FG nicht da ist.
Da ist noch einiges zu verbessern IMO.
mojojojo
2022-10-12, 16:05:03
......
Keine Lust hier weiter 'ne OT Diskussion anzuzetteln. Daher gehe ich da nicht mehr weiter drauf ein und werde nicht weiter antworten.
Ich kann dir nur sagen, in dem Post hier hätte ich dir jetzt ansonsten Artikel über MP3, MP3 Konkurrenzformate, Audio CDs und ihre Abspielgeräte, Betamax, den Formatkrieg und vielleicht auch G-Sync und seine frühen Monitore und Konkurrenzprodukte verlinkt. ;)
M4xw0lf
2022-10-12, 16:27:37
Schon erste Berichte über Betrieb von DLSS3 MIT FG sogar auf Turing.. künstliche Beschränkung von Features? "I'm shocked, shocked!".gif
Ex3cut3r
2022-10-12, 17:59:20
Schon erste Berichte über Betrieb von DLSS3 MIT FG sogar auf Turing.. künstliche Beschränkung von Features? "I'm shocked, shocked!".gif
Link?
Troyan
2022-10-12, 18:01:16
Spider-Man hat heute DLSS 3 bekommen.
M4xw0lf
2022-10-12, 18:19:44
Link?
https://www.reddit.com/r/nvidia/comments/y1gx4s/some_new_graphics_and_video_settings_coming_to/irxa6s8/?context=3
Ex3cut3r
2022-10-12, 18:24:49
Nja. Reddit Heini der sich wichtig macht? Keine (Fake) Sceenshots? Wurde ich jetzt nicht als Beweis ansehen.
Wenn ich mir hier das Video von DF ansehe, so toll ist FG selbst auf Ada nicht IMHO. Klare Artefakte bei Bewegung der Spielfigur sichtbar. Dazu Aliasing Artefakte, kein V-Sync mit FG möglich. G-Sync/VRR braucht für absoult 0% Tearing, aber V-SYNC im CP Global auf ON. Siehe Alex seine Erklärung.
92ZqYaPXxas
Si|encer
2022-10-12, 18:26:55
hui...also dauert es quasi nur paar Tage bis alle DLSS3 nutzen können ?
Das ging schneller als vermutet.
Wobei so ein Text sollte man erstmal mit Vorsicht betrachten, könnte ja auch Fake sein ^^
"How did you get all this?"
"Connections"
Ok....^^
Freestaler
2022-10-12, 19:37:06
Gibt gute Dlss3 review? Also solche die auch Frametimes (ua. Auch Abstand der Bilder zueinander), Lagging usw. Sauber analysierten?
MAX|HASS
2022-10-12, 20:59:30
https://youtu.be/92ZqYaPXxas
Ist hier nur eine Randnotiz, aber wow, die Unterschiede bei CP mit und ohne RT am Ende des Videos sind echt unterwältigend.
Badesalz
2022-10-12, 21:26:39
IMHO. Klare Artefakte bei Bewegung der Spielfigur sichtbar. Dazu Aliasing Artefakte, kein V-Sync mit FG möglich. G-Sync/VRR braucht für absoult 0% Tearing, aber V-SYNC im CP Global auf ON. Siehe Alex seine Erklärung. ?? Das sind die Probleme? Du guckst dir einfach nur die paar Frames bei 10:34 (wenn er um die Ecke kommt und die Pfütze zu sehen ist) wie die Frames per DLSS KOMPLETT verhunzt sind. Komplett. Dann brauchst du über das obige garnicht mehr weiter grübeln.
Das wichtigste bei solchen Tests ist Ton komplett aus. Dann stört das Gehör auch nicht das Auge. Denn während Leinentücher präsentiert werden, wird die ganze Zeit was von Kaschmirwolle herbeifantasiert.
Ich wäre echt angry wenn ich mir diese Arbeit beim Content mache und dann ein Treiber so ein Müll draus macht. Früher. Heute kann sich das bei deren Marktposition wohl keiner mehr erlauben, zu motzen. Auch die PR-Journalie nicht.
DLSS, most hated-sweep under the table-feature? Man würde so gerne, traut sich aber nicht, erfüllt daher lieber nur seine Rolle...?
https://tenor.com/view/north-korea-kim-un-clapping-gif-7290418
Milchkanne
2022-10-13, 00:25:34
Hat DF doch gemacht? Man sah keinen Unterschied...
DF zeigt am Ende des Videos doch, wo es Probleme mit der Bildqualität gab....? Keinen Unterschied kann man dann nur sehen, wenn man nicht genau hinguckt oder freundliche Szenen anguckt...!?
BlacKi
2022-10-13, 00:52:49
DF zeigt am Ende des Videos doch, wo es Probleme mit der Bildqualität gab....? Keinen Unterschied kann man dann nur sehen, wenn man nicht genau hinguckt oder freundliche Szenen anguckt...!?wenn du dir die erklärung hörst, dann ist das kein fehler vom framegeneration selbst, denn die traditionellen dlss frames haben diesen fehler aufgrund zu weniger fps. frame generation kopiert den fehler aber. es bleibt damit ein modus um zu wenig fps halbwegs vernünftig zu verdoppeln, das ergebnis ist auf jeden fall zufriedenstellend, da zumindest dort keine "verschlechterung" eintritt.
DrFreaK666
2022-10-13, 00:59:34
Die KI-generierten Frames sahen in den Beispielen, die ich gesehen habe, immer schlechter aus
Rooter
2022-10-13, 01:05:35
Warum sollten sie auch nicht, sind ja nur generiert. Sind aber höchstens einige kleinen Stellen, die in Bewegung nicht auffallen dürften:
https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/4/#abschnitt_die_bildqualitaet_von_dlss_3_in_cyberpunk_2077
(Stück runterscrollen, am Video vorbei.)
MfG
Rooter
BlacKi
2022-10-13, 01:16:06
Eigentlich müssten sich die issues (kein VSync), Verzögerung des FG usw alle fixen lassen. Man könnte wegen des VSync issues auch temporär mit Framelimiter arbeiten.
Zum Testen: Wenn das Display nur 144 Hz kann, Framelimiter auf 142 setzen. ich verstehe nicht, warum DF hier sagt, das ein framelimiter nicht helfen soll. imho ist das doch ein vrr problem und kein frame generation problem.
Die KI-generierten Frames sahen in den Beispielen, die ich gesehen habe, immer schlechter aus
ich meinte damit die stelle weiter hinten im video, wo das framegeration die fehler der traditionellen frames übernimmt.
crux2005
2022-10-13, 02:34:27
https://youtu.be/92ZqYaPXxas
Eine Frage hätte ich an die hiesigen Experten. Laut Alex macht DLSS3 ab 80 FPS (mit DLSS3) eine gute Figur.
Bedeutet das 80/3 x 2 = ~53 FPS sind ohne DLSS nötig? Bin mir nicht ganz sicher. :D
Ist hier nur eine Randnotiz, aber wow, die Unterschiede bei CP mit und ohne RT am Ende des Videos sind echt unterwältigend.
Die Schatten sehen besser aus und die Spiegelungen sind deutlich besser. Ja, es sind kleine Verbesserungen. Aber IMHO zeigt diese Tabelle eindeutig das die REDEngine 4 einfach zu viel Leistung für das gezeigte braucht. Kein wunder das sie auf die UE5 wechseln.
https://abload.de/img/dfnqexa.jpg
https://www.youtube.com/watch?v=glz5B-4IlKE
ChaosTM
2022-10-13, 03:20:28
DLSS 3 ist schon interessant - ich würde die Artefakte wahrscheinlich nicht bemerken.
Muss man sich genauer anschaun..
Geldmann3
2022-10-13, 04:53:49
Ich gehe davon aus, dass wir DLSS 3 früher oder später auch noch auf RTX 3000 sehen werden.
Klar, jetzt will Nvidia erstmal einen Kaufanreiz für die völlig überteuerten, neuen Karten geben. (Wovon sich eine auf dem Versandweg zu mir befindet. ^^)
Doch, wenn das geschehen ist, kann man so ggf. auch nochmal den letzten Abverkauf des Altbestands ankurbeln.
Gott1337
2022-10-13, 05:10:48
amperes flow accelerator ist nur 1/3 so schnell (ich glaube bei gleichem Takt sogar nur) also wird das schon haarig.
guckt euch an wo dlss1 gestartet ist und wo es jetzt ist. geben wir dlss 3 auch ein bisschen zeit. Natürlich hat es Probleme, natürlich macht es nicht immer Sinn. Aber in manchen Szenarien wird das mit Sicherheit richtig gut sein.
guckt euch an wo dlss1 gestartet ist und wo es jetzt ist.
Dlss1 ist schlecht gestartet, hat nie ordentliche Qualität geliefert und wurde beerdigt sobald dlss2 zur Verfügung stand. Stand heute: Tot. Das sollte nun wirklich kein Vorbild für dlss3 sein.
Geldmann3
2022-10-13, 08:46:17
Ist Geschwindigkeit des Accelerators ein Problem?
Ich meine, das Ding kann 4k von 240 auf 480Hz beschleunigen und noch mehr.
Okay, dann können die alten Karten halt nicht auf 600FPS+ oder so hochrechnen, sondern toppen bei 240 aus oder so.
robbitop
2022-10-13, 08:47:42
Ich gehe davon aus, dass wir DLSS 3 früher oder später auch noch auf RTX 3000 sehen werden.
Klar, jetzt will Nvidia erstmal einen Kaufanreiz für die völlig überteuerten, neuen Karten geben. (Wovon sich eine auf dem Versandweg zu mir befindet. ^^)
Doch, wenn das geschehen ist, kann man so ggf. auch nochmal den letzten Abverkauf des Altbestands ankurbeln.
Hätte den Vorteil, dass die Verbreitung der DLSS 3 fähigen Hardware (je nach dem ob sie auch Turing oder nur Ampere supporten) um Größenordnungen steigt.
Und dann reden sie sich damit raus, dass sie extra mega viel Arbeit und Zeit investiert haben für uns PC Gamer damit Legacy Hardware auch in den Genuss kommen darf. War harte Arbeit und so und hat zufällig genauso lange gedauert, wie das Ampere Inventory zu leeren. :freak:
amperes flow accelerator ist nur 1/3 so schnell (ich glaube bei gleichem Takt sogar nur) also wird das schon haarig.
guckt euch an wo dlss1 gestartet ist und wo es jetzt ist. geben wir dlss 3 auch ein bisschen zeit. Natürlich hat es Probleme, natürlich macht es nicht immer Sinn. Aber in manchen Szenarien wird das mit Sicherheit richtig gut sein.
Gibts dafür ne Quelle? IIRC hat NV sich nur geäußert, dass der bei Ada "besser" geworden ist aber nicht in wie fern. Letztenendes muss das Ding nur ein Zwischenbild berechnen können und das konnte es schon zu Turing/Ampere Zeiten. Es gibt ein offizielles DX12 Plugin dafür seit 2021 um genau das zu tun was sie jetzt "DLSS 3" nennen. Als Entwickler könnte man damit mal herum experimentieren um zu sehen ob es wirklich zu langsam ist oder ob es grundsätzlich geht.
Ich bin hier super duper skeptisch und vermute eher, dass NV erstmal Kaufanreize schaffen wollte.
Geldmann3
2022-10-13, 09:06:32
Mich würde es auch wundern, wenn wir das nicht noch bis RNDA 4 auch auf AMD Hardware sehen. Woran ich jedoch leicht Zweifel habe ist, ob die Qualität an DLSS 3 auf Lovelace herankommen wird.
Bei den Auflösungen und Framerates, bei denen es dort funktioniert, scheint es tief in Hardware gegossen zu sein.
Sardaukar.nsn
2022-10-13, 09:06:34
Achtung Gerücht. Bei reddit hat angeblich jemand die DLSS 3 Frame Generation auf einer RTX 2070 aktivieren können... https://www.reddit.com/r/nvidia/comments/y1gx4s/comment/irxa6s8/?context=3
robbitop
2022-10-13, 09:16:46
Mich würde es auch wundern, wenn wir das nicht noch bis RNDA 4 auch auf AMD Hardware sehen. Woran ich jedoch leicht Zweifel habe ist, ob die Qualität an DLSS 3 auf Lovelace herankommen wird.
Bei den Auflösungen und Framerates, bei denen es dort funktioniert, scheint es tief in Hardware gegossen zu sein.
Wenn AMD nur "reagiert" und nicht bereits daran gearbeitet hat, könnte das auch zu RDNA4 schwierig werden.
Wenn man aber mit offenen Augen gesehen hat, dass bereits Turing diese HW Unit hatte und was man damit machen könnte (und bereits vor 1 Jahr das DX12 Plugin gesehen hat) und etwas mitgedacht hat (denn ein zeitliches Upsampling war seit 1-2 Jahren relativ offensichtlich) -> dann besteht eine Chance.
FSR 1.0 und 2.0 fühlten sich leider nur reaktiv an. Me too Verfahren. Mit dem Ansatz ist man leider immer hinten dran. Andererseits hat NV halt auch massiv mehr R&D - gerade im SW Bereich (besonders in der AI Sparte).
Abwarten was sie liefern werden und ob sie mittelfristig viel mehr die Initiative ergreifen anstatt größtenteils zu reagieren.
Die Hardware ist exzellent aber die SW Sparte macht so viel aus und da war leider bei AMD in den letzten Jahren in der Regel mehr Reaktion als Initiative zu sehen.
robbitop
2022-10-13, 09:18:17
Achtung Gerücht. Bei reddit hat angeblich jemand die DLSS 3 Frame Generation auf einer RTX 2070 aktivieren können... https://www.reddit.com/r/nvidia/comments/y1gx4s/comment/irxa6s8/?context=3
Mal schauen ob sich das bestätigt. Wenn es wirklich so ist, ist der nächste Shitstorm bereits um die Ecke und meine Zweifel waren berechtigt.
Freestaler
2022-10-13, 10:13:13
Soweit ich sehe macht Dlss3-FG dann Sinn, wenn man bereits mehr als 60 fps hat, also flüssig ist. Sonst scheint das resume sehr schlecht. Sind da die 2er und die meisten 3er Karte nicht per se bereits zu langsam?
Mit 2070 dann mit 20fps z.B. im CP2077 sind die 75ms lag (1echte frames, + 2tes echtes Frame (1000ms/20fps=50ms) + Generietes Frame perfekt dazwischen (50ms/2=25ms) ) zusätzlich wirs einfach auch 40fps keine Freude machen.
Und hier sieht man meiner Meinung nach auch das Problem, wenn man bereits die Rohleistung haben muss (4090 hat sie) dann braucht man es ja nicht mehr. Auch die immer angeführten 240hz und höher Bildschirme, machen keinen Sinn mit FG. Mir ist nämlich keine Einsatz eines 240 (und derren gleichen) hz alias Highfps Gamer Monitore bekannt, bei dem es eben nicht auf Inputlag geht. Alle welche Hochfrequente Monitore benötigen, benötigen auch tiefes inputlag. Daher 100% lieber 120fps anstatt 240fps mit schlechterem Inputlag als 120fps.
robbitop
2022-10-13, 10:33:05
Die zusätzliche Latenz sollte nicht mehr als 1x Frame + 3 ms sein.
Frame n-1 liegt ja bereits in der Vergangenheit. Entsprechend muss man Frame n abwarten und die 3 ms zur Generierung sind ja kürzer als die Berechnung eines echten Zwischenframes insofern kann das verschachtelt werden.
Entsprechend sind es bei 60 fps ~+20 ms zusätzliche Latenz. Und das kommt auch gut mit den Messwerten hin.
Mal schauen ob sich das bestätigt. Wenn es wirklich so ist, ist der nächste Shitstorm bereits um die Ecke und meine Zweifel waren berechtigt.
Nvidia hat nie bestritten, dass das grundsätzlich geht. Man sagte, dass es nicht geil geht, weil die Frame Generation bei dieser Qualität ohne den Ada-OFA zu viele Millisekunden braucht und sich das Ergebnis daher schwammig anfühlt. Das ist eine logische Argumentationskette. Sicher steckt auch Marketing dahinter (Zeitexklusivität für RTX 40), aber dieser Fund wird eventuell Entscheidungen bezüglich eines "Lower Quality Resolve for Ampere" beschleunigen. ;)
___
Btw: DLSS 3 Frame Generation: Doppelte Arbeit für die CPU? Überraschende Ergebnisse! (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-4090-DLSS-3-Frame-Generation-fuer-RTX-CPU-Test-1405170/)
MfG
Raff
robbitop
2022-10-13, 11:01:27
Nun sofern es genauso gut geht wie auf Ada ist die Argumentation dahin.
Der Fund muss sich übrigens erstmal bestätigen. Bisher gab es noch keinen Nachweis dafür.
robbitop
2022-10-13, 11:05:48
Die Steigerung von über 90 Prozent ist kaum in Worte zu fassen und sehr beachtlich. Die große Überraschung ist jedoch, dass sich diese höheren Zahlen kaum bis gar nicht in der CPU-Auslastung bemerkbar machen
https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-4090-DLSS-3-Frame-Generation-fuer-RTX-CPU-Test-1405170/
Warum ist das denn eine Überraschung? Wenn man verstanden hat wie FG funktioniert sollte klar sein, dass genau das das Ergebnis ist. Die CPU weiß nichts von dem eingefügten Zwischenbild und die GPU erledigt das zum aller größten Teil über fixed function hardware.
Die Frametimes sind dynamisch, bitte klicken Sie eine CPU an, um sie ein- oder auszublenden. Vor allem fallen die Frametimes positiv auf, insbesondere beim Alder-Lake-Prozessor. Ein i7-8700K hingegen ist offenbar nicht leistungsfähig genug, um die Spitzen ausreichend schnell zu glätten. Trotz allem erfährt auch die Coffee-Lake-CPU eine spürbare Verbesserung. Es gibt insgesamt weniger Ausschläge und niedrigere Frametimes bedeuten ein flüssigeres Bild.
Die Zeitreihen sind schwer zu vergleichen, weil die Dichte der Frametimes bei FG quasi 2x so hoch ist. Ein Aufzerren der Zeitachse wäre ganz gut. Mich sieht es aber so aus als wenn die Bereiche außerhalb der großen Peaks unruhiger wirken - also die Standardabweichung der Frametimes etwas höher ist als ohne FG.
Interessant zu sehen wäre mal eine Stelle wo die Framerate stabil ist (also sagen wir ein still-image) und sich dann die Zeitachse so aufzuzoomen um zu schauen in welchem Interwall echte und generierte Frames kommen.
Also bei 120 fps bspw alle 8 ms ein Frame oder ist eine Kadenz zu sehen wie zB. 10 ms - 6 ms - 10 ms - 6 ms?
Platos
2022-10-13, 11:11:22
Nvidia hat nie bestritten, dass das grundsätzlich geht. Man sagte, dass es nicht geil geht, weil die Frame Generation bei dieser Qualität ohne den Ada-OFA zu viele Millisekunden braucht und sich das Ergebnis daher schwammig anfühlt. Das ist eine logische Argumentationskette. Sicher steckt auch Marketing dahinter (Zeitexklusivität für RTX 40), aber dieser Fund wird eventuell Entscheidungen bezüglich eines "Lower Quality Resolve for Ampere" beschleunigen. ;)
___
Btw: DLSS 3 Frame Generation: Doppelte Arbeit für die CPU? Überraschende Ergebnisse! (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-4090-DLSS-3-Frame-Generation-fuer-RTX-CPU-Test-1405170/)
MfG
Raff
Bezüglich Test: Warum gewinnt der 8700K von ohne zu mit Framegeneration "nur" 68% in den percentilen und der 12600k von ohne zu mit gleich 91% ?
Das ist schon ein Unterschied und somit wäre ja die CPU sehr wohl relevant? Oder verstehe ich da was falsch im Test? Oder ist das Messergebnis einfach nicht reproduzierbar und beim nächsten mal ist es umgekehrt :D ?
(avg FPS interessieren nicht)
Interessant zu sehen wäre mal eine Stelle wo die Framerate stabil ist (also sagen wir ein still-image) und sich dann die Zeitachse so aufzuzoomen um zu schauen in welchem Interwall echte und generierte Frames kommen.
Also bei 120 fps bspw alle 8 ms ein Frame oder ist eine Kadenz zu sehen wie zB. 10 ms - 6 ms - 10 ms - 6 ms?
Interessante Frage. Das würde ich auch gerne mal wissen. Das ist ja nämlich eigentlich das, was bei SLI Mikroruckler erzeugt hat. Also das selbe Prinzip. Nur vlt. deutlich ausgeprägter bei SLI (die Frames sind ungleichmässig schnell "fertig").
Aber ich gehe jetzt mal so naiverweise davon aus, dass es keinen signifikanten Unterschied macht.
robbitop
2022-10-13, 11:24:27
Gerade wenn es dann dynamisch wird, wird es dann auch schieriger mit Kadenzen. Ich finde da steckt noch mehr Potenzial drin um sich das anzuschauen. :)
Si|encer
2022-10-13, 12:00:30
Bezüglich des DLSS3 auf RTX 2070 bei reddit:
Ich denke das es Fake ist. Der User hat sich seit gestern nicht mehr gemeldet, und wenn man sowas "awesomeness" Postet, macht man das normalerweise auch mit irgendeinem Videobeweis oder whatever.
Hier gibt es interessante Videos, auch bei niedrigen FPS:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/35.html.
Bin ich zu blöd oder gibt es tatsächlich keine Möglichkeit dass Fullscreen anzuschauen?
robbitop
2022-10-13, 12:29:40
Der Player scheint stark rumzuspacken. Ich hab es gestern 10x versucht und 1-2x ging es.
w0mbat
2022-10-13, 12:38:45
HWUB zeigt relativ großen Problem auf mit Frame Generation
GkUAGMYg5Lw
Si|encer
2022-10-13, 12:46:42
Für mich bleibt die Frage: Wer soll das im laufenden Spielbetrieb sehen können ?
Da werden völlig absurde Tests gemacht, Geschwindigkeiten auf 50%/20%/3% gezeigt wo man sowas natürlich sieht.
Aber bei den Gewinn, den man macht regen sich darüber natürlich nur wieder die Hardcore Leute auf die mehr benchen als Spielen.
dildo4u
2022-10-13, 12:49:34
Scheint eine Zukunft zu haben so lange man Tonnen Grundleistung hat was natürlich Murks ist da alle anderen Karten so extrem beschnitten sind.
AMD muss Tonnen Druck ausüben dann bekommen wir vielleicht nästen Sommer bessere Refreches.
robbitop
2022-10-13, 12:50:52
Alex von DF hat es eigentlich sehr schön gesagt: er schaut es sich zunächst direkt am Monitor an. Da Youtube aber Kompression und nur 60 Hz hat, wird das was er mit eigenen Augen entdeckt - um es präsentieren können eben aufgezoomt und die Wiedergabegeschwindigkeit reduziert.
Es geht primär darum die Findings dem User auf Youtube zu veranschaulichen. Nicht jedoch basierend auf Zooms und 1/4 Wiedergabegeschwindigkeit issues zu finden.
Das ist das gleiche wie Zooms zur Beurteilung von imagereconstruction wie DLSS und FSR und XeSS.
Man muss also schon ein wenig differenzieren. ;)
Und es gibt Szenarios da findet man mit eigenen Augen keine issues und es gibt welche da findet man sie deutlich. Artefakte, Flimmern von Schatten, komplettes Bild als Artefakt bei Kamera-Cuts usw.
Troyan
2022-10-13, 12:51:36
Für mich bleibt die Frage: Wer soll das im laufenden Spielbetrieb sehen können ?
Da werden völlig absurde Tests gemacht, Geschwindigkeiten auf 50%/20%/3% gezeigt wo man sowas natürlich sieht.
Aber bei den Gewinn, den man macht regen sich darüber natürlich nur wieder die Hardcore Leute auf die mehr benchen als Spielen.
Man muss Klicks erzeugen. War bei DLSS genauso.
Der normale Spieler wird sich einfach anschauen, wie es funktioniert. Und wenn es gut ist, wird genutzt. Wenn nicht, dann eben nicht.
Ich fand das DigitalFoundry Video ziemlich gut. Sich mit dem Thema auseinander und zu evaluieren, wir Techniken bewertet werden, ist ein schwieriges Thema. Am Ende ist es wie bei DLSS: 10% Bildqualitätsverlust stehen doppelte Frames gegenüber. Spielt es da eine Rolle, das man 10% verliert? Für viele nicht.
Sardaukar.nsn
2022-10-13, 13:03:51
Ich sehe das auch als Kompromiss zwischen Bildqualität, Framerate und Latenz. Wird in der Praxis aber wahrscheinlich sehr gut funktionieren bzw. überzeugen.
robbitop
2022-10-13, 13:06:36
HWUB empfiehlt 120 fps als baseline (also nicht generated) für DLSS 3 da ihnen die Latenz sonst zu hoch ist.
https://www.youtube.com/watch?v=GkUAGMYg5Lw
Mit Gamepad als input device dürfte es deutlich unkritischer sein.
Troyan
2022-10-13, 13:08:44
Macht kein Sinn, da Systemlatenz unabhängig von FG ist. Demnach müssten die generell 120FPS als Baseline setzen...
aufkrawall
2022-10-13, 13:10:08
Wenn man bedenkt, dass HWUB bei den DLSS 2-Problemen noch eher wohlwollend war, klingt das ziemlich schlecht. Diese kompletten Schrott-Frames beim Wechseln der Kameraperspektive erinnern an Übertragungsausfälle von Satellitenfernsehen. Und sämtliche HUD-Elemente scheinen problematisch. Wenn ich jetzt ganz schwarzsehen wollte, würde ich sagen, Nvidia hat sich irgendeinen BS ausgedacht, um die Preise noch mächtig anziehen zu können. ;D
robbitop
2022-10-13, 13:11:58
Naja wenn einem 60 fps noch zu "sluggish" sind, macht das schon Sinn. 120 fps + FG (@240 fps) hat gegenüber 120 fps einen latenzimpact von 1x frame + 3 ms Berechnungszeit im Bestcase. Also +20 ms. Damit ist man vom Inputlag nur noch knapp besser als 60 fps ohne FG.
Dovregubben
2022-10-13, 13:15:30
Das sind doch alles fixbare Probleme, wenn da noch etwas Zeit reingeflossen ist. Es ist jetzt keine Lösung, wenn das Spiel ohne DLSS 3 bei 30 fps liegt, aber für die ganzen neuen High Refresh Rate Monitore scheint das ein Segen zu sein.
aufkrawall
2022-10-13, 13:17:10
Wer spielt denn auf HFR-Monitoren, um dann höheren Input Lag als bei niedrigeren fps zu haben?
blaidd
2022-10-13, 13:52:55
Mal schauen ob sich das bestätigt. Wenn es wirklich so ist, ist der nächste Shitstorm bereits um die Ecke und meine Zweifel waren berechtigt.
Ich hab mal ein bisschen rumgespielt (RTX 3090), einfach per Ini/Config aktivieren kann man es jedenfalls nicht (auch nicht mit Schreibschutz) – man sieht zwar den Schalter für die Framegeneration, aber der springt immer auf die Off-Position.
Kann natürlich theoretisch sein, dass der User da irgendwie einen Fehler ausgelöst hat, dass das völlig unmöglich ist, will ich nicht ausschließen (technisch gesehen ist die nötige Hardware mit der Optical Flow Hardware Accelleration ja prinzipiell ab Turing vorhanden...)
Aber momentan halte ich das eher für ein Gerücht – sonst hätten wir wahrscheinlich bereits von anderen Fällen gehört...
HWUB zeigt relativ großen Problem auf mit Frame Generation
https://youtu.be/GkUAGMYg5Lw
Ich bin auch darüber gestolpert und bestätigt 100% meiner Befürchtungen.
Troyan
2022-10-13, 14:28:17
Naja wenn einem 60 fps noch zu "sluggish" sind, macht das schon Sinn. 120 fps + FG (@240 fps) hat gegenüber 120 fps einen latenzimpact von 1x frame + 3 ms Berechnungszeit im Bestcase. Also +20 ms. Damit ist man vom Inputlag nur noch knapp besser als 60 fps ohne FG.
Und wie hast du die letzten Jahre so gespielt?
Hier mal von Igorslab: https://www.igorslab.de/nvidia-geforce-rtx-4090-fe-im-dxr-dlss-reflex-und-frame-generation-test/11/
Musst ja alles unglaublich unspielbar gewesen sein. :eek:
Spring
2022-10-13, 14:45:52
Wenn man bedenkt, dass HWUB bei den DLSS 2-Problemen noch eher wohlwollend war, klingt das ziemlich schlecht. Diese kompletten Schrott-Frames beim Wechseln der Kameraperspektive erinnern an Übertragungsausfälle von Satellitenfernsehen. Und sämtliche HUD-Elemente scheinen problematisch. Wenn ich jetzt ganz schwarzsehen wollte, würde ich sagen, Nvidia hat sich irgendeinen BS ausgedacht, um die Preise noch mächtig anziehen zu können. ;D
Hab das Video auch geguckt und erstaunt wie schlecht DLSS 3 ist. DLSS 2 ist doch schon gut als nv Nutzer, DLSS 3 absolut kein must have, erst recht nicht mit kleineren Karten, wie HWUB ausführt
Ex3cut3r
2022-10-13, 14:59:09
Ich hätte mir eher gewünscht, dass DLSS3 nochmal an DLSS2 weiterarbeitet. Nach Frame Interpolation habe ich nicht gefragt. Ich sehe keinen Sinn dafür.
Erst ab 30 FPS in 5 Jahren. Aber dann haben 4090 Käufer sicherlich die 9090 im PC stecken. Und bei 30 FPS sind die Artefakte und der Input Lag eine Katastrophe, nochmal mehr als bei 60FPS oder von 120FPS so wie HWU das empfehlt.
Sieht, stand jetzt, nach einer ziemlich unnötigen Tech aus, fast schon so als Nvidia irgendwas Neues gesucht hat, aber ziemlich lange nichts gefunden hat, bis der Praktikant der Smooth Video Project für Filme nutzt, auf die Idee kam und Jensen begeistert war, sowas in der Art. ^^
robbitop
2022-10-13, 15:02:04
Und wie hast du die letzten Jahre so gespielt?
Hier mal von Igorslab: https://www.igorslab.de/nvidia-geforce-rtx-4090-fe-im-dxr-dlss-reflex-und-frame-generation-test/11/
Musst ja alles unglaublich unspielbar gewesen sein. :eek:
Es geht nicht um mich sondern um HWUB.
Aber ja 60 fps sind mir auch etwas knapp. Ich optimiere die Settings für ~80-90 fps. Und natürlich die üblichen Latenzoptimierungen im Controlplanel. Dann ist es okay.
Wenn deine eigenen Ansprüche niedrig sind, ist es ja schön für dich. Schlechte Wahrnehmungsfähigkeiten müssen ja nicht auf alle zutreffen. ;)
Badesalz
2022-10-13, 15:15:12
Für mich bleibt die Frage: Wer soll das im laufenden Spielbetrieb sehen können ?Das ist doch nur für Leute verlangsamt dargestellt die allgemein bisschen langsamer sind... Plus die Erklärung von robbitop (die eigentlich so Checkern wie Troyan auch auffallen müsste, aber der klärt halt ausschliesslich nur das auf was seinen Biasometer nicht beeinflusst, der Edelmann der...)
Das kann auch so wohl kaum DIE Idee sein nach all den Errungenschaften nach Voodoo2, die dazu kamen, daß wir jetzt die Renderquali wieder schrittweise solange zurückdrehen bis es erst der letzte Depp beim Spielen merkt. Und dann einen kleinen Schritt wieder nach vorn und dann ist das gut?? Was ist das denn?
Aber bei den Gewinn, den man macht regen sich darüber natürlich nur wieder die Hardcore Leute auf die mehr benchen als Spielen.Hatten wir schon. Sowas ist noch nichtmal das primäre Problem. der8auer hat bei seinem Test wohl eher aus versehen klare allgemeine Qualitätsprobleme gezeigt. Ganz ohne Slowmo. Das geht übrigens nicht weg, nur weil man sich kurz bückt...
Das ist ein Feature für Leute die an sich genug Leistung haben (1%low 60fps) aber highfreq. FPS möchten/brauchen und dafür quali regressions akzeptieren.
Freestaler
2022-10-13, 15:48:56
Robbitop, 1 Frame plus 3ms wurde stuttring bedeuten bzw. erklären warum man unter 120fps nichts bringt. Sturr plus 3ms gibt bei tiefen frames z.b. 50fps klar solche dinge wie, 17ms,3ms,17ms,3ms usw.. Aber hey ab 120fps ist dann für auge flüssig. Evtl muss ich mir das wirklich live zuerst geben, aber aktuell kann ich mir nicht vorstellen, das 240fps mit 1frame & 3ms sich besser anfühlt als 120fps direkt. 120fps fühlen sich für mich meistens flüssig an und echte 240fps sind es nicht! Den gerade die schnellen shutter hat 240fps durch FG gegen 120fps keine, also genau wirklich keinen Vorteil.
Troyan
2022-10-13, 15:51:40
Es geht nicht um mich sondern um HWUB.
Aber ja 60 fps sind mir auch etwas knapp. Ich optimiere die Settings für ~80-90 fps. Und natürlich die üblichen Latenzoptimierungen im Controlplanel. Dann ist es okay.
Wenn deine eigenen Ansprüche niedrig sind, ist es ja schön für dich. Schlechte Wahrnehmungsfähigkeiten müssen ja nicht auf alle zutreffen. ;)
Ansprüche? Hast du einen 4K 144Hz Monitor? :cool:
Das Problem ist, dass die Ansprüche plötzlich bei DLSS 3 so hoch sind. Vorher waren aber 40ms vollkommen okay. Oder hat HUB AMD Karten abgelehnt, weil die keine nVidia-Reflex Alternative haben?
Nur mal so: Wenn 10ms für dich schon tödlich sind, hast du nie Online-Games gezockt, oder?
Badesalz
2022-10-13, 15:55:48
Wieviele Leute zocken eigentlich frametime-relevante Onlinespiele auf 4k? Oder besser, sehnen sich dabei nach 4k?
Tesseract
2022-10-13, 16:02:16
die artefakte sieht man (oder zumindest ich) selbst bei hohen frameraten garantiert immer, dabei sollte man aber bedenken dass vieles davon behoben werden kann ohne die API (und damit kompatibilität) verändern zu müssen. gerade etwas wie cuts/kamerasprünge kann man dem NN sicher antrainieren zu erkennen und entsprechen zu behandeln.
außerdem tauscht man nicht einfach nur interpolierte frames gegen normale sondern kann die "frei gewordene" performance anders nuzten. hat z.B. irgendjemand schon DLSS3 in kombination mit DLDSR oder ingame super sampling getestet? wäre interessant zu sehen wie das NN klar kommt wenn intern wesentlich mehr renderinformation (bzw. motionvektorinformation) zur verfügung steht. das verhältnis ausgangsinformation zu per NN erzeugter information ist in den gezeigten szenarien ja schon sehr extrem.
momentan bin ich noch eher skeptisch aber ich sehe da viel potenzial.
Badesalz
2022-10-13, 16:18:40
@Tesseract
Wenn ich trotzdem darüber nachdenke, daß NV in den Tests die DLSS3.0 FPS als primäre Leistungswerte sehen wollte... Unglaublich :mad:
Das kann man bestimmt noch verbessern, mit der Frage ob es dann doch ausreicht um gut zu sein... Was aber wenn das z.B. 30% der ursprünglicher Zusatzleistung kostet? :tongue: Das wäre mal was, was man sich anhören müsste :wink:
Ich denke also viel wird da nicht passieren.
blaidd
2022-10-13, 16:32:07
Im Flight Sim sieht man ganz gut diese "rissartigen" Artefakte. Auch bei ~100 Fps (bin da über Neapel und voll im CPU-Limit, auch mit FG, Latenz merkt man sogar am Controller, aber die ist im Flight Sim wohl eher Nebensache, da macht man eh eher langsame, behutsame Eingaben - und wahrscheinlich am Controller oder Joystick).
Die höhere Performance ist allerdings wirklich nett... sieht schon smoother aus (aber eben auch unruhiger). Das UI geht auch kaputt (wie in Cyberpunk), wenn es da Bewegung gibt...
Das ist DLSS 3.0 Quality @ 4K (Ausschnitt)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80883&stc=1&d=1665671480
Platos
2022-10-13, 16:42:58
Also die Artefakte/Fehler bei DLSS 3.0 erinnern mich ein wenig an DLSS 1.0
Es funktionier grauenhaft an manchen Punkten, an anderen aber ganz gut. Ich denke, in 2 Jahren wird das eine gute Sache sein.
Natürlich ist DLSS 3.0 somit eig. kein Argument für jetzt, noch viel weniger, weil die Preise lächerlich sind.
Aus meiner Sicht ist eine Framegeneration gerade bei 30-60 FPS (nativ/ mit DLSS 2.0) interessant und nicht bei 120FPS aufwärts. Das betrifft dann ja nur noch Leute mit Monitoren jenseits von 144Hz und die wollen bestimmt nicht den schlechteren inputlag. Die stellen vorher die Details runter etc.
Es ist hald primär ein Ding um ein flüssigeres Bild zu haben und potentiell mehr Bewegtschärfe. Allerdings sieht man ja bei den Analysen, dass gerade in Bewegung die Bilder eig. wertlos sind und somit gerade der Punkt mit Bewegtschärfe komplett wegfällt. Übrig bleibt nur noch die Smoothness und Verlust von Bildqualität.
Da muss noch ordentlich dran gearbeitet werden. Aber man muss auch sagen, dass die Interpolation am Ende trotzdem noch x-Fach besser ist, wie bei Software am PC.
Tesseract
2022-10-13, 16:46:56
Das kann man bestimmt noch verbessern, mit der Frage ob es dann doch ausreicht um gut zu sein... Was aber wenn das z.B. 30% der ursprünglicher Zusatzleistung kostet? :tongue: Das wäre mal was, was man sich anhören müsste :wink:
wat? :freak:
ein beispiel: spiel läuft mit ~120fps auf einem 144Hz schirm, interpolation verdoppelt auf ~240fps, diese freigewordene leistung kann man jetzt reinvestieren, z.B. in internes supersampling bis man wieder auf ~120fps unten ist. klarerweise hat man so schlechtere latenz aber nur von der bildqualität her hat diese variante das potenzial deutlich besser zu sein, ähnlich wie DLDSR+DLSS wesentlich besser als reines native ist.
robbitop
2022-10-13, 17:40:21
Robbitop, 1 Frame plus 3ms wurde stuttring bedeuten bzw. erklären warum man unter 120fps nichts bringt. Sturr plus 3ms gibt bei tiefen frames z.b. 50fps klar solche dinge wie, 17ms,3ms,17ms,3ms usw.. Aber hey ab 120fps ist dann für auge flüssig. Evtl muss ich mir das wirklich live zuerst geben, aber aktuell kann ich mir nicht vorstellen, das 240fps mit 1frame & 3ms sich besser anfühlt als 120fps direkt. 120fps fühlen sich für mich meistens flüssig an und echte 240fps sind es nicht! Den gerade die schnellen shutter hat 240fps durch FG gegen 120fps keine, also genau wirklich keinen Vorteil.
Nein der generated frame wird sicherlich zeitlich mittig zischen n und n-1 verschoben werden. Dafür werden n und n-1 auch nur halb so lange dargestellt.
Ansprüche? Hast du einen 4K 144Hz Monitor? :cool:
Das Problem ist, dass die Ansprüche plötzlich bei DLSS 3 so hoch sind. Vorher waren aber 40ms vollkommen okay. Oder hat HUB AMD Karten abgelehnt, weil die keine nVidia-Reflex Alternative haben?
Nur mal so: Wenn 10ms für dich schon tödlich sind, hast du nie Online-Games gezockt, oder?
Der Anspruch bezieht sich in dieser diskussion primär auf die temporale Komponente. Inputlag und Bewegtschärfe. Da spielt die räumliche Auflösung erstmal nur eine Nebenrolle.
Nochmal: mir sind 60 fps zu langsam was Bewegschärfe und Flüssigkeitseindruck ergibt. Entsprechend wäre mir für den Inputlag (zumindest was Maus und Tastatur angeht) 60 fps als baseline für FG zu wenig, weil die resultierende Latenz ja sogar noch schlechter als 60 fps wäre.
Die Endlatenz die ich brauche muss halt da liegen, wo man mit 80-90 fps ohne Framegeneration liegen würde. Da Framegeneration etwas Inputlag kostet macht die Empfehlung von HWUB für mich persönlich Sinn, dass man mit der Baseline eher darüber liegen sollte.
Mit Gamepad hingegen würde wahrscheinlich eine Baseline von 40-50 fps genügen.
Und mein Anspruch ist nicht "plötzlich" so hoch sondern seit ich 2014 den ersten 144 Hz Monitor gekauft habe. ;)
Wieviele Leute zocken eigentlich frametime-relevante Onlinespiele auf 4k? Oder besser, sehnen sich dabei nach 4k?
Ich spiele übrigens fast nie online. Aber wenn ich irgendwo drauf zielen und schießen soll, mag ich einfach eine gewisse Bewegtschärfe und Inputlatenz. Man ist halt seit der Einführung von 144 Hz Monitoren verwöhnt. Diese "Fluppdizität" ist einfach herrlich.
robbitop
2022-10-13, 17:50:22
Das UI geht auch kaputt (wie in Cyberpunk), wenn es da Bewegung gibt...
Das hab ich schon mehrfach gehört und gesehen (youtube tests zu DLSS 3) und das macht mich stutzig. Ich hätte angenommen, dass FG von einem Bild vor HUD und Post Processing gemacht wird. Ähnlich wie DLSS das für die Frame Reconstruction tut.
Dass HUD usw kaputt ist und z.T Schatten flackern und dass es nur 3 ms dauert lässt in mir die Vermutung wachsen, dass das fertige Frame (mit PostFX und HUD) einfach durch die Optical Flow Acceleration Unit gejagt wird und das wars.
Gouvernator
2022-10-13, 18:23:17
DLSS3 ist für Gaming-Laptop Bereich die Lösung. Alle Laptops haben mindestens 120Hz und schwache CPUs.
Milchkanne
2022-10-13, 21:33:56
DLSS3 scheint mir eine gute Möglichkeit, in Zwischensequenzen mehr Details zu bieten. Die Latenz ist da völlig hupe, schnelle Kameraschwenks kann man vermeiden und auch sonst alles, was Probleme macht. In DLSS4 könnte man da sogar >1 Zwischenframe berechnen lassen, dann evtl. mit etwas mehr Aufwand.
Geldmann3
2022-10-13, 21:56:05
DLSS3 scheint mir eine gute Möglichkeit, in Zwischensequenzen mehr Details zu bieten. Die Latenz ist da völlig hupe, schnelle Kameraschwenks kann man vermeiden und auch sonst alles, was Probleme macht. In DLSS4 könnte man da sogar >1 Zwischenframe berechnen lassen, dann evtl. mit etwas mehr Aufwand.
Uhh, das halte ich für eine ziemlich innovative Idee!
Es gibt in meinen Augen auch noch viele Kinderkrankheiten von DLSS 3 auszubessern. Die Overlays sollten im besten Fall erst nach der Zwischenbildberechnung aufgesetzt werden. Und Kamerawechsel sollten dem SDK immer mitgeteilt werden, was noch nicht der Fall zu sein scheint. Ich muss zugeben, in 99% keinen optischen Unterschied zum realen Deal zu erkennen, doch 1% können manchmal eben bereits die Immersion kosten.
Werde es wohl vor allem erstmal für Downsampling verwenden. Erstmals bin ich in der Lage, nahezu perfekte Bildqualität mit einer akzeptablen Bildrate zu verbinden. Mit der RTX 4090 oft sogar ohne Frame Generation.
Ex3cut3r
2022-10-13, 23:33:23
Grade bei Zwischen Sequenzen gibt es durch diese ständigen Bild Cuts (abrupten wechseln der Szene/Bildinhalt), und genau das ist momentan bei DLSS 3 auch sehr kritisch. Hat Alex beim DF Video alles sehr gut durchleuchtet. Man müsste eine genauen Plan für die KI aufstellen, sodass Sie quasi in die Zukunft blicken kann, und schonmal im voraus weiß, was gleich ins Bild kommt. Momentan sieht eher so aus, als alles einfach durch den Optical Flow Generator gejagt wird, das ist halt nicht smart genug.
DrFreaK666
2022-10-13, 23:37:55
Kann man beim Bildwechsel nicht einfach DLSS kurz deaktivieren? Oder zumindest FG
unl34shed
2022-10-13, 23:42:24
Man müsste eine genauen Plan für die KI aufstellen, sodass Sie quasi in die Zukunft blicken kann, und schonmal im voraus weiß, was gleich ins Bild kommt.
DLSS3 interpoliert, das heißt man weiß was als nächste kommt, daher auch die hohe Latenz... Das NN ist einfach nicht gut genug oder es fehlen entsprechende Flags.
Slipknot79
2022-10-14, 01:52:39
___
Btw: DLSS 3 Frame Generation: Doppelte Arbeit für die CPU? Überraschende Ergebnisse! (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-4090-DLSS-3-Frame-Generation-fuer-RTX-CPU-Test-1405170/)
MfG
Raff
Warum mit derart unterschiedlichen RAM Modulen getestet?
BlacKi
2022-10-14, 01:57:52
Das ist DLSS 3.0 Quality @ 4K (Ausschnitt)
welche dlss dll version ist das?
Gibts dafür ne Quelle? IIRC hat NV sich nur geäußert, dass der bei Ada "besser" geworden ist aber nicht in wie fern. Letztenendes muss das Ding nur ein Zwischenbild berechnen können und das konnte es schon zu Turing/Ampere Zeiten.
Der optical flow generator berechnet kein Zwischenbild, dieser korrigiert nur fehlerhafte Motionvectors von der Engine.
Das Zwischenbild wird erst danach, mit diesen Informationen berechnet.
Und es ist ein riesiger Unterschied etwas offline zu berechnen, oder das schnell genug in Realtime.
Mal schauen ob sich das bestätigt. Wenn es wirklich so ist, ist der nächste Shitstorm bereits um die Ecke und meine Zweifel waren berechtigt.
Er schreibt ja genauso das es nicht ordentlich funktioniert, und die Symptome klingen ganz nach zu langsamer Hardware.
Das hab ich schon mehrfach gehört und gesehen (youtube tests zu DLSS 3) und das macht mich stutzig. Ich hätte angenommen, dass FG von einem Bild vor HUD und Post Processing gemacht wird. Ähnlich wie DLSS das für die Frame Reconstruction tut.
Wird vermutlich alles kommen.
All das erfordert aber Input von der Engine. Ich denke mal Nvidia wird als erstes mal um eine möglichst einfache Implementierung in bestehende DLSS Spiele wichtig gewesen sein.
Wenn man einfach an den fertigen Frames arbeitet, sollte das sehr einfach zu integrieren sein, eigentlich nicht viel mehr als ein ON/OFF Schalter.
Für HUD, Cuts etc. müsste die Engine entsprechende Signale an das SDK schicken, und das erfordert nun mal mehr Entwicklungsarbeit.
Dass HUD usw kaputt ist und z.T Schatten flackern und dass es nur 3 ms dauert lässt in mir die Vermutung wachsen, dass das fertige Frame (mit PostFX und HUD) einfach durch die Optical Flow Acceleration Unit gejagt wird und das wars.
So ist es.
___
Btw: DLSS 3 Frame Generation: Doppelte Arbeit für die CPU? Überraschende Ergebnisse! (https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Specials/Nvidia-4090-DLSS-3-Frame-Generation-fuer-RTX-CPU-Test-1405170/)
MfG
Raff
Hat diesen Artikel der Praktikant im ersten Jahr verfasst?
Im Gegensatz zu den ansonsten hochwertigen PCGH Artikeln hat dieser ja nicht mal Bild-Niveau.
robbitop
2022-10-14, 09:03:21
DLSS3 interpoliert, das heißt man weiß was als nächste kommt, daher auch die hohe Latenz... Das NN ist einfach nicht gut genug oder es fehlen entsprechende Flags.
Eine Erkennung würde reichen. Sind zwei aufeinanderfolgende Bilder einfach zu unterschiedlich: erzeuge kein generiertes Frame. Das sollte sich machen lassen.
Hat diesen Artikel der Praktikant im ersten Jahr verfasst?
Im Gegensatz zu den ansonsten hochwertigen PCGH Artikeln hat dieser ja nicht mal Bild-Niveau.
Ja ich fand den Artikel auch oberflächlich und verstehe auch nicht, was an den Ergebnissen "überraschend" sein soll, nachdem der grundsätzliche Mechanismus von DLSS 3 FG erklärt und verstanden wurde.
Das Auto fährt - ganz ohne Zugpferde - überraschendes Ergebnis... X-D
aufkrawall
2022-10-14, 09:14:28
Eine Erkennung würde reichen. Sind zwei aufeinanderfolgende Bilder einfach zu unterschiedlich: erzeuge kein generiertes Frame. Das sollte sich machen lassen.
Dann muss aber ein echtes Frame mehr gerendert werden, wodurch logischerweise zwei echte Frames die doppelte Frame Time haben. Gibt also stattdessen Ruckler.
Freestaler
2022-10-14, 09:16:33
@robbitop, die +3ms kommen doch von Dir für die Berechnung des Lag. Du sagt 1 Realframe ms + 3ms = zusätzliches inputlag. Meine Rechnung ist Realframe ms + Realframe/2 ms. Für was stehen dann die 3ms? Rechenzeit FG?
robbitop
2022-10-14, 09:27:02
Dann muss aber ein echtes Frame mehr gerendert werden, wodurch logischerweise zwei echte Frames die doppelte Frame Time haben. Gibt also stattdessen Ruckler.
Ein Ruckler wird sich nicht vermeiden lassen - aber das ist wahrscheinlich weniger schlimm, als ein Garbage Bild einzufügen.
Dass 1x 8 ms Frame fehlt und zwar quasi einmalig wird wahrscheinlich von der Wahrnehmung nicht so krass in's Gewicht fallen. Vor allem wenn genau da ein Kamera-cut ist.
robbitop
2022-10-14, 09:27:53
@robbitop, die +3ms kommen doch von Dir für die Berechnung des Lag. Du sagt 1 Realframe ms + 3ms = zusätzliches inputlag. Meine Rechnung ist Realframe ms + Realframe/2 ms. Für was stehen dann die 3ms? Rechenzeit FG?
Die 3 ms sind die Dauer für die Generierung des neuen Frames laut Nvidia.
unl34shed
2022-10-14, 09:32:28
Eine Erkennung würde reichen. Sind zwei aufeinanderfolgende Bilder einfach zu unterschiedlich: erzeuge kein generiertes Frame. Das sollte sich machen lassen.
Das ist wahrscheinlich schwer richtig umzusetzen, weil du dann gerade bei schnellem Bewegungen Ruckler bekommen kannst/wirst. Also gerade da wo FG ja helfen soll.
Vermutlich reicht sogar schon wenn sich das lighting ändert, zB. Blitze, Licht das eingeschaltet wird, eine Disko scene, Mündungsfeuer... Und der Algorithmus könnte denken er muss FG deaktivieren.
robbitop
2022-10-14, 09:41:24
Das ist wahrscheinlich schwer richtig umzusetzen, weil du dann gerade bei schnellem Bewegungen Ruckler bekommen kannst/wirst. Also gerade da wo FG ja helfen soll.
Das sehe ich anders. Schnelle Bewegungen würden ja noch kein komplett anderes Bild ergeben. Nur etwas wie ein Cameracut mit komplett anderem Content täte das. Und da es eh einen Cameracut gibt, werden dann zwei aufeinanderfolgende Frames vom Gehirn eh nicht alszusammehängende Bewegung erkannt. Und wir reden hier von quasi einmalig ausgelassenen 8 ms langen generierten Frames die in dem Fall kompletten Quatsch anzeigen lassen.
Ich gehe jede Wette ein, dass das unauffälliger wäre als die jetzige Implementierung.
Vermutlich reicht sogar schon wenn sich das lighting ändert, zB. Blitze, Licht das eingeschaltet wird, eine Disko scene, Mündungsfeuer... Und der Algorithmus könnte denken er muss FG deaktivieren.
Erstens denkt ein Algoritmus nicht und zweitens traust du modernen Bildprocessings zu wenig zu. Sowas wie FG oder moderne Image Reconstruction wäre gar nicht möglich, wenn wir solche Kartoffelalgoritmen hätten, die sich so leicht verwirren ließen. ;)
Glaub mir das sollte relativ leicht machbar sein, komplett unterschiedlichen Content im Sinne eines Cameracuts von einfach nur unterschiedlichen Frames durch Bewegung oder dynamischen Content (Explosion, Mündungsfeuer usw) zu unterscheiden.
Wir haben 2022 und nicht mehr 1995. ;)
aufkrawall
2022-10-14, 09:44:01
Ein Ruckler wird sich nicht vermeiden lassen - aber das ist wahrscheinlich weniger schlimm, als ein Garbage Bild einzufügen.
Dass 1x 8 ms Frame fehlt und zwar quasi einmalig wird wahrscheinlich von der Wahrnehmung nicht so krass in's Gewicht fallen. Vor allem wenn genau da ein Kamera-cut ist.
Tja, das kann aber ständig bei plötzlichen Bildänderungen passieren. Das ist imho alles viel zu kompromissbehaftet. Bis das NN ganze Bilder vorhersagen kann, die nicht völlig fehlerhaft sind, wird mich diese Technik vermutlich komplett nicht interessieren.
robbitop
2022-10-14, 10:04:48
Tja, das kann aber ständig bei plötzlichen Bildänderungen passieren. Das ist imho alles viel zu kompromissbehaftet. Bis das NN ganze Bilder vorhersagen kann, die nicht völlig fehlerhaft sind, wird mich diese Technik vermutlich komplett nicht interessieren.
Ich denke das wird sich entweder so parametrieren lassen, dass es wirklich nur bei Kamera Cuts passiert (was in Spielen ja nun nicht ständig der Fall ist - ist eher die Ausnahme) oder man muss ein NN entsprechend trainieren. Das zuverlässig zu erkennen sollte heute kein Problem sein. Und es wird weniger Stören als ein eingefügtes Müllbild.
Ganz kompromisslos wird so eine Zwischenbildberechnung IMO nie sein. Aber gleichzeitig sollte da noch ordentlich Luft nach oben für Verbesserungen sein. Ist ja gerade mal die erste Iteration.
Ich finde es als Werkzeug im Werkzeuggürtel, dass man abhängig vom Spiel wählen kann eigentlich gut. In Spielen wo es weniger Probleme gibt und man ggf. mehr Frames braucht: warum nicht? Grundsätzlich immer nutzen? Eher nicht - ist halt eine Option. :)
basix
2022-10-14, 10:04:56
Szenenwechsel können von der Engine angezeigt werden. Sonst würde es bei DLSS2 und FSR2 ebenfalls zu Problemen kommen, was es nicht tut (entsprechende History Buffer werden geleert und nach Szenenwechseln neu aufgebaut, siehe DF Review von Death Stranding mit DLSS). Ist einfach noch eine Unzulänglichkeit in der Implementation. Mir unverständlich, dass das Nvidia diesen einfach vermeidbaren Fehler drin hat, anhand der DLSS2 Flags für History-Clearance hätten sie die Information nämlich ;)
Zwischensequenzen aufzuhübschen wäre wirklich eine schöne Idee. Die ganzen 30fps Cinematics stören.
Die 3 ms sind die Dauer für die Generierung des neuen Frames laut Nvidia.
Leider hilft hier eine zukünftige zusätzliche Beschleunigung nicht wirklich, um die Latenz wesentlich zu drücken. Bei 100fps (50fps gerendert = 20ms pro Frame) sind es mindestens 20+3ms Delay durch DLSS3. Ist ein inhärentes Problem von der Technik. Wo man hier ansetzen müsste: Der Engine selber. Oftmals entsteht durch die Engine bereits 1-2 Frames Delay, da irgendwelches Zeugs von mehreren Frames gleichzeitig berechnet wird. Das ist zwar sinnvoll, da damit die Auslastung der GPU steigen kann. Führt aber zu entsprechendem Delay, da die Nutzereingaben halt erst später in die Berechnungen miteibezogen werden können. Ob eine solche Latenzreduktion für moderene Engines realistisch ist, bezweifle ich aber irgendwie.
Die 3 ms sind die Dauer für die Generierung des neuen Frames laut Nvidia.
Die 3ms sind für die Latenz völlig irrelevant, so lange Frametime/2 > 3ms sind (Frametime der echten Frames).
Umgekehrt heißt das auch, die maximale Framerate in der Framegeneration noch sinnvoll ist ist ca. 150 echte FPS bzw. 300 interpolierte FPS.
Allzu schnell ist das also nicht mal, die Bildprozessoren in TVs schaffen da schon deutlich mehr, verwenden aber wohl wesentlich einfachere Algorithmen und haben weitestgehend nicht mit dem Latenzproblem zu kämpfen.
robbitop
2022-10-14, 10:18:27
Szenenwechsel können von der Engine angezeigt werden. Sonst würde es bei DLSS2 und FSR2 ebenfalls zu Problemen kommen, was es nicht tut (entsprechende History Buffer werden geleert und nach Szenenwechseln neu aufgebaut, siehe DF Review von Death Stranding mit DLSS). Ist einfach noch eine Unzulänglichkeit in der Implementation. Mir unverständlich, dass das Nvidia diesen einfach vermeidbaren Fehler drin hat, anhand der DLSS2 Flags für History-Clearance hätten sie die Information nämlich ;)
Das wäre der Idealfall. Aber ich bin mir sicher, dass sich das auch generisch erkennen lassen würde. DLSS hat gezeigt, dass Verfahren robust gegen nicht ideale Implementierungen sein müssen. Entsprechend wurde über die DLL von Nvidia einiges gerade gebogen. Wir leben leider nicht in einer idealen Welt was das angeht.
Leider hilft hier eine zukünftige zusätzliche Beschleunigung nicht wirklich, um die Latenz wesentlich zu drücken. Bei 100fps (50fps gerendert = 20ms pro Frame) sind es mindestens 20+3ms Delay durch DLSS3. Ist ein inhärentes Problem von der Technik. Wo man hier ansetzen müsste: Der Engine selber. Oftmals entsteht durch die Engine bereits 1-2 Frames Delay, da irgendwelches Zeugs von mehreren Frames gleichzeitig berechnet wird. Das ist zwar sinnvoll, da damit die Auslastung der GPU steigen kann. Führt aber zu entsprechendem Delay, da die Nutzereingaben halt erst später in die Berechnungen miteibezogen werden können. Ob eine solche Latenzreduktion für moderene Engines realistisch ist, bezweifle ich aber irgendwie.
Was du beschreibst wird doch von Reflex (was ein inherenter Teil von DLSS 3 ist) bereits optimiert.
Aber im Endeffekt musst du einen Frame und die 3 ms für den Generated Frame abwarten + ein bisschen Zeit zum Vermitteln des Generated Frames (wobei das wahrscheinlich minimal ist, da einfach Frame n und n-1 kürzer angezeigt werden können).
Dieser Nachteil wird, solange es eine Zwischenbildberechnung ist, nicht weggehen. Ich denke in Bezug auf Latenz ist das "as good as it gets".
Je nach Anwendungszweck ist das gar nicht so kritisch. Beispielsweise wenn mit Gamepad gespielt wird: ein Großteil der Spieler (Konsolen) scheint völlig Okay mit der Latenz zu sein, die 30fps und ein normaler TV ohne Gamemode liefern. Mit Gamepad merkt man die Latenz auch deutlich weniger als mit Maus und Tastatur. (man habe vor seinem geistigen Auge eine zukünftige low cost AD107 oder ggf die Nintendo Switch 2 Hardware...)
Mit Reflex und einem vernünftigen Monitor liegt man sicherlich trotz DLSS3 FG immer noch unter dem obigen Szenario.
Mit M+T sollten es wirklich mindestens 60@120 fps sein. Oder mehr.
wie gesagt: ein weiteres Tool im Werkzeugkoffer, was mal und mal nicht sinnvoll sein kann. Je mehr Tools wir haben, desto besser können wir jedes Spiel für uns konfigurieren.
Freestaler
2022-10-14, 10:19:38
@Basix, bei 100fps dlss3fg sind es eben 30ms und nicht 23ms sonst gibt SLI stuttering. Die 3ms sind nur relevant, falls A. Die FG Frames nicht einmittet (dann gibts wie bei sli stuttering bei unter ca 120fps (6ms)) B. Über 333 fps (mehr geht nicht mit dlss3.
robbitop
2022-10-14, 10:20:11
Die 3ms sind für die Latenz völlig irrelevant, so lange Frametime/2 > 3ms sind (Frametime der echten Frames).
Umgekehrt heißt das auch, die maximale Framerate in der Framegeneration noch sinnvoll ist ist ca. 150 echte FPS bzw. 300 interpolierte FPS.
Allzu schnell ist das also nicht mal, die Bildprozessoren in TVs schaffen da schon deutlich mehr, verwenden aber wohl wesentlich einfachere Algorithmen und haben weitestgehend nicht mit dem Latenzproblem zu kämpfen.
Naja es sind in Summe immer grob um die +20-30 ms laut Tests. Das inkludiert die 3 ms und den Frame n, die beide abgewartet werden müssen.
Die TVs fügen leider wesentlich mehr Inputlatenz hinzu wenn die Bildrate extrapoliert wird. Sicherlich gute +80 ms.
Tja, das kann aber ständig bei plötzlichen Bildänderungen passieren. Das ist imho alles viel zu kompromissbehaftet. Bis das NN ganze Bilder vorhersagen kann, die nicht völlig fehlerhaft sind, wird mich diese Technik vermutlich komplett nicht interessieren.
Ein "Ruckler" ist bei einem Szenenwechsel immer vorhanden.
Wenn von einem Bild auf das nächste auf eine komplett andere Szene umgeschaltet wird, kann unser Auge bzw. Gehirn daraus keine flüssige Bewegung machen, das ist gänzlich unmöglich.
Ich glaube kaum, dass es hier überhaupt einen unterschied macht ob vor oder nach dem Cut ein Frame fehlt.
Man müsste das allerdings tatsächlich mal live sehen um es beurteilen zu können.
Ein einzelnes Frame ist ja immer nur verdammt kurz sichtbar, ich glaube kaum dass selbst diese vereinzelten komplett kaputten Frames in Echtgeschwindigkeit überhaupt stören, das darauffolgende Frame passt ja wieder.
In Slomo oder gar ein Standbild der kaputten Frames sieht natürlich auf den ersten Blick unbrauchbar aus aber in Echtzeit wird man nicht viel davon merken.
Ich glaube eher, dass sich immer wiederholende kleinere Fehler, wie z.B. im DF Video wenn er mit Spiderman die Wand hochrennt viel eher real wahrnehmbar sind. Wir sind verdammt gut darin solch falsche Muster zu erkennen, aber verdammt schlecht darin Fehler die nur wenige ms dauern zu erkennen.
robbitop
2022-10-14, 10:21:34
Ein "Ruckler" ist bei einem Szenenwechsel immer vorhanden.
Wenn von einem Bild auf das nächste auf eine komplett andere Szene umgeschaltet wird, kann unser Auge bzw. Gehirn daraus keine flüssige Bewegung machen, das ist gänzlich unmöglich.
Ich glaube kaum, dass es hier überhaupt einen unterschied macht ob vor oder nach dem Cut ein Frame fehlt.
Man müsste das allerdings tatsächlich mal live sehen um es beurteilen zu können.
Ein einzelnes Frame ist ja immer nur verdammt kurz sichtbar, ich glaube kaum dass selbst diese vereinzelten komplett kaputten Frames in Echtgeschwindigkeit überhaupt stören, das darauffolgende Frame passt ja wieder.
In Slomo oder gar ein Standbild der kaputten Frames sieht natürlich auf den ersten Blick unbrauchbar aus aber in Echtzeit wird man nicht viel davon merken.
Ich glaube eher, dass sich immer wiederholende kleinere Fehler, wie z.B. im DF Video wenn er mit Spiderman die Wand hochrennt viel eher real wahrnehmbar sind. Wir sind verdammt gut darin solch falsche Muster zu erkennen, aber verdammt schlecht darin Fehler die nur wenige ms dauern zu erkennen.
Das kann ich 1:1 so unterschreiben. Full ack! :up:
basix
2022-10-14, 12:07:45
@Basix, bei 100fps dlss3fg sind es eben 30ms und nicht 23ms sonst gibt SLI stuttering. Die 3ms sind nur relevant, falls A. Die FG Frames nicht einmittet (dann gibts wie bei sli stuttering bei unter ca 120fps (6ms)) B. Über 333 fps (mehr geht nicht mit dlss3.
Nö, nö. 23ms stimmen schon. Du musst einfach jedes Frame um +3ms verzögern, dann passt das mit dem Einmitten der Frametimes. Reaping_Ant hat das schön aufgezeichnet:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13130203#post13130203
In seinem Beispiel sind es sogar nur +20ms. Solange die Framegeneration <50% der Renderingzeit beträgt, kann man die Latenz sogar auf +1 Frame begrenzen.
ChaosTM
2022-10-14, 12:21:24
DLSS 4.0 wird das dann wohl schon halbwegs im Griff haben. Die Richtung stimmt auf alle Fälle..
Freestaler
2022-10-14, 12:42:07
@Basix, er erklärts gleich wie ich. 1 Frame + ein Halbes... in deinem Beispiel 30ms und nicht 23ms.
Ausserdem funktioniert das so nur, wenn die DLSS3 Rechenzeit weniger als 50% der Renderzeit eines echten Frames betraegt, ansonsten muss man die Ausgabe nochmal um die Differenz verschieben.
Reflex ändert an dem nichts sondern am overallinputlag. Das wird verkürzt. Für Reflex brauchts aber kein Dlss3.0.
Ex3cut3r
2022-10-14, 15:46:24
DLSS 4.0 wird das dann wohl schon halbwegs im Griff haben. Die Richtung stimmt auf alle Fälle..
So wie ich Nvidia kenne, aber ohne 40 Gen Support. Sondern 50er Gen Only :biggrin: :redface:
why_me
2022-10-14, 16:01:08
DLSS2 haben doch auch noch die alten karten bekommen... wobei, jetzt haben sie Blut geleckt :biggrin:
Lurtz
2022-10-14, 16:14:53
https://abload.de/img/screenshot2022-10-14a1jebn.png
Digital Foundry, die gesponsorte "redaktionelle" Inhalte machen, und problematische Details dabei ausblenden, beschweren sich über Framing, can't make that shit up :uhammer:
Ex3cut3r
2022-10-14, 16:16:54
DF hat ein gutes Video gemacht. Danach war ich schlauer.
https://abload.de/img/digitalfoundry-nvidiafnee1.png
Dampf
2022-10-14, 17:37:11
https://abload.de/img/screenshot2022-10-14a1jebn.png
Digital Foundry, die gesponsorte "redaktionelle" Inhalte machen, und problematische Details dabei ausblenden, beschweren sich über Framing, can't make that shit up :uhammer:
Wovon zum Teufel redest du? Alex hat Negativaspekte von DLSS 3 gründlich und objektiv beleuchtet. HW Unboxed fallen dagegen immer wieder mit Framing auf, übertriebenem Wording, verbreiten Unwahrheiten, vertuschen Tatsachen etc. Steve ist auf Twitter einfach nur ein Arschloch, der sich wie ein 12 Jähriger Fanboy verhält, statt wie ein professioneller Redakteur.
robbitop
2022-10-14, 17:43:42
Sowas bringt leider Klicks. Übertriebene, kontroverse Thumbnails und Titel. :(
Lurtz
2022-10-14, 22:06:48
Genauso wie die ganzen Exklusiv-Zugänge von Digital Foundry, bei denen man auch gerne mal kritische Aspekte übersieht (Horizon Forbidden West, A PS5 Graphics Masterclass, das "kaputte" AA vergaß man wohl zu erwähnen)...
Ich mag ihre Videos, gerade auch die von Alex, aber deren Geschäftsmodell sollte man mit Argwohn betrachten, und dass sie nach ihrem weltexklusiven DLSS 3-Teaser andere mit vermeintlichem Framing angehen, weil die es anders sehen, ist reichlich absurd. Der Rest ist der übliche Social Media-Zirkus.
ChaosTM
2022-10-14, 22:20:51
Ich sehe gerade bei DF sehr wenig "Geschäftsmodell".
Die machen ihr Ding und sich von einer Firma abhängig machen wäre unglaublich dumm.
Digital Foundry, die gesponsorte "redaktionelle" Inhalte machen, und problematische Details dabei ausblenden, beschweren sich über Framing, can't make that shit up :uhammer:
Das DF video war wesentlich besser, hardware unboxed war im Prinzip nur slowdowns/screenshots kaputter frames, und kaum technische hintergründe.
DF hat dies DLSS3 in einer realistischen Weise betrachtet.
robbitop
2022-10-15, 07:34:24
Ich fand zumindest das 4090 exclusive war ganz klar editorialized. Man hat IMO gemerkt dass sie bestimmte Dinge zu zeigen hatten und andere ganz klar nicht. Nichts mit redaktioneller Freiheit. Das DLSS 3 Video hingegen fand ich ok.
basix
2022-10-15, 12:55:31
Das DF video war wesentlich besser, hardware unboxed war im Prinzip nur slowdowns/screenshots kaputter frames, und kaum technische hintergründe.
Nur weil der Titel und das Thumbnail des HWUB etwas "pikant" sind, soll das gesagte keine Relevanz mehr haben? Denn das war durchaus differenziert: DLSS3 kann gut sein, aber nur unter bestimmten Umständen. Und genau in "diesen bestimmten Umständen" liegt mMn das Problem. DLSS3 an sich ist nicht schlecht (robbi sagt immer "zusaätzliches Toll im Werkzeugkasten" ;)), aber den Wirkungsgrad eines DLSS2 hat es nicht.
Im HWUB Video gab mehrere Vergleiche inkl. Slowdowns, wo man erst mit zunehmendem Slowdown die Artefakte von FG deutlich gesehen hat. Und das wurde auch so deutlich von Tim gesagt. Ist doch gut: "Hey, es fällt nur schwer auf, je nach Situation". Ist das keine gute Info für einen Nutzer? Es wurde aber auch gesagt, dass je nach Bewegungsablauf die Artefakte von FG deutlich grösser sind als bei DLSS2 und sie vor allem dann nur schwer bemerkt werden, wenn die FPS genug hoch sind. DF sagte genau das gleiche (DF = >90fps, HWUB = >100-120fps). DF ging etwas mehr ins Detail bezüglich der Technik an sich, OK. Dennoch fand ich das HWUB Video als Info OK. Etwas negativer gefärbt als das von DF, weil halt auch die Frage gestellt wurde, ob das auch bei kleineren GPUs wirklich was bringt (siehe >fps von oben). Wenn nur eine 4090 davon profitiert (extrem teuer) oder eine 4080 bei 1080p (immer noch extrem teuer und 1080p wären Perlen vor die Säue), ist der Nutzen in der Tat etwas in Frage zu stellen. Ebenso der Vorschlag, dass FG-Fps anders bewertet werden sollen als "richtige" FPS, finde ich völlig valide. DLSS2 macht die Bilddarstellung flüssiger und reduziert die Latenz, DLSS kann nur die Bilddarstellung flüssiger machen. Reflex muss für eine Beurteilung von FG zwingend ausgeklammert werden, da auch ohne FG nutzbar. Games, welche mit DLSS3 neu Reflex automatisch dazubekommen, sind unter Umständen natürlich auch inkl. FG im Vorteil hinsichtlich Latenz. Ich sehe also unter dem Strich schon einen Win mit DLSS3. DLSS2 + Reflex ;) DLSS3-FG kann man mal ausprobieren. Aber wie gesagt, die Schlagkraft ist deutlich geringer als bei DLSS2.
BlacKi
2022-10-15, 14:14:50
kennen wir mittlerweile die dll version von 3.0?
Troyan
2022-10-15, 14:17:25
Ist eine neue DLL explizit für FG.
BlacKi
2022-10-15, 15:15:33
also auch nicht interchangable 2.x und 3.x.
dann werden die fortschritte für die alte gen ausbleiben...
Troyan
2022-10-15, 15:49:42
Gibt zwei DLL: Eine für DLSS 2 und eine für FG.
BlacKi
2022-10-15, 15:53:47
ok, dann zurück zu meiner eingangsfrage.
welche version hat die dll von dlss 3.0.
Jupiter
2022-10-15, 16:02:47
HWUB geht mehr in Richtung Linus Tech Tips. DF ist professioneller.
Oliver_M.D
2022-10-15, 16:26:38
kennen wir mittlerweile die dll version von 3.0?Integriert war in der Version neben DLSS 2.4.0.0 (DLSS Super Resolution) „DLSS-G 1.0.2.0“ (G steht für „Frame Generation“).
Wolltest du das wissen? https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/4/
BlacKi
2022-10-15, 16:28:00
Wolltest du das wissen? https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/4/danke
€dit: das ist älter als die aktuellste bei techpowerup. 2.4.0 stammt aus dem märz.
Troyan
2022-10-15, 16:34:37
Exakt, Spider-Man hat eine "nvngx_dlssg.dll" mit der Version. Und DLSS ist bei 2.4.12.
BlacKi
2022-10-15, 17:14:47
welche version hat plaque tale? kommt ja leider erst am 18. diesen monats.
DrFreaK666
2022-10-15, 17:55:56
welche version hat plaque tale? kommt ja leider erst am 18. diesen monats.
Sind ja noch drei verdammt lange Tage :ugly:
Nur weil der Titel und das Thumbnail des HWUB etwas "pikant" sind, soll das gesagte keine Relevanz mehr haben?
Sagt ja keiner, dass das von HWUB schlecht ist.
Das von DF ist nur mindestens 1 Klasse höher.
Troyan
2022-10-16, 15:11:37
Superpeople ist F2P und unterstützt DLSS 3. Wer es sich also mal sehen will, kann es hier.
aufkrawall
2022-10-16, 15:17:48
Man muss HAGS aktivieren, sonst gibts kein FG (und auch kein Reflex in Spiderman). :rolleyes:
Ich konnte es mir jetzt in Spiderman anschauen, und um es klar zu sagen: Die Qualität war erstmal nicht das offenkundige Problem.
Aber es hat die fps nicht verdoppelt, das lief auf dem 5500 geschätzt eher so 30-40% schneller im CPU-Limit (laut Monitor VRR OSD). Und dabei gefühlt auch überhaupt nicht flüssiger, vermutlich sind die Frame Times im CPU-Limit zu schlecht und das FG verschärft das noch. Ohne Vsync erzwungen via Treiber gab es trotz VRR auch immer mal wieder Tearing. Und der Input Lag ist gefühlt ca. doppelt so hoch, Reflex bringt im CPU-Limit erwartungsgemäß überhaupt nichts.
Mal Spiele mit besseren Frame Times und höheren fps im CPU-Limit abwarten. In Spiderman ist es auf dem Ryzen 5500 schlicht gar nicht empfehlenswert. Doppelte fps im CPU-Limit my ass...
Ex3cut3r
2022-10-16, 15:34:37
Stimmt das eigentlich das mit FG die Frametime immer hoch und runter zuckt? Also 3ms und dann wieder z.B. 16 ms (60FPS) und dann wieder auf 3 ms runter geht? Wenn ja, das wäre gar nichts für mich. Egal ob 200 FPS auf dem Bildschirm oder nicht, dazu Input Lag lächerlich höher, und ein zuckeln im Bild sowie Artefakte. -> Stand jetzt Schroot. Die hätten lieber DLSS 2 weiter verbessern sollen, da ist nämlich vieles noch nicht sehr gut.
Troyan
2022-10-16, 15:39:51
Man muss HAGS aktivieren, sonst gibts kein FG (und auch kein Reflex in Spiderman). :rolleyes:
Ich konnte es mir jetzt in Spiderman anschauen, und um es klar zu sagen: Die Qualität war erstmal nicht das offenkundige Problem.
Aber es hat die fps nicht verdoppelt, das lief auf dem 5500 geschätzt eher so 30-40% schneller im CPU-Limit (laut Monitor VRR OSD). Und dabei gefühlt auch überhaupt nicht flüssiger, vermutlich sind die Frame Times im CPU-Limit zu schlecht und das FG verschärft das noch. Ohne Vsync erzwungen via Treiber gab es trotz VRR auch immer mal wieder Tearing. Und der Input Lag ist gefühlt ca. doppelt so hoch, Reflex bringt im CPU-Limit erwartungsgemäß überhaupt nichts.
Mal Spiele mit besseren Frame Times und höheren fps im CPU-Limit abwarten. In Spiderman ist es auf dem Ryzen 5500 schlicht gar nicht empfehlenswert. Doppelte fps im CPU-Limit my ass...
Innenräume laufen butterweich. Konnte ja niemand bei Insomniac damit rechnen, dass Spiel mal mit mehr als 60 FPS laufen soll. ;D
Fühlt für sich für mich bei 50FPS identisch an. Da nehme ich die doppelten Frames im CPU-Limit dann einfach mit.
Nervig ist einfach das V-Sync-Thema. Im CPU-Limit ist man dann weit über den 144Hz des Alienware QD-Displays...
aufkrawall
2022-10-16, 15:51:00
Stimmt das eigentlich das mit FG die Frametime immer hoch und runter zuckt? Also 3ms und dann wieder z.B. 16 ms (60FPS) und dann wieder auf 3 ms runter geht? Wenn ja, das wäre gar nichts für mich. Egal ob 200 FPS auf dem Bildschirm oder nicht, dazu Input Lag lächerlich höher, und ein zuckeln im Bild sowie Artefakte. -> Stand jetzt Schroot. Die hätten lieber DLSS 2 weiter verbessern sollen, da ist nämlich vieles noch nicht sehr gut.
Ist ne gute Frage. Der RTSS Frame Time Graph sieht jedenfalls mit FG viel schlechter aus. Ob das der Realität entspricht? Kann ich mit dem VRR Overlay schlecht sagen, weil die Frame Time Varianz bei Spiderman im CPU-Limit dieses eh schon ohne FG ordentlich zappeln lässt. Es müsste FG in Dying Light 2 geben...
Ohne Vsync erzwungen via Treiber gab es trotz VRR auch immer mal wieder Tearing. Und der Input Lag ist gefühlt ca. doppelt so hoch, Reflex bringt im CPU-Limit erwartungsgemäß überhaupt nichts.
Wenn man VSYNC aktiviert sollte man sich nicht über den OUTPUT lag beschweren.
Geldmann3
2022-10-18, 08:38:02
Hat es schonmal jemand geschafft FG mit Downsampling zum Laufen zu bekommen? Im FS 2020 scheint es in 8K nicht mehr zu funktionieren. Nur noch +5% FPS statt +90%. Frage mich, ob sich das auf den FS2020 beschränkt. Gerade dort hätte ich mich das Feature stark nutzen gesehen.
Ich hätte die Befürchtung, dass der Optical Flow Accelerator nicht kompatibel mit so hohen Auflösungen ist.
Hoffe aber auf einen Bug / ein Bottleneck woanders im FS2020.
Hat es schonmal jemand geschafft FG mit Downsampling zum Laufen zu bekommen? Im FS 2020 scheint es in 8K nicht mehr zu funktionieren. Nur noch +5% FPS statt +90%. Frage mich, ob sich das auf den FS2020 beschränkt. Gerade dort hätte ich mich das Feature stark nutzen gesehen.
Wenn man die von NV angegebenen 3ms für ein generiertes Frame auf 4k annimmt, wären das bei 8k 12ms, also nicht mehr sinnvoll nutzbar.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.