PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27

Thunder99
2023-06-23, 22:03:42
Was hat es eigentlich mit diesen Preset A - X auf sich? Wohl kaum mit den P -Q also Qualitäts-/Auflösungsstufen :confused:

Exxtreme
2023-06-23, 22:26:54
Nvidia-Grafikkarten werden am meisten gekauft und wenn da FSR und dafür kein DLSS bei einem AAA-Spiel unterstützt wird, ist das verdächtig. Etwa 40 % der von Steamnutzern verwendeten Grafikkarten unterstützt DLSS. https://store.steampowered.com/hwsurvey/videocard/

Und dafür unterstützen nahezu 100% FSR. Ist halb blöd wenn Nvidia eigene Produkte von eigenen Features ausschließt.

DrFreaK666
2023-06-23, 22:57:14
Nicht zu früh ablästern. Du weißt nicht welchen Weg AMD mit FSR3 letztendlich geht

Exxtreme
2023-06-23, 23:09:09
Nicht zu früh ablästern. Du weißt nicht welchen Weg AMD mit FSR3 letztendlich geht

Für DLSS 2 brauchst du mindestens Turing. Und laut der Steam Umfrage sind sehr viele noch mit Vorgängern unterwegs. FSR 2 ist da viel genügsamer und unterstützt auch noch AMD und Intel obendrein.

Gast
2023-06-23, 23:22:20
Für DLSS 2 brauchst du mindestens Turing. Und laut der Steam Umfrage sind sehr viele noch mit Vorgängern unterwegs. FSR 2 ist da viel genügsamer und unterstützt auch noch AMD und Intel obendrein.

Dafür gibt es bei NVIDIA Freestyle Filter + Upscaling im Treiber und letzteres wird im Gegensatz zu FSR auch von wesentlich mehr Games unterstützt.

DrFreaK666
2023-06-24, 00:12:22
Filter in Games gabs bei AMD schon 2005 (Smartshader)

Raff
2023-06-24, 01:16:17
Was hat es eigentlich mit diesen Preset A - X auf sich? Wohl kaum mit den P -Q also Qualitäts-/Auflösungsstufen :confused:

Das ist Supernerdstuff, für den du dieses Tool benötigst: https://github.com/emoose/DLSSTweaks

MfG
Raff

robbitop
2023-06-24, 07:37:06
So isses, wer nicht wagt, der nicht gewinnt. Ohne NVIDIA wäre PC Gaming schon längst erledigt, deren innovative Features machen dieses erst wirklich reizvoll.

Aber leider unschön, dass das meiste proprietär ist. Entsprechend reiner Selbstzweck.

basix
2023-06-24, 14:10:54
So isses, wer nicht wagt, der nicht gewinnt. Ohne NVIDIA wäre PC Gaming schon längst erledigt, deren innovative Features machen dieses erst wirklich reizvoll.

Also für mich sind primär Spiele und deren Inhalte reizvoll und dass ich gerne mit Maus & Tastatur spiele, aber jeder wie er mag ;)

Der Technik-Geek in mir findet technische Innovation natürlich sehr spannend, nur wegen dem bin ich aber nicht am PC unterwegs.

Ex3cut3r
2023-06-24, 14:58:29
Aber leider unschön, dass das meiste proprietär ist. Entsprechend reiner Selbstzweck.

AMD kann gerne mal etwas eigenes erstellen. Anstatt dem großen Bruder immer nur nachzueifern und das noch in einer schlechteren Variante.

Gast
2023-06-24, 20:52:14
Aber leider unschön, dass das meiste proprietär ist. Entsprechend reiner Selbstzweck.

Qualität setzt sich am Ende fast immer durch und das ist auch gut so.
Ratched and Clank wird in der PC-Version vor allem dank NVIDIA erweitertes Ray Tracing für realistischere Schattendarstellung bieten, ähnlich wie schon zuvor schon in Spider Man: Miles Morales und mit DLAA, DLSS3 sowie Frame Generation gleich die nötigen Werkzeuge mit im Gepäck, so dass am Ende fast jeder aus dem Vollen schöpfen kann, das ist vorbildlich und unterstützt man doch gerne.

robbitop
2023-06-25, 16:11:16
Absolut. Aber sie machen es vor allem um Kunden zu binden. Alles schön nur auf neusten NV GPUs nutzbar. Meh. Entsprechend gibt‘s von mir da auch kein Lob weil die Motovation fehlgeleitet ist. Wenns open source oder zumindest Vendor agnostisch wäre, gäbe es Applaus. Aber so machen sie es vor allem um ein Monopol zu bauen und zu festigen. Das ist unschön.

Lurtz
2023-06-25, 23:48:51
Fixed an issue where bright, colorful flashes appeared at the edges of certain objects when DLSS was enabled.
https://www.cyberpunk.net/en/news/48364/patch-1-63-list-of-changes

Ist das der aufkrawallsche Bloom Bug? :uponder:

aufkrawall
2023-06-26, 00:15:22
Jo, sieht auch tatsächlich gefixt aus.
Leider gibts das aber auch in quasi jedem UE-Spiel mit DLSS via Plug-In, etwa Hogwarts.

Gast
2023-06-26, 02:11:25
Absolut. Aber sie machen es vor allem um Kunden zu binden. Alles schön nur auf neusten NV GPUs nutzbar. Meh. Entsprechend gibt‘s von mir da auch kein Lob weil die Motovation fehlgeleitet ist. Wenns open source oder zumindest Vendor agnostisch wäre, gäbe es Applaus. Aber so machen sie es vor allem um ein Monopol zu bauen und zu festigen. Das ist unschön.
Als ob AMD nicht ihre Kunden auch binden will... alle wollen "nur" unser Geld, aber ohne Innovation bleibt die Branche eben stehen und Stillstand ist immer schlecht.
AMD ist erst auf ihrem Opensource trip, seitdem sie selbst keine Innovationen mehr hervorgebracht haben. die letzte war? 64bit CPUs?

Gast
2023-06-26, 08:04:29
Qualität setzt sich am Ende fast immer durch und das ist auch gut so.


Leider nicht, es gibt mehr als genug Beispiele in denen sich Qualität eben nicht durchsetzt.

VHS gegenüber Betamax.
MP3 gegenüber CD (Qualitativ höherwertige CD-Nachfolger hatten sogar niemals irgendeinen nennenswerten Marktanteil, und die CD-Qualität wird erst neuestens Teilweise von Streaming überboten)
Videostreaming gegenüber BD/HDDVD.

Ich bin sogar überzeugt, dass DLSS keine Chance hätte sich rein aus Qualitätsgründen durchzusetzen.

Dass einzige Glück war, dass DLSS der erste seiner Art war und zeitlich einen so enormen Vorsprung hatte, dass es bereits eine enorme Verbreitung gab, bis es erstmal auch Konkurrenzprodukte gab.
Wenn FSR 2.x einigermaßen zeitnah zu DLSS2.x erschienen wäre, würden wir ziemlich sicher außerhalb von NV-Gesponsorten Titeln DLSS mit der Lupe suchen.

Exxtreme
2023-06-26, 08:52:57
Dass einzige Glück war, dass DLSS der erste seiner Art war und zeitlich einen so enormen Vorsprung hatte, dass es bereits eine enorme Verbreitung gab, bis es erstmal auch Konkurrenzprodukte gab.
Wenn FSR 2.x einigermaßen zeitnah zu DLSS2.x erschienen wäre, würden wir ziemlich sicher außerhalb von NV-Gesponsorten Titeln DLSS mit der Lupe suchen.

Wobei enorme Verbreitung auch bissl übertrieben ist. 2022 sind laut Imdb 1033 Spiele erschienen.
https://www.imdb.com/search/title/?title_type=video_game&release_date=2022-01-01,2022-12-31&sort=num_votes,desc

Wieviele können davon DLSS? Wahrscheinlich nicht einmal 1%.

Gast
2023-06-26, 09:43:47
Wieviele können davon DLSS? Wahrscheinlich nicht einmal 1%.

Keine Ahnung, 200, 300?

Die Zahl ist jedenfalls schon viel zu groß um mir einen Überblick darüber zu machen.

Wobei der Vergleich mit der Anzahl erschienener Spiele sowieso irrelevant ist, die wird durch unzählige Kopien diverser Schrottspiele künstlich in die höhe getrieben.

Wichtig ist wieviele von den tatsächlich wichtigen Spielen (und damit auch jene die überhaupt die Performanceanforderungen haben DLSS zu benötigen) DLSS an Board haben, und davon erscheinen keine 100 pro Jahr, und ein großer Teil davon hat DLSS.

Troyan
2023-06-26, 09:47:40
Dass einzige Glück war, dass DLSS der erste seiner Art war und zeitlich einen so enormen Vorsprung hatte, dass es bereits eine enorme Verbreitung gab, bis es erstmal auch Konkurrenzprodukte gab.
Wenn FSR 2.x einigermaßen zeitnah zu DLSS2.x erschienen wäre, würden wir ziemlich sicher außerhalb von NV-Gesponsorten Titeln DLSS mit der Lupe suchen.

Ohne DLSS 2 gäbe es kein FSR 2.

DrFreaK666
2023-06-26, 10:55:04
Das Problem von FSR ist doch, dass die Qualität nicht ebenbürtig ist. Wäre das der Fall, dann benötigten wir kein DLSS zusätzlich in den Games für RTX-User

Exxtreme
2023-06-26, 10:59:20
Keine Ahnung, 200, 300?

Die Zahl ist jedenfalls schon viel zu groß um mir einen Überblick darüber zu machen.


Das sind Spiele gesamt und nicht Spiele aus dem Jahr 2022. Es gibt sehr alte Spiele wie Witcher 3 wo das nachträglich gepatcht wurde. Aber das Spiel ist trotzdem alt. Würde man 7 Jahre zurückgehen dann kommt man auf über 10k Spiele. Und da sind 200 - 300 jetzt nicht so mega viel. Von daher bleibe ich dabei: DLSS und FSR sind Nischentechnologien ähnlich VR-Brillen. Nur dass die Einstiegshürde eher geringer ist.

DrFreaK666
2023-06-26, 11:25:41
Was ist das für ein Vergleich. DLSS und co. sind dazu da um die Geschwindigkeit zu erhöhen. Das hat man damals auch erreicht, in dem man die Auflösung gesenkt hat. Heutzutage ist der BQ-Verlust dank dieser Technologien halt geringer.
Was hat VR hier verloren?

Exxtreme
2023-06-26, 11:35:10
Was ist das für ein Vergleich. DLSS und co. sind dazu da um die Geschwindigkeit zu erhöhen. Das hat man damals auch erreicht, in dem man die Auflösung gesenkt hat. Heutzutage ist der BQ-Verlust dank dieser Technologien halt geringer.
Was hat VR hier verloren?
Dass beides Nischentechnologien sind. Habe ich doch geschrieben.

Gast
2023-06-26, 11:41:16
Würde man 7 Jahre zurückgehen dann kommt man auf über 10k Spiele.


Alte Spiele sind in der Regel eh schnell genug. Abgesehen davon sind diese Zahlenvergleiche komplett sinnlos. Dass es zigtausende Asia-Comic-Adventures ohne DLSS gibt ist vollkommen egal, die Frage ist wieviele Spiele für die es relevant ist haben DLSS, und diese Zahl ist in den letzten Jahren auf jeden Fall deutlich über 50%.

Exxtreme
2023-06-26, 14:31:52
Alte Spiele sind in der Regel eh schnell genug. Abgesehen davon sind diese Zahlenvergleiche komplett sinnlos. Dass es zigtausende Asia-Comic-Adventures ohne DLSS gibt ist vollkommen egal, die Frage ist wieviele Spiele für die es relevant ist haben DLSS, und diese Zahl ist in den letzten Jahren auf jeden Fall deutlich über 50%.

Es ist nicht komplett sinnlos. Die Wahrscheinlichkeit, dass man DLSS irgendwo einsetzen kann ist beim Durchschnittszocker verschwindend gering. Nur extrem fordernde/schlecht optimierte Titel tendieren dazu so etwas zu haben. Von daher ist das ein nettes Checklistenfeature. Das Ganze trifft natürlich auch auf FSR zu.

aufkrawall
2023-06-26, 14:39:52
Bei der überwältigenden Mehrheit der AAA-Titel der letzten zwei Jahre und einer nennenswerten Anzahl an AA-Titeln von "Nische" zu schreiben, ist doch echt mal völliger Quark...

robbitop
2023-06-26, 14:52:07
Als ob AMD nicht ihre Kunden auch binden will... alle wollen "nur" unser Geld, aber ohne Innovation bleibt die Branche eben stehen und Stillstand ist immer schlecht.
AMD ist erst auf ihrem Opensource trip, seitdem sie selbst keine Innovationen mehr hervorgebracht haben. die letzte war? 64bit CPUs?
Mir geht es um keinen speziellen OEM. Proprietär ist immer kacke für uns Endkunden. Egal wie welcher OEM heißt. Wenn ich das an NV kritisiere, sage ich nicht, dass AMD oder Intel besser seien. Das ist eine universelle Kritik gegen proprietäre Features.

robbitop
2023-06-26, 14:54:08
Ohne DLSS 2 gäbe es kein FSR 2.
Das ist absolut möglich. Diese "me too" Mentalität ist bei AMD einfach zu passiv. Da müssen mehr Initiativen kommen als einfach nur Parität erreichen zu wollen. Ist aber natürlich ungleich schwieriger, wenn man nur einen Bruchteil des PC dGPU Marktes hat.

Exxtreme
2023-06-26, 15:12:30
Bei der überwältigenden Mehrheit der AAA-Titel der letzten zwei Jahre und einer nennenswerten Anzahl an AA-Titeln von "Nische" zu schreiben, ist doch echt mal völliger Quark...

AAA-Titel sind auch nur ein winziger Bruchteil an allen Spielen, die jährlich so erscheinen. Klar kann man sie aus verschiedenen Gründen als wichtiger gewichten. Aber das bleibt dann eine persönliche Präferenz.

Gast
2023-06-26, 15:41:47
AAA-Titel sind auch nur ein winziger Bruchteil an allen Spielen, die jährlich so erscheinen.


AAA und AA Titel sind die große Mehrheit an gespielten Stunden jährlich.

Die Zahl an erscheinenden Spielen mit unzähligen Spielen die täglich erscheinen in die Höhe zu treiben ist nur ein sinnloser Schwanzlängenvergleich.

Exxtreme
2023-06-26, 15:57:39
AAA und AA Titel sind die große Mehrheit an gespielten Stunden jährlich.

Die Zahl an erscheinenden Spielen mit unzähligen Spielen die täglich erscheinen in die Höhe zu treiben ist nur ein sinnloser Schwanzlängenvergleich.

https://steamcharts.com/top

Kannst ja mal anschauen wieviele davon AAA-Titel sind. Und von diesen müssten sie dann auch noch DLSS untersützen.

Troyan
2023-06-26, 16:20:44
Das ist absolut möglich. Diese "me too" Mentalität ist bei AMD einfach zu passiv. Da müssen mehr Initiativen kommen als einfach nur Parität erreichen zu wollen. Ist aber natürlich ungleich schwieriger, wenn man nur einen Bruchteil des PC dGPU Marktes hat.

DLSS 2 wurde Ende 2019 veröffentlicht. Der Anteil an RTX Karten war selbst dort gering. Es gibt keine Ausreden, dass ähnliche Verfahren nicht schon viel früher in ähnlicher Qualität vorhanden hätte sein können.

DLSS 2 hat ein Weg geebnet, der nun anderen ebenfalls zur Verfügung steht.

aufkrawall
2023-06-26, 17:43:11
Kannst ja mal anschauen wieviele davon AAA-Titel sind. Und von diesen müssten sie dann auch noch DLSS untersützen.
Steam-Spiele sind auch nur ein Ausschnitt, mehr nicht. Fortnite, Tarkov, CoD, Battlefield, Diablo... "Nische" :rolleyes:

Platos
2023-06-26, 18:19:38
Und viele Singleplayerspiele, die dann eben nicht auf solchen Listen auftauchen (weil man sie einmal spielt), muss man auch beachten.

Das sind halt primär pvp Spiele und keine Singleplayer-Spiele, die nur kurz mal (wenn sie grad neu sind) da auftauchen. Trotzdem werden sie gespielt und neue AAA Titel haben eig alle DLSS oder FSR.

Dazu kommt noch, das viele dieser Steam Spiele auf der Liste uralt sind und somit mit der grössten Gutke noch 100FPS gemacht wird.

DrFreaK666
2023-06-26, 20:52:15
Dass beides Nischentechnologien sind. Habe ich doch geschrieben.

Ja, und Upscaling-Technologien sind keine Nische. Jede Karte beherrscht mindestens FSR2, sogar die Konsolen. Wo ist das eine Nische?

Lurtz
2023-06-26, 22:06:15
Es ist nicht komplett sinnlos. Die Wahrscheinlichkeit, dass man DLSS irgendwo einsetzen kann ist beim Durchschnittszocker verschwindend gering. Nur extrem fordernde/schlecht optimierte Titel tendieren dazu so etwas zu haben. Von daher ist das ein nettes Checklistenfeature. Das Ganze trifft natürlich auch auf FSR zu.
Im Gegenteil, je durchschnittlicher, desto eher wird man sowas wie DLSS antreffen. Die ganzen Steam-Karteileichen interessieren doch niemanden, die werden zum Großteil eh nie fertig entwickelt.

Prinzenrolle
2023-06-28, 23:47:59
DLSS 2 wurde Ende 2019 veröffentlicht.

Ende März 2020.
(https://www.igorslab.de/136682-2/#:~:text=Testberichte%20%E2%80%A2%20VGA-,Nvidia%20stellt%20DLSS%202.0%20und%20weitere,%E2%80%93%20schneller%2C%20knackig er%2C%20besser%3F&text=Nvidia%20stellt%20heute%20DLSS%202.0,Performance%2DSteigerung%20aufwarten%2 0k%C3%B6nnen%20soll.)

Gast
2023-06-29, 08:25:21
Ende März 2020.
(https://www.igorslab.de/136682-2/#:~:text=Testberichte%20%E2%80%A2%20VGA-,Nvidia%20stellt%20DLSS%202.0%20und%20weitere,%E2%80%93%20schneller%2C%20knackig er%2C%20besser%3F&text=Nvidia%20stellt%20heute%20DLSS%202.0,Performance%2DSteigerung%20aufwarten%2 0k%C3%B6nnen%20soll.)

Ist das Datum dieses Artikels.

Wolfenstein Youngblood kam bereits 2019 mit DLSS 2.0.

Lurtz
2023-06-29, 14:09:28
Bei Computerbase hat sich jemand DLSS Super Resolution und Frame Generation im CPU-Limit angeschaut:
Verhalten von DLSS und Framegeneration im CPU-Limit bei Cyberpunk 2077 (https://www.computerbase.de/forum/threads/verhalten-von-dlss-und-framegeneration-im-cpu-limit-bei-cyberpunk-2077.2149506/#post-28341940)
Im CPU Limit vermag es DLSS die Min-Frames anzuheben und aus einer unschönen Ruckelpartie ein halbwegs angenehmes Spielerlebnis abzuliefern, aber es ändert nichts daran dass DLSS der CPU deutlich mehr abverlangt. Gleichzeitig kann aber DLSS Ruckler, bedingt durch das CPU-Limit nicht ausgeglichen, ebenso wie Frame Generation. Mit DLSS fällt die CPU viel mehr ins Gewicht als ohne. In Spielen, welche entweder schlecht Optimiert sind, oder von Anfang an ein CPU-Limit besitzen, wird DLSS noch weit mehr zusetzen als es ohne der Fall wäre. DLSS ist nicht das besagte Allheilmittel für mehr FPS, ebenso wie Frame Generation, vor allem da beide Technologien im Zusammenspiel den Inputlag vergrößern.
Die CPU ist mit steigenden Auflösungen immer weiter in den Hintergrund gerückt, aber mit dem Aufkommen von DLSS hat die CPU wieder eine deutlich größere Relevanz. Zusätzlich verhält sich DLSS ( und auch Framegeneration) im CPU-Limit sehr komisch. Das ist mir weniger im integriertem Benchmark aufgefallen, dafür deutlicher beim Rundgang um Corpo Plaza. Inputlag ist bei DLSS und Framgeneration bekannt, aber im CPU-Limit hatten mache Inputs einen wahrnehmbaren Mikroruckler zur Folge. Es war nicht zu 100% reproduzierbar aber beim ausweichen von Passanten kam es häufiger vor, Obwohl Nvidia Refelex aktiviert war.
Die Annahme, CPU später aufrüsten, kann also auch nach hinten losgegehen. DLSS vermittelt den Eindruck, dass man spielbare Frames hat, aber Mikrorucker in Zusammenspiel mit Inputlag das Erlebnis zur Qual machen als zur Freude.

Das ist aufkrawall AFAIR ja auch schon aufgefallen...

aufkrawall
2023-06-29, 14:27:41
Bei mir funktionierte FG in W3 und CP77 allerdings auch einfach nicht richtig, bei den extremen "Makrorucklern" ließ sich nicht sonderlich gut auf kleine Sprünge achten. Aber zappelige Basis-Frame-Times im CPU-Limit sind sicherlich nicht hilfreich.

Ex3cut3r
2023-06-29, 15:08:08
Und warum sorgt es dann bei Hogwarts für bessere Frametimes? Bei Spider-Man glaube ich das Gleiche. Kann es vlt. sein, dass die Engine mit dem "Beta" DX12 Pfad beim W3 für allgemeine Probleme sorgt? Ich habe nie das W3 Remake gezockt, da ich das Spiel schon immer nur mittelmäßig fand. Das Remake überzeugt mich grafisch mit RT und dem dunklen absaufen von Schatten/Details auch nicht.

Oliver_M.D
2023-06-29, 16:28:31
Bei mir funktionierte FG in W3 und CP77 allerdings auch einfach nicht richtigIch habe bereits verschiedene Spiele mit FG ausprobiert, darunter Dying Light 2, F1 22, Hitman 3, Hogwarts, Spiderman, Diablo 4, Forza Horizon 5, Portal RTX und Warhammer Darktide. Keines dieser Spiele bereitete jedoch so viele Probleme wie Witcher 3R oder Cyberpunk. Besonders beeindruckt haben mich F1 und Darktide, da sie meine FPS nahezu konstant am FPS-Limit halten und meine CPU-Limits praktisch "eliminierten". Interessanterweise scheinen die meisten Spiele keine Probleme mit FPS-Limits zu haben, außer Portal (sehr schlimm). Im Gegensatz dazu ist W3R mit DX12 bei mir ein allgemeines Desaster, unabhängig davon, ob ich FG aktiviert habe oder nicht.

Lurtz
2023-06-29, 16:51:36
Wirkt halt ziemlich dirty reingehackt in die Zombie-Red-Engine :ugly: Allein schon dieses Gezuckel zwischen Menüs und Ingame bei Witcher 3...

Ist aber auch nicht das einzige Spiel, wo es sich komisch verhält, im Flight Simulator gehen bei mir die Frametimes kaputt.

In Spider-Man zB läufts aber wirklich super-flüssig damit.

ChaosTM
2023-06-29, 16:59:04
Beim FS2020 wäre mir das nicht wirklich aufgefallen, hab aber die Frametimes nicht gemessen. Rein vom Gefühl her isses OK. Beim Witcher schon..
Und ich wusste gar nicht, dass Forza Horizon das (mittlerweile?) hat. Muss ich wieder mal spielen.

Platos
2023-06-30, 01:43:09
Bei mir funktionierte FG in W3 und CP77 allerdings auch einfach nicht richtig, bei den extremen "Makrorucklern" ließ sich nicht sonderlich gut auf kleine Sprünge achten. Aber zappelige Basis-Frame-Times im CPU-Limit sind sicherlich nicht hilfreich.

Angeblich soll das in Witcher 3 ja gelöst sein seit nem neueren Patchstand. Aber getestet habe ich es noch nicht, da bei mir jetzt einige Mods nicht mehr Kompatibel und ich zuerst auf Suche gehen muss.

Deisi
2023-06-30, 11:52:17
Ich hab mir mal Jedi Survivor im Steam Sale geholt und dazu die DLSS Mod.
DLSS holt auch Details wie z.B. dünne Antennen raus:
https://imgsli.com/MTg5MDY0/0/2

Exxtreme
2023-06-30, 15:17:59
Ich hab mir mal Jedi Survivor im Steam Sale geholt und dazu die DLSS Mod.
DLSS holt auch Details wie z.B. dünne Antennen raus:
https://imgsli.com/MTg5MDY0/0/2

Schöne Verglerich, danke! (y)

Hier ist DLSS Q tatsächlich viel besser als FSR Q. :) Und auch besser als TAA.

Raff
2023-06-30, 15:27:32
Das TAA der UE4 ist eigentlich immer schlechter, gerade bei Alphatests sehr auffällig.

MfG
Raff

aufkrawall
2023-06-30, 15:47:43
Das ist etwas seltsam, etwa bei der dichten Vegetation von Vanishing of Ethan Carter hatte das TAA ziemlich gut funktioniert. Zumindest, was die Bildglättung angeht. Wurde halt mit Unmengen an Matsch erkauft.
Es matscht mittlerweile in UE5 Fortnite aber imho viel weniger und hat immer noch eine sehr gute Bildruhe (meist besser als die Upsampler).

Iscaran
2023-07-01, 12:10:03
Kann mal jemand eine Webseite erstellen die "randomisiert" eines der 3 Bilder anzeigt und dann eine Abfrage aufruft welche Art es ist. Die Auflösung bekommt man dann am Ende als %Zahl der korrekt zugeordneten Bilder am Ende des Tests.

Mich würde interessieren wieviel % der Webseitenbesucher hier eine "korrekte" Zuordnung zu TAA/FSR2 Q / DLSS2 Q hinbekommen.
Am besten wäre es das ganze gleich mit einem ganzen Parcour an Bildern zu machen

Ich wette mal weniger als 20%.

robbitop
2023-07-01, 12:24:18
Bilder sind nicht ausreichend. Viele Artefakte sind temporal. Entsprechend sieht man sie primär in Bewegung.

Troyan
2023-07-01, 12:52:22
Das FSR in Jedi ist (kein Plan, ob durch Patches) vollkommen überschärft. Das erinnert an die HD-Version von 24, wo im hellen das Ding massiv viel Firmkorn aufweist.

Hier mal DLSS Performance mit Mod und FSR Performance: https://imgsli.com/MTg5MjU0

Man sieht förmlich die Schärfeartefakte. Aber ist notwendig, weil in Bewegung das kaum besser ist.

DrFreaK666
2023-07-01, 14:02:21
Bilder sind nicht ausreichend. Viele Artefakte sind temporal. Entsprechend sieht man sie primär in Bewegung.

Außerdem sollte man auf unrealistische 600% Zooms verzichten

robbitop
2023-07-01, 16:00:58
Diese Zooms sind dazu da zu veranschaulichen, was man auch so sieht (besonders bei temporalen Artefakten). Das menschliche Ausge ist unglaublich gut in Mustererkennung. Das wurde schon hundert mal erklärt.

aufkrawall
2023-07-01, 16:03:41
Dieser bilineare Matsch-Zoom ist da sogar noch vorteilhaft für Artefakte. Wenn man real nah am Schirm ist, werden die Artefakte auch nicht weichgespült.

Iscaran
2023-07-01, 20:02:25
Bilder sind nicht ausreichend. Viele Artefakte sind temporal. Entsprechend sieht man sie primär in Bewegung.

Gerne eine Webseite mit 10 Sekunden Videos, randomisiert mit anschliessender "Zuordnung" WAS man da nun gesehen hat.

Das Ergebnis bleibt IMHO das gleiche - die wenigsten werden in der Lage sein diese minimalen Unterschiede auch nur Ansatzweise korrekt zuzuordnen.

Zeige mir dass ich mich irre.

Iscaran
2023-07-01, 20:08:33
Hier mal DLSS Performance mit Mod und FSR Performance: https://imgsli.com/MTg5MjU0

Man sieht förmlich die Schärfeartefakte. Aber ist notwendig, weil in Bewegung das kaum besser ist.

Was sind denn "Schärfeartefakte" bei dir?

Da es an den Slidern nicht dran steht kann ich nur raten was was ist.

Slider ganz links = DLSS ?
Slider ganz rechts = FSR ?

Slider rechts sieht für mich "realistischer" aus - die Natur ist nicht unscharf wie durch einen Nebelfilter, wenn ich aus dem Fenster gucke. Zumindest bei mir ist das so.

aufkrawall
2023-07-01, 20:11:12
Kannst dir auch einfach das Video reinziehen:
3Ga2Cyvvy7s

So sehr mich die Probleme von DLSS auch ankotzen und ich deshalb teilweise FSR 2 vorziehe: Solche Fails sind nun wirklich offensichtlich.
Es gibt kein TAA oder Upsampling ohne nennenswerte Probleme (außer das teure TSR Epic 100% in Fortnite). Da muss man nicht ständig so tun, als würden die Probleme nur mit der Lupe auffallen. Und da gehts mit DLSS halt häufig massiv weniger kaputt...

robbitop
2023-07-01, 20:22:58
Gerne eine Webseite mit 10 Sekunden Videos, randomisiert mit anschliessender "Zuordnung" WAS man da nun gesehen hat.

Das Ergebnis bleibt IMHO das gleiche - die wenigsten werden in der Lage sein diese minimalen Unterschiede auch nur Ansatzweise korrekt zuzuordnen.

Zeige mir dass ich mich irre.
Dein Geschreibsel zeiht, dass du die Verfahren selbst noch nicht getestet hast. Die Unterschiede in Bezug auf Artefakte / Discocclusion / moire etc sind IMO zT riesig. (ich teste beides bei jedem Spiel was ich spiele)
HWUB ist ja auf ähnliche Ergebnisse gekommen.
Ein Doppelblindtest wäre kein Problem. Insbesondere im Performance Preset.

Ob es jeder Hanswurst sieht? Keine Ahnung. Aber der sieht ggf auch nicht den Unterschied zwischen 4K und FHD.

Iscaran
2023-07-01, 20:37:27
Ein Doppelblindtest wäre kein Problem. Insbesondere im Performance Preset.

Ich würde halt eher mit Quality testen - das man die Probleme im Performance Preset eher sieht ist glaub ich trivial.

Hoste doch mal einen solchen Doppelblindtest:

Nativ vs DLSS2 -Quality vs FSR 2 Quality.#

Das ganze aber mit zufälliger Auswahl des Bildes OHNE Angabe was es ist und dann Aufforderung das zu bewerten was es ist.

Ich wäre wirklich SEHR interessiert an so einem "Test" - auch persönlich.

aufkrawall
2023-07-01, 20:43:21
Wie groß muss man es dann für dich schreiben, bis es verfängt? TAAU. Wenn es nicht gerade um Ghosting oder Smearing geht, sind statische Bilder weitestgehend uninteressant bei temporalen Verfahren. Wie oft man das wohl noch wiederholen muss...

Iscaran
2023-07-01, 22:05:37
Warum hat jeder der meint das ganze Thema mit der Bildverbesserung zu verstehen immer soviel Angst vor einer "Doppelblindstudie".
Gerne auch mit Bewegt-Bildern, hab ich oben auch schon geschrieben, wo man mal "selbst-Testen" kann wie gut man was erkennt.

Exxtreme
2023-07-01, 22:13:58
Warum hat jeder der meint das ganze Thema mit der Bildverbesserung zu verstehen immer soviel Angst vor einer "Doppelblindstudie".
Gerne auch mit Bewegt-Bildern, hab ich oben auch schon geschrieben, wo man mal "selbst-Testen" kann wie gut man was erkennt.

Ich brauche diese Blindstudie nicht weil ich sie unfreiwillig durchgeführt habe bei Jedi Survivor. Da gibt/gab es einen Bug, dass das Spiel FSR automatisch aktivierte wenn man die Bildqualität nicht auf Epic hatte. Und ja, es war auch aktiv wenn man es in den Optionen deaktivierte. Und mir fiel deutlich auf, dass das Bild unscharf war und in Bewegung auch ausgefranst und unruhig. Von daher, einen Blindtest würde ich gewinnen. :)

DrFreaK666
2023-07-01, 22:36:18
Jedi Dingens ist auch auch sehr schlechtes Beispiel. Da sieht FSR besonders schlimm aus

Achill
2023-07-02, 00:47:42
Ich brauche diese Blindstudie nicht weil ich sie unfreiwillig durchgeführt habe bei Jedi Survivor. Da gibt/gab es einen Bug, dass das Spiel FSR automatisch aktivierte wenn man die Bildqualität nicht auf Epic hatte. Und ja, es war auch aktiv wenn man es in den Optionen deaktivierte. Und mir fiel deutlich auf, dass das Bild unscharf war und in Bewegung auch ausgefranst und unruhig. Von daher, einen Blindtest würde ich gewinnen. :)

Jedi Dingens ist auch auch sehr schlechtes Beispiel. Da sieht FSR besonders schlimm aus

Genau, ich habe das schon an anderer Stelle geschrieben. Jedi Survivor verwendet FSR 2.0 laut Meta-Daten im den PAK-Files, also die älteste und laut Tests auch die schlechteste Variante.

Der DLSS2/3-Mod von PureDark (https://www.patreon.com/PureDark) ist m.W. noch immer Kostenpflichtig. Ich tippe darauf das er dies Hauptberuflich macht bei ~3600 Patrons mit min. 5€ pro Monat. Dies meine ich nicht als Vorwurf nur er hat ein sehr starkes Interesse die beste Qualität zu liefern. Das kommt dann natürlich den Nutzern zu Gute.

Wie sehr seitens der Spieleschmiede/Publisher Wert auf FSR2 gelegt wurde (und ich habe auch nicht gegen DLSS2/3/XeSS - es sollte nur einfach alles in guter Qualität umgesetzt sein) - sehen wir ja. Ob wir das dann als Voraussetzung nehmen um zu Vergleichen? Imho techn. Vergleichen und Schlussfolgerungen ziehen, find ich nicht. Rein Qualität und auch gern die Leistung vom Modder, geht sicher ...

Gast
2023-07-03, 07:29:14
Ich brauche diese Blindstudie nicht weil ich sie unfreiwillig durchgeführt habe bei Jedi Survivor. Da gibt/gab es einen Bug, dass das Spiel FSR automatisch aktivierte wenn man die Bildqualität nicht auf Epic hatte.

Wurde der nicht schon längst behoben?

Exxtreme
2023-07-03, 10:49:32
Wurde der nicht schon längst behoben?

Mag sein. Aber damals war der Bug nicht behoben. Und deshalb habe ich unfreiwillig einen Blindtest gemacht und mir ist das aufgefallen, dass da was nicht stimmt. Diese Upscaler haben halt ihre Grenzen. Auch DLSS2 ist nicht perfekt. In Elder Scrolls Online sehe ich auch sofort wenn es aktiv ist. Zum Glück ist das Spiel so genügsam, dass man es deaktivieren kann.

Ein sehr guter Showcase für Upscaler ist Diablo 4. Aber da ist der Content quasi perfekt für sowas.

Raff
2023-07-03, 10:52:11
Kurios ist, wenn das Upsampling bessere Ergebnisse erzielt als das spieleigene TAA. Das passiert in einigen UE4-Spielen (DLSS besser als TAA), aber auch in Overwatch 2. Letzteres bietet kurioserweise kein TAA, aber FSR 2.2, sodass es mit Letzterem besser läuft und besser aussieht ...

MfG
Raff

Exxtreme
2023-07-03, 11:06:12
Kurios ist, wenn das Upsampling bessere Ergebnisse erzielt als das spieleigene TAA. Das passiert in einigen UE4-Spielen (DLSS besser als TAA), aber auch in Overwatch 2. Letzteres bietet kurioserweise kein TAA, aber FSR 2.2, sodass es mit Letzterem besser läuft und besser aussieht ...

MfG
Raff

TAA ist leider weit weg von gut zu sein und hat die gleichen Schwächen wie FSR2/DLSS2. TAA hat aber idR. ein sehr gutes Preis-/Leistungsverhältnis und deshalb ist das so beliebt. Ist quasi der Nachfolger von FXAA. FSR2/DLSS2 haben noch den Vorteil, dass sie Content dazuerfinden können, TAA macht das AFAIR nicht. Und das macht den Unterschied. Man bekommt falschen Content, der aber besser aussehen kann.

Troyan
2023-07-03, 11:18:46
Natürlich erfindet TAA auch "Content", da es temporär arbeitet und somit mehr Informationen zur Verfügung hat als spartiale Techniken.

Gast
2023-07-03, 11:58:16
Letzteres bietet kurioserweise kein TAA, aber FSR 2.2, sodass es mit Letzterem besser läuft und besser aussieht ...



Seit wann? Soweit ich mich erinnern kann gibt es in Overwatch nur FSR 1.0.

Gast
2023-07-03, 12:00:36
FSR2/DLSS2 haben noch den Vorteil, dass sie Content dazuerfinden können, TAA macht das AFAIR nicht.


FSR2 erfindet definitiv keinen Content, es ist lediglich wesentlich aggressiver in der Nutzung der History gegenüber den meisten TAA-Implementierungen.

Gast
2023-07-03, 12:01:15
Natürlich erfindet TAA auch "Content", da es temporär arbeitet und somit mehr Informationen zur Verfügung hat als spartiale Techniken.

TAA erfindet keinen Content, es merkt sich Content.

Exxtreme
2023-07-03, 13:18:29
Natürlich erfindet TAA auch "Content", da es temporär arbeitet und somit mehr Informationen zur Verfügung hat als spartiale Techniken.

Es arbeitet nicht temporär sondern temporal. Die Wörter klingen zwar ähnlich, haben aber komplett unterschiedliche Bedeutung.

Und nein, TAA erfindet keinen Content sondern nimmt bereits bestehenden Content aus vergangenen Bildern. Und das zieht zwei Probleme nach sich:

1. Content, den man wiederverwenden will, muss auch da sein. Und das ist öfter halt nicht der Fall. Sowas wie blinkende Leuchtreklamen sorgen dafür, dass Content mal da ist und mal nicht etc. Ich glaube, das ist der Punkt wo DLSS2 ggü. FSR2 und TAA punkten kann. Denn DLSS2 kann Content erfinden, der nicht da ist. Ist zwar nicht exakt aber womöglich viel besser als nichts.

2. Man muss den Content, den man wiederverwerten kann auch als solchen erkennen. Und das ist vieles aber definitiv nicht trivial. Schnelle Kameraschwenks oder Transparenzeffekte/Nebel oder sowas wie Leuchtreklamen, die ständig an- und ausgehen, bringen TAA/DLSS2/FSR2 schnell an die Grenzen. Und hier kann es auch schnell Geschmiere geben oder es wird gar nicht geglättet. Es ist aber auch gleichzeitig so: hohe Grund-FPS helfen sehr da mit hohen FPS die Unterschiede zwischen dem aktuellen und den vergangenen Bildern viel kleiner werden. Und dann ist es einfacher Content zur Wiederverwertung zu erkennen.

Edit: Und aus dem letzten Punkt ergibt sich eine interessante Konsequenz: ist man im CPU-Limit dann sind diese Upscaler ziemlich kontraproduktiv da sie die Bildqualität eher senken werden. Da ist klassisches Antialiasing eher besser.

Raff
2023-07-03, 13:20:34
Seit wann? Soweit ich mich erinnern kann gibt es in Overwatch nur FSR 1.0.

Keine Ahnung. Ich habe das am Wochenende das erste Mal gespielt und dort fand ich neben FSR 1.0 auch 2.2 (kein DLSS, kein XeSS, nicht mal TAA). Das dürfte ziemlich neu sein.

MfG
Raff

Oliver_M.D
2023-07-03, 17:13:33
Nachfolger von FXAAEs ist zwar völlig unwichtig, aber ist TAA nicht der Nachfolger von (T)SMAA? Und wäre SMAA nicht der Nachfolger von FXAA?dort fand ich neben FSR 1.0 auch 2.2Overwatch hat endlich was besseres als FSR 1? Wurde auch langsam zeit;D

aufkrawall
2023-07-03, 17:54:16
Keine Ahnung. Ich habe das am Wochenende das erste Mal gespielt und dort fand ich neben FSR 1.0 auch 2.2 (kein DLSS, kein XeSS, nicht mal TAA). Das dürfte ziemlich neu sein.

Jo, war vor wenigen Monaten noch nicht drin. Würde sagen, es sieht ok (nicht toll, nicht furchtbar) aus. Diese ganzen Effekte und Hologramme sind nicht einfach für TAAU, aber trotzdem wesentlich brauchbarer als in God of War (ebenfalls D3D11). Und sonst hat man halt gar kein TAA. TSR high in Fortnite sieht aber imho besser aus.

Edit: Klingt so noch etwas zu negativ. Ist unterm Strich imho eine sehr gute Implementierung mit deutlichem Mehrwert. Hoffentlich kommt das auch noch für Diablo 2R.

Gymnopédies
2023-07-11, 15:15:16
Ich möchte gerade GOW mit meiner 4090 zocken, was ist denn das beste Setting in Verbindung mit DLSSTweaks bei God of War? Gibt es da irgendwo ein howto , sind ja dann doch einige Stellschrauben oder einfach Nativ ohne DLSS/DLAA und gut? ps. 55" 4K OLED

aufkrawall
2023-07-11, 17:36:37
Gibt den Bloom-Blug auch in TLOU, mit FSR 2 ist er weg:
https://abload.de/thumb/tlou-i_2023_07_11_16_ugiv2.png (https://abload.de/image.php?img=tlou-i_2023_07_11_16_ugiv2.png) https://abload.de/thumb/tlou-i_2023_07_11_16_uafgv.png (https://abload.de/image.php?img=tlou-i_2023_07_11_16_uafgv.png)

Auf Screenshots kommt nicht rüber, wie nervig das flackert.

Kurios: Die transparenten Texturen gehen auch mit DLSS so wie mit FSR 2 in Bewegung kaputt, wenn man native Auflösung statt Upsampling erzwingt:
https://abload.de/thumb/tlou-i_2023_07_11_16_mece9.png (https://abload.de/image.php?img=tlou-i_2023_07_11_16_mece9.png)

Deisi
2023-07-11, 17:53:58
Den Bloom Bug gibt es leider häufig, auch z.B. bei Jedi mit Mod oder Plague2. Nach meiner Beobachtung ist aber "statischer" Bloom also zb von Laternen etc nicht betroffen auch mit höherer Auflösung bzw DLAA wird das Problem minimiert.

Lurtz
2023-07-12, 15:53:26
Was war nochhmal der Nachteil von DLDSR in Verbindung mit DLSS?

Habs mal wieder verglichen und 2160p DLDSR DLSS Performance sieht auf den ersten Blick deutlich besser als 1440p native aus.

Platos
2023-07-12, 16:07:29
Gibt es denn einen Nachteil?

Sonst mal das DigitlaFoundry Video anschauen. Die demonstrieren dldsr sehr gut m.M.n.

https://youtu.be/c3voyiojWl4

robbitop
2023-07-12, 16:24:13
Was war nochhmal der Nachteil von DLDSR in Verbindung mit DLSS?

Habs mal wieder verglichen und 2160p DLDSR DLSS Performance sieht auf den ersten Blick deutlich besser als 1440p native aus.
Das beste Ergebnis erzielt wohl DLAA. Kann man mit dem dlss tweaker auch in Spielen forcieren.
Oben drauf kann man immer dsr/dldsr packen. Kostet halt Leistung aber ansonsten mMn keine Nachteile.

Platos
2023-07-12, 16:26:05
DLAA sieht besser aus wie DLDSR?

Der Nachteil ist halt, dass es nur in DLSS Titeln möglich ist.

aufkrawall
2023-07-12, 16:48:40
Was war nochhmal der Nachteil von DLDSR in Verbindung mit DLSS?

Mehr Unschärfe bei Disocclusion durch DLSS Performance sowie weniger scharfe Objektkanten oder manipuliert wirkende Bildbereiche durch DLDSR.
Wie üblich, stört es erst, nachdem es einmal klar aufgefallen ist.

DrFreaK666
2023-07-12, 16:50:11
Meistens stört es erst, wenn man die Bilder vergleicht. Ohne Vergleich dürfte es den Meisten nicht stören

Deisi
2023-07-12, 16:53:48
Und die Performance ist schlechter als mit DLAA. Seit das forcierbar ist, lohnt sich DLSS+DLDSR nicht mehr.

Ex3cut3r
2023-07-12, 17:22:40
Und die Performance ist schlechter als mit DLAA. Seit das forcierbar ist, lohnt sich DLSS+DLDSR nicht mehr.
+1

mit der DLSS Mod kann man jedem Spiel DLAA beibringen. Mir persönlich gefällt die 4K native Keule (31.5") + DLAA besser, als DLDSR + DLSS Q, B oder P. Bin eigentlich sogar der Meinung, dass DLSS Q Only auf 4K 31.5" das rundere Erlebnis aus FPS/HZ fluffigkeit + Bildqualität bietet. DLAA wohl eher mit Kombination FG im Zusammenspiel.

The_Invisible
2023-07-12, 17:47:32
Naja ich bin da zu faul dafür da rumzubasteln, die sollen DLAA einfach überall einbauen und fertig ;-)

robbitop
2023-07-12, 18:32:11
DLAA sieht besser aus wie DLDSR?

Der Nachteil ist halt, dass es nur in DLSS Titeln möglich ist.

Man muss es eingangslösungsnormiert betrachten. Bei gleicher Eingangsauflösung zB 4K mit DLAA vs 8K mit DLSS Performance mit DSR auf 4K.
Da soll DLAA mit dem richtigen Modell (abhängig vom Spiel) etwas besser aussehen.

Ex3cut3r
2023-07-12, 19:00:27
Naja ich bin da zu faul dafür da rumzubasteln, die sollen DLAA einfach überall einbauen und fertig ;-)
Die DLSS Mod, hat nicht nur den Vorteil, dass man DLAA freischalten kann, sondern auch die Preset Wahl ist ein immenser Vorteil. Viele Spiele benutzen (ältere) vollkommen veraltete DLLs mit Steinzeit A oder B Presets.

Da lohnt es sich mal seine "Bierwampe" in Bewegung zu setzen, bzw. ein paar Klicks hier und da zu setzen.

Platos
2023-07-12, 19:23:46
mit der DLSS Mod kann man jedem Spiel DLAA beibringen.

Nein, nicht jedem Spiel. Nur Spiele, die DLSS haben.

Man muss es eingangslösungsnormiert betrachten. Bei gleicher Eingangsauflösung zB 4K mit DLAA vs 8K mit DLSS Performance mit DSR auf 4K.
Da soll DLAA mit dem richtigen Modell (abhängig vom Spiel) etwas besser aussehen.

Aber was interessiert mich da, was reingeht?

Mich interessiert nur, was hinten dabei raus kommt und wie viel es dabei an Perfomance kostet.

Ex3cut3r
2023-07-12, 19:42:22
Dachte das wäre im 3DCenter als Voraussetzung natürlich klar. X-D

Obwohl die Modder kriegen da erstaunlich viel hin. Resident Evil 4 2023 DLSS Mod oder die DLSS 2/FG Mod von Jedi Survivor sind ziemlich gut. Sogar DLAA ist freischaltbar.

robbitop
2023-07-12, 19:46:53
Aber was interessiert mich da, was reingeht?

Mich interessiert nur, was hinten dabei raus kommt und wie viel es dabei an Perfomance kostet.

Naja DLAA ist billiger (weil Postprocessing nur in nativer Auflösung geschieht) und sieht besser aus. Aber man kann natürlich on top noch DL/DSR machen.

Ex3cut3r
2023-07-12, 20:04:27
DLAA vs DLSS Q

Vor allem der FPS Gewinn ist ziemlich krank, das ist so, als man aus einer 3080 Ti eine 4080 Ti (oder ähnliches machen wurde) +60% mehr FPS

Die Bildqualität ist absolut gleichwertig mit Q. DLAA erscheint mir in diesem Spiel, ziemlich belanglos zu sein. (Merkwürdigerweise)

Beim VRAM spart man auch einiges, fast 1GB weniger Verbrauch (VRAM2 = wirklich belegter Speicher vom Spiel)

Achja, dass TAA schliert/Ghostet mehr, als das reingemoddte DLSS, kein Scherz X-D
Dafür gibt es leider Bloom Flickering. Kann man umgehen, indem man es in den Spiel-Optionen ausmacht, allerdings sieht Feuer dann etwas flach aus.

https://abload.de/thumb/re4_2023_07_12_20_00_ggfgv.jpg (https://abload.de/image.php?img=re4_2023_07_12_20_00_ggfgv.jpg) https://abload.de/thumb/re4_2023_07_12_20_00_t6iia.jpg (https://abload.de/image.php?img=re4_2023_07_12_20_00_t6iia.jpg) https://abload.de/thumb/re4_2023_07_12_20_01_ativj.jpg (https://abload.de/image.php?img=re4_2023_07_12_20_01_ativj.jpg) https://abload.de/thumb/re4_2023_07_12_20_01_vse1s.jpg (https://abload.de/image.php?img=re4_2023_07_12_20_01_vse1s.jpg)

Platos
2023-07-12, 20:30:51
Naja DLAA ist billiger (weil Postprocessing nur in nativer Auflösung geschieht) und sieht besser aus. Aber man kann natürlich on top noch DL/DSR machen.

Also DLAA ist ~ gleichwertig mit DLDSR 2.25x, kostet aber viel weniger Perfomance? Oder DLAA ist schlechter, bietet dafür aber ein besseres Verhältnis von Optik zu benötigter Perfomance?

Ich habe DLAA bisher nie in aktion gesehen bzw. nie aktiv aktiviert (vlt. war es ja einfach schon irgendwo aktiviert).

Edit: Aber DLAA ist doch "nur" ein (gutes) Kantenglättungsverfahren, oder?

DLAA vs DLSS Q

Vor allem der FPS Gewinn ist ziemlich krank, das ist so, als man aus einer 3080 Ti eine 4080 Ti (oder ähnliches machen wurde) +60% mehr FPS

Die Bildqualität ist absolut gleichwertig mit Q. DLAA erscheint mir in diesem Spiel, ziemlich belanglos zu sein. (Merkwürdigerweise)

Beim VRAM spart man auch einiges, fast 1GB weniger Verbrauch (VRAM2 = wirklich belegter Speicher vom Spiel)

Achja, dass TAA schliert/Ghostet mehr, als das reingemoddte DLSS, kein Scherz X-D
Dafür gibt es leider Bloom Flickering. Kann man umgehen, indem man es in den Spiel-Optionen ausmacht, allerdings sieht Feuer dann etwas flach aus.

https://abload.de/thumb/re4_2023_07_12_20_00_ggfgv.jpg (https://abload.de/image.php?img=re4_2023_07_12_20_00_ggfgv.jpg) https://abload.de/thumb/re4_2023_07_12_20_00_t6iia.jpg (https://abload.de/image.php?img=re4_2023_07_12_20_00_t6iia.jpg) https://abload.de/thumb/re4_2023_07_12_20_01_ativj.jpg (https://abload.de/image.php?img=re4_2023_07_12_20_01_ativj.jpg) https://abload.de/thumb/re4_2023_07_12_20_01_vse1s.jpg (https://abload.de/image.php?img=re4_2023_07_12_20_01_vse1s.jpg)

Das ist dann wohl einer der Fälle, wo ich keinen grossen Unterschied sehe.... WO muss ich denn da hinschauen?

Blöd ist, dass man bei abload kein Fullscreen machen kann ?

Also ich nehme an, das eine ist DLSS und das andere DLAA ohne DLSS ? Dass DLSS also mehr perfomance liefert, ist doch klar. DLAA wäre dann ja Nativ + Kantenglättung und das braucht natürlich mehr wie DLSS.

Jupiter
2023-07-12, 20:36:18
UHD DLSS Performance sah bei mir in Tests besser als DLAA 1080p aus.

Ex3cut3r
2023-07-12, 20:44:58
Blöd ist, dass man bei abload kein Fullscreen machen kann ?


Mein Freund. Einfach Rechtsklick aufs Bild machen und in einem neuen Tab öffnen für beide Bilder, dann hin-und-herschalten zwischen den Bildern im Browser. :biggrin:

Darkman.X
2023-07-12, 22:03:04
Da lohnt es sich mal seine "Bierwampe" in Bewegung zu setzen, bzw. ein paar Klicks hier und da zu setzen.

Wenn es so einfach wäre. Man muss ja auch noch herausfinden, welches Preset denn am besten aussieht bzw. den besten Kompromiss darstellt. Und da man das Preset im Spiel nicht on-the-fly ändern kann (vermute ich mal), sind Vergleiche auch nicht so leicht. Also muss ich auch noch Screenshots zum Vergleichen anlegen, wobei Screenshots nicht ausreichend sind, weil auch der Eindruck in Bewegung wichtig ist. usw. usw.

Wie es schon mal einige geschrieben hatten: Es ist eine Bastellösung, wenn man das beste herausholen möchte. Es bräuchte eine Liste wie damals mit den Kompatibilitäts-Bits für OG-/SGSSAA und HBAO+. Aber darauf hat verständlicherweise auch keiner Bock ;)

Ex3cut3r
2023-07-12, 22:18:57
F ist das beste im großen und ganzen. Wenn man Ghosting sieht, kann man C oder D probieren. Das ist IMHO alles. Man kann natürlich aus allem eine Wissenschaft machen.

aufkrawall
2023-07-12, 22:38:22
F ist das beste im großen und ganzen.
Damit flimmert in HZD der Dschungel in 1440p mit Quality mehr als mit der FSR 2 Mod.

Lurtz
2023-07-12, 22:54:55
In Returnal fand ich C letztendlich auch besser als F. Temporal teils deutlich stabiler.

Glaube einfach überall 2.5.1 reinzuklatschen ist der beste Weg :D

Exxtreme
2023-07-12, 22:56:23
Glaube einfach überall 2.5.1 reinzuklatschen ist der beste Weg :D

Geht in MMORPGs leider nicht da das als Cheat erkannt werden könnte. ;(

Ex3cut3r
2023-07-12, 22:59:28
Mit der DLSS Mod vlt. nicht, weil damit tauscht du die DLL nicht im Spieleinstallionsverzeichnis aus, sondern kopierst die DLL z.B. in den Dokumenten Ordner und überschreibst dann mit dem DLSS Tools den Pfad. Aber ausprobiert habe ich das auch noch nicht. ^^

Eigene Gefahr also.

Lurtz
2023-07-12, 23:03:38
Mit der DLSS Mod vlt. nicht, weil damit tauscht du die DLL nicht im Spieleinstallionsverzeichnis aus, sondern kopierst die DLL z.B. in den Dokumenten Ordner und überschreibst dann mit dem DLSS Tools den Pfad. Aber ausprobiert habe ich das auch noch nicht. ^^

Eigene Gefahr also.
Das Spiel "sieht" aber dennoch eine andere DLL und könnte von Manipulation ausgehen, oder?

aufkrawall
2023-07-12, 23:03:38
Geht in MMORPGs leider nicht da das als Cheat erkannt werden könnte. ;(
Wenn EAC/BE das Laden der DLL zulassen, sollte es safe sein. Anders als DLSSTweaks, ist die Portal 2.5.1 DLL ja mit gültiger Signatur von Nvidia.
Funktioniert jedenfalls in Fortnite (wenn auch leicht nachgeholfen durch zusätzliches Kopieren ins Hauptverzeichnis).

Exxtreme
2023-07-12, 23:08:27
Wenn EAC/BE das Laden der DLL zulassen, sollte es safe sein. Anders als DLSSTweaks, ist die Portal 2.5.1 DLL ja mit gültiger Signatur von Nvidia.
Funktioniert jedenfalls in Fortnite (wenn auch leicht nachgeholfen durch zusätzliches Kopieren ins Hauptverzeichnis).

Das Problem ist, keiner weiss so richtig wie die Cheaterkennung funktioniert. Wenn sie einen Hash der DLL prüfen dann helfen gültige Signaturen leider nicht wirklich. :(

aufkrawall
2023-07-12, 23:14:28
Ich wurde in hunderten Stunden Fortnite mit ausgetauschter DLSS-DLL jedenfalls nicht gebannt.
Hatte es zum Schluss mit der 3060 nur sein gelassen, weil mir in dem Fall mittlerweile TSR eher zusagt. :biggrin:

Gast
2023-07-13, 00:47:54
Ich wurde in hunderten Stunden Fortnite mit ausgetauschter DLSS-DLL jedenfalls nicht gebannt.
Hatte es zum Schluss mit der 3060 nur sein gelassen, weil mir in dem Fall mittlerweile TSR eher zusagt. :biggrin:
mag dir vielleicht so vorkommen, ist aber wieder nicht die Wahrheit. Genau wie die Situation mit FSR als du es so gelobt hast und dann zurück rudern musstest...
https://www.youtube.com/watch?v=HxxGyoCiIxM

Hier ein Vergleich zwischen DLSS und TSR, gleiche Settings.

Ignorier was der Herr in dem Video sagt, pausiere einfach wann du willst und vergleiche. DLSS ist noch deutlich vorne und schneller.

Gast
2023-07-13, 00:51:40
Ich wurde in hunderten Stunden Fortnite mit ausgetauschter DLSS-DLL jedenfalls nicht gebannt.
Hatte es zum Schluss mit der 3060 nur sein gelassen, weil mir in dem Fall mittlerweile TSR eher zusagt. :biggrin:
ich weiß nicht wie du auf solche behauptungen kommst

DLSS ist noch Meilen weit voraus

https://abload.de/img/dlssvstsr9qdcf.jpg

Gast
2023-07-13, 00:57:56
Ich wurde in hunderten Stunden Fortnite mit ausgetauschter DLSS-DLL jedenfalls nicht gebannt.
Hatte es zum Schluss mit der 3060 nur sein gelassen, weil mir in dem Fall mittlerweile TSR eher zusagt. :biggrin:
Hier noch ein schöner Vergleich von DLSS und TSR, also da sind Welten dazwischen.
https://abload.de/img/dlssvstsr_2ajikt.jpg

robbitop
2023-07-13, 08:10:43
Also DLAA ist ~ gleichwertig mit DLDSR 2.25x, kostet aber viel weniger Perfomance? Oder DLAA ist schlechter, bietet dafür aber ein besseres Verhältnis von Optik zu benötigter Perfomance?

Mir ist nicht klar was du da vergleichen willst. In deinem obigen Satz liest es sich als wenn du DLAA mit DLDSR (also ohne DLSS) vergleichen würdest. Wenn das so ist, ist DLAA überlegen.
Wenn du DL/DSR (DL gibt es nur für ungerade Faktoren) mit DLSS kombinierst und die Inputresolution für DLSS höher ist als nativ könnte (muss man prüfen) DLDSR leicht besser aussehen. Ultimativ wäre DLAA mit DL/DSR kombiniert. DLSS und DLAA sind im Prinzip das gleiche Verfahren nur dass du mit DLSS Performance sparst weil du eine kleinere Auflösung aufbläst. DLAA reduziert die inputresolution nicht sondern nutzt sein Verfahren rein für AA Zwecke.

robbitop
2023-07-13, 08:13:01
UHD DLSS Performance sah bei mir in Tests besser als DLAA 1080p aus.

Auf einem 1080p screen wo UHD dann gedownsamplet wurde? (weil nur dann macht der Vergleich Sinn).
Kommt super duper auf die dll und das gewählte preset an. Wenn das richtige preset im dlss tweaker gewählt wurde sollte das nicht so sein

robbitop
2023-07-13, 08:16:53
Wenn es so einfach wäre. Man muss ja auch noch herausfinden, welches Preset denn am besten aussieht bzw. den besten Kompromiss darstellt. Und da man das Preset im Spiel nicht on-the-fly ändern kann (vermute ich mal), sind Vergleiche auch nicht so leicht. Also muss ich auch noch Screenshots zum Vergleichen anlegen, wobei Screenshots nicht ausreichend sind, weil auch der Eindruck in Bewegung wichtig ist. usw. usw.

Wie es schon mal einige geschrieben hatten: Es ist eine Bastellösung, wenn man das beste herausholen möchte. Es bräuchte eine Liste wie damals mit den Kompatibilitäts-Bits für OG-/SGSSAA und HBAO+. Aber darauf hat verständlicherweise auch keiner Bock ;)

Ach das sind in der Regel 2 Presets die in Frage kommen. Oder fix aufkrawall fragen. Ich fange immer mit F an und bleibe meist dabei. Besser als das default preset wars bei mir bis dato immer.

robbitop
2023-07-13, 08:19:11
Hier noch ein schöner Vergleich von DLSS und TSR, also da sind Welten dazwischen.
https://abload.de/img/dlssvstsr_2ajikt.jpg

Hast du TSR „Epic“ gewählt? Welcher Reduktionsfaktor und welche Auflösung? Bei DLSS der gleiche Reduktionsfaktor? Welche dll und welches Preset? :)

P.S.
deine Beiträge sieht man als Gast nicht bevor sie jemand freischaltet (hab ich eben gemacht). Entsprechend können die potenziell untergehen wenn das kein mod macht. Ich empfehle eine Anmeldung bei uns im Forum. Dauert 2 Minuten ;)

Gast
2023-07-13, 09:03:59
Hast du TSR „Epic“ gewählt? Welcher Reduktionsfaktor und welche Auflösung? Bei DLSS der gleiche Reduktionsfaktor? Welche dll und welches Preset? :)

P.S.
deine Beiträge sieht man als Gast nicht bevor sie jemand freischaltet (hab ich eben gemacht). Entsprechend können die potenziell untergehen wenn das kein mod macht. Ich empfehle eine Anmeldung bei uns im Forum. Dauert 2 Minuten ;)
ich habe nichts ausgewählt, ist das video was oben verlinkt wurde.

Gast
2023-07-13, 09:07:34
Hast du TSR „Epic“ gewählt? Welcher Reduktionsfaktor und welche Auflösung? Bei DLSS der gleiche Reduktionsfaktor? Welche dll und welches Preset? :)

P.S.
deine Beiträge sieht man als Gast nicht bevor sie jemand freischaltet (hab ich eben gemacht). Entsprechend können die potenziell untergehen wenn das kein mod macht. Ich empfehle eine Anmeldung bei uns im Forum. Dauert 2 Minuten ;)
unter dem video schrieb der Autor:

Video settings were:
AA: dlss
Preset: balanced
3D resolution: 57%
Dynamic 3D resolution: off

AA: tsr epic
temporal super resolution preset: recommended
3D resolution: 50%
Dynamic 3D resolution: off

aufkrawall
2023-07-13, 12:35:19
Sich bewegende Objekte sehen mit DLSS auf Distanz grottenschlecht unscharf vs. TSR aus, mehr gibts da bei einem MP-Shooter eigentlich nicht zu sagen.

TheAntitheist
2023-07-13, 13:09:57
In dem Video sieht DLSS viel besser aus, in jeder Hinsicht. ich denke die 7% mehr Resolution würden nicht viel ändern, vom Speed sollte es ca. gleich sein. DLSS ist wirklich sehr viel weiter entwickelt. in DIESEM Video. wir kennen nicht die DLSS und TSR Version, aber TSR ist ja anscheinend Epic also mehr Qualität gibt es nicht

Ex3cut3r
2023-07-13, 13:13:41
YouTube als Qualitätsvergleich ist nicht optimal. Da stark komprimiert. Das Video von oben, ist sogar eines der besseren, aber auch dort werden Details garantiert verschluckt.

aufkrawall
2023-07-13, 13:14:13
Wer Ahnung hat, würde kapieren, dass animierte Effekte und sich bewegende Objekte nicht das Gleiche sind. Mag das Weichspülen bei ersteren noch viel besser sein (ist es auch, sag ich selbst ständig...), sieht das bei sich bewegenden Objekten dann gerne mal so aus:
https://abload.de/thumb/skyrimse_2022_12_30_16rcl8.png (https://abload.de/image.php?img=skyrimse_2022_12_30_16rcl8.png)

Kann ja jeder für sich selbst anders abwägen. Aber so zu tun, als hätte DLSS keine eklatanten Schwächen, ist lächerlich. Kann ich nicht ernstnehmen.
Manche Leute spielen Warzone sogar lieber mit dem kaputten FSR 2, weil das insbesondere mit dem vom Entwickler gewählten DLSS Preset A komplett unerträglich ist...

TheAntitheist
2023-07-13, 13:19:05
Entfernte Objekte flimmern also bei DLSS und TSR nicht, dann gucken wir uns das mal an.
https://abload.de/thumb/dlssvstsr_36he23.jpg (https://abload.de/image.php?img=dlssvstsr_36he23.jpg)
der Background hat Artefakte und diese schwebenden Steine sind ja kaum noch mit TSR zu erkennen, ja das flimmert vielleicht weniger weil es nur noch Matsche ist... sehr gute Argumente

Oder mal wie das Spiel aussieht bei schnellen Kamerabewegungen, was ja schon relativ oft vor kommt
https://abload.de/thumb/dlssvstsr_4u5ey7.jpg (https://abload.de/image.php?img=dlssvstsr_4u5ey7.jpg)

ganz klar TSR nicht zu gebrauchen.

Also aufkrawall mal wieder, wie bei FSR 2, komplett daneben : )
macht dir nix drauß, passiert den besten, dir nur zu oft :P

aufkrawall
2023-07-13, 13:21:23
Entfernte Objekte flimmern also bei DLSS
Was stimmt mit deiner Lesekompetenz nicht?
Sich bewegende Objekte sehen mit DLSS auf Distanz grottenschlecht unscharf
Das ist das Gegenteil von Flimmern, nur auch nicht im Guten. Meine Fresse...

Gast
2023-07-13, 13:32:01
Das Hier immer wieder herangezogene Vergleichsvideo ist vom Februar, war das Update mit den TSR-Verbesserungen in Fortnite damals überhaupt schon veröffentlicht?

Gast
2023-07-13, 13:43:57
Was stimmt mit deiner Lesekompetenz nicht?

Das ist das Gegenteil von Flimmern, nur auch nicht im Guten. Meine Fresse...

Naja schon, unscharf ist 1000x besser als flimmern.

Gast
2023-07-13, 13:44:59
Aber so zu tun, als hätte DLSS keine eklatanten Schwächen, ist lächerlich. Kann ich nicht ernstnehmen.



Ohne das Wort eklatant hätte man dich sogar ernst nehmen können.

DLSS hat schwächen ja, aber wer diese als eklatant bezeichnet ist nicht ernstzunehmen.

Gast
2023-07-13, 13:46:06
Hier noch ein schöner Vergleich von DLSS und TSR, also da sind Welten dazwischen.
https://abload.de/img/dlssvstsr_2ajikt.jpg


Die Aussage stimmt zwar prinzipiell, aber schon lustig, wie alle über "Bildqualität" diskutieren, bei einem Spiel das dermaßen beschiessen aussieht.

Raff
2023-07-13, 16:06:54
Jagged Alliance 3 startet mit FSR 2, DLSS 2, XeSS, FXAA und SMAA. (https://www.pcgameshardware.de/Jagged-Alliance-3-Spiel-8158/Specials/Review-Test-Release-Hands-on-1424271/#a5)

Besonders krass ist der Vergleich von 1080p mit 33 Prozent interner Auflösung (https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1424271&page=1&draft=-1&rank=3). Beeindruckend, was die modernen Verfahren bei so wenigen Pixeln herausholen, speziell DLSS.

MfG
Raff

aufkrawall
2023-07-13, 16:16:39
Ohne das Wort eklatant hätte man dich sogar ernst nehmen können.

DLSS hat schwächen ja, aber wer diese als eklatant bezeichnet ist nicht ernstzunehmen.
Klar, schlechter erkennbare Gegner auf Distanz sind hinnehmbar in einem BR-Shooter. Das ergibt auch nur mit dickem Fanboy-Brett vorm Kopf Sinn. ;D
DLSS war hier mal deutlich besser als das UE-TAA, hat sich dahingehend aber null weiterentwickelt. Stimmt leider, auch wenns die Fanboy-Seele schmerzt...

Gast
2023-07-13, 18:20:15
Klar, schlechter erkennbare Gegner auf Distanz sind hinnehmbar in einem BR-Shooter.


Wenn das ein Qualitätskriterium wäre, dann wäre gar kein AA meilenweit vorne.

Am besten kann man kleine weit entfernte Objekte nämlich dann wahrnehmen wenn sie durchs Pixelraster fallen und damit wunderschön flimmern.

Jede Form von AA verwischt in irgendeiner Form Pixelübergänge und macht diese damit gegenüber keinem AA schlechter sichtbar.

DLSS ist aktuell die Technik, die den Spagat zwischen keinem Flimmern und möglichst geringer Unschärfe am besten hinbekommt, und das mit Abstand.

Und flimmern ist deutlich störender als ein wenig Unschärfe, die bei allen nicht OLED-Besitzern sowieso im LCD-Geschmiere untergeht.

Oliver_M.D
2023-07-13, 19:09:13
Jagged Alliance 3 startet mit FSR 2, DLSS 2, XeSS, FXAA und SMAA. (https://www.pcgameshardware.de/Jagged-Alliance-3-Spiel-8158/Specials/Review-Test-Release-Hands-on-1424271/#a5)
Super, vielen Dank für die erfreuliche Nachricht! Das gibt mir noch einen weiteren Grund, mich auf morgen zu freuen!:D

Achill
2023-07-14, 10:45:58
Imho, ein wunderschönes Beispiel für Manipulation ...

Wenn das ein Qualitätskriterium wäre, dann wäre gar kein AA meilenweit vorne.

Am besten kann man kleine weit entfernte Objekte nämlich dann wahrnehmen wenn sie durchs Pixelraster fallen und damit wunderschön flimmern.


Es wird eine Verbindung mit den Lesern aufgebaut, sehr viele Gamer stört Flimmern. Es eignet sich also um sich Teil dieser Gruppe zu machen ohne das man den "Gast" kennt noch das "Flimmern" immer ein Problem von AA ist - dafür gibt es zu viele Arten von Flimmern und die obere Aussage ist zu ungenau (was aber ggf. gewünscht ist um möglichst viele Leute zu inkludieren).


Jede Form von AA verwischt in irgendeiner Form Pixelübergänge und macht diese damit gegenüber keinem AA schlechter sichtbar.


Hier beginnt "Gast" mit falschen Aussagen und beginnt den Leser in eine gewünschte Richtung zu leiten, dies passiert gleich nachdem er im Satz davor vielleicht erfolgreich Verbundenheit aufgebaut hat und so werden die nicht immer wahren oder einfach unklaren Aussagen ggf. nicht wahrgenommen, weil er hatte ja "recht" im Satz davor zum Flimmern.

Falsche Aussagen:

- "Jede Form [..]"
=> Keine Einschränkung bei den AA Verfahren, klassisches SSAA inkludiert anteilig Polygone/Informationen die ohne AA nicht berücksichtig worden wären, es gibt kein "Verwischen" und auch keine "Unschärfe" mit diesen Verfahren

- "[..] verwischt in irgendeiner Form Pixelübergänge [..]"
=> Verwischt kann alles oder nichts bedeuten, damit ist die Aussage in sich schon unklar
=> "in irgendeiner Form" inkludiert auch gar kein verwischen ... ist das ein Pro- oder Contra-Argument?

- "[..] und macht diese damit gegenüber keinem AA schlechter sichtbar."
=> Da dies eine Folgerung aus den zwei Punkten im Teilsatz davor ist, und diese unklar / falsch / eingeschränkt wahr sind, muss diese nicht immer wahr sein


DLSS ist aktuell die Technik, die den Spagat zwischen keinem Flimmern und möglichst geringer Unschärfe am besten hinbekommt, und das mit Abstand.

Und flimmern ist deutlich störender als ein wenig Unschärfe, die bei allen nicht OLED-Besitzern sowieso im LCD-Geschmiere untergeht.


Jetzt kommt der manipulative Teil, die gewünschte Richtung in die gelenkt werden soll .. "DLSS"

"DLSS ist aktuell die Technik [..]"
=> Es wird der Leser geankert (https://de.wikipedia.org/wiki/Ankereffekt) indem:

"[..] die den Spagat zwischen keinem Flimmern und möglichst geringer Unschärfe [..]"
=> Es wird eingeräumt, dass beides nicht optimal erreicht wird => Das wissen alle, man kann nicht etwas anderes Behaupten ohne Glaubwürdigkeit und damit das aufgebautes Vertrauen zum Leser zu verlieren. Man kann es aber als Verstärkung nutzen weil man etwas "Richtiges" sagt.
=> Es wird nichts gesagt (quantitativ noch qualitativ) über das Verhältnis des Spagat=> Dies ist clever, damit lässt man sich die Option offen, je nach Situation für das eine oder andere zu argumentieren bzw. stärker zu gewichten.

"[..] am besten hinbekommt [..]"
=> Dies ist jetzt einfach eine Behauptung die stimmen kann aber nicht muss. Vertraut man Text des Gasts bis jetzt akzeptiert man ggf. seine Schlussfolgerung und damit seine Manipulation / Meinung ohne Faktenbasis.

"[..] und das mit Abstand. [..]"
=> Es folgt die Verstärkung des Ankers, das was überhaupt (Flimmern?, Verwischen?, Unschärfe?, Was ganz anderes?) wird offen gelassen, genauso das wieviel (qualitativ and quantitativ)
=> Es wird nicht gesagt mit was es verglichen wird (kein AA, TAA, FXAA, SSAA oder ist evtl. FSR2 oder XeSS gemeint) => Clever, es kann hier kein AA gemeint werden (falls der Gast gefragt werden würde) aber sofern die Meinung so vom Leser entsprechend dies akzeptiert, kann man es an andere Stelle dann als Argument in einen anderen aber ähnlichen Kontext nutzen - wie XeSS/FSR2 Vergleiche.

"[..] Und flimmern ist deutlich störender als ein wenig Unschärfe, die bei allen nicht OLED-Besitzern sowieso im LCD-Geschmiere untergeht."
=> Der vorher Aufgebaute "Spagat" wird relativiert, indem die Präferenz auf Flimmern und nicht auf Unschärfe zu legen ist
=> Am Ende, wenn die vorherige Idee vom Leser schon akzeptiert wurde, wird relativiert und eine weitere Idee platziert, dass wenn ein AA (wie DLSS) Unschärfe erzeugen würde (was es macht), man es (angeblich) bei "OLED-[..] (und) LCD-Geschmiere untergeht."

Exxtreme
2023-07-14, 10:57:51
Wenn das ein Qualitätskriterium wäre, dann wäre gar kein AA meilenweit vorne.

Am besten kann man kleine weit entfernte Objekte nämlich dann wahrnehmen wenn sie durchs Pixelraster fallen und damit wunderschön flimmern.


Das würde nur dann zutreffen wenn der Rest des Bildes nicht flimmern würde. Und das ist bei Computerspielen in aller Regel nicht der Fall. Ohne AA flimmert quasi alles. Ausnahmen wären primitivste Grafik ohne Texturen ala 3D-Spiele für den Amiga 500.


Jede Form von AA verwischt in irgendeiner Form Pixelübergänge und macht diese damit gegenüber keinem AA schlechter sichtbar.


Nein, das stimmt auch nicht. Die Pixelübergänge werden zwar verwischt. Aber ein Bild mit Antialiasing enthält mehr Informationen als ein Bild ohne AA. Und dieses Mehr an Informationen ist ein Vorteil. Denn Aliasing hat das Potential zu viel Informationen zu entfernen, sodass man bei Objekten nicht mehr erkennen kann was sie sind. Könnte ein feindlicher Spieler sein, könnte aber ein Busch sein. Mit Antialiasing steigt die Wahrscheinlichkeit, dass das unterscheidbar ist.


DLSS ist aktuell die Technik, die den Spagat zwischen keinem Flimmern und möglichst geringer Unschärfe am besten hinbekommt, und das mit Abstand.

Und flimmern ist deutlich störender als ein wenig Unschärfe, die bei allen nicht OLED-Besitzern sowieso im LCD-Geschmiere untergeht.

Hier ist klassisches Supersampling noch viel besser als DLSS. Nur ist das extrem teuer im Vergleich zu DLSS. DLSS ist offenbar ein sehr guter Kompromiss aus Bildqualität und Performance.

Gast
2023-07-14, 12:02:20
Das würde nur dann zutreffen wenn der Rest des Bildes nicht flimmern würde. Und das ist bei Computerspielen in aller Regel nicht der Fall. Ohne AA flimmert quasi alles. Ausnahmen wären primitivste Grafik ohne Texturen ala 3D-Spiele für den Amiga 500.



Im Normalfall nicht wirklich, innerhalb der Objekte gibt es dank Texturfilterung in der Regel kein flimmern. Ohne AA flimmern Objekte die übereinander liegen, und genau damit werden sie besser wahrnehmbar.


Nein, das stimmt auch nicht. Die Pixelübergänge werden zwar verwischt. Aber ein Bild mit Antialiasing enthält mehr Informationen als ein Bild ohne AA.


Was nichts daran ändert, dass dadurch der Kontrast und damit die wahrgenommene Bildschärfe sinkt.


Und dieses Mehr an Informationen ist ein Vorteil. Denn Aliasing hat das Potential zu viel Informationen zu entfernen, sodass man bei Objekten nicht mehr erkennen kann was sie sind. Könnte ein feindlicher Spieler sein, könnte aber ein Busch sein. Mit Antialiasing steigt die Wahrscheinlichkeit, dass das unterscheidbar ist.


Genau umgekehrt, fehlendes Antialiasing reduziert die Informationen auf das wesentliche, Antialiasing (auch TAA und DLSS) verwendet zwar mehr Informationen als Basis, vermischen diese aber in das limitierte Pixelraster.

Ohne Antialiasing wird genau das was sich bewegt, und das ist im allgemeinen das wesentliche, extrem gut sichtbar.

Das einzige was noch besser wäre, wären mehr echte Pixel.



Hier ist klassisches Supersampling noch viel besser als DLSS.


Nicht in realistisch anwendbaren Szenarien. Klassischem Supersampling fehlt die temporale Komponente und selbst mit unrealistischem 16x kann es bei weitem nicht die Bildruhe von DLSS erreichen.

aufkrawall
2023-07-14, 13:29:21
Und flimmern ist deutlich störender als ein wenig Unschärfe, die bei allen nicht OLED-Besitzern sowieso im LCD-Geschmiere untergeht.
Muss von der eingebauten Unschärfe-Resistenz bei einigen Usern kommen.

Im Normalfall nicht wirklich, innerhalb der Objekte gibt es dank Texturfilterung in der Regel kein flimmern.

Der war gut.


Nicht in realistisch anwendbaren Szenarien. Klassischem Supersampling fehlt die temporale Komponente und selbst mit unrealistischem 16x kann es bei weitem nicht die Bildruhe von DLSS erreichen.
In Bildausschnitt x. In y versagt es schon gegen anderes TAA/FSR 2 deutlich:
https://abload.de/thumb/deathloop_2022_05_23_0cjh4.png (https://abload.de/image.php?img=deathloop_2022_05_23_0cjh4.png)

Deisi
2023-07-14, 15:38:55
Jagged Alliance 3 nutzt tatsächlich von selbst verschiedene Presents. DLAA, Ultra Q und Ultra P nutzen F der Rest D.

aufkrawall
2023-07-14, 15:40:46
Interessant. Klingt bei CB auch nach dem Ghosting-Problem, das D ständig hat.

BlacKi
2023-08-02, 14:34:14
https://old.reddit.com/r/pcmasterrace/comments/158pmq5/we_knew_this_was_going_to_happen_eventually/
https://i.redd.it/rkt7wjwtqzdb1.jpg

ich finde das überhaupt nicht schlimm. zu dieser sogenannten optimierung gehört oft auch downgrading. ich kenne das aus pubg. ja pubg lief am anfang scheiße. ja es läuft jetzt wesentlich besser. aber es sieht auch wesentlich schlechter, speziell in der entfernung, aus.

wenn dlss dazu beiträgt, das spiele länger gut aussehen, dann stört mich das garnicht.

ich finde es nicht gut, das spiele so entwickelt werden, das sie möglichst auf ultra auf ner rotz mainstream karte laufen. ich würde es begrüßen wenn mehr spiele mit den sog. crysis anforderungen rauskämen. das man gewisse texturen oder features erst 1-2 jahre später aufdrehen kann, um dann nochmal ein grafikupdate zu erleben.

Lehdro
2023-08-02, 14:40:46
ich finde das überhaupt nicht schlimm.
[...]
wenn dlss dazu beiträgt, das spiele länger gut aussehen, dann stört mich das garnicht.

Oh mann.
Status jetzt = läuft nicht optimiert mit 45 fps und sieht im Vergleich zu den Hardwareanforderungen aus wie ein Haufen alter Kartoffeln
Status in Zukunft = läuft nicht optimiert mit 45 fps trotz aktivem DLSS und sieht im Vergleich zu den Hardwareanforderungen aus wie ein Haufen alter Kartoffeln über die jemand Vaseline geschüttet hat

Top :freak:

aufkrawall
2023-08-02, 14:56:58
Wenn ein Lizenznehmer der Engine Nanite oder Lumen nutzt, die ggf. extrem teuer in hoher Auflösung sind, was soll er machen? Die Features nicht nutzen und bei LastGen-Grafik bleiben?
(Ja, Remnant 2 sieht nicht gut aus. Es gibt aber trotzdem kein Geometrie-Geploppe.)

Lehdro
2023-08-02, 15:06:01
Wenn ein Lizenznehmer der Engine Nanite oder Lumen nutzt, die ggf. extrem teuer in hoher Auflösung sind, was soll er machen? Die Features nicht nutzen und bei LastGen-Grafik bleiben?

Nö, Crysis Systemanforderungen drauf schreiben. Aber da meckern dann die BWLer, weil TAM so klein wird.

Exxtreme
2023-08-02, 15:23:50
Wenn ein Lizenznehmer der Engine Nanite oder Lumen nutzt, die ggf. extrem teuer in hoher Auflösung sind, was soll er machen? Die Features nicht nutzen und bei LastGen-Grafik bleiben?
(Ja, Remnant 2 sieht nicht gut aus. Es gibt aber trotzdem kein Geometrie-Geploppe.)

Normalerweise werden solche Features benutzt um Kosten zu externalisieren. Ist das gleiche wie mit Browser-Engines auch. Eine standardkonforme Browser-Engine wäre praktisch unbrauchbar weil fast keine Website standardkonform mehr ist. Und warum ist das so? Weil die anderen Browser-Engines Fehlerkorrekturen haben und auch komplett kaputtes HTML trotzdem noch darstellen können. Auch hier hat man die Kosten, die es bedürfte eine standardkonforme Website zu erstellen externalisiert. Sprich, anstatt Mannwochen in Optimierung zu stecken aktiviert man einfach DLSS und spart sich die Kosten.

BlacKi
2023-08-02, 18:22:02
Oh mann.
Status jetzt = läuft nicht optimiert mit 45 fps und sieht im Vergleich zu den Hardwareanforderungen aus wie ein Haufen alter Kartoffeln
Status in Zukunft = läuft nicht optimiert mit 45 fps trotz aktivem DLSS und sieht im Vergleich zu den Hardwareanforderungen aus wie ein Haufen alter Kartoffeln über die jemand Vaseline geschüttet hat

Top :freak:ja, das ist die derzeitige unterstellung. aber ich sehe das nicht kommen. und was die frametimes angeht, da hilft dlss nicht viel weiter, das muss trotzdem optimiert werden.


ich sehe halt das gegenteil der fall, zb. in cyberpunk, wo das LoD so eingeschränkt wurde, das praktisch jede karte gute performance lieferte aber die großen karten die grafikeffekte dem optimierungsprozess zum opfer fallen.

Troyan
2023-08-05, 18:37:23
https://www.youtube.com/watch?v=2bteALBH2ew

Und jetzt einfach mal FSR 2 gegen "nativ" vergleichen.

Andi Y
2023-08-07, 13:59:22
Neue DLSS Versionen bei TP
NVIDIA DLSS DLL 3.1.30
https://www.techpowerup.com/download/nvidia-dlss-dll/

Relex
2023-08-07, 16:37:39
https://www.youtube.com/watch?v=2bteALBH2ew

Und jetzt einfach mal FSR 2 gegen "nativ" vergleichen.

Das Video zeigt ja bei "AI Generated" wirklich nur die generierten Zwischenbilder, um zu zeigen, welche Qualität die Zwischenbilder haben. Im realen Gameplay wechseln sich ja generiertes Bild und "echtes" Bild ständig ab.

Und trotz dieses rein theoretischen Vergleiches finde ich den Unterschied erstaunlich gering.

Das bestätigt auch meinen Bildeindruck, dass Frame Generation einen deutlich geringeren Einfluss (egal ob positiv oder negativ) auf die Bildqualität hat, als DLSS Superresolution.

Gast
2023-08-07, 22:02:56
Das bestätigt auch meinen Bildeindruck, dass Frame Generation einen deutlich geringeren Einfluss (egal ob positiv oder negativ) auf die Bildqualität hat, als DLSS Superresolution.

Dort wo sie sinnvoll ist, nämlich von 70-100 echten auf 140-200FPS hat sie sogar einen sehr positiven Einfluss auf die Bildqualität.

Eine Verbesserung der Bildqualiltät ist auch der einzige Grund für FG, die Spielbarkeit verbessert sich nämlich nicht, die wird sogar je nach Ausgangs-FPS etwas bis deutlich schlechter. Was sich aber enorm verbessert ist die Bewegtbildschärfe.

Relex
2023-08-08, 17:47:47
Dem würde ich teilweise widersprechen.

FG schwächelt erst ab 40-30 FPS hinsichtlich Artefakte und Smoothness. Alles darüber funktioniert problemlos.

Die Frage ist eben, ob einem die Latenz dann ausreicht.
Aber der Punkt ist, dass man darauf keinen Einfluss hat. Wenn die GPU leistung nur für 40 FPS reicht, dann hilft nur eine neue GPU oder niedrigere Settings.
In jedem Fall ist es hier dann von Vorteil, Frame Generation zu aktivieren, um auf 80 FPS zu kommen. Mit Gamepad ist das durchaus brauchbar.

Inwiefern die Latenz darunter leidet, hängt aber von Spiel zu spiel ab. Wenn die GPU nur 40 FPS schafft, dann haben wir ein hochlastszenario mit entsprechend hoher Latenz verursacht durch die volle GPU-Auslastung. Hier kann Reflex besonders viel rausholen, so dass sich die Latenzverschlechterung durch FG in einem Rahmen halten sollte, der ziemlich irrelevant ist.

Im Gegenteil, in Witcher 3 ist die Latenz mit FG + Reflex sogar spürbar geringer, als ohne. Ist natürlich ein best-case Szenario, aber auch das ist möglich.


Ich finde das Latenzthema wird viel zu heiß gekocht. Selbst im absoluten Worst Case ist die Latenz mit Framegeneration vielfach besser, als z.B. mit Vsync und es gibt Spiele, die mit Frame Generation eine viel niedrigere Latenz haben als andere Spiele die kein Reflex oder Frame Generation haben.

Man schaut hier immer nur auf Balken und relative Unterschiede, ohne mal zu betrachten wie es sich tatsächlich anfühlt und was eigentlich bisher ohne FG, ohne Reflex bei 100% GPU Last üblich war.

Aber ich denke jeder gewichtet das etwas anders, das ist auch okay. Aber ich bin trotzdem der Meinung, dass man nicht immer jede potenzielle Verschlechterung auf die Goldwaage legen sollte, ohne dabei zu betrachten, auf welchem Niveau man absolut gesehen überhaupt agiert.

aufkrawall
2023-08-08, 17:53:59
Im Gegenteil, in Witcher 3 ist die Latenz mit FG + Reflex sogar spürbar geringer, als ohne. Ist natürlich ein best-case Szenario, aber auch das ist möglich.

Fühlt sich trotzdem schwammig an vs. Reflex ohne FG. Selbst Anti-Lag finde ich da bei dem Spiel bei 90fps wesentlich angenehmer.

Troyan
2023-08-08, 17:55:06
Das bestätigt auch meinen Bildeindruck, dass Frame Generation einen deutlich geringeren Einfluss (egal ob positiv oder negativ) auf die Bildqualität hat, als DLSS Superresolution.

Habe ich von Anfang auch geschrieben. Die Bildfehlder durch FrameGeneration sind deutlich geringer als durch Upscaling. Vorallem da jedes FG Bild nur der Hälfte der Zeit sichtbar ist.

FG ist sowas wie Black-Frame-Insertion. Erhöht massiv die Bildschärfe ohne wirkliche Nachteile.

robbitop
2023-08-08, 18:04:52
Je nach FPS hat man eine bestimmte Latenzerwartung. Mag ja sein dass FG mit Reflex bei 45@90 fps leicht bessere Latenz hat als ohne. Aber man will in dem Moment das 90 fps Erlebnis. Also ist die erreichte Latenz aus meiner Sicht daran zu messen (wie sie mit echten 90 fps wäre).
Bei sehr hohen Grund FPS spielt es wahrscheinlich dann irgendwann immer weniger eine Rolle. Dann nutzt man FG nur noch um die Bewegtschärfe durch besonders hohe Hz Range des Monitors auszureizen.
Mit Gamepads merkt man Latenz nicht so - also in Gamepad Spielen wohl eher weniger problematisch. Aber wenn mit der Maus Kopfschüsse gesetzt werden sollen (zB) dann merkt man nicht ideale Latenz leider sehr schnell und hat da auch hohe Erwartungen.

FG ist keine universelle Lösung. Aber ein weiteres nützliches Werkzeug im Werkzeuggürtel dass je nach Situation hilft.

aufkrawall
2023-08-08, 18:11:13
Full ack. :up:

Relex
2023-08-08, 18:13:02
Fühlt sich trotzdem schwammig an vs. Reflex ohne FG. Selbst Anti-Lag finde ich da bei dem Spiel bei 90fps wesentlich angenehmer.


Das ist selbstverständlich. Gegenüber Reflex ohne FG fühlt sich ALLES schwammig im Vergleich an. Egal ob Frame Generation oder "nativ ohne alles".
Nicht umsonst wurde Reflex bisher nur in e-sport spielen implementiert. Wäre ja blöd, wenn das nichts bringen würde...

Und ja, Witcher 3 ist eben ein Spiel mit relativ hoher Latenz im GPU-Limit. Deswegen kann Reflex eben so viel rausholen und den Nachteil von Frame Generation mehr als nur kompensieren.

Aber man kann doch nicht Reflex als Standard ansehen, wenn wir bisher auch ohne glücklich waren. Da AMD und Intel User es nichtmal nutzen können, müsste man ja fast schon so argumentieren, dass FG, AMD und Intel gleichermaßen zu viel Latenz haben und daher nicht gut sind? Also sollen alle nur noch Nvidia kaufen? Das ist doch übertrieben.

Ich lasse das Argument gelten, dass man immer die niedrigstmögliche Latenz will.
Aber die Latenz mit Frame Generation grundsätzlich damit als zu hoch zu argumentieren, weil es mit Reflex immer besser geht ist doch der falsche Ansatz, weil das ein Problem mit Frame Generation suggeriert, was eigentlich nicht der Fall ist.

Nicht die Latenz mit Frame Generation ist das auffällige (denn das Niveau ist grob in der Größenordnung dessen was nativ bei 100% GPU-Last in vielen Spielen üblich ist), sondern das auffällige ist eben die besonders niedrige Latenz mit Reflex alleine.

Der Vorteil den Reflex ohne FG bei der Latenzreduktion erreicht ist idr. viel größer als der Latenznachteil mit FG + Reflex gegenüber "nativ ohne alles".


Aber gut, ich wollte jetzt eigentlich keine Diskussion deswegen anstoßen. Das Thema wurde sicherlich schon zig mal durchgekaut.


Je nach FPS hat man eine bestimmte Latenzerwartung. Mag ja sein dass FG mit Reflex bei 45@90 fps hat als ohne. Aber man will in dem Moment das 90 fps Erlebnis.

Auch das mag individuell sein, aber wenn ich sehe, dass meine GPU in irgend nem Spiel "nur" 50-60 FPS schafft, dann denke ich mir eben "okay, mit Frame Gen ist es dann ziemlich perfekt".
Ich habe da nicht die Erwartung, dass ich dann 1:1 das gleiche Spielerlebnis wie mit doppelter Framerate habe. Eigentlich ist mir relativ egal wo die Framerate am Ende liegt, denn eine Verdoppelung erreicht man aufgrund des Overheads eh nie. Hauptsache es wird alles deutlich flüssiger.

Aber grundsätzlich sehe ich das ähnlich. FG ist ein Tool. Ich würde es niemals dazu nutzen, um zu Argumentieren, dass die GPU schnell genug ist, weil sie ja mit Frame Generation xxx FPS erreicht. Für mich zählt immer die Grundframerate. FG macht es für mich dann meistens eben deutlich angenehmer und im Extremfall (40 FPS) dann eben erst spielbar.


Das einzige, wo ich anderer Meinung bin ist eben die Latenz. Ich hatte noch nie ein Szenario wo ich FG wieder deaktiviert hätte, weil mir die Latenz zu hoch war. Ich finde es natürlich wichtig das Thema zu analysieren. Aber man läuft hier eben schnell Gefahr, gewisse Vorurteile zu erzeugen bei Leuten, die FG noch nicht selbst ausprobiert hatten. Das erschwert die Diskussion dann meistens nur unnötig.

aufkrawall
2023-08-08, 18:18:26
Das sehe ich auch so. Trotz der Probleme, die es leider immer mal wieder verursacht (mal mehr, mal weniger als Anti-Lag), bin ich ein ziemlicher Fan von Reflex und ist definitiv ein großer Pluspunkt von Nvidia. Dass Kritik von Leuten an der Latenz von FG, die selber nie mit Reflex/in-game fps-Limiter spielen, nicht ganz nachvollziehbar ist, hatte ich auch schon das ein oder andere Mal angemerkt.

Bei AMD hat man wenigstens noch Anti-Lag. Bei Intel nicht mal das, was für mich schon einen argen Abturner darstellt...

Troyan
2023-08-08, 18:18:47
Je nach FPS hat man eine bestimmte Latenzerwartung. Mag ja sein dass FG mit Reflex bei 45@90 fps hat als ohne. Aber man will in dem Moment das 90 fps Erlebnis. Also ist die erreichte Latenz aus meiner Sicht daran zu messen (wie sie kit echten 90 fps wäre).
Bei sehr hohen Grund FPS spielt es wahrscheinlich dann irgendwann immer weniger eine Rolle. Dann nutzt man FG nur noch um die Bewegtschärfe durch besonders hohe Hz Range des Monitors auszureizen.
Mit Gamepads merkt man Latenz nicht so - also in Gamepad Spielen wohl eher weniger problematisch. Aber wenn mit der Maus Kopfschüsse gesetzt werden sollen (zB) dann merkt man nicht ideale Latenz leider sehr schnell und hat da auch hohe Erwartungen.

FG ist keine universelle Lösung. Aber ein weiteres nützliches Werkzeug im Werkzeuggürtel dass je nach Situation hilft.

Solange Leute AMD kaufen, ist Latenz kein Thema.

aufkrawall
2023-08-08, 18:22:15
Doch, der Lag durch FG fühlt sich "komischer" an als der durch schlecht optimierten Input Lag in Spielen ohne Reflex.
Der Input Lag mit Reflex fühlt sich ohne FG oft genial an, mit nicht mehr.

Aber gut, für geschätzt >95% der Spieler macht es vermutlich wirklich keinen Unterschied.

robbitop
2023-08-08, 18:43:26
Solange Leute AMD kaufen, ist Latenz kein Thema.

Ich sehe die Verbindung zu AMD nicht (außer dass du Propellerjunge immer gern eine ziehst). Hier ging es um FG - nicht um NV vs AMD Kleinkindpropellerjungendiskussionen.

Ich bin auch immer wieder erstaunt wie kurzsichtig solche Äußerungen sind. Wenn alle nur noch Nvidia kaufen, gibt es ein Monopol. Das bedeutet Innovation geht mittelfristig zurück und Preis/Leistung wird immer schlechter. Das ist in jedem Markt der Fall wo es ein Monopol gab oder gibt.
Wie kognitiv beschränkt muss man sein, um sich sowas zu wünschen?

The_Invisible
2023-08-08, 19:21:12
FG ist auch nett um den Verbrauch noch weiter zu verringern, bei D4/4k/144Hz macht das so 40-50W aus. Generell will man es nicht mehr missen wenn man es einmal hatte.

Lurtz
2023-08-08, 19:41:59
FG ist auch nett um den Verbrauch noch weiter zu verringern, bei D4/4k/144Hz macht das so 40-50W aus. Generell will man es nicht mehr missen wenn man es einmal hatte.
Ich finde es immer noch schwer, mich daran zu gewöhnen. Außer zB in Witcher 3, da ist es wirklich ein Gamechanger, zumindest mit einer so "lahmen" CPU wie einem i5 12500.

Die Skalierung ist auch oft einfach seltsam mit einer 4070, vielleicht sieht das in den Framerateregionen und der gesamten GPU-Auslastung einer 4090 anders aus.

teezaken
2023-08-08, 20:06:20
Selbst die 4090 ist teilweise zu langsam für FG und je langsamer die GPU und je höher die Auflösung desto schlimmer wird es. Ich bin mit der 4090 @ 4k FG nicht 100% zufrieden, aber es ist fast schon meckern auf hohem Niveau im großen und ganzen bin ich sehr zufrieden mit FG und nutze es sehr gerne wenn verfügbar.

Bei 2560x1440 nehmen die Artefake von FG (bei selben FPS) bei mir im vgl. zu 3840x2160 ab und das teilweise sehr stark, will damit sagen das vielleicht je nach GPU und Auflösung ein falsches Bild von FG entstehen kann, jedoch bin ich gespannt wie das mit RTX5000+ weiter ausgebaut wird.

aufkrawall
2023-08-08, 20:16:26
Der DLSSTweaks-Entwickler hat herausgefunden, dass man mit neueren DLLs wohl das DLSS-Preset etc. über NVAPI, also den Inspector, einstellen kann:
https://github.com/Orbmu2k/nvidiaProfileInspector/issues/156#issuecomment-1661197267

Habs noch nicht probiert.

robbitop
2023-08-08, 20:28:16
Ist auch klar ib Dinge wie autoexposure damit einstellbar sind?
Bräuchte dann eine neue Version des NV Inspektors oder?

aufkrawall
2023-08-08, 20:41:18
Ist auch klar ib Dinge wie autoexposure damit einstellbar sind?

Scheint zumindest nicht in der XML zu stehen.

Gast
2023-08-08, 21:40:02
FG schwächelt erst ab 40-30 FPS hinsichtlich Artefakte und Smoothness. Alles darüber funktioniert problemlos.


Bei 30-40FPS schwächelt die Latenz ganz ohne FG enorm, und FG macht es noch schlechter.

Die einzigen Spiele bei denen die Latenz mit 30-40FPS noch OK sind brauchen auch keine FG, die haben nämlich so wenig Bewegung, dass sie gar keine höheren FPS brauchen.


Ich finde das Latenzthema wird viel zu heiß gekocht. Selbst im absoluten Worst Case ist die Latenz mit Framegeneration vielfach besser, als z.B. mit Vsync und es gibt Spiele, die mit Frame Generation eine viel niedrigere Latenz haben als andere Spiele die kein Reflex oder Frame Generation haben.


Mit jemandem der es ernsthaft in Erwägung zieht mit VSYNC zu spielen kann man über Latenz nicht diskutieren.

Oliver_M.D
2023-08-09, 03:09:43
mit neueren DLLs wohl das DLSS-Preset etc. über NVAPI, also den Inspector, einstellen kann
Was für ein geiler Scheiß, das ist genau das, worauf wir gewartet haben!;D
Habe es mal schnell in BF2042 ausprobiert, das Erzwingen von DLAA scheint da ohne Probleme zu klappen.
Beim "Forced Scaling" bin ich mir nicht ganz sicher, aber zumindest ein vielversprechender Anfang.

EDIT: Gerade eben in "Baldur's Gate 3" mithilfe des Debug Overlays nachgeprüft, sowohl das Erzwingen der Skalierung als auch des Presets funktioniert tadellos!

Deisi
2023-08-09, 12:21:13
Für Multiplayer ist das super, dass es auch den Weg über den Inspector gibt :up:

The_Invisible
2023-08-09, 12:54:46
Die einzigen Spiele bei denen die Latenz mit 30-40FPS noch OK sind brauchen auch keine FG, die haben nämlich so wenig Bewegung, dass sie gar keine höheren FPS brauchen.


Stimmt so auch net, bei FS2020 ist es ganz nett ein smoothes Bild zu haben, auch bei Anno1800, CitiesSkylines usw wäre es ganz nett.

Manche sollten es halt mal wirklich selber testen bevor man ein Urteil fällt...

Troyan
2023-08-09, 13:06:15
Selbst bei 30 FPS spielt sich FG mit Reflex massiv besser als ohne Reflex und 30 FPS.

Des Weiteren frage ich mich, wenn Leute so geil auf Latenz sind, wie die überhaupt spielen. 4K? bestimmt nicht. 1080p? Mit einer 1000€ 7900XTX Karte? Lmao.

Die beste Latenz bei bester Bildqualität hat man in 4K mit DLSS performance und FG: Niedrige Latenz dank 1080p, DLSS Performance für Bildqualität und FG für Eliminierung CPU-Limit.

Gast
2023-08-09, 13:26:26
Stimmt so auch net, bei FS2020 ist es ganz nett ein smoothes Bild zu haben, auch bei Anno1800, CitiesSkylines usw wäre es ganz nett.


FS2020 ist mit 30-40FPS garantiert nicht "nett". Für Anno reicht es sicher, nur braucht man dafür auch keine hohen FPS.


Manche sollten es halt mal wirklich selber testen bevor man ein Urteil fällt...

Ich habe es getestet, es braucht ca. 80-90 GrundFPS bis man die zusätzliche Latenz nicht mehr wahrnimmt. Bei 60FPS ist die zusätzliche Latenz deutlich wahrnehmbar, aber noch im akzeptablen Rahmen.
Darunter definitiv nicht mehr.

Zumal FG bei niedrigen FPS auch keine wirklichen Vorteile bringt. Der größte Vorteil von FG ist der reduzierte Sample&Hold-Blur in Bewegung, nur tritt dieser bei richtig niedrigen Frameraten gar nicht auf und ist so im Bereich 60-100 am stärksten und wird erst mit 3-Stelligen Frameraten wieder geringer.

FG ist ein schönes Tool, aber eben nicht um die Spielbarkeit zu verbessern, sondern um High Refresh Monitore auch gut ausnützen zu können.

Lehdro
2023-08-09, 13:35:24
Selbst bei 30 FPS spielt sich FG mit Reflex massiv besser als ohne Reflex und 30 FPS.
Ich würde halt beides nicht anfassen wollen.
Gib mir dann lieber 30 Fps mit Reflex ohne FG, wenn es denn unbedingt eine 30er Basis sein muss :mad:

Ansonsten bleibe ich dabei, die avg. FPS (ohne FG) sollten möglichst dreistellig sein damit man FG ordentlich genießen kann, also ohne merkbare Latenzabstriche. Setzt dann natürlich ein 200+ Hz Ausgabegerät voraus - aber daran solls eh nicht scheitern ;)

Lurtz
2023-08-09, 15:27:02
Ich habe es getestet, es braucht ca. 80-90 GrundFPS bis man die zusätzliche Latenz nicht mehr wahrnimmt. Bei 60FPS ist die zusätzliche Latenz deutlich wahrnehmbar, aber noch im akzeptablen Rahmen.
Darunter definitiv nicht mehr.

Zumal FG bei niedrigen FPS auch keine wirklichen Vorteile bringt. Der größte Vorteil von FG ist der reduzierte Sample&Hold-Blur in Bewegung, nur tritt dieser bei richtig niedrigen Frameraten gar nicht auf und ist so im Bereich 60-100 am stärksten und wird erst mit 3-Stelligen Frameraten wieder geringer.

FG ist ein schönes Tool, aber eben nicht um die Spielbarkeit zu verbessern, sondern um High Refresh Monitore auch gut ausnützen zu können.
Wie ist die Skalierung eigentlich? Wenn ich ohne FG 80 fps erreiche, und mit FG 100 fps, sind die Grund-FPS mit FG dann immer die Hälfte, also nur 50, oder kann FG auch weniger Zwischenbilder berechnen um eine verbesserte Latenz zu erzielen? Also es bleibt bei der Latenz von 80 Grund-FPS, und es wird nur jedes dritte Bild eingeschoben, um ca 33% mehr ausgegebene FPS zu erreichen?

Relex
2023-08-09, 21:56:42
Wie ist die Skalierung eigentlich? Wenn ich ohne FG 80 fps erreiche, und mit FG 100 fps, sind die Grund-FPS mit FG dann immer die Hälfte, also nur 50, oder kann FG auch weniger Zwischenbilder berechnen um eine verbesserte Latenz zu erzielen? Also es bleibt bei der Latenz von 80 Grund-FPS, und es wird nur jedes dritte Bild eingeschoben, um ca 33% mehr ausgegebene FPS zu erreichen?


Aktuell verdoppelt FG immer.

Das heißt, wenn die Skalierung unter 100% ist, hast du entsprechend eine geringere Grundframerate.

Nutzt du z.B. ein FPS Limit, dann ist deine Grund Framerate die Hälfte davon.
Das kann man z.B. ausnutzen, um ein CPU limit und damit schlechte Frametimes zu umgehen.

Man hat z.B. im CPU Limit 70-80 FPS auf einem 120 Hz Display?
Wäre dann kein Problem, weil man bei aktiver FG dann 120 FPS hätte (bzw. Reflex limitiert automatisch leicht darunter, um den Vsync lag zu vermeiden), jedoch die Grundframerate auf 60 FPS sinkt, wodurch die CPU nicht mehr am Limit ist und die Frametimes entsprechend sehr viel glatter werden.

Aber auch wenn man nur teilweise CPU limitiert ist und die Frametimes langsam anfangen unsauber zu werden, hilft FG enorm viel. Da sorgt es dann (natürlich auch im reinen GPU limit) selbst ohne FPS Limit schon dafür, dass die 1% low frametimes doppelt so gut sind. Gegen Shader Compiling und Nachladeruckler hilft das natürlich nicht, aber gegen leicht unsaubere Frametimes ist es perfekt.

Wo früher perfekte 120 FPS wegen der 1% Frametimes häufig problematisch waren, bekommst du heute mit FG bei deutlich höherer Framerate einen zugleich glatteren Frametime Verlauf.

FG ist eigentlich der feuchte Traum für alle, die auf glatte Frametimes stehen.



Ansonsten ist die Diskussion hier teilweise immernoch zu ungenau.

Ja, 30 FPS sind Mist, aber rein theoretisch betrachtet ist jeder Frame an zusätzlicher Latenz hier besonders schlimm. Ein Spiel im GPU limit hat zudem üblicherweise eine besonders hohe Latenz. Wenn dann die Framerate noch dazu so niedrig ist, fühlt sich das natürlich extrem schwammig an.
Aber das heißt nicht, dass es mit FG noch schlechter werden muss.

Wie ich jetzt glaub ich schon zweimal versucht habe zu erklären, kann Reflex in so einem Szenario potenziell am meisten Latenz gut machen, weil die Latenz des restlichen Systems (auf welche Reflex eh keinen Einfluss nehmen kann) bei so einer geringen Framerate im Verhältnis eine viel kleinere Rolle spielt, als die reine Renderlatenz z.B. durch zusätzliche Frames im renderqueue usw.



Ich hab mal ein paar Tests mit dem Geforce Overlay gemacht, welches die Latenz ja auch anzeigt. Natürlich gehe ich nicht davon aus, dass die Werte ohne externes Messequipment verlässlich sind, aber eine Annäherung ist es mit Sicherheit, da man sehr gut sieht, wie die Latenz im GPU Limit oder mit Vsync nach oben geht, im CPU Limit, mit FPS limiter oder auch Reflex nach unten usw. Relative Unterschiede lassen sich damit also mit Sicherheit ausreichend genau bestimmen.

Alle meine Werte sind im vollen GPU Limit entstanden. Ich habe die Settings und das Powerlimit entsprechend so eingestellt, dass ich bei voller GPU-Last auf die jeweilige Framerate von 60 oder 30 FPS komme.
"nativ" bedeutet immer, dass FG und reflex deaktiviert sind.


Cyberpunk 2077

1440p
60 FPS nativ = 75 ms
60 FPS reflex = 40 ms
100 FPS FG = 50 ms

30 FPS nativ = 150 ms
30 FPS reflex = 60 ms
55 FPS FG = 80 ms


2160p
60 FPS nativ = 75 ms
60 FPS reflex = 40 ms
88 FPS FG = 55 ms

30 FPS nativ = 150 ms
30 FPS reflex = 60 ms
50 FPS FG = 85 ms



Returnal

2160p
30 FPS nativ = 140 ms
30 FPS reflex = 60 ms
45 FPS FG = 85 ms

60 FPS nativ = 70 ms
60 FPS reflex = 30 ms
90 FPS FG = 50 ms


1440p
60 FPS nativ = 70 ms
60 FPS reflex = 35 ms
100 FPS FG = 45 ms


Man sieht hier übrigens ziemlich gut, dass FG in 4K etwas teurer ist, als in 1440p. Wobei Returnal hier auch eines der Spiele ist, das ziemlich schlecht mit FG skaliert und daher mit der entsprechend halbierten Grund-Framerate mit FG sogar einen Nachteil hat. Und trotzdem ist die Latenz mit FG + Reflex in allen Fällen geringer, als nativ ohne Reflex.

Letztendlich kann das jeder mit einer Ada Karte auch einfach selbst testen. Der Unterschied ist deutlich spürbar und in den beiden getesteten Spielen ist die Latenz unabhängig davon, wie präzise die Werte sind, mit FG + Reflex deutlich geringer, als nativ. Dafür würde ich beide Hände ins Feuer legen!


Aber auch PCGH bestätigt das ganze mehr oder weniger mit eigenen Messungen:
https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Tests/RTX-4060-Ti-DLSS-3-0-Frame-Generation-Frametime-Latenz-1421113/2/

Bei Cyberpunk konnte ich sogar meine Werte mit PCGH evaluieren, da die 4070 nativ in 1080p nur ca 30 FPS erreicht. Die Latenz beträgt hier ca 150 ms, was sich ganz gut mit meinen 140ms aus dem Overlay deckt. Auch die anderen Werte sind sehr ähnlich und PCGH bestätigt ja hier ebenso, dass FG deutlich weniger Latenz hat, als nativ (bzw. hier hat man DLSS Q ohne Reflex vs DLSS Q mit Reflex + FG getestet, was ja ebenso valide ist und meinen Punkt bestätigt).
Also würde ich stark davon ausgehen, dass der Test in Returnal ebenso valide ist.

Die anderen Spiele stehen meiner "Beweisführung" etwas entgegen, das lässt sich aber auch erklären.
Forza spricht unglaublich schlecht sowohl auf DLSS als auch FG an. Man hat hier mit DLSS Q + FG gegenüber nativ nur rund 30% mehr FPS. Da FG aber auf Basis einer FPS Verdoppelung arbeitet, müsste man hier von einer Grund Framerate von ca 60-65 FPS ausgehen. Das kann selbst Reflex nicht mehr ausgleichen, wodurch sich die Latenz mit FG unterm Strich verschlechtert, das ist auch absolut offensichtlich und logisch.

Hogwarts Legacy, Warhammer und Flight Sim sind teilweise bzw. letzteres sogar komplett CPU limitiert, wie auch PCGH selbst schreibt. Daher kaum mit meinen Tests vergleichbar. Aber auch da deutet sich in Hogwarts und Warhammer an, dass zumidest in GPU limitierten Abschnitten die Latenz mit FG + reflex geringer ist als ohne reflex.


Es gibt im Netz einige Latenztests mit FG, aber ich finde kaum welche, wo Nativ mit FG vs Nativ ohne Reflex getestet wird. Meistens ist es nur Nativ vs DLSS Q + FG. Oder alles nur mit Reflex aktiv usw.
Das hilft mir alles nicht, um meinen Punkt, den ich hier vermitteln will, zu bestätigen, weil ganz andere Herangehensweise.

Ich will hier eigentlich nur klar machen, dass im GPU-Limit die Latenzen mit FG nicht schlechter werden, sondern oft sogar besser. Das Argument, dass man bei 30, 40 oder 50 FPS FG nicht nutzen kann, weil die Latenzen damit ja "noch" schlechter werden, als sowieso schon, ist damit auch hinfällig. Reflex überkompensiert hier sämtliche Latenznachteile von FG.

Ansonsten verlinkt gerne Tests die etwas anderes zeigen oder probiert es einfach selbst aus.
Bitte versteht mich nicht falsch, ich will hier nicht auf Teufel komm raus meine Ansicht verteidigen. Nur sehe und spüre ich hier eindeutig was Sache ist und kann das zumindest halbwegs mit Werten belegen. Hätte ich das Messequipment würd ich mich auch nen Tag hinsetzen und alles durchmessen...

aufkrawall
2023-08-09, 22:04:49
EDIT: Gerade eben in "Baldur's Gate 3" mithilfe des Debug Overlays nachgeprüft, sowohl das Erzwingen der Skalierung als auch des Presets funktioniert tadellos!
Jo, geht in Fortnite auch. 4k DLAA Preset C + HW-RT Lumen. :eek:
Mit Preset F und Upsampling gibts entsprechend unschöne Verpixelung (Disocclusion-Aliasing) in Bäumen vs. C.

Hab den Entwickler mal wegen Auto-Exposure angepingt, das dämliche Hitman 3 aktiviert das immer noch nicht zuverlässig. Mit etwas Pech geht da aber nichts. Zum Glück aktivieren es die meisten Spiele mittlerweile immer.
Btw. auch in Grund, weshalb ich auf meine alten Tests ohne Kontrolle durchs DLSS-HUD via DLSSTweaks nicht mehr viel gebe. Da können verbugte Spiele einfach irgendeinen Murks mit Auto-Exposure oder dem Preset veranstalten. Und mit dieser Kontrolle konnte ich keine Verbesserungen innerhalb der gleichen Presets und neuerer DLLs feststellen (inkls. Vergleichs-Screenshots mit Kamera- bzw. Spielfigur-Bewegung).

Exxtreme
2023-08-09, 22:31:53
Aber auch PCGH bestätigt das ganze mehr oder weniger mit eigenen Messungen:
https://www.pcgameshardware.de/Deep-Learning-Super-Sampling-Software-277618/Tests/RTX-4060-Ti-DLSS-3-0-Frame-Generation-Frametime-Latenz-1421113/2/


CB hat hier auch sehr gute Latenzmessungen:
https://www.computerbase.de/2023-05/nvidia-geforce-rtx-4060-ti-8gb-test/2/

Und das ist auch der Grund warum ich immer sage, dass FG kein Allheilmittel ist um einer überforderten Grafikkarte auf die Beine zu helfen. Man erkauft sich das durch Monsterlatenzen. Bzw. man muss auf DLSS Performance runtergehen. FG ist toll um überschüssige Grafikkartenleistung in viel mehr FPS zu verwandeln.

Relex
2023-08-09, 22:42:27
CB hat hier auch sehr gute Latenzmessungen:
https://www.computerbase.de/2023-05/nvidia-geforce-rtx-4060-ti-8gb-test/2/

Und das ist auch der Grund warum ich immer sage, dass FG kein Allheilmittel ist um einer überforderten Grafikkarte auf die Beine zu helfen. Man erkauft sich das durch Monsterlatenzen. Bzw. man muss auf DLSS Performance runtergehen.


Aber das bestätigt doch ganz genau das was ich hier auch getestet habe und immer sage:

https://abload.de/img/screenshot2023-08-0927we1s.png

Die Latenz ist mit FG deutlich niedriger, als Nativ ohne Reflex.

Wo siehst du denn die Monsterlatenzen :confused:


FG + Reflex ist eine Win Win Situation in allen belangen. Mehr Frames, bessere Latenz.

Einzig Reflex alleine ist bei der Latenz noch besser. Aber das taugt ja nicht als Argument, um FG + Reflex den Vorteil der geringeren latenz vs nativ abzusprechen, denn der ist ganz klar und deutlich vorhanden.

Exxtreme
2023-08-09, 22:44:42
Die Latenz ist mit FG deutlich niedriger, als Nativ ohne Reflex.

Wo siehst du denn die Monsterlatenzen :confused:


Vergleich das mal mit Nativ + Reflex. Da sieht FG immer extrem schlecht aus. Ach ja, wenn du FG aktivierst dann wird implizit auch Reflex aktiv.

The_Invisible
2023-08-09, 22:55:50
FS2020 ist mit 30-40FPS garantiert nicht "nett". Für Anno reicht es sicher, nur braucht man dafür auch keine hohen FPS.


Mein Beitrag nicht gelesen? Es geht darum ein flüssigeres Gameplay zu haben, davon profitiert jedes Spiel welches vor allem CPU limitiert ist und weil man sowieso immer Reflex dabei hat. Und warum 40fps für FS2020 nicht reichen sollten musst auch mal erklären, zudem da sowieso alle CPUs am kotzen sind...

Relex
2023-08-09, 23:02:02
@Exxtreme
Wir drehen uns hier im Kreis.

Ich verstehe nach wie vor nicht, wie die geringere Latenz mit Nativ + Reflex (das habe ich nie bestritten) als Argument dienen soll, um Frame Generation den Nutzen abzusprechen, indem man FG eine zu hohe Latenz attestiert. Das ergibt absolut keinen Sinn, wenn 99% aller Spiele kein Reflex haben und wir üblicherweise in allen anderen Spielen mit Latenzen spielen, die hier den Werten Nativ OHNE Reflex entsprechen.

In praktisch allen Spielen habe ich z.B. bei 60 FPS im GPU Limit viel schlechtere Latenzen, als bei Cyberbunk oder Returnal wenn ich bei ebenso 60 FPS noch Frame Generation + Reflex zuschalte.

Bei DLSS3 Spielen kann ich mit Reflex und FG gleichzeitig sowohl die Latenzen reduzieren, als auch die Frameraten deutlich erhöhen, während ich in anderen Spielen (oder mit AMD oder Intel Grafikkarte) viel höhere Latenzen habe und die FPS nicht erhöhen kann.

Reicht die Leistung meiner GPU also für ein Spiel nicht aus, hätte ich einen immensen Vorteil, wenn der Entwickler dann per Patch DLSS3 nachliefern würde. Ich hätte weniger Latenz und deutlich mehr FPS, dafür müsste ich noch nichtmal upscaling nutzen. FG + Reflex reichen bereits.

Genau das war das Argument, bei dem mir widersprochen wurde, genau dafür habe ich jetzt mehrfach den Gegenbeweis gebracht.

DrFreaK666
2023-08-10, 00:44:04
@Exxtreme
Wir drehen uns hier im Kreis.

Ich verstehe nach wie vor nicht, wie die geringere Latenz mit Nativ + Reflex (das habe ich nie bestritten) als Argument dienen soll, um Frame Generation den Nutzen abzusprechen, indem man FG eine zu hohe Latenz attestiert. Das ergibt absolut keinen Sinn, wenn 99% aller Spiele kein Reflex haben und wir üblicherweise in allen anderen Spielen mit Latenzen spielen, die hier den Werten Nativ OHNE Reflex entsprechen...

War das in den letzten Games nicht so, dass man Reflex auch bei Nativ aktivieren kann? Dann ist die Latenz mit FG immer schlechter

basix
2023-08-10, 07:31:25
War das in den letzten Games nicht so, dass man Reflex auch bei Nativ aktivieren kann? Dann ist die Latenz mit FG immer schlechter

Reflex kann immer ohne FG aktiviert werden. Das ist nice. Bei FG wird Reflex einfach noch forciert.

Ich finde das gut. Jeder kann DLSS, Reflex und FG nach seinem Gusto "zusammenstellen". Auch FG ohne DLSS ist möglich.

Relex
2023-08-10, 08:02:07
Das kann jetzt nicht euer ernst sein. Genau darauf bin ich in meinen letzten Beiträgen doch schon eingegangen. Aber das war überhaupt nicht Gegenstand der Diskussion, das habe ich mehrfach versucht klar zu machen.

Aber lassen wirs gut sein. Die Diskussion ist nicht sinnvoll, wenn die Beiträge offensichtlich nicht gelesen werden. :frown:

Ich bin raus.

Exxtreme
2023-08-10, 08:37:51
@Exxtreme
Wir drehen uns hier im Kreis.

Ich verstehe nach wie vor nicht, wie die geringere Latenz mit Nativ + Reflex (das habe ich nie bestritten) als Argument dienen soll, um Frame Generation den Nutzen abzusprechen, indem man FG eine zu hohe Latenz attestiert.

Es ist so: Frame Generation wird quasi als das Allheilmittel für nahezu kein Fortschritt beim P/L-Verhältnis von Ada gebracht. Auch Nvidia suggeriert das ebenfalls weil sie ständig irgendwelche Benchmarks mit FG bringen und dann eine 3060 mit einer 4060 etc. vergleichen. Und da sieht die 4060 wegen FG auf dem Papier halt toll aus. In der Praxis ist das aber nicht so und es verführt eventuell einige Leute dazu sich eine eigentlich zu schwache Grafikkarte zu kaufen. Weil sie glauben hier Geld zu sparen. Und leider wird nicht wirklich aufgeklärt welchen Preis das real hat. Nvidia verschweigt das mit den Latenzen komplett und von den HW-Reviewern kommt auch recht selten was. Computerbase hat das toll aufgearbeitet aber IMHO sind sie die einzigen, die das so gemacht haben. Und bei CB muss man auch verstehen was man da in den Balken sieht.

robbitop
2023-08-10, 09:04:24
Und das wird alles schön von den Studios eingepreist (spätestens wenn es eine HW agnostische Version eines solchen Verfahrens gibt) um sich Optimierungsarbeit zu sparen.

Wenn man mal einen Kontrast sehen möchte:
https://www.youtube.com/watch?v=QJm0wreAOK0&pp=ygUPZGlnaXRhbCBmb3VuZHJ5

Was da 2015 mit der PS4 auf den 1,6 GHz Krüppel Jaguar Cores und einer GPU die Pitcairn entspricht (radeon 7870 von 2012) möglich ist. Oder man schaue sich Doom (2016) oder Wolfenstein the new Order (2016) an. Und wie kacke viele neue Spiele mit viel schlechterer Grafik laufen (insbesondere in den letzten Jahren). Es wird oft nicht vernünftig optimiert und damit sinnlos Leistung verballert. Und die kostet uns leider Geld.
Ich bin mir sicher, dass obige Verfahren mittelfristig einfach nur eingepreist werden. Was sehr schade ist - denn es wäre schön, wenn man diese nutzen kann, um besonders hohe Refreshraten zu erreichen oder eben tatsächlich ältere GPUs länger leben zu lassen. Der Effekt ist aber bald sicherlich weg und man muss diese Sachen aktivieren, damit es überhaupt mit moderner HW vernünftig läuft (ohne, dass man einen fetten BQ Sprung sieht).
IIRC gab es dieses Jahr schon ein paar Spiele wo man das nutzen musste, um schlechte Optimierungen wieder "gerade zu biegen".

The_Invisible
2023-08-10, 09:51:35
Wobei den meisten die FG Latenz gar nicht auffallen dürfte, ich mein die Leute spielen auch auf Konsole mit 30fps und TV mit Bildverschlimmerer-Einstellungen der alleine schon +100ms dazugibt...

Zwecks Performance ist halt auch die Frage ob da so generische Engines wie Unity, UE5 & Co wirklich positiv beitragen als eine speziell auf ein Genre + Spieltyp optimierte Engine, glaube kaum... aber Games werden halt auch immer komplexer und aufwändiger in der Gestaltung, im Endeffekt muss dann stärkere Hardware dafür herhalten weil die steht ja beim Kunden und verursacht für das Studio keine Kosten

DrFreaK666
2023-08-10, 10:08:31
Laut Steam Survey steht keine stärkere Hardware beim Kunden. Das ist eher die Minderheit

Gast
2023-08-10, 10:47:07
Wie ist die Skalierung eigentlich? Wenn ich ohne FG 80 fps erreiche, und mit FG 100 fps, sind die Grund-FPS mit FG dann immer die Hälfte, also nur 50, oder kann FG auch weniger Zwischenbilder berechnen um eine verbesserte Latenz zu erzielen?


So eine schlechte Skalierung von FG habe ich noch nie gesehen, die +100% gibt es zwar nur bei kompletter CPU-Limitierung, deutlich über +50% ist man aber eigentlich immer.
Realistisch sollte man von 80FPS ausgehend eher 140FPS+ mit FG erwarten können.

Wenn ich mit FG spiele, dann stelle ich DLSS Upsampling so ein, dass ich im Bereich 80-100FPS lande und mit Framelimiter auf 170FPS.

Das hat dann auch noch den Vorteil, dass man nicht immer im GPU-Limit ist, im CPU-Limit ist die Latenz immer deutlich geringer als im GPU-Limit ist, und auch wenn der Unterschied mit Reflex deutlich kleiner geworden ist, ist die Latenz im CPU-Limit immer noch geringer als im GPU-Limit + Reflex.


Also es bleibt bei der Latenz von 80 Grund-FPS, und es wird nur jedes dritte Bild eingeschoben, um ca 33% mehr ausgegebene FPS zu erreichen?


Aktuell wird mit FG immer jedes 2. Bild berechnet.
Mit 80 "echten" FPS wird dir FG immer mindestens 12,5ms an Latenz kosten, die Latenz ist also auf jeden Fall höher als mit echten 80FPS zu spielen.

Wenn FG nicht zu 100% skaliert dann spielst du quasi mit einem Framelimiter auf 1/2 End-FPS.

Nehmen wir mal als Beispiel, dass FG die FPS von 80 (vollständig GPU-limitierten) auf 120FPS erhöht.
Dann ist die Grundlatenz nicht mehr jene von 80 GPU-Limitierten FPS, sondern von 60FPS mit Framelimiter. Die niedrigeren FPS erhöhen natürlich die Latenz, die 60FPS sind aber ziemlich sicher nicht mehr vollständig GPU-Limitiert, wodurch der Latenzgewinn durch durch den Wegfall der GPU-Limitierung stärker ausfallen kann als der Verlust durch niedrigere FPS (was allerdings stark von der Engine abhängt). Auf das Ganze kommen dann noch mal 17ms durch die FG selbst drauf.

Im Endeffekt landest du eigentlich immer bei schlechterer Latenz sie ist aber eventuell nicht so viel schlechter wie du vermuten würdest wenn du nur die FPS ansiehst.

Für sinnvolle FG braucht es mindestens einen 144Hz Monitor wobei das auch noch nicht ideal ist. Ab 170Hz fängt es an Spaß zu machen und 240Hz ist eigentlich ideal, damit kann man die Motion-Clarity massiv verbessern, und die Latenz ist in einem Bereich in der sie kaum wahrnehmbar ist.

Leider scheint FG selbst darüber immer noch zu langsam zu sein, wäre sehr interessant für zukünftige 480Hz Monitore gewesen, aber D4 zeigt dass bei so hohen Frameraten die FG aktuell einfach zu langsam ist und geratene Frames länger brauchen als real berechnete.

Hoffentlich können das zukünftige Karten noch deutlich verbessern, und irgendwann werden wir hoffentlich dann auch ~1000Hz Monitore haben, die man dann sagen wir mal mit echten 120FPS befeuern, die dann mit ausreichend schneller FG auf 960Hz erhöht werden.
Damit könnte man dann die Marketing 1ms MPRT tatsächlich fast erreichen.

Exxtreme
2023-08-10, 11:09:52
Leider scheint FG selbst darüber immer noch zu langsam zu sein, wäre sehr interessant für zukünftige 480Hz Monitore gewesen, aber D4 zeigt dass bei so hohen Frameraten die FG aktuell einfach zu langsam ist und geratene Frames länger brauchen als real berechnete.


Ja, richtig. FG braucht derzeit ca. 5 ms pro generiertes Bild. Was wiederum eine Art Softcap bei 200 generierten fps impliziert. Darüberhinaus fängt es an kontraproduktiv zu werden. Andererseits sind 200 fps schon sehr ordentlich und dürften für sehr viele Leute reichen.

Lurtz
2023-08-10, 14:28:19
Es ist so: Frame Generation wird quasi als das Allheilmittel für nahezu kein Fortschritt beim P/L-Verhältnis von Ada gebracht. Auch Nvidia suggeriert das ebenfalls weil sie ständig irgendwelche Benchmarks mit FG bringen und dann eine 3060 mit einer 4060 etc. vergleichen. Und da sieht die 4060 wegen FG auf dem Papier halt toll aus. In der Praxis ist das aber nicht so und es verführt eventuell einige Leute dazu sich eine eigentlich zu schwache Grafikkarte zu kaufen. Weil sie glauben hier Geld zu sparen. Und leider wird nicht wirklich aufgeklärt welchen Preis das real hat. Nvidia verschweigt das mit den Latenzen komplett und von den HW-Reviewern kommt auch recht selten was. Computerbase hat das toll aufgearbeitet aber IMHO sind sie die einzigen, die das so gemacht haben. Und bei CB muss man auch verstehen was man da in den Balken sieht.
Das ist aber doch allen hier bekannt, da kann man doch auch mal inhaltlich auf die Diskussion einsteigen, statt zum hundertsten Mal aus der Brille drauf zu schauen. Ansatzpunkte dafür hat Relex ja geliefert.

So eine schlechte Skalierung von FG habe ich noch nie gesehen, die +100% gibt es zwar nur bei kompletter CPU-Limitierung, deutlich über +50% ist man aber eigentlich immer.
Realistisch sollte man von 80FPS ausgehend eher 140FPS+ mit FG erwarten können.

Wenn ich mit FG spiele, dann stelle ich DLSS Upsampling so ein, dass ich im Bereich 80-100FPS lande und mit Framelimiter auf 170FPS.

Ich bin kein Profi-Benchmarker, ich kann nur beurteilen, was ich in meinem simplen Overlay sehe. Und da sah es bei Rift Apart und Returnal so aus. Kommt aber stark drauf an, je höher die CPU-Last wird, desto vorteilhafter ist es für FG.

Ich habe halt nur einen 144 Hz-Monitor, sprich wenn ich die Grund-Framerate mit DLSS Super Resolution so weit senke, müsste das ja eher wieder kontraproduktiv sein...

Gast
2023-08-10, 15:44:28
Ich habe halt nur einen 144 Hz-Monitor, sprich wenn ich die Grund-Framerate mit DLSS Super Resolution so weit senke, müsste das ja eher wieder kontraproduktiv sein...

Da würde ich entweder auf FG oder auf VRR/VSYNC verzichten.

Lurtz
2023-08-14, 17:50:10
Hat hier jemand eine gute Illustration der Arbeitsweise von DLSS Super Resolution zur Hand? Insbesondere der Teil, wo das Super Sampling dargestellt wird?

robbitop
2023-08-15, 09:04:03
Hat hier jemand eine gute Illustration der Arbeitsweise von DLSS Super Resolution zur Hand? Insbesondere der Teil, wo das Super Sampling dargestellt wird?
Ich fand den GTC Vortrag in 2020 gut. https://youtu.be/tMtMneugt0A?si=2R-Zsa7ykwGlLTX5&t=842
Der Link enthält den timestamp an dem es losgeht die Grundlagen zu erklären.

Was im Prinzip passiert, ist dass die Subpixelposition (also die Position innerhalb des Pixels) pro Frame verändert wird. Und das Sample wird gespeichert. Für den aktuellen Frame wird das Ergebnis aus mehreren Frames verrechnet / interpoliert. IIRC waren es 16x Frames bei DLSS. Also hat man 16x Subsamples pro Pixel.
Das funktioniert genauso wie SG-SSAA, nur dass sämtliche Subpixelpositionen (in dem Falle 16x) nicht innerhalb eines Frames abgetastet werden (kostet bis zu 16x Performance) sondern nur 1x pro Frame und über mehrere Frames hinweg die unterschiedlichen Positionen abgetastet werden.
Bei einem statischen Bild wäre das Ergebnis identisch mit 16x SGSSAA (sofern ich mich mit den 16 Samples korrekt erinnere - ansonsten ersetze 16x mit einer anderen arbiträren Zahl).

Da aber Spiele nicht statisch sind sondern sich Frames unterscheiden, muss es eine Logik geben, welche versucht, das Pixel zu verfolgen, wo die Samples aus dem letzten Frame herkamen. Das nennt sich "clamping". Je nach dem wie gut das funktioniert, desto artefaktärmer funktioniert das.

Es gibt aber auch Fälle, wo es keine sinnvollen Daten gibt:
1.) zB einen Kamera-cut -> dann sind im ersten Frame noch keine Supersamples enthalten
2.) disocculusion (ein Objekt verdeckt den Hintergrund in Frame n-1, der bei Frame n dann sichtbar wird)

In dem Falle müssen die Algoritmen "entscheiden" was sie machen.

1.) keine Samples, kein AA -> es gibt lokales Aliasing was in Flimmern oder Moire enden kann
2.) blurren
3.) einfach ein paar falsche Samples nutzen -> es gibt Artefakte wie ghosting
4.) sich samples "ausdenken"

Im Prinzip funktionieren sämtliche temporale AAs dort gleich. Ob nun FSR2, DLSS 2, XeSS, TSSAA, Insomniacs' "Temporal Injection", Epics TSR und TAAU

Der Unterschied in der Güte des Bildes hängt maßgeblich von der Güte des oben beschriebenen Clampings ab. Wie zuverlässig kann es Pixel wiederfinden und wie gut ist die Entscheidung, wenn es nicht wieder gefunden werden kann (inkl die Konsistenz beim "Erfinden" von Samples).
Und dort scheinen neuronale Netzwerke die besseren Ergebnisse zu erzielen. Insbesondere beim "Erfinden" von Samples. Je nach Training können diese beliebig komplex und beliebig flexibel sein.

Ein weiterer Unterschied zwischen TAA und temporalem Upsampling ist, wofür die Samples genutzt werden. TAA verrechnet dieses einfach zu einem Pixel. Temporales Upsampling nutzt die erhöhte Anzahl von Samples um eine höhere output resolution zu erzeugen. Die samples sind ja da.
Da die subpixelpositionen aber nicht zu den zu subpixelpositionen einer höheren Auflösung passen, entsteht eine gewisse Unschärfe (ähnlich wie bei Qunicunx AA vor 20 Jahren). Dem wirkt man mit einem etwas besserem Filterkernel (als nur lineare interpolation) und Nachschärfung entgegen.
Das Textur LOD muss auch verschoben werden, weil ja eine höhere Auflösung dabei herauskommt und das Textur LOD immer auflösungsabhängig ist.

Ich hoffe das war einigermaßen hilfreich. :)

aufkrawall
2023-08-15, 09:17:08
Lob dafür. :up:
Kann man dann mal wieder verlinken, wenn jemand meint, es wäre kein SSAA. Ein Mod könnte den Link auch den Start-Post packen.

BlacKi
2023-08-15, 11:20:57
Aber lassen wirs gut sein. Die Diskussion ist nicht sinnvoll, wenn die Beiträge offensichtlich nicht gelesen werden. :frown:

Ich bin raus.


ich führe im anderen thread genau dieselbe diskussion mit ihm. er versucht sein argument durchzuziehen ohne auf das gegenargument einzugehen.

Gast
2023-08-15, 13:36:33
Danke robbitop :up:

Aber ist "nicht temporales" SSAA dann nicht dennoch besser, weil es zu Zeitpunkt X über die erhöhte Auflösung das Optimum berechnen kann, während "temporales" SSAA dazu mehrere Frames mit weniger Informationen wegen der niedrigeren Auflösung vergleichen muss?

Sprich ist das Clamping in ersterem Fall nicht deutlich einfacher, als in letzterem (von den deutlich höheren Performancekosten mal abgesehen)?

robbitop
2023-08-15, 14:25:29
Qualitativ sollte klassisches SGSSAA mit einer so hohen Samplezahl (16+) schon besser sein, weil es kein Clamping braucht, da ja jedes Sample innerhalb des gleichen Frames berechnet wird. Dafür kostet es aber auch von allem (außer an Geometriedurchsatz) das n fache (SSAA Faktor) an Leistung. Es muss ja alles n fach pro Frame berechnet und gespeichert werden. Also super teuer.
Gute temporale Verfahren kosten eben nur einen Bruchteil - ganz einfach weil sie versuchen, Informationen, die ja bereits mit 1x Berechnung legitim vorhanden sind (aber halt in anderen Frames) zu nutzen. Das würde ich als effizienter bezeichnen...

16x SGSSAA könnte in modernen Titeln in modernen Auflösung keine GPU auch nur ansatzweise stämmen. Temporales AA hingegen kostet 1-2 ms pro Frame.

Exxtreme
2023-08-15, 14:39:02
Danke robbitop :up:

Aber ist "nicht temporales" SSAA dann nicht dennoch besser, weil es zu Zeitpunkt X über die erhöhte Auflösung das Optimum berechnen kann, während "temporales" SSAA dazu mehrere Frames mit weniger Informationen wegen der niedrigeren Auflösung vergleichen muss?

Sprich ist das Clamping in ersterem Fall nicht deutlich einfacher, als in letzterem (von den deutlich höheren Performancekosten mal abgesehen)?

Nichttemporales SSAA wird in den allermeisten Fällen besser sein. Denn 8x SSAA garantiert auch jederzeit, dass die Informationen von 8 Subpixeln bei der Berechnung des endgültigen Pixels berücksichtigt werden. Beim temporalen SSAA ist das nicht der Fall. Da wäre das 8x eine "bis zu 8x"-Angabe. Wird aber hier und da viel niedriger sein. Auch ist das so, dass dieser Algorithmus, der die Subpixel aus vergangenen Frames wiederverwertet, nicht perfekt ist und sich hier und da irrt. Dann sieht man Ghosting und/oder Unschärfe weil Informationen wiederverwertet werden, die da nicht hineingehören. Diese Problematik hat nichttemporales SSAA auch nicht.

Der Hauptnachteil vom nichttemporalen SSAA ist aber, es ist so teuer, dass man es sehr oft nicht sinnvoll verwenden kann.

Relex
2023-08-15, 15:07:19
Nichttemporales SSAA hat aber auch den Nachteil, dass es nur bedingt gegen Shader flimmern oder andere temporale Artefakte/Rauschen jeglicher Art hilft.


Sicherlich könnte man solche Artefakte in der Theorie durch höhere Rendergenauigkeit in den Effekten selbst in irgend einer Form vermeiden oder zumindest etwas reduzieren, auch könnte man SSAA auf extreme Werte (16x, 32x usw) bringen, um dem Problemen Herr zu werden. Aber der Ressourcenaufwand dafür wäre komplett uferlos.

Ich weiß noch, als ich mal bei einigen älteren Spielen (war so 2009 herum) versucht habe mit 8x SGSSAA + MSAA perfekte Bildqualität zu erzielen. Es ist mir häufig nicht gelungen. Manche Stellen haben weiterhin stur Aliasing gezeigt und es hat absolut nichts gebracht obwohl die Framerate schon im einstelligen Bereich angekommen war.


TAA kann eben mehr oder weniger "gratis" irrsinnig viele Samples verwerten.
Dass die Präzision/Qualität nicht ganz an SSAA rankommt ist natürlich richtig. Daher leidet idr. ja auch die Bildschärfe gegenüber SSAA. Dafür erhält man eine AntiAliasing wirkung und Rausch/Flimmer Unterdrückung, die man sonst nur mit astronomischen SSAA Werten erreicht - wenn überhaupt.

Ideal ist eben die Kombination aus beiden.

TAA, um die Artefakte los zu werden und SSAA, um dadurch die Ungenauigkeit auf ein absolutes Minimum zu reduzieren. Es reicht ja idr. schon 4x SSAA um jegliche Unschärfe die durch TAA entsteht zu kompensieren.


Ich kann für einen simplen und eindrucksvollen Test Frostbite Spiele wie Battlefield 5 empfehlen.
Einfach TAA aktivieren und dann die Auflösungsskalierung auf 200%.

Das Bild ist danach sehr nahe an Perfektion. Mehr braucht es IMHO nicht.

robbitop
2023-08-15, 15:21:03
Nichttemporales SSAA hat aber auch den Nachteil, dass es nur bedingt gegen Shader flimmern oder andere temporale Artefakte/Rauschen jeglicher Art hilft.
Das stimmt mMn nicht wirklich. Denn die von dir erwähnten Artefakte entstehen aus Unterabtastung (Verletzung des shannon-nyquist kriteriums). Das passiert bei high frequency Content leider relativ schnell. Je mehr samples, desto stabiler wird das ganze. Mit einer Äquivalenten Anzahl von Samples wäre das auch temporal vergleichbar stabil.

Ich wüßte jedenfalls keinen Mechanismus bei TAA (man möge mich korrigieren, wenn ich falsch liege), der hier anders arbeitet. Abseits dessen, dass die Samples aus unterschiedlichen Frames sind (aber idealerweise identisch zu im gleichen Bild berechneten) und dass die Samplerate z.T. wesentlich höher ist.



Ich weiß noch, als ich mal bei einigen älteren Spielen (war so 2009 herum) versucht habe mit 8x SGSSAA + MSAA perfekte Bildqualität zu erzielen. Es ist mir häufig nicht gelungen. Manche Stellen haben weiterhin stur Aliasing gezeigt und es hat absolut nichts gebracht obwohl die Framerate schon im einstelligen Bereich angekommen war.
MSAA greift nur an Dreieckskanten. Hilft also gegen die von dir beschriebenen Artefakte nicht. SGSSAA war 2009 schon wirklich problematisch, weil die Renderpipelines damals schon recht komplex wurden und man SGSSAA nicht mehr so einfach applizieren konnte. Da brauchte es dann die Kompatibilitätsbits bei Nvidia und auch da gab es oft Nebenwirkungen. Insofern ist es fragtlich, ob das SGSSAA da überall gegegriffen hat. Zumal ja modernes TAA weitaus mehr als 8 Samples nutzt.
Auch haben moderne Spiele nicht mehr ganz so oft specular aliasing, weil die Content Designers gelernt haben, hoch frequenten Content entweder zu vermeiden oder die Shader entsprechend robuster zu schreiben.

-----
Der von dir beschriebene Kniff, Oversampling mit TAA zu kombinieren, ist nichts anderes als die Sampleanzahl (und damit den Informationsgrad) zu erhöhen und das hilft natürlich immer. Es gibt ja auch einen Grund, warum bspw Performance Preset selbst bei DLSS erst ab 4K wirklich brauchbar aussieht. Darunter sind einfach nicht genug Informationen vorhanden.
Allerdings ist mittlerweile DLAA + 4K zB besser als DLSS Performance + 2x2 DSR (wäre dann beides 4K Input und 4K Output). Allerdings könnte man DLAA nochmal mit zusätzlichem DSR aufhübschen.
Allerdings kommt man damit schnell in den Bereich des sinkenden Grenzertrags. :)

Gast
2023-08-15, 17:02:04
Das stimmt mMn nicht wirklich. Denn die von dir erwähnten Artefakte entstehen aus Unterabtastung (Verletzung des shannon-nyquist kriteriums). Das passiert bei high frequency Content leider relativ schnell. Je mehr samples, desto stabiler wird das ganze. Mit einer Äquivalenten Anzahl von Samples wäre das auch temporal vergleichbar stabil.

Reguläres Supersampling erhöht aber nur die spatiale Abtastung, und kann daher kaum etwas gegen temporale Artefakte bewirken.
Gegen temporale artefakte bräuchte es noch temporales supersampling oben drauf.

Und hier wird Supersampling sogar kontraproduktiv, da es durch die hohen kosten und damit einhergehenden FPS-Verlust, die temporale Abtastung sogar verringert.

robbitop
2023-08-15, 20:35:33
Durch höhere Abtastung reduziert man auch Artefakte die nur in Bewegung Sichtbar sind (Flimmern). Entsprechend wird es temporal stabiler.

Ich wüsste gern, was TAA hier anders macht. Ob die Samples aus amderem Frames kommen oder nicht - idealerweise sind sie identisch zu samples die im gleichen Frame berechnet wären.

Welcher Mechanismus jetzt zusätzlich temporal stabilisieren sollte, müsste dann bitte detailiert erklärt werden. :)

Gast
2023-08-15, 22:11:49
Durch höhere Abtastung reduziert man auch Artefakte die nur in Bewegung Sichtbar sind (Flimmern). Entsprechend wird es temporal stabiler.



Nur insofern, dass stärkere Artefakte in einzelnen Frames in Bewegung verstärkt werden. Die werden durch SSAA pro Frame gemindert, aber eben nicht Frameübergreifend.


Ich wüsste gern, was TAA hier anders macht. Ob die Samples aus amderem Frames kommen oder nicht - idealerweise sind sie identisch zu samples die im gleichen Frame berechnet wären.


Das gilt nur für komplett statische Frames, die logischerweise auch keine temporalen Artefakte zeigen können.

Bei TAA gibt es immer eine Überblendung mehrerer Frames, und dadurch ein Verwischen temporaler Artefakte.

Das simuliert damit quasi das Verhalten eines Kameraverschlusses, der ja eine bestimmte Belichtungszeit hat in der er offen ist, während der virtuelle Kameraverschluss beim regulären Rendering ohne zusätzliche Maßnahmen quasi die Verschlusszeit 0 hat.


Welcher Mechanismus jetzt zusätzlich temporal stabilisieren sollte, müsste dann bitte detailiert erklärt werden. :)

Das quasi inhärente Motion-Blur von TAA verringert temporales Aliasing.

Raff
2023-08-15, 22:51:27
Wer sagt, dass SGSSAA nicht gegen Flimmern (= zeitliches Aliasing) hilft, der hat es nicht gesehen. :)

MfG
Raff

DrFreaK666
2023-08-16, 01:27:27
War SGSSAA besser als RGSSAA? Meine Güte ist das lange her

Tesseract
2023-08-16, 03:19:54
RGSSAA is ein spezialfall von SGSSAA. sparse = samples sind weder horizontal noch vertikal überlagert und in etwa homogen über die fläche verteilt. bei 2x und 4x ist das durch rotation möglich bei 8x oder mehr nicht.

aufkrawall
2023-08-16, 03:25:53
Wer sagt, dass SGSSAA nicht gegen Flimmern (= zeitliches Aliasing) hilft, der hat es nicht gesehen. :)

Hilft es natürlich, aber das Restflimmern ist auch sehr hochfrequent vs. das von TAA/DLSS.

Gast
2023-08-16, 08:28:57
Wer sagt, dass SGSSAA nicht gegen Flimmern (= zeitliches Aliasing) hilft, der hat es nicht gesehen. :)



Es hilft, aber nur mit absurd hohen Samplezahlen im Vergleich zu TAA.

Gast
2023-08-16, 08:38:16
War SGSSAA besser als RGSSAA? Meine Güte ist das lange her

Kommt darauf an gegen was.

Ein RG Muster kann auch gleichzeitig ein SG Muster sein, muss es aber nicht. Beispielsweise könnte man 2x2 SSAA auch um 45° rotieren, hätte dann ein RG aber kein SG.

Der Vorteil von SG, also keine über bzw. nebeneinander liegenden Samples in vertikaler bzw. horizontaler Richtung, ist dass die laaaaangen Treppenstufen von fast aber nicht ganz horizontaler bzw. vertikaler Stufen besser geglättet werden.

SG ist aber nicht in jeder Situation von Vorteil, insbesondere beim angesprochenen temporalen Aliasing oft nicht. Temporales Aliasing entsteht wenn Details in die Lücken zwischen die einzelnen Samples fallen und um dieses möglichst gut zu eliminieren sollte der Abstand zwischen den Samples möglichst gering sein.
Bei OGSSAA ist der Abstand immer gleichmäßig, bei SGAA ist dieser in zwischen bestimmten Samples immer größer als beim OGAA.
Je nachdem wie die Details welche temporales Aliasing erzeugen gerade liegen kann SGSSAA also auch schlechtere Ergebnisse als OGSSAA mit gleich vielen Samples erzeugen.

Exxtreme
2023-08-16, 08:48:15
Es hilft, aber nur mit absurd hohen Samplezahlen im Vergleich zu TAA.

Wobei TAA das Flimmern oft durch Unschärfe "löst". Bleibt zu hoffen, dass die TAA-Implementierungen immer besser werden und Unschärfe seltener wird.

aufkrawall
2023-08-16, 08:48:30
Je nachdem wie die Details welche temporales Aliasing erzeugen gerade liegen kann SGSSAA also auch schlechtere Ergebnisse als OGSSAA mit gleich vielen Samples erzeugen.
Nein. Die Winkel, die SG schlechter bearbeitet als OG, zeigen viel weniger Aliasing. Warum wohl ist OG bei der Bildruhe komplett chancenlos gegen SG bei so ziemlich jedem realen Bildinhalt...

Wobei TAA das Flimmern oft durch Unschärfe "löst". Bleibt zu hoffen, dass die TAA-Implementierungen immer besser werden und Unschärfe seltener wird.
Ist mit FSR 2 und TSR passiert. Ist halt auch nicht nebenwirkungsfrei.

DrFreaK666
2023-08-16, 09:10:19
Hab OG mit SG verwechselt.

robbitop
2023-08-16, 11:57:17
Nur insofern, dass stärkere Artefakte in einzelnen Frames in Bewegung verstärkt werden. Die werden durch SSAA pro Frame gemindert, aber eben nicht Frameübergreifend.



Das gilt nur für komplett statische Frames, die logischerweise auch keine temporalen Artefakte zeigen können.

Bei TAA gibt es immer eine Überblendung mehrerer Frames, und dadurch ein Verwischen temporaler Artefakte.

Das simuliert damit quasi das Verhalten eines Kameraverschlusses, der ja eine bestimmte Belichtungszeit hat in der er offen ist, während der virtuelle Kameraverschluss beim regulären Rendering ohne zusätzliche Maßnahmen quasi die Verschlusszeit 0 hat.



Das quasi inhärente Motion-Blur von TAA verringert temporales Aliasing.
Danke für die Erklärung :up:
Das habe ich mir schon fast gedacht - damit sollte es spatial aber wahrscheinlich etwas schlechter sein und da kommen dann wahrscheinlich auch die ein oder anderen Bewegtartefakte her (wenn die Samples einfach zu unterschiedlich zwischen den Frames werden).

Wobei TAA das Flimmern oft durch Unschärfe "löst". Bleibt zu hoffen, dass die TAA-Implementierungen immer besser werden und Unschärfe seltener wird.
Genau - das kommt durch das Verrechnen mehrerer Bilder. Sowas wie (korrektes!) Motion Blur (nicht zu verwechseln mit Motion Trail). Siehe die Erläuterung vom Gast, die ich zitiert habe.

robbitop
2023-08-16, 12:03:32
Nein. Die Winkel, die SG schlechter bearbeitet als OG, zeigen viel weniger Aliasing. Warum wohl ist OG bei der Bildruhe komplett chancenlos gegen SG bei so ziemlich jedem realen Bildinhalt...


Ich meine mal gelesen zu haben, dass OG bei specular shimmering etwas besser beruhigt als SGSSAA. Müsste man in der Praxis mal testen.
Da man dank modernem TAA eh kein Kantenglättungsproblem mehr hat, und da DSR eh so ziemlich immer nutzbar ist, ist die Kombination aus OGSSAA + TAA wahrscheinlich gar nicht so schlecht. (allerdings wie immer mit SSAA teuer)

aufkrawall
2023-08-16, 12:15:55
Ich meine mal gelesen zu haben, dass OG bei specular shimmering etwas besser beruhigt als SGSSAA. Müsste man in der Praxis mal testen.

Purer Mythos. Kann mich noch ziemlich gut daran erinnern, wie 4xOGSSAA/Downsampling in der Source Engine auf diversen Metallgeländern etc. mit Specular Highlights total unruhig aussah gegen 4xSGSSAA. OG ist halt einfach weniger effektiv. Die temporale Stabilität von 4xOG ist ein völliger Witz gegen TAA.


Da man dank modernem TAA eh kein Kantenglättungsproblem mehr hat, und da DSR eh so ziemlich immer nutzbar ist, ist die Kombination aus OGSSAA + TAA wahrscheinlich gar nicht so schlecht. (allerdings wie immer mit SSAA teuer)
Ist für mich in Zeiten von 144Hz Monitoren für Gaming als defakto Minimum nicht mehr als anekdotisch. :)

robbitop
2023-08-16, 12:21:13
Purer Mythos. Kann mich noch ziemlich gut daran erinnern, wie 4xOGSSAA/Downsampling in der Source Engine auf diversen Metallgeländern etc. mit Specular Highlights total unruhig aussah gegen 4xSGSSAA. OG ist halt einfach weniger effektiv. Die temporale Stabilität von 4xOG ist ein völliger Witz gegen TAA.
Ja gegen TAA kommt temporal beides nicht an. SGSSAA ist irgendwie auch immer etwas unschärfer. Und bei einem Spiel ohne TAA flimmern dann auch die Kanten wegen schlechterer Glättung bei OGSSAA mehr. Das steigert den Eindruck der Bildunruhe noch mehr.
Man müsste mal OGSSAA vs SGSSAA bei einem Spiel testen, was TAA hat. Nur leider ist SGSSAA bei modernen Titeln (wo es modernes TAA gibt) nicht mehr anwendbar. :-/


Ist für mich in Zeiten von 144Hz Monitoren für Gaming als defakto Minimum nicht mehr als anekdotisch. :)
Das kann ich gut verstehen - ich wertschätze hohe Refresharates mittlerweile auch höher als andere Aspekte. Die Bewegtschärfe, der Inputlag, die gefühlte Flüssigkeit hat für mich einfach mehr Einfluss auf das Empfinden des Gameplays. Es steigert bei mir tatsächlich den Spaß am Gameplay. :)

teezaken
2023-08-16, 17:52:36
Ja gegen TAA kommt temporal beides nicht an. SGSSAA ist irgendwie auch immer etwas unschärfer. Und bei einem Spiel ohne TAA flimmern dann auch die Kanten wegen schlechterer Glättung bei OGSSAA mehr. Das steigert den Eindruck der Bildunruhe noch mehr.
Man müsste mal OGSSAA vs SGSSAA bei einem Spiel testen, was TAA hat. Nur leider ist SGSSAA bei modernen Titeln (wo es modernes TAA gibt) nicht mehr anwendbar. :-/


Das kann ich gut verstehen - ich wertschätze hohe Refresharates mittlerweile auch höher als andere Aspekte. Die Bewegtschärfe, der Inputlag, die gefühlte Flüssigkeit hat für mich einfach mehr Einfluss auf das Empfinden des Gameplays. Es steigert bei mir tatsächlich den Spaß am Gameplay. :)
Ich erweiterte die Forza Games immer sehr gerne um SGSSAA, klappt auch sehr gut, nur in Forza Horizon 5 überzeugt es nicht so wie in den anderen Spielen am PC, keine Ahnung wieso... jedenfalls nutze ich 2.25x DLDSR + 4xSGSSAA in Forza Horizon 5 sieht gut aus, hat keine Artefakte wie die anderen Verfahren im Spiel und läuft mit ca. 90+ Fps jetzt auch nicht so schlecht.

Gast
2023-08-17, 08:00:50
SGSSAA ist irgendwie auch immer etwas unschärfer.

SGSAA erlaubt eine geringere LOD-Verschiebung ohne das Nyquist-Shannon-Theorem zu verletzen, im Vergleich zu OGSSAA, womit auch die Schärfezunahme etwas geringer ist.
Daraus ergibt sich auch, dass es gegenüber OGSSAA etwas weniger gegen Texturflimmern hilft.

Wobei bei realen Umsetzungen OGSSAA praktisch immer nichts anders als eine interne Auflösungserhöhung ist, und damit das Mip-LOD automatisch auf die eigentliche Renderauflösung skaliert und keine zusätzliche Anpassung notwendig ist.

Bei SGSSAA ist das oft nicht der Fall, hier erfolgt meistens keine automatische Anpassung, und es ist auch nicht trivial den korrekten noch zulässigen LOD-Bias zu ermitteln.

Bei realen Vergleichen ist damit out of the box die die Schärfe mit OGSSAA deutlich höher, die Unterdrückung temporaler Artefakte, falls diese durch die zugrundeliegenden Texturen entstehen, mit SGSSAA besser als es wäre wenn beide mit korrektem Mip-LOD antreten würden.

robbitop
2023-08-17, 09:13:06
Ja das habe ich damals auch oft beobachtet. Glücklicherweise konnte man das Textur LOD (geht glaube ich heute auch noch) ja über externe Tools verändern.

aufkrawall
2023-08-17, 09:17:01
Daraus ergibt sich auch, dass es gegenüber OGSSAA etwas weniger gegen Texturflimmern hilft.

Texturflimmern wird mit SG genauso stärker effektiv unterdrückt wie alles andere Flimmern...

crux2005
2023-08-17, 12:49:21
Der DLSSTweaks-Entwickler hat herausgefunden, dass man mit neueren DLLs wohl das DLSS-Preset etc. über NVAPI, also den Inspector, einstellen kann:
https://github.com/Orbmu2k/nvidiaProfileInspector/issues/156#issuecomment-1661197267

Habs noch nicht probiert.

Welches "Preset" sollte ich mit DLAA (in HZD) benutzen?

aufkrawall
2023-08-17, 12:59:43
Imho C. Executer meint F, braucht in 1440p aber auch mit DLAA schon deutliches Nachschärfen.

crux2005
2023-08-17, 13:09:50
Imho C. Executer meint F, braucht in 1440p aber auch mit DLAA schon deutliches Nachschärfen.

Kann ja beide mal probieren. Danke! :)

Lurtz
2023-08-17, 21:44:32
Im Preload von Starfield ist keine DLSS-DLL, die Hoffnung kann man also endgültig begraben ;)

Oliver_M.D
2023-08-17, 22:22:08
Müssen wir wohl wieder auf die Modder warten oder darauf hoffen, dass negative Presse eine Änderung erzwingt.
Ansonsten ist das Ganze schon etwas traurig, aber so ist es nun mal.

Linmoum
2023-08-17, 22:31:55
Negative Presse gab's ja schon. Bislang hat man das aber als noch nicht offiziell abgetan, das hätte ja jetzt zum Launch womöglich noch anders aussehen können.

Aber gut, weiß man dann in dem Fall wenigstens, dass AMD hier tatsächlich die Integration aktiv unterbindet und die wischiwaschi-Aussagen ihren Grund hatten. Immerhin haben sie es nie abgestritten, so kann man ihnen nicht vorwerfen, gelogen zu haben. Ist ja auch was. /s

Nvidia den Rang als größtes Arschlochunternehmen streitig zu machen, ist auf jeden Fall eine Meisterleistung und Nvidia kriegt bei dem Thema jetzt sogar noch for free gratis gute Presse mit solchen Aktionen.

Muss man halt auf Modder warten. Wenn man darüber dann endlich DLSS zur Verfügung hat, kann ich mir schon denken, wie der direkte Vergleich mit FSR (mal wieder) ausfallen wird. Noch mehr gratis gute Presse für Nvidia dann. ;D

DrFreaK666
2023-08-17, 22:44:57
Möglichkeit besteht theoretisch noch dass auf der Gamescom FSR3 mir Starfield vorgestellt wird

crux2005
2023-08-18, 00:51:46
Möglichkeit besteht theoretisch noch dass auf der Gamescom FSR3 mir Starfield vorgestellt wird

Inwiefern ist das Relevant?

Nazar
2023-08-18, 01:04:08
Negative Presse gab's ja schon. Bislang hat man das aber als noch nicht offiziell abgetan, das hätte ja jetzt zum Launch womöglich noch anders aussehen können.

Aber gut, weiß man dann in dem Fall wenigstens, dass AMD hier tatsächlich die Integration aktiv unterbindet und die wischiwaschi-Aussagen ihren Grund hatten. Immerhin haben sie es nie abgestritten, so kann man ihnen nicht vorwerfen, gelogen zu haben. Ist ja auch was. /s

Nvidia den Rang als größtes Arschlochunternehmen streitig zu machen, ist auf jeden Fall eine Meisterleistung und Nvidia kriegt bei dem Thema jetzt sogar noch for free gratis gute Presse mit solchen Aktionen.

Muss man halt auf Modder warten. Wenn man darüber dann endlich DLSS zur Verfügung hat, kann ich mir schon denken, wie der direkte Vergleich mit FSR (mal wieder) ausfallen wird. Noch mehr gratis gute Presse für Nvidia dann. ;D

Wer ist Publisher des Spiels?
Tipp: Es ist der mächtigste SW-Konzern dieses Planeten.
Und du schüttelst die abwegigste Behauptung überhaupt einfach mal so aus dem Ärmel, und warum?
Weil diese die mit Abstand unwahrscheinlichste ist?
Weil ein ehemals nur als reines Konsolenspiel entwickeltes Spiel, !!nicht!! im Plan hatte DLSS mit einzubauen, da dies ein komplett unnötiger Aufwand gewesen wäre (du weißt schon, dass Konsolen kein DLSS unterstützen, gell?)?
Weil DLSS nicht mit jeder Engine ohne Probleme funktioniert?
Weil DLSS auf so einem Spiel vor der Release gründlich getestet werden müsste?
Weil so ein Test den Release noch weiter verschieben würde?
Und weil das AMD 0,0 Dollar kosten würde, Microsoft aber Millionen von Dollar, deshalb ist nun, da es offensichtlich ist, dass kein DLSS gleich zu Anfang dabei sein wird, AMD der Konzern, der Microsoft vorschreibt, dass es kein DLSS geben wird?
Wie weit weg von jedweder Logik muss man leben, um auf den am weit entferntesten logischen Schluss kommen zu können? :confused:
AMD schreibt MS vor, was diese tun und lassen haben! In welchem Universum bitte? :confused: :freak: ;D
OMFG :eek:

BlacKi
2023-08-18, 01:44:16
das die implementation wenige stunden dauert, von nv sogar supportet wird, ist die sache bei einem solch großen spiel schon eine bewusste entscheidung.

DrFreaK666
2023-08-18, 02:00:29
Inwiefern ist das Relevant?

Möglicherweise bessere Qualität + FG

Exxtreme
2023-08-18, 08:45:36
das die implementation wenige stunden dauert, von nv sogar supportet wird, ist die sache bei einem solch großen spiel schon eine bewusste entscheidung.

Korrekt. Andererseits ist das so, der Mutterkonzern der Starfield-Macher ist Micros~1. Und Micros~1 und Nvidia sind sich überhaupt nicht grün.

DrFreaK666
2023-08-18, 08:57:25
Korrekt. Andererseits ist das so, der Mutterkonzern der Starfield-Macher ist Micros~1. Und Micros~1 und Nvidia sind sich überhaupt nicht grün.

Naja... FH5 erhielt DLSS vor FSR (wenn ich mich recht erinnere (mal so als Beispiel))

robbitop
2023-08-18, 08:58:53
Aber gut, weiß man dann in dem Fall wenigstens, dass AMD hier tatsächlich die Integration aktiv unterbindet und die wischiwaschi-Aussagen ihren Grund hatten. Immerhin haben sie es nie abgestritten, so kann man ihnen nicht vorwerfen, gelogen zu haben. Ist ja auch was. /s

Inwiefern ist das Nichtvorhandensein von DLSS ein Beweis, dass AMD dies aktiv verhindert hat? Ich finde, dass ist ein voreiliger Schluss. Wir wissen faktisch nur, dass es nicht dabei ist aber nicht warum. Es gibt ja noch andere Spiele wo kein DLSS dabei ist und welche wo kein FSR dabei ist.
Mutmaßen kann man das natürlich - aber Substanz sehe ich da noch keine.
Erinnert mich an die Zeiten wo die Dorfbewohner nachts mit Fackeln und Heugabeln auf Hexenjagt gingen. (vielleicht war ja auch mal richtigerweise eine Hexe dabei wer weiß...)

das die implementation wenige stunden dauert, von nv sogar supportet wird, ist die sache bei einem solch großen spiel schon eine bewusste entscheidung.
Es gibt etliche Spiele, die nicht alle Temporalen Upsamplingverfahren implementiert haben. Sowas muss nicht nur implementiert werden sondern auch validiert werden. Wenn dafür keine Priorität / Budget eingeräumt wurde wirds halt nicht gemacht. Es gibt Studios denen ist das wichtiger als anderen.
Außerhalb unserer Nerd Blase ist das der Masse schnurzegal und die Güte des Spiels ist um Größenordnungen wichtiger.
Gelegenheit allein reicht noch nicht. ;)

Relex
2023-08-18, 13:16:10
Gerade bei großen Titeln hat Nvidia ein Interesse daran, dass DLSS supported wird.

Gerade Starfield ist einer der größten Releases der letzten Jahre.
Es ist also davon auszugehen, dass Nvidia da liebend gern bei der Integration unterstützt hätte.

Und da FSR2 ja auch implementiert wird würde sich der Mehraufwand eh in Grenzen halten, egal ob Nvidia Unterstützung leistet oder nicht. Das wäre für die Entwickler doch eine Win Win Situation.

Durch die AMD Partnerschaft ist FSR drin. Da FSR schon drin ist, ist DLSS leicht zu implementieren und Nvidia unterstützt auch noch dabei. Damit wären alle Glücklich incl. der Leute, die sich seit Monaten über fehlendes DLSS beschweren.

Es wäre so eine einfach zu lösende WinWin Situation.

Die Naheliegendste und wahrscheinlichste Begründung kann nur die AMD Exklusivpartnerschaft sein.

Das macht alle anderen Argumente, warum DLSS nicht unterstützt wird nicht direkt falsch. Dennoch sind sie sehr viel unwahrscheinlicher.


Zumal es ja auch so ist, dass Bethesda die Performancevorteile von FSR2 explizit hervorgehoben und beworben hat und daher dem Upscaling einen durchaus großen Stellenwert einräumt.
Es ergibt also keinen Sinn, einerseits die Vorteile der Performancesteigerung hervorzuheben, dann aber andererseits DLSS einfach abzulehnen.
Hätte Bethesda selbst keine Werbung für FSR gemacht, hätte man ja zumindest noch argumentieren können, dass es ihnen einfach egal ist und es einfach nur durch die AMD Partnerschaft mit in den Topf gefallen ist.
Aber wenn man sich schon extra hinstellt und es bewirbt, dann ist fehlendes DLSS einfach ein Mittelfinger an alle Nvidia Nutzer.
Da braucht es keine Verschwörungstheorien, um zu dieser Erkenntnis zu kommen. Etwas weniger Naivität sollte reichen.

Den Vogel würden sie jetzt abschießen, wenn FSR3 mit Frame Generation unterstützt wird, aber Frame Gen exklusiv nur auf RDNA3 läuft.
Ich glaube wenn sie das bringen, dann ist der nächste Shitstorm sicher. Denn das wäre der zweite Mittelfinger an Nvidia Nutzer.

robbitop
2023-08-18, 13:27:38
Alles nur Spekulation - aber möglich ist es.
FSR3 soll aber (zumindest hat AMD das letztes Jahr als Ziel benannt) HW agnostisch sein.

Am Ende kann man nur eines lernen "companies are not your friends". Sie dienen ausschließlich dem Interesse ihrer Investoren. Gewinnmaximierung.
Ein Underdog hat weniger Möglichkeiten als ein Marktführer. Entsprechend kommuniziert und bepreist er anders. Wird ein Underdog zu einem Nicht-Underdog verhält und bepreist er anders. Meine Meinung.

DrFreaK666
2023-08-18, 13:28:47
...Zumal es ja auch so ist, dass Bethesda die Performancevorteile von FSR2 explizit hervorgehoben und beworben hat und daher dem Upscaling einen durchaus großen Stellenwert einräumt...Hätte Bethesda selbst keine Werbung für FSR gemacht...

Wann soll das passiert sein?

Relex
2023-08-18, 14:06:50
Wann soll das passiert sein?

Hier der Kommentar von Todd persönlich ab 01:03.
Tatsächlich ist FSR die einzige Technologie die er hervorhebt.
https://www.youtube.com/watch?v=9ABnU6Zo0uA&t=63s

FSR wird hier also ganz gezielt beworben, wie ich geschrieben habe.


Aber abseits von FSR bin ich ja eigentlich viel mehr auf die VRAM Belegung gespannt.
AMD wird sicherlich keine besonderen Anstrengungen unternehmen, damit das Spiel mit hohen Einstellungen auch auf 8 GB Karten gut läuft.
Ich denke das könnte für die meisten Spieler am Ende der viel wichtigere Aspekt sein.

Aber ich würde da in beiden Fällen Bethesda in der Pflicht sehen. AMD kann und sollte das egal sein. Hinsichtlich VRAM trifft auch Nvidia die Teilschuld weil sie so geizig mit der VRAM Ausstattung sind. Da würde auch DLSS kaum helfen. Frame Gen sogar noch zusätzlich VRAM kosten.

dildo4u
2023-08-18, 14:27:19
Nvidia hat die 3060 die sich deutlich besser verkauft als alles von AMD, daher tut AMD gut daran das die 7060 nicht komplett versagt.

aufkrawall
2023-08-18, 14:39:36
AMD wird sicherlich keine besonderen Anstrengungen unternehmen, damit das Spiel mit hohen Einstellungen auch auf 8 GB Karten gut läuft.

Und der Code für den D3D12-Renderer auf dem PC, wie das Spiel mit VRAM umgeht, soll
1. aus der Feder von AMD selbst stammen
2. absichtlich Karten mit wenig VRAM, also auch die eigenen, sabotieren?

Schade, wenn zwischen vernünftigen Posts dann so ein sich selbst diskreditierendes Geschwurbel dabei ist...

Relex
2023-08-18, 14:53:05
Jap, laut Todd arbeiten die AMD Leute direkt an der Engine.

Bei AMD haben nur die Low End Karten 8 GB daher wäre es da kein Problem, die Details entsprechend runterzuschrauben. Zumal man mit geringeren Details ja auch allgemein VRAM spart. die Texturen sind ja nicht der einzige VRAM fresser.

Problematisch wirds dann eben mit RTX3070 oder 3080. Das war vor zwei Jahren noch die Oberklasse. Diese Leute spielen nicht in 1080p mit Medium settings. Die Spielen in 1440p, mit der 3080 wahrscheinlich nicht selten auch mal in 4K.

Mit DLSS und FSR haben die Karten idr. auch heute noch genug performance für eine ansehnliche 4K Ausgabe. Nur der VRAM wird dann eben mittlerweile sehr schnell zum Verhängnis.. DLSS und FSR können dem erhöhten VRAM Bedarf in 4K eben kaum entgegenwirken.

Nochmal, ich sage nicht, dass sich AMD hier um die VRAM Nutzung auf Nvidia Karten scheren muss. Aber ich erwarte deshalb auch nicht dass das Spiel besonders effizient mit dem VRAM umgeht, so wie es für Nvidia Karten nunmal notwendig wäre (ist Nvidias Schuld, dass sie nicht mehr verbauen, ich weiß). Denn erstens wird das mit AMD Partnerschaft keine erhöhte Prio haben und zweitens wird das vermutlich auch von Seiten Engine oder Bethesda selbst nichts sein, worauf man Wert gelegt hat. Dafür war Bethesda mit ihrer Engine traditionell immer zu weit zurück. Wäre zwar toll, wenn sie fortschrittlichere Streaming methoden oder sogar virtual textures nutzen, welche mit dem vorhandenen Speicher effizienter umgehen und auch bei geringem VRAM Budget noch ansehnliche Texturen erlauben, aber da hab ich wie gesagt Zweifel.
Sicherlich wird die Engine besser/effizienter laufen, als die alte. Das ist ja alleine schon notwendig, um sowas wie Starfield überhaupt realisieren zu können. Aber ich erwarte da keine Wunder und eine eher holprige Performance mit hohem Speicherbedarf. Aber lassen wir uns mal überraschen. Interessant wird es auf jeden Fall.

Ach ja, abfällige Kommentare kannst du dir künftig bitte verkneifen.

DrFreaK666
2023-08-18, 14:56:10
...Tatsächlich ist FSR die einzige Technologie die er hervorhebt.
https://www.youtube.com/watch?v=9ABnU6Zo0uA&t=63s

FSR wird hier also ganz gezielt beworben, wie ich geschrieben habe...

Es ein Mal in einem Video zu erwähnen, ist für mich keine Werbung. Das war nicht mal auf dem Bethesda YT-Kanal, sondern das von AMD. Natürlich möchte AMD das auf deren Seite erwähnt haben.

aufkrawall
2023-08-18, 15:01:41
Jap, laut Todd arbeiten die AMD Leute direkt an der Engine.

Im Video wird rein gar nichts zum VRAM-Verbrauch gesagt, also denk dir keinen Stuss aus.

Relex
2023-08-18, 15:28:18
Du kannst es nicht lassen mit den abfälligen Kommentaren oder? Schlecht geschlafen?


Sie arbeiten also an der Engine, aber dass sie am VRAM Management arbeiten schließt du aus und bezeichnest es als Stuss?
Interessante Sichtweise.

Ich würde sagen, dass an der Engine arbeiten Aspekte wie das VRAM Management impliziert. Du kannst es also nicht ausschließen. Ergibt keinen Sinn. Aber letztendlich wissen wir nicht, woran sie innerhalb der Engine genau gearbeitet haben. (abgesehen von FSR)

Ich sagte ja auch nur, dass AMD hier kein besonders Augenmerk auf besonders effiziente VRAM Nutzung legen wird, wie es Nvidia evtl. an deren Stelle tun würde.

Da das Spiel ziemlich ambitioniert ist, und ich von der Engine keine Wunder hinsichtlich Effizienz erwarte, vermute ich deshalb grundsätzlich relativ hohe Anforderungen an den Speicher.


Aber genug jetzt. Wird zu viel offtopic und mit jemanden zu diskutieren, der nur auf Konfrontationskurs aus ist, macht auch wenig Sinn. Der Name ist wohl Programm.

aufkrawall
2023-08-18, 15:33:16
Sie arbeiten also an der Engine, aber dass sie am VRAM Management arbeiten schließt du aus und bezeichnest es als Stuss?
Interessante Sichtweise.

Im Video wird explizit nur MT und Upsampling erwähnt, alles andere ist von dir komplett dazugedichtet. Und zudem OT hier.

dildo4u
2023-08-22, 09:44:49
DLSS 3.5 für Raytracing Rekonstruktion angekündigt.



https://videocardz.com/newz/nvidia-announces-dlss-3-5-with-ray-reconstruction-launches-this-fall

Fragman
2023-08-22, 09:55:48
Schaut vielversprechend aus, sie gehen damit wieder ein Problem mehr an und bieten eine Lösung.
Ich hab dazu aber keinen nv Link dazu gefunden.

basix
2023-08-22, 11:42:25
Schaut interessant aus. Endlich keine Low Resolution Reflections mehr?

Allerdings scheint der Color Shift im gezeigten CP2077 Bild relativ gross zu sein. Ist nun die Frage, was jetzt "richtig" ist.

Edgecrusher86
2023-08-22, 11:45:53
Sieht sehr gut aus - vermutlich will NV es doch erst etwas später ankündigen - ich denke mal zur GC. :wink:

Linmoum
2023-08-22, 11:58:44
Dauert immerhin nicht mehr lange, sofern 3.5 in Phantom Liberty direkt zum Release verfügbar ist. Das kommt ja schon nächsten Monat.

Gast
2023-08-22, 12:01:56
Allerdings scheint der Color Shift im gezeigten CP2077 Bild relativ gross zu sein. Ist nun die Frage, was jetzt "richtig" ist.

Da scheint ohne DLSS ein großer Teil der Reflexion zu fehlen, bzw. der Anteil vom Albedo zur Reflexion wesentlich höher zu sein.

Bei der glossy Reflection ist das ziemlich eindeutig, der Effekt selbst dürfte aber bei der diffusen Relfexion sehr ähnlich sein.

The_Invisible
2023-08-22, 12:02:42
Goil, würde ja perfekt zum DLC Release passen und dann noch Pathtracing dazu, bin bereit :D

Ist das eigentlich ein 4000er only Feature? Hat ja eigentlich nix mit Optical Flow Accel zu tun oder

Wollen sie damit AMD die FSR3 Show stehlen :D