Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x, DLSS 3.x, DLSS 4
x-force
2024-11-14, 21:18:15
habt ihr ölgemälde vergleichsshots auf denen es ein blinder sieht?
zu viel schärfe, zu hoher kantenkontrast usw. ist klar, aber was meint ihr damit?
haut und oberflächen spiegeln/glänzen?
Relex
2024-11-14, 21:22:36
Spätestens wenn du auf performance oder ultra performance runter gehst sollte es mehr als offensichtlich sein. Quality bzw. höhere Auflösungen mildern das ein wenig ab, der Eindruck bleibt aber der gleiche.
Wenn mans einmal gesehen hat, dann erkennt man den look quasi überall.
Ich schau mal ob ich das mit Screenshots festhalten kann...
Grundsätzlich tritt das aber nur in Bewegung auf. Im Standbild sieht man davon nichts.
aufkrawall
2024-11-14, 21:29:04
Ist mir bislang nur im Standbild aufgefallen. Je niedriger Render- oder Target-Auflösung ist, desto schlechter. In Portal RTX kann man das gut an Gittermustern erkennen. Je weiter man mit der Auflösung runtergeht, desto aufgeblähter und ungleichmäßiger verlaufen gerade Linien. Es stört mich mit 4k Target aber erst ab UP wirklich, mit P macht es mir die Immersion noch nicht kaputt.
In CP77 sieht es aber auch wesentlich schlechter aus als etwa in The First Descendant mit Nanite. Vielleicht hilft Nanite auch dagegen. Oder einfach Zufall, je nachdem, was das RT an Noise-Pattern hinterlässt.
The_Invisible
2024-11-14, 21:48:00
Findest du? :D
https://youtu.be/R_DXVplZsaU
Arg was RR da an Details rausholt, für die paar fps würde ich das immer einschalten
Relex
2024-11-14, 21:58:55
@x-force
Hier mal ein Vergleich, der ganz deutlich zeigt, was gemeint ist.
Links RR, rechts normales DLSS.
Beides 4K mit Ultra Peformance Upscaling + 50% Scharfzeichner und das alles in Bewegung.
Schon seltsam, man muss es wirklich übertrieben, damit es auf screenshots offensichtlich wird. Ingame fällt mir der Ölgemälde Look selbst bei 4K im Quality Modus ohne Scharfzeichner noch ins Auge.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90209&stc=1&d=1731617750
aufkrawall
2024-11-14, 22:36:14
Wobei das vordere Auto rechts auch arg den temporalen ML-Weichzeichner abbekommen hat.
Gymnopédies
2024-11-14, 23:10:21
Welches Preset nimmt man denn jetzt am besten mit der neusten Version in Verbindung mit DLAA?
aufkrawall
2024-11-14, 23:15:01
Im Zweifel erst mal E. Wenn dich die etwas pixeligen Kanten nicht stören oder dir nicht auffallen, spricht quasi nichts dagegen. Ansonsten imho C.
Mit F hab ich noch in nativen 4k DLAA das Bedürfnis, zusätzlich Sharpen zu aktivieren. Schon absurd, wenn E selbst mit Upsampling schärfer sein kann.
x-force
2024-11-14, 23:16:32
@x-force
Hier mal ein Vergleich, der ganz deutlich zeigt, was gemeint ist.
Links RR, rechts normales DLSS.
Beides 4K mit Ultra Peformance Upscaling + 50% Scharfzeichner und das alles in Bewegung.
danke
in den spiegelungen der fenster sieht man, dass rr mehr details liefert, dafür die geometrie teilweise verzerrt und auch mehr blurrt.
sieht mir nach klassicher unterabtastung aus.
kann der entwickler dafür eigentlich wie bei af und aa eine anzahl an samples vorgeben, um die qualität zu erhöhen?
oder ist das ein temporaler effekt, der nur mit mehr ghosting zu bekämpfen wäre?
lilgefo~
2024-11-17, 20:14:11
Kann mir jemand erklären, warum Dlss3 FG den Verbrauch der Karte erhöht, selbst wenn ohne FG das FrametimeCap schon erreicht wird? Hatte das jetzt schon ein paar mal gesehen in AW2; alles auf max inkl. PT läuft meistens mit 60fps aber im Wald z.B. nicht. In Szenen in denen das Cap aber auch ohne FG erreicht wird ist die Auslastung trotz der gleichen FPS mit FG dann höher (der Verbrauch natürlich auch). Also sowas wie 370w mit DLSS-Q/max. Details auf der 4090 mit knapp 3Ghz ohne FG vs 410W mit FG und selben Settings.
Hab FG jetzt das erste Mal getestet, da die 4090 auch mit >2,9Ghz teils einfach zu langsam ist für AW2 selbst mit DLSS-Q und es ist ok aber wenn man drauf achtet fallem einem schnell die generierten Frames auf und es ist schon ablenkend. Immerhin ist das Ghosting nicht noch schlechter als in CP oder Tlou mit Dlaa.
Und weiß jemand wie FG mit dem fpscap umgeht? Sprich werden nur die fehlenden fps zum Cap generiert oder wird dann ~die hälfte com cap als Basis genommen oder wie?
Thunder99
2024-11-18, 09:27:26
Dankeschön für die Erklärung und Diskussionen. Ist echt tricky die Beste Einstellung zu finden da alle mehr oder weniger einen Hacken hat :up: :D.
Bezogen auf alte Spiele wie letzter Tomb Raider Teil würde es mir vor allem auf sehr gutes AA angekommen. Performance ist genug da mit einer 4080. Ggf dann echt erst DSR nutzen um dann auf Q zu gehen, sofern möglich :).
Kennt ihr noch das AA Support File? Mit auch anderen Einstellungen aus dem Inspector für Qualitätssteigerung? Könnte man ja mtk DLSS optimalem Einstellungen erweitern :)
Also sowas wie 370w mit DLSS-Q/max. Details auf der 4090 mit knapp 3Ghz ohne FG vs 410W mit FG und selben Settings.
Eher seltsam, normalerweise ist es umgekehrt.
Und weiß jemand wie FG mit dem fpscap umgeht? Sprich werden nur die fehlenden fps zum Cap generiert oder wird dann ~die hälfte com cap als Basis genommen oder wie?
Es werden immer nur 1/2 Frames komplett berechnet und der Rest interpoliert.
Geldmann3
2024-11-20, 08:55:22
Kann mir jemand erklären, warum Dlss3 FG den Verbrauch der Karte erhöht, selbst wenn ohne FG das FrametimeCap schon erreicht wird? Hatte das jetzt schon ein paar mal gesehen in AW2; alles auf max inkl. PT läuft meistens mit 60fps aber im Wald z.B. nicht. In Szenen in denen das Cap aber auch ohne FG erreicht wird ist die Auslastung trotz der gleichen FPS mit FG dann höher (der Verbrauch natürlich auch). Also sowas wie 370w mit DLSS-Q/max. Details auf der 4090 mit knapp 3Ghz ohne FG vs 410W mit FG und selben Settings.
Hab FG jetzt das erste Mal getestet, da die 4090 auch mit >2,9Ghz teils einfach zu langsam ist für AW2 selbst mit DLSS-Q und es ist ok aber wenn man drauf achtet fallem einem schnell die generierten Frames auf und es ist schon ablenkend. Immerhin ist das Ghosting nicht noch schlechter als in CP oder Tlou mit Dlaa.
Und weiß jemand wie FG mit dem fpscap umgeht? Sprich werden nur die fehlenden fps zum Cap generiert oder wird dann ~die hälfte com cap als Basis genommen oder wie?
- Der Verbrauch steigt, weil die Framegeneration auch Energie kostet.
- Bei einem Framecap wird die Hälfte als Basis genommen
kann der entwickler dafür eigentlich wie bei af und aa eine anzahl an samples vorgeben, um die qualität zu erhöhen?
Nein, der Entwickler kann die Samplepositionen und den Samplejitter einstellen, doch die Anzahl der Samples wird vom DLSS-Setting bestimmt.
Wenn DLSS nicht richtig funktioniert, liegt es meist daran, dass DLSS von anderen Daten (Sample-Positionen) ausgeht oder die vom Spiel generierten Motion-Vektoren unbrauchbar sind oder, dass Post-Effects wie Regen schon vor dem DLSS-pass appliziert werden.
Lurtz
2024-11-23, 15:53:31
https://i.imgur.com/QZeEcIG.jpeg
Heißt diese Ausgabe, dass RR in Talos Principle 2 funktioniert?
Edit:
Müsste, bei Alan Wake 2 steht das gleiche.
Deisi
2024-11-23, 16:24:34
Ja richtig.
Lurtz
2024-11-23, 21:31:15
Gibt aber teils auch Renderfehler, bei den bronzenen Wänden für den Driller funktioniert das Denoising nicht richtig.
aufkrawall
2024-11-23, 21:36:46
Offenbar brauchts weiterhin teilweise eigenes Denoising für Lumen. Auf dem Wasser sieht es afair auch verrauschter aus, wenn man die "empfohlenen" Config-Einstellungen aus dem Netz übernimmt. Ggf. schwer zu sagen, was da genau die "richtigen" Settings sind.
x-force
2024-11-24, 13:57:21
bis zu welcher anisotropen filtereinstellung seht ihr noch unterschiede bei quality/balanced/performance?
ich hab das gefühl von 16x bleibt am ende nicht mehr viel übrig.
TheAntitheist
2024-11-26, 22:17:26
bis zu welcher anisotropen filtereinstellung seht ihr noch unterschiede bei quality/balanced/performance?
ich hab das gefühl von 16x bleibt am ende nicht mehr viel übrig.
kommt natürlich immer aufs Spiel an. wenn du viele flache Kamerawinkel hast, dann bringt 16x schon etwas. Mindestens würde ich aber immer 8x nehmen, das kostet ja "kaum" Leistung.
aufkrawall
2024-11-26, 22:30:34
Btw. funktioniert das Treiber-AF nicht mit UE4/5 VT-Terrain und mit Epic-CVars ist nur 8x vorgesehen. Sollte man also in der Config explizit auch fürs VT auf 16x setzen, wenn man das in einem UE-Titel testet.
Oder man nimmt einfach die Texturwüste Skyrim SE. Bin mir ziemlich sicher, dass da 16x auch mit DLSS weiterhin ziemlich sichtbar besser aussieht.
Lurtz
2024-12-11, 20:55:15
Warum sind Stromkabel eigentlich so ein Endgegner für DLSS? :ugly:
https://i.imgur.com/kBwKiVz.jpeg
1440p DLAA
Exxtreme
2024-12-11, 20:56:45
Sind womöglich keine echte Geometrie. Da gelten dann bissl andere Regeln.
Lurtz
2024-12-11, 21:01:25
Klingt plausibel. TAA ist auch nicht besser, nur anders schlecht.
Exxtreme
2024-12-11, 21:03:03
TAA & Co. brauchen sog. Pixel Jittering um zu funktionieren. Normalerweise jittert man die Geometrie mittels Vertex Shader. Ist das aber keine Geometrie dann funktioniert das Jittern nicht mehr.
Neosix
2024-12-11, 23:59:48
Warum sind Stromkabel eigentlich so ein Endgegner für DLSS? :ugly:
https://i.imgur.com/kBwKiVz.jpeg
1440p DLAA
Könnte man da noch ein Screenshot in Nativ+TAA nachliefern? Meiner Erfahrung bisher war, gerade bei diesen kleinen dünnen Kabeln, mit DLSS bisher durchweg positiv und man konnte fast immer mehr details rauskriegen als Nativ. Daher wäre ein vergleichsscreenshot gut.
ps. erinnere mich da gut an Death Stranding, Nativ bei den Stromleitungen hat meist die Hälfte einfach gefehlt bei entsprechender entfernung, mit DLSS waren die aber da. Das war für mich so ein Fall, wo man echt mehr geometrie/Details mit DLSS aus dem Bild rausholen konnte, als nativ only.
Warum sind Stromkabel eigentlich so ein Endgegner für DLSS? :ugly:
https://i.imgur.com/kBwKiVz.jpeg
1440p DLAA
Jegliche feine Geometrie ist der "Endgegner" für jedes AA-Verfahren, wobei meiner Erfahrung nach DLSS da üblicherweise und oft mit großem Abstand am besten aussieht.
Sowas wie das hier habe ich aber schon lange nicht mehr gesehen, egal ob mit TAA oder DLSS oder anderen Upscalern, schwer zu sagen was da genau passiert.
Gute Engines helfen da aber auch nach, indem die Geometrie für derartige Objekte künstlich vergrößert wird je größer der Abstand zur Kamera ist. Die originale Geometrie wird dann nur verwendet bis zu einem Abstand in dem das Kabel ca. 1 Pixel breit ist. Entfernt man sich weiter, wird die Geometrie des Kabels im Worldspace so weit vergrößert, dass immer noch mindestens 1 Pixel im Screenspace abgedeckt wird, die Fläche des Kabels am Bildschirm bleibt also mehr oder weniger identisch, egal wie weit man sich von ihm weg bewegt, zumindest so lange es das LOD nicht komplett ausblendet.
Wenn das nicht gemacht wird, hilft das beste AA nicht, da bräuchte man eine extreme Anzahl an samples.
aufkrawall
2024-12-13, 16:49:08
Manche Effekte wie volumetrische Wolken in UE können auch eine Art Aliasing mit Objekten davor verursachen. Allerdings sieht das in Indy nicht danach aus, eher nach billigster 2D-Bild-Skybox wie aus Serious Sam 1. ;D
DLSS versagt allerdings auch im Lego-Modus von Fortnite unschön, die feinen Linien zwischen den Steinen flimmern sich extrem einen ab. Das sieht mit TSR besser aus.
Etwas ähnliches gibts bei CP77 auch mit den Rillen zwischen Betonplatten zu sehen, was RR deutlich besser handhabt als das reguläre DLSS.
Gymnopédies
2024-12-21, 23:08:18
Weiß einer was es mit der Meldung "The DLSS Render preset override value (ox5) is invalid. Using the default render preset." auf sich hat, es wird ständig eingeblendet. Erst war es bei Banisher und nun sehe ich es wieder bei Star Wars Jedi Survivor. Google hilft da leider auch nicht weiter und die Presets im NVInspector ändern oder gar abstellen der DLSS Optionen hilft auch nichts.
DrFreaK666
2024-12-22, 00:42:04
Ich habe ChatGPT gefragt, aber die Antwort wird sicherlich kaum helfen
Die Meldung "The DLSS Render preset override value (0x5) is invalid. Using the default render preset." deutet darauf hin, dass ein ungültiger Wert für die DLSS-Render-Voreinstellung (DLSS = Deep Learning Super Sampling, eine Technologie von NVIDIA zur Verbesserung der Grafikleistung) angegeben wurde.
Details:
DLSS Render Preset Override: Dies ist eine Einstellung, die normalerweise im Treiber, in einer Konfigurationsdatei oder direkt in einem Spiel geändert werden kann, um das Verhalten von DLSS zu steuern.
0x5: Hexadezimaldarstellung des Werts 5. In diesem Fall scheint 5 ein nicht unterstützter oder ungültiger Wert zu sein.
Fallback auf den Standardwert: Wenn ein ungültiger Wert erkannt wird, wird die Standard-Render-Voreinstellung verwendet, um Stabilitätsprobleme zu vermeiden.
Ursache:
1. Fehlerhafte Konfigurationsdatei: Der Wert könnte in einer INI- oder XML-Datei falsch eingetragen sein.
2. Nicht unterstützte DLSS-Version: Manche DLSS-Versionen unterstützen bestimmte Einstellungen nicht.
3. Hardware-/Treiber-Konflikt: Ein älterer oder inkompatibler NVIDIA-Treiber könnte die Meldung auslösen.
Lösung:
1. Treiber aktualisieren: Stelle sicher, dass du den neuesten NVIDIA-Treiber installiert hast.
2. Einstellungen zurücksetzen: Falls die Meldung durch eine manuelle Änderung in einer Konfigurationsdatei verursacht wurde, setze die Einstellungen auf Standard zurück.
3. DLSS-Optionen prüfen: Überprüfe die DLSS-Einstellungen im Spiel und wähle eine unterstützte Voreinstellung.
4. Spiel oder Treiber-Profil anpassen: Wenn du ein spezielles Tool (z. B. NVIDIA Profile Inspector) verwendest, stelle sicher, dass die Werte korrekt sind.
Falls die Meldung weiterhin auftritt, könntest du in der Dokumentation des Spiels oder des Tools nachsehen, welche Werte für DLSS-Presets unterstützt werden.
Gymnopédies
2024-12-22, 09:36:28
Okay danke, ja die Presets habe ich alle versucht im Inspector nützt nichts, auch die Option geändert das alles als DLAA ausgegeben werden soll, Treiber ist der aktuellste für die 4090, strange.
Welche Presets gibt es denn jetzt noch aktuell? Da hat sich doch was geändert seit einem der letzten Treiberversionen, ich fahre noch mit 566.14 sollte sich aber zum 566.36 nicht groß unterscheiden was DLSS angeht oder? Wie sind denn jetzt überhaupt die Epfehlungen der Presets bei DLSS (High) Quality bzw. DLAA?
Relex
2024-12-22, 10:10:11
Hast du auch probiert, KEIN Preset zu erzwingen? Im Inspector auf N/A stellen.
Also bei den drei DLSS Einstellungen der Reihe nach:
Off
N/A
Off
Das sowohl im Globalen Profil als auch im Spieleigenen profil prüfen.
Denn der Wert 0x05 Steht für das Preset E.
Wenn das Spiel das du spielst eine ältere DLL Datei nutzt und du Preset E erzwingst, dann funktioniert das natürlich nicht.
Welche DLL Version nutzen denn die betroffenen spiele?
Ich würde im NV inspector mal alles auf die Standardwerte setzen und ggf. die original DLL Versionen wiederherstellen, falls du sie geändert hast. Dann muss es ja eigentlich ohne Fehlermeldung funktionieren.
aufkrawall
2024-12-22, 10:41:24
DLSS DirectSR 3.8 DLL via Script global "installiert"? Ggf. mal den Order C:\ProgramData\NVIDIA\NGX löschen.
Lurtz
2024-12-22, 11:41:47
Was liegt da?
aufkrawall
2024-12-22, 11:46:04
Offenbar Presets etc., wenn man die globale Umleitungsfunktion (Script von emoose) nutzt. Ggf. hat Gymnopédies das mit der 3.8 DirectSR DLL gemacht, die weniger Presets enthält und von einigen Spielen nicht akzeptiert wird. Oder vielleicht auch nicht, aber er scheint bei dem Problem ja nicht weiter zu kommen.
Gymnopédies
2024-12-22, 12:21:14
Hab jetzt nochmal alles kontrolliert und den Treiber frisch installiert, nun wird die Meldung nicht mehr angezeigt :) wo immer der Knoten war, der ist nun weg. Ich habe händisch jetzt keine DLLs ausgetauscht gehabt oder Tools verwendet, bis auf den NvInspector. Über den Sinn der "Entschlackung" der Presets sage ich mal besser nichts....es lag aber defintiv an den Presets.
00-Schneider
2025-01-03, 16:56:41
DLSS4 angeblich incoming.
https://cdn.videocardz.com/1/2025/01/DLSS4-leak.jpg
-----------------------
Mir fehlt da die Phantasie, was DLSS4 genau sein könnte.
Automatisches Upsampling von Texturen?
https://cdn.thefpsreview.com/wp-content/uploads/2023/05/nvidia-neural-texture-compression-comparison-scaled.jpg
ChaosTM
2025-01-03, 18:02:07
Dass ein neues DLSS kommen wird hat NV schon angekündigt.
Der Preis für ein halbiertes Flaggschiff ist .. naja .."kühn" - aber der muss ja nicht stimmen..
Die FE sollte dann um die 1500 kosten.
Nightspider
2025-01-03, 18:27:35
Ich hätte nichts gegen einen Modus der intern mit echtem 4K rendert und dann ein Bild mit einer 6K ähnlichen Qualität ausgibt.
robbitop
2025-01-03, 18:36:27
Geht doch mit DLSS heute schon. Ausgabeauflösung auf 6K und Skalierungsfaktor einstellen. Wenn kein 6K Display vorhanden ist dann mit (dl)dsr kombinieren. Oder einfach DLAA nutzen.
Tesseract
2025-01-03, 18:37:11
Mir fehlt da die Phantasie, was DLSS4 genau sein könnte.
Automatisches Upsampling von Texturen?
wahrscheinlich richtung neural materials. das NN bekommt textur- und materialinformationen als input und macht daraus (pixelgenaue) materialoberflächen (holz, keramik, stein etc.) mit kratzern, staub, dellen usw.
also mehr "uphaluzinieren" als upsampling.
Nightspider
2025-01-03, 18:51:35
Ich hätte nichts gegen einen Modus der intern mit echtem 4K rendert und dann ein Bild mit einer 6K ähnlichen Qualität ausgibt.Geht doch mit DLSS heute schon. Ausgabeauflösung auf 6K und Skalierungsfaktor einstellen. Wenn kein 6K Display vorhanden ist dann mit (dl)dsr kombinieren. Oder einfach DLAA nutzen.
Ist aber sehr zickig wenn man mit höheren Auflösungen downsampled und ins Windows tabbed bzw. mehrere Bildschirme hat.
Bei Windows zerhaut es mir die kompletten Inhalte auf dem 2. Monitor, wenn ich mit 5120*2160 @ 3440*1440 zocken will.
Und einige neuen Spiele besitzen ja gar nicht mehr diesen exklusiven Vollbild Modus. Ich weiß gar nicht ob das downsamplen dann noch funktioniert.
Relex
2025-01-03, 19:25:43
Musst die Desktopauflösung hochstellen, dann gehts.
Aber ja, ist extrem umständlich. Hab daher DL-DSR praktisch nie genutzt. Mir gefällt der Look auch nicht. Das Bild sieht irgendwie seltsam nachbearbeitet aus.
Exxtreme
2025-01-03, 19:29:09
Mir fehlt da die Phantasie, was DLSS4 genau sein könnte.
Vielleicht FG für alle Spiele. :)
Nightspider
2025-01-03, 20:02:42
Musst die Desktopauflösung hochstellen, dann gehts.
Das machts ja nur noch verfrickelter. Vor allem wenn man nicht alle Spiele in dieser Auflösung rendern will.
DrFreaK666
2025-01-03, 20:08:09
... Mir fehlt da die Phantasie, was DLSS4 genau sein könnte...
FG für RTX3000 :ugly:
Sardaukar.nsn
2025-01-03, 20:20:30
Vielleicht FG für alle Spiele. :)
Oder halt DLSS global direkt im Treiber.
Relex
2025-01-03, 20:31:17
Ohne Kamera Jitter fehlen einfach die dafür notwendigen Daten und das ingame TAA müsste man auch komplett deaktivieren können, damit das Sinn ergibt.
Reines spatiales KI upsampling ist sicherlich viel zu rechen und speicheraufwändig, wenn es neue Details dazu generieren soll oder hätte als Scharfzeichner und Denoiser wie bei RTX Video Super Resolution nur nen geringen Effekt.
Wenn dann wäre Frame Generation über den Treiber deutlich einfacher, aber auch das hat Qualitäts und vor allem Latenzprobleme.
Upscaling und FG sowie Verbesserungen davon sind ja die low hanging fruits gewesen und waren einfach vorherzusagen. Was man aber künftig als komplett neues Feature umsetzen könnte ist wirklich verdammt schwer vorauszusehen. Vor allem, wenn es einfach für Entwickler umsetzbar sein soll.
Mein Tipp für DLSS 4 ist letztendlich ganz einfach:
Höhere Frame Generation performance auf Blackwell.
Bessere Super Resolution Qualität für alle (evtl. mit exklusiven Vorteilen bei Blackwell oder Blackwell + Ada)
Neural Rendering wird, wenn es kommt wahrscheinlich kein DLSS Feature. Denn das wäre wohl eher ein ziemlich grundlegender paradigmenwechsel wie bei pathtracing. Vielleicht ist es aber auch eine komplementär technologie die zusammen mit Pathtracing genutzt wird.
Konkret vorstellen kann ich mir darunter nichts. Bzw. wohl eher alles mögliche...
x-force
2025-01-03, 20:34:48
Wenn dann wäre Frame Generation über den Treiber deutlich einfacher, aber auch das hat Qualitäts und vor allem Latenzprobleme.
wir sprechen hier über 2-4ms, oder?
lilgefo~
2025-01-03, 20:44:20
- Der Verbrauch steigt, weil die Framegeneration auch Energie kostet.
- Bei einem Framecap wird die Hälfte als Basis genommen
Ergibt leider keinen Sinn, wenn die FPS ohne FG über 50 sind. Klar kostet FG ms, etwas Watt und VRAM. Nur wären ~33 berechnete fps mit fg push auf 60 eben eine geringere Wattage als hart berechnete 50fps. Wenn die basefps schon bei 50 sind und die wattage mit fg dann auf 60 steigen ergibt das mit der framecap hälfte als basis keine Sinn. Ist offensichtlich anders.
wir sprechen hier über 2-4ms, oder?
Bei DF haben die irgendwas mit 2,irgendwas für PSSR gemessen und mit DLSS ists geringer. Also 4ms ist schon arg übertrieben. Sollte im Regelfall unter 2ms sein.
Relex
2025-01-03, 20:47:17
@x-force
Wie kommst du auf 2-4 ms?
Zuerstmal hat der Algorithmus selbst Kosten. Wenn du in 4K DLSS FG aktivierst, dann landest du schlimmstenfalls bei 50% Skalierung. Also kommst z.B. von 60 auf 90 FPS.
Das heißt, die basisframerate sinkt von 60 auf 45 FPS und wird dann erst auf 90 verdoppelt.
Durch die reduzierung der Framerate aufgrund der Rechenkosten steigt also die latenz bereits an (da hoffe ich, dass Blackwell Verbesserungen bringt)
Dann kommt dazu, dass die Frameausgabe mindestens um einen Frame verzögert werden muss, damit der Algorithmus zwei Bilder hat zwischen denen er einen Frame interpolieren und einfügen kann. Für korrektes Framepacing fällt sicherlich auch etwas pufferzeit an.
Das alles summiert sich eben. Da die Frametime von 16,6 ms bei 60 FPS auf 22,2 ms bei 45 FPS ansteigt muss man zur Gesamtsystemlatenz mindestens 5,6 ms aufaddieren. Durch das verzögern eines Frames nochmal mindestens 22,2 ms. Macht also schonmal mindestens +28 ms.
Hat das Spiel Reflex, dann können diese Latenzverschlechterungen durch den performanceverlust sowie das verzögern der Frames meistens vollständig kompensiert werden oft sogar noch mehr.
Aber eine Lösung via Treiber würde eben bedeuten, dass man auf Reflex verzichtet.
Man könnte natürlich den Low latency Modus im Treiber nutzen, aber das wird sicherlich auch nur für durchwachsene Ergebnisse sorgen.
Edit: Die 1-2 ms die Digital Foundry erwähnt hat gelten für DLSS Super Resolution. Also reines Upscaling. Frame Generation ist VIEEEL teurer (noch).
ChaosTM
2025-01-03, 20:51:35
Wird wohl irgend ein Blackwell exklusives Feature werden.
AI Neural Rendering klingt super, nur was soll das sein abseits eines
Marketing Buzzwords ? Jensen wird es uns erklären..
Das Wort "Paradigmenwechsel" kann man da auch noch wunderbar einflechten. Klingt innovativ ! :)
DLSS 4×, also zwei Zwischenbilder zum Preis von einem? :naughty:
MfG
Raff
Sardaukar.nsn
2025-01-03, 23:37:04
For zwei Jahren war noch: 2-4x faster. https://truth.bahamut.com.tw/s01/202209/4dd12955c126dd888cb1e170278dcbc1.JPG
Radeonfreak
2025-01-03, 23:59:25
AI Neural Rendering klingt super, nur was soll das sein abseits eines Marketing Buzzwords ?
Kann sein das die Graka jetzt automatisch die Texturen verbessert. Für jedes Spiel.
Sowas halt.
2r6IlVJj6gc
ChaosTM
2025-01-04, 00:18:14
Kenne ich, aber wie das ohne dem lokalen Vorhandensein von wirklich hochauflösenden Texturen, die unglaublich viel Speicherplatz fressen, funktionieren soll ist mir immer noch unklar.
Die Umrechnung selbst kann man sich ja noch halbwegs vorstellen.
Solange es die Qualität verbessert und nicht 500+gb pro Spiel verbraucht, muss ich das auch nicht verstehen :)
Relex
2025-01-04, 00:27:41
DLSS 4×, also zwei Zwischenbilder zum Preis von einem? :naughty:
MfG
Raff
Ja gut, dann würde man in 4K nahe +100% mehr FPS kommen (von vormals 50% im worst case), evtl auch leicht darüber und die Latenz würde aber identisch zu FG auf Ada bleiben.
Sinnvoller wäre es, mit einem Frame nahe 100% Skalierung zu kommen. Dann würde zugleich die Latenz sinken, weil die basis Framerate höher sein könnte, wenn der Algo weniger stark die GPU belastet.
Also Schritt 1: FG Performance mit 1 Zwischenbild deutlich steigern. Da ist noch viel Luft nach oben und es würde den latenzen gut tun.
Schritt 2: (dann evtl. mit Blackwell nachfolger) FG auf 2 Zwischenbilder erhöhen mit dem Ziel auf Skalierung nahe 200%.
Oder man bekommt beides bereits mit Blackwell hin. Das wäre natürlich umso besser.
basix
2025-01-04, 09:46:11
Mein Tipp für DLSS 4 ist letztendlich ganz einfach:
1) Höhere Frame Generation performance auf Blackwell
2) Bessere Super Resolution Qualität für alle (evtl. mit exklusiven Vorteilen bei Blackwell oder Blackwell + Ada)
Als Ergänzung:
1.1) Frame Extrapolation -> Kein Latenzzuwachs bei FG
2.1) Verbessertes Ray Reconstruction
DLSS 4×, also zwei Zwischenbilder zum Preis von einem? :naughty:
Zuerst lieber Frame-Extrapolation und erst dann höhere Skalierungsfaktoren ;)
Das schöne an Extrapolation: Man hat prinzipiell mehr Zeit für die Berechnung ;) Bei 100fps als Ziel-Output hat man 10ms Zeit um das extrapolierte Bild zu berechnen. Gerendert wird mit 50fps (20ms Frametime). Dadurch sollte man viel öfters die 2x FPS als Output bekommen.
Vielleicht reichen die 10ms dann auch für Ampere :D
Neural Rendering wird, wenn es kommt wahrscheinlich kein DLSS Feature. Denn das wäre wohl eher ein ziemlich grundlegender paradigmenwechsel wie bei pathtracing. Vielleicht ist es aber auch eine komplementär technologie die zusammen mit Pathtracing genutzt wird.
Konkret vorstellen kann ich mir darunter nichts. Bzw. wohl eher alles mögliche...
Ja, da ist der Bereich der Möglichkeiten sehr gross. Nvidia wird sicher irgendein Showcase von irgendwas zeigen. Hier gibt es mMn zwei Kategorien:
- 100% Neural Rendering (unwahrscheinlich, da Qualität oder Performance nicht da ist)
- Neural Augmented Rendering: Mein Tipp. Es werden Algorithmen oder einige Bestandteile davon mit einem DNN stark verbessert. Das kann Raytracing, Textur- und Asset-Kompression, Rauch- und Fluidsimulation, Fell und Haare, Animation etc. sein. Ich tippe darauf, dass Nvidia ein entsprechendes Toolkit für Entwickler vorstellen wird (ähnlich wie RTXDI für Pathtracing).
DrFreaK666
2025-01-04, 09:48:05
Als Ergänzung:
1.1) Frame Extrapolation -> Kein Latenzzuwachs bei FG
2.1) Verbessertes Ray Reconstruction
...
Reicht das für eine 4?
Ich finde das muss dann schon mehr bieten außer nur verbesserte alte Features
basix
2025-01-04, 09:52:11
Also Frame Extrapolation wäre ein Hammer Feature. Dann kannst du FG faktisch immer einschalten, ohne irgendwelche Nachteile.
Daneben noch verbessertes Upsampling und Ray Reconstruction ist auch sehr gut. Jetzt kannst du z.B. DLSS Performance anstatt Quality einstellen, würdest du das nicht als grossen Fortschritt bezeichnen?
Oder halt DLSS global direkt im Treiber.
Ja, etwas wie DirectSR von Microsoft im Treiber wäre nice.
robbitop
2025-01-04, 10:19:37
Wobei Frameextrapolation sehr wahrscheinlich anfälliger für Artefakte ist. Immerhin hat man keine zwei Referenzframes die man interpolieren kann. Man muss in die (ungewisse) Zukunft extrapolieren. Alles was im nächsten Frame unbekannt ist (ein Objekt was nicht im Bild war zB oder eine Kamerabewegung die nicht so ist wie in den letzten Frames) führt zu Auffälligkeiten. Intel hat da auch dran geforscht aber stattdessen Frame Interpolation gebracht (obwohl sie iirc in einem Interview damals gesagt haben dass sie das nicht machen wollen und extrapolation besser finden) - und Intel hat im Gegensatz zu AMD auch einiges an NN Chops.
Potentiell gibt es sicherlich Lösungsansätze für alle oben beschriebene Probleme (zB in dem man immer ein höheres FOV und Auflösung berechnet als man anzeigt - also cropt - so dass unbekannte Objekte eben doch im Frame sind (den Randbereich müsste man wahrscheinlich nicht mal in vollem Detail berechnen) - und für die unvorhergesehene Kamerabewegung könnte man den Input der Eingabegeräte monitoren der ja sicherlich einige Frames vor dem gerade gerenderten Frame kommt. All das bräuchte aber eine noch tiefere Implementierung durch den Entwickler in das Spiel.
Aber ob man es wirklich in guter Konsistenz hinbekommt?
aufkrawall
2025-01-04, 10:31:12
Echte Verdopplung durch Interpolation wäre sicherlich mehr wert, dann sinken Input Lag und Dauer der Sichtbarkeit von Artefakten schließlich auch gegenüber der lächerlichen Skalierung jetzt.
Relex
2025-01-04, 10:33:45
Intel hats ja angekündigt und sich dann anders entschieden.
Extrapolation ist logisch gesehen deutlich komplexer und fehleranfälliger und könnte die Rechenkosten stärker erhöhen als ein Zwischenbild. Nicht unmöglich, aber wenn man sich eh schon den Vorwurf der "Fake" Frames gefallen lassen muss, wird man bestrebt sein, die Qualität möglichst hoch zu halten. Irgendwann wird das vielleicht kommen, aber ich denke dafür ist es deutlich zu früh.
Denn FG wird sofort unbrauchbar, sobald die Interpolationsartefakte zu stark werden und man "unter" den Artefakten erkennt, dass das Spiel mit halber Framerate läuft. Bei Lossless Scaling mit LSFG ist das z.B. der Fall. Ich finde das unbrauchbar, weil die Artefakte immer wieder zeigen, dass es nicht "echt" ist. Und dabei sind nicht die Artefakte selbst das Problem, sondern einfach die Tatsache, dass an den Stellen wo vermehrt Artefakte auftreten die Interpolation scheitert und an dieser Stelle die halbe Framerate direkt in Form von Ruckeln sichtbar wird.
DLSS FG und FSR FG (wenn es sporadisch mal auf GeForce funktioniert) zeigen das Problem nicht. Artefakte gibt es zwar, aber man hat nie das Gefühl, dass das Spiel eigentlich mit halber framerate läuft.
Also ja, Konsistenz ist wirklich extrem wichtig, sonst funktioniert die "illusion" nicht.
robbitop
2025-01-04, 10:34:26
Ggf weiter Nvidia auch den Skalierungsflaschenhals bei DLSS FG.
Relex
2025-01-04, 10:37:45
Ja, genau das meinte ich ja mit höherer FG performance.
Skalierung nahe 100% durch entweder optimierten Algo oder stärkerer dafür dedizierter Hardware.
Dass Ada schneller wird, bezweifle ich aber. Da hätten sie jetzt zwei Jahre Zeit gehabt...
Ich schätze mal, dass durch schnellere FG eine 5080 locker 50% vor einer 4080 liegen könnte, sofern sie in den Bereich wirklich investiert haben. Nvidia könnte das im Marketing richtig ausschlachten (lange Balken)
aufkrawall
2025-01-04, 10:48:32
Würd ich ihnen nicht mal vorwerfen, wenn das bei der dann schon hohen Grundperformance wirklich so skaliert, + ggf. noch etwas bessere Quali. Die FG-Verfügbarkeit ist ja mittlerweile wirklich gut, und funktioniert mit neuesten Implementierungen imho auch endlich mal sehr gut. Etwa 0 Probs hier in Stalker 2 (nachdem die Devs die üble Mausbeschleunigung rausgepatcht haben).
Relex
2025-01-04, 10:53:19
Ne, übel nehmen nicht. Wenn der FG algorithmus weniger auf die performance schlägt und die Grund Framerate deutlich höher sein kann, wäre das bei aktiver FG ja tatsächlich auch 1:1 ein absolut realer performancegewinn incl besserer Latenzen.
Ich würde das sehr begrüßen und ich hoffe, dass es so kommt. Für mich ist das auf dem Wunschzettel auf #1.
crux2005
2025-01-07, 05:03:03
qQn3bsPNTyI
Sardaukar.nsn
2025-01-07, 05:04:44
Thanks. Ich mag den Guru.
EDIT: Krass, 15 von 16 Pixeln von der KI erzeugt.
https://i.imgur.com/smBUFXN.jpeg
TheAntitheist
2025-01-07, 07:01:22
das neue DLSS mit Transformer Model ist ja mega krass und das ist ja erst die erste Version... holy shit das sieht ja krank gut aus
viel schärfer, deutlich weniger motion blur und bei dem Ventilator sieht man "kein" ghosting. also ich erkenne keins in diesem kurzen video. wird der best case sein aber das ist ein riesen Sprung, der größte seit DLSS 1 zu 2
edit: und endlich einfach in der Nvidia app die DLSS Version updaten, klingt alles richtig richtig gut.
dildo4u
2025-01-07, 07:30:49
Ich sehe nicht wie man in YouTube Video die Qualität bewerten kann hoffentlich kann man es bald selber testen.
The_Invisible
2025-01-07, 07:42:35
Geil das auch die DLSS-Fg Perf allgemein verbessert wird. Die ganzen Verbesserungen zusammen sind ja schon fast mehr wert als die neue Blackwell Gen :freak:
Relex
2025-01-07, 08:03:58
DANKE NVIDIA.
Die haben heute ein absolutes Brett rausgehauen und tatsächlich mehr geliefert, als ich erwartet hätte.
Bessere FG performance stand ja bei mir auf dem Wunschzettel für Blackwell, stattdessen gibt es direkt Multi Frame Generation (was ich erst für die übernächste Gen erwartet hätte) und dafür verbesserte FG performance und reduzierten VRAM Verbrauch für RTX4000.
Zusammen mit Reflex 2 sollte das dann ja nochmal ein ordentliches Upgrade in Punkto smoothness und spürbarer Perfromance mit aktiver FG sein.
Dazu bessere DLSS Super Resolution und Ray Reconstruction für alle RTX Besitzer incl. treiberseitigem Override auf die neuen Modelle.
Ich bin nach der Vorstellung mehr gehyped, als vor der Vorstellung. :D
Die ganzen Neural Rendering features klingen auch extrem interessant. Aber ich vermute, das wird sich dann erst allmählich in den nächsten Jahren in Spielen zeigen. Sind ja doch recht fundamentale ersatzstücke die erstmal in eine engine integriert werden müssen. Das Video war aber Grafisch nochmal um ne ganze größenordnung beeindruckender, als die RTX Marbles demo. Aber erstmal nichts weiter als ein Ausblick in die Zukunft. Vor allem stellt sich da auch die Frage, welche Features davon auf alter Hardware laufen und welche nur auf Blackwell.
PS: Kann mal jemand den Thread Titel anpassen? Da fehlt ne 4
EDIT: DLSS4 FAQ https://www.nvidia.com/en-us/geforce/forums/geforce-graphics-cards/5/555374/dlss-4-faq/
Troyan
2025-01-07, 08:19:00
War hier mit Battlefield und Turing. Vor sechs Jahren als alles angefangen hat. DLSS 1 war cool. Und jetzt? Überschreibt man einfach die DLSS Implementierungen in vorhandenen Spielen. Bekommt bessere Qualität kostenlos.
Sechs Jahre sind eine lange Zeit. Aber schön zu sehen, dass Fortschritt für Gamer auch von gestrigen nicht aufgehalten werden kann.
Einfach nur irre wie weit nVidia softwareseitig vorne liegt. Die Konkurrenz sieht da nicht mal mehr die Rücklichter.
Abseits der Frame Generation Exklusivität auch gute Produktpflege für ältere Generationen.
Exxtreme
2025-01-07, 08:58:52
Ja, Framegeneration ist das Einzige, was mich an DLSS interessiert. Aber bei 4x DLSS werden die Eingabelatenzen wie aus der Hölle sein.
00-Schneider
2025-01-07, 09:06:08
Aber bei 4x DLSS werden die Eingabelatenzen wie aus der Hölle sein.
Falsch, siehe oben.
Ravenhearth
2025-01-07, 09:31:40
WXaM4WK3bzg
Troyan
2025-01-07, 09:32:01
Jap, bei gleicher Latenz ist es unlogisch es nicht einzuschalten. Muss man sehen, wie gut es funktioniert, aber es gibt eben erstmal keinen weiteren Nachteil zu FG.
Relex
2025-01-07, 09:38:28
Man hat jetzt scheinbar das beste aus RR und klassischem DLSS kombiniert.
Der ölgemälde look ist weg, die Unschärfe ist weg, die Details sind da, texturen deutlisch schärfer und es ist trotzdem stabiler als vorher. Und es braucht keinen zusätzlichen Scharfzeichner (weniger doppelkontur als mit alter RR)
Alleine der Schärfeunterschied auf diesem Bild entspricht klassisch in etwa DLSS Performance vs DLAA. Schaut mal auf das Muster bei den orangen Bechern...
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=90858&stc=1&d=1736238754
Und wenn man sich die Vergleiche in Alan Wake ansieht. Vor allem die Stromleitungen aber auch die Baumkrone am linken Bildschirmrand ist jetzt sehr viel stabiler und praktisch perfekt.
Das ist qualitativ ein riesen Upgrade.
Bin mal auf den Ultra Performance Modus gespannt. Bei den Verbesserungen könnte der UP Modus wahrscheinlich wirklich mit dem bisherigen performance Modus gleichziehen. Denn gerade feine Strukturen wie Vegetation waren im UP Modus noch ein Problem. Wenn aber genau das so deutlich verbessert wurde, dürfte das für den UP Modus Wunder bewirken und ihn damit erstmals wirklich nutzbar machen.
Jetzt hab ich nur noch eine Frage.
WANN KOMMT DER TREIBER?? :ujump2:
aufkrawall
2025-01-07, 10:35:17
Krass overdelivered. ;D
Das hätte einem der durchgeknallteste Fanboy (hier ihr wisst schon wen einfügen) so vorher nicht erzählt.
Karte jetzt noch verkaufen, ja oder nein? :redface:
Troyan
2025-01-07, 10:35:56
Einfach abwarten. Bis auf Multi-Frame kommt doch auch alles nach unten.
aufkrawall
2025-01-07, 10:38:19
"Bis auf Multiframe". Macht halt aus einem 5700X eine Rakete.
Ist aber die Frage, wie viel mir das mit 144Hz-Monitor wirklich bringt, wenn auch das alte FG noch verbessert wird. So viel zu "Nvidia lässt alte Gens einfach fallen!!1".
dargo
2025-01-07, 10:44:30
Thanks. Ich mag den Guru.
EDIT: Krass, 15 von 16 Pixeln von der KI erzeugt.
https://i.imgur.com/smBUFXN.jpeg
Lol... zwischen DLSS2 und DLSS4 also Null Verbesserung beim Spielgefühl. :lol: Es geht nur noch um Schwanzvergleiche bei den fps Balken. :uup:
aufkrawall
2025-01-07, 10:45:47
Nö, die bessere Skalierung und weniger VRAM-Verbrauch machen sich auch mit 2x beim Spielgefühl bemerkbar.
Relex
2025-01-07, 11:09:03
Der Artikel hier ist auch interessant und liefert im Text weitere Infos:
https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ai-innovations/
Das hier fand ich besonders interessant
Our new frame generation AI model is 40% faster, uses 30% less VRAM, and only needs to run once per rendered frame to generate multiple frames. For example, in Warhammer 40,000: Darktide, this model provided a 10% faster frame rate, while using 400MB less memory at 4K, max settings, using DLSS Frame Generation.
We have also sped up the generation of the optical flow field by replacing hardware optical flow with a very efficient AI model. Together, the AI models significantly reduce the computational cost of generating additional frames.
Man verzichtet jetzt wohl auf den Hardware OFA und nutzt eine reine AI Lösung.
Once the new frames are generated, they are evenly paced to deliver a smooth experience. DLSS 3 Frame Generation used CPU-based pacing with variability that can compound with additional frames, leading to less consistent frame pacing between each frame, impacting smoothness.
To address the complexities of generating multiple frames, Blackwell uses hardware Flip Metering, which shifts the frame pacing logic to the display engine, enabling the GPU to more precisely manage display timing. The Blackwell display engine has also been enhanced with twice the pixel processing capability to support higher resolutions and refresh rates for hardware Flip Metering with DLSS 4.
Framepacing wurde auch verbessert mit Blackwell.
Previously, DLSS used Convolutional Neural Networks (CNNs) to generate new pixels by analyzing localized context and tracking changes in those regions over successive frames. After six years of continuous improvements, we’ve reached the limits of what’s possible with the DLSS CNN architecture.
Our new DLSS transformer model uses a vision transformer, enabling self-attention operations to evaluate the relative importance of each pixel across the entire frame, and over multiple frames. Employing double the parameters of the CNN model to achieve a deeper understanding of scenes, the new model generates pixels that offer greater stability, reduced ghosting, higher detail in motion, and smoother edges in a scene.
[...]
The new transformer model architecture will provide years of headroom to deliver continuous image quality improvements, as we have done with the CNN architecture for the past 6 years.
Alongside the launch of our GeForce RTX 50 Series GPUs, after installation of a new GeForce Game Ready Driver and the latest NVIDIA app update, the following DLSS override options will be available in the Graphics > Program Settings screen, under “Driver Settings” for each supported title.
DLSS Override for Frame Generation - Enables Multi Frame Generation for GeForce RTX 50 Series users when Frame Generation is ON in-game.
DLSS Override for Model Presets - Enables the latest Frame Generation model for GeForce RTX 50 Series and GeForce RTX 40 Series users, and the transformer model for Super Resolution and Ray Reconstruction for all GeForce RTX users, when DLSS is ON in-game.
DLSS Override for Super Resolution - Sets the internal rendering resolution for DLSS Super Resolution, enabling DLAA or Ultra Performance mode when Super Resolution is ON in-game.
Ich finds super, dass Nvidia unter all dem Marketing auch wirklich interessante und nützliche technische Details unterbringt. Das ist leider überhaupt nicht selbstverständlich.
Ansonsten ist es schon echt irre, wenn man sich die Frameraten in den Spielen mal ansieht.
Black Myth Wukong mit FullRT, 4K, DLSS Performance mit DLSS4 FG mal eben 220 FPS. Auch wenn es nur generiert ist, ist es schon ziemlich krank, dass sowas möglich ist bei gleicher Latenz zu DLSS3.
Noch ein paar Jahre, dann werden einfach bis 1000 Hz beliebig viele Frames generiert, egal wie schnell das Spiel tatsächlich läuft.
aufkrawall
2025-01-07, 11:28:00
Danke für den Zitate-Service. Ja, wirklich krasser Fortschritt auf sämtlichen Ebenen. Es wird aber wohl erstmal die ein oder andere Regression möglich sein, sonst würden sie die neuen Modelle ja nicht als Beta bringen. Die Ehrlichkeit ist aber auch löblich.
Das Frame Pacing via CPU/GPU ist interessant. War mir insbesondere mit FSR FG aufgefallen, dass das deutlich die CPU-Last erhöhen kann und die Skalierung im CPU-Limit mitunter etwas schlechter ist als DLSS FG (wenn auch nicht so krass wie der umgekehrte Fall im GPU-Limit). Hab ja mehrmals drauf "hingewiesen", dass beim Frame Pacing mit DLSS FG auch noch Luft nach oben ist.
Auch wird interessant sein, ob der 2x-Modus mit Blackwell ggf. echte Frames kürzer darstellen kann als der 4x-Modus, also näher an die volle 2x-Skalierung heran kommt (als an volles 4x).
Relex
2025-01-07, 11:38:28
Und hier auch noch Infos zu den Spieleupdates:
https://www.nvidia.com/en-us/geforce/news/dlss4-multi-frame-generation-ray-tracing-rtx-games/
Alan Wake 2 will be the first game to feature our new NVIDIA RTX Mega Geometry technology. Available on all GeForce RTX graphics cards and laptops, RTX Mega Geometry intelligently clusters and updates complex geometry for ray tracing calculations in real-time, reducing CPU overhead. This improves FPS, and reduces VRAM consumption in heavy ray-traced scenes.
Die neuen Features aus dem RTX Kit sind also wohl auch für ältere Nvidia GPUs verfügbar. Die Geometry technik scheint wohl den VRAM und CPU Overhead für die BVH zu reduzieren.
Das sind alles wirklich sehr gute Neuerungen.
EDIT: Und noch einer: Ein AI Assistent für Performancanalyse von Spielen. Wie geil ist das denn :D https://www.nvidia.com/en-us/geforce/news/g-assist-ai-companion-for-rtx-ai-pcs/
Radeonfreak
2025-01-07, 11:44:23
EDIT: Und noch einer: Ein AI Assistent für Performancanalyse von Spielen. Wir geil ist das denn :D https://www.nvidia.com/en-us/geforce/news/g-assist-ai-companion-for-rtx-ai-pcs/
Das scheint mir für N00bs zu sein. Die Vorschläge würde jeder halbwegs zeitgemäße Gamer auch kennen.
Relex
2025-01-07, 11:52:38
Klar, aber ich finds spannend, dass man das überhaupt macht. Heißt ja folglich, dass das Feature in Zukunft sicher erweitert und ausgebaut wird, so dass es irgendwann auch für uns nützlich sein kann.
Danke für den Zitate-Service. Ja, wirklich krasser Fortschritt auf sämtlichen Ebenen. Es wird aber wohl erstmal die ein oder andere Regression möglich sein, sonst würden sie die neuen Modelle ja nicht als Beta bringen. Die Ehrlichkeit ist aber auch löblich.
Ja absolut. So hat man weiterhin die Wahl und kann alte Spiele auf Wunsch einfach upgraden.
Interessant wird, ob das neue SR Model sich auf die Rechenkosten auswirkt. Da man es selbst für RTX2000 noch bringt, erwarte ich zumindest auf aktuellen GPUs keine relevanten Unterschiede. Aber bei Turing könnte das evtl. der Fall sein.
Hab ja mehrmals drauf "hingewiesen", dass beim Frame Pacing mit DLSS FG auch noch Luft nach oben ist.
Du sagst das zwar, aber ich hab noch keine "Beweise" von dir gesehen.
Mit DLSS FG messe ich zumindest deutlich bessere 1% und 0.1% Frametimes, weil die natürlich ebenfalls verdoppelt werden, bei den Varianzen konnte ich keine Verschlechterung sehen.
Aus meiner Sicht sehe ich da eher noch generell Luft nach oben, egal ob mit oder ohne FG. Aber keine Ahnung. Ohne das Problem direkt erkannt oder nachvollzogen zu haben kann ich kaum darüber diskutieren.
Die Frage ist ja auch immer, wie man misst. Tools wie Cap Frame X entsprechen eher der CPU Frametimes und weniger der GPU Frametimes bzw. dem was nach einem GPU Seitigen Framepacing am Display ankommen würde.
readonly
2025-01-07, 12:24:26
Werden die 4xxx das alles bis auf Multi-FG vollumfänglich bekommen? Oder nur abgespeckte Versionen? Da viel geändert wurde wie ich verstanden habe, werden die wohl kaum den alten Code weiter mitschleppen.
aufkrawall
2025-01-07, 12:30:15
Du sagst das zwar, aber ich hab noch keine "Beweise" von dir gesehen.
Hä, willst du mich veräppeln? Der fette Frame Time Graph mit DLSS FG, insbesondere <100fps und plötzlichen Kameraschwenks zurück von der Skybox ist in zig Spielen quasi auf Tastendruck reproduzierbar. Und ja, die Müll-Frame-Times im Graphen sind "echt". Man merkt deutlich kurz die Latenz an der Maus hochgehen und die Flüssigkeit der Bildausgabe nimmt ab, bis der Graph wieder dünn wird. Willst du jetzt noch Beweise von mir, dass Wasser bergab fließt? :facepalm:
Oder erklär du halt mal, weshalb die Frame Times im Graphen ohne solche Szenenänderungen/fps-Schwankungen glatt sind, wenn die Tools angeblich das mit FG nicht richtig erfassen könnten. Ergibt null Sinn...
Und Nvidia hats jetzt mit dem Hardware Frame-Pacing quasi selbst bestätigt... :facepalm:
Das komische Frame Pacing von FG kann in Extremfällen sogar LCDs mit VRR so durcheinander bringen, dass sie selbst bei statischen 60Hz auf dem Desktop komisch anfangen zu flackern, bis man lange genug etwa ein schwarzes Bild anzeigen lässt oder sie länger vom Strom trennt. Konnte ich auf zwei völlig verschiedenen Panels reproduzieren, ausschließlich mit FG. Gar kein Indiz, dass da irgendetwas am Pacing verbesserungswürdig ist. :crazy:
TheAntitheist
2025-01-07, 12:36:46
Ja, Framegeneration ist das Einzige, was mich an DLSS interessiert. Aber bei 4x DLSS werden die Eingabelatenzen wie aus der Hölle sein.
das macht doch keinen Sinn, der delay zwischen den "echten" zwei frames ist genau der gleiche... es ist 1 frame delay. da werden ja keine echten frames weggelassen nur weil da mehr dazwischen generiert werden.
Exxtreme
2025-01-07, 12:40:37
das macht doch keinen Sinn, der delay zwischen den "echten" zwei frames ist genau der gleiche... es ist 1 frame delay. da werden ja keine echten frames weggelassen nur weil da mehr dazwischen generiert werden.
Framegeneration ist nicht kostenlos und kostet auch FPS was wiederum die Latenzen erhöht. Aber OK, eventuell war ich etwas voreilig mit dem Urteil. Da es grad unbekannt ist wie stark die 4x FG die Grafikkarte belastet.
dildo4u
2025-01-07, 13:28:09
Kann man besser Bildqualität über die Nvidia App erzwingen oder nur Fake Frames ist mir noch nicht klar.
aufkrawall
2025-01-07, 13:32:10
Kann man besser Bildqualität über die Nvidia App erzwingen oder nur Fake Frames ist mir noch nicht klar.
Da steht doch, dass du den Skalierungsfaktor und das Modell überschreiben kannst. Wenn also die neuen Beta-Modelle besser aussehen (wovon wir erstmal ausgehen), oder das Spiel selbst kein DLAA anbietet, kannst du die BQ verbessern. Halt das, was schon länger über den Inspector/NVAPI geht, nur halt endlich mal offiziell. Und Nvidia kann das über die Per-Spiel-Optimierung in der Nvidia App auch dem (unbedarften) User vorschlagen, also auch für den Average Joe eine gute Sache.
Relex
2025-01-07, 13:59:54
Der Override wird aber in der Nvidia App wohl erst freigeschaltet, nachdem Nvidia das jeweilige Spiel getestet hat.
Es könnte also sein, dass bei manchen Spielen der Override aus unbekannten Gründen nicht verfügbar ist und man weiterhin die dll Dateien austauschen muss.
Oliver_M.D
2025-01-07, 14:01:13
Schon interessant wie weit DLSS gekommen ist, besonders im Vergleich zu DLSS 1 in Battlefield 5. Habe erwartet das 50-nutzer 4xFG bekommen und das wars, nicht das es noch ein "enhanced-model" für alles andere gibt. Schönes ding! Das Forcen/Verbessern durch die "App" wurde auch langsam Zeit, hoffe das behebt endlich Probleme mit Spielen wie Battlefield 2042, Hunt oder Red Dead:freak:.
dildo4u
2025-01-07, 14:07:59
Schon interessant wie weit DLSS gekommen ist, besonders im Vergleich zu DLSS 1 in Battlefield 5. Habe erwartet das 50-nutzer 4xFG bekommen und das wars, nicht das es noch ein "enhanced-model" für alles andere gibt. Schönes ding! Das Forcen/Verbessern durch die "App" wurde auch langsam Zeit, hoffe das behebt endlich Probleme mit Spielen wie Battlefield 2042, Hunt oder Red Dead:freak:. Sieht so aus als ob es eine beschränkte Liste gibt NV nennt 75 Games zum Launch es gibt aber mher mit DLSS3.
aufkrawall
2025-01-07, 14:12:37
Afair geht in BF2042 die OTA-Methode mit dem Script von emoose (wills aber nicht beschwören). Hunt soll wohl kürzlich per Update eine neue DLL bekommen haben, mit der das auch gehen soll (nicht selbst getestet). RDR2 geht über andere Tricks.
Man verzichtet jetzt wohl auf den Hardware OFA und nutzt eine reine AI Lösung.
Nice find. Somit wird es Zeit, FG auch für Ampere und Turing freizuschalten. :tongue:
MfG
Raff
DrFreaK666
2025-01-07, 14:18:32
Klar XD
Exxtreme
2025-01-07, 14:19:12
Kann sein, dass sowas Anti-Cheat-Mechanismen triggert und deshalb bedarf es manueller Prüfung. Das ist auch schon bei den externen RTX-Filtern so, dass sie bestimmte Sachen nicht dürfen.
aufkrawall
2025-01-07, 14:21:36
Sagen wir mal, dass es nicht gänzlich ausgeschlossen ist. Ist mir aber seit 2021 in keinem einzigen Titel passiert.
Gibt aber immer Spezis, die ggf. eine Dev-Version der DLL mit Debug-Features nehmen, was nicht so schlau ist...
Relex
2025-01-07, 14:28:32
Na ja, ein Anticheat wird definitiv erkennen, dass die DLL verändert wurde.
Da würde ich sogar erwarten, dass das 100% der AntiCheats zuverlässig erkennen. Würden sie das nicht erkennen, würden sie auch keinerlei Cheat Software erkennen können. Ich denke das versteht sich eigentlich von selbst.
Die Frage ist dann nur, ob so eine Änderung whitelisted ist oder nicht. Und da würde ich nicht auf die Spieleentwickler oder den AntiCheat Hersteller vertrauen wollen.
Von daher find ich es auch sinnvoll, dass Nvidia hier nicht pauschal alle Spiele freischaltet.
Sonst gibts irgendwann den gleichen Shitstorm wie bei AMD mit AntiLag. Ich hoffe trotzdem, dass man über den Tausch der DLL auch das neue Model erzwingen kann.
Nice find. Somit wird es Zeit, FG auch für Ampere und Turing freizuschalten. :tongue:
MfG
Raff
Frag mich ja wirklich, was jetzt die "Ausrede" ist. So ne 3090 sollte das doch locker packen. :confused:
Aber was willste machen. FG wurde nie für ältere Gens versprochen und man kann ja wirklich froh sein, dass Nvidia für alle GPUs und deren jeweils unterstützten Features solche Updates bringt. Das hätte ich in der Form wirklich nicht erwartet.
Vor allem bessere FG performance für RTX4000 hatte ich überhaupt nicht auf dem Zettel, auch wenn ichs mir schon lange wünsche.
Oliver_M.D
2025-01-07, 14:31:38
Afair geht in BF2042 die OTA-Methode mit dem Script von emoose (wills aber nicht beschwören). Hunt soll wohl kürzlich per Update eine neue DLL bekommen haben, mit der das auch gehen soll (nicht selbst getestet). RDR2 geht über andere Tricks.Na wenn das so ist, dann brauchen wir die App ja doch nicht. Also ab in die Tonne damit, geht ja wie du sagtest auch ohne;D
Ich habe nur gesagt dass ich es schön finde, dass wir jetzt eine einfache und offizielle Möglichkeit haben DLSS zu verbessern und direkter zu steuern. Du musst es ja nicht sofort kleinreden, als ob niemand jemals nach sowas gefragt hätte. Mag sein dass es auch anders geht, aber das ist alles andere als ideal, gerade für den 08/15-Nutzer oder wenn ich einem Freund helfen möchte.
Bei dem Script bin ich mir persönlich nie sicher ob es wirklich funktioniert. Ich will mich auch nicht immer auf Entwickler wie Dice oder Crytek verlassen müssen, dass sie es irgendwann für nötig halten eine DLL zu updaten.
robbitop
2025-01-07, 14:33:30
Absolut beeindruckend. Jetzt macht ein 240 Hz 4K Monitor noch mehr Sinn. 5070 ti wird, wenn die wirklich den UVP kostet geordert ^^
Nice find. Somit wird es Zeit, FG auch für Ampere und Turing freizuschalten. :tongue:
MfG
Raff
Hehe zu Ada hieß es noch das geht nicht gut ohne den OFA. Und jetzt geht es ohne und trotzdem wird man es als Turing und Ampere Besitzer nicht bekommen damit man neue HW kauft.
aufkrawall
2025-01-07, 14:35:32
Du musst es ja nicht sofort kleinreden, als ob niemand jemals nach sowas gefragt hätte.
Wüsste nicht, wie ich es "kleingeredet" hätte, indem ich die Möglichkeiten des Status Quo, inkls. diverser Einschränkungen/Abmilderungen beschrieben habe, aber gut. :freak:
Ich finds ne super Sache in der App...
Ravenhearth
2025-01-07, 14:56:05
Die Verbesserungen an DLSS (auch ohne FG) sind eigentlich das Interessanteste an der ganzen Vorstellung von Blackwell. AMD kommt irgendwann dieses Jahr mit seinem ersten KI-Upscaler raus und landet vielleicht da, wo Nvidia mit DLSS 2.0 vor 5 Jahren war, während letztere auf ein komplett anderes Model wechseln, das verspricht deutlich besser auszusehen als das alte. Autsch.
DrFreaK666
2025-01-07, 15:49:11
Absolut beeindruckend. Jetzt macht ein 240 Hz 4K Monitor noch mehr Sinn. 5070 ti wird, wenn die wirklich den UVP kostet geordert ^^...
Hast nichtmal erwähnt, dass du nur gebraucht kaufst, da du Nvidia nicht direkt unterstützen willst? :wink:
basix
2025-01-07, 16:16:39
Somit wird es Zeit, FG auch für Ampere und Turing freizuschalten. :tongue:
Genau das habe ich mir auch gedacht, wenn sie das nun auf den Tensor-Cores ausführen ;)
Das wäre Service am Gamer!
DrFreaK666
2025-01-07, 16:30:21
... Das wäre Service am Gamer!
Das wäre eher eine Verarsche, weil viele wegen dem Feature sicherlich Geld ausgegeben haben
dildo4u
2025-01-07, 16:56:04
xpzufsxtZpA
Fragman
2025-01-07, 17:16:17
Dann rennt in dem Fall die 5080 fast doppelt so schnell mit MFG gegenüber einer 4080S mit FG.
Die Qualitätsverbesserungen sind deutlich, bleibt noch die Frage nach dem Input Lag und wie sich das anfühlt.
Troyan
2025-01-07, 17:17:49
Input-Lag wird ja gemessen. 10% höher mit MFG-4 gegenüber MFG-2. Also im Grunde belanglos, wenn man sowieso schon mit FG spielt.
SamLombardo
2025-01-07, 17:18:46
Wird es die Qualitätsverbesserungen auch für die 4er Generation geben?
Troyan
2025-01-07, 17:19:21
Ja, alles mit auf Multiframe-Generation wird es auch für Lovelace geben.
Cubitus
2025-01-07, 17:19:44
Hier ein paar Filmchen:
https://www.youtube.com/@NVIDIAGeForce/videos
@Sam
Ja wird es, DLSS4 kommt aber ohne MFG
dildo4u
2025-01-07, 17:20:28
Wird es die Qualitätsverbesserungen auch für die 4er Generation geben?
Ja.
https://i.ibb.co/7KmXgMb/nvidia-dlss-4-feature-chart-breakdown.jpg (https://ibb.co/qpQd0qx)
SamLombardo
2025-01-07, 17:21:26
Sehr schön, danke @Troyan, Cubitus und Dildo.
Relex
2025-01-07, 17:27:35
Dann rennt in dem Fall die 5080 fast doppelt so schnell mit MFG gegenüber einer 4080S mit FG.
Die Qualitätsverbesserungen sind deutlich, bleibt noch die Frage nach dem Input Lag und wie sich das anfühlt.
Fairerweise muss man sagen, dass auf der 4080 noch das alte CNN Model lief und nicht das neue.
Daher ist der Vergleich etwas geschönt.
Interessanter wäre aus technischer Sicht erstmal der Vergleich 4080 vs 5080 mit neuem Transformer Model auf beiden Karten und 2x FG und dazu jeweils der relative FPS Gewinn gegenüber FG off.
Dass Die RTX5080 mit 4x FG doppelt so viele FPS erreicht wie die 4080 mit 2x FG ist erstmal genau das was man erwarten würde.
Die Frage ist aber wie viel des Performancezuwachs ist dem neuen Transformer Model geschuldet, wie viel dem 4x FG (ist die Skalierung wirklich so gut) und wie viel der verbesserten RT performance von Blackwell.
So ist es halt technisch ein äpfel vs birnen Vergleich.
00-Schneider
2025-01-07, 17:28:56
Wird es die Qualitätsverbesserungen auch für die 4er Generation geben?
Ja, mit der Einschränkung, dass es auf 2er, 3er und 4er ggf. teurer zu berechnen sein wird als auf der 5er Gen. Zumindest habe ich Leadbetter so verstanden.
MadManniMan
2025-01-07, 17:30:00
Input-Lag wird ja gemessen. 10% höher mit MFG-4 gegenüber MFG-2. Also im Grunde belanglos, wenn man sowieso schon mit FG spielt.
Anfangs war ich haaaaart dagegen, generierte Frames bei höherer Latenz besser zu finden, aber inzwischen mag ich es, die Wahl zu haben und für mich entscheiden zu können, ob ich einige BQ-Features aktiviere und mit (teils spürbar) höherem Lag, aber eben auch besserer Optik spiele.
Beispiel CP77, das für mich seit letzter Woche keine Rolle mehr spielt, da endlich durchgespielt und von der Platte geflogen, aber:
Ich kann es mit geringer Latenz und ein paar RT-Features oder aber höherer Latenz und Pathtracing spielen. Da der Lag mit Frame Generation noch immer erträglich ist, überlege ich da nicht lange.
Ob es aber in allen Spielen appliziert ... ich höre (noch nicht probier), dass Indiana Jones mit FG arg zäh würde.
Fragman
2025-01-07, 17:31:25
Fairerweise muss man sagen, dass auf der 4080 noch das alte CNN Model lief und nicht das neue.
Daher ist der Vergleich etwas geschönt.
Interessanter wäre aus technischer Sicht erstmal der Vergleich 4080 vs 5080 mit neuem Transformer Model auf beiden Karten und 2x FG und dazu jeweils der relative FPS Gewinn gegenüber FG off.
Dass Die RTX5080 mit 4x FG doppelt so viele FPS erreicht wie die 4080 mit 2x FG ist erstmal genau das was man erwarten würde.
Die Frage ist aber wie viel des Performancezuwachs ist dem neuen Transformer Model geschuldet, wie viel dem 4x FG (ist die Skalierung wirklich so gut) und wie viel der verbesserten RT performance von Blackwell.
So ist es halt technisch ein äpfel vs birnen Vergleich.
Jep, was jetzt genau welchen Anteil an der besseren Performance hat wissen wir noch nicht. Wird dann ein interessantes DF Video.
Cubitus
2025-01-07, 17:32:26
Fairerweise muss man sagen, dass auf der 4080 noch das alte CNN Model lief und nicht das neue.
Daher ist der Vergleich etwas geschönt.
Interessanter wäre aus technischer Sicht erstmal der Vergleich 4080 vs 5080 mit neuem Transformer Model auf beiden Karten und 2x FG und dazu jeweils der relative FPS Gewinn gegenüber FG off.
Dass Die RTX5080 mit 4x FG doppelt so viele FPS erreicht wie die 4080 mit 2x FG ist erstmal genau das was man erwarten würde.
Die Frage ist aber wie viel des Performancezuwachs ist dem neuen Transformer Model geschuldet, wie viel dem 4x FG (ist die Skalierung wirklich so gut) und wie viel der verbesserten RT performance von Blackwell.
So ist es halt technisch ein äpfel vs birnen Vergleich.
Wenn sich der ganze Launch-Zirkus etwas legt, werden wir sicherlich etwas sehen.
Es wäre allerdings sehr schön, wenn auch die 4090/4080 noch einen ordentlichen Aufwind bekäme. AMD konkurriert ja mit der 40er-Generation, denen möchte man halt auch nicht unten das Feld überlassen..
Glaube wenn das so weiter geht RIP, AMD.
Relex
2025-01-07, 17:33:30
Ob es aber in allen Spielen appliziert ... ich höre (noch nicht probier), dass Indiana Jones mit FG arg zäh würde.
Ja wird es, weil Reflex scheinbar nicht funktioniert.
Erkennt man z.B. daran, dass Reflex bei aktivem G-Sync und aktivem Vsync die FPS automatisch knapp unterhalb der max Bildwiederholrate limitiert. Bei Indiana Jones ist das aber nicht der Fall.
Das in Kombination mit dem ungewöhnlich hohen Lag sagt mir, dass Reflex wohl einfach nicht aktiv ist.
robbitop
2025-01-07, 17:34:51
Hast nichtmal erwähnt, dass du nur gebraucht kaufst, da du Nvidia nicht direkt unterstützen willst? :wink:
Nein so habe ich es nicht geschrieben sondern dass ich aus Prinzip nur bei gutem P/L kaufe. Und wenn das nicht gegeben ist (was mit Ada der Fall ist), dann eben gebraucht, weil ich ein solches Verhalten nicht belohne.
Die 50 Series sieht aber (wenn die UVPs stimmen und die Leistung stimmt) danach aus als wenn die P/L stimmt. ;)
Cubitus
2025-01-07, 18:25:53
Also iwie überzeugt mich die Neurale Texturkompression nicht
xHQMehFJ0AY
Ab Sekunde 0:45
Das sieht doch deutlich schlechter aus als vorher :confused:
https://i.postimg.cc/VJ0Fk3jZ/Screenshot-2025-01-07-182419.png (https://postimg.cc/VJ0Fk3jZ)
https://i.postimg.cc/z3dwSJ7P/Screenshot-2025-01-07-182432.png (https://postimg.cc/z3dwSJ7P)
aufkrawall
2025-01-07, 18:31:12
Würde eher sagen, es sieht deutlich anders, aber realistischer (Layer für Staub, Kratzer...) aus. Warum auch immer die "KI" die Interpretation so vornimmt. Wär natürlich gut, wenn der Artist weiterhin Kontrolle über so etwas hat.
Cubitus
2025-01-07, 18:37:38
Würde eher sagen, es sieht deutlich anders, aber realistischer (Layer für Staub, Kratzer...) aus. Warum auch immer die "KI" die Interpretation so vornimmt. Wär natürlich gut, wenn der Artist weiterhin Kontrolle über so etwas hat.
Absolut, es ist tatsächlich eine Neuinterpretation.. Hmm
Persönlich gefällt mir das "buntere" Bild besser.
Das schöne Blau in dem Tuch oder Plane fehlt und wurde mit etwas grünlichem ersetzt.. Auch das Holz sieht nicht mehr so Walnuss farbig aus..
Mir kommt es eben schon vor das deutlich eingespart wurde. :(
aufkrawall
2025-01-07, 18:48:55
Möglich, bleibt spannend. :)
Relex
2025-01-07, 18:53:18
Also die Texuren sind schärfer, das Meterial ist anders.
Das Problem ist halt, dass so ein Meterial mit den korrekten Eingemschaften und möglichst vielen Rays und Bounces sehr komplex zu berechnen ist und man daher mit Pathtracing irgendwo auch Rechenleistung sparen muss.
Die Frage wäre also, ob das Neural meterial näher an der Referenz ist, als das normale.
Ist schwer zu sagen.
Subjektiv hätte ich gesagt, das Neural material sieht fotorealistischer aus. Gerade die Verschattung bzw. fehlende Verschattung auf dem rechten der beiden vertikalen Streben sieht mit Neural material realistischer und glaubhafter aus.
Mit dem Standard Material wirkt das viel zu hell und leuchtend und die unscharfen Texturen stechen dann auch raus.
PS: Wahrscheinlich will man hier auch die refraktion in den Glaskugeln demonstrieren. Ohne neural materials sieht man nur die Spiegelungen. Mit Neural material sieht man auch das Glas Material selbst in dem sich das Licht bricht weißlich schimmern.
EDIT: Also je länger ich es vergleiche, desto offensichtlicher wird es und desto mehr unstimmigkeiten fallen mir auf. :D Die Neural Variante ist deutlich besser. Es hilft auch die Bilder etwas zu verkleinern und mal die Gesamte Ausleuchtung zu betrachten.
Tesseract
2025-01-07, 20:06:39
wär lustig wenn die switch 2 mit vollem lovelace-level transformer model DLSS kommen würde, was technisch ja möglich sein sollte auf einem ampere-chip.
rumpeLson
2025-01-07, 20:10:41
Mal eine Verständnisfrage zu Neural Materials. Im Vergleich steht ja der jeweils gesunkene Speicherbedarf. Reden wir hier aber generell von Speicherplatz auf der Festplatte oder über VRAM?
Tesseract
2025-01-07, 20:17:17
wenn man die zusätzlichen klassischen materials für kompatibilität ausnimmt wahrscheinlich beides.
aufkrawall
2025-01-07, 20:20:49
Tippe aber, für Datenträgerspeicherplatz wären die Clients wie Steam und insbesondere Epic in der Praxis zu doof.
Relex
2025-01-07, 20:27:14
Hier nochmal der Qualitätsvergleich aus dem Zorah Video. Holy Sh*t. :eek:
https://imgsli.com/MzM1ODg4
https://i.ibb.co/hD0J815/01-CNN.png (https://ibb.co/hD0J815) https://i.ibb.co/5FjCkt9/02-Transformer.png (https://ibb.co/5FjCkt9)
Wie ich schon sagte, das ist mindestens eine Qualitätssteigerung, die man sonst nur zwischen DLSS Performance vs DLAA sehen würde, was das neue Model hier einfach mal bei gleicher Renderauflösung bieten kann.
aufkrawall
2025-01-07, 20:37:23
Tja, schon verrückt, wie das so scharf aussieht, und gleichzeitig offenbar auch noch die Ringing-Artefakte von RR verschwunden sind.
Denke mal, man kann jetzt mit Sicherheit sagen: In spätestens zehn Jahren ist die AA-Qualität inkls. Upsampling so in etwa auf CGI-Niveau, und vermutlich auch inkls. RT-Denoising. Das Ende des ewigen Aliasing-Albtraums. Ich hatte bei dem stockenden Fortschritt (Preset D...) zwischendurch kaum noch daran geglaubt.
Ggf. wird AA auf der PS6 im Vergleich zu DLSS von 2025 immer noch abstinken. :freak:
Mordekai2009
2025-01-07, 20:44:48
Es geht langsam Vorwärts. Ich war unzufrieden mit Ghosting und Smearing in TAA und DLSS.
Ex3cut3r
2025-01-07, 21:03:05
Hier nochmal der Qualitätsvergleich aus dem Zorah Video. Holy Sh*t. :eek:
https://imgsli.com/MzM1ODg4
https://i.ibb.co/hD0J815/01-CNN.png (https://ibb.co/hD0J815) https://i.ibb.co/5FjCkt9/02-Transformer.png (https://ibb.co/5FjCkt9)
Wie ich schon sagte, das ist mindestens eine Qualitätssteigerung, die man sonst nur zwischen DLSS Performance vs DLAA sehen würde, was das neue Model hier einfach mal bei gleicher Renderauflösung bieten kann.
:freak: Und wie bitte soll das FSR aufholen? Die haben aktuell nicht mal eine Antwort für RR.
So leid es mir tut, aber wer AMD GPUs kauft, gibt sich leider mit minderwertigen Produkten ab. Die gar nicht mal so viel günstiger sind. Da muss man schon wirklich hart im Nehmen sein.
Relex
2025-01-07, 21:10:37
Ich bin eigentlich nur froh darüber, dass die Wette mit Machine Learning letzten Endes tatsächlich aufgeht und ständig Verbesserungen möglich sind.
Gleicher Input an Daten, aber die Qualität steigt trotzdem immer weiter. Hätte man mir das vor dem Aufkommen von DLSS erzählt, hätte ich es nicht geglaubt. Es wäre reinstes Wunschdenken und Fantasieren gewesen, was mit "KI" als damals #MarketingBullshit angeblich alles möglich sein könnte. Kaum jemand hat dran geglaubt und man dachte man will die Kunden nur verarschen (tut man zwar teilweise wirklich, aber anderes Thema)
Dann kam DLSS2.x was richtig überzeugen konnte. Zwischenzeitlich hab ich dann aber auch nicht mehr daran geglaubt, dass nochmal eine deutliche Steigerung möglich ist. Und dann haut nvidia sowas raus.
AI funktioniert. Nicht nur, um überhaupt einen brauchbaren Algo zu finden, sondern auch um ihn immer weiter zu verbessern und die Grenzen des bisher machbaren zu sprengen, das hat NV heute mMn. bewiesen.
Wer weiß wohin uns die Möglichkeiten mit Machine learning noch hinführen. The Sky is the Limit.
Und das sag ich nicht nur als vermeintlicher NV Fanboy sondern allgemein für die Industrie. IT und PC Technik war in den letzten 5 Jahren spannender als in den 30 davor. Und das TROTZ Rückschlägen bei der Chipfertigung. Das ist das beeindruckende daran.
:freak: Und wie bitte soll das FSR aufholen? Die haben aktuell nicht mal eine Antwort für RR.
:ulol::usad:
Lurtz
2025-01-07, 21:11:05
Könnte das Hardware-Framepacing für FG auch für RTX 4000 kommen oder ist das ausgeschlossen?
basix
2025-01-07, 21:11:17
Ggf. wird AA auf der PS6 im Vergleich zu DLSS von 2025 immer noch abstinken. :freak:
Wir haben noch zwei Jahre Zeit ;)
Aber DLSS4 zeigt, wohin die Reise bei den NextGen Konsolen gehen wird. Weniger rendern, mehr generieren.
DLSS4 bringt grosse Verbesserungen für die grössten Probleme: Ghosting, Unschärfe in Bewegung, Flickering.
Und noch was:
Turing ist die wohl mit Abstand am besten gealterte GPU-Generation aller Zeiten. RT ist immer noch stark, DX12 Ultimate Support und bekommt nun von DLSS4 Super Resolution, RR sowie Reflex 2 nachgereicht. Einziges Problem: Es sollte schon die 2080 Ti mit 11GB sein, mit der 2070 8GB geht es evtl. nur mit Kompromissen.
Ex3cut3r
2025-01-07, 21:13:21
@Relex
Also mir was das damals zum Turing Rls. eigentlich klar, wohin die Reise gehen wird. Des Weiteren arbeiten da verdammt nochmal die klügsten Köpfe der Welt und das Budget für R&D dürfte ja nicht gerade klein sein. Da muss einfach was Vernünftiges bei rumkommen. Sonst kannst du den ganzen Laden zu machen.
Lurtz
2025-01-07, 21:13:50
:freak: Und wie bitte soll das FSR aufholen? Die haben aktuell nicht mal eine Antwort für RR.
So leid es mir tut, aber wer AMD GPUs kauft, gibt sich leider mit minderwertigen Produkten ab. Die gar nicht mal so viel günstiger sind. Da muss man schon wirklich hart im Nehmen sein.
Ich dachte letztes Jahr AMD wird erst wieder kaufbar, wenn sie was Upsampling angeht was vergleichbares zu DLSS SR bieten. FG war ja soweit kompetitiv. Und jetzt zündet nVidia einfach die nächste Stufe und ist wieder in einer eigenen Galaxie unterwegs :ugly:
Relex
2025-01-07, 21:22:40
@Relex
Also mir was das damals zum Turing Rls. eigentlich klar, wohin die Reise gehen wird. Des Weiteren arbeiten da verdammt nochmal die klügsten Köpfe der Welt und das Budget für R&D dürfte ja nicht gerade klein sein. Da muss einfach was Vernünftiges bei rumkommen. Sonst kannst du den ganzen Laden zu machen.
Klar, hast schon Recht. Aber für mich war das immer eher ne Hoffnung und weniger ne echte Überzeugung, dass es auf Dauer wirklich klappt.
Ich war z.B. auch der Überzeugung, dass es wohl sowas wie ein physikalisches/logisches Limit geben muss, wie viel Bildinformationen man durch das Kombinieren der Informationen mehrerer Frames erzeugen kann um damit eben Upscaling oder AntiAliasing zu betreiben.
Darauf hätte ich zwar immer noch keine Antwort, aber zumindest wissen wir, dass die Grenze, falls es sie gibt noch lange nicht erreicht ist.
Ich finds auch interessant, dass diese Denoising und Informationsprobleme die DLSS löst ja auch klassische Probleme in der Elektrotechnik bei Hochfrequeztechnik, Datenübertragung und Signalverarbeitung sind. Neuronale Netze können (und tun es wahrscheinlich bereits) auch in solchen Bereichen wahnsinnige Fortschritte bringen. Denn DLSS ist ja praktisch nichts weiter als ein wahnsinnig guter "Signalaufbereiter", der aus einem schlechten Signal ein möglichst gutes zaubert.
crux2005
2025-01-07, 21:27:47
https://youtu.be/xpzufsxtZpA
Die (M)FG Artefakte habe ich leider gleich gemerkt. Vielleicht sieht es IRL besser aus. Keine Ahnung.
Tesseract
2025-01-07, 21:30:16
Also mir was das damals zum Turing Rls. eigentlich klar, wohin die Reise gehen wird.
yep (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11779160#post11779160)
Ex3cut3r
2025-01-07, 21:30:19
Klar, hast schon Recht. Aber für mich war das immer eher ne Hoffnung und weniger ne echte Überzeugung, dass es auf Dauer wirklich klappt.
Ich war z.B. auch der Überzeugung, dass es wohl sowas wie ein physikalisches/logisches Limit geben muss, wie viel Bildinformationen man durch das Kombinieren der Informationen mehrerer Frames erzeugen kann um damit eben Upscaling oder AntiAliasing zu betreiben.
Darauf hätte ich zwar immer noch keine Antwort, aber zumindest wissen wir, dass die Grenze, falls es sie gibt noch lange nicht erreicht ist.
Genau. Nein natürlich nicht, da ist noch massiv Luft nach oben. In 10 Jahren sieht die Sache nochmal anders aus, das muss sich in auch im klaren sein. Ich denke 1000HZ Montiore werden da tatsächlich schon in 5-6 Jahren wirklich Sinn machen, dank FG. KA ob es da noch AMD GPUs geben wird. Oder aber AMD sich komplett auf den CPU Sektor konzentrieren wird.
yep (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11779160#post11779160)
Sehr gut vorrausgesehen. Respekt. :up:
basix
2025-01-07, 22:05:40
Eigentlich sollte man den Thread-Titel noch umbenennen ;)
aufkrawall
2025-01-07, 22:14:57
Könnte das Hardware-Framepacing für FG auch für RTX 4000 kommen oder ist das ausgeschlossen?
Hardware dürfte ausgeschlossen sein. Theoretisch könnte das CPU-Pacing aber auch verändert/verbessert werden, wie ja die einigen (wenige) Fälle mit gutem Pacing und FSR 3.1 auf GeForces zeigen. Würd ich aber nicht erwarten, da sie alles gerne mit Hardware dongeln.
Sardaukar.nsn
2025-01-08, 02:05:52
..Ich denke 1000HZ Montiore werden da tatsächlich schon in 5-6 Jahren wirklich Sinn machen, dank FG.
Dank Multi-FG wird man diese FPS wohl erreichen können. Aber oft wenig relevant wie die aktuell gezeigten 250-350FPS in Cyberpunk 2077.
Gibt man sich mit gängigen vsync bzw FPS-Limit um 120/144hz zufrieden, wird man mit Multi-FG enorm effizient sein und sehr wenig Strom verbrauchen und ein gutes 4K/120 Bild zu erzeugen. Hier sehe ich den großen Sprung.
Benötige meine 4090 für ein top Bild in 4K/120 noch 350 Watt. Könnte es mit Blackwell und und Multi-FG vielleicht nur noch die Hälfte verbrauchen.
Lol... zwischen DLSS2 und DLSS4 also Null Verbesserung beim Spielgefühl. :lol: Es geht nur noch um Schwanzvergleiche bei den fps Balken. :uup:
DLSS 4 heißt nur das Paket, DLSS an sich hat sich sehr stark verbessert, sieht man doch mit dem neuen Transformer Model
Relex
2025-01-08, 06:28:09
Ja, und dafür mit doppelter Latenz, weil mit 120 FPS Limit die interne Framerate von 60 auf 30 sinken würde.
basix
2025-01-08, 09:12:27
Ja, und dafür mit doppelter Latenz, weil mit 120 FPS Limit die interne Framerate von 60 auf 30 sinken würde.
Ach komm, das wird jetzt doch von Reflex 2 kompensiert. Bitte weitergehen :D
Dank Multi-FG wird man diese FPS wohl erreichen können. Aber oft wenig relevant wie die aktuell gezeigten 250-350FPS in Cyberpunk 2077.
Gibt man sich mit gängigen vsync bzw FPS-Limit um 120/144hz zufrieden, wird man mit Multi-FG enorm effizient sein und sehr wenig Strom verbrauchen und ein gutes 4K/120 Bild zu erzeugen. Hier sehe ich den großen Sprung.
Benötige meine 4090 für ein top Bild in 4K/120 noch 350 Watt. Könnte es mit Blackwell und und Multi-FG vielleicht nur noch die Hälfte verbrauchen.du solltest doch immer noch zumindest 60 reale fps haben... also sollte der monitor dann schon 240Hz haben und die brauch man eigentlich nicht, schon gar nicht mit FG. in competitive shootern klar, mehr fps sind da immer besser, aber NICHt mit FG
The_Invisible
2025-01-08, 09:30:50
Ja von 30 ist schon zäh, aber von 60 aus mit 4xFG => 240 ist schon ganz nett für die neuen 4k OLEDs
00-Schneider
2025-01-08, 10:21:45
Ja von 30 ist schon zäh, aber von 60 aus mit 4xFG => 240 ist schon ganz nett für die neuen 4k OLEDs
This.
Das Problem ist halt, dass viele DAUs denken, es reichen ~30fps als Ausgangsbasis um dann durch 4xFG mit ~120fps flüssig zu spielen. Die Erkenntnis kommt dann aber erst wenn man selbst Hand anlegt und merkt wie schwammig die Steuerung ist.
aufkrawall
2025-01-08, 10:30:28
Hab mal AW2 noch billig eingetütet und hier wäre selbst ohne HWRT der 3x-Modus mehr als willkommen. Skaliert auch von P -> UP Upsampling nur noch mit 10% (50 vs. 55fps ohne FG ;D ), Monitor mit geringerer Auflösung als 4k würde also ~null bringen...
Es sieht schon mit dem Lovelace-FG, das in dem Fall ~50% bringt, schon massiv flüssiger aus...
Exxtreme
2025-01-08, 10:33:37
Ihr solltet nicht vergessen, dass wenn man FG einschaltet, dass man auf die Latenz noch 50% drauflegen muss. Sprich, wenn das Spiel real mit 60 fps läuft dann bekommt man die Latenz als ob das Spiel mit 40 fps laufen würde wenn man FG einschaltet. Das ist halt der Nachteil der Interpolatoren, dass sie das aktuelle Bild zurückhalten müssen weil sie es brauchen um das interpolierte Bild zu berechnen. Deshalb hängt die Darstellung immer 50% hinter dem was die Engine bereits berechnet hat. Und deshalb werden 60 fps -> 240 fps trotzdem sehr zäh werden.
aufkrawall
2025-01-08, 10:36:09
Falls Reflex 2 mit FG laufen sollte (würde ich eigentlich bei Nvidia erwarten, zumindest irgendwann), wäre der Input Lag vermutlich subjektiv ca. so wie ohne FG, aber Treiber-NULL an. Völlig unspielbar für SP-Spiele, ja...
Ich denke 1000HZ Montiore werden da tatsächlich schon in 5-6 Jahren wirklich Sinn machen, dank FG.
Jo, aber nur für <=1080p. Sonst limitieren die Video-Schnittstellen bei höheren Auflösungen.
Wie wär es mit Frame Generation und/oder Upscaling Hardware im Monitor?
Dann werden halt nur noch die nativen Bilder und zusätzlich benötigte Daten wie Motion Vectors über die Schnittstelle übertragen. Setzt voraus, dass diese zusätzlichen Daten kleiner sind als die Bilddaten der generierten Frames. Und es könnten neue Latenzherausforderungen entstehen.
Relex
2025-01-08, 10:50:38
Die neuen Karten unterstützen 4K mit 480 Hz mit DSC (12 Bit HDR).
Da sind 1000 Hz in 4K nicht mehr weit weg. Die nächste Verdoppelung wird mit der nächsten DP oder HDMI Version sicher kommen.
Das ganze dann nochmal 4x für 8K 1000 Hz und dann ist eh erstmal Schluss mit der Sinnhaftigkeit.
du solltest doch immer noch zumindest 60 reale fps haben... also sollte der monitor dann schon 240Hz haben und die brauch man eigentlich nicht, schon gar nicht mit FG. in competitive shootern klar, mehr fps sind da immer besser, aber NICHt mit FG
Selbstverständlich braucht man die, gerne auch noch mehr, auch mit 240Hz gibt es noch Sample&Hold Blur.
Ihr solltet nicht vergessen, dass wenn man FG einschaltet, dass man auf die Latenz noch 50% drauflegen muss.
Dank Framewarp kann die gefühlte Latenz sogar besser sein als bisher, wenn auch natürlich nicht so gut wie Framewarp ohne FG.
Wie wär es mit Frame Generation und/oder Upscaling Hardware im Monitor?
Völlig undenkbar nur annähernd die Qualität zu erreichen, das muss in die Engine integriert werden.
Dann werden halt nur noch die nativen Bilder und zusätzlich benötigte Daten wie Motion Vectors über die Schnittstelle übertragen.
Diese "nur zusätzliche Daten" wären wesentlich mehr als das eigentliche Bild.
Verständnissfrage: was bringen denn 240 statt 120 FPS, wenn die engine eh nur mit 60 FPS läuft? Ab 90, spätestens 120 FPS sollte man doch keine Verbesserung mehr wahrnehmen können? Oder sieht da jemand, dass es noch flüssiger ist wenn man 240 FPS statt 120 FPS angezeigt bekommt?
Troyan
2025-01-08, 12:21:21
Mehr Bilder bedeuten erstmal kürze Überbrückungszeiten zwischen Frames, wodurch ein flüssiger Spieleindruck einsteht. Bei LCD und OLED kommt noch Sample&Hold hinzu, wodurcch auch die Bildschärfe in Bewegung mit jedem Frame mehr sich verbessert.
Selbst wenn ein Spiel auf 60 FPS intern limitiert wäre, kann man den Spieleindruck verbessern.
basix
2025-01-08, 12:22:06
240Hz sollte schon noch als flüssiger wahrgenommen werden. Und es erlaubt CRT mässiges Scanning bei 60fps, siehe https://www.tomshardware.com/monitors/blur-busters-releases-authentic-crt-simulator-shader-for-high-refresh-oled-and-lcd-screens-240-hz-oled-recommended-for-the-best-experience
960Hz wäre da natürlich noch geiler, da man dann das selbe CRT Scanning bei 240fps Basis machen könnte. Vielleicht ist dieses CRT Scannung sogar besser als Frame Generation, was Bewegtschärfe und evtl. auch "Flüssigkeit" angeht, habe es noch nicht getestet.
aufkrawall
2025-01-08, 12:22:48
Ja und ja. Es sieht massiv schärfer und auch noch mal ordentlich flüssiger aus.
x-force
2025-01-08, 12:49:03
240Hz sollte schon noch als flüssiger wahrgenommen werden. Und es erlaubt CRT mässiges Scanning bei 60fps, siehe https://www.tomshardware.com/monitors/blur-busters-releases-authentic-crt-simulator-shader-for-high-refresh-oled-and-lcd-screens-240-hz-oled-recommended-for-the-best-experience
ich weiß noch, dass ich damals auf der röhre ab 100hz kein flimmern mehr wahrgenommen habe und spätestens ab 120fps ist es nicht mehr flüssiger geworden.
The_Invisible
2025-01-08, 13:10:41
Eventuell auch interessant gegen oled vrr Flicker wenn man die FPS damit >200 treibt. 60fps mit 4xfg oder 80fps mit 3xfg
Mfg glättet ja auch die frametimes
Troyan
2025-01-08, 13:13:10
Ja, FG hilft eben massiv, um andere Probleme zu lössen. Man bleibt viel besser im VRR-Bereich, man hat bessere Frametimes, bei LCD kann man auch viel näher zum optimalen Overdrive.
Man liest immer nur über Latenzerhöhungen, aber ignoriert, dass wir hier ja ein komplettes System haben. Und VRR Flicker, Tearing oder V-Sync sind eben auch keine Lösung...
Völlig undenkbar nur annähernd die Qualität zu erreichen, das muss in die Engine integriert werden.
Völlig undenkbar ist fast garnix. :freak:
Diese "nur zusätzliche Daten" wären wesentlich mehr als das eigentliche Bild.
Sehe ich nicht als gesetzt. Auflösung vervierfachen (DLSS Performance?) und dann z.B. 7 Zwischenframes (MFG 2.0) berechnen ergibt 32-fache Bandbreitenlast bei Übertragung über die Schnittstelle. Das musst du erstmal mit Motion Vectors etc. füllen.
aufkrawall
2025-01-08, 13:19:07
Eventuell auch interessant gegen oled vrr Flicker wenn man die FPS damit >200 treibt. 60fps mit 4xfg oder 80fps mit 3xfg
Bro hat btw. 4090 schon ausgebaut, 5700 XT flackert mit VRR und dem OLED massiv weniger als die GeForce *surprise*...
Und FSR 3.0 FG auf der Karte, lol. Ebenfalls blamabel für die 4090, skaliert offenbar selbst auf der alten Gammelkarte mit 4k-Target besser, bei glatten Frame Times und flüssig aussehendem Ergebnis....
Die neuen Karten unterstützen 4K mit 480 Hz mit DSC (12 Bit HDR).
Das ist natürlich schon ganz gut und würde den technischen Aufwand für meine Idee wohl unrentabel machen. ;)
Die Kabellänge ist dann hoffentlich auch noch für Stehschreibtische geeignet.
Sehe ich nicht als gesetzt. Auflösung vervierfachen (DLLS Performance?) und dann z.B. 7 Zwischenframes (MFG 2.0) berechnen ergibt 32-fache Bandbreitenlast bei Übertragung über die Schnittstelle. Das musst du erstmal mit Motion Vectors etc. füllen.
Motion-Vectors sind nichts anderes als nochmal das Bild, nur dass die einzelnen Kanäle nicht RGB sondern die Bewegungsrichtung repräsentieren.
Z-Buffer ist nochmal ein Bild welches die Tiefe repräsentiert.
Dazu kommen noch mehrere G-Buffer, die jeweils die selbe Bandbreite wie das übertragene Bild benötigen, evtl. sogar mehr wenn es FP16 Buffer sind.
Die latenzminimierenden Maßnahmen von Reflex2 würden auch nicht funktionieren.
basix
2025-01-08, 14:50:15
ich weiß noch, dass ich damals auf der röhre ab 100hz kein flimmern mehr wahrgenommen habe und spätestens ab 120fps ist es nicht mehr flüssiger geworden.
Hold-Type Displays sind da wohl etwas anders als CRT-Monitore. Und bei CRTs gibt es noch das Decay / Nachglühen der Pixel, welches die "maximale Flüssigkeit" und Bewegtschärfe limitiert. Bei OLED hat man mehr oder minder sofortige Pixelumschaltzeiten, wodurch nach oben mehr Luft ist aber gleichzeitig auch mehr FPS für das selbe "Flüssigkeitsgefühl" benötigt werden.
Prinzenrolle
2025-01-08, 14:57:45
Sprich, wenn das Spiel real mit 60 fps läuft dann bekommt man die Latenz als ob das Spiel mit 40 fps laufen würde wenn man FG einschaltet.
Kommt darauf an wovon man ausgeht. Native+ Reflex ja.
Wird zu FG noch Reflex dazugerechnet, dann passt der Inputlag schon.
Wird mir zu viel darauf rumgeritten ehrlichgesagt. Nur von einem geringen Inputlag zu leben ist genauso wenig hilfreich wie von viel FPS.
Nur von einem geringen Inputlag zu leben ist genauso wenig hilfreich wie von viel FPS.
Ein niedrigerer Inputlag ist der Hauptgrund warum viel FPS so viel besser sind.
MadManniMan
2025-01-08, 18:08:20
Ein niedrigerer Inputlag ist der Hauptgrund warum viel FPS so viel besser sind.
Das wären doch mal spannende Versuchsaufbauten: 20 fps mit quasi instant Input, also 50 ms, vs. bspw. 40, 60, 120 fps und verschiedenstem Inputlag.
Doom (2016, Eternal) hat ja phänomenales Framepacing und generell hohe fps für das Gebotene, aber gar nicht mal so geringe Latenz.
readonly
2025-01-08, 18:13:36
Wann kann man mit den neuen Treibern rechnen? Letzte Januarwoche? Bin gespannt ob sich der auf meiner 4070ti bemerkbar macht.
aufkrawall
2025-01-08, 18:22:23
Das wären doch mal spannende Versuchsaufbauten: 20 fps mit quasi instant Input, also 50 ms, vs. bspw. 40, 60, 120 fps und verschiedenstem Inputlag.
Das Merken ist das Eine, etwas als Dealbreaker zu empfinden das Andere. Ich hatte schon 2013 in Battlefield 4 den in-game Limiter genutzt, weil es für mich komplett offensichtlich war, dass ungelockte fps im GPU-Limit mit Prerenderlimit 1 einfach nur Murks für den Input Lag in MP-Shootern ist.
Aber selbst die meisten SP-Shooter sind kaum bis gar nicht Skill-basiert hinsichtlich Aim. Ich finde es sehr komisch, wenn hier Leute ständig jedes ms an Lag breittreten, die so komplette Zeitlupenspiele wie Elderscrolls Online o.ä. spielen. Um nicht zu sagen lächerlich.
Btw. laufen wahrscheinlich trotz VRR zig Konsolenspiele immer noch ins Vsync-Limit mit >80ms Gesamtlatenz.
Thunder99
2025-01-08, 20:44:56
Dank des neuen Model sind also die Optical flow Einheiten nun wertlos? Natürlich nur wenn DLSS 4.x benutzt bzw genutzt wird?
Oder nur bei MFG?
crux2005
2025-01-08, 21:21:42
Kann dir keiner sagen außer Nvidia. Ich denke die wollen einfach die geheimei Zutat nicht preisgeben.
Thunder99
2025-01-08, 21:52:33
Wäre halt hart nach nur einer Generation die HW Einheiten nicht mehr zu nutzen :freak:
Als Love Nutzer kommt halt das was kommt. Und ob überhaupt man altes Zeugs mit dem DLSS 4 so einfach betreiben kann, keine Ahnung. Wäre aber schon geil :D.
Als Love Nutzer kommt halt das was kommt. Und ob überhaupt man altes Zeugs mit dem DLSS 4 so einfach betreiben kann, keine Ahnung. Wäre aber schon geil :D.
Es kommt ein DLSS-Override im Treiber, man wird für alte Spiele die nicht upgedated werden DLSS-SR auf 4 heben können, und mit Blackwell auch FG vervielfachen können, wenn das Spiel bereits DLSS-FG anbietet.
Einzig Reflex2 muss vom Spiel integriert werden.
00-Schneider
2025-01-09, 06:45:19
_rk5ZTqgqRY
crux2005
2025-01-09, 06:54:38
Soll ich meinen Nachbarn aufnehmen wie er was zu DLSS4 sagt und daraus ein YT Video machen? :|
00-Schneider
2025-01-09, 07:08:08
Soll ich meinen Nachbarn aufnehmen wie er was zu DLSS4 sagt und daraus ein YT Video machen? :|
Kommt drauf an. Wie viele Abonnenten hat er auf Youtube?
Lurtz
2025-01-09, 07:53:45
Das Merken ist das Eine, etwas als Dealbreaker zu empfinden das Andere. Ich hatte schon 2013 in Battlefield 4 den in-game Limiter genutzt, weil es für mich komplett offensichtlich war, dass ungelockte fps im GPU-Limit mit Prerenderlimit 1 einfach nur Murks für den Input Lag in MP-Shootern ist.
Aber selbst die meisten SP-Shooter sind kaum bis gar nicht Skill-basiert hinsichtlich Aim. Ich finde es sehr komisch, wenn hier Leute ständig jedes ms an Lag breittreten, die so komplette Zeitlupenspiele wie Elderscrolls Online o.ä. spielen. Um nicht zu sagen lächerlich.
Btw. laufen wahrscheinlich trotz VRR zig Konsolenspiele immer noch ins Vsync-Limit mit >80ms Gesamtlatenz.
Unfassbar dumm die Debatte. Am lustigsten ist es, wenn Leute, die 90 fps LCD völlig ausreichend finden, wiederum auf der FG-Latenz rumreiten, als gäbe es kein Morgen mehr :facepalm:
aufkrawall
2025-01-09, 07:54:23
Kommt drauf an. Wie viele Abonnenten hat er auf Youtube?
Sagt das etwas über die Qualifizierung oder die Wertigkeit der "Informationen" aus?
Find die "Empörung" über die "Fake Frames" auch lächerlich. Ist ja nicht so, dass Nvidia für den Fake-Balken-Star 5070 auf einmal 4080-Preise haben will. Im Gegenteil. Das Internet ist blöd...
dargo
2025-01-09, 07:56:26
Mit 12GB wäre der Shitstorm wieder vorprogrammiert. ;D Aber ich bin mir sicher, es wird genug Pappnasen geben die sich eine 5070 zulegen werden.
aufkrawall
2025-01-09, 08:01:20
Auf jeden Fall, wird zur UVP Tag 1 bestellt. Ich spiele eh nur noch UE5-Spiele (so wie du damals mit DX12, als der AMD-Treiber für 11 noch ein richtiger Haufen Sch... war).
Thunder99
2025-01-09, 09:39:56
Es kommt ein DLSS-Override im Treiber, man wird für alte Spiele die nicht upgedated werden DLSS-SR auf 4 heben können, und mit Blackwell auch FG vervielfachen können, wenn das Spiel bereits DLSS-FG anbietet.
Einzig Reflex2 muss vom Spiel integriert werden.
Amazing 😍
Ganz ehrlich, bin mittlerweile raus aus dem Alter alles manuell im Detail zu aktualisieren 😜. Gut, damals war es auch etwas anders wie z.B. die INI ändern von Gothic 3 um mehr Qualität zu haben (also nur Setting ändern).
Merci
Dennis50300
2025-01-09, 10:46:09
Also ich persönlich muss auch sagen, ich habe die Faxxen dicke mit Nvidia.
Ich hatte mir nach der GTX 1060 ne 2060er gekauft gehabt und vor längerer Zeit vom Gebrauchmarkt ne 2070 Super aufgerüstet gehabt.
Die Treiberschiete mit Linuxdistributionen will ich mir auch nicht antun.
@00-Schneider
Vermutlich hätte ich in SOTTR bei vielen Stellen doch besser Gamen können, in der Tat hat das Spiel ganz komisch mal nicht auf meine Eingaben reagiert, zuerst und dann aber doch obwohl ich vom Timing gefühlt genauso gedrückt gabe für manche Sprünge mit Lara.
Das Senken der Leistungsaufnahme mit DLSS ist allerdings sehr verlockend, wenn die Karte anstelle 120 bis 180 roundabout 60 bis 100 Watt aus der Buchse nuckelt.
Immerhin hab ich den fast schwierigsten Schwierigkeitgrad geschafft und den schwierigsten bislang einfach nur noch nicht weitergemacht gehabt.
Prinzipiell hab ich das Game genug durchgespielt, es ist nurnoch Archievement-Jagd :D
Da man allerdings bei weitem nicht nur Raytracing und DLSS gamed, sondern auch ältere Spiele sowie auch entsprechende Benches laufen lässt, merkt man das auch das die Karten eigentlich kaum Mehrleistung bringen in den folgenden Generationen, was richtig ätzend ist in anbetrachtdessen was die immer wieder mehr an Kohlen kosten sollen.
Zudem kommt, das die Mehrleistung wenn vorhanden immer nurnoch durch mehr Leistungsaufnahme kommt, als ob das eine Weiterentwicklung wäre das man dann demnächst 1KW-Netzteile als Standard haben muss demnächst.
Es fehlt der Wurf wie die GTX-1000/Pascal Serie, die Mehrleistung bringen aber dabei eine deutlich niedrigere Leistungsaufnahme haben.
Wenn bei mir demnächst irgendwas nicht mehr gehen sollte, gibt es den Blick 1. auf AMD wieder und 2. notfalls ohne RT sowie sowas wie DLSS das es läuft.
Und wenn es das garnicht gibt, gibt es von mir auch kein Geld dafür, Raytracing bzw Echtzeitraytracing ist der grösste Müll für Games, Games sollen in 1. Linie Spass machen und interessante Storys erzählen.
Die sehen auch ohne RT und somit DLSS sehr gut aus, realistischer ist völlig uninteressant, nicht so solchen Mehrkosten und mit Zwang mit den ganzen Nachteilen.
Das ist auch für die Wissenschaft nicht wirklich eine Entwicklung die Sinn machen würde, denn wenn die ganzen Ergebnisse für die Wissenschaft genauso Fehlerhaft sind, sind die nunmal weit entfernt von Fakten....
mfG
aufkrawall
2025-01-09, 11:14:10
@00-Schneider
Vermutlich hätte ich in SOTTR bei vielen Stellen doch besser Gamen können, in der Tat hat das Spiel ganz komisch mal nicht auf meine Eingaben reagiert, zuerst und dann aber doch obwohl ich vom Timing gefühlt genauso gedrückt gabe für manche Sprünge mit Lara.
Das Spiel hat überhaupt kein FG. X-D
crux2005
2025-01-09, 21:31:17
Mit 12GB wäre der Shitstorm wieder vorprogrammiert. ;D Aber ich bin mir sicher, es wird genug Pappnasen geben die sich eine 5070 zulegen werden.
Ich würde die 5070 FE für MSRP direkt kaufen. Leider kann ich keine FE bei uns im Osten bestellen und die Partnerkarten sind überteuert. ;(
basix
2025-01-09, 22:10:48
Heute kam mir noch ein Gedanke hinsichtlich MFG und Reflex 2 Frame Warp:
1) Ist Reflex 2 mit FG / MFG kompatibel?
2) Wird Frame Warp auch auf das generierte (FG / MFG) Bild appliziert? Oder nur auf die gerenderten Bilder?
Weil:
1) Sollte es grundsätzlich sein, wenn Frame Warp auf gerenderte Bilder appliziert. Und ich hätte gerne möglichst niedrige Latenz mit FG / MFG, was Reflex 2 Frame Warp bewerkstelligen könnte
2) Irgendwann wird man von Interpolation auf Extrapolation wechseln, davon bin ich überzeugt. Kann man Frame Warp auf die FG Bilder direkt anwenden, very nice!
Resultat:
-> Extrapolation + MFG + Frame Warp = Heiliger Gral der Frame Generation
Wieso Heiliger Gral?
- Extrapolation = Kein Latenzzuwachs durch FG
- MFG = Framerate Multiplikator bis 4x (ich denke 1x Render + 3x FG ist die sinnvolle Obergrenze oder wird technisch / qualitativ ein Limit sein)
- Frame Warp = Bilder werden mit niedrigst möglicher Latenz an den Spieler-Input angeglichen, auch die FG-Bilder. Damit wären FG-Bilder vom Spielgefühl her gleichwertig wie gerenderte Bilder, bei deutlich geringeren Performance-Kosten
- Knackpunkt: Bildqualität, Artefakte -> wird die Technologieentwicklung der nächsten Jahre hoffentlich lösen ;)
Heute kam mir noch ein Gedanke hinsichtlich MFG und Reflex 2 Frame Warp:
1) Ist Reflex 2 mit FG / MFG kompatibel?
Logisch.
2) Wird Frame Warp auch auf das generierte (FG / MFG) Bild appliziert? Oder nur auf die gerenderten Bilder?
Framewarp wird auf alle ausgegebenen Bilder angewendet, unabhängig davon ob "echte" oder generierte, und auch unabhängig davon ob FG überhaupt verwendet wird.
Sardaukar.nsn
2025-01-10, 03:45:18
Ich hätte da auch noch eine Frage zur Frame-Generation bzw auch MFG. Wird dadurch die Anzahl der echten Frames halbiert, oder nur bis zur Ziel-FPS aufgefüllt?
Beispiel: Ziel ist 4K/120.
GPU schafft aber nur 100 FPS.
Mit (M)FG: Sinken die echten FPS auf 60, 30 ect. dann wird bis 120 multipliziert?
Oder wird nur die Lücke von 100 bis 120 mit generierten Frames "aufgefüllt".
robbitop
2025-01-10, 07:01:45
Die fps die dein PC schafft (cpu und GPU) werden multipliziert (mit etwas overhead). 2x, 3x, 4x.
Aber das ist durch den Monitor limitiert. Wenn dein Monitor zB nur 120 Hz kann und du 4x Mit freundlichen Grüßen an hast und du entweder vsync oberhalb der range aktiviertest oder einen framelimiter auf 120 fps output (dann muss aber die input fps eingestellt werden - das wäre bei 120 Hz und mfg 4x dann 30 fps) stellst - dann sind es nur 30 fps input.
Deswegen ist mit Framegeneration ein high refresh rate monitor wichtig, damit man das auch ausfahren kann. Also das System möglichst viele input fps fahren kann um möglichst artefaktarm und latenzarm zu fahren. Aber selbst mit einem 240 Hz screen wären das gerade mal 60 fps input (was bis dato das sinnvolle Minimum darstellt).
Entsprechend wird man in den Situationen wo man mehr input fps hat den Faktor runterstellen müssen wenn man gute Latenz und BQ haben will. Also mit einem 120/144 Hz Monitor ist mehr als 2x wahrscheinlich wenig sinnvoll. Und 2x ist schon grenzwertig.
Was man aber auch machen kann ist ohne framelimit und ohne vsync oberhalb der maximalen Monitorfrequenz zu fahren. Dann hast du tearing und wahrscheinlich kein ganz perfektes framepacing aber keine Latenz und Artefaktnachteile. Theoretisch- probiert habe ich es nicht.
basix
2025-01-10, 08:53:28
Framewarp wird auf alle ausgegebenen Bilder angewendet, unabhängig davon ob "echte" oder generierte, und auch unabhängig davon ob FG überhaupt verwendet wird.
Interessant und cool, falls dem so ist. Aus dem offiziellen Material von Nvidia geht das aber nirgends so hervor. Hast du einen Link?
Sardaukar.nsn
2025-01-10, 09:49:30
@robbitop: Danke für die Antwort. Wie stark MFG arbeitet müsste man dann aber auch im Stromverbrauch der Grafikkarte und der CPU sehen können. Wenn diese jetzt nur 60 FPS "klassisch" statt 120 berechnen müssen.
DrFreaK666
2025-01-10, 09:51:34
Mich wundert dass Nvidia kein AFMF2-Pendant angekündigt hat.
Sardaukar.nsn
2025-01-10, 09:57:45
@Robitop Im CP Forum wurde das DLSS 4 so erklärt. Das fände ich sehr spannend wenn es so kommt.
DLSS4 als Ökosystem MUSS nicht wie bisher auf "feste" Framefaktoren bei Zuschalten von FG zurückgreifen...
https://i.imgur.com/gYWpLUg.png
Das Verfahren kann, wenn gewünscht, adaptiv auf eine Zielausgabe mit gleichmäßigem Framepacing hinwirken.
Dafür gibt es den Block, der im Bild oben "Blackwell Flip Metering" genannt wird.
Der kann dafür sorgen, dass alle maximal generierbaren berechneten Keyframes erhalten bleiben und nur die, die Frame- Pacing passend bis zur Ziel- FPS- Rate fehlen, per FG hinzufügt.
Bis jetzt war man tatsächlich an feste Faktoren gebunden. Sprich Du hast 60 FPS und mit Aktivieren von Framegen geht man auf den Faktor 1:2 was konventionelle Berechnung und AI Berechnung angeht.
Was soviel bedeutet wie dass die konventionellen Frames beim "festen" Verfahren die 30 FPS bei 60FPS fixed Limit nicht überschreiten können.
Du "verschenkst" mit der neuen Technik also keine konventionell berechneten Frames an AI generierte, wenn nicht explizit gewünscht bzw. von der Spielesoftware so vorgesehen, womit die Technik auch für Szenarien niedrigerer Framezahlen höheren Nutzen bringt.
Ich hätte da auch noch eine Frage zur Frame-Generation bzw auch MFG. Wird dadurch die Anzahl der echten Frames halbiert, oder nur bis zur Ziel-FPS aufgefüllt?
Wenn mit einem Framelimiter kombiniert können die Anzahl echter Frames sinken. Ohne Framelimiter bleiben sie weitestgehend gleich.
Beispiel: Ziel ist 4K/120.
GPU schafft aber nur 100 FPS.
Wenn du mit Framelimiter auf 120FPS limitierst sinken die echten auf 60FPS.
Ohne Framelimitter würdest du beispielsweise 180FPS erreichen (da es nur selten eine 100%ige Skalierung gibt, und hättest damit echte 90FPS.
Oder wird nur die Lücke von 100 bis 120 mit generierten Frames "aufgefüllt".
Das wirst du niemals vernünftig schaffen.
Interessant und cool, falls dem so ist. Aus dem offiziellen Material von Nvidia geht das aber nirgends so hervor. Hast du einen Link?
Muss es auch nicht, das ist die einzige sinnvolle Anwendungsmöglichkeit.
Du kannst nicht Framewarp nur auf einen Teil der Frames anwenden, das würde Microstuttering verursachen.
Das Ganze ist ja auch nicht wirklich was neues und wird schon seit Jahren in VR-Headsets verwendet und auch dort mittlerweile auf alle Frames.
robbitop
2025-01-10, 10:18:47
@robbitop: Danke für die Antwort. Wie stark MFG arbeitet müsste man dann aber auch im Stromverbrauch der Grafikkarte und der CPU sehen können. Wenn diese jetzt nur 60 FPS "klassisch" statt 120 berechnen müssen.
Ja die Last geht entsprechend Runter. Damit kann man auch Strom sparen. (natürlich kostet das compute etwas zusätzlich aber sicherlich weit weniger als das native Berechnen)
Aber wie gesagt sollte man das mit Bedacht anwenden. Ein 4x bei 120 Hz wird sich unschön anfühlen und spielen. 60 wird als Minimum empfohlen. Viele hier im Forum haben (je nach Anspruch) eher die Erfahrung gesammelt dass 70-80 input fps dann zufriedenstellend sind.
Wenn man sich die Videos von ancient gameplay anschaut (der das allerdings idR mit FSR3.1 testet und nicht mit DLSS FG), kommt man auch zu dem Schluss.
Mich wundert dass Nvidia kein AFMF2-Pendant angekündigt hat.
Ich denke nicht, dass wir das bald sehen werden. Ich kann mir vorstellen, dass die Verfahren ohne Motionvectors und ohne Reflex nicht den Vorstellungen von Nvidia entsprechen was Artefakte und Latenz angeht. Nvidia ist oftmals ja auf ziemlich konsistente und gute Usererfahrung aus. Die wollen da keine Reputation opfern, falls jemand der die Limitierungen der Funktion nicht versteht, keine gute Erfahrung hat.
Dazu kommt, dass DLSS FG schon recht weit verbreitet ist und die aktuellen (und next gen) GPUs für die Spiele die davor kamen wahrscheinlich als "schnell genug" erachtet werden.
Das ist Spekulation - aber ich könnte mir vorstellen, dass man da so in etwa "tickt".
robbitop
2025-01-10, 10:25:14
@Robitop Im CP Forum wurde das DLSS 4 so erklärt. Das fände ich sehr spannend wenn es so kommt.
Das habe ich noch nirgends gehört oder gelesen. (was nichts heißen muss - ich kann da auch was verpasst haben). Nach meinem Verständnis war das Flip Metering um die Frameausgabe generell (und besonders mit höheren Faktoren) smooth zu halten.
Ich könnte mir vorstellen, wenn der Faktor dynamisch hin und herschwankt, das schon was mit dem Eindruck machen kann.
Wenn das wirklich so wäre und gut funktionieren würde, wäre das natürlich toll.
Aber auch dann muss es parametrierbar sein, damit es sinnvoll ist. ZB höhere Faktoren zum Stromsparen präferieren oder aber Input FPS maximieren und dabei so nah wie möglich an das refreshrate limit des Monitors zu kommen (also Inputlag und Artefakte minimieren).
Gab es dazu irgendwelche Quellen, die das bestätigen im CB Forum?
aufkrawall
2025-01-10, 10:28:07
Die Latenz ist bei AFMF2 afair nicht mehr schlechter als bei FSR FG. Die Qualität ist aber immer noch Müll mit 144Hz-Monitor und es geht auch noch immer kein Vsync. AMD hätte die Ressourcen auch besser in etwa noch Verbesserungen fürs non-ML-Upsampling investiert. Furchtbar mit anzusehen, wie die ihre spärlichen Entwickler-Ressourcen sinnlos verballern.
robbitop
2025-01-10, 10:48:59
Die Latenz ist bei AFMF2 afair nicht mehr schlechter als bei FSR FG.
Absolut. Ich meinte das aus Nvidias potenzieller Sicht. Und die haben mit DLSS 3 FG immer zwingend Reflex an Board (auch wenn es in manchen Spielen separat getoggelt werden kann). :)
Die Qualität ist aber immer noch Müll mit 144Hz-Monitor und es geht auch noch immer kein Vsync. AMD hätte die Ressourcen auch besser in etwa noch Verbesserungen fürs non-ML-Upsampling investiert. Furchtbar mit anzusehen, wie die ihre spärlichen Entwickler-Ressourcen sinnlos verballern.
IMO: AFMF2 ist ein potenziell nützliches Werkzeug im Werkzeuggürtel. Gibt hin und wieder Spiele und Situationen wo es hilfreich sein kann. Ich finde das gut.
Aber du hast IMO Recht. Wenn man sich anschaut, wer den meisten Umsatz macht, sind das nicht Nerds die sowas ertesten und dann gezielt einsetzen. Entsprechend dann eben die von mir spekulierte potentielle Ansicht von NV das nicht zu machen. Ja wäre dann ggf. sinnvoller gewesen mehr Prio in FSR4 zu schieben. Absolut.
Mich wundert dass Nvidia kein AFMF2-Pendant angekündigt hat.
Nvidia hat schon lange gezeigt, dass sie ihren Kunden eine "it just works" Lösung und keine Frickellösungen anbieten wollen.
Sardaukar.nsn
2025-01-10, 12:24:49
Das habe ich noch nirgends gehört oder gelesen. (was nichts heißen muss - ich kann da auch was verpasst haben). Nach meinem Verständnis war das Flip Metering um die Frameausgabe generell (und besonders mit höheren Faktoren) smooth zu halten.
...
Gab es dazu irgendwelche Quellen, die das bestätigen im CB Forum?
Bezog sich wohl auf die Aussagen ab 1:40min hier im Video über das spezielle "Blackwell Flip Metering" Da muss ich auch noch mal genau zuhören.
qQn3bsPNTyI
O-Ton: "...with the Blackwell architecture the display engine was improved to leverage flip metetring, when generating multiple frames, ensuring that the GPU delivers consistant and optimal frame pacing"
Klingt für mich nach einer möglichen Alternative für VRR bzw. G-Sync, nur das sich dann nicht der Monitor an die schwankenden FPS anpasst sondern die KI bzw. Frame Generation nur die fehlenden Frames zur Ziel-FPS auffüllt. Bildlich die Täler im FPS Verlaufsgraph füllt. Inputlag sollte dann identisch zu nativ sein.
basix
2025-01-10, 12:44:14
Muss es auch nicht, das ist die einzige sinnvolle Anwendungsmöglichkeit.
Du kannst nicht Framewarp nur auf einen Teil der Frames anwenden, das würde Microstuttering verursachen.
Das Ganze ist ja auch nicht wirklich was neues und wird schon seit Jahren in VR-Headsets verwendet und auch dort mittlerweile auf alle Frames.
Du verstehst offensichtlich nicht ganz, was ich meine ;)
Variante 1:
- Frame Warp wird auf alle Frames angewendet (inkl. FG)
Variante 2:
- Frame Warp wird auf die gerenderten Frames angewendet
- Aufgrund FG Interpolation musst du eh auf das zweite Frame warten, wodurch man nur auf die gerenderten Frames oder auch auf FG Frames den Frame Warp anwenden könnte
Ablaufvarianten (1. = schlechteste Variante, 3. = beste Variante // 1. = einfachste Variante, 3. = schwierigste Variante):
Render Frame 1, Frame Warp Frame 1, Render Frame 2, Frame Warp Frame 2, FG auf Basis der Warped Frames 1 & 2, Frames anzeigen --> Nur geringe FG-Latency Reduktion, aber besser als heute (Unterschied zwischen Reflex 1 und Reflex 2)
Render Frame 1, Render Frame 2, Frame Warp Frame 1, Frame Warp Frame 2, FG auf Basis der Warped Frames 1 & 2, Frames anzeigen, erneuter/zweiter Frame Warp auf Frame 2 bevor dessen Anzeige --> Guter Anteil an FG-Latency wird reduziert (+1 Frame Wartezeit aufgrund FG Interpolation fällt weg)
Render Frame 1, Render Frame 2, Frame Generation, Frame Warp Frame 1, Frame Warp auf FG Frames, Frame Warp Frame 2, Anzeige der Frames jeweils direkt nach deren Frame Warp --> Faktisch 100% FG-Latency Eliminierung, FG Frames fühlen sich wie gerenderte Frames mit Reflex 2 und Frame Warp an --> Best Case
Sardaukar.nsn
2025-01-10, 13:01:57
So verstehe ich z.B. Daniel Owen der im extra Video noch mal auf das Thema eingeht.
TQotCxIA7Yk
Im Beispiel senkt DLSS2 die Latenz um die Hälfte, da doppelte native Frames. Mit DLSS3 und 4 inkl. Frame-Generation kommt aber keine bzw. kaum neue Latenz hinzu.
basix
2025-01-10, 13:12:00
Der DLSS2 vs. DLSS3/4 Vergleich stinkt ;) DLSS3/4 verwenden Reflex und DLSS2 nicht.
Dass MFG vs. FG keine grosse Latenzsteigerung zeigt war so zu erwarten. Die zusätzliche FG Latenz kommt hauptsächlich vom Warten auf das +1 Frame für die Interpolation (und noch etwas Overhead für das Berechnen des FG Frames sowie Frame Pacing). Ob ich dann 1...N Frames interpoliere spielt dann keine grosse Rolle mehr. Das ist dann nur noch eine Frage der Rechenleistung, wie viele Frames innerhalb dieser Zeit generiert werden können.
Frame Warp hätte hier nun die Möglichkeit, die FG Latenz wieder zu kompensieren. Und das würde inkl. FG viel mehr bringen als bei normal gerenderten Frames, wenn man es wie oben in Ablaufmöglichkeit #3 optimal umsetzen würde.
Relex
2025-01-10, 13:20:02
Ja, aber das war ja auch ein großes Problem mit Ada FG bisher. Das warten auf den nächsten Frame war die eine Sache. Aber die andere war eben, dass besonders in 4K die Skalierung nicht gut war und FG die performance zu stark gedrückt hat, was die Latenzen weiter steigert.
Dass MFG das dritte und vierte Frame ohne große Latenzsteigerung und damit ohne nennenswerte Frametime kosten generieren kann, zeigt, dass die skalierung jetzt sehr gut ist.
Ich vermute mal das liegt am neuen AI Model + der deutlich gesteigerten Tensor Performance.
Ich bin mal gespannt, wie sich die DLSS4 geschichte auf die Anforderungen von künftigen pathtraced Spielen auswirken wird. Da mit 4x FG die Grundframerate genauso hoch sein muss wie mit 2x FG, da sonst das Spielgefühl stark leidet, dürften sich die Anforderungen gar nicht so stark ändern, da DLSS4 ja den verfügbaren Headroom nicht erhöht, sondern einfach nur mehr Frames oben draufpackt. Kommt aber natürlich auch drauf an, wie stark Blackwell bei der RT/PT performance (ohne DLSS) zulegen kann. (nicht nur 5090, sondern vor allem auch 5070 und 5070ti)
basix
2025-01-10, 13:24:28
Ja, die Skalierung scheint deutlich verbessert worden zu sein. Das ist mal gut. Deswegen ist MFG überhaupt erst möglich.
Aber die Latenzsteigerung (bei iso Verhältnissen hinsichtlich Reflex) hat man trotzdem noch. Frame Warp könnte das komplett kompensieren, deswegen finde ich es als sehr interessant und ansprechend.
Ausserdem wäre bei einem sehr guten Frame Warp FG mit Extrapolation gar nicht mehr nötig. Man könnte wie jetzt bei Interpolation bleiben, was deutlich mehr Potential hinsichtlich Qualität und Anzahl generierter Frames hat. Aber umso weiter in die Vergangenheit man den Frame Warp macht, desto schwieriger wird es. Aber vielleicht kann man das verbessern, da man die Informationen von neuen Frames etc. verwenden kann.
Troyan
2025-01-10, 13:51:00
So verstehe ich z.B. Daniel Owen der im extra Video noch mal auf das Thema eingeht.
https://youtu.be/TQotCxIA7Yk
Im Beispiel senkt DLSS2 die Latenz um die Hälfte, da doppelte native Frames. Mit DLSS3 und 4 inkl. Frame-Generation kommt aber keine bzw. kaum neue Latenz hinzu.
Die Latenz hängt in direkter Abhängigkeit zur GPU-Belastung. Je höher die Belastung, umso höher die Latenz. Alleine inn 1080p zu spielen, reduziert massv die Eingabeverzögerung gegenüber nativ 4K.
Mit FG kommt dann immer Reflex hinzu. Damit "holt" man sich die zusätzliche Verzögerung von maximal einem Frame wieder zurück. Am Ende bekommt man deutlich mehr Frames bei einer Eingabeverzögerung, die deutlich unter 4K mit Reflex liegt.
In Cyberpunk mit Pathtracing ist die Latenz mit DLSS Performance und Reflex im nVidia Overlay bei ca. 31ms (~75FPS) und mit FG bei 41ms. Nativ 4K mit Reflex liegt bei 23 FPS und 78ms. 30ms schnellere Rendertime, 47ms geringere Latenz.
aufkrawall
2025-01-10, 14:00:12
Die Latenz hängt in direkter Abhängigkeit zur GPU-Belastung. Je höher die Belastung, umso höher die Latenz. Alleine inn 1080p zu spielen, reduziert massv die Eingabeverzögerung gegenüber nativ 4K.
Nicht im GPU-Limit. Die Latenz sinkt gegenüber Reflex erst signifikant weiter, wenn die GPU-Auslastung deutlich unter 95% geht.
fondness
2025-01-10, 15:27:25
Ich denke nicht, dass wir das bald sehen werden. Ich kann mir vorstellen, dass die Verfahren ohne Motionvectors und ohne Reflex nicht den Vorstellungen von Nvidia entsprechen was Artefakte und Latenz angeht. Nvidia ist oftmals ja auf ziemlich konsistente und gute Usererfahrung aus. Die wollen da keine Reputation opfern, falls jemand der die Limitierungen der Funktion nicht versteht, keine gute Erfahrung hat.
Dazu kommt, dass DLSS FG schon recht weit verbreitet ist und die aktuellen (und next gen) GPUs für die Spiele die davor kamen wahrscheinlich als "schnell genug" erachtet werden.
Das ist Spekulation - aber ich könnte mir vorstellen, dass man da so in etwa "tickt".
Das ist IMO viel zu kurz gegriffen. Nvidia will die absolute Kontrolle über Spiele übernehmen, das ist offensichtlich. Sie wollen immer mehr von ihrem eigenen Code direkt in Spiele sehen. Und das kann man als jemand der kein Monopol will durchaus höchst kritisch sehen. Ich als User bin jedenfalls froh, dass ich bei AMD auch FSR1 oder AFMF2 direkt über den Treiber applizieren kann, und dabei nicht auf Spielesupport angewiesen bin. Das hat mir schon öfter was gebracht. Und gibt offensichtlich auch bei NV-Umsteigern die das vermissen: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=620048
aufkrawall
2025-01-10, 15:32:43
Ist gibt immer jemanden, der irgendetwas vermisst. Jede Entwickler-Arbeitsstunde ist knapp, selbst wenn man nicht wie AMD noch zusätzlich Leute bei Gaming trotz ohnehin schon knapper Personaldecke rausschmeißt. Deshalb erscheinen die neuen DLSS-Modelle zum Start von Blackwell auch noch als Beta, und bei AMD FSR 4 "irgendwann später". Was im Grunde schon wieder alles sagt, wer Prioritäten besser setzt.
fondness
2025-01-10, 15:36:30
Was im Grunde schon wieder alles sagt, wer Prioritäten besser setzt.
Das ist doch ein lächerlicher Vergleich. Nvidia hat nur für Gaming alleine mehr Ressourcen als der gesamte AMD-Konzern. Für mich ist das jedenfalls gut investiert. Das beste Feature nützt mir nichts, wenn ich es in Spiel x wegen fehlender Kompatibilität nicht verwenden kann.
aufkrawall
2025-01-10, 15:40:27
Hast du ja vermutlich bald genauso mit FSR 4. Kann btw. auch AMDs AFMF nicht mit Nvidia nutzen, Schweinerei.
fondness
2025-01-10, 15:42:42
Hast du ja vermutlich bald genauso mit FSR 4.
Das habe ich auch schon mit FSR2 und 3, dass es ohne Spielesupport nicht geht. Aber ich habe trotzdem noch die Alternative.
Kann btw. auch AMDs AFMF nicht mit Nvidia nutzen, Schweinerei.
Warum sollte mich das jucken?
aufkrawall
2025-01-10, 15:44:38
Warum sollte es 90% der Spieler jucken, was auf Radeon nicht geht?
Wir sind eh schon lange dort, dass Nvidia schalten und walten können wie sie wollen. Immer noch besser als mit FSR 3.1 gestrandet zu sein.
fondness
2025-01-10, 15:50:39
Warum sollte es 90% der Spieler jucken, was auf Radeon nicht geht?
Wir sind eh schon lange dort, dass Nvidia schalten und walten können wie sie wollen. Immer noch besser als mit FSR 3.1 gestrandet zu sein.
Weil es immer weiter dort hinführt, was man jetzt schon erahnen kann: Immer weniger Auswahl für immer weniger Mehrleistung bei für immer höhere Preise. Eben immer weniger Konkurrenz.
aufkrawall
2025-01-10, 15:54:08
Hä? Die 5080 ist günstiger als die 4080, und die 4080 bekommt trotzdem noch zig Verbesserungen zurück portiert.
Wesentlich besser als der 2080 Ti-Launch, wo man RT bis DLSS 2 im Grunde vergessen konnte, und mit den kleineren Karten sowieso.
fondness
2025-01-10, 16:05:30
Das war auch nicht der Punkt.
aufkrawall
2025-01-10, 16:12:14
Der Punkt ist, dass du auf einer 5080 moderne Spiele mit modernen/Nvidia-Features besser spielen kannst als damals auf einer 2080 Ti. 2018 gabs nicht mal Reflex.
Beschwerden, es würde immer schlechter, sind also kontrafaktisch. Es soll tatsächlich Menschen geben, für die das zählt, was netto an Spielerfahrung bei rumkommt. Und Fakt ist auch, dass der Nvidia-Software-Krempel dabei (mittlerweile) massiv hilft. Natürlich wär Freibier für alle besser, aber dafür ist die Kombination aus Nvidias Firmen-DNA und der schwachen Konkurrenz nunmal die denkbar schlechteste Konstellation. Bringt nichts mehr, sich dagegen zu sträuben.
(Ja, 8GB-Karten sind Müll. Dann kauft man halt Radeon. Es ist nur verdammte Unterhaltungselektronik...)
dargo
2025-01-10, 17:38:52
Hä? Die 5080 ist günstiger als die 4080, und die 4080 bekommt trotzdem noch zig Verbesserungen zurück portiert.
Naja... aber auch nur weil die 4080 zu teuer damals positioniert wurde, nicht vergessen +~72% vs. 3080. Der Vergleich mit einer 4080 heute ist auch imo recht sinnfrei wenn die 4080S günstiger ist. Egal ob es um den Preis oder Performance geht.
Ravenhearth
2025-01-10, 17:52:32
Sehe ich auch so. Die 4080 war maßlos überteuert und nur weil die 5080 jetzt günstiger ist, ist der Preis noch lange nicht gut. Nvidia lässt sich den Feature-Vorsprung fürstlich bezahlen. In einem funktionierenden Markt würde die 5080 vielleicht $799 kosten und die Features gäbs oben drauf.
aufkrawall
2025-01-10, 18:33:00
Der Vergleich mit einer 4080 heute ist auch imo recht sinnfrei wenn die 4080S günstiger ist. Egal ob es um den Preis oder Performance geht.
Die 4080S ist noch bei 1,1k€. Wenn es plötzlich Angebote für 200€ unter 5080 gibt, hat man ggf. schon Glück. Und wären trotzdem der schlechtere Deal, falls das FG auf BW wirklich deutlich besser ist.
Die ebenfalls überteuerte 2080 Ti zeigt es doch gut auf: Hat deutlich mehr Raster gebracht, aber RT real oft nicht wirklich gut nutzbar usw.
War dann unterm Strich das für seine Zeit vermutlich deutlich schlechtere Produkt als die 5080 jetzt. Könnte also schlimmer sein.
(Auch wenn die 2080 Ti nachträglich durch DLSS dann doch noch gut gealtert ist.)
Weil es immer weiter dort hinführt, was man jetzt schon erahnen kann: Immer weniger Auswahl für immer weniger Mehrleistung bei für immer höhere Preise. Eben immer weniger Konkurrenz.
AMD bietet doch jetzt noch weniger Auswahl an, keine Highend GPUs mehr...
AMD bietet immer weniger Software features, FSR4 wird auch nur auf Radeons laufen, wo hast du dann die Wahl? die ist genau gleich, nämlich 0.
und deine Argumente mit FSR1 über den treiber... es gibt auch andere upsampling möglichkeiten die auch abseits der Vendor funktionieren.
Oliver_M.D
2025-01-11, 00:06:46
und deine Argumente mit FSR1 über den treiber... es gibt auch andere upsampling möglichkeiten die auch abseits der Vendor funktionieren.Gleiches gilt übrigens fürs treiber FMF. https://steamcommunity.com/games/993090/announcements/detail/527583567913419236
Du verstehst offensichtlich nicht ganz, was ich meine ;)
Variante 1:
- Frame Warp wird auf alle Frames angewendet (inkl. FG)
Die einzig sinnvolle.
Variante 2:
- Frame Warp wird auf die gerenderten Frames angewendet
- Aufgrund FG Interpolation musst du eh auf das zweite Frame warten, wodurch man nur auf die gerenderten Frames oder auch auf FG Frames den Frame Warp anwenden könnte
Macht überhaupt keinen Sinn jedes mal wenn ein Frame mit Framewarp auf eines ohne Framewarp bzw. auch umkehrt folgt hättest du einen wahrnehmbaren Ruckler.
Ablaufvarianten (1. = schlechteste Variante, 3. = beste Variante // 1. = einfachste Variante, 3. = schwierigste Variante):
Render Frame 1, Frame Warp Frame 1, Render Frame 2, Frame Warp Frame 2, FG auf Basis der Warped Frames 1 & 2, Frames anzeigen --> Nur geringe FG-Latency Reduktion, aber besser als heute (Unterschied zwischen Reflex 1 und Reflex 2)
Render Frame 1, Render Frame 2, Frame Warp Frame 1, Frame Warp Frame 2, FG auf Basis der Warped Frames 1 & 2, Frames anzeigen, erneuter/zweiter Frame Warp auf Frame 2 bevor dessen Anzeige --> Guter Anteil an FG-Latency wird reduziert (+1 Frame Wartezeit aufgrund FG Interpolation fällt weg)
Render Frame 1, Render Frame 2, Frame Generation, Frame Warp Frame 1, Frame Warp auf FG Frames, Frame Warp Frame 2, Anzeige der Frames jeweils direkt nach deren Frame Warp --> Faktisch 100% FG-Latency Eliminierung, FG Frames fühlen sich wie gerenderte Frames mit Reflex 2 und Frame Warp an --> Best Case
Du scheinst den Sinn von Framewarp (oder Timewarp/Spacewarp, wie auch immer die verschiedenen Marketingbezeichnungen dafür heißen) nicht zu verstehen. Der einzige Zweck ist die Latenz zu verringern. Das passiert nicht im Zuge des Renderings, sondern ganz nah an der Bildausgabe. Irgendwo im Bereich <1ms vor der Bildausgabe wird das normale Rendering angehalten, ein Snapshot der aktuellen Inputs aufgezeichnet und mit diesen das Warping auf das als nächstes auszugebene Frame angewendet. Das alles geht extrem schnell und muss es auch, einerseits um zu die Userinputs möglichst nahe an der Bildausgabe zu haben, und andererseits um den Performanceverlust zu minimieren, da das Warping natürlich auch etwas Renderzeit kostet.
00-Schneider
2025-01-11, 07:51:31
https://i.redd.it/jim7z7iultbe1.png
fondness
2025-01-11, 09:42:21
AMD bietet doch jetzt noch weniger Auswahl an, keine Highend GPUs mehr...
AMD bietet immer weniger Software features, FSR4 wird auch nur auf Radeons laufen, wo hast du dann die Wahl? die ist genau gleich, nämlich 0.
und deine Argumente mit FSR1 über den treiber... es gibt auch andere upsampling möglichkeiten die auch abseits der Vendor funktionieren.
Du bestätigst mein Argument. Zuerst bricht die Konkurrenz weg und dann... Dutzende Male gesehen, dazu gibt es ganze Bücher die sich mit Monopolen beschäftigen. Aber das ist hier OT und damit mein letzter Beitrag.
basix
2025-01-11, 10:19:59
Die einzig sinnvolle.
Jein. Das ist die mit Abstand beste aber ob es technisch mit befriedigender Qualität umsetzbar ist, ist eine ganz andere Frage. Wenn ich bei FG mit Interpolation auf das N+1 Frame warten muss, muss ich eine ganze Frametime mit Frame Warp "extrapolieren". Das ist ziemlich viel. Dann kann ich gleich FG mit Extrapolation anstatt Interpolation machen. Und wenn ich Extrapolation mache, dann stimme ich dir zu, dann kann man den Warp direkt auf alle Bilder applizieren, wenn sie am Bildschirm dargestellt werden sollen.
Frame Warp wie es Nvidia gezeigt hat, korrigiert nur noch den letzten Rest vor der Frameausgabe. Kommt hier noch eine Frametime oben drauf, muss man viel mehr korrigieren und momentan bezweifle ich stark, dass Nvidia das so umgesetzt hat.
Macht überhaupt keinen Sinn jedes mal wenn ein Frame mit Framewarp auf eines ohne Framewarp bzw. auch umkehrt folgt hättest du einen wahrnehmbaren Ruckler.
Nein. Wenn ich den Frame Warp konsistent gleich nach Abschluss des gerenderten Frames mache (Ausführungsvariante 1), dann machst du den Framewarp "äquidistant". Für dich als Nutzer würde es sich wie normales Rendering mit FG anfühlen, allerdings etwas reduzierte Latenz wegen dem Framewarp auf den gerenderten Frames. Ja, der Warp wird nicht unmittelbar vor der Bildschirmanzeige gemacht aber immer noch direkt nach Abschluss des Renderings (gleiches Verfahren wie ohne FG, Bildanzeige wird um +1 Frametime verzögert wegen FG). Nur muss ich wegen FG noch auf Frame N+1 warten und kann es erst dann darstellen. Also vom Verfahren her alles wie gehabt und logisch. Frame Warp gleich nach Abschluss des Renderings, FG wartet auf Frame N+1 und erst dann wird das Bild dargestellt.
Du scheinst den Sinn von Framewarp (oder Timewarp/Spacewarp, wie auch immer die verschiedenen Marketingbezeichnungen dafür heißen) nicht zu verstehen. Der einzige Zweck ist die Latenz zu verringern. Das passiert nicht im Zuge des Renderings, sondern ganz nah an der Bildausgabe. Irgendwo im Bereich <1ms vor der Bildausgabe wird das normale Rendering angehalten, ein Snapshot der aktuellen Inputs aufgezeichnet und mit diesen das Warping auf das als nächstes auszugebene Frame angewendet. Das alles geht extrem schnell und muss es auch, einerseits um zu die Userinputs möglichst nahe an der Bildausgabe zu haben, und andererseits um den Performanceverlust zu minimieren, da das Warping natürlich auch etwas Renderzeit kostet.
Ich weiss schon, was das Ziel von Frame Warp ist ;) Nur bezweifle ich, dass Nvidia eine ganze Frame Time oder mehr mittels Frame Warp "extrapoliert". Siehe das, was ich oben geschrieben habe. Weil wenn man so viel warpen/extrapolieren könnte, dann kann man gleich Frame Extrapolation anwenden und Interpolation in die Tonne hauen. Weisst du wieso? Du würdest nämlich das gerendere Frame N exakt auf Frame N+1 warpen/extrapolieren, welches du ja ebenfalls gerendert hast und bereits zur Verfügung steht, da dessen Rendering abgschlossen ist. Macht das Sinn für dich? Für mich definitiv nicht.
Hey, wenn Nvidia das hinbringt und man wirklich so viel warpt/extrapoliert und die Qualität stimmt, nehme ich das mit Handkuss. Weil dann wird die FG Latenz komplett eliminiert. Da wir bereits Latenzvergleiche von DLSS3 / 4 mit FG und MFG haben, deutet momentan allerdings nichts darauf hin und macht bei FG Interpolation wie beschrieben einfach keinen Sinn.
Deswegen gibt es für mich nur zwei schlüssige Varianten:
- Frame Warp ist nicht mit FG kombinierbar
- Frame Warp wird unmittelbar nach Abschluss des Renderings aufs Bild appliziert. Ohne FG werden die Bilder dann gleich am Schirm ausgegeben. Mit FG wird wie bisher auf Frame N+1 gewartet und dann FG ausgeführt. Die FG Bilder beinhalten dann bereits die Änderungen des Warpings. Ist logisch von der Ausführung her und verbessert auch die Latenz von FG.
Best Case, den ich gerne hätte aber momentan nicht wahrscheinlich ist:
- Frame Warp wird auf jedes Bild direkt vor der Bildausgabe angewendet, egal ob FG oder gerendert. Das macht für mich aber nur mit FG Frame Extrapolation Sinn
Nein. Wenn ich den Frame Warp konsistent gleich nach Abschluss des gerenderten Frames mache (Ausführungsvariante 1), dann machst du den Framewarp "äquidistant".
Könnte man, wäre aber ziemlich sinnlos, da man kaum eine Reduktion der Latenz erzielt.
Ich weiss schon, was das Ziel von Frame Warp ist ;) Nur bezweifle ich, dass Nvidia eine ganze Frame Time oder mehr mittels Frame Warp "extrapoliert". Siehe das, was ich oben geschrieben habe. Weil wenn man so viel warpen/extrapolieren könnte, dann kann man gleich Frame Extrapolation anwenden und Interpolation in die Tonne hauen.
Hätte aber aber höchstwahrscheinlich mit geringerer Qualität.
Was man vor allem mit Framewarp nicht kann ist Animationen im Bild vorhersagen. Man kann zwar die Perspektive auf das gerenderte Bild korrigieren, nicht aber Bewegungen die im Bild selbst passieren.
Weisst du wieso? Du würdest nämlich das gerendere Frame N exakt auf Frame N+1 warpen/extrapolieren, welches du ja ebenfalls gerendert hast und bereits zur Verfügung steht, da dessen Rendering abgschlossen ist. Macht das Sinn für dich? Für mich definitiv nicht.
Weil dann wird die FG Latenz komplett eliminiert.
Ich gehe davon aus, dass sich FG mit Framewarp besser anfühlen wird, als keine FG ohne Framewarp.
Wobei dieser Vergleich wiederum rein akademisch ist, da Framewarp ja ein Teil von Reflex ist und nicht von FG, und man damit immer Framewarp auch ohne FG in unterstützten spielen verwenden wird können.
Da wir bereits Latenzvergleiche von DLSS3 / 4 mit FG und MFG haben, deutet momentan allerdings nichts darauf hin und macht bei FG Interpolation wie beschrieben einfach keinen Sinn.
Die üblicherweise eingesetzten Latenzvergleiche können Framewarp nicht erfassen. Normalerweise wird bei einem Shooter der Abzug betätigt und die Verzögerung zum muzzle-flash ermittelt, oder ähnliches. Diese Latenz wird durch Framewarp nicht geringer. Nur die Latenz der eigenen Bewegungen in einem First Person game werden geringer, diese werden aber nicht üblicherweise vermessen.
Dennis50300
2025-01-15, 14:07:59
Das Spiel hat überhaupt kein FG. X-D
Ich wollt ja auch darauf hinaus das die 2070 Super dann doch auch mal in die Knie geht, nur weil der Bench und im Alltag meistens das gut aussieht mit der Last und auch dem Verbrauch, heisst es ja nunmal auch noch nicht so ganz das es nicht so Situationen gibt, selbst mit DLSS das es immer rund läuft.
Und ohne DLSS könnte es ja vielleicht auch doch im Bench auffallen
Afaik unterstützt eine 2070 Super auch kein FG ^^
mfG
Sardaukar.nsn
2025-01-16, 07:48:29
Aussage zum DLSS Training. Schon enorm was da an Rechenleistung bisher rein geflossen ist. https://www.pcgamer.com/hardware/graphics-cards/turns-out-theres-a-big-supercomputer-at-nvidia-running-24-7-365-days-a-year-improving-dlss-and-its-been-doing-that-for-six-years/
"How is it that we've been able to make progress with DLSS over the years?" He asks. "You know, it's been a six year, continuous learning process for us.
"Actually, we have a big supercomputer at Nvidia, with many 1000s of our latest and greatest GPUs, that is running 24/7, 365 days a year improving DLSS. And it's been doing that for six years."
Aussage zum DLSS Training. Schon enorm was da an Rechenleistung bisher rein geflossen ist. https://www.pcgamer.com/hardware/graphics-cards/turns-out-theres-a-big-supercomputer-at-nvidia-running-24-7-365-days-a-year-improving-dlss-and-its-been-doing-that-for-six-years/
Wäre jetzt noch interessant die eingesparte Rechenleistung beim Rendering gegenzurechnen.
Relex
2025-01-16, 13:28:37
Ich fürchte, die Energiebilanz wird nicht sonderlich gut aussehen, wenn die den Algo wirklich 6 Jahre lang trainiert haben. Vor allem dient ja DLSS nicht immer zum energiesparen. Idr. wird es ja gebraucht und genutzt, um höhere FPS zu erreichen. Die GPU wird ja trotzdem voll ausgelastet.
x-force
2025-01-16, 13:34:10
Ich fürchte, die Energiebilanz wird nicht sonderlich gut aussehen, wenn die den Algo wirklich 6 Jahre lang trainiert haben. Vor allem dient ja DLSS nicht immer zum energiesparen. Idr. wird es ja gebraucht und genutzt, um höhere FPS zu erreichen. Die GPU wird ja trotzdem voll ausgelastet.
damit sparst du dir die energie, die mit einem sli system oder größerer karte notwendig wäre, um das gleiche ergebnis zu erzielen ;)
energie juckt uns aber wenig, wir wollen ein möglichst gutes ergebnis, also warum nicht einen teil der rechenleistung zentral outsourcen.
Slipknot79
2025-01-16, 14:06:11
Und das Ergebnis ist eine 14MB DLL? :redface:
Und das Ergebnis ist eine 14MB DLL? :redface:
Ich geh mal stark davon aus, dass diese nur aus Code und nicht aus dem NN besteht.
aufkrawall
2025-01-16, 14:19:27
Modelle sind wahrscheinlich in erster Linie so etwas wie Unmengen an Gewichten/Zahlen, inkls. ihrer Position, also auch eine Zahl. Und jeder, der schon mal eine gigantische Log-Datei komprimiert hat weiß, dass sich so etwas extrem effizient speichern lässt. Mit der DirectSR 3.8 DLL sind von sechs Modellen vier rausgeflogen, mit einer Größenverringerung der DLL von 51MB auf 24MB.
Die alten DLLs mit mutmaßlich nur einem Preset hardcoded waren tatsächlich 14MB. Minus angenommenen Loader-Code, passt das entsprechend auch zur DirectSR DLSS 3.8-DLL.
(K.A., obs mit mehr Modellen ggf. noch irgendwelche Synergieeffekte zur weiteren Größenreduktion gibt.)
Ich fürchte, die Energiebilanz wird nicht sonderlich gut aussehen, wenn die den Algo wirklich 6 Jahre lang trainiert haben. Vor allem dient ja DLSS nicht immer zum energiesparen.
Wo hab ich was von Energie geschrieben? Wenn ich Rechenleistung schreibe ich auch das, oder anders ausgedrückt wieviel weniger Hardware brauche ich dank DLSS für die selben FPS gegenüber der Hardware die benötigt um DLSS zu trainieren.
Wobei man bei der Energierechnung ziemlich sicher von einem positiven Wert ausgehen kann, ansonsten würde Nvidia nämlich draufzahlen, sie müssen nämlich die Energie bezahlen die zum Aufbau der Rechenzentren notwendig ist. Und sie sind es welche die Energie zum betrieb dieser Bezahlen muss. Und für Nvidia geht die Rechnung nur auf, wenn der Energieaufwand dafür geringer ist, als man ihn für die Herstellung der benötigten äquivalenten Rechenleistung an echter Hardware hätte.
(K.A., obs mit mehr Modellen ggf. noch irgendwelche Synergieeffekte zur weiteren Größenreduktion gibt.)
Es gibt nur 1 Modell, und ja das ist im Prinzip sogar noch das selbe wie bei DLSS 1.x, "nur" mit mehr Trainingsstunden. Der Rest, und damit auch die Presets sind "nur" unterschiedliche Nutzungen des selben dahinterliegende CNN.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.