Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia erteilt DLSS4+MFG auf früherer nVidia-Hardware eine Absage ...
Leonidas
2025-01-23, 11:47:41
Link zur News:
https://www.3dcenter.org/news/nvidia-erteilt-dlss4mfg-auf-frueherer-nvidia-hardware-eine-absage-und-stellt-sich-zukunft-bis-z
aceCrasher
2025-01-23, 11:56:43
16 MFG Frames wäre schon irre. 60 fps -> 960fps für die zukünftigen 1000Hz Monitore. Mir persönlich geht die Differenz zwischen Inputlag und Flüssigkeit dann aber langsam doch etwas zu weit auseinander. 120fps -> 960fps könnte ich mir schon eher vorstellen.
MiamiNice
2025-01-23, 12:02:56
Wegen einer begrenzten Chipfläche sind der herkömmlichen Geschwindigkeits-Steigerung Grenzen gesetzt und die Performance-Steigerung mittels KI somit erforderlich.
Wenn man den KI Mist weg lassen würde, ebenso alles anderer außer Raster Kram, hätten wir dann nicht wieder Platz für sinnvolle Dinge?
ChaosTM
2025-01-23, 12:07:28
Das macht also eine gleichzeitige Verwendung von DLSS4 und FG auf Ada unmöglich.
Entweder DLSS3+FG oder DLSS4 ohne FG.
Das wäre ziemlich dämlich aber würde zu Nvidias "Marketingkonzept" passen.
Zossel
2025-01-23, 12:22:49
Kritiker dieser Titulierung wenden hingegen ein, dass auch herkömmliche Frame-Erstellung im Rahmen der Spiel-Engine kein reales Abbild der Welt ausgibt, sondern über unzählige kleine Tricks eine Näherung daran simuliert wird – was technisch eine sehr wohl korrekte Beschreibung darstellt.
Seit wann hat soll ein Telespiel den Anspruch haben die "reale" Welt abzubilden?
Verwechseln da einige schon Telespiele mit der reale Welt?
The_Invisible
2025-01-23, 12:28:21
Das macht also eine gleichzeitige Verwendung von DLSS4 und FG auf Ada unmöglich.
Entweder DLSS3+FG oder DLSS4 ohne FG.
Das wäre ziemlich dämlich aber würde zu Nvidias "Marketingkonzept" passen.
Wo liest du das raus bzw sollte man da mit den Formulierungen DLSS3/4 eher vorsichtig sein. Außerdem nur Marketing Fritzen...
Laut Folie ganz klar:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/dlss4-multi-frame-generation-ai-innovations/nvidia-dlss-4-feature-chart-breakdown.jpg
redpanther
2025-01-23, 12:34:56
Seit wann hat soll ein Telespiel den Anspruch haben die "reale" Welt abzubilden?
Verwechseln da einige schon Telespiele mit der reale Welt?
"Telespiel" ? Wie alt bist du denn? Das habe ich ja schon ewig nicht gehört :biggrin:
Warum nicht? Zumindest grafisch wollen die viele Games möglichst realistisch sein, auch wenn es der Inhalt nicht ist.
Und es gibt ja auch noch das Genre der Simulation.
Leonidas
2025-01-23, 12:45:00
Die Folien und die NV-Aussagen passen noch nicht zusammen. Mal schauen, was letztlich korrekt ist. Stimmt das mit der technischen Einschränkung, kann man auf GPUs kleiner als RTX50 kein DLSS4+DG nutzen, trotz der Folie.
ChaosTM
2025-01-23, 12:45:20
Wo liest du das raus bzw sollte man da mit den Formulierungen DLSS3/4 eher vorsichtig sein. Außerdem nur Marketing Fritzen...
Laut Folie ganz klar:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/dlss4-multi-frame-generation-ai-innovations/nvidia-dlss-4-feature-chart-breakdown.jpg
Aus diesem Satz von Leo
"Hiermit erteilte man Frame Generierung nach DLSS4 auf früheren nVidia-Grafiklösungen eine klare, auch technisch begründete Absage. Gemäß dem konkreten Wortlaut bezieht sich dies nicht nur auf Multi Frame Generation, sondern auch schon auf einfaches Frame Generation (sprich ein generierter pro "echtem" Frame) – was RTX40-Beschleuniger wohl auch weiterhin nur unter DLSS3 ableisten können sollen."
Da stelle ich mir halt die Frage, ob ich DLSS4 (ohne FG) eben für das reine Upsampling verwenden kann und parallel dazu mit DLSS3 FG hinzufügen kann.
Falls das geht ist alles gut.
Relex
2025-01-23, 12:49:16
Kleine Korrektur für den Newstext.
Drei zwischenbilder wird von Nvidia als 4x MFG bezeichnet, nicht 3x.
3x sind zwei Zwischenbilder und 2x ein Zwischenbild.
Das ist einfach der Faktor mit dem gearbeitet wird.
Wenn man den KI Mist weg lassen würde, ebenso alles anderer außer Raster Kram, hätten wir dann nicht wieder Platz für sinnvolle Dinge?
MFG liefert dir im allerbesten Fall viermal so viele Frames wie "kein MFG". Um viermal so viel Leistung mit konventionellen Mitteln zu erreichen, bräuchtest du eine GPU so groß wie eine klassische Herdplatte. Und dann würde dich trotzdem noch die CPU limitieren, sogar mehr denn je.
-> Das Ende der Fahnenstange ist längst erreicht, KI muss übernehmen.
MfG
Raff
Exxtreme
2025-01-23, 13:07:38
Und dann würde dich trotzdem noch die CPU limitieren, sogar mehr denn je.
Nur wenn man Supersampling weglässt. :)
The_Invisible
2025-01-23, 13:13:09
Aus diesem Satz von Leo
"Hiermit erteilte man Frame Generierung nach DLSS4 auf früheren nVidia-Grafiklösungen eine klare, auch technisch begründete Absage. Gemäß dem konkreten Wortlaut bezieht sich dies nicht nur auf Multi Frame Generation, sondern auch schon auf einfaches Frame Generation (sprich ein generierter pro "echtem" Frame) – was RTX40-Beschleuniger wohl auch weiterhin nur unter DLSS3 ableisten können sollen."
Da stelle ich mir halt die Frage, ob ich DLSS4 (ohne FG) eben für das reine Upsampling verwenden kann und parallel dazu mit DLSS3 FG hinzufügen kann.
Falls das geht ist alles gut.
Kannst jetzt selber test mit CP2077, hat den DLSS4 Patch bekommen und dort gehts ;)
Denkbarerweise arbeitet man intern schon daran, die generierten Frames zukünftig der Spiel-Engine bekanntzumachen – damit jene dann auch den Inputlag reduzieren, was die derzeit generierten Frames wie bekannt nicht können.
Das macht man mit Reflex2 bereits.
Leonidas
2025-01-23, 13:15:43
Drei zwischenbilder wird von Nvidia als 4x MFG bezeichnet, nicht 3x.
In der Tat. Muß ich beachten. Korrigiert!
Das macht man mit Reflex2 bereits.
Ja, und das ist eine tolle Technik. Aber Reflex 1/2 und Frame Warp reduzieren nur bei echten Frames. Bei Fake-Frames machen sie gar nix. Daher dann auch das typisch schwammige Gefühl bei FG-Abenteuern, wenn man jene auf zu niedriger nativer Framerate probiert.
Die Folien und die NV-Aussagen passen noch nicht zusammen. Mal schauen, was letztlich korrekt ist. Stimmt das mit der technischen Einschränkung, kann man auf GPUs kleiner als RTX50 kein DLSS4+DG nutzen, trotz der Folie.
Die Aussage vom NV-Ingenieur bei DF passt auch nicht dazu, vor allem da es sich darum nachweislich um einen NV-Ingenieur auf Video handelt würde ich dem auch mehr Glauben schenken, als irgendwelchen obskuren Quellen über zig Ecken und Translations.
Die Aussage bezüglich des angeblich fehlenden OFA der älteren Generationen macht auch überhaupt keinen Sinn, da dieser ja eben gerade nicht von DLSS4 benutzt wird, sondern nur die Tensor-Cores.
Es können also höchstens die Tensor-Cores nicht schnell genug sein, und zumindest RTX 4xxx ist da schon mal außen vor, da die TensorCores ohne FP4 gleich schnell wie bei Blackwell sind.
ChaosTM
2025-01-23, 13:18:37
Kannst jetzt selber test mit CP2077, hat den DLSS4 Patch bekommen und dort gehts ;)
Thx, sehr gut
Wenn man den KI Mist weg lassen würde, ebenso alles anderer außer Raster Kram, hätten wir dann nicht wieder Platz für sinnvolle Dinge?
Dann bekommst du vielleicht 10% mehr Performance, während KI die Performance vervielfachen kann.
Ja, und das ist eine tolle Technik. Aber Reflex 1/2 und Frame Warp reduzieren nur bei echten Frames. Bei Fake-Frames machen sie gar nix. Daher dann auch das typisch schwammige Gefühl bei FG-Abenteuern, wenn man jene auf zu niedriger nativer Framerate probiert.
Natürlich reduziert Reflex2 auch bei Fake-Frames, genau genommen weiß Reflex2 gar nicht ob es gerade an einem echten oder Fake-Frame arbeitet, alles was es bekommt sind die Pixel des Frames und die Transformationsparameter.
Das allerschlechteste Spielgefühl hätte man wohl wenn man Reflex2 abwechselnd auf ein Frame anwendet und aufs nächste nicht, dann würden 2 aufeinanderfolgende Frames immer hin- und herspringen.
Cubitus
2025-01-23, 13:40:05
Die Aussage vom NV-Ingenieur bei DF passt auch nicht dazu, vor allem da es sich darum nachweislich um einen NV-Ingenieur auf Video handelt würde ich dem auch mehr Glauben schenken, als irgendwelchen obskuren Quellen über zig Ecken und Translations.
Wenn man die vordefinierte 2xFG nur als ein Teil von DLSS3 sieht passt das ja wieder.
Definitions-Vorschlag zu "echten" Frames und Fake-Frames
"echte" Frames — sind der Spiel-Engine bekannt, reduzieren somit auch den Input-Lag (neben der Erhöhung der Framerate)
Fake-Frames — sind der Spiel-Engine nicht bekannt, erhöhen somit nur die Framerate, haben aber keinen Einfluß auf den Input-Lag
Ich finde es ebenfalls interessant, da ich den Begriff Fake Frames auch nicht mag.
madshi
2025-01-23, 13:44:01
Definitions-Vorschlag zu "echten" Frames und Fake-Frames
- "echte" Frames — sind der Spiel-Engine bekannt, reduzieren somit auch den Input-Lag (neben der Erhöhung der Framerate)
- Fake-Frames — sind der Spiel-Engine nicht bekannt, erhöhen somit nur die Framerate, haben aber keinen Einfluß auf den Input-Lag
Meiner Meinung nach keine gute Definition, weil man durchaus die interpolierten Frames warpen könnte anhand neuerer Game-Engine-Daten (wie Reflex 2), was den Input-Lag verbessern würde. Das wären aber trotzdem interpolierte und nicht gerenderte Frames.
Außerdem ist die Formulierung "der Game Engine bekannt" etwas merkwürdig, weil der Processing-Flow von der Game Engine zu den Output-Frames fließt und nicht andersrum. Statt "der Game Engine bekannt" würde "auf neuste Game-Engine-Daten angepaßt" besser passen. Aber auch das ist meiner Meinung nach kein gutes Unterscheidungsmerkmal zum Thema Echte vs Frake Frames, weil ich interpolierte, aber auf neuste Game-Engine-Daten getweakte Frames trotzdem noch als "Fake" bezeichnen würde.
Für mich ist die Definition von "echten" vs "fake" Frames relativ einfach:
1) Kurze Definition:
- "Echte" Frames sind gerendert.
- "Fake" Frames sind interpoliert.
2) Lange Definition:
- "Echte" Frames werden von der Game-Engine neu gerendert (durch Rasterization von Dreiecken, ausführen von Pixel- und Vertex-Shader, und eventuell Raytracing usw).
- "Fake" Frames werden nicht neu gerendert, sondern entstehen aus Interpolation benachbarter Frames (durch Motion Interpolation basierend auf Motion Vektoren).
Leider wird das ganze etwas schwammig durch DLSS, welches intern eine Mischung von Rendering und Interpolation macht, um eine niedrigere Render-Auflösung hoch zu interpolieren.
Man könnte auch sagen, DLSS macht eine Interpolation der Auflösung, und (Multi) Frame Generation macht eine Interpolation der Framerate. Beides sind aber Interpolationen, und kein echtes Rendering.
Dovregubben
2025-01-23, 13:44:37
Ja, und das ist eine tolle Technik. Aber Reflex 1/2 und Frame Warp reduzieren nur bei echten Frames. Bei Fake-Frames machen sie gar nix. Daher dann auch das typisch schwammige Gefühl bei FG-Abenteuern, wenn man jene auf zu niedriger nativer Framerate probiert.
Falls nicht so schon ist, wird es sicher in der nächsten Version kommen. Gibt wenig Gründe die AI Frames nicht zu warpen.
Fake Frames ist immer noch ein beschissener Name. Nenn es doch einfach Render Frames und AI Frames. "Fake" hat immer einen extremst negativen Ton.
Wenn man den KI Mist weg lassen würde, ebenso alles anderer außer Raster Kram, hätten wir dann nicht wieder Platz für sinnvolle Dinge?
Der Rasterkram ist nicht mehr sinnvoll. Um sie selben Verbesserungen an der Bildqualität zu bekommen, falls überhaupt möglich, benötigt man viel mehr Chipfläche als bei RT+AI.
Rasterisierung wird über die nächsten Generationen einen langsamen Tod sterben. Nvidia zeigt jetzt immer mehr Demos bei denen die Primärstrahlen auch über Raytracing statt über Rasterisierung berechnet werden. Ist auch vollkommen logisch, dass man bei steigender Anzahl von Strahlen pro Pixel irgendwann die Raster-Sonderlocken über Board wirft, weil es keinen Performancevorteil mehr bringt.
G3cko
2025-01-23, 13:46:49
Wäre es nicht möglich nur 25fps vollständig zu berechnen. Weitere frames können unvollständig, aber eben soweit vollständig berechnet werden, dass sie den inputlag reduzieren. Das würde ja auch Rechenleistung sparen. Ausgehen von den 25 könnte dann visuell die framerate beliebig gesteigert werden.
Leonidas
2025-01-23, 14:04:30
Natürlich reduziert Reflex2 auch bei Fake-Frames, genau genommen weiß Reflex2 gar nicht ob es gerade an einem echten oder Fake-Frame arbeitet, alles was es bekommt sind die Pixel des Frames und die Transformationsparameter.
Das hört sich dann doch schon einmal sehr interessant an. Muß noch bestätigt werden, aber so geht das doch schon in eine gute Richtung.
Fake Frames ist immer noch ein beschissener Name. Nenn es doch einfach Render Frames und AI Frames. "Fake" hat immer einen extremst negativen Ton.
Ich habe mich hier nur an den allgemeinen Begriff "Fake Frames" drangehängt. Aber Du hast Recht, der hat neben dem spöttischen auch einen negativen Unterton. Und weil man jeder Technik seine Chance geben sollte, ist Dein Namensvorschlag meines Erachtens nach eine gute Sache.
Ganon
2025-01-23, 14:10:17
Solange Hersteller Fake Frames als Performance verkaufen, nenne ich es auch weiterhin Fake Frames :D
Korvaun
2025-01-23, 14:13:04
Wenn die Engines DLSS auf Systemebene einbinden könnte man da noch viel mehr machen. Z.b. nur noch neue Frames wirklich rendern wenn sich der Inhalt ändert (neue Gegner kommen etc.), sonst nur die Eingaben des Users weiterleiten (für aktualisierte Bewegungsvektoren) und den Rest macht dann DLSS. Das wird noch sehr interessant... dagegen ist stupide immer mehr Frames einfügen irgendwie sinnlos. 120fps ok, von mir aus 200fps, aber irgend wann ist halt der Nutzen so klein das immer größere Zahlen praktisch nur noch "Markting-bla bla" sind.
Wäre es nicht möglich nur 25fps vollständig zu berechnen. Weitere frames können unvollständig, aber eben soweit vollständig berechnet werden, dass sie den inputlag reduzieren. Das würde ja auch Rechenleistung sparen. Ausgehen von den 25 könnte dann visuell die framerate beliebig gesteigert werden.
Das ist es was DLSS-SR im Prinzip macht.
GraphikkartusLongus
2025-01-23, 14:22:48
Wo liest du das raus bzw sollte man da mit den Formulierungen DLSS3/4 eher vorsichtig sein. Außerdem nur Marketing Fritzen...
Laut Folie ganz klar:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/dlss4-multi-frame-generation-ai-innovations/nvidia-dlss-4-feature-chart-breakdown.jpg
Bin gespannt, wie die "reduced memory usage" ausfallen wird. Nach ADA-Release hatte nVidia ja einmal in den Raum geworfen, dass sie daran arbeiten und 16GB auch künftig für 4K reichen sollen...
Solange Hersteller Fake Frames als Performance verkaufen, nenne ich es auch weiterhin Fake Frames :D
Bisher stimme ich dir zu, mit Framewarp kann man aber durchaus von echter Performance sprechen, braucht nur die Integration in Spiele.
Fliwatut
2025-01-23, 14:24:19
Solange Hersteller Fake Frames als Performance verkaufen, nenne ich es auch weiterhin Fake Frames :D
Ich auch, dieser ganze KI-Kram hat ja was gefaktes an sich.
ChaosTM
2025-01-23, 14:26:35
Wir nennen DLSS oder FSR auch nicht Fake Pixels, auch wenn letzteres oft ziemlich fake ausschaut ;)
AI-Frames wäre wirklich besser
madshi
2025-01-23, 14:32:19
"AI-Frames" macht auch nicht wirklich Sinn, weil DLSS auch AI benutzt. Dann wären quasi *alle* Frames AI-Frames, sobald man DLSS benutzt.
Der entscheidende Unterschied ist, ob ein Frame gerendert oder rein interpoliert ist.
Ganon
2025-01-23, 14:34:37
Wir nennen DLSS oder FSR auch nicht Fake Pixels, auch wenn letzteres oft ziemlich fake ausschaut ;)
Also für mich sind auch FSR und DLSS Fake Frames. Natürlich nur in einem anderen Kontext. Denn auch das wird als Mehrperformance verkauft "Die Karte schafft 4k@120fps*", "RTX 5070 = RTX 4090*". Es hängt halt davon ab, ob du von der Auflösung oder von der Framerate redest.
* DLSS 4 Ultra-Performance, 4xMFG
JarnoGermany
2025-01-23, 15:00:48
Kannst jetzt selber test mit CP2077, hat den DLSS4 Patch bekommen und dort gehts ;)
Wie kann man das testen, einfach im settings menu ingame verfügbar?
Oder nur per Override über diese NVApp die ich nicht installiert habe ;-)
JarnoGermany
2025-01-23, 15:03:45
MFG liefert dir im allerbesten Fall viermal so viele Frames wie "kein MFG". Um viermal so viel Leistung mit konventionellen Mitteln zu erreichen, bräuchtest du eine GPU so groß wie eine klassische Herdplatte. Und dann würde dich trotzdem noch die CPU limitieren, sogar mehr denn je.
-> Das Ende der Fahnenstange ist längst erreicht, KI muss übernehmen.
MfG
Raff
Kann mir mal bitte jemand erklären, warum die drastisch erhöhte Framerate per MFG nicht mehr CPU Last erzeugt als 1x Frames?
Wenn dem so wäre, was sagen AMD und Intel, die können dann doch aufhören ihre CPUs weiterzuentwickeln?
cypeak
2025-01-23, 15:30:55
ich habe ein problem mit der gesamtbetrachtung.
wenn wir uns auf dem entwicklungspfad befinden dass mit "konventionellem" rendering größere performancesteigerungen immer schwieriger machbar sind und immer "größere" gpu's mit immer mehr shadern, etc. keine praktikabler ansatz für die zukunft ist - kann ich noch nachvollziehen dass man ki-technologien heranzieht um mit einem vergleichsweise niedrigem tradeoff bei der blindqualität einen boost von 20-30% (oder gar mehr) bei den framerates zu erreichen - sprich das was dlss sr oder fsr hinbekommen.
framegeneration geht da noch den schritt weiter, denn hier kommen das die im artikel erwähnten nachteile wie der inputlag zustande....ich will garnicht so viel wiederkauen, denn das meiste zu fg/mfg ist ja allg. bekannt..
was mich "verstört" sind vor allem zwei sachen:
zum einen das die fachmedien bei der ganzen (multi)framegen technik so derart unkritisch sind - denn nur weil nvidia hier die entwicklung in einer ihrer ansicht nach gute richtung treiben, heißt das nicht dass das für uns gamer/konsumenten ein erstrebenswerter weg ist. wenn mir irgendwann die zusammenhänge und die funktionsweise hinter der technik egal sind solange die fps zahl nur ausreichend groß ist, dann hat das marketing der hersteller (vor allem nvidia im moment) ja ganze arbeit geleistet..
zum anderen fehlt mir der druck zu einer standardisierung dieser technologien, bzw. vor allem der schnittstellen/api's.
wenn selbst im artikel sowas steht wie "Aber da auch DLSS generell ein Feature ist, was die jeweiligen Spiele unterstützen müssen und nVidia wie bekannt einen exzellenten Draht zu den Spiele-Entwicklern hat..[...]" und man die upscaling technologien (inklusive framegen) tatsächlich schon als ein "muss" feature betrachtet, spätestens dann muss man hinterfragen ob man sich da nicht in einen vendor-lockin begibt.
man verstehe mich nicht falsch: ich will niemandem ausreden sein dlss m(fg) zu nutzen wenn es ihm beliebt, noch sage ich das dlss insgesamt "ki mist" ist (es hat seinen nutzen); aber ich möchte nicht schauen müssen ob mein lieblingsgame in zukunft dlss oder doch nur fsr oder xess unterstützt, noch möchte ich bei hardwarekauf eben auf die proprietären tecniken festgenagelt sein (der hickhack mit g-sync bzw freesync war/ist schon doof genug).
das geht nur indem eine allgemeine upscaling und framegen api in directx und vulkan einzug hält UND auch benutzt bzw. mehr eingefordert wird. (directsr in directx ist nun vor ungefähr einem jahr ein thema gewesen und dann in versenkung verschwunden.)
desweiteren erscheint mir dieser ansatz der wesentlich bessere zu sein, wenn man tatsächlich irgendwann die rendering-engine mit in die framegen einbinden möchte, so wie im aretikel ausgeführt. schon jetzt ist es für game und engineentwickler supoptimal wenn jeder gpu-hersteller sein upscaling-süppchen einzeln serviert bekommen muss.
so eine "framegen-engine-feedback" api in directsr bzw. direct3d würde auch verhindern dass jedes game hier eine eigene lösung "erfinden" muss oder dass man bei zukünftigen verbesserungen der technik selbst auf das nachziehen des jeweiligen games warten und hoffen muss.
schon bei dlss hat man schnell bemerkt dass es suboptimal ist wenn games eine feste dlss version mitbringen, so dass man nicht einfach per gpu-treiberupdate von neueren dlss versionen profitiert...
Nvidia DLSS 4, Frame Generation, Reflex 2
Ich möchte mal auf meinem Post vom 2023-09-25 verweisen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13402723#post13402723
Einfach mal als kühne Spekulation in den Raum gestellt:
Frame Generation als Zwischending zwischen komplettem Frame-Rendering und neural-network unterstütztem Flow-Modell
1. Schritt
Ein Frame wird ganz klassisch gerendert
Kamerawinkel, viele Objekte im 3D Raum, Abbildung der Geometrie auf den Screen, Texturen auf die sichtbaren Flächen machen, Frame zuzammenfügen)
3D Szene und der Frame decken dabei einen Bereich etwas grösser als den Screen ab.
2. Schritt
aktuelle Kamerabewegung bzw Blickwinkel wird erfasst
3. Schritt
3D Szene wird erstellt und auf Veränderungen / Differenzen überprüft: Welche Objekte haben sich merklich bewegt / rotiert und in welche Richtung. Und welche nicht.
4. Schritt
Mithilfe eines neoral networks wird das existierende Frame per Bewegungsvektoren und Flow Modell angepasst. Durch die aktuelle Kamerastellung wird der passende Ausschnitt des zuvorigen grösser gerenderten Frames verwendet. Frameinhalte deren Objekte sich nicht / wenig bewegt haben werden übernommen. Inhalte deren Objekte sich wahrnehmbar bewegt haben werden per Flow Modell angepasst. Bereiche die neu sichtbar werden (z.B. bei Objektkanten) werden vom NN mit spekulativem Inhalt befüllt.
Vorteil soweit:
Der so erstellte Frame benötigt wenig Rechenzeit, und der neue Input (e.g. Kamerabewegung) wird erfasst und berücksichtigt -> sogar reduzierter Input Lag
Nachteile soweit:
ggf Artefakte, Bildfehler, spekulativer Bildinhalt
5. Schritt
Solange die Bildfehler klein bleiben, der initial gerenderte Screenausschnitt bezüglich Kamerabewegung ausreicht, der spekulative Inhalt gerung bleibt werden aus dem initialen gerendertem Frame auf diese Weise weitere Zwischenframes erzeugt
6. Wenn dies nicht mehr der Fall ist:
Sind grosse und/oder viele Framebereiche betroffen, wird ein neuer kompletter Frame gerendert
Sind nur partitiell Screenbereiche betroffen, werden nur diese (partitieller Screen, weniger Pixel) neu gerendert, der Rest des Screens per Flow Modell übernommen.
Beispiel: nahe Objekte in der Bildschirmmitte sind stark von Kamerabewegung betroffen, also wird die Bildschirmmitte neu gerendert. Hintergrund vor allem Himmel bleibt gleich. Der Inhalt des vorherigen Frames wird nur gemäß Kamerabewegung verschoben, aber nicht neu gerendert.
7. Alle Frames laufen durch den spacialen und temporalen DLSS Filter, werden dadurch homogeniesiert, aliasing unterdrückt, Bildfehler verringert bzw "verteilt" etc
Was ist problematisch?
- weite Kamerabewegungen (aber schnelle Kamerabewegungen nicht unbedingt)
- Objekte, vor allem grosse oder im Vordergrund befindliche, welche sich schnell bewegen und/oder schnell rotieren
Die Erweiterung von DLSS3 1:1 auf DLSS4 3:1 generierte Frames ist eine konsequente und erwartbare Weiterentwicklung, und deshalb technologisch IMHO nicht allzu spannend.
Interessant finde ich das FrameWarp Feature von Reflex2, bei dem die Frames unmittelbar vor der Ausgabe nochmals gemäß Kamerastellung angepasst werden. Das entspricht etwa den genannten Punkten 2 bis 4 oben.
Weiss jemand zuverlässig, ob FrameWarp ausschliesslich auf die gerenderten (und upgescalten) Frames angewendet wird, oder auch schon auf die generierten Frames?
Wenn FrameWarp auch auf die generierten Frames angewendet wird (werden kann), würde dies ja schon zum Teil Leos Definition von echten Frames vs Fake-Frames erfüllen, weil dann auch die generierten Frames den aktuellen Userinput (in Form von Mausbewegung bzw Kamerastellung) berücksichtigen.
Wenn nicht, denke ich ist das dann der konsequent folgende nächste Ausbauschritt von DLSS.
Ich finde es interessant zu sehen, wie Nvidia sich mit DLSS langsam aber konsequent Stück für Stück Richtung "algorithmischen Optimum" voranarbeitet.
Bisher wird ja explizit zwischen gerenderten und generierten Frames unterschieden. Ich schätze das ist im jetzigen Ausbaustadium von DLSS die passende Wahl, da einfacher zu implementieren. Langfristig erwarte ich, dass die Grenzen verwischen:
Anhand der aktuellen Daten und des aktuellen Userinputs wird ein Mager-Frame gerendert, üblicherweise in sehr strak reduzierter Auflösung, und ggf nur partitiell den Bildschirm abdeckend. Ein neuronales Netz erzeugt aus dem letzten ausgegebenen Frame (in Bildschirmauflösung) und dem aktuellen Mager-Frame (aktueller Input) das aktuelle Frame in Bildschirmauflösung. Der Userinput fliesst damit kontinuierlich in die Bildausgabe mit ein.
Insofern würde ich mir aktuell nicht allzusehr den Kopf über echte Frames vs Fake-Frames zerbrechen, da dies vermutlich nur eine temporäre Zwischenstufe in der DLSS Weiterentwicklung darstellt.
Ich möchte an dieser Stelle auch mal auf einen Post von RLZ anno 2020 verweisen,
mit dem Gedanken ein Bild aus (wenigen) spatialen Samples mit Zeitstempeln per NN zu generieren:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12316049&postcount=233
Der Gedanke, auf diese Art das aktuelle Bild aus dem aktuellen Input und den vorherigen Frames (bzw deren Rohdaten) zu erzeugen geht IMHO in dieselbe Richtung.
wolik
2025-01-23, 20:03:23
Das macht also eine gleichzeitige Verwendung von DLSS4 und FG auf Ada unmöglich.
Entweder DLSS3+FG oder DLSS4 ohne FG.
Das wäre ziemlich dämlich aber würde zu Nvidias "Marketingkonzept" passen.
Falsch. DLSS 4 geht mit FG (wer auf Vasiline steht). Kann man schon jetzt testen. Und ja, DLSS 4 ist atemberaubend. CP2077, HZD und weiteres
ChaosTM
2025-01-23, 20:09:27
Das wurde ein paar Post weiter unter dem von dir gequoteten schon "aufgelöst".
Und ja, Vaseline ist super brauchbar - für so viele Anwendungen inklusive DLSS4 - love it!
Können wir demnächst in Spielen unseren eigenen Großvater töten?
Es werden Fakeframes aus zukünftigen und vergangenen frames berechnet und sollen der Spielengine bekanntgemacht werden. D.h. ich kann damit agieren? Somit treten zukunftige frames verändert auf und die berechneten frames stimmen nicht mehr.
Das paradoxe an einer Zeitmaschiene.
Das ist der einzige Vorteil der 5000 Serie, natürlich bekommen die 4000 Serie das nicht, sonst würde man kaum Vorteile sehen.
Ansonsten sind die Preise für eine 5090 Custom leider nirgends gerechtfertigt, 2700-3100 Euro. Ich habe keine Ahnung was dieser 3k Euro Wahnsinn soll, max +25% Leistung und 8GiB mehr Speicher für 1000 Euro mehr, und wo die Karte säuft wie ein Loch.
Die Testergebnisse sind zuweilen ernüchternd. Ohne AI Framegen kannst du Backwell vergessen. Mal wieder der verwachste Zwischenschritt von Nvidia den niemand braucht, jede dritte Gen ein Flop zu aufgeblähten Mondpreisen. Da sie das selbst gemerkt haben, gibt es kaum welche davon um die Preise oben zu halten.
Ich will nicht unken aber nun verkauft sich die 97000xt wie geschnitten Brot, vermutlich reißen sie AMD das aus den Händen.
Hallo Nvidia gehts noch?
Das ist der einzige Vorteil der 5000 Serie, natürlich bekommen die 4000 Serie das nicht, sonst würde man kaum Vorteile sehen.
Was für ein Vorteil sollte das sein, es ist fast zu das gleiche Prinzip wie im Kino wo man aus 24p dann 72 p macht. Das sind keine wirklichen Bilder sondern zusätzlich zwischen den von der Engine gerenderten Bilder, die die GPU dann ausgibt, der Inhalt ist faktisch der Gleiche. Letztlich ist das nichts weiter als ein Bild 2, 3 oder 4 mal auszugeben.
Das ist kein Frameratenzugewinn oder Fortschritt der Bottlenecks löst! Es ist einfach Bullshit und soll dir eine höhere Framerate suggerieren, damit das Bild flüssiger ist. Dir wird aber das gleiche Bild immer wieder mit Veränderungen die die KI synthetisch daran vornimmt gezeigt, bis die Engine das nächtse Bild ausgeben kann.
Leider sind die Anwender heutzutage so verblödet, dass sie dafür einen Haufen Kohle auf den Tisch legen und öffnen damit den Herstellern Tür und Tor für solcherlei technischen Manipulationen in Spielen.
Man kann diesen Mist in jeder INI oder Treiber so cheaten, dass bspw. die GPU mehrere Bilder im Cache hält bis die CPU ein neues Bild berechnet hat oder umgekehrt, solange wird dir dann das gleiche Bild mehrfach angezeigt, dafür braucht es keine KI.
Backwell ist einfach ein totaler Flop für den Aufwand den nVidia dort bereibt und was das kosten soll. Dieses Mehr an Pseudo Bullshit Bilder der KI können sie gerne behalten. Die tatsächliche Framerate wird damit überhaupt nicht gesteigert, sondern dir werden von der KI generierte Zwischenbilder auf Grundlage des zuletzt ausgegebenen Bildes der Engine als Vorlage angezeigt, bis das nächste echte Bild ausgegeben wird. Und das wird nirgends wirklich beleuchtet und den Anwendern erklärt.
Keine Ahnung warum dieser KI Müll schon wieder derart bejubelt wird. Es ist einfach das was Tensor kann, dublizieren und manipulieren von Daten anhand Vorlagen. Für mehr ist dieser Müll nicht zu gebrauchen und das hat mit KI soviel zu tun, wie in China ein Sack Reis umfällt und das hier jemanden interessiert. Diese Verblödung von Seiten nVidia geht auch immer weiter. Nicht umsonst hat man Tensor seit Raytracing eingeführt, auch dort wird die Strahlengeometrie und deren Anzahl mittels Tensor manipuliert. Das hat rein gar nichts mit wirklicher Bildausgabe und real berechneten Bildern zu tun.
Das löst auch dei bekannten Probleme nicht, sondern verschärft sie nur, man muss immer weniger in die Entwicklung höherer Leistung stecken.
Geldmann3
2025-01-25, 18:34:18
Hmm, werde ich paranoid? Der Stil des Artikels wirkt nicht 100% wie von Leonidas.
Hmm, es wirklich "Fake-Frames" zu nennen? Und da sind so ein paar Sätze dabei...
Schließlich machen selbst bei niedriger, aber noch gangbarer nativer Framerate diese drei generierten Frames aus einer native Frameraten von 40 fps dann gleich 160 fps, aus einer nativen Framerate von 60 fps dann gleich 240 fps (symbolhafte Rechnungen, natürlich verbraucht das MFG-Feature selber auch etwas Rechenleistung und ist daher keine echte Vervierfachung der Framerate mittels 4x MFG zu erwarten). Doch noch mehr an generierten und somit zwischengeschobenen Frames geht dann eher in den Spezial-Bereich von besonders Hertz-starken Monitoren, kann jedoch immer weniger eine Allgemeingültigkeit entwickeln bzw. wäre somit kein Feature für breitere Gamer-Schichten.
Wirkt so ein bisschen wie durch eine Übersetzungsengine gejagt.
zukünftigen Frame-Generierungs-Technologien
Womit die generierten Frames somit "wie als echt" geadelt werden
geadelt?
Ich will mich nicht beschweren, doch es ist verdächtig für das, was ich sonst von Leonidas gewohnt bin. ^^
Exxtreme
2025-01-25, 18:39:24
Eventuell schlägt der aktuelle Wohnsitz von Leonidas langsam auf die Sprache durch. ;)
ChaosTM
2025-01-25, 18:54:36
Hallo Nvidia gehts noch?
Ja, es geht
Eine potentielle Blackwell Titan um 4k (UVP) würde auch gekauft werden.
Mit 48GB geht dann auch GTA5 in 16k ^^
Und Fake Frames sollte man vermeiden. Wir sagen auch nicht Fake Pixels zu DLSS
Leonidas
2025-01-26, 02:40:06
Hmm, werde ich paranoid? Der Stil des Artikels wirkt nicht 100% wie von Leonidas.
Ist aber von mir, ohne irgendwelchen Fremdeinfluß.
Wirkt so ein bisschen wie durch eine Übersetzungsengine gejagt.
Nada.
geadelt?
Ich will mich nicht beschweren, doch es ist verdächtig für das, was ich sonst von Leonidas gewohnt bin. ^^
Von mir war man eigentlich schon immer "kreative" Worschöpfungen gewohnt, wo ich die deutsche Sprache gebogen habe bis zur Unendlichkeit.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.