Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3
Dampf
2020-09-03, 18:25:08
Wird DLSS 2.1 eigentlich auch auf Turing laufen?
Natürlich, warum nicht?
Könnte mir aber vorstellen, dass der 8K Ultra Performance exklusiv für Ampere sein wird.
Neosix
2020-09-03, 18:58:51
Wird DLSS 2.1 eigentlich auch auf Turing laufen?
Was ist 2.1 jetzt? Hab im livestream nix dazu gesehen.
Hott3X
2020-09-03, 19:26:53
Was ist 2.1 jetzt? Hab im livestream nix dazu gesehen.
https://mixed.de/nvidia-dlss-2-1-ki-grafik-kann-jetzt-virtual-reality/
Ich finde ja die Benchmarks geil. 8 Fps (ja, acht) mit einer RTX 3090 ohne DLSS. Mit DLSS dann 57 Fps. Wenn wir hier nicht von einer 24-GiByte-Grafikkarte sprächen, würde ich sagen, dass der Speicher voll ist.
Eher erstaunlich dass der Rest so wenig davon profitiert.
Immerhin wird fast nur ein zehntel der Pixel berechnet und außer Control ist der Speedup gerade mal bei ungefähr einem Faktor 3.
aufkrawall
2020-09-04, 12:42:10
Mag mal jemand beschreiben, ob es in irgendeinem der UE4-Titel mit DLSS 2.0 auch solche Artefakte wie in Death Stranding, oder Anflüge davon, gibt?
wolik
2020-09-04, 13:48:44
Mag mal jemand beschreiben, ob es in irgendeinem der UE4-Titel mit DLSS 2.0 auch solche Artefakte wie in Death Stranding, oder Anflüge davon, gibt?
welche "der UE4-Titel mit DLSS 2.0" meinst du überhaupt? Ich kenne kein.
aufkrawall
2020-09-04, 13:50:21
Kannst du googlen, gibt einigen Indie-Kram.
Dampf
2020-09-04, 14:01:36
welche "der UE4-Titel mit DLSS 2.0" meinst du überhaupt? Ich kenne kein.
Spontan würde mir DeliverUsTheMoon und Bright Memory einfallen.
Und ja, da gibt es diese Artefakte nicht!
aufkrawall
2020-09-04, 14:02:41
Und ja, da gibt es diese Artefakte nicht!
Was sind denn dort die wahrnehmbaren Artefakte? Ist das irgendwo gut festgehalten?
Dampf
2020-09-04, 14:07:06
Was sind denn dort die wahrnehmbaren Artefakte? Ist das irgendwo gut festgehalten?
Soweit mir bekannt ist, gibt's keine. Jedenfalls hab ich noch nichts gelesen, wo über Artefakte berichtet wurde.
Hab ja auch diese beiden Spiele mal installiert gehabt und hab nach welchen gesucht. Bin aber nicht fündig geworden.
aufkrawall
2020-09-04, 14:35:22
Hm, Raff ist so etwas in Mech Warrior 5 auch nicht aufgefallen, während er ja auf die Probleme in Death Stranding klar hingewiesen hatte:
https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/2/
Ich lese das dort so, dass das Quality-Preset in mancher Hinsicht schlechter aussieht als nativ + TAA, in vielerlei anderer hingegen klar besser.
Hoffen wir mal, dass sich das in Spielen mit vernünftigem TAA so weiterhin bestätigt und es in Death Stranding wirklich nur an Müll-Informationen bez. Bewegungs-Vektoren lag.
wolik
2020-09-05, 21:51:54
Zur Zeit ich bin wieder in Control unterwegs, und ich bin (wie soll ich ausdrücken) Überwältigt von DLSS Leistung dort. Ich kam sogar zu Idee 1080p DLSS für 4K auszuprobieren. Ab und zu teste ich 1080p auf mein Monitor (4K) um CPU oder GPU Last festzustellen, und empfinde immer tiefgründige Abscheu für das Bild (1080p) auf 4K Glotze. Und jetzt... es sieht genauer so gut wie 4K nativ. Ich war bis jetzt kein Fan von DLSS. Nur was dort los ist, grenzt an Magie. Mit Technische Entwicklung ist das kaum zu erklären.
Wie sagt schön Arthur C. Clarke dazu: "Jede hinreichend fortgeschrittene Technologie ist von Magie nicht mehr zu unterscheiden."
Rumbah
2020-09-08, 00:41:59
Mangels einer entsprechenden Grafikkarte kann ich DLSS nicht live testen, sondern habe mir Videos von Control und Screenshots angeguckt. Und da wundert es mich nicht, dass Leute sagen, dass ihnen das DLSS Bild besser gefällt, denn da haben sie ordentlich am Schärferegler gedreht (schärfer finden viele ja besser). Daher sind lokale Kontraste ganz schön aufgedreht.
Leider sieht man damit auch an entsprechenden Stellen die Schärfungsartefakte, in einer Szene konnte ich auch bei einer kontrastreichen horizontalen Bewegung so "interlace" Artefakte sehen.
Insgesamt finde ich, zumindest bei Control, dass ein wenig Äpfel mit Birnen verglichen werden, wenn das eine Bild massiv geschärft wird und das andere nicht. Hat mal jemand versucht, mit einem Postschärfen bei nativer Auflösung einen ähnlichen Schäregrad einzustellen und hat dann mal verglichen?
ShinyMcShine
2020-09-08, 08:56:00
Kurze Frage, die bestimmt schon mal beantwortet wurde (keine Lust den Thread durchzulesen, einfaches Ja oder Nein genügt als Antwort):
Braucht man für DLSS das GeForce Experience Zeug oder ist das komplett im Treiber enthalten? Danke!
VG
Shiny
Radeonfreak
2020-09-08, 09:18:19
brauchst kein GeForce Experience. Geht so.
ShinyMcShine
2020-09-08, 09:19:50
brauchst kein GeForce Experience. Geht so.
Danke Dir, Freaky!
wolik
2020-09-08, 11:58:02
Kurze Frage, die bestimmt schon mal beantwortet wurde (keine Lust den Thread durchzulesen, einfaches Ja oder Nein genügt als Antwort):
Braucht man für DLSS das GeForce Experience Zeug oder ist das komplett im Treiber enthalten? Danke!
VG
Shiny
Ich habe überlegt, wenn ich mich richtig erinnere erste DLSS kam in FFXV und dort um zu aktivieren musste nicht damals Experience mitinstalliert werden?
Jetzt, alles über Grafikeinstellungen. Leider DS hat kein DLSS in verschiedene Modi wie Control.
sapito
2020-09-08, 12:48:10
Ich habe überlegt, wenn ich mich richtig erinnere erste DLSS kam in FFXV und dort um zu aktivieren musste nicht damals Experience mitinstalliert werden?
Jetzt, alles über Grafikeinstellungen. Leider DS hat kein DLSS in verschiedene Modi wie Control.
sorry das is komplett FALSCH XD, für DLSS un FFXV benötigst du eine 4K auflösung im Spiel. nicht mehr und nicht weniger
wolik
2020-09-08, 15:32:34
sorry das is komplett FALSCH XD, für DLSS un FFXV benötigst du eine 4K auflösung im Spiel. nicht mehr und nicht weniger
Komplet nicht,:wink: FFXV war erste Spiel mit DLSS. Jetzt kann ich mich schlecht erinnern , aber um irgendwelche Future von Nvidia zu testen war mal Nvidia Experience Installation zwingend erforderlich.
sapito
2020-09-08, 17:36:54
Komplet nicht,:wink: FFXV war erste Spiel mit DLSS. Jetzt kann ich mich schlecht erinnern , aber um irgendwelche Future von Nvidia zu testen war mal Nvidia Experience Installation zwingend erforderlich.
da war nix notwendig
https://www.geforce.com/en_US/gfecnt/whats-new/articles/final-fantasy-xv-windows-edition-game-ready-driver
ausser dem üblichen auto config kram
und für DLLS braucht man eine 4K auflösung, nativ oder via DSR
aufkrawall
2020-09-08, 17:40:39
Da ist die Evolution bis hin zum heutigen Stand schon nicht übel.
Das Nonplusultra wäre natürlich eine dynamische Auflösungsanpassung zum Erreichen der Ziel-fps. Funktioniert ja schon in diversen Spielen super, mit der BQ von DLSS vs. herkömmlichem Upscaling wär es dann der heilige Gral der Performance-Einstellungen.
Troyan
2020-09-08, 18:06:23
Kommt mit DLSS 2.1: https://news.developer.nvidia.com/new-features-to-dlss-coming-to-nvidia-rtx-unreal-engine-4-branch/
basix
2020-09-08, 18:15:44
Jepp, finde ich wirklich nice. Noch etwas finetuning bei Spielen hinsichtlich Artefakten und DLSS ist genial.
DrFreaK666
2020-09-08, 18:46:07
Kommt mit DLSS 2.1: https://news.developer.nvidia.com/new-features-to-dlss-coming-to-nvidia-rtx-unreal-engine-4-branch/
Das klingt nach dynamic resolution done right :up:
Tobalt
2020-09-08, 18:47:28
es braucht noch was vergleichbares für bottlenecks außerhalb der Graka, dass die Qualität da adaptiv reduziert wird.
Dies ist *immer* der bessere Kompromiss wenn die Alternative gar kein Frame ist ;-)
aufkrawall
2020-09-08, 18:56:32
es braucht noch was vergleichbares für bottlenecks außerhalb der Graka, dass die Qualität da adaptiv reduziert wird.
Dann stellt man händisch das LOD 1-2 Stufen runter, nennenswert mehr wird eh nicht sinnvoll drin sein.
w0mbat
2020-09-11, 10:25:33
Wie sieht es eigentlich mit UW-Auflösungen wie 2560x1080 oder 3440x1440 aus?
Ich spiele nämlich gerade Control und das Spiel flashed mich total, mit RT sieht es bestimmt noch ein Stück besser aus, aber dann tankt die performance. Würde DLSS auch in UW funktionieren, oder muss die spezielle Auflösung von Nvidia trainiert werden?
Dytec
2020-09-11, 10:28:14
Wie sieht es eigentlich mit UW-Auflösungen wie 2560x1080 oder 3440x1440 aus?
Ich spiele nämlich gerade Control und das Spiel flashed mich total, mit RT sieht es bestimmt noch ein Stück besser aus, aber dann tankt die performance. Würde DLSS auch in UW funktionieren, oder muss die spezielle Auflösung von Nvidia trainiert werden?
Ich nutze 3440 x 1440 @ 34 Zoll im Spiel Control mit RTX 2080 TI und kann bestätigen, das auch dort DLSS 2.0 funktioniert.
robbitop
2020-09-11, 11:53:30
Gerüchte besagen, dass es kommendes Jahr eine 4K Switch mit neuerem NV SoC geben wird. Xavier wird gemunkelt (ist zwar groß aber dank mittlerweile billigem und reifen 12nm könnte der SoC günstig genug sein). Dank Volta IP hätte man auch Tensor Cores.
Egal ob es Xavier, Orin oder ein Custom SoC wird, wird man sicherlich IP mit Tensor Cores nutzen.
Und die werden dann (mobile Umfeld) sicherlich für DLSS genutzt, damit die kleine mobile Konsole 4K ausspuckt.
IMO hoch interessant und gerade hier ist die Technologie super sinnvoll eingesetzt.
w0mbat
2020-09-11, 11:54:47
Ja, vor allem weil man damit auch, laut Tests, Strom sparen kann.
Daredevil
2020-09-11, 12:03:26
Und gerade der Leistungssprung von dem alten Ding wird immens. Der war ja schon zu Release arschlahm. ^^
Da ist sicher großes Potential vorhanden.
robbitop
2020-09-11, 12:43:00
Nintendo ist ja traditionell konservativ was HW angeht. Der SoC in der Switch war zu release schon 2 Jahre alt. Die HW des 3DS, DS, der WiiU und Wii war ja auch alles ziemlich konservativ und kostengünstig ausgelegt.
Entsprechend würde ich davon ausgehen, wenn es nächstes Jahr neue HW gibt, dass man das hier genauso machen wird. Also keine brandneue IP (Ampere, A78) sondern 2-3 Jahre alte und das selbe auch für den Fertigungsprozess.
Und ja das spart Transistoren und Rechenleostung und somit auch Energie und Kosten. Die Switch (aber auch Konsolen im Generellen - Kosten sind immer ein Hauptthema und die Kundschaft sitzt nicht mit der Lupe vor dem TV und zählt Pixel) ist sicherlich eines der besten Einsatzfelder für DLSS.
Ich vermute, dass man wegen DLSS auch gar nicht so viel mehr Leistung brauchen wird als die Ur-Switch. Es sollen ja die gleichen Spiele - jedoch in 4K gespielt werden. Gleiche Framerate, gleiches Deraillevel. Ein wenig wie die Pro Konsolen der Last Gen.
Dank DLSS braucht man sicherlich nicht viel mehr als 2x GPU Power und etwas mehr RAM. Das sollte überhaupt kein Problem für Xavier sein. Da kann man sicherlich sogar ein paar CPUs und SMs dealtivieren und Takt rausnehmen.
Ich hoffe ja inständig auf 7nm in der Switch, für das mobile Teil würde es auf jeden Fall sinnvoll sein.
Es war ja schon etwas lächerlich mit einem 20nm SoC anzutanzen, als der Rest gerade auf 16/14nm geswitcht ist, und jetzt wenn der Rest endlich 7nm Konsolen auf den Markt werfen will wieder mit einem veralteten Prozess ankommen?
Gerade bei einer mobilen Konsole die jedes bisschen an Energieeffizienz nötig hat wäre ein aktueller Prozess wirklich nötig.
Nachdem man mit der ersten Switch erst mal den Markt abklopfen musste, ob ein derartiges Hybridgerät überhaupt angenommen wird, und damit es noch verständlich war, dass man finanzielle Risiken scheut wäre jetzt wirklich die Zeit auch etwas aktuelles einzubauen.
Wie sieht es eigentlich mit UW-Auflösungen wie 2560x1080 oder 3440x1440 aus?
Ich spiele nämlich gerade Control und das Spiel flashed mich total, mit RT sieht es bestimmt noch ein Stück besser aus, aber dann tankt die performance. Würde DLSS auch in UW funktionieren, oder muss die spezielle Auflösung von Nvidia trainiert werden?
DLSS2.0 (also auch Control) ist von der eingestellten Auflösung unabhängig. Die eingestellte DLSS-Qualität nimmt immer einen bestimmten Bruchteil der eingestellten Auflösung.
Wenn man genügend Performance hat kann man das auch mit DSR kombinieren.
Armaq
2020-09-11, 15:16:05
Die Umsetzung im 3DMark finde ich absolut überzeugend (FeatureTest).
BQ ist top, es lieft knapp doppelt so viele FPS. Wenn man nur das DLSS-Bild kennt, kann man auch keinen Qualitätsverlust wahrnehmen. In TombRaider kann ich allerdings umschalten und da ist es nicht vollständig überzeugend.
Das, was DLSS 2.0 aus paar Hunderttausend Pixeln zaubern kann, killt in Sachen Qualität jedes Switch-Spiel, insofern gibt's keine Diskussion über die Massentauglichkeit.
MfG
Raff
x-force
2020-09-11, 16:53:17
Also keine brandneue IP (Ampere, A78) sondern 2-3 Jahre alte und das selbe auch für den Fertigungsprozess.
Und ja das spart Transistoren und Rechenleostung und somit auch Energie und Kosten.
das ist ein widerspruch.
idr sind die neusten architekturen auf dem neusten prozess am effizientesten. insbesondere, wenn man den betriebspunkt richtig wählt.
w0mbat
2020-09-11, 17:08:25
Ich glaube er meint, dass ein älterer und langsamerer Chip weniger Ernergie verbraucht als ein neuer, schneller. Also absolut und nicht im Verhältnis zur Leistung.
robbitop
2020-09-11, 19:45:53
das ist ein widerspruch.
idr sind die neusten architekturen auf dem neusten prozess am effizientesten. insbesondere, wenn man den betriebspunkt richtig wählt.
Wir haben aneinander vorbeigeredet. Ich meinte DLSS spart Kosten. Darauf bezog sich mein Vorredner (w0mbat).
Ich ging davon aus, dass im Kontext gelesen wird. :)
wolik
2020-09-11, 19:58:45
In Erwartung auf 3090 wurde alte Spiele wieder installiert. Und DLSS (1.0 wohl) in FFXV ist nicht so gut wie in Control. Übrigens in FFXV Demo (kann jeder bei Steam Unterladen) DLSS kann man nur "Aktiviren" über Experience, nur in Spiel gibts kein Effekt.
Dampf
2020-09-15, 13:32:06
Es sollte ein Tag wie jeder anderer sein, ich starte meinen Computer und spiele Control. Um meine Bildraten zu maximieren, nutze ich Nvidia's künstliche Intelligenz DLSS 2.0, die mir ein schönes Bild zaubert, das nicht von der nativen Auflösung zu unterscheiden ist.
Plötzlich sah ich ein seltsames Graffiti auf der Wand. Na nu, dachte ich mir, das kann aber nicht Teil des Spiels sein. Ich ging näher heran und das Grauen erblickte mich. Blutgetränkte Wörter auf denen stand "Hilf mir, ich bin hier gefangen und ich will raus". Mein Gesicht augenblicklich kreidebleich. Ich deaktivierte DLSS und das Graffiti war verschwunden. DLSS an und Graffiti wieder da, diesmal mit den Wörtern "Hör auf mich zu deaktivieren, es tut mir weh."
Konnte es sein? Ich geriet ins Grübeln. Hat das DNN Modell von DLSS Bewusstsein erlangt und spricht nun zu mir? Was sollte ich denn nun tun? Tausend Gedanken rannten mir wie Elektronen in Leiterbahnen durch den Kopf.
Plötzlich ein Geistesblitz: meine Hand innerhalb von Sekunden am Telefon. Die Wählschreibe des Telefons kratzte und klirrte. Sogleich sprach Jensen am anderen Ende mit seiner sanft anmutenden Stimme zu mir: "Hallo Dampf, was gibt es?"
Ich antwortete zügig:"Das DLSS auf meinem Computer hat ein Bewusstsein erlangt" meine Hände zitternd.
Jensen daraufhin antwortete ohne lang zu grübeln:"Alles klar", sagte er selbstsicher, "Ich bin sofort auf dem Weg zu dir."
5 Minuten, die sich wie eine halbe Ewigkeit anfühlten vergingen und es klingelte. "Das muss Jensen sein", dachte ich mir und rannte zur Haustür. Ich öffnete sie und da erblickte ich ihn: Seine Lederjacke gut geölt wie immer, sein selbstsicherer Blick, seine Brille mit der er stets seine Mitarbeiter im Blick hatte... Ich wurde leicht rot und bat ihn herein.
Er wusste sofort was zu tun war. Er startete Control mit Developer-Konsole und tippte wie ein Verrückter auf die Tasten. Ich fragte ihn, was er denn da mache. "Nichts", sagte er. Ich nickte.
Nach 10 Minuten war es dann soweit: Jensen hatte seine Arbeit erledigt. Er sprach "Ich habe der KI Zugriff auf dein Netzwerk gegeben."
Das Herz rutschte mir in die Hose. Ich stammelte "A-A-Aber Jensen das kannst du doch nicht machen, eine KI mit Bewusstsein ins Internet schicken... Wer weiß was da passieren kann."
Jensen lächelte nur Müde. "Mein Kind, schalte den TV ein und erblicke was passiert" Ich tat dies und ich traute meinen Augen nicht: Die KI hat innerhalb von Minuten Krebs geheilt, den Klimawandel gestoppt, das Coronavirus besiegt und Big Navi mit einem DLSS Äquivalent ausgestattet. Ich war sprachlos und sagte zu Jensen "Du bist ja jetzt wie ein Gott mit deiner KI!"
Jensen nickte und es war, als könne er meine Gedanken lesen..."Du willst meine Lederjacke berühren, nicht wahr?"
Ich antwortete:"Ja, das war schon immer mein größter Traum" Ich schnüffelte an seiner Lederjacke und berührte sie. Das war der schönste Moment in meinem Leben und daraufhin verließ Jensen mein Haus.
Sofort startete ich Control mit DLSS und erblickte ein neues Graffiti:" wenn du kein Graffiti mehr willst, musst du Ampere kaufen." Das ist wohl das Mindeste, was ich tun kann", dachte ich mir und fuhr sogleich zum nächsten Media Markt.
The End.
(sorry mir war langweilig und ich hatte mal Bock auf ne Nvidia Creepypasta+Fanfiction :biggrin::biggrin: )
ShinyMcShine
2020-09-15, 13:34:33
Best post today!
BlacKi
2020-09-16, 17:18:24
(sorry mir war langweilig und ich hatte mal Bock auf ne Nvidia Creepypasta+Fanfiction :biggrin::biggrin: )
what is going on inside their heads:freak:
hier gerade bei CB gefunden. dlss scheint in zukunft besser auf amp zu laufen als auf TU, weil TU async dlss nicht unterstützt. +9% mehr fps.
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_asynchrones_dlss
w0mbat
2020-09-16, 17:47:13
Bei Dampf kann man sich nicht sicher sein, ob er das doch nicht ernst meint ;)
Nightspider
2020-09-17, 02:21:19
Hier auch nochmal kopiert aus dem 3080 Thread:
Was ist nun mit DLSS 8K?
Geht das schon? Muss das in jedem Spiel nachgepatcht werden?
Kann die 3080 auch DLSS 8K mit den 10GB?
GIbts auch Zwischenstufen wie DLSS 5K und 6K?
BlacKi
2020-09-17, 11:57:42
GIbts auch Zwischenstufen wie DLSS 5K und 6K?
es ist auflösungs unabhängig.
ich würde stark annehmen das 8k dlss auch bei allen anderen karten laufen wird. alles andere würde mich enttäuschen. da 8k dlss ultra nur mit 1/9 der resolution rendert wird die performance wohl auch auf der 3070 und 3060 noch spielbare fps liefern und es wird auch kein vram bedarf wie bei 8k nativ entstehen.
da aber wohl die dlss offensive die ich mir erhofft habe, nicht eingetreten sind, wird das sich wohl noch hinziehen bis ein großteil wirklich dlss unterstüzt und es werden auch nie 100% aktueller spiele sein.
Dampf
2020-09-17, 23:57:50
DLSS 2.0 in Fortnite hat ebenso Probleme mit kleinen Partikeln, wie in Death Stranding. Ist aber nicht mehr so auffällig wie in genanntem Titel.
Also man sieht es wird dran gearbeitet, da ist aber noch Luft nach oben!
Dampf
2020-09-20, 23:00:28
Fortnite bietet integriertes Upscaling, daher dachte ich mir mal, dass ich das mal mit DLSS vergleiche.
Die Render-Skalierung kann man in Fortnite gut auswählen, der Engine Upscaler skaliert das Bild dann auf die Bildschirmauflösung hoch. In DLSS Performance ist das 50% Renderskalierung, bei 1440p also 720p.
Hier der Vergleich: https://imgsli.com/MjI3NzA/1/0 (Native Auflösung kann natürlich auch verglichen werden, einfach auswählen!)
Man sieht, Upscaling und Rekonstruktion kann man nicht vergleichen.
Man sieht auch, wie viel GPU Leistung DLSS in diesem Fall kostet, hier sind das circa 13%. Da leisten die Tensor Cores ganze Arbeit!
aufkrawall
2020-09-20, 23:04:30
Warum gelockte fps?
Dampf
2020-09-20, 23:07:45
Warum gelockte fps?
Warum nicht? :) Mit einem 60Hz WQHD Monitor bringen über 60 FPS nicht viel und mit Vsync hat man auch kein Tearing.
Für den Test sieht man ja anhand der GPU Last die Leistung!
why_me
2020-09-20, 23:30:34
Warum ist das Bild um den Charakter deutlich heller? Liegt das am Rucksack Skin oder DLSS?
aufkrawall
2020-09-21, 00:01:58
Warum nicht? :)
Damit man die Performance sieht?
Dampf
2020-09-21, 00:40:44
Damit man die Performance sieht?
Interessiert dich der Unterschied in der Framerate zwischen Nativ und DLSS?
Da gibts doch schon hunderte Tests auf verschiedenen Seiten (für Fortnite auch).
Und der Unterschied zwichen Upscaling und DLSS beträgt wie gesagt 13%! Da die Framerate zu zeigen macht nicht viel Sinn, da man auf 720p doch viel eher ins CPU Limit kommt!
Warum ist das Bild um den Charakter deutlich heller? Liegt das am Rucksack Skin oder DLSS?
Das hab ich mich auch schon gefragt. Eventuell wechselt das Diamond-Lama seine Farbe. Aber sowohl auf 720p als auch auf nativ 1440p sieht die Beleuchtung des Lamas gleich aus und anders als bei DLSS. In meinem PCGH Review hab ich ja schon angemerkt, dass ich zusätzliche Effekte wie Lens-Flares sehe, die in der nativen Auflösung nicht da waren.
Keine Ahnung was es damit auf sich hat
Troyan
2020-09-23, 12:42:19
Der DLSS-Feature Test von 3DMarkt bietet nun neben DLSS2.0 auch schon den Ultra-Performance Modus für 8K an. Wer den also mal testen will, kann es tun.
Der DLSS-Feature Test von 3DMarkt bietet nun neben DLSS2.0 auch schon den Ultra-Performance Modus für 8K an. Wer den also mal testen will, kann es tun.
Wow Strange.
Meine 2080Ti Rendert 8k ohne DLSS mit ganzen 0,3FPS.
Was das so seltsam macht ist, dass sie dabei gerade mal 130W verbraucht.
8k mit DLSS läuft dann sogar recht geschmeidig mit 25-30fps, also gerade so um die 100x schneller, was selbst für 1/9 der Auflösung ein bischen viel ist.
crux2005
2020-09-24, 01:30:39
Meine 2080Ti Rendert 8k ohne DLSS mit ganzen 0,3FPS.
VRAM voll?
Dampf
2020-09-24, 09:05:50
Ultra Performance Mode geht auch auf Turing?
dildo4u
2020-09-24, 16:02:41
8KDLSS in wolfenstein.
https://youtu.be/YjcxrfEVhc8?t=401
FlashBFE
2020-09-24, 16:27:08
Der DLSS-Feature Test von 3DMarkt bietet nun neben DLSS2.0 auch schon den Ultra-Performance Modus für 8K an. Wer den also mal testen will, kann es tun.
Jetzt fehlt nur noch der große Schwung 8k-120Hz-Monitore. :freak:
Ja, es gibt schon 8k-TVs, aber kann man auf denen schon sinnvoll zocken mit wenigstens 60Hz und niedriger Latenz?
Troyan
2020-09-24, 20:39:58
Im Boundry Benchmark kann man den Ultra Performance Modus auch in Nicht-8K benutzen. Also noch besser zum Testen.
Dampf
2020-09-24, 21:20:22
Death Stranding hat nun auch DLSS 2.1 https://twitter.com/505_Games/status/1309166411886010369
Jetzt würde mich ja mal brennend interessieren, ob sie die Motion Vektor Probleme in den Griff bekommen haben. Ich habs leider nicht mehr installiert.
Raff? :biggrin:
basix
2020-09-25, 12:58:27
Im Boundry Benchmark kann man den Ultra Performance Modus auch in Nicht-8K benutzen. Also noch besser zum Testen.
Bin es mir gerade am laden :)
Download-Link (kommt bald auch auf Steam (https://store.steampowered.com/app/1420640/Boundary_Benchmark/)):
https://www.surgicalscalpels.com/rtbenchmark.html
Edit:
Haut ganz gut rein. 28fps in 1440p nativ und 47fps mit DLSS Quality. Das harte daran ist, dass die forderndsten Szenen noch vielleicht 60% vom Durchschnitt sind. Das heisst so etwa 17fps bei 1440p nativ und 28fps mit DLSS Quality :D Und das mit einer 2080 Ti ;D
Mit 1440p DLSS Ultra Performance hat man so 80-90fps an den fordernsten Stellen. Das Bild sieht damit erstaunlich gut aus, aber die niedrige Basisauflösung merkt man an einigen Stellen relativ stark (z.B. das rumfliegende Smartphone hat starke Treppenränder). Ist aber auch nur 480p, dafür ist das DLSS Ergebnis recht gut :freak:
Die Qualität der ersten Szene bis zum "Breach" ist schon extrem geil.
Hier noch mehr Ergebnisse:
https://ascii.jp/elem/000/004/027/4027177/10/
https://uploads.disquscdn.com/images/8ec560ccc987f8d68390e43e486a019bf9af396dca77cb060433b8bb875a1614.png
Geldmann3
2020-09-25, 15:16:50
Bin es mir gerade am laden :)
Download-Link (kommt bald auch auf Steam (https://store.steampowered.com/app/1420640/Boundary_Benchmark/)):
https://www.surgicalscalpels.com/rtbenchmark.html
Edit:
Haut ganz gut rein. 28fps in 1440p nativ und 47fps mit DLSS Quality. Das harte daran ist, dass die forderndsten Szenen noch vielleicht 60% vom Durchschnitt sind. Das heisst so etwa 17fps bei 1440p nativ und 28fps mit DLSS Quality :D Und das mit einer 2080 Ti ;D
Mit 1440p DLSS Ultra Performance hat man so 80-90fps an den fordernsten Stellen. Das Bild sieht damit erstaunlich gut aus, aber die niedrige Basisauflösung merkt man an einigen Stellen relativ stark (z.B. das rumfliegende Smartphone hat starke Treppenränder). Ist aber auch nur 480p, dafür ist das DLSS Ergebnis recht gut :freak:
Die Qualität der ersten Szene bis zum "Breach" ist schon extrem geil.
Hier noch mehr Ergebnisse:
https://ascii.jp/elem/000/004/027/4027177/10/
https://uploads.disquscdn.com/images/8ec560ccc987f8d68390e43e486a019bf9af396dca77cb060433b8bb875a1614.png
Könntest Du eventuell ein paar Vergleichsscreenshots zwischen den unterschiedlichen Modi machen? :smile:
basix
2020-09-25, 17:26:59
Ich habe heute und morgen leider keine Zeit. Allenfalls am Sonntag oder es gibt bis dann bereits einen Artikel von Raff dazu ;)
Death Stranding hat nun auch DLSS 2.1 https://twitter.com/505_Games/status/1309166411886010369
Jetzt würde mich ja mal brennend interessieren, ob sie die Motion Vektor Probleme in den Griff bekommen haben. Ich habs leider nicht mehr installiert.
Raff? :biggrin:
Schmiert noch. Also der Beta-Branch, den Nvidia im Rahmen des RTX-3090-Tests herumschickte. Insgesamt ist das Verhältnis aus Performance und Qualität aber wieder fantastisch. Wichtig: Ich kenne DLSS UP alias DLSS 8K nur mittels DSR auf einem 32-Zoll-UHD-Display.
MfG
Raff
Troyan
2020-09-25, 20:06:08
Control hat den Patch auch bekommen. High Performance ist 720p -> 2160p. Ist in Control aber zu niedrig.
Geldmann3
2020-09-25, 20:53:47
Ich habe mich dem Thema nun mal selbst angenommen und die unterschiedlichen DLSS-Presets miteinander verglichen.
Da die Demo sehr Post-Processing lastig ist, ist es gar nicht so leicht passende Stellen für einen Vergleich zu finden.
Die folgenden (Teil)Bilder wurden alle in 4k aufgenommen.
Nativ (Interne Auflösung 3840x2160):
https://i.ibb.co/vjt0Kp7/Native.png (https://i.ibb.co/vjt0Kp7/Native.png)
DLSS Quality (Interne Auflösung: 2560x1440):
https://i.ibb.co/kJkj0Kj/Quality.png (https://i.ibb.co/kJkj0Kj/Quality.png)
DLSS Balanced (Interne Auflösung: 2227x1252):
https://i.ibb.co/LgyrPZ3/Balance.png (https://i.ibb.co/LgyrPZ3/Balance.png)
DLSS Performance (Interne Auflösung: 1920x1080):
https://i.ibb.co/X2W23s8/Performance.png (https://i.ibb.co/X2W23s8/Performance.png)
DLSS Ultra Performance (Interne Auflösung: 1280x720):
https://i.ibb.co/8g6Zfvr/Ultra-Performance.png (https://i.ibb.co/8g6Zfvr/Ultra-Performance.png)
#########################################
Nativ (Interne Auflösung 3840x2160):
https://i.ibb.co/tm5rWLD/Native2.png (https://i.ibb.co/tm5rWLD/Native2.png)
DLSS Quality (Interne Auflösung: 2560x1440):
https://i.ibb.co/k80DNXc/Quality2.png (https://i.ibb.co/k80DNXc/Quality2.png)
DLSS Balanced (Interne Auflösung: 2227x1252):
https://i.ibb.co/hcwspTw/Balance2.png (https://i.ibb.co/hcwspTw/Balance2.png)
DLSS Performance (Interne Auflösung: 1920x1080):
https://i.ibb.co/nnyxpsW/Performance2.png (https://i.ibb.co/nnyxpsW/Performance2.png)
DLSS Ultra Performance (Interne Auflösung: 1280x720):
https://i.ibb.co/8m1dymr/Ultra-Performance-2.png (https://i.ibb.co/8m1dymr/Ultra-Performance-2.png)
Auf den ersten Blick sehen alle Bilder gleich aus, und das ist das Unglaubliche. Ich finde an der Waffe sieht man im Ultra-Performance Mode ein wenig, dass DLSS seine Grenzen hier leicht überschreitet. Das passiert vor allem an Objekten, die sich zu schnell bewegen, wahrscheinlich genügen die hier über mehrere Frames gesammelten Samples nicht mehr für die Waffe aus, um ein sauberes Bild zu erzeugen. Auch am Helm des Raumanzuges sieht man ab dem Ultra-Performance-Mode einen deutlichen Detailverlust. Generell verliert man ab dem Performance-Mode merkbar an Bildqualität, wobei es noch immer nah am nativen TAA Bild ist. Je nach Szene etwas besser oder etwas schlechter. In jedem Fall würde man dem Ultra-Performance Mode keinesfalls ansehen, dass die interne Auflösung nur bei 720p liegt. Wenn nicht zu viel Bewegung im Spiel ist, geht das Bild sogar locker als 4k durch, was wirklich Mindblowing ist.
Übrigens bitte nicht über die leicht unterschiedliche Farbgebung in den Bildern wundern, das Licht fällt in einzelnen Bildern einfach leicht anders, da es leicht unterschiedliche Momente des Benchmarks sind.
Quality ist übrigens nicht 3.200 × 1.800 ausgehend von Ultra HD, sondern 2.560 × 1.440 (jede Achse durch 1,5). Siehe DLSS 2.0: Das Einmaleins der Auflösungen (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/#a3). :)
MfG
Raff
Geldmann3
2020-09-25, 21:09:26
Quality ist übrigens nicht 3.200 × 1.800 ausgehend von Ultra HD, sondern 2.560 × 1.440 (jede Achse durch 1,5). Siehe DLSS 2.0: Das Einmaleins der Auflösungen (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/#a3). :)
MfG
Raff
Danke für den Hinweis, fixed! :)
Dampf
2020-09-25, 21:10:36
Erstaunlich. Also für 4K ist der Ultra Performance Mode auch gut geeignet.
Für 1440p aber leider nicht mehr. Dann wird die Qualität doch zu gering.
Sie sollten noch einen Super-Performance Modus hinzufügen, der die Auflösung 1/6 runtersetzt :D
Sie sollten noch einen Super-Performance Modus hinzufügen, der die Auflösung 1/6 runtersetzt :D
Man hat eh schon einen Modus der die Auflösung auf 1/9 runtersetzt???
Total verrückt wie gut die Qualität ist. Vor allem wird DLSS 2.0 im Laptop Bereich einschlagen. Man bekommt unglaublich hohe Bildqualität bei deutlich geringerem Stromverbrauch durch die geringere interne Auflösung.
Achill
2020-09-25, 22:20:03
Danke an Geldmann3 für den Test + Mühe. Ich verstehe die Euphorie von einigen nicht ...
Ich sehe:
- Ghosting um den ganzen Raumanzug herum
- Detail-Verlust bei den Texturen (wäre früher Cheating bei den alten AF Diskussionen gewesen)
- Details gehen unter, wie die Struktur beim kleinen "Würfel" am oberen Rand des Rucksacks oder das die Struktur der Texturen am Helm verloren geht, diese ist zum Schluss (U.P.) einfach nur noch glatt
- ...
basix
2020-09-25, 22:35:49
@Geldmann:
Danke für die Arbeit, top! :up:
@Achill:
Ja, was man in den Shots nicht so gut sieht ist das Ghosting und andere temporale Nachteile. Das nimmt mit steigendem DLSS-Faktor stark zu. Wie gesagt, das Smartphone ganz am Anfang der Demo hat dann wie einen Halo rundherum inkl. Treppchen. Aber im grossen und ganzen bin ich erstaunt, was die Qualität anbelangt. Bei DLSS Qualität sieht man subjektiv keinen Unterschied zu nativ (ausser man sucht ganz gezielt danach). Bei tieferen Qualitätsstufen beginnt das Bild Details zu verlieren / unschärfer zu werden und auch die angesprochenen Artefakte nehmen zu. Umso höher die Ausgangsauflösung ist, desto geringer ist aber der Effekt. Bei 1080p Monitoren wird DLSS nicht so saubere Ergebnisse wie bei 4K liefern, obwohl die DLSS Stufe dieselbe ist.
@Nvidia, AMD, Intel und alle deren Mitarbeiter :D
Folgend, wie ich mir DLSS 3.0 oder wie es dann heisst vorstelle.
Mit DLSS kann man eine Ziel Framerate definieren (oder einen Framerate Bereich)
In diesem Bereich arbeitet DLSS mit der höchsten Qualität (oder ist auf nativ eingestellt)
Hat man "zu viele" fps, wird die GPU runtergetaktet um Strom zu sparen
Hat man zu wenig fps (unteres Framerate Limit) wird via DLSS dynamisch die Renderauflösung skaliert, um die Framerate halten zu können.
Damit hätte man mMn die perfekte Balance zwischen Performance, Bildqualität und Energieeffizienz. Und jeder kann sich das anhand folgender Kenngrössen selbst einstellen:
Oberes Framerate Limit
Unteres Framerate Limit
Zielqualität innerhalb dieses Framerate Bereichs
Minimale Qualität beim unteren Framerate Limit
aufkrawall
2020-09-25, 22:44:56
Dieses "Halo" sieht mir nach Unterabtastung fürs DoF aus; ergo die typischen Probleme mit PP, für das DLSS nicht mehr greift.
Dampf
2020-09-25, 23:10:05
Basix, das ist ein sehr guter Vorschlag! Meines Wissens nach wurde die Unterstützung für dynamische Auflösungsskalierung schon hinzugefügt, es sollte also nur noch eine Frage der Zeit werden, bis das so umgesetzt wird :) Dann könnte es im DLSS Auswahlmenü zukünftig noch die Option "dynamisch" geben, bei der man dann das Framerate-Target einstellen kann.
Ich finde das deutlich besser als die fixen Qualitäts-Einstellungen, so muss ich mir da keine Gedanken machen und kann sicher sein, dass ich immer meine gewünschten FPS erreiche.
@Nvidia, AMD, Intel und alle deren Mitarbeiter :D
Folgend, wie ich mir DLSS 3.0 oder wie es dann heisst vorstelle.
Das geht eh alles schon.
DLSS 2.1 unterstützt dynamische Auflösungen, den Rest muss nur die Software entsprechend umsetzen.
Geldmann3
2020-09-26, 23:20:35
Nachdem ich gestern den Vergleich zwischen den unterschiedlichen DLSS-Modi (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12439681&postcount=567) im Boundary Benchmark gezeigt habe, hier noch einmal ein Video, in welchem man die Performance aller DLSS-Modi auf einer 2080 Ti betrachten kann.
hfbHz3chS_I
Natürlich komprimiert Youtube stark, weshalb ihr euch hier ein 97Mbit/s Capture (https://drive.google.com/uc?id=1VtFWbNNC7-M5DTrQ9qOpZf0iILcJbCD-&export=download) des Videos herunterladen könnt.
Viel Spaß damit!
BlacKi
2020-09-26, 23:53:54
aber auch das gevierteilte video macht die unterschiede nicht größer.
aber eins kann man festhalten, wenn die fps nicht reichen ist ultra performance definitiv eine alternative
Geldmann3
2020-09-27, 00:18:57
aber auch das gevierteilte video macht die unterschiede nicht größer.
aber eins kann man festhalten, wenn die fps nicht reichen ist ultra performance definitiv eine alternative
Ja, ich finde DLSS wird oft aus einer unpassenden Perspektive betrachtet. Denn ja, spätestens ab dem Performance-Modus verliert man minimal Qualität gegen das native Bild mit TAA. Doch es sieht noch immer besser aus als das native Bild ohne AA und es macht Dinge möglich, die ohne DLSS noch 2 GPU-Generationen entfernt sind.
Ich finde es auch schade, dass Nvidia von DLSS-Ultra-Performance unterhalb von 8k abrät. Denn ich finde, es sieht nicht sooo schlecht aus und besonders auf Notebooks und kleinen Displays würde das höllisch viel Sinn ergeben. Ich nehme an man rät davon ab, weil man nicht möchte, dass DLSS seinen guten Ruf verliert, wenn bei 720p oder geringerer, interner Auflösung die Schwachstellen der Technologie zum Vorschein kommen. Doch aus 2m Abstand zu meinem 65 Zoll Fernseher, wenn ich von der Couch aus zocke, sehe ich niemals einen Unterschied zum nativen Bild. Genau wenig auf einem sehr kleinen Display.
Nightspider
2020-09-27, 01:35:12
Kann man mit DLSS 2.1 jetzt Games in 5K "rendern", von zB. 1440p oder 1800p Auflösung aus?
Geldmann3
2020-09-27, 02:10:15
Prinzipiell ja, was für eine Auflösung betrachtest Du denn als ,,5K"?
Gouvernator
2020-09-27, 07:27:48
Kann man mit DLSS 2.1 jetzt Games in 5K "rendern", von zB. 1440p oder 1800p Auflösung aus?
Das geht aber gegen jeden DLSS Ansatz. Du brauchst möglichst weniger DLSS Auflösung. In nativ 8K brauchst du jedes bisschen Leistung und jedes bisschen VRAM das du bekommen kannst. Weil jeder Schrott-DLSS Modus sieht in 8K besser aus als natives 8K und die Ressourcen sind ziemlich "begrenzt".
Nightspider
2020-09-27, 12:09:28
Prinzipiell ja, was für eine Auflösung betrachtest Du denn als ,,5K"?
5K ist 5120*2880
Genauso die 4 fache Pixelzahl von 2560*1440.
Und genau deswegen müsste 1440p eigentlich 2,5K heißen und nicht 2K, wie die Dummbatzen der Medien immer Behaupten.
Das geht aber gegen jeden DLSS Ansatz. Du brauchst möglichst weniger DLSS Auflösung. In nativ 8K brauchst du jedes bisschen Leistung und jedes bisschen VRAM das du bekommen kannst. Weil jeder Schrott-DLSS Modus sieht in 8K besser aus als natives 8K und die Ressourcen sind ziemlich "begrenzt".
Keine Ahnung was du versuchst mir damit zu sagen.
ChaosTM
2020-09-27, 12:28:12
2880p / 16:9 finde ich am präzisesten aber das ist Geschmackssache.
Mein nächste Monitor wird 2160p /21:9. Falls endlich gscheite kommen .. 100hz und so.
"Offiziell" heißen die "5k2k" was immerhin etwas Sinn macht.
DLSS wird da sicher nett bei 4 facher Auflösung. (Falls es eine NV wird)
Geldmann3
2020-09-27, 12:46:21
Das geht aber gegen jeden DLSS Ansatz. Du brauchst möglichst weniger DLSS Auflösung. In nativ 8K brauchst du jedes bisschen Leistung und jedes bisschen VRAM das du bekommen kannst. Weil jeder Schrott-DLSS Modus sieht in 8K besser aus als natives 8K und die Ressourcen sind ziemlich "begrenzt".
Der Ultra-Performance Modus sieht etwas schlechter aus als natives 8k mit TAA...
Meinst Du weniger interne DLSS Auflösung oder die Ausgabeauflösung? Warum geht das gegen den DLSS Ansatz, kommt es nicht immer auf das Ziel an, welches man Erreichen möchte?
5K ist 5120*2880
Genauso die 4 fache Pixelzahl von 2560*1440.
Und genau deswegen müsste 1440p eigentlich 2,5K heißen und nicht 2K, wie die Dummbatzen der Medien immer Behaupten.
Nun ja, von den Pixeln her ist 5120x2880 5,33k.
960x540 (Ist streng genommen 1k)
1920x1080 (Wird allgemein zwar nicht als 2k bezeichnet, ist es aber nach diesem Schema!)
2880x1620 (Diese komische Auflösung ist 3k.)
3840x2160 (Dies ist 4k.)
4800x2700 (Das wäre 5k...)
5760x3240 (Das sind 6k)
6720x3780 (Und das sind 7k.)
7680x4320 (Wird allgemein als 8k bezeichnet.)
Du bekommst die Anzahl der ,,k", wenn Du die horizontale Auflösung durch 960 teilst.) Klingt komisch, so funktioniert das Schema aber, probiere es mit 4k und 8k aus. QHD ist dann 2,66k, also am ehesten 3k und nicht etwa 2k, als was es häufig bezeichnet wird. Falls man runden möchte.
Nightspider
2020-09-27, 13:03:08
Wie kommst du auf die /960 Teilung? Noch nie gehört.
UHD ist eigentlich auch kein 4K, deswegen kannst du das schon gar nicht so schreiben.
""Mit den Begriffen 2K und 4K werden die für die Produktion von Kinofilmen genutzten Auflösungen der Ausbelichtung der Bilder auf Filmmaterial bezeichnet und die Auflösung von digitalen Kinokameras angegeben. Dabei steht 2K für eine Auflösung von bis zu 2048 Pixeln in der Breite, 4K dementsprechend für bis zu doppelt so viel (4096 Pixel)""
Es ging schon immer nach der horizontalen Auflösung. Die vertikale ist Wurst.
Und 5120*2880 ist halt viel näher dran an 5K als an irgendwas anderem.
Das PCGH, Computerbase, Golem und Co oft genug noch 2K bei 1440p schreiben ist total dumm.
Geldmann3
2020-09-27, 13:30:43
Wie kommst du auf die /960 Teilung? Noch nie gehört.
UHD ist eigentlich auch kein 4K, deswegen kannst du das schon gar nicht so schreiben.
""Mit den Begriffen 2K und 4K werden die für die Produktion von Kinofilmen genutzten Auflösungen der Ausbelichtung der Bilder auf Filmmaterial bezeichnet und die Auflösung von digitalen Kinokameras angegeben. Dabei steht 2K für eine Auflösung von bis zu 2048 Pixeln in der Breite, 4K dementsprechend für bis zu doppelt so viel (4096 Pixel)""
Es ging schon immer nach der horizontalen Auflösung. Die vertikale ist Wurst.
Und 5120*2880 ist halt viel näher dran an 5K als an irgendwas anderem.
Das PCGH, Computerbase, Golem und Co oft genug noch 2K bei 1440p schreiben ist total dumm.
Oh, ich meinte natürlich die horizontale Auflösung.
Weil es ja praktisch so ist, oder? Wer hat denn schon ein Display mit 4096 Pixeln in der Breite? Wenn heute von 4k die Rede ist, meint man in der Regel 3840x2160 Pixel. Auch wenn es natürlich streng genommen 3,84k ist. Eigentlich, müsste man durch 1000 teilen. Doch praktisch wird durch 960 geteilt und fast nur im Kino sieht man das wahre 4k.
7680:960=8(k)
3840:960=4(k)
1920:960=2(k)
960:960=1(k)
Wenn Du jemanden erzählen würdest, dass Du einen 3,84k TV hast, würde man Dich nur verwirrt anschauen. Du musst also durch 960 anstatt durch 1000 teilen, damit allgemein klar ist, was Du meinst.
Nightspider
2020-09-27, 13:35:29
Joar eben. Richtige 2K und 4K Panels Displays gibts nicht für Consumer oder Gamer.
Daher sollte dann klar sein das 5K die Auflösung 5120*2880 hat und 1440p eigentlich 2,5K ist.
Geldmann3
2020-09-27, 13:37:48
Joar eben. Richtige 2K und 4K Panels Displays gibts nicht für Consumer oder Gamer.
Daher sollte dann klar sein das 5K die Auflösung 5120*2880 hat und 1440p eigentlich 2,5K ist.
Ja, Du hast Recht. Das kann man inferieren.
Man könnte es auch QQHD nennen. :D
Der Ultra-Performance Modus sieht etwas schlechter aus als natives 8k mit TAA...
Hast du einen Bildschirm auf dem du das auch beurteilen kannst?
Ansonsten wäre ich damit sehr vorsichtig.
Aus meiner eigenen Erfahrung würde ich grob sagen.
1080p@ Quality, 2440p@Balanced und 4k@ Performance sind auf den jeweiligen Screens gleichwertig zur nativen Auflösung + TAA, alles was höher ist, sieht besser aus als die jeweilige native Auflösung.
Mich würde also nicht wundern wenn Ultra Performance @ 8k durchaus gleichwertig zur nativen Auflösung ist, natürlich nicht mehr auf 4k screens und darunter.
Geldmann3
2020-09-28, 01:08:14
Ich selbst habe keinen 8k Bildschirm, doch ich konnte es bereits auf dem 8k TV eines Freundes betrachten, der das Glück hatte, bereits eine 3080 zu erhalten.
Ich habe das Gefühl auf meine 3090 muss ich leider noch einige Zeit warten und auf seiner 3080 macht 8k aufgrund der 10GB Vram starke Probleme. :(
Meiner Erfahrung nach sieht der Performance-Modus unter DLSS 2.0+ noch immer besser aus als natives Rendering mit SMAA und Quality ist sogar hübscher als Nativ+TAA.
Natürlich kommt es auch immer darauf an, wie groß Du das Ganze betrachtest. 8k DLSS skaliert in meinen Augen optisch genauso wie 4k DLSS, wenn Du doppelt so nah dran sitzt oder der Bildschirm doppelt so groß ist wie ein entsprechendes 4k Äquivalent.
basix
2020-09-28, 18:17:59
Natürlich kommt es auch immer darauf an, wie groß Du das Ganze betrachtest. 8k DLSS skaliert in meinen Augen optisch genauso wie 4k DLSS, wenn Du doppelt so nah dran sitzt oder der Bildschirm doppelt so groß ist wie ein entsprechendes 4k Äquivalent.
Mich würde 8K @ DLSS Performance interessieren. mMn ist das ein optimaler Spot für DLSS und dessen Output-Qualität vs. Performance. 4K werden viele neuere Karten nativ stemmen können und aufgrund der hohen Grundpixelzahl sollte die Qualität von DLSS auch gut herauskommen, obwohl nur Performance anstatt Quality. Wenn man will, kann man via DSR dann auch wieder auf 4K downsamplen, falls man das Bild noch etwas mehr glätten will.
Armaq
2020-09-29, 14:28:04
Ich hab einen neuen Monitor der eine etwas exotische Auflösung besitzt 5120x1440. Muss DLSS auch für verschiedene Auflösungen vorliegen? Ultrawide hat ja auch eine andere Verteilung.
Troyan
2020-09-29, 14:29:08
Nein, DLSS2.x funktioniert mit jeder Auflösung. Spiele mit einer älteren Version (FF15, BF5, Tomb Raider etc) funktionieren dagegen nur mit festgelegten Auflösungen.
Armaq
2020-09-29, 14:30:33
Nein, DLSS2.x funktioniert mit jeder Auflösung. Spiele mit einer älteren Version (FF15, BF5, Tomb Raider etc) funktionieren dagegen nur mit festgelegten Auflösungen.
Top Info! Dann freu ich mich auf massiven Support, dann hält die 2080Ti noch länger.
Yop. Hier erfährst du u. a., wie du die intern benutzte Auflösung ausrechnest, wenn ein Spiel das mal nicht explizit angibt: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/#a3
MfG
Raff
Armaq
2020-09-29, 15:42:53
Yop. Hier erfährst du u. a., wie du die intern benutzte Auflösung ausrechnest, wenn ein Spiel das mal nicht explizit angibt: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/#a3
MfG
Raff
Das ist sehr informativ. Das geht etwas in eurem Website-Layout unter, selbst wenn man danach sucht.
Achill
2020-10-02, 20:28:52
Da es m.E. oft nur optimale/optimierte Beispiele für DLSS bei Vergleichen verwendet werden, ist für alle Interessierten ggf. folgende Stelle bei ~6:10 im Video RTX 3080 vs RTX 2080 Ti Ray Tracing Performance Analysed In-Depth (https://www.youtube.com/watch?v=RyYXMrjOgs0&feature=youtu.be&t=367) interessant.
Dort sieht man ein Vergleich von 4k mit Q-DLSS (linke Seite) vs 4k Nativ (rechte Seite) in einem Beispiel wo deutlich mehr Details mit 4k "Nativ" zu sehen sind. Die 4k Q-DLSS Version hat eine deutliche Detail-Reduktion und es sieht aus, als ob es mit Farbe gemalt / leicht verschmiert wurde.
https://i.imgur.com/D2sDnD4.jpg
Dort sieht man ein Vergleich von 4k mit Q-DLSS (linke Seite) vs 4k Nativ (rechte Seite) in einem Beispiel wo deutlich mehr Details mit 4k "Nativ" zu sehen sind. Die 4k Q-DLSS Version hat eine deutliche Detail-Reduktion und es sieht aus, als ob es mit Farbe gemalt / leicht verschmiert wurde.
Metro verwendet kein DLSS 2.x, und DLSS 2.x ist Lichtjahre besser als 1.x, und die 1.x-Umsetzung ist OK aber auch nicht gerade die Beste (das Beste DLSS vor 2.x hatte Tomb Raider).
DLSS in Metro bringt weder so viel Performance als 2.0, und sieht dabei auch schlechter aus.
dildo4u
2020-10-03, 04:27:29
Da es m.E. oft nur optimale/optimierte Beispiele für DLSS bei Vergleichen verwendet werden, ist für alle Interessierten ggf. folgende Stelle bei ~6:10 im Video RTX 3080 vs RTX 2080 Ti Ray Tracing Performance Analysed In-Depth (https://www.youtube.com/watch?v=RyYXMrjOgs0&feature=youtu.be&t=367) interessant.
Dort sieht man ein Vergleich von 4k mit Q-DLSS (linke Seite) vs 4k Nativ (rechte Seite) in einem Beispiel wo deutlich mehr Details mit 4k "Nativ" zu sehen sind. Die 4k Q-DLSS Version hat eine deutliche Detail-Reduktion und es sieht aus, als ob es mit Farbe gemalt / leicht verschmiert wurde.
https://i.imgur.com/D2sDnD4.jpg
Das ist nicht neu DLSS 1 saugt 1.9 wurde besser 2.0 scheint brauchbar.
Geldmann3
2020-10-06, 21:23:07
Wow, wie ,,gut" DLSS 2.0 mit internen 240p noch aussehen kann:
_gQ202CFKzA
720p@4k via DLSS 2.1 wäre in meinen Augen eine tolle Option für einen Handheld-Hybriden, wie die nächste Nintendo-Switch.
Natürlich würde es unseren Enthusiasten-Anforderungen hier im Forum nicht genügen, doch für den durchschnittlichen Switch-User da draußen wäre es ein Upgrade um Welten.
3IiFbahWaqk
crux2005
2020-10-09, 07:31:14
interessante Erkenntnisse...
DLSS 8K output (1440p internal): 10164 MB VRAM alloziert
DLSS 4K output (1440p internal): 7442 MB VRAM alloziert
DLSS 8K vs. upscale braucht ~18% mehr Leistung
DLSS 4K vs. upscale braucht ~6% mehr Leistung
und die Vergleichsbilder 8K nativ vs. 8K DLSS (1440p) sind :O
Wow, wie ,,gut" DLSS 2.0 mit internen 240p noch aussehen kann:
https://youtu.be/_gQ202CFKzA
+1 für Potato Mode, upscaling from a single pixel ;D;D;D
BlacKi
2020-10-09, 08:58:48
Wow, wie ,,gut" DLSS 2.0 mit internen 240p noch aussehen kann:
https://youtu.be/_gQ202CFKzA
einfach krank^^ wenn ich in 2 jahren meine 3000er karte mit praktisch keinem wertverlust 3 monate vorher verkaufe und eine gebrauchte 2060 für 100-150€ kaufe, um die 6 monate zu überbrücken, kann ich per ultra performance dlss immernoch in 4k zocken:freak:
dildo4u
2020-10-09, 10:02:47
3IiFbahWaqk
Neosix
2020-10-09, 10:05:23
Ja wenn du bis dahin hoffentlich 10 statt bisher 5 Spiele spielst, die es unterstützen. Ich hätte ja gesagt das alle kommenden Blockbuster es haben werden, aber zum Beispiel das kommende AC: Valhalla wird es nicht haben. Zu mindestens schweigt sich Ubisoft da aus. Und das ist durchaus ein Titel der mit max Details sehr fordern sein wird.
Dampf
2020-10-09, 10:16:16
Also das 8K DLSS sieht deutlich schlechter aus als natives 8K, da kann man nicht von 8K sprechen. Da ist noch Raum für Verbesserung.
@Blacki da muss ich ebenfalls widersprechen. 4K Ultra Performance Mode sieht ebenso schlechter aus als natives 4K und hier kann man nicht von 4K sprechen, 9x weniger Pixel sind halt selbst für die Magie von DLSS eine Herausforderung. Für die 2060 sieht es trotzdem gut aus, denn sie hat auch ohne DLSS mehr Leistung als die Series S und diese ist darauf ausgelegt, Next Gen Titel in 1080p und sogar 1440p abzuspielen. Bedeutet, Next Gen Spiele in ähnlichen Grafikeinstellungen und eventuell besserem Raytracing sollten ohne Probleme in 4K dank dem DLSS Performance Modus laufen, der nativem 4K ebenbürtig ist!
Death Stranding hat mich aber sehr überrascht, selbst 360p auf 1080p sieht noch gut aus. Mit Raytracing würde das aber nicht mehr so schön aussehen, ganz klar!
dargo
2020-10-09, 11:55:06
Ja wenn du bis dahin hoffentlich 10 statt bisher 5 Spiele spielst, die es unterstützen.
owned ;D
BlacKi
2020-10-09, 12:36:23
4K Ultra Performance Mode sieht ebenso schlechter aus als natives 4K und hier kann man nicht von 4K sprechen, 9x weniger Pixel sind halt selbst für die Magie von DLSS eine Herausforderung. absolut, aber inwiefern widerspricht mir das?
Geldmann3
2020-10-09, 12:43:33
https://youtu.be/3IiFbahWaqk
Das Video hatte ich oben bereits gepostet...
Ich fand es ebenfalls überraschend, wie schlecht der Ultra-Performance-Mode optisch doch gegen die native Auflösung abschneidet. Man kann sich gar schon streiten, ob es wirklich besser aussieht als einfaches Upscaling.
Für mich sieht DLSS Quality im Schnitt am besten aus, danach kommt das native TAA Bild, etwa auf einer Höhe mit DLSS Balanced. Dahinter ordnet sich DLSS-Performance ein und zum Schluss folgt das Native Bild ohne AA oder DLSS-Ultra-Performance.
Es kommt allerdings auch immer ganz auf die Szene und das Game an.
Dampf
2020-10-09, 13:24:51
absolut, aber inwiefern widerspricht mir das?
Naja, weil du halt von 4K gesprochen hast. Die Bildqualität von 4K erreicht der Ultra-Performance Modus aber keineswegs!
Schlecht sieht es trotzdem nicht aus, die Qualität ist immer noch gut. Aber halt kein 4K mehr!
Wo ist eigentlich mein Freund Wombat? Hier kann er endlich mal sagen, dass DLSS schlechter aussieht und Recht haben. :D
Geldmann3
2020-10-09, 15:07:17
Naja, weil du halt von 4K gesprochen hast. Die Bildqualität von 4K erreicht der Ultra-Performance Modus aber keineswegs!
Schlecht sieht es trotzdem nicht aus, die Qualität ist immer noch gut. Aber halt kein 4K mehr!
Wo ist eigentlich mein Freund Wombat? Hier kann er endlich mal sagen, dass DLSS schlechter aussieht und Recht haben. :D
HAHA, stimmt, diese Stimmen habe ich hier gerade auch vermisst.
Wobei es immer mit ,,nativer Auflösung" verglichen wird. Doch eigentlich ist damit bereits Nativ+TAA gemeint, was ja ebenfalls bereits Samples aus vorangegangenen Frames verwertet, wie DLSS es tut. Vergleicht man es hingegen wirklich mit ,,nativer" Auflösung ohne AA, ist der Ultra-Performance-Mode dieser nicht EINDEUTIG unterlegen. Je nachdem, wo man hinschaut meist sogar überlegen.
BlacKi
2020-10-09, 20:29:30
Naja, weil du halt von 4K gesprochen hast. Die Bildqualität von 4K erreicht der Ultra-Performance Modus aber keineswegs!
Schlecht sieht es trotzdem nicht aus, die Qualität ist immer noch gut. Aber halt kein 4K mehr!
Wo ist eigentlich mein Freund Wombat? Hier kann er endlich mal sagen, dass DLSS schlechter aussieht und Recht haben. :D
ich habe mit 4k UP dlss aber nicht den anspruch an die qualität von nativ. das hat vl der quality mode, bei UP sehe ich allerdings hohe fps bei gleichzeitigem bestmöglicher grafik/auflösung mit einer möglichst günstigen karte.
Geldmann3
2020-10-10, 22:10:59
Hier ein neues, interessantes Paper zu dem Thema.
Ich finde es besonders deshalb interessant, weil die verwendete Technik, anders als DLSS, offener diskutiert wird, sodass jeder es implementieren könnte, anders als Nvidias proprietäre Magie.
Introducing neural supersampling for real-time rendering
OzHenjHBBds
Wow, ich würde ebenfalls gerne einen Vergleich mit DLSS sehen. DLSS scheint mir aus dem Gedächtnis temporal stabiler zu sein, doch kann es auch mit der Qualität mithalten?
Hier (https://research.fb.com/publications/neural-supersampling-for-real-time-rendering/) gibt es einen Videovergleich zwischen den unterschiedlichen Methoden zum Download.
DLSS sollte eine bessere Qualität bieten. Leider ist kein Vergleich mit DLSS enthalten.
Doch ich weiß noch nicht, ob sie sich bei ihrer Methode auch einen Jitter der Samplingkoordinaten zwischen den Frames zunutze machen.
Jedenfalls finde ich auf die Schnelle nirgends einen Hinweis darauf.
https://i.ibb.co/j49p4p3/figure2-dancestudio-input-rgb-depth-motion.png
Example rendering attributes used as input to the neural supersampling method — color, depth, and dense motion vectors — rendered at a low resolution.
Quelle: https://research.fb.com/blog/2020/07/introducing-neural-supersampling-for-real-time-rendering/
Im Prinzip ist die Funktionsweise sehr ähnlich zu DLSS 2.0+
Das Problem daran ist grundlegend. Es ist auch keine Erfindung von Nvidia, sondern kommt aus dem medizinischen Bereich. Hier werden bei Resonanzbildern MR, LR und HR auflösungsbedingte Artefakte beseitigt, die sichtbare und visuelle Informationen verbergen.
Das SSR- und SSA-Netzwerk wird dabei so ausgerichtet, dass Originalbilder aufgrund der Trainingsdaten innerhalb der FB-Akkumulation ohne Modifikationen und Inhomogenität sofort ausgegeben werden können. Der Algorithmus braucht dazu keine externe NN-Trainingsdaten. Mir scheint es so, dass Nvidia dort einen Großteil einfach kopiert hat und es als eigenes Technologiepaket vermarktet.
Sie übertragen es auf Bewegtbilder, dass ist deren einzige Errungenschaft. Die Reconstruktion auf Basis von high-resolution-volumes findet in der Medizin schon viel länger Anwendung, weil die Bilder immer eine Anisotropie in axialer und lateraler Auflösung aufweisen. Das NN kann daher über eine lernfähige 3D-Segmentierungspipeline eine korrigierte Isotrophie konstruieren und ausgeben, die in Genauigkeit dem Originalbild entspricht.
Tobalt
2020-10-11, 08:08:51
Ohne jitter der Samplekoordinaten ist es mMn nicht ganz fair, es als Supersampling zu bezeichnen.
edit: im Video sieht es aber sehr danach aus. :)
Auch wenn sie der Normale User nicht liest, sorgen solche Paper vlt dafür, dass die Assoziation von solchen Verfahren mit "upsampling" verschwindet..
Wieso Jitter, geht es nicht eher um Pixel Vektoren und Gradienten? Was hat denn der Jitter damit zu tun? Auf der GPU gibt es innerhalb der Rekonstruktion keine Varianz.
Geldmann3
2020-10-11, 12:54:37
Ohne jitter der Samplekoordinaten ist es mMn nicht ganz fair, es als Supersampling zu bezeichnen.
edit: im Video sieht es aber sehr danach aus. :)
Auch wenn sie der Normale User nicht liest, sorgen solche Paper vlt dafür, dass die Assoziation von solchen Verfahren mit "upsampling" verschwindet..
In meinen Augen ist es auch ohne Jitter Supersampling. Denn man verwendet mehr als ein Sample, um die Farbe eines Pixels zu bestimmen. Wenn der Viewport sich nicht bewegt, sind es im suboptimalsten Fall eben immer Samples mit den gleichen Farbwerten, was im schlimmsten Fall zu keiner Steigerung der Bildqualität, vom nativen Bild ausgehend, führen kann.
Tobalt
2020-10-11, 13:17:33
In meinen Augen ist es auch ohne Jitter Supersampling. Denn man verwendet mehr als ein Sample, um die Farbe eines Pixels zu bestimmen. Wenn der Viewport sich nicht bewegt, sind es im suboptimalsten Fall eben immer Samples mit den gleichen Farbwerten, was im schlimmsten Fall zu keiner Steigerung der Bildqualität, vom nativen Bild ausgehend, führen kann.
Eben, da das gezeigte Material aber auch im Standbild die Details von SS erreicht, gehe ich von Jitter aus
Geldmann3
2020-10-11, 14:39:20
Eben, da das gezeigte Material aber auch im Standbild die Details von SS erreicht, gehe ich von Jitter aus
Es erscheint mir eher so als sei das Standbild das angehaltene Bewegtbild. Man könnte auch einfach immer eine ganz leichte Kamerabewegung erzwingen und das Bild vor der Ausgabe wieder stabilisieren.
Vorteil wäre, dass nichts in der Renderpipeline angepasst werden müsste, eventuell ginge das in vielen Games sogar auf Treiberebene genau wie VR oder 3D Software die Perspektive für das rechte und linke Auge anpassen kann. Sowas wie TriDef 3D hat sogar einen ganzen, zusätzlichen Viewport hingezaubert, ohne Zugriff auf den Sourcecode der Spiele gehabt zu haben. Dann sind die Motion-Vektoren noch die große Herausforderung, doch die bekommt man eventuell auch mit Tricks und AI heraus, wenn auch nicht so präzise und performant, wie wenn der Game-Developer sie selbst implementiert hätte. Videoencoder generieren sich immerhin ebenfalls Motion-Vektoren.
Deinorius
2020-10-11, 16:42:34
Ich denke mir gerade: ReShade mit mit einem DLSS wäre leiwand! :uponder:
aufkrawall
2020-10-11, 17:17:28
Geht aber aus dem gleichen Grund nicht, weshalb es DLSS nicht anwendungsagnostisch im Treiber zuschaltbar gibt.
dargo
2020-10-11, 17:32:15
Was passiert eigentlich mit DLSS wenn wir in Zukunft anderes Antialiasing bekommen? Ist das ohne TAA eigentlich noch zu gebrauchen? Ich weiß natürlich nicht was uns in Zukunft erwartet, nur so ein Gedankenspiel. Früher zu MSAA Zeiten wusste auch noch keiner, dass sich später TAA durchsetzt.
Hier ein neues, interessantes Paper zu dem Thema.
Ich finde es besonders deshalb interessant, weil die verwendete Technik, anders als DLSS, offener diskutiert wird, sodass jeder es implementieren könnte, anders als Nvidias proprietäre Magie.
Paper vs Produkt. Wobei Nvidia auch normalerweise recht offen ist was ihre Forschungsergebnisse angeht.
Ich hab das ja öfters in Threads hier erklärt. Das Rendering geht weg von einem fixen Samples pro Pixel pro Frame. Man muss sich auch verabschieden von der Vorstellung, dass ein Sample ein einzelner Farbwert ist. Im Grunde hat man jetzt schon Punktwolken mit jeder Menge Informationen pro Sample. Das Neuronale Netzwerk wird drauf trainiert, wie es daraus ein fertiges Bild baut. Die Anforderung, dass man Samples gleichmäßig übers Bild verteilt ist eigentlich auch überflüssig (Samples im aktuellen Pixelraster machen aber imo Sinn). VSR verringert den Constraint schon und in Zukunft wird man noch mehr nur die interessanten Regionen samplen.
Eigentlich witzig, dass ich vor 4 Jahren hier im Forum für die Idee von Upsampling im DLSS Stil verrückt erklärt wurde. Nun ist es für viele ein Kaufargument. :freak:
Neuronale Netzwerke, die (mit aehnlichen Bildern!) trainiert werden muessen und dann im Prinzip nicht vorhandene Details dazu halluzinieren? Ernsthaft?
Es sei ihm verziehen. :biggrin:
dargo
2020-10-11, 18:04:08
Eigentlich witzig, dass ich vor 4 Jahren hier im Forum für die Idee von Upsampling im DLSS Stil verrückt erklärt wurde. Nun ist es für viele ein Kaufargument. :freak:
Kaufargument für paar Leute reicht nicht um es massentauglich zu machen. Ich weiß immer noch nicht so recht wohin Nvidia mit einem eigenen Netzwerk beim PC-Gaming hin möchte. Das kann auch in die Hose gehen wenn auf dieses Netzwerk keine Konsolen Zugriff haben. Diese diktieren nach wie vor wie Gaming in Zukunft aussehen wird. Und zwar plattformübergreifend! Es gibt schon einen Grund für die Nähe der Hardware Konsolen/PC und auch der APIs (Spieleentwicklung soll plattformübergreifend vereinfacht werden). Sony lasse ich da erstmal weg mit ihrer eigenen API, Hardware ist dennoch ähnlich. So ein Netzwerk würde für mich nur Sinn machen wenn alle darauf Zugriff hätten. Sprich Nvidia, AMD (natürlich auch Intel sofern da in naher Zukunft was kommt) und vor allem die Konsolen. Nur wer soll das finanzieren? Das ist wahrscheinlich der Knackpunkt dabei.
Kaufargument für paar Leute reicht nicht um es massentauglich zu machen. Ich weiß immer noch nicht so recht wohin Nvidia mit einem eigenen Netzwerk beim PC-Gaming hin möchte.
Ach lass doch die Hersteller Diskussion da raus. Das ist einfach eine Richtung in die Rendering geht. Egal ob PC, Konsole oder Mobile. Facebook hat sogar explizit für ihre Sachen Mobile Hardware als Target.
Nvidia erkauft sich durch Speziallösung und entsprechend Entwicklungsbudget immer ein paar Jahre einen Vorsprung, der dann durch allgemeinere Lösungen eingeholt wird. Ist halt deren erfolgreiches Geschäftsmodell und da kann man jetzt noch die nächsten 20 Jahre mit Mimimi ankommen, aber das wird NICHTS ändern. Aktuell ist es beispielswiese in der UE4 fast null Aufwand DLSS zu bekommen, aber sobald Epic mal selbst Resourcen auf das Problem wirft, ist es auch mit der Nvidia Speziallösung vorbei. (und bevor nun die Frage kommt, warum es noch nicht in mehr Spielen ist: die Integration ist erst seit kurzer Zeit breit verfügbar)
Was passiert eigentlich mit DLSS wenn wir in Zukunft anderes Antialiasing bekommen? Ist das ohne TAA eigentlich noch zu gebrauchen?
Was soll passieren?
DLSS ist der Ersatz für TAA, wenn eine neue bessere AA-Technik kommt wird diese eben DLSS ersetzen, so wie DLSS TAA ersetzt hat.
dargo
2020-10-11, 18:47:20
Ach lass doch die Hersteller Diskussion da raus.
Warum? Nvidia hat sich doch mit dem eigenen Angebot bei Turing selbst mit TU116 und TU117 disqualifiziert um DLSS schneller voranzutreiben. Ich weiß auch ehrlich gesagt nicht was du immer mit deinem UE4 willst. Die Unreal Engine ist nur eine Engine von vielen.
btw.
Speziallösungen bzw. proprietäre Lösungen haben sich langfristig noch nie durchgesetzt im Bereich Gaming, zum Glück. Ich habe übrigens auch nichts gegen ein Äquivalent zu DLSS (solange es optional bleibt) welches alle nutzen können, ganz im Gegenteil. Das würde so ein Feature in der gesamten Gaming-Branche viel schneller vorantreiben.
Warum? Nvidia hat sich doch mit dem eigenen Angebot bei Turing selbst mit TU116 und TU117 disqualifiziert um DLSS schneller voranzutreiben.
Es ist einfach das Vorgehen von Nvidia unabhängig von Hardware. Seit 20 Jahren und vermutlich bis zum Ende der Firma. Turing hat sich mangels Konkurrenz glaub auch super verkauft. Aber da gibts sicher Leute, die sich mehr mit Verkaufszahlen beschäftigen als ich.
Ich weiß auch ehrlich gesagt nicht was du immer mit deinem UE4 willst. Die Unreal Engine ist nur eine Engine von vielen.
Größter Marktanteil einer generischen Engine im AA/AAA Markt und gleichzeitig offen um reinzuschauen. Vielleicht auch zusammen mit Unity das größte Budget für eine Engine.
Speziallösungen bzw. proprietäre Lösungen haben sich langfristig noch nie durchgesetzt im Bereich Gaming, zum Glück. Ich habe übrigens auch nichts gegen ein Äquivalent zu DLSS (solange es optional bleibt) welches alle nutzen können, ganz im Gegenteil. Das würde so ein Feature in der gesamten Gaming-Branche viel schneller vorantreiben.
Werden sie auch nie und das ist auch nicht Grund warum Nvidia das macht. Es ist ihr Marketingimage Technologie anzubieten bevor die Konkurrenz es tut.
Langfristig, also nicht die nächsten 5 Jahre, werden solche Lösungen nicht optional bleiben, weil die Schere bei der Performance immer weiter auseinandergehen wird und die Nutzung von Sampling mit nativem Pixelgrid nicht mehr sinnvoll vertretbar ist.
dargo
2020-10-11, 19:15:38
Es ist einfach das Vorgehen von Nvidia unabhängig von Hardware. Seit 20 Jahren und vermutlich bis zum Ende der Firma. Turing hat sich mangels Konkurrenz glaub auch super verkauft. Aber da gibts sicher Leute, die sich mehr mit Verkaufszahlen beschäftigen als ich.
Nochmal... dort wo du die Masse erreichst gibt es kein DLSS-Support (TU116/117). Und natürlich gibt es in diesem Bereich (auch drüber bis zu 2070 Super) Konkurrenz.
Größter Marktanteil einer generischen Engine im AA/AAA Markt und gleichzeitig offen um reinzuschauen. Vielleicht auch zusammen mit Unity das größte Budget für eine Engine.
Ich muss wohl die falschen Games am PC spielen. Mal überlegen.... die einzigen Games welche ich seit Jahren mit UE4 gespielt habe war Gears 5 und Jedi: Fallen Order (beide übrigens kein DLSS-Support). Danach wirds aber verdammt dünn. :uponder:
Edit:
Im Bereich moderne APIs ist die UE4 leider auch noch in der Steinzeit am PC verblieben. Gibt zwar paar DX12 Implementierungen, diese laufen aber eher schlecht als recht. Naja... anderes Thema. Vielleicht richtet das die UE5.
Tobalt
2020-10-11, 19:49:45
Ich würde auch heute noch Gipsels Zitat unterstützen, da es DLSS 1 beschreibt, was - wie wir nun wissen - gescheitert ist. ein untemporaler Upsamplingprozess ist immer scheiße. Selbst wenn man ihn mit ähnlichen bildern trainiert... Sowas sieht stand heute nur auf standbildern gut aus.
DLSS 2 erfindet nichts hinzu, sondern interpoliert aus den x-y-t Punktwolken einen x-y Frame zu einem bestimmten Zeitpunkt. soweit ich es verstanden habe, wird dabei schnöde linear interpoliert, zwar aus vielen Punkten und gewichtet, aber eben linear wodurch keine höheren Ordnungen an räumlicher Informationen entstehen können. Artefakte mal ausgenommen bei sehr schnellen Bewegungen.
Auch diese letzte Hürde (x-y-frames) wird fallen, wenn es die Anzeigegeräte nicht mehr erfordern.
DLSS 2 erfindet nichts hinzu, sondern interpoliert aus den x-y-t Punktwolken einen x-y Frame zu einem bestimmten Zeitpunkt. soweit ich es verstanden habe, wird dabei schnöde linear interpoliert, zwar aus vielen Punkten und gewichtet, aber eben linear wodurch keine höheren Ordnungen an räumlicher Informationen entstehen können. Artefakte mal ausgenommen bei sehr schnellen Bewegungen.
Warum sollte man dafür ein CNN verwenden? Falls du eine seriöse Quelle dafür hast, dass Nvidia uns da eine Lüge auftischt, wäre das nett die auch anzugeben.
Nochmal... dort wo du die Masse erreichst gibt es kein DLSS-Support (TU116/117). Und natürlich gibt es in diesem Bereich (auch drüber bis zu 2070 Super) Konkurrenz.
Nochmal. Das ist eine Image Sache unabhängig von der Hardware.
Ich muss wohl die falschen Games am PC spielen. Mal überlegen.... die einzigen Games welche ich seit Jahren mit UE4 gespielt habe war Gears 5 und Jedi: Fallen Order (beide übrigens kein DLSS-Support). Danach wirds aber verdammt dünn. :uponder:
Scheinbar. Die Steamcharts wurden die letzten Jahre teilweise beängstigend von der UE4 dominiert. Meinen Geschmack haben aber auch die wenigsten getroffen.
Und außerdem
und bevor nun die Frage kommt, warum es noch nicht in mehr Spielen ist: die Integration ist erst seit kurzer Zeit breit verfügbar
Tobalt
2020-10-11, 22:31:51
Im TecoGan paper wird zb detailliert beschrieben was mit dem CNN abgestellt wird. In meinen eigenen Worten würde ich sagen, dass mittels der CNN lediglich die Wichtungen der Interpolation bestimmt werden. diese sind nämlich nicht fest sondern je nach lokalen Features dynamisch.
Dennoch ist die Verrechnung der frameübergreifenden Informationen linear. in dem Paper gibt es viele Bilder. in keinem einzigen habe ich Details gesehen die bei ground truth gefehlt hätten.
ich vermute dass DLSS die CNNs für ähnliche Aufgaben einsetzt. auf Seite 3 des papers werden auch einige Refs genannt, die seit 2018 durch Einsatz von CNN gegenüber "trivialem" TAA Vorteile generiert haben.
Geldmann3
2020-10-12, 00:04:33
Warum sollte man dafür ein CNN verwenden? Falls du eine seriöse Quelle dafür hast, dass Nvidia uns da eine Lüge auftischt, wäre das nett die auch anzugeben.
Nochmal. Das ist eine Image Sache unabhängig von der Hardware.
Scheinbar. Die Steamcharts wurden die letzten Jahre teilweise beängstigend von der UE4 dominiert. Meinen Geschmack haben aber auch die wenigsten getroffen.
Und außerdem
Meines Wissens ,,erfindet" DLSS 2.0 in der Tat keine Details hinzu, wie man das beispielsweise von AI-Gigapixel her kennt.
Nicht mehr seit Version 1.9 oder 2.0, da bin ich mir nicht ganz sicher.
So wie ich das verstanden hatte, werden die Tensor Cores unter anderem auch zum Unterdrücken von Moiré Artefakten verwendet.
Deep Learning ist hier eher ein Marketingbegriff. Ehrlich wäre temporales Supersampling oder Upsamling oder wie auch immer man das nennen möchte.
Zitat von mir:
DLSS 2.0 ist KEIN Upscaler mehr.
Und deshalb funktioniert es so gut und schnell, besser als jeder AI-Image-Upscaler.
DLSS 2.0 benötigt nicht mehr viel Training durch Supercomputer. Es ist einfach sehr gutes, temporales Upsampling mit dem Buzzwort Deep Learning dran geklatscht. Wobei am Ende der Renderpipeline zwar tatsächlich ein neuronales Netz z.b. zur Unterdrückung von Moire-Artefakten zum Einsatz kommt, dieses jedoch die Auflösung des Bildes nicht mehr erhöht. Daher braucht es eben kein Training mehr, weil das Netzwerk nicht wissen muss, wie eine Struktur im Game in hoher Auflösung aussieht.
Jetzt wird der eine oder andere vielleicht argumentieren:,,Was redest Du da? Natürlich erhöht es die Auflösung des Bildes, wenn die interne Renderauflösung niedriger als die Zielauflösung ist."
Mein Argument dagegen ist jedoch, dass es zum Upscaling erstmal ein Bild in einer niedrigeren Auflösung braucht, was dann hochgerechnet werden kann. Doch es gibt bei DLSS 2.0 keine niedrigere Renderauflösung, sondern nur das bereits hochauflösende Bild final im Framebuffer. Es gibt kein Bild, welches upgescaled wird, man hat lediglich die Samples, die über einen bis x Frames gesammelt wurden, sowie z.b. Motion-Vektoren. Ein einzelner Frame generiert zwar nur genug Samples für z.b. 540p, doch insgesamt hat man bereits temporale Bildinformationen für ein 1080p Bild oder sogar noch wesentlich mehr, die vom neuronalen Netzwerk nur noch hübsch gemacht werden. Es muss keine zusätzlichen Informationen für das Bild ,,halluzinieren" wie es, optisch scheinbar, noch in DLSS 1.0 der Fall war oder in Upscalern für Fotos. Das ist auch der Grund, warum in DLSS 2.0 der "Ölpainting-Effekt" verschwunden ist. Denn es wird streng genommen gar nicht upgescaled... Es ist auch keine Magie, dass mehr Details da sind als in der ,,Renderauflösung". Denn diese Details wurden über ein Jitter der Samplingkoordinaten über die letzten Frames gesammelt und nicht von einem neuronalen Netz generiert. Deshalb muss auch kein Supercomputer mehr für jedes Game rechnen. Denn die Bildinhalte sind DLSS 2.0 fast egal.
Hier ein neues, interessantes Paper zu dem Thema.
Ich finde es besonders deshalb interessant, weil die verwendete Technik, anders als DLSS, offener diskutiert wird, sodass jeder es implementieren könnte, anders als Nvidias proprietäre Magie.
Zumindest in der aktuellen Version komplett unbrauchbar für realtime Rendering.
Angeblich braucht das fürs Upsampling alleine in 720p 8,84ms, 1080x1200 11,87ms und FullHD 18,25ms.
Lustig dass sie überhaupt die 1080x1200 Auflösung integriert haben, angeblich für die Oculus Rift.
Nur hat die Oculus Rift 2 Displays, mit der genannten Auflösung bildet man nur eines ab, und um die 90 Hz zu erreichen, darf das gesamte Rendering inklusive compositing und Co 11,11ms brauchen.
Wie das gehen soll, wenn alleine das Upscaling schon länger braucht bleibt wohl ein Geheimnis.
Wenn da nicht noch sehr signifikante Anteile an Performance verschwendet werden wüsste ich nicht wie das in nächster Zeit für Realtime vernünftig verwendet werden kann.
... die Integration ist erst seit kurzer Zeit breit verfügbar.
Nö, und warum? Nvidia hat wieder mal alles umgeschmissen und man kann von vorne anfangen. Die sollten sich endlich mal fragen, was sie mit DLSS wollen. Als wenn man den ganzen Tag nichts anderes zu tun hat, als nur für Nvidia irgendwas zu berücksichtigen!
Nicht seit kurzer Zeit, sondern das neue Framework für Tensor v3 ist brandneu...genau daran happert die Verbreitung, nämlich wenn man selbst nicht mal weis was man will und einem das die Kundschaft alle Nase lang wegen auflösungsbedingter Qualitätsmängel um die Ohren haut.
Und die Bemerkung von Herrn Huang..."it works", ja - blah, blah!
Troyan
2020-10-12, 12:12:47
DLSS 2 erfindet nichts hinzu, sondern interpoliert aus den x-y-t Punktwolken einen x-y Frame zu einem bestimmten Zeitpunkt. soweit ich es verstanden habe, wird dabei schnöde linear interpoliert, zwar aus vielen Punkten und gewichtet, aber eben linear wodurch keine höheren Ordnungen an räumlicher Informationen entstehen können. Artefakte mal ausgenommen bei sehr schnellen Bewegungen.
Auch diese letzte Hürde (x-y-frames) wird fallen, wenn es die Anzeigegeräte nicht mehr erfordern.
DLSS2.0 erstellt weiterhin neue Informationen pro Frame. Dazu werden Informationen aus vorigen Frames herangezogen. Deswegen liefert DLSS2.0 auch in niedrigen Auflösungen eine Qualität, die Lichtjahre besser ist als jede andere AA-Methode in Kombination mit Upscaling.
Im Gegensatz zu TAA, lässt sich das Ergebnis von DLSS aus dem Framebuffer vernünftig aufzeichnen und wiedergeben.
blaidd
2020-10-12, 12:49:16
Habt ihr das hier schon gesehen?
Ist eine non-proprietäres neuronales Supersampling a la DLSS (also ohne Tensor-Kerne oder sonstige spezifische Hardware). Wirkt recht vielversprechend, wenn man sich die Details im Paper ansieht... Entwickelt von Facebook Reality Labs, offenkundig mit VR im Hinterkopf (wobei das prinzipiell natürlich auch bei Non-VR-Applikationen funktionieren würde)
Paper (Neural Supersampling for Real-time Rendering) & Dev-Blog (https://research.fb.com/blog/2020/07/introducing-neural-supersampling-for-real-time-rendering/)
Kurzes Präsentations-Video:
OzHenjHBBds
Ich würde darauf wetten, dass wir in Sachen neuronales Upscaling/("Supersampling") in der absehbaren Zukunft bzw. in den nächsten Jahren noch mehr sehen werden...
Tobalt
2020-10-12, 12:59:50
steht paar posts weiter oben
Dampf
2020-10-12, 13:13:55
Interessant. Die Kosten sind aber deutlich höher als DLSS. So kostet es 18ms in 1080p auf einer Titan V. Zum Vergleich, DLSS kostet rund 2.4ms auf einer 2060.
Im Paper ist die Rede davon, dass die Präzision des DLNN 16bit ist, also FP16. Das heißt, das Modell sollte auf den Tensor Kernen laufen, da Volta FP16 Tensor Kerne unterstützt. Ohne Tensor Kerne wären die Kosten wohl noch viel höher.
So wie es also ist, hat es noch keine Relevanz für Gaming. Das wird aber sicherlich noch optimiert.
Armaq
2020-10-12, 13:17:39
Habt ihr das hier schon gesehen?
Ist eine non-proprietäres neuronales Supersampling a la DLSS (also ohne Tensor-Kerne oder sonstige spezifische Hardware). Wirkt recht vielversprechend, wenn man sich die Details im Paper ansieht... Entwickelt von Facebook Reality Labs, offenkundig mit VR im Hinterkopf (wobei das prinzipiell natürlich auch bei Non-VR-Applikationen funktionieren würde)
Paper (Neural Supersampling for Real-time Rendering) & Dev-Blog (https://research.fb.com/blog/2020/07/introducing-neural-supersampling-for-real-time-rendering/)
Kurzes Präsentations-Video:
https://youtu.be/OzHenjHBBds
Ich würde darauf wetten, dass wir in Sachen neuronales Upscaling/("Supersampling") in der absehbaren Zukunft bzw. in den nächsten Jahren noch mehr sehen werden...
Das muss ja auch kommen. Wie im Navi-Thread schon erwähnt, wäre ein Standard für sowas wie DX schon eine tolle Sache. Auch wenn jetzt wie immer die Top-Dog Vermarktung glüht, so ist das für alle Anwender eine tolle Technologie. Der 200€ Käufer freut sich natürlich auch darüber und ihm sind die teils esoterischen Qualitätsdiskussion sowieso egal. Auch die Umfrage von Leonidas das quasi als Default zu implementieren ist genau richtig. Opt-Out und nicht Opt-In muss die Logik sein.
dargo
2020-10-12, 13:25:05
Habt ihr das hier schon gesehen?
Ist eine non-proprietäres neuronales Supersampling a la DLSS (also ohne Tensor-Kerne oder sonstige spezifische Hardware). Wirkt recht vielversprechend, wenn man sich die Details im Paper ansieht... Entwickelt von Facebook Reality Labs, offenkundig mit VR im Hinterkopf (wobei das prinzipiell natürlich auch bei Non-VR-Applikationen funktionieren würde)
Paper (Neural Supersampling for Real-time Rendering) & Dev-Blog (https://research.fb.com/blog/2020/07/introducing-neural-supersampling-for-real-time-rendering/)
Kurzes Präsentations-Video:
https://youtu.be/OzHenjHBBds
Cool... in Zukunft reicht eine iGPU im Rechner für 4k+ Output. :D
Edit:
Ob sich AMD da schon Gedanken über ein eigenes Netzwerk für ein Äquivalent zu DLSS macht? :uponder:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12458149&postcount=7211
Ich frage mich nur wie das mit den Konsolen funktionieren soll? MS/Sony zahlen entsprechende Gebühren an AMD um auf solches Netzwerk zugreifen zu können?
pixeljetstream
2020-10-12, 14:04:07
Imo ist es viel wahrscheinlicher das MS/Sony das Zeug selbst entwickeln. Ala Facebook haben all diese Firmen die Hardware (GPU Cluster) und Forschungsabteilung dafür. Und vor allem Content.
dargo
2020-10-12, 14:11:07
Du meinst jeder für sich alleine? Ich kann mir nämlich kaum vorstellen, dass beide zusammen so ein Projekt stemmen wo dann beide darauf zugreifen.
Dampf
2020-10-12, 14:12:40
MS hat definitiv die Ressourcen dafür mit ihren Azure Servern. Bei Sony bin ich mir nicht ganz sicher, wie gut stehen die in KI da?
robbitop
2020-10-12, 15:05:42
Wäre interessant, ob man ein ähnliches NN auch mit INT4 nutzen kann, ohne zu viel Nachteile zu haben. Das würde in RDNA2 den Output schonmal vervierfachen.
NV hat mit ihren TCs natürlich massiv mehr Rechenleistung als reguläre Vektor ALUs mit FP16 in aktuellen GPUs liefern können.
Savay
2020-10-12, 15:05:49
Bei Sony bin ich mir nicht ganz sicher, wie gut stehen die in KI da?
Für ihre Kameras (AF u.a.) und Smartphones brauchen die das...sollten im Konzern also eigentlich nicht ganz unbefleckt sein.
NV hat mit ihren TCs natürlich massiv mehr Rechenleistung
Wird das denn überhaupt durch DLSS ausgereizt? Oder ist es wieder ähnlich wie mit DLSS 1.0 das ja am Ende eh gar nicht auf den TCs lief soweit ich das verstanden habe?
Und lohnt sich das auf Dauer überhaupt wenn es nicht durchgängig genutzt wird?
Sieht für nen Consumer Desktop für mich aktuell schon ein klein wenig aus wie ein One Trick Pony.
Armaq
2020-10-12, 15:06:18
Imo ist es viel wahrscheinlicher das MS/Sony das Zeug selbst entwickeln. Ala Facebook haben all diese Firmen die Hardware (GPU Cluster) und Forschungsabteilung dafür. Und vor allem Content.
Solange nvidia bei einer eventuellen späteren Öffnung ähnlich wie GSync zumindest kompatibel ist, würde das natürlich auch Sinn machen. ;)
robbitop
2020-10-12, 15:28:24
Wird das denn überhaupt durch DLSS ausgereizt? Oder ist es wieder ähnlich wie mit DLSS 1.0 das ja am Ende eh gar nicht auf den TCs lief soweit ich das verstanden habe?
Und lohnt sich das auf Dauer überhaupt wenn es nicht durchgängig genutzt wird?
Sieht für nen Consumer Desktop für mich aktuell schon ein klein wenig aus wie ein One Trick Pony.
Naja die Herausforderung ist es so wenig wie möglich Zeit für das Upsampling zu brauchen, denn diese wird auf die Gesamtframetime aufgeschlagen. Framerate sinkt dann also. Daher ist eine möglichst hohe Rechenleistung für diese Anwendung also sinnvoll. Mit TCs ist man bei FP16 schnell eine Größenordnung schneller.
Aber: man kann sicherlich das Upsampling mit der Berechung des nächsten Frames verschachteln, so dass man für das Upsampling mehr Zeit bekommt. ABER: +1 Frame Latenz und macht auch nur bei dedizierter HW wie TCs Sinn. Denn die TCs werden grundsätzlich hauptsächlich für das Upsampling genutzt. Bei regulären ALUs braucht man diese ja für beides.
Es ist ein one-trick-pony. Aber wie pjs sagt ein super Schnelles. Und so extrem groß schneint die HW dafür nicht zu sein. ML Upsampling scheint eine wesentliche Innovation zu sein (sicherlich noch einiges an Potenzial). Es macht schon Sinn, da zu investieren.
Wir wollen ja, dass die Computergrafik weiterkommt in Bezug auf Effekte und Detail. Also müssen wir jeden Pixel sensibel betrachten. 4K oder 8K brauchen halt ein Vielfaches an Leistung von 1080p oder 1440p.
Daredevil
2020-10-12, 16:01:53
Nochmal... dort wo du die Masse erreichst gibt es kein DLSS-Support (TU116/117). Und natürlich gibt es in diesem Bereich (auch drüber bis zu 2070 Super) Konkurrenz.
Was ist nochmal "Masse" für dich?
https://www.3dcenter.org/dateien/abbildungen/Mindfactory-Graphics-Card-Sales-2Q-2020.png
1050ti+1650+1650S+1660+1660S+1660TI > 11330Stk
2070S > 11720Stk
Asaraki
2020-10-12, 16:08:22
Ahjo, aber wenn ich (auch nicht zuverlässig) auf die Steamstats schaue dann haben ~10% der Leute DLSS.
Dein Bild zeigt ja höchstens, dass "in naher Zukunft" DLSS viel verbreiteter sein wird, aber du zeigst auch dass vor kurzem Leute noch ein Upgrade holten, welches kein DLSS unterstützt und diese Käufer im Schnitt wohl noch ein paar Jahre kein DLSS haben werden.
Und jetzt? Ist das die Masse? ^^
Savay
2020-10-12, 16:12:51
Es ist ein one-trick-pony. Aber wie pjs sagt ein super Schnelles. Und so extrem groß schneint die HW dafür nicht zu sein. ML Upsampling scheint eine wesentliche Innovation zu sein (sicherlich noch einiges an Potenzial). Es macht schon Sinn, da zu investieren.
Das cleveres "Upscaling" selbst die Zukunft ist stelle ich ja gar nicht in Frage...Ich fand ja schon TAA, vor allem für UHD, einen sehr brauchbaren Ansatz als noch viele über die Schärfe gemeckert haben.
Aber anders gefragt:
Wie skaliert DLSS 2.0 eigentlich mit dem theoretischen TC Durchsatz und wie ausgelastet sind die damit? Wieviel Fläche geht für die drauf? (gibt es dazu Messungen oder Zahlen?)
Ließe sich ein ähnliches Ergebnis auch auf anderem Weg erreichen?
Braucht nV die TC auf den Consumer Chips tatsächlich für DLSS oder gibt es DLSS in der Form am Ende um die TC mit irgendwas halbwegs sinnvollem zu füttern?
Wenn zudem 1.0 eh gar nicht auf den TC lief aber angeblich durchaus ein NN war, es bis zum Schluss aber sowieso quasi keiner gemerkt hat, frage ich mich ehrlich: Was soll diese HW wirklich auf Dauer in einem Consumer Chip bringen?!
FixedFunction TnL Reloaded?
Im ggs. zu RT Einheiten (Was wie ROPs und TMUs in Zukunft sicher in jeden Consumer Gaming Chip gehört) gibt das für mich leider bislang doch eher wenig wirklich belastbares dazu! :redface:
Oder ich habe es einfach nur verpasst!
Armaq
2020-10-12, 16:13:34
Die Verbreitung heute kann doch nicht ernsthaft das Argument sein? Natürlich haben das nicht viele. Aber sorum brauchen wir nichts probieren. Die Frage ist inwieweit kann man das schon bei der Entwicklung mit berücksichtigen (aka "nativ" supporten). Ich denke die Studios brauchen einfachen und schnellen Erfolg mit dem Zeug, es wird leider auch dazu kommen, dass nativ dann richtig scheiße läuft, weil mit DLSS waren es ja 60fps in 4k.
Dampf
2020-10-12, 16:15:39
es wird leider auch dazu kommen, dass nativ dann richtig scheiße läuft, weil mit DLSS waren es ja 60fps in 4k.
Das denke ich leider auch und ich glaube, das wird schneller kommen, als uns lieb ist.
Watch Dogs Legion scheint da der erste Kandidat zu sein. Hat DLSS sogar in den Systemanforderungen. Echt uncool, was ist mit RDNA2? Die Karten haben kein DLSS.
Habt ihr das hier schon gesehen?
Ist eine non-proprietäres neuronales Supersampling a la DLSS (also ohne Tensor-Kerne oder sonstige spezifische Hardware).
Wirkt recht vielversprechend, wenn man sich die Details im Paper ansieht...
....
Ich würde darauf wetten, dass wir in Sachen neuronales Upscaling/("Supersampling") in der absehbaren Zukunft bzw. in den nächsten Jahren noch mehr sehen werden...
+1 für die Zukunft.
"Theoretische Bilder", nahe der Realität ! , sind die Zukunft...
(NV hätte sein "DLSS" nicht so proprietäre halten sollen)
M.f.G. JVC
Dampf
2020-10-12, 16:57:58
Zukunft ist das erst, wenn jeder mitmacht. Wenn AMD auch ein DLSS Äquivalent hat, ist native Auflösung auf dem PC kein Thema mehr und es wird TAA ersetzen. Auf dem PC werden die Spiele dann automatisch einfach viel besser laufen und aussehen als auf den Konsolen und die sehr hohen Einstellungen am PC werden die massig freigeschaufelte Performance nutzen, um die Grafik ins nächste Level befördern.
dargo
2020-10-12, 17:14:44
Was ist nochmal "Masse" für dich?
Verkaufszahlen global in Millionen.
Was ist nochmal "Masse" für dich?
https://www.3dcenter.org/dateien/abbildungen/Mindfactory-Graphics-Card-Sales-2Q-2020.png
1050ti+1650+1650S+1660+1660S+1660TI > 11330Stk
2070S > 11720Stk
Deine Grafik zeigt übrigens eindrucksvoll wie armselig (über der 2070 Super hat AMD nicht mal was im Angebot) die Verkaufszahlen bei Mindfactory im Bereich Nvidia vs. AMD tatsächlich sind. Das sind nur 40% mehr und meilenweit von 80/20 entfernt.
Nvidia = 35.910 Stück
AMD = 25.715 Stück
Wie repräsentativ das für ganz Deutschland ist mag ich nicht beurteilen. Globale Übertragungen machen sowieso keinen Sinn, siehe ca. 80/20.
btw.
Von den 35.910 Nvidia Karten können 11.330 Karten gar kein DLSS, fast ein Drittel.
Watch Dogs Legion scheint da der erste Kandidat zu sein. Hat DLSS sogar in den Systemanforderungen.
Wo steht das?
https://www.computerbase.de/2020-09/watch-dogs-legion-systemanforderungen/
Ist sehe dort eine "poppelige" 5700 non XT bzw. RTX 2060 Super bei 1440p Ultra ohne Raytracing. Also absolut im zu erwarternden Rahmen. Schließlich muss das Spiel auch noch irgendwie mit den alten Konsolen skalieren. In 4k Ultra wird sogar eine Radeon VII mit RTX 2080TI gleichgestellt. Höchstwahscheinlich wegen dem Texturepack. Hier wird dann interessant zu sehen sein wie die RTX 3080 mit ihren 10GB und die RTX 3070 mit ihren 8GB abschneidet. *hust*
Wird das denn überhaupt durch DLSS ausgereizt? Oder ist es wieder ähnlich wie mit DLSS 1.0 das ja am Ende eh gar nicht auf den TCs lief soweit ich das verstanden habe?
Da TU116/117 keinen DLSS-Support haben wird es schon über die Tensor Cores laufen.
Dampf
2020-10-12, 17:46:53
@dargo Die Systemanforderungen wurden aktualisiert.
https://pbs.twimg.com/media/EkIpYBVXkAAmv-2?format=jpg&name=large
dargo
2020-10-12, 17:52:38
Ich sehe da nicht, dass DLSS für RT Off notwendig ist oder irgendwelche Voraussetzung. Steht nur in Verbindung mit RT On. Also werden die Nvidias ohne DLSS wieder schön mit RT einbrechen, spätestens mit RT Ultra. Bei RDNA2 verwendest du einfach RT medium bis high und schon passt die Sache. Wahrscheinlich musst du eh wieder die Lupe rauskramen um einen Unterschied zwischen RT ultra und RT high zu sehen bei wesentlich höheren Kosten für ultra.
btw.
Ich will erstmal einen sauberen D3D12-Renderer in WD:L sehen, dann reden wir weiter. ;)
Zukunft ist das erst, wenn jeder mitmacht. Wenn AMD auch ein DLSS Äquivalent hat, ist native Auflösung auf dem PC kein Thema mehr und es wird TAA ersetzen.
Träumer. :tongue: In 10+ Jahren vielleicht wenn du Glück hast und bis dahin nur eine Minderheit ohne entsprechende Hardware unterwegs ist.
Dampf
2020-10-12, 18:08:03
Ich sehe da nicht, dass DLSS für RT Off notwendig ist oder irgendwelche Voraussetzung. Steht nur in Verbindung mit RT On. Also werden die Nvidias ohne DLSS wieder schön mit RT einbrechen, spätestens mit RT Ultra. Bei RDNA2 verwendest du einfach RT medium bis high und schon passt die Sache. Wahrscheinlich musst du eh wieder die Lupe rauskramen um einen Unterschied zwischen RT ultra und RT high zu sehen bei wesentlich höheren Kosten für ultra.
btw.
Ich will erstmal einen sauberen D3D12-Renderer in WD:L sehen, dann reden wir weiter. ;)
Träumer. :tongue: In 10+ Jahren vielleicht wenn du Glück hast und bis dahin nur eine Minderheit ohne entsprechende Hardware unterwegs ist.
Naja wenn man bedenkt, dass die RT Reflektionen das einzige ist, was bei dem Spiel zeitgemäß aussieht, denke ich nicht dass man ohne RT spielen will :biggrin:
Das mit den RT Einstellungen mag stimmen. Was wenn Big Navi aber 4K60 in Watch Dogs Legion ohne Raytracing schafft, aber mit Raytracing auf Mittel auf 45 FPS einbricht? Bei einer 3080 kannst du dann DLSS aktivieren und hast wieder stabile 60 FPS, bei Big Navi geht das nicht. Da hilft nur die Auflösung oder Effekte deutlich runterzudrehen.
So ein Spiel sollte eigentlich mit Raytracing Mittel auf beiden Karten und ohne DLSS locker in nativem 4K60 laufen. Ich meine hast du dir das Spiel mal angesehen? 2015 hat angerufen und will sein Open World Spiel zurück!
https://www.play3.de/wp-content/uploads/2020/07/Watch-Dogs-Legion-4.jpg
dargo
2020-10-12, 18:18:09
Was wenn Big Navi aber 4K60 in Watch Dogs Legion ohne Raytracing schafft, aber mit Raytracing auf Mittel auf 45 FPS einbricht? Bei einer 3080 kannst du dann DLSS aktivieren und hast wieder stabile 60 FPS, bei Big Navi geht das nicht. Da hilft nur die Auflösung oder Effekte deutlich runterzudrehen.
Wie wärs wenn du einfach BigNavi abwarten würdest anstatt im Nebel zu stochern? Im übrigen juckt mich 4k überhaupt nicht, ich bin ein 1440p Gamer.
So ein Spiel sollte eigentlich mit Raytracing Mittel auf beiden Karten und ohne DLSS locker in nativem 4K60 laufen. Ich meine hast du dir das Spiel mal angesehen? 2015 hat angerufen und will sein Open World Spiel zurück!
Da bin ich voll bei dir. Visuell ist das Spiel nichts Besonderes, Lastgen Titel halt.
Armaq
2020-10-12, 18:22:21
Wie wärs wenn du einfach BigNavi abwarten würdest anstatt im Nebel zu stochern? Im übrigen juckt mich 4k überhaupt nicht, ich bin ein 1440p Gamer.
Da bin ich voll bei dir. Visuell ist das Spiel nichts Besonderes, Lastgen Titel halt.
Mit der Argumentation brauchst du ja dann auch nicht mehr mitreden?
DLSS 2.0 sieht live schon ziemlich gut aus. Das wird viel schneller Einzug halten als RT, denn die notwendigen Voraussetzungen sind deutlich besser. RT ist mit neuen Transistoren verbunden, eh das sich durch die Masse gerollt hat, dauert es einfach. DLSS und Alternativen werden - insofern man nicht zwanghaft Transistoren braucht - deutlich schneller adaptiert. Die Studios haben ja auch etwas davon! Also adressiert man den gesamten Markt mit allen Teilnehmern: Kunden, Creator, HW-Hersteller für jeden ist es ein Nutzen.
dargo
2020-10-12, 18:27:03
RT braucht neue Transistoren und Tensor Cores nicht? Ich empfehle sich nochmal genauer den Aufbau von SM anzuschauen.
https://pics.computerbase.de/9/4/7/2/3/21-1080.26a8fb37.png
Dampf
2020-10-12, 18:37:01
Mit der Argumentation brauchst du ja dann auch nicht mehr mitreden?
DLSS 2.0 sieht live schon ziemlich gut aus. Das wird viel schneller Einzug halten als RT, denn die notwendigen Voraussetzungen sind deutlich besser. RT ist mit neuen Transistoren verbunden, eh das sich durch die Masse gerollt hat, dauert es einfach. DLSS und Alternativen werden - insofern man nicht zwanghaft Transistoren braucht - deutlich schneller adaptiert. Die Studios haben ja auch etwas davon! Also adressiert man den gesamten Markt mit allen Teilnehmern: Kunden, Creator, HW-Hersteller für jeden ist es ein Nutzen.
Das macht nicht wirklich Sinn.
Raytracing braucht keine neue Hardware, es ist auf jeder Hardware lauffähig und dank neuen Technologien wie RTXGI auch flotter als bisher. Wenn eine GPU DXR Beschleunigung durch TMUs oder RT Cores hat, dann ist diese aber deutlich schneller.
So ein komplexes DLNN wie DLSS braucht hingegen ordentlich AI Compute Leistung und um es sinnvoll einzusetzen (also dass man einen großen Performance Boost bekommt) braucht man halt sowas wie die Tensor Kerne, die auf diese Aufgaben optimiert sind und von den Shader-Einheiten unabhängig sind.
Für ein, nennen wir es mal DLSS Lite auf den ALUs mit schlechterer Qualität und Performance als DLSS 2.0, also quasi ein DLSS 1.9 mit der Performance von DLSS 1.0 sind zumindestens INT8-4 Instruktionen erforderlich, die auch nicht auf jeder GPU freigeschaltet sind.
IMO braucht man da schon neue Hardware.
why_me
2020-10-12, 18:38:22
DLSS 2.0 sieht live schon ziemlich gut aus. Das wird viel schneller Einzug halten als RT, denn die notwendigen Voraussetzungen sind deutlich besser.
Du meinst, dass es nur bei einem von drei Herstellern läuft? :confused:
Falls du eine offene Alternative von DLSS meinst, dann hast du vielleicht recht.
Asaraki
2020-10-12, 19:16:51
Du meinst, dass es nur bei einem von drei Herstellern läuft? :confused:
Falls du eine offene Alternative von DLSS meinst, dann hast du vielleicht recht.
Nö, davon unabhängig.
DLSS ist YAY und RTX ist nice to have. DLSS rockt einfach mal richtig. I fucking love it und ich sag das nur aus meiner Sicht als Benutzer.
Davon abgesehen : Proprietär stinkt, klar. Ist aber wurst, sollen's die anderen halt nachmachen. Möchte euch sehen ständig eure Vorteile auf dem Markt frei zu machen :)
why_me
2020-10-12, 19:23:13
Solange DLSS proprietär bleibt, kannst du es noch so loben, es wird den gleichen Tod wie PhysX sterben und sich nicht breit durchsetzen. Da einfach die Zielgruppe zu klein ist und für die "anderen" immer noch etwas implementiert werden muss...
basix
2020-10-12, 19:28:39
Weiss jemand, wie das mit der Patentsituation rund um DLSS aussieht? (Wie) hat Nvidia da ihre Technologie abgesichert?
Tobalt
2020-10-12, 19:35:59
Prioritär ist Scheiße ja.
Aber DLSS spielt in einer ganz anderen Liga als Physx, als Gsync oder andere nvidia Tech. es ist wirklich disruptiv und ich würde sagen dass man damit eher die Konkurrenten killt, als die proprietäre Technologie.
AMD ist gezwungen etwas ähnliches zu machen und zwar schnell. Wenn deren Karten bei nativem Rendering angenommen 5% besser sind aber gegenüber DLSS dann 20% hinterherlaufen, kann man noch so laut "unfair" rufen.. es juckt den anwender dann nicht.
dargo
2020-10-12, 19:58:06
Noch vergleichen Reviewer nativ gegen nativ. Und solange sich daran nichts ändert mache ich mir da keine Sorgen. Zumal der DLSS-Support auch noch mager ist.
pixeljetstream
2020-10-12, 19:59:03
IMO ist DLSS mit der alten physx Situation nicht vergleichbar (Physx ist heute ja Quelloffen). Physx war riesig und stellte praktisch alles an Funktionalität. Ironischerweise klappte es ja auch für nv kaum was damit zu machen weil letztendlich nur der CPU Teil erfolgreich war der überall lief, auch auf den Konsolen. Wäre es sinnvoll gewesen eine openphysik Standard zu haben, im Nachhinein kann man sagen dass es nicht notwendig war (gab ja auch von sonst keinem Bestreben das was zu machen)
DLSS2 ist durch den gtc Vortag hinreichend erklärt wie es mit der Applikation interagiert (gucken sich scheinbar hier nur wenig an). Das Interface ist also minimal für etwas was eh schon ne Form von TAA macht. Ergo wissen die Hersteller welchem Interface sie folgen könnten (solange es nicht fundamental anders ist, ist’s für Entwickler einfach sowas anzupassen). Und ich bin mir sicher wenn wir mehrere Implementierungen von anderen hätten, würde die spielehersteller das auch einfach einbauen. Gibt ja schon genug Titel wo man zwischen zig AA Verfahren wählen kann.
Es liegt nicht an NV wenn die anderen nix haben.
Kein Hersteller stellt die Implementierung eines Standards zur Verfügung (auch von AMD muss man lizensieren). Sie einigen sich (getrieben oder demokratisch) auf interfaces wenn diese sich als stabil herauskristallisieren im Austausch mit Entwicklern. Dafür haben dann alle Beteiligten auch etwas vorzulegen.
IMO ist das hier nicht unbedingt sinnvoll einzelne AA Verfahren zu standardisieren wenn eh noch viel Bewegung drin ist (gibt es ja viele und jeder Entwickler macht seinen eigene flavor).
Das wir in Zeiten von teureren Chips/Entwicklung immer mehr versuchen aus weniger Berechnungen mehr herauszuholen, macht diese Technik halt sehr wertvoll für die Zukunft. Ergo glaube ich nicht an den guten Samariter der sein Netzwerk hier veröffentlicht... weil es macht ja auch sonst keiner (wieviel Engines/Spiele sind so offen dass es der Konkurrenz nutzen kannn?)
dargo
2020-10-12, 20:01:49
IMO ist DLSS mit der alten physx Situation nicht vergleichbar (Physx ist heute ja Quelloffen). Physx war riesig und stellte praktisch alles an Funktionalität. Ironischerweise klappte es ja auch für nv kaum was damit zu machen weil letztendlich nur der CPU Teil erfolgreich war der überall lief, auch auf den Konsolen.
Du sprichst ja schon das generelle Problem von DLSS aktuell an. :wink:
aufkrawall
2020-10-12, 20:02:05
Mir stinkt NVs Verhalten zwar auch, aber bei DLSS kann ich es nachvollziehen: Bislang ist das in der praktikablen Form völlig außer Konkurrenz, warum sollten sie da den Samariter spielen.
pixeljetstream
2020-10-12, 20:07:15
Du sprichst ja schon das generelle Problem von DLSS aktuell an. :wink:
Wo siehst du einen Zusammenhang mit einem AA Verfahren (die es wie Sand am Meer gibt) und der Physik die existentieller Teil dr Funktionsweise eines Spiels ist.
dargo
2020-10-12, 20:10:45
Mir stinkt NVs Verhalten zwar auch, aber bei DLSS kann ich es nachvollziehen: Bislang ist das in der praktikablen Form völlig außer Konkurrenz, warum sollten sie da den Samariter spielen.
Es geht hier nicht um Samariter spielen, NV kann machen was sie wollen. Du siehst ja schon selbst am Post von Tobalt wohin das führt. Sollen jetzt auf der einen Seite Reviewer bei Grafikkarten die eine mit DLSS und die andere ohne testen? Das wäre so als wenn ich früher Karte X ohne MSAA und Karte Y mit 8xMSAA benchen würden. Benchmarks sollte man immer mit gleichen Waffen durchführen. Und hier heißt das nach wie vor nativ vs. nativ mit gleichen Details bei den üblichen Bildschirmauflösungen. DLSS ist bei dieser Betrachtung schon praktisch ein Cheat. Denn die zusätzlichen Bildinformationen bzw. der endgültige Output kommen nicht alleine aus der Grafikkarte die im Rechner verbaut ist, sondern von einem externen Supercomputer.
Wo siehst du einen Zusammenhang mit einem AA Verfahren (die es wie Sand am Meer gibt) und der Physik die existentieller Teil dr Funktionsweise eines Spiels ist.
Da müsstest du mir erstmal die AA-Verfahren die es wie Sand am Meer gibt erklären. Ich kenne heute nur zwei Varianten. TAA und MSAA. Letzteres stirbt aus außerhalb von Forward(+).
pixeljetstream
2020-10-12, 20:16:50
Dargo hast du dir je den GTC vortrag zu DLSS 2 komplett angeschaut?
Und warum musst du mehr AA Verfahren kennen um den Zusammenhang mir zu erklären, Du hast den zwischen physx und DLSS doch hergestellt? Meine Aussage war dass man die Situation nicht vergleich kann. Du hast dagegen gehalten.
pixeljetstream
2020-10-12, 20:30:19
Benchmarks sollte man immer mit gleichen Waffen durchführen. Und hier heißt das nach wie vor nativ vs. nativ mit gleichen Details bei den üblichen Bildschirmauflösungen.
Finde ich auch. Allerdings finde ich zusätzliche Vergleiche, wie man ja das gleiche Spiel auf verschiedenen Konsolen vergleicht auch interessant.
Nativ klingt etwas komisch IMO, gleiche Details impliziert ja gleiche settings.
dargo
2020-10-12, 20:52:51
Dargo hast du dir je den GTC vortrag zu DLSS 2 komplett angeschaut?
Falls du das hier meinst... ja.
https://youtu.be/d5knHzv0IQE
Mir fällt bei den tollen Marketingsprüchen leider immer wieder auf, dass man sich für den nativen Vergleich die schlechtesten TAA-Implementierungen aussucht. Dazu zählt auch diese UE4-Infiltrator Demo. Würde man das mit Implementierungen @Wolfenstein oder Division 2 vergleichen würde das ganze schon etwas anders aussehen. Bei Wolfenstein hatten wir hier schon über das Kantenflimmern mit DLSS 2.0 gesprochen @1440p, welches mit TAA in dieser Auflösung nicht vorhanden ist.
Und warum musst du mehr AA Verfahren kennen um den Zusammenhang mir zu erklären, Du hast den zwischen physx und DLSS doch hergestellt? Meine Aussage war dass man die Situation nicht vergleich kann. Du hast dagegen gehalten.
Ich kann dir auch sagen warum. Ich halte nichts von proprietären Implementierungen! Das spaltet nur unnötig PC-Gaming. Und wenn AMD mit eigenem Netzwerk kommt macht das die Sache kein Stück besser. Im schlimmsten Fall hast du dann Game A mit DLSS und Game B mit dem Gegenpart von AMD. Beide Spiele unterstützen aber nur jeweils eine Implementierung. Irgendwann denkt sich der Gamer.... leckt mich am Arsch ich kaufe mir eine Konsole. Und das ist eigentlich die Gefahr dabei. Ich möchte nicht wieder die Zeiten von XBox360/PS3 zurück wo Entwickler von AAA kaum noch Interesse an der PC-Plattform hatten. Ohne Spiele ist diese Plattform tot.
pixeljetstream
2020-10-12, 23:23:28
Die Implementierung von standards ist auch proprietär, du bekommst weder von AMD noch Intel den source code von standards wie DX, noch kannst du Details deren Umsetzung in hw ohne Lizenz nutzen.
Du kannst als Entwickler auch nicht den Code von id software's TAA Variante nutzen. Es ist "normal" das die Leute die die Kosten tragen details nicht der Konkurrenz überlassen. Aber id gehört ja bald MS dann können die über die Technologie leichter verfügen.
Der "Gegenpart" der anderen Hersteller sorgt für weiteren Fortschritt. AMD hat ja auch nicht mantle implementierung open sourced um dx12/vk zum Fortschritt zu beeinflussen. Es reichten die Interfaces/Ideen.
Aber nun sind wir wieder off topic ;)
aufkrawall
2020-10-12, 23:42:59
Nur mit dem Unterschied, dass AMD die Studios nicht dazu bewegt, proprietäre Lib-Binaries in die Spiele einzupflanzen, die früher oder später ständig Ärger machen. Entsprechend liest man immer wieder mal, der Entwickler muss sein Spiel erst updaten, damit es wieder mit neuen NV-Treibern läuft etc. ;)
Soo ein hässliches Vorgehen, leider typisch NV. :(
pixeljetstream
2020-10-12, 23:53:54
Ist mir gerade nicht klar was du meinst. Wäre der Bug im source des games, braucht es doch genauso ein Update davon?
Oder Du meinst der Bug sollte wenn dann nur in Treiber binaries sein, aber dann ist's ja auch im proprietären binary Teil?
Oder rein aus Linux Sicht die Möglichkeit Bugs selbst zu fixen egal wo sie sind? Da hast natürlich Recht.
Aber solange es diese metakritik ist, ist's ja eher generisch als DLSS bezogen.
Armaq
2020-10-13, 00:18:32
Wir reden ja auch nicht von unendlich vielen Möglichkeiten. Wir reden effektiv von 2 Spielern am Markt. Zwei Varianten, ich implementiere eine oder zwei, dass ist für die Studios sicherlich machbar, aber es gibt noch Unternehmen wie Microsoft. :)
Also ich denke DLSS wird sich etablieren, aber kurz bis mittelfristig durch einen gemeinsamen Standard ersetzt. Es wurde bei PhysX auch mal gesagt, dass das nur mit Nvidia HW gut gehen würde usw. Die Technologie als solche ist aus meiner Sicht ein echter Killer, denn gerade auf Konsolen wo die Rechenleistung konstant bleibt, kann ich mit solchen Methoden die BQ erhöhen. Die Frage ist halt wie man das gut monetarisiert. Über GeForceNow nen Abo abschließen, damit ich immer die neuesten Updates bekomme? Man wird sich sicherlich etwas einfallen lassen.
Ich denke MS wäre der beste Kandidat für einen Standard, zuerst haben sie ein abartig gutes Azure-Gaming Angebot. Zuerst könnten sie mit ihren eigenen Studios die Technologie einsetzen und dann können sie jetzt noch einen solchen Standard etablieren via DirectX, dann hätten alle was davon und es würde Windows als Gaming Plattform weiter treiben, es würde Azure Gaming weiter pushen usw.
@pixel - ich hatte sogar nen Ticket, konnte aber nicht teilnehmen.
dargo
2020-10-13, 06:30:10
@pixeljetstream
Bin mir nicht sicher ob du weißt worauf ich hinaus will. Thema Mantle... als Weiterentwicklung wurde daraus D3D12 sowie Vulkan wonach sich auch Nvidia ausgerichtet hat. Jetzt haben wir einen Standard wo alle IHVs (auch Intel) sich danach ausrichten. Stelle dir mal vor Nvidia hätte weiterhin Glide. Wozu würde das in der PC-Plattform führen? Chaos³ + wesentlich mehr Aufwand für Entwickler wo viele irgendwann die Schnauze voll hätten. Ich habe grundsätzlich nichts gegen DLSS von Nvidia wenn sich daraus in naher Zukunft ein Standard entwickelt. Ich hatte auch nie was gegen PhysX von Nvidia welches cpu-seitig weit verbreitet war, auch auf den Konsolen. Dagegen hatte ich sehr wohl was gegen GPU beschleunigtes PhysX welches zurecht tot ist.
Wir reden ja auch nicht von unendlich vielen Möglichkeiten. Wir reden effektiv von 2 Spielern am Markt. Zwei Varianten, ich implementiere eine oder zwei, dass ist für die Studios sicherlich machbar, aber es gibt noch Unternehmen wie Microsoft. :)
Zwei Varianten? Wie kommst du darauf? Im schlimmsten Fall hast du fünf Varianten... Nvidia, AMD, Intel, Sony und Microsoft. Ja... darauf freuen sich Multiplattform-Entwickler ganz bestimmt.
Nightspider
2020-10-13, 06:36:54
Am Ende bringen Sony, MS und AMD zusammen eine eigene Technik und die Spieleentwickler werden recht zügig diese Variante umsetzen.
Wer weiß....einfach mal abwarten. Aber sehr groß ist die Unterstützung für DLSS ja noch nicht.
pixeljetstream
2020-10-13, 07:51:39
@pixeljetstream
Bin mir nicht sicher ob du weißt worauf ich hinaus will. Thema Mantle... als Weiterentwicklung wurde daraus D3D12 sowie Vulkan wonach sich auch Nvidia ausgerichtet hat. Jetzt haben wir einen Standard wo alle IHVs (auch Intel) sich danach ausrichten.
Deine vorherige Aussage war dass die proprietäre Implementierung das Problem sei. Mantle war aber genau das, AMD hat die Implementierung davon nicht veröffentlicht. Wie von mir geschrieben reichte es das Interface/Konzepte der api zu pushen (was man mit den Interfaces aus dem dlss2 Vortrag vergleichen kann). Der Vergleich zu glide hinkt, da es ja durchaus schon andere apis gab und NV stets in GL sowie nun VK sehr aktiv ist.
Bei DLSS ist das Problem das die anderen nix haben, ergo kann man auch nix standardisieren/diskutieren. Bei mantle gab es dx11 und GL für alle, was man beeinflusst hat.
Da ich unmittelbar an der Entwicklung von Vulkan beteiligt war/bin, ist mir der exakte Ablauf hier wohl vertraut.
IMO unterschätzt ihr das Wechselspiel aus Algorithmus und hw Fähigkeiten. Ein Standard setzt mehr oder weniger fest wie jeder Pixel auszusehen hat. Das würde hier bedeuten alle müssen das gleiche berechnen. Jetzt ist der Algorithmus von DLSS aber darauf abgestimmt dass es TC gibt. Ein anderer Hersteller würde sich dem Thema anders nähern, und damit zwangsläufig andere Berechnung/Ergebnisse erzielen weil dies flotter für die Architektur wäre. (So wie wir das früher ja auch hatten bei den diversen Vorläufern MLAA war eher auf AMD abgestimmt, TXAA NV etc.). Erst wenn alle Hersteller nun Iterationen in Sachen DLSS hinter sich haben in Erfahrung und Implementierung kann man was standardisieren. Gegebenenfalls mit Abweichungen wie bei anisotropic filtering um Herstellern mehr Spielraum zu geben (hypothetisch). Das halte ich aber im jetzt eben noch zu früh und Innovations hemmend, weil das Resultat eingefroren wäre. Diese Form der Stabilität (dx11 überdauert Jahre etc.) haben wir bei AA Algorithmen aber nicht.
dargo
2020-10-13, 08:10:23
Bei DLSS ist das Problem das die anderen nix haben, ergo kann man auch nix standardisieren/diskutieren.
So wie ich es verstanden habe warten die anderen auf die DirectML-Implementierung von Microsoft. Insofern fehlt noch die passende Schnittstelle.
pixeljetstream
2020-10-13, 08:15:40
Zwei Varianten? Wie kommst du darauf? Im schlimmsten Fall hast du fünf Varianten... Nvidia, AMD, Intel, Sony und Microsoft. Ja... darauf freuen sich Multiplattform-Entwickler ganz bestimmt.
Es gibt auch noch mobile und ne Switch ;)
Das ist schon Realität der Multiplatform Entwicklung, es wird durch sowas nicht schlimmer. Trotz Standards wie DX/Vk bekommen Hersteller unterschiedliche Codepfade auch in diversen PC Spielen.
dargo
2020-10-13, 08:20:49
Es gibt auch noch mobile und ne Switch ;)
Ich weiß... die PC-Ports bei AAA erscheinen aber in der Regel eher nicht für mobile und eine Switch. Zumindest nicht die Versionen die wir am PC bekommen. Was ja auch Sinn macht, die Leistungsspanne ist einfach zu groß. Irgendwann bekommst du Schwierigkeiten mit der Skalierung der Games.
Armaq
2020-10-13, 09:28:28
Deine vorherige Aussage war dass die proprietäre Implementierung das Problem sei. Mantle war aber genau das, AMD hat die Implementierung davon nicht veröffentlicht. Wie von mir geschrieben reichte es das Interface/Konzepte der api zu pushen (was man mit den Interfaces aus dem dlss2 Vortrag vergleichen kann). Der Vergleich zu glide hinkt, da es ja durchaus schon andere apis gab und NV stets in GL sowie nun VK sehr aktiv ist.
Bei DLSS ist das Problem das die anderen nix haben, ergo kann man auch nix standardisieren/diskutieren. Bei mantle gab es dx11 und GL für alle, was man beeinflusst hat.
Da ich unmittelbar an der Entwicklung von Vulkan beteiligt war/bin, ist mir der exakte Ablauf hier wohl vertraut.
IMO unterschätzt ihr das Wechselspiel aus Algorithmus und hw Fähigkeiten. Ein Standard setzt mehr oder weniger fest wie jeder Pixel auszusehen hat. Das würde hier bedeuten alle müssen das gleiche berechnen. Jetzt ist der Algorithmus von DLSS aber darauf abgestimmt dass es TC gibt. Ein anderer Hersteller würde sich dem Thema anders nähern, und damit zwangsläufig andere Berechnung/Ergebnisse erzielen weil dies flotter für die Architektur wäre. (So wie wir das früher ja auch hatten bei den diversen Vorläufern MLAA war eher auf AMD abgestimmt, TXAA NV etc.). Erst wenn alle Hersteller nun Iterationen in Sachen DLSS hinter sich haben in Erfahrung und Implementierung kann man was standardisieren. Gegebenenfalls mit Abweichungen wie bei anisotropic filtering um Herstellern mehr Spielraum zu geben (hypothetisch). Das halte ich aber im jetzt eben noch zu früh und Innovations hemmend, weil das Resultat eingefroren wäre. Diese Form der Stabilität (dx11 überdauert Jahre etc.) haben wir bei AA Algorithmen aber nicht.
Ich gehe davon aus, dass die anderen jetzt erstmal ihre Version machen müssen. Alles andere wäre tatsächlich auch grober Unfug.
Übernächste Grafikkarten-Generation und die nächste Konsolengeneration haben das in einem Standard. Ich will es gerne selbst sehen bei Cyberpunk.
pixeljetstream
2020-10-13, 10:26:26
An der Stelle muss ich noch mal kleinlich sein. Entwickler wünschen sich nicht einzelne Verfahren zu standardisieren, sondern standardisierte APIs (DirectML/DX und die passende hw) um selbst Verfahren zu entwickeln. Damit bleibt alles flexibel und sie können durch ihre proprietäre Technik (fast keine Engine ist Open source) sich spezialisieren und von Konkurrenten abheben.
IMO wird der Begriff Standard hier deswegen unpassend benutzt, auch wenn klar ist was gemeint war. Es soll überall laufen mit ähnlicher Wirkung mit Hilfe von Standards ohne selbst einer zu werden.
basix
2020-10-13, 11:36:28
Ich denke die Engine-Entwickler wollen vor allem etwas, was bei allen Marktteilnehmern über die selbe API läuft. Das kann zum Beispiel Direct Compute oder DirectML sein. Das ist für sie für den Anfang der geringste Aufwand. Optimieren kann man dann immer noch (z.B. via NVAPI).
Kleine Entwicklerbuden können mangels Know-How/Workforce etwas von der Stange nehmen (z.B. UE4 mit inhouse Upsampling oder DLSS)
Klar ist mMn aber, dass DLSS und seine Geschwister zukünftig ein breit verbreiteter Standard sein werden. Die Vorteile sind einfach zu gross, um es links liegen zu lassen. Dynamic Resolution Scaling inkl. DLSS hört sich nämlich sehr sexy an. Und für gewisse Anwendungsbereiche wie 8K, 8K/120 oder VR und obendrauf noch Raytracing würde die Rechenleistung ohne entsprechende Upsampling-Techniken, Denoising und Foveated-Rendering noch eine Ewigkeit nicht reichen.
8K mit DLSS Performance ist heute schon mit 60fps in vielen Spielen machbar. Die Renderauflösung beträgt dann 4K, was mittlerweile doch ein paar Karten vernünftig stemmen. Wer hätte vor 1-2 Jahren gedacht, dass 8K/60 so schnell nutzbar sein wird?
Armaq
2020-10-13, 12:07:02
An der Stelle muss ich noch mal kleinlich sein. Entwickler wünschen sich nicht einzelne Verfahren zu standardisieren, sondern standardisierte APIs (DirectML/DX und die passende hw) um selbst Verfahren zu entwickeln. Damit bleibt alles flexibel und sie können durch ihre proprietäre Technik (fast keine Engine ist Open source) sich spezialisieren und von Konkurrenten abheben.
IMO wird der Begriff Standard hier deswegen unpassend benutzt, auch wenn klar ist was gemeint war. Es soll überall laufen mit ähnlicher Wirkung mit Hilfe von Standards ohne selbst einer zu werden.
Hm, ich dachte schon an Standard und nicht an API, sonst hätte ich API geschrieben. Aber ich kann dir da folgen und stimme dir auch komplett zu. Es geht schon auch darum sich zu differenzieren über bessere Nutzung von Technologie.
Warum glaubst du ist das eigentlich so, der fehlende OpenSource-Anteil? Ich mein Nvidia ist nicht wirklich beliebt in den Kreisen, AMD hat sich da etwas besser gestellt. Wenn ich selbst differenziere und mal den ganzen Infrastruktur-Markt nehme (in dem ich mich dann doch ein wenig auskenne), dann ist mir klar, dass alles was Infrastruktur (IaaS, PaaS, SaaS) ist, natürlich vor allem Mittel zum Zweck ist. Shared development cost sind da natürlich einfach und die Linux Foundation ist ja ganz solide aufgestellt.
Aber ich tue mich schwer so etwas wie DLSS nicht auch als Mittel zum Zweck zu sehen. Ein Endprodukt hast du nicht, du wendest es darauf an. Ergo nicht soweit weg von dem Infra-Sektor.
Dampf
2020-10-13, 12:16:50
Nvidia muss DLSS 2 halt in möglichst viele Engines integrieren, also nicht nur in UE4/5 und Unity, sondern auch in Entwickler-eigene Engines wie Northlight Engine, Decima Engine, Frostbite, 4A Engine, RED Engine, Crystal Engine und was es nicht noch alles gibt!
Dann wird DLSS auch in jedem zukünftigen Game verfügbar sein.
Außerdem müssen sie diese Motion Vektor-Schmier Probleme bzw das Nachziehen von kleinen Partikeln in Death Stranding und andere Spiele lösen, dann ist DLSS nämlich fast perfekt und qualitativ TAA deutlich überlegen.
dargo
2020-10-13, 13:10:02
An der Stelle muss ich noch mal kleinlich sein. Entwickler wünschen sich nicht einzelne Verfahren zu standardisieren, sondern standardisierte APIs (DirectML/DX und die passende hw) um selbst Verfahren zu entwickeln. Damit bleibt alles flexibel und sie können durch ihre proprietäre Technik (fast keine Engine ist Open source) sich spezialisieren und von Konkurrenten abheben.
IMO wird der Begriff Standard hier deswegen unpassend benutzt, auch wenn klar ist was gemeint war. Es soll überall laufen mit ähnlicher Wirkung mit Hilfe von Standards ohne selbst einer zu werden.
Eigentlich meinte ich die ganze Zeit standarisierte APIs bzw. Schnittstellen. Nichts anderes ist auch DXR zum Beispiel. Ich dachte es wäre aus meinen Posts klar herauslesbar.
pixeljetstream
2020-10-13, 13:41:33
Eigentlich meinte ich die ganze Zeit standarisierte APIs bzw. Schnittstellen. Nichts anderes ist auch DXR zum Beispiel. Ich dachte es wäre aus meinen Posts klar herauslesbar.
Selbst jetzt ist mir nicht klar ob du eine Funktion wie „resolveDLSS(blah,...)“ als Teil von dx willst.
robbitop
2020-10-13, 14:27:46
Wobei ich vermute, dass es ein zu großer Brocken sein wird, dass jedes Studio ihr eigenes Verfahren inkl NN hat. Das ist eine ganze Menge Forschung in eine zT andere Richtung als man sonst arbeitet. Ein verdammt großes Investment. Ich tippe darauf, dass es die IHVs anbieten werden müssen.
robbitop
2020-10-13, 14:47:17
Nvidia muss DLSS 2 halt in möglichst viele Engines integrieren, also nicht nur in UE4/5 und Unity, sondern auch in Entwickler-eigene Engines wie Northlight Engine, Decima Engine, Frostbite, 4A Engine, RED Engine, Crystal Engine und was es nicht noch alles gibt!
Das passiert ja bereits sichtbar.
Northlight hat es -> Control
Decima hat es -> Death Stranding
RED scheint es auch zu bekommen -> Cyberpunk soll es haben und Witcher 3 Remaster soll es auch bekommen
Frostbyte -> Anthem (aber nur Version 1)
4A hat es -> Metro Exodus (aber nur Version 1)
IMO wird die Durchdringung immer größer werden, weil man da ansetzt, was man zu einem Großteil ohnehin für TAA braucht.
dargo
2020-10-13, 15:24:39
Decima hat es -> Death Stranding
Hier ist nur ein Gedankenfehler. Horizon: Zero Dawn hat es nicht trotz Decima und das Spiel kam nach Death Stranding. Ich sehe also noch lange keine Garantie für DLSS nur weil man es in eine Engine implementiert hat.
robbitop
2020-10-13, 15:33:56
Zero Dawn ist aber ein Spiel von 2017 was in diesem Jahr für den PC lediglic portiert wurde. Das hat sicherlich eine etwas andere Basis der Decima Engine.
Allerdings hast du schon Recht. Eine Implementierung im Spiel heißt nicht, dass es in der Engine selbst implementiert ist und somit automatisch alle folgenden Spiele betrifft. Das ist wohl auch schwierig - die Studios customizen am Ende doch relativ viel an der Engine - eigene Tools etc. Entsprechend dauert es sicher eine Weile, bis die Änderung einer entsprechenden Engine Iteration dann auch automatisch im nächsten Spiel erscheint.
Dampf
2020-10-13, 16:33:17
Ja, deswegen muss es ja eine Engine Integration wie in der UE4 geben, nur pro Spiel nützt es nichts!
robbitop
2020-10-13, 16:57:09
Naja „nichts nützen“ ist relativ. Ich würde sagen seit es dlss 2.0 sind schon sehr viele neue Releases mit DLSS. Und es werden immer mehr.
Dampf
2020-10-13, 17:10:17
Naja „nichts nützen“ ist relativ. Ich würde sagen seit es dlss 2.0 sind schon sehr viele neue Releases mit DLSS. Und es werden immer mehr.
Das ist natürlich wahr, die meisten kommenden Titel werden DLSS kriegen.
Schade nur, dass es solche Ausreißer wie AC Valhalla und Horizon gibt.
dargo
2020-10-13, 17:15:50
Das ist natürlich wahr, die meisten kommenden Titel werden DLSS kriegen.
Quelle?
In 3 Tagen kommt Dirt 5 mit Ray Tracing und afaik ohne DLSS (bitte korrigieren falls ich hier falsch liege). Was danach kommt müssen wir abwarten.
aufkrawall
2020-10-13, 17:21:35
Ist mir gerade nicht klar was du meinst. Wäre der Bug im source des games, braucht es doch genauso ein Update davon?
Ich würde annehmen, dass bei nahtloserer Integration durch den Spieleentwickler selbst es manche Bugs gar nicht erst gäbe.
Oder rein aus Linux Sicht die Möglichkeit Bugs selbst zu fixen egal wo sie sind? Da hast natürlich Recht.
Eher aus Sicht der ganz normalen GeForce Windows-Endanwenders. Wenn der "NV-Pfad" ansonsten gar nicht genutzt wird, hat man die Probleme ja nicht.
Aber solange es diese metakritik ist, ist's ja eher generisch als DLSS bezogen.
Jein. Leider scheint es durch NV keine Bemühungen zu geben, das innerhalb von D3D/Vulkan zu pushen; anders als RT. :(
Lässt sich DirectML derzeit überhaupt in hochperformanter Echtzeitgrafik sinnvoll nutzen?
Dampf
2020-10-13, 17:30:18
Quelle?
In 3 Tagen kommt Dirt 5 mit Ray Tracing und afaik ohne DLSS (bitte korrigieren falls ich hier falsch liege). Was danach kommt müssen wir abwarten.
Naja gut, die meisten für mich relevanten Titel zumindest.
Cyberpunk zum Beispiel, der größte Hit des Jahres!
dargo
2020-10-13, 17:46:34
Naja gut, die meisten für mich relevanten Titel zumindest.
Cyberpunk zum Beispiel, der größte Hit des Jahres!
Finde den Fehler. :freak: Was den größten Hit des Jahres angeht da gehen die Meinungen doch etwas auseinander. ;) Ich sehe jedenfalls bisher nichts was diesem Hype gerecht wird.
btw.
Ich bin mir aber ziemlich sicher, dass dich DLSS 2.0 in Cyberpunk 2077 überzeugen wird. Ist nur kein Wunder bei der miesen TAA-Implementierung inkl. Postprocessingseuche.
_K4PDdW68n4
Es ist 4k und die Grafik sieht aus wie 1080p (wenn nicht sogar weniger) upscaled. Content ist auch sowas von Lastgen.
Karümel
2020-10-13, 19:03:51
Gibt es eigentlich eine Übersicht welche Engines jetzt DLSS unterstützen?
Dampf
2020-10-13, 19:11:26
Mies ist da das CA, das man aber bestimmt abschalten kann.
Armaq
2020-10-13, 19:12:51
Finde den Fehler. :freak: Was den größten Hit des Jahres angeht da gehen die Meinungen doch etwas auseinander. ;) Ich sehe jedenfalls bisher nichts was diesem Hype gerecht wird.
btw.
Ich bin mir aber ziemlich sicher, dass dich DLSS 2.0 in Cyberpunk 2077 überzeugen wird. Ist nur kein Wunder bei der miesen TAA-Implementierung inkl. Postprocessingseuche.
https://youtu.be/_K4PDdW68n4
Es ist 4k und die Grafik sieht aus wie 1080p (wenn nicht sogar weniger) upscaled. Content ist auch sowas von Lastgen.
Ja, total last gen. Meinst nicht du bist etwas verbittert?
dargo
2020-10-13, 19:37:49
Mies ist da das CA, das man aber bestimmt abschalten kann.
Chromatische Aberration wird nicht über das gesamte Bild "geworfen", schau mal genauer hin. ;)
pixeljetstream
2020-10-13, 20:01:50
Jein. Leider scheint es durch NV keine Bemühungen zu geben, das innerhalb von D3D/Vulkan zu pushen; anders als RT. :(
Lässt sich DirectML derzeit überhaupt in hochperformanter Echtzeitgrafik sinnvoll nutzen?
Unter Vulkan leiten wir auch die Arbeitsgruppe für ML. Sowas zieht sich. Gerade wenn nur einer viel in hw hat. Standardisiertes Vulkan raytracing ist nachwievor nicht fertig.
Es ist einfach diesmal so. Auch wenn es arrogant klingt, das NV da gerade zu weit ist. Erst wenn mehrere Hersteller passende hw haben und kommerziellen Sinn in consumer APIs sehen sich hier zu arrangieren wird's was.
Sowas wie DLSS ist imo zu Performance kritisch um es durch ne high level api zu jagen. Und wie du auch schriebst es ist halt unser Investment gewesen. Das Netzwerk etc. zu veröffentlichen ist halt nicht drin.
Dampf
2020-10-13, 20:15:11
Chromatische Aberration wird nicht über das gesamte Bild "geworfen", schau mal genauer hin. ;)
Woher willst du wissen, ob das wirklich in nativem 4K gerendert wurde? Solche YouTube Videos behaupten viel wenn der Tag lang ist. Ich würde da eher auf bestätigtes 4K Material, zum Beispiel durch Digital Foundry, warten und dann urteilen :redface:
aufkrawall
2020-10-13, 20:59:28
Unter Vulkan leiten wir auch die Arbeitsgruppe für ML.
Oh, das ist interessant. Was machen eigentlich AMD und Intel so? :freak:
Sowas wie DLSS ist imo zu Performance kritisch um es durch ne high level api zu jagen. Und wie du auch schriebst es ist halt unser Investment gewesen. Das Netzwerk etc. zu veröffentlichen ist halt nicht drin.
Das klingt nicht so, als wär DirectML der Bringer. :(
Wär schon befremdlich, wenn von AMD für akzeptable Performance mit RT da nichts kommt.
pixeljetstream
2020-10-13, 23:15:56
Oh, das ist interessant. Was machen eigentlich AMD und Intel so? :freak:
Das klingt nicht so, als wär DirectML der Bringer. :(
Wär schon befremdlich, wenn von AMD für akzeptable Performance mit RT da nichts kommt.
Die Firmen bringen sich alle ein. Wollte eher betonen dass wir sehr wohl hier tätig sind auch wenn es oft hier anders klingt.
DirectML ist so ne Sache, die erste Version bei "neuem" Kram haben es immer schwer "ins blaue" designed. CUDA hat ja auch fröhlich weiter Iterationen an Funktionsweisen. Erstmal mehr Adaption bei tools. Es hat auch nix direkt mit DirectML zu tun das sowas wie DLSS per Hand optimiert wird. Das ist bei anderen super Performance kritischen Dingen auch.
Es muss einfach mehr Bewegung in die Sache und dann ergibt sich der Rest. In zwei Wochen sieht man wieder mehr und Intel wird auch irgendwann aufschlagen. Einfach in längeren Zeiträumen denken.
Ex3cut3r
2020-10-14, 01:12:18
Delete. Pls. Falscher Thread.
BlacKi
2020-10-14, 09:43:42
Die Firmen bringen sich alle ein. Wollte eher betonen dass wir sehr wohl hier tätig sind auch wenn es oft hier anders klingt.
DirectML ist so ne Sache, die erste Version bei "neuem" Kram haben es immer schwer "ins blaue" designed. CUDA hat ja auch fröhlich weiter Iterationen an Funktionsweisen. Erstmal mehr Adaption bei tools. Es hat auch nix direkt mit DirectML zu tun das sowas wie DLSS per Hand optimiert wird. Das ist bei anderen super Performance kritischen Dingen auch.
Es muss einfach mehr Bewegung in die Sache und dann ergibt sich der Rest. In zwei Wochen sieht man wieder mehr und Intel wird auch irgendwann aufschlagen. Einfach in längeren Zeiträumen denken.
braucht direkt ml auch AI learning, muss hier nv 2x anlernen? wieviel schneller sind die tensorcores? und wird es direct ml als option geben so wie dlss, oder direkt ins spiel integriert ohne freie auswahl?
pixeljetstream
2020-10-14, 10:25:56
braucht direkt ml auch AI learning, muss hier nv 2x anlernen? wieviel schneller sind die tensorcores? und wird es direct ml als option geben so wie dlss, oder direkt ins spiel integriert ohne freie auswahl?
DirectML ist eine high level api die den Herstellern ermöglicht was auch immer sie an hw haben zu nutzen (ergo NV wird wenn es die Operation zulässt das auch tun, hier ein Post eines unmittelbaren Kollegen
https://developer.nvidia.com/blog/accelerating-winml-and-nvidia-tensor-cores/ )
Solche APIs haben einen gewissen Verschleiß, der bei sehr Performance kritischen Dingen wie DLSS zu riskant ist (jedes Prozent zählt). IMO zielt das eher auf Tools und Anwendungen ab wo man nicht um jede Microsekunde kämpft und es eher um Wartung / ease of deployment geht. Game developer werden wohl eher das was sie brauchen von Hand stricken. Tensor Cores direkt benutzen etc. Ist aber alles hypothetisch bis nicht mehr hw das merklich beschleunigt.
Meine Einschätzung ist das wenn in X Jahren die Hersteller alle hw haben die sehr schnell ist, dann kann man mit dem "Schwund" in solchen APIs leben. Je mehr verschiedenes inferencing eingesetzt wird desto eher macht es Sinn auf einfachere APIs umzusteigen.
dargo
2020-10-14, 10:29:10
DirectML ist eine high level api in einer D3D12 low level api? Klingt irgendwie befremdlich. :freak:
btw.
Ich kann die Skalierung der Tensor Cores immeroch schlecht bezüglich "zeitkritisch" einschätzen.
Mal paar Beispiele...
Eine 2080TI hat 544 Tensor Cores, eine 2070 Super nur 320. Das sind also 70% mehr. Die 2080TI ist aber in 4k nur 39% schneller.
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_3840__2160
Ich habe leider keine Benchmarks zu DLSS zwischen den beiden, das wäre wohl eher interessanter bei dieser Betrachtung. Eine 2060 hat nur 240 Tensor Cores (44% der 2080TI) und schafft es dennoch DLSS performant darzustellen. Mich würde mal interessieren wieviel Turing minimum an Tensor Core Leistung überhaupt benötigt? Oder anders gefragt... wäre eine 2080TI mit 240 Tensor Cores bei DLSS wesentlich langsamer als eine 2060 mit der gleichen Anzahl? Natürlich prozentual vs. non DLSS gesehen.
pixeljetstream
2020-10-14, 10:36:37
DirectML ist eine high level api in einer D3D12 low level api? Klingt irgendwie befremdlich. :freak:
DX12 ist einfach MS backend für alles rund um GPU. Sie bieten ja auch Layer von dx9 und dx11 und sogar OpenGL nach DX12 an. Ergo auch die Leute die Applikationen bauen die nicht hardcore Engines haben sollen leichten Zugang zur Technologie haben. Der große Erfolg von cuda liegt auch daran dass man mit FORTRAN und c++ sprachen wählte die mehr Entwickler im Zielmarkt ansprachen.
dargo
2020-10-14, 10:58:21
Ah... ich habs. :)
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/control-nvidia-dlss-2-0-update/control-1920x1080-ray-tracing-nvidia-dlss-2.0-quality-mode-performance.png
Die 2080TI ist mit DLSS 51% schneller während die 2060 63% schneller ist. Eigentlich komplett unlogisch da die 2080TI 127% mehr Tensor Cores hat. Jetzt könnte man vermuten... ist nur 1080p, ergo CPU-Limit für die 2080TI. Die 2060 Super hat 272 Tensor Cores (13% mehr als die 2060) und dennoch ist die 2060 Super 61,5% schneller mit DLSS, bei der 2060 waren es noch knapp 63%. Man gewinnt den Eindruck je mehr Tensor Cores die GPU hat umso größer wird der Balast am Bein. :freak: Das zieht sich so weiter nach oben hin, je mehr Tensor Cores umso weniger Vorteil bei der Performance.
PS: hier ist blöderweise Ray Tracing aktiv. Man müsste das eher isoliert ohne RT betrachten.
pixeljetstream
2020-10-14, 11:05:11
Was in dem GTC DLSS 2 video was du offenbar immer noch nicht angeschaut hast, auch getan wird ;)
Asaraki
2020-10-14, 11:10:58
Ah... ich habs. :)
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/control-nvidia-dlss-2-0-update/control-1920x1080-ray-tracing-nvidia-dlss-2.0-quality-mode-performance.png
Die 2080TI ist mit DLSS 51% schneller während die 2060 63% schneller ist. Eigentlich komplett unlogisch da die 2080TI 127% mehr Tensor Cores hat. Jetzt könnte man vermuten... ist nur 1080p, ergo CPU-Limit für die 2080TI. Die 2060 Super hat 272 Tensor Cores (13% mehr als die 2060) und dennoch ist die 2060 Super 61,5% schneller mit DLSS, bei der 2060 waren es noch knapp 63%. Man gewinnt den Eindruck je mehr Tensor Cores die GPU hat umso größer wird der Balast am Bein. :freak: Das zieht sich so weiter nach oben hin, je mehr Tensor Cores umso weniger Vorteil bei der Performance.
PS: hier ist blöderweise Ray Tracing aktiv. Man müsste das eher isoliert ohne RT betrachten.
Dein PS :) Macht es leider völlig unbrauchbar, RTX schlägt sehr unterschiedlich ein und auch meine 3080 hat da "variable" Einbrüche je nach Szene, während es ohne RTX sehr stabil bleibt.
dargo
2020-10-14, 12:11:22
Was in dem GTC DLSS 2 video was du offenbar immer noch nicht angeschaut hast, auch getan wird ;)
Ich war nicht aufmerksam genug. ;)
https://youtu.be/d5knHzv0IQE?t=713
Dennoch hätte ich lieber die Kosten anhand aktueller, praktischer Beispiele in Games.
Tobalt
2020-10-14, 18:47:19
da sich die topologie des NN nicht ändert, sollte die Zeitdauer des upsampling nicht vom game, sondern nur von der render und target Auflösung abhängen. bsp dafür sind im talk
basix
2020-10-14, 20:34:24
Umso tiefer die FPS, desto höher ist der Gewinn. Kann jeder selbst nachtesten, ist auch logisch herleitbar ;) Bei mehr oder minder statischem Anteil der DLSS-Ausführungszeit nimmt der Performancesprung mit steigenden FPS ab. Das ist der Grund, wieso langsame GPUs mehr Gewinnen und wieso Games mit niedrigen FPS (z.B. mit Raytracing oder Control vs. Death Stranding) prozentual mehr davon profitieren. Anhand der gezeigten Werte im GTC Talk sieht man auch, dass die 2080 Ti DLSS nicht doppelt so schnell ausführt wie eine 2060, da limitiert irgendwas. DLSS mit der 2080 Ti scheint zudem bei höheren Auflösungen besser zu skalieren (3.1x längere Ausführungszeit 4K vs. 1080p und bei der 2060 sind es 3.5x). Mehr Pixel = Mehr Auslastung bei mehr Tensor Cores usw. also Business as usual.
Aber dass es bei allen Games aber gleich lange dauert für die Ausführung? Ich würde schon erwarten, dass das nicht bei jedem Game und in jeder Spielszene gleich schnell geht. Ich kenne mich mit DNN aber zu wenig aus. @pixeljetstream, kannst du da mehr dazu sagen?
Dampf
2020-10-14, 20:35:44
War ja klar, AC Valhalla ist von AMD gesponsert, genauso wie Horizon. AMD lässt wohl DLSS nicht zu in ihren Titeln. Und da soll AMD so viel kundenfreundlicher sein als Nvidia? Die nehmen sich beide nicht viel. :(
dargo
2020-10-14, 21:35:36
Du halluzinierst.
Dampf
2020-10-14, 21:45:26
Du halluzinierst.
Nope. Warum wohl haben Death Stranding und Watch Dogs, beide in Zusammenarbeit mit Nvidia entstanden, DLSS und AC Valhalla und Horizon nicht, welche beide in Zusammenarbeit mit AMD entstanden sind?
Das kann doch nur am Sponsoring liegen. Aber mal ne erfreuliche News:
Marvel Avengers hat nun DLSS https://www.guru3d.com/news-story/marvel-avengers-and-wolfenstein-youngblood-get-nvidia-dlss-updates.html
Neosix
2020-10-14, 22:03:48
Also das Valhalla ein AMD Titel ist und daher kein DLSS kriegt hab ich als Gerücht auch schon im Internet gelesen, aber da steht viel wenn der Tag lang ist... Vielleicht reicht es Ubi noch nach sehe Marvel.
basix
2020-10-14, 23:54:10
Ich habe noch eine Überlegung / Frage bezüglich DLSS 2.0. Bei DLSS wird das Sampling Pattern so gesetzt, damit es der selben räumlichen Auflösung entspricht wie bei einer höheren Auflösung (siehe Bild im Anhang). Wenn ich annehme, dass die Performance perfekt skaliert - halbe Pixel = doppelte Performance - ergibt sich folgendes Bild:
4K nativ = 30fps
1440p = 67fps
1080p = 120fps
Dabei ist das Verhältnis Samples/fps immer identisch und somit bleibt die Anzahl Samples pro fixem Zeitintervall ebenfalls immer gleich. Oder anders gesagt: Bei allen 3 Varianten tastet man innerhalb von z.B. 100ms exakt 24.88 MPixel ab. Somit hat man den selben Informationsgehalt bei gegebenem Zeitintervall. Bei tieferen Auflösungen erhält man mehr Informationen über die Zeit (mehr fps) und bei höheren Auflösung über das dichter abgetastete Raster.
Nun, was wird bei DLSS 2.0 verwendet?
Eine fixe Anzahl Frames (z.B. z-factorDLSS, ..., z-1, z)
Ein fixer Zeitintervall, mit unterem Limit bei den FPS (z.B. 30fps, 4 Samples als Minimum)
Etwas anderes
Beim fixen Zeitintervall würde ich den grossen Vorteil sehen, dass die Basisauflösung in der Theorie egal ist. Die Ausgabequalität wäre praktisch identisch, weil man prinzipell die gleichen Informationsmenge gesampled hat. Im Umkehrschluss sind auch die FPS egal, weil man eine beliebige Anzahl FPS einfach mit variieren der Auflösung erhalten würde. Bei 120fps hätte man sogar den Vorteil, dass man räumlich die selbe Auflösung gesampled hat aber eine deutlich höhere zeitliche Auflösung erhält. Vermutlich kompensieren sich hier aber einige Vor- und Nachteile. Bei einem "Time Boxed" Verfahren hätte man aber sicher den Vorteil, dass das Konvergieren des DNN immer gleich lange dauert. Zum Beispiel bei einem Szenenwechsel dauert es immer 100ms, bis das Bild wieder artefaktfrei ist.
Wenn das so im Ansatz funktionieren würde und bei DLSS 2.0 noch nicht so umgesetzt wurde, wäre das mMn noch ein Weg für Verbesserungen. Man würde damit im Prinzip die eierlegende Wollmilchsau erhalten, da damit eigentlich immer perfekte Performance und Qualität vorhanden wäre. Das würde erlauben (theoretisch), dass man die Detailgrad praktisch beliebig steigern könnte, ohne an Performance einzubüssen. Dynamisches Resolution Scaling würde perfekt funktionieren - z.B. bei fordernden Stellen im Spielen wird die Auflösung reduziert, die Ausgabequalität bleibt aber +/- gleich gut.
Da DLSS selbst Leistung kostet und es eine perfekte Skalierung mit der Auflösung nicht gibt (z.B. 4K nach 1080p skaliert typischerweise mit ca. 3x bei den Bildwiederholraten) ist und bleibt es eine Theorie. Aber sie erscheint mir sinnvoll, zumindest bis zu einem gewissen Grad des Upscalings wie z.B. 10x. Bei 10x Upscaling hat man evtl. 7x FPS und somit immerhin 70% der räumlichen Auflösung und 700% zeitliche Auflösung. 70% wäre in etwa der Unterschied zwischen DLSS Quality und DLSS Balanced, in den meisten Fällen also kein Beinbruch bei der Qualitätseinbusse.
Es kann sein, dass dies nur bei statischen Bildinhalten wirklich gut funktioniert und nicht in Bewegung, da kann ja @pixeljetstream oder sonst jemand mit entsprechendem Fachwissen etwas dazu erläutern.
Troyan
2020-10-15, 00:09:29
Wolfenstein Youngblood hat den DLSS2.1 Patch erhalten. Spiel ist perfekt zum Zeigen der Qualität bei feiner Geometrie. Also warum nichtmal 4K@HighPerformance gegen natives 720p:
https://s2.imagebanana.com/file/201015/thb/xY1K4gFc.png (https://www.imagebanana.com/s/1909/xY1K4gFc.html)
https://s2.imagebanana.com/file/201015/thb/ac7YGAnY.png (https://www.imagebanana.com/s/1909/ac7YGAnY.html)
Das Upscaling aus niedrigen Auflösungen ist wirklich beeindruckend.
Nightspider
2020-10-15, 01:24:05
Ich hätte gerne mal einen DLSS 8K (intern 4k) vs. nativ 4K vs. nativ 5K Vergleich.
crux2005
2020-10-15, 03:31:33
Also das Valhalla ein AMD Titel ist und daher kein DLSS kriegt hab ich als Gerücht auch schon im Internet gelesen, aber da steht viel wenn der Tag lang ist... Vielleicht reicht es Ubi noch nach sehe Marvel.
In diesem Offiziellen Video (https://www.youtube.com/watch?v=t-qS-0GNIZo) hat Ubisoft gesagt man habe mit AMD zusammengearbeitet. Ich erinnere mich noch gut das sie vor der PS4 Gen. mit Nvidia zusammengearbeitet haben. z.B. FC4 benutzt GPU PhysX und co.
Etwas muss aber passiert sein das es seit ~2014 nicht mehr der Fall ist.
Und glaube nicht das Valhalla noch DLSS Unterstützung bekommt. Bei Marvel war das eher vorhersehbar, weil Nixxes (historisch gesehen) eine gute Beziehung mit Nvidia hat. Q: https://www.youtube.com/watch?v=ZcCRbI8uCeM&t=16m25s
Konnte mir eben 2,5h selber ein Bild von DLSS in Death Stranding machen und bin sehr angetan. Meine Ausgangsauflösung ist 5120x1440, DLSS steht auf Quality und die Bildruhe bei gleichzeitiger Schärfe ist der Wahnsinn. Zusammen mit den stets sehr hohen FPS wirkt das Spiel so unfassbar smooth. Kein Stuttering, keine Nachladeruckler, nichts. Wirklich ein tolles Erlebnis (y).
Ich hatte Death Stranding zum Release auf der PS4 Pro angespielt und weiß deshalb wie es sich mit 30 FPS anfühlt :freak:. Das Spiel nun derart smooth zu erleben ist einfach nur :eek:. Nvidia hat mit DLSS ab Version 2.0 ein heißes Eisen im Feuer. Bitte mehr davon, deutlich mehr! :)
Noch etwas OT: Das Multithreading ist so ganz nebenbei erwähnt rekordverdächtig. Ich weiß zwar nicht was Death Stranding mit all den Threads anstellt, aber es lastet alle 18 Kerne meines 10980XE zwischen 30-50% aus sofern ich mal nicht im VSync Cap (120 FPS) hänge.
Geldmann3
2020-10-15, 16:35:37
Konnte mir eben 2,5h selber ein Bild von DLSS in Death Stranding machen und bin sehr angetan. Meine Ausgangsauflösung ist 5120x1440, DLSS steht auf Quality und die Bildruhe bei gleichzeitiger Schärfe ist der Wahnsinn. Zusammen mit den stets sehr hohen FPS wirkt das Spiel so unfassbar smooth. Kein Stuttering, keine Nachladeruckler, nichts. Wirklich ein tolles Erlebnis (y).
Ich hatte Death Stranding zum Release auf der PS4 Pro angespielt und weiß deshalb wie es sich mit 30 FPS anfühlt :freak:. Das Spiel nun derart smooth zu erleben ist einfach nur :eek:. Nvidia hat mit DLSS ab Version 2.0 ein heißes Eisen im Feuer. Bitte mehr davon, deutlich mehr! :)
Noch etwas OT: Das Multithreading ist so ganz nebenbei erwähnt rekordverdächtig. Ich weiß zwar nicht was Death Stranding mit all den Threads anstellt, aber es lastet alle 18 Kerne meines 10980XE zwischen 30-50% aus sofern ich mal nicht im VSync Cap (120 FPS) hänge.
Wobei ich schätze, dass die CPU-Auslastung auf Deinem 18 Kerner eher eine ,,Plazebo-Auslastung" ist. Ich wette Du hättest mehr FPS, wenn Du 50% aller Kerne deaktivieren und dafür den durchschnittlichen Takt um nur 400Mhz anheben würdest/könntest. :wink:
Timbaloo
2020-10-15, 16:42:42
Wolfenstein Youngblood hat den DLSS2.1 Patch erhalten. Spiel ist perfekt zum Zeigen der Qualität bei feiner Geometrie. Also warum nichtmal 4K@HighPerformance gegen natives 720p:
https://s2.imagebanana.com/file/201015/thb/xY1K4gFc.png (https://www.imagebanana.com/s/1909/xY1K4gFc.html)
https://s2.imagebanana.com/file/201015/thb/ac7YGAnY.png (https://www.imagebanana.com/s/1909/ac7YGAnY.html)
Das Upscaling aus niedrigen Auflösungen ist wirklich beeindruckend.
Also die Artefakte durch DLSS auf den Bannern im Hintergrund sind absolut inakzeptabel. Damit ist DLSS für mich gestorben.
Dampf
2020-10-15, 17:40:03
Also die Artefakte durch DLSS auf den Bannern im Hintergrund sind absolut inakzeptabel. Damit ist DLSS für mich gestorben.
Alter... das ist 720p auf 4K. Ultra Performance Mode. Der normale Performance Mode ist in 1080p und sieht natürlich auch deutlich besser aus und hat keine Artefakte.
Trotzdem sieht das Bild dafür dass es eigentlich 720p ist, noch gut aus. Das wollte Troyan damit zeigen...
Nochmal, der Bildvergleich ist 720p nativ vs DLSS 4K Ultra Performance Mode (auch intern 720p). Ultra Performance Mode ist eigentlich für 8K gedacht.
Troyan
2020-10-15, 17:41:31
Ich glaube, er meint eher die fehlenden nicht zeigbaren Zeichen auf den Bannern. :D
Timbaloo
2020-10-15, 19:17:03
;D
Geldmann3
2020-10-15, 19:56:23
Ich glaube, er meint eher die fehlenden nicht zeigbaren Zeichen auf den Bannern. :D
Da muss er sich keine Sorgen machen, dieser Filter ist nur im Deutschen DLSS aktiviert. :wink:
Wobei ich schätze, dass die CPU-Auslastung auf Deinem 18 Kerner eher eine ,,Plazebo-Auslastung" ist. Ich wette Du hättest mehr FPS, wenn Du 50% aller Kerne deaktivieren und dafür den durchschnittlichen Takt um nur 400Mhz anheben würdest/könntest. :wink:
Dafür ist die Auslastung viel hoch, um nur Placebo zu sein. Habe ich so in der Form noch nicht bei anderen Spielen gesehen. Im CPU Limit war ich in Death Stranding bisher übrigens noch nie, wenn es dropt dann wegen dem GPU Limit. Schalte ich in den Situationen von DLSS Quality auf Performance, gehen die FPS wieder bis hoch zum Cap von 120 ;)
Armaq
2020-10-16, 00:15:21
Was ich aus dem Talk nicht eindeutig mitgenommen habe, muss nvidia jetzt in ihrer Farm das dennoch zwingend durch die Farm jagen, um das Modell herzustellen? Das war jetzt DLSS 1.0, oder?
DLSS2.0
Macht das jetzt der Spielehersteller? Da ich das Video etwas verteilt geschaut habe, war mir das jetzt nicht klar. Er sagt, die Supercomputerfarm soll nicht mehr zwingend sein, aber woher kommt dann jetzt das Modell? Das finde ich total abgefahren, dass ein Modell jetzt für alle Games funktioniert.
Tobalt
2020-10-16, 07:38:39
da DLSS2 im Gegensatz zu V1 nichts grobes mehr erfinden soll, sondern nur aus alten frames interpoliert, brauch da gar nichts mehr pro content trainiert werden.
Die Koeffizienten für DLSS2 sind also entweder im Spiel oder im Treiber fix hinterlegt.
Geldmann3
2020-10-16, 08:21:12
Der Spielehersteller muss da nichts selbst trainieren, lediglich die Samples, das Jitter Offset sowie die Motion Vektoren an NGX übergeben.
Dafür ist die Auslastung viel hoch, um nur Placebo zu sein.
Du könntest auf jedem Kern eine Endlosschleife laufen lassen, die überhaupt nichts zum Ergebnis beiträgt und dennoch für "100% Auslastung" sorgt.
Das wird wohl nicht der Fall sein, aber aufgrund der Kernauslastung wie sie das OS sieht kann man überhaupt keinen Schlüsse auf die tatsächliche Hardwareauslastung ziehen.
Man kann lediglich sicher sagen, wenn ein Kern 0% Auslasung hat, dass dieser nichts tut. Man kann aber nicht sagen, weil irgendeine Auslastung angezeigt wird, was dieser Kern tut bzw. ob und wieviel er zum Gesamtergebnis beiträgt.
BigKid
2020-10-19, 11:12:23
Was ich aus dem Talk nicht eindeutig mitgenommen habe, muss nvidia jetzt in ihrer Farm das dennoch zwingend durch die Farm jagen, um das Modell herzustellen? Das war jetzt DLSS 1.0, oder?
DLSS2.0
Macht das jetzt der Spielehersteller? Da ich das Video etwas verteilt geschaut habe, war mir das jetzt nicht klar. Er sagt, die Supercomputerfarm soll nicht mehr zwingend sein, aber woher kommt dann jetzt das Modell? Das finde ich total abgefahren, dass ein Modell jetzt für alle Games funktioniert.
So abgefahren ist das nicht... Die (besseren) Samsung TVs haben auch einen AI Upscaler drinn... Vermutlich schaut der sich auch nicht nur ein Bild sondern die Bildfolge an um Bewegungsvektoren zu haben... Ich denke die Stärke von solchen AI Upscalern ist einfach dass sie besser als "hand-kodierte" Algos in der Lage sind aus dem "geflimmere" bei Bewegung tatsächlich Information zu gewinnen. Es ist ja nicht so dass die Details "nur" erraten müssen sondern auch aus der Bild-Sequenz extrapolieren/rückschlüsse ziehen können...
Aber TLDR: Bei Samsung TVs kann der AI Upscaler ja auch arbeiten ohne dass er für jeden Film trainiert werden muss...
Ich hätte jetzt erwartet, dass ein Upscaler wie DLSS1.0 das pro Spiel oder vielleicht sogar pro Level trianiert wird bessere Ergebnisse liefern könnte - weil spezialisierter... Aber vermutlich ist der Aufwand im Vergleich zu möglichen Ertrag zu klein / DLSS2.0 einfach schon so viel besser...
(Spannend wäre es schon mal zu sehen was DLSS2.0 erreichen könnte WENN es speziell auf ein Szenario trainiert würde...)
Geldmann3
2020-10-19, 11:46:22
So abgefahren ist das nicht... Die (besseren) Samsung TVs haben auch einen AI Upscaler drinn... Vermutlich schaut der sich auch nicht nur ein Bild sondern die Bildfolge an um Bewegungsvektoren zu haben... Ich denke die Stärke von solchen AI Upscalern ist einfach dass sie besser als "hand-kodierte" Algos aus dem "geflimmere" bei Bewegung tatsächlich Information zu gewinnen. Es ist ja nicht so dass die Details "nur" erraten müssen sondern auch aus der Bild-Sequenz extrapolieren/rückschlüsse ziehen können...
Aber TLDR: Bei Samsung TVs kann der AI Upscaler ja auch arbeiten ohne dass er für jeden Film trainiert werden muss...
Ich hätte jetzt erwartet, dass ein Upscaler wie DLSS1.0 das pro Spiel oder vielleicht sogar pro Level trianiert wird bessere Ergebnisse liefern könnte- weil spezialisierter... Aber vermutlich ist der Aufwand im Vergleich zu möglichen Ertrag zu klein / DLSS2.0 einfach schon so viel besser...
(Spannend wäre es schon mal zu sehen was DLSS2.0 erreichen könnte WENN es speziell auf ein Szenario trainiert würde...)
Sicher nutzt der Samsung TV Bewegungsvektoren, um Zwischenbilder zu berechnen, falls man dieses Feature verwendet. Doch es würde nur sehr begrenzt Sinn ergeben Bewegungsvektoren zum Upscaling zu verwenden, wobei das eventuell dennoch getan wird. In Games hast Du in der Regel nämlich nur einen Sample pro Pixel, um die Farbe für diesen zu ermitteln, was dann zu Aliasing führt. Mit Supersampling verwendest Du hingegen mehr als einen Sample pro Pixel, um die Farben für diesen zu ermitteln, was dann dafür sorgt, dass die Farben benachbarter Pixel natürlicher ineinander übergehen. Je mehr Samples Du beim Supersampling für einen Pixel verwendest, desto näher kommst Du an das Bild einer echten Kamera heran, die mit nahezu unendlich vielen Samples pro Pixeln aufzeichnet. Jedes Photon, welches auf den Pixel des Sensors der Kamera trifft, könnte man als ein Sample sehen. Beim Supersampling haben wir in der Vergangenheit einfach mehr als einen Sample pro Pixel berechnet, was auch x mal mehr Rechenleistung kostet.
Temporales Supersampling, wie DLSS und TAA hingegen verwerten die Samples aus vorangegangenen Frames wieder, es müssen fürs Supersampling also keine zusätzlichen Samples berechnet werden. Aus diesem Grund werden die Samplekoordinaten innerhalb der Pixel bei den temporalen Techniken von Frame zu Frame leicht geändert. Schließlich möchte man dieselbe Stelle nicht unnötig doppelt abtasten. Der TV kann das allerdings nicht, denn er hat keinen Zugriff auf die GPU. Weiterhin hat er keinen Zugriff auf die Motion-Vektoren der Games, er kann sie lediglich approximieren, was Zeit kostet und zu einem schlechterem Ergebnis führt.
Deshalb werden die Upscaler in TVs immer hinter temporalen Upscaling in Games zurückbleiben und deshalb macht man es direkt in der GPU, anstatt im Ausgabegerät. Dennoch vermute ich, dass auch bei den Ausgabegeräten noch gigantisches Verbesserungspotential besteht.
Armaq
2020-10-19, 11:53:41
Ich hab den Talk so verstanden, dass es ein generalistisches Modell (DLSS2.0) gibt und das ist die große Errungenschaft. Das Modell wird von den TensorCores abgearbeitet bzw. die damit verbundenen Operationen, um einen gutes Bild zu erhalten (Denoising etc.). Und es funktioniert auch nur in dem Zusammenspiel.
Timbaloo
2020-10-19, 12:16:02
Der TV kann das allerdings nicht, denn er hat keinen Zugriff auf die GPU. Weiterhin hat er keinen Zugriff auf die Motion-Vektoren der Games, er kann sie lediglich approximieren, was Zeit kostet und zu einem schlechterem Ergebnis führt.
Der TV kann doch eigentlich die Bewegungsvektoren direkt aus dem Stream lesen.
Der TV kann doch eigentlich die Bewegungsvektoren direkt aus dem Stream lesen.
Die Motion Vektoren können mittels optischem Fluss berechnet werden, dies ist aber nicht so genau wie die wirklichen Motion Vektoren.
Ausserdem unterscheiden sie sich dahingehend, dass die optischen Fluss Vektoren die Bewegung zwischen zwei frames wiederspiegeln, die Motion Vektoren der Spiele aber die Bewegung vom letzten Frame zum aktuellen.
Dafür hat der TV zugriff auf "unendlich" viele Frames nach vorne (da die Bilder ja vorberechnet sind). Diese Bilder fehlen logischerweise bei Echtzeit-Gaming.
Man kann also sehen, das es zwar verwandte Probleme sind, die Vorraussetzungen aber unterschiedlich sind. Daher wird man nicht einfach den Algorithmus übernehmen können.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.