PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24 25 26 27

Linmoum
2023-08-22, 12:21:12
FG geht nur mit Ada, daher läuft 3.5 auch nur dort.

The_Invisible
2023-08-22, 12:21:32
Anscheinend für alle RTX-GPUs verfügbar: https://www.reddit.com/r/nvidia/comments/15xyqp6/nvidia_announces_dlss_35_with_ray_reconstruction/jx90y8w/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button

Linmoum
2023-08-22, 12:24:48
Dann ist die Folie irreführend, denn da steht bei DLSS 3.5 FG mit dabei. Oder der reddit-Moderator hat keine Ahnung. Wird man ja zeitnah sehen.

Exxtreme
2023-08-22, 12:27:52
Oder sie schalten FG auch für frühere RTX-Grafikkarten frei. Um AMD nicht das Feld bei FSR3 zu überlassen. Derzeit ist die Informationslage aber sehr wischiwaschi.

Linmoum
2023-08-22, 12:31:58
Es ist noch nicht mal klar, wann FSR3 überhaupt auf non-RDNA3-GPUs lauffähig sein wird. AMD hat das nur vage in Aussicht gestellt, ohne konkreter zu werden. Ganz davon ab, dass FSR3 immer noch ein großes Mysterium ist. Damit beschäftigt sich Nvidia zum aktuellen Zeitpunkt sicher nicht.

aufkrawall
2023-08-22, 12:33:28
Dann ist die Folie irreführend, denn da steht bei DLSS 3.5 FG mit dabei. Oder der reddit-Moderator hat keine Ahnung. Wird man ja zeitnah sehen.
Afaik nennt Nvidia das jetzt immer "DLSS 3". Auch für ältere GPUs, obwohl sich da ja beim Upsampling-Part (bislang) nichts geändert hat.
Würde also kein Ausschlusskriterium annehmen, nur weil es 3.5 genannt wird. Aber trotzdem wohl noch etwas unklar so weit, ja.
Die 12GB-Amperes würden dann fein altern. Nur hoffentlich wird das nicht so ein Murks wie Preset D.

Gast
2023-08-22, 12:40:34
Dann ist die Folie irreführend, denn da steht bei DLSS 3.5 FG mit dabei. Oder der reddit-Moderator hat keine Ahnung. Wird man ja zeitnah sehen.

Die Folie ist nicht irreführend, sie zeigt einen Screenshot mit SR + FR + RR, ohne eine Aussagen darüber zu machen welche Features welche Hardware voraussetzen.

Raff
2023-08-22, 12:41:46
Um wie viel Uhr starten nochmal neue Nvidia-Produkte? ;)

MfG
Raff

Linmoum
2023-08-22, 12:55:02
Die Folie ist nicht irreführend, sie zeigt einen Screenshot mit SR + FR + RR, ohne eine Aussagen darüber zu machen welche Features welche Hardware voraussetzen.Welche Hardware FG voraussetzt, ist bekannt. Darüber braucht man keine extra Aussagen zu machen.

Aber gut, scheint ja soon(tm) offizielle Infos zu geben. Wenigstens ein Hersteller, bei dem das funktioniert...

basix
2023-08-22, 13:03:26
RR scheint eine Art Raytracing Effekt Reconstruction + Denoiser zu sein. Deswegen läuft es anscheinend schneller, da der separate Denoiser entfällt.

Und wenn das "nur" ein weiteres DNN ist, läuft das natürlich via Tensor Cores und somit theoretisch ab Turing.

Spannend:
Cyberpunk Pathtraced hat relativ grosse Probleme beim Denoising (wabern von GI auf diffusen Oberflächen, lange Integrationszeiten). Evtl. kann hier DLSS 3.5 helfen. Geil wäre es.

Exxtreme
2023-08-22, 13:09:52
Es ist noch nicht mal klar, wann FSR3 überhaupt auf non-RDNA3-GPUs lauffähig sein wird. AMD hat das nur vage in Aussicht gestellt, ohne konkreter zu werden. Ganz davon ab, dass FSR3 immer noch ein großes Mysterium ist. Damit beschäftigt sich Nvidia zum aktuellen Zeitpunkt sicher nicht.

Ich denke schon, dass sie sich damit beschäftigen. Denn wenn FSR3 das hält was AMD vorhat dann hat es das Potential, dass viele Spieleentwickler das einbauen. Sprich, DLSS-FG auch für ältere Nvidia-GPUs wäre IMHO wünschenswert. Auch wenn das Nvidia eventuell missfällt weil es älteren Grafikkarten neues Leben einhauchen könnte. Bei Freesync hat sich Nvidia auch die Butter vom Brot nehmen lassen. Gsync ist zwar etwas besser aber es war so exorbitant teurer, dass Freesync leichtes Spiel hatte.

robbitop
2023-08-22, 13:37:11
Da AMD keine Tensor Cores hat, gibt es eigentlich keinen Grund, FSR3 nur auf RDNA3+ laufen zu lassen. Und damit das Verfahren eine Chance hat sich durchzusetzen, braucht es eine große installierte HW Basis. RDNA3+ allein würde dem Verfahren wenig Chancen zum Erfolg einräumen.
Was ich mir vorstellen könnte, dass es auf RDNA3+ etwas schneller läuft wegen WMMA.

Troyan
2023-08-22, 13:41:57
Denoising in Portal RTX kostet 20% bis 30% an Leistung. Wenn man die Qualität beim selben Leistungsverlust verbessern kann, ist das ein riesiger Gewinn. Ist das nervigste an Upscaling, dass SSRs oder Raytracing nicht vernünftig mitskalieren.

basix
2023-08-22, 13:44:14
Da AMD keine Tensor Cores hat, gibt es eigentlich keinen Grund, FSR3 nur auf RDNA3+ laufen zu lassen. Und damit das Verfahren eine Chance hat sich durchzusetzen, braucht es eine große installierte HW Basis. RDNA3+ allein würde dem Verfahren wenig Chancen zum Erfolg einräumen.
Was ich mir vorstellen könnte, dass es auf RDNA3+ etwas schneller läuft wegen WMMA.
+1

Denoising in Portal RTX kostet 20% bis 30% an Leistung. Wenn man die Qualität beim selben Leistungsverlust verbessern kann, ist das ein riesiger Gewinn. Ist das nervigste an Upscaling, dass SSRs oder Raytracing nicht vernünftig mitskalieren.
Ja, wäre wirklich nice, wenn RT Effekte nun bei DLSS 3.5 anständig mit dem Upsampling mitskalieren. Und im besten Fall sogar mit verbessertem Denoising-Verhalten generell.

Troyan
2023-08-22, 15:17:05
nVidias Video: https://www.youtube.com/watch?v=sGKCrcNsVzo

Hier die Szene aus Cyberpunk: https://youtu.be/sGKCrcNsVzo?t=292

Portal RTX: https://www.youtube.com/watch?v=M9yHtS8EoFg

Sollte das wirklich so gut funktionieren, dann wow.

Exxtreme
2023-08-22, 15:20:25
OK, keine FG für Ampere und drunter. Die Versionierung ist aber auch leicht dämlich. DLSS 3.x implizierte immer FG. Und das bekommt man jetzt nicht mehr unbedingt wenn man DLSS 3.x liest und die falsche Hardware hat.

basix
2023-08-22, 15:29:40
Nvidia Video zu DLSS 3.5
https://www.youtube.com/watch?v=sGKCrcNsVzo

Deisi
2023-08-22, 15:30:34
Wäre richtig geil wenn RR noch für Control kommen würde.

Gast
2023-08-22, 15:41:15
Wäre richtig geil wenn RR noch für Control kommen würde.
Das war auch mein erster Gedanke :D

Bin gespannt ob das eine dritte DLL wird, oder in die bestehende DLSS-DLL integriert wird?

basix
2023-08-22, 15:51:55
Ray Reconstruction für alle RTX GPUs ;)
https://www.computerbase.de/2023-08/nvidia-geforce-rtx-dlss-3-5-soll-raytracing-huebscher-machen/#bilder
https://pics.computerbase.de/1/0/8/9/2/9-90cc570f430c456f/8-2160.f87faba0.png

Linmoum
2023-08-22, 16:06:56
OK, keine FG für Ampere und drunter. Die Versionierung ist aber auch leicht dämlich. DLSS 3.x implizierte immer FG. Und das bekommt man jetzt nicht mehr unbedingt wenn man DLSS 3.x liest und die falsche Hardware hat.Jop, das Namensschema bzw. die Namensgebung ist komplett bescheuert. Ich frage mich aber jedesmal, warum Firmen das permanent derart unnötig kompliziert und nicht klar strukturiert machen.

Aber was soll's. Wenn die Resultate auch so aussehen wie angedeutet, dann können sie von mir aus auch Hans und Werner als Bezeichnungen wählen.

Troyan
2023-08-22, 16:10:56
https://www.youtube.com/watch?v=bTJYvtPRRcM&t

Die Reflektion-Szene aus Cyberpunk in 4K.

Cubitus
2023-08-22, 16:13:48
Technisch sehr spannend, Nvidia entwickelt KI-Hardware und ist auch in der Entwicklung der Tools dafür sehr aktiv und innovativ, der Konzern strotzt vor Synergien, läuft bei Jensen.

Ex3cut3r
2023-08-22, 16:13:57
Nice. Damit man beseitigt man halt einer der schwächen des Upscaling an sich. FSR 2.2+ wird da gar nicht mithalten können.

AMD muss eigentlich auch auf AI/KI Einheiten setzen, sonst wird das nie etwas. Bildqualität ist ein K.O Argument. Und die ist bei Nvidia spätestens jetzt 2 Klassen besser. Vergleich 4080 vs 7900XTX erschließt sich mir sowieso nicht, was kann AMD denn besser? Eigentlich gar nichts, außer die 100€ weniger zu kosten. Lächerlich, dass trotzdem so viele RDNA 3 kaufen, IMHO HC AMD Fans.

https://abload.de/img/rzd6tujnec53.png

Cubitus
2023-08-22, 16:24:47
Nice. Damit man beseitigt man halt einer der schwächen des Upscaling an sich. FSR 2.2+ wird da gar nicht mithalten können.

Vermutlich werden RT-Effekte ohne Ray Reconstruction einfach auch nativ schlechter aussehen, so dass DLSS 3.5 "eigentlich" ein Nobrainer wird, wenn RT verwendet werden soll.
Man könnte dann auch sagen, AMD kann RT leider nicht in der Schnelligkeit und Qualität (das ist neu :freak:) bzw. FSR 3 wird es auch nicht richten können, da Nvidia technisch ziemlich weit vorne ist.

Fragman
2023-08-22, 16:29:23
Vermutlich werden RTX Effekte ohne Ray Reconstruction einfach auch nativ schlechter aussehen,

Sobald die einen Denoiser einsetzen wohl schon, weil das Ergebnis dann ohne AI weit weniger genau ist, da nur interpoliert wird, während der jetzt dem Endergebnis mit viel mehr Strahlen, näher ist.
Ist mit DLSS 3.5 dann eher wie beim aktuellen Renderman AI Denoiser.

Troyan
2023-08-22, 16:42:26
Bisschen lustig ist es schon. DLSS 1 war z.B. viel besser Reflektionen in Battlefield 5 zu rekonstruieren als DLSS 2 in aktuellen Spielen.

Hoffen wir mal, dass es wirklich so gut funktioniert. Dann bräuchte man native Auflösung wirklich nicht mehr. Aktuell ziehe ich FrameGeneration Upscaling vor, wenn die FPS in nativ gut genug sind.

basix
2023-08-22, 16:44:41
Spannend:
Cyberpunk Pathtraced hat relativ grosse Probleme beim Denoising (wabern von GI auf diffusen Oberflächen, lange Integrationszeiten). Evtl. kann hier DLSS 3.5 helfen. Geil wäre es.

Ja, wäre wirklich nice, wenn RT Effekte nun bei DLSS 3.5 anständig mit dem Upsampling mitskalieren. Und im besten Fall sogar mit verbessertem Denoising-Verhalten generell.

Hier im Portal RTX Video zu sehen: Viel ruhigeres GI! Bin gespannt wie das in CP2077 und in Bewegung aussieht.
https://www.youtube.com/watch?v=M9yHtS8EoFg

Gast
2023-08-22, 16:50:45
Jop, das Namensschema bzw. die Namensgebung ist komplett bescheuert. Ich frage mich aber jedesmal, warum Firmen das permanent derart unnötig kompliziert und nicht klar strukturiert machen.

Aber was soll's. Wenn die Resultate auch so aussehen wie angedeutet, dann können sie von mir aus auch Hans und Werner als Bezeichnungen wählen.
ist gar nicht so schwer, DLSS 3 ist nur DLSS 3, ab dieser Version beherrscht DLSS FG, muss aber nicht genutzt werden. Ab DLSS 3.5 kommt RR dazu, muss aber nicht verwendet werden.

DLSS 3 steht eben nicht nur für FG

TheCounter
2023-08-22, 17:05:27
Also wenn das wirklich so funktioniert, dann Hut ab :eek:

Die Qualitätsverbesserung ist da ja teilweise immens! Ich bin gespannt :)

Sardaukar.nsn
2023-08-22, 17:19:52
DLSS 3.5 Erklärvideo vom Hippie...

sGKCrcNsVzo

DrFreaK666
2023-08-22, 17:39:03
Ein Freund hat sich beschwert, dass die Spiegelung in der Pfütze zu scharf sei :ugly:

Jupiter
2023-08-22, 18:02:29
NVidia macht das Thema Grafik am PC sehr spannend. So viele bahnbrechende Entwicklungen seit Turing. Vorher gab es dagegen Stagnation.

Nicht überraschend, dass Remedy neben CD Projekt Red mit Path Tracing und DLSS 3.5 wieder mit an der Spitze der Grafik sein wird.

Gast
2023-08-22, 18:22:41
Vor allem ruht sich Nvidia nicht aus, wie es einst Intel gemacht hat. Die haben einfach Bock. Sehr krass wird auch das neue NTC womit die texture resolution 16x höher ist und der Speicherbedarf gleich bleibt. zur GDC sollte da ein Vortrag gewesen sein

crux2005
2023-08-22, 18:46:51
Ist stark was NV mit DLSS 3.5 abliefert. Schade das die passende HW nicht so stark ist. Wobei sie laut Gerüchten eh eine AI Company sein wollen.

The_Invisible
2023-08-22, 19:13:23
NV wird die "normalen" Grafikkarten auch nicht aufgeben, die braucht man schon alleine für Workstation/Notebooks und das ganze Omniverse Zeug. Es wurden für DLSS3.5 ja nicht nur Games sondern auch Applikationen gezeigt.

Als Resteverwertung kann man dann die Gaming-Grafikkarten verwenden, die zusätzlichen Mrd. lässt man sich auch nicht entgehen

Slipknot79
2023-08-22, 19:19:10
Lederjacke liefert wieder dick ab. Wer nach DLSS 3,5+RR immer noch Erektionsprobleme hat, der sollte das Hobby aufgeben. :redface:

The_Invisible
2023-08-22, 20:02:30
Das "Schlimme" (für AMD) ist ja eigentlich das sie wieder wie aus dem Nichts mit einem neuen Feature kommen und erste Games gleich verfügbar sind. Und wenn AMD wirklich vor hatte zur Gamescom mit FSR3 zu kommen haben sie denen auch noch die Show gestohlen.

Tesseract
2023-08-22, 20:27:20
"aus dem nichts" ist gut, DL-assisted RT-denoising war eines der ersten beispiele wofür man TC potenziell nutzen könnte und wahrscheinlich der grund warum grafikkarten überhaupt RT bekommen haben nachdem nvidia tensor cores aber noch keinen guten anwendungsfall dafür in spielen hatte. DLSS war dann aber wohl erstmal die niedriger hängende frucht.

crux2005
2023-08-22, 20:34:31
Die Gerüchte über KI verbessertes Denoising von NV gab es auch schon länger.

aufkrawall
2023-08-22, 20:40:07
Sie hatten doch selbst schon afair vor dem/zum Turing-Launch den Eindruck erweckt, dass die TCs dafür genutzt würden. Das wird dann jetzt endlich eingelöst.
Aber wenn das wirklich so gut funktioniert, wie gerade gezeigt, ist das schon ein ziemlich heftiger Sprung. Stößt quasi die Tür zum Echtzeit-Pathtracing weit auf. Sie könnten es sich auch locker leisten, die Implementierung für ein paar Spiele im Jahr damit selbst zu bezahlen.

The_Invisible
2023-08-22, 20:44:40
"aus dem nichts" ist gut, DL-assisted RT-denoising war eines der ersten beispiele wofür man TC potenziell nutzen könnte und wahrscheinlich der grund warum grafikkarten überhaupt RT bekommen haben nachdem nvidia tensor cores aber noch keinen guten anwendungsfall dafür in spielen hatte. DLSS war dann aber wohl erstmal die niedriger hängende frucht.

"aus dem nichts" im Sinne von "wir machen keine große Vorankündigung/Leaks sondern releasen das Zeug einfach". Das daran intern gearbeitet wurde ist schon klar.

robbitop
2023-08-22, 21:07:00
Im Prinzip ein ähnliches Herangehen wie DLSS 2 das macht. Aber eben für den denoiser.

Und das sind halt die Früchte vom ganzen R&D was Nvidia seit vielen Jahren betreibt. Nicht alles bringt immer sofort verwertbare Ergebnisse - betreibt man es aber langfristig kommt auch mal sowas dabei heraus.

Da kann AMD einfach finanziell nicht mithalten. AMD hat weniger Budget für RnD als Nvidia und AMDs Grafiksparte ist nur ein kleiner Teil von AMD. Wie soll man da mithalten können, wenn der Wettbewerber nicht pennt so wie Intel das lange gemacht hat.
Es ist überhaupt win kleines Wunder dass AMD die GPU IPs die es hat bei dem kleinen Budget bringen kann. Ich hoffe für den Endkunden, dass AMD mittelfristig mehr in die RTG Sparte investiert.

Lurtz
2023-08-22, 21:48:50
Daniel Owen hat laut eigener Aussage in der Pressevorführung die Frage gestellt, ob Ray Reconstruction auch mit DLAA/nativer Auflösung funktioniert, das soll nicht der Fall sein, sondern wirklich nur mit Upsampling funktionieren.

Bedenklich zu sehen, wenn immer mehr Teile des Renderings in proprietäre Teile der Grafikkarte wandern. Ich sehe nur nicht wer das mit einem derart dominanten nVidia noch aufhalten soll. AMD jedenfalls nicht mehr.

Ex3cut3r
2023-08-22, 22:20:37
Schuld daran, sind Sie selber, wenn man halt immer nur Sachen "groß" angekündigt und am Ende des Tages immer wieder enttäuscht wird, hat man halt mit der Sparte Radeon abgeschlossen, bzw. erwartet man einfach nicht dolles. Und genau das tretet ja bei AMD auch immer so ein. Zumindest bei der GPU Sparte. AMD sollte eher aufpassen, dass Sie die nächsten Jahre auch die Nr.2 bleiben. Intel nämlich, wird einiges investieren die nächsten Jahre, auch wenn das heute kaum vorstellbar ist/wäre, sehe ich Intel schon mittelfristig stark aufholen.

Exxtreme
2023-08-22, 22:41:01
Daniel Owen hat laut eigener Aussage in der Pressevorführung die Frage gestellt, ob Ray Reconstruction auch mit DLAA/nativer Auflösung funktioniert, das soll nicht der Fall sein, sondern wirklich nur mit Upsampling funktionieren.

Bedenklich zu sehen, wenn immer mehr Teile des Renderings in proprietäre Teile der Grafikkarte wandern. Ich sehe nur nicht wer das mit einem derart dominanten nVidia noch aufhalten soll. AMD jedenfalls nicht mehr.

Es gibt eigentlich keinen technischen Grund warum RR nicht mit DLAA funktionieren sollte. DLAA ist ja auch ein Upscaler. Ausser natürlich, man möchte es aus politischen Gründen einfach nicht anbieten.

basix
2023-08-22, 22:45:21
Ist aber dämlich. DLAA = DLSS. Einfach mit anderem Input/Output Auflösungsverhältnis. Ich nehme an, dass wird irgendwann nachgereicht (wie DLAA).

Tesseract
2023-08-22, 22:48:16
wahrscheinlich funktioniert es intern bzw. mit "hacks" eh aber nvidia hat aus nicht ganz nachvollziehbaren gründen beschlossen DLSS und DLAA aus brandingsicht zu trennen als wären das zwei verschiedene dinge und ziehen das durch. :confused:

Ex3cut3r
2023-08-22, 23:04:03
DLAA ist ja auch ein Upscaler.

Ist technisch gesehen falsch? DLAA benutzt die native Auflösung, wie kann es dann ein Upscaler sein?

DLAA wurde ich eher wie TAA einordnen.

Exxtreme
2023-08-22, 23:07:12
Ist technisch gesehen falsch? DLAA benutzt die native Auflösung, wie kann es dann ein Upscaler sein?

DLAA wurde ich eher wie TAA einordnen.

DLAA nimmt die Bildschirmauflösung als Ausgangsbasis, skaliert hoch über die Bildschirmauflösung hinaus und skaliert dann zurück auf die Bildschirmauflösung.

The_Invisible
2023-08-22, 23:10:37
Eigentlich spricht nichts dagegen für die Verwendung mit DLAA, läuft ja durch die gleiche Pipline. Eventuell nur Unwissenheit des Presseteams, who knows :D

L233
2023-08-22, 23:14:53
DLAA nimmt die Bildschirmauflösung als Ausgangsbasis, skaliert hoch über die Bildschirmauflösung hinaus und skaliert dann zurück auf die Bildschirmauflösung.
Ist das so? Ich dachte immer, DLAA ist einfach nur die AA-Komponente von DLSS ohne die Skalierung.

Die Skaliererei ist DL-DSR (https://www.golem.de/news/dl-dsr-nvidia-bringt-ai-downsampling-fuer-beste-bildqualitaet-2203-162345.html) und nicht DLAA.

Auf Wikipedia (https://en.wikipedia.org/wiki/Deep_learning_anti-aliasing)steht:
Differences between DLSS and DLAA

DLSS handles upscaling with a focus on performance, DLAA handles anti-aliasing with a focus on visual quality. DLAA runs at the given screen resolution with no upscaling or downscaling functionality.

DLSS and DLAA share the same AI-driven anti-aliasing method.

Exxtreme
2023-08-22, 23:21:06
Ist das so? Ich dachte immer, DLAA ist einfach nur die AA-Komponente von DLSS ohne die Skalierung.

Die Skaliererei ist DL-DSR (https://www.golem.de/news/dl-dsr-nvidia-bringt-ai-downsampling-fuer-beste-bildqualitaet-2203-162345.html) und nicht DLAA.


OK, ich habe DLAA mit DLDSR verwechselt. :freak: Sorry. Wundert mich trotzdem warum das nicht funktionieren soll.

Lurtz
2023-08-22, 23:24:23
Kann natürlich auch sein, dass die PR-Typen da was verwechselt haben. Oder Daniel. Oder die Frage unklar war.

Cubitus
2023-08-23, 10:11:11
In 5 Stunden gehts los Alan Wake 2 mit DLSS 3.5

HwGbQwoMCxM

Iwie ja lustig. ;D

https://abload.de/img/amd-starfield-is-only97do2.jpg (https://abload.de/image.php?img=amd-starfield-is-only97do2.jpg)

robbitop
2023-08-23, 10:14:21
Daniel Owen hat laut eigener Aussage in der Pressevorführung die Frage gestellt, ob Ray Reconstruction auch mit DLAA/nativer Auflösung funktioniert, das soll nicht der Fall sein, sondern wirklich nur mit Upsampling funktionieren.
Das ist total merkwürdig - so wie ich das Verfahren verstehe sollte das eigentlich egal sein. Aber gut so viel wurde bisher ja noch nicht geteilt und der Teufel liegt wie immer im Detail


Bedenklich zu sehen, wenn immer mehr Teile des Renderings in proprietäre Teile der Grafikkarte wandern. Ich sehe nur nicht wer das mit einem derart dominanten nVidia noch aufhalten soll. AMD jedenfalls nicht mehr.
Ja das ist sehr sehr unschön für uns Endkunden. :(

Cubitus
2023-08-23, 10:36:26
Ja das ist sehr sehr unschön für uns Endkunden. :(

Glaube ich nicht, AMD ist ja nicht weg.
Wer vernünftigen oberen Mid-Range haben will der geht zu AMD, ist ja auch immer eine Preisfrage, AMD backt in Zukunft kleinere Brötchen, so wie es aktuell bei der 8er Serie gemunkelt wird.
Wer den neuesten technischen Scheiß haben will, der geht zu Nvidia und zahlt.

Jensen selbst hat damals OpenAI deren Grid-Cluster persönlich geliefert bzw.
dieser hat früh erkannt das KI das nächste große Ding ist was sich im Bereich Computing beschleunigen lässt, dafür waren die GPUs eben zu prädestiniert.

Mit dem Geld, das durch Gaming, Server oder Mining reinkam, wurden zusätzliche Wissenschaftler und Techniker eingestellt,
die sich mit KI-Technologien und deren Einsatzmöglichkeiten für Produkte mit und außerhalb des Gaming-Marktes beschäftigten.

Nvidia hat sich vorallem in den letzten 10 Jahren zu einem sehr innovativen Unternehmen entwickelt, welches generell das Computing auf vielen Ebenen beschleunigt.
AMD hat die GPU Sparte eher stiefmütterlich behandelt und auch viel Potential verschenkt, selbst schuld.

DrFreaK666
2023-08-23, 11:26:41
AMD ging es jahrelang auch eher schlecht. Da gabs kein Geld zu investieren

robbitop
2023-08-23, 11:33:56
Glaube ich nicht, AMD ist ja nicht weg.
Wer vernünftigen oberen Mid-Range haben will der geht zu AMD, ist ja auch immer eine Preisfrage, AMD backt in Zukunft kleinere Brötchen, so wie es aktuell bei der 8er Serie gemunkelt wird.
Wer den neuesten technischen Scheiß haben will, der geht zu Nvidia und zahlt.

Jensen selbst hat damals OpenAI deren Grid-Cluster persönlich geliefert bzw.
dieser hat früh erkannt das KI das nächste große Ding ist was sich im Bereich Computing beschleunigen lässt, dafür waren die GPUs eben zu prädestiniert.

Mit dem Geld, das durch Gaming, Server oder Mining reinkam, wurden zusätzliche Wissenschaftler und Techniker eingestellt,
die sich mit KI-Technologien und deren Einsatzmöglichkeiten für Produkte mit und außerhalb des Gaming-Marktes beschäftigten.

Nvidia hat sich vorallem in den letzten 10 Jahren zu einem sehr innovativen Unternehmen entwickelt, welches generell das Computing auf vielen Ebenen beschleunigt.
AMD hat die GPU Sparte eher stiefmütterlich behandelt und auch viel Potential verschenkt, selbst schuld.
Ohne Frage - aber proprietäre Techniken sind dennoch unschön, weil sie einen unausgeglichenen Markt erzeugen wollen. Customer retention und immer mehr Leute sind in einem Ökosystem "gefangen". Entsprechend kann der Marktführer die Preise immer weiter diktieren. Gesund ist das für die Endverbraucher auf lange Sicht nicht.
Schau dir die GPU Preise an, die trotz gestiegener Kosten ein Großteil an den astronomischen Margen liegen.

Fragman
2023-08-23, 11:37:45
Was ist in diesem Zusammenhang eigentlich mit DirectX los?
Die Entwicklung geht nicht mehr weiter, oder?

robbitop
2023-08-23, 11:47:26
Doch: gerade gab es für DirectX eine Schnittstelle für die Ansteuerung von Matrixoperationen. Wenn man das entsprechend nutzt, läuft das jeweilige Verfahren was Matritzen rechnen soll über das was die GPU meldet. WMMA, NVs Tensor Cores, dp4a, VMX etc. Entsprechend könnte ein zukünftiges open source ML-Upsampling zum Beispiel, wenn der jeweilige IHV das will die Stärken jeder GPU nutzen.
Das Verfahren als solches gehört aber nicht in die Schnittstelle.

][immy
2023-08-23, 12:25:50
Ja, wäre schon schön wenn Nvidia die DLSS Implementierungen über DirectX abhandeln würde und zumindest nicht nur über eigene Schnittstellen. Dann können sie immernoch davon sprechen die beste Implementierung zu haben, aber so ist es einfach Blödsinn. Zumal sie auch diktieren welche Hardware benötigt wird, zumal sie in früheren Versionen schon gezeigt haben, das es auch nur über die shader funktioniert. FSR mag nicht so toll sein, aber immerhin funktioniert es Hersteller unabhängig. Und ausgerechnet von Intel kommt dann auch noch eine weitere Lösung die nicht verdongelt ist.

Aber nach wie vor bin ich kein Fan von DLSS und co, denn nach wie vor gibt es Artefakte, Unschärfe in Bewegung und Unregelmäßigkeiten in der Texturschärfe. Das hält mich nach wie vor davon ab DLSS zu verwenden. Da nehme ich lieber eine geringere Detailstufe in Kauf, da das Bild dann zumindest stimmiger wirkt und nicht so inkonsistent ist.

PHuV
2023-08-23, 12:52:48
Wo siehst Du das so deutlich? Bei CP77 nimmt man das doch kaum so war?

aufkrawall
2023-08-23, 12:59:43
Es stimmt halt auch so nicht. Viele der Nachteile, die ständig für DLSS aufgezählt werden, treffen mit nativ TAA noch stärker zu.
Es überfordert halt auch viele, dass es verschiedene Presets gibt (wovon die meisten sucken, was DLSS 3.5 hoffentlich auch beendet), dass es Sharpen braucht (NIS suckt leider auch derbe und ReShade CAS ist Pflicht), und dass einige Spiele Mip Bias-Anpassung verkacken. An den ersten beiden Punkten ist natürlich Nvidia schuld, aber das kann man ja zum Glück (wenn auch mit Gefrickel) ändern.

Troyan
2023-08-23, 13:09:40
Ohne Frage - aber proprietäre Techniken sind dennoch unschön, weil sie einen unausgeglichenen Markt erzeugen wollen. Customer retention und immer mehr Leute sind in einem Ökosystem "gefangen". Entsprechend kann der Marktführer die Preise immer weiter diktieren. Gesund ist das für die Endverbraucher auf lange Sicht nicht.
Schau dir die GPU Preise an, die trotz gestiegener Kosten ein Großteil an den astronomischen Margen liegen.

Wo ist denn die quelloffene AI Upscaling Lösung?

Tobalt
2023-08-23, 13:14:34
Direct X hat damit begonnen, die low prec Matrix Multiplikationen einzubinden. Ich vermute, dass wir auf der Basis in den nächsten 5 Jahren was sehen werden.

basix
2023-08-23, 13:21:00
Hoffe das wird max. 1-2 Jahre dauern ;)

robbitop
2023-08-23, 13:21:13
Wo ist denn die quelloffene AI Upscaling Lösung?
Von Nvidia kam jedenfalls leider nur was Proprietäres was Kunden an ihre HW bindet. Aus Investoren Sicht nachvollziehbar - für den Endkundenmarkt aber sehr unschön. Führt zu einem quasi Monopol.
Aus meiner Sicht hat AMD kaum noch eine Chance, weil Nvidia den Markt praktisch fest in der Hand hat und man sub 20% Marktanteil hat. Ist es AMD's eigene Schuld? Ja absolut. Aber ist die Situation katastrophal für den Endkunden: ja absolut. Ein (Quasi) Monopol ist nie gut.
AMD ist aufgrund ihres geringen Marktanteils gezwungen, Open Source zu machen (haben aber nur ein Bruchteil des RnDs von Nvidia) und Nvidia kann dank Marktmacht alles Proprietär machen. Sehr unschön. IMO müsste dieser Markt mal reguliert werden.

aufkrawall
2023-08-23, 13:23:55
Hoffe das wird max. 1-2 Jahre dauern ;)
Dann ist das Geheule wieder groß, wenn DLSS/XeSS jeweils auf Nvidia/Intel gut laufen, aber beides auf AMD schleichlangsam. :freak:

basix
2023-08-23, 13:26:12
Man kann es nie allen recht machen ;)

Und AMD kann ja selbst was liefern, was auf ihrer HW anständig läuft ;)

Tobalt
2023-08-23, 13:29:38
Dadurch dass DirectX hier vorangeht, haben die Hardwarehersteller aber Planungssicherheit. AMD (vermutlich) wird dann künftig einfach die Struktur ihrer low prec Einheiten anpassen müssen, damit sie die mit Direct X Zeug möglichst effizient nutzen können. Die API wird sich schon an den Vorgaben/Empfehlungen von nV orientieren.

AMD GPU Sparte ist halt in schwierigem Fahrwasser, schlimmer als es die CPU Sparte je war. Kepler war die letzte nV Generation zu der man auf Augenhöhe konkurrenzfähig war. Danach wurde sich nur noch mit absurder Leistungsaufnahme oder geringen Margen der Schein von Konkurrenzfähigkeit aufrecht erhalten. nV verdient sich dadurch eine goldene Nase und investiert das clever in Zukunftstechnologien. Da wurde AMD einfach über einen sehr langen Zeitraum ausmanövriert.

Mit dem Umstieg auf low prec Computing ist eigentlich ein guter Zeitpunkt um für AMD mal wieder alles auf die neuen Karten zu setzen, aber bisher kommt da nichts.

Troyan
2023-08-23, 13:31:13
Von Nvidia kam jedenfalls leider nur was Proprietäres was Kunden an ihre HW bindet. Aus Investoren Sicht nachvollziehbar - für den Endkundenmarkt aber sehr unschön. Führt zu einem quasi Monopol.
Aus meiner Sicht hat AMD kaum noch eine Chance, weil Nvidia den Markt praktisch fest in der Hand hat und man sub 20% Marktanteil hat. Ist es AMD's eigene Schuld? Ja absolut. Aber ist die Situation katastrophal für den Endkunden: ja absolut. Ein (Quasi) Monopol ist nie gut.
AMD ist aufgrund ihres geringen Marktanteils gezwungen, Open Source zu machen (haben aber nur ein Bruchteil des RnDs von Nvidia) und Nvidia kann dank Marktmacht alles Proprietär machen. Sehr unschön. IMO müsste dieser Markt mal reguliert werden.

Warum muss nVidia eine quelloffene Lösung anbieten und nicht AMD? Was nVidia macht, kann jeder machen.

Linmoum
2023-08-23, 13:31:40
Von Nvidia kam jedenfalls leider nur was Proprietäres was Kunden an ihre HW bindet. Aus Investoren Sicht nachvollziehbar - für den Endkundenmarkt aber sehr unschön. Führt zu einem quasi Monopol.Die Frage ist doch auch: Ist ein "quelloffener Standard" mit der Qualität von DLSS ohne weiteres überhaupt so möglich? IMO sollte halt nicht immer nur die Frage sein, ob irgendetwas funktioniert. FG ist in der Theorie auch auf non-RTX4000 möglich. Ist das Ergebnis als solches aber zufriedenstellend?

Nvidia hat ihre dedizierten Hardwareeinheiten ja nicht nur zur Zierde verbaut, die haben ihren Nutzen und das sieht man eben (auch) im Vergleich zu AMDs Ansatz (den sie irgendwann aber auch aufgeben werden und dann ist da nichts mehr mit "für alle" als offener Standard).

robbitop
2023-08-23, 13:31:41
Sie werden hoffentlich mit der Zeit gehen und früher/später Matrix HW verbauen statt die Vektor FPUs zu blockieren, welche eigentlich für das 3D Rendering gebraucht werden.

robbitop
2023-08-23, 13:34:35
Warum muss nVidia eine quelloffene Lösung anbieten und nicht AMD? Was nVidia macht, kann jeder machen.
Kann eben nicht jeder. Weil 1. nicht jeder das RnD Budget dafür hat und 2. eben nur Nvidia die Marktmacht hat, ein proprietäres Verfahren durchzusetzen.

Anders herum gefragt: warum muss immer AMD quelloffene Lösungen bieten und warum nicht auch mal Nvidia?
Die Antwort ist die gleiche (auf die Frage warum Nv nur proprietäres liefert), warum der Hund sich an den Eiern leckt. Weil er's kann. :D (und aus Investorensicht das sinnvoll ist - ich bin mir sicher wären die Rollen vertauscht wäre es genau so. AMD würde es proprietär machen und NV quelloffen. Firmen haben keinen Charakter. Firmen sind weder gut noch böse. Sie dienen einzig den Interessen der Investoren und adaptieren ihr Handeln an die Gegebenheiten ihres Marktes)
"Companies are not your friends" - so ist es nunmal. Und wenn ein Markt kaputt ist, muss eben reguliert werden.

Die Frage ist doch auch: Ist ein "quelloffener Standard" mit der Qualität von DLSS ohne weiteres überhaupt so möglich? IMO sollte halt nicht immer nur die Frage sein, ob irgendetwas funktioniert. FG ist in der Theorie auch auf non-RTX4000 möglich. Ist das Ergebnis als solches aber zufriedenstellend?

Nvidia hat ihre dedizierten Hardwareeinheiten ja nicht nur zur Zierde verbaut, die haben ihren Nutzen und das sieht man eben (auch) im Vergleich zu AMDs Ansatz (den sie irgendwann aber auch aufgeben werden und dann ist da nichts mehr mit "für alle" als offener Standard).
Ist nur eine Frage der Geschwindigkeit. Spezialhardware rechnet Spezialmathematik "nur" schneller und effizienter. Schaue dir wie gesagt mal den nsight screenshot von basix an in einem Game mit DLSS 3 FG. Die Leuchten in der gesamten Frametime nur einen Bruchteil der Zeit auf. Mit RDNA3s WMMA Durchsatz wäre zumindest Upsampling ala DLSS sicherlich mit vertretbarem Performanceloss machbar.
Auch ist nicht auszuschließen, dass es beim Status Quo bleibt. Es werden sicherlich mittelfristig alle Matrixeinheiten haben.
Am Ende braucht es nur eine Schnittstelle (die es in DX seit kurzem für Matrixoperationen gibt) die jeder IHV supporten muss und schon werden die Matrixberechnungen so ausgeführt, wie es die jeweilige HW kann.

Wie das mit FG ist, ist schwer einschätzbar. (wenn man die optical flow Berechnungen "zu fuß" macht oder wie gut es ohne optical flow acceleration funktioniert) Aber auch hier könnte man eine Schnittstelle setzen und jeder kann entsprechende Fixed Function HW verbauen und das backend der Schnittstelle anpassen.

Ex3cut3r
2023-08-23, 14:07:36
DLAA nimmt die Bildschirmauflösung als Ausgangsbasis, skaliert hoch über die Bildschirmauflösung hinaus und skaliert dann zurück auf die Bildschirmauflösung.

Das ergibt überhaupt keinen Sinn. :biggrin:

EDIT: Ok. Weiter oben "ruderst" du zurück, alles gut.

Grendizer
2023-08-23, 14:11:43
Ich brauch nichts quelloffenes, sondern was funktionierendes.

Ja nVidia melkt mich als Kunden, das es wehtut und ich mir mit der 4070 TI auch ein extrem teures Produkt für die Leistung gekauft habe, aber DLSS ist meiner Meinung nach jeden Cent Aufpreis wert. Und man sieht ja das nVidia sich nicht auf den Lorbeeren ausgeruht hat, sondern knapp 9 Monate nach dem Release von DLSS 3.0 jetzt wieder eine Schippe drauflegt und die Qualität weiter steigert, während FSR 3.0 vermutlich nur an DLSS 3.0 mit Framegeneration rankommen wird. Wie die Performance von FSR 3.0 in Geschwindigkeit und Qualität dann im Vergleich zu DLSS 3.0 sein wird, wird dann gar nicht mehr so relevant sein, wenn die Qualität von DLSS 3.5 deutlich besser als FSR 3.0 sein sollte.

robbitop
2023-08-23, 14:22:13
Du sagst es selbst. Du musstest 800 EUR für eine SKU ausgeben, die eigentlich eher eine 400-500 EUR SKU war. (42% des Top Dogs sind historisch eher zwischen der 60er und 70er SKU - also eher eine 4060 ti in Wahrheit). Und das wird nicht besser (im Gegenteil), wenn der Markt so schief bleibt wie er ist.
Eine Quelloffenheit wäre kein Nachteil für DLSS als Verfahren - allerdings für Nvidia, weil sie ein Differenzierungskriterium aufgeben müssten.

Idealweise hat man einen möglichst homogenen Markt mit so vielen wie möglichen gleichstarken Teilnehmern. Denn dann ist Wettbewerb garantiert und das führt zu gutem P/L.

Natürlich muss man konstatieren, dass DLSS sehr sehr gut ist. Das war auch nicht die Frage. Und auch, dass das Open Source Verfahren von AMD (FSR) da nicht hinterher kommt. Das liegt nicht in der open source Natur sondern daran, dass AMD nur ein Bruchteil der Resources hat von NV. Und nur AMD ist gezwungen open source zu machen, weil man kaum Marktanteil hat.

aufkrawall
2023-08-23, 14:33:59
Selbst Intel hält das NN von XeSS unter Verschluss. Wahrscheinlich würde eine Offenlegung AMD nützen und damit für die anderen Firmen selbst geschäftsschädigend sein. Ich seh da wirklich nichts, was man ihnen dabei vorwerfen kann. AMD hat es einfach unterlassen, nach Zen die GPU-Sparte für Gaming so aufzubauen, wie es nötig gewesen wäre, weil man halt lieber eine Server-Firma ist.

Kann sogar sein, dass man mit RDNA3 PC-Gaming absichtlich geopfert hat, weil es in erster Linie als Vorbereitung für die Einführung von RDNA für CDNA dienen könnte (siehe hohe Compute-Taktraten von RDNA3). In dem Fall kann man das als Verbraucher einfach nur abhaken und etwas anderes kaufen.

Hakim
2023-08-23, 14:36:27
Sieht jetzt damit bei Warzone 1 und 2 der rumliegende Loot nicht mehr wie Pixelbrei mit DLSS aus?

aufkrawall
2023-08-23, 14:39:19
Der Effekt ist offenbar generell völlig kaputt und darauf ausgelegt, durch TAA stark geblurt zu werden. Passiert mit FSR 2 und XeSS genau so.
Kann natürlich sein, dass ein neues Preset mit 3.5 hierbei auch Linderung verschaffen würde.

robbitop
2023-08-23, 14:40:32
Selbst Intel hält das NN von XeSS unter Verschluss. Wahrscheinlich würde eine Offenlegung AMD nützen und damit für die anderen Firmen selbst geschäftsschädigend sein. Ich seh da wirklich nichts, was man ihnen dabei vorwerfen kann. AMD hat es einfach unterlassen, nach Zen die GPU-Sparte für Gaming so aufzubauen, wie es nötig gewesen wäre, weil man halt lieber eine Server-Firma ist.

Kann sogar sein, dass man mit RDNA3 PC-Gaming absichtlich geopfert hat, weil es in erster Linie als Vorbereitung für die Einführung von RDNA für CDNA dienen könnte (siehe hohe Compute-Taktraten von RDNA3). In dem Fall kann man das als Verbraucher einfach nur abhaken und etwas anderes kaufen.
Das NN kann man ja auch unter Verschluss behalten. Es muss nur HW agnostisch sein und idealerweise ein Backend, so dass man die Instruktionen, die die jeweilge GPU kann auch nutzen kann.
Intel hat natürlich ganz andere resources als die RTG bei AMD.

AMD ist kleiner als Nvidia und nur ein Bruchteil von AMD (die RTG) ist im GPU Markt verortet (dementsprechend sind die Resources in einer anderen Liga). Für mich klar, dass man da keine Chance sieht, solange der Wettbewerb nicht gerade "pennt".

Und ja deine Schlussfolgerungen sind richtig - bestreitet niemand. Bleibt aber leider schlecht für uns Endkunden und den Markt.

aufkrawall
2023-08-23, 14:54:25
Übrigens: In Immortals of Aveum glättet FG wieder kleinere Frame Time Spikes ganz nett weg. Dummerweise gibts aber auch wieder Probleme in Form zufällig auftretender Linien-Artefakte, die durchs Bild gehen, sowie unschönen Ghostings des HUDs.
Einfach nur konstant dauerverbugt, dieses Feature. ;(

The_Invisible
2023-08-23, 14:57:20
Die Frage ist doch auch: Ist ein "quelloffener Standard" mit der Qualität von DLSS ohne weiteres überhaupt so möglich? IMO sollte halt nicht immer nur die Frage sein, ob irgendetwas funktioniert. FG ist in der Theorie auch auf non-RTX4000 möglich. Ist das Ergebnis als solches aber zufriedenstellend?

Nvidia hat ihre dedizierten Hardwareeinheiten ja nicht nur zur Zierde verbaut, die haben ihren Nutzen und das sieht man eben (auch) im Vergleich zu AMDs Ansatz (den sie irgendwann aber auch aufgeben werden und dann ist da nichts mehr mit "für alle" als offener Standard).

Die Frage ist halt auch von wo dann das AI Trainingsmodell kommt, laut Nvidia wurde das für DLSS3.5 ja mit 5x mehr Daten gefüttert wie zuvor, da sind ja auch enorme Kosten dahinter. Glaube kaum das die das einfach so zur Verfügung stellen.

Vor 5 Jahren wurde jedenfalls über Nvidia als sie RT/KI/TensorCores vorstellten noch gelacht und das es eine Eintragsfliege ist oder wird. Irgendwann muss halt für alles der erste Schritt gemacht werden.

Deisi
2023-08-23, 14:59:22
Ich brauch nichts quelloffenes, sondern was funktionierendes.



Genau das, den Endkunden interessiert nur was bei ihm auf dem Bildschirm ankommt und was er dafür bezahlen muss. Wenn es bei AMD weniger/schlechtere Features für ähnlich unverschämte Preise gibt, fällt die Entscheidung leicht.

Übrigens: In Immortals of Aveum glättet FG wieder kleinere Frame Time Spikes ganz nett weg. Dummerweise gibts aber auch wieder Probleme in Form zufällig auftretender Linien-Artefakte, die durchs Bild gehen, sowie unschönen Ghostings des HUDs.
Einfach nur konstant dauerverbugt, dieses Feature. ;(

Ist da schon die neueste dll drin? Zumindest bei Dying Light2 konnte man damals das HUD Ghosting mit der neueren dll fixen.

crux2005
2023-08-23, 15:03:48
In 5 Stunden gehts los Alan Wake 2 mit DLSS 3.5

https://youtu.be/HwGbQwoMCxM

Iwie ja lustig. ;D

Das hätten sie sich sparen können. ;D ;D ;D

Troyan
2023-08-23, 15:07:05
Wieso? Man bekommt einen tollen Eindruck, wieviel besser 3.5 ist.

Cubitus
2023-08-23, 15:07:34
Das hätten sie sich sparen können. ;D ;D ;D

Ja :usad:

Wieso? Man bekommt einen tollen Eindruck, wieviel besser 3.5 ist.

Das schon, aber doch arg kurz.

aufkrawall
2023-08-23, 15:08:17
Ist da schon die neueste dll drin? Zumindest bei Dying Light2 konnte man damals das HUD Ghosting mit der neueren dll fixen.
Nicht die allerneuste, aber die neuste FG-DLL von TPU + SL-DLLs von Ratchet & Clank bringen leider gar nichts.

The_Invisible
2023-08-23, 15:08:59
Alan Wake 2 mit DLSS 3.5

Anscheinend ist die Lichdarstellung reaktiver damit und feinere Elemente noch stabiler, Frage ob das Performance Mode ist, normal ist das ja immer so

HwGbQwoMCxM

Rancor
2023-08-23, 15:09:16
Wenn AMD nicht mal langsam mit FSR 3 um die Ecke kommt, dann brauchen die sich nicht wundern.

aufkrawall
2023-08-23, 15:13:35
Die Präzision des RTs ist schon ziemlich krass:
https://abload.de/img/mpv-shot000186c6t.png (https://abload.de/image.php?img=mpv-shot000186c6t.png)

Mal sehen, ob ich mir dieses Jahr noch eine 4070 hole, wenn das mit 12GB läuft. :freak:
Falls DLSS 3.5 noch weniger smeart, kann ich eigentlich gar nicht anders. :redface:

Ex3cut3r
2023-08-23, 15:14:38
Übrigens: In Immortals of Aveum glättet FG wieder kleinere Frame Time Spikes ganz nett weg. Dummerweise gibts aber auch wieder Probleme in Form zufällig auftretender Linien-Artefakte, die durchs Bild gehen, sowie unschönen Ghostings des HUDs.
Einfach nur konstant dauerverbugt, dieses Feature. ;(

Wenn Nvidia das schon nicht zu 100% gelöst bekommt, mit KI/AI Einheiten, dann kann man sich schonmal drauf freuen, wie toll FSR 3.0 aussehen wird.

Oder aber man benutzt bei den RDNA 3 Karten, die dedizierten Matrix Cores und hat dadurch bessere Ergebnisse als auf RDNA 2 etc. Interessant wäre es dann nur, ob Nvdias RTX Reihe ab 2000 auch die Matrix Einheiten nutzen darf....dann müsste Nvidia eigentlich FG auch für die 3000er (mindestens) aktivieren.

robbitop
2023-08-23, 15:30:38
Oder aber man benutzt bei den RDNA 3 Karten, die dedizierten Matrix Cores und hat dadurch bessere Ergebnisse als auf RDNA 2 etc.
Wie oft noch? RDNA 3 hat keine Matrixcores. Von AMD hat bis dato nur CDNA3 dies.
Was AMD in RDNA 3 eingebaut hat ist ein Instructionset für Matrizen, welches mehr aus den Vektor FPUs herausholt und besser zu AI Workloads passt. Gerechnet wird es dennoch auf den Vektor FPUs.

basix
2023-08-23, 15:32:54
Smearing, Flickering, Delay/Responsiveness scheinen mit DLSS3.5 einen gewaltigen Qualitätssprung zu machen. Hätte nicht gedacht, dass das "nur" mit einem verbesserten RT-Upsampling und RT-Denoising so gut klappt.

Mich würde es interessieren, ob auch bei non-RT Settings Verbesserungen zu sehen sein werden (DLSS).

Troyan
2023-08-23, 16:01:40
Bisschen unfair ist es schon ohne und mit DLSS 3.5 zu vergleichen. Da die Denoiser temporär arbeiten, bedeuten weniger Frames auch schlechtere Qualität.

Aber sieht schon beeindruckend aus, was man mit 1/4 Input-Auflösung erreichen kann.

Ex3cut3r
2023-08-23, 16:05:09
Wie oft noch? RDNA 3 hat keine Matrixcores. Von AMD hat bis dato nur CDNA3 dies.
Was AMD in RDNA 3 eingebaut hat ist ein Instructionset für Matrizen, welches mehr aus den Vektor FPUs herausholt und besser zu AI Workloads passt. Gerechnet wird es dennoch auf den Vektor FPUs.

Ok, Ok. Sry bin hier auch nicht (mehr) 24/7 unterwegs. :biggrin:

Dazu kommt noch, dass AMD GPUs mich sowieso nicht sehr interessieren.

Cubitus
2023-08-23, 16:18:03
Was mir noch gut gefällt die Szene mit dem Zaun ab 0:30.
Scheint ein schönes ruhiges Bild zu sein.

DrFreaK666
2023-08-23, 16:56:02
Wo ist denn die quelloffene AI Upscaling Lösung?

Leider nirgends

Lurtz
2023-08-24, 21:42:16
Laut HWU wird das Neural Network von DLSS Super Resolution durch ein kombiniertes aus Super Resolution und Ray Reconstruction ersetzt, daher auch die Empfehlung, RR mit SR zu kombinieren:
https://www.youtube.com/watch?v=ucEyonliFLg&t=531s

Ob das nur zusammen geht und vielleicht in Zukunft geändert wird, dazu gabs noch keine klaren Aussagen.

(Nebenbei finde ich die Einschätzung, DLSS 3.5 würde nicht viel ändern, weil Radeons ja eh schon nicht konkurrenzfähig sind für RT, irgendwie putzig).

Linmoum
2023-08-25, 19:53:09
Bezüglich der Thematik DLSS in AMD-Titeln wisst ihr dann jetzt auch Bescheid.

tl;dr: Entwickler hat AMDs Support, DLSS zu integrieren. Ergo blamed AMD den Entwickler, wenn es kein DLSS gibt. An AMD liegt es daher nicht (warum wartet man dann erst Monate, sich mal zu äußern?). Bei den ganzen AMD-Titeln da draußen, die kein DLSS supporten, sind das aber erstaunlich viele Entwickler, die da mittlerweile zusammenkommen und die AMD ja scheinbar trotzdem alle supportet, wenn sie DLSS integrieren wollen würden. ;D

https://www.theverge.com/2023/8/25/22372077/amd-starfield-dlss-fsr-exclusive-frank-azor

He admits that — in general — when AMD pays publishers to bundle their games with a new graphics card, AMD does expect them to prioritize AMD features in return. “Money absolutely exchanges hands,” he says. “When we do bundles, we ask them: ‘Are you willing to prioritize FSR?’”

But Azor says that — in general — it’s a request rather than a demand. “If they ask us for DLSS support, we always tell them yes.”

aufkrawall
2023-08-25, 20:00:42
“When we do bundles, we ask them: ‘Are you willing to prioritize FSR?’”
"Prioritize" hinterlässt leider doch einen ziemlichen Beigeschmack. AMD könnte auch einfach sagen "Dafür baut ihr bitte FSR ein", was deutlich weniger indirekten Aufforderungscharakter hätte, andere Techniken zu benachteiligen. :mad:

Troyan
2023-08-25, 20:03:17
Der ganze Abschnitt sagt doch alles aus:

He admits that — in general — when AMD pays publishers to bundle their games with a new graphics card, AMD does expect them to prioritize AMD features in return. “Money absolutely exchanges hands,” he says. “When we do bundles, we ask them: ‘Are you willing to prioritize FSR?’”

Gilt bestimmt auch für Raytracing und Co.

aufkrawall
2023-08-25, 20:35:10
Es erklärt leider auch die Häufung bei DLSS vorhanden vs. nicht vorhanden. Es schließt es nicht aus, sorgt aber für einen Trend...

Btw. Die StreamLine-DLLs von Fortnite haben offenbar die gleichen Versionsnummern wie die von Ratchet & Clank. Die Signatur der Fortnite-DLLs ist aber ein paar Stunden neuer. Und jetzt kommts: Wenn man die Fortnite-DLLs in Immortals of Aveum nutzt, anstatt der spieleigenen oder der von Ratchet & Clank, ist das HUD-Ghosting offenbar komplett gefixt :eek: :freak: . Nvidia shipt offenbar mal wieder Schrott-Varianten...

Falls es jemand ausprobieren will:
https://filehorst.de/d/eGpAcEnr

Lehdro
2023-08-25, 20:40:53
"Prioritize" hinterlässt leider doch einen ziemlichen Beigeschmack. AMD könnte auch einfach sagen "Dafür baut ihr bitte FSR ein", was deutlich weniger indirekten Aufforderungscharakter hätte, andere Techniken zu benachteiligen. :mad:
Wer bezahlt, bestimmt.

War bei CP2077 auch nicht anders.

aufkrawall
2023-08-25, 20:49:09
Eigentlich gar kein gutes Beispiel, weil es alle Upsampler hat.

Lehdro
2023-08-25, 20:51:03
Eigentlich gar kein gutes Beispiel, weil es alle Upsampler hat.
Ja stimmt. Jetzt. Genau darum geht es doch aber bei "Prioritize".

aufkrawall
2023-08-25, 20:54:05
Offenbar nicht, oder wo ist DLSS in Dead Island 2 oder Jedi Survivor? Kannst ja noch ein paar Jahre drauf warten, aber mit hoher Wahrscheinlichkeit vergebens...

Lehdro
2023-08-25, 21:05:06
Und daran ist jetzt AMD Schuld? Beschwer dich doch beim Entwickler. Die sehen anscheinend keine Notwendigkeit und AMD sagt das sie es nicht blocken. Ansonsten gib dich halt der naheliegenden Vermutung hin, die aber aktiv verneint wird.

Linmoum
2023-08-25, 21:09:51
Das sind dann aber auffallend viele Entwickler und auch immer ausgerechnet bei Spielen, die von AMD gesponsored werden, die dann "keine Lust haben" DLSS zu integrieren. Kann man natürlich glauben, wenn man viel auf Zufälle gibt.

aufkrawall
2023-08-25, 21:11:29
Billiges Strohmann-Argument. Es war immer klar, dass AMD nie zu 100% verbietet, DLSS zu unterstützen. Die Schlussfolgerung aus deiner Argumentation wäre dann, dass die statistische Verteilung von FSR 2/DLSS-Support reiner Zufall wäre. Wenn du so naiv bist, ok...

Der_Korken
2023-08-25, 21:21:59
Irgendwie ist das eine sehr unbefriedigende Situation, wenn jede Upscaling-Methode expliziten Support braucht und sich der Markt daran fragmentiert. Die Upscaler werden immer besser, bieten teilweise 30-50% mehr Leistung bei gleicher Bildqualität oder im Falle von DLSS3.5 massiv bessere Bildqualität, aber man muss sich seine Graka danach kaufen, welche man Spiele man spielen will, um auch in den Genuss davon zu kommen. Wäre es nicht möglich eine API bereitzustellen, die genau Infos aus den Engines abgreift, die DLSS, FSR und XeSS brauchen? Dann muss jeder Entwickler nur die Versorgung dieser API bei sich implementieren. Nvidia wird natürlich kein Interesse haben, da sie wie immer ihre proprietären Standard durchdrücken wollen, aber AMD und Intel könnten hier schon ein Interesse haben zusammenzuarbeiten und man könnte so eine API (sofern möglich) so bauen, dass Nvidia sich jederzeit dranhänge könnte, um die eigene Lösung als kompatibler zu vermarkten. Bei FreeSync ist der Plan aufgegangen (auch wenn Nvidia dort mit ihren Extragebühren für G-Sync-Module sicher nicht beliebt war).

Tesseract
2023-08-25, 21:27:02
Wäre es nicht möglich eine API bereitzustellen, die genau Infos aus den Engines abgreift, die DLSS, FSR und XeSS brauchen?

nvidias streamline macht mehr oder weniger genau das und DLSS und XeSS verwenden es beide. nur AMD stellt sich quer.

Lehdro
2023-08-25, 21:27:32
Billiges Strohmann-Argument. [...]
Wenn du so naiv bist, ok...
Touche.

Aber wie hier schon vermutet: Egal was AMD sagt, nur sie sind Schuld. Und dann wundert sich hier das halbe Forum warum sie nix sagen. Sie können nur verlieren. Es ist unmöglich das es auch andere Gründe gibt, es muss an AMD liegen. Mag sein das AMD das ganze in die Richtung pushed, aber der Druck seitens Journalisten, Spielern und auch NV scheint nicht zu reichen um das umzukippen. Fragt man sich auch warum, wo es doch eine solch überlegene Technologie ist.

basix
2023-08-25, 21:28:02
Irgendwie ist das eine sehr unbefriedigende Situation, wenn jede Upscaling-Methode expliziten Support braucht und sich der Markt daran fragmentiert. Die Upscaler werden immer besser, bieten teilweise 30-50% mehr Leistung bei gleicher Bildqualität oder im Falle von DLSS3.5 massiv bessere Bildqualität, aber man muss sich seine Graka danach kaufen, welche man Spiele man spielen will, um auch in den Genuss davon zu kommen. Wäre es nicht möglich eine API bereitzustellen, die genau Infos aus den Engines abgreift, die DLSS, FSR und XeSS brauchen? Dann muss jeder Entwickler nur die Versorgung dieser API bei sich implementieren. Nvidia wird natürlich kein Interesse haben, da sie wie immer ihre proprietären Standard durchdrücken wollen, aber AMD und Intel könnten hier schon ein Interesse haben zusammenzuarbeiten und man könnte so eine API (sofern möglich) so bauen, dass Nvidia sich jederzeit dranhänge könnte, um die eigene Lösung als kompatibler zu vermarkten. Bei FreeSync ist der Plan aufgegangen (auch wenn Nvidia dort mit ihren Extragebühren für G-Sync-Module sicher nicht beliebt war).

Die API nach der du fragst gibt es in Form von Nvidias Streamline bereits :freak:

Was bei Streamline fehlt ist der Multi-Vendor Support für die einzelnen Algorithmen. FSR3 hat das. DLSS nicht und XeSS nur bedingt. Deswegen macht AMD bei Streamline nicht mit, da dies nur Nvidia helfen würde.

nvidias streamline macht mehr oder weniger genau das und DLSS und XeSS verwenden es beide. nur AMD stellt sich quer.
Wie oben geschrieben: API = ja. Multi-Vendor Support der Algorithmen = Nein. Und Korken fragt aus Kundensicht wohl primär nach letzterem.

Tesseract
2023-08-25, 21:40:13
ich sehe da den vorteil nicht ganz. man verliert flexibilität und gewinnt was genau?

basix
2023-08-25, 21:44:30
Ich als Kunde kann alle Verfahren nutzen? Ist das kein Gewinn? Sogar mehr Flexibilität (ich kann nutzen, was mir am besten gefällt).

Für die Hersteller ist es weniger Flexibilität, ja. Doch die bezahlen wir in Form von unserem hart verdienten Geld ;)

Problem an dem ganzen: Es hängt an den Herstellern. Und die wollen sich differenzieren, weswegen das wohl eine Utopie bleiben wird.

Naja, evtl. kommt mit TSR und den neuen WMMA Befehlen via DX12 Agility SDK etwas Schwung in die Bude --> Spiele- und Engine-Hersteller investieren in ihre eigenen Algorithmen. Das hat aber auch Vor- und Nachteile.

DrFreaK666
2023-08-25, 21:47:22
Wieso gibt es da nichts von MS? Wäre ja nicht ganz unlogisch, schon alleine wegen den Xboxen

aufkrawall
2023-08-25, 22:10:33
Aber wie hier schon vermutet: Egal was AMD sagt, nur sie sind Schuld.
Nein, nicht egal, was sie sagen. Sie hätten sagen können, ein Deal mit AMD-Promo würde die Implementierung Features anderer Hersteller nicht beeinflussen. Sie haben aber mit maximal abgesicherter Corporate Speech defakto das Gegenteil gesagt.

The_Invisible
2023-08-25, 22:11:14
nvidias streamline macht mehr oder weniger genau das und DLSS und XeSS verwenden es beide. nur AMD stellt sich quer.

Ist sogar OpenSource und auf Github, also eigentlich genau AMD ihr Ding, schon merkwürdig ;)

Troyan
2023-08-25, 22:13:44
Es erklärt leider auch die Häufung bei DLSS vorhanden vs. nicht vorhanden. Es schließt es nicht aus, sorgt aber für einen Trend...

Btw. Die StreamLine-DLLs von Fortnite haben offenbar die gleichen Versionsnummern wie die von Ratchet & Clank. Die Signatur der Fortnite-DLLs ist aber ein paar Stunden neuer. Und jetzt kommts: Wenn man die Fortnite-DLLs in Immortals of Aveum nutzt, anstatt der spieleigenen oder der von Ratchet & Clank, ist das HUD-Ghosting offenbar komplett gefixt :eek: :freak: . Nvidia shipt offenbar mal wieder Schrott-Varianten...

Falls es jemand ausprobieren will:
https://filehorst.de/d/eGpAcEnr

Danke, kurz getestet, funktioniert erstmal gut.

Ansonsten hat nVidia DLSS 3.5 veröffentlicht - noch ohne RayReconstruction aber für FrameGeneration gibt es was neues:

DLSS 3.5 also adds Auto Scene Change Detection to Frame Generation. This feature aims to automatically prevent Frame Generation from producing difficult-to-create frames between a substantial scene change. It does this by analyzing the in-game camera orientation on every DLSS Frame Generation frame pair.

Auto Scene Change Detection eases integration of new DLSS 3 titles, is backwards compatible with all DLSS 3 integrations, and supports all rendering platforms. In SDK build variants, the scene change detector provides onscreen aids to indicate when a scene change is detected so the developer can pass in the reset flag.

https://developer.nvidia.com/blog/generate-groundbreaking-ray-traced-images-with-next-generation-nvidia-dlss/?ncid=so-twit-141795

Tesseract
2023-08-25, 22:14:01
Problem an dem ganzen: Es hängt an den Herstellern. Und die wollen sich differenzieren, weswegen das wohl eine Utopie bleiben wird.

ist halt auch der anreiz geld in R&D zu investieren. eine gemeinsame API macht es einfach alle konkurrierenden technologien einzubauen und jeder hat einen anreiz zu verbessern. einerseits will man (völlig zurecht) konkurrenz, andererseits aber dann bitte doch die einheitslösung, am besten noch vom lockin-könig microsoft? diese variante hatten wir viele jahre und das war bilinares scaling. jetzt sind es zumindest drei die zwar definitiv nicht gleich gut aber alle wesentlich besser als bilinear sind.

das was manche - bewusst oder unbewusst - wollen ist hohe investitionen in R&D aber bezahlen soll es doch bitte jemand anders und das ist halt etwas naiv.

Lehdro
2023-08-25, 22:36:32
Nein, nicht egal, was sie sagen. Sie hätten sagen können, ein Deal mit AMD-Promo würde die Implementierung Features anderer Hersteller nicht beeinflussen. Sie haben aber mit maximal abgesicherter Corporate Speech defakto das Gegenteil gesagt.
Das was du willst wäre aber eine glatte Lüge gewesen und das hätte sofort jeder, auch du, zu Recht(!) moniert.

Ich fasse also mal zusammen: Du wirfst AMD also vor NICHT gelogen zu haben. Nice.

aufkrawall
2023-08-25, 22:43:56
So butthurt.. Ich werfe AMD vor, nicht gesagt zu haben, dass ein Promo-Deal die Implementierung von DLSS nicht unwahrscheinlicher macht. So in etwa lautete das Nvidia-Statement btw.

Lehdro
2023-08-25, 22:54:35
Ich werfe AMD vor, nicht gesagt zu haben, dass ein Promo-Deal die Implementierung von DLSS nicht unwahrscheinlicher macht. So in etwa lautete das Nvidia-Statement btw.
Nee, du hast eindeutig oben geschrieben dass der Promodeal die Implementierung von DLSS nicht beeinflussen sollte. Das ist etwas ganz anderes als das was du jetzt schreibst.

Schon eine zeitliche Priorisierung von FSR wäre eine Beeinflussung. Genau das hat AMD auch gesagt. Weil es halt stimmt. Muss man nicht ok finden, aber es ist die Wahrheit. Zudem hat AMD gesagt das man DLSS nicht aktiv blockt. Eigentlich genau die Aussage die du eigentlich haben willst. Ob der Sponsordeal die Implementierung anderer Features unwahrscheinlicher macht, kann gar nicht von AMD alleine bestätigt werden. Was ist wenn der Publisher nur auf einen Upscaler gesetzt hätte, durch AMDs Sponsoring aber auf FSR gesetzt hat, weil es halt bezahlt wird und deswegen kein DLSS mehr "braucht", weil Checkliste ist halt schon abgehakt? Ist dann AMD Schuld oder der Publisher der Geld sparen will?
So butthurt..
Ja ;D

Exxtreme
2023-08-25, 22:57:17
Sorry, aber das Thema lautet immer noch "nVidias Deep Learning Super Sampling - DLSS 2.x und DLSS 3" und nicht ob AMD Features anderer Hersteller blockt.

Danke.

robbitop
2023-08-25, 23:14:48
Eigentlich gar kein gutes Beispiel, weil es alle Upsampler hat.

Ja aber FSR 2 kam doch bei CP77 iirc deutlichst später. XeSS noch später. Also wurde da offenbar auch das priorisiert von dem der bezahlt hat. (was ich jetzt auch nicht merkwürdig finde - wenn ich was bezahle erwarte ich auch dafür etwas)

Troyan
2023-08-25, 23:27:45
Liegt vielleicht daran, dass Cyberpunk in Ende 2020 veröffentlicht wurde und FSR 2 vor 12 Monaten...

Der_Korken
2023-08-25, 23:28:18
Die API nach der du fragst gibt es in Form von Nvidias Streamline bereits :freak:

Danke für den Hinweis. Wo ich das las, fiel mir ein, dass ich davon schon mal gehört habe, es aber wieder verdrängt habe.

Gast
2023-08-26, 00:10:02
Ja aber FSR 2 kam doch bei CP77 iirc deutlichst später. XeSS noch später.

FSR1 war soweit ich mich erinnere schon ab launch dabei, XeSS gab es noch nicht und FSR2 wurde ziemlich schnell nachgeliefert.

DrFreaK666
2023-08-26, 00:44:58
Liegt vielleicht daran, dass Cyberpunk in Ende 2020 veröffentlicht wurde und FSR 2 vor 12 Monaten...

Es erschien aber trotzdem erst sechs Monate nach Release von FSR 2. Davor musste man zu Mods greifen. Dafür kams gleich mit 2.1

aufkrawall
2023-08-26, 00:46:15
Es hatte vorher aber auch schon FSR 1...

Tesseract
2023-08-26, 01:08:02
wird hier ernsthaft darüber diskutiert ob features die fast zwei jahre nach spielrelease überhaupt erst erschienen sind "zu spät" reingepatcht wurden?

:facepalm:

qu3x^
2023-08-26, 04:08:41
https://developer.nvidia.com/blog/generate-groundbreaking-ray-traced-images-with-next-generation-nvidia-dlss/?ncid=so-twit-141795

Direct Link von Git für die DLSS 3.5.0.0
https://github.com/NVIDIAGameWorks/Streamline/raw/main/bin/x64/nvngx_dlss.dll

robbitop
2023-08-26, 07:18:51
Liegt vielleicht daran, dass Cyberpunk in Ende 2020 veröffentlicht wurde und FSR 2 vor 12 Monaten...

Ist bei dir noch Mai? FSR2 kam Mai 2022. Entsprechend 15 Monate. Und FSR 2 kam viel viel später in CP77. Nämlich erst im November. Implementierung dauert, wenn DLSS funktioniert, übrigens zT nur Minuten und manchmal wenige Stunden.

robbitop
2023-08-26, 07:20:21
wird hier ernsthaft darüber diskutiert ob features die fast zwei jahre nach spielrelease überhaupt erst erschienen sind "zu spät" reingepatcht wurden?

:facepalm:
Naja bei CP77 ist es ein Sonderfall. Die bauen doch ständig die neusten Verfahren von Nvidia ein. Und das meist sofort zum Launch der Features oder knapp danach.

Klar Nvidia bezahlt dafür. Der Punkt ist, dass sich Leute aufregen wenn AMD für eine Partnerschaft bezahlt, dass AMD erwartet, dass ihre Features priorisiert werden - aber es anscheinend völlig okay ist, wenn es anders herum bei Nvidia so ist. Und bei CP77 (als Beispiel) wird völlig offensichtlich Nv Features priorisiert.

AMD hat gesagt (und lügen dürfen sie nicht ansonsten kann es von der SEC schnell zu einer Klage kommen), dass sie DLSS nicht blocken aber die erwarten Priorität. Nvidia erwartet garantiert auch Priorität. Absolut legitim IMO denn wofür bezahlt man sonst? (ohne Frage wäre es am allerbesten keiner der IHVs würde sich einmischen denn das erzeugt immer einen bias und kann proprietäre Dinge fördern die wiederum das wunderschöne Quasimonopol förderm welches GPUs so teuer macht was wir heute haben)
Entsprechend herrscht hier (bis auf dass Nvidia besser kommuniziert) Parität.

Ich finde die ganze Diskussion lächerlich. Denn beides ist nachvollziehbar. Dafür zahlt der IHV, dass ihre Features priorisiert werden. Warum sollte er denn sonst überhaupt was bezahlen?

The_Invisible
2023-08-26, 08:08:46
Kannst ja AMD fragen warum sie sich nicht an streamline beteiligen, ist opensource und auf GitHub, Feature pull requests sind also auch ersichtlich. Dann gäbe es EINE opensource api für alle upscaler und keiner braucht mehr irgendwas priorisieren

robbitop
2023-08-26, 09:31:26
Das greift da zwar mit rein ist aber ein etwas anderes Thema.
Wäre auf jeden Fall deutlich besser wenn AMD das täte. Ich vermute, es hat halt für die IHVs ein Geschmäckle wenn der andere IHV was open source macht.

basix
2023-08-26, 10:12:54
ist halt auch der anreiz geld in R&D zu investieren. eine gemeinsame API macht es einfach alle konkurrierenden technologien einzubauen und jeder hat einen anreiz zu verbessern. einerseits will man (völlig zurecht) konkurrenz, andererseits aber dann bitte doch die einheitslösung, am besten noch vom lockin-könig microsoft? diese variante hatten wir viele jahre und das war bilinares scaling. jetzt sind es zumindest drei die zwar definitiv nicht gleich gut aber alle wesentlich besser als bilinear sind.

das was manche - bewusst oder unbewusst - wollen ist hohe investitionen in R&D aber bezahlen soll es doch bitte jemand anders und das ist halt etwas naiv.

Ist mir völlig klar und ich stimme dir da definitiv zu. Als Kunde kann man sich aber schon etwas wünschen, auch wenn es evtl. nicht realistisch ist. Man muss sich aber nichts vormachen: Alles was Geld kostet soll auch wieder Geld reinbringen. Und wenn etwas Geld kostet aber nichts reinbringt, fehlt der Anreiz für die Firmen. Auflösen kann man das nur, wenn eine Lösung von ausserhalb bestünde und nicht an AMD, Nvidia und Intel aufgehängt wäre. Aber auch da: Kommt es von Microsoft, ist es wieder primär für DX12 und Xbox gedacht, um dessen Plattform zu stärken. Ist also wieder genau die selbe Situation, einfach etwas anders gelagert.

Nvidia ist mometan in der sehr komfortablen Situation, dass sie sich via DLSS weiter differenzieren können (FG, RR) und nicht von FSR3 und ~XeSS ausgeschlossen werden. Das ist der Vorteil des First Movers und wenn man die Marktmehrheit besitzt.

Ich finde die ganze Diskussion lächerlich. Denn beides ist nachvollziehbar. Dafür zahlt der IHV, dass ihre Features priorisiert werden. Warum sollte er denn sonst überhaupt was bezahlen?
Keine der Firmen macht es aus Nächstenliebe, korrekt. Und AMD hier irgendeine Bösartigkeit zu unterstellen ist und bleibt - eine Unterstellung. Und auch hier: Nvidia ist immer noch im Vorteil, auch wenn FSR2 ins Spiel integriert wird: Typischerweise bessere Qualität, dazu FG und neu RR. Die meisten Nvidia Nutzer werden also sowieso DLSS nutzen. Und falls nicht kann der Nvidia-Nutzer ebenfalls FSR2 verwenden. Da kann Nvidia die FSR2-Integration also "grosszügig" zulassen, ohne selbst Nachteile erwarten zu müssen. DLSS + FSR2 Kompatibilität bleiben ein Verkaufsargument für Nvidia Karten

DrFreaK666
2023-08-26, 10:17:37
Ja, Nvidia-Nutzer profitieren von AMD-Tech, aber was noch wichtiger ist: Konsolen-User auch

basix
2023-08-26, 10:22:51
Correcto

PS5 und XBSX sind aber mMn etwas an der Leistungsgrenze für FSR2 (~2.5...3ms Frametime bei 4K Output und 10 TFLOPS). Deswegen sehen wir das wohl nicht öfters in Spielen.

Linmoum
2023-08-26, 10:25:08
Steve von GN hatte damals in einer seiner HW-News schon sinngemäß vermutet, dass AMD später wieder einen seiner coolen Jebaited-Moves abziehen würde aka "seht her, wir schränken die Konkurrenz nicht ein". Sprich, dass sie aufgrund des Shitstorms im Nachgang die vertragliche Vereinbarung mit Bethesda modifiziert haben, um eben genau das sagen zu können, nämlich dass sie nichts blockieren. Dazu passt auch, dass sie fast zwei Monate lang nichts weiter als nichtssagende bzw. "no comment"-Äußerungen abgegeben haben, bis sie sich gestern mal inhaltlich klar geäußert haben.

Und es passt halt auch nicht dazu, dass es auffallend häufig insgesamt bei AMD-Spielen der Fall ist, dass es kein DLSS gibt. Natürlich wird man das nie endültig beweisen können, aber der Fakt, dass ein solches Statement erst nach rund zwei Monaten kommt - und AMD damit schon von Anfang an bei den ersten auftauchenden Nachfragen den Shitstorm hätte im Keim ersticken können - ist IMO schon ein deutliches Indiz, dass da hinter den Kulissen einiges passiert ist bis gestern - was heißt, es gab diese (vertragliche) Restriktion initial zum damaligen Zeitpunkt.

basix
2023-08-26, 10:27:19
Oder dass wir in unserer Filterblase das "Problem" deutlich stärker bewerten als AMD selbst ;)

Und man kann sich schon fragen: FSR2 funktioniert mit allen GPUs. Wieso Aufwand in Implementation, Testing, Debugging und Qualitätssicherung stecken, wenn ich eh zu wenig Zeit und Geld habe? Habt ihr euch das auch schon mal gefragt?

Ich sage nicht, dass die Integration von DLSS es nicht Wert wäre. Doch Firmen und Manager ticken manchmal etwas anders. Ob uns das passt oder nicht. Entwickler/Developer sind meistens nicht das Problem, die streben typischerweise die bestmögliche Lösung an.

Exxtreme
2023-08-26, 10:46:29
Da ihr es nicht lassen könnt, ist er mal hier erstmal dicht für ein paar Tage.


Edit: Ist wieder offen.

Linmoum
2023-09-01, 09:24:39
https://www.nexusmods.com/starfield/mods/111?tab=description

Mod für Starfield, vielleicht will ja mal wer testen. :)

TheCounter
2023-09-01, 09:52:36
Geil, später gleich mal probieren!

robbitop
2023-09-01, 10:01:38
Krass auf jeden Fall lächerlich, dass Bethesda es nicht implementiert hat. Wenn es ein Mod ohne Zugriff auf Quellcodes oder Dokumentation es in wenigen Tagen schafft.

Exxtreme
2023-09-01, 10:05:48
Tja, das ist der derzeitig Status der sog. AAA-Studios. Das Einzige, was bei denen AAA ist die Menge an rausgeworfenem Geld. Traurig aber wahr und gleichzeitig peinlich hoch drei.

Linmoum
2023-09-01, 10:09:22
Krass auf jeden Fall lächerlich, dass Bethesda es nicht implementiert hat. Wenn es ein Mod ohne Zugriff auf Quellcodes oder Dokumentation es in wenigen Tagen schafft.Waren das überhaupt Tage oder hat er nicht (auch) erst gestern bzw. heute Nacht loslegen können?

Aber ja, gerade auch bei einem riesigen Studio wie Bethesda gibt's für sowas keine Ausrede. Wenn die Qualität mit dem Quick&Dirty-Mod jetzt auch noch besser ist, wird das umso alberner.

aufkrawall
2023-09-01, 10:15:26
Wenn die Qualität mit dem Quick&Dirty-Mod jetzt auch noch besser ist, wird das umso alberner.
Würde ich bei kritischen Szeneninhalten mal erwarten. Das hatte schon in Tiny Tina Wonderlands einwandfrei funktioniert und diverse Effekte wurden besser bearbeitet als mit der nativen FSR 2-Implementierung.

The_Invisible
2023-09-01, 10:24:42
Krass auf jeden Fall lächerlich, dass Bethesda es nicht implementiert hat. Wenn es ein Mod ohne Zugriff auf Quellcodes oder Dokumentation es in wenigen Tagen schafft.

Ist ja aber auch nicht neu, gab ja unzähllige Aussagen und Charts das wenn eines von DLSS/FSR2/XeSS implementiert ist die anderen auch ohne großen Zeitaufwand implementiert werden können. Vor allem bei so großen AAA Titeln völlig unverständlich, da sollten alle 3 Upscaler Standard sein.

DrFreaK666
2023-09-01, 10:26:26
Ist ja bekannt, dass es eher einfach ist DLSS einzufügen.
Der Modder modifiziert übrigens seinen schon vorhandenen Code einfach nur
"It looks like there was a translation error and while PureDark hasn't received a copy of the game yet, he still acknowledges that modding DLSS within Starfield can be done in a single day as he can reuse 90% of his code from other games that he has previously worked on."

robbitop
2023-09-01, 10:56:19
Ja okay dann kann es aufgrund seiner Codebasis ggf für ihn doch weniger Aufwand sein als für den Entwickler. Trotzdem ist das oberpeinlich für Bethesda.

DrFreaK666
2023-09-01, 10:58:46
Ja schon. Vielleicht kommt es ja noch. FSR2 kam trotz Mod ja auch noch für CP2077

Gast
2023-09-01, 13:08:02
Ist ja aber auch nicht neu, gab ja unzähllige Aussagen und Charts das wenn eines von DLSS/FSR2/XeSS implementiert ist die anderen auch ohne großen Zeitaufwand implementiert werden können. Vor allem bei so großen AAA Titeln völlig unverständlich, da sollten alle 3 Upscaler Standard sein.
AMD hat für FSR etwas gezahlt, wenn sie jetzt DLSS zu früh implementieren wird eben diese Summe von AMD zurück verlangt

Gast
2023-09-01, 13:27:59
Ja okay dann kann es aufgrund seiner Codebasis ggf für ihn doch weniger Aufwand sein als für den Entwickler.


Die hat der Entwickler auch. Er macht ja nicht großartig was anderes als einen Translation-Layer zwischen Spiel und DLSS-DLL.

robbitop
2023-09-02, 09:07:06
Gibt schon erste Vergleichsvideos mit dem DLSS mod auf youtube. Und suprise, suprise - DLSS sieht besser aus.

00-Schneider
2023-09-02, 09:41:58
DLSS 3(Framegen) Mod vom Chinamann für Sternenfeld ist raus.

https://www.reddit.com/r/nvidia/comments/167o2dq/starfield_frame_generation_is_here_thanks_to/

-------------------

Freiwillige vor!

aufkrawall
2023-09-02, 09:45:26
Was erwartest du denn? Wenn es nicht unerwartete Bugs gibt, wird es wohl von einer gescheiten nativen Implementierung nicht zu unterscheiden sein.

00-Schneider
2023-09-02, 09:48:57
Was erwartest du denn? Wenn es nicht unerwartete Bugs gibt, wird es wohl von einer gescheiten nativen Implementierung nicht zu unterscheiden sein.


Ist das so "leicht" zu implementieren?

Bei DLSS 2 kann man ja auf die FSR-Daten zurückgreifen, aber wie macht er das bei DLSS 3?

aufkrawall
2023-09-02, 09:52:36
Sorry, "Framegen" überlesen.

Gast
2023-09-02, 13:29:51
Bei DLSS 2 kann man ja auf die FSR-Daten zurückgreifen, aber wie macht er das bei DLSS 3?

Framegen arbeitet an fertigen Bildern, da ist es noch viel einfacher (sogar TVs können das)

Das einzige was DLSS3 zusätzlich benötigt sind die Motion-Vectors, und die bekommt es von DLSS2.

Alles andere passiert am fertigen Bild, nicht mal das HUD wird extra betrachtet, im Gegensatz zu FSR3, dass wenn ich die Diagramme richtig verstehe, Framegen nur auf das Basisbild anwendet, und das HUD vom letzten Bild einfach darüber legt.
FSR3 sollte damit mehr Implementierungsaufwand erfordern, dafür aber kann das HUD-Ghosting nicht passieren, NV scheint sich hier auf die NN-Magic zu verlassen, was aber wie auch zuletzt bei Immortals zu sehen offenbar nicht immer funktioniert.

Oliver_M.D
2023-09-02, 17:00:26
Freiwillige vor!Sag Bescheid, wenn es in 1-2 Jahren eine kostenlose "Public Version" gibt. Dann teste ich's gerne:D

Grendizer
2023-09-02, 17:07:42
Ich verstehe euch nicht. Ihr gebt zwischen 75 und 100 Euro für ein Spiel aus, aber 5 Euro für jemanden springen lassen, der Arbeit reinsteckt und vermutlich eine deutliche Verbesserung der Grafik bereitstellen kann, wird konsequent boykotiert ? Warum eigentlich. Klar verdient er sich damit eine goldene Nase. Ich habe heute mal den Discord gejoined und meine 5 Euro abgedrückt. Warum auch nicht. Wenn das eine Firma nicht auf die Reihe bekommt, die angeblich 7.5 Milliarden Wert ist, dann ist es doch umso erstaunlicher, was er da innerhalb von einem Tag hinbekommt.

Bethesda hätte das vermutlich keine 1000 Dollar gekostet das zu implementieren. So verdient sich hier jemand vermutlich mehrere 100.000 Dollar.

Lurtz
2023-09-02, 17:30:39
Von Jensen gibts bestimmt bald das DLSS-Abo. 5€ für jedes Spiel und jede DLSS-Technologie monatlich.

BlacKi
2023-09-02, 17:51:52
Ich verstehe euch nicht. Ihr gebt zwischen 75 und 100 Euro für ein Spiel aus, aber 5 Euro für jemanden springen lassen, der Arbeit reinsteckt und vermutlich eine deutliche Verbesserung der Grafik bereitstellen kann, wird konsequent boykotiert ?


vermutlich deshalb, weil sie den kauf des spiels bereits bereuen. dann schmeißt man nicht noch 5€ hinterher.


was singleplayer spiele angeht, hab ich mittlerweile geduld bis jene gefixt sind. bei MP spielen ist die problematik viel größer.

robbitop
2023-09-02, 18:05:55
Also Armored Core 6 war bei mit ab release gepolished und ich habe keine Bugs gesehen. War mit Dark Souls 3 bei mir auch so. From Soft scheint es also zu können.

Platos
2023-09-02, 18:37:55
was singleplayer spiele angeht, hab ich mittlerweile geduld bis jene gefixt sind. bei MP spielen ist die problematik viel größer.

Vor allem deshalb, weil bis es gefixt ist, schon der nächste Teil vor der Tür steht.

Singleplayerspiele kann man auch ohne Nachteile noch 1 Jahr später zocken. Eigentlich ist meistens genau das von Vorteil, da dann alle DLCs schon gelauncht sind und man das "ganze" Spiel spielen kann.

00-Schneider
2023-09-03, 20:09:54
Digital Foundry's John Linneman on DLSS: "I've spoken with three devs that implemented DLSS pre-release and had to remove it due to sponsorship"

https://media.discordapp.net/attachments/719614726358958141/1147953809235116042/image.png

---------------------

https://media.tenor.com/_0AP8KeoQYcAAAAC/dis-gon-be-good-this-gonna-be-good.gif

Linmoum
2023-09-03, 20:14:07
Also dasselbe Spielchen wie schon bei Boundary, wo der Entwickler plötzlich eine Partnerschaft mit AMD einging und dann DLSS entfernt wurde (oder erst noch wird? nicht mehr verfolgt, war vom Entwickler aber offziell angekündigt).

Dann heißt das zweimonatige Schweigen von AMD und die kürzlichen Aussagen von Azor tatsächlich, dass man den Vertrag nachträglich angepasst hat (ich unterstelle Azor jetzt mal nicht, dass er wissentlich öffentlichkeitswirksam lügt). Soll dieses Unternehmen noch mal jemand für "Open Source wie geil!!!" feiern. Einfach nur beschämend.

Radeonfreak
2023-09-03, 20:17:30
Digital Foundry's John Linneman on DLSS: "I've spoken with three devs that implemented DLSS pre-release and had to remove it due to sponsorship"

Also hat AMD gelogen.

Linmoum
2023-09-03, 20:21:48
Nicht, wenn sie die ursprüngliche vertagliche Regelung vor kurzem aufgeweicht haben. ;) Damit lässt sich sowohl die Aussage von Azor auf der Gamescom logisch erklären als auch der Umstand, warum man auf simple "blockt ihr vertraglich DLSS?"-Fragen zwei Monate nicht geantwortet hat.

War der Shitstorm wohl doch zu groß. Kann man nur hoffen, dass sie so eine Scheiße in der Zukunft nicht weiterhin abziehen.

Radeonfreak
2023-09-03, 20:29:47
Ja gut, aber wenn man es aufgeweicht hätte, warum hat Starfield dann kein DLSS? Oder Callisto Protocoll und Survivor nachträglich?

Jupiter
2023-09-03, 20:30:13
Moore's Law Is Dead sagt, dass die ganze Geschichte Unsinn ist. Dieser AMD-Kanal wird nie mehr geschaut.

Relex
2023-09-03, 20:36:02
Das ist wirklich extrem beschämend für AMD.

Ich hoffe, das hat einen erneuten Shitstorm zur Folge.

Sollen sie doch integrieren was sie wollen, soll es von mir aus schlecht auf Nvidia Karten laufen. Wäre mir alles egal. Aber mittlerweile nahezu essenzielle technologien zu blockieren oder die Entfernung veranlassen ist eine absolute Frechheit.

Vor allem bei Starfield, wo fast jeder auf Upscaling angewiesen ist und wo vor allem schwächere Ada Lovelace Karten stark profitieren würden.
Nein, da drücken sie allen Spielern dann lieber schamlos ihr flimmerndes FSR2 aufs Auge und kriegen es noch nichtmal gebacken, dass FSR3 dabei ist.

Sorry, aber da muss man sich aufregen...
Was für ein erbärmlicher Verein.


Jetzt liegt AMD technologisch eh schon zurück, hat entsprechend geringe Marktanteile gegenüber Nvidia und jetzt sorgen sie auch noch dafür, dass man sie nichtmal mehr als den "Underdog" wahrnimmt, sondern dass alle sie hassen.
Die schaufeln sich gerade ihr eigenes Grab.
Währenddessen lacht sich Nvidia ins Fäustchen und kann die Preise fröhlich weiter anziehen.

Ach mann, AMD... :frown:

Linmoum
2023-09-03, 21:23:13
Er hat den Tweet übrigens wieder gelöscht, weil der sich nicht explizit auf Starfield bezog und das Verwirrung ausgelöst hat. Wenn dann mit "drei Devs" in dem Zusammenhang unterschiedliche Entwickler gemeint sind (also nicht ein und derselbe Entwickler/dasselbe Spiel), dann ist das bei AMD scheinbar grundsätzlich sogar an der Tagesordnung bei Sponsorships. Boundary gibt's da ja wie gesagt schon als Beispiel.

"Die devs können das machen wenn sie wollen wir sind die Guten und behindern sie nicht". Aha.

Oliver_M.D
2023-09-03, 21:37:50
Digital Foundry's John Linneman on DLSS: "I've spoken with three devs that implemented DLSS pre-release and had to remove it due to sponsorship"
Wenn dann mit "drei Devs" in dem Zusammenhang unterschiedliche Entwickler gemeint sind (also nicht ein und derselbe Entwickler/dasselbe Spiel), dann ist das bei AMD scheinbar grundsätzlich sogar an der Tagesordnung bei Sponsorships.Wie schnell die ganze Diskussion da wieder spannend wurde, wie geil ist das denn;D? Darf man sich wohl wieder auf Neues von AMD und seinen Partnern freuen:D.

TheAntitheist
2023-09-03, 21:43:28
seit AMD mit Ryzen etwas Erfolg hat gehts mit denen ganz steil Berg ab... traurig.
also meine letzten 3 CPUs waren von AMD, meine nächste wird auf keinen fall mehr von denen sein.

Linmoum
2023-09-03, 22:09:54
Von wem dann sonst? Wenn's danach geht, dürfte man kein Intel mehr kaufen. Die haben vor langer Zeit deutlich schlimmeres abgezogen.

Ex3cut3r
2023-09-03, 22:12:31
Aber wieso ist Ryzen eigentlich auf Platz 1 bei Gamern? Wenn ich mir die PCGH CPU Benchmarks ansehe für jedes neue AAA Game, ist der 13900k eigentlich immer auf Platz 1. Gefolgt vom 13700k und irgendwann ab 3 oder 4 dann der 7800X3D.

Stromverbrauch kann es ja nicht sein, erstens, weil bei Spielen die Intels nicht saufen, und zweitens, wer sich ne 4090 mit 450W+ einbaut, muss glaube ich nicht wirklich auf den Stromverbrauch achten.

DrFreaK666
2023-09-03, 22:25:54
Von wem dann sonst? Wenn's danach geht, dürfte man kein Intel mehr kaufen. Die haben vor langer Zeit deutlich schlimmeres abgezogen.

Dann dürfte man überhaupt nichts mehr kaufen, da jeder schon Scheiße gebaut hat

Oliver_M.D
2023-09-03, 22:31:25
Stromverbrauch kann es ja nicht sein, erstens, weil bei Spielen die Intels nicht saufen, und zweitens, wer sich ne 4090 mit 450W+ einbaut, muss glaube ich nicht wirklich auf den Stromverbrauch achten.7950X3D+4090 nutzer hier. Was hat das eine mit dem anderen zu tun? Es hängt doch von jedem Nutzer individuell ab, oder nicht?
Stromverbrauch ist für mich definitiv relevant, vor allem da ich beide für die 1440p-Nutzung undervolte und falls nötig zusätzlich die Wattleistung beschränke.
Für Spiele und Emulation hat Intel zweifellos seine Vorteile. Wenn man jedoch ein gutes Gesamtpaket haben möchte, sind meiner Meinung nach AMD-CPUs derzeit die beste Wahl.

Platos
2023-09-03, 22:48:12
Aber wieso ist Ryzen eigentlich auf Platz bei Gamern? Wenn ich mir die PCGH CPU Benchmarks ansehe für jedes neue AAA Game, ist der 13900k eigentlich immer auf Platz 1. Gefolgt vom 13700k und irgendwann ab 3 oder 4 dann der 7800X3D.

Stromverbrauch kann es ja nicht sein, erstens, weil bei Spielen die Intels nicht saufen, und zweitens, wer sich ne 4090 mit 450W+ einbaut, muss glaube ich nicht wirklich auf den Stromverbrauch achten.

Und wer sagt, dass Ryzen auf Platz eins ist bei Gamern? Mindfactory-Verkaufszahlen oder was :D ?

Aber es geht ja eig. auch eher um Radeon, wenns um FSR geht und nicht um Ryzen.

Gast
2023-09-03, 23:33:51
Stromverbrauch kann es ja nicht sein, erstens, weil bei Spielen die Intels nicht saufen, und zweitens, wer sich ne 4090 mit 450W+ einbaut, muss glaube ich nicht wirklich auf den Stromverbrauch achten.
sorry aber jeder Mensch hier weiß, dass die 4090 deutlich unter 400 watt verbraucht....

ich komme eigentlich nie über 250 watt und wenn man die Spiele auf ein framelimit setzen würde, verbrauchen sie weniger als die AMD Pendants...

TheAntitheist
2023-09-04, 04:55:36
Von wem dann sonst? Wenn's danach geht, dürfte man kein Intel mehr kaufen. Die haben vor langer Zeit deutlich schlimmeres abgezogen.
Ja vor langer Zeit, AMD hat schon ganz schöne Dinger in den letzten 4 Jahren rausgehauen... ergo muss jetzt AMD abgestraft werden. Man hat nur diese Wahl als Konsument...

Nightspider
2023-09-04, 05:09:32
Von wem dann sonst? Wenn's danach geht, dürfte man kein Intel mehr kaufen. Die haben vor langer Zeit deutlich schlimmeres abgezogen.

Eben.

Dumme Scheinheiligkeit.

Nvidias proprietäre Lösungen in der Vergangenheit waren kein Deut besser.

Nightspider
2023-09-04, 05:17:11
Aber wieso ist Ryzen eigentlich auf Platz bei Gamern? Wenn ich mir die PCGH CPU Benchmarks ansehe für jedes neue AAA Game, ist der 13900k eigentlich immer auf Platz 1. Gefolgt vom 13700k und irgendwann ab 3 oder 4 dann der 7800X3D.

Stromverbrauch kann es ja nicht sein, erstens, weil bei Spielen die Intels nicht saufen, und zweitens, wer sich ne 4090 mit 450W+ einbaut, muss glaube ich nicht wirklich auf den Stromverbrauch achten.

Musst du halt mal bisschen nachdenken.

Die simple Möglichkeit Zen5 in paar Monaten einfach einzubauen und der Support von PCIe 5.0 sind zumindest schon mal 2 weitere Gründe.

Außerdem gibts genug Spiele in denen AMD vor Intel liegt.

Nur weil zuletzt paar Spiele erschienen sind wo es andersherum ist und Intel macht das die Nachteile bei Intel nicht wett.

aufkrawall
2023-09-04, 06:59:46
Nvidias proprietäre Lösungen in der Vergangenheit waren kein Deut besser.
Halte ich für nicht vergleichbar. Hier wird nicht nur die technisch bessere Lösung nicht bevorzugt, sondern offenbar aktiv benachteiligt.
Dagegen ist DLSS nur für NV-Kunden schon direkt wieder kundenfreundlich. Diese Gestalten Azor und Herkelman sind einfach nur der Super-GAU für AMD. Dass Su die nicht schon vor Jahren entsorgt hat, muss sie sich ankreiden lassen.

Btw. mal sehen, was Hallock nun bei Intel so für einen Mist bauen wird. :freak:

The_Invisible
2023-09-04, 07:43:24
Nvidias proprietäre Lösungen in der Vergangenheit waren kein Deut besser.

Geh bitte, alles nur wischiwaschi dieses Open source Getue. Streamline zb ist Open source und AMD will sich auch nicht beteiligen. Für denen ist auch nur opensource gut wo sie selbst die zügel in der Hand haben.

robbitop
2023-09-04, 08:06:13
Die IHVs sind alle moralisch nicht sauber. Companies are not your friends. Erinnert sich noch jmd an die evga Affäre oder das Geforce Partner Program? Oder Intels Erpressungen an Großhändler und OEMs?Alle machen endkundenunfreundliche Scheiße. Firmen vertreten ihre Investoren und nicht irgendwelche moralischen Prinzipien. Wären die Rollen von nv und amd vertauscht würde das gleiche passieren. Nur vertauscht.
Da hilft nur Wettbewerb. Also: Intel go!

@Starfield
Sieht optisch endlich zeitgemäß aus aber die Performance pro BQ ist ein Witz. Was Optimierungen angeht können die sich bei id eine fette Scheibe abschauen.

Ein typisches Beispiel wo upsampling eingepreist wurde damit nicht mehr so viel optimiert werden muss. Wenn es optisch das nächste Crysis gewesen wäre hätte ich nichts gesagt. Aber es ist imo nur zeitgemäß. Und wer jetzt mit riesen Welt und Objektpersistenz kommt: das Spiel ist wie zu 32 bit Zeiten in kleine Levels zerteilt. Selbst die Planeten sind nur kleine Fake Levels. Hat also praktisch keine Auswirkungen.

Gast
2023-09-04, 08:58:47
Wären die Rollen von nv und amd vertauscht würde das gleiche passieren. Nur vertauscht.


Definitiv, jeder Titel mit FSR+DLSS ist Werbung für Nvidia, noch viel mehr als ein Titel mit nur DLSS, da DLSS damit immer nur außer Konkurrenz betrachtet wird.
Mit FSR+DLSS erfolgt immer ein Vergleich und damit das erwartbare Ergebnis DLSS ist besser als FSR, und damit übertragen NV ist besser als AMD.

Deshalb ist absolut verständlich, dass NV überhaupt keine Probleme hat wenn FSR eingebaut wird, es lässt sie noch besser dastehen als wenn es nur DLSS alleine wäre, und umgekehrt AMD um jeden Preis den Einbau von DLSS verhindern muss damit ein derartiger Vergleich zumindest initial nicht möglich ist.


@Starfield
Sieht optisch endlich zeitgemäß aus aber die Performance pro BQ ist ein Witz. Was Optimierungen angeht können die sich bei id eine fette Scheibe abschauen.


Das ist schon sehr wohlwollend formuliert. Es ist definitiv akzeptabel, und gut genug um den Spielspaß nicht negativ zu beeinträchtigen, aber von zeitgemäß doch einiges entfernt.

Linmoum
2023-09-04, 09:08:02
Nvidias proprietäre Lösungen in der Vergangenheit waren kein Deut besser.Hast du da Beispiele, wo Nvidia aktiv AMD Technologien aus Spielen hat ausschließen lassen? Mir würde da spontan kein Fall einfallen. Hier geht's ja nämlich nicht um proprietär oder nicht.

DrFreaK666
2023-09-04, 09:15:38
Hast du da Beispiele, wo Nvidia aktiv AMD Technologien aus Spielen hat ausschließen lassen? Mir würde da spontan kein Fall einfallen. Hier geht's ja nämlich nicht um proprietär oder nicht.

Such dir eine der AMD-Technologien aus, die bei NV-gesponsorten Titeln sicherlich keine Verwendung finden
https://gpuopen.com/amd-fidelityfx-sdk/

Platos
2023-09-04, 09:18:28
Es spielt gar keine Rolle, was nvidia getan hat. Wenn A Scheisse baut, rechtfertigt das B nicht dazu, es auch zu tun.

Abgesehen davon darfst du gerne nachweisen, wann nvidia das denn getan hat.

Dass alleinige Fehlen einer Technologie heisst nämlich erstmal gar nichts. Schon gar nicht, wenn die fehlende Technologie die ist, die nur bei unter 20% PC Gamer Marktanteil Anwendung finden könnte.

Also wenn du was behaupten willst, ist es deine Aufgabe, dies mit thesen zu untermauern.

DrFreaK666
2023-09-04, 09:23:33
...Abgesehen davon darfst du gerne nachweisen, wann nvidia das denn getan hat...

Dazu reicht der gesunde Menschenverstand. NV wird die Entwickler sicherlich nicht motivieren AMD-Tech einzubauen, wenn es eine NV-Alternative gibt

Platos
2023-09-04, 09:25:05
Ne, reicht er nicht.

Aber in dem Fall kommt von dir nichts und es ist nur heisse Luft.

Gast
2023-09-04, 09:31:55
Dazu reicht der gesunde Menschenverstand. NV wird die Entwickler sicherlich nicht motivieren AMD-Tech einzubauen, wenn es eine NV-Alternative gibt

NV hat Streamline entwickelt um Entwickler genau dafür zu motivieren.

Hätte man freilich nicht gemacht wenn man nicht die aktuell beste Upsampling-Technologie exklusiv auf eigener Hardware zu Verfügung hätte und davon ausgehen kann dass das auch noch einige Zeit so bleibt.

Das Märchen AMD - gut NV - böse ist nun ein für alle mal zusammengebrochen.

Es ist vielmehr:
AMD - böse
Intel - böse
NV - böse.

DrFreaK666
2023-09-04, 09:33:18
Ne, reicht er nicht.

Aber in dem Fall kommt von dir nichts und es ist nur heisse Luft.

Gut, wo bleibt dein Beweis, dass ein NV-gesponsortes Spiel voll mit AMD-Tech ist!? Du scheinst es ja zu wissen

Cubitus
2023-09-04, 09:34:00
DLSS ist halt besser als FSR ;D

Wie gesagt Bethesda (AMD) Shame on You

https://www.youtube.com/watch?v=ZtJLCAWSzR8
https://www.youtube.com/watch?v=wvCR0jIYJSM&t=8s

https://wccftech.com/starfield-dlss-3-5-mod-now-available-on-pc-upscaling-outshines-native-resolution/

DrFreaK666
2023-09-04, 09:36:04
DLSS ist halt besser als FSR ;D

Wie gesagt Bethesda (AMD) Shame on You

https://www.youtube.com/watch?v=ZtJLCAWSzR8
https://www.youtube.com/watch?v=wvCR0jIYJSM&t=8s

https://wccftech.com/starfield-dlss-3-5-mod-now-available-on-pc-upscaling-outshines-native-resolution/

"We have to acknowledge that AMD's FSR 2 also does a brilliant job in enhancing the image quality over native but DLSS 3.5 just stands out a bit ahead."

Klingt nur nach einer geringfügigen Verbesserung

Linmoum
2023-09-04, 09:37:56
Dazu reicht der gesunde Menschenverstand. NV wird die Entwickler sicherlich nicht motivieren AMD-Tech einzubauen, wenn es eine NV-Alternative gibtKann sein, kann nicht sein. "Gesunder Menschenverstand" ist dafür aber sicherlich keine Grundlage, um fundiert diskutieren zu können. ;)

Wir haben mit Boundary ein bekanntes Beispiel, wo der Entwickler bestätigt hat, dass er DLSS aus dem Spiel entfernt (lustigerweise nur das, FSR/XeSS wird es geben...), wir haben mit Starfield extrem fragwürdiges Schweigen seitens AMD über Monate und wir haben jetzt von John von DF eine weitere Aussage zu dem Thema, dass AMD bei Sponsorships scheinbar dafür sorgt, dass DLSS ausgeschlossen wird bzw. ja sogar die Arbeit eingestellt/es wieder entfernt werden muss.

Das sind für mich Berichte genug, was AMD hier tut, zumal das alles keine 0815-Klatschquellen (einer sogar ein Entwicklerstudio selbst...) sind.

Ob Nvidia das auch macht, keine Ahnung. Ich will mir nichts aussuchen müssen, wo Nvidia das ggf. tut/getan hat, sondern wo es konkrete Anhaltspunkte gibt.

Cubitus
2023-09-04, 09:40:23
"We have to acknowledge that AMD's FSR 2 also does a brilliant job in enhancing the image quality over native but DLSS 3.5 just stands out a bit ahead."

Klingt nur nach einer geringfügigen Verbesserung


Joa + FG Der FPS Boost ist nur "geringfügig" besser. Von der BQ ganz zu schweigen.
Wir sind hier nicht in der Politik, wo der kleinste gemeinsame Nenner als Erfolg gefeiert wird.

Linmoum
2023-09-04, 09:41:13
Zumal wtftech selbst nur mit Screenshots und Standbildern vergleicht, völlig sinnlos. Da steht FSR nämlich noch am besten dar.

In Bewegung sind die Unterschiede eigentlich relativ offensichtlich.

Fragman
2023-09-04, 09:48:17
Spätestens in der Stadt ist der qualitative Unterschied zu sehen an flackernden feineren Strukturen.

aufkrawall
2023-09-04, 09:50:14
Spätestens in der Stadt ist der qualitative Unterschied zu sehen an flackernden feineren Strukturen.
Ja, das war schon in Spiderman so. Je komplexer der Content & Effekte, desto besser kann DLSS sich meist absetzen.
Mit dem TC Denoising wird das natürlich noch viel ausgeprägter werden, wobei FSR 2 in Witcher 3 mit dem RT auch so schon kein Land mehr sieht.

Cubitus
2023-09-04, 09:51:52
Zumal wtftech selbst nur mit Screenshots und Standbildern vergleicht, völlig sinnlos. Da steht FSR nämlich noch am besten dar.

In Bewegung sind die Unterschiede eigentlich relativ offensichtlich.

Es gibt doch YT Videos dazu :confused:

Sweepi
2023-09-04, 09:51:58
Hast du da Beispiele, wo Nvidia aktiv AMD Technologien aus Spielen hat ausschließen lassen?

Das hat nVidia nicht nötig, aktuell sind deren Technologien durch die Bank gleichwertig oder besser, d.h. keine AMD Technologien lassen nVidia schlecht aussehen.

Es gibt die ollen Kamellen:
- Bei Hairworks / Tesselation gab es den Vorwurf(und meines Wissen auch Messungen), dass die Defaults der nVidia Software so gewählt waren, dass Performance-Kosten zu Grafikkaufwertung bei Team Grün in einem guten Verhältnis standen, und bei AMD in einem schlechten. Es konnte nie geklärt werden, ob diese Default Werte mit Absicht so gewählt worden war, um letzteren Effekt zu erzeugen, oder ob die nVidia-Devs einfach auf gute Performance optimiert haben, und die AMD Performance egal war.
- Dieses eine Spiel (ein Assassin's Creed Teil?), welches mit DX 10.1 (deutlich) besser lief als mit DX 10; AMD konnte zu dem Zeitpunkt 10.1, nVidias Hardware nicht -> DX 10.1 Support wurde entfernt, unklar warum.

robbitop
2023-09-04, 10:01:50
Es geht garantiert genug von beiden Seiten hinter den Kulissen vor. Wenn man Nvidias Manöver aus den letzten Jahren kennt, sollte das klar sein. Jetzt wissen wir was wir vorher nur geahnt haben: AMD verhält sich auch wie eine Firma und nicht wie ein Messias. Und so ist jeder IHV, der im Wettbewerb steht. Was am Ende tatsächlich herauskommt, liegt dann eher daran, wie geschickt man kommuniziert.

Einfach alle Firmen in einen Topf tun mit dem Motto "Companies are not your friends" und nur nach Preis/Leistung (oder Erfüllung persönlicher Zielkriterien) kaufen. Alles andere ist irrelevant. Welche Marke oder welche Schlagzeilen.
Mache ich übrigens schon seit meinem ersten eigenen PC (in den 1990ern) so.


Das Märchen AMD - gut NV - böse ist nun ein für alle mal zusammengebrochen.

Es ist vielmehr:
AMD - böse
Intel - böse
NV - böse.
This. :up:

aufkrawall
2023-09-04, 10:07:47
Das ist doch OT, es geht gerade nur um Upsampling. Und offenbar schaffen es Intel & Nvidia, hier irgendwie zum Vorteil der Kunden ihrer beiden Firmen zusammenzuarbeiten, während AMD diese mit (quelloffenem) Dreck bewirft.

Linmoum
2023-09-04, 10:15:41
Was sollen sie auch sonst machen, als quelloffen und das Beste daraus machen? Für proprietär weder Marktmacht und vor allem keine dedizierten Einheiten, die sie dafür nutzen könnten. Kann man eigentlich nur hoffen, dass sie das mit RDNA4 nicht verschlafen.

aufkrawall
2023-09-04, 10:18:36
Was sollen sie auch sonst machen, als quelloffen und das Beste daraus machen?
Ja, aus unternehmerischer Sicht geht dieses "Beste draus machen = Konkurrenz aktiv sabotieren" vermutlich auf. Zumindest so lange, bis es auffliegt. ;)

robbitop
2023-09-04, 10:57:53
Das ist doch OT, es geht gerade nur um Upsampling. Und offenbar schaffen es Intel & Nvidia, hier irgendwie zum Vorteil der Kunden ihrer beiden Firmen zusammenzuarbeiten, während AMD diese mit (quelloffenem) Dreck bewirft.
Ach wer weiß, wie viel NV schon an Macht in der Vergangenheit genutzt hat. Gibt ja auch genug Spiele, die nur DLSS hatten. Und Intel kann keine Marktmacht nutzen weil sie keine haben. Wäre bei vertauschten Rollen das gleiche. Ich finde es lächerlich jetzt in großer (selektiver!) Empörung auszubrechen, wenn es eigentlich klar ist, dass je nach Situation das jeder macht und machen würde.

Ja, aus unternehmerischer Sicht geht dieses "Beste draus machen = Konkurrenz aktiv sabotieren" vermutlich auf. Zumindest so lange, bis es auffliegt. ;)
IMO wäre es besser, endlich mal aufzuwachen bei AMD. Diese halbgaren "me too" Technologien (nur eben später und nicht immer äquivalent) sind einfach zu wenig. Mehr Resources in Software stecken (IMO der Bottleneck bei AMDs RTG) und jedes Jahr eigene Initiativen bringen. Und bei NN endlich mal voranzukommen.

Platos
2023-09-04, 11:10:07
Gut, wo bleibt dein Beweis, dass ein NV-gesponsortes Spiel voll mit AMD-Tech ist!? Du scheinst es ja zu wissen

Ne, so funktioniert das nicht ;)

Du behauptest etwas oder deutest etwas an, also musst du das beweisen, nicht die anderen das Gegenteil.

Exxtreme
2023-09-04, 11:26:27
IMO wäre es besser, endlich mal aufzuwachen bei AMD. Diese halbgaren "me too" Technologien (nur eben später und nicht immer äquivalent) sind einfach zu wenig. Mehr Resources in Software stecken (IMO der Bottleneck bei AMDs RTG) und jedes Jahr eigene Initiativen bringen. Und bei NN endlich mal voranzukommen.

AMD/ATI waren früher mal innovativ, aber die Innovationen liefen komplett ins Leere. Also warum da noch großartig Geld reinstecken wenn "teile und herrsche" billiger und wirkungsvoller ist?

basix
2023-09-04, 12:46:01
IMO wäre es besser, endlich mal aufzuwachen bei AMD. Diese halbgaren "me too" Technologien (nur eben später und nicht immer äquivalent) sind einfach zu wenig. Mehr Resources in Software stecken (IMO der Bottleneck bei AMDs RTG) und jedes Jahr eigene Initiativen bringen. Und bei NN endlich mal voranzukommen.
AMD/ATI waren früher mal innovativ, aber die Innovationen liefen komplett ins Leere. Also warum da noch großartig Geld reinstecken wenn "teile und herrsche" billiger und wirkungsvoller ist?


AMD ist schon aktiv. Ihr FidelityFX SDK ist deutlich erwachsener geworden und wird laufend erweitert:
https://gpuopen.com/manuals/fidelityfx_sdk/fidelityfx_sdk-index/

Nicht alles hat die Tragweite eines DLSS, doch es war noch nie so einfach für Entwickler AMDs Bibliothek zu integrieren und zu nutzen. Und es läuft auf allen halbmodernen GPUs anständig.

Nvidia hat mit DLSS etwas aufgebaut, womit sie sich abheben. Eindeutig. Aber innovativ sein hat neben Ressourcen (Geld, Zeit, Manpower, Fachexperten) eine weitere Komponente: Man muss eine gute Idee haben, welche auch praktisch umsetzbar ist und dem Kunden was bringt. Das kann man nur begrenzt forcieren und mit limitierten Mitteln wird das nochmals schwieriger (da andere, unmittelbarere Probleme und Prioritäten). Oder habt ihr DLSS 2.0 kommen sehen? Oder jetzt Ray Reconstruction? Die meisten wohl nicht. Schön wäre es, wenn AMD mal vorpreschen könnte. Aber es hier zu fordern ist viel einfacher, als es effektiv dann auch umzusetzen.

Dieses momentan aufkeimende AMD Bashing hat schon ein wenig ein Geschmäkle, wenn man sich Nvidias konstante Vendor Lock-In Tätigkeiten anschaut. AMD ist nicht heilig, aber Nvidia ist es definitiv noch weniger.

Platos
2023-09-04, 12:50:41
Also DLSS hat doch damals jeder kommen sehen oder zumindest erwartet im Sinne von: "Das ist der Anfang (der noch unbrauchbar ist), aber es zeigt, wo die Reise hingeht und was wir für die Zukunft erwarten können."

Genau so wurde Framegeneration hier im Forum schon besprochen, bevor etwas davon bekannt war.

Dass sich nvidia irgendwann um das Problem mit Raytracing beim Upscaling kümmern muss, ist doch irgendwie auch schon immer klar gewesen und wurde dem entsprechend erwartet oder nicht?

Framegen per Treiber wird sicherlich auch noch kommen (per Treiber natürlich schlechter, analog zu AMD).

aufkrawall
2023-09-04, 12:59:27
Dieses momentan aufkeimende AMD Bashing hat schon ein wenig ein Geschmäkle, wenn man sich Nvidias konstante Vendor Lock-In Tätigkeiten anschaut.
Dann schaut man sich halt Nvidias Schandtaten nicht an, weil die in dem Zusammenhang keine Rolle spielen. :freak:
Äpfel und Birnen.

Btw. kann kein XeSS auch für AMD-Kunden ein Nachteil sein bzw. wird es vermutlich in Zukunft verstärkt.

Gast
2023-09-04, 12:59:54
AMD/ATI waren früher mal innovativ, aber die Innovationen liefen komplett ins Leere.

Selbst noch zu ATI-Zeiten war man selten innovativ, man hatte oft sehr schnelle Hardware keine Frage, aber oft zum Preis das man technologisch hinten dran war.

Für den Kunden war es freilich teilweise die bessere Hardware, da die technologisch fortschrittlichere Konkurrenz damals bis man die neuen Technologien einsetzen konnte oftmals schon zu langsam war.

Aber generell hatte man bei ATI schon immer die Strategie möglichst schnelle Hardware mit gerade ausreichender Technologie zu bringen.

Mit der AMD-Übernahme hat sich dann eben langsam aber sicher auch der "schnelle" Part erledigt.

Exxtreme
2023-09-04, 13:06:42
Selbst noch zu ATI-Zeiten war man selten innovativ, man hatte oft sehr schnelle Hardware keine Frage, aber oft zum Preis das man technologisch hinten dran war.


Es gab durchaus Innovationen ala Truform oder Mantle. Hat sich irgendwas davon durchgesetzt? Nö. Also warum innovativ sein wenn die Leute das offenbar gar nicht wollen? AMDs GPUs sind sind exakt so wie sie die Kundschaft haben will. So wurde mit dem Geldbeutel abgestimmt. Mag dem einen oder anderem womöglich nicht gefallen.

robbitop
2023-09-04, 13:06:55
AMD/ATI waren früher mal innovativ, aber die Innovationen liefen komplett ins Leere. Also warum da noch großartig Geld reinstecken wenn "teile und herrsche" billiger und wirkungsvoller ist?
Das hatten wir schonmal. Und da kamen nur sehr sehr wenige Beispiele, die auch zeitlich sehr weit weg voneinander waren.
Wenn man davon was haben will, muss man sowas konstant jedes Jahr abliefern. Und dann sowas wie Mantle abzuliefern, wofür man gar nicht die Marktmacht hat war klar, dass es zum Scheitern verurteilt war.

Aber sowas zu machen, was Nvidia kontinuierlich mit DLSS macht oder einen guten Videoencoder für die Streamer etc. Da war von AMD leider wenig und selten etwas zu sehen.

Klar kann man gut im Fahrwasser von NV fahren und spart Geld. Die Gefahr ist aber, dass man irgendwann mal abgehängt und ausgesperrt wird.

AMD ist schon aktiv. Ihr FidelityFX SDK ist deutlich erwachsener geworden und wird laufend erweitert:
https://gpuopen.com/manuals/fidelityfx_sdk/fidelityfx_sdk-index/

Nicht alles hat die Tragweite eines DLSS, doch es war noch nie so einfach für Entwickler AMDs Bibliothek zu integrieren und zu nutzen. Und es läuft auf allen halbmodernen GPUs anständig.

Nvidia hat mit DLSS etwas aufgebaut, womit sie sich abheben. Eindeutig. Aber innovativ sein hat neben Ressourcen (Geld, Zeit, Manpower, Fachexperten) eine weitere Komponente: Man muss eine gute Idee haben, welche auch praktisch umsetzbar ist und dem Kunden was bringt. Das kann man nur begrenzt forcieren und mit limitierten Mitteln wird das nochmals schwieriger (da andere, unmittelbarere Probleme und Prioritäten). Oder habt ihr DLSS 2.0 kommen sehen? Oder jetzt Ray Reconstruction? Die meisten wohl nicht. Schön wäre es, wenn AMD mal vorpreschen könnte. Aber es hier zu fordern ist viel einfacher, als es effektiv dann auch umzusetzen.

Dieses momentan aufkeimende AMD Bashing hat schon ein wenig ein Geschmäkle, wenn man sich Nvidias konstante Vendor Lock-In Tätigkeiten anschaut. AMD ist nicht heilig, aber Nvidia ist es definitiv noch weniger.
Ein sehr gutes, differenziertes Posting. :up:
Im Endeffekt muss bei AMD (und das ist kein bashing) aber mehr passieren. Hoffentlich ist Hypr-RX jetzt endlich der Anfang, das aggressiver zu machen. (Framegeneration für alle Spiele zB - das ist mal (potenziel) ein sehr sehr gutes Feature!

Gast
2023-09-04, 13:38:37
Es gab durchaus Innovationen ala Truform oder Mantle.


"Truform" konnte auch schon der NV1 und es war derart "brauchbar" dass es (wie auch von ATI später) fallen gelassen wurde.
Mantle ist in DX12/Vulkan aufgegangen, wobei hier auch der Hintergrund ist dass sich AMD die Treiberoptimierungen für DX11 ersparen und den Entwicklern aufhalsen wollte.

Aber die Radeon 8000er Serie, war auch die letzte (auch abseits von Truform) die man wirklich als innovativ bezeichnen konnte, und das ist schon ziemlich lange her.

Aber vielleicht ist es ein gutes Omen, schließlich sollte als nächstes ja wieder eine Radeon 8000er Serie anstehen.


AMDs GPUs sind sind exakt so wie sie die Kundschaft haben will. So wurde mit dem Geldbeutel abgestimmt. Mag dem einen oder anderem womöglich nicht gefallen.

Sind sie eben schon lange nicht mehr, AMD verlangt mittlerweile NV-Preise, ohne was zu bieten.
Wenn man immer nur 2. Geige spielen will, und dafür ein gutes P&L-Verhältnis bieten kann, wäre es ja noch verständlich, was AMD mittlerweile macht ist aber Audi-Preise verlangen und einen Skoda zu liefern.

basix
2023-09-04, 13:48:27
Also DLSS hat doch damals jeder kommen sehen oder zumindest erwartet im Sinne von: "Das ist der Anfang (der noch unbrauchbar ist), aber es zeigt, wo die Reise hingeht und was wir für die Zukunft erwarten können."

DLSS1 wurde von jedem zerrissen, weil qualitativ schlecht. Ich glaube nicht, dass man anhand dessen DLSS 2.0 in der heutigen Form erwartet hat.

Und AMDs CAS war qualitativ typischerweise besser als DLSS1, falls du es vergessen haben solltetst.

Es gab mal eine Upsampling-Demo von Microsoft, die gut ausgesehen hat. Davon hat man aber gar nichts mehr gehört.


Genau so wurde Framegeneration hier im Forum schon besprochen, bevor etwas davon bekannt war.
Sowas wie FG oder allgemein Frame Interpolation war naheliegend, ja. Habe ich deswegen bei meiner Aufzählung bewusst nicht aufgeführt ;)


Dass sich nvidia irgendwann um das Problem mit Raytracing beim Upscaling kümmern muss, ist doch irgendwie auch schon immer klar gewesen und wurde dem entsprechend erwartet oder nicht?

Ja, war klar. Ich hätte das aber nicht als Teil des DLSS-Pfades gesehen sondern mit Optimierungen auf Seiten RTXDI. Besseres Importance Sampling und verbesserte Algorithmik. Oder generell ein DXR API Thema, wieso Upsampling bei RT-Effekten nicht richtig gegriffen hat (DXR wurde nicht mit DLSS im Blick konzipiert). Nicht via "Upsampling & Denoising". Nicht vergessen: CP2077 Pathtracing nutzt bereits einen State-of-the-Art Neural Network Denoiser (https://developer.nvidia.com/rtx/ray-tracing/rt-denoisers). Und nun ist Ray Reconstruction gleich eine Grössenordnung besser - mit weniger Samples, da geringere Renderauflösung? Hast du DAS erwartet? Wieso arbeitest du nicht bei AMD, Intel oder Nvidia? ;)

Man könnte ja noch hinterfragen, wieso Nvidia Ray Reconstruction mit einer Closed Source DLL einführt und nicht generell RTXDI und den NRD Denoiser in diese Richtung verbessert. Ach ja, Konkurrenzvorteil? ;)

Dann schaut man sich halt Nvidias Schandtaten nicht an, weil die in dem Zusammenhang keine Rolle spielen. :freak:
Äpfel und Birnen.

Ist nur etwas auffallend, dass sich plötzlich jeder auf dieses Thema stürzt. Obwohl Null belastbare "Beweise" vorliegen. Oder gäbe es da was mit Hand und Fuss?


Btw. kann kein XeSS auch für AMD-Kunden ein Nachteil sein bzw. wird es vermutlich in Zukunft verstärkt.
Für den Kunden wäre es natürlich am besten, alle Optionen zu haben. Nur wieso sollte bei einer Technologiepartnerschaft die eigene Technologie nicht bevorzugt werden? Zumindest zeitlich exklusiv? Oder wieso kam FSR 2 in Cyberpunk 1/2 Jahr später, wenn es 1 Monat nach FSR2 Release bereits einen DLSS -> FSR Mod gab? War das somit Nvidias Schuld? Oder wie oben bereits geschrieben: Wieso Ray Reconstruction nicht in das RTXDI oder NRD Package integrieren, wo es jeder nutzen kann? Ist doch nun jeder AMD und Intel Nutzer im Nachteil, oder nicht ;)

Dampf
2023-09-04, 13:58:03
Also AI-Denoising hab ich definitiv kommen sehen. Genauso wie Upscaling für RT-Reflektionen.

Mit Ray-Reconstruction hat man jetzt beides auf clevere Art miteinander verbunden.

Platos
2023-09-04, 14:04:07
Also ich erinnere mich noch gut, dass DLSS 1.0 hier von vielen als erst der Anfang gesehen wurde. Eben wie gesagt: Zwar schlecht in der 1.0 Ausführung, aber eben als erst der Anfang. Es haben ja schon "alle" von DLSS 2.0 geredet, bevor man das das erste mal gehört hat (und damit meinte man immer einen nächsten grossen Sprung).

Und bezüglich Raytracing: Ok, wo/wie genau da jetzt angesetzt wird, meine ich damit nicht. Ich meinte einfach, dass nvidia das Problem lösen werden muss und das irgendwie von Anfang an klar war, finde ich.

Und bezüglich AMD vs nvidia: Es spielt keine Rolle, ob nvidia irgendwas mal gemacht hat für die Betrachtung von dem, was AMD jetzt tut.

Wie immer gilt: Wenn der eine etwas tut, ermächtigt das den anderen nicht, es auch zu tun.

Mit dem Finger zeigend zu sagen: "aber der und der tut das auch" ist halt einfach irrelevant. Was interessiert mich das bei der Beurteilung von dem, was eben AMD gerade macht.

Gar nichts eben.

Gast
2023-09-04, 14:05:54
DLSS1 wurde von jedem zerrissen, weil qualitativ schlecht. Ich glaube nicht, dass man anhand dessen DLSS 2.0 in der heutigen Form erwartet hat.

Und AMDs CAS war qualitativ typischerweise besser als DLSS1, falls du es vergessen haben solltetst.


War es nicht, und sind auch 2 völlig verschiedene Dinge, DLSS war/ist upscaling, CAS ein Schärfefilter, und auch die Kombination von beiden ist möglich.

Die erste Implementierung von DLSS1 in Battlefield war sehr schlecht, nachfolgende Implementierungen wie z.B. in Tomb Raider waren schon deutlich besser.



Ist nur etwas auffallend, dass sich plötzlich jeder auf dieses Thema stürzt. Obwohl Null belastbare "Beweise" vorliegen. Oder gäbe es da was mit Hand und Fuss?


Spätestens Linnemans Aussage ist ein eindeutiger Beweis, neben den unzähligen Indizien die sich die letzten Monate aufgeschaukelt haben.




Wieso Ray Reconstruction nicht in das RTXDI oder NRD Package integrieren, wo es jeder nutzen kann? Ist doch nun jeder AMD und Intel Nutzer im Nachteil, oder nicht ;)

Hat es natürlich noch nie gegeben, man entwickelt etwas neues und will daraus einen kompetitiven Vorteil generieren🤦*♂️

robbitop
2023-09-04, 14:09:12
Sind sie eben schon lange nicht mehr, AMD verlangt mittlerweile NV-Preise, ohne was zu bieten.
Wenn man immer nur 2. Geige spielen will, und dafür ein gutes P&L-Verhältnis bieten kann, wäre es ja noch verständlich, was AMD mittlerweile macht ist aber Audi-Preise verlangen und einen Skoda zu liefern.
Sehe ich auch so.

DLSS1 wurde von jedem zerrissen, weil qualitativ schlecht. Ich glaube nicht, dass man anhand dessen DLSS 2.0 in der heutigen Form erwartet hat.

Und AMDs CAS war qualitativ typischerweise besser als DLSS1, falls du es vergessen haben solltetst.

IMO hätte man beidem nicht den gleichen Namen geben dürfen. DLSS 1 hat ja fast gar nichts mit DLSS 2 zu tun. DLSS 2 ist temporales Super Sampling und DLSS 1 schien ja eher Bild und Geometrie primär auf Basis der trainierten ground truth zu rekonstruieren.

Ich war beim DLSS1 Konzept seit Anfang an skeptisch auch wenn die Erwartungen 2018 hier im Forum sehr hoch waren. Bei DLSS 2 war ab der Präsentation wie es funktioniert sofort klar, dass das was ganz Anderes ist vom Ergebniss, Potenzial und Verfahren.

Cubitus
2023-09-04, 14:29:31
Das ist doch OT, es geht gerade nur um Upsampling. Und offenbar schaffen es Intel & Nvidia, hier irgendwie zum Vorteil der Kunden ihrer beiden Firmen zusammenzuarbeiten, während AMD diese mit (quelloffenem) Dreck bewirft.


Wenn ich so was sehe ist FSR, aktuell bei Starfield, in meinen Augen Schmutz:

https://youtu.be/ZtJLCAWSzR8?si=1zeD4qoNo-D87fkf&t=25

Tesseract
2023-09-04, 14:37:01
DLSS 1 hat ja fast gar nichts mit DLSS 2 zu tun.

klassische varianten dieser verfahren hätten kaum was miteinander zu tun, aus DL-sicht haben DLSS1 und DLSS2 durchaus einiges gemeinsam. der unterschied ist halt dass DLSS2 viel mehr inputdaten an das DL liefert und dementsprechend die ergebnisse viel besser sind.
DLSS 3.5 knüpft da konzeptionell auch an: noch viel mehr inputdaten näher an der "quelle" mit weniger zwischengeschalteten störfakoren.

aufkrawall
2023-09-04, 14:40:31
Wenn ich so was sehe ist FSR, aktuell bei Starfield, in meinen Augen Schmutz:

https://youtu.be/ZtJLCAWSzR8?si=1zeD4qoNo-D87fkf&t=25
So meinte ich das nicht mit dem Schmutz. Du siehst ja, dass TAA das Problem in ähnlichem Maße hat. Wenn das mit FSR 2 etwas schlechter wird, die Performance aber deutlich steigt, ist das erstmal nicht so schlecht.

DLSS/XeSS könne halt feine Linien genauer erkennen und temporal clampen. DLSS/DLAA sind da aber teilweise XeSS auch schon unterlegen. Nvidia muss mal wieder was tun, in Form eines besseres Presets/Modells auch abseits von TC Denoising.

robbitop
2023-09-04, 15:56:08
klassische varianten dieser verfahren hätten kaum was miteinander zu tun, aus DL-sicht haben DLSS1 und DLSS2 durchaus einiges gemeinsam. der unterschied ist halt dass DLSS2 viel mehr inputdaten an das DL liefert und dementsprechend die ergebnisse viel besser sind.
DLSS 3.5 knüpft da konzeptionell auch an: noch viel mehr inputdaten näher an der "quelle" mit weniger zwischengeschalteten störfakoren.
Wo zieht man da die Grenze? Das NN bei DLSS2 ist primär mit dem clamping beschäftigt und sekundär mit dem was das NN bei DLSS1 primär machte - der Halluzination von Daten wenn keine vorliegen.
Das temporale Upsamping macht DLSS2 aus und macht es zu seinem Vorgänger so anders IMO. Wenn ich genug generalisiere und abstrahiere, kann ich am Ende alles gleichsetzen ^^

Tesseract
2023-09-04, 16:53:04
Wo zieht man da die Grenze?
frame generation ist definitiv was anderes, das arbeitet nicht aus verschiedenen samplingdaten und buffern als inputs in einen gemeinsamen framebuffer wie alles andere das macht, zumindest in der aktuellen form nicht.

Das NN bei DLSS2 ist primär mit dem clamping beschäftigt und sekundär mit dem was das NN bei DLSS1 primär machte
das liegt aber primär an der quantität der inputs - bei DLSS1 sind die "löcher" einfach größer. DLSS2 ultra performance geht definitiv auch schon in diese richtung aber selbst das hat noch um ein vielfaches mehr inputs pro outputpixel.

robbitop
2023-09-04, 17:01:39
DLSS2 UP funktioniert mWn genauso wie DLSS 2 Q oder DLAA. Die Information kommt aus aus den gejittereten subpixels. IIRC sind das >16 Frames und damit >16 subsamples pro Pixel.
Das NN tut da nichts anderes. Es gibt wie du sagst mangels Auflösung weniger Informationen aber das Verfahren ändert sich nicht. Ich finde den Vergleich zu abstrakt und damit nicht ganz korrekt. Ich weiß was du meinst (weil der Halluzinier Teil zunimmt) aber dennoch ist es nicht das gleiche.
Ggf. kann man mit dem "Halluzinierteil" sagen, dass DLSS 2 ein wenig was von DLSS 1 geerbet hat. Aber primär nutzt man das NN zum clampen damit man ordentlich temporales SS machen kann.

Und ja FG ist was total anderes. Da sind wir uns einig. Das hätte man nicht DLSS nennen sollen. Aber das ist wohl Marketing.

DLSS 3.5 ist IMO näher an DLSS2 als DLSS1 weil man ja auch temporal vorhandene Informationen nutzt und das NN nutzt, um diese sinnvoll nutzbar zu machen.

Tesseract
2023-09-04, 17:32:56
Es gibt wie du sagst mangels Auflösung weniger Informationen aber das Verfahren ändert sich nicht.

das "verfahren" ergibt sich aus dem training und ändert sich automatisch mit der art und quantität der inputs, ist bei jedem neuen NN-modell etwas anders, und wird sich wieder deutlich ändern wenn die rohen RT-information ohne denoiser dazu kommen. das übergewicht des clampings ergibt sich aus der anzahl der temporalen frames, dem tyischen grad an disocclusion in spielen usw.

theoretisch könnte man die variablen auch anders wählen und z.B. die anzahl der spatialen samples pro pixel von <=1 auf >1 erhöhen und hätte damit als "verfahren" nach dem training einen clamping-ähnlichen downscaler statt einem "halluzinierenden" upscaler; oder man verringert die anzahl der temporalen samples von 16+ auf einen niedrigen einstelligen wert und verschiebt damit das gewicht deutlich von clamping auf halluzinieren.
aus DL-sicht sehe ich nicht was daran fundamental anders sein soll, auch wenn aus klassicher sicht das "verfahren" anders ist.

robbitop
2023-09-04, 20:29:36
Soweit ich weiß ist das Verfahren und das Modell unabhängig zur Auflösung und man kann presets (welches Modell genutzt werden soll) unabhängig davon auswählen. Hast du Quellen oder Belege für die Behauptung, dass sich dies aus der Auflösung ergibt und dementsprechend je nach Auflösung anders ist?

Ich weiß was du meinst - ich finde im oben genannten Kontext abstrahierst du da aber mMn zu stark. Es ging ja um das Verfahren als Konstellation und nicht nur um eines der NNs an sich.

Tesseract
2023-09-05, 00:20:28
ob nvidia für bestimmte faktoren eigene NN trainiert oder alle faktoren durch das gleiche NN gehen spielt für meine aussage eigentlich keine rolle, der punkt ist dass das "verfahren" durch das training entsteht.
du sagst das eine ist "clamping" und das andere ist "halluzinieren", ich sage das ist eine arbiträre unterscheidung. wenn in DLSS2 durch disocclusion oder andere umstände alle temporalen samples verworfen werden passiert im rest des NN im grunde etwas sehr ähnliches wie in DLSS1 und je niedriger der faktor umso mehr wird "halluziniert". ray reconstruction erweitert das ganze dann nochmal um zusätzliche inputs.

nvidia hat explizit gesagt sie haben bei DLSS2 im laufe der entwicklung alle händischen heuristiken rausgeworfen und fahren rein data driven, d.h. 100% des "verfahrens" ist erlernt.

Platos
2023-09-05, 10:57:07
Mal ne Frage: Hat hier schon jemand die neueste dlss .dll (3.5.0) in anderen Spielen ausprobiert bezüglich Raytracingqualität ?

Hat es (gut) geklappt bei Spielen, die original keine Version 3.5.0 integriert haben ?

robbitop
2023-09-05, 12:15:36
ob nvidia für bestimmte faktoren eigene NN trainiert oder alle faktoren durch das gleiche NN gehen spielt für meine aussage eigentlich keine rolle, der punkt ist dass das "verfahren" durch das training entsteht.
du sagst das eine ist "clamping" und das andere ist "halluzinieren", ich sage das ist eine arbiträre unterscheidung. wenn in DLSS2 durch disocclusion oder andere umstände alle temporalen samples verworfen werden passiert im rest des NN im grunde etwas sehr ähnliches wie in DLSS1 und je niedriger der faktor umso mehr wird "halluziniert". ray reconstruction erweitert das ganze dann nochmal um zusätzliche inputs.

nvidia hat explizit gesagt sie haben bei DLSS2 im laufe der entwicklung alle händischen heuristiken rausgeworfen und fahren rein data driven, d.h. 100% des "verfahrens" ist erlernt.

Nach meinem Verständnis sind es zwei verschiedene und separate trainierte NNs die jeweils (spezialisiert) ihren (unterschiedlichen) Job machen. Eins für clamping - und wenn es fehlschlägt dann das für das Halluzinieren.

Mal ne Frage: Hat hier schon jemand die neueste dlss .dll (3.5.0) in anderen Spielen ausprobiert bezüglich Raytracingqualität ?

Hat es (gut) geklappt bei Spielen, die original keine Version 3.5.0 integriert haben ?
Es wird auf's RT selbst keinen Einfluss haben, weil der Denoiser explizit vom Spiel implementiert werden muss. Abseits des denoisers ist es einfach nur die aktuellste DLL für DLSS 2. Und da hat sich schon eine Weile nicht mehr so viel getan. (Preset F kam Ende 2022 und ansonsten Preset C sogar 2021 - welches meistens die empfehlenswertesen Modelle sind).

Tesseract
2023-09-05, 13:24:54
wenn es fehlschlägt dann

das wäre in meinem verständnis aber eine art heuristik wo jemand bewusst entscheiden müsste auf was man das erste NN trainiert und nvidia sagt sowas haben sie nicht drin.

robbitop
2023-09-05, 13:29:54
Ich weiß nicht ob du da die Worte von NV nicht zu sehr auf die Goldwage legst. Ein NN kann sicherlich sehr gut feststellen ob etwas funktioniert hat oder nicht (confidence level) und dann entsprechend übergeben. Schwer vorstellbar, dass buchstäblich gar kein Algorithmus mehr bei DLSS vorhanden sein soll. Ich denke eher, dass das für die eigentlichen Primär-Mechanismen gilt.
Grund: NNs sind (nach meinem Verständnis) desto besser und effizienter (pro Verknüpfung) je spezialisierter sie sind.

Platos
2023-09-05, 13:36:58
Es wird auf's RT selbst keinen Einfluss haben, weil der Denoiser explizit vom Spiel implementiert werden muss. Abseits des denoisers ist es einfach nur die aktuellste DLL für DLSS 2. Und da hat sich schon eine Weile nicht mehr so viel getan. (Preset F kam Ende 2022 und ansonsten Preset C sogar 2021 - welches meistens die empfehlenswertesen Modelle sind).

Ach soo, schade. Dann kann man das nicht mehr einfach so austauschen bzw. bringt es nichta in diesem Punkt, die .dll auszutauschen.

Das ist ja mal schade.

Tesseract
2023-09-05, 13:42:01
ich sehe da ehrlich gesagt keine höhere spezialisierung, denk das ganze mal von hinten durch: du hast ein finalpixel, willst dafür den wert haben und suchst dir als NN die information zusammen. ein zwischenschritt wo man aus irgendeiner ungeraden zwischenauflösung krumme werte halluziniert hört sich nach einer viel größeren, unnötigen hürde an als direkt mit den temporalen samples, depth buffern usw. in relation zum finalpixel zu arbeiten.

robbitop
2023-09-05, 15:00:31
Naja die eine (schwierige Aufgabe) ist ja das Wiederfinden des jeweiligen Pixels in den frames die in Betracht gezogen werden und das bestimmen ob es überhaupt sinnvoll ist (oder es nicht mehr im Bild liegt oder es disocclusion gibt etc). Und das andere ist das "halluzinieren" von Werten, die hier sinnvoll sind.
Für mich sind diese Aufgaben so unterschiedlich, dass ich mir nicht vorstellen kann, dass es effizient ist, das alles in das gleiche NN zu hämmern und zu trainieren. Insbesondere wenn man da gute Werte erzielen will.

Tja am Ende kann man darüber nur spekulieren, da außer Nvidia niemand das Verfahren kennt (binary blob).

aufkrawall
2023-09-05, 15:41:46
Gibt einen generischen FSR 2 -> DLSS/XeSS Wrapper:
https://www.nexusmods.com/starfield/mods/196?tab=description

Der funktioniert offenbar ohne expliziten Support tatsächlich auch in etwa Saints Row, und sieht auf den ersten Blick massiv besser aus als FSR 2 (hat nicht das Jitter-Problem bei Bäumen):
https://abload.de/thumb/saintsrow_dx12_2023_05tey7.png (https://abload.de/image.php?img=saintsrow_dx12_2023_05tey7.png)

robbitop
2023-09-05, 16:01:54
Cool!
Genial wäre noch zusätzlich ein DLSS -> FSR2/XeSS wrapper. Denn dann könnten alle GPUs Zugriff auf zumindest eine Teilmenge an guten Verfahren haben. Gibt ja auch Spiele die nur DLSS unterstützen, wo Non-RTX User ausgeschlossen sind, die dann etwas von FSR2/XeSS hätten (besser als nix).

Achill
2023-09-05, 16:10:55
Cool!
Genial wäre noch zusätzlich ein DLSS -> FSR2/XeSS wrapper. Denn dann könnten alle GPUs Zugriff auf zumindest eine Teilmenge an guten Verfahren haben. Gibt ja auch Spiele die nur DLSS unterstützen, wo Non-RTX User ausgeschlossen sind, die dann etwas von FSR2/XeSS hätten (besser als nix).

Das geht leider nicht ohne Anpassung je Spiel, weil NV im DLSS Stack die GPU prüft. Alle bisherigen Mods greifen in das Spiel ein und deaktivieren die Prüfung von NV um dann FSR2 oder XeSS zu nutzen. Mit NV's Streamline ist das Umgehen vom Check wohl nochmal schwerer geworden, mir ist kein Spiel bekannt was dies nutzt und ein FSR2/XeSS Mod hat.

aufkrawall
2023-09-05, 16:11:18
Der DLSS -> FSR 2-Mod ist schon generisch. :confused:
Die Variante für Plague Tale mit StreamLine-DLLs geht in so ziemlich jedem Spiel.

Gibts übrigens auch als XeSS-Abwandlung. Konnte damit XeSS 1.2 in Dying Light 2 nutzen, das die Deppen-Entwickler offenbar sonst nur auf Intel-GPUs im Optionsmenü anbieten...

Achill
2023-09-05, 16:23:13
Der DLSS -> FSR 2-Mod ist schon generisch. :confused:
Die Variante für Plague Tale mit StreamLine-DLLs geht in so ziemlich jedem Spiel.

Gibts übrigens auch als XeSS-Abwandlung. Konnte damit XeSS 1.2 in Dying Light 2 nutzen, das die Deppen-Entwickler offenbar sonst nur auf Intel-GPUs im Optionsmenü anbieten...

Danke, kannte ich noch nicht. Probiere ich später mal in CP2077 aus ...

--
Edit: Es funktioniert schonmal nicht mit CP2077 ... (wie auch die alten DLSS2FSR2 Mods nicht)

aufkrawall
2023-09-05, 16:49:24
Geht da nicht, weil ihm irgendwas mit der sl.interposer.dll nicht passt. Ist aber sehr spezifisch und CyerFSR wurde zweischenzeitlich auch mal wieder für 2.2 geupdatet (braucht aber nun Cyber Engine Tweaks).
Die Mod-Dynamik für FSR 2 hat leider auch eher abgeebbt. Vielleicht, weil diverse neue Titel FSR 2 direkt dabei haben, oft sogar "Nvidia-sponsored"-Titel. ;)

Jedenfalls geht der SL-Mod von PT ohne Anpassungen in DL2.

Troyan
2023-09-05, 16:54:55
Jedi Survivors wurde aktualisiert und unterstützt nun DLSS 3.

Oliver_M.D
2023-09-05, 17:01:52
Jedi Survivors wurde aktualisiert und unterstützt nun DLSS 3.Also nicht nur Upscaling, sondern auch gleich Frame Generation? Interessant..