PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce RTX 4090


Leonidas
2022-10-16, 13:55:52
Link zum Artikel:
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-4090


Link zur entsprechenden Ersteindrucks-Umfrage:
https://www.3dcenter.org/umfrage/umfrage-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4090


Link zur Umfrage-Auswertung:
https://www.3dcenter.org/news/umfrage-auswertung-wie-ist-der-ersteindruck-zu-nvidias-geforce-rtx-4090

Buddy Casino
2022-10-16, 15:13:45
Nachdem CPUs seit einigen Jahren „schnell genug“ sind für die meisten Anwendungen - ist das Performance-Niveau der 4090 nun endlich auch „ schnell genug“ für eine Graphikkarte? Was wird das für die Preisentwicklung der Nachfolgegeneration bedeuten?

Ich vermute der Fokus wird sich in Zukunft stärker auf mobile Geräte verschieben. Erst Laptops, dann vl Handies?

Lyka
2022-10-16, 15:18:15
durch die 4090 hat sich gerade der Desktop-PC noch mehr ins "Supersportwagen"-Segment des Gamings begeben. Ich rate mal, dass die #1 Modelle der Consumer-GPUs in den nächsten Jahren bei deutlich höhren Preisen landen.

Thomas Gräf
2022-10-16, 15:52:42
Naja da tut sich dann aber ein massives Problem auf. Für die Motoren im "Supersportwagen"-Segment gibt es perfekte Software, bzw diese wird direkt am Prüfstand erstellt und getestet.
Ob es sowas für Top PC's dann auchmal gibt? :freak:

Gast
2022-10-16, 16:24:15
Hat schon mal jemand getestet, wieviel schneller die 4090 (nur 21,2 Gbps) mit dem gleichen Speichertakt der 4080 (23 Gbps) wäre? Möglichst auch mal mit 350W Powerlimit.

Gast
2022-10-16, 16:49:23
Sicherlich gibt es auch dafür Interessenten, doch üblicherweise sollte eine flüssige Spielbarkeit ab ~50 fps ausreichend sein – und selbige gibt es zumeist auch schon bei GeForce RTX 3090 & 3090 Ti.

Die Zielgruppe einer xx90 Karte emfpindet mit ziemlicher Sicherheit 50FPS nicht flüssig.

Selbst das speziell bei der GeForce RTX 4090 eigentlich unnötige DLSS3-Feature könnte sich später noch einmal als nützlich erweisen: Nicht zur Beschleunigung von sowieso schon auf 200 fps laufenden Spielen, sondern vielmehr zur Beschleunigung von klar CPU-limitierten Titeln, wo ansonsten auch die beste Hardware nicht weiterhelfen kann.

Aufgrund des zusätzlichen output lags ist DLSS3 zumindest in aktueller Form nur sinnvoll um bereits ausreichende Frameraten in sehr hohe zu verwandeln, und einen vorhandenen HFR Monitor auch auszunutzen.

Gut die 4090 ist oft sogar dafür zu schnell, aber spätestens mit Raytracing ist man auch mit der 4090 in genau in dem Bereich in dem DLSS3 am siinnvollsten ist.

MiamiNice
2022-10-16, 17:03:44
Ich weiss nicht was an der 4090 ein Supersportwagen sein soll außer vielleicht der Preis. Das Teil ist eher ein Oberklassewagen, oder in GPU Speech eine 4080.
Die ist so weit weg zum Vollausbau, dazu noch Spannungs und PT technisch total kastriert.
Ich wette der Supersportwagen 4090/TI hat locker 40% mehr Rasterpower. Zum einen durch den Vollausbau zum anderen weil NV dann hoffentlich die richtigen Chip Spannungen nutzt und das PT dahin geht wo es für Ada Karten hingehört (800 Watt +).

Leonidas
2022-10-16, 17:22:22
Die Zielgruppe einer xx90 Karte emfpindet mit ziemlicher Sicherheit 50FPS nicht flüssig.

Erkenne ich an, dass man hier anderer Meinung sein kann.


spätestens mit Raytracing ist man auch mit der 4090 in genau in dem Bereich in dem DLSS3 am siinnvollsten ist.

Eigentlich nicht. Die 4090 liegt selbst mit RT@4K bei meistens über 100 fps. Kein DLSS3 notwendig an dieser Stelle.

Gast
2022-10-16, 17:29:36
Eigentlich nicht. Die 4090 liegt selbst mit RT@4K bei meistens über 100 fps. Kein DLSS3 notwendig an dieser Stelle.

Ja eben, der perfekte Einsatz für DLSS3 um aus 100 FPS 200 zu machen.

Linmoum
2022-10-16, 17:43:32
Die ist so weit weg zum Vollausbau, dazu noch Spannungs und PT technisch total kastriert.Ich wette der Supersportwagen 4090/TI hat locker 40% mehr Rasterpower. Zum einen durch den Vollausbau zum anderen weil NV dann hoffentlich die richtigen Chip Spannungen nutzt und das PT dahin geht wo es für Ada Karten hingehört (800 Watt +).Ada taktet nicht plötzlich mit 3.5GHz+, nur weil du dem Ding ein wenig mehr Spannung und ein höheres PT gibst. 3GHz+ schafft man auch jetzt schon locker mit 1.1V. Du kannst froh sein, wenn da am Ende +15% Performance bei der 4090Ti herumkommen. Also schon mit deinen 800W. Dafür zu warten und jetzt zu verzichten lohnt sich nicht, dafür ist die Grundperformance der 4090 schon viel zu hoch. Davon ab, dass wir dann wahrscheinlich schon über die 5090 spekulieren werden, wenn die 4090Ti dann irgendwann mal kommt. Dann lieber 4090 jetzt und 5090 später statt jetzt noch Ewigkeiten auf einer langsame(re)n GPU zu hocken.

Lehdro
2022-10-16, 17:57:49
Eigentlich nicht. Die 4090 liegt selbst mit RT@4K bei meistens über 100 fps. Kein DLSS3 notwendig an dieser Stelle.
Sehe das genauso wie Gast: DLSS 3.0 ist nur dann sinnvoll wenn man schon ~100 fps + 240 Hz Monitor hat. Tim von HWUB hat das schön rausgearbeitet (https://www.youtube.com/watch?v=GkUAGMYg5Lw): Die Latenzproblematik bringt selbst 60 fps (base-fps) dazu sich schwammig anzufühlen, weil eben zwangsläufig Latenz dazu kommt. Und so etwas will man sicherlich niemand zumuten der schon >1000€ für die GPU ausgibt (was jede angekündigte RTX 40 ist...).

Man sollte auf keinen Fall in NVs Marketingfalle tappen und DLSS 2.x ohne Reflex mit DLSS 3.0 vergleichen. Das ist einfach nur sinnfrei, da es keinen wirklichen Grund gibt mit DLSS 2.x kein Reflex (oder generell) zur Latenzverbesserung zu nutzen. Zusätzlich kommt da noch der Abschlag bei der Bildqualität dazu, da mit jedem FPS weniger die, gegenüber DLSS 2.x, deutlich schlechtere Bildqualität umso länger auf deinem Bildschirm angezeigt wird. Das ist maximal für langsamere Games (sowohl was Action auf dem Bildschirm als auch Inputtechnisch angeht) ala Anno oder Flightsimulator gangbar. DLSS 3.0 ist rein vom Nutzen her auf demselben Nivau wie DLSS 1.0 - eine reine Machbarkeitsstudie mit deutlich mess- und sichtbaren Pferdefüßen.

MiamiNice
2022-10-16, 18:00:24
Falls Du damit recht haben solltest, ist das OK. Ich bin leider felsenfest davon überzeugt, das NV mit der 4090 nur den Abfall verkauft. Das heißt, ich werde ganz sicher warten (hab auch nicht den Druck mit der 3090). Ich bin auch nicht damit einverstanden NV 2500€ für eine 4080TI zu geben, so generell gar nicht.
Für das Geld will ich einen nahezu Vollausbau sehen.

Sehe das genauso wie Gast: DLSS 3.0 ist nur dann sinnvoll wenn man schon ~100 fps + 240 Hz Monitor hat.

Sehe ich auch ähnlich wobei das Feature dann auch keinen Sinn mehr hat.

Gast
2022-10-16, 18:35:09
Sehe ich auch ähnlich wobei das Feature dann auch keinen Sinn mehr hat.


Doch die Bewegtbildschäre erhöht sich damit erheblich.

Buddy Casino
2022-10-16, 18:51:36
Sehe das genauso wie Gast: DLSS 3.0 ist nur dann sinnvoll wenn man schon ~100 fps + 240 Hz Monitor hat.
Niedrige Frameraten haben zwei Probleme:
- Bild ist nicht flüssig, die Optik leidet
- Erhöhte Latenz, Spielgefühl wird schwammig

Eines der beiden Probleme wird durch DLSS 3.0 gelöst, das andere nicht. Nur weil ich mit einem Hammer keine Schrauben reindrehen kann ist doch der Hammer nicht nutzlos?

Freestaler
2022-10-16, 18:52:34
Wieso hat man Monitore mit 240 und mehr Herz? Sicher nicht um 100fps auf 200fps mit zusätzlichen Inputlag zu drücken. Da bleibt man besser bei 100 mit kürzeren Inputlag. Dlss3.0 ist reines Marketingfeatures für den längeren Balken. Dlss2.0 mit Reflex wird in der realität der Weg sein.

Ich nehme aber an, das dies noch in späteren Artikel folgen wird. Aktuell gibt ja zuwenige Games für Dlss3.

Rabiata
2022-10-16, 19:20:16
Falls Du damit recht haben solltest, ist das OK. Ich bin leider felsenfest davon überzeugt, das NV mit der 4090 nur den Abfall verkauft. Das heißt, ich werde ganz sicher warten (hab auch nicht den Druck mit der 3090). Ich bin auch nicht damit einverstanden NV 2500€ für eine 4080TI zu geben, so generell gar nicht.
Für das Geld will ich einen nahezu Vollausbau sehen.
Bis Ende November wird vermutlich Navi31 raus sein, die 6 Wochen würde ich an Deiner Stelle auch abwarten. Navi 3 mag nicht unbedingt besser sein (laut Nvidia-Fetischisten gleich gar nicht :wink:), aber vielleicht drückt ja die Konkurrenz den Preis.

Ich bin auf den Vergleich gespannt. Nvidia hat gut vorgelegt, das bestreite ich nicht. Mal sehen, was AMD so kann.

Gast
2022-10-16, 19:46:01
Fazit:
Ein Geschoss sondergleichen, welches aber selbst für die beeindruckende Leistung maßlos überteuert ist. Nicht kaufen.

FarCry
2022-10-16, 20:12:36
Fazit:
Ein Geschoss sondergleichen, welches aber selbst für die beeindruckende Leistung maßlos überteuert ist. Nicht kaufen.

Würde ich auch so sehen.
Für ca. 2x Leistung einer 6900XT (die aktuell ~800 kostet) gleich das Dreifache auszugeben... da muss man schon ein spezieller Freund der Mathematik sein.
Oder eben Geld bis zum Abwinken haben, Hauptsache man hat den längsten.

Troyan
2022-10-16, 20:15:09
Wieso hat man Monitore mit 240 und mehr Herz? Sicher nicht um 100fps auf 200fps mit zusätzlichen Inputlag zu drücken. Da bleibt man besser bei 100 mit kürzeren Inputlag. Dlss3.0 ist reines Marketingfeatures für den längeren Balken. Dlss2.0 mit Reflex wird in der realität der Weg sein.

Ich nehme aber an, das dies noch in späteren Artikel folgen wird. Aktuell gibt ja zuwenige Games für Dlss3.

Klar, weil du auch 10ms spürst, aber 10ms nicht siehst. :freak:

Freestaler
2022-10-16, 20:48:36
Wieso 10ms? Es sind 5ms vs. 8ms.. aber egal. Und ja ab 100 empfinde ich als Bild flüssig mit VRR. Merke da kein unterschied von 100 zu 165 fps. Trotzdem spiele ich z.B. CS:GO lieber ohne limiter mit mehr als 300fps. Da merke ich iö Bild kein unterschied, bilde aber mir ein, besser zu treffen. Wie vermutlich die meisten.

lilgefo~
2022-10-16, 21:09:22
Verstehe die Diskussion um die Preise überhaupt nicht. Das Hobby PC ist immer noch extrem billig wenn man es mal mit anderen Hobbies wie Autos, Fliegerei, Boote, Reisen oder anderen Sachen vergleicht. Und eine 4090 oder Navi31 sind keine glorifizierten Taschenrechner die 3 Leute in 2 Wochen in einer Garage zusammenzimmernm sondern hochkomplexe Produkte an denen hunderte oder gar tausende hochqualifizierte und hochbezahlte Leute monatelang oder jahrelang dran arbeiten müssen und es gibt halt auch nur 2 Firmen weltweit die so etwas überhaupt leisten können. 2000€ dafür sind sicher alles nur nicht überteuert.
Ich mein es war sogar Leo der vor Kurzem ne Übersicht über die explodierenden R&D Kosten für GPUs gepostet hat da kann man sich mal gut anschauen was das für ein AUfwand ist.

madshi
2022-10-16, 21:57:47
Die Latenz des Spiels wird durch die höhere Framerate somit auch nicht verbessert, sondern bleibt gegenüber der Variante ohne DLSS3 gleich (in der Praxis sogar leicht höher). Unabhängig der sehr unterschiedlichen Nutzer-Meinungen zu DLSS3 darf zudem der Punkt gelten, dass ein Upscaler zur Frameraten-Verbesserung eher etwas für kleinere Grafikkarten des Portfolios ist. Gerade bei einer GeForce RTX 4090 sollte DLSS3 keine große Relevanz entwickeln können, dafür ist die Performance der neuen nVidia-Grafikkarte unter nativem Rendering einfach viel zu hoch.
Angehängt ein schönes Bild von Hardware Unboxed (YT). Es zeigt, daß die Zwischenbildberechnung von DLSS3 tatsächlich spürbar die Latency erhöht. Leider passiert das grundsätzlich und immer.

Praktisch kommt Hardware Unboxed zu einem ganz anderen Fazit: Nämlich daß gerade für kleinere Grakas DLSS3 *keine* gute Lösung ist, weil deren Latenz eh schon schlechter ist, und DLSS3 das dann nochmal verschlechtert.

Sinn macht DLSS3 aus meiner Sicht hauptsächlich für Spiele, wo die Latenz nicht so wichtig ist, dafür das flüssige Gameplay ein echter Bonus ist. Der Microsoft Flight Simulator ist da wohl ein gutes Beispiel. Nur leider hat DLSS3 einige ziemlich fiese Artefakte mit OSD-Elementen (sich bewegende Schrift-Überblendungen). Von daher weiß ich ehrlich gesagt nicht, wie sinnvoll das ganze überhaupt sein wird.

Gast
2022-10-16, 22:52:50
Hey, finde nur ich das kurios, oder auch jemand anders?
Die 4090 hat fast 3x so viele Transistoren, dazu noch viel höhere Taktraten, ist aber gerade mal um gut 50% schneller als die 3090/ti in 4k!
Da stimmt doch etwas nicht? Ich kann mir diese Diskrepanz nicht erklären.
Ideen?

MadManniMan
2022-10-17, 00:00:54
(DLSS3)

Das wollte ich auch gerade so ähnlich schreiben :up:

Das ist ja das Perfide an Frame Generation: Wenn auch pro Spiel unterschiedlich, so haben doch höhere FPS immer für sowohl gesteigerte Flüssigkeit als auch verringerte Latenz gesorgt - das ist jetzt vorbei.

Letztlich werden sich gewiss auch einige Anwender finden, die die erhöhte Flüssigkeit schätzen werden und dann mit SEHR vielen FPS glücklich werden und das ist auch okay, aber das muss von den Multiplikatoren in der Szene immer und immer wieder herausgestellt werden.

Gast
2022-10-17, 00:23:32
Die 4090 hat fast 3x so viele Transistoren, dazu noch viel höhere Taktraten, ist aber gerade mal um gut 50% schneller als die 3090/ti in 4k!

Sie ist einfach dermaßen schnell, dass sie oft auch noch in 4k CPU-limitiert wird, wie auch das oftmalige nicht ausnutzen der Powerlimits zeigt.

Raff
2022-10-17, 00:23:49
Sehe das genauso wie Gast: DLSS 3.0 ist nur dann sinnvoll wenn man schon ~100 fps + 240 Hz Monitor hat. Tim von HWUB hat das schön rausgearbeitet (https://www.youtube.com/watch?v=GkUAGMYg5Lw): Die Latenzproblematik bringt selbst 60 fps (base-fps) dazu sich schwammig anzufühlen, weil eben zwangsläufig Latenz dazu kommt. Und so etwas will man sicherlich niemand zumuten der schon >1000€ für die GPU ausgibt (was jede angekündigte RTX 40 ist...).

Man sollte auf keinen Fall in NVs Marketingfalle tappen und DLSS 2.x ohne Reflex mit DLSS 3.0 vergleichen. Das ist einfach nur sinnfrei, da es keinen wirklichen Grund gibt mit DLSS 2.x kein Reflex (oder generell) zur Latenzverbesserung zu nutzen. Zusätzlich kommt da noch der Abschlag bei der Bildqualität dazu, da mit jedem FPS weniger die, gegenüber DLSS 2.x, deutlich schlechtere Bildqualität umso länger auf deinem Bildschirm angezeigt wird. Das ist maximal für langsamere Games (sowohl was Action auf dem Bildschirm als auch Inputtechnisch angeht) ala Anno oder Flightsimulator gangbar. DLSS 3.0 ist rein vom Nutzen her auf demselben Nivau wie DLSS 1.0 - eine reine Machbarkeitsstudie mit deutlich mess- und sichtbaren Pferdefüßen.

Nvidias Argumentation ist zumindest nicht völlig aus dem Weltraum: DLSS 3 (das Reflex unabschaltbar inkludiert) muss sich nur besser anfühlen als die Nicht-Geforce-Darbietung. Dort gibt es die Option nicht, also stellt sich durchaus die Frage eines unbefangenen Interessenten: Was fühlt sich denn nun besser an - die Radeon oder die Geforce mit DLSS 3? Wer bei Nvidia zuschlägt, erhält Reflex als Einzel-Option, unabhängig von DLSS und der Auflösung, als zusätzlichen Latenztöter dazu.

MfG
Raff

Leonidas
2022-10-17, 04:11:54
Angehängt ein schönes Bild von Hardware Unboxed (YT). Es zeigt, daß die Zwischenbildberechnung von DLSS3 tatsächlich spürbar die Latency erhöht.

Ich lese hier:
63.5ms - nativ
62.6ms - DLSS "Quality" + Frame-Gen
52.1ms - DLSS "Perf" + Frame-Gen

Klar, rein DLSS ohne Frame-Gen ist etwas besser. Technisch erhöht Frame-Gen die Latenz. Aber gegenüber nativ kommt man nicht schlechter.

Was natürlich fehlt, ist der ansonsten übliche Effekt von höherer Framerate = bessere Latenz.

Freestaler
2022-10-17, 05:45:28
Die Zahlen bzw. Messungen sind mMn. nicht korrekt erfasst.

Nativ mit Reflex, 42fps 63.5ms latenz, 23,8ms je Bild.
Nun gehts ab auf Dlss Quality. 72fps 47ms latenz, 13,8ms je Bild.

Wie kann die Latenz 16.5 ms besser werden obwohl Dlss dazu kommt (was üblicherweise latenz kostet zu nativ mit gleicher fps) und das Bild nur 10ms schneller kommen kann gemäss fps? Ich denke die Messmethoden sind fehlerhaft (war da nicht was mit Nv eigene Tools als Review vorgabe?). Microstuttering, gerade bei so tiefen Frames gilt es auch noch zuklären.

Klar, am Ende entscheidet das Erlebnis. Im moment passen aber die Zahlen nicht und die Erfahrungsberichte, auch hier im Forum, sind nicht begeisternd. Mir scheint Dlss3.0 analog 1.0 noch nicht bereit. Die "Presse" ist dazu aber sehr ruhig, qie auch bei dlss1 wenn es um realistische Einschätzung ging. Mehrheitlich erst mit Dlss2 war dann dlss1 erst kritisch beurteilt worden.
Evtl liegts auch daran, das noch zuwenig Titel gibt um Dlss3 zu prüfen. Da aber Dlss3 eigentlich das einzige neue ist, neben der gesteigerten Rohpower, hätte ich hier mir mehr info und Tests erhofft. Und nicht nur Marketing. Immerhin war im Vorfeld mal was von Extrapolation im Forum in der Runde und davon sind wir jetzt leider weit weg. Und per Interpolation, mei die gibts in consumer HW wie z.b. TV mehr als 20 Jahre. Da würde ich jetzt gern sehe was besser gemacht wird und wo der Mehrwert von der "KI" und den neuralen Netzen und was alles spezielles jetzt neu dabei ist. Bia dato eben erst Marketing.

Gast
2022-10-17, 07:38:08
Klar, rein DLSS ohne Frame-Gen ist etwas besser. Technisch erhöht Frame-Gen die Latenz. Aber gegenüber nativ kommt man nicht schlechter.



Aber nur dank der Latenzverbesserung von DLSS2, kommt man insgesamt mit DLSS2 + Framegen auf eine vergleichbare Latenz.

Cyberpunk ist hier auch ein "dankbares" Beispiel, weil dessen Latenz einfach dermaßen schlecht ist.
Das aktuelle Cyberpunk das wir "normalos" spielen können, ohne Reflex, fühlt sich extrem grausam an.

Ich mein 100ms ohne Reflex, bei guter Internetverbindung ist eine derartige Latenz in Online games von Button-to-hitregistration erreichbar.

Aber ja, Cyberpunk wird sich wohl mit DLSS3 deutlich besser anfühlen als auf jeder AMD-Karte weil es dort einfach kein Reflex gibt.

Gastone
2022-10-17, 08:52:10
DLSS3 ist doch totaler Murks. Ob jetzt der Monitor interpolierte Bilder bei hohen Refreshraten oder einfach nur BlackStrobing hinzufügt oder die GPU ist doch völlig schnuppe.
Das Warten auf den echten folgenden Frame um dann ein Zwischenframe zu erzeugen verdoppelt die Latenz ohne Wenn und Aber. In dem Punkt macht es gar keinen Sinn auf die Anzeigedauer eines einzeln Frames zu achten, DLSS3 hat 1 Frame mehr Latenz als es ohne möglich ist.

Die 4090 ist zu gross, zu stromhungrig zu wenig Mehrleistung fürs Geld.
Scheinbar haben sich schon alle daran gewöhnt, dass man nicht mehr doppelte Leistung fürs Geld mit jeder neuen Gen bekommt wie das früher einmal war. Nur damals haben die GPU-Hersteller sich nicht mit Milliarden die Taschen voll gestopft. Wäre schön wenn mal 2 Jahre lang der Markt nicht durch Mining verzerrt wird und wir wirklich sehen was Daddeln wert ist.

Macht eigentlich auch nichts, das Ding ist in etwa so notwendig wie eine 100 Megapixel Kamera. Ob bei solchen die hohe Auflösung echt oder gefaked ist ist dem Consumer ja auch egal.
Dazu dann den 240Hz Monitor mit 8k bei 27 Zoll weils so schön hohe Zahlen sind aber mehr im kleinen Zimmer nicht Platz hat, da wird dann immer nur bei offenem Fenster gedaddelt weils eben bei 160FPS schnell zu warm wird.
Momentmal, ist ja Unsinn, die Karte hat kein DP2.0 ;D

Der gigantische Aufwand um kaum sichtbar mehr auf den Bildschirm zu bekommen im vergleich zu ner aktuellen Konsole ist doch komplett irrational, wo gibts denn Games die sone Karte notwendig machen?
Bis die auf den Markt kommen ist so ne GPU schon wieder Alteisen und hoffentlich sind wir dann wieder zurück zu 2-Slot GPUs bei 200W.

Gast
2022-10-17, 09:18:23
Das Warten auf den echten folgenden Frame um dann ein Zwischenframe zu erzeugen verdoppelt die Latenz ohne Wenn und Aber.


Nein, es erhöht die Latenz um 1x Frametime.
Die Frametime macht aber nur einen Bruchteil der Gesamtlatenz aus, die mitnichten verdoppelt wird.

madshi
2022-10-17, 10:14:50
Ich lese hier:
63.5ms - nativ
62.6ms - DLSS "Quality" + Frame-Gen
52.1ms - DLSS "Perf" + Frame-Gen

Klar, rein DLSS ohne Frame-Gen ist etwas besser. Technisch erhöht Frame-Gen die Latenz. Aber gegenüber nativ kommt man nicht schlechter.
Neee. Laß mich mal den Screenshot etwas ausführlicher in Text umwandeln:

1) "Native" = 63.5 = DLSS2 off, DLSS3 off, Reflex on
2) "DLSS Quality" = 47.0 = DLSS2 on, DLSS3 off, Reflex on
3) "DLSS Quality + Frame Gen" = 62.6 = DLSS2 on, DLSS3 on, Reflex on
4) "DLSS Performance" = 42.7 = DLSS2 on, DLSS3 off, Reflex on
5) "DLSS Performance + Frame Gen" = 52.1 = DLSS2 on, DLSS3 on, Reflex on
6) "Native (Reflex off)" = 101.5 = DLSS2 off, DLSS3 off, Reflex off
Wenn Du die Tabelle so anguckst, ist es doch ziemlich offensichtlich, daß Du nicht 1) mit 3) vergleichen solltest, sondern 2) mit 3), oder 4) mit 5), oder nicht? Und da steigt die Latency bei Quality von 47.0 ms auf 62.6 ms, also sie verschlechtert sich um 33%. Bei Performance sind es 22%.

Leonidas
2022-10-17, 10:20:49
Klar, sie verschlechtert sich zwischen DLSS2 und DLSS3. Aber nicht zwischen nativ und DLSS3.

madshi
2022-10-17, 10:45:51
Klar, sie verschlechtert sich zwischen DLSS2 und DLSS3. Aber nicht zwischen nativ und DLSS3.
Korrekt. Aber wer schaltet denn heutzutage DLSS2 aus, wenn das Spiel es unterstützt? Die entscheidende Frage ist doch, ob die Zwischenbildberechnung *an sich* hilfreich ist oder nicht. Also ob der User die Zwischenbildberechnung aktivieren sollte oder nicht. Um diese Frage zu beantworten ist der Vergleich zu native nicht wirklich hilfreich.

Ich denke, wir brauchen bessere "Begriffe". Wenn wir von DLSS3 reden, meinen wir damit DLSS2+ZwBild? Oder meinen wir nur ZwBild? Wenn wir sagen, daß DLSS3 gut oder schlecht ist, meinen wir damit daß DLSS2+ZwBild beide gut oder schlecht sind? Oder nur ZwBild?

Ich wünschte, Nvidia hätte die ZwBild-Berechnung nicht mit DLSS vermengt, sondern hätte das als extra Feature eingebaut. Also wäre DLSS2 einzeln geblieben und ZwBild-Berechnung wäre dann sowohl mit als auch ohne DLSS2 aktivierbar gewesen. Dann hätte sich das Marketing auch einen tollen neuen Namen für die ZwBild-Berechnung ausdenken können.

Der Grund warum sie das nicht gemacht haben ist daß DLSS2 und ZwBild die gleiche (oder fast die gleiche) Unterstützung der Spiele braucht. Das heißt, Spiele, die DLSS2 unterstützen, können recht einfach auch ZwBild unterstützen. Und Spiele, die DLSS2 nicht unterstützen, unterstützen garantiert nicht ZwBild. Deshalb haben sie es wahrscheinlich vermengt.

Jedenfalls denke ich, daß die ZwBild getrennt von DLSS2 getestet und beurteilt werden sollte. Ich finde den Vergleich von Native gegen DLSS3 komplett unwichtig, weil ich ja DLSS2 auch ohne ZwBild verwenden kann. Für mich ist einzig und allein der Unterschied zwischen DLSS2 und DLSS2+ZwBild interessant.

Nvidias Argumentation ist zumindest nicht völlig aus dem Weltraum: DLSS 3 (das Reflex unabschaltbar inkludiert) muss sich nur besser anfühlen als die Nicht-Geforce-Darbietung. Dort gibt es die Option nicht, also stellt sich durchaus die Frage eines unbefangenen Interessenten: Was fühlt sich denn nun besser an - die Radeon oder die Geforce mit DLSS 3? Wer bei Nvidia zuschlägt, erhält Reflex als Einzel-Option, unabhängig von DLSS und der Auflösung, als zusätzlichen Latenztöter dazu.
Gutes Argument. Bisher haben Reviewer immer nur auf Framerates geguckt. Die Frage ist, ob die Latenz nicht genauso wichtig ist. Vielleicht sollten Reviewer ab jetzt sowohl Framerates als auch Latenz messen? Sowohl Reflex als auch DLSS3 scheinen das nötig zu machen. Reflex ist da bisher ein bißchen ignoriert worden.

Ist aber wahrscheinlich nur eine Frage der Zeit, wann AMD mit zumindest einem Reflex-Konkurrenten heraus kommt. Bei der ZwBild-Berechnung könnte das für AMD deutlich schwieriger werden, weil die kommt nur deshalb ohne große CPU-Belastung aus, weil Nvidia GPUs einen extra "Optical Flow Accelerator" verbaut haben. Ich weiß nicht, ob AMD etwas ähnliches hat? Wenn nicht, hat AMD wahrscheinlich keine Chance, DLSS3 zu "kopieren". Dazu ist ein OFA unbedingt nötig. Für die CPU wäre das viel zu aufwendig, das (in halbwegs guter Qualität) zu berechnen.

MiamiNice
2022-10-17, 10:52:08
Niedrige Frameraten haben zwei Probleme:
- Bild ist nicht flüssig, die Optik leidet
- Erhöhte Latenz, Spielgefühl wird schwammig

Eines der beiden Probleme wird durch DLSS 3.0 gelöst, das andere nicht. Nur weil ich mit einem Hammer keine Schrauben reindrehen kann ist doch der Hammer nicht nutzlos?

Für das andere Problem gibt es G-Sync.

Bis Ende November wird vermutlich Navi31 raus sein, die 6 Wochen würde ich an Deiner Stelle auch abwarten. Navi 3 mag nicht unbedingt besser sein (laut Nvidia-Fetischisten gleich gar nicht :wink:), aber vielleicht drückt ja die Konkurrenz den Preis.

Ich bin auf den Vergleich gespannt. Nvidia hat gut vorgelegt, das bestreite ich nicht. Mal sehen, was AMD so kann.

Ich bin fast der Meinung man musste, um NV abzustrafen, mal ne AMD karte kaufen. Egal ob schneller oder nicht. Einfach nur mal so.

Verstehe die Diskussion um die Preise überhaupt nicht. Das Hobby PC ist immer noch extrem billig wenn man es mal mit anderen Hobbies wie Autos, Fliegerei, Boote, Reisen oder anderen Sachen vergleicht. Und eine 4090 oder Navi31 sind keine glorifizierten Taschenrechner die 3 Leute in 2 Wochen in einer Garage zusammenzimmernm sondern hochkomplexe Produkte an denen hunderte oder gar tausende hochqualifizierte und hochbezahlte Leute monatelang oder jahrelang dran arbeiten müssen und es gibt halt auch nur 2 Firmen weltweit die so etwas überhaupt leisten können. 2000€ dafür sind sicher alles nur nicht überteuert.
Ich mein es war sogar Leo der vor Kurzem ne Übersicht über die explodierenden R&D Kosten für GPUs gepostet hat da kann man sich mal gut anschauen was das für ein AUfwand ist.

Es geht nicht um den Preis ansich, zumindest mir nicht. Es geht eher darum für eine 4080 den 4090 Preis zu zahlen oder den 4080 Preis für eine 4070. Chip technisch gesehen.

Angehängt ein schönes Bild von Hardware Unboxed (YT). Es zeigt, daß die Zwischenbildberechnung von DLSS3 tatsächlich spürbar die Latency erhöht. Leider passiert das grundsätzlich und immer.

Praktisch kommt Hardware Unboxed zu einem ganz anderen Fazit: Nämlich daß gerade für kleinere Grakas DLSS3 *keine* gute Lösung ist, weil deren Latenz eh schon schlechter ist, und DLSS3 das dann nochmal verschlechtert.

Sinn macht DLSS3 aus meiner Sicht hauptsächlich für Spiele, wo die Latenz nicht so wichtig ist, dafür das flüssige Gameplay ein echter Bonus ist. Der Microsoft Flight Simulator ist da wohl ein gutes Beispiel. Nur leider hat DLSS3 einige ziemlich fiese Artefakte mit OSD-Elementen (sich bewegende Schrift-Überblendungen). Von daher weiß ich ehrlich gesagt nicht, wie sinnvoll das ganze überhaupt sein wird.

Der Test hat nur zwei Spiele F1 irgendwas und CP. Ich halte alleine schon die Native + Reflex Werte nicht für allgemein gültig und auch in den verkehrten Games abgegriffen. Was stören mich 5,6,7,8,9ms Latenz in irgendeinem Single Player Game. Spielt man online ist RT und sonstige Features eh off. Da sprechen wir über ganz andere Zahlen und ein ganz anderes Spielgefühl. Was soll man da generell mit DLSS3. Ich halte den Nutzen allgemein für fraglich. Im unterem FPS Bereich gibt es halt G-Snyc, würde aber eher die Grafik minimieren bzw. ne dickere GPU kaufen. Bei vielen FPS brauche ich DLSS3 eh nicht, eventuell für ein stabileres Bild DLSS2.

Gast
2022-10-17, 11:50:27
Für das andere Problem gibt es G-Sync.


Nein, G-Sync verbessert die Latenz überhaupt nicht, außer natürlich man vergleicht mit V-Sync.

Platos
2022-10-17, 13:51:41
Ich bin fast der Meinung man musste, um NV abzustrafen, mal ne AMD karte kaufen. Egal ob schneller oder nicht. Einfach nur mal so.

Das ergibt aber nur dann Sinn, wenn AMD günstiger ist. Wenn AMD genau so absurde Preise verlangt, wäre das ja nicht sonderlich sinnvoll.

Dann kauft man gar nichts, das wäre dann die sinnvolle konsequenz.

Sweepi
2022-10-17, 14:29:01
DLSS3 ist doch totaler Murks. Ob jetzt der Monitor interpolierte Bilder bei hohen Refreshraten oder einfach nur BlackStrobing hinzufügt oder die GPU ist doch völlig schnuppe.

Nicht wenn die DLSS Frames besser sind als die Interpolation des Monitors.
Die GPU ist der logische Ort, wo eine Interpolation stattfinden sollte.
BFI ist eine interessante Technik, welche aber ein leicht anderes Problem löst - zudem nicht von vielen Monitoren beherrscht wird, und wenn dann oft nur beim Verzicht auf andere Features, z.B. G-Sync oder eine niedrigere maximale Refreshrate.

DLSS3 ist ein geiles Feature, was (wie immer, von allem Marketing Abteilungen dieser Welt) von nVidia über Wert verkauft wird, wovon man sich aber nicht ablenken lassen sollte.

Mögliche Anwendungsfälle:
- Spiel lauft stabil mit 80 - 120 fps, Monitor kann mehr & leichte Latenz für viel mehr Frames spielt sich gut -> nehme ich
- Man spielt etwas im GPU-P0rn Modus, also mit Slider rechts / SSAA / Mods die Framerate total in die Knie gezwungen, macht eigentlich wenig Sinn, aber man lässt es für eine Stunde so, weil's halt geil aus sieht (Waren wir nicht alle mal in dieser Situation?) -> jetzt mit der Option "noch mehr Latenz, dafür aber bei gleich bleibender BQ* mehr Frames"
- Man spielt Eingabe-Latenz-agnostisches Spiel (z.B. Civ), und das Spiel ruckelt im CPU Limit sanft vor sich hin -> gratis flüssigeres Bild

(und wenn leicht gestiegene Latenz sich in der jeweiligen Konstellation sich schlecht anfühlt, bleibt DLSS3 halt aus *shrug*)
* Funktioniert nur, wenn die Zwischenbilder bei niedrigen FPS nicht heraus stechen.

MiamiNice
2022-10-17, 14:49:38
Nein, G-Sync verbessert die Latenz überhaupt nicht, außer natürlich man vergleicht mit V-Sync.

Ne, die Latenz nicht aber das Spielgefühl im unterem FPS Bereich. Wenn die Latenz nicht passt muss die Grafik halt runter oder eine neue GPU her.

Gast
2022-10-17, 15:03:30
Ne, die Latenz nicht aber das Spielgefühl im unterem FPS Bereich.

Nicht wirklich, es verhindert zwar bis zu einem gewissen Grad Stuttering, unrunder Frametimes und verhindert Tearing quasi ohne zusätzliche Latenz, low FPS fühlen sich aber gleich schwammig an wie ohne.

Lehdro
2022-10-17, 15:25:54
Nvidias Argumentation ist zumindest nicht völlig aus dem Weltraum: DLSS 3 (das Reflex unabschaltbar inkludiert) muss sich nur besser anfühlen als die Nicht-Geforce-Darbietung.
Klarer Selbstbetrug für den Marktteilnehmer (sprich: Käufer) der dass so für bare Münze nimmt, und im Extremfall meist sowieso nur NV Karten kauft - quasi nur noch ein Argument für die verbliebenen 20% der Käuferschaft. Die drehen den Spieß dann einfach um und vergleichen die Latenz von FSR 2.x + Antilag mit DLSS 3.0, einfach weil es argumentationstechnisch dasselbe ist was NV da abzieht und viel zu oft wiedergekaut wird. Strunzdumm, also lass doch lieber bei den technischen Vergleichbarkeiten bleiben und nicht dem Marketing folgen. Sonst kommt hier noch einer mit Radeon Boost an ;D

Leonidas
2022-10-17, 18:02:31
- Man spielt Eingabe-Latenz-agnostisches Spiel (z.B. Civ), und das Spiel ruckelt im CPU Limit sanft vor sich hin -> gratis flüssigeres Bild

DAT will ich! Aber ich befürchte, NV arbeitet allein zugunsten von 500-700 fps unter Titeln, die auch mit 100 fps gut bedient sind - und kümmert sich einen Scheiss um die Civs und Stellaris dieser Welt.

MiamiNice
2022-10-17, 18:17:45
Für eben diese Spiele kauft man einen dicken CPU mit massig ST Leistung und schnellen Ram. Aber, wenn ich DLSS3 richtig verstehe, bringt es eben dort nichts. Es "zuckelt" weil die Game Engine nicht genug Leistung vom CPU bekommt. Wo und wie ändert DLSS3 bzw. die Frame Gen. das Spielgefühl im CPU Limit? Die Game Engine eiert ja trotzdem weiter rum.

Gast
2022-10-17, 18:20:24
"Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt."

Ich glaube diese Option könnte man bei der Umfrage entfernen ;)

Gast Ritis
2022-10-17, 18:49:59
Für eben diese Spiele kauft man einen dicken CPU mit massig ST Leistung und schnellen Ram. Aber, wenn ich DLSS3 richtig verstehe, bringt es eben dort nichts. Es "zuckelt" weil die Game Engine nicht genug Leistung vom CPU bekommt. Wo und wie ändert DLSS3 bzw. die Frame Gen. das Spielgefühl im CPU Limit? Die Game Engine eiert ja trotzdem weiter rum.

Eben. Das macht alles kein Sinn. Über 60Hz haste doch mit Adaptive Sync ohnehin keine Bildreisser mehr zu befürchten. Bei schnellen Drehungen im Egoshooter kanns was bringen, aber da ist Radeon-Boost mit der Reduktion der Auflösung auch eine klevere Idee.

Die Zwischenbilder sind so schlecht gerendert dass es nur bei sehr hohen Frameraten nicht auffällt, aber dennoch gibt es Bildunruhe.

Es geht bei den sehr hohen Bildrate doch nur um den Input-Lag für ein besseres Spielgefühl, die Rotationsgeschwindigkeit bei Egoshooter, bei VR um die unmittelbare visuelle Darstellung abhängig von der Headsetorientierung.
Das hängt alles an dem Timing in der Game-Engine. Ein später dazugerechneter Intraframe macht da nur mehr Latenz für Zwischenbilder, die Insekten noch wahrnehmen können. Wir können nicht mal ganze alternierende BlackScreens bei 120Hz erkennen. Wenigstens machen die keine Bildunruhe sondern nur reduzierte Helligkeit ;D

Gast
2022-10-17, 19:04:11
Verstehe die Diskussion um die Preise überhaupt nicht. Das Hobby PC ist immer noch extrem billig wenn man es mal mit anderen Hobbies wie Autos, Fliegerei, Boote, Reisen oder anderen Sachen vergleicht.


Dort bekommt man aber eine entsprechende Leistung für sein Geld und zahlt nicht über 60% Gewinnmarge:
https://www.heise.de/news/Gewinnexplosion-bei-Nvidia-Siebtes-Rekordquartal-infolge-6488925.html
https://www.computerbase.de/2022-10/quartalszahlen-tsmc-schwimmt-nach-sommer-quartal-im-geld/

Wäre diese nicht so hoch, würde man eine 4090 für ~700$ bzw. für 1599$ eine deutlich schnellere GPU bekommen. Zum Beispiel eine Dual-GPU oder einen ~800mm² Chip mit HBM-Speicher (außerdem mit NVLink, PCIe 5.0 und DP 2.0). NV hingegen bietet klobige Mittelklassewagen zum Preis und mit dem Verbrauch eines Sportwagens an, so als wären GPUs noch immer Gelddruckmaschinen(d.h. als hätte es keinen Miningcrash gegeben).

Lehdro
2022-10-17, 19:05:59
DAT will ich! Aber ich befürchte, NV arbeitet allein zugunsten von 500-700 fps unter Titeln, die auch mit 100 fps gut bedient sind - und kümmert sich einen Scheiss um die Civs und Stellaris dieser Welt.
In Stellaris sind die FPS an die Simulationsgeschwindigkeit und die Spielgeschwindigkeit gekoppelt. Du hast dann zwar ein "flüssiges" Game, aber es läuft weiterhin zäh wie Honig. Insofern 5800X3D > DLSS 3.0.
In Civ bringt es was, allerdings läuft das Spiel auch auf einem Taschenrechner flüssig.

Von daher: DLSS 3.0 sehe ich sinnvoll nur bei Spielen wie Anno oder Flightsimulator. Dazu noch die generelle Bildqualitätsschwäche...hachja, DLSS 3.0 ist schon ein richtiger Reinfall wenn man mal so richtig drübernachdenkt.

madshi
2022-10-17, 19:08:52
> Wie ist der Ersteindruck zu nVidias GeForce RTX 4090?
> Option 1: Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt.
> 2 Stimmen

Häh?

Gast
2022-10-17, 19:11:07
> Wie ist der Ersteindruck zu nVidias GeForce RTX 4090?
> Option 1: Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt.
> 2 Stimmen

Häh?
Genau das habe ich mir eben auch gedacht. May the real slim shady please stand up?

Lehdro
2022-10-17, 19:12:18
3090 SLI :D

madshi
2022-10-17, 19:33:28
Ist 3090 SLI besser als 4090 SLI? :tongue:

Cubitus
2022-10-17, 19:35:22
SLI ist leider tot :frown:

War geil damals, hätte ja zwei 4090 da gehabt :freak:

AMD Center
2022-10-17, 19:38:53
Negativer Ersteindruck. Die Karte ist einfach schlecht.

Gast
2022-10-17, 19:46:08
> Wie ist der Ersteindruck zu nVidias GeForce RTX 4090?
> Option 1: Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt.
> 2 Stimmen

Häh?

Vielleicht A100-Besitzer. :ugly:

Gast
2022-10-17, 20:47:17
Vielleicht A100-Besitzer. :ugly:
Oder NVIDIA Mitarbeiter ;)

Gast
2022-10-17, 21:10:01
Wird interessant wieviele " Positiver Ersteindruck, bin aber schon mit gleichwertigem oder besserem eingedeckt." wählen 🤣

Blase
2022-10-17, 22:27:19
...primär mißfallen die Anforderungen an Netzteil, Gehäuse, CPU, etc.

Mal sehen, ob ich diesen Punkt widerlegen kann... ;)

MfG Blase

Raff
2022-10-17, 23:40:41
DLSS 3 ist das neue SLI. ;)

MfG
Raff

iamthebear
2022-10-18, 00:25:22
Die Verlustleistung ist ja noch einigermaßen im Rahmen. Mit 300W TDP ist der Performanceverlust überschaubar. Mit etwas undervolten könnten auch 250W noch sinnvoll laufen wenn man auf 800mV runter kommt.

Aber der Preis ist einfach nur eine Frechheit. Aktuell sind wir um die 2200 Euro und wor reden hier von keiner Full AD102 Titan. Das ist ein massiv zusammengeschnipselter Die vergleichbar mit der 3080.

Ich habe mir vor 2 Wochen eine 6800 XT um 679 bei MF geholt und muss sagen, dass dies vermutlich die bessere Entscheidung war.

bad_sign
2022-10-18, 01:59:59
Wer bei Nvidia zuschlägt, erhält Reflex als Einzel-Option, unabhängig von DLSS und der Auflösung, als zusätzlichen Latenztöter dazu.

MfG
Raff
Hilf mir auf die Sprünge aber AMD hat doch zuerst ihr Anti-Lag rausgebracht?

Leonidas
2022-10-18, 05:41:33
Für eben diese Spiele kauft man einen dicken CPU mit massig ST Leistung und schnellen Ram. Aber, wenn ich DLSS3 richtig verstehe, bringt es eben dort nichts. Es "zuckelt" weil die Game Engine nicht genug Leistung vom CPU bekommt. Wo und wie ändert DLSS3 bzw. die Frame Gen. das Spielgefühl im CPU Limit? Die Game Engine eiert ja trotzdem weiter rum.

Aber die Grafik-Darstellung könnte flüssiger aussehen. Und Latenz-kritisch sind die Eingaben in derart Spielen nicht. Entweder es ist Runden-basiert (Civ), oder man kann das Spiel anhalten (Stellaris).

Dass das Spiel insgesamt nicht schneller läuft, ist mir klar. Mich irritiert nur die zähflüssige Grafik-Darstellung, die im CPU-Limit (im genauen: in einem Weltberechnungs-CPU-Limit) überhaupt nicht sein müsste.

Gast
2022-10-18, 06:55:46
3090 SLI :D

Selbst das ist nicht besser.

MiamiNice
2022-10-18, 09:18:56
Aber die Grafik-Darstellung könnte flüssiger aussehen. Und Latenz-kritisch sind die Eingaben in derart Spielen nicht. Entweder es ist Runden-basiert (Civ), oder man kann das Spiel anhalten (Stellaris).

Dass das Spiel insgesamt nicht schneller läuft, ist mir klar. Mich irritiert nur die zähflüssige Grafik-Darstellung, die im CPU-Limit (im genauen: in einem Weltberechnungs-CPU-Limit) überhaupt nicht sein müsste.


Wäre das wirklich der Fall bei so einem Spiel? Ich spiele selber viel Stellaris und, für mich, wird der Spielfluss immer langsamer. Das mache ich an Einheiten aus, die sich langsamer und stockender bewegen und daran das oben rechts das Datum immer langsamer voran schreitet. Da ich mir keine FPS einblenden lasse beim gamen, ist ein Immersions Killer, wird mir hier DLSS3 + Frame Gen. nicht bringen. Es wird "optisch" immer so weiter stocken.
Lange Rede, kurzer Sinn: In Games wie Stellaris ist der Frame Counter irrelevant (wenn er von der Engine entkoppelt ist). Man will die Engine beschleunigen für einen Speed Up, nicht die Frames verdoppeln.

Platos
2022-10-18, 09:39:24
Das ist ein interessanter Gedanke. DLSS 3.0 macht sich ja gerade bei starrer UI sehr schlecht. Aber wie sieht es bei nicht starren Elementen wie Countdowns, Zeitangaben (Datum) usw? Da müsste es ja noch schlechter sein vermutlich.

Gast
2022-10-18, 09:57:09
Das ist ein interessanter Gedanke. DLSS 3.0 macht sich ja gerade bei starrer UI sehr schlecht.

Umgekehrt, bei starrer UI ist es egal. Die Probleme gibt es ja gerade nur bei nicht starre UI.

MiamiNice
2022-10-18, 09:59:57
Wäre interessant wenn das mal ein 4090 Owner testen könnte. Ist ja alles nur "Blabla" so lange wir es nicht genau wissen. Ich werde aber keine 4090 kaufen um Stellaris zu testen ;)
Ich könnte allerdings diverse fordernde Spielstände zur Verfügung stellen, falls jemand Interesse hat.

Leonidas
2022-10-18, 10:32:44
In Games wie Stellaris ist der Frame Counter irrelevant (wenn er von der Engine entkoppelt ist). Man will die Engine beschleunigen für einen Speed Up, nicht die Frames verdoppeln.

Jein. Klar würde ich gern eine höhere Game-Geschwindigkeit haben. Aber das ist limitiert, irgendwann geht nicht mehr, ist CPU-Power zu Ende.

Was aber immer geht, ist die magere Grafik-Darstellung zu beschleunigen. Dafür reichen dann auch Zwischenbilder. Gerade beim Karten-Scrollen stört der Ruckeleffekt doch enorm (selbst bei angehaltener Zeit). Mehr Game-Performance wird da gar nicht gebraucht - nur eine flüssige Darstellung.

MiamiNice
2022-10-18, 10:56:40
Derart Ruckler, wie Du sie beschreibst, sind mit in Stellaris noch nicht aufgefallen. Ich werfe es nachher mal an, vielleicht habe ich sie auch einfach nicht wahrgenommen.

Legendenkiller
2022-10-18, 12:16:36
Die doppelten FSP für den doppelten Preis ist für mich kein Fortschritt.
Seit 2016 bekommt man schnellere Grafikakten nur noch gegen fast liniar höhere Preise. (eine 4090 ist 5-6 mal schneller als eine 1070 und kostet das 5-6fache)
Sowas kann ich nicht positiv bewerten.


Den Leuten die Sagen , ist doch ok wenn dopplet so schnell doppelt so viel kosten, kann ich nur sagen wenn das seit einer GF2 so gelaufen wäre würden GRafikkarten heute mehrere 100000€ kosten und wenn es seit einer Vodoo so laufen würde , würden heutige Grafikkarten viele Millionen kosten.

PS: ich staune auch wie es das Marketing schafft eine 2000€GRafikakrte als "normale Gamergrafikkarte" hinzustellen.
IMO ist es ein Entusiast Produkt für <1% der Gamer den der Kaufpreis egal ist. Grafikkarten für die Masse der Gamer liegen imo bei <500€.
Die bekommen aber seit Jahren keine Grafikkarten mehr die pro € schneller sind. Mit dem Ergebniss das eine 1060 für 250€ for 6 Jahren immer noch Stand der Dinge ist.

Ja ich weiß schon ... "aus dem Weg Geringverdiener"

madshi
2022-10-18, 12:51:15
Du, das war aber schon immer so, daß die Topmodelle viel zu teuer waren, gemessen an der Mehrperformance. Z.B. die 3090 Ti hat $1999 gekostet und war vielleicht ca. 25% schneller als die 3080 für $699. Oder die 3090 hat $1499 gekostet und war nur ca. 14% schneller als die 3080 für $699. Von daher finde ich die 4090 für $1599 in Ordnung.

Äußerst problematisch ist aber der 4080 Preis. Das ist absoluter Wucher, komplett und total unakzeptabel.

Legendenkiller
2022-10-18, 13:53:38
Eeine 3080 gab und gibt es nie zum versprochenen UVP. Selbst jetzt im Abverkauf kostet sie mit 800€ noch viel mehr.
Die 1070 hat im Abverkauf, als die 2070 für 499€ rauskam, 275€ gekostet. Ich hatte mit den 380€UVP gerechnet für die sie problemlos zu kaufen war.

Ja Top Karten waren mal, ganz früher TM, überproportional teurer. Aber auch das ist heute nicht mehr so. Eine 4080 16G hat ein schlechteres P/L Verhältniss als die 4090.
Eine 3080 hat nie das Preisniveau erreicht was immer wieder als Vergleich rangezogen wird.
Aktuell haben eine 3080 und eine 3090 genau die selben FPS / Euro ... obwohl die 3090 mehr als doppelt so viel Speicher hat. Also die 3080 ist im ganzen der schlechter Deal.

Iss halt nicht mehr so das es irgendwo im Mittelfeld die P/L Wunder gibt. Das geht bis an die Spitze mehr oder weniger linear hoch. Mit einer tendenz das die Top GRafiklösung sogar oft der beste Deal ist.

madshi
2022-10-18, 14:04:03
"Ganz früher"? Die Top Karten waren auch bei Ampere bis vor kurzem überproportional teuer. Das ist im Moment gerade nicht mehr so, einfach nur weil Du keine 3090 Ti für $1999 verkaufen kannst, wenn die 4090 $1599 kostet und viel schneller ist.

Leonidas
2022-10-18, 14:04:38
Eeine 3080 gab und gibt es nie zum versprochenen UVP. Selbst jetzt im Abverkauf kostet sie mit 800€ noch viel mehr.

Sinngemäß hast Du ja Recht. Aber die 800€ sind besser als Listenpreis - wenn man die Währungsschwankung rausrechnet. Gäbe es selbige nicht, wären dies ~670€.



Iss halt nicht mehr so das es irgendwo im Mittelfeld die P/L Wunder gibt. Das geht bis an die Spitze mehr oder weniger linear hoch. Mit einer tendenz das die Top GRafiklösung sogar oft der beste Deal ist.

Genau so dürfte es seitens der BWLer bei NV gedacht sein ;)

Rabiata
2022-10-18, 14:45:48
Wäre das wirklich der Fall bei so einem Spiel? Ich spiele selber viel Stellaris und, für mich, wird der Spielfluss immer langsamer. Das mache ich an Einheiten aus, die sich langsamer und stockender bewegen und daran das oben rechts das Datum immer langsamer voran schreitet. Da ich mir keine FPS einblenden lasse beim gamen, ist ein Immersions Killer, wird mir hier DLSS3 + Frame Gen. nicht bringen. Es wird "optisch" immer so weiter stocken.
Das dürfte an Dingen wie KI und Kollisionserkennung in Massenschlachten liegen. Eine schnelle GPU nützt da exakt gar nichts.
Ich habe eine Zeit lang X3 mit einem Mod gespielt, bei dem schon mal dutzende Schiffe in einen Kampf verwickelt werden konnten. Das führte zu einer Diaschau, obwohl gar nicht so viele Objekte im Sichtfeld waren. Die GPU allein betrachtet hätte sicher weit bessere Frameraten erzielt, aber da Frameberechnung und Spielelogik bei X3 gekoppelt sind, hat die langsame KI auch die Grafik ausgebremst.

MiamiNice
2022-10-18, 17:33:04
Was aber immer geht, ist die magere Grafik-Darstellung zu beschleunigen. Dafür reichen dann auch Zwischenbilder. Gerade beim Karten-Scrollen stört der Ruckeleffekt doch enorm (selbst bei angehaltener Zeit). Mehr Game-Performance wird da gar nicht gebraucht - nur eine flüssige Darstellung.

Ich checke das gerade gegen. Habe einen Save um 3320 geladen. Große Karte, alles aufgedeckt und diverse Zivilisationen auf der Map. Wenn ich auf der Sternenkarte mit WSAD navigiere, scrollt das butterweich, in jede Himmelsrichtung. Dabei ist es egal ob Pause oder nicht.
Es kommt allerdings immer ein kurzer Hänger wenn, die Engine eine Mitteilung poppt. Z.b. Einladung ins Bündnis, etc. pp.

Irgendwas scheint bei Dir zu limitieren.

Sorry wegen Offtopic

Gast
2022-10-18, 20:49:41
Oder NVIDIA Mitarbeiter ;)

Hoffentlich ein AMD-Mitarbeiter! ;)

Oder es war einer von diesen Dual-A100-Besitzern, der zweimal abgestimmt hat.:upara:

https://forum.level1techs.com/uploads/default/optimized/4X/5/c/6/5c6d2b4aa405fd2cf1172687f655f5981a11e395_2_824x1100.jpeg
https://forum.level1techs.com/t/has-anyone-liquid-cooled-an-a100-yet/167142?page=2

Leonidas
2022-10-19, 05:49:41
Irgendwas scheint bei Dir zu limitieren.

Danke für den Hinweis. Scheine ich in die falsche Richtung gedacht zu haben. Muß glaub ich mal Speicherverbrauch checken.

Gast
2022-10-26, 00:48:09
Wegen ~3% an zusätzlicher Performance, die durch etwas schnelleren Speicher viel effizienter erreichbar wären als durch ~100W höheren Verbrauch, riskiert NV mal wieder (https://www.youtube.com/watch?v=sRo-1VFMcbc) brennende GPUs:
https://wccftech.com/nvidia-16-pin-connector-on-geforce-rtx-4090-graphics-card-burns-up-melts-the-cable-plug/

Das ist ja noch schlimmer als die Stabilitätsprobleme bei Ampere. NV hat offenbar nichts dazugelernt. :facepalm:

Leonidas
2022-10-26, 03:24:25
Ich checke das gerade gegen. Habe einen Save um 3320 geladen. Große Karte, alles aufgedeckt und diverse Zivilisationen auf der Map.

Ok. Probiert mal folgendes: Mehrere 250k Flotten am selben Standort. Klicke aus der Übersichts-Map auf diese gesammelten Flotten. Damit hast Du mehrere Flotten dann gleichzeitig aufgemacht. Jetzt durch die Map scrollen ....

Wenn es wieder Erwarten gut läuft, hängt es an meinem System. Ist halt nur ein Arbeits-PC.

Gast
2022-11-06, 21:54:58
Auch ohne Adapter kann es zum Schmelzen kommen:
https://www.tomshardware.com/news/rtx-4090-native-16-pin-melting

Schnitzl
2022-11-13, 10:16:09
ich wundere mich etwas... wie kann man bei der 4090 schon mit "gleichwertigem oder gar besserem" eingedeckt sein? :confused:

Corpsi
2022-11-13, 10:35:08
Ich bin schon gespannt, wie die Umfrage zur 4080 wird. Ich vermute, die wird deutlich schlechter abschneiden.

Corpsi
2022-11-13, 10:36:10
ich wundere mich etwas... wie kann man bei der 4090 schon mit "gleichwertigem oder gar besserem" eingedeckt sein? :confused:

Gute Frage eigentlich. :)

jorge42
2022-11-13, 10:41:44
ich wundere mich etwas... wie kann man bei der 4090 schon mit "gleichwertigem oder gar besserem" eingedeckt sein? :confused:
Gute Frage eigentlich. :)
bin ich also nicht der Einzige, der sich bei der Antwort am Kopf gekratzt hat :freak:

Platos
2022-11-13, 10:47:56
Das wurde schon diskutiert (glaube hier) :)

Gastanjette
2022-11-13, 11:10:44
Ich kratze mich auch am Kopf dass anscheinend wirklich nur 15% den Stromverbrauch als Hauptproblem sehen. Meist geht es um den Preis. Na gut dass der Krempel teuer bleibt.

AMD2
2022-11-13, 12:43:13
Die schlechteste Nvidia Karte aller Zeiten.

Gast
2022-11-13, 13:32:55
Die schlechteste Nvidia Karte aller Zeiten.

Nvidia will/muss halt Geld sparen, also nur ein Stecker und der noch Mini-Plaste. Bei den PCBs sieht man die Sparwut ebenso, dazu wenig Kondensatoren und das Netzteil die Arbeit machen lassen. Seit Turing haben sie mit der Seuche begonnen, die Haupt-VRMs auf der linken Seite zu platzieren, damit sie rechts kürzen konnten. Die Platzierung links hat dafür gesorgt, dass das Blower-Kühlerdesign im Konsumer-Bereich unrentabel wurde, da die VRMs bzw. ihr Kühlkörper mit heißer Luft angefönt wurden und damit deren Effizienz massiv (ca. 20%) den Keller runtergeht bei ständiger GPU-Last (Gaming) gegenüber früher mit der Positionierung rechts oder gegenüber einer Axiallösung. Eventuell hat nvidia ein Personalkostenproblem, zwar die besten Leute an Board (durch Abwerbung), aber erkauft durch immens hohe Löhne und Prämien und jetzt muss trotz schwindelerregender UVPs auf Teufel komm raus optimiert werden.

Leonidas
2022-11-13, 13:42:24
ich wundere mich etwas... wie kann man bei der 4090 schon mit "gleichwertigem oder gar besserem" eingedeckt sein? :confused:

Der eine oder andere dürfte eventuell vor einem professionellen System sitzen, was natürlich mittels mehreren Karten spielend schneller sein kann.

Der Rest ist die Quantifizierung der Troll-Quote ;)

PS: Manche könnten die Fragestellung auch derart verstanden haben: "Bin ausreichend gut eingedeckt". Eventuell werde ich ähnliches zukünftig in der Fragestellung sogar verwenden.

exzentrik
2022-11-13, 19:35:15
PS: Manche könnten die Fragestellung auch derart verstanden haben: "Bin ausreichend gut eingedeckt". Eventuell werde ich ähnliches zukünftig in der Fragestellung sogar verwenden.

Genau. Ich wählte diese Option auch schon im Sinne von "Bin ausreichend mit etwas Schnellem versorgt", wenn es bei der Umfrage passte.

burninghey
2022-11-14, 10:12:32
"Ausreichend gut eingedeckt" bin ich auch mit meinem 5700G. Es gibt irgendwie zu "preislich außerhalb meiner Interessenlage" keine Steigerung mehr. Denn das ist (bei mir persönlich) schon bei hohen dreistelligen Beträgen (oberhalb von 500€) der Fall. Die Idee, jemals einen vierstelligen Betrag für eine Grafikkarte auszugeben, finde ich absurd.

Gast
2022-11-14, 10:30:39
Also nach lesen der Beiträge hier lässt sich feststellen das Latenz oft mit Frametime verwechselt wird. Die Latenz ist aber nicht immer von der Frametime abhängig und kann sich sogar über mehrere Frametimeintervalle erstrecken.

Während unter 30fps die Latenz eine Frametime lang sein kann, kann es passieren das sie unter 120 fps mehrere Frametimes lang ist, denn sie ändert sich nicht immer mit sinkender Frametime. Vielmehr bleibt sie gleich lang.

Visuell hat die geringere Frametime den Vorteil, das innerhalb der Latenz schon angezeigt wird, worauf ich beispielsweise ziele. Leider gilt das nur für von der Engine gerenderte Frames, da nur in diese beispielsweise Eingaben verarbeitet werden können.

Nun kommt Nvidia Framegeneration ins Spiel und generiert Zwischenbilder, die den Latenzzeiraum auf noch mehr Bilder erstrecken, die aber nur eine Kopie des Inhaltes sind. Die Bilder selbst wirken nicht auf die Latenz, sie verteilen die Laufzeit jedoch auf noch mehr Bilder. Die Latenz bleibt also faktisch gleichlang wird aber anstatt über 3 fps dann über 6. Fps angezeigt die den gleichen Zeitraum brauchen wie 3 fps um berechnet zu werden, auf drei dieser Bilder hat der Anwender jedoch keinen Zugriff.

Genau das kann träger wirken, weil man gewohnt ist, das man über die Latenzlaufzeit 3 Bilder angezeigt bekommt, auf dessen Inhalt ich dann mit der beispielsweise Eingabelatenz reagieren könnte.

Aus meiner Sicht dient Framegeneration in dem Fall nur dazu, zu kaschieren das Ada eben doch nicht so schnell herumkommt wie erwartet.

NVidia kompensiert das ganze Problem dann mit Reflex, das merklich die Latenz minimieren kann, soweit dazu optimierte Peripherie verwendet wird und ja, das bedeutet weitere Mehrkosten für DLSS3.

Framegeneration ist also reines Marketing mit Mehrwert für höhere Einnahmen seitens Nv aus dem Geschäft mit zertifizierter Reflexhardware, unter dem Vorwand des
längsten Balken.

Die Latenz würde in dem Fall nur sinken, wenn sie statt über 3 fps unter 120Hz dann nur eine Laufzeit von 1fps hätte. Hat sie aber nicht. An der Latenz verbessert sich durch Framegeneration allein gar nichts. Es ist eher so das die Latenz dann über statt 3fps über 6 oder noch mehr Frames angezeigt wird.

DLSS3+Reflex arbeitet also in jedem Fall schneller als DLSS3+Framegeneration included Reflex.

Leonidas
2022-11-14, 10:35:06
Persönliche Vermutung: FrameGeneration lag schon seit Jahren in einer Schublade. Rausgeholt passend zu dem Zeitpunkt, wo man dachte, man braucht es unbedingt, um den längeren Marketing-Balken zu haben.

Legendenkiller
2022-11-14, 16:13:42
"Ausreichend gut eingedeckt" bin ich auch mit meinem 5700G. Es gibt irgendwie zu "preislich außerhalb meiner Interessenlage" keine Steigerung mehr. Denn das ist (bei mir persönlich) schon bei hohen dreistelligen Beträgen (oberhalb von 500€) der Fall. Die Idee, jemals einen vierstelligen Betrag für eine Grafikkarte auszugeben, finde ich absurd.


20% der Deutschen Haushalte hat eine Nettoeinkommen >5000€ pro Monat.

der Kaufpreis von 1000 oder 2000€ für eine Grafikkarte realtiviert sich halt, wenn man sich für 70k€ ein E- 2.Auto kaufen kann um ökologisch korrekt Samstags zum Bäcker zu fahren um frische Brötchen zu kaufen.

Gast
2022-11-15, 07:46:59
Der eine oder andere dürfte eventuell vor einem professionellen System sitzen, was natürlich mittels mehreren Karten spielend schneller sein kann.

Auch mit mehreren Karten kann man nicht schneller sein, zumindest nicht beim Gaming.

Gast
2022-11-15, 07:48:39
Also nach lesen der Beiträge hier lässt sich feststellen das Latenz oft mit Frametime verwechselt wird. Die Latenz ist aber nicht immer von der Frametime abhängig und kann sich sogar über mehrere Frametimeintervalle erstrecken.

Die Latenz ist immer von der Frametime abhängig.
Sie ist lediglich nicht NUR von der Frametime abhängig.